首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   0篇
  2024年   1篇
排序方式: 共有1条查询结果,搜索用时 0 毫秒
1
1.
程海东  胡孝聪  陈凡 《哲学分析》2024,(1):174-185+199
人工智能体道德建模的目的是让它们在道德实践中与人类和其他智能体更好地相处。目前主要有四种建模策略:隐式、自上而下式、自下而上式和混合式。但是这些策略存在技术层面的困境,如设计范式、道德转译和算法黑箱等问题,并且在社会层面上也难以应对伦理对齐的困境。这是因为现行策略认为人工智能体在道德实践中发挥着线性作用,能够独立实现某种外在的道德规范,从而将人工智能体从实践中隔离出来。采用分布式道德机制来实现人工智能体道德建模,将人工智能体置于多智能体系统中,可以在人与人工智能体的交互式道德实践中形成开放、包容的道德规范和分配式道德责任。这种机制不仅能够消解现行策略的困境,还能够促进人工智能体与人类之间形成道德共生关系。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号