首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
医疗人工智能广泛应用于现代医疗形式。医疗科技的日新月异,大大推动了人类医学的发展进程及诊疗模式。与此同时,医疗人工智能科技的发展出现了异化现象,并由此带来了人和社会的异化,诸如对人与类人机器的角色定位不清,人对技术的依赖性过度增强,医疗全生命周期中的责任伦理缺失,技术价值失衡等社会问题。以这些异化带来的伦理风险为进度,探析在医疗人工智能使用中的隐私安全与数据使用的边界问题,人在医疗过程中的主体地位问题,“医生-人工智能-患者”的共同决策体系构建问题,构建医疗人工智能科技向善理念及法律问题。  相似文献   

2.
人工智能的迅速发展给人们生产生活带来了极大便利,同时也引起了一定的伦理风险问题,诸如技术伦理风险、社会伦理风险和人类生存伦理风险等。这些伦理风险的背后是主体规范缺失和角色失准、情境变化中矛盾展现、人类关于实践意义认知差异和原则淡化、伦理形态的嬗变与重构等因素。规避人工智能所带来的伦理风险,须坚持维护人类共同利益的最高伦理规范,在全面深化基本原则遵循的基础上,推进伦理制度建设和新型人机关系建构,不断提升人类应对科技迅猛发展带来的伦理风险的能力和水平。  相似文献   

3.

作为人工智能时代的新兴产物,ChatGPT在医学教育领域产生了极为重要的影响。ChatGPT的介入能以强大的算力、海量的数据和智能的模式,为医学教育工作提供多样化的帮助与服务,赋能医学教育的革新。ChatGPT在助力医学教育的同时亦产生了一系列伦理问题:致使师生信息面临着多重风险、导致师生交往的可能性异化、致使师生遭到算法的严重裹胁以及造成医学学术公平失信与不端。面对ChatGPT介入医学教育的伦理风险,应从科学技术、政府部门、教学单位和师生个体等层面进行协同治理、积极应对,推动ChatGPT在医学教育领域发挥正值效能。

  相似文献   

4.
高技术的伦理风险及其应对   总被引:1,自引:0,他引:1  
当代高技术的迅速崛起正日益改变世界,高技术的发展更增加了高技术伦理风险负效应的不确定性,既提供了更多的道德选择的可能性,又提出了严峻的挑战,进而使高技术的道德选择成为高技术活动主体不可回避的问题。为了在高技术的道德选择中尽可能减少高技术伦理风险负效应,就必须坚持必仁且智的价值取向、德得相通的运作方略、内圣外王的探究智慧,进而达到天人合一的澄明之境———使人-社会-自然系统协调发展。  相似文献   

5.
闫涛 《哲学分析》2023,(1):148-158+199
主体性是进行独立价值判断以及伦理探讨的前提,也决定着人工智能及其伦理探讨的阀域。没有主体意识的人工智能仍属于技术工具范畴,其伦理的探讨仍囿于种际伦理视域;拥有主体意识的人工智能可以进行独立的价值判断,才能生成自身的道德规范。人工智能伦理的哲学思考以人工智能的主体性设定为基础,集中探讨人工智能伦理的理论前提、人工智能伦理的边界,以及建构人工智能伦理的可能性等问题。  相似文献   

6.

在精神卫生领域,行使代理同意虽然获得了医学伦理的有力辩护,但同时也存在诸多伦理风险。精神卫生领域行使代理同意的伦理风险主要包括家长主义、至上主义和专制主义三大方面。它的形成与代理同意人性预设“扬善蔽恶”始源缺陷导致的“错位性解读”“非理性旁观”“非理性自信”以及“无原则纵容”等问题紧密相关。推广知情同意能力培训、建构代理同意承诺制、建立代理同意定期检查制是防范和抑制精神卫生领域代理同意伦理风险的针对性措施。

  相似文献   

7.

算法偏见与隐私泄露危机、意识难题与道德主体困惑、数字鸿沟与资源供给失衡加剧了医疗人工智能应用的技术伦理、信念伦理和分配伦理危机。由于伦理设计滞后,人工智能在临床应用的过程中表现出研究伦理与服务伦理的二阶性、自由意志与公共利益的矛盾性、智能技术与临床经验的集成性等特征。面对人工智能应用的伦理困境,需从人本性的视角规避智能技术异化,保护患者隐私;从主体性的视角克服道德主体困惑,缓解意识难题;从公众性的视角弥合资源数据裂沟,促进分配正义,通过强化正向伦理规约缓解人工智能临床应用的伦理危机。

  相似文献   

8.
人工智能医疗器械分为具备辅助识别的二类和辅助诊断的三类医疗器械,我国三类人工智能医疗器械刚进入注册申报阶段。很多人工智能医疗器械以科研方式进入医疗机构,为受试者免费试用以获取临床试验数据,这给伦理审查带来极大挑战。伦理委员会审查三类人工智能医疗器械的核心问题包括风险评估、数据库、数据安全及软件更新。除关注医疗器械产品与试验操作外,更要从适用范围、研究要求与资料、研究方案、风险控制、数据库、数据安全和软件更新等方面仔细把关,不断总结经验,切实保护受试者权益,也助推我国人工智能医疗器械的健康快速发展。  相似文献   

9.
10.
在人工智能时代,大数据和算法学已经广泛嵌入社会生活领域,但从本质上看,算法是政治传播的积极力量,算法本身也成为一种新的政治形态,但由于当前人工智能技术的权力滥用与价值失范问题,造成了数据空间中算法压迫、算法剥削、算法剥夺等殖民主义场景。因此,在面向未来的人工智能共同体框架下,人们亟需运用非殖民化理论对人工智能技术所引发的算法殖民等伦理问题进行审视,形成一种人工智能的非殖民化伦理策略。这对于在未来社会构建一个更加公平、负责任和高透明度的算法系统具有重要意义。  相似文献   

11.

在高风险的医疗场域中,自然语言处理技术中的语言区隔和技术内在设计缺陷可能对诊疗行为和医疗体系带来严重风险,其语言区隔阻碍了不同群体的医疗伦理公正,技术自身的“黑箱”性质与不可解释性可能导致错诊误诊等问题,同时技术的过度使用破坏了医疗场域中的伦理关系,危及人类在技术及其应用中的主体性地位。为防止自然语言处理技术在临床应用中可能出现不良的伦理后果,我们需要发扬人的主观能动性主导自然语言技术的发展,依据自然语言处理协会公布的道德规范框架和行为准则,评估当前的应用现状,建构和提供一个有温度有弹性的伦理模型和行动指南。

  相似文献   

12.

借助文献计量学方法,对人工智能伦理治理研究的宏观趋势进行分析发现:人工智能伦理治理近年来研究热度增长迅速,领域边界逐渐形成;阐明人工智能伦理与技术原理是实现相应伦理治理的理论前提;医疗健康与自动驾驶是当下人工智能伦理治理关注的热点领域;伦理学与治理理论的深度融合、伦理风险评级机制、伦理原则的实践具象化转进以及多元利益相关者协同的整合治理或将成为人工智能伦理治理未来关注的重要研究方向。

  相似文献   

13.
核电风险的社会可接受性及其决策伦理探析   总被引:1,自引:0,他引:1  
核电风险源于核技术潜在的风险和不确定性。核技术风险因其认知主体的知识状态、认知模式、认知策略等导致核技术风险具有主观建构性,我们通过对公众和核技术专家等不同认知主体的认知范式进行分析,不同认知主体具有不同的经验,因而存在不同的基本假设、概念体系、观察视角和研究方式。在对核技术风险感知的分析基础上,对核技术风险决策伦理规约进行探讨和分析,从而为核技术风险决策提供理论基础和实践借鉴,在规避核电风险的基础上合理利用核资源。  相似文献   

14.
孙伟平  李扬 《哲学分析》2022,(1):3-14+196
人工智能作为一种革命性、颠覆性的高新技术,正在深刻地改变、塑造着人与社会。在伦理道德领域,人工智能的研发、应用提出了许多新颖的问题,引发了剧烈的伦理冲突,特别是对人自身的道德主体地位提出了挑战。直面这些尖锐的新问题、新挑战,既有的一些伦理原则彼此缺乏联系,并没有作出应有的整体性回应,同时又很少顾及对人工智能发展的积极伦理支持。立足于智能科技的发展和社会的智能化趋势,在准确研判其伦理后果的基础上,可以构建一个以人本原则为核心、包括公正原则和责任原则在内的整体性的伦理原则体系。它力求对人工智能的研发、应用予以必要的引导和伦理规制,实现其为人类服务、促进人与社会发展的崇高价值目标。  相似文献   

15.
逐渐步入老龄化社会的中国,养老人力资源的短缺和"4-2-1"式家庭结构导致子女养老能力不足,护理机器人进入家庭代替或帮助(补位)子女为父母养老成为解决未来社会养老问题的一个可供选择的方案。然而,护理机器人补位子女养老会导致孝养关系疏离化、孝道降阶化等伦理风险。如果人们能够正确认识机器人在居家养老系统中处于帮助者与合作者的地位,树立护理机器人不是子女养老的替代者,而是子女养老的帮助者与合作者的共识;在护理机器人的设计中设置可以实现孝伦理的程序;在机器人养老产业发展中制定蕴含孝伦理要求的产业规范,那么,护理机器人补位子女养老所可能导致的伦理风险将会在一定程度上得以防范。  相似文献   

16.
风险社会与责任伦理   总被引:1,自引:0,他引:1  
随着当今世界突发事件的增多、不确定性的增强 ,风险已成为当代社会的重要特征。当代西方学者对风险的解读已不仅仅局限于科学技术领域 ,而是把视野扩展至更广阔的社会文化层面 ,把风险置于现代化发展的大背景中进行考察。本文在深入分析风险产生动因的基础上认为 ,责任伦理的确立是人类应对风险社会挑战的有效途径。  相似文献   

17.

负责任创新是目前探讨人工智能技术在医疗领域应用的重要理论,也是引导医疗人工智能应用技术向善发展的理想图景,其基本结构主要包括预测、反思、协商、反应四个维度。当前,医疗人工智能应用技术受技术“黑箱特质”的影响,暴露了其在安全、隐私、道德、分配等方面的伦理风险,桎梏了其应用于医疗事业的广阔前景。面对医疗人工智能应用技术的伦理困境,从其技术研发、设计、应用、跟踪等全过程分析嵌入负责任创新四维度模型,能够有效缓解医疗人工智能应用技术在实践中存在的伦理风险,从而真正实现其为人类健康的精准赋能。

  相似文献   

18.
通过伦理叙事实现情感共鸣,是古今中外普遍认同的道德教育的重要方法。伦理叙事发挥德育功能的根本原因在于,言说者以经验世界的范例激发了听讲者的情感共鸣。但是,伦理叙事激发情感共鸣的机理需要科学的揭示:为什么事实叙述可以激起主体之间的情感性反应和价值性回应。伦理叙事是在情景创设这一场域下,对受教育者进行价值引导,促进生命主体形成内在的伦理体验。伦理叙事产生情感共鸣的机理是:"塑形""传神""会意"的三维联动,即由情景创设形成情感共鸣之场域共振,叙事者的价值引导回应主体情感共鸣的内隐诉求,主体间隙的内在伦理体验形成情感共鸣的主观检视。  相似文献   

19.
原则主义是20世纪70年代产生于生命医学伦理学研究和实践领域的重要方法,近几年来随着人工智能的兴起,原则主义被不同行动主体在多层次、多领域广泛应用。然而,新兴技术引发道德难题的情境化、多元化、大众化等特征,使得原则主义在方法论意义上面临着诸如融贯性、伦理洗地、人类中心主义等多重困境。实际上,原则主义是当前科技伦理治理的有效工具,能够发挥构建科研文化的认知作用,在实践上也有利于科技伦理的多元主体参与、全球科技治理、伦理风险评估和敏捷治理,并能够为新兴技术的政策制定和立法提供价值基础。而当代原则主义的构建应遵循人与技术物相互融合、协同演化的基本理念,并非传统意义上的人类中心主义。  相似文献   

20.
The Confucian understanding of emotions and their ethical importance confirms and exemplifies the contemporary Western renewed understanding of the nature of emotions. By virtue of a systematic conceptual analysis of Confucian ethics, one can see that, according to Confucians, the ethical significance of emotions, lies in that an ethical life is also emotional and virtues are inclinational. And a further exploration shows that the reason for the ethical significance is both that emotions are heavenly-endowed and that there exists a union of emotions and reason in Confucian ethics. This will constitute a challenge to the so-called mainstream ethical theories which have been popularly engaged in seeking justifications for abstract moral rules. __________ Translated from Zhexue Yanjiu 哲学研究 (Philosophical Research), 2007, (3): 86–92  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号