首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 62 毫秒
1.

目前在辅助诊断、辅助治疗方面,人工智能技术取得了较大进展,但是医疗人工智能对知情同意带来了诸多新问题:弱人工智能的黑箱属性不突出,患者对医疗人工智能决策过程的知情可以用对临床试验结果等的知情以及其他严格管理措施去间接地实现;强人工智能需要提高可解释性或以其他方式应对黑箱问题。因额外风险的存在,在使用医疗人工智能时,医方应增加患者知情同意的内容,并利用人工智能应对知情同意的形式主义问题。医方还应在必要时特别说明诊疗主体与责任主体。医疗人工智能处理患者个人信息时亦需严守知情同意原则。

  相似文献   

2.

医疗人工智能研发机构在开展疾病辅助诊断、治疗、预测、管理等研发活动时,需结合不同的技术特点及研究规律进行充分的风险评估并有效应对风险,包括:健康数据驱动研究应该特别关注算法技术可靠性、高质量数据以及信息保护等方面的风险;评价医学人工智能干预措施的临床试验应该关注治疗安全性以及责任归属等方面的风险;评价医学人工智能效果与对社会影响的研究应该关注评价指标、方法与结果的可靠性等。只有研发各方在早期识别出可能会对个体、机构、社会等产生的风险,并做好相应的风险防控,才能促进人工智能技术在医学领域的健康发展。

  相似文献   

3.

人工智能在医疗健康领域的应用打破传统医−患决策格局,使其演变成医−机−患或机−患之间的多维医疗决策模式。人−机交互在医疗决策上存在三种可能性,分别为人工智能辅助医疗决策、人−机混合智能医疗决策以及人工智能替代医疗决策。然而,技术蕴含负面性,三种交互模式潜在着伦理风险。人工智能替代人类决策违背道德要求,混合智能才是未来发展趋势。因此,以混合智能为基础提出人−机共享医疗决策的伦理框架,通过构建信任、公正和责任的伦理基础,谋求实现以人为本的价值目标,用于增进人类福祉。

  相似文献   

4.
医疗人工智能广泛应用于现代医疗形式。医疗科技的日新月异,大大推动了人类医学的发展进程及诊疗模式。与此同时,医疗人工智能科技的发展出现了异化现象,并由此带来了人和社会的异化,诸如对人与类人机器的角色定位不清,人对技术的依赖性过度增强,医疗全生命周期中的责任伦理缺失,技术价值失衡等社会问题。以这些异化带来的伦理风险为进度,探析在医疗人工智能使用中的隐私安全与数据使用的边界问题,人在医疗过程中的主体地位问题,“医生-人工智能-患者”的共同决策体系构建问题,构建医疗人工智能科技向善理念及法律问题。  相似文献   

5.

人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的可解释性困境,指出提高医疗领域人工智能可解释性的要求,以避免出现医疗事故定责不清、医疗数据隐私泄露、诊疗决策与患者信任相悖、患者医疗公平上的困境等诸多问题。为提高医疗领域中人工智能的可解释性,提出了健全医疗事故法律问责机制、培养医疗数据伦理观、加强医疗监督治理、防止医疗人工智能歧视等路径,以便推动人工智能在医疗领域的深入发展。

  相似文献   

6.

算法偏见与隐私泄露危机、意识难题与道德主体困惑、数字鸿沟与资源供给失衡加剧了医疗人工智能应用的技术伦理、信念伦理和分配伦理危机。由于伦理设计滞后,人工智能在临床应用的过程中表现出研究伦理与服务伦理的二阶性、自由意志与公共利益的矛盾性、智能技术与临床经验的集成性等特征。面对人工智能应用的伦理困境,需从人本性的视角规避智能技术异化,保护患者隐私;从主体性的视角克服道德主体困惑,缓解意识难题;从公众性的视角弥合资源数据裂沟,促进分配正义,通过强化正向伦理规约缓解人工智能临床应用的伦理危机。

  相似文献   

7.

医疗人工智能算法应用过程中存在诊疗活动自主性受限、诊疗过程透明性匮乏、医疗算法偏见性诱导以及安全性缺失风险。在风险防治过程中出现了传统监管缺陷、主体资格界定模糊、算法权力控制失衡、责任主体追溯难等现实挑战,迫切需要运用法律手段予以纾解。因此,应构筑医疗算法风险的全面防治体系,坚持医疗算法权力驯化的向善向美属性,增强医疗算 法权力对抗中主体权利的质效,厘清医疗算法责任归属中归责原则的困惑进而为医疗人工智能算法风险的防治补足法治力量。

  相似文献   

8.

负责任创新是目前探讨人工智能技术在医疗领域应用的重要理论,也是引导医疗人工智能应用技术向善发展的理想图景,其基本结构主要包括预测、反思、协商、反应四个维度。当前,医疗人工智能应用技术受技术“黑箱特质”的影响,暴露了其在安全、隐私、道德、分配等方面的伦理风险,桎梏了其应用于医疗事业的广阔前景。面对医疗人工智能应用技术的伦理困境,从其技术研发、设计、应用、跟踪等全过程分析嵌入负责任创新四维度模型,能够有效缓解医疗人工智能应用技术在实践中存在的伦理风险,从而真正实现其为人类健康的精准赋能。

  相似文献   

9.

医疗人工智能(artificial intelligence, AI)的发展离不开大数据的汇聚与标注,同时也引发了医疗大数据及其标注标准如何统一的问题。从AI发展对医疗大数据需求出发,指出建立医疗大数据统一标准的重要性与必要性,分析当前医疗AI技术的开发过程缺乏数据统一标准和临床共识,提出“以开放换取共识”的医疗大数据平台方案——素问系统,实现“算法工程师开发技术—临床医生编辑知识—伦理专家监控伦理”的一体化AI生产流程。最后,以素问系统中第一个开源项目——医学知识图谱,作为大数据抽取标准知识的案例,解析了如何以开放换取共识,让AI技术专家与临床专家共同打造可落地的医疗AI技术。

  相似文献   

10.
通过对医疗人工智能发展应关注的医学人文相关伦理问题进行总结,探索并思考医疗人工智能长远发展应关注的伦理要求,包括对医师专业精神的要求、精准服务患者的个性需求、医疗人工智能服务公平可及以及医患之间的情感互动等问题,并对以类人智能为终极目标的人工智能技术在医疗应用提出深层的哲学问题,即如何对医学人工智能技术在医学人文伦理方面进行测试。进而提出医疗人工智能的"图灵测试"之问,以期在交叉领域及时就医疗人工智能发展的伦理框架进行深度哲学探讨,从而产生有针对性的可执行的测试方法和标准,促进医疗人工智能的健康长远发展。  相似文献   

11.
人工智能在医学领域应用已触及众多方向,从医学影像、病理诊断、精神卫生,到康复医疗、居家健康支持等都有所进展,也引发了广泛的哲学及伦理思考。在医学哲学视角下,探讨人工智能机器道德主体地位争议、机器使用所产生的多重关系的界定,以及人工智能技术价值判断及信任考量、数据获得性及隐私保护现状。进一步指出在充满不确定性的应用场景下,人工智能可能引起的不公平、歧视与风险责任,呼吁建立与技术深度融合的人工智能伦理审查和协同治理机制。  相似文献   

12.
浅谈情绪智力与人工智能中的感情计算   总被引:4,自引:0,他引:4  
基于情绪智力是加工、处理情绪及情绪信息的能力,而人工智能中的感情计算是要赋予计算机与人互动过程中情感信息的加工能力,人脑处理情绪信息的能力与电脑处理情绪信息的能力可以进行类比。近几年来,人工智能专家已经认识到情绪智力在感情计算中的重要作用和意义,把人类识别和表达情感的能力赋予计算机,开发了具有部分感情能力的计算机。新一代感情计算机的研发和应用依赖于人工智能专家与心理学家之间的密切合作,两者的研究成果可以相互借鉴和互补  相似文献   

13.
人工智能医疗器械分为具备辅助识别的二类和辅助诊断的三类医疗器械,我国三类人工智能医疗器械刚进入注册申报阶段。很多人工智能医疗器械以科研方式进入医疗机构,为受试者免费试用以获取临床试验数据,这给伦理审查带来极大挑战。伦理委员会审查三类人工智能医疗器械的核心问题包括风险评估、数据库、数据安全及软件更新。除关注医疗器械产品与试验操作外,更要从适用范围、研究要求与资料、研究方案、风险控制、数据库、数据安全和软件更新等方面仔细把关,不断总结经验,切实保护受试者权益,也助推我国人工智能医疗器械的健康快速发展。  相似文献   

14.
Matt J. Rossano 《Zygon》2001,36(1):57-75
Future developments in artificial intelligence (AI) will likely allow for a greater degree of human-machine convergence, with machines becoming more humanlike and intelligent machinery becoming more integrated into human brain function. This will pose many ethical challenges, and the necessity for a moral framework for evaluating these challenges will grow. This paper argues that community concern constitutes a central factor in both the evolution of religion and the human brain, and as such it should be used as the organizing principle for moral evaluations of AI technologies.  相似文献   

15.

基于对生成式人工智能医学能力、风险以及第三者效应的综合考量,分析生成式人工智能介入医患关系可能构成的四种伦理转向:即“医−人工智能−患”共同决策模式(可能Ⅰ)、“患−人工智能”深度协作与医生保守立场(可能Ⅱ)、恢复传统“医−患”关系(可能Ⅲ)以及“医−人工智能”深度协作与患者保守立场(可能Ⅳ)。其中“医−人工智能−患”共同决策模式的交互本质可能进一步形成两种相互背离的发展取向:一是以患者为中心的医疗实践模式,二是计算机主义的医疗家长主义。

  相似文献   

16.

人工智能及大数据已经成为包括医学教育在内的各研究领域的热点问题。为了阐明人工智能在医学教育中的发展趋势,利用CiteSpace软件分析2013—2022年Web of Science核心合集文献270篇。从发文量、国家和地区、研究机构、作者、发表杂志、引文情况、关键词及发展趋势等方面进行综合分析得出研究结论:从2018年开始相关论文呈明显增长趋势,Mayo Clinic(梅奥诊所)成为全球发文量最多的研究机构;Friedman等形成了较为完整的研究团体;JAMA成为最高被引杂志;近年医学教育的人工智能应用研究热点问题主要集中在医学影像及虚拟手术等方面。

  相似文献   

17.

借助文献计量学方法,对人工智能伦理治理研究的宏观趋势进行分析发现:人工智能伦理治理近年来研究热度增长迅速,领域边界逐渐形成;阐明人工智能伦理与技术原理是实现相应伦理治理的理论前提;医疗健康与自动驾驶是当下人工智能伦理治理关注的热点领域;伦理学与治理理论的深度融合、伦理风险评级机制、伦理原则的实践具象化转进以及多元利益相关者协同的整合治理或将成为人工智能伦理治理未来关注的重要研究方向。

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号