目前在辅助诊断、辅助治疗方面,人工智能技术取得了较大进展,但是医疗人工智能对知情同意带来了诸多新问题:弱人工智能的黑箱属性不突出,患者对医疗人工智能决策过程的知情可以用对临床试验结果等的知情以及其他严格管理措施去间接地实现;强人工智能需要提高可解释性或以其他方式应对黑箱问题。因额外风险的存在,在使用医疗人工智能时,医方应增加患者知情同意的内容,并利用人工智能应对知情同意的形式主义问题。医方还应在必要时特别说明诊疗主体与责任主体。医疗人工智能处理患者个人信息时亦需严守知情同意原则。
相似文献医疗人工智能研发机构在开展疾病辅助诊断、治疗、预测、管理等研发活动时,需结合不同的技术特点及研究规律进行充分的风险评估并有效应对风险,包括:健康数据驱动研究应该特别关注算法技术可靠性、高质量数据以及信息保护等方面的风险;评价医学人工智能干预措施的临床试验应该关注治疗安全性以及责任归属等方面的风险;评价医学人工智能效果与对社会影响的研究应该关注评价指标、方法与结果的可靠性等。只有研发各方在早期识别出可能会对个体、机构、社会等产生的风险,并做好相应的风险防控,才能促进人工智能技术在医学领域的健康发展。
相似文献人工智能在医疗健康领域的应用打破传统医−患决策格局,使其演变成医−机−患或机−患之间的多维医疗决策模式。人−机交互在医疗决策上存在三种可能性,分别为人工智能辅助医疗决策、人−机混合智能医疗决策以及人工智能替代医疗决策。然而,技术蕴含负面性,三种交互模式潜在着伦理风险。人工智能替代人类决策违背道德要求,混合智能才是未来发展趋势。因此,以混合智能为基础提出人−机共享医疗决策的伦理框架,通过构建信任、公正和责任的伦理基础,谋求实现以人为本的价值目标,用于增进人类福祉。
相似文献人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的可解释性困境,指出提高医疗领域人工智能可解释性的要求,以避免出现医疗事故定责不清、医疗数据隐私泄露、诊疗决策与患者信任相悖、患者医疗公平上的困境等诸多问题。为提高医疗领域中人工智能的可解释性,提出了健全医疗事故法律问责机制、培养医疗数据伦理观、加强医疗监督治理、防止医疗人工智能歧视等路径,以便推动人工智能在医疗领域的深入发展。
相似文献算法偏见与隐私泄露危机、意识难题与道德主体困惑、数字鸿沟与资源供给失衡加剧了医疗人工智能应用的技术伦理、信念伦理和分配伦理危机。由于伦理设计滞后,人工智能在临床应用的过程中表现出研究伦理与服务伦理的二阶性、自由意志与公共利益的矛盾性、智能技术与临床经验的集成性等特征。面对人工智能应用的伦理困境,需从人本性的视角规避智能技术异化,保护患者隐私;从主体性的视角克服道德主体困惑,缓解意识难题;从公众性的视角弥合资源数据裂沟,促进分配正义,通过强化正向伦理规约缓解人工智能临床应用的伦理危机。
相似文献医疗人工智能算法应用过程中存在诊疗活动自主性受限、诊疗过程透明性匮乏、医疗算法偏见性诱导以及安全性缺失风险。在风险防治过程中出现了传统监管缺陷、主体资格界定模糊、算法权力控制失衡、责任主体追溯难等现实挑战,迫切需要运用法律手段予以纾解。因此,应构筑医疗算法风险的全面防治体系,坚持医疗算法权力驯化的向善向美属性,增强医疗算 法权力对抗中主体权利的质效,厘清医疗算法责任归属中归责原则的困惑进而为医疗人工智能算法风险的防治补足法治力量。
相似文献负责任创新是目前探讨人工智能技术在医疗领域应用的重要理论,也是引导医疗人工智能应用技术向善发展的理想图景,其基本结构主要包括预测、反思、协商、反应四个维度。当前,医疗人工智能应用技术受技术“黑箱特质”的影响,暴露了其在安全、隐私、道德、分配等方面的伦理风险,桎梏了其应用于医疗事业的广阔前景。面对医疗人工智能应用技术的伦理困境,从其技术研发、设计、应用、跟踪等全过程分析嵌入负责任创新四维度模型,能够有效缓解医疗人工智能应用技术在实践中存在的伦理风险,从而真正实现其为人类健康的精准赋能。
相似文献医疗人工智能(artificial intelligence, AI)的发展离不开大数据的汇聚与标注,同时也引发了医疗大数据及其标注标准如何统一的问题。从AI发展对医疗大数据需求出发,指出建立医疗大数据统一标准的重要性与必要性,分析当前医疗AI技术的开发过程缺乏数据统一标准和临床共识,提出“以开放换取共识”的医疗大数据平台方案——素问系统,实现“算法工程师开发技术—临床医生编辑知识—伦理专家监控伦理”的一体化AI生产流程。最后,以素问系统中第一个开源项目——医学知识图谱,作为大数据抽取标准知识的案例,解析了如何以开放换取共识,让AI技术专家与临床专家共同打造可落地的医疗AI技术。
相似文献基于对生成式人工智能医学能力、风险以及第三者效应的综合考量,分析生成式人工智能介入医患关系可能构成的四种伦理转向:即“医−人工智能−患”共同决策模式(可能Ⅰ)、“患−人工智能”深度协作与医生保守立场(可能Ⅱ)、恢复传统“医−患”关系(可能Ⅲ)以及“医−人工智能”深度协作与患者保守立场(可能Ⅳ)。其中“医−人工智能−患”共同决策模式的交互本质可能进一步形成两种相互背离的发展取向:一是以患者为中心的医疗实践模式,二是计算机主义的医疗家长主义。
相似文献人工智能及大数据已经成为包括医学教育在内的各研究领域的热点问题。为了阐明人工智能在医学教育中的发展趋势,利用CiteSpace软件分析2013—2022年Web of Science核心合集文献270篇。从发文量、国家和地区、研究机构、作者、发表杂志、引文情况、关键词及发展趋势等方面进行综合分析得出研究结论:从2018年开始相关论文呈明显增长趋势,Mayo Clinic(梅奥诊所)成为全球发文量最多的研究机构;Friedman等形成了较为完整的研究团体;JAMA成为最高被引杂志;近年医学教育的人工智能应用研究热点问题主要集中在医学影像及虚拟手术等方面。
相似文献借助文献计量学方法,对人工智能伦理治理研究的宏观趋势进行分析发现:人工智能伦理治理近年来研究热度增长迅速,领域边界逐渐形成;阐明人工智能伦理与技术原理是实现相应伦理治理的理论前提;医疗健康与自动驾驶是当下人工智能伦理治理关注的热点领域;伦理学与治理理论的深度融合、伦理风险评级机制、伦理原则的实践具象化转进以及多元利益相关者协同的整合治理或将成为人工智能伦理治理未来关注的重要研究方向。
相似文献