首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 62 毫秒
1.

以ChatGPT为代表的人工智能技术将为传统医疗领域带来一系列变革,主要体现在病症早期诊断、提供医疗解释、改变传统就医模式、担任“医生助理”、推动医学教育升级等方面。同时,ChatGPT在医疗领域也面临主体性责任缺失、患者是否信任、技术异化等诸多问题和伦理风险。目前,以ChatGPT为代表的人工智能技术并不能取代临床医生在诊疗过程中做出的“以病人为中心”,基于医学事实、道德、价值等多维度的综合判断。对ChatGPT为代表的人工智能技术在医疗中的应用风险的治理需要从技术可靠性、技术可信性、人文关怀等多方面进行研究。

  相似文献   

2.
人工智能情感技术迅猛发展,不断提升着机器模拟人类情感识别、表达与应答功能的能力。在便利生产生活的同时,人工智能情感加剧了情感生活的数据化、工具化、机械化,冲击着情感的私密性、真实性、体验感、意义感,衍生出情感隐私泄露、情感欺骗盛行、情感控制加剧和情感能力退化等伦理风险。这些伦理风险的背后是资本逻辑的驱动、情感算法自身的局限性、伦理观念的相对滞后与工具理性的泛滥。应对人工智能情感的伦理风险,从根本上说就是要合理规制资本、推动科技向善。具体而言,应实行敏捷治理、健全伦理法规、深化人文反思。  相似文献   

3.
人工智能的迅速发展给人们生产生活带来了极大便利,同时也引起了一定的伦理风险问题,诸如技术伦理风险、社会伦理风险和人类生存伦理风险等。这些伦理风险的背后是主体规范缺失和角色失准、情境变化中矛盾展现、人类关于实践意义认知差异和原则淡化、伦理形态的嬗变与重构等因素。规避人工智能所带来的伦理风险,须坚持维护人类共同利益的最高伦理规范,在全面深化基本原则遵循的基础上,推进伦理制度建设和新型人机关系建构,不断提升人类应对科技迅猛发展带来的伦理风险的能力和水平。  相似文献   

4.
高技术的伦理风险及其应对   总被引:1,自引:0,他引:1  
当代高技术的迅速崛起正日益改变世界,高技术的发展更增加了高技术伦理风险负效应的不确定性,既提供了更多的道德选择的可能性,又提出了严峻的挑战,进而使高技术的道德选择成为高技术活动主体不可回避的问题。为了在高技术的道德选择中尽可能减少高技术伦理风险负效应,就必须坚持必仁且智的价值取向、德得相通的运作方略、内圣外王的探究智慧,进而达到天人合一的澄明之境———使人-社会-自然系统协调发展。  相似文献   

5.
医疗人工智能广泛应用于现代医疗形式。医疗科技的日新月异,大大推动了人类医学的发展进程及诊疗模式。与此同时,医疗人工智能科技的发展出现了异化现象,并由此带来了人和社会的异化,诸如对人与类人机器的角色定位不清,人对技术的依赖性过度增强,医疗全生命周期中的责任伦理缺失,技术价值失衡等社会问题。以这些异化带来的伦理风险为进度,探析在医疗人工智能使用中的隐私安全与数据使用的边界问题,人在医疗过程中的主体地位问题,“医生-人工智能-患者”的共同决策体系构建问题,构建医疗人工智能科技向善理念及法律问题。  相似文献   

6.
唐代兴 《哲学分析》2023,(6):120-138+193
审视目前如火如荼的AI研发及其应用能否获得应该的伦理边界以保证将对人类的威胁降到可控范围,可从对AlphaGo的讨论入手,呈现其前世Chinook和Deep Blue与今生ChatGPT:对AlphaGo前世的追溯,发现人的生成性发展是以算术方式展开,AI技术的生成性进化是以几何学方式展开;对AlphaGo今生的展现,揭示人的无限潜能的开发是绝对有限,AI技术自身潜力开发敞开无限可能性。总言之,贯通AlphaGo的前世和今生,AI技术从最初的模拟到迁移再到扩展而生成自建构、自创设工作原理和运行机制,获得人的特质并具备人的主体性能力。在这种状况下,设计人工智能机的伦理边界已不可能,确立人工智能应用和再研发的伦理边界虽有可能性,但也面临研发和应用的公开化和透明化何以可能的实际困难;但更为困难的方面,却是技术专家或研究者、企业以及一些国家的政府能否真正克制本能的贪婪,并达成共识去解构利益、权力、垄断、争霸等理念,避免人工智能的发展走向野蛮的暴虐。  相似文献   

7.

在精神卫生领域,行使代理同意虽然获得了医学伦理的有力辩护,但同时也存在诸多伦理风险。精神卫生领域行使代理同意的伦理风险主要包括家长主义、至上主义和专制主义三大方面。它的形成与代理同意人性预设“扬善蔽恶”始源缺陷导致的“错位性解读”“非理性旁观”“非理性自信”以及“无原则纵容”等问题紧密相关。推广知情同意能力培训、建构代理同意承诺制、建立代理同意定期检查制是防范和抑制精神卫生领域代理同意伦理风险的针对性措施。

  相似文献   

8.
风险社会与责任伦理   总被引:1,自引:0,他引:1  
随着当今世界突发事件的增多、不确定性的增强 ,风险已成为当代社会的重要特征。当代西方学者对风险的解读已不仅仅局限于科学技术领域 ,而是把视野扩展至更广阔的社会文化层面 ,把风险置于现代化发展的大背景中进行考察。本文在深入分析风险产生动因的基础上认为 ,责任伦理的确立是人类应对风险社会挑战的有效途径。  相似文献   

9.
在人工智能时代,大数据和算法学已经广泛嵌入社会生活领域,但从本质上看,算法是政治传播的积极力量,算法本身也成为一种新的政治形态,但由于当前人工智能技术的权力滥用与价值失范问题,造成了数据空间中算法压迫、算法剥削、算法剥夺等殖民主义场景。因此,在面向未来的人工智能共同体框架下,人们亟需运用非殖民化理论对人工智能技术所引发的算法殖民等伦理问题进行审视,形成一种人工智能的非殖民化伦理策略。这对于在未来社会构建一个更加公平、负责任和高透明度的算法系统具有重要意义。  相似文献   

10.
介绍了最小风险概念的伦理作用,阐述美国学者L.M.Kopelman对澳大利亚、加拿大、南非、美国及国际医学组织会理事的<涉及人的生物医学研究国际伦理准则>法规或伦理规章对于最小风险不同解读方式之分析及建议,最后论述Kopelman对最小风险概念的分析及建议的意义.  相似文献   

11.

ChatGPT正在影响人们求医问药的传统方式,将医疗保健应用场景从院内转移到院外,提高了医学知识和诊疗信息的可及性。但ChatGPT在回答医学问题时也存在不足,如回答内容的不准确性和随意性,也难以将每个患者视为独立个体并给出体现医者智慧、思想和精神关怀的答案。用ChatGPT求医问药还存在生命健康、道德伦理、安全隐私和医疗公平风险。未来,在人工智能赋能医疗发展并促进人类健康的同时,仍应警惕ChatGPT对生命健康权、知情同意权、隐私保护权的冲击。

  相似文献   

12.
人工智能医疗器械分为具备辅助识别的二类和辅助诊断的三类医疗器械,我国三类人工智能医疗器械刚进入注册申报阶段。很多人工智能医疗器械以科研方式进入医疗机构,为受试者免费试用以获取临床试验数据,这给伦理审查带来极大挑战。伦理委员会审查三类人工智能医疗器械的核心问题包括风险评估、数据库、数据安全及软件更新。除关注医疗器械产品与试验操作外,更要从适用范围、研究要求与资料、研究方案、风险控制、数据库、数据安全和软件更新等方面仔细把关,不断总结经验,切实保护受试者权益,也助推我国人工智能医疗器械的健康快速发展。  相似文献   

13.

负责任创新是目前探讨人工智能技术在医疗领域应用的重要理论,也是引导医疗人工智能应用技术向善发展的理想图景,其基本结构主要包括预测、反思、协商、反应四个维度。当前,医疗人工智能应用技术受技术“黑箱特质”的影响,暴露了其在安全、隐私、道德、分配等方面的伦理风险,桎梏了其应用于医疗事业的广阔前景。面对医疗人工智能应用技术的伦理困境,从其技术研发、设计、应用、跟踪等全过程分析嵌入负责任创新四维度模型,能够有效缓解医疗人工智能应用技术在实践中存在的伦理风险,从而真正实现其为人类健康的精准赋能。

  相似文献   

14.

算法偏见与隐私泄露危机、意识难题与道德主体困惑、数字鸿沟与资源供给失衡加剧了医疗人工智能应用的技术伦理、信念伦理和分配伦理危机。由于伦理设计滞后,人工智能在临床应用的过程中表现出研究伦理与服务伦理的二阶性、自由意志与公共利益的矛盾性、智能技术与临床经验的集成性等特征。面对人工智能应用的伦理困境,需从人本性的视角规避智能技术异化,保护患者隐私;从主体性的视角克服道德主体困惑,缓解意识难题;从公众性的视角弥合资源数据裂沟,促进分配正义,通过强化正向伦理规约缓解人工智能临床应用的伦理危机。

  相似文献   

15.
国内医疗人工智能研究日益增多,具有多学科合作,并以数据驱动的特点。走访深圳开展健康领域人工智能研发的企业、医疗机构以及研究机构的开发者,了解到存在监管不足、数据收集及处理过程欠缺标准化、责任不清等挑战。并且,面临应该如何遵循医学科研伦理审查原则,如何合法合规收集、利用、共享数据并界定责任等问题。从医院进行伦理审查实践层面探讨医疗人工智能的研究价值、科学有效性、风险受益等的审查要点;医疗人工智能研究的法律考量主要包括个人信息收集和利用的边界,以及侵权责任主体的认定。  相似文献   

16.

人工智能在医疗健康领域的应用打破传统医−患决策格局,使其演变成医−机−患或机−患之间的多维医疗决策模式。人−机交互在医疗决策上存在三种可能性,分别为人工智能辅助医疗决策、人−机混合智能医疗决策以及人工智能替代医疗决策。然而,技术蕴含负面性,三种交互模式潜在着伦理风险。人工智能替代人类决策违背道德要求,混合智能才是未来发展趋势。因此,以混合智能为基础提出人−机共享医疗决策的伦理框架,通过构建信任、公正和责任的伦理基础,谋求实现以人为本的价值目标,用于增进人类福祉。

  相似文献   

17.

人工智能及大数据已经成为包括医学教育在内的各研究领域的热点问题。为了阐明人工智能在医学教育中的发展趋势,利用CiteSpace软件分析2013—2022年Web of Science核心合集文献270篇。从发文量、国家和地区、研究机构、作者、发表杂志、引文情况、关键词及发展趋势等方面进行综合分析得出研究结论:从2018年开始相关论文呈明显增长趋势,Mayo Clinic(梅奥诊所)成为全球发文量最多的研究机构;Friedman等形成了较为完整的研究团体;JAMA成为最高被引杂志;近年医学教育的人工智能应用研究热点问题主要集中在医学影像及虚拟手术等方面。

  相似文献   

18.

采用中间概念测量法,围绕病人自主权、保密、有利、公平分配四个中间概念,对我国S省某医学院1108名医学生医学伦理推理行为表现和动机水平进行调查。调查发现,医学生在面对多重叠加的复杂伦理问题时,推理能力相对较差;对医学伦理行为动机的判定优于对行为的判定;医学生的年级、性别、医学伦理负面事件的干扰等因素,都会对其医学伦理推理能力产生影响。基于此,医学伦理教育应构建全方位、全环境的教育模式,明确教学目标、创新教育方式以加强伦理推理能力培养,充分利用隐性课程的积极作用。

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号