首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
张玉新 《学海》2008,(2):105-111
从管理哲学的维度去理解先秦儒学,在本质上是一种创造性的诠释活动,其有效性奠基于对这一活动的内在机制与特征的充分说明.就目前而言,对诠释方法的反省尤其显得重要,它直接关系到在诠释过程中如何实现继承性与创造性的辩证统一.其中的关键,在于对诠释的无限性与有限性的理性自觉.由于诠释意味着诠释者与历史文本之间的互动问答,他们拥有着各自的权利和地位,因此这种辩证关系本身就成为对先秦儒学进行管理哲学诠释的限度.  相似文献   

2.
近代以来人类理性发展的一个基本趋势是:社会越向前发展、文明越向前推进,伦理理性便越是受到人们的关注和尊崇。然而,这并不意味着伦理理性可以无边界地肆意驰骋,相反,伦理理性的张力是有限度的。这既体现于人类理性内在机制中工具理性对它的约束和牵制,也体现于近代以来人类社会发展实践的内在逻辑建构。研究和探讨伦理理性的张力及其限度,不仅有助于矫正工具理性的偏执以弥补单纯经济增长主义的缺憾,尤其有助于防止价值理性的过度张扬以避免唯价值论和纯道德批判的悬空设置。  相似文献   

3.
人的行为活动趋于善的特性,是人类活动的价值特性。人通过教化、通过自己的价值活动,能够对自己的本性作出决定,能够化性起伪,决定自己是什么人或成为什么样的人,从而建构一个道德价值意义的世界,使自己获得作为诠释的诠释视域。同时,在一个多元性价值观念的世界,对于事物产生误解或理解分歧的可能性直接要求诠释学的在场。诠释学的理解要求一种回到前理解的共享性前见中去,在这个意义上,人具有作为伦理诠释和诠释理解的双重身份。伦理学与诠释学的内在贯通,从根本上看,在于它们都分有着实践理性的特性。这种实践理性体现在,普遍的东西的具体化。换言之,是普遍性知识与具体实践情境的结合。  相似文献   

4.
人工智能技术的快速发展引发了人们对其安全问题的普遍担忧。无论人工智能是否会超越人类智能,研究人工智能的安全问题都是非常必要的。从解决人工智能安全问题的内部进路看,我们至少有伦理设计、限定其应用范围、自主程度和智能水平等方式;从外部进路看,应该强调科学家的社会责任与国际合作、引导公众接纳人工智能,以及对人工智能进行安全评估与管理等途径。只有采取切实有效的措施保证人工智能的安全性,才能使其为人类带来福祉而不是危害。  相似文献   

5.
低碳城市建设不仅是一个技术问题,而且还是一个伦理问题.因此,在低碳城市建设过程中,需要对人类行为进行伦理规制:一是在存在论层面上改善人与自然的关系;二是在价值论层面上以价值理性限制资本的逻辑;三是在人生论层面上以适度原则抵制消费主义.  相似文献   

6.
人工智能对于人类的影响难以预料。在目前阶段,人工智能的冲击主要在于技术层面,并将逐步扩大到社会组织和生产方式诸方面。在带有自主思考能力的情感智能人出现之后,可能会导致人的自我认知、社会结构和价值目标的进一步转变,这将比工业革命更为彻底地颠覆儒家伦理,因此,加强对儒家价值与人工智能的关系的分析,对于理解儒家的未来,对于人类应如何更好地利用技术都将有十分重大的意义。  相似文献   

7.
结合我国实践,与我国现行伦理审查法律、法规相比较,《通用数据保护条例》对于我国大数据相关医学研究伦理审查有着启示和借鉴意义,包括但不限于:大数据时代数据安全及风险理念的转变;对不同数据处理目的的理解、判断与区别化处理原则;医学研究中数据处理原则的特殊性;知情同意的大数据时代诉求;大数据时代受试者数据权利、隐私权利保护的特点;伦理审查应关注的大数据相关医学研究中申办方、研究方的数据安全保障义务以及关于医学研究国际合作数据传输的规制等。  相似文献   

8.
如何揭示当代技术规范及原则的重要价值,呈现其社会历史意义,是表征时代精神之哲学建构的重要之事。“图灵测试”作为判定“机器能否思维”的技术叙事,既是人工智能技术的“金规则”,又是对“何谓智能”的哲学追问。“图灵测试”以技术的逻辑与操作的实践肯定了机器实现功能表征思维的存在论意义;其“模仿游戏”的逼近为我们提供了通过己身对象化产物来理解自我的技术路径;其关系认同“功能实现”的原则既呈现了人工智能技术改变世界的现实效应,也以其实践影响着理解存在的理论思维。在人工智能技术高速发展的今天,直面“图灵测试”技术叙事的哲学追问,既是我们真正理解人工智能技术的哲学路径,亦有助于我们反思人工智能技术的社会历史效应及其未来可能。  相似文献   

9.
有人认为,儒家伦理是腐败的文化根源。本文针对这种观点进行驳难。首先,在述旨部分,就这种观点所涉及的儒家经典中的三章(《论语·子路》叶公语孔子曰章、《孟子·尽心上》桃应问曰章和《孟子·万章上》象日以杀舜为事章),本文陈述了历代注解中最值得重视的看法,以此作为分析相关问题的根据。其次,在析理部分,就持论者对这三章的过度诠释,本文进行了详细的分析,指出应当从美德伦理学的角度而非从义务论的角度去理解儒家思想,质言之,这三章都应当从行乎中道的角度去理解,而不能从抽象原则的角度去理解。最后,就持论者持论的不同层次,本文进行了有力的反驳。圣人腐败论、伦理原则腐败论和文化心理腐败论是持论者持论的三个不同层次。前两个层次的漏洞比较明显,因此反驳也比较容易。比较特别的是第三个层次。通过对文化心理腐败论的仔细分析,本文指出,认为儒家伦理是腐败的文化根源的看法实际上以大公无私的观念为基础的,这可能是持论者自己没有意识到也不愿意承认的一点。相比之下,儒家思想所倡导的公不废私的思想则是一种更为平实、更值得欲求的伦理观念。  相似文献   

10.
阿西莫夫三大伦理原则是关于人工智能机器人的基本伦理规范。本研究提出人机投射假说——人会从自身具有的认知、情感和行动智能出发,去理解机器人的智能并与之互动。通过3个实验,从原则一到原则三逐步考察在机器人是否遵守伦理原则对人机信任的影响中,机器人决策类型(作为与否;服从人类命令与否;保护自身与否)的效应,以及人机投射的潜在机制。结果揭示了人机投射在机器人遵守伦理原则促进人机信任中起中介作用,以及机器人决策类型与是否遵守伦理原则之间有趣且有意义的交互效应:(1)在遵守情境下,机器人作为相对于不作为更有利于促进信任,但在违反情境下,则反之;(2)在遵守且尤其在违反情境下,机器人服从相比不服从人类命令更有利于促进人机信任;(3)相较于违反情境,机器人保护相比不保护自身在遵守情境下更有利于促进人机信任。跨实验的分析更深入地阐释了在遵守和违反伦理原则情境中以及伦理要求冲突情境中,有利于促进人机信任的机器人行动决策因素。  相似文献   

11.
"机器伦理"是当前道德哲学与人工智能领域交叉的研究方向,主要研究如何在智能机器中嵌入符合伦理原则的程序,使其能在面对道德困境时做出正确的判断和选择。机器伦理思想的发展具有内在机制,一方面是由于道德行为对象发生了由"人"到"非人"的转变,另一方面以机器为中介的人与人之间的道德关系由直接关系变为间接关系。机器伦理思想促进了技术设计伦理由隐性向显性的变化,引导技术产品"负责任"地为人类服务。同时,机器伦理思想存在着将道德行为数字化、道德行为主体模糊化以及信任机制不明确等局限性。  相似文献   

12.
欲使人工智能体具备道德决策能力,一种可设想的工作是基于形式伦理,即把伦理原则或规则形式化。形式伦理学的初衷并不是面向人工智能,但其做法却适用于人工智能。伦理规范的形式表达必须基于某种逻辑语言及其推理规则,经典逻辑是不够的,所以有必要发展和道德、行动相关的逻辑来适应人工智能道德决策的需求。最为著名道义逻辑为形式伦理提供了一定的基础,应该把它和心智逻辑结合起来。从人工智能体实施行动的过程来看,能动性逻辑是表达机器的道德行动与推理比较有前景的逻辑。  相似文献   

13.
面对纽康姆难题,主流的决策理论出现了分歧,采用期望效用最大化原则和占优原则分别会导向两种不同的选择,这对决策理论构成了一个挑战。通过合适的概率计算,占优原则可以看作一种极端的期望效用最大化原则,所以决策理论的基础——追求效用最大化并不与占优原则冲突,问题是——如何计算期望效用。纽康姆难题背后的关键也是如何通过概率把握因果,其核心是归纳预测问题。通用人工智能领域的通用归纳、通用智能模型刻画的恰恰是因果预测问题,本文认为,为了解决纽康姆难题发展各种新奇的决策理论是不必要的,而借助通用智能模型AIXI探讨纽康姆难题中涉及到的因果性问题。  相似文献   

14.
在公元五世纪初产生的几部有代表性的上清派道教经典中,似乎可以找到对于理解道教的形成具有重要参照价值的东西。其中,《真诰》无疑是最重要的。《真诰》仙真世界的营构有其内在的理路与法则,这就是,它表现出基于宗教的视域统摄自然、人文及历史的努力。这在中国文化史上乃是一次重大的转折,其根本含义是,在伦理性人文诠释系统遭受严重危机之际试图确立一新的人文诠释系统也即宗教性人文诠释系统。这一人文型态的迁化是与道学向道教的演变紧密联系在一起的。这样,道教的成立也就是主流文化由单一的伦理型向伦理与宗教二元型的嬗变过…  相似文献   

15.
李亚明 《哲学动态》2023,(5):105-114+128
功利主义、直觉主义以及道义论是当前用于指导人工智能系统道德抉择的主要理论资源。然而,以上理论的应用均遭遇了困境。在道德哲学的历史上,正是类似的困境曾导致规范伦理学的衰落。当代规范性研究中的康德式理论对相关理论困难均给出充分回应,有力推动了规范伦理学的复兴,也有望为人工智能系统的伦理设计提供更为恰当的理论基础。康德式理论具有共同的核心观点和思想方法,保证了由这类理论所构建的伦理原则可以具有一致性和实践可操作性。格沃斯和斯坎伦是当代康德式理论的重要代表人物。本文通过比较和分析两者对道德义务的论证,尝试确立三个基本的伦理原则,即不侵犯原则、平等原则和援助原则。三个原则对任何道德主体间最基本的道德义务给出了清晰阐释,也能够对人工智能系统的伦理设计给出明确指导。  相似文献   

16.
技术并非外在于人类社会,而是与人类社会协同进化的,因此创造技术的设计过程并不单纯是追求对自然的理性控制和实现技术的功能效率,人类的价值理念也应该内化于技术设计成果之中,即技术设计并非单纯的理性实践,也是伦理实践。然而,技术伦理实践的外在进路关注的是技术应用以及应用技术所产生的社会影响,解决方案是从技术外部的社会文化层面着眼,期望对技术的社会后果进行批判的考察并予以规范,这样的方案因其外在性而缺乏有效性。技术伦理需要走出这种外在进路,走出单纯的学科化的倾向,通过建构性技术评估和道德化设计等内在进路,真正实现技术设计的伦理介入。  相似文献   

17.
杨国荣 《哲学动态》2023,(2):5-12+126
“非常伦理”既与“应当做什么”和“应当如何做”的一般伦理问题相联系,也关乎“日常”与“非常”之辨。“非常伦理”和“日常伦理”都关涉伦理学的一般特点,包括德性与规范之间的统一。以“非常伦理”为关注之点,其意义不仅无法与一般的价值原则和普遍的道德规范相分离,而且涉及这些普遍原则的具体落实。在伦理学上,原则的普遍性和原则的落实,关乎形式与实质的关系问题。不管是日用常行,还是日常生活之外具有不确定性的生活领域,都需以普遍价值原则为引导。判断一种伦理原则的正当与否,不仅需要视其价值意义,而且应当同时关注其正面的价值意义是否得到具体落实。从行为过程和道德规范的互动来看,广义上的行为制约还关乎权力与权利之间的关系。不管是权力还是权利,都既与日用常行相关又超乎日用常行之外。以伦理学为视域,人类不仅需要约束权力,而且应当约束权利。在更广的意义上,“非常伦理”中的“非常”关乎科技领域,“非常伦理”则相应地需要讨论其中的伦理问题。科技活动既与人的日常存在相关,又不限于人的日用常行。通过对人体增强、人工智能的分析,可以更进一步理解“非常伦理”及其意义。  相似文献   

18.
人工智能的迅速发展给人们生产生活带来了极大便利,同时也引起了一定的伦理风险问题,诸如技术伦理风险、社会伦理风险和人类生存伦理风险等。这些伦理风险的背后是主体规范缺失和角色失准、情境变化中矛盾展现、人类关于实践意义认知差异和原则淡化、伦理形态的嬗变与重构等因素。规避人工智能所带来的伦理风险,须坚持维护人类共同利益的最高伦理规范,在全面深化基本原则遵循的基础上,推进伦理制度建设和新型人机关系建构,不断提升人类应对科技迅猛发展带来的伦理风险的能力和水平。  相似文献   

19.
杨泽波教授的"伦理心境"说是对孟子性善论的一种代表性诠释,他最近以"人性中的自然生长倾向"说补充和发展了这一诠释。人性中确实有道德方面的"自然生长倾向",一方面人自然会发展出亲子之爱和恻隐之心等道德情感,另一方面人性中也具备发展出道德反思、理解和判断等理性能力的要件。而且社会生活中的道德内容也不是自成一体的存在,"伦理心境"不只是社会生活在心灵中反复印刻的结果,它们都有"人性中的自然生长倾向"作为基础。相较于"伦理心境","人性中的自然生长倾向"更适合用来解释孟子性善论。据此,性善既是性本善,也是性向善,合言之是性本向善。性善是自然、经验的,而非超自然、先验的。性善有一个包含着情感和理性的立体架构。  相似文献   

20.
医疗人工智能广泛应用于现代医疗形式。医疗科技的日新月异,大大推动了人类医学的发展进程及诊疗模式。与此同时,医疗人工智能科技的发展出现了异化现象,并由此带来了人和社会的异化,诸如对人与类人机器的角色定位不清,人对技术的依赖性过度增强,医疗全生命周期中的责任伦理缺失,技术价值失衡等社会问题。以这些异化带来的伦理风险为进度,探析在医疗人工智能使用中的隐私安全与数据使用的边界问题,人在医疗过程中的主体地位问题,"医生-人工智能-患者"的共同决策体系构建问题,构建医疗人工智能科技向善理念及法律问题。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号