排序方式: 共有158条查询结果,搜索用时 31 毫秒
121.
122.
一、科学主义的旧版本关于科学主义的旧版本,说法也很多,选择几种有代表性的。1.“科学主义”一词最早出现于1877年。它的原意是指“作为科学家特征的方法、精神态度等等。”2.随后我们便发现了一本专门讲科学主义的书,英国学者汤姆·索雷尔的《科学主义》,书中指出:“科学主义就是这样的信念:科学特别是自然科学是人类知识中最有价值的部分——因为它最有权威,最严肃和最有益。” 相似文献
123.
人体器官买卖的立法干预探析 总被引:1,自引:0,他引:1
人体器官买卖不利于保证受体生命健康,严重违背生命伦理,是一种新型犯罪,并会引发其他犯罪,因而,我国应对人体器官买卖进行立法干预。当前,还有相当一部分学者支持人体器官买卖,但此观点存在严重缺陷或错误,应予以摈弃。我国应制定人体器官捐献与移植法,确立禁止买卖人体器官的原则、设立完善的人体器官来源审查制度、制订和补充旨在严厉打击人体器官买卖行为的刑法规则,以干预和规制人体器官买卖行为。 相似文献
124.
我国现阶段的有关医疗方面的法律、法规,在整个医疗卫生活动中起到了规范和制约的作用,但仍不完善.了解国外医事立法的历史和现状,有利于我国医事立法工作的开展.从英美法系医事立法出发,对英美法系的医事立法进行讲解和论述,从而起到借鉴的作用. 相似文献
125.
杨晶鑫 《医学与哲学(人文社会医学版)》2010,31(9):76-78
为了研究药学信息学的研究范畴,通过文献分析方法研究药学信息学从技术和服务两个角度嵌入新药从筛选到上市的全部过程。结果表明,药学信息学的研究范畴为技术信息学和服务信息学。技术信息学包括系统生物技术信息学、基因技术信息学、免疫技术信息学、计算毒理技术信息学、化学反应技术信息学、代谢组技术信息学和中药信息学。服务信息学包括药疗信息学、药研信息学和药品信息学。因此,药学信息学描述了前所未有的数据、学科和技术的交叉。 相似文献
126.
《周易》的注、疏合刻始于南宋茶盐司八行本,自此以后,又有十行本。阮元的《重刊十三经注疏》即是以十行本为依据。十行本为元刻明修本,这一点已为学者所指出。然而,不同的十行本,其先后传承仍然是需要辨明的。阮元所依据的十行本,乃是十行本中错讹最多的一个本子。由此我们审视阮元的重刻,其主要失误在于选择底本的错误而非刊刻工作本身。同时,由《周易正义》的情况来看,十行本与闽、监、毛本的关系亦并非仅仅是前贤所认为的递相传承。闽本实际出自元刻九行本,且此元刻九行本反倒是十行本明代补版所从出。在《周易注疏》的众版本中,武英殿本及四库本较易被忽略,然而这个版本从分卷到校勘却是比较有特色的。 相似文献
127.
解构与超越——全科医学兴起的后现代哲学聚焦 总被引:1,自引:0,他引:1
顾林正 《医学与哲学(人文社会医学版)》2005,(11)
全科医学与后现代哲学的思潮不仅在兴起的时间上相吻合,而且在理念上具有内在的关联。从后现代哲学的向度看,全科医学反对还原论,强调整体论;反对唯科技理性,主张人文渗透;反对统一性,注重差异性;推崇内在性,注重生活世界;解构中心,强调综合服务等。全科医学解构了专科医学所秉持的注重分析与还原的唯科学主义的认知方式,以整体论的认知方式实现了对专科医学的形而上的理念超越。 相似文献
128.
129.
数值加工的机制是数量认知领域的核心科学问题之一。三数值加工系统假说从新的角度阐释了各种数值加工机制的关系, 它认为认知系统通过三种不同的机制来快速分析非符号刺激的数值:感数(subitizing)机制精确地分析1~4个刺激的数值; 数量(numerosity)机制分析密度适中的刺激点阵的数量, 加工误差正比于被分析的数量, 符合韦伯定律; 当刺激的密度超出一定范围时, 密度(density)机制通过分析刺激密度来推断刺激的数量关系, 加工误差正比于被加工数值的平方根。一系列研究证实, 这三种数值加工机制具有不同的行为规律和脑电特征。未来研究需要探讨数量机制是否分别与感数机制、密度机制存在平行激活, 从而阐明三种数值加工机制的作用关系。 相似文献
130.
在中文阅读中, 为了进行词汇识别, 需要对汉字在词中的相对顺序进行加工, 即汉字位置加工。汉字位置加工是词汇识别和阅读理解的重要环节。如果汉字位置未得到加工, 可转置词将很难被区分。可转置词由相同汉字构成, 但每个汉字所处位置不同。以往研究发现, 词内汉字位置加工是比较灵活的; 而且词边界信息会影响汉字位置的加工, 即汉字位置加工存在词边界效应。该效应产生的原因及影响因素有哪些?本项目采用眼动追踪技术, 在自然阅读中系统探讨如下三个问题:(1)词的首/尾汉字如何调节汉字位置加工过程; (2)嵌套词和歧义词边界如何影响汉字位置加工; (3)语境合理性和预测性如何影响汉字位置加工的词边界效应。本项目将为首个中文汉字位置加工模型的建立提供数据支持和科学基础, 推进现有的中文词汇识别和词切分模型的进一步完善, 并为词汇的高效率教授与学习提供科学指导。 相似文献