全文获取类型
收费全文 | 91篇 |
免费 | 16篇 |
国内免费 | 64篇 |
专业分类
171篇 |
出版年
2024年 | 1篇 |
2023年 | 5篇 |
2022年 | 9篇 |
2021年 | 8篇 |
2020年 | 12篇 |
2019年 | 6篇 |
2018年 | 6篇 |
2017年 | 5篇 |
2016年 | 9篇 |
2015年 | 4篇 |
2014年 | 16篇 |
2013年 | 8篇 |
2012年 | 9篇 |
2011年 | 15篇 |
2010年 | 7篇 |
2009年 | 6篇 |
2008年 | 13篇 |
2007年 | 3篇 |
2006年 | 1篇 |
2005年 | 7篇 |
2004年 | 1篇 |
2003年 | 5篇 |
2002年 | 2篇 |
2001年 | 2篇 |
2000年 | 1篇 |
1999年 | 2篇 |
1997年 | 2篇 |
1996年 | 1篇 |
1995年 | 1篇 |
1994年 | 1篇 |
1993年 | 2篇 |
1992年 | 1篇 |
排序方式: 共有171条查询结果,搜索用时 6 毫秒
11.
关于远距离规则的知识是如何被内隐学习的,研究尚未得出结论。该研究通过采用和人类被试相同的实验材料和程序,考察了简单循环网络模型(SRN)对两种汉语声调远距离规则——倒映和逆行规则的内隐学习。结果发现:1.在广泛的参数范围上,SRN能够学会倒映和逆行规则,表明模型的记忆缓冲器可以模拟人类远距离规则的内隐学习;2.SRN对倒映规则的学习比对逆行规则的学习更好,表明在功能上远距离规则的内隐学习可能优先使用了先进先出的记忆存储器及信息加工模式。该研究为探究远距离规则内隐学习的机制提供了新的证据和视角。 相似文献
12.
13.
14.
探讨并比较真实火灾和模拟火灾情境下小鼠是否采用直觉性逃生决策。研究包括一个预备训练和两个主实验。预备训练的目的:首先训练小鼠获得有关迷宫路线及出口的经验,然后再经过遗忘处理使它们遗忘相关经验。两个主实验均采用3(情境:真实火灾,模拟火灾,普通情境)×2(记忆:遗忘前和遗忘后)混合实验设计,因变量均为逃生决策。实验组被试为72只经过训练的小鼠,控制组为24只未经过训练的小鼠。通过考察小鼠在不同情境和不同记忆条件下的逃生时间和对逃生出口的选择探测并比较真实火灾和模拟火灾情境下小鼠的逃生决策差异。主要结果:(1)实验组在真实火灾情境下的逃生时间无论遗忘前后都明显比模拟火灾情境下短;(2)实验组在真实火灾和模拟火灾情境下的逃生时间都明显比控制组短;(3)当熟悉和陌生出口均开启同时熟悉出口处有烟雾条件下,真实火灾组在遗忘前后均倾向于选择熟悉出口逃生,其他两组则倾向于选择陌生出口离开。结论:真实火灾和模拟火灾情境下小鼠的逃生决策存在明显差异:真实火灾情境下受过训练的小鼠倾向于直觉性逃生决策;模拟火灾情境下受过训练的小鼠不倾向于直觉性逃生决策。 相似文献
15.
心理实验计算机模拟化是在社会、科学和实践需要等基础上产生的,具有实验室结构优化、实验操作自动化、节省实验经费等作用,并在理论与实践两方面促进了心理学的发展。未来的心理实验计算机模拟化的内容将更加充实,并与传统仪器相结合,逐渐淡化主试的作用。 相似文献
16.
17.
共代数(coalgebra,数学中常译为余代数)是代数的对偶概念。数学、逻辑学和理论计算机科学中的许多结构都能够很自然地看做共代数。奥采尔(P.Aczel)在1988年给出的第一个例子将转换系统和 相似文献
18.
该文受Berkson将检验方法用于估计未知参数的启发,根据三个拟合优度统计量导出三种新的求取等值系数的方法,即:平方根等值方法(Square Root criterion,SQRTcrit)、对称相对熵等值方法(Symmetric Relative Entropy criterion,SREcrit)、加权等值方法(Weighted criterion,Wcrit),即Haebara准则的加权式。虽然在被检验的两个分布列很接近时,这三个多项拟合优度检验方法是渐近等价的,然而用它们求取等值系数时,Monte-Carlo模拟结果表明这三种新等值方法的行为表现存在差异。它们之间的差异和随机误差的大小有密切关系,即与项目参数估计的精度有关;还与等值系数A的范围有关。 相似文献
19.
《哲学分析》2022,(1)
以自动驾驶汽车为典型,人工智能应用的责任鸿沟成了亟待解决的新问题。责任鸿沟实质上是机器智能体在自主性不断增强但又尚未获得责任主体地位阶段的一种责任无着落现象。随着人工智能越来越普遍的应用,它所带来的责任鸿沟是实践领域亟待取得突破的理论课题。人工智能的应用将给人类带来目前所能想象到的最大红利,而责任鸿沟则可能构成人工智能应用的瓶颈。在期待人工智能发展带来巨大红利的同时,应对随之而来的归责困境,已是当务之急。跨越人工智能应用的责任鸿沟,关系到人工智能的发展和应用,从而关系到人工智能发展前所未有红利的顺利兑现。人工智能应用中的责任鸿沟,在传统范式中不可能获得合理应对的理论和方法;必须在规则和规律一体化的造世伦理层次,这一鸿沟才可能真正意义上被跨越。造世伦理最基本的特征是整体性、类特性和共同性。以自动驾驶汽车为典型案例,相关责任和义务主要涉及智能设备的设计、使用责任和类群受益者伦理义务两类。如果自动驾驶汽车所发生的事故没有人事行为责任主体,只存在受益者义务问题,相关损失应由自动驾驶汽车受益者以义务的方式承担。人工智能应用责任鸿沟的造世伦理跨越,将使人工智能的应用和相应红利的兑现构成良性循环。 相似文献
20.
采用自编的计算机模拟发现学习任务,以49名大学生为被试,探讨了在简单和复杂发现学习任务中,智力、元认知技能和学习成绩三者之间的关系。结果发现:在简单任务中,三者关系基本符合混合模型;进行过多的元认知活动,并不能提高学习效果。在复杂任务中,智力对学习成绩起主要预测作用。随着任务复杂性的增加,智力对学习的影响也随之变化,符合难度阈限理论的假设。任务复杂性不同时,智力、元认知技能和发现学习成绩之间的关系也不同,在一定程度上验证了难度阈限扩展理论。 相似文献