首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   20590篇
  免费   90篇
  2023年   7篇
  2022年   6篇
  2021年   9篇
  2020年   14篇
  2019年   12篇
  2018年   3509篇
  2017年   2848篇
  2016年   2270篇
  2015年   207篇
  2014年   101篇
  2013年   101篇
  2012年   580篇
  2011年   2397篇
  2010年   2538篇
  2009年   1474篇
  2008年   1699篇
  2007年   2174篇
  2006年   28篇
  2005年   211篇
  2004年   163篇
  2003年   110篇
  2002年   60篇
  2001年   28篇
  2000年   52篇
  1999年   14篇
  1998年   22篇
  1997年   16篇
  1996年   7篇
  1994年   1篇
  1993年   3篇
  1992年   2篇
  1991年   3篇
  1990年   7篇
  1985年   2篇
  1976年   1篇
  1975年   1篇
  1974年   1篇
  1969年   1篇
  1952年   1篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
11.
12.
13.
How people learn chunks or associations between adjacent items in sequences was modelled. Two previously successful models of how people learn artificial grammars were contrasted: the CCN, a network version of the competitive chunker of Servan‐Schreiber and Anderson [J. Exp. Psychol.: Learn. Mem. Cogn. 16 (1990) 592], which produces local and compositionally‐structured chunk representations acquired incrementally; and the simple recurrent network (SRN) of Elman [Cogn. Sci. 14 (1990) 179], which acquires distributed representations through error correction. The models' susceptibility to two types of interference was determined: prediction conflicts, in which a given letter can predict two other letters that appear next with an unequal frequency; and retroactive interference, in which the prediction made by a letter changes in the second half of training. The predictions of the models were determined by exploring parameter space and seeing howdensely different regions of the space of possible experimental outcomes were populated by model outcomes. For both types of interference, human data fell squarely in regions characteristic of CCN performance but not characteristic of SRN performance.  相似文献   
14.
15.
16.
17.
18.
19.
20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号