全文获取类型
收费全文 | 22310篇 |
免费 | 117篇 |
国内免费 | 2篇 |
专业分类
22429篇 |
出版年
2024年 | 5篇 |
2023年 | 29篇 |
2022年 | 53篇 |
2021年 | 58篇 |
2020年 | 65篇 |
2019年 | 90篇 |
2018年 | 3549篇 |
2017年 | 2893篇 |
2016年 | 2308篇 |
2015年 | 253篇 |
2014年 | 132篇 |
2013年 | 316篇 |
2012年 | 709篇 |
2011年 | 2507篇 |
2010年 | 2605篇 |
2009年 | 1522篇 |
2008年 | 1824篇 |
2007年 | 2252篇 |
2006年 | 132篇 |
2005年 | 279篇 |
2004年 | 210篇 |
2003年 | 150篇 |
2002年 | 96篇 |
2001年 | 50篇 |
2000年 | 77篇 |
1999年 | 30篇 |
1998年 | 27篇 |
1997年 | 28篇 |
1996年 | 14篇 |
1995年 | 11篇 |
1994年 | 8篇 |
1993年 | 4篇 |
1992年 | 11篇 |
1991年 | 9篇 |
1990年 | 20篇 |
1989年 | 10篇 |
1988年 | 8篇 |
1987年 | 9篇 |
1986年 | 7篇 |
1985年 | 7篇 |
1983年 | 3篇 |
1982年 | 5篇 |
1981年 | 7篇 |
1980年 | 4篇 |
1979年 | 5篇 |
1975年 | 3篇 |
1972年 | 5篇 |
1969年 | 4篇 |
1963年 | 3篇 |
1960年 | 2篇 |
排序方式: 共有10000条查询结果,搜索用时 0 毫秒
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
How people learn chunks or associations between adjacent items in sequences was modelled. Two previously successful models of how people learn artificial grammars were contrasted: the CCN, a network version of the competitive chunker of Servan‐Schreiber and Anderson [J. Exp. Psychol.: Learn. Mem. Cogn. 16 (1990) 592], which produces local and compositionally‐structured chunk representations acquired incrementally; and the simple recurrent network (SRN) of Elman [Cogn. Sci. 14 (1990) 179], which acquires distributed representations through error correction. The models' susceptibility to two types of interference was determined: prediction conflicts, in which a given letter can predict two other letters that appear next with an unequal frequency; and retroactive interference, in which the prediction made by a letter changes in the second half of training. The predictions of the models were determined by exploring parameter space and seeing howdensely different regions of the space of possible experimental outcomes were populated by model outcomes. For both types of interference, human data fell squarely in regions characteristic of CCN performance but not characteristic of SRN performance. 相似文献