首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   23888篇
  免费   216篇
  国内免费   2篇
  2024年   9篇
  2023年   58篇
  2022年   63篇
  2021年   95篇
  2020年   128篇
  2019年   137篇
  2018年   3612篇
  2017年   2958篇
  2016年   2381篇
  2015年   296篇
  2014年   198篇
  2013年   547篇
  2012年   851篇
  2011年   2646篇
  2010年   2667篇
  2009年   1549篇
  2008年   1940篇
  2007年   2347篇
  2006年   223篇
  2005年   321篇
  2004年   255篇
  2003年   183篇
  2002年   123篇
  2001年   61篇
  2000年   100篇
  1999年   44篇
  1998年   34篇
  1997年   35篇
  1996年   19篇
  1995年   12篇
  1994年   12篇
  1993年   9篇
  1992年   14篇
  1991年   13篇
  1990年   29篇
  1989年   15篇
  1988年   11篇
  1987年   13篇
  1986年   8篇
  1985年   10篇
  1982年   5篇
  1981年   8篇
  1980年   4篇
  1979年   5篇
  1974年   4篇
  1972年   5篇
  1971年   4篇
  1969年   5篇
  1966年   4篇
  1963年   3篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
11.
12.
Several studies have illuminated how processing manual action verbs (MaVs) affects the programming or execution of concurrent hand movements. Here, to circumvent key confounds in extant designs, we conducted the first assessment of motor–language integration during handwriting—a task in which linguistic and motoric processes are co‐substantiated. Participants copied MaVs, non‐manual action verbs, and non‐action verbs as we collected measures of motor programming and motor execution. Programming latencies were similar across conditions, but execution was faster for MaVs than for the other categories, regardless of whether word meanings were accessed implicitly or explicitly. In line with the Hand‐Action‐Network Dynamic Language Embodiment (HANDLE) model, such findings suggest that effector‐congruent verbs can prime manual movements even during highly automatized tasks in which motoric and verbal processes are naturally intertwined. Our paradigm opens new avenues for fine‐grained explorations of embodied language processes.  相似文献   
13.
14.
15.
16.
17.
How people learn chunks or associations between adjacent items in sequences was modelled. Two previously successful models of how people learn artificial grammars were contrasted: the CCN, a network version of the competitive chunker of Servan‐Schreiber and Anderson [J. Exp. Psychol.: Learn. Mem. Cogn. 16 (1990) 592], which produces local and compositionally‐structured chunk representations acquired incrementally; and the simple recurrent network (SRN) of Elman [Cogn. Sci. 14 (1990) 179], which acquires distributed representations through error correction. The models' susceptibility to two types of interference was determined: prediction conflicts, in which a given letter can predict two other letters that appear next with an unequal frequency; and retroactive interference, in which the prediction made by a letter changes in the second half of training. The predictions of the models were determined by exploring parameter space and seeing howdensely different regions of the space of possible experimental outcomes were populated by model outcomes. For both types of interference, human data fell squarely in regions characteristic of CCN performance but not characteristic of SRN performance.  相似文献   
18.
19.
20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号