首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   24414篇
  免费   230篇
  国内免费   2篇
  2023年   56篇
  2022年   88篇
  2021年   110篇
  2020年   148篇
  2019年   154篇
  2018年   3625篇
  2017年   2988篇
  2016年   2382篇
  2015年   309篇
  2014年   216篇
  2013年   640篇
  2012年   868篇
  2011年   2655篇
  2010年   2676篇
  2009年   1568篇
  2008年   1945篇
  2007年   2355篇
  2006年   216篇
  2005年   328篇
  2004年   258篇
  2003年   214篇
  2002年   135篇
  2001年   71篇
  2000年   108篇
  1999年   50篇
  1998年   42篇
  1997年   40篇
  1996年   24篇
  1995年   17篇
  1994年   17篇
  1993年   17篇
  1992年   23篇
  1991年   26篇
  1990年   26篇
  1989年   22篇
  1988年   22篇
  1987年   17篇
  1986年   14篇
  1985年   16篇
  1984年   9篇
  1983年   9篇
  1982年   11篇
  1981年   12篇
  1980年   9篇
  1979年   10篇
  1972年   10篇
  1971年   8篇
  1968年   9篇
  1966年   8篇
  1965年   11篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
11.
12.
13.
14.
Several studies have illuminated how processing manual action verbs (MaVs) affects the programming or execution of concurrent hand movements. Here, to circumvent key confounds in extant designs, we conducted the first assessment of motor–language integration during handwriting—a task in which linguistic and motoric processes are co‐substantiated. Participants copied MaVs, non‐manual action verbs, and non‐action verbs as we collected measures of motor programming and motor execution. Programming latencies were similar across conditions, but execution was faster for MaVs than for the other categories, regardless of whether word meanings were accessed implicitly or explicitly. In line with the Hand‐Action‐Network Dynamic Language Embodiment (HANDLE) model, such findings suggest that effector‐congruent verbs can prime manual movements even during highly automatized tasks in which motoric and verbal processes are naturally intertwined. Our paradigm opens new avenues for fine‐grained explorations of embodied language processes.  相似文献   
15.
16.
17.
18.
19.
How people learn chunks or associations between adjacent items in sequences was modelled. Two previously successful models of how people learn artificial grammars were contrasted: the CCN, a network version of the competitive chunker of Servan‐Schreiber and Anderson [J. Exp. Psychol.: Learn. Mem. Cogn. 16 (1990) 592], which produces local and compositionally‐structured chunk representations acquired incrementally; and the simple recurrent network (SRN) of Elman [Cogn. Sci. 14 (1990) 179], which acquires distributed representations through error correction. The models' susceptibility to two types of interference was determined: prediction conflicts, in which a given letter can predict two other letters that appear next with an unequal frequency; and retroactive interference, in which the prediction made by a letter changes in the second half of training. The predictions of the models were determined by exploring parameter space and seeing howdensely different regions of the space of possible experimental outcomes were populated by model outcomes. For both types of interference, human data fell squarely in regions characteristic of CCN performance but not characteristic of SRN performance.  相似文献   
20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号