首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   173篇
  免费   11篇
  2023年   1篇
  2021年   1篇
  2020年   2篇
  2019年   10篇
  2018年   1篇
  2017年   5篇
  2016年   6篇
  2015年   5篇
  2014年   3篇
  2013年   21篇
  2012年   10篇
  2011年   11篇
  2010年   3篇
  2009年   9篇
  2008年   11篇
  2007年   11篇
  2006年   6篇
  2005年   3篇
  2004年   6篇
  2003年   5篇
  2002年   3篇
  2001年   2篇
  2000年   2篇
  1999年   3篇
  1998年   4篇
  1997年   2篇
  1996年   3篇
  1995年   3篇
  1994年   2篇
  1993年   4篇
  1990年   1篇
  1988年   1篇
  1987年   1篇
  1986年   1篇
  1985年   2篇
  1983年   1篇
  1982年   4篇
  1981年   3篇
  1980年   1篇
  1977年   3篇
  1976年   1篇
  1975年   2篇
  1974年   1篇
  1970年   2篇
  1956年   1篇
  1951年   1篇
排序方式: 共有184条查询结果,搜索用时 15 毫秒
181.
182.
A mathematical definition for the assertion ‘a group of criteria A is more important than a group of criteria B’ is introduced. It is shown how quantitative information on relative importance of criteria allows us to obtain a more precise upper estimate for a set of all non-dominated solutions than the well-known Pareto set. © 1997 John Wiley & Sons, Ltd.  相似文献   
183.
184.
Recent years have seen a flourishing of Natural Language Processing models that can mimic many aspects of human language fluency. These models harness a simple, decades-old idea: It is possible to learn a lot about word meanings just from exposure to language, because words similar in meaning are used in language in similar ways. The successes of these models raise the intriguing possibility that exposure to word use in language also shapes the word knowledge that children amass during development. However, this possibility is strongly challenged by the fact that models use language input and learning mechanisms that may be unavailable to children. Across three studies, we found that unrealistically complex input and learning mechanisms are unnecessary. Instead, simple regularities of word use in children's language input that they have the capacity to learn can foster knowledge about word meanings. Thus, exposure to language may play a simple but powerful role in children's growing word knowledge. A video abstract of this article can be viewed at https://youtu.be/dT83dmMffnM .

Research Highlights

  • Natural Language Processing (NLP) models can learn that words are similar in meaning from higher-order statistical regularities of word use.
  • Unlike NLP models, infants and children may primarily learn only simple co-occurrences between words.
  • We show that infants' and children's language input is rich in simple co-occurrence that can support learning similarities in meaning between words.
  • We find that simple co-occurrences can explain infants' and children's knowledge that words are similar in meaning.
  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号