首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   273篇
  免费   13篇
  2023年   3篇
  2022年   2篇
  2021年   3篇
  2020年   8篇
  2019年   9篇
  2018年   13篇
  2017年   13篇
  2016年   11篇
  2015年   8篇
  2014年   10篇
  2013年   41篇
  2012年   18篇
  2011年   13篇
  2010年   10篇
  2009年   12篇
  2008年   17篇
  2007年   7篇
  2006年   15篇
  2005年   11篇
  2004年   7篇
  2003年   5篇
  2002年   5篇
  2001年   1篇
  2000年   1篇
  1999年   2篇
  1998年   3篇
  1997年   2篇
  1996年   3篇
  1995年   3篇
  1994年   3篇
  1993年   1篇
  1992年   4篇
  1990年   1篇
  1987年   1篇
  1985年   1篇
  1984年   2篇
  1983年   2篇
  1980年   1篇
  1979年   1篇
  1978年   2篇
  1977年   2篇
  1976年   1篇
  1975年   2篇
  1973年   1篇
  1971年   2篇
  1970年   1篇
  1967年   2篇
排序方式: 共有286条查询结果,搜索用时 15 毫秒
151.
152.
153.
Distributional models of semantics learn word meanings from contextual co‐occurrence patterns across a large sample of natural language. Early models, such as LSA and HAL (Landauer & Dumais, 1997; Lund & Burgess, 1996), counted co‐occurrence events; later models, such as BEAGLE (Jones & Mewhort, 2007), replaced counting co‐occurrences with vector accumulation. All of these models learned from positive information only: Words that occur together within a context become related to each other. A recent class of distributional models, referred to as neural embedding models, are based on a prediction process embedded in the functioning of a neural network: Such models predict words that should surround a target word in a given context (e.g., word2vec; Mikolov, Sutskever, Chen, Corrado, & Dean, 2013). An error signal derived from the prediction is used to update each word's representation via backpropagation. However, another key difference in predictive models is their use of negative information in addition to positive information to develop a semantic representation. The models use negative examples to predict words that should not surround a word in a given context. As before, an error signal derived from the prediction prompts an update of the word's representation, a procedure referred to as negative sampling. Standard uses of word2vec recommend a greater or equal ratio of negative to positive sampling. The use of negative information in developing a representation of semantic information is often thought to be intimately associated with word2vec's prediction process. We assess the role of negative information in developing a semantic representation and show that its power does not reflect the use of a prediction mechanism. Finally, we show how negative information can be efficiently integrated into classic count‐based semantic models using parameter‐free analytical transformations.  相似文献   
154.
Research on Child and Adolescent Psychopathology - Transdiagnostic models of psychopathology suggest that disorders may share common features that could influence their severity. Attention problems...  相似文献   
155.
156.
157.
158.
159.
160.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号