首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   894篇
  免费   60篇
  国内免费   1篇
  2021年   3篇
  2020年   12篇
  2019年   9篇
  2018年   17篇
  2017年   25篇
  2016年   36篇
  2015年   9篇
  2014年   20篇
  2013年   91篇
  2012年   43篇
  2011年   50篇
  2010年   24篇
  2009年   43篇
  2008年   52篇
  2007年   42篇
  2006年   31篇
  2005年   34篇
  2004年   38篇
  2003年   37篇
  2002年   28篇
  2001年   19篇
  2000年   11篇
  1999年   15篇
  1998年   17篇
  1997年   11篇
  1996年   9篇
  1995年   6篇
  1994年   13篇
  1993年   18篇
  1992年   15篇
  1991年   11篇
  1990年   6篇
  1989年   9篇
  1988年   10篇
  1987年   6篇
  1986年   8篇
  1985年   15篇
  1984年   10篇
  1983年   9篇
  1982年   16篇
  1981年   10篇
  1980年   3篇
  1979年   10篇
  1978年   12篇
  1977年   4篇
  1976年   4篇
  1975年   7篇
  1974年   10篇
  1973年   4篇
  1972年   4篇
排序方式: 共有955条查询结果,搜索用时 0 毫秒
951.
952.
953.
The computational power of massively parallel networks of simple processing elements resides in the communication bandwidth provided by the hardware connections between elements. These connections can allow a significant fraction of the knowledge of the system to be applied to an instance of a problem in a very short time. One kind of computation for which massively parallel networks appear to be well suited is large constraint satisfaction searches, but to use the connections efficiently two conditions must be met: First, a search technique that is suitable for parallel networks must be found. Second, there must be some way of choosing internal representations which allow the preexisting hardware connections to be used efficiently for encoding the constraints in the domain being searched. We describe a general parallel search method, based on statistical mechanics, and we show how it leads to a general learning rule for modifying the connection strengths so as to incorporate knowledge about a task domain in an efficient way. We describe some simple examples in which the learning algorithm creates internal representations that are demonstrably the most efficient way of using the preexisting connectivity structure.  相似文献   
954.
In his recent articles, Bogartz offered a definition of what it means for forgetting rate to be independent of degree of original learning. He showed that, given this definition, independence is confirmed by extant data. Bogartz also criticized Loftus's (1985b) proposed method for testing independence. In this commentary, we counter Bogartz's criticisms and then offer two observations. First, we show that Loftus's horizontal-parallelism test distinguishes between two interesting class of memory models: unidimensional models wherein the memory system's state can be specified by a single number and multidimensional models wherein at least two numbers are required to specify the memory system's state. Independence by Loftus's definition is implied by a unidimensional model. Bogartz's definition, in contrast, is consistent with either model. Second, to better understand the constraints on memory mechanisms dictated by the mathematics of the models under consideration, we develop a simple but general feature model of learning and forgetting. We demonstrate what constraints must be placed on this model to make learning and forgetting rate independent by Loftus's and by Bogartz's definitions.  相似文献   
955.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号