深度学习
上QQ阅读APP看书,第一时间看更新

要事年表

1956年

达特茅斯人工智能夏季研究计划(The Dartmouth Artificial Intelligence Summer Research Project)开启了人工智能领域的研究,并鼓舞了一代科学家探寻可以媲美人类智慧的信息技术的潜力。

1962年

弗兰克·罗森布拉特(Frank Rosenblatt)出版了《神经动力学原理:感知器和大脑机制的理论》(Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms),该书介绍了一种应用于具有单层可变权重的神经网络模型的学习算法,该算法是今天的深度神经网络模型的学习算法的前身。

1962年

大卫·休伯尔(David Hubel)和托斯坦·威泽尔(Torsten Wiesel)发表了《猫的视觉皮质中的感受野、双目互动和功能架构》(Receptive Fields,Binocular Interaction and Functional Architecture in the Cat’s Visual Cortex)一文,第一次报道了由微电极记录的单个神经元的响应特性。深度学习网络的架构类似于视觉皮质的层次结构。

1969年

马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)出版了《感知器》(Perceptrons),该书指出了单个人造神经元的计算极限,标志着神经网络领域寒冬的到来。

1979年

杰弗里·辛顿和詹姆斯·安德森(James Anderson)在加州拉荷亚市(La Jolla)举办了“关联记忆的并行模型”(Parallel Models of Associative Memory)研讨会,把新一代的神经网络先驱们聚集到了一起,同时也推动辛顿和安德森在1981年发表了同名系列研究著作。

1986年

第一届神经信息处理系统大会(Neural Information Processing Systems, 以下统称NIPSNIPS现通称为NeurIPS。——译者注)及研讨会在美国丹佛科技中心举办,该会议吸引了很多不同领域的研究人员。