摘要: 2024 年,辛顿在牛津大学演讲时介绍了人工神经网络的基本原理,同时批评了乔姆斯基的语言理论。本文认为,数字智能学习语言的方式与人类学习语言的方式并不完全相同。人类的语言习得有先天的因素,也有后天的因素;而数字智能需要学习大规模的语言数据,并不存在刺激贫乏的问题,没有先天的因素。我们不能因为数字智能不存在刺激贫乏而否认人类语言具有先天的因素,也不能把数字智能与人类智能等同起来而忽视数字智能与人类智能的差别。

关键词: 数字智能, 人类智能, 大语言模型, 规模法则, 刺激贫乏论