最近 OpenAI 董事会的风波闹得沸沸扬扬,大家都在猜测 Sam Altman 被开除的真正原因。有传言说,这跟一项可能威胁人类社会安全的技术突破有关。据说 OpenAI 的研究人员搞出了一个名为 Q* 的模型,能解决以前从未见过的数学难题。
对于人工智能来说,这确实是个了不起的成就。但纽约大学的心理学和神经科学教授 Gary Marcus 却觉得没必要太激动。Marcus 曾在参议院人工智能监管听证会上与 Sam Altman 同台,他认为现在的大语言模型本质上是一种预测机器,只会根据训练数据来猜测下一句话该怎么说。
Q* 能够解决前所未见的数学问题,这可能只是意味着大语言模型开始突破推理能力的极限。但 Marcus 认为,即便如此,它们的推理能力也仅仅达到了小学生的水平。距离真正威胁人类还差得远呢!
Marcus 认为,大语言模型的预测性质与符号人工智能(Symbolic AI)形成了鲜明对比。符号 AI 通过推理符号和符号之间的关系来解决问题,类似于代数。你可以把这种思维扩展到其他类型的逻辑问题中。
Marcus 认为,未来的人工智能研究很可能会将生成式 AI 和符号式人工智能结合起来,就像人类同时使用直觉思维和分析思维一样。这就像既要学会“猜”,也要学会“算”,才能更聪明。
不过,在 Marcus 看来,阻碍人们实现未来愿景的最大障碍可能是人际冲突。他长期以来一直是深度学习的批评者,而深度学习正是 GPT-4 这样的大语言模型所采用的技术。这让他与人工智能教父 Geoffrey Hinton 和 Yann LeCun 陷入了学术斗争,三人在社交媒体上展开过激烈的“学术讨论”。
随着时间的推移,这三位科学家之间的紧张关系导致了 AI 学术领域的分裂。因此,在支持深度学习的人工智能研究人员和支持符号人工智能的研究人员跨过这些鸿沟携手合作之前,大家不必担心 AGI 会在短期内终结人类。说白了,与其担心 AI,不如先解决人类自己的问题。
丁丁打折网©版权所有,未经许可严禁复制或镜像 ICP证: 湘ICP备20009233号-2
Powered by 丁丁打折网本站为非营利性网站,本站内容均来自网络转载或网友提供,如有侵权或夸大不实请及时联系我们删除!本站不承担任何争议和法律责任!
技术支持:丁丁网 dddazhe@hotmail.com & 2010-2020 All
rights reserved