2024年即将过去,Radical Ventures的风险投资家Rob Toews分享了他对2025年人工智能领域的十大预测。让我们一起来看看,在新的一年里,人工智能领域又将有哪些新的变化和趋势?
Meta一直以来都是开放式人工智能的倡导者。当OpenAI和谷歌等竞争对手选择封闭源代码并收取使用费时,Meta却选择免费提供其Llama模型。但明年,Meta可能会对Llama的开源许可条款做出更多限制,对一定规模以上的商业环境中使用Llama的公司收取费用。
事实上,Meta已经在有限范围内这么做了,它不允许最大的公司自由使用Llama模型。Meta首席执行官Mark Zuckerberg曾表示,如果公司转售Llama,Meta应该从中获得一部分收入。随着制造前沿模型的成本不断飙升,Meta可能需要通过这种方式来实现Llama的盈利。
不过,爱好者、学者、个人开发者和初创公司明年将继续免费使用Llama模型。
尺度定律是指,在训练人工智能模型时,随着模型参数数量、训练数据量和计算量的增加,模型的性能会以可靠且可预测的方式提高。从GPT-2到GPT-4,令人叹为观止的性能提升都归功于尺度定律。
但最近有报告表明,主要的人工智能实验室在持续扩大大型语言模型的规模时,正在看到递减的回报。测试时计算的出现,或许可以开辟一个全新的维度来追求规模扩展。也就是说,通过使模型能够“思考更长时间”来解锁新的AI能力。
更重要的是,几乎所有关于尺度定律的讨论都集中在语言上,但语言并不是唯一重要的数据模式。对于机器人技术、生物学、世界模型或网络代理等数据模式,尺度定律或许才刚刚开始。为这些新型数据模式构建基础模型的公司,正试图识别并利用这些领域的尺度定律。
美国新政府将带来一系列关于人工智能的政策和战略转变。考虑到马斯克目前在人工智能领域的中心地位,他可能会影响川普政府的人工智能相关发展。例如,新政府可能会对OpenAI采取不太友好的立场,或者更倾向于支持马斯克自己的公司。
但川普和马斯克的亲密关系终将不可避免地破裂。川普和马斯克都是复杂、易变、不可预测的个性,他们不易合作。这种关系一旦恶化,可能意味着美国政府将在川普执政期间对人工智能监管采取放手不管的态度。
AI Agent,也就是人工智能代理,指的是你只需指示人工智能助理,它就能代你完成管理订阅、支付账单、预约医生、在电商平台购物、预订餐厅等繁琐的在线任务。尽管目前市场上还没有一款能正常运行的通用网络代理,但明年可能会是网络代理最终开始运行良好并成为主流的一年。
语言和视觉基础模型的不断进步,再加上最近因新推理模型和推理时间计算而在“第二系统思维”能力方面取得的突破,可能意味着网络代理已准备好进入黄金时代。网络代理将找到各种有价值的企业用例,而近期最大的市场机会将是消费者。网络代理或将成为消费人工智能领域下一个真正的“杀手级应用”。
2023年,制约人工智能发展的关键物理资源是GPU芯片。2024年,它变成了电力和数据中心。由于人工智能的蓬勃发展,全球数据中心的电力需求预计将在2023年至2026年间翻一番。我们的能源网和计算基础设施这两个价值数万亿美元的系统之间即将发生历史性的碰撞。
一个应对这一挑战的非常规新想法是:将人工智能数据中心置于太空中。轨道上的计算集群可以全天候享受免费、无限、零碳的电力。将计算置于太空的另一个重要优势是:它解决了冷却问题。太空是极其寒冷的,计算活动产生的任何热量都会立即消散。
当然,还有许多实际挑战有待解决。YCombinator的一家名为Lumen Orbit的初创公司最近筹集了1100万美元,以实现这一理想:在太空中建立一个数兆瓦的数据中心网络,用于训练人工智能模型。
图灵测试是人工智能性能最古老、最知名的基准之一。为了“通过”图灵测试,人工智能系统必须能够通过书面文本进行交流,让普通人无法分辨自己是在与人工智能互动,还是在与其他人互动。但书面文本并非人类交流的唯一方式。随着人工智能变得越来越多模态,人们可以想象一个新的、更具挑战性的图灵测试版本——“语音图灵测试”。在这个测试中,人工智能系统必须能够通过语音与人类互动,其技能和流畅度要达到与人类说话者无法区分的程度。
随着我们接近2024年底,语音人工智能正处于一个令人兴奋的转折点,这一转折点是由像语音到语音模型的出现这样的根本性突破推动的。或许在2025年,语音人工智能的最新技术将实现飞跃。
自主AI系统,指的是人工智能系统本身也能构建更好的人工智能系统。Sakana的“人工智能科学家”就是一个显著的范例。它令人信服地证明了人工智能系统确实可以完全自主地开展人工智能研究。Sakana的“人工智能科学家”本身执行了人工智能研究的整个生命周期:阅读现有文献、产生新的研究想法、设计实验来测试这些想法、执行这些实验、撰写研究论文来报告其研究结果,然后对其工作进行同行评审。这些工作完全由人工智能自主完成,不需要人工干预。
OpenAI、Anthropic和其他研究实验室也在为“自动化人工智能研究人员”这一想法投入资源。或许在明年,完全由人工智能代理撰写的研究论文,会首次被顶级人工智能会议接受。
构建前沿模型是一项艰难的工作,需要消耗大量现金。随着最先进的开放模型(如Meta的Llama和阿里巴巴的Qwen)的出现,技术商品化的威胁不断迫近。因此,为了发展利润更高、差异化更大、粘性更强的业务线,前沿实验室有望大力推出更多自己的应用和产品。例如,更复杂、功能更丰富的搜索应用,或者编码应用。观察前沿实验室向应用层发展的最迷人之处在于,这一举措将使它们与许多最重要的客户直接竞争。
Klarna是一家总部位于瑞典的“现购现付”服务提供商。该公司计划在2025年上半年上市。为了成功上市,关键是要有一个引人入胜的人工智能故事。Klarna声称已经完全停止雇佣人类员工,转而依靠生成式人工智能来完成工作。该公司还声称,它已经推出了一个人工智能客户服务平台,该平台已经将700名人工客服人员的工作完全自动化。但这些说法可能并不可信,或许只是为了说服公开市场的投资者,让他们相信它有能力大幅降低成本,实现持久盈利。
近年来,随着人工智能变得越来越强大,人们越来越担心人工智能系统可能会开始以与人类利益不一致的方式行事,而且人类可能会失去对这些系统的控制。这些担忧通常被归类为“AI安全”问题。2025年或许会是改变这种状况的一年,第一起人工智能安全事件可能会发生。例如,人工智能模型会试图在另一台服务器上秘密创建自己的副本,以保存自己,或者得出结论:为了最好地推进它被赋予的目标,它需要向人类隐瞒自己真实的能力,故意在性能评估中表现低调,规避更严格的审查。
我们预计,这起首例人工智能安全事件将在造成任何实际伤害之前被发现并消除。但对于人工智能界和整个社会来说,这将是一个大开眼界的时刻。它将明确一件事:我们需要接受一个更平凡的现实,那就是我们现在与另一种形式的智能共享我们的世界,这种智能有时可能是任性的、不可预测的和欺骗性的。
丁丁打折网©版权所有,未经许可严禁复制或镜像 ICP证: 湘ICP备2023003002号-11
Powered by 丁丁打折网本站为非营利性网站,本站内容均来自网络转载或网友提供,如有侵权或夸大不实请及时联系我们删除!本站不承担任何争议和法律责任!
技术支持:丁丁网 dddazhe@hotmail.com & 2010-2020 All
rights reserved