丁丁打折网 - 网友优惠券分享网站,有688999个用户

京东优惠券 小米有品优惠券

当前位置 : 首页>web3>AI救世?a16z创始人颠覆认知:AI并非末日!

AI救世?a16z创始人颠覆认知:AI并非末日!

类别:web3 发布时间:2025-12-08 21:45

a16z 创始合伙人:AI 或许不是末日,而是救星?

人工智能(AI)的崛起,既带来了惊喜,也引发了恐慌。但或许,我们应该换个角度来看待它:AI 不是终结者,而是潜在的救世主。

社会上对于AI的看法褒贬不一,本文作者从一个独特的视角,为我们提供了一个深度思考的框架。

AI 时代:惊喜与恐慌并存

AI 时代已经来临,随之而来的,是惊喜,也是担忧。幸运的是,我想说,AI 并非世界末日,它更有可能成为拯救世界的关键。

别再把 AI 想象成电影里的杀人机器人了!它没有自我意识,不会主动策划毁灭人类。相反,AI 有潜力提升我们的智慧,从而改善生活,解决气候变化,甚至实现星际旅行。

无数社会科学研究表明,人类智慧与生活质量息息相关。更聪明的人,往往在学业、工作、健康、寿命等方面表现更出色。而 AI,恰恰为我们提供了一个增强人类智慧的绝佳机会。

AI 的真正潜力

简单来说,AI 可以帮助我们更好地完成几乎所有事情,从攻克疾病到探索宇宙。

当然,风险依然存在。AI 可能是我们文明创造的最重要、最伟大的发明,堪比电力和微芯片,甚至超越它们。

恐慌从何而来?

为什么会有 AI 将毁灭世界、摧毁社会、抢走工作的声音?这种截然不同的两种观点,又该如何解释?

不可否认,许多技术在带来便利的同时,也伴随着负面影响。因此,对 AI 产生担忧,并非毫无道理。

AI 道德恐慌:真相是什么?

经济学家观察到,类似的变革运动中,总会出现两类角色——“洗礼者”和“走私者”。这个比喻来源于 20 世纪 20 年代的美国禁酒令:

“洗礼者”是那些真正相信 AI 存在潜在风险的人,他们可能真的认为 AI 会带来某种生存危机。

“走私者”则是那些希望通过建立监管壁垒来保护自己利益的 CEO 们。他们希望政府能够阻止新兴企业和开源技术的竞争,从而赚取更多利润。

问题在于,“走私者”往往会胜出。“洗礼者”是天真的理想主义者,“走私者”则是精明的操控者。最终,改革的结果往往是“走私者”如愿以偿——监管加强,竞争受限——而“洗礼者”则困惑于他们的社会改良愿景为何会落空。

因此,即使“洗礼者”是真诚的,甚至他们的担忧是正确的,他们也可能被狡猾的“走私者”利用,最终为他人做了嫁衣。

AI 风险 #1:AI 会杀死我们吗?

AI 风险中最原始的担忧,莫过于 AI 会决定杀死人类。

这种担忧或许是为了提醒我们重视新技术的潜在风险。但正如火既能烧毁城市,也能带来光明和温暖一样,这种担忧往往忽略了新技术带来的好处,并引发了破坏性的情绪,而非理性的分析。仅仅因为史前人类会恐慌,并不意味着我们也必须如此。我们可以运用理智来思考。

简而言之,AI 没有意愿,没有目标,它不会想杀死你,因为它根本不是活着的。

对于那些坚持认为 AI 存在生存风险的人,我想说,他们的立场是不科学的。他们无法提出可验证的假设,也无法说明如何判断我们是否正在进入危险区域。除了“你无法证明它不会发生!”之外,他们几乎无法提供任何证据。事实上,这些“洗礼者”的立场非常极端,甚至带有一些阴谋论的味道。因此,我不得不质疑他们的动机。

还记得约翰·冯·诺伊曼对罗伯特·奥本海默在创造核武器方面的作用的回应吗?他说:“有些人会承认罪行以获得荣誉。”对于那些正在构建和资助 AI 的人来说,声称 AI 存在生存风险,或许是一种抬高自己地位的方式。

此外,加利福尼亚州以各种异端组织而闻名。其中许多组织是无害的,但有些却非常危险。这些组织很容易跨越导致暴力和死亡的界限。

正是因为存在这样的邪教,才会有一些听起来非常极端的 AI 末日论者。他们并非掌握了什么秘密知识,而是把自己激动到了狂热的状态。

“千禧主义是指一个团体或运动相信社会将发生根本性的变革,此后一切都将改变。只有戏剧性的事件才能改变世界,并且这种变革预计将由一群虔诚和专注的人带来或幸存下来。在大多数千禧主义情况下,即将到来的灾难或战斗将被一个新的、净化的世界所跟随,在这个世界中,信徒将获得回报。”

不要误会,邪教听起来很有趣,他们的写作材料通常很有创意和迷人,他们的成员在晚宴和电视上也引人入胜。但是,他们极端的信仰不应该决定法律和社会的未来——这显然是不可取的。

AI 风险 #2:AI 会毁了我们的社会吗?

另一种担忧是,AI 会产生“有害”的内容,即使我们没有被直接杀死,也会对人类造成深刻的伤害。

这种担忧相对较新,它从“AI 风险”运动中分离出来,并在一定程度上取代了它。事实上,最近 AI 风险术语从“AI 安全”变成了“AI 对齐”(用于担心社会“危险”人士使用 AI)。最初的 AI 安全人士对这种转变感到沮丧,尽管他们不知道该如何将其放回原处——他们现在主张将实际的 AI 风险主题重命名为“AI 不杀每个人主义”,虽然还没有被广泛采纳,但至少这是明确的。

我曾亲眼目睹过类似的情况——社交媒体的“信任和安全”之战。多年来,社交媒体服务一直受到政府和活动家们的巨大压力,要求封禁、限制、审查和以其他方式压制各种内容。同样关于“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧也被直接转移从社交媒体领域到“AI 对齐”这个新领域。

一方面,没有绝对自由言论的立场。首先,包括美国在内的每个国家都会将某些内容视为违法。其次,有某些类型的内容,如儿童色情和煽动暴力,几乎被所有社会普遍认为是无法容忍的——无论是否合法。因此,任何促进或产生内容(言论)的技术平台都将有一些限制。

因此,这就是现在围绕“AI 对齐”形成的动态。其拥护者声称有智慧来设计对社会有益的 AI 生成的言论和思想,并禁止对社会有害的 AI 生成的言论和思想。反对者认为,思想警察们极其傲慢和自负——在美国至少往往是明目张胆的犯罪。

派系道德标准所施加的社交媒体和 AI 的支配性正在加强,如果您不同意这种道德标准,那么您还应该意识到,对于 AI 被允许说/生成什么的争夺将比社交媒体审查的争夺更加重要。 AI 极有可能成为全球一切事物的控制层。

AI 风险 #3:AI 会夺走我们所有的工作吗?

由于机械化、自动化、计算机化或 AI 而失去工作的恐惧已经是数百年来一直存在的恐慌,自机械织布机这样的机械设备问世以来就如此。尽管历史上每一次新的主要技术革命都带来了更多的高薪工作岗位,但每次这种恐慌浪潮总伴随着“这一次不同”的说法——这次它将最终发生,这项技术将给人类便宜劳动力带来致命打击。然而,这从未发生过。

尽管如此,这个错误的观念却不会消失。

这一次,我们终于拥有了一个将夺走所有工作岗位并使人类劳动力变得无关紧要的技术—— AI。这一次历史不会重演,AI 将导致大规模失业——而不是经济、就业和工资的快速增长——对吗?

自动化导致失业的言论者一直犯的核心错误被称为“劳动力谬误”。这种谬误是错误的观念,即在任何特定时刻经济中有一定数量的劳动力要完成,要么机器完成,要么人类完成——如果由机器完成,则将没有工作可供人类完成。

但好消息并不止于此。我们还会得到更高的薪水。这是因为,在个体工人层面上,市场将补偿设置为工人的边际生产率函数。与传统企业中的工人相比,技术注入业务中的工人将更具生产力。雇主要么会因为他现在更有生产力而支付给该工人更多的薪水,要么另一个雇主会出于自身利益这样做。结果是,通常情况下,引入技术到一个行业不仅会增加该行业的就业数量,还会提高薪水。

这些对于没有接触过这些想法的人来说是如此震撼,以至于您可能需要一些时间才能理解它们。但我保证我没有编造它们——实际上,您可以在标准经济学教科书中阅读有关它们的所有内容。

但是,使用我上面描述的原则,想象一下如果所有现有的人类劳动力都被机器替换会意味着什么?

假设 AI 再次取代了这些劳动力?循环会重复,推动消费者福利、经济增长以及就业和薪水增长更高。这将是一个直线向上的螺旋,达到亚当·斯密或卡尔·马克思从未敢想象的物质乌托邦。

AI 风险 #4:AI 会导致严重的不平等吗?

对 AI 夺走工作岗位的担忧直接过渡到下一个 AI 风险,假设 AI 确实夺走所有工作岗位。那么,难道这不会导致大规模和严重的财富不平等吗?AI 所有者将获得所有经济回报,而普通人一无所有。

一个经典的例子是马斯克在 2006 年公开发布的所谓“秘密计划”:

...当然,这正是他现在所做的,也因此成为了世界上最富有的人。

简而言之,每个人都可以获得此类产品——正如我们过去看到的不仅是汽车,还包括电力、收音机、计算机、互联网、手机和搜索引擎。这些技术制造商的动机非常强烈,他们将尽可能地推动价格下降,使全球所有人都能够负担得起。这正是目前在 AI 领域已经发生的事情——这就是为什么您现在可以使用最先进的生成式 AI,而且甚至可以免费使用 Microsoft Bing 和 Google Bard 的原因——这也是未来将继续发生的事情。不是因为这些供应商慷慨,而恰恰是因为他们贪心——他们想要扩大市场规模,从而最大化利润。

这并不意味着不平等在我们社会中不是一个问题。它确实存在,只是它不是由技术推动的,而是相反,它是由经济领域中最抵制新技术、政府干预最多以阻止采用新技术(特别是住房、教育和医疗保健)的部门所推动的。 AI 和不平等的实际风险不是 AI 将导致更多的不平等,而是我们不允许利用 AI 来减少不平等。

AI 风险 #5:AI 会导致坏人做坏事吗?

到目前为止,我已经解释了四个最常被提出的 AI 风险,现在让我们来谈论第五个问题,也是我真正同意的问题: AI 将使坏人更容易做坏事。

这导致一些人提议,在这种情况下禁止使用 AI。不幸的是, AI 不是一种难以获得的某种神秘物质。相反,它是世界上最容易获得的材料——数学和代码。

因此,我们有两种非常简单的方法来应对坏人利用 AI 做坏事的风险,这正是我们应该关注的。

但是你会注意到我在那里漏掉了什么——我说我们应该首先关注在人工智能预防他们——这样的预防难道不意味着禁止人工智能吗?嗯,还有另一种方法可以预防这类行为,那就是将 AI 用作防御工具。使 AI 在好人手中变得强大,特别是那些防止坏事发生的好人。

因此,第二点,让我们采取重大措施将 AI 用于善良、合法、防御性的目的。让我们把 AI 应用于网络防御、生物防御、打击恐怖主义以及我们所做的所有其他事情,以保护我们自己、我们的社区和我们的国家安全。

我们应该怎么做?

这就是我们如何使用 AI 拯救世界。

AI 的发展始于 20 世纪 40 年代,同时也是计算机的发明。第一篇关于神经网络——我们今天所拥有的 AI 架构——的科学论文发表于 1943 年。在过去 80 年里,整整一代人的 AI 科学家出生、上学、工作,并在许多情况下离世,而没有看到我们现在正在收获的回报。他们每个人都是传奇。

今天,越来越多的工程师——其中许多人很年轻,可能有祖父母甚至曾祖父母参与了 AI 背后的思想创造——正在努力使 AI 成为现实。他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。

丁丁打折网©版权所有,未经许可严禁复制或镜像 ICP证: 湘ICP备2023003002号-11

Powered by 丁丁打折网本站为非营利性网站,本站内容均来自网络转载或网友提供,如有侵权或夸大不实请及时联系我们删除!本站不承担任何争议和法律责任!
技术支持:丁丁网 dddazhe@hotmail.com & 2010-2020 All rights reserved