长推:《未来简史》作者尤瓦尔·赫拉利——AI 将毁灭人类文明?

rickawsb热度: 6834

“核武器和人工智能之间的一个重大区别是,核武器无法制造出更强大的核武器,而人工智能可以制造出更强大的人工智能。"

原文作者:rickawsb

原文来源:Twitter

ai并不需要具有意识就能威胁到人类的存亡 -- 尤瓦尔·赫拉利《未来简史》作者,一周前在frontier论坛上的演讲。

精选如下:

在《前沿论坛》上的演讲中,赫拉利讨论了AI对人类未来的影响。

他指出,AI正处于改变生态系统的边缘,有可能在地球上首次引入无机生命形式。

“人工智能并不真正需要意识,或者物理形态,就能毁灭人类。。。因为ai能够快速自我学习和改进,以至于ai的开发者们也不完全解它们的能力。。。这些能力可以被归结为操纵和生成语言的能力,无论是通过文字、图像还是声音。 而语言是我们用来进行金融交易的工具,也用来在激发我们对天堂的想像”。

“人类使用语言创造神话、法律、货币、艺术、友谊和国家,语言是人类的操作系统,而人工智能刚刚黑掉了这个操作系统。。。 ai可以通过操作政治宣传、虚假新闻报道来影响2024年的美国总统大选,ai甚至可以撰写和大规模传播新兴邪教的经文。”

“人类无法影响ai的意识形态,然而,我们使用ai的时间越长,它就越了解我们,也将越懂得改变我们的意识形态。 ai没有感情,然而,ai却能感知人类的感情并利用这点来和人类建立亲密关系,并可以利用这种关系用于说服我们购买特定的产品或支持特定的总统候选人。”

“这不是历史的终结,但可能是人类历史的终结。。。 数千年来,先知、诗人和政治家一直在利用语言和叙事来操纵和控制人们,重塑社会。现在,人工智能很可能能够做到这一点,而且一旦必要,它无需派遣机器人来伤害我们,它可以让人类自己扳动扳机。”

“ai革命让我们直面柏拉图的洞穴。如果我们不小心,幻觉可能会降临在整个人类之上。。。我们将无法撕开它,甚至意识不到它的存在,因为我们会认为这才是现实。”

“美国拥有史上最强大的信息技术,然而美国公民现在已经无法就谁赢得了最近的选举、气候变化是否真实以及疫苗是否预防疾病等问题达成一致。ai远比这些社交媒体算法更加强大,它们可能会造成更大的影响。”

“核武器和人工智能之间的一个重大区别是,核武器无法制造出更强大的核武器,而人工智能可以制造出更强大的人工智能。 因此,我们需要迅速采取行动,防止人工智能失去我们的控制。政府必须立即禁止在其变得安全之前,任何更具革命性的人工智能工具进入公共领域。”“你也可以研究人工智能,但不要过快地将其公开。减缓部署人工智能会导致民主落后于专制政权吗?答案是不会。。。 民主是一场开放的对话,专制主义是一种命令式的行为。 对话依赖于语言,当人工智能入侵语言时,它意味着它可能会破坏我们进行有意义的公共对话的能力,从而摧毁民主制度。”

“我建议的第一项监管措施是建立严格的人工智能安全审查机制。类似于对新药品进行严格的安全检查。此外,我们还需要投资于人工智能研究和教育,培养专业人才和专家,以深入了解人工智能的潜在风险和应对策略。最重要的是,我们需要建立国际合作和协调,制定全球范围的人工智能治理框架。”

“在全球范围内监管某样东西非常非常困难,因为这是一场军备竞赛。 不要安慰自己说"这是我们创造的,我们可以控制它,如果它出了问题,我们只需切断它的电源",现在没有人知道如何切断它的电源。”

“从进化的角度来看,现在的ai就像地球上刚刚出现的生命一样,距离它变成智人还有很长时间,但是这个“很长“的时间可能也只需要40年而不是40亿年。这就是数字进化,它和生物进化在完全不同的时间尺度上。

以上是赫拉利以“AI and the future of humanity“为主题的演讲的精选,原视频英文版可在油管上找到。

如果你读完这个长推,心情和我一样复杂,那别忘粉 @rickawsb ,并点赞转发本推的第一条,让更多人知道ai的潜在风险,为保护人类的伟大事业添砖加瓦。

声明:本文为入驻“MarsBit 专栏”作者作品,不代表MarsBit官方立场。
转载请联系网页底部:内容合作栏目,邮件进行授权。授权后转载时请注明出处、作者和本文链接。未经许可擅自转载本站文章,将追究相关法律责任,侵权必究。
提示:投资有风险,入市须谨慎,本资讯不作为投资理财建议。
免责声明:本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况,及遵守所在国家和地区的相关法律法规。
关键字:人工智能