人工智能制造商警告他们的技术存在“灭绝的风险”

Decrypt 阅读 6289 2023-5-31 16:11
分享至
微信扫一扫,打开网页后点击屏幕右上角分享按钮

领导人工智能革命的人们也在呼吁制定法规,将其与流行病和核战争进行比较。

人工智能制造商警告他们的技术存在“灭绝的风险”

振作起来:人工智能可能导致人类灭绝。

周二,数百名人工智能行业领袖和研究人员;包括来自微软、谷歌和 OpenAI 的高管发出了一个发人深省的警告。他们声称,他们正在设计的人工智能技术有朝一日可能会对人类的生存构成真实而现实的威胁。除了流行病和核战争的恐怖之外,他们还认为人工智能是一种类似程度的社会风险。

在人工智能安全中心 (Center for AI Safety) 发表的一封信中,人工智能专家提出了这一简洁明了的声明:“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”

就是这样,他们就是这么说的。

人工智能制造商警告他们的技术存在“灭绝的风险”

资料来源:人工智能安全中心

该声明将人工智能描述为迫在眉睫的威胁,类似于核灾难或全球流行病。但签署人,这些技术行业的奇才,未能扩大他们不祥的警告。

这种末日情景究竟应该如何下降?我们应该什么时候标记我们的日历以迎接我们的机器人霸主的崛起?为什么人工智能这种人类创新的发明会背叛它的创造者?这些人工智能架构师的沉默是响亮的,他们没有给出任何答案。

事实上,这些行业领导者提供的信息并不比带有预设回复的聊天机器人多。在全球威胁领域,人工智能似乎突然插队,战胜了气候变化、地缘政治冲突,甚至是外星人入侵的谷歌关键词搜索。

人工智能制造商警告他们的技术存在“灭绝的风险”

与战争、外星人入侵和气候变化等其他全球问题相比,谷歌搜索人工智能。图片:谷歌

有趣的是,当法规符合他们的利益时,公司往往会提倡法规。这可以被视为他们表达“我们希望参与制定这些法规”的方式,这类似于狐狸在鸡舍中请求新规则。

同样值得注意的是,OpenAI 的首席执行官 Sam Altman 一直在推动美国的监管。尽管如此,如果欧洲大陆的政客继续试图监管人工智能,他仍威胁要离开欧洲。“我们会努力遵守,” Altman在伦敦大学学院的一个小组会议上说。“如果我们能遵守,我们会的。如果做不到,我们将停止运营。”

公平地说,几天后他又改口说 OpenAI 没有离开欧洲的计划。当然,这是在他有机会在“非常富有成效的一周”中与监管机构讨论这个问题之后发生的。

人工智能制造商警告他们的技术存在“灭绝的风险”

人工智能有风险,但风险有那么大吗?

专家们并未忽视人工智能的潜在危害。此前一封由 31,810 名代言人签署的公开信呼吁暂停强大的 AI 模型的训练,其中包括 Elon Musk、Steve Wozniak、Yuval Harari 和 Andrew Yang。

信中说:“这些协议应确保遵守它们的系统是安全的,无可置疑,”并澄清说,“这并不意味着总体上暂停 AI 开发具有紧急功能的黑盒模型,只是从危险的竞赛中倒退到更大的不可预测的竞赛中。”

潜在的AI Foom问题(其中 AI 能够改进自己的系统,将其能力提高到超越人类智能的程度)已经讨论了多年。然而,当今快速的变化步伐,加上媒体的大量报道,使这场辩论成为全球关注的焦点。

人工智能制造商警告他们的技术存在“灭绝的风险”

资料来源:Columbia Journalism Review

这引发了关于 AI将如何影响社交互动的未来的不同观点。

一些人设想了一个乌托邦式的时代,人工智能与人类互动,技术进步至高无上。其他人则认为人类将适应人工智能,围绕该技术创造新的就业机会,类似于汽车发明后的就业增长。然而其他人坚持认为,人工智能很有可能会成熟并变得无法控制,从而对人类构成真正的威胁。

在那之前,人工智能世界一切如常。密切关注你的 ChatGPT、你的 Bard 或你的 Siri,它们可能只需要一次软件更新就可以统治世界。但就目前而言,人类最大的威胁似乎不是我们自己的发明,而是我们无限的夸张天赋。

btcfans公众号

微信扫描关注公众号,及时掌握新动向

来源链接:https://decrypt.co/
免责声明:
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
标签: 人工智能 OpenAI
上一篇:萨尔瓦多总统聘请比特币标准作者担任经济顾问 下一篇:比特币 Ordinals 的创造者因铭文超过 1000 万而辞职

相关资讯