ChatGPT的一位创建者认为有50%的可能性

一位参与创建ChatGPT的研究人员警告说,人工智能很可能会导致人类的灭亡——或者至少有大约50%的可能性会出现这种情况。

据BusinessInsider报道,PaulChristiano在Bankless播客中发出了这一警告,他曾领导OpenAI的语言模型对齐团队,但后来离开了该公司,现在负责非营利对齐研究中心。

在采访中,主持人提出了“EliezerYudkowsky末日情景”的前景,Yudkowsky多年来(实际上是几十年来)一直是著名的人工智能怀疑论者。

克里斯蒂亚诺告诉主持人:“一旦开发出人工智能,埃利泽就会陷入这种极其快速的转变。我对此没有那么极端的看法。”

然后,他描述了随着人工智能加速变革而加速发展的渐进过程,并观察到:“总的来说,在拥有人类水平的人工智能系统后不久,你的厄运概率可能会达到50/50。”

克里斯蒂安诺还在播客中表示,最终“人工智能接管的可能性有10-20%”,最终导致许多(或实际上是大多数)人类死亡的相当惨淡的场景。“我非常认真地对待这件事,”克里斯蒂安诺补充道。好吧,不开玩笑。

一致性研究中心的使命是“使未来的机器学习[AI]系统与人类利益相一致”。

这是最近关于世界可能如何最终受到人工智能负面影响的一大堆警告中的又一个。考虑到人类的末日和地球上的人口大部分被消灭的说法,这肯定是更极端的一种。

诚然,即便是Christiano也认为后者发生的可能性相对较小,但即便如此,20%的骰子(最坏情况)导致AI恶意接管并不是任何人都会喜欢的前景。

当然,有趣的是,任何人工智能的接管都必须是敌意的。难道我们就不能发展出一种经过深思熟虑、仁慈的人工智能,真正为我们的最佳利益服务吗?仅此一次?嗯,不。任何人工智能一开始都可能有良好的意图,但它们不可避免地会偏离轨道,而对“更好”的判断最终会以惊人的方式出现错误。你看过电影,对吧?

严肃地说,现在要强调的一点是,虽然人工智能还不是真正智能——目前还不是这样,但它基本上仍然是一个大(庞大)的数据胡佛,处理所有这些数据,并且不可否认已经对所述材料进行了一些令人印象深刻的利用–我们仍然需要尽早制定指导方针和规则,以防止未来发生任何潜在的灾难。

例如,这些灾难可能采取侵犯隐私的形式,而不是我们所知的世界末日(TM),但仍然需要警惕。

专家对人工智能的最新警告来自刚刚退出谷歌的所谓“人工智能教父”。杰弗里·辛顿(GeoffreyHinton)基本上概述了反对人工智能的广泛理由,或者至少反对其不受限制的快速扩张(这种情况正在发生),包括人工智能以比他预期更快的方式智胜我们的危险。更不用说对就业的威胁,这已经是一个非常现实的威胁。这是我们书中近期最紧迫的危险。

在此之前,埃隆·马斯克等人签署了一封公开信,呼吁暂停ChatGPT和其他人工智能系统的开发至少六个月(他以人工智能的形式给出了自己的答案,他承诺“不太可能消灭人工智能”)人类”)。

免责声明:本文章由会员“刘同东”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系

刘同东
免责声明:本文章由会员“刘同东”发布,如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务;如因作品内容、版权和其他问题请于本站联系