AI教父:AI在30年内毁灭人类的几率高达2成 (图)
新闻来源: 中时电子报 于2024-12-28 18:25:16 提示:新闻观点不代表本网立场 分享
被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。
辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。
他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”
辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”
辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。
回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”
辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”
辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。
辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。
他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”
辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”
辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。
回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”
辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”
辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。
网编:颜欢 |
|
27 条 | |||
|
|||||
自我吹嘘,王婆卖瓜,自夸自赞。人是活的,物是死的。人能够造出来,自然有办法控制。
试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?
粮食类,宠物类,如果粮食不够人类更可能互相残杀而不是拿粮食出气
回复10楼:国内2种大模型使用Mixture of Experts (MoE),不是什么新东西,把数据分成不同的子类,用不同的子模型训练,最后再综合。这是算力不足的一种折中方法,但种方法有其自身的局限性。高缓存要求, overfitting,还有更复杂的微调,和稳定性差。
|
【数码家电】【电脑前线】【手机数码】
敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。