时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 社区·评论·问卷
留园网首页 · 新闻速递首页 · 【繁體閱讀】 【网友评论:27 条】 【 热评新闻排行 】 【 热门新闻排行 】 【 即刻热度新闻排行 】 【 72小时神评妙论 】   

AI教父:AI在30年内毁灭人类的几率高达2成 (图)

新闻来源: 中时电子报 于2024-12-28 18:25:16  提示:新闻观点不代表本网立场

被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。

辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。

他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”

辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”

辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。

回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”



辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”

辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。

			
网编:颜欢

鲜花(0)

鸡蛋(1)
27 条
【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]
进入内容页点击屏幕右上分享按钮


热门评论当前热评  更多评论...
评论人:dingding6[☆★声望品衔7★☆][个人频道][个人动态] 2024年12月28日18:30 回复
自我吹嘘,王婆卖瓜,自夸自赞。人是活的,物是死的。人能够造出来,自然有办法控制。
8   1
评论人:vhengsh[♂☆品衔R3☆♂][个人频道][个人动态] 2024年12月29日6:06 回复
 回复13楼:200年前的人类还在用马车。
1  
评论人:财富绽放[♀★品衔R6★♀][个人频道][个人动态] 2024年12月29日2:15 回复
 回复23楼:机器不可能产生自我意识

来自留园官方客户端

 
评论人:neophoenix[★众人行★][个人频道][个人动态] 2024年12月29日1:28 回复
试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?
粮食类,宠物类,如果粮食不够人类更可能互相残杀而不是拿粮食出气
 
评论人:djtg[☆品衔R4☆][个人频道][个人动态] 2024年12月28日23:44 回复
 回复10楼:国内2种大模型使用Mixture of Experts (MoE),不是什么新东西,把数据分成不同的子类,用不同的子模型训练,最后再综合。这是算力不足的一种折中方法,但种方法有其自身的局限性。高缓存要求, overfitting,还有更复杂的微调,和稳定性差。
1  
评论人:Jau[☆我不装WhatsApp☆][个人频道][个人动态] 2024年12月28日19:38 回复
AI都比不过习近平,习近平指明了多少方向?
就像计算机病毒一样,没有背后那个人的致使, 永远不会伤害到人。
AI没有创造力,不会超过人类。
2  
新闻速递首页 | 近期热门新闻 | 近期热评新闻 | 72小时神评妙论 | 即刻热度新闻排行
数码家电】【电脑前线】【手机数码
敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。
前期相关精彩新闻
新闻速递首页·向留园新闻区投稿·本地新闻·返回前页