时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 社区·评论·问卷
留园网首页 · 新闻速递首页 · 【繁體閱讀】 【网友评论:9 条】 【 热评新闻排行 】 【 热门新闻排行 】 【 即刻热度新闻排行 】 【 72小时神评妙论 】   

AI最可怕的不是取代人类 而是让人不相信看到的是真照片

新闻来源: APPSO 于2024-11-22 13:45:05  提示:新闻观点不代表本网立场

观察下面这张图片,你认为这是真实拍摄的,还是 AI 生成?


看着是有点可疑,比如有一些汽车的车门、堆起来的样子,好像是拼接起来的。

那下面这两张呢?



如果不仔细查证,你可能有点不信:它们全都是拍摄出来的「真照片」。‍‍关注 AI 第一新媒体,率先获取 AI 前沿资讯和洞察‍‍十月底开始,西班牙瓦伦西亚地区经历特大暴雨,一天的降雨量相当于一年,还下得连绵不断。



而瓦伦西亚地区,街道有很多斜坡,这么大的水量完全可以让汽车浮起来,并且沿着斜坡一路往下。最后当洪水退去,就出现了最开始的照片中的景象。

可是在面对这些照片的时候,很多人的反应是:AI 做的吧,假新闻。



也不能说这些人不讲理,确实也是被骗到过。之前美国佛罗里达州被飓风袭击,一张穿救生衣的小女孩。在救生艇上抱着小狗流眼泪的图片,就横扫了社交网络。



仔细看的话,这张图比上面的暴雨图「AI 味」更重,从手指细节,到身体姿势,都有种说不出的怪异。

果不其然,原帖的帖主也并不知道这张图是从哪儿来的,发出来只是为了表达自己的对受灾人民的同情。



现在,平台已经补充了背景信息,强调这是一张生成出来的图片,而非真正拍摄出来的「照片」。

在救生衣女孩这张图上,网友们的怀疑精神让平台迅速反应,补充了警告。但是同样的怀疑精神,在另一场灾难中,就不再奏效。

毕竟,AI 生图确实越来越真假难辨。又因为一次一次,总有人拿着 AI 图来博眼球,最后变成了大型「狼来了」现场。



在评价由 AI 生成的图片或视频时,是否足够写实,一直是最重要的标准之一。

图像是不是足够写实、逼真,对背后的模型提出了很多挑战:是不是掌握自然语言的规则?是否理解了常识和现实世界的规律?能不能理解上下文当中的信息,并且呈现出来?

这是对模型能力的考验,也是反映各家技术力的有效指标。

一开始,大家也为 AI 能够生成出无比逼真的图像而感到兴奋。可是后来,越来越多的「开局一张图,剩下全靠编」的新闻出现了,而且越来越难以分辨。

六月时,社交媒体上出现西安发生特大爆炸的消息,时间地点俱全。但是西安警方核对之后,发现并没有这回事。这条消息是用一家 MCN 机构所持有的账号发出来的。

被警方抓获后,主犯交代自己是利用了 AI 工具,给定 prompt,工具就会自动在网络上抓取相关的文章,然后生成几百到上千字的文本。



最高峰一天能生成 4000 至 7000 条信息,全程几乎不需要人工参与,而且专门挑民生相关、热度高的话题和事件——有研究表明,消极、负面、激发情绪的信息,往往更容易抓住人的注意力,这是由我们的顶叶和额叶区域结构决定的。



一番操作下来,仅仅只靠发假消息,薅平台流量,骗子的日均收入高达 1 万元。这对于阅读、转发和评论了这种假消息的用户来说,气愤是在所难免的。



假照片还是实实在在地,骗过所有人的眼睛,造成了市场恐慌。去年五月时,一张五角大楼发生爆炸的照片,迅速流传。



还没等专业的新闻机构核实,这张照片就迅速流传。因为刚好发布在美国股市当天的开盘时间,很多投资相关的网站和社媒账户都转发了,导致标准普尔 500 指数下跌 0.3%。黄金和美国国债的价格小涨了一波,有部分投资者把资金转移到了更稳健的产品上。

最后是辖区的消防部门出面辟谣,才让事态平息。



太依赖「眼见为实」,不仅会伤害感情,还会伤害钱包啊。于是就出现了反向操作:一律打成 AI。



这样做的背后,起码有一个原因是成立的:躲开平台的推送。

Meta 是明确表示要高举 AI 大旗,扎克伯格认为,有必要专门加一个版块给 AI 生成或者辅助生成的内容,他说,「我非常有信心,在未来几年里,这将成为重要的趋势之一和重要的应用之一」。

Meta 旗下有 Facebook 和 Instagram 两个重要的内容平台,而在前者上,AI 生成内容越来越多见,因为它的激励政策很诱人:每个超过 1000 赞的帖子,最高可以获得 10 美元的曝光奖励。

有一说一,如果能坚定执行「一律打成 AI」的路线,有效打击假消息的传播,倒逼平台不再给这些内容推流量、给补贴,说不定是个走得通的路子。没有买卖,就没有伤害。

然而,这种真假难辨的情况,可能会让真正的伤害,消失在互联网的信息海洋中。

互联网观察基金会 IWF 报告,在过去六个月里,由人工智能制作的非法内容数量已经超过了前一年的总量。而且都是在社交平台、公共图库等公开平台上发现的。



这些非法内容包括 AI 生成的儿童色情图片、视频;融合了明星名人的照片的 Deepfake 视频;生成的儿童性虐待裸照等等。

更严重的问题是,很多 AI 生成的内容已经到了一个临界点。由于过于逼真,工作人员不能轻易确定假图里面是不是有真人,是不是真的有儿童遭到虐待、需要介入。

作为非营利组织,IMF 这样的机构只能是收集证据、与平台交涉要求删除。而真正有能力进行更深一步调查的,只有警方和其他执法人员。

当海量的生成照片需要他们来处理,而这些照片都逼真的无人能辨别时,「一律打成 AI」会导致真照片混杂其中,没法被辨识出来,从而错过干预的机会。

IWF 的分析师表示,「我们所处理的几乎所有包含 AI 生成的儿童性虐待材料的报告或链接,都是在明网上发现的。像我们这样的组织或者警察,可能会被成百上千张新图片压垮,我们并不总能知道是否真的有一个孩子需要帮助」。



类似的,当「狼来了」的游戏不断扩大,真正反映、通报险情的消息,被安上「AI 做的吧」,从而错过最佳施救时间,也是一种恶果。

从「眼前为实」到「眼见不再为实」的过程中,消失的是在网上冲浪时的信任。出于自我保护、减少谣言散布,一律打成 AI 的确是一种有效策略。但一切都不值得相信的世界,会更好吗?

			
网编:和评

鲜花(0)

鸡蛋(1)
9 条
【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]
进入内容页点击屏幕右上分享按钮


敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。
热门评论当前热评  更多评论...
评论人:jingfei05[☆★声望品衔8★☆][个人频道][个人动态] 2024年11月22日13:53 回复
其实AI做的图片有几个特点:
1. 细节容易扭曲
2. 越是复杂的图片就越是容易穿包,所以太过复杂的AI 图片不太容易用来公布。
  1
评论人:肥肥高富[☆品衔R4☆][个人频道][个人动态] 2024年11月22日13:57 回复
这个是初期,以后的2.0,3.0版会优化了。萝莉岛的女明星和大佬们终于可以松一口气,无脑甩锅了
4  
评论人:TCVD[★品衔R5★][个人频道][个人动态] 2024年11月22日14:03 回复
现阶段来说,AI的图片还是很容易看出来
 
评论人:混沌世界[★品衔R5★][个人频道][个人动态] 2024年11月22日14:07 回复
现阶段,AI作画追求完美(面部),而且很类似,如果什么时候故意出点瑕疵,不类同,那才是一大进步。

来自留园官方客户端

 
评论人:mastGD[☆品衔R4☆][个人频道][个人动态] 2024年11月22日14:19 回复
以后会越来越真,到时候人就不会想着去分辨真伪了。没有意义了
 
新闻速递首页 | 近期热门新闻 | 近期热评新闻 | 72小时神评妙论 | 即刻热度新闻排行
唯美贴图】【摄影部落
前期相关精彩新闻
新闻速递首页·向留园新闻区投稿·本地新闻·返回前页