时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 社区·评论·问卷
留园网首页 · 新闻速递首页 · 【繁體閱讀】 【网友评论:7 条】 【 热评新闻排行 】 【 热门新闻排行 】 【 即刻热度新闻排行 】 【 72小时神评妙论 】   

OpenAI疯狂爬虫 把一家公司都给爬宕机了(组图)

新闻来源: 量子位 于2025-01-12 12:56:30  提示:新闻观点不代表本网立场

万万没想到,能把一家公司网站给搞宕机的元凶,竟然是OpenAI疯狂爬虫的机器人——GPTBot。


(GPTBot是OpenAI早年前推出的一款工具,用来自动抓取整个互联网的数据。)

就在这两天,一家7人团队公司(Triplegangers)的网站突然宕机,CEO和员工们赶忙排查问题到底出在的哪里。

不查不知道,一查吓一跳。

罪魁祸首正是OpenAI的GPTBot。

从CEO的描述中来看,OpenAI爬虫的“攻势”是有点疯狂在身上的:

我们有超过65000种产品,每种产品都有一个页面,然后每个页面还都有至少三张图片。

OpenAI正在发送数以万计的服务器请求,试图下载所有内容,包括数十万张照片及其详细描述。

在分析了公司上周的日志之后,团队进一步发现,OpenAI使用了不止600个IP地址抓取数据。

△Triplegangers服务器日志:OpenAI机器人未经许可疯狂爬虫

如此规模的爬虫,就导致这家公司网站的宕机,CEO甚至无奈地表示:

这基本上就是一场DDoS攻击。

更重要的一点是,由于OpenAI疯狂地爬虫,还会引发了大量的CPU使用和数据下载活动,从而导致网站在云计算服务(AWS)方面的资源消耗剧增,开销就会大幅增长……

嗯,AI大公司疯狂爬虫,却由小公司来买单。

这家小型团队的遭遇,也是引发了不少网友们的讨论,有人认为GPTBot的做法并不是抓取,更像是“偷窃”的委婉说法:



也有网友现身表示有类似的经历,自从阻止了大公司的批量AI爬虫,省了一大笔钱:



被爬虫到宕机,还不知道被爬走了什么那么OpenAI为什么要爬虫这家初创企业的数据?

简单来说,它家的数据确实属于高质量的那种。

据了解,Triplegangers的7名成员花费了十多年的时间,打造了号称最大“人类数字孪生”数据库

网站包含从实际人类模型扫描的3D图像文件,并且照片还带有详细的标签,涵盖种族、年龄、纹身与疤痕、各种体型等信息。

这对于需要数字化再现真实人类特征的3D艺术家、游戏制作者等,无疑具有重要价值。



虽然Triplegangers网站上有一个服务条款页面,里面明确写了禁止未经许可的AI抓取他们家的图片。

但从目前的结果上来看,这完全没有起到任何作用。

重点在于,Triplegangers没有正确配置一个文件——robots.txt。

robots.txt也称为机器人排除协议,是为了告诉搜索引擎网站在索引网络时不要爬取哪些内容而创建的。

也就是说,一个网站要是不想被OpenAI爬虫,那就必须正确配置robots.txt文件,并带有特定标签,明确告诉GPTBot不要访问该网站。

但OpenAI除了GPTBot之外,还有ChatGPT-User和OAI-SearchBot,它俩也有各自对应的标签:



而且根据OpenAI官方发布的爬虫信息来看,即便你立即正确设置了robots.txt文件,也不会立即生效。

因为OpenAI识别更新这个文件可能需要24个小时……

CEO老哥对此表示:

如果一个网站没有正确配置robots.txt文件,那么OpenAI和其它公司会认为他们可以随心所欲地抓取内容。

这不是一个可选的系统。

正因如此,也就有了Triplegangers在工作时间段网站被搞宕机,还搭上了高额的AWS费用。

截至美东时间的本周三,Triplegangers已经按照要求配置了正确的robots.txt文件。

以防万一,团队还设置了一个Cloudflare账户来阻止其它的AI爬虫,如Barkrowler和Bytespider。



虽然到了周四开工的时候,Triplegangers没有再出现宕机的情况,但CEO老哥还有个悬而未决的困惑——

不知道OpenAI都从网站中爬了些什么数据,也联系不上OpenAI……

而且令CEO老哥更加深表担忧的一点是:

如果不是GPTBot“贪婪”到让我们的网站宕机,我们可能不知道它一直在爬取我们的数据。

这个过程是有bug的,即便你们AI大公司说了可以配置robots.txt来防止爬虫,但你们把责任推到了我们身上。

最后,CEO老哥也呼吁众多在线企业,要想防止大公司未经允许爬虫,一定要主动、积极地去查找问题。

并不是第一例但Triplegangers并不是第一个因为OpenAI疯狂爬虫导致宕机的公司。

在此之前,还有Game UI Database这家公司。

它收录了超56000张游戏用户界面截图的在线数据库,用于供游戏设计师参考。

有一天,团队发现网站加载速度变慢,页面加载时间延长三倍,用户频繁遭遇502错误,首页每秒被重新加载200次。

他们一开始也以为是遭到了DDoS攻击,结果一查日志……是OpenAI,每秒查询2次,导致网站几乎瘫痪。



但你以为如此疯狂爬虫的只有OpenAI吗?

非也,非也。

例如Anthropic此前也被曝出来过类似的事情。

数字产品工作室Planetary的创始人Joshua Gross曾表示过,他们给客户重新设计的网站上线后,流量激增,导致客户云成本翻倍。

经审计发现,大量流量来自抓取机器人,主要是Anthropic导致的无意义流量,大量请求都返回404错误。



针对这一现象,来自数字广告公司DoubleVerify的一份新研究显示,AI爬虫在2024 年导致“一般无效流量”(不是来自真实用户的流量)增加了86%。

那么AI公司,尤其是大模型公司,为什么要如此疯狂地“吸食”网络上的数据?

一言蔽之,就是他们太缺用来训练的高质量数据了。

有研究估计过,到2032年全球可用的AI训练数据可能就会耗尽,这就让AI公司加快了数据收集的速度。

也正因如此,OpenAI谷歌等AI公司为了获取更多“独家”视频用于AI训练,现在也正纷纷向UP主们重金求购那些“从未公开”的视频。

而且连价格都标好了,如果是为YouTube、Instagram和TikTok准备的未发布视频, 每分钟出价为1~2美元(总体一般是1~4美元),且根据视频质量和格式的不同,价格还能再涨涨。





参考链接:

[1]https://techcrunch.com/2025/01/10/how-openais-bot-crushed-this-seven-person-companys-web-site-like-a-ddos-attack/

[2]https://www.reddit.com/r/webscraping/comments/1bapx0j/how_did_openai_scrap_the_entire_internet_for/

[3]https://www.marktechpost.com/2023/08/10/openai-introduces-gptbot-a-web-crawler-designed-to-scrape-data-from-the-entire-internet-automatically/

[4]https://platform.openai.com/docs/bots/overview-of-openai-crawlers

[5]https://www.businessinsider.com/openai-anthropic-ai-bots-havoc-raise-cloud-costs-websites-2024-9

			
网编:和评

鲜花(0)

鸡蛋(0)
7 条
【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]
进入内容页点击屏幕右上分享按钮


敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。
热门评论当前热评  更多评论...
评论人:add321[☆★★add321com★★☆][个人频道][个人动态] 2025年01月12日13:20 回复
变相变态的大肆偷窃!
5  
评论人:juewangle[☆品衔R4☆][个人频道][个人动态] 2025年01月12日15:45 回复
所谓的AI浪潮就是骗人的把戏。
整个底层逻辑就是搜索拼凑抄袭。搜到了就看着好像很智能,搜不到或者搜错了就一本正经胡说八道。
最可怕的地方是几何级数水平的大量制造网络垃圾。很有可能错的东西说多了也成对的。
6  
评论人:未知星球[★品衔R5★][个人频道][个人动态] 2025年01月12日15:06 回复
早说过,opeAI 是魔鬼,一新想制造操纵人类的"人" 然后坐享其成,人类的孩子们将变成半傻瓜.
2  
新闻速递首页 | 近期热门新闻 | 近期热评新闻 | 72小时神评妙论 | 即刻热度新闻排行
科技频道】【宠物情缘
前期相关精彩新闻
新闻速递首页·向留园新闻区投稿·本地新闻·返回前页