2024-09-19 12:53

什么是已死的互联网阴谋?

通常情况下,阴谋论变得如此牵强,以至于它们既荒谬又难以对死忠的信徒完全推翻。但是,由于人工智能(AI)聊天机器人和代理的兴起,已经消亡的互联网理论是一个比其他理论更站得住脚的阴谋。

这一理论于2021年首次出现在Agora Road的Macintosh Cafe论坛上,当时一位名为“IlluminatiPirate”的用户发起了一个名为“死亡的互联网理论:大部分互联网都是假的”的帖子。该理论引用了4Chan等主要在线论坛的帖子,认为非人类机器人负责大部分在线活动和内容创作。

死亡互联网理论提出了什么建议?

在最高层面上,机器人的概念是自动、快速地制作社交媒体帖子等内容,这些帖子经过算法调整,可以吸引用户参与——有效地在Facebook和TikTok等平台上创造点击、评论和点赞。这是因为更多的互动和参与可以带来更多的广告收入。

但在表面之下隐藏着一个更阴险的概念,即参与此类内容的账户也是机器人和人工智能代理——这意味着所有这些活动都是在机器之间单独发生的,没有人类的互动。该理论的更深层次表明,政府组织甚至在使用机器人来操纵人类的意见。

这就产生了“死亡互联网”的概念,据说死亡发生在2016年或2017年左右。《大西洋月刊》(the Atlantic)上一篇名为《也许你错过了,但互联网五年前就“消亡”了》的文章给了整个定理更多的关注。

过时的互联网理论有多少是正确的?

很难确定有多少网络是由机器填充的——各种研究给出了相互矛盾的信息。网络安全公司Imperva的研究发现,机器人约占所有互联网流量的一半。这些流量往往来自用于产生虚假广告收入的机器人;YouTube和其他网站都违反了这一点,使用机器人人为地提高参与度。

另一份由AWS于2024年6月5日发布的预印本研究报告称,网络上57.1%的句子是机器生成的翻译。至于有多少网站被发现托管人工智能生成的内容,根据Originality.ai正在进行的一项研究,这一比例为13.1%。

机器人和在线翻译等其他工具的流行,多年来一直是一个众所周知的现象,但这并不一定意味着互联网已经“死亡”。同样,虽然生成式人工智能——从ChatGPT和谷歌的Gemini等大型语言模型到专用的图像创建工具——可以自动化内容创建,但可以说它还不够先进,无法通过人类的审查。人工智能生成的内容通常包含诸如“在披萨酱中添加胶水”之类的错误信息,或者充满了糟糕的语法和拼写,这将提醒人们它是人工智能生成的。

但由于这项技术的快速发展,人们有理由担心。随着人工智能的发展,可以创造出独立于人类特定指令的代理,我们有可能预见到这些代理之间的互动,它们更喜欢人工智能制作的内容和结构化信息,而不是人类制作的内容和结构化信息。这可能会导致一种情况,即互联网内容被定制为吸引人工智能代理,而不是其他人类,以推销产品和农场参与。在人工智能代理之间的第一次加密货币交易之后,我们已经看到了这种新经济的迹象——没有人类参与。

然而,最终结果如何,目前还不得而知。一个更深层次的担忧是,人类利用人工智能快速生成低质量的内容,以满足渴求内容的平台和搜索引擎的需求。鉴于许多生成式人工智能模型缺乏技巧,而且它们无法把握人类的细微差别,依靠人工智能来制作内容可能会导致互联网充斥着低质量的信息、文章、艺术等,所有这些都是为了“参与”而设计的。

互联网是墓地吗?远非如此

这个看似令人不安的理论目前还没有令人信服的证据来支持它。内容共享和“病毒式传播”的本质意味着相同的帖子可以不断重新出现;十年前流行的歌曲,尽管与时代精神相去甚远,但仍然出现在广告中,人们也可以说同样的话。

同样,搜索引擎优化(SEO)的平淡本质迫使人们以一种系统的方式创建内容,感觉就像机器人创建的一样。可悲的事实是什么?它可能只是一个年轻的作家试图达到配额或击中某些关键短语,插入一些链接,并遵循无数其他的过程和程序,喜欢谷歌搜索在任何给定的时间。

这并不意味着大多数互联网现在都受到机器人的困扰。这篇文章在某种程度上进行了优化。Live Science的出版商Future Publishing也成立了一个专门的部门,以支持其出版物的网页在搜索引擎中排名更高。

然而,在一些可以自动化的地方,拥有领先搜索引擎的谷歌一直武断地惩罚那些试图玩弄其搜索算法的文章。此外,对于那些提供建议(尤其是购买建议)的文章的出版物,谷歌追求的是能够证明有人使用过被推荐的服务或产品的内容。这可以是引用现实生活中的例子,比如手机的电池寿命,也可以是展示设备使用情况的原始照片。因此,当前的SEO指导有效地推动了更多的人为和以人为中心的内容。

小心你读的东西——尤其是在社交媒体上

当涉及到包括X、Facebook、TikTok和Instagram在内的社交媒体平台时,互联网理论的死水变得浑浊起来。毫无疑问,数以百万计的人在使用这样的平台——设置机器人根据关键词发布帖子的能力,让人们更加相信,互联网是由智能代理而不是人类装点起来的。

多亏了生成式人工智能,现在有很多人工智能生成的Instagram模特和网红潜伏在网上,呈现出通常衣着暴露的人的看似完美的形象。

当然,网红和社交媒体明星的崛起以及无数的过滤器——再加上社交媒体不能准确反映个人生活的想法——已经给在线参与披上了一层虚假的外衣。

尽管社交媒体的演变有时让人感觉像是一种广告工具,但它仍然对数百万人产生了巨大的影响。2011年的阿拉伯之春起义在一定程度上归功于Facebook上发起的一场运动。最近,由英国右翼活动人士带头的骚乱爆发了,原因是社交媒体上传播的错误信息。

考虑到这一点,人工智能代理有可能传播虚假信息,并相互互动以提高参与度,从而煽动未来的火焰。发表在《自然》杂志上的一项历史性研究发现,在2016年和2017年的10个月里,推特(现在被称为X)上的1400万条消息传播了40万篇文章,“社交机器人”在传播“低可信度来源”的文章方面发挥了不成比例的作用。这导致了内容的放大——我们称之为“病毒式传播”。

这确实令人担忧。鉴于路透社新闻数字新闻研究所2024年报告发现,社交媒体是48%的美国人的新闻来源,仍然有大量的人成为机器人传播的错误信息影响的成熟目标。

人工智能研究人员杰克·伦泽拉和弗拉达·罗佐娃在悉尼新南威尔士大学的一篇博客文章中写道,互联网理论的消亡并不意味着你所有的在线互动都是与机器人进行的。但它提醒我们,人们应该对公共社交媒体互动持怀疑态度。此外,认为互联网是由其他人消费的人造内容组成的观点,已不再是一个假设。

人类和机器人一起上网

追求搜索引擎优化来吸引人们的注意力已经导致了一些类似的文章混淆了搜索结果——有些比其他更有用。这也是一篇关于“2024年最佳印刷商”的幽默讽刺文章的灵感来源。

有人甚至会说,这篇文章本身就是在助长这个问题,因为它反映了人们对阴谋论的兴趣,尽管《生活科学》已经努力将研究和洞察带入这个话题——以及一个人的视角。考虑到这一点,人工智能可能是下一步,导致互联网因为缺乏显著的原创内容和缺乏人情味的文章而感觉死亡——无论是观点、经验还是简单的机智。

这里有一线希望,谷歌和其他网络巨头已经采取行动限制机器人的使用,至少他们是这么说的。这些措施在很大程度上是由于广告商对什么是真正的人类观点而不是机器人产生的观点变得更加精明。作为一个从事网络新闻和出版工作的人,我敏锐地意识到谷歌偏爱那些表现出专业知识、权威和信任的人造文章。此外,Facebook的母公司正在使用人工智能来帮助检测错误信息,而不是传播错误信息;有一种观点认为,Facebook自己的新闻算法讽刺地助长了这场大火,其中一个例子是,该平台如何被用来煽动缅甸的种族灭绝,算法加速了未经审核的有害反罗兴亚内容的传播。

越来越多的人加入私人在线社区和网站,通过订阅和会员资格来寻求资金,以换取专门为他们策划的内容,而不是依赖于吸引往往难以理解的搜索引擎。Discord和WhatsApp等私人在线平台也充当着社区的角色,在这些平台上,数据无法被收集,寻求参与的机器人尚未渗透。

所以,不,互联网并没有死。至少现在还没有。但我们必须接受,人类与越来越多的机器人和人工智能代理共享在线空间。随着信息在数字平台上的传播速度比以往任何时候都要快,我们要提醒大家:永远不要以为在屏幕另一边与你互动的实际上是一个人。