2025-03-18 10:11来源:本站编辑
周二晚上,一段视频在网上疯传,视频中似乎是一群犹太名人在撸叶,叶的原名是坎耶·韦斯特。
本周,这位说唱歌手通过在自己的网站上兜售印有纳粹标志的t恤,加大了反犹太主义的力度,而这段黑白视频据称是在描绘明星们最终的反击。
在这段视频中,我们看到有犹太血统的艺人(杰瑞·宋飞、德雷克、斯嘉丽·约翰逊,以及拥抱在一起的西蒙和加芬克尔)和科技公司的首席执行官(马克·扎克伯格、OpenAI的山姆·奥特曼)穿着一件白色t恤,一只手上画着大卫之星,竖起中指。手下面写着“Kanye”。
这段视频以犹太民歌《Hava Nagila》为背景,结尾是亚当·桑德勒(Adam Sandler)把真正的鸟送给叶,并呼吁“加入反对反犹主义的斗争”。
这里我们用了引号,因为这不是真正的亚当·桑德勒。该视频是用人工智能制作的,没有一个名人允许使用他们的肖像。
包括《草原小屋》演员、前美国演员工会主席梅丽莎·吉尔伯特在内的许多网友都分享了这张深度假照。在她19小时后删除之前,吉尔伯特在线程上的帖子有超过8000个“喜欢”,1800次转发和2400次分享。
当有人指出这是赝品时,其他人表示震惊。“你怎么知道这是人工智能?”一位女士问道。“衬衫的面料会移动,阴影是否正确?”我不知道该怎么说。”
周三,约翰逊在《人物》杂志上发表了一份声明,敦促立法者在视频发布后遏制人工智能的广泛使用。(这位漫威明星之前也曾对人工智能提出过异议。)
“我是一名犹太女性,不能容忍任何形式的反犹主义或仇恨言论,”约翰逊在声明中说。“但我也坚信,人工智能放大仇恨言论的可能性,比任何一个为此负责的人都要大得多。不管人工智能传递的信息是什么,我们都必须对其滥用进行谴责,否则我们就有可能失去对现实的把握。”
为什么这段视频被如此广泛和迅速地分享?研究人工智能和网络错误和虚假信息传播的专家表示,这段视频的质量高于我们习惯看到的更明显的人工智能垃圾。
弗吉尼亚理工大学图书馆(University Libraries at Virginia Tech)数字扫盲项目负责人、副教授朱莉娅·费拉尔(Julia Feerrar)说:“视频的许多特点,比如灰度、快速剪切和空白背景,让我们很难发现我们期望从生成式人工智能中看到的那些迹象。”
不过,如果你一帧一帧地浏览视频片段,Feerar说还是有一些迹象的。例如,在00:28分左右,假莱尼·克拉维茨的手指合二为一了。(众所周知,人工智能在绘制手指和手方面表现不佳;例如,它会产生两只多手指的手,或者从手掌中央伸出的手指。)
然而,很少有人(如果有的话)在“点赞”之前花时间把视频定格。
费拉尔说:“如果没有花很多时间积极寻找,我永远不会注意到这一点。”
一些背景细节让这个假故事更可信:许多名人都对过去几年反犹主义的抬头直言不讳。名人往往会像正义联盟一样联合起来,对新闻中的任何事情做出集体回应——想想盖尔·加朵在2020年制作的“名人唱《想象》对抗新冠肺炎”的视频吧。
像吉尔伯特这样的好莱坞内幕人士分享了这段视频,这只会增加它的可信度。
伊隆大学(Elon University)新闻学副教授、“UnSpun”播客的主持人阿曼达·斯特吉尔(Amanda Sturgill)也认为,这个视频总体上做得很好。“UnSpun”播客的内容包括批判性思维和媒体素养。
但它也留下了印记,因为它是一段人们天生想“喜欢”的内容。你很难找到一个对叶的看法与2009年巴拉克·奥巴马总统不同的人:这位芝加哥说唱歌手是一个“混蛋”,奥巴马当时说漏了嘴,而这一切都发生在叶的极右翼和反犹倾向被揭露之前。
然后是视频声称要解决的更广泛的问题。美国犹太人委员会去年发布的一项研究发现,接受调查的93%的犹太人和74%的美国成年人认为反犹主义是一个“非常严重的问题”或“有些严重的问题”。
斯特吉尔告诉《赫芬顿邮报》:“我认为所有的‘赞’都表明,这对观众来说是一个非常情绪化的问题。”“这是一种人们愿意相信是真实存在的东西,它有一种削弱人们通常的恶作剧检测能力的方式。”
然而,数字素养是一个范围;我们中的一些人比其他人更善于辨别假货,我们不能假设每个“喜欢”和“分享”都是有人被骗的证据。
“我敢打赌,他们中的一部分人看到了某种关于反犹太主义的内容,并支持了它,不管它是真的还是假的,”北卡罗来纳州埃隆大学(Elon University)想象数字未来中心(imagine the Digital Future Center)主任李·雷尼(Lee Rainie)说。
他在接受《赫芬顿邮报》采访时表示:“像这样的视频既是一个媒体素养问题,也是一个社会和政治事件。”
尽管如此,Rainie认为这段视频的传播和反应是一个完美的例子,说明在人工智能时代,需要全面提高数字素养。
在他去年春天大选前进行的一项调查中,45%的美国成年人表示,他们不相信自己能检测出假照片,而且这种情况跨越了年龄组、性别和政治路线。正如这段广为传播的视频所显示的,更多的人应该提高警惕。
“新兴的数字工具在伪造图像、音频文件和视频方面做得越来越好,任何媒体消费者的默认设置都需要是:小心、怀疑、再怀疑,”Raine说。
菲拉尔建议依靠上下文线索,而不是暂停视频以寻找假货的迹象。
她说:“当你看到应该表现真实人物或地方的内容时,一个有用的步骤是从其他来源找出这些人物和地方的实际样子。”
例如,在观看的过程中,Feerar注意到,很多被描绘的名人看起来更像他们年轻时的自己:“我已经有了这种背景知识,但我通过快速搜索我认识的名人的近照来验证了这个想法,”她说。
Rainie说,随着这些视频和图像变得越来越复杂,进行纸上谈兵的人工智能揭穿——并指出更令人不安的深度造假例子,以遏制传播——将变得越来越重要。
他说:“深度造假的长期后果在于,它们最终可能会破坏人与人之间以及媒体环境中的基本信任。”“我们都需要相互依赖,以传达真相和准确的信息。”