首页 > 资讯 > 综合 > 正文
2023-08-08 16:22

AI镇压即将到来

今年4月,阿维安卡航空公司的律师注意到了一些奇怪的事情。乘客罗伯特·马塔(Robert Mata)曾起诉该航空公司,称一架飞机上的一辆服务车撞到了他的左膝,并使他严重受伤,但马塔诉讼中提到的几起案件似乎并不存在。法官也无法证实他们的说法。事实证明,这一切都是ChatGPT编造的,他们编造了名字和决定。马塔的律师之一史蒂文·a·施瓦茨(Steven A. Schwartz)曾将聊天机器人用作助手——这是他第一次使用该程序进行法律研究——正如施瓦茨在一份宣誓书中所写的那样,他“没有意识到其内容可能是虚假的”。

这一事件只是生成式人工智能传播虚假信息的众多例子之一,更不用说金融诈骗、未经同意的色情内容等等。科技公司正在营销他们的人工智能产品,并可能获得巨额利润,而这些产品在现实世界可能造成的损害几乎没有问责制或法律监督。联邦政府现在正试图迎头赶上。

上个月末,拜登政府宣布,处于人工智能开发前沿的七家科技公司已经同意了一系列自愿承诺,以确保他们的产品“安全、可靠和值得信赖”。在做出这些承诺之前,白宫举行了一系列关于人工智能的峰会,国会就监管这项技术发表了证词,各政府机构也宣布他们正在认真对待人工智能。在声明中,OpenAI、微软、谷歌、meta和其他公司承诺将对其产品进行第三方测试,投资减少偏见,并对其人工智能系统的能力和局限性更加透明。

该语言很有希望,但也只是一个承诺,缺乏执行机制和下一步的细节。监管人工智能需要一个笨拙的官僚机构来对付出了名的秘密公司和快速发展的技术。拜登政府的语言在很大程度上模仿了科技界知名人士的公关说辞,即他们的产品具有终结世界的能力,比如生物武器和“自我复制”的机器。政府的行动对于保护人们的生命和生计至关重要——不仅仅是来自邪恶的超级智能机器的长期威胁,还有日常威胁。生成式人工智能已经显示出严重的偏见和滥用的可能性。十多年来,在诊断软件和面部识别工具中,不那么先进、但同样不透明且往往带有歧视性的算法被用于筛选个体和确定信用评分。

我与许多专家进行了交谈,并在离开时列出了政府监管人工智能的五种最有效的方式,以保护国家免受技术日常风险以及更具假设性的世界末日危险的影响。

1. 不要相信人工智能公司的话。

一种宣传用于化疗的药物必须在临床试验中证明对癌症患者有益,比如通过缩小肿瘤,然后获得FDA的批准。然后,制造商必须披露患者可能经历的副作用。但人工智能产品不存在这样的问责制。AI Now Institute董事总经理、美国联邦贸易委员会前人工智能高级顾问萨拉•迈尔斯•韦斯特对我说:“公司声称人工智能能够做X或Y的事情,但后来却没有证明它们可以。”许多科技公司因歪曲其算法的偏见或有效性,或几乎没有提供评估它们的证据而受到批评。

民主与技术中心(Center for Democracy and Technology)主席亚历山德拉·吉文斯(Alexandra Givens)告诉我,强制要求人工智能工具接受第三方测试,以确保它们符合偏见、准确性和可解释性等公认的指标,“这是非常重要的第一步”。民主与技术中心是一家倡导互联网隐私和人权的非营利组织,从科技行业获得了一些资金。公司可能会被迫披露他们的程序是如何训练的,软件的局限性,以及他们是如何减轻潜在危害的。“现在,信息不对称非常严重,”她说,科技公司往往很少透露他们如何培训和验证他们的软件。审计可能包括测试计算机视觉程序错误识别黑人和白人面孔的频率,或者聊天机器人是否将某些工作与刻板的性别角色联系起来(ChatGPT曾表示,律师不能怀孕,因为律师必须是男性)。

与我交谈过的所有专家都认为,科技公司本身不应该宣称自己的产品是安全的。罗格斯大学(Rutgers)法学教授艾伦·古德曼(Ellen Goodman)告诉我,否则就会有“审计清洗”(audit washing)的巨大风险,即一种危险产品通过毫无意义的批准印章获得合法性。尽管目前有许多建议呼吁事后审计,但也有人呼吁更早开始进行安全评估。加州大学洛杉矶分校(UCLA)的互联网研究学者萨菲亚·诺布尔(Safiya Noble)告诉我,人工智能潜在的高风险应用意味着,这些公司应该“在向市场投放产品之前,必须证明他们的产品无害”。

明确的基准和许可证也至关重要:如果政府标准被淡化,就不会有效,而一大堆安全标签会让人混淆到难以辨认的程度,就像自由放养、散养和牧场饲养的鸡蛋之间的区别一样。

2. 我们不需要人工智能部门。

建立对人工智能系统的基本评估和披露并不需要一个新的政府机构,尽管这是一些科技高管所呼吁的。现有法律适用于人工智能的许多用途:治疗机器人、自动金融助理、承诺提供真实答案的搜索引擎。反过来,相关的联邦机构拥有执行这些法律的专业知识;例如,FDA可能必须像医疗设备一样评估和批准治疗机器人。吉文斯说:“在指定一个将做所有事情的中央人工智能机构时,你失去了算法评估最重要的方面,即部署它的背景是什么,以及对特定社区的影响是什么?”

一个新的人工智能部门可能会面临监管捕获的风险,主要的人工智能公司会为该机构配备人员、提供咨询和游说。相反,专家们告诉我,他们希望看到现有机构获得更多资金,以雇佣员工和发展人工智能方面的专业知识,这可能需要国会采取行动。分布式人工智能研究所(Distributed AI research Institute)的研究主管亚历克斯·汉纳(Alex Hanna)告诉我:“如果你为现有的执法机构提供更多资源,他们可能会有一种非常积极的方式来做到这一点。”

3.白宫可以以身作则。

监管人工智能的深远立法可能需要数年时间,并面临科技公司在法庭上的挑战。另一种可能更快的方法是让联邦政府在其使用的人工智能模型、支持的研究和支付的资金方面以身作则。例如,今年早些时候,一个联邦特别工作组建议政府投入26亿美元资助人工智能研发。任何希望获得这些资源的公司都必须满足一系列标准,这可能会导致整个行业的采用——有点类似于《通货膨胀削减法案》中鼓励绿色能源的税收激励和补贴。

政府本身也是人工智能的主要购买者和用户,可以要求其供应商接受审计并发布透明度报告。吉文斯告诉我:“拜登政府能做的最重要的事情就是制定一项具有约束力的行政政策,即只有在人工智能经过有意义的安全性、有效性、非歧视和保护人们隐私的测试后,才能购买、开发和使用人工智能。”

4. 人工智能需要一个防篡改的封条。

人工智能系统可以在几秒钟内生成图像、视频和音频片段等深度伪造和其他合成媒体已经传播了错误信息,并被用于未经同意的色情作品中。上个月的自愿承诺包括开发一个水印,告诉用户他们正在与人工智能生成的内容进行交互,但语言含糊不清,未来的道路也不明朗。许多现有的水印方法,如dall - e2生成的任何图像底部的彩虹像素块,都很容易操作或删除。一种更可靠的方法包括记录一段媒体是在何时何地被创造出来的——就像相机的数码图章一样——以及它所经历的每一次编辑。包括Adobe、微软和索尼在内的公司已经在努力实现这样一种标准,尽管这种方法对公众来说可能很难理解。

人权组织Witness的执行董事萨姆·格雷戈里(Sam Gregory)告诉我,政府对人工智能生成内容的标签标准需要在整个人工智能供应链中得到执行,从文本到图像模型的制造商到应用程序和网络浏览器的开发商。我们需要防篡改封条,而不是贴纸。

古德曼告诉我,为了鼓励采用一种标准的方式来标识人工智能内容,政府可以强制要求网络浏览器、电脑和其他设备识别这个标签。这样的命令将类似于联邦政府的要求,即新电视要包含一个被称为“V-chip”的部件,该部件可以识别电视行业设定的成熟度评级,家长可以用它来屏蔽节目。

5. 想办法让人们保护自己的工作不受人工智能的影响。

目前有多起备受瞩目的诉讼指控人工智能模型(如ChatGPT和图像生成器Midjourney)窃取作家和艺术家的作品。知识产权已经成为关于生成式人工智能争论的核心,其中涉及两种常见的版权侵权类型:图像、文本和模型训练的其他数据,以及它们输出的图像和文本。

范德比尔特大学(Vanderbilt)的法学教授丹尼尔·热维斯(Daniel Gervais)告诉我,在输入方面,关于生成人工智能模型违反版权法的指控可能会在法庭上失败。复制图像、文章、视频和其他在线媒体来开发训练数据集可能属于“合理使用”,因为在这些材料上训练人工智能模型会有意义地对其进行转换。证明输出端侵犯版权的标准也可能带来困难,因为证明人工智能输出与特定的版权作品相似——不仅是Kehinde Wiley的风格,而且是他的一幅画的逼真图像——是一个很高的法律门槛。

Gervais认为,在任何法律标准出台之前,版权所有者和人工智能开发者之间的市场谈判协议将会达成。例如,在欧盟,艺术家和作家可以选择不让他们的作品用于训练人工智能,这可能会刺激达成一项符合艺术家和硅谷双方利益的交易。“出版商认为这是一个收入来源,科技公司在他们的技术上投入了大量资金,”Gervais说。另一个可能的选择是一个更严格的选择加入标准,这将要求任何拥有版权材料的人为他们的数据被使用提供明确的许可。Gervais说,在美国,选择退出可能是不必要的。一项旨在保护互联网版权的法律规定,删除文件的“版权管理信息”(如作品创作者和出版日期的标签)是非法的,许多观察人士声称,为训练生成式人工智能而创建数据集违反了该法律。删除此类信息的罚款可能高达每件作品数万美元,对其他侵犯版权的罚款甚至更高——这种财务风险,乘以一个数据集中可能存在的数百万起侵权行为,可能对公司来说太大了。


这些政策即使有,也很少得到保证。他们面临着许多实际的、政治的和法律的障碍,其中最重要的是硅谷强大的游说机构。仅凭这些法规也不足以阻止这项技术对美国人产生负面影响的所有方式。人工智能充斥着侵犯隐私、垄断商业行为和对员工的恶劣待遇,这些问题多年来一直困扰着科技行业。

但某种监管即将出台:拜登政府表示,它正在制定两党立法,并承诺在夏季结束前为联邦机构负责任地使用人工智能提供指导;许多议案待国会审议。在此之前,科技公司可能会继续推出未经测试的新产品,而不管在这个过程中谁或什么东西会被压垮。