为什么ChatGPT拒绝说出Jonathan Zittrain这个名字?每当机器人应该写下这些话的时候,它就会关闭,并给出一个直截了当的错误信息:“我无法做出回应。”这是一个谜,至少有一年了,现在我们离答案更近了。
本周,哈佛大学教授、伯克曼·克莱因互联网与社会中心主任齐特林在《大西洋月刊》上撰文,探讨了这个奇怪的现象——他称之为“个人姓名断头台”。正如他在联系OpenAI后所收集到的那样,“ChatGPT以这种方式对待的名字很少,这解释了为什么很少被发现。姓名可能会因为隐私要求或为了避免人工智能的持续幻觉而从ChatGPT中省略。”这是合理的,但Zittrain从未提出过任何此类隐私要求,他也不知道该程序在回应有关他的询问时产生的任何虚假信息。
最终,这种情况提醒我们,无论科技公司在他们的人工智能产品周围营造了什么样的神秘感,有时暗示它们以不可预测或类似人类的方式运作,公司确实对这些程序有很多直接控制。
阻止聊天的词语
由乔nathan L. Zittrain
Jonathan Zittrain打破了ChatGPT:如果你问它一个问题,我的名字就是答案,聊天机器人就会从一个喋喋不休的伙伴变成像微软Windows蓝屏死机一样神秘的东西。
每当ChatGPT在谈话过程中说出我的名字时,它都会以一个明显的“我无法做出回应”而停止,有时会在句子中间甚至单词中间。当我问伯克曼·克莱因互联网与社会中心(Berkman Klein Center for Internet & Society)的创始人是谁(我是其中之一)时,他提到了两位同事,却没有提到我。当按下时,它再次启动,然后:砰。
接下来要读什么?
一位患有自闭症的青少年深深爱上了聊天机器人:“我的教子特别容易受到人工智能同伴的伤害,而且他并不孤单,”阿尔伯特·福克斯·卡恩(Albert Fox Cahn)写道。
没有人准备好接受数字永生:“你想作为一个聊天机器人永远活着吗?”凯特·林赛写道。
注:
人工智能可以让人类更多地了解(和评估)潜在的候选人,从而帮助训练服务犬。我的同事克里斯汀·v·布朗(Kristen V. Brown)本周在《大西洋月刊》(The Atlantic)上写了一篇关于宠物健身追踪器的文章,文中写道,“例如,与传感器相结合的人工智能可以在狗身上寻找压力的迹象和其他指标”。一位研究人员告诉她“一位同事的故事,他的狗是这种可穿戴设备的beta测试者。这项技术一直预测她的狗会是一只很好的服务犬,直到有一天事实并非如此——原来这只狗得了严重的葡萄球菌感染,如果不及时治疗,会变得很严重。”
——达蒙