
周四晚些时候,奥普拉·温弗瑞 (Oprah Winfrey) 播出了一档关于人工智能的特别节目,题为“人工智能与我们的未来”。嘉宾包括 OpenAI 首席执行官 Sam Altman、科技影响者 Marques Brownlee 和现任 FBI 局长 Christopher Wray。
主流观点是怀疑和谨慎。
奥普拉在准备好的发言中指出,人工智能精灵已经从瓶子里出来,无论是好是坏,人类都必须学会承担其后果。
“人工智能仍然超出我们的控制范围,在很大程度上……超出我们的理解范围,”她说。“但它已经存在,我们将与既是我们的盟友又是对手的技术共存。……我们是这个星球上适应能力最强的生物。我们会再次适应。但要关注现实。风险再高不过了。”
萨姆·奥特曼承诺过多
奥尔特曼是奥普拉当晚接受的第一位采访者,他提出了一个值得质疑的观点:当今的人工智能是通过训练数据来学习概念的。
“我们向系统展示一千个单词的序列,并要求它预测接下来的内容,”他告诉奥普拉。“系统学会了预测,然后学习了底层概念。”
但许多专家并不同意。
OpenAI 于周四推出的ChatGPT 和 o1 等人工智能系统确实可以预测句子中最有可能出现的下一个单词。但它们只是统计机器——它们学习数据模式。它们没有意图;它们只是做出有根据的猜测。
虽然奥特曼可能夸大了当今人工智能系统的能力,但他强调了如何对这些系统进行安全测试的重要性。
“我们需要做的第一件事之一——现在正在发生——就是让政府开始研究如何对这些系统进行安全测试,就像我们对飞机或新药所做的那样,”他说。“我个人可能每隔几天就会和政府里的某个人交谈一次。”
Altman 推动监管可能是出于自身利益。OpenAI 反对加州人工智能安全法案 SB 1047,称该法案将“扼杀创新”。然而,OpenAI 前员工和 Geoffrey Hinton 等人工智能专家都支持该法案,认为该法案将对人工智能发展施加必要的保障措施。
奥普拉还质问阿尔特曼,他作为 OpenAI 的头目扮演的角色。她问人们为什么要相信他,而阿尔特曼基本上回避了这个问题,说他的公司正在努力随着时间的推移建立信任。
此前,奥尔特曼就曾直接表示,人们不应该相信他或者任何一个人,以确保人工智能能够造福世界。
OpenAI 首席执行官后来表示,听到奥普拉问他是否是“世界上最有权势和最危险的人”(正如新闻标题所暗示的那样)感觉很奇怪。他不同意这种说法,但表示他感到有责任推动人工智能朝着对人类有利的方向发展。
奥普拉谈 Deepfat
正如在一场关于人工智能的特别节目中必然会发生的那样,深度伪造的话题被提了出来。
为了证明合成媒体的可信度,布朗利将 OpenAI 的人工智能视频生成器 Sora 的样本片段与几个月前人工智能系统生成的片段进行了比较。Sora 样本遥遥领先——这表明该领域的进步非常迅速。
“现在,你仍然可以从片段中看出一些不对劲的地方,”布朗利在谈及索拉的镜头时说道。奥普拉说,她觉得这些镜头很真实。
深度伪造展示会引出了对 Wray 的采访,Wray 回忆了他第一次熟悉 AI 深度伪造技术的那一刻。
“当时我在一间会议室里,一群 [FBI] 人员聚在一起向我展示如何制作人工智能增强的深度伪造视频,”雷说。“他们制作了一段视频,视频中我说了一些我从未说过、也永远不会说的话。”
Wray 谈到了人工智能辅助性勒索日益盛行的情况。据网络安全公司 ESET 称,2022 年至 2023 年间,性勒索案件增加了 178%,部分原因是人工智能技术。
“有人冒充同龄人瞄准青少年,”Wray 说,“然后使用 [AI 生成的] 有损形象的图片说服孩子发送真实照片作为回报。事实上,这是一个尼日利亚的键盘手,一旦他们拿到这些照片,他们就会威胁要勒索孩子,并说,如果你不付钱,我们就会分享这些会毁了你一生的照片。”
雷还谈到了有关即将到来的美国总统大选的虚假信息。虽然他坚称“现在还不是恐慌的时候”,但他强调“美国每个人”都有责任“加强对人工智能使用的关注和谨慎”,并牢记人工智能“可能被坏人用来对付我们所有人”。
雷说:“我们经常发现,社交媒体上那些看起来像来自托皮卡的比尔或来自代顿的玛丽的人,实际上是北京或莫斯科郊区的俄罗斯或中国情报人员。”
事实上,Statista 的一项民意调查发现,截至 2023 年底,超过三分之一的美国受访者在关键话题上看到了误导性信息(或他们怀疑是误导性信息)。今年,人工智能生成的候选人副总统卡马拉·哈里斯和前总统唐纳德·特朗普的误导性图像在包括 X 在内的社交网络上获得了数百万的浏览量。
比尔·盖茨谈人工智能颠覆
为了改变对技术的乐观态度,奥普拉采访了微软创始人比尔·盖茨,他表示希望人工智能能够为教育和医学领域提供强大动力。
盖茨说:“人工智能就像是坐在医疗预约现场的第三人,记录诊断结果,并提出处方建议。因此,医生不再面对电脑屏幕,而是与你互动,软件确保诊断结果准确无误。”
然而,盖茨忽略了糟糕的人工智能训练可能带来的偏见。
最近的一项 研究表明,领先科技公司的语音识别系统错误转录黑人说话者的音频的概率是白人说话者的两倍。其他研究表明,人工智能系统强化了人们长期以来的错误观念,即黑人和白人之间存在生物学差异——这种错误观念导致临床医生误诊健康问题。
盖茨说,在课堂上,人工智能可以“随时待命”并且“懂得如何激励你……无论你的知识水平如何”。
但实际上许多教室里的情况并非如此。
去年夏天,学校和学院 因担心抄袭和虚假信息而迅速 禁止使用 ChatGPT。此后,一些学校撤销了 禁令 。但并非所有人都相信生成式人工智能具有良好的潜力, 英国安全互联网中心等调查 发现,超过一半的孩子报告称曾看到同龄人以负面方式使用 GenAI — — 例如,创建可信的虚假信息或用来惹恼他人的图像。
联合国教育、科学及文化组织 (UNESCO) 去年底 呼吁 各国政府规范 GenAI 在教育领域的使用,包括对用户实施年龄限制以及对数据保护和用户隐私设置限制。
