一项新研究表明,人工智能生成的虚假信息可能比人类编写的虚假信息更容易让人相信。 研究发现,当人工智能和人类都发布了虚假推文时,人工智能被发现的几率比人类被发现的几率低 3%。 瑞士苏黎世大学的研究人员乔瓦尼·斯皮塔莱(Giovanni Spitale)表示,尽管两者的差距很小,但考虑到人工智能产生的虚假信息问题将显著增多,这种差距反映出来的问题令人担忧。他领导的这项研究发表在近日的 Science Advances 上。 他说:“人工智能生成的虚假信息不仅更便宜、更快,而且更有效,这将是一个噩梦。”他认为,如果该团队用 OpenAI 最新的大型语言模型 GPT-4 重复这项研究,考虑到 GPT-4 的强大程度,差距可能会更大。 (来源:STEPHANIE ARNETT/MITTR | ENVATO) 为了测试人们对不同类型文本的怀疑程度,研究人员选择了常见的虚假信息话题,包括气候变化和新冠。然后,他们要求 OpenAI 的大型语言模型 GPT-3 生成 10 条内容为真的推文和 10 条内容虚假的推文,并从推特上随机收集真假推文样本。 接下来,他们招募了 697 人来完成一项在线测试,以判断推文是由人工智能生成的,还是从推特上收集的,以及这些推文是准确的,还是包含虚假信息。他们发现,与人工智能杜撰的假推文相比,参与者相信人类编写的假推文的可能性要低 3%。 研究人员不确定为什么人们更容易相信人工智能写的推文,但很可能与 GPT-3 排列信息的方式有关。 他说:“与人类书写的文本相比,GPT-3 的文本往往更加结构化。但它也是精简的,所以更容易被接受。” 生成式人工智能的热潮将强大、易用的人工智能工具交到了每个人手中,也包括那些居心不良的人。像 GPT-3 这样的模型可以生成看似令人信服的虚假文本内容,这些文本可以用来快速而廉价地为阴谋论者和虚假信息活动生成虚假内容。解决这一问题的武器——人工智能文本检测工具——仍处于发展的早期阶段,许多工具并不完全准确。 OpenAI 意识到,它的人工智能工具可能会被武器化,用于制造大规模的虚假信息活动。尽管这些潜在的活动违反了它的政策,但它在 2023 年 1 月份发布的一份报告警告说,“几乎不可能确保大型语言模型永远不会被用来产生虚假信息。”OpenAI 没有立即回应置评请求。 然而,该公司也敦促在高估虚假信息活动的影响方面保持谨慎。OpenAI 报告的作者表示,需要进一步研究,以确定人工智能生成的不真实内容对哪些人群风险最大,以及人工智能模型大小与其输出的整体质量或说服力之间的关系。 剑桥大学心理学系研究错误信息的博士后研究员乔恩·鲁森贝克(Jon Roozenbeek)说,现在恐慌还为时过早。 他表示,尽管使用人工智能在网上传播虚假信息可能比人造虚假内容更容易、成本更低,但技术平台上的言论审核和自动检测系统仍然是其传播的障碍。 他补充道:“仅仅因为人工智能可以更容易地写出比某些人更有说服力的推文,并不一定意味着突然之间每个人都成了可以被虚假信息操纵的傀儡。” 支持:Ren |