人工智能模型识别深度伪造图像,人类在识别虚假视频方面更胜一筹

一项新研究表明,人工智能模型在识别伪造图像(深度伪造)方面比人类更胜一筹。然而,在处理深度伪造视频时,人类观察者仍具有明显优势。研究结果强调了人类与机器之间合作应对合成媒体日益增长的威胁的紧迫需求。

124 次查看 1 分钟阅读
1.0×

美国 - 艾赫巴里通讯社

人工智能模型识别深度伪造图像,人类在识别虚假视频方面更胜一筹

在一个日益充斥着复杂数字操纵的时代,“深度伪造”(即人工智能生成的合成媒体)的泛滥,给区分真实与虚构带来了严峻挑战。这些先进技术能够创建极具欺骗性的逼真图像、音频和视频,已被武器化用于金融欺诈、干预选举和损害声誉。随着深度伪造技术的日益复杂,研究人员正在积极探索其最有效的检测方法。一项近期的对比研究旨在确定人工智能系统或人类观察者在识别这些数字伪造品方面是否更胜一筹。

发表在《认知研究:原则与启示》(*Cognitive Research: Principles and Implications*)杂志上的这项研究,得出了一个令人惊讶但至关重要的见解:虽然人工智能算法在识别伪造图像方面表现出卓越的性能,但在分析伪造视频时,人类却拥有独特的优势。这种差异凸显了在有效应对合成内容的普遍威胁方面,人类智能与机器能力之间进行协同合作的迫切需求。

由心理学家娜塔莉·埃布纳(Natalie Ebner)领导的研究团队设计了实验,以评估人类和机器学习算法的检测能力。在第一阶段,约有2200名人类参与者和两个不同的机器学习算法被赋予了任务,要求他们在1(伪)到10(真)的量表上对200张人脸图像的真实性进行评分。结果清楚地表明了性能上的差异。人类参与者识别深度伪造图像的准确率不比随机猜测高多少,大约在50%左右。与之形成鲜明对比的是,人工智能系统表现出了显著更高的熟练度。一个算法的准确率约为97%,而另一个算法的平均准确率为79%,这表明人工智能在静态图像检测方面占据明显优势。

然而,研究在第二阶段出现了令人惊讶的转折,该阶段侧重于视频内容。约有1900名人类参与者观看了70个短视频片段,其中包含讨论各种主题的人物。他们的任务是评估这些视频中人物面孔的真实性。在这种情况下,人类的表现超越了人工智能算法。人类参与者平均以63%的准确率正确识别了视频内容的真实性或伪造性,而算法的表现则与随机水平相当,在区分真实和合成视频片段方面遇到了困难。

图像和视频检测之间这种性能上的差异,可能归因于深度伪造的创建和感知方式的内在差异。虽然静态的深度伪造图像可能依赖于人眼难以检测到的细微像素级操纵,但合成视频通常涉及复杂的时态动态、微妙的微表情和视听同步挑战。拥有对背景、社交线索和细微感知能力的深刻理解的人类观察者,可能更能识别动态视觉媒体中的这些不一致之处。我们处理叙事、情感潜文本和细微行为异常的内在能力,可能在这项卓越的视频分析能力中发挥着至关重要的作用。

埃布纳博士详细介绍了正在进行的研究,强调了团队致力于揭示人类和人工智能的决策过程。“我们想了解机器在某些条件下比人类表现更好的原因,以及这与人类的推理方式有何不同,”她说。“我们正在研究大脑中哪些信号被处理,使得人类能够意识到并捕捉到某些线索。”当前的研究不仅旨在将内容标记为“真实”或“虚假”,而且还深入探讨了人类和人工智能做出这些判断的根本原因。

对人类和人工智能认知过程的这种更深入的理解,对于制定有效的协作策略至关重要。在一个可能被复杂合成媒体主导的未来,人工智能的快速数据处理和模式识别能力,加上人类的直觉、情境理解和批判性判断,将是不可或缺的。人工智能可以作为强大的第一道防线,过滤海量内容,而人类则可以提供细致的最终评估,特别是在需要深刻情境意识或处理敏感伦理和社会问题的案件中。这种混合方法有望为应对不断变化的数字欺骗格局提供更强大的防御。

深度伪造带来的挑战是多方面的,需要创新和适应性的解决方案。随着技术的不断发展,检测操纵的工具和方法也必须随之发展。这项研究有力地表明,与深度伪造作斗争的最佳策略既不依赖于机器,也不依赖于人类,而在于促进一个强大、协作和整合的生态系统。通过协调人工智能的分析能力与人类的感知和批判能力,我们可以努力创造一个更安全、更值得信赖、基于现实的信息环境。

分享:

相关新闻

尚未阅读