Модели ИИ обнаруживают дипфейк-изображения, но люди лучше распознают поддельные видео

Новое исследование показывает, что модели искусственного интеллекта значительно превосходят людей в выявлении поддельных изображений (дипфейков). Однако, когда дело доходит до дипфейк-видео, люди-наблюдатели сохраняют явное преимущество. Результаты подчеркивают острую необходимость совместного подхода людей и машин для эффективного противодействия растущей угрозе синтетических медиа.

119 просмотров 1 мин чтения
1.0×

США - Информационное агентство Эхбари

Модели ИИ обнаруживают дипфейк-изображения, но люди лучше распознают поддельные видео

В эпоху, все более насыщенную сложными цифровыми манипуляциями, распространение "дипфейков" — синтетических медиа, созданных с помощью ИИ — представляет собой серьезную проблему для различения правды от вымысла. Эти передовые технологии, способные создавать убедительные поддельные изображения, аудио и видео, уже использовались для мошенничества, вмешательства в выборы и нанесения ущерба репутации. По мере роста изощренности дипфейков исследователи активно изучают наиболее эффективные методы их обнаружения. Недавнее сравнительное исследование было направлено на то, чтобы определить, превосходят ли системы искусственного интеллекта или наблюдатели-люди в выявлении этих цифровых подделок.

Результаты исследования, опубликованные в журнале *Cognitive Research: Principles and Implications*, принесли неожиданное, но крайне важное открытие: в то время как алгоритмы ИИ демонстрируют превосходную производительность в обнаружении поддельных изображений, люди обладают явным преимуществом при анализе смонтированных видео. Эта дихотомия подчеркивает острую необходимость синергетического сотрудничества между человеческим интеллектом и возможностями машин для эффективного противодействия повсеместной угрозе синтетического контента.

Исследовательская группа под руководством психолога Натали Эбнер разработала эксперименты для оценки возможностей как людей, так и алгоритмов машинного обучения по обнаружению дипфейков. На первом этапе около 2 200 участников-людей и два различных алгоритма машинного обучения должны были оценить подлинность 200 изображений лиц по шкале от 1 (подделка) до 10 (реальное). Результаты ясно показали разницу в производительности. Участники-люди выявляли дипфейк-изображения не лучше, чем случайное угадывание, точность составляла около 50%. В явном контрасте, системы ИИ продемонстрировали значительно более высокую эффективность. Один алгоритм достиг точности около 97%, в то время как другой показал среднюю точность 79%, демонстрируя явное превосходство ИИ в обнаружении статических изображений.

Однако исследование приняло неожиданный оборот во втором этапе, который был посвящен видеоконтенту. Около 1 900 участников-людей просмотрели 70 коротких видеороликов с людьми, обсуждающими различные темы. Их задачей было оценить реалистичность лиц, изображенных в этих видео. В этом сценарии люди превзошли алгоритмы ИИ. Участники-люди правильно определили подлинность или подделку видеоконтента со средней точностью 63%, в то время как алгоритмы показали результаты, сравнимые со случайным угадыванием, с трудом различая реальные и синтетические видеоматериалы.

Такое расхождение в производительности при обнаружении изображений и видео может быть связано с присущими различиями в том, как создаются и воспринимаются дипфейки. В то время как статические дипфейк-изображения могут полагаться на тонкие манипуляции на уровне пикселей, которые трудно обнаружить человеческому глазу, синтетические видео часто включают сложные временные динамики, тонкие микровыражения и проблемы синхронизации аудио и видео. Люди-наблюдатели, обладающие глубоким пониманием контекста, социальных сигналов и тонкими перцептивными способностями, могут быть лучше оснащены для выявления этих несоответствий в динамических визуальных медиа. Наша врожденная способность обрабатывать повествование, эмоциональный подтекст и тонкие поведенческие аномалии, вероятно, играет решающую роль в этой превосходной способности анализа видео.

Доктор Эбнер подробно рассказала о текущих исследованиях, подчеркнув стремление команды раскрыть процессы принятия решений как у людей, так и у ИИ. «Мы хотим понять, что использует машина, чтобы быть настолько лучше в определенных условиях, чем человек, и как это отличается от того, как рассуждает человек», — сказала она. «Мы изучаем, какие сигналы обрабатываются в мозге, которые позволяют людям осознавать и улавливать определенные сигналы». Текущее исследование направлено не просто на классификацию контента как «реального» или «фальшивого», а на углубление понимания «почему» этих суждений как для биологического, так и для искусственного интеллекта.

Это более глубокое понимание когнитивных процессов человека и ИИ имеет жизненно важное значение для разработки эффективных стратегий сотрудничества. В будущем, которое потенциально может быть доминировано сложными синтетическими медиа, будут незаменимы объединенные сильные стороны ИИ в быстрой обработке данных и распознавании образов, в сочетании с человеческой интуицией, пониманием контекста и критическим суждением. ИИ может служить мощной первой линией обороны, фильтруя огромные объемы контента, в то время как люди могут обеспечить окончательную тонкую оценку, особенно в случаях, требующих глубокого понимания контекста или решения чувствительных этических и социальных вопросов. Такой гибридный подход обещает более надежную защиту от развивающегося ландшафта цифрового обмана.

Проблема дипфейков является многогранной и требует инновационных и адаптивных решений. По мере неуклонного развития технологий развиваются и инструменты для их обнаружения. Данное исследование убедительно свидетельствует о том, что оптимальная стратегия борьбы с дипфейками заключается не в исключительном использовании машин или людей, а в развитии надежной экосистемы сотрудничества и интеграции. Гармонизируя аналитическую мощь ИИ с перцептивными и критическими способностями людей, мы можем стремиться к более безопасному и заслуживающему доверия информационному пространству, основанному на реальности.

Поделиться:

Похожие новости

Ещё не читали