مدل‌های هوش مصنوعی تصاویر دیپ‌فیک را تشخیص می‌دهند، اما انسان‌ها در تشخیص ویدیوهای جعلی برتری دارند

یک تحقیق جدید نشان می‌دهد که مدل‌های هوش مصنوعی در شناسایی تصاویر جعلی (دیپ‌فیک) بسیار ماهرتر از انسان‌ها هستند. با این حال، هنگامی که صحبت از ویدیوهای دیپ‌فیک می‌شود، ناظران انسانی همچنان برتری قابل توجهی دارند. این یافته‌ها نیاز حیاتی به یک رویکرد مشارکتی بین انسان‌ها و ماشین‌ها برای مقابله مؤثر با تهدید فزاینده رسانه‌های مصنوعی را برجسته می‌کند.

80 بازدید 1 دقیقه مطالعه
1.0×

ایالات متحده - خبرگزاری اخباری

مدل‌های هوش مصنوعی تصاویر دیپ‌فیک را تشخیص می‌دهند، اما انسان‌ها در تشخیص ویدیوهای جعلی برتری دارند

در عصری که به طور فزاینده‌ای مملو از دستکاری‌های دیجیتال پیچیده است، گسترش "دیپ‌فیک‌ها" - رسانه‌های مصنوعی تولید شده توسط هوش مصنوعی - چالشی قابل توجه برای تمایز حقیقت از خیال ایجاد می‌کند. این فناوری‌های پیشرفته، قادر به ایجاد تصاویر، صداها و ویدیوهای بسیار متقاعدکننده جعلی، در حال حاضر برای کلاهبرداری مالی، دخالت در انتخابات و آسیب رساندن به اعتبار مورد استفاده قرار گرفته‌اند. با افزایش پیچیدگی دیپ‌فیک‌ها، محققان به طور فعال در حال بررسی مؤثرترین روش‌ها برای شناسایی آن‌ها هستند. یک مطالعه مقایسه‌ای اخیر تلاش کرده است تا تعیین کند آیا سیستم‌های هوش مصنوعی یا ناظران انسانی در شناسایی این جعل‌های دیجیتال برتری دارند.

نتایج این مطالعه که در مجله *Cognitive Research: Principles and Implications* منتشر شده است، بینش شگفت‌انگیز اما مهمی را آشکار کرده است: در حالی که الگوریتم‌های هوش مصنوعی در تشخیص تصاویر جعلی عملکرد برتری از خود نشان می‌دهند، انسان‌ها هنگام تجزیه و تحلیل ویدیوهای جعلی، برتری مشخصی دارند. این دوگانگی نیاز فوری به همکاری هم‌افزا بین هوش انسانی و قابلیت‌های ماشین را برای مقابله مؤثر با تهدید فراگیر محتوای مصنوعی برجسته می‌کند.

تیم تحقیقاتی به رهبری ناتالی ابرنر، روانشناس، آزمایش‌هایی را برای ارزیابی قابلیت‌های تشخیص هم انسان‌ها و هم الگوریتم‌های یادگیری ماشین طراحی کرده است. در مرحله اول، حدود ۲۲۰۰ شرکت‌کننده انسانی و دو الگوریتم مختلف یادگیری ماشین، وظیفه ارزیابی اصالت ۲۰۰ تصویر چهره را در مقیاسی از ۱ (جعلی) تا ۱۰ (واقعی) بر عهده داشتند. نتایج به وضوح نشان‌دهنده تفاوت در عملکرد بود. شرکت‌کنندگان انسانی تصاویر دیپ‌فیک را با نرخی بهتر از حدس تصادفی، حدود ۵۰% دقت، شناسایی کردند. در مقابل، سیستم‌های هوش مصنوعی مهارت قابل توجهی بیشتری از خود نشان دادند. یک الگوریتم به نرخ دقت حدود ۹۷% دست یافت، در حالی که دیگری به طور متوسط ۷۹% دقت کسب کرد، که نشان‌دهنده تسلط واضح هوش مصنوعی در تشخیص تصاویر ثابت است.

با این حال، تحقیق در مرحله دوم، که بر محتوای ویدیو متمرکز بود، یک چرخش شگفت‌انگیز داشت. حدود ۱۹۰۰ شرکت‌کننده انسانی ۷۰ کلیپ ویدیویی کوتاه از افرادی که موضوعات مختلفی را مورد بحث قرار می‌دادند، تماشا کردند. وظیفه آن‌ها ارزیابی واقع‌گرایی چهره‌های نمایش داده شده در این ویدیوها بود. در این سناریو، انسان‌ها از الگوریتم‌های هوش مصنوعی پیشی گرفتند. شرکت‌کنندگان انسانی به طور متوسط با ۶۳% دقت، اصالت یا جعلی بودن محتوای ویدیو را به درستی شناسایی کردند، در حالی که الگوریتم‌ها در سطحی قابل مقایسه با حدس تصادفی عمل کردند و در تمایز بین فیلم‌های ویدیویی واقعی و مصنوعی با مشکل مواجه شدند.

این واگرایی عملکرد بین تشخیص تصویر و ویدیو را می‌توان به تفاوت‌های ذاتی در نحوه ایجاد و درک دیپ‌فیک‌ها نسبت داد. در حالی که تصاویر ثابت دیپ‌فیک ممکن است به دستکاری‌های ظریف در سطح پیکسل متکی باشند که تشخیص آن‌ها برای چشم انسان دشوار است، ویدیوهای مصنوعی اغلب شامل پویایی‌های زمانی پیچیده، حالات چهره ظریف و چالش‌های همگام‌سازی صدا و تصویر هستند. ناظران انسانی، با درک پیچیده خود از زمینه، سرنخ‌های اجتماعی و توانایی‌های ادراکی ظریف، ممکن است بهتر بتوانند این ناهماهنگی‌ها را در رسانه‌های بصری پویا شناسایی کنند. توانایی ذاتی ما در پردازش روایت، زیرمتن عاطفی و ناهنجاری‌های رفتاری ظریف احتمالاً نقش مهمی در این توانایی برتر تجزیه و تحلیل ویدیو ایفا می‌کند.

دکتر ابرنر در مورد تحقیقات در حال انجام توضیح داد و بر تعهد تیم برای رمزگشایی فرآیندهای تصمیم‌گیری هم در انسان‌ها و هم در هوش مصنوعی تأکید کرد. او گفت: "ما می‌خواهیم بفهمیم که ماشین در شرایط خاص از چه چیزی استفاده می‌کند تا اینقدر بهتر از انسان باشد، و چگونه این با نحوه استدلال انسان متفاوت است." "ما در حال بررسی این هستیم که کدام سیگنال‌ها در مغز پردازش می‌شوند که به انسان‌ها امکان می‌دهد از برخی سرنخ‌ها آگاه شده و آن‌ها را درک کنند." تحقیق فعلی نه تنها به دنبال برچسب‌گذاری محتوا به عنوان 'واقعی' یا 'جعلی' است، بلکه به دنبال کاوش عمیق‌تر در 'چرایی' زیربنای این قضاوت‌ها هم برای هوش بیولوژیکی و هم برای هوش مصنوعی است.

این درک عمیق‌تر از فرآیندهای شناختی انسان و هوش مصنوعی برای توسعه استراتژی‌های مشارکتی مؤثر حیاتی است. در آینده‌ای که به طور بالقوه تحت سلطه رسانه‌های مصنوعی پیچیده قرار دارد، نقاط قوت ترکیبی پردازش سریع داده‌ها و تشخیص الگوهای هوش مصنوعی، همراه با شهود انسانی، درک زمینه‌ای و قضاوت انتقادی، ضروری خواهد بود. هوش مصنوعی می‌تواند به عنوان یک خط اول دفاع قدرتمند عمل کند و حجم عظیمی از محتوا را فیلتر کند، در حالی که انسان‌ها می‌توانند ارزیابی نهایی ظریف را ارائه دهند، به ویژه در مواردی که نیاز به آگاهی عمیق زمینه‌ای دارند یا به پیامدهای اخلاقی و اجتماعی حساس می‌پردازند. چنین رویکرد ترکیبی، نوید دفاع قوی‌تری در برابر چشم‌انداز در حال تحول فریب دیجیتال را می‌دهد.

چالش ناشی از دیپ‌فیک‌ها چندوجهی است و نیاز به راه‌حل‌های نوآورانه و سازگار دارد. همانطور که فناوری به پیشرفت بی‌پایان خود ادامه می‌دهد، ابزارها و روش‌های تشخیص دستکاری نیز باید تکامل یابند. این مطالعه قویاً نشان می‌دهد که بهترین استراتژی برای مبارزه با دیپ‌فیک‌ها نه در اتکای انحصاری به ماشین‌ها یا انسان‌ها، بلکه در پرورش یک اکوسیستم قوی از همکاری و ادغام نهفته است. با هماهنگ کردن قدرت تحلیلی هوش مصنوعی با توانایی‌های ادراکی و انتقادی انسان‌ها، می‌توانیم به سمت یک محیط اطلاعاتی امن‌تر، قابل اعتمادتر و مبتنی بر واقعیت تلاش کنیم.

اشتراک گذاری:

اخبار مرتبط

هنوز نخوانده‌اید