ایالات متحده - خبرگزاری اخباری
مدلهای هوش مصنوعی تصاویر دیپفیک را تشخیص میدهند، اما انسانها در تشخیص ویدیوهای جعلی برتری دارند
در عصری که به طور فزایندهای مملو از دستکاریهای دیجیتال پیچیده است، گسترش "دیپفیکها" - رسانههای مصنوعی تولید شده توسط هوش مصنوعی - چالشی قابل توجه برای تمایز حقیقت از خیال ایجاد میکند. این فناوریهای پیشرفته، قادر به ایجاد تصاویر، صداها و ویدیوهای بسیار متقاعدکننده جعلی، در حال حاضر برای کلاهبرداری مالی، دخالت در انتخابات و آسیب رساندن به اعتبار مورد استفاده قرار گرفتهاند. با افزایش پیچیدگی دیپفیکها، محققان به طور فعال در حال بررسی مؤثرترین روشها برای شناسایی آنها هستند. یک مطالعه مقایسهای اخیر تلاش کرده است تا تعیین کند آیا سیستمهای هوش مصنوعی یا ناظران انسانی در شناسایی این جعلهای دیجیتال برتری دارند.
همچنین بخوانید
→ نمایش آسمانی: خسوف کامل ماه، ماه را این هفته به رنگ خونین درمیآورد→ آمریکا، اتحادیه اروپا و ژاپن مذاکرات توافقنامه مواد معدنی حیاتی را برنامهریزی میکنند→ اسرائیل: «آوارگان از لبنان تا زمانی که امنیت برقرار نشود باز نخواهند گشت». از 7 اکتبر 1045 قربانی در کرانه باخترینتایج این مطالعه که در مجله *Cognitive Research: Principles and Implications* منتشر شده است، بینش شگفتانگیز اما مهمی را آشکار کرده است: در حالی که الگوریتمهای هوش مصنوعی در تشخیص تصاویر جعلی عملکرد برتری از خود نشان میدهند، انسانها هنگام تجزیه و تحلیل ویدیوهای جعلی، برتری مشخصی دارند. این دوگانگی نیاز فوری به همکاری همافزا بین هوش انسانی و قابلیتهای ماشین را برای مقابله مؤثر با تهدید فراگیر محتوای مصنوعی برجسته میکند.
تیم تحقیقاتی به رهبری ناتالی ابرنر، روانشناس، آزمایشهایی را برای ارزیابی قابلیتهای تشخیص هم انسانها و هم الگوریتمهای یادگیری ماشین طراحی کرده است. در مرحله اول، حدود ۲۲۰۰ شرکتکننده انسانی و دو الگوریتم مختلف یادگیری ماشین، وظیفه ارزیابی اصالت ۲۰۰ تصویر چهره را در مقیاسی از ۱ (جعلی) تا ۱۰ (واقعی) بر عهده داشتند. نتایج به وضوح نشاندهنده تفاوت در عملکرد بود. شرکتکنندگان انسانی تصاویر دیپفیک را با نرخی بهتر از حدس تصادفی، حدود ۵۰% دقت، شناسایی کردند. در مقابل، سیستمهای هوش مصنوعی مهارت قابل توجهی بیشتری از خود نشان دادند. یک الگوریتم به نرخ دقت حدود ۹۷% دست یافت، در حالی که دیگری به طور متوسط ۷۹% دقت کسب کرد، که نشاندهنده تسلط واضح هوش مصنوعی در تشخیص تصاویر ثابت است.
با این حال، تحقیق در مرحله دوم، که بر محتوای ویدیو متمرکز بود، یک چرخش شگفتانگیز داشت. حدود ۱۹۰۰ شرکتکننده انسانی ۷۰ کلیپ ویدیویی کوتاه از افرادی که موضوعات مختلفی را مورد بحث قرار میدادند، تماشا کردند. وظیفه آنها ارزیابی واقعگرایی چهرههای نمایش داده شده در این ویدیوها بود. در این سناریو، انسانها از الگوریتمهای هوش مصنوعی پیشی گرفتند. شرکتکنندگان انسانی به طور متوسط با ۶۳% دقت، اصالت یا جعلی بودن محتوای ویدیو را به درستی شناسایی کردند، در حالی که الگوریتمها در سطحی قابل مقایسه با حدس تصادفی عمل کردند و در تمایز بین فیلمهای ویدیویی واقعی و مصنوعی با مشکل مواجه شدند.
این واگرایی عملکرد بین تشخیص تصویر و ویدیو را میتوان به تفاوتهای ذاتی در نحوه ایجاد و درک دیپفیکها نسبت داد. در حالی که تصاویر ثابت دیپفیک ممکن است به دستکاریهای ظریف در سطح پیکسل متکی باشند که تشخیص آنها برای چشم انسان دشوار است، ویدیوهای مصنوعی اغلب شامل پویاییهای زمانی پیچیده، حالات چهره ظریف و چالشهای همگامسازی صدا و تصویر هستند. ناظران انسانی، با درک پیچیده خود از زمینه، سرنخهای اجتماعی و تواناییهای ادراکی ظریف، ممکن است بهتر بتوانند این ناهماهنگیها را در رسانههای بصری پویا شناسایی کنند. توانایی ذاتی ما در پردازش روایت، زیرمتن عاطفی و ناهنجاریهای رفتاری ظریف احتمالاً نقش مهمی در این توانایی برتر تجزیه و تحلیل ویدیو ایفا میکند.
دکتر ابرنر در مورد تحقیقات در حال انجام توضیح داد و بر تعهد تیم برای رمزگشایی فرآیندهای تصمیمگیری هم در انسانها و هم در هوش مصنوعی تأکید کرد. او گفت: "ما میخواهیم بفهمیم که ماشین در شرایط خاص از چه چیزی استفاده میکند تا اینقدر بهتر از انسان باشد، و چگونه این با نحوه استدلال انسان متفاوت است." "ما در حال بررسی این هستیم که کدام سیگنالها در مغز پردازش میشوند که به انسانها امکان میدهد از برخی سرنخها آگاه شده و آنها را درک کنند." تحقیق فعلی نه تنها به دنبال برچسبگذاری محتوا به عنوان 'واقعی' یا 'جعلی' است، بلکه به دنبال کاوش عمیقتر در 'چرایی' زیربنای این قضاوتها هم برای هوش بیولوژیکی و هم برای هوش مصنوعی است.
این درک عمیقتر از فرآیندهای شناختی انسان و هوش مصنوعی برای توسعه استراتژیهای مشارکتی مؤثر حیاتی است. در آیندهای که به طور بالقوه تحت سلطه رسانههای مصنوعی پیچیده قرار دارد، نقاط قوت ترکیبی پردازش سریع دادهها و تشخیص الگوهای هوش مصنوعی، همراه با شهود انسانی، درک زمینهای و قضاوت انتقادی، ضروری خواهد بود. هوش مصنوعی میتواند به عنوان یک خط اول دفاع قدرتمند عمل کند و حجم عظیمی از محتوا را فیلتر کند، در حالی که انسانها میتوانند ارزیابی نهایی ظریف را ارائه دهند، به ویژه در مواردی که نیاز به آگاهی عمیق زمینهای دارند یا به پیامدهای اخلاقی و اجتماعی حساس میپردازند. چنین رویکرد ترکیبی، نوید دفاع قویتری در برابر چشمانداز در حال تحول فریب دیجیتال را میدهد.
چالش ناشی از دیپفیکها چندوجهی است و نیاز به راهحلهای نوآورانه و سازگار دارد. همانطور که فناوری به پیشرفت بیپایان خود ادامه میدهد، ابزارها و روشهای تشخیص دستکاری نیز باید تکامل یابند. این مطالعه قویاً نشان میدهد که بهترین استراتژی برای مبارزه با دیپفیکها نه در اتکای انحصاری به ماشینها یا انسانها، بلکه در پرورش یک اکوسیستم قوی از همکاری و ادغام نهفته است. با هماهنگ کردن قدرت تحلیلی هوش مصنوعی با تواناییهای ادراکی و انتقادی انسانها، میتوانیم به سمت یک محیط اطلاعاتی امنتر، قابل اعتمادتر و مبتنی بر واقعیت تلاش کنیم.