کالایاب
فناوری
  • دانشمندان درصدد بهره‌گیری از موش‌ها برای مقابله با دیپ فیک هستند

    دانشمندان می‌‌گویند احتمالا ما هم‌اکنون نیز یک سلاح بیولوژیکی جدید در برابر جریان اطلاعات‌‌رسانی جعلی دسترسی داریم: موش‌‌ها.
    دانشمندان درصدد بهره‌گیری از موش‌ها برای مقابله با دیپ فیک هستند

    احتمالا تاکنون همه‌ی شما دربرابر دیپ‌‌فیک و عواقب خطرناک ناشی این فناوری چیزهایی شنیده‌‌اید؛ قابلیتی خارق‌‌العاده ازسوی یادگیری ماشین برای تولید فایل‌‌های ویدئویی و صوتی از افراد که به‌‌گونه‌‌ای طراحی شده است که تا حد امکان طبیعی جلوه کند. در پی درک خطرات بالقوه ناشی از این فناوری‌‌، بسیاری از پژوهشگران در تلاش هستند تا بتوانند روش‌‌هایی بهتر را برای کشف صحت اصالت محصولات صوتی و تصویری بیابند.

    هم‌اینک در مؤسسه‌‌ی علوم اعصاب دانشگاه اورگون، یکی از عجیب‌‌ترین ایده‌‌ها برای مقابله با دیپ‌‌فیک در حال بررسی است. یک گروه پژوهشی در تلاش هستند به موش‌‌ها آموزش دهند تا بتوانند بی‌‌نظمی‌‌های موجود در یک سخنرانی دیپ‌‌فیک را تشخیص دهند؛ قابلیتی که به‌‌نظر می‌‌رسد حیوانات واقعا در آن تبحر ویژه‌‌ای دارند. امید می‌‌رود که این پژوهش‌‌ها بتواند درنهایت به‌‌یاری رسانه‌هایی نظیر یوتیوب و فیسبوک بیاید تا به‌کمک هم بتوان محتوای جعلی را پیش از انتشار در فضای آنلاین شناسایی و پاکسازی کرد. البته باید بدانید که شرکت‌‌ها واقعا نیازی ندارند برای تشخیص این نوع محتواها، عملا موش‌‌ها را به‌‌استخدام خود درآورند. جاناتان ساندرز، یکی از پژوهشگران پروژه می‌‌گوید:

    با اینکه به‌‌نظر من، داشتن یک اتاق پر از موش برای تشخیص صداهای جعلی، ایده‌‌ای قابل‌‌ستایش است؛ ولی من فکر می‌‌کنم بنابر دلایل واضحی، عملی نخواهد بود. هدف ما این است که درس‌های لازم را درمورد نحوه‌‌ی کار از این حیوانات فراگیریم و سپس آن را در یک رایانه به‌‌کار گیریم.

    دیپ فیک / deep fake

    پژوهشگران امیدوار هستند موش‌ها بتوانند بی‌نظمی‌های درون اصوات محتوای دیپ‌فیک را بسیار بهتر از انسان‌ها تشخیص دهند.

    طبقه‌‌بندی به شیوه‌ی موش‌‌ها

    ساندرز و تیمش به موش‌‌ها آموزش داده‌‌اند تا بتوانند یک مجموعه‌‌ی کوچک از اصوات را که به‌‌منظور تشخیص یک واژه از واژه‌‌های دیگر به‌‌کار می‌‌روند، درک کنند. او توضیح می‌‌دهد:

    ما به موش‌‌ها آموزش دادیم تا بتوانند تفاوت میان آوای «باه» (buh) و «گاه» (guh) را در میان متون و حروف صدادار مختلف تشخیص دهند. آن‌‌ها اکنون تفاوت میان «بو»، «بیه» و «باه» را می‌‌دانند؛ همان توانایی که ما به‌‌صورت طبیعی در اختیار داریم. و از آنجاکه آن‌‌ها می‌‌توانند از پس مسئله‌‌ی واقعا پیچیده‌‌ای مانند دسته‌‌بندی اصوات گوناگون  برآیند، فکر می‌‌کنیم ممکن است بتوان موش‌‌ها را به‌‌گونه‌‌ای آموزش داد که سخنرانی واقعی و جعلی را نیز از یکدیگر تشخیص دهند.

    هر زمان که موش‌‌ها بتوانند یک صوت را به‌‌درستی تشخیص دهند، پاداش دریافت می‌‌کنند؛ موضوعی که بنابر تجربه‌‌ی فعلی، در ۸۰ درصد از موارد مصداق دارد. البته این روش هنوز کامل و بی‌نقص نیستِ ولی استفاده‌از آن، در کنار روش‌‌های فعلی برای تشخیص دیپ‌‌فیک می‌‌تواند اطلاعات ارزشمندی ارائه دهد.

    اشتباهات و عدم اعتمادپذیری

    بیشتر محتواهای دیپ‌‌فیک که امروزه با آن مواجه هستیم، چندان واقعی طراحی نمی‌‌شوند. این محتواها  بیشتر با هدف شوخی و استهزاء به‌‌کار می‌‌روند تا جعل هویت. نمونه‌‌ای از این موارد مربوط‌‌به ویدئوی دیپ‌‌فیکی از مارک زاکربرگ است که بی‌‌پرده درمورد دزدیدن داده‌‌های کاربران سخن می‌‌گوید. اما این باعث نمی‌‌شود که بگوییم در آینده هم قرار نیست کار به موضوع جعل هویت کشیده شود. این تهدیدها همین امسال نیز تبدیل به یکی از موضوعات مهم در دو کنفرانس مهم دنیای هک (با نام‌‌های Black Hat و Def Con) ‌‌شده‌‌اند. متیو پرایس، از  اعضای شرکت امنیت سایبری Zerofox می‌‌گوید:

    از دیدگاه هزینه‌‌های پردازش ابری، آموزش یک سیستم دیپ‌‌فیک خوب، چیزی در حدود ۱۰۰ الی ۵۰۰ دلار هزینه در بردارد.

    View this post on Instagram

    ‘Imagine this...’ (2019) Mark Zuckerberg reveals the truth about Facebook and who really owns the future... see more @sheffdocfest VDR technology by @cannyai #spectreknows #privacy #democracy #surveillancecapitalism #dataism #deepfake #deepfakes #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryart

    A post shared by Bill Posters (@bill_posters_uk) on

    پرایس درمورد جدیدترین روش‌‌های ساخت دیپ‌‌فیک و همچنین آخرین فناوری‌‌ها برای تشخیص آن‌‌ها صحبت می‌‌کند. او در خلال سخنرانی خود، توضیح می‌‌دهد که چگونه می‌‌توان از الگوریتم‌‌ها برای تشخیص حرکات غیرطبیعی سر یا نورپردازی متناقض استفاده کرد. یکی از مدارکی که معمولا در دیپ‌‌فیک‌‌های بدون کیفیت دیده می‌‌شود، این است که اشخاص در آن معمولا پلک نمی‌‌زنند.

    یکی از مشخصه‌های فعلی دیپ‌‌فیک‌‌های بدون کیفیت این است که اشخاص در آن پلک نمی‌‌زنند

    اما این روش‌‌ها همگی براساس ضعف‌‌های فناوری فعلی یا اشتباهاتی بنا شده‌‌اند که سازندگان چنین ویدئوهایی مرتکب می‌‌شوند. مسلما قرار نیست این نوع مشکلات تا ابد وجود داشته باشند و بالاخره روزی فناوری راهی برای خلق بی‌‌نقص‌‌ترین ویدئو‌‌های جعلی خواهد یافت. پرایس می‌‌گوید:

    احتمالا در انتخابات سال ۲۰۲۰، با دیپ‌‌فیک‌‌های فراوانی مواجه خواهیم شد. اما من فکر می‌‌کنم همان‌‌طور که این فناوری به پیشرفت خود ادامه می‌‌دهد و کار برای تشخیص محتوای جعلی سخت و سخت‌‌تر می‌‌شود، احتمال می‌‌رود که کاربرد آن در عملیات نفوذ به‌‌خصوص موضوع انتخابات بیشتر خواهد شد.

    مقاله‌های مرتبط:

    • دیپ فیک چیست؛ وقتی مرزی بین حقیقت و دروغ باقی نمی‌ماند
    • دیپ فیک چه مزیت‌هایی دارد؟

    این نگرانی ازسوی گروهی از سیاست‌‌مداران رده‌‌بالای آمریکایی مطرح شده است که دیپ‌‌فیک را به‌‌عنوان موجی تازه از تلاش‌‌‌ها در جهت اشاعه‌‌ی اخبار غلط در میان رای‌‌دهندگان آمریکایی می‌‌بینند. مارکو رابیو، سناتور جمهوری‌‌خواه آمریکایی طی سخنانی در اویل سال جاری میلادی گفت:

    دشمنان آمریکا پیش‌‌تر باکمک تصاویر جعلی تلاش کرده بودند بذر نارضایتی و تفرقه را در میان ما بکارند. حال تصور کنید که با کمک ویدئو بتوانند برگه‌‌های دزدیده‌‌شده‌‌ی آرا، نظرات غیراخلاقی رهبران سیاسی و حتی کشتار مردم بی‌‌گناه را در جنگ‌‌های خارجی جعل کنند.

    جعلی اما بی‌‌ارزش

    در این میان کسانی نیز هستند که می گویند درمورد تهدید ناشی‌‌از دیپ‌‌فیک بیش‌‌از حد اغراق شده است. بروس اشنیر، متخصص امنیت سایبری از دانشکده‌ی هاروارد کندی بر این باور است که تلاش‌‌ها پیرامون تشخیص دیپ‌‌فیک کاملا از مسیر اصلی خود خارج شده است. او می‌‌گوید:

    مسئله، کیفیت محتوای جعلی نیست؛ بلکه مسئله این است که ما به منابع خبری مشروع نیز اعتماد نداریم و همه‌چیز را تنها به‌‌خاطر هویت اجتماعی به‌‌اشتراک می‌‌گذاریم.

    دیپ فیک / deep fake

    سرعت پخش ویدئوی مربوط‌‌به نانسی پلوسی ۲۵ درصد کاهش یافته بود.

    اشنیر به یک ویدئوی پریازدید درمورد یکی از اعضای دموکرات کنگره به‌‌نام نانسی پلوسی اشاره دارد که در آن صدای او به‌‌گونه‌‌ای تغییر یافته است که به شنونده این حس القا شود که شخص سخنران احتمالا تحت‌‌تأثیر مشروبات الکلی بوده است. با اینکه جعلی‌‌بودن کلیپ یادشده به‌‌سرعت افشا شد، اما این افشاگری اهمیت چندانی نداشت. این ویدئو بیش از یک میلیون بار دیده شد. اشنیر می‌‌گوید:

    این ویدئو نه یک دیپ‌‌فیک، بلکه یک جعل کم‌‌ارزش بود. تا وقتی که مردم این ویدئوها را نه از دیدگاه «واقعی‌‌بودن»؛ بلکه از دیدگاه «تطابق با جهان‌‌بینی خود» تماشا کنند، به انتشار و اشاعه‌‌ی آن ادامه می‌‌دهند. چراکه شخصیت آن‌‌ها این‌‌گونه است.

    درواقع، یکی از دیدگاه‌‌های پرطرفدار میان متخصصان این است که درنهایت مباحثات پیرامون دیپ‌‌فیک ممکن است از خود دیپ‌‌فیک نیز آثار ویرانگرتری به‌‌دنبال داشته باشد. شاید ترس ما از فناوری باعث شود که روزی یک سیاستمدار حتی هوادارن خود را مجاب کند که یک موضوع کاملا واقعی نیز چیزی بیش از یک دیپ‌‌فیک نبوده است.