اخبار فارس من افکار سنجی دانشکده انتشارات توانا فارس نوجوان

فرهنگ  /  غرب از نگاه غرب

تلاش برای شناسایی ویدئوهای جعلی: تقابل هوش مصنوعی با هوش مصنوعی

فناوری دیپ فیک قرار دادن افراد در صحنه فیلم هایی را که هرگز در آنها حضور نداشته اند امکان پذیر کرده که برای مقاصد سرگرم کننده تهیه می شوند. متاسفانه با کمک این فناوری، خلق تصاویر پورنوگرافی بدون رضایت افرادی که در آنها به تصویر کشیده می شوند نیز امکان پذیر می گردد. تاکنون بزرگ ترین قربانیان فناوری دیپ فیک که مورد سوء استفاده واقع شده اند زن بوده اند.

تلاش برای شناسایی ویدئوهای جعلی: تقابل هوش مصنوعی با هوش مصنوعی

گروه غرب از نگاه غرب خبرگزاری فارس: یک روزنامه نگار تحقیق گر ویدئویی از یک افشاگر ناشناس دریافت کرده است. این ویدئو یکی از نامزدهای انتخابات ریاست جمهوری را نشان می دهد که فعالیتی غیرقانونی را تایید می کند. اما آیا این ویدئو واقعی است؟ اگر چنین باشد این می تواند خبر بسیار مهمی باشد که هر انسانی در طول عمرش تنها یک بار ممکن است بشنود و می تواند روند انتخابات های پیش رو را به کلی وارونه کند. اما این روزنامه نگار که ویدئوی دریافتی را با یک ابزار مخصوص مورد بررسی قرار داده، می گوید این ویدئو آنطور که به نظر  می رسد نیست. در واقع فایلی که او دریافت کرده یک ویدئوی «دیپ فیک» است؛ ویدئویی که با استفاده از هوش مصنوعی با تکنیک یادگیری عمیق ساخته می شود.
ممکن است روزنامه نگاران در سراسر جهان به زودی از ابزاری شبیه به این استفاده کنند. حتی ممکن است در طول چند سال به جایی برسیم که تمام مردم ابزاری شبیه به این را برای ریشه یابی محتوای جعلی که در فیدهای رسانه های اجتماعی شان دریافت می کنند مورد استفاده قرار دهند.
ما به عنوان پژوهشگرانی که در حوزه ردیابی محتوای دیپ فیک و ساخت ابزار ردیابی آنها برای روزنامه نگاران تحقیق می کنیم، معتقدیم که این ابزارها برای خود آینده ای دارند. هرچند که ساخت چنین ابزارهایی تمام مشکلات ما را حل نخواهند کرد و تنها یکی از اجزای زرادخانه ما در مبارزه گسترده تر علیه انتشار اطلاعات جعلی به شمار خواهند رفت.

مشکل ویدئوهای دیپ فیک
بیشتر کسانی که شما را می شناسند، ممکن نیست هر چیزی را که در مورد شما می بینند باور کنند. در طول دو دهه گذشته مصرف کنندگان زیرک اخبار به دیدن تصاویری که با نرم افزارهای ویرایش تصویر دستکاری شده اند عادت کرده اند. هر چند در مورد ویدئوهای جعلی ماجرا چیز دیگری است. کارگردانان هالیوود ممکن است میلیون ها دلار در زمینه جلوه های ویژه برای ساخت یک صحنه واقع گرایانه خرج کنند. اما افراد آماتور با خرید چند هزار دلار تجهیزات رایانه ای و صرف چند هفته از وقت خود، می توانند با استفاده از محتوای دیپ فیک چیزی تقریبا درست شبیه زندگی واقعی را بسازند.
فناوری دیپ فیک قرار دادن افراد در صحنه فیلم هایی را که هرگز در آنها حضور نداشته اند– به تام کروز فکر کنید که در حال بازی نقش مرد آهنی است- امکان پذیر کرده که برای مقاصد سرگرم کننده تهیه می شوند. متاسفانه با کمک این فناوری، خلق تصاویر پورنوگرافی بدون رضایت افرادی که در آنها به تصویر کشیده می شوند نیز امکان پذیر می گردد. تاکنون بزرگ ترین قربانیان فناوری دیپ فیک که مورد سوء استفاده واقع شده اند زن بوده اند.
فناوری دیپ فیک همچنین می تواند برای ساخت ویدئوهایی از رهبران سیاسی مورد استفاده قرار بگیرند که در حال گفتن حرف هایی هستند که هرگز از دهانشان خارج نشده است. حزب سوسیالیست بلژیک یک ویدئوی غیر دیپ فیک با کیفیت پایین و با این حال قلابی را از پرزیدنت ترامپ منتشر کرده که او را در حال اهانت به بلژیک نشان می دهد. واکنش های گسترده ای که نسبت به این ویدئو انجام شد، خطرات بالقوه ویدئوهای دیپ فیک با کیفیت بالاتر را نشان می دهد.
شاید ترسناک ترین این مخاطرات این باشد که با گفتن اینکه فلان ویدئوها ممکن است دیپ فیک باشند، می توان از آنها برای ایجاد شک و تردید نسبت به محتوای ویدئوهای واقعی استفاده کرد.
با توجه به این خطرات  استفاده از ابزاری که بتواند محتوای دیپ فیک را ردیابی و به وضوح آنها را شناسایی کند بسیار ارزشمند خواهد بود. چنین ابزاری می تواند این اطمینان را به وجود آورد که ویدئوهای جعلی جامعه را فریب نمی دهند و ویدئوهای واقعی می توانند همچنان محل وثوق باشند.

شناسایی ویدئوهای جعلی
ردگیری ویدئوهای دیپ فیک به عنوان یک حوزه تحقیقاتی کمتر از سه سال است که آغاز شده است. کارهای اولیه بر ردگیری اشکالات قابل دیده شدن در این ویدئوها متمرکز بود، مثل  اینکه افراد در ویدئوهای دیپ فیک چشمک نمی زنند. اما با گذشت زمان  ویدئوهای جعلی در تقلید از ویدئوهای واقعی بهتر شدند و شناسایی افراد و ابزارهای ردیابی آنها دشوارتر شد.
تحقیقاتی که پیرامون ردیابی ویدئوهای دیپ فیک انجام می شود را می توان در دو دسته جای داد. دسته اول با نگاه کردن به رفتار افراد در ویدئوها سر و کار دارد. فرض کنید که تعداد زیادی ویدئو از شخص معروفی مثل پرزیدنت اوباما دارید. هوش مصنوعی می تواند از این ویدئوها برای یادگیری الگوهای رفتاری او نظیر حرکات دست و مکث هایی که بین کلمات می کند استفاده کند و این الگوها را فرا بگیرد. سپس می تواند با مرور یک ویدئوی دیپ فیک، متوجه شود که کدام الگوی رفتاری او در نمونه واقعی با نمونه جعلی همخوانی ندارد. این رویکرد حتی اگر کیفیت خود ویدئو در اصل خوب باشد، این مزیت را دارد که احتمالا بهتر جواب می دهد.
پژوهشگران دیگر از جمله تیم ما بر تفاوت ها در تمام دیپ فیک هایی که با ویدئوهای واقعی مقایسه شده اند تمرکز دارد. ویدئوهای دیپ فیک اغلب با ادغام قاب های منفرد و سپس تشکیل فیلمی به هم پیوسته ساخته می شوند. با به حساب آوردن این نکته، شیوه های تیم ما داده های مهم مربوط به چهره ها را در تک تک قاب ها استخراج می کند و سپس آنها را در مجموعه هایی از قاب های همزمان با قاب های قبلی ردگیری می کند. این کار به ما اجازه می دهد تا ناهمخوانی ها را در جریانی از اطلاعات از یک قاب به قاب دیگر ردگیری کنیم. ما در سیستم ردگیری صوتی جعلی خود نیز از رویکرد مشابهی استفاده می کنیم.
مشاهده این جزئیات ظریف برای انسان ها کار دشواری است، اما نشان می دهند که  ویدئوهای دیپ فیک نیز هنوز کاملا بی نقص نیستند. این قبیل ابزارهای ردگیری می توانند در مورد برای هر شخصی کارآیی داشته باشند نه فقط برای معدودی از رهبران جهانی. در انتها ممکن است به هر دو نوع از این ابزارهای ردیابی ویدئوهای دیپ فیک نیاز شود.
سیستم های ردگیری اخیر در مورد ویدئوهایی که به طور خاص برای ارزیابی ابزارها گردآوری شده اند عملکرد بسیار خوبی دارند. متاسفانه حتی بهترین مدل ها در مورد ویدئوهایی که در اینترنت یافت می شوند عملکرد ضعیفی دارند. بهبود دادن این ابزارها و قدرتمند و مفیدتر شدن آنها گام اصلی بعدی به شمار می رود.

چه کسی باید از ردیاب های دیپ فیک استفاده کند؟
در واقع یک ابزار شناسایی ویدئوهای دیپ فیک باید در دسترس همگان قرار داشته باشد. اما این فناوری در مراحل اولیه توسعه و ساخت خود قرار دارد. پژوهشگران باید این ابزارها را بهبود ببخشند و توانایی حفاظتی آنها در برابر نفوذ هکرها را پیش از انتشار آنها در سطح گسترده ارتقا بخشند.
هرچند همزمان این ابزارها موجب می شوند تا ویدئوهای دیپ فیک بیشتر در دسترس کسانی قرار بگیرد که به دنبال فریب دادن جامعه است. اما کنار نشستن و نظاره کردن راه حل خوبی نیست. برای تیم ما بهترین گزینه در مرحله نخست، کارکردن با روزنامه نگاران بود، چون آنها هستند که در خط دفاعی مقدم در برابر گسترش اطلاعات جعلی قرار دارند.
روزنامه نگاران پیش از انتشار گزارش های خود، باید اطلاعات دریافتی شان را مورد تایید قرار دهند. آنها هم اکنون نیز از شیوه های تایید محتوا استفاده می کنند،  مثل کنترل کردن منابع و مراجعه به افرادی بیشتر از یک نفر برای تایید فکت های کلیدی. پس با قرار دادن این ابزار در دسترس آنها، ما اطلاعات بیشتری را در اختیار آنها قرار می دهیم و می دانیم با توجه به اینکه ممکن است این ابزار مرتکب اشتباه هایی شود، آنها صرفا بر این فناوری اتکا نخواهند کرد.

آیا ردیاب ها برنده این مسابقه خواهند شد؟
دیدن اینکه تیم هایی از فیس بوک و مایکروسافت در حال سرمایه گذاری روی فناوری های مربوطه برای شناخت و ردگیری محتوای دیپ فیک هستند دلگرم کننده است. اما برای همپا شدن با سرعت پیشرفت هایی که در فناوری ساخت ویدئوهای دیپ فیک رخ می دهد، لازم است که تحقیقات بیشتری در این حوزه به عمل آید.
روزنامه نگاران و پلتفرم های شبکه های اجتماعی همچنین باید سردربیاورند که چگونه می توان مردم را به بهترین نحو نسبت به جعلی بودن محتوای ویدئوهای دیپ فیکی که آنها شناسایی می کنند آگاه کرد. تحقیقات نشان داده اند که مردم دروغ را به خاطر می سپارند، ولی این واقعیت که آن دروغ یک دروغ بوده را نه. آیا همین وضعیت در مورد ویدئوهای جعلی هم صدق خواهد کرد؟ صرف قرار دادن برچسب «دیپ فیک» روی این قبیل ویدئوها، ممکن است برای مقابله با برخی از انواع اطلاعات جعلی کافی نباشد.
ویدئوهای دیپ فیک آمده اند تا بمانند. مدیریت اطلاعات جعلی و حفاظت از جامعه همزمان با قدرتمندتر شدن روزافزون هوش مصنوعی چالش آورتر خواهد شد. ما بخشی از یک جامعه تحقیقاتی رو به رشد هستیم که  در زمینه این تهدید تحقیق می کنیم، تهدیدی که ردیابی آن تنها گام اول است.

نویسنده: جان سهروردی/ متیو رایت (John Sohrawardi ) دانشجوی دکترای علوم رایانه ای و اطلاعات / (Matthew Wright) استاد امنیت رایانه ای / موسسه فناوری روچستر

منبع: https://b2n.ir/258222

انتهای پیام.

این مطلب را برای صفحه اول پیشنهاد کنید
نظرات
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری فارس در وب سایت منتشر خواهد شد پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
Captcha
لطفا پیام خود را وارد نمایید.
پیام شما با موفقیت ثبت گردید.
لطفا کد اعتبارسنجی را صحیح وارد نمایید.
مشکلی پیش آمده است. لطفا دوباره تلاش نمایید.

پر بازدید ها

    پر بحث ترین ها

      بیشترین اشتراک

        اخبار گردشگری globe
        اخبار کسب و کار تریبون
        همراه اول