دیپ فیک
دیپ فیک
دیپ فیک نام تکنولوژی جدیدی بر پایه هوش مصنوعی است که پس از اولین خروجی های موفق سر و صدای زیادی به پا کرد. تصور کنید چند روز مانده به انتخابات ریاست جمهوری کشوری مثل آمریکا یک ویدیو از نامزد برنده احتمالی پخش شود. در این ویدیو نامزد اعلام می کند که پس از بستری در بیمارستان و آزمایشات پزشکان متوجه شده اند که سرطان بدخیمی دارم و امکان انجام وظیفه ریاست جمهوری برایم وجود ندارد. این خبر به قدری می تواند شوکه کننده باشد که به تنهایی ممکن است نتیجه انتخابات را تغییر دهد. انتخاباتی که نه تنها برای آمریکا مهم است بلکه برای دنیا دارای اهمیت است. اما چند روز بعد یک ویدیو دیگر پخش می شود که نامزد ریاست چمهوری اعلام می کند ویدیو قبلی تقلبی بوده و چنین خبری صحت ندارد. نکته منفی اینجاست که امکان اثبات وجود ندارد. در واقع احتمال تشخیص تقلبی و اصل بودن این دو ویدیو توسط مردم بسیار پایین است. این تکولوژی به قدری با دقت و طبیعی ویدیو تقلبی می سازد که می توان گفت هیچ تفاوتی با ویدیو اصل ندارد.
طی روزها یا حتی ماههای گذشته، ممکن است بارها ویدئوهای دیپ فیک را دیده باشید؛ ویدئوهایی که اساساً حقیقت ندارند اما به علت واقع گرایانه بودنشان ، نمیتوان متوجه تقلبی بودن آن ها شد. از سیاست مداران معروف تا هنرمندان مشهور و حتی مدیران مطرح دنیای فناوری، همگی در ماههای گذشته به نوعی با این پدیده نوظهور دست و پنجه نرم کردهاند. از عکسهای غیراخلاقی و ساختگی هنرمندان مشهور بگیرید تا سخنرانی های جعلی سیاست مداران و اظهار نظر های طنز گونه مدیران فناوری درباره موضوعاتی نظیر حفظ حریم خصوصی، همگی نمونه هایی کوچک از عملکرد تخریب گرایانه دیپ فیک و اثر منفی آنها روی جامعه هستند.
باراک حسین اوباما، رئیس جمهور سابق آمریکا در سخنرانی که به تازگی انجام داده، نگرانی خود را درباره پیشرفت تکنولوژی دیپ فیک ابراز کرده است:
افراد قادر به تکثیر من و تغییر سخن هایم هستند و این کار بهاندازهای دقیق انجام می شود که گویی نسخه تکثیر شده، به واقع من هستم و آن صحبت ها از زبان من گفته می شود؛ درحالیکه همه چیز کاملاً ساختگی است. اگر به مرحله ای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایه های دموکراسی ما که بر مبنای حقیقت بنا شده، به لرزه خواهد افتاد.
صحبتهای رئیسجمهور پیشین آمریکا بهدنبال پخش سراسری ویدئویی دروغین از وی انجام شده که در ویدئو مورد بحث، باراک اوباما جانشین خود، یعنی دونالد ترامپ را فردی کاملاً غیر منطقی و حقیر خطاب میکند.
دیپفیک نام یک تکنیک نرم افزاری بر پایه هوشمصنوعی است که در محتوای صوتی و تصویری دست می برد و آن را بهدلخواه دگرگون می سازد؛ بنابر این نتیجهی نهایی که بهدست می آید، چیزی کاملا متفاوت از حقیقت است. درواقع نام این تکنیک نیز به درستی عملکرد آن را آشکار میسازد؛ دیپ فیک، ترکیبی از یادگیری عمیق Deep Learning و جعل (Fake) است.
کارگردانان سینما یکی از قدیمی ترین استفادهکنندگان از این فناوری هستند . مثلا ستارهی فیلم «سریع و خشن»، یعنی پاول واکر که پیش از اتمام فیلم برداری هفتمین قسمت از این سری در یک تصادف رانندگی جان خود را از دست داد ؛ اما به لطف دیپ فیک، هنوز شاهد هنر نمایی این بازیگر سری فیلمهای سریع و خشن هستیم.
یکی از محبوبترین اهداف دیپفیک درطول دو سال گذشته، دونالد ترامپ، رئیس جمهور ایالات متحده آمریکا بوده است؛ کسی که دادههای صوتی و تصویری بسیاری از او در اینترنت وجود دارد. هر کس که به فناوری دیپ فیک دسترسی داشته باشد، بهراحتی قادر به ساخت ویدئویی خواهد بود که دونالد ترامپ را در حال انجام کاری یا صحبتکردن دربارهی کاری غیرمعمول نشان دهد.
دیپ فیک فقط در حوزههای بالا استفاده نمی شود و اپلکیشنی مانند اسنپ چت نیز برای اعمال فیلتر های مبتنی بر چهره از چنین فناوری بهره می برد. حتی اپلیکیشنهای قوی تری در این زمینه وجود دارند؛ اپلیکیشنی مانند FakeApp که توسط برنامه نویسی ناشناس ساخته شده و با استفاده از نرم افزارهای متن باز گوگل، به کاربران اجازه میدهد تا چهرهی خود را بهصورت واقع گرایانه ای با دیگران جابهجا کنند؛ آن هم بدون اینکه دستکاری شدن ویدئو مشخص باشد.
احتمالاً فکر میکنید که چنین کاری نیازمند تبحر و مهارت بسیاری در علوم های کامپیوتری و برنامه نویسی است؛ اما حتی افرادی که در حد انجام کارهای روزمره با کامپیوتر آشنایی دارند، میتوانند به راحتی شیوهی کارکرد دیپ فیک را یاد بگیرند و از آن برای اهداف خود استفاده کنند.
متأسفانه دیپ فیک تنها به یک یا دو حوزهی خاص خلاصه نمیشود و آثار مخرب این فناوری را میتوان در جنبه های مختلف زندگی مشاهده کرد.
یکی از غیر اخلاقی ترین اتفاقات دیپ فیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وبسایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد که وی را درحال ایفای نقش در فیلمهای غیر اخلاقی نشان می داد. اگرچه این ویدئو توسط فناوری دیپ فیک ساخته شده بود؛ اما نوع مونتاژ بهگونهای بود که در نگاه نخست کمتر کسی میتوانست متوجه جعلیبودن ویدئو شود.
طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد؛ افرادی که در ابتداییترین جنبههای زندگی روزمره خود جانب احتیاط را پیشه میکنند، خود را در ویدئوهایی دیدند که پیشتر تصور آن نیز از ذهنها دور بود.
مطالب زیر را حتما مطالعه کنید
هوش اجتماعی در مدیریت سازمان
هوش اجتماعی و هیجانی چیست؟ مدیر و رهبر خوب به چه مهارت هایی نیاز دارد که موفق شود و شکست نخورد؟
رفتار گربه ها و شخصیتشان
رفتار گربه ها و ویژگی شخصیت این دوستان کوچک برای نگهداری این حیوانات خانگی و دانستن نژاد آن ها اهمیت دارد.
ویدئو حیوانات اتلاف وقت است؟
مشاهده ویدئو حیوانات خانگی بانمک اتلاف وقت نیست. زیرا باعث کاهش استرس، بهوبد خلق، بهبود روابط زوجین می شود.
تاثیرات گربه بر روحیه
تاثیرات گربه بر روان ما چیست؟ چگونه بدون قضاوت شدن با این جاندار دردل کنیم؟ گربه ها با تنظیم خواب و رفتار ما باعث بهبود رابطه با دیگران می شوند.
دیدگاهتان را بنویسید