با دیپ فیک به اعماق جعل سفر کنید

25 آبان, 1399
بدون دیدگاه
3 دقیقه زمان مطالعه

این روزها به مدد فناوری و تکنولوژی ، شکل همه چیز تغییر کرده است .حتی جعل !!!! تا همین چند سال پیش ، جعل اسناد و مدارک بازاری داشت که برخی ها بعنوان سطان و پدر جعل هر منطقه شناخته می شدند اما اینروزها دیگر نیازی به سلاطین برای جعل نیست و با پیشرفت فناوری و در دسترس قرار گرفتن نرم افزارهای موجود ، میتوان هر چیزی را جعل کرد اما در این مقاله میخواهیم در خصوص جعل عمیق صحبت کنیم.

در دوره ای زندگی میکنیم که حتی اگر کلیپی از افراد مشهور دیدید که حرفها یا رفتاری عجیب دارند ، نیاز است در خصوص آن بیشتر تحقیق کنید تا به درستی آن اطمینان حاصل کنید. امروزه با استفاده از فناوری میتوانند حتی کلیپی از خود شما درست کنند با حرفهایی که هیچگاه نگفته اید یا رفتاری که هیچگاه نکرده اید!!

دیپ فیک چیست؟

نام این فناوری دیپ فیک می باشد.دیپ فیک (DeepFake) از ترکیب دو کلمه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده است و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید کند. دیپ فیک فناوری است بر مبنای هوش مصنوعی است که به وسیله ی  آن می توان  عکس ها  و کلیپ های  جعلی اما واقعی درست کرد  تا هر بیننده‌ای را تحت تاثیر قرار دهد.

امروز به بواسطه گستردگی فضای مجازی ، ویدیوهای دیپ فیک از سلبریتی های ساخته میشود و کاربران بدون صحت سنجی ، آن را به اشتراک می گذارند.این در حالیست شبکه های اجتماعی ، قوانین سخت گیرانه ای را در رابطه با اکانت های که اخبار جعلی را منتشر میکنند در نظر گرفته اند.

اگر بخواهیم به پیدایش دیپ فیک اشاره ای داشته باشیم باید بگوییم فناوری دیپ فیک  در سال 2014 برای اولین بار توسط یک دانشجوی مقطع دکترا به نام  «ایان گودفلو» اختراع شد. گفتنی است گودفلو در حال حاضر در شرکت اپل مشغول به کار است.دیپ فیک مبتنی بر روش‌ یادگیری عمیق است و از شبکه‌های مولد تخاصمی که به اختصار به آنها شبکه‌های GAN گفته می‌شود، استفاده می‌کند. الگوریتم‌های GAN از دو مدل هوش مصنوعی تشکیل می‌شوند.

شبکه‌های مولد تخاصمی الگوریتم‌ها را قادر می‌سازند تا برای تولید یا ایجاد تصاویر، فراتر از طبقه‌بندی داده‌ها بروند. این اتفاق زمانی رخ می‌دهد که دو GAN تلاش کنند تا یکدیگر را گول بزنند و تصور کنند که یک تصویر «واقعی» است. یک GAN می‌تواند فقط با استفاده از یک تصویر فردی خاص، یک کلیپ ویدئویی کامل از او ایجاد کند.

دیپ فیک ابزار جنگ سایبری

باید توجه داشته باشید در عصر فناوری اطلاعات و ارتباطات دیگر ، کشورها بجای لشکرکشی و صرف هزینه های گزاف اسلحه و انسانی ، خود را در فضای سایبری مجهز کرده اند. از حملات سایبری به زیرساخت ها یک کشور تا ایجاد فضای متشنج با ساخت کلیپ های غیرواقعی ، کشور مورد نظر را هدف قرار می دهند.

 بیایید در خصوص این موضوع یک مثال بزنیم :

فرض کنید صبح فردا که از خواب بیدار میشوید و میخواهید قهوه ی صبحگاهی خود را با گشتی در فضای مجازی  میل کنید ، کلیپ هایی از صحبت های جنجالی و باور نکردنی از یک سیاستمدار می بینید.در حال تعجب می بینید این کلیپ به سرعت در گروه هایی که عضو هستید بازنشر میشود.

بازارهای مالی به سرعت به این سخنان واکنش نشان میدهند. مردم با بهت و ناباوری در این خصوص صحبت می کنند و ایجاد یک فضای روانی منفی به سرعت در جامعه در حال شکل گیری است . مسئول مربوطه اعلام می کند که این کلیپ جعلی می  باشد. اما مردم یا نمی شنوند یا اگر جوابیه را ببینند باور نمی کنند.چگونه ممکن است ؟ خودش بود با همان ژست همیشگی و خنده هایش ؟ مگر عکس است که بشود با فتوشاپ ، تغییرش داد. ویدیو است !!!! صدایش چه؟!!!

اگر بخواهیم مثال واقعی آن را مطرح کنیم

 چندی پیش ویدیویی از باراک اوباما منتشر شد که در آن دونالد ترامپ را فردی حقیر و غیرمنطقی خطاب می‌کرد. اگرچه این ویدیو صحت نداشت و کاملا غیرواقعی بود اما افراد زیادی در ابتدا آن را باورد کردند و دست به انتشار آن در فضای مجازی کردند. در همین راستا رئیس جمهور سابق آمریکا، باراک اوباما، در خصوص تکنولوژی دیپ فیک اظهار نظر کرده و ابراز کرده است در دنیایی که می‌توانند به سادگی صحبت‌ها و ویدیوهای غیرواقعی از من ساخته و منتشر کنند، به مرحله‌ای خواهیم رسید که تشخیص مرز بین واقعیت و دروغ بسیار مشکل خواهد شد و این مطمئنا بر پایه‌‎های دموکراسی ما که بر مبنای حقیقت است، تاثیر خواهد گذاشت.

همانطور که می توان حدس زد تا اثبات این موضوع ، روزها و هفته ها برای شخص مورد نظر ، چالش ایجاد شده است. کما اینکه در سالهای اخیر در کشورمان این موضوع رخ داده است و کماکان برخی مردم در خصوص صحبت های یک مسئول صحبت می کنند. از صداهای تقطیع شده تا به هم چسباندن صدای یک شخص در سخنرانی های متفاوت ، موفق به برهم زدن آرامش روانی مردم شده اند.

اگر علاقمند به این موضوع هست می توانید کلیپ های غیرواقعی که از افراد مختلف ساخته شده  است را در اینترنت ببینید.

هر فناوری دو لبه قیچی است : مثبت یا منفی

به نظر میرسد هر چیزی ممکن است هم مضر باشد و هم مفید. یک چاقو می‌تواند هم برای کشتن کسی استفاده شود و هم می تواند در دست پزشکی حاذق جانی را نجات دهد. در مورد دیپ فیک هم همین مسئله صدق می‌کند.
اینکه تصور شود دیپ فیک ، فناوری کاملا مضرر است ،اشتباه است . چرا که هر فناوری با خود مزایا و معایبی دارد. مهم نحوه ی استفاده از آن فناوری می باشد. تا همین چند سال پیش در خصوص فضای مجازی ، نقدهای جدی بر آن وارد می شد که کماکان ادامه دارد.اما تعداد کسب و کارهایی که با استفاده از پتانسیل فضای مجازی توانسته اند خود را مطرح کنند در مقابل تبعات منفی آن ناچیز است. کما اینکه در دوران پاندامی کرونا ، بسیاری از فعالیت ها چون آموزش ، خرید و فروش ، ارتباط با اعضای خانواده از طریق فضای مجازی صورت می گیرد.
در خصوص دیپ فیک هم میتوان همین نگاه را داشت . در کنار تمام آثار مخرب ، دیپ فیک‌های صدا می‌توانند وقتی شخصی از دست رفته، صدای او را برگرداند. فیلم‌های دیپ‌فیک می‌توانند گالری‌ها و موزه‌ها را زنده کنند. موزه «سالوادور دالی» دیپ فیکی از این نقاش سورئالیست دارد که خود را معرفی و حتی با بازدیدکنندگان عکس سفلی هم می‌گیرد. می توان به این نتیجه رسید که هر فناوری در سالهای اول ظهور و عدم آشنایی مردم با آن ، می تواند مخرب باشد اما گذر زمان و یادگیری عموم مردم ، میتواند از اثرات مخرب آن بکاهد.

بدون دیدگاه
اشتراک گذاری
اشتراک‌گذاری
با استفاده از روش‌های زیر می‌توانید این صفحه را با دوستان خود به اشتراک بگذارید.