دیپفیکها، ویدیوها یا فایلهای صوتی جعلی هستند که با استفاده از هوش مصنوعی ساخته میشوند تا به نظر برسد فردی کاری انجام داده یا چیزی گفته که واقعیت ندارد.
فرض کنید ویدیویی از یک میلیاردر مشهور فناوری ببینید که پروژهای خاص در حوزه ارزهای دیجیتال را معرفی میکند که پیشنهاد خرید یک سکه و دریافت یک سکه رایگان را دارد، یا صدای او را بشنوید که یک فرصت «ایردراپ» را تبلیغ میکند. به نظر قانعکننده میآید، درست است؟ اما اگر همه اینها جعلی باشد، چه؟
این همان واقعیت دیپفیکهاست؛ ویدیوها و فایلهای صوتی که با استفاده از هوش مصنوعی طوری طراحی میشوند که انگار کسی چیزی گفته یا کاری کرده که هرگز اتفاق نیفتاده است.
برخی دیپفیکها صرفاً برای سرگرمی ساخته میشوند، اما برخی دیگر میتوانند برای کلاهبرداری، انتشار اطلاعات نادرست یا حتی دستکاری افکار عمومی به کار گرفته شوند. پلیس فدرال استرالیا اعلام کرده که کلاهبرداران از دیپفیکها و تاکتیک “خوککشی” به عنوان روشهای اصلی برای فریب قربانیان در این کشور استفاده میکنند.
خبر خوب این است که روشهایی برای تشخیص این فریبها وجود دارد و با کمی دقت و آگاهی میتوانید از فریب خوردن جلوگیری کنید.
حالا ببینیم چگونه میتوانید دیپفیکها را قبل از اینکه شما را فریب دهند، شناسایی کنید.
دیپفیک چیست؟
دیپفیک به ویدیوها یا فایلهای صوتیای گفته میشود که بهطور دیجیتالی تغییر داده شدهاند و با استفاده از فناوری پیشرفته، ظاهر یا صدای شخص را دستکاری میکنند. این ویدیوها یا صداها طوری طراحی شدهاند که به نظر برسد فردی حرفی زده یا کاری انجام داده که در واقع رخ نداده است. اما چطور چنین محتوایی ساخته میشود؟
ابزارهای تولید دیپفیک این امکان را فراهم کردهاند که هر کسی بتواند به راحتی ویدیوها یا فایلهای صوتی جعلی تولید کند. برخی از این دیپفیکها بهسرعت در فضای مجازی منتشر میشوند. اگرچه برخی از آنها جنبه سرگرمی دارند، اما تأثیرات منفی آنها بر جامعه غیرقابلانکار است.
برای مثال، ویدیوهای دیپفیک معروفی وجود داشته که در آنها چهرههای مشهور مانند ایلان ماسک ظاهراً در حال تبلیغ طرحهای جعلی ارزهای دیجیتال هستند. این ویدیوهای جعلی بهراحتی اطلاعات نادرست را گسترش داده، باعث سردرگمی میشوند و حتی به اعتبار افراد آسیب میزنند، زیرا مردم را بهسادگی فریب میدهند تا در پروژههای کلاهبرداری سرمایهگذاری کنند.
چالش بزرگ این است که تکنیکهای دیپفیک بهقدری پیشرفته شدهاند که تشخیص تفاوت بین آنها و محتوای واقعی بسیار سخت شده است.
دیپفیکها چگونه عمل میکنند؟ دیپفیکها با کمک هوش مصنوعی قدرتمند، از دادههای واقعی آموزش میبینند و سپس محتوایی تولید میکنند که ظاهری واقعی دارد اما در حقیقت جعلی است. در ادامه مراحل ساخت آنها بهصورت ساده توضیح داده شده است:
جمعآوری دادهها: ابتدا فناوری به نمونههای زیادی از چهره یا صدای فرد نیاز دارد تا از دادههای واقعی یاد بگیرد. این دادهها میتوانند شامل عکسها، ویدیوها یا فایلهای صوتی باشند.
آموزش هوش مصنوعی: دادههای جمعآوریشده، به هوش مصنوعی این امکان را میدهند که یاد بگیرد فرد چگونه به نظر میرسد و صدای او چگونه است. این فرآیند مشابه تقلید از کسی با تمرین زیاد است.
تولید محتوای جعلی: پس از آموزش کافی، هوش مصنوعی محتوای جدیدی تولید میکند. برای ویدیو، چهرهها تغییر داده میشوند یا حالات چهره دستکاری میشود تا ویدیو واقعی به نظر برسد. در فایلهای صوتی، صدای فرد تقلید میشود تا جملاتی گفته شود که هرگز بیان نشده است.
تنظیمات نهایی: در این مرحله، هوش مصنوعی ممکن است تغییرات کوچک و دقیقی اعمال کند تا محتوای جعلی حتی بیشتر شبیه به واقعیت شود. این کار شامل تنظیم دقیق جزئیات است تا ویدیو یا صوت تا حد امکان واقعی به نظر برسد.
حالا که با نحوه ساخت دیپفیکها آشنا شدید، زمان آن رسیده است که یاد بگیرید چگونه خود را در برابر آنها محافظت کنید.
چگونه ویدیوهای دیپفیک را شناسایی کنیم؟
برای شناسایی ویدیوهای دیپفیک، به این نشانههای هشداردهنده توجه کنید تا بتوانید تشخیص دهید که آیا ویدیو واقعی است یا جعلی:
به دنبال عدم تطابقها بگردید: دیپفیکها ممکن است در نمایش حالات طبیعی چهره مشکل داشته باشند. اگر ویدیو دارای حالات چهره عجیب یا حرکات لب ناهماهنگ است، احتمالاً با هوش مصنوعی ساخته شده است.
چشمها را بررسی کنید: به دقت به چشمها نگاه کنید. دیپفیکها معمولاً با حرکات چشم یا انعکاسها دچار مشکل هستند که ممکن است غیرطبیعی یا ناهماهنگ به نظر برسد.
نورپردازی و سایهها را بررسی کنید: اگر نورپردازی صورت با نور سایر قسمتهای صحنه تطابق ندارد، ممکن است ویدیو جعلی باشد.
به صدا توجه کنید: اگر فایل صوتی دیپفیک است، به مکثهای غیرطبیعی، تنهای رباتیک یا ناهماهنگی در احساسات صدا دقت کنید.
منبع را بررسی کنید: اگر ویدیو از حساب یا منبع مشکوک یا غیرقابل اعتماد آمده باشد، احتمالاً جعلی است.
از ابزارهای شناسایی استفاده کنید: ابزارهایی وجود دارند که میتوانند ویدیوها را برای نشانههای دستکاری بررسی کنند. هرچند این ابزارها همیشه دقیق نیستند، اما میتوانند قدم اول مفیدی باشند.
با اطلاعات معتبر مقایسه کنید: به دنبال منابع یا خبرگزاریهای معتبر باشید تا تأیید کنید که محتوا واقعی است یا به عنوان جعلی شناخته شده است.
چگونه صدای دیپفیک را شناسایی کنیم
فرض کنید ویدیویی از طریق تلگرام دریافت کردهاید که صدای فردی شبیه به یک تأثیرگذار مشهور در حوزه ارزهای دیجیتال را دارد و او ادعا میکند که به تازگی یک سکه جدید و انقلابی را معرفی کرده است. برای شناسایی اینکه آیا این صدا واقعی است یا دیپفیک، میتوانید از روشهای زیر استفاده کنید:
به تنهای رباتیک توجه کنید: دیپفیکها معمولاً کیفیتی غیرطبیعی و مکانیکی دارند. اگر صدای فرد نوسانات طبیعی را ندارد و به طور غیرعادی نرم است، این میتواند نشانهای از دستکاری مصنوعی باشد.
الگوهای گفتار را بررسی کنید: بررسی کنید که آیا گفتار به طور طبیعی جریان دارد یا خیر. اگر صدا به طور غیرطبیعی مکث کند، الگوهای گفتار ناهماهنگ باشد یا لکنتهای غیرطبیعی وجود داشته باشد، ممکن است ضبط واقعی نباشد.
احساسات را بررسی کنید: صداهای واقعی معمولاً احساسات متناسب با موقعیت را منتقل میکنند. اگر فرد به طور غیرمعمول هیجانزده یا بیاحساس به نظر برسد، ممکن است دیپفیک باشد.
با ضبطهای شناختهشده مقایسه کنید: اگر ضبطهای دیگری از آن فرد دارید، آنها را با صدای مورد نظر مقایسه کنید. تفاوتها در نحوه صحبت کردن یا تلفظ کلمات میتواند به شناسایی جعلی بودن کمک کند.
به نویز پسزمینه توجه کنید: ضبطهای واقعی معمولاً شامل صداهای پسزمینه مانند همهمه دفتر یا گفتگوهای دوردست هستند. اگر صدا بسیار واضح است یا این جزئیات را ندارد، این میتواند یک علامت هشداردهنده باشد.
از نرمافزارهای شناسایی استفاده کنید: ابزارهایی وجود دارند که میتوانند صداها را برای نشانههای دستکاری تحلیل کنند. استفاده از این ابزارها میتواند یک لایه اضافی از تأیید را ارائه دهد.
ابزارهای شناسایی دیپفیک
طبق تحقیقات Bitget، خسارتهای ناشی از کلاهبرداریهای دیپفیک در حوزه ارزهای دیجیتال در سال 2024 ممکن است از 25 میلیارد دلار فراتر رود، که بیش از دو برابر سال گذشته است. گزارش ژوئن این شرکت نشاندهنده افزایش 245 درصدی موارد دیپفیک در سراسر جهان، براساس دادههای Sumsub، میباشد. بنابراین، تشخیص دیپفیکها و محافظت در برابر این کلاهبرداریها بیش از هر زمان دیگری ضروری است.
چندین ابزار برای کمک به شناسایی دیپفیکها وجود دارد:
افزونههای مرورگر: برخی افزونهها به مرورگر شما اضافه میشوند و هنگام مرور اینترنت، محتوای مشکوک و جعلی را شناسایی میکنند.
ابزارهای تجزیه و تحلیل ویدیو: این ابزارها ویدیوها را برای یافتن نشانههای دستکاری، مانند تفاوت پیکسلها یا اطلاعات تغییریافته، اسکن میکنند.
اپلیکیشنهای شناسایی دیپفیک: این برنامهها تصاویر و ویدیوها را برای تشخیص دستکاری بررسی میکنند و معمولاً به تغییرات نورپردازی یا حالات چهره توجه دارند.
جستجوی معکوس تصویر: ابزارهایی مانند جستجوی معکوس تصویر گوگل به شما کمک میکنند تا منبع اصلی یک تصویر را بیابید و تشخیص دهید که آیا تغییر داده شده است یا خیر.
نرمافزار تحلیل صدا: این نرمافزارها ضبطهای صوتی را بررسی کرده و نشانههایی از مصنوعی بودن صدا، مانند تنهای غیرطبیعی، را شناسایی میکنند.
تاریخچه دیپفیکها
حال که با مفهوم دیپفیک و روشهای شناسایی ویدیوها و فایلهای صوتی جعلی آشنا شدهاید، ممکن است بخواهید بدانید چگونه این تکنولوژی به نقطهای رسید که ویدیوهایی ایجاد کند که به ظاهر واقعی اما در اصل جعلی هستند. در ادامه نگاهی کوتاه به تاریخچه دیپفیکها داریم:
آغاز دیپفیکها
دهه 1990: اولین تلاشها برای تغییر چهرهها در ویدیوها با کمک کامپیوتر آغاز شد.
1997: برنامهای به نام “Video Rewrite” طراحی شد که میتوانست چهره فردی را در ویدیو با صدای دیگری هماهنگ کند.
رشد و تکامل دیپفیکها
2017: با انتشار ابزارهای متنباز دیپفیک مانند TensorFlow و PyTorch و شکلگیری زیرمجموعهای در Reddit، اصطلاح “دیپفیک” بهطور گستردهای شناخته شد.
2018: با بهبود کیفیت دیپفیکها و افزایش خطرات سوءاستفاده از آنها، این تکنولوژی به یک مسئله نگرانکننده تبدیل شد.
2019: از دیپفیکها در فعالیتهای مخرب، از جمله انتشار اطلاعات نادرست سیاسی و کلاهبرداریهای مالی، استفاده شد.
مقابله با دیپفیکها
2020 تا کنون: همزمان با پیشرفت تکنولوژی، تلاشها برای شناسایی ویدیوها و صداهای جعلی نیز افزایش یافته است. محققان در حال توسعه ابزارهایی هستند که میتوانند ناهماهنگیهایی را که با چشم غیرمسلح قابل مشاهده نیستند، بررسی و تحلیل کنند تا به تشخیص محتواهای جعلی کمک کنند.
نگرانیهای اخلاقی در مورد دیپفیکها
نباید نگرانیهای اخلاقی مهمی که با دیپفیکها همراه است، نادیده گرفت. این فناوری چالشهای بزرگی درباره صداقت و اعتماد ایجاد میکند، زیرا قادر است محتوای صوتی و تصویری جعلی اما کاملاً واقعی تولید کند.
برای مثال، دیپفیکها میتوانند به انتشار اطلاعات گمراهکننده، فریب مردم به باور حقیقتی دروغین یا حتی تخریب اعتبار افراد از طریق ایجاد جنجالهای ساختگی کمک کنند.
علاوه بر این، دیپفیکها ممکن است حریم خصوصی افراد را نقض کنند، با استفاده از صداها یا چهرههای آنها در شرایط نادرست یا نامناسب. این فناوری شبیه یک ابرقدرت است که میتواند برای اهداف مثبت یا منفی استفاده شود.
با توجه به پیشرفت روزافزون دیپفیکها، ضروری است که شرکتهای فناوری، دولتها و افراد با همکاری یکدیگر راهحلهایی برای جلوگیری از سوءاستفاده از این فناوری یافته و امنیت عمومی را تضمین کنند.
آینده فناوری دیپفیک
فناوری دیپفیک به نظر میرسد که هم فرصتهای هیجانانگیز و هم چالشهای بزرگی را به همراه دارد. این فناوری قادر است نحوه تولید و مصرف رسانهها را به طور کامل تغییر دهد. میتوان از آن برای خلق تجربیات واقعیت مجازی واقعی و جذاب، احیای بازیگران درگذشته، یا خلق شخصیتهای جدیدی که پیشتر غیرممکن به نظر میرسیدند، استفاده کرد.
با این حال، جنبههای منفی نیز وجود دارد. دیپفیکها میتوانند به انتشار اطلاعات نادرست یا تولید شواهد جعلی به طرز متقاعدکنندهای کمک کنند. برای بهرهبرداری از پتانسیلهای مثبت دیپفیکها و در عین حال محدود کردن استفادههای مضر آنها، رعایت دقیق دستورالعملهای اخلاقی ضروری است.
علاوه بر این، استفاده از فناوری بلاکچین برای ایجاد رکوردهای شفاف و غیرقابل تغییر از منبع و تغییرات رسانهها میتواند مفید واقع شود. این روش به همراه اقداماتی همچون “قانون حفاظت از منبع محتوا و صحت از رسانههای ویرایش شده و دیپفیک” میتواند به تشخیص تفاوت بین محتوای واقعی و دستکاری شده کمک کند. یافتن تعادل مناسب بین نوآوری و احتیاط، به ویژه با پیشرفت فناوری، از اهمیت ویژهای برخوردار خواهد بود.






