روزنامه اعتماد
1403/09/06
ديپفيك: واقعيتي كه ديگر واقعي نيست
شايد ويدئوها و فايلهاي صوتي جعلي را در شبكههاي اجتماعي ديده باشيد؛ ويدئوهايي كه در آن افراد معروف حرفهايي ميزنند كه هرگز نگفتهاند يا كارهايي انجام ميدهند كه در واقعيت اتفاق نيفتاده است. اينها نمونههايي از فناوري «ديپفيك» (Deepfake) هستند. اما ديپفيك فقط ابزاري براي سرگرمي يا انتشار اخبار جعلي نيست؛ هكرها از اين فناوري براي اجراي حملات سايبري پيچيده استفاده ميكنند.ديپفيك نوعي فناوري مبتني بر هوش مصنوعي است كه ميتواند ويدئوها، تصاوير و فايلهاي صوتي جعلي ايجاد كند. اين فناوري با استفاده از الگوريتمهاي يادگيري عميق (Deep Learning) چهرهها و صداها را بهطور دقيق تقليد ميكند. نتيجه آن، محتوايي است كه تشخيص جعلي بودن آن بسيار دشوار است.
روشهاي استفاده از ديپفيك
در حملات سايبري
هكرها ميتوانند از ديپفيك به روشهاي مختلفي براي فريب افراد و سازمانها استفاده كنند. در ادامه برخي از رايجترين روشها را بررسي ميكنيم.
۱- كلاهبرداري مالي
هكرها ميتوانند از ديپفيك صوتي براي تقليد صداي مديران يا افراد مهم در يك سازمان استفاده كنند. آنها با تماس گرفتن با كارمندان و درخواست انتقال پول، مبالغ كلاني را به حسابهاي خود منتقل ميكنند.
۲- تخريب اعتبار افراد
با ساخت ويدئوهاي جعلي، هكرها ميتوانند اعتبار و آبروي افراد را خدشهدار كنند. اين نوع حمله ميتواند براي انتقامجويي، باجگيري يا فشار بر افراد مشهور و سياستمداران استفاده شود.
۳- حملات فيشينگ پيشرفته
تصور كنيد يك ويدئو از رييس يا همكار شما برايتان ارسال شود كه در آن از شما ميخواهد يك فايل را دانلود كنيد يا اطلاعاتي حساس را در اختيار او قرار دهيد. اين حمله ميتواند اعتماد شما را جلب كرده و شما را به دام بيندازد.
۴- ديپفيك در شبكههاي اجتماعي
هكرها ميتوانند از تصاوير و ويدئوهاي جعلي براي ساخت حسابهاي كاربري تقلبي استفاده كنند. اين حسابها ممكن است به دوستان و خانواده شما پيام بدهند و اطلاعات حساس شما را سرقت كنند.
اما بيايید ببينيم ديپفيك چگونه ساخته ميشود؟
فرآيند ساخت ديپفيك با استفاده از الگوريتمهاي هوش مصنوعي و يادگيري عميق انجام ميشود. اين فرآيند معمولا شامل مراحل زيراست:
جمعآوري دادهها: ابتدا تصاوير و ويدئوهاي متعددي از فرد مورد نظر جمعآوري ميشود.
آموزش الگوريتم: الگوريتم هوش مصنوعي با استفاده از اين دادهها، چهره يا صداي فرد را ياد ميگيرد.
ايجاد محتواي جعلي: الگوريتم، محتواي جديدي را توليد ميكند كه به نظر واقعي ميآيد.
چگونه ديپفيك را تشخيص دهيم؟
تشخيص محتواي ديپفيك به دليل پيشرفت تكنولوژي روزبهروز سختتر ميشود، اما هنوز هم ميتوان با دقت به برخي نشانهها، اين نوع محتواها را شناسايي كرد:
جزييات صورت: به حركات غيرطبيعي صورت يا چشمها توجه كنيد. معمولا در ويدئوهاي ديپفيك، حركات چشم غيرعادي است.
كيفيت صدا: در فايلهاي صوتي، ممكن است لحن يا تن صدا در برخي قسمتها تغيير كند.
تأخير در لبخواني: اگر ويدئو شامل صحبت كردن باشد، حركات لبها را با صداي ويدئو مطابقت دهيد.
نورپردازي غيرعادي: تفاوت در نورپردازي بخشهاي مختلف چهره ميتواند نشانهاي از جعلي بودن ويدئو باشد.
راهكارهاي مقابله با حملات ديپفيك
هميشه شك كنيد: هر ويدئو يا فايل صوتي مشكوكي را به سرعت باور نكنيد.
منابع را بررسي كنيد: اگر ويدئو يا پيامي از طرف يك شخص مهم دريافت كرديد، از روش ديگري (مثلا تماس تلفني) صحت آن را تأييد كنيد.
از نرمافزارهاي تشخيص ديپفيك استفاده كنيد: برخي از ابزارها و نرمافزارهاي جديد ميتوانند محتواي جعلي را تشخيص دهند.
ديپفيك يكي از پيچيدهترين تهديدات سايبري است كه با سرعت زيادي در حال گسترش است. اين فناوري نشان ميدهد كه در دنياي ديجيتال، ديگر نميتوان به چشمها و گوشهايمان هم اعتماد كرد! پس آگاهي و هوشياري، بهترين سلاح ما در برابر اين حملات پيچيده هستند.
پربازدیدترینهای روزنامه ها
سایر اخبار این روزنامه
«آگاهانه» سكوت كردهايم
بسيجي؛ بنبست شكن و نقطه مقابل تحقير ملي
روایتی از امید تازه
به بحران «سلامت روان و سلامت اجتماعي» رسيدهايم
9 ماه سرنوشتساز تهران در مسير توافق يا بازگشت ماشه؟
ايران« ACUMER » را جايگزين سوييفت كرد
تصميم در فضاي آشوب
از حكومت اسلامي تا جمهوري اسلامي (۱۳)
پس كي «صال» ميكنن؟
منع خشونت عليه زنان و لايحهاي 10 ساله
شايد از خشكسالي در سيستان و بلوچستان بتوانيم...
سرحديخوان هوشمند و خلاق
تبيين رويكرد كنوني اروپا در قبال ايران
ديپفيك: واقعيتي كه ديگر واقعي نيست
تصميم در فضاي آشوب
از حكومت اسلامي تا جمهوري اسلامي (۱۳)
منع خشونت عليه زنان و لايحهاي 10 ساله
شايد از خشكسالي در سيستان و بلوچستان بتوانيم...