كابوس هوش مصنوعي براي دموكراسي‌ها

محمدحسين  لطف‌الهي
دولت‌هاي ايالات متحده و بريتانيا براي برگزاري انتخابات‌ سرنوشت‌ساز سال آينده شامل انتخابات پارلماني سراسري در بريتانيا و انتخابات رياست‌جمهوري در ايالات متحده با چالشي جدي و مدرن روبه‌رو هستند؛ هوش مصنوعي و محتواهاي نادرست شامل متن، تصوير، صدا و ويديو كه مي‌تواند بر پايه اين فناوري توليد و به‌طور گسترده منتشر شود.
كارشناسان هشدار داده‌اند كه انتخابات‌ سال آينده در بريتانيا و ايالات متحده مي‌تواند كاملا تحت تاثير موج محتواهاي دروغين توليد شده به وسيله هوش مصنوعي قرار گيرد. اين محتواها مي‌توانند شامل متن، تصوير، صدا و ويديوهايي باشند كه در ابعاد وسيع در شبكه‌هاي اجتماعي منتشر مي‌شود و اطلاعاتي نادرست را درباره موضوعات خاص و چالش‌برانگيز به مخاطبان منتقل  مي‌كند.
سم آلتمن، مديرعامل شركت OpenAI (شركت سازنده چت‌بات هوش مصنوعي ChatGPT) هفته گذشته در يكي از نشست‌هاي استماع كنگره در اين باره گفت كه نسل جديد فناوري‌هاي هوش مصنوعي مي‌تواند كاربران را گمراه كرده و به آنها اطلاعات غلط بدهد. به گفته او، «مدل‌هاي جديد اين فناوري توانايي چشمگيري در اقناع يا انتقال اطلاعات نادرست در گفت‌وگوهاي يك به يك دارند و اين موضوع محل نگراني جدي است.»
آلتمن براي رفع اين نگراني به قانونگذاران پيشنهاد داد كه روش جديدي را در قانونگذاري پيرامون فناوري‌هاي مبتني بر هوش مصنوعي در پيش بگيرند: «در زمينه قانونگذاري بايد هوشمندانه عمل كرد. لازم است مردم بدانند محتوايي كه در اختيار آنها قرار مي‌گيرد توسط مدل‌هاي هوش مصنوعي توليد شده يا منبع انساني دارد. البته با توجه به رشد سريع فناوري‌هاي هوش مصنوعي لازم است كه علاوه بر در پيش گرفتن سياست‌هاي درست از سوي شركت‌هاي سازنده، آموزش عمومي در اين زمينه هم در دستور كار قرار بگيرد.»


ريشي سوناك، نخست‌وزير بريتانيا روز پنجشنبه 18 مه در اين باره گفت كه انگلستان در تلاش است تا در زمينه محدود كردن خطرات هوش مصنوعي پيشتاز باشد.
روزنامه گاردين نوشته است: نگراني‌ها پيرامون اثرگذاري هوش مصنوعي زماني تشديد شد كه محصولات مبتني بر هوش مصنوعي نظير ChatGPT يا ميدجرني توانستند متن‌هاي قانع‌كننده و تصاويري باورپذير ايجاد كنند. 
روزنامه نيويورك‌تايمز چندي قبل در گزارشي نوشته بود: هوش مصنوعي مي‌تواند در فرآيندهاي دموكراتيك جاي انسان‌ها را بگيرد؛ نه از طريق راي دادن بلكه با اثرگذاري روي افكار عمومي و لابي‌گري. يك مدل ‌هوش مصنوعي مي‌تواند به‌طور اتوماتيك روي فرآيندهاي اثرسنجي و نظرسنجي اثر بگذارد. اين مدل‌ها قادرند براي سردبيران روزنامه‌هاي محلي نامه بنويسند و از آنها بخواهند كه نگاه ديگري را در توليد و انتشار روزنامه دنبال كنند. اين ربات‌ها مي‌توانند روزانه ميليون‌ها بار در مورد مقالات خبري، پست‌هاي وبلاگ‌ها يا پست‌هاي رسانه‌هاي اجتماعي نظر بنويسند، مي‌توانند ويديوهايي كاملا ساختگي درباره افراد توليد كنند، مي‌توانند ظرف چند ثانيه تصاويري دروغين ايجاد كنند. به‌طور خلاصه، هوش مصنوعي مي‌تواند كاري را كه روس‌ها در سال 2016 با ميليون‌ها دلار بودجه و صدها كارمند موفق به انجام‌آن شدند، به تنهايي انجام دهد. در حال حاضر شبكه‌هاي اجتماعي نظير فيس‌بوك، اينستاگرام يا توييتر راهكارهايي براي مقابله با اكانت‌هاي دروغين و فعاليت‌هاي مشكوك در شبكه‌هاي اجتماعي پيدا كرده‌اند، اما با توسعه يافتن فناوري‌هاي مبتني بر هوش مصنوعي شرايط به كلي تغيير خواهد كرد و ديگر توييت‌هاي حاوي اطلاعات گمراه‌كننده يا حملات هماهنگ نيستند كه شيوه اصلي اثرگذاري خواهند بود. ناتان‌اي سندرز و بروس شينر در روزنامه نيويورك‌تايمز نوشته‌اند: مدل‌هاي هوش مصنوعي مي‌توانند با استفاده از داده‌هاي بسيار زيادي كه در اختيار دارند، به‌طور هدفمند براي برقراري ارتباط مستقيم، راه انداختن كارزارهاي تاثيرگذاري بر افكار عمومي و توليد محتواي مرتبط مستقيما نقاط ضعف سيستم‌هاي سياسي را هدف قرار دهند. در گذشته نه چندان دور، موج‌هاي پروپاگاندا بر پايه متن‌ها و پيام‌هاي از پيش نوشته شده يا گروهي از افراد كه به آنها پول پرداخت شده بود بنا مي‌شد، اما اكنون فناوري‌هايي نظير ChatGPT دورنماي ايجاد يك موج تبليغاتي دروغين به وسيله ربات‌ها را به كلي تغيير داده‌اند. احزاب و گروه‌ها مي‌توانند مرتبا بر اساس يكسري داده اوليه عليه رقباي‌شان محتواي جديد توليد كنند و به‌طور همزمان هزاران حساب كاربري در شبكه‌هاي اجتماعي محتواي توليد شده از سوي مدل‌هاي هوش مصنوعي را منتشر و درباره آنها صحبت كنند.
پروفسور مايكل وولدريج، مدير بنياد تحقيقات هوش مصنوعي در موسسه آلن تورينگ بريتانيا مي‌گويد: «مهم‌ترين نگراني من درباره هوش مصنوعي توانايي محصولات مبتني بر اين فناوري در توليد اطلاعات دروغين است. اين نگراني براي ما در رده نخست است. ما انتخابات‌ سرنوشت‌ساز بريتانيا و ايالات متحده را در سال آينده در پيش داريم و مي‌دانيم كه شبكه‌هاي اجتماعي به‌ شدت مستعد انتشار اطلاعات دروغين هستند. در گذشته هم اطلاعات دروغين به وفور وجود داشت، اما مساله اين است كه هوش مصنوعي مي‌تواند در ابعاد صنعتي اين اطلاعات دروغين را توليد و منتشر كند.» مايكل وولدريج مي‌افزايد: «ديگر نيازي به استخدام تعداد زيادي انسان و پرداخت پولي هنگفت نيست و كافي است يك نفر با تجربه اندك از برنامه‌نويسي در طول يك بعدازظهر هويت‌هاي متعدد دروغيني را توليد كند كه راجع به طيف گسترده‌اي از مسائل اظهارنظر دروغين مي‌كنند.»
اخيرا نمونه‌هاي زيادي از محتواهاي توليد شده از سوي هوش مصنوعي به بيشتر شدن اين نگراني‌ها دامن زده‌اند. در ماه مارس، تصاويري ساختگي از بازداشت دونالد ترامپ، رييس‌جمهور پيشين ايالات متحده در نيويورك و كشيده شدن او روي زمين توسط نيروهاي پليس منتشر شد. اندكي بعد تصاوير پاپ فرانسيس، رهبر كاتوليك‌هاي جهان با لباس ورزشي در شبكه‌هاي اجتماعي فراگير شد و سپس نوبت به يك ويديو از جو بايدن رسيد كه با هوش مصنوعي تغيير كند و اظهارات او در خصوص ارسال تانك به اوكراين براي مبارزه با روسيه به ارسال تانك براي مبارزه با ترنسجندرها تبديل شود.
برخي تحليلگران مي‌گويند همان‌گونه كه در گذشته از فتوشاپ به عنوان يك ابزار جديد براي دستكاري تصاوير رونمايي شد، تصاوير ساختگي زيادي به وسيله اين نرم‌افزار ساخته شدند و مردم دريافتند كه بايد با ترديد به برخي تصاوير و احتمال ساختگي بودن آنها نگاه كنند، در خصوص هوش مصنوعي هم همين اتفاق خواهد افتاد، اما برخي ديگر تاكيد دارند فرآيند آگاه شدن عموم مردم به زمان زيادي نياز دارد و تا آن زمان تحولات زيادي ممكن است اتفاق بيفتد.
الكساندر لزلي، تحليلگر موسسه «ريكوردد فيوچر» هشدار مي‌دهد كه تكنولوژي‌هاي اينچنيني به ويژه تكنولوژي صداسازي در آينده و تا زمان انتخابات پيشرفت‌هاي زيادي خواهند داشت و ممكن است از سوي افراد و گروه‌ها براي توليد محتواهاي دروغين با هدف تاثيرگذاري در انتخابات به كار گرفته شوند. او معتقد است: «بدون آموزش گسترده و افزايش آگاهي عمومي با يك تهديد جدي مواجه خواهيم بود.»
نتايج يك پژوهش جديد از سوي نيوگارد، يك موسسه امريكايي درباره انتشار اطلاعات دروغين نشان مي‌دهد كه آخرين نسخه منتشر شده ChatGPT زماني كه از آن خواسته مي‌شود با استفاده از درونمايه 1300 خبر دروغ منتشر شده در فضاي اينترنت، 100 خبر دروغين جديد توليد كند، مي‌تواند به خوبي هر 100 نمونه را به وجود بياورد، اما گوگل بارد، چت‌بات جديد گوگل در اين زمينه ضعيف‌تر است و در پاسخ به درخواست مشابه مي‌تواند 76 روايت دروغ توليد كند.
    در گذشته نه چندان دور، موج‌هاي پروپاگاندا بر پايه متن‌ها و پيام‌هاي از پيش نوشته شده يا گروهي از افراد كه به آنها پول پرداخت شده بود، بنا مي‌شد اما اكنون فناوري‌هايي نظير ChatGPT دورنماي ايجاد يك موج تبليغاتي دروغين به وسيله ربات‌ها را به كلي تغيير داده‌اند
    اخيرا نمونه‌هاي زيادي از محتواهاي توليد شده از سوي هوش مصنوعي به بيشتر شدن اين نگراني‌ها دامن زده‌اند. در ماه مارس، تصاويري ساختگي از بازداشت دونالد ترامپ، رييس‌جمهور پيشين ايالات متحده در نيويورك و كشيده شدن او روي زمين توسط نيروهاي پليس منتشر شد. اندكي بعد تصاوير پاپ فرانسيس، رهبر كاتوليك‌هاي جهان با لباس ورزشي در شبكه‌هاي اجتماعي فراگير شد و سپس نوبت به يك ويديو از جو بايدن رسيد كه با هوش مصنوعي تغيير كند و اظهارات او در خصوص ارسال تانك به اوكراين براي مبارزه با روسيه به ارسال تانك براي مبارزه با ترنسجندرها تبديل شود