روزنامه خراسان
1402/01/17
هوش مصنوعی، چرنوبیلی تازه
در تاریخ ۱۴ مارس ۲۰۲۳ شرکت Open AI در سانفرانسیسکو که مایکروسافت سرمایهگذار عمده آن است، یک سیستم هوش مصنوعی به نام GPT4 را منتشر کرد. در ۲۲ مارس در گزارشی که توسط گروه برجستهای از پژوهشگران مایکروسافت منتشر شد، ادعا شد GPT4 جرقههای «هوش مصنوعی عمومی» را نشان میدهد. هوش عمومی مصنوعی یا AGI طیف کاملی از وظایفی است که ذهن انسان آنها را انجام میدهد یا از آن فراتر میرود. یک هفته بعد انستیتو «آینده زندگی»، یک موسسه غیرانتفاعی فعال در حوزه فناوری نامهای سرگشاده منتشر کرد که در آن خواستار توقف آزمایشهای هوش مصنوعی شده بود. این نامه توسط چهرههای شناختهشدهای مانند «ایلان ماسک» مدیر عامل تسلا، «استیو وزنیاک» بنیان گذار اپل و «یوشوا بنجیو» برنده جایزه تورینگ و همچنین صدها دانشمند برجسته هوش مصنوعی امضا شده بود. توفان رسانهای پس از آن کماکان ادامه دارد. اما این همه سر و صدا برای چیست؟ خطرات بالقوه هوش مصنوعی هر روز تواناییهای شگفتانگیز جدیدی از هوش مصنوعی کشف میشود. جای تعجب نیست که هزاران شرکت بزرگ و کوچک به دنبال راههایی برای کسب درآمد از این عرضه نامحدود اطلاعات رایگان هستند. طبق گفته سایت Open AI سیستم GPT4 در طیف وسیعی از آزمونهای ورودی دانشگاه و تحصیلات تکمیلی از انسانها بیشتر امتیاز میگیرد، میتواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کرده یا پیشنویس سخنرانی یک وزیر را از دیدگاه یک نماینده مجلس از هر حزب سیاسی نقد کند. این سیستم میتواند بسیاری از وظایفی را انجام دهد که مشاغل صدها میلیون نفر را در بر میگیرد. با وجود این متاسفانه این سیستمها به دلیل دچار توهم شدن و نبود آموزش درست، پاسخهای نادرست هم ارائه میدهند. این سیستمها ابزار مناسبی برای اطلاعرسانی نادرست هستند. مثلا برخی از آنها به خودکشیها دامن میزنند یا اطلاعات پزشکی غلطی به کاربر میدهند. خطر هوش مصنوعی بیخ گوش شرکتهای بزرگ به تازگی سامسونگ به کارکنان خود هشدار داده تا در کار با روبات هوش مصنوعی ChatGPT احتیاط کنند. چندی پیش آژانس اطلاعاتی بریتانیا، پلیس اتحادیه اروپا (یوروپل)، شرکت آمازون و حتی OpenAI هم به کاربران توصیه کرده بودند در مکالمات خود با این روبات، از اشتراک هرگونه اطلاعات شخصی و حساس خودداری کنند. در همین زمینه طی 20 روز گذشته، سه مورد نشت اطلاعات از شرکت سامسونگ براثر کار با ChatGPT گزارش شده است. در یکی از این موارد، یکی از کارکنان این شرکت از روبات چت هوش مصنوعی خواسته بود تا خطاهای موجود در کدهای یک تراشه نیمههادی حساس را چک کند. یکی دیگر از مهندسان این شرکت هم از ChatGPT خواست تا کدهایش را بهبود ببخشد. مورد سوم هم کارمندی بود که متن پیادهشده جلسهای محرمانه را در اختیار روبات هوش مصنوعی قرار داد و از این ابزار خواست تا آن را خلاصه کند. اتفاقاتی که باعث لو رفتن اطلاعات سرّی شرکتها شده و ممکن است خسارتهای جبرانناپذیری به بار بیاورد. مسابقه بشر و هوش مصنوعی در حالی که Open AI تلاشهای زیادی انجام داده تا GPT4 به درخواستهای حساس مثل توصیههای پزشکی و آسیب رساندن افراد به خود پاسخ ندهد، اما مشکل اصلی این است که نه Open AI و نه هیچ کس دیگری ایدهای واقعی درباره نحوه عملکرد GPT4 ندارند. فعلا به دلیل وجود دلایل فنی GPT4 در اجرای طرحهای پیچیده محدود است، اما با توجه به سرعت پیشرفت، دشوار است که بگوییم نسخههای آینده آن چنین توانایی نخواهند داشت. همین موضوع منجر به یکی از نگرانیهای اصلی آن نامه سرگشاده میشود: چگونه میتوانیم قدرتمان را بر موجودات قدرتمندتر از خودمان برای همیشه حفظ کنیم؟ ایده اصلی نامه سرگشاده این است که هیچ سیستمی تا زمانی که طراح آن به طور قانعکننده ثابت کند خطر ندارد، نباید منتشر شود. انفجار نیروگاه هستهای چرنوبیل زندگی بسیاری از انسانها را نابود و تلفات و هزینههای زیادی هم بر صنعت هستهای جهانی تحمیل کرد. بشریت چیزهای زیادی برای به دست آوردن از هوش مصنوعی دارد، اما همزمان چیزهای زیادی هم برای باخت در مقابل آن دارد. برگرفته از سایت فرارو
سایر اخبار این روزنامه
فضای باز سیاسی مقدمهای بر مشارکت حداکثری
از تفهیم اتهام تا انکار ترامپ
پکن در نقش میانجی
هوش مصنوعی، چرنوبیلی تازه
فراخوان احیا پس از تراژدی «الکترواستیل»
شورای ششم در آزمون انتخاب دوم
مسکن در حال بلعیدن بودجه خانوار
دستان بسته نمازگزاران در یورش شبانه
«مجید» دوباره یتیم شد
تا که نور حسن (ع) از منزل زهرا(س) سر زد - شد به ماه رمضان جلو هگر آ ن فیض عظیم
5 ماه تا مرگ دارویار
شکار «دزدان طلایی» در مشهد
مرثیهای برای معماری انسانمحور