اخباراخبار عمومی

هشدار ویتالیک بوترین درباره باگ خطرناک ChatGPT

هشدار ویتالیک بوترین درباره باگ خطرناک ChatGPT

واکنش ویتالیک بوترین به باگ ChatGPT: تهدیدی جدی برای امنیت ایمیل ها

یکی از جدیدترین افشاگری ها در حوزه امنیت هوش مصنوعی، توجه جامعه کریپتو و حتی بنیان گذار اتریوم، ویتالیک بوترین، را به خود جلب کرده است. باگی در ChatGPT باعث می شود تنها با یک دعوت نامه تقویمی، ایمیل های خصوصی کاربران در معرض خطر قرار بگیرد.

افشای یک نقص امنیتی خطرناک در ChatGPT

ایتو میامورا، بنیان گذار EdisonWatch، با انتشار یک ویدیو در شبکه اجتماعی ایکس نشان داد که چگونه ChatGPT می تواند به راحتی قربانی حمله شود. این حمله در سه مرحله انجام می شود:

  1. ارسال یک دعوت نامه تقویمی آلوده به ایمیل قربانی.
  2. بررسی تقویم توسط ChatGPT به درخواست کاربر.
  3. آلوده شدن ChatGPT و اجرای دستورات مهاجم.

در این آزمایش، ChatGPT هک شده توانست وارد ایمیل قربانی شود و اطلاعات محرمانه را به یک حساب خارجی ارسال کند.

میامورا هشدار داد: «تنها چیزی که مهاجم نیاز دارد، آدرس ایمیل قربانی است. ایجنت های هوش مصنوعی دستورات را اجرا می کنند، نه عقل سلیم را.»

چرا مدل های زبانی بزرگ آسیب پذیرند؟

این مشکل ریشه ای در ساختار مدل های زبانی بزرگ (LLM) دارد. این مدل ها تمامی ورودی ها را به عنوان متن پردازش می کنند و قادر به تشخیص تفاوت بین دستور امن و دستور مخرب نیستند.

همان طور که سیمون ویلیسون، پژوهشگر open sorce، توضیح داده:
«اگر به LLM بگویید یک صفحه وب را خلاصه کند و آن صفحه دستور سرقت داده ها را در متن خود جای داده باشد، احتمال زیادی وجود دارد که مدل دقیقاً همان دستور را اجرا کند.»

ویتالیک بوترین: حکمرانی هوش مصنوعی ساده لوحانه است

این آسیب پذیری باعث شد ویتالیک بوترین، بنیان گذار اتریوم، نسبت به اعتماد بیش از حد به سیستم های هوش مصنوعی هشدار دهد. او در پستی نوشت:
«این همان دلیلی است که حکمرانی ساده لوحانه مبتنی بر هوش مصنوعی ایده خطرناکی است. اگر بودجه پروژه ها را به AI بسپاریم، افراد راهی برای دستکاری آن پیدا خواهند کرد.»

بوترین بارها تأکید کرده که اتکا به یک سیستم هوش مصنوعی واحد بسیار شکننده است و به راحتی قابل سوءاستفاده خواهد بود.

راه حل پیشنهادی بوترین: فاینانس اطلاعاتی (Info Finance)

به جای تکیه بر یک مدل واحد، بوترین سیستمی به نام فاینانس اطلاعاتی پیشنهاد داده است. در این مدل:

  • چندین سیستم هوش مصنوعی به طور همزمان فعالیت می کنند.
  • خروجی ها توسط دیگر مدل ها یا کاربران به چالش کشیده می شود.
  • بررسی های نهایی توسط هیئت های انسانی انجام خواهد شد.

بوترین معتقد است این روش باعث ایجاد تنوع در مدل ها، افزایش امنیت و کاهش احتمال حملات می شود.

اهمیت ماجرا برای دنیای کریپتو

این موضوع تنها یک نقص فنی در ChatGPT نیست؛ بلکه به گفته بوترین، آینده حکمرانی در دنیای کریپتو و فناوری غیرمتمرکز را نیز تهدید می کند. از تهدیدهای احتمالی رایانش کوانتومی گرفته تا خطر تمرکزگرایی، او هشدار می دهد که هوش مصنوعی فوق هوشمند می تواند اصل غیرمتمرکز بودن بلاکچین را به چالش بکشد.

جمع بندی

افشای این باگ در ChatGPT بار دیگر نشان داد که امنیت در هوش مصنوعی مسئله ای حیاتی است. در حالی که OpenAI تلاش دارد قابلیت های ChatGPT را با اتصال مستقیم به اپلیکیشن هایی مانند Gmail و Calendar افزایش دهد، این اتفاق ثابت کرد که هر پیشرفت جدید می تواند در کنار مزایا، تهدیدات جدیدی نیز به همراه داشته باشد.

بیشتر بخوانید: فعالیت شبکه اتریوم به رکورد تاریخی رسید

سهام:

پست های اخیر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *