اخباراخبار عمومی

توقف توسعه هوش مصنوعی برای امنیت بشر

توقف توسعه هوش مصنوعی برای امنیت بشر

ویتالیك بوترین پیشنهاد می دهد که برای ایمنی بشریت، توسعه سخت افزار هوش مصنوعی به طور موقت متوقف شود.

بوترین معتقد است که در مواجهه با هوش مصنوعی فوق هوشمند، محدود کردن منابع محاسباتی جهانی به مدت یک یا دو سال می تواند راهی برای «خرید زمان بیشتر برای بشریت» باشد.

ویتالیک بوترین، بنیان گذار اتریوم، در پستی در تاریخ ۵ ژانویه، پس از پست نوامبر ۲۰۲۳ که درباره ایده «تسریع گرایی دفاعی» یا d/acc بود، مطرح کرد که هوش مصنوعی فوق هوشمند ممکن است تنها در پنج سال آینده ظاهر شود و هیچ تضمینی وجود ندارد که این روند به نتایج مثبت منجر شود.

بوترین معتقد است که «توقف نرم» در سخت افزارهای محاسباتی صنعتی می تواند گزینه ای برای کاهش سرعت توسعه هوش مصنوعی باشد، به گونه ای که توان محاسبات جهانی تا ۹۹ درصد برای مدت یک تا دو سال کاهش یابد تا بشر فرصتی برای آمادگی پیدا کند.

هوش مصنوعی فوق هوشمند، به عنوان مدل های نظری تعریف می شود که از توانایی های فراتر از توانایی های انسان در همه زمینه های تخصص برخوردارند.

در گذشته، بسیاری از رهبران صنعت فناوری و پژوهشگران نگرانی های جدی در رابطه با هوش مصنوعی مطرح کرده اند، به گونه ای که بیش از ۲,۶۰۰ نفر در نامه ای عمومی در مارس ۲۰۲۳ از دولت ها درخواست کردند تا توسعه هوش مصنوعی را متوقف کنند، به دلیل «خطرات عمیق برای جامعه و بشریت».

بوترین اشاره کرد که پست قبلی او که ایده d/acc را مطرح می کرد، صرفاً به درخواست های مبهم برای عدم توسعه هوش مصنوعی پرخطر محدود بود و هدف از ارائه این طرح ها، توجه به شرایطی بود که ریسک هوش مصنوعی به طور قابل توجهی بالا باشد.

با این حال، بوترین تأکید می کند که تنها در صورتی از این طرح حمایت خواهد کرد که متقاعد شود نیاز به اقداماتی قوی تر از قوانین مسئولیت وجود دارد، اقداماتی که شامل امکان شکایت از افرادی باشد که در توسعه یا استفاده از هوش مصنوعی دخیل هستند.

او پیشنهاد می کند که طرح های مربوط به توقف سخت افزار می توانند شامل شناسایی موقعیت تراشه های هوش مصنوعی و نیاز به ثبت آن ها باشند. بوترین پیشنهاد داده که سخت افزارهای هوش مصنوعی مقیاس صنعتی می توانند با یک تراشه خاص تجهیز شوند تا تنها در صورتی به فعالیت خود ادامه دهند که یک مجموعه سه گانه از امضاها از نهادهای بین المللی بزرگ دریافت کنند.

«این امضاها می توانند مستقل از دستگاه باشند (در صورت لزوم حتی می توان الزامات اثبات دانش صفر را از طریق بلاکچین تعریف کرد)، بنابراین این یک رویکرد همه جانبه خواهد بود»، بوترین می نویسد. «هیچ روشی عملی برای تأیید یک دستگاه به صورت جداگانه بدون تأیید همه دستگاه ها وجود ندارد.»

ایده d/acc بوترین به یک رویکرد محتاطانه و کنترل شده برای توسعه فناوری اشاره دارد، رویکردی که با تسریع گرایی مؤثر یا e/acc که بر تغییرات بی حد و مرز تأکید دارد، در تضاد است.

سهام:

پست های اخیر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *