۰
کریستوفر نولان، کارگردان اوپنهایمر:

هوش مصنوعی را نمی‌توان به روش تسلیحات هسته‌ای کنترل کرد

تاریخ انتشار
سه شنبه ۳ مرداد ۱۴۰۲ ساعت ۱۵:۰۶
هوش مصنوعی را نمی‌توان به روش تسلیحات هسته‌ای کنترل کرد
هوش مصنوعی را نمی‌توان به روش تسلیحات هسته‌ای کنترل کرد

آی‌تی‌من- نولان به گاردین گفت: درخواست رابرت اوپنهایمر برای کنترل بین‌المللی سلاح‌های هسته‌ای به نوعی محقق شد، با وجود این، از زمانی که «پدر بمب اتمی» پروژه منهتن را در جنگ جهانی دوم رهبری کرد، این فناوری به شدت گسترش یافته است.

وی افزود: نگاهی به کنترل بین‌المللی سلاح‌های هسته‌ای و احساس اینکه همان اصول را می‌توان در مورد چیزی اعمال کرد که به فرآیندهای صنعتی عظیم نیاز ندارد، کمی‌مشکل است.

نولان گفت: نظارت بین المللی بر سلاح‌های هسته‌ای امکان پذیر است زیرا ساخت سلاح‌های هسته‌ای بسیار دشوار است. اوپنهایمر 2 میلیارد دلار خرج کرد و از هزاران نفر در سراسر آمریکا برای ساخت اولین بمب‌ها استفاده کرد. ساخت تسلیحات هسته‌ای بسیار دشوار است و بنابراین تشخیص زمانی که کشوری این کار را انجام می‌دهد نسبتاً آسان است. من معتقد نیستم که هیچ یک از اینها در مورد هوش مصنوعی صدق کند.

آنتونیو گوترش، دبیر کل سازمان ملل متحد اخیرا گفت که سازمان ملل «مکانی ایده‌آل» برای ایجاد یک استاندارد جهانی و رویکرد به هوش مصنوعی است.

براساس معاهده منع گسترش سلاح‌های هسته‌ای با میانجیگری سازمان ملل، کشورهای دارای سلاح هسته‌ای متعهد هستند که به کشورهای غیرهسته‌ای برای دستیابی یا ساختن چنین فناوری نظامی ‌کمک نکنند.

نولان گفت: اوپنهایمر از کشورها می‌خواست تا «بخشی» از حاکمیت خود را رها کنند و کنترل انرژی هسته‌ای را از طریق سازمان ملل متحد به دست جامعه بین المللی بسپارند. با این حال، سازمان ملل امروز با آنچه در دهه 1950 بود بسیار متفاوت است.

این کارگردان مطرح افزود: شباهت‌های بسیاری بین این فیزیکدان مشهور و متخصصان هوش مصنوعی خواستار مهار توسعه این فناوری وجود دارد.

جفری هینتون، «پدرخوانده هوش مصنوعی»، امسال گوگل را ترک کرد تا با صراحت بیشتری درباره «خطر وجودی» ناشی از هوش مصنوعی پیشرفته صحبت کند. در همین حال ایلان ماسک، مدیر اجرایی تسلا، یکی از هزاران امضاکننده نامه‌ای بود که خواستار توقف ساخت سیستم‌های هوش مصنوعی قدرتمند شده است.

نولان همچنین گفت که هوش مصنوعی حاوی معضلات اخلاقی زیادی است و لزوماً یک مسیر روشن به جلو نیز ندارد.

نولان با بیان اینکه انتخاب بین جلوگیری از توسعه دانش هوش مصنوعی یا واگذاری آن به مالکیت عمومی، انتخابی ناقص است، گفت: فکر می‌کنم برای هر دو رویکرد استدلال‌هایی وجود دارد. من فکر می‌کنم هیچ کدام راه‌حلی رضایت‌بخش نیستند. این مساله  نیاز به کار بسیار و تفکر بیشتری دارد. اما در نهایت مسوولیت پذیری چیزی است که باید در مرکز مباحثات و راه‌حل‌ها باشد.

بر اساس این گزارش، ترس از تأثیر مخرب هوش مصنوعی بر صنعت سینما و تلویزیون، نقش مهمی‌ در اعتصاب بازیگران و نویسندگان داشته است که ‌هالیوود را فلج کرده است. با این حال، اعضای انجمن کارگردانان آمریکا از جمله نولان قرارداد جدیدی با استودیوهای فیلم‌سازی ایالات متحده امضا کرده‌اند که بر اساس آن هوش مصنوعی نمی‌تواند کار کارگردانان را به عهده بگیرد.

نولان گفت: هوش مصنوعی مولد، به عنوان ابزارهایی که می‌توانند متن، تصویر و صدای قانع‌کننده‌ای را از دستورات ساده انسان تولید کنند، مخل خواهد بود، اما در زمینه‌هایی مانند جلوه‌های بصری «فرصت‌های فوق‌العاده‌ای» ایجاد می‌کند.

وی افزود: به اعتقاد من، این ابزار قدرتمندی در آینده خواهد بود. آنچه من سعی کردم در بحث مطرح کنم و به بیان آن ادامه دهم، مفهوم مسوولیت و مسوولیت کارفرما است. تنها کاری که نمی‌توانیم انجام دهیم این است که به مدیریت، کارفرمایان و تولیدکنندگان اجازه دهیم برای فرار از مسوولیت‌های خود از هوش مصنوعی استفاده کنند.
 
برچسب ها :
کد مطلب : ۲۸۱۴۲۲
ارسال نظر
نام شما

آدرس ايميل شما