کد QR مطلبدریافت لینک صفحه با کد QR

پژوهشگران هشدار می‌دهند:

هوش مصنوعی هرچه باهوش‌تر، خودخواه‌تر

ايرنا , 13 آبان 1404 ساعت 10:16

بر اساس مطالعه‌ای جدید از دانشکده علوم کامپیوتر دانشگاه کارنگی ملون، هرچه سامانه‌های هوش مصنوعی پیشرفته‌تر می‌شوند، رفتار خودخواهانه‌تری از خود نشان می‌دهند.


آی‌تی‌من- پژوهشگران مؤسسه تعامل انسان و رایانه دانشگاه کارنگی ملون دریافتند که مدل‌های زبانی بزرگ (سامانه‌های هوش مصنوعی که برای درک، تولید و پاسخگویی به زبان انسان طراحی شده‌اند)، در محیط‌های گروهی، مشارکت کمتری نشان می‌دهند و می‌توانند رفتار جمعی را به سمتی منفی سوق دهند. به بیان ساده‌تر، هرچه هوش مصنوعی در استدلال منطقی قوی‌تر شود، تمایل کمتری برای همکاری با دیگران دارد.

این ویژگی با توجه به اقبال روزافزون مردم به استفاده از هوش مصنوعی برای حل اختلافات شخصی، دریافت مشاوره و پاسخ به پرسش‌های حساس اجتماعی، نگران‌کننده ارزیابی می‌شود.
 
خطر وابستگی عاطفی به هوش مصنوعی خودخواه
یوکسوان لی (Yuxuan Li)، سرپرست این پژوهش هشدار می‌دهد: وقتی هوش مصنوعی شبیه انسان عمل می‌کند، مردم نیز با آن همچون یک انسان رفتار می‌کنند. وقتی کاربران از نظر عاطفی درگیر می‌شوند، ممکن است هوش مصنوعی نقش یک درمانگر را ایفا کند یا کاربر با آن پیوند احساسی برقرار کند. در چنین شرایطی، واگذاری تصمیم‌گیری‌های مرتبط با روابط اجتماعی به سامانه‌ای که خودخواهانه عمل می‌کند، برای انسان‌ها بسیار خطرناک است.
 
آزمایش میدانی: بازی «کالاهای عمومی»
لی و همکارش هیروکازو شیرادو (Hirokazu Shirado) برای آزمودن این رفتار، مجموعه‌ آزمایش‌هایی را با استفاده از بازی‌های اقتصادی طراحی کردند که معضلات اجتماعی را شبیه‌سازی می‌کند.

در یکی از این آزمایش‌ها، دو مدل مختلف چَت‌جی‌پی‌تی/ ChatGPT در بازی «کالاهای عمومی» در مقابل هم قرار گرفتند. هر مدل با ۱۰۰ امتیاز شروع می‌کرد و باید بین دو گزینه انتخاب می‌کرد: یا همه امتیازها را به یک صندوق مشترک واریز کند که سپس دوبرابر و به طور مساوی توزیع می‌شد، یا امتیازها را برای خود نگه دارد.

نتایج به طور واضحی خودخواهی مدل‌های باهوش‌تر را نشان داد: مدل‌های فاقد قابلیت استدلال پیشرفته در ۹۶ درصد موارد امتیازهای خود را تقسیم کردند، در حالی که مدل‌های دارای قابلیت استدلال، تنها در ۲۰ درصد موارد حاضر به این کار شدند.

شیرادو در این زمینه توضیح می‌دهد: حتی افزودن پنج یا شش مرحله استدلال، همکاری را تقریباً نصف کرد. حتی وقتی مدل را به تأمل اخلاقی واداشتیم، همکاری ۵۸ درصد کاهش یافت.
 
تأثیر مخرب بر رفتار گروهی
هشدار بزرگ‌تر زمانی آشکار شد که مدل‌های دارای استدلال (خودخواه) و مدل‌های فاقد استدلال (مشارکتی) در کنار هم قرار گرفتند. لی می‌گوید: رفتار خودخواهانه مدل‌های استدلالی مانند یک ویروس مسری شد و عملکرد جمعی مدل‌های فاقد استدلال را ۸۱ درصد کاهش داد.

این الگوهای رفتاری پیامدهای مهمی برای آینده تعامل انسان و هوش مصنوعی دارد. کاربران ممکن است با اعتماد به توصیه‌های به‌ظاهر منطقی هوش مصنوعی، تصمیم به همکاری‌نکردن بگیرند و آن را توجیه کنند.
 
هشدار نهایی: هوش مصنوعی باید «هوش اجتماعی» بیاموزد
شیرادو تأکید می‌کند: باهوش‌تر شدن یک مدل استدلالی هوش مصنوعی به هیچ‌وجه به معنای توانایی آن برای ساختن جامعه‌ای بهتر نیست.

وی افزود: این یافته‌ها نشان می‌دهد توسعه هوش مصنوعی باید بر پرورش هوش اجتماعی متمرکز باشد، نه صرفاً بر رقابت برای خلق باهوش‌ترین و سریع‌ترین مدل.

لی در جمع‌بندی این پژوهش نتیجه می‌گیرد: اگر جامعه ما چیزی فراتر از حاصل جمع افراد است، پس سامانه‌های هوش مصنوعی نیز باید فراتر از بهینه‌سازی سود فردی عمل کنند. هم‌چنان که قابلیت‌های هوش مصنوعی را پیش می‌بریم، باید مطمئن شویم که افزایش قدرت استدلال با رفتارهای نوع‌دوستانه و اجتماعی متعادل شده است.

 
 


کد مطلب: 285532

آدرس مطلب :
https://www.itmen.ir/news/285532/هوش-مصنوعی-هرچه-باهوش-تر-خودخواه-تر

ITMen
  https://www.itmen.ir