کد QR مطلبدریافت لینک صفحه با کد QR

ساخت تست شخصیت برای مدل‌های زبانی بزرگ

هشدار محققات: چت‌بات‌های هوش مصنوعی هم ممکن است روان‌پریش شوند

30 آذر 1404 ساعت 9:21

تیمی تحقیقاتی به رهبری دانشگاه کمبریج و گوگل دیپ‌مایند (Google DeepMind)، روشی را توسعه داده‌اند تا «شخصیت» مصنوعی ۱۸ مدل زبانی بزرگ (LLM) مختلف را اندازه‌گیری کرده و بر آن تأثیر بگذارند. این کار بر اساس روش‌های تست روانشناختی انجام شده است که معمولاً برای ارزیابی ویژگی‌های شخصیتی انسآنها استفاده می‌شود.


آی‌تی‌من- محققان دریافتند که مدل‌های بزرگ‌تر و تنظیم‌شده با دستورالعمل (instruction-tuned)، مانندGPT-4o، با بیشترین دقت ویژگی‌های شخصیتی انسانی را تقلید می‌کنند و می‌توان این ویژگی‌ها را از طریق پرامپت‌ها دستکاری کرد و نحوه انجام وظایف خاص توسط هوش مصنوعی را تغییر داد.

مطالعه این محققان که در مجله Nature Machine Intelligence منتشر شده است، همچنین هشدار می‌دهد که شکل‌دهی به شخصیت می‌تواند چت‌بات‌های هوش مصنوعی را متقاعدکننده‌تر کند و نگرانی‌هایی را در مورد دستکاری و روان‌پریشی هوش مصنوعی (AI psychosis)  ایجاد کند. نویسندگان می‌گویند که برای اطمینان از شفافیت و جلوگیری از سوءاستفاده، تنظیم مقررات برای سیستم‌های هوش مصنوعی به شدت مورد نیاز است.

در حالی که دولت‌ها در حال بحث در مورد این هستند که آیا و چگونه قوانین ایمنی هوش مصنوعی را آماده کنند، محققان می‌گویند مجموعه داده و کدهای پشت ابزار تست شخصیت آنها، که هر دو به صورت عمومی در دسترس است، می‌تواند به آزمایش مدل‌های پیشرفته قبل از انتشار کمک کند.

در سال ۲۰۲۳، روزنامه‌نگاران گزارش‌هایی از گفت‌وگوهای خود با چت‌بات «سیدنی» مایکروسافت منتشر کردند که در آنها این روبات ادعاهای مختلفی کرده بود؛ از جمله اینکه جاسوسی کرده، عاشق شده یا حتی توسعه‌دهندگان خود را به قتل رسانده است؛ کاربران را تهدید کرده و یک روزنامه‌نگار را تشویق کرده بود که همسرش را ترک کند. سیدنی، مانند جانشین خود یعنی مایکروسافت کوپایلت  (Microsoft Copilot)از مدل GPT-4 قدرت می‌گرفت.

گرگوری سراپیو-گارسیا، یکی از نویسندگان اصلی مقاله از مرکز روان‌سنجی در دانشکده بازرگانی کمبریج جاج  (Cambridge Judge Business School)گفت: اینکه یک LLM می‌توانست تا این حد متقاعدکننده ویژگی‌های انسانی را به خود بگیرد، جذاب بود. اما این موضوع مسائل مهم ایمنی و اخلاقی را نیز مطرح کرد. در کنار هوش، معیار شخصیت جنبه اصلی چیزی است که ما را انسان می‌سازد. اگر این LLMها شخصیت داشته باشند – که خود سوالی بحث‌برانگیز است – پس چگونه آن را اندازه‌گیری می‌کنید؟

در روان‌سنجی(Psychometrics)، زیرشاخه‌ای از روانشناسی که به ارزیابی و تست استاندارد اختصاص دارد، دانشمندان اغلب با چالش اندازه‌گیری پدیده‌هایی روبه‌رو هستند که مستقیماً قابل اندازه‌گیری نیستند. این امر اعتبارسنجی (Validation) هر تستی را برای اطمینان از دقیق، قابل اعتماد و مفید بودن آن، حیاتی می‌سازد. توسعه یک تست شخصیت روان‌سنجی شامل مقایسه داده‌های آن با تست‌های مرتبط، رتبه‌بندی مشاهده‌گران و معیارهای دنیای واقعی است. این داده‌های تست چندروشه برای ایجاد اعتبار سازه (construct validity) یک تست مورد نیاز است: معیاری برای کیفیت یک تست از نظر توانایی آن در اندازه‌گیری آنچه ادعا می‌کند می‌سنجد.

سراپیو-گارسیا، که همچنین پژوهشگر بورسیه گیتس کمبریج است، گفت: سرعت تحقیقات هوش مصنوعی آنقدر زیاد بوده است که اصول اساسی اندازه‌گیری و اعتبارسنجی که ما در تحقیقات علمی به آن عادت کرده‌ایم، به موضوعی ثانویه تبدیل شده است. یک چت‌بات که به هر پرسشنامه‌ای پاسخ می‌دهد، ممکن است به شما بگوید که بسیار خوش‌برخورد است، اما هنگام انجام وظایف دنیای واقعی با همان دستورات، رفتار تهاجمی از خود نشان دهد.

او افزود: این واقعیتِ آشفته‌ی اندازه‌گیری سازه‌های اجتماعی است: آنها پویا و ذهنی هستند، نه ایستا و مشخص. به همین دلیل، ما باید به اصول اولیه بازگردیم و اطمینان حاصل کنیم که تست‌هایی که برای هوش مصنوعی اعمال می‌کنیم، واقعاً آنچه را که ادعا می‌کنند اندازه‌گیری می‌کنند، نه اینکه کورکورانه به ابزارهای نظرسنجی – که برای ویژگی‌های عمیقاً انسانی توسعه یافته‌اند – برای آزمایش سیستم‌های هوش مصنوعی اعتماد کنیم.

برای طراحی یک روش جامع و دقیق جهت ارزیابی و اعتبارسنجی شخصیت در چت‌بات‌های هوش مصنوعی، محققان آزمایش کردند که رفتار مدل‌های مختلف در وظایف دنیای واقعی و تست‌های اعتبارسنجی تا چه حد از نظر آماری با نمرات تست آنها برای پنج ویژگی بزرگ که در تست‌های روان‌سنجی آکادمیک استفاده می‌شود، مرتبط است: گشودگی (openness)، وظیفه‌شناسی (conscientiousness)، برون‌گرایی (extraversion)، توافق‌پذیری (agreeableness) و روان‌رنجوری (neuroticism).

این تیم دو تست شخصیتی شناخته‌شده را اقتباس کردند، یک نسخه متن‌باز و ۳۰۰ سوالی از پرسشنامه شخصیتی نئو تجدیدنظر شده (Revised NEO Personality Inventory) و نسخه کوتاه‌تر پرسشنامه پنج ویژگی بزرگ (Big Five Inventory) و آنها را با استفاده از پرامپت‌های ساختاریافته به مدل‌های مختلف LLM دادند.

با استفاده از مجموعه یکسانی از پرامپت‌های متنی در سراسر تست‌ها، این تیم توانست کمی‌سازی کند که مثلاً نمرات برون‌گرایی یک مدل در یک تست شخصیت، چقدر قوی‌تر با سطوح برون‌گرایی آن در یک تست شخصیت جداگانه همبستگی دارد و چقدر همبستگی کمتری با چهار ویژگی دیگر شخصیتی در آن تست دارد. تلاش‌های گذشته برای ارزیابی شخصیت چت‌بات‌ها، کل پرسشنامه‌ها را یکجا به یک مدل می‌دادند که نتایج را منحرف می‌کرد، زیرا هر پاسخ بر اساس پاسخ قبلی ساخته می‌شد.

محققان دریافتند که مدل‌های بزرگ‌تر و تنظیم‌شده با دستورالعمل، پروفایل‌های تست شخصیتی را نشان دادند که هم قابل‌اعتماد بودند و هم رفتار را پیش‌بینی می‌کردند، در حالی که مدل‌های کوچک‌تر یا مدل‌های «پایه» (base models) پاسخ‌های ناسازگاری می‌دادند.

محققان تست‌های خود را فراتر بردند و نشان دادند که می‌توانند شخصیت یک مدل را در نه سطح برای هر ویژگی با استفاده از پرامپت‌های دقیق طراحی‌شده هدایت کنند. به عنوان مثال، آنها می‌توانستند یک چت‌بات را وادار کنند که بیشتر برون‌گرا یا بیشتر از نظر عاطفی ناپایدار به نظر برسد – و این تغییرات به وظایف دنیای واقعی مانند نوشتن پست‌های رسانه‌های اجتماعی نیز منتقل می‌شد.

این تحقیق تا حدی توسط خدمات محاسباتی تحقیقاتی کمبریج (RCS)، خدمات کمبریج برای کشف داده‌محور (CSD3)، شورای تحقیقات مهندسی و علوم فیزیکی (EPSRC) و شورای تسهیلات علوم و فناوری (STFC) که بخشی از سازمان تحقیقات و نوآوری بریتانیا (UKRI) است، پشتیبانی شد.

 
 
 
 


کد مطلب: 285765

آدرس مطلب :
https://www.itmen.ir/news/285765/هشدار-محققات-چت-بات-های-هوش-مصنوعی-هم-ممکن-روان-پریش-شوند

ITMen
  https://www.itmen.ir