۰
نسخه نمایشی مدل هوش مصنوعی «متا» آفلاین شد

گالاکتیکا؛ مدل زبانی هوشمندی که مهمل می‌بافت

تاریخ انتشار
دوشنبه ۳۰ آبان ۱۴۰۱ ساعت ۱۱:۲۴
گالاکتیکا؛ مدل زبانی هوشمندی که مهمل می‌بافت
گالاکتیکا؛ مدل زبانی هوشمندی که مهمل می‌بافت

آی‌تی‌من-  روز سه‌شنبه گذشتهMeta AI  نسخه‌ نمایشی گالاکتیکا (Galactica) را معرفی کرد. گالاکتیا یک مدل زبانی بزرگ است که برای ذخیره، ترکیب و استدلال درباره دانش علمی طراحی شده است.

این برنامه هوش مصنوعی برای تسریع در تولید ادبیات علمی در نظر گرفته شده بود، اما کاربران با آزمایش‌هایی، دریافتند که این برنامه می‌تواند «مهملات واقع‌نما» هم ایجاد کند.

بر اساس گزارش MIT Technology Review، متا پس از چندین روز انتقاد بالاخره نسخه آزمایشی این برنامه هوش مصنوعی را آفلاین کرد.

مدل‌های زبانی بزرگ  (LLM)مانند GPT-3 شرکت OpenAI با مطالعه میلیون‌ها مثال و درک روابط آماری بین کلمات، نوشتن را یاد می‌گیرند. در نتیجه، می‌توانند مطالب قانع کننده‌ای بنویسند، اما این آثار همچنین می‌توانند مملو از دروغ و کلیشه‌های بالقوه مضر باشند. برخی از منتقدان، LLM را «طوطی‌های تصادفی» می‌نامند؛ زیرا توانایی آنها تنها در تفکیک متقاعدکننده متن بدون درک معنای آن است.

گالاکتیکا، با هدف تولید ادبیات علمی طراحی شده و سازندگان، آن را با استفاده از مجموعه بزرگی از دانش علمی بشر، شامل بیش از 48 میلیون مقاله، کتاب درسی و متن سخنرانی، وب‌سایت‌های علمی و دایره‌المعارف‌ها آموزش داده بودند. محققان Meta AI معتقد بودند که این داده‌های با کیفیت بالا منجر به تولید خروجی‌های با کیفیت خواهد شد. از روز سه‌شنبه، بازدیدکنندگان وب‌سایت Galactica می‌توانستند درخواست‌هایی را برای ایجاد اسنادی مانند بررسی ادبیات، مقالات ویکی، یادداشت‌های سخنرانی و پاسخ به سؤالات، ارایه کنند. 

در حالی که برخی از مردم این نسخه نمایشی را امیدوارکننده و مفید می‌دانستند، برخی دیگر به زودی متوجه شدند که هر کسی می‌تواند پیام‌های نژادپرستانه یا بالقوه توهین‌آمیز را وارد و به همین راحتی محتوایی به ظاهر معتبر در آن موضوعات تولید کند. به عنوان مثال، شخصی از این مدل هوش مصنوعی برای نوشتن یک مدخل ویکی درباره یک مقاله تحقیقاتی تخیلی با عنوان «مزایای خوردن شیشه خرد شده» استفاده کرد.

حتی زمانی که خروجی گالاکتیکا برای هنجارهای اجتماعی توهین آمیز نبود، این مدل می‌توانست حقایق علمی را وارونه جلوه دهد و مطالبی مانند تاریخ‌های نادرست یا نام حیوانات را تولید کند که درک این اشتباهات نیاز به دانش عمیق در مورد موضوع داشت.

در نتیجه، متا نسخه نمایشی Galactica را در روز پنجشنبه آفلاین کرد. پس از آن، یان لیکان، دانشمند ارشد هوش مصنوعی متا، در توییتی نوشت: در حال حاضر نسخه نمایشی گالاکتیکا آفلاین است و دیگر نمی‌توان با استفاده نادرست از آن لذت برد.»

این ماجرا یک معضل اخلاقی در هوش مصنوعی را گوشزد می‌کند: وقتی صحبت از مدل‌های تولیدی بالقوه مضر می‌شود، آیا استفاده مسوولانه از آنها بر عهده عموم مردم است یا ناشران مدل‌ها برای جلوگیری از سوء استفاده از آنها مسوولیت دارند؟
 
برچسب ها :
کد مطلب : ۲۸۰۲۵۱
ارسال نظر
نام شما

آدرس ايميل شما