۰

چگونه استفاده از مدل‌های زبانی بزرگ برای تقلب را کاهش دهیم

تاریخ انتشار
سه شنبه ۸ آذر ۱۴۰۱ ساعت ۱۲:۱۲
چگونه استفاده از مدل‌های زبانی بزرگ برای تقلب را کاهش دهیم
چگونه استفاده از مدل‌های زبانی بزرگ برای تقلب را کاهش دهیم

 راب رایش*
البته، تقلب همیشه وجود داشته و بازی موش و گربه  بین دانش‌آموز و معلم، ابدی است. اما در گذشته، دانش‌آموز متقلب مجبور بود به کسی پول بدهد تا برای او مقاله بنویسد، یا مقاله‌ای را از وب دانلود کند که به راحتی توسط نرم‌افزار سرقت ادبی قابل شناسایی بود. حال اینکه فناوری‌های جدید تولید زبان هوش مصنوعی، تولید مقالات با کیفیت بالا را تسهیل کرده‌اند.

با پیشرفت فناوری‌های هوش مصنوعی، حالا با یک سیستم یادگیری ماشینی قدرتمند به نام «مدل بزرگ زبانی» مواجهیم که کافی است به آن یک فرمان داده شود تا پاراگراف‌هایی کاملا منحصر به فرد تولید کند. این مدل‌ها قادر به تولید انواع خروجی، از مقاله گرفته تا پست‌های وبلاگ، شعر و حتی کدهای کامپیوتری هستند.

این سیستم‌های یادگیری ماشینی چند سال قبل توسط محققان هوش مصنوعی توسعه داده شدند و از ابتدا نیز نگرانی و احتیاط را نزد محققان برانگیختند. OpenAI، اولین شرکتی که چنین مدل‌هایی را توسعه داد، استفاده خارجی آنها را محدود کرد و کد منبع جدیدترین مدل خود را هم منتشر نکرد؛ زیرا نگران سوء استفاده احتمالی از آن بود. شرکت OpenAI اکنون یک خط مشی جامع متمرکز بر استفاده‌های مجاز و تعدیل محتوا برای این سیستم تدوین کرده است.

اما با شروع مسابقه تجاری‌سازی این فناوری، این اقدامات احتیاطی در کل صنعت جدی گرفته نشده است. در شش ماه گذشته، تولید نسخه‌های تجاری از این ابزارهای قدرتمند هوش مصنوعی با کاربری آسان افزایش یافته و استفاده از بسیاری از آنها یا بدون محدودیت امکان‌پذیر است، یا محدودیت‌های اندکی دارد.

یکی از شرکت‌ها اعلام کرده که هدفش‌اش، به‌کارگیری فناوری پیشرفته هوش مصنوعی به منظور تسهیل نوشتن است. یکی دیگر اپلیکیشنی برای گوشی‌های هوشمند منتشر کرده که می‌تواند در مورد موضوعات متنوع، مثلا درباره موضوع نمایشنامه مکبث، مقاله تولید کند. به اسامی این شرکت‌ها اشاره نمی‌کنیم چون نمی‌خواهیم کار را برای متقلب‌ها آسان کنیم. اما این یافتن این برنامه‌ها کاری آسان است و اغلب، لااقل فعلا، استفاده از آنها هزینه‌ای ندارد. به این ترتیب، نوشتن مقاله‌ای تر و تمیز و منحصر به فرد درمورد هملت یا دلایل وقوع جنگ جهانی اول، به سادگی تمام و فقط با چند کلیک، قابل انجام است.

در حالی که مهم است که والدین و معلمان در مورد این ابزارهای جدید تقلب آگاهی داشته باشند، واقعیت این است که کار زیادی نمی‌توانند در مورد آن انجام دهند. تقریباً غیرممکن است که بچه‌ها را از دسترسی به این فناوری‌های جدید منع کرد، مدارس هم قابلیت تشخیص استفاده از آنها را ندارند. این مشکل را حتی نمی‌توان به ضعف دولت در مقررات‌گذاری نسبت داد. دولت‌ها هم‌اکنون نیز، هرچند با سرعت کم، برای رسیدگی به سوءاستفاده از هوش مصنوعی در حوزه‌‌های مختلف، مثلا در حوزه استخدام کارکنان یا فناوری بازشناسی چهره، وارد عمل شده‌اند؛ اما شناخت چندانی در مورد مدل‌های زبانی و نحوه مقررات‌گذاری برای جلوگیری از آسیب‌های احتمالی این مدل‌ها ندارند.

در این شرایط، راه حل این است که شرکت‌های فناوری و جامعه توسعه دهندگان هوش مصنوعی وادار به پذیرش یه چارچوب مسوولیت اخلاقی شوند. بر خلاف حقوق یا پزشکی، هنوز استانداردهای جهان‌شمول به رفتار مسوولانه در حوزه فناوری تدوین نشده است. البته الزامات قانونی محدودی برای استفاده سودمند از فناوری وجود دارد. در حوزه حقوق و پزشکی، استانداردها محصول تصمیمات عمدی پزشکان پیشرو برای اتخاذ شکلی از خود تنظیمی بوده است. در مورد فناوری نیز شرکت‌ها می‌توانند یک چارچوب مشترک برای توسعه، استقرار یا انتشار مسوولانه مدل‌های زبان ایجاد ‌کنند تا اثرات مضر آن‌ها را کاهش دهند.

اما شرکت‌ها برای ترویج کاربردهای اجتماعی مفید و جلوگیری از کاربری‌های منفی (مانند استفاده از یک تولید کننده متن برای تقلب در مدرسه) چه کاری می‌توانند انجام بدهند؟

چند راهکار مشخص وجود دارد. شاید تمام متن‌های تولید شده توسط مدل‌های زبانی تجاری موجود را بتوان در یک مخزن مستقل قرار داد تا امکان تشخیص سرقت ادبی فراهم شود. مورد دوم، قرار دادن محدودیت سنی و سیستم‌های تأیید سن است تا جلوی استفاده دانش‌آموزان از این نرم‌افزارها گرفته شود. در نهایت، و البته با دیدی بلندپروازانه‌تر، توسعه‌دهندگان پیشرو هوش مصنوعی می‌توانند یک هیات بازبینی مستقل ایجاد کنند که چگونگی انتشار مدل‌های زبانی را مشخص کند و به جای سرعت بخشیدن به تجاری‌سازی، دسترسی به محققان مستقلی را که می‌توانند به ارزیابی خطرات و پیشنهاد استراتژی‌های کاهش کمک کنند، اولویت دهد.

*استاد علوم سیاسی در دانشگاه استنفورد
 
مرجع : گاردین
برچسب ها :
کد مطلب : ۲۸۰۳۲۹
ارسال نظر
نام شما

آدرس ايميل شما

پربيننده ترين