۰

لزوم کاهش شتاب در ارایه مقالات هوش مصنوعی

کایل ویگرز / مولف
تاریخ انتشار
سه شنبه ۶ اسفند ۱۳۹۸ ساعت ۱۶:۰۸
لزوم کاهش شتاب در ارایه مقالات هوش مصنوعی
لزوم کاهش شتاب در ارایه مقالات هوش مصنوعی
 
 آی‌تی‌من- شکی نیست که این شتاب در رشد مقالات، نشان‌دهنده، محبوبیت، سرمایه‌گذاری و به همین نسبت، افزایش رقابت درون جامعه تحقیقاتی هوش مصنوعی است. اما برخی دانشگاهیان معتقدند که این شوق و اشتهای بی‌پایان برای پیشرفت در این زمینه، بیش از آنکه مفید باشد، زیان خواهد داشت.

زاخاری لیپتون، استادیار دانشگاه کارنگی ملون، که هم‌زمان در مدرسه کسب‌وکار تپر (Tepper) و واحد یادگیری ماشین این دانشگاه مسوولیت دارد، پیشنهاد کرده که مهلت یک ساله‌ای برای مقالات مرتبط در کل جامعه دانشگاهی مصنوعی اعمال شود که به گفته او، می‌تواند موجب تفکر بیش‌تر شود، بدون اینکه لزوم رسیدن به ضرب‌الاجل، موجب تولید محتواهای کم ارزش شود.

وی می‌گوید: بهمنی از مقالات که با آن روبه‌روییم، در واقع به کسانی آسیب می‌زند که استنادات زیاد و موقعیت دانشگاهی خوبی ندارند. سطح بالای مقالات بی‌ارزش در این حوزه، موجب شده که «مقاله داشتن» معنای خود را از دست بدهد.

وی می‌افزاید: واقعیت این است که داشتن مقاله، دیگر ارزش خود را از دست داده است؛ زیرا حتی در بین مقالات پذیرفته شده نیز، مقالات بی‌ارزش بسیار زیاد است.

تیمنیت گبرو (Timnit Gebru)، راهبر تیم هوش مصنوعی اخلاقی گوگل نیز نظر مشابهی دارد. او در توییتی که پیش از آغاز به کار کنفرانس AAAI درباره هوش مصنوعی که اوایل ماه جاری میلادی در نیویورک برپا شد، نوشت: من درگیر کنفرانس‌ها و رویدادهای مرتبط با خدمات بسیاری هستم تا جایی که نمی‌توانم به همه برسم. کارهای زیادی باید برگزاری یک کنفرانس باید انجام شود، مثل تدارکات، بررسی و تایید مقالات، سازمان‌دهی و غیره. دانشگاهیان می‌گویند، شما که در صنعت هستید، وقت بیشتری برای تحقیقات دارید، ولی در مورد من که این‌گونه نیست. به نظر می‌رسد که خواندن، کد نویسی و تلاش برای فهمیدن، کارهایی است که باید در اوغات فراغتم به آنها برسم، در حالی که مسوولیت اصلی من هستند.

شواهد نشان می‌دهد که این فشار برای تولید مقاله، منجر به انجام تحقیقاتی شده که می‌تواند برای عموم گمراه کننده باشد و تحقیقات آینده را نیز از مسیر درست خارج کند. در فراتحلیلی که لیپتون و جیکوب استاینهارد (عضو هیات علمی دانشکده آمار دانشگاه‌های کالیفرنیا، برکلی و آزمایشگاه هوش مصنوعی برکلی) انجام دادند، این دو پژوهشگر به شکل‌گیری روندهای مشکل‌ساز در فعالیت‌های تحقیقاتی حوزه یادگیری ماشین به این شرح اشاره کرده‌اند:
- ناتوانی در ایجاد تمایز بین گمانه‌زنی‌ها و توضیحات و در شناسایی منابع دستاوردهای تجربی
- استفاده از ریاضیاتی که به جای شفاف‌سازی، موجب سردرگمی می‌شود
- سوءاستفاده  از زبان، مثلا با استفاده بیش از حد از اصطلاحات فنی
این دو پژوهشگر، اعتقاد دارند که رشد سریع جامعه تحقیقاتی هوش مصنوعی موجب کمبود نیروهای بازبینی کننده مقالات شده است. از سوی دیگر مشوق‌های اغلب نادرست، مانند اثر مثبت پذیرفته شدن مقاله در کنفرانس‌های علمی در دریافت بورس تحصیلی، از عوامل رشد مقالات بی کیفیت است.

این پژوهشگران، نمونه‌هایی نیز از تحقیقاتی ارایه داده‌اند که می‌تواند گمراه کننده باشد.

نمونه اول مربوط به مقاله‌ای از پژوهشگران هوش مصنوعی گوگل است. آنان نشان دادند که یک سیستم هوش مصنوعی می‌تواند در یافتن نشانه‌های سرطان پستان در ماموگرام از متخصصان بهتر عمل کند. اما پس از آن، مقاله‌ای در نشریه Wired منتشر شد که نشان می‌‌داد غربالگری ماموگرام، از نظر برخی، یک مداخله ناقص است. سیستم‌های هوش مصنوعی مانند آن چیزی که محققان گوگل درباره آن صحبت می‌کنند، می‌تواند به بهبود نتایج منجر شود، اما در عین حال ممکن است به تشخیص نادرست و درمان بیش از حد نیاز نیز منجر شود.

نمونه دیگر مربوط به پژوهشگران مایکروسافت و دانشگاه بیهانگ چین است. این پژوهشگران مدل هوش مصنوعی را توسعه داده‌اند که می‌تواند اخبار را مثل انسان بخواند و درباره آنها نظر بدهد؛ اما در مقاله این پژوهشگران، به سوءاستفاده‌های احتمالی ازاین مدل اشاره نشده است. بی‌توجهی به پیامدهای اخلاقی این مدل، واکنش‌های زیادی برانگیخت و تیم تحقیقاتی را بر آن داشت تا یک مقاله به روز شده را برای رفع نگرانی‌ها منتشر کند.

 
مولف : کایل ویگرز
مرجع : VentureBeat
کد مطلب : ۲۷۳۴۴۳
ارسال نظر
نام شما

آدرس ايميل شما