۰
گفت‌وگو با کیت کرافورد، محقق هوش مصنوعی مایکرسافت:

هوش مصنوعی، نه هوشمند است و نه مصنوعی

تاریخ انتشار
دوشنبه ۱۷ خرداد ۱۴۰۰ ساعت ۱۰:۴۷
هوش مصنوعی، نه هوشمند است و نه مصنوعی
هوش مصنوعی، نه هوشمند است و نه مصنوعی

آی‌تی‌من-  شما کتابی انتقادی در زمینه هوش مصنوعی نوشته‌اید؛ اما در شرکتی کار می‌کنید که جزو پیشگامان پیاده‌سازی این فناوری است. چگونه این مساله را توضیح می‌دهید؟
من در بخش تحقیقات مایکروسافت کار می‌کند سازمانی مجزا از توسعه محصول است. 

شاید عجیب به نظر برسد که مایکروسافت در تاریخ 30 ساله خود، پژوهشگران اجتماعی را استخدام کرده که با نگاهی انتقادی به شیوه ساخت فناوری‌ها بنگرند. 

بودن درون شرکت، اغلب به ما امکان می‌دهد که نکات منفی را پیش از آنکه سیستم‌ها به طور گسترده پیاده‌سازی شوند، ببینیم. 

کتاب من هم وارد مراحل بازبینی پیش از نشر نشده، زیرا واحد تحقیقات مایکروسافت چنین الزامی را اعمال نمی‌کند، و رهبران مایکروسافت نیز با استقبال از پرسش‌های دشوار، حتی اگر پاسخ‌ها مربوط به ارزیابی انتقادی از تجربیات فناورانه کنونی باشد، از آزمایشگاه من حمایت می‌کنند.

 هدف از نوشتن این کتاب چه بود؟
معمولا نگرشی درباره هوش مصنوعی به ما ارایه می‌شد که این فناوری، غیرمادی و مجرد است. من می‌خواستم درک گسترده‌تری از شیوه ساخت هوش مصنوعی ایجاد کنم؛ از جمله هزینه‌های منابع طبیعی، فرایندهای نیروی انسانی و منطق طبقه‌بندی شده آن. برای مشاهده عملی این موارد، به مکان‌هایی مانند معادن برای بررسی فرایند استخراج مواد لازم از پوسته زمین رفتم. همچنین به یک مرکز پردازش کالای آمازون سر زدم تا زیان‌های فیزیکی و روانی کارگرانی را بررسی کنم که تحت یک سیستم مدیریت الگوریتمی کار می‌کنند. امیدوارم که با نشان دادن چگونگی کارکرد سیستم‌های هوش مصنوعی، با نمایش بی‌واسطه ساختار محصولات و مواد مورد استفاده، ما به درک دقیق‌تری از آثار این فناوری دست پیدا کنیم و افراد بیشتری به مباحثات مربوطه بپیوندند.

چنین سیستم‌هایی در بخش‌های مختلف و بدون مقررات گذاری محکم و مباحث دموکراتیک، در حال پیاده‌سازی هستند.

 مردم درباره شیوه تولید محصولات هوش مصنوعی چه چیزهایی را باید بدانند؟
ما معمولا در مورد این سیستم ها به هزینه‌های زیست محیطی آنها فکر نمی‌کنیم. اما گفتن«هی، الکسا، برای من چند تا دستمال توالت سفارش بده»، در واقع یک زنجیره استخراج را ایجاد می‌کند که در کل جهان جریان می‌یابد. ما تا زمانی که به فناوری سبز برسیم، راه درازی در پیش داریم. همچنین، سیستم‌ها ممکن است خودکار به نظر برسد؛ اما وقتی پرده‌ها را از  روی آن کنار بزنیم، تعداد زیادی از کارگران کم درآمد را می‌بینیم که از کارهای گروهی طبقه بندی داده‌ها تا زحمت بی‌پایان جابه‌جا کردن جعبه‌های آمازون. هوش مصنوعی نه مصنوعی است و نه هوشمند. این فناوری از منابع طبیعی ساخته شده و این مردم هستند که مشغول وظایفی هستند که باعث می‌شود این سیستم‌ها خودمختار به نظر برسند.

 به مشکلات مربوط به سوگیری در هوش مصنوعی بسیار پرداخته شده است. فکر می‌کنی با داشتن داده‌های بیشتر این مشکل حل می‌شود؟
سوگیری، عبارت کاملی برای مشکلاتی که از آن صحبت می‌کنیم نیست. ما به طور مداوم می‌بینیم که این سیستم‌ها اشتباه تولید می‌کنند، الگوریتم‌های ارزش‌یابی اعتبار به زن‌ها اعتبار کمتری می‌دهند، صورت سیاه‌پوستان به اشتباه لیبل‌گذاری می‌شود، و پاسخ به تمام این مشکلات هم این بوده که: «ما فقط به داده‌های بیشتری نیاز داریم.» اما اگر عمیق‌تر به منطق دسته‌بندی نگاه کنیم، انواع تبعیض‌ها را ، نه فقط وقتی سیستم‌ها به کار گرفته می‌شود، بلکه در چگونگی ساخت و یادگیری آنها خواهیم دید.

مجموعه داده‌های آموزش که برای نرم‌افزارهای یادگیری ماشین استفاده می‌شود، عموما افراد را به دو جنس دسته بندی می‌کنند. این مجموعه‌داده‌ها افراد را براساس رنگ پوست‌شان به عنوان یکی از پنج گروه نژادی برچسب می‌خورند و با این اقدام، بر اساس شکل ظاهری افراد، به آنها شخصیت اخلاقی منتسب می‌شود.

این ایده که می‌توان چنین برداشت‌هایی بر اساس ظاهر افراد داشت؛ دارای گذشته تاریکی است و متاسفانه سیاست طبقه‌بندی، درون ذات هوش مصنوعی نهادینه شده است.

 شما به ImageNet به عنوان یک مجموعه‌داده آموزش در دسترس عموم برای بازشناسی اشیا اشاره کرده‌اید...

ImageNet از حدود 14 میلیون تصویر در بیش از 20 هزار گروه، تشکیل شده و یکی از مهم‌ترین مجموعه‌داده‌های آموزش در تاریخ یادگیری ماشین است. از این مجموعه داده برای آزمایش کارآمدی الگوریتم‌های بازشناسی  اشیا استفاده می‌شد. این مجموعه داده در سال 2009 از سوی گروهی از محققان دانشگاه استنفورد ارایه شد که حجم بالایی از تصاویر را از اینترنت استخراج کردند و کارگنان، آنها را بر اساس واژه‌های WordNet، که یک پایگاه داده واژگانی ساخته شده در سال 1980 است، برچسب‌گذاری کرده‌اند.

من در سال 2017 پروژه‌ای را با هنرمندی به نام تروور پاگلن آغاز کردن تا ببینم افراد چگونه برچسب‌گذاری شده‌اند. نتیجه اینکه به اصطلاحات طبقه‌بندی وحشتناکی دست یافتیم که به طور افراطی زن‌ستیز، نژادپرستانه، توانمندگرا و قضاوتگر بود. تصاویر افراد در این مجموعه‌داده با واژه‌ها و عباراتی مانند مبتلا به جنون سرقت، الکلی، آدم بد، زن بدکاره، معتاد و چیزهای دیگری که نمی‌توان گفت، مرتبط شده بود. ImageNet اکنون بسیاری از این دسته‌بندی‌های مشکل‌آفرین را حذف کرده که قدم رو به بهبود بزرگی است. هرچند این مشکل همچنان پابرجاست، زیرا این مجموعه‌داده‌های آموزش، همچنان در سایت‌های تورنت در دسترس است.

از سوی دیگر، ImageNet به صورت عمومی در دسترس است و به همین دلیل قادر به بررسی آن بوده‌ایم. مجموعه‌داده‌های آموزش عظیمی در دست شرکت‌های فناوری وجود دارد که کاملا سری است. این شرکت‌ها از تصاویری که ما در شبکه‌های اجتماعی و سرویس‌های اشتراک تصویر بارگذاری می‌کنیم، استفاده و آنها را به سیستم‌های مخفی تبدیل می‌کنند.

 شما استفاده از هوش مصنوعی برای بازشناسی احساسات را نقد می‌کنید؛ ولی در عین حال در شرکتی کار می‌کنید که فناوری بازشناسی احساسات را می‌فروشد. آیا باید از هوش مصنوعی برای شناسایی احساسات استفاده کرد؟
این ایده که می‌توان از روی چهره هر فرد به احساسات‌اش پی برد، کاملا ناقص است و به نظر من ممکن نیست. من در کتاب اشاره کرده‌ام که این فناوری یکی از مواردی است که باید مقررات‌‌گذاری شود. بیشتر سیستم‌های بازشناسی احساسات بر اساس خط فکری در روانشناسی که در دهه 1970 مطرح بود، ساخته شده‌اند. این نظریه می‌گوید که شش حس وجود دارد که ما در چهره‌های‌مان نمایش می‌دهیم و با استفاده از تکنیک‌های درست، می‌توان این احساسات را تشخیص داد. اما از همان زمان نیز این نظریه مخالفانی داشت و تحقیقات احیر نشان می‌دهد که ارتباط معناداری بین حالات چهره و آنچه ما واقعا احساس می‌کنیم وجود ندارد. با این وجود، شرکت‌های فناوری همچنان می‌گویند که استخراج احساسات به سادگی نگاه کردن به ویدیویی از چهره افراد ممکن است. حالا هم می‌بینیم که این فناوری‌ها در سیستم‌های نرم‌افزاری خودروها به کار گرفته شده است.
 
برچسب ها :
کد مطلب : ۲۷۶۵۲۶
ارسال نظر
نام شما

آدرس ايميل شما