۰

دموکراتیزه کردن هوش مصنوعی راه نجات از دنیای کافکایی

تاریخ انتشار
سه شنبه ۱۸ دی ۱۳۹۷ ساعت ۱۴:۴۱
استفن کیو (Stephen Cave)؛ مدیر اجرایی مرکز لورهولم (Leverhulme) برای تحقیقات در زمینه آینده هوش در دانشگاه کمبریج
استفن کیو (Stephen Cave)؛ مدیر اجرایی مرکز لورهولم (Leverhulme) برای تحقیقات در زمینه آینده هوش در دانشگاه کمبریج

استفن کیو (Stephen Cave)*

آی‌تی‌من- این تصویری است که فرانتس کافکا در رمان «محاکمه» در سال 1915 میلادی ترسیم کرده است. در این کتاب، کافکا مواجهه با یک سیستم بوروکراسی ناکارآمد را روایت می کند. شخصیت اصلی داستان محاکمه با نام «جوزف.ک»، نمی داند چرا دستگیر شده و چه مدارکی علیه او وجود دارد؛ هیچ کس هم مسوولیت دستگیری او را نمی پذیرد و کسی هم به او توضیح نمی دهد که سیستم چگونه به چنین تصمیمی رسیده است. پایان داستان هم غم انگیز است؛ «جوزف.ک» شکست می خورد و سرنوشتش را می پذیرد.

100 سال که به جلو بیاییم، در عصر حاضر، با سیستم های هوش مصنوعی و کامپیوتری مبتنی بر داده  مواجه می شویم که شیوه عمل مشابهی دارند؛ سیستم هایی به شدت تاثیرگذار و همچنان غیرشفاف و مسوولیت ناپذیر و این اتفاقی نیست. ارتباط مستقیمی بین محاکمه جوزف.ک و ابهامات اخلاقی و سیاسی برخاسته از هوش مصنوعی وجود دارد. بر خلاف تبلیغات صورت گرفته، این فناوری در طول چند سال اخیر شکل نگرفته است.

«جونی پن» (Jonnie Penn)، تاریخ نگار فناوری اهل کانادا، اخیرا نشان داده که هوش مصنوعی تاریخی طولانی دارد، عمیقا با قدرت دولتی و شرکتی مرتبط است و سیستم های هوش مصنوعی عمدتا با هدف تامین منافع دولت ها، ارتش و شرکت های بزرگ توسعه یافته اند.

مهم تر اینکه مدل تصمیم گیری این سیستم ها کاملا برگرفته از روش کار بوروکراسی هاست. دو پیشگام بزرگ هوش ماشینی؛ یعنی «آلن تورینگ» و «جان فن نیومن»، هر دو نمونه های اولیه خود را در جریان جنگ جهانی دوم ارایه کردند و نخستین وظیفه کامپیوتر انیاک تحت نظارت «فن نیومن»، اجرای محاسبات مربوط به بمب هیدروژنی در سال 1946 بوده است.

به بیان دیگر، منظور از «هوش» در هوش مصنوعی، هوش انسانی از نوع آهنگساز، پزشک یا فعال خدمات اجتماعی نیست؛ بلکه یک هوش سیستمی بوروکراتیک و مربوط به ماشینی است که به پردازش داده های مرتبط با زندگی انسان ها می پردازد، سپس این داده ها را دسته بندی و طبقه بندی می کند، درباره آنها تصمیم می گیرد و آنها را در جای خود قرار می دهد. این وضعیتی دقیقا کافکایی است. اگر جوزف.ک در عصر ما می زیست؛ با این جمله که «کامپیوتر می گوید نه» کاملا آشنا بود.

البته روش های بی شماری هست که فناوری های مرتبط با هوش مصنوعی را می توان در جهت توانمندسازی بشر به کار گرفت. برای مثال، ارایه بهتر خدمات درمانی یا ارایه دسترسی به خدمات متعدد دیگر؛ از دستیارهای شخصی دیجیتالی گرفته تا یادگیری الکترونیکی. اما در عین حال، این سیستم ها ریسک همیشگی شدن بی عدالتی را افزایش می دهند. زیرا، اگرچه هوش مصنوعی فناوری تازه و درخشانی است، اما تعصبات و دیدگاه های جهت دار گذشته را در درون خود دارد. در واقع هوش مصنوعی میراث دار سیستم تفکر سیستمی پیشین خود است (چون به هر حال این سیستم ها نیز محصول شیوه تفکر بشر است که تبعیض ها و بی عدالتی ها را در شیوه انجام امور نهادینه کرده است).

به این ترتیب این سیستم های کافکایی، به طور پیش فرض فرم های موجود تبعیض را ادامه خواهند داد و حتی تشدید خواهند کرد. به عنوان مثال الگوریتم استخدام آمازون را در نظر بگیرید که البته مدتی است به دلیل اعتراض ها، مورد استفاده قرار نمی گیرد. این الگوریتم، از رکوردهای اطلاعاتی موجود کارکنانی که آمازون، یاد می گرفت که این شرکت معمولا چه افرادی را استخدام می کند و بر همین مبنا، امتیاز کمتری به رزومه های زنانی متقاضی استخدام می داد.

بنابراین یک قدم حیاتی هوش مصنوعی، ایجاد اطمینان از این است که نظرها و صداهای مختلف در توسعه و پیاده سازی آن دخیل است: از جمله آنان که تا کنون به دلیل تمایلات صاحبان قدرت –که خالقان هوش مصنوعی هم هستند– از قدرت حذف شده اند (مانند زنان)، کسانی که به دست صاحبان قدرت استعمار شده اند (مانند کشورهای در حال توسعه و جوامع متعدد در دنیای توسعه یافته) یا قربانیان صاحبان قدرت (مانند فقرا و معلولان).

البته چالش ها در این راه زیاد است. گزارش مجمع جهانی اقتصاد که در ماه دسامبر گذشته منتشر شد، نشان می دهد که تنها 22 درصد از متخصصان هوش مصنوعی در سرتاسر جهان زن هستند (این آمار در بریتانیا 20 درصد است). وضعیت درباره رنگین پوستان نیز به همین اندازه دشوار است. ماه گذشته بیش از یکصد محقق هوش مصنوعی موفق به دریافت ویزای کانادا برای شرکت در کنفرانس NeurIPS که یکی از مهم ترین کنفرانس های هوش مصنوعی است، نشدند. از آنجا که بسیاری از این محققان از آفریقا بودند، این موضوع تاثیر بدی بر نشست «سیاهان در هوش مصنوعی» گذاشت که در حاشیه این کنفرانس برگزار شد.

کسانی که به طور تاریخی از سیستم های قدرت کنار گذاشته شده اند (مثل خود کافکا؛ یهودی آلمانی زبانی که در پراگ می زیست) همواره افراد مناسبی برای تشخیص بی عدالتی و عدم شفافیت در سیستم ها هستند. بنابراین توجه به صدای این افراد می تواند به ما اطمینان بدهد که هوش مصنوعی در آینده، نه تنها کارآمدتر که اخلاقی تر هم خواهد بود.

*مدیر اجرایی مرکز لورهولم (Leverhulme) برای تحقیقات در زمینه آینده هوش در دانشگاه کمبریج
 
مرجع : The Guardian
برچسب ها :
کد مطلب : ۲۷۱۰۰۰
ارسال نظر
نام شما

آدرس ايميل شما