۰

ماشین‌های ذی‌شعور را فراموش کنید؛ مشکل اصلی سوگیری هوش‌مصنوعی است

کنعان مالک / مولف
تاریخ انتشار
سه شنبه ۳۱ خرداد ۱۴۰۱ ساعت ۱۵:۱۴
ماشین‌های ذی‌شعور را فراموش کنید؛ مشکل اصلی سوگیری هوش‌مصنوعی است
ماشین‌های ذی‌شعور را فراموش کنید؛ مشکل اصلی سوگیری هوش‌مصنوعی است

این برنامه که لامدا (LaMDA، سرواژه مدل زبانی برای کاربردهای محاوره) نام دارد، محصول یک پروژه گوگل است. فردی که نرم‌افزار مخاطب قرار داد و چنین ادعایی کرد هم، بلیک لموین، یک مهندس ارشد نرم‌افزار گوگل بود. لموین معتقد است که لامدا دارای ادراک شده و باید واجد همان حقوق موجودات ذی‌شعور باشد. وقتی گوگل این ادعاها را رد کرد، لموئن اقدام به انتشار گفت‌وگوهای خود (یا لااقل بخش‌هایی از برخی گفت‌وگوها) با لامدا روی وبلاگ خود کرد. سپس گوگل او را به دلیل افشای اسرار شرکت از کار تعلیق کرد و در نتیجه، موضوع به یک مبحث جهانی تبدیل شد.

چرا لموین معتقد است که لامدا یک موجود ذی‌شعور است؟ خودش هم نمی‌داند.

لموین در توییتی نوشت: مردم مدام از من می‌پرسند که دلیل اینکه فکر می‌کنم لامدا دارای شعور است، چیست. هیچ چارچوب علمی که بتوان چنین تشخیصی را داد وجود ندارد. نظر من درباره شخصیت و شعورمند بودن لامدا بر اساس عقاید مذهبی من است.»

لیموین حق دارد که اعتقادات مذهبی خودش را داشته باشد. اما اعتقاد مذهبی، چیزی را که صرفا یک چت‌بات پیچیده و پیشرفته است، به یک موجود ذی‌شعور تبدیل نمی‌کند.

شعور یکی از مفاهیمی است که می‌توان معنای آن را به صورت شهودی دریافت؛ اما فرموله کردن آن به صورت یک عبارت علمی، دشوار است.

شعورمندی اغلب با مفاهیم ناکاملی مانند آگاهی، خودآگاهی و هوشمندی تعریف شده است. گری مارکوس، محقق شناختی، شعور را «آگاه بودن از وجود خود در دنیا» توصیف می‌کند و می‌گوید: لامدا چنین آگاهی‌ای ندارد.

کامپیوترها با نمادها سروکار دارند. یک برنامه کامپیوتری، مجموعه‌ای از قواعد یا الگوریتم‌ها را برای تبدیل رشته‌ای از نمادها به رشته‌‌ای دیگر تشخیص می‌دهد. اما معنای این نمادها را نمی‌فهمد. برای کامپیوتر، معنایی وجود ندارد. با این وجود یک مدل بزرگ زبانی مانند لامدا، که با حجم عظیمی از متون آنلاین آموزش دیده است، می‌تواند در تشخیص الگوها و خلق پاسخ‌های معنادار برای انسان، مهارت کسب کند.

لیموین در یکی از گفت‌وگوهای خود با لامدا، می‌پرسد: «چه چیزهایی به تو احساس لذت و خوشی می‌دهد؟» و لامدا در جواب می‌دهد که «وقت‌گذرانی شاد با دوستان و خانواده.»

این پاسخی است که برای انسان مفهومی کامل دارد. ما واقعا از گذراندن وقت با دوستان و خانواده لذت می‌بریم. اما آیا لامدا تا کنون با خانواده وقت گذرانده است؟ این نرم‌افزار صرفا به گونه‌ای برنامه‌ریزی شده این جمله معنادار برای انسان، و سوال مرتبط با آن را تشخیص دهد؛ بدون اینکه این جواب، واقعا برای خود لامدا معنایی داشته باشد.

انسان‌ها نیز در تفکر کردن و حرف زدن و خواندن و نوشتن، با نمادها و نشانه‌ها کار می‌کنند. هرچند که برای انسان، بر خلاف کامپیوتر، معنا همه چیز است. ما وقتی ارتباط برقرار می‌کنیم، در واقع معنا را انتقال می‌دهیم. برای ما نه فقط خارج از رشته‌ای از نمادها، بلکه درون آنها نیز اهمیت دارد. نه فقط قواعد زبانی، بلکه مفاهیم نیز مهم‌اند. معنا برای انسان از طریق وجود به عنوان یک موجود اجتماعی حاصل می‌شود. هر انسانی فقط در جامعه‌ای متشکل از موجودات متفکر، با احساس و سخنور که با آنها ارتباط برقرار می‌کند، خود را معنا می‌کند. ترجمه فرایندهای مکانیکی مغز به عنوان زیربنای تبدیل افکار به آن‌چیزی که ما آنها را معنا می‌نامیم، نیازمند یک جهان اجتماعی و قراردادهایی جمعی برای درک این تجربیات است.

معنا از طریق فرایندی نه فقط محاسباتی، بلکه با تعاملات اجتماعی ایجاد می‌شود و تعاملات است که محتوای نمادها را در ذهن ما شکل می‌دهد. قراردادهای اجتماعی، روابط اجتماعی و حافظه جمعی، چیزی است که قواعد شکل دهنده معنا را می‌سازد.

محققان موسسه آلن برای هوش مصنوعی، در پروژه خود با نام موزاییک، از مدل‌های زبانی مشابه لامدا سوالاتی پرسیدند که نیازمند مقداری هوش اجتماعی بود. سوالاتی مانند این که: «جورن می‌خواهد رازی را به تریسی بگوید؛ بنابراین جوردن به سمت تریسی خم می‌شود. چرا جوردن این کار را می‌کند؟» و ماشین‌ها در مواجهه با چنین پرسش‌هایی بسیار بدتر از انسان عمل کردند.

این مجادلات درباره اینکه آیا کامپیوترها ذی‌شعور هستند یا نه، بیش از ماشین‌ها درباره انسان‌ها به ما اطلاعات می‌دهد.

انسان‌ها آنقدر از یافتن معنا ناامید است که اغلب به اشیا ذهنیت نسبت می‌دهد. انتساب احساس به برنامه‌های کامپیوتری نیز نسخه مدرنی از همان عقیده باستانی است که باد، دریا و خورشید نیز دارای ذهن، روح و الوهیت دانسته می‌شدند.

مسایل و مشکلات زیادی در ارتباط با هوش مصنوعی وجود دارد که باید نگران آنها باشیم و هیچ کدام از این مسایل هم ربطی به شعور ندارد. برای مثال، مساله سوگیری هوش مصنوعی مطرح است. از آنجا که الگوریتم‌ها و سایر اشکال نرم‌افزار برای استفاده از داده‌ها مربوط به جوامع انسانی آموزش داده می‌شوند، این نرم‌افزارها اغلب سوگیری‌ها و گرایش‌های آن جوامع را بازتولید می‌کنند. نرم‌افزارهای بازشناسی چهره، سوگیری‌های نژادی را به نمایش می‌گذارند و افراد به دلیل اشتباهات داده‌ای دستگیر می‌شوند. هوش مصنوعی مورد استفاده در سلامت و استخدام نیز همان سوگیری‌های اجتماعی جهان واقعی ما را بازتولید می‌کنند.

تیمنیت گبرو، مسوول سابق تیم هوش مصنوعی اخلاقی گوگل، و چندین‌ تن از همکارانش، مقاله‌ای در سال 2020 منتشر کردند که نشان می‌داد مدل‌های زبانی عظیم، مانند لامدا، که برای یادگیری بر اساس متن‌های آنلاین تنظیم شده‌اند، مستعد برداشتی کاملا تحریف شده از جهان هستند؛ زیرا حجم عظیمی از ورودی‌های آنها، نژادپرستانه، جنسیت‌زده و دارای توهم توطئه است. گوگل از انتشار این مقاله سر باز زد و گبرو مجبور به ترک شرکت شد.

علاوه بر این، موضوع محرمانگی مطرح است. از استفاده روزافزون از نرم‌افزارهای بازشناسی چهره تا تکنیک‌های پیش‌بینی کننده پلیسی، از الگوریتم‌هایی که ما را به صورت آنلاین ردگیری می‌کنند تا سیستم‌های هوشمند خانگی مانند سیری، الکسا و گوگل نست، هوش مصنوعی به خصوصی‌ترین بخش‌های زندگی ما نفوذ کرده است. پلیس فلوریدا توانست برای دانلود مکالمات خصوصی ضبط شده توسط ابزارهای اکو آمازون حکم بگیرد. ما به سمت یک سیستم نظارتی سراسربین جهانی در حال حرکت هستیم.

علی رغم ادعای لیموین، ما نیازمند جلب موافقت لامدا برای آزمایش روی آن نیستیم. ولی باید روی شفافیت بیشتر درباره استفاده از این سیستم‌های هوش مصنوعی به منظور نظارت و کنترل، توسط شرکت‌های بزرگ فناوری و موسسات دولتی پافشاری کنیم
مسایل اخلاقی به وجود آمده به واسطه هوش مصنوعی در آن واحد، هم کوچک‌تر و هم بسیار بزرگ‌تر از رویای یک ماشین ذی‌شعور هستند.

کنعان مالک، مقاله‌نویس آبزرور است
 
مولف : کنعان مالک
مترجم : ایمان بیک
مرجع : The Guardian
برچسب ها :
کد مطلب : ۲۷۹۱۰۱
ارسال نظر
نام شما

آدرس ايميل شما

پربيننده ترين