۰
جریمه میلیون دلاری برای متخلفان

شرکت‌های بریتانیایی باید درباره تصمیمات هوش مصنوعی توضیح بدهند

تاریخ انتشار
شنبه ۱۶ آذر ۱۳۹۸ ساعت ۱۹:۲۱
شرکت‌های بریتانیایی باید درباره تصمیمات هوش مصنوعی توضیح بدهند
شرکت‌های بریتانیایی باید درباره تصمیمات هوش مصنوعی توضیح بدهند

آی‌تی‌من- دفتر کمیسیون اطلاعات بریتانیا (ICO) اعلام کرد شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند؛ نخستین بار باید درباره این فرایندهایی مانند استفاده واحد منابع انسانی از یادگیری ماشین برای پالایش درخواست‌های کار بر اساس تحلیل رزومه افراد، توضیح بدهند. این نهاد تنظیم مقررات گفت که این نخستین بار در جهان است که برای اخذ تصمیمات با هوش مصنوعی قواعدی تنظیم شده است.

بررسی‌های بانک انگلستان نشان می‌دهد که در حدود دو سوم از شرکت‌های خدمات مالی در بریتانیا برای اتخاذ تصمیمات‌شان از هوش مصنوعی استفاده می‌کنند. از جمله می‌توان به استفاده از هوش مصنوعی در شرکت‌های بیمه برای مدیریت شکایات اشاره کرد. بررسی دیگری که کمیسیون اطلاعات بریتانیا انجام داده نیز حاکی است که نیمی از مردم این کشور درباره سپردن تصمیم‌ها به هوش مصنوعی نگرانی دارند.

پیش‌تر نیز بارها منتقدان از محققان هوش مصنوعی خواسته بودند که جعبه سیاه الگوریتم‌های هوش مصنوعی و یادگیری ماشین را بازکنند که مشخص شود، تصمیمات این الگوریتم‌ها بر اساس چه منطقی گرفته می‌شود.

برخی منتقدان حتی هوش مصنوعی را یک فناوری کافکایی می‌دانند و می‌گویند مانند اتفاقاتی که در رمان «محاکمه» کافکا می‌افتد، هوش مصنوعی نیز تصمیماتی می‌گیرد که نه دلایل اتخاذ این تصمیمات مشخص است و نه سیستم در مقابل تصمیماتش پاسخگوست. این منتقدان معتقدند: از آنجا که سیستم‌های هوش مصنوعی را انسان‌ها طراحی می‌کنند؛ نظر و خطاهای شناختی انسانی در آنها تکرار و برجسته می‌شود؛ با این تفاوت که سیستم مسوولیتی در مقابل تصمیماتش ندارد و این، وضعیت را پیچیده می‌کند.

در یکی دو سال گذشته، گزارش‌های متعددی حاکی از این بود که استفاده از هوش مصنوعی در فرایند پالایش فرم‌های استخدامی از طریق بررسی رزومه، موجب حذف ناعادلانه اقلیت‌های قومیتی یا جنسیتی شده است. حتی استفاده از الگوریتم‌های یادگیری ماشین در خودران‌ها نیز مشکلات مشابهی ایجاده کرده است.

سایمون مک دوگال، مدیر اجرایی بخش سیاست‌های فناوری و نوآوری ICO می‌گوید: این تصمیم کاملا در جهت شفاف‌سازی گرفته شده و جعبه سیاه توضیح‌پذیری هوش مصنوعی را باز می‌کند و حق مردم برای دریافت توضیح درباره تصمیمات را تقویت می‌کند.

دستورالعمل مذکور که روز گذشته فرایند‌های مشاوره‌ای را پشت سر گذاشته، به سازمان‌ها آموزش می‌دهد که چگونه به زبانی همه فهم، درباره تصمیمات هوش مصنوعی اطلاع رسانی کنند و برای سازمان‌ها و شرکت‌هایی که در این زمینه درست عمل نکنند، بر اساس قانون محافظت از داده‌های اتحادیه اروپا، جریمه‌ای تا 4 درصد گردش مالی‌شان در نظر گرفته شده است.

مک دوگال می‌گوید: این‌که شرکت‌ها بگویند زمان یا پول کافی برای تشریح تصمیمات هوش مصنوعی ندارند، بهانه‌ای غیر قابل پذیرش است. اگر شرکت‌ها برای تفکر و تنظیم قواعد مناسب درباره شیوه استفاده از هوش مصنوعی، منابع کافی ندارند باید درباره استفاده از این الگوریتم‌ها تجدیدنظر کنند.

پیش‌بینی می‌شود که این دستورالعمل که با همکاری موسسه آلن تورینگ تهیه شده، از سال آینده میلادی به اجرا گذاشته شود.


 
مرجع : newscientist.com
کد مطلب : ۲۷۳۱۳۲
ارسال نظر
نام شما

آدرس ايميل شما