کد QR مطلبدریافت لینک صفحه با کد QR

​​​​​​​فناوری تشخیص چهره در خدمت پلیس: جانبدارانه و پرخطا

BBC , 18 تير 1398 ساعت 9:23

پلیس و نیروهای امنیتی در کشورهای مختلف در حال آزمایش سیستم‌های خودکار تشخیص چهره به منظور شناسایی مجرمان و تروریست‌ها هستند. اما این فناوری تا چه حد دقیق است و آیا نباید نگران این بود که این فناوری به همراه هوش مصنوعی، به ابزار سرکوب تبدیل شود؟



آی‌تی‌من- تروریستی احتمالی را در نظر بگیرید که قصد انجام عملیات انتحاری در یک منطقه پر تردد شهر را دارد و اگر بمب را فعال کند، صدها نفر خواهند مرد یا به شدت مجروح می‌شوند.

اما دوربین‌های مدار بسته مجهز به فناوری تشخیص چهره، او را در میان جمعیت می‌یابند و به طور خودکار مشخصات چهره او را با تصاویر موجود در پایگاه داده‌های مربوط به تروریست‌های شناخته شده یا افراد تحت تعقیب مقایسه می‌کنند. سیستم، پس از مثبت بودن نتیجه بررسی، پیام هشدار را ارسال می‌کند و نیروهای ضد تروریست به سرعت به محل اعزام و پیش از اقدام تروریست به منفجر کردن بمب، موفق به کشتن او می‌شوند. جان صدها نفر نجات می‌یابد و فناوری، کارش را به خوبی انجام  می‌دهد.

اما اگر فناوری تشخیص چهره اشتباه کند و اگر فرد مورد نظر تروریست نباشد و صرفا آدم بدشانسی باشد که شبیه یک تروریست بدذات است، چه؟ در این وضعیت جان یک انسان را به دلیل اعتماد بیش از حد به سیستمی که احتمال اشتباه دارد، گرفته‌ایم.

حالا فرض کنید خود شما آن آدم بدشانس هستید. در این صورت درباره این فناوری چه نظری دارید؟

آنچه ذکر شد، یکی از مسایل اخلاقی است که در استفاده از فناوری‌های هوش مصنوعی و تشخیص چهره با آن روبه‌روییم.
 
 
آموزش ماشین به دیدن – شناسایی و تمییز بین اشیا و چهره‌ها- کار به شدت دشواری است. دید کامپیوتری، همین چند وقت پیش در آزمایشی، از تشخیص تفاوت بین یک کیک یزدی و صورت سگ چی‌واوا ناتوان نبود.

تیمنیت گبرو (Timnit Gebru)، دانشمند کامپیوتر و یکی از مدیران تیم هوش مصنوعی اخلاقی گوگل، نشان داده است که فناوری تشخیص چهره در تشخیص تفاوت زن و مرد نیز به ویژه وقتی رنگ پوست‌ فرد تیره‌‌تر باشد، مشکل جدی دارد و زنی با پوست تیره، با احتمال زیادی به عنوان مرد تشخیص داده می‌شود.

وی در جریان نشست استفاده مفید از هوش مصنوعی که ماه مه گذشته در ژنو برگزار شد، گفت: مشخصات نزدیک به 130 فرد بالغ آمریکایی هم اکنون در پایگاه‌ داده‌های تشخیص چهره ذخیره شده است. اما مجموعه‌داده‌ها عمدتا مربوط به مردان و سفیدپوستان است و به این ترتیب، با افراد دارای رنگ پوست تیره‌تر سوگیری دارد و در این زمینه شاهد اشتباهات زیاد ماشین در مورد رنگین پوستان و تشخیص جنسیت هستیم.

مقامات شهر سانفرانسیسکو در کالیفرنیا نیز با تایید مشکلات این فناوری و خطری که برای آزادی‌های مدنی دارد، استفاده از فناوری تشخیص چهره را برای پلیس و نهادهای مجری قانون ممنوع اعلام کردند. اما سایر شهرها در ایالات متحده و همچنین کشورهای متعدد دیگر، همچنان درحال آزمایش این فناوری هستند.

برای مثال در بریتانیا، نیروهای پلیس درمنطقه ساوث ولز، لندن، منچستر و لستر، در عین مخالفت نهادهای مدافع آزادی‌های مدنی همچون Liberty و Big Brother Watch در حال آزمایش این سیستم‌ها هستند، هر دو نهاد مدافع آزادی‌های مدنی مذکور، نگران درصد بالای خطا در این سیستم‌ها و احتمال شناسایی افراد بی‌گناه به عنوان خلافکار هستند.

گبرو می‌گوید: سوگیری نیز نکته مهمی است که همه باید در رویارویی با این فناوری نگرانش باشند.

آمارهای دفتر فدرال زندان‌های ایالات متحده آمریکا نشان می‌دهد که 37.5 درصد کل زندانیان در این کشور سیاه‌پوست هستند، در حالی که آمریکایی‌های آفریقایی تبار تنها 13 درصد از جمعیت این کشور را تشکیل می‌دهند. به این ترتیب، اگر الگوریتم‌های هوش مصنوعی به درستی طراحی نشوند، با ارایه این مجموعه‌داده‌ها، الگوریتم ممکن است احتمال اینکه هر فرد سیاه‌پوست مرتکب جرم بشود را بالاتر ارزیابی بکند که این وضعیت، آثار مخربی روی امنیت و سیاست‌های اجتماعی خواهد داشت.

همین هفته گذشته، محققان دانشگاه Essex در بررسی‌های خود به این نتیجه رسیدند که در آزمایش این سیستم توسط پلیس کلان‌شهر لندن، 80 درصد خطا وجود داشته است که احتمال خطا در اجرای عدالت و نقض حق محرمانگی شهروندان را در پی خواهد داشت.

از سوی دیگر، فردی انگلیسی به نام اد بریجز نیز به دلیل استفاده پلیس ساوث ولز ازاین فناوری و ثبت تصویر او در حال خرید، علیه پلیس اقامه دعوی کرده است. الیزابت دنهام، رییس کمیسیون اطلاعات دولت انگلیس نیز درباره نبود چارچوب‌های قانونی برای به‌کارگیری فناوری تشخیص چهره، ابراز نگرانی کرده است.

اما این نگرانی‌ها، مانع از این نمی‌شود که آمازون، ابزار تشخیص چهره خود به نام Rekognition را، حتی علی‌رغم محالفت سهامداران، به پلیس ایالات متحده بفروشد.

آمازون می‌گوید که در قبال شیوه استفاده خریداران از محصولاتش مسوولیتی ندارد. اما در مقابل، شرکت سیلزفورس نیز که فناوری مشابهی با نام Einstein Vision توسعه داده، دیدگاه متفاوتی دارد.

کتی بکستر، معمار تجربه اخلاقی هوش مصنوعی در سیلزفورس در این رابطه به بی‌بی‌سی گفت: فناوری تشخیص چهره می‌تواند در زندان‌ها و به منظور ردگیری زندانیان و جلوگیری از خشونت‌ دارودسته‌های خلافکار در زندان مفید واقع شود. اما اگر پلیس بخواهد از این فناوری در دوربین‌های نصب شده روی لباس نیروهای خود در زمان دستگیری افراد استفاده کند، ما این استفاده را نامناسب می‌دانیم.

وی افزود: ما باید از مشتریان خود بپرسیم که قصد دارند از هوش مصنوعی به طور کل در چه مواردی استفاده کنند و فناوری تشخیص چهره نیز از این قاعده مستثنی نیست.

حالا نیروهای نظامی و ارتش‌ها نیز از این فناوری استفاه می‌کنند و ادعای فروشندگان مبنی بر اینکه فناوری تشخیص چهره‌ آنان، نه تنها دشمنان احتمالی، بلکه رفتارهای مشکوک را نیز شناسایی می‌کند، نیروهای نظامی را برای به‌کارگیری این فناوری ترغیب می‌کند. اما ایو داکور (Yves Daccord) مدیرکل کمیته صلیب سرخ جهانی، از این بابت به شدت اظهار نگرانی می‌کند.

داکور می‌گوید: این روزها جنگ‌ها نیز پیشرفته شده و حالا پهپادها و سلاح‌های خودکار می‌توانند بین افراد نظامی و غیرنظامی را تشخیص بدهند. اما آیا این تشخیص درست است؟ این ابزارها می تواند منجر به ویرانگری شود.
 


کد مطلب: 272407

آدرس مطلب :
https://www.itmen.ir/article/272407/فناوری-تشخیص-چهره-خدمت-پلیس-جانبدارانه-پرخطا

ITMen
  https://www.itmen.ir