کد QR مطلبدریافت لینک صفحه با کد QR

جهان برای DeepNude آماده نیست

The Guardian , 9 تير 1398 ساعت 20:50

مولف : آروا مهدوی

مترجم : ایمان بیک

هفته گذشته عرضه یک اپلیکیشن جدید جنجالی شد؛ اپلیکیشنی که با دادن تصویری از یک زن، با استفاده از هوش مصنوعی، نسخه‌ای عریان از او را می‌ساخت و اگرچه این اپ، پس از اعتراضات بسیار حذف شد؛ اما نگرانی‌های تازه‌ای درباره سوءاستفاده از هوش مصنوعی ایجاد کرد.


 
 آی‌تی‌من- اپلیکیشن DeepNude روز پنج‌شنبه گذشته غیرفعال و از بازارهای اپ حذف شد. سازنده این اپ در توییتی نوشت: ما این پروژه را برای سرگرمی کاربران چند ماه قبل ایجاد کردیم و هرگز گمان نمی‌کردیم که اینقدر فراگیر شود تا حدی که نتوانیم ترافیک آن را کنترل کنیم.

این توییت می‌افزاید: باوجود تمامی اقدامات محافظتی (واترمارک) که ما درنظر گرفتیم. وقتی 500 هزار نفر از آن استفاده کنند، امکان سوءاستفاده از آن بالا خواهد بود. دنیا هنوز برای DeepNude آماده نیست.

بله؛ دنیا هنوز برای DeepNude آماده نیست؛ اما لازم است که برای آن آماده شویم. این بار سازنده اپ دچار پشیمانی شد و وجدانش موجب شد که برنامه‌اش را حذف کند؛ اما از این پس شاهد ظهور پی‌درپی اپلیکیشن‌های مشابه باشیم که روز به روز بر پیچیدگی آنها افزوده می‌شود. لازم به یادآوری نیست که DeepNude تنها برنامه‌ای نیست که اجازه می‌دهد خلافکاران تصاویر عریان جعلی بسازند. هم اکنون نیز تصویر بسیاری از زنان، بدون اطلاع خودشان، روی تصاویر عریان یا هرزه‌نگارانه جعل می‌شود و ما تا کنون در مورد این مساله آن‌چنان که باید اقدامی انجام نداده‌ایم.

ماری آن فرانکس، رییس بنیاد حقوق بشر سایبری، می‌گوید: زنان هم اکنون نیز با آسیب‌های ناشی‌ از شی گرایی جنسی (Sexual objectification) دست به گریبانند؛ ولی مشکلات زنان بابت مشکلاتی که این گونه فناوری‌ها ایجاد می‌کند، نادیده گرفته شده است.

در ماه‌های اخیر، نگرانی‌ها از فناوری جعل عمیق (DeepFake) گسترش یافته است؛ فناوری جدیدی مبتنی بر هوش مصنوعی که به کاربرانش امکان می‌دهد تصویر ویدیویی، صدا یا دستخط یک فرد مشهور را جعل کنند. اما آن‌گونه که فرانکس می‌گوید، عمده نگرانی‌ها و مباحثات به آثار منفی این فناوری برای سیاست‌مداران و افراد بانفوذ و مشهور معطوف است و این واقعیت نادیده گرفته می‌شود که انگیزه پشت بسیاری از این فناوری‌ها، کنترل و تحقیر زنان است. برای مثال DeepNude اجازه ساخت تصویر عریان از مردها را نمی‌دهد. این اپ به طور خاص روی زنان متمرکز است و حتی اگر تصویر یک مرد را به این اپلیکیشن وارد کنید؛ برای او اندام عریان زنانه جعل می‌کند.

آن فرانکس می‌افزاید: اگر شما قربانی جعل عمیق شوید؛ کار زیادی از دست‌تان برنمی‌آید. زیرا قوانین ما متناسب با فناوری پیشرفت نکرده است. از سوی دیگر، تقریبا محافظت از خود در برابر جعل عمیق غیرممکن است.

به گفته وی، برای محافظت از خود هیچ کاری نمی‌شود کرد؛ مگر اینکه کلا در فضای آنلاین نباشید.

اینترنت امروزه به فضایی ناامن برای زنان تبدیل شده است. بنا به گزارش سازمان عفو بین‌الملل، 29 درصد از زنان آمریکایی در فضای آنلاین با تهدید خشونت جنسی یا فیزیکی مواجه بوده‌اند. بررسی همین سازمان نشان می‌دهد که به طور متوسط، هر 30 ثانیه یک بار، یک توییت آزاردهنده یا حاوی توهین برای زنان ارسال می‌شود. در این میان، زنان سیاه‌پوست 84 درصد بیشتر از سفیدپوستان در معرض این توییت‌های آزاردهنده قرار دارند. پلتفرم‌های شبکه‌های اجتماعی هم تا کنون برای حل این مشکلات کار چندانی نکرده‌اند و این بی‌توجهی موجب شده که زنان در فضای آنلاین خود را سانسور کنند یا به کل شبکه‌های اجتماعی را ترک کنند.

ظهور فناوری جعل عمیق موجب خواهد شد که اینترنت به طور روز‌افزون برای زنان ناامن‌تر شود؛ مگر آنکه ما به جد به پدیده تنفر از زنان بپردازیم. ما در آستانه ورود به دورانی هستیم که زنان، قادر به ادامه حیات آنلاین نخواهند بود.
 
* آروا مهدوی، ستون نویس گاردین است
 


کد مطلب: 272345

آدرس مطلب :
https://www.itmen.ir/note/272345/جهان-deepnude-آماده-نیست

ITMen
  https://www.itmen.ir