کد QR مطلبدریافت لینک صفحه با کد QR

هوش مصنوعی تبدیل به سلاح سایبری می‌شود

آنا , 5 آبان 1399 ساعت 11:59

اگرچه هوش مصنوعی امروزه به روند اصلی فناوری تبدیل شده و کاربردهای مختلفی را به کاربران ارائه می‌دهد،‌ اما درعین‌حال می‌تواند مشکلات و خطراتی را نیز ایجاد کند.



آی‌تی‌من- با ظهور هوش مصنوعی به‌عنوان یک روند اصلی در فناوری، می‌توان گفت توانایی‌ها و خطرات احتمالی آن به‌طور موازی رو به افزایش است. در حال حاضر تفکری وجود دارد که انسان‌ها و جوامع توسط ماشین‌های همه‌چیز‌دان نابود خواهند شد. از طرفی نیز بسیاری از مردم قدردان هوش مصنوعی و بهبودهایی که می‌تواند برای تمدن ایجاد کند هستند.فناوری یادگیری ماشین (ML) به مجموعه داده‌های عظیم نیاز دارد. در بسیاری از سیستم‌های دنیای واقعی مانند اتومبیل‌های خودران، ترکیبی پیچیده از سنسورهای بینایی رایانه‌ای، برنامه‌نویسی پیچیده برای تصمیم‌گیری آنی و روباتیک موردنیاز است. اما در مقابل مشاغلی که از هوش مصنوعی استفاده می‌کنند، استقرار آن ساده‌تر است اما نکته‌ای که وجود دارد این است که هوش مصنوعی می‌تواند به اطلاعات و کارکردهای مختلف سیستم دسترسی پیدا کرده و درنتیجه خطرات جدی ایجاد کند. بنابراین قبل از اتخاذ این فناوری باید همه جوانب در نظر گرفته شود.سوگیری تصادفی در سیستم‌های هوش مصنوعی چیز جدیدی نیست و برنامه نویسان یا مجموعه داده‌های خاص می‌توانند آن را محصور کنند. متأسفانه اگر این سوگیری منجر به اتخاذ تصمیمات ضعیف و حتی تبعیض‌آمیز شود، درنتیجه باعث ایجاد پیامدهای قانونی و خسارت به شهرت آن مجموعه می‌شود. برای مثال بسیاری از سیستم‌های تشخیص چهره و هوش مصنوعی تبعیض نژادی قائل می‌شوند و افراد سیاه‌پوست را تشخیص نمی‌دهند. این نوع سوگیری همچنین موجب پیش‌بینی اشتباه می‌شود و هوش مصنوعی نمی‌تواند تصمیمات دقیقی بگیرد.ایجاد نظارت انسانی و آزمایش دقیق سیستم‌های هوش مصنوعی می‌تواند خطرات را در مرحله طراحی کاهش دهد. این امر همچنین با رصد دقیق آن سیستم‌ها در هنگام کار، امکان‌پذیر است. توانایی‌های تصمیم‌گیری سیستم‌های هوش مصنوعی باید اندازه‌گیری و ارزیابی شود تا اطمینان حاصل شود که سوگیری نوظهور یا تصمیم‌گیری مشکوک به‌سرعت رسیدگی می‌شود.اگرچه این تهدیدها مبتنی بر خطاهای ناخواسته و شکست در طراحی و اجرا است، اما هنگامی‌که افراد قصد دارند سیستم‌های هوش مصنوعی را از کار بیندازند یا آنها را به‌عنوان سلاح به‌کار گیرند، مجموعه دیگری از خطرات ظاهر می‌شود.گمراه کردن سیستم‌های هوش مصنوعی می‌تواند به طرز نگران‌کننده‌ای آسان باشد! مهاجمان سایبری می‌توانند مجموعه داده‌ها را برای آموزش هوش مصنوعی دست‌کاری کنند، تغییرات نامحسوسی در پارامترهای و الگوریتم‌های طراحی‌شده دقیق انجام دهند تا هرگونه سوء‌ظن نادیده گرفته شود و درعین‌حال هوش مصنوعی را به‌آرامی در جهت موردنظرشان هدایت کنند.در جایی که مهاجمان موفق به دسترسی به مجموعه داده‌ها نمی‌شوند، آنها ممکن است از گریز (دست‌کاری در ورودی‌ها که منجر به اشتباهات شدید می‌شود) استفاده کنند. درنتیجه شناسایی سخت می‌شود.اگرچه ممکن است بررسی صحت داده‌ها و ورودی‌ها امکان‌پذیر نباشد، اما باید تلاش شود تا داده‌ها از منابع معتبر و قابل‌اطمینان جمع‌آوری شود. همچنین هوش مصنوعی باید طوری تقویت شود تا بتواند ورودی‌های مخرب را شناسایی کند. علاوه بر این سیستم‌های هوش مصنوعی باید به مکانیسم‌های پیشگیرانه مجهز شود که در صورت وقوع اشتباه یا عدم عملکرد صحیح، خاموش کردن آن به‌راحتی انجام گیرد.

 چگونه هوش مصنوعی تبدیل به سلاح می‌شود؟
مجرمان سایبری همچنین می‌توانند از هوش مصنوعی برای اثربخشی حملات اجتماعی خود استفاده کنند. درواقع هوش مصنوعی می‌تواند تشخیص الگوهای رفتاری را کشف کند و بفهمد چگونه می‌توان مردم را به قانونی بودن یک ویدئو، تماس تلفنی یا ایمیل متقاعد کرد. سپس می‌تواند مردم را ترغیب کند که با شبکه‌ها تعامل کنند و داده‌های حساس را تحویل دهند. البته تمام تکنیک‌های اجتماعی که مجرمان سایبری در حال حاضر به کار می‌گیرند با استفاده از هوش مصنوعی می‌توانند به میزان قابل‌توجهی بهبود یابند.برای مثال یکی از حملات سایبری که به کمک هوش مصنوعی اتفاق افتاد، حمله هکری به سایت تسک ربیت (TaskRabbit) در سال ۲۰۱۸ بود. طی این حمله 3.75 میلیون کاربر این وب‌سایت در آوریل ۲۰۱۸ تحت تأثیر قرار گرفتند و هویت و اطلاعات حساب بانکی آنها سرقت شد.

در سال ۲۰۱۹ نیز دو حمله هکری توسط برخی هکرها علیه اینستاگرام انجام شد. این حملات که به کمک هوش مصنوعی صورت گرفت، حساب برخی افراد هک شد و اطلاعات و تصویر نمایه آنها تغییر یافت. در دیگر مورد رمزعبور حساب برخی افراد در صفحه آنها به نمایش گذاشته شد.
 


کد مطلب: 274612

آدرس مطلب :
https://www.itmen.ir/news/274612/هوش-مصنوعی-تبدیل-سلاح-سایبری-می-شود

ITMen
  https://www.itmen.ir