تلاش ها برای جلوگیری از نقص های هوش مصنوعی
با وجود امیدهای فراوان به هوش مصنوعی، نقص ها و معایب این سیستم های رو به پیشرفت، نگرانی هایی را ایجاد میکند
هوش مصنوعی از عروسک های بازی تا کمک به انسان در تولیدات و سلامت تا زیان های آن بر جسمو روح انسان- قسمت شصت
آسیبپذیریهای هوش مصنوعی: حملات متخاصم، شایعتر و خطرناکتر از حد انتظار هستند
ویژهعلوم اعصاب
4 دسامبر 2023
خلاصه:یک مطالعه ی جدید، نشان میدهد سیستمهای هوش مصنوعی- بیش از آنچه قبلاً تصور میشد- مستعد حملات متخاصم هستند. این حملات، آنها را در برابر دستکاری آسیبپذیر میکند و میتواند منجر به تصمیمگیریهای نادرست شود.
محققان دریافتند که آسیبپذیریهای متخاصم در شبکههای عصبی عمیق هوش مصنوعی، گسترده است و نگرانیهایی را در مورد استفاده از آنها در برنامههای کاربردی حیاتی ایجاد میکند.
برای ارزیابی این آسیبپذیریها، تیم QuadAttacK را که یک نرمافزار است توسعه داد. این نرم افزار، میتواند شبکههای عصبی را از نظر حساسیت به حملات متخاصم آزمایش کند.
این یافته ها نیاز به افزایش استحکام هوش مصنوعی را در برابر چنین حملاتی، به ویژه در برنامه هایی با پیامدهای بالقوه بر زندگی انسان، برجسته می کند.
حقایق کلیدی:
حملات خصمانه شامل دستکاری داده ها برای گیج کردن سیستم های هوش مصنوعی است که به طور بالقوه منجر به نتایج اشتباه می شود.
QuadAttacK
که توسط محققان ساخته شده است، می تواند شبکه های عصبی عمیق را برای حساسیت به آسیب پذیری های متخاصم آزمایش کند.
آسیبپذیریهای گستردهای در شبکههای عمیق عصبی و پرکاربرد، پیدا شد و این نقص ها بر نیاز به افزایش استحکام هوش مصنوعی تأکید میکند.
منبع:دانشگاه ایالتی کارولینای شمالی
ابزارهای هوش مصنوعی برای کاربردهای مختلف نوید بخش هستند: از وسایل نقلیه خودران تا تفسیر تصاویر پزشکی.
با این حال، یک مطالعه، نشان میدهد ابزارهای هوش مصنوعی نسبت به حملات هدفمندی که به طور مؤثر سیستمهای هوش مصنوعی را مجبور به تصمیمگیری بد میکنند، از آنچه قبلا تصور میشد، آسیب پذیرتر هستند.
موضوع، به اصطلاح «حملات خصمانه» است که در آن شخصی دادههای وارد شده به یک سیستم هوش مصنوعی را دستکاری میکند تا آن را گیج کند.
برای نمونه، ممکن است کسی بداند که قرار دادن یک نوع برچسب خاص در یک نقطه خاص روی علامت توقف، می تواند به طور موثر علامت توقف را برای یک سیستم هوش مصنوعی نامرئی کند یا یک هکر می تواند کدی را روی دستگاه اشعه ی ایکس نصب کند و داده های تصویر را به گونه ای تغییر دهد و باعث شود یک سیستم هوش مصنوعی، تشخیص های نادرست بدهد.
آنها دریافتند آسیب پذیری ها بسیار بیشتر از آنچه قبلا تصور می شد رایج است.
تیانفو وو،دانشیار مهندسی برق و کامپیوتر در دانشگاه ایالتی کارولینای شمالی و یکی از نویسندگان مقاله ای در این زمینه، می گوید: «در بیشتر موارد، می توانید انواع تغییرات را در یک علامت توقف ایجاد کنید، و هوش مصنوعی که برای شناسایی علائم توقف آموزش دیده است، همچنان می داند که این علامت توقف است.
با این حال، اگر هوش مصنوعی آسیبپذیری داشته باشد و مهاجم، آن آسیبپذیری را بداند، فرد مهاجم میتواند از این آسیبپذیری استفاده کرده و حادثهای ایجاد کند.»
مطالعه جدید وو و همکارانش بر روی تعیین میزان رایج بودن این نوع آسیبپذیریهای متخاصم در شبکههای عمیق عصبی هوش مصنوعی متمرکز بود.
آنها دریافتند آسیب پذیری ها بسیار بیشتر از آن چیزی است که قبلا تصور می شد.
وو میگوید: «علاوه بر این، متوجه شدیم که مهاجمان میتوانند از این آسیبپذیریها استفاده کنند و هوش مصنوعی را وادار کنند دادهها را به هر شکلی که میخواهند تفسیر کند.
علامت توقف یا ایست: میتوانید به سادگی با استفاده از برچسبهای کمی متفاوت، سیستم هوش مصنوعی را وادار کنید که علامت توقف را یک صندوق پستی، یا علامت محدودیت سرعت، یا چراغ سبز و غیره بداند.
این بسیار مهم است، زیرا اگر یک سیستم هوش مصنوعی در برابر این نوع حملات قوی نباشد، نمیخواهید از سیستم استفاده عملی کنید؛ به ویژه برای برنامههایی که میتوانند بر زندگی انسانها تأثیر بگذارند.»
برای آزمایش آسیب پذیری شبکه های عصبی عمیق در برابر این حملات خصمانه، محققان نرم افزاری را به نام QuadAttacK ایجاد کردند. این نرم افزار می تواند برای آزمایش آسیب پذیری هر شبکه عصبی عمیق در برابر حملات متخاصم استفاده شود.
«اساساً، اگر یک سیستم هوش مصنوعی آموزش دیده، داشته باشید و آن را با داده های تمیز آزمایش کنید، سیستم هوش مصنوعی مطابق پیش بینی رفتار خواهد کرد. QuadAttacK
این عملیات را تماشا میکند و میآموزد که هوش مصنوعی چگونه در مورد دادهها تصمیم میگیرد. این به QuadAttacKاجازه میدهد تعیین کند چگونه دادهها میتوانند برای فریب هوش مصنوعی دستکاری شوند.
QuadAttack
سپس شروع به ارسال داده های دستکاری شده به سیستم هوش مصنوعی می کند تا ببیند هوش مصنوعی چگونه پاسخ می دهد. اگر QuadAttacKیک آسیبپذیری را شناسایی کرده باشد، میتواند به سرعت هوش مصنوعی را وادار کند هر نگاهی که QuadAttac میخواهد ببیند.
در آزمایش اثبات مفهوم، محققان از QuadAttacKبرای آزمایش چهار شبکه ی عصبی عمیق استفاده کردند: دو شبکه عصبی کانولوشن (ResNet- 50 و DenseNet-121) و دو ترانسفورماتور بینایی (ViT-B و DEiT-S).
این چهار شبکه به این دلیل انتخاب شدند که در سیستم های هوش مصنوعی در سراسر جهان استفاده گسترده ای دارند.
وو میگوید: «ما متعجب شدیم که هر چهار شبکه در برابر حملات دشمن بسیار آسیبپذیر هستند.
ما بهویژه تعجب کردیم از میزانی که میتوانیم حملات را تنظیم کنیم تا شبکهها آنچه را که ما میخواهیم ببینند.»
تیم تحقیقاتی QuadAttacKرادر دسترس عموم قرار داده است تا جامعه ی تحقیقاتی بتواند خودش از آن برای آزمایش شبکههای عصبی و آسیبپذیری آن استفاده کند. این برنامه را میتوانید در اینجا پیدا کنید:
https://thomaspaniagua.github.io/quadattack_web/.
وو میگوید: «اکنون که میتوانیم این آسیبپذیریها را بهتر شناسایی کنیم، قدم بعدی یافتن راههایی برای به حداقل رساندن این آسیبپذیریها است».
ما در حال حاضر راهحلهای بالقوهای داریم، اما نتایج آن کار هنوز در راه است.»
https://neurosciencenews.com/ai-vulnerabilities-neuroscience-25312/?fbclid=IwAR1HUxdAbkw0wvfzBcie-JqQRv3-Z45rkadC0hcFJRiAZ7zaiP8SqbxmMa4
آدرس مطب : اصفهان ، خیابان آمادگاه ، روبروی داروخانه سپاهان ، مجتمع اطبا ، طبقه اول
تلفن : 32223328 - 031