شمشیر دولبه هوش مصنوعی برای امنیت سایبری

به گزارش وبلاگ بروز، خبرنگاران، گروه فناوری های نوین: طی سال های گذشته هوش مصنوعی مولد (AI) به عنوان ابزاری قدرتمند و مؤثر در زمینه های مختلف، از جمله امنیت سایبری ظهور نموده است. این فناوری که بر اساس الگوریتم های یادگیری عمیق عمل می نماید تواناهایی متعدد مانند فراوری محتوای واقعی و غیرواقعی به صورت متن، تصویر و ویدئو دارد.

شمشیر دولبه هوش مصنوعی برای امنیت سایبری

درحالی که هوش مصنوعی مولد نویدبخش افزایش امنیت سایبری است، قادر به ایجاد مخاطرات جدی برای این حوزه نیز هست. تکنولوژی و پیشرفت هایش باعث قدرتمندتر شدن مجرمان سایبری شده و خدماتی را به آن ها ارائه می دهد. یکی از این چالش ها استفاده از مدل های زبانی مانند ChatGPT برای نوشتن کدهای مخرب است.

76 درصد از شرکت ها بر اساس آمار فوربس و تحقیقات شرکت بلک بری، هوش مصنوعی و یادگیری ماشینی را در اولویت های بودجه مختص فناوری اطلاعات خود قرار داده اند تا بتوانند حجم زیادی از داده ها را برای شناسایی و کاهش تهدیدات سایبری تجزیه تحلیل نمایند؛ در نتیجه هوش مصنوعی هم برای مجرمین سایبری و هم مبارزه با جرایم سایبری ابزاری ضروری است.

دولت ها و شرکت ها برای مدیریت بهتر آینده بهتر است مخاطرات و کاربردهای هوش مصنوعی را در امنیت سایبری شناخته و راه هایی برای مقابله با چالش های آن در نظر بگیرند. در ادامه به بخشی از فرصت ها و مخاطرات هوش مصنوعی برای امنیت سایبری اشاره می کنیم.

کاربردهای هوش مصنوعی مولد در امنیت سایبری

*شناسایی و تجزیه تحلیل بدافزار

هوش مصنوعی مولد قادر است با تجزیه وتحلیل نمونه هایی از بدافزارها، روش و الگوریتم آن ها را دریافته و با ارائه آن به متخصصان و تحلیلگران امنیتی بسیار مؤثر عمل کند. متخصصان و تحلیلگران امنیتی با استفاده از الگوهای تحلیل شده به وسیله هوش مصنوعی مولد می توانند بدافزارها را بهتر درک نموده و اقدامات دفاعی متقابل و مؤثر و روش های دفاعی پیشگیرانه تازهی را بر اساس الگوی عملکردی از بدافزارها که هوش مصنوعی به آن ها ارائه نموده تدوین نمایند. بیشتر تصمیم گیرندگان حوزه فناوری اطلاعات قصد دارند روی امنیت سایبری مبتنی بر هوش مصنوعی سرمایه گذاری نمایند.

*طراحی نمونه های متخاصم

یکی دیگر از توانایی های هوش مصنوعی طراحی نمونه های بدافزارهای متخاصم است که به طور اختصاصی برای فریب هوش مصنوعی طراحی شده اند. با فراوری چنین نمونه هایی متخصصان می توانند تدابیر امنیتی لازم را برای محافظت از مدل ها و سیستم های هوش مصنوعی در برابر حملات خصمانه ایجاد نمایند. این تدابیر می تواند منجر به تقویت دفاعی و استحکام هوش مصنوعی در برابر حملات پیچیده متخاصمان و مجرمین سایبری گردد.

*شکستن رمز عبور و احراز هویت

هوش مصنوعی می تواند برای سخت کردن تکنیک های شستن رمز عبور مجرمان سایبری با تحلیل و آنالیز رفتار کاربران، ترکیبات رمز عبور احتمالی را در نظر گرفته و مدل های تازه رمز عبور که شکستن آن ها سخت تر باشد را ایجاد نموده و سیستم های احراز هویت قوی تری طراحی کند. این قابلیت های هوش مصنوعی می تواند به افزایش امنیت سایبری یاری کند.

*ارزیابی آسیب پذیری و تشخیص نفوذ شبکه

هوش مصنوعی می تواند آسیب پذیری ها را در سیستم های نرم افزاری شناسایی نموده و توصیه هایی برای برطرف کردن آن دهد و از این نظر می تواند از آنتی ویروس ها قدرتمندتر عمل کند؛ زیرا زمان و کوشش مورداحتیاج برای شناسایی و برطرف نقص های امنیتی را کاهش می دهد و با عملکرد بهینه خود نسبت به ابزارهای قدیمی، شرایط امنیتی کلی سیستم ها و برنامه ها را بهبود می بخشد. از طرف دیگر هوش مصنوعی رفتارهای مشکوکی که نشان دهنده نفوذ در شبکه است را تشخیص داده و به آن ها پاسخ مناسب داده و از زیر ساخت های حیاتی محافظت نمایند. به عبارت دیگر هوش مصنوعی امکان نظارت مستمر اتوماتیک را فراهم می نماید که برای امنیت سایبری مدرن امری ضروری است.

خطرات و آسیب های هوش مصنوعی برای امنیت سایبری

* فیشینگ پیشرفته و حملات مهندسی اجتماعی

یکی از خطرات هوش مصنوعی مولد زبانی، توانایی ایجاد ایمیل های فیشینگ، پیغام ها یا تماس های تلفنی بسیار قانع نماینده است. این یک زنگ خطر بزرگ برای افراد سازمان و حتی دولت هاست زیرا مهاجمان به وسیله فیشینگ می توانند با فریب کاربران دست به اقدامات مخرب و فاش کردن اطلاعات حساس بزنند. پیچیدگی هوش مصنوعی مولد اثربخشی مهندسی اجتماعی را تقویت نموده و مقاومت در برابر آن ها را سخت تر می نماید. تربیت جامعه ای با سواد سایبری و رسانه ای بالا و مطلع به اصول مهندسی اجتماعی برای جلوگیری از فریب خوردن از ابزار فناورانه مدرن، یکی از احتیاجهای بشر امروز است.

*مطالب و اطلاعات جعلی عمیق

هوش مصنوعی مولد می تواند محتوای جعلی عمیق (deep fake) بسیار واقعی با فرمت های تصویر، ویدئو و صدا فراوری کند. سوءاستفاده نمایندگان با استفاده از این قابلیت هوش مصنوعی می توانند با انتشار اطلاعات نادرست افکار عمومی را دستکاری نموده و حتی هویت افراد را جعل نمایند. دیپ فیک می تواند عواقبی شدید؛ مانند آسیب زدن به آبرو، سو استفاده های سیاسی داشته باشد و در نهایت به اعتماد عمومی خدشه ای جبران ناپذیر وارد کند.

*دورزدن سیستم های امنیتی سنتی

مهاجمان می توانند با طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتی ویروس ها را دور بزنند و با طراحی و فراوری بدافزارهایی که دائماً درحال توسعه و تکامل اند و از شناسایی طفره می روند، حملاتی پیچیده انجام دهند.

*پیغامدهای اخلاقی و حقوقی

استفاده از هوش مصنوعی مولد در امنیت سایبری، باعث نگرانی هایی در مورد نقض حریم خصوصی افراد و تصمیم گیری های مغرضانه این ابزار شده است. به عبارت دیگر هوش مصنوعی مولد قادر است امنیت کاربران را در فضای سایبری تهدید کند.

ضروری است تا چارچوب های قانونی پیرامون مسئولیت پذیری این ابزار تازه فناوری ایجاد شده و هم زمان با پیشرفت های هوش مصنوعی به روز شوند تا با ایجاد هنجارها و ضوابط ضروری، تعهدات آن را افزایش دهند.

هوش مصنوعی و آینده امنیت سایبری

امیرعباس رکنی، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره کم و کیف تأثیر هوش مصنوعی بر امنیت سایبری به وبلاگ بروز گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط کنونی حاکم بردنیا فناوری، تأثیرات قابل توجهی بر حوزه امنیت سایبری گذاشته است و انتظار می رود این فرایند در آینده جدی تر و مؤثرتر به پیش برود. به طورکلی، باید توجه داشت که فناوری هوش مصنوعی همانند یک سکه دو رو دارد و پیشرفت ها و توسعه های آن می تواند منجر به شکل گیری مجموعه ای از فرصت ها و تهدیدهایی برای حوزه امنیت سایبری بگردد.

وی اضافه نمود: تا همین جای کار هم باید اذعان داشت که هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یک پدیده تحول آفرین بوده است. ما در دنیا فناوری کمتر پدیده ای را می توانیم همانند هوش مصنوعی پیدا کنیم که در مدت زمان کوتاهی بتواند یک پارادایم مختص به خود خلق نموده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد کند. هوش مصنوعی دقیقاً همین اقدام را در سال های اخیر انجام داده است. هنگامی که ما در مورد امنیت سایبری می خواهیم صحبت کنیم، باید توجه داشته باشیم که بعضی مؤلفه ها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب می نماید و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یک ملازمه ای در اینجا وجود دارد. در حالی که می بینیم هوش مصنوعی با اتوماتیک سازی بسیاری از فرایندها، احتیاج به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل می رساند. بر همین اساس است که می گویم هوش مصنوعی منجر به ایجاد یک تغییر پارادایم در دنیا فناوری شده است.

وی در ادامه به مرور مهم ترین تغییراتی که به وسیله هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و اضافه نمود: اگر بخواهیم مروری بر مهم ترین تغییراتی که به وسیله هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد می توانیم اشاره کنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیب پذیری به صورت بهبودیافته و سوم عملیات امنیتی اتوماتیک.

این کارشناس امنیت فضای مجازی شرح داد: هوش مصنوعی این پتانسیل را دارد که به طور قابل توجهی توانایی های تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتم های یادگیری ماشینی می توانند حجم وسیعی از داده ها، از جمله ترافیک شبکه، رفتار کاربر و گزارش های سیستم را تجزیه و تحلیل نمایند تا الگوها و ناهنجاری هایی را که ممکن است نشان دهنده حملات سایبری باشد، شناسایی نمایند. سیستم های مجهز به هوش مصنوعی می توانند از داده های تاریخی بیاموزند و با تهدیدات تازه سازگار شوند و امکان تشخیص سریع تر و دقیق تر حوادث امنیتی را فراهم نمایند. علاوه بر این، هوش مصنوعی می تواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و کاهش تهدیدها، پاسخ به حادثه را اتوماتیک کند.

وی درباره موضوع ارزیابی آسیب پذیری به صورت بهبودیافته به یاری هوش مصنوعی گفت: هوش مصنوعی می تواند برای شناسایی مؤثرتر آسیب پذیری ها در سیستم ها و شبکه های نرم افزاری استفاده گردد. الگوریتم های هوش مصنوعی می توانند کد، پیکربندی های سیستم و شبکه را برای شناسایی نقاط ضعف احتمالی و شکاف های امنیتی تجزیه و تحلیل نمایند. این می تواند به سازمان ها یاری کند تا شرایط امنیتی خود را تقویت نمایند.

کرمی ادامه داد: هوش مصنوعی می تواند عملیات امنیتی مختلف را اتوماتیک کند، بار کاری تحلیلگران انسانی را کاهش داده و زمان پاسخگویی سریع تر را ممکن بسازد. برای مثال، هوش مصنوعی می تواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسکن آسیب پذیری را اتوماتیک کند. این نه تنها کارایی عملیاتی را بهبود می بخشد، بلکه به تحلیلگران انسانی اجازه می دهد تا بر چالش های امنیتی پیچیده تر و استراتژیک تر تمرکز نمایند.

پژوهشگر فضای مجازی در مورد خطراتی که هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت که هوش مصنوعی می تواند به شکل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر به کارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزاینده ای در مورد استفاده بالقوه از هوش مصنوعی به وسیله دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تکنیک های هوش مصنوعی متخاصم را می توان برای فرار از تمهیدات امنیتی سنتی، مانند فراوری بدافزار چندشکلی یا راه اندازی حملات هدفمند مهندسی اجتماعی، به کار برد. برای مقابله با این تهدیدات، دفاع های مبتنی بر هوش مصنوعی، از جمله سیستم های تشخیص نفوذ فعال، فناوری های فریب و مکانیسم های احراز هویت مبتنی بر هوش مصنوعی درحال توسعه هستند.

وی ضمن اشاره به پیغامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه شرح داد: پیغامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتکا به هوش مصنوعی در امنیت سایبری نگرانی های اخلاقی و چالش های حریم خصوصی را افزایش می دهد. سیستم های مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل احتیاج به دسترسی به حجم زیادی از داده ها دارند. اطمینان از حفظ حریم خصوصی و امنیت این داده ها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیم گیری های مرتبط با امنیت، مانند اقدامات پاسخ اتوماتیک به حادثه یا اشتراک گذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.

وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. بعضی از الگوریتم های هوش مصنوعی، به ویژه مدل های یادگیری عمیق، به عنوان جعبه های سیاه عمل می نمایند و درک و شرح فرآیند تصمیم گیری آن ها را به چالش می کشند. این عدم تفسیرپذیری می تواند مانع اعتماد و پذیرش سیستم های هوش مصنوعی در سناریوهای تصمیم گیری امنیتی و حیاتی گردد.

پژوهشگر پژوهشگاه فضای مجازی اضافه نمود: به طور کلی، باید بگویم که اتکای بیش ازحد به هوش مصنوعی می تواند پاشنه آشیل امنیت سایبری باشد. در حالی که هوش مصنوعی می تواند امنیت سایبری را تا حد زیادی افزایش دهد، اتکای بیش ازحد به آن بدون نظارت انسانی می تواند مخاطره آمیز باشد. تخصص انسانی هنوز در درک زمینه تهدیدها، انطباق با تکنیک های حمله در حال تکامل و تصمیم گیری های حیاتی، ضروری است. به همین علت است که صاحب نظران این حوزه تأکید می نمایند که برای استفاده از فرصت های ارائه شده به وسیله هوش مصنوعی در امنیت سایبری و درعین حال کاهش خطرات، اتخاذ یک رویکرد کل نگرانه بسیار مهم است. این شامل ارزیابی منظم سیستم های هوش مصنوعی برای شناسایی و کاهش سوگیری ها و آسیب پذیری ها، اطمینان از شفافیت و تفسیرپذیری مدل های هوش مصنوعی، حفاظت از حریم خصوصی داده ها و حفظ تعادل بین هوش انسانی و قابلیت های هوش مصنوعی است.

تنظیم گری هوش مصنوعی و امنیت سایبری

رکنی با اشاره به ابزارهای متعدد سیاست گذاران و قانون گذاران برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاست گذاران و قانون گذاران ابزارهای متعددی برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها می توانند به ایجاد دستورالعمل ها، استانداردها و چارچوب های قانونی یاری نمایند که استقرار مسئولانه و ایمن هوش مصنوعی را ترویج می نمایند. با نگاهی به تجربیات بسیاری از کشورهای پیشگام در حوزه هوش مصنوعی، می توانیم چندین ابزار کلیدی را به منظور تنظیم گری هوش مصنوعی شناسایی کنیم.

وی در ادامه مهم ترین ابزارهای یاد شده را چنین برشمرد:

قانون و مقررات: قانون گذاران می توانند قوانین و مقرراتی را ایجاد نمایند که به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری می پردازد. این مقررات می تواند جنبه های مختلفی از جمله حفظ حریم خصوصی داده ها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین می نماید که سیستم های هوش مصنوعی به گونه ای پیشرفته و مورد استفاده قرار می گیرند که از منافع افراد و سازمان ها محافظت می نماید.

به روزرسانی و تکمیل قوانین ناظر بر حفاظت از داده ها و حریم خصوصی: قانون گذاران می توانند قوانین حفاظت از داده ها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستم های هوش مصنوعی به روزرسانی و تقویت نمایند. این قوانین می توانند دستورالعمل هایی را برای جمع آوری، ذخیره سازی، پردازش و اشتراک گذاری داده ها ایجاد نمایند و اطمینان حاصل نمایند که سیستم های هوش مصنوعی بر اساس حریم خصوصی و رضایت داده ها ساخته شده اند.

برنامه های صدور گواهینامه: تنظیم نماینده ها می توانند برنامه های صدور گواهینامه یا چارچوب های انطباق را برای سیستم های هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامه ها می توانند استانداردها و الزامات امنیتی، حریم خصوصی و ملاحظات اخلاقی را معین نمایند. با تأیید سیستم های هوش مصنوعی که این استانداردها را برآورده می نمایند، تنظیم نماینده ها می توانند اطمینان حاصل نمایند که سازمان ها شیوه های هوش مصنوعی مسئولانه را اتخاذ می نمایند.

دستورالعمل های اخلاقی و کدهای رفتاری: تنظیم گران می توانند با کارشناسان صنعت هوش مصنوعی همکاری نمایند تا دستورالعمل های اخلاقی و کدهای رفتاری را برای توسعه دهندگان و کاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد نمایند. این دستورالعمل ها می توانند شیوه های هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را معین نمایند. پیروی از چنین دستورالعمل هایی می تواند به کاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی یاری کند.

مکانیزم های حسابرسی و پاسخگویی: قانون گذاران می توانند مکانیزم های حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد نمایند. این مکانیسم ها می توانند شامل ارزیابی های منظم، ممیزی های شخص ثالث و الزامات گزارش دهی برای ارزیابی عملنمودهای امنیتی و اخلاقی سیستم های هوش مصنوعی مورد استفاده در امنیت سایبری باشند.

وی در سرانجام تأکید کرد که تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نکته ای بسیار حائز اهمیت برای قانون گذاران است و گفت: با به کارگیری این ابزارها، آن ها می توانند محیطی ایجاد نمایند که توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت کند و اعتماد به فناوری های هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت کند.

کنفرانس امنیت سایبری

به گزارش وبلاگ بروز، سال گذشته در حاشیه کنفرانس سالانه امنیت سایبری سانفرانسیسکو (RSA)، شرکت فناوری اطلاعات (Zscaler) از هوش مصنوعی به عنوان عاملی در افزایش 47 درصدی حملات فیشینگ در سال 2022 یادکرد. کارشناسان، مدیران و مقامات دولتی نگران اند که این تازه شروع راه است، زیرا مهاجمان می توانند از هوش مصنوعی برای نوشتن نرم افزارهایی استفاده نمایند که به روش های تازه وارد شبکه سازمان شده و به وسیله فرایندهایی که طبیعی به نظر می رسند، داده ها را به صورت غیرقانونی به بیرون منتقل نمایند.

کارشناسان در این کنفرانس بعلاوه تأکید داشتند که هوش مصنوعی به بالابردن امنیت سیستم های سازمان ها نیز یاری می نماید. این فناوری با آنالیز ناهنجاری ها و جستجوی آسیب پذیری های ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطه ضعف ها می گردد.

چه اقشاری باید به فکر اقدامات جدی باشند؟

شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان کسب وکار، دولت ها و سازمان های مبارزه با جرایم سایبری بسیار مهم است. با توسعه استفاده از هوش مصنوعی و محبوبیت مدل های زبانی مولد مانند ChatGPT بین مردم و چشم میزانایی مانند هوشمند کردن شهرها، مدیران باید پیغامدهای اخلاقی، سایبری و اجتماعی راه چاره های مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالی که هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان میزان یا حتی بیشتر از آن مهم است که پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع کل جامعه از آن استفاده کنیم.

منبع: خبرگزاری مهر

به "شمشیر دولبه هوش مصنوعی برای امنیت سایبری" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "شمشیر دولبه هوش مصنوعی برای امنیت سایبری"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید