اخیراً تبلیغات زیادی در زمینه هوش مصنوعی صورت گرفته است، اما این بدان معنا نیست که ربات ها قرار است جایگزین ما شوند. این مقاله این موضوع را شفاف میکند و توضیح می دهد که کسب و کارها چه رویکردی باید نسبت به هوش مصنوعی داشته باشند.
از تفکر در مورد ماشینهای خودران گرفته تا ترس از رباتهای هوش مصنوعی که میتوانند دنیا را نابود کنند، در چند سال گذشته تبلیغات هوش مصنوعی زیادی انجام شده است. هوش مصنوعی تصورات، رویاها و گهگاهی کابوس های ما را تسخیر کرده است. با این حال، واقعیت این است که پیشرفت هوش مصنوعی در حال حاضر بسیار کمتر از آن چیزی است که ما پیشبینی میکردیم. به عنوان مثال، خودروهای خودران که اغلب به عنوان نمادی از آینده بی حد و حصر هوش مصنوعی در نظر گرفته میشوند، یک مورد استفاده محدود را نشان میدهند و هنوز یک برنامه رایج در تمام بخشهای حملونقل نیستند.
هوش مصنوعی در مقابل یادگیری ماشین
هوش مصنوعی و یادگیری ماشین اصطلاحاتی هستند که اغلب به جای هم استفاده می شوند، اما مفاهیم متفاوتی را نشان می دهند. هدف هوش مصنوعی ایجاد آگاهی است که به معنای قابلیت آگاهی و استعداد قبولی در تست تورینگ است که با استفاده از آموخته ها و ارتقاء آن به سطح بعدی کار می کند. هدف استفاده از هوش مصنوعی کپی کردن اعمال انسان است، مانند ایجاد یک ربات تمیزکننده که به روشی شبیه به انسان عمل می کند.
یادگیری ماشین زیر مجموعه ای از هوش مصنوعی است که شامل مدل های ریاضی است و توانایی های آن بر اساس ترکیب ماشین ها با داده ها است. یادگیری ماشین با یادگیری درس از رویدادها و سپس اولویت بندی آن درس ها کار می کند. در نتیجه، یادگیری ماشین میتواند اقداماتی را انجام دهد که انسانها قادر به انجام آنها نیستند، مانند مرور مجموعههای وسیعی از دادهها، کشف الگوها، پیشبینی احتمالات و موارد دیگر.
هوش مصنوعی عمومی در مقابل هوش مصنوعی محدود
مفهوم هوش مصنوعی عمومی (General AI) همان چیزی است که اغلب مردم را میترساند، زیرا مظهر “رباتهای ارباب” ما است که جایگزین انسانها میشوند. با این حال، در حالی که این ایده از نظر فنی امکان پذیر است، ما در حال حاضر در آن مرحله نیستیم.
بر خلاف هوش مصنوعی عمومی، هوش مصنوعی محدود (Narrow AI) یک شکل تخصصی از هوش مصنوعی است که برای کارهای بسیار خاص تنظیم شده است. این متمرکز بودن به پشتیبانی از انسانها کمک میکند و ما را از کارهایی که خیلی سخت یا بسیار مضر هستند، رهایی میبخشد. توجه داشته باشید که هوش مصنوعی قرار نیست جایگزین ما شود؛ هوش مصنوعی محدود در حال حاضر در صنایع مختلف مانند ساخت خودرو یا جعبه های بسته بندی استفاده می شود. در امنیت سایبری، هوش مصنوعی محدود میتواند دادهها و گزارشهای فعالیت را به منظور جستجوی ناهنجاریها یا نشانههای حمله آنالیز کند.
هوش مصنوعی و یادگیری ماشین در طبیعت
سه مدل رایج هوش مصنوعی و یادگیری ماشین در طبیعت وجود دارد: هوش مصنوعی مولد، یادگیری ماشین تحت نظارت و یادگیری ماشین بدون نظارت.
هوش مصنوعی مولد
هوش مصنوعی مولد یک زمینه پیشرفته در هوش مصنوعی است که با مدل هایی مانند LLM که بر روی مجموعه ای از دانش، آموزش داده شده است. فناوری هوش مصنوعی مولد توانایی تولید محتوای جدید بر اساس اطلاعات موجود در آن مجموعه را دارد. هوش مصنوعی مولد به عنوان شکلی از “تصحیح خودکار” یا ” تایپ از قبل” توصیف شده است، اما قدرتمندتر. نمونه هایی از اپلیکیشن های هوش مصنوعی مولد عبارتند از بینگ، بارد، ChatGPT، Dall-E و دستیاران تخصصی سایبری مانند IBM Security QRadar Advisor with Watson یا MSFT Security CoPilot.
هوش مصنوعی مولد برای مواردی مانند ایده پردازی، کمک به ویرایش و انجام تحقیقات بر روی یک مجموعه متن قابل اعتماد، بهترین گزینه است. متخصصان امنیت سایبری، مانند تیمهای SOC و فیوژن، میتوانند از هوش مصنوعی مولد به منظور تحقیق استفاده کنند تا به آنها در درک آسیبپذیریهای حمله روز صفر، توپولوژیهای شبکه یا شاخصهای نفوذ (IoC) کمک کنند. مهم است که بدانیم هوش مصنوعی مولد گاهی اوقات “توهم” ایجاد می کند، یعنی پاسخ های اشتباه.
به گفته ایتای مائور، مدیر ارشد استراتژی امنیت در Cato Networks، “هوش مصنوعی مولد می تواند به مجرمان نیز کمک کند. به عنوان مثال، آنها می توانند از آن برای نوشتن ایمیل های فیشینگ استفاده کنند. قبل از ChatGPT، یکی از تشخیص های اساسی ایمیل های فیشینگ اشتباهات املایی و دستور زبان بد بود. اینها نشانه هایی بودند که نشان می داد چیزی مشکوک است. اکنون مجرمان می توانند به راحتی یک ایمیل فیشینگ به زبان های مختلف و با دستور زبان کامل بنویسند.
یادگیری بدون نظارت
یادگیری بدون نظارت در یادگیری ماشین به این معنی است که داده های آموزشی و نتایج، برچسب گذاری نمی شوند. این رویکرد به الگوریتمها اجازه میدهد تا بدون دخالت انسان از دادهها استنتاج کنند، الگوها، خوشهها و ارتباطات را بیابند. یادگیری بدون نظارت معمولاً برای توصیه های پویا مانند وب سایت های خرده فروشی استفاده می شود.
در امنیت سایبری، یادگیری بدون نظارت میتواند برای خوشهبندی یا گروهبندی و یافتن الگوهایی که قبلاً آشکار نبودند استفاده شود، به عنوان مثال میتواند به شناسایی همه بدافزارها با امضای خاصی که از یک کشور خاص سرچشمه میگیرد، کمک کند. همچنین می تواند ارتباطات و لینک های بین مجموعه داده ها را بیابد. به عنوان مثال، تعیین اینکه آیا افرادی که روی ایمیل های فیشینگ کلیک می کنند، احتمال بیشتری برای استفاده مجدد از رمزهای عبور دارند یا خیر. یکی دیگر از موارد استفاده، تشخیص ناهنجاری است، مانند شناسایی فعالیتی که ممکن است نشان دهد مهاجم از اطلاعات اکانت دزدیده شده استفاده می کند.
یادگیری بدون نظارت همیشه انتخاب درستی نیست. هنگامی که خروجی اشتباه تاثیر بسیار بالا و پیامدهای شدیدی دارد، زمانی که به زمان های آموزشی کوتاه نیاز است، یا زمانی که شفافیت کامل مورد نیاز است، توصیه می شود رویکرد متفاوتی در پیش بگیرید.
یادگیری تحت نظارت
در یادگیری تحت نظارت، داده های آموزشی با جفت های ورودی/خروجی برچسب گذاری می شوند و دقت مدل به کیفیت برچسب گذاری و کامل بودن مجموعه داده ها بستگی دارد. مداخله انسانی اغلب برای بررسی خروجی، بهبود دقت و اصلاح هرگونه سوگیری مورد نیاز است. یادگیری تحت نظارت بهترین گزینه برای انجام پیش بینی ها است.
در امنیت سایبری، یادگیری تحت نظارت برای طبقه بندی استفاده می شود که می تواند به شناسایی فیشینگ و بدافزار کمک کند. همچنین میتوان از آن برای رگرسیون استفاده کرد، مانند پیشبینی هزینه یک حمله جدید بر اساس هزینههای حوادث گذشته.
اگر زمانی برای آموزش وجود نداشته باشد یا کسی برای برچسب زدن یا آموزش داده ها وجود نداشته باشد، یادگیری تحت نظارت گزینه مناسبی نیست. همچنین زمانی که نیاز به آنالیز مقادیر زیادی از داده وجود دارد، زمانی که داده کافی وجود ندارد، یا زمانی که طبقه بندی/خوشه بندی خودکار هدف نهایی است، توصیه نمی شود.
یادگیری تقویتی (RL)
یادگیری تقویتی (RL) فضایی بین یادگیری کاملاً تحت نظارت و بدون نظارت جای می گیرد و یک رویکرد منحصر به فرد برای یادگیری ماشین است. این به آن معنا است که زمانی که یک مدل آموزشی در پیش بینی موارد استفاده خاص ناکام باشد، یک مدل دیگر بازآموزی می شود. حتی یادگیری عمیق، با دسترسی به مجموعه بزرگ داده، همچنان میتواند موارد استفاده غیرمتعارف را که یادگیری تقویتی میتواند به آن رسیدگی کند، از دست بدهد. وجود یادگیری تقویتی یک پذیرش ضمنی است که مدل ها می توانند ناقص باشند.
آنچه مجرمان سایبری درباره هوش مصنوعی مولد می گویند
هوش مصنوعی مولد مورد توجه مجرمان سایبری است. به گفته ایتای مائور “جنایتکاران سایبری از روزی ChatGPT، Bard و سایر برنامه های هوش مصنوعی مولد معرفی شدند، در مورد نحوه استفاده از صحبت می کردند و همچنین تجربیات و افکار خود را در مورد قابلیت های آنها به اشتراک می گذاشتند. همانطور که به نظر می رسد، آنها معتقدند که GenAI دارای محدودیت هایی است و احتمالا در چند سال آینده برای استفاده مهاجمان کامل تر خواهد شد.”
برخی از نمونه های مکالمه عبارتند از:
چارچوب مدیریت ریسک هوش مصنوعی توسط NIST
هنگام تعامل با هوش مصنوعی و راه حل های مبتنی بر هوش مصنوعی، درک محدودیت ها، خطرات و آسیب پذیری های هوش مصنوعی بسیار مهم است. چارچوب مدیریت ریسک هوش مصنوعی توسط NIST مجموعهای از دستورالعملها و بهترین شیوهها است که برای کمک به سازمانها در شناسایی، ارزیابی و مدیریت ریسکهای مرتبط با استقرار و استفاده از فناوریهای هوش مصنوعی طراحی شده اند.
چارچوب از شش عنصر تشکیل شده است:
- معتبر و قابل اعتماد: هوش مصنوعی می تواند اطلاعات اشتباهی را ارائه دهد که در GenAI به عنوان “توهم” نیز شناخته می شود. مهم است که شرکتها بتوانند هوش مصنوعی مورد استفاده خود از لحاظ دقت و قابل اعتماد بودن اعتبار سنجی کنند.
- ایمن: اطمینان از اینکه اطلاعات خواسته شده با سایر کاربران به اشتراک گذاشته نمی شود، مانند مورد سامسونگ.
- ایمن و انعطاف پذیر : مهاجمان از هوش مصنوعی برای حملات سایبری استفاده می کنند. سازمان ها باید اطمینان حاصل کنند که سیستم هوش مصنوعی آنها در برابر حملات محافظت شده و ایمن است و میتواند تلاش برای سواستفاده هکر ها و یا استفاده آنها از هوش مصنوعی سازمان برای حمله را خنثی کند.
- مسئولیت پذیر و شفاف: مهم است که بتوانیم زنجیره تامین هوش مصنوعی را توضیح دهیم و اطمینان حاصل کنیم که گفتگوی شفاف در مورد نحوه عملکرد آن وجود دارد. هوش مصنوعی جادو نیست.
- افزایش حریم خصوصی: اطمینان از محافظت و ناشناس بودن اطلاعات درخواستی در دریاچه داده و به هنگام استفاده.
- منصفانه – این یکی از مهمترین عناصر است. این به معنای مدیریت سوگیری مضر است. به عنوان مثال، اغلب در تشخیص چهره هوش مصنوعی تعصب وجود دارد، به طوری که مردان با پوست روشن در مقایسه با زنان و افراد با پوست تیرهتر با دقت بیشتری شناسایی میشوند. به عنوان مثال، هنگام استفاده از هوش مصنوعی برای اجرای قانون، این می تواند پیامدهای شدیدی داشته باشد.
جمع بندی
و در پایان بهتر است بدانید، هوش مصنوعی نه تنها ترسناک نیست، بلکه می تواند یک پل پرتاب برای شما باشد، اما به شرطی که اطلاعات کاملی از نحوه استفاده از آن را بلد باشد.