Anthropic پیشبینی کرده است که طی یک سال آینده، کارمندان مجازی مبتنی بر هوش مصنوعی وارد شبکههای سازمانی میشوند. به گفتهی «جیسون کلینتون»، مدیر ارشد امنیت اطلاعات این شرکت، این اتفاق نیازمند بازنگری جدی در استراتژیهای امنیت سایبری کسبوکارهاست.
مساله کارمندان هوش مصنوعی چرا اهمیت دارد؟
کارمندان مجازی فراتر از رباتهای فعلی عمل میکنند؛ آنها دارای “حافظه”، نقشهای تعریفشده، حسابهای کاربری اختصاصی و حتی رمز عبور مخصوص خواهند بود. این سطح از خودمختاری، چالشهای امنیتی بیسابقهای ایجاد میکند.
نگرانیهای اصلی درباره کارمندان هوش مصنوعی:
- مدیریت حسابهای کاربری این هوشهای مصنوعی، تعیین سطح دسترسی به شبکهها و پاسخگویی در صورت بروز خطا یا حمله سایبری، از مسائل اصلی خواهد بود.
- خطر هک سیستمهای توسعه نرمافزار (CI/CD) توسط کارمندان AI هنگام انجام وظایف نیز وجود دارد.
اقدامات Anthropic:
- تست مداوم مدلهای Claude برای مقابله با حملات سایبری
- نظارت بر سوءاستفادههای احتمالی توسط مهاجمان سایبری
آینده امنیت سایبری:
کلینتون میگوید امنیت کارمندان مجازی، یکی از مهمترین حوزههای سرمایهگذاری شرکتهای AI در سالهای آینده خواهد بود. او به دنبال ابزارهایی برای نظارت کامل بر عملکرد این کارمندان و ایجاد دستهبندیهای جدید حسابهای کاربری است.
رقبا و سایر شرکت های هوش مصنوعی چه میکنند؟
- شرکت Okta به تازگی پلتفرمی برای مدیریت هویتهای “غیر انسانی” راهاندازی کرده است.
- Anthropic نیز در Goodfire، شرکتی که رفتار مدلهای هوش مصنوعی را تحلیل میکند، سرمایهگذاری کرده است.
چالشهای پیشروی کارمندان هوش مصنوعی:
ادغام هوش مصنوعی در محیطهای کاری، هنوز مسائل زیادی ایجاد کرده؛ از جمله چگونگی ثبت رسمی این رباتها در ساختار سازمانی شرکتها.