کسپرسکی خواستار استفاده اخلاقی از هوش مصنوعی در امنیت سایبری است.
ما شش اصل استفاده اخلاقی از هوش مصنوعی در صنعت امنیت سایبری را پیشنهاد می کنیم - که در مجمع جهانی حاکمیت اینترنت ارائه می شود.
توسعه سریع سیستم های هوش مصنوعی و تلاش برای معرفی آنها در همه جا، منبع خوش بینی و نگرانی است. هوش مصنوعی می تواند در زمینه های مختلف به انسان کمک کند - همانطور که صنعت امنیت سایبری از نزدیک می داند. ما در کسپرسکی تقریباً 20 سال است که از یادگیری ماشینی (ML) استفاده میکنیم و به درستی میدانیم که بدون سیستمهای هوش مصنوعی نمیتوان در برابر مجموعه عظیمی از تهدیدات سایبری دفاع کرد. در این مدت، ما همچنین طیف گسترده ای از مسائل مرتبط با هوش مصنوعی را شناسایی کرده ایم - از آموزش آن در مورد داده های نادرست گرفته تا حملات مخرب به سیستم های هوش مصنوعی و استفاده از هوش مصنوعی برای اهداف غیراخلاقی.
پلتفرمها و سازمانهای بینالمللی مختلف قبلاً اصول کلی هوش مصنوعی اخلاقی را توسعه دادهاند (برای مثال در اینجا توصیههای یونسکو آمده است)، اما دستورالعملهای خاصتری برای صنعت امنیت سایبری هنوز به طور معمول پذیرفته نشده است.
برای استفاده از هوش مصنوعی در حوزه امنیت سایبری بدون پیامدهای منفی، ما پیشنهاد میدهیم که صنعت اصول اخلاقی هوش مصنوعی را به کار گیرد، نسخه اول آن را که در کنفرانس اینترنتی سازمان ملل در ژاپن ارائه میدهیم.
البته این اصول نیاز به بحث و روشن شدن در جامعه گسترده امنیت سایبری دارند، البته ما از پیش اصول را رعایت میکنیم. این اصول چیست؟ در ادامه خلاصه این اصول آمده است.
شفافیت
کاربران این حق را دارند که بدانند آیا یک ارائه دهنده امنیتی از سیستم های هوش مصنوعی استفاده می کند یا خیر، و همچنین این سیستم ها چگونه و برای چه اهدافی تصمیم می گیرند. به همین دلیل است که ما متعهد به توسعه سیستمهای هوش مصنوعی هستیم که تا حداکثر میزان ممکن قابل تفسیر باشند، با تمام اقدامات حفاظتی لازم برای اطمینان از اینکه آنها نتایج معتبری ایجاد میکنند. هر کسی می تواند با مراجعه به یکی از مراکز شفافیت کسپرسکی ما با کد و گردش کار ما آشنا شود.
ایمنی
از جمله تهدیداتی که سیستمهای هوش مصنوعی با آن مواجه هستند، دستکاری مجموعه دادههای ورودی برای تولید تصمیمهای نامناسب است. بنابراین، ما معتقدیم که توسعه دهندگان هوش مصنوعی باید انعطاف پذیری و امنیت را در اولویت قرار دهند.
برای این منظور، ما طیف وسیعی از اقدامات عملی را برای ارائه سیستمهای هوش مصنوعی با کیفیت بالا اتخاذ میکنیم: ممیزیهای امنیتی ویژه هوش مصنوعی و تیم قرمز. حداقل استفاده از مجموعه داده های شخص ثالث در آموزش؛ به علاوه اجرای مجموعه ای از فناوری ها برای حفاظت چند لایه. در صورت امکان، ما از هوش مصنوعی مبتنی بر ابر (با همه حفاظتهای لازم) به مدلهای نصبشده محلی ترجیح میدهیم.
کنترل انسانی
سیستم های ML ما می توانند به طور مستقل عمل کنند، و نتایج و عملکرد آنها به طور مداوم توسط کارشناسان نظارت می شود. احکام سیستمهای خودکار ما در صورت لزوم تنظیم میشوند و خود سیستمها توسط متخصصان برای مقاومت در برابر تهدیدات سایبری بسیار جدید و/یا بسیار پیچیده سازگار و اصلاح میشوند. ما ML را با تخصص انسانی ترکیب می کنیم و متعهد هستیم که این عنصر کنترل انسانی را برای همیشه در سیستم های خود حفظ کنیم.
حریم خصوصی
هوش مصنوعی نمیتواند بدون دادههای بزرگ آموزش داده شود - برخی از این دادهها ممکن است شخصی باشند. بنابراین، یک رویکرد اخلاقی به استفاده از آن باید حقوق افراد را در حفظ حریم خصوصی رعایت کند. در عمل امنیت اطلاعات، این میتواند شامل اقدامات مختلفی شود: محدود کردن انواع و مقدار دادههای پردازش شده؛ نام مستعار و ناشناسسازی؛ کاهش ترکیب داده؛ اطمینان از صحت داده؛ و اعمال تدابیر فنی و سازمانی برای حفاظت از دادهها.
توسعه یافته برای امنیت سایبری
هوش مصنوعی در حوزه امنیت سایبری باید تنها برای اهداف دفاعی استفاده شود. این یک بخش اساسی از ماموریت ما برای ساختن یک جهان امن است که فناوریهای فردا زندگی همه ما را بهبود میبخشد.
آماده برای گفتگو
ما معتقدیم که تنها از طریق همکاری با یکدیگر می توانیم بر موانع مربوط به پذیرش و استفاده از هوش مصنوعی برای امنیت غلبه کنیم. به همین دلیل، ما گفتگو را با همه ذینفعان برای به اشتراک گذاشتن بهترین شیوه ها در استفاده اخلاقی از هوش مصنوعی ترویج می کنیم.
مطالب مرتبط
آدرس ایمیل: [email protected]
شماره تماس: ۰۲۱۴۱۷۶۴۷۲۴
ساعات کاری: شنبه تا چهارشنبه ۸:۳۰ الی ۱۷
آدرس: تهران، شهرک قدس، خیابان شهید ابراهیم شریفی، خیابان توحید یکم، پلاک ۳۷، طبقه ۲
کلیه حقوق مادی و معنوی این سایت متعلق به شرکت پارس تدوین می باشد