به گزارش گروه بین الملل خبرگزاری تسنیم، استفاده از مزایای ویژه هوش مصنوعی به ویژه در حوزههای دانشگاهی، اقتصادی و خدمات، از اهداف مهم سند توسعه ترکیه است. با این حال، مقامات ترکیه، درباره چالشهای مربوط به اثرگذاری هوش مصنوعی در امنیت ملی و معادلات امنیت سایبری، دغدغههای مهمی دارند.
محققین امنیت ملی ترکیه میگویند: هوش مصنوعی برای مسئولین و عوامل فعال در حوزه امنیت، به موازات مزایا، شتاب بخشی و اثربخشی، نگرانیهای جدیدی نیز ایجاد کرده است. در نتیجه در راهبرد کلان امنیت ملی، چالشهای مربوط به هوش مصنوعی و امنیت سایبری، در ردیف اولویتهای مهم و حساس تعریف میشود.
اولویتهای استراتژیک ترکیه
نیازهای حاکمیتی حیاتی و اولویتدار ترکیه در مواجهه با تهدیدات سایبری مبتنی بر هوش مصنوعی، باید در یک چارچوب استراتژیک مورد بررسی قرار گیرند. مسئله اساسی، فقط شناسایی خطرات جدید نیست، بلکه پاسخگویی و واکنش است. پاسخگویی به خطرات با ظرفیت نهادی، تنظیم مقررات، نظارت، مدیریت دادهها، امنیت زیرساختهای حیاتی و آگاهی عمومی، در لیست اولویتهای حیاتی است.
ترکیه تلاش کرده با تأسیس اداره امنیت سایبری (CSD) زمینه کاربردی جدیدی فراتر از ظرفیت دفاع فنی تعریف کند. در این حوزه حفاظتی – نظارتی، چنین اهدافی وجود دارد: نظر حفاظت از زیرساختهای حیاتی، تقویت هماهنگی بین نهادی، توسعه استانداردها، بلوغ ساختار «اکیپ مداخله در رویدادهای سایبری» (SOME)، مدیریت استفاده از هوش مصنوعی در بخش دولتی و حمایت از اکوسیستم امنیت ملی.

شکاف سیاستی
آسیب شناسی این حوزه نشان دهنده وجود یک «شکاف سیاستی» بین ریسک فنی و ظرفیت پاسخگویی نهادی است.
هرچه شکاف بین سرعت استفاده نهادها از سیستمهای مبتنی بر هوش مصنوعی و ظرفیت آنها برای تنظیم، نظارت، ثبت، محدود کردن و مدیریت این سیستمها در مواقع بحران بیشتر شود، آسیبپذیری استراتژیک عمیقتر میشود.
برای ترکیه، اولویت نخست: ایجاد یک هماهنگی مرکزی و معماری نهادی است که این شکاف را کاهش دهد. این معماری نهادی همچنین زمینه اجرای تحول دیجیتال، حاکمیت دادهها و اهداف هوش مصنوعی امن مندرج در برنامه توسعه دوازدهم، استراتژی ملی هوش مصنوعی و برنامههای سالانه ریاست جمهوری را تقویت میکند. بنابراین، اولویتهای امنیت سایبری مرتبط با هوش مصنوعی با دستور کار گستردهتر فناوری ملی و نوسازی عمومی همسو میشوند.
شکاف اصلی در هماهنگی این است که اگرچه هوش مصنوعی و امنیت سایبری تحت نظارت چندین نهاد قرار دارند، اما سازوکارهای یکپارچه کافی برای تصمیمگیری، اشتراکگذاری حوادث، تولید استاندارد مشترک و نظارت بر اجرا همیشه بین این بازیگران ایجاد نشده است.
چالشها و سوالات چندلایهای مانند نحوه آموزش مدل، دادههای استفاده شده در تغذیه مدل، محل قرارگیری محیط ابری، تأمینکننده، سیستم پشتیبانی تصمیمگیری و شناسایی مسئول خسارت، از دغدغههای مهم هستند.
ترکیه، به این مساله اهمیت حیاتی میدهد که تصمیمات مربوط به هوش مصنوعی نباید تبدیل به یک حوزه کاربردی پراکنده شود. لازم است در سطح ملی، مجموعه اصول مشترک، زبان ریسک مشترک، منطق مشترک گزارش حادثه و انتظارات مشترک حسابرسی تعریف شوند. در سطح نهادی، باید اطمینان حاصل شود که واحدهای حقوقی، انطباق، مدیریت ریسک، امنیت اطلاعات، حاکمیت دادهها و حسابرسی داخلی در یک چارچوب کار میکنند.
مقررات، استانداردها و نظارت
شکاف اصلی در حوزه نظارتی این است که قوانین مربوط به هوش مصنوعی در بسیاری از موارد یا بیش از حد کلی هستند یا به اندازه کافی با امنیت سایبری، حفاظت از دادهها، تدارکات عمومی و مدیریت زیرساختهای حیاتی یکپارچه و منسجم نشدهاند. به همین دلیل، نیاز فزایندهای به مقررات ثانویه دقیقتر و راهنماییهای بخشی وجود دارد تا دستههای ریسک خاص هوش مصنوعی در این حوزهها، تحت نظارت قرار بگیرند:
استفاده از هوش مصنوعی مولد در مؤسسات دولتی.
زنجیرههای تأمین مدل.
جایگذاری دادهها.
خطرات رسانههای فیک یا مصنوعی.
سیستمهای پشتیبانی تصمیمگیری مدل بزرگ زبانی.
شکاف در این حوزه را میتوان در سه بُعد تعریف کرد:
اول، شکاف تعریف و دامنه وجود دارد. باید مشخص شود که کدام سیستمهای هوش مصنوعی پرخطر در نظر گرفته شده و تحت کنترل ویژه قرار میگیرند.
دوم، شکاف اجرایی در تعریف چگونگی عملکرد مکانیسمهای ارزیابی ریسک، ثبت سوابق، آزمایش، حسابرسی، نظارت انسانی و گزارش حوادث در سطح نهادی.
سوم، شکاف هماهنگی در انطباق استفاده از هوش مصنوعی با امنیت سایبری، حفظ دادههای شخصی، تدارکات عمومی و قوانین زیرساختهای حیاتی.

باید مشخص شود که مسئولیت ناشی از محتوای تولید شده توسط هوش مصنوعی مولد و به ویژه در اینترنت، دقیقاً بر عهده کیست. همانطور که در گزارش کمیسیون تحقیقات هوش مصنوعی پارلمان ترکیه تاکید شده، باید بین «مقررات موجود در حقوق خصوصی و حقوق جزا»، «رژیم مسئولیت در چارچوب قانون»، و «مسئولیت محتوای مصنوعی پرخطر»، ارتباط و انطباق برقرار شود.
در سیستمهایی که توسط مؤسسات دولتی استفاده میشوند، شرایطی مانند طراحی امنیتی، ثبت تراکنشها، طبقهبندی دادهها، شفافیت تأمینکننده، قابلیت حسابرسی و تأیید انسانی باید توسط چارچوبهای فنی مشترک پشتیبانی شوند.
«قابلیت توضیح» و «قابلیت حسابرسی» بخشهای گزیرناپذیر مقررات این حوزه هستند و به زبانی ساده، هوش مصنوعی قابل توضیح، فقط یک اولویت فنی نیست، بلکه شرطی برای حسابرسی و حاکمیت شرکتی در نظر گرفته میشود.
زیرساختهای حیاتی و تابآوری بخشی
از دیدگاه ترکیه، انرژی، امور مالی، مخابرات، حمل و نقل، صنایع دفاعی و خدمات عمومی از جمله بخشهایی هستند که تهدیدات سایبری مبتنی بر هوش مصنوعی میتوانند بیشترین تأثیر را در آنها داشته باشند.
در این حوزهها، خطر محدود به نقض سیستمهای پردازش اطلاعات نیست. تداوم عملیاتی میتواند پیامدهای مستقیمی بر امنیت، امنیت تأمین، نظم عمومی و اعتماد اجتماعی داشته باشد.
بنابراین، اولویت استراتژیک صرفاً محافظت از زیرساختهای حیاتی با منطق کلاسیک امنیت فناوری اطلاعات نیست. یکپارچگی دادهها، قابلیت اطمینان مدل، دقت فرآیندهای پشتیبانی تصمیمگیری، شفافیت زنجیره تأمین و مدیریت وابستگیهای فناوری خارجی باید همزمان با هم در نظر گرفته شوند.
فهرستبندی سیستمهای حیاتی، قابل مشاهده کردن اینکه کدام سرویس به کدام مدل خارجی یا لایه ابری وابسته است و تمایز تعهدات امنیتی بر اساس سطح بحرانی بودن آنها، از نیازهای اساسی این بخش هستند.

گذار به یک مدل اعتماد صفر نیز تحت این عنوان از اهمیت استراتژیک برخوردار است. در محیطی که تهدیدات مبتنی بر هوش مصنوعی در حال افزایش است، رویکرد اعتماد پیشفرض سنتی به طور فزایندهای ناکافی به نظر میرسد.
احراز هویت چند عاملی، اصل حداقل امتیاز، تجزیه و تحلیل رفتاری مداوم، ثبت وقایع سیستم متمرکز، نظارت بر دسترسی به دادهها، اقدامات حفاظتی اضافی برای دادههای حساس و مکانیسمهای پاسخ خودکار در صورت لزوم باید به تدریج در زیرساختهای حیاتی پیادهسازی شوند.
در کوتاهمدت، کنترلهای هویت و دسترسی اولیه باید تقویت شوند. در میانمدت، ارزیابی ریسک پویا و قابلیتهای پاسخ نیمهخودکار باید ایجاد شوند. در درازمدت، یک معماری اعتماد صفر یکپارچه باید در لایههای هویت، شبکه، داده، دستگاه و برنامه ایجاد شود.
اگرچه سیستمهای هوش مصنوعی میتوانند الگوهای حمله، سیگنالهای ناهنجاری و رفتارهای غیرمعمول را از طریق مجموعه دادههای بزرگ سریعتر تشخیص دهند، اما ظرفیت متخصصان انسانی برای تفسیر زمینه، فیلتر کردن موارد مثبت کاذب، تأیید تصمیمات حیاتی و ارزیابی تأثیرات سازمانی همچنان ضروری است.
بنابراین، تأکید شد که واقعبینانهترین و پایدارترین رویکرد، یک مدل دفاعی ترکیبی است که تخصص انسانی را حذف نمیکند، بلکه مزایای سرعت و مقیاس هوش مصنوعی را با نظارت انسانی ترکیب میکند.
در این گزارش همچنین اشاره شده که مسئله اساسی از نظر ظرفیت سازمانی، ایمنسازی، حسابرسی و با پاسخگویی کاملاً تعریفشده در زمینه اتوماسیون است.
در بخش بعدی گزارش، به این موضوع خواهیم پرداخت که پژوهشگران مطالعات امنیت ملی ترکیه، برای سیاست گذاری در سه گستره کوتاه مدت، میان مدت و بلندمدت در هوش مصنوعی و امنیت سایبری، چه برنامه ای در نظر گرفتهاند.
ادامه دارد...
انتهای پیام/