
قامت 26 دولة، بما في ذلك الولايات المتحدة والمملكة المتحدة وأستراليا وكندا وفرنسا وألمانيا وإسرائيل وإيطاليا واليابان ونيوزيلندا ونيجيريا والنرويج وكوريا الجنوبية وسنغافورة، بنشر مجموعة من المبادئ التوجيهية التي تهدف إلى تعزيز الأمن. من نماذج الذكاء الاصطناعي. صدرت الوثيقة المكونة من 20 صفحة في XNUMX نوفمبر، وتحث شركات الذكاء الاصطناعي على إعطاء الأولوية للأمن السيبراني، مع التركيز على الحاجة إلى ممارسات "الآمنة حسب التصميم". تسلط هذه المبادرة، التي قادها وزير الأمن الداخلي الأمريكي أليخاندرو مايوركاس، الضوء على الدور الحاسم للأمن السيبراني في مجال الذكاء الاصطناعي سريع التطور.
وتقدم الوثيقة توصيات واسعة النطاق، مثل الرقابة الصارمة على البنية التحتية للذكاء الاصطناعي والمراقبة المستمرة للتلاعب المحتمل. كما يؤكد على أهمية تدريب الموظفين في مجال الأمن السيبراني. ومع ذلك، فهو لا يعالج بعض القضايا المثيرة للجدل في الذكاء الاصطناعي، مثل تنظيم نماذج توليد الصور، والتزييف العميق، واستخدام البيانات في نماذج التدريب، مما أدى إلى رفع دعاوى قضائية ضد العديد من شركات الذكاء الاصطناعي لانتهاك حقوق الطبع والنشر.
وشدد مايوركاس على اللحظة المحورية في تطوير الذكاء الاصطناعي، معترفًا بالذكاء الاصطناعي باعتباره تقنية ذات تأثير عميق، حيث يعد الأمن السيبراني ضروريًا لضمان سلامتها وموثوقيتها.
تعد هذه المبادئ التوجيهية جزءًا من اتجاه أوسع للمشاركة الحكومية في تنظيم الذكاء الاصطناعي. وفي وقت سابق من الشهر، عُقدت قمة سلامة الذكاء الاصطناعي في لندن، مع التركيز على اتفاقيات تطوير الذكاء الاصطناعي. وفي الوقت نفسه، يعمل الاتحاد الأوروبي على تحسين قانون الذكاء الاصطناعي الخاص به لتنظيم القطاع، وأصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا في أكتوبر/تشرين الأول يحدد معايير السلامة والأمن في مجال الذكاء الاصطناعي. واجهت مبادرات الاتحاد الأوروبي والولايات المتحدة مقاومة من صناعة الذكاء الاصطناعي بسبب مخاوف من خنق الابتكار.
وقد لعبت شركات الذكاء الاصطناعي الكبرى مثل OpenAI، وMicrosoft، وGoogle، وAnthropic، وScale AI أيضًا دورًا في تشكيل هذه الإرشادات الأمنية الجديدة.