معلومات أساسية - ما نعرفه عن اختبارات الضغط الأمريكية لنماذج الذكاء الاصطناعي من جوجل، وxAI، ومايكروسوفت
مايكروسوفت MSFT | 0.00 | |
ميتا بلاتفورمس META | 0.00 | |
ألفابيت A GOOGL | 0.00 | |
أمازون دوت كوم AMZN | 0.00 |
بقلم كورتني روزين وجودي غودوي
واشنطن، 5 مايو (رويترز) - أعلنت إدارة ترامب يوم الثلاثاء أنها وسعت برنامجاً يمنح علماء الحكومة الأمريكية إمكانية الوصول إلى نماذج الذكاء الاصطناعي غير المنشورة لإجراء تقييمات المخاطر ليشمل DeepMind التابعة لشركة جوجل، وxAI، ومايكروسوفت.
وبحسب الشركتين، فإن شركة OpenAI المصنعة لـ ChatGPT وشركة Anthropic المالكة لـ Claude كانتا تعملان بالفعل بشكل طوعي مع المركز الأمريكي لمعايير الذكاء الاصطناعي والابتكار، وهو فريق من علماء الحكومة الأمريكية، لاختبار النماذج غير المنشورة بحثًا عن نقاط الضعف.
إليكم ما نعرفه عن التقييمات:
ما هي المخاطر التي تركز عليها الولايات المتحدة؟
يركز علماء الحكومة الأمريكية على "المخاطر الملموسة"، مثل خطر استخدام النماذج المتقدمة لشن هجمات إلكترونية على البنية التحتية الأمريكية، وفقًا لموقع مركز دراسات الذكاء الاصطناعي الأمريكي (CAISI). ويسعون إلى الحد من فرص خصوم الولايات المتحدة في استخدام الذكاء الاصطناعي لتطوير أسلحة كيميائية أو بيولوجية، أو التلاعب بالبيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي الأمريكية.
ما الذي ستسلمه الشركات؟
أعلن كريس ليهان، رئيس الشؤون العالمية في OpenAI، في منشور على لينكدإن يوم الثلاثاء، أن الشركة تتعاون مع المجموعة لاختبار GPT-5.5-Cyber. ويُعدّ GPT-5.5-Cyber نسخةً مُعدّلة من أحدث نماذج الشركة، والمُصممة خصيصًا لأعمال الأمن السيبراني الدفاعي.
أعلنت شركة مايكروسوفت (MSFT.O) في بيان لها أنها ستتعاون مع العلماء لبناء مجموعات بيانات مشتركة وسير عمل لتقييم نماذج الذكاء الاصطناعي المتقدمة. ولم تُحدد مايكروسوفت هذه النماذج.
أتاحت شركة أنثروبيك لشركة CAISI إمكانية الوصول إلى نماذج متاحة للعموم وأخرى غير منشورة، مما سمح للباحثين بفحص الثغرات الأمنية في عملية تُعرف باسم "الاختبار الأحمر"، أو محاكاة سلوك الجهات الخبيثة، وفقًا لما ذكرته الشركة في سبتمبر. كما زودت الشركة CAISI بوثائق مفصلة حول الثغرات الأمنية المعروفة وآليات الأمان.
وقال متحدث باسم شركة جوجل ديب مايند، ذراع أبحاث الذكاء الاصطناعي التابعة لشركة ألفابت (GOOGL.O) ، إنها ستوفر الوصول إلى "نماذجها وبياناتها الخاصة".
لم ترد شركة xAI على الفور على طلب رويترز للتعليق.
ما الذي توصلت إليه الولايات المتحدة حتى الآن؟
كشفت أعمال شركة أنثروبيك مع شركة CAISI أن حيلًا مثل الادعاء بحدوث مراجعة بشرية، أو استبدال الأحرف، يمكن أن تتجاوز آليات الأمان، حسبما ذكرت الشركة، مضيفة أنها قامت بتصحيح نقاط الضعف.
أعلنت شركة OpenAI في سبتمبر أنها تعاونت مع CAISI لفحص ثغرات أمنية في برنامج ChatGPT Agent الخاص بها، والتي كان من الممكن أن تسمح لمهاجمين متطورين بتجاوز إجراءات الأمن السيبراني الخاصة بشركة OpenAI. وأوضحت الشركة أن هذه الثغرة كانت ستُمكّن المهاجم من "التحكم عن بُعد في أنظمة الكمبيوتر التي يمكن للبرنامج الوصول إليها خلال تلك الجلسة، وانتحال شخصية المستخدم بنجاح في مواقع ويب أخرى قام بتسجيل الدخول إليها".
وافقت الشركات، إلى جانب Meta و Amazon AMZN.O و Inflection AI، في عام 2023 على السماح لخبراء مستقلين بفحص نماذجها بحثًا عن مخاطر الأمن البيولوجي والأمن السيبراني.
كما أصدر علماء الحكومة الأمريكية، الذين تم تنظيمهم تحت اسم مختلف خلال فترة رئاسة جو بايدن، إرشادات طوعية للحماية من خطر تسريب نماذج الذكاء الاصطناعي للمعلومات الصحية الخاصة أو إنتاج إجابات غير صحيحة.
ويعمل العلماء الآن على وضع إرشادات لمقدمي خدمات البنية التحتية الحيوية، مثل قطاعات الاتصالات وخدمات الطوارئ، لاختبار أنظمة الذكاء الاصطناعي الخاصة بهم، وفقًا لموقعهم الإلكتروني.
