"التربية": 7488 طالبا استُشهدوا منذ بداية العام الجاري الاحتلال يهدم منشآت تجارية جنوب الخليل إصابة طفل وشاب برصاص الاحتلال الحي واعتقال آخرين والاستيلاء على أموال من الظاهرية الخارجية تدين إلغاء إسرائيل عمل 37 منظمة غير حكومية دولية سلطة الأراضي: تعليق 14 حوض تسوية للاعتراض في عدد من محافظات الضفة الغربية الرئيس في ذكرى انطلاق الثورة الـ61: الدولة الفلسطينيّة المستقلّة حقيقة حتميّة.. وماضون نحو تحقيقها نحو الحريّة والاستقلال مستوطنين يقطعون عشرات أشتال العنب في دوما جنوب نابلس الاحتلال يقتحم تقوع ومستوطنون يداهمون أطراف زعترة. منظمة التعاون الإسلامي تدين قرار الاحتلال منع عمل منظمات إنسانية في الأراضي الفلسطينية فتح في ذكرى الانطلاقة الـ61 للثورة الفلسطينية: شعبنا ماضٍ نحو إنجاز استقلاله الوطنيّ وتجسيد دولته الفلسطينيّة كاملة السّيادة وعاصمتها القدس تحذير أوروبي لإسرائيل: منع منظمات الإغاثة يحرم غزة من مساعدات حيوية الاحتلال يهدم محال تجارية ويصادر كرافانات عند المدخل الغربي لبلدة السموع 71,269 شهيدا منذ بدء عدوان الاحتلال على غزة لجنة الانتخابات تُطلق حملة التوعية والتثقيف لمرحلة التسجيل للانتخابات المحلية 2026 بن غفير يقتحم ترابين الصانع في النقب مجددا: شرطة الاحتلال تنفذ اعتقالات ومخالفات سير وتصدر أوامر هدم

إفصاح "غوغل" عن سلامة أحدث نماذجها للذكاء الاصطناعي محل قلق

نشرت شركة غوغل يوم الخميس، بعد أسابيع من إطلاق أقوى نموذج ذكاء اصطناعي لها حتى الآن، وهو "Gemini 2.5 Pro"، تقريرًا فنيًا يُظهر نتائج تقييمات السلامة الداخلية، لكن خبراء ينتابهم القلق حول ما جاء في التقرير.

وقال الخبراء إن تقرير السلامة يفتقر إلى تفاصيل، مما يُصعّب تحديد المخاطر التي قد يُشكّلها نموذج "Gemini 2.5 Pro".

وتُقدّم التقارير الفنية معلومات مفيدة -وإن كانت غير مُرضية أحيانًا- لا تُعلن عنها الشركات دائمًا على نطاق واسع حول نماذجها للذكاء الاصطناعي، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وبشكل عام، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا حسنة النية لدعم الأبحاث المستقلة وتقييمات السلامة.

وتتّبع "غوغل" نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها في مجال الذكاء الاصطناعي، حيث لا تُنشر التقارير الفنية إلا بعد أن تعتبر النموذج قد تجاوز المرحلة "التجريبية"، ولا تُدرج الشركة أيضًا نتائج جميع تقييمات "القدرات الخطيرة" في هذه التقارير؛ بل تُخصّصها لتدقيق منفصل.

ومع ذلك، أعرب عدة خبراء، تحدثوا إلى موقع "TechCrunch"، عن خيبة أملهم بسببب قلة التفاصيل في التقرير الخاص بنموذج "Gemini 2.5 Pro"، وأشاروا إلى أنه لا يذكر إطار السلامة "Frontier Safety Framework" -المعروفة اختصارًا بـ"FSF"- من "غوغل".

وقدمت "غوغل" إطار"FSF" العام الماضي، ووصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضررًا جسيمًا".

آراء الخبراء

قال بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية: "هذا (التقرير) ضؤل للغاية، ويحتوي على معلومات أقل ما يكون، وصدر بعد أسابيع من إتاحة النموذج للجمهور".

وأضاف: "من المستحيل التحقق مما إذا كانت غوغول تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها".

وقال توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، إنه على الرغم من سعادته بإصدار "غوغل" تقرير عن "Gemini 2.5 Pro"، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها "غوغل" نتائج اختبارات القدرات الخطيرة كان في يونيو 2024، لنموذج أُعلن عنه في فبراير من العام نفسه.

ولم تُصدر "غوغل" تقريرًا عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر وأكثر كفاءة أعلنت عنه الشركة الأسبوع الماضي، مما لا يبعث على الثقة كثيرًا. وقال متحدث باسم الشركة، لموقع "TechCrunch "، إن تقريرًا عن النموذج "سيصدُر قريبًا".

اتهامات تتعلق بالشفافية

ربما كانت "غوغل" من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتُهمت مؤخرًا بتقصيرها في الشفافية.

وأصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل بشأن السلامة لنماذجها مفتوحة المصدر الجديدة "Llama 4"، واختارت "OpenAI" عدم نشر أي تقرير لسلسلة "GPT-4.1".

وتُثقل كاهل "غوغل" ضمانات قدمتها الشركة العملاقة للجهات التنظيمية للحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. وقبل عامين، أبلغت "غوغل" الحكومة الأميركية بأنها ستنشر علنًا تقارير السلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدةً "بتوفير الشفافية العامة" حول منتجات الذكاء الاصطناعي.

وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه نشر التقارير الغامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي.

وقال: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبارات السلامة قبل الإطلاق من أشهر إلى أيام، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق عن سباق نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، مع تسارع الشركات إلى طرح نماذجها في السوق".