حماس تعلن انتهاء زيارتها لمصر وتطالب بتطبيق بنود وقف إطلاق النار تقرير: المفاوضات بين واشطن وطهران وصلت إلى طريق مسدود الرئيس يقرر تشكيل لجنة للتحقيق في المسؤولية الطبية عن استشهاد الأسير المحرر رياض العمور قتيل في جريمة إطلاق نار جديدة بجسر الزرقاء إصابات بالاختناق إثر اقتحام الاحتلال قرية المغير بنك أهداف خطير: إسرائيل تستعد لأسبوعين من التصعيد مع إيران حالة الطقس: أجواء مغبرة ولا يطرأ تغير على درجات الحرارة الصحة اللبنانية: 32 إصابة وتضرر مستشفى بغارات إسرائيلية إصابتان برصاص بحرية الاحتلال في مواصي خان يونس الاحتلال يشن حملة اعتقالات في مناطق متفرقة من الضفة الغربية الاحتلال يواصل إغلاق المسجد الأقصى لليوم الـ36 وسط تحذيرات من تداعيات خطيرة الحرس الثوري ينفي استهداف سفارة واشنطن بالرياض ويتهم إسرائيل تقرير: حكومة الاحتلال تخفض ميزانيات الوزارات لصالح تضخيم تمويل المستعمرات في الضفة الغربية مصرع 8 أفراد من عائلة واحدة جراء زلزال بقوة 5.8 درجة في أفغانستان 16 ألف مسافر تنقلوا عبر معبر الكرامة الأسبوع الماضي ارتفاع حصيلة الشهداء في قطاع غزة إلى 72,291 والإصابات إلى 172,068 منذ بدء العدوان أسعار المحروقات في نيسان: مستويات لم تسجل من قبل بتاريخ فلسطين إسرائيل: المنظومة العسكرية في إيران لا تزال تعمل بكفاءة وقادرة على استهدافنا تصاعد أسعار الوقود يرهق النقل العام… وعبء يومي يطال مئات الآلاف في الضفة إيران: مضيق "هرمز" لن يعود لوضعه السابق ولن يتم عبوره إلا بإذننا

إفصاح "غوغل" عن سلامة أحدث نماذجها للذكاء الاصطناعي محل قلق

نشرت شركة غوغل يوم الخميس، بعد أسابيع من إطلاق أقوى نموذج ذكاء اصطناعي لها حتى الآن، وهو "Gemini 2.5 Pro"، تقريرًا فنيًا يُظهر نتائج تقييمات السلامة الداخلية، لكن خبراء ينتابهم القلق حول ما جاء في التقرير.

وقال الخبراء إن تقرير السلامة يفتقر إلى تفاصيل، مما يُصعّب تحديد المخاطر التي قد يُشكّلها نموذج "Gemini 2.5 Pro".

وتُقدّم التقارير الفنية معلومات مفيدة -وإن كانت غير مُرضية أحيانًا- لا تُعلن عنها الشركات دائمًا على نطاق واسع حول نماذجها للذكاء الاصطناعي، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وبشكل عام، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا حسنة النية لدعم الأبحاث المستقلة وتقييمات السلامة.

وتتّبع "غوغل" نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها في مجال الذكاء الاصطناعي، حيث لا تُنشر التقارير الفنية إلا بعد أن تعتبر النموذج قد تجاوز المرحلة "التجريبية"، ولا تُدرج الشركة أيضًا نتائج جميع تقييمات "القدرات الخطيرة" في هذه التقارير؛ بل تُخصّصها لتدقيق منفصل.

ومع ذلك، أعرب عدة خبراء، تحدثوا إلى موقع "TechCrunch"، عن خيبة أملهم بسببب قلة التفاصيل في التقرير الخاص بنموذج "Gemini 2.5 Pro"، وأشاروا إلى أنه لا يذكر إطار السلامة "Frontier Safety Framework" -المعروفة اختصارًا بـ"FSF"- من "غوغل".

وقدمت "غوغل" إطار"FSF" العام الماضي، ووصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضررًا جسيمًا".

آراء الخبراء

قال بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية: "هذا (التقرير) ضؤل للغاية، ويحتوي على معلومات أقل ما يكون، وصدر بعد أسابيع من إتاحة النموذج للجمهور".

وأضاف: "من المستحيل التحقق مما إذا كانت غوغول تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها".

وقال توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، إنه على الرغم من سعادته بإصدار "غوغل" تقرير عن "Gemini 2.5 Pro"، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها "غوغل" نتائج اختبارات القدرات الخطيرة كان في يونيو 2024، لنموذج أُعلن عنه في فبراير من العام نفسه.

ولم تُصدر "غوغل" تقريرًا عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر وأكثر كفاءة أعلنت عنه الشركة الأسبوع الماضي، مما لا يبعث على الثقة كثيرًا. وقال متحدث باسم الشركة، لموقع "TechCrunch "، إن تقريرًا عن النموذج "سيصدُر قريبًا".

اتهامات تتعلق بالشفافية

ربما كانت "غوغل" من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتُهمت مؤخرًا بتقصيرها في الشفافية.

وأصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل بشأن السلامة لنماذجها مفتوحة المصدر الجديدة "Llama 4"، واختارت "OpenAI" عدم نشر أي تقرير لسلسلة "GPT-4.1".

وتُثقل كاهل "غوغل" ضمانات قدمتها الشركة العملاقة للجهات التنظيمية للحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. وقبل عامين، أبلغت "غوغل" الحكومة الأميركية بأنها ستنشر علنًا تقارير السلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدةً "بتوفير الشفافية العامة" حول منتجات الذكاء الاصطناعي.

وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه نشر التقارير الغامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي.

وقال: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبارات السلامة قبل الإطلاق من أشهر إلى أيام، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق عن سباق نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، مع تسارع الشركات إلى طرح نماذجها في السوق".