مستوطنون يهاجمون قصرة وبورين جنوب نابلس شظايا الصاروخ سقطت في 10 مواقع .. صاروخ إيراني انشطاري يضرب إيلات ويخلّف أضرارًا وإصابات الشرطة تتعامل مع شظايا صاروخية سقطت في بيت ساحور أكسيوس: "تل أبيب" تستعد لعملية برية واسعة جنوبي لبنان مستوطنون يقتحمون خربة سمرة بالأغوار الشمالية عدة رشقات صاروخية متتالية من إيران وإصابات في إيلات رشقات صاروخية متتالية من إيران وإصابات في إيلات الجيش الإسرائيلي: إيران حاولت إسقاط مقاتلة إسرائيلية فوق أراضيها الصحة اللبنانية: ارتفاع حصيلة الشهداء إلى 826 والجرحى إلى 2009 منذ 2 آذار الحرس الثوري الإيراني: تدمير مسيّرة مسلحة من طراز "هيرمس".. وإسقاط 155 طائرة مسيرة منذ بدء العدوان غوتيريش يعرب عن خشيته من تحوّل جنوب لبنان إلى "أرض قاحلة" جراء العدوان الإسرائيلي استشهاد الشاب أمير معتصم عودة برصاص المستوطنين في بلدة قصرة جنوب نابلس "أكسيوس": مقترح فرنسي لإنهاء حرب لبنان تتضمن الاعتراف بإسرائيل الاحتلال يصيب مواطن ويعتدي بالضرب على نجله شمال غرب القدس قوات الاحتلال تقتحم بيتا جنوب نابلس الاحتلال يقتحم بلدة العيسوية إصابة شاب برصاص الاحتلال غرب الخليل متطرفون يهود يواصلون التحريض على استهداف المسجد الأقصى قوات الاحتلال تقتحم بيت فوريك شرق نابلس الداخل المحتل: قتيل بجريمة إطلاق نار بالناصرة

إفصاح "غوغل" عن سلامة أحدث نماذجها للذكاء الاصطناعي محل قلق

نشرت شركة غوغل يوم الخميس، بعد أسابيع من إطلاق أقوى نموذج ذكاء اصطناعي لها حتى الآن، وهو "Gemini 2.5 Pro"، تقريرًا فنيًا يُظهر نتائج تقييمات السلامة الداخلية، لكن خبراء ينتابهم القلق حول ما جاء في التقرير.

وقال الخبراء إن تقرير السلامة يفتقر إلى تفاصيل، مما يُصعّب تحديد المخاطر التي قد يُشكّلها نموذج "Gemini 2.5 Pro".

وتُقدّم التقارير الفنية معلومات مفيدة -وإن كانت غير مُرضية أحيانًا- لا تُعلن عنها الشركات دائمًا على نطاق واسع حول نماذجها للذكاء الاصطناعي، بحسب تقرير لموقع "TechCrunch" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".

وبشكل عام، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا حسنة النية لدعم الأبحاث المستقلة وتقييمات السلامة.

وتتّبع "غوغل" نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها في مجال الذكاء الاصطناعي، حيث لا تُنشر التقارير الفنية إلا بعد أن تعتبر النموذج قد تجاوز المرحلة "التجريبية"، ولا تُدرج الشركة أيضًا نتائج جميع تقييمات "القدرات الخطيرة" في هذه التقارير؛ بل تُخصّصها لتدقيق منفصل.

ومع ذلك، أعرب عدة خبراء، تحدثوا إلى موقع "TechCrunch"، عن خيبة أملهم بسببب قلة التفاصيل في التقرير الخاص بنموذج "Gemini 2.5 Pro"، وأشاروا إلى أنه لا يذكر إطار السلامة "Frontier Safety Framework" -المعروفة اختصارًا بـ"FSF"- من "غوغل".

وقدمت "غوغل" إطار"FSF" العام الماضي، ووصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تُسبب "ضررًا جسيمًا".

آراء الخبراء

قال بيتر وايلدفورد، المؤسس المشارك لمؤسسة "Institute for AI Policy and Strategy" البحثية: "هذا (التقرير) ضؤل للغاية، ويحتوي على معلومات أقل ما يكون، وصدر بعد أسابيع من إتاحة النموذج للجمهور".

وأضاف: "من المستحيل التحقق مما إذا كانت غوغول تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها".

وقال توماس وودسايد، الشريك المؤسس لمشروع "Secure AI"، إنه على الرغم من سعادته بإصدار "غوغل" تقرير عن "Gemini 2.5 Pro"، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار وودسايد إلى أن آخر مرة نشرت فيها "غوغل" نتائج اختبارات القدرات الخطيرة كان في يونيو 2024، لنموذج أُعلن عنه في فبراير من العام نفسه.

ولم تُصدر "غوغل" تقريرًا عن نموذج "Gemini 2.5 Flash"، وهو نموذج أصغر وأكثر كفاءة أعلنت عنه الشركة الأسبوع الماضي، مما لا يبعث على الثقة كثيرًا. وقال متحدث باسم الشركة، لموقع "TechCrunch "، إن تقريرًا عن النموذج "سيصدُر قريبًا".

اتهامات تتعلق بالشفافية

ربما كانت "غوغل" من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتُهمت مؤخرًا بتقصيرها في الشفافية.

وأصدرت شركة ميتا تقييمًا مشابهًا من حيث قلة التفاصيل بشأن السلامة لنماذجها مفتوحة المصدر الجديدة "Llama 4"، واختارت "OpenAI" عدم نشر أي تقرير لسلسلة "GPT-4.1".

وتُثقل كاهل "غوغل" ضمانات قدمتها الشركة العملاقة للجهات التنظيمية للحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها. وقبل عامين، أبلغت "غوغل" الحكومة الأميركية بأنها ستنشر علنًا تقارير السلامة نماذج الذكاء الاصطناعي العامة و"المهمة". وتبعت الشركة هذا الوعد بالتزامات مماثلة تجاه دول أخرى، متعهدةً "بتوفير الشفافية العامة" حول منتجات الذكاء الاصطناعي.

وصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه نشر التقارير الغامضة وبوتيرة متقطعة بأنه "سباق نحو القاع" في مجال سلامة الذكاء الاصطناعي.

وقال: "إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبارات السلامة قبل الإطلاق من أشهر إلى أيام، فإن هذا التوثيق الضئيل لأهم نموذج ذكاء اصطناعي من غوغل يروي قصة مثيرة للقلق عن سباق نحو القاع في ما يتعلق بسلامة الذكاء الاصطناعي وشفافيته، مع تسارع الشركات إلى طرح نماذجها في السوق".