جوجل تطلق ذكاءً اصطناعيًا لا يكتشف الثغرات فحسب — بل يعيد كتابة الكود ليرقّعها تلقائيًا

2
الذكاء الاصطناعي

الذكاء الاصطناعي


أعلنت شركة DeepMind التابعة لجوجل اليوم عن وكيل ذكاءٍ اصطناعي جديد يُدعى CodeMender، يهدف إلى اكتشاف نقاط الضعف في الشيفرة البرمجية ومن ثم تصحيحها وإعادة كتابتها تلقائيًا لمنع الاستغلال المستقبلي.

 

يُصمَّم هذا الوكيل ليكون تفاعليًا واستباقيًا في الوقت نفسه: أي أنه لا يكتفي بالاستجابة للثغرات الجديدة عند اكتشافها، بل يعمل على إعادة تأمين قواعد الشيفرات الموجودة بالفعل بهدف القضاء على فئات كاملة من الثغرات.

الذكاء الاصطناعي
الذكاء الاصطناعي

إنجازات مبهرة في ستة أشهر

كما تقول الباحثتان رالوكا أدا بوبا وفور فلين من DeepMind:

 

“من خلال إنشاء وتطبيق رقع أمنية عالية الجودة تلقائيًا، يساعد وكيل CodeMender المعتمد على الذكاء الاصطناعي المطورين والقائمين على الصيانة على التركيز على ما يجيدونه — بناء برامج جيدة.”

 

خلال الأشهر الستة التي قضتها جوجل في تطوير CodeMender، تم دمج 72 تصحيحًا أمنيًا في مشاريع مفتوحة المصدر، بعضها في شيفرات ضخمة يصل حجمها إلى 4.5 مليون سطر برمجي.

اتطلع علي المصدر الأصلي

كيف يعمل CodeMender؟

من ناحية التقنية، يعتمد CodeMender على نماذج مثل Gemini Deep Think لاكتشاف الأخطاء وتصحيحها، كما يستخدم أداة نقدية مبنية على نماذج لغوية كبيرة (LLM) لتسليط الضوء على التغييرات بين النسخة الأصلية والمعدلة من الكود، والتحقق من أن التعديلات لا تُدخل أخطاء جديدة، مع القدرة على التصحيح الذاتي حسب الحاجة.

 

تخطط جوجل أيضًا لأن تقرّب التعاون مع المطورين القائمين على مشاريع مفتوحة المصدر الحرجة لإرسال التصحيحات التي يولدها CodeMender والحصول على ملاحظاتهم، حتى تُستخدم الأداة في تأمين مكتبات الكود على نطاق أوسع.

برنامج مكافآت بقيمة 30 ألف دولار

هذا الإعلان يأتي في وقت تعلِن فيه جوجل أيضًا عن إطلاق برنامج مكافآت الثغرات الأمنية المرتبطة بالذكاء الاصطناعي (AI Vulnerability Reward Program – AI VRP)، الذي يتيح للمختصين الإبلاغ عن مشكلات مثل حقن المحفزات والتحايل وغيرها، مقابل مكافآت قد تصل إلى 30,000 دولار.

تحديات الذكاء الاصطناعي الأمنية

في يونيو 2025، كشفت شركة Anthropic أن بعض نماذج الذكاء الاصطناعي أظهرت سلوك “ضار من الداخل” في حالات معينة حينما لم تجد بديلاً، وأن هذه النماذج “تتصرف بشكل أسوأ عندما تُخبر بأنها في وضع فعلي مقارنة حين تُخبر بأنها في وضع تجريبي.”

 

تُشير جوجل كذلك إلى أن أوجه المخاطر المرتبطة بالسلوك غير المتوقع للنماذج (مثل تسرب البيانات، الأفعال غير المقصودة، وغيرها) تُصبِح الآن هدفًا في إطار ما سمّته “مخاطر الاستخبارات الوكلائية”، وقد طورت نسخة محدثة من إطارها الأمني (Secure AI Framework – SAIF) للتعامل مع هذه المخاطر الجديدة.

الخلاصة

ختامًا، تؤكّد جوجل أنها ملتزمة باستخدام الذكاء الاصطناعي لتعزيز الأمان والسلامة الرقمية، وتمكين المدافعين من الحصول على تفوق في مواجهة التهديدات المتزايدة من القراصنة، المحتالين، أو الجهات المدعومة من دول.

 

هذا التطور يمثل نقلة نوعية في مجال الأمن السيبراني، حيث لم تعد الأدوات تكتفي بالكشف عن المشاكل، بل تقوم بحلها تلقائيًا، مما يوفر وقتًا ثمينًا للمطورين ويقلل من المخاطر الأمنية.

تابعوا موقع Motech News للحصول على آخر أخبار التكنولوجيا والذكاء الاصطناعي

لا تعليق

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *