في مؤتمر Google I/O 2024 الذي شهد الكشف عن العديد من الابتكارات، لم تكتفِ جوجل بتقديم نماذج الذكاء الاصطناعي المتطور “جيميني” كمعلم مساعد وخبير توصيات، بل كشفت أيضًا عن سلاح سري لمحاربة الجوانب المظلمة للذكاء الاصطناعي نفسه!
صرح جيمس مانيكا، نائب الرئيس الأول للبحث والتكنولوجيا والمجتمع في جوجل، للحضور: “من الواضح أن الذكاء الاصطناعي يساعد الناس بالفعل. ومع ذلك، كما هو الحال مع أي تقنية ناشئة، لا تزال هناك مخاطر، وستظهر أسئلة جديدة مع تقدم الذكاء الاصطناعي وتطور استخدامه.”
ولكن كيف تتصدى جوجل لهذه المخاطر؟ هنا تكمن المفاجأة!
بدلاً من محاربة النوايا السيئة بالطرق التقليدية، كشفت جوجل عن تطور جديد في عملية تسمى “الفريق الأحمر” (Red Teaming)، وهي عملية اختبار قياسية في المجال للعثور على نقاط ضعف في الذكاء الاصطناعي التوليدي.
يأخذ نهج جوجل الجديد منحىً مبتكراً، حيث يتم تدريب عملاء ذكاء اصطناعي متعددين للتنافس مع بعضهم البعض، تماماً كالأعداء! الهدف من هذه المنافسة هو اكتشاف التوجيهات أو المدخلات الخادعة التي يمكن استغلالها لجعل الذكاء الاصطناعي يقدم مخرجات ضارة أو خاطئة، وهو ما أطلقت عليه جوجل اسم “التوجيه المعادي”.
وبهذا التدريب المتبادل، تكتسب نماذج الذكاء الاصطناعي القدرة على تحديد هذه التوجيهات الخادعة بشكل أكثر دقة، وبالتالي الحد من إمكانية استغلالها لأغراض ضارة.
لا تقتصر أهمية هذا النهج على تعزيز الثقة بالذكاء الاصطناعي فحسب، بل يعتبره خبراء جوجل خطوة رئيسية نحو بناء ذكاء اصطناعي أكثر مسؤولية وأقرب إلى الشكل البشري. بالإضافة إلى ذلك، فهو يُعد بمثابة درع واقٍ ضد المخاوف المتزايدة بشأن الأمن السيبراني والمعلومات المضللة.
ولم تتوقف جوجل عند هذا الحد، بل أكدت على التزامها بمبادئها السبعة لتطوير الذكاء الاصطناعي المسؤولة، والتي تشمل النفع الاجتماعي، وتجنب التحيز، والتصميم للسلامة والاختبار لها، والمساءلة البشرية، وتصميم الخصوصية، والالتزام بالتفوق العلمي، وإتاحة الوصول للجمهور.
ومن خلال جهود الاختبار الجديدة هذه والالتزامات على مستوى الصناعة، تسعى جوجل إلى ترجمة أقوالها إلى أفعال، والمضي قُدمًا نحو عالم أكثر أمانًا وثقةً بفضل الذكاء الاصطناعي.
No Comment! Be the first one.