OpenAl تبحث عن مسؤول يلتزم بجعل نماذجها الذكية أكثر انضباطاً
أعلنت شركة OpenAI فتح باب التوظيف لمنصب جديد رفيع المستوى تحت مسمى رئيس
الجاهزية Head
of Preparedness وهو منصب يُعنى بشكل مباشر بالتفكير المسبق في أسوأ السيناريوهات
المحتملة لتطور أنظمة الذكاء الاصطناعي والعمل على منعها أو الحد من آثارها قبل
وقوعها.
ويأتي هذا
الإعلان ضمن صفحة الوظائف الرسمية للشركة التي أوضحت أن المنصب سيكون مقره في سان
فرانسيسكو ويقع ضمن فريق أنظمة السلامة أحد أكثر الفرق حساسية داخل OpenAI والمسؤول عن ضمان تطوير ونشر أقوى نماذج
الذكاء الاصطناعي بطريقة مسؤولة وآمنة.
وبحسب الوصف
الرسمي للوظيفة يتولى فريق أنظمة السلامة Safety Systems مهمة التأكد من أن أكثر نماذج OpenAI يتم تطويرها
ونشرها وفق معايير صارمة من المسؤولية ويعمل الفريق
على بناء اختبارات تقييم دقيقة ووضع ضوابط وقائية متعددة المستويات إضافة إلى
تطوير أطر سلامة شاملة تساعد نماذج الذكاء الاصطناعي على التصرف كما هو مقصود منها
عند استخدامها في بيئات العالم الحقيقي.
وأشارت الشركة
إلى أنها استثمرت بشكل عميق في مجال الجاهزية عبر أجيال متعددة من
نماذج الذكاء الاصطناعي المتقدمة من خلال إنشاء تقييمات أساسية لقدرات النماذج وبناء نماذج للتهديدات المحتملة وتطوير آليات للتخفيف من المخاطر بالتعاون بين
فرق متعددة التخصصات ومع توقع OpenAI
أن تستمر قدرات
النماذج في الارتفاع بالتوازي مع تطبيق أنظمة حماية أكثر تعقيداً أكدت أن هذا
المسار سيظل أولوية رئيسية خلال المرحلة المقبلة.
کما سيقود
رئيس الجاهزية تطوير تقييمات القدرات المتقدمة للنماذج مع ضمان أن تكون هذه
التقييمات دقيقة وقوية وقابلة للتوسع بما يتناسب مع وتيرة التطوير السريعة كما سيشرف على تصميم إجراءات الحماية عبر مجالات المخاطر
الكبرى مثل الأمن السيبراني والمخاطر البيولوجية للتأكد من أن الضمانات التقنية
فعالة وسليمة ومتوافقة مع نماذج التهديدات المعتمدة.
هذه الوقائع حتى وإن كانت موضع نقاش قانوني وأخلاقي وضعت OpenAI تحت ضغط
متزايد من جهات تنظيمية وخبراء صحة نفسية وسط مطالبات بتشديد الضوابط وتعزيز
آليات الحماية ومنع تقديم أي مخرجات قد تُفسَّر على أنها دعم غير مهني أو تشجيع
غير مباشر لسلوكيات مؤذية للنفس.

0 Comments: