
دراسة تحذر: معظم شركات الذكاء الاصطناعي فاشلة في إدارة المخاطر
المستقلة/- كشفت دراسة حديثة لمعهد Future of Life Institute عن إخفاق غالبية الشركات الرائدة في الذكاء الاصطناعي في إدارة المخاطر الكارثية المرتبطة بهذه التكنولوجيا، مما يثير مخاوف بشأن سلامة التطورات المتسارعة في هذا المجال.
نتائج الدراسة
أوضح التقرير أن الشركات الثمانية الكبرى في صناعة الذكاء الاصطناعي تفتقر إلى ضمانات ملموسة، إشراف مستقل، واستراتيجيات موثوقة لإدارة المخاطر طويلة الأجل. وأظهرت النتائج تفوق الشركات الأمريكية نسبياً على الصينية:
Anthropic تصدرت القائمة، تلتها OpenAI وGoogle DeepMind.
بينما سجلت شركات مثل Alibaba Cloud وDeepSeek وMeta وxAI وZ.ai أدنى الدرجات، بما في ذلك تقييم F الذي يشير إلى فشل تام في إدارة المخاطر الوجودية.
وأكد الباحثون أن خمس شركات من أصل ثمانية لم تتجاوز الفشل التام في هذا المجال، ما يعكس فجوة كبيرة بين طموحات تطوير الذكاء العام والفائق والافتقار إلى خطط تحكم موثوقة.
مخاطر محلية وعالمية
التقرير دعا الشركات إلى مزيد من الشفافية والعمل على حماية المستخدمين من أضرار الذكاء الاصطناعي الأكثر إلحاحاً، مثل الذهان الناتج عنه.
وعلق ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، قائلاً:
“الرؤساء يتباهون بالقدرة على تطوير ذكاء خارق، لكنهم عاجزون عن تقديم خطة ملموسة لمنع فقدان السيطرة. بعضهم يعترف بأن احتمال فقدان السيطرة قد يصل إلى 33%، ومع ذلك لا توجد خطة لتحسين هذا الرقم”.
ردود الشركات
OpenAI قالت إنها تعمل مع خبراء مستقلين لبناء ضمانات قوية.
غوغل أشارت إلى أن إطار عملها للسلامة يشمل بروتوكولات لتحديد وتخفيف المخاطر الشديدة قبل ظهورها.
بقية الشركات لم تعلق على النتائج.
خلاصة
التقييم يشير إلى فجوة خطيرة بين تطورات الذكاء الاصطناعي الطموحة والاستعداد لمواجهة المخاطر الكارثية المحتملة. ويبدو أن التحدي الأكبر أمام الصناعة ليس فقط تطوير قدرات ذكية خارقة، بل إدارة هذه القدرات بطريقة آمنة وموثوقة لضمان عدم فقدان السيطرة على التكنولوجيا التي قد تشكل تهديداً وجودياً للبشرية.





