“قبل وصول الشركة ، الشركة ليست جاهزة”

حذر ديميس هاسابيس ، الرئيس التنفيذي لشركة Google Deepmind ، من أن المجتمع ليس جاهزًا للذكاء الاصطناعي للمستوى البشري (AI) ، والذي يطلق عليه بشكل شعبي الذكاء العام الاصطناعي (AG). في مقابلة وقتتم استجواب السيد حسابيس عما يحتفظ به ، والذي تحدث إليه عن AG ، الذي كان في المراحل الأخيرة من أن يصبح حقيقة.
قال الفائز بجائزة نوبل في عام 2024 الكيمياء إن أنظمة الذكاء الاصطناعى القادرة على القدرات المعرفية على المستوى البشري كانت فقط خمس إلى عشر سنوات.
وقال هاسابيس: “بالنسبة لي ، هذا هو السؤال المتعلق بالمعايير الدولية والتعاون وليس فقط بين البلدان ، ولكن أيضًا بين الشركات والباحثين عندما نصل إلى المراحل الأخيرة من AG. وأعتقد أننا في الفجر. ربما نكون من خمس إلى 10 سنوات. يقول بعض الناس أقصر ، لن يفاجأ”.
وأضاف: “إنه يشبه إلى حد ما توزيع الاحتمالات. لكنه يحدث ، على أي حال ، يحدث قريبًا جدًا ، ولست متأكدًا من أن المجتمع لا يزال مستعدًا لذلك. وعلينا أن نفكر في هذه المشكلات التي تحدثت عنها مسبقًا ، وللقيام بالتحكم في هذه الأنظمة وأيضًا الوصول إلى هذه الأنظمة وضمان أن كل شيء يسير على ما يرام”.
السير Demis Hassabis على ما يبقيه في الليل: بينما نقترب من “المراحل الأخيرة نحو ACT” ، فإن الأمن مهم دائمًا – لكن التنسيق يطارده.
“إنه يأتي … ولست متأكدًا من أن المجتمع جاهز.”
كيف ستتوافق الدول والشركات والمختبرات قبل فوات الأوان؟ pic.twitter.com/w0wzrmcam8
– Vitrupo (Vitrupo) 23 أبريل 2025
ليست هذه هي القضية الأولى التي حذر فيها السيد حسن من مخاطر AG. وضرب من قبل منظمة مظلة غير مرتبطة بالإشراف على تطوير AGS.
وقال السيد حسن في فبراير: “أود أن أتعامل مع نوع من Cern for Act ، وبالتالي ، أعني نوعًا من الأبحاث الدولية التي تركز على التعاون العالي على حدود التنمية التي تعمل لمحاولة جعل هذا الأمر قدر الإمكان”.
“سيتعين عليك أيضًا ربطها بنوع من المعهد مثل الوكالة الدولية للطاقة الذرية ، ومراقبة المشاريع الخطرة وبطريقة ما تتعامل معها. وأخيراً ، هناك نوع من المنظمة الفائقة التي تشمل العديد من دول العالم.
اقرأ أيضا | تطلب Google العمال عن بُعد للعودة إلى المكتب أو المخاطرة بفقدان وظائفهم
الفعل يمكن أن يدمر الإنسانية
تقييم السلطة التنفيذية في Google في سياق النشر العميق أ وثيقة البحث في وقت سابق من هذا الشهر ، يمكن تحذير من أن الفعل “يمكن أن يدمر بشكل قاطع الإنسانية”.
وقالت الدراسة: “بالنظر إلى التأثير المحتمل الهائل لـ AG ، فإننا نتوقع أن يشكل أيضًا خطرًا محتملًا من الأضرار الجسيمة” ، مضيفًا أن المخاطر الوجودية “تدمير الإنسانية بشكل دائم” هي أمثلة واضحة على أضرار جسيمة.
ما هو التمثيل؟
قبل يذهب أبعد من ذلك. على الرغم من أن الذكاء الاصطناعي خاص بالمهمة ، إلا أن AG تهدف إلى وجود ذكاء يمكن تطبيقه من خلال مجموعة واسعة من المهام ، على غرار الذكاء البشري. في جوهرها ، سيكون AC آلة مع القدرة على فهم المعرفة وتعلمها وتطبيقها في مختلف المجالات ، مثل الإنسان.