منوعات

علماء وخبراء يطالبون بحظر تطوير "الذكاء الفائق" amid مخاوف من تهديد وجودي للبشرية

حذّر مئات العلماء والخبراء الدوليين في مجال الذكاء الاصطناعي من مخاطر الوصول إلى ما يُعرف بـ”الذكاء الاصطناعي الفائق”. وهو مستوى من الذكاء قد يتجاوز القدرات البشرية في التفكير واتخاذ القرار.

جاء ذلك في خطاب مفتوح نُشر اليوم، طالب فيه الخبراء بفرض حظر دولي على أي مشروعات تسعى لتطوير هذا النوع من الأنظمة.

مخاوف من فقدان السيطرة على الأنظمة المتقدمة

وأوضح الخطاب أن التطور المتسارع للنماذج الذكية. قد يقود إلى مرحلة يصبح فيها التحكم بهذه الأنظمة صعبا أو مستحيلا. خاصة مع قدرتها على التعلم الذاتي والتصرف باستقلالية.

ويرى العلماء أن الذكاء الفائق قد يشكل تهديدا وجوديا للبشرية في حال لم تُوضع له قواعد صارمة منذ البداية.

شركات كبرى تتسابق

وأشار الموقعون إلى أن شركات تكنولوجية عالمية تعمل بالفعل على تطوير نماذج متقدمة تتجه نحو قدرات غير مسبوقة. وهو ما يستلزم – بحسب الخطاب – تنظيمات دولية صارمة ورقابة على تصنيع الرقاقات الحاسوبية. لمنع الوصول غير المنضبط إلى هذه التكنولوجيا الحساسة.

دعوات لاتفاق عالمي شبيه بمنع الأسلحة النووية

ودعا العلماء إلى وضع اتفاقيات دولية مشابهة لاتفاقيات حظر الأسلحة النووية. تمنع تطوير الذكاء الفائق دون رقابة ومتابعة دقيقة. مؤكدين أن المخاطر المحتملة تستدعي تدخلا سريعا من الحكومات.

انقسام عالمي حول مستقبل التكنولوجيا

وتزامنت التحذيرات مع جدل عالمي واسع حول مستقبل الذكاء الاصطناعي. بين من يرى أنه سيفتح آفاقا هائلة في الطب والاقتصاد والتعليم. وبين من يعتقد أنه قد يحمل تهديدات غير مسبوقة للبشر إن استمر في التطور دون ضوابط.

مقالات ذات صلة

زر الذهاب إلى الأعلى