أخبار
ما هي طبيعة الذكاء الاصطناعي التي لا يمكن السيطرة عليها؟
في مراجعة شاملة تلقي الضوء على مجال الذكاء الاصطناعي الناشئ، يرفع د. رومان فـ. يامبولسكي، الخبير الرائد في أمن الذكاء الاصطناعي بجامعة لويزفيل الأميركية، الصوت مشكّكاً بقدرة البشرية على السيطرة على هذه التقنية.
الذكاء الاصطناعي يهيكل المجتمعات
في كتابه المقبل «الذكاء الاصطناعي: غير القابل للشرح والتنبؤ والسيطرة»، يغوص الخبير في أشكال إعادة هيكلة الذكاء الاصطناعي لمجتمعاتنا والتي لن تكون دائماً للأفضل. وتوصلت تحقيقاته في الأدب العلمي المحيط بالذكاء الاصطناعي إلى خلاصة صاعقة: لا يوجد حالياً دليلٌ يرجّح إمكانية السيطرة على الذكاء الاصطناعي.
يشير بحث الدكتور يامبولسكي إلى خطرٍ وجودي محتمل تمثله هذه التقنية، ويقول: «نحن نواجه حدثاً قادراً على التسبّب بكارثة وجودية». يسلّط هذا التحذير الصارخ الضوء على سيفٍ ذي حدّين لتطوّر الذكاء الاصطناعي: الوعد بالازدهار غير المسبوق، يقابله خطر الانقراض.
طرائق الذكاء لا يمكن فهمها
يرى الخبير استهانة هائلة في تحدّي السيطرة على الذكاء الاصطناعي؛ إذ على الرغم من مكاسبه المحتملة، فإن قدرة الذكاء الاصطناعي على التعلّم، والتكيّف، والتصرّف بشكلّ شبه مستقلّ في الأوضاع المستجدّة، تضعنا أمام عددٍ لا يُعدّ ولا يُحصى من المشاكل المرتبطة بالسلامة. يكمن أصل هذه المسألة في طبيعة أنظمة الذكاء الاصطناعي التي تُشبه «الصندوق الأسود»، حيث تُتخذ القرارات بطرائق لا يستطيع البشر فهمها أو توقّعها تلقائياً.
في عالم الذكاء الخارق، تتضاءل القدرة على الحفاظ على السيطرة في ظلّ تصاعد استقلالية الذكاء الاصطناعي. ويحاجج الدكتور يامبولسكي بأنّ العناصر الأقلّ ذكاءً، كالبشر، لا يستطيعون السيطرة إلى الأبد على العناصر الأكثر ذكاءً، كالذكاء الاصطناعي، شارحاً أنّ المسألة هنا ليس تحدياً تقنياً، بل وضعاً مستحيلاً نظراً لطبيعة الذكاء الخارق.
اصطفاف أم معادة للقيم الإنسانية؟
علاوةً على ذلك، تضعنا المطالبة بذكاء اصطناعي منحاز للأخلاق والقيم أمام مفارقة. فبينما يُرى اصطفاف الذكاء الاصطناعي إلى جانب القيم الإنسانية بوصفه وسيلة لضمان السلامة، لا تزال هذه التقنية تحمل في طيّاتها الكثير من الانحياز الذي لا يفضي دوماً إلى نتائج أخلاقية أو إيجابية حتى ولو كان مناصراً للبشر.
يدعم يامبولسكي مقاربة متوازنة لتطوير الذكاء الاصطناعي، يُصار فيها إلى قياس المكاسب المحتملة مقابل المخاطر.