أخبار

روبوتات المحادثة المدعمة بالذكاء الاصطناعي تزداد انتشاراً

تكشف نصوص «رسائل الخطأ» عند التسوق في موقع «أمازون» ومنشورات منصّة «إكس» وجميع أنحاء شبكة الإنترنت عن اتساع نطاق الكتابات غير البشرية.

روبوتات محادثة

حتّى وقتٍ ليس ببعيد، كان بإمكانكم أن تجدوا «رسالة خطأ» تقول: «أعتذر؛ بصفتي نموذجاً لغوياً مدفوعاً بالذكاء الاصطناعي، لا يمكنني إتمام هذه المهمّة من دون إدخال الطلب الأساسي. لطفاً؛ زوّدوني بالمعلومات الضرورية لأتمكّن من مساعدتك أكثر».

وعلى منصّة «إكس (تويتر سابقاً)»، نشر أحد المستخدمين الموثوقين الردّ التالي على تغريدة عن هانتر بايدن (14 يناير/ كانون الثاني): «أعتذر؛ لا يمكنني تقديم الجواب المطلوب؛ لأنّه يخالف سياسة الاستخدام الخاصة بشركة (أوبن إي آي)».

وعلى منصّة التدوين «ميديوم»، بدأ منشور (13 يناير) يقدّم نصائح لصانعي المحتوى، بالجملة التالية: «أعتذر؛ ولكنّني لا أستطيع تحقيق هذا الطلب؛ لأنّه ينطوي على ابتكار محتوى ترويجي يستخدم روابط تابعة لجهات أخرى»

ظهر هذا النوع من الرسائل في أنحاء كثيرة من شبكة الإنترنت وشكّل إشارة واضحة إلى أنّ كاتب المحتوى ليس إنساناً. صحيحٌ أنّ «رسائل الخطأ»؛ هذه اللغة التي تولّدها روبوتات المحادثة المدفوعة بالذكاء الاصطناعي مثل «تشات جي بي تي» عند تلقّيها طلباً يخالف سياسات الشركة، مضحكة، ولكنّها أيضاً نذير شؤم من عالم إلكتروني يتوسّع بفعل الرسائل الإلكترونية المزعجة التي يبتكرها الذكاء الاصطناعي.

يرى مايك كولفيلد، الباحث المختص في التضليل والقرائية الرقمية بجامعة واشنطن، أنّه «من الجيّد أن يضحك النّاس من هذه الرسائل؛ لأنّها تشكّل تجربة تعليمية لما يحصل». وأضاف الباحث أنّ أحدث الأدوات اللغوية المدفوعة بالذكاء الاصطناعي تغذّي جيلاً جديداً من المحتوى المزعج والرديء الذي يهدّد بإغراق الإنترنت؛ إلا في حال وجدت المنصات الإلكترونية وأجهزة التنظيم القانونية طرائق للسيطرة عليه.

عملياً؛ لا أحد سينشر تقييماً لمنتج، أو منشور تواصل اجتماعي، أو لائحة منتجات على «إي باي» تتضمّن «رسالة خطأ» من صناعة روبوت محادثة مدفوع بالذكاء الاصطناعي، ولكن مع توفير الأدوات اللغوية المدفوعة بالذكاء الاصطناعي بدائل أسرع وأقلّ تكلفة من الكتّاب البشريين، فإن المستخدمين والشركات يعكفون على التحوّل إليها لصناعة أي نوعٍ من المحتوى؛ بما في ذلك المحتوى الذي يخدم أغراضاً تتعارض مع سياسات «أوبن إي آي»، مثل السرقة الأدبية أو المشاركة المزيفة عبر الإنترنت.

في المحصّلة، أصبحت هذه الجمل الكاشفة مثل «بصفتي نموذجاً لغوياً مدفوعاً بالذكاء الاصطناعي» و«أعتذر؛ لا يمكنني تحقيق هذا الطلب» شائعة وواضحة إلى درجة أنّ الهواة باتوا يعتمدون عليها بوصفها طريقة سريعة لرصد زيف الكتابة المولدة من الذكاء الاصطناعي.

من جهتها؛ عدّت ماكينزي ساديغي، المحلّلة من شركة «نيوز غارد» المختصة في تتبع التضليل، أنّ «عمل كثير من هذه المواقع تحت إشراف بشري طفيف أو من دونه يؤدّي إلى نشر هذه الرسائل مباشرةً على الموقع قبل أيّ رصدٍ بشري».

تغريدات أوتوماتيكية

في أبريل (نيسان) الماضي، لاحظت ساديغي وأحد زملائها لأول مرة وجود كثير من المنشورات التي تحتوي «رسائل خطأ» من «تشات جي بي تي» على منصّة «إكس»، مما يرجّح أنّ الحسابات كانت تستخدم الروبوت لصناعة التغريدات أوتوماتيكياً. بعدها، بدآ البحث عن هذه الجمل في أماكن أخرى على الشبكة، كنتائج بحث «غوغل»، ووجدا مئات المواقع الإلكترونية التي تدّعي أنّها مواقع إخبارية، وقد نشرت الرسائل العائبة نفسها.

عدّت ساديغي أنّ المواقع التي لا ترصد «رسائل الخطأ» ليست إلا رأس جبل الجليد. وأضافت أنّه «يوجد على الأرجح كثير من محتوى الذكاء الاصطناعي الذي لا يضمّ (رسائل خطأ)، مما يصعّب عملية رصده».

ولفتت إلى أنّ «حقيقة ازدياد استخدام المواقع الإلكترونية الذكاء الاصطناعي تعكس أهميّة اليقظة عند تقييم المستخدمين شفافية ما يقرأونه».

يُلحظ انتشار استخدام الذكاء الاصطناعي على منصّة «إكس» أكثر من غيرها، حتّى في الحسابات التي تحمل علامة التوثيق.

في سياق متصل، كشف موقع «فيوتشرزم» أخيراً عن أنّ مجموعة كبيرة من منتجات «أمازون» تحمل رسائل ذكاء اصطناعي خطأ في اسمها، كالتالية: «أعتذر؛ ولكنّني لا أستطيع تلبية هذا الطلب؛ لأنه يتعارض مع سياسة الاستخدام في (أوبن إي آي). هدفي هو تزويد المستخدمين بمعلومات مفيدة ومحترمة».

أزالت شركة «أمازون» اللوائح التي ذكرها الموقع وغيره من المدوّنات التقنية، إلا أنّ بحثاً أجرته مؤسسة إعلامية أميركية عثر على المزيد… على سبيل المثال؛ حملت لائحة تستعرض إكسسوارات لرفع الأثقال العنوان التالي: «أعتذر؛ ولكنّني غير قادر على تحليل أو توليد اسم منتج جديد من دون معلومات إضافية. لطفاً؛ هل يمكنكم تزويدي بمنتجٍ أو سياقٍ محدّدٍ تحتاجون عنواناً له؟».

لا ينحصر نشاط روبوتات الذكاء الاصطناعي المسعور في منصّة «إكس» وموقع «أمازون» فقط؛ فقد أظهرت أبحاث «غوغل» عن «رسائل الخطأ» للذكاء الاصطناعي أنّ لوائح «إي باي»، ومنشورات المدوّنات، والخلفيات الرقمية، تعجّ به أيضاً. فقد وردت خلفية تعرض امرأة ترتدي ملابس ضيقة على أحد المواقع، تحت العنوان التالي: «أعتذر؛ لا يمكنني تلبية هذا الطلب؛ لأنّ المحتوى غير ملائم ومسيء».

محتوى آلي وإشراف بشري

من جهته، كشف المتحدّث باسم «أوبن إي آي»، نيكو فيلكس، عن أنّ الشركة تحسّن سياسات الاستخدام الخاصة بـ«تشات جي بي تي» والأدوات اللغوية الأخرى المدفوعة بالذكاء الاصطناعي بشكلٍ دوري؛ لأنّها تعلم كيف يستخدمها النّاس بشكلٍ سلبي.

وقال فيلكس في رسالة إلكترونية: «لا نريد لنماذجنا أن تُستخدم لتضليل وسوء تمثيل وخداع الآخرين. وهذا الأمر يشمل وفقاً لسياستنا: توليد أو ترويج المعلومات الخاطئة والمعلومات المضللة، والمشاركة الإلكترونية المزيفة (كالتعليقات، والتقييمات…). تستخدم شركتنا مزيجاً من الأنظمة الآلية، والمراجعات البشرية، وتقارير المستخدمين، لرصد وتقييم الاستخدامات التي تنتهك سياساتنا، وهذا الأمر قد يؤدي إلى اتخاذ إجراءات بحقّ حساب المستخدم».

ورأت كوري دوكتورو، الناشطة في جمعية «إلكترونيك فرونتيير فاونديشن»، أنّه يوجد ميلٌ للوم الناس والشركات الصغيرة على هذا المحتوى المزعج. ولكنّها تعتقد أنّ هؤلاء هم في الحقيقة ضحايا لعملية احتيال أكبر؛ تلك التي تروّج للذكاء الاصطناعي بوصفه مساراً لصناعة الأموال السهلة لمحبّي المغامرة، بينما يجني عمالقة الذكاء الاصطناعي أموالاً طائلة.

وعدّ كولفيلد، من جامعة واشنطن، أنّ الوضع ليس ميؤوساً منه، لافتاً إلى أنّ منصات التقنية وجدت وسائل لإضعاف فاعلية الجيل السابق من عمليات التضليل، مثل توفير مرشحات للرسائل الإلكترونية المزعجة.

أمّا عن «رسائل الخطأ» من الذكاء الاصطناعي، فقال إنّه يأمل أن «توعّي هذه الرسائل الناس بهذا الوضع السخيف، ولربّما يؤدي هذا الأمر إلى ظهور منصات تأخذ المحتوى المزعج على محمل الجدّ».

إغلاق