أخبار

«أوبن إيه آي» تطلق كاشف «التزييف العميق» للباحثين في مجال التضليل الإعلامي

تنضم شركة «أوبن إيه آي» OpenAI الناشئة، أيضاً إلى الجهود المبذولة على مستوى الصناعة لاكتشاف المحتوى المصنوع باستخدام الذكاء الاصطناعي.

وقالت الشركة إن كاشفها الجديد لمحتوى التزييف العميق يمكنه التعرف على 98.8 في المائة من الصور التي تم إنشاؤها بواسطة مولدها الخاص «دال – إي 3» DALL – E 3.

 

الأداة الجديدة ترصد نوع الصور المولدة بالذكاء الاصطناعي

 

أداة للباحثين في التضليل

كتب كيد ميتز وتيفاني هسو في «نيويورك تايمز» أنه ينما يحذر الخبراء من أن الصور والأصوات والفيديوهات الناتجة عن الذكاء الاصطناعي يمكن أن تؤثر على انتخابات الخريف الأميركية، تطلق «أوبن إيه آي» هذه الأداة، لكنها تعترف بأن الأداة ليست سوى جزء صغير مما ستكون هناك حاجة إليه لمحاربة ما يسمى التزييف العميق في الأشهر والسنوات المقبلة.

وقالت «أوبن إيه آي»، الثلاثاء، إنها ستشارك كاشف التزييف العميق الجديد الخاص بها مع مجموعة صغيرة من الباحثين في مجال المعلومات المضللة؛ حتى يتمكنوا من اختبار الأداة في مواقف العالم الحقيقي، والمساعدة في تحديد الطرق التي يمكن من خلالها تحسينها.

وقالت ساندهيني أغاروال، الباحثة في «أوبن إيه آي» التي تركز على جوانب السلامة والسياسة: «هذا مجال بحث جديد… هذا ما نحتاج له حقاً».

تحالف لمحاربة تزييف المحتوى

وقالت «أوبن إيه آي» إن الأداة لم تكن مصممة لاكتشاف الصور التي تنتجها المولدات الشهيرة الأخرى مثل ميدجورني Midjourney وستيبل Stable. نظراً لأن هذا النوع من كاشفات التزييف العميق يعتمد على الاحتمالات، فإنه لا يمكن أن يكون مثالياً أبداً.

لذا، مثل العديد من الشركات الأخرى والمنظمات غير الربحية والمختبرات الأكاديمية، تعمل شركة «أوبن إيه آي» على محاربة المشكلة بطرق أخرى. ومثل عمالقة التكنولوجيا «غوغل» و«ميتا»، تنضم الشركة إلى اللجنة التوجيهية للتحالف من أجل مصدر المحتوى والأصالة Coalition for Content Provenance and Authenticity ( C2PA)، وهو جهد لتطوير بيانات الاعتماد للمحتوى الرقمي.

ويعد معيار C2PA بمثابة «علامة التغذية» للصور ومقاطع الفيديو والمقاطع الصوتية والملفات الأخرى التي توضح متى وكيف تم إنتاجها أو تعديلها، بما في ذلك تلك المولدة باستخدام الذكاء الاصطناعي.

علامات مائية على الأصوات

وقالت «أوبن إيه آي» أيضاً إنها تعمل على تطوير طرق لوضع علامة مائية على الأصوات التي يولدها الذكاء الاصطناعي، بحيث يمكن التعرف عليها بسهولة في الوقت الحالي. وتأمل الشركة أن تجعل من الصعب إزالة هذه العلامات المائية.

ويواجه هذا القطاع الصناعي ضغوطاً متزايدة لمراعاة المحتوى الذي تولده منتجاته. ويدعو الخبراء إلى منع المستخدمين من إنتاج مواد مضللة وخبيثة، وتقديم طرق لتتبع مصدرها وتوزيعها.

مخاوف التأثير على الرأي العام

في عام حافل بالانتخابات الكبرى حول العالم، تدعو الحاجة إلى إيجاد طرق لمراقبة نسب الذكاء الاصطناعي. وفي الأشهر الأخيرة، أثرت الملفات الصوتية والصور بالفعل على الحملات السياسية والتصويت في أماكن من بينها سلوفاكيا وتايوان والهند.

وقد يساعد كاشف التزييف العميق الجديد من «أوبن إيه آي» في حل المشكلة، لكنه لن يحلها. وعلى حد تعبير السيدة أغاروال: «في المعركة ضد التزييف العميق، لا يوجد حل سحري».

إغلاق