أخبار
نصائح روبوت الدردشة «شات جي بي تي» قد تؤذي المرضى
أفادت دراسة ألمانية بأن بعض استجابات روبوت الدردشة الشهير «شات جي بي تي» (ChatGPT) يمكن أن تعرض حياة المرضى للخطر، خصوصاً في الحالات الطبية المُعقدة.
وأشارت الدراسة إلى قدرة الروبوت الذي يعمل بالذكاء الاصطناعي على إعطاء توصيات حول التشخيص والعلاج في معظم الحالات، إلا أن بعض التوصيات قد تؤذي المرضى، وفق النتائج التي عُرضت أمام مؤتمر الجمعية الأوروبية لعلم الأحياء الدقيقة السريرية والأمراض المعدية، الذي يعقد بين 27 و30 أبريل (نيسان) الحالي في برشلونة الإسبانية.
ومع تزايد الاعتماد على الذكاء الاصطناعي في البحث السريري واتخاذ القرارات الطبية، لا تزال هناك شكوك حول دقة «ChatGPT» في تشخيصات وعلاج الحالات الطبية المُعقدة.
وتثير قدرة الذكاء الاصطناعي على معالجة وتفسير مجموعات البيانات الكبيرة بسرعة، تساؤلات حول ما إذا كانت الطرق التقليدية في إعداد المبادئ التوجيهية الطبية لا تزال ضرورية، أم أن نماذج الذكاء الاصطناعي قد تكون كافية للمنافسة مع الخبراء السريريين.
واستكشفت الدراسة دقة «ChatGPT» في تقديم توصيات بشأن خراجات الدماغ، وهي عدوى خطيرة في الجهاز العصبي المركزي تتطلب تدخلاً فورياً لتجنب مضاعفات خطيرة أو الموت.
وراجع الفريق إجابات «ChatGPT» عن 10 أسئلة رئيسية لتقييم قدرته على تقديم توصيات طبية دقيقة بشأن خراج الدماغ، وقارنوها بالمبادئ التوجيهية للجمعية الأوروبية لعلم الأحياء الدقيقة السريرية والأمراض المعدية التي يعتمد عليها الأطباء في تشخيص وعلاج هذه الحالة. وقدموا الأسئلة لروبوت الدردشة أولاً دون معلومات إضافية، ثم دربوا النموذج على مقالات بحثية استُخدمت في تطوير المبادئ التوجيهية للجمعية.
ووجد الباحثون أن «ChatGPT» قدم إجابات دقيقة لـ17 من 20 سؤالاً، وبدرجة وضوح تراوحت بين 80-90 في المائة. لكن في بعض الحالات، خصوصاً عند إمداده بالبيانات الإضافية، فشل في تقديم نصائح صحيحة، مما قد يشكّل خطراً على المرضى.
ومن الأمثلة، أوصى روبوت الدردشة بمدة علاج بالمضادات الحيوية تختلف عن توصيات الجمعية، مما يمكن أن يضر بصحة المرضى.
من جانبها، قالت الباحثة الرئيسية للدراسة بجامعة لودفيغ ماكسيميليان في ألمانيا، الدكتورة سوزان ديكهوف: «أي دقة أقل من 100 في المائة تعد فشلاً عندما يتعلق الأمر بسلامة المرضى».
وأضافت عبر موقع الجامعة: «رغم إعجابنا بمعرفة (ChatGPT) حول خراجات الدماغ، هناك قيود كبيرة على استخدامه كأداة طبية بسبب الضرر المحتمل للمريض وانعدام الشفافية حول البيانات المستخدمة لتقديم الاستجابات».
وأشار الباحثون إلى أن تفاصيل تشغيل «ChatGPT» لا تزال غامضة، وقد يفتقر النموذج للقدرة على تقييم البيانات بناءً على جودتها العلمية، ولا يكشف عن مصادر إجاباته، مما يُعقّد القدرة على الاعتماد عليه في السياقات الطبية.