الذكاء الاصطناعي يختلق معلومات طبية: خطر يحدق بالمرضى في أونتاريو

1 دقيقة قراءة
الذكاء الاصطناعي يختلق معلومات طبية: خطر يحدق بالمرضى في أونتاريو
المصدر: arstechnica.com

الذكاء الاصطناعي يختلق معلومات طبية: خطر يحدق بالمرضى في أونتاريو

كشف تدقيق صادم أجرته المراجعة العامة في أونتاريو أن أنظمة الذكاء الاصطناعي التي يلجأ إليها الأطباء لتسجيل الملاحظات الطبية تولد معلومات غير صحيحة، غير مكتملة، بل ومختلقة. يثير هذا الاكتشاف مخاوف جدية بشأن سلامة المرضى وجودة الرعاية الصحية. هذه الأنظمة، التي أوصت بها الحكومة الإقليمية، تُستخدم لمساعدة الأطباء المثقلين بالعمل في تلخيص محادثات المرضى والتشخيصات وقرارات الرعاية، لكن نتائج التدقيق تشير إلى أنها قد تؤدي إلى عواقب وخيمة على صحة المرضى.

الأطباء يستعينون بـ’الكتبة الرقميين’ والنتائج كارثية

في ظل الضغط المتزايد على الأطباء وقلة الوقت المتاح لتسجيل التفاصيل الدقيقة لكل زيارة مريض، اتجه العديد منهم إلى ما يُعرف بـ’الكتبة الطبيين المدعومين بالذكاء الاصطناعي’. صُممت هذه التقنيات الحديثة لتلخيص محادثات المرضى، وتدوين التشخيصات، وتسجيل قرارات الرعاية، بهدف تخفيف العبء الإداري عن كاهل الأطباء وتحسين كفاءة تسجيل البيانات. وقد قامت الحكومة الإقليمية في أونتاريو بتأهيل واعتماد 20 مزودًا لهذه الأنظمة، مما عزز ثقة الأطباء والمؤسسات الصحية في استخدامها.

لكن النتائج التي توصل إليها التدقيق الأخير قلبت هذه الثقة رأسًا على عقب. فقد أظهر التدقيق أن أنظمة الذكاء الاصطناعي هذه غالبًا ما تولد معلومات غير صحيحة، غير مكتملة، ومختلقة، مما يضع علامات استفهام كبيرة حول موثوقيتها ودقتها، خاصةً عندما تتعلق بقرارات مصيرية تخص صحة الإنسان.

فشل جماعي للمزودين: أخطاء متكررة تهدد المرضى

لم تقتصر المشكلة على مزود واحد أو اثنين، بل امتدت لتشمل جميع المزودين العشرين الذين تم اختبارهم. فقد أظهر هؤلاء المزودون جميعًا مشكلة في الدقة أو الاكتمال في اختبارين محاكاتين لمحادثات بين مريض وطبيب. يشير هذا الفشل الجماعي إلى خلل بنيوي في تصميم أو تدريب هذه الأنظمة، أو ربما في البيانات التي تعتمد عليها.

كانت تفاصيل الأخطاء مقلقة بشكل خاص:

  • اختلق تسعة مزودين معلومات عن المرضى لم تحدث في الواقع.
  • سجل 12 مزودًا معلومات بشكل غير صحيح، مما قد يؤدي إلى سوء فهم للحالة الصحية للمريض.
  • أغفل 17 مزودًا تفاصيل رئيسية حول قضايا الصحة العقلية، وهي من أدق وأهم الجوانب في الرعاية الصحية.

تخيل أن نظامًا طبيًا يختلق إحالات إلى أطباء غير موجودين، أو ينسخ أسماء الأدوية بشكل خاطئ، أو يتجاهل تمامًا علامات الاكتئاب أو القلق لدى المريض. هذه ليست مجرد أخطاء برمجية بسيطة، بل هي أخطاء قد تكلف المرضى حياتهم أو تؤثر سلبًا على جودة حياتهم.

تداعيات خطيرة على الرعاية الصحية وسلامة المرضى

تحمل الأخطاء التي كشف عنها التدقيق في طياتها تداعيات خطيرة على جودة الرعاية الصحية وسلامة المرضى. فكما أشار التقرير، يمكن أن تؤدي هذه الأخطاء إلى:

“خطط علاج غير كافية أو ضارة قد تؤثر سلبًا على النتائج الصحية للمرضى.”

فعلى سبيل المثال، إذا تم اختلاق إحالة غير موجودة، فقد يتأخر المريض في الحصول على الرعاية المتخصصة التي يحتاجها. وإذا تم تسجيل أسماء الأدوية بشكل غير صحيح، فقد يتلقى المريض دواءً خاطئًا أو بجرعة غير مناسبة، مما يعرضه لمخاطر صحية جسيمة. والأخطر من ذلك، إذا أغفل النظام تفاصيل رئيسية تتعلق بالصحة العقلية، فقد لا يتم تشخيص المريض أو علاجه بشكل صحيح، مما يؤدي إلى تدهور حالته.

يؤكد هذا التقرير على ضرورة إعادة تقييم شاملة لكيفية دمج الذكاء الاصطناعي في قطاع الرعاية الصحية، ووضع معايير صارمة للتحقق من دقة وموثوقية هذه الأنظمة قبل اعتمادها على نطاق واسع. ففي النهاية، لا يمكن أن تأتي الكفاءة على حساب سلامة المريض.

دعوات لمراجعة شاملة وتأمين مستقبل الرعاية الصحية

في ضوء هذه النتائج المقلقة، تتزايد الدعوات لمراجعة شاملة للأنظمة التي تعتمد على الذكاء الاصطناعي في الرعاية الصحية، ليس فقط في أونتاريو بل في جميع أنحاء العالم. يجب على الجهات الحكومية والمنظمات الصحية إعادة النظر في معايير اعتماد هذه التقنيات وتطوير آليات رقابة صارمة لضمان دقتها وموثوقيتها. فالاعتماد المتزايد على الذكاء الاصطناعي في قطاع حيوي كالصحة يتطلب أقصى درجات الحذر والتدقيق.

إن الهدف من استخدام الذكاء الاصطناعي في الرعاية الصحية هو تحسين جودة الرعاية وتخفيف الأعباء عن الأطباء، وليس إضافة طبقة جديدة من المخاطر. لذا، يمثل هذا التقرير جرس إنذار يجب أن يدفع الجميع للعمل بجدية لتصحيح المسار وتأمين مستقبل الرعاية الصحية ليكون مبنيًا على الثقة والدقة، وليس على الأخطاء والمعلومات المختلقة.