المنارة / لندن
أظهرت دراسة حديثة في بريطانيا أن المساعدين الطبيين المعتمدين على الذكاء الاصطناعي، وخصوصًا نماذج اللغة الكبيرة، لا يوفرون دعمًا موثوقًا للناس عند محاولة تشخيص الحالات الصحية أو اتخاذ قرارات حول طلب الرعاية الطبية.
حيث كشفت النتائج عن فجوة واضحة بين الأداء التقني العالي لهذه النماذج وقدرتها الفعلية على مساعدة المستخدمين في مواقف حياتية حقيقية.
لماذا زاد الاهتمام بهذه الأدوات؟
ارتفع الاهتمام بالمساعدين الطبيين بالذكاء بسبب نقص الأطباء في بعض الأنظمة الصحية، وزيادة الطلب على معلومات طبية سريعة وسهلة الوصول.
إضافة إلى ذلك، حققت نماذج الذكاء الاصطناعي نتائج مرتفعة في اختبارات طبية متقدمة.
فيما جعل الذكاء الاصطناعي البعض يعتقد بأنها قد تساعد في تقديم استشارات خارج العيادات.
بينما شارك 1298 شخصًا بالغًا في المملكة المتحدة، وتم تكليفهم بالتعامل مع 10 سيناريوهات طبية واقعية.
حيث كان عليهم تحديد الحالة الصحية المحتملة واختيار الإجراء المناسب، بدءًا من البقاء في المنزل إلى الاتصال بالإسعاف.
كما تم تقسيم المشاركين إلى مجموعتين: الأولى استخدمت أدوات الذكاء الاصطناعي، والثانية اعتمدت على مصادر المعلومات التقليدية المفضلة لديهم.
النتائج
- عند تقييم الذكاء الاصطناعي وحده، أظهرت النماذج دقة عالية في تحديد الحالات الطبية واتخاذ القرارات الصحيحة في عدد كبير من السيناريوهات.
- لكن عند استخدام هذه الأدوات من قبل المشاركين، تراجع الأداء بشكل ملحوظ. كثيرون أخطأوا في تحديد الحالة الصحيحة، ولم يتمكنوا من اختيار الإجراء المناسب.
- وكانت نتائجهم مشابهة لأداء من لم يستخدموا الذكاء الاصطناعي.
- السبب الأساسي يعود إلى تقديم المستخدمين لمعلومات غير كاملة أو سوء فهمهم لإجابات النماذج.
بينما تشير الدراسة إلى أن إتاحة المساعدين الطبيين للجمهور بشكل مباشر قد لا تكون آمنة حاليًا.
فالدقة التقنية العالية للنماذج لا تضمن تحسين القرارات الصحية للمستخدمين.
كما تحذر من أن الاعتماد على هذه الأدوات دون إشراف طبي قد يمنح شعورًا زائفًا بالأمان، بدلًا من تعزيز سلامة القرارات.
فيما تركز الدراسة على ضرورة تطوير هذه الأنظمة بطريقة أكثر ملاءمة للمستخدمين، عبر تقديم معلومات واضحة وسهلة الفهم، واختبارها على نطاق واسع قبل اعتمادها رسميًا في المجال الطبي.









