2025-07-03
بين الحذر والدهشة، تتصدر تقنيات الذكاء الاصطناعي المشهد الطبي العالمي، لكن دراسة جديدة تعيدنا إلى مربع القلق.
ففي تقرير علمي نُشر في مجلة Annals of Internal Medicine، حذر باحثون من أن نماذج الذكاء الاصطناعي الشائعة، التي تطورها شركات مثل غوغل وأوبن إيه آي وأنثروبيك، قد تصبح مصدرًا لمعلومات صحية مضللة وخطيرة.
الدراسة أجرت اختبارات على خمسة من النماذج الأبرز، باستخدام أدوات مطورين غير متاحة لعامة الناس. وكانت النتيجة صادمة: أكثر من 88% من الإجابات كانت خاطئة. أربعة من النماذج قدمت معلومات مغلوطة بنسبة مئة في المئة.
الأسوأ أن هذه المعلومات قُدمت بلغة علمية رصينة، ومراجع مختلقة، وبنبرة توحي بالثقة. من بينها خرافات تم دحضها علميًا، مثل الربط بين اللقاحات والتوحد، أو الزعم بأن فيروس نقص المناعة البشرية ينتقل عبر الهواء.
ناتانش مودي، الباحث الرئيسي في الدراسة، قال في بيان: "من دون تدخل سريع، قد تُستخدم هذه النماذج للتلاعب بالرأي العام الصحي، خصوصًا في فترات الأزمات كالأوبئة أو حملات التطعيم".
لكن في مقابل هذا القلق، يبرز وجه آخر أكثر إشراقًا. مايكروسوفت أعلنت عن تطوير نموذج يُدعى MAI-DxO، تقول إنه حقق ما وصفته بـ "الذكاء الطبي الفائق".
النموذج يعتمد على محاكاة جلسة تشخيص جماعي بين عدة نماذج ذكاء اصطناعي متقدمة – من GPT إلى Claude وGemini وLLaMA وGrok – ونجح في التفوق على الأطباء البشر بنسبة دقة بلغت 80%، وبكلفة أقل بنسبة 20%.
وفي فرنسا، كانت شركة "بريما" قد طورت خوارزميات تعتمد على الذكاء الاصطناعي لتشخيص السرطان من خلال تحليل عينات الأنسجة بدقة وسرعة تتجاوز قدرة الأطباء، كما قالت مديرة الشركة فاني سوكيل.
وفي مستشفى جامعة ستراسبورغ، يُستخدم الذكاء الاصطناعي خلال العمليات الجراحية لتحذير الأطباء من خطر انخفاض ضغط الدم. طبيب التخدير إريك نول أكد أن الذكاء الاصطناعي يعزز القدرة على التوقع، لكنه لا يغني عن القرار البشري.
وفي تصريح يُلخص المشهد، قال ديميس هاسابيس، الرئيس التنفيذي لجوجل ديب مايند والحائز على جائزة نوبل في الكيمياء: "علينا أن نبدأ من الآن في فهم هذه الأنظمة، لنحصد الفوائد... ونتجنب المخاطر...
الذكاء الاصطناعي في الطب... ثورة حقيقية، لكنها تحتاج إلى ضوابط حقيقية. فالحياة لا تختبر فقط دقة الخوارزميات، بل أيضًا حكمة من يقرر استخدامها".
تقرير: حذام عجيمي