2025-10-22
في الوقت الذي أصبحت فيه تطبيقات الذكاء الاصطناعي جزءا من الحياة اليومية، كشف بحث جديد عن خطر متزايد يهدد مصداقية المعلومة الإخبارية.
الدراسة التي حللت 3 آلاف إجابة صدرت من أدوات شهيرة مثل تشات جي بي تي وجيميناي، وجدت أن أكثر من 80 في المئة من هذه الردود تحتوي على درجة من الخطأ، فيما سجلت 45 في المئة منها تحريفا كبيرا في المعلومة.
ولا تتوقف المشكلة عند خطأ عابر أو صياغة غير دقيقة، بل تتعداها إلى تغييب السياق أو حذف التفاصيل أو تقديم أخبار منقوصة دون مصادر موثوقة، كما تجاهلت بعض التطبيقات عمدا موضوعات حساسة، خصوصا تلك المتعلقة بالصراعات السياسية أو القضايا الجدلية، ما أثار قلق الباحثين حول مدى حيادية الذكاء الاصطناعي.
وأشارت الدراسة أيضا إلى أن هذه الأنظمة غالبا ما تبرمج لتجنب الإزعاج، مما يؤدي إلى تقديم محتوى ناعم مصقول وأحيانا مزيف دون نية تضليل واضحة، لكنه يحمل نفس الأثر على المتلقي.
ويشكل هذا التحريف المنهجي تهديدا مباشرا للمستخدم، خاصة أن فئات واسعة من الشباب تعتمد اليوم على هذه التطبيقات كمصدر أساسي للأخبار والمعلومات دون تحقق إضافي أو رقابة بشرية.
وفي ظل هذا الواقع، دعا معدو الدراسة إلى وضع آليات لمساءلة التطبيقات وزيادة الشفافية في كيفية إنتاج المحتوى، إلى جانب تطوير أدوات تحقق مستقلة لضمان ألا تتحول التقنية من وسيلة للمساعدة إلى أداة لإعادة صياغة الواقع كما تراه الخوارزميات.
تقرير: وفاء الطرابلسي