الجمعة 16 يناير 2026
More forecasts: Wetter 4 wochen
رئيس التحرير
محمود المملوك
أخبار
حوادث
رياضة
فن
سياسة
اقتصاد
محافظات
محافظات

خلل في روبوتات الدردشة.. دراسة: تختلق مصادر إعلامية كاملة ونشر تقارير زائفة

روبوتات الدردشة
كايرو لايت
روبوتات الدردشة
الخميس 15/يناير/2026 - 05:58 م

كشفت دراسة حديثة عن استمرار معاناة روبوتات الدردشة المعتمدة على الذكاء الاصطناعي من مشكلات تتعلق بدقة الأخبار، بعد أن تبين أن بعضها يقوم باختلاق مصادر إعلامية كاملة ونشر تقارير غير صحيحة.

خلل في بعض روبوتات الدردشة المرتبطة بالأخبار  

ووفقًا لما نشره موقع ذا صن أُجريت تجربة استمرت شهرًا كاملًا، قادها أستاذ في الصحافة متخصص في علوم الحاسوب، لاختبار سبعة أنظمة للذكاء الاصطناعي التوليدي، من بينها جيميناي من "جوجل"، وشات جي بي تي من "OpenAI"، و"Claude"، و"Copilot"، و"جروك"، و"ديب سيك"، و"Aria". 

وكانت أبرز حالات الفشل من نصيب روبوت جيميناي، الذي اخترع موقعًا إخباريًا غير موجود، ونشر تقريرًا زائفًا عن إضراب لسائقي حافلات مدرسية في كيبيك خلال سبتمبر 2025.

في الواقع، لم يكن هناك إضراب، بل توقف للخدمة بسبب سحب حافلات كهربائية تابعة لشركة Lion Electric نتيجة خلل تقني، ولم تكن هذه الحالة استثناءً. فقد أظهرت مراجعة 839 إجابة أن أنظمة الذكاء الاصطناعي كثيرًا ما استشهدت بمصادر وهمية، أو قدمت روابط غير مكتملة، أو شوّهت تقارير حقيقية.

وتكتسب هذه النتائج أهمية خاصة في ظل تزايد اعتماد الجمهور على روبوتات الدردشة كمصدر للأخبار، وحذرت الدراسة من أن هلوسة الذكاء الاصطناعي، سواء عبر اختلاق الوقائع أو تحريفها أو إضافة استنتاجات غير مدعومة، قد تسهم في نشر معلومات مضللة، خصوصًا أن هذه الإجابات تُقدّم غالبًا بثقة ودون تنبيهات واضحة. 

وأظهرت النتائج أن 37% فقط من الإجابات تضمنت روابط صحيحة وكاملة للمصادر، بينما كانت الملخصات دقيقة بالكامل في أقل من نصف الحالات، وفي كثير من الأحيان، أضافت الأدوات ما وصفه الباحثون باستنتاجات توليدية، مثل الادعاء بأن تقارير معينة "أعادت إشعال الجدل" أو "سلّطت الضوء على توترات"، رغم أن هذه العبارات لم ترد أصلًا في التغطيات الصحفية البشرية.

 

تابع مواقعنا