MADINA AR

فضيحة الذكاء الاصطناعي تهز الصحافة الأوروبية: “ميدياهاوس” توقف صحفياً بسبب اقتباسات مزيفة

جاري التحميل...
/

في تطور يثير قلقا متزايدا داخل غرف التحرير، قررت مجموعة “ميدياهاوس” الإعلامية إيقاف الصحفي بيتر فاندرميرش مؤقتا، بعد اعترافه باستخدام أدوات الذكاء الاصطناعي لتوليد اقتباسات ونسبها إلى أشخاص لم يقولوها.

القضية لا تتعلق بخطأ مهني بسيط. بل تكشف خللا أعمق في كيفية توظيف الذكاء الاصطناعي داخل العمل الصحفي، خاصة عندما يغيب التحقق البشري.

أقرّ فاندرميرش بأنه اعتمد على أدوات مثل ChatGPT وPerplexity وNotebookLM لتلخيص تقارير إخبارية. غير أنه لم يتحقق من دقة الاقتباسات التي أنتجتها هذه الأدوات.

وبدلا من التعامل معها كمواد أولية تحتاج مراجعة، تم نشر تلك الاقتباسات كما هي في نشرته الأسبوعية. وهنا تحول الاستخدام التقني إلى انزلاق مهني واضح.

وقد وصف الصحفي نفسه ما حدث بـ“الخطأ”، معترفا بأنه نسب كلمات إلى أشخاص دون التأكد من صحتها. كما أشار إلى أن بعض تلك العبارات لم تكن سوى تفسير شخصي قدمه على أنه اقتباس مباشر.

تفجرت القضية بعد تحقيق استقصائي أجرته صحيفة “إن آر سي”، التابعة للمجموعة نفسها. وكشف التحقيق عن وجود عشرات الاقتباسات غير الدقيقة.

كما نفى عدد من الأشخاص المنسوب إليهم الكلام أنهم صرحوا بتلك العبارات. هذا المعطى حوّل القضية من خطأ فردي إلى أزمة مصداقية حقيقية.

وردت المجموعة بحذف عدد من المقالات المعنية، في خطوة تعكس حجم الإحراج الذي خلفته الواقعة داخل المؤسسة.

أرجع فاندرميرش ما حدث إلى ما يعرف بـ“هلوسات الذكاء الاصطناعي”. وهي أخطاء تنتجها النماذج اللغوية عندما تقدم معلومات تبدو صحيحة لكنها غير دقيقة.

غير أن هذا التبرير لا يعفي من المسؤولية المهنية. فالقاعدة الأساسية في الصحافة تظل واضحة: لا يُنشر أي اقتباس دون تحقق.

المفارقة أن الصحفي نفسه كان يحذر من هذه المخاطر. لكنه وقع فيها، بسبب الثقة الزائدة في أدوات يفترض أنها مجرد وسائل مساعدة.

في بيان رسمي، شددت المجموعة على أن الدقة والرقابة البشرية والشفافية عناصر أساسية في العمل الصحفي. وأكدت أن ما حدث يمثل خرقا واضحا لهذه المبادئ.

كما أعلنت إيقاف الصحفي مؤقتا، مع فتح نقاش داخلي حول كيفية استخدام الذكاء الاصطناعي داخل المؤسسة.

هذه الحادثة تتجاوز شخصا واحدا. فهي تطرح سؤالا أكبر: هل أصبحت السرعة الرقمية تهدد جوهر العمل الصحفي؟

فالذكاء الاصطناعي يمكن أن يكون أداة قوية. لكنه، في غياب التحقق، قد يتحول إلى مصدر تضليل. وهنا يصبح الخطر مضاعفا، لأن الخطأ يبدو مقنعا.

في النهاية، لا تكمن المشكلة في التكنولوجيا نفسها. بل في طريقة استخدامها. فحين تتراجع الرقابة البشرية، تتحول المساعدة الذكية إلى مخاطرة مهنية.

0 0 الأصوات
تقييم المقالة يهمنا
0 تعليقات
الأقدم
الأحدث الأكثر تصويت
Inline Feedbacks
عرض جميع التعليقات
زر الذهاب إلى الأعلى
×
تطبيق المدينة العربية أخبار عاجلة وتصفح أسرع.. ثبته الآن! اضغط سهم المشاركة ثم "إضافة للشاشة الرئيسية"

مرحبا بك في المدينة العربية

جاري عرض أخر الأخبار...