لم يعد التحقق من الأخبار خيارا مهنيا، بل ضرورة في عصر المحتوى الرقمي، حيث تظهر دراسة حديثة أن الذكاء الاصطناعي بات الحليف الأبرز في مواجهة التضليل، عبر أدوات متطورة تضمن دقة المعلومات وتكبح جماح المشاركة العاطفية السريعة قبل التثبت.
وفي إطار أطروحة ماجستير في جامعة السوربون أبوظبي وكلية CELSA في جامعة السوربون باريس، عمل 3 باحثين، على فهم هذه المفارقة: لماذا يشارك الناس المعلومات قبل التحقق منها؟ وكيف يمكن إعادة التوازن بين سرعة النشر ومسؤولية الدقة؟
وكشفت نتائج الدراسة، أن المشكلة لا تتعلق بالمعرفة فقط، بل بتفاعل معقد بين الهوية والعاطفة والضغط الاجتماعي، إضافة إلى تصميم المنصات الرقمية التي تكافئ التفاعل السريع أكثر مما تكافئ الدقة.
التحقق.. مسؤولية تتجاوز الصحفيين
يقول الباحثون إن التحقق من المعلومات لم يعد مهمة حصرية لغرف الأخبار. فمع تحول كل مستخدم إلى “ناشر محتوى”، أصبحت المسؤولية جماعية.
وأظهرت مقابلات مع إعلاميين وخبراء ومستخدمين، أن كثيرين يدركون أهمية التحقق، بل ويتبعون خطوات محددة قبل النشر، مثل التأكد من مصدر الخبر، ومقارنة المعلومات مع أكثر من جهة موثوقة، ومراجعة تاريخ النشر وسياقه.
ومع ذلك، فإن بيئة المنصات القائمة على السرعة والتفاعل، تدفع أحيانا إلى تجاوز هذه الخطوات، خاصة في لحظات الاهتمام الجماعي أو الضغط الاجتماعي.
لماذا يحدث الخطأ رغم الوعي؟
تشير الدراسة، إلى أن المشاركة لا تكون دائما قرارا عقلانيا بحتا، فالناس يميلون إلى مشاركة ما يعكس هويتهم أو قناعاتهم، ويتماشى مع مشاعرهم، ويمنحهم إحساسا بالمشاركة في حدث أو نقاش عام.
كما أن تكرار المعلومات عبر المنصات المختلفة، يمنحها مظهرا من المصداقية، حتى لو لم تكن دقيقة، وهي ظاهرة معروفة في علم النفس المعرفي.
وتضيف الدراسة أن هنا يكمن التحدي، حيث أن المستخدم قد يكون واعيا، لكنه يعمل داخل منظومة تشجعه على السرعة أكثر من التحقق.
الذكاء الاصطناعي.. من التحدي إلى الحل
في هذا السياق، يبرز الذكاء الاصطناعي كأداة واعدة يمكن أن تساعد في تقليل انتشار المعلومات المضللة، ليس فقط للخبراء، بل أيضا للمستخدمين العاديين.
وقد أظهرت نتائج الدراسة، أن المشاركين ينظرون إلى الذكاء الاصطناعي كـ”مساعد ذكي” يدعم عملية التحقق، وذلك من دون أن يلغي دور الإنسان.
كيف يساعد الذكاء الاصطناعي في عملية التحقق؟
ومع تطور الذكاء الاصطناعي، بات بإمكان المستخدم العادي الاستفادة من أدوات تحقق متقدمة تؤدي أدوارا مختلفة في مواجهة التضليل.
وبعض هذه الأدوات يركز على كشف التلاعب مباشرة في المحتوى البصري، بينما يختص بعضها الآخر بتقييم مصداقية الأخبار وتحليل سياقها، إلى جانب استخدام أدوات تساعد على تلخيص الأخبار وكشف التناقضات، وفحص موثوقية الموقع أو الحساب الناشر، ومراجعة سجل نشره السابق ومدى التزامه بالدقة، فضلا عن تحليل المصداقية العامة للمحتوى، حيث يمكن لبعض الأدوات الذكية أن تقدر احتمالية التضليل، بناء على نمط اللغة أو طريقة انتشار الخبر.
ففي مجال الصور مثلا، توفر أدوات مثل Hive Moderation وIlluminarty، إمكانية تحليل الصورة واكتشاف ما إذا كانت مولدة بالذكاء الاصطناعي أو خضعت لتعديل رقمي، وهو ما يساعد على الحد من انتشار الصور المفبركة.
أما في ما يتعلق بالفيديوهات، فتقدم منصات مثل Deepware Scanner وSensity AI، تقنيات متقدمة لرصد التزييف العميق وتحليل الإطارات المرئية لاكتشاف أي تلاعب خفي قد يضلل المشاهد.
وعلى مستوى الأخبار والنصوص، تتيح أدوات مثل ClaimBuster، تحديد الادعاءات داخل التصريحات التي تستدعي التحقق، بينما توفر منصات مثل Logically AI تحليلاً أوسع للسياق الإخباري عبر رصد المعلومات المضللة وتتبع أنماط انتشارها. كما تسهم أدوات مثل Factmata، في تقييم موثوقية المحتوى الإخباري وتحليل اللغة المستخدمة للكشف عن مؤشرات التضليل، ما يمنح المستخدم أدوات عملية مدعومة بالذكاء الاصطناعي لاتخاذ قرار أكثر دقة قبل الضغط على زر “مشاركة”.
ويضاف إلى ذلك، أن أدوات مثل ChatGPT، يمكن أن تساعد في الوصول إلى مصادر المعلومة أو الخبر بسرعة، بما يعزز من فرص التحقق من صحتها ودقتها.
ورغم أهمية هذه الأدوات، خلصت الدراسة إلى أن الذكاء الاصطناعي لا يمكن أن يكون بديلا عن الحكم البشري، لكونه لا يمتلك فهما كاملا للسياق الثقافي أو الأبعاد الأخلاقية.
واعتبرت الدراسة أن مسؤولية التحقق النهائية تبقى بيد المستخدم، الذي يحتاج إلى اتخاذ خطوات إضافية تعزز دقة الحكم، من بينها مقارنة الخبر عبر عدة مصادر موثوقة وعدم الاكتفاء بمصدر واحد، والرجوع إلى المصادر الرسمية للمعلومة أو الخبر، كالمواقع والقنوات ووكالات الأنباء الرسمية، إضافة إلى المؤسسات الإعلامية الدولية الموثوقة التي تطبق معايير الدقة والمصداقية، والتأكد من تطابق محتواها مع مصادر أخرى تتمتع بسمعة ومصداقية أيضا. وفي هذا الإطار، يظل الذكاء الاصطناعي أداة داعمة لاتخاذ القرار، لا بديلا عن التفكير النقدي والتقييم الإنساني.
نحو ثقافة رقمية أكثر دقة
وتكشف نتائج أطروحة السوربون، أن مواجهة المعلومات المضللة لا تعتمد فقط على تطوير التكنولوجيا، بل تتطلب بناء وعي رقمي جديد.
وأوضحت أن هذا الوعي لا يقتصر على مهارات التحقق، بل يشمل فهم تأثير العاطفة على اتخاذ القرارات، وإدراك التحيزات المعرفية، والوعي بكيفية عمل الخوارزميات.
وخلصت إلى أن المشكلة لا تكمن في عجز المستخدمين عن التمييز بين الصحيح والخاطئ، بل في أن بيئة النشر السريع تجعل التحقق خطوة مؤجلة.

Social Plugin