إنتبه للمحتوى المزيف الذي تُنتجه تقنيات الذكاء الاصطناعي
أحد أخطر التطورات في التضليل الإعلامي هو استخدام الذكاء الاصطناعي لإنشاء محتوى مزيف يبدو حقيقيًا، مما يجعل من الصعب على المستخدمين التمييز بين الحقائق والأكاذيب. ويشير البروفيسور مارك أوين جونز، أستاذ تحليل الإعلام في جامعة نورث وسترن في قطر،  إلى أن الصور ومقاطع الفيديو التي تنتجها تقنيات الذكاء الاصطناعي، مثل "التزييف العميق" (Deepfake)، قد تبدو واقعية للغاية، ولكن هناك طرقًا يمكن من خلالها كشف زيفها.
ويشرح  "في بعض الأحيان، يمكن ملاحظة عيوب مثل عدم تناسق الأذنين، أو فشل الذكاء الاصطناعي في توليد تفاصيل مثل الأقراط بشكل دقيق. وأحيانًا، إذا لم يكن الشخص في الصورة يرتدي نظارات، فقد تظهر آثار لأذرع النظارات بالقرب من الأذن". ويؤكد أن هذه ليست وسائل مضمونة بنسبة 100%، لكنها توفر مؤشرات قوية على أن المحتوى قد يكون مزيفًا.
ويحذر جونز من أن المشكلة الرئيسية في المحتوى المُنشأ بواسطةالذكاء الاصطناعيتكمن في قدرته على التلاعب بالمشاعر، إذ يقول: "عندما تثار عواطفنا، نصبح أكثر ميلًا لمشاركة الأخبار، مما يزيد من انتشار المعلومات المضللة بشكل سريع وخطير".

تعليقات
* لن يتم نشر هذا البريد الإلكتروني على الموقع.