أبوظبي في 27 نوفمبر/وام/ بحث المشاركون في جلسة نقاشية بعنوان "حماية وسائل الإعلام من الآثار السلبية للذكاء الاصطناعي" ضمن فعاليات اليوم الثاني من الكونغرس العالمي للإعلام 2024 التحدي الصعب المتمثل في مكافحة المعلومات المضللة المدفوعة بالذكاء الاصطناعي، بدءاً من الأدوات المبتكرة، بما يشمل التحقق عبر البلوك تشين والتأكّد من الحقائق القائم على الذكاء الاصطناعي، ووصولاً إلى تطوير إرشادات أخلاقية لاستخدام الذكاء الاصطناعي في الإعلام .

وقدّمت الجلسة رؤى لحماية نزاهة الإعلام في العصر الرقمي وأدارتها دانا العمر، محررة شؤون التكنولوجيا لدى "ذا ناشيونال" بمشاركة الدكتور محمد عبد الظاهر، الرئيس التنفيذي لمجلة صحافة الذكاء الاصطناعي ورئيس تحريرها، وإيزابيلا ويليامسون، مؤسسة شركة تايد إي آي، ولودوفيك بليشر، الرئيس التنفيذي لشركة آيديشن.
وافتتح الدكتور محمد عبد الظاهر الجلسة بإحصائية من المؤشر العالمي لصحافة الذكاء الاصطناعي وركّز على تطوير ما يفوق 600 تطبيق قائم على الذكاء الاصطناعي بقدرة تعديل الصور والفيديوهات وغيرها من المواد عبر أنحاء العالم بحلول نهاية عام 2024 وقال: “ المقلق في ذلك أن 10٪ فقط من تلك الأدوات تعدّ مدارة للتعامل مع المحتوى المزيف، مما يبرز الضرورة الملحة لاعتماد استراتيجيات فعالة لحماية أصالة المحتوى”.
وناقشت المجموعة تأثير التغييرات التي أحدثتها تكنولوجيا الذكاء الاصطناعي، وركّز الحوار على المخاوف المتعلقة بالنقص المحتمل في النزاهة الصحفية للأجيال المقبلة، رغم تبسيط الذكاء الاصطناعي لإنتاج المحتوى إلى حد بعيد.
وفي معرض النقاش حول الحلول، أكّدت الجلسة دور التعليم ووضوح الإرشادات لاستخدام الذكاء الاصطناعي بمسؤولية.

وشدد لودوفيك بليشر على أهمية النظر إلى الذكاء الاصطناعي كمساعد وليس كبديل للعنصر الإنساني، وأشار إلى ضرورة وجود إرشادات لاستخدام الذكاء الاصطناعي مؤكدا أن التحدي الحقيقي يتمثل في التغلب على تكاسل الإنسان.
وأضاف لودوفيك بليشر أن الإرشادات تتضمن تخصيص وقت للتحقق من صحة المحتوى وعلينا استخدام أدوات الذكاء الاصطناعي للتحقق من صحة المحتوى، ثم التعلم، وتلقي الدروس حول كيفية عمل نماذج الذكاء الاصطناعي.
بينما لفتت إيزابيلا ويليامسون الانتباه إلى مسألة استخدام الذكاء الاصطناعي ضمن مجال ضمان الجودة وركّزت على أهمية وجود سياسات حول الذكاء الاصطناعي في كل المؤسسات لمنع وقوع الأخطاء وضمان اتساق ممارسات ضمان الجودة.

وأكدت أنه يجب فرض اعتماد سياسات حول الذكاء الاصطناعي في كل مؤسسة كأمر إلزامي.. وشددت على وجوب تركيز تلك السياسات بصورة خاصة على جوانب تشمل التعامل مع المحتوى الديني بعناية وبحث المواقف الصعبة في البيئات عالية المخاطر أو الحرجة للحفاظ على المعايير الأخلاقية والمسؤولية.