(واشنطن) انتشرت صورة مزيفة تظهر انفجارًا في البنتاغون لفترة وجيزة على موقع تويتر يوم الاثنين ، مما تسبب في تراجع الأسواق لمدة عشر دقائق وإعادة إشعال الجدل حول مخاطر الذكاء الاصطناعي.

الصورة المزيفة ، التي يبدو أنها صنعت باستخدام برنامج ذكاء اصطناعي (قادر على إنتاج نصوص وصور من استعلام بلغة بسيطة) ، أجبرت وزارة الدفاع الأمريكية على الرد.

وقال متحدث باسم وزارة الدفاع: “يمكننا أن نؤكد أن هذه معلومات كاذبة وأن البنتاغون لم يتعرض للهجوم اليوم”.

كما تدخل رجال الإطفاء في المنطقة التي يقع فيها المبنى (في أرلينغتون ، بالقرب من واشنطن) للإشارة على تويتر إلى عدم وقوع انفجار أو حادثة ، لا في البنتاغون ولا في مكان قريب.

يبدو أن الصورة تسببت في انخفاض الأسواق قليلاً لبضع دقائق ، S

وأشار بات أوهير من موقع Briefing.com إلى أن “هناك جانبًا سلبيًا لهذه المعلومات الخاطئة عندما التقطتها الأجهزة” ، مشيرًا إلى برنامج التداول الآلي المبرمج للتفاعل مع المنشورات على الشبكات الاجتماعية.

وأضاف: “لكن حقيقة أنها ظلت محكومة بمفهوم هذه الأخبار الكاذبة تشير إلى أن الآخرين وجدوها موحلة أيضًا”.

كان سرد من حركة QAnon التآمرية من بين أول من نقل الصورة الزائفة ، التي لا يعرف مصدرها.

وتأتي هذه الحادثة بعد نشر العديد من الصور المزيفة التي تم إنتاجها باستخدام الذكاء الاصطناعي التوليفي على نطاق واسع لإظهار قدرات هذه التكنولوجيا ، مثل تلك الخاصة باعتقال الرئيس الأمريكي السابق دونالد ترامب أو البابا مرتديًا سترة.

تسمح برامج مثل DALL-E 2 و Midjourney و Stable Diffusion للهواة بإنشاء صور مزيفة مقنعة دون الحاجة إلى إتقان برامج التحرير مثل Photoshop.

ولكن إذا كان الذكاء الاصطناعي التوليدي يسهل إنشاء محتوى خاطئ ، فإن مشكلة نشرها وانتشارها – أخطر مكونات المعلومات المضللة – تقع على عاتق المنصات ، كما يذكر الخبراء بانتظام.

قال رئيس شركة OpenAI (DALL-E، ChatGPT) Sam Altman خلال جلسة استماع بالكونجرس في منتصف شهر مايو: “يستخدم المستخدمون هذه الأدوات لإنشاء محتوى أكثر كفاءة من ذي قبل […] ، لكنهم ما زالوا ينتشرون عبر وسائل التواصل الاجتماعي”.