
(واشنطن) انتشرت صورة مزيفة تظهر انفجارًا في البنتاغون لفترة وجيزة على موقع تويتر يوم الاثنين ، مما تسبب في تراجع الأسواق لمدة عشر دقائق وإعادة إشعال الجدل حول مخاطر الذكاء الاصطناعي.
الصورة المزيفة ، التي يبدو أنها صنعت باستخدام برنامج ذكاء اصطناعي (قادر على إنتاج نصوص وصور من استعلام بلغة بسيطة) ، أجبرت وزارة الدفاع الأمريكية على الرد.
وقال متحدث باسم وزارة الدفاع: “يمكننا أن نؤكد أن هذه معلومات كاذبة وأن البنتاغون لم يتعرض للهجوم اليوم”.
كما تدخل رجال الإطفاء في المنطقة التي يقع فيها المبنى (في أرلينغتون ، بالقرب من واشنطن) للإشارة على تويتر إلى عدم وقوع انفجار أو حادثة ، لا في البنتاغون ولا في مكان قريب.
يبدو أن الصورة تسببت في انخفاض الأسواق قليلاً لبضع دقائق ، S
وأشار بات أوهير من موقع Briefing.com إلى أن “هناك جانبًا سلبيًا لهذه المعلومات الخاطئة عندما التقطتها الأجهزة” ، مشيرًا إلى برنامج التداول الآلي المبرمج للتفاعل مع المنشورات على الشبكات الاجتماعية.
وأضاف: “لكن حقيقة أنها ظلت محكومة بمفهوم هذه الأخبار الكاذبة تشير إلى أن الآخرين وجدوها موحلة أيضًا”.
كان سرد من حركة QAnon التآمرية من بين أول من نقل الصورة الزائفة ، التي لا يعرف مصدرها.
وتأتي هذه الحادثة بعد نشر العديد من الصور المزيفة التي تم إنتاجها باستخدام الذكاء الاصطناعي التوليفي على نطاق واسع لإظهار قدرات هذه التكنولوجيا ، مثل تلك الخاصة باعتقال الرئيس الأمريكي السابق دونالد ترامب أو البابا مرتديًا سترة.
تسمح برامج مثل DALL-E 2 و Midjourney و Stable Diffusion للهواة بإنشاء صور مزيفة مقنعة دون الحاجة إلى إتقان برامج التحرير مثل Photoshop.
ولكن إذا كان الذكاء الاصطناعي التوليدي يسهل إنشاء محتوى خاطئ ، فإن مشكلة نشرها وانتشارها – أخطر مكونات المعلومات المضللة – تقع على عاتق المنصات ، كما يذكر الخبراء بانتظام.
قال رئيس شركة OpenAI (DALL-E، ChatGPT) Sam Altman خلال جلسة استماع بالكونجرس في منتصف شهر مايو: “يستخدم المستخدمون هذه الأدوات لإنشاء محتوى أكثر كفاءة من ذي قبل […] ، لكنهم ما زالوا ينتشرون عبر وسائل التواصل الاجتماعي”.