عندما تم إطلاق تطبيق صور Google في مايو 2015 ، أثار ذلك ضجة: يمكنه تحليل الصور ووضع علامات على الأشخاص والأماكن والأشياء الموجودة فيها. في ذلك الوقت ، كان الأمر رائعًا. بعد شهرين ، اكتشف مصمم البرمجيات ، جاكي ألسيني ، وهو أسود ، مع صديق ، في صورة أن Google قد صنفتهم على أنهم “غوريلا”.

التسمية مهينة بشكل خاص ، لا سيما أنها قد تحمل دلالة عنصرية. نشر السيد Alciné لقطة شاشة على Twitter وانتقد Google. خلال الجدل الذي أعقب ذلك ، قامت Google بحظر تصنيف “الغوريلا” لتطبيق الصور ووعدت بإصلاح الخطأ. بعد ثماني سنوات ، لاحظنا التطورات في الذكاء الاصطناعي ، وحققنا وألقينا نظرة على المنافسة: Apple و Amazon و Microsoft.

هناك فرد واحد من عائلة الرئيسيات يمكن لـ Google و Apple التعرف عليه: الليمور ، ذلك الحيوان طويل الذيل ، الذي يبدو مذهولًا بشكل دائم والذي ، مثل البشر ، لديه إبهام متقابل ، ولكنه أقرباء بعيدًا عن القردة العليا.

من الواضح أن الأدوات من Google و Apple كانت الأكثر تقدمًا من حيث تحليل الصور.

ومع ذلك ، فإن Google ، التي يقع برنامج Android الخاص بها في قلب معظم الهواتف حول العالم ، قد عطلت البحث المرئي عن صور الرئيسيات خوفًا من تصنيف شخص ما بالخطأ على أنه حيوان. يبدو أن Apple ، التي تعمل تقنيتها على قدم المساواة مع Google ، في اختبارنا قد منعت أيضًا وظيفة البحث عن القرود والقرود.

قد لا يحتاج المستهلكون إلى تحديد الرئيسيات كثيرًا – على الرغم من أنه في عام 2019 ، اشتكى أحد مستخدمي iPhone في منتدى Apple من أن البرنامج “لا يمكنه التعرف على القرود في صورها”. ومع ذلك ، تثير هذه المشكلة أسئلة حول العيوب الأخرى غير المصححة ، أو التي لا يمكن الوصول إليها ، والتي تكمن في الخدمات التي تستخدم الرؤية الآلية بالإضافة إلى المنتجات الأخرى التي تعمل بالذكاء الاصطناعي.

قال Alciné إنه يشعر بالفزع عندما علم أن Google لم تحل المشكلة بعد. ويضيف أن المجتمع يثق كثيرًا في التكنولوجيا. قال: “لن أثق أبدًا في الذكاء الاصطناعي”.

تُستخدم رؤية الكمبيوتر الآن في مهام عادية مثل إرسال تنبيه عندما يتم تسليم طرد إلى الباب ، وبعيد المدى مثل الملاحة في السيارة والشرطة التي تبحث عن المشتبه بهم.

في حالة الغوريلا ، قال اثنان من موظفي Google السابقين الذين عملوا على التكنولوجيا إن المشكلة تكمن في أن الشركة لم تضع صورًا كافية للأشخاص السود في مجموعة الصور الضخمة المستخدمة لتدريب نظام الذكاء الاصطناعي الخاص بها. لم يتم تعريض هذه التقنية بشكل كافٍ للأشخاص ذوي البشرة الداكنة واعتقدت خطأ أنها غوريلا.

قال الموظفان السابقان إن Google لم تكتشف مشكلة “الغوريلا” في ذلك الوقت لأنه لم يكن لديها عدد كافٍ من الموظفين لاختبار الميزة قبل إطلاقها للجمهور.

يدخل الذكاء الاصطناعي في حياتنا ويثير مخاوف من حدوث عواقب غير مقصودة. تختلف منتجات رؤية الآلة وروبوتات المحادثة مثل ChatGPT ، لكن جميعها تعتمد على البيانات التي تقود البرنامج. يمكن أن يتعطل الجميع بسبب عيوب في البيانات أو التحيزات المضمنة في التعليمات البرمجية الخاصة بهم.

فرضت Microsoft للتو قيودًا على روبوت المحادثة المدمج في محرك بحث Bing الخاص بها ، بعد أن ناقشت موضوعات غير مناسبة مع المستخدمين.

يوضح هذا القرار الذي اتخذته شركة Microsoft ، مثل قرار Google بشأن تحديد هوية الغوريلا ، نهجًا مشتركًا في الصناعة: حظر ميزات التكنولوجيا الخاطئة بدلاً من إصلاحها.

عطل Google التعرف على القرود والغوريلا من تطبيق الصور الخاص بها لأن الفائدة كانت أقل من مخاطر الضرر ، كما يقول مايكل ماركوني من Google.

رفضت شركة آبل التعليق على هذه المسألة.

في Amazon و Microsoft ، أشرنا ببساطة إلى أننا نسعى دائمًا إلى تحسين المنتجات.

قال موظف سابق ، بعد سنوات من خطأ صور Google ، واجهت الشركة مشكلة مماثلة مع كاميرا الأمن المنزلية من Nest أثناء الاختبار. كاميرا نيست ، التي تستخدم الذكاء الاصطناعي لتحديد ما إذا كان الشخص في المشهد مألوفًا أم لا ، أخطأت في أن السود حيوانات. قال الموظف إن Google قامت بتصحيح المشكلة بسرعة قبل إطلاق المنتج.

لكن في منتديات Google ، يشكو العملاء من عيوب أخرى. في عام 2021 ، تلقى أحد العملاء تنبيهات بأن والدته كانت تدق جرس الباب. عندما فتح الباب ، كانت حماته. عندما اشتكى المستخدمون من أن النظام كان يربك الوجوه التي وضعوا عليها علامة “مألوفة” ، طلبت منهم خدمة العملاء حذف جميع علاماتهم والبدء من جديد.

تعمل Google خلف الكواليس لتحسين هذه التكنولوجيا ، لكنها لم تسمح للمستخدمين بالحكم على هذه الجهود.

انضمت الباحثة مارجريت ميتشل ، المؤسس المشارك لمجموعة “Ethical AI” التابعة لـ Google ، إلى الشركة بعد حادثة الغوريلا وعملت مع فريق Photos. وقالت إن قرار إسقاط “علامة الغوريلا لفترة من الوقت على الأقل” كان القرار الصحيح.

أوضحت السيدة ميتشل: “عليك أن تزن فائدة أن تكون قادرًا على تصنيف غوريلا مقابل أضرار إدامة الصور النمطية الضارة”. “الضرر الذي يمكن أن يسببه عطل يفوق الفوائد. »

هذه الأنظمة ليست معصومة من الخطأ أبدًا ، كما تشير السيدة ميتشل ، التي تركت Google. نظرًا لأن مليارات الأشخاص يستخدمون Google ، فستظهر حتى الثغرات التي تؤثر على مستخدم واحد فقط من بين مليار مستخدم.

يمكن أن يكون لخطأ واحد تداعيات اجتماعية هائلة. إنها إبرة السم في كومة قش. »