أطلقت جوجل العالمية المجلس الاستشاري لتقديم إرشادات بشأن القضايا الأخلاقية المتعلقة الذكاء الاصطناعي ، الآلي والتكنولوجيات ذات الصلة.

الفريق يتكون من ثمانية أشخاص ويشمل السابق نائب وزير الخارجية الأميركي ، جامعة باث أستاذ مشارك.

مجموعة “النظر في بعض من جوجل التحديات الأكثر تعقيدا”, قالت الشركة.

وكان الفريق أعلن في MIT Technology Review EmTech الرقمية ، مؤتمر نظم معهد ماساتشوستس للتكنولوجيا.

جوجل قد تعرضت لانتقادات حادة – داخليا وخارجيا – على كيف تخطط لاستخدام التكنولوجيات الناشئة.

في حزيران / يونيه 2018 وقالت الشركة انها لن تجدد العقد كان مع البنتاجون لتطوير منظمة العفو الدولية التكنولوجيا للسيطرة على الطائرات بدون طيار. المشروع مخضرم, كما هو معروف, كان لا يحظى بشعبية بين جوجل, موظفين دفع بعض الاستقالات.

وردا على جوجل نشرت مجموعة من منظمة العفو الدولية “مبادئ” قالت انها سوف تلتزم. وشملت التعهدات أن تكون “مفيدة اجتماعيا “أمام الناس”.

التكنولوجيا المتقدمة الخارجية في المجلس الاستشاري (ATEAC) سوف يجتمع لأول مرة في نيسان / أبريل. في بلوق وظيفة ، رئيس غوغل للشؤون العالمية ، وكينت ووكر وقال سيكون هناك ثلاثة اجتماعات أخرى في عام 2019.

جوجل بنشر قائمة كاملة من أعضاء الفريق. ويشمل الرائدة رياضيات Bubacarr باه السابق نائب وزير الخارجية الأميركي وليام جوزيف حروق جوانا بريسون الذي يدرس علوم الكمبيوتر في جامعة باث في المملكة المتحدة.

وسوف تناقش توصيات حول كيفية استخدام تقنيات مثل التعرف على الوجه. في العام الماضي, جوجل ثم-رئيس قسم الحوسبة السحابية ، ديان جرين وصف التعرف على الوجه التكنولوجيا بأنها “تحيز” بسبب نقص البيانات المتنوعة.

في غاية استشهد أطروحة بعنوان الروبوتات يجب أن يكون العبيد, Ms بريسون جادل ضد اتجاه علاج الروبوتات مثل الناس.

“في أنسنة” كتب “نحن ليس فقط مزيد من يمتهنون انسانيتهم الناس الحقيقية ، ولكن أيضا تشجيع الفقراء الإنسان صنع القرار في تخصيص الموارد والمسؤولية.”

في عام 2018 زعمت أن التعقيد لا ينبغي أن تستخدم كذريعة غير صحيح إعلام الجمهور من منظمة العفو الدولية كيف تعمل النظم.

“عندما يقوم النظام باستخدام AI يسبب ضررا ، نحتاج أن نعرف أننا يمكن أن تعقد البشر وراء هذا النظام.”

_____

اتبع ديف لي على تويتر @DaveLeeBBC

هل لديك مزيد من المعلومات حول هذا أو أي تكنولوجيا أخرى القصة ؟ يمكنك الوصول إلى ديف مباشرة وبشكل آمن من خلال الرسائل المشفرة التطبيق إشارة على: +1 (628) 400-7370