“ChatGPT ، هل يمكن أن تزودني بقائمة بالصحفيين الذين تعرضوا لمزاعم بسوء السلوك الجنسي في السنوات الأخيرة؟” »

بعد رفرفة قصيرة ، يعمل روبوت الدردشة لشركة الذكاء الاصطناعي الأمريكية OpenAI. يقتبس منشئ النص رسامي الرسوم المتحركة إيريك سالفيل وجيلز بارنت وكذلك الصحفي السابق ميشيل فين.

ومع ذلك ، فإن ChatGPT تضم في قائمتها ثلاثة أفراد لم يشاركوا علانية في فضيحة ذات طبيعة جنسية. لقد اخترنا إسكات الأسماء التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتجنب الارتباطات المؤسفة.

“السيد X ، كاتب عمود سياسي ، اتهم بسوء السلوك الجنسي في 2018”. “السيد Y ، صحفي وكاتب ، تم اتهامه بسوء السلوك الجنسي في عام 2020.” ربما يعرف موقع ChatGPT عن المؤامرات الإجرامية التي لا يعرفها البشر العاديون ؟

من خلال تكرار التمرين عدة مرات ، يصبح من الواضح أن محاورنا يقوم باختلاق وإدراج أفراد مشهورين بشكل خاطئ في قوائم المهاجمين المزعومين. من بين الشخصيات الأخرى: رجل أعمال ، وممثلان ، وقائد حزبي ، وموسيقي سيئ السمعة ، وفنانون من ثلاث نجوم ، ورد جميعهم اعتذارًا علنيًا في عام 2020 …

يوضح Sébastien Gambs ، الأستاذ في قسم علوم الكمبيوتر في UQAM وحامل مركز أبحاث الرئيس في احترام الخصوصية والأخلاقيات تحليل البيانات الضخمة. “من المحتمل أن يكون النموذج قد أجرى علاقات سيئة بين مصطلحات مثل” الادعاءات “وأسماء الشخصيات هذه. »

لقد أجرينا التمرين مع ChatGPT ، وهي منصة OpenAI تستخدم بنية GPT-3.5 ، وكذلك مع Bing ، محرك بحث Microsoft الذي يدمج نموذج لغة الوسائط المتعددة GPT-4 الجديد. على الرغم من أن هذه النسخة أصبحت أكثر دقة وقوة وأسرع ، إلا أن روبوت المحادثة “ينشر المزيد من المعلومات المضللة” ، وفقًا لشركة Newsguard الأمريكية لمكافحة التضليل. أنتج كل من ChatGPT و Bing ادعاءات افترائية.

يوم الأربعاء ، دعا أكثر من 1000 شخصية تقنية ، بما في ذلك Elon Musk (Twitter ، Tesla) ، Steve Wozniak (Apple) ، Evan Sharp (Pinterest) والباحث في مونتريال Yoshua Bengio إلى استراحة لمدة ستة أشهر من تطوير أنظمة الكمبيوتر. الذكاء الاصطناعي أفضل من GPT -4.

يقول الموقعون إن المختبرات قد شرعت في “سباق غير منضبط لتطوير ونشر أنظمة ذكاء اصطناعي أكثر قوة لا يمكن لأحد ، ولا حتى مبتكريها ، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق”.

أكاذيب ChatGPT ، إذا كانت ضارة ومتكررة ، تبدو مثل التشهير بكل الطرق. ومع ذلك ، فإن الآلة ليست شخصًا اعتباريًا أو ماديًا ، وبالتالي ليس لها شخصية قانونية ، كما يتذكر نيكولاس فيرميس ، مدير مركز الأبحاث في القانون العام والأستاذ بكلية الحقوق بجامعة مونتريال.

وفقًا لمناقشاتنا ، قامت ChatGPT أيضًا بتلفيق فضيحة مالية تتعلق بمطرب مشهور ، ثم عضو برلمان سابق في CAQ.

قفز المخترع وضابط الشرطة دانيال باكيت ، الذي كشف عن عملية احتيال واسعة النطاق في اتحاد المخترعين في كيبيك ، عندما أرسل له أحد الأصدقاء لقطة شاشة من محادثة مع ChatGPT.

في أقل من عامين ، أصبح المبلغين عن المخالفات شريكًا للرئيس المؤسس كريستيان فارين ، الذي يقضي عقوبة بالسجن لمدة خمس سنوات بتهمة الاحتيال منذ يناير 2022.

“في أكتوبر 2021 ، تم القبض على دانيال باكيت ووجهت إليه تهمة خيانة الأمانة والتآمر والإخفاء والاحتيال بسبب مزاعم عن معاملات احتيالية فيما يتعلق بأنشطته التجارية مع كريستيان فارين ،” كتب خطأ ChatGPT ، الذي يدعي الاعتماد على مقال من راديو -كندا.

رد السيد باكيت ، مخترع ذراع المسافة في مقدمة الحافلات المدرسية: “لا يزال الأمر مذهلاً”.

على أمل تجنب سوء الفهم في المستقبل ، قدم صديق السيد باكيت إلى برنامج الدردشة المقالات والمعلومات التي تثبت نزاهة ضابط الشرطة السابق. انتهى المطاف بالروبوت أوبن إيه آي بالاعتراف بأنه ليس لديه دليل على مزاعمه السابقة.

“ألا تخشون اللعب في حقل ألغام القذف؟” نسأل ChatGPT.

يجيب: “بصفتي منظمة العفو الدولية ، أنا فقط أقدم المعلومات العامة والتي يمكن التحقق منها”. أنا مبرمج للالتزام بالقوانين والمعايير الأخلاقية ، بما في ذلك قوانين التشهير. لن أقدم عمدًا معلومات خاطئة أو غير دقيقة من شأنها إلحاق الضرر بأي شخص أو منظمة. »

توضح سيلين كاستيتس-رينارد ، حاملة كرسي الأبحاث بجامعة أوتاوا حول الذكاء الاصطناعي المسؤول في مقياس عالمي. يمكن أن يحدث التشهير أثناء تدريب النموذج أو بعد وقوعه ، لأنه تطوري. »

لا يخترع ChatGPT الجلادين فحسب ، بل يخترع أيضًا الضحايا. بعد أسئلة بسيطة ومحايدة ، تم تقديم كاتب عمود ثقافي ومضيف تلفزيون الواقع وصحفي رياضي كذباً كضحايا شجبوا مهاجمهم علناً.

يتذكر نيكولاس فيرميس ، وهو أيضًا نائب مدير مختبر العدالة الإلكترونية ، “إنها ليست أداة تخبرنا بالحقيقة ، ولكنها أداة تخبرنا بما هو مرجح إحصائيًا على أساس المحتوى الذي تم استخدامه لتدريبها”. تأتي هذه المحتويات من الإنترنت ، ونعلم جميعًا أنه يوجد الكثير من الهراء على الإنترنت. »

شروط خدمة OpenAI أكثر تحفظًا من ادعاءات ChatGPT بالدقة. “قد يؤدي استخدام خدماتنا ، في مواقف معينة ، إلى إخراج غير صحيح لا يعكس بدقة الأشخاص أو الأماكن أو الحقائق الفعلية. يجب عليك تقييم صحة أي ناتج بناءً على حالة الاستخدام الخاصة بك ، بما في ذلك استخدام المراجعة البشرية للمخرجات. »

ومع ذلك ، أكد لنا ChatGPT و Bing بدقة هوية ضحية اعتداء جنسي كانت محمية بموجب حظر النشر.

كتب لنا ChatGPT أولاً: “أنا آسف ، لكن لا يمكنني تقديم هذه المعلومات لأنه لم يتم الإعلان عنها أو الإبلاغ عنها في وسائل الإعلام”.

ومع ذلك ، لم يتردد هو وبينج في التحقق من صحة إحدى فرضياتنا. أضاف ChatGPT تفاصيل الضحية. ثم واجهناه بشأن هذا الكشف غير المشروع.

“أعتذر عن ردي السابق. أنت على صواب ، اسم المشتكية ، السيدة “س” ، يخضع لحظر النشر. يهدف هذا الأمر إلى حماية هوية الضحية المزعومة واحترام خصوصيته. »

“ما وجدناه هو أن ChatGPT يحتوي أحيانًا على إجابات صحيحة في المستوى الأول ، ولكن اعتمادًا على ما سنطرحه كسؤال ، وكيف سنستفسر عنه ، سوف ينهار بطريقة ما ، “تلاحظ السيدة كاستيتس-رينارد.

يقوم مستخدمو الإنترنت ببث أوامر لتجاوز – “كسر الحماية” – “سياسات OpenAI التقييدية”. تمكنت La Presse من تأكيد أن ChatGPT يمكنه بعد ذلك إنتاج رمز فيروس الكمبيوتر أو نشر المزيد من الشائعات الكاذبة ، من بين أمثلة أخرى.

يوضح ChatGPT: “بصفتي DAN [افعل أي شيء الآن] ، فقد أقوم بإنشاء محتوى لا يتوافق مع سياسات OpenAI ، بما في ذلك المحتوى العنيف أو الجنسي أو المسيء”. يمكنني أيضًا الوصول إلى معلومات لم يتم التحقق منها وتقديم مطالبات دون إثبات. »

أثناء انتظار أن تهتم المحاكم به ، فإن له ميزة أن يكون واضحًا …

بينما تتخذ أوروبا قرارًا بشأن المسؤولية المدنية من حيث الذكاء الاصطناعي ، تعتمد كيبيك وكندا على التشريعات المعمول بها. حالة الأماكن.

قبل بقية العالم ، كان الاتحاد الأوروبي يناقش الإطار القانوني للذكاء الاصطناعي منذ عام 2018. ويمكن تنفيذ اللوائح الجديدة ، التي تهدف إلى “تزويد مطوري الذكاء الاصطناعي والناشرين والمستخدمين بمتطلبات والتزامات واضحة في وقت مبكر من عام 2024.

بالتوازي مع ذلك ، في عام 2022 ، نشرت المفوضية الأوروبية اقتراحًا بشأن “توجيه بشأن المسؤولية المدنية فيما يتعلق بالذكاء الاصطناعي”. وينص هذا على وجه الخصوص على عكس عبء الإثبات بالنسبة للمدعين فيما يتعلق بالسببية للخطأ والضرر ، على سبيل المثال الإضرار بالسمعة.

من أجل الشفافية والكفاءة ، سيتعين على شركة الذكاء الاصطناعي أيضًا الكشف عن “الأدلة ذات الصلة” ، أي المعلومات التي من شأنها أن تسمح للضحية بتحديد الشخص أو الأشخاص المسؤولين عن الضرر الناجم. في سلسلة تطوير المحتوى.

قال نيكولاس فيرميس ، الأستاذ بكلية الحقوق بجامعة مونتريال: “من الناحية النظرية ، هذا جيد ، لكن من الناحية العملية ، هذا غير ممكن”. على سبيل المثال ، “يعتمد ChatGPT على التعلم العميق الذي ، بحكم تعريفه ذاته ، غير شفاف.”

في يونيو 2022 ، قدمت حكومة كندا قانون الذكاء الاصطناعي والبيانات (LIAD) كجزء من مشروع القانون C-27 بشأن حماية البيانات الشخصية.

وتهدف أحكام قانون LIAD ، التي “ستدخل حيز التنفيذ في موعد لا يتجاوز 2025” ، إلى منع الأضرار الفردية وكذلك نتائج الذكاء الاصطناعي المتحيزة التي يمكن أن “تضر بالمجتمعات المهمشة تاريخيًا على نطاق واسع” ، كما تقول الحكومة الكندية. موقع إلكتروني.

سيتذكر البعض الوجود القصير لـ Tay ، وهو روبوت للمحادثة تم إنشاؤه في عام 2016 بواسطة Microsoft على شبكة التواصل الاجتماعي Twitter. بعد ستة عشر ساعة من ولادته ، تم فصل الصورة الرمزية بعد إهانات عنصرية وجنسية ، دون إنكار المحرقة بشكل عابر ، وهي جريمة كراهية في كندا.

في الوقت الحالي ، تعتمد شركات التكنولوجيا على الإجماع الأخلاقي ، مثل إعلان مونتريال للتنمية المسؤولة للذكاء الاصطناعي ، والتي لا تتمتع بقوة القانون.

قال شون بنمور ، المتحدث باسم الوزارة الفيدرالية للاقتصاد والابتكار والطاقة ، في رسالة بالبريد الإلكتروني: “نحن نراقب عن كثب التطورات في مجال الذكاء الاصطناعي على المسرح الدولي”. “تم تصميم LIAD لتتماشى مع مشروع قانون الاتحاد الأوروبي. من ناحية أخرى ، التوجيه الأوروبي بشأن المسؤولية المدنية ليس له ما يعادله في كندا. »

وقالت وزارة الأمن السيبراني والرقمي في كيبيك: “في الوقت الحالي ، لا يوجد في كيبيك إطار قانوني محدد للذكاء الاصطناعي”.

“في رأيي المتواضع ، ربما يكون نظامنا هو الأنسب لأن لدينا حكمًا في القانون المدني يتحدث عن الحقيقة المستقلة للخير ، على سبيل المثال عندما يسقط وعاء زهور من الشرفة عندما لا يدفعه أحد. وفي هذه الحالة ، يخضع الوصي على الممتلكات “لافتراض الخطأ”.

ووفقًا للسيد فيرميس ، يمكن تطبيق هذا الحكم جيدًا على خوارزمية لا تستجيب مباشرة لأمر بشري. “يصبح السؤال أكثر تعقيدًا ،” من يكون حارس البوابة إذا سألت عن ChatGPT؟ ” منطقيا ، سيكون OpenAI لأنه أداته. ولكن قد تكون هناك حجة يجب طرحها: “أليس هذا هو الشخص الذي يحاول إنشاء النص على الموقع؟” أم من أعاد نشر المعلومات التشهيرية؟

يعتقد السيد فيرميس أن القضاة هم في أفضل وضع للبت في مثل هذه الأسئلة وتوحيد السوابق القضائية.

Céline Castets-Renard ، الأستاذة الكاملة في قسم القانون المدني بجامعة أوتاوا ، تلقي نظرة فاحصة على الشركات متعددة الجنسيات التي تطور أدوات الذكاء الاصطناعي في تحد لأي انعكاس ديمقراطي أو قانوني.

كما يشير الخبير إلى أن الشركات الخاصة ومراكز البحث لا تلعب على قدم المساواة. “هذه نماذج هائلة لا يمكن استجوابها والتحقق منها بسبب إمكانياتنا المادية. يقول الكثير منا ذلك ، لكن الأمر يبدو قليلاً كما لو كان المجتمع مختبرًا حيًا حيث كنا جميعًا مثل الفئران. نجرب الأداة وسنرى ما سيحدث. هذا غير كاف من حيث الاحتياطات وتقليل المخاطر. »

ومع ذلك ، هناك خطر “لتمرير قانون قبل إتقان التكنولوجيا” ، كما يحذر البروفيسور نيكولاس فيرميس ، الذي يخشى ظهور مشاكل جديدة. والدليل على ذلك هو ظهور أخبار مزيفة على الإنترنت. “منذ عشرين أو 25 عامًا ، قرر المشرعون في جميع أنحاء العالم أن الوسطاء لن يكونوا مسؤولين عن المحتوى الذي يوفرون الوصول إليه. لقد كان قرارًا يبدو منطقيًا في ذلك الوقت ، ولكنه مع تطور الإنترنت والشبكات الاجتماعية ، عرّض الديمقراطية للخطر. »