أدى وصول الذكاء الاصطناعي التوليدي (AI) إلى الفضاء الجماعي ، بفضل ChatGPT ، إلى ظهور العديد من الدعوات لتنظيم الذكاء الاصطناعي.

العديد من هذه الدعوات مبنية على أساطير. الأول هو أن الذكاء الاصطناعي في حد ذاته يجب أن يخضع للتنظيم. احذر من متلازمة الجسم اللامع! لا يوجد الذكاء الاصطناعي من تلقاء نفسه: إنه تقنية تتناسب مع المنتجات والخدمات التي تقدمها الشركات للمستخدمين. لذلك فإن تنظيم الذكاء الاصطناعي يعني بالأحرى تنظيم الشركات التي تقدمه ، والعقود أو الآليات الأخرى لهذا العرض ، وكذلك المستخدمين الذين يستخدمونه. هذا النوع من التنظيم ليس بجديد.

يؤدي هذا إلى الأسطورة الثانية ، وهي الصفحة البيضاء: سوف يتطور الذكاء الاصطناعي في فراغ قانوني ، في غياب القواعد الخاصة بالذكاء الاصطناعي التي من شأنها توضيح ما هو مسموح به أو محظور. على عكس الحريات الأساسية في القانون الخاص ، يمتد الحق بالفعل إلى تطوير وتسويق واستخدام الذكاء الاصطناعي. ومع ذلك ، يجب تطوير هذا الحق لتطبيقه على قضايا خاصة بالذكاء الاصطناعي. بهذا المعنى ، فإن تنظيم الذكاء الاصطناعي هو تمرين تحديثي أكثر من كونه إبداعًا أدبيًا.

لا شك في أن هاتين الخرافات تنبعان من ثقافة الابتكار في القطاع الرقمي ، والتي حكمت حتى الآن تطور الذكاء الاصطناعي. بالاعتماد على إطار قانوني مسموح به في مواجهة الابتكار الرقمي ، تتطلب هذه الثقافة نشر أي اختراع سريعًا في السوق من أجل الاختراق ، حتى لو كان ذلك يعني تصحيح الموقف لاحقًا إذا ظهرت صعوبات. لقد خدم هذا مجتمعاتنا جيدًا منذ الثمانينيات ، لكن نشر الشبكات الاجتماعية ، على سبيل المثال ، أظهر بالفعل حدود هذا النهج.

لكن النهج الوقائي يؤدي إلى ثقافة مؤسسية أكثر حذرًا ، حيث نقوم بتقييم مخاطر الاختراعات في وقت مبكر لإعادة المعايرة إذا لزم الأمر (أو التخلي عنها ، إذا لزم الأمر) ، ونحاول منع الاستخدامات المسيئة أو الضارة.

بعيدًا عن الأساطير ، فإن التحدي الأكبر الذي يواجهه تنظيم الذكاء الاصطناعي هو تغيير ثقافة الابتكار في القطاع الرقمي ، الأمر الذي يتطلب إطارًا قانونيًا أكثر حماية. ومع ذلك ، نظرًا للطبيعة الديناميكية للذكاء الاصطناعي ونقص الأدلة ، فإن هذا الإطار لن يشبه إطار عمل المستحضرات الصيدلانية. إن نموذج “الابتكار المسؤول” ، حيث تشارك الشركة في إدارة إنتاج وتحليل المعلومات المتعلقة بالتأثير الاجتماعي والاقتصادي لاختراعاتها مع السلطة العامة وأصحاب المصلحة الآخرين ، يبدو أكثر ملاءمة.

وهذا هو النموذج الذي يتجه إليه الاتحاد الأوروبي ، والذي أخذ زمام المبادرة بمشروع لائحة منظمة العفو الدولية ، والتي من المفترض أن يتم تبنيها بحلول نهاية العام. يجبر هذا التنظيم منتجي أنظمة الذكاء الاصطناعي على التأكد من امتثالهم للمبادئ التنظيمية قبل طرحها في السوق ، وبالتالي يساعد في محاسبتهم. تسير كندا على خطى الاتحاد الأوروبي مع مشروع قانون C-27 ، والذي لم يتم توثيقه جيدًا ، مع ذلك.

على المدى القصير ، قد يدفع إصلاح قانوني آخر بالفعل القطاع الرقمي لتغيير ثقافته في مواجهة الابتكار. تمتعت التكنولوجيا الرقمية بقدر كبير من التساهل فيما يتعلق بالمسؤولية لمدة 30 عامًا ، والتي سارت جنبًا إلى جنب مع النهج المتساهل الموصوف أعلاه. يجب وضع أنظمة الذكاء الاصطناعي في ظل نظام أكثر صرامة ، مثل المسؤولية عن المنتجات المعيبة. وهنا مرة أخرى ، شرع الاتحاد الأوروبي في هذا المسار الذي ستستفيد كيبيك من اتباعه.