“بمجرد أن يتخذ الذكاء الاصطناعي قرارات أفضل منا بشأن وظائفنا ، وحتى علاقاتنا ، سيتعين علينا إعادة التفكير في مفهومنا للإنسانية والحياة. »

هذا ما تنبأ به المؤرخ الإسرائيلي يوفال نوح هراري قبل خمس سنوات في كتاب بعنوان 21 درسًا للقرن الحادي والعشرين.

يلعب دور المستقبلي بشكل خاص في الفصول الأولى من هذا الكتاب ، والتي تركز على “التحدي التكنولوجي”. إنه يرى مستقبلًا سيعتمد فيه البشر على الخوارزميات لتحديد التخصص الذي يجب دراسته أو الشركة التي يعمل بها.

وحتى لاختيار الناس سيتزوجون!

باختصار ، يصف عالمًا تنتقل فيه “السلطة” من البشر إلى أجهزة الكمبيوتر.

عندما قرأت هذا الكتاب قبل بضع سنوات ، وجدت هذه الفصول رائعة للغاية.

لكنني كنت أميل في ذلك الوقت إلى ربط هذه الأفكار بالخيال العلمي.

كانوا في عيني في نفس فئة السيناريو المستقبلي لفيلم 2001: A Space Odyssey. في هذا الفيلم الطويل الذي أخرجه ستانلي كوبريك ، يتحكم كمبيوتر ذكاء اصطناعي في مركبة فضائية ويحاول القضاء على أفراد طاقمها.

ومع ذلك ، مثل الكثيرين ، اختبرت روبوت المحادثة ChatGPT في الأسابيع الأخيرة. وأشعر الآن أن هناك المزيد من العلوم والخيال أقل مما اعتقدت في كلمات المؤرخ يوفال نوح هراري.

هل نحن حقا على شفا ثورة؟ ما مدى اهتزاز مجتمعنا بالتغييرات الكبرى القادمة؟ كيف ستؤثر الأدوات الجديدة التي تعمل بالذكاء الاصطناعي على قراراتنا؟ وعلى نطاق أوسع ، على حياتنا؟ حاولت معرفة ذلك من خلال التحدث إلى عشرات الخبراء في هذا الموضوع.

بدءًا من Yoshua Bengio ، الأستاذ الكامل في جامعة مونتريال والسلطة العالمية في الذكاء الاصطناعي.

“هل يمكننا التحدث عن ثورة يا سيد بنجيو؟”

– ربما نعم. سيحدث تدريجياً. لن يغير الذكاء الاصطناعي اقتصاداتنا فحسب ، بل سيغير أيضًا حياتنا اليومية. وحتى ، بشكل أعمق ، الفكرة التي لدينا عن ماهية الإنسان ، وما هو الذكاء ، وحتى ، ربما ، الوعي. إنه تحويل جذري. »

لم يفاجأ عالم الكمبيوتر برؤية كيف كان يُنظر إلى ظهور ChatGPT على أنه لحظة محورية في تطوير الذكاء الاصطناعي.

ويشير إلى أن العلم يتقدم بخطوات صغيرة. وأنه في لحظة معينة ، تعتبر إحدى هذه الخطوات أساسية. يقارن الظاهرة بمزهرية مملوءة بالماء ، مليمتر واحد في كل مرة. في يوم من الأيام سوف تفيض.

“في مرحلة ما ، تصبح قابلة للاستخدام. نصل إلى مستوى معين من الأداء مما يعني أننا سنجد ذلك في هواتفنا. لقد تجاوزنا عتبة تجعل الشركات ترغب في أخذها لأنها ترى أنها جيدة بما يكفي لتحقيق قيمة مضافة “.

مع ChatGPT ، تبدأ المزهرية بالفيضان. علاوة على ذلك ، حتى لو كان هذا الروبوت لا يزال قيد التطوير وكان نسخته الحالية غير كاملة ، فإنه يشهد نجاحًا هائلاً.

لقد اجتاز معلمًا هامًا وهو مليون مستخدم في خمسة أيام بعد إطلاقه في نوفمبر 2022. ولم يفشل البعض ، على الشبكات الاجتماعية ، في تذكر أن Facebook استغرق عشرة أشهر للقيام بالمثل ، وخمسة أشهر في Spotify وثلاث سنوات ونصف. في Netflix.

ولكن ما هو ChatGPT؟

فلنسأله!

مثير للإعجاب ، أليس كذلك؟ سواء كنت تختبر إبداعها أو كفاءتها ، ستندهش بالتأكيد. بقدر قصيدة عن تغير المناخ بأسلوب جيل فيجنولت كدروس في اللغة الإسبانية أو ملخص لأزمة أكتوبر!

معظم روبوتات المحادثة قادرة على ترتيب الجمل المبرمجة مسبقًا. لكن ChatGPT يعمل بشكل أفضل بكثير. إنه يحلل اللغة الطبيعية ويمكنه إعادة إنشائها للإجابة على أسئلتنا ، وذلك بفضل الشبكات العصبية التي تعمل مثل الدماغ البشري.

مقومات نجاحه؟ طلبنا من Joëlle Pineau ، مديرة أبحاث الذكاء الاصطناعي في مختبر Fair في Meta (Facebook سابقًا) ، شرح ذلك لنا.

في الأساس ، “نعتقد أنها تعتمد على الكثير من البيانات ، التي يتم تجميعها مباشرة من الإنترنت” ، ولكن أيضًا من عدة مصادر أخرى مثل الكتب والبودكاست ، كما تقول.

ومع ذلك ، لا ينبغي الاستهانة بالعمل البشري وراء الآلة.

كما أن البشر هم من يراقبون تصنيف الإجابات ، بحيث يأتي النظام لتقديم أفضل الإجابات الممكنة.

“تعد ChatGPT واحدة من أدوات الذكاء الاصطناعي القليلة التي تثير إعجاب الشخص العادي كما هي بالنسبة للخبير. يقول أوليفييه بليز ، الشريك المؤسس لشركة Moov AI ومقرها مونتريال ، والتي تقدم خدمات استشارية في مجال الذكاء الاصطناعي ، “إنه حقًا شيء ثوري”.

يتحدث بحماس طفل في متجر حلوى.

لقد وصلنا بالفعل إلى النقطة التي سيوفر فيها الذكاء الاصطناعي “معلومات حتى نتمكن من اتخاذ قرارات مستنيرة. وقال “سوف تتحسن الأمور”.

مثل العديد من الخبراء الذين تمت استشارتهم ، فإنه يستشهد تلقائيًا بقطاع الصحة عندما يُطلب منه أمثلة ملموسة لفهم من يمكنه الاستفادة القصوى من هذه الثورة.

إنه يتخيل جيدًا أن أداة مثل ChatGPT يمكن أن تكون مسؤولة عن خدمة الاستشارة لخط 811.

“في الوقت الحالي ، إذا كنت تستخدم ChatGPT ، فهي عامة جدًا ولا يمكن الاعتماد عليها بالضرورة. من ناحية أخرى ، عندما نقوم بتكييفها مع مجموعة ، سيكون الأمر مختلفًا. بالنسبة للرعاية الصحية ، يمكننا تزويده بجميع النصوص البالغ عددها 811 “وبالتالي الحصول على” نتائج أكثر حسمًا وموثوقية “.

ولهذا السبب ، يوافق كل من يعرف أي شيء عن الذكاء الاصطناعي تقريبًا على أن عالم التوظيف سينقلب رأسًا على عقب.

حتى منذ ظهور ChatGPT ، تبدو حالة المهن التي اعتقدنا أنها آمنة الآن أكثر خطورة.

لطالما ساد الخوف من أن السيارات الذكية يمكن أن تعطل عمل سائقي سيارات الأجرة ، على سبيل المثال. Ou que l’intelligence artificielle appliquée dans les commerces fasse disparaître une bonne partie des humains (en vacances à Seattle en famille l’été dernier, j’ai visité une épicerie Amazon Go et je n’ai pas eu besoin de passer à la caisse للدفع).

ولكن هنا ، القائمة أصبحت أطول. هل سنحتاج إلى عدد أقل من الأطباء الآن؟ عدد أقل من الصحفيين؟ مدرسين أقل؟

هل ستتخذ الآلات ، من خلال المعرفة التي تراكمت لديها من خلال تغذيتها بكميات هائلة من البيانات ، قرارات أفضل منا؟

يجيب Foutse Khomh ، الأستاذ الكامل في قسم هندسة الكمبيوتر وهندسة البرمجيات في Polytechnique Montréal: “أؤكد لكم أننا لم نصل إلى هناك بعد”.

لكن التقدم في هذا المجال يدفع البروفيسور خومه ، مثل المدير العام للمرصد الدولي للآثار المجتمعية للذكاء الاصطناعي والتكنولوجيا الرقمية ، ليس لانجلوا ، إلى دق ناقوس الخطر. خلال المقابلة الافتراضية التي أجروها لنا ، أصر كلاهما: يجب أن نضمن أن يتم التطوير بطريقة “مسؤولة” في الذكاء الاصطناعي.

لكن قول ذلك أسهل بكثير من فعله بالطبع.

تحذرنا الأستاذة المساعدة في قسم الإدارة بجامعة لافال ، Gaëlle Cachat-Rosset في بداية المقابلة: ستخضعنا للاختبار ، كما تفعل مع طلابها.

تطلب منا إدخال عبارة “العجزة” في جوجل تترجمها وترجمتها إلى … المجرية!

Le résultat: ممرضة.

ثم تخبرنا أن نحاول ترجمتها مرة أخرى ، هذه المرة إلى الفرنسية.

الغريب أن أداة الترجمة الآلية من Google ، والمدعومة بالذكاء الاصطناعي ، تقدم لنا كلمة أخت. يشرح الأستاذ: كان بإمكاننا أيضًا الحصول على كلمة ممرضة.

“إنه يعطي أنثوية! لقد بدأت بكلمة مذكر قمت بترجمتها إلى لغة ليس لها ضمير جنس. وعندما نعيد الترجمة من اللغة الهنغارية ، نرى كيف تظهر الصور النمطية الجنسانية المرتبطة بالمهنة. »

Gaëlle Cachat-Rosset متخصص في البحث حول قضايا التنوع والشمول في المنظمات. مع انتشار استخدام الذكاء الاصطناعي ، أصبح عمله مقطوعًا عنه.

تشرح لنا أن لدينا – لسوء الحظ – وعي ضئيل للغاية بالمخاطر التي نعرض أنفسنا لها من خلال السماح للذكاء الاصطناعي باتخاذ المزيد من القرارات لنا.

وتخبرنا أن هناك بالفعل العديد من الأمثلة على الانتهاكات المتعلقة بالتمييز والتحيز والصور النمطية التي تكرسها الأنظمة القائمة على الذكاء الاصطناعي مثل ChatGPT.

من أشهرها (للأسف) شركة أمازون ، التي قررت تعيين موظفين باستخدام الذكاء الاصطناعي في عام 2014. ومع ذلك ، سرعان ما وجد العملاق الرقمي أن هذا النظام استبعد النساء في العملية لشغل مناصب مثل مطوري تكنولوجيا المعلومات. لقد تم إطعامه بالسير الذاتية للموظفين السابقين ، الذين كانوا بأغلبية ساحقة من الرجال. وخلص إلى أن الموظف الجيد يجب أن يكون رجلاً.

كما أعطتنا الخبيرة الأخرى ، ساندرا رودريغيز ، مثال التوظيف المعيب في أمازون. عالم اجتماع الوسائط الجديد هذا هو أيضًا المدير الإبداعي للأعمال الغامرة التي تستخدم الذكاء الاصطناعي. لقد صممت واحدة فقط للسماح لنا “بمعرفة ما هو تحت غطاء محرك السيارة” من هذه التكنولوجيا الجديدة.

كيف نصنع الذكاء الاصطناعي باختصار.

يتيح لك هذا المشروع ، الذي سيقدمه المجلس الوطني الكندي للسينما في مونتريال في غضون بضعة أشهر ، إجراء محادثة مع ثنائي رقمي من اللغوي الأمريكي الشهير نعوم تشومسكي.

لذلك تم إنشاء روبوت محادثة من “الآثار الرقمية” لهذا الخبير الموجود على الويب ، بما في ذلك العديد من النصوص والتدخلات العامة. يسمح هذا الروبوت أيضًا لمن سيسألونه أن يفهموا أن جميع إجاباته “مدفوعة بالخوارزميات”. وانظر كيف يتم إنشاؤها.

شيء واحد يؤدي إلى شيء آخر ، محادثتنا مع ساندرا رودريغيز تتطرق إلى عمل كيت كروفورد ، مؤلفة أطلس مكافحة الذكاء الاصطناعي. يوضح هذا المقال ، من بين أمور أخرى ، أن “أنظمة الذكاء الاصطناعي مصممة في النهاية لخدمة المصالح المهيمنة”. وأنه من الضروري طرح أسئلة حول كيفية إنتاجها وتبنيها.

تقول ساندرا رودريغيز: “قالت كيت كروفورد إن التكنولوجيا في حد ذاتها ليست جيدة أو سيئة ، لكنها ليست محايدة أبدًا”. علينا دائمًا الاحتفاظ بهوائي قوي يطرح أسئلة حول الذكاء الاصطناعي مثل: من يدربه وعلى أي أساس؟ »

يشارك عالم الاجتماع جوناثان روبرج ، الأستاذ الكامل في مركز التحضر والثقافة والمجتمع في INRS ، نفس المخاوف.

على الرغم من أنه لا يشعر بالقلق الشديد بشأن تأثير الذكاء الاصطناعي على قراراتنا عبر العديد من المنصات الرقمية (توصيات Netflix أو Spotify ، على سبيل المثال) ، إلا أنه يقول إنه كلما تأثرت “الأنظمة الأكثر أهمية” ، “كلما كانت المشكلة أكثر”.

في التعليم أو الدفاع أو العدالة ، على سبيل المثال.

وهذا ليس خيالًا علميًا أيضًا. بالفعل ، في الولايات المتحدة ، يعتمد البعض على الذكاء الاصطناعي في قرارات الكفالة. وهذه الطريقة الجديدة للتقدم ، بسبب تحيزات الخوارزميات ، بعيدة كل البعد عن الإجماع. تم استنكار النتائج التي تم الحصول عليها في نيوجيرسي على وجه الخصوص.

يعتقد عالم الاجتماع أيضًا أننا اتخذنا للتو خطوة إلى الأمام في استخدام الذكاء الاصطناعي لقراراتنا. ويتوقع “إنه فعال للغاية وسهل التشغيل في أنظمة مختلفة ، حيث سينتشر بالضغط الاقتصادي”. سواء كانت ضارة أو مثيرة للاهتمام للمجتمعات المعاصرة يكاد يكون غير ذي صلة. »

خرج الجني من الزجاجة. ولن يعود.

لذلك يجب ترويضها.

إذن متى سيبدأ اليوم الذي تحكم فيه أجهزة الكمبيوتر العالم؟

أجابت كاثرين ريجيس ، الأستاذة في كلية الحقوق بجامعة مونتريال: “لا أعتقد أننا سنرى ذلك أبدًا”.

لكنها ترد على أن التطورات في الذكاء الاصطناعي تجبرنا على التفكير بشكل عاجل في الطريقة التي نريد العمل بها مع الآلات.

وتقول: “لم نوضح أو نحدد بشكل كافٍ حتى الآن ما نريد تفويضه للآلة وما نريد الاحتفاظ به للإنسان”. ولكن إذا لم نصل إلى هناك بالسرعة الكافية ، “فسوف نعلق أمام الحائط.”

تذكرني كلماته بما قاله ونستون تشرشل عن التغيير: من الأفضل أن تأخذها بيدك قبل أن تمسك بك من حلقك.

Parlant de le prendre par la main, tant Catherine Régis que Céline Castets-Renard – pour sa part professeure titulaire à la faculté de droit de l’Université d’Ottawa – affirment avec aplomb qu’il est plus que temps pour nos gouvernements de légiférer في هذا الموضوع.

أثار إعلان مونتريال للتنمية المسؤولة للذكاء الاصطناعي ، الذي تم تبنيه في عام 2018 ، ضجة كبيرة. لكن هذا ببساطة إطار أخلاقي. إنه بعيد عن أن يكون كافيا.

“إنها أخلاق ، والشركات لا تهتم. نحن بحاجة إلى قانون. أعمل مع أساتذة أخلاقيات جادون للغاية ، وقد توصلوا إلى نفس النتيجة التي توصلت إليها ، “تقول سيلين كاستيتس-رينارد.

مشروع قانون الخصوصية والذكاء الاصطناعي (C-27) معروض حاليًا على أوتاوا. من الواضح أن هذه خطوة في الاتجاه الصحيح.

لأن الخوارزميات التي ستغير حياتنا كل يوم لا تعرف حدودًا. أولئك الذين يغذون الشبكات الاجتماعية مثل Facebook و Twitter و TikTok هم دليل على ذلك. العمالقة الأمريكيون والصينيون يفرضون علينا قواعدهم.

في نفس الوقت ، المهم هو تسليط الضوء على جميع القضايا المثارة.

فكر في الأمر وتحدث عنه.

لقد أخبرنا ذلك إلى حد كبير كل خبير قابلناه.

يتناقض عدم وجود نقاش جاد في مجتمعاتنا حول هذه القضايا مع حجم التغييرات المعلنة والانتهاكات المحتملة.

ومع ذلك ، لا يمكننا الاعتماد على الذكاء الاصطناعي للعناية به من أجلنا!

تقول Joëlle Pineau: “لا أعتقد أننا بحاجة إلى مزيد من المناقشات ، لكننا بحاجة إلى مزيد من المحادثات التي ستسمح لنا باستكشاف التوترات بين الخصائص المختلفة للأنظمة”.

التوترات؟ توضح أنه إذا قمنا بتطوير نموذج ذكاء اصطناعي ، فيمكننا ، على سبيل المثال ، جعله أكثر كفاءة ، لكننا نخاطر بأن ينتهي بنا المطاف بمزيد من التحيز. والعكس صحيح. أو التأكيد على الأمن… على حساب الخصوصية. أو حتى العكس.

لذلك يجب اتخاذ الخيارات.

وتقول: “علينا أن نقرر كيف سنبني هذا الواقع الاجتماعي-التكنولوجي الجديد”.

نفس القصة من جانب يوشوا بنجيو. في حين أنه متحمس جدًا حول كيف يمكن للذكاء الاصطناعي “تسريع العلم” ، إلا أنه لا يزال يجادل بأن “التفكير الشامل” مطلوب.

يقول: “أعتقد أن هناك حاجة إلى إصلاح شامل لنوع المجتمع الذي تحتاجه ، والقضايا البيئية ، ولكن أيضًا قضايا إساءة استخدام التكنولوجيا ، والسيطرة ، والقوة المركزة من خلال التكنولوجيا”.

وإضافة ، لاستكمال تحذيره: “يمكن للتكنولوجيا أن تتحرر ، لكنها يمكن أن تكون أيضًا أداة لتركيز قوة الثروة. وهذا هو عكس الديمقراطية تمامًا. »