(أوتاوا) يحث كبار مسؤولي الأمن السيبراني شركات التكنولوجيا على بناء ضمانات في أنظمة الذكاء الاصطناعي المستقبلية (AI) التي تعدها، لمنعها من التخريب أو استخدامها لأغراض ضارة.

وقالت جين إيسترلي، مديرة وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية، إنه بدون ضمانات مناسبة، سيكون من الأسهل على الدول الخبيثة والإرهابيين وغيرهم استغلال أنظمة الذكاء الاصطناعي الناشئة بسرعة لتنفيذ هجمات إلكترونية وحتى تطوير أسلحة بيولوجية أو كيميائية. .

وقال إيسترلي في إحدى المقابلات إن الشركات التي تصمم وتطور برامج الذكاء الاصطناعي يجب أن تعمل على تقليل عدد نقاط الضعف التي يمكن للمستخدمين استغلالها بشكل كبير. “هذه القدرات قوية بشكل لا يصدق ويمكن استخدامها كأسلحة إذا لم يتم إنشاؤها بشكل آمن. »

انضم المركز الكندي للأمن السيبراني مؤخرًا إلى CISA والمركز الوطني للأمن السيبراني في المملكة المتحدة، بالإضافة إلى 20 منظمة شريكة دولية، للإعلان عن مبادئ توجيهية لتطوير أنظمة الذكاء الاصطناعي الآمنة.

وتشير الوثيقة المرجعية إلى أن ابتكارات الذكاء الاصطناعي لديها القدرة على تحقيق العديد من الفوائد للمجتمع. “ومع ذلك، لكي تتحقق فرص الذكاء الاصطناعي بالكامل، يجب تطويره ونشره وتشغيله بطريقة آمنة ومسؤولة. »

عندما ظهر لأول مرة في أواخر العام الماضي، أذهل ChatGPT من OpenAI المستخدمين بقدرته على الرد على الاستفسارات بإجابات مفصلة، ​​وإن كانت غير دقيقة في بعض الأحيان. كما أثارت مخاوف بشأن الانتهاكات المحتملة للتكنولوجيا الناشئة.

ولأمن الذكاء الاصطناعي أبعاد خاصة لأن الأنظمة تسمح لأجهزة الكمبيوتر بالتعرف على أنماط البيانات ووضعها في سياقها دون قواعد مبرمجة بشكل صريح من قبل الإنسان، وفقًا للمبادئ التوجيهية.

وقال إيسترلي: “هناك إجماع عام بين الحكومات والصناعة على أننا بحاجة إلى العمل معًا لضمان تطوير هذه القدرات مع أخذ السلامة والأمن في الاعتبار”.

“حتى ونحن نسعى إلى الابتكار، يجب علينا أن نفعل ذلك بمسؤولية. »

وقال سامي خوري، رئيس المركز الكندي للأمن السيبراني، إن الكثير من الأمور يمكن أن تسوء إذا لم يتم أخذ الأمن في الاعتبار عند تصميم أو تطوير أو نشر نظام الذكاء الاصطناعي.

وفي المقابلة نفسها، وصف خوري التفاعل الدولي الأولي مع المبادئ التوجيهية الجديدة بأنه “إيجابي للغاية”.

“أعتقد أننا بحاجة إلى أن نكون قدوة، وربما سيتبعنا الآخرون لاحقًا. »

وفي يوليو/تموز، أصدر المركز السيبراني الكندي تحذيرًا يشير إلى نقاط الضعف في نظام الذكاء الاصطناعي. على سبيل المثال، يمكن للمهاجم حقن تعليمات برمجية مدمرة في مجموعة البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي، وبالتالي تشويه دقة النتائج وجودتها.

وقال خوري إن “أسوأ السيناريوهات” هو أن يقوم ممثل خبيث بتسميم نظام الذكاء الاصطناعي المهم “الذي نعتمد عليه”، مما يؤدي إلى تعطله.

وحذر المركز من أن المجرمين المهرة يمكنهم أيضًا التحايل على القيود التي تفرضها أدوات الذكاء الاصطناعي لإنشاء برامج ضارة لاستخدامها في هجوم إلكتروني مستهدف. حتى الأشخاص الذين لديهم “خبرة قليلة أو معدومة في البرمجة يمكنهم استخدام الذكاء الاصطناعي التوليدي لكتابة البرامج الضارة العاملة بسهولة والتي يمكن أن تضر شركة أو مؤسسة.”

في وقت سابق من هذا العام، عندما تصدر ChatGPT عناوين الأخبار، حذرت مذكرة موجزة من جهاز المخابرات الأمنية الكندية (CSIS) من مخاطر مماثلة. ويمكن استخدام الأداة “لإنشاء تعليمات برمجية ضارة يمكن حقنها في مواقع الويب واستخدامها لسرقة المعلومات أو نشر البرامج الضارة”.

كما أشارت مذكرة CSIS المؤرخة في 15 فبراير، والتي صدرت مؤخرًا بموجب قانون الوصول إلى المعلومات، إلى أن ChatGPT يمكن أن يساعد في توليد “أخبار وانتقادات مزيفة، والتلاعب بالرأي العام، وخلق معلومات مضللة”.

تؤكد OpenAI أنها لا تسمح باستخدام أدواتها في أنشطة غير قانونية، أو معلومات مضللة، أو إنشاء محتوى يحض على الكراهية أو العنف، أو إنشاء برامج ضارة، أو محاولة إنشاء تعليمات برمجية مصممة لتعطيل نظام الكمبيوتر أو إتلافه أو الوصول غير المصرح به إليه.

وتحظر الشركة أيضًا استخدام أدواتها في الأنشطة التي تنطوي على مخاطر عالية من الضرر الجسدي، مثل تطوير الأسلحة أو العمليات العسكرية أو إدارة البنية التحتية الحيوية للطاقة أو النقل أو المياه.