(واشنطن) هل يجب إخفاء المعلومات التي حددها المحققون على أنها كاذبة على وسائل التواصل الاجتماعي؟ في الولايات المتحدة ، يترك Facebook الآن الخيار لمستخدميه ، وهو تغيير مهم يهدف رسميًا إلى إعطاء قوة أقل لخوارزميته ، ولكنه قد يفيد منظري المؤامرة وفقًا لبعض المتخصصين.

حتى الآن ، تم ترحيل هذه الخوارزمية افتراضيًا إلى أسفل محتوى خلاصات المستخدمين الذي تم الإبلاغ عنه بواسطة خدمات التحقق من شركاء Facebook ، بما في ذلك AFP.

لكن معلمة جديدة للشبكة الاجتماعية تسمح الآن لمستخدمي الإنترنت بالاختيار بأنفسهم ، وبالتالي من المحتمل أن تجعل هذا المحتوى الخاطئ أو المضلل أكثر وضوحًا.

يتيح هذا الخيار “تقليل” ظهور المحتوى الذي يعتبر إشكاليًا بدرجة أكبر ، ودفعه “إلى مستوى أدنى في الخلاصة بحيث لا يمكنك رؤيتها على الإطلاق” ، أو “عدم تقليل” ظهورها ، مع التأثير المعاكس ، مما يسمح للمستخدمين بالوصول إلى هذه المنشورات بشكل أكبر وزيادة احتمالية رؤيتها.

قال متحدث باسم الشركة الأم Meta ، “إننا نمنح الأشخاص على Facebook القدرة على التحكم بشكل أفضل في الخوارزمية التي تعطي الأولوية للمحتوى على خلاصتهم” ، مضيفًا أنها تلبي “توقعات المستخدمين الذين يرغبون في امتلاك القدرة على تحديد ما يريدون انظر على تطبيقاتنا “.

ظهرت هذه الميزة في مايو الماضي ، ولم تكن موضوع اتصال محدد من فيسبوك ، مما ترك مستخدمي الإنترنت الأمريكيين يكتشفونها بأنفسهم في الإعدادات.

يأتي هذا التطور في مناخ سياسي مستقطب بشكل خاص في الولايات المتحدة ، حيث يعد الاعتدال في المحتوى على الشبكات الاجتماعية موضوعًا حساسًا بشكل خاص.

يتهم المحافظون الحكومة بالضغط على المنصات لفرض رقابة على المحتوى أو إزالته ، بحجة كاذبة للتحقق.

يوم الثلاثاء ، حد قاض فيدرالي في لويزيانا ، على سبيل المثال ، من احتمالات عقد اجتماعات بين كبار المسؤولين في الإدارة أو وكالات الدولة والشبكات الاجتماعية فيما يتعلق بمسائل التحقق من المحتوى.

ويواجه علماء التضليل من مؤسسات محترمة ، مثل مرصد الإنترنت في جامعة ستانفورد ، المتهمين بتعزيز الرقابة – التي ينفونها – دعاوى قضائية من وكالات إنفاذ القانون والنشطاء المحافظين وإطلاق لجنة تحقيق تابعة للكونجرس.

بالنسبة للعديد من الباحثين ، فإن هذه المعلمة الجديدة التي قدمها Facebook قبل حوالي 18 شهرًا من الانتخابات الرئاسية لعام 2024 تثير مخاوف من انفجار المحتوى الإشكالي على الشبكات الاجتماعية.

وقال ديفيد راند ، الأستاذ في معهد ماساتشوستس للتكنولوجيا ، لوكالة فرانس برس: “إن جعل المزيد من المحتوى السري الذي يعتبره المراجعون إشكاليًا هو أمر أساسي لاستراتيجية فيسبوك لمحاربة المعلومات المضللة”. “السماح للناس بالتغيير يبدو لي أنه يعرض هذا البرنامج لخطر كبير. »

أرادت Meta من جانبها أن تكون مطمئنة ، مشيرة إلى أنه سيتم دائمًا تقديم المحتوى على أنه قد تم تحديده على أنه مضلل أو خاطئ من قبل مدققين مستقلين ، وإضافته للتفكير في تقديم الخيار في بلدان أخرى.

قال المتحدث باسم المجموعة: “هذه هي نتيجة العمل الذي نقوم به منذ فترة طويلة في هذا المجال وسوف نقوم بمواءمة الميزات لمستخدمي Facebook مع تلك الموجودة على Instagram”.

تتيح الشبكة الآن أيضًا إمكانية تحديد عدد المرات التي سيواجه فيها المستخدم “محتوى منخفض الجودة” ، مثل النقر أو البريد العشوائي ، أو “المحتوى الحساس” ، الذي يكون عنيفًا أو مروعًا.

تتعرض هيئات التحقق ، التي يستحيل التحقق من كل المحتوى لها ، بشكل منتظم للهجوم عبر الإنترنت من قبل الأشخاص الذين يشككون في تقييمهم ، حتى عندما يكون من الواضح أن الموضوع مقدم بطريقة خاطئة أو غير كاملة.

وبحسب إيما لانسو من مركز الديمقراطية والتكنولوجيا ، فإن المستخدم “الذي يفتقر إلى الثقة في دور المحققين سيميل” لتفعيل هذه الميزة الجديدة “لمحاولة تجنب رؤية عمليات التحقق المنفذة”. وقالت إنه يتعين على فيسبوك دراسة التأثيرات على “التعرض للمعلومات المضللة” قبل نشر ميزتها في مكان آخر من العالم ، “من الناحية المثالية من خلال مشاركة النتائج”.