
أخبار ليبيا 24
أعلنت شركة ميتا، المالكة لموقع فيسبوك، عن تغييرات كبيرة في سياساتها بشأن الوسائط التي تم إنشاؤها وتغييرها رقميًا، قبل الانتخابات الأمريكية التي تستعد لاختبار قدرتها على مراقبة المحتوى المخادع الناتج عن تقنيات الذكاء الاصطناعي الجديدة.
وستبدأ ميتا في تطبيق تسميات “Made with AI” في شهر مايو على مقاطع الفيديو والصور والتسجيلات الصوتية التي يجري إنشاؤها بواسطة الذكاء الاصطناعي المنشورة على منصاتها.
وهذا يؤدي إلى توسيع السياسة التي كانت تتناول في السابق شريحة ضيقة فقط من مقاطع الفيديو التي جرى التلاعب بها، حسبما ذكرت نائبة رئيس سياسة المحتوى مونيكا بيكرت.
وقالت بيكرت، إن ميتا ستطبق أيضًا تسميات منفصلة وأكثر بروزًا على الوسائط المعدلة رقميًا والتي تشكل “خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية”، بغض النظر عما إذا تم إنشاء المحتوى باستخدام الذكاء الاصطناعي أو أدوات أخرى.
وسيؤدي النهج الجديد إلى تغيير طريقة تعامل الشركة مع المحتوى الذي تم التلاعب به. وسيجري الانتقال من التركيز على إزالة مجموعة محدودة من المنشورات إلى التركيز على الحفاظ على المحتوى مع تزويد المشاهدين بمعلومات حول كيفية إنشائه.
مخطط ميتا لاكتشاف صور الذكاء الاصطناعي
وأعلنت شركة التواصل الاجتماعي العملاقة سابقًا عن مخطط لاكتشاف الصور التي جرى التقاطها باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بشركات أخرى باستخدام علامات غير مرئية مدمجة في الملفات، لكنها لم تحدد تاريخ البدء في ذلك الوقت.
وفي فبراير، وصف مجلس الرقابة في شركة ميتا القواعد الحالية للشركة بشأن وسائل الإعلام التي جرى التلاعب بها بأنها “غير متماسكة” بعد مراجعة مقطع فيديو للرئيس الأمريكي جو بايدن نُشر على فيسبوك العام الماضي والذي غير لقطات حقيقية للإشارة بشكل خاطئ إلى أنه تصرف بشكل غير لائق.
وسُمح للقطات بالبقاء حاضرة، حيث تحظر سياسة “الوسائط التي تم التلاعب بها” الحالية في ميتا تغيير مقاطع الفيديو بشكل مضلل فقط إذا أنتجت بواسطة الذكاء الاصطناعي أو إذا جعلت الناس يبدون وكأنهم يقولون كلمات لم يقولوها أبدًا.
وقال مجلس الإدارة، إن السياسة يجب أن تنطبق أيضًا على المحتوى غير المرتبط بالذكاء الاصطناعي، والذي “ليس بالضرورة أقل تضليلًا” من المحتوى الناتج عن الذكاء الاصطناعي، بالإضافة إلى المحتوى الصوتي فقط ومقاطع الفيديو التي تصور أشخاصًا يفعلون أشياء لم يفعلوها في الواقع.