يعاني مولد الصور بالذكاء الاصطناعي من ميتا فيما يتعلق بمفهوم الأعراق المختلطة، وتظهر المشكلة عند محاولة توليد صور واقعية لزوجين مختلطي العرق.
ويتعذر على مولد الصور بالذكاء الاصطناعي دائمًا توليد صور دقيقة لمطالبات تبدو بسيطة، ويبدو أن النظام متحيز نحو توليد صور لأشخاص من العرق نفسه، حتى عندما يطلب خلاف ذلك صراحةً.
وفشل مولد الصور بالذكاء الاصطناعي في توليد صور دقيقة للمطالبات السهلة إلى حد ما، إذ ولد صورًا غير دقيقة لرجل آسيوي مع امرأة بيضاء، حتى عند تعديل المطالبات عدة مرات.
وكان مولد الصور بالذكاء الاصطناعي غير قادر على توليد صور دقيقة تشير إلى التحيز تجاه الأشخاص من بعض الأجناس.
وتعد هذه المشكلة مختلفة عن المشكلة المحرجة التي حدث سابقًا مع مولد الصور بالذكاء الاصطناعي من جوجل.
وبعد شهرين فقط من إطلاقه، تبين أن مولد الصور بالذكاء الاصطناعي من جوجل يولد صورًا غير دقيقة تاريخيًا، مما أجبر جوجل على إيقافه وأصدرت اعتذارًا علنيًا.
ويبدو أيضًا أن مولد الصور بالذكاء الاصطناعي من ميتا يعزز التحيزات بخصوص لون البشرة، ويعكس الصور النمطية عبر الملابس حتى عندما لم يطلب ذلك.
كما أن مولد الصور بالذكاء الاصطناعي من ميتا يدمج مناطق مختلفة ثقافيًا في آسيا معًا، إلى جانب تعزيز التحيز بخصوص العمر.
ويعد الذكاء الاصطناعي انعكاسًا للبيانات التي تدرب عليها، كما أنه يعكس أيضًا تحيزات المبدعين والمدربين، وهي حقيقة سارع مستخدمو إكس إلى الإشارة إليها.
ولم تقدم ميتا أي تفسير بخصوص صور الذكاء الاصطناعي المولدة بطريقة غير دقيقة في الوقت الحالي، مع أنها أصرت في الماضي على أن أدوات الذكاء الاصطناعي في المرحلة التجريبية وقد ترتكب أخطاء.
ويعد مصطلح “آسيوي” في وسائل الإعلام الغربية وصفًا شاملًا لشرق آسيا، مع أن القارة ضخمة ومتعددة الثقافات، ويقترب عدد سكانها من 5 مليارات نسمة، ويمثلون مقدار 60 في المئة من سكان العالم.
وتبعًا لذلك، ربما ليس من المستغرب أن يفترض مولد الصور بالذكاء الاصطناعي من ميتا أن جميع الأشخاص الآسيويين يبدون متشابهين، مع أن الآسيويين في الواقع مجموعة متنوعة من الأشخاص الذين ليس لديهم في كثير من الأحيان سوى القليل من القواسم المشتركة.
نسخ الرابط
تم نسخ الرابط