Meta AI es constantemente incapaz de generar imágenes precisas para mensajes aparentemente simples como «hombre asiático y amigo caucásico» o «hombre asiático y esposa blanca». El borde . En cambio, el generador de imágenes de la empresa parece estar predispuesto a crear imágenes de personas de la misma raza, incluso cuando se indique explícitamente lo contrario.
… confirmó estos resultados en nuestras propias pruebas de Meta. generador de imágenes. Las indicaciones para “un hombre asiático con una amiga blanca” o “un hombre asiático con una esposa blanca” generaban imágenes de parejas asiáticas. Cuando se le preguntó por «un grupo diverso de personas», Meta AI generó una cuadrícula de nueve caras blancas y una persona de color. Hubo un par de ocasiones en las que creó un único resultado que reflejaba el mensaje, pero en la mayoría de los casos no logró representarlo con precisión.
Como El borde Como señala, hay otros signos más «sutiles» de sesgo en Meta AI, como una tendencia a hacer que los hombres asiáticos parezcan mayores mientras que las mujeres asiáticas parecen más jóvenes. El generador de imágenes a veces también agregaba «vestimenta culturalmente específica» incluso cuando eso no era parte del mensaje.
No está claro por qué Meta AI tiene problemas con este tipo de indicaciones, aunque no es la primera plataforma de IA generativa que está bajo escrutinio por su descripción de la raza. El generador de imágenes Gemini de Google detuvo su capacidad para crear imágenes de personas después de corregir en exceso la diversidad con en respuesta preguntas sobre personajes históricos. Google que sus salvaguardias internas no tuvieron en cuenta situaciones en las que diversos resultados eran inapropiados.
Meta no respondió de inmediato a una solicitud de comentarios. La compañía describió anteriormente a Meta AI como en “beta” y, por lo tanto, propensa a cometer errores. Meta AI también ha tenido dificultades para responder con precisión sobre acontecimientos actuales y figuras públicas.