La IA de WhatsApp añade armas a las indicaciones para los niños palestinos


 Según se informa, el generador de stickers de WhatsApp incluye con frecuencia armas de fuego cuando se presentan términos relacionados con Palestina, pero no cuando se trata de aquellos que involucran a Israel, como informó The Guardian.


La creación de stickers en WhatsApp by Meta está asistida por inteligencia artificial. Según una investigación de Friday Guardian, el modelo de IA utilizado para hacer las pegatinas a veces produce imágenes de niños portando armas cuando se les pregunta sobre "Palestina" y términos relacionados. La publicación afirma que no se encontraron tales resultados en respuesta a las sugerencias de "Israel".



Cuando el generador de pegatinas de IA de Meta se puso en marcha por primera vez hace un mes, a menudo arrojaba representaciones inquietantemente gráficas de violencia y sexualidad, incluidos, sí, niños soldados. Una fuente anónima en el artículo afirma que algunos empleados de la empresa dieron la alarma y llevaron el asunto a un nivel superior debido a los factores desencadenantes relacionados con el conflicto en Israel.


Kevin McAlister, portavoz de Meta, envió un correo electrónico a The Verge diciendo que la empresa está al tanto del problema y está trabajando para solucionarlo. También prometió que la empresa "continuará mejorando estas características a medida que evolucionen y más personas compartan sus comentarios".




La herramienta de traducción automática de Instagram agregó la palabra "terrorista" a las biografías de los usuarios escritas en árabe, reflejando un error de traducción de Facebook que llevó a la detención de un palestino en Israel en 2017. Este es solo un ejemplo del prejuicio de Meta en sus algoritmos de inteligencia artificial.

Publicar un comentario

Artículo Anterior Artículo Siguiente