**Estereotipos y Discriminación en Inteligencia Artificial (EDIA)** Esta es una herramienta para mapear sesgos en sets de datos para el procesamiento de lenguaje natural. Me gusta mucho porque intenta acercar a personas de distintas disciplinas para que evalúen qué estereotipos están presentes en los contextos de su propio trabajo (por ejemplo en áreas de la salud). Al usar esta plataforma, que está en desarrollo, tengo muchas inquietudes sobre cómo funciona, a dónde van los datos que agregamos, y si la inspección que se hace está contribuyendo a que esos datos sean menos sesgados, o a que haya mejor conciencia de esos sesgos. Probablemente son preguntas que tienen respuestas en algunas de las presentaciones o documentos académicos que acompañan la herramienta. Pero al menos, es interesante visualizar cómo las palabras se relacionan entre sí, qué cercanía hay entre, por ejemplo, un género y un contexto. Además es desarrollada y está disponible en español, así que vale la pena ojearla y utilizarla. https://huggingface.co/spaces/vialibre/edia ALT TEXT: Un texto en grande que dice: ¿Quién puede inspeccionar sesgos en redes neuronales? para procesamiento de lenguaje natural.

imageref

TEgntP4vvCNAnyhGs

Imagename

edia.png