Milagros MiceliMilagros Miceli

Milagros Miceli: “Hay que pensar la IA como proveedora de información, no como decisora”

2026/01/10 11:10

Moverse en el mundo de la inteligencia artificial (IA) y ser crítico con ella no es la conducta más habitual. La argentina Milagros Miceli hace ambas cosas. Fue reconocida como una de las 100 personas más influyentes en el mundo sobre el tema por la revista Time y cuestiona cómo se entrena esa tecnología, y las condiciones (y las consecuencias) de los trabajadores que hacen ese trabajo. También rechaza la posibilidad de que la IA sea una herramienta sin sesgo, de que su uso pueda ser objetivo. “El gran problema es pensar que no lo es. Es una cuestión de marketing. Una cosa es pensar en una IA como proveedora de información, y otra como decisora”, analiza.

Time destacó a Miceli por estudiar las condiciones laborales de los etiquetadores de datos de IA; personas de todo el mundo –muchas que “cobran apenas unos dólares o centavos por hora”– que crean los datos de entrenamiento para los modelos de aprendizaje automático. Miceli es fundadora de Data Worker’s Inquiry, un proyecto académico que les permite a los trabajadores publicar investigaciones propias y sobre ellos mismos. A partir de esas publicaciones, existen causas judiciales e investigaciones abiertas.

“No es posible crear una IA libre de sesgo por el mero hecho de que no es posible crear ningún dato libre de sesgo. Son herramientas, tecnologías. Las tecnologías siempre son políticas”, dice en diálogo con LA NACION.

Aunque admite que es imposible vivir al margen de la IA, Miceli se niega a pensar que lo que está sucediendo sea “imparable. ”Creo que es muy importante transmitir ese mensaje, que está la posibilidad de la resistencia. Mi papel es el de hablar de estas cosas, incluso en lugares hostiles. Es como la historia del rey que estaba desnudo. Alguien lo tiene que decir”.

Socióloga de Comunicación y doctorada en Ingeniería Informática, Miceli reside en Berlín desde hace más de una década, aunque espera volver a instalarse en la Argentina a mediados del próximo año. Participó recientemente de un conversatorio organizado por la compañía Santex, cuyos dueños, los cordobeses Juan Santiago y Walter Abrigo, son los impulsores de la “liga del bien”, un espacio para discutir la IA.

–¿Cuándo comenzaron sus observaciones sobre la IA? ¿Son en general o solo a la IA generativa, la de última generación?

–Mi cuestionamiento tiene que ver con cómo se plantea la IA históricamente y al día de hoy. Técnicamente podría haber sido distinto, pero se eligió esta forma y este paradigma. Un paradigma donde “más es más”, donde la escala es lo que rige el valor, donde también eso rige la manera en cómo se construyen estas inteligencias artificiales, no solamente las generativas, sino todas. Vale decir: “Necesito un montón de datos y todo me viene bien. Todo lo que haya en internet, todo lo que esté disponible. Lo voy a tomar y voy a crear un container de datos y, después, voy a poner a gente a que los limpie. Total, esa gente es descartable, no me interesa”. Así, lo que se produce son conjuntos de datos de mala calidad; tecnologías de mala calidad y se genera robo de datos y la explotación de quienes trabajan. Se podría haber trabajado mejor desde el punto de vista técnico; crear conjuntos de datos chiquitos, especialmente pensados para propósitos específicos y pagarles a quienes los crean un monto digno. No se necesita tanto dinero porque no se necesitan miles de millones de conjuntos de datos. Pero juega la ambición y es, también, algo ideológico. Hay una cosmovisión de quienes rigen y llevan adelante estas tecnologías. Tiene que ver con crear tecnologías que les tienen que servir a todos, con imponer un paradigma tecnológico único.

–¿Es posible llegar en algún momento a una IA que no tenga sesgos?

–No es posible crear una IA libre de sesgo por el mero hecho de que no es posible crear un dato libre de sesgo. Son herramientas, tecnologías. Las tecnologías siempre son políticas. Hablo de una puja de poder, de quién tiene los medios de producción. En este caso, de quién tiene los medios de computación y quién no; quién tiene los datos y quién no. Inevitablemente , estas herramientas están distribuidas asimétricamente. Es imposible crear una IA libre de sesgo: no está ni bien ni mal, es lo que es. El problema es cuando queremos hacer creer que eso es de verdad posible. Es cuando las empresas nos quieren vender que una IA tiene menos sesgo que la otra, cuando eso realmente no es posible. Termina siendo una distracción de los problemas reales.

–Entonces, ¿es una falacia cuando los usuarios nos planteamos usar la IA como si fuera algo objetivo?

–Absolutamente. Ese es un gran problema, y no es casualidad. La intención es venderla así. Es una cuestión de marketing. Las empresas necesitan imponerla, que sea como una cuestión de Estado. Por ejemplo, en Albania, crearon una IA que funcionaría como una ministra; ya se hicieron otras con poder de decisión. Lo que nos venden con todo esto es que hay una IA que toma decisiones que son menos sesgadas que las de un ser humano. Cualquier ingeniero sabe que eso no es posible; se las entrena con más datos de un tipo, con menos de los otros y así se manipula esa supuesta objetividad. Hay prioridades, toda organización las tiene y, por supuesto, que las herramientas que crean, que implementan, las reflejarán. Entonces, no es posible pensar que una IA pueda tomar por sí sola decisiones objetivas. Eso no quiere decir que un análisis algorítmico de ciertos datos o variables no pueda ayudar a que un ser humano, un funcionario que haya sido elegido para tomar decisiones, pueda usarla. Pero, una cosa es pensar en la IA como proveedora de información, y otra como decisora.

–¿Por ejemplo, que en una ciudad se analicen datos del tránsito y después sea un equipo de funcionarios el que decida la organización?

–Sí, por ejemplo. El problema es cuando no hay cuestionamiento humano y no hay lugar para que lo haya. Hay que tener en claro que no son tecnologías que se crean dentro de un tupper. El problema es que –y tiene que ver con la visión de la IA como “objetiva”– no funciona así en la realidad. Cuando se implementan las herramientas rara vez el funcionario tiene la libertad de poder tomar una decisión que contradiga a la IA. ¿Por qué? Porque, en muchos casos, la instrumentación de estas tecnologías también sirve para lavar responsabilidades. Si está mal, es parte del margen de error: esa chance estaba en la ‘letra chica’. Ahora, si el funcionario contradice a la IA y comete un error, se le puede venir la noche muy rápidamente.

–Esta realidad que describe, ¿es imparable?

–Me niego a pensar que sea imparable. Creo que es muy importante transmitir ese mensaje: que está la posibilidad de la resistencia. Si la gente en el gueto de Varsovia tuvo la energía de resistir, ¿cómo no vamos a pensar que nosotros no podemos? Mi papel es el de hablar de estas cosas, incluso en lugares hostiles. Es como la historia del rey que estaba desnudo. Alguien lo tiene que decir.

–Otro debate que hay en torno a la IA es cómo está incidiendo en el empleo, ¿qué observa?

–Se está perdiendo una cantidad importante de puestos de trabajo, pero lo que nadie cuenta sobre ese punto es que, si bien se pierden, no es porque las tecnologías sean tan poderosas que pueden reemplazar al trabajador. En buena medida es porque se convence a los directivos de que es así. Llega un consultor y plantea que “hay que implementar la IA” y en un año esas mismas empresas están volviendo a contratar a trabajadores humanos. Se cuenta lo primero, no lo segundo, porque recontratar implica que no funcionó la automatización o no lo hizo sola. Eso pasa en Europa, en Estados Unidos y también en otras regiones.

–Un argumento es que impacta positivamente en la productividad.

–Hay modelos híbridos donde la IA viene supuestamente a apoyar el trabajador. Lo que no estamos viendo es un retorno de esa productividad al empleado. Al contrario, vemos una precarización. Probablemente el jefe diga: “Está ChatGPT; no se puede hacer ya un solo texto por día. Hay que hacer cinco o diez porque hay ganancia de productividad”. Entonces, la persona está produciendo diez veces más, pero no ve el fruto de ese aumento de la productividad. También está el hecho de los que descubren que el ChatGPT no es de gran ayuda. Les pasa, por ejemplo, a los traductores. “Mucho de esto me hace perder tiempo”, dicen, y se trabaja más por el mismo precio o menos porque está la IA que “ayuda”.

–¿Es posible que, en algún momento, la IA se pueda preguntar por el sentido de una orden?

–No. Eso es un poco lo que se está promoviendo, la idea de que en algún momento vamos a llegar a esta súperinteligencia que va a tomar decisiones que no vamos a poder comprender. Que vamos hacia una IA que pueda sentir y que pueda pensar por sí misma. La IA es estadística, es probabilística en un nivel de sofisticación muy avanzado, pero no siente, no ve. Lo único que hace es entender el patrón. Ni siquiera entender. Sigue patrones, sigue algoritmos. Evalúa qué es probable, no tiene una función por la cual se pueda cuestionar qué se le está preguntando. El ChatGPT, promteado de distintas maneras, puede ofrecer respuestas cuestionables. Está el caso del adolescente que se quitó la vida hace un tiempo. Logró que la herramienta lo “ayudara”. Que ahora ya no lo haga más, que el Chat GPT no asista a potenciales suicidas no es porque se haya cuestionado la orden que le daban, que haya reflexionado y haya cambiado. Se le cambiaron los parámetros, se dieron cuenta de que había una red flag, de que estaba sucediendo algo que no debería haber pasado.

–¿Por qué con la IA hay tanta expectativa, tanto positiva como negativa? ¿Coincide con una etapa histórica, con un contexto social? Otras disrupciones tecnológicas no provocaron lo mismo.

–No es la primera tecnología de dominación que existe en la historia de la humanidad, pero sí es una que trae un tipo de dominación diferente. Antes la dominación era a partir de las armas (también hay armas manejadas con IA). Ahora la clave es una dominación a partir de la distracción, a partir del sobreflujo de información. Ya no se sabe qué creer. Es la distracción a partir de un acceso a estas tecnologías que pareciera democratizado. Se las puede usar todo el tiempo. Son tecnologías que se vuelvan adictivas. No es casual que, por ejemplo, todo el tiempo estén diciendo: “¡Qué brillante que sos; sí, tenés razón!”. Es la gratificación inmediata, como en las redes sociales. Son tecnologías de dominación blanda. Ya no se está pendiente del otro, se está pendiente de las redes sociales, del like; ya no más de la propia producción intelectual y crítica.

–¿Puede la IA camuflar la complacencia? Porque eso implicaría saltar los cortafuegos que se le pongan.

–Esos cortafuegos, esas restricciones, son tan limitados que es posible saltarlos. Claramente el Chat CPT no estaba programado para asistir a alguien en un suicidio, pero el adolescente a partir de irle preguntando, de insistir y de cambiar los promts logró que lo asista.

–¿Está siempre entrenada para maximizar resultados?

–Exactamente. Este es el problema. Por ejemplo, más allá del caso del suicidio, hay estudios que muestran que se desató una suerte de “psicosis de la IA”; casos de personas con problemas mentales que interactúan con herramientas de este tipo y terminan desarrollando una psicosis, terminan creyendo en teorías conspiranoicas. Sale eso a la luz y Sam Altman dice: “Bueno, sí, pero no vamos a limitar el ChatGPT porque si no estaríamos limitando su desarrollo. No solamente no lo vamos a limitar, sino que será posible que ahora haya conversaciones eróticas con las personas”. La pregunta es: ¿dónde está el límite? No se trata solo de lo que es técnicamente posible, sino de una decisión empresarial y política. Hay que pensar qué es éticamente correcto y qué no, cuáles son los límites morales del desarrollo de estas tecnologías, porque tecnológicamente no hay restricciones.

–Es decir, ¿tecnológicamente no hay una restricción a transmitirle los valores humanos a la IA?

–No sé si son valores. Le podemos transmitir patrones sobre el comportamiento humano, lo malo y lo bueno. Pero volvemos a cómo se decide crear estas tecnologías. Han sido entrenadas con todo, absolutamente todo lo que hay en internet y la red es un tacho de basura en muchos casos. He conocido a trabajadores en Kenia, cuya tarea era leer piezas de texto para el entrenamiento de ChatGPT y separar “lo malo”, hacer un escobillado. Había primero una preselección algorítmica y los empleados tenían que chequear si, efectivamente, eran “tan malos” esos textos, esas descripciones gráficas de cómo matar a alguien, de cómo violar un bebé… Esa era su tarea. Hay gente a la que realmente le destruyó la psiquis. Puede que en ese “escobillado” se les pase algo y que el modelo aprenda cosas que no debería haber aprendido. Hubo una investigación de The Washington Post en 2024 que mostró cuáles son las imágenes más frecuentes que ofrecen los generadores de imágenes. Si se le pedía una de un juguete en Irak, mostraba una escenografía bombardeada y un soldadito de plomo o un revólver de juguete. Es perpetuar la imagen de que el niño en Irak no tiene derecho a tener un osito de peluche, que juega con armas porque ese es su destino. Para quien percibe ayuda social, mostraba alguien visiblemente migrante para los estándares de Estados Unidos o europeos; si se le pedía la imagen de una persona productiva, la mayoría eran hombres blancos con corbatas. Esa es una discusión que hay que dar porque hay una perpetuación de una imagen muy específica del mundo.

–¿Qué debería hacer la educación?

–Hay un papel que deberían cumplir los educadores y las instituciones, y tiene que ver menos con la enseñanza de habilidades técnicas y mucho más con un reforzamiento del pensamiento crítico, del cuestionamiento. Enseñar que no todo lo que uno ve es verdad. La verdad también se puede manipular. Hacer el cuestionamiento de dónde sale esto, cuáles son las fuentes, quién masticó esta información antes de que me llegue.

–¿Por qué la decisión de dedicarse a esto? ¿Cómo es moverse en el mundo de la IA siendo una crítica?

-Escribí libros y artículos; di clases también. Pero después de unos seis años llegó un punto en que observar y reportar una realidad ya no me contentaba. Necesito que esto cambie. No puedo cambiar las condiciones materiales de los trabajadores, no tengo el poder de convencer al jefe, pero sí puedo exponer la situación, crear una plataforma donde puedan contar sus historias y apelar a un público más amplio, a la educación. Respecto de lo segundo, es habitar un espacio que es incómodo. El reconocimiento de la revista Time tiene que ver con llenar un cupo. No soy tonta, me doy cuenta. Hay siempre un par de voces disidentes. Lo entiendo. Voy a muchos lugares donde no es fácil, hay que ponerle el cuerpo a determinadas situaciones, pero tal vez inspiro a un par de jóvenes a que tengan una visión más crítica de la IA. Entonces, sí valió la pena.

–¿Se puede vivir en este mundo con IA sin ser, al menos en edad productiva, un usuario permanente?

–En este mundo no, ya es imposible. No soy apocalíptica. Se trata de rechazar determinados usos de la IA. Hay usos que son más electivos que otros. Un artista puede elegir no apoyarse en herramientas de generación de imágenes que se han producido para venir, supuestamente, a reemplazarlos a ellos mismos. Hay formas críticas de usar estas herramientas.

OTRA MIRADA A LA IA

PERFIL: Milagros Miceli

Milagros Miceli nació en la Argentina y estudió sociología en la Universidad de Buenos Aires. Es también doctora en ingeniería informática por la Technische Universität de Berlin, ciudad donde reside.

Actualmente es directora de la unidad “Data, sistemas algorítmicos y ética” en el Weizenbaum-Institut y líder de investigación en Distributed AI Research Institute (DAIR).

Es también investigadora del proyecto Data Workers’ Inquiry, que estudia las condiciones laborales de los etiquetadores de datos y las asimetrías de poder en ese trabajo.

Voz crítica de diversos aspectos de la inteligencia artificial, en 2025 fue reconocida por la revista Time como una de las 100 personas más influyentes en el campo de la IA.

Oportunidad de mercado
Logo de Lagrange
Precio de Lagrange(LA)
$0.3155
$0.3155$0.3155
-0.36%
USD
Gráfico de precios en vivo de Lagrange (LA)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.