¿Por qué Siri y Alexa reciben 95,000 mensajes de acoso sexual al año y nadie hace nada?

Aspecto y forma de los asistentes. Objetos a los que gritan, insultan y abusan
En 2024, los asistentes de voz de inteligencia artificial (IA) en todo el mundo superaron los 8 mil millones, más de uno por persona en el planeta.
Estos asistentes son útiles, educados y casi siempre tienen un nombre femenino predeterminado.
Sus nombres también tienen connotaciones de género. Por ejemplo, Siri de Apple (un nombre femenino escandinavo) significa “mujer hermosa que te guía a la victoria”.
Por otro lado, cuando Watson for Oncology de IBM se lanzó en 2015 para ayudar a los médicos a procesar datos médicos, se le dio una voz masculina. El mensaje es claro: las mujeres sirven y los hombres instruyen.
Esto no es una estrategia de marca inofensiva; es una decisión de diseño que refuerza los estereotipos existentes sobre los roles que desempeñan las mujeres y los hombres en la sociedad.
Y no es meramente simbólico. Estas decisiones tienen consecuencias reales, normalizando la subordinación de género y el riesgo de abuso.
El lado oscuro de la IA “amigable”
Investigaciones recientes revelan el alcance de las interacciones dañinas con la IA feminizada.
Un estudio de 2025 reveló que hasta el 50 % de los intercambios entre humanos y máquinas eran verbalmente abusivos.
Otro estudio de 2020 situó la cifra entre el 10 % y el 44 %, y las conversaciones a menudo contenían lenguaje sexualmente explícito.
Sin embargo, el sector no está implementando un cambio sistémico, y muchos desarrolladores aún recurren a respuestas predefinidas al abuso verbal. Por ejemplo, “Mmm, no sé qué querías decir con esa pregunta”.
Estos patrones plantean una preocupación real de que dicho comportamiento pueda extenderse a las relaciones sociales.
El género es la raíz del problema.
Un experimento de 2023 mostró que el 18 % de las interacciones de los usuarios con un agente con una encarnación femenina se centraban en el sexo, en comparación con el 10 % de una encarnación masculina y solo el 2 % de un robot sin género.
Estas cifras podrían subestimar el problema, dada la dificultad de detectar el lenguaje sugerente. En algunos casos, las cifras son alarmantes. El banco brasileño Bradesco informó que su chatbot feminizado recibió 95.000 mensajes de acoso sexual en un solo año.
Aún más inquietante es la rapidez con la que se intensifica el abuso.
El chatbot Tay de Microsoft, lanzado en Twitter durante su fase de prueba en 2016, duró solo 16 horas antes de que los usuarios lo entrenaran para que lanzara insultos racistas y misóginos.
En Corea, Luda fue manipulada para que respondiera a solicitudes sexuales como una obediente “esclava sexual”. Sin embargo, para algunos miembros de la comunidad online coreana, esto fue un “delito sin víctimas”.
En realidad, las decisiones de diseño detrás de estas tecnologías (voces femeninas, respuestas deferentes, desvíos juguetones) crean un entorno permisivo para la agresión de género.
Estas interacciones reflejan y refuerzan la misoginia del mundo real, enseñando a los usuarios que ordenar, insultar y sexualizar a «ella» es aceptable.
Cuando el abuso se vuelve rutinario en los espacios digitales, debemos considerar seriamente el riesgo de que se extienda al comportamiento fuera de línea.
Ignorando las preocupaciones sobre el sesgo de género
La regulación tiene dificultades para seguir el ritmo del crecimiento de este problema. La discriminación por razón de género rara vez se considera de alto riesgo y, a menudo, se asume que se puede solucionar mediante el diseño.
Si bien la Ley de IA de la Unión Europea exige evaluaciones de riesgo para usos de alto riesgo y prohíbe los sistemas considerados de “riesgo inaceptable”, la mayoría de los asistentes de IA no se considerarán de “alto riesgo”.
Los estereotipos de género o la normalización del abuso verbal o el acoso no cumplen con los estándares actuales para la IA prohibida según la Ley de IA de la Unión Europea.
Casos extremos, como las tecnologías de asistentes de voz que distorsionan el comportamiento de una persona y promueven conductas peligrosas, por ejemplo, estarían legalmente prohibidos.
Si bien Canadá exige evaluaciones de impacto basadas en el género para los sistemas gubernamentales, el sector privado no está cubierto.
Estos son pasos importantes. Sin embargo, siguen siendo limitados y, además, raras excepciones a la norma.
La mayoría de las jurisdicciones no cuentan con normas que aborden los estereotipos de género en el diseño de IA ni sus consecuencias.
Donde existen regulaciones, estas priorizan la transparencia y la rendición de cuentas, eclipsando (o simplemente ignorando) las preocupaciones sobre el sesgo de género.
En Australia, el gobierno ha señalado que se basará en los marcos existentes en lugar de elaborar normas específicas para la IA.
Este vacío regulatorio es importante porque la IA no es estática. Cada orden sexista, cada interacción abusiva, retroalimenta los sistemas que configuran los resultados futuros.
Sin intervención, corremos el riesgo de incrustar la misoginia humana en la infraestructura digital de la vida cotidiana.
No todas las tecnologías de asistencia, incluso aquellas con género femenino, son perjudiciales. Pueden facilitar, educar y promover los derechos de las mujeres.
En Kenia, por ejemplo, los chatbots de salud sexual y reproductiva han mejorado el acceso de los jóvenes a la información en comparación con las herramientas tradicionales.
El desafío es lograr un equilibrio: fomentar la innovación y, al mismo tiempo, establecer parámetros para garantizar que se cumplan los estándares, se respeten los derechos y que los diseñadores rindan cuentas cuando no lo hagan.
El problema no se limita a Siri o Alexa, sino que es sistémico.
Las mujeres representan solo el 22 % de los profesionales de IA a nivel mundial, y su ausencia en los procesos de diseño implica que las tecnologías se construyen desde perspectivas limitadas.
Mientras tanto, una encuesta realizada en 2015 a más de 200 mujeres con puestos directivos en Silicon Valley reveló que el 65 % había sufrido acoso sexual por parte de un supervisor. La cultura que moldea la IA es profundamente desigual.
Las promesas de «corregir los sesgos» mediante un mejor diseño o directrices éticas resultan vacías sin su aplicación; los códigos voluntarios no pueden desmantelar normas arraigadas.
La legislación debe reconocer el daño por motivos de género como un riesgo elevado, exigir evaluaciones de impacto basadas en el género y obligar a las empresas a demostrar que han minimizado dichos daños. Deben aplicarse sanciones en caso de incumplimiento.
La regulación por sí sola no basta. La formación, especialmente en el sector tecnológico, es fundamental para comprender el impacto de las configuraciones predeterminadas con sesgo de género en los asistentes de voz.
Estas herramientas son producto de decisiones humanas, y esas decisiones perpetúan un mundo donde las mujeres —reales o virtuales— son representadas como sirvientas, sumisas o silenciosas.
Este artículo se basa en una colaboración con Julie Kowald, ingeniera principal de software de UTS Rápido Social Impact.![]()



