Se ha demostrado que atribuirles rasgos femeninos a los asistentes, si bien mejora la cercanía con los usuarios, también genera una percepción de obediencia y sumisión de las mujeres.

Los asistentes virtuales con los que más se relacionan los usuarios
Las cosas empeoraron cuando se le culpó de haber entrado en diálogos con la serpiente y convencer a Adán de probar la manzana. Acto seguido, fueron expulsados del paraíso.
Hoy, en pleno siglo XXI, las cosas han cambiado porque ya no es necesaria la costilla de Adán.
Ahora, a partir de la inteligencia artificial, no solo se crean mujeres, sino también hombres, desde asistentes virtuales hasta robots. Y, aunque la tecnología carece de emociones, busca la manera de reproducirlas.
En el caso de los asistentes virtuales, se ha demostrado que atribuirles rasgos femeninos aumenta la percepción de cercanía, pero conlleva otros asuntos más complejos.
Alexa, Siri, Google Assistant.
Los asistentes virtuales son programas de software basados en inteligencia artificial, con el fin de ayudarnos a responder preguntas o a realizar tareas sencillas del hogar, la oficina y en nuestra vida diaria en general, instalándolos en tabletas, computadores y otros dispositivos. Entre ellos, los más conocidos son Alexa, Siri y Google Assistant.
De esta manera nos resulta ya cotidiano interactuar con ellas.
Alexa: Pon mi lista de música favorita. ¿Crees que llueva hoy?
Siri: Recuérdame llamar a la empresa a las 3.
Google Asistente: Activa las luces de la casa después de las seis de la tarde.
Con lo que no se contaba era con que surgieran quejas y hasta demandas por utilizar nombres y voces femeninas. Ya que se plantea que, al experimentar cercanía al interactuar con estas agentes, se están reafirmando los roles de género con los cuales se ha enmarcado y estigmatizado, siempre a la mujer. Sin olvidar que también hay demandas por violación de la privacidad.
Es el caso de Apple. Así lo registró la revista Semana, al decir que fue demandada por escuchar y grabar conversaciones privadas con Siri.
Por lo que pagó 95 millones de dólares como respuesta a una demanda colectiva interpuesta en 2019 en la que se le acusa de violar la privacidad de los usuarios al grabar y escuchar conversaciones privadas mediante su asistente de voz.
Los teóricos opinan
Kathleen Richardson, profesora de Ética y Cultura de Robots e IA en la Universidad de Montfort del Reino Unido, argumenta al respecto que este tipo de relación se basa en una falsa reciprocidad, pues el amor y las relaciones humanas surgen desde la intimidad y la reciprocidad real, algo que las máquinas no pueden replicar.
Considera que los asistentes virtuales solo “simulan” y “fingen” sentimientos, lo cual es deshumanizante. Habla de antropomorfización y género, pues al asignar rasgos humanos (voces femeninas, nombres, avatares) a los asistentes, se refuerzan estereotipos de género y la idea de que ciertas tareas de servicio son inherentemente femeninas.
Y, finalmente, considera que conduce a cierto aislamiento social, pues el uso de “robots de compañía” o asistentes para combatir la soledad puede, paradójicamente, aumentar el aislamiento social, ya que sustituyen la interacción humana.
De acuerdo con Karl F. Mac Dorman, experto en interacción humano-computadora e investigador de la Universidad de Indiana, los asistentes virtuales deben evitar el “valle inquietante” para ser efectivos.
No buscan una réplica humana exacta en los asistentes virtuales. Sus investigaciones indican que si un asistente intenta imitar demasiado a un humano, pero falla en detalles sutiles, genera una sensación de rechazo o “frialdad”.
Por ejemplo, si un asistente virtual tiene una voz extremadamente humana pero un avatar visualmente robótico (o viceversa), se produce una ruptura en la percepción que dificulta la confianza y la interacción fluida.
Así mismo, se refiere a la nueva área de trabajo e investigación que ha denominado “Valle Inquietante de la Mente” o simulación de capacidades mentales.
Sobre ella sostiene que la incomodidad ya no solo viene del aspecto físico, sino de la empatía programada. Los humanos tienden a percibir como “inquietantes” a los asistentes que muestran una empatía guionizada o artificial en lugar de una respuesta espontánea y genuina.
Y concluye que el diseño debe priorizar la competencia y el rendimiento de la tarea sobre el realismo visual. La confianza del usuario en un asistente virtual depende más de su capacidad para resolver problemas y de la calidad de sus recomendaciones que de qué tan humano parezca o suene.
Debates
Sobre el tapete quedan discusiones desde el punto de vista ético, pues el consentimiento simulado de roles refuerza estereotipos.
Por otra parte, no se tiene claro el impacto social sobre las relaciones humanas; se habla de mayor soledad y creación de expectativas irreales.
Y, por último, el tema de la regulación de la privacidad de datos tiende a imponer límites de uso y seguridad, para que no se repitan demandas como la que tuvo que pagar Apple.
Así las cosas, y a pesar de que estamos años luz de lo mencionado en los pasajes bíblicos, las mujeres, al día de hoy, en parte debido al uso de estos dispositivos, refuerzan roles de sometimiento, pues estos generan grandes ganancias para las empresas y eso en el mundo de hoy es lo importante ![]()



