La Inteligencia artificial es un sector de la tecnología en rápida expansión que ha comenzado a ejercer una tremenda influencia sobre la vida de las personas, y que seguro ejercerá más en el futuro. La directora de la División para la Igualdad de Género de la Unesco, Saniye Gülser Corat, cree fundamental corregir los sesgos de la tecnología para poder combatir la brecha de género, que es preocupante en habilidades digitales. Un ejemplo son la programación de las asistentes digitales como Siri, Alexa y Google, todas con voces femeninas, que dan respuestas mediocres ante el acoso sexual masculino, tales como”Oooh!”; “Ahora”; “Me sonrojaría si pudiera”; o “¡Tus palabras!”.
La Inteligencia artificial clasifica la información de los buscadores de internet, determina tratamientos médicos, toma decisiones de préstamos bancarios, clasifica solicitudes de trabajo, traduce idiomas, coloca anuncios, recomienda penas de prisión, influye en decisiones de libertad condicional, intuye gustos y preferencias de los usuarios y hasta decide quién califica para un seguro, entre otras innumerables tareas.
Sin embargo, a pesar de la creciente influencia de esta tecnología, las mujeres conforman solo el 12 por ciento de los investigadores en este terreno, según una reciente publicación de la UNESCO y la coalición EQUALS, que se dedica a promover la igualdad de género en el sector de la tecnología.
¿Por qué es importante que esto cambie?
Un estudio realizado por investigadores de la Universidad de Virginia en los Estados Unidos determinó que las mujeres son un 47% más propensas a sufrir heridas severas en accidentes automovilísticos, ¿por qué? Porque los sistemas de seguridad fueron diseñados para hombres. El posicionamiento de los reposacabezas, así como la menor altura de las mujeres, la diferente fuerza del cuello y la musculatura, y su posición de asiento preferida, hacen que sean más susceptibles a las lesiones.
Por otra parte, de acuerdo con la publicación de la UNESCO, si se construye un sistema inteligente que aprende lo suficiente sobre las propiedades del lenguaje para poder entenderlo y producirlo, en el proceso también adquirirá asociaciones culturales históricas, algunas de las cuales pueden ser negativas.
Esto es algo que ya está sucediendo. Por ejemplo, Microsoft desarrolló un “chatbot” (un programa informático con el que es posible mantener una conversación) y lo alimentó a través de la información de publicaciones de Twitter. Apenas 15 horas después de su lanzamiento al público, el robot digital se refería al feminismo como “un culto” y un “cáncer” . La compañía tuvo que eliminar la utilidad a menos de un día después de su lanzamiento.
Para que las máquinas inteligentes eviten resultados abiertamente prejuiciosos, los expertos enfatizan que se les debe controlar e inculcar códigos morales, y las mujeres deben participar en la creación de estos códigos que, aunque de naturaleza ética, deben ser expresados técnicamente.
El caso de asistentes digitales como Siri, Alexa y Google tienen una escasa programación a la hora de responder a ante insultos y malos tratos. Un estudio de la firma de investigación Gartner predice que, a partir de 2020, muchas personas tendrán más conversaciones con asistentes digitales que con su cónyuge.
Hoy en día, y con raras excepciones, la mayoría de los asistentes de voz son exclusivamente mujeres, o femeninos por defecto, tanto en nombre como en el sonido de su voz.
Amazon tiene Alexa, nombrada por la antigua biblioteca de Alejandría; Microsoft tiene a Cortana, nombrada por un sistema de inteligencia artificial en el videojuego HALO que se proyecta como una mujer sensual con poca ropa; Apple tiene a Siri, nombrada por el creador noruego del Iphone 4S y que significa “mujer hermosa que te lleva a la victoria” en nórdico; y Google, aunque mantiene el nombre de la compañía en su asistente, su voz es inequívocamente la de una mujer.
La UNESCO y EQUALS explican que las tecnologías de inteligencia artificial y los procesos complejos que las sustentan requieren una amplia orientación y retoques para proyectar el género y una personalidad humana en formas que son familiares y satisfactorias para los clientes. Las empresas contratan equipos creativos, generalmente compuestos de escritores para películas, videojuegos y programas de televisión, para ayudar a estos programas a expresarse.
“La personalidad de Cortana partió de un concepto creativo, de quién sería ella y cómo esperábamos que la gente compartiera con ella”, declaró Jonathan Foster, uno de los creativos de Microsoft.
Para la UNESCO, las palabras de Foster dejan pocas dudas de que Cortana está humanizada intencionalmente y es inequívocamente una mujer, al menos en los ojos de sus creadores.
Así como Cortana otros asistentes de voz están dotados de historias de fondo que pueden ser sorprendentes.
Cuando un hombre hace comentarios abusivos o sexuales la respuesta de la mayoría de los asistentes de voz es coqueta o mediocre.
“Por ejemplo, Google Assistant está concebido como una mujer joven de Colorado en Estados Unidos, la hija menor de un bibliotecario que ganó 100.000 dólares en un juego televisivo. Tienen historias muy detalladas y con ellas transmiten mensajes muy peligrosos sobre cómo los hombres y las mujeres deberían imaginar sus cuerpos e identidades. Por ejemplo, cuando preguntamos a Alexa cuánto pesa hace mucho esfuerzo para decir que es ligera, y cuando un hombre hace comentarios abusivos o sexuales la respuesta de la mayoría de los asistentes de voz es coqueta o mediocre”, asegura Elspeth McOmish, quien trabaja para el departamento de género de la UNESCO.
Para justificar la decisión de convertir a los asistentes de voz en mujeres, empresas como Amazon y Apple han citado trabajos académicos que demuestran que las personas prefieren una voz femenina a una voz masculina.
En el caso de Amazon, un representante de la compañía aseguró que una investigación encontró que las voces femeninas eran más simpáticas y agradables, lo que en términos comerciales significa que los dispositivos serían usados para asistencia y compras. (Alexa ha sido exclusivamente femenina desde que se lanzó, en 2014).
Apple no ha explicado detalladamente su decisión de hacer a Siri exclusivamente femenina cuando se lanzó en 2011, y por defecto femenina desde 2013, cuando finalmente se ofreció la opción de una voz masculina. Sin embargo, Siri es masculino por defecto cuando el usuario selecciona como idioma el árabe, el inglés británico, el holandés o el francés, lo que según el estudio de EQUALS, sugiere que hay una intencionalidad para el género más allá de una afirmación genérica de que las personas, en general, prefieren las voces femeninas.
Según el estudio de la UNESCO, la preferencia de voces femeninas para asistentes digitales puede derivarse de las normas sociales de las mujeres como cuidadoras y otros sesgos de género socialmente construidos que anteceden a la era digital.
“Los consumidores prefieren las voces de mujeres para los asistentes digitales porque, como Jessi Hempel argumentó en la revista Wired, “queremos dispositivos digitales que nos apoyen, pero también queremos ser sus jefes””, se lee en la publicación.
Cuando se trata de proveer servicios como por ejemplo prender la luz, cambiar la música, o encender la calefacción, los asistentes de voz son casi todos presentados como femeninos.
Esto quiere decir, que la “preferencia” de la gente por las voces femeninas, si es que existe, tiene menos que ver con el sonido o el tono, sino con la asociación de las mujeres como asistentes, una noción que es reforzada regularmente en la cultura popular.
Que Alexa, Cortana, Google Home y Siri sean mujeres exclusivamente o femeninas por defecto en la mayoría de los mercados, genera que la asociación de que las mujeres asumen el papel de asistente digital, verificando el clima, cambiando la música, ordenando domicilios y diligentemente llegando a atención en respuesta a saludos breves como “Despierta, Alexa”.
La sumisión de los asistentes de voz digital se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como mujeres por las empresas de tecnología, dan respuestas mediocres o apologéticas al acoso sexual verbal.
Lo que surge es una ilusión de que Siri, una persona insensible, desconocida y no humana, es una mujer heterosexual, tolerante y ocasionalmente interesada en las propuestas sexuales masculinas y hasta el acoso,
Según lo documentado por la compañía, Siri respondió provocativamente a las solicitudes de favores sexuales de los hombres (“Oooh!”; “Ahora”; “Me sonrojaría si pudiera”; o “¡Tus palabras!”), pero menos provocativamente a las peticiones sexuales de las mujeres (“Eso no es bueno” o “No soy tan amable como asistente personal “).
“Lo que surge es una ilusión de que Siri, una persona insensible, desconocida y no humana, es una mujer heterosexual, tolerante y ocasionalmente interesada en las propuestas sexuales masculinas y hasta el acoso”, aseguran UNESCO y EQUALS. La única vez que se documentó a la asistente diciéndole al usuario humano que parara el acoso, fue cuando se le llamó “sexy” ocho veces seguidas.
Las respuestas evasivas “refuerzan los estereotipos de que las mujeres son insensibles y subordinadas y están en puestos de servicio (…) e intensifican la cultura de la violación presentando indirectamente la ambigüedad como una respuesta válida al acoso”. Ninguna de las asistentes alentó al usuario a educarse sobre el consentimiento sexual y su pasividad ante el abuso explícito, refuerza el sexismo, afirma el estudio.
Cabe destacar que, a la fecha, después de recibir múltiples quejas, Apple cambió la respuesta de Siri al abuso verbal de “Me sonrojaría si pudiera”, a “¿Perdón?”.
Se necesitan más niñas interesadas en el campo de la tecnología y la inteligencia artificial. Para Elspeth McOmish, la solución a estos desafíos está en involucrar a las mujeres en el diseño de inteligencia artificial, pero los desafíos son grandes.
“Efectivamente hay un problema desigualdad de género general en nuestras sociedades: en los contenidos de la educación y la pedagogía que hacen que muchas chicas no se sientan en confianza para hacer estudios de ciencias y matemáticas, y también en las familias y en muchos casos la desvalorización de las mujeres y de nuestras experiencias conduce a la banalización de la violencia de género”
La experta asegura que la presencia femenina puede influir mucho sobre la manera en que las tecnologías están creadas y qué tipo de pensamiento se diseña en las aplicaciones de inteligencia artificial.
“Es por eso por lo que queremos que más mujeres estudien y que después vayan a las empresas. La UNESCO con todos nuestros socios, llamamos a todas las ciudadanas y ciudadanos a hacer presión sobre las empresas para que promuevan la igualdad de género a través de sus productos, de sus publicidades y las condiciones de trabajo”, dice.