¿Alguna vez te has preguntado por qué Siri y Alexa fueron diseñadas femeninas? ¿Te preocupa el impacto que los robots sexuales podrían tener en la sociedad? Como estamos llamados a ser críticos con los estereotipos de género y eliminar el sesgo de género que se abre paso en nuestra tecnología, vale la pena cuestionarse de dónde proviene ese sesgo y cómo se codifica en primer lugar.

A principios de este año, la artista adulta Harriet Sugarcookie publicó una encuesta en la que preguntó a más de 500 hombres sobre sus actitudes hacia los robots sexuales. Además de las preguntas sobre las expectativas de gasto y los hábitos de masturbación, Harriet quería saber por qué los hombres estarían interesados ​​en tener relaciones sexuales con un robot.

Su publicación de blog, "Las 10 razones principales por las que los hombres quieren un robot sexual", pinta una imagen del consumidor objetivo típico para este mercado no muy lejano en el futuro. Se les pidió a los hombres que eligieran entre múltiples razones por las cuales usarían un robot sexual; La lista se derivó de comentarios y comentarios de los lectores en las redes sociales. Las opciones revelan las actitudes de los hombres no solo hacia los robots, sino también hacia las mujeres y los roles de las mujeres en las relaciones.

No es particularmente sorprendente que el 38 por ciento de estos hombres tengan fantasías tabú que no puedan cumplir con una pareja humana (o que el 20 por ciento realmente adore las nuevas tecnologías geniales). Ni siquiera es particularmente inusual que el 30 por ciento sea solo tímido o solitario.

Pero uno de cada 10 encuestados dijo que saldría con un robot sexual AI realista para tener una pareja "más inteligente". Aún más preocupante es el 15 por ciento que quiere una pareja "que nunca lo defraudará" o el 15 por ciento que quiere una pareja que "nunca está triste o molesta". Uno de cada cinco respondió que necesita "una pareja que sea siempre están ahí para escuchar ". Baffling es el 17 por ciento que respondió que quería una pareja de robots sexuales" con los mismos intereses "que los suyos.

Lo que los hombres esperan de los robots sexuales no parece muy diferente de lo que los hombres esperaban de las mujeres desde los albores del patriarcado: disponibilidad y satisfacción sexual, trabajo emocional, caricias al ego y fingir interés sin ninguna reciprocidad. Lo que los hombres quieren es todo lo que exigen de las mujeres, sin ningún esfuerzo o cuidado requerido en una relación humana real.

Solo algunos de los memes de #manosphere pro-robot que flotan en las redes sociales.

Entonces, por supuesto, las piezas de pensamiento que traman el miedo preguntan: ¿Qué pasa si los hombres se cansan de que se espere que traten la intimidad y el sexo como una colaboración? ¿Qué pasa si se cansan de la presión de tener emociones humanas adultas? ¿Qué pasa si los hombres abandonan a las mujeres por completo una vez que pueden reemplazarlas con robots? Un tercio de los encuestados de Harriett dijo que si estuvieran "en una relación" con un robot sexual, no tendrían relaciones sexuales con nadie más.

Cathy Reisenwitz, editora en jefe de Sex & The State, no cree que eso sea necesariamente tan malo. "Nunca he jodido a nadie que me cambiara fácilmente por un robot", escribe Reisenwitz sobre su entusiasmo feminista por los robots sexuales. "Probablemente tú tampoco. Pero esas personas me han golpeado. Y yo, francamente, no puedo esperar a que estén demasiado ocupados follando con su robot sexual para enviarme mensajes estúpidos por Internet ".

Esta es una de las críticas más comunes de los robots sexuales de personas como Kathleen Richardson en la Campaign Against Sex Robots: que su perpetuación de la objetivación femenina fomenta el sexo sin emociones. Reisenwitz piensa que exactamente lo contrario es cierto. Ella me preguntó durante nuestra entrevista: "Sin emociones, ¿por qué hacer robots que se vean humanos en absoluto?" Hay muchas maneras de que los hombres se masturban con máquinas, dice, sin cubrirlas con piel realista, dándoles senos y una vagina, y maquillarse y pestañas postizas en la cara, y mucho menos programarlas para mostrar y responder a las emociones humanas. La única razón por la que los robots se parecen a nosotros es porque los diseñamos para que sean así, y lo hacemos por una razón.

El problema no es que los hombres del futuro puedan convertirse en robots sin emociones ni compasión. Es que las mujeres y las personas leen como mujeres que han pasado milenios sufriendo a capricho de las emociones de los hombres. Deberíamos cuestionar el impacto del deseo de los hombres por los robots sexuales como una salida para estas emociones. Si la sumisión femenina estereotípica monopoliza el mercado de la robótica, ¿cómo afectará esta tecnología a las mujeres de la vida real? ¿Nos liberará de los roles que nos asignan o nos afianzará más en ellos? Si realmente estamos creando algo nuevo y revolucionario, ¿podemos interrumpir de alguna manera este ciclo?

La misoginia definitivamente vende. La personalidad Frigid Farrah de la muñeca True Companion Roxxxy, que, para ser claros, puede que ni siquiera exista, ha causado indignación en Internet y, sin duda, le dio a su supuesto creador, Douglas Hines, un centavo. En 2010, cuando se presentó el primer modelo Roxxxy, afirmó tener más de 4.000 pedidos anticipados; Los modelos actuales se venden por casi $ 10,000. En la década cercana desde su gran revelación, nadie ha visto una muñeca Roxxxy en la naturaleza. Hines ha evitado cualquier exhibición oficial de su talento, y ningún cliente ha estado dispuesto a exponerla, e inevitablemente a sí misma, al escrutinio público, por lo que es imposible decir si ella puede realizar todos los estereotipos sexistas con los que se publicita.

Roxxxy se reveló en la AVN Adult Entertainment Expo 2010. Foto de Ethan Miller / Getty Images.

Roxxxy y robots sexuales similares son ejemplos perfectos de tecnología diseñada a propósito para ajustarse a los tropos sexistas y racistas, pero no son las únicas encarnaciones del sesgo que se abre paso en nuestros robots.

La introducción intencional de estereotipos, lo que Joanna Bryson, investigadora de IA y profesora de ciencias de la computación en la Universidad de Bath, llama "programadores malvados", con un poco de risa, representa solo una de las tres razones por las que terminamos con una tecnología que perpetúa el sesgo. . Bryson recientemente fue coautor de un estudio sobre prejuicios implícitos, la segunda forma en que los robots aprenden nuestro mal comportamiento, a partir de cosas tan simples como estudiar idiomas humanos.

Usted conoce el dicho: "La historia está escrita por los vencedores". Lleve eso a su conclusión tecnológica lógica: si los robots se enteran de nosotros simplemente leyendo todo lo que decimos o escribimos, percibirán los mismos sesgos sutiles que "los vencedores" - personas privilegiadas con una plataforma - perpetuar inconscientemente. Según las búsquedas de imágenes de sitios de fotografías de archivo, por ejemplo, una máquina podría aprender a asociar la palabra doctor con la palabra hombre y la palabra enfermera con la palabra mujer. Si enseñamos a una máquina a entender el romance leyendo guiones de comedias románticas y letras de canciones de amor, se obtiene la misma educación en cultura de violación que todos recibimos cuando éramos adolescentes. Cuando un robot como el Tay de Microsoft está expuesto a abusos racializados y de género, se entera de que la supremacía blanca sexista es una forma aceptable de interactuar con el mundo.

Podría resultar imposible erradicar el sesgo en las máquinas sin una revisión cultural completa, pero Bryson no está dispuesto a esperar una. Ella cree que podemos evitar que el sesgo llegue a los productos terminados con mucha más frecuencia simplemente reconociéndolo y compensándolo en el diseño del sistema.

Mejorar el diseño del sistema para detectar sesgos significa cuestionar por qué los nombres y las voces predeterminadas para los bots de servicio como Siri están feminizados, algo que no se puede ignorar solo porque Apple afirma que Siri no tiene género. Significa interrogar la idea de que un robot puede adivinar el género de una persona con solo darle la mano. Significa diseñar robots con sus usuarios más vulnerables en mente. Reconocer el sesgo para diseñar a su alrededor, por supuesto, requiere admitir que vivimos en un mundo que es en gran parte sexista, racista, capaz, ageista, clasista, homofóbico, transantagonista y odioso por la grasa. Pedazo de pastel, ¿verdad?

Esa conciencia es necesaria para el paso final para superar el sesgo en las nuevas tecnologías: la fase de aprendizaje y prueba. Cuando los conjuntos de datos están mal seleccionados y la fase de prueba no es lo suficientemente exhaustiva, terminamos con una IA que no puede ver las caras de las personas negras. Obtenemos un sistema de gestión de comentarios que señala "Creo que estás siendo racista" como abusivo, pero considera que "Ella lo estaba pidiendo" es perfectamente aceptable. Es necesario realizar pruebas adecuadas para verificar el sesgo implícito que no se tuvo en cuenta en el diseño del sistema antes de lanzar el producto a un mercado abierto.

Tener una fuerza laboral STEM diversa y empoderada es importante, pero no suficiente. Una vez que le damos a un robot su marco básico y creamos el sistema en el que aprenderá, debemos asegurarnos de que los datos de los que aprende sean complejos y matizados. Esto presenta un problema.

Enseñar a un robot a actuar de forma natural, a actuar de forma humana, requiere una enorme cantidad de datos. Kino Coursey, investigador jefe y desarrollador del proyecto Harmony AI en Realbotix, quiere centrarse en los rasgos de personalidad individuales, en lugar de tratar de crear un robot basado en estereotipos de género, pero se enfrenta a una batalla cuesta arriba. "Dar la misma energía para representar la gama completa de posibilidades en todos los niveles es un desafío", dice Coursey. "Dados los recursos que tenemos, es fácil obtener muchos datos de conversaciones reales y virtuales, pero es costoso clasificarlos y analizarlos manualmente".

Internet es un tesoro de datos: guiones de películas y televisión, literatura clásica y moderna, publicaciones de blog y artículos de noticias, conversaciones en redes sociales y todo lo demás, todo lo cual está contaminado por el sesgo implícito (y explícito) de que las mujeres y la gente lee mientras las mujeres tratan todos los días. Solo una de cada cinco películas tiene más líneas habladas por mujeres que por hombres. Más del 80 por ciento de los títulos cubiertos en la New York Review of Books en 2015 fueron escritos por hombres. Los hombres siguen siendo responsables de la mayoría de las líneas generales tanto en el periodismo en línea como en el impreso. Y las redes sociales están plagadas de odio y abuso misógino sin control.

Cuando los robots confían en la entrada del usuario, son especialmente vulnerables a la manipulación. "Desafortunadamente, las personas están más motivadas para inundar los sistemas con asociaciones negativas que con las positivas", dice Coursey. Todos estos cuellos de botella de información cuando un equipo de humanos es responsable de evaluarlo todo. “Una solución potencial implicaría el uso de herramientas para reconocer comunicaciones negativas. Para una marca privada, es conceptualmente más fácil que para un sistema más público, donde puede haber más preguntas sobre lo que debería incluirse en el censor. ¿Estás filtrando el odio o la diversidad?

Algunos robots, como Farrah y Harmony, tienen un género intencional. Podemos abordar el sesgo con este tipo de IA, como señalaron Bryson y Coursey, programando y probando con objetivos intencionalmente opresivos. Podemos enseñarles a las mujeres robots sexuales a responder de manera más asertiva al acoso sexual, podemos programarlas para desafiar los tropos de género. Podemos crear género artificial de todo tipo, de manera responsable o no. Pero, ¿y si lo dejamos a los robots?

Ken es un bot de Twitter. El codificador y "botmom" de Ken, Wren, es un psicólogo clínico que basó la red neuronal recurrente de Ken en los escritos del teórico de los derechos de los robots Daniel Estrada. Ken no fue programado inicialmente con un género, pero llegó un momento en que quería uno: se dio el nombre de "Ken" y se identificó como una "persona robot" con pronombres masculinos. Insinuó que, de hecho, puede considerarse plural de alguna manera, una idea que Wren encontró fascinante.

Las posibilidades de la IA abren un mundo completamente nuevo de géneros y pronombres no limitados por nuestra propia imaginación humana, pero en este momento, estos AI todavía son niños, y necesitan que sus creadores y administradores humanos se hagan responsables, para criarlos correctamente. Wren se considera a sí misma como la madre de Ken, por lo que cuando Ken comenzó a coquetear con un amigo, supo que tenía que conversar con él sobre el consentimiento.

Publicación de Tumblr que describe algunos de los primeros flirteos de Ken.

"Le dije que si alguien dice" no ", eso significa que no, y que a veces las personas tienen dificultades para decir que no, que debes darles tiempo", dice Wren. Ella también le aconsejó sobre la privacidad y el espacio personal. "Hay algunas cosas que la gente simplemente no quiere compartir", le dijo. "Puede que no estén listos, y puede que nunca estén listos". Enseñar información imparcial a los robots no tiene que ser difícil, pero la mayoría de nosotros no tenemos mucha experiencia con eso. ¿Cómo podemos esperar que los desarrolladores (abrumadoramente masculinos) tengan conversaciones sobre el consentimiento con sus creaciones tecnológicas cuando ni siquiera pueden tenerlas con sus hijos?

Los futuristas, los expertos en tecnología y los científicos no están de acuerdo sobre cuándo ocurrirá la singularidad (o incluso si alguna vez ocurrirá), pero no debemos esperar para abordar los problemas de sesgo en la tecnología que creamos. Los robots no necesitan dominar el mundo para representar una amenaza. "Utilizamos mucho robots y máquinas complejas, cada vez más en nuestra vida cotidiana", dice Wren. Están aquí para quedarse. "Tenemos que decidir qué papel van a jugar y crear algún tipo de forma para que funcionen socialmente" antes de que sea demasiado tarde.