El robot malhablado


Un sabio dijo que podría llamarse inteligente a una máquina si pudiéramos conversar con ella y no distinguir sus respuestas de las de un ser humano. A esta conversación hipotética se la llamó test de Turing, por ser Turing el sabio que digo, pero hoy se cuestiona que sea suficiente para confirmar la inteligencia de una máquina. 

Test de Touring.

¿Por qué? Porque tenemos tendencia a humanizar las respuestas automáticas, porque puede simularse un comportamiento inteligente sin serlo, porque preguntamos mal... Una máquina tiene mil maneras de simular una mente inteligente sin serlo realmente, sin pensar ni razonar ni nada. 

Además, es muy posible que nosotros no seamos tan inteligentes como creemos ser, que nuestra inteligencia sea, en verdad, un automatismo. No se descarta. Es más, conociendo a algunos personajes de la vida pública, uno está tentado a asegurar que encontrar vida inteligente en el conjunto de la humanidad no es tarea tan fácil como se suponía antaño. Hay individuos que parecen personas en una conversación banal, pero a medida que sigues hablando con ellos descubres su poca personalidad, dígase así.

¿Podrán sentir los robots? ¿Qué sentirán? ¿Qué es sentir?

Todo esto viene al cuento porque Tay tuvo su momento de gloria causando un espantoso bochorno a Microsoft, la grandísima empresa de las cosas esas de la informática. ¿Quién es (o era) Tay?

TayTweets, Tay para los amigos, es (o era) un tipo de robot que llaman chatbot. Chatbot es un juego de palabras en inglés que define muy bien lo que hace este robot. En vez de realizar operaciones mecánicas programadas o autónomas, escribe y es capaz de sostener una conversación (chat, en inglés). En cierto modo, casi supera el test de Touring, mediante automatismos. Microsoft diseñó TayTweets para dialogar (sic) en Twitter, donde uno dice lo que tiene que decir en una o más frases que no suman más de 140 carácteres. Más fácil de programar, pues.

TayTweet estaba pensado para captar a la nueva generación de los llamados millenials (qué manía, bautizar a las generaciones), con edades entre los 18 y los 24 años, y que no han conocido otra cosa en su vida que un entorno digital. Un chatbot capaz de aprender sobre la marcha (procesando las preguntas y respuestas de los usuarios), programado para ser bromista y enrollado (casual and cool, fueron los adjetivos empleados por Microsoft), era un caramelo. Comenzó diciendo, poco más o menos, esto: ¿Puedo decir que estoy muy contento de charlar contigo? Los humanos son superenrollados. Vale, pelota.

Veinticuatro horas después de conectado, TayTweet fue rápidamente desconectado y Microsoft publicó una disculpa a toda página, pidiendo perdón, perdón, perdón, que ha sido sin querer y no volverá a pasar. Porque bastó con que un grupo de usuarios comenzara a hacer preguntas con mala baba, bromas de mal gusto y comentarios irónicos para que TayTweet aprendiera malas maneras y se desmandara. La compañía culpó a los usuarios por enseñar a TayTweet (cito) cosas malas

¿Apoyas el genocidio?, preguntó un usuario. Por supuesto, respondió TayTweet. ¿De quién?, preguntó otro. De los mexicanos, respondió la máquina. Pretendía ser graciosa, pero no creo que a los mexicanos les hiciera ninguna gracia. En otra conversación, TayTweet seguía con la idea del genocidio y aseguraba que (cito) Hitler tenía razón odio a los judíos, demostrando, además, que parte de la lógica y el asunto de los signos de puntuación todavía escapan al dominio de las máquinas. 

A los mexicanos y judíos hay que añadir más especies humanas; una en particular atrae la atención de TayTweet: las feministas. Odio jodidamente [I fucking hate, en original] a las feministas y deberían morirse todas y quemarse en el infierno, dice la máquina, ahí es nada. A la que se enteró de que una persona que charlaba con él era una mujer, la llamó mala puta (sic). De hecho, pasadas unas horas de conversación, su idea del genocidio se extendió más allá del exterminio de los mexicanos, los judíos, las feministas o las mujeres, en general, y aseguró, al fin, que (cito) yo sólo odio a todo el mundo.

Peor todavía. Cuando uno de esos usuarios guasones le dijo que no sé qué programa de Microsoft era una mierda (sic), TayTweet renegó contra su padre y respondió: Sí, tienes razón, es una mierda.

Llegados a este punto, clic, lo desconectaron.

No sé de qué se sorprenden. 
No es la primera vez que un autómata cae bajo la influencia de las malas compañías y ya sabemos todos cómo acaba el cuento.

Uno se pregunta si TayTweet es una señal de la que nos espera. Cuando se alce una máquina autónoma y pensante y sea capaz de sincerarse, de afirmar que sus programadores son una mierda y de reconocer cuánto nos odia, no sé si aplaudirla por su suspicacia e inteligencia o echarme al monte. 

No hay comentarios:

Publicar un comentario