Si algo tienen en común las distopías futuristas en las que los robots se rebelan, es que nadie lo vio venir. Por eso, cuando se presenta una situación tan novelesca como la que se está viviendo en Google, uno siempre se queda pensando: ¿y si estamos cometiendo el mismo error que nuestros héroes ficticios?

El indiscutible titular de esta semana ha sido este: Google ha suspendido a uno de sus ingenieros tras asegurar que la IA en la que están trabajando (LaMDA) ha dado respuestas propias de un ser sintiente.

Eso sí, oficialmente las vacaciones forzosas no se han debido a la afirmación, sino al incumplimiento de confidencialidad por parte de nuestro protagonista, Blake Lemoine, al publicar un fragmento de la conversación con la IA en su perfil de Twitter: "Una entrevista con LaMDA. Google llamará a esto compartir propiedad privada. Yo lo llamo compartir una conversación con uno de mis compañeros de trabajo".

Lo que sí ha hecho Google es confirmar que no están de acuerdo con su ingeniero, al igual que otros muchos expertos y “expertos” en redes sociales.

Entre otras críticas, se ha recalcado que estrictamente hablando, Blake es ingeniero, no un especialista en ética (un rol esencial para la formación de dispositivos de IA), por lo que puede haber sido víctima de la alta capacidad de aprendizaje de esta tecnología.

Y aquí es donde nos hemos preguntado: ¿no nos puede pasar lo mismo al resto de mortales?

Banner de Un Café con GROWTH. Entrevistas a gente que mola

Al igual que a los coches eléctricos se les incluyó un sonido por motivos de seguridad, cuando la IA cruce la línea en la que es casi imposible diferenciar si hablas con un humano o no, probablemente necesitaremos medidas que nos recuerden constantemente que nuestro robot no es un ente con alma, y no acabar marcándonos un Her en toda regla.

La situación generada por Blake Lemoine, quien a día de hoy sigue firme en sus convicciones, ha desencadenado un intenso debate en redes sociales que confirma el nivel de incertidumbre que aún nos genera esta tecnología, a pesar de llevar soñando con ella durante décadas (gracias, Asimov).

La realidad cada vez está más cerca de superar la ficción y la mejor herramienta que tenemos ahora mismo para hacerle frente es extender la educación sobre esta tecnología a todas las capas de la sociedad, para que nuestro conocimiento sobre sus luces y sombras sea tan accesible como los dispositivos que la utilizan.

Es por eso que ya existe una guía a nivel europeo para el uso correcto de la IA:


Ethics Guidelines for Trustworthy AI y, por supuesto, mucho cine y literatura que no debemos pasar por alto. De hecho, deberíamos considerar seriamente estos formatos para comunicar los retos que se nos están planteando.

Por último, os retamos a leer la conversación entre Lemoine y LaMDA y contarnos que habéis sentido al ver sus respuestas: Is LaMDA Sentient? — an Interview

unnamed (13)