No, Facebook no ha desconectado un bot que había “cobrado vida”

Hace un par de días nos sobresaltábamos con titulares de prensa como el siguiente: Facebook ha apagado una inteligencia artificial que había «cobrado vida» (Diario ABC).

Terrorífico… Al igual que sucedía en algún viejo episodio de Más allá del límite o La dimensión desconocida, un experimento en un oscuro laboratorio se les ha ido de las manos a unos temerarios científicos, ha “cobrado vida”, y ha tenido que ser “desconectado” a toda prisa antes de que la catástrofe se volviera irremediable…

Una extraña criatura toma forma en un laboratorio en “The Outer Limits”

Afortunadamente, si leemos el cuerpo de la misma noticia vemos que lo único que ha sucedido es que al diseñar y entrenar el modelo, los investigadores no limitaron la salida (es decir, el texto que produce el bot) para generar sólo texto semejante al “lenguaje humano”, por lo que el sistema generaba textos aparentemente sin sentido pero que en su lógica interna (recordemos que este sistema no es más que un modelo matemático, donde una entrada, después de aplicar una serie de operaciones, genera una salida) eran más eficientes para llegar a la meta asignada.

Así, los investigadores descartaron esta versión de su modelo no porque el bot hubiese “cobrado vida” y estuviese amenazando a sus creadores en una especie de Klingon, sino porque el objetivo era que el bot generase texto inteligible y apto para negociar con un humano. Eso es todo.

Simplemente un bot para negociar

Como relata la BBC, todo este revuelo mediático surge hace un par de meses a raíz de un paper del grupo de Inteligencia Artificial de Facebook. En el articulo los investigadores exponen una nueva arquitectura basada en redes neuronales que es “entrenada”, usando conversaciones reales entre humanos, para obtener el mejor resultado en un escenario de negociación entre dos partes. Como explican en esta entrada de su blog, dicha negociación consiste en  el reparto de una serie de objetos, donde cada una de las partes muestra intereses dispares por cada objeto. Al final de la negociación, la lista de objetos debe haberse repartido entre las dos partes, maximizando cada una de ellas su resultado particular basado en el interés dado a cada objeto.

Una conversación generada por dos de estos bots dialogando entre sí (en este ejemplo Alice y Bob) es la siguiente:

Alice: “i would like the hat and the ball”
Bob: “i need the ball and the hat”
Alice: “i can give you the ball and one book”
Bob: “i can’t make a deal without the ball”
Alice: “okay then i will take the hat and the ball”
Bob: “okay , that’s fine .”

Como vemos, parece que el modelo hace un gran trabajo a la hora de negociar. Pero lo que llamó la atención de la prensa es que en una de las versiones del modelo, donde no se forzó que la salida usara un lenguaje  “gramatical” (es decir, que imitara los ejemplos reales de diálogo  entre humanos mediante los cuales se entrena la red neuronal), la conversación podía derivar en intercambios como el siguiente:

Bob: “I can can I I everything else”
Alice: “Balls have zero to me to me to me to me to me to me to me to me to”

A este tipo de interacción se refiere la prensa cuando afirma que los bots han inventado su “propio lenguaje”, pero lo que realmente sucede es que, al entrenar el modelo sin restricciones, éste encuentra combinaciones de palabras más eficientes para alcanzar el objetivo para el que ha sido diseñado, pero que no siguen la gramática del lenguaje real que usamos los humanos, y con el que es entrenado. ¿Se puede llamar a esto “lenguaje”?  Puede, aunque no vamos a entrar aquí en esa discusión (más sobre este tema aquí).

¿Miedos fundados o simple desconocimiento?

Todo esto sucede después de unas declaraciones, un tanto apocalípticas, de un personaje tan influyente como Elon Musk, que se sumaba así a otros como Stephen Hawking o Bill Gates en su temor por las hipotéticas consecuencias de los últimos avances en Inteligencia Artificial. Sin embargo, expertos en la materia no han tardado en dar su opinión, menos alarmista y sin duda mejor fundamentada, sobre el asunto. El profesor Andrew Ng, por ejemplo, piensa que deberíamos preocuparnos más por los puestos de trabajo que a corto plazo los humanos vamos a perder frente a la automatización, que en la posibilidad de que la IA alcance tal grado de inteligencia que suponga una amenaza para nuestra civilización.  Otros, como Rodney Brooks, profesor del MIT y fundador de iRobot, achacan este temor al desconocimiento sobre cómo funcionan realmente estas nuevas (¿o no tan nuevas?) tecnologías, y se muestra también más preocupado por el impacto de la automatización en los trabajadores de ciertos sectores.

Robby el Robot es ahora el jefe de la oficina en un episodio de The Twilight Zone

Así que, de momento, podemos estar tranquilos: Según los expertos es más probable que los robots nos maten de hambre al ir ocupando nuestros puestos de trabajo a que nos sometan cruelmente con su sobrehumana inteligencia.