Del ajedrez al pong-cyborg: ¿por dónde vendrá la próxima ola de la inteligencia artificial?

Histórico match entre Garry Kasparov y Deep Blue
Histórico match entre Garry Kasparov y Deep Blue - Créditos: @Bernie Nunez

Cuatro noticias de las últimas semanas del campo de la inteligencia artificial (IA), algunas casi de ciencia ficción, llaman la atención:

1. La que más repercusión tuvo fue la del lanzamiento de la última versión de Dall-E, un motor de IA capaz de transformar cualquier texto descriptivo en una imagen con sorprendente facilidad. Juega con los nombres del pintor Salvador Dalí y de Wall-E, la película del robot de Disney; y lleva la firma del consorcio OpenAI, que hace más de un año creó el sistema de lenguaje natural GPT-3, capaz de crear textos creativos y sofisticados de manera artificial.

2. Hablando de GPT3, la segunda noticia viene de este terreno. En colegios secundarios y universidades de EE.UU. se volvió problemático el uso de versiones beta de este programa por parte de los alumnos para presentar ensayos. El problema es que no se trata de plagio (que se puede descubrir googleando algo), sino de textos completamente nuevos y originales, pero generados por una máquina. Los profesores tienen que convertirse en especialistas en “tests de Turing” para saber si una tarea fue hecha por una inteligencia humana o artificial.

3. Hace un mes, Deep Mind, la empresa de IA del conglomerado Alphabet (Google) que dirige el ex niño prodigio del ajedrez Demis Hassabis lanzó GATO, una red neuronal digital que puede jugar al Atari, controlar un robot, chatear e identificar imágenes. Todo con pocas “capas” que impresionaron por su nivel de generalización.

4. Una cuarta noticia que ya se ubica al filo de la realidad: cientos de miles de neuronas humanas vivas desplegadas en un recipiente en un laboratorio (que crecen y forman una especie de organoide con forma de cerebro) fueron entrenadas, mediante impulsos eléctricos, para jugar al Pong (el primer videojuego de la historia, creado hace 50 años, en el que hay que atajar una pelotita con una barra que se mueve), y aprendieron más rápido que un programa de IA. “Creemos que es justo llamarlos cerebros-cyborg”, le dijo Brett Kagan, la jefa de Cortical Labs, el centro que logró esta hazaña, al medio New Scientist.

Estos ejemplos son apenas un botón de muestra de algunos avances increíbles que están sucediendo en lo que hoy seguramente es la “tecnología de propósito general” (TPG) más explosiva. Un ritmo que llevó a Sam Altman, director ejecutivo de OpenAI, a afirmar en un reciente ensayo: “Esta revolución me recuerda cada día sobre la magnitud del cambio socioeconómico que se viene más rápido de lo que la gente cree y se imagina”.

Para Altman, en los próximos cinco años se van a volver moneda corriente por parte de la IA tareas como la lectura de documentos legales y consejos médicos; en los próximos 10 años reemplazarán a la mayoría de operarios en líneas de montaje; y en las décadas posteriores harán casi todo, incluyendo descubrimientos científicos que expandirán nuestro concepto sobre el ‘todo”.

El economista Erik Brynjolfsson también publicó semanas atrás un texto largo, titulado “La trampa de Turing”, donde coincide con Altman en que las consecuencias socio-políticas que se derivan de los cambios masivos que pueden darse en la relación de costos de trabajo y capital pueden ser enormes. Y, también, suceder antes de lo que se piensa.

En mayo también se cumplió un cuarto de siglo de un hecho icónico en la historia de la inteligencia artificial: el 11 de ese mes de 1997, el excampeón mundial de ajedrez Garry Kasparov se dio cuenta, antes de que pasara una hora desde el inicio de la partida, de que el juego contra el programa IBM Deep Blue estaba perdido. Fue el final de una revancha (el match anterior lo había ganado Kasparov) en la que un programa por primera vez derrotaba al mejor jugador del mundo. Hubo por entonces titulares catástrofes en los medios: “La última línea de defensa del cerebro humano”, tituló Newsweek. Otras publicaciones marcaron este punto como una bisagra que abría una era de superioridad de las máquinas sobre los humanos.

Eso no ocurrió. De hecho, el logro de Deep Blue, más que una bisagra y plataforma de lanzamiento, fue un callejón sin salida o un cenit para la “vieja escuela” de la IA, que se sostenía en millones de anotaciones en código que daban instrucciones para cada situación. Aunque para muchos el ajedrez pueda parecer un símbolo representativo del pensamiento humano, en realidad es un esquema bastante excepcional, que casi no se replica en la vida de todos los días: las reglas se conocen y no hay información oculta. Es un mundo ideal para la “fuerza bruta” computacional.

Si el match con Kasparov fue un asteroide que extinguió a los dinosaurios de la vieja escuela de la IA, los mamíferos que sobrevivieron fueron las redes neuronales y luego el aprendizaje automático y profundo: mecanismos capaces de ir aprendiendo. Estas dinámicas ya se vislumbraron en la década del 50, pero necesitaban para desplegarse una fuerza computacional que no existía ni siquiera en los 90. Fueron los avances de la industria de los videojuegos en la primera década de este milenio los que viabilizaron una explosión que hoy está en todos lados: desde el mecanismo de “auto-completar” del Gmail hasta el reconocimiento facial, la detección de fraudes bancarios o los casos comentados en los primeros párrafos de esta nota de GATO, GPT-3 o Dall-E.

¿Por dónde puede venir la próxima ola de la IA? La historia de Kasparov y Deep Blue muestra que el emergente exitoso (deep learning) puede llegar por un costado que 25 años atrás nadie pronosticaba.

Y un fascinante paper de este año de los expertos en complejidad y biología evolutiva españoles Ricard Solé y Luis Seoane plantea una pregunta poderosa: “¿Los diseños cognitivos naturales llenan el espacio de lo posible?” (en materia de inteligencia). El ensayo, titulado “La evolución del cerebro y las computadoras: los caminos no tomados”, sostiene que hasta ahora los avances de la IA siguen el camino del tipo de inteligencia humana resultante del proceso evolutivo del cerebro: hacen mejor cosas que ya hacemos.

Los algoritmos de redes neuronales son un buen ejemplo de esta “antropomorfización” de la IA. Este es un sesgo muy habitual en el campo de la inteligencia artificial: buena parte del foco del debate se concentra en la “singularidad”, el momento en el que las máquinas superen al cerebro humano en sus habilidades más complejas. Sin embargo, eso, dicen Solé y Seoane, equivale a sólo pensar el tema dentro de los límites de una avenida. Pero, ¿qué pasaría si se exploran “caminos no tomados” en la historia de la cognición humana y se los recorre con dinámicas digitales?

Allí las posibilidades pasan a ser infinitas. Lo charlamos en un café con el organoide de forma de cerebro en un recipiente que gana al juego Pong, a ver qué se nos ocurre.