LA SOLEDAD DE UN ALGORITMO
El concepto mecánico de la naturaleza irrumpe en el mundo de las significaciones humanas en el marco de las filosofías naturales del siglo XVII. Grandes sabios de ese entonces, como Descartes, Hobbes, Boyle y Newton, pensaron que toda la realidad material podía reducirse a una explicación de tipo mecánica; más aún, sostenían que la propia realidad, tanto a nivel macro como micro, era un mecanismo. Así, la construcción de máquinas, fundamentalmente a partir del Renacimiento, fue vista no sólo como una estrategia para potenciar las siempre deficientes capacidades humanas, sino también como una manera de reproducir fracciones del universo; en tal sentido, las máquinas constituían muestras de los objetos naturales. Existía un continuo de lo que para nosotros es hoy una tajante división entre naturaleza y técnica. En este marco tuvo lugar el diseño de máquinas que emulaban al propio ser humano. Con el arribo de las primeras computadoras, el razonamiento deductivo y la capacidad de generar hipótesis para la resolución de determinados problemas, ya no constituirían caracteres exclusivos de las personas. En vistas de la capacidad de cómputo presente en muchos de los dispositivos que empleamos a diario, cobra sentido la pregunta acerca del alcance y los límites de la inteligencia humana. Pero también, a la luz de los últimos avances en el ámbito de la Inteligencia Artificial, cabe preguntarnos hasta qué punto nuestros comportamientos no poseen un nivel de mecanicidad -y con ello, de predecibilidad- mayor al que exhiben muchos de los algoritmos computacionales de nuestro tiempo.
Hace ya tres siglos
Los primeros autómatas que exhibían un alto grado de complejidad se empezaron a construir durante el siglo XVIII. Constituyen notables ejemplos el autómata de una joven que tocaba el dulcimer (o Tympanon), llamado “La Joueuse de Tympanon” de 1772, construido por Pierre Kintzing y David Roenggen para María Antonieta; “Floutiste” de A. Theroude de 1769-77, un flautista capaz de reproducir decenas de melodías; “Automate écrivant” del notable constructor de relojes Pierre Jaquet-Droz (1773), el autómata de una niña que podía escribir y dibujar con notable fluidez. Las actividades realizadas por estos autómatas estaban dotadas de un grado de precisión que aun hoy resultan sorprendentes. La sofisticación y complejidad creciente de los autómatas apuntalaban una tesis que al lector le puede resultar perturbadora: somos nosotros, lxs seres humanxs, los autómatas. El filósofo escocés David Hume, a pesar de haber desarticulado la metafísica mecanicista de sus antecesores con argumentos contundentes, en su consideración de la dimensión psicológica de lxs humanxs advirtió que la mayoría de nuestras acciones y razonamientos están regidos por el hábito antes que por un conocimiento de las causas que gobiernan los objetos de nuestro medio. Sobrevivimos y somos eficaces gracias a nuestra amiga la costumbre, una fuerza psicológica que opera secretamente bajo el ropaje de la inteligencia.
Las primeras computadoras
A mediados del siglo XX estaban sentados los cimientos teóricos para definir un comportamiento inteligente en términos mecánicos. Partiendo justamente de la observación de ciertas acciones humanas, Alan Turing define en 1936 que un procedimiento para alcanzar un resultado deseado es efectivo si se dispone de un número exacto de instrucciones; las cuales, si se llevan a cabo, producen el resultado buscado en un número finito de pasos. Turing postulaba así una noción precisa de algoritmo.[i] Sus investigaciones partieron de la pregunta acerca de las capacidades cognitivas requeridas para realizar un cómputo: ¿qué hace básicamente una persona cuando resuelve una operación? ¿Escribe ciertos símbolos? ¿Qué herramientas necesita para hacer esto? Luego, ¿mantiene su atención sobre esos símbolos? ¿Sobre cuántos de ellos a la vez? ¿Qué acción inferencial realiza al momento de escribir un nuevo símbolo y de qué depende tal acción? En este marco, Turing establece una comparación entre el agente que computa y una máquina; dice: “Podemos comparar a un hombre durante el proceso realizado para computar un número real con una máquina (…) la máquina está provista de una ‘cinta’ que se desplaza a lo largo de aquélla, y está dividida en secciones (que llamaremos ‘cuadrados’), cada uno de ellos capaz de alojar un símbolo…” (Turing 1936, p. 231).
Este pasaje, si se me permite la licencia, fue el puntapié que dio inicio a la era de la información. Nacía la primera computadora y, con ella, los primeros desafíos a la prepotencia humana. La inteligencia, restringida -vale aclarar- al razonamiento exclusivamente deductivo, se encarnaba en un sistema complejo pero bien definido. Poco más de una década más tarde, Turing publicaba “Computing machinery and intelligence”, un artículo en el que el autor propone el denominado juego de la imitación, un experimento mental que establece que una computadora puede ser considerada como un sistema inteligente en la medida en que se pueda constatar que su comportamiento es indistinguible del comportamiento humano. Eran los albores de la Inteligencia Artificial. Nacía la ciencia que iba a transformar las sociedades del siglo XXI.
Humanos vs. máquinas
Así como nuestras piernas, por más entrenadas que estén, no pueden competir contra un vehículo motorizado, nuestra capacidad de cómputo, salvo excepciones, tampoco puede competir contra una calculadora estándar. Ahora bien, un lenguaje de programación como C++, Python, Haskell o Perl, puede reducir instrucciones complejísimas a principios básicos de cómputo aritmético. No sorprende por ello que tempranamente se hayan programado juegos de ajedrez altamente competitivos. El desarrollo de este tipo de programas que desafiaban la inteligencia humana alcanzó en la década del noventa un resultado sorprendente cuando Deep Blue, la potente computadora creada por IBM, venció en una partida al mejor ajedrecista de ese tiempo, Garry Kasparov. Para ello fue necesaria una minería de datos exhaustiva, con aperturas, finales y registros de partidas completas, sumada al asesoramiento de expertos ajedrecistas sobre estrategias de ataque y defensa, y un modelo que pudiera integrar adecuadamente todo ese vasto conjunto de datos. Luego, la frialdad, precisión y velocidad de Deep Blue para explorar el espacio combinatorio de posibles movimientos haría el resto. El sistema experto que venció a Garry Kasparov puede ser visto, por qué no, como una extensión -potente- de la propia cognición humana. Una segunda etapa marcaría, como bien señala José I. Latorre en Ética para Máquina, el despegue definitivo de la máquina respecto de lxs seres humanxs en este pugilismo -¿intelectual?- en torno al juego de ajedrez. La analogía entre naturaleza y máquina se profundiza cuando a mediados del siglo XX se propone, tras un análisis del funcionamiento de nuestro cerebro, el primer modelo de neurona artificial,[ii] un modelo que varias décadas más tarde lograría superar sus dificultades iniciales en virtud de una idea fructífera e intuitiva: la de una red de neuronas artificiales. El conjunto interconectado de neuronas se organiza por capas a través de las cuales la información inicial se va refinando hasta obtener un valor de salida predeterminado. Existe un proceso de selección que permite descartar la información que resulte irrelevante al resultado buscado. Dicho proceso en cierta medida emula las sinapsis. En la actualidad las redes neuronales operan en muchas de las aplicaciones que utilizamos diariamente, por ejemplo, cuando enviamos un mensaje y las palabras que empezamos a escribir se autocompletan (texto predictivo), en diversos traductores, en funciones de reconocimiento de voz y facial, sólo por mencionar algunas de las funciones que ya son parte de nuestro cotidiano. Las redes neuronales se diseñan en base a un objetivo en vistas del cual son entrenadas. El tipo de entrenamiento dependerá del problema que se quiere resolver. Si buscamos que una red neuronal reconozca jaguares, ésta debe aprender a descartar animales cuyas orejas no sean puntiagudas, valorar dimensiones mínimas y máximas atendiendo a si se trata del tamaño de un ejemplar recién nacido o de un macho adulto, identificar un patrón que pueda dar cuenta de la distribución de las manchas propias esa especie de felinos, etc. Pero también, el entrenamiento debe atender a circunstancias contextuales básicas, pues el ejemplar a reconocer puede estar de frente, de perfil o recostado. Esos y muchísimos otros aspectos pueden resultar relevantes en el proceso de entrenamiento de una red neuronal. Volvamos al juego de ajedrez.
Jogo bonito
El desarrollo de sistemas expertos al servicio de juegos computacionales de ajedrez ha alcanzado resultados extraordinarios en algunos programas de código abierto. Un buen ejemplo es el caso de Stockfish, un software que venció con facilidad a los mejores jugadores del planeta. El reinado de Stockfish concluyó en el año 2017, cuando se enfrentó con el implacable AlphaZero, el sistema desarrollado por GoogleDeepMind. Este módulo, inicialmente ideado para jugar al Go, se basa en una red neuronal profunda sometida a un entrenamiento por refuerzo,[iii] una técnica de aprendizaje automático –machine learning– que vagamente remite al proceso de selección natural gracias al cual los organismos se adaptan a un determinado medio afrontando diferentes problemas de cuya resolución depende su subsistencia. AlphaZero, a diferencia de un sistema experto, no fue programado en base a los datos provistos por los grandes maestros; su entrenamiento se realizó compitiendo contra sí mismo y duró apenas una mañana… un dato que sin duda estremece. Como punto de partida, AlphaZero solamente recibió las instrucciones sobre las reglas del juego de ajedrez. Contaba también con instrucciones sobre cómo jugar al Go y al Shogi (o ‘ajedrez japonés’). De alguna manera AlphaZero supo integrar y combinar magistralmente lo más conveniente de cada juego y diseñar sus propias jugadas para vencer a su oponente. Las estrategias cognitivas -para continuar provocando con el paralelismo entre humanxs y máquinas- a la base de sus movimientos resultan imposibles de desentrañar. Se trata de una caja negra, una inteligencia peculiar que lo llevó a seguir caminos impensados, inexplorados, como esos movimientos completamente fuera de manual, excepcionales y bellos, de futbolistas de la talla de Maradona, Johan Cruyff, y por qué no, de Ricardo Bochini. AlphaZero, con la diez en la espalda, pasa sus días en completa soledad. Sin maestros de quienes aprender. Mas también, sin rivales para ejercitar
[i] Al mismo tiempo que Turing, pero de manera independiente y empleando un método diferente, Alonzo Church también precisaba la noción de procedimiento efectivo en “An Unsolvable Problem of Elementary Number Theory”.
[ii] El primer modelo de neurona artificial fue el denominado perceptrón, propuesto en 1957 por Frank Rosenblatt.