Contaba el genial Bertrand Russell la parábola del pavo, aquella ave feliz que cada mañana se encontraba, de la mano de su amabilísima ama, un suculento cuenco de semillas y gusanos. Todos los días, diligentemente, se deslizaban aquellos manjares hasta su corral, haciendo creer al pobre animal que cada nuevo amanecer garantizaba su vida placentera. Hasta que llegaba el día de Navidad cuando, en lugar de aprovisionarle, su amabilísima ama lo apresaba del cuello, le retorcía el pescuezo, y desplumado lo metía al horno.
Russell fue siempre conocido por emplear sencillas e iluminadoras metáforas para explicar argumentos en complejas y sesudas discusiones, en particular sobre filosofía de la ciencia. Así empleaba esta parábola para abordar el problema o la falacia de la inducción que ya Hume había identificado siglos atrás1: el supuesto de que lo que ha pasado en el pasado continuará ocurriendo en el futuro. Bien saben los que juegan a la ruleta de la bolsa que las rentabilidades pasadas nunca garantizan las futuras.
La IA actual, en su esencia, no escapa del todo de este paradigma inductivo. Las redes neuronales y el aprendizaje profundo que han despuntado en la última década, con su enfoque bottom-up, aprenden, se recodifican a sí mismas y deducen patrones a partir de grandes cantidades de datos. Al igual que el pavo, las IA generalizan basándose en la información que han recogido, lanzando estimaciones altamente probables con un cierto margen de maniobra que les permite aparentar creatividad, modular su temperatura.
Sin embargo, si un algoritmo solo ha conocido días de suculentos cuencos de semillas y gusanos, ¿podría anticipar el día de Navidad? La propagación de nuestros sesgos en los datos con los que alimentamos los modelos abre un interesantísimo debate: ¿deberíamos limitarnos a usar estereotipos que ya existen en los datos, construir en su lugar una representación ponderada de lo que hay en la realidad o directamente modificar el input con lo que creemos que debería haber? Forzando la diversidad, por ejemplo, acabamos sobrerrepresentando lo minoritario y generando soldados nazis chinos o vikingos negros. Bien lo contaba aquí
.Dicho esto, la IA actual ha mostrado una capacidad enorme para adaptarse y aprender de manera probabilística, incorporando nuevas piezas de información y ajustando sus modelos del mundo con una capacidad predictiva sorprendente. Existen así modelos donde la IA actúa no solo como un simple inductor, sino como un elaborador de inferencias bayesianas, un marco donde cada nueva pieza de información ajusta la probabilidad de futuros eventos y predicciones.
Estos mecanismos han permitido a sistemas como ChatGPT triunfar en el complejo terreno humano de la comunicación. ChatGPT funciona eliminando lo implausible, regresando y convergiendo a la media de lo esperable. No obstante, a pesar de estos avances, la IA todavía tropieza con los bordes irregulares de la realidad, esos eventos atípicos o sin precedentes que se apartan drásticamente de la norma. Aquí es donde la humanidad, con toda su impredecibilidad, lleva la delantera, retiene su creatividad. Al menos aún.
El incidente del equinoccio de otoño
Hacía frío aquella madrugada de septiembre de 1983. Un oficial de la Unión Soviética estaba de guardia en un búnker, cerca de Moscú, supervisando el centro de mando de los satélites de alerta temprana que los rusos habían montado para anticiparse a cualquier movimiento de la OTAN. De pronto, un radar nuclear informó del lanzamiento de un misil balístico intercontinental lanzado desde una base en Estados Unidos. El protocolo militar era claro: trasmitir inmediatamente la advertencia a la cadena de mando que habría ordenado un contraataque nuclear inmediato contra los Estados Unidos, dentro de la doctrina de la destrucción mutua asegurada. Sin embargo, Stanislav Petrov sospechó que se trataba de una falsa alarma, intuyendo que una guerra nuclear no se desencadenaría con un solo misil. Decidió esperar a que se corroborase la evidencia, y de pronto los sistemas indicaron que otros cuatro misiles habían sido lanzados desde otras bases. A pesar de ello, mantuvo el pulso ante un evento singular al que nadie se había enfrentado antes. El impacto nunca llegó.
Había evitado una guerra nuclear desobedeciendo a uno de los mejores sistemas tecnológicos de su tiempo. La investigación posterior confirmó que el sistema había emitido un falso positivo por una rara alineación del sol sobre las nubes de gran altitud y las órbitas de los satélites que malinterpretaron su radiación como la de misiles en aproximación. A pesar de reconocerse su prudencia, se le afeó el desacato al protocolo de informes y acabó degradado, siendo sólo reconocido por diversas instituciones pocos años antes de su muerte. Petrov restó siempre importancia a su reacción, simplemente hizo su trabajo aplicando simple sentido común: “La gente no empieza una guerra nuclear con solo cinco misiles”.
Su decisión, una desviación del procedimiento estándar y una negación de la recomendación automatizada, evitó una catástrofe nuclear. La inteligencia humana daba, en este caso como en otros, un ejemplo de cómo su poder no reside tanto en su capacidad para analizar patrones como en reconocer cuándo romperlos. La gestión de este caso atípico que conducía literalmente al fin del mundo tal como lo conocemos sirve de referencia al desarrollo de la tecnología, a la que aún falta mucho para alcanzar el conocimiento intuitivo, de sentido común y de razonamiento abductivo, tal y como lo describiera Peirce, frente a lo desconocido que caracteriza a los humanos.
De hecho, algunas de las teorías actuales acerca de la consciencia, que tanto se le resiste a la IA y que es posible que nunca alcance, tienen que ver precisamente con la importancia de gestionar los casos atípicos: si nuestra capacidad de predicción fuera completa, entonces ni siquiera tendríamos que molestarnos en ser conscientes. Sin embargo, las estructura neuronal que parece soportar la consciencia se activa siempre un poco a posteriori, con un pequeño decalaje, cuando parece necesitarse para maximizar la atención y procesar señales nuevas o biológicamente importantes. Así, la consciencia podría ser, en efecto, un rasgo adaptativo crucial y no un efecto colateral.
Mientras la IA sigue avanzando, desafiando nuestra imaginación, aún se encuentra en su infancia en cuanto a comprensión y adaptación al mundo en toda su compleja, caótica, y a menudo impredecible naturaleza. Este es, quizás, uno de sus horizontes más retadores: la frontera donde los patrones no existen y las reglas aún no se han escrito. La IA puede haber dominado el arte de prever el amanecer, pero aún está aprendiendo a anticipar la Navidad.
Última coda en tiempos de paz
Nuestra vida transcurre por raíles fuertemente enraizados que suelen coquetear con la falacia inductivista. El aprendizaje en nuestras etapas tempranas de formación alimenta el aparato neuronal con el que nacemos preparados para desarrollar este sentido común. La rutina soporta una costumbre, la mielinización refuerza las conexiones neuronales útiles. Pero suele ocurrir que, de vez en cuando, un hito quiebra su decurso. Un día nos sorprenden con una llamada inesperada, un despido improcedente, una insospechada enfermedad, una muerte prematura. Un día se nos viene un imprevisible accidente en esa curva tan transitada que siempre creímos controlar. Un día brota una pandemia, explota un volcán, estalla una nueva guerra en Europa.
Colectivamente también hemos vivido pacíficamente en las últimas décadas en cierto régimen de prosperidad. Las democracias se asentaron en el mundo, cayó el muro de Berlín y hay quienes incluso pronosticaron el fin de la historia, el triunfo de las democracias liberales y del capitalismo tecnocientífico que nos traería paz y prosperidad. Pero un día, de pronto, los agoreros o los futurólogos más optimistas reiteradamente refutados por la historia se pueden ver súbitamente avalados por la realidad. Un singular descubrimiento puede hacernos mucho más longevos, una IA podría emerger y cobrar consciencia, una tercera guerra mundial podría estallar, un indicio de vida fuera de nuestro planeta azul podría ponerlo todo patas arriba. Adaptarnos a lo imprevisible es, probablemente, una de las cosas que nos hace humanos. No dejemos de entrenar esa capacidad de la antifragilidad. Como el que hace maniobras en tiempos de paz.
Hume citaba el ejemplo del cisne negro, una imposibilidad en Europa en la que sólo se conocían cisnes blancos, hasta que exploradores holandeses liderados por Willem Hesselsz de Vlamingh vieron unos cisnes negros en Australia. Era 1697 y el suceso dio nombre al río Swan, y en general inspiró con su ejemplo la reflexión sobre el problema de la inducción en autores como Popper, o sobre sucesos sorpresivos que sólo después racionalizamos como previsibles en la conocida teoría del cisne negro de Taleb.
Muy interesante mezcla de pasado, presente y futuro. Confío en la antifragilidad y la capacidad de adaptarnos a lo imprevisto. Supongo que es esa capacidad la que nos hace "inteligentes", saber adaptarnos a las circunstancias.
El artículo da en el clavo: ¿seremos siempre capaces de hacer caso a las recomendaciones de la máquina? Ya hubo experimentos con roboadvisors cuyos consejos contraintuitivos no eran seguidos por los humanos. Y es que la lógica que ven las entidades sintéticas no tiene por qué coincidir con las mortales.