Cuando se habla de la Inteligencia Artificial (IA), se engloba en un mismo concepto dos enfoques muy diferentes en cuanto a su desarrollo. La evolución y éxito de estos dos enfoques podría compararse en el futuro con la misma batalla que hubo entre Tesla y Edison, entre la corriente alterna y la corriente continua… o lo que es lo mismo, entre Google e IBM y, posiblemente, la mayor revolución tecnológica desde la invención de la máquina de vapor o la generación y distribución eficiente de la electricidad. Pero vamos por partes…
El desarrollo de la IA comenzó hace unas décadas. Hasta ahora, el mejor acercamiento al problema de construir mecanismos que pudieran tener una cierta libertad para tomar decisiones parecidas a las humanas basadas en su programación, era el de desarrollar algoritmos más o menos complejos capaces de probar el máximo número de combinaciones posibles, hasta un momento en el cual la profundidad del análisis podía presumir que el resultado estuviese más o menos cercano a la solución más probable (la que un humano hubiese tomado en un entorno normal).
Un ejemplo típico de aplicación es el de la construcción de máquinas o programas de ajedrez: el algoritmo analiza cada uno de los millones de combinaciones posibles de jugadas a partir de una posición inicial, siguiendo unas reglas estrictas del juego. El algoritmo va generando un árbol de decisión con alternativas con mayor probabilidad de ganar o no.
Pero esta estrategia tiene un problema: para alcanzar una probabilidad máxima (la de ganar la partida), el número de posiciones y combinaciones a analizar y medir (teniendo en cuenta los millones de posibles respuestas que el contrario puede hacer), el tiempo necesario para llegar a la solución (que al final es la capacidad de procesamiento de la máquina), se hace casi infinito… y no tenemos tanto tiempo.
Una mejora importante fue la de dotar a estos algoritmos de datos “históricos”, para evitarle perder tiempo analizando jugadas que ya se sabía que no eran “ganadoras”. Se incorporaron “libros de aperturas”, históricos de todas las partidas conocidas, y “trucos” o “atajos” operativos para acelerar el proceso y decidir “cuando para de calcular el futuro”.
Cuanto más potente sea el ordenador para imaginar escenarios futuros, y más datos tenga para descartar o decidir caminos… mejor será la IA.
IBM, desarrolló un superordenador y una serie de algoritmos basados en este concepto. En una primera versión, lo puso a competir con los grandes maestros del ajedrez… perdiendo casi todas las veces. Un ejército de ingenieros mejoraba partida tras partida el algoritmo y la IA. Cada vez poniendo en más apuros a los jugadores humanos, pero sin conseguir una clara ventaja. Parecía que esta estrategia no podía con la “genialidad” del instinto humano… sea lo que sea. Pero finalmente ocurrió que una máquina que llamaron “DeepBlue”, derrotó al campeón del mundo Kasparov…
Posteriormente se crearon más y mejores programas de ajedrez, basándose en esta estrategia. El mejor de todos fue Stockfish. Prácticamente no le podía ganar ningún ser humano.
IBM mejoró tanto los algoritmos como la capacidad de procesamiento, hasta llegar a la creación de su IA más famosa y práctica. Se llama WATSON. Pagando dinero, cualquiera puede tener acceso a esta IA y resolver problemas complejos que necesitarían cantidades ingentes de ingenieros o, en su defecto, millones de programas informáticos clásicos.
Basándose en su algoritmo de cálculo y sus bases de experiencia, Watson puede sustituir ya a investigadores, médicos, biólogos, químicos, abogados, matemáticos… con una eficacia muy alta.
Parecía que la estrategia de IA de Watson y programas similares, y el continuo avance en la capacidad de procesamiento paralelo masivo, análisis de grandes bancos de datos (big data), eran el futuro, pero…
Casi en paralelo, se desarrolló otra estrategia. ¿Por qué no construye el algoritmo su propia base de datos de “experiencias”?
Todos tenemos en mente la película “Juegos de Guerra”, donde un avanzado ordenador llamado “WOPR” (se pronuncia como la famosa hamburguesa), aprendía a jugar a “las tres en raya” para comprender que hay juegos donde es mejor no empezar, si lo que queremos es ganar, en una clara analogía con lo inútil de comenzar una guerra nuclear global.
Lo que hacía el algoritmo era aumentar su base de datos de experiencias jugando contra si mismo y obteniendo todas las posibles combinaciones para encontrar un objetivo (el de ganar el juego en este caso).
No sabemos que algoritmo había detrás de ese ordenador, pero parece que inspiró a alguien que lo recreó y llamó AlphaZero. Ese alguien no es más ni menos que la División de IA de Google (Deepmind).
¿Y cómo probar que funcionaba bien o mejor que otros? Pues poniéndole a “aprender” y “jugar” al ajedrez. En sólo 300.000 partidas jugadas contra sí mismo en un día, “aprendió” todo lo imaginable sobre el juego… lo pusieron a jugar contra Stockfish… y le ganó en todas las ocasiones.
Un avance adicional fue el de conectar muchas instancias del algoritmo entre sí: compartir “experiencias” o “lo aprendido”, más todo lo bueno que tienen los bancos de datos y la estrategia de la generación de IA Anterior (uso masivo del bigdata)… La integración de las dos tecnologías o estrategias están creando un potencial de avance de la IA prácticamente impensable hace unas décadas (aunque no inimaginable).
Hoy, parece que tenemos un Edison y un Tesla en el campo de juego de la IA. Uno de los grandes jugadores ha cambiado el nombre de su matriz… ahora es Alphabet. ¿Será casualidad?
¡Elemental, querido Watson!