AlphaGo aprende a jugar al Go sin ayuda humana

El nuevo algoritmo, bautizado como AlphaGo Zero, ha derrotado por 100 partidas a cero a su predecesor, que logró el reconocimiento mundial al ganar en marzo de 2016 al surcoreano Lee Sedol, campeón del mundo de Go en 18 ocasiones.


El AlphaGo original fue entrenado a partir de un aprendizaje supervisado, a partir de millones de movimientos de partidas disputadas por jugadores humanos expertos, y se sometió después a un proceso de refuerzo con juegos contra sí mismo.


El reto de los ingenieros en la nueva versión del algoritmo era lograr que aprendiera el juego partiendo de una “tabula rasa” y sin ningún conocimiento de partidas humanas previas.

Click here to view the video on YouTube.


AlphaGo Zero ha adquirido su maestría en el juego de estrategia únicamente disputando partidas contra sí mismo.


Empezó a jugar con movimientos de fichas al azar y fue aprendiendo en cada partida en base a los errores y aciertos cometidos.


El algoritmo funciona en una única computadora dotada con cuatro Unidades de Procesamiento de Tensor (TPU, en inglés), circuitos integrados desarrollados específicamente para el aprendizaje de máquinas.

En tan solo unos días de autoaprendizaje, en los que el sistema jugó cerca de cinco millones de partidas contra sí mismo, AlphaGo Zero ya era capaz de superar a cualquier humano y derrotar a todas las versiones anteriores de AlphaGo.


Los autores del trabajo, ingenieros de la compañía británica DeepMind -adquirida por Google en 2014-, subrayan que su programa de inteligencia artificial ha descubierto de forma independiente algunos conceptos del juego del Go que los humanos tardaron siglos en conceptualizar.


AlphaGo Zero también ha desarrollado nuevas estrategias que no habían sido antes puestas en práctica y que arrojan nueva luz sobre las posibilidades del juego, inventado en China hace más de 2.500 años. EFE

La entrada AlphaGo aprende a jugar al Go sin ayuda humana aparece primero en EFE futuro.


Origén: Tecnologia