Científicos británicos dieron a conocer el diseño una red neuronal virtual capaz de aprender a dominar diversos videojuegos sin haber sido previamente programada para ello, según la revista Nature.
La compañía DeepMind, adquirida por Google en enero de 2014, combinó técnicas de aprendizaje informático con mecanismos inspirados en la biología para lograr que su agente artificial aprenda a jugar a 49 videojuegos clásicos de la consola Atari 2600, que se lanzó en 1977.
El novedoso sistema es capaz de descubrir el objetivo del título y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla.
Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional de los videojuegos.
Los autores del sistema afirman que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias.
Demis Hassabis, uno de los creadores, explicó que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez, en aquel momento era el ruso Gary Kaspárov.
Fuente: Prensa Libre