Google aún no tiene la respuesta para esta pregunta

DeepMind, la división de inteligencia artificial de Alphabet Inc., investiga por qué los robots matarían o cooperarían con los humanos en una eventual supremacía de las máquinas.

(Bloomberg).- Cuando llegue la supremacía de los robots, ¿ellos decidirán matarnos o cooperar con nosotros?

Nuevas investigaciones de DeepMind, la división de inteligencia artificial de Alphabet Inc., firma con sede en Londres, podrían, finalmente, arrojar luz sobre esta pregunta fundamental.

Han estado investigando las condiciones en las que seres, humanos o robots, a los que se les mejora la recompensa, elegirían cooperar y no competir. La respuesta podría tener implicancias en relación con la forma en que la inteligencia de las computadores podría ser utilizada para manejar sistemas complejos tales como una economía, los flujos de tránsito urbano o la política ambiental.

Joel Leibo, autor principal de un trabajo que DeepMind publicó en internet el jueves, dijo en un correo electrónico que, de acuerdo con la investigación de su equipo, el hecho de que los agentes aprendan a cooperar o a competir depende enormemente del ambiente en el que operen. Si bien la investigación no tiene inmediata aplicación en el mundo real, ayudaría a DeepMind a diseñar agentes de IA que pudiesen trabajar juntos en ambientes con información imperfecta. En el futuro, ese trabajo podría ayudar a tales agentes a navegar un mundo lleno de entes inteligentes –tanto humanos como máquinas- en redes de transporte, así como en mercados bursátiles.

Manzanas, lobos.
En el primer juego, dos de estos agentes tenían que maximizar la cantidad de manzanas que pudiesen recolectar en un ambiente digital bidimensional. Los investigadores podían variar la frecuencia de aparición de las manzanas y descubrieron que cuando las manzanas escaseaban, los agentes rápidamente aprendían a atacarse entre sí, golpeando o “marcando” a su oponente con un rayo que lo inmovilizaba temporalmente. Cuando había muchas manzanas, los agentes preferían coexistir más pacíficamente.

Sin embargo, para los investigadores fue un poco escalofriante observar que cuando aplicaron el mismo juego a agentes más inteligentes que recurrían a redes neuronales más grandes – una especie de inteligencia de máquina diseñada para imitar el funcionamiento de ciertas partes del cerebro humano-, estos trataban de “marcar al otro agente con más frecuencia, es decir, cooperaban menos, sin importar cómo variaba la escasez de manzanas”, escribieron los autores en un posteo de blog en el sitio web de DeepMind.

En el segundo juego, llamado Wolfpack (manada de lobos), los agentes de IA eran lobos que tenían que aprender a capturar “una presa”. El éxito era un premio no sólo para el lobo que había logrado la captura, sino para todos los lobos presentes dentro de un determinado radio de la captura. Cuantos más lobos hubiese presentes en este radio de captura, más puntos recibirían todos los lobos.

En este juego, los agentes, en general, aprendieron a cooperar. A diferencia del juego de recolección de manzanas, en Wolfpack cuanto más avanzado cognitivamente fuese el agente, mejor aprendía a cooperar. Los investigadores postularon que esto se debe a que en el juego de las manzanas, la conducta de “marcar” al adversario era más compleja- requería apuntar con el haz de luz al oponente- mientras que en el juego Wolfpack, la cooperación era la conducta más compleja.

Los investigadores concluyeron que como los sistemas de IA menos sofisticados tenían más dificultad en dominar estas conductas complejas, el IA más sencillo no podía aprender a usarlas con efectividad.

DeepMind, que fue adquirida por Google en 2014, es más conocida por haber creado una inteligencia artificial que puede derrotar a los mejores jugadores humanos del mundo en el antiguo juego de estrategia Go. En noviembre, DeepMind anunció que estaba trabajando con Blizzard Entertainment Inc., la división de Activision Blizzard que hace el video juego Starcraft II, para convertir a ese juego en una plataforma de investigación de IA.

Leibo dijo que los agentes utilizados en los experimentos de la recolección de manzanas y Wolfpack no tenían memoria a corto plazo y, por ende, no podían hacer inferencias sobre la intención del otro agente. “Ir más allá de esto sería interesante para equipar a los agentes con la capacidad de razonar acerca de las creencias y objetivos del otro agente”, dijo.

Mientras tanto, sería inteligente contar con algunas manzanas de más.

ÚLTIMA HORA ver todas

BLOGS ver todos

Revolución digitalPablo Bermudez

Bye bye Dubai... ¡Bienvenido NEOM! (1 de 3)

Herejías EconómicasGermán Alarco

Plan Estratégico de Desarrollo Nacional (PED...

El Vino de la Semana

Pisco, amor por el Perú

Te lo cuento fácilAlumnos de la Universidad del Pacífico

Guerra en Ucrania: un breve análisis del fac...

Economía para todosCarlos Parodi

Estados Unidos y China

WALL STREET VER TODOS

Será noticia

JOSÉ ANTONIO MONTENEGRO