(Bloomberg).- El historiador israelí Yuval Harari ha recibido mucha atención a causa de su dramática visión del futuro, en la cual los seres humanos se fusionan con la tecnología para evolucionar más allá de sí mismos y, en última instancia, colonizar el espacio exterior –con el potencial de hacer de nuestra generación una de las últimas del Homo Sapiens--.
Espero que esta sea más una advertencia que una hoja de ruta para el desarrollo de nuestra especie.
Harari es una estrella de rock que también escribe libros y cuyo volumen “Sapiens” obtuvo elogios de Barack Obama y Bill Gates. En la continuación de este, “Homo Deus”, hace una cantidad de afirmaciones especulativas en una forma que parece dirigida a alarmar, como si estuvieran destinadas a hacerse realidad.
Al describir cómo un servicio de inteligencia artificial como Siri podría algún día aconsejarnos con quién casarnos, por ejemplo, escribe que “a cambio de un servicio de asesoramiento tan devoto solo tendremos que renunciar a la idea de que los seres humanos son individuos y que cada ser humano tiene libre albedrío para determinar lo que es bueno, lo que es hermoso y cuál es el sentido de la vida”.
Francamente, muchas de sus ideas me parecen descabelladas –en particular cuando insinúa que nuestra comprensión de la bioquímica, combinada con las grandes bases de datos, pronto eclipsará los conceptos de libre albedrío y alma humana-.
Veo escasas evidencias inmediatas más allá de nuestra fascinación con Siri, las recientes mejoras en la tecnología de implantes cerebrales y la epidemia de opiáceos. Sin embargo, estas ideas provienen de una persona que, según todos los indicios, es un pensador sumamente inteligente y serio. ¿Y entonces?
Mi teoría es que nos está probando. Realiza un experimento de pensamiento con sus lectores, extrapolando lo que podría suceder si seguimos por nuestra arrogante trayectoria y nos rehusamos a pensar en cómo nuestra vida es subsumida por nuestra obsesión con nosotros mismos y nuestra tecnología. Somos tan inconscientes, nos dice, que antes de que nos demos cuenta todos seremos robots y eso nos parecerá grandioso. Pero no cree necesariamente que el futuro que describe se vaya a hacer realidad.
Mi teoría proviene, en parte, de la propia discusión de Harari sobre por qué debemos estudiar la historia. Reformula la vieja cita de George Santayana sobre cómo aquellos que no recuerdan el pasado están condenados a repetirlo: en cambio, declara que quienes quieran evitar futuros catastróficos deben predecirlos.
Explica que es conveniente considerar cuán mal pueden ponerse las cosas, de modo que podamos “decidirnos respecto de eso antes de que eso se apodere de nuestra mente”. La mejor manera de evitar la distopía es imaginarla.
En el futuro posible que Harari describe, si continuamos por esta trayectoria llamada humanismo, ella nos conducirá a crear ídolos de inteligencia artificial.
O, mejor, nos conducirá a convertirnos en esos ídolos, aumentándonos a nosotros mismos paso a paso con la tecnología en un proceso que borrará nuestra humanidad, convirtiéndonos en máquinas híbridas que solo buscarán el placer.
Yo lo expresaría de una manera diferente: tendremos que cambiar nuestra filosofía y renunciar a algo de ese ensimismamiento y estúpido amor a los adminículos si queremos evitar ese futuro. Si es a eso a donde quiere llegar Harari, estoy con él.
Por Cathy O’Neil
Esta columna no refleja necesariamente la opinión de la junta editorial o de Bloomberg LP y sus dueños.