Al utilizar este servicio y el contenido relacionado, aceptas el uso de cookies para análisis, contenido personalizado y publicidad.
Estás usando una versión más antigua del explorador. Usa una versión compatible para obtener la mejor experiencia en MSN.

¿Nos van a aniquilar los máquinas? El pulso entre Musk y Zuckerberg tiene la respuesta

Logotipo de El Confidencial El Confidencial 01/10/2017 Cristina Sánchez

© Proporcionado por El Confidencial
"Al final, las máquinas ganarán". Así rezaba un cartel para concienciar sobre los problemas de la adicción al juego en Australia. Pero, aunque el anuncio no se refiriera a futuras tragaperras conscientes, Elon Musk lo aprovechó hace recientemente para sensibilizar a los ciudadanos sobre un asunto completamente diferente: la inteligencia artificial, "más peligrosa que Corea del Norte".

Elon Musk acaba de presentar uno de sus proyectos estrella: su plan para colonizar Marte con un cohete enorme llamado Big Fucking Rocket. Tal cual. Este monstruo no solo servirá para viajar al planeta rojo, también para desplazarse a cualquier punto dentro de la Tierra en solo 30 minutos. O eso asegura Musk. Pero el visionario creador de Tesla y SpaceX tiene otro frente abierto, y no es menos importante: la inteligencia artificial,

Musk cree que esta trata de una tecnología que, según él, supone un "riesgo fundamental para la existencia de la civilización humana". Además, ha alertado de que no reaccionaremos hasta que "veamos a los robots por la calle matando gente" y se ha convertido en el más mediático defensor de la regulación. Sin ir más lejos, hace poco firmó, junto a un centenar de empresarios, una carta dirigida a la ONU para pedir una forma de protegernos de las armas autónomas antes de que se abra la caja de Pandora.

Sin embargo, las opiniones del excéntrico sudafricano no han gustado a otro de los magnates de Silicon Valley. Mark Zuckerberg llegó a calificar de "irresponsable" que los "pesimistas" plantearan "escenarios apocalípticos". Musk llevó el combate al ‘ring’ de Twitter que tanto le gusta y dijo que "el entendimiento" del fundador de Facebook en la materia era "limitado".

El pulso no acabó ahí. Siguió con múltiples dardos entre uno y otro sobre el peligro real (o no) de la AI. ¿Quién tiene razón? La respuesta va más allá de un mero enfrentamiento personal. Saber cuál de los dos está en lo cierto, y por qué, es en el fondo una forma de divisar el futuro que nos espera. Vamos allá.

¿De qué sabios (humanos) se fían?

A mediados de 2014, Elon Musk ya comenzó su evangelización defendiendo que la inteligencia artificial era "nuestra mayor amenaza existencial" y que estábamos “invocando al demonio” o aludiendo a la película 'Terminator' cuando se le preguntaba por qué la consideraba peligrosa. Poco después, recomendaba en Twitter leer ‘Superinteligencia’, un libro que acaba de publicar Nick Bostrom, director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford.

Bostrom, filósofo y tecnólogo sueco, ha explicado por qué la superinteligencia puede ser un peligro con ejemplos que en nada se asemejan a Skynet, la malvada máquina que se rebela contra los humanos en ‘Terminator’.

Uno de ellos es la hipotética creación de una anodina máquina de fabricar clips a la que se ordena crear tantos como pueda. Obediente, transforma todos los materiales de la Tierra en clips. Aunque no sea cruel (carece de motivaciones humanas), la pacífica máquina intentaría hacer frente a cualquier intento de frenar ese objetivo.

Musk parece haber tomado buena nota de los razonamientos de Bostrom. Recientemente, explicaba en una entrevista el problema de una inteligencia artificial que se mejora a sí misma en términos muy similares. Si a una máquina capaz de automejorarse se le encarga la misión de recoger fresas, podría transformar todo el mundo en campos de fruta. Sin duda alguna, la hipotética invasión de fresas y clips suena más compleja y menos alarmante que algunas de las declaraciones del empresario obsesionado con viajar a Marte.

De un modo u otro, no es la única idea que podría haber tomado del filósofo. El año pasado, Musk señaló que podríamos estar viviendo en una simulación por ordenador (tipo Matrix), una teoría ya formulada por Bostrom. Además, tanto el investigador de Oxford como Musk figuran como asesores científicos del Instituto por el Futuro de la Vida (FLI por sus siglas en inglés), una organización que quiere mitigar los riesgos a los que se enfrenta la humanidad y a la que el fundador de Tesla donó diez millones de dólares (8,4 millones de euros al cambio actual).

Otro de los asesores del FLI, Stuart Russell, profesor de la Universidad de California en Berkeley, también ha explicado los peligros de la inteligencia artificial de forma similar (¿qué pasaría si convirtiéramos a las máquinas en reyes Midas?) y se ha convertido en otro de los expertos más preocupados por el futuro.

La superinteligencia no tendrá expresión sádica (marvelous Roland | Flickr) © Proporcionado por El Confidencial La superinteligencia no tendrá expresión sádica (marvelous Roland | Flickr)

En 2015, los tres firmaban una comedida carta abierta que defendía los beneficios de la inteligencia artificial pero reclamaba evitar "los potenciales inconvenientes” para así lograr que se aliara con los valores humanos. Steve Wozniak o Stephen Hawking fueron las figuras más populares de entre los 8.000 firmantes de la misiva, apoyada también por investigadores de Google.

Hawking, Russell y otros muchos expertos rubricaron hace unos meses otra carta del FLI en la que definían 23 principios para lograr, entre otras metas, que la “superinteligencia” siga unos ideales éticos. Curiosamente, las dos declaraciones también han sido respaldadas por Yann LeCun, un veterano experto en el campo del ‘deep learning’ y una de las figuras más reputadas en este terrno a nivel global. Además, en 2013, cuando Zuckerberg decidió dar un empujón en Facebook a la inteligencia artificial, le puso a la cabeza del nuevo grupo de investigación que formó para ello.

Pese a haber firmado esas cartas y parecer por tanto preocupado porque la inteligencia artificial no haga el mal— demostrando así ser menos optimista que su jefe— LeCun huye de pronunciar sentencias apocalípticas.

En su opinión, robots que dominen el mundo como los de ‘Terminator’ o ‘Ex Machina “no son realistas en absoluto” y no deberíamos tener una mirada antropocéntrica a la hora de estudiar las máquinas: no hay por qué construirlas para que tengan deseos similares a los humanos.

El jefe de inteligencia de Facebook incluso ha opinado sobre la visión del CEO de Tesla o de Stephen Hawking. “No estoy con ellos. [...] En el caso de Elon Musk, está muy interesado en las amenazas existenciales de la humanidad, y es por eso que ha construido cohetes para ir a Marte en caso de que algo malo pase en la Tierra”, defendía en una entrevista.

Mark Zuckerberg, más optimista que Musk (The Crunchies! | Flickr) © Proporcionado por El Confidencial Mark Zuckerberg, más optimista que Musk (The Crunchies! | Flickr)

¿Cuestión de imagen (y negocio)?

Un genio del ‘marketing’. Así definió Andrew Ng, otra de las figuras más destacadas en el campo de la inteligencia artificial y exdirector científico en Baidu, a Elon Musk. No en vano, el sudafricano sabe bien cómo explotar su faceta como gurú. Al fin y al cabo, Iron Man es un superhéroe, no un multimillonario del montón.

Su ambición por crear coches autónomos y eléctricos, su sistema de transporte supersónico Hyperloop o su plan para colonizar Marte son tres ejemplos que casan con ese intrépido papel. La cruzada por hacernos ver que la existencia de “una inteligencia artificial más inteligente que el humano más inteligente en la Tierra” es una situación peligrosa encaja bien en ese puzle.

De hecho, esa misión le viene al pelo para hacerse un hueco en el campo de la investigación en inteligencia artificial diferenciándose de otros líderes tecnológicos. Hace ya tres años, invertía en la compañía Vicarious, dedicada a crear una inteligencia de nivel humano en ciertos ámbitos, alegando que quería saber lo que se cocía en el campo. Curiosamente, Mark Zuckerberg también figuraba entre los inversores de la empresa.

En 2015, el magnate promovió la creación de OpenAI, una asociación sin ánimo de lucro para desarrollar inteligencia artificial que “beneficie a la humanidad” y fomentar la libre publicación de los estudios realizados por investigadores que colaboren con ella para evitar que solo una persona tenga acceso a una máquina superpoderosa.

© Proporcionado por El Confidencial

Independientemente de la heroica meta de beneficiar al resto de mortales, en OpenAI se están fraguando importantes avances en el campo. Hace unos días, una de sus inteligencias artificiales logró vencer a excepcionales jugadores de Dota 2 y Musk lo contó en Twitter con orgullo.

El magnate también ha conseguido convertir el laboratorio en una cantera de prometedores expertos. Tanto es así que uno de ellos, Andrej Karpathy, un investigador en ‘deep learning’ que ha pasado por DeepMind y OpenAI, es ahora director de inteligencia artificial de Tesla. Así que el miedo a las máquinas le ha servido a Musk para captar el mejor talento para su fábrica de robots de cuatro ruedas (que a su vez está plagada de robots).

Hace unos meses, Musk anunció el lanzamiento de Neuralink, una compañía que pretende desarrollar la tecnología necesaria para que conectemos nuestros cerebros con una máquina. Nuevamente, su pesimista opinión sobre los robots justificaba la empresa: si la rebelión es inevitable, convertirnos en cíborgs puede ayudarnos a sobrevivir.

A lo mejor si somos cíborgs nos salvamos (Heisenberg Media | Flickr) © Proporcionado por El Confidencial A lo mejor si somos cíborgs nos salvamos (Heisenberg Media | Flickr)

La perspectiva de Zuckerberg sobre la inteligencia artificial también tiene su razón de ser. Él mismo ha declarado que su objetivo en Facebook es “mejorar el nivel humano en todos los sentidos humanos primarios: visión, audición, lenguaje, cognición general”. Al fin y al cabo, la inteligencia artificial le sirve para reconocer tu cara en las fotos, personalizar los contenidos de tu muro o permitirte hablar con ‘chatbots’ (aunque a veces estos sigan su propio camino y se pongan a hablar en su idioma).

El año pasado, más de 150 personas trabajaban en ese área en Facebook. La compañía cuenta con el grupo de investigación de LeCun, encargado de los proyectos a largo plazo, y con un departamento de ‘machine learning’ aplicado dirigido por el español Joaquín Quiñonero. Es decir, Zuckerberg quiere que la inteligencia artificial sirva para mejorar poco a poco sus propios productos, así que le conviene transmitir optimismo.

Una buena muestra de ello fue fue su presentación de un Jarvis desarrollado por él mismo para tener un solícito mayordomo virtual en su propio hogar que controlara las luces, regulara la temperatura o abriera las puertas a los conocidos gracias a la inteligencia artificial. Sin embargo, al Iron Man ‘real’ no le gustó tanto el invento. “No llamaría inteligencia artificial a tener tus funciones domésticas automatizadas”, criticó Musk hace unos meses, mostrando ya sus diferencias con Zuckerberg. El primero parece estar obsesionado con el porvenir y el segundo con el negocio presente.

¿Quién no quiere ser Robert Downey Jr. y tener un mayordomo robótico) (Foto: ‘Iron Man’) © Proporcionado por El Confidencial ¿Quién no quiere ser Robert Downey Jr. y tener un mayordomo robótico) (Foto: ‘Iron Man’)

¿Qué opinan los expertos?

Pedro Domingos, profesor de informática de la Universidad de Washington y autor de ‘The Master Algorithm’ respondía en Twitter con una sola palabra tras leer algunas de las últimas declaraciones de Musk: “‘sigh’” (suspiro). “Muchos hemos intentado enseñarle a él y a otros como él a distinguir los peligros reales y los imaginarios de la IA, pero aparentemente no ha tenido impacto”, destacaba Domingos en Wired, apoyado por otros investigadores.

En este diario hemos recogido opiniones contrapuestas sobre ese eventual dominio de las máquinas. Por ejemplo, Sergio Guadarrama, investigador de ‘machine learning’ en Google Research, afirmaba no tener miedo a los robots. Mientras tanto, Jürgen Schmidhuber, pionero del ‘deep learning’, opinaba que las inteligencias artificiales nos superarán y colonizarán la galaxia.

Una crítica diferente a Musk es la que lanza Ryan Calo, profesor en la Escuela de Derecho de la Universidad de Washington y defensor de la regulación en la materia. Hace unos días, publicó una guía en la que advierte de que prestar una atención desproporcionada al apocalipsis robótico puede distraer “a los legisladores” de atender a los “retos y daños más inmediatos”. Calo también ha reprochado que Musk hable de robots asesinos cuando el año pasado una persona murió en uno de los coches de Tesla que llevaba el piloto automático activado (si bien la firma no fue la responsable del suceso).

Por su parte, el célebre Andrew Ng ponía el acento en uno de esos peligros más apremiantes. “Creo que el desplazamiento laboral es un problema mayor, y uno en el que me gustaría que pudiéramos centrarnos, en vez de estar distraídos por estos elementos de ficción científica, distópicos”, apuntaba en una entrevista, destacando que no ve “un camino claro” por el que la inteligencia artificial sobrepase a la humana.

Así que algunos no son ni tan optimistas como Mark Zuckerberg ni tan pesimistas como Elon Musk. Aunque los dos tienen motivos para defender sus enfrentadas posturas, los extremismos tampoco parecen buenos cuando hablamos de robots. Tal vez en el término medio esté la virtud.


Gestión anuncios
Gestión anuncios

Más de El Confidencial

image beaconimage beaconimage beacon