Expertos vaticinan que el desarrollo de la IA, el mayor reto tecnológico de la historia, dará a luz una nueva generación de robots autónomos capaces de atender nuestras necesidades. Pero ¿constituirán una amenaza?
Si hacemos caso a Elon Musk, el visionario magnate que fundó PayPal, la compañía de vehículos eléctricos y baterías Tesla o la corporación espacial privada SpaceX, la humanidad se enfrenta a una nueva y formidable amenaza: la inteligencia artificial (IA). “Es como esas historias en las que alguien convoca al demonio. Siempre hay un tipo con un pentáculo y agua bendita convencido de que así podrá controlarle, y claro, no funciona”, señala.
Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió el año pasado DeepMind, una empresa especializada en el desarrollo de redes neurales en la que ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, gente patinando o durmiendo, un gato… Y todo por sí solo y sin que nadie haya puesto etiquetas en el archivo previamente.
La idea es que vaya aprendiendo, por así decirlo, tras alimentarse con millones de grabaciones. IBM, por su parte, afina su superordenador Watson, que en 2011 derrotó a los campeones humanos del concurso estadounidense de preguntas y respuestas Jeopardy! Su intención es mejorar las funciones cognitivas del ingenio y comprobar sus capacidades para realizar diagnósticos médicos, análisis de la personalidad y traducciones en tiempo real. Los ingenieros de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.
Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una tecnología que puede resultar tan peligrosa como los maletines nucleares. En el coro de los agoreros del apocalipsis artificial destaca la voz del filósofo británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino con el de los caballos, cuando fueron sustituidos por los automóviles y los tractores. En 1915, había en EE. UU. unos veintiséis millones de estos equinos. En la década de los cincuenta, quedaban solo dos millones. Los caballos fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA supone un riesgo existencial para la humanidad comparable con el impacto de un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?
En realidad, el concepto de inteligencia artificial no es tan reciente como parece. Desde los tiempos de Alan Turing –al que se considera el padre de la misma– y la construcción de su dispositivo Bombe, que permitió descifrar los códigos de la máquina Enigma alemana, han pasado más de setenta años. En un momento dado del film The Imitation Game (Morten Tyldum, 2014), en el que Benedict Cumberbatch interpreta al célebre matemático, un detective le pregunta: “¿Podrán las máquinas algún día pensar como los humanos?”. A lo que él responde: “La mayoría de la gente piensa que no.
El problema es que está haciendo una pregunta estúpida. Desde luego que las máquinas no pueden pensar como las personas. Son diferentes, y piensan diferente. La cuestión es: por el hecho de que algo sea diferente, ¿significa que no puede pensar?”. El detective le interpela entonces por el título de su artículo, The Imitation Game. “Es un juego, un test para determinar si alguien es un ser humano o una máquina”, indica Turing. “Hay un tema general. Un juez pregunta, y a partir de las respuestas, decide si habla con una persona o una máquina”. La escena quizá sea inventada, pero su contenido es real. El test existe.
La IA causa furor gracias a la literatura y al cine. Pero ¿cuál es el grado real de progreso? Hace más de quince años, estuve en el Instituto de Robótica de Pittsburgh, en EE. UU., uno de los templos de esta disciplina. Por entonces, formaba parte de un equipo de TVE que recogía los últimos avances tecnocientíficos en una serie de divulgación llamada 2.Mil. Tengo que reconocerlo: me llevé un chasco morrocotudo por culpa de la imagen de la robótica que nos ha inculcado la ciencia ficción.
Los aparatos que tenían allí eran poco más que cacharros en manos de ingenieros en vaqueros, y parecían salidos de un garaje de frikis. Se averiaban a la menor ocasión. Me hablaron de Florence, una enfermera robot que iba a revolucionar la geriatría. En realidad, se trataba de una especie de tonel con cabeza a la que habían pegado ojos y labios de silicona para dibujar sonrisas.
Florence tenía una cámara de televisión incorporada y un monitor. Las pilas se le agotaban rápido. Y, desde luego, no entendía lo que le decíamos. Todo aquello que pronunciaba tenía que programarse con antelación, así que un ingeniero trabajó a destajo para que saliera al pasillo y nos diera un mensaje de bienvenida.
Había leído muchas cosas sobre lo que hacían en Pittsburgh, especialmente de Xavier, un robot que sabía por dónde iba, toda una revolución. Pero no era otra cosa que otro tonel con ruedas que se desplazaba por los pasillos del instituto gracias a un mapa que tenía en su memoria. Ante unas escaleras, se paraba para no matarse. Por lo visto, irrumpía en las dependencias para contar chistes verdes. Aquella mañana vi a Xavier mientras era llevado a rastras, una imagen que jamás olvidaré. ¡Estaba en las catacumbas de la robótica! Acudí a la oficina de Hans Moravec, uno de los visionarios más famosos, pero todo lo que decía resultaba difícil de creer.
Moravec estaba convencido de que en cincuenta años los androides desplazarían a los humanos. Durante más de una hora estuvo hablando sin parar sobre la evolución de estos dispositivos y su creciente inteligencia, gracias al avance de los microprocesadores y su capacidad de manejar cada vez más información. Fue una charla cautivadora. La evolución de las máquinas iba a ser imparable. “Ha llegado la hora de que nos marchemos”, concluía este científico nacido en Austria.
Moravec dejó el instituto para fundar una compañía de robots industriales con visión 3D. Antes, me había enseñado en su ordenador una imagen percibida por uno donde se veían sillas y mesas que tenían un aspecto pixelado. ¿Y cómo podría saber la máquina qué era qué? En aquel verano de 1999, Moravec contaba que estaba fascinado por un nuevo buscador de internet, el más inteligente y mejor diseñado. Fue la primera vez que oí hablar de Google.
Ahora, Google ha comprado una empresa de IA a Musk y ha desarrollado el primer coche autónomo, que ya ha recorrido 1,6 millones de kilómetros sin conductor, y el sistema que diferencia gatos de personas en YouTube. El mundo está literalmente invadido por cantidades inconcebibles de información, que circula por la Red, y la capacidad de computación aumenta sin cesar. Pero ¿de verdad tenemos razones para temer que una máquina llegue algún día a pensar como nosotros?
Ramón López de Mantarás, director del Instituto de Investigación en Inteligencia Artificial del CSIC, es uno de los más reconocidos expertos españoles en robótica e IA. “No”, responde a MUY. Y añade: “No sé qué pasará dentro de cientos de años, pero todo este tema del que se habla, la singularidad, la trascendencia, que habrá máquinas con consciencia y cualidades mejoradas con respecto a la inteligencia humana en cuestión de treinta o cuarenta años no tiene sentido… Nunca he visto un argumento científico que lo apoye”.
El punto de vista de López de Mantarás encaja con lo que sentí hace quince años, en mi frustrante visita a Pittsburgh. El mundo ha cambiado mucho desde entonces, pero lo cierto es que aún no se vislumbran las máquinas que acabarán siendo conscientes de sí mismas para desencadenar la catástrofe, como ocurre en las películas de la saga Terminator.
Discrepa así de gurús como el futurólogo Raymond Kurzweil, que hoy trabaja en la división de Ingeniería de Google. Al igual que Moravec, este está convencido de que durante este siglo los robots serán capaces de pasar el citado test de Turing, incluso antes de 2029. Pues bien, no sería la primera vez que se cumple una de sus predicciones.
A finales de los 80, Kurzweil aseguró que hacia 1998 un ordenador ganaría a un campeón mundial de ajedrez: ocurrió en 1996, cuando Gari Kasparov perdió una partida contra el programa informático de IBM Deep Blue. En esos años, también imaginó que internet, por entonces una red relegada a instituciones académicas, se extendería por el mundo. Ahora afirma que en 2045 las computadoras serán mucho más potentes que todos los cerebros humanos de la Tierra juntos. Cuando habla, los medios caen rendidos ante ese mundo artificial. “Es una persona muy mediática”, concede López de Mantarás. “Pero detrás no hay nada científico”.
Marvin Minsky, cofundador del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT), galardonado el año pasado por la Fundación BBVA, sí cree que se desarrollarán máquinas tan inteligentes como los humanos. “No obstante, el tiempo que esto lleve dependerá de si se trabaja en los problemas adecuados y del dinero”, manifiesta Minsky. “Es un enfant terrible”, asegura López de Mantarás, que estuvo en el congreso que el MIT celebró recientemente en su honor.
“Minsky piensa que los grandes avances en este campo se realizaron entre los 60 y los 80, y luego se abandonaron todas las ideas con respecto a la IA en su sentido general”. Así, lo que habría quedado en el panorama actual es la especialización, máquinas que son extraordinarias jugando al ajedrez, pero que no saben nada de las damas o el parchís. “Las IA especializadas son un buen negocio, y estoy a favor de ellas. Faltaría más. Es lo que es realmente la inteligencia artificial hoy en día”, indica López de Mantarás.
La investigación generalista en IA está desapareciendo. En este mundo inundado de datos, esta tecnología es completamente distinta. El coche autónomo de Google o el superordenador Watson de IBM analizan terabytes de información para tomar decisiones correctas. Sin embargo, no saben explicar cómo han llegado a ellas. En otras palabras, cuando el sistema escupe su respuesta, es incapaz de responder a esta pregunta: ¿y eso por qué? “Hemos renunciado al porqué y nos hemos quedado con el qué”, lamenta Pérez de Mantarás.
Por ejemplo, hace unos años, un sistema experto que deducía que el paciente sufría neumonía podía justificar ese diagnóstico a partir del historial del enfermo y los cultivos realizados, pero ahora un software tan complejo como Watson no puede hacerlo. Simplemente elabora una conclusión a partir de la abrumadora cantidad de datos que maneja, pero no ofrece una razón. “Esto crea problemas de aceptación por parte del usuario”, afirma Pérez de Mantarás.
Fijémonos en la película Yo, robot (Alex Proyas, 2004): las calles están plagadas de humanoides que llevan la compra, sirven copas, reparten perritos calientes… Si nos olvidamos por un momento de la fantástica agilidad que demuestran y la inteligencia general que atesoran, ¿qué nos quedaría? Está claro: un ejército de especialistas.
Los drones, una manifestación de esta tendencia
La fuerza aérea estadounidense mantiene más de 8.000 de estos aparatos ahora mismo para combatir el terrorismo, según la Institución Brookings. En sus operaciones, ya han matado a más de 2.400 personas. Los modelos comerciales, por su parte, filman e investigan cualquier cosa. Por ejemplo, equipados con sensores de infrarrojos, algunos pueden detectar qué plantas están enfermas o sufren ataques de parásitos.
Así, es posible idear un plan de fumigación a la carta. Otros ayudan a controlar la caza furtiva y aportan pistas a los biólogos que estudian los vuelos de las aves y sus trayectorias. Los hay de todo tipo. El más grande de todos, el Eitan, de fabricación israelí, posee una envergadura de 26 m, casi como un Boeing 737. Por el contrario, el diminuto Nano Hummingbird, de 16 cm, desarrollado con el apoyo de la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos (DARPA), podría pasar por un colibrí. Los robots literalmente han despegado hacia su libertad, aunque, eso sí, bajo control humano.
Entre la fauna robótica que permanece en tierra nos encontramos desde el Roomba, un pequeño aspirador semiautónomo con forma de disco ideado por iRobot que se ha convertido en todo un éxito comercial, hasta el PackBot –de la misma firma–, un róver militar provisto de un brazo robótico capaz desde manipular bombas hasta inspeccionar lugares contaminados por radiactividad. El TUG, por su parte, obra de Aethon, parece una especie de mesita con ruedas y sensores. Gracias a estos últimos, se desplaza sin problemas por los pasillos de algunos hospitales estadounidenses para llevar medicinas y otros suministros.
Comments
Powered by Facebook Comments