El avance de la inteligencia artificial que algunos ven como una amenaza y otros como una esperanza.
Llevamos años viendo películas futuristas protagonizadas por robots que piensan, actúan y hasta sienten como seres humanos. Algunos investigadores aseguran que en algún momento conviviremos con máquinas parecidas que nos harán la vida más fácil (y que sustituirán a los humanos en muchas más tareas que en la actualidad). Sin embargo, los avances en inteligencia artificial se suceden poco a poco mientras sigue abierto el debate científico sobre hasta qué punto podrán equipararse a los humanos e incluso superar nuestras capacidades. ¿Es posible que una máquina pueda aprender, pensar, sentir o ser creativa como una persona?
Un equipo de investigadores presenta esta semana un nuevo avance en el campo de la inteligencia artificial que va en esa dirección, y que la prestigiosa revista Science ha llevado a su portada. Han desarrollado un algoritmo capaz de aprender conceptos a partir de un solo ejemplo, como suelen hacer los humanos. Ya era posible que una máquina aprendiera conceptos y tareas, pero para ello era necesario darle muchos ejemplos, normalmente cientos o miles.
El nuevo algoritmo aprende a escribir como los humanos y es capaz de reconocer y dibujar conceptos visuales muy sencillos (letras y otros caracteres). No obstante, Brenden Lake, investigador de la Universidad de Nueva York y autor principal del estudio, subraya que “la gente sigue siendo mucho mejor que las máquinas” a la hora de aprender.
Su trabajo, sostiene, ayudará a desarrollar nuevos métodos que permitan que las máquinas aprendan a realizar otras tareas. Y es que, cuando a una persona se le muestra un concepto nuevo, ya sea un utensilio de cocina, un pase de baile o una nueva letra de un alfabeto que no conoce, habitualmente necesita pocos ejemplos para entenderlo y hacer inferencias.
De momento han logrado que este programa informático sea capaz de aprender a reconocer y escribir caracteres de 50 alfabetos (reales e inventados) cuando sólo se los habían mostrado una vez. Entre los que usaron estaban en el del sánscrito, el tibetano, el gujarati (de un estado de India), el glagolítico (un alfabeto eslavo) y otros inventados como los de la serie Futurama.
A modo de comparación, uno de los coautores, Ruslan Salakhutdinov, de la Universidad de Toronto, logró hace 10 años un algoritmo capaz de aprender la estructura de 10 caracteres escritos a mano (los dígitos del 0 al 9) a partir de 6.000 ejemplos cada uno. Es decir, para que la máquina aprendiera esos 10 conceptos necesitaron 60.000 ejemplos durante su entrenamiento.
Además de evaluar la capacidad del programa para aprender conceptos, pidieron a personas que reprodujeran una serie de caracteres que también habían sido trazados por la máquina. Después, los compararon y preguntaron a diversas personas cuáles creían que habían sido realizados por humanos y cuáles por un programa, en una adaptación del clásico test de Turing que los investigadores denominan ‘test visual de Turing’. Básicamente el test de Turing consiste en que alguien en una habitación va haciendo preguntas para determinar si las respuestas e interacciones que recibe proceden de una persona o de una máquina.
Según demostraron los investigadores, la mayoría de estos caracteres escritos por el programa informático no eran distinguibles de aquellos hechos por humanos, consiguiendo engañar a la mayor parte de los jueces (menos del 25% consiguió distinguir las que había hecho un humano de las escritas por la máquina), según el estudio.
“Lo que han conseguido estos investigadores es algo que se buscaba desde hace tiempo porque es la manera en la que aprenden los niños o los humanos en general. No necesitamos que nos enseñen cientos de imágenes de un Airbus para saber lo que es y distinguirlo de otros modelos de avión”, apunta Pedro Larrañaga, catedrático e investigador del grupo de Inteligencia Computacional de la Universidad Politécnica de Madrid. En su opinión, “se trata de un pasito más” en el camino para lograr que una máquina emule a nuestro cerebro.
Para aprender, este programa informatico probabilista sigue una aproximación que denominan bayesiana [por el teorema de Bayes]: “La máquina bayesiana perfecta sería el cerebro. Cuando varias personas se enfrentan a un mismo problema lo hacen de manera distinta porque cada una tienen en cuenta a priori distintos que dependen de nuestras vivencias y de cómo ha actuado nuestro cerebro. Estamos continuamente incorporando lo que ocurre en el mundo exterior. El cerebro humano transforma el conocimiento a priori en conocimiento a posteriori. Es como una rueda que siempre da vueltas”, compara.
“El machine learning [aprendizaje automático o de máquinas] es una de las ramas más importantes de la inteligencia artificial, pero no la única. El problema es que las máquinas necesitaban muchos ejemplos para aprender. Lo habitual es que le pasaras cientos o miles de ejemplos de personas sanas y enfermas para que aprendiera, por ejemplo, el concepto de una persona enferma de cáncer de colon”, añade Larrañaga.
Para Arturo Ribes, investigador del Instituto de Investigación de Inteligencia Artificial (CSIC), esta nueva técnica “es una línea prometedora, pues usando menos datos consiguen resultados bastante buenos”. Y es que en su opinión, más que lograr que el programa aprenda más rápido, la principal ventaja es que necesita menos datos para el entrenamiento: “El tiempo, desde mi punto de vista, no es tan relevante porque puedes usar más máquinas, pero la obtención de datos para enseñar a la máquina poniendo ejemplos cuesta mucho tiempo y dinero, y a veces no existen”, señala. “Con muy pocos datos, los humanos somos muy buenos captando la esencia del problema”, apunta.
Aunque cuando hablamos de inteligencia artificial lo más frecuente es pensar en robots, estos programas se aplican en numerosos sectores que no tienen que ver con la robótica. “Por ejemplo, los bancos usan sistemas de detección de fraude para saber si una firma la ha hecho realmente el titular. Los algoritmos de detección de fraude necesitan muchísimas imágenes de la firma de la misma persona, muchos ejemplos. Con un sistema como el que han desarrollado ahora, se podría hacer un programa que identificara si una firma es auténtica con menos ejemplos”, señala Arturo Ribes.
“Hay mucha gente que cree que la inteligencia artificial es sólo robótica pero sus aplicaciones tienen mucho que ver con campos como la biomedicina”, apunta Pedro Larrañaga, Premio Nacional de Informática en 2014. Por ejemplo, añade, para averiguar si una persona puede sufrir un determinado tipo de cáncer a partir de determinados parámetros. Pero para conseguir avances en campos como éste, el investigador considera imprescindible aumentar la inversión: “Tenemos que ser conscientes de que dedicar sólo el 1,3% del PIB a actividades científicas, como ocurre en España, es insuficiente”, señala.
Para José Cordeiro, profesor fundador de la Singularity University en NASA Research Park, en Silicon Valley (California), este trabajo “demuestra el rápido avance en aprendizaje automático (o machine learning en inglés)”.
Al investigador, este estudio en Science le recuerda al caso de la compañía británica DeepMind, fundada en 2010 por Demis Hassabis, Shane Legg y Mustafa Suleyman, “que desarrollaron algoritmos y máquinas que aprendían solas a jugar juegos como Atari. Inmediatamante después de esos logros, Google compró DeepMind por cerca de 500 millones de dólares”, explica.
“Yo no tengo la menor duda que que las máquinas están aumentando cada vez más sus poderes, pues la tecnología avanza exponencialmente”, asegura.