Hace cuatro años, las palabras inteligencia artificial abandonaron los pasillos de la ONU y se pronunciaron por primera vez en un encuentro oficial. Un año después se fundó el UNICRI. Su director, Irakli Beridze, trabaja con un ojo puesto en los malos y el otro, en los buenos.
Hace cuatro años, las palabras inteligencia artificial abandonaron los pasillos de la ONU y se pronunciaron por primera vez en un encuentro oficial. Un año después se fundó el Centro para la Inteligencia Artificial y la Robótica de las Naciones Unidas (UNICRI en las siglas en inglés). El georgiano Irakli Beridze, director de la entidad, trabaja con un ojo puesto en los malos y el otro, en los buenos. “Nuestro centro tiene como objetivo estudiar cómo los criminales pueden utilizar esta tecnología, cómo podría emplearse para la prevención del crimen y en cómo pueden usarla las fuerzas de seguridad”, explica.
¿Cómo ha cambiado el concepto de inteligencia artificial, desde sus inicios hasta ahora?
Hay diferentes tipos de tecnología que ahora clasificamos como inteligencia artificial. Antes no lo hacíamos. La IA ha estado aquí desde los años 50. Científicos y universidades se unieron para crear algo que emulara la inteligencia humana. Pensaron que lo conseguirían pronto, pero llevó mucho tiempo crear aplicaciones reales. En los últimos años se ha acelerado enormemente. Ahora es mainstream. Casi todo el mundo habla de ello.
¿Hasta qué punto las diferencias entre países en la carrera de la IA se deben a las diferencias en las reglas del juego?
En 2017, algunos países empezaron a crear planes nacionales de IA. Los más grandes abarcan amplias áreas de inversión, pero los menores ponen el foco en esferas más concretas que son de su propio interés. Ahora mismo tenemos más de 30 países en el mundo que tienen estrategias o bien están trabajando en ellas. No es un gran número. Somos 193 Estados Miembro en la ONU. Esto tiene el potencial para crear una brecha digital. Lo que me gustaría es ver estas tecnologías al alcance de todo el mundo.
Tal y como están las cosas ahora, ¿ve esfuerzos conjuntos o estamos más bien en una carrera armamentística?
El sector privado y los gobiernos están invirtiendo en esta herramienta con objetivos muy diferentes. Para lograr avances en sanidad, en seguridad… En definitiva, para lograr vidas mejores, más largas y más felices en sus países. Hay quien habla de carrera armamentística. Yo lo califico como una competición. Además, veo algunas colaboraciones entre regiones.
¿Qué pasa cuando las regulaciones crean las diferencias?
Las Naciones Unidas han creado una plataforma para la cooperación digital liderada por Melinda Gates y Jack Ma. Este panel tiene miembros muy prominentes que desarrollarán recomendaciones encaminadas a generar políticas para el futuro. Estamos en fases tempranas del desarrollo de esta tecnología. Y con las políticas pasa lo mismo.
¿Cree que conforme se democratice el acceso a la IA, será más difícil asegurar que se hace buen uso de ella?
La regulación nacional e internacional necesitará asegurar que estas tecnologías se usan para el bien y que los riesgos se mitigan. Lo que necesitamos es entender qué es lo mejor que podemos hacer con esta tecnología, cuáles son los riesgos principales, y cómo crear políticas que no pongan trabas a la innovación, pero al mismo tiempo atenúen los riesgos.
Ha dicho que la primera discusión oficial sobre IA en las Naciones Unidas tuvo lugar hace cuatro años. ¿Llegamos tarde?
No. Creo que las cosas están ocurriendo al ritmo normal. Por ejemplo, hay debates sobre aplicaciones militares, como las armas autónomas. Esto lo lleva otra oficina de las Naciones Unidas, la de asuntos de desarme.
En UNICRI estudian estas tecnologías desde el punto de vista de las fuerzas de seguridad y desde el de los criminales. Ahora mismo, ¿quién tiene las de ganar?
Los criminales pueden utilizar la IA de distintas maneras. Por un lado, están los delitos digitales, en los que los cibercriminales emplean la IA. Esto puede ser muy peligroso y estaríamos hablando de ciberataques dopados. En segundo lugar, está la manipulación política, por ejemplo, con grabaciones de vídeo manipuladas. En pocos años, cualquiera con un nivel medio de conocimientos tecnológicos podrá hacer estos vídeos. El tercer nivel son los ataques físicos, con tecnologías autónomas: drones, robots… En cuanto a las fuerzas de seguridad, vemos aplicaciones muy interesantes que ya se están empleando. Una vez que los criminales empiecen a usar la IA, si no entendemos su tecnología y no la usamos, ellos tendrían las de ganar. Ahora mismo, nadie las tiene. Todavía no hemos visto un uso muy serio de la inteligencia artificial para objetivos criminales.
Antes de su puesto actual, estuvo en la organización para la prohibición de las armas químicas. ¿Ve algo en común entre esta amenaza y la de las armas autónomas?
La inteligencia artificial no es un arma. Es una herramienta. Puedes compararla con la química. La química puede usarse para cosas buenas o malas. En el campo de las armas químicas, hay una convención internacional que prohíbe la producción y proliferación de las armas existentes y el desarrollo de nuevos productos. Y hay una agencia internacional de monitorización que vigila que nadie viole este tratado. En el lado de la inteligencia artificial no tenemos ningún tratado. A partir de cierto punto, probablemente habrá algo, pero aún tenemos que llegar ahí.
¿Podríamos llegar a ver prohibidas ciertas técnicas?
Es un tema complicado. Incluso los deepfakes pueden tener aplicaciones beneficiosas, por ejemplo, en educación. Imagina lo estupendo que sería ver a Cristóbal Colón hablando directamente a los niños. Estoy completamente en contra de prohibir tecnologías, pero al mismo tiempo, cualquier uso dañino debería ser castigable.
¿Qué hay de la superinteligencia?
Es algo de lo que cualquiera puede hablar, porque aún no la hemos alcanzado. Básicamente, es lo que ocurrirá cuando las máquinas se vuelvan más inteligentes que nosotros. Algunos temen que en ese punto las máquinas podrían decidir que ya no nos necesitan. Esto podría convertirse en un problema existencial. Pero, por un lado, no hemos llegado a eso y, por otro, muchos expertos prevén que nunca llegaremos. Por supuesto, deberíamos tener esta posibilidad en mente. Siempre que desarrollamos algo nuevo tendríamos que asegurar que no pueda usarse contra nosotros y no pueda destruirnos.