¿Por qué la IA de Google cree que esta tortuga es un rifle?

¿Por qué la IA de Google cree que esta tortuga es un rifle?

Un grupo de estudiantes del MIT ha creado un algoritmo capaz de generar imágenes con el objetivo de engañar a una IA sobre lo que está viendo.

Estudiantes del MIT han desarrollado un algoritmo capaz de engañar a una IA encargada de analizar imágenes?

Hablar de Inteligencia Artificial ya no es hablar del futuro; es hablar del presente. Este tipo de tecnología ya es usada a diario, para temas tan intrascendentes como detectar si hemos fotografiado a nuestro gato; pero también para temas tan peliagudos como la vigilancia de la ciudadanía.

Y digo que es peliagudo, porque en esos casos la decisión equivocada de una IA puede tener consecuencias desastrosas; por ejemplo, en el uso de estos sistemas para detectar amenazas como posibles terroristas. Suena muy futurista, pero es algo que ya es posible; si una IA es capaz de discernir una pistola entre la ropa de un sospechoso, puede ayudar a evitar una masacre.

Por eso el estudio organizado por un equipo de estudiantes del MIT es tan interesante; lo que se plantearon desde el principio era averiguar si había un “truco” sencillo, que permitiese engañar a una red neuronal. Este engaño debía ser sencillo de aplicar y ser consistente; para que la IA nunca tuviese ninguna oportunidad.

Imágenes adversarias, capaces de engañar a una IA

Resulta que ya existe algo similar, y se llama “imagen adversaria”; es una imagen con un patrón concreto, diseñada para engañar al sistema, haciéndole creer que está viendo lo que no es. Un detalle importante es que esta imagen no tiene porqué ser obvia; puede ser una capa casi transparente aplicada a la imagen, con un patrón casi oculto; algo que sólo pueda ver un software que analice al dedillo la imagen, pero no una persona que sólo vea la imagen durante unos segundos.

Esto no es algo nuevo ni mucho menos, y los ingenieros que trabajan en IA luchan contra este tipo de patrones. Las imágenes adversarias además tienen el defecto de que sólo funcionan en ciertos ángulos. En la imagen superior, la IA de Google identificó un gato como guacamole; pero sólo con rotar la imagen un poco se dio cuenta de que era un gato, y hasta acertó con la raza.

Un algoritmo que revela todo el trabajo que aún queda por delante en IA

El verdadero avance de este equipo ha sido desarrollar un algoritmo capaz de generar imágenes adversarias automáticamente; estas pueden aplicarse tanto a imágenes 2D como a objetos tridimensionales. En algunos casos, basta con modificar un sólo pixel.

En el ejemplo demostrado, se aplicó el algoritmo a una tortuga de juguete impresa en 3D; parece bastante evidente lo que es, y a poco que la IA sea buena, podrá reconocer la forma fácilmente. Y sin embargo, la IA de Google se decanta claramente porque el objeto en cuestión es un rifle; sí, de esos que disparan balas.

Otro ejemplo es una bola de béisbol que la IA identifica como un espresso. La IA es engañada incluso cuando tiene el contexto adecuado; por ejemplo, metiendo la tortuga en agua.

Este algoritmo funciona sin importar el ángulo o que la imagen sea rotada, y ahí radica la importancia de este desarrollo. Si no podemos confiar en que las IA están viendo lo que nos parece evidente, ¿cómo podemos confiar en su utilidad? No estamos sólo ante una molestia cuando nuestro teléfono catalogue a nuestro gato como una salsa; sino ante un auténtico problema de seguridad, como por ejemplo, con los coches autónomos. Estos sistemas autónomos usan redes neuronales para analizar el entorno, que podría ser modificado para engañarles.

Los creadores del algoritmo aseguran que esto demuestra que las imágenes adversarias son un problema mayor del que se creía; seguro que han llamado la atención de mucha gente.