Google ha enseñado a su Inteligencia Artificial un concepto muy humano: la precaución

Google ha enseñado a su Inteligencia Artificial un concepto muy humano: la precaución

Google ha diseñado una Inteligencia Artificial con precaución, que mira antes de saltar y tiene en cuenta lo aprendido antes de tomar una decisión.

Google ha creado una Inteligencia Artificial con precaución y cuidado, un rasgo que puede evitar errores catastróficos.

Las IA siguen siendo programas informáticos, con todo lo que ello conlleva; por ejemplo, no pueden tomar decisiones por si solas, necesitan una serie de parámetros para llegar a una conclusión.

El aprendizaje automático sirve para que la propia IA consiga esos parámetros; para que aprenda que, si se tira desde una cierta altura, puede hacerse daño. Estas sesiones de aprendizaje se repiten, una y otra vez, hasta que la IA llega a la conclusión deseada; al hacerlo de esta manera, te aseguras de que el sistema hace algo porque es lo correcto, no porque se lo hayas programado.

Claro, que no todos los intentos son exitosos. Hay veces en las que el sistema decide tirarse al vacío, sin importar la altura; y no hablamos de tirarse una vez, hablamos de tirarse cientos de veces, cada una de una manera diferente. Sí, la IA aprende de estos fallos, pero implica reiniciar el proceso y perder tiempo.

Una Inteligencia Artificial con precaución a la hora de tomar decisiones

Ahora los ingenieros de Google aseguran haber creado unos algoritmos que evitan esos reinicios; un sistema que permite incorporar lo aprendido a sus normas para evitar repetir una y otra vez los mismos errores.

Para ello, crearon dos conceptos nuevos, las normas de “avance”, y las normas de “reinicio”. Estos dos algoritmos “luchan” por el control de la IA, y dependiendo cuál gane, esta tomará una decisión. Por ejemplo, si la IA está acercándose a un precipicio, el algoritmo que aconseja precaución tendrá preferencia.

Pongamos el caso de tirarse desde las alturas. Una IA que use los nuevos algoritmos se parará antes de la caída; mientras que una IA normal seguirá tirándose, una y otra vez, hasta que comprenda que, al hacerlo, entra en un estado no reversible.

La clave no está en parar el aprendizaje; sino en que la IA comprenda qué acciones no tienen recuperación; y de cuáles se puede recuperar y merece la pena arriesgarse.

Este añadido no solo puede ahorrar mucho tiempo de aprendizaje; también puede ser especialmente útil en situaciones en las que la IA no tenga suficientes referencias para tomar una decisión. Y para una IA, hasta las decisiones más sencillas son así.