Omicrono, la tecnología de El Español

El nuevo chip de Google es capaz de sustituir varios servidores, y lo mejor es que lo consigue con una gran relación rendimiento/vatio.

¿Alguna vez que has sentido que tu ordenador se quedaba corto de potencia? Tal vez te has dado cuenta de que no podías abrir tantos programas, o que todo tardaba demasiado en terminar.

A Google le pasó lo mismo hace seis años, cuando desarrolló una nueva funcionalidad de reconocimiento de voz en su sistema Android. Una funcionalidad que se enfrentaba a Siri, pero que simplemente era demasiado costosa.

Google necesita demasiada potencia

De repente, Google se dio cuenta de que necesitaba potencia. Mucha potencia. Demasiada potencia. El reconocimiento de voz era increíblemente costoso en términos de computación; los cálculos no le salían.

Si cada móvil Android del planeta hacía una búsqueda por voz durante sólo tres minutos, Google necesitaría el doble de servidores para cubrir la demanda.

Las culpables no eran otras que sus redes neuronales, que usaban el aprendizaje automático para analizar ingentes cantidades de datos y llegar a una conclusión. Todo para que el usuario recibiese la respuesta en su móvil en unos segundos; sorprendente, pero costoso como hemos dicho.

La solución de Google ante este problema no fue instalar el doble de servidores. Fue desarrollar su propio chip, diseñado especialmente para ejecutar código de Inteligencia Artificial y aprendizaje automático.

TPU, el nuevo chip de Google

Así nació el Tensor Processing Unit, o TPU, el chip de Google que responde cuando le hablas a tu móvil. Aunque su existencia ya era conocida, ahora que se ha publicado un estudio sobre su creación podemos saber algo más.

Por ejemplo, que Google usa el chip exclusivamente para ejecutar redes neuronales; este es un detalle importante, porque el chip no es usado para el aprendizaje automático, para el proceso de entrenamiento de la red neuronal.

Así de específico es el uso del TPU; en otras palabras, un chip que funcionase sólo para una cosa, pero que la hiciese muy bien. Para los 70 ingenieros detrás del proyecto, era lo único que tenía sentido desde el punto de vista de la eficiencia.

Llevábamos varias generaciones en las que los chips tenían que servir para todo; estaban diseñados para ejecutar todo tipo de código. Hoy en día, eso ya no sirve; las empresas que desarrollan IA necesitan chips muy especializados. Incluso han quedado atrás los días en los que estas empresas usaban chips gráficos para este tipo de código.

Y cuando eres del tamaño de Google, incluso te puedes permitir fabricar tu propio chip desde cero. Gracias a eso, el TPU tiene una relación de rendimiento por vatio entre 30 y 80 veces superior a la de procesadores normales. Incluso comparado con chips fabricados con las mismas técnicas, el TPU es entre 15 y 30 veces más rápido.

¿Fue esta la decisión correcta, invertir tanto dinero en un chip que sólo será usado para un tipo de proyecto? Pues Google ya lleva dos años usando TPU, en todo tipo de estudios, aplicaciones y servicios; desde la traducción entre idiomas, hasta la IA que venció al mejor jugador de go del mundo.

Te puede interesar
4 de 15