El I+D de Google Glass no ha sido en vano: el Pixel lleva un pedacito de ellas

El I+D de Google Glass no ha sido en vano: el Pixel lleva un pedacito de ellas

¿Creías que las Google Glass fueron un fracaso? Para nada, pues ha fundado las bases del HDR, una tecnología clave en la fotografía móvil.

Las Google Glass, aunque no lo creas, han cambiado mucho el sector de la tecnología (en parte abriendo el mercado de los wearables). En este caso, la cámara ha hecho que el Google Pixel saque unas fotografías impresionantes.

La cámara del Google Pixel es la mejor según DxOMark, un portal web que analiza las cámaras de todos aquellos smartphones que podemos ver por el mercado. En concreto tiene una puntuación de 98 puntos. Por detrás, le sigue el HTC 10, el Samsung Galaxy S7 Edge y el Sony Xperia X Performance, todos ellos de gama premium y con precios bastante altos también.

Por el momento no han conseguido desbancar a la bestia, aunque podría cambiar pronto con el LG G6, que a pesar de montar un sensor aún inferior, puede que llegue a tomar fotografías en mejores condiciones.

¿Por qué es tan buena la cámara del Pixel?

El sensor que montan los últimos teléfonos de la gran G es un Sony IMX378.  Pero no es lo realmente importante, sino el software que usa. Se llama fotografía computacional y es una técnica de captura y de procesamiento de datos fotográficos. Ya no es solo que gracias al sensor podamos hacer un disparo rápido, sino que hace un mejor uso de tecnologías como el HDR+.

Hoy en día la gran mayoría de teléfonos ya pueden disfrutar del HDR, o de modo nativo, o mediante aplicaciones. Pero los Pixel lo llevan un paso más allá: según la propia Google es tan bueno que no es necesario desactivarlo nunca.

Las Google Glass no han existido en vano

Fotografía tomada con el Google Pixel

¿Recuerdas las Google Glass? A pesar de que se hayan quedado en el cuarto cajón de nuestra mesita de noche (por debajo de los calcetines), ha significado bastante para el mundo tecnológico, incluso en donde menos te lo esperes. Y es que Google Glass, a pesar de que no ha sido un éxito, ha fundado las bases de proyectos como GCAM, según podemos ver directamente desde el blog de X (la compañía de Google que se dedica a este tipo de cosas).

En su momento hubo un problema muy grande con la cámara de las gafas ‘vestibles’: el sensor era muy pequeño. La luz que se podía captar era poca, por lo que a no ser que fueran unas condiciones muy buenas, la fotografía en general era de mala calidad. En este momento la compañía se planteó que sería mejor optimizar el software, pues estaba claro que el hardware ya no iba a dar más de sí.

Así que, como podéis imaginar ya, el HDR es uno de los resultados de la existencia de las Google Glass, por lo que no han sido desarrolladas en vano (aunque ojo, en cualquier momento podríamos verlas de nuevo). Y ya no solo se emplea en el Google Pixel, sino que tiene multitud de usos.

  • Juan Walls

    El HDR no es una consecuencia del desarrollo de las Google Glass. El HDR existía ya desde hace muchos años. Consiste en tomar distintas exposiciones de una misma imagen para combinarlas y quedarse con las partes mejor expuestas de cada toma.
    En todo caso en lo que serían pioneras sería en la implementación de esta técnica en el procesador de imagen de la cámara.

    • Angel

      Si bien es cierto que el HDR existía esta tecnología es diferente. No es HDR es Fusión de Imágenes (Image Fusion). Con la fusión se combinan varias imágenes, pero con HDR escoges un pedazos de una imagen para las sombras y un pedazo de otra imagen para las áreas brillosas. Hay cierta similitud. Por eso al redactar para el publico en general se utiliza el termino HDR porque es más conocido y fácil de entender. Ambas tecnicas son utiles.