Jueves 25 de Abril de 2024 | San Luis Potosí, S.L.P.
tecnologia

¿Por qué Google jura que la cámara del Pixel 4 es tan buena?

Agencia | 17/10/2019 | 01:04

Cuando Google presentó las nuevas cámaras integradas en sus flamantes teléfonos Pixel 4 el martes 15 de octubre, la empresa presumió la fotografía computacional que hacen que las fotos tomadas por el teléfono sean mejores que nunca. Esto aplica en las imágenes tomadas en condiciones de poca luz con Night Shift, hasta mejoras en las herramientas de retrato que identifican y distinguen entre cabello y el pelaje de las mascotas. Puedes incluso tomar fotos de las estrellas. Lo que hace todo esto posible es una tecnología llamada fotografía computacional, que mejora de manera inmensurable las fotos, ayudando a que tu teléfono este a la par que las cámaras caras y, a veces, hasta a superarlas.

 

Pero Google no es la única empresa que está haciendo esto. El jefe de mercadotecnia de Apple, Phil Schiller, detalló las nuevas capacidades de su cámara en septiembre, calificando la fotografía computacional como una "ciencia loca". 

 

Pero, ¿qué es exactamente esta fotografía computacional?

 

En resumen, es un procesamiento digital para sacar más del hardware de tu cámara y así, por ejemplo, mejorar el color y la iluminación al extraer detalles de la oscuridad. Y esto es muy importante teniendo en cuenta las limitaciones de los pequeños sensores de imagen y lentes integrados en nuestros teléfonos, y el papel clave que juegan las cámaras en nuestras vidas.

 

Por ejemplo, los modos Night Mode de Apple y Night Shift de Google, que extraen las capturas brillantes y detalladas de condiciones con poca luz, es el trabajo de la fotografía computacional. Y esta tecnología está apareciendo en todas partes, hasta en las cámaras digitales de Phase One de US$57,000.

 

 

Primeros pasos: HDR y panoramas

Una de las primeras ventajas de la fotografía computacional se llama HDR o alto rango dinámico. Los sensores pequeños no son muy sensibles, por lo que se le dificulta captar áreas brillantes y opacas en un escenario. Pero, al tomar dos o más fotos en distintos niveles de brillo y luego fusionar estas capturas en una sola foto, una cámara digital se puede aproximar a un rango dinámico mucho más alto. En resumen, puedes ver más detalles tanto en las áreas brillantes como en las regiones oscuras. 

 

Sin embargo, hay desventajas. A veces las imágenes captadas en HDR se ven artificiales. Sin embargo, los mejores algoritmos en nuestros teléfonos han mejorado desde que Apple introdujo HDR en el iPhone 4 en 2010. HDR es ahora el modo predeterminado en la mayoría de las cámaras de teléfonos. 

 

Google llevó el HDR a otro nivel con su aproximación conocida como HDR Plus. En lugar de combinar fotos tomadas en exposición oscura, ordinaria y brillante, este modo capta un mayor número de enmarques oscuros y de baja exposición. Al sumar estas capturas se puede llegar a la exposición correcta. Sin embargo, este método hacía un mejor trabajo en áreas brillantes, por lo que el cielo azul se ve azul en lugar de deslavado. 

 

En 2018, Apple adoptó esta idea en forma del Smart HDR en el iPhone XS. 

 

La unión de panoramas es también una especie de fotografía computacional. Al unir una colección de tomas captadas de lado a lado permite que tu teléfono construya una imagen inmersiva y muy amplia. 

 

Ver en 3D

 

Otra gran técnica de fotografía computacional es ver en 3D. Apple usa cámaras dobles para ver el mundo en estéreo, tal y como tú puedes hacerlo porque tus ojos están separados por unas cuantas pulgadas de distancia. Google, con solamente una sola cámara principal en el Pixel 3, ha usado los trucos de su sensor de imagen y algoritmos de inteligencia artificial para determinar cuán lejos están los elementos de un escenario. 

 

La mayor ventaja de esto es el modo retrato, el efecto que muestra a un sujeto enfocado nítidamente pero deja el fondo borroso. Lo que se conoce como el efecto bokeh.

 

Los teléfonos transforman los datos 3D en lo que se conoce como un mapa de profundidad, una versión de la escena que sabe cuán lejos se encuentra de la cámara cada pixel en la foto. Los pixeles que son parte del sujeto y están cerca se mantienen nítidos, pero los pixeles que se encuentran en le fondo se desdibujan y quedan borrosos.

 

 

Visión nocturna

 

Un resultado secundario de HDR Plus fue Night Sight, que llegó en los Google Pixel 3 en 2018. Utilizó la misma tecnología, o sea que seleccionaba una imagen maestra y luego le añadía otros encuadres para que diera como resultado una toma con exposición brillante. 

 

Apple le siguió los pasos en 2019 con el Night Mode en el iPhone 11 y iPhone 11 Pro.

 

Estos modos solucionan una gran desventaja de las fotografía con teléfonos: las fotos borrosas y oscuras que se toman en bares, restaurantes, fiestas y en interiores donde la luz es escasa. En la fotografía del mundo real, no puedes siempre contar con la luz solar todo el tiempo. 

 

Los modos de noche también abrieron nuevos caminos para expresión creativa, para fotos de ciudades con luces de neón, por ejemplo. Night Mode puede hasta captar las estrellas. 

 

La superresolución

 

Un área donde Google estaba rezagado respecto a los teléfonos de Apple fue en el zoom de sujetos distantes. Apple tenía una cámara adicional con una longitud focal más larga. Pero Google utilizó un par de trucos de fotografía computacional para compensar la desventaja. 

 

El primer truco se llama superresolución. Se basa en las mejoras fundamentales al proceso central de la cámara digital que se conoce como demosaicing o interpolación cromática. Cuando tu cámara toma una foto, capta datos solo en rojo, verde o azul para cada pixel. La interpolación cromática se encarga de llenar los datos faltantes de color para que cada pixel tenga los valores para cada uno de los tres componentes de color. 

 

El Pixel 3 de Google se basó en el hecho de que tus manos se mueven un poco a la hora de tomar una foto. Esto le permite a la cámara determinar los verdaderos datos de rojo, verde y azul para cada elemento de la escena sin tener que hacer interpolación cromática. Y esto significa que los teléfonos de Google pueden hacer zoom en las fotos de una mejor manera que los métodos acostumbrados. Google denomina esto Super Res Zoom. 

 

Además de esta técnica de superresolución, Google añadió una tecnología llamada RAISR para sacar aún más calidad de imagen. En este caso, las computadoras de Google examinaron un sinnúmero de fotos para entrenar a su modelo de inteligencia artificial sobre qué detalles se emparejan a las características ásperas. En otras palabras, está usando patrones detectados en otras fotos para que el software pueda hacer aun más zoom de lo que podría realizar una cámara de manera física. 

 

Deep Fusion del iPhone

 

Deep Fusion llegó con los iPhone 11, constituyendo una variación más sofisticada del mismo método de varias fotos en condiciones de poca y mediana luz. Toma cuatro pares de imágenes (cuatro exposiciones largas y cuatro cortas) y luego otra toma en una exposición más larga. Busca la mejor combinación, analiza las tomas y determina cuál es el sujeto que se debe optimizar; luego une los distintos encuadres. 

 

En qué se queda corta la fotografía computacional

 

La fotografía computacional es útil, pero las limitaciones de hardware y las leyes de la física aún son importantes en la fotografía. Unir tomas para formar panoramas y hacer zoom digital está bien, pero los teléfonos con cámaras tienen un mejor fundamento en la fotografía computacional.

 

Y esa es una de las razones por las que Apple añadió cámar}as ultraangulares a los iPhone 11 y 11 Pro este año y el Pixel 4 tiene un nuevo lente telefoto. Y también es la razón por la cual el Huawei P30 Pro y el Oppo Reno 10X Zoom tienen lentes telefoto "periscopio" 5X.