Quiero tomar las fotos como quiero, pero la cámara de mi teléfono es tan inteligente que no me deja
La cámara de mi móvil es demasiado inteligente. Cuando tomo una foto, el resultado no es exactamente lo que estaba buscando. Es mejor. O tal vez no.
Nuestros smartphones han evolucionado en muchos frentes, pero está claro que los sensores, y en especial la fotografía computacional, han conseguido resultados excepcionales Sin embargo, pueden plantear un problema: no reflejan la realidad como queríamos que fuera.
Para nuestro móvil, “cada foto es un problema a resolver”
El fotógrafo de bellas artes Grergor Gentert usa su iPhone de última generación para tomar todo tipo de fotos, pero descubrió que los resultados están empezando a no ser lo que esperaba. Este usuario compartió sus experiencias con la cámara de su iPhone con otros fotógrafos avanzados en el neoyorquinoy todos coincidieron en que algo extraño.
«He estado tratando de tomar fotos con el iPhone cuando la luz se vuelve más azul al final del día, pero el iPhone intenta corregir algo así«Ciertos tonos que existen en el cielo se editan y procesan y finalmente se eliminan porque el tono, sea cual sea, es inaceptable para los algoritmos de fotografía computacional de Apple. Como dijo Gentert:
«El iPhone ve las cosas que estoy tratando de fotografiar como un problema que debe resolverse».
Es una buena forma de entender cómo son las cámaras de los iPhone y de cualquier smartphone actual. En su obsesión por brindar al usuario la mejor experiencia posible, estas cámaras terminaron realizando una serie de tareas de posprocesamiento, todas encaminadas a una cosa: Así que no tienes que preocuparte por nada más que disparar.
Es la última expresión en una línea de cámaras compactas de «apuntar y disparar» que prosperaron antes de la llegada de los teléfonos inteligentes porque ofrecían esa experiencia fotográfica. perfecto para los que no quieren complicarse la vida.
Esta filosofía se ha llevado al extremo en los smartphones actuales. Los fabricantes a menudo integran Sensores con resoluciones gigantes que luego toman fotos con una resolución más baja gracias al agrupamiento de píxeles.
Tanto en iPhones como en teléfonos Android sucede que elegir la relación de aspecto 16:9 para las fotos Lo que hace el teléfono en realidad es tomar la foto en 4:3 como de costumbre. y luego cortarlo directamente sin decirte nada. Y si la quieres en 1:1, enseguida: La foto se toma en 4:3 y luego se recorta para que el resultado sea el deseado.
Por no hablar de la magia de los modos HDR que lo hacen posible Capturando la luz y la oscuridad. en la misma foto con una precisión espectacular, o los métodos que usa Google, por ejemplo, para hacer zoom al combinar varias fotos RAW para entregar el resultado final.
El píxel de Google fueron pioneros en ello: Con Pixel 4 y 4 XL hemos visto un gran avance en la fotografía computarizada, brindándonos acceso a cosas como el modo Live HDR+ o los impresionantes modos de astrofotografía. La cosa ha seguido con el Pixel 6 y su borrador mágico, o su modo movimiento, y la aplicación de los modos retrato y bokeh artificial, que tanto nos gustan, ha conquistado tanto las fotos normales como los vídeos «modo cine», que ya ofrecen ambos. nuevos iPhone y otros celulares en el mercado.
La cosa se va a límites que rozan el absurdo, porque así lo deciden los fabricantes Mejoras en el rendimiento del chip móvil Céntrate en la inteligencia artificial y los algoritmos de aprendizaje profundo que hacen funcionar la «magia» de las cámaras de nuestros móviles. Google Tensor y Marisilicon X de OPPO están diseñados para esto.
Apple también lo tiene claro: hace unos años compraron Spectral Edge para potenciar su fotografía computacional. Durante años, la empresa ha aprovechado el poder del aprendizaje automático no solo para resolver ajustes de balance de blancos, colorimetría o exposición en tiempo real, sino también para afinar la luz o reconocer rostros lo que fotografiamos
Cuando tomamos fotos con nuestros teléfonos celulares, No tomamos una foto, sino varias que se combinan para llegar al resultado final. Apple tiene su tecnología de fusión profunda y Google, al igual que otros fabricantes de teléfonos Android, ha estado haciendo lo mismo durante mucho tiempo. La tecnología funciona de forma natural y nos permite capturar detalles que las cámaras del pasado (ya sean móviles o no) no podían captar.
Este algoritmo roba mi foto
El problema es que en este procesamiento se pueden perder cosas que en realidad queríamos reflejar y que los algoritmos nos «roban». Ciertos tonos del cielo, ciertos detalles de un objeto por ejemplo. Ni hablar cuando suceden cosas grotescas, como aquella cuya cara se veía como una hoja por la cámara del iPhone –o mejor dicho, los algoritmos.
Este rompecabezas de cara de hoja se ha apoderado del mundo en el último día y @mitchcohen tuvo la amabilidad de cumplir con mi solicitud de analizar los archivos a fondo para ver qué podría haber sucedido. ¿La IA salió mal? ¿Censura? ¿Es esto la cadena de bloques en el trabajo? https://t.co/uheHdAsdl3
– Sebastián de Con (@sdw) 31 de diciembre de 2021
Los responsables de la aplicación de fotos Lux para iPhone se quejaron precisamente de cómo se habían convertido las cámaras de los iPhone 13 Demasiado inteligente en tiempos recientes.
en uno fantastico y profundo analisis descubrió que los usuarios a menudo tenían la opción de acceder a fotos menos «hiperrealistas» es cambiar al modo de grabación RAW para eludir los algoritmos de iOS.
Parece una buena opción. para todos los que buscan la toma «sin adulterar» de las fotos que toman nuestros celulares. Los fabricantes de Android también lo permiten en algunos teléfonos y, por supuesto, es una forma de evitar el procesamiento posterior.
Sin embargo, a veces estas imágenes RAW también se manipulan, y una queja común entre los usuarios del formato ProRaw de Apple es que «lava» la imagen para eliminar el ruido. Por lo tanto, incluso los formatos RAW nativos de los fabricantes pueden no ser suficientes y, afortunadamente, existen aplicaciones de terceros para obtener RAW puro.
Esto tiene sus consecuencias, porque los sensores de nuestros móviles llegan lo más lejos posible: ahí es donde se hace sentir el poder de estos algoritmos, y donde para muchos el fin justifica los medios.
La tecnología de las cámaras puede pasar por alto y excluir a las personas de color.
Estamos comprometidos a revertir este sesgo. #TonoReal en #pixel6. Hemos trabajado con creadores de imágenes expertos ?????? para mejorar nuestros ? algoritmos para que las personas de color puedan retratarse con belleza y precisión.#Pixel6Lanzamiento pic.twitter.com/W6LLW2LhjY
— Hecho por Google (@madebygoogle) 19 de octubre de 2021
Los fabricantes lo saben y cada uno tiene su propia interpretacion La realidad de la fotografía. Lo vemos en la forma en que se representan los tonos de piel, por ejemplo: Google realmente ha pulido el tratamiento de la piel negra del Pixel 6.
Es solo un ejemplo de cómo entiende la fotografía cada fabricante. Esto se nota en tomas más o menos luminosas con ciertos tonos dominantes. o con cierta saturación lo que puede no tener mucho que ver con la escena real, pero definitivamente hace que la foto se vea más viva y alegre.
Afortunadamente, los usuarios siempre podemos editar esta foto para adaptarla a lo que queramos, pero lo cierto es que las cámaras se han vuelto especialmente inteligentes. Dados los resultados, no parece una mala idea.Estamos tomando más y mejores fotos y videos que nunca– pero es importante tener en cuenta que la imagen capturada puede no reflejar con precisión lo que pretendíamos capturar.