Comprensión de la tecnología de cambio de sensor para imágenes de alta resolución

Tabla de contenido:

Anonim

Bahía de Georgia - Paisaje de verano

Cambiar la forma en que se toman las fotografías

En los últimos años, varios fabricantes han producido cámaras que son capaces de producir imágenes de mayor resolución a través de algo llamado Sensor-Shift Technology. Esta tecnología ha sido posible con la llegada de la estabilización de imagen corporal (IBIS). Los diseñadores de cámaras han utilizado el IBIS como una forma de obtener incrementos increíbles en la resolución de la imagen o para mejorar la información de color de las imágenes que se toman.

Hay varios nombres para esta tecnología, incluido el modo de alta resolución, el sistema de resolución de desplazamiento de píxeles, el modo de disparo múltiple con desplazamiento de píxeles o los nombres más genéricos de desplazamiento de píxeles / desplazamiento de sensor, pero al final, los conceptos detrás de esta tecnología son todos lo mismo. Se toman varias imágenes de la misma vista de tal manera que las imágenes se apilan y combinan para crear una imagen única, generalmente grande y de alta resolución.

Hay fortalezas y debilidades de esta nueva tecnología y comprender cómo funciona puede ayudarlo a obtener mejores imágenes si tiene una cámara que es capaz de hacer esto.

NOTA: Debido a que los sitios web utilizan imágenes de menor resolución, las imágenes utilizadas en este artículo se han reducido y modificado para simular las diferencias entre las imágenes de alta resolución y la salida estándar de las cámaras. Al mirar las imágenes en su totalidad, las imágenes se ven similares pero cuando te acercas a los detalles en las imágenes es cuando empiezas a ver las diferencias.

Gerbera en interiores, resolución regular (20 MP) Olympus OMD EM 1 Mark II

Gerbera en interiores, alta resolución (50MP) Olympus OMD EM 1 Mark II

Muchos enfoques para las imágenes de cambio de sensor

La captura de imágenes por cambio de sensor se ha transformado de costosas cámaras especializadas a convertirse en una característica cada vez más disponible en las cámaras más nuevas orientadas a la resolución. En la actualidad, además del monstruo H6D-400c de Hasselblad (imágenes de 400 megapíxeles), hay ofertas de Olympus, Pentax, Sony y Panasonic.

Estas versiones generalmente utilizan el mismo enfoque conceptual pero a precios mucho más accesibles.

Movimiento de cambio de sensor

¿Quién usa Sensor-Shift?

Independientemente del fabricante, la acción básica de la captura de imágenes por cambio de sensor sigue siendo la misma. Tome varias imágenes, pero mueva ligeramente el sensor de la cámara para cada imagen para capturar más datos de imagen y luego junte la imagen.

Al mover el sensor, los datos de color de la imagen mejoran, lo que permite resolver más detalles al superar los problemas inherentes con los fotositos de colores específicos. Ignorando Hasselblad, los sistemas que utilizan esta tecnología incluyen cámaras como la Olympus OM-D E-M1 Mark II (Micro Four Thirds), Pentax K-1 Mark II DSLR, Sony a7R III y Panasonic Lumix DC-G9 (Micro Four Thirds) aunque hay otros de los mismos fabricantes.

Tres de estas líneas son cámaras sin espejo y la Pentax es una cámara réflex digital con sensor de recorte. Es interesante notar que las cámaras Panasonic / Olympus adoptan un enfoque y Pentax / Sony adoptan un enfoque diferente para los mismos conceptos.

Los sistemas Olympus / Panasonic utilizan un enfoque que genera imágenes de alta resolución muy grandes, mientras que los sistemas Pentax y Sony utilizan el cambio de sensor para mejorar la información de color de imágenes del mismo tamaño. Tanto los sistemas Pentax como Sony también permiten la separación de las imágenes individuales desplazadas por el sensor, mientras que Olympus y Panasonic combinan las imágenes apiladas en una sola fotografía.

Olympus OMD EM5 Mark II tiene la tecnología de cambio de sensor.

¿Cómo funciona la tecnología de sensores?

Para comprender cómo funciona la tecnología de cambio de sensor, también debe comprender cómo funciona un sensor en general a una escala muy pequeña. En los buenos tiempos de la fotografía de películas, las cámaras usaban películas sensibles a la luz para grabar imágenes. Las cámaras digitales utilizan un enfoque muy diferente para grabar la luz.

Las cámaras digitales utilizan fotodiodos sensibles a la luz para registrar la luz que incide en el sensor. En la mayoría de las cámaras digitales, cada fotodiodo tiene un filtro de color específico (rojo, verde o azul), que forma un fotosito. Estos fotositos están dispuestos para permitir que la luz se mezcle para ver el color de la imagen que llega al sensor.

Los fotositos rojo, verde y azul de un sensor generalmente están dispuestos en un patrón específico conocido como matriz de Bayer (también conocida como matriz de Bayer, filtro). También hay otras configuraciones como el sensor Fuji X-Trans (usado en varios de sus modelos de cámara) o Sigma que usa un sensor Foveon.

Con un arreglo de Bayer, hay el doble de fotositos verdes que rojos o azules porque la visión humana está más en sintonía con la resolución de detalles en verde. Esta disposición generalmente funciona bien, pero si lo piensa bien, en una imagen, se crea un píxel de color al combinar estos fotositos.

El sensor no sabe cuánto rojo hay en una ubicación de sensor verde o en una ubicación de sensor azul, por lo que se requiere interpolación. Esto puede crear algunos artefactos en las fotografías si se mira muy de cerca y tiende a significar que las imágenes RAW tienen un enfoque ligeramente suave. Todas las imágenes RAW necesitan algo de nitidez en el posprocesamiento (el verde, el rojo y el azul de un píxel se mezclan).

Patrón de fotositos de Bayer

Sensores estáticos

En una cámara normal sin IBIS, cada fotosito solo registra la luz de un color en ese punto, por lo que los datos que registra son técnicamente incompletos. Es como un cubo que solo recoge la luz de un color en particular. Se utiliza un grupo de cubos de luz en el patrón de Bayer para crear un solo píxel en la imagen digital, pero dentro de ese píxel, hay dos cubos verdes, uno azul y otro rojo.

Para fusionar la imagen y poner un solo color en ese píxel, las señales del grupo de fotodiodos se resuelven juntas. Los datos recopilados se interpolan a través de un algoritmo de eliminación de mosaicos, ya sea en la cámara (jpeg.webp) o en una computadora (a partir de una imagen RAW), un proceso que asigna valores para los tres colores para cada fotosito en función de los valores colectivos registrados por los fotositos vecinos. .

Los colores resultantes se generan como una cuadrícula de píxeles y se crea una fotografía digital. Esta es, en parte, la razón por la que las imágenes RAW tienen un enfoque ligeramente más suave y deben afinarse en el flujo de trabajo de posproducción.

Sensores en movimiento

IBIS significa que los sensores ahora se mueven ligeramente para ajustarse a los movimientos sutiles de una cámara para mantener la imagen estable. Algunos fabricantes afirman que sus sistemas son capaces de estabilizar la combinación de sensor y / o lente por un equivalente de 6.5 pasos.

Mover el sensor permite que todos los fotositos en color registren los datos de cada ubicación en el sensor.

Esta estabilización se logra mediante microajustes de la posición del sensor. Para las imágenes de cambio de sensor, esos mismos micro ajustes se utilizan para que cada fotosito esté expuesto a la luz de la grabación de una sola imagen. En esencia, el sensor se mueve no para ajustar las perturbaciones externas, sino para que cada parte de una imagen contenga información a todo color.

Fotositos en lugar de píxeles

Es posible que haya notado el término fotositos en lugar de píxeles. Las cámaras a menudo se clasifican por sus megapíxeles como una medida de su poder de resolución, pero esto es confuso porque las cámaras en realidad no tienen píxeles, solo fotositos.

Los píxeles están en la imagen producida cuando se procesan los datos del sensor. Incluso el término "desplazamiento de píxeles", que se utiliza a veces, es engañoso. Los píxeles no se mueven, son los sensores que tienen fotositos los que se mueven.

En la captura de una sola imagen, cada fotosito registra datos de luz roja, verde o azul. Estos datos son interpolados por una computadora para que cada píxel de la fotografía digital resultante tenga un valor para los tres colores.

Sensores de cambio

Las cámaras de cambio de sensor intentan reducir la dependencia de la interpolación al capturar datos de color para rojo, verde y azul para cada píxel resultante moviendo físicamente el sensor de la cámara. Considere un cuadrado de 2 × 2 píxeles tomado de una fotografía digital.

La captura digital convencional usando una matriz de Bayer registrará datos de cuatro fotositos: dos verdes, uno azul y uno rojo. Técnicamente, eso significa que faltan datos para la luz azul y roja en los fotositos verdes, datos verdes y rojos en los fotositos azules y azul y verde en los fotositos rojos. Para solucionar este problema, los valores de color que faltan para cada sitio se determinarán durante el proceso de interpolación.

Pero, ¿y si no tuvieras que adivinar? ¿Qué pasaría si pudiera tener el color real (rojo, azul y verde) para cada sitio de fotos? Este es el concepto detrás de la tecnología de cambio de sensor.

Una imagen de resolución normal.

Bucear más profundo

Considere un cuadrado de 2 × 2 píxeles en una fotografía digital que se crea utilizando tecnología de desplazamiento de píxeles. La primera foto comienza normalmente con los datos registrados de los cuatro fotositios. Sin embargo, ahora la cámara cambia el sensor para mover los fotositos y vuelve a tomar la misma foto pero con un fotosito diferente.

Repite este proceso para que todos los fotitos tengan toda la luz para cada punto exacto del sensor. Durante este proceso, se han adquirido datos de luz de cuatro fotositos (dos verdes, uno rojo, uno azul) para cada píxel, lo que da como resultado mejores valores de color para cada ubicación y menos necesidad de interpolación (suposición educada).

Una imagen de alta resolución con el mismo ISO, apertura y velocidad de obturación.

El enfoque de Sony y Pentax

El modo de disparo múltiple Pixel Shift de Sony y el sistema de resolución de cambio de píxeles de Pentax funcionan de esta manera. Es importante tener en cuenta que el uso de estos modos no aumenta el número total de píxeles en su imagen final. Las dimensiones de los archivos resultantes siguen siendo las mismas, pero se mejoran la precisión y los detalles del color.

Sony y Pentax toman cuatro imágenes movidas un fotosito completo por imagen para crear una sola imagen. Realmente se trata simplemente de mejorar la información de color de la imagen.

El enfoque de Olympus y Panasonic

El modo de alta resolución de las cámaras Panasonic y Olympus, que utilizan sensores Micro Four Thirds, adopta un enfoque un poco más matizado, combinando ocho exposiciones tomadas con ½ píxel entre sí. A diferencia de Sony y Pentax, esto aumenta significativamente la cantidad de píxeles en la imagen resultante.

Con un sensor de 20 megapíxeles, obtienes una imagen RAW de 50 a 80 megapíxeles. Solo hay una imagen única sin posibilidad de acceder a las imágenes individuales de una secuencia.

¿Cuáles son las ventajas de utilizar Sensor-Shift?

El uso de la tecnología de cambio de sensor tiene varias ventajas. Al tomar varias imágenes, conocer la información de color para cada ubicación de fotositio y aumentar la resolución, logra tres cosas principales. Disminuye el ruido, reduce el efecto muaré y aumenta la resolución general de las imágenes.

Ruido y resolución mejorada

Al tomar varias imágenes con un cambio sutil en la posición del sensor, la resolución de la imagen aumenta, pero también lo hace la información de color en las imágenes. Esto permite que las imágenes similares permitan una mayor profundización en la imagen con colores más suaves, menos ruido y mejores detalles.

Una imagen de resolución normal.

Una imagen de alta resolución.

Recortada ajustada a la imagen de resolución normal, comienza a ver ruido como granulado y variación de color.

Aquí está el mismo recorte en la versión de alta resolución, el color y el detalle son mejores con menos ruido.

Menos muaré

El muaré es la aparición de patrones de ruido o artefactos que aparecen en imágenes con patrones regulares ajustados. Los sensores más nuevos tienden a tener menos problemas con Moire que en el pasado, pero aún aparecerá en algunas imágenes.

La causa del muaré tiende a estar relacionada con los patrones ajustados que se están grabando y la cámara tiene problemas para resolver el patrón porque tiene problemas con los patrones del fotosito del sensor. La información de color para los sitios de fotos rojo, verde y azul tiene problemas con los bordes en estos patrones ajustados porque no se registra todo el color para una sola ubicación.

Con el cambio de sensor, todo el color de cada ubicación está ahí, por lo que el muaré tiende a desaparecer.

Imagen de resolución normal.

Imagen de alta resolución con el área de recorte resaltada

El área recortada en la imagen de resolución estándar: comienza a aparecer ruido (los arañazos en el papel estaban allí antes).

La imagen de mayor resolución tiene menos ruido y más detalles.

Entonces, ¿por qué no usar esto para cada imagen?

Bueno, la razón principal es que debes tomar varias imágenes de una sola escena. Esto significa que esto realmente no funciona bien para sujetos en movimiento. El proceso requiere, como mínimo, cuatro veces el tiempo de exposición de la captura de una sola imagen. Esto se traduce en cuatro oportunidades para que una parte de su composición y / o su cámara se muevan durante la captura de imágenes, degradando la calidad de la imagen.

Tales limitaciones limitan la aplicación de la tecnología a la fotografía de naturaleza muerta y paisajes (estáticos). Cualquier movimiento en la escena que se está capturando creará un área borrosa o pixelada. Este es un problema para la fotografía de paisajes si hay un viento que mueve plantas o nubes, así como áreas donde hay agua corriente.

Esto también significa que, por lo general, debe ser muy estable y usar un trípode, aunque hay algunas intenciones claras por parte de los fabricantes de poner a disposición versiones que permitan disparar la cámara a mano (Pentax tiene esta característica).

Imagen de alta resolución tomada en un trípode.

Los artefactos de movimiento son visibles cuando se ven más de cerca.

Peculiaridades de algunos de los sistemas

Como la tecnología de cambio de sensor se ha implementado de diferentes maneras y dependiendo del sistema utilizado, los problemas son un poco diferentes. La principal peculiaridad es que generalmente necesitas un trípode, por lo que no corres ni disparas.

El sistema Sony tiene otras limitaciones: no puede ver la imagen hasta que procesa las cuatro imágenes separadas juntas. Esto significa que no puede revisar su imagen resuelta en la cámara. Además, debido al alto número de píxeles en el A7R mark III, cualquier movimiento sutil del trípode es particularmente notable en la imagen resultante. Para editar las imágenes, también debe utilizar el software patentado de Sony para fusionar las imágenes.

Pentax tiene algunas características interesantes. El uso de la aplicación de software que viene con la cámara permite abordar el movimiento mediante el uso de un algoritmo dentro del software para eliminar artefactos de movimiento. Esto funciona mejor que el software comúnmente utilizado para la manipulación de imágenes como Adobe.

El sistema Olympus ha existido por un tiempo y en la versión más reciente de la Olympus OMD EM1 Mark II, cualquier movimiento detectado hará que los píxeles afectados se reemplacen con partes de una de las imágenes de resolución regular en áreas de movimiento. Esto crea una resolución desigual pero hace que la imagen se vea mejor para cosas como el viento. También tiene limitaciones, especialmente si hay mucho movimiento. A menudo, las imágenes se ven un poco pixeladas.

Imagen de resolución estándar de un árbol: todo es nítido.

Una imagen de alta resolución del mismo árbol pero hacía viento… El área recortada se muestra en el cuadro amarillo.

Se expandió el área recortada: el movimiento del viento generó algunos artefactos en la imagen.

Limitaciones

El mayor desafío al que se enfrenta la captura de imágenes por cambio de sensor son los sujetos en movimiento. Además, intentar emparejar una luz estroboscópica con una cámara mediante la captura de imágenes con desplazamiento de píxeles puede complicarse por la velocidad de captura de imágenes, las limitaciones de reciclaje del flash y los problemas generales de compatibilidad. Los fabricantes son conscientes de estos problemas y están trabajando para resolverlos.

En general, la tecnología solo mejorará

Cada vez más sistemas utilizan algoritmos para producir estas imágenes de mayor resolución. A medida que la tecnología madura, las implementaciones obtendrán mejores y mejores resultados, potencialmente capaces de lidiar con condiciones de movimiento y portátiles.

La ventaja para los fabricantes es que se producen imágenes de mejor calidad sin la necesidad de sensores de alta densidad de píxeles realmente caros (más baratos). Las ventajas para el usuario son que las imágenes pueden tener mejor información de ruido y color para obtener mejores resultados finales.

¡Feliz búsqueda de esa imagen perfecta de alta resolución!