No hace falta ser físico de partículas para hacer una foto, pero te recomiendo que leas esta información para tener una idea básica de cómo funciona el sensor de una cámara digital, sus limitaciones y los parámetros con los que juega un fotógrafo para sacar partido de la cámara.

 

Sensor de una cámara digital
Zach Dischner (CC BY 2.0)

 

Índice rápido de contenidos:

 

Funcionamiento del sensor

El sensor de una cámara digital es una auténtica obra de ingeniería. Está formado por millones de celdas fotosensibles, cada una de ellas de tamaño microscópico:

Cómo funciona el sensor de una cámara digital

Piensa que cuando nos hablan de megapíxels se corresponde con los millones de píxels (celdas) que forman parte del sensor de nuestra cámara. Por ejemplo una cámara con un sensor APS-C (aprox. 23 x 15 mm) de 20Mpx tiene 12 millones de celdas fotosensibles con un tamaño de unos 4 micrómetros (1 micrómetro es la milésima parte de 1 milímetro)

Cuando tomamos una foto, cada píxel del sensor analiza la luz que le llega: una pequeñísima parte de la imagen de la escena que queremos fotografiar.

Funcionamiento del sensor de una cámara digital

Cada celda incluye un fotodiodo que convierte la luz en electricidad. Además incluye la electrónica necesaria para que cada elemento funcione de forma independiente y para poder leer la información de cada píxel cada vez que hacemos una foto. En la mayoría de los sensores actuales, cada celda incluye además una pequeña lente individual para concentrar la luz en la superficie sensible. ¿Imaginas el tamaño de esas micro-lentes?

Las celdas sólo pueden detectar la intensidad de la luz (número de fotones a lo largo de un determinado tiempo), no el color. Los sensores incluyen filtros que descomponen la luz en tres componentes: rojo, verde y azul. En la mayoría de los sensores se utiliza un filtro o mosaico de Bayer, de tal forma que unas celdas reciben sólo la luz correspondiente a la componente roja, otras sólo la componente azul y otras sólo la componente verde. En los sensores Foveon la distribución es diferente, pero el principio de funcionamiento es el mismo.

Cada fotodiodo (elemento fotosensible de la celda) funciona como un panel solar: recibe fotones que, al interactuar con los átomos del material, generan electrones. Es decir, convierten luz en electricidad.

Estructura sensor CMOS - BSI

Actualmente la mayoría de los sensores están basados en tecnología CMOS (Complementary Metal-Oxide-Semiconductor). Sobre el material fotosensible se añade la circuitería, compuesta por capas de zonas aislantes (óxidos) y metal.

El método tradicional de fabricación consiste en hacer ‘crecer’ la circuitería hacia arriba sobre el sustrato de silicio, y sobre esta estructura electrónica se coloca el filtro de bayer y la estructura de micro-lentes. La parte electrónica ocupa una superficie muy pequeña pero incluso así, parte de la luz se refleja o se absorbe en estas capas y no llega al material fotosensible.

Los sensores BSI (Back-Side Illuminated sensor) se basan en un método de fabricación diferente: toda la circuitería y estructura CMOS va colocada en la parte inferior del material fotosensible. Es como si diéramos la vuelta al sensor y lo iluminamos por la parte de atrás, aunque el nombre posiblemente no es muy afortunado y suele llevar a confusión. En cualquier caso, esta estructura consigue una mejora apreciable de rendimiento, ya que no se pierden fotones en las capas superiores. Este método de fabricación es más caro y hasta ahora sólo se aplicaba a sensores de pequeño tamaño, pero a medida que se abaratan los costes va estando disponible en los sensores más grandes.

 

Hemos comentado que cada fotodiodo recibe una de las componentes (roja, verde o azul) pero desde el punto de vista del fotodiodo es simplemente luz (fotones), así que para los ejemplos de funcionamiento que vienen a continuación da igual si es luz blanca o filtrada. Imagina que retiramos el filtro Bayer de la parte superior y nos quedamos con una imagen en blanco y negro de la escena, donde cada celda del sensor se corresponde con un pixel de la imagen.

La celda del sensor funciona de la siguiente forma: cuando pulsamos el disparador de la cámara para hacer una foto abrimos el obturador y dejamos pasar fotones que llegan al fotodiodo. El fotodiodo los va convirtiendo en electrones, que se acumulan en un pequeño depósito (condensador). Cuando se cierra el obturador de la cámara (deja de pasar luz) cada celda del sensor tendrá un determinado nivel de electrones, en función de la cantidad de fotones que ha recibido ese trocito de la imagen.

 

Funcionamiento de un fotodiodo de cámara digital

Si una celda no tiene electrones querrá decir que no ha recibido ningún fotón (zona oscura de la imagen). Si una celda tiene su depósito lleno de electrones se corresponderá con una zona blanca de la imagen.

La electrónica de la cámara se encarga de leer una por una todas las celdas del sensor. Y a cada uno de esos niveles le asigna un valor numérico. Por ejemplo en un sensor de 8 bits se asignará un valor entre 0 (negro) y 255 (blanco). En un sensor de 12 bits habría unos 4.000 niveles distintos para cada píxel del sensor.

Finalmente el procesador de la cámara utiliza toda esa información para generar el fichero de imagen y lo guarda en la tarjeta de memoria.

Fíjate que en el ejemplo de arriba aparecen unos electrones ‘extra’ que no se han generado a partir de los fotones, sino que se han generado por otros efectos, por ejemplo debido a efectos térmicos para simplificar.

Por el momento piensa que esos electrones invitados (ruido) son poquísimos comparados con los electrones que se han generado a partir de la luz de la escena. Más adelante los tendremos en cuenta.

Vamos a imaginar ahora que la celda representa la luz media de la escena que queremos fotografiar. Las cámaras tienen dos parámetros que permiten controlar la cantidad de luz que llega al sensor: la apertura del diafragma y el tiempo de exposición.

El diafragma es como una ventana, se puede regular para que deje pasar mucha luz o poca luz. Imagina que en la escena hay mucha luz, hay muchos fotones (ejemplos a y b), y queremos obtener un determinado nivel de ‘claridad’ en nuestra foto.

Podemos cerrar más el diafragma y dejar abierto el obturador un cierto tiempo, o podemos abrir el diafragma y abrir el obturador sólo un instante. Lo importante es el número de fotones que llegan al fotodiodo.

Sensor de cámara digital y cantidad de luz

En los ejemplos c y d hay menos luz en la escena. Si queremos el mismo nivel de claridad tendremos que dejar más tiempo abierto el obturador para que lleguen los mismos fotones que antes.

Si dejamos abierto el obturador durante el tiempo suficiente (incluso si hay poquísima luz) llegará un momento en que todas las celdas estarán llenas. Correspondería a una foto totalmente quemada, totalmente blanca.

Se puede jugar con la apertura y el tiempo de exposición en diferentes combinaciones para dar el mismo resultado en lo que respecta a los niveles luminosidad de la foto. Cuando la escena tiene mucha luz o muy poca luz habrá combinaciones de diafragma y tiempo de exposición que no serán adecuadas (nos saldrían las fotos quemadas -sobreexpuestas- o muy oscuras -subexpuestas)

Imagina que queremos hacer una foto en una escena con muy poca luz. Si se trata de una escena estática podemos subir el tiempo de exposición (minutos, horas incluso) para que vayan entrando poco a poco los escasos fotones que hay en el exterior.

Sensor de cámara con poca luz

Pero si queremos fotografiar una escena en movimiento con muy poca luz tenemos un problema. Si dejamos abierto el obturador mucho tiempo la foto saldrá movida (porque la escena cambia a lo largo de ese tiempo) y si programamos un tiempo de disparo muy corto entrarán muy pocos fotones: nos quedará una foto muy oscura (subexpuesta)

Para intentar resolver estas situaciones, los fabricantes de sensores dan la opción de forzar la sensibilidad normal de las celdas. Es lo que se conoce en las cámaras como parámetro ISO. A medida que cambiamos el parámetro ISO en nuestra cámara y vamos subiendo de valor, lo que hacemos es aumentar un factor de multiplicación interno.

como_funciona_sensor_camara_digital_06

Aunque en el ejemplo hemos dibujado una única celda, el efecto multiplicador se aplica a todas las celdas a la vez. Es decir se ‘amplifica’ la luz de toda la escena, pero no por métodos ópticos sino por métodos electrónicos. Se hace un escalado de los valores de cada celda.

¿Te acuerdas de los electrones invitados que habíamos comentado más arriba?. Sí, seguro que ya sospechabas que tendrían un papel en esta historia, y es el papel de ‘malos de la película’.

En el proceso de captar una imagen aparecen varias fuentes de ruido: ruido fotónico, ruido térmico, ruido de muestreo en los convertidores analógico/digital, etc. Simplemente hay que quedarse con la idea de que se van a generar electrones que no tienen nada que ver con la información de la escena.

Cuando llegan al sensor muchos fotones, la relación entre la información y el ruido es muy alta (la cantidad de ruido es despreciable con respecto a la cantidad de señal o información). Cuando llegan pocos fotones de la escena la cantidad de ruido es proporcionalmente más grande.

¿Qué ocurre cuando forzamos la sensibilidad (ponemos un ISO alto)?. Pues que multiplicamos la información que nos llega de la escena, pero también multiplicamos el ruido. Si la proporción entre señal (información) y ruido no es despreciable, al amplificar todo (señal + ruido) estamos haciendo más visible esa proporción. A medida que subimos ISO las imágenes resultantes aparecerán cada vez más granuladas.

Ten en cuenta que subir ISO no genera ruido, el ruido ya estaba allí. Lo que hacemos al subir la sensibilidad de forma ‘artificial’ es que el ruido se hace más evidente con respecto a la información útil de la escena.

 

Tamaños de los sensores más utilizados en cámaras réflex y cámaras EVIL

Tamaño de los sensores de las cámaras réflex y EVIL

Las cámaras de gamas profesionales suelen utilizar sensores Full Frame, que tienen un tamaño similar a la película analógica (35mm).

Las cámaras de gamas de entrada e intermedia suelen incluir sensores APS-C, que tienen aproximadamente la mitad de superficie que un sensor Full Frame (el 40% aproximadamente)

Las cámaras que siguen el estándar Micro Cuatro Tercios (Micro Four Thirds) usan sensores de 17.3 x 13.8 mm, que tienen aproximadamente el 25% del área de captación de un sensor Full Frame.

 

Ruido, ISO y características del sensor

Si no hubiera ruido de ningún tipo y suponiendo características ideales del sensor y la parte óptica: la calidad de imagen estaría relacionada con la resolución del sensor. Más resolución implica más detalle en la imagen y más fidelidad con respecto a la escena real.

En el mundo real la propia naturaleza de la luz lleva asociada fluctuaciones estadísticas que se traducen en ruido: ruido fotónico (shot noise). Además la electrónica del sensor introduce ruido adicional: ruido térmico, de lectura, etc.

El ruido electrónico lo podemos ver como una especie de ruido base, que crece con la temperatura.

El ruido fotónico crece con la cantidad de fotones recibidos, pero de una forma más lenta. En concreto la cantidad de ruido está relacionada con la raíz cuadrada del total de fotones. Es decir, si cada celda recibe en media 100 fotones, el nivel de ruido será de unos 10 fotones en cada una. Si recibe 10000 fotones, el ruido medio sería de unos  100 fotones, etc.

Como el ruido siempre está presente, lo que importa realmente es la relación entre la cantidad de información (señal) y la cantidad de ruido. La relación señal a ruido se conoce como SNR (Signal to Noise Ratio).

 

Ruido en sensores fotografía - Relación señal ruido SNR

 

Una relación señal a ruido muy alta quiere decir que hay mucha señal comparada con la cantidad de ruido, en esos casos el ruido será prácticamente imperceptible y la calidad de imagen será muy buena.

A medida que baja la relación señal a ruido la calidad de la imagen irá empeorando ya que el ruido comenzará a ser percibido en la imagen: granulado. Una baja relación señal a ruido equivale a imágenes de baja calidad, en el sentido de que la imagen no es fiel a la escena real.

Teniendo en cuenta la relación entre el ruido fotónico y la cantidad total de luz, y el hecho de que el ruido electrónico sea más o menos constante, la regla básica de la fotografía digital es la siguiente: cuanta más luz recoja el sensor más alta será la relación señal a ruido global y mejor será la calidad de la imagen.

 

Tamaño de celda (densidad de pixel) y ruido

Vamos a centrarnos ahora en una única celda del sensor.

Dada una determinada intensidad de luz que llega a la celda (fotones por segundo): cuanta más superficie tenga la celda más fotones captará por unidad de tiempo.

No todos los fotones son convertidos en electrones. En sensores modernos la eficiencia cuántica (QE – Quantum Efficiency) estaría en el orden del 40-50%. Además la eficiencia cuántica depende de la longitud de onda de la luz: la luz azul tiene una eficiencia superior a la luz verde y la luz verde mayor que la luz roja.

En los sensores CMOS, los electrones generados a partir de fotones se almacenan en el depósito de la celda (condesador). A esas escalas tan pequeñas el tamaño de la celda y toda su circuitería puede limitar también la capacidad máxima del depósito.

Por ejemplo, para tener una referencia con sensores de cámaras reales:

modelo / capacidad por celda / Mpx / tamaño sensor
Sony a7S II :  160.000 electrones (12Mpx) Full Frame
Sony a7 III :  95.000 electrones (24Mpx) Full Frame
Nikon D850:  60.000 electrones (45Mpx) Full Frame
Nikon D3400: 35.000 electrones (24Mpx) APS-C
Olympus OM-D E-M1 Mark II: 34.000 electrones (20Mpx) Micro 4/3

Fuente: http://www.photonstophotos.net

 

A nivel de celda, cuanto más grande sea la superficie de captación y el depósito de electrones, más se podrá maximizar la relación señal a ruido.

Desde este punto de vista interesa tener celdas con la mayor superficie de captación posible.

Esto entra en conflicto con la resolución del sensor, ya que a mayor resolución habrá más densidad de celdas por unidad de superficie y por lo tanto menor superficie por celda.

Es decir, dado un tamaño de sensor, por ejemplo formato APS-C, cuanto mayor sea la resolución (megapixels) menor será en general el rendimiento a nivel de celda: cada pixel de la imagen tendrá en promedio más ruido con respecto a sensores con menor resolución.

Vamos a ver un ejemplo sencillo suponiendo dos sensores. Cada celda del sensor A es 4 veces más grande (área) que cada celda del sensor B.

Imagina que necesitamos tomar una foto de una escena con poca luz y con un tiempo de exposición muy limitado (situación típica en la que tenemos que subir ISO para conseguir una ‘exposición’ adecuada).

Supongamos que la celda de A recoge 4000 electrones. Como la celda B tiene un área que es el 25% de la A, recoge 1000 electrones en ese intervalo.

Ruido en el sensor - tamaño de celda / pixel density

El ruido fotónico de A será de unos 60 fotones. El de B será de unos 3o fotones. Y vamos a suponer que el ruido térmico es despreciable. La relación señal a ruido en cada celda será aproximadamente:

SNR A = 4000 / 60 = 67
SNR B = 1000 / 30 = 33

Si tenemos en cuenta el ruido térmico, etc. la diferencia sería incluso mayor.

Con ISO base esa foto saldría muy oscura (hay pocos electrones con respecto a la capacidad máxima de la celda), así que subiríamos el ISO para obtener el nivel de exposición deseado. Subir el ISO equivale a escalar el valor de cada celda (amplificar su valor) y tendríamos dos imágenes de la misma escena.

La imagen tomada con el sensor A tendría pixels con mejor relación señal a ruido, más fieles con respecto a la escena. La imagen tomada con el sensor B tendría más resolución (en ese sentido sería más fiel con respecto a los detalles de la escena) pero cada uno de sus pixels tendrían más ruido.

 

Tamaño de sensor y ruido

El tamaño de la celda (densidad de pixel si comparamos sensores del mismo tamaño) es un factor muy importante en lo que respecta al rendimiento de un sensor, pero no es el único factor.

Hemos hablado de la ‘calidad de imagen’ a nivel de celda, es decir, la relación señal a ruido nos dice que las celdas grandes representan más fielmente el nivel de brillo de la escena real en ese punto.

Pero si lo pensamos bien, lo que realmente importa es la calidad de la imagen en conjunto, como un todo, incluyendo una reproducción fiel de los tonos y también de los detalles (resolución)

Es más, lo importante es la calidad de la imagen en su soporte final: fotografía impresa, cartelería, monitor, pantalla de teléfono o tablet, etc.

Vamos a imaginar varios casos para comparar y sacar conclusiones. En todos ellos vamos a suponer que la tecnología del sensor es similar:

  • Tenemos un sensor A y un sensor B como los del ejemplo anterior. Los dos son del mismo tamaño pero diferente resolución, cada celda de A es 4 veces más grande (en superficie) que la del B
  • Tenemos dos sensores, C y D. C es el doble de grande que D (por ejemplo un sensor Full Frame con respecto a un sensor Micro 4/3). Pero D tiene mucha menos resolución y por lo tanto celdas más grandes que C.
  • Tenemos dos sensores, E y F, con la misma resolución pero tamaños diferentes. Por ejemplo imagina un sensor Full Frame de 20Mpx y un sensor Micro 4/3 de 20Mpx

 

Primer caso: si tenemos dos sensores con el mismo tamaño pero diferente resolución (A y B), ¿cuál de ellos ofrecerá mejor calidad de imagen?

Pues en general los dos van a dar un resultado similar.

Ten en cuenta que las imágenes tomadas con el sensor A y B de la misma escena se van a ver diferentes si ampliamos al 100%. En una vamos a tener puntos más gordos pero más homogéneos en cuanto a variaciones tonales debidas al ruido. En la otra vamos a tener más detalle pero más variabilidad tonal (más granulado a ese nivel de detalle)

Pero comparar las imágenes ampliadas al 100% no nos sirve de nada. Tenemos que comparar las imágenes en su soporte final. Por ejemplo podemos imprimir las dos imágenes al mismo tamaño físico o podemos comparar las dos reescaladas al tamaño de una pantalla de monitor.

Vamos a suponer simplemente que reescalamos la imagen del sensor B para que tenga la misma resolución que el sensor A. De esta forma podremos comparar en igualdad de condiciones.

¿Qué ocurre al reescalar una imagen?. Si reescalamos promediando: es decir, cogemos grupos de puntos de la imagen, promediamos su valor y los convertimos en un único punto más grande con ese valor (brillo) promedio. Lo que conseguimos es aumentar la relación señal a ruido de ese nuevo punto.

 

Sensor fotográfico. Reescalado con promediado para reducir SNR

 

Esto ocurre porque la información de la escena tiene normalmente una fuerte correlación espacial. Mientras que el ruido no tiene ninguna correlación espacial (a menos que sea algún tipo de patrón de ruido por defecto de diseño, etc.). El promediado refuerza la información y disminuye el ruido.

 

Segundo caso: Un sensor más pequeño pero con celdas más grandes, ¿ofrecerá mejor calidad de imagen que un sensor mayor con celdas más pequeñas?

En general, no. El sensor más grande tiene más superficie de captación total.

Para una determinada exposición, que se determina por unidad de área. Es decir, dada una intensidad de luz (fotones por segundo) y un determinado tiempo de exposición (segundos) el sensor grande captará más fotones, más luz.

Aunque a nivel de pixel podamos ver que el sensor pequeño recoge más fielmente los tonos de la escena, la imagen como conjunto tendrá una relación señal a ruido mejor en el sensor grande.

Y de nuevo, a la hora de reescalar para comparar o comparando la imagen en su soporte final (impresión, pantalla de monitor, etc.) la imagen del sensor grande tendrá en la mayoría de los casos una mejor calidad en lo que respecta al ruido que se percibe.

 

Tercer caso. A igualdad de resolución pero diferentes tamaños, ¿qué sensor ofrecerá una mejor calidad de imagen?

El sensor más grande ofrece más calidad. Porque tiene más superficie de captación total y porque además cada una de sus celdas es más grande.

Además, a la hora de imprimir por ejemplo: cada punto del sensor pequeño hay que escalarlo más para cubrir la misma superficie en el papel con respecto a un punto del sensor grande.

 

¿Se cumplen siempre estas ‘reglas’?

No. Son generalizaciones que tienen sentido al comparar sensores fotográficos de propósito general. Hay sensores especializados, diseñados para cubrir determinadas situaciones.

Por ejemplo los sensores de las Sony a7S están diseñados específicamente para permitirles trabajar en situaciones de poca luz, consiguen una relación señal a ruido muy buena y pueden subir mucho el valor de ISO manteniendo una calidad de imagen increíble. En estos sensores se sacrifica la resolución (12Mpx) en favor del rendimiento con poca luz, y están pensados sobre todo para vídeo.

En el otro extremo estarían los sensores con una gran resolución (40Mpx, 50Mpx…) pensados para situaciones en las que las condiciones de luz son siempre muy buenas o son controlables. Fotografía de estudio, fotografía de moda, fotografía de producto, arquitectura…

 

Qué efecto tiene el desarrollo tecnológico de los sensores

Es uno de los factores más importantes, al menos hasta la fecha.

Cada nueva generación de sensores ha ido aumentando su rendimiento.

  • Por ejemplo las micro-lentes permiten concentrar los fotones sobre la superficie de captación de la celda, y mejoran el ángulo de incidencia de los rayos de luz.
  • La tecnología BSI permite que haya más superficie de captación efectiva dentro del espacio de la propia celda.
  • Cada vez se consigue más superficie de captación útil, minimizando la separación entre celdas adyacentes.
  • La electrónica asociada a cada celda es más eficiente y produce menos ruido térmico.
  • ….

Dos sensores de generaciones tecnológicas diferentes no son comparables en cuanto a rendimiento (hablamos de ruido)

¿Quiere esto decir que una cámara de hace 5 o 10 años no vale para nada?

En absoluto. Lo que quiere decir es que si una cámara de hace 5 años me permitía hacer fotos de una calidad aceptable hasta ISO 800, una cámara actual de la misma gama a lo mejor me permite hacer las mismas fotos a ISO 3600.

¿Necesito en mi día a día hacer fotos a ISO 3600? Si lo necesito, entonces sí me interesa cambiar mi cámara. Si no lo necesito para mi tipo de fotografía habitual, mi cámara de hace 5 o 10 años va a seguir sacando buenas fotos, simplemente tengo que conocer sus límites, como en cualquier otra cámara por muy avanzada que sea.

 

ISO y ruido

Ya que hablamos de ISO…

Aunque ya lo hemos comentado, hay que recalcar que subir ISO no aumenta el ruido de la imagen. El ruido ya estaba allí en las celdas del sensor junto a la señal (información de la escena).

Subir el ISO hace que sea más evidente y más visible ese ruido en la imagen, ya que estamos escalando el valor de brillo de cada celda / pixel. Es decir, estamos amplificando las variaciones de cada punto (brillo) con respecto a su valor medio esperado según la escena.

Cuando comparamos cámaras por su comportamiento a ISOs altos, realmente estamos viendo qué cámara consigue minimizar más el ruido. El sistema que controla la sensibilidad (ISO) no hace ningún tipo de magia, sólo hace un escalado / amplificación de lo que hay en la celda.

Algunos sensores consiguen un nivel de ruido térmico / electrónico tan bajo que llega a ser despreciable con respecto al ruido fotónico. Se conocen como sensores invariantes al ISO.

Imagina que haces dos fotos de la misma escena con un sensor invariante al ISO (por supuesto en formato RAW). La primera foto exponiendo correctamente, digamos que a ISO 1600. La segunda foto a ISO base (ISO 100 supongamos).

Lógicamente la segunda foto saldrá muy subexpuesta, estaría 4 pasos de luz más oscura que la primera. Pero si en el programa de revelado se sube la exposición 4 pasos, el resultado sería prácticamente idéntico al de la primera foto: tonos, brillo y nivel de ruido.

Como el ruido térmico es despreciable, da igual amplificar la señal a nivel de celda dentro del sensor (subir ISO) que amplificarla después en el programa de revelado.

Bueno, siempre hay ruido térmico y otras pequeñas fuentes de ruido, y esa invariabilidad al ISO no es perfecta lógicamente, no se puede mantener a partir de un determinado rango de pasos de luz y siempre habrá un pelín más de ruido en la imagen subexpuesta. Es simplemente para que te hagas una idea de que el ISO de un sensor no hace nada mágico ni añade ni quita ruido.

 

Exposición y ruido

A partir de todo lo que hemos visto sobre el ruido en sensores la conclusión sería: para maximizar la relación señal a ruido, sea cual sea el sensor o la cámara, lo más importantes es usar o recoger la mayor cantidad de luz posible.

Cuando las condiciones de luz de la escena son buenas todas las cámaras obtienen buenas fotos.

Incluso cámaras con sensores muy diferentes en tamaño y resolución. Estamos hablando de calidad con respecto al ruido, luego habría que ver por ejemplo la nitidez debida a la óptica utilizada por la cámara, etc.

Cuando las condiciones de luz no son tan buenas, por ejemplo situaciones con poca luz en las que necesitamos disparar con una velocidad de obturación alta, el tamaño del sensor y su tecnología marcan la diferencia. Lo mismo ocurre con escenas de alto rango dinámico, que combinan zonas muy oscuras con zonas muy iluminadas.

También en vídeo tenemos la limitación de la velocidad de obturación y en escenas con menos luz es inevitable subir ISO para conseguir la exposición adecuada.

En cualquier caso lo importante es intentar hacer una buena exposición, recoger la mayor cantidad de luz, a ISO base de la cámara si es posible.

Si disparamos en formato RAW podemos sobreexponer un poco, sin llegar a quemar las zonas más iluminadas porque perderíamos esa información. Esta técnica se conoce como derecheo del histograma (Exposure to the Right – ETTR). Al sobreexponer lo que hacemos es maximizar la cantidad de fotones en todas las celdas y minimizar el ruido (conseguiremos una relación señal a ruido mayor). Luego en el programa de revelado bajamos la exposición hasta el nivel adecuado. Conseguiríamos una reducción de ruido, sobre todo sería apreciable en las zonas más oscuras (celdas que reciben menos fotones y en las que la relación señal a ruido es peor)

Con los sensores más modernos (invariantes al ISO) esta técnica no es tan efectiva y hay que tener en cuenta que luego las imágenes van a necesitar un proceso de edición (al menos en el programa de revelado). También existe el riesgo de quemar las altas luces y perder información, ya que tanto los sistemas de medición de luz como los histogramas que visualizan las cámaras no son tan precisos como para ajustar al límite la exposición de altas luces. Dependerá de cada fotógrafo determinar si con su equipo y tipo de fotografía le compensa usar esta técnica o no.

En resumen, es muy importante exponer bien. Cuanta más luz obtengamos de la escena mejor.

 

Procesado de la imagen

¿Se puede eliminar el ruido de una imagen en edición o mediante el procesador interno de la cámara?

Bueno, es muy complicado porque la información y el ruido están mezclados una vez que salen del sensor.

Ya hemos comentado que el promediado a partir de grupos de pixels adyacentes disminuye el ruido (ruido aleatorio con poca correlación espacial). Es equivalente a un filtro de paso bajo que elimina la alta frecuencia: elimina toda la alta frecuencia espacial del ruido pero también elimina la alta frecuencia espacial de la información de la escena.

Es decir, el promediado tiene un efecto de suavizado de la imagen, de pérdida de nitidez, sobre todo en los detalles: bordes de la imagen, texturas, etc.

Hay técnicas de promediado ‘inteligente’ que tienen en cuenta por ejemplo si se trata de una zona homogénea de la escena: un trozo de cielo, una zona con poca textura, etc. Es precisamente en esas zonas donde más se nota visualmente el ruido y donde más efectivo sería aplicar un promediado.

También hay técnicas de apilado de imágenes: tomar varias imágenes de la misma escena (con trípode o con tiempos de exposición muy bajos) y apilarlas para promediar el valor en cada punto. Los valores que corresponden con la escena se refuerzan, mientras que las variaciones debidas al ruido tienden a anularse, ya que tienen una distribución espacial aleatoria.

 

Resolución del sensor, resolución óptica y nitidez

La nitidez es una característica subjetiva de la imagen. Una imagen nos parece nítida cuando podemos apreciar los pequeños detalles, las texturas, los bordes de los objetos perfectamente delimitados…

La nitidez que percibimos depende de la acutancia (un término equivalente pero cuantificable, más científico) y de la resolución de la imagen.

Como ya comentamos anteriormente, la nitidez la tenemos que valorar sobre la imagen en su soporte final: pantalla de monitor, fotografía impresa, etc.

Pero vamos a comenzar por la imagen tal cual sale de la cámara.

Vamos a suponer que tenemos un enfoque perfecto de la escena, que la iluminación es suficiente como para despreciar el efecto del ruido, con la cámara en trípode perfectamente estable, etc.

La nitidez de la imagen va a estar determinada por la calidad óptica del objetivo y por la resolución del sensor. La calidad de la óptica se puede simplificar en términos de resolución equivalente.

Con los sensores y cámaras actuales la parte óptica suele ser el cuello de botella, sobre todos en las gamas medias y de entrada. Hay páginas como DXoMark en las que puedes ver la resolución equivalente para cada objetivo del mercado.

Imagina por ejemplo una cámara con sensor de 24Mpx en la que montamos un objetivo con una resolución equivalente de 12Mpx. La imagen final obtenida tendrá 24Mpx de resolución pero una nitidez que se corresponde con esos 12Mpx de la parte óptica.

A muchos nos ha pasado que compramos una nueva cámara, hacemos una serie de fotos y cuando vamos a editarlas y las vemos al 100% de ampliación nos damos cuenta que de los puntos aparecen ‘borrosos’ a ese nivel de detalle.

Para aprovechar al máximo la resolución del sensor necesitaremos objetivos con una resolución efectiva igual o superior a la del sensor de la cámara. Ojo, no quiere decir que tengamos que comprar un equipo de gama alta para hacer buenas fotos, con esos 12Mpx que nos proporciona ese objetivo hipotético del ejemplo tendríamos nitidez suficiente para imprimir nuestras imágenes.

Hay muchos otros factores que pueden influir en la falta de nitidez:

  • Pequeña trepidación de la cámara
  • Imagen ligeramente movida debido al movimiento en la escena
  • Un ligero desenfoque (el sistema de enfoque está tomando como referencia una zona de la escena que está por delante o por detrás del plano que queremos enfocar)
  • Profundidad de campo muy estrecha

Cuanto mayor sea la resolución del sensor más se pueden apreciar esos pequeños efectos a nivel de pixel, como ocurre con el ruido.

 

Resumen rápido con respecto al rendimiento de los sensores

 

  • La evolución tecnológica de los sensores es un factor muy importante. Ten en cuenta que los sensores más modernos y avanzados suelen aparecer en las cámaras de gama más alta de las marcas. Las gamas intermedias y de entrada suelen incluir sensores de generaciones anteriores para amortizar la inversión, etc.
  • En general, cuanto más grande es el sensor, mayor relación señal a ruido. Sensores más grandes tienen en general mejor comportamiento en cuanto a ruido (a igualdad tecnológica, exposición, etc. con respecto a un sensor más pequeño)
  • A igualdad de tamaño de sensor, el tamaño de la celda tiene influencia en las prestaciones, pero su efecto no es tan importante salvo en sensores muy especializados.
  • Subir el valor de ISO no aumenta el ruido, el ruido está relacionado con la cantidad e luz que recibe la celda, la cantidad total de luz que recibe el sensor y con la electrónica del sensor (ruido térmico, etc.). Subir el ISO hace más visible el ruido porque lo escalamos junto con la información de la escena.
  • El valor de ISO máximo de una cámara es una característica irrelevante. El parámetro importante es hasta qué ISO puedo subir en una cámara para conseguir imágenes con una calidad aceptable para mí, y esto es algo totalmente subjetivo.
  • Para comparar el rendimiento en cuanto a ruido de dos cámaras de una forma objetiva habría que hacer pruebas científicas, normalizando todos los parámetros que intervienen (resolución, tamaño del sensor, exposición, etc.). Es muy complicado comparar dos sensores que tienen parámetros muy diferentes porque intervienen muchos factores. En páginas como DXoMark o Photons to Photos puedes encontrar gráficas y valores de referencia que sirven para hacerte una idea del comportamiento de cada cámara.

 

Finalmente, la conclusión más importante sería que la clave está sobre todo en la cantidad de luz que llega al sensor. Si puedes controlar o maximizar la luz que recibe el sensor estarás optimizando su rendimiento y la calidad de las fotos o el vídeo: iluminación, elegir bien los momentos y lugares…

En este sentido los objetivos también juegan un papel muy importante. La apertura del objetivo determina la cantidad máxima de luz que llegará al sensor para una determinada escena, ángulo de visión, etc.

 

 

Para profundizar en el tema sobre sensores electrónicos y ruido:

What the DxOMark scores really mean

How to Interpret Digital Camera Sensor Reviews

Image Sensors Introduction

Image Sensors Noise Sources

Photons to Photos

Sobre el efecto Moiré, aliasing y filtro OLPF en el sensor