No hace falta ser físico de partículas para hacer una foto, pero te recomiendo que leas esta información para tener una idea básica de cómo funciona el sensor de una cámara digital, sus limitaciones y los parámetros con los que juega un fotógrafo para sacar partido de la cámara.

 

Sensor de una cámara digital
Zach Dischner (CC BY 2.0)

 

El sensor de una cámara digital es una auténtica obra de ingeniería. Está formado por millones de celdas fotosensibles, cada una de ellas de tamaño microscópico:

Cómo funciona el sensor de una cámara digital

Piensa que cuando nos hablan de megapíxels se corresponde con los millones de píxels (celdas) que forman parte del sensor de nuestra cámara. Por ejemplo una cámara réflex de 12Mpx con un sensor APS-C (aprox. 23 x 15 mm) tiene 12 millones de celdas fotosensibles.

Cuando tomamos una foto, cada píxel del sensor analiza la luz que le llega: una pequeñísima parte de la imagen de la escena que queremos fotografiar.

Funcionamiento del sensor de una cámara digital

Cada celda incluye un fotodiodo que convierte la luz en electricidad. Además incluye la electrónica necesaria para que cada elemento funcione de forma independiente y para poder leer la información de cada píxel cada vez que hacemos una foto. En la mayoría de los sensores actuales, cada celda incluye además una pequeña lente individual para concentrar la luz en la superficie sensible. ¿Imaginas el tamaño de esas micro-lentes?

Las celdas sólo pueden detectar la intensidad de la luz, no el color. Los sensores incluyen filtros que descomponen la luz en tres componentes: rojo, verde y azul. En la mayoría de los sensores se utiliza un filtro o mosaico de Bayer, de tal forma que unas celdas reciben sólo la luz correspondiente a la componente roja, otras sólo la componente azul y otras sólo la componente verde. En los sensores Foveon la distribución es diferente, pero el principio de funcionamiento es el mismo.

Cada fotodiodo (elemento fotosensible de la celda) funciona como un panel solar: recibe fotones que, al interactuar con los átomos del material, generan electrones. Es decir, convierten luz en electricidad.

Estructura sensor CMOS - BSI

Actualmente la mayoría de los sensores están basados en tecnología CMOS (Complementary Metal-Oxide-Semiconductor). Sobre el material fotosensible se añade la circuitería, compuesta por capas de zonas aislantes (óxidos) y metal.

El método tradicional de fabricación consiste en hacer ‘crecer’ la circuitería hacia arriba sobre el sustrato de silicio, y sobre esta estructura electrónica se coloca el filtro de bayer y la estructura de micro-lentes. La parte electrónica ocupa una superficie muy pequeña pero incluso así, parte de la luz se refleja o se absorbe en estas capas y no llega al material fotosensible.

Los sensores BSI (Back-Side Illuminated sensor) se basan en un método de fabricación diferente: toda la circuitería y estructura CMOS va colocada en la parte inferior del material fotosensible. Es como si diéramos la vuelta al sensor y lo iluminamos por la parte de atrás, aunque el nombre posiblemente no es muy afortunado y suele llevar a confusión. En cualquier caso, esta estructura consigue una mejora apreciable de rendimiento, ya que no se pierden fotones en las capas superiores. Este método de fabricación es más caro y hasta ahora sólo se aplicaba a sensores de pequeño tamaño, pero a medida que se abaratan los costes va estando disponible en los sensores más grandes.

 

Hemos comentado que cada fotodiodo recibe una de las componentes (roja, verde o azul) pero desde el punto de vista del fotodiodo es simplemente luz (fotones), así que para los ejemplos de funcionamiento que vienen a continuación da igual si es luz blanca o filtrada. 

La celda del sensor funciona de la siguiente forma: cuando pulsamos el disparador de la cámara para hacer una foto abrimos el obturador y dejamos pasar fotones que llegan al fotodiodo. El fotodiodo los va convirtiendo en electrones, que se acumulan en un pequeño depósito (condensador). Cuando se cierra el obturador de la cámara (deja de pasar luz) cada celda del sensor tendrá un determinado nivel de electrones, en función de la cantidad de fotones que ha recibido ese trocito de la imagen.

 

Funcionamiento de un fotodiodo de cámara digital

Si una celda no tiene electrones querrá decir que no ha recibido ningún fotón (zona oscura de la imagen). Si una celda tiene su depósito lleno de electrones se corresponderá con una zona blanca de la imagen.

La electrónica de la cámara se encarga de leer una por una todas las celdas del sensor. Y a cada uno de esos niveles le asigna un valor numérico. Por ejemplo en un sensor de 8 bits se asignará un valor entre 0 (negro) y 255 (blanco). En un sensor de 12 bits habría unos 4.000 niveles distintos para cada píxel del sensor.

Finalmente el procesador de la cámara utiliza toda esa información para generar el fichero de imagen y lo guarda en la tarjeta de memoria.

Fíjate que en el ejemplo de arriba aparecen unos electrones ‘extra’ que no se han generado a partir de los fotones, sino que se han generado por efecto térmico. Por el momento piensa que esos electrones invitados (ruido electrónico) son poquísimos comparados con los electrones que se han generado a partir de la luz de la escena. Más adelante los tendremos en cuenta.

Vamos a imaginar ahora que la celda representa la luz media de la escena que queremos fotografiar. Las cámaras tienen dos parámetros que permiten controlar la luz que llega al sensor: la apertura del diafragma y el tiempo de exposición.

El diafragma es como una ventana, se puede regular para que deje pasar mucha luz o poca luz. Imagina que en la escena hay mucha luz, hay muchos fotones (ejemplos a y b), y queremos obtener un determinado nivel de ‘claridad’ en nuestra foto.

Podemos cerrar más el diafragma y dejar abierto el obturador un cierto tiempo, o podemos abrir el diafragma y abrir el obturador sólo un instante. Lo importante es el número de fotones que llegan al fotodiodo.

Sensor de cámara digital y cantidad de luz

En los ejemplos c y d hay menos luz en la escena. Si queremos el mismo nivel de claridad tendremos que dejar más tiempo abierto el obturador para que lleguen los mismos fotones que antes.

Si dejamos abierto el obturador durante el tiempo suficiente (incluso si hay poquísima luz) llegará un momento en que todas las celdas estarán llenas. Correspondería a una foto totalmente quemada, totalmente blanca.

Se puede jugar con la apertura y el tiempo de exposición en diferentes combinaciones para dar el mismo resultado en lo que respecta a los niveles luminosidad de la foto. Cuando la escena tiene mucha luz o muy poca luz habrá combinaciones de diafragma y tiempo de exposición que no serán adecuadas (nos saldrían las fotos quemadas -sobreexpuestas- o muy oscuras -subexpuestas)

Imagina que queremos hacer una foto en una escena con muy poca luz. Si se trata de una escena estática podemos subir el tiempo de exposición (minutos, horas incluso) para que vayan entrando poco a poco los escasos fotones que hay en el exterior.

Sensor de cámara con poca luz

Pero si queremos fotografiar una escena en movimiento con muy poca luz tenemos un problema. Si dejamos abierto el obturador mucho tiempo la foto saldrá movida (porque la escena cambia a lo largo de ese tiempo) y si programamos un tiempo de disparo muy corto entrarán muy pocos fotones: nos quedará una foto muy oscura (subexpuesta)

Para intentar resolver estas situaciones, los fabricantes de sensores dan la opción de forzar la sensibilidad normal de las celdas. Es lo que se conoce en las cámaras como parámetro ISO. A medida que cambiamos el parámetro ISO en nuestra cámara y vamos subiendo de valor, lo que hacemos es aumentar un factor de multiplicación interno.

como_funciona_sensor_camara_digital_06

Aunque en el ejemplo hemos dibujado una única celda, el efecto multiplicador se aplica a todas las celdas a la vez. Es decir se ‘amplifica’ la luz de toda la escena, pero no por métodos ópticos sino por métodos electrónicos.

¿Te acuerdas de los electrones invitados que habíamos comentado más arriba?. Sí, seguro que ya sospechabas que tendrían un papel en esta historia, y es el papel de malos de la película.

Ese ruido térmico es inherente a cualquier sistema electrónico y corresponde a los movimientos naturales de los electrones en un conductor (cuanto más caliente esté un material, más energía tienen los electrones y más se mueven). Y además del ruido térmico hay otros tipos de ruido electrónico, interferencias, etc. pero a efectos prácticos piensa simplemente que la información que corresponde a la escena (electrones generados por fotones) está contaminada por un pequeño ruido de fondo.

¿Qué ocurre cuando forzamos la sensibilidad (ponemos un ISO alto)?. Pues que multiplicamos la información ‘óptica’ pero también multiplicamos el ruido. A medida que subimos ISO las imágenes resultantes aparecerán cada vez más granuladas.

Fíjate que el ruido no afecta tanto en caso de larga exposición con muy poca luz si mantenemos el parámetro ISO al mínimo. Los electrones de ruido térmico no se acumulan con el tiempo, simplemente son los que hay aleatoriamente justo en el instante de cerrar el obturador y leer la señal de cada celda.

Lo que sí puede ocurrir es que si hacemos una exposición muy larga (por ejemplo en fotografía nocturna de estrellas exposiciones de muchos minutos, hasta horas) el sensor se va calentando progresivamente, y ese aumento de temperatura interna sí incrementa el nivel de ruido térmico, y produce además otros efectos no deseados como los hot pixels, celdas que quedan temporalmente ‘atascadas’ con información errónea y aparecen en la imagen como puntos de color.

 

Resumen práctico

Cuanto más grande es el sensor, mayor sensibilidad y menor ruido. Más superficie de sensor equivale a recoger más fotones (más sensibilidad). A igualdad de condiciones, por ejemplo un ruido térmico similar, más fotones implican más información útil con respecto al ruido: imágenes más limpias

– Para el mismo tamaño: cuanto más moderno sea el sensor, más sensibilidad y menor ruido. Aunque hay un límite físico. Los avances tecnológicos permiten por ejemplo aumentar la sensibilidad del material fotosensible, reducir el ruido térmico generado, aplicar técnicas de anulación de ruido por píxel y procesar la señal con algoritmos de filtrado cada vez más eficaces.

– Para el mismo tamaño de sensor: el número de celdas (megapíxels) no afecta negativamente en cuanto al ruido, al menos de una forma significativa. Lo que importa es la superficie total que capta fotones. Es cierto que a mayor número de celdas puede aumentar también un poco el área que se desperdicia entre celda y celda. Pero en general la densidad de píxels del sensor no afecta de una forma significativa al ruido.

– El valor de ISO máximo de las cámaras nos da una idea de la sensibilidad (capacidad para detectar fotones) pero no del ruido que tendremos a esos niveles de amplificación. La única forma de comparar la calidad de la imagen en un determinado valor de ISO es realizando pruebas.

Por ejemplo DxOMark calcula para cada cámara el valor ISO para el que la cámara ofrece una imagen con calidad aceptable (siguiendo un criterio estadístico de relación entre información real de la imagen y ruido).

Por ejemplo, una cámara con ISO máx 25600 (nos permite hacer fotos hasta ISO 25600) puede que ofrezca unos resultados estadísticos de ISO máximo aceptable de 3350. Eso querría decir que podemos obtener buenas imágenes a ISO 3200, seguramente también a ISO 6400, pero con ISO mayor seguramente será bastante apreciable el ruido (la granulosidad en la imagen).

Los parámetros de DxOMark y otras entidades similares sólo son eso: resultados estadísticos / matemáticos. Nos pueden dar una referencia, pero no los tomes al pie de la letra. En el mundo real, fuera del laboratorio de medida, las condiciones y parámetros externos (calidad del objetivo, condiciones exactas de luz..) van a influir probablemente mucho más en el resultado final. Y luego está el criterio personal subjetivo de cada persona y dónde establece el límite de calidad aceptable para una imagen.

 

Tamaños de los sensores más utilizados en cámaras réflex y cámaras EVIL

Tamaño de los sensores de las cámaras réflex y EVIL

Las cámaras réflex para profesionales utilizan sensor Full Frame, que tiene un tamaño similar a la película analógica.

Las réflex de gamas de entrada e intermedia suelen incorporar sensores APS-C, que tienen aproximadamente la mitad de superficie que un sensor Full Frame (el 40% aproximadamente)

Las cámaras que siguen el estándar Micro Cuatro Tercios (Micro Four Thirds) usan sensores de 17.3 x 13.8 mm, que tienen aproximadamente el 25% del área de captación de un sensor Full Frame.

Una cámara Full Frame captará más luz por unidad de tiempo (más sensibilidad) y a igualdad tecnológica ofrecerá imágenes con menos ruido

 

El mito de los megapíxels y el ruido

Esto es más bien anecdótico porque tiene poca influencia a nivel práctico. Es una duda que he tenido durante mucho tiempo porque existe la creencia generalizada de que cuantos más megapíxels (para un determinado tamaño de sensor) más ruido generará ese sensor. Es decir, la regla sería que a mayor densidad de píxels mayor ruido en la imagen a igualdad de condiciones de la escena.

Pero esto está demostrado que no es así. El problema o la trampa está en que si comparamos la imagen píxel a píxel generada por dos sensores con diferente densidad de píxel, sí se apreciará más ruido en los píxeles ‘más densos’. Dicho de otra forma, por cada píxel ‘extraño’ (ruido) en la imagen del sensor con menos megapíxels encontraremos varios píxeles ‘extraños’ en la imagen del sensor con más megapíxels.

Sin embargo, la imagen final, cuando la imprimimos en papel a un determinado tamaño o la visualizamos en una pantalla va a presentar el mismo nivel de ruido en un caso y en otro (suponiendo que la tecnología de los sensores y procesadores es similar, las mismas condiciones de la escena, la misma calidad de la óptica, etc, etc, etc. )

Realmente intervienen tantos factores que es muy difícil saber en qué cantidad afecta cada uno al ruido final de cada modelo de cámara en particular. Por ejemplo un píxel más pequeño tiene menor superficie de captación y recibirá menos fotones, se verá más afectado por ejemplo por las variaciones estadísticas de la intensidad de luz (el número de fotones que se reciben por unidad de superficie no es fijo, es un valor estadístico) y posiblemente por el ruido térmico porque más píxeles suponen también más circuitería interna en el chip.

Pero a efectos prácticos, cuando comparamos las imágenes en el formato final (impresas o a tamaño normal en un determinado dispositivo) la sensación de ruido / calidad / fidelidad va a ser indistinguible.

Si lo quieres ver de una forma intuitiva, ese ‘extra’ de ruido que se aprecia píxel a píxel se compensa cuando se mezclan esos píxels pequeños para formar el punto visible en papel o en la pantalla (se hace una especie de media estadística a partir de un conjunto de píxels). O si lo quieres ver de otra forma, un píxel gordo (menor densidad) con ruido tiene el mismo impacto visual que varios píxels pequeños (mayor densidad) con ruido.

En resumen: las diferencias en ruido entre una cámara y otra dependen de muchos factores. El tamaño del sensor sí influye. La densidad de píxel no influye (al menos de una forma determinante).

 

Megapíxels y calidad final de la imagen

Muchos aficionados se compran una réflex nueva, con más megapíxels, mejor sensor (se supone), mejor procesador, etc. Y se llevan una gran desilusión porque cuando amplían al 100% (píxel a píxel) no se ven las imágenes tan nítidas como en su vieja cámara.

La imagen se ve enfocada a simple vista, nítida, con contraste, pero a un cierto nivel de ampliación se ven los detalles más difuminados.

Hay que tener en cuenta que cada objetivo tiene una resolución equivalente máxima. Si la resolución del sensor es superior a la que proporcionan las lentes del objetivo, la resolución efectiva de la imagen será la menor de las dos, es decir, la óptica estará limitando en este caso la calidad (resolución) total del sistema.

¿Quiere eso decir que la calidad de la imagen es peor por usar un sensor con más megapíxels? NO. Porque de nuevo lo que importa es la calidad (nitidez, contraste..) al tamaño útil de la imagen: impresa en papel o visualizada en pantalla a tamaño normal, en su formato de uso normal.

Si queremos aprovechar al máximo la resolución de un sensor tendremos que usar objetivos que tengan una resolución (resolución equivalente) igual o superior a la del sensor. De todas formas, en muchos casos las diferencias cuando veamos la imagen en su tamaño útil van a ser inapreciables.

Por otra parte, a menos que vayamos a imprimir cartelería de gran formato, la cantidad de megapíxels no va a aportar más calidad a las fotos. El número de megapíxels es un reclamo comercial con el que las marcas intentan diferenciarse de la competencia, como ocurre con el ISO máximo, etc.

 

Para profundizar en el tema sobre sensores electrónicos y ruido:

What the DxOMark scores really mean

How to Interpret Digital Camera Sensor Reviews

Image Sensors Introduction

Image Sensors Noise Sources

Sobre el efecto Moiré, aliasing y filtro OLPF en el sensor