No hace falta ser físico de partículas para hacer una foto, pero te recomiendo que leas esta información para tener una idea básica de cómo funciona el sensor de una cámara digital, sus limitaciones y los parámetros con los que juega un fotógrafo para sacar partido de la cámara.

 

Sensor de una cámara digital
Zach Dischner (CC BY 2.0)

 

Índice rápido de contenidos:

 

 

Funcionamiento del sensor

El sensor de una cámara digital es una auténtica obra de ingeniería. Está formado por millones de celdas fotosensibles, cada una de ellas de tamaño microscópico:

Cómo funciona el sensor de una cámara digital

Piensa que cuando nos hablan de megapíxels se corresponde con los millones de píxels (celdas) que forman parte del sensor de nuestra cámara.

Por ejemplo una cámara con un sensor APS-C (aprox. 23 x 15 mm) de 20Mpx tiene 20 millones de celdas fotosensibles con un tamaño de unos 4 micrómetros (1 micrómetro es la milésima parte de 1 milímetro)

Cuando tomamos una foto, cada celda del sensor analiza la luz que le llega: una pequeñísima parte de la imagen de la escena que queremos fotografiar.

Funcionamiento del sensor de una cámara digital

Cada celda incluye un fotodiodo que convierte la luz en electricidad.

Además incluye la electrónica necesaria para que cada elemento funcione de forma independiente y para poder leer la información de cada píxel cada vez que hacemos una foto.

En la mayoría de los sensores actuales, cada celda incluye además una pequeña lente individual para concentrar la luz en la superficie sensible. ¿Imaginas el tamaño de esas micro-lentes?

Cada fotodiodo (elemento fotosensible de la celda) funciona como un panel solar: recibe fotones que, al interactuar con los átomos del material, generan electrones (convierten luz en electricidad como habíamos comentado)

Actualmente la mayoría de los sensores están basados en tecnología CMOS (Complementary Metal-Oxide-Semiconductor).

Sobre el material fotosensible se añade la circuitería, compuesta por capas de zonas aislantes (óxidos) y metal.

El método tradicional de fabricación consiste en hacer ‘crecer’ la circuitería hacia arriba sobre el sustrato de silicio, y sobre esta estructura electrónica se coloca el filtro RGB (de Bayer por ejemplo, más abajo hablo sobre el color) y la estructura de micro-lentes.

La parte electrónica ocupa una superficie muy pequeña pero incluso así, parte de la luz se refleja o se absorbe en estas capas y no llega al material fotosensible.

 

Sensores BSI

Los sensores BSI (Back-Side Illuminated sensor) se basan en un método de fabricación diferente: toda la circuitería y estructura CMOS va colocada en la parte inferior del material fotosensible.

 

Estructura sensor CMOS - BSI

 

Es como si diéramos la vuelta al sensor y lo iluminamos por la parte de atrás, aunque el nombre posiblemente no es muy afortunado y suele llevar a confusión.

En cualquier caso, esta estructura consigue una mejora apreciable de rendimiento, ya que no se pierden fotones en las capas superiores. Este método de fabricación es más caro y hasta ahora sólo se aplicaba a sensores de pequeño tamaño, pero a medida que se abaratan los costes va estando disponible en los sensores más grandes.

 

Color

Las celdas fotosensibles sólo pueden detectar la intensidad de la luz (número de fotones a lo largo de un determinado tiempo), no el color.

Los sensores incluyen filtros ópticos (filtros RGB) que descomponen la luz en tres componentes: rojo, verde y azul. En la mayoría de los sensores se utiliza un filtro o mosaico de Bayer, de tal forma que unas celdas reciben sólo la luz correspondiente a la componente roja, otras sólo la componente azul y otras sólo la componente verde. Una variante de filtro RGB es el X-Trans de Fuji. En los sensores Foveon la distribución es diferente, pero el principio de funcionamiento es el mismo.

Si te fijas, en los sensores Bayer / X-Trans esa información de color que recoge el sensor es sólo parcial. El color real de cada punto hay que interpretarlo a posteriori con algoritmos de interpolación cromática (demosaicing) y balance de blancos.

 

Hemos comentado que cada fotodiodo recibe una de las componentes (roja, verde o azul) pero desde el punto de vista del fotodiodo es simplemente luz (fotones), así que para los ejemplos de funcionamiento que vienen a continuación da igual si es luz blanca o filtrada. Imagina que retiramos el filtro Bayer de la parte superior y nos quedamos con una imagen en blanco y negro de la escena, donde cada celda del sensor se corresponde con un pixel de la imagen.

 

¿Cómo se capta la imagen en el sensor?

La celda del sensor funciona de la siguiente forma: cuando pulsamos el disparador de la cámara para hacer una foto abrimos el obturador y dejamos pasar fotones que llegan al fotodiodo.

El fotodiodo los va convirtiendo en electrones, que se acumulan en un pequeño depósito (condensador).

Cuando se cierra el obturador de la cámara (deja de pasar luz) cada celda del sensor tendrá un determinado nivel de electrones, en función de la cantidad de fotones que ha recibido ese trocito de la imagen.

 

Funcionamiento de un fotodiodo de cámara digital

 

Si una celda no tiene electrones querrá decir que no ha recibido ningún fotón (zona oscura de la imagen). Si una celda tiene su depósito lleno de electrones se corresponderá con una zona blanca de la imagen.

La electrónica de la cámara se encarga de leer una por una todas las celdas del sensor.

Y a cada uno de esos niveles le asigna un valor numérico. Por ejemplo en un sensor de 8 bits se asignará un valor entre 0 (negro) y 255 (blanco). En un sensor de 12 bits habría unos 4.000 niveles distintos para cada píxel del sensor.

Finalmente el procesador de la cámara utiliza toda esa información para generar el fichero de imagen y lo guarda en la tarjeta de memoria.

Fíjate que en el ejemplo de arriba aparecen unos electrones ‘extra’ que no se han generado a partir de los fotones, sino que se han generado por otros efectos, por ejemplo debido a efectos térmicos para simplificar.

Por el momento piensa que esos electrones invitados (ruido) son poquísimos comparados con los electrones que se han generado a partir de la luz de la escena. Más adelante los tendremos en cuenta.

 

Vamos a imaginar ahora que la celda representa la luz media de la escena que queremos fotografiar.

Las cámaras tienen dos parámetros que permiten controlar la cantidad de luz que llega al sensor:

  • la apertura del diafragma
  • el tiempo de exposición.

 

El diafragma es como una ventana, se puede regular para que deje pasar mucha luz o poca luz.

Imagina que en la escena hay mucha luz, hay muchos fotones (ejemplos a y b), y queremos obtener un determinado nivel de ‘claridad’ en nuestra foto.

Podemos cerrar más el diafragma y dejar abierto el obturador un cierto tiempo, o podemos abrir el diafragma y abrir el obturador sólo un instante.

Al final lo importante es el número de fotones que llegan al fotodiodo.

 

Sensor de cámara digital y cantidad de luz

 

En los ejemplos c y d hay menos luz en la escena.

Si queremos el mismo nivel de claridad tendremos que dejar más tiempo abierto el obturador para que lleguen los mismos fotones que antes.

Si dejamos abierto el obturador durante el tiempo suficiente (incluso si hay poquísima luz) llegará un momento en que todas las celdas estarán llenas. Correspondería a una foto totalmente quemada, totalmente blanca.

Se puede jugar con la apertura y el tiempo de exposición en diferentes combinaciones para dar el mismo resultado en lo que respecta a los niveles luminosidad de la foto.

Cuando la escena tiene mucha luz o muy poca luz habrá combinaciones de diafragma y tiempo de exposición que no serán adecuadas. Tanto el diafragma como el obturador son elementos físicos que tienen sus propios límites. En esas situaciones nos saldrían las fotos quemadassobreexpuestas– o muy oscuras –subexpuestas.

 

Ahora imagina que queremos hacer una foto en una escena con muy poca luz.

Si se trata de una escena estática podemos subir el tiempo de exposición (minutos, horas incluso) para que vayan entrando poco a poco los escasos fotones que hay en el exterior.

 

Sensor de cámara con poca luz

 

Pero si queremos fotografiar una escena en movimiento con muy poca luz tenemos un problema:

  • Si dejamos abierto el obturador mucho tiempo la foto saldrá movida (porque la escena cambia a lo largo de ese tiempo)
  • Si programamos un tiempo de disparo muy corto entrarán muy pocos fotones: nos quedará una foto muy oscura (subexpuesta)

 

Para intentar resolver estas situaciones, los fabricantes de sensores dan la opción de forzar la sensibilidad normal de las celdas.

Es lo que se conoce en las cámaras como parámetro o valor ISO.

A medida que cambiamos el parámetro ISO en nuestra cámara y vamos subiendo de valor, lo que hacemos es aumentar un factor de multiplicación interno.

 

como_funciona_sensor_camara_digital_06

Aunque en el ejemplo hemos dibujado una única celda, el efecto multiplicador se aplica a todas las celdas a la vez.

Es decir se ‘amplifica’ la luz de toda la escena, pero no por métodos ópticos sino por métodos electrónicos. Se hace un escalado de los valores de cada celda.

¿Te acuerdas de los electrones invitados que habíamos comentado más arriba?. Sí, seguro que ya sospechabas que tendrían un papel en esta historia, y es el papel de ‘malos de la película’.

En el proceso de captar una imagen aparecen varias fuentes de ruido: ruido fotónico, ruido térmico, ruido de muestreo en los convertidores analógico/digital, etc.

Simplemente hay que quedarse con la idea de que se van a generar electrones que no tienen nada que ver con la información de la escena.

Cuando llegan al sensor muchos fotones, la relación entre la información y el ruido es muy alta (la cantidad de ruido es despreciable con respecto a la cantidad de señal o información).

Cuando llegan pocos fotones de la escena la cantidad de ruido es proporcionalmente más grande.

¿Qué ocurre cuando forzamos la sensibilidad (ponemos un ISO alto)?.

Pues que multiplicamos la información que nos llega de la escena, pero también multiplicamos el ruido.

Si la proporción entre señal (información) y ruido no es despreciable, al amplificar todo (señal + ruido) estamos haciendo más visible esa proporción. A medida que subimos ISO las imágenes resultantes aparecerán cada vez más granuladas y con puntos de colores que no corresponden con la escena.

Ten en cuenta que subir ISO no genera ruido, el ruido ya estaba allí. Lo que hacemos al subir la sensibilidad de forma ‘artificial’ es que el ruido se hace más evidente con respecto a la información útil de la escena.

 

 

Tamaños de los sensores más utilizados en cámaras réflex y cámaras EVIL

Tamaño de los sensores de las cámaras réflex y EVIL

Las cámaras de gamas profesionales suelen utilizar sensores Full Frame, que tienen un tamaño similar a la película analógica (35mm).

Las cámaras de gamas de entrada e intermedia suelen incluir sensores APS-C, que tienen aproximadamente la mitad de superficie que un sensor Full Frame (el 40% aproximadamente)

Las cámaras que siguen el estándar Micro Cuatro Tercios (Micro Four Thirds) usan sensores de 17.3 x 13.8 mm, que tienen aproximadamente el 25% del área de captación de un sensor Full Frame.

Aquí también puedes ver una comparativa de tamaño entre estos sensores y los sensores típicos de las cámaras de los móviles.

 

 

Ruido, ISO y características del sensor

Este apartado está desarrollado con más profundidad en este otro artículo:

Ruido, ISO y características del sensor de una cámara

 

A modo de resumen…

Lo que llamamos calidad de imagen es un indicador del grado de fidelidad de esa imagen con relación a la escena real que estamos fotografiando (lo mismo aplica a vídeo).

Parámetros que intervienen en la calidad de una imagen:

  • Resolución y nitidez: poder apreciar más detalles
  • Color: reproducir fielmente los colores de la escena
  • Ausencia de artefactos: que la imagen no contenga elementos que no forman parte de la escena real (ruido digital, aliasing /Moiré, etc.)

 

Si hablamos de ruido digital

El ruido forma parte de cualquier imagen ya que la propia luz, los fotones que llegan al sensor (o a la película fotográfica), no siguen un patrón continuo y estable.

Suponiendo fuentes de luz totalmente estables y homogéneas, el número de fotones que llega a cada punto del sensor tiene fluctuaciones estadísticas que siguen una distribución de Poisson.

Estas fluctuaciones se conocen como ruido fotónico (shot noise)

Además, cuando el sensor convierte los fotones en electrones (señal analógica) aparecen otras fuentes de ruido electrónico (ruido térmico)

Finalmente, cuando se convierte la señal electrónica en digital también se añade cierto ruido debido al redondeo: se convierten valores continuos (con decimales) a valores discretos (números enteros)

 

Señal vs Ruido

Nunca vamos a tener una imagen totalmente limpia, siempre va a incluir ruido.

El parámetro que nos dice de una forma objetiva cómo de limpia es una imagen es la relación señal a ruido (SNRSignal to Noise Ratio).

En este caso la señal es la información de la escena y el ruido son todas esas pequeñas variaciones aleatorias que se mezclan con ella: ruido fotónico, ruido térmico, etc.

Una imagen con una SNR alta es una imagen con buena calidad, muy limpia.

Una imagen con una SNR baja es una imagen con mala calidad, con ruido apreciable en forma de granulado y puntos de color que no forman parte de la escena real

Más información aquí:
Tamaño del sensor, exposición y calidad de imagen

 

Número de fotones vs SNR

El ruido fotónico sigue una distribución de Poisson.

La variabilidad (las fluctuaciones con respecto al número medio de fotones que llegan) no es proporcional al número de fotones, sino a la raíz cuadrada del número de fotones.

Esto quiere decir que cuando tenemos pocos fotones la variabilidad es muy alta (SNR bajo), pero cuando tenemos muchos fotones la variabilidad, en comparación con el número total, es muy baja (SNR alto)

Por otra parte, el ruido térmico y cualquier otra fuente de ruido que aparece al procesar la parte electrónica de la señal, es básicamente independiente de la cantidad de fotones.

¿Qué quiere decir esto?

Que cuantos más fotones tengamos para generar la imagen mejor será su relación señal a ruido, su calidad.

 

Ruido en sensores fotografía - Relación señal ruido SNR

 

Tamaño de celda, ruido y SNR

Cada celda del sensor la podemos ver inicialmente como un elemento independiente, como un pequeño sensor en sí mismo.

A igualdad de tiempos de exposición, una celda más grande (con más superficie de captación) recogerá más fotones que una celda más pequeña.

Las celdas más grandes tendrán un mejor rendimiento individual con respecto al ruido, generarán un pixel más limpio, más preciso y más fiel al punto/zona correspondiente de la imagen.

 

Tamaño de sensor, ruido y SNR

La cuestión es que no podemos tener un sensor de una única celda. La calidad de la imagen viene determinada también por la resolución.

El sensor está formado por muchísimas celdas.

Dado un tamaño del sensor, el tamaño de cada celda individual viene determinado por la resolución:

  • Más resolución: celdas más pequeñas
  • Menos resolución: celdas más grandes

Hemos visto que desde el punto de vista de la celda individual interesa que ésta sea lo más grande posible para maximizar la SNR

Sin embargo, si consideramos al sensor como un todo, podríamos evaluar la calidad global de la imagen aplicando el mismo criterio:

Para obtener la mayor relación señal a ruido en la imagen completa necesito capturar el mayor número de fotones que me sea posible.

Como ocurre con las celdas, si tenemos dos sensores con diferentes tamaños, para un determinado tiempo de exposición:

  • El sensor más grande recogerá más fotones en total (mejor SNR)
  • El sensor más pequeño recogerá menos fotones (peor SNR)

 

 

¿Qué es más importante, el tamaño de celda o el tamaño de sensor?

En general es más importante el tamaño del sensor.

Una imagen generada por un sensor grande tendrá más calidad (SNR mayor) que la misma imagen generada por un sensor pequeño (SNR menor).

Piensa que estamos hablando en términos estadísticos.

Habrá escenas concretas en las que un sensor grande de alta resolución (celdas pequeñas) no aproveche esa ventaja, por ejemplo se me ocurre en imágenes en las que dominan los tonos oscuros y pocas texturas.

En esas escenas un sensor más pequeño pero con celdas más grandes (menor resolución) es posible que consiga una imagen más uniforme y aparentemente más limpia.

Otro error común es analizar o comparar las imágenes a nivel de pixel (pixel peeping), sobre todo cuando se comparan imágenes con resoluciones diferentes.

A ese nivel de detalle la imagen con menor resolución (celdas más grandes) se verá localmente más homogénea: menos variabilidad tonal entre puntos cercanos.

Para la imagen con mayor resolución (celdas más pequeñas) los puntos cercanos aparecerán con una variabilidad tonal mayor, pero por otra parte hay más puntos que dan más información sobre la escena.

Para comparar correctamente siempre hay que normalizar: reescalar las imágenes para que tengan la misma resolución o imprimirlas en papel fotográfico.

Más información:

¿Recogen más luz los sensores más grandes?

¿Más luz significa una exposición mayor en la imagen?

Dos cámaras diferentes con los mismos parámetros de exposición, ¿generan la misma imagen?

¿Qué diferencia o margen hay entre sensores de diferente tamaño?

 

 

Ruido vs ISO

Lo que se conoce como sensibilidad o simplemente valor ISO es un ‘truco’ que nos da un grado más de flexibilidad en los sensores digitales.

Subir ISO en una cámara se corresponde con una amplificación de la señal eléctrica recogida por cada celda.

También lo puedes ver como un cambio de escala del contenedor que almacena esos electrones generados por la celda (electrones generados por fotones)

Vamos a suponer que tenemos la cámara en ISO base, por ejemplo ISO 100.

Imagina que el depósito de cada celda puede almacenar 60.000 electrones.

Vamos a simplificar y vamos a trabajar con 8 bits. La celda llena correspondería con un blanco puro: valor 255. La celda vacía es valor 0.

Subimos a ISO 200 (un paso de luz, multiplicamos x2)

Ahora, cuando lleguemos a un nivel de luz que corresponda con la mitad del depósito (30.000 electrones) ese punto aparecerá como blanco puro en la imagen (255)

Otra forma de verlo es pensar que hemos reescalado el depósito, lo hemos sustituido por un depósito de 30.000 electrones.

Subimos a ISO 400 (un paso de luz adicional)

Ahora es como si tuviéramos un depósito de 15.000 electrones de capacidad.

Y así sucesivamente.

El ruido es el mismo en todos los casos, no depende de subir o bajar el valor ISO.

Pero al escalar o al amplificar, escalamos la señal y el ruido que ya estaba ahí. Hacemos el ruido más visible.

O si lo quieres ver de otra forma: estamos usando menos fotones para generar la imagen. Por lo tanto la SNR será menor. La imagen tendrá una peor calidad.

 

 

Resolución del sensor, resolución óptica y nitidez

La nitidez es una característica subjetiva de la imagen. Una imagen nos parece nítida cuando podemos apreciar los pequeños detalles, las texturas, los bordes de los objetos perfectamente delimitados…

La nitidez que percibimos depende de la acutancia (un término equivalente pero cuantificable, más científico) y de la resolución de la imagen.

Como ya comentamos anteriormente, la nitidez la tenemos que valorar sobre la imagen en su soporte final: pantalla de monitor, fotografía impresa, etc.

Pero vamos a comenzar por la imagen tal cual sale de la cámara.

Vamos a suponer que tenemos un enfoque perfecto de la escena, que la iluminación es suficiente como para despreciar el efecto del ruido, con la cámara en trípode perfectamente estable, etc.

La nitidez de la imagen va a estar determinada por la calidad óptica del objetivo y por la resolución del sensor. La calidad de la óptica se puede simplificar en términos de resolución equivalente.

Imagina por ejemplo una cámara con sensor de 24Mpx en la que montamos un objetivo con una resolución equivalente de 12Mpx.

La imagen final obtenida tendrá 24Mpx de resolución pero una nitidez que se corresponde con esos 12Mpx de la parte óptica.

A muchos nos ha pasado que compramos una nueva cámara, hacemos una serie de fotos y cuando vamos a editarlas y las vemos al 100% de ampliación nos damos cuenta que de los puntos aparecen ‘borrosos’ a ese nivel de detalle.

Para aprovechar al máximo la resolución del sensor necesitaremos objetivos con una resolución efectiva igual o superior a la del sensor de la cámara.

Ojo, no quiere decir que tengamos que comprar un equipo de gama alta para hacer buenas fotos, con esos 12Mpx que nos proporciona ese objetivo hipotético del ejemplo tendríamos nitidez suficiente para imprimir nuestras imágenes.

Intenta siempre evaluar o analizar la imagen en su conjunto, a la resolución final con la que se va a usar: por ejemplo impresa en papel o publicada en la web, en una red social, etc.

Ten en cuenta también que hay muchos otros factores que pueden influir en la falta de nitidez de una imagen:

  • Pequeña trepidación de la cámara
  • Imagen ligeramente movida debido al movimiento en la escena
  • Un ligero desenfoque (el sistema de enfoque está tomando como referencia una zona de la escena que está por delante o por detrás del plano que queremos enfocar)
  • Profundidad de campo muy estrecha

 

Cuanto mayor sea la resolución del sensor más se pueden apreciar esos pequeños efectos a nivel de pixel, como ocurre con el ruido.

 

 

Resumen rápido con respecto al rendimiento de los sensores

 

  • Con buena luz todos los sensores van a generar imágenes de alta calidad
    A partir de una cierta relación señal a ruido, el ruido en sí es despreciable y no vamos a apreciar diferencias en las imágenes (reescaladas para comparar, etc.). Habrá otros efectos que tengan mucha más relevancia: calidad óptica, procesado interno de las imágenes…
  • Las diferencias entre sensores se aprecian cuando no hay tanta luz en la escena o se trata de una escena con mucho contraste entre zonas claras y zonas oscuras (rango dinámico)
    Por ejemplo en interiores, al atardecer, por la noche, escenas de alto rango dinámico (mapeo tonal / subir sombras en edición), situaciones en las que necesitamos velocidades de obturación muy altas (y tenemos que subir ISO), etc.
  • La evolución tecnológica de los sensores es un factor muy importante.
  • En general, cuanto más grande es el sensor, mayor relación señal a ruido.
    Sensores más grandes tienen en general mejor comportamiento en cuanto a ruido (a igualdad tecnológica, exposición, etc. con respecto a un sensor más pequeño)
  • El tamaño de la celda tiene influencia en las prestaciones, pero su efecto no es tan importante salvo en sensores muy especializados o para tipos de fotografía muy concretos.
  • Subir el valor de ISO no aumenta el ruido
    El ruido está relacionado con la cantidad e luz que recibe la celda, la cantidad total de luz que recibe el sensor y con la electrónica del sensor (ruido térmico, etc.). Subir el ISO hace más visible el ruido porque lo escalamos junto con la información de la escena. Usamos menos fotones para generar la imagen: menor SNR
  • El valor de ISO máximo de una cámara es una característica irrelevante.
    El parámetro importante es hasta qué ISO puedo subir en una cámara para conseguir imágenes con una calidad aceptable para cada uno, y esto es algo totalmente subjetivo. Se toma como referencia un SNR > 20dB para calidad aceptable y SNR>30dB para muy buena calidad
  • Comparar el rendimiento de cámaras con sensores diferentes no es sencillo
    Intervienen muchos parámetros. Puedes usar páginas como DXOMARK o photonstophotos.net en las que se utilizan métodos científicos para comparar cámaras.
    Ten en cuenta también que esos datos sólo te dan una idea global. En el día a día de cualquier fotógrafo apenas se aprovechan esos rendimientos máximos que daría teóricamente cada cámara.

 

 

Finalmente, la conclusión más importante sería que la clave está sobre todo en la cantidad de luz que llega al sensor.

Si puedes controlar o maximizar la luz que recibe el sensor estarás optimizando su rendimiento y la calidad de las fotos o el vídeo: iluminación, elegir bien los momentos y lugares…

En este sentido los objetivos también juegan un papel muy importante. La apertura del objetivo determina la cantidad máxima de luz (por unidad de superficie) que llegará al sensor para una determinada escena.

 

 

Para profundizar en el tema sobre sensores electrónicos y ruido:

What the DxOMark scores really mean

How to Interpret Digital Camera Sensor Reviews

Image Sensors Introduction

Image Sensors Noise Sources

Photons to Photos

Sobre el efecto Moiré, aliasing y filtro OLPF en el sensor

 

 

Criterios de elección de cámaras y equipo

Cámaras réflex: modelos, características y precios

Cámaras de fotos recomendadas: guías y criterios de elección

Cámaras recomendadas para aprender fotografía

Cámaras réflex recomendadas por gama / tipo de usuario

Cámara para fotografiar a bebés y niños pequeños

Cámaras recomendadas para vlogging