Retoque de color con Final Cut (II). Entender el Vectorscopio

Posted by on Nov 1, 2008 in Artículos técnicos, Corrección de color | 10 comments

ar19

En respuesta a una petición de un lector vamos a hacer un pequeño tutorial sobre cómo interpretar los monitores de forma de onda y el vectorscopio.

Estos monitores son la versión digital de las unidades utilizadas en broadcast para asegurar que la señal de vídeo se encuentra en parámetros legales así como para cerciorarse del correcto equilibrio de los colores y el contraste de la imagen.

A simple vista pueden parecer sólo una maraña de líneas sin sentido, pero veremos que en realidad es bastante fácil de interpretarlos y son de bastante utilidad.

En primer lugar pondremos el espacio de trabajo de final cut en modo color correction (windows>arrange>color correction)
A en el visor central veremosos la imagen que tenemos en línea de tiempo, y a la derecha la versión de de la imagen en los distintos modos de visualización que nos ofrecen los monitores de señal.

De izquierda a derecha nos encontramos con los siguientes monitores:

  • Vectorscopio: informa sobre el balance de blancos y las dominantes de color. Sirve para evaluar los tonos de color presentes en la imagen.
  • Histograma: es otra manera de visualizar la distribución de luces y sombras. También sirve para evaluar el brillo y el contraste.
  • Forma de onda: informa sobre los niveles de luminancia de la imagen. Sirve para evaluar el contraste general de la imagen.
  • RGB parade: igual que Forma de Onda pero separando los 3 componentes RGB

Cada uno de ellos lleva marcado unos valores de referencia que sirven para juzgar los valorares de la imagen. A continuación vamos a analizarlos con más detalle:

VECTORSCOPIO

El equivamente al vectorscopio sería la rueda de color que representa el espectro de colores de la luz visible. Si comparamos las dos imágenes vemos como cada marca r-g-b-c-m-y , se corresponde con los colores primarios (rojo-verde-azul) y secundarios (cyan-magenta-amarillo) y se sitúan en la misma posición.

La representación de cualquier imagen en el vectorscopio es siempre una serie de líneas o vectores que apuntan en distintas direcciones. Esos vectores nos indican que valores de color predominan en la imagen, pudiendo así valorar si el balance de blancos es correcto o si por el contrario hay alguna dominante de color.

Otro parámetro que controlamos con el vectorscopio es que la señal de vídeo se sitúa correctamente entre los valores de 0-100 marcados con círculos concéntricos. Si el vector sobresale de los márgenes tendremos una señal fuera de norma que es preciso correguirla, y meterla en “norma”.

Una manera fácil de hacerlo es simplemente aplicando un filtro que Final Cut trae por defecto: Broadcast Safe. Este filtro convierte nuestra imagen en “legal” para emisión, evitando colores demasiado saturados y luminancias al margen del 100%.

FORMA DE ONDA

El monitor de foma de onda por el contrario, ofrece fundamentalmente información sobre el contraste de la imagen. La distribución de los puntos en vertical nos indica el nivel de contraste, siendo el tope de abajo el nivel mínimo de luminancia y por tanto donde deben situarse los negros, y el punto más alto la máxima luminancia donde deben situarse el nivel máximo de brillo. La señal excede esos valores, de nuevo estará fuera de norma y deberemos adecuarla, manualmente o con el filtro Broadcast Safe.

Ojo, pues este filtro NO CORRIGE la imagen, simplemente la adecua a la norma de emisión que estemos usando (pal,ntsc,hd) pero no corrige los balances de blanco incorrectos ni la exposición. Para ello necesario una labor de corrección de color como vimos en el artículo anterior.

RGB PARADE

El RGB parade es fundamentalmente un monitor de forma de onda pero que distingue entre las 3 componentes de la señal de vídeo. Con el podemos observar cada componente por separadado y analizar así más detalladamente el color de la imagen.

HISTOGRAMA

Por su parte el histograma, similar al usado en fotografía, es otra manera útil de evaluar el contraste. La distribución de las barras nos indica si la imagen está demasiado iluminada o incluso quemada o por el contrario está oscura. A la derecha del histograma se sitúan luces y brillos y a la izquierda los oscuros. El histograma de Final Cut en ningún caso noS informa de sobre los tonos de color.

Además de ajustar las señal a la norma broadcast, todos estos monitores sirven para igualar imágenes y escenas entre sí. Comparando los valores de los monitores entre distintas tomas podremos igualarlas en contraste y color, algo fundamental sobre todo cuando estamos montando secuencias consecutivas donde es preciso mantener un raccord o continuidad en la imagen, no sólo a nivel de acción, si no también en cuanto a tratamiento de color y estética.

Si bien esto es sólo una introducción que explica cómo se utiliza cada monitor, reservaremos otro artículo a realizar alguna práctica de cómo usarlos en una edición real y cómo evaluar y corregir con ellos una imagen. Como adelanto podemos observar detenidamente estas dos imágnes, que nos aclaran un poco más cómo funcionan y qué representa los monitores o SCOPES:

Read More

Retoque de color con Final Cut (I) Corrección primaria y secundaria

Posted by on Oct 19, 2008 in Artículos técnicos, Final Cut Pro | 13 comments

ar18

Una corrección de color adecuada puede modificar por completo el aspecto final de nuestros trabajos. Es una disciplina esencial en la producción audiovisual, que requiere especialistas y equipación específica cuando se trata de producciones cinematográficas. Pero con herramientas sencillas y asequibles y ciertos conocimientos, también podemos afrontar un retoque de color sencillo que puede mejorar sustancialmente nuestras imágenes.

Cualquier programa de edición incluye sus propias herramientas y filtros de color que podemos usar para seguir estos mismos pasos.

Además Final Cut incluye una software específico como es Color para tareas de etalonaje, aunque no es siempre una solución útil, pues requiere una preparación precisa del flujo de trabajo y por lo tanto un mayor consumo de tiempo. En el día a día y en proyectos donde prima la rapidez, el uso de las herramientas internas de cada sistema de edición es una solución más efectiva, que no tiene por qué producir imágenes de peor calidad.

CONFIGURANDO EL ESPACIO DE TRABAJO

El interfaz quedará entonces de la siguiente manera. En la ventana lateral derecha aparecerán varias herramientas que sirven para monitorizar los valores de color y luminancia. Se trata de monitores de forma de onda y vectorscopio.

Este espacio de trabajo además nos aporta muchas ventajas como por ejemplo una ventana donde poder comparar el antes y el después mediante una cortilnilla o el poder comparar entre tomas adyacentes en la línea de tiempo.

CORRECCIÓN DE COLOR PRIMARIA

Se denomina correción de color primaria al equilibrado del balance de blancos y negros, tonos dominantes y contraste de la imagen. Es decir dejarla lo más parecida a la realidad.
Aplicamos el primer filtro de color al clip de vídeo.

En la ventana Effects> Color Correction 3 ways.

Con este primer filtro trataremos simplemente de ajustar los blancos, medios y negros a los valores estándar.

Es muy importante entender como funciona este filtro. Consta de 3 componentes o vías , una para las luces o blancos, otra para los medios o grises y otra para los negros. Cada vía controla el tono o color dominante de su componente así como su contraste. Además hay un controlador de saturación que afecta al color general de la escena.

Podemos ajustar el balance de blancos de manera automática usando el cuentagotas de cada vía.

La manera de hacer esto es la siguiente:

  1. Identificamos el principal problema: en este caso la escena tiene una tonalidad azulada, muy acusada en los tonos medios y altos.
  2. Seleccionamos el cuentagotas de tonos medios y picamos en una zona que probablemente sea gris en la realidad, en este caso la parte en sombra de las líneas de la carretera, que aunque blanca, al estar en sombra sería gris.
  3. Automáticamente la escena deja de ser azulada y toma un tinte cálido, mucho más acorde con la luz del atardecer con la que está tomada la escena. Podemos hacer los mismo con medios y negros hasta conseguir un correcto balance.

Si lo queremos hacer de manera manual podemos usar un truco útil cuando una imagen tiene tendencia a un tono poco natural, es decir, cuando tiene una dominante debida a un mal balance en cámara.

En ese caso haremos lo siguiente:

1. Identificamos el tono dominante: azul cyan
2. Identificamos en que zona de la imagen es más acentuada esa dominante: Tonos medios.
3. En la rueda de color, tiramos del punto central justo en la dirección contraria de donde se encuentra el tono dominante, en este caso, hacia el magenta.

De esta manera se compensa y se anula el tono dominante. Debemos forzar la imagen hacia el tono que esté justo en frente de la dominante en la rueda de color.

En este caso, el contraste de la imagen es más o menos correcto ¿cómo podemos asegurarnos? Pues aprendiendo a leer los monitores de forma de onda y vectorscopios. En ello podemos ver que la señal se encuentra dentro de los parámetros correctos de las señal de vídeo. Tanto los valores altos de luminosidad como los medios y oscuros se encuentran en los niveles correctos. Aprender a “descifrar” los monitores de onda requiere un tutorial completo que intentaremos afrontar en próximos artículos.

En este paso también podemos estilizar un poco la imagen a nuestro gusto. Por ejemplo, aunque esté correctamente balancenda, podemos intensificar un poco más los tonos cálidos buscando un look más estilizado e incluso ajustar un poco más el contraste, haciendo que los negros estén más comprimidos.

CORRECIÓN SECUNDARIA

La corrección secundaria de color se realiza sobre una imagen correctamente balanceada y sobre ella se hace una corrección selectiva de aquellos tonos que queramos modificar de froma asilada, ya sea por razones puramente estéticas o de otro tipo.

En este caso vamos a retocar el acentuado tono cyan que tiene el cielo, para suavizarlos y hacerlo más real. Añadimos otro color corrector y usamos una herramienta que reside en este filtro, aunque un poco escondida. Al picar en la flechita inferior se despliega un nuevo menú que funciona de manera similar a un chroma.

Con el selector de color picamos en el tono cyan que queremos retocar. Podemos visualizar la máscara de color que estamos creando usando el bontón con el icono de una llave.

Ampliamos la selección hasta que lo consideremos correcto con los controles de edge thin y softening. Ahora desaturamos la selección hasta obtener un tono más creíble.
También podemos modificar un poco el tono y tintarlo de otro azul distinto. Lo haremos sobre la rueda de color de los tonos altos. Descentramos el punto gris situado justo en medio y lo deslizamos hacia el tono de azul preferido.

Podemos hacer lo mismo con los tonos amarillos de la vegetación y entonarlos más hacia verdes. El proceso sería el mismo descrito anteriormente. Podemos sumar todas las correciones de color que queramos pues actúan de forma no destructiva y se calculan en el render final de la imagen

Hay que procurar visualizar las máscaras de color secundaria en distintos momentos del clip y previsualizar al menos un fragmento en movimiento pues las selecciones puede saltar y provocar efectos extraños si no están bien ajustadas.

Con estos pasos ya tendríamos una imagen mucho más correcta y estilizada respecto al original. El proceso es sencillo y rápido y aplicable a cualquier toma.

VIÑETEO Y DEGRADADO

Como consejo podemos añadir un par de filtros más que pueden acentuar un poco el aspecto cinematografico de nuestra imagen.

El filtro de viñeteo (vignette) que viene por defecto en Final Cut nos resultará suficiente en este caso, aunque recomiendo el Plugin de MagicBullet y el fitro de viñeteo que este trae que es bastante mejor, pues no se limita a oscurecer las esquinas, sino que simula bastante bien el efecto de una óptica real, que es lo que buscamos.

El viñeteo por defecto de Final Cut no hace más que oscurecer un poco los bordes y esquinas de la imagen, no hay que abusar de él y apenas debe ser perceptible para que quede bien. No usaremos el blur sino solamente el degradado ( fallof) y el oscurecimeinto ( darken).

Finalmente añadimos un filtro degradado, en este caso con un plugin de Joe´s filter, este filtro es útil sobre todo para intensificar cielos pero puede ser de utilidad en muchas otras circunstacias, por ejemplo en nuestra imagen no lo usaremos para el cielo sino para el suelo, resultando la imagen así:

Este combo de filtros y retoques es aplicable casi en cualquier circunstancia y con ellos podemos solventar rapidamente la mayoría de situaciones que precisen una corrección de color más o menos sencilla.

Read More

Entender la correcion de gamma

Posted by on Sep 14, 2008 in Artículos técnicos | 11 comments

ar17 Vamos a retomar la línea de artículos técnico de EfectoHD, tratando de arrojar un poco de luz sobre un confuso concepto que seguro os sonará: la correción de gamma. La correción de gamma es la responsable de la “sensación” de contraste de una imagen, y decimos sensación porque no es algo inherente a la imagen, si no a los dispositivos que la registran, a los dispositivos que la reproducen y a la luminosidad del entorno donde la estamos viendo. Por esa razón una misma imagen se ve de manera muy distinta dependiendo del monitor o sistema que la esté reproduciendo, así como de la luminosidad del entorno. Una misma imagen puede aparecer blanquecina o “lavada” en un sistema, mientras que en otro puede aparecer contrastada y oscura, todo debido a la correción de gamma que se le aplique. Aunque cada sistema lleva intrínseco su propia correción de gamma, es importante entender cómo funciona. Para entender el concepto de gamma aplicado al proceso de imágenes, hay que entender primero los conceptos de “lineal”, “logarítimico” y “rango dinámico”. Si bien la explicación de estos conceptos nos llevaría al menos un extenso artículo para cada uno, sí haremos aquí un pequeño acercamiento.

EL RANGO DINÁMICO DEL MUNDO REAL

El rango dinámico de una imagen sería la escala que hay entre la máxima luminosidad y el valor más oscuro. Si aplicamos esto al mundo real, el rango dinámico se situraría por ejemplo entre el valor de una superficie opaca, negra y que no refleje la luz y el valor máximo de luminosidad posible, que sería, por supuesto, el Sol. Por tanto el rango dinámico de “la realidad”, aunque el concepto suene un poco abstracto, es increíblemente amplio, casi inconmesurable. Pero como esto no es nada útil a efectos prácticos, de ese inmenso rango dinámico, sólo tomaremos una pequeña fracción, la fracción de valores con los que el ojo humano trabaja.

EL RANGO DINÁMICO DEL OJO HUMANO

Aunque el rango dinámico del ojo humano es también muy amplio (al menos 4 veces más que el mejor negativo de cine) podríamos normalizar sus valores y hacer una escala de medidas entre una superficie negra que refleje solo un 1% de luz y por ejemplo una superficie blanca que refleje el 90% (más allá de ese valor estariamos hablando de un espejo). El 10% restante quedaría reservado para objetos que producen luz propia: velas, lámparas y finalmente el sol. Es decir el ojo humano, se mueve entre ese 1%-90%, que es donde percibe casi todos los valores de contraste y detalle, por encima de se 90% y hasta llegar al 100% máximo de luminosidad dada por el sol, podemos hablar de “superblanco“, el ojo humano no percibe detalles en ellos, sólo una luminosidad cegadora, que no es sólo un 10% mayor que la superficie blanca antes citada, si no 1000, 10000 o 20000 más brillante. Por tanto se puede decir que el ojo humano tiene una respuesta NO LINEAL respecto a la luminosidad del mundo real: a medida que aumenta la luminosidad, la percepción de tal luminosidad por parte del ojo NO es proporcional. Matemáticamente esto tiene una forma de expresarse: una función logarítmica. He aquí entonces los 3 conceptos: RANGO DINÁMICO, LINEAL y LOGARÍTMICO.

LA RESPUESTA LOGARÍTMICA

Los negativos de cine y fotografía tienen también una respuesta logarítmica, similar a la del ojo humano: mientras más se expone a la luz la emulsión, más se oscurece, pero no de forma proporcional pues tiene un tope máximo que está determinado por la densidad del negativo. Asímismo la respuesta de un monitor CRT es también logarítmica. En concreto el rayo de electrones que golpea los fósforos, no tiene una relación lineal con el voltaje que se le aplica. Aumenta su intensidad de forma logarítmica, y de esta manera no lienal aumenta o disminuye el contraste y luminosidad de la imagen que reproduce. Esa relación entre el voltaje aplicado y la respuesta lumínica, o la relación entre la emulsion química y su respuesta a la luz, debe de ser cuantificada, y si es necesario corregida, para poder determinar cuál será el “aspecto” de la imagen resultante.

GAMMA

Es aquí donde entra en juego el concepto de GAMMA. La GAMMA es un valor numérico que aporta la valiosa información para saber cuánto se oscurecerá o brillará una imagen al ser reproducida por un dispositivo. Ese valor es intrínseco y afecta a todas las imágenes que reproduce y por tanto modificando su luminosidad. Por eso es necesario introducir una CORRECIÓN DE GAMMA que evite la alteración de la visualización de la imagen y que equilibre dispositivos con distinta gamma. Es algo esencial, por ejemplo si varias personas están trabajando sobre una misma imagen en equipos distintos. Aquí la cosa se complica un poco más pues en realidad, tenemos que hablar de TRES GAMMAS distintas.

  • GAMMA del monitor: es el valor numérico que eleva el valor de los pixels de la imagen y transforma la luminosidad de la imagen. Es intrínseco al dispositivo debido al comportamiento de sus componentes. Es invariable y debe ser proporcionada por cada fabricante.
  • Corrección de GAMMA: es el valor numérico con el cuál se debe compensar la gamma de un dispositivo para mostrar la imagen original e inalterada.
  • GAMMA resultante: es el valor numérico que se obtiene de compensar la gamma del monitor con la correción de gamma. Se obtiene dividiendo la gamma del monitor/correción de gamma. Aunque en teoría para no alterar la imagen, su valor debería ser 1, se suele intentar que dé un valor de 1.1 o 1.2,así la imagen se percibe un poco más oscura y contrastada, lo cual se suele preferir.

Por otro lado es esencial el entorno de visualización de la imagen pues este altera también su percepción. Mientras más oscuro sea el entorno de visualización (salón en penumbra, sala de cine…) más elevada debe ser la gamma resultante para conseguir una correcta visualización.

Por eso para TV, que suele visualizarse en entornos iluminados o en penumbra, se suele buscar una gamma resultante de 1.1 o 1.2, mientras que en cine se ajusta todo el proceso para que resulte en 1.5 ya que el entorno es completamente oscuro.

Llevemos esto a la práctica. Los monitores CRT tienen una gamma intrínseca de 2.5. En sistemas PC la correción de gamma se ajusta al 2.2 Por tanto la gamma resultante sería: 2.5/2.2, lo que nos da una gamma de alrededor 1.1. Justo la necesaria para un entorno de visualización en penumbra. El negativo de cine tiene una gamma de 0.6 que se multiplica por gamma del proyector de revelado, que es 2.5. Así con 0.6×2.5, se obtine una gamma de 1.5. Justo la necesaria para una sala en oscuridad absoluta. Por su parte los sistemas MAC suelen aplicar una correción de gamma de 1.8, que es más apropiada para imágenes impresas. Lo cual resulta en una gamma final de casi 1.4, por lo que la misma imagen se verá mucho más contrastada que en un PC. Los TFT, plasmas, LCD, etc aunque tienen una tecnología muy distinta a los tubos CRT, intentan imitar su respuesta, por lo tanto la correción de gamma de 2.2 sería también adecuada para ellos. Las TVs domésticas no aplican ninguna correción de gamma. Por esta razón esa correción se aplica directamente en la cámara al grabar . Es decir, toda imagen grabada con una cámara lleva la correción gamma correspondiente de 2.2. Es por tanto importante controlar la correción de gamma en toda la cadena de dispositivos por los que pasa una imagen (cámara, monitores, sistemas de proyección…). Para ello existen las denominadas LUT (look up table o tabla de consulta) que se comparten entre dispositivos y simulan como se vería la imagen en cada sistema. Es un concepto complejo y confuso pero de enorme importancia. Una gestión inadecuada de la corrección de gamma puede resultar en efectos no deseados, pero a la vez es un problema relativamente fácil de solventar, ajustando de nuevo la correción de gamma del sistema hasta que se asemeje a la gamma con que fue creada.

Bibliografía: Digital compositing for Film and Video(Steve Wright)

Charles Poynton-Color technology

Read More

Entender la cámara (III).Controlando la cantidad de luz. Velocidad de exposición y sensibilidad

Posted by on Jul 25, 2008 in Artículos técnicos | 5 comments

ar16

Siguiendo con la serie de artículos anteriores, hablaremos de los conceptos de velocidad de obturación y la sensibilidad

Una vez que tenemos elegida nuestra apertura y por tanto la cantidad de luz que llegará a nuestro fotograma, ahora hay que dejar que esa luz alcance, efectivamente, al sensor. Para ello hay que exponer la superficie del sensor o de la película a la luz durante un fracción de tiempo para que el material “fotosensible” (ya sea electrónica o química) haga su trabajo y guarde, en forma de imagen, la huella de la luz.
El elemento físico que que hay al final del camino de la luz, es el obturador. Éste se sitúa en el cuerpo de la cámara y está siempre cerrado, independientemente de la apertura del objetivo. Sólo cuando presionamos el botón de captación de la cámara se abre, dejando pasar la luz y efectuando la fotografía.Por tanto, el tiempo de exposición (junto a la apertura) determinará si la imagen es demasiado oscura, demasiado luminosa o quemada o simplemente si su exposición es correcta.
La cuestión es ¿cuánto tiempo debe quedar abierto el obturador para que la imagen aparezca correctamente expuesta?
Pues para eso, cualquier cámara con controles manuales, cuenta con una serie de medidas que podremos seleccionar para regular la velocidad de exposición o tiempo que el obturador deja pasar la luz.
La velocidad de exposición se mide en fracciones de segundo: 1/50, 1/90, 1/100, 1/125, 1/200… pudiendo llegar al 1/4000 o más.
Para entendernos, 1/2 significa que durante medio segundo el obturador queda abierto dejando pasar la luz. En el siguiente paso, 1/4, el obturador queda abierto durante un cuarto de segundo, dejando pasar menos luz y así sucesivamente…
Pero en ocasiones especiales podemos necesitar que el obturador permanezca abierto más de un segundo. En ese caso la escala de nuestra cámara nos permitirá elegir, no fracciones, si no segundos enteros: 1”, 1,5”, 2”… O incluso dejar el obturador abierto durante tiempo ilimitado, que el el “modo B”, que tienen las cámaras más avanzadas, donde el obturador no se cierra hasta que dejemos de pulsar el disparador.

Obturación y movimiento

El tiempo que está abierto el obturador, no sólo determina, junto la la apertura, la cantidad de luz de la toma, sino que produce también otros efectos relacionados con el “movimiento” de los objetos ante la cámara.

Una velocidad de obturación alta, literalmente congela el movimiento, capta una fracción de tiempo tan pequeña que permite capturar movimientos rápidos y que a la vez aparezcan nítidos. Por tanto las altas velocidades de obturación son ideales para fotografía deportiva (1/1000 o más), donde podemos capturar acciones dinámicas completamente nítidas.Por otro lado las velocidades lentas (1/50, 1/90…) recogen un instante de tiempo mayor y captan entonces “distintas posiciones” del objeto o sujeto fotografiado en una misma toma, ya que durante el tiempo de obturación se habrá desplazado, con lo cual no aparece nítido, pues tendrá desenfoque de movimiento. Largos tiempos de exposición se usan para fotografiar rastros
de luz, por ejemplo.

Esto se suele usar como recurso estético y bien usado puede dar lugar a imágenes ciertamente impactantes.
Pero hay que tener mucho cuidado con las velocidades de obturación lentas pues igual que captan los movimientos de todo lo que se mueva ante la cámara, también registrarán nuestros movimientos. Pequeños tembliques de la mano o incluso el movimiento al respirar, provocarán que toda la toma completa aparezca movida… En estos casos es imprescindible un pulso de hierro, o en su defecto, un buen trípode.
Por otro lado, las velocidades de obturación lenta se usan en fotografía nocturna, siempre acompañada de un trípode y a ser posible de un disparador remoto para evitar que incluso el movimiento de pulsar el botón de la cámara arruine la toma.

La obturación es exactamente lo mismo que hacían nuestros antepasados cuando, en las antiguas cámaras de cajón de madera y fuelle, abrían manualmente la tapa frontal de la caja y durante unos segundo dejaban pasar la luz para hacer la foto. Técnicamente es lo mismo.
Si bien, actualmente los tiempos de exposición necesarios para captar una imagen son mucho menores ya que la sensibilidad de las películas y sensores es mucho mayor.Igual que hay objetivos más luminosos que otros existen sensores y películas más “rápidos” que otros. Esto significa que con el mismo tiempo de exposición son capaces de realizar “impresiones” de la luz mejores que otras, es decir son más sensibles.

 

La SENSIBILIDAD o número ISO

La sensibilidad es otro factor a tener en cuenta a la hora de calcular la cantidad de luz que debemos hacer llegar al sensor de la cámara.

En fotografía analógica donde era la película el elemento fotosensible y no un sensor, simplemente había que elegir el tipo de película según las necesidades.
Las películas más rápidas son aquellas que necesitan menos tiempo de exposición y son ideales para situaciones con poca luz.
Cada tipo de película tiene un número de referencia que determina su sensibilidad. Se trata del número ISO.Actualmete en la fotografía digital, el número ISO se encuentra en la propia cámara, lo cuál supone una enorme ventaja frente a la fotografía analógica, pues es como si en cada foto pudiéramos seleccionar una película distinta según nuestras necesidades, mientras que antes, una vez que se cargaba un rollo de cierta sensibilidad, se debía acabar todo el rollo antes de poder cambiar la película por otra de distinta sensibilidad.
El ISO digital está determinado por el sensor de la cámara y su capacidad para captar la luz.A más sensibilidad, mayor número ISO, a menos sensibilidad menor ISO, igual que en analógico:ISO 50-100: sensibilidad estándar para ambientes luminosos (ISO100 siempre ha sido la película tipo para luz día), ISO 200-400: sensibilidad alta, atardecer, interiores…
ISO 800 en adelante (hasta ISO 3200 o más): sensibilidad extrema, interiores muy oscuros y noche…

Pero al igual que ocurre en fotografía analógica, un número ISO alto, a pesar de ser de gran ayuda en situaciones de poca luz, lleva aparejado un efecto secundario: el ruido.
El ruido en fotografía se refiere a la notoriedad del grano de la película.
El material fotosensible del que están hechas las emulsiones fotográficas (sales de haluro de plata) son pequeños granos que reaccionan a la luz. Si esas partículas son mayores, la sensibilidad de la película también será mayor porque capta mejor la luz, pero eso lleva aparejado que el grano empiece a ser visible, lo cual lesiona gravemente la nitidez de la imagen. Si bien ese “grano” se usa en ocasiones como recurso estético, siempre se suele buscar la máxima nitidez, por lo cual no es bueno abusar de un número ISO alto.En fotografía digital, aunque no existen tales partículas fotosensibles, las células de los sensores si tienen un rango de sensibilidad que, mientras más se fuerce,(ISO más alto) más ruido digital producirá. Este ruido, aunque no igual al grano de las películas analógicas, sí provoca el mismo efecto de falta de nitidez y granulado de la imagen.Una vez que entendemos en qué consiste la velocidad de obturación y el número ISO, podemos combinarlos con la apertura y la distancia focal, controlando así todos y cada uno de los elementos que intervienen en la captura de una imagen, ya sea en fotografía o en vídeo.En siguientes artículos hablaremos un poco de las diferencias entre la obturación de fotografía y la obturación de vídeo, pues aunque provocan efectos similares, técnicamente no funcionan igual.

Read More

Entender la cámara (II) Enfocando. Profundidad de campo y apertura

Posted by on Jun 28, 2008 in Artículos técnicos | 7 comments

ar15

La profundidad de campo es uno de los factores que más afectan al “sentido emotivo” de las imágenes que capturamos con nuestras cámaras. Manejando bien la profundiad de campo podemos aislar elementos en una escena, dirigir la atención del espectador, proporcionar un aspecto meditado y cuidado a nuestras imágenes, potenciando su calidad narrativa y dramática. Para ello es esencial dominar y entender la técnica en lo que a la distancia focal se refiere. Este artículo intenta dar unas pautas básicas útiles a la hora de controlar esos efectos.

Podemos definir la profundidad de campo como la zona de la imagen que apreciamos con total nitidez o totalmente enfocada. Aunque la lente de la cámara físicamente sólo enfoca correctamente en un punto concreto; la zona que se aprecia como enfocada se extiende siempre tanto por delante como por detrás del sujeto enfocado, es decir, se extiende “en profundidad”; esto es, la profundidad de campo o depth of field (DOF).
Pero la profundidad de campo no se extiende equitativamente por delante y por detrás del punto de máximo enfoque, sino que suele ser mayor hacia atrás y algo menor en la parte anterior, como se puede apreciar en el gráfico.

Manejando de la profundidad de campo podemos provocar efectos muy distintos en la imagen y modificar nuestra percepción sobre ella.

Una amplia profundidad de campo con numerosos elementos enfocados en la escena es ideal para amplios panoramas y paisajes, donde no hay un punto de interés concreto y toda la informaciónn de la escena es relevante. Por el contrario, una profundidad de campo reducida, limita el punto de atención al sujeto enfocado, dejando todo lo demás borroso y en un segundo plano. Por ello, una profundidad de campo reducida es ideal para retratos, macros, detalles de objetos y en general cualquier escena que requiera resaltar un elemento concreto, aislandolo del resto del entorno.

Pero no siempre podemos contar con un total control de la profundidad de campo. La limitación la marcan tanto la cámara como la lente que estemos usando y debemos conocer a fondo las características de éstas para poder controlar adecuadamente la profundidad de campo.

CONTROLAR LA PROFUNDIDAD DE CAMPO

Son varios los elementos que influyen directamente en la profundidad de campo, el principal es la apertura de la lente:

Apertura y  profundidad de campo

Si nos remitimos a la lente de la cámara, ya vimos en el artículo anterior, los tipos que hay teniendo en cuenta la distancia focal. Aprendimos que una lente se “nombra” según su focal en milímetros, por ejemplo, un 50mm, un tele de 200mm, un zoom 24-70mm… pero si la focal es el “nombre” del objetivo nos falta un dato más, que sería, digámoslo para entendernos, el “apellido”.La manera correcta y completa de denominar un objetivo es mediante su distancia focal y su “apertura”. Ej: 50 mm-f/1.8, 24mm-f/4

La apertura de un objetivo es la responsable de la cantidad de luz que pasa através de éste. La apertura se regula mediante un sistema de láminas denominado diafragma, que según se estrecha o ensancha, define un mayor paso de luz. No todos los objetivos tienen la misma configuración y conseguir un objetivo “luminoso” con una gran apertura no es siempre posible, por ello los objetivos más luminosos, suelen ser también los más caros.

La apertura se regula en la lente mediante los f stops o número f. Los f stops son una escala numérica fija que definen el diámetro de la apertura y por tanto la cantidad de luz que entra por ella. Es una progresión fija f/1, f/1.4, f/2, f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, etc

El número f no es más que un factor numérico, una referencia, no una medida. Este número proviene de dividir la distancia focal de la lente entre el diámetro de la apertura, esto es, si tenemos una lente de focal 50mm, con un orificio de 25mm de diámetro por el que pasa la luz, tendremos: 50/25=2, es decir la apertura es f/2. Si cerramos el diafragma y ahora la apertura es de 12,5 mm, pasará por tanto la mitad de luz, y entonces: 50/12,5= 4, es decir la apertura sería f/4.
Por tanto la progresión es inversa y a mayor número f, menor apertura y menor cantidad de luz entrará.

Pero… ¿qué tiene que ver todo esto con la profundidad de campo?

El número f está estrechamente relacionado con la profundidad de campo, ya que, mientras más cantidad de luz entra (menor número f), más se dispersan los rayos de luz dentro de la lente y dejan de enfocarse correctamente en el plano de enfoque de la cámara. Entonces, sólo el sujeto situado a la distancia correcta queda enfocado, mientras que todo lo demás queda fuera de foco. Si por el contrario cerramos la apertura, los rayos entrarán con un ángulo mucho menor, optimizando el enfoque, tanto del sujeto central, como de los elementos de alrededor, ya que los rayos entran mucho más ajustados al orificio. De esta manera, la pequeña apertura no permite que se dispersen tanto.
Este efecto se denomina “círculo de confusión”.

  • MAYOR APERTURA=MENOR PROFUNDIDAD DE CAMPO (MENOR NÚMERO F)
  • MENOR APERTURA=MAYOR PROFUNDIDAD DE CAMPO (MAYOR NÚMERO F)

Con números f entre f/1.4 y f/2.8 podemos lograr profundidad de campo. Usando aperturas a partir de f5.6 en adelante, tendremos imágenes globlamente más enfocadas

Distancia focal y profundidad de campo

La distancia focal de la lente también afecta a la profundidad de campo. Las distancias focales largas aumentan la sensación desenfoque del fondo ya que al ampliar los elementos, provocan un efecto de acercamiento entre el sujeto y el fondo. Literalmente los elementos se “aplanan”, en imágenes tomadas con teleobjetivos, el fondo parece estar mucho más cerca del sujeto de lo que realmente está. Ese efecto provoca que la sensación de profundidad de campo también sea menor

APLICACIÓN PRÁCTICA EN FOTOGRAFÍA Y VÍDEO

Es un hecho. La reducida profundidad de campo se asocia con el cine. Se percibe entonces como una cualidad positiva en una imagen, tanto en fotografía como en vídeo o cine.

¿Pero por qué no es fácil conseguir ese bonito efecto con una cámara de vídeo doméstica?
¿Por qué no se desenfoca el fondo con una cámara de foto compacta?
Pues atendiendo a la explicación anterior sobre la apertura, porque las ópticas que montan estas cámaras no siempre son los suficientemente luminosas y no permiten grandes aperturas; porque además normalmente no tienen distancias focales largas que aumenten ese efecto y porque, a todo esto, hay que sumarle un menor tamaño del sensor lo cual también afecta a la profundidad de campo.
Para cámaras domésticas de vídeo existen inventos como el que revisamos en este artículo que buscan reproducir la estrecha profundidad de campo de la cinematografía en las cámaras de vídeo más económicas.Aun así podemos potenciar el efecto siguiendo estas normas:

  • Usar la mayor apertura de diafragma (menor número f) que nos permitan nuestra cámara y las circunstancias
  • Aumentar el zoom (es decir, usar la focal más larga)
Pero hay que saber usar estos parámetros en combinación con otros como la velocidad de obturación o el ISO para compensar las aperturas más cerradas o las demasiado abiertas, según el efecto que queramos conseguir.
En siguientes artículos hablaremos más detenidamente de esa combinación de parámetros.
Read More

Entender la cámara(I).Encuadrando. Distancia focal y tipos de lente

Posted by on Jun 7, 2008 in Artículos técnicos | 8 comments

ar14

Respondiendo a una sugerencia hecha por un lector del foro y blogger de magicvfx, vamos a hacer un repaso de algunos conceptos básicos de fotografía, que luego aplicaremos al manejo de una cámara, ya sea de vídeo o de fotos.

Cuando se registra una imagen a través de una cámara, el proceso es siempre el mismo: la luz atraviesa la lente y esa luz se refleja en el sensor que es donde se produce la captura de la imagen, ya sea en una película fotosensible o en una matriz de pixels electrónicos.

Pero en ese camino que realiza la luz hay muchas variantes que debemos controlar para obtener una imagen de calidad.
Podemos controlar la cantidad de luz que entra por la lente, determinando así, si la imagen se verá más oscura o más luminosa, asímismo; podemos controlar también el enfoque y la profundidad de campo y además definir el encuadre según el ángulo de visión que nos permita nuestra cámara.

De esta manera, variando con conocimiento todos estos parámetros, obtendremos el efecto deseado.

Los próximos artículos tratarán todos estos temas:

ENCUADRANDO

El encuadre está íntimamente relacionado con el ángulo de visión que nos permite nuestra cámara. El ángulo de visión determina la “cantidad” de imagen que cabe en nuestro encuadre.
Podemos hacer distintos tipos de encuadre: desde amplias imágenes panorámicas hasta primeros planos, a veces con el misma lente. Esta capacidad de encuadre está determinada por la distancia focal del objetivo.
La distancia focal se mide en milímetros y es la distancia que hay entre el centro óptico de la lente y el plano donde se enfoca la imagen. Este plano coincide con el sensor de la cámara. Esa distancia, medida en milímetros, es la que se usa para “nombrar” las lentes.


Cuando decimos que tenemos una lente de 50 mm, quiere decir que esa es aproximadamente la distancia que hay entre el sensor de la cámara y el centro óptico de la lente cuando enfocamos ésta a infinito y, si efectivamente cogemos una regla y la medimos, así es.

No entraremos por el momento en la manera de realizar un encuadre más o menos estético o correcto, ahora nos limitaremos al aspecto técnico y a definir qué lentes permiten ciertos encuadres según su ángulo de visión.

Según sea la distancia focal y el ángulo de visión de una lente, así la clasificaremos:

  • Ojo de pez : lentes que abarcan un ángulo de 180º o más de visión. Estas lentes suelen tener una distancia focal muy reducida, de entre 6 mm y 14 mm . Debido a ese gran ángulo, deforman la imagen y la convierten casi en circular.
  • Gran angular: estas lentes pueden tener un ángulo de entre 60º a 180º, con lo cual son capaces de registrar amplios panoramas, provocando también acusadas distorsiones en las verticales (convergen) y en los objetos más cercanos (se deforman). Su distancia focal está entre 14 mm y 50 mm
  • Normal: Se denominan lentes normales aquellas que se asemejan al ángulo de visión del ojo humano, que se sitúa entre 43º-56º. Son las más adecuadas para retratos ya que producen una visión natural de los rasgos de una persona. La distancia focal de estos objetivos se sitúa entre 50 mm y 80 mm
  • Teleobjetivos: Tienen un ángulo de visión reducido, menor de 30º y por tanto permiten que elementos lejanos ocupen la mayor parte del encuadre. Podemos hablar de teleobjetivos desde los 80mm de distancia focal hasta 500 mm o más.
  • Objetivos zoom: se denomian así a los objetivos que tienen una distancia focal variable. Actualmente la gran mayoría de las cámaras orientadas al gran público llevan este tipo de lentes. Cuando esto ocurre, la lente se “nombra” citando su focal más corta y su focal más larga. Por ejemplo un objetivo 28-135 mm es capaz de abarcar distancias focales que varían desde un gran angular hasta un teleobjetivo.

Estos objetivos se alargan y se acortan según varían su focal. Son lentes muy versátiles y útiles para multiples situaciones, aunque la mayor calidad óptica la proporcionan las lentes de focal fija, ya que llevan menos elementos móviles que pueden afectar a la calidad del cristal.

DISTANCIA FOCAL. EQUIVALENCIAS EN VÍDEO Y FOTOGRAFÍA DIGITAL

En fotografía y cine tradicional el sensor tiene unas dimensiones de 36×24 mm, siendo su diagonal de 35 mm. Este tipo de sensor se denomina FullFrame.
En fototografía y vídeo digital y debido a limitaciones técnicas, el tamaño del sensor suele ser mucho menor. No existe un estándar para tamaños de sensor menores de 35 mm y según el fabricante y el modelo podemos encontrar sensores de 1/3″, 2/3″, 4/3″, etc…

En estos casos las medidas, como podeis observar, se nombran en pulgadas. Esto puede resultar confuso ya que la distancia focal y la diagonal del sensor se nombran siempre en milímetros.

En realidad esa medida en pulgadas no se refiere a la diagonal del sensor si no al diámetro de la pieza exterior que lo soporta. Aunque no es lo más adecuado, es así como de denominan. No hay una relación directa entre esa medida y la diagonal del sensor, por lo cual hay que usar una tabla de referencia para saber cuál es realmente el tamaño del sensor de estas cámaras y extraer así el factor de recorte del sensor. En este enlace podemos encontrar una completa tabla.

FACTOR DE RECORTE

Debido a esta disminución del tamaño del sensor, las distancias focales de las ópticas pierden su correspondencia con el ángulo de visión y debe hacerse una conversión para saber que ángulo de visión nos proporcionará una misma óptica montada en cámaras con diferente tamaño de sensor
El factor de recorte o crop factor es el número de referencia que suele dar el fabricante del sensor para poder resolver esa equivalencia.

Por ejemplo, si una óptica de 50 mm en una cámara de 35 mm, equivale a un objetivo normal con un ángulo de visión similar al ojo humano, esos mismos 50 mm en una cámara con un sensor de 2/3,” y con un factor de recorte de 4, en realidad equivadría a unos 200 mm (50×4), que sería un teleobjetivo.

Poco a poco los fabricantes están introduciendo en el mercado sensores de mayor tamaño, que producen imágenes de mayor calidad y minimizan el ruido. Cámaras fotográficas con la canon 5D o cámaras de vídeo como la RedOne tienen ya sensores fullframe equivalentes a 35 mm, que solventan el problema de conversión de las ópticas.

Pero en general, es conveniente atender a las especificaciones del fabricante y entender el concepto de distancia focal es esencial a la hora de elegir una óptica y combinarla con una cámara digital con factor de recorte, para saber exactamente que ángulo de visión obtendremos.

Además, la distancia focal influye de manera decisiva en la profundidad de campo de nuestra imagen, así como en el efecto dramático y estético de la imagen. Esto lo trataremos más a fondo en próximos artículos.,

Read More
Page 1 of 41234