<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Formatos y Codecs [categoría] &#8226; Pospro: tu blog sobre postproducción</title>
	<atom:link href="https://pospro.alainchas.dev/categoria/formatos-y-codecs/feed/" rel="self" type="application/rss+xml" />
	<link>https://pospro.alainchas.dev/categoria/formatos-y-codecs/</link>
	<description>Blog sobre postproducción de vídeo y audio, efectos visuales (VFX) y efectos de sonido (SFX).</description>
	<lastBuildDate>Thu, 05 Nov 2020 17:09:41 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://pospro.alainchas.dev/wp-content/uploads/2020/09/pospo-isotipo-color-64px.png</url>
	<title>Formatos y Codecs [categoría] &#8226; Pospro: tu blog sobre postproducción</title>
	<link>https://pospro.alainchas.dev/categoria/formatos-y-codecs/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Parámetros del audio digital</title>
		<link>https://pospro.alainchas.dev/parametros-del-audio-digital/</link>
					<comments>https://pospro.alainchas.dev/parametros-del-audio-digital/#respond</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Thu, 05 Nov 2020 01:21:02 +0000</pubDate>
				<category><![CDATA[Audio]]></category>
		<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7814</guid>

					<description><![CDATA[<p>En este artículo vamos a tratar las propiedades o parámetros del audio digital, los cuales encontraremos en prácticamente cualquier proyecto de producción o postproducción que abarque la parte sonora. Frecuencia de muestreo La frecuencia de muestreo, también conocida como tasa de muestreo, es el número de muestras que se toman por intervalo de tiempo. De...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/parametros-del-audio-digital/">Parámetros del audio digital</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>En este artículo vamos a tratar las propiedades o parámetros del audio digital, los cuales encontraremos en prácticamente cualquier proyecto de producción o postproducción que abarque la parte sonora.</p>



<h2 class="wp-block-heading">Frecuencia de muestreo</h2>



<p>La frecuencia de muestreo, también conocida como tasa de muestreo, es el <strong>número de muestras que se toman por intervalo de tiempo</strong>. De esta forma, si se cogen 8.000 muestras de una señal en 1 segundo, hablamos de una frecuencia de muestreo de 8.000 Hz.</p>



<p>Debido a que normalmente su utilizan frecuencias de varias decenas de miles de muestras por segundo, es común encontrar la unidad <strong>kHz</strong> (equivalente a 1.000 Hz).</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img fetchpriority="high" decoding="async" width="1024" height="776" src="https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-frecuencias-de-muestreo-senal-audio-digital-v2-1024x776.png" alt="Comparación demostrativa entre una señal muestreada a 16 Hz y la misma versión muestreada a 8 Hz." class="wp-image-7827" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-frecuencias-de-muestreo-senal-audio-digital-v2-1024x776.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-frecuencias-de-muestreo-senal-audio-digital-v2-300x227.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-frecuencias-de-muestreo-senal-audio-digital-v2.png 1320w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>Comparación entre una señal muestreada a 16 Hz y la misma versión muestreada a 8 Hz. Una frecuencia mayor de muestreo nos dará mayor resolución temporal, pudiendo recuperar una versión más fiel de la señal original.</figcaption></figure></div>



<p>El punto clave aquí es que <strong>a mayor número de muestras por segundo, más fiel será la representación de la señal sonora original</strong> en el eje temporal, a la vez que podremos registrar frecuencias más altas (es decir, a mayor tasa de muestreo, mayores serán las frecuencias que podamos registrar).</p>



<p>El oído humano no es capaz de percibir frecuencias de más de 20 kHz, por lo que una tasa de muestreo de 48 kHz es suficiente para registrar audio de una forma fiel. La norma que se aplica generalmente, es <strong>utilizar como mínimo una tasa de muestreo del doble de la frecuencia más alta que queramos registrar</strong>.</p>



<h2 class="wp-block-heading">Bits por muestra</h2>



<p>Los bits por muestra es el <strong>número de bits que vamos a utilizar para codificar cada muestra</strong> tomada. Si hemos utilizado una frecuencia de muestreo de 8.000Hz, cada segundo tendrá 8.000 muestras, y cada una de ellas será codificada con un número determinado de bits. Lo normal es utilizar 8, 16, 24 o 32 bits por muestra</p>



<p>El punto clave aquí es que <strong>a mayor número de bits por muestra, mayor precisión en la representación de la señal</strong> en el eje de la amplitud (normalmente voltaje).</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img decoding="async" width="1024" height="776" src="https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-diferentes-profundidades-bits-por-muestra-audio-1024x776.png" alt="Comparación entre diferentes profundidades de bits aplicadas a las muestras de una señal de audio." class="wp-image-7835" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-diferentes-profundidades-bits-por-muestra-audio-1024x776.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-diferentes-profundidades-bits-por-muestra-audio-300x227.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/11/comparacion-diferentes-profundidades-bits-por-muestra-audio.png 1320w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption>Comparación entre diferentes produndidades de bit aplicadas a las muestras de una señal de audio (muestreada a 16 Hz en el ejemplo). En el ejemplo se han aplicado 3 bits (equivalente a 8 valores posibles) y 2 bits (equivalente a 4 valores posibles).</figcaption></figure></div>



<h2 class="wp-block-heading">Tasa de bits</h2>



<p>La tasa de bits también es uno de los parámetros del audio digital, pero no debe confundirse con los aspectos vistos anteriormente, ya que es la<strong> tasa de datos (bitrate) de una señal de audio final, después de haber sido codificada</strong>.</p>



<p>De esta forma, una señal de audio codificada con una tasa de muestreo de 44.100Hz y con 16bits por muestra (asumiendo que no ha recibido ningún tipo de compresión), tendrá un flujo de datos de datos de 44.100&#215;16 = 705.600 bits/segundo = 706 kbits/s (aplicando redondeo).</p>



<h2 class="wp-block-heading">Número de canales</h2>



<p>Podemos dividir diferentes tipos de formatos de audio en función del número de canales que tienen.</p>



<h3 class="wp-block-heading">Mono</h3>



<p>Hablamos de señal mono (monoaural) cuando se trata de <strong>un único canal de audio</strong>. Por ejemplo, la grabación que realiza un micrófono individual, o la grabación de una guitarra a través de una interfaz de audio.</p>



<p>Una señal mono no necesariamente se corresponde con un único instrumento; por ejemplo, podemos exportar una canción creada originalmente en estéreo a un fichero de audio de un único canal (mono).</p>



<h3 class="wp-block-heading">Estéreo</h3>



<p>Hablamos de señal estéreo (estereofónica) cuando se trata de <strong>dos canales de audio</strong>. Normalmente una de las señales está pensada para hacerla llegar al oído izquierdo (L) y la otra para hacerla llegar al oído derecho (R).</p>



<p>Es típico encontrar la música en este formato, para ser reproducida por un par de altavoces (izquierdo y derecho), ya sea a través de cascos o monitores de audio.</p>



<h3 class="wp-block-heading">Otros</h3>



<p><strong>Hay formatos y sistemas capaces de soportar audio con más de dos canales</strong>. Un ejemplo típico es el del estándar Dolby Digital con <a href="https://es.wikipedia.org/wiki/5.1_Surround_Sound" target="_blank" rel="noreferrer noopener">sonido 5.1</a>, que cuenta con 6 canales de audio para generar una atmósfera sonora completa para el espectador.</p>



<h2 class="wp-block-heading">Códec y formato</h2>



<p>Otro aspecto a tener en cuenta siempre es el <a href="https://pospro.alainchas.dev/que-es-un-codec/">códec</a> con el que vamos a codificar la señal y el <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">formato contenedor de audio</a> que usaremos para almacenarla.</p>



<p>Generalmente <strong>utilizaremos <a href="https://pospro.alainchas.dev/codecs-de-audio/">códecs y formatos de audio</a> sin pérdidas durante las diferentes etapas de producción y postproducción</strong> (grabación, limpieza de ruido, edición, mezcla, etc.), tales como WAV, AIFF o FLAC.</p>



<p><strong>Utilizaremos códecs y formatos con compresión</strong> (tales como MP3, AAC, Vorbis, etc.) <strong>a la hora de exportar nuestro proyecto</strong> para ser consumido en diferentes dispositivos y tecnologías: reproductores portátiles, streaming, etc.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/parametros-del-audio-digital/">Parámetros del audio digital</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/parametros-del-audio-digital/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Parámetros del vídeo digital</title>
		<link>https://pospro.alainchas.dev/parametros-del-video-digital/</link>
					<comments>https://pospro.alainchas.dev/parametros-del-video-digital/#comments</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Tue, 27 Oct 2020 16:07:26 +0000</pubDate>
				<category><![CDATA[Edición de vídeo]]></category>
		<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7710</guid>

					<description><![CDATA[<p>En este artículo vamos a tratar de forma sencilla los diversos parámetros del vídeo digital. Es importante conocer estos conceptos antes de comenzar a trabajar de forma técnica con los diferentes assets audiovisuales, ya sea en edición de vídeo, efectos visuales, corrección de color u otra técnica de posproducción. Resolución Aunque el concepto resolución a...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/parametros-del-video-digital/">Parámetros del vídeo digital</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>En este artículo vamos a tratar de forma sencilla los diversos parámetros del vídeo digital. Es importante conocer estos conceptos antes de comenzar a trabajar de forma técnica con los diferentes assets audiovisuales, ya sea en edición de vídeo, efectos visuales, <a href="https://pospro.alainchas.dev/la-correccion-de-color/">corrección de color</a> u otra técnica de posproducción.</p>



<h2 class="wp-block-heading">Resolución</h2>



<p>Aunque el concepto resolución a veces es utilizado para referirse a la densidad de píxeles por unidad de longitud (por ejemplo, 72 píxeles por pulgada), en el contexto del vídeo se utiliza para referirse al <strong>número de píxeles por fila y columna de cada frame del vídeo</strong> (por ejemplo, Full HD es una resolución de 1920&#215;1080 píxeles).</p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img decoding="async" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-resoluciones-hd.png" alt="Comparación de resoluciones HD, FHD, QHD y 4K." class="wp-image-7734" width="600" height="403" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-resoluciones-hd.png 800w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-resoluciones-hd-300x201.png 300w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption>Comparación de diferentes resoluciones HD (desde HD básico hasta 4K) en píxeles.</figcaption></figure></div>



<h3 class="wp-block-heading">El píxel (unidad mínima de imagen)</h3>



<p>Un píxel (a partir de ahora «px), por su parte, es la unidad mínima de información mostrada en pantalla y que tiene forma rectangular (no siempre cuadrada, como veremos más adelante).</p>



<h3 class="wp-block-heading">Relación de aspecto</h3>



<p>La relación de aspecto es la <strong>relación entre anchura y altura real de un frame del vídeo</strong>; por poner un ejemplo, una resolución de 1280x720px tiene una relación de aspecto de 16:9, asumiendo que los píxeles son cuadrados.</p>



<h3 class="wp-block-heading">PAR (Pixel Aspect Ratio)</h3>



<p>Es un concepto un tanto confuso porque generalmente los píxeles son cuadrados, pero no siempre es así. <strong>Algunas formatos plantean una reducción del número de píxeles horizontales</strong> manteniendo la misma relación de aspecto, <strong>lo que provoca que el píxel sea (o deba mostrarse) más ancho que alto</strong>; como ejemplo encontramos el formato HDV, que consiste en una resolución de 1440x1080px y relación de aspecto de 16:9, lo cual provoca una relación de aspecto de píxel (PAR) de 1.33.</p>



<h2 class="wp-block-heading">FPS (Frames por segundo)</h2>



<p>Los FPS (Frames per Second) son el <strong>número de imágenes completas (llamados cuadros o frames) que se muestran cada segundo</strong>. En vídeo digital es común encontrar FPS de 24, 30, 50, 60, etc.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="400" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-entre-25fps-50fps-1024x400.png" alt="Comparación entre 25 y 50 fps." class="wp-image-7738" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-entre-25fps-50fps-1024x400.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-entre-25fps-50fps-300x117.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-entre-25fps-50fps.png 1280w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Comparación entre 25 y 50 fps o cuadros por segundo. El vídeo a 50 fps producirá una sensación de mayor fluidez en el espectador. </figcaption></figure>



<p>Cuando tratamos con vídeo entrelazado, el cual es un método de reducción de información a transmitir heredado de la televisión analógica, hablamos de campos por segundo. Dicho de un modo simple, un campo es el equivalente a la mitad de un frame, de forma que 25 fps equivalen a 50 campos por segundo y viceversa.</p>



<h3 class="wp-block-heading">Duración y timecode</h3>



<p><strong>La duración de un vídeo es el tiempo que dura su reproducción</strong>, aunque  el resultado es diferente en función de la velocidad de reproducción. En este sentido, es más exacto hablar del número total de frames que el vídeo tiene.</p>



<p><strong>El timecode es una representación temporal del número de frames</strong>, por lo que involucra una velocidad de reproducción. En este sentido, no es lo mismo hablar de un timecode basado en 30fps o de uno basado en 24fps, ya que provocará que la duración del vídeo reproducido sea diferente. El sistema de timecode típico que veremos en las aplicaciones es el <strong>código de tiempo SMPTE</strong> (creado por la «Society of Motion Picture and Television Engineers»), un estándar que etiqueta los diferentes frames de un vídeo con un código temporal.</p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img loading="lazy" decoding="async" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/codigo-de-tiempo-smpte-24-fps-1024x560.png" alt="Código de tiempo SMPTE con base en 24 fps." class="wp-image-7741" width="512" height="280" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/codigo-de-tiempo-smpte-24-fps-1024x560.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/codigo-de-tiempo-smpte-24-fps-300x164.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/codigo-de-tiempo-smpte-24-fps.png 1280w" sizes="auto, (max-width: 512px) 100vw, 512px" /><figcaption>Ejemplo de código SMPTE basado en una grabación a 24 fps. Dado que el primer frame es etiquetado como 00:00:00:00, el salto de segundo se produce siempre del fotograma 23 al 24.</figcaption></figure></div>



<p>Es importante reproducir un vídeo a la misma velocidad que el sistema de grabación capturó, ya que si no estaremos deformando temporalmente dicho vídeo, acelerándolo o desacelerándolo. También se debe tener cuidado a la hora de editar vídeo, configurando nuestro proyecto adecuadamente y procurando no mezclar material de diferentes FPS (hay veces en que no queda más remedio, y se deberán tratar de forma especial para no caer en errores típicos de desincronía).</p>



<h2 class="wp-block-heading">Sistema de color</h2>



<p>En vídeo digital trataremos generalmente con <strong>dos sistemas de color: RGB y YUV</strong>. Hablamos de RGB cuando la señal de vídeo tiene 3 canales (rojo, verde y azul) y de YUV cuando la señal tiene canal de luminancia y dos de color (a veces denominados «de diferencia de color»).</p>



<p>Es muy común encontrar el vídeo en sistema YUV, ya que es la forma en que graban vídeo la mayoría de las cámaras digitales. Además, la mayoría de los <a href="https://pospro.alainchas.dev/que-es-un-codec/">códecs</a> aplican compresión (chroma subsampling) sobre los canales de color U y V.</p>



<p>Puede que nos encontremos con las siglas <strong>YCbCr</strong>; en ese caso las interpretaremos como YUV, aunque tienen cierta diferencia técnica en su codificación, siendo el uso de YCbCr más adecuado en el contexto digital.</p>



<h3 class="wp-block-heading">Espacio de color</h3>



<p>Los espacios de color son complejos de entender en su totalidad, por lo que veremos un acercamiento sencillo en este post.</p>



<p>Podemos definir un espacio de color como la representación matemática de una determinada <strong>gama de colores</strong> (a veces llamado <strong>gamut</strong>).</p>



<p>Al igual que en fotografía es común encontrar el <strong>sRGB </strong>y el <strong>AdobeRGB </strong>como espacios de color para sistemas RGB, en vídeo es común encontrar los llamados <strong>rec.601</strong> (para definición estándar o SD), <strong>rec.709</strong> (para alta definición o HD) o <strong>rec.2020</strong> (para ultra alta definición o UHD). Los «rec» mencionados son realmente estándares para sistemas de color YUV y que no sólo definen una gama de color, sino que especifican cómo debe codificarse cada color digitalmente (hablaremos de ellos en profundidad en otro post).</p>



<p>La idea con la que nos quedaremos es que un espacio de color determina un conjunto de colores a mostrar, y que nunca llega a cubrir el espectro de color completo, habiendo espacios de color más amplios (con más colores) y más reducidos (con menos colores).</p>



<p>Los espacios de color se dibujan dentro de un <a href="https://es.wikipedia.org/wiki/Espacio_de_color_CIE_1931" target="_blank" rel="noreferrer noopener">diagrama CIE 193</a> (el cual representa todo el espectro visible de color) y se representa el conjunto de colores que tal espacio de color abarca. A continuación se muestra una comparativa de los espacios de color rec.709 y rec.2020, usados como estándar para emisiones de televisión digital hoy en día:</p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img loading="lazy" decoding="async" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/espacios-de-color-rec709-hdtv-rec2020-uhdtv.jpg" alt="Comparación entre espacios de color rec.709 (HDTV) y rec.2020 (UHDTV)." class="wp-image-7749" width="438" height="525" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/espacios-de-color-rec709-hdtv-rec2020-uhdtv.jpg 584w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/espacios-de-color-rec709-hdtv-rec2020-uhdtv-250x300.jpg 250w" sizes="auto, (max-width: 438px) 100vw, 438px" /></figure></div>



<h3 class="wp-block-heading">Subsampling de color</h3>



<p>El subsampling de color se conoce en inglés como <strong>chroma subsampling</strong>, y es una <strong>técnica de compresión de la información de color</strong> que consiste en muestrear las señales de color con menor frecuencia que la señal de luminancia. Se aplica, por tanto, sobre señales en modo YUV (Y para luminancia, UV para señales de diferencia de color).</p>



<p>Su principal objetivo es reducir la información de color enviada, ya que el ojo humano es más sensible a la información lumínica (información de brillo transportada por la señal de luminancia Y). De esta forma se logra reducir la cantidad de información y, por tanto, se logra ahorrar ancho de banda.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="320" height="212" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling.png" alt="Algunos formatos de Chroma Subsampling." class="wp-image-7533" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling.png 320w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling-300x199.png 300w" sizes="auto, (max-width: 320px) 100vw, 320px" /><figcaption><strong>Algunos formatos de Chroma Subsampling</strong>. Una señal RGB (3 canales) es representable como una señal de luminancia (Y) y dos señales de diferencia de color (U,V), que luego se pueden muestrear de diferentes maneras. Por ejemplo, un muestreo 4:2:0 usará un único píxel de cada señal de color (U y V) para cada 4 píxeles (2×2) de luminancia.</figcaption></figure></div>



<h2 class="wp-block-heading">Profundidad de bits</h2>



<p>La profundidad de bits es el <strong>número de bits utilizado para codificar cada muestra de información de vídeo</strong>. Normalmente nos encontraremos con 8 bits por muestra, pero muchos códecs ofrecen la posibilidad de codificar la información con 10, 12 o incluso 16 bits, lo cual da mayor precisión a la señal final de vídeo.</p>



<h2 class="wp-block-heading">Tasa de datos o Bitrate</h2>



<p>El bitrate es la cantidad de bits por segundo de un determinado flujo de datos. Cuanto mayor sea el bitrate mayor será la cantidad de información que podemos enviar con tal flujo de datos, y mayor será el ancho de banda requerido para éste. Trasladado al contexto del vídeo, mayor será lsu calidad, pudiendo albergar más colores, más detalle, más resolución, etc.</p>



<p>Se debe tener en cuenta que algunos códecs suelen tener la opción de generar vídeo en dos tipos de bitrates: <strong>bitrates constantes (CBR)</strong> y <strong>bitrates variables (VBR)</strong>. El VBR es más óptimo ya que sólo se usarán altos flujos de información en escenas que lo requieran (aquellas con mucho movimiento y detalle); sin embargo, puede no ser válido para ciertas transmisiones que requieran estabilidad o tengan un ancho de banda limitado.</p>



<h3 class="wp-block-heading">CBR (Constant Bitrate)</h3>



<p>El CBR consiste en un flujo de datos constante a lo largo del tiempo. Es útil cuando queremos que un vídeo tenga un flujo de datos constante, de forma que no se generen picos de información que puedan saturar el ancho de banda de una determinada emisión.</p>



<h3 class="wp-block-heading">VBR (Variable Bitrate)</h3>



<p>El VBR es más óptimo ya que sólo se usarán altos flujos de información en escenas que lo requieran (aquellas con mucho movimiento y detalle); sin embargo, puede no ser válido para ciertas transmisiones que requieran estabilidad o tengan un ancho de banda limitado.</p>



<h2 class="wp-block-heading">Formato y códecs</h2>



<p>El vídeo digital se almacena es contenedores capaces de embeber diferentes flujos de datos (como pueden ser vídeo, audio y subtítulos). Estos contenedores reciben el nombre de formato.</p>



<p>Por otro lado tenemos los códecs, que son los programas informáticos capaces de codificar y decodificar los diferentes flujos de datos, que luego serán incluidos en el mencionado formato contenedor.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="440" height="109" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital.jpg" alt="Formatos comunes de vídeo digital: avi, mpeg, wmv, mov, etc." class="wp-image-7398" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital.jpg 440w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital-300x74.jpg 300w" sizes="auto, (max-width: 440px) 100vw, 440px" /><figcaption>Ejemplo de algunos formatos comunes de vídeo digital.</figcaption></figure></div>



<h3 class="wp-block-heading">Formato contenedor</h3>



<p>Un formato contenedor es el archivo que finalmente va a contener la información generada por un códec, ya sea de <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/">vídeo</a>, de <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">audio</a>, o ambos. Sin embargo, <strong>no todos los formatos contenedores (mp4, mxf, avi, mov, ogg, mkv, etc.) son compatibles con todos los códecs</strong>. Algunos incluso sólo son compatibles con un único códec.</p>



<p>Hoy día se tiende a hacer bastante uso de los contenedores mp4, mov, mkv y mxf debido a su popularidad y a su versatilidad a la hora de embeber información generada por distintos códecs.</p>



<h3 class="wp-block-heading">Códec de vídeo</h3>



<p>Un <a href="https://pospro.alainchas.dev/codecs-de-video/">códec de vídeo</a> es el programa informático o dispositivo hardware capaz de codificar o decodificar una señal de vídeo, generalmente aplicando compresión. Un ejemplo típico de códec usado en vídeo es H264.</p>



<h3 class="wp-block-heading">Códec de audio</h3>



<p>Un <a href="https://pospro.alainchas.dev/codecs-de-audio/">códec de audio</a> es el programa informático o dispositivo hardware capaz de codificar o decodificar una señal de audio, generalmente aplicando compresión. El clásico ejemplo de códec de audio es MP3.</p>



<h3 class="wp-block-heading">Otros streams de datos</h3>



<p>Un contenedor de vídeo es capaz, por lo general, de almacenar información de vídeo y audio, pero puede ser capaz de almcenar otro tipo de datos. De esta forma algunos formatos contenedores son capaces de tener metadatos, así como subtítulos, menús, idiomas, etc.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/parametros-del-video-digital/">Parámetros del vídeo digital</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/parametros-del-video-digital/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Qué es un Codec</title>
		<link>https://pospro.alainchas.dev/que-es-un-codec/</link>
					<comments>https://pospro.alainchas.dev/que-es-un-codec/#respond</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Fri, 09 Oct 2020 12:11:17 +0000</pubDate>
				<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7464</guid>

					<description><![CDATA[<p>Codec proviene del acrónimo codificador-decodificador, y podemos definirlo como «programa capaz de codificar o decodificar un flujo de datos de vídeo o audio». Por tanto, debemos quedarnos con la idea de que el codec es un software que procesa una señal de entrada (de vídeo o audio) y que entrega una versión codificada, normalmente comprimida,...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-codec/">Qué es un Codec</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Codec </strong>proviene del acrónimo <strong>codificador-decodificador</strong>, y podemos definirlo como «programa capaz de codificar o decodificar un flujo de datos de vídeo o audio».</p>



<p>Por tanto, debemos quedarnos con la idea de que el codec es un software que procesa una señal de entrada (de vídeo o audio) y que entrega una versión codificada, normalmente comprimida, a su salida. Asimismo, debe ser capaz de realizar el proceso inverso para decodificar la señal.</p>



<h2 class="wp-block-heading">Software y Hardware</h2>



<p>Aunque hemos definido los codecs como software (y en el fondo siempre son algoritmos informáticos) es cierto que a veces los encontramos en forma de hardware, como dispositivos capaces de digitalizar y codificar señales analógicas de vídeo o audio, o simplemente convertir <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/">formatos digitales</a> entre sí.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="1008" height="301" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chasvideo.png" alt="Chas Video Converter: conversor de vídeo y audio gratuito para Windows." class="wp-image-7520" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chasvideo.png 1008w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/chasvideo-300x90.png 300w" sizes="auto, (max-width: 1008px) 100vw, 1008px" /><figcaption><strong><a href="http://chasvideo.com" target="_blank" rel="noreferrer noopener">Chas Video Converter</a></strong>: conversor software gratuito (vídeo y audio) para Windows.</figcaption></figure></div>



<h2 class="wp-block-heading">Codecs y compresión</h2>



<p>Uno de los aspectos más característicos de los códecs, y el que generalmente determina si un codec es mejor que otro, es su <strong>capacidad para comprimir la información digital</strong> sin que el vídeo o audio resultante pierda calidad aparente, a veces llamada calidad subjetiva.</p>



<h3 class="wp-block-heading">Calidad objetiva vs. subjetiva</h3>



<p>La <strong>calidad objetiva</strong> es la información de la que se compone una imagen, vídeo o audio en su origen, sin haber recibido ningún tipo de pérdida.</p>



<p>La <strong>calidad subjetiva</strong>, en cambio, es la que el usuario percibe al consumir una imagen, vídeo o audio, habiendo pasado éste por algún tipo proceso de compresión. Diremos que la calidad subjetiva es alta cuando el resultado comprimido parece tan bueno como el fichero original a ojos dele spectador, y diremos que la calidad es baja cuando se percibe que el producto se ha degradado de alguna forma (se ve pixelado, se escucha peor, se aprecian artefactos de imagen, etc.).</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="1021" height="350" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/original-raw-vs-jpeg-compression.jpg" alt="Diferencia entre una imagen RAW y una versión JPG comprimida. En este caso el ojo humano no aprecia la diferencia." class="wp-image-7524" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/original-raw-vs-jpeg-compression.jpg 1021w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/original-raw-vs-jpeg-compression-300x103.jpg 300w" sizes="auto, (max-width: 1021px) 100vw, 1021px" /><figcaption>La <strong>calidad objetiva es diferente</strong> entre las imágenes, ya que la compresión JPG siempre aplica pérdidas. Sin embargo, diremos que la<strong> calidad subjetiva es la misma</strong> en este caso, ya que el ojo humano no es capaz de apreciar la diferencia.</figcaption></figure></div>



<h3 class="wp-block-heading">Tipos de compresión</h3>



<p>La compresión se divide, por lo general, en <strong>2 categorías</strong>: compresión <strong>reversible </strong>(lossless) y compresión <strong>irreversible </strong>(lossy).</p>



<h4 class="wp-block-heading">Reversible (Lossless)</h4>



<p>La compresión reversile es aquella que reduce la información digital de un archivo (en definitiva, reducir el número de bytes) sin que se genere una pérdida de calidad objetiva en el fichero. Es decir, <strong>no se pierde información</strong>, ya que se podrá recuperar en su totalidad al descomprimirla.</p>



<p>Este categoría se basa en <strong>algoritmos de compresión estadística</strong>, como veremos más adelante en este artículo.</p>



<h4 class="wp-block-heading">Irreversible (Lossy)</h4>



<p>La compresión irreversible es aquella que reduce la información digital de un archivo (en definitiva, reducir el número de bytes) a través de la eliminación de información visual redundante. Es decir, <strong>se pierde información</strong>, pero si se hace correctamente, sin abusar, el ojo humano no debería ser capaz de apreciarlo.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="1021" height="350" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-calidad-compresion-jpg.jpg" alt="Diferencia entre una compresión JPG de alta calidad y una compresión JPG demasiado agresiva." class="wp-image-7525" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-calidad-compresion-jpg.jpg 1021w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/comparacion-calidad-compresion-jpg-300x103.jpg 300w" sizes="auto, (max-width: 1021px) 100vw, 1021px" /><figcaption>En este caso vemos una diferencia notable entre una compresión JPG adecuada (alta calidad) a la izquierda y una compresión demasiado agresiva (baja calidad) a la derecha. La degradación se aprecia especialmente en zonas de alto detalle, como el pelo.</figcaption></figure></div>



<h3 class="wp-block-heading">Técnicas de compresión</h3>



<p>La compresión se basa en algoritmos matemáticamente complejos y difíciles de describir, por lo que en este artículo veremos una descripción básica de los tipos más comunes de compresión de imagen y sonido.</p>



<h4 class="wp-block-heading">Compresión estadística</h4>



<p>Esta técnica está basada en aprovechar patrones repetitivos de 0s y 1s en el fichero digital para poder crear una versión comprimida (de menor peso), sin que se genere ningún tipo de pérdida de información (tipo lossless). Este es el tipo de compresión que usan programas como WinRAR, WinZip, 7zip, etc., pero que también es usada por los propios códecs.</p>



<h4 class="wp-block-heading">Compresión espacial</h4>



<p>Este tipo de compresión se basa en dividir la imagen en cuadros pequeños (por ejemplo de 8&#215;8 píxeles) y analizarlos individualmente. Si dentro de ellos se encuentran detalles o diferencias de color imperceptibles para el ojo humano se intentan eliminar. Es un tipo de compresión lossy, y es aplicada por la mayoría de códecs, tanto de imagen como de vídeo: <strong>JPG</strong>, <strong>MPEG</strong>, <strong>Theora</strong>, <strong>VP9</strong>, <strong>etc</strong>.</p>



<p>La forma en que la imagen es dividida en cuadros más pequeños puede provocar que éstos se aprecien en el vídeo final si la compresión es demasiado agresiva. A veces, cuando decimos que «se ve pixelado», es debido a una compresión demasiado alta.</p>



<h4 class="wp-block-heading">Compresión cromática</h4>



<p>Hay diferentes formas de abordar una compresión basada en color. Una compresión sencilla es la de los formatos que limitan la gama de color de una imagen a una paleta de pocos colores. De esta forma cualquier color que se salga de esa paleta es mapeado a su color más próximo dentro de ella, y se consigue reducir drásticamente la cantidad de información a transmitir de la imagen. Por lo general es un proceso bastante destructivo, aunque dependerá de la naturaleza de nuestra imagen. Este sistema lo utilizan formatos como GIF y PNG.</p>



<p>Otra forma común de reducir información cromática es simplemente reducir la cantidad de muestras que se usan para representar las señales de color, dejando intactas las de luminancia. Esto lo aplican muchos códecs de vídeo y es debido a que el ojo humano es más sensible a la información lumínica (de brillo) que a la información cromática (de color). Cuando se habla de <strong>subsampling </strong>de color, o vemos un parámetro del tipo «formato 4:2:0», se está haciendo alusión a este tipo de compresión, pero ya lo veremos con más detalle en próximos posts.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="320" height="212" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling.png" alt="Chroma Subsampling" class="wp-image-7533" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling.png 320w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/chroma-subsampling-300x199.png 300w" sizes="auto, (max-width: 320px) 100vw, 320px" /><figcaption>Algunos formatos de <strong>Chroma Subsampling.</strong> Una señal RGB (3 canales) es representable como una señal de luminancia (Y) y dos señales de diferencia de color (U,V), que luego se pueden muestrear de diferentes maneras. Por ejemplo, un muestreo 4:2:0 usará un único píxel de cada señal de color (U y V) para cada 4 píxeles (2&#215;2) de luminancia.</figcaption></figure></div>



<p>Ambas formas de compresión cromática generan pérdidas de información, es decir, son lossy.</p>



<h4 class="wp-block-heading">Compresión temporal y predictiva</h4>



<p>La compresión temporal aprovecha la repetición de partes de la imagen entre fotogramas consecutivos, de forma que puede reducir la información a enviar. También utiliza predicción de movimiento, que en ocasiones ayuda a reducir la información enviada.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="1024" height="288" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/compresion-temporal-aprovechando-movimiento-estatico-1024x288.png" alt="Compresión de vídeo aprovechando la redundancia temporal" class="wp-image-7529" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/compresion-temporal-aprovechando-movimiento-estatico-1024x288.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/compresion-temporal-aprovechando-movimiento-estatico-300x85.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/compresion-temporal-aprovechando-movimiento-estatico.png 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Compresión de vídeo aprovechando la redundancia temporal. Tan sólo haría falta enviar cuánto se mueve el cuadro de la moto, ya que el fondo se repite frame tras frame.</figcaption></figure></div>



<p>Aunque conceptualmente sencillo, lo cierto es que es un tipo de algoritmo bastante complejo.</p>



<p>La idea con la que debemos quedarnos es que un vídeo con mucho detalle y mucho movimiento en la escena produce archivos de mucho mayor tamaño (ya que la información es difícilmente comprimible). Por el contrario, un vídeo con poco movimiento e imágenes sencillas producirá archivos de mucho menor tamaño.</p>



<h4 class="wp-block-heading">Compresión frecuencial (audio)</h4>



<p>Usada en <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">formatos de audio</a> como MP3, se basa en la eliminación de frecuencias que el oído humano no es capaz de percibir, ya sea porque quedan fuera del rango de 20Hz-20KHz o porque quedan enmascaradas por otras frecuencias de mayor amplitud (mayor sonoridad).</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="470" height="265" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2.png" alt="Algunos conceptos en la compresión sonora mp3" class="wp-image-7538" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2.png 470w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2-300x169.png 300w" sizes="auto, (max-width: 470px) 100vw, 470px" /><figcaption>Esta imagen muestra algunos conceptos aplicados en los algoritmos de compresión sonora, como MP3.</figcaption></figure></div>



<p>Aunque pueda sonar raro, la compresión frecuencial también se utiliza en la compresión espacial de vídeo, ya que cualquier señal es matemáticamente representable como conjunto de frecuencias (a tarvés de un proceso llamado Transformada de Fourier). Sin embargo, no es objeto de este artículo entrar en esos detalles.</p>



<h2 class="wp-block-heading">Otros parámetros de los códecs</h2>



<p>Hemos analizado la compresión como el aspecto clave de un códec porque realmente es el que determina la calidad del resultado. Sin embargo, hay otros aspectos a tener en cuenta.</p>



<h3 class="wp-block-heading">Velocidad y eficiencia</h3>



<p>Comprimir vídeo es una tarea computacionalmente costosa y dependiendo de la complejidad del algoritmo y de la longitud del vídeo, la codificación puede llegar a costar incluso horas. Un aspecto importante de un códec es la velocidad a la que puede obtener el resultado.</p>



<h3 class="wp-block-heading">Capacidades del codec</h3>



<p>La capacidad para procesar diferentes tipos de señal de entrada y de salida; por ejemplo, señales de vídeo con produndidades de bits diferentes, canal alpha, etc. Para conocer más aspectos clave sobre vídeo puedes consultar el post <a href="https://pospro.alainchas.dev/parametros-del-video-digital/">parámetros del vídeo digital</a>.</p>



<h3 class="wp-block-heading">Complejidad del algoritmo</h3>



<p>Hemos mencionado que son programas informáticos  computacionalmente costosos, por lo que un factor diferencial es cómo un códec hace uso intensivo (pero óptimo a la vez) de la CPU, la memoria RAM y la tarjeta gráfica, en la medida de lo posible.</p>



<h2 class="wp-block-heading">Codecs de vídeo y audio</h2>



<p>Este artículo ya es bastante extenso, por lo que se han clasficado en los siguientes posts los <a href="https://pospro.alainchas.dev/codecs-de-video/">mejores codecs de vídeo</a><em> </em>y los <a href="https://pospro.alainchas.dev/codecs-de-audio/">mejores codecs de audio</a>.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-codec/">Qué es un Codec</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/que-es-un-codec/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Qué es un formato de audio</title>
		<link>https://pospro.alainchas.dev/que-es-un-formato-de-audio/</link>
					<comments>https://pospro.alainchas.dev/que-es-un-formato-de-audio/#respond</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Thu, 08 Oct 2020 18:04:32 +0000</pubDate>
				<category><![CDATA[Audio]]></category>
		<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7445</guid>

					<description><![CDATA[<p>Comencemos definiendo el sonido como «la sensación producida por una onda de presión que llega al oído humano, dentro de un rango frecuencial de entre 20 y 20.000 HZ». Podríamos definir el sonido de forma aún más técnica, pero en este artículo nos bastará con saber que tal onda de presión es representable como señal...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">Qué es un formato de audio</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Comencemos definiendo el sonido como «la sensación producida por una onda de presión que llega al oído humano, dentro de un rango frecuencial de entre 20 y 20.000 HZ».</p>



<p>Podríamos definir el sonido de forma aún más técnica, pero en este artículo nos bastará con saber que tal onda de presión es representable como señal eléctrica cuando es registrada, por ejemplo, con un micrófono.</p>



<h2 class="wp-block-heading">Definición de formato</h2>



<p>En el contexto del audio, el formato es la «forma» en que la información de sonido (generalmente representada por una señal eléctrica) es almacenada en un soporte, ya sea digital o analógico, como veremos más adelante.</p>



<h2 class="wp-block-heading">Formato Analógico vs Digital</h2>



<p>Aunque hoy día el usuario medio trabaje casi siempre en un ambiente digital, hay que tener en cuenta que un formato de audio no necesariamente lo es.</p>



<p>El audio analógico suele almacenarse como una señal eléctrica o magnética en determinados soportes, y es la representación de una onda de presión (generalmente propagada por el aire) que es contínua por naturaleza. Las ondas de sonido se registran de forma analógica por medio de dispositivos como micrófonos, pastillas de guitarra, interfaces de sonido, etc., y luego pasan por un proceso de <a href="https://es.wikipedia.org/wiki/Muestreo_digital">muestreo</a><strong> </strong>para ser digitalizadas. </p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="1024" height="221" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/audio-signal-sampling-1024x221.png" alt="Sampleo del audio analógico a audio digital." class="wp-image-7454" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/audio-signal-sampling-1024x221.png 1024w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/audio-signal-sampling-300x65.png 300w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/audio-signal-sampling.png 1080w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Representación sencilla de un proceso de muestreo de una señal analógica para digitalizarla, codificada con muestras de 3 bits (equivalente a 8 valores posibles de amplitud).</figcaption></figure></div>



<p>Es cierto que en muchas situaciones encontramos sistemas híbridos o incluso conversiones de señal analógico/digitales (y viceversa) para compatibilizar equipos entre sí, por eso en este artículo vamos a ir a los ejemplos sencillos y más fácilmente comprensibles.</p>



<h3 class="wp-block-heading">Formatos de audio analógico</h3>



<p>Hablamos de audio analógico cuando los datos de sonido no están transmitidos o almacenados en un lenguaje binario (secuencia de 0s y 1s). Cabe destacar que muchas veces los formatos analógicos están directamente relacionados con los soportes físicos utilizados. Algunos ejemplos son:</p>



<h4 class="wp-block-heading">Disco de vinilo</h4>



<p>Introducido en 1948 por la compañía Columbia Records en los Estados Unidos, fue un formato de audio analógico increiblemente exitoso durante décadas, basado en la reproducción física de la señal sonora en los propios surcos del disco.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="600" height="302" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/reproductor-de-discos-de-vinilo.jpg" alt="Reproductor de discos de vinilo" class="wp-image-7451" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/reproductor-de-discos-de-vinilo.jpg 600w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/reproductor-de-discos-de-vinilo-300x151.jpg 300w" sizes="auto, (max-width: 600px) 100vw, 600px" /><figcaption>Reproductor de discos de vinilo.</figcaption></figure></div>



<h4 class="wp-block-heading">Cintas magnéticas</h4>



<p>Más que de un formato se trata de un tipo de soporte físico para el almacenamiento de la señal de audio analógico (aunque también se puede grabar señales digitales en este tipo de soportes). Dentro de este género, un clásico fue la cinta de cassete para la grabación y reproducci´´on de audio analógico.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="540" height="360" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-de-cassette.jpg" alt="Cinta de cassette como soporte de almacenamiento de audio analógico" class="wp-image-7453" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-de-cassette.jpg 540w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-de-cassette-300x200.jpg 300w" sizes="auto, (max-width: 540px) 100vw, 540px" /><figcaption>Cinta de cassette como soporte magnético de audio analógico.</figcaption></figure></div>



<h3 class="wp-block-heading">Formato de audio digital</h3>



<p>Hablamos de <strong>audio digital</strong> cuando la información de sonido, en última instancia, está codificada en un lenguaje binario (secuencia de 0s y 1s).</p>



<p>Los formatos digitales tienen la gran ventaja de no ser dependientes del soporte, por lo que los podemos encontrar en cintas magnéticas, discos ópticos, discos duros, etc., y pueden ser trabajados ´facilmente sin la necesidad de hardware específico.</p>



<p>Aunque el audio digital hoy día se consume partiendo de ficheros en el PC o vía streaming, merece especial mención el <strong>CD-A</strong> (Compact Disc Digital Audio) que tuvo su auge hacia el año 2000. Este tipo de soporte podía almacenar cualquier tipo de información digital pero se utilizó durante muchos años para almacenar audio digital con un formato no comprimido, con <a href="https://pospro.alainchas.dev/parametros-del-audio-digital/#Frecuencia_de_muestreo">frecuencia de muestre</a>o a 44.1 KHz, y con muestras de 16 bits.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="520" height="347" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/compact-disk-audio-digital.jpg" alt="" class="wp-image-7474" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/compact-disk-audio-digital.jpg 520w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/compact-disk-audio-digital-300x200.jpg 300w" sizes="auto, (max-width: 520px) 100vw, 520px" /><figcaption>CD-A (Compact Disc Digital Audio) fue un formato exitoso hacia el año 2000.</figcaption></figure></div>



<h2 class="wp-block-heading">Diferencia entre códec y formato de audio</h2>



<p>Al igual que ocurre con los <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/">formatos de vídeo</a>, existe diferencia entre formato y códec, aunque en el caso del audio suelen estar más relacionados entre sí, a veces recibiendo el mismo nombre.</p>



<p>Cuando hablamos de un <strong>formato digital de audio</strong> hablamos de un contenedor que almacena streams de audio (codificados mediante un <a href="https://pospro.alainchas.dev/que-es-un-codec/">códec</a>) y que, a diferencia de los formatos digitales de vídeo, <strong>muchas veces recibe el mismo nombre que el propio códec</strong>. De esta forma es común llamar <strong>MP3 </strong>a un archivo de audio codificado con códec MP3, o llamar <strong>AAC </strong>a un archivo de audio codificado con códec AAC. Sin embargo esto no siempre se cumple; por ejemplo, los archivos de audio <strong>OGG </strong>están comprimidos con un codec <strong>Vorbis</strong>.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="404" height="112" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital.png" alt="Formatos comunes de audio digital" class="wp-image-7476" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital.png 404w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital-300x83.png 300w" sizes="auto, (max-width: 404px) 100vw, 404px" /><figcaption>Algunos formatos comunes de audio digital.</figcaption></figure></div>



<p>El <strong>códec de audio</strong> es, por tanto, el algoritmo o programa (en definitiva una pieza de software) capaz de codificar una señal o flujo de datos de audio, generalmente aplicando algún tipo de compresión. Asimismo, también es capaz de decodificar el conjunto de datos resultante de forma que se pueda recuperar el flujo de datos o señal original.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">Qué es un formato de audio</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/que-es-un-formato-de-audio/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Qué es un formato de vídeo</title>
		<link>https://pospro.alainchas.dev/que-es-un-formato-de-video/</link>
					<comments>https://pospro.alainchas.dev/que-es-un-formato-de-video/#respond</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Mon, 05 Oct 2020 08:10:00 +0000</pubDate>
				<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">http://impreza3.us-themes.com/2015/10/27/satisfaction-lies-in-the-effort/</guid>

					<description><![CDATA[<p>Partiendo de que el vídeo es un conjunto de imágenes en secuencia (proyectadas o reproducidas una detrás de otra), su formato hace referencia a cómo éstas son almacenadas en algún tipo de soporte, y con qué parámetros y especificaciones. Además, hemos de recordar que el vídeo también puede contener una o varias pistas de sonido...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/">Qué es un formato de vídeo</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Partiendo de que el vídeo es un conjunto de imágenes en secuencia (proyectadas o reproducidas una detrás de otra), su formato hace referencia a cómo éstas son almacenadas en algún tipo de soporte, y con qué parámetros y especificaciones.</p>



<p>Además, hemos de recordar que el vídeo también puede contener una o varias pistas de sonido sincronizadas con la secuencia de imágenes dada, así como otros flujos de datos.</p>



<h2 class="wp-block-heading">Definición de formato</h2>



<p>En el contexto del vídeo, el formato es la «forma» en que los datos de imagen y <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">audio</a> son almacenados en un soporte, ya sea digital o analógico, como veremos más adelante. El formato determina diversos <a href="https://pospro.alainchas.dev/parametros-del-video-digital/">parámetros del vídeo</a> resultante, como pueden ser:</p>



<ul class="wp-block-list"><li><strong>Cuadros por segundo</strong>: muchas veces denominado FPS (Frames Per Second), es la cantidad de imágenes por segundo que el reproductor deberá mostrar al reproducir el vídeo en cuestión. En algunos formatos de TV analógica, donde cada imagen se divide en dos (vídeo <em>entrelazado</em>), hablaríamos de <em>campos</em> por segundo.</li><li><strong>Resolución</strong>: es la cantidad de detalle, generalmente dada en magnitud de «píxeles x píxeles» de cada frame del vídeo. Por ejemplo, cuando hablamos de un vídeo de resolución FullHD, hablamos de secuencias de imágenes de 1920&#215;1080 píxeles. En el caso del vídeo analógico para televisión hablaríamos de nº de líneas.</li><li><strong>Relación de aspecto</strong>: este parámetro se define como la relación que hay entre anchura y altura de un frame. La relación de aspecto más común en vídeo para web es la 16:9 (también denominada <em>1.78:1</em>). Heredado de la televisión estándar solía ser muy común el 4:3. El cine, en cambio, tiende a relaciones de aspecto más apaisadas como la <em>1.85:1</em> o la <em>2.35:1</em>.</li></ul>



<h2 class="wp-block-heading">Formato Analógico vs Digital</h2>



<p>Aunque hoy día el usuario medio trabaje casi siempre en un ambiente digital, hay que tener en cuenta que un formato de vídeo no necesariamente lo es. Se siguen utilizando videocámaras que graban en cinta magnética o en película de film, siendo muchos de estos soportes puramente analógicos.</p>



<p>Es cierto que en muchas situaciones encontramos sistemas híbridos o incluso <a href="https://es.wikipedia.org/wiki/Conversor_de_se%C3%B1al_anal%C3%B3gica_a_digital" target="_blank" rel="noreferrer noopener">conversiones de señal analógico/digitales</a> (y viceversa) para compatibilizar equipos entre sí, por eso en este artículo vamos a ir a los ejemplos sencillos y más fácilmente comprensibles.</p>



<h3 class="wp-block-heading">Formato de vídeo analógico</h3>



<p>Hablamos de vídeo analógico cuando los datos de imagen, en última instancia, no están codificados en un lenguaje binario (secuencia de 0s y 1s). Cabe destacar que muchas veces los formatos analógicos están directamente relacionados con los soportes físicos utilizados. Algunos ejemplos son:</p>



<h4 class="wp-block-heading">Film (película fotográfica)</h4>



<p>Las cámaras de cine clásicas registran las imágenes en rollos de película fotográfica. La luz es proyectada a través de la lente directamente en la película, registrando la información lumínica en cada frame.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="800" height="214" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/pelicula-fotografica-film.jpg" alt="Película Fotográfica o filme, soporte utilizado por multitud de cámaras analógicas." class="wp-image-7364" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/pelicula-fotografica-film.jpg 800w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/pelicula-fotografica-film-300x80.jpg 300w" sizes="auto, (max-width: 800px) 100vw, 800px" /><figcaption>Ejemplo de película fotográfica, soporte utilizado por multitud de cámaras analógicas.</figcaption></figure></div>



<p>Algunos ejemplos famosos de formatos de film en el mundo del cine son el 35mm, el 16mm o el Super 8.</p>



<h4 class="wp-block-heading">Señales de vídeo analógico</h4>



<p>Creados para la distribución y almacenamiento de vídeo para TV, y directamente influenciados por los estándares marcados por los sistemas <strong>PAL</strong> y <strong>NTSC</strong> (entre otros), se crearon varios tipos de formatos de señal de vídeo, entre los que destacan:</p>



<ul class="wp-block-list"><li><strong>RGB</strong>: consta de 3 señales de color (canales rojo, verde y azul).</li><li><strong>Vídeo por componentes (Y, Pb, Pr)</strong>: consta de 3 señales, una de luminancia y 2 de diferencia de color.</li><li><strong>S-Video (Y/C)</strong>: introducido en 1980 como mejora del vídeo compuesto. Consta de 2 señales, una de luminancia y otra de crominancia o color.</li><li><strong>Vídeo Compuesto (CVBS)</strong>: la señal de luminancia y la de color se combinan en una única señal, junto con los pulsos de sincronismo. La combinación de señales podía causar ligeros artefactos y acabar dando imágenes poco nítidas.</li></ul>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="500" height="262" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/adaptador-video-compuesto-hdmi.jpg" alt="Adaptador de vídeo compuesto y audio estéreo a HDMI" class="wp-image-7391" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/adaptador-video-compuesto-hdmi.jpg 500w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/adaptador-video-compuesto-hdmi-300x157.jpg 300w" sizes="auto, (max-width: 500px) 100vw, 500px" /><figcaption>Dispositivo adaptador de señal analógica de vídeo compuesto y S-Video a HDMI.</figcaption></figure></div>



<h4 class="wp-block-heading">Formatos de televisión analógica</h4>



<p>Los formatos de televisión fueron especificaciones técnicas que describían formas de codificar las señales de manera que fueran compatibles con los televisores. Describían no sólo qué tipo de señales de vídeo utilizar sino también parámetros como la relación de aspecto, número de líneas a dibujar por los televisores, frecuencia de cuadro, modulación de las señales, etc.</p>



<p>Se debe tener en cuenta que los formatos de TV siguen estando vigentes hoy en día, aunque sus bases hayan pasado a estar digitalizadas desde la implantación del TDT (Televisión Digital Terrestre). Entre los sistemas de TV más famosos figuran:</p>



<ul class="wp-block-list"><li><strong>PAL</strong>: caracterizado por sus 25 fps de vídeo entrelazado (50 campos por segundo) e imagen de 625 líneas. Principalmente utilizado en Europa.</li><li><strong>NTSC</strong>: caracterizado por sus 30 fps de vídeo entrelazado (60 campos por segundo) e imagen de 525 líneas. Principalmente utilizado en América.</li></ul>



<h4 class="wp-block-heading">Cintas magnéticas</h4>



<p>Más que de un formato se trata de un tipo de soporte físico para el almacenamiento de la señal de vídeo analógico (aunque también se puede grabar señales digitales en este tipo de soporte). Dentro de este género, un clásico fue la cinta VHS para la grabación y reproducci´´on de vídeo analógico en formatos PAL y NTSC.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="600" height="265" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-magnetica-vhs.jpg" alt="Cinta magnética VHS (Video Home System)" class="wp-image-7377" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-magnetica-vhs.jpg 600w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/cinta-magnetica-vhs-300x133.jpg 300w" sizes="auto, (max-width: 600px) 100vw, 600px" /><figcaption>La cinta VHS (Video Home System) fue un sistema doméstico de grabación y reproducción analógica de video.</figcaption></figure></div>



<h3 class="wp-block-heading">Formato de vídeo digital</h3>



<p>Hablamos de <strong>vídeo digital</strong> cuando los datos de imagen, en última instancia, están codificados en un lenguaje binario (secuencia de 0s y 1s).</p>



<p>Los formatos digitales tienen la gran ventaja de no ser dependientes del soporte, por lo que los podemos encontrar en cintas magnéticas, discos ópticos, discos duros, etc., y pueden ser trabajados ´facilmente sin la necesidad de hardware específico.</p>



<p>A lo largo del tiempo se han ido creando diferentes <strong>formatos digitales</strong>, yendo desde clásicos como <strong>AVI </strong>o <strong>WMV</strong> hasta formatos más modernos como <strong>MP4</strong>, <strong>MOV </strong>o <strong>MKV</strong>. Estos formatos pueden contener diversos flujos de datos, aunque lo normal es que contengan únicamente vídeo y audio. Además, el vídeo contenido puede ser de muchos tipos (de definición stándar, HD, de diferentes FPS, diferentes relaciones de aspecto, etc.), versatilidad que no es típica en el vídeo analógico, donde hay muchas más restricciones entre formatos, soportes y sistemas.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="440" height="109" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital.jpg" alt="Formatos comunes de vídeo digital: avi, mpeg, wmv, mov, etc." class="wp-image-7398" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital.jpg 440w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-de-video-digital-300x74.jpg 300w" sizes="auto, (max-width: 440px) 100vw, 440px" /><figcaption>Algunos formatos comunes de vídeo digital.</figcaption></figure></div>



<p>Muchos de los formatos digitales se adaptan y mejoran con el tiempo, dando opción a contenido de mayor calidad en su interior (flujos de datos de mayor bitrate, resoluciones más altas, capacidad para albergar subtítulos, mayor número de streams, mayor compatibilidad de códecs, etc.).</p>



<p>Por otra parte, es común encontrar <strong>formatos propietarios</strong> de los fabricantes de dispositivos; un ejemplo sería el formato <strong>R3D </strong>de las cámaras de la marca EPIC.</p>



<h2 class="wp-block-heading">Formatos comunes de vídeo digital</h2>



<p>A continuación se listan los formatos de vídeo más comunes en el ámbito digital e internet. Se han dejado de lado formatos contenedores como AVI o WMV (Windows Media Video) debido a que están cayendo en desuso.</p>



<h3 class="wp-block-heading">MP4</h3>



<p>MP4 es uno de los formatos más utilizados para vídeo digital, <strong>desarrollado por el consorcio MPEG</strong> (Moving Picture Experts Group).</p>



<p>Este contendor es capaz de almacenar streams de vídeo codificados con diferentes versiones del estándar <strong>MPEG</strong>, incluyendo<strong> H.264</strong>. En cuanto al audio, lo normal es que contenga streams codificados en <strong>AAC </strong>o incluso en <strong>MP3</strong>.</p>



<p>Este formato puede contener varias pistas de vídeo y audio, y acepta otros tipos de flujos de datos tales como subtítulos, menús o imágenes. También es válido para streaming.</p>



<h3 class="wp-block-heading">MOV</h3>



<p>MOV es la extensión de <strong>archivo del reproductor QuickTime, desarrollado por Apple Inc. en 1998</strong>. Se trata de un formato de vídeo muy común y muy versátil, pudiendo albergar en su interior streams de vídeo y audio procesados por muy diversos códecs.</p>



<p>Además, es un formato muy común en el ambiente de postproducción, siendo compatible con la mayoría editores de vídeo, aplicaciones de composición, etc.</p>



<p>Este formato puede contener varias pistas de vídeo y audio, y acepta otros tipos de flujos de datos tales como subtítulos. También es válido para streaming.</p>



<h3 class="wp-block-heading">MKV</h3>



<p>MKV es la extensión de archivos del contenedor multimedia <strong>Matroska</strong>, es cual es un <strong>formato de código abierto</strong>. Es, a efectos prácticos, muy similar a MP4 o MOV, aunque con la pretensión de servir como formato universal para el almacenamiento de vídeo, audio, programas de TV, videojuegos, imágenes y más.</p>



<p>Aunque fue lanzado inicialmente en 2003, su popularidad ha crecido especialmente en los últimos años. Hay que destacar que es un formato en constante evolución y que ofrece una versatilidad máxima, ya que puede conteneder streams de datos de cualquier tipo. También es válido para streaming.</p>



<h3 class="wp-block-heading">OGG</h3>



<p><strong>Ogg</strong> es otro formato contenedor de código abierto, desarrollado y mantenido por <a href="https://xiph.org/" target="_blank" rel="noreferrer noopener">Xiph.org</a>.</p>



<p>El formato contenedor Ogg permite multiplexar varios flujos de vídeo, audio, texto y metadatos. Este formato está orientado al uso del códec <strong>Theora </strong>para la codificación de vídeo y al uso del códec <strong>Vorbis</strong> para la codificación de audio (aunque también admite <strong>Opus</strong> y <strong>FLAC</strong>).</p>



<h3 class="wp-block-heading">WEBM</h3>



<p><strong>WebM</strong> es un formato contenedor <strong>desarrollado por Google</strong> y se trata de un proyecto de <strong>software libre</strong>. Tiene el principal objetivo de ser usado en web a través de etiquetas HTML5. Podríamos decir que WebM parte de la especificación de Matroska, siendo un subconjunto de ésta.</p>



<p>WebM está optimizado para albergar streams de vídeo codificados con códecs <strong>VP</strong> (los más usados actualmente son <strong>VP8</strong> y <strong>VP9</strong>) y streams de audio codificados con <strong>Vorbis</strong> u <strong>Opus</strong>.</p>



<h3 class="wp-block-heading">MXF</h3>



<p><strong>MXF</strong> proviene de <strong>Material eXchange Format</strong> y se trata de un formato contenedor definido dentro del conjunto de estándares de SMPTE para el intercambio de datos profesionales de audio y video entre aplicaciones.</p>



<p>Cabe mencionar que <strong>MXF</strong> deriva del formato de archivo <strong>AAF (Advanced Authoring Format)</strong>, y es un formato contenedor usado comúnmente en una cadena de producción y postproducción de televisión o incluso cine, debido a la facilidad que ofrece a la hora de embeber datos de vídeo y audio, así como sus metadatos asociados.</p>



<h2 class="wp-block-heading">Diferencia entre códec y formato de vídeo</h2>



<p>El <strong>códec de vídeo</strong> es el algoritmo o programa (en definitiva una pieza de software) capaz de codificar una señal o flujo de datos de vídeo, generalmente aplicando algún tipo de compresión. Asimismo, también es capaz de decodificar el conjunto de datos resultante de forma que se pueda recuperar el flujo de datos o señal original (a veces con pérdidas).</p>



<p>El <strong>formato digital de vídeo</strong>, en cambio, es el contenedor de los flujos de datos de vídeo y audio. De esta forma, podemos decir que un formato es independiente al <a href="https://pospro.alainchas.dev/que-es-un-codec/">códec</a>, aunque esta premisa no siempre se cumple.</p>



<p>Imaginemos un fichero en formato <strong>.MP4</strong>; ¿sabríamos decir qué codec se utilizó para codificar la información del vídeo que contiene? a priori no podemos, ya que un fichero MP4 puede contener vídeo codificado por códecs <em><strong>mpeg2</strong></em>, <em><strong>mpeg4</strong></em>, <em><strong>h264</strong></em>, etc. Y lo mismo para el audio, podría haber sido codificado con códecs <em><strong>mp3</strong></em>, <em><strong>aac</strong></em>, <em><strong>dolby</strong></em>, etc. Por tanto, debe quedar claro que <strong>MP4 es un contenedor digital</strong>, que puede marcar limitaciones al códec (y muchas veces lo hace), pero que a su vez es independiente de éste.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/">Qué es un formato de vídeo</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/que-es-un-formato-de-video/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Codecs de audio</title>
		<link>https://pospro.alainchas.dev/codecs-de-audio/</link>
					<comments>https://pospro.alainchas.dev/codecs-de-audio/#comments</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Sun, 27 Sep 2020 17:19:03 +0000</pubDate>
				<category><![CDATA[Audio]]></category>
		<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7492</guid>

					<description><![CDATA[<p>Ya vimos en un artículo anterior la definición de códec, que podía resumirse como el programa informático capaz de codificar y comprimir una señal de vídeo o audio, siendo a su vez capaz de decodificar el resultado. A diferencia de cómo ocurre en el campo del vídeo, los códecs de audio a veces reciben el...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/codecs-de-audio/">Codecs de audio</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Ya vimos en un artículo anterior la <a href="https://pospro.alainchas.dev/que-es-un-codec/">definición de códec</a>, que podía resumirse como el programa informático capaz de codificar y comprimir una señal de vídeo o audio, siendo a su vez capaz de decodificar el resultado.</p>



<p>A diferencia de cómo ocurre en el campo del vídeo, <strong>los códecs de audio a veces reciben el mismo nombre que el estándar que define su formato</strong> (la forma en que se almacenan en un archivo). Esto ocurre, por ejemplo, con MP3 o AAC.</p>



<p>Este post, por tanto, va a centrarse en listar los <strong>códecs de audio principales</strong> utilizados en el ambiente digital. Para conocer aspectos más técnicos sobre el audio digital puedes consultar el post <a href="https://pospro.alainchas.dev/parametros-del-audio-digital/">parámetros del audio digital</a>.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="404" height="112" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital.png" alt="Formatos comunes de audio digital" class="wp-image-7476" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital.png 404w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/formatos-comunes-audio-digital-300x83.png 300w" sizes="auto, (max-width: 404px) 100vw, 404px" /><figcaption>Algunos formatos comunes de audio digital. En el caso de MP3, WMA y AAC, el nombre del formato coincide con el del códec.</figcaption></figure></div>



<h2 class="wp-block-heading">Códecs de audio con pérdidas</h2>



<p>Estos códecs de audio son aquéllos que aplican compresión destructiva sobre la información de audio, aprovechando redundancias como las frecuencias no audibles. La información que se pierde en el proceso de compresión en este tipo de códecs no es posteriormente recuperable.</p>



<h3 class="wp-block-heading">MP3</h3>



<p>El término MP3 se utiliza tanto para referirse al <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">formato de audio</a> (desarrollado por el <a href="https://mpeg.chiariglione.org/" target="_blank" rel="noreferrer noopener">Moving Picture Experts Group</a> o MPEG) como a su algoritmo de compresión.</p>



<p>MP3 es un algoritmo de compresión con pérdida con el objetivo de disminuir el peso del archivo. Esto significa que se pierde información pero, idealmente, el oído humano no será capaz de percibir la diferencia entre el archivo original y el comprimido.</p>



<p>Es probablemente el formato de audio más popular en el ambiente digital (almacenado en ficheros<strong> </strong>«<strong><strong>.mp3</strong></strong>» ), habiendo sido utilizado en multitud de contextos: audio para CD, reproductores portátiles, audio en PC, compresión de audio para vídeo, streaming, etc.</p>



<h3 class="wp-block-heading">AAC</h3>



<p>AAC proviene de «Advanced Audio Coding» y también es un formato de audio con un algoritmo de compresión con pérdida definido por el grupo MPEG.</p>



<p>Es muy parecido a MP3 aunque con un rendimiento superior, y es más común encontrar audio codificado con AAC acompañando al vídeo almacenado en un <a href="https://pospro.alainchas.dev/que-es-un-formato-de-video/#MP4">fichero MP4</a>. También podemos encontrar ficheros de audio individuales con extensión «<strong>.aac</strong>» .</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="470" height="265" src="https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2.png" alt="Algunos conceptos en la compresión sonora mp3" class="wp-image-7538" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2.png 470w, https://pospro.alainchas.dev/wp-content/uploads/2020/10/mp3-audio-compression-v2-300x169.png 300w" sizes="auto, (max-width: 470px) 100vw, 470px" /><figcaption>Algunos conceptos aplicados en los algoritmos de compresión de audio, como son la eliminación de tonos inaudibles o tonos enmascarados.</figcaption></figure></div>



<h3 class="wp-block-heading">Vorbis</h3>



<p><strong>Vorbis</strong>&nbsp;es un&nbsp;códec de audio que aplica compresión con pérdidas,&nbsp;al igual que MP3. Sin embargo, Vorbis está desarrollado por <a rel="noreferrer noopener" href="https://xiph.org/" target="_blank">Xiph.Org</a> (fundación sin ánimo de lucro que desarrolla formatos multimedia abiertos) y es un proyecto de <a href="https://es.wikipedia.org/wiki/Software_libre" target="_blank" rel="noreferrer noopener nofollow">software libre</a>.</p>



<p>El códec de audio Vorbis utiliza el formato contenedor <strong>OGG </strong>(válido para el almacenamiento de vídeo y audio), aunque como extensión de los ficheros podemos encontrar «<strong>.ogg</strong>» (para vídeo o audio) y «<strong>.oga</strong>» (para audio).</p>



<h3 class="wp-block-heading">Opus</h3>



<p>El códec de audio <strong>Opus</strong>, al igual que Vorbis, utiliza el formato contenedor <strong>OGG</strong>. Se trata de un códec de código abierto que aplica compresión con pérdidas.</p>



<p>Este códec también fue desarrollado por la fundación Xiph.org, en colaboración con Mozilla y Skype, habiendo incorporado tecnología del códec SILK desarrollado para este último.</p>



<h3 class="wp-block-heading">WMA</h3>



<p>Se trata de un <strong>formato de archivo de audio creado por Microsoft</strong> para competir en su día con MP3 y RealAudio. Al igual que ocurre con MP3, WMA puede usarse para hacer referencia tanto al formato de archivo como al propio códec de audio.</p>



<p>Es un códec de compresión con pérdida, aunque existen diferentes versiones de este códec (una de ellas sin pérdida). Sin embargo, hay que destacar que este formato ha perdido popularidad y en raras ocasiones se utiliza.</p>


<div class="video-responsive">
    <iframe
        src="https://www.youtube.com/embed/C2NAUzOx8ko"
        frameborder="0"
        allowfullscreen>
    </iframe>
</div>


<h2 class="wp-block-heading">Códecs de audio sin pérdidas</h2>



<p>Estos códecs son aquéllos que no aplican compresión destructiva sobre la información de audio, aunque sí pueden aplicar algún tipo de compresión reversible (como la compresión estadística).</p>



<h3 class="wp-block-heading">WAV</h3>



<p>WAV es un formato de audio digital generalmente utilizado para almacenar audio de alta calidad, sin compresión y sin pérdidas. Fue desarrollado por <a href="https://www.microsoft.com/es-es" target="_blank" rel="noreferrer noopener nofollow">Microsoft</a> e <a href="https://www.ibm.com/" target="_blank" rel="noreferrer noopener nofollow">IBM</a> y es frecuentemente utilizado para almacenar streams de audio en el PC.</p>



<p>WAV es técnicamente un formato, y el códec que utiliza para codificar el audio sin pérdidas es el <strong><a href="https://es.wikipedia.org/wiki/Linear_Pulse_Code_Modulation" target="_blank" rel="noreferrer noopener">LPCM</a></strong> (Linear Pulse Coded Modulation). Hay una curiosidad sobre el formato WAV y es que también permite almacenar audio comprimido mediante el códec&nbsp;<strong>Audio Compression Manager</strong>&nbsp;(ACM) de Microsoft.</p>



<p>En resumen, <strong>WAV es comúnmente usado en entornos Windows (PC)</strong> para trabajar con audio digital sin compresión (almacenado en ficheros «<strong>.wav</strong>» ), por ejemplo cuando se realizan mezclas en estaciones de audio digital o editores de vídeo.</p>



<h3 class="wp-block-heading">AIFF</h3>



<p>AIFF es la sigla de <strong>Audio Interchange File Format</strong>, y se trata del equivalente al WAV pero desarrollado por <a href="https://www.apple.com/es/" target="_blank" rel="noreferrer noopener nofollow">Apple</a>. Para la codificación de audio sin pérdidas utiliza <strong><a href="https://es.wikipedia.org/wiki/Modulaci%C3%B3n_por_impulsos_codificados" target="_blank" rel="noreferrer noopener">PCM</a></strong> (modulación por impulsos codificados), aunque existe una variante del formato capaz de comprimir la información de audio, conocida como <strong>AIFF-C</strong>.</p>



<p>Las extensiones comunes de los ficheros «<strong>.aiff</strong>» y «<strong>.aif</strong>» .</p>



<h3 class="wp-block-heading">FLAC</h3>



<p>FLAC es la sigla de <strong>Free Lossless Audio Codec</strong> y se trata de un códec capaz de realizar compresión sin pérdidas, desarrollado por Xiph.org (al igual que Vorbis y Opus). Es decir, este códec aplica ciertos algoritmos de compresión que no afectan sobre la información final del fichero, pudiéndose recuperar siempre la información original.</p>



<p>Como ocurre en muchas ocasiones en el campo del audio, el término FLAC es utilizado para hacer referencia tanto al formato como al códec. Los fichero son almacenados con la extensión «<strong>.flac</strong>» y se trata de un formato abierto, al ser un proyecto de software libre.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/codecs-de-audio/">Codecs de audio</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/codecs-de-audio/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Códecs de vídeo</title>
		<link>https://pospro.alainchas.dev/codecs-de-video/</link>
					<comments>https://pospro.alainchas.dev/codecs-de-video/#respond</comments>
		
		<dc:creator><![CDATA[Alain Chas]]></dc:creator>
		<pubDate>Fri, 25 Sep 2020 17:16:54 +0000</pubDate>
				<category><![CDATA[Formatos y Codecs]]></category>
		<guid isPermaLink="false">https://www.postproduccion.net/?p=7489</guid>

					<description><![CDATA[<p>En un post previo vimos qué es un códec, y lo podíamos resumir como el programa informático capaz de codificar y comprimir una señal de vídeo o audio, siendo a su vez capaz de decodificar el resultado. Además, vimos cómo su principal característica era la capacidad de compresión de cara a generar archivos de mucho...</p>
<p>La entrada <a href="https://pospro.alainchas.dev/codecs-de-video/">Códecs de vídeo</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>En un post previo vimos <a href="https://pospro.alainchas.dev/que-es-un-codec/">qué es un códec</a>, y lo podíamos resumir como el programa informático capaz de codificar y comprimir una señal de vídeo o audio, siendo a su vez capaz de decodificar el resultado. Además, vimos cómo su principal característica era la capacidad de compresión de cara a generar archivos de mucho menor peso.</p>



<p>Este post, por tanto, va a centrarse en listar los <strong>códecs de vídeo principales</strong> utilizados en el ambiente digital, aunque para ello conviene hacer un repaso de las características principales de un códec de vídeo.</p>



<h2 class="wp-block-heading">Características de los códecs de vídeo</h2>



<p>A continuación se listan las características principales de los códecs de vídeo, siendo las que determinan si un códec es mejor que otro.</p>



<h3 class="wp-block-heading">Ratio de compresión</h3>



<p>La capacidad de compresión de un códec <strong>se establece comparando el peso del archivo fuente de vídeo y el peso del resultado final</strong>, llamando ratio de compresión a la relación entre ambos pesos de archivo (división entre peso inicial y final). Si ante un mismo vídeo dos códecs generan archivos finales de la misma calidad visual (calidad subjetiva) y distinto peso, diremos que el que más haya comprimido es mejor códec (aunque puede ser peor en otros factores).</p>



<figure>
    <div class="twentytwenty-container" style="margin-bottom: 15px;">
        <img decoding="async" alt="Frame original de un extracto del vídeo de Big Buck Bunny." src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/big-back-bunny-original-frame.jpg" />
        <img decoding="async" alt="Frame de un extracto del vídeo de Big Buck Bunny codificado con h264 de forma agresiva." src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/big-buck-bunny-h264-frame.jpg" />
    </div>
    <figcaption><p>Comparación entre el frame original de un extracto del vídeo de Big Buck Bunny y el frame del mismo vídeo codificado con h264 de forma agresiva. El archivo resultante ha sido de 600KB frente a los 7.2MB del fichero original (ratio de compresión de 12), pero se aprecia la pérdida de calidad visual.</p></figcaption>
</figure>


<p>En general, un vídeo con mucho movimiento y mucho detalle en la secuencia de imágenes que contiene provocará que el códec genere archivos de mayor peso, ya que será más difícil de comprimir, y el ratio de compresión será menor.</p>



<h3 class="wp-block-heading">Velocidad y eficiencia</h3>



<p>Un códec puede ser capaz de comprimir más que otro pero, a su vez, ser mucho más lento. La velocidad de codificación y decodificación es un factor clave en algunos entornos, como el del <strong>streaming de vídeo</strong>, donde los dispositivos deben poder actuar prácticamente en tiempo real; sin embargo, la cantidad de información de vídeo también debe ser lo más liviana posible para ahorrar ancho de banda. Un códec <strong>h264 </strong>suele ser buena opción ya que genera archivos de poco peso.</p>



<p>La <strong>edición de vídeo</strong> es otro campo al que favorece la velocidad del códec, ya que montar una película con un vídeo que se reproduce a saltos es una experiencia horrible. En este caso el peso de los archivos no es tan relevante y se busca conservar la calidad de los archivos fuente, por lo que códecs como <strong>DNxHD </strong>o <strong>ProRes </strong>suelen ser opciones muy utilizadas; además, su decodificación es menos intensiva para la CPU que h264.</p>



<h3 class="wp-block-heading">Perfil y parámetros admitidos</h3>



<p>No todos los códecs están pensados para uso general. Los hay orientados a determinados campos, como la animación (donde se tiende a colores planos), a streaming (donde prevalece la capacidad de compresión), a captura (cámaras digitales), a edición de vídeo y VFX, etc.</p>



<p>De la misma forma, hay códecs que pueden procesar casi cualquier vídeo de entrada y <strong>hay códecs que sólo son compatibles con determinadas combinaciones de resolución y FPS</strong> (Frames per Second), entre otros <a href="https://pospro.alainchas.dev/parametros-del-video-digital/">parámetros de vídeo</a>. Por ejemplo, DNxHD está orientado a resoluciones de 720p, 1080i, 1080p y determinados FPS. Sin embargo, su predecesor DNxHR es compatible incluso con resoluciones mucho más altas como 4K o 8K.</p>



<p>En ocasiones <strong>un códec puede tener diferentes perfiles o niveles</strong>. El perfil determina aspectos como la profundidad de bits (8, 10, 12 bits) y el chroma subsampling (4:2:0, 4:2:2, etc.), así como algunos umbrales de compresión de forma que el vídeo comprimido tenga mayores o menores pérdidas.</p>



<h2 class="wp-block-heading">Codecs finales</h2>



<p>Llamamos códecs finales a los utilizados para exportar un proyecto final, un vídeo que se consumirá directamente por parte del espectador. Estos códecs están pensados para intentar comprimir el vídeo al máximo procurando que se reste la menor cantidad de calidad visual posible.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="799" height="540" src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/chas-video-converter-ogg-theora-vorbis.png" alt="Convirtiendo un vídeo a formato OGG con códec de vídeo Theora y códec de audio Vorbis." class="wp-image-7720" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/09/chas-video-converter-ogg-theora-vorbis.png 799w, https://pospro.alainchas.dev/wp-content/uploads/2020/09/chas-video-converter-ogg-theora-vorbis-300x203.png 300w" sizes="auto, (max-width: 799px) 100vw, 799px" /><figcaption>Convirtiendo un vídeo a formato OGG con códec de vídeo Theora y códec de audio Vorbis (usando <a href="https://chasvideo.com/" target="_blank" rel="noreferrer noopener">Chas Video Converter</a>).</figcaption></figure></div>



<p>Hay que tener en cuenta que los códecs finales son bastante destructivos (aunque subjetivamente no se aprecie una bajada notable de la calidad) y no deben usarse durante una cadena de procesados a lo largo de un flujo de postproducción. Su aplicación debería ser al final de la cadena, para obtener un producto final.</p>



<h3 class="wp-block-heading">mpeg1, mpeg2 y mpeg4</h3>



<p>Técnicamente hablando, los MPEG son estándares de codificación creado por el grupo MPEG (Moving Picture Experts Group). El primer estándar de MPEG (MPEG-1) se utilizó para CD-Video, y posteriormente fue mejorado por MPEG-2, siendo usado en ámbitos como DVD y TV Digital.</p>



<p>MPEG-4 nace como evolución del códec MPEG-2 y añade nuevas y mejoradas formas de comprimir vídeo. A su vez, es un estándar en constante evolución y en el que se basa el popular códec H.264.</p>



<h3 class="wp-block-heading">h264 y h265</h3>



<p>El códec de vídeo <strong>H.264</strong>, también conocido como <strong>AVC</strong> o <strong>MPEG-4 parte 10</strong> (debido al estándar del que proviene) es un códec de alta compresión con pérdidas que ha adquirido mucha popularidad en los últimos años, y lo podemos encontrar en una gran variedad de contextos.</p>



<ul class="wp-block-list"><li><strong>Plataformas de VoD</strong> (Video on Demand) y Streaming: Youtube, Vimeo, Twitch, etc. lo proponen como una de las mejores opciones a la hora de exportar o transmitir vídeo en un ambiente web.</li><li><strong>Cámaras digitales</strong>: especialmente popular entre las DSLR, el códec AVC es ampliamente utilizado en vídeo digital para cámaras semiprofesionales gracias a su alto ratio de compresión.</li><li><strong>Blue Ray</strong>: MPEG-4 AVC se acabó posicionando como la mejor opción a la hora de codificar vídeo final de alta calidad para el formato Blue-Ray Disc.</li></ul>



<p><strong>H.265</strong> es la evolución natural de H.264, y también es conocido como <strong>MPEG-H Parte2</strong> o High Efficiency Video Coding (<strong>HEVC</strong>). Viene como mejora de la calidad visual con tasas menores de datos que las generadas por H.264 (es decir, mayor calidad con mayor ratio de compresión), y es compatible con la televisión en <a href="https://es.wikipedia.org/wiki/Ultra_alta_definici%C3%B3n" target="_blank" rel="noreferrer noopener">ultraalta definición</a> y resoluciones hasta 8192x4320px.</p>



<p>Tanto H.264 como H.265 tienden a almacenarse en <strong>formatos contenedores MP4</strong>; sin embargo, también es posible usar MOV y MKV.</p>



<h3 class="wp-block-heading">Theora</h3>



<p><strong>Theora</strong> es un códec de vídeo libre y de propósito general que se caracteriza por su bajo consumo de CPU. Se trata de una versión mejorada (por parte de <a href="https://xiph.org/" target="_blank" rel="noreferrer noopener">Xiph.org</a>) del códec de vídeo VP3 desarrollado por On2 Technologies.</p>



<p>Este códec resulta muy flexible al permitir subsampling 4:2:0, 4:2:2 y 4:4:4, aunque sólo trabaja con profundidad de 8 bits por píxel por color de canal.</p>



<p>El vídeo generado por el códec Theora <strong>se almacena en formatos OGG</strong>.</p>



<h3 class="wp-block-heading">VP8 y VP9</h3>



<p>Los códecs <strong>VP</strong> fueron inicialmente desarrollados por On2 Technologies, la cual fue adquirida por Google en 2009. En 2010 se liberó la versión VP8 como código abierto. VP9 no es más que la evolución natural del códec VP8.</p>



<p>Al igual que Theora, éstos códecs permiten subsampling 4:2:0, 4:2:2 y 4:4:4, aunque sólo trabajan con profundidad de 8 bits por píxel por color de canal. Hay que destacar que <strong>VP9 admite canal alfa</strong> y que además en versiones próximas admitirá 10 bits de profundidad de color.</p>



<p>El vídeo generado por los códecs VP8 y VP9 <strong>se almacena en formatos WEBM</strong>.</p>



<h2 class="wp-block-heading">Codecs intermedios</h2>



<p>Hablamos de códecs intermedios cuando se trata de códecs que aplican compresiones de muy poca pérdida al material, siendo adecuados para el intercambio de información de vídeo a lo largo de una cadena de postproducción en la que intervienen diferentes programas. Su principal objetivo es lograr mantener la calidad visual del material a lo largo de todo el flujo de trabajo.</p>



<p>Estos códecs tienen un subsampling de color mínimo de 4:2:2, aunque pueden aceptar subsampling mayores como el 4:4:4. Además, están pensados para soportar una profundidad de 8 y 10 bits por canal de color, a veces incluso 12.</p>



<h3 class="wp-block-heading">Avid DNxHD y Avid DNxHR</h3>



<p>Los <strong>DNx</strong> son códecs intermedios de poca pérdida de información, creados por la empresa <a href="https://www.avid.com/es/" target="_blank" rel="noreferrer noopener">Avid</a> (desarrolladora de las aplicaciones profesionales Media Composer y Pro Tools, entre otras soluciones).</p>



<p><strong>DNxHD</strong> es la implementación del códec DNx para material en formato HD, tanto de 1280&#215;720 como de 1920&#215;1080 píxeles. <strong>DNxHR</strong>, por su parte, es la implementación para resoluciones incluso mayores. Cabe destacar que cada familia tiene versiones diferentes (444, HQ, SQ, LB, etc.) que permiten aplicar compresiones más o menos agresivas, en función de nuestras necesidades.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="809" height="162" src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/perfiles-codec-AVID-DNxHR-4K.png" alt="Diferentes perfiles del códec DNxHR para una resolución de 4K." class="wp-image-7699" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/09/perfiles-codec-AVID-DNxHR-4K.png 809w, https://pospro.alainchas.dev/wp-content/uploads/2020/09/perfiles-codec-AVID-DNxHR-4K-300x60.png 300w" sizes="auto, (max-width: 809px) 100vw, 809px" /><figcaption>Algunos de los diferentes perfiles del códec DNxHR para una resolución de 4K.</figcaption></figure></div>



<p>Los vídeos codificados con DNx se almacenan en <a href="https://pospro.alainchas.dev/que-es-un-formato-de-audio/">formatos contenedores</a> compatibles como son <strong>MOV</strong> o <strong>MXF</strong>.</p>



<h3 class="wp-block-heading">Apple ProRes</h3>



<p>ProRes es una línea de códecs desarrollados por Apple e introducidos en 2007 para su exitoso editor de vídeo Final Cut. Es, en líneas generales, un conjunto de códecs muy parecido al ofrecido por los AVID DNx, ofreciendo una gama amplia de perfiles para diferentes necesidades.</p>



<p>Una de las peculiaridades de ProRes es que puede incluir canal alpha (canal de transparencia).</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="841" height="173" src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/apple-pro-res-perfiles-4k.png" alt="Diferentes perfiles del códec ProRes para una resolución de 4K." class="wp-image-7704" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/09/apple-pro-res-perfiles-4k.png 841w, https://pospro.alainchas.dev/wp-content/uploads/2020/09/apple-pro-res-perfiles-4k-300x62.png 300w" sizes="auto, (max-width: 841px) 100vw, 841px" /><figcaption>Algunos de los diferentes perfiles del códec ProRes para una resolución de 4K.</figcaption></figure></div>



<h2 class="wp-block-heading">Codecs de captación o producción</h2>



<p>En el ámbito profesional encontramos cámaras de alta gama que capturan vídeo en diversos formatos, donde lo normal es encontrar material en RAW o códecs como ProRes o DNx con perfiles de muy alta calidad (es decir, baja compresión).</p>



<h3 class="wp-block-heading">RAW</h3>



<p>Hablamos de RAW cuando <strong>el material es respetado tal cual lo captura el sensor de la cámara</strong>. A veces se le da formato para incluirlo en un contenedor digital, pero a efectos práctico la señal de vídeo es respetada y no se altera; es decir, no se le aplica compresión.</p>



<div class="wp-block-image"><figure class="aligncenter size-large"><img loading="lazy" decoding="async" width="916" height="540" src="https://pospro.alainchas.dev/wp-content/uploads/2020/09/ejemplos-codecs-camaras-formatos.png" alt="Tabla con ejemplos de códecs usados en diferentes cámaras profesionales." class="wp-image-7707" srcset="https://pospro.alainchas.dev/wp-content/uploads/2020/09/ejemplos-codecs-camaras-formatos.png 916w, https://pospro.alainchas.dev/wp-content/uploads/2020/09/ejemplos-codecs-camaras-formatos-300x177.png 300w" sizes="auto, (max-width: 916px) 100vw, 916px" /><figcaption>Tabla con ejemplos de códecs usados en diferentes cámaras profesionales, así como sistemas de color, subsampling, profundidad de color, resolución y contenedores digitales utilizados.</figcaption></figure></div>



<h3 class="wp-block-heading">Secuencias de imágenes</h3>



<p>La exportación de secuencias de imágenes es una forma muy común de generar vídeo. Al igual que en el Stop Motion se crea animación a partir de fotografías de los sujetos (que son animados manualmente), es muy típico exportar un proyecto como imágenes individuales.</p>



<p>La ventaja de esta técnica es que nos permite escoger entre una<strong> amplia variedad de formatos de imagen: JPG, PNG, TIFF, EXR, DPX, Targa, etc.</strong>, pudiendo elegir aquél que comprima la información de la forma o´ptima para nuestro caso. Además, muchos de los formatos de imagen mencionados soportan canal alfa (transparencia), lo cual es más difícil de encontrar en los códecs de vídeo.</p>



<p>Los programas de postproducción de vídeo (como los son los editores de vídeo o aplicaciones de efectos visuales) trabajan perfectamente con las secuencias de imágenes.</p>



<p>A veces las secuencias de imagen se pueden almacenar en un formato contenedor como si de un vídeo se tratara; un ejemplo de ello es la exportación de una secuencia de PNGs embebidos en un contenedor MOV.</p>



<h3 class="wp-block-heading">Animation</h3>



<p>Se menciona aquí el códec Animation, que usa un contenedor MOV, al ser una <strong>alternativa interesante a las secuencias de imágenes</strong> vistas previamente. Es un códec orientado a animación, y más concretamente, a imágenes con gran cantidad de colores planos; en cambio, no es bueno para imágenes realistas con mucho detalle y degradados. Otra característica importante es que <strong>admite canal alfa</strong>.</p>
<p>La entrada <a href="https://pospro.alainchas.dev/codecs-de-video/">Códecs de vídeo</a> se publicó primero en <a href="https://pospro.alainchas.dev">Pospro: tu blog sobre postproducción</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://pospro.alainchas.dev/codecs-de-video/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
