Escrevemos este artigo em 2006 quando ainda a TV digital não estava tão difundida em nosso país. Para ajudar a entender a TV digital é preciso antes saber como funciona a TV analógica. O artigo em questão foi útil e é útil até hoje por revisar os conceitos da TV analógica.

Desde o advento da TV, os padrões de vídeo analógicos vêm passando por uma evolução, de modo a atender tanto às exigências dos novos sistemas de TV como a própria computação gráfica. Assim, os sinais de vídeo atualmente têm duas grandes gamas de utilização: TV e computação gráfica. Nesse artigo, baseado em documentação da Maxim, abordaremos os diversos formatos de vídeo que existem, padrões, tensões., correção gama, velocidade de varredura e sinais de sincronismo.

Os sinais de vídeo são hoje utilizados tanto para a transmissão de TV terrestre como para a computação gráfica.

No primeiro caso existem limitações de freqüências enquanto que no segundo caso, essas limitações praticamente não existem, além do sincronismo ser gerado no próprio local, conforme sugere a figura 1.]

 

No padrão de transmissão normal é necessário o sincronismo.
No padrão de transmissão normal é necessário o sincronismo.

 

Nos Estados Unidos, os formatos dos sinais de broadcasting são definidos pelo FCC enquanto que na Europa são definidos pelo ITU. Basicamente esses sinais tem sua estrutura a partir do antigo padrão EIA-RS-170, alterado quando a TV em cores foi desenvolvida em 1953.

Assim, para os sinais monocromáticos é preciso apenas um sinal de luminância, e a faixa passante é moderada. Para os sinais em cores, são necessários três sinais de vídeo (RGB) o que significa um considerável aumento na banda passante necessária.

Os sinais de vídeo e os sinais gráficos possuem diversas diferenças que vamos analisar a partir de agora.

 

As Estruturas dos Sinais

A estrutura de um sinal de vídeo para broadcast é mais complexa do que a estrutura de um sinal de vídeo gráfico. Isso ocorre por que no primeiro caso é preciso usar um processo de codificação analógica para se obter um sinal composto, o que é necessário para se transmitir a informação através de uma portadora de alta freqüência, conforme sugere a figura 2.

 

Uma portadora de alta freqüência define o sincronismo.
Uma portadora de alta freqüência define o sincronismo.

 

Nos PCs esse sinal de vídeo composto não é usado. Se bem que originalmente o PC usa o formato de TV no display, ele usa apenas um formato RGB simples, com taxas diferentes de varredura com a finalidade de se obter maior resolução.

Essa resolução maior é importante porque o usuário de um PC fica mais próximo do display do que um usuário de TV.

Os formatos de vídeo utilizados atualmente são o NTSC (USA), PAL (Alemanha) e SECAM (França). Esse sinais codificam os sinais de vídeo de tal forma que elas possam ocupar uma faixa passante menor e assim ser transmitidos pelos canais normais de TV existentes. se bem que isso afete a resolução.

Os três formatos de vídeo possuem as seguintes características em comum:

* Todos usam codificação de luminância em amplitude (Y) como a soma ponderada de R', G'e B'.

* Todos possuem um formato da componente de vídeo ocupando uma faixa estreita

* Todos usam subportadoras em fase ou freqüência para codificar o sinal de croma.

* Todos possuem subportadoras de som

* Todos são compatíveis com a transmissão por uma portadora única de RF.

 

Na figura 3 mostramos a hierarquia dos sinais de vídeo na forma de um gráfico.

 

Hierarquia no sinal de vídeo.
Hierarquia no sinal de vídeo.

 

 

Os Formatos Nativos Primários

Na primeira linha da hierarquia encontramos os sinais R', G'e B' onde a marca {'} indica que eles possuem a correção gama. Esse é o sinal original de vídeo.

Na segunda linha encontramos o RGB linear, a forma gráfica de sinal de vídeo original. As faixas passantes dos dois tipos de sinais é a mesma, sendo determinada apenas pela resolução.

Para a transmissão de TV o fator principal que determina a forma de um sinal de vídeo está nas características da visão humana.

 

Vídeo Composto

A terceira e quarta linha mostram dois tipos de sinais de vídeo composto. São o diferença de cor (Y'PbPr/YU'V/YÍQ) e Luminância-Croma (Y'-C). Nesse ponto é interessante esclarecer que em alguns textos o termo adotado é Liminância-Crominância. O termo "crominância" é mais empregado em óptica. Em eletrônica é mais comum usar o termo "croma", também abreviado por Y.

O sinal Diferença de Cor é produzido pela soma linear e escalonamento de R'G'B' através das equações bem conhecidas de todos que trabalham com TV:

 

Y'= (Kr . Er') + (Kg . Eg') + (Kb . Eb')

 

Pb, U, I = Keb . (B'- Y')

 

Pr, V, Q = Kcr . (R'- Y')

 

Onde:

Kr, Kg e Kb são os coeficientes de luma (luminância), os mesmos para NTSC, PAL e SECAM

Kcr e Kcb variam segundo o processo

É preciso lembrar que essas equações aplicam-se apenas a parte ativa do sinal de vídeo e não aos sinais de sincronismo.

Na figura 4 temos um sinal desse tipo.

 

Sinal de vídeo composto
Sinal de vídeo composto

 

Um problema para a utilização de sinais como este é controlar os retardos de modo que ao se projetar uma imagem, as imagens nas três cores sejam perfeitamente alinhadas no tempo. As principais causas de problemas com essa sincronização ocorrem pela própria transmissão do sinal e pela existência de filtros e retardos inerentes aos próprios circuitos. Cabos coaxiais também são responsáveis pelo mesmo problema.

A compressão MPEG também usa uma forma digitalizada de sinais de diferença de cor, denominado YCbCr, mostrado no mesmo gráfico de hierarquia. Nesse sistema, a redução de baixa é obtida amostrando Cb e Cr em metade da taxa do canal Y. Esse processo é chamado de amostragem 4:2:2.

A componente Y-C é produzida por uma subportadora modulada em freqüência ou fase contendo as componentes de diferença de cor. O canal Y é o mesmo no YPbPr mas o sinal de cor consiste numa subportadora de FM ou PM com um filtro passa banda, além de ter uma faixa de cores menor.

No processo de codificação deve-se observar que se trata da última etapa em que os sinais de Luma e Croma ainda se encontrem separados.

 

Vídeo Composto

No gráfico também encontramos o sinal de vídeo composto (Cvbs) formado pela soma do sinal de Luma e Croma, juntamente com o sinal de áudio monofônico. NTSC, PAL e SECAM são exemplos de sinais de vídeo composto.

O sinal Cvbs é o que tem a menor qualidade de vídeo de todos os mostrados no gráfico. Esses problemas são mais notados nos televisores grandes modernos.

Pelas suas características de qualidade de imagem, esse formato tende a desaparecer.

Um ponto a ser considerado no Cvbs NTSC é que é o único que possui o que se denomina "setup". Trata-se de uma tensão de offset que existe entre os níveis "black" e "blanking". Graças a essa características os sinais de vídeo NTSC são mais facilmente separados da parte de sincronismo do sinal. No entanto, a faixa dinâmica do NTSC é menor quando comparado ao PAL e SECAM.

Os sinais produzidos pelos processos descritos são mostrados na figura 5 com as amplitudes aproximadas em porcentagem. A tabela abaixo dá os valores corretos, baseados num sinal de 1 Vpp R'G'B'em uma carga de 75 ?.

 

Sinais produzidos.
Sinais produzidos.

 

São sinais do mesmo tipo que os encontrados em equipamentos de vídeo comuns como TV VCRs e DVD players.

 

Tensões de vídeo padonizadas.
Tensões de vídeo padonizadas.

 

Video Linear e com Correção Gama

Os sinais de vídeo foram originalmente criados com base nas características das câmeras antigas que usavam sensores com tubos de vácuo.

A tensão de saída de tais câmeras não é linear em relação à luz incidente (B). Sua característica é exponencial e o expoente é denominado gama (?). Assim a característica de sensibilidade dessas câmeras pode ser expressa pela fórmula:

 

B = K . V?

Onde:

B é o fluxo de luz em lumens por metro quadrado

K é uma constante

V é a tensão gerada em volts.

 

Como os tubos de raios catódicos usados nas reproduções das imagens também são válvulas, o efeito inverso da não linearidade compensa as características da câmera e nenhuma correção precisa ser feita. A figura 6 ilustra o que ocorre.

 

Nenhuma correção precisa ser feita.
Nenhuma correção precisa ser feita.

 

No entanto, quando se pensa em trabalhar com as imagens, fazendo sua superposição, não basta pensar em uma adição linear de sinais. Nesse caso, é preciso fazer uma correção do sinal trabalhando com esses sinais na forma linear.

Trabalhando com os sinais na forma linear eles precisam passar depois, para uma reprodução por uma correção. Essa correção gama é especificada em 2,22 para o NTSC e 2,8 para PAL e SECAM.

Para os computadores, os valores podem ser diferentes. Por exemplo a Sun e a Apple otimizaram os seus displays para um fator gama de 1,7 e 1,45 respectivamente enquanto que outros usam os mesmos valores usados em TV.

 

Modificação Gama

Alterações na resposta de gama podem ser feitas tanto no domínio analógico como digital.

No domínio analógico podem ser usados circuitos não lineares para amplificar os sinais com base em amplificadores operacionais, como na configuração mostrada na figura 7.

 

Amplificando o sinal.
Amplificando o sinal.

 

Basta ter um circuito de realimentação não linear com características que correspondam à correção desejada para que ela seja realizada.

No domínio digital é mais fácil obter uma correção com muito maior precisão sem a necessidade de ajustes. Na verdade, esse processo é o preferido, pois qualquer correção que seja feita de modo incorreto causa distorções na imagem.

Para os sinais de TV (broadcast) existem duas fórmulas que devem ser usadas para se fazer essa correção uma para a TV comum (SDTV) e a outra para a TV de alta definição (HDTV):

Para o NTSC/PAL segundo a norma SMPTE170M e ITU-R BT-709:

 

E'x = [{1.099 . B(0,45)) - 0,099] para 0,018 > B > 1,0

E'x = [4,5 . B] para 0 > B > 0,018

 

Para HDTV pela SMTPE240M:

 

E'x = [(1,115 . B(0,45)) - 0,115] para 0,0228 > B > 1,0

 

E'x = [4,0 . B] para 0 > B > 0,0228

 

Varredura e Sincronismo

Os sinais de vídeo são formados por duas partes: vídeo ativo e sincronismo.

Para o sincronismo o nome mais apropriado é Image Reconstruction Timing ou Temporização para reconstrução da Imagem. Trata-se de um sinal que serve de referência para reconstruir a imagem, como o nome indica.

Conforme mostra a figura 8, o sincronismo fica abaixo do nível de preto e, portanto não interfere no vídeo ativo e portanto na reprodução da imagem.

 

Sincronismo não interfere na imagem.
Sincronismo não interfere na imagem.

 

Os sinais que estão abaixo do nível de preto são denominados "blank", sendo originalmente especificados para 0 V.

Se colocarmos o sinal de vídeo ativo e os sinais de sincronismo numa superfície ampla que corresponda a uma imagem, conforme mostra a figura 9, vemos que existem faixas não usadas pela imagem.

 

Faixas não usadas na imagem.
Faixas não usadas na imagem.

 

A porção não usada da imagem, T2(H) e T3(H) têm por finalidade permitir que os dispositivos de varredura magnética dos TRCs façam a volta ou "fly-back" ao ponto de partida da linha seguinte e o fixem entre To(H) e T1(H).

Para a deflexão vertical temos um comportamento similar.

Assim quando tratamos da resolução de um sinal de vídeo, devemos levar em conta duas especificações. A resolução do vídeo ativo e a resolução total do "raster". Isso é válido tanto para os formatos de TV comum como para vídeo gráfico.

A qualidade de uma imagem é função da resolução do vídeo ativo e da faixa passante através da qual ele é transmitido.

Um quadro da imagem é dividido em dois campos pela RS-170. Esse processo permite o que se denomina entrelaçamento da imagem, tendo por finalidade reduzir a cintilação da imagem, sem a necessidade de se aumentar a banda passante

Além disso, no NTSC, a subportadora de cor muda de fase em cada campo enquanto que no PAL ela altera em 90 graus por campo.

No vídeo gráfico temos a varredura progressiva, sem entrelaçamento, já que não o problema da faixa passante para se obter maior resolução.

 

Conversão de Varreduras

No vídeo gráfico, a velocidade de varredura varia conforme os diversos tipo de vídeo e resoluções. O conceito de Multi-Sync (Sincronismo Múltiplo) foi criado justamente para facilitar a operação de um monitor com qualquer velocidade de varredura.

Esses monitores possuem circuitos de deflexão que podem responder a diversas velocidades de varredura pela simples comutação de componentes. O problema maior desses monitores é que eles devem ter características maximizadas para atender ao sinal de maior resolução.

 

Conclusão

Apesar da TV digital estar aí e os computadores serem totalmente digitais, nossos olhos ainda operam de uma forma analógica e portanto sua reprodução deve ser feita dessa forma.

Isso significa que, mesmo podendo ter sinais processados, armazenados ou transmitidos digitalmente, a etapa final de qualquer display (monitor ou TV) é ainda analógica e opera com sinais desse tipo.

A necessidade de interfaceamento fiel com quem deve observar uma imagem é a principal preocupação dos padrões de vídeo analógico que evoluíram até os nossos dias de forma a obter o que há de melhor.

O vídeo analógico ainda vai existir, mesmo com todos os padrões digitais ocupando espaços, pelo menos enquanto nossa visão ainda for analógica, o que certamente tem prazo indefinido para mudar...