Galera como ja foi falado o topico de 720p VS 1080p , hoje estarei trazendo um topico bem interessante sobre 720p VS 1080i !
SIGNIFICADO DOS TERMOS:
720p
Como todos devem sabem, o "p" após o 720 significa "progressive scan". Progressive scan significa que a imagem é exibida na tela por inteiro, ou seja, cada frame de 1280x720 pixels é enviado por completo para a TV. É 60hz nativo e exibe um total de 921.600 pixels por imagem.
1080i
O "i" após o 1080 significa que a imagem é interlaçada, ou seja, ao invés do sinal enviar uma imagem completa de 1920x1080 pixels 60 vezes por segundo, ele manda "meia imagem" 60 vezes por segundo.
As 1080 linhas da imagem são divididas VERTICALMENTE em "campos" pares e impares, e enviados em "pacotes" separados. O que muitos falam é que isso resulta sinal que exibe 30 frames por segundo. Bom, isso, vendo por um lado até pode ser considerado correto, mas o realmente correto é dizer que exibe 60 metades de frame por segundo. Por quê?
É simples, por que digamos que começamos a exibir uma cena pelo campo PAR (somente linhas pares). Então a "imagem inicial" que temos é os pixels pares do frame 1 da cena. Quando for a vez do campo IMPAR exibir o restante das linhas, ja estaremos mostrando o frame 2. Isso faz com que seja incorreto dizer que as linhas impares tão exibindo a metade que faltou no "frame anterior", elas estão na realidade exibindo a "outra metade" do PRÓXIMO frame. Então em teoria, usando 1080i você tem uma resolução de 1920x540 pixels @ 60hz (1.036.800 pixels por frame).
COMPARAÇÃO TEÓRICA - 720p vs 1080i:
Fato 1: 720p tem uma resolução maior que 1080i vertical (720 contra 540), porém menor horizontalmente (1280 contra 1920).
Fato 2: O total de pixels exibidos pela imagem em 1080i é MAIOR que o total da imagem 720p
Em teoria não dá pra simplesmente dizer que um é melhor que o outro. Para imagens estáticas, 1080i é melhor, mas para imagens em movimento 720p é melhor por causar menos distorções. (tanto que na televisão americana canais de esportes optam por 720p enquanto os outros ficam com 1080i (que é o sinal "padrão" por enquanto). Em qualquer pesquisa que você fizer no assunto, verá que o sinal 720p será o mais recomendado
Digamos que temos uma TV LCD HDTV Ready 1080i comum, com suporte a 720p (é o caso de 99% das TVs 1080i), com painel de 1366x768 pixels. O recomendado é configurar o sinal do cabo de acordo com a resolução "nativa" da sua TV (no caso, 1080i). Mas vem cá, será mesmo que compensa ter uma imagem interlaçada por causa dos "pixels" a mais?
ANALIZANDO:
A Resolução 1280x720 é menor que 1366x768 tanto na vertical quanto na horizontal, e 1920x540 é maior na horizontal e menor na vertical. Que conclusão você tira disso? É simples, se você mandar o sinal de 720p, sua TV HDTV Ready, a imagem 1280x720 que ela recebe vai ser esticada pra 1366x768.
O sinal 1080i 1920x540 (interlaçado) que a tela acaba sendo reduzido ao tamanho dos seus pixels (1366x768), resultando numa imagem "máxima" de 1366x540. Se sua TV for HDTV Ready e você setar seu Blu-ray para 720p, então você definitivamente não vai aproveitar esses pixels horizontais extras.
A ETERNA BATALHA: 720p vs 1080i:
Lembra que falei que a resolução da imagem de 1080i é 1920x540? Bem, isso não é verdade. Televisões LCD e plasma são por natureza progressivas, então não exibem imagens interlaçadas piscantes como as velhas TVs de TUBO. Elas têm uma técnica pra contornar isso:
Digamos que voltamos ao exemplo da cena que começa pelo campo PAR de pixels. A primeira imagem é renderizada lá, bunitinho ok. Passamos pra segunda imagem, geramos as 540 linhas impares. Só que as 540 linhas que faltam são preenchidas através “dum” misto das linhas ímpares do frame anterior com as pares do frame atual, gerando uma imagem "completa".
Então o que temos na realidade é uma imagem de 1920 pixels horizontais por 540 pixels verticais reais +540 pixels verticais "virtuais" (que são gerados através de formulas matemáticas, mas não estão presentes no sinal).
Alguns podem pensar que isso é um simples reescalonamento da imagem, mas não é bem assim. A imagem "original" é por natureza "fatiada", então o preenchimento dos espaços vazios no meio é feito metade pelo pixel de cima, metade pelo de baixo (somado também a imagem anterior). É uma bizarrice só que resulta numa imagem solida (que em frames estáticos tem os famigerados 1920x1080 pixels reais).
CONCLUSÃO:
1- Você tem uma TV 1280x720 (ou menos, no caso de PLASMA) nativa: Coloca esse sinal em 720p e pronto. Se tua TV tem essa resolução você não vai ganhar ABSOLUTAMENTE nada colocando 1080i, vai só simplesmente trocar o 720p por 720i. Burrada.
2- Você tem uma TV HDTV Ready1080i nativa (1366x768): Eu recomendo colocar o sinal de acordo com a resolução nativa da tua TV, mas se você for místico e ficar com pulga atrás da orelha com o tal borrão da imagem em 1080i e se sua TV suportar, coloque o sinal em 1080p. Se não, ponha 720p que você não vai perdendo nada visível.
SIGNIFICADO DOS TERMOS:
720p
Como todos devem sabem, o "p" após o 720 significa "progressive scan". Progressive scan significa que a imagem é exibida na tela por inteiro, ou seja, cada frame de 1280x720 pixels é enviado por completo para a TV. É 60hz nativo e exibe um total de 921.600 pixels por imagem.
1080i
O "i" após o 1080 significa que a imagem é interlaçada, ou seja, ao invés do sinal enviar uma imagem completa de 1920x1080 pixels 60 vezes por segundo, ele manda "meia imagem" 60 vezes por segundo.
As 1080 linhas da imagem são divididas VERTICALMENTE em "campos" pares e impares, e enviados em "pacotes" separados. O que muitos falam é que isso resulta sinal que exibe 30 frames por segundo. Bom, isso, vendo por um lado até pode ser considerado correto, mas o realmente correto é dizer que exibe 60 metades de frame por segundo. Por quê?
É simples, por que digamos que começamos a exibir uma cena pelo campo PAR (somente linhas pares). Então a "imagem inicial" que temos é os pixels pares do frame 1 da cena. Quando for a vez do campo IMPAR exibir o restante das linhas, ja estaremos mostrando o frame 2. Isso faz com que seja incorreto dizer que as linhas impares tão exibindo a metade que faltou no "frame anterior", elas estão na realidade exibindo a "outra metade" do PRÓXIMO frame. Então em teoria, usando 1080i você tem uma resolução de 1920x540 pixels @ 60hz (1.036.800 pixels por frame).
COMPARAÇÃO TEÓRICA - 720p vs 1080i:
Fato 1: 720p tem uma resolução maior que 1080i vertical (720 contra 540), porém menor horizontalmente (1280 contra 1920).
Fato 2: O total de pixels exibidos pela imagem em 1080i é MAIOR que o total da imagem 720p
Em teoria não dá pra simplesmente dizer que um é melhor que o outro. Para imagens estáticas, 1080i é melhor, mas para imagens em movimento 720p é melhor por causar menos distorções. (tanto que na televisão americana canais de esportes optam por 720p enquanto os outros ficam com 1080i (que é o sinal "padrão" por enquanto). Em qualquer pesquisa que você fizer no assunto, verá que o sinal 720p será o mais recomendado
Digamos que temos uma TV LCD HDTV Ready 1080i comum, com suporte a 720p (é o caso de 99% das TVs 1080i), com painel de 1366x768 pixels. O recomendado é configurar o sinal do cabo de acordo com a resolução "nativa" da sua TV (no caso, 1080i). Mas vem cá, será mesmo que compensa ter uma imagem interlaçada por causa dos "pixels" a mais?
ANALIZANDO:
A Resolução 1280x720 é menor que 1366x768 tanto na vertical quanto na horizontal, e 1920x540 é maior na horizontal e menor na vertical. Que conclusão você tira disso? É simples, se você mandar o sinal de 720p, sua TV HDTV Ready, a imagem 1280x720 que ela recebe vai ser esticada pra 1366x768.
O sinal 1080i 1920x540 (interlaçado) que a tela acaba sendo reduzido ao tamanho dos seus pixels (1366x768), resultando numa imagem "máxima" de 1366x540. Se sua TV for HDTV Ready e você setar seu Blu-ray para 720p, então você definitivamente não vai aproveitar esses pixels horizontais extras.
A ETERNA BATALHA: 720p vs 1080i:
Lembra que falei que a resolução da imagem de 1080i é 1920x540? Bem, isso não é verdade. Televisões LCD e plasma são por natureza progressivas, então não exibem imagens interlaçadas piscantes como as velhas TVs de TUBO. Elas têm uma técnica pra contornar isso:
Digamos que voltamos ao exemplo da cena que começa pelo campo PAR de pixels. A primeira imagem é renderizada lá, bunitinho ok. Passamos pra segunda imagem, geramos as 540 linhas impares. Só que as 540 linhas que faltam são preenchidas através “dum” misto das linhas ímpares do frame anterior com as pares do frame atual, gerando uma imagem "completa".
Então o que temos na realidade é uma imagem de 1920 pixels horizontais por 540 pixels verticais reais +540 pixels verticais "virtuais" (que são gerados através de formulas matemáticas, mas não estão presentes no sinal).
Alguns podem pensar que isso é um simples reescalonamento da imagem, mas não é bem assim. A imagem "original" é por natureza "fatiada", então o preenchimento dos espaços vazios no meio é feito metade pelo pixel de cima, metade pelo de baixo (somado também a imagem anterior). É uma bizarrice só que resulta numa imagem solida (que em frames estáticos tem os famigerados 1920x1080 pixels reais).
CONCLUSÃO:
1- Você tem uma TV 1280x720 (ou menos, no caso de PLASMA) nativa: Coloca esse sinal em 720p e pronto. Se tua TV tem essa resolução você não vai ganhar ABSOLUTAMENTE nada colocando 1080i, vai só simplesmente trocar o 720p por 720i. Burrada.
2- Você tem uma TV HDTV Ready1080i nativa (1366x768): Eu recomendo colocar o sinal de acordo com a resolução nativa da tua TV, mas se você for místico e ficar com pulga atrás da orelha com o tal borrão da imagem em 1080i e se sua TV suportar, coloque o sinal em 1080p. Se não, ponha 720p que você não vai perdendo nada visível.