Talvez pq seja uma demo?O meu ponto aqui é que dava pra reduzir um pouco a resolução e rodar travado em 60, talvez melhor que o PS5. Então por que deixar assim com um pouco a mais de resolução e framerate instável?
Talvez pq seja uma demo?O meu ponto aqui é que dava pra reduzir um pouco a resolução e rodar travado em 60, talvez melhor que o PS5. Então por que deixar assim com um pouco a mais de resolução e framerate instável?
O meu ponto aqui é que dava pra reduzir um pouco a resolução e rodar travado em 60, talvez melhor que o PS5. Então por que deixar assim com um pouco a mais de resolução e framerate instável?
Eu acho que depende muito do jogo, da percepção do jogador, e da experiência proporcionada.Acredito eu que a grande massa , inclusive eu, de mais valor a resolução, qualidade das texturas do que framerate. Se a variação do framerate for imperceptível, a ideia de ter mais qualidade gráfica é válida.
Ainda mais para mim que acredito no efeito placebo dos framerate nas pessoas.
O Xbox One X criou a cultura de que os consoles Xbox são mais parrudos e suportam configurações significativamente superiores.Você olha para a resolução e pensa que o SX está usando a sua maior potencia para se diferenciar do PS5. Ai vem os FPS e mostram que na verdade o SX deveria estar usando uma resolução menor pra ficar mais estável e parecido ao PS5. Não dá para entender as escolhas dos desenvolvedores aqui com relação a resolução e desempenho.
Eu pensei o seguinte agora: teve vários jogos que o Series X ficou com 57, 58 fps. Se fosse um, ok, mas foram vários, pelo menos no lançamento.
E se o dev kit estiver simulando mal o console retail? O desenvolvedor acha que está redondinho mas quando chega no console de venda, aparecem alguns entraves.
Pode não ser exatamente isso, mas talvez algo nessa linha. O dev não está conseguindo detectar esses soluços no ambiente de desenvolvimento.
Porque a gente vê que o pessoal baixa a resolução que tiver que baixar pra tentar o 60fps estável no PS5, duvido que a intenção não seja a mesma para todas as plataformas. às vezes até o S apresenta o mesmo comportamento. Se o dev colocou mais pixels no Series X, ele em algum momento mediu e entendeu que dava.
O que acham? Coerente?
Na verdade o VRR não é para mascarar queda de frame, e sim para evitar screentearing, que é quando o console e TV não estão em sincronia e causa 'cortinas' na imagem.Tem a questao do Variable Refresh Rate tambem, que no momento nao ta disponivel no PS5. Com o VRR quedas pequenas passam despercebidas e continua lisinho lisinho.
Pode ser que estejam calibrando com VRR em mente, ai vale mais a pena manter a resolucao mais alta do que arrumar umas quedas que nao impactam o jogador.
Talvez screentearing é causado justamente na queda de frame. Mas acredito que não necessariamente, já que a primeira versão do Valhala estava com frame estável e com MUITO screentearing.
Mas de qualquer forma, VRR é pra evitar esse desconforto comum em jogos, mas não vai amenizar em tela a queda de frame.
One of the highlights from the HDMI 2.1 specification’s multiple gaming and media features is Variable Refresh Rate. VRR reduces or eliminates lag, judder and frame tearing for more fluid and better detailed gameplay. VRR enables a gaming source such as a console or computer to deliver video frames as fast as it can, which in many cases is slower than the normal static refresh rate.
Graphics processors require different absolute periods to render each frame, and this time is dependent upon the complexity of the scene, the horsepower of the GPU, the resolution selected and the frame rate. When the GPU is taxed by the other three factors and does not finish rendering the next frame by the time it needs to be displayed, the source must either repeat the current frame or display the partially-rendered next frame, which causes judder and tearing.
By waiting until the next frame is ready to transport it, a smoother gaming experience can be provided to the user.
Com VRR se o jogo cai pra 55 fps eu duvido que você perceberia. Nesse cenário, faz sentido o que o Samuel disse, com VRR você poderia forçar (um pouco) mais de qualidade na tela sem perceber alterações de desempenho. Contudo, eu particularmente não creio que seja o caso agora de fazer isso intencionalmente, pois é uma parcela pequena de consumidores com acesso ao VRR.Mas de qualquer forma, VRR é pra evitar esse desconforto comum em jogos, mas não vai amenizar em tela a queda de frame.
Segundo informações da Rtings, VRR aumenta inputlag.Ameniza a queda de frames também, pois a taxa de frames é sincronizada com a taxa de atualização do display e com isso é reduzido a latência e o input lag, removendo o espaço de tempo em que um frame é renderizado e posteriormente exibido, sendo um remédio até para o "stutter" e "judder".
VRR é um tecnologia incrível, é um dos maiores fatores em proporcionar uma gameplay mais fluída, inclusive tem influência no V-Sync, reduzindo o input lag que essa última tecnologia necessariamente cria.
A fluidez em um jogo não depende apenas da quantidade média de framerate renderizada, mas sim da velocidade que essa framerate é exibida e o VRR consegue operar milagres aí.
HDMI for Gaming - Superior Gameplay Experience
Segundo informações da Rtings, VRR aumenta inputlag.
Mas não sou especialista, então posso estar errado.
Variable refresh rate (Nvidia G-SYNC, AMD FreeSync and HDMI 2.1 VRR)
As you can hopefully appreciate from the above there is a very close relationship between refresh rate and frame rate – or the monitor and the rest of the system. It’s all good and well having a monitor with a high refresh rate, but to gain maximum benefit from it the frame rate needs to keep up with the refresh rate. Some users like to use ‘VSync’ to prevent the frame rate exceeding the refresh rate and to ensure that the GPU only sends new frames to a monitor when it’s ready to move onto its next refresh cycle. With the GPU holding frames in this way there is an inherent delay which adds to the overall input lag. This ‘penalty’ becomes less severe as the refresh rate increases but it still exists. With VSync enabled you also get a degree of stuttering on occasions where the frame rate falls below the monitor refresh rate. This leads to a situation where the screen has finished drawing a frame and should be moving onto the next frame, but the GPU isn’t ready to send it. The GPU therefore sends the first frame to the monitor again instead of sending a new one – so the monitor redraws the frame. To minimise latency and stuttering as much as possible you can disable VSync instead, which many gamers do. But then the frames being sent to the monitor and the monitor’s refresh cycle are left to go out of sync. So the monitor ends up displaying new frames in the middle of its refresh cycle. Because monitors typically refresh from top to bottom you end up with a new frame being displayed only on the top of the monitor, whereas the bottom of the monitor is still displaying the old frame. This leads to ‘tearing’, either with distinct tear-lines or an associated displacement of objects (‘juddering’). This is potentially distracting and unsightly, which is exactly what leads some users to turn to VSync. But there are some alternative solutions, one of which is Nvidia G-SYNC.
Essentially what the little chip above does is dynamically adjusts the refresh rate of the monitor to match, in real time, the frame rate of a game or other content. That way you gain the traditional benefits of having Vsync enabled with the benefits of Vsync disabled all at the same time.
Interessante. Eu já tinha lido que VRR é melhor que V-Sync e G-Sync, mas tbm já vi testes na qual o VRR aumentou o inputlag lag (coisa mínima), mas nunca tinha visto melhorar inputlag.Does VRR(variable refresh rate) have extra input lag? - Blur Busters Forums
Factors Affecting PC Monitor Responsiveness | PC Monitors
Resumo: V-Sync resolve o problema de tearing aumentando o input lag, o VRR resolve o tearing sem afetar o input lag de forma perceptível, permitindo o melhor dos dois mundos.
Em consoles onde em muitos casos o V-Sync é "enforced" por causa da engine o VRR diminui o input lag ao sincronizar a taxa de atualização com a framerate.
O screen tearing é que dá a dica que houve variação na taxa de frames. Se tirar o tearing (com VRR) , não vejo como perceber.Se alguém aqui conseguir enxergar uma diferença de 57fps para 60fps...olha, tá de parabéns
O pessoal mais "hárdicore" que joga colado no monitor/tv, da mais valor para frame-rate, a gente que quer jogar só para se divertir no final do dia, 30fps pra cima já tá ótimo. Não ligo de jogar um jogo em 30fps em 4k com Ray Tracing, como o Spider-Man do PS5 que dá essa opção.Acredito eu que a grande massa , inclusive eu, de mais valor a resolução, qualidade das texturas do que framerate. Se a variação do framerate for imperceptível, a ideia de ter mais qualidade gráfica é válida.
Ainda mais para mim que acredito no efeito placebo dos framerate nas pessoas.
Vídeo sem análise do framerate da atualização next gen de Mortal Shell:
Desconsiderem Series X e PS5. O que eu achei curioso aqui foi o Series S. Pq os devs acharam que seria uma boa ideia rodar o jogo com framerate desbloqueado? Pq não reduzir resolução e/ou outras configurações para que o FPS conseguisse se manter estável a 60? Não consegui entender o que aconteceu, até pq no trailer de divulgação da atualização eles diziam que o Series S rodaria a 4K/30, mas depois corrigiram a informação e disseram que seria 4K/60.
Vídeo sem análise do framerate da atualização next gen de Mortal Shell:
Desconsiderem Series X e PS5. O que eu achei curioso aqui foi o Series S. Pq os devs acharam que seria uma boa ideia rodar o jogo com framerate desbloqueado? Pq não reduzir resolução e/ou outras configurações para que o FPS conseguisse se manter estável a 60? Não consegui entender o que aconteceu, até pq no trailer de divulgação da atualização eles diziam que o Series S rodaria a 4K/30, mas depois corrigiram a informação e disseram que seria 4K/60.