Se você é leitor do V-Ray Masters sabe quem é Bertrand Benoit. Referência para profissionais de archviz no mundo inteiro, Bertrand é conhecido pela sua tremenda atenção aos detalhes e pelo foto-realismo extremo de suas imagens. Neste artigo, traduzido com sua permissão, ele mostra seu último trabalho pessoal e dá interessantes insights sobre o V-Ray Next, cujo lançamento se aproxima.
Ao longo das últimas semanas, eu estive testando o V-Ray Next GPU em uma única 1080ti e este é o resultado destes experimentos. A velocidade é obviamente uma melhora enorme em relação à CPU (e ao antigo V-Ray RT rodando em GPU). V-Ray Next também mostrou um enorme salto em número de features importantes do V-Ray que agora são suportadas em GPU (e no IPR), o que torna cada vez mais difícil justificar o render apenas em CPU. Eu ainda sinto falta de environment fog texturizado, do curvature map e displacement 2D, mas fora isso, eu agora vejo muito poucos motivos para não trabalhar com GPU para renders finais.
Os “contras” que permanecem são conhecidos e essencialmente giram em volta do fato de você ter que fazer sua cena caber na VRAM da placa de vídeo. Claramente, quando você está acostumado a trabalhar com 64GB, ir ara algo como 8GB (Windows 10 come alguns GB dos 11GB de VRAM na minha 1080ti) requer muita disciplina. Nesta cena, decidi não usar qualquer forma de displacement em render. Depois de muitos testes, percebi que ou a cena com displacement não cabia na minha placa de vídeo, ou eu tinha que reduzir as settings de qualidade tanto que já não ficava mais convincente. Além disso, preparar a cena para render fica muito mais demorado quando usando displacement. Ao invés disso, para coisas como a calçada, fiz o displace da malha no Max, decimei o resultado e usei um normal map para os detalhes mais finos.
Eu também tentei manter minhas texturas com no máximo 2K ao invés dos 4K habituais, exceto para aquelas que, como os tijolos, tinham que ter muitos detalhes finos. O mapa de HDR também está em baixa resolução, e tudo isso economizou VRAM sem dar qualquer diferença perceptível na qualidade final das imagens.
No quesito velocidade, foram renderizadas com environment fog a 2K em cerca de 30 minutos a 1 hora numa única 1080ti e CPU usando render híbrido. Isso é consideravelmente mais rápido do que estou acostumado usando apenas a CPU. Também usei o denoiser padrão do V-Ray ao invés do da Nvidia, pois este tendia a borrar as telhas, essencialmente confundindo a geometria mais fina com noise. O denoiser foi útil para dar aquele empurrão final em um render de 30 minutos. Esperando um pouco mais, eu teria alcançado meu noise threshold e as imagens estariam limpas o suficiente para não precisar de denoising. As áreas mais problemáticas no render foram os pontos onde as V-Ray lights (esferas e planos) iluminavam o fog. Tinham bastante noise e foram bem difíceis de limpar, como é de se esperar se você já trabalhou com environment fog em CPU.
Eu devo colocar esta cena à venda após o lançamento do V-Ray Next. Postarei de novo quando isso acontecer. Pode ser um bom teste para um setup de GPU, e tem alguns assets interessantes em adição ao edifício, incluindo uma calçada escaneada e um detalhado set de folhas mortas escaneadas que são ótimas para distribuir.
Abaixo, um GIF animado mostrando alguns estágios da construção da cena e look dev.
E, pra terminar, um pequeno bônus sobre como eu modelei este edifício. Esta é uma estrutura existente, do século 19 que se encontra no campus do hospital Charité em Berlim. É uma clínica psiquiátrica de verdade, e eu sempre achei que tinha uma linda (e tétrica) vibe Gótico Vitoriana. Como eu não consegui achar as plantas, decidi fazer um fotoscan do prédio inteiro em pedaços, montar e escalonar esses scans no Max, usando-os para modelar por poly da mesma forma como faria se estivesse desenhando no papel para copiar uma fotografia. É um cheat bem low-tech, mas que funcionou muito melhor do que só usar as fotografias em termos de capturar as proporções corretas. Clique aqui para o breakdown visual do processo.
Agradecemos ao Bertrand por gentilmente permitir a republicação deste artigo. Você pode ler o artigo original aqui. Thank you so much, Bertrand!