miércoles, 6 de enero de 2021

La IA de las tarjetas gráficas de NVIDIA, a prueba: analizamos el impacto de DLSS 2.0 en el rendimiento y la calidad de imagen

La IA de las tarjetas gráficas de NVIDIA, a prueba: analizamos el impacto de DLSS 2.0 en el rendimiento y la calidad de imagen

La tecnología DLSS (Deep Learning Super Sampling) de NVIDIA llegó junto a la primera generación de tarjetas gráficas GeForce RTX de esta marca con una promesa bajo el brazo: permitirnos disfrutar nuestros videojuegos con una cadencia de imágenes por segundo más alta aunque nuestras exigencias gráficas fuesen muy ambiciosas. Incluso al activar el trazado de rayos.

DLSS se presentó como la baza que ponía en las manos de los usuarios la posibilidad de no renunciar a nada. Ni al ray tracing. Ni a la alta resolución. Y tampoco a una cadencia de imágenes sostenida elevada. Pero la primera versión de esta tecnología nos dejó un sabor de boca agridulce. Tenía un impacto perceptible y positivo en el rendimiento, pero la calidad de imagen de los primeros juegos que la implementaron era sensiblemente más baja que la que obteníamos cuando prescindíamos de ella.

En agosto de 2019, y solo unos meses después del lanzamiento de la primera revisión de la tecnología DLSS, NVIDIA presentó la primera iteración de DLSS 2.0

Podíamos verlo con claridad si nos fijábamos en el nivel de detalle, que era más bajo al activarla. Algunos fotogramas tenían incluso un mayor nivel de ruido. Era evidente que NVIDIA tenía que pulir más esta innovación. Y lo hizo. En agosto de 2019, y solo unos meses después del lanzamiento de la primera revisión de la tecnología DLSS, NVIDIA presentó la primera iteración de DLSS 2.0.

Algunos usuarios la acogimos con cierto escepticismo porque la versión original no había estado a la altura de las expectativas que habíamos depositado en ella al dejarnos llevar por lo que nos prometió NVIDIA. Pero DLSS 2.0 era diferente a su predecesora. Tenía su misma base tecnológica, pero había sido refinada hasta el punto de superarla con claridad. En este artículo nos hemos propuesto poner a prueba qué nos ofrece actualmente esta tecnología de reconstrucción de la imagen.

DLSS 2.0: así funciona y esta es su estrategia

El propósito que persigue esta innovación consiste en liberar a la GPU de una parte del esfuerzo que conlleva el renderizado de las imágenes para incrementar la cadencia de fotogramas por segundo sin que se resienta la calidad gráfica.

La idea es ambiciosa, y, como los usuarios podemos intuir, la tecnología que la hace posible es compleja. De hecho, la técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo.

Los núcleos Tensor están especializados en resolver operaciones matriciales que admiten una gran paralelización y han sido diseñados para ejecutar de forma eficiente los algoritmos de aprendizaje profundo

Únicamente los procesadores GeForce RTX de las series 20 y 30 de NVIDIA son compatibles con DLSS, y lo son, entre otras razones, porque incorporan núcleos Tensor. Estas unidades funcionales están especializadas en resolver operaciones matriciales que admiten una gran paralelización, y han sido diseñadas expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento.

Esta técnica adquiere más relevancia a medida que el procesador gráfico se ve estresado con más intensidad, una circunstancia que se produce de una forma muy rotunda cuando el motor gráfico debe renderizar las imágenes a una resolución muy alta, y, además, le pedimos que utilice el trazado de rayos para recrear la luz y los reflejos con el máximo realismo posible.

Para una GPU que carece de hardware dedicado el ray tracing es una auténtica tortura debido al enorme esfuerzo de cálculo que debe hacer. Y esta exigencia puede penalizar muy seriamente la cadencia de imágenes por segundo que nos entrega.

Tensorcore

La estrategia utilizada por NVIDIA para aliviar el esfuerzo que debe realizar la GPU es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

El motor renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después DLSS las escala a la resolución final aplicando muestreo mediante aprendizaje profundo

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

Si lo que queremos es, por ejemplo, disfrutar gráficos 4K y activamos el DLSS priorizando el rendimiento es posible que la resolución de renderizado sea 1920 x 1080 puntos, u otra similar. A partir de ahí será el algoritmo de aprendizaje profundo el responsable de generar un fotograma 4K a partir de cada fotograma 1080p.

La elección de un modo u otro cuando nos decidimos a activar la tecnología DLSS puede tener un impacto claramente perceptible en el rendimiento de la tarjeta gráfica, pero es importante que analicemos también el impacto que tienen estos modos en la calidad de imagen para que podamos valorar qué modalidad encaja mejor con nuestras preferencias. Y cuál nos ofrece un rendimiento acorde a nuestras expectativas. En las siguientes secciones de este artículo indagaremos en el impacto que tiene DLSS 2.0 tanto en la calidad de imagen como en el rendimiento de la GPU.

Vectoresmovimiento

No obstante, antes de seguir adelante es interesante que nos detengamos un momento para repasar cómo funciona el muestreo mediante aprendizaje profundo utilizado por NVIDIA en sus tarjetas gráficas. El corazón de la tecnología DLSS es una red neuronal artificial que previamente ha sido entrenada mediante el análisis de miles de fotogramas en alta resolución con un propósito: desarrollar un método de escalado que permita a la red neuronal transformar las imágenes con una resolución inferior que le suministramos como entrada en fotogramas con una resolución y un nivel de detalle más altos.

El conocimiento que infiere de las imágenes en alta y baja resolución con las que ha sido entrenada previamente es el que le permite reconstruir con precisión la imagen que necesitamos escalar (NVIDIA ha confirmado que trabaja con fotogramas con resolución 16K).

El corazón de la tecnología DLSS es una red neuronal artificial que previamente ha sido entrenada mediante el análisis de miles de fotogramas en alta y baja resolución

El algoritmo de aprendizaje y la base de datos de imágenes que recibe la red neuronal para llevar a cabo su entrenamiento condicionan profundamente la calidad de las imágenes que nos va a entregar después de llevar a cabo el procedimiento de reconstrucción. De hecho, es muy probable que estas sean las áreas en las que NVIDIA más ha trabajado para conseguir que DLSS 2.0 rinda mejor que la primera generación de esta tecnología.

Además, es posible actuar sobre el modelo de entrenamiento y la base de datos de imágenes en alta y baja resolución con la que trabaja para seguir refinando aún más esta innovación, por lo que es probable que las próximas revisiones de esta tecnología rindan mejor que DLSS 2.0.

No obstante, hay un componente esencial del que todavía no hemos hablado: los vectores de movimiento. El conocimiento inferido por la red neuronal a partir del análisis de los fotogramas en alta y baja resolución, y también el procedimiento utilizado para obtener una imagen en alta resolución a partir de otra con una resolución más baja se almacenan en el controlador de la tarjeta gráfica.

Los núcleos Tensor de la GPU se encargan de asumir la mayor parte de la carga de trabajo que requiere la reconstrucción de la imagen, pero no reciben como entrada únicamente los fotogramas en baja resolución renderizados por el motor del juego; también se alimentan de los vectores de movimiento generados por ese mismo motor.

Un vector de movimiento es un objeto que describe matemáticamente en qué dirección se desplaza cada elemento de una escena durante la transición de un fotograma al siguiente. El algoritmo de reconstrucción con el que trabaja la red neuronal es capaz de tomar el último fotograma en alta resolución que ha generado y los vectores de movimiento que le entrega el motor del juego para identificar cómo será el siguiente fotograma que debe recrear.

De esta forma consigue seleccionar el método de reconstrucción idóneo para escalar la imagen en baja resolución al fotograma en alta resolución que espera obtener. La imagen que publicamos encima de estas líneas describe cómo funciona DLSS 2.0. Un último apunte: la red convolucional que aparece en esta diapositiva es un tipo de red neuronal artificial especializado en aplicaciones de visión por ordenador o visión técnica.

Ponemos a prueba el impacto de DLSS 2.0 en la calidad de imagen

La tarjeta gráfica que hemos utilizado para evaluar el impacto que tiene la tecnología DLSS 2.0 en la calidad gráfica es una GeForce RTX 3080 Founders Edition, pero es importante que tengamos en cuenta que otra tarjeta gráfica con la misma arquitectura nos entregará la misma calidad de imagen si utilizamos los mismos ajustes en nuestros juegos.

Las capturas que vamos a analizar han sido tomadas a resolución 4K y con el trazado de rayos activado

Esto quiere decir, sencillamente, que una GeForce RTX 3060 Ti puede entregarnos la misma calidad de imagen que una GeForce RTX 3080 si utilizamos los mismos ajustes gráficos, pero, como es lógico, la cadencia de imágenes que alcanzarán ambas tarjetas será sensiblemente diferente. Ante una misma exigencia gráfica la RTX 3080 debería rendir mejor que la RTX 3060 Ti.

Todas las capturas que vamos a analizar a continuación han sido tomadas a resolución 4K (3840 x 2160 puntos) y con el trazado de rayos activado en aquellos juegos que lo implementan. Además, las secciones de cada captura que hemos escogido proceden de un recorte al 300% que persigue ayudarnos a apreciar mejor los detalles y las diferencias que existen entre ellas.

Empezamos con 'Control'. Este juego implementa tanto trazado de rayos como DLSS. Además, nos propone varias modalidades de escalado tomando como referencia tres resoluciones de renderización: 2560 x 1440 puntos, 2227 x 1253 puntos y 1920 x 1080 puntos. Si observamos con detenimiento las capturas veremos que el nivel de detalle de la imagen sin DLSS y el de la captura con DLSS 2.0 escalada a 2160p desde 1440p es esencialmente idéntico. Esta última no contiene más ruido. Ni menos detalle.

Pero hay algo más. La calidad de imagen que nos entrega esta tecnología en este juego cuando la resolución de renderización es aún más baja (1253p y 1080p) sigue siendo muy alta. Si ampliamos al 300% la captura original utilizando un editor de imágenes y la comparamos con la imagen sin DLSS podemos apreciar una ligerísima pérdida de detalle en algunas zonas, como, por ejemplo, en el texto que observa la protagonista del videojuego. Pero es algo muy difícil de detectar en tiempo real mientras jugamos. El primer punto se lo lleva la tecnología DLSS 2.0.

Controlcalidadimagen

Las capturas que hemos tomado en 'Death Stranding' nos deparan más sorpresas. Este juego no implementa trazado de rayos, pero nos propone tres modalidades diferentes de DLSS. Y, sorprendentemente, el modo que prioriza la calidad es indistinguible de la captura sin DLSS. Tienen el mismo nivel de detalle y el ruido es imperceptible en ambas imágenes. Además, al igual que en 'Control', la pérdida de detalle que se produce si elegimos el modo que prioriza el máximo rendimiento es lo suficientemente baja para pasar inadvertida mientras estamos jugando.

Deathstrandingcalidadimagen

'Battlefield V' nos depara una sorpresa inesperada: algunas zonas de la captura reconstruida a 2160p mediante DLSS 2.0 tienen más detalle que la imagen capturada de forma nativa a esta resolución. Es algo inesperado, pero refleja lo bien que puede funcionar esta tecnología cuando se implementa correctamente. Podemos observar este ligero incremento del nivel de detalle en las juntas de los ladrillos y en el cartel que corona el edificio.

Battlefieldvcalidadimagen

Concluimos el análisis de la calidad de imagen con 'Bright Memory Infinite', y, una vez más, DLSS 2.0 sale airosa. Al igual que en 'Battlefield V', el modo que prioriza la calidad consigue recuperar más detalle en algunas zonas que la captura sin DLSS (podemos observarlo en el tejido del pantalón y en el pavimento en primer plano), y la pérdida de detalle que se produce en los modos Balance y Performance es tan baja que es esencialmente imperceptible mientras estamos jugando.

Brightmemorycalidadimagen

Evaluamos el impacto de DLSS 2.0 en el rendimiento

Para poner a prueba el impacto que tiene esta tecnología en el rendimiento hemos utilizado tres tarjetas gráficas de última generación de NVIDIA: una GeForce RTX 3080, una GeForce RTX 3070 y una GeForce RTX 3060 Ti, todas ellas en versión Founders Edition.

Hemos utilizado la máxima calidad gráfica y el modo DLSS que prioriza el rendimiento

La configuración de nuestra plataforma de test es la siguiente: microprocesador Intel Core i9-10900K con 10 núcleos, 20 hilos de ejecución (threads) y una frecuencia de reloj máxima de 5,30 GHz; dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base Gigabyte Z490 AORUS Master con chipset Intel Z490; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética y una fuente de alimentación modular Corsair RM 750x.

Por último, el monitor que hemos utilizado en las pruebas es un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo DLSS que hemos seleccionado es el que prioriza el rendimiento. Y las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

Plataformapruebas

En el primer gráfico podemos ver que la tecnología DLSS 2.0 tiene un impacto profundo y positivo en el rendimiento de la tarjeta gráfica. La GeForce RTX 3080 es un auténtico monstruo, pero, aun así, necesita esta innovación para conseguir entregarnos una cadencia de imágenes sostenida superior a los 60 FPS a 2160p cuando habilitamos el trazado de rayos en 'Control' y 'Battlefield V'.


El impacto que tiene la tecnología DLSS 2.0 en el rendimiento de una tarjeta gráfica GeForce RTX 3070 es idéntico al que hemos observado en la GeForce RTX 3080: todos los juegos nos entregan a todas las resoluciones una cadencia de imágenes por segundo sensiblemente más alta al recurrir a esta innovación.

Esta tarjeta gráfica se siente cómoda a 1080p y 1440p con el trazado de rayos activado, pero a 2160p sufre en algunos juegos, por lo que recurrir a DLSS 2.0 marca la diferencia entre coquetear con los 50 a 60 FPS, o bien quedar por debajo de los 30 FPS sostenidos.


El resultado que hemos obtenido con una GeForce RTX 3060 Ti es esencialmente calcado al que ha arrojado la tecnología DLSS 2.0 cuando convive con las otras dos tarjetas gráficas que hemos puesto a prueba. Una vez más todos los juegos rinden mejor al activarla. A todas las resoluciones.

Esta tarjeta gráfica se siente cómoda a 1080p y 1440p, pero cuando pisamos el acelerador a 2160p y activamos el trazado de rayos en algunos juegos, como 'Control', es imprescindible recurrir al DLSS si queremos que sea capaz de entregarnos una cadencia de imágenes sostenida superior a los 30 FPS.


La última gráfica a la que merece la pena que dediquemos un momento refleja el impacto que tienen en el rendimiento los distintos modos DLSS implementados por la mayor parte de los juegos, que suelen priorizar la calidad de imagen, el equilibrio o el rendimiento. Como cabe esperar este último es el que nos entrega las cadencias de imágenes sostenidas más altas, y, como hemos visto, su impacto en la calidad de imagen es muy moderado (a menudo prácticamente imperceptible), por lo que no hay ninguna razón por la que no debamos recurrir a él cuando sea necesario.

No obstante, los otros dos modos, y sobre todo el que prioriza la calidad de imagen, también nos ofrecen un equilibrio entre rendimiento y calidad gráfica sobresaliente. Lo ideal es probarlos todos y elegir aquel que nos ofrece la mejor experiencia posible en cada juego.


NVIDIA DLSS 2.0: la opinión de Xataka

DLSS 2.0 funciona. Y, además, lo hace muy bien. NVIDIA ha conseguido ofrecernos con esta revisión de su tecnología lo que nos había prometido cuando dio a conocer la versión original de DLSS. Y esta es una baza muy contundente a su favor, porque, como acabamos de ver, incluso un monstruo gráfico como es la GeForce RTX 3080 necesita recurrir a esta innovación para poder entregaros una cadencia de imágenes sostenida superior a los 60 FPS a 2160p cuando habilitamos el trazado de rayos en juegos como 'Control' o 'Battlefield V'.

Desde un punto de vista estrictamente técnico es difícil poner pegas a una tecnología que nos ha demostrado rendir tan bien

Además, su impacto en la calidad de imagen es mínimo. De hecho resulta muy sorprendente comprobar que el modo DLSS que prioriza la calidad de imagen consigue en algunos juegos recuperar ligeramente más detalle que el que nos ofrece el motor del juego cuando desactivamos esta tecnología. Todo lo que hemos observado a lo largo de este análisis nos confirma objetivamente que DLSS 2.0 realmente marca la diferencia.

Aun así, NVIDIA todavía tiene trabajo por hacer para reforzar más su propuesta. Desde un punto de vista estrictamente técnico es difícil poner pegas a una tecnología que nos ha demostrado rendir tan bien en todos los juegos que la implementan, pero su punto débil es que aún no son muchos los títulos que la ponen a nuestro alcance, aunque poco a poco van llegando más. Crucemos los dedos para que 2021 nos traiga muchos más videojuegos preparados para sacar el máximo partido a DLSS 2.0.

Dlssopinion

Más información | NVIDIA

-
La noticia La IA de las tarjetas gráficas de NVIDIA, a prueba: analizamos el impacto de DLSS 2.0 en el rendimiento y la calidad de imagen fue publicada originalmente en Xataka por Juan Carlos López .



via Xataka https://ift.tt/2LbwI2Z

No hay comentarios:

Publicar un comentario