jueves, 23 de julio de 2015

Ser la mejor tarjeta gráfica del mercado: así está la competencia

Image 01s Gr

La competición por sacar al mercado la mejor tarjeta gráfica en cada momento ha sido una carrera de fondo que lleva décadas produciéndose. Y aunque los nombres, las marcas, los modelos han variado, lo que permanece constante son las consideraciones que debemos tener en cuenta a la hora de determinar objetivamente la calidad de una tarjeta gráfica en función del uso que vayamos a darle.

Hoy vamos a hablar de esas características que cualquier usuario necesita conocer si quiere hacer un análisis completo y útil a la hora de evaluar qué tarjeta gráfica está siendo la más puntera en el mercado actual, tanto si estamos hablando de una tarjeta gráfica para jugar como para el trabajo con vídeo, creación multimedia o edición de fotografía. Dos fabricantes, NVidia y AMD, siguen copando el mercado de las mejores. ¿Y qué les hace serlo?

Las características a tener en cuenta

Hablar de tarjetas gráficas es hablar de decenas de características diferentes, cada una de ellas con mayor o menor impacto. Y hoy vamos a definir cuáles tener en cuenta para realizar una buena valoración.

En primer lugar nos referiremos a la arquitectura de la GPU, el núcleo de proceso de la tarjeta. Las arquitecturas son tremendamente complejas (por aquí hablamos en su día de ARM y de x86 como grandes arquitecturas de PC) e incluso muchas veces no podemos conocer todos sus detalles. Sin embargo, sí es importante mencionar que cada nueva arquitectura aplica 'cambios' que suelen mejorar muy notablemente a la anterior.

Nvidia Maxwell Maxwell, de NVidia

Entre estos cambios están por ejemplo el uso de nuevas tecnologías, o la estructuración de ciertos elementos para lograr un mayor rendimiento. En la actualidad existen dos grandes arquitecturas: Maxwell de NVidia y Graphics Core Next 1.2 de AMD, en ambos casos muy superiores a sus predecesoras Kepler y GCN 1.1 debido a la compatibilidad de nuevas tecnologías y versiones, sobre las que hablaremos más adelante.

Dentro del núcleo hay un parámetro que si bien no es fundamental sí ayuda a entender el rendimiento de una tarjeta, y es el número de transistores de la GPU. A mayor cantidad de ellos, mayor capacidad de proceso 'bruto' tendremos y mayor nivel de complejidad. En los últimos años AMD se ha posicionado por delante de NVidia, por lo cual sus gráficas son más potentes en términos de rendimiento directo (FLOPS), si bien en otro tipo de operaciones (generación de gráficos 3D en videojuegos, por ejemplo) también influyen otras técnicas.

Entre estas técnicas, por ejemplo, la cantidad de memoria RAM. Esta característica es esencial por ejemplo para procesar grandes cantidades de información, y cuando nos referimos a 'grandes' queremos decir ingentes: millones o miles de millones de datos y operaciones a realizar, como por ejemplo las tan famosas secuencias de ADN.

A igualdad de condiciones siempre será mejor una tarjeta con más RAM que otra, y es algo que se notará especialmente no sólo en el procesamiento de información 'bruto', sino también en la ejecución de juegos en alta resolución (4K o superior) o en la edición de vídeo e imágenes siempre que se realice a través de la GPU (no todo el software es compatible). Igualmente debemos mencionar la tecnología de la memoria: GDDR5 es la más habitual, aunque AMD ha presentado sus Fury con HBM, 'High Bandwidth Memory', que supone un importante paso adelante en el rendimiento y que están demostrando un muy buen funcionamiento en entornos reales.

Amd Hbm Explicacion

Aquí hay un concepto muy interesante, que es el de los GFLOPS al que nos referíamos anteriormente. Un FLOPS se refiere a operaciones de punto flotante por segundo, es decir, a la cantidad de 'datos' que una GPU es capaz de operar en un determinado momento. La 'G' se refiere a giga, ya que los rangos en los que nos movemos actualmente son de mil millones; un GFLOPS son 1.000.000.000 operaciones de punto flotante por segundo.

Cuantos más GFLOPS sea capaz de ofrecer una tarjeta gráfica, mejor. Siempre. Sin embargo, este valor no siempre es interesante tenerlo en cuenta ya que suele referirse al rendimiento bruto, a la capacidad de proceso entre dos valores. Por ejemplo, un videojuego debe realizar otras muchas operaciones previas antes de llegar a esos cálculos, de forma que entran en juego otros factores; sí es un valor interesante para supercomputadores y equipos de render o edición 3D.

Por último, una tarjeta gráfica conlleva la compatibilidad con un conjunto de tecnologías y otros factores. Hablamos de las clásicas DirectX 12, OpenGL 4.5 u OpenCL 1.2 que traen todas las actuales tarjetas gráficas del mercado (las AMD más recientes tienen OpenCL 2.0), pero también tecnologías propietarias como NVidia CUDA, soporte para LiquidVR de las AMD Fury, APIs como Mantle (AMD) o G-Sync (NVidia) u otras muchas. Es importante mencionar que cada tecnología tiene un público objetivo, y que hay que valorar la importancia de cada una de ellas según el usuario.

Amd Fury X AMD Fury X, y su sistema de refrigeración líquida

Además, también hay otros factores como los sistemas de refrigeración líquida (AMD R9 Fury X lo trae por defecto) o el valor que cada fabricante le da a sus respectivos modelos de tarjeta: hay tarjetas fabricadas con materiales especialmente 'fríos', con más o menos ventiladores, accesorios o periféricos.

Por último, una nota importante: el concepto universal de "la mejor tarjeta gráfica" no existe. Al igual que en otros muchos campos de la tecnología, 'lo mejor' depende de lo que el usuario pondere y considere que pueda satisfacer sus expectativas. No es lo mismo la mejor tarjeta gráfica para jugar que para renderizar vídeo o editar imágenes. Y no hablamos del precio, factor esencial para la decisión de compra.

Las mejores, frente a frente

Pero vamos a entrar en arena y a mojarnos un poquito más. Vamos a comparar las mejores tarjetas gráficas del mercado actual destinadas al mercado doméstico (videojuegos, principalmente). Hemos cogido dos modelos de AMD frente a otros dos de NVidia, y con una última categoría para unas que son excepcionalmente buenas aunque juegan en otra liga.

AMD Fury X vs. NVidia GTX 980 Ti

Amd Fury X Nvidia 980 Ti

Están recién sacadas del horno, ambas presentadas en el pasado mes de junio y que a día de hoy son lo mejor. AMD R9 Fury X y NVidia GTX 980 Ti son la última tecnología disponible para nuestros ordenadores de casa:

AMD R9 Fury X NVidia GTX 980 Ti
Lanzamiento Junio, 2015 Junio, 2015
GPU Fiji XT
28nm.
GM200-310 (Maxwell)
28nm.
Frecuencia GPU 1050 MHz. 1000-1075 MHz.
Núcleos OpenCL 4096 2816
Memoria 4 GB HBM-512b 6 GB GDDR5-384b
GFLOPS (SP) 8600 5630
Precio aproximado 719 euros (PC Componentes) 750 euros (PC Componentes)

AMD ha realizado un excelente trabajo con Fury X, su gran modelo para 2015. Dicen que es la mejor opción para resoluciones 4K y superiores (con o sin multimonitor), con el valor añadido de la refrigeración líquida (menor ruido) y la llegada de HBM, la gran virtud de estos modelos. Por su parte, NVidia GTX 980 Ti está a su altura con un mejor funcionamiento en resoluciones inferiores al 2K, con unos drivers más pulidos aunque a un precio ligeramente superior.

AMD Fury vs. NVidia GTX 980

Amd R9 Fury Nvidia 980

Un escalón por debajo están los modelos equivalentes a los ya mencionados, pero sin ese empujoncito que a veces los fabricantes dan a la tecnología. En el caso de la AMD R9 Fury también es un modelo reciente, mientras que la NVidia GTX 980 cuenta ya con cerca de un año de vida:

AMD R9 Fury NVidia GTX 980
Lanzamiento Junio, 2015 Septiembre, 2014
GPU Fiji Pro
28nm.
GM204-400 (Maxwell)
28nm.
Frecuencia GPU 1000 MHz. 1126-1216 MHz
Núcleos OpenCL 3584 2048
Memoria 4 GB HBM-512b 4 GB GDDR5-256b
GFLOPS (SP) 7165 4610
Precio aproximado 619 euros (PC Componentes) 582 euros (Amazon)

Con la diferencia en las fechas de lanzamiento lo lógico es que AMD R9 Fury sea superior a la NVidia, y en la mayoría de pruebas así es. Una vez más a su favor está el uso de memoria HBM, si bien es cierto que no cuenta con refrigeración líquida de serie (es sólo para el modelo 'X'; la Fury normal va por aire) y que también es más cara que la GTX 980.

NVidia GTX 980, debido en parte a su veteranía en el mercado, es tremendamente estable y segura, y además proporciona un rendimiento que diez meses después de su lanzamiento continúa estando entre los mejores del mercado. Veterana pero sólida, su precio puede ser una muy buena oportunidad para hacerse con una tarjeta de gama muy alta a un coste menor que el que tuvo en su lanzamiento.

Las NVidia Titan

Nvidia Titan X Z

Cuando hablamos de tarjetas gráficas de gama alta muchas veces tenemos que tener en cuenta a las NVidia Titan. Técnicamente suelen estar entre las mejores, y en cierto sentido sus dos recientes modelos Titan X y Titan Z lo están:

NVidia Titan X NVidia Titan Z
Lanzamiento Marzo, 2015 Marzo, 2014
GPU GM200-400 (Maxwell) 2x GK110 (Kepler)
Frecuencia GPU 1000-1088 MHz. 705-930 MHz.
Núcleos OpenCL 3072 5760
Memoria 12 GB GDDR5-384b 12 GB GDDR5-384b
GFLOPS (SP) 6145 8120
Precio aproximado 1119 euros (PC Componentes) 2540 euros (Amazon)(

Sin embargo, con esta familia de productos tenemos un problema: las Titan tienen un precio exagerado que muchas veces no puede ser tenido en cuenta. La mayoría de gente se gasta 200 o 300 euros en una gráfica para jugar; algunos suben a los 500 y unos pocos alcanzan los 700. Muy pocos están dispuestos a pagar más de 1.000 euros por una tarjeta gráfica. Y para muestra, las siempre atractivas estadísticas de Steam donde las Titan ni aparecen.

Son tremendamente potentes, técnicamente sublimes y su rendimiento es excepcional. Tenemos que mencionarlas por sus capacidades y las posibilidades que brindan, si bien su impacto en el mercado y entre el público es mínimo. No merecen la pena, desde luego.

Imagen | TechSpot.

También te recomendamos

Nvidia lleva Maxwell al portátil para que jugar no cause estragos en la autonomía

Centro de innovación BBVA

NVidia exprime al máximo los 28 nanómetros con sus nuevas GTX 980 y GTX 970

-
La noticia Ser la mejor tarjeta gráfica del mercado: así está la competencia fue publicada originalmente en Xataka por Pablo Espeso .












via Xataka http://ift.tt/1MmAzRX

No hay comentarios:

Publicar un comentario