Review Gigabyte RTX 2080Ti Gaming OC 11G

Review Gigabyte RTX 2080Ti Gaming OC 11G

Muy buenas Fanáticos y bienvenidos a una nueva review, hace unos meses el gigante verde de Santa Clara, Nvidia, anunciaba su nuevo buque insignia de la arquitectura Turing enfocada al sector de los videojuegos, la RTX 2080Ti, una tarjeta gráfica que cuenta con unas generosas especificaciones muy similares a las de la GTX Titan V orientada al sector profesional, y hoy desde Fanaticos del Hardware continuando con la hermana mayor de la Nvidia RTX 2080 que analizamos hace unos días, le toca el turno a la RTX 2080Ti, en esta ocasión nos llega el modelo Gigabyte RTX 2080Ti Gaming OC 11G, veamos lo que nos ofrece esta pequeña bestia.

Review Gigabyte RTX 2080Ti Gaming OC 11G

Unboxing

Lo primero que nos encontramos en el frontal de su caja es el característico ojo robótico de la marca, el cual va evolucionando con el tiempo y con la llegada de nuevas arquitecturas, observándonos desde el centro de la misma con tonos de iluminación naranja, debajo de este a la derecha se sitúa el modelo de la tarjeta gráfica y en su parte inferior izquierda tenemos algunas de sus especificaciones junto a algunas características, como son los 4 años de garantía, todo un símbolo de calidad.

Su parte trasera nos trae una explicación más detallada de su sistema de refrigeración y de iluminación RGB junto a las conexiones disponibles.

Nada más abrir la caja nos encontramos la tarjeta gráfica perfectamente protegida en el interior una bolsa anti-estática y rodeada por un acolchado que la protege de cualquier mala manipulación durante su transporte.

A la tarjeta gráfica le acompañan una adaptador de 2×6 pines @ 1×8 pines, una guía rápida para su correcto montaje y un CD con el software necesario como son los drivers y el programa Xtreme Gaming Engine para poder exprimir todo su potencial.

Vistazo de cerca

Con la tarjeta gráfica en las manos lo primero que nos llama la atención es su imponente sistema de refrigeración Windforce X3 que cuenta con 3 ventiladores de 8 cm para refrigerar los tres bloques de aletas que son atravesados por 6 heatpipes de cobre los cuales están unidos a una base del mismo material que hace contacto sobre el núcleo y la memoria VRAM de la tarjeta gráfica mediante almohadillas termo-conductoras, mientras que el otro bloque de aletas se encarga de mantener a raya la temperatura de su sistema de alimentación, además como hemos visto en anteriores modelos de la marca también cuenta con el sistema Fan-Stop, ahora llamado 3D Active Fan, con el que los ventiladores no se ponen en funcionamiento hasta que el núcleo de la GPU alcanza cierta temperatura, manteniendo su sonoridad a 0db en situaciones en las que no se necesite una exigente demanda gráfica, perfecto para garantizar una larga vida útil de los ventiladores.

Cabe destacar que gracias a la posición de sus ventiladores donde el central gira en sentido inverso al de los otros dos laterales se mejora el flujo de aire a través de los radiadores.

En su parte trasera tenemos un blackplate metálico con el logo de Gigabyte, el cual se encarga de mantener la tarjeta gráfica perfectamente rígida y protegida.

En su lado exterior dispone de iluminación RGB a través del logo de la marca, la conexión NVLink  junto a las dos conexiones de 8 pines encargadas de alimentarla correctamente.

Tiene unas medidas 28,6 cm de largo por 11,4 cm de ancho, ocupa 2 ranuras y funciona a través del bus PCI-Express 3.0

Para la comunicación entre tarjetas gráficas montadas en SLI la arquitectura Turing estrena conexión en la gama doméstica con NVLink,  la cual permite enlazar dos tarjetas gráficas a través de un bus de dos vías de 50/100GB/s, un incremento importante comparado con la anterior conexión SLI (1 Gb/s) y su sucesora SLI HB (2 Gb/s), además esta conexión comunica las tarjetas gráficas punto a punto lo que reduce de manera considerable las latencias comparado con el puerto PCI-Express 3.0 convencional.

Por el lado de sus conexiones tenemos:

  • Tres DisplayPort 1.4a, estándar lanzado en Abril de este año, con soporte 8K @ 30Hz utilizando un solo cable y 8K @ 60 Hz cuando DSC está activado.
  • Un HDMI 2.0b
  • Conector VirtualLink, que es básicamente un USB-C con soporte DisplayPort y USB-PD para cascos de realidad virtual.

Dentro de ella encontramos el PCB de referencia de Nvidia, donde tenemos un robusto sistema de VRMs de 16 fases (13+3), los 11 chips de memoria GDDR6 y el chip TU102-300A-K1-A1.

Detalle del enorme chip TU102.

Detalle de los VRMs y las memorias GDDR6 firmadas por Micron.

Detalle del sistema de refrigeración donde vemos el contacto que hace sobre el chip TU102, las memorias VRAM GDDR6 y sobre los mosfets del VRMs.

Todo ello se complementa con la especificación para componentes de alta calidad con la denominación Ultra Durable de los que dispone este modelo de Gigabyte, donde destaca el doble recubrimiento de oro en su PCB, condensadores sólidos de alta calidad (ESR), chokes de ferrita y mosfets (Lower RDS on) de baja resistencia.

Arquitectura

La Nvidia RTX 2080Ti es una tarjeta gráfica con arquitectura Turing que cuenta con chip el TU102 fabricado por TSMC bajo una litografía de 12nm, es el más grande de la arquitectura, con un tamaño de 754mm2 y 18,6 millones de transistores en su interior, el núcleo trabaja a una frecuencia base de 1350 MHz que con el Boost se elevan automáticamente hasta los 1650 MHz, unido a 11Gb de memoria VRAM GDDR6 firmadas por Micron trabajando a una frecuencia base de 1750 MHz (14000 MHz efectivos), que a través de un bus de 352 bits arroja unas transferencias de 616 Gb/s, el resto de sus especificaciones se complementan con soporte Directx 12.1, OpenGL 4.6, Vulkan 1.1.82 y soporte SLI a través de la nueva conexión NV-Link.

Aunque los aspectos más destacables de esta nueva arquitectura son la modificación de los SMs, parte fundamental de la GPU en la que residen los procesador CUDA, donde Nvidia entre otras cosas continúa con la reducción de procesadores CUDA dentro de ellos y que tan buen resultado les dio con la transición de Kepler (192 CUDAS por SM) a Maxwell (128 CUDAS por SM, manteniendo el mismo número en Pascal), ahora dentro de cada SM además de 64 núcleos CUDA también residen 8 núcleos tensor y un núcleo RT que gracias al nuevo Warp Scheduler admite operaciones INT y FP32 que deberían de mejorar el cómputo asíncrono de la GPU.

Otra novedad de esta nueva arquitectura es que desde que Nvidia introdujo el concepto de clústeres de proceso gráfico (GPC) con la arquitectura Fermi en 2010, no se había aumentado su número hasta ahora, siendo un máximo de 4 GPCs los que encontrábamos dentro de la tarjetas gráficas de Nvidia, ahora con la llegada de Turing Nvidia ha aumentado el número de GPCs dentro de cada tarjeta gráfica hasta 6, en el caso del chip TU102 dentro de cada GPC encontramos 12 SM, lo que nos da 768 núcleos CUDA, 96 núcleos Tensor y 12 núcleos RT dentro de cada GPC, lo que resulta en un total de 4608 núcleos CUDA, 576 núcleos Tensor y 72 núcleos RT en el chip TU102 completo.

Dentro de la RTX 2080Ti Nvidia ha deshabilitado 4 SMs en su chip TU102, lo que da un total de 4352 núcleos CUDA, 544 núcleos tensor y 68 núcleos RT, sus especificaciones se complementan con 272 TMUs y 96 ROPs.

Núcleos Tensor y DLSS

Una de las tecnologías de la arquitectura Turing son los Tensor Cores (núcleos tensor), resultado de 5 años de inversión en inteligencia artificial por parte de Nvidia desarrollando sus primeros modelos de redes neuronales de aprendizaje profundo procesadas a través de GPU/CUDA y que se estrenó con el lanzamiento de la arquitectura Volta para el sector profesional, se trata de procesadores dedicados a realizar operaciones tensor y especializados en la multiplicación de matrices 3x3x3, con la intención de acelerar la formación de redes neuronales para el aprendizaje profundo de la IA, ya que CUDA requería de demasiado tiempo y recursos para la construcción y entrenamiento de redes neuronales.

Aunque en un principio su aplicación en el sector de los videojuegos es muy limitada, Nvidia está introduciendo algunas mejoras en la calidad de imagen procesadas por IA gracias a estos núcleos tensor, como es el nuevo filtro antialiasing A DLSS (Deep Learning Anti-Aliasing), el cual promete una mejora de rendimiento significativa comparada con otros filtros que actualmente ya se encuentran implantados en muchos títulos como es TAA, según la marca la calidad de imagen con un filtro 2X DLSS es comparable a un filtro 64X super sampling clásico.

El nuevo filtro DLSS funciona a través de los núcleos Tensor, los cuales analizan los fotogramas mediante su red neuronal entrenada para eliminar los picos de sierra, para después mandar la imagen post-procesada al monitor, dicho de manera sencilla es un filtro antialiasing aplicado por una inteligencia artificial.

Lo mejor de este filtro es que Nvidia se encarga de que su inteligencia artificial no deje de aprender, a base de analizar una y otra las imágenes en un juego se compila un modelo DLSS para ese título, el cual es enviado a la computadora de los usuarios mediante Geforce Experience para ser procesado de manera local por los núcleos Tensor de la tarjeta gráfica.

Núcleos RTX

Desde los años 70 el trazado de rayos de luz en tiempo real (Ray Tracing) era considerado el santo grial en la evolución de los gráficos 3D, aunque en los últimos años ya hemos visto que Nvidia intentaba una aproximación mediante su API OptiX, la cual basa el proceso de rayos de luz en tiempo real a través de CUDA, aunque la pesada carga de proceso computacional que ello supone lleva al límite los procesadores CUDA.

Y aquí es donde ve la luz el secreto mejor guardado de Nvidia, y que estuvo gestándose durante 15 años en las entrañas de la empresa, los núcleos RTX, se trata de hardware dedicado al proceso de Ray Tracing, especializado en la representación matemática de un rayo atravesando una escena y calcular el punto de intersección en cualquier triángulo para representarlo en pantalla, dicho de otra manera, se lanza un rayo de luz desde un píxel de la pantalla hacia el escenario 3D y este rebota hacia la fuente de luz, de manera inversa a como funciona la luz con nuestros ojos en el mundo real pero con el mismo resultado, en el caso de que el rayo después de rebotar en el objeto hacia la fuente de luz encuentre un objeto durante su trayectoria ese píxel será sombreado como un reflejo/sombra, no hace falta decir que este tipo de proceso requiere de una gran capacidad de cómputo.

RTX es una tecnología dedicada al proceso de la iluminación en tiempo real a través de Ray Tracing, que abarca todo y en el que se incluyen sistemas para el sombreado y la oclusión ambiental, que trabajando en conjunto con los núcleos Tensor consiguen reducir la carga de trabajo que ello supone mediante un algoritmo de jerarquía de volumen delimitador (BVH), dicho de manera sencilla, se calcula el área de la escena que se representa en pantalla mediante recuadros en los objetos y los triángulos que en ella aparecen, y mediante la división en niveles gracias a la potencia para el proceso en paralelo de las tarjetas gráficas actuales se crea un índice en forma de árbol, el cual se procesa todo a la vez para ir descartando las áreas más simples una vez procesadas y centrado la asignación de recursos en las áreas más complejas, solo las áreas donde sigue habiendo un impacto en la demanda del proceso de rayos en tiempo real se sigue procesando, reduciendo el tamaño de los recuadros dentro de esa área, y nuevamente descartando las áreas más simples una vez procesadas se vuelve a centrar la asignación de recursos en las áreas más complejas dentro de esa área, así se van descartando las áreas y los recuadros hasta que se obtiene un pixel en pantalla.

Como se puede esperar de este tipo de proceso, se generarían pixeles negros en pantalla, produciendo un molesto ruido sobre la imagen, dependiendo de la escena este ruido es eliminado mediante distintos tipos de algoritmos, entre ellos algunos procesados mediante IA.

Según la compañía la tecnología RTX supone un avance tan tangible en el realismo de los gráficos 3D como lo fueron los sombreadores programables con las Geforce 3 en el año 2001, gracias al ahorro en costes de tiempo y de recursos para los programadores, tanto en la curva de aprendizaje como en la adopción de las herramientas necesarias para implantar el proceso de rayos en tiempo en el mercado general para los consumidores de a pie, ya que de otra manera con el hardware que había disponible hasta ahora hubiera sido imposible debido a la alta demanda de proceso que ello supone.

Memoria GDDR6

La memoria GDRR6 es la sucesora directa de la GDDR5X, pues no hay diferencias notables entre ellas más allá del aumento de la frecuencia de 10Gbps @ 16Gbps, aunque Nvidia ha optado de momento por 14Gbps, o la división de la memoria en dos canales por chip, ahora además de poder operar a 32bits cada chip podrá generar dos canales independientes de 16 bits, lo que debería de ayudar al proceso en paralelo para títulos que los soporten, por lo que la mejora no ha sido tan notable como si lo fue el paso de GDDR5 a GDDR5X, otra diferencia es su voltaje dinámico, el cual puede operar entre 1,35v y 1,25v, a diferencia de GDDR5X que funciona a un voltaje fijo de 1,35v, el voltaje de 1,25v se emplea en situaciones donde la demanda en la velocidad de datos no es muy alta.

La principal diferencia que encontramos en la memoria GDDR6 comparada con GDDR5X reside en que todos los fabricantes de DRAM adopten GDDR6 como el nuevo standard para el mercado de consumo, siendo una alternativa más económica de producir que la memoria HBM2.

Compresión de color sin pérdida de calidad

Desde Fermi Nvidia ha ido mejorando su algoritmo para la compresión del color delta, lo que reduce los requisitos de ancho de banda de la memoria, uno de los ejemplos más claros de esta optimización en la memoria es que la GTX 1060 tiene el mismo ancho de banda bruto que una GTX 760 siendo considerablemente más potente, siendo esta su quinta generación se ha conseguido una mejora del 25% comparada con Pascal sin perder calidad de imagen, la cual ya tenía una mejora de un 20% comparada con Maxwell.

Mejoras en los sombreadores de píxeles

Aunque quizás las tecnologías más significativa para los usuarios de a pie reside en la mejora de los sombreadores (Shaders), como es Mesh Shading (sombreador de malla), donde entre otras cosas la GPU tiene acceso a la lista de objetos en la escena que va a procesar la CPU en vez de únicamente a los objetos individuales, lo que reduce las llamadas de dibujado al procesador y el cuello de botella que este pueda producir.

Variable Rate Shading (sombreado de tasa variable), consiste en la distribución de la carga de trabajo y proceso de la GPU dependiendo de la importancia de los objetos en escena, buscando optimizar la calidad y el rendimiento reduciendo la carga de sombreado y el nivel de detalle en las áreas que no se consideren importantes para la experiencia en general.

Contect Adaptive Shading (sombreado adaptativo de contenido), con el que a partir de los fotogramas anteriores se calcula que partes de la escena requieren menor carga de sombreado, como pueden ser cielos o paredes, y con ello reducir los índices de sombreado.

Motion Adaptive Shading (sombreado adaptativo al movimiento), con el que se calcula la cantidad de sombreado requerido sobre los pixeles para que la escena en movimiento tenga un nivel de detalle adecuado para nuestra percepción, normalmente los objetos que se mueven a mayor velocidad se procesan mediante técnicas de desenfoque como son Motion Blur o DoF (profundidad de campo), con las que las diferencias de sombreado son menos perceptibles, Motion Adaptive Shading calcula mediante varios algoritmos de desenfoque de manera inversa, que cantidad de trabajo de sombreado se necesita para cada situación, por ejemplo a velocidades más bajas aumentan los requisitos de sombreado.

Foveated Rendering, se trata de una técnica empleada en los cascos de realidad virtual para optimizar el renderizado el cual debe alcanzar los 90 FPS (90 Hz) para su correcto funcionamiento, aunque se puede aplicar a todas las salidas de imagen como son los monitores, consiste en aprovechar el hecho de que nuestra percepción visual se centra en los objetos que se encuentran en el centro de nuestro campo de visión, difuminando los objetos que se encuentran por la periferia, de igual manera que hace nuestro cerebro, Nvidia intenta saber qué es lo que nuestros ojos están viendo mediante el seguimiento ocular, para aumentar o reducir dinámicamente la resolución de las áreas de la escena dependiendo si están en el centro o en la periferia de nuestro campo de visión.

Texture Space Shading, reutiliza los pixeles previamente calculados y sombreados fotograma a fotograma, mejorando la calidad y el rendimiento, guardando dinámicamente los pixeles sombreados a resolución completa como texels en un espacio de la textura, estos pixeles se vuelven a renderizar en el siguiente fotograma como el resultado de un texel, cargándose directamente desde el espacio de la textura, evitando tener que volver a calcularlo para cargarlo.

Software

AORUS ENGINE

El software Aorus Engine que nos viene con el CD de la tarjeta gráfica permite controlar tanto los perfiles overclock como la iluminación RGB de la misma, con el que también podemos monitorizar tanto las frecuencias del núcleo y la memoria así como elegir el perfil del ventilador entre semi-pasivo y activo o actualizar su BIOS a las versiones que se lancen para ella de manera sencilla.

En el menú principal tenemos los siguientes perfiles automáticos de overclock:

  • OC Mode: Velocidad del núcleo: 1665 MHz
  • Gaming Mode: Velocidad del núcleo: 1650 MHz
  • Silent Mode: Velocidad del núcleo: 1545 MHz
  • User Mode: Es el modo en el cual podemos ajustar de forma manual tanto las frecuencias como los voltajes, temperatura y limite de energía, para entregar el máximo rendimiento que alcancen el núcleo y las memorias mediante overclock, como de forma automática mediante la herramienta Auto Scan que escanea y prueba cual es la mejor frecuencia en relación a su voltaje/temperatura para cada situación, además nos permite guardar los perfiles para poder usarlos posteriormente dependiendo de las necesidades de cada juego.

Pulsando sobre el menú LED se despliega el software RGB FUSION, donde tenemos el control sobre los distintos estilos de iluminación de color entre un total de 16,8 millones de combinaciones.

Pruebas de rendimiento

En las pruebas de rendimiento vamos a compararla con la GTX 1080Ti, el modelo más potente de la arquitectura Pascal para el sector doméstico, y la RTX 2080, la hermana pequeña de la RTX 2080Ti dentro de la arquitectura Turing.

Para las pruebas se ha empleado un procesador Core i7 5960X de 8 núcleos / 16 hilos funcionando a 4 GHz junto a 32 Gb DDR4 3200 MHz CL14 en quad-channel.

Pruebas Sintéticas
Pruebas Juegos
Pruebas 1080p

Pruebas 1440p

Pruebas 4K

Como era de esperar con esta bestia devoradora de fotogramas, ofrece el mejor rendimiento que se puede encontrar actualmente en el ámbito doméstico a lo que tarjetas gráficas se refiere, y con un amplio margen sobre los modelos que la siguen, destacar que a resolución 4K se mantiene por encima de los 60 FPS en la mayoría de títulos con las opciones gráficas al máximo sin filtro sin ningún tipo de problema.

Pruebas DXR

En las primeras pruebas de rendimiento en títulos con Ray-Tracing activado la pérdida de rendimiento asciende hasta los 90 FPS, a resolución 1080p con todas las opciones al máximo en Battlefield V, aunque acaban de anunciar la nueva actualización del juego que junto al lanzamiento de una nueva versión de drivers prometen hasta una mejora del 50% en el rendimiento cuando DXR está activado, por lo que sí es posible nos gustaría traeros un futuro articulo con los nuevos resultados, todo depende de qué tarjetas gráficas compatibles con RTX dispongamos próximamente.

Overclock

Aquí es donde llegamos al punto flojo de la Gigabyte RTX 2080Ti Gaming OC 11G, tras elevar las frecuencias automáticamente mediante la herramienta Auto-scan que trae el software Aorus Engine, el rendimiento obtenido es cuanto apenas perceptible, con una ganancia de casi 400 puntos en el test FireStrike, 50 puntos en su versión FireStrike Ultra y casi 100 puntos en el test TimeSpy basado en DirectX12, mientras que en juegos como Shadow of The Tomb Raider la mejora es de un FPS a resolución 1080p, y sin mejora palpable a resolución 1440p y 4K.

Temperatura, sonoridad y consumo.

Con el overclock automático aplicado hemos pasado el Furmark a resolución 4K con el filtro 8X MSAA durante 9 minutos alcanzando una temperatura máxima de 68º gracias a su completo sistema de refrigeración, manteniéndola a unas temperaturas más que aceptables para tratarse del actual buque insignia de la marca.

Mientras que la sonoridad de sus ventiladores bajo carga se mantiene casi inaudibles, incluso aumentando la velocidad de los ventiladores al máximo manualmente se mantiene increíblemente silenciosa, sin duda una de las tarjetas gráficas más inaudibles que han pasado por nuestras manos.

Por el lado de su consumo alcanza los 276 W a plena carga.

Conclusión

Poco más que decir queda de la Gigabyte RTX 2080Ti Gaming OC 11G que no se haya visto en las pruebas, rendimiento brutal incluso a resoluciones 4K, soporte de las tecnologías más punteras del mercado, un buen diseño de fabricación que da lugar a una baja sonoridad y temperaturas, todo ello con un reducido consumo y 4 años de garantía oficial que ofrece la marca, ¿que más se puede pedir?, quizás para los mas sibaritas el tema de su limitado overclock le pueda parecer un contra, pero personalmente con el rendimiento que ofrece la Gigabyte RTX 2080Ti Gaming OC 11G de por si hace que el tema del overclock quede como algo relegado al segundo plano.

Si actualmente eres poseedor de un monitor 4K y te lo puedes permitir, la Gigabyte RTX 2080Ti Gaming OC 11G es casi una compra obligatoria para disfrutar de los títulos actuales como corresponde, mientras que si eres usuario de un monitor con resolución 1080p o 1440p hay opciones más económicas en el mercado que pueden cubrir tu demanda con un precio más reducido.

Su precio es de 1339€, quizás pueda parecer algo elevado en un principio, pero cuando se trata de productos tan elitistas y exclusivos como este la relación rendimiento/precio se dispara, pues en cualquier ámbito de la vida el tener lo ultimo y mejor requiere un elevado coste que supera los estándares establecidos.

Agradecemos a Gigabyte la confianza depositada en nosotros al cedernos la Gigabyte RTX 2080Ti Gaming OC 11G para su análisis.

Podéis adquirir esta excelente tarjeta gráfica tanto en Amazon como PcComponentes.

Fanáticos del Hardware otorga la medalla de ORO para la Gigabyte RTX 2080Ti Gaming OC 11G

Esperamos que os haya gustado, suscribiros a nuestros canales de Youtube como Twitch, y seguidnos en nuestras RRSS como TwitterFacebookInstagram y Google+ para estar al tanto de todas las novedades relacionadas con Hardware y Tecnología.

Sobre el autor