En cierto modo esta tarjeta gráfica ha sido la protagonista accidental de una obra en la que debía haber intervenido como una actriz de reparto. De hecho, ha atraído hacia sí misma buena parte de la atención que en condiciones normales habrían reclamado sus dos hermanas mayores, la GeForce RTX 4090 y la RTX 4080. Del motivo os hemos hablado en otros artículos con detalle: inicialmente iba a llegar a las tiendas bajo la denominación GeForce RTX 4080 de 12 GB.
En cualquier caso, NVIDIA tomó la decisión correcta y apenas un mes después de presentar sus primeras GeForce RTX 40 anunció que finalmente no lanzaría la controvertida GeForce RTX 4080 de 12 GB. No obstante, esa tarjeta gráfica en realidad no se ha esfumado. La tenemos aquí. Es, precisamente, la GeForce RTX 4070 Ti que estamos a punto de analizar. Y sí, esta denominación comercial encaja mucho mejor con sus especificaciones. Un pequeño espóiler como aperitivo: la ambiciosa GeForce RTX 3090 Ti ya puede echarse a temblar.
Gigabyte GeForce RTX 4070 Ti: especificaciones técnicas
NVIDIA GEFORCE RTX 4070 TI
NVIDIA GEFORCE RTX 3070 TI
nvidia geforce rtx 3070
arquitectura
Ada Lovelace
Ampere
Ampere
transistores
35.800 millones
17.400 millones
17.400 millones
fotolitografía
4 nm TSMC
8 nm Samsung (tecnología de integración personalizada para NVIDIA)
8 nm Samsung (tecnología de integración personalizada para NVIDIA)
núcleos cuda
7.680
6.144
5.888
núcleos rt
60 (3ª generación)
48 (2ª generación)
46 (2ª generación)
núcleos tensor
240 (4ª generación)
192 (3ª generación)
184 (3ª generación)
unidades de cálculo (cu)
60
48
46
caché de nivel 1
128 Kbytes (por SM)
128 Kbytes (por SM)
128 Kbytes (por SM)
caché de nivel 2
48 Mbytes
4 Mbytes
4 Mbytes
frecuencia de reloj máxima
2,61 GHz
1,77 GHz
1,73 GHz
memoria dedicada
12 GB GDDR6X
8 GB GDDR6X
8 GB GDDR6
bus de memoria
192 bits
256 bits
256 bits
velocidad de transferencia de la memoria
504,2 GB/s
608 GB/s
448 GB/s
shader tflops (fp32)
40
22
20,3
operaciones de rasterización
80 ROP/s
96 ROP/s
96 ROP/s
unidades de mapas de texturas
240 TMU
192 TMU
184 TMU
tasa de texturas
626,4 Gtexeles/s
339,8 Gtexeles/s
317,4 Gtexeles/s
tasa de píxeles
208,8 Gpíxeles/s
169,9 Gpíxeles/s
165,6 Gpíxeles/s
directx 12 ultimate
Sí
Sí
Sí
interfaz pci express
PCIe 4.0
PCIe 4.0
PCIe 4.0
revisión hdmi
2.1
2.1
2.1
revisión displayport
1.4a
1.4a
1.4a
dlss 3
Sí
No
No
ranuras ocupadas
2
2
2
temperatura máxima de la gpu
90 ºC
93 ºC
93 ºC
consumo medio
226 vatios
290 vatios
220 vatios
potencia recomendada para la fuente de alimentación
700 vatios
750 vatios
650 vatios
conectores de alimentación
2 x 8 pines o 1 PCIe Gen 5 de 300 vatios o más
2 x 8 pines (incluye adaptador a 12 pines)
1 x 8 pines
precio
999,90 euros
689,89, euros
619,90 euros
Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD
PVP en PcComponentes 999,90€
Hoy en Amazon por 1.273,94€
{"videoId":"x8du1h2","autoplay":false,"title":"¡¡SON BESTIALES!! Ya conocemos las nuevas NVIDIA GeForce RTX 4080 y RTX 4090", "tag":"webedia-prod"}
La arquitectura Ada Lovelace de la GeForce RTX 4070 Ti, bajo nuestra lupa
NVIDIA no se ha andado con delicadezas a la hora de comunicar qué representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.
En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.
También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.
En Xataka
Cómo exprimir al máximo el submuestreo de tu GPU para conseguir la mejor calidad de imagen con tus videojuegos
Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación
Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.
La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo
Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16.384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10.752. La GeForce RTX 4080 tiene 9.728, por lo que la GeForce RTX 3080 Ti la supera con sus 10.240 núcleos de este tipo. Eso sí, la RTX 3080 nos propone 8.704 núcleos CUDA. La GeForce RTX 4070 Ti, por su parte, tiene 7.680 núcleos de este tipo, mientras que la RTX 3070 Ti se conforma con "solo" 6.144 núcleos CUDA.
Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.
NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos
NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o 'micromapa de opacidades', y Displaced Micro-Mesh (DMM), que podemos traducir como 'micromalla de desplazamientos'.
Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.
Los núcleos Tensor evolucionan: llega la 4ª generación
Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.
En Xataka
Una industria en manos de TSMC y las fábricas asiáticas: el mapa de la producción mundial de chips
Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.
Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40
El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.
La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.
Las tecnologías 'Shader Execution Reordering' y 'Ada Optical Flow Accelerator' persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible
Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.
La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.
De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.
Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.
Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.
NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30
Una de las consecuencias de la adopción de la tecnología de integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.
En Xataka
Así se fabrican los procesadores Core de 13ª generación 'Raptor Lake': visitamos la fábrica de chips de Intel en Israel
Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC
La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.
Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090, 4080 y 4070 Ti asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios, y la GeForce RTX 4070 Ti roza los 226 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios. Y la RTX 4070 Ti, 700 vatios.
DLSS 3 multiplica por cuatro el rendimiento con 'ray tracing'
La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.
El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final
De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.
Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.
En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.
'Optical Multi Frame Generation' analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos
En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.
Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.
El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional
Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.
Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.
La GeForce RTX 4070 Ti de Gigabyte, en detalle
En la fotografía que publicamos debajo de estas líneas podemos ver que el diseño de esta tarjeta gráfica ensamblada por Gigabyte es muy diferente del diseño de referencia que nos propone NVIDIA en sus tarjetas Founders Edition. Honestamente, yo prefiero la estética y el acabado de estas últimas, pero esto no significa en absoluto que la tarjeta que estamos analizando no esté a la altura. No tiene un acabado tan lujoso como las Founders Edition, pero no está nada mal.
En Xataka
Poner a España en el mapa de la fusión nuclear: cómo IFMIF-DONES puede dar un espaldarazo económico y científico
Los tres ventiladores de 100 mm que podemos ver en la fotografía son los responsables de que la GPU, los chips de memoria y los VRM estén siempre por debajo de su umbral máximo de temperatura. Curiosamente, el ventilador central gira en un sentido y los laterales en el otro con un propósito: minimizar las turbulencias e incrementar la presión para optimizar la transferencia de energía térmica mediante convección desde el disipador hacia el aire. Un detalle curioso: Gigabyte nos promete que estos ventiladores están lubricados con grafeno.
Esta tarjeta gráfica incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).
El conector de alimentación de esta tarjeta gráfica es idéntico a la interfaz 12VHPWR que nos proponen las GeForce RTX 4090 y 4080. Gigabyte ha colocado junto a él un diodo LED que emite destellos luminosos si se produce una interrupción del suministro eléctrico o cualquier otra anomalía. Hay otras formas de resolver las notificaciones que están dirigidas al usuario, pero esta estrategia es ingeniosa, y, lo que es más importante, cumple su cometido estupendamente.
En la siguiente fotografía de detalle podemos ver la lámina de metal (back plate) que actúa como base de esta tarjeta gráfica. Su función más importante es proteger la placa de circuito impreso incrementando la rigidez estructural de la tarjeta, pero, además, contribuye al intercambio de energía térmica con el aire mediante convección. Y, como podéis ver, es bastante bonita.
Esta bestia rivaliza con el modelo insignia de NVIDIA en la generación anterior
La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.
En Xataka
2023 será el año del OLED: esto es lo que prepara Samsung en QD-OLED para arrinconar a LG
Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible
Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.
Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.
No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la GeForce RTX 4070 Ti. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1.500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.
Arrancamos con el test 'Time Spy' de 3DMark. Y aquí llega la primera sorpresa agradable: la GeForce RTX 4070 Ti queda por debajo de la RTX 4080, como cabía esperar, pero rinde ligeramente más que la GeForce RTX 3090 Ti, que es la tarjeta gráfica más potente de la generación anterior. No está nada mal si tenemos presente que la RTX 4070 Ti está destinada a un espectro de usuarios más amplio.
En la prueba dedicada a la tecnología DLSS de 3DMark la GeForce RTX 4070 Ti vuelve a salir bien parada. Y es que al recurrir a la reconstrucción de la imagen empleando esta técnica supera con claridad, de nuevo, a la RTX 3090 Ti tanto a 1440p como a 2160p. Y, sorprendentemente, si prescindimos de DLSS ambas tarjetas gráficas arrojan un rendimiento esencialmente idéntico.
En 'Microsoft Flight Simulator' la GeForce RTX 4070 Ti aguanta el tipo perfectamente a cualquier resolución si recurrimos a la tecnología DLSS 3. De hecho, a 2160p y con la calidad gráfica al máximo nos entrega en estas condiciones una cadencia media de 100 FPS. ¿Qué sucede si prescindimos de la reconstrucción de la imagen mediante DLSS 3? Como cabe esperar, la cadencia de imágenes se reduce mucho, pero, aun así, esta tarjeta gráfica sostiene una tasa media de unos 50 FPS a cualquier resolución.
El motor gráfico de 'Cyberpunk 2077' es extraordinariamente exigente, pero la reconstrucción de la imagen mediante DLSS 3 ayuda a esta tarjeta gráfica a lidiar con este juego incluso a 2160p. A esta resolución la GeForce RTX 4070 Ti nos entrega una cadencia media de 84 FPS. Si decidimos prescindir de esta técnica podremos jugar a 1080p sin problema, y a 1440p con ciertas garantías, pero no a 2160p. Ni siquiera se siente cómoda con este juego a esta última resolución y sin DLSS 3 la brutal GeForce RTX 4090.
En la siguiente gráfica podemos ver que el rendimiento que nos entrega la GeForce RTX 4070 Ti cuando habilitamos la tecnología DLSS 3 en 'A Plague Tale: Requiem' es fabuloso. Incluso a 2160p. De hecho, a esta última resolución arroja una cadencia media de casi 130 FPS. Una vez más, la RTX 4070 Ti es más lenta que la RTX 4080, pero también es perceptiblemente más rápida que la RTX 3090 Ti a 1080p y 1440p.
En 'F1 22', una vez más, la GeForce RTX 4070 Ti se siente como pez en el agua. Con la tecnología DLSS 3 habilitada nos entrega unas tasas de imágenes por segundo espectaculares incluso a 2160p, pero este título es perfectamente jugable sin recurrir a esta técnica de reconstrucción de la imagen mediante inteligencia artificial. De hecho, en estas condiciones a 2160p nos entrega una cadencia media de 60 FPS. Y, una vez más, supera a la RTX 3090 Ti en todos los escenarios de prueba.
En 'Doom Eternal' tenemos más de lo mismo. La GeForce RTX 4070 Ti rinde de maravilla a cualquier resolución y con el trazado de rayos activado, aunque no debemos pasar por alto que el motor gráfico de este juego está muy bien optimizado. Si nos ceñimos a la particular pugna que mantiene la tarjeta gráfica que estamos analizando con la RTX 3090 Ti podemos darnos cuenta de que esta última pierde frente a la RTX 4070 Ti a 1080p y 1440p, aunque vence, por poco, a 2160p.
En 'Control' esta tarjeta gráfica se siente cómoda a 1080p y 1440p, pero sufre a 2160p. A esta última resolución y con el trazado de rayos activado la tasa de imágenes cae por debajo de los 40 FPS. Curiosamente, en este juego la RTX 3090 Ti se impone a la RTX 4070 Ti tanto a 1440p como a 2160p, aunque las tarjetas gráficas con GPU de NVIDIA que mejor rinden en este título son, como cabe esperar, las GeForce RTX 4090 y 4080.
'Death Stranding' pone encima de la mesa la fuerza bruta que tiene esta tarjeta gráfica sin necesidad de recurrir a la tecnología DLSS. A 1080p y 1440p se codea de tú a tú con la GeForce RTX 4090 y la RTX 4080, y a 2160p tanto estas dos últimas soluciones gráficas como la Radeon RX 7900 XTX y la RTX 3090 Ti rinden mejor. Aun así, la RTX 4070 Ti a esta resolución y sin DLSS nos entrega casi 120 FPS sólidos como una roca.
'Final Fantasy XV', a pesar de su veteranía, sigue siendo un hueso duro de roer. Aun así, la RTX 4070 Ti se siente bastante cómoda con el motor gráfico de este juego. De lo contrario no sería capaz de entregarnos casi 90 FPS estables a 2160p. Curiosamente a 1080p y 1440p es un poco más rápida que la RTX 3090 Ti, aunque a 2160p esta última tarjeta gráfica logra imponerse.
La siguiente gráfica no deja lugar a dudas: las tarjetas de última generación se calientan mucho menos que sus predecesoras. La RTX 4070 Ti disipa casi la misma energía en forma de calor que la RTX 4080 cuando ambas son sometidas al mismo estrés, y la Radeon RX 7900 XTX y la GeForce RTX 4090 se mueven en la misma órbita. Es evidente que en este terreno la fotolitografía utilizada en la fabricación de estas GPU juega a su favor.
Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. El sistema de refrigeración que ha puesto a punto Gigabyte con el propósito de mantener la GPU, los chips de memoria y los VRM de la RTX 4070 Ti por debajo de su umbral máximo de temperatura es razonablemente poco ruidoso.
De hecho, solo la GeForce RTX 3080 Ti es más silenciosa. Las demás soluciones gráficas que hemos analizado durante los últimos meses, con la única excepción de la Radeon RX 6800 XT, son perceptiblemente más ruidosas, aunque en este ámbito la peor posicionada es la Radeon RX 7900 XTX debido a que bajo estrés alcanza un nivel de presión sonora de 76 dB.
Gigabyte GeForce RTX 4070 Ti: la opinión de Xataka
Lo confieso: después de analizar las GeForce RTX 4090 y 4080, que son más ambiciosas, me sumergí en el análisis de la RTX 4070 Ti con menos entusiasmo que cuando probé las otras dos RTX 40. Sin embargo, después de convivir con la solución gráfica que protagoniza este artículo durante varias semanas, y de estrujarla al máximo, mis sensaciones son muy positivas. Y lo son ante todo por una razón: me parece la propuesta más equilibrada de NVIDIA si nos ceñimos a las tarjetas de última generación.
La RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego
Las pruebas no dejan lugar a dudas: la RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego, y si recurrimos a la reconstrucción de la imagen habilitando la tecnología DLSS 3 en aquellos juegos que lo permiten, también rinde de maravilla a 2160p. De hecho, algunos títulos incluso son perfectamente jugables a esta última resolución sin necesidad de activar la reconstrucción de la imagen mediante inteligencia artificial.
Si a todo esto sumamos que esta tarjeta gráfica es razonablemente silenciosa, y también que bajo estrés máximo no se calienta excesivamente, no cabe duda de que merece la pena tenerla en cuenta. Eso sí, no es barata. Ninguna solución gráfica de última generación lo es, pero al menos actualmente podemos hacernos con la RTX 4070 Ti sin dificultad pagando un precio muy cercano al fijado oficialmente por NVIDIA. Hace poco esto era imposible. Algo es algo.
Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD
PVP en PcComponentes 999,90€
Hoy en Amazon por 1.273,94€
Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.
Más información: NVIDIA
(function() {
window._JS_MODULES = window._JS_MODULES || {};
var headElement = document.getElementsByTagName('head')[0];
if (_JS_MODULES.instagram) {
var instagramScript = document.createElement('script');
instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js';
instagramScript.async = true;
instagramScript.defer = true;
headElement.appendChild(instagramScript);
}
})();
-
La noticia
Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios
fue publicada originalmente en
Xataka
por
Juan Carlos López
.
http://dlvr.it/ShwQTs
0 Comentarios