[PC] AMD lanza la Radeon VII, rival de las GeForce RTX: 750 euros
#1
Cita
AMD ha anunciado oficialmente el lanzamiento de su tarjeta gráfica de consumo más potente hasta la fecha. La Radeon VII ya está aquí, convirtiéndose en la primera GPU para juegos fabricada usando un proceso de 7 nm. En su punto de mira, las nuevas GeForce RTX 2080. A diferencia de las tarjetas de Nvidia, la Radeon VII no incorpora soporte para tecnologías punteras como el trazado de rayos.

La Radeon VII, recordemos, es básicamente una Radeon Instinct MI50, originalmente diseñada para labores de inteligencia artificial y rénder profesional, pero adaptada para juegos con mínimos retoques. Como tal posee 60 compute units y 3.840 procesadores stream, así como 16 GB de rapidísima (y nada económica) memoria HMB2 con un ancho de banda de 1 TB/s.

Durante su conferencia en el CES, AMD la definió como una apta rival para la RTX 2080 de Nvidia, superándola incluso en algunos aspectos. Los primeros análisis, que ya están fuera, indican sin embargo que su rendimiento es en general ligeramente inferior salvo con algunos juegos como Far Cry 5 y Battlefield 1, donde muestra registros más positivos. De hecho, en varias pruebas queda por debajo de la GTX 1080Ti.

Según AnandTech, comparándola con la Radeon RX Vega 64 su rendimiento a 1440p es un 24 % superior. Este porcentaje sube hasta el 32 % usando un monitor 4K.

Los datos iniciales de ruido y temperatura no son positivos en relación a la gama RTX. Posiblemente se deba al hecho de que, aunque fabricada a 7 nm, no deja de utilizar una GPU basada en la arquitectura Vega, y además AMD ha querido aumentar la velocidad de reloj para sacarle el máximo rendimiento.



La Radeon VII tiene un PVP de 750 euros en España. No es una tarifa muy ventajosa si se considera que las RTX 2080 más asequibles rondan los 720 euros, pero AMD ha querido endulzarlo ofreciendo tres juegos totalmente gratis con su compra: Resident Evil 2, Devil May Cry 5 y The Division 2.

Fuente
#2
Cita
Hombre, así por encima, a mi me parece una opción curiosa al menos. Pero no soy entendido y le veo una posible pega: que los juegos no aprovechen su forma de trabajar ni lo que pueda llevar más específico por estar más orientado a otro tipo de tarjetas o hardware, o directamente, estar mejor optimizados para drivers Nvidia. Es que estuve leyendo a raíz de unas ofertas rápidas cosas sobre la Vega 64, y aunque no engañaré al respetable diciendo que molaba lo que leía (la verdad es que no me enteraba de la mitad), si saqué como conclusión que si se programara adecuadamente para ella, que si hay algunos juegos que si aprovechan sus especificaciones, era un cañón de tarjeta (algo alta de consumo me parece), pero en otros juegos o configuraciones, no rinde como otras y no se le saca el partido que debería y se podría.

Ala, que me voy a cenar de una vez, y a ver al Doctor Extraño en una peli sobre el Brexit.
#3
Cita
(07-02-2019 22:15)Rosstheboss escribió:Hombre, así por encima, a mi me parece una opción curiosa al menos. Pero no soy entendido y le veo una posible pega: que los juegos no aprovechen su forma de trabajar ni lo que pueda llevar más específico por estar más orientado a otro tipo de tarjetas o hardware, o directamente, estar mejor optimizados para drivers Nvidia. Es que estuve leyendo a raíz de unas ofertas rápidas cosas sobre la Vega 64, y aunque no engañaré al respetable diciendo que molaba lo que leía (la verdad es que no me enteraba de la mitad), si saqué como conclusión que si se programara adecuadamente para ella, que si hay algunos juegos que si aprovechan sus especificaciones, era un cañón de tarjeta (algo alta de consumo me parece), pero en otros juegos o configuraciones, no rinde como otras y no se le saca el partido que debería y se podría.

Ala, que me voy a cenar de una vez, y a ver al Doctor Extraño en una peli sobre el Brexit.

Pero eso pasa con todo. Si se programara para aprovechar dicho hardware, tomaría ventaja. Pasa y seguirá pasando en todas las generaciones de AMD o nVidia y también en los procesadores de AMD o Intel. Y no viene de ahora. Ya hace eones, si aprovechaba las 3DNow! los K6-2 y posteriores aumentaban el rendimiento pero si lo que aprovechaba el juego o aplicación de marras eran las SSE ocurría lo propio con los Pentium III. Si el juego se programaba en Glide las Voodo volaban y si tiraba de T&L por hardware las nVidia  liberaban a la CPU de gran parte del trabajo...

Ya casi nadie se acuerda de MANTLE, esas librerías que parece que llevan parte de su alma en DX12, que hacía que mi antigua R9 280X pasase de 70fps a, de golpe, entre 150 y 200fps, con el mismo hardware y con todo en Ultra.

A veces me pregunto si no sería mejor volver al modelo inicial, en el que no había unas librerías comunes para todo sino que tenías que elegir según tu marca. No digo como al principio que tenías que elegir tu gráfica concreta porque sería un follón con tanto modelo, pero si como con el GLIDE, que una compañía tenga unas librerías propias que aprovechen sus GPUs (como MANTLE) y que los juegos tuviesen ambas opciones para elegir, y así aprovechar más tu hardware.

Se supone que DX12 iba a aprovechar más el hardware... ¿y qué tal vamos con eso?
#4
Cita
(09-02-2019 00:39)JuanmaNPI escribió:Se supone que DX12 iba a aprovechar más el hardware... ¿y qué tal vamos con eso?

Bueno, el Battlefront II se ve chachi cuando activas DX12, algo es algo sisi


Salto de foro:


Usuarios navegando en este tema: 1 invitado(s)