Seis mitos sobre las tarjetas gráficas que ya deberíamos superar
El mundo de la tecnología está lleno de mitos, y dentro del mismo las tarjetas gráficas son uno de los componentes que más se ha visto afectado por esa realidad. Estoy seguro de que nada más leer esto te habrán venido a la cabeza algunos de esos mitos, aunque puede también hayas pensado en otros que no terminas de saber si son ciertos o no, ya que nunca has sido capaz de desmentirlos del todo.
Soy consciente de que muchos de nuestros lectores siguen teniendo este problema, y de que algunos de esos mitos se han enquistado hasta tal punto que para ciertas personas son verdades «universales» cuando, en realidad, son cosas totalmente falsas. Para ayudaros a superar esos mitos y a tener una visión más realista y acertada de las tarjetas gráficas hoy quiero compartir con vosotros seis mitos que debemos superar.
Antes de empezar quiero comentaros que algunos de los mitos que vamos a ver tenían cierto sentido hace unos años, y también fueron ciertos en determinadas generaciones de tarjetas gráficas, pero eso no los convierte en verdades universales que debamos tener siempre presentes como ciertas.
En este sentido, quiero destacar algo muy importante, y es que tanto AMD como NVIDIA han tenido generaciones gráficas claramente superiores que hacían que sus tarjetas gráficas mejores que las de su rival, pero eso ocurría en un momento concreto, y no se debe interpretar como algo absoluto y permanente.
Con esto en mente, creo que estamos preparados para empezar. Si tenéis pensado comprar una nueva tarjeta gráfica y necesitáis ayuda para elegir os recomiendo que echéis un vistazo a nuestra guía de compras. Ahora sí, poneos cómodos, que tenemos muchas cosas interesantes que leer.
1.-Las tarjetas gráficas de NVIDIA o de AMD son mejores solo por la marca
Este mito está profundamente asociado a la idea de «status» que tenemos de una marca u otra, y también se ve afectada por la preferencia personal de los consumidores, que convierten a cualquiera de esas dos empresas en una especie de ídolo, llegando hasta el punto de defenderla a capa y espada con una ceguera inaudita.
Obvia decir que esto es un problema. Comprar algo por una idea preconcebida de status puede llevarnos a hacer una mala compra, y llegar a ese nivel de adoración absurda de una marca puede tener consecuencias mucho peores. Durante las últimas dos décadas he tenido conversaciones con fanáticos de una y otra marca, y me he encontrado con personas que eran incapaces de hacer la más mínima crítica de su empresa favorita, un problema que se mantiene a día de hoy y que está de rabiosa actualidad.
Las tarjetas gráficas NVIDIA no son mejor por ser de NVIDIA, y lo mismo ocurre con las de AMD. Cada compañía tiene generaciones buenas, menos buenas y malas, aunque por suerte en los últimos años no hemos visto una generación de tarjetas gráficas realmente malas por parte de ninguna de estas dos empresas. Por tanto, no debemos prejuzgar ni dejarnos llevar por este mito, cada fabricante ofrece un valor diferenciado, y cada tarjeta gráfica tiene sus ventajas y sus desventajas, con independencia de que sea de AMD o de NVIDIA.
2.-La memoria gráfica es lo más importante en una tarjeta gráfica
Otro de los mitos más populares, y de los más recurrentes. Los usuarios con menos conocimientos en el mundillo tecnológico son los más propensos a dejarse llevar por la «grandeza de los números». Sí, me refiero al clásico «esta tarjeta gráfica tiene el doble de memoria gráfica», una frase muy sencilla que ya incita al otro a pensar que solo por eso tiene que rendir el doble que la otra, cuando en realidad puede rinda incluso menos.
Es cierto que este es un problema que hoy en día se sufre menos que en generaciones anteriores, ya que los fabricantes están optando por reducir costes y ya no es habitual ver tarjetas gráficas poco potentes con mucha memoria gráfica, aunque todavía existen situaciones que pueden llevarnos a error. Por ejemplo, una GeForce RTX 3060 tiene 12 GB de memoria gráfica, mientras que una GeForce RTX 3070 Ti tiene 8 GB de memoria gráfica. Podríamos pensar que la primera rinde más y que es mejor, pero en realidad ocurre todo lo contrario.
Que una tarjeta gráfica tenga más memoria no implica que sea mejor que otra con menos memoria gráfica. Al final, lo importante es la arquitectura de la tarjeta gráfica, su potencia bruta, la generación en la que se encuadra, ya que determina lo avanzada que es, y su configuración a nivel de hardware. Así, por ejemplo, la Radeon RX 6600 XT tiene solo 8 GB de memoria gráfica, mientras que la Radeon VII tiene 16 GB, pero la primera es más potente, más eficiente y tiene, además, hardware dedicado para acelerar trazado de rayos.
Podríamos poner muchos otros ejemplos, como la GeForce RTX 2060, que tiene solo 6 GB de memoria gráfica pero es capaz de superar a la GeForce GTX 1080 Ti de 11 GB en juegos con trazado de rayos, gracias a la mejora de rendimiento que consiguen sus núcleos RT, y también habría que tener en cuenta el valor de sus núcleos tensor y el DLSS. Al final, la memoria gráfica es solo uno de los muchos datos a tener en cuenta para valorar una tarjeta gráfica, y no es el más importante.
3.-La memoria gráfica no mejora el rendimiento en juegos
Podríamos decir que este mito es el némesis del anterior, ya que minimiza la importancia real que tiene la memoria gráfica. Como ya hemos dicho anteriormente, es cierto que la memoria gráfica no es uno de los aspectos más importantes a la hora de elegir una tarjeta gráfica, pero esto no quiere decir que no tenga ninguna importancia, o que no afecte al rendimiento en juegos, de hecho ocurre todo lo contrario.
Lo primero que debemos tener claro es que para ejecutar un juego necesitamos contar con una cantidad mínima de memoria gráfica. Si no cumplimos con ese mínimo, puede que el juego funcione, pero nos dará problemas importantes, entre los que podemos destacar:
- Errores en las texturas, popping y fallos gráficos.
- Bajo rendimiento permanente.
- Tirones y parones como consecuencia de los ciclos constantes de vaciado y llenado de la memoria gráfica.
No contar con la memoria gráfica suficiente para mover un juego es uno de los problemas más graves a los que nos podemos enfrentar, ya que la GPU no podrá mantener guardadas en dicha memoria todas las cosas que necesita, y tendrá que estar repitiendo constantemente ciclos de trabajo que ya había realizado. A estos se sumarán otros ciclos de trabajo nuevos, lo que acabará saturando la GPU y haciendo que el rendimiento sea muy bajo.
La cantidad de memoria gráfica, y su ancho de banda, puede afectar de forma notable al rendimiento de un juego, e incluso impedirnos acceder a ciertas configuraciones de calidad si no llegamos a un nivel determinado. Sin embargo, sí que es cierto que una vez que hemos superado el nivel óptimo tener una cantidad mayor de memoria gráfica no marcará ninguna diferencia. En esencia, es lo mismo que ocurre con la memoria RAM.
4.-Las tarjetas gráficas AMD consumen más, y se calientan más, que las de NVIDIA
Qué puedo decir, es un clásico, y la verdad es que ha tenido sentido en algunas generaciones gráficas, pero en los últimos años se ha convertido en un mito. Si nos limitamos a los valores de consumo listados en las especificaciones de cada tarjeta gráfica ya nos damos cuenta de que el consumo de las GeForce RTX 30 es mayor que el de las Radeon RX 6000, y con las GeForce RTX 20 y las GeForce RX 5000 la cosa también estuvo muy ajustada.
Por ejemplo, la GeForce RTX 3080, que es la rival directa de la Radeon RX 6800 XT, tiene un TGP de 320 vatios mientras que la segunda tiene un TBP de 300 vatios. AMD ha conseguido afinar mucho el consumo con sus últimas tarjetas gráficas, y esto se ha dejado notar. No obstante, si introducimos el tema del rendimiento en la ecuación y profundizamos teniendo en cuenta cosas como el trazado de rayos y la reconstrucción y reescalado de la imagen, la cosa pinta mejor para NVIDIA, ya que utiliza una arquitectura más avanzada.
Siguiendo con el ejemplo anterior, la GeForce RTX 3080 rinde mucho mejor que la Radeon RX 6800 XT en trazado de rayos, y soporta DLSS de segunda generación, una tecnología claramente superior al FSR 1.0 y FSR 2.0 de AMD. Estas dos claves son más que suficiente para justificar la diferencia de consumo que existe entre ambas, pero lo importante es que no hay una diferencia de consumo abismal entre las tarjetas gráficas de ambas compañías, y que este mito no tiene ningún sentido.
Las tarjetas gráficas de AMD tampoco se calientan más solo por ser de AMD, es otra concepción errónea que dejó de tener sentido hace bastante tiempo. Es cierto que la firma de Sunnyvale lanzó en ocasiones generaciones que alcanzaban temperaturas muy altas, como las Radeon R9 290, pero NVIDIA también hizo lo propio con modelos como la GeForce GTX 480, y hoy en día es absurdo generalizar manteniendo este mito.
5.-Los drivers de las tarjetas gráficas AMD son un desastre: mucho peores que los de NVIDIA
Siendo honestos, hay que reconocer que AMD ha cometido algunos errores importantes con los controladores de sus tarjetas gráficas en los últimos años, de hecho podemos recordar el caso de 2020, cuando unos drivers defectuosos hicieron que muchos usuarios de las Radeon RX 5700 y RX 5700 XT se encontraran con fallos graves y pantallazos negros.
Es cierto que AMD todavía tiene margen de mejora en ciertos aspectos, pero sus controladores no son un desastre, y tampoco son mucho peores que los de las soluciones gráficas de NVIDIA, de hecho ocurre algo muy curioso, y es que AMD ha sido capaz de cuidar y de mejorar tanto la optimización de sus drivers que se han ganado la reputación de «finewine», es decir, que algunas de sus tarjetas gráficas han envejecido como el buen vino gracias a las mejoras introducidas a nivel de drivers.
Los controladores de AMD han ido evolucionando también a nivel de interfaz y de funciones avanzadas, y con el salto a los Radeon Software Adrenalin se produjo un salto muy importante para la compañía de Sunnyvale, que le proporcionó la base que necesitaba para situarse en una posición mucho más competitiva frente a NVIDIA. Sobre esa base ha ido introduciendo numerosas mejoras, y ha pulido el diseño y la interfaz con gran acierto.
El soporte a nivel de juegos también ha ido mejorando mucho con el paso de los años, y a día de hoy podemos encontrar muchos títulos que están profundamente optimizados para funcionar mejor con tarjetas gráficas Radeon de AMD, como AC: Valhalla. Creo que con todo esto sobre la mesa está bastante claro que estamos ante un mito a olvidar.
6.-Solo las tarjetas gráficas tope de gama pueden mover juegos en 4K
Muchos usuarios todavía creen que jugar en 4K es algo que está limitado a las tarjetas gráficas más potentes, y que esta resolución es algo «nuevo» que ha empezado a utilizarse hace poco, por lo que solo los modelos más actuales están preparadas para trabajar con ella. Nada más lejos de la realidad, de hecho la GeForce GTX 980 Ti fue una de las primeras tarjetas gráficas que realmente era capaz de mover juegos en 4K de forma más que aceptable.
Tuve dicha tarjeta gráfica, y para que os hagáis una idea era capaz de mover juegos como Battlefield 4 y Far Cry 4 en 4K con calidad máxima manteniendo más de 30 FPS estables. Otros títulos menos exigentes como Tomb Raider 2013 y CoD Advanced Warfare funcionaban a 55 y 80 FPS en 4K, también con calidad máxima.
Jugar en 4K no es una meta que nos hayamos fijado hace dos días, es algo que lleva años siendo posible, aunque los nuevos desarrollos de videojuegos han hecho que los requisitos aumenten, y por tanto las tarjetas gráficas más antiguas ya no son capaces de ofrecer un buen rendimiento en dicha resolución con títulos actuales. Esto no admite discusión, pero a día de hoy una GeForce RTX 2070 o una Radeon RX 5700 son perfectamente capaces de mover títulos en 4K, y no son modelos tope de gama.
Es cierto que contar con una tarjeta gráfica más potente nos dará una mayor fluidez, pero esto no significa que no vayamos a poder disfrutar de una experiencia óptima en 4K con una tarjeta gráfica de gama media-alta, o incluso de gama media. Por ejemplo, la GeForce RTX 3060 es capaz de mover Battlefield V en 4K manteniendo 60 FPS, consigue 82 FPS en DOOM Eternal y 55 FPS en Death Stranding, y sin tener que recurrir al DLSS.
Comentarios
Publicar un comentario