Cómo funciona una gpu
Seguro que la evaluación comparativa de tu tarjeta gráfica puede parecer ciencia espacial, pero no es tan difícil como podrías pensar. Enrolla tus mangas, porque esta guía te mostrará lo fácil, divertido e importante que es hacer un benchmark de tu GPU. Y no sólo cuando haces overclocking. Vamos a cubrir la evaluación comparativa tanto para la estabilidad como para el rendimiento.
Ahora que ya sabes por qué deberías hacer benchmarks, es hora de entrar en el cómo. Empecemos por la estabilidad y los datos vitales. Es raro, pero a veces una tarjeta gráfica puede estar defectuosa de fábrica. Eso puede significar una tarjeta muerta, pero en muchos casos obtendrás lo que se llama “artefactos”, básicamente imperfecciones en la imagen, parpadeos o incluso colores pulsantes.
El primer programa que vamos a utilizar es Unigine Heaven 4.0. Es gratuito para uso personal y ejecuta un bucle de un entorno gráfico que realmente utiliza su GPU. Lo primero que hay que hacer es asegurarse de que tu tarjeta gráfica puede funcionar sin apagarse ni mostrar ningún fallo gráfico extraño, por lo que debes dejar que funcione Heaven durante al menos 30 minutos, para que la GPU adquiera temperatura.
Qué tarjeta gráfica comprar
Una tarjeta gráfica (también llamada tarjeta de vídeo, tarjeta de pantalla, adaptador gráfico, GPU, tarjeta VGA/VGA, adaptador de vídeo o adaptador de pantalla) es una tarjeta de expansión que genera una alimentación de imágenes de salida a un dispositivo de visualización (como un monitor de ordenador). A menudo se anuncian como tarjetas gráficas discretas o dedicadas, lo que acentúa la distinción entre éstas y los gráficos integrados. En el núcleo de ambas se encuentra la unidad de procesamiento gráfico (GPU), que es el principal componente que realiza los cálculos, pero no debe confundirse con la tarjeta gráfica en su conjunto, aunque “GPU” se utiliza a menudo como metonimia para referirse a las tarjetas gráficas.
La mayoría de las tarjetas gráficas no se limitan a la simple visualización. Su procesador gráfico integrado puede realizar un procesamiento adicional, eliminando esta tarea del procesador central del ordenador[1]. Por ejemplo, Nvidia y AMD (antes ATI) produjeron tarjetas que renderizan los conductos gráficos OpenGL y DirectX a nivel de hardware[2]. En los últimos años, también ha habido una tendencia a utilizar las capacidades de cálculo del procesador gráfico para resolver tareas no gráficas, lo que puede hacerse mediante el uso de OpenCL y CUDA. Las tarjetas gráficas se utilizan mucho para el entrenamiento de IA, la minería de criptomonedas y la simulación molecular[2][3][4].
Qué buscar en una tarjeta gráfica
Hay pocos componentes del PC tan importantes para el rendimiento como la tarjeta gráfica, también conocida como GPU. Cuando se trata de juegos, la GPU es el rey. La tarjeta gráfica tiene un efecto directo en los juegos que puedes jugar y en el tipo de experiencia que puedes esperar de ellos. Elegir una tarjeta gráfica puede ser increíblemente desalentador debido a su alto precio y a los cientos de variaciones. Pero no te preocupes: después de leer esta guía, sabrás exactamente cómo elegir una tarjeta gráfica que se ajuste a tus necesidades.
El propósito de las tarjetas gráficas es representar los gráficos. Sin una tarjeta gráfica, tu ordenador no puede mostrar ninguna información, y mucho menos funcionar como lo necesitas. Para simplificar, la GPU toma los datos del procesador y trabaja con el software para determinar dónde la tarjeta gráfica coloca los píxeles en la pantalla.
Para las máquinas que sólo necesitan ejecutar tareas básicas como el procesamiento de textos o la navegación por Internet, algunos procesadores incorporan tarjetas gráficas integradas. Cuando se utilizan gráficos integrados, el monitor se conecta directamente a la placa base. Las GPU integradas tienen una fracción de la potencia de sus homólogas dedicadas. Sin embargo, pueden ahorrarte una cantidad significativa de dinero.
Tarjeta gráfica discreta
Una unidad de procesamiento gráfico (GPU) es un circuito electrónico especializado diseñado para manipular y alterar la memoria con el fin de acelerar la creación de imágenes en una memoria intermedia destinada a la salida a un dispositivo de visualización. Las GPU se utilizan en sistemas integrados, teléfonos móviles, ordenadores personales, estaciones de trabajo y videoconsolas.
Las GPU modernas son eficientes en la manipulación de gráficos por ordenador y el procesamiento de imágenes. Su estructura paralela las hace más eficientes que las unidades centrales de procesamiento (CPU) de propósito general para los algoritmos que procesan grandes bloques de datos en paralelo. En un ordenador personal, la GPU puede estar presente en una tarjeta de vídeo o integrada en la placa base. En algunas CPU, están incrustadas en la matriz de la CPU[1].
En la década de 1970, el término “GPU” significaba originalmente unidad de procesamiento gráfico y describía una unidad de procesamiento programable que trabajaba de forma independiente de la CPU y era responsable de la manipulación y la salida de los gráficos[2][3] Más tarde, en 1994, Sony utilizó el término (que ahora significa unidad de procesamiento gráfico) en referencia a la GPU de Sony diseñada por Toshiba para la consola PlayStation en 1994. [4] El término fue popularizado por Nvidia en 1999, que comercializó la GeForce 256 como “la primera GPU del mundo”,[5] presentada como un “procesador de un solo chip con motores integrados de transformación, iluminación, configuración/recorte de triángulos y renderizado”. 6] Su rival ATI Technologies acuñó el término “unidad de procesamiento visual” o VPU con el lanzamiento de la Radeon 9700 en 2002. 7]