Cómo funciona una tarjeta gráfica
Una unidad de procesamiento gráfico (GPU) es un circuito electrónico especializado diseñado para manipular y alterar rápidamente la memoria con el fin de acelerar la creación de imágenes en una memoria intermedia destinada a la salida a un dispositivo de visualización. Las GPU se utilizan en sistemas integrados, teléfonos móviles, ordenadores personales, estaciones de trabajo y videoconsolas.
Las GPU modernas son muy eficientes en la manipulación de gráficos por ordenador y el procesamiento de imágenes. Su estructura altamente paralela las hace más eficientes que las unidades centrales de procesamiento (CPU) de propósito general para los algoritmos que procesan grandes bloques de datos en paralelo. En un ordenador personal, la GPU puede estar presente en una tarjeta de vídeo o integrada en la placa base. En algunas CPU, están incrustadas en la matriz de la CPU[1].
En la década de 1970, el término “GPU” significaba originalmente unidad de procesamiento gráfico y describía una unidad de procesamiento programable que trabajaba de forma independiente de la CPU y era responsable de la manipulación y la salida de los gráficos[2][3] Más tarde, en 1994, Sony utilizó el término (que ahora significa unidad de procesamiento gráfico) en referencia a la GPU de Sony diseñada por Toshiba para la consola PlayStation en 1994. [4] El término fue popularizado por Nvidia en 1999, que comercializó la GeForce 256 como “la primera GPU del mundo”,[5] presentada como un “procesador de un solo chip con motores integrados de transformación, iluminación, configuración/recorte de triángulos y renderizado”. 6] Su rival ATI Technologies acuñó el término “unidad de procesamiento visual” o VPU con el lanzamiento de la Radeon 9700 en 2002. 7]
Tarjeta gráfica discreta
Una tarjeta gráfica (también llamada tarjeta de vídeo, tarjeta de pantalla, adaptador de gráficos, adaptador de vídeo o adaptador de pantalla) es una tarjeta de expansión que genera una alimentación de imágenes de salida a un dispositivo de visualización (como un monitor de ordenador). Con frecuencia, se anuncian como tarjetas gráficas discretas o dedicadas, lo que acentúa la distinción entre éstas y los gráficos integrados. En el núcleo de ambas se encuentra la unidad de procesamiento gráfico (GPU), que es el principal componente que realiza los cálculos, pero no debe confundirse con la tarjeta gráfica en su conjunto, aunque “GPU” se utiliza a menudo como metonimia para referirse a las tarjetas gráficas.
La mayoría de las tarjetas gráficas no se limitan a la simple visualización. Su procesador gráfico integrado puede realizar un procesamiento adicional, eliminando esta tarea del procesador central del ordenador[1]. Por ejemplo, Nvidia y AMD (antes ATI) produjeron tarjetas que renderizan los conductos gráficos OpenGL y DirectX a nivel de hardware[2]. En los últimos años, también ha habido una tendencia a utilizar las capacidades de cálculo del procesador gráfico para resolver tareas no gráficas, lo que puede hacerse mediante el uso de OpenCL y CUDA. Las tarjetas gráficas se utilizan mucho para el entrenamiento de IA, la minería de criptomonedas y la simulación molecular[2][3][4].
Tarjeta gráfica
GPU Nvidia GeForce GTX 1080 Pascal GPU significa unidad de procesamiento gráfico. También verás que las GPU se denominan comúnmente tarjetas gráficas o tarjetas de vídeo. Todos los PC utilizan una GPU para renderizar imágenes, vídeos y animaciones 2D o 3D para su visualización. Una GPU realiza cálculos matemáticos rápidos y libera a la CPU para hacer otras cosas. Mientras que una CPU utiliza unos pocos núcleos centrados en el procesamiento secuencial en serie, una GPU tiene miles de núcleos más pequeños hechos para la multitarea.Hay dos tipos diferentes de GPU:Conclusión: Para obtener el mejor rendimiento, opta por una GPU discreta. Hoy en día, muchas tarjetas gráficas funcionan con GDDR SDRAM, que significa memoria de acceso aleatorio dinámico síncrono de doble velocidad de datos para gráficos. Otras variantes, de peor a mejor rendimiento, son: GDDR2, GDDR3, GDDR4, GDDR5, GDDR5X y GDDR6. Este artículo forma parte del glosario de Tom’s Hardware:
Scharon Harding tiene una especial afinidad por los periféricos para juegos (especialmente los monitores), los ordenadores portátiles y la realidad virtual. Anteriormente, cubrió la tecnología empresarial, incluidos el hardware, el software, la ciberseguridad, la nube y otros acontecimientos informáticos, en Channelnomics, con subtítulos en CRN UK.
Definición de tarjeta gráfica
Las GPU han desencadenado el auge de la inteligencia artificial en todo el mundo. Se han convertido en una pieza clave de la supercomputación moderna. Se han incorporado a los nuevos centros de datos a gran escala. Todavía apreciadas por los jugadores, se han convertido en aceleradores que aceleran todo tipo de tareas, desde la encriptación hasta la creación de redes y la IA.
Aunque las GPU (unidades de procesamiento gráfico) son ahora mucho más que los PC en los que aparecieron por primera vez, siguen ancladas en una idea mucho más antigua llamada computación paralela. Y eso es lo que hace que las GPU sean tan potentes.
Las CPU, sin duda, siguen siendo esenciales. Rápidas y versátiles, las CPU se apresuran a realizar una serie de tareas que requieren mucha interactividad. Por ejemplo, llamar a la información de un disco duro en respuesta a las pulsaciones del usuario.
Desde el punto de vista arquitectónico, la CPU se compone de unos pocos núcleos con mucha memoria caché que pueden manejar unos cuantos hilos de software a la vez. En cambio, una GPU está compuesta por cientos de núcleos que pueden manejar miles de hilos de forma simultánea.
Las GPUs ofrecen la tecnología de cálculo paralelo, que en su día fue esotérica. Es una tecnología con un ilustre pedigrí que incluye nombres como el del genio de la supercomputación Seymor Cray. Pero en lugar de adoptar la forma de enormes superordenadores, las GPU ponen esta idea en práctica en los ordenadores de sobremesa y las consolas de juego de más de mil millones de jugadores.