Una breve historia de GPU – altumea

Hoy en día, una GPU es uno de los componentes de hardware más importantes de la arquitectura de la computadora. Inicialmente, el propósito de una tarjeta de video era tomar un flujo de datos binarios del procesador central y renderizar las imágenes para mostrarlas. Pero las unidades modernas de procesamiento de gráficos están involucradas en los cálculos más complejos, como la investigación de big data, el aprendizaje automático y la IA.

A lo largo de varias décadas, la GPU evolucionó de un hardware de función fija de un solo núcleo utilizado únicamente para gráficos, a un conjunto de núcleos paralelos programables. Echemos un vistazo a algunos hitos en la fascinante historia de la GPU.

Tableros de arcade y adaptadores de pantalla (1951 -1995)

Ya en 1951, MIT construyó el Whirlwind, un simulador de vuelo para la Armada. Aunque puede considerarse el primer sistema de gráficos en 3D, la base de las GPU de hoy en día se formó a mediados de los 70 con los llamados desplazadores de video y generadores de direcciones de video. Llevaron a cabo información desde el procesador central hasta la pantalla. Los chips gráficos especializados fueron ampliamente utilizados en tableros de sistemas arcade. En 1976, RCA construyó el chip de video "Pixie", que fue capaz de emitir la señal de video a una resolución de 62 × 128. El hardware de gráficos del sistema de arcade Namco Galaxian admitía colores RGB, sprites de varios colores y fondos de mapas de mapas desde 1979.

En 1981, IBM comenzó a usar monocromo y un adaptador de pantalla a color (MDA / CDA) en sus PC. Aún no es una GPU moderna, era un componente de computadora en particular diseñado para un propósito: mostrar video. Al principio, tenía 80 columnas por 25 líneas de caracteres de texto o símbolos. El siguiente dispositivo revolucionario fue el Tablero Multimodular de Controlador de Gráficos de Video ISBX 275, lanzado por Intel en 1983. Pudo mostrar ocho colores a una resolución de 256×256 o monocromo a 512×512.

Adaptador de pantalla monocromo (IBM, 1981)

En 1985, tres inmigrantes de Hong Kong en Canadá formaron Array Technology Inc, que luego pasó a llamarse ATI Technologies. Esta compañía lideraría el mercado durante años con su línea Wonder de tarjetas gráficas y chips.

S3 Graphics introdujo el S3 86C911, que lleva el nombre del Porsche 911, en 1991. El nombre era para indicar el aumento de rendimiento. Esta tarjeta generó una multitud de imitadores: en 1995, todos los jugadores principales en la fabricación de tarjetas gráficas habían agregado soporte de aceleración 2D a sus fichas. A lo largo de la década de 1990, el nivel de integración de las tarjetas de video se mejoró significativamente con las interfaces de programación de aplicaciones adicionales (API).

En general, a principios de la década de 1990 fue cuando se encontraron muchas compañías de hardware de gráficos, que luego fueron adquiridas o expulsadas del negocio. Entre los ganadores fundados durante esta época estuvo NVIDIA. A fines de 1997, esta compañía tenía casi el 25 por ciento del mercado de gráficos.

Revolución 3D (1995-2006)

La historia de las GPU modernas comienza en 1995 con la introducción de las primeras tarjetas complementarias en 3D y, más tarde, la adopción de los sistemas operativos de 32 bits y las computadoras personales asequibles. Anteriormente, la industria se centraba en la arquitectura 2D y no de PC, y las tarjetas gráficas eran conocidas principalmente por nombres alfanuméricos y etiquetas de precios enormes.

La tarjeta gráfica Voodoo de 3DFx, lanzada a fines de 1996, se hizo cargo del 85% del mercado. Las tarjetas que solo podían renderizar 2D se volvieron obsoletas muy rápido. El Voodoo1 se mantuvo completamente alejado de los gráficos 2D; Los usuarios tenían que ejecutarlo juntos con una tarjeta 2D separada. Pero aún así fue una bendición para los jugadores. El producto de la siguiente compañía, Voodoo2 (1998), tenía tres chips integrados y fue una de las primeras tarjetas de video en soportar el trabajo paralelo de dos tarjetas dentro de una sola computadora.

Con el progreso de la tecnología de fabricación, el video, la aceleración GUI 2D y la funcionalidad 3D se integraron en un solo chip. Los chipsets Verite de Rendition fueron de los primeros en hacerlo bien. Las tarjetas aceleradoras 3D ya no eran solo rasterizadores.

Finalmente, ¡la "primera GPU del mundo" llegó en 1999! Así es como Nvidia promovió su GeForce 256. Nvidia definió el término unidad de procesamiento de gráficos como "un procesador de un solo chip con transformación integrada, iluminación, configuración / recorte de triángulos y motores de procesamiento que es capaz de procesar un mínimo de 10 millones de polígonos por segundo. . ”

La rivalidad entre ATI y Nvidia fue el punto culminante de la década de 2000. Durante este tiempo, las dos compañías se enfrentaron y entregaron tarjetas gráficas con características que ahora son comunes. Por ejemplo, la capacidad de realizar sombreado especular, explosión volumétrica, ondas, refracción, volúmenes de sombra, combinación de vértices, mapeo de relieve y mapeo de elevación.

GPU de propósito general (2006 – actualidad)

La era de las GPU de propósito general comenzó en 2007. Tanto Nvidia como ATI (desde que las adquirió AMD) habían estado empaquetando sus tarjetas gráficas con cada vez más capacidades.

Sin embargo, las dos compañías tomaron pistas diferentes a la GPU informática de propósito general (GPGPU). En 2007, Nvidia lanzó su entorno de desarrollo CUDA, el primer modelo de programación ampliamente adoptado para la computación de GPU. Dos años más tarde, OpenCL se hizo ampliamente compatible. Este marco permite el desarrollo de código para GPU y CPU con un énfasis en la portabilidad. Así, las GPU se convirtieron en un dispositivo informático más generalizado.

En 2010, Nvidia colaboró ​​con Audi. Utilizaron las GPU de Tegra para impulsar el tablero de instrumentos de los autos y aumentar los sistemas de navegación y entretenimiento. Estos avances en tarjetas gráficas en vehículos impulsaron la tecnología de auto-conducción.

NVIDIA Titan V, 2017

Pascal es la última generación de tarjetas gráficas de Nvidia, lanzada en 2016. Su proceso de fabricación de 16 nm mejora las microarquitecturas anteriores. AMD lanzó las GPU Polaris 11 y Polaris 10 con un proceso de 14 nm, lo que resultó en un aumento robusto del rendimiento por vatio en el rendimiento por vatio. Sin embargo, el consumo de energía de las GPU modernas también ha aumentado.

Hoy en día, las unidades de procesamiento de gráficos no son solo para gráficos. Han encontrado su camino en campos tan diversos como el aprendizaje automático, la exploración petrolera, el procesamiento científico de imágenes, las estadísticas, el álgebra lineal, la reconstrucción 3D, la investigación médica e incluso la determinación de precios de las opciones sobre acciones. La tecnología de GPU tiende a agregar aún más capacidad de programación y paralelismo a una arquitectura de núcleo que siempre evoluciona hacia un núcleo de propósito general similar a la CPU.