Nota del Editor: hemos actualizado nuestro post original sobre las diferencias entre GPU y CPU, escrito por Kevin Krewell, y publicado en diciembre de 2009.
la CPU (unidad central de procesamiento) se ha llamado el cerebro de un PC. La GPU su alma. Durante la última década, sin embargo, las GPU han salido de los confines cuadrados de la PC.
Las GPU han encendido un boom Mundial de IA. Se han convertido en una parte clave de la supercomputación moderna., Se han entretejido en nuevos centros de datos de hiperescala. Aún apreciados por los jugadores, se han convertido en aceleradores que aceleran todo tipo de tareas, desde el cifrado hasta las redes y la IA.
y continúan impulsando los avances en juegos y gráficos profesionales dentro de estaciones de trabajo, PC de escritorio y una nueva generación de computadoras portátiles.
¿Qué es una GPU?
mientras que las GPU (graphics processing unit) ahora son mucho más que las PC en las que aparecieron por primera vez, permanecen ancladas en una idea mucho más antigua llamada computación paralela. Y eso es lo que hace que las GPU sean tan poderosas.
Las CPU, sin duda, siguen siendo esenciales. Rápidas y versátiles, las CPU corren a través de una serie de tareas que requieren mucha interactividad. Llamada de información desde un disco duro en respuesta a las pulsaciones de teclas del usuario, por ejemplo.
por el contrario, las GPU dividen los problemas complejos en miles o millones de tareas separadas y las resuelven a la vez.,
eso los hace ideales para gráficos, donde las texturas, la iluminación y el renderizado de formas deben hacerse a la vez para mantener las imágenes volando por la pantalla.,v id=»bdcf9e66d4″>
arquitectónicamente, la CPU se compone de solo unos pocos núcleos con mucha memoria caché que puede manejar algunos subprocesos de software a la vez., Por el contrario, una GPU se compone de cientos de núcleos que pueden manejar miles de subprocesos simultáneamente.
Las GPU ofrecen la tecnología una vez esotérica de la computación paralela. Es una tecnología con un pedigrí ilustre que incluye nombres como el genio de la supercomputación Seymor Cray. Pero en lugar de tomar la forma de grandes supercomputadoras, las GPU pusieron esta idea en funcionamiento en los escritorios y consolas de juegos de más de mil millones de jugadores.
para las GPU, Los gráficos por computadora son la primera de muchas aplicaciones
esa aplicación, los gráficos por computadora, fue solo la primera de varias aplicaciones asesinas., Y ha impulsado el enorme motor R&D detrás de las GPU hacia adelante. Todo esto permite a las GPU competir por delante de chips de función fija más especializados que sirven a nichos de mercado.
otro factor que hace que todo ese poder sea accesible: CUDA. Lanzada por primera vez en 2007, la plataforma de computación paralela permite a los programadores aprovechar la potencia de computación de las GPU para el procesamiento de propósito general mediante la inserción de unos pocos comandos simples en su código.
eso permite que las GPU proliferen en nuevos campos sorprendentes., Y con la compatibilidad con un número creciente de estándares, como Kubernetes y Dockers, las aplicaciones se pueden probar en una GPU de escritorio de bajo costo y escalar a GPU de servidor más rápidas y sofisticadas, así como a todos los principales proveedores de servicios en la nube.
las CPU y el final de la Ley de Moore
con la Ley de Moore terminando, las GPU, inventadas por NVIDIA en 1999, llegaron justo a tiempo.
La Ley de Moore postula que el número de transistores que pueden ser hacinados en un circuito integrado se duplicará aproximadamente cada dos años. Durante décadas, eso ha impulsado un rápido aumento de la potencia informática., Esa ley, sin embargo, se ha topado con duros límites físicos.
Las GPU ofrecen una forma de seguir acelerando las aplicaciones, como gráficos, supercomputación e ia, dividiendo las tareas entre muchos procesadores. Tales aceleradores son críticos para el futuro de los semiconductores, según John Hennessey y David Patterson, ganadores del Premio Turing 2017 A. M. y autores de Computer Architecture: a Quantitative Approach the seminal textbook on microprocessors.,
GPU: clave para la IA, La Visión por computadora, la supercomputación y más
durante la última década, que ha demostrado ser clave para una creciente gama de aplicaciones.
Las GPU realizan mucho más trabajo para cada unidad de energía que las CPU. Eso los hace clave para las supercomputadoras que de otra manera pasarían los límites de las redes eléctricas actuales.
en Ia, las GPU se han convertido en la clave de una tecnología llamada «aprendizaje profundo».»El aprendizaje profundo vierte grandes cantidades de datos a través de redes neuronales, entrenándolas para realizar tareas demasiado complicadas para que cualquier programador humano las describa.,
IA y juegos: el aprendizaje profundo impulsado por GPU cierra el círculo
La capacidad de aprendizaje profundo se acelera gracias a la inclusión de núcleos tensores dedicados en las GPU NVIDIA. Los núcleos de Tensor aceleran las operaciones de grandes matrices, en el corazón de la IA, y realizan cálculos de multiplicación y acumulación de matrices de precisión mixta en una sola operación. Eso no solo acelera las tareas tradicionales de IA de todo tipo, sino que ahora se está aprovechando para acelerar los juegos.,
en la industria automotriz, las GPU ofrecen muchos beneficios. Proporcionan capacidades de reconocimiento de imágenes inigualables, como es de esperar. Pero también son clave para crear vehículos autónomos capaces de aprender y adaptarse a un gran número de diferentes escenarios del mundo real.,
en robótica, las GPU son clave para permitir que las máquinas perciban su entorno, como era de esperar. Sus capacidades de IA, sin embargo, se han convertido en clave para las máquinas que pueden aprender tareas complejas, como navegar de forma autónoma.
en salud y Ciencias de la vida, las GPU ofrecen muchos beneficios. Son ideales para tareas de imágenes, por supuesto. Pero el aprendizaje profundo basado en GPU acelera el análisis de esas imágenes. Pueden procesar datos médicos y ayudar a convertir esos datos, a través del aprendizaje profundo, en nuevas capacidades.
En resumen, las GPU se han vuelto esenciales. Comenzaron acelerando los juegos y los gráficos., Ahora están acelerando más y más áreas donde la potencia informática marcará la diferencia.
- la IA está comiendo Software
- la IA impulsa el auge de la Computación acelerada en los centros de datos
- ¿Cuál es la diferencia entre el trazado de rayos acelerado por Hardware y Software?
- ¿Qué es Max-Q?
- ¿Qué es una GPU Virtual?
- ¿Cuál es la diferencia entre el trazado de rayos y la rasterización?,
- ¿Cuál es la diferencia entre inteligencia Artificial, aprendizaje automático y aprendizaje profundo?
- ¿Qué es NVLink?
- ¿Qué es CUDA?