Een GPU (Graphics Processing Unit), is een gespecialiseerde hardwarecomponent die oorspronkelijk werd ontworpen om grafische rendering in games en 3D-toepassingen te versnellen.
Op het gebied van AI zijn GPU's essentieel vanwege hun vermogen om enorme parallelle berekeningen uit te voeren, waardoor de training en uitvoering van AI-modellen wordt geoptimaliseerd.diep leren (diep leren) en neurale netwerken.
In tegenstelling tot CPU's (centrale verwerkingseenheden) hebben GPU's duizenden rekenkernen, waardoor ze de complexe matrixbewerkingen (bv. matrixvermenigvuldiging) die frameworks zoals TensorFlow of PyTorch vereisen, snel kunnen verwerken. Dankzij hun specifieke architecturen (bijv. CUDA bij NVIDIA, Tensor cores) vormen ze een pijler van moderne AI-infrastructuren, van datacenters tot autonome voertuigen, via het genereren van multimedia-inhoud (afbeeldingen, video's).
1. Dominante GPU-typen voor AI
- NVIDIA H100/H200 GPU Geoptimaliseerd voor datacenters, gebruikt door giganten als Microsoft, Google en Meta om enorme modellen te trainen.
- NVIDIA Blackwell GPU (B200) RTX 5000 Series: Een nieuwe generatie gericht op energie-efficiëntie en parallel computing, ingezet in datacenters en high-end pc's.
- GPU uit de RTX 5000-serie (Blackwell): Ontworpen voor consumententoepassingen (games, ontwerp), maar met AI-technologieën zoals DLSS 4 en neurale rendering.
- Google TPU Gespecialiseerde processors voor AI, intern gebruikt door Google om de afhankelijkheid van NVIDIA GPU's te verminderen.
2. GPU-prijzen (2025)
Model | Prijs (USD) | Doelgroep |
---|---|---|
RTX 5090 | 1 999 $ | Professionals, gamers |
RTX 5080 | 999 $ | Liefhebbers |
RTX 5070 Ti | 749 $ | Creatieve, veeleisende spelers |
RTX 5070 | 549 $ | Algemeen publiek |
Blackwell GPU (datacenter) | Onbekend (naar schatting >10.000 $) | Bedrijven, cloudproviders |
Opmerking De prijzen van GPU's voor datacenters (H100, Blackwell) zijn niet officieel, maar ze zijn veel duurder dan consumentenmodellen.
3. Stroomverbruik
- GPU's voor consumenten :
- RTX 5090: 360 W.
- RTX 5070: 250 W.
- GPU's voor datacenters :
- Datacenters die zijn uitgerust met Blackwell hebben 300-500 MW nodig, vergeleken met 100-200 MW voorheen.
- Een interactie met ChatGPT verbruikt 10 keer meer energie dan een Google-zoekopdracht.
- Energie-efficiëntie :
Blackwell GPU's reduceren het energieverbruik van grote taalmodellen tot 25 keer, maar de algehele vraag stijgt explosief met deGeneratieve AI.
4. Aantal GPU's nodig voor een AI-model
- voorbeeld 1 : xAI (Elon Musk) heeft een supercomputer gebouwd met 100 000 H100 in 122 dagen, met plannen om uit te breiden naar 200.000 H100/H200 in 2025.
- Voorbeeld 2 : Meta had het equivalent van 60 000 H100 eind 2024, inclusief H200's en Blackwells.
- Voorbeeld 3 Het trainen van een model als BLOEM (generatieve AI) vereist duizenden GPU's en stoot ongeveer 50 ton CO₂Dit is 10 keer de jaarlijkse voetafdruk van een Fransman.
Algemene schatting :
- Geavanceerde taalmodellen (bijv. GPT-4): Enkele tienduizenden GPU's voor training.
- Gespecialiseerde toepassingen Enkele honderden tot duizenden GPU's, afhankelijk van de complexiteit.
5. Milieu-impact en uitdagingen
- Energie Datacenters kunnen het volgende verbruiken 1.000 TWh in 2026 (het equivalent van Japan).
Een concreet voorbeeld
Om een generatief AI-model te trainen dat vergelijkbaar is met ChatGPT :
- GPU's vereist ~10.000 H100 (schatting gebaseerd op Microsoft- en xAI-infrastructuren).
- Materiële kosten > $50 miljoen
- Stroomverbruik 5 GWh voor de aandrijving (gelijk aan 500 woningen per jaar).
- Inferentiefase 60-70 % van het totale energieverbruik