Een GPU (Graphics Processing Unit), is een gespecialiseerde hardwarecomponent die oorspronkelijk werd ontworpen om grafische rendering in games en 3D-toepassingen te versnellen.
Op het gebied van AI zijn GPU's essentieel vanwege hun vermogen om enorme parallelle berekeningen uit te voeren, waardoor de training en uitvoering van AI-modellen wordt geoptimaliseerd.diep leren (diep leren) en neurale netwerken.
In tegenstelling tot CPU's (centrale verwerkingseenheden) hebben GPU's duizenden rekenkernen, waardoor ze de complexe matrixbewerkingen (bv. matrixvermenigvuldiging) die frameworks zoals TensorFlow of PyTorch vereisen, snel kunnen verwerken. Dankzij hun specifieke architecturen (bijv. CUDA bij NVIDIA, Tensor cores) zijn ze een steunpilaar van moderne AI-infrastructuren, van datacenters autonome voertuigen, inclusief het genereren van multimedia-inhoud (afbeeldingen, video's).
1. Dominante GPU-typen voor AI
- Nvidia H100/H200 GPU geoptimaliseerd voor datacenters, gebruikt door giganten als Microsoft, Google en Meta om enorme modellen te trainen.
- Nvidia Blackwell GPU (B200) RTX 5000 Series: een nieuwe generatie gericht op energie-efficiëntie en parallel computing, ingezet in datacenters met de B200 en high-end PC's (RTX 5000 Series).
- GPU uit de RTX 5000-serie (Blackwell): ontworpen voor consumententoepassingen (games, ontwerp), maar met AI-technologieën zoals DLSS 4 en neurale rendering.
- Google TPU gespecialiseerde processors voor AI, intern gebruikt door Google om zijn afhankelijkheid van Nvidia GPU's te verminderen.
2. GPU-prijzen (2025)
Model | Fabrikant | Prijs (USD) | Doelgroep |
H100 (trechter) | Nvidia | 25 000 - 30 000 $ | Onderneming, cloudprovider |
B200 (Blackwell) | Nvidia | 30 000 - 40 000 $ | Onderneming, cloudprovider |
A100 | Nvidia | 10 000 $ | Onderneming, cloudprovider |
MI300 | AMD | 5 000 - 10 000 $ | Onderneming, cloudprovider |
RTX 5090 | Nvidia | 1 999 $ | Professionals, gamers |
RTX 5070 | Nvidia | 549 $ | Algemeen publiek |
3. Stroomverbruik
-
- B200: 1000 W
- H100: 700 W
- A100: 400 W
- RTX 5090 : 360 W
- RTX 5070 : 250 W
Datacenters die zijn uitgerust met Blackwell B200's hebben 300-500 MW nodig, vergeleken met 100-200 MW voorheen met H100's.
Een interactie met ChatGPT verbruikt 10 keer meer energie dan een Google-zoekopdracht (bron: Wereld Energie Agentschap).
4. Aantal GPU's nodig voor een AI-model
- voorbeeld 1 : xAI (Elon Musk) heeft een supercomputer gebouwd met 100 000 H100 in 122 dagen, met plannen om uit te breiden naar 200.000 H100/H200 in 2025.
- Voorbeeld 2 : Meta had het equivalent van 60 000 H100 eind 2024, inclusief H200's en Blackwells.
- Voorbeeld 3 Het trainen van een model als BLOEM (Generatieve AI) vereist duizenden GPU's en stoot ongeveer 50 ton CO₂Dit is 10 keer de jaarlijkse voetafdruk van een Fransman.
Algemene schatting :
- Taalmodellen geavanceerd (bijv. GPT-4): Enkele tienduizenden GPU's voor training.
- Gespecialiseerde toepassingen Enkele honderden tot duizenden GPU's, afhankelijk van de complexiteit.
5. Milieu-impact en uitdagingen
- Energie Datacenters kunnen het volgende verbruiken 1.000 TWh in 2026 (het equivalent van Japan).
Een concreet voorbeeld
Om een generatief AI-model te trainen dat vergelijkbaar is met ChatGPT :
- GPU's vereist ~10.000 H100 (schatting gebaseerd op Microsoft- en xAI-infrastructuren).
- Materiële kosten > $50 miljoen
- Stroomverbruik 5 GWh voor de aandrijving (gelijk aan 500 woningen per jaar).
- Inferentiefase 60-70 % van het totale energieverbruik