Large Language Models (LLM’s) zoals ChatGPT bestaan pas enkele jaren, maar ze zijn nu al niet meer weg te denken uit ons dagelijks leven. Of je ze nu onbenullige vragen stelt of mee laat denken over bedrijfsprocessen, vrijwel iedereen heeft inmiddels weleens zo’n LLM gebruikt. Maar er trekken ook steeds meer mensen aan de klimaatbel. Zo’n zoekopdracht stoot namelijk de nodige CO₂ uit. Is dat het wel waard?

Stoot je veel CO₂ uit met ChatGPT?

Hoeveel CO₂ stoot je precies uit door een chatgesprek te starten met een LLM? Dat is gek genoeg niet helemaal duidelijk. Vraag je het bijvoorbeeld aan ChatGPT zelf, dan schat het systeem de uitstoot op 0,1 tot 1 gram per eenvoudige zoekopdracht. Laat je hem wat langer nadenken over complexere vraagstukken, kan dat oplopen tot 4 gram per vraag.

Die getallen komen grofweg overeen met die van de Schotse datawetenschapper Hannah Ritchie van Oxford University (VK), in haar artikel over de klimaatimpact van ChatGPT. Zij heeft het over 2 tot 3 gram. Dat is inclusief de uitstoot die nodig was om het model te trainen. Maar: dit zijn allemaal schattingen. Het exacte antwoord is simpelweg niet bekend.

Leestip: Hoe herken je een AI-foto? Een expert geeft tips

Laten we voor het gemak even van deze paar gram per opdracht uitgaan. Dan is de vraag: is dat veel? Volgens zowel Ritchie als ChatGPT valt dat wel mee. Zou je iedere dag 10 zoekopdrachten doen, heb je na een jaar 11 kilogram CO₂ uitgestoten. Een gemiddeld huishouden stoot in Nederland jaarlijks 17.000 kilo uit – dan is 11 kilo verwaarloosbaar.

Het is natuurlijk wel zo dat uiteindelijk de wet van de grote getallen gaat gelden. Hoe meer mensen LLM’s gaan gebruiken, en hoe vaker we ze (onnodige) vragen stellen, hoe meer uitstoot we genereren. Zou iedere aardbewoner dagelijks 10 zoekopdrachten gaan uitvoeren, heb je het al snel over tientallen miljarden kilo’s extra CO₂-uitstoot.

Ene LLM scoort slechter dan het andere

Daar komt nog bij dat niet alle LLM’s even schoon (of vervuilend, net wat je wil) zijn. De grote taalmodellen die kunnen redeneren – en dus complexe, abstracte vragen kunnen beantwoorden – stoten tot vijftig keer meer koolstofdioxide uit dan de meer eenvoudige varianten. Dat hebben Duitse onderzoekers berekend door veertien LLM’s een set van 1000 vragen te geven. Hun resultaten zijn gepubliceerd in Frontiers in Communication.

Leestip: Eeuwenoude boekrol uit Herculaneum ontcijferd door AI. Wat staat erin?

Om een antwoord te genereren, gebruikt een AI-model tokens. Dat zijn (delen van) woorden die worden omgezet in een reeks getallen, die weer worden verwerkt door de LLM tot een antwoord. De modellen die kunnen redeneren, genereren gemiddeld zo’n 543 ‘denk-tokens’ per vraag. De simpele modellen maken er maar 37,7 aan.

Maar nu komt het: het aanmaken van heel veel tokens betekent niet per se dat het antwoord vaker correct is. Terwijl je er dus wel meer uitstoot mee genereert.

Simpel versus complex

Ook tussen de modellen die kunnen redeneren zaten onderling grote verschillen. Het model DeepSeek R1 stoot na 600.000 vragen net zo veel koolstofdioxide uit als een vliegretour Londen-New York, terwijl Qwen 2.5 voor diezelfde uitstoot meer dan drie keer zo veel vragen kan beantwoorden. En ze zijn beide ongeveer even accuraat.

Hoeveel je uitstoot is overigens ook afhankelijk van waar je het model voor gebruikt. Een simpele vraag, bijvoorbeeld in welk jaar de Tweede Wereldoorlog begon, stoot minder uit dan een filosofisch gesprek.

Bewuster AI gebruiken

De onderzoekers hopen vooral dat mensen met deze kennis bewuster met grote taalmodellen om zullen gaan. Waarom zou je een groot taalmodel gebruiken voor eenvoudige vragen, terwijl je ook een schonere, simpele variant kunt inzetten? Gebruik de grote jongens alleen als het echt nodig is, klinkt het vanuit de onderzoekers.

Leestip: Is de ijsbeer bestand tegen het veranderende klimaat? Het lijkt er niet op

‘Als de gebruikers wisten hoeveel CO2 hun AI-verzoeken kosten, zoals zichzelf gedachteloos in een actiefiguurtje veranderen, zouden ze deze technologie selectiever en bedachtzamer inzetten,’ aldus hoofdonderzoeker Maximilian Dauner.

Meer ontdekken? Krijg onbeperkt toegang tot National Geographic Premium en steun onze missie. Word vandaag nog lid!