Elke AI-prompt kost energie — maar hoeveel precies? En kun je daar iets aan doen zonder terug te gaan naar pen en papier?
Cas Burggraaf is CTO en medeoprichter van GreenPT, een Nederlandse startup die open AI-modellen draait op groene Europese servers. Geen API-calls naar OpenAI of Anthropic, maar eigen bare-metal GPU's in een datacenter in Parijs waar de CO2-uitstoot per kilowattuur een stuk lager ligt. Het bedrijf laat gebruikers bij elke prompt zien wat hun energieverbruik is — iets waar de grote techbedrijven opvallend stil over zijn.
In deze aflevering duiken Randal, Jurian en Cas in de polarisatie rondom AI, de echte milieukosten van taalmodellen, en waarom Europese digitale soevereiniteit meer is dan een buzzword. Daarnaast gaat Randal hands-on: hij vertelt over zijn eigen AI-server, en samen met Cas ontrafelen ze wat termen als quantization, MoE en distillation nu eigenlijk betekenen. Plus: luisteraarsvragen over energievergelijkingen en het ethische dilemma van trainingsdata.
Over Cas Burggraaf
Cas Burggraaf is CTO en medeoprichter van GreenPT, een Nederlandse AI-startup uit Utrecht die duurzame en privacy-vriendelijke AI levert op Europese infrastructuur. Eerder werkte hij als developer bij Brthrs Agency. Hij sprak recent op ai-PULSE 2025 in Parijs en ecoCompute Conference.
Sponsor: Alliander
Kijk op https://werkenbij.alliander.com/
Tijdschema
0:00:00 Waarom AI zo polariserend is — en wie er gelijk heeft
0:02:42 GreenPT: groene AI én Europese soevereiniteit
0:05:25 Hoe meet je de CO2-uitstoot van een AI-prompt?
0:09:00 Open weights vs. open source: wat is het verschil?
0:16:14 De GPU-wapenwedloop: van L4 tot Blackwell
0:31:47 Een startup in de schaduw van OpenAI: hoe concurreer je?
0:37:08 [Alliander — sponsor]
0:42:14 AI neemt banen over: vertalers, developers, en dan?
0:48:05 Vibecoden, Slack-bots en een slim ventilatiesysteem
0:51:10 Waarom grotere modellen beter coderen (maar niet alles beter doen)
1:01:07 Luisteraarsvraag: is één AI-prompt zuiniger dan 15 Google-zoekopdrachten?
1:07:05 Zelf AI draaien: llama.cpp, VRAM en de kunst van quantization
1:10:35 Dense vs. MoE vs. distillation — uitgelegd voor sterfelijken
1:20:08 I use the AI to build the AI: semantic routing en de toekomst
Genoemd in deze aflevering
Tips van de tafel
Randal: Probeer eens een AI-model lokaal te draaien op je eigen hardware. Begin met Ollama of llama.cpp en een open weight model van Hugging Face. Je leert er enorm veel van.
Cas: Kijk bij het kiezen van een AI-dienst niet alleen naar het model, maar ook naar waar het draait en hoe transparant de aanbieder is over energieverbruik.

--Dangerously-Skip-Permissions: van 3D-printer tot Home Assistant
1:20:18

Waarom bellen nog steeds geld kost (en WhatsApp niet)
1:14:19

Tien jaar bouwen aan één game (en of vibecoden sneller zou zijn)
1:26:50