Zoveel water verspil je tijdens één gesprekje met ChatGPT
ChatGPT is ontzettend handig. Je kunt gratis (!) taken laten uitvoeren die anders ontzettend veel tijd hadden gekost. Voor onze aardbol is de ogenschijnlijke magie van kunstmatige intelligentie echter allesbehalve ‘gratis’, zo blijkt uit nieuw onderzoek. ChatGPT is namelijk bijzonder dorstig en niet al te gunstig voor het klimaat.
De wereld van kunstmatige intelligentie is op overweldigend tempo aan het veranderen. Wat alleen al het taalmodel GPT nu kan vergeleken met een jaar geleden, is indrukwekkend. Dat belooft wat voor de nabije toekomst. Een toekomst die dichterbij is dan je denkt, benadrukt ook Elon Musk.
De prijs van taalmodellen
De potentie is enorm. Nu al kan GPT overtuigende e-mails voor je schrijven en binnen een seconde uitvoeren wat voorheen vervelend monnikenwerk was. En dit is pas het begin. Techgiganten als Google zetten alles op alles om ook mee te dingen in de AI-race. De werelden van werk, muziek, film en ga zo maar door staan op het punt om serieus te veranderen. Niet een toekomstbeeld uit een scifi-boek, maar een realiteit waar we nu al met één voet in staan.
Daarvoor betalen we echter ook een grote prijs. En dan hebben we het niet over de gebruikelijke paniek omtrent de opmars van kunstmatige intelligentie. Dan hebben we het over water. Onderzoeken naar het energieverbruik van crypto’s zoals Bitcoin waren niet mals. Je ziet de koppen meteen weer voor je: ‘Bitcoin verbruikt jaarlijks meer energie dan Nederland’.
ChatGPT slurpt water
Helaas zijn ook OpenAI’s ChatGPT en Google’s Bard niet een lieverdje op dat vlak. Beide vergen enorme serverfarms om de taalmodellen te trainen. Niet voor niks wachtte Google aanvankelijk met het uitrollen van zijn AI-magie. Intern was CEO Sundar Pichai er duidelijk over: alle opdrachten van consumenten zouden simpelweg te veel geld kosten.
Een nieuw onderzoek duikt nu ook in een andere kant van dat verhaal: water. Alleen al het trainen van GPT-3, een oudere versie van het taalmodel, kostte naar schatting van de onderzoekers maar liefst 700.000 liter water. Dat is een ver-van-je-bed-show, maar daarmee begint het pas. We kunnen het concreter maken. Een gemiddeld gesprekje zoals jij dat met ChatGPT voert, komt erop neer dat je een grote fles met vers water leeggooit op de grond.
De populariteit van dergelijke tools zorgt dus voor een enorme consumptie van vele flessen water. Zoveel dat onderzoekers van de universiteit van Colorado Riverside en Texas Arlington zich zorgen maken om de beschikbaarheid van water in de toekomst. Een zorg die ook zonder de opkomst van taalmodellen reëel was. De auteurs stellen vast dat de hoeveelheid helder zoet water die nodig is om GPT-3 te trainen gelijk is aan de hoeveelheid die nodig is om de koeltoren van een kernreactor te vullen. Ouch. ChatGPT ‘drinkt’ een fles water van 500 milliliter voor elk standaard gesprek van tussen de 25 en 50 vragen.
Conservatieve schatting
En dan gaan de onderzoekers er ook nog eens van uit dat het model getraind is in Microsoft’s speciaal voor OpenAI gebouwde datacenter. Als het model getraind is middels het minder efficiënte datacenter van Microsoft dat in Azië staat, dat kan de consumptie van water drie (!) keer zo hoog uitvallen.
We hebben het dus niet over een intrigerend onderzoekje dat we weer snel kunnen vergeten. De onderzoekers verwachten dat deze watervereisten alleen maar verder zullen toenemen met nieuwere modellen, zoals de onlangs uitgebrachte GPT-4, die zich baseren op een grotere reeks gegevensparameters dan hun voorgangers. “De watervoetafdruk van AI-modellen kan niet langer onder de radar blijven”, aldus de onderzoekers. “De watervoetafdruk moet als prioriteit worden aangepakt als onderdeel van de collectieve inspanningen om de wereldwijde waterproblemen te bestrijden.”
Meer transparantie nodig
De eerste stap richting een oplossing zou een hogere mate van transparantie zijn. “Wanneer en waar worden de AI-modellen getraind? Hoe zit het met de AI-modellen die zijn getraind en/of ingezet in colocatie-datacentra van derden of in publieke clouds? Dergelijke informatie zal van grote waarde zijn voor de onderzoeksgemeenschap en het grote publiek”, zo concluderen de onderzoekers.
Dit is slechts één facet van de onvermijdelijke discussies die gevoerd moeten gaan worden omtrent de opkomst van taalmodellen en kunstmatige intelligentie in het algemeen. Check vooral dit artikel van Gizmodo, waarin men dieper ingaat op het proces achter het onderzoek en hoe datacenters werken. Of check het onderstaande filmpje, waarin je één van de manieren ziet waarop water wordt verbruikt in datacenters.