DEBATT | Erik Gjesdal, Schneider

VARMERE: KI‑arbeidslaster genererer betydelig mer varme enn det som var vanlig i tradisjonelle datasentre, skriver Erik Gjesdal.

KI vokser raskere enn infrastrukturen

KI presser datasentre til grensene. Når effektbehovet skyter i været, blir skalerbare og faktisk testede løsninger viktigere enn spesifikasjoner på papiret.

Publisert

Utviklingen innen kunstig intelligens gjør at datasentre nå møter krav som få så komme for bare et par år siden.

Effekttettheten øker kraftig, rackene blir varmere, og infrastrukturen må tåle kontinuerlig skalering. Derfor er det ikke lenger tilstrekkelig å installere løsninger som så vidt håndterer dagens behov.

KI‑arbeidslaster genererer betydelig mer varme enn det som var vanlig i tradisjonelle datasentre. Moderne GPU‑er utvikler mellom 20 og 50 ganger mer varme enn CPU‑ene som ble brukt i tradisjonelle datasentre. Flere KI-fabrikker krever allerede høyeffekt-racks som nærmer seg 1 MW‑nivået. Dette gjør væskekjøling nødvendig, ikke minst for å utnytte spillvarmen til datasentrene og øke deres energieffektivitet.

Væskekjøling-behovet gjør at datasentrene må tenke på hele kjeden: fra rack til pumpestyring til anleggstrykk. Små avvik kan gi store konsekvenser når effekttettheten er så høy.

Erik Gjesdal, segmentdirektør for datasentre i Norden og Baltikum i Schneider Electric. (Foto: Stefania Nilsen/ Schneider Electric)

Tenk langsiktig

Det å snakke om 1 MW-racks hørtes ut som en fjern virkelighet for bare to år siden. Men teknologien vi står foran nå, må være forberedt på stadig høyere effekttetthet, i takt med utviklingen av nye generasjoner KI-brikker (GPU‑er) som medfører større termisk belastning.

Noen leverandører hevder i dag at de kan levere kjølevæske-distribusjonsenheter (CDU‑er) til 10 MW-racks. I praksis er det sjelden så enkelt.

En høy megawatt-angivelse sier lite hvis resten av systemet – ventiler, rør, kontroller, overvåkning og serviceopplegg – ikke er dimensjonert for samme nivå. Hvis ikke helheten henger sammen, sitter man igjen med en enhet som ser imponerende ut på papiret, men som ikke er testet for drift i store dimensjoner.

Det er dette som gjør skalerbarhet og validering så viktig.

En svimlende rask utvikling

De nye systemene for væskekjøling av KI-datasentre må basere seg på kjøledistribusjonsenheter (CDU-er) som er tilpasset IT-skap med en effekt på minst 2,5 MW. Og de skal også fungere i et samlet system som kan skaleres til over 10 MW for å takle fremtidens behov. Det betyr at hele systemet som omfatter pumper, varmevekslere, trykkdesign og filtrering skal være tilpasset anlegg i større skala.

I praksis betyr dette at operatørene må velge løsninger som er testet under realistiske forhold, og som kan bygges ut stegvis – uten å skape teknisk gjeld.

Fremtidige GPU‑generasjoner vil ikke kreve mindre kjøling enn dagens, snarere tvert imot. Derfor er det viktig at systemene kan oppgraderes uten at man må bygge om hele datasenteret.

Infrastrukturen må være robust, fleksibel og grundig verifisert – ellers kan den raskt bli en flaskehals.

KI‑utviklingen kommer til å fortsette i høyt tempo. For datasentre som vil være konkurransedyktige, er den viktigste beslutningen nå ikke hvilken maksimal kapasitet en enkelt enhet har, men om den kan skalere stabilt og forutsigbart når nye behov oppstår.

Infrastrukturen må være robust, fleksibel og grundig verifisert – ellers kan den raskt bli en flaskehals.