Cool bleiben trotz AI-Hitze: Wie Unternehmen für Energieeffizienz und Kühlung im Rechenzentrum sorgen

Traditionelle Rechenzentren stehen zunehmend unter Druck: So reichen herkömmliche Systeme für Energieeffizienz und Kühlung häufig nicht mehr aus. Dies liegt einerseits an gesetzlichen Regularien wie dem Energieeffizienzgesetz. Andererseits sind traditionelle Systeme den Anforderungen moderner AI-Lösungen nicht mehr gewachsen. Denn der Einsatz von AI verursacht so viel Abwärme, dass konventionelle Kühllösungen an ihre Grenzen stoßen. Doch wie können Unternehmen nun für mehr Energieeffizienz und Kühlung im Rechenzentrum sorgen – und somit die Anforderungen erfüllen? Diese Frage beantwortet CANCOM-Expertin Eva Dölle (AI Consultant bei CANCOM) im Gastbeitrag.

21. Juli 2025

|

Lesedauer: ca. 9 Min.

energieeffizienz-fluessigkuehlung-rechenzentrum

Richtig eingesetzt, können Unternehmen mit der Flüssigkühlung für mehr Energieeffizienz und Kühlung in ihrem Rechenzentrum sorgen (Bild: © Евгений Вершинин/stock.adobe.com).

AI-Anwendungen erzeugen hohe Wärmelasten in Rechenzentren – die klassische Luftkühlung stößt an Grenzen. Hinzu kommt das Energieeffizienzgesetz, das künftig niedrigere PUE-Werte und die Rückgewinnung von Abwärme verlangt. Um diese Herausforderungen zu adressieren, müssen Unternehmen in Zukunft auf die Flüssigkühlung (Liquid Cooling) setzen: Wie CANCOM-Expertin Eva Dölle im Gastbeitrag beschreibt, ermöglicht diese Technologie effiziente Kühlung und gezielte Steuerung bei dynamischen AI-Lasten. So lassen sich gesetzliche Vorgaben erfüllen und die Leistungsfähigkeit des Rechenzentrums langfristig sichern. Für eine unverbindliche Beratung rund um die Themen Energieeffizienz und Kühlung können Sie die Experten von CANCOM kontaktieren

Dieser Text wurde mit Unterstützung von AI erstellt und redaktionell überprüft. 

Moderne Rechenzentrumsinfrastrukturen sind für den Unternehmenserfolg heute entscheidender denn je. Nur wer eine leistungsfähige und moderne IT-Infrastruktur betreibt, kann nachhaltig von modernen AI-Lösungen profitieren.

Dabei wird ein Thema immer wichtiger: Energieeffizienz. AI-Lösungen benötigen massive Rechenleistung – und entsprechend viel Strom und Energie. Eine Studie von McKinsey zeigt: Der Energiebedarf in europäischen Rechenzentren für AI-Lösungen wird sich bis 2030 mehr als verdreifachen. Allein dies macht die enorme Bedeutung energieeffizienter Rechenzentren deutlich – zumal diese inzwischen gesetzlich Pflicht sind.

Regulatorischer Druck: Energieeffizienzgesetz mit klaren gesetzlichen Vorgaben

Seit dem 18. November 2023 gilt in Deutschland das sogenannte Energieeffizienzgesetz: Damit rückt die energetische Performance von Rechenzentren in den Mittelpunkt. Ziel ist es, den Energieverbrauch spürbar zu senken und gleichzeitig Transparenz sowie Nachhaltigkeit zu fördern. Für Rechenzentrumsbetreiber bedeutet das vor allem: Energieeffizienz ist nicht länger eine Frage der Kostenkontrolle, sondern eine gesetzliche Pflicht.

Zentral ist hier die sogenannte Power Usage Effectiveness (PUE) – also das Verhältnis von Gesamtenergieverbrauch zur tatsächlich für IT eingesetzten Energie. Derzeit liegt der durchschnittliche PUE-Wert deutscher Rechenzentren bei rund 1,55. Während moderne Colocation-Rechenzentren bereits Werte von etwa 1,3 erreichen, kommen klassische Enterprise-Rechenzentren häufig nur auf 1,57. Damit verfehlen viele bestehende Anlagen die künftigen Anforderungen deutlich: Ab dem 1. Juli 2027 gilt für Bestandszentren ein PUE-Grenzwert von unter 1,5. Für neue Rechenzentren sinkt dieser bereits ab Juli 2025 auf unter 1,3 und ab Juli 2026 sogar auf unter 1,2.

Hinzu kommt die Verpflichtung zur Wiederverwendung von Abwärme. Mindestens zehn Prozent der eingesetzten Energie müssen in nutzbare Wärme überführt werden – etwa durch Einspeisung in lokale Wärmenetze, Nutzung in angrenzenden Gebäuden oder Rückführung in eigene Heizsysteme. Diese Mindestquote wird in den kommenden Jahren stufenweise erhöht, sodass Betreiber langfristig auf echte Wärmerückgewinnungskonzepte angewiesen sind.

Darüber hinaus greift das Gesetz bereits ab einer Rechenzentrumsgröße von 200 Quadratmetern Fläche oder einem jährlichen Stromverbrauch von über 300.000 Kilowattstunden. In diesen Fällen müssen Betreiber ihren Energieeinsatz detailliert erfassen, dokumentieren und regelmäßig an die Bundesstelle für Energieeffizienz berichten – inklusive CO₂-Bilanzen und Nachweisen zur Einhaltung der PUE-Vorgaben.

Technologischer Druck: AI und GPU-getriebene Wärmelast

Parallel zu den gesetzlichen Anforderungen erhöht auch der technologische Wandel den Druck auf bestehende Rechenzentrumsinfrastrukturen – allen voran der Siegeszug der Artificial Intelligence. Moderne AI-Modelle (Stichworte „Agentic AI“ und „Reasoning“) benötigen massive Rechenleistung. Diese wird primär durch spezialisierte AI-Beschleuniger (Grafikkarten) oder GPU-Cluster erbracht – mit drastischen Konsequenzen für Strombedarf und Abwärme.

Tatsächlich steigt die Wärmedichte in AI-optimierten Racks rasant. Während klassische Serverracks mit etwa 5 bis 10 kW pro Rack betrieben werden, erreichen AI-Workloads heute Werte von über 40 kW pro Rack – mit steigender Tendenz. In solchen Szenarien stößt die konventionelle Luftkühlung schnell an physikalische und wirtschaftliche Grenzen: Sie ist energieintensiv, erzeugt Lärm, benötigt viel Platz und skaliert nicht im gleichen Maße wie die Rechenleistung.

Erschwerend kommt hinzu, dass die Planungssicherheit durch AI abnimmt: AI-Infrastrukturen verursachen keine gleichmäßige Grundlast, sondern arbeiten in hochdynamischen, stark fluktuierenden Nutzungsmustern – etwa bei Training, Fine-Tuning oder Inferenz. Der Kühlbedarf lässt sich dadurch schwer prognostizieren und reagiert empfindlich auf Spitzenlasten. 

Die Folge ist eindeutig: Klassisches Cooling skaliert nicht mit dem Wachstum von AI. Ohne strukturelle Anpassung an die thermischen Anforderungen moderner Workloads droht die Infrastruktur zum Engpass für Innovation und Performance zu werden. 

Zukunftssicherheit lässt sich daher nur erreichen, wenn die traditionelle Luftkühlung durch die Flüssigkühlung (teilweise oder vollständig) abgelöst wird. Diese ermöglicht nicht nur eine bessere thermische Kontrolle, sondern schafft auch die Voraussetzungen, um gesetzliche Effizienzvorgaben zu erfüllen und gleichzeitig auf die dynamischen Anforderungen von AI-Workloads flexibel zu reagieren.

Doch was zeichnet die Flüssigkühlung bzw. „Liquid Cooling“ konkret aus?

Liquid Cooling: Was sind die zentralen Merkmale?

Unter „Liquid Cooling“ versteht man prinzipiell die gezielte Ableitung von Wärme durch Flüssigkeiten – typischerweise Wasser oder Wasser-Glykol-Gemische – über speziell konstruierte Wärmetauscher und Leitungssysteme. Im Vergleich zur Luftkühlung ist die Wärmeleitfähigkeit von Wasser etwa 25-mal höher, was eine effizientere und leisere Kühlung bei kompakterem Aufbau erlaubt.

Dabei muss man differenzieren: In der Praxis nutzen bereits heute über 99 Prozent aller Rechenzentren sogenannte Kaltwassersysteme oder DX-Systeme (Direct Expansion), in denen Kühlwasser bis in die Klimageräte oder Kaltwasserregister geführt wird – meist über zentrale Chiller. Diese Systeme stellen gewissermaßen eine „indirekte“ Form der Flüssigkühlung dar, die aber nicht direkt an die IT-Komponenten (z. B. Prozessoren oder GPUs) angeschlossen sind. Sie dominieren vor allem in klassischen Enterprise- oder Colocation-Architekturen. 

Erst bei Direct-to-Chip-Kühlung oder Immersive Cooling spricht man im engeren Sinne von „echter“ Flüssigkühlung im IT-Bereich. Hier kommen die Flüssigkeiten unmittelbar an die Hotspots auf der Platine oder umfließen diese direkt. Solche Konzepte finden sich in Deutschland bislang vor allem in High Performace Computing-Umgebungen, zunehmend aber auch in AI-orientierten Rechenzentren großer Betreiber. Internationale Hyperscaler wie Google, Microsoft oder Meta setzen Direct Liquid Cooling bereits produktiv ein, insbesondere in AI-spezifischen Infrastrukturbereichen mit hoher Wärmedichte.

Ein zentrales Hemmnis für eine breitere Einführung bleibt jedoch die fehlende Standardisierung. Während die Luftkühlung durch Organisationen wie ASHRAE präzise geregelt ist – etwa über die bekannten Temperaturklassen A1 bis A4 –, existieren für die Flüssigkühlung bislang keine einheitlichen Normen. Sowohl die verwendeten Flüssigkeiten (v.a. Wasser, aber auch Glykol, Dielektrika) als auch die zulässigen Betriebstemperaturen unterscheiden sich zum Teil erheblich zwischen Herstellern. Diese Fragmentierung erschwert Planung, Kompatibilität und Skalierung – und macht frühzeitige Abstimmungen bei Design und Beschaffung umso wichtiger.

Wenn es um die praktische Umsetzung der Flüssigkühlung geht, haben Unternehmen nun verschiedene Möglichkeiten. Im Folgenden werden die wichtigsten Ansätze beleuchtet.

Ansätze für die hybride Flüssigkühlung

Bei diesen Ansätzen wird die Flüssigkühlung mit der traditionellen Luftkühlung kombiniert – je nach Ansatz in höherem oder niedrigerem Maße.

Rear Door Heat Exchanger 

Viele Rechenzentren verfügen bereits über eine wasserführende Infrastruktur – sei es durch zentrale Kaltwasseranlagen (CW) oder durch DX-Systeme in Raumklimageräten. Ein sinnvoller erster Schritt in Richtung Flüssigkühlung ist der Einsatz von Rear Door Heat Exchangern (kurz: RDHx).

Hier handelt es sich um luftgekühlte Serverracks, deren rückwärtige Tür durch einen wassergekühlten Wärmetauscher ersetzt wird. Die warme Abluft, die aus dem Server strömt, wird direkt am Rack-Ausgang durch das Kaltwasser wieder heruntergekühlt – ohne dass die Luft den Raum weiter aufheizt.

Die Technologie gilt als besonders niedrigschwelliger Einstieg, da:

  • die IT-Komponenten unverändert bleiben,
  • keine strukturellen Eingriffe in das Rackdesign nötig sind,
  • und meist bestehende Kaltwasserkreisläufe genutzt werden können.

Gerade in Rechenzentren mit einer sogenannten Einhausung (Containment) – also einer physischen Trennung von Kalt- und Warmgängen – lassen sich Rear-Door-Türen besonders effizient einsetzen. Die Kombination aus Luftführung (durch die Einhausung) und Wasserentwärmung (durch die Tür) erlaubt eine stabile Temperaturführung bei deutlich reduzierter Raumklimalast.

In Deutschland ist diese Technologie zunehmend verbreitet – insbesondere bei Colocation-Anbietern und in modernisierten Enterprise-Rechenzentren, die lokale Hotspots effizienter kühlen wollen, ohne gleich auf Direct Liquid Cooling oder Immersion umzurüsten. Auch viele Hersteller bieten mittlerweile modulare RDHx-Lösungen an, die sich rückwirkend an bestehende Racks montieren lassen.

Direct Liquid Cooling

Beim Direct Liquid Cooling (kurz: DLC) werden wärmeerzeugende Komponenten – typischerweise CPU oder GPU – gezielt mit Flüssigkeiten gekühlt. Dabei werden sogenannte Coldplates (Wärmetauscher) auf dem jeweiligen Chip montiert, durch die Wasser oder ein Wasser-Glykol-Gemisch in einem geschlossenen Kühlkreislauf geführt wird – meist als Single-Loop-System. Die Wärme lässt sich damit wesentlich effizienter abführen als bei konventionellen Kühlkörpern mit Luftstrom. Tatsächlich kommt die Luftkühlung dann nur noch für die übrigbleibenden Komponenten zum Einsatz.

Der große Vorteil von DLC liegt in der Fähigkeit, extrem dichte AI-Racks thermisch beherrschbar zu machen. Während luftgekühlte Systeme bei mehr als 15–20 kW pro Rack an ihre Grenzen stoßen, ermöglichen DLC-Lösungen einen dauerhaften Betrieb bei 40 kW und mehr, ohne dass der Energiebedarf für die Kühlung exponentiell mitwächst. Das macht DLC besonders attraktiv für AI-Workloads, bei denen hohe Leistungsdichte, thermische Stabilität und Energieeffizienz gleichermaßen gefordert sind.

Allerdings ist DLC technisch anspruchsvoll: Es müssen Wartungskonzepte für flüssigkeitsführende Komponenten etabliert, Redundanzen im Pumpensystem geplant und das Leckagerisiko (Risiko undichter Stellen) durch qualitativ hochwertige Kupplungen und Sensorik minimiert werden. In professionell geplanten Systemen lassen sich diese Risiken beherrschbar machen – sie erfordern aber Know-how und entsprechende Servicekompetenz.

Gerade im deutschen Mittelstand stellt sich die Frage, wie ein Übergang von klassischer Luftkühlung zu DLC erfolgen kann. Die Antwort liegt in der modularen Integration: Einzelne DLC-fähige Racks lassen sich heute in bestehende Kaltwasser-Infrastrukturen (z. B. mit Rear-Door-Heat-Exchangern) einbinden, ohne das gesamte Rechenzentrum umzubauen. Wer beispielsweise im Zuge eines GPU-Upgrades oder AI-Projekts ein oder zwei High-Density-Racks integrieren will, kann mit einer dezentralen DLC-Lösung starten – etwa als Proof of Concept oder Hybridzone im Rechenzentrum.

Ansätze für die vollständige Flüssigkühlung

Im Gegensatz zum hybriden Konzept wird hier vollständig auf die Flüssigkühlung gesetzt. Eine Luftkühlung ist nicht mehr erforderlich.

Immersive Kühlung – im IT-Gehäuse (Chassis-basiert)

Bei der chassis-basierten, immersiven Kühlung wird die Wärmeabfuhr nicht über einzelne Kühlkörper oder Luftströme realisiert, sondern durch das teilweise Eintauchen einzelner Serverkomponenten oder ganzer Boards in eine nichtleitende Flüssigkeit – typischerweise ein synthetisches Öl oder ein spezielles Dielektrikum (in der Regel kein Wasser). Im Gegensatz zu Full-Immersion-Systemen bleibt hier das Gehäuse des Servers erhalten; lediglich das Innenleben kommt mit der Flüssigkeit in Berührung.

Diese Form der Kühlung – auch semi-immersive Kühlung genannt – wird derzeit als nachrüstbare Lösung für bestehende Serverarchitekturen diskutiert. Durch spezielle Kits können bestimmte Servertypen für den Einsatz in Flüssigkeiten angepasst werden, ohne dass die gesamte Infrastruktur ersetzt werden muss. Das macht sie zu einem interessanten Einstiegspunkt für Rechenzentrumsbetreiber, die zwar Effizienzvorteile nutzen, aber keinen vollständigen Technologiewechsel vollziehen wollen.

Die Vorteile liegen auf der Hand: Deutlich bessere thermische Eigenschaften, leiserer Betrieb und die Möglichkeit, deutlich höhere Wärmelasten pro Gerät abzuführen – ohne aufwendige Luftführung oder komplexe Kühlluftzonen. Gerade in Rechenzentren mit begrenztem Platzangebot oder hoher Dichte (z. B. Edge-Installationen) können solche Lösungen eine sinnvolle Alternative darstellen.

Allerdings ist auch diese Technologie noch nicht vollständig standardisiert. Die eingesetzten Flüssigkeiten, die Materialkompatibilität und die Einbindung in Wartungsprozesse erfordern sorgfältige Planung. Außerdem ist die Auswahl an kompatibler Hardware noch begrenzt – was den Einsatz auf bestimmte Umgebungen und Hersteller einschränkt.

Für den Mittelstand kann chassis-basierte, immersive Kühlung jedoch eine strategisch sinnvolle Option zur Optimierung thermischer Hotspots sein – insbesondere, wenn punktuell nachgerüstet werden soll, ohne das Gesamtsystem umzustellen. Voraussetzung ist eine präzise Bestandsanalyse und die richtige Beratung.

Immersive Kühlung – vollständiger Tank

Die konsequenteste Form der Flüssigkühlung ist die vollständige Immersion der IT-Komponenten in ein nichtleitendes Kühlmedium. Bei dieser Technik werden komplette Server – inklusive Mainboard, Netzteile und teilweise auch Speicherkomponenten – in einem speziellen Tank vollständig in Flüssigkeit getaucht. Diese Bauweise ermöglicht maximale Wärmeabfuhr bei minimalem Platzbedarf, da die gesamte Oberfläche der Hardware zur Wärmeübertragung beiträgt.

Der Effizienzvorteil ist hoch: Durch die hohe Dichte der Flüssigkeit und die direkte Umgebung aller wärmeerzeugenden Bauteile lassen sich thermische Spitzenleistungen von über 100kW pro Tank abführen – und das bei weitgehender Geräuschfreiheit und minimalem Energieeinsatz für die Kühlinfrastruktur.

Allerdings bringt diese Technologie hohe Anforderungen mit sich: Es wird speziell für die Immersion konzipierte Hardware benötigt – klassisches Serverdesign ist oft ungeeignet. Auch die Fluidtechnik, das Handling der Flüssigkeit, die Wartungsprozesse sowie die Langzeitverträglichkeit der Materialien müssen berücksichtigt werden. Zudem ist die Investition in Tanksysteme und Infrastruktur erheblich – was diese Lösung derzeit vor allem für Hyperscaler, Forschungseinrichtungen und hochspezialisierte AI/ML-Cluster attraktiv macht.

Für mittelständische Rechenzentren oder klassische Enterprise-IT ist diese Technologie aktuell nur bedingt praktikabel, kann aber langfristig als Referenzmodell für hocheffiziente, nachhaltige Rechenzentrumsarchitekturen dienen. Denkbar ist der Einsatz in dedizierten AI-Zonen oder für einzelne besonders energieintensive Use Cases – sofern Platz, Expertise und Budget vorhanden sind.

Wie sollten Rechenzentrumsbetreiber handeln?

Die vorgestellten regulatorischen und technologischen Entwicklungen zeigen klar auf: Rechenzentren geraten doppelt unter Druck. Einerseits fordern gesetzliche Vorgaben wie das Energieeffizienzgesetz messbare Fortschritte bei Energieeffizienz (PUE) und Abwärmenutzung – mit konkreten Grenzwerten und Fristen. Andererseits ergeben sich durch das rasante Wachstum von AI-Workloads thermische Anforderungen, die die klassische Luftkühlung an ihre Grenzen bringt.

Richtig eingesetzt, schafft die Flüssigkühlung bzw. Liquid Cooling hier Abhilfe. Und die Einführung von Liquid Cooling muss nicht kompliziert sein. Im Gegenteil: Die Bedingungen dafür sind in den meisten Rechenzentrumsumgebungen bereits gegeben – dank bestehender Kaltwassersysteme.

  • Rear Door Heat Exchanger (RDHx) ermöglichen einen besonders praktikablen Einstieg in die Flüssigkühlung: luftgekühlte Server bleiben bestehen, vorhandene Kaltwasseranschlüsse werden genutzt – eine hybride Lösung ohne Eingriff in die IT-Struktur.
  • Direct Liquid Cooling (DLC) stellt den ersten konsequent flüssigkeitsbasierten Kühlansatz dar: nachrüstbar, effizient, mit hoher Kompatibilität zur Standardhardware.
  • Chassis-basierte Immersion bietet punktuelle Entlastung thermischer Hotspots (z.B. einzelne Serverkomponenten), ohne das Gesamtsystem umstellen zu müssen.
  • Tankbasierte Vollimmersion ist hochperformant, aktuell aber eher eine strategische Zielarchitektur für spezialisierte AI-Zonen.

Vor dem Hintergrund dieser unterschiedlichen Möglichkeiten, die Flüssigkühlung umzusetzen, müssen Rechenzentrumsbetreiber mit Augenmaß und Systematik vorgehen. Nicht jede Lösung ist für jeden Rechenzentrumstyp geeignet – und nicht jede Investition bringt sofort den erwarteten Nutzen. Entscheidend ist, die vorhandene IT-Infrastruktur, den Leistungsbedarf und die strategischen Ziele in Einklang zu bringen.

Unsere Empfehlung: Beginnen Sie mit einem strukturierten Cooling Assessment. Dieses schafft eine belastbare Entscheidungsgrundlage, spart Kosten und vermeidet Fehlinvestitionen. Ein solches Assessment bieten wir als CANCOM an. Es umfasst:

  1. On-Site Check-up
  2. Transparente IST-Dokumentation
  3. Potenzialanalyse & Handlungsempfehlungen
  4. Visuelle Konzeptskizzen
  5. Review & Next Steps

Sie wünschen eine unverbindliche Beratung rund um die Themen Energieeffizienz und Kühlung im Rechenzentrum – oder möchten ein Cooling Assessment durchführen? Dann kontaktieren Sie gerne unsere Experten.

Mehr zum Thema „Datacenter“

CANCOM-Rechenzentrum nach DIN EN 50600 zertifiziert: Wie Unternehmen davon profitieren
CANCOM-Rechenzentrum nach DIN EN 50600 zertifiziert: Wie Unternehmen davon profitieren

Das CANCOM-Rechenzentrum in Hamburg genügt höchsten Qualitätsansprüchen. Das zeigt die Zertifizierung nach der Norm DIN EN 50600.

Lesedauer: 3 Min.

Die IT modernisieren mit CANCOM und Nutanix
Die IT modernisieren mit CANCOM und Nutanix

Im Interview verrät CANCOM-Experte Thomas Hesseler, wie das Unternehmen Med 360° mithilfe von CANCOM und Nutanix die IT modernisiert hat.

Lesedauer: 3 Min.

Modernisierung der IT: Klassischer 3-Tier-Ansatz oder Hyper Converged Infrastructure?
Modernisierung der IT: Klassischer 3-Tier-Ansatz oder Hyper Converged Infrastructure?

Bei der IT-Modernisierung können Firmen den 3-Tier-Ansatz oder eine HCI-Umgebung wählen. Doch welche Mehrwerte bieten die unterschiedlichen Ansätze?

Lesedauer: 4 Min.