Kühlung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Kühlung innerhalb von Rechenzentren auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Infrastruktur, Hardware & Rechenzentren
Unterrubrik: Rechenzentren
Cluster: Kühlung
Einträge: 54
AI datacenters may gulp a New York City's worth of water on hot days
Eine Studie der University of California, Riverside, warnt, dass die steigende Wasseranforderung von Rechenzentren in den USA bis 2030 erhebliche Belastungen für die Wasserversorgungssysteme mit sich bringen könnte, insbesondere an heißen Tagen. Diese Rechenzentren nutzen Wasser zur Kühlung, was zu einem Bedarf von bis zu 1,45 Milliarden Gallonen pro Tag führen könnte – vergleichbar mit der täglichen Wasserversorgung von New York City. Während der jährliche Wasserverbrauch moderat erscheint, könnte die Spitzenentnahme an heißen Tagen viele lokale Wasserversorgungssysteme überfordern. Besonders große Serverfarmen, die auf Verdunstungskühlung setzen, verbrauchen während extremer Hitze Millionen Gallonen Wasser täglich. Um diese Herausforderungen zu bewältigen, empfehlen die Autoren, dass Betreiber ihre Spitzenwasserverwendung melden und mit lokalen Gemeinschaften zusammenarbeiten, um die Infrastruktur zu verbessern. Zudem sollten sie ihre Kühlmethoden anpassen, indem sie wasserbasierte Kühlung in Zeiten hoher Nachfrage und trockene Kühlung bei Wasserknappheit nutzen. Andernfalls könnte die Wasserversorgung in vielen Regionen gefährdet sein.
TienPin eyes stable growth in 2026 as AI server liquid-cooling cleaning demand heats up
Titel: TienPin strebt stabiles Wachstum im Jahr 2026 an, angetrieben durch steigende Nachfrage nach Reinigungsdiensten für KI-Server Zusammenfassung: TienPin United Enterprise verzeichnet seit der zweiten Hälfte des Jahres 2025 einen signifikanten Anstieg der Nachfrage nach Reinigungsdiensten für Flüssigkeitskühlung in KI-Servern. Diese Entwicklung hat zu einer hohen Kapazitätsauslastung im vierten Quartal 2025 geführt. Der Anstieg der Nachfrage ist eng mit dem wachsenden Interesse an KI-Technologien verbunden, die eine effiziente Kühlung erfordern. TienPin plant, von diesem Trend zu profitieren und strebt ein stabiles Wachstum im Jahr 2026 an. Die fortlaufende Entwicklung und Verbesserung der Flüssigkeitskühltechnologien wird voraussichtlich die Marktbedingungen weiter begünstigen, was nicht nur die Marktposition von TienPin stärken könnte, sondern auch die breitere Akzeptanz dieser Technologien in der Branche fördern könnte.
Huawei presenta la solución Xinghe AI Fabric 2.0 mejorada para la era de la IA
Huawei hat auf dem MWC Barcelona 2026 die verbesserte Lösung Xinghe AI Fabric 2.0 sowie den ersten kommerziellen Switch mit 51,2 Terabit und Flüssigkeitskühlung vorgestellt. Diese Innovationen sollen die digitale und intelligente Transformation von Unternehmen weltweit unterstützen. Die Xinghe AI Fabric 2.0 basiert auf einer dreischichtigen Netzwerkarchitektur und bietet fortschrittliche Funktionen wie hohe Zuverlässigkeit und automatisierte Prozesse. Der neue CloudEngine XH9230-128DQ-LC Switch ermöglicht durch seine verbesserte Kühlung eine effizientere Nutzung von Server-Racks. Zudem präsentierte Huawei eine umfassende Produktreihe von 800GE-Switches und optischen Modulen, die durch ihre Zuverlässigkeit und Übertragungsreichweite bestechen. In Zukunft plant Huawei, die technologische Innovation in Rechenzentrumsnetzwerken weiter voranzutreiben und gemeinsam mit globalen Partnern neue Lösungen zu entwickeln, um den Wert für verschiedene Industrien zu steigern.
Edler Mini-PC mit viel Power: Minisforum AI X1 mit Ryzen 7 H 255 im Test
Der Minisforum AI X1 ist ein kompakter und leistungsstarker Mini-PC, der mit einem AMD Ryzen 7 H 255 Prozessor ausgestattet ist und sich hervorragend für Full-HD-Gaming eignet. Mit 32 GB RAM und einer 1 TB SSD bietet er eine beeindruckende Hardwarekonfiguration, verpackt in einem eleganten Aluminiumgehäuse. Die integrierte Radeon 780M Grafikeinheit liefert starke Leistungen in verschiedenen Spielen und erzielt auch bei Büroanwendungen hohe Benchmark-Ergebnisse. Trotz seiner Leistungsfähigkeit bleibt der AI X1 leise und kühl, was auf eine effektive Kühlung hinweist. Ausgestattet mit modernen Anschlüssen wie USB4 und Wifi 7 ist das Gerät zukunftssicher. Der Preis von 670 Euro wird als fair angesehen, besonders im Vergleich zu ähnlichen Modellen. Insgesamt erhält der AI X1 eine hohe Bewertung von viereinhalb von fünf Sternen und wird als empfehlenswert eingestuft, wobei Käufer die Herausforderungen beim Erwerb über chinesische Händler hinsichtlich Gewährleistung und Verbraucherrechten beachten sollten.
[MWC 2026] SK Telecom Forms Global AI Data Center Alliance
Auf dem Mobile World Congress 2026 hat SK Telecom eine Partnerschaft mit Supermicro und Schneider Electric angekündigt, um eine integrierte Lösung für den Bau von KI-Datenzentren zu entwickeln. Ziel dieser Zusammenarbeit ist es, die Bauzeiten und Kosten durch die Anwendung der "prefab modular" Methode zu reduzieren. Diese Methode ermöglicht die Vorfertigung von Infrastrukturkomponenten wie Stromversorgung, Kühlung und IT in modularen Einheiten, die vor Ort montiert werden. Dadurch wird nicht nur die Bauzeit erheblich verkürzt, sondern auch eine flexible Anpassung an die steigende Nachfrage ohne hohe Anfangsinvestitionen ermöglicht. Supermicro wird leistungsstarke Server und GPU-Cluster entwickeln, die auf die spezifischen Kundenbedürfnisse abgestimmt sind, während Schneider Electric ein integriertes Modell für das Management von Energie und Automatisierung bereitstellt. Ha Min-yong, Leiter des AI DC-Geschäfts bei SK Telecom, betont, dass diese Kooperation es ermöglicht, proaktiv auf die Anforderungen großer Technologieunternehmen zu reagieren und die Kostenwettbewerbsfähigkeit zu steigern.
Nvidia's Vera Rubin platform faces HBM4, cooling, and software hurdles ahead of ramp
Nvidia hat seine Vera Rubin-Plattform in die Phase der frühen Kundenmuster überführt und plant eine Produktionssteigerung im Laufe des Jahres. Das Unternehmen sieht sich jedoch mit mehreren Herausforderungen konfrontiert, insbesondere bei der Implementierung von HBM4, der Kühlung und der Softwareentwicklung. Diese technischen Hürden könnten den Fortschritt und die Effizienz der Plattform beeinträchtigen und somit die Markteinführung negativ beeinflussen. Ingenieure arbeiten intensiv an Lösungen, um die Leistung der Plattform zu optimieren und die Produktionsziele zu erreichen. Die erfolgreiche Bewältigung dieser Herausforderungen ist entscheidend, um Nvidias Wettbewerbsfähigkeit im dynamischen Technologiemarkt zu sichern.
Samsung hält sich vornehm zurück: Das sind die Galaxy-S26-Gegner der 17er iPhones
Samsung hat die Galaxy-S26-Serie vorgestellt, die mit minimalen Verbesserungen und einem starken Fokus auf KI-Technologien auf den Markt kommt, um gegen die iPhone-17-Modelle anzutreten. Die neuen Modelle, Galaxy S26, S26+ und S26 Ultra, unterscheiden sich hauptsächlich durch ihre Kamerainseln und ein optimiertes Innenleben. Viele KI-Funktionen könnten auch für ältere Modelle durch Updates verfügbar sein. Trotz eines Anstiegs der Verkaufszahlen der S25-Serie bleibt Samsung hinter den iPhones zurück, insbesondere in Bezug auf Marktanteile. Die Preise der neuen Geräte sind gestiegen, was es für Samsung erschwert, Käufer zu gewinnen, da auch die Speicherpreise zugenommen haben. Das Galaxy S26 Ultra bietet ein innovatives "Privacy Display" und eine verbesserte Kamera, während die anderen Modelle in der Ausstattung weitgehend unverändert bleiben. Die KI-Funktionen wurden weiterentwickelt, um das Teilen von Fotos und die Terminorganisation zu erleichtern. Angetrieben werden die neuen Smartphones von Qualcomms Snapdragon 8 Elite Gen 5, was eine verbesserte Kühlung und schnellere Ladezeiten ermöglicht.
Dutch AI inference chipmaker Axelera AI raises $250M
Axelera AI, ein niederländischer Hersteller von KI-Inferenzchips, hat in einer Finanzierungsrunde 250 Millionen Dollar gesammelt, angeführt von Innovation Industries und unterstützt von Investoren wie BlackRock. Dies ist die größte Finanzierung, die jemals von einem EU-Unternehmen im Bereich KI-Halbleiter erzielt wurde, wodurch die Gesamtsumme auf über 450 Millionen Dollar steigt. Das Unternehmen entwickelt Chips und Software für die Ausführung von KI-Modellen auf Edge-Geräten, um die Energieeffizienz durch lokale Datenverarbeitung zu steigern. CEO Fabrizio Del Maffeo hebt hervor, dass die Architektur von Axelera AI darauf abzielt, Herausforderungen wie Energieverbrauch und Kühlung in Rechenzentren zu bewältigen. Ziel ist es, die Effizienz und wirtschaftliche Machbarkeit von KI-Anwendungen zu verbessern und gleichzeitig den Datenschutz zu gewährleisten. Axelera AI bedient derzeit 500 Kunden aus verschiedenen Branchen, darunter Verteidigung, Agrartechnologie und Robotik.
ChatGPT creator defends AI energy use because humans need food too
Sam Altman, CEO von OpenAI, hat die hohe Energieverwendung von KI-Systemen wie ChatGPT verteidigt, indem er sie mit den Ressourcen verglich, die für die menschliche Entwicklung benötigt werden. Er argumentierte, dass das Aufwachsen eines Menschen ebenfalls erhebliche Energie erfordere, einschließlich der 20 Jahre Lebenszeit und der gesamten Nahrung, die in dieser Zeit konsumiert wird. Altman erkannte die Bedenken hinsichtlich des Energieverbrauchs an, plädierte jedoch für den Einsatz neuer Energiequellen wie Kernkraft und erneuerbare Energien, um die KI nachhaltiger zu gestalten. Zudem wies er die Sorgen über den Wasserverbrauch zur Kühlung von Rechenzentren als unbegründet zurück und bezeichnete diese Bedenken als "völlig verrückt". Seine Aussagen stießen auf breite Kritik, da viele der Meinung waren, dass er den Wert menschlichen Lebens und die Unterschiede zwischen menschlicher und künstlicher Intelligenz nicht ausreichend berücksichtigte.
Should I worry about how much water my AI chatbot conversations are using?
Die zunehmende Nutzung von Künstlicher Intelligenz (KI) wirft Fragen zum Wasserverbrauch auf, da Datenzentren zur Kühlung und Energieerzeugung Wasser benötigen. Schätzungen über den Wasserverbrauch variieren stark: Während einige Quellen angeben, dass ChatGPT für eine durchschnittliche Anfrage weniger als 1/15 Teelöffel Wasser benötigt, sprechen andere von bis zu 500 ml für mehrere Antworten. Experten warnen, dass die Wasserknappheit bis 2030 um 40 Prozent zunehmen könnte, was die Belastung bereits begrenzter Wasserressourcen in wasserarmen Regionen verstärken könnte. Trotz der Bedenken wird argumentiert, dass der individuelle Wasserverbrauch von KI-Nutzern im Vergleich zu alltäglichen Aktivitäten gering ist. Dennoch ist es wichtig, die Auswirkungen auf die lokale Umwelt und die Wasserverfügbarkeit zu berücksichtigen, insbesondere da viele Datenzentren in ökologisch sensiblen Gebieten liegen. Einige Fachleute sehen auch Chancen, wie KI zur Wassereinsparung in anderen Bereichen beitragen kann, etwa durch verbesserte Leckageerkennung. Die Diskussion über den Wasserverbrauch von KI und dessen langfristige Umweltfolgen bleibt somit von großer Relevanz.
Could AI Data Centers Be Moved to Outer Space?
Die rapide Zunahme von Rechenzentren, ausgelöst durch den AI-Boom, führt zu einem signifikanten Anstieg des Energieverbrauchs, der bis 2028 22 Prozent der Haushalte in den USA betreffen könnte. Diese Entwicklung hat nicht nur Auswirkungen auf die Energiepreise, sondern auch auf die Wasserressourcen, da die Kühlung der leistungsstarken AI-Chips große Mengen Wasser erfordert. Angesichts des Widerstands vieler Gemeinden gegen neue Rechenzentren wird die Idee diskutiert, diese ins All zu verlagern. Dort könnten sie von Solarenergie profitieren und Kühlprobleme durch die kalten Temperaturen im Weltraum umgehen. Dennoch gibt es erhebliche technische Herausforderungen, insbesondere die ineffiziente Wärmeabfuhr im Vakuum und die Größe der benötigten Anlagen. Eine mögliche Lösung könnte ein Netzwerk kleiner Satelliten sein, die besser für die Wärmeabfuhr geeignet sind. Allerdings würde dies die bereits überfüllte Erdumlaufbahn weiter belasten und das Risiko von Kollisionen erhöhen. Trotz der theoretischen Machbarkeit solcher Systeme bleibt die Frage, ob die hohen Kosten und Risiken gerechtfertigt sind.
Hyperscale Data Center Colocation Market: The Physical Foundation of the AI Era
Der Hyperscale Data Center Colocation Markt erlebt eine rasante Expansion, die die digitale Infrastruktur revolutioniert. Im Gegensatz zu traditionellen Anbietern, die kleinere Unternehmen bedienen, fokussiert sich der Hyperscale-Markt auf große Technologiefirmen, die immense Kapazitäten für Generative AI benötigen. Dies führt zur Schaffung von Gigawatt-Campus, die den Energieverbrauch einer kleinen Stadt aufweisen und für Supercomputing-Cluster optimiert sind. Ein bedeutendes Power Purchase Agreement mit einem Entwickler kleiner modularer Reaktoren verdeutlicht den Trend zur Nutzung nuklearer Energie, um überlastete Stromnetze zu entlasten. Zudem wird die Kühlung von Rechenzentren von Luft- auf Flüssigkeitskühlung umgestellt, um den Anforderungen moderner AI-GPUs gerecht zu werden. Die Branche entwickelt maßgeschneiderte Lösungen durch langfristige Partnerschaften zwischen Hyperscalern und Colocation-Anbietern. Zukünftig wird eine Konvergenz von Edge- und Hyperscale-Rechenzentren erwartet, um Latenzzeiten bei AI-Modellen zu reduzieren. Trotz Herausforderungen wie hoher Energieabhängigkeit und regulatorischen Anforderungen bietet der Markt Chancen in sekundären Märkten und durch die Wiederverwendung von Abwärme.
Semiconductor Thermal Management Materials Market (2026): Emerging Technologies & Investment opportunity for AI Chips, HPC, Automotive & Electronics
Der Markt für Materialien zur Wärmeableitung in Halbleitern zeigt ein starkes Wachstum, bedingt durch die steigende Nachfrage aus den Bereichen Hochleistungsrechnen, Unterhaltungselektronik, Automobilindustrie und Telekommunikation. Innovative Materialien wie thermische Gels und Graphen-basierte Lösungen verbessern die Wärmeleitfähigkeit und sind besonders wichtig für KI-Chips und Hochleistungsrechner. Unternehmen investieren intensiv in Forschung und Entwicklung, um den Bedarf an effizienten Wärmeableitungslösungen zu decken, was zu einem Boom in der Branche führt. Prognosen zeigen, dass thermische Interface-Materialien (TIMs) den größten Marktanteil halten werden, während flüssige Kühlung die am schnellsten wachsende Kategorie darstellt. In den USA und Japan wurden kürzlich bedeutende Produktinnovationen und Erweiterungen der Produktionskapazitäten angekündigt, um den Anforderungen der Industrie gerecht zu werden. Die zunehmende Integration von Halbleitern in Technologien wie Elektrofahrzeugen und IoT-Geräten verstärkt die Nachfrage weiter.
Energy-hungry AI and air conditioning risk wiping out climate gains made by renewables
Die zunehmende Nutzung von energiehungrigen Künstlichen Intelligenzen (KI) und der steigende Bedarf an Klimaanlagen könnten die Fortschritte, die durch erneuerbare Energien erzielt wurden, gefährden. Während der Übergang zu nachhaltigen Energiequellen positive Auswirkungen auf die Reduzierung von Treibhausgasemissionen hat, führt der hohe Energieverbrauch von KI-Anwendungen und die wachsende Nachfrage nach Kühlung in heißen Klimazonen zu einem Anstieg des Gesamtenergiebedarfs. Diese Entwicklungen könnten die positiven Effekte der erneuerbaren Energien zunichte machen, wenn nicht gleichzeitig Maßnahmen zur Effizienzsteigerung und zur Reduzierung des Energieverbrauchs ergriffen werden. Es ist entscheidend, ein Gleichgewicht zwischen technologischen Fortschritten und den Zielen des Klimaschutzes zu finden, um die Erfolge im Bereich der erneuerbaren Energien nicht zu gefährden.
M5Stack AI Pyramid-Pro: 24 TOPS Edge-KI im Kompaktformat
Die M5Stack AI Pyramid-Pro ist eine kompakte Edge-AI-Box, die auf dem Axera AX8850 SoC basiert und lokale KI-Anwendungen ermöglicht, ohne auf Cloud-Dienste angewiesen zu sein. Mit einer dedizierten NPU, die 24 TOPS bei INT8 erreicht, eignet sich das Gerät besonders für Bilderkennung und Sprachverarbeitung. Die integrierte Video-Engine unterstützt die Verarbeitung von 8K-Videos und mehrere 1080p-Streams gleichzeitig, was die Effizienz erhöht. Zudem bietet die AI Pyramid-Pro zahlreiche Anschlüsse wie HDMI, USB und Ethernet sowie integrierte Audiokomponenten für Sprachassistenten. Sicherheitsfunktionen wie Secure-Boot und Hardware-Kryptomodule machen das Gerät für produktive Umgebungen geeignet. Mit einem Gewicht von etwa 195 Gramm und aktiver Kühlung ist es als kompakter Desktop-Rechner konzipiert und ideal für Projekte wie lokale Bildanalyse oder Sprachverarbeitung. Tutorials erleichtern den Einstieg für Nutzer.
AI data-center spend to hit $80bn by 2030 to escape power crunch
Die Dell’Oro Group prognostiziert, dass die Ausgaben für KI-Rechenzentren bis 2030 auf 80 Milliarden Dollar steigen werden, trotz der Herausforderungen durch Energieknappheit und thermische Grenzen. Um diesen Problemen zu begegnen, investiert die Branche in innovative Infrastrukturdesigns, die verbesserte Kühlung und neue Stromarchitekturen umfassen. Die Nachfrage nach physischer Infrastruktur in Rechenzentren bleibt stark, da Betreiber kreative Strategien zur Kapazitätserhöhung umsetzen, wie die Einführung von direkt flüssigkeitsgekühlten Systemen und neuen Layouts. Kühlung wird zunehmend als entscheidender Faktor in der Rechenzentrumsarchitektur angesehen, was zu einem signifikanten Wachstum in diesem Bereich führt. Zudem wird die Notwendigkeit, vor Ort Energie zu erzeugen, immer dringlicher, da Verzögerungen bei der Netzanbindung und Übertragungsengpässe alternative Lösungen erfordern. Trotz dieser Herausforderungen zeigt sich die Branche optimistisch und plant, die Infrastruktur anzupassen, um den steigenden Anforderungen gerecht zu werden.
Insight: ASIC servers accelerate liquid cooling adoption, share set to surge in 2026
Die Einführung von Flüssigkeitskühlung in Rechenzentren wird zunehmend durch ASIC-Server vorangetrieben, nachdem Nvidia-Server bereits den Weg geebnet haben. Laut DIGITIMES Research wird Flüssigkeitskühlung bis 2026 etwa 50 % der thermischen Lösungen für KI-Server ausmachen. Diese Technologie ermöglicht eine effizientere Kühlung und könnte die Leistung sowie Energieeffizienz von Servern erheblich steigern. Unternehmen, die auf KI-Anwendungen setzen, müssen ihre Infrastruktur anpassen, um wettbewerbsfähig zu bleiben. Die Branche rechnet mit einem signifikanten Anstieg der Nachfrage nach Flüssigkeitskühlungslösungen in den kommenden Jahren, was die Notwendigkeit unterstreicht, innovative Kühltechnologien zu integrieren.
SpaceX übernimmt xAI für 1,25 Billionen Euro
SpaceX hat die KI-Firma xAI für 1,25 Billionen Euro übernommen, um orbitalen Rechenzentren zu entwickeln, die den Energiebedarf moderner KI-Systeme mit Solarenergie aus dem All decken sollen. Diese Fusion kombiniert SpaceX's Raumfahrtexpertise mit der KI-Forschung von xAI, einschließlich des Chatbots Grok. Geplant ist eine Satellitenkonstellation von bis zu einer Million Einheiten, die als vernetztes Rechencluster im Orbit agieren und kostengünstige KI-Rechenleistung bieten. Diese Übernahme wird als strategischer Schritt angesehen, um im Wettbewerb mit großen Cloud-Anbietern wie Amazon und Microsoft zu bestehen. Allerdings gibt es Bedenken hinsichtlich der technischen Herausforderungen, insbesondere bei der Kühlung der Hochleistungsprozessoren im Vakuum. Ein geplanter Börsengang könnte bis zu 50 Milliarden Euro einbringen, um die Entwicklung der orbitalen Rechenzentren zu finanzieren. Insgesamt zielt die Übernahme darauf ab, die Infrastruktur des Weltraums und die Rechenkraft der KI zu dominieren und die Entwicklung der künstlichen Intelligenz von irdischen Einschränkungen zu befreien.
Waste2Nano Launches "Wastewater-Cooled AI" Platform; Seeks U.S. Manufacturing Site and 2026 Pilot Partners
Waste2Nano LLC hat die innovative Plattform "Wastewater-Cooled AI" ins Leben gerufen, die Abwasser zur Kühlung von KI-Datenzentren nutzt, um den Frischwasserbedarf zu senken und die Schlammentsorgung zu optimieren. Diese modulare Technologie verknüpft Abwasserinfrastruktur mit der Herstellung fortschrittlicher Materialien, was die Wirtschaftlichkeit und Skalierbarkeit erhöht. Die erste Implementierung ist für eine Kapazität von 10.000 bis 20.000 m³ pro Tag geplant, wobei Abwasser sowohl als Kühlmittel als auch als Rohstoff für hochleistungsfähige Zellulosematerialien dient. Durch die Nutzung von Abwärme aus Datenzentren wird der Produktionsprozess kostengünstiger und die Schlammvolumina werden reduziert. CEO Dr. Refael Aharon hebt hervor, dass die Kühlung von KI mit Trinkwasser ineffizient ist und sieht in der Abwasserwiederverwertung eine nachhaltige Lösung. Das Unternehmen sucht derzeit nach einem Produktionsstandort in den USA und Partnern für Pilotprojekte im Jahr 2026.
Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern
Die Deutsche Telekom hat in München ihr größtes KI-Rechenzentrum eröffnet, das mit modernster Nvidia-Technologie ausgestattet ist. Ziel ist es, die KI-Leistung in Deutschland um 50 Prozent zu steigern. Das Rechenzentrum, das seit Mitte 2025 umgebaut wurde, ermöglicht deutschen und europäischen Kunden einen souveränen Betrieb ihrer KI-Modelle und bietet ausreichend Rechenleistung für das Training großer Sprachmodelle, darunter das europäische LLM Soofi. Der Umbau erfolgt durch die Telekom-Sparte T-Systems in Zusammenarbeit mit dem Partner Polarise. Mit einer geplanten Rechenleistung von 0,5 Exaflops wird das Zentrum etwa die Hälfte der gesamten KI-Performance in Deutschland bereitstellen. Technisch bemerkenswert ist die Nutzung von Wasser aus dem nahegelegenen Eisbach zur Kühlung des Rechenzentrums. Obwohl bereits erste KI-Server vermietet sind, ist der Ausbau noch nicht vollständig abgeschlossen. Die Telekom investiert zusammen mit Partnern rund 1 Milliarde Euro in das Projekt, das mit einer anfänglichen Kühl- und Versorgungsleistung von 12 Megawatt startet und auf 20 Megawatt ausgebaut werden soll. Bei der Eröffnung waren hochrangige Politiker, darunter der bayerische Ministerpräsident und der deutsche Vizekanzler, anwesend.
Nvidia reclaims cooling control as AI CDU ushers software-defined thermal management
Nvidia hat einen bedeutenden Schritt in der thermischen Verwaltung von AI-Datenzentren vollzogen, indem es von traditionellen Kühlsystemen zu einer softwaredefinierten, integrierten Kühlung übergeht. Diese als "Cooling Reform" bezeichnete Initiative zielt darauf ab, die Effizienz und Kontrolle über thermodynamische Prozesse in Rechenzentren zu verbessern. Durch die Einführung dieser neuen Technologien kann Nvidia nicht nur die Kühlkosten reduzieren, sondern auch die Gesamtleistung der Rechenzentren steigern. Die Veränderungen in der Kühlung haben weitreichende Auswirkungen auf die gesamte Halbleiter-Lieferkette und markieren den Beginn einer neuen Ära in den thermischen Managementstrategien. Diese Entwicklungen könnten andere Unternehmen in der Branche dazu anregen, ähnliche Ansätze zu verfolgen, um ihre Wettbewerbsfähigkeit zu sichern.
Musk says solar space-based AI data centres possible in two to three years
Elon Musk hat auf dem Weltwirtschaftsforum in Davos angekündigt, dass solarbetriebene KI-Datenzentren im Weltraum innerhalb von zwei bis drei Jahren realisierbar sein könnten. Er betonte, dass Solarenergie im All aufgrund der konstanten Sonneneinstrahlung und der geringeren atmosphärischen Dämpfung bis zu fünfmal effektiver sei als auf der Erde. Die extrem kalten Bedingungen im Weltraum würden zudem eine effiziente Kühlung der Solarzellen ermöglichen, was die Betriebskosten für KI-Infrastrukturen weiter senken könnte. Musk plant, diese Technologien mit SpaceX zu realisieren, das durch wiederverwendbare Raketen die Kosten für den Zugang zum Weltraum erheblich reduzieren möchte. Die Starship-Rakete, die größte Rakete der Welt, wird eine zentrale Rolle bei der Bereitstellung dieser Infrastruktur spielen. Langfristig könnte diese Technologie auch auf dem Mond und Mars eingesetzt werden, insbesondere durch den Einsatz von KI-gesteuerten Robotern. Der erste Schritt in diese Richtung sind solarbetriebene KI-Satelliten, die Musk in den kommenden Jahren einführen möchte.
Phison zeigt SSD-Prototyp mit 24 GB/s
Phison Electronics hat einen innovativen SSD-Prototypen vorgestellt, der Lesegeschwindigkeiten von bis zu 24 GB/s erreicht und damit die aktuellen PCIe-5.0-Modelle nahezu verdoppelt. Diese Technologie könnte insbesondere für Rechenzentren und KI-Anwendungen von großer Bedeutung sein, da sie einen erheblichen Leistungssprung für datenintensive Aufgaben darstellt. Mit dem Übergang zu PCIe 6.0 wird eine theoretische Bandbreite von bis zu 28 GB/s möglich, jedoch bringt die hohe Leistung Herausforderungen in der Kühlung mit sich, da passive Kühlung nicht ausreicht. Phison steht im Wettbewerb mit anderen Unternehmen wie Samsung und InnoGrit, die ebenfalls an PCIe-6.0-Lösungen arbeiten. Obwohl die Technologie zunächst teuer für Privatanwender sein wird, wird eine breitere Verfügbarkeit in Consumer-PCs zwischen 2026 und 2027 erwartet. Die Unterstützung durch CPU- und Mainboard-Hersteller ist entscheidend für die Integration dieser neuen SSDs in Server und PCs. Der steigende Bedarf an schnelleren Speichermöglichkeiten für KI und Big Data treibt die Entwicklung in diesem Bereich weiter voran.
Elon Musk says Tesla to restart Dojo AI supercomputer project with chip design progress
Elon Musk hat bekannt gegeben, dass Tesla die Entwicklung seines Dojo3 AI-Supercomputers wieder aufnehmen wird, da der Fortschritt beim Chipdesign des AI5-Chips vielversprechend ist. Das Dojo-Team war im vergangenen Jahr aufgelöst worden, da die Entwicklungsrichtungen der Chips AI5 und AI6 divergierten und Musk entschieden hatte, die Ressourcen nicht zu teilen. Der Dojo3-Supercomputer soll dazu dienen, Teslas maschinelle Lernmodelle zu trainieren und die Software für autonomes Fahren (FSD) zu optimieren. Die Chips AI5 und AI6 sind für Teslas Elektrofahrzeuge gedacht, wobei AI6 in Zusammenarbeit mit Samsung in Texas produziert wird. Musk betont, dass der AI5-Chip die Fahrzeugleistung erheblich steigern und die Fähigkeiten des humanoiden Roboters Optimus verbessern wird. Zudem plant er, zukünftige AI-Datenzentren ins All zu verlagern, um von solarer Energie und natürlicher Kühlung zu profitieren. Trotz seiner oft übertriebenen Aussagen zeigt Musk ernsthaftes Interesse an der Entwicklung von AI-Trainingslösungen.
Does adding 'please' and 'thank you' to your ChatGPT prompts really waste energy?
Die Debatte über das Hinzufügen von "bitte" und "danke" zu ChatGPT-Anfragen wirft Fragen zu den Umweltkosten von KI auf. Während längere Eingaben tatsächlich etwas mehr Rechenleistung und Energie erfordern, ist der Einfluss dieser zusätzlichen Wörter im Vergleich zu den enormen Energiekosten der Rechenzentren minimal. Die eigentliche Herausforderung liegt in der zunehmenden Nutzung von KI und den damit verbundenen Anforderungen an Energie, Wasser und Land, die durch die Infrastruktur der Datenzentren entstehen. Diese Einrichtungen benötigen nicht nur Strom, sondern auch große Mengen Wasser zur Kühlung und belasten lokale Ressourcen, insbesondere in bereits belasteten Regionen. Daher sollte die Diskussion über die Umweltbelastung von KI sich auf die Integration dieser Infrastruktur in die Energieplanung und ihre gesellschaftlichen Auswirkungen konzentrieren, anstatt sich auf kleine Verhaltensänderungen zu fokussieren. Das wachsende Bewusstsein für die Umweltkosten von KI signalisiert, dass die Gesellschaft die physischen Ressourcenanforderungen dieser Technologie ernst nehmen muss, um eine nachhaltige Zukunft zu fördern.
Expert debunks ChatGPT ‘please’ and ‘thank you’ myth
Die Vorstellung, dass höfliche Formulierungen wie "bitte" und "danke" den Energieverbrauch von KI-Anfragen signifikant beeinflussen, ist ein weit verbreiteter Mythos. Ein Experte erklärt, dass der Einfluss zusätzlicher Wörter im Vergleich zu den enormen Energiekosten der Rechenzentren vernachlässigbar ist. Künstliche Intelligenz erfordert viel Energie, da jede Anfrage eine neue Berechnung auslöst, was sie eher wie Infrastruktur als traditionelle Software erscheinen lässt. Rechenzentren, die KI betreiben, tragen bereits erheblich zur globalen Stromnachfrage bei, und dieser Bedarf könnte bis Ende des Jahrzehnts möglicherweise doppelt so hoch sein. Zudem benötigen diese Zentren viel Wasser zur Kühlung und beanspruchen Land, was lokale Umweltfolgen hat. Experten warnen, dass der Fokus auf kleine Verhaltensänderungen von der dringenden Notwendigkeit ablenkt, die KI-Infrastruktur in umfassendere Planungen für Energie, Wasser und Landnutzung zu integrieren, um den ökologischen Fußabdruck effektiv zu managen.
Infinium Launches Infinium Edge™ Platform for High-Density AI Data Center Immersion Cooling
Infinium hat die Infinium Edge™-Plattform vorgestellt, die speziell für hochdichte KI- und HPC-Datenzentren entwickelt wurde und auf Immersionskühlung setzt. Diese innovative Plattform verwendet maßgeschneiderte dielektrische Flüssigkeiten, die Wärme direkt an der Quelle abführen, was eine höhere Rechenleistung bei reduziertem Wasser- und Energieverbrauch ermöglicht. Im Gegensatz zu herkömmlichen luftgekühlten Systemen, die nur begrenzte Leistungsdichten unterstützen, können Immersionskühlsysteme deutlich höhere Dichten erreichen, was sie für moderne KI-Anwendungen unerlässlich macht. Die neuen Edge Immersion Fluids™ sind sauberer und zuverlässiger als herkömmliche Kühlmittel und gewährleisten eine konstante Leistung unter den hohen Temperaturen, die in KI-Umgebungen üblich sind. CEO Robert Schuetzle hebt hervor, dass die Kühlung eine der größten Herausforderungen bei der Bereitstellung fortschrittlicher KI-Systeme darstellt. Die Infinium Edge-Plattform bietet eine nachhaltigere und effizientere Lösung, die es Betreibern von Datenzentren ermöglicht, die Effizienz zu steigern und gleichzeitig den Ressourcenverbrauch zu minimieren.
Column: IBM's 50-year-old liquid cooling patent shapes today's AI data center cooling
IBM hat vor 50 Jahren ein Patent für Flüssigkeitskühlung entwickelt, das heute eine zentrale Rolle in der Kühlung von KI-Datenzentren spielt. Diese Technologie ist besonders relevant, da moderne Chips, wie die von Nvidia, hohe Temperaturen erzeugen und auf Wasserkühlung angewiesen sind. Durch die frühzeitige Einführung dieser Kühlmethoden hat IBM maßgeblich zur Effizienz und Leistungsfähigkeit moderner Rechenzentren beigetragen. Flüssigkeitskühlung ermöglicht eine effektive Kontrolle der Hitzeentwicklung in leistungsstarken Systemen, was zu niedrigeren Betriebskosten führt. Die Innovationskraft von IBM hat nicht nur die Kühlungstechnologie revolutioniert, sondern auch die Basis für die Entwicklung leistungsfähigerer KI-Anwendungen geschaffen.
Acer Predator und Nitro: Das sind die neuen Gaming-Notebooks von der CES 2026
Auf der CES 2026 hat Acer neue Gaming-Notebooks der Serien Nitro und Predator vorgestellt, die mit leistungsstarken Intel Core Ultra Prozessoren und Nvidia GeForce RTX 50 Grafikkarten ausgestattet sind. Besonders das Predator Helios Neo 16S AI sticht hervor, mit einem 16 Zoll OLED-Display, WQXGA-Auflösung und HDR-Unterstützung. Es bietet bis zu einen Intel Core Ultra 9 386H und eine Nvidia GeForce RTX 5070, während das schlanke Metallgehäuse nur 18,9 mm dick ist und eine fortschrittliche Kühlung durch einen AeroBlade-3D-Metalllüfter sowie LiquidMetall-Wärmeleitpaste gewährleistet. Das Acer Nitro V 16 AI richtet sich an eine breitere Zielgruppe und bietet bis zu 2 TByte SSD-Speicher und maximal 32 GByte DDR5-RAM. Zudem wurden neue Gaming-Peripheriegeräte wie das Predator Galea 570 Headset und die Predator Cestus 530 Maus vorgestellt, die auf Präzision und Benutzerfreundlichkeit ausgelegt sind. Die neuen Produkte sollen im ersten und zweiten Quartal 2026 erhältlich sein, während die Preise später bekannt gegeben werden.
Panasonic’s AI Strategy Enters the Implementation Phase: Real-World Impact for Better Future Showcased at CES 2026
Auf der CES 2026 in Las Vegas stellte die Panasonic Group ihre Fortschritte in der KI-Strategie vor, die auf die Entwicklung von AI-gestützter Hardware, Software und Lösungen abzielt. Unter dem Motto "Die Zukunft, die wir gestalten" konzentrierte sich das Unternehmen auf die Verbesserung der KI-Infrastruktur, insbesondere in Bezug auf Datenzentren und umweltfreundliche Technologien. Panasonic adressiert Herausforderungen wie den stabilen Betrieb und die effiziente Kühlung von Datenzentren mit innovativen Produkten, darunter Hochleistungsflüssigkeitskühler und Energiespeichersysteme. Zudem werden B2B-Lösungen entwickelt, um Arbeitsplätze in Logistik, Einzelhandel und Dienstleistungen durch die Kombination von KI und branchenspezifischem Wissen zu optimieren. Im Bereich Umwelttechnologien präsentierte Panasonic solarbetriebene Fenster und ein automatisches System zur effizienten Wiederverwertung von Haushaltsgeräten. Diese Initiativen verdeutlichen Panasonics Engagement für eine nachhaltige und KI-gesteuerte Zukunft.
This AI Data Center Play Just Got Upgraded On Its Earnings Potential
Vertiv Holdings hat kürzlich einen Kursanstieg verzeichnet, nachdem das Unternehmen, das Komponenten und Systeme für AI-Datenzentren bereitstellt, ein Upgrade erhielt. Diese positive Entwicklung fiel zeitgleich mit dem Anstieg der Caterpillar-Aktien, die von ihrem Geschäft mit Stromversorgung für AI-Datenzentren profitieren und als führender Performer im Dow Jones für 2025 gelten. Vertiv, mit Sitz in Westerville, Ohio, bietet essentielle Infrastruktur wie Stromversorgung und Kühlung für Datenzentren und Kommunikationsnetze an. Das Upgrade deutet auf ein wachsendes Interesse und eine steigende Nachfrage nach Technologien im Bereich künstliche Intelligenz hin, was potenziell die zukünftigen Einnahmen des Unternehmens steigern könnte. Diese Trends verdeutlichen, wie Unternehmen in der Technologiebranche von der zunehmenden Bedeutung von AI profitieren und das Marktumfeld für Investoren beeinflussen.
Brennen Elektroautos häufiger als Verbrenner? Ein Faktencheck
Die Wahrnehmung von Elektroautos als brandgefährlich wird oft durch spektakuläre Berichte über brennende Fahrzeuge beeinflusst. Ein Faktencheck zeigt jedoch, dass Elektroautos tatsächlich seltener brennen als Fahrzeuge mit Verbrennungsmotor. Laut dem Gesamtverband der Deutschen Versicherungswirtschaft (GDV) liegt das Brandrisiko bei Elektroautos bei nur 0,0012 %, während es bei Verbrennern bei 0,1 % liegt. Die Ursachen für Brände unterscheiden sich: Bei Verbrennern sind häufig Kraftstofflecks oder mechanische Defekte verantwortlich, während bei Elektroautos die Traktionsbatterie eine Herausforderung darstellt, insbesondere durch das Risiko des „Thermal Runaway“. Ingenieure haben Sicherheitsmaßnahmen implementiert, wie die Platzierung der Batterie im Fahrzeugboden und den Einsatz von Sensoren zur Überwachung. Feuerwehrleute haben spezielle Löschtechniken entwickelt, die sich auf die Kühlung der Batterie konzentrieren. Zukünftige Fortschritte in der KI und Sensorik könnten helfen, Brände frühzeitig zu erkennen und neue Batterietechnologien könnten das Brandrisiko weiter reduzieren.
AI chips run too hot: Engineers race to reinvent cooling
Die rasante Entwicklung von generativer KI und groß angelegten Modellen hat den Energieverbrauch von Rechenchips stark erhöht, was das thermische Management zu einem zentralen Thema macht. Hochleistungs-AI-Beschleuniger benötigen mittlerweile Kilowatt an Strom, was zu intensiver Wärmeentwicklung führt. Ingenieure stehen vor der Herausforderung, innovative Kühltechnologien zu entwickeln, um eine Überhitzung der Chips zu verhindern. Eine unzureichende Kühlung kann sowohl die Leistung als auch die Lebensdauer der Chips negativ beeinflussen. Die Suche nach effektiven Kühlmethoden ist daher entscheidend, um die Effizienz bestehender Technologien zu steigern und die Entwicklung zukünftiger AI-Anwendungen zu fördern.
XING Mobility to showcase immersive cooling innovations at CES 2026
XING Mobility wird auf der CES 2026 in den USA innovative Fortschritte im Bereich elektrischer Fahrzeuge und Energiespeichersysteme präsentieren. Im Mittelpunkt steht die Technologie des immersiven Kühlens, die das Unternehmen über einen Zeitraum von zehn Jahren entwickelt hat. Diese Technologie verspricht, die Effizienz und Leistung von Elektrofahrzeugen sowie von KI-Backup-Batterien für Rechenzentren erheblich zu steigern. Durch den Einsatz immersiver Kühlung wird eine erhöhte Lebensdauer und Zuverlässigkeit der Batterien erwartet, was für die gesamte Branche von großer Bedeutung ist. Die Entwicklungen von XING Mobility könnten nicht nur die Leistung von Elektrofahrzeugen optimieren, sondern auch die Nachhaltigkeit und Effizienz von Energiespeichersystemen positiv beeinflussen.
Why Silicon Valley is eyeing space for AI data centers
Silicon Valley zeigt zunehmend Interesse an der Errichtung weltraumbasierter Rechenzentren für Künstliche Intelligenz. Diese Initiative ist Teil eines Trends, bei dem Technologieunternehmen innovative Lösungen suchen, um den wachsenden Anforderungen an Datenverarbeitung und -speicherung gerecht zu werden. Die Nutzung von Raumfahrttechnologie könnte die Effizienz und Geschwindigkeit der Datenverarbeitung erheblich steigern, da Rechenzentren in der Schwerelosigkeit möglicherweise weniger Kühlung benötigen und somit kostengünstiger betrieben werden können. Diese Entwicklung könnte nicht nur die Art der Datenverarbeitung revolutionieren, sondern auch neue Märkte und Geschäftsmodelle im Bereich der Raumfahrttechnologie schaffen. Zudem könnte sie die Wettbewerbslandschaft im Technologiesektor verändern, indem Unternehmen, die diese Technologien entwickeln und implementieren, einen entscheidenden Vorteil erlangen.
AI's 2025 carbon footprint may match New York City, report estimates
Bis Ende 2025 könnte der CO2-Fußabdruck globaler KI-Systeme schätzungsweise dem von New York City entsprechen, während der Wasserverbrauch mit dem der weltweiten Flaschenwassermärkte konkurrieren könnte. Diese Prognosen stammen von Alex de Vries-Gao, einem Doktoranden, der die Umweltkosten von KI untersucht. Die steigende Nutzung von KI erfordert den Bau zusätzlicher Datenzentren, die erhebliche Mengen an Strom und Wasser für die Kühlung der Server benötigen. Der genaue Verbrauch bleibt jedoch unklar, da viele Technologieunternehmen keine transparenten Daten veröffentlichen. De Vries-Gao hat öffentliche Unternehmensberichte und Daten der Internationalen Energieagentur analysiert und schätzt, dass der CO2-Ausstoß von KI-Systemen zwischen 32,6 und 79,7 Millionen Tonnen liegen könnte, während der Wasserverbrauch zwischen 312,5 und 764,6 Milliarden Litern schwankt. Er fordert mehr Transparenz von Datenzentrumsbetreibern, um die Umweltfolgen von KI verantwortungsvoll zu steuern.
Kentec eyes Japan with 2.5MW liquid-cooled CDU for AI data centers
Kentec richtet sein Augenmerk auf den japanischen Markt, um seine 2,5 MW flüssigkeitsgekühlten Kühlgeräte (CDU) für KI-spezialisierte Rechenzentren einzuführen. Angesichts des wachsenden Bedarfs an KI-Computing, der von Megawatt- auf Gigawatt-Skalen ansteigt, stehen traditionelle Rechenzentren vor erheblichen Herausforderungen hinsichtlich Kühlung und Energieverbrauch. Die Branche vollzieht einen Wechsel von herkömmlicher Luftkühlung zu hocheffizienten Kühltechnologien, um diesen Herausforderungen zu begegnen. Diese Entwicklung könnte die Effizienz und Nachhaltigkeit von Rechenzentren erheblich verbessern, indem sie den Energieverbrauch senkt und die Kühlleistung optimiert. Kentec positioniert sich somit als innovativer Anbieter in einem sich schnell verändernden Markt, der gezielt auf die spezifischen Anforderungen von KI-Anwendungen reagiert.
KROHNE Dedicates Production Capacity and Establishes U.S. Center of Excellence to Support Explosive Growth in AI-Driven Data Centers
KROHNE hat beschlossen, seine Produktionskapazitäten auf die steigende Nachfrage nach KI-gesteuerten Rechenzentren auszurichten. Das Unternehmen konzentriert sich auf die Herstellung hochpräziser magnetischer Durchflussmesser, die für die Kühlung und Prozessoperationen in Rechenzentren entscheidend sind. Um diese Initiative zu unterstützen, wurde ein Center of Excellence in Beverly, Massachusetts, eingerichtet, das speziell auf die Bedürfnisse der Rechenzentrumsbranche eingeht. CEO Rich Hendgen hebt hervor, dass die Herausforderung nicht in der Produktqualität, sondern in der Fähigkeit zur Lieferung der erforderlichen Mengen liegt. KROHNE möchte sicherstellen, dass ihre Produkte nicht zu Verzögerungen beim Bau dieser wichtigen Einrichtungen führen, um die Wettbewerbsfähigkeit der USA im KI-Bereich zu stärken. Mit über 100 Jahren Erfahrung in der Instrumentierungstechnik bleibt KROHNE bestrebt, innovative Lösungen für zukünftige Technologien zu entwickeln.
AI Native Data Centres: Hype or the Making of a Sovereign Compute Era?
Der Artikel "AI Native Data Centres: Hype or the Making of a Sovereign Compute Era?" beleuchtet den aufkommenden Trend in Indien, bei dem der Begriff "AI-native Data Centres" von Gründern, Cloud-Anbietern und staatlichen Stellen zunehmend verwendet wird. Diese Entwicklung deutet auf einen Wandel in der Infrastruktur hin, der es Startups ermöglicht, eigene Rechenleistung zu entwickeln, anstatt sie nur zu mieten. Angesichts der hohen Anforderungen von KI-Workloads, die viel Energie und Kühlung benötigen, wird die Notwendigkeit spezialisierter, energieeffizienter Designs deutlich. Unternehmen wie Invenia und Utho Cloud arbeiten an der Entwicklung von GPU-Clustern und Netzwerkinfrastrukturen, die auf die spezifischen Bedürfnisse von KI-Trainingsumgebungen zugeschnitten sind. Diese Veränderungen markieren einen kulturellen Bruch mit der bisherigen Abhängigkeit von Cloud-Diensten, da Infrastruktur nun als strategisches Eigentum betrachtet wird. Die Einführung von Flüssigkeitskühlung und hochgradig vernetzten Systemen wird als entscheidend für die Effizienz und Zuverlässigkeit der KI-Workloads in Indiens heißem Klima angesehen. Letztendlich könnte die Etablierung von AI-native Data Centres Indien ermöglichen, die Kontrolle über die Produktion von Intelligenz zu übernehmen und weniger auf ausländische Anbieter angewiesen zu sein.
Daikin targets AI cooling boom with plan to triple North America revenue
Daikin Industries hat angekündigt, seinen Umsatz im Bereich der Kühlung von Rechenzentren in Nordamerika auf über 300 Milliarden Yen (ca. 2 Milliarden US-Dollar) zu verdreifachen. Diese Entscheidung basiert auf der steigenden Nachfrage nach Server-Kühlung, die durch den rasanten Anstieg von generativer KI bedingt ist. Während einer Pressekonferenz am 27. November in Osaka wurde die Strategie vorgestellt, die darauf abzielt, die Marktanteile des Unternehmens in diesem wachsenden Sektor auszubauen. Daikin sieht die wachsende Bedeutung von KI-Technologien als Chance, nicht nur die Einnahmen zu steigern, sondern auch die Position im nordamerikanischen Markt zu stärken. Die Expansion könnte zu einer erhöhten Wettbewerbsfähigkeit und Innovationskraft im Bereich der Kühlungstechnologien führen.
OpenAI, SoftBank Push Infrastructure Expansion, Undeterred by Bubble Concerns
OpenAI und SoftBank intensivieren ihre Expansion im Bereich der Datenzentrum-Infrastruktur, indem sie sich auf die Beschaffung essenzieller Komponenten wie Server-Racks, Verkabelung und Kühlung konzentrieren. Diese Initiative folgt auf den Erfolg von NVIDIA und zeigt, dass beide Unternehmen trotz Bedenken hinsichtlich einer möglichen KI-Blase entschlossen sind, in die Infrastruktur zu investieren. Am 20. November kündigte OpenAI eine Zusammenarbeit mit Foxconn an, um Hardware für Datenzentren zu entwickeln. Foxconn, bekannt für die iPhone-Produktion, spielt auch eine bedeutende Rolle im Bereich Serverlösungen. Die Partnerschaft zielt darauf ab, Technologien für die KI-Ära in den USA zu fördern und die amerikanische Dominanz im KI-Sektor zu stärken. SoftBank plant zudem die Übernahme eines GM-Werks in Ohio, um modulare Datenzentrumsausrüstung zu produzieren, was die Bauzeit der Datenzentren um 10 bis 20 Prozent verkürzen und Kosten minimieren soll. Experten betonen die Wichtigkeit einer schnellen Beschaffung von Komponenten, um die massive Kapazität der angestrebten Datenzentren von OpenAI zu sichern.
Smarter AI processing for cleaner air: A blueprint to cut pollution and prolong server life
Die Studie der UC Riverside präsentiert ein innovatives System namens federated carbon intelligence (FCI), das darauf abzielt, den Energieverbrauch und die CO2-Emissionen von Rechenzentren, die durch die zunehmende Nutzung von Künstlicher Intelligenz (KI) steigen, erheblich zu reduzieren. FCI könnte die Emissionen um bis zu 45 % innerhalb von fünf Jahren senken und die Lebensdauer der Server um 1,6 Jahre verlängern. Das System nutzt Echtzeitdaten zur Hardware-Gesundheit und zur Kohlenstoffintensität des Stroms, um KI-Lasten effizient zu verteilen und so Emissionen sowie Maschinenverschleiß zu minimieren. Durch die Überwachung von Temperatur und Abnutzung der Server wird eine Überlastung vermieden, was kostspielige Ausfälle und den Bedarf an energieintensiver Kühlung verringert. Die Forscher betonen, dass Nachhaltigkeit nicht nur saubere Energie, sondern auch die optimale Nutzung vorhandener Hardware umfasst. FCI erfordert keine neuen Geräte, sondern eine intelligentere Koordination bestehender Systeme. Der nächste Schritt besteht darin, mit Cloud-Anbietern zusammenzuarbeiten, um FCI in realen Rechenzentren zu testen und somit eine klimaneutrale KI-Infrastruktur zu fördern.
India’s TCS gets TPG to fund half of $2B AI data center project
Tata Consultancy Services (TCS) hat eine Partnerschaft mit der Private-Equity-Firma TPG geschlossen, um 1 Milliarde US-Dollar für ein 2 Milliarden US-Dollar umfassendes Projekt zur Errichtung eines Netzwerks von Gigawatt-Datenzentren in Indien zu sichern. Das Projekt, bekannt als "HyperVault", reagiert auf die wachsende Nachfrage nach KI-Computing, da Indien nur etwa 3% der globalen Datenzentrums-Kapazität bereitstellt, obwohl es fast 20% der weltweiten Daten generiert. TCS und TPG planen, hochdichte, flüssigkeitsgekühlte Datenzentren zu entwickeln, die für fortschrittliche KI-Anwendungen geeignet sind. Allerdings gibt es Bedenken hinsichtlich der Wasserverwendung für die Kühlung in einem Land mit Wasserknappheit, insbesondere in Städten wie Mumbai und Bengaluru. Zudem könnte die schnelle Entwicklung der Datenzentren die Stromversorgung und den Flächenbedarf in urbanen Gebieten belasten. Trotz dieser Herausforderungen investieren globale Technologieunternehmen stark in Indiens Dateninfrastruktur, mit über 32 Milliarden US-Dollar in den letzten zwei Jahren. TCS plant, in der ersten Phase etwa 1,2 Gigawatt Kapazität aufzubauen, mit dem Ziel, dass die gesamte Datenzentrumskapazität Indiens bis 2030 10 Gigawatt überschreiten könnte.
8 Futuristic Companies Building Data Centres in Space
Im Jahr 2025 wird die Vision von Datenzentren im Weltraum Realität, da Unternehmen wie Starcloud, Axiom Space und Google innovative Projekte vorantreiben. Starcloud plant, das erste KI-ausgestattete Datenzentrum in den Orbit zu bringen, um die Vorteile der ständigen Sonneneinstrahlung und natürlichen Kühlung zu nutzen. Axiom Space entwickelt ein orbitales Datenzentrum, das sowohl terrestrische als auch weltraumgestützte Kunden bedienen soll und testet bereits die Datenverarbeitung an der Internationalen Raumstation. Google verfolgt mit Project Suncatcher das Ziel, KI-Datenzentren im Weltraum zu etablieren, um Solarenergie effizient zu nutzen. Lonestar Data Holdings plant, Datenzentren auf der Mondoberfläche zu errichten, um sichere Datenspeicherung zu gewährleisten. Weitere Unternehmen wie Sophia Space und Madari Space arbeiten an Lösungen für die Datenverarbeitung im Orbit, während SpaceX die kostengünstige Infrastruktur bereitstellt. TakeMe2Space möchte den Zugang zu Weltraumcomputing für eine breitere Nutzerbasis öffnen. Diese Entwicklungen könnten die Datenverarbeitung revolutionieren und die Abhängigkeit von irdischen Ressourcen verringern.
Delta Electronics sees AI boom stretch power and cooling capacity to the limit
Delta Electronics hat sich als Schlüsselakteur im Bereich der Strom- und Kühlsysteme für KI-Server etabliert, da die Nachfrage im KI-Sektor weiterhin stark wächst. Während eines Investorenmeetings wies CEO Ping Cheng Bedenken über eine mögliche KI-Blase zurück und betonte die anhaltende Nachfrage. Diese Situation zwingt Unternehmen wie Delta, ihre Kapazitäten für Stromversorgung und Kühlung zu erweitern, um den steigenden Leistungsanforderungen gerecht zu werden. Die Entwicklungen im KI-Sektor könnten nicht nur die Produktionskapazitäten von Delta beeinflussen, sondern auch die gesamte Infrastruktur für KI-Anwendungen vorantreiben. Dies zeigt, dass Delta Electronics an der Spitze technologischer Innovationen steht, um den Herausforderungen des wachsenden Marktes zu begegnen.
Space data centers could solve problem of 165% surge in AI power hunger
Wissenschaftler von NTU Singapore haben die Idee entwickelt, Datenzentren in den niedrigen Erdorbit (LEO) zu verlagern, um den steigenden Energiebedarf der KI-Technologie zu decken, der bis 2030 um 165 Prozent ansteigen könnte. Diese orbitalen Datenzentren könnten durch kontinuierliche Solarenergie und natürliche Kühlung betrieben werden, was zu nachhaltigem Computing führt. Besonders in städtischen Gebieten wie Singapur, wo Platz und Immobilien teuer sind, könnte diese Lösung von Vorteil sein. Trotz der hohen Anfangskosten könnten die extrem kalten Temperaturen im Weltraum und die nahezu unbegrenzte Sonnenenergie eine Betriebsweise mit netto null Kohlenstoffemissionen ermöglichen. Die Forscher schlagen zwei Ansätze vor: Orbital-Edge-Datenzentren, die Daten direkt im Orbit verarbeiten, und Cloud-Datenzentren, die Satellitenkonstellationen mit Servern und Solarzellen kombinieren. Diese Konzepte sind mit den aktuellen Technologien umsetzbar und könnten eine Antwort auf die wachsenden Anforderungen der KI darstellen.
Saudi Arabia poised to become AI data center hub, says Groq CEO
Saudi-Arabien steht kurz davor, sich als führendes Zentrum für künstliche Intelligenz (KI) und Dateninfrastruktur zu etablieren, was vor allem auf seinen Energieüberschuss zurückzuführen ist. Jonathan Ross, CEO von Groq, hebt hervor, dass das Land durch seine Ressourcen in der Lage ist, Daten kostengünstig zu exportieren, während der Transport von Energie teuer bleibt. Im Rahmen der Vision 2030 plant Saudi-Arabien, KI in den Mittelpunkt seiner wirtschaftlichen Strategie zu stellen, um von den geschätzten 320 Milliarden Dollar, die der KI-Markt im Nahen Osten generieren könnte, zu profitieren. Trotz Herausforderungen wie dem Wasserbedarf für die Kühlung von Rechenzentren und einem Mangel an digitalen Fähigkeiten zeigt sich das Land optimistisch und hat bereits erhebliche Investitionen in KI getätigt. Groq arbeitet mit Aramco Digital an dem größten Inferencing-Rechenzentrum der Welt und hat kürzlich 1,5 Milliarden Dollar aus Saudi-Arabien erhalten, um seine Projekte auszubauen. Ross betont, dass ihre KI-Chips speziell für die Nutzung in der Region optimiert sind, was die Relevanz der Ergebnisse für lokale Nutzer erhöht. Dennoch sieht sich Saudi-Arabien starker Konkurrenz aus den Vereinigten Arabischen Emiraten gegenüber, während es anstrebt, eine bedeutende Rolle im globalen KI-Markt zu spielen.
AI Data Center Play Roars 19% Higher As Earnings Double
Comfort Systems, ein Unternehmen, das sich auf die Kühlung von KI-Datenzentren spezialisiert hat, verzeichnete einen beeindruckenden Anstieg seiner Aktienkurse um 19 %, nachdem es einen über 100-prozentigen Gewinnanstieg im dritten Quartal bekannt gab. Der Gewinn pro Aktie stieg auf 8,25 US-Dollar, was einem Anstieg von 102 % entspricht, während der Umsatz um 35,4 % auf 2,45 Milliarden US-Dollar zulegte. Analysten hatten zuvor mit einem Gewinn von 6,29 US-Dollar pro Aktie und einem Umsatz von 2,16 Milliarden US-Dollar gerechnet, was die Ergebnisse des Unternehmens deutlich übertraf. Diese positiven Entwicklungen haben Comfort Systems als einen der vielversprechendsten Wachstumswerte positioniert und das Unternehmen in verschiedene Aktienlisten aufgenommen. Die starke Leistung könnte das Vertrauen in den KI-Technologiemarkt stärken und Investoren anziehen, die nach stabilen Wachstumschancen suchen.
Samsung SDS Sole Bidder for National AI Computing Center
Samsung SDS hat als alleiniger Bieter ein Angebot für den Bau eines KI-Datenzentrums in Solarseado, Haenam, eingereicht, was einen Fortschritt in einem zuvor stagnierenden Projekt darstellt. Zusammen mit Naver Cloud, Kakao und KT plant das Konsortium die Errichtung der nationalen KI-Rechenzentrale, um die KI-Entwicklung in Südkorea zu fördern. Die Regierung wird bis Ende des Jahres entscheiden, ob das Konsortium als bevorzugter Verhandlungspartner ausgewählt wird, nachdem technische und finanzielle Bewertungen vorgenommen wurden. Der Standort in Solarseado, dem größten Solarpark Koreas, bietet ideale Bedingungen für Kühlung und Anbindung. Ziel des Projekts ist es, eine stabile Versorgung mit Grafikprozessoren (GPUs) zu gewährleisten, um der globalen Knappheit entgegenzuwirken und das industrielle Wachstum zu unterstützen. Die Regierung plant, etwa 2,5 Billionen Won zu investieren, während das Konsortium eine spezielle Zweckgesellschaft gründen wird, um die Finanzierung zu sichern. Nach zwei gescheiterten Ausschreibungen im Mai und Juni wurden die Bedingungen geändert, um private Investitionen zu fördern. Minister Bae Kyung-hoon hebt hervor, dass das Zentrum als Plattform für das Wachstum des KI-Ökosystems in Südkorea dienen soll.
Microsoft makes mind-blowing breakthrough that could revolutionize AI: 'We needed to prove the technology'
Microsoft hat eine innovative Kühltechnologie entwickelt, die das Potenzial hat, die Hardware für künstliche Intelligenz grundlegend zu verändern und den Energieverbrauch von KI-Systemen zu senken. Das neue Mikrofluidik-Kühlsystem leitet Flüssigkeitsenergie direkt auf die Siliziumoberfläche von Chips und kann die Temperatur von Grafikprozessoren um bis zu 65 % reduzieren, während es dreimal effizienter kühlt als herkömmliche Systeme. Durch das Ätzen ultradünner Rillen auf den Chips kann das Kühlmittel gezielt über die Oberfläche fließen, unterstützt von KI, die heiße Stellen in Echtzeit erkennt. Diese Technologie wurde erfolgreich auf einem Server getestet, der Microsoft Teams-Meetings simulierte. Ihre Implementierung könnte die Effizienz von Serverfarmen steigern, Kosten für Verbraucher senken und die Umweltbelastung verringern, da weniger Energie für Kühlung benötigt wird. Zudem könnte sie den Bau neuer Rechenzentren überflüssig machen, indem sie dichtere Server ermöglicht. Microsoft-Experten betonen, dass diese Innovation entscheidende Fortschritte in Bezug auf Kosten, Zuverlässigkeit, Geschwindigkeit und Nachhaltigkeit mit sich bringt.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.