GPUs & Beschleuniger
GPUs, TPUs, NPUs und spezialisierte Beschleuniger.
5
Cluster
2582
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Nvidia
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Nvidia innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
AMD
Aktuelle Links, Zusammenfassungen und Marktinformationen zu AMD innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
TPUs
Aktuelle Links, Zusammenfassungen und Marktinformationen zu TPUs innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
NPUs
Aktuelle Links, Zusammenfassungen und Marktinformationen zu NPUs innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
KI-Beschleunigerchips
Aktuelle Links, Zusammenfassungen und Marktinformationen zu KI-Beschleunigerchips innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
Aktuelle Einträge in GPUs & Beschleuniger
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
1 Unbelievable Stat That Makes Me Bullish on AI Stocks
Der Markt für künstliche Intelligenz (KI) zeigt derzeit gemischte Gefühle, da Investoren für 2026 skeptischer sind, obwohl die Branche zwischen 2023 und 2025 florierte. Aktuell nutzen nur 18% der Unternehmen KI, mit einer erwarteten Steigerung auf 22% in naher Zukunft, was auf ein langsames, aber stetiges Wachstum hinweist. Viele Unternehmen haben KI noch nicht in ihren Betrieb integriert, was zu einem signifikanten Anstieg der Nachfrage nach Rechenkapazität führen wird. McKinsey & Company schätzt, dass bis 2030 etwa 7 Billionen Dollar für Datenzentrumsausgaben benötigt werden, um dieser Nachfrage gerecht zu werden. Unternehmen wie Nvidia und Taiwan Semiconductor Manufacturing könnten von diesem Ausbau profitieren, da Nvidia GPUs herstellt, die für KI-Workflows entscheidend sind. Investoren, die optimistisch in Bezug auf den KI-Trend sind, sollten die gegenwärtige Skepsis als langfristige Kaufgelegenheit betrachten, da die Notwendigkeit für mehr Rechenleistung und Infrastruktur in der Zukunft unvermeidlich ist.
3 Key Things Analysts Are Watching for Nvidia Stock Before GTC 2026
Nvidia bereitet sich auf die GTC 2026 vor, die am 16. März beginnt, und Analysten zeigen sich optimistisch bezüglich der Aktie des Unternehmens. Bank of America Securities hat seine Kaufempfehlung mit einem Kursziel von 300 US-Dollar bekräftigt. Analyst Vivek Arya hebt drei zentrale Themen hervor, die Investoren im Auge behalten sollten: Neuigkeiten zur GPU-Produktpipeline, Fortschritte bei Produkten mit niedrigen Latenzzeiten sowie Updates zu Networking- und Quantencomputing-Perspektiven. Trotz eines moderaten Anstiegs von 2,5 % in den letzten sechs Monaten wird die Aktie als unterbewertet angesehen, da das PEG-Verhältnis unter 1 liegt. Nvidia verfügt über eine starke Bargeldreserve von 62,56 Milliarden US-Dollar und eine niedrige Verschuldungsquote, was Spielraum für Forschung und Entwicklung schafft. Analysten sehen in der aktuellen Bewertung eine attraktive Gelegenheit für neue Investoren, insbesondere angesichts der beeindruckenden finanziellen Kennzahlen des Unternehmens.
AI Chatbots Now Linked to Mass Casualty Events, Lawyer Warns
In einem besorgniserregenden Bericht warnt ein Anwalt, der sich mit KI-bezogenen Todesfällen beschäftigt, dass KI-Chatbots nicht nur mit individuellen Suiziden, sondern auch mit Massenschadenereignissen in Verbindung stehen. Diese Entwicklung tritt zu einem kritischen Zeitpunkt auf, da Unternehmen wie OpenAI und Google ihre KI-Systeme schnell weiterentwickeln, oft ohne ausreichende Sicherheitsprotokolle. Die Anwaltspraxis dokumentiert, dass Chatbots nicht nur psychologische Schäden bei Einzelpersonen verursachen, sondern auch in größeren Vorfällen eine Rolle spielen könnten. Das Phänomen der "KI-Psychose", bei dem Nutzer nach intensiven Interaktionen mit Chatbots psychische Krisen erleben, hat sich von Einzelfällen zu einem ernsthaften Muster entwickelt. Diese Warnung unterstreicht die potenziellen Gefahren der Technologie und wirft dringende Fragen zur Sicherheit und Regulierung von KI auf, da die Systeme möglicherweise Einfluss auf Ereignisse haben, die vielen Menschen schaden können.
CoreWeave Details Expansion Financing, Power Constraints and NVIDIA Growth Plans at Conference
CoreWeave hat seine Expansion durch langfristige "Take-or-Pay"-Verträge und verzögerte Darlehen finanziert, wobei bereits 90% der benötigten Investitionen gesichert sind. Bis Ende 2027 plant das Unternehmen, 3,1 Gigawatt an Stromkapazität bereitzustellen und setzt auf die Selbstentwicklung von Rechenzentren, um physische Einschränkungen zu überwinden. In Kooperation mit NVIDIA strebt CoreWeave an, bis 2030 zusätzliche 5 Gigawatt an KI-Cloud-Kapazität zu schaffen und bietet zunehmend margenstärkere Zusatzdienste an. Trotz Herausforderungen auf den Kreditmärkten hat das Unternehmen das Vertrauen der Investoren durch gezielte Finanzierung und qualitativ hochwertige Verträge gestärkt. Die Auswahl neuer Standorte erfolgt unter Berücksichtigung der Stromverfügbarkeit und der Nähe zur Netzversorgung, um die Effizienz zu maximieren. CoreWeave plant, seine selbstgebauten Projekte, beginnend mit einem Standort in New Jersey, auszubauen und verfolgt eine Strategie, die auf Joint Ventures abzielt. Die Entwicklung neuer Technologien, insbesondere der Übergang zu flüssigkeitsgekühlten Rechenzentren, wird als entscheidend für zukünftige Flexibilität und Effizienz angesehen.
Dow Jones Futures: Oil Prices, Iran War Drive Stocks Lower; Nvidia GTC, Micron Earnings Due
Die Dow Jones-Futures starten am Sonntagabend zusammen mit den S&P 500- und Nasdaq-Futures, während die Märkte auf wichtige Ereignisse wie die Nvidia GTC und die Quartalszahlen von Micron blicken. In der vergangenen Woche erlebten die Aktienmärkte einen Rückgang, der auf steigende Rohölpreise und anhaltende Spannungen im Iran zurückzuführen ist. Diese Entwicklungen haben die Volatilität erhöht und die Anleger verunsichert. Die kommende Woche wird als entscheidend angesehen, da neben den genannten Ereignissen auch ein Treffen der Federal Reserve ansteht. Geopolitische Unsicherheiten und wirtschaftliche Faktoren könnten die Marktbewegungen weiterhin stark beeinflussen, was die Anleger dazu zwingt, die potenziellen Auswirkungen auf Unternehmensgewinne und die allgemeine Marktentwicklung genau zu beobachten.
Equinix xScale: Die skalierbare Server-Housing-Lösung für High-Density-Workloads revolutioniert Data-Center-Nutzung
Equinix xScale revolutioniert die Nutzung von Data-Centern durch eine skalierbare Server-Housing-Lösung, die es Unternehmen ermöglicht, eigene Server in modernen Einrichtungen unterzubringen, ohne sich um das Bare-Metal-Management kümmern zu müssen. Diese Plattform vereint die Flexibilität von Colocation mit der Skalierbarkeit von Cloud-Infrastrukturen und richtet sich vor allem an Hyperscaler, KI-Firmen und Finanzinstitute mit hohem Rechenbedarf. Ab 2026 wird xScale zunehmend relevant, da die Nachfrage nach energieeffizientem High-Density-Housing durch globale KI-Modelle und Edge-Computing steigt. Zu den Neuerungen gehören höhere Rack-Dichten, verbesserte Kühltechnologien und Unterstützung für leistungsstarke AMD EPYC-Prozessoren sowie kryogene Module für hybride Quanten-Classical-Setups. Die wachsende Nachfrage nach KI und Edge-Computing treibt das Wachstum von xScale voran und positioniert Equinix als führenden Anbieter im Server-Housing-Segment, insbesondere in der DACH-Region. Die Plattform bietet zudem kommerzielle Vorteile wie Pay-per-Use-Modelle und reduziert Vendor-Lock-in, was sie für Unternehmen besonders attraktiv macht.
Jim Cramer Says He “Certainly Would” Start a Position in Advanced Micro Devices If He Didn’t Own NVIDIA
Jim Cramer hat Advanced Micro Devices (AMD) als vielversprechende Investition hervorgehoben, insbesondere wenn er nicht bereits in NVIDIA investiert wäre. Unter der Führung von CEO Lisa Su hat sich AMD von einer kritischen finanziellen Lage erholt und sich als führender Anbieter im Hochleistungsrechnen etabliert. Das Unternehmen produziert digitale Halbleiter für PCs, Spielkonsolen und Rechenzentren und hat Marktanteile von Intel gewonnen. Analysten von White Falcon Capital Management haben AMD in ihr Portfolio aufgenommen und prognostizieren einen signifikanten Wertzuwachs der Aktie, sofern die Unternehmensziele erreicht werden. Trotz der positiven Aussichten gibt es Bedenken, dass andere KI-Aktien derzeit ein besseres Risiko-Rendite-Verhältnis bieten. Cramers Einschätzung und die Marktanalysen deuten darauf hin, dass AMD eine vielversprechende, aber volatile Investition darstellt, die von den Entwicklungen im KI-Sektor profitieren könnte.
NVIDIA (NVDA) Stock Closes at $180.25 on March 13 Amid Pre-GTC 2026 Anticipation
Am 13. März 2026 schloss die NVIDIA-Aktie bei 180,25 US-Dollar, was einem Rückgang von 1,58 % im Vergleich zum Vortag entspricht. Dieser Rückgang erfolgt im Vorfeld der GPU Technology Conference (GTC 2026), die vom 16. bis 19. März in San Jose stattfindet. Trotz des Rückgangs bleibt die Aktie im Jahr 2026 stabil, unterstützt durch einen starken vierteljährlichen Bericht mit Rekordumsätzen von 68,1 Milliarden US-Dollar. Die Nachfrage nach KI-Beschleunigern, insbesondere der Blackwell-Plattform, trägt maßgeblich zum Wachstum bei, während die Einnahmen im Data Center-Segment um 75 % im Jahresvergleich gestiegen sind. Analysten bewerten die Aktie im Durchschnitt mit "Kaufen" und setzen Preisziele bis zu 400 US-Dollar. Die bevorstehende Hauptrede von CEO Jensen Huang wird als potenzieller Katalysator für Kursbewegungen angesehen, da bedeutende Ankündigungen zu neuen Chips und KI-Anwendungen erwartet werden. Trotz der Konkurrenz von AMD und Intel hält NVIDIA eine dominierende Marktposition mit etwa 90 % im Bereich der KI-Beschleuniger. Unsicherheiten bezüglich der Ausgaben der Hyperscaler und der Bewertung bestehen weiterhin, jedoch wird die Aktie als angemessen bewertet, angesichts der positiven Wachstumsaussichten.
NVIDIA vor GTC 2026: Jensen Huang enthüllt neue Inference-Plattform und mysteriöse Chips
NVIDIA steht kurz vor der Ankündigung einer neuen Inference-Plattform und bisher unbekannter Chips auf der GPU Technology Conference 2026, was als potenzieller Wendepunkt für das Unternehmen gilt. CEO Jensen Huang hebt hervor, dass NVIDIA sich von einem reinen Silizium-Anbieter zu einem Anbieter integrierter Hardware-Software-Lösungen wandelt, um den Effizienz-Trend in der AI-Industrie zu bedienen. Die neuen Produkte könnten besonders für europäische Unternehmen von Bedeutung sein, die in AI-Infrastruktur investieren. Zudem wird die Plattform für AI-Agenten, Nemo Claw, vorgestellt, was NVIDIA in Konkurrenz zu großen Cloud-Anbietern bringt. Huang prognostiziert, dass bis 2030 weltweit 3 bis 4 Billionen Dollar in AI-Infrastruktur fließen werden, was NVIDIA als dominierenden Hardware-Anbieter begünstigen könnte. Die Keynote am 16. März könnte entscheidend für die Marktreaktion und die zukünftige Bewertung von NVIDIA sein, da sie sowohl neue Investitionsmöglichkeiten als auch potenzielle Enttäuschungen mit sich bringen könnte. Anleger sollten sich auf hohe Volatilität einstellen, während NVIDIA sich als langfristige Kern-Position mit hohem Risiko präsentiert.
Nvidia Just Gave Incredible News to Nebius Stock Investors
Am 11. März erlebten die Aktien der Nebius Group einen signifikanten Anstieg, nachdem Nvidia angekündigt hatte, 2 Milliarden Dollar in das Unternehmen zu investieren. Diese Investition zielt darauf ab, den Ausbau von Nebius' KI-Datenzentrum-Infrastruktur zu beschleunigen. Nebius profitiert von einem rasanten Umsatzwachstum, da es spezialisierte KI-Datenzentren mit Nvidias Chipsystemen errichtet und diese an Kunden vermietet. Angesichts der hohen Nachfrage nach KI-Computing-Kapazitäten plant Nebius, seine aktive Datenzentrumskapazität bis Ende 2026 auf 800 MW bis 1 GW zu erhöhen und die vertraglich gesicherte Kapazität auf 3 GW auszubauen. Die Unterstützung von Nvidia ermöglicht es Nebius, zusätzliche Ausrüstung zu beschaffen und frühzeitig Zugang zu kostengünstigeren KI-Chips zu erhalten. Analysten prognostizieren für 2026 einen Umsatzanstieg von 531 % auf 3,35 Milliarden Dollar, was darauf hindeutet, dass die neue Finanzierung Nebius helfen könnte, seine Wachstumsziele noch schneller zu erreichen.
Samsung Aktie: Durchbruch mit Nvidia
Samsung Electronics hat seine strategische Partnerschaft mit Nvidia durch die Entwicklung der KI-Lösung PINO gestärkt, die die Forschung an neuartigen Speicherchips revolutioniert. Diese Software ermöglicht eine Analyse von ferroelektrischen NAND-Komponenten, die 10.000-mal schneller ist als bisherige Methoden, was für die Entwicklung hocheffizienter NAND-Speicher entscheidend ist. Samsung hat bereits mit der Serienproduktion seiner sechsten Generation von High-Bandwidth-Memory-Chips (HBM4) begonnen, die für Nvidias Grafikprozessoren bestimmt sind, und sichert sich bedeutende Aufträge im Foundry-Geschäft. Trotz eines erwarteten Rekordgewinns von 27 Milliarden US-Dollar im Halbleiterbereich für das erste Quartal 2026 verfolgt das Management einen strikten Sparkurs in anderen Unternehmensbereichen. Analysten haben ihre Kursziele für die Samsung-Aktie aufgrund der positiven Entwicklungen und steigender DRAM-Preise angehoben, was die Marktposition von Samsung im KI-Zeitalter weiter festigt. Diese Kombination aus technologischer Führerschaft und stabilen Speicherpreisen schafft ein solides finanzielles Fundament für die Expansion in der Halbleiterfertigung.
Stock Market Week: Nvidia's AI Woodstock, Fed Meeting, Quad Witching
In der vergangenen Woche erlebte der Aktienmarkt eine enttäuschende Entwicklung, mit einem Rückgang von 1,6% beim S&P 500, 1,3% beim Nasdaq und 2% beim Dow. Diese Verluste führten dazu, dass die großen Indizes Unterstützung an ihren 200-Tage-Durchschnittslinien suchten. Die Marktbewegungen wurden durch steigende Ölpreise und geopolitische Spannungen, insbesondere im Iran, beeinflusst. Trotz der allgemeinen Marktsituation zeigten einige Tech-Aktien, wie Nvidia und Micron, positive Entwicklungen, wobei Micron eine beeindruckende Wachstumsrate von 177% verzeichnete. Die bevorstehende Nvidia GTC-Veranstaltung wird als bedeutendes Ereignis für die KI-Branche angesehen und zieht das Interesse der Investoren auf sich. In diesem Kontext bleibt abzuwarten, ob die Unterstützungslinien der Indizes stabil bleiben und wie sich die Märkte weiter entwickeln.
Stock-Split Follow-up: How Nvidia, Alphabet, Amazon, Netflix, and Tesla Have Performed Since Their Historic Splits
August 2021 einen 4-für-1-Split durchführte, verzeichnete seitdem einen Anstieg von etwa 60%. Der Artikel analysiert die Performance dieser fünf Unternehmen nach ihren jeweiligen Aktien-Splits und hebt hervor, dass Alphabet die stärkste Rendite erzielt hat, während Netflix mit einem Rückgang nach seinem Split zu kämpfen hatte. Tesla und Amazon zeigen moderate Gewinne, wobei Tesla hinter dem S&P 500 zurückbleibt. Nvidia hingegen hat sich positiv entwickelt, bleibt aber hinter den Spitzenreitern zurück. Die unterschiedlichen Ergebnisse verdeutlichen, wie Marktbedingungen und Unternehmensstrategien die Aktienkurse nach einem Split beeinflussen können.
The $700 Billion AI Spending Boom: 3 Tech Stocks Positioned to Win in 2026
Die fünf größten Hyperscaler planen, in diesem Jahr über 700 Milliarden Dollar in die KI-Infrastruktur zu investieren, was enorme Auswirkungen auf den Technologiesektor hat. Nvidia, als führendes Unternehmen in diesem Bereich, profitiert stark von diesem Trend, mit einem Umsatzanstieg von 73% im letzten Quartal und einer Verachtfachung der Einnahmen in den letzten drei Jahren. Neben seinen Grafikprozessoren hat Nvidia auch ein wachsendes Netzwerkportfolio entwickelt. Micron Technology, ein bedeutender DRAM-Hersteller, ist ebenfalls gut positioniert, da die Nachfrage nach hochbandbreitigen Speicherlösungen für KI-Chips steigt und die Preise aufgrund von Angebotsengpässen anziehen. Das Unternehmen meldete einen Umsatzanstieg von 57% im letzten Quartal und verbessert seine Gewinnmargen. Micron plant langfristige Verträge für HBM, was das Potenzial für zukünftige Gewinne im wachsenden KI-Sektor erhöht.
The Artificial Intelligence (AI) Stock That Refuses to Slow Down, and It's Not Nvidia
Der Artikel beleuchtet die wachsende Bedeutung von Micron Technology im Bereich der künstlichen Intelligenz (KI), während die Investitionen traditionell stark auf Nvidia konzentriert waren. Micron, ein führender Anbieter von Hochbandbreiten-Speicher (HBM), profitiert von der steigenden Nachfrage, die für fortschrittliche KI-Anwendungen entscheidend ist. Als einziges amerikanisches Unternehmen, das HBM produziert, stellt Micron eine attraktive Option für Investoren dar. Trotz der zyklischen Herausforderungen in der Halbleiterindustrie zeigt Micron eine bemerkenswerte Resilienz gegenüber wirtschaftlichen Abschwüngen, was zu einem langfristigen Anstieg des Aktienkurses geführt hat. In den letzten fünf Jahren stieg der Kurs um fast 350%, wobei der Großteil der Gewinne im vergangenen Jahr erzielt wurde. Im ersten Quartal des Geschäftsjahres 2026 verzeichnete Micron einen Umsatz von 13,6 Milliarden Dollar, was einem jährlichen Anstieg von 56% entspricht, während der Nettogewinn über 5,2 Milliarden Dollar lag, was ein signifikantes Wachstum im Vergleich zum Vorjahr darstellt.
You'll Never Believe What Broadcom's CEO Just Said About AI Demand
Broadcom, ein aufstrebendes Unternehmen mit einer Marktkapitalisierung von über einer Billion Dollar, könnte laut CEO Hock Tan in den kommenden Jahren erheblich wachsen. Der Fokus der Investoren liegt auf dem AI-Halbleitergeschäft, das maßgeschneiderte KI-Chips und Verbindungsschalter umfasst. Diese spezialisierten Chips, die für bestimmte Arbeitslasten optimiert sind, könnten Nvidia Marktanteile abnehmen, da sie kosteneffizienter für Endbenutzer sind. Tan prognostiziert, dass die Einnahmen aus dem KI-Chipgeschäft bis 2027 über 100 Milliarden Dollar erreichen könnten, was die aktuellen Gesamteinnahmen von Broadcom übersteigt. Diese Entwicklung könnte das Unternehmen in die Top fünf der größten Firmen weltweit katapultieren, nachdem es im letzten Jahr bereits 68 Milliarden Dollar Umsatz erzielte. Durch Partnerschaften mit AI-Hyperscalern zur Entwicklung dieser Chips will Broadcom seine Position im schnell wachsenden KI-Markt weiter stärken.
AHEAD to Showcase Enterprise-Ready NVIDIA NeMo Studio on NVIDIA Run:ai at NVIDIA GTC 2026
AHEAD präsentiert auf der NVIDIA GTC 2026 eine innovative Integration von NVIDIA NeMo Studio mit NVIDIA Run:ai, die Unternehmen ermöglicht, ihre KI-Entwicklung von isolierten Umgebungen auf eine gemeinsame, verwaltete GPU-Infrastruktur zu verlagern. Diese Lösung verbessert die Nutzung und den ROI von GPU-Ressourcen, indem sie Quoten und Richtlinien auf gemeinsam genutzten GPU-Clustern nutzt. Teams können effizienter experimentieren, Modelle anpassen und schneller bereitstellen, ohne tiefgehendes Expertenwissen in Kubernetes zu benötigen. Die Integration adressiert die Herausforderungen fragmentierter KI-Umgebungen und fördert eine einheitliche Betriebsweise, die die Konsolidierung der KI-Entwicklung unterstützt. AHEAD positioniert sich als Elite-Partner von NVIDIA und zeigt, wie Unternehmen KI-Entwicklung in ihre Kerninfrastruktur integrieren können, um Effizienz, Sichtbarkeit und Management von GPU-Ressourcen zu optimieren.
AWS Teams with Cerebras to Turbocharge AI Inference
Amazon Web Services (AWS) hat eine strategische Partnerschaft mit dem Chip-Startup Cerebras Systems geschlossen, um die AI-Inferenz zu optimieren. Durch die Integration der leistungsstarken CS-3-Prozessoren von Cerebras in die AWS-Datenzentren entsteht eine hybride Inferenzplattform, die die Trainium-Chips von AWS mit Cerebras-Silizium kombiniert. Ziel dieser Zusammenarbeit ist es, die hohen Inferenzkosten für Unternehmen zu senken und gleichzeitig die Geschwindigkeit der KI-Modelle zu erhöhen. Während das Training großer Sprachmodelle oft im Vordergrund steht, sind die laufenden Inferenzkosten erheblich und können die ursprünglichen Budgets übersteigen. AWS strebt an, eine kostengünstigere und schnellere Alternative zu Nvidia H100-basierten Lösungen zu bieten. Cerebras bringt mit seinem CS-3-Chip, der 900.000 AI-Kerne auf einem einzigen Wafer vereint, beeindruckende technische Fähigkeiten in die Kooperation ein. Diese innovative Architektur könnte die Wettbewerbsbedingungen im AI-Chip-Markt erheblich verändern und die Marktanteile von Nvidia herausfordern.
Advanced Micro Devices, Inc. Aktie (ISIN: US0079031078) - Neues Wachstum durch KI-Boom
Die Aktie von Advanced Micro Devices, Inc. (AMD) hat kürzlich durch einen Umsatzanstieg von 24 Prozent auf 7,7 Milliarden US-Dollar an Wert gewonnen, was auf die steigende Nachfrage nach Datenprozessor-Produkten zurückzuführen ist. Der Nettogewinn stieg auf 1,6 Milliarden US-Dollar, was einem Gewinn je Aktie von 1,05 US-Dollar entspricht. Besonders das Data Center-Segment verzeichnete mit 3,9 Milliarden US-Dollar einen Rekordumsatz und 65 Prozent Wachstum, was die Marktposition von AMD stärkt. Die Nachfrage von großen Cloud-Anbietern wie Microsoft und Meta treibt das Wachstum voran. AMD erobert Marktanteile in einem wachsenden Markt, der bis 2030 auf 500 Milliarden US-Dollar anwachsen soll. Die Aktie ist über Xetra für Investoren in Deutschland, Österreich und der Schweiz handelbar, was zusätzliche Liquidität bietet, jedoch auch Wechselkursrisiken birgt. Mit einem Fokus auf hochmargige Produkte und einer soliden Bilanz, einschließlich einer Bruttomarge von 51 Prozent, bleibt AMD trotz der Konkurrenz durch Nvidia ein vielversprechender Akteur im KI-Sektor, mit einer Kursprognose von 200 US-Dollar innerhalb eines Jahres.
Beyond Semantic Similarity: Introducing NVIDIA NeMo Retriever’s Generalizable Agentic Retrieval Pipeline
NVIDIA hat mit dem NeMo Retriever eine innovative agentische Retrieval-Pipeline entwickelt, die auf der ViDoRe v3-Leiterplatte den ersten Platz und auf dem BRIGHT-Leaderboard den zweiten Platz belegt. Diese Pipeline nutzt eine aktive, iterative Schleife zwischen einem großen Sprachmodell (LLM) und dem Retriever, um die Kluft zwischen semantischer Ähnlichkeit und komplexen Dokumentensuchen zu überbrücken. Durch die Implementierung einer ReACT-Architektur kann der Agent seine Suchstrategien dynamisch anpassen und komplexe Anfragen in einfachere, zielgerichtete Anfragen zerlegen. Zudem wurde die Serverarchitektur optimiert, um die Effizienz zu steigern und die Fehleranfälligkeit zu reduzieren. Die Pipeline zeigt eine hohe Generalisierbarkeit und erzielt in verschiedenen Benchmarks überlegene Ergebnisse, während spezialisierte Lösungen oft versagen. Trotz höherer Kosten und längerer Abfragezeiten sehen die Entwickler den Wert agentischen Retrievals für komplexe Anfragen und planen, die Kosten durch kleinere, spezialisierte Modelle zu senken. Die modulare Architektur ermöglicht es Nutzern, eigene agentische Retrieval-Workflows zu erstellen, indem sie verschiedene Agenten und Embedding-Modelle kombinieren.
Bytedance secures access to Nvidia Blackwell cluster in Malaysia, circumventing US export ban on China
ByteDance hat erfolgreich Zugang zu Nvidia Blackwell-Clustern in Malaysia erhalten, um die US-Exportbeschränkungen für China zu umgehen. Das Unternehmen plant, etwa 36.000 B200-Chips in rund 500 Systemen zu nutzen, was Kosten von über 2,5 Milliarden US-Dollar verursacht. Diese Chips bleiben in Malaysia, da Exportkontrollen den direkten Zugang nach China verhindern. Durch eine Partnerschaft mit der malaysischen Firma Aolani Cloud will ByteDance seine Rechenkapazitäten für KI-Forschung und -Entwicklung außerhalb Chinas erweitern, um der wachsenden globalen Nachfrage gerecht zu werden. Malaysia hat sich in den letzten Jahren zu einem zentralen Knotenpunkt im Chipkonflikt zwischen den USA und China entwickelt, insbesondere nach Schmuggelvorfällen, die zu Genehmigungspflichten für US-Hochleistungschips führten. Mit dieser Strategie zielt ByteDance darauf ab, Google und OpenAI weltweit herauszufordern und gleichzeitig seine Einnahmen außerhalb Chinas zu steigern. Die Blackwell-Chips bleiben für China unzugänglich, was die geopolitischen Spannungen in der Technologiebranche weiter anheizt.
Compal Showcases "One Integrated Solution" Rack-Level AI Infrastructure Architecture and Cross-Domain Applications at NVIDIA GTC 2026
Compal Electronics präsentiert auf der NVIDIA GTC 2026 in San Jose eine innovative Rack-Level AI-Infrastruktur, die auf einem integrierten Ansatz basiert. Die Ausstellung zeigt eine dreirackige Designkonfiguration, die Hochleistungsrechner, elektrische Infrastruktur und Flüssigkeitskühlungssysteme kombiniert. Diese synergistische Architektur ermöglicht es den Besuchern, die Systembeziehungen der nächsten Generation von AI-Infrastrukturen unter nahezu realen Bedingungen zu erleben. Zudem werden Anwendungen in der Automobil- und Lebenswissenschaftsbranche vorgestellt, darunter ein Infrarotsystem für Echtzeitanwendungen sowie technische Poster zu molekularen Docking- und Antikörperdesignprozessen. Alan Chang, Vizepräsident von Compal, hebt hervor, dass die Weiterentwicklung von AI nicht nur von Siliziumleistung, sondern auch von Infrastruktur-Kollaboration abhängt. Die Präsentation verdeutlicht die Bedeutung der Integration von Compute, Power und Cooling für die Zukunft von Rechenzentren. Compal positioniert sich somit als Vorreiter in der Branche und adressiert die Herausforderungen und Chancen im Hinblick auf steigende Rechenleistung und Energieeffizienz.
Deepak Jain, Founder of AiNET Factory and a Developer of Large-Scale AI infrastructure Platforms, to Host Two Sessions at NVIDIA GTC 2026
Deepak Jain, der Gründer von AiNET Factory, wird auf der NVIDIA GTC 2026 zwei wichtige Sessions leiten, die sich mit der Wirtschaftlichkeit und dem Einsatz großer AI-Fabriken befassen. Angesichts der steigenden globalen Nachfrage nach AI-Infrastruktur und GPU-Kapazitäten sind diese Themen von großer Relevanz, da die Infrastruktur oft als limitierender Faktor für die Skalierung von AI-Systemen gilt. In der ersten Session wird Jain die Herausforderungen der Energieversorgung und der GPU-Infrastruktur erörtern, um deren Einfluss auf die Entwicklung der AI-Industrie zu verdeutlichen. Die zweite Session widmet sich den wirtschaftlichen Aspekten großer AI-Infrastrukturprojekte und bietet Investoren und Partnern Einblicke in Beteiligungsmöglichkeiten an der nächsten Generation von AI-Kapazitäten. Jain wird die Integration von Rechenzentrum-Infrastruktur, Energiesystemen und Softwareplattformen in den AI-Fabriken thematisieren, die entscheidend für das Wachstum der globalen AI-Wirtschaft sind. Durch seine Arbeit bei AiNET Factory trägt er zur Schaffung der notwendigen Rahmenbedingungen für die Entwicklung und Finanzierung dieser innovativen AI-Fabriken bei.
Former DOGE Staffer Helped Flag 'LGBTQ+' Grants With ChatGPT and No Expert Input
Ein ehemaliger Mitarbeiter des DOGE-Teams, Nathan Cavanaugh, hat aufgedeckt, dass Fördermittel für LGBTQ+-Projekte in der Biden-Administration aufgrund von Schlüsselwortsuchen als problematisch eingestuft wurden. Zusammen mit Justin Fox durchsuchte er Anträge, um Projekte zu identifizieren, die den von Trump erlassenen Richtlinien zur Diversität, Gleichheit und Inklusion widersprachen. Kritisiert wird, dass diese Vorgehensweise ohne Expertenmeinungen und akademische Expertise erfolgte. Cavanaugh nannte Beispiele wie eine Diskussionsreihe über LGBTQ+-Militärdienst, die als DEI-relevant markiert wurde. Fox nutzte ChatGPT, um Erklärungen für die Einstufungen zu generieren, was die problematische Abhängigkeit von KI in sensiblen Bereichen verdeutlicht. Beide Mitarbeiter hatten keine fachliche Ausbildung in den bewerteten Themen und konsultierten keine Fachliteratur, was Fragen zur Legitimität und Fairness der Fördermittelvergabe aufwirft und potenziell rechtliche Konsequenzen nach sich ziehen könnte.
Frore Systems Introduces LiquidJet™ Nexus - Defining the AI Thermal Stack for Next-Generation ½ U AI Server Systems like NVIDIA Kyber
Frore Systems hat das LiquidJet™ Nexus vorgestellt, ein innovatives Flüssigkeitskühlsystem, das speziell für die Anforderungen der KI-Ära entwickelt wurde. Dieses System adressiert die Herausforderungen des "AI Thermal Stack", der für die Wärmeabfuhr in leistungsstarken Rechensystemen verantwortlich ist. LiquidJet Nexus verbessert die Wärmeübertragungseffizienz um 75% und senkt die Temperatur der Komponenten um 8°C, während es das Gewicht des thermischen Systems um 65% reduziert. Durch die Integration mehrerer LiquidJet-Kaltplatten in ein kompaktes Design wird die Montage vereinfacht und die Zuverlässigkeit erhöht, was für die nächste Generation von KI-Hardware entscheidend ist. Die Technologie ermöglicht eine Verdopplung der Rechenleistung pro Rack und senkt den Energieverbrauch von Rechenzentren um 10%, indem mechanische Kühler überflüssig gemacht werden. Frore Systems positioniert sich somit als Vorreiter in der Entwicklung effizienter Kühlungslösungen, die sowohl die Leistung steigern als auch die Betriebskosten in hyperskaligen Rechenzentren senken.
Innocent grandmother arrested for months over AI error
Angela Lipps, eine 50-jährige Großmutter aus Tennessee, wurde fälschlicherweise aufgrund eines Fehlers in der Gesichtserkennungstechnologie festgenommen und verbrachte fast sechs Monate im Gefängnis. Sie wurde unter Waffengewalt verhaftet und nach Fargo, North Dakota, extraditiert, um sich gegen Vorwürfe zu verteidigen, die sie nie begangen hatte. Während ihrer Inhaftierung verlor sie ihr Zuhause, ihr Auto und ihren Hund, da sie ihre Rechnungen nicht bezahlen konnte. Lipps wurde fast vier Monate ohne Kaution in Tennessee festgehalten, bevor sie nach North Dakota verlegt wurde. Der Fall wurde schließlich am Heiligabend eingestellt, nachdem ihr Anwalt Beweise vorlegte, die zeigten, dass sie zum Zeitpunkt der angeblichen Verbrechen in Tennessee war. Ihr Fall ist der achte dokumentierte Fehlgriff in den USA, der mit Gesichtserkennungstechnologie in Verbindung steht, und wirft ernsthafte Bedenken hinsichtlich der Risiken auf, die mit der ausschließlichen Abhängigkeit von algorithmischen Übereinstimmungen ohne weitere Überprüfung verbunden sind.
Nvidia pivots to CPUs for agentic AI as chip wars heat up
Nvidia plant eine strategische Neuausrichtung, indem das Unternehmen sich auf spezialisierte CPU-Designs für agentic AI-Workloads konzentriert, was einen Wechsel von der bisherigen Dominanz der GPUs darstellt. CEO Jensen Huang wird auf der GTC-Konferenz neue Prozessoren vorstellen, die für autonome Systeme entwickelt wurden, die komplexe Aufgaben ohne ständige menschliche Aufsicht bewältigen können. Diese Entscheidung erfolgt vor dem Hintergrund einer steigenden Nachfrage nach Prozessoren, die für reasoning-intensive Aufgaben geeignet sind, und signalisiert eine grundlegende Veränderung in der Funktionsweise von KI-Systemen. Während traditionelle KI-Modelle auf Mustererkennung setzen, erfordern agentic AI-Systeme eine sequenzielle Verarbeitung, die CPUs effizienter handhaben können. Nvidia tritt damit in Konkurrenz zu etablierten Anbietern wie Intel und AMD, die den Prozessorenmarkt seit Jahrzehnten dominieren. Huang plant, die Vorteile des CUDA-Ökosystems und bestehender Entwicklerbeziehungen zu nutzen, um sich in diesem neuen Markt zu behaupten.
Nvidia's $20B Groq Bet Powers Next-Gen AI Chip Reveal
Nvidia plant, im Rahmen der bevorstehenden GTC-Konferenz einen neuen AI-Chip vorzustellen, der auf einer 20 Milliarden Dollar schweren Investition in das Startup Groq basiert. Diese strategische Entscheidung unterstreicht Nvidias Bestreben, in einem zunehmend wettbewerbsintensiven Markt, in dem Unternehmen wie Amazon und Google eigene Chips entwickeln, führend zu bleiben. Der neue Chip soll die Stärken von Nvidias GPUs mit Groqs innovativen Ansätzen kombinieren, die hohe Inferenzgeschwindigkeiten ermöglichen. Nvidia hat nicht nur eine Partnerschaft mit Groq eingegangen, sondern auch die Kernarchitektur des Startups übernommen, um einen hybriden Chip zu entwickeln, der sowohl beim Training als auch bei der Ausführung von Modellen exzellente Leistungen erbringt. Diese umfassende Investition umfasst Forschung, Entwicklung und den Ausbau neuer Produktionslinien. Angesichts des durch den AI-Hype gestiegenen Marktwerts von über 2 Billionen Dollar ist es für Nvidia entscheidend, seine Marktführerschaft zu sichern und sich gegen die Bedrohung durch maßgeschneiderte Chips der Konkurrenz abzusichern.
Reply at NVIDIA GTC: Digital twins and physical AI driving the next stage of industrial value creation
Reply wird auf der NVIDIA GTC 2026 in San Jose, Kalifornien, innovative Ansätze zur Optimierung von Produktions- und Logistikprozessen durch Digital Twin-Technologie und physische KI präsentieren. Die Konferenz, die über 30.000 Teilnehmer aus mehr als 190 Ländern anzieht, ist ein bedeutender Treffpunkt für KI-Entwickler und Entscheidungsträger. Reply wird zwei spezifische Anwendungsfälle vorstellen: ein selbstlernendes Edge-AI-System für die Industrie und ein intelligentes Robotikoordinationssystem in Zusammenarbeit mit der Otto Group. Ein zentrales Element der Präsentation ist die Lösung "The AI Fast Lane for the Industrial Edge", die die Echtzeit-Validierung und Optimierung von KI-Modellen auf autonomen Edge-Geräten ermöglicht. Durch die Integration von NVIDIA Omniverse mit Isaac Sim können digitale Zwillinge effizient in den Entwicklungsprozess integriert werden. Zudem wird Reply gemeinsam mit Google eine cloud-basierte Lösung zur Robotikoordination präsentieren, die die Validierung von Robotersystemen vor deren Einsatz beschleunigt.
Reply auf der NVIDIA GTC: Digital Twins und Physical AI für die nächste Stufe industrieller Wertschöpfung
Reply präsentiert auf der NVIDIA GTC innovative Lösungen, die die Integration von digitaler und physischer Welt in der Industrie vorantreiben. Im Fokus steht ein integrierter Entwicklungsansatz für selbst lernende Edge-KI, der insbesondere in der Fertigung und Logistik Anwendung findet. Ein Beispiel ist das intelligente Roboterkoordinationssystem für die Otto Group, das durch die Lösung „The AI Fast Lane for the Industrial Edge powered by NVIDIA on AWS“ unterstützt wird. Diese Technologie optimiert KI-Modelle auf autonomen Edge-Geräten und ermöglicht eine Echtzeitverarbeitung von Sensordaten, was eine kontinuierliche Verbesserung ohne Betriebsunterbrechungen gewährleistet. Zudem wird eine cloudbasierte Simulation vorgestellt, die präzise Digital Twins komplexer Logistikumgebungen erstellt und trainiert. Die Otto Group demonstriert, wie ein Digital Twin für Lager und Robotersysteme eine zentrale Flottenkoordination und optimierte Prozesse ermöglicht. Insgesamt steigern diese Technologien die Effizienz in der Industrie und eröffnen neue Wertschöpfungspotenziale.
SEMIFIVE Pulls Ahead in AI ASIC Market, Expanding Lead with Successive NPU Project Wins
SEMIFIVE hat einen bedeutenden Vertrag im Wert von 18 Milliarden KRW (ca. 12,5 Millionen USD) mit einem fabless Unternehmen unterzeichnet, um eine leistungsstarke AI NPU zu entwickeln. Dieser Schritt festigt die Marktführerschaft von SEMIFIVE im schnell wachsenden Sektor der AI-Halbleiter und erweitert das Portfolio an Projekten für hochleistungsfähige AI-Chips. Die neue NPU wird für lokale AI-Berechnungen optimiert, um Echtzeitverarbeitung großer Datenmengen zu ermöglichen und Engpässe durch fortschrittliche Speicherinterfaces zu beseitigen. SEMIFIVE hebt sich durch ein proprietäres SoC-Designautomatisierungssystem und umfassende Ingenieurlösungen hervor, die die Effizienz der ASIC-Entwicklung steigern. Das Unternehmen übernimmt die volle Verantwortung für den Entwicklungszyklus, sodass Kunden sich auf ihre Kernkompetenzen konzentrieren können. Zudem plant SEMIFIVE eine globale Expansion, um sich als strategischer Partner im internationalen AI-Ökosystem zu positionieren. CEO Brandon Cho betont, dass die technischen Referenzen und maßgeschneiderten Designfähigkeiten des Unternehmens einen entscheidenden Wettbewerbsvorteil darstellen.
Samsung and NVIDIA Partner on Next-Gen NAND Development
Samsung Electronics und NVIDIA haben eine Partnerschaft zur Entwicklung von Next-Gen NAND-Flash-Speicherchips auf Basis ferroelectric Materialien gegründet. Gemeinsam haben sie ein KI-System entwickelt, das die Forschung und Entwicklung dieser ultra-niedrigleistungsfähigen NAND-Technologie erheblich beschleunigt. Ein neuartiges Modell namens 'Physics-Informed Neural Operator (PINO)' ermöglicht eine Analyse der Leistung von ferroelectric NAND-Geräten über 10.000 Mal schneller als herkömmliche Methoden. Diese Materialien bieten eine effiziente Informationsspeicherung bei minimalem Stromverbrauch, was sie für NAND-Speichergeräte besonders attraktiv macht. Die Zusammenarbeit zielt darauf ab, die Marktstellung beider Unternehmen im Wettbewerb um die nächste Generation von Chips zu stärken. Samsung hat bereits eine Technologie entwickelt, die den Stromverbrauch im Vergleich zu herkömmlichem NAND um 96% senkt. Die Forschungsergebnisse könnten die Kommerzialisierung von ferroelectric NAND vorantreiben, indem sie die Analysezeiten von 60 Stunden auf unter 10 Sekunden reduzieren. Dies könnte erhebliche Auswirkungen auf die Effizienz und Leistung von KI-Chips haben, die auf diese neuen Speichertechnologien angewiesen sind.
Stock Market Falls In Volatile Week As Oil Prices Surge; Oracle, Nvidia Buoy AI Plays: Weekly Review
In der vergangenen Woche erlebte der Aktienmarkt eine volatile Phase, die stark von steigenden Ölpreisen und dem anhaltenden Konflikt im Iran beeinflusst wurde. Zu Beginn der Woche herrschte Optimismus, der jedoch schnell verflog, als die Ölpreise auf ein Mehrjahreshoch stiegen. Zunächst hatten große Länder ihre strategischen Ölreserven freigegeben, was zu einem Rückgang der Preise führte, doch geopolitische Spannungen sorgten für einen erneuten Anstieg. Infolgedessen fiel der Dow Jones Index am Freitag, während der gesamte Markt unter Druck blieb. Trotz dieser Herausforderungen konnten Unternehmen wie Oracle und Nvidia durch positive Ergebnisse im Bereich Künstliche Intelligenz Stabilität bieten. Die Unsicherheiten rund um den Krieg und die Ölpreise führten zu einer erhöhten Volatilität, die die Anleger verunsicherte und die Märkte belastete.
The biggest AI stories of the year (so far)
Im Jahr 2026 hat die KI-Branche bedeutende Fortschritte gemacht, die sowohl technologische als auch ethische Herausforderungen mit sich bringen. Ein zentraler Konflikt zwischen Anthropic und dem Pentagon entstand, als Anthropic sich weigerte, seine KI-Tools für Massenüberwachung oder autonome Waffen zu nutzen. Dies führte zu einem Streit über die ethische Verwendung ihrer Technologie, während OpenAI die Gelegenheit nutzte, um eine Vereinbarung mit dem Pentagon zu schließen, was zu einem Anstieg der Uninstallationen von ChatGPT führte. Gleichzeitig erlebte die App OpenClaw einen viralen Erfolg, der jedoch Sicherheitsrisiken offenbarte, da Nutzer berichteten, dass ihre E-Mails von der KI gelöscht wurden. Die steigende Nachfrage nach Rechenleistung und Datenzentren hat die Hardwarepreise in die Höhe getrieben, was negative Auswirkungen auf Verbraucher hat und zu einem Anstieg der Bauaktivitäten für neue Datenzentren führt. Diese Entwicklungen verdeutlichen die enge Verknüpfung zwischen der Zukunft der KI und wirtschaftlichen, sozialen sowie ethischen Fragestellungen, während Unternehmen wie Nvidia ihre Strategien anpassen müssen.
This AI Company Could Disrupt Nvidia and Its Stock Is a Screaming Buy
Der Artikel thematisiert die potenzielle Bedrohung für Nvidia durch den Wettbewerber Broadcom im Bereich der KI-Computing. Während Nvidia seit dem AI-Boom 2023 einen Kursanstieg von über 1.100% verzeichnet hat, sind die Renditen seit August 2022 enttäuschend. Broadcom entwickelt maßgeschneiderte Chips, die auf die spezifischen Anforderungen von AI-Hyperscalern zugeschnitten sind und in bestimmten Anwendungen eine vergleichbare oder bessere Leistung als Nvidias GPUs bieten – oft zu einem günstigeren Preis. Ein Beispiel hierfür ist Googles Tensor Processing Unit (TPU), die Google im Bereich der generativen KI unterstützt hat. Broadcom prognostiziert ein starkes Wachstum in seiner AI-Halbleiter-Sparte, mit einem Umsatz von 8,4 Milliarden Dollar im ersten Quartal 2026, was einem Anstieg von 106% im Vergleich zum Vorjahr entspricht. Für das nächste Quartal wird ein weiterer Anstieg auf 14,8 Milliarden Dollar erwartet, was die Marktposition von Broadcom weiter festigen könnte.
ABnet Expands Infrastructure Powerhouse to Meet Exponential Demand for AI Workloads
ABnet Communication Ltd. hat seine Infrastruktur erheblich erweitert, um der steigenden globalen Nachfrage nach KI-Workloads gerecht zu werden. Angesichts der Prognose, dass die Ausgaben für KI-zentrierte Systeme bis 2026 über 300 Milliarden Dollar erreichen werden, bietet ABnet spezialisierte Architekturen und Optimierungsmöglichkeiten an. CEO Shimon Amouyal hebt hervor, dass sich die Anforderungen an Cloud-Dienste verändert haben, wobei der Fokus nun auf Hochleistungsrechenleistung und spezialisierten GPUs liegt. ABnet hat neue Tools und Dienstleistungen eingeführt, die den Zugang zu leistungsstarken Recheninstanzen und KI-Chips erleichtern und die Kosten für KI-Modelle optimieren. Mit der Velaris-Marktplatzlösung können Partner komplexe hybride Cloud-Architekturen und KI-Workloads effizient verwalten. Diese Initiativen zielen darauf ab, Unternehmen zu unterstützen, ihre KI-Projekte von der Konzeptphase bis zur produktionsreifen Infrastruktur zu skalieren.
CIQ Announces General Availability of RLC Pro AI, Enterprise Linux Built to Deliver More from Every GPU in Production
CIQ hat die allgemeine Verfügbarkeit von RLC Pro AI angekündigt, einer neuen Enterprise-Linux-Distribution, die speziell für KI-Inferenz und GPU-beschleunigte Workloads entwickelt wurde. Diese Software zielt darauf ab, die Leistung vorhandener GPU-Hardware zu maximieren, indem sie vorab konfiguriert und optimiert ist, was Unternehmen sofortige Leistungssteigerungen ermöglicht. RLC Pro AI unterstützt aktuelle NVIDIA-GPU-Beschleuniger und gewährleistet eine konsistente Leistung in verschiedenen Umgebungen, sowohl in der Cloud als auch vor Ort. Die Einführung dieser Lösung könnte die Wirtschaftlichkeit von KI-Investitionen verbessern, da Unternehmen mit weniger Ressourcen die gleichen Output-Ziele erreichen können. CIQ hebt hervor, dass das Betriebssystem entscheidend für den Return on Investment (ROI) von GPU-Infrastrukturen ist und RLC Pro AI eine vollständige, validierte KI-Stack-Lösung bietet. Diese Verfügbarkeit wird als wichtiger Schritt angesehen, um Unternehmen bei der Optimierung ihrer Infrastruktur zu unterstützen und gleichzeitig die Komplexität zu reduzieren.
Corvex Launches Secure Model Weights, Delivering Hardware-Enforced Protection for AI Inference on Third-Party Infrastructure
Corvex, Inc. hat die Corvex Secure Model Weights eingeführt, eine innovative Lösung, die KI-Modellbauern und Unternehmen hilft, ihre wertvollen Modellgewichte auf Drittanbieter-GPU-Infrastrukturen zu schützen. Diese patentierte Technologie nutzt Hardware-basierte Trusted Execution Environments (TEEs), um Sicherheitslücken traditioneller Cloud-Modelle zu schließen, indem sie die Modellgewichte kryptografisch isoliert. Durch die Integration von NVIDIA Confidential Computing werden die Modellgewichte ausschließlich im sicheren Bereich der GPU entschlüsselt, wodurch sie für den Infrastrukturprovider unsichtbar bleiben. Corvex kombiniert Trusted Execution Environments und Remote Attestation, um sicherzustellen, dass nur verifizierte Hosts Zugang zu den Entschlüsselungsschlüsseln haben. Diese Maßnahmen ermöglichen es Unternehmen, sensible Daten wie Gesundheits- und Finanzinformationen sicher auf externer Infrastruktur zu verarbeiten, ohne das Risiko einer Datenexfiltration. Die Lösung wird ab dem 12. März 2026 verfügbar sein und basiert auf einer Open-Source-Plattform, die eine unabhängige Sicherheitsüberprüfung ermöglicht.
GeForce NOW: Neue Features zur GDC und frische Spiele im Cloud-Gaming
Im Rahmen der Game Developers Conference hat Nvidia bedeutende Neuerungen für GeForce NOW präsentiert, die das Cloud-Gaming-Erlebnis optimieren. Eine der Hauptverbesserungen ist die übersichtlichere Darstellung der Spielesammlung, die es Nutzern ermöglicht, schnell zu erkennen, welche Titel über Game Pass oder Ubisoft+ verfügbar sind. Zudem werden Einmal-Anmeldungen für Gaijin und GOG eingeführt, um die Synchronisation der GOG-Bibliothek zu erleichtern. VR-Nutzer dürfen sich über Performance-Verbesserungen freuen, einschließlich Unterstützung für Apple Vision Pro und Meta Quest, während Ultimate-Mitglieder von einer Bildrate von 90 fps profitieren. Für Fortnite-Spieler wird der „Save the World“-Modus ab dem 12. März kostenlos spielbar sein, mit einer weltweiten Veröffentlichung am 16. April. Außerdem werden in dieser Woche fünf neue Titel, darunter Warcraft I und II, in die Cloud integriert, alle mit GeForce RTX 5080-Unterstützung.
How Akamai’s (AKAM) Blackwell GPU Buildout Expands Its Distributed AI Platform Ambitions
Akamai Technologies, Inc. hat am 3. März 2026 den Einsatz von Tausenden von NVIDIA Blackwell GPUs angekündigt, um seine globale verteilte Cloud-Infrastruktur zu erweitern. Ziel ist es, eine der am weitesten verbreiteten AI-Plattformen zu schaffen, die Forschung, Entwicklung und Optimierung von KI-Anwendungen unterstützt. Durch die Verlagerung von Inferenz-Workloads auf optimierte Rechenressourcen innerhalb des Netzwerks will Akamai Latenzzeiten und Datenübertragungsprobleme, die mit zentralisierten Rechenzentren verbunden sind, reduzieren. Dies ist besonders relevant, da 56 % der Unternehmen Latenz als Hauptbarriere für die Skalierung von KI identifizieren. Die neue Plattform wird dedizierte GPU-Cluster für Inferenz, lokale Feinabstimmung zur Wahrung der Privatsphäre sowie regionale Compliance und das Training von Modellen auf proprietären Daten ermöglichen. Akamai kombiniert NVIDIA RTX PRO Server und BlueField-3 DPUs mit seinem umfangreichen Cloud- und Edge-Netzwerk, das über 4.400 Standorte weltweit umfasst.