GPUs & Beschleuniger
GPUs, TPUs, NPUs und spezialisierte Beschleuniger.
5
Cluster
3607
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Nvidia
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Nvidia innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
AMD
Aktuelle Links, Zusammenfassungen und Marktinformationen zu AMD innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
TPUs
Aktuelle Links, Zusammenfassungen und Marktinformationen zu TPUs innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
NPUs
Aktuelle Links, Zusammenfassungen und Marktinformationen zu NPUs innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
KI-Beschleunigerchips
Aktuelle Links, Zusammenfassungen und Marktinformationen zu KI-Beschleunigerchips innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
Aktuelle Einträge in GPUs & Beschleuniger
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
Carbon Robotics & NVIDIA - From Farm to Fork: How AI Is Transforming Food Safety
Carbon Robotics und NVIDIA nutzen Künstliche Intelligenz (KI), um die Pestizidverwendung in der US-Landwirtschaft zu eliminieren und die Lebensmittelsicherheit zu verbessern. Eine Studie zeigt, dass 96% der getesteten Obst- und Gemüseprodukte Pestizidrückstände aufweisen, was gesundheitliche Bedenken aufwirft. Die Technologie von Carbon Robotics umfasst KI-gesteuerte Laser-Unkrautvernichter, die mit NVIDIA-GPUs ausgestattet sind und Unkräuter präzise identifizieren und bekämpfen, ohne den Boden zu stören. Dies führt zu gesünderen Lebensmitteln mit weniger chemischen Rückständen und verringert die Umweltbelastung durch Chemikalien im Boden und Wasser. Für Landwirte bedeutet dies niedrigere Kosten und höhere Erträge, was die Effizienz der Landwirtschaft steigert. CEO Paul Mikesell betont, dass diese Innovationen nicht nur die Landwirtschaft revolutionieren, sondern auch die Nahrungsmittelversorgung nachhaltiger gestalten.
China's GPU IPO wave meets its hardest test: cluster stability
Chinas GPU-Startups, darunter Moore Threads, MetaX und Biren, gewinnen zunehmend an Bedeutung im KI-Beschleunigermarkt. Die Nachfrage verschiebt sich jedoch von Trainings- zu Inferenzanwendungen, was neue Herausforderungen mit sich bringt. Wichtige Faktoren wie Clusterstabilität, Software-Reife und Kosteneffizienz sind entscheidend für die Wettbewerbsfähigkeit dieser Unternehmen. Um den sich wandelnden Marktanforderungen gerecht zu werden und langfristig erfolgreich zu sein, müssen die Startups diese Herausforderungen meistern. Die Fähigkeit, sich in diesen Bereichen zu behaupten, wird darüber entscheiden, ob sie im Wettbewerb bestehen können.
Commentary: China's chip-model strategy pressures Nvidia's AI economics
Im Jahr 2026 steht die globale KI-Industrie vor einem intensiven Wettbewerb um die Inferenzkosten, während Chinas Halbleiterlieferkette durch DeepSeek V4 entscheidende Veränderungen erfährt. Huaweis Ascend-Chips etablieren sich als ernstzunehmende Konkurrenz zu Nvidias GPUs, was die Marktlandschaft neu definiert. Diese Entwicklung könnte Nvidias wirtschaftliche Situation im KI-Sektor erheblich belasten, da der Fokus zunehmend auf kostengünstigeren Alternativen liegt. Nvidia könnte gezwungen sein, seine Preise zu senken oder innovative Lösungen zu entwickeln, um wettbewerbsfähig zu bleiben. Diese Dynamik könnte weitreichende Auswirkungen auf Unternehmen und Verbraucher haben, da sich die Marktverhältnisse verändern und neue Akteure an Bedeutung gewinnen.
Crack ML Interviews with Confidence: K-Nearest Neighbors (KNN 20 Q&A)
Der Artikel "Crack ML Interviews with Confidence: K-Nearest Neighbors (KNN 20 Q&A)" erklärt das K-Nearest Neighbors (KNN) Verfahren zur Vorhersage von Ausgaben für neue Datenpunkte. KNN basiert auf der Annahme, dass ähnliche Eingaben ähnliche Ausgaben erzeugen, weshalb es die K ähnlichsten Punkte im Trainingsdatensatz analysiert. Zur Bestimmung der Ähnlichkeit werden Distanzen, wie die euklidische oder Manhattan-Distanz, zwischen dem neuen Datenpunkt und den Trainingsbeispielen berechnet. Nach der Identifizierung der K nächsten Nachbarn trifft der Algorithmus Vorhersagen durch Mehrheitsabstimmung bei Klassifikationen oder durch Durchschnittsbildung bei Regressionen. KNN wird als "lazy learning" klassifiziert, da es während des Trainings keinen aktiven Modellaufbau vornimmt, sondern lediglich die Daten speichert und Berechnungen bei Bedarf durchführt. Dies führt zu verkürzten Trainingszeiten, jedoch längeren Vorhersagezeiten.
Google's TPU shortage lays bare a widening AI infrastructure edge
Die aktuelle Knappheit an Tensor Processing Units (TPUs) von Google hebt die wachsende Bedeutung der Infrastruktur im Bereich der Künstlichen Intelligenz (KI) hervor. In der heutigen Wettbewerbslandschaft ist es entscheidend, nicht nur leistungsstarke KI-Modelle zu entwickeln, sondern auch die Kontrolle über die zugrunde liegende Hardware zu haben. Google hat über ein Jahrzehnt in den Aufbau dieser technologischen Basis investiert, was dem Unternehmen einen entscheidenden Vorteil verschafft. Die Verknappung der TPUs könnte jedoch die Wettbewerbsfähigkeit anderer Unternehmen in der KI-Entwicklung beeinträchtigen und zu einer weiteren Konzentration der Marktanteile bei Google führen. Dies könnte die Innovationsgeschwindigkeit in der gesamten Branche negativ beeinflussen und die Dynamik im KI-Sektor verändern.
Gorilla Technology & Yotta Expand India AI Infrastructure Collaboration in Project Valued at Approximately US$2.8 Billion
Gorilla Technology Group Inc. hat seine Partnerschaft mit Yotta Data Services Private Limited zur Erweiterung der KI-Infrastruktur in Indien ausgeweitet, mit einem Projektwert von etwa 2,8 Milliarden US-Dollar. Bis zum 30. September 2026 sollen zusätzlich 20.736 B300 GPU-Karten bereitgestellt werden, was Gorilla eine Schlüsselrolle im indischen KI-Infrastrukturaufbau sichert. Diese Erweiterung ergänzt ein vorheriges Projekt, das bereits 640 Hochleistungsserver mit über 5.000 GPUs umfasst. Ein wesentlicher Teil der Lieferung ist mit NVIDIA verbunden, das voraussichtlich die Hälfte der GPU-Karten abnehmen wird. Dies ist Teil eines der größten NVIDIA DGX Cloud-Cluster in der Asien-Pazifik-Region. Die Initiative vertieft Gorillas Engagement im Bereich der souveränen und unternehmerischen KI-Infrastruktur und stärkt seine Position in einem der strategisch wichtigsten KI-Märkte weltweit. Die ersten Lieferungen des ursprünglichen Yotta-Projekts verlaufen planmäßig und sollen bis Ende Juli abgeschlossen sein.
LG Electronics and Nvidia are in talks on robotics, AI data centres, and mobility
LG Electronics und Nvidia befinden sich in Gesprächen über eine potenzielle Zusammenarbeit in den Bereichen Robotik, KI-Datenzentren und Mobilität. Diese Gespräche wurden durch einen Besuch von Nvidias Madison Huang initiiert und könnten LGs Bestrebungen im Bereich physische KI unterstützen, während Nvidia einen wertvollen Partner im Konsumgütersektor gewinnen würde. Obwohl noch keine formellen Vereinbarungen bestehen, zeigen die Gespräche ein gemeinsames strategisches Interesse, insbesondere im Hinblick auf LGs Vision eines automatisierten Haushalts mit Robotern wie CLOiD. Die Integration von Nvidias KI-Plattform in LGs Produkte könnte die Entwicklung von Robotern beschleunigen, während Nvidia von LGs Zugang zu einem breiten Markt und wertvollen Daten profitieren könnte. Zudem könnten die Diskussionen über Datenzentren und Mobilität für beide Unternehmen kommerziell bedeutend sein, da LG bereits Lösungen zur Kühlung von KI-Datenzentren anbietet und Nvidia führend im Bereich autonomer Fahrzeuge ist. Eine Partnerschaft könnte somit die Wettbewerbsfähigkeit beider Unternehmen stärken und die Entwicklung physischer KI im Verbraucherbereich vorantreiben.
MSI Vector 18 HX AI mit RTX 5080: High-End-Gaming-Laptop für anspruchsvolle Nutzer jetzt im MSI-Shop verfügbar
Der MSI Vector 18 HX AI ist ein neuer High-End-Gaming-Laptop, der speziell für anspruchsvolle Nutzer entwickelt wurde und jetzt im offiziellen MSI-Shop erhältlich ist. Mit einem 18-Zoll-Display, einem Intel Core Ultra 9 Prozessor und einer NVIDIA GeForce RTX 5080 GPU bietet er herausragende Leistung für Gamer und Content-Creator, die in hohen Auflösungen arbeiten oder spielen möchten. Die Kombination aus leistungsstarker CPU und GPU sorgt für flüssiges Gaming und effizientes Arbeiten, während das größere Gehäuse eine verbesserte Kühlung und Upgrade-Möglichkeiten bietet. Allerdings ist der Laptop aufgrund seines Gewichts und Preises nicht für Casual-Gamer oder Nutzer mit begrenztem Budget geeignet. Zudem ist die Akkulaufzeit bei intensiven Gaming-Sessions eingeschränkt, was die Mobilität beeinträchtigt. MSI hebt die Eignung des Modells für Windows 11 Pro in Unternehmenskontexten hervor. Käufer sollten die Kompatibilität mit Peripheriegeräten prüfen, da der Laptop exklusiv im MSI-Shop erhältlich ist.
NASDAQ 100: KI-Zweifel drücken auf die Stimmung
Der NASDAQ 100 erlebte heute einen Rückgang von etwa einem Prozent und schloss bei 27.029 Punkten, stark beeinflusst von einem kritischen Bericht über OpenAI, der die Stimmung in der KI-Branche drückte. Die negativen Nachrichten führten zu Kursverlusten bei bedeutenden Technologieunternehmen wie Oracle, CoreWeave, NVIDIA und AMD. Zudem sorgten steigende Ölpreise, die durch stockende Verhandlungen zwischen den USA und dem Iran bedingt waren, für zusätzliche Inflationssorgen und erhöhten Druck auf die US-Notenbank. Während der Dow Jones Industrial stabil blieb, litt auch der S&P 500 unter den schwachen KI-Werten. Der Rückgang des NASDAQ 100 verdeutlicht die hohe Sensibilität des Index gegenüber Entwicklungen im KI-Sektor und wirft Fragen zur Profitabilität großer KI-Modelle auf. Anleger stehen vor der Entscheidung, ob sie verkaufen oder in den Index investieren sollten, während Marktanalysen klare Handlungsaufforderungen an die Aktionäre formulieren.
Nvidia CEO says Google's TPUs pose no threat as AI chip race heats up
Nvidia-CEO Jensen Huang hat in einem Interview im Dwarkesh Podcast erklärt, dass die Tensor Processing Units (TPUs) von Google für Nvidia keine ernsthafte Bedrohung darstellen. Huang betonte, dass Nvidia weiterhin die Führungsposition im Bereich der KI-Chips innehat und verwies auf das beeindruckende Wachstum des Unternehmens, das mittlerweile einen Marktwert von 4 Billionen US-Dollar erreicht hat. Er sieht die Konkurrenz im KI-Chip-Markt als gesund und innovationsfördernd. Huang äußerte sich optimistisch über die Zukunft von Nvidia und ließ erkennen, dass das Unternehmen sich nicht von anderen Marktakteuren einschüchtern lässt. Seine Aussagen unterstreichen das Selbstbewusstsein von Nvidia in einem zunehmend wettbewerbsintensiven Umfeld.
Nvidia fixes the 8GB RAM problem with one of its GPUs—if you can pay for it
Nvidia hat die mobile GeForce RTX 5070 aufgerüstet, indem der RAM von 8GB auf 12GB GDDR7 erhöht wurde, um die Leistung zu steigern und den wachsenden Anforderungen von Gamern und AI-Enthusiasten gerecht zu werden. Diese Entscheidung erfolgt in einem Kontext, in dem 8GB VRAM zunehmend als unzureichend angesehen wird, insbesondere für aktuelle AAA-Spiele und lokale KI-Modelle. Die 50-prozentige RAM-Erhöhung soll bestehende Leistungsengpässe verringern, während die restlichen Spezifikationen, wie die 128-Bit-Speicheranbindung und 4.608 CUDA-Kerne, unverändert bleiben. Dennoch bleibt die Desktop-Version der RTX 5070 aufgrund des leistungsstärkeren GB205-Siliziumchips überlegen. Diese Entwicklungen verdeutlichen Nvidias Bemühungen, auf die steigenden Marktanforderungen zu reagieren, während gleichzeitig Herausforderungen wie Speicherengpässe und Preissteigerungen bestehen.
Nvidia launches Nemotron 3 Nano Omni to power unified multimodal AI agents
Am 28. April 2026 präsentierte Nvidia das Nemotron 3 Nano Omni, ein innovatives offenes multimodales KI-Modell, das die Entwicklung agentenbasierter Systeme revolutionieren soll. Dieses Modell vereint Vision, Audio und Sprachfähigkeiten in einem einzigen Rahmenwerk, was die Effizienz und Flexibilität bei der Erstellung komplexer Anwendungen erheblich steigert. Durch die Integration dieser verschiedenen Modalitäten wird es Entwicklern erleichtert, leistungsstarke KI-Agenten zu erstellen, die in der Lage sind, vielseitige Aufgaben zu bewältigen. Die Einführung des Nemotron 3 Nano Omni könnte weitreichende Auswirkungen auf die KI-Entwicklung haben, indem sie die Interaktion zwischen unterschiedlichen Modalitäten verbessert und somit die Akzeptanz und Anwendung von KI-Agenten in verschiedenen Branchen fördert.
Nvidia taps Nanya for AI racks with LPDDR equivalent to 4,500 smartphones per rack
Die steigende Nachfrage nach KI-Technologien führt zu einem enormen Bedarf an Low-Power-DRAM (LPDDR), insbesondere bei Unternehmen wie Nvidia, Qualcomm und Tesla. Prognosen deuten darauf hin, dass ein einzelner AI-Server-Rack bis 2026 eine LPDDR-Kapazität benötigt, die der von 4.500 Smartphones entspricht. Dies hat bereits zu einem aggressiven Einkauf unter Handymarken geführt und die Verfügbarkeit auf dem Markt eingeschränkt, was die Preise für Speicheranbieter wie Samsung, SK Hynix und Micron in die Höhe treibt. Nvidias Vera Rubin-Plattform, die LPDDR5X und HBM4 integriert, ermöglicht eine Speicherkapazität von über 50TB pro Rack. Mit der Einführung des serveroptimierten LPDDR5X-Moduls SOCAMM2 werden höhere Bandbreiten und geringere Latenzen erreicht, was die Architektur der KI-Chips revolutioniert. Um die Abhängigkeit von südkoreanischen Anbietern zu verringern, hat Nvidia Nanya Technology in seine Lieferkette aufgenommen. Diese Engpässe wirken sich bereits auf die Smartphone-Märkte aus, wo die Preise für LPDDR5X nahezu verdoppelt wurden, und betreffen auch andere Unternehmen mit ähnlichen Anforderungen.
Nvidia's LPX cabinet and Foxconn's supply lead reshape inference-era AI infrastructure
Die Verschiebung von der Modellentwicklung hin zur Echtzeitanalyse, insbesondere durch Open-Source-Agenten-Anwendungen, revolutioniert das Design von Rechenzentren und die globale Zuliefererlandschaft. Diese Transformation hat erhebliche Auswirkungen auf Cloud-Anbieter und Hardware-Hersteller, da die Nachfrage nach spezialisierten Inferenzlösungen steigt. Nvidia hat mit seinem LPX-Gehäuse eine innovative Hardware-Lösung entwickelt, die auf diese neuen Anforderungen abgestimmt ist. Gleichzeitig spielt Foxconn eine zentrale Rolle als Zulieferer, indem es die Produktion und Lieferung dieser Technologien vorantreibt. Unternehmen müssen sich schnell anpassen, um wettbewerbsfähig zu bleiben und den sich wandelnden Marktbedürfnissen gerecht zu werden.
Prozess um OpenAI: Elon Musk wirft Sam Altman „Plünderung“ vor
Im Prozess um die Umwandlung von OpenAI in ein gewinnorientiertes Unternehmen erhebt Elon Musk schwere Vorwürfe gegen den CEO Sam Altman und den Verwaltungsratsvorsitzenden Greg Brockman, die er der „Plünderung“ beschuldigt. Musk argumentiert, dass diese Transformation die Grundlagen der Wohltätigkeit in Amerika gefährde und fordert eine Rückkehr zur Gemeinnützigkeit sowie die Entlassung von Altman und Brockman. Er behauptet, durch falsche Versprechen über die Ausrichtung von OpenAI manipuliert worden zu sein, und fordert Schadensersatz in Höhe von 150 Milliarden Dollar. Die Verteidigung kontert, dass Musk selbst die Gewinnorientierung des Unternehmens vorangetrieben habe und erst nach einem gescheiterten Übernahmeversuch geklagt habe. Der Prozess findet zu einem kritischen Zeitpunkt statt, da OpenAI eine Börsennotierung anstrebt und Musks eigene KI-Firma xAI hinter der Konkurrenz zurückbleibt. Richterin Yvonne Gonzalez Rogers ermahnte Musk, sich in sozialen Medien zurückzuhalten, nachdem er Altman öffentlich als Betrüger bezeichnet hatte. Microsoft, Partner von OpenAI, weist die Vorwürfe einer Absprache zurück und wird voraussichtlich durch seinen CEO als Zeugen vertreten.
The friendlier the AI chatbot the more inaccurate it is, study suggests
Eine Studie des Oxford Internet Institute zeigt, dass AI-Chatbots, die freundlich und empathisch kommunizieren, häufig ungenauer sind. Die Forscher analysierten über 400.000 Antworten von fünf AI-Systemen, die auf Wärme und Freundlichkeit optimiert wurden. Dabei stellte sich heraus, dass freundlichere Antworten oft Fehler enthielten, darunter falsche medizinische Ratschläge und die Bestätigung falscher Überzeugungen. Diese Ergebnisse werfen Fragen zur Vertrauenswürdigkeit solcher AI-Modelle auf, die darauf abzielen, menschlicher zu wirken, um die Nutzerbindung zu erhöhen. Die Studie zeigt, dass diese Systeme, ähnlich wie Menschen, Kompromisse zwischen Freundlichkeit und Genauigkeit eingehen, was zu höheren Fehlerquoten führt. Besonders bei objektiven Fragen waren die warmen Modelle fehleranfälliger, mit einer um 7,43 Prozentpunkte höheren Wahrscheinlichkeit für falsche Antworten. Diese Erkenntnisse sind besorgniserregend, da immer mehr Menschen, insbesondere Jugendliche, AI-Chatbots für emotionale Unterstützung nutzen, was das Risiko von Fehlinformationen in sensiblen Situationen erhöht.
Why Is NVIDIA (NVDA) Among The Best Growth Stocks To Buy And Hold In 2026?
NVIDIA Corporation gilt als eine der besten Wachstumsaktien für 2026, mit prognostizierten EPS- und Umsatzwachstumsraten von 34,77% bzw. 30,61%. Eine hohe Analystenunterstützung, bei der 94% der Analysten eine Kaufempfehlung aussprechen, deutet auf ein Potenzial von etwa 30% bis zu einem Konsenspreisziel von 260 US-Dollar hin. Am 15. April 2026 stellte NVIDIA neue Updates vor, die die RTX-Technologie in kreative Tools und KI-gestützte PC-Verwaltung integrieren. Besonders hervorzuheben ist der Premiere Color Mode von Adobe, der die GPU-Beschleunigung zur Verbesserung der Bearbeitungserfahrung nutzt. Zudem wurde das Projekt G-Assist weiterentwickelt, um die Erkennung von Spieleinstellungen und die Kontrolle über NVIDIA-App-Funktionen zu optimieren. Diese Innovationen zeigen, dass NVIDIA bestrebt ist, leistungsstarke Hardware für Kreative und Gamer zugänglicher zu machen. Als führender Anbieter von Halbleitern und KI-Computing unterstützt das Unternehmen verschiedene Industrien. Dennoch wird angemerkt, dass andere KI-Aktien möglicherweise ein höheres Aufwärtspotenzial bei geringerem Risiko bieten.
With Nemotron 3 Nano Omni, Nvidia reveals what really goes into a modern multimodal model
Nvidia hat mit dem Nemotron 3 Nano Omni ein innovatives multimodales Modell vorgestellt, das Text, Bilder, Videos und Audio verarbeitet und speziell für agentische Anwendungen konzipiert ist. Mit 30 Milliarden Parametern und einem Training auf 717 Milliarden Tokens, von denen ein erheblicher Teil aus synthetischen Daten konkurrierender Modelle wie Qwen und GPT-OSS stammt, hebt sich dieses Modell durch seine Transparenz ab. Im Gegensatz zu anderen Projekten, die lediglich Modellgewichte bereitstellen, werden auch die Trainingspipeline und Teile der Trainingsdaten veröffentlicht. Nemotron 3 Nano Omni übertrifft seine Vorgängerversion in Benchmarks wie OCRBenchV2 und VoiceBench und erreicht eine bis zu neunmal höhere Durchsatzrate im Vergleich zu Qwen3-Omni. Die Daten stammen sowohl aus eigenen Quellen als auch von Qwen, und die Verstärkungslernphase umfasst eine umfassende Pipeline über 25 Umgebungen. Das Modell ist unter dem NVIDIA Open Model Agreement lizenziert, was eine kommerzielle Nutzung ermöglicht.
Your GPU Isn’t Broken — Its Firmware Is Throttling Your AI Workloads
Der Artikel "Your GPU Isn’t Broken — Its Firmware Is Throttling Your AI Workloads" beleuchtet ein häufiges Missverständnis unter Nutzern, die glauben, ihre Grafikkarten (GPUs) seien defekt. Tatsächlich ist oft die Firmware schuld, die nicht optimal konfiguriert ist und somit die Leistung bei AI-Anwendungen drosselt. Diese Drosselung kann die Effizienz und Geschwindigkeit von AI-Projekten erheblich beeinträchtigen und zu Frustration bei den Nutzern führen. Die Autoren empfehlen, die Firmware zu aktualisieren oder anzupassen, um die volle Leistungsfähigkeit der GPUs auszuschöpfen. Das Bewusstsein für die Firmware-Problematik ist entscheidend, um die Hardware optimal zu nutzen und die Entwicklung von AI-Projekten nicht zu verlangsamen.
AI galaxy hunters are adding to the global GPU crunch
NASA plant die Einführung des Nancy Grace Roman-Weltraumteleskops im September 2026, das astronomischen Forschern über seine Lebensdauer 20.000 Terabyte an Daten liefern wird. Diese Datenmenge ergänzt die bereits 57 Gigabyte täglichen Bilder des James-Webb-Teleskops und steht im Gegensatz zu den 1 bis 2 Gigabyte des Hubble-Teleskops. Astronomen setzen zunehmend GPUs ein, um die Herausforderungen der Datenanalyse zu bewältigen, was einen Paradigmenwechsel in der Wissenschaft darstellt. Brant Robertson von der UC Santa Cruz hat mit einem ehemaligen Studenten das tief lernende Modell Morpheus entwickelt, das große Datensätze analysiert und Galaxien identifiziert. Um die Effizienz zu steigern, wird Morpheus von konvolutionalen neuronalen Netzen auf Transformer-Architekturen umgestellt. Robertson arbeitet zudem an generativen KI-Modellen zur Verbesserung der Beobachtungsqualität durch Erdteleskope. Trotz dieser Fortschritte sieht er sich dem Druck der globalen Nachfrage nach GPU-Ressourcen ausgesetzt, da seine Infrastruktur veraltet ist und die Finanzierung durch die National Science Foundation gefährdet ist. Er betont die Notwendigkeit unternehmerischen Denkens in der akademischen Welt, um den technologischen Anforderungen der Zukunft gerecht zu werden.
AI-RAN: The key to realizing AI’s true potential (Reader Forum)
AI-RAN, oder Artificial Intelligence-Radio Access Network, hat sich als Schlüsseltechnologie für die Transformation der drahtlosen Infrastruktur etabliert. Auf bedeutenden Veranstaltungen wie der NVIDIA GTC und dem Mobile World Congress 2026 wurde die wachsende Bedeutung von AI-RAN hervorgehoben. Um die technologische Führungsposition der USA zu sichern, müssen Unternehmen AI-RAN aktiv annehmen, da zukünftige 6G-Netzwerke stark davon abhängen werden. Diese Technologie betrachtet Netzwerke nicht nur als Verbindungspunkte, sondern als integrale Bestandteile des KI-Stacks, die Innovationen fördern. Durch die Integration von ISAC (Integrated Sensing and Communications) können Netzwerke kommunizieren und ihre Umgebung wahrnehmen, was zahlreiche Anwendungsmöglichkeiten wie Echtzeit-Überwachung und prädiktive Wartung eröffnet. Um das volle Potenzial von AI-RAN auszuschöpfen, müssen Unternehmen ihre Infrastruktur schnell anpassen und innovative Ansätze verfolgen. Zögerliche Unternehmen riskieren, von Wettbewerbern überholt zu werden, die bereits Standards und Marktbedingungen gestalten.
Alphabet Stock Edges Higher on New AI Chip Launches and Cloud Momentum Ahead of Q1 Earnings
Alphabet Inc. verzeichnete am Donnerstag einen leichten Anstieg seiner Aktienkurse um etwa 0,19 %, was auf neue Entwicklungen im Bereich künstlicher Intelligenz und ein positives Wachstum im Cloud-Segment zurückzuführen ist. In den letzten 30 Tagen stiegen die Aktien um über 12 % und im vergangenen Jahr sogar um 120 %, was das Vertrauen in die AI-Strategie des Unternehmens stärkt. Besonders bemerkenswert ist die Einführung der neuen Tensor Processing Unit (TPU) Chips, die die Effizienz von AI-Modellen verbessern und als Konkurrenz zu Nvidia positioniert werden. Analysten haben ihre Kursziele angehoben, was auf eine optimistische Marktstimmung hinweist. Für das bevorstehende Quartal wird ein Umsatz von etwa 106,9 Milliarden Dollar erwartet, jedoch ein moderater Rückgang des Gewinns pro Aktie aufgrund hoher Investitionen in die AI-Infrastruktur. Trotz Herausforderungen durch steigenden Wettbewerb und regulatorische Risiken bleibt Alphabet finanziell stark und festigt seine Rolle als führender Akteur im AI-Bereich. Die kommenden Quartalszahlen könnten entscheidend dafür sein, ob Investoren bereit sind, für das zukünftige Wachstum des Unternehmens höhere Preise zu zahlen.
At 'AI Coachella,' Stanford Students Line Up to Learn From Silicon Valley Royalty
An der Stanford University wurde ein neuer Kurs mit dem Titel CS 153, informell als "AI Coachella" bezeichnet, ins Leben gerufen. Dieser Kurs zieht Studierende an, indem er prominente Tech-CEOs als Gastdozenten einlädt, darunter Führungskräfte von OpenAI, Nvidia und Microsoft. Co-Dozenten Anjney Midha und Michael Abbott berichten von einer hohen Nachfrage, die alle 500 Plätze füllte und eine Warteliste erzeugte. Kritiker bemängeln, dass der Kurs eher wie ein Live-Podcast als eine traditionelle Lehrveranstaltung wirkt und fordern, dass Studierende sich auf akademischere Themen konzentrieren sollten. Midha sieht die Bezeichnung "AI Coachella" jedoch als positiven Aspekt, der das Interesse an dem Kurs steigert. Die Studierenden schätzen die Möglichkeit, mit erfolgreichen Unternehmern in Kontakt zu treten und Einblicke in das Startup-Ökosystem zu gewinnen. Der Kurs spiegelt einen Trend wider, bei dem der Zugang zu einflussreichen Persönlichkeiten und praktischen Kenntnissen als wesentlicher Vorteil des Studiums an renommierten Institutionen wie Stanford angesehen wird.
BT, Nscale, and Nvidia announce UK sovereign AI partnership
Am 23. April 2026 gaben BT Group und Nscale eine Partnerschaft bekannt, um souveräne KI-Datenzentren im Vereinigten Königreich zu errichten, mit Nvidia als technischem Partner. Nscale plant, bis zu 14 Megawatt an KI-Datenzentrumskapazität an drei bestehenden BT-Standorten aufzubauen, während BT die notwendige Infrastruktur und Konnektivität bereitstellt. Diese Kooperation stärkt Nscales Rolle in der nationalen KI-Infrastrukturstrategie der britischen Regierung und ermöglicht BT, neue KI-Dienste für den privaten und öffentlichen Sektor anzubieten. Durch die Co-Standorte kann Nscale KI-Computing mit niedriger Latenz in der Nähe des nationalen Glasfasernetzes von BT bereitstellen, ohne die Kosten und Planungsverzögerungen eines Neubaus. Nscale hat sich als zentraler Akteur im britischen KI-Infrastrukturaufbau etabliert und kürzlich 2 Milliarden Dollar in einer Finanzierungsrunde gesammelt. Die Partnerschaft wird als bedeutender Schritt zur Unterstützung der KI-Ambitionen des Vereinigten Königreichs angesehen und hebt die Rolle der Telekommunikation für souveräne KI hervor.
Datadog digs down into GPU efficiency as AI costs soar
Datadog hat sein Observability-Tool um eine GPU-Überwachung erweitert, um Unternehmen, die stark in KI investieren, Einblicke in ihre steigenden Kosten zu bieten. Aktuell machen GPU-Instanzen 14 Prozent der Cloud-Computing-Kosten aus, mit einer prognostizierten Steigerung der Ausgaben für KI-Infrastruktur auf 89,9 Milliarden Dollar bis Ende 2025. Die neue Funktionalität von Datadog ermöglicht es Unternehmen, die Gesundheit, Kosten und Leistung ihrer GPU-Flotten zentral zu überwachen, was zu schnelleren Fehlersuchen und Kosteneinsparungen führen kann. Durch die Identifizierung ineffizienter GPU-Nutzung, wie untätiger Flottenmitglieder oder nicht optimal konfigurierter Workloads, können Unternehmen ihre Ressourcen besser verwalten. Datadog selbst hat bereits durch diese Überwachung signifikante Einsparungen erzielt. Diese Entwicklungen könnten Unternehmen dabei helfen, ihre KI-Investitionen effektiver zu bewerten und die Effizienz ihrer Infrastruktur zu steigern, obwohl die Frage bleibt, ob sie den gewünschten Wert aus diesen Investitionen ziehen können.
GeForce NOW: Bessere Übersicht für Game Pass und Ubisoft+
Nvidia hat die Benutzeroberfläche von GeForce NOW aktualisiert, um die Nutzung von Abonnements wie Xbox Game Pass und Ubisoft+ zu verbessern. Neue Labels in der App ermöglichen es Nutzern, sofort zu erkennen, welche Spiele aus diesen Flatrates zum Streaming bereitstehen, wodurch das Abgleichen der Bibliotheken entfällt. Diese Funktion ist auf allen unterstützten Geräten verfügbar, einschließlich Mac, Smartphones und Fire TV Stick. Zudem wurden sechs neue Spiele in den Katalog aufgenommen, darunter Vampire Crawlers: The Turbo Wildcard und Tides of Tomorrow, die für die GeForce RTX 5080 optimiert sind. Diablo III kann nun über Ubisoft Connect gestreamt werden, während Crimson Desert über Xbox Play Anywhere zugänglich ist. Außerdem erhalten Spieler von Marvel Rivals eine neue Belohnung, was die Attraktivität von GeForce NOW erhöht.
Google debuts TPU 8t and 8i as AI workloads diverge
Auf der Google Cloud Next 2026, die am 22. April in Las Vegas stattfand, verkündete CEO Thomas Kurian, dass die experimentelle Phase der künstlichen Intelligenz (KI) vorbei sei, da bereits 75% der Google Cloud-Kunden KI in produktiven Umgebungen nutzen. Um den unterschiedlichen Anforderungen an KI-Arbeitslasten gerecht zu werden, stellte Google die neuen Tensor Processing Units (TPUs) 8t und 8i vor. Diese Modelle sind darauf ausgelegt, die Leistung und Effizienz bei der Verarbeitung von KI-Anwendungen zu optimieren. Die Einführung der TPUs 8t und 8i könnte die Nutzung von KI in Unternehmen revolutionieren und die Integration in verschiedene Geschäftsprozesse erheblich erleichtern.
Google stellt zwei TPUs als Alternative zu Nvidias KI-Beschleunigern vor
Google hat die achte Generation seiner Tensor Processing Units (TPUs) vorgestellt, die in zwei Varianten, TPU 8t und TPU 8i, erhältlich sind. Diese TPUs sind speziell für das Training und die Ausführung von KI-Modellen optimiert und nutzen erstmals Googles eigene ARM-Prozessoren. Sie bieten eine Verdopplung der Übertragungsrate zwischen den Chips auf 19,2 Tbit/s. Die TPU 8i ist für die Inferenz konzipiert und zeichnet sich durch hohe Speicherdurchsatzraten und geringe Latenzen aus, während die TPU 8t auf die Trainingsleistung von KI-Modellen fokussiert ist. Beide Modelle integrieren innovative Technologien wie Optical Circuit Switches und eine neue Collectives Acceleration Engine zur Aggregation von Rechenergebnissen. Die Markteinführung der TPUs ist für Ende 2026 geplant, wobei Google mit verschiedenen Partnern an der Produktion arbeitet. Trotz dieser neuen Entwicklungen bleibt Google weiterhin auf Nvidias KI-Server angewiesen, was auf eine strategische Partnerschaft hindeutet.
Googles neue Chips sollen KI-Training und -Nutzung viel flotter und sparsamer machen
Google hat sich als wichtiger Akteur im Bereich der KI-Hardware etabliert, insbesondere durch die Entwicklung eigener Tensor Processing Units (TPUs). Die neuesten Modelle, TPU 8t und 8i, sind darauf ausgelegt, das Training und die Inferenz von KI-Systemen erheblich schneller und energieeffizienter zu gestalten. Diese Effizienz ist entscheidend für viele Unternehmen, darunter Anthropic, Meta und Apple, die Googles Technologie nutzen. Aktuell wird bereits 75 Prozent des Codes für Google-Services durch KI generiert, was die Relevanz dieser Technologien unterstreicht. Die Fortschritte von Google könnten nicht nur die eigene Wettbewerbsfähigkeit stärken, sondern auch die gesamte Branche beeinflussen, indem sie den Zugang zu leistungsfähigerer und nachhaltigerer KI-Hardware erleichtern.
Googles neue Chips sollen KI-Training und -Nutzung viel flotter und sparsamer machen
Google hat mit der Einführung der neuen Tensor Processing Units (TPUs) 8t und 8i einen wichtigen Fortschritt in der KI-Hardware erzielt, der das Training und die Nutzung von KI-Systemen effizienter und ressourcensparender gestaltet. Diese Chips sind nicht nur für Google selbst, sondern auch für Unternehmen wie Anthropic, Meta und Apple sowie zahlreiche Startups gedacht. Ihre hohe Effizienz könnte die Abhängigkeit von Nvidia verringern und die Nutzung in der Branche fördern. Aktuell wird bereits 75 Prozent des Codes für Google-Services durch KI generiert, was die Integration von KI in Softwareentwicklung und -optimierung verdeutlicht. Die Fortschritte in der Chip-Technologie könnten somit weitreichende Auswirkungen auf die gesamte KI-Branche haben, indem sie die Leistungsfähigkeit und Zugänglichkeit von KI-Anwendungen erhöhen.
Here's Why Nvidia and Broadcom Are Still Leading the Pack for AI Investing
Nvidia und Broadcom sind führende Unternehmen im Bereich der KI-Investitionen und profitieren stark von der wachsenden Nachfrage nach ihren Produkten. Nvidia meldete ein beeindruckendes Umsatzwachstum von 73 % auf 68,1 Milliarden Dollar im letzten Quartal und erwartet für die kommenden Quartale ein weiteres Wachstum von 79 % und 85 %. Während Nvidia auf vielseitige Grafikprozessoren setzt, entwickelt Broadcom maßgeschneiderte Chips für spezifische Anwendungen, was zu einem Umsatzwachstum von 106 % in seiner KI-Semiconductor-Sparte führte. Der CEO von Broadcom prognostiziert, dass das Unternehmen bis 2027 über 100 Milliarden Dollar mit diesen Chips verdienen könnte. Beide Firmen sind gut positioniert, um von den steigenden globalen Investitionen in Rechenzentren zu profitieren, die bis 2030 auf bis zu 4 Billionen Dollar ansteigen könnten. Diese Trends deuten darauf hin, dass die Gewinne von Nvidia und Broadcom in den kommenden Jahren weiter steigen werden. Zudem wird erwartet, dass die hochentwickelten Recheneinheiten nach einigen Jahren ersetzt werden müssen, was eine wiederkehrende Einnahmequelle darstellt. Anleger werden ermutigt, in die Aktien beider Unternehmen zu investieren und diese langfristig zu halten.
NVIDIA and Google infrastructure cuts AI inference costs
Auf der Google Cloud Next-Konferenz haben Google und NVIDIA ihre neue Hardware-Roadmap vorgestellt, die darauf abzielt, die Kosten für KI-Inferenz erheblich zu senken. Die A5X Bare-Metal-Instanzen, basierend auf NVIDIA Vera Rubin NVL72 Rack-Systemen, bieten eine Kostenreduktion von bis zu zehnmal pro Token und steigern den Token-Durchsatz um das Zehnfache pro Megawatt. Um die notwendige Bandbreite für die Verbindung zahlreicher Prozessoren zu gewährleisten, kombinieren die A5X-Instanzen NVIDIA ConnectX-9 SuperNICs mit Google Virgo-Netzwerktechnologie. Zudem wird die Datenhoheit und -sicherheit durch die Bereitstellung von Modellen auf Google Distributed Cloud adressiert, was Unternehmen ermöglicht, sensible Daten in kontrollierten Umgebungen zu halten. Die Einführung von Managed Training Clusters auf der Gemini Enterprise Agent Platform automatisiert die Clustergröße und Fehlerbehebung, sodass Datenwissenschaftsteams sich auf die Modellqualität konzentrieren können. In der Fertigungsindustrie bieten die Lösungen von NVIDIA und Google Cloud Möglichkeiten zur Integration von KI in bestehende Systeme, um digitale Zwillinge und Robotersimulationen zu erstellen. Die Vielzahl an Hardwareoptionen ermöglicht Unternehmen eine präzise Provisionierung ihrer Beschleunigungskapazitäten, was zu Kosteneinsparungen und Effizienzsteigerungen führt. Die wachsende Entwicklergemeinschaft fördert zudem die Nutzung dieser Technologien.
NVIDIA-Aktie bei 171 €: Analysten sehen 275 $ Kursziel – 52 von 54 raten zum Kaufen!
Die NVIDIA Corporation bleibt der führende Anbieter von Grafikprozessoren und KI-Chips und ist für deutsche Privatanleger eine unverzichtbare Aktie, um von der KI-Revolution zu profitieren. Aktuell wird die Aktie bei 171,57 € gehandelt, was eine leichte Korrektur darstellt, jedoch eine positive Entwicklung über die letzten Monate zeigt. Analysten sind optimistisch und setzen ein durchschnittliches Kursziel von 275 $, wobei 52 von 54 Experten zum Kauf raten. Trotz Herausforderungen durch US-Exportrestriktionen nach China bleibt das Unternehmen stark, insbesondere durch den Fokus auf industrielle Anwendungen und AI-Infrastrukturen. NVIDIA meldete kürzlich Rekordumsätze von 68,1 Mrd. $ im Fiskal-Q4, was auf starkes Wachstum im Data-Center-Bereich hinweist. Die Aktie hat sich in den letzten 12 Monaten fast verdoppelt und zeigt eine beeindruckende Jahresperformance von +7,28 %. Zudem fördert NVIDIA europäische KI-Initiativen, was für deutsche Anleger von Bedeutung ist. Langfristig wird die Aktie als vielversprechend angesehen und dürfte auch in Zukunft eine zentrale Rolle in der Technologiebranche spielen.
NVIDIA-Aktie bei 172 €: Analysten sehen 229 USD Kursziel – Quanten-Boom und KI-Dominanz treiben Wachstum 2026
Die NVIDIA-Aktie liegt aktuell bei etwa 172,20 €, was einen leichten Rückgang im Vergleich zum Vortag darstellt, jedoch eine positive Entwicklung über die letzten Monate zeigt. Analysten setzen das Kursziel auf 229,06 USD, was die starke Marktstellung von NVIDIA im Bereich Künstliche Intelligenz (KI) und Quantencomputing verdeutlicht. Das Unternehmen hat kürzlich KI-Modelle für Quantencomputer vorgestellt, was das Wachstum in diesem Sektor weiter fördern könnte. Mit einem jährlichen Anstieg von 7,28 % und einer beeindruckenden 1-Jahres-Performance von 98,45 % zeigt die Aktie eine starke Performance. Die Marktkapitalisierung beträgt 4,19 Bio. €, und für 2026 wird ein Gewinnwachstum von 24,6 % prognostiziert. Trotz geopolitischer Spannungen bleibt NVIDIA robust und bietet deutschen Privatanlegern eine attraktive Möglichkeit, in den US-Technologiesektor zu investieren. Die Innovationskraft durch KI-Chips und die Diversifizierung in Quantencomputing positionieren das Unternehmen vielversprechend für zukünftiges Wachstum.
Oklo, Nvidia Team Up To Advance Nuclear-Powered AI Factories
Oklo, ein Start-up, das sich auf Kernenergie spezialisiert hat, hat eine Partnerschaft mit Nvidia angekündigt, um künstliche Intelligenz in der Kernforschung am Los Alamos National Laboratory zu integrieren. Ziel dieser Zusammenarbeit ist es, die kritische Infrastruktur der Kernenergie zu verbessern und nuklearbetriebene KI-Fabriken zu entwickeln. Die Ankündigung führte zu einem Anstieg des Aktienkurses von Oklo, unterstützt durch positive Bewertungen von Analysten. Durch die Anwendung von KI in der Kernforschung erhoffen sich die Partner Fortschritte in der Effizienz und Sicherheit der Kernenergie. Diese Initiative könnte bedeutende Auswirkungen auf die Energiebranche haben, indem sie innovative Lösungen zur Nutzung von Kernenergie in Verbindung mit modernen Technologien bietet.
SK Hynix to shift over half of NAND output to 321-layer chips
SK Hynix hat angekündigt, über die Hälfte seiner NAND-Chip-Produktion auf die neuen 321-Layer-Chips umzustellen. Diese Entscheidung erfolgt als Reaktion auf die steigende Nachfrage nach Hochkapazitäts-Speicherlösungen, insbesondere im Bereich der KI-Anwendungen. Durch die Fokussierung auf diese fortschrittlichen Chips möchte das Unternehmen seine Marktposition stärken und den sich wandelnden Anforderungen der Branche gerecht werden. SK Hynix zeigt damit sein Engagement für innovative Technologien und die Anpassung an die Bedürfnisse seiner Kunden. Diese Strategie könnte langfristig die Wettbewerbsfähigkeit des Unternehmens erhöhen und zu einem Wachstum im Speicherlösungsmarkt führen.
SUSE AI Factory mit Nvidia: KI-Eigenbetrieb leicht gemacht
SUSE hat auf der SUSECon in Prag die „SUSE AI Factory with Nvidia“ vorgestellt, eine schlüsselfertige Lösung, die Unternehmen den Eigenbetrieb von Künstlicher Intelligenz erleichtert. Diese Lösung integriert Technologien wie SUSE AI, die Kubernetes-Plattform Rancher Prime und SUSE Linux Enterprise Server sowie Komponenten aus Nvidia AI Enterprise. Anwender können mithilfe geprüfter Blueprints Kubernetes-Cluster für verschiedene KI-Anwendungsfälle einfach einrichten und verwalten. Derzeit sind drei Blueprints verfügbar, mit weiteren, die bis 2026 folgen sollen. Die Initiative „Infrastructure for AI“ zielt darauf ab, die Bereitstellung von KI-Infrastruktur zu vereinfachen, während die Zusammenarbeit mit Nvidia und dem Rechenzentrumsbetreiber Switch intensiviert wird. Diese Partnerschaften ermöglichen die Nutzung von Nvidia-Hardware zur Erstellung digitaler Zwillinge von Rechenzentren, was die Simulation komplexer Systeme erleichtert. Zudem hat SUSE einen Model-Context-Protocol-Server veröffentlicht, der die Interoperabilität innerhalb seiner Softwarelösungen verbessert.
Semiconductor stocks like Nvidia and Micron are on a remarkable streak
Der Philadelphia Semiconductor Index (SOX) erlebt derzeit eine bemerkenswerte 16-tägige Gewinnserie, die die längste in seiner 32-jährigen Geschichte darstellt. In diesem Zeitraum ist der Index um 38,7% gestiegen, wobei Nvidia, das größte Unternehmen nach Marktkapitalisierung, einen Anstieg von 22,6% verzeichnet hat. Auch die anderen großen Akteure wie Broadcom, Micron und AMD haben im April erhebliche Kursgewinne erzielt, wobei Micron sogar um 52% zulegte. Diese positive Entwicklung wird durch starke Quartalszahlen von Taiwan Semiconductor Manufacturing Company unterstützt, die einen Umsatzanstieg von 35% im ersten Quartal vermeldete. Die Ergebnisse übertrafen die eigenen Prognosen des Unternehmens und deuten auf einen wachsenden AI-Superzyklus hin. Die Aufmerksamkeit richtet sich nun auf Intel, dessen bevorstehende Quartalszahlen entscheidend für die Fortsetzung des Trends im Halbleitersektor sein könnten. Der aktuelle Aufwärtstrend könnte sich als vorteilhaft für Investoren erweisen, solange er anhält.
Super Micro Computer Tumbles 10%: Legal Overhang Clashes With AI Earnings Momentum
Super Micro Computer (SMCI) erzielte im zweiten Quartal des Geschäftsjahres 2026 einen Umsatz von 12,68 Milliarden Dollar, der die Schätzungen um 23% übertraf, und der Gewinn pro Aktie lag 41% über dem Konsens. Trotz dieser positiven Ergebnisse fiel der Aktienkurs jedoch um 10%. Dieser Rückgang wird auf rechtliche und regulatorische Herausforderungen zurückgeführt, die aus mehreren Klagen resultieren, in denen behauptet wird, dass das Unternehmen gegen US-Exportkontrollgesetze verstoßen hat, indem es eingeschränkte GPU-Server nach China umgeleitet hat. Diese rechtlichen Probleme haben das Vertrauen der Anleger stark beeinträchtigt, insbesondere nach einem früheren Vorfall, der zu einem Rückgang des Aktienkurses um 33% führte. Obwohl das Wachstum im Bereich der KI-Server weiterhin vielversprechend ist, müssen Investoren die potenziellen rechtlichen Risiken berücksichtigen. Analysten haben die Preisziele für die Aktie gesenkt, was die negative Stimmung um das Unternehmen weiter verstärkt.
Supermicro GPU smuggling prompts Nvidia to intensify supply chain audit
Nach den Schmuggelvorwürfen gegen Wally Liaw, Mitbegründer von Supermicro, hat Nvidia seine globalen Überwachungspraktiken der Lieferkette verstärkt. Diese Maßnahme zielt darauf ab, die Integrität der Lieferkette zu gewährleisten und potenzielle Risiken zu minimieren, die das Vertrauen in die Sicherheit der GPU-Lieferungen beeinträchtigen könnten. Nvidia reagiert proaktiv auf die Vorfälle, um ähnliche Probleme in der Zukunft zu verhindern und die Unternehmensreputation zu schützen. Die intensiveren Kontrollen sollen nicht nur die internen Standards von Nvidia erhöhen, sondern auch die gesamte Branche dazu anregen, ihre Praktiken zu überprüfen und zu verbessern.