Datenengineering
Datenqualität, Labeling und operative Datenstrukturen für KI.
5
Cluster
202
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Datenpipelines
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Datenpipelines innerhalb von Datenengineering auf JetztStarten.de.
Datenqualität
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Datenqualität innerhalb von Datenengineering auf JetztStarten.de.
Labeling
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Labeling innerhalb von Datenengineering auf JetztStarten.de.
Datensätze
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Datensätze innerhalb von Datenengineering auf JetztStarten.de.
Feature-Verwaltung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Feature-Verwaltung innerhalb von Datenengineering auf JetztStarten.de.
Aktuelle Einträge in Datenengineering
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
Redpine secures €6.8M to power AI with premium data
Die schwedische KI-Firma Redpine hat in einer Seed-Finanzierungsrunde 6,8 Millionen Euro gesammelt, um ihre internationale Expansion und die Entwicklung einer KI-Datenplattform voranzutreiben. Gegründet von Anders Hammarbäck und David Österdahl im Jahr 2024, möchte Redpine die Herausforderungen der begrenzten Verfügbarkeit hochwertiger Daten für KI-Training angehen. Das Unternehmen kooperiert mit Inhaltsanbietern, um nicht-öffentliche Datensätze legal zugänglich zu machen. Über eine API-Schnittstelle können KI-Unternehmen auf kuratierte Datensätze in verschiedenen Bereichen zugreifen, insbesondere in wissenschaftlichen und wertvollen Feldern. Redpine kombiniert proprietäre Technologien zur Datenretrieval und -bewertung, um die Qualität und Zuverlässigkeit von KI-Ausgaben zu verbessern und gleichzeitig faire Entlohnung für Datenanbieter zu gewährleisten. Die Finanzierung wird genutzt, um die Produktentwicklung zu beschleunigen, das Netzwerk an Datenpartnerschaften auszubauen und das Personal in den Bereichen Ingenieurwesen, Datenwissenschaft und Vertrieb zu erweitern. Angesichts des Wachstums im KI-Agentenmarkt wird der Zugang zu genauen, hochwertigen und konformen Daten zunehmend wichtiger.
SAS aims AI agents at industry's toughest challenges
SAS hat sich zum Ziel gesetzt, Unternehmen durch den Einsatz von KI-Agenten und Modellen einen Wettbewerbsvorteil zu verschaffen, insbesondere in den Bereichen Finanzen und Fertigung. Die Herausforderungen, wie Fachkräftemangel und Budgetbeschränkungen, werden durch spezielle Industrie-Akzeleratoren adressiert. Ein Beispiel ist der SAS Supply Chain Agent, der die Planung von Lieferketten optimiert und Angebot sowie Nachfrage in Echtzeit ausbalanciert, um Bestände effizienter zu verwalten und Abfall zu reduzieren. Zudem nutzt SAS digitale Zwillinge zur Simulation industrieller Umgebungen, um Engpässe zu identifizieren. In der Sicherheitsbranche verbessert SAS die Arbeitssicherheit durch den Einsatz von synthetischen Daten und Computer Vision. Auch im Bereich der Lebensmittelhilfe unterstützt SAS staatliche Stellen bei der Berechnung von Unterstützungsleistungen, um Familien besser zu versorgen. Finanzinstitute setzen auf SAS zur Betrugserkennung, indem sie umfangreiche Datensätze nutzen, die aus globalen Kooperationen stammen.
Bad Data is Costing Businesses Customers and the Numbers Prove It
Eine aktuelle Umfrage von Data Axle zeigt, dass ungenaue Online-Geschäftsinformationen eine erhebliche Hürde für Unternehmen darstellen, da fast 70 Prozent der Verbraucher bereits aufgrund falscher Informationen versucht haben, ein Unternehmen zu besuchen, was häufig zu einem verlorenen Kunden führt. Die Studie verdeutlicht, dass 85 Prozent der Befragten weniger wahrscheinlich ein Unternehmen erneut aufsuchen, wenn sie mit veralteten Daten konfrontiert werden. In einer Zeit, in der Verbraucher Informationen über verschiedene Plattformen und KI-Tools überprüfen, wird die Genauigkeit von Geschäftsinformationen immer wichtiger. 87 Prozent der Verbraucher bevorzugen Unternehmen mit präzisen und vollständigen Informationen, was den Druck auf Firmen erhöht, ihre Daten zu verifizieren. Unternehmen, die Datenqualität als essenziell betrachten, können Vertrauen und Loyalität aufbauen, während diejenigen, die dies ignorieren, Gefahr laufen, Kunden zu verlieren, bevor diese überhaupt den Laden betreten.
Spring 2026 Release sees additional AI-Driven Insights, Mobile Expansion, and Next-Gen Pretectum cMDM UI Architecture
Am 16. April 2026 hat Pretectum die neueste Version seines Customer Master Data Management (CMDM) vorgestellt, die bedeutende Verbesserungen in der Benutzeroberfläche, ein fortschrittliches Agentic AI-Framework und optimierte globale Datenqualitätsdienste umfasst. Diese Neuerungen sollen die Benutzererfahrung für Datenverwalter verbessern, indem sie die Verwaltung komplexer Datensätze erleichtern. Die überarbeitete Benutzeroberfläche ist für moderne Browser optimiert und verbessert die Datenmanipulation. Das neue Agentic Framework ermöglicht eine autonomere Datenentdeckung, wodurch der manuelle Aufwand für Datenbereinigung verringert wird. Ein verbessertes Dashboard bietet Echtzeit-Reporting zur Datenqualität, während mobile Erweiterungen den Zugriff auf wichtige Daten für Führungskräfte jederzeit ermöglichen. Zudem wurden die Backend-Tools erweitert, um die Integration mit externen Datenquellen zu optimieren und komplexe Arbeitsabläufe effizienter zu gestalten. Diese umfassenden Verbesserungen setzen neue Maßstäbe für den Umgang mit Kundendaten in Unternehmen.
AI in ESG & Sustainability Market Size to Reach USD 846.75 Billion by 2032 as Generative AI, ESG Disclosure Automation, and Enterprise Sustainability Analytics Gain Momentum
Der Markt für Künstliche Intelligenz (KI) im Bereich Umwelt, Soziales und Unternehmensführung (ESG) sowie Nachhaltigkeit wird bis 2032 voraussichtlich 846,75 Milliarden USD erreichen, mit einem jährlichen Wachstum von 21,16 %. Diese Entwicklung wird durch den Übergang von manuellen zu KI-gestützten, datengestützten Arbeitsabläufen in der ESG-Berichterstattung gefördert, wobei regulatorische Anforderungen die Einführung von KI-Plattformen beschleunigen. Generative KI wird eine Schlüsselrolle spielen und soll 2024 über 41,8 % des Marktanteils ausmachen, insbesondere in der automatisierten Berichtserstellung und Szenarienmodellierung. Die Nachfrage nach cloudbasierten Lösungen wächst, da Unternehmen ihre fragmentierten ESG-Daten effizienter verwalten möchten. In den USA treiben Unternehmensziele zur Dekarbonisierung und der Bedarf an automatisierten Berichten den Markt an, während Japan durch strukturierte Nachhaltigkeitsstandards und KI-Richtlinien an Bedeutung gewinnt. Unternehmen, die vertrauenswürdige Datenpipelines und flexible KI-Tools kombinieren, werden voraussichtlich den größten Marktanteil gewinnen.
I Audited 47 Power BI Implementations. This 15-Minute Framework Found $500K+ in Hidden Errors.
In dem Artikel "I Audited 47 Power BI Implementations. This 15-Minute Framework Found $500K+ in Hidden Errors" teilt der Autor seine Erfahrungen aus der Überprüfung von 47 Power BI Implementierungen. Er beschreibt ein einfaches, 15-minütiges Rahmenwerk, das dazu verwendet wurde, versteckte Fehler in den Datenanalysen und Berichten zu identifizieren. Durch diese systematische Überprüfung konnten über 500.000 US-Dollar an potenziellen Verlusten aufgedeckt werden, die durch fehlerhafte Datenvisualisierungen und ungenaue Analysen entstanden waren. Der Autor betont die Bedeutung einer gründlichen Auditierung und bietet praktische Tipps zur Verbesserung der Datenqualität und der Effizienz von Power BI Projekten. Die Erkenntnisse sollen Unternehmen helfen, ihre Datenstrategien zu optimieren und fundierte Entscheidungen zu treffen.
„Wer echte Veränderungen erreichen will, muss sich bewusst auf Neues einlassen“
Die EnBW hat beschlossen, ihren Kundenservice durch die Einführung der BSI Customer Suite neu zu gestalten, um den Herausforderungen der Digitalisierung und dem Wettbewerb gerecht zu werden. Trotz eines bereits hohen Serviceniveaus erfordert die IT-Struktur eine Vereinfachung, um KI-Technologien effektiver nutzen zu können. Die Entscheidung für die BSI Software basiert auf positiver Nutzererfahrung und einfacher Bedienbarkeit. Die Implementierung soll bis Ende 2026 abgeschlossen sein und den Mitarbeitenden den Zugang zu Informationen erleichtern sowie historische Abläufe optimieren. EnBW plant, Standardanliegen durch KI zu automatisieren, um den Mitarbeitenden mehr Zeit für komplexe Fälle zu geben, während persönliche Beratung weiterhin wichtig bleibt. Sebastian Louis betont die Notwendigkeit hoher Datenqualität und klarer Abläufe für den Erfolg der KI-gestützten Prozesse. Dennis Kraft hebt hervor, dass echte Veränderungen nur durch die Bereitschaft zur Prozessoptimierung und kulturelle Anpassung im Unternehmen erreicht werden können. Zukünftig sollen KI-Agenten viele Standardprozesse übernehmen, sodass sich die Mitarbeitenden verstärkt auf komplexe Anliegen und Kundenbindung konzentrieren können.
Challenges and Opportunities in Adopting AI Procurement Solutions
Die Einführung von KI-Procurement-Lösungen bietet Unternehmen die Chance, ihre Effizienz zu steigern, Kosten zu senken und die Entscheidungsfindung zu optimieren. Dennoch stehen sie vor Herausforderungen wie mangelhafter Datenqualität, der Integration in veraltete Systeme und Widerstand der Mitarbeiter gegen Veränderungen, die die Implementierung erschweren können. KI-gestützte Lösungen ermöglichen die Automatisierung manueller Prozesse, bieten Echtzeit-Analysen und verbessern das Lieferantenmanagement. Plattformen wie Level path unterstützen Unternehmen dabei, diese Herausforderungen zu meistern, indem sie eine integrierte, intelligente Systemlösung bereitstellen, die Transparenz und Effizienz fördert. Die Zukunft der KI-Procurement-Lösungen wird durch autonome Systeme geprägt sein, die eine strategische Transformation des Einkaufs ermöglichen. Um erfolgreich zu sein, müssen Unternehmen frühzeitig Probleme wie Datenqualität und Change Management angehen, um sich einen Wettbewerbsvorteil in der Beschaffung zu sichern.
Procurement Analytics Market Surges with 23.50% CAGR Driven by AI and Cloud Adoption
Der Procurement Analytics Markt verzeichnet ein bemerkenswertes Wachstum mit einer prognostizierten jährlichen Wachstumsrate (CAGR) von 23,50%. Die Marktgröße wird 2025 auf 5,27 Milliarden USD geschätzt und soll bis 2032 auf 28,54 Milliarden USD anwachsen. Haupttreiber sind die steigende Nachfrage nach datengestützten Entscheidungen und die Verbreitung von Cloud-basierten Analyseplattformen. Künstliche Intelligenz und fortschrittliche Analysetools revolutionieren die Entscheidungsfindung im Beschaffungswesen, wobei Nordamerika und Europa führend in der Implementierung sind. Cloud-Lösungen bieten Skalierbarkeit und Kosteneffizienz, was insbesondere kleine und mittlere Unternehmen in der Asien-Pazifik-Region anzieht. Dennoch stehen Unternehmen Herausforderungen wie hohe Implementierungskosten und die Sicherstellung von Datenqualität gegenüber. Regulatorische Anforderungen und der Druck zur Kostenoptimierung fördern zusätzlich die Nachfrage nach diesen Lösungen. In einem fragmentierten Markt mit intensivem Wettbewerb ist kontinuierliche Investition in Forschung und Entwicklung entscheidend für die Wettbewerbsfähigkeit.
Emerging Sub-Segments Transforming the Data Annotation and Labeling Market Landscape
Der Markt für Datenannotation und -labeling erlebt ein starkes Wachstum, da Unternehmen zunehmend Künstliche Intelligenz (KI) und maschinelles Lernen implementieren. Prognosen deuten darauf hin, dass der Markt bis 2030 auf 9,27 Milliarden US-Dollar anwachsen wird, mit einer jährlichen Wachstumsrate von 32,8%. Treiber dieses Wachstums sind der Einsatz KI-gestützter Annotationstools, automatisierte Annotation und die steigende Nachfrage nach multimodalen Datenanwendungen. Große Unternehmen wie Google, Amazon und IBM sind maßgeblich an der Entwicklung dieses Sektors beteiligt. Eine strategische Akquisition von iMerit Inc. zielt darauf ab, die Effizienz in der KI-Projektentwicklung durch die Kombination von Ressourcen und Technologien zu erhöhen. Zudem konzentrieren sich führende Firmen darauf, ihre Produktportfolios mit strukturierten Datenannotationstools zu verbessern, um die Verarbeitung durch maschinelles Lernen zu erleichtern. Diese Trends fördern die Effizienz und Integration in der Datenannotation, was zu höherer Qualität und Konsistenz in den Projekten führt.
Dozens of AI disease-prediction models were trained on dubious data
Forscher haben festgestellt, dass viele KI-Modelle zur Vorhersage von Schlaganfall- und Diabetesrisiken auf problematischen Datensätzen trainiert wurden, die möglicherweise gefälschte Informationen enthalten. Diese Datensätze stammen von der Plattform Kaggle und weisen Unregelmäßigkeiten auf, die ihre Zuverlässigkeit in Frage stellen. Die Verwendung solcher Modelle in der klinischen Praxis könnte zu falschen Diagnosen und unangemessenen Behandlungen führen, was gravierende Auswirkungen auf die Patientenversorgung haben könnte. Experten fordern daher mehr Transparenz bei der Herkunft von Daten und empfehlen, dass Institutionen und Geldgeber darauf bestehen, dass Forscher diese Informationen offenlegen. Zudem sollten Fachzeitschriften Studien ablehnen, die keine klare Datenherkunft bieten. Barnett und sein Team schlagen vor, die fraglichen Datensätze von Kaggle zu entfernen, um zukünftige Missbräuche zu verhindern.
Companies expand AI adoption while keeping control
Immer mehr Unternehmen setzen auf eine kontrollierte Einführung von KI-Systemen, um die menschliche Entscheidungsfindung zu unterstützen, anstatt autonome Systeme zu implementieren. Dies ist besonders relevant in der Finanzwirtschaft, wo Fehler schwerwiegende finanzielle oder rechtliche Konsequenzen haben können. S&P Global Market Intelligence hat KI-Tools in seine Plattform integriert, die Analysten bei der Auswertung von Unternehmensdaten unterstützen und dabei auf verifiziertem Material basieren. Trotz der Nutzung von KI in bestimmten Bereichen bleibt eine umfassende Implementierung oft aus, was zu einer Diskrepanz zwischen Nutzung und messbaren Geschäftsergebnissen führt. Die Governance von KI gewinnt an Bedeutung, um Risiken wie Datenqualität und Modellverzerrungen zu managen. Während das Interesse an autonomen Systemen wächst, bleibt der Bedarf an klaren Kontrollmechanismen zur Gewährleistung der Verantwortlichkeit bestehen. S&P Global hebt hervor, dass Vertrauen in die Systeme entscheidend ist, weshalb menschliche Kontrolle und verlässliche Daten im Mittelpunkt stehen. Diese Themen werden auch auf der AI & Big Data Expo North America 2026 behandelt, wo Governance und der Einsatz von KI in regulierten Branchen im Fokus stehen.
Implementing AI Agents in .NET: Ecosystem, Frameworks, and Best Practices
Die Implementierung von KI-Agenten in .NET umfasst eine Vielzahl von Ökosystemen, Frameworks und bewährten Praktiken. Der Artikel beleuchtet die verschiedenen Tools und Technologien, die Entwicklern zur Verfügung stehen, um KI-Lösungen effizient zu erstellen. Dazu gehören Frameworks wie ML.NET, das maschinelles Lernen in .NET-Anwendungen integriert, sowie Azure Cognitive Services, die vorgefertigte KI-Modelle anbieten. Best Practices umfassen die sorgfältige Planung der Architektur, die Auswahl geeigneter Algorithmen und die Berücksichtigung von Skalierbarkeit und Wartbarkeit. Zudem wird die Bedeutung von Datenqualität und -vorbereitung hervorgehoben, um die Leistung der KI-Agenten zu optimieren. Der Artikel schließt mit einem Ausblick auf zukünftige Entwicklungen im Bereich der KI-Integration in .NET.
Plume raises €3.3M to cut years from renewable energy development timelines
Plume, ein Franco-Amerikanisches Startup, hat 3,3 Millionen Euro an Finanzierung erhalten, um die Entwicklungszeiten für erneuerbare Energien erheblich zu verkürzen. Die innovative Plattform des Unternehmens nutzt über 150 ständig aktualisierte geografische Datensätze und KI-Agenten, um Genehmigungs- und Netzanschlussprozesse zu automatisieren. Dies ermöglicht Projektentwicklern, Standortanalysen in Sekundenschnelle durchzuführen, anstatt Wochen dafür zu benötigen. Die Effizienzsteigerung ist signifikant, da Plume die Auswahl geeigneter Standorte optimiert und Risiken frühzeitig identifiziert, was die Kapitalinvestitionen verbessert. Kunden berichten von Analysen, die bis zu 20 Mal schneller und dreimal genauer sind. Mit der neuen Finanzierung plant Plume, sein Team zu vergrößern und in neue europäische Märkte sowie in die USA zu expandieren, um die Herausforderungen der manuellen Standortauswahl und Genehmigungsprozesse zu überwinden und die Energiewende in Europa voranzutreiben.
Top 15 Computer Vision Datasets [2026]
Die Zusammenfassung des Artikels "Top 15 Computer Vision Datasets [2026]" könnte folgendermaßen aussehen: Der Artikel präsentiert eine umfassende Übersicht über die 15 bedeutendsten Datensätze im Bereich der Computer Vision, die im Jahr 2026 als besonders einflussreich gelten. Diese Datensätze decken eine Vielzahl von Anwendungsbereichen ab, darunter Bildklassifikation, Objekterkennung, Segmentierung und Bildgenerierung. Zu den hervorgehobenen Datensätzen gehören sowohl etablierte Sammlungen wie ImageNet und COCO als auch neuere, spezialisierte Datensätze, die für spezifische Aufgaben entwickelt wurden. Der Artikel diskutiert die Eigenschaften, Herausforderungen und den Nutzen jedes Datensatzes für Forscher und Entwickler. Zudem wird auf die Bedeutung der Datenqualität und -vielfalt hingewiesen, um Fortschritte in der Computer Vision zu fördern. Abschließend wird die Rolle dieser Datensätze in der Weiterentwicklung von Algorithmen und Modellen betont, die die Grundlage für innovative Anwendungen in der KI bilden.
Explore recipes with AI-suggested combinations
Die Künstliche Intelligenz revolutioniert die kulinarische Welt, indem sie innovative Ansätze zur Erkundung von Geschmacksrichtungen bietet. Durch die Analyse umfangreicher Datensätze zu Zutaten und Küchen weltweit schlägt AI unerwartete, aber harmonische Kombinationen vor, die das Kochen für Profis und Hobbyköche kreativer und effizienter gestalten. Tools wie Google Labs' Food Mood ermöglichen die Fusion von Rezepten aus verschiedenen Ländern, was das Experimentieren mit neuen Küchenstilen erleichtert. Unternehmen wie McCormick setzen AI ein, um vielversprechende Geschmacksrichtungen schneller zu identifizieren und die Entwicklungszeit um 20-25% zu verkürzen. Bis 2026 wird AI die personalisierte Essensplanung weiter verbessern, indem sie individuelle Vorlieben und Einschränkungen berücksichtigt. Generative Rezept-AI fungiert als kreativer Partner, der es ermöglicht, neue Gerichte zu entwickeln, ohne diätetische Einschränkungen zu verletzen, und verwandelt das tägliche Kochen in ein spannendes Experimentierfeld.
I Built a Tiny Graph Computer Inside a Graph Neural Network
In dem Artikel "I Built a Tiny Graph Computer Inside a Graph Neural Network" beschreibt der Autor die Entwicklung eines kompakten Graphcomputers, der innerhalb eines Graph-Neuronalen Netzwerks (GNN) integriert ist. Der Fokus liegt auf der Kombination von Graphverarbeitung und neuronalen Netzwerken, um die Effizienz und Leistungsfähigkeit bei der Analyse komplexer Datenstrukturen zu steigern. Der Autor erläutert die technischen Herausforderungen und Lösungen, die bei der Implementierung auftraten, sowie die Vorteile dieser hybriden Architektur. Durch die Nutzung von GNNs wird eine verbesserte Verarbeitung von Graphdaten ermöglicht, was in verschiedenen Anwendungen, wie z.B. in der sozialen Netzwerkanalyse oder im maschinellen Lernen, von Bedeutung ist. Der Artikel hebt die Innovationskraft dieser Technologie hervor und diskutiert mögliche zukünftige Entwicklungen und Anwendungen im Bereich der künstlichen Intelligenz.
UK's grand plan to fuel AI with public data faces uphill battle
Die britische Regierung plant die Einrichtung einer National Data Library (NDL), um die Entwicklung von Künstlicher Intelligenz (KI) durch den Zugang zu öffentlichen Daten zu fördern. Eine Studie des Open Data Institute (ODI) zeigt jedoch, dass die derzeit verfügbaren Datensätze oft irreführende Titel und unzureichende Metadaten aufweisen, was ihre Nutzung für sinnvolle Analysen stark einschränkt. Trotz einer Investition von 100 Millionen Pfund zur Verbesserung öffentlicher Dienstleistungen sind viele Daten veraltet oder schwer zugänglich, was dazu führt, dass KI-Systeme auf weniger zuverlässige Informationen angewiesen sind. Professor Elena Simperl vom ODI warnt, dass ohne signifikante Verbesserungen in der Datenqualität die NDL ihr Potenzial nicht ausschöpfen kann. Obwohl die Regierung plant, die digitale Infrastruktur zu modernisieren und den Zugang zu öffentlichen Daten zu erleichtern, bestehen weiterhin erhebliche Herausforderungen. Die NDL könnte eine wertvolle Ressource für Forscher und Datenwissenschaftler darstellen, doch die Ergebnisse des ODI verdeutlichen den notwendigen Aufwand zur Optimierung der Daten für moderne KI-Anwendungen.
Only 28% of AI infrastructure projects fully pay off, survey finds
Eine aktuelle Umfrage von Gartner zeigt, dass lediglich 28 Prozent der AI-Infrastrukturprojekte einen vollständigen Return on Investment (ROI) erzielen, während ein Fünftel dieser Projekte komplett scheitert. Unter 782 IT-Managern berichteten 57 Prozent von gescheiterten AI-Initiativen, oft aufgrund unrealistischer Erwartungen. Melanie Freeze, Forschungsdirektorin bei Gartner, betont, dass viele Unternehmen fälschlicherweise annehmen, AI könne sofort komplexe Aufgaben automatisieren und Kosten senken, was zu einem Vertrauensverlust führt. Besonders häufig scheitern Projekte in Bereichen wie Auto-Reparatur und selbstheilender Infrastruktur, wobei Fachkräftemangel und schlechte Datenqualität als Hauptursachen genannt werden. Erfolgreiche AI-Anwendungen finden sich vor allem in reiferen Technologien wie IT-Service-Management, wo 53 Prozent der Führungskräfte positive Ergebnisse berichten. Trotz der Herausforderungen bei der Finanzierung von AI-Initiativen wird ein aktiveres Engagement von CEOs und CFOs gefordert. Über 80 Prozent der Unternehmensleiter sehen keinen spürbaren Einfluss von AI auf Beschäftigung oder Produktivität, obwohl 69 Prozent AI nutzen. Zudem stehen 98 Prozent der Führungskräfte unter Druck, bis Mitte 2026 die Rendite ihrer AI-Investitionen nachzuweisen, um Budgetkürzungen zu vermeiden.
Different Pipelines Used in Artificial Intelligence Projects Part-1
Der Artikel "Different Pipelines Used in Artificial Intelligence Projects Part-1" bietet einen Überblick über die verschiedenen Pipelines, die in KI-Projekten eingesetzt werden. Er beschreibt die grundlegenden Schritte, die für die Entwicklung von KI-Modellen erforderlich sind, einschließlich Datensammlung, Datenaufbereitung, Modelltraining und -evaluierung. Zudem werden unterschiedliche Ansätze und Frameworks vorgestellt, die in der Praxis verwendet werden, um die Effizienz und Genauigkeit von KI-Anwendungen zu verbessern. Der Fokus liegt auf der Bedeutung einer gut strukturierten Pipeline, um den gesamten Entwicklungsprozess zu optimieren und Herausforderungen wie Datenqualität und Modellkomplexität zu bewältigen. Der Artikel dient als Einführung in die Thematik und legt den Grundstein für weiterführende Diskussionen über spezifische Techniken und Tools in zukünftigen Teilen.
dbt Explained Simply — and How AI Makes It Even Easier
Der Artikel "dbt Explained Simply — and How AI Makes It Even Easier" bietet eine verständliche Einführung in dbt (data build tool), ein beliebtes Werkzeug zur Datenmodellierung und -transformation. dbt ermöglicht es Analysten und Dateningenieuren, SQL-gestützte Datenpipelines zu erstellen und zu verwalten, wodurch die Datenqualität und -konsistenz verbessert wird. Der Einsatz von dbt fördert die Zusammenarbeit im Team und erleichtert die Dokumentation von Datenmodellen. Zudem wird erörtert, wie Künstliche Intelligenz (KI) die Nutzung von dbt optimieren kann, indem sie repetitive Aufgaben automatisiert, Vorschläge für Datenanalysen liefert und die Effizienz steigert. Der Artikel hebt die Vorteile von dbt und KI hervor und zeigt, wie diese Technologien zusammenarbeiten, um datengetriebene Entscheidungen zu unterstützen.
SpendHQ übernimmt Sligo AI und bringt agentische KI in den Unternehmenseinkauf
SpendHQ hat die Übernahme von Sligo AI angekündigt, um agentische KI in den Unternehmenseinkauf zu integrieren. Diese strategische Akquisition ermöglicht es SpendHQ, maßgeschneiderte KI-Lösungen anzubieten, die nicht nur wertvolle Erkenntnisse liefern, sondern auch komplette Einkaufsprozesse autonom abwickeln können. Angesichts des zunehmenden Drucks auf Einkaufsteams, Kosteneinsparungen zu erzielen und gleichzeitig Umwelt-, Sozial- und Governance-Vorgaben (ESG) zu erfüllen, wird die Kombination aus strukturierten Einkaufsdaten und einer agentischen Infrastruktur als entscheidend erachtet. Die Übernahme adressiert auch die Herausforderungen der KI-Implementierung in großen Unternehmen, indem SpendHQ die erforderliche Datenqualität und -verfügbarkeit gewährleistet. Sligo AI bringt eine Infrastruktur mit, die die Implementierung von KI-Systemen unter Berücksichtigung von Sicherheits- und Compliance-Anforderungen ermöglicht. Diese Entwicklungen könnten die Effizienz im Einkauf erheblich steigern und die Anwendung von KI in diesem Bereich vorantreiben.
Cognichip wants AI to design the chips that power AI, and just raised $60M to try
Cognichip hat ein Deep-Learning-Modell entwickelt, das Ingenieuren helfen soll, die komplexe und teure Chip-Entwicklung zu optimieren und die Markteinführungszeit erheblich zu verkürzen. CEO Faraj Aalaei hebt hervor, dass ihre Technologie die Entwicklungskosten um über 75 % senken und die Entwicklungszeit um mehr als die Hälfte reduzieren kann. Kürzlich erhielt das Unternehmen 60 Millionen Dollar an Finanzierung, um seine Vision voranzutreiben, hat jedoch noch keinen Chip mit seinem System entworfen. Cognichip trainiert sein Modell mit spezifischen Chip-Design-Daten und hat eigene Datensätze erstellt sowie Partnerschaften geschlossen, um sicherzustellen, dass Chip-Hersteller ihre Modelle sicher mit eigenen Daten trainieren können. Bei einem Hackathon an der San Jose State University konnten Studenten das Modell nutzen, um CPUs auf Basis der offenen RISC-V-Architektur zu entwerfen. Cognichip konkurriert mit etablierten Unternehmen und gut finanzierten Startups in einer Branche, die derzeit einen historischen Höhepunkt bei Investitionen in KI-Infrastruktur erlebt.
How Cursor Actually Works Under the HOOD…
Der Artikel "How Cursor Actually Works Under the HOOD…" bietet einen tiefen Einblick in die Funktionsweise von Cursorn in Datenbanksystemen. Er erklärt, wie Cursorn als Schnittstelle zwischen der Anwendung und den Datenbankdaten fungieren, indem sie es Entwicklern ermöglichen, Datensätze zeilenweise zu verarbeiten. Der Text beleuchtet die verschiedenen Typen von Cursorn, wie z.B. statische, dynamische und schreibbare Cursorn, und deren jeweilige Vor- und Nachteile. Zudem wird auf die Performance-Aspekte eingegangen, die bei der Verwendung von Cursorn zu beachten sind, sowie auf die Bedeutung von Transaktionen und Sperren. Abschließend wird die Rolle von Cursorn in modernen Datenbankanwendungen diskutiert und wie sie zur Effizienz und Flexibilität bei der Datenmanipulation beitragen.
Agentic AI in Action — Part 16- The Data Warehouse That Built Itself: Powered by Snowflake CoCo
In "Agentic AI in Action — Part 16" wird das Konzept eines selbstaufbauenden Data Warehouses vorgestellt, das durch die innovative Technologie von Snowflake CoCo ermöglicht wird. Der Artikel beschreibt, wie Agentic AI in der Lage ist, Daten automatisch zu integrieren, zu organisieren und zu analysieren, wodurch der manuelle Aufwand für Datenmanagement erheblich reduziert wird. Die Vorteile dieser automatisierten Lösung umfassen schnellere Entscheidungsfindung, verbesserte Datenqualität und eine höhere Effizienz in der Datenverarbeitung. Zudem wird erläutert, wie Unternehmen durch den Einsatz von Snowflake CoCo ihre Datenstrategien optimieren und wertvolle Erkenntnisse gewinnen können. Der Artikel hebt die transformative Kraft von Agentic AI hervor und zeigt auf, wie diese Technologie die Zukunft des Datenmanagements prägen könnte.
Crack ML Interviews with Confidence: Data Preparation (20 Q&A)
"Crack ML Interviews with Confidence: Data Preparation (20 Q&A)" ist ein Leitfaden, der sich auf die Vorbereitung auf Machine Learning (ML) Interviews konzentriert, insbesondere im Bereich der Datenaufbereitung. Der Inhalt umfasst 20 häufig gestellte Fragen und Antworten, die Kandidaten helfen sollen, ihr Wissen über wichtige Konzepte und Techniken der Datenvorverarbeitung zu vertiefen. Themen wie Datenbereinigung, Feature Engineering, Umgang mit fehlenden Werten und die Bedeutung von Datenqualität werden behandelt. Der Leitfaden bietet praktische Tipps und Strategien, um das Verständnis für die Herausforderungen der Datenaufbereitung zu verbessern und das Selbstvertrauen der Bewerber zu stärken. Ziel ist es, die Leser optimal auf technische Interviews im Bereich Machine Learning vorzubereiten und ihnen zu helfen, ihre Fähigkeiten effektiv zu präsentieren.
aytm Names Jonathan Goodbread Head of Data Quality Strategy
Jonathan Goodbread wurde als Head of Data Quality Strategy bei aytm, einer technologiegetriebenen Marktforschungsplattform, eingestellt, um die Herausforderungen der Datenintegrität in einer zunehmend von KI geprägten Umgebung zu adressieren. Mit seiner umfangreichen Erfahrung in Datenqualität und Marktforschungsmethodik wird er die Systeme von aytm weiterentwickeln, um die Transparenz und Relevanz der Datenqualität für die Kunden zu steigern. Angesichts der Zunahme von KI-generierten Antworten und Betrug ist es entscheidend, vertrauenswürdige Daten zu gewährleisten, da traditionelle Methoden nicht mehr ausreichen. Goodbread sieht Datenqualität nicht als einmalige Aufgabe, sondern als fortlaufenden Prozess, der in alle Forschungsphasen integriert werden sollte. Die Philosophie von aytm basiert auf einem respektvollen Austausch mit den Befragten und innovativen Qualitätssicherungssystemen. CEO Lev Mazin betont die Notwendigkeit, Ressourcen zur Identifizierung fehlerhafter Antworten zu investieren, da schlechte Daten Umfragen und Modelle gefährden können. Goodbread wird eine zentrale Rolle dabei spielen, die Datenqualität als dynamischen Prozess zu gestalten, der in enger Zusammenarbeit mit den Kunden entwickelt wird.
AI Agents Are Only as Sharp as the Data Behind Them
Im Jahr 2026 hat sich die Diskussion über KI-Modelle wie GPT und Gemini zunehmend auf die Qualität und Aktualität der zugrunde liegenden Daten konzentriert. Die Leistungsfähigkeit dieser Systeme hängt stark von der Verfügbarkeit relevanter und frischer Informationen ab, was viele Organisationen noch nicht erkannt haben. Während die Entwicklungskosten für KI-Modelle sinken und sich die Technologien annähern, bleibt die Infrastruktur zur Datenbeschaffung ein entscheidender Wettbewerbsfaktor. Unternehmen, die in kontinuierliche Datenpipelines investieren, können sich von der Konkurrenz abheben. Viele KI-Projekte scheitern jedoch, weil sie oft mit veralteten Informationen arbeiten, was zu fehlerhaften Ergebnissen führt. Gartner prognostiziert, dass bis Ende 2027 über 40 % dieser Projekte aufgrund unklarer Geschäftswerte und steigender Kosten eingestellt werden. Um den vollen Wert aus KI zu schöpfen, müssen Unternehmen eine kohärente Datenstrategie entwickeln, die die Qualität der Informationen priorisiert. Der Erfolg von KI-Systemen wird letztlich davon abhängen, wie gut sie mit aktuellen und relevanten Daten versorgt werden.
Palantir and Stellantis expand AI partnership to 2031
Stellantis hat seine Partnerschaft mit Palantir Technologies um fünf Jahre verlängert und die Zusammenarbeit, die 2016 begann, ausgeweitet. Im Rahmen des neuen Vertrags wird Stellantis die Nutzung von Palantir Foundry intensivieren und die Palantir Artificial Intelligence Platform (AIP) in bestimmten Geschäftsbereichen und Regionen implementieren. Foundry ermöglicht eine zentrale Verwaltung von Daten in komplexen industriellen Prozessen, während AIP Werkzeuge bereitstellt, um KI-Funktionen in bestehende Arbeitsabläufe zu integrieren. Diese Integration hilft Stellantis, fragmentierte Datensätze zu konsolidieren, die Transparenz zu erhöhen und schnellere Entscheidungen zu treffen. Die Verbindung von AIP mit der Datenontologie in Foundry stärkt die Governance und Nachvollziehbarkeit, was eine kontrollierte Skalierung von KI-Anwendungen ermöglicht. Zudem unterstützt die Partnerschaft die Data4All-Initiative von Stellantis, die den sicheren Datenzugang im Unternehmen fördern soll. Palantir hebt hervor, dass die Kombination von Foundry und AIP Stellantis dabei hilft, KI sicher in die Betriebsabläufe zu integrieren und Daten in einen strategischen Vorteil zu verwandeln.
Alphabet Just Introduced Its Newest AI Advantage, and It's Another Reason to Buy the Stock
Alphabet hat sich als Vorreiter im Bereich künstlicher Intelligenz etabliert, insbesondere durch die Einführung seines AI-Modells Gemini sowie der innovativen Tools Veo3 und Nano Banana zur Video- und Bildgenerierung. Ein neuer AI-Speicherkompressionsalgorithmus namens TurboQuant wird die Kostenstruktur des Unternehmens optimieren, indem er die Cache-Speicherkapazität erheblich reduziert und die Verarbeitungsgeschwindigkeit steigert, ohne die Datenqualität zu beeinträchtigen. Diese Technologie könnte Alphabet einen entscheidenden Wettbewerbsvorteil verschaffen, da sie die Arbeitslast um das Sechsfache verringert und die Geschwindigkeit um das Achtfache erhöht. Zudem ermöglicht die Entwicklung maßgeschneiderter AI-Chips, den Tensor Processing Units (TPUs), Alphabet, seine Modelle kostengünstiger zu trainieren als Wettbewerber, die auf Grafikkarten angewiesen sind. Analysten sehen in diesen Fortschritten großes Potenzial und positionieren Alphabet als eine der vielversprechendsten Aktien im AI-Sektor, da die Zukunft der künstlichen Intelligenz stark von der Fähigkeit abhängt, Kosten zu senken.
Enphase launches AI home energy management system
Enphase Energy hat in Australien und Neuseeland ein KI-gestütztes Energiemanagementsystem namens IQ Energy Management eingeführt, das in die bestehenden Solar- und Batteriesysteme integriert ist. Dieses innovative System ermöglicht eine intelligente Verwaltung von variablen Strompreisen und die Steuerung von Drittanbieter-Geräten wie Warmwasserbereitern und Elektrofahrzeug-Ladegeräten über die Enphase-App. Es prognostiziert den Energieverbrauch und die -produktion, überwacht die Strompreise und wählt die besten Zeiten für das Laden von Elektrofahrzeugen oder das Erhitzen von Wasser aus. Ken Fong, Senior Vice President von Enphase Energy, betont, dass das Ziel darin besteht, Hausbesitzern zu helfen, die Effizienz ihres erzeugten sauberen Stroms zu maximieren. Das System lernt die individuellen Verbrauchsmuster und optimiert den Energieimport und -export, wodurch der CO2-Fußabdruck reduziert wird. Zudem verwandelt IQ Energy Management das Zuhause in ein erneuerbares Kraftwerk, indem es den Eigenverbrauch von Solar- und Batteriestrom priorisiert.
AI amplifies whatever you feed it, including confusion
Die Implementierung von Künstlicher Intelligenz (KI) in Organisationen scheitert häufig nicht an technologischen Mängeln, sondern an der Unfähigkeit, relevante von irrelevanten Daten zu unterscheiden. Trotz eines prognostizierten Anstiegs der KI-Investitionen auf 2,52 Billionen Dollar bis 2026 berichten nur 14% der CFOs von messbaren Rückflüssen, während 42% der Unternehmen bis 2025 ihre KI-Pilotprojekte einstellen. Die Fragmentierung von Daten und die Schwierigkeit, kohärente Narrative zu entwickeln, führen zu Unsicherheiten in Entscheidungsprozessen. Während 61% der Datenverantwortlichen bessere Datenqualität als treibende Kraft für KI-Initiativen sehen, betrachten 50% die Datenqualität weiterhin als großes Hindernis. Um diese Herausforderungen zu meistern, müssen Organisationen klare Prozesse und Verantwortlichkeiten etablieren sowie Metriken entwickeln, die die tatsächliche Arbeitsweise widerspiegeln. Zudem ist das Verständnis der menschlichen Dimension entscheidend, da selbst gut strukturierte Daten ohne entsprechendes Wissen nicht ihr volles Potenzial entfalten können. Der Erfolg von KI hängt somit stark von der Klarheit und Struktur im Datenmanagement ab.
AI tech recognizes human actions from just a few example videos
Die neue KI-Technologie ermöglicht es, menschliche Handlungen anhand von nur wenigen Beispielvideos zu erkennen. Diese innovative Methode nutzt fortschrittliche Algorithmen, um Muster und Bewegungen zu analysieren, wodurch die Notwendigkeit umfangreicher Datensätze entfällt. Forscher haben herausgefunden, dass die KI in der Lage ist, verschiedene Aktionen präzise zu identifizieren, selbst wenn sie nur mit minimalen Informationen trainiert wurde. Dies könnte bedeutende Auswirkungen auf Bereiche wie Überwachung, Sportanalyse und interaktive Unterhaltung haben. Die Technologie könnte auch dazu beitragen, die Effizienz von Trainingsprozessen in der KI-Entwicklung zu steigern, indem sie den Aufwand für die Datensammlung reduziert. Insgesamt eröffnet diese Entwicklung neue Möglichkeiten für die Anwendung von KI in der Erkennung und Analyse menschlicher Bewegungen.
The AI Data Illusion: Why “Boring” Tech is the Only Real Enterprise Solution
Der Artikel "The AI Data Illusion: Why 'Boring' Tech is the Only Real Enterprise Solution" thematisiert die Herausforderungen und Missverständnisse rund um den Einsatz von Künstlicher Intelligenz in Unternehmen. Er argumentiert, dass viele Unternehmen von der Faszination für innovative KI-Technologien abgelenkt werden und dabei die grundlegenden, oft als "langweilig" empfundenen, Technologien vernachlässigen, die für den Geschäftserfolg entscheidend sind. Diese "langweiligen" Technologien, wie robuste Datenmanagementsysteme und bewährte Softwarelösungen, sind essenziell, um die Datenqualität und -integrität sicherzustellen, die für effektive KI-Anwendungen notwendig sind. Der Artikel plädiert dafür, dass Unternehmen ihre Prioritäten überdenken und sich auf solide technologische Grundlagen konzentrieren sollten, um langfristig erfolgreich zu sein.
Algoscale Repositions as an Enterprise Data Consulting & AI Services Company to Lead the Next Wave of AI-Driven Business Transformation
Algoscale hat sich von einem Softwareentwicklungsunternehmen zu einem spezialisierten Anbieter für Unternehmensdatenberatung und KI-Dienste umpositioniert, um Unternehmen bei der digitalen Transformation zu unterstützen. Diese Neuausrichtung erfolgt angesichts der wachsenden Nachfrage im Bereich Unternehmens-KI, während viele KI-Initiativen aufgrund mangelhafter Datenqualität scheitern. Algoscale bietet eine umfassende 5-Stufen-Methodik an, die Unternehmen hilft, saubere Datenpipelines zu erstellen, KI-Modelle zu entwickeln und Governance-Mechanismen zu implementieren. Mit der Integration in über 100 Unternehmensdatensysteme und einer vendor-unabhängigen Herangehensweise stellt Algoscale sicher, dass die Lösungen optimal auf die Kundenbedürfnisse abgestimmt sind. Die Neuausrichtung wird durch nachweisliche Erfolge in verschiedenen Branchen unterstützt, die signifikante Kosteneinsparungen und Effizienzsteigerungen für Kunden mit sich gebracht haben. Zudem bietet Algoscale kostenlose Strategiegespräche an, um Unternehmen bei der Verbesserung ihrer Daten- und KI-Reife zu unterstützen.
Norwegian Government Pension Fund re-selects RepRisk to navigate the shifting global risk landscape
Der norwegische Government Pension Fund hat RepRisk zum fünften Mal in Folge mit der Bereitstellung von Daten zu Geschäftswagnissen beauftragt, was das Vertrauen des größten Staatsfonds der Welt in die Qualität der RepRisk-Daten unterstreicht. Diese Entscheidung folgte einem wettbewerbsintensiven Ausschreibungsverfahren, in dem RepRisk eine perfekte Bewertung erhielt. Die bereitgestellten Daten helfen Finanzinstitutionen, Risiken im Zusammenhang mit wirtschaftlichem Verbrechen, Menschenrechten und Umweltschäden zu identifizieren und zu überwachen, was für verantwortungsvolle Investitionsentscheidungen entscheidend ist. CEO Philipp Aeby hebt hervor, dass die Kombination aus menschlicher Expertise und KI-gestützten Ansätzen die Datenqualität sichert. Eine Umfrage zeigt zudem, dass Führungskräfte in der Finanzbranche eine zunehmende Bedeutung von KI-bezogenen Risiken erwarten, was die Nachfrage nach hybriden Datenanbietern steigert. Diese Entwicklungen verdeutlichen den wachsenden Bedarf an qualitativ hochwertigen Daten zur Risikobewertung in einem sich verändernden globalen Umfeld.
Palantir Stock Surges as AI Demand Accelerates Growth
Palantir Technologies Inc. verzeichnete kürzlich einen Anstieg des Aktienkurses, bedingt durch die steigende Nachfrage nach KI-Lösungen, die das Unternehmenswachstum antreiben. Analysten von Truist Securities haben die Kaufempfehlung für die Aktie bekräftigt und ein Kursziel von 223 US-Dollar festgelegt, nachdem sie positive Gespräche mit der Unternehmensführung führten. Diese Gespräche unterstrichen Palantirs Rolle als KI-Betriebssystem für Unternehmen und Regierungen. Auch UBS hat die Bewertung auf "Kaufen" angehoben und ein Kursziel von 180 US-Dollar festgelegt, da der aktuelle Rückgang des Aktienkurses eine attraktive Einstiegsgelegenheit für Investoren darstellt. Palantir bietet Softwarelösungen wie Gotham und Foundry an, die große Datensätze mithilfe von KI und maschinellem Lernen analysieren. Dennoch gibt es Bedenken, dass andere KI-Aktien möglicherweise ein höheres Aufwärtspotenzial bei geringerem Risiko bieten könnten.
Azure Databricks: an end-to-end guide — Part 1 of 3
In der ersten von drei Teilen der Anleitung zu Azure Databricks wird eine umfassende Einführung in die Plattform gegeben. Azure Databricks ist eine Cloud-basierte Analyseplattform, die auf Apache Spark basiert und eine nahtlose Integration mit Azure-Diensten bietet. Der Artikel behandelt die grundlegenden Konzepte und Funktionen von Databricks, einschließlich der Erstellung von Notebooks, der Verwaltung von Clustern und der Nutzung von Machine Learning-Tools. Zudem werden Best Practices für die Datenverarbeitung und -analyse vorgestellt, um die Effizienz und Leistung zu optimieren. Ziel ist es, den Lesern eine solide Grundlage zu bieten, um Databricks effektiv für ihre Datenprojekte zu nutzen. In den folgenden Teilen der Serie werden spezifischere Anwendungsfälle und fortgeschrittene Techniken behandelt.
Azure Databricks: an end-to-end guide — Part 2 of 3
In der zweiten von drei Teilen der Anleitung zu Azure Databricks wird der Fokus auf die Implementierung und Nutzung der Plattform gelegt. Der Artikel behandelt die Integration von Databricks mit Azure-Diensten, um eine nahtlose Datenverarbeitung und -analyse zu ermöglichen. Es werden verschiedene Funktionen und Tools vorgestellt, die Entwicklern helfen, Datenpipelines zu erstellen und Machine Learning-Modelle zu trainieren. Zudem wird auf Best Practices eingegangen, um die Effizienz und Skalierbarkeit der Anwendungen zu maximieren. Der Beitrag bietet praktische Beispiele und Anleitungen, um die Benutzerfreundlichkeit von Azure Databricks zu demonstrieren und die Leser bei der Umsetzung ihrer Projekte zu unterstützen. Abschließend wird auf die Bedeutung von Collaboration und Versionierung in der Datenanalyse eingegangen.
QUALCOMM Incorporated Aktie: 20-Milliarden-Rückkaufprogramm und Dividendenanstieg stützen Kurs nach starkem Rückgang
QUALCOMM Incorporated hat ein neues Aktienrückkaufprogramm über 20 Milliarden US-Dollar angekündigt, was zusammen mit den verbleibenden Mitteln aus dem Vorgängerprogramm etwa 22,1 Milliarden US-Dollar ergibt und rund 14 Prozent der aktuellen Marktkapitalisierung entspricht. Diese Maßnahmen, einschließlich einer Erhöhung der Quartalsdividende von 89 auf 92 US-Cent je Aktie, sollen das Vertrauen in die Unterbewertung der Aktie stärken, insbesondere nach einem Rückgang von etwa 24 Prozent seit Jahresbeginn. Trotz Herausforderungen im Smartphone-Sektor bleibt die operative Stärke mit einer Bruttomarge von 55,1 Prozent und einer EBIT-Marge von 27,2 Prozent erhalten. Analysten sehen Potenzial in der Diversifikation in Bereiche wie Automotive und Edge-AI. Die Aktie gilt aufgrund des niedrigen Forward-Kurs-Gewinn-Multiplikators von 15,4 als günstig und attraktiv für Value-Investoren. Kritiker warnen jedoch vor möglichen Rückgängen beim Gewinn pro Aktie (EPS). Langfristig könnte die Neupositionierung in weniger zyklische Märkte entscheidend für das Wachstum von QUALCOMM sein, während die nächsten Quartalszahlen am 6. Mai 2026 wichtige Hinweise auf den Fortschritt der Diversifikation geben werden.