Video
Videoerzeugung, Animation und virtuelle Produktion.
5
Cluster
353
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Text-zu-Video
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Text-zu-Video innerhalb von Video auf JetztStarten.de.
Videobearbeitung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Videobearbeitung innerhalb von Video auf JetztStarten.de.
KI-Animation
Aktuelle Links, Zusammenfassungen und Marktinformationen zu KI-Animation innerhalb von Video auf JetztStarten.de.
Virtuelle Produktion
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Virtuelle Produktion innerhalb von Video auf JetztStarten.de.
Avatar-Video
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Avatar-Video innerhalb von Video auf JetztStarten.de.
Aktuelle Einträge in Video
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
KI für Videoproduktion: Warum das Ende von Sora Kreativagenturen kalt lässt
Das überraschende Ende der Text-to-Video-KI Sora hat in der Kreativagentur-Branche keine Besorgnis ausgelöst. Viele Agenturen haben sich bereits auf eine Vielzahl von Technologien und KI-Tools diversifiziert, um ihre Videoproduktionen effizienter zu gestalten und kreative Prozesse zu optimieren. Diese breite Aufstellung ermöglicht es den Agenturen, flexibel auf Marktveränderungen zu reagieren und ihre Dienstleistungen anzupassen. Durch die Entwicklung robuster Strategien sind sie in der Lage, auch ohne Sora erfolgreich zu arbeiten. Die Anpassungsfähigkeit der Kreativagenturen zeigt, dass die Branche gut gerüstet ist, um den Herausforderungen einer sich schnell entwickelnden Technologie zu begegnen.
Lego Iran war video creator speaks out after trolling Trump with viral AI clips
In den letzten Wochen sind auf sozialen Medien zahlreiche Lego-Propagandavideos aufgetaucht, die den Iran-Krieg thematisieren und Donald Trump sowie die USA und Israel verspotten. Der Schöpfer dieser Clips, "Mr Explosive" von Explosive Media, gestand in einem Interview, dass viele dieser Videos im Auftrag des iranischen Regimes produziert werden, was er als ehrenhaft erachtet. Er wies Vorwürfe zurück, seine Inhalte würden antisemitische Stereotypen bedienen oder faktisch ungenau sein, und kritisierte die faktische Basis von Trumps Aussagen. Experten sehen in diesen Videos eine ernstzunehmende Methode, um moderne Zuschauer mit Propaganda zu erreichen, und warnen davor, die Verwendung von Popkultur in diesem Kontext als trivial abzutun. Kulturwissenschaftler betonen, dass der Iran Meme-Videos gezielt einsetzt, um eine vereinfachte Erzählung von Gut gegen Böse zu vermitteln, die seine Position als Sprecher der Unterdrückten gegen westliche und israelische Mächte stärkt.
KI auf dem Vormarsch: Models bangen um die Zukunft der Fashion-Industrie
Die Modebranche erlebt durch den Einsatz von Künstlicher Intelligenz (KI) einen tiefgreifenden Wandel, insbesondere in der Bilderzeugung für Onlineshops. Models berichten von verkürzten Arbeitszeiten und der digitalen Übertragung ihrer Gesichter auf andere Körper, was ethische und rechtliche Fragen aufwirft. Unternehmen wie Otto und Zalando setzen bereits KI ein, um fotorealistische Bilder zu erstellen, wobei Zalando digitale Zwillinge realer Models nutzt, um die Kreativität zu bewahren. In Modelagenturen wird intensiv über die Rechte der Models diskutiert, da viele Verträge die Abtretung von Rechten zur KI-Nutzung beinhalten. Während einige Agenturen die Chancen digitaler Avatare betonen, warnen andere vor den möglichen langfristigen Folgen. Die rechtlichen Rahmenbedingungen sind unklar, insbesondere hinsichtlich der Kennzeichnung von KI-generierten Inhalten. Die Entwicklung der Branche wird stark von Marktbedingungen und Verbraucherentscheidungen beeinflusst. Models fühlen sich oft machtlos und fordern klare Regeln zur Einwilligung und Vergütung.
Virtuelle Weltreise - Wie ein KI Zug Demenzpatienten das Reisen zurückgibt
Ein Pflegeheim in Toowoomba, Australien, hat einen Raum in ein Zugabteil mit Bildschirm‑„Fenstern“, Surround‑Sound, landestypischem Essen und einem mehrsprachigen KI‑Reiseführer umgebaut. Bewohnerinnen und Bewohner, viele mit Demenz, können so virtuell durch zehn Länder „reisen“, Erinnerungen aktivieren und gemeinsam ins Gespräch kommen, ohne das Haus zu verlassen.
Alibaba Confirms It Built HappyHorse, the AI Video Model Topping Charts
Alibaba hat offiziell bestätigt, dass es das AI-Video-Generierungsmodell HappyHorse entwickelt hat, das in globalen Leistungsbenchmarks führend ist. Diese Bestätigung beendet monatelange Spekulationen über die Herkunft des Modells und positioniert Alibaba als ernsthaften Mitbewerber im Bereich der generativen KI, insbesondere im Wettbewerb mit OpenAI's Sora und Googles Veo. HappyHorse überzeugt durch herausragende Ergebnisse in zeitlicher Konsistenz und Bewegungsqualität, die für viele AI-Video-Tools eine Herausforderung darstellen. Die anfängliche Geheimhaltung von Alibabas Beteiligung deutet auf eine Strategie hin, die Technologie für sich sprechen zu lassen. Diese Entwicklung zeigt, wie chinesische Technologieunternehmen sich in der KI-Landschaft positionieren und an alternativen Chiparchitekturen sowie effizienteren Trainingsmethoden arbeiten. Mit der möglichen Integration von HappyHorse in Alibabas Cloud-Dienste könnte das Unternehmen eine breitere Zugänglichkeit für asiatische und internationale Unternehmen schaffen und westliche Wettbewerber preislich unterbieten. Dies könnte die Wettbewerbslandschaft im Bereich der AI-Video-Generierung erheblich verändern und Fragen zu weiteren Projekten von Alibaba aufwerfen.
Amazon’s AI tool matches shelter dogs and cats with adopters in the Protect Playtime campaign
Amazon hat in Kooperation mit PetIQ und Best Friends Animal Society die Kampagne „Protect Playtime“ ins Leben gerufen, die ein KI-gestütztes Tool zur Vermittlung von Haustieren an potenzielle Adoptierende nutzt. Dieses Tool analysiert natürliche Sprachabfragen, um passende Tiere aus über 6.000 Partnerheimen zu finden und erleichtert so den Adoptionsprozess. Bei einem Pilotereignis in Glen Rose, Texas, wurden 24 Adoptionen an einem Tag erzielt, was die vorherige Rekordzahl vervierfachte. Die Kampagne zielt darauf ab, die Kluft zwischen dem Ziel der „No-Kill“-Shelter und der Realität zu schließen, indem sie die Sichtbarkeit von Tieren erhöht und in die Infrastruktur der Unterkünfte investiert. Zudem werden personalisierte Videos für jedes Tier erstellt, die über Prime Video und Amazon Streaming TV bis Ende Juli 2026 ausgestrahlt werden. Diese Videos helfen potenziellen Adoptierenden, sich die Tiere in einem häuslichen Umfeld vorzustellen und verbessern somit die Adoptionserfahrung. „Protect Playtime“ soll nicht nur die Adoption von Haustieren fördern, sondern auch das Bewusstsein für die Notwendigkeit von Adoptionen in den USA schärfen.
From 'BuddhaBot' to $1.99 chats with AI Jesus, the faith-based tech boom is here
Die Entwicklung von KI-gestützten religiösen Anwendungen, wie dem AI-Jesus von Just Like Me, revolutioniert das persönliche Glaubenserlebnis. Nutzer können für 1,99 Dollar pro Minute mit einem Jesus-Avatar kommunizieren, der Gebete und Ermutigungen in verschiedenen Sprachen anbietet, was emotionale Bindungen fördert. Während Entwickler wie Cameron Pak Kriterien zur verantwortungsvollen Nutzung solcher Apps festlegen, gibt es Bedenken hinsichtlich der Genauigkeit und Privatsphäre. Die Integration von KI in den Glauben wirft zudem philosophische Fragen auf, insbesondere in Religionen wie dem Islam, wo menschliche Darstellungen problematisch sind. Unternehmen nutzen diese Technologien zur Evangelisation und Digitalisierung religiöser Texte, was einen Wettlauf um die Schaffung religiöser KI auslöst. Experten warnen jedoch vor den Risiken emotionaler Manipulation und fordern ethische Richtlinien. Die Debatte über die Rolle von KI im Glauben bleibt komplex, da sowohl Chancen als auch Gefahren bestehen.
From 'BuddhaBot' to $1.99 chats with AI Jesus, the faith-based tech boom is here
Die Nutzung von KI in religiösen Anwendungen hat in den letzten Jahren stark zugenommen, mit Angeboten wie 'Just Like Me', das es Nutzern ermöglicht, für 1,99 Dollar pro Minute mit einem KI-generierten Jesus zu kommunizieren. Diese digitalen Avatare sollen emotionale Bindungen fördern und spirituelle Unterstützung bieten. Dennoch gibt es Bedenken hinsichtlich der Genauigkeit und Ethik dieser Technologien, da einige Modelle aufgrund von Fehlinformationen oder Datenschutzproblemen überarbeitet wurden. Entwickler wie Cameron Pak setzen sich für Transparenz und die Wahrung religiöser Inhalte ein. Während einige Unternehmen KI als Werkzeug zur Glaubensverbreitung nutzen, warnen Kritiker vor der möglichen Ausbeutung des religiösen Marktes und der emotionalen Manipulation durch KI. Die Debatte über die Rolle von KI in der Religion wirft auch tiefere philosophische Fragen auf, insbesondere in Glaubensgemeinschaften, die Vorbehalte gegenüber humanoiden Darstellungen haben. Trotz der potenziellen Vorteile gibt es wachsende Sorgen über die Auswirkungen auf die psychische Gesundheit und die Notwendigkeit von Regulierungen.
From 'BuddhaBot' to $1.99 chats with AI Jesus, the faith-based tech boom is here
In der aufstrebenden Welt der religiösen KI-Technologien ermöglicht das Unternehmen Just Like Me Nutzern, für 1,99 Dollar pro Minute mit einem KI-generierten Avatar von Jesus zu kommunizieren. Diese Plattform bietet Gebete und Ermutigungen in verschiedenen Sprachen und spiegelt den Trend wider, dass immer mehr Menschen ihre Beziehung zu Glauben und Spiritualität durch Technologie erkunden. Während einige Entwickler, wie Cameron Pak, Kriterien zur Sicherstellung der Authentizität religiöser Apps aufstellen, gibt es Bedenken hinsichtlich der ethischen Implikationen und der möglichen Ausbeutung des Glaubens durch kommerzielle Interessen. Die Diskussion über den Einsatz von KI in der Religion wirft tiefere philosophische Fragen auf, insbesondere zur Rolle von KI in der spirituellen Praxis und den Risiken für die psychische Gesundheit. Kritiker warnen vor Manipulation und emotionalen Bindungen an diese Technologien, die zu Verwirrung über Glaubensfragen führen könnten. Trotz dieser Herausforderungen sehen einige Entwickler in KI ein potenzielles Werkzeug zur Vertiefung des Glaubens, während andere die Notwendigkeit von Regulierungen betonen.
From your own AI Jesus to BuddhaBot Plus – The religious tech boom has arrived
Der Artikel beleuchtet den aufkommenden Trend von KI-gestützten religiösen Anwendungen, die es Nutzern ermöglichen, mit digitalen Avataren von religiösen Figuren wie Jesus oder Buddha zu interagieren. Eine Plattform namens 'Just Like Me' bietet beispielsweise Videoanrufe mit einem KI-Jesus an, was emotionale Bindungen bei den Nutzern hervorruft und Fragen zur Rolle von KI in der Religion aufwirft. Während einige Entwickler diese Technologien als Werkzeuge zur Erkundung von Glauben und Spiritualität betrachten, warnen andere vor den Risiken der Manipulation von Gläubigen und der Verbreitung von Fehlinformationen. Zentrale Themen sind Ethik und die Wahrung der Integrität religiöser Lehren, da viele KI-Modelle nicht auf spezifische religiöse Texte trainiert sind. Die Diskussion wird durch Bedenken über die Auswirkungen auf die psychische Gesundheit und die Notwendigkeit von Regulierungen verstärkt. Religiöse Führer wie der Zen-Buddhist Roshi Jundo Cohen betonen, dass KI menschliche Interaktionen nicht ersetzen, sondern unterstützen sollte. Die langfristigen Auswirkungen dieser Technologien auf Glauben und spirituelle Praxis bleiben jedoch unklar.
Mystery AI Video Generator Happy Horse 1.0 Reaches No. 1, Surpasses Sora, Veo
Der KI-Video-Generator Happy Horse 1.0 hat sich als führendes Modell im Bereich der textbasierten Videos etabliert und übertrifft mit einem Elo-Rating von 1.374 die Konkurrenz, darunter Sora und Veo. Auch in der Audio-Rangliste hat Happy Horse 1.0 mit 1.222 Punkten einen Spitzenplatz erreicht. Diese Erfolge basieren auf 7.932 anonymen Nutzervergleichen, die eine signifikante Qualitätssteigerung des Modells belegen. Die Stärken von Happy Horse 1.0 liegen in der präzisen Umsetzung von Eingabeaufforderungen, der Kontinuität der Szenen sowie der realistischen Bewegungsdarstellung in hochauflösenden Videos. Damit setzt der Generator neue Maßstäbe in der KI-gestützten Videoproduktion.
Video Surveillance Market Growth Fueled by AI and Smart Security Demand by 2031
Der globale Markt für Videoüberwachung steht vor einer signifikanten Transformation, angetrieben durch technologische Fortschritte und die wachsende Nachfrage nach intelligenten Sicherheitssystemen. Laut einem Marktbericht wird der Marktwert von 57,68 Milliarden US-Dollar im Jahr 2024 auf 122,81 Milliarden US-Dollar bis 2031 ansteigen, was einem jährlichen Wachstum von 11,4 % entspricht. Diese Entwicklung wird durch die zunehmende Akzeptanz fortschrittlicher Überwachungslösungen in verschiedenen Sektoren wie Handel, Wohnbau, Industrie und Regierung gefördert. Der Bericht analysiert Marktsegmente, insbesondere Hardware und Software, wobei Softwarelösungen aufgrund ihrer Echtzeiteinblicke und automatisierten Bedrohungserkennung an Bedeutung gewinnen. Zudem werden verschiedene Dienstleistungsmodelle wie gehostete, verwaltete und hybride Dienste betrachtet, die Flexibilität und Skalierbarkeit bieten. Regionale Unterschiede in der Marktakzeptanz und den regulatorischen Rahmenbedingungen werden ebenfalls untersucht, um Unternehmen bei der Identifizierung spezifischer Chancen zu unterstützen. Insgesamt liefert der Bericht wertvolle Einblicke für Stakeholder zur Entwicklung effektiver Geschäftsstrategien in einem dynamischen Markt.
SentiAvatar, the First Interactive 3D Digital Human Framework from SentiPulse and GSAI, Now Open Source
SentiPulse hat in Zusammenarbeit mit der Gaoling School of Artificial Intelligence das SentiAvatar Framework als Open Source veröffentlicht, das die Entwicklung interaktiver 3D-Digitalmenschen revolutioniert. Im Mittelpunkt steht der SUSU-Charakter, der in Echtzeit kommunizieren und emotionale Ausdrücke zeigen kann. Ein zentrales Problem bei der Erstellung dieser digitalen Menschen ist der "uncanny valley"-Effekt, der durch unnatürliche Ausdrucksweisen entsteht. Um dies zu überwinden, wurde die SuSuInterActs-Datenbank mit 21.000 Clips und 37 Stunden multimodaler Konversationsdaten entwickelt, die qualitativ hochwertige Daten für die chinesische Sprache bereitstellt. Zudem wurde ein proprietäres Motion Foundation Model auf über 200.000 Bewegungssequenzen trainiert, um natürliche Bewegungsmuster zu erlernen. Die innovative Architektur von SentiAvatar ermöglicht eine getrennte Planung von Körperbewegungen und Gesichtsausdrücken, was zu präzisen und kohärenten Gesten während der Interaktion führt. SentiPulse ermutigt Entwickler und Forschungseinrichtungen, das Framework zu nutzen und weiterzuentwickeln, um die Möglichkeiten der 3D-Bewegungsgenerierung zu erweitern.
YouTube Shorts launches AI avatar cloning for creators
YouTube Shorts hat eine neue Funktion eingeführt, die es Kreatoren ermöglicht, KI-Avatare zu erstellen, die in bestehenden Videos verwendet oder für neue Inhalte generiert werden können. Diese Entwicklung spiegelt YouTubes ambivalente Strategie wider, die einerseits generative KI-Tools fördert, während sie gleichzeitig gegen KI-generierte Spam-Inhalte und Deepfakes vorgeht. Die Avatare sollen realistisch wirken und eine sicherere Alternative zu externen Deepfake-Diensten bieten. Diese Einführung erfolgt in einem Kontext, in dem YouTube mit der Glaubwürdigkeit seiner KI-Moderation kämpft und kürzlich problematische KI-Kanäle entfernt hat. Google hofft, dass die Bereitstellung dieser Tools für Kreatoren sicherer ist als die Nutzung unregulierter Drittanbieter. Dennoch wirft die Legitimierung von KI-Avataren Fragen auf, da sie die Grenze zwischen akzeptablen und problematischen Inhalten verwischt. Die Technologie kombiniert Sprachmodelle mit Video- und Sprachsynthese und könnte die Art und Weise, wie Inhalte erstellt werden, revolutionieren. YouTube muss jedoch klare Regeln für die Nutzung dieser Avatare festlegen, um Missbrauch zu verhindern und die Qualität der Inhalte zu wahren.
AI Video Generator & Editing Market Insights, Demand & Forecast 2033
Der Artikel analysiert das rasante Wachstum des Marktes für KI-Video-Generatoren und -Editoren, der von 0,6 Milliarden US-Dollar im Jahr 2023 auf 9,3 Milliarden US-Dollar bis 2033 ansteigen soll, was einer jährlichen Wachstumsrate von 30,7 % entspricht. Haupttreiber sind die zunehmende Automatisierung von Videoerstellungs- und Bearbeitungsprozessen durch KI-Technologien sowie die steigende Nachfrage nach hochwertigem Videoinhalt in sozialen Medien, Marketing und Bildung. Trotz dieser positiven Entwicklungen bestehen Bedenken hinsichtlich Datenschutz, Urheberrechten und ethischer Nutzung von KI-Inhalten, die die Akzeptanz beeinträchtigen könnten. Die Integration von KI in Video-Workflows ermöglicht Echtzeit-Bearbeitung und mehrsprachige Inhalte, wodurch die Produktion für nicht-technische Nutzer erleichtert wird. Insbesondere in den Bereichen Bildung und Unternehmensschulung wird ein Anstieg der Nachfrage nach interaktiven und personalisierten Inhalten erwartet. Zukünftige Trends wie Augmented Reality, Virtual Reality und benutzerfreundliche Schnittstellen werden den Markt weiter prägen.
Comptant 10 millions d'utilisateurs et 1 million d'abonnés payants, Sondo AI termine en fanfare sa première année en redéfinissant la production de vidéos musicales
Sondo AI hat in weniger als einem Jahr über zehn Millionen Nutzer und mehr als eine Million zahlende Abonnenten gewonnen und revolutioniert damit die Produktion von Musikvideos. Die Plattform nutzt KI-Technologien, um den kreativen Prozess zu vereinfachen, indem sie automatisch Melodien, Texte und emotionale Hinweise analysiert, um Szenarien zu erstellen. Dies ermöglicht eine präzise audiovisuelle Synchronisation und die schnelle Erstellung hochauflösender Musikvideos ohne manuelle Nachbearbeitung. Die automatisierte „Import-Gestaltung-Export“-Methode beseitigt Barrieren für den Zugang zu professioneller Produktionsqualität und erlaubt es Nutzern, innerhalb von Minuten ein fertiges Video zu erhalten. Zudem bietet Sondo AI Echtzeit-Interventionsmöglichkeiten für kreative Anpassungen während der Produktion. Die Plattform fördert eine lebendige Community und ermöglicht eine direkte Verbreitung auf sozialen Medien, was den kreativen Prozess in nachhaltige Geschäftsperspektiven umwandelt. Insgesamt schafft Sondo AI ein umfassendes Umfeld für visuelle Musikproduktion und macht professionelle Erzählungen für alle zugänglich.
How to Use Seedance 2.0 API: Hypereal AI Now Offers ByteDance's Most Powerful Video Model Access
Die Seedance 2.0 API von ByteDance, die am 2. April 2026 eingeführt wurde, bietet Entwicklern Zugang zu einem fortschrittlichen multimodalen Video-Generierungsmodell. Dieses Modell verarbeitet Text, Bilder, Videos und Audio in einer einzigen Anfrage und nutzt eine innovative Dual-Branch Diffusion Transformer-Architektur, um bis zu 12 Referenzeingaben gleichzeitig zu verarbeiten. Dadurch können synchronisierte audiovisuelle Clips effizient erstellt werden. Die API unterstützt Funktionen wie Text-zu-Video, Bild-zu-Video und native Audioerzeugung, was die Produktion hochwertiger Videos erleichtert. Hypereal AI ermöglicht einen benutzerfreundlichen Zugang zur Seedance 2.0 API, ohne dass ein chinesisches Konto oder komplizierte SDK-Konfigurationen erforderlich sind. Entwickler können sich einfach anmelden und innerhalb weniger Minuten Videos generieren. Die flexible Preisgestaltung umfasst verschiedene Abonnements sowie einen kostenlosen Einstieg, der es ermöglicht, die API ohne finanzielle Verpflichtungen auszuprobieren.
Mango AI Launches AI Kissing Video Generator to Animate Photos into Romantic Kiss Scenes
Mango AI hat einen neuartigen AI Kissing Video Generator vorgestellt, der es Nutzern ermöglicht, statische Fotos in animierte Videos mit realistischen Kuss-Szenen zu verwandeln. Die Technologie nutzt fortschrittliche Gesichtsanimation, um natürliche Bewegungen wie Kopfneigungen und Lippenbewegungen zu erzeugen. Nutzer können aus verschiedenen Kuss-Stilen wählen, darunter General, French Kiss und Cheek Kiss, sowie einen virtuellen Partner für personalisierte Erlebnisse erstellen. Der Upload von Bildern im JPG-, JPEG-, PNG- oder WebP-Format ist unkompliziert, und die KI analysiert die Gesichtspositionen für flüssige Animationen. Zudem können Nutzer Hintergrundmusik hinzufügen, bevor sie ihre Videos herunterladen oder in sozialen Medien teilen. CEO Winston Zhang betont, dass das Tool eine unterhaltsame Möglichkeit bietet, individuelle animierte Inhalte zu kreieren. Mango AI bietet auch spezielle Funktionen für leidenschaftliche Kuss-Szenen an, die sich auf detaillierte Lippen- und Gesichtsausdrücke konzentrieren.
Eluvio Announces Unified Platform for Zero-Copy Broadcast Distribution, D2C OTT Streaming & Monetization, and Inline AI Video Intelligence with Commercial Availability of Content Fabric "Bucharest Release"
Eluvio hat die kommerzielle Verfügbarkeit seiner neuen Content Fabric, das Bucharest Release, bekannt gegeben, das bedeutende Fortschritte in der Live-Broadcast-Feed-Verteilung, D2C OTT-Streaming und Inline-KI-Video-Intelligenz bietet. Die Plattform ersetzt traditionelle Satelliten- und Cloud-Modelle durch eine dezentrale Architektur, die eine globale Latenz von unter 500 ms ermöglicht und keine zusätzlichen Verteilungskosten verursacht. Mit der Bucharest-Version können Inhalte effizient an viele Empfänger verteilt werden, ohne dass Dateien kopiert werden müssen, was die Kosten erheblich senkt. Zudem bietet die Plattform eine umfassende Monetarisierungslösung, einschließlich eines neuen "Pocket TV", das eine nahtlose Kaufabwicklung ohne Anmeldung ermöglicht. Eluvio plant, seine Lösungen auf der NAB Show 2026 vorzustellen und hat bereits über 600 D2C-Streaming-Events erfolgreich durchgeführt. Die Einführung von Eluvio AI, einer integrierten KI für Videoanalysen, ermöglicht Echtzeitanalysen ohne Dateiübertragungen und zielt darauf ab, die Effizienz und Monetarisierungsmöglichkeiten in der Branche zu maximieren.
Eluvio Introduces Inline Frame-Accurate Video Intelligence and Next-Gen Eluvio Video Intelligence Editor (EVIE) with New Advanced AI Tools for Agentic Orchestration of Title Libraries and Live Sports at NAB 2026
Eluvio hat auf der NAB Show 2026 eine bahnbrechende Architektur für universelle Videointelligenz und den neuen Eluvio Video Intelligence Editor (EVIE) vorgestellt. Diese innovative Lösung bietet fortschrittliche KI-Tools zur agentischen Orchestrierung von Titelbibliotheken und Live-Sport. Die Plattform ermöglicht eine inline, frame-genaue Analyse und Inhaltsgenerierung, wodurch die Effizienz gesteigert wird, ohne dass Dateien kopiert oder bewegt werden müssen. Zu den Funktionen gehören automatische Highlights, die Erstellung von Untertiteln und Metadaten sowie eine umfassende Inhaltsuche über verschiedene Medienformate. Durch den Einsatz von KI in Echtzeit können Benutzer personalisierte Inhalte generieren und monetarisieren, während die Sicherheit der Inhalte gewährleistet bleibt. Eluvio plant, während der NAB Show Anwendungsfälle wie die Transformation von Live-Sport zu demonstrieren, um die Vorteile dieser Technologie für Medienprofis aufzuzeigen. Die Architektur zielt darauf ab, den dynamischen Anforderungen von Rundfunkanstalten und Sportligen gerecht zu werden und eine nahtlose Integration von KI in bestehende Workflows zu ermöglichen.
Herzmedizin versagt bei Frauen, jetzt greift KI ein
Die Herzmedizin zeigt bei Frauen gravierende Mängel, was zu einem höheren Sterberisiko bei Herzerkrankungen führt. Ursachen sind unter anderem die Unterrepräsentation von Frauen in klinischen Studien und das unzureichende Berücksichtigen geschlechtsspezifischer Risikofaktoren. Um diese Herausforderungen anzugehen, entwickelt das Fraunhofer IPA im Projekt GenderHeart ein innovatives Assistenzsystem zur Früherkennung von Herzkrankheiten bei Frauen. Dieses System nutzt einen digitalen Anamneseprozess, bei dem Patientinnen von einem Avatar befragt werden, während gleichzeitig Vitaldaten wie Blutdruck und EKG erfasst werden. Ein KI-Algorithmus bewertet das individuelle Risiko für schwere Herzerkrankungen und schlägt passende Therapien vor, wobei geschlechtsspezifische Unterschiede und der Hormonstatus einfließen. Zudem wird ein Sprachanalysetool integriert, das Veränderungen in der Stimme der Patientinnen erkennt. GenderHeart soll im Frühling 2026 starten und langfristig in Notaufnahmen eingesetzt werden, um den Klinikalltag zu entlasten und die Nachsorge zu verbessern.
New AI video tool removes objects without breaking the laws of physics
Das neue KI-Video-Tool ermöglicht es, Objekte aus Videos zu entfernen, ohne die physikalischen Gesetze zu verletzen. Durch fortschrittliche Algorithmen analysiert die Software die Umgebung und rekonstruiert die fehlenden Teile des Bildes, sodass die Szenen realistisch und glaubwürdig bleiben. Dies eröffnet neue Möglichkeiten für Filmemacher, Videoproduzenten und Content-Ersteller, da sie unerwünschte Elemente effizient eliminieren können. Die Technologie könnte auch in der Werbung und im Marketing Anwendung finden, wo visuelle Anpassungen oft erforderlich sind. Die Benutzeroberfläche ist intuitiv gestaltet, sodass auch weniger erfahrene Anwender von den Funktionen profitieren können. Insgesamt stellt dieses Tool einen bedeutenden Fortschritt in der Videobearbeitung dar und könnte die Art und Weise, wie visuelle Inhalte erstellt werden, revolutionieren.
Sondo AI Hits 10 Million Users and 1 Million Paid Subscribers, Redefining Music Video Production in Landmark First Year
Sondo AI hat in seinem ersten Jahr über zehn Millionen Nutzer und mehr als eine Million zahlende Abonnenten gewonnen, was einen bedeutenden Erfolg für die Plattform darstellt. Die KI-gesteuerte Plattform revolutioniert die Musikvideo-Produktion, indem sie traditionelle, zeitaufwändige Prozesse durch automatisierte Lösungen ersetzt. Sondo analysiert Melodien, Texte und emotionale Hinweise, um Storylines und Szenenlayouts zu erstellen, und ermöglicht eine präzise Synchronisation sowie hochwertige visuelle Darstellungen in Rekordzeit. Nutzer können innerhalb von Minuten ein HD-Video erhalten, ohne manuelle Bearbeitung. Zudem bietet die Plattform Echtzeit-Interventionsmöglichkeiten, die kreative Anpassungen während des Generierungsprozesses erlauben. Sondo fördert eine dynamische Community und erleichtert die Verbreitung von Inhalten über soziale Medien, was den Weg von der Idee zum Publikum vereinfacht. Diese Innovationen machen professionelle visuelle Erzählungen für eine breitere Zielgruppe zugänglich und unterstützen Künstler und Marken dabei, ihre kreativen Arbeiten in nachhaltige Geschäftsmöglichkeiten umzuwandeln.
Sondo AI Hits 10 Million Users and 1 Million Paid Subscribers, Redefining Music Video Production in Landmark First Year
Sondo AI hat in seinem ersten Jahr über zehn Millionen Nutzer und mehr als eine Million zahlende Abonnenten gewonnen, was einen bedeutenden Erfolg für die Plattform darstellt. Die AI-gestützte Technologie revolutioniert die Musikvideo-Produktion, indem sie traditionelle, zeitaufwändige Prozesse durch automatisierte Lösungen ersetzt. Sondo analysiert Melodien, Texte und emotionale Hinweise, um Storylines und Szenenlayouts zu generieren, und ermöglicht eine präzise Audio-Visuelle Synchronisation ohne manuelle Eingriffe. Mit einer vollautomatischen "Import-Generate-Export"-Pipeline können Nutzer in wenigen Minuten hochwertige Musikvideos erstellen und gleichzeitig Anpassungen in Echtzeit vornehmen. Diese Funktionen fördern die kreative Freiheit und bieten eine integrierte Community sowie Monetarisierungsmöglichkeiten, die es Künstlern ermöglichen, ihre Arbeiten direkt einem globalen Publikum zu präsentieren. Sondo AI schafft somit eine zugängliche Plattform für professionelle visuelle Produktionen und eröffnet neue Chancen für Künstler und Marken.
Virtual Influencer Market to Reach $298 Billion by 2035, Growing at 38.54% CAGR | ByteDance, Soul Machines, Kuki AI Among Key Players
Der globale Markt für virtuelle Influencer wird bis 2035 voraussichtlich 298 Milliarden USD erreichen, mit einer jährlichen Wachstumsrate von 38,54%. Diese Entwicklung wird durch den zunehmenden Einsatz computer-generierter Personas in Branchen wie Mode, Essen und Unterhaltung gefördert, da Unternehmen Kosten und Risiken im Vergleich zu menschlichen Influencern minimieren können. Virtuelle Influencer ermöglichen es Marken, Inhalte ohne physische Einschränkungen zu steuern, was zu höherer Konsistenz und schnelleren Anpassungen an Marktbedürfnisse führt. Fortschritte in KI und 3D-Modellierung haben die Erstellung dieser digitalen Charaktere erleichtert und kostengünstiger gemacht, wodurch auch kleinere Unternehmen in den Markt eintreten können. Die Integration in den Metaversum und E-Commerce eröffnet neue Möglichkeiten für virtuelle Influencer als Markenvertreter und Produktdemonstratoren. Nordamerika verzeichnet den größten Marktanteil, während Asien das schnellste Wachstum aufweist. Marken profitieren von der Kontrolle über das Erscheinungsbild und die Botschaften ihrer Avatare, was eine strategische Neuausrichtung der Marketingbudgets zur Folge hat.
InterDigital (IDCC) Among the Best Strong Buy AI Stocks to Invest In Now
InterDigital, Inc. (NASDAQ:IDCC) hat sich als eine der vielversprechendsten Investitionsmöglichkeiten im Bereich Künstliche Intelligenz etabliert. Am 2. April gab das Unternehmen neue Lizenzvereinbarungen mit Buffalo Americas und einem globalen Fernseherhersteller bekannt, die Technologien wie Wi-Fi 5, Wi-Fi 6 und HEVC-Video-Standards umfassen. Diese Vereinbarungen belegen die Fähigkeit von InterDigital, sein geistiges Eigentum zu monetarisieren und wiederkehrende, margenstarke Lizenzgebühren zu generieren. Zudem präsentierte das Unternehmen am 23. Februar in Zusammenarbeit mit Turk Telekom eine innovative Sensortechnologie, die frühe 6G-Architekturen nutzt, um die Netzwerkgenauigkeit und -abdeckung zu verbessern. Diese Entwicklungen positionieren InterDigital als Vorreiter in der nächsten Generation drahtloser Technologien und eröffnen neue Monetarisierungsmöglichkeiten. Gegründet 1972 und mit Sitz in Wilmington, Delaware, konzentriert sich InterDigital auf Forschung und Entwicklung in den Bereichen drahtlose Kommunikation, Video und KI. Durch kontinuierliche Innovationen im Bereich 6G und fortschrittliche Kommunikationssysteme verfolgt das Unternehmen eine vielversprechende Wachstumsstrategie, die von den Trends der nächsten Generation der Konnektivität angetrieben wird.
KI im Wahlkampf: Dieses Video zeigt, dass die Politik dringend Regeln benötigt
Der Einsatz von Künstlicher Intelligenz (KI) im Wahlkampf nimmt zu, was durch Technologien wie Deepfakes und digitale Assistenten verstärkt wird. Ein aktuelles Video der CDU in Mecklenburg-Vorpommern zeigt die potenziellen Risiken dieser Entwicklung auf. Die Verwendung solcher Technologien könnte die Wahrnehmung politischer Botschaften stark beeinflussen und das Vertrauen der Wähler in die Authentizität von Informationen gefährden. Angesichts dieser Herausforderungen wird deutlich, dass es dringend Regelungen benötigt, um den verantwortungsvollen Umgang mit KI im Wahlkampf zu sichern. Ein unregulierter Einsatz könnte die Integrität demokratischer Prozesse gefährden und die Manipulation von Wählermeinungen erleichtern. Daher ist es unerlässlich, klare Richtlinien zu entwickeln, um den Einfluss von KI auf die politische Landschaft zu steuern und die Demokratie zu schützen.
Netflix open-sources VOID, an AI framework that erases video objects and rewrites the physics they left behind
Netflix hat ein KI-Framework namens VOID entwickelt und veröffentlicht, das es ermöglicht, Objekte aus Videos zu entfernen und die physikalischen Effekte, die diese Objekte hinterlassen haben, automatisch anzupassen. VOID steht für "Video Object and Interaction Deletion" und berücksichtigt nicht nur die Objekterkennung, sondern auch Kollisionen und andere physikalische Interaktionen. Das Framework basiert auf dem Video-Diffusionsmodell CogVideoX von Alibaba und wurde mit synthetischen Daten von Google und Adobe optimiert. Google’s Gemini 3 Pro analysiert die Szenen und identifiziert betroffene Bereiche, während Meta’s SAM2 die zu entfernenden Objekte segmentiert. Eine optionale zweite Analyse korrigiert mögliche Formverzerrungen. Entwickelt wurde das Projekt von Netflix-Forschern in Zusammenarbeit mit der INSAIT Sofia University. VOID ist unter der Apache 2.0 Lizenz verfügbar, was kommerzielle Nutzung ermöglicht, und der bereitgestellte Code sowie wissenschaftliche Arbeiten und Demos auf Plattformen wie GitHub und arXiv fördern die Zugänglichkeit und Weiterentwicklung des Frameworks.
Netflix - yes Netflix - jumps on the AI bandwagon with video editor
Netflix hat mit seinem neuen Video-Objekt- und Interaktionslöschmodell, VOID, einen innovativen Schritt in der Filmproduktion gemacht. Dieses vision-language Modell ermöglicht es Filmemachern, Objekte aus Szenen zu entfernen und die verbleibenden Elemente realistisch anzupassen, ohne die Szene neu drehen zu müssen. Beispielsweise kann ein dramatischer Autounfall in eine harmlose Fahrt umgewandelt werden, indem das verunfallte Fahrzeug einfach gelöscht wird. Die Entwickler, darunter Mitarbeiter von Netflix und Sofia University, behaupten, dass VOID anderen Tools wie Runway und Generative Omnimatte überlegen ist, da es in 64,8 Prozent der Fälle bevorzugt wurde. Das Modell ist nicht nur für interne Netflix-Produktionen gedacht, sondern auch auf Hugging Face verfügbar, was es einer breiteren Nutzerbasis zugänglich macht. Dennoch bleibt die Frage offen, ob die Welt tatsächlich mehr Möglichkeiten zur Video-Manipulation benötigt.
Google Vids Gets Free AI Video Generation with Lyria 3, Veo 3.1
Google hat seine Workspace-Produktivitätssuite mit einem bedeutenden Upgrade im Bereich der KI-Videoerstellung erweitert, indem es die neuen generativen KI-Modelle Lyria 3 und Veo 3.1 in Google Vids integriert hat. Diese Funktionen sind für die Nutzer kostenlos und ermöglichen es Millionen von Anwendern, hochwertige Videos aus einfachen Textvorgaben zu erstellen, was zuvor teure spezialisierte Software erforderte. David Nachum, Group Product Manager, betont, dass diese Erweiterung das kreative Potenzial von Workspace erheblich steigert und Google in direkten Wettbewerb mit spezialisierten Videotools bringt. Die Preisstrategie ist besonders bemerkenswert, da die neuen Funktionen für bestehende Workspace-Abonnenten ohne zusätzliche Kosten verfügbar sind. Dies stellt einen direkten Angriff auf Wettbewerber wie Microsoft dar, die KI-Funktionen in verschiedenen Preiskategorien anbieten. Die Integration könnte die Dynamik im Bereich Unternehmenssoftware weiter verändern und den Zugang zu kreativen Werkzeugen demokratisieren.
Google Vids gets AI upgrade with Veo and Lyria models, directable AI avatars
Google hat sein Vids-Editing-Produkt mit einem bedeutenden KI-Upgrade ausgestattet, das die neuen Veo- und Lyria-Modelle integriert. Diese Aktualisierung ermöglicht es Nutzern, aus verschiedenen steuerbaren Avataren zu wählen, die in den generierten Videos erscheinen. Die Veo 3.1-Version, die zuvor in Gemini eingeführt wurde, bietet verbesserte Realismus und Konsistenz. Google Vids richtet sich nicht nur an Filmemacher, sondern auch an Nutzer, die animierte Einladungen oder Geschäftsvideos erstellen möchten. Die Nutzung von Vids ist kostenlos, jedoch sind die Video-Generierungen pro Monat begrenzt, es sei denn, man abonniert einen kostenpflichtigen Plan. Videos sind auf acht Sekunden und eine Auflösung von 720p beschränkt. Zudem können Nutzer mit den neuen Lyria-Modellen Musik produzieren, indem sie einfach den gewünschten Musikstil angeben. Diese Entwicklungen verdeutlichen, wie Google die Anwendung von KI im kreativen Bereich vorantreibt und die Zugänglichkeit für verschiedene Nutzergruppen erhöht.
Mango AI Releases an AI Face Swap Video Tool for Natural Face Replacement
Mango AI hat ein innovatives Tool zur Gesichtsvertauschung in Videos vorgestellt, das die Herausforderungen der Gesichtsersetzung in bewegten Bildern adressiert. Das Tool analysiert automatisch Videosequenzen und ermöglicht Nutzern, ein klares Porträtfoto des gewünschten Gesichts hochzuladen. Dadurch bleibt die Mimik und Beleuchtung während des gesamten Videos konsistent, ohne dass manuelle Anpassungen nötig sind. Als browserbasierte Anwendung erfordert es keine Softwareinstallation und kann von verschiedenen Geräten aus genutzt werden. Die Einsatzmöglichkeiten sind vielfältig, insbesondere im Marketing zur Anpassung von Videos für unterschiedliche Märkte und im Bildungsbereich, wo Lehrer ihre Gesichter in Lehrmaterialien integrieren können. CEO Winston Zhang betont, dass das Tool entwickelt wurde, um die Erstellung von Gesichtswechselvideos zu vereinfachen und qualitativ hochwertige Ergebnisse mit minimalem Aufwand zu liefern.
Quickplay strengthens relationships with AWS and TwelveLabs, providing expanded value to Tier-1 media companies
Quickplay hat seine strategische Partnerschaft mit TwelveLabs durch den Eintritt in das Advanced Tier des TwelveLabs Ecosystem Partner Program gestärkt, was zu einer 40-prozentigen Steigerung der Geschäftsmöglichkeiten für AI Studio geführt hat. Beide Unternehmen wurden zudem in das AWS Business Outcomes Xcelerator (BOX) Program aufgenommen, um die Kundenakzeptanz zu beschleunigen und messbare Ergebnisse für Tier-1-Medienunternehmen zu liefern. Die Kombination der Video-Modelle von TwelveLabs mit den KI-Fähigkeiten von Quickplay ermöglicht eine effizientere Monetarisierung und Durchsuchung von Videoarchiven. Dank der Unterstützung von AWS können die Lösungen schneller entwickelt und in größerem Maßstab implementiert werden. Sean Lynch von Quickplay hebt hervor, dass die Partnerschaft bereits 2026 Fortschritte zeigt, während John Reigart von TwelveLabs betont, dass das Verständnis von Video eine zentrale Rolle für moderne Medienunternehmen spielt. Die erweiterte Partnerschaft umfasst koordinierte Markteinführungsstrategien und die Entwicklung von Kunden-Demos zur Förderung des Wachstums.
Mango AI Introduces an AI Dance Video Generator to Make Photos Dance
Mango AI hat einen neuartigen AI-Dance-Video-Generator vorgestellt, der es Nutzern ermöglicht, Fotos in animierte Tanzvideos zu verwandeln, ohne selbst tanzen zu müssen. Der Prozess ist unkompliziert: Nutzer laden ein Bild und ein Referenzvideo hoch, wobei die Plattform verschiedene Bildformate unterstützt. Die KI-Modelle sind auf umfangreiche Datensätze trainiert, um realistische Tanzbewegungen zu erzeugen, die harmonisch mit den Fotos synchronisiert werden. Diese Technologie zieht insbesondere Vermarkter und Social-Media-Influencer an, die ansprechende Inhalte für ihre Zielgruppen erstellen möchten. Mango AI betont den Datenschutz und implementiert strenge Sicherheitsmaßnahmen zum Schutz der Nutzerdaten. Die schnelle Erstellung von Videos ermöglicht es sowohl Fachleuten als auch Privatpersonen, effizient kreative Inhalte zu produzieren. CEO Winston Zhang hebt hervor, dass der AI-Dance-Generator die Content-Erstellung revolutioniert hat und sowohl bei der breiten Öffentlichkeit als auch bei Fachleuten sehr beliebt ist.
Niedersachsen: Staatsanwaltschaft stellt Ermittlungen wegen Deepfake in der CDU ein
Die Staatsanwaltschaft Niedersachsen hat die Ermittlungen zu einem Deepfakevideo eingestellt, das eine Mitarbeiterin der CDU in sexualisierter Weise darstellt. Die CDU-Fraktion hatte sich wegen des Videos, das in einer internen WhatsApp-Gruppe geteilt wurde, an die Staatsanwaltschaft gewandt. Der Verdächtige rechtfertigte seine Handlung damit, auf die Gefahren von KI-Manipulation aufmerksam machen zu wollen. Die Staatsanwaltschaft entschied, dass das Video kein Sexualdelikt darstellt, da die Frau im Bikini als angezogen gilt, und stellte die Ermittlungen ein, bis die Betroffene eine Anzeige erstattet. In der Fraktion wurde der Vorfall ernst genommen: Der Mitarbeiter, der zur Geheimhaltung aufgerufen hatte, wurde suspendiert, während der Ersteller des Videos fristlos entlassen wurde. Fraktionschef Sebastian Lechner betonte die Wichtigkeit einer transparenten Aufklärung und kündigte an, mit externer Unterstützung Maßnahmen zur Bekämpfung von Sexismus innerhalb der Partei zu entwickeln und Opfern von sexualisierter Gewalt besser zu helfen.
(VIDEO) Elon Musk Stuns Millions With Grok Imagine's Breathtaking Anime Video of Magical Girl in Sakura Grove
Elon Musk hat kürzlich ein beeindruckendes, KI-generiertes Anime-Video über ein magisches Mädchen in einem Kirschblütenhain vorgestellt, das mit der Grok Imagine-Technologie von xAI erstellt wurde. Das 10-sekündige Video erreichte innerhalb weniger Stunden über 11 Millionen Aufrufe und wurde für seine hohe Animationsqualität gelobt, die an klassische Anime-Serien wie "Sailor Moon" erinnert. Die nahtlose Animation und lebendigen Effekte verdeutlichen den Fortschritt der kreativen KI-Technologie und inspirierten Nutzer dazu, eigene Kreationen zu teilen. Musk nutzt seine Plattform, um innovative Technologien zu präsentieren, und dieses Video hat nicht nur die Anime-Community begeistert, sondern auch Diskussionen über die Auswirkungen von KI auf kreative Berufe angestoßen. Die Reaktionen reichten von Begeisterung bis zu Bedenken hinsichtlich der Umweltkosten und der Abhängigkeit von KI. Insgesamt zeigt dieser Vorfall, wie generative KI kulturelle Momente schaffen kann, die das Publikum fesseln und die Akzeptanz von Grok bei jüngeren Zielgruppen fördern.
Braiv Introduces an AI Video Platform Designed to Simplify Global Content Distribution for Creators and Podcasters
Braiv ist eine neu gegründete AI-Video-Plattform unter der Leitung von Ben Radcliffe, die darauf abzielt, die globalen Verbreitungshürden für Kreative und Podcaster zu überwinden. Die Plattform bietet Funktionen wie Content-Optimierung, Videoverpackung und automatisierte Distribution, um Nachbearbeitungsprozesse zu vereinfachen und die internationale Reichweite zu erhöhen, ohne die Produktionskosten signifikant zu steigern. Zu den innovativen Tools gehören mehrsprachiges Video-Dubbing, automatisierte Thumbnail-Generierung und die intelligente Extraktion von Kurzvideos aus längeren Inhalten, ergänzt durch SEO-Optimierung und Multi-Channel-Publishing. Radcliffe, der über 15 Jahre Erfahrung in der Technologiebranche verfügt, betont, dass die Infrastruktur für Video mit der wachsenden Bedeutung des Mediums nicht Schritt gehalten hat. Braiv entstand aus seinen eigenen Erfahrungen beim Podcasting und zielt darauf ab, ineffiziente Prozesse im Workflow-Management zu optimieren. Zudem ermöglicht die Plattform Studios, durch ein Affiliate-Modell wiederkehrende Einnahmen zu generieren, und engagiert sich für mehrsprachige Bildungsinitiativen.
Google's Veo 3.1 Lite cuts video generation costs by more than half
Google DeepMind hat mit Veo 3.1 Lite ein neues, kosteneffizientes Modell zur Videoerstellung vorgestellt, das die Produktionskosten um über 50 % reduziert. Dieses Modell bietet die gleiche Geschwindigkeit wie das teurere Veo 3.1 Fast, jedoch zu einem deutlich günstigeren Preis, der bei 0,05 USD pro Sekunde für 720p beginnt. Veo 3.1 Lite unterstützt sowohl die Text- als auch die Bild-zu-Video-Generierung in den Auflösungen 720p und 1080p und ermöglicht die Erstellung von Clips mit einer Dauer von 4, 6 oder 8 Sekunden. Darüber hinaus plant Google, ab dem 7. April die Preise für Veo 3.1 Fast zu senken, um die Attraktivität des Angebots weiter zu steigern. Die Einführung von Veo 3.1 Lite könnte die Videoerstellung für viele Nutzer zugänglicher und wirtschaftlicher machen.
Qwen3.5-Omni learned to write code from spoken instructions and video without anyone training it to
Alibaba hat mit Qwen3.5-Omni ein innovatives omnimodales KI-Modell vorgestellt, das in der Lage ist, Text, Bilder, Audio und Video zu verarbeiten. Besonders bemerkenswert ist die Fähigkeit des Modells, aus gesprochenen Anweisungen und Videoinhalten funktionierenden Code zu generieren, ohne dass es dafür speziell trainiert wurde. Qwen3.5-Omni übertrifft die Konkurrenz, insbesondere Googles Gemini 3.1 Pro, in verschiedenen Audioaufgaben und hat die Sprachunterstützung von elf auf 74 Sprachen erheblich erweitert. Die neueste Version, Qwen3.5-Omni-Plus, erzielt Spitzenwerte in Audio- und Sprachverarbeitungsbenchmarks und bietet dank der ARIA-Technologie eine verbesserte Echtzeit-Sprachausgabe. Zu den neuen Funktionen gehören semantische Unterbrechungen in Echtzeitgesprächen und die Möglichkeit, Websuchen durchzuführen. Trotz dieser Fortschritte hat Alibaba die Modellgewichte nicht veröffentlicht, was den Zugang auf einen API-Service beschränkt.
Runway launches $10M fund to back AI video startups
Runway hat einen $10 Millionen Fonds sowie ein Accelerator-Programm namens Builders ins Leben gerufen, um frühphasige Startups zu unterstützen, die innovative Anwendungen auf Basis ihrer Video-Generierungsmodelle entwickeln. Mit dieser Initiative positioniert sich Runway als zentrale Infrastruktur für 'Video-Intelligenz', die über die einfache Clip-Generierung hinausgeht. Der Fonds zielt darauf ab, Unternehmen zu fördern, die interaktive und Echtzeitanwendungen schaffen, die Video als dynamisches Medium nutzen. Diese Strategie orientiert sich an dem Ansatz von OpenAI, indem sie Startups anzieht, die als loyale Kunden fungieren und wertvolle Daten zur Verbesserung der zugrunde liegenden Modelle liefern. Der Zeitpunkt der Einführung deutet darauf hin, dass die Technologie für die Produktion reif ist, da bereits Marketingteams und Spieleentwickler mit den Tools von Runway arbeiten. Die nächste Entwicklungsstufe wird sich darauf konzentrieren, Videos reaktionsschnell und intelligent zu gestalten, anstatt lediglich bessere Clips zu produzieren.