Deepfakes & Desinformation
KI-gestützte Plattformen: Neuentwicklungen für Unternehmensgemeinschaften
Khoros hat die Einführung von Aurora AI angekündigt, einer innovativen KI-basierten Plattform, die die Khoros Community-Plattform transformieren soll. Die Plattform zielt darauf ab, Supportanfragen und Produktfeedback effizient zu bearbeiten und die Aktivität in Kunden-Communities ohne manuelle Moderation aufrechtzuerhalten. Ein weiterer Artikel untersucht, wie gut Künstliche Intelligenz (KI) in der Lage ist, gefälschte Verträge zu erkennen. PR Newswire betont die Bedeutung von konsistenten Erzählungen und eigener Inhalte für Marken, um als vertrauenswürdige Informationsquellen wahrgenommen zu werden. LevelBlue und SentinelOne haben eine Partnerschaft gegründet, um ihre SecOps-Lösungen für IT-Sicherheit zu vereinen. Khoros hat mit Aurora AI eine innovative, KI-gestützte Plattform für Unternehmensgemeinschaften eingeführt.
Wichtigste Punkte
- Khoros hat die Einführung von Aurora AI angekündigt
- KI-basierte Plattform transformiert die Khoros Community-Plattform
- Unterstützung und Produktfeedback werden effizient bearbeitet
- LevelBlue und SentinelOne haben eine Partnerschaft gegründet
Chronologie / Entwicklungen
- 2026-04-11 · Khoros hat die Einführung von Aurora AI angekündigt, einer innovativen KI-basierten Plattform, die die Khoros Community-Plattform transformieren soll.
- 2026-04-10 · Im aktuellen Webinar von PR Newswire wurde hervorgehoben, dass Marken ihre Kommunikationsstrategien an die Anforderungen der generativen KI anpassen müssen, um als
- 2026-04-09 · In dem Artikel "Using AI models to detect sinkhole trouble" wird untersucht, wie Künstliche Intelligenz (KI) zur frühzeitigen Erkennung von Sinklöchern eingesetzt werden kann.
- 2026-04-08 · Die Analyse von 2,8 Millionen Telegram-Nachrichten in Italien und Spanien deckt auf, wie KI-gestützte Nudifying-Bots eine monetarisierte Missbrauchsökonomie rund um nicht
- 2026-04-06 · Die steigende Verbreitung von Deepfakes im Internet, die sowohl unterhaltsame als auch schädliche Auswirkungen haben können, hat das Interesse von IT-Forensikern geweckt.
Originallinks
Alle Artikel, die in diese Summary eingeflossen sind. So können Leser jederzeit die Originalquelle öffnen.
Khoros führt Aurora AI ein: Eine neue Ära für Unternehmens-Communities
Khoros hat die Einführung von Aurora AI angekündigt, einer innovativen KI-basierten Plattform, die die Khoros Community-Plattform transformieren soll. Aurora AI zielt darauf ab, Supportanfragen und Produktfeedback effizient zu bearbeiten und die Aktivität in Kunden-Communities ohne manuelle Moderation aufrechtzuerhalten. Diese Lösung adressiert das Problem, dass 30 % der Fragen in Online-Communities unbeantwortet bleiben, was zu Kundenverlusten und verpassten Erkenntnissen führen kann. Die Plattform nutzt KI, um das Engagement der Mitglieder zu fördern und die Kundenbindung zu stärken, indem sie unstrukturierte Daten verarbeitet und KI-Agenten wie Answer Assist und AI Moderation entwickelt. Khoros plant außerdem, bis Ende 2026 kostenlose Migrationen von der alten Community-Plattform zu Aurora AI anzubieten, um den Übergang für bestehende Kunden zu erleichtern. Diese Einführung ist Teil einer umfassenden Strategie zur Optimierung der Kundenkontaktflächen und zur Stärkung der Innovationskraft des Unternehmens.
I Tried to Trick AI With Fake Contracts. Here’s What It Caught — And What It Missed.
In dem Artikel "I Tried to Trick AI With Fake Contracts. Here’s What It Caught — And What It Missed" wird untersucht, wie gut Künstliche Intelligenz (KI) in der Lage ist, gefälschte Verträge zu erkennen. Der Autor testet verschiedene gefälschte Vertragsdokumente, um herauszufinden, welche Merkmale die KI identifizieren kann und wo ihre Grenzen liegen. Während einige der gefälschten Verträge erfolgreich als Betrug entlarvt werden, übersieht die KI in anderen Fällen subtile Hinweise, die auf Unstimmigkeiten hindeuten. Der Artikel beleuchtet die Stärken und Schwächen der aktuellen KI-Technologien im Bereich der Dokumentenanalyse und diskutiert die Herausforderungen, die bei der Entwicklung zuverlässigerer Systeme bestehen. Letztlich zeigt der Test, dass trotz erheblicher Fortschritte in der KI-Technologie menschliches Urteilsvermögen nach wie vor eine wichtige Rolle spielt.
PR Newswire Sets the Record Straight on AI Visibility: "Be the Source"
Im aktuellen Webinar von PR Newswire wurde hervorgehoben, dass Marken ihre Kommunikationsstrategien an die Anforderungen der generativen KI anpassen müssen, um als vertrauenswürdige Informationsquellen wahrgenommen zu werden. Der Schwerpunkt hat sich von Klickzahlen auf Zitierungen verlagert, da AI-Systeme zunehmend strukturierte und autoritative Inhalte priorisieren. Marken sollten konsistente Erzählungen über verschiedene Kanäle hinweg entwickeln und ihre Autorität durch eigene Inhalte, Pressemitteilungen und Medieninteresse stärken. Ältere Inhalte bleiben relevant, da sie weiterhin von AI-Systemen zitiert werden, weshalb deren Löschung die langfristige Sichtbarkeit einer Marke gefährden kann. PR Newswire empfiehlt, eine kontinuierliche Erzählweise zu verfolgen und Multichannel Amplification™ zu nutzen, um die Sichtbarkeit in AI-Plattformen zu erhöhen. Letztlich ist es entscheidend, dass Marken als primäre Informationsquellen etabliert werden, um in den Antworten von AI-Systemen präsent zu sein.
LevelBlue und SentinelOne kombinieren SecOps Lösungen für IT-Sicherheit
LevelBlue und SentinelOne haben eine Partnerschaft gegründet, um ihre SecOps-Lösungen für IT-Sicherheit zu vereinen. Ziel dieser Kooperation ist es, LevelBlue als globalen Anbieter für Managed Detection and Response sowie Managed SIEM Services zu positionieren, einschließlich Incident Response. Durch die Kombination von KI-gestützter Erkennung und menschlicher Analyse sollen Sicherheitsvorfälle effizienter bearbeitet werden, was die Reaktionszeiten verkürzt und die Widerstandsfähigkeit der Unternehmen erhöht. Die Integration der Technologien beider Firmen ermöglicht eine verbesserte Orchestrierung von Sicherheitsprozessen über verschiedene IT-Umgebungen hinweg, wodurch die Lücke zwischen Erkennung und Reaktion geschlossen wird. Kunden profitieren von einem integrierten Ansatz, der die Effizienz in der Bedrohungserkennung steigert und die operative Komplexität verringert. Insgesamt verbessert dieser Ansatz die Transparenz in hybriden Umgebungen und deckt den gesamten Sicherheitszyklus ab, von der Prävention bis zur Wiederherstellung.
Khoros Launches Aurora AI: A New Dawn for Enterprise Community
Khoros hat mit Aurora AI eine innovative, KI-gestützte Plattform für Unternehmensgemeinschaften eingeführt, die eine vollständige Neuentwicklung darstellt. Ziel ist es, die Interaktion in Kundencommunities zu verbessern, indem Unterstützung, Produktfeedback und aktive Teilnahme ohne manuelle Moderation gefördert werden. Aurora AI adressiert das Problem, dass 30 % der Fragen in Online-Communities unbeantwortet bleiben, was zu Kundenverlusten und verpassten Einsichten führt. Durch den Einsatz von KI-Technologien, einschließlich eines Community Language Models und automatisierter Moderation, wird die Effizienz gesteigert und die Benutzererfahrung optimiert. Khoros bietet zudem eine kostenlose Migration von der alten Community Classic zu Aurora AI bis Ende 2026 an, um den Übergang für bestehende Kunden zu erleichtern. Die Entwicklung der Plattform erfolgte in enger Zusammenarbeit mit den Kunden, um deren Bedürfnisse zu berücksichtigen. Darüber hinaus ermöglicht die Integration von Aurora AI mit Iris AI, einem System für Social Media Management, eine umfassende Kundeninteraktion über verschiedene Kanäle hinweg.
Khoros Launches Aurora AI: A New Dawn for Enterprise Community
Khoros hat die KI-native Plattform Aurora AI für Unternehmensgemeinschaften vorgestellt, die eine umfassende Neugestaltung des bestehenden Community-Systems darstellt. Ziel ist es, die Interaktion in Kundencommunities zu optimieren, indem Unterstützung, Produktfeedback und Engagement ohne manuelle Moderation ermöglicht werden. Aurora AI adressiert das Problem, dass 30% der Fragen in Online-Communities unbeantwortet bleiben, was zu verlorenen Kunden und verpassten Erkenntnissen führen kann. Die Plattform nutzt eine dreischichtige Architektur, die Gamification, KI-gestützte Moderation und Automatisierung umfasst, um die Effizienz und Benutzererfahrung zu verbessern. Khoros plant, bis Ende 2026 kostenlose Migrationen von der alten Plattform auf Aurora AI anzubieten, um den Übergang für bestehende Kunden zu erleichtern. Die Entwicklung erfolgte in enger Zusammenarbeit mit den Kunden, um sicherzustellen, dass die neuen Funktionen ihren Bedürfnissen entsprechen. Durch die Integration von Aurora AI mit Iris AI, einem System für Social Media Management, wird eine umfassende Lösung für Kundeninteraktionen geschaffen, die alle Kanäle integriert und die Effizienz steigert.
KI in der Uni-Prüfung: Hast du das eigenständig erarbeitet?
In der Diskussion um den Einsatz von Künstlicher Intelligenz (KI) in akademischen Prüfungen zeigen zwei Urteile des Verwaltungsgerichts Kassel die rechtlichen Herausforderungen auf. Ein Informatik-Student und ein Masterstudent im Bereich Öffentliches Management wurden wegen schwerer Täuschung verurteilt, da sie KI zur Erstellung ihrer Arbeiten genutzt hatten. Der Informatik-Student hatte seine Bachelorarbeit mithilfe von Übersetzungshilfen und KI verfasst, konnte jedoch seine Arbeit nicht im Detail erklären, was als Täuschung gewertet wurde. Der Masterstudent hatte KI-Vorschläge für seine Hausarbeit übernommen, was ebenfalls als mangelnde Eigenständigkeit angesehen wurde. Beide Studenten legten Widerspruch ein, konnten jedoch vor Gericht nicht überzeugen. Das Gericht stellte klar, dass die Nutzung von KI über einfache Rechtschreibprüfungen hinaus als Täuschung gilt und dass Prüflinge, die KI-generierte Inhalte verwenden, nicht als selbstständig arbeitend betrachtet werden. Diese Urteile verdeutlichen die strengen Anforderungen an die Eigenständigkeit von Prüfungsleistungen und die damit verbundenen rechtlichen Konsequenzen.
KI in der Medienbranche – Sind Schweizer Onlinemedien am Ende?
Die Schweizer Medienlandschaft steht laut Marc Walder, dem CEO von Ringier, vor großen Herausforderungen, da nur wenige Medienmarken ökonomisch überlebensfähig sind. Künstliche Intelligenz (KI) könnte einerseits die Effizienz steigern, indem sie Aufgaben wie Transkriptionen und Übersetzungen übernimmt, andererseits jedoch den Traffic von suchmaschinenabhängigen Medien erheblich reduzieren. Besonders Gratis-Medien wie Blick und 20 Minuten sind gefährdet, da KI Inhalte schneller und kostengünstiger bereitstellen kann. Bezahlmedien, die auf investigativen Journalismus setzen, könnten hingegen profitieren, da ihre Inhalte schwerer von KI generiert werden können. Die Unsicherheit über den Zugriff von KI auf Inhalte hinter Paywalls könnte jedoch das Bezahlmodell gefährden, da viele Nutzer keinen Anreiz sehen, kostenpflichtige Seiten zu besuchen. Während einige Medien durch eigene Recherchen an Bedeutung gewinnen könnten, besteht die Gefahr, dass andere ihr Vertrauen verlieren, wenn sie KI lediglich zur Kostensenkung einsetzen. Der Lokal- und Regionaljournalismus könnte wertvolle Inhalte liefern, hat jedoch oft nicht die nötigen Ressourcen, um KI effektiv zu nutzen.
From Karpathy’s LLM Wiki to Graphify: AI Memory Layers are Here
Graphify revolutioniert den Umgang mit KI, indem es eine persistente Wissensschicht etabliert, die sich dynamisch mit der Nutzung weiterentwickelt. Anstatt bei jeder Anfrage neu zu beginnen, verwandelt Graphify Verzeichnisse in durchsuchbare Wissensgraphen, die eine strukturierte Datenverarbeitung ermöglichen. Der Installationsprozess ist unkompliziert und erfordert lediglich einen Befehl, gefolgt von der Eingabe eines spezifischen Kommandos. Durch die Analyse von Code und unstrukturierten Inhalten entsteht eine einheitliche Netzwerkstruktur, die intuitive Abfragen und die Erkennung von Beziehungen zwischen Datenpunkten erlaubt. Die Zuordnung von Vertrauensniveaus innerhalb des Graphen sorgt für Transparenz, die in vielen KI-Tools oft fehlt. Zudem optimiert Graphify die Effizienz, indem es die Token-Nutzung erheblich reduziert, was besonders bei großen Datenmengen vorteilhaft ist. Die Integration in bestehende KI-Umgebungen ermöglicht schnellere und präzisere Antworten auf komplexe Fragen. Insgesamt verändert Graphify die Interaktion mit KI, indem es eine dauerhafte Gedächtnisschicht schafft, die die Effizienz und Qualität der Ergebnisse signifikant steigert.
Anthropic’s Mythos Will Force a Cybersecurity Reckoning—Just Not the One You Think
Anthropic hat mit der Einführung seines Claude Mythos Preview Modells eine potenzielle Wende in der Cybersecurity eingeläutet. Das Modell soll in der Lage sein, Schwachstellen in nahezu jeder Software zu identifizieren und autonom Exploits zu entwickeln. Derzeit ist es nur einer begrenzten Anzahl von Organisationen zugänglich, um ihnen einen Vorsprung bei der Erkennung von Schwächen zu verschaffen. Während einige Experten skeptisch sind und argumentieren, dass ähnliche Funktionen bereits in bestehenden KI-Modellen vorhanden sind, sehen andere in Mythos Preview eine ernsthafte Bedrohung, da es die Identifizierung und Ausnutzung von "Exploit Chains" verbessert. Diese Ketten ermöglichen es Angreifern, Systeme tiefgreifend zu kompromittieren. Die Diskussion über die Auswirkungen hat auch politische und wirtschaftliche Führungspersönlichkeiten mobilisiert, die sich mit den Risiken für die Finanzbranche befassen. Kritiker warnen, dass die Aufregung über Mythos möglicherweise übertrieben ist und Teil des allgemeinen KI-Hypes darstellt. Dennoch könnte Mythos Preview als Chance gesehen werden, grundlegende Schwächen in der Softwareentwicklung anzugehen und die Sicherheitsarchitektur zu verbessern, was den Beginn eines Wandels hin zu sichereren Technologien markieren könnte.
AI Pioneer and Nobel Laureate Geoffrey Hinton Joins Human Longevity, Inc. Scientific Advisory Board
Geoffrey Hinton, ein führender Pionier der künstlichen Intelligenz und Nobelpreisträger, hat sich dem wissenschaftlichen Beratungsgremium von Human Longevity, Inc. angeschlossen. In dieser Rolle wird er die KI-Strategie des Unternehmens leiten und an der Entwicklung einer Plattform zur Vorhersage von Krankheitsrisiken sowie zur frühzeitigen Erkennung von Krankheiten mitwirken. Hinton, der 2024 den Nobelpreis für Physik erhielt, plant, innovative Modelle zu schaffen, die eine frühzeitige Krankheitsdiagnose ermöglichen und die Gesundheit der Menschen verbessern. Human Longevity hat über ein Jahrzehnt daran gearbeitet, umfassende Datensätze zu erstellen, die Genomik, Bildgebung und Biomarker integrieren, um den Übergang von reaktiver zu präventiver, personalisierter Medizin zu fördern. Mit der Einführung der KI-gestützten Longevity-App MyHealth im Jahr 2026 wird diese Vision weiter vorangetrieben. Hinton hebt hervor, dass die Kombination von KI und Biologie das Potenzial hat, die Gesundheitsversorgung grundlegend zu transformieren und personalisierte Ansätze zur Krankheitsvorhersage zu ermöglichen.
Using AI models to detect sinkhole trouble
In dem Artikel "Using AI models to detect sinkhole trouble" wird untersucht, wie Künstliche Intelligenz (KI) zur frühzeitigen Erkennung von Sinklöchern eingesetzt werden kann. Sinklöcher stellen ein ernstes geologisches Risiko dar, das sowohl Infrastruktur als auch die Sicherheit von Menschen gefährden kann. Der Einsatz von KI-Modellen ermöglicht es, große Datenmengen zu analysieren, um Muster und Anomalien zu identifizieren, die auf potenzielle Sinklochbildung hinweisen. Durch die Kombination von geologischen Daten, Satellitenbildern und maschinellem Lernen können Forscher präzisere Vorhersagen treffen und gefährdete Gebiete schneller identifizieren. Der Artikel hebt die Vorteile dieser Technologie hervor, einschließlich der Verbesserung der Reaktionszeiten und der Minimierung von Schäden. Abschließend wird betont, dass die Integration von KI in die Geowissenschaften ein vielversprechender Ansatz ist, um die Herausforderungen im Zusammenhang mit Sinklöchern besser zu bewältigen.
Police corporal created AI porn from driver's license pics
Stephen Kamnik, ein Polizeikorporal aus Pennsylvania, hat sich schuldig bekannt, über 3.000 pornografische Deepfakes erstellt zu haben, die auf illegal aus staatlichen Datenbanken, einschließlich Führerscheinfotos, heruntergeladenen Bildern basierten. Die Ermittlungen gegen ihn begannen 2024, als die Polizei auffiel, dass sein Computer ungewöhnlich viel Internetbandbreite nutzte. Bei Durchsuchungen seiner Geräte fanden die Ermittler nicht nur die Deepfakes, sondern auch Kinderpornografie und gestohlene Waffen. Zudem hatte Kamnik heimlich Videos und Fotos von Kollegen aufgenommen und bearbeitet, darunter ein Gerichtsvideo für obszöne Zwecke. Sein Missbrauch staatlicher Ressourcen für persönliche sexuelle Befriedigung hat nicht nur seine Karriere ruiniert, sondern auch das Vertrauen in die Polizei erheblich beschädigt.
Palladyne AI secures additional Foundational Swarming U.S. Patent on AI-Driven Path Creation, Target Detection, and Behavioral Prediction
Palladyne AI hat ein neues US-Patent (Nr. 12,517,525 B1) für sein Bayesian Program Learning (BPL) Framework erhalten, das sich auf intelligente Zielerkennung, autonome Pfadplanung und Verhaltensvorhersage spezialisiert. Dieses Patent stärkt die geistigen Eigentumsrechte des Unternehmens in den Bereichen autonome Robotik, Multi-Sensor-Überwachung und intelligentes Edge-Computing. Die Technologie ermöglicht die Erkennung und Verfolgung von Zielen über verschiedene Sensoren hinweg, ohne auf Cloud-Dienste angewiesen zu sein, und wandelt gesprochene Anweisungen in optimierte Bewegungspläne um. Dadurch wird die Einsatzbereitschaft in der Fertigung und Logistik erheblich beschleunigt und Umstellungszeiten reduziert. Zudem kann das System das Verhalten von Zielen vorhersagen, selbst bei Störungen oder Ausfällen der Sensoren, was eine kontinuierliche Verfolgung in schwierigen Kommunikationsumgebungen ermöglicht. Laut Palladyne AI repräsentiert dieses Patent einen bedeutenden Fortschritt in der Maschinenintelligenz und den langfristigen Wert des Unternehmens.
Anthropic KI „Claude Mythos“: Wie gefährlich ist die neue Hacker-KI?
Das neue KI-Modell „Claude Mythos Preview“ von Anthropic wird als potenzielle Bedrohung für die Cybersicherheit betrachtet, da es in der Lage ist, Schwachstellen in gängigen Softwareprogrammen zu identifizieren und auszunutzen. Experten wie Konrad Rieck warnen jedoch, dass für profitable Cyberkriminalität gegenwärtig keine KI erforderlich ist, da Angreifer oft auf einfachere Methoden zurückgreifen. Anthropic plant, das Modell zunächst durch Unternehmen wie Google und Microsoft im Rahmen des „Project Glasswing“ testen zu lassen, um die Sicherheit zu gewährleisten. Rieck betont, dass die Fähigkeiten von KI in der Schwachstellenerkennung oft überschätzt werden und eine perfekte Erkennung unmöglich ist. Dennoch hat die KI durch Verbesserungen in Programmierung und logischem Denken ihre Hacking-Fähigkeiten gesteigert, was ihr ermöglicht, in mehreren Schritten zu arbeiten. Während KI die Entdeckung von Schwachstellen beschleunigt, profitieren auch Verteidiger von dieser Technologie, da sie schneller reagieren können. Die zentrale Frage bleibt, ob solche KI-Modelle die IT-Sicherheit gefährden oder als Werkzeug zur Verbesserung dienen können.
Nudifying bots, deepfakes, and automated archives: how AI powers a monetized abuse ecosystem on Telegram
Die Analyse von 2,8 Millionen Telegram-Nachrichten in Italien und Spanien deckt auf, wie KI-gestützte Nudifying-Bots eine monetarisierte Missbrauchsökonomie rund um nicht einvernehmliche intime Bilder fördern. Diese Bots verwandeln alltägliche Fotos in synthetische Nacktaufnahmen und sind in entsprechenden Gruppen sehr gefragt. Die Monetarisierung erfolgt durch den Verkauf von Archiven solcher Bilder, wobei Preise zwischen 20 und 50 Euro erzielt werden und Affiliates bis zu 40 Prozent Provision verdienen können. Zudem nutzen Nutzer kommerzielle Chatbots zur Manipulation von Bildern und zur Erstellung synthetischer Inhalte von Influencern. Telegram wird als Plattform identifiziert, die diese missbräuchlichen Praktiken durch ihre Struktur begünstigt. Die Forscher fordern eine Einstufung von Telegram als sehr große Online-Plattform und ein Verbot von Nudifying-Tools in der EU. Sie plädieren außerdem für gesetzliche Regelungen, die Schutzmaßnahmen gegen synthetische nicht einvernehmliche intime Bilder im Rahmen des KI-Gesetzes umfassen.
Googles "Nano Banana AI“ hilft US-Tourist, um japanische Hotel-Klimaanlage zu knacken
Ein US-Tourist in Japan hatte Schwierigkeiten, die Klimaanlage seines Hotelzimmers zu bedienen, da die Fernbedienung nur japanische Schriftzeichen aufwies. Um das Problem zu lösen, wandte er sich an Googles experimentelles KI-Tool Nano Banana, das ihm half, die Schriftzeichen zu übersetzen und eine verständliche Bedienungsanleitung zu erstellen. Diese Situation wurde viral und verdeutlichte die Funktionsweise von Nano Banana, das Bilder analysiert, Texte erkennt und kontextbezogene Anleitungen generiert. Im Gegensatz zu herkömmlichen Übersetzungs-Apps versteht Nano Banana auch Symbole und Layouts, was die Benutzererfahrung verbessert. Das kostenlose Tool ist im Browser verfügbar und Teil von Googles KI-Initiativen unter dem Namen Gemini. Nano Banana kombiniert Bildanalyse mit generativen Funktionen, um Inhalte in Bildern gezielt zu bearbeiten und zu beschriften.
Experten enthüllen unerlaubten Handel mit Nacktbildern von Frauen auf Telegram
Experten von AI Forensics haben alarmierende Ergebnisse über den unerlaubten Handel mit Nacktbildern von Frauen auf Telegram veröffentlicht. In 16 Kanälen wurden über 80.000 pornografische Dateien, einschließlich Aufnahmen von Minderjährigen und KI-generierten Deepfakes, ausgetauscht. Einige Mitglieder dieser Gruppen organisierten gezielte Belästigungskampagnen, veröffentlichten persönliche Daten und forderten sogar zu Vergewaltigungen auf. Die Inhalte stammen häufig von sozialen Medien wie TikTok, Instagram und Snapchat, während Telegram als Plattform für die Verbreitung dieser missbräuchlichen Materialien dient. Kritiker werfen Telegram vor, unzureichende Maßnahmen gegen diese Gruppen zu ergreifen, da geschlossene Kanäle oft schnell unter neuen Namen wieder auftauchen. Die Ende-zu-Ende-Verschlüsselung von Telegram schafft ein Gefühl von Sicherheit, das Missbrauch fördert. Obwohl Telegram betont, dass die Verbreitung nicht einvernehmlicher Inhalte gegen die Nutzungsbedingungen verstößt, bleibt die Bekämpfung von Deepfakes eine Herausforderung für alle Plattformen.
Cribl Guard: KI soll sensible Daten im Telemetrie-Strom aufspüren
Cribl hat sein Sicherheitsmodul Guard um eine KI-gestützte Funktion namens Background Detection erweitert, die Muster sensibler Daten in Logs und Events erkennt. Diese kontinuierliche Analyse erfolgt direkt während der Datenverarbeitung auf den Cribl-Workers, wodurch sensible Informationen die Kundeninfrastruktur nicht verlassen. Im Gegensatz zu herkömmlichen Data Loss Prevention-Tools, die externe Analysen durchführen, ermöglicht diese Methode eine proaktive Risikominderung, indem potenzielle Bedrohungen frühzeitig identifiziert werden. Die neue Funktion ersetzt statische Regelwerke und bietet Unternehmen eine kontinuierliche Erkennung neuer Risiken. Laut Cribl-CPO Dritan Bitincka wird so der Übergang von reaktiven zu proaktiven Sicherheitsmaßnahmen erleichtert. Die Plattform wird bereits von zahlreichen Unternehmen, darunter die Hälfte der Fortune-100, genutzt und dient als zentrale Datendrehscheibe für Logs, Metriken und Events.
Auf Telegram: Experten decken massenhaften Handel mit Nacktbildern von Frauen und Mädchen auf
Experten haben auf Telegram einen umfangreichen Handel mit Nacktbildern von Frauen und Mädchen aufgedeckt, die ohne deren Zustimmung verbreitet wurden. In einer sechs Wochen dauernden Untersuchung der Aktivistengruppe AI Forensics wurden fast 25.000 Nutzer identifiziert, die solche Bilder gegen Bezahlung weiterverbreiteten. Insgesamt wurden über 80.000 pornografische Dateien auf 16 Kanälen ausgetauscht, darunter auch Aufnahmen von Minderjährigen und Deepfakes. Einige Gruppenmitglieder riefen zu Vergewaltigungen auf und veröffentlichten persönliche Daten der Opfer, was die Gefahr für die Betroffenen erhöhte. Die Experten kritisierten Telegram für unzureichende Maßnahmen gegen diese illegalen Aktivitäten, da geschlossene Gruppen oft schnell unter neuem Namen wieder auftauchten. Die Ende-zu-Ende-Verschlüsselung von Telegram schaffe ein Gefühl von Sicherheit, das einige Nutzer zum Missbrauch verleite. Ein Sprecher von Telegram betonte, dass die Verbreitung nicht einvernehmlicher Inhalte gegen die Nutzungsbedingungen verstoße, räumte jedoch ein, dass das Vorgehen gegen Deepfakes für alle Plattformen eine Herausforderung darstelle.
AI can predict a patient’s chance of getting heart disease five years before it develops
Ein neues KI-Tool der Universität Oxford kann das Risiko von Herzinsuffizienz fünf Jahre im Voraus mit einer Genauigkeit von 86 Prozent vorhersagen. Finanziert von der British Heart Foundation, analysiert das Tool Computertomographie-Scans von 72.000 Patienten, um Veränderungen im Fettgewebe um das Herz zu erkennen, die auf eine ungesunde Herzmuskelfunktion hinweisen. Die Forschung zeigt, dass Patienten in der höchsten Risikogruppe 20-mal wahrscheinlicher an Herzinsuffizienz erkranken als solche mit niedrigem Risiko. Herzinsuffizienz, oft durch Fettansammlungen verursacht, ist eine der häufigsten Todesursachen im Vereinigten Königreich. Die Forscher hoffen, dass das Tool die frühzeitige Erkennung der Krankheit verbessert und somit die Behandlung optimiert. Professor Charalambos Antoniades bezeichnete die Entwicklung als bedeutenden Fortschritt und plant, die Methode auf andere CT-Scans auszuweiten. Die Einführung des Tools könnte nicht nur die Diagnose verbessern, sondern auch den Druck auf Krankenhäuser verringern, indem Patienten länger gesund bleiben. Experten betonen die Wichtigkeit einer frühen Diagnose zur Steigerung der Lebensqualität der Patienten. Die britische Regierung plant, die NHS durch neue Technologien zu reformieren und die Nutzung von KI im Gesundheitswesen zu fördern.
Mit KI gegen KI: So decken IT-Forensiker Deepfakes auf
Die steigende Verbreitung von Deepfakes im Internet, die sowohl unterhaltsame als auch schädliche Auswirkungen haben können, hat das Interesse von IT-Forensikern geweckt. Diese Fachleute setzen einfache visuelle Prüfungen sowie fortschrittliche KI-Tools ein, um gefälschte Inhalte zu erkennen. Nicolas Müller vom Fraunhofer-Institut erläutert, dass erste Analysen durch die Überprüfung von Wetterbedingungen und Schattenverläufen erfolgen können. Weitere Hinweise auf Deepfakes sind unpassende Hauttöne und Bildartefakte. KI-Modelle können zudem die Wahrscheinlichkeit quantifizieren, dass ein Video gefälscht ist, wobei Werte um 95 auf einen Deepfake hindeuten. Jens Kramosch von Leak. Red warnt, dass die Erkennung von Deepfakes zunehmend schwieriger wird, da sich die Technologie ständig verbessert. Um dem entgegenzuwirken, könnte in Zukunft ein digitales Echtheitszertifikat erforderlich sein, um zwischen Originalinhalten und Fälschungen zu unterscheiden. Trotz der Herausforderungen sind die Experten optimistisch, dass KI-Tools weiterhin in der Lage sein werden, Deepfakes zu identifizieren.
Argentine wildfire AI startup raises $2.7M after building a detection system that beats NASA’s alerts by 35 minutes
Das argentinische Startup Satellites on Fire, gegründet von drei Teenagern im Jahr 2020, hat kürzlich 2,7 Millionen US-Dollar in einer Seed-Finanzierungsrunde gesammelt, um seine KI-gestützte Plattform zur frühzeitigen Waldbranddetektion weiterzuentwickeln. Die innovative Software nutzt Satellitendaten von verschiedenen Agenturen und bietet eine schnellere Erkennung als das NASA-System FIRMS, indem sie die Zeitlücken zwischen Satellitenüberflügen überbrückt. Nach Gesprächen mit über 80 Feuerwehrleuten wurde die Plattform optimiert und aktualisiert ihre Daten alle fünf Minuten, was eine durchschnittliche Vorlaufzeit von 35 Minuten gegenüber NASA-Warnungen ermöglicht. Mit über 55.000 Nutzern und einer Datenbank von mehr als 20.000 validierten Feuerberichten hat das Unternehmen bereits bei über 600 Waldbränden im Jahr 2025 geholfen. Die neuen Mittel sollen die Expansion in den US-Markt unterstützen, wo Pilotprojekte bereits laufen, sowie die Verbesserung der KI-Modelle und die Einführung eines parametric wildfire insurance products in Zusammenarbeit mit Aon vorantreiben. Die Plattform hat das Potenzial, die enormen Kosten von Waldbränden in den USA erheblich zu senken.