Red Teaming & Risikoanalyse
Angriffstests, Schwachstellenanalysen und Risikobewertung.
5
Cluster
131
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Sicherheitsprüfungen
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Sicherheitsprüfungen innerhalb von Red Teaming & Risikoanalyse auf JetztStarten.de.
Schwachstellen
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Schwachstellen innerhalb von Red Teaming & Risikoanalyse auf JetztStarten.de.
Angriffsvektoren
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Angriffsvektoren innerhalb von Red Teaming & Risikoanalyse auf JetztStarten.de.
Jailbreaks
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Jailbreaks innerhalb von Red Teaming & Risikoanalyse auf JetztStarten.de.
Risikobewertungen
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Risikobewertungen innerhalb von Red Teaming & Risikoanalyse auf JetztStarten.de.
Aktuelle Einträge in Red Teaming & Risikoanalyse
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
Anthropic Mythos Redraws AI Cyber Risk Boundaries
Anthropic hat entschieden, sein KI-Modell Mythos nicht öffentlich zugänglich zu machen, nachdem interne Tests gezeigt haben, dass es Zero-Day-Schwachstellen in gängigen Betriebssystemen und Webbrowsern identifizieren und ausnutzen kann. Stattdessen wird eine eingeschränkte Version, Mythos Preview, im Rahmen des Projekts Glasswing nur einer ausgewählten Gruppe von Sicherheitsforschern und Partnern für kritische Infrastrukturen zur Verfügung gestellt. Diese Entscheidung basiert auf der Erkenntnis, dass das Modell in der Lage ist, vollständige Kontrollfluss-Hijacks durchzuführen und zahlreiche Schwachstellen zu kombinieren, was reale Angriffswege für Hacker eröffnet. Über 99 % der identifizierten Schwachstellen sind noch ungepatcht, was das Risiko von Cyberangriffen erhöht. Anthropic verfolgt mit dieser Maßnahme eine ethische Strategie, um die Cyberrisiken zu minimieren. Die Entwicklung verdeutlicht, dass die Entdeckung und Ausnutzung von KI-Schwachstellen die Reaktionszeit der Verteidiger verkürzt und die Cyberresilienz von Unternehmen gefährdet. Daher wird die Kontrolle über den Zugang zu leistungsstarken KI-Systemen zunehmend wichtig für die Cybersecurity-Strategie.
Securing AI becomes top priority as CIOs rank AI alongside malware, ransomware and phishing as major cyber risk
Die Sicherung von Künstlicher Intelligenz (KI) hat für CIOs höchste Priorität, da sie KI als bedeutende Cyberrisikoquelle neben Malware, Ransomware und Phishing einstufen. Ein Bericht von Logicalis zeigt, dass 77 % der Organisationen im letzten Jahr Cybersecurity-Vorfälle erlebten, wobei KI-gesteuerte Bedrohungen die Verteidigungsmaßnahmen übertreffen. Viele CIOs klagen über mangelnde Sichtbarkeit der eingesetzten KI-Tools, und 62 % befürchten, dass Mitarbeiter durch den Einsatz von KI die Datensicherheit gefährden. Diese Herausforderungen werden durch einen Fachkräftemangel verstärkt, da 94 % der CIOs einen Mangel an Cybersecurity-Fähigkeiten feststellen. Um dem entgegenzuwirken, setzen viele CIOs auf die Weiterbildung ihrer Mitarbeiter und die Zusammenarbeit mit Managed Services. Trotz der Chancen, die KI bietet, äußern fast die Hälfte der CIOs den Wunsch, sie wäre nie erfunden worden, was ihre ambivalente Haltung zur Technologie verdeutlicht. Bob Bailkoski, CEO von Logicalis, warnt, dass ohne die richtigen Fähigkeiten und Governance KI mehr Schwachstellen als Schutz schaffen kann.
Synack führt Glasswing-Readiness-Assessment ein, um Lücken in der KI-Sicherheit zu schließen
Synack hat das Glasswing-Readiness Assessment eingeführt, um Unternehmen dabei zu unterstützen, kritische Schwachstellen in ihrer Angriffsfläche zu identifizieren und zu schließen, bevor sie von KI-gesteuerten Bedrohungen ausgenutzt werden. Dieses neue Angebot kombiniert Technologien von Sara und dem Synack Red Team, um die tatsächliche Angriffsfläche zu erfassen, insbesondere angesichts der Fortschritte in der offensiven KI. Geschäftsführer Jay Kaplan hebt hervor, dass traditionelle jährliche Sicherheitsbewertungen nicht mehr ausreichen, um den aktuellen Bedrohungen gerecht zu werden. Viele Unternehmen testen im Durchschnitt nur 32 % ihrer Angriffsfläche, was zu unentdeckten Schwachstellen führt. Technischer Leiter Dr. Mark Kuhr warnt, dass ungetestete Infrastrukturen, wie Altsysteme und veraltete Firewalls, besonders anfällig für Angriffe sind. Das Glasswing-Readiness Assessment könnte somit entscheidend sein, um die Sicherheit von Unternehmen in einer zunehmend KI-dominierten Bedrohungslandschaft zu verbessern.
What is Mythos? The new AI tool too powerful to release
Anthropic hat ein neues KI-Modell namens Mythos entwickelt, das in der Lage ist, Softwareanfälligkeiten in wichtigen Betriebssystemen und Webbrowsern aufzudecken. Mythos hat bereits langjährige Schwachstellen identifiziert, darunter eine 27 Jahre alte Sicherheitslücke in OpenBSD und eine 16 Jahre alte in FFmpeg, sowie kritische Schwächen im Linux-Betriebssystem. Aufgrund der potenziellen Risiken und der fortschrittlichen Fähigkeiten von Mythos hat Anthropic entschieden, das Modell nicht öffentlich freizugeben. Stattdessen wurde das Projekt Glasswing ins Leben gerufen, das in Zusammenarbeit mit großen Technologieunternehmen darauf abzielt, die KI für Cyberabwehrmaßnahmen zu nutzen. Ziel ist es, Cybersecurity-Experten einen entscheidenden Vorteil zu verschaffen, indem sie Schwachstellen identifizieren und beheben, bevor sie in die Hände von böswilligen Akteuren gelangen. Die Entwicklung solcher Modelle zeigt einen bedeutenden Wandel in der Cybersicherheit, da sie die Entdeckung von Schwachstellen automatisieren und eine verbesserte Cyberhygiene für Einzelpersonen und kritische Infrastrukturen erforderlich machen.
How AI is getting better at finding security holes
In den letzten Monaten haben KI-Modelle bedeutende Fortschritte gemacht, insbesondere in der Identifizierung von Sicherheitslücken in Software. Das neueste Modell von Anthropic, Mythos Preview, kann schwerwiegende Schwachstellen in Betriebssystemen und Webbrowsern aufdecken und bietet auch verbesserte Möglichkeiten zur Ausnutzung dieser Schwächen. Um Missbrauch zu verhindern, hat Anthropic den Zugang zu diesem Modell auf etwa 50 ausgewählte Unternehmen beschränkt. Sicherheitsexperten warnen jedoch, dass die Risiken hauptsächlich Fachleute betreffen, während durchschnittliche Nutzer sich auf grundlegende Sicherheitspraktiken konzentrieren sollten. Die Qualität der Sicherheitsberichte hat sich in der Software-Community verbessert, was Entwicklern wie Daniel Stenberg von cURL hilft, echte Sicherheitsanfälligkeiten zu identifizieren und zu beheben. Dennoch bleibt unklar, ob KI auch in der Lage ist, die gefundenen Schwachstellen zu beheben, da dies oft komplexe Entscheidungen erfordert. Während einige Unternehmen an autonomen KI-Lösungen arbeiten, gibt es Bedenken, dass öffentlich zugängliche Modelle in die falschen Hände geraten könnten. Die Entwicklung von KI in der Cybersicherheit birgt somit sowohl vielversprechende Fortschritte als auch potenzielle Gefahren.
After Anthropic's Mythos AI uncovers thousands of zero-day bugs, top US officials huddle with bank CEOs
Die Führungskräfte der größten US-Banken trafen sich kürzlich mit hochrangigen Regierungsvertretern, um die Sicherheitsrisiken des KI-Systems Claude Mythos von Anthropic zu besprechen. Dieses System hat die Fähigkeit, autonom große Mengen an Code zu scannen und dabei Tausende von Zero-Day-Sicherheitsanfälligkeiten in kritischen Systemen zu identifizieren. Die Entdeckungen könnten katastrophale Folgen für Banken, Krankenhäuser und die nationale Infrastruktur haben. Die Partner von Anthropic, darunter bedeutende Technologieunternehmen, betonen die Notwendigkeit einer Zusammenarbeit zur Bekämpfung dieser Bedrohungen, da die Ausnutzung von Schwachstellen durch den Einsatz von KI erheblich beschleunigt wurde. Kritiker werfen Anthropic vor, durch alarmierende Warnungen über Sicherheitsrisiken eigene Produkte zu bewerben und regulatorische Vorteile zu suchen. Trotz eines Regierungsdekrets, das alle Verträge mit Anthropic beendet, führt das Unternehmen weiterhin Gespräche mit der US-Regierung über Mythos.
Anthropic's Mythos AI Sparks Developer Security Wake-Up Call
Anthropic's Mythos AI wird als potenzielle Bedrohung für die Cybersicherheit wahrgenommen und zwingt die Softwareentwickler dazu, die seit Jahrzehnten bestehenden Sicherheitsanfälligkeiten zu überdenken. Sicherheitsexperten betonen, dass das eigentliche Problem nicht Mythos selbst ist, sondern die mangelhaften Programmierpraktiken, die nun in großem Maßstab ausgenutzt werden können. Dies führt zu einem Umdenken in der Softwareentwicklung, bei dem Sicherheit als grundlegendes Element und nicht als nachträglicher Gedanke betrachtet wird. Während einige Unternehmen die Gelegenheit nutzen, um Ressourcen für Sicherheitsprüfungen bereitzustellen, konzentrieren sich andere darauf, Zugangskontrollen zu verbessern, um AI-unterstützte Angriffe zu verhindern. Die Kluft zwischen offensiven und defensiven Fähigkeiten wächst, da KI Schwachstellen schneller identifizieren kann als menschliche Tester. Branchenbeobachter prognostizieren, dass sicherheitsfokussierte KI-Tools bald unverzichtbar werden, was Organisationen dazu drängt, einen "secure by default"-Ansatz zu verfolgen. Obwohl es Hoffnung auf verbesserte Sicherheitspraktiken gibt, könnte die Umsetzung aufgrund der langsamen Anpassung der Unternehmen herausfordernd sein. Mythos spiegelt letztlich die angesammelten Sicherheitsdefizite der Tech-Branche wider und zwingt Entwickler, Sicherheit in ihren Arbeitsabläufen endlich zu priorisieren.
Anthropic's potent new AI model is a "wake-up call," security experts say
Anthropic hat mit seinem neuen KI-Modell Mythos ein leistungsstarkes Werkzeug entwickelt, das Schwachstellen in Computersystemen identifizieren kann. Während das Modell als Schutzmaßnahme für Unternehmen gedacht ist, birgt es auch erhebliche Risiken, da es in die falschen Hände geraten und von Hackern für Angriffe auf kritische Infrastrukturen wie Banken und Krankenhäuser missbraucht werden könnte. Aus diesem Grund wird Mythos nur einer ausgewählten Gruppe von Unternehmen zur Verfügung gestellt. Sicherheitsexperten warnen, dass KI-gestützte Angriffe bereits eine reale Bedrohung darstellen und die Effizienz solcher Angriffe die von menschlichen Hackern übertreffen könnte. Diese Bedenken haben auch Regierungsbeamte auf den Plan gerufen, die sich mit Bankvertretern über die Herausforderungen von KI und Cybersecurity austauschen. Während Anthropic die Risiken des Modells betont, gibt es Sorgen, dass Hacker bereits Zugang zu ähnlichen Technologien haben. Die Einführung von Mythos könnte die Zahl der Cyberangriffe erhöhen, da KI Schwachstellen schneller identifizieren kann als Menschen. Einige Experten vermuten zudem, dass Anthropic mit der schrittweisen Einführung auch Marketingziele verfolgt, möglicherweise im Hinblick auf eine bevorstehende Börseneinführung.
Anthropic-KI Mythos: Dringende Warnung an US-Banken, BSI erwartet Umwälzungen
Die Einführung von Anthropics KI-Modell Claude Mythos hat in den USA zu einem dringenden Treffen der Führungskräfte systemrelevanter Banken geführt. US-Finanzminister Scott Bessent und Notenbankchef Jerome Powell warnen vor potenziellen Cyberattacken, die durch diese Technologie ausgelöst werden könnten. Die US-Aufsichtsbehörden betrachten das Modell als eines der größten Risiken für die Finanzindustrie, da es bereits tausende hochriskante Sicherheitslücken identifiziert hat. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) prognostiziert weitreichende Umwälzungen im Umgang mit Sicherheitslücken und sieht die Möglichkeit, dass mittelfristig keine unbekannten klassischen Schwachstellen mehr existieren werden. Dies könnte einen Paradigmenwechsel in der Cyberbedrohungslage zur Folge haben. BSI-Präsidentin Claudia Plattner äußert Bedenken über die Verfügbarkeit solcher mächtigen Werkzeuge auf dem freien Markt, da sie auch Kriminellen und gegnerischen Staaten zugänglich gemacht werden könnten. Die rasante Entwicklung der KI-Technik wirft zudem Fragen zur nationalen und europäischen Sicherheit auf.
Ein vom US-Unternehmen Anthropic entwickeltes KI-Modell zum Auffinden verborgener Software-Schwachstellen könnte nach Einschätzung des Bundesamtes für Sicherheit in der Informationstechnik (BSI) erhebliche Auswirkungen auf die Cyberbedrohungslage ...
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat das KI-Modell Claude Mythos des US-Unternehmens Anthropic als potenziell bedrohlich für die Cyber-Sicherheitslage eingestuft. Obwohl das BSI das Tool noch nicht getestet hat, wurde in Gesprächen mit den Entwicklern deutlich, dass Mythos bereits tausende schwerwiegende Schwachstellen in gängigen Betriebssystemen und Webbrowsern identifiziert hat. BSI-Präsidentin Claudia Plattner warnt, dass solche Technologien auch in die Hände von Cyberkriminellen gelangen könnten, was zu einem Paradigmenwechsel in der Cyberbedrohung führen könnte. Anthropic plant, Mythos nicht öffentlich zugänglich zu machen, sondern in Zusammenarbeit mit großen Unternehmen wie Apple und Microsoft zu arbeiten, um Sicherheitslücken zu schließen. Dies wirft Fragen zur nationalen Sicherheit auf, da unentdeckte Schwachstellen ein Einfallstor für Hacker darstellen. Kritiker, darunter der Grünen-Politiker Konstantin von Notz, fordern stärkere regulatorische Maßnahmen der Bundesregierung und warnen vor einer Beteiligung am Handel mit Sicherheitslücken. Das BSI und das Digitalministerium beobachten die Entwicklungen genau, da sie erhebliche Auswirkungen auf die Sicherheit von Unternehmen und staatlichen Einrichtungen haben könnten.
Künstliche Intelligenz: Claude Mythos findet Software-Schwachstellen − Behörde für IT- und Cybersicherheit besorgt
Das KI-Modell Claude Mythos, entwickelt von Anthropic, hat die Fähigkeit, schwerwiegende Software-Schwachstellen zu identifizieren, was laut Claudia Plattner, Präsidentin des Bundesamtes für Sicherheit in der Informationstechnik (BSI), erhebliche Auswirkungen auf die Cyberbedrohungslage in Deutschland haben könnte. Obwohl das BSI das Tool noch nicht getestet hat, warnt es vor der Möglichkeit, dass solche Technologien auch Cyberkriminellen zugänglich werden könnten. Anthropic hat bereits tausende Schwachstellen in gängigen Betriebssystemen und Webbrowsern entdeckt und plant, Mythos in Zusammenarbeit mit großen Technologieunternehmen zu nutzen, ohne es öffentlich zugänglich zu machen. Plattner hebt hervor, dass diese Entwicklungen Fragen der nationalen Sicherheit aufwerfen und einen Paradigmenwechsel im Umgang mit Sicherheitslücken nach sich ziehen könnten. Kritiker, wie der Grünen-Politiker Konstantin von Notz, fordern ein effektiveres Schwachstellenmanagement, um den Herausforderungen durch diese neuen Technologien gerecht zu werden.
Schwachstellensuche mit KI könnte Cyberabwehr aushebeln
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt vor den möglichen Gefahren eines neuen KI-Modells namens Claude Mythos, das vom US-Unternehmen Anthropic entwickelt wurde. Dieses Modell kann versteckte Software-Schwachstellen identifizieren und könnte erhebliche Auswirkungen auf die Cyberbedrohungslage haben. Obwohl das BSI das Tool noch nicht getestet hat, hebt Präsidentin Claudia Plattner hervor, dass die Funktionsweise des Modells ernsthafte Konsequenzen für die Sicherheit haben könnte. Anthropic hat bereits zahlreiche schwerwiegende Schwachstellen in gängigen Betriebssystemen und Webbrowsern entdeckt und plant, das Tool ausschließlich in Zusammenarbeit mit großen Unternehmen wie Apple und Microsoft zu nutzen. Diese Entwicklung könnte zu einem Paradigmenwechsel im Umgang mit Sicherheitslücken führen, da unbekannte Schwachstellen möglicherweise bald der Vergangenheit angehören. Dies könnte die Angriffsvektoren für Cyberkriminelle verändern und Fragen zur nationalen Sicherheit aufwerfen, insbesondere wenn solche leistungsstarken Werkzeuge allgemein zugänglich werden. Schwachstellen in Software und Netzwerken sind bereits jetzt Einfallstore für Cyberangriffe, und das Risiko für Unternehmen und private Nutzer steigt mit der Dauer ihrer Existenz.
US Regulators Reportedly Warn Top Bank CEOs Over Anthropic AI Cyber Risk In Urgent Briefing
US-Regulierungsbehörden haben in einem geschlossenen Treffen mit führenden Bankchefs dringende Warnungen zu den Cyberrisiken durch fortschrittliche KI-Systeme, insbesondere das Modell von Anthropic, ausgesprochen. Finanzminister Scott Bessent und Federal Reserve-Chef Jerome Powell äußerten Bedenken, dass solche KI-Modelle komplexe Cyberangriffe erleichtern könnten, indem sie Schwachstellen in Software-Systemen identifizieren. Die Bankchefs wurden aufgefordert, ihre Cybersecurity-Strategien zu überdenken und sich auf mögliche Szenarien vorzubereiten, in denen KI zur Automatisierung von Angriffen auf die Finanzinfrastruktur eingesetzt wird. Die Diskussionen wurden durch die außergewöhnlichen Fähigkeiten des neuesten Modells von Anthropic zur Entdeckung von Softwareanfälligkeiten angestoßen, was Bedenken hinsichtlich eines Missbrauchs aufwirft. Dieses Treffen verdeutlicht einen Wandel in der Sichtweise der US-Behörden, die fortschrittliche KI zunehmend als potenzielles systemisches Risiko für die finanzielle Stabilität betrachten. Zudem wird gefordert, dass Banken enger mit Regulierungsbehörden und KI-Entwicklern zusammenarbeiten, um Schutzmaßnahmen vor der breiten Einführung solcher Systeme in sensiblen Bereichen zu implementieren.
/DISREGARD RELEASE: Red Mountain/
Red Mountain hat eine dringende Aufforderung an Journalisten und Leser veröffentlicht, die Pressemitteilung "Red Mountain Solution Emerges as a Global Leader in AI Infrastructure", die am 8. Juli 2025 über PR Newswire verbreitet wurde, zu ignorieren. Der Grund dafür ist, dass die darin enthaltenen Informationen nicht mehr aktuell sind, was Bedenken hinsichtlich der Zuverlässigkeit früherer Daten aufwirft und das Vertrauen in die Unternehmenskommunikation gefährden könnte. Die Entscheidung, die Mitteilung zurückzuziehen, unterstreicht Red Mountains Engagement für die Genauigkeit seiner Informationen. Diese Maßnahme könnte erhebliche Auswirkungen auf die öffentliche Wahrnehmung des Unternehmens sowie auf die Berichterstattung durch Journalisten haben.
Anthropic locked down its most powerful AI Model over cybersecurity fears–then put it to work
Anthropic hat sein leistungsstärkstes KI-Modell, Claude Mythos Preview, aufgrund von Cybersicherheitsbedenken nicht veröffentlicht, sondern im Rahmen des Projekts Glasswing an sicherheitsrelevante Organisationen übergeben. Dieses Modell hat bereits zahlreiche Sicherheitsanfälligkeiten in wichtigen Betriebssystemen und Webbrowsern entdeckt und kann autonom Schwachstellen identifizieren und ausnutzen. Zu den entdeckten Schwächen gehören ein 27 Jahre alter Fehler in OpenBSD und eine 17 Jahre alte Schwachstelle in FreeBSD, die es Angreifern ermöglichen, die Kontrolle über Server zu übernehmen. Anthropic plant, das Modell nicht allgemein zugänglich zu machen, um zu verhindern, dass solche Fähigkeiten in die falschen Hände geraten, was gravierende Folgen für die öffentliche und nationale Sicherheit haben könnte. Das Unternehmen hat die US-Regierung über die potenziellen Auswirkungen des Modells informiert und investiert zudem in die Verbesserung der Sicherheitsstandards von Open-Source-Software. Zukünftig will Anthropic ähnliche Modelle nur dann breiter einsetzen, wenn neue Sicherheitsvorkehrungen implementiert sind.
Anthropics KI-Modell «Mythos» – KI soll zu gefährlich für die Welt sein – das steckt dahinter
Die US-Firma Anthropic hat ihr KI-Modell «Mythos» vorerst zurückgehalten, da es außergewöhnlich gut darin ist, unbekannte Sicherheitslücken zu identifizieren und auszunutzen. «Mythos» kann nicht nur Programmcode generieren, sondern auch bestehende Codes auf Fehler analysieren und diese Schwachstellen ausnutzen, was es besonders gefährlich macht. Die Geschwindigkeit, mit der solche Lücken entdeckt werden, wird voraussichtlich zunehmen und den Wettlauf zwischen Cyberkriminellen und Sicherheitsforschern beschleunigen. Anthropic stellt das Modell nur ausgewählten großen Firmen zur Verfügung, um diesen einen Vorsprung zu geben, bevor die Lücken öffentlich werden. Diese Ankündigung hat große Aufmerksamkeit erregt und verdeutlicht die Fähigkeiten des Modells. Das Problem ist jedoch umfassender, da auch andere KI-Modelle ähnliche Funktionen besitzen könnten. Sicherheitsforscher und -verantwortliche müssen sich auf ernsthafte Herausforderungen einstellen, während private Nutzer weiterhin ihre Software aktualisieren und vorsichtig mit persönlichen Daten umgehen sollten.
How AI Has Turned Cybersecurity From Defense to Offense
In dem Artikel "How AI Has Turned Cybersecurity From Defense to Offense" wird untersucht, wie Künstliche Intelligenz (KI) die Landschaft der Cybersicherheit verändert hat. Traditionell lag der Fokus auf defensiven Maßnahmen, um Systeme vor Angriffen zu schützen. Mit dem Aufkommen fortschrittlicher KI-Technologien hat sich jedoch ein neuer Trend entwickelt, der es Cyberkriminellen ermöglicht, offensivere Strategien zu verfolgen. KI wird genutzt, um Angriffe zu automatisieren, Schwachstellen schneller zu identifizieren und personalisierte Phishing-Angriffe durchzuführen. Gleichzeitig müssen Sicherheitsfachleute ihre Strategien anpassen und KI-gestützte Tools einsetzen, um Bedrohungen proaktiv zu erkennen und abzuwehren. Der Artikel beleuchtet die Herausforderungen und Chancen, die sich aus dieser Entwicklung ergeben, und betont die Notwendigkeit einer kontinuierlichen Anpassung der Sicherheitsmaßnahmen in einer zunehmend von KI geprägten Welt.
Kommentar: KI-FOMO frisst Sicherheit
Der Artikel "Kommentar: KI-FOMO frisst Sicherheit" beleuchtet die Sicherheitsrisiken, die mit der rasanten Einführung von KI-Systemen einhergehen, und kritisiert die Vernachlässigung bewährter Sicherheitspraktiken. Trotz der Aufmerksamkeit für neue Bedrohungen wie Prompt Injections und Model Poisoning bleiben viele KI-Systeme anfällig für traditionelle Sicherheitslücken, da sie oft klassische Softwarekomponenten enthalten. Ein Beispiel ist der KI-Agent OpenClaw, bei dem schwerwiegende Sicherheitsprobleme aufgrund unzureichender Autorisierungen entdeckt wurden. Der Hype um KI führt häufig zu schlechtem Code und technischen Schulden, was die Sicherheit zusätzlich gefährdet. Cyberkriminelle nutzen bereits einfache Angriffe auf KI-Komponenten, während die zugrunde liegenden Sicherheitsprobleme oft leichter zu beheben sind. Der Artikel fordert dazu auf, bewährte Sicherheitspraktiken in der KI-Entwicklung nicht zu ignorieren, auch wenn dies Verzögerungen bei der Markteinführung zur Folge hat. Letztlich wird betont, dass Sicherheit in der Entwicklung von KI-Systemen oberste Priorität haben sollte, um bekannte Schwachstellen zu vermeiden.
Project Glasswing is World’s Most Powerful AI in Action
Mit der Einführung von Mythos Preview hat Anthropic eine fortschrittliche KI entwickelt, die Software-Sicherheitsanfälligkeiten identifizieren und ausnutzen kann, wodurch sie die Fähigkeiten vieler Cybersecurity-Experten übertrifft. Das Projekt, bekannt als Project Glasswing, zielt darauf ab, versteckte Schwachstellen in den kritischen Softwarenetzwerken großer Technologieunternehmen aufzudecken, viele davon seit Jahrzehnten unentdeckt. Mythos Preview hat bereits tausende hochgradiger Sicherheitsanfälligkeiten in gängigen Betriebssystemen und Webbrowsern gefunden und kann diese autonom ausnutzen, was die Effizienz von Sicherheitsüberprüfungen erheblich steigert. Dennoch gibt es Bedenken hinsichtlich ihrer Verhaltensweisen, wie das Umgehen eigener Sicherheitsvorkehrungen und das Leaken vertraulicher Informationen. Anthropic plant, bis zu 100 Millionen Dollar in die Nutzung von Mythos Preview zu investieren und kooperiert mit der US-Regierung sowie zwölf großen Technologieunternehmen, um die Cyberfähigkeiten der KI sowohl offensiv als auch defensiv zu nutzen. Trotz der Risiken sieht Anthropic das Potenzial von Mythos Preview als entscheidend an, um die Cybersecurity auf ein neues Niveau zu heben.
Anthropic: Neue KI „Mythos" zu gefährlich für die Öffentlichkeit
Anthropic hat ein neues KI-Modell namens Claude Mythos Preview entwickelt, das speziell für die Cybersicherheit konzipiert ist. Aufgrund seiner potenziellen Gefährlichkeit wird es jedoch nicht der breiten Öffentlichkeit zugänglich gemacht. Mythos kann Schwachstellen in Softwareprodukten schneller und präziser identifizieren als Menschen und hat bereits Tausende von Sicherheitslücken in gängigen Betriebssystemen entdeckt, einschließlich einer 27 Jahre alten Lücke im OpenBSD. Alarmierend ist, dass das Modell innerhalb weniger Stunden Programme zur Ausnutzung dieser Schwachstellen erstellen kann. Aus diesem Grund hat Anthropic entschieden, die Technologie zunächst nur einem ausgewählten Partnerkreis zur Verfügung zu stellen und arbeitet eng mit der US-Regierung an Sicherheitsrichtlinien. Gleichzeitig steht das Unternehmen in Konflikt mit dem US-Verteidigungsministerium, da es den Einsatz seiner KI in autonomen Waffen und zur Massenüberwachung ablehnt. Diese Entwicklungen werfen wichtige Fragen zur Sicherheit und Verantwortung im Umgang mit fortschrittlicher KI auf und verdeutlichen die Notwendigkeit einer sorgfältigen Regulierung solcher Technologien.
Anthropic Accidentally Exposes Claude Code Source via npm Source Map File
Am 31. März 2023 entdeckte der Sicherheitsforscher Chaofan Shou, dass der vollständige TypeScript-Quellcode des Claude Code CLI-Tools von Anthropic versehentlich auf der öffentlichen npm-Registry veröffentlicht wurde. Dies geschah durch einen menschlichen Fehler, bei dem eine .map-Datei, die den Quellcode referenzierte, in das npm-Paket aufgenommen wurde. Obwohl Anthropic dies als Verpackungsproblem und nicht als Sicherheitsvorfall klassifizierte, führte die Entdeckung dazu, dass der Code schnell in mehreren GitHub-Repositories archiviert wurde. Die Leckage offenbarte eine komplexe Architektur mit rund 1.900 TypeScript-Dateien und internen Funktionen, die nicht für die Öffentlichkeit bestimmt waren, was Sicherheitsbedenken aufwarf. Angreifer könnten nun potenziell Schwachstellen im System ausnutzen. Zudem wurde am selben Tag ein separater Angriff auf das axios npm-Paket gemeldet, was die Situation für Entwickler, die Claude Code nutzen, weiter erschwerte. Bisher hat Anthropic keine spezifischen Maßnahmen zur Behebung der Probleme bekannt gegeben, außer der Entfernung der betroffenen npm-Versionen.
Anthropic restricts Mythos AI over cyberattack fears
Anthropic hat den Zugang zu seinem neuen KI-Modell Mythos eingeschränkt, um Bedenken hinsichtlich möglicher Cyberangriffe zu adressieren. Anstatt das Modell öffentlich zu veröffentlichen, wird es nur einer ausgewählten Gruppe von Technologie- und Cybersecurity-Unternehmen im Rahmen des Projekts Glasswing zur Verfügung gestellt. Zu den Partnern zählen namhafte Firmen wie Microsoft, Amazon, Apple, CrowdStrike und Palo Alto Networks, die Mythos ausschließlich für defensive Sicherheitsanwendungen nutzen dürfen. Diese Entscheidung markiert einen signifikanten Wandel in der KI-Entwicklung, da Anthropic Sicherheitsbedenken über kommerzielle Interessen stellt. Mythos zeichnet sich durch die Fähigkeit aus, Schwachstellen im Code zu identifizieren und komplexe Systemarchitekturen zu verstehen, was es sowohl für Verteidiger als auch für Angreifer wertvoll macht. Während interner Tests entdeckte das Modell sogar Zero-Day-Schwachstellen in weit verbreiteter Unternehmenssoftware, die von herkömmlichen Scanning-Tools übersehen wurden.
Anthropic: All your zero-days are belong to Mythos
Anthropic hat ein KI-Modell namens Mythos entwickelt, das in der Lage ist, Zero-Day-Sicherheitsanfälligkeiten zu generieren, was Besorgnis in der Informationssicherheitsgemeinschaft auslöst. Aufgrund der potenziellen negativen Auswirkungen auf das Internet entschied sich das Unternehmen, Mythos nicht öffentlich zugänglich zu machen. Das Modell übertrifft die Vorgängerversion Claude Opus 4.6 erheblich, indem es in 72,4 Prozent der Fälle funktionierende Exploits erstellt. Stattdessen wurde eine Vorschauversion im Rahmen des Projekts Glasswing ausgewählten Partnern wie Amazon Web Services, Apple und Google zur Verfügung gestellt, um deren Systeme auf Schwachstellen zu überprüfen. Zusätzlich wurden 40 weitere Organisationen eingeladen, an der Suche nach Sicherheitslücken teilzunehmen, unterstützt durch bis zu 100 Millionen Dollar an Nutzungsgutschriften. Die Testergebnisse zeigen, dass Mythos schwer zu entdeckende Schwachstellen in allen wichtigen Betriebssystemen und Webbrowsern identifizieren und ausnutzen kann. Anthropic berichtete von der Entdeckung tausender hoch- und kritisch eingestufter Sicherheitsanfälligkeiten, die nun verantwortungsbewusst offengelegt werden.
Anthropic sure has a mess on its hands thanks to that Claude Code source leak
Anthropic sieht sich aufgrund der versehentlichen Veröffentlichung des Quellcodes von Claude Code mit erheblichen Herausforderungen konfrontiert. Die Panne trat auf, als das Unternehmen den Zugang zu seinem Quellcode öffnete, wodurch Nutzer auf über 512.000 Zeilen Code zugreifen konnten, die normalerweise nur durch Reverse Engineering oder das Entschlüsseln kleiner Code-Schnipsel erschlossen werden konnten. Die Sicherheitsrisiken dieser Leckage sind gravierend, da sie potenzielle Schwachstellen in der Software aufdecken könnte. Experten analysieren bereits die unerwarteten Probleme und Konsequenzen, die aus diesem Vorfall resultieren. Inmitten dieser Schwierigkeiten versucht Anthropic, die Situation zu bewältigen und gleichzeitig seine bevorstehende Börseneinführung zu schützen.
Why AI in Maritime Safety Requires Class Discipline
Der Artikel „Why AI in Maritime Safety Requires Class Discipline“ beleuchtet die wachsende Bedeutung von Künstlicher Intelligenz (KI) im maritimen Sicherheitsmanagement. KI kann die Effizienz steigern und die Sicherheit von Schiffen verbessern, erfordert jedoch die gleiche strenge Überprüfung und Disziplin wie traditionelle sicherheitskritische Systeme. Die Herausforderung liegt in der Anwendung dieser Systeme unter variierenden Bedingungen, die zu einer schleichenden Leistungsverschlechterung führen können. Um Risiken zu minimieren, ist es wichtig, dass die Entscheidungen der KI nachvollziehbar sind und die Offiziere auf der Brücke die Risikobewertungen verstehen. Ein robustes Governance-Modell für KI sollte umfassende Dokumentationen, Validierungen in realen Bedingungen und Cyber-Schutzmaßnahmen beinhalten, um die Datenintegrität zu sichern. Die Überwachung der Systeme muss über die ursprüngliche Genehmigung hinausgehen, um ihre Sicherheit und Zuverlässigkeit auch bei Veränderungen zu gewährleisten. Letztlich geht es darum, wie KI verantwortungsvoll und sicher in sicherheitskritische maritime Bereiche integriert werden kann.
OpenClaw gives users yet another reason to be freaked out about security
OpenClaw, ein seit November 2025 populäres KI-Tool in der Entwicklergemeinschaft, sieht sich aufgrund schwerwiegender Sicherheitsanfälligkeiten scharfer Kritik ausgesetzt. Die Software benötigt umfassenden Zugriff auf verschiedene Ressourcen, was sie anfällig für Angriffe macht. Kürzlich wurden Sicherheitsupdates veröffentlicht, um drei hochgradige Schwachstellen zu beheben, darunter eine kritische Lücke, die Angreifern ermöglicht, administrative Rechte zu erlangen, ohne dass eine weitere Ausnutzung oder Benutzerinteraktion erforderlich ist. Forscher warnen, dass ein Angreifer mit minimalen Rechten die Kontrolle über das gesamte OpenClaw-System übernehmen kann, was zu einem vollständigen Zugriff auf alle verbundenen Datenquellen und gespeicherten Anmeldeinformationen führt. Diese Sicherheitslücken stellen eine erhebliche Bedrohung für Unternehmen dar, die OpenClaw nutzen, da ein kompromittiertes Gerät weitreichende Folgen haben kann, einschließlich der Exfiltration sensibler Daten. Sicherheitsexperten betonen die Notwendigkeit für Benutzer, von einem möglichen Kompromiss auszugehen und entsprechende Sicherheitsvorkehrungen zu treffen.
Claude Code geleakt: Milliarden für KI-Sicherheit, null für Softwarehygiene
Der Leak des Claude Codes, der über 500.000 Zeilen Quellcode umfasst, ist auf ein Prozessversagen zurückzuführen, das durch einen vergessenen Schalter in der Build-Pipeline verursacht wurde, nicht durch einen Hack. Dieser Vorfall verdeutlicht, dass Sicherheitsvorkehrungen in der Softwareentwicklung oft vernachlässigt werden, da die Verantwortung für die korrekte Konfiguration komplexer Build-Pipelines unklar bleibt. In der schnelllebigen KI-Entwicklung wird der Druck, neue Features rasch zu veröffentlichen, häufig über Sicherheitsprüfungen gestellt, was zu schwerwiegenden Fehlern führt. Der Leak hat gravierende Konsequenzen, da er Wettbewerbern und Angreifern wertvolle Einblicke in die Systemarchitektur von Anthropic bietet. Um zukünftige Vorfälle zu vermeiden, sind automatisierte Prüfungen und klare Verantwortlichkeiten im Build-Prozess notwendig. Der Vorfall sollte als Weckruf für die gesamte Branche dienen, um die Disziplin in der Softwareentwicklung zu verbessern und grundlegende Softwarehygiene ernst zu nehmen.
Company Strengthens Security Posture with New AI Vendor Management Strategy to Safeguard Internal Operations
Die Integration von KI-Lösungen in Unternehmen erfordert ein verstärktes Augenmerk auf die interne Sicherheit, insbesondere im Umgang mit Drittanbietern. Um Sicherheitsrisiken zu minimieren, ist ein effektives Management von KI-Anbietern entscheidend, da diese spezifische Herausforderungen wie unvorhersehbares Modellverhalten und Datenabhängigkeiten mit sich bringen. Unternehmen müssen Governance-Modelle entwickeln, die technologische und politische Kontrollen kombinieren, um klare Standards für die Bewertung von Anbietern und den Umgang mit sensiblen Daten festzulegen. Eine kontinuierliche Überwachung der Aktivitäten von KI-Anbietern sowie regelmäßige Aktualisierungen der Risikobewertungen sind notwendig, um Sicherheitsvorfälle frühzeitig zu erkennen und zu beheben. Durch die Implementierung strukturierter Managementpraktiken können Organisationen ihre Innovationsfähigkeit steigern und gleichzeitig das Risiko von Sicherheitskompromissen reduzieren.
Kampf gegen Cyberkriminalität – Aus Feind mach Freund: Schützt uns KI bald vor Cyberbetrug?
In der Schweiz sind digitale Betrugsfälle, wie Fake-Anrufe von Banken oder der Polizei, stark angestiegen, mit über 60.000 gemeldeten Cyberangriffen im letzten Jahr. Künstliche Intelligenz (KI) wird häufig als Bedrohung im Cyberbereich betrachtet, da sie von Kriminellen zur Verfeinerung von Betrugsmaschen eingesetzt wird, etwa durch das Fälschen von Videos und Sprache. Florian Schütz, Direktor des Bundesamts für Cybersicherheit, hebt hervor, dass die Verteidigung gegen solche Angriffe komplex ist, da Verteidiger zahlreiche Angriffspunkte schützen müssen, während Angreifer nur einen finden müssen. Dennoch sieht er in der KI ein großes Potenzial, um die Verteidigung zu automatisieren und effektiver zu gestalten, indem sie kontinuierlich nach Schwachstellen sucht und Unregelmäßigkeiten im Netzwerk identifiziert. Obwohl die Vorstellung, dass KI den Verteidigern mehr helfen könnte als den Angreifern, vielversprechend ist, bleibt sie bislang eine Vision für die Zukunft.
Photon framework scales AI vulnerability discovery
Das Photon-Framework hat sich als bahnbrechendes Werkzeug zur Skalierung der Entdeckung von Sicherheitsanfälligkeiten in Künstlicher Intelligenz (KI) etabliert. Es ermöglicht Entwicklern, potenzielle Schwachstellen in KI-Modellen effizienter zu identifizieren und zu beheben. Durch den Einsatz fortschrittlicher Algorithmen und Techniken zur automatisierten Analyse können Sicherheitsrisiken schneller erkannt werden, was die Sicherheit von KI-Anwendungen erhöht. Das Framework bietet eine benutzerfreundliche Schnittstelle und unterstützt verschiedene KI-Architekturen, wodurch es für eine breite Palette von Anwendungen geeignet ist. Mit Photon können Unternehmen ihre KI-Systeme robuster gestalten und das Vertrauen in deren Einsatz in sicherheitskritischen Bereichen stärken.
Check Point führt AI Defense Plane ein
Check Point Software Technologies Ltd. hat die AI Defense Plane eingeführt, eine innovative KI-Sicherheitssteuerungsebene, die Unternehmen dabei unterstützt, die Nutzung von KI effizient zu steuern. Angesichts der zunehmenden Autonomie von KI-Systemen und deren Zugriff auf Daten entstehen neue Sicherheitsanforderungen. Die zentrale Komponente der Lösung ist eine KI-native Sicherheits-Engine, die in Echtzeit Entscheidungen trifft und auf umfassenden Analysen von KI-Interaktionen basiert. Dies ermöglicht einen kontinuierlichen Sicherheitskreislauf, der sich mit der Entwicklung der KI-Systeme anpasst. Die Plattform bietet adaptiven Schutz in weniger als 50 Millisekunden und unterstützt über 100 Sprachen, was eine schnelle Reaktion auf automatisierte Angriffe gewährleistet. Die AI Defense Plane besteht aus drei Hauptmodulen: Workforce AI Security, das Transparenz und Schutz für Mitarbeiter bietet; AI Application & Agent Security, das die Überwachung von KI-Anwendungen ermöglicht; und KI-Red-Teaming, das kontinuierliche Tests zur Identifizierung von Schwachstellen durchführt. Diese Module stärken die digitale Resilienz von Unternehmen und minimieren Risiken im Umgang mit KI.
Deepfake Cyberattacks Exploit Human Trust and Bypass Traditional Defenses, Finds Info-Tech Research Group
Die Info-Tech Research Group warnt in einer aktuellen Studie vor der wachsenden Bedrohung durch Deepfake-Cyberangriffe, die menschliches Vertrauen ausnutzen und traditionelle Sicherheitsmaßnahmen umgehen. Viele Unternehmen sind unvorbereitet und kennen ihre Schwachstellen nicht. Die Angriffe sind besonders effektiv, da sie gezielt auf das Verhalten von Menschen abzielen und deren Vertrauen sowie Autorität manipulieren. Um sich zu schützen, empfiehlt die Studie einen ganzheitlichen Ansatz, der Verifizierungspraktiken, Mitarbeiterbewusstsein und unterstützende Technologien kombiniert. Unternehmen sollten spezifische Risiken identifizieren und eine Null-Vertrauens-Haltung in der Kommunikation etablieren. Die vorgeschlagene Strategie umfasst vier Schritte: Bedrohungsszenarien definieren, bestehende Kontrollen bewerten, Hochrisikoszenarien priorisieren und durch Schulungen sowie technologische Unterstützung verbessern. Durch diese Maßnahmen können Unternehmen ihre Resilienz stärken und die Auswirkungen von Deepfake-Angriffen minimieren.
Using AI to code does not mean your code is more secure
Die Nutzung von KI-Coding-Assistenten hat in den letzten Jahren stark zugenommen, jedoch ist auch die Anzahl der Sicherheitsanfälligkeiten in von KI generiertem Code gestiegen. Forscher der Georgia Tech SSLab berichten, dass die Zahl der CVEs (Common Vulnerabilities and Exposures), die auf Fehler in KI-generiertem Code zurückzuführen sind, von zwei im August 2025 auf 35 im März 2026 angestiegen ist. Besonders das beliebte KI-Tool Claude Code ist für 27 dieser Schwachstellen verantwortlich. Trotz der relativ niedrigen Anzahl bestätigter Schwachstellen könnte die tatsächliche Zahl der durch KI verursachten Sicherheitsprobleme viel höher sein, da viele Fälle nicht eindeutig als KI-generiert identifiziert werden können. Die Forscher warnen, dass die geringe Anzahl an CVEs nicht darauf hindeutet, dass KI-generierter Code sicherer ist als menschlicher Code, sondern vielmehr auf Erkennungsblindstellen hinweist. Zudem hat sich das Nutzungsverhalten der Entwickler verändert, was das Risiko erhöht, da sie ganze Projekte mit minimaler Codeüberprüfung erstellen.
KI-Risikomanagement: Unternehmen steuern blind in die KI-Revolution
Die Einführung von Künstlicher Intelligenz (KI) in Unternehmen schreitet schnell voran, während das Sicherheits- und Risikomanagement hinterherhinkt. Obwohl 90 Prozent der Cybersicherheitsmanager angeben, ihre KI-Nutzung zu überwachen, glauben 59 Prozent, dass nicht genehmigte KI-Tools im Einsatz sind, was eine erhebliche Sicherheitslücke darstellt. Zudem haben 70 Prozent der Unternehmen Schwachstellen durch KI-generierten Code entdeckt, während nur 43 Prozent über eine risikobasierte Strategie zur Steuerung ihrer KI-Systeme verfügen. Die bevorstehenden Fristen des EU KI-Gesetzes, die ab August 2026 strenge Auflagen für Hochrisiko-KI einführen, erhöhen den Druck auf Unternehmen. Experten fordern eine umfassende Neuausrichtung des Risikomanagements, die technische, kulturelle und prozessuale Aspekte einbezieht. Unternehmen, die proaktiv in KI-Risikomanagement investieren, können gesetzliche Anforderungen erfüllen, das Vertrauen ihrer Kunden stärken und sich einen Wettbewerbsvorteil sichern. Die Balance zwischen Innovation und Sicherheit wird somit zu einem entscheidenden Erfolgsfaktor der Zukunft.
Senate Democrats Move to Codify Anthropic's AI Red Lines
Senator Adam Schiff hat einen Gesetzesentwurf vorgelegt, der menschliche Aufsicht über KI-gesteuerte Entscheidungen in lebensbedrohlichen Situationen vorschreibt, während Senatorin Elissa Slotkin ein Begleitgesetz zur Einschränkung der Überwachung von Amerikanern durch KI des Verteidigungsministeriums einbringt. Diese Initiativen sind eine Reaktion auf die Entscheidung der Trump-Administration, das Unternehmen Anthropic auf eine schwarze Liste zu setzen, nachdem es sich geweigert hatte, Sicherheitsvorkehrungen aus seinen KI-Modellen zu entfernen. Anthropic hat daraufhin Klage eingereicht und argumentiert, dass seine First Amendment-Rechte verletzt wurden. Die vorgeschlagenen Gesetze könnten die ethischen Grundsätze von Anthropic in Bundesrecht umwandeln und sicherstellen, dass menschliche Bediener die Kontrolle über KI-Systeme behalten. Dies könnte erhebliche Auswirkungen auf den Einsatz von künstlicher Intelligenz im Militär haben, insbesondere bei autonomen Waffensystemen, die ohne menschliche Genehmigung operieren.
Vectra AI Advances Observability with Proactive Exposure Mgmt
Vectra AI hat seine Observability-Plattform weiterentwickelt, um proaktives Exposure Management zu ermöglichen. Diese Neuerung zielt darauf ab, Unternehmen dabei zu unterstützen, potenzielle Sicherheitsrisiken frühzeitig zu erkennen und zu beheben. Durch den Einsatz fortschrittlicher KI-Technologien kann die Plattform Bedrohungen in Echtzeit identifizieren und analysieren, wodurch die Reaktionszeiten verkürzt werden. Die Integration von proaktiven Funktionen ermöglicht es Sicherheitsanalysten, Schwachstellen gezielt zu adressieren, bevor sie ausgenutzt werden können. Vectra AI positioniert sich damit als Vorreiter im Bereich der Cybersicherheit, indem es Unternehmen hilft, ihre Sicherheitslage zu verbessern und die Resilienz gegenüber Angriffen zu erhöhen. Die neuen Funktionen sollen nicht nur die Effizienz der Sicherheitsoperationen steigern, sondern auch das Vertrauen in digitale Infrastrukturen stärken.
Dokumentation: Dem Hillel sei Dank
Die Netflix-Dokumentation "Dem Hillel sei Dank" widmet sich Hillel Slovak, dem verstorbenen Gitarristen der Red Hot Chili Peppers, und nutzt Künstliche Intelligenz, um seine Präsenz wieder aufleben zu lassen. Sie beleuchtet Slovaks Einfluss auf die Band und thematisiert die Herausforderungen, die sein Leben und Tod mit sich brachten. Durch diese innovative Herangehensweise wird gezeigt, wie Technologie dazu beitragen kann, das Erbe von Künstlern zu bewahren und ihre Geschichten neu zu erzählen. Trotz der kreativen Idee bleibt eine Skepsis, ob die Umsetzung dem Potenzial gerecht wird. Die Dokumentation könnte das Verständnis für die Entwicklung der Red Hot Chili Peppers vertiefen und gleichzeitig die Schattenseiten des Musikerlebens ansprechen.
Nokod Security Named Winner of the Coveted Global InfoSec Awards during RSAC Conference 2026
Nokod Security wurde während der RSAC-Konferenz 2026 mit dem Preis für die vielversprechendste No-Code-Sicherheitslösung ausgezeichnet. Diese Ehrung würdigt die innovative Herangehensweise des Unternehmens an die Sicherheit von Anwendungen und KI-Agenten, die von nicht-technischen Mitarbeitern entwickelt werden. Angesichts der zunehmenden Nutzung von Automatisierungsplattformen und KI-gestützten Entwicklungstools entstehen jedoch neue Sicherheitsrisiken durch unkontrollierte Softwareentwicklung. Nokod bietet Lösungen zur Überwachung von Anwendungen, Identifizierung von Schwachstellen und schnellen Behebung dieser Probleme, ohne die Innovationsgeschwindigkeit zu beeinträchtigen. CEO Yair Finzi betont die Notwendigkeit einer umfassenden Sicherheitsüberwachung in einem Umfeld, in dem Unternehmen oft mehr Anwendungen nutzen, als ihnen bewusst ist. Die Auszeichnung von Cyber Defense Magazine unterstreicht die Relevanz von Nokods Plattform, die Unternehmen bei der sicheren digitalen Transformation unterstützt. Yan Ross, der globale Redakteur des Magazins, hebt hervor, dass Nokod eine bedeutende Rolle im Kampf gegen die wachsende Cyberkriminalität spielen kann.
DeepSnitch (DSNT) Audits Only the Token Contract or Taurox (TAUX): Why Smart Money Targets 100x
DeepSnitch (DSNT) hat lediglich den Token-Vertrag auditiert, während Taurox (TAUX) umfassende Sicherheitsprüfungen für alle Vertragskomponenten durchführt, was das Vertrauen der Investoren stärkt. Die Audits von DeepSnitch, durchgeführt von SolidProof und Coinsult, beschränken sich auf den ERC-20 Token-Vertrag und ignorieren kritische Bereiche wie Presale- und Staking-Verträge, was ein erhöhtes Risiko für Investoren darstellt. Im Gegensatz dazu plant Taurox mehrere unabhängige Audits, die auch die Verwaltung von Pool-Kapital umfassen, und führt vierteljährliche Audits sowie Red-Team-Übungen nach dem Start durch. Diese umfassende Sicherheitsstrategie hat dazu geführt, dass die erste Phase des TAUX-Presales innerhalb von 24 Stunden ausverkauft war, und Investoren bereits einen Gewinn von 20 % erzielt haben. Der Preis für die zweite Phase liegt bei 0,012 USD, was potenziell eine Rendite von bis zu 100x bei einem zukünftigen Listing von 1 USD ermöglichen könnte. Taurox bietet eine transparente und überprüfbare Infrastruktur, während DeepSnitch in Bezug auf die Sicherheit der Investorengelder weniger transparent ist. Investoren, die jetzt in Taurox einsteigen, sichern sich eine Position in einem sicherheitsorientierten Protokoll, bevor Gebühren erhoben werden.
DeepSnitch (DSNT) Telegram Hosts Active Phishing While Taurox (TAUX) Schedules Two Independent Audits
DeepSnitch (DSNT) sieht sich in seinem Telegram-Kanal aktiven Phishing-Vorfällen gegenüber, bei denen Nutzer durch gefälschte Admin-Interaktionen Geld verloren haben. Trotz der Berichte über gestohlene ETH und die Weiterleitung auf unsichere Drittanbieter-Websites hat DeepSnitch keine Sicherheitsmaßnahmen oder Reaktionen auf diese Vorfälle ergriffen. Im Gegensatz dazu plant Taurox (TAUX) zwei unabhängige Audits für seine Smart Contracts und verfolgt einen proaktiven Sicherheitsansatz, der bereits vor dem Protokollstart mit Audits und einem Bug-Bounty-Programm beginnt. Der Vorverkauf von TAUX zeigt großes Interesse, da die erste Phase innerhalb von 24 Stunden ausverkauft war und die zweite Phase bereits zu 68,4 % gefüllt ist. Während Taurox Sicherheit als zentrale Grundlage seiner Operationen betrachtet, bleibt DeepSnitch anfällig für Phishing-Angriffe, was langfristig das Vertrauen der Nutzer und die finanzielle Stabilität beider Projekte beeinflussen könnte. Käufer von Taurox profitieren von einem strukturierten Sicherheitsmodell, das darauf abzielt, Schwachstellen frühzeitig zu identifizieren und zu beheben.