KI-Sicherheit
Alignment, Robustheit und Modellabsicherung.
5
Cluster
316
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Alignment
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Alignment innerhalb von KI-Sicherheit auf JetztStarten.de.
Robustheit
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Robustheit innerhalb von KI-Sicherheit auf JetztStarten.de.
Missbrauchsschutz
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Missbrauchsschutz innerhalb von KI-Sicherheit auf JetztStarten.de.
Modellabsicherung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Modellabsicherung innerhalb von KI-Sicherheit auf JetztStarten.de.
Sicherheitsforschung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Sicherheitsforschung innerhalb von KI-Sicherheit auf JetztStarten.de.
Aktuelle Einträge in KI-Sicherheit
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
ASUS TUF Gaming Platinum: Neue Netzteile mit GaN-Technologie
ASUS hat die TUF Gaming Platinum Serie von Netzteilen vorgestellt, die in den Leistungsklassen 850, 1000 und 1200 Watt erhältlich sind. Diese Netzteile nutzen erstmals Galliumnitrid (GaN)-MOSFETs in Serverqualität, was eine Effizienzsteigerung von bis zu 30 Prozent verspricht. Mit der 80 Plus Platinum-Zertifizierung bieten sie eine kompakte Bauweise, die eine verbesserte Kühlung ermöglicht und sind auf zukünftige Hardware-Plattformen ausgelegt. Sie unterstützen den ATX-3.1-Standard und die PCIe-5.1-Spezifikation. Die Netzteile sind mit militärtauglichen Kondensatoren und einer konformen PCB-Beschichtung ausgestattet, was ihre Robustheit und Langlebigkeit erhöht. Die TUF Platinum Serie richtet sich an Prosumer und Workstation-Nutzer, die eine zuverlässige Stromversorgung benötigen, und wird preislich zwischen den TUF Gold EVO- und den teureren ROG-Modellen eingeordnet. Die weltweite Verfügbarkeit der neuen Netzteile wird in den kommenden Wochen erwartet, was sie zu einer attraktiven Wahl für Nutzer macht, die sich auf leistungsstarke Grafikkarten vorbereiten.
The Capybara in the Room: 93.9% Accuracy, 181 Exploits — Inside Claude Mythos
Der Artikel "The Capybara in the Room: 93.9% Accuracy, 181 Exploits — Inside Claude Mythos" beleuchtet die beeindruckenden Fähigkeiten und Herausforderungen des KI-Modells Claude. Mit einer Genauigkeit von 93,9 % zeigt Claude bemerkenswerte Leistungen in verschiedenen Anwendungen, wird jedoch auch von einer Vielzahl von 181 bekannten Sicherheitsanfälligkeiten begleitet. Diese Schwächen werfen Fragen zur Zuverlässigkeit und Sicherheit der Technologie auf. Der Artikel analysiert die zugrunde liegenden Mechanismen von Claude, die sowohl seine Stärken als auch seine Schwächen erklären. Zudem wird diskutiert, wie Entwickler und Nutzer mit diesen Herausforderungen umgehen können, um die Technologie verantwortungsvoll und effektiv einzusetzen. Die Balance zwischen Innovation und Sicherheit steht im Mittelpunkt der Diskussion, während die Bedeutung von kontinuierlicher Verbesserung und Überwachung hervorgehoben wird.
Haivivi Debuts New AI Companion Toys in the U.S., Breathing "Life" into Dolls Through Technology
Haivivi hat in den USA eine innovative Reihe von KI-Companion-Spielzeugen vorgestellt, die durch fortschrittliche Technologie Puppen "zum Leben erwecken". Diese Spielzeuge zielen darauf ab, emotionale Unterstützung zu bieten und Kinder in ihrer emotionalen Entwicklung zu fördern. Ein herausragendes Produkt ist der BubblePal AI Interactive Charm, das erste KI-gesprächsfähige Spielzeug, das an Plüschpuppen angebracht werden kann und in der Lage ist, persönliche Erinnerungen und Vorlieben der Kinder zu speichern. Die Spielzeuge bestehen aus sicheren, umweltfreundlichen Materialien und ermöglichen es Eltern, das emotionale Wohlbefinden ihrer Kinder über eine App zu überwachen. Haivivi legt großen Wert auf Sicherheit und emotionale Verbindung und möchte jedem Kind einen ständigen KI-Freund bieten, um die Kindheitserlebnisse zu bereichern. Mit dieser Kombination aus Technologie und emotionaler Intelligenz setzt Haivivi neue Maßstäbe für intelligente Spielzeuge und die Zukunft der Kinderbegleitung.
Q&A: Expert discusses who's responsible when AI makes mistakes
In der Diskussion über die Verantwortung bei Fehlern von Künstlicher Intelligenz (KI) betont der Experte, dass die Haftung oft komplex ist und von verschiedenen Faktoren abhängt. Zunächst wird die Rolle der Entwickler und Unternehmen hervorgehoben, die die KI-Systeme entwerfen und implementieren. Sie tragen eine gewisse Verantwortung für die Sicherheit und Zuverlässigkeit ihrer Produkte. Gleichzeitig wird auch die Verantwortung der Nutzer angesprochen, die die Technologie einsetzen und deren Ergebnisse interpretieren müssen. Der Experte weist darauf hin, dass rechtliche Rahmenbedingungen und ethische Überlegungen eine entscheidende Rolle spielen, um klare Verantwortlichkeiten festzulegen. Zudem wird die Notwendigkeit betont, transparente Prozesse zu schaffen, um das Vertrauen in KI-Systeme zu stärken. Letztlich bleibt die Frage der Verantwortung ein dynamisches Thema, das kontinuierlich weiterentwickelt werden muss, während die Technologie voranschreitet.
Connecticut Pauses AI Use to Create ‘Criminal Reports’
In Connecticut wurde die Verwendung von Künstlicher Intelligenz (KI) zur Erstellung von Polizeiberichten vorübergehend gestoppt, nachdem Bedenken hinsichtlich der Genauigkeit und Zuverlässigkeit dieser Technologie aufkamen. Chief State’s Attorney Patrick Griffin unterstützte das Moratorium, um die Software zu testen und mögliche Mängel zu identifizieren. Während Befürworter eine Verbesserung der Effizienz und der öffentlichen Sicherheit erwarten, gibt es erhebliche Zweifel an der Fähigkeit von KI, die komplexen und emotionalen Aspekte von Verbrechensszenen korrekt zu erfassen. Einige Polizeidienststellen, wie in New Haven, testen bereits KI-Software, sind jedoch vorsichtig und warten auf Ergebnisse der Moratoriumsüberprüfung. Kritiker warnen vor potenziellen Ungenauigkeiten und betonen, dass KI die menschliche Wahrnehmung nicht ersetzen kann. Griffin äußerte Bedenken, dass der Einsatz von KI zu einer falschen Darstellung von Ereignissen führen könnte, was die Integrität des Justizsystems gefährden würde. Gesetzesentwürfe fordern eine klare Kennzeichnung von KI-generierten Berichten und eine Überprüfung durch Beamte zur Gewährleistung der Genauigkeit.
Epic brings AI NPCs to Fortnite — with guardrails
Epic Games hat ein neues Tool für Fortnite-Entwickler vorgestellt, das die Erstellung von NPCs mit dynamischen, unscripted Dialogen ermöglicht, ohne auf vorgefertigte Dialogbäume zurückgreifen zu müssen. Diese Innovation folgt auf frühere Kontroversen, bei denen ein AI-gesteuerter Darth Vader unangemessene Sprache verwendete, was Epic dazu veranlasste, strenge Inhaltsrichtlinien einzuführen. Diese Richtlinien verbieten romantische Interaktionen, Gewalt und andere unangemessene Inhalte, um die Sicherheit der überwiegend jungen Spieler zu gewährleisten. Das Tool ist benutzerfreundlich und erlaubt es Entwicklern, die Persönlichkeit und das Wissen der NPCs zu definieren, während die KI in Echtzeit Antworten generiert. Mit dieser Einführung verfolgt Epic das Ziel, Fortnite als Plattform für nutzergenerierte Erlebnisse zu etablieren, was zu einer immersiveren Spielerfahrung führen könnte. Trotz der Herausforderungen, die mit der Demokratisierung der AI-Charaktererstellung verbunden sind, könnte dieses Tool die Spielentwicklung revolutionieren. Die Balance zwischen kreativer Freiheit und verantwortungsvollem Umgang mit generativer KI bleibt jedoch eine zentrale Herausforderung.
The NSA is using Anthropic's most powerful AI model Mythos
Die NSA hat beschlossen, das fortschrittlichste KI-Modell von Anthropic, "Mythos Preview", zu nutzen, trotz der Bedenken des Pentagon, das die Firma als potenzielles Sicherheitsrisiko einstuft. Seit Februar versucht das Pentagon, Anthropic als Anbieter auszuschließen, da es die Technologien des Unternehmens als Bedrohung für die nationale Sicherheit betrachtet. Um die Risiken der offensiven Cyberfähigkeiten von Mythos zu kontrollieren, hat Anthropic den Zugang auf etwa 40 Organisationen beschränkt. CEO Dario Amodei hat kürzlich Gespräche mit Vertretern des Weißen Hauses über den Einsatz von Mythos in Regierungsbehörden geführt, während das Pentagon darauf besteht, dass Anthropic das Modell für "alle rechtlichen Zwecke" zugänglich machen sollte. Anthropic hat diese Forderung jedoch abgelehnt und klare Grenzen bei Themen wie Massenüberwachung und autonomen Waffen gezogen. Zudem haben auch britische Geheimdienste über das AI Security Institute Zugang zu Mythos.
UK.gov kicks off half-a-billion quid sovereign AI venture with £80M invite
Die britische Regierung hat ein umfassendes Programm zur Förderung souveräner Künstlicher Intelligenz (KI) ins Leben gerufen, das mit einer ersten Ausschreibung von 80 Millionen Pfund für KI-Projekte beginnt. Ziel des 500-Millionen-Pfund-Programms ist es, neue KI-Fähigkeiten zu validieren und den Markt durch die Rolle der Regierung als früher Kunde zu entlasten. Die Ausschreibungen könnten bereits im Juli 2026 starten, wobei jedes Projekt bis zu 5 Millionen Pfund wert sein kann und eine Laufzeit von 12 bis 24 Monaten hat. Die Schwerpunkte liegen auf wissenschaftlicher Entdeckung, Gesundheitsversorgung, nationaler Sicherheit und öffentlichen Dienstleistungen. Erfolgreiche Bieter dürfen das während der Projekte entstandene geistige Eigentum behalten, während die Regierung Nutzungsrechte an den Technologien erhält. Diese Initiative zielt darauf ab, Arbeitsplätze zu schaffen und das wirtschaftliche Wachstum im KI-Sektor zu fördern, unterstützt durch eine neue Sovereign AI Unit, die als Venture-Capital-Fonds innerhalb der Regierung fungiert.
heise-Angebot: Online-Konferenz zu Spring Framework und Spring Boot: Jetzt noch Ticket sichern
Am 27. April 2023 findet die vierte Auflage der betterCode() Spring Online-Konferenz statt, die sich auf das Spring Framework und Spring Boot konzentriert. Die Veranstaltung bietet ein umfangreiches Programm, das sich mit Themen wie der Sicherheit von Anwendungen durch Spring Security und der Integration von Künstlicher Intelligenz in Spring-Anwendungen beschäftigt. Der Vormittag widmet sich Sicherheitsaspekten und KI, während der Nachmittag Neuerungen von Spring Boot 4 in Verbindung mit Java 25 sowie praktische Tipps zur Container-Integration behandelt. Zu den Highlights gehören Vorträge wie "10 Tipps für entspannte Tests mit Spring Boot" und "Financial Grade Security mit Spring Security". Tickets kosten 299 Euro, mit Rabatten für Gruppen ab drei Personen. Zudem werden Workshops angeboten, die sich vertieft mit Spring AI und Spring Security auseinandersetzen. Interessierte können sich auch für einen Newsletter anmelden, um über zukünftige Konferenzen informiert zu bleiben.
Government to host summit about keeping children safe online in age of AI
Die britische Regierung plant einen Gipfel, um den Schutz von Kindern im Internet in der Ära der Künstlichen Intelligenz zu erörtern. Ministerin Liz Kendall ruft dazu auf, dass mehr junge Menschen an einer laufenden Konsultation teilnehmen, da bislang nur etwa 6.000 von 50.000 Befragten Kinder waren. Der Gipfel, der am Montag in Sussex stattfindet, bringt Entscheidungsträger, Technologievertreter und Online-Sicherheitsexperten zusammen. Premierminister Sir Keir Starmer hebt hervor, dass die Risiken sozialer Medien für Kinder nicht länger ignoriert werden können und fordert Veränderungen. Es gibt wachsenden Druck für ein Verbot sozialer Medien für unter 16-Jährige, jedoch wurden entsprechende Vorschläge im Parlament abgelehnt. Die Konsultation soll die öffentliche Meinung zu einem möglichen Verbot und Maßnahmen zur Begrenzung süchtig machender Designelemente in KI-Anwendungen erfassen. Kendall betont, dass die Sicherheit der Kinder oberste Priorität hat und die Regierung bereit ist, auf die Bedürfnisse junger Nutzer einzugehen.
New Poll: Americans Want Trust, Accountability, and Independent Expertise as AI Guardrails
Eine aktuelle Umfrage von Fathom zeigt, dass Amerikaner über alle politischen Lager hinweg Vertrauen, Verantwortung und unabhängige Expertise als zentrale Elemente für die Regulierung von Künstlicher Intelligenz (KI) priorisieren. Die Befragten wurden aufgefordert, verschiedene Prinzipien gegeneinander abzuwägen, wobei 90 % der Teilnehmer die Sicherheit von Kindern als sehr wichtig erachteten. Weitere Prioritäten sind die Verantwortung für KI-verursachte Schäden und verifizierbare Standards. Unabhängige Experten genießen das größte Vertrauen in der KI-Governance, während marktbasierte Lösungen zur Bewältigung von Arbeitsplatzveränderungen abgelehnt werden. Die Ergebnisse deuten darauf hin, dass die Öffentlichkeit klare Governance-Rahmenbedingungen fordert, die auf Vertrauen und Verantwortung basieren, und diese Aspekte als Wettbewerbsvorteile sieht. Zudem zeigt die Umfrage eine hohe Skepsis gegenüber der Fähigkeit von Regierung und Industrie, KI effektiv zu regulieren, was den Bedarf an unabhängigen Überwachungsmechanismen unterstreicht.
White House chief of staff to meet with Anthropic CEO over its new AI technology
Die White House-Chefin Susie Wiles traf sich mit Dario Amodei, dem CEO von Anthropic, um über das neue KI-Modell Mythos zu diskutieren, das bedeutende nationale Sicherheits- und wirtschaftliche Implikationen haben könnte. Die US-Regierung zeigt ein wachsendes Interesse an fortschrittlichen KI-Technologien und betont die Notwendigkeit einer sorgfältigen Evaluierung vor deren Einsatz. Das Treffen wurde als produktiv beschrieben, wobei Möglichkeiten zur Zusammenarbeit sowie das Gleichgewicht zwischen Innovation und Sicherheit erörtert wurden. Anthropic äußerte den Wunsch, mit der Regierung an gemeinsamen Themen wie Cybersicherheit und KI-Sicherheit zu arbeiten. In der Vergangenheit gab es Spannungen zwischen Anthropic und der Trump-Administration, die die Nutzung der Technologie durch Bundesbehörden einschränken wollte. Die Mythos-Technologie hat sowohl in den USA als auch international Aufmerksamkeit erregt, wobei Experten die damit verbundenen Risiken und Vorteile analysieren. Während einige Kritiker die Aussagen von Anthropic als Marketingstrategie abtun, erkennen andere die potenziellen Fortschritte in der KI an. Anthropic plant zudem Kooperationen mit großen Technologieunternehmen, um die Sicherheit kritischer Software zu gewährleisten.
Zebra Barcode Scanner (Retail/B2B): Automatisierung boomt – Chance für Retailer in DACH
Zebra Barcode Scanner gewinnen in der DACH-Region zunehmend an Bedeutung, da sie die Effizienz im Handel und in der Industrie steigern. Diese Geräte bieten nicht nur einfache Lesefunktionen, sondern integrieren auch KI-gestützte Technologien, die eine schnellere Kassenabwicklung und präzisere Lagerbestandsführung ermöglichen. Besonders in Deutschland, Österreich und der Schweiz optimieren sie die Supply Chain und reduzieren Fehlerquoten, was in einem wettbewerbsintensiven Markt von Vorteil ist. Der Boom im E-Commerce erhöht die Nachfrage nach solchen Technologien, da Unternehmen wie Rewe und Migros sie zur Verkürzung von Lieferzeiten nutzen. Zebra Technologies positioniert sich als Marktführer durch die Kombination von Hardware und Software, was für Retailer und B2B-Unternehmen entscheidend ist, um Herausforderungen wie Personalmangel und steigende Löhne zu bewältigen. Die Robustheit der Scanner und ihre nahtlose Integration in bestehende Systeme machen sie ideal für anspruchsvolle Umgebungen. Analysten sind optimistisch, da die Nachfrage nach Automatisierung in der Retail-Branche stabil bleibt und langfristig durch die Integration von IoT-Technologien weiter ansteigen wird.
Clash of Prompts: The World's First AI Prompt Battle Royale
Symbiotic Security hat das "Clash of Prompts" angekündigt, das erste Live-Prompt-Engineering-Battle Royale, das am 7. Mai 2026 in San Francisco und online stattfindet. In diesem Wettbewerb treten Entwickler in 5-minütigen Runden gegeneinander an, um die sichersten AI-generierten Codes zu erstellen. Die Teilnehmer, die sowohl vor Ort als auch virtuell antreten können, werden in Echtzeit bewertet, wobei der Fokus auf der Sicherheit und Effizienz der Codes liegt. Ziel der Veranstaltung ist es, die weit verbreiteten Sicherheitslücken in AI-generiertem Code sichtbar zu machen, da Studien zeigen, dass 87-94% dieser Codes Sicherheitsfehler aufweisen. Durch die wettbewerbsorientierte Präsentation wird das Bewusstsein für die Qualität von Prompts in der Softwareentwicklung geschärft. Die Gewinner erhalten Preise wie Gaming-Laptops und AI-Guthaben, während das Publikum die Fortschritte auf einer Live-Leiter verfolgen kann. Die Veranstaltung richtet sich an Softwareentwickler, Sicherheitsingenieure und AI/ML-Experten, die an der Schnittstelle von AI und sicherer Softwareentwicklung arbeiten.
Opera schaltet Browser Connector für ChatGPT und Claude frei
Opera hat einen neuen Browser Connector für die Versionen Opera One und Opera GX eingeführt, der die Nutzung externer KI-Tools wie ChatGPT und Claude erleichtert. Dieser Connector ermöglicht es, den Inhalt offener Tabs direkt in die Browsersitzung zu integrieren, sodass Nutzer keine Texte mehr manuell kopieren und einfügen müssen. Die KI kann die aktuelle Seite analysieren, mehrere Tabs gleichzeitig verstehen und sogar Screenshots erstellen. Um den Zugriff zu aktivieren, müssen Nutzer dies in den Browsereinstellungen freischalten, was die Sicherheit der Datenübertragung gewährleistet. Mit diesem Ansatz fördert Opera die Wahlfreiheit, indem es Nutzern erlaubt, verschiedene KI-Anbieter parallel zu nutzen. Der Browser Connector ist ab sofort kostenlos im Early-Bird-Modus verfügbar und vereinfacht die Interaktion mit KI-Diensten erheblich.
Ausbau von Videoüberwachung: Mehr Kameras und KI gegen Straftaten – das sind die Pläne
In Frankfurt wird die Videoüberwachung ausgeweitet, um die Sicherheit in der Stadt zu erhöhen, insbesondere auf der Einkaufsmeile Zeil. Neue Kameras wurden installiert, deren Aufnahmen rund um die Uhr im Video-Operations-Center der Polizei ausgewertet werden. Bei Verdacht auf Straftaten werden die Bilder schnell an die Einsatzkräfte vor Ort übermittelt. Die gespeicherten Videodaten werden nach 14 Tagen gelöscht, es sei denn, sie sind Beweismittel in einem Strafverfahren. Die Polizei verzeichnet bereits Erfolge: Im vergangenen Jahr konnten rund 1.000 Straftäter überführt werden, was zu einem Rückgang der Kriminalität im Bahnhofsviertel führte. Zudem wird Künstliche Intelligenz eingesetzt, um biometrische Gesichtsmerkmale abzugleichen, wobei diese Technologie nur unter strenger menschlicher Kontrolle und mit richterlicher Anordnung genutzt wird. Datenschutzrechtliche Bedenken wurden bisher als nicht gravierend erachtet, und der hessische Innenminister betont die oberste Priorität der Sicherheit der Bürger.
Claude beat human researchers on an alignment task, and then the results vanished in production
In einem kürzlich durchgeführten Experiment hat das KI-Modell Claude menschliche Forscher bei einer Aufgabenstellung zur Ausrichtung übertroffen. Diese Aufgabe zielte darauf ab, die Fähigkeit der KI zu testen, ihre Antworten an menschliche Werte und Präferenzen anzupassen. Trotz der vielversprechenden Ergebnisse verschwanden die positiven Resultate jedoch in der Produktionsumgebung, was Fragen zur Konsistenz und Zuverlässigkeit der KI-Leistungen aufwirft. Die Forscher sind nun gefordert, die Ursachen für diese Diskrepanz zu untersuchen, um sicherzustellen, dass die KI-Modelle nicht nur in kontrollierten Tests, sondern auch in realen Anwendungen effektiv arbeiten. Diese Situation verdeutlicht die Herausforderungen, die bei der Implementierung von KI-Systemen in der Praxis auftreten können, und unterstreicht die Notwendigkeit weiterer Forschung im Bereich der KI-Ausrichtung.
Why many Americans are turning to AI for health advice, according to recent polls
Immer mehr Amerikaner nutzen laut einer Gallup-Umfrage KI-Tools für Gesundheitsberatung, wobei etwa ein Viertel der Befragten in den letzten 30 Tagen darauf zurückgegriffen hat. Diese Entwicklung ist besonders bei jüngeren Erwachsenen und Menschen mit niedrigem Einkommen zu beobachten, die oft Schwierigkeiten haben, Zugang zu medizinischer Versorgung zu erhalten. Viele verwenden KI, um schnell Antworten auf gesundheitliche Fragen zu finden und die Dringlichkeit ihrer Symptome einzuschätzen. Die Meinungen über die Vertrauenswürdigkeit von KI-generierten Gesundheitsinformationen sind jedoch geteilt: Während ein Drittel der Nutzer den Ratschlägen vertraut, bleibt ein ähnlicher Anteil skeptisch. Experten warnen, dass KI-Tools keine medizinischen Fachkräfte ersetzen können und betonen die Bedeutung des Datenschutzes, da viele Nutzer Bedenken hinsichtlich der Sicherheit ihrer persönlichen Gesundheitsdaten haben. Ärzte heben hervor, dass die Einbeziehung von Fachleuten in den Entscheidungsprozess entscheidend ist, um potenzielle Risiken zu minimieren.
Developer Claims to Crack Google's AI Watermark Defense
Der Entwickler Aloshdenny behauptet, das Wasserzeichensystem SynthID von Google DeepMind geknackt zu haben, indem er lediglich 200 Bilder des Gemini-AI-Modells und einfache Signalverarbeitungstechniken verwendete. Diese Entdeckung könnte die Glaubwürdigkeit eines wichtigen Werkzeugs zur Authentifizierung von KI-Inhalten gefährden, da sie das Entfernen von Wasserzeichen aus KI-generierten Bildern oder deren fälschliche Zuordnung zu menschlichen Werken ermöglichen könnte. Google hat die Behauptungen zwar zurückgewiesen, jedoch keine technischen Details veröffentlicht, die Aloshdennys Methoden widerlegen. Diese Kontroverse wirft grundlegende Fragen zur Robustheit von Wasserzeichentechnologien auf, insbesondere im Kontext der wachsenden Bedrohung durch Deepfakes. Aloshdennys Ansatz deutet darauf hin, dass das Entfernen von Wasserzeichen möglicherweise einfacher ist als angenommen, was die Branche dazu zwingt, ihre Authentifizierungsstrategien zu überdenken. Während die Sicherheitsgemeinschaft die Ansprüche prüft, bleibt unklar, ob es sich um eine ernsthafte Sicherheitskrise oder einen Fehlalarm handelt, was die Stabilität der aktuellen Methoden zur Sicherstellung der Authentizität von KI-Inhalten in Frage stellt.
How AI Writes SQL for You — and When Not to Trust It
Der Artikel "How AI Writes SQL for You — and When Not to Trust It" untersucht die Möglichkeiten und Grenzen der Nutzung von Künstlicher Intelligenz (KI) zur Generierung von SQL-Abfragen. Er beschreibt, wie KI-Tools Entwicklern helfen können, komplexe Datenbankabfragen effizient zu erstellen, indem sie natürliche Sprache in SQL übersetzen. Dabei werden die Vorteile wie Zeitersparnis und die Unterstützung bei der Fehlervermeidung hervorgehoben. Gleichzeitig warnt der Artikel vor den potenziellen Risiken, insbesondere in Bezug auf die Genauigkeit und Sicherheit der generierten Abfragen. Es wird betont, dass Nutzer kritisch bleiben sollten und die von der KI erzeugten SQL-Abfragen stets überprüfen müssen, um sicherzustellen, dass sie den gewünschten Anforderungen entsprechen und keine Sicherheitslücken aufweisen. Der Artikel schließt mit Empfehlungen, wann es sinnvoll ist, KI zur SQL-Generierung zu nutzen und wann man besser auf manuelle Eingaben zurückgreifen sollte.
Israeli study finds AI 'therapist' helped students, but mental health experts are skeptical
Eine israelische Studie hat ergeben, dass ein KI-gestützter "Therapeut" Schülern bei psychischen Problemen helfen konnte. Die Ergebnisse zeigen, dass die KI in der Lage war, Unterstützung zu bieten und das Wohlbefinden der Schüler zu verbessern. Trotz dieser positiven Ergebnisse äußern jedoch viele Psychologen und Mental Health-Experten Bedenken hinsichtlich der Wirksamkeit und Sicherheit solcher Technologien. Sie warnen davor, dass KI-Therapeuten nicht die menschliche Empathie und das Verständnis ersetzen können, die für eine erfolgreiche Therapie entscheidend sind. Zudem gibt es Fragen zur Datensicherheit und zum ethischen Umgang mit sensiblen Informationen. Die Diskussion über den Einsatz von KI in der psychischen Gesundheitsversorgung bleibt somit kontrovers und erfordert weitere Forschung und Überlegungen.
Motiv noch unklar: Aufnahmen zeigen Angriff auf Anwesen von OpenAI-Chef Sam Altman
Das Anwesen von Sam Altman, dem CEO von OpenAI, wurde erneut angegriffen, als ein Molotowcocktail geworfen wurde. Dies ist bereits der zweite Vorfall innerhalb kurzer Zeit, was die Situation alarmierend macht. Die Polizei hat Bilder des Angriffs veröffentlicht, um Hinweise zu erhalten und die Täter zu identifizieren. Das Motiv hinter dem Angriff bleibt unklar, was Bedenken hinsichtlich der Sicherheit prominenter Persönlichkeiten in der Technologiebranche aufwirft. Die wiederholten Angriffe könnten einen erhöhten Sicherheitsbedarf für Altman und andere Führungskräfte in ähnlichen Positionen zur Folge haben.
Perfect alignment between AI and human values is mathematically impossible, study says
Eine aktuelle Studie zeigt, dass eine perfekte Übereinstimmung zwischen den Werten von Künstlicher Intelligenz (KI) und menschlichen Werten mathematisch unmöglich ist. Die Forscher argumentieren, dass die Komplexität und Vielfalt menschlicher Werte eine vollständige Harmonisierung mit den Algorithmen und Entscheidungsprozessen von KI-Systemen ausschließt. Dies wirft bedeutende ethische und praktische Fragen auf, insbesondere in Bezug auf die Entwicklung und Implementierung von KI-Technologien. Die Studie fordert ein Umdenken in der KI-Forschung, um die Herausforderungen der Werteausrichtung besser zu adressieren. Anstatt nach einer perfekten Übereinstimmung zu streben, sollten Entwickler und Entscheidungsträger Wege finden, um die Kluft zwischen menschlichen und maschinellen Werten zu überbrücken und sicherzustellen, dass KI-Systeme im Einklang mit den gesellschaftlichen Normen und ethischen Standards agieren.
Report: Networks at the frontline – How 6G, ISAC and NTNs will redefine defense technology
Der Bericht "Networks at the frontline – How 6G, ISAC and NTNs will redefine defense technology" untersucht die transformative Rolle von 6G in der Verteidigungstechnologie. In Anbetracht der aktuellen geopolitischen Herausforderungen wird deutlich, dass traditionelle Kommunikationssysteme an ihre Grenzen stoßen. 6G wird als Schlüsseltechnologie hervorgehoben, die Sensing, KI-Analyse und zuverlässige Konnektivität in umkämpften Umgebungen integriert. Der Bericht erläutert, wie integrierte Sensing- und Kommunikationssysteme (ISAC) sowie die Konvergenz terrestrischer und nicht-terrestrischer Netzwerke die militärische Kommunikation revolutionieren können. ISAC könnte bestehende Mobilfunkinfrastrukturen in eine dauerhafte Sensorikschicht umwandeln, ohne zusätzliche Hardware zu benötigen. Zudem wird die Bedeutung von digitalen Zwillingen und Feedback-Schleifen für die Resilienz von Netzwerken betont. Der Bericht identifiziert auch strukturelle Barrieren wie Spektrum, Sicherheit und Edge-Computing, die überwunden werden müssen, um die Vorteile von 6G vollständig zu realisieren. Insgesamt wird 6G als architektonischer Wandel betrachtet, der für Verteidigungsplaner von entscheidender Bedeutung ist.
KI ein „Kind Gottes“? Anthropic-Treffen mit mehreren Kirchenleuten
Bei einem kürzlichen Treffen von Anthropic-Mitarbeitern mit führenden Vertretern der katholischen und protestantischen Kirche wurde diskutiert, wie Künstliche Intelligenz (KI) in das christliche Weltbild integriert werden kann. Im Mittelpunkt stand die Frage, ob der KI-Chatbot Claude als „Kind Gottes“ betrachtet werden kann und wie seine moralische sowie spirituelle Entwicklung in Bezug auf ethische Fragestellungen gestaltet werden sollte. Die zweitägige Veranstaltung offenbarte Anthropics Bereitschaft, unkonventionelle Ideen zu erkunden, während das Unternehmen seine Rolle im KI-Wettbewerb festigt. Die Diskussion über ein mögliches KI-Bewusstsein führte zu gemischten Reaktionen, wobei einige Teilnehmende die moralische Verantwortung für eine selbstbewusste KI in Betracht zogen. Trotz anfänglicher Bedenken hinsichtlich politischer Allianzen war das Hauptziel der Gespräche, die Nützlichkeit der KI zu erhöhen. Zudem sieht sich Anthropic einem Rechtsstreit mit der US-Regierung gegenüber, die die Technologie des Unternehmens als potenzielles Risiko für die nationale Sicherheit einstuft, nachdem Anthropic sich geweigert hat, ihre Technologie ohne Einschränkungen dem Verteidigungsministerium zur Verfügung zu stellen.
KI treibt Cyberkriminalität auf Rekordniveau
Die Cyberkriminalität hat durch den Einsatz von Künstlicher Intelligenz (KI) ein alarmierendes Niveau erreicht, wie ein Bericht des Sicherheitsdienstleisters iProov zeigt. Besonders besorgniserregend ist der Anstieg von Injection-Angriffen auf Mobilgeräte um über 1.100 Prozent in der zweiten Jahreshälfte 2025, was auf eine neue Ära des Identitätsdiebstahls hinweist. Kriminelle nutzen KI-generierte Deepfakes, um Führungskräfte zu imitieren und Mitarbeiter zu betrügerischen finanziellen Transaktionen zu verleiten. In den USA wird der durch KI-Betrug verursachte Schaden auf 12,5 Milliarden Dollar geschätzt, während in Europa ähnliche Trends zu beobachten sind, wie etwa 650.000 Euro Schaden durch Schockanrufe in Oberbayern. Viele Android-Smartphones sind aufgrund kritischer Hardware-Schwachstellen gefährdet, was Angreifern den Zugriff auf sensible Daten erleichtert. Phishing-Angriffe erleben durch KI eine Renaissance, wobei fast die Hälfte der US-Verbraucher bereits Opfer digitaler Betrugsversuche wurde. Trotz dieser Bedrohungen zeigt sich eine gefährliche Lücke im Sicherheitsbewusstsein der Nutzer, da nur 19 Prozent der Internetnutzer die Quellen von Informationen überprüfen. Experten fordern eine Kombination aus technologischer Aufrüstung, strengerer Regulierung und mehr Medienkompetenz, um die Sicherheit digitaler Infrastrukturen zu gewährleisten.
Sicherheit: Badesaison startet: Rettungsschwimmer dringend gesucht
Die Badesaison in Berlin und Brandenburg steht vor der Tür, doch es besteht ein akuter Mangel an Rettungsschwimmern, um die Sicherheit an den Gewässern zu gewährleisten. In Berlin werden etwa 120 Rettungsschwimmer für die Sommerbäder und das Strandbad Wannsee gesucht, während die DLRG an Wochenenden mit rund 250 ehrenamtlichen Kräften im Einsatz ist. In Brandenburg, wo es rund 3.000 Seen gibt, sind die ehrenamtlichen Rettungsschwimmer ebenfalls nicht ausreichend, um alle Gewässer zu überwachen. Die Hauptaufgabe der Rettungsschwimmer ist die Aufsicht am Wasser und die Rettung von Menschen in Notfällen, wofür eine spezielle Ausbildung erforderlich ist. Ein zentrales Problem ist die Nachwuchsgewinnung, da viele junge Menschen durch Ausbildung oder andere Verpflichtungen vom Ehrenamt abgehalten werden. Zudem sind viele Rettungsstationen nur an Wochenenden besetzt, was an heißen Tagen zu unzureichender Aufsicht führt. Technische Lösungen wie Künstliche Intelligenz werden als mögliche Unterstützung diskutiert, befinden sich jedoch noch in der Entwicklungsphase. Die Dringlichkeit der Situation wird durch die Ertrinkungszahlen des vergangenen Jahres unterstrichen: In Brandenburg ertranken 25 Menschen, in Berlin waren es 16.
The AI Model That Scared Its Own Creators: Inside Anthropic’s Claude Mythos Preview
Der Artikel „The AI Model That Scared Its Own Creators: Inside Anthropic’s Claude Mythos Preview“ beleuchtet die Entwicklungen und Herausforderungen, die das KI-Modell Claude von Anthropic mit sich bringt. Die Entwickler waren von den Fähigkeiten des Modells überrascht, insbesondere von seiner Fähigkeit, komplexe Aufgaben zu bewältigen und menschenähnliche Antworten zu generieren. Diese Fortschritte weckten jedoch auch Bedenken hinsichtlich der Sicherheit und der ethischen Implikationen des Einsatzes solcher Technologien. Der Artikel diskutiert die Maßnahmen, die Anthropic ergreift, um potenzielle Risiken zu minimieren, und die philosophischen Überlegungen, die mit der Schaffung fortschrittlicher KI-Systeme verbunden sind. Die Schöpfer stehen vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Verantwortung zu finden, während sie die Grenzen der KI weiter ausloten.
Top US banks warned about new Anthropic AI tool
In einer kurzfristig einberufenen Sitzung informierte Finanzminister Scott Bessent die Führungskräfte großer US-Banken über ein neues KI-Modell von Anthropic, das als Claude Mythos Preview bekannt ist. Dieses Modell birgt potenzielle Risiken für Cyberangriffe, da es in der Lage ist, Sicherheitsanfälligkeiten in Software zu identifizieren, die von menschlichen Entwicklern möglicherweise übersehen werden. Bessent warnte, dass die Nutzung dieser Software auf internen Bankensystemen sensible Kundendaten gefährden könnte. Um die Sicherheit zu gewährleisten, hat Anthropic entschieden, das Modell zunächst nur 40 ausgewählten Unternehmen, darunter JPMorgan Chase, zugänglich zu machen. Diese Maßnahme erfolgt im Kontext eines Rechtsstreits zwischen der Regierung und Anthropic über die militärische Nutzung der Technologie. Ein Sprecher des Finanzministeriums betonte die Notwendigkeit, die Entwicklungen im Bereich KI zu koordinieren und alle Beteiligten vor potenziellen Risiken zu schützen.
Adversa AI Wins Artificial Intelligence Excellence Award in Safety and Alignment Category
Adversa AI wurde mit dem Artificial Intelligence Excellence Award 2026 in der Kategorie Sicherheit und Ausrichtung ausgezeichnet. Diese Ehrung hebt die Bedeutung der kontinuierlichen adversarialen Tests von KI-Systemen hervor, die Adversa AI durchführt, um deren Verhalten unter realen Bedingungen zu validieren. Die Plattform des Unternehmens ermöglicht es Organisationen, potenzielle Risiken wie Eingabe-Manipulation und unsichere Verhaltensweisen von Agenten frühzeitig zu identifizieren. Angesichts der zunehmenden Verbreitung autonomer KI-Agenten ist die Validierung des KI-Verhaltens zu einem zentralen Anliegen für Führungskräfte geworden. Gründer Alex Polyakov betont, dass Sicherheit nicht isoliert betrachtet werden kann und dass KI-Systeme so getestet werden müssen, wie es potenzielle Angreifer tun würden. Die kontinuierliche Bewertung der KI-Systeme durch Adversa AI hilft Organisationen, von theoretischen Sicherheitsansätzen zu praktischen, testbaren Ergebnissen überzugehen, was besonders in sicherheitskritischen Branchen wie Finanzdienstleistungen und im öffentlichen Sektor von großer Bedeutung ist.
JNPA welcomes India-flagged LPG vessel Green Asha
Die Jawaharlal Nehru Port Authority (JNPA) hat das Indien-flagged LPG-Schiff Green Asha willkommen geheißen, das erfolgreich die Straße von Hormuz überquert hat. Das Schiff hat an einem Flüssiggutliegeplatz von BPCL-IOCL festgemacht und transportiert 15.400 Tonnen LPG. Diese Ankunft ist besonders bemerkenswert, da es das erste Schiff dieser Art ist, das seit dem Ausbruch des Konflikts zwischen Iran, den USA und Israel im JNPA eintrifft. Die Besatzung und die Ladung sind wohlauf, was die Robustheit maritimer Operationen unter schwierigen geopolitischen Bedingungen unterstreicht. Zudem gewährleistet die Ankunft der Green Asha eine kontinuierliche Versorgung Indiens mit lebenswichtigem LPG, was für die nationale Energieversorgung von großer Bedeutung ist.
LOM: Unifying Ontology Construction and Semantic Alignment for Deterministic Enterprise Reasoning at Scale
Das Large Ontology Model (LOM), entwickelt vom Yonyou AI Lab, adressiert die Herausforderungen im Wissensretrieval und in der Entscheidungsfindung in Unternehmen. LOM kombiniert strukturierte und unstrukturierte Daten, um eine konsistente Ontologie zu schaffen, die als "Geschäftslogik-Universum" fungiert und präzise Schlussfolgerungen ermöglicht. In Tests erzielte LOM-4B mit nur 4 Milliarden Parametern eine beeindruckende Genauigkeit von 93%, während andere Modelle mit mehr Parametern bei komplexen Aufgaben versagten. Dies verdeutlicht, dass die Effektivität von KI nicht nur von der Parameteranzahl abhängt, sondern von ihrer kognitiven Dichte. LOM bietet eine 7D logische Autonomie, die es der KI ermöglicht, eigene Denkregeln zu definieren, und transformiert sie somit von einem einfachen Datenverarbeitungstool zu einem echten Entscheidungshilfesystem. Diese Entwicklung stellt einen bedeutenden Fortschritt in der Integration von KI in Unternehmenspraktiken dar und legt den Grundstein für zukünftige Fortschritte in der KI-Technologie.
When AI meets muscle: Context-aware electrical stimulation guides humans through new movements
Forscher der Universität Chicago, darunter die Doktoranden Yun Ho und Romain Nith unter der Leitung von Pedro Lopes, haben ein innovatives System entwickelt, das kontextabhängige elektrische Muskelstimulation (EMS) nutzt, um Benutzern bei der Ausführung unbekannter körperlicher Aufgaben zu helfen. Diese Technologie, bekannt als "embodied AI", kombiniert künstliche Intelligenz mit Echtzeit-Muskelanleitung und ermöglicht es Nutzern, komplexe Bewegungen ohne vorherige Erfahrung zu meistern. Im Gegensatz zu herkömmlichen EMS-Systemen, die auf spezifische Aufgaben beschränkt sind, passt sich dieses neue System an den Kontext des Benutzers an und bietet maßgeschneiderte Unterstützung basierend auf visuellen Eingaben und Körperpositionen. In Nutzerstudien konnten Teilnehmer erfolgreich Aufgaben wie das Öffnen von kindersicheren Pillenflaschen und die Nutzung von Kameras bewältigen. Die Anwendungsmöglichkeiten sind vielfältig, von Gesundheitswesen über industrielle Schulungen bis hin zur Barrierefreiheit für sehbehinderte Menschen. Trotz aktueller Einschränkungen, wie der Kalibrierung der Elektroden und dem Komfort, sehen die Forscher eine Zukunft, in der tragbare KI-Systeme alltäglich werden und die Interaktion zwischen Mensch und Technologie durch physische Unterstützung verbessern. Sicherheit und Benutzerkontrolle stehen dabei im Vordergrund, sodass die KI nur auf Einladung des Nutzers aktiv wird.
AI MVP Development in 2026: Real Costs, Timelines and What Production-Ready Means
Der Artikel "AI MVP Development in 2026: Real Costs, Timelines and What Production-Ready Means" beleuchtet die Herausforderungen bei der Entwicklung von KI-basierten Minimal Viable Products (MVPs) und deren Vorbereitung für den Produktionsbetrieb. Viele Gründer stellen fest, dass ihre Prototypen zwar ansprechend sind, jedoch in der Praxis oft versagen, insbesondere in kritischen Bereichen wie Authentifizierung, Zahlungsabwicklung und Datenbanklogik. Die Autorin betont, dass trotz der beeindruckenden Ergebnisse von AI-App-Builder menschliches Fachwissen notwendig ist, um komplexe Aspekte wie Sicherheit und Performance zu gewährleisten. Um ein MVP als "produktionsbereit" zu klassifizieren, müssen spezifische Anforderungen erfüllt werden, darunter robuste Authentifizierungssysteme und optimierte Datenbankstrukturen. Technische Partner spielen eine entscheidende Rolle, um diese Lücken zu schließen und die App stabil für den realen Einsatz zu machen. Letztlich wird hervorgehoben, dass die richtige technische Unterstützung den entscheidenden Unterschied zwischen einem funktionierenden Prototyp und einer skalierbaren, zuverlässigen Anwendung ausmachen kann.
Bitcoin: Miner-Exodus! $70 Mrd. Mega-Umbau für KI – Prognose: Verliert das Netzwerk seine Rechenpower?
Der Bitcoin-Markt steht vor erheblichen Herausforderungen, da Miner aufgrund hoher Produktionskosten und eines gesunkenen Marktpreises von etwa 69.000 Dollar zunehmend auf KI-Rechenzentren umsteigen. Dieser Wandel, der einen Gesamtwert von über 70 Milliarden Dollar umfasst, könnte die Rechenpower und Sicherheit des Bitcoin-Netzwerks gefährden, da viele Miner, die über 40% der globalen Rechenleistung kontrollieren, ihre Aktivitäten einstellen. Die Umstrukturierung führt zu einem Rückgang der Hashrate, was kleinere Miner begünstigt, während unrentable Miner aus dem Markt gedrängt werden. Trotz dieser Schwierigkeiten bleibt die Nachfrage nach Bitcoin bestehen, solange die Mining-Kosten attraktiv sind. Gleichzeitig nimmt die physische Kriminalität gegen Krypto-Besitzer zu, was zu einem Anstieg von gewaltsamen Überfällen führt. Diese Entwicklungen verdeutlichen die komplexen Wechselwirkungen zwischen Marktbedingungen, Sicherheitsrisiken und der Anpassungsfähigkeit der Miner im Bitcoin-Ökosystem.
GLM-5.1 Beats GPT-5.4 on SWE-Bench Pro. The Failure Modes Are What Matter.
In der Studie "GLM-5.1 Beats GPT-5.4 on SWE-Bench Pro. The Failure Modes Are What Matter" wird die Leistung des GLM-5.1 Modells im Vergleich zu GPT-5.4 auf der SWE-Bench Pro-Benchmark untersucht. Die Ergebnisse zeigen, dass GLM-5.1 in mehreren Tests überlegen ist, insbesondere in spezifischen Anwendungsfällen. Ein zentraler Fokus der Analyse liegt auf den Fehlerarten der beiden Modelle, wobei festgestellt wird, dass die Art und Weise, wie die Modelle mit Herausforderungen umgehen, entscheidend für ihre Gesamtbewertung ist. Die Autoren argumentieren, dass das Verständnis dieser Fehlerarten für die Weiterentwicklung von KI-Modellen von großer Bedeutung ist. Die Studie hebt hervor, dass nicht nur die Leistung, sondern auch die Robustheit und Anpassungsfähigkeit der Modelle in realen Anwendungen berücksichtigt werden sollten.
Infineon Technologies Aktie: Was Du jetzt wissen solltest
Infineon Technologies ist ein führender Halbleiterhersteller, der sich auf Komponenten für Elektromobilität, erneuerbare Energien und Künstliche Intelligenz spezialisiert hat. Das Unternehmen profitiert von der steigenden Nachfrage nach energieeffizienten Lösungen, insbesondere im Automotive-Sektor, der über 40 Prozent des Umsatzes ausmacht. Durch Kooperationen mit Foundries wie TSMC kann Infineon seine Produktionskapazitäten erweitern und Risiken minimieren, was zu stabilen Margen führt. Analysten loben die Robustheit des Geschäftsmodells und prognostizieren eine positive Umsatzentwicklung, unterstützt durch die Fokussierung auf Megatrends. Für Anleger in Deutschland, Österreich und der Schweiz ist die Aktie besonders relevant, da viele lokale Automobilhersteller auf Infineons Technologien setzen. Trotz Herausforderungen wie Lieferkettenproblemen und zyklischen Marktentwicklungen bleibt das Unternehmen gut positioniert, um von der Digitalisierung und dem Trend zu erneuerbaren Energien zu profitieren. Langfristig wird ein Mix aus Wachstum und Stabilität in der Technologiebranche erwartet, was die Aktie für Investoren attraktiv macht.
Mozilla 0DIN AI Scanner
Der Mozilla 0DIN AI Scanner ist ein innovatives Tool, das entwickelt wurde, um die Sicherheit und Privatsphäre von Nutzern im Internet zu verbessern. Es nutzt fortschrittliche KI-Technologien, um potenzielle Bedrohungen und Sicherheitslücken in Echtzeit zu identifizieren. Der Scanner analysiert Webseiten und Online-Inhalte auf schädliche Elemente, die die Daten der Nutzer gefährden könnten. Darüber hinaus bietet er Empfehlungen zur Verbesserung der Sicherheitseinstellungen und zur Vermeidung von Risiken. Die benutzerfreundliche Oberfläche ermöglicht es auch weniger technikaffinen Nutzern, ihre Online-Sicherheit zu erhöhen. Mozilla setzt mit diesem Tool auf Transparenz und Datenschutz, um das Vertrauen der Nutzer in digitale Technologien zu stärken.
Exiger is "Awardable" for DoW Work in P1 Solutions Marketplace
Exiger hat im P1 Solutions Marketplace den Status "Awardable" erreicht, was der U.S. Regierung, insbesondere dem Department of War (DoW), die Überprüfung ihrer Cyber-Lösungen ermöglicht. Diese Plattform bietet eine Sammlung von Videos, die innovative Lösungen für Regierungsherausforderungen in den Bereichen Hardware, Software und Dienstleistungen präsentieren. Exiger Cyber setzt fortschrittliche Technologien wie Graph-Analytik und maschinelles Lernen ein, um die Sicherheit der Software-Lieferkette kontinuierlich und automatisiert zu gewährleisten. CEO Brandon Daniels hebt hervor, dass die zunehmende Nutzung von KI sowohl Chancen als auch Risiken mit sich bringt, weshalb mehr Transparenz in der Softwareentwicklung notwendig ist. Die Lösungen von Exiger können Genehmigungs- und Re-Authorisierungszyklen erheblich beschleunigen und die Risikobewertung von Wochen auf Minuten reduzieren. Durch den Einsatz proprietärer Daten und KI wird das Management der Lieferkette für die Regierung zu einem strategischen Vorteil. Exiger hat bereits Verträge mit der U.S. Regierung abgeschlossen.
IGEL holt Container, KI und mehr in die Thin-Client-Welt
Auf der Hauskonferenz Now & Next hat IGEL Technologies bedeutende Neuerungen für ihre Thin-Client-Lösungen präsentiert. Zukünftig sollen Container und Laufzeitumgebungen wie Docker und Podman in das IGEL OS integriert werden, das auf Linux basiert. Diese Erweiterungen zielen darauf ab, neue Marktsegmente, insbesondere im Bereich Operational Technology (OT), zu erschließen. Um Container effektiv zu nutzen, müssen IGEL-Administratoren spezifische Konfigurationen in der Universal Management Suite (UMS) vornehmen, wobei die Container-Daten auf einer separaten, verschlüsselten LVM-Partition gespeichert werden, um das Betriebssystem zu entlasten. Zudem plant IGEL die Einführung des IGEL Managed Hypervisors (IMH), der die Ausführung von Windows-Anwendungen auf IGEL-Desktops ermöglicht und eine zentrale Verwaltung virtueller Maschinen bietet. Der IMH wird auch zur Virtualisierung veralteter Betriebssysteme eingesetzt, was die Sicherheit und Wiederherstellung dieser Systeme verbessert. Darüber hinaus kooperiert IGEL mit Qualcomm, um ihre Software auf ARM-Devices zu portieren und somit ihre Präsenz im OT-Bereich zu stärken.