Im Januar 2023 wurde OpenAI, das Unternehmen hinter dem bekannten KI-Modell ChatGPT, Ziel eines schwerwiegenden Cyberangriffs. Laut einem Bericht der New York Times entschied sich OpenAI, den Vorfall weder den Strafverfolgungsbehörden noch der Öffentlichkeit mitzuteilen. Diese Entscheidung wirft zahlreiche Fragen zur Sicherheit und Transparenz des Unternehmens auf.
Details des Angriffs
Laut Insiderinformationen, die der New York Times vorliegen, verschaffte sich der Angreifer Zugang zu einem internen Nachrichtensystem von OpenAI. Dort konnte er Informationen über die KI-Technologien des Unternehmens abgreifen. Glücklicherweise blieb der Quellcode des Unternehmens unangetastet. Weder Kundendaten noch Informationen von Partnerunternehmen wurden kompromittiert (Pluralsight) (Trend Micro News).
Interne Reaktionen und Konsequenzen
Im April 2023 wurden die Mitarbeiter und der Vorstand von OpenAI über den Angriff informiert. Da keine sensiblen Kundendaten betroffen waren, entschied die Führung, den Vorfall nicht öffentlich zu machen. Selbst das FBI wurde nicht informiert, was Bedenken hinsichtlich der gesetzlichen Meldepflichten bei Cyberangriffen aufwirft (TechCrunch).
Bedenken bezüglich nationaler Sicherheit
Obwohl die Führungskräfte von OpenAI den Angriff nicht als Bedrohung für die nationale Sicherheit der USA einstuften, äußerten einige Mitarbeiter Bedenken. Insbesondere wurde die Angst vor ähnlichen Angriffen durch Nationen wie China geäußert, die durch den Diebstahl von KI-Technologie die nationale Sicherheit gefährden könnten. Diese Befürchtungen sind nicht unbegründet, da Cyberangriffe auf Unternehmen und staatliche Institutionen in den letzten Jahren stark zugenommen haben (Pluralsight).
Rechtsstreit zwischen OpenAI und der New York Times
Der Vorfall heizt auch den bestehenden Rechtsstreit zwischen der New York Times und OpenAI weiter an. Die Zeitung beschuldigt OpenAI, ihre Artikel ohne Erlaubnis für das Training der KI-Modelle verwendet zu haben, was eine massive Urheberrechtsverletzung darstellt. OpenAI wiederum wirft der New York Times vor, unethische Methoden zur Beweisfindung zu nutzen und die KI-Modelle absichtlich in die Irre zu führen, um ihre Klage zu untermauern (TechCrunch) (Trend Micro News).
Schlussfolgerung
Der Cyberangriff auf OpenAI und die anschließende Vertuschung werfen ernsthafte Fragen zur Transparenz und Sicherheit von Technologieunternehmen auf. Es bleibt abzuwarten, wie OpenAI und andere Unternehmen in Zukunft mit solchen Vorfällen umgehen werden und welche Maßnahmen zur Verbesserung der Cybersicherheit ergriffen werden.
Kostenlose KI-Erstberatung sichern – nur noch wenige Plätze verfügbar!
Wir bieten Ihnen und Ihren Mitarbeitern eine kostenlose KI-Erstberatung an. Wir nehmen die Angst vor technischer Veränderung und zeigen die Chancen und Möglichkeiten auf.
Die Erstberatung wurde bereits bei Unternehmen, Unternehmensgründern und auch für Lehrkräfte an Schulen durchgeführt. Die Resonanz ist riesig und wir freuen uns jedes Mal über das positive Feedback.
Aufgrund der hohen Nachfrage und der großen Resonanz bieten wir die kostenlose Erstberatung nur noch zeitlich begrenzt an. Falls Interesse besteht, melden Sie sich unter: florian.brosig@pixelschnitzel.com