Künstliche Intelligenz und IT-Sicherheit: Welche Gefahren drohen?
- KI kann sowohl Cybersicherheitslösungen verbessern als auch von Hackern missbraucht werden.
- KI-Chatbots wie Amazons Q können Datenschutzlücken und Halluzinationen aufweisen.
- Cyberkriminelle nutzen KI für effizientere Malware, Phishing und Social Engineering.
- Unternehmen müssen sich der Sicherheitsrisiken und Schwachstellen durch KI bewusst sein.
- Maßnahmen: Seriöse Anbieter wählen, Mitarbeiter sensibilisieren, regelmäßige Sicherheitsüberprüfungen.
- Item A
- Item B
- Item C
Ende 2023 stellte Amazon den KI-Chatbot Q vor, der AWS-Kunden bei Aufgaben wie dem Erstellen von Inhalten oder dem Analysieren von Daten helfen soll. Wenige Wochen später mehrten sich die Berichte über Datenschutzlücken und schwere Halluzinationen. Laut internen Memos habe der Chatbot vertrauliche Daten wie AWS-Rechenzentrumsstandorte oder Rabattprogramme von AWS-Nutzern ausgeplaudert.
Geschwätzige KI-Chatbots sind jedoch nicht die einzige Bedrohung für vertrauliche oder personenbezogene Daten. Werden Algorithmen mit den falschen Absichten eingesetzt, können sie zu einer gefährlichen Waffe für Cyberkriminelle werden.
Wie beeinflusst KI die Bedrohungen aus dem Cyberraum?
Künstliche Intelligenz (KI) wird mit dem Ziel entwickelt, das Leben besser zu machen und den Menschen zu unterstützen. Sie kann zum Beispiel die Gesundheitsversorgung und den Klimaschutz unterstützen, Unternehmen zu besseren Produkten und mehr Produktivität verhelfen oder die Sicherheit im öffentlichen Raum oder im Internet erhöhen.
Welches Potenzial in KI-basierten Cybersecurity-Lösungen steckt, zeigen die jüngsten Übernahmepläne der Google-Mutter Alphabet: Der Tech-Konzern will das Cybersecurity-Start-up Wiz für rund 20 Milliarden Euro übernehmen. Wiz entwickelt Cloud- und KI-basierte Lösungen, die Cyberbedrohungen in Echtzeit bekämpfen.
Allerdings kann KI von Kriminellen auch missbraucht und umgekehrt genutzt werden, um Menschen zu schaden. In seinem Bericht über den Einfluss von KI auf die Cyberbedrohungslandschaft zeigt das Bundesamt für Sicherheit in der Informationstechnik (BSI), wie KI Hacker unterstützt. Cyberkriminelle können mit großen Sprachmodellen wie ChatGPT
- schneller neue Malware entwickeln
- ihre Phishing-Angriffe verbessern
- Social-Engineering-Attacken perfektionieren
- Sicherheitslücken ausfindig machen
- Passwörter erraten
Ein Angriff auf die IT-Systeme von Unternehmen stellt immer auch einen Angriff auf sensible Daten und Informationen dar. Deshalb sollten sich Führungskräfte und Beschäftigte der Gefahren durch KI-Angriffe oder Schwachstellen in den eigenen Systemen bewusst sein.
Was sagen Datenschützer zu KI?
Jetzt KI-Guide downloaden und Empfehlungen sichern
Datenklauender KI-Wurm zeigt Gefahren auf
Dass in KI-Systemen der Wurm drin ist und Anbieter wie OpenAI oder Google die Widerstandsfähigkeit ihrer Modelle erhöhen müssen, zeigt Morris II. Der datenhungrige Computerwurm wurde von Sicherheitsforschern aus den USA und Israel entwickelt, um Datenschutzlücken in Anwendungen der generativen KI aufzuspüren.
Die Wissenschaftler haben gezeigt, dass Angreifer mithilfe von Malware in der Lage wären, KI-Modelle mit einem Wurm zu infizieren und sie so zu manipulieren, dass sie sensible Informationen preisgeben. Ihre Ergebnisse stellten die Forscher den KI-Giganten OpenAI und Google zur Verfügung. Denn der Schutz von Nutzerdaten ist vor allem Aufgabe der Architekten von KI-Modellen.
Was können Unternehmen tun?
Doch auch Unternehmen müssen sich neben den Vorteilen von KI mit den potenziellen Sicherheitsrisiken auseinandersetzen. Allerdings zeigen aktuelle Studien, dass viele Verantwortliche das Thema noch nicht auf dem Radar haben.
Zwar nutzen bereits 95 Prozent der europäischen Unternehmen KI-Lösungen und 59 Prozent sorgen sich um Datenlecks im KI-Kontext. Über eine Regulierung diskutieren allerdings erst 22 Prozent der Unternehmen.
Ein Grund dafür ist vermutlich das Blackbox-Phänomen: Viel zu wenige Menschen verstehen im Detail, wie KI funktioniert und wie Daten in den großen Sprachmodellen und unzähligen Chatbots verarbeitet werden.
Trotzdem können Unternehmen verschiedene Maßnahmen ergreifen, um ihre Daten und IT-Systeme zu schützen:
- Bei der Implementierung von KI-Lösungen sollten sie auf seriöse Anbieter setzen.
- Mitarbeiter müssen für die Sicherheitsrisiken in Verbindung mit KI sensibilisiert werden.
- Personenbezogene Daten dürfen nicht ohne weiteres in KI-Systemen verwendet werden – es ist ratsam, KI-Regeln im Unternehmen einzuführen.
- Regelmäßige Sicherheitsüberprüfungen helfen, Schwachstellen in den eigenen Systemen und Prozessen frühzeitig zu identifizieren.
- Viele Unternehmen müssen sich 2024 mit der neuen NIS2-Richtlinie auseinandersetzen und können die Vorbereitungen nutzen, um sich über aktuelle Cyberbedrohungen und Gegenmaßnahmen zu informieren.
Um KI-Anwendungen und Datenschutz so gut wie möglich in Einklang zu bringen, brauchen Unternehmen einen erfahrenen Datenschutzexperten, der die aktuellen Entwicklungen im Blick behält. Die Fachleute von datenschutzexperte.de setzen sich täglich mit den Vorteilen und Gefahren von künstlicher Intelligenz auseinander und begleiten Ihr Unternehmen gern ins (sichere) KI-Zeitalter.
Erfahren Sie, welche Chancen Künstliche Intelligenz für die IT-Sicherheit bietet und warum sie gleichzeitig eine Gefahr für Ihre IT und Daten darstellt.
Sie haben noch Fragen zum Thema? Lassen Sie sich jetzt kostenlos von unseren Expertinnen und Experten beraten.
Zu unseren mehr als 2.500 Kunden zählen Start-ups, mittlere Unternehmen und Unternehmensgruppen aus nahezu allen Branchen.