properties.trackTitle
properties.trackSubtitle
Ende 2022 löste ChatGPT den KI-Hype aus. Fachexperten hingegen sind seit Jahrzehnten von der Künstlichen Intelligenz (KI) und ihren Teilbereichen, wie maschinelles Lernen oder der Verarbeitung natürlicher Sprache, fasziniert.
Ein Highlight aus einer Reihe von Projekten: 2014 hatte die Defense Advanced Research Projects Agency (DARPA), eine Behörde des amerikanischen Verteidigungsministeriums, zur Cyber Grand Challenge aufgerufen. Bei dem ersten Hacker-Wettbewerb ohne Menschen hackten sieben vernetzte, autonom agierende Systeme einander und schrieben Programme neu, um Sicherheitslücken zu schließen. Automatische Abwehr folgte auf Angriff – teils mithilfe von KI: Es ist eine Möglichkeit, mehr Sicherheit in eine sich ständig stärker vernetzende Welt zu bringen, die teilweise aus fehlerhafter Software gebaut wurde. In der jetzigen Debatte überwiegen allerdings besorgte Stimmen. Wie gefährlich ist die jüngste KI-Generation? Finden nun mehr Cyberangriffe statt? Im Interview gibt Dr. Siegfried Rasthofer, Senior Cyber Security Expert bei Munich Re, erste Einblicke.
Herr Dr. Rasthofer, plötzlich waren Sprachmodelle und dadurch die KI in den Fokus der Berichterstattung gelangt. Warum?
Generell muss man sagen, dass die Konzepte für solche Sprachmodelle bereits seit mehreren Jahren existierten. Der Durchbruch ist aber erst jetzt zu erleben, da die benötigte Rechenkapazität für die Umsetzung dieser Modelle zur Verfügung steht. Beim Beispiel ChatGPT ist das Faszinierende und Neue, dass dieses Sprachmodell in Sekunden auf eine Frage eine eloquente und kompetente Antwort geben kann. Natürlich können bei komplexeren Themen und Fragestellungen die Antworten auch unbefriedigend sein. Aber wer zum Beispiel auf der Suche nach einem Kochrezept ist, muss sich nicht mehr durch die zahlreichen Ergebnisse einer Suchmaschine klicken, sondern kann sich direkt an den Chatbot wenden.
Die Mechanik dahinter ist aber leicht erklärt. Das Kürzel GPT steht für „Generative Pre-trained Transformer.“ Der Chatbot greift also auf einen riesigen und vielfältigen Schatz an Informationen zurück, mit denen er zuvor trainiert wurde, verarbeitet das bekannte Wissen und schreibt es um. Letzten Endes haben wir es mit statische Wahrscheinlichkeit zu tun: Es wird versucht, basierend auf dem bisherigen Text und den gelernten Mustern, das nächste passende Wort oder die nächste passende Textsequenz vorherzusagen. Dies geschieht auf der Grundlage von Statistiken, die der Chatbot aus seinem Trainingsdatensatz abgeleitet hat.
Nun gibt es Befürchtungen, dass diese Sprachmodelle Schaden anrichten können. Sind sie für Cyberangriffe nützlich und wird es mehr oder neue Arten von Angriffen dadurch geben?
Es ist sehr schade, dass immer das Negative in den Vordergrund gerückt wird. Denn genauso gut kann ich die Technologie ja auch nutzen, um mich zu schützen. Was es zu beachten gilt: ChatGPT halluziniert, es sagt das nächste passende Wort voraus und manchmal ist dieses nicht korrekt. Diese Modelle können aufgrund der statistischen Natur ihres Ansatzes Fehler machen oder ungenaue Informationen wiedergeben, insbesondere wenn sie mit ungewöhnlichen oder kontextuell komplexen Anfragen konfrontiert werden. Wenn es komplett neu wäre, dann wären wir bereits bei Artificial General Intelligence, die es einem Computerprogramm ermöglicht, jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die auch ein Mensch ausführen kann.
Bezogen auf Sprachmodelle wie ChatGPT und den aktuellen Stand glaube ich nicht, dass wir mit gravierenden neuen Angriffstechniken rechnen müssen. Aber wir werden wahrscheinlich mehr automatisierte Angriffe erleben, die auch von Personen ausgeführt werden können, die weniger technisches Know-how besitzen. Was man aber auch vor Augen haben muss: Ein Angriff besteht immer aus mehreren Phasen. Selbst wenn die Kompromittierung im ersten Schritt erfolgreich begann, muss sie nicht etwa eine vollständige Verschlüsselung eines Unternehmens bedeuten.
Aber in den einzelnen Angriffsphasen könnten Sprachmodelle unterschiedlich unterstützen?
Ja, das glaube ich. Und, dass somit wahrscheinlich auch die Geschwindigkeit innerhalb der einzelnen Phasen zunehmen wird. Bei der Unterstützung durch Sprachmodelle kann es ganz harmlos anfangen. Reconnaissance, Aufklärung, zum Beispiel bezeichnet die Phase der Informationsbeschaffung vor einem Angriff. Verschiedene öffentlich verfügbare Informationsquellen wie die Unternehmenswebseite oder soziale Netzwerke werden hierfür genutzt. Die bisher manuelle Suche nach beispielsweise den Mitarbeitern des Zielunternehmens könnten Kriminelle an ein Sprachmodell abgeben. Beim Initial Access, der Phase des Erstzugangs, könnten Hacker mithilfe von Spear-Phishing-Mails an Zugangsdaten kommen. Das Verfassen der gut geschriebenen Mail könnte ein Sprachmodell übernehmen.
Und, es könnte auch beim Entwickeln der Schadsoftware helfen, Schlagwort Obfuskation. Bei dieser Verwirrungstaktik wird ein Programmcode absichtlich stark verändert, zum Beispiel damit ein Anti-Virus-Programm ein Virus nicht mehr erkennt. Was ich mir für die Zukunft bei Sprachmodellen auch vorstellen kann: Sie finden eine bisher unbekannte Softwareschwachstelle und schreiben automatisiert einen Exploit, der die gefundene Schwachstelle ausnutzt. Mithilfe dieses Exploits werden andere angegriffen, die im Besitz der analysierten Software mit der gleichen verwundbaren Software-Version sind.
Aber wie ich vorhin schon sagte: Genauso gut kann ein Softwarehersteller die Frage nach einer Schwachstelle stellen und somit ein Sprachmodell zum Schutz einsetzen.
Da Sie es schon ansprechen: Wie können sich Unternehmen vor den immer raffinierteren Angriffen schützen?
Wir alle wissen: Schutz endet nicht mit einem Anti-Viren-Programm. Um angemessen auf die stetig wachsende Bedrohung durch Cyberangriffe vorbereitet zu sein, benötigt es ein mehrstufiges Sicherheitskonzept. Das bedeutet, dass Unternehmen nicht auf eine einzige Sicherheitsmaßnahme vertrauen, sondern auf eine Kombination verschiedener Schutzmechanismen setzen sollten. Es ähnelt einer Verteidigungslinie mit mehreren Barrieren, die es Angreifern erschweren, in das System einzudringen oder Schaden anzurichten. Denn denken Sie zum Beispiel mal an Deepfakes, täuschend echt wirkende, manipulierte Bilder, Audioaufnahmen oder auch Videos. Auch hier verbessert sich kontinuierlich die Qualität, weil die Rechenleistung steigt und sich die Leistungsfähigkeit von KI in großen Schritten weiterentwickelt. Sie werden häufig in der Betrugsmethode Business E-Mail Compromise (BEC) eingesetzt. Kriminelle verwenden gefälschte Geschäfts-E-Mails, um beispielsweise Finanztransaktionen auszulösen. Nach dem Versand der gefälschten E-Mail erfolgt zur Bestätigung möglicherweise ein Anruf zwischen dem Opfer und dem Kriminellen. Dabei wird durch die Nutzung moderner KI-Techniken die Stimme des Chefs imitiert. Aktuell ist es ein Angriffsbeispiel aus einer höheren Liga. Es zeigt aber die Notwendigkeit von unterschiedlichen Schutzmechanismen, die vorhanden sein und funktionieren müssen. Dazu zählt das Vier-Augen-Prinzip oder eine hinterlegte Nummer, die nur zur Absicherung und Genehmigung genutzt wird.
Ein mehrstufiges Sicherheitskonzept kostet natürlich Geld. Und es ist eine Investition, die für einige nicht sofort einen sichtbaren Nutzen bringt. Aber es ist meiner Meinung nach ein notwendiger Schritt, denn die Gefahr der Angriffe wird steigen und mithilfe von Sprachmodellen können sie schneller passieren. Leider ist es mit Investitionen nicht getan, es benötigt auch IT-Fachkräfte, die rar sind. Das ist eine zusätzliche Herausforderung, besonders für Mittelständler. Hier ist es eine Überlegung wert, einen externen IT-Dienstleister anzufragen.
Munich Re selbst schreibt auf der Unternehmenswebsite, dass der zunehmende Einsatz von KI in der Wirtschaft neue Risikofelder und Kundenbedürfnisse hervorbringt, die identifiziert, analysiert, verstanden und bewertet werden müssen. Welche Berührungspunkte hat Munich Re mit der Künstlichen Intelligenz?
In meiner Forschungstätigkeit in der Schadensabteilung entwickeln wir eigene KI-Programme, die uns beispielsweise im Bereich Threat Intelligence unterstützen, Cyberschäden besser zu verstehen. Diese Anwendungen sind Teil unserer breiten Nutzung von KI in verschiedenen Bereichen. Darüber hinaus profitieren unsere Kunden bereits von unserer Expertise bei den Versicherungsprodukten aiSure und aiSelf.
Vielen Dank für das Gespräch, Herr Dr. Rasthofer.