Was sollte beim Einsatz von KI aus Security-Sicht beachtet werden?
„Artificial intelligence is the future, and the future is here.” Dieses Zitat stammt vom KI-Pionier Dave Waters – so behauptet es zumindest ChatGPT. Ob das allerdings wirklich stimmt, lässt sich nur schwer verifizieren. Denn die Grundlage für dieses Zitat bilden riesige Datensätze, die sogenannte Large Language Models (LLMs), darunter ChatGPT, auswerten. Es ist durchaus möglich, dass sich in diesen Datensätzen auch ein Interview mit eben dieser Aussage findet.
Durchaus möglich ist aber auch, dass diese Äußerung von der Künstlichen Intelligenz (KI) einfach als plausibel bewertet wurde – ohne, dass Waters sie jemals getätigt hat. Denn die „Fakten“, die KIs aus ihren Datensätzen ziehen, mögen zwar häufig plausibel klingen, sind aber nicht zwangsläufig wahr, sondern bisweilen echte Fake News. Der Kommunikations-Chatbot ChatGPT selbst weist auf seiner Webseite auf die Problematik hin:„ChatGPT may produce inaccurate information about people, places, or facts“. Daher lautet die wichtigste Maxime für den Umgang mit KI: Die Glaubwürdigkeit einer Angabe sollte stets hinterfragt werden.
Large Language Models und ihre Funktionsweise
Large Language Models sind Algorithmen. Sie werten die eingespeisten Trainingsdaten aus, erkennen Sprachmuster und leiten davon ab, wie das nächste Wort für eine passende Antwort lauten könnte. Dieser gemischte, ungeprüfte Inhalt der Datensätze bringt ein weiteres Problem mit sich: Eine KI kann mitunter Vorurteile propagieren, die sie in ihren Trainingsdaten gefunden hat. Dieses „AI bias“ gibt bestimmten Denkweisen bzw. gesellschaftlichen Stereotypen den Vorzug, einfach weil sie statistisch häufiger vertreten sind. Und verfestigt diese dadurch. Die EU erarbeitet daher aktuell ein KI-Gesetz, das Anbieter von KIs u. a. in die Pflicht nehmen soll, die zugrundeliegenden Angaben stärker zu screenen. Und auch im Ethik-Kodex von Unternehmen oder Medienhäusern ist das Bewusstmachen dieser Vorurteile ein zentraler Punkt. Bewegen wir uns zusätzlich in einem mehrsprachigen Umfeld, verstärkt sich das Problem durch die kulturelle Perspektive: Um zu vermeiden, dass grobe Schnitzer in einer KI-generierten Aussage unbemerkt bleiben, muss der Output daher immer adäquat geprüft werden. Und das bedeutet, dass bei jedem Editing, bei jeder KI-Output-Überarbeitung das Zielpublikum samt Hintergrund und Erwartungen in den Fokus rücken muss.
Ein Human-in-the-Loop (oder sogar Expert-in-the-Loop) ist dabei eine zielführende Lösung: Eine Person mit entsprechender Expertise entscheidet, ob die KI überhaupt bei einer konkreten Aufgabe unterstützen kann, prüft dann den maschinell generierten Content, überarbeitet diesen, schickt gewisse Inhalte mit präziseren Anweisungen (prompts) zurück an die KI und feilt mit maschineller Unterstützung so lange an einem Text, bis das Ergebnis die fachlichen und sprachlichen Anforderungen erfüllt. KI-Dienste wie ChatGPT von OpenAI, Luminous von Aleph Alpha oder Bard von Google dienen in solchen Fällen lediglich als Werkzeug. Sie beschleunigen Arbeitsschritte und könnten somit dazu beitragen, Ressourcen einzusparen.
Eine KI „lebt“ davon, dass sie sich, ebenso wie ihr Input, weiterentwickelt. Diesen Input bezieht sie unter anderem aus den Daten, mit denen sie bei jeder neuen Anfrage gespeist wird. Erhält die KI beispielsweise mit dem Zweck, eine Pressemeldung zu generieren, konkrete Daten zu einer anstehenden geschäftlichen Transaktion, werden diese Daten gespeichert. So werden andere Benutzer unter Umständen bei entsprechenden Anfragen absichtlich oder unabsichtlich über die Transaktion informiert. Kommen zusätzlich personenbezogene Daten ins Spiel, ist nicht nur die Informationssicherheit, sondern auch der Datenschutz gefährdet. Die Situation ähnelt einer Zugfahrt, während der auch keine Geschäftsgeheimnisse für die Mitreisenden hörbar besprochen oder vertrauliche Daten, wie bisher unveröffentlichte Umsatzzahlen für den Geschäftsbericht, im Bordbistro liegen gelassen werden sollten. Denn die einen oder anderen Mitreisenden könnten an den preisgegebenen Informationen durchaus ein Interesse haben. Genauso sollte die Geheimhaltung vertraulicher Daten auch und besonders im Internet an erster Stelle stehen.
ChatGPT vs. DSGVO
Zwar besteht inzwischen die Möglichkeit, den Chatverlauf in ChatGPT bewusst nicht speichern zu lassen. Die DSGVO-Konformität ist dennoch ungeklärt. Mitunter werden die vom KI-Dienst erfassten Daten – nicht nur die Prompts, sondern auch technische Informationen wie Cookies oder Gerätedaten – auf Servern in den USA gespeichert, also einem „Drittland“ im Sinne der DSGVO. Sollen personenbezogene Daten verarbeitet werden, müsste die betroffene Person daher zuvor ausdrücklich einwilligen. ChatGPT ist dabei durchaus nicht das einzige Tool, das kritisch zu betrachten ist. Vielmehr ist eine gewisse Zurückhaltung in Bezug auf Daten in den allermeisten Fällen angebracht.
KI und Cybersecurity
KI-Systeme selbst stellen ebenfalls Angriffsflächen für Cyber-Kriminelle dar. Neben den großen, öffentlich verfügbaren KI-Plattformen, die von Millionen Nutzern weltweit eingesetzt werden und regelmäßig ins Visier von Hackern gelangen, kommt besonders auch unternehmenseigenen KI-Tools oder Engines eine besondere Bedeutung in Hinblick auf die Cyber-Sicherheit zu. Denn die immensen Datenmengen müssen geschützt werden. Und: Auch Kriminelle wissen die Vorzüge von KI zu schätzen. Phishing-Mails werden in Zukunft noch realistischer und somit noch schwerer als Phishing zu erkennen sein. Indem Hacker mittels KI beispielsweise öffentlich einsehbare Social-Media-Profile auswerten, können sie ihre Angriffe ganz gezielt an ein bestimmtes Publikum anpassen.
Bereits in den vergangenen Jahren nahm die Zahl an Deep Fakes zu. Cyber-Kriminelle können mit entsprechend digital manipulierten Fotos, Videos oder Audios versuchen, Unternehmen oder Privatleute zu erpressen. Wird ein brisanter Audio-Clip an die Öffentlichkeit gespielt, in dem sich der vermeintliche CEO eines Unternehmens kritisch äußert, kann das schnell große Wellen schlagen – auch wenn der Clip eine vollständige Fälschung ist. Unternehmen sind daher angehalten, entsprechende Strategien für die Reaktion bereitzuhalten. Und das Publikum sollte sich eine gesunde Portion Skepsis zulegen, wenn solche Mitschnitte kursieren.
Natürlich ist KI auch ein willkommenes Tool für die eigene Cyber-Security: Die Algorithmen setzen neue Standards bei der Verarbeitung riesiger Datenmengen in kürzester Zeit. Die Schattenseite für die IT-Sicherheit ähnelt jedoch den Bedenken aus anderen Bereichen, beispielsweise der Kommunikation: Wir wissen nicht, wie eine KI zu ihren Ergebnissen gelangt. Ihre Entscheidungsfindung ist damit auch aus Sicht von KI-Experten nicht nachvollziehbar und damit nicht transparent. Sind die Daten sauber, ausreichend und aussagekräftig? Beeinflusst ein Dritter die KI? Werden die passenden Modellierungen angewendet? Auch hier kommt es also darauf an, KI nicht als reinen „Service“ einzusetzen, sondern lediglich als Werkzeug für eine bessere Informationssicherheit in Unternehmen. Denn intelligente Security-Lösungen sollten auf menschliche und künstliche Intelligenz zugleich bauen.
Künstliche Intelligenz berührt viele Bereiche, von der Cyber-Sicherheit bis zur Ethik. Primär bietet sie allerdings unzählige Möglichkeiten, uns Menschen zu unterstützen. Essenziell im Umgang mit dieser Technologie bleiben dabei immer folgende Punkte:
- Eine Prüfung der Glaubwürdigkeit und eine Gegenprüfung der durch die KI gewonnenen Information
- Das Hinterfragen nicht nur konkreter Daten, sondern auch zugrundeliegender Stereotypen
- Die Vertraulichkeit bestimmter Informationen – eine KI sollte niemals mit vertraulichen oder geheimen Informationen gespeist werden
- Das Bewusstsein, dass eine KI Stimmen, Bilder und mehr imitieren kann – mit allen Risiken und Chancen
KI ist in einigen Fällen bereits fest in unserem Arbeitsalltag verwurzelt. In anderen Bereichen wird ihre Bedeutung weiter zunehmen. Angesichts der rasanten Entwicklungen ist ein Bewusstsein über die gesetzlichen Anforderungen an Datenschutz und Datensicherheit sowie weitere Bereiche unerlässlich.
Der Mensch sollte die Kontrollinstanz der KI bleiben. Künstliche Intelligenz ist ein enorm hilfreiches Tool, das unsere Arbeit massiv beeinflussen kann: Sie verhilft uns zu einem höheren Tempo und dient als Impulsgeber. Und sie kann ein Sparring- und Kreativpartner sein, um Ideen auszuprobieren. Benutzern muss jedoch klar sein, dass insbesondere bei vertraulichen Daten Vorsicht geboten ist. Denn in den allermeisten Fällen ist unklar, was damit passieren kann – und wer letztlich mitliest.
Quellen und weiterführende Informationen
SoSafe GmbH: Die Sicherheitsrisiken von ChatGPT – und wie Sie vermeiden. https://sosafe-awareness.com/de/blog/die-sicherheitsrisiken-von-chatgpt-und-wie-sie-sie-vermeiden/
PR-Werkstatt: „KI-Leitfaden für PR-Profis“ (PR Report 3/2023)
Europäisches Parlament: „EU AI Act: first regulation on artificial intelligence“ (14.06.2023). https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
OpenAI: „New ways to manage your data in ChatGPT”. https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
isits AG: „Künstliche Intelligenz und IT-Sicherheit: Chance oder Bedrohung?“. https://www.is-its.org/it-security-blog/kuenstliche-intelligenz-und-it-sicherheit-chance-oder-bedrohung
Redaktionsteam Leinhäuser
Sprachen sind unsere Leidenschaft. Deswegen nehmen wir regelmäßig auch aktuelle Entwicklungen und neue Tools unter die Lupe, die sich auf die Welt der Kommunikation auswirken. In verschiedenen Blogbeiträgen teilen unsere internen Expertinnen und Experten ihr Wissen und ihre Erkenntnisse zu spezifischen Bereichen unseres Portfolios und beleuchten wichtige Zukunftstrends für unsere Branche. Von kreativem Schreiben über Nachhaltigkeitsberichte bis hin zur Programmierung – jedes Mitglied unseres Teams zeichnet sich durch ein einzigartiges Profil aus und trägt so einem vielfältigen Gesamtbild bei.