EFS Consulting
07.10.2024

Künstliche Intelligenz: Gefahren und Risiken

Künstliche Intelligenz (KI) hat in den letzten Jahren erhebliche Fortschritte gemacht und beeinflusst eine Vielzahl von Branchen und Aspekte unseres Lebens. Während die Vorteile von KI unbestritten sind, resultieren aus der schnellen Weiterentwicklung von Technologien auch ernsthafte Gefahren und Risiken. Dieses Insight beleuchtet sowohl Gefahren als auch Chancen durch KI und diskutiert die Auswirkungen in verschiedenen Bereichen.

KI und (Cyber-)Sicherheit  

KI spielt eine zunehmende Rolle in der Cybersicherheit. Sie ermöglicht es große Datenmengen (Big Data) zu analysieren und Muster zu erkennen. Somit können Bedrohungen frühzeitig identifiziert und auf diese reagiert werden. KI-basierte Systeme erkennen ungewöhnliche Aktivitäten und Anomalien in Echtzeit, wodurch die Erkennungsrate von Cyberangriffen stark erhöht wird. 

Ein wesentlicher Vorteil von KI in der Cybersicherheit ist die Entlastung menschlicher Analyst:innen. Mit dem täglichen Auftreten tausender sicherheitsrelevanter Ereignisse, wird eine manuelle Überprüfung nahezu unmöglich. Intelligente Systeme unterstützen dabei diese Ereignisse zu priorisieren und automatisch zu verarbeiten. Nur die kritischsten Vorfälle werden noch an menschliche Expert:innen weitergeleitet. 

Darüber hinaus ermöglicht KI eine (teil-)autonome Reaktion auf Bedrohungen. Automatische Anpassungen an Firewall- und E-Mail-Regeln minimieren die Angriffsfläche und schützen den laufenden Betrieb. Die Cyber Resilienz wird durch diese Automatisierungen erhöht und führt so zu einer robusteren Gestaltung der Sicherheitsinfrastruktur eines Unternehmens. 

Durch fortschrittliche Methoden, zum Beispiel Anomalie-Erkennung und Predictive Analytics, werden Cybersicherheitslösungen durch KI-Anwendungen optimiert. Diese verhaltensbasierten Verfahren ermöglichen eine exaktere Identifikation von Bedrohungen im Vergleich zu den traditionellen, signaturbasierten Ansätzen. Zusätzlich profitieren Identitäts- und Zutrittsmanagementsysteme von der automatischen Analyse von Nutzerdaten, um unbefugten Zugriff zu verhindern und die Sicherheit der IT-Systeme zu gewährleisten. 

Potenzielle Gefahren der Künstlichen Intelligenz 

Die zunehmende Nutzung von intelligenten Systemen in einer Vielzahl von privaten und beruflichen Anwendungsfällen bringt auch erhebliche Risiken mit sich. Eine unsachgemäße oder übermäßige Anwendung kann zu ineffektiven Investitionen und Fehlanwendungen führen, was die Notwendigkeit gezielter Steuerung und Regulierung unterstreicht.  

Gesellschaftliche und ethische Bedenken 

Ein zentrales Problem ist eine mögliche Verstärkung von Vorurteilen und Diskriminierungen durch KI-Systeme. Durch das Trainieren der KI auf verzerrte Daten sind diese Systeme in der Lage benachteiligte Gruppen zu diskriminieren. Auch die Möglichkeit, dass KI zur Überwachung und Unterdrückung eingesetzt wird, wie es etwa bei Sozialkreditsystemen möglich ist, kann nicht ausgeschlossen werden. 

Die Automatisierung durch KI birgt zudem das Risiko erheblicher Arbeitsplatzverluste. Das Ersetzen von menschlich ausgeführten Tätigkeiten mit Maschinen kann zu sozialer Ungleichheit und wirtschaftlicher Unsicherheit führen. Auch eine Herausforderung ist die Bedrohung der Privatsphäre und Datensicherheit. KI-Systeme analysieren große Datenmengen, was in Missbrauch und ungewollter Überwachung resultieren kann.  

Eine ausschließlich datenbasierte Entscheidungsfindung und das Fehlen menschlicher Moral können zu ethisch fragwürdigen Entscheidungen führen. Damit geht die Frage nach der Haftung bei durch KI verursachten Schäden einher. Schäden können beispielsweise Unfälle mit selbstfahrenden Fahrzeugen sein. Klare Verantwortlichkeiten sind notwendig, um Vertrauen in die KI zu schaffen und Innovationen nicht zu behindern. 

Politische Auswirkungen  

Auch demokratische Prozesse, insbesondere Wahlen bleiben von den Auswirkungen neuer Technologien nicht unverschont. Laut dem globalen Risikoreport des Weltwirtschaftsforums des Jahres 2024 können gezielt verbreitete Falschmeldungen durch KI die Legitimität demokratischer Regierungen untergraben. Generative KI wird bereits heute für Wahlmanipulationen eingesetzt, indem gefälschte Fotos, Texte, Sprachaufnahmen oder Videos erstellt werden. 

Microtargeting, eine weitere KI-Methode, nutzt große Datenmengen, um personalisierte politische Botschaften zu verbreiten. Der Skandal um Cambridge Analytica und der Einsatz von Microtargeting in der Brexit-Kampagne sind prominente Beispiele.  

Auswirkungen auf die Cyber-Sicherheit 

Für Cyberkriminelle eröffnen KI-Technologien neue und effektive Angriffsmöglichkeiten. Angreifer nutzen maschinelles Lernen, um große Datensätze analysieren zu können und Schwachstellen in Computersystemen zu identifizieren. Automatisierte Cyberattacken können darauf basierend entwickelt werden und schnell und präzise eine große Anzahl an Opfern treffen. KI-gestützte, personalisierte Angriffe umgehen die Verteidigungsmechanismen ihrer Ziele und erhöhen so die Erfolgschancen. 

Ein Beispiel dafür sind Phishing-Mails, die mithilfe von KI täuschend echt wirken. Cyberkriminelle nutzen Programme wie ChatGPT, um einwandfreie und überzeugende Nachrichten zu erstellen, um dann persönliche Daten zu stehlen oder Malware zu verbreiten. Ein einziger Klick auf einen schadhaften Link in einer Phishing-Mail kann ein ganzes Unternehmensnetzwerk infizieren. 

Das automatisierte Sammeln von Daten wie Namen, E-Mail-Adressen und Telefonnummern, die für gezielte Angriffe entscheidend sind, werden durch die KI erleichtert. Deepfakes ermöglichen das Erstellen realistischer, aber dennoch gefälschter Bilder, Videos und Audios. Diese werden genutzt, um Falschinformationen zu verbreiten oder ahnungslose Opfer zu betrügen. 

Hacker, auch ohne Programmierkenntnisse, können mit KI-Programmen Schadsoftware und Ransomware generieren. So können IT-Systeme lahmgelegt und Lösegeld erpresst werden. Angesichts dieser Bedrohungen sind umfassende Sicherheitsmaßnahmen und schnelle Reaktionen auf Angriffe unerlässlich. 

Gefahren vorbeugen, Risiken minimieren und Chancen nutzen 

Gefahren können proaktiv verhindert und Risiken auf ein Minimum reduziert werden, indem Unternehmen eine Vielzahl an Maßnahmen ergreifen.  

„Closed API“-Modelle  

Eine effektive Methode ist die Nutzung von „Closed API“-Modellen. Es wird verhindert, dass Daten zur Weiterentwicklung der KI genutzt werden, erfordert jedoch eine strenge Überwachung und eine sichere Authentifizierung der Nutzer. 

Entwicklung eigener KI-Lösungen  

Ein weiterer Ansatz ist die Entwicklung eigener KI-Modelle. Kleinere Modelle wie Metas LLaMA oder Alpaca AI von der Universität Stanford sind kostengünstig und können an die spezifischen Bedürfnisse des Unternehmens angepasst werden. Dies reduziert das Risiko von Datenabflüssen und ermöglicht eine bessere Kontrolle über die KI-Entwicklung.  

Robuste Review-Prozesse  

Robuste Review-Prozesse in der Softwareentwicklung sind ebenfalls entscheidend. Pair-Programming und strenge Code-Prüfungen helfen, Schwachstellen zu identifizieren und zu beheben. Continuous Integration und Continuous Delivery (CI/CD) sind bewährte Praktiken, um Sicherheitslücken durch KI-generierten Code zu minimieren. Diese Maßnahmen sind ein Startpunkt für die sichere Integration von KI-Anwendungen in Unternehmen. 

Chancen für Unternehmen 

Laut einer Studie des Bundesministeriums für Wirtschaft und Energie stiegen 2019 die Ausgaben für KI-Tools auf 4,8 Milliarden Euro während der erzielte Umsatz durch neue KI-Technologien bei 60 Milliarden Euro liegt. Unternehmen können durch den Einsatz von KI-Systemen eine Vielzahl an Vorteilen zur Optimierung betrieblicher Abläufe, insbesondere zur Effizienzsteigerung und Kostensenkung, nutzen. 

  • Senkung der Produktionskosten, indem automatisierte Prozesse und Wartungen ermöglicht werden 
  • Qualitätsverbesserung, durch umfassende Qualitätssicherungsmaßnahmen und präzise Marktanalysen von Kundenwünschen 
  • Fehlerminimierung, indem KI-Systeme repetitive Aufgaben übernehmen 
  • Sicherheit am Arbeitsplatz wird erhöht, indem riskante Aufgaben von KI-Systemen übernommen werden  
  • Mitarbeiter:innenentlastung, durch KI-Systeme im Kundenservice wird die Arbeitsbelastung verringert und die Kundenzufriedenheit  durch schnellere erhöht 
  • Effizientes Recruiting, durch Unterstützung von KI-Systemen bei der Vorauswahl von Bewerber:innen 
  • Echtzeitanalysen über Marktveränderungen und Lagerbestände ermöglichen schnelle Reaktionen auf Veränderungen 
  • Predictive Maintenance ermöglicht eine vorausschauende und reibungslose Wartung von Maschinen und reduziert die Ausfallzeiten 

KI-Regulierungen und Gesetzgebung 

Sowohl Europa als auch die USA haben bedeutende Schritte unternommen, um die Nutzung von KI-Technologien durch gesetzliche Rahmenwerke zu regulieren und sicherzustellen. Beide Regulierungsansätze zielen darauf ab, die Chancen von KI-Technologien zu maximieren. Gleichzeitig sollen die potenziellen Gefahren auf ein Minimum reduziert werden, um die Rechte und die Sicherheit der Bevölkerung zu schützen. Zudem wird angestrebt, das Vertrauen in diese neuen Technologien zu stärken. 

USA 

In den USA dürfen Bundesbehörden künftig nur solche KI-Anwendungen nutzen, die nachweislich die Rechte und die Sicherheit der Bevölkerung wahren. Diese neuen Regeln betreffen unter anderem die Gesichtserkennung an Flughäfen sowie KI-Software zur Kontrolle des Stromnetzes und zur Festlegung von Hypotheken und Versicherungen. Abteilungsleiter:innen müssen diese Vorgaben bis Dezember umsetzen. Zudem müssen Behörden einen KI-Verantwortlichen einstellen und jährlich eine Risikoanalyse der genutzten KI-Programme veröffentlichen. Diese Maßnahmen sind Teil eines Exekutiverlasses von Präsident Joe Biden, der auch den Privatsektor betrifft. 

Europa  

In Europa ist der AI Act der erste umfassende Rechtsrahmen, der die Risiken von KI adressiert und Europa eine führende Rolle sichert. Das KI-Gesetz legt klare Anforderungen und Pflichten für Entwickler:innen und -Anwender:innen fest und zielt darauf ab, administrative und finanzielle Belastungen für Unternehmen, besonders kleine und mittlere Unternehmen (KMUs), zu verringern. Das Gesetz stellt zudem auch sicher, dass KI-Systeme ethische Grundsätze respektieren und die Risiken hochleistungsfähiger KI-Modelle minimieren. Es beinhaltet Maßnahmen zur Risikoanalyse, das Verbot unannehmbarer Praktiken, klare Anforderungen an Hochrisiko-Anwendungen und eine Governance-Struktur auf europäischer und nationaler Ebene.  

Fazit  

Künstliche Intelligenz bietet immense Vorteile in Bereichen wie Cybersicherheit, Wirtschaft und Unternehmensprozessen. Gleichzeitig birgt sie erhebliche Risiken, darunter Datenschutzverletzungen, Arbeitsplatzverluste und ethische Herausforderungen. Um die Chancen von KI optimal zu nutzen und die Gefahren zu minimieren, sind eine verantwortungsvolle Anwendung und strenge Regulierungen unerlässlich. Nur durch gezielte Steuerung, Transparenz und ethische Standards kann das Vertrauen in diese Technologie gestärkt und ihr volles Potenzial sicher ausgeschöpft werden. 

Mehr zur Business Area:
Information Security

Insights

EFS Whitepaper Die Verordnung zur Künstlichen Intelligenz verstehen
Whitepaper | Leitfaden durch den Artificial Intelligence Act
AI first, Bedenken second?

Mit Jonas Wagner & David Oliva

Auf diesem Bild ist ein Auto zu sehen, das mittels Sensoren andere Verkehrsteilnehmer:innen erkennt.
Whitepaper | UNECE R157 & Autonomes Fahren
Neue Maßstäbe in der Informationssicherheit: Die ISO/IEC 27001 (2022)