Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Chancen und Risiken von KI

Whitepaper
Das Whitepaper "Künstliche Intelligenz und IT-Sicherheit" der Plattform Lernende Systeme. (Quelle: Plattform Lernende Systeme)

Die Vernetzung im Zuge der Digitalisierung macht Unternehmen, öffentliche Institutionen und Smart Homes zunehmend verwundbar durch Cyberangriffe. KI-Systeme unterstützen IT-Fachkräfte künftig dabei, Sicherheitslücken aufzuspüren, Angriffe schneller zu erkennen und abzuwehren sowie die Identität von Personen sicherzustellen – etwa durch Erkennung von Sprache oder nutzerspezifische Tastatureingaben. Die Autoren des Whitepapers "Künstliche Intelligenz und IT-Sicherheit" der Plattform Lernende Systeme betonen jedoch, dass die letzte Entscheidungsinstanz immer der Mensch sein müsse. So können KI-Systeme den Fachkräftemangel im Bereich IT-Sicherheit zwar milden, indem sie Routineaufgaben zur Prüfung der IT-Sicherheit übernehmen, menschliche Spezialisten aber nie ersetzen. "Zwischen Angreifern und Verteidigern der IT-Sicherheit entfacht die KI einen neuen Wettlauf. Unternehmen und Behörden müssen deshalb rasch entsprechende Kompetenzen aufbauen und in neue Technologien investieren. Auch die Ausbildung von IT-Fachkräften muss angepasst werden, um den Angreifern weiterhin einen Schritt voraus zu bleiben", fordert Jörn-Müller Quade, Leiter der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme und Inhaber des Lehrstuhls für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT).

 

KI gibt auch den Angreifern neue Werkzeuge an die Hand, um Schwachstellen in IT-Systemen zu finden, ihre Schadprogramme zu optimieren und Authentifizierungsverfahren zu unterlaufen - indem sie beispielsweise Tippmuster imitieren. Besonders Social Engineering könnte zum Massenphänomen werden, also Angriffe, bei denen Menschen so getäuscht werden, dass sie dem Angreifer freiwillig Passwörter oder Bankdaten verraten. Benötigt man bislang Menschenkenntnis und Hintergrundwissen, um beispielsweise eine Phishing-Mail an den Stil des Absenders anzupassen und so zu tarnen, können KI-Systeme künftig hocheffizient online verfügbare Informationen sammeln, um etwa eine E-Mail auf die Zielperson einer Attacke zuzuschneiden.

 

Auch KI-Systeme selbst können künftig Ziel von Hackern sein. Sensible Daten, beispielsweise in der Gesundheitsversorgung, gilt es vor Missbrauch zu schützen. Ebenso könnten Daten, die lernende Algorithmen verarbeiten, manipuliert werden. Dies kann zum Beispiel die Vorhersagen von KI- Anwendungen im Wertpapierhandel verfälschen oder autonome Fahrzeuge zu Fehlentscheidungen verleiten. Datenschutzerhaltende Lernalgorithmen und die Resilienz von KI-Systemen gegen Manipulation müssen deshalb noch intensiver erforscht werden.

 

Siehe auch:

https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/20190403_Whitepaper_AG3_final.pdf

Zurück