Aktuelle
Meldungen
Eberbacher Gespräch zu KI, Security und Privacy
Experten geben Handlungsempfehlungen für erfolgreiche Nutzung von Künstlicher Intelligenz im Bereich Cybersicherheit
Trotz zahlreicher Innovationsmöglichkeiten zögern viele Unternehmen und Behörden noch bei der Nutzung von Künstlicher Intelligenz (KI) im Bereich Cybersicherheit. Ein wesentlicher Grund: Die Leistungsfähigkeit von Systemen ist oft nur schwer zu beurteilen. In einem Workshop am Fraunhofer SIT haben Experten aus Wissenschaft und Wirtschaft Empfehlungen erarbeitet, wie Hindernisse für den KI-Einsatz überwunden werden können: Hierzu zählen konkrete Qualitätskriterien und Prüfmöglichkeiten.
Die Cybersecurity-Branche gehört zu den Pionierinnen in der Anwendung der Künstlichen Intelligenz. Sie wird seit Jahren in der Angriffserkennung und bei Virenscannern eingesetzt. Allerdings halten offene Fragen hinsichtlich Sicherheit, Datenschutz und Haftungsrisiken viele Unternehmen und Behörden von der praktischen KI-Nutzung ab. Oft fällt es Anwender-Organisationen schwer zu beurteilen, ob KI-Systeme überhaupt die notwendige Reife für die Praxis besitzen. Gleichzeitig können Hersteller-Unternehmen Sicherheit und Qualität ihrer KI-Produkte nur schwer nachweisen. In Laborumgebungen erkennen KI-Systeme zum Teil sehr gut Angriffsmuster, in realen Internetumgebungen allerdings nicht. Prüfpunkte und entsprechende Benchmarks können hier Anwenderorganisationen- und Herstellerunternehmen eine verlässliche Orientierung verschaffen. Spezifische Mindestanforderungen von Branchenverbänden können Orientierung schaffen und die öffentliche Hand könnte Testzentren unterhalten, welche die Einhaltung der Kriterien prüfen können, etwa für den Einsatz in kritischen Infrastrukturen.
Eine besondere Herausforderung stellt die Verwendung von KI-Systemen durch Angreifer und Saboteurinnen dar. Heute nutzen Unternehmen bereits KI-Systeme zum Schutz des Firmennetzwerks, um Angriffe schneller zu erkennen und zu vereiteln. Angreifende manipulieren die Trainingsdaten solcher Systeme oder nutzen auch selbst KI-Systeme als Angriffswaffen. So können Angreifende eine Firma wiederholt angreifen und das System dadurch besonders gut trainieren. Wechselt der Angreifende das Ziel und attackiert dann ein anderes Unternehmen, kann das trainierte System vielfach ausgeklügelter vorgehen. Um der Verwendung von KI als Angriffswaffe entgegenzuwirken, empfehlen die Teilnehmer des Eberbacher Gesprächs die Entwicklung eines nachprüfbaren Code of Conduct.
Die »Eberbacher Gespräche« des Fraunhofer SIT bieten ein Forum für diesen Dialog. Experten aus Wissenschaft, Wirtschaft und Verwaltung treffen sich für jeweils einen Tag und erarbeiten für ein Thema gemeinsam Antworten auf diese Fragen.
„KI kann in der Cybersicherheit kann wesentlich dazu beitragen, auf aktuelle und zukünftige Bedrohungen in Wirtschaft und Gesellschaft geeignet zu reagieren. Eine Voraussetzung dafür ist, dass die Systeme und ihre Leistungen technisch bewertbar bleiben und spezifische Mindestanforderungen für unterschiedliche Branchen und Anwendungsfelder entwickelt werden“, sagt Prof. Michael Waidner, Leiter des Fraunhofer-Instituts für Sichere Informationstechnologie und ATHENE-Direktor.
Der vollständige Ergebnisbericht mit allen Empfehlungen, vielen Erläuterungen und Praxisbeispielen ist hier kostenfrei herunterladbar.
Zur News-Übersicht