4 min
Lesezeit
"KI ist gekommen, um zu bleiben"
Prof. Dr. Maria Leitner von der Universität Regensburg sieht die aktuellen Veränderungen durch die „disruptive Technologie KI“ gelassen – allerdings nicht, ohne auf ihren unaufhaltsamen Charakter hinzuweisen.
Prof. Dr. Leitner, wo liegen generell momentan die größten Potenziale von KI für kleine und mittlere Betriebe?
Prof. Dr. Maria Leitner: In allen Bereichen, bei denen es um repetitive Tätigkeiten mit einem hohen Anspruch an Genauigkeit geht, kann KI hilfreich sein. Sollen etwa Oberflächen auf Kratzer hin überprüft werden, so arbeitet KI hier unter Umständen nicht nur sorgfältiger als der Mensch, sondern auch ohne Ermüdungserscheinungen. Man sollte sich bewusst machen, dass es schon seit geraumer Zeit viele Techniken gibt, die sich KI zunutze machen, gleichzeitig aber immer wieder neue Potenziale auftauchen, und seit durch ChatGPT mit natürlicher Sprache ein neuer vereinfachter Zugang entstanden ist, mit KIs umzugehen.
Gibt es Branchen oder Bereiche, die besonders profitieren können?
KI ist eine disruptive Technologie und wird als solche alle Branchen und Bereiche betreffen. Sie wird das wesentliche Mittel sein, um die Effizienz zu steigern, was letztlich für alle in irgendeiner Weise notwendig ist, um wettbewerbsfähig zu bleiben. Generell empfiehlt sich derzeit der Austausch mit anderen, gepaart mit der Überlegung: Was kann mir wirklich nützen? Wo ergibt der Einsatz von KI für mein Unternehmen Sinn?
Was empfehlen Sie Firmen beim KI-Einsatz mit Blick auf die IT-Sicherheit?
Die wichtigste Frage ist die nach dem Verbleib der eigenen Daten. Ich empfehle grundsätzlich, nur öffentliche Daten in die Verarbeitung zu geben. Denn letzlich muss einem klar sein, dass Systeme wie ChatGPT alle Eingaben auch für Trainingszwecke und möglicherweise anderweitige Ausgaben nutzen. Das lässt sich nur ausschließen, wenn das KI-System klar abgegrenz ist und intern arbeitet.
Was kann KI denn im Hinblick auf die IT-Sicherheit leisten?
Verfahren zur Mustererkennung werden bereits lange in der IT-Sicherheit eingesetzt, beispielsweise für Spamfilter oder für die Erkennung von Angriffen im Netzwerkverkehr. Gerade letztere funktionieren aber – wie jede andere Systemlandschaft auch – nur nach einer Anlernphase, in der Regeln und Schwellenwerte erstellt werden. Stand der Technik sind in diesem Zusammenhang sogenannte SIEM-Systeme, Security Information and Event Management-Systeme, die bei Sicherheitsbedrohungen und Schwachstellen alarmieren und bei der Priorisierung von Vorfällen unterstützen.
Was ist der grundsätzliche Unterschied im Hinblick auf die Sicherheit, wenn KI beteiligt ist?
Die Angriffe unterscheiden sich vom Grundsatz her nicht in einer signifikanten Weise, sondern sind letztlich nur intelligenter. Deepfakes ahmen zum Beispiel Stimmen von Kollegen oder Vorgesetzten nach, wenn es etwa um Angriffe im Stile des CEO-Frauds geht. Unternehmen werden hier in Awareness-Schulungen investieren und sich möglicherweise auch beizeiten einen zweiten Faktor überlegen müssen, mittels dessen sie zweifelsfrei die Identität von medial verbundenen Kommunikationspartnern prüfen können. Cyberangriffe sind in vielen Organisationen bereits Alltag und ich gehe davon aus, dass das Phänomen durch KI weiter zunehmen wird. Unternehmen sollten daher zuallererst üben, Situationen durchspielen und den Ernstfall proben.
Welche künftigen Risiken zeichnen sich aus Ihrer Sicht schon ab?
Generell gilt, dass man viel größere Datenmengen deutlich schneller verarbeiten kann – das kann Unternehmen nützen. Umgekehrt gilt aber auch, dass eine nicht ausreichende Datenbasis in den Anwendungen zu falschen Prognosen führen kann. Unternehmen sollten deshalb großen Wert auf die Konzeption der Trainingsphase legen und unter anderem fragen: Wie lassen sich Transparenz und Fairness durchsetzen?
Nützt es, wenn der Gesetzgeber reagiert? Und wie schätzen Sie den jüngsten Vorstoß der EU zur Regulierung von KI ein?
Den AI-Act halte ich grundsätzlich für wichtig, da er verschiedene Dinge in den Fokus nimmt und zwar nicht nur im Hinblick auf die Anwendungen, sondern auch in Bezug auf die Grundlagentechnologie. Allerdings ist der finale Text des AI-Acts aktuell noch nicht verfügbar und daher bleiben der weitere Verlauf und die Verordnungen im nationalen Recht noch abzuwarten.
Wie gehen Sie persönlich mit KI um?
Ich nutze persönlich auch KI in meiner Forschung, etwa um Muster von Cyberangriffen zu erkennen oder um Prognosen zu errechnen. Wir bauen dazu auch aktuell ein Forschungslabor an der Universität auf. Die Möglichkeiten für den KI-Einsatz nehmen beständig zu, da immer mehr öffentliche Daten für die Forschung zugänglich werden. KI ist gekommen, um zu bleiben und die Rasanz und die Dynamik der aktuellen Entwicklung überrascht nicht, da durch die gesteigerte Digitalisierung diese möglich wurde.
Über die Person:
Prof. Dr. Maria Leitner kommt aus Wien und hat seit rund einem Jahr den Lehrstuhl “KI in der IT-Sicherheit” an der Fakultät für Informatik und Data Science an der Universität Regensburg inne.
© SiMshot.at
Das Interview führte Alexandra Buba.