Im Grunde interessiert uns eigentlich gar nicht so sehr, wie gut eine Künstliche Intelligenz funktioniert, sondern wie schlecht bzw. wo die Schwachpunkte der KI-Systeme liegen. Das heißt, wir versuchen in unserer täglichen Arbeit letztendlich genau diese Schwachpunkte zu identifizieren. Dabei ist das Ziel, die KI-Systeme so zu "stressen", dass sie fehlerhafte Klassifikationen durchführen.
"Spielverderber" bin ich also in der Hinsicht, dass ich als strenger Prüfer auf KI-Systeme blicke und mich daher vor allem damit beschäftige, was eigentlich schief laufen kann und mit welcher Wahrscheinlichkeit. Im besten Falle werden so bereits im Rahmen der Entwicklung Schwachstellen aufgedeckt, sodass diese frühzeitig eliminiert werden können.
KI hat letztlich Auswirkungen auf viele verschiedene Bereiche, also eigentlich auf jeden Aspekt des modernen Lebens. Was unter anderem auch darin begründet liegt, dass sie sich rasant weiterentwickelt. Das heißt, die Entwicklungsschritte werden ständig kürzer und die Effekte immer größer.
Vor einigen Jahren hätten sich viele wahrscheinlich nicht vorstellen können, dass vor allem akademische Berufe zuerst von KI betroffen sein würden. Allerdings wirkt sich die Technologie schon heute beispielsweise auf Medizin oder Softwareentwicklung aus. Und das sind nur zwei Beispiele für Gebiete, von denen lange Zeit jeder dachte, dass Menschen hier unersetzbar sind.
Die Kehrseite der Medaille ist jedoch, dass mit der zunehmenden Verbreitung und Automatisierung auch die Risiken steigen. Beides ist also unmittelbar miteinander verbunden.
KI hat die Eigenart, dass sie einerseits zwar sehr gut und zuverlässig funktioniert, sich in manchen Situationen aber wiederum auch völlig falsch verhalten kann. Ein gutes Beispiel hierfür ist eine smarte Überwachungskamera, die ich selbst besitze: Sie verfügt grundsätzlich über die Fähigkeit, zwischen Haustieren und Menschen zu unterscheiden. So soll verhindert werden, dass jedes Mal ein Fehlalarm ausgelöst wird, wenn beispielsweise eine Katze durchs Bild läuft. Häufig ist es jedoch so, dass die Kamera einen Menschen, abhängig vom Winkel, auch als Katze identifiziert. Oder dass eine Person – und das habe ich selbst ausprobiert –, wenn sie eine Katze auf den Arm nimmt, nur noch als Haustier erkannt wird.
In der Praxis gibt es natürlich noch viel mehr Beispiele. Sehr plakativ sind auch Verkehrsschilder, die von selbstfahrenden Autos nicht mehr oder sogar falsch erkannt werden, wenn sich Schmutz auf ihnen befindet.
Aktuell existiert noch nicht ganz so viel, aber dank der Normungs- und Regulierungsbestrebungen, wie zum Beispiel dem AI Act, werden langsam immer mehr KI-spezifische Standards herausgegeben. Den "einen" KI-Standard wird es dahingehend natürlich nicht geben, aber es werden für viele Domänen bzw. Anwendungsfälle mehr oder weniger einheitliche Standards entwickelt, die den Rahmen dafür setzen, wie so eine KI sicher und vertrauenswürdig betrieben werden kann, welche Prüfungen sie bestehen sollte oder welche Managementsysteme aufgesetzt werden müssen.
Ziel des Ganzen ist es, die Eigenarten von KI greifbar zu machen, um diese schon möglichst frühzeitig im Entwicklungsprozess entsprechend berücksichtigen zu können.
Zurückhaltender bin ich tatsächlich nicht. Also ich verwende im privaten Bereich schon sehr viel KI und probiere gerne neue Tools oder Systeme aus – vor allem aus persönlichem Interesse. Aber bei mir schwingt im Hinterkopf auch immer der Risikogedanke mit, dass man nicht blind auf diese Systeme vertrauen darf und immer berücksichtigen sollte, dass sie letztendlich nicht die gleiche Vorstellung von der Welt haben wie Menschen. Heißt, sie sind vielleicht in einem bestimmten Bereich sehr gut, aber ändert sich auch nur eine kleine Gegebenheit, wissen sie plötzlich gar nicht mehr, wie sie darauf reagieren sollen.