Das DPMA

Inhalt

KI: Weltweit auf dem Vormarsch, aber nicht ganz durchschaubar

Symbolbild nachdenklicher Roboter

Aktuelles Interview zum Thema „Künstliche Intelligenz“

Dr. Josef Fleischmann, Gruppenleiter und Prüfer beim DPMA im Sachgebiet Datenverarbeitung und Informationstechnik, im Gespräch über Chancen und Risiken bei Entwicklung und Einsatz künstlicher Intelligenz.

Warum ist KI plötzlich in aller Munde?

Dass künstliche Intelligenz mittlerweile sogar im „Tatort“ eine Rolle spielt, zeigt, dass das Thema in der Mitte der Gesellschaft angekommen ist. Die ersten Forschungsergebnisse auf diesem Gebiet wurden übrigens schon in den 1950er Jahren publiziert. Aber erst mit der breiten Verfügbarkeit leistungsfähiger Computer, die rechenaufwendige Lern- und Trainingsverfahren durchführen können, hat die KI neuen Schub bekommen. Gleichzeitig stiegen in den letzten Jahren die Datenmengen enorm an, die in allen Bereichen der Technik und der Gesellschaft erfasst und gesammelt werden. Dadurch wiederum nahm der Bedarf an automatisierten Methoden zur Auswertung dieser Daten deutlich zu.

Was ist denn eigentlich so besonders an KI?

Das Faszinierende besteht darin, dass mit dieser Technologie versucht wird, die Funktionsweise des Gehirns eines Lebewesens nachzuahmen: Entwickler erstellen Modelle von neuronalen Netzen und „trainieren“ sie mit Daten, um beispielsweise Objekte in Bildern erkennen oder handgeschriebene Texte maschinell erfassen zu können. Dadurch können Computer bestimmte kognitive Aufgaben lösen, die bisher nur dem Menschen gelangen. Mit dem entscheidenden Vorteil, dass bei entsprechender Skalierung der Rechenleistung oder dem Einsatz spezieller Hardware viel größere Datenmengen ausgewertet werden können, als es uns Menschen möglich wäre. Außerdem dauern die Analyse einer Situation und die entsprechende Reaktion darauf sehr viel kürzer.

Wie macht sich das im Alltag bemerkbar?

Foto Dr. Josef Fleischmann

Dr. Josef Fleischmann

Nehmen Sie Ihr Smartphone: Durch Verbreitung immer leistungsstärkerer Geräte sind KI-Methoden in den Alltag eingezogen. Zum Beispiel in Form der Sprachassistenzsysteme oder in der Möglichkeit, in den eigenen digitalen Bildern Gesichter von Personen identifizieren und zuordnen zu lassen. „Smarte“ Assistenten im Handy versuchen anhand von erkannten Regelmäßigkeiten, ihrem Nutzer eine zur momentanen Situation passende Information anzubieten, indem sie Vorschläge machen oder Hilfe anbieten.

Was gibt es darüber hinaus für Anwendungsgebiete?

Eine der wichtigen Fähigkeiten von KI-Systemen liegt in der Erkennung und Klassifizierung von Mustern und Regeln in Datenmengen. Daraus haben sich typische Anwendungen ergeben wie die Erkennung von Handschriften oder das Erlernen von Spielen, wie z.B. Schach oder Go. In den letzten Jahren wurden KI-Methoden zunehmend in der Bildverarbeitung zur Erkennung von Objekten eingesetzt, beispielsweise in der Robotik, in autonomen Fahrzeugen oder in der medizinischen Diagnostik.

Welche weiteren Entwicklungen sind in nächster Zeit zu erwarten?

Durch die Fortschritte in der medizinischen Bildgebung können die Prozesse, die im menschlichen Gehirn bei bestimmten Denkvorgängen ablaufen, besser nachvollzogen werden, etwa ein Zeitverhalten bei der Ausbreitung von Signalen zwischen den Gehirnzellen. Diese Erkenntnisse ermöglichen dann wieder entsprechend genauer modellierte künstliche neuronale Netze. Und diese sind dann wahrscheinlich deutlich leistungsfähiger als die heutigen Lösungsansätze.

Wo liegen die Nachteile oder Risiken?

Symboldbild Gehirn und Platinen

Nach meinem Verständnis liegt derzeit ein Nachteil darin, dass Methoden wie „deep learning“ mit neuronalen Netzen zwar aktuell sehr verbreitet und erfolgreich eingesetzt werden, aber die Theorie dahinter noch nicht vollständig durchdrungen ist.
Ein Beispiel: Eine KI gibt an, dass es sich bei einem Tierbild mit 90 Prozent Wahrscheinlichkeit um eine Katze handelt. Wir wissen aber nicht, aufgrund welcher Kriterien die KI zu diesem Schluss kommt; wir wissen nicht, was sie zu glauben meint. Diese Frage ist daher Gegenstand der Forschung.

KI ist also in gewisser Hinsicht eine Art „black box“?

Zu einem gewissen Grad, ja. In diesem Zusammenhang wird oft auch das Phänomen der sogenannten „adversarial examples“ diskutiert, das in gewisser Weise fasziniert: In so einem Fall wird z.B. ein zu beurteilendes Bild (in „böser“ Absicht) geringfügig speziell modifiziert. Die führt dazu, dass die KI darauf ein völlig falsches Objekt erkennt, während der Mensch in dem geänderten Bild meist gar keinen Unterschied zum Original ausmachen kann.

Hier besteht also offenbar noch viel Forschungsbedarf.

Ja, die Wissenschaft will den Entscheidungsprozess in neuronalen Netzen transparenter machen. Man will quasi von einem „black box“- zu einem „gray box“-System kommen, bei dem man zumindest teilweise transparent machen kann, warum ein KI-System die eine oder die andere Entscheidung trifft.

Sehen Sie weitere Risiken?

Ein ganz anderer Nachteil könnte darin gesehen werden, dass mit den derzeitigen Methoden beim Trainieren zunehmend komplexer neuronaler Netze mit großen Datenmengen ein enormer Rechenaufwand erforderlich ist. Es gibt daher Bedenken, dass nur die wirklich großen IT-Firmen, denen enorme Rechen- und Speicherkapazitäten und finanzielle Mittel zur Verfügung stehen, zukünftig in der Lage sein werden, entsprechend leistungsfähige KI-Lösungen anzubieten.

Weitere Beiträge im KI-Dossier:

nach oben

iStock.com/phonlamaiphoto, J. Fleischmann, iStock.com/wigglestick

Stand: 07.06.2019 

Position

Sie befinden sich hier: