News

„Alexa, lande das Flugzeug!“ – Auf dem Weg zur erklärbaren und zertifizierbaren KI für die Luftfahrt

Warum entscheidet KI, wie sie entscheidet?

Man kennt die Debatte aus der Autobranche über das Thema autonomes Fahren. Sicherheitsfrage und Grenzfälle werden gesellschaftlich viel diskutiert, da KI dort nicht berechenbar scheint. Mit diesen Fragestellungen beschäftigt sich die sogenannte erklärbare Künstliche Intelligenz (engl. Explainable AI oder XAI). Relevant ist XAI besonders, wenn die KI sicherheitsrelevante Entscheidungen treffen muss, beispielsweise, wenn sie ein Fluggerät autonom landen soll.

Warum sind die Entscheidungen von KI nicht nachvollziehbar?

Heutzutage feiern tiefe neuronale Netze einen Erfolg nach dem anderen. Das sind komplexe mathematische Strukturen mit teilweise über einer Milliarde Parametern. Im Gegensatz zu konventionellen Algorithmen werden sie nicht programmiert, sondern man trainiert sie mit einer großen Menge an Beispieldaten. Für Problemstellungen wie z. B. das Erkennen von Objekten in Bildern oder das Verstehen von Sprache erreichen sie eine hohe Genauigkeit. Wegen der hohen Komplexität ist es für den Menschen jedoch nur bedingt nachvollziehbar, wie ein tiefes neuronales Netz zu einer bestimmten Entscheidung gelangt ist. Man spricht hier oft von einer „Black Box“, da man in vielen Fällen nicht genau weiß, wie ein KI-Modell im Inneren funktioniert.

Wie funktioniert XAI?

Mit Hilfe verschiedener Methoden aus dem Bereich der XAI ist es möglich, mehr Licht ins Dunkel zu bringen. Über eine sogenannte Heatmap kann man Regionen in einem Bild markieren, die besonders zu der Entscheidung des neuronalen Netzes beigetragen haben. Der Mensch kann so nachvollziehen, auf welche Bildmerkmale die KI geachtet hat, oder ob sie z. B. versehentlich die Bildunterschrift in die Entscheidung mit einbezogen hat. Eine weitere Möglichkeit ist, ein Modell zu verwenden, welches von vornherein gut interpretierbar ist (beispielsweise eine logistische Regression). Das Ergebnis wird so nachvollziehbar. Allerdings sind interpretierbare Modelle oft weniger genau, sodass man hier abwägen muss, was wichtiger ist.

Warum braucht man XAI in der Luftfahrt?

Wenn in Zukunft „Pilot KI“ das Flugzeug landen soll, muss diese KI durch einen stringenten Zertifizierungsprozess. Die EASA erarbeitet gerade erste Leitfäden, wie so etwas funktionieren könnte und was man beachten muss. Ein erstes Dokument für KI in Assistenzfunktionen wurde im April 2021 veröffentlicht. Auch die EUROCAE arbeitet in der Working Group 114 an diesem Thema und hat bereits ein erstes Dokument mit einer Analyse der Lücke zwischen KI-Methoden und Luftfahrtstandards veröffentlicht. Die Erklärbarkeit von KI spielt beim Zertifizierungsprozess eine große Rolle und kann den Einsatz von KI in Fluggeräten erleichtern.

Was macht das ZAL in diesem Bereich?

Im Juni 2021 hat die ZAL GmbH mit einem Forschungsvorhaben zu XAI in der Luftfahrt begonnen. Ziel ist es, anhand von Anwendungsfällen aus der Luftfahrt Methoden für XAI zu erarbeiten, die eine Zertifizierung ermöglichen.

Die ZAL Expert:innen werden methodisch eine sogenannte Strukturelle Inspektion von neuronalen Netzen durchführen. Das bedeutet das KI-Team wird sich z. B.  visuell ausgeben lassen, welche Bildbereiche für die Entscheidungen der KI besonderes relevant sind.

Als Anwendungsfall entwickelt das Team ein Programm, das geeignete Landeplätze für Drohnen finden soll: Sowohl für den Regelbetrieb als auch für den Fall, dass die Drohne notlanden muss. Dafür werten die Expert:innen Bilder einer Onboard-Kamera mit Hilfe von KI aus, um herauszufinden was die KI dazu bewegt hat einen Ort als geeignet zu bewerten.

Haben Sie Fragen oder Anregungen zum Thema? Dann freuen wir uns über Ihre Nachricht an