Optisch unterstützte autonome Landung von eVTOLs und Flächenflugzeugen
Die Landephase stellt eine herausfordernde Flugphase dar, welche hochpräzise und zuverlässige Navigationslösungen erfordert. Gleichwohl steigert der Wunsch nach einer zunehmenden Automatisierung die Anforderungen an die technischen Systeme weiter. Das Ziel von C2Land ist es, optisch den Landeplatz zu erkennen und daraus die Relativposition des Luftfahrzeugs zu bestimmen, um insbesondere in niedrigen Höhen eine unabhängige und genaue bordautonome Integritätsüberwachung eines satellitengestützten Navigationssystems ohne zusätzliche Bodeninfrastruktur durchführen zu können. Darauf aufbauend können hochpräzise Flugführungs- und Regelungssysteme autonome Landungen bis zum Aufsetzen ermöglichen.
In der aktuellen Projektphase wird ein optisches Lokalisierungssystem für eVTOLs entwickelt. Die informationsreiche visuelle Umwelt wird durch mehrere Kameras im sichtbaren und nahinfraroten Bereich aufgenommen. Daraus werden verschiedene Merkmale des Vertipads mit Methoden der Computer Vision und künstlicher Intelligenz erkannt. Landeplatztypische Markierungen wie Linien, Kreise und Buchstaben werden ebenso verwendet und untersucht wie QR-Code ähnliche ArUco-Marker. Anschließend werden geometrische Beziehungen ausgenutzt, um eine genaue Eigenlokalisation durchzuführen.
Satellitengestütze Navigationssysteme erreichen im Allgemeinen zwar eine ausreichende Genauigkeit um präzise Landungen durchzuführen, jedoch lässt sich die Gültigkeit der Positionslösung nicht ohne weitere aufwendige Bodeninfrastruktur überprüfen. So lassen sich mit heutigen (SBAS) Verfahren die Luftfahrzeuge nur bis zu einer Minimalhöhe von etwa 60 Metern (200 ft) heranführen. Mittels der unabhängigen optischen Lösung kann die Integrität der gesamten Lokalisierungslösung autonom und fortwährend geprüft werden. So kann das Vertrauen in die Gesamtlösung so weit gesteigert werden, dass sie bis zum Aufsetzen verwendbar ist. Dabei werden die Integritätsanforderungen in einem Top-Down Ansatz dynamisch und in einem technologieunabhängigen ganzheitlichen Konzept ermittelt. Der sogenannte Total Capability Approach (TCA) betrachtet das verfügbare Fehlerbudget über alle Systeme hinweg und ermöglicht eine bessere Ausnutzung desselben durch die Einzelsysteme bei gleichbleibender Sicherheit.
In einem weiteren Schritt berücksichtigt das Institut für Flugsystemdynamik der TU München die dynamischen Eigenschaften des komplexen und neuartigen Fluggerätes bei der Generierung von Anflugtrajektorien. Mit Hilfe eines spezialisierten Flugreglers können Steuerbefehle an das Fluggerät gesendet werden und so autonome Landungen durchgeführt werden. Um während der Landung die Sicherheit zwischen Verkehrsteilnehmern zu gewährleisten, entwickelt die f.u.n.k.e Avionics GmbH ein transponderbasiertes Antikollisionssystem und stellt Avionikkomponenten zum Austausch, Aufzeichnung und telemetrischer Übertragung von Systemdaten bereit.
In Zusammenarbeit mit einem deutschen Flugtaxi-Unternehmen wird das C2Land-System in ein eVTOL als Versuchsträger eingebaut, in mehreren Messkampagnen weiterentwickelt und validiert. Zum Ende der Projektlaufzeit soll so eine vollautomatische Landung ohne zusätzliche Bodeninfrastruktur dieses Fluggeräts gezeigt werden.
Auch für Flächenflugzeuge werden vollautomatische Landungen bislang regelmäßig nur bei schlechten Sichtbedingungen und unter Einsatz aufwendiger Bodeninfrastruktur durchgeführt. Um das Potential von satellitengestützter Inertialnavigation (GNSS/INS) bis zur Landung unabhängig von weiterer Infrastruktur nutzbar zu machen, wurde eine optische Ortungslösung zur bordautonomen unabhängigen Integritätsüberwachung entwickelt.
Mit Kameras, die im sichtbaren und im infraroten Bereich operieren, sowie speziell entwickelten Bildverarbeitungsverfahren wird die Landebahn optisch detektiert und die Relativposition des Flugzeugs bestimmt. Mittels der präzisen und zuverlässigen Navigationslösung kann eine spezialisierte Regelung den Anflug steuern und sicher auf der Mittellinie aufsetzen. Gemeinsam mit der TU München und mit dem Flugzeughersteller Diamond Aircraft Industries GmbH (DAI) konnte erstmals eine vollautomatische Landung mit optisch-unterstützter GNSS/INS Navigation demonstriert werden.
Das optische Lokalisierungs- und Unterstützungssystem wird nun auf weitere Flugphasen, wie Rollen, Start und Reiseflug erweitert und der Einsatzbereich u.a. auf Nachtflüge ausgeweitet. Neue Entwicklungen im Bereich der Computer Vision und neuronalen Netzen werden stetig untersucht und das System optimiert.
Das Institut für Flugführung besitzt umfassende Erfahrung bei der Entwicklung und Anwendung von bildverarbeitenden Algorithmen im Luftfahrtumfeld. Dabei kommen sowohl Merkmals-basierte Methoden als auch maschinelle Lernverfahren in mehrstufigen und intelligent verbundenen Algorithmen zum Einsatz. Dabei werden bevorzugt Algorithmen untersucht und eingesetzt die nach heutigem Stand eine Luftfahrtzulassung des Systems möglich machen.
Zur Landebahndetektion wird das Bild zunächst in ein Grauwertbild mit definierter Tiefe umgewandelt. Spezielle nichtlineare Verfahren sorgen, insbesondere bei Infrarotbildern, für einen möglichst geringen Informationsverlust. Anschließend erfolgt eine Binärisierung des Bildes, beispielsweise mittels der Otsu-Methode. Kanten oder Konturen werden u.a. mit der Canny-Edge-Detection extrahiert. Gerade Linien werden gefiltert. Filterkriterien identifizieren die linke und rechte Landebahnbegrenzung, Schwelle und Mittellinie. Diese Elemente lassen sich auf große Entfernungen deutlich robuster erkennen als Eckpunkte oder andere Merkmale. Unter Ausnutzung der Beziehungen der projektiven Geometrie lässt sich die Eigenposition in Bezug zur Landebahn bestimmen. Gestützt wird dieses Vorgehen durch Feature-Tracker und optische Flussalgorithmen, welche einen kurzzeitigen Sichtverlust der Landebahn ausgleichen können. Ergänzend werden SLAM-Verfahren untersucht, um das Situationsbewusstsein weiter zu erhöhen. Filter- und Fusionsalgorithmen erzeugen eine gemeinsame robuste Positionslösung.
Das bestehende Datenaufzeichnungssystem und die Algorithmen eignen sich ebenfalls ideal zur Sammlung von Trainings- und Validierungsdaten für maschinelle Lernverfahren. Tiefe neuronale Netze (DNNs) wurden bereits erfolgreich für die Landebahnerkennung trainiert.
Bei Flugtaxis ist der Landeplatz noch nicht vollständig definiert, wird jedoch denen von Helikoptern ähneln. Hier können prinzipiell mit geringen Modifikationen die bestehenden Verfahren zur Erkennung benutzt werden. Markierungen können nach Breite und Farbe gefiltert werden. Da Eckpunkte gut erkennbar sind, lässt sich durch Aufstellen des Perspective-n-Point (PnP) Problems und einer Bündelblockausgleichung eine Position berechnen. Werden zusätzlich QR-Code ähnliche ArUco-Marker benutzt, lässt sich durch Auslesen des binären Codes das Vertrauen in die korrekte Detektion weiter steigern. Kreisrunde Landeplätze können durch geometrische Kreis-Ellipsenbeziehungen lokalisiert werden.
Bei der Entwicklung wird auf geeignete Bibliotheken und Frameworks wie OpenCV und TensorFlow zurückgegriffen. Wir untersuchen ständig neue Verfahren und freuen uns über Mitarbeit im Rahmen von studentischen Arbeiten und Hiwi-Tätigkeiten.
Dekiert, Andreas & Hübner, Finn & Scholz, Lukas & Bestmann, Ulf. (2022). Nonlinear Temperature Mapping for Infrared-Based Landing Site Detection. 10.1109/DASC55683.2022.9925755.
Scholz, Lukas & Dekiert, Andreas & Hübner, Finn & Bestmann, Ulf. (2022). Concept for Sensor and Processing Equipment for Optical Navigation of VTOL during Approach and Landing. 10.1109/DASC55683.2022.9925802.
Hübner, Finn & Wolkow, Stephan & Dekiert, Andreas & Angermann, Maik & Bestmann, Ulf. (2020). Assessment of Optical Markers for On-Board Autonomous Localization of eVTOLs during Landing. ICRAT 2020.
Hecker, Peter & Angermann, Maik & Bestmann, Ulf & Dekiert, Andreas & Wolkow, Stephan. (2019). Optical Aircraft Positioning for Monitoring of the Integrated Navigation System during Landing Approach. Gyroscopy and Navigation. 10. 216-230. 10.1134/S2075108719040084.
Angermann, Maik & Wolkow, Stephan & Dekiert, Andreas & Bestmann, Ulf & Hecker, Peter. (2019). Linear Blend: Data Fusion in the Image Domain for Image-based Aircraft Positioning during Landing Approach. Proceedings of the ION 2019 Pacific PNT Meeting. 752-766. 10.33012/2019.16836.
Wolkow, Stephan & Angermann, Maik & Dekiert, Andreas & Bestmann, Ulf. (2019). Model-based Threshold and Centerline Detection for Aircraft Positioning during Landing Approach. Proceedings of the ION 2019 Pacific PNT Meeting. 767-776. 10.33012/2019.16787.
Angermann, Maik & Wolkow, Stephan & Dekiert, Andreas & Bestmann, Ulf & Hecker, Peter. (2019). Fusion of Dual Optical Position Solutions for Augmentation of GNSS-based Aircraft Landing Systems. Proceedings of the 2019 International Technical Meeting of The Institute of Navigation. 283-295. 10.33012/2019.16694.
Wolkow, Stephan & Schwithal, Alexander & Angermann, Maik & Dekiert, Andreas & Bestmann, Ulf. (2019). Accuracy and Availability of an Optical Positioning System for Aircraft Landing. 884-895. 10.33012/2019.16732.
Dekiert, Andreas & Wolkow, Stephan & Angermann, Maik & Bestmann, Ulf & Hecker, Peter. (2019). Advantages and Challenges of using Infrared Cameras for Relative Positioning during Landing. Proceedings of the 2019 International Technical Meeting of The Institute of Navigation. 896-908. 10.33012/2019.16733.
Schwithal, A. & Tonhauser, C. & Wolkow, Stephan & Angermann, Maik & Hecker, Peter & Mumm, N. & Holzapfel, Florian. (2017). Integrity monitoring in GNSS/INS systems by optical augmentation. 2017 DGON Inertial Sensors and Systems (ISS). 1-22. 10.1109/InertialSensors.2017.8171506.
Projekt
C2Land Phase C2
Total Capability Approach zur hochgenauen und sicheren Ortung und Bahnführung ohne bodenseitige Infrastruktur am Beispiel eines automatischen Landesystems