Die Abteilung unter der Leitung von Prof. Dr.-Ing. Tim Fingscheidt forscht an neuen Methoden und Werkzeugen zur robusten und hochperformanten Signalverarbeitung und Erkennung in den Forschungsfeldern Speech, Vision und Predictive Maintenance.
Machine Learning und Signalverarbeitung sind heute Kernelemente unserer Forschung in den Bereichen Computer Vision, Sprach- und Audioverarbeitung, Datenübertragung, autonome Systeme. Spezifische Forschungsfelder sind Funktionen zur Umfeldwahrnehmung für autonomes Fahren, Sprachverbesserung, Sprach- und Emotionserkennung, Predictive Maintenance, Produktionstechnik, Smartphones, Hörgeräte.
Die mobile Sprachkommunikation wird oft durch Hintergrundgeräusche und akustische Echos gestört, was Algorithmen zur Verbesserung der Sprache erfordert. Auf der anderen Seite ist automatische Spracherkennung durch Siri, Google Home und Amazon Echo bereits allgegenwärtig geworden. Wir betreiben international führende Forschung in einem breiten Spektrum von Methoden der Sprachtechnologie, von denen viele weltweit in Smartphone-Lösungen eingesetzt werden. Das Team leistete Pionierarbeit bei der datengetriebenen Verbesserung von Sprache und setzt heute moderne tiefe neuronale Netzwerke im gesamten Verarbeitungsprozess ein. In der Sprachtechnologie arbeiten wir in DFG-/BMBF-/BMWi-Projekten oder kooperieren mit der internationalen Smartphone- und Hörgeräteindustrie.
Mikrofonsignale können zur mobilen Sprach-kommunikation, zur automatischen Spracherkennung oder zur akustischen Event-Detektion genutzt werden.
Durch die gemeinsame Prädiktion von Tiefenbildern und semantischer Segmentierung in einem gemeinsamen neuronalen Netzwerk können beide Aufgaben von dem erweiterten Szenenverständnis profitieren.
Das Team betreibt international sichtbare Forschung in der Umfeldwahrnehmung auf Basis von Kamera- und LiDAR-Daten. In den Bereichen Objektdetektion/-klassifizierung, semantische Segmentierung und Tiefenschätzung interessieren wir uns vor allem für robuste Verfahren, adversariale Attacken und Verteidigungsstrategien, Domänenanpassung, gelernte Bild- und Videokompression, Corner-Case-Detektion und monokulare Tiefenschätzung. Wir kooperieren mit vielen anderen Universitäten und der Industrie in drei großen nationalen KI-Projekten: KI Absicherung, KI Delta Learning und KI Data Tooling, jeweils mit Budgets von bis zu 20 Mio. €. Unser übergeordnetes Ziel ist es, das autonome Fahren zu ermöglichen.
Ein Großteil unserer Forschung in den Forschungsfeldern Speech und Vision dreht sich um Deep Learning und Prädiktion. Wir sind an verschiedenen Projekten in den Bereichen Predictive Maintenance und Produktionstechnik beteiligt, die meist auf Kamerasensoren, Mikrofonen oder anderen Sensoren basieren. Dank der GPU-Unterstützung laufen unsere Trainingsalgorithmen effizient und ermöglichen eine schnelle Entwicklung und schnelles Prototyping.
Beim Laserstrahl-Hartlöten von Karosseriebauteilen gilt es, in einem Online-Prozess die Qualität der Lötnaht während des Lötvorgangs zu beobachten und ggfs. Prozessparameter anzupassen.
In einer der Challenges des Deep Learning Labs galt es, in Echtzeit Gesichter im Bild zu lokalisieren und Geschlecht und Alter der Person zu schätzen.
Das TU Braunschweig Deep Learning Lab, das ursprünglich als BMBF-Projekt gefördert wurde, haben wir inzwischen als Think Tank für Machine-Learning-Lösungen auf Sensordaten (Speech, Vision, ...) etabliert. Für Studierende bietet es einmal im Jahr ein exklusives Wettbewerbsformat, um praktische Erfahrungen mit modernen Machine-Learning-Frameworks zu sammeln und als Team den Sieg in einer bestimmten Challenge anzustreben. Für die Industrie ist die TUBS.dll eine attraktive Möglichkeit für Sponsoren geworden, mit jungen Expert*innen in Kontakt zu treten und Forschungsprojekte zu Machine-Learning-Aufgaben in der Abteilung zu finanzieren. TUBS.dll verfügt über umfangreiche GPU-Kapazitäten, um den Anforderungen der modernen Lehre und Forschung im Machine Learning gerecht zu werden.