Die Leistungsfähigkeit der Umfelderfassung gilt als primär limitierender Faktor für das Gesamtverhalten eines Fahrerassistenzsystems sowie für zukünftige automatisierte Fahrfunktionen. Die Anforderungen an die Sensoren (in der Regel Video- und Radarsensoren), die Sensordatenfusion und der daraus abgeleiteten Perzeption steigen mit dem Automatisierungsgrad. Höhere, zuverlässige Erkennungsraten mit hoher Ausfallsicherheit sind hier ein Teil der Herausforderungen.
iFUSE hat sich zum Ziel gesetzt, einen neuartigen Ansatz der Sensordatenfusion zu entwickeln, der eine Verortung der heterogenen Sensorinformationen in Rasterkarten bis auf Pixelebene ermöglicht, was bezüglich Redundanz, Erkennungsrate, System-Robustheit und Systemleistung einen großen Innovationssprung erwarten lässt.
Die Umsetzung des innovativen Sensorkonzepts ist auf skalierbaren Hardwareplattformen unter Einhaltung der Echtzeitanforderungen vorgesehen bis hin zu Design-Untersuchungen an einem hochintegrierten ASIC Baustein. Dabei werden insbesondere neue Konzepte der Datenkombination der verschiedenen Quellen (Radar, Video und ggf. Lidar) auf hierarchischen, leicht erweiterbaren Rechnerarchitekturen in verschiedenen Verarbeitungsebenen berücksichtigt und prototypisch umgesetzt. Dabei stellen die Echtzeitanforderungen, das Speichermanagement und die Verbindungen zwischen den einzelnen Komponenten wesentliche Herausforderungen dar. Die Verifizierung ist anhand einer anspruchsvollen Fahrsituation im Kreuzungsbereich geplant.
Das iFUSE Projekt ist in die folgenden 8 Arbeitspakete gegliedert.