Zur Lösung des Problems der Verschlechterung der Wahrnehmungsfähigkeit beim autonomen Fahren, verursacht durch Lichtveränderungen und multimodale Störungen in komplexen Verkehrsszenarien, wird ein auf zuverlässigkeitsadaptiver Steuerung basierendes Fusionsnetzwerk für Infrarot- und sichtbare Bilder vorgeschlagen. Die Methode basiert auf der Erstellung eines Pixel-basierenden Zuverlässigkeitsbewertungsmechanismus, der die strukturelle Konsistenz und Intensitätsanomalien gemeinsam modelliert, um die Vertrauenswürdigkeit der Quelle dynamisch zu bewerten. Auf globaler Ebene wird eine „vertrauenswürdige Einspritzung“-Strategie zur Korrektur der Intensitätsverteilung eingesetzt, auf Detailebene wird durch adaptives geführtes Filtern eine konkurrierende Verstärkung auffälliger Ziele und Texturen realisiert, kombiniert mit einer Multi-Constraint-Verlustfunktion zur kooperativen Optimierung. Die Experimente auf den Datensätzen M3FD und RoadScene zeigen, dass diese Methode im Vergleich zu populären Algorithmen wie DWT, GTF, U2Fusion und Umcfuse die Informationsentropie, Standardabweichung, räumliche Frequenz, durchschnittlichen Gradienten, gegenseitige Information, Fusionsqualität, Kantenschärfe und visuelle Informationsgenauigkeit durchschnittlich um 1,51 %, 16,56 %, 42,36 %, 52,24 %, 38,28 %, 80,51 %, 21,4 % bzw. 17,6 % verbessert; bei nachfolgenden Objekterkennungsaufgaben wird eine durchschnittliche Genauigkeit von 91,4 % erreicht, was andere Fusionsmethoden übertrifft. Die Methode unterdrückt effektiv Artefakte und Rauschen, besitzt eine ausgezeichnete Szenarien-Generalität und Stabilität und steigert signifikant die Umweltwahrnehmungsgenauigkeit autonomer Fahrsysteme.
关键词
Bildfusion; Infrarot und sichtbar; zuverlässigkeitsadaptierte Führung; multimodale strukturelle Konsistenz; vertrauenswürdige Einspritzung; Wahrnehmung im autonomen Fahren