Pour résoudre le problème de la dégradation des capacités de perception en conduite autonome causée par les variations d'éclairage et les interférences multimodales dans des scénarios de trafic complexes, un réseau de fusion d’images infrarouges et visibles basé sur un guidage adaptatif à la fiabilité a été proposé. Cette méthode construit un mécanisme de mesure de la fiabilité au niveau pixel, modélise conjointement la cohérence structurelle et les anomalies d'intensité afin d’évaluer dynamiquement la crédibilité des sources. Au niveau global, une stratégie d’« injection de confiance » est utilisée pour corriger la distribution d’intensité, tandis qu’au niveau des détails, un filtrage guidé adaptatif permet un renforcement compétitif des objets saillants et des textures, combiné à une fonction de perte multi-contraintes pour une optimisation collaborative. Les résultats expérimentaux sur les ensembles de données M3FD et RoadScene montrent que, par rapport à des algorithmes populaires comme DWT, GTF, U2Fusion et Umcfuse, cette méthode améliore en moyenne l’entropie de l’information, l’écart type, la fréquence spatiale, le gradient moyen, l’information mutuelle, la qualité de fusion, l’intensité des bords et la fidélité visuelle de 1,51 %, 16,56 %, 42,36 %, 52,24 %, 38,28 %, 80,51 %, 21,4 % et 17,6 % respectivement ; la précision moyenne dans les tâches de détection d’objets en aval atteint 91,4 %, surpassant les autres méthodes de fusion. Cette approche supprime efficacement les artefacts et le bruit, possède une excellente capacité de généralisation et stabilité dans divers scénarios, améliorant significativement la précision de la perception environnementale des systèmes de conduite autonome.
关键词
fusion d’images; infrarouge et visible; guidage adaptatif selon la fiabilité; cohérence structurelle multimodale; injection fiable; perception en conduite autonome