Bei der Detektion von Fahrzeugzielen unter komplexen Wetterbedingungen führt die Unschärfe und Verdeckung von Zielen zu einer deutlichen Verringerung der Genauigkeit der Fahrzeugdetektion. In diesem Zusammenhang wird ein verbessertes Fahrzeugdetektionsverfahren YOLO-CGT vorgeschlagen, das auf der YOLOv8-Struktur für Szenen mit Bildern von Fahrzeugkameras basiert. Durch die Einführung mehrerer Verbesserungen in der YOLOv8-Struktur wird die Detektionsstabilität in komplexen Umgebungen signifikant erhöht. Hierbei wird ein Mehrskalen-Residuen-Aggregationsmodul entworfen, um die C2f-Struktur im Originalnetzwerk zu ersetzen, um die Verwendung von Rohinformationen zu verbessern und das Problem des Gradientenverschwindens aufgrund der Tiefe des Netzwerks zu reduzieren. Ein räumliches Aggregationsmodul wird eingeführt, um globale Informationsextraktion und lokale Informationswahrnehmung zu verschmelzen. Ein leichtgewichtiges dynamisches Detektionskopfdesign wird vorgestellt, um ein Gleichgewicht zwischen Detektionsgenauigkeit und Effizienz zu gewährleisten. Ein inneres Mindestpunktabstands-Intersection-over-Union (Inner-Minimum Points Distance Intersection over Union, Inner-MPDIoU) Maß wird eingeführt, um traditionelle IoU zu ersetzen und das Problem der Überlappung von Zielrahmen zu reduzieren. Nach dem Training und der Validierung auf einem Fahrzeugdatensatz unter komplexen Wetterbedingungen zeigen die experimentellen Ergebnisse, dass die durchschnittliche Detektionsgenauigkeit dieser Methode 81,4% beträgt, was eine Steigerung von 6,3% im Vergleich zu bisherigen Verfahren darstellt. Die Modellparameter betragen 3.259106, die Berechnungsmenge beträgt 9,7GFLOPs und gewährleistet gleichzeitig die Fähigkeit des leichten Bereitstellungsmodells, die Genauigkeit signifikant zu verbessern. Diese Forschungsmethode stellt eine wirksame Gewährleistung für den sicheren und stabilen Betrieb von autonomen Fahrsystemen dar.