摘要:目标检测是遥感影像解译当中最重要的任务之一。当前,基于深度学习的遥感目标检测模型大多依赖于预定义的锚框,且往往忽略了场景中的上下文信息,导致检测性能和泛化能力受限。基于此,本文提出了一种面向遥感影像目标检测的场景关联无锚框YOLO网络(Scene Related Anchor-Free YOLO,SRAF-YOLO)。SRAF-YOLO首先引入了一种场景增强的多尺度特征提取模块,通过将场景特征与目标特征融合,生成富含场景上下文信息的场景增强特征,并进一步利用多尺度操作提取包含场景语义的多尺度特征,有效引入场景上下文信息。在此基础上,设计了一种场景辅助无锚框检测头,利用特征图中的场景信息对目标类别预测进行约束,以提升检测精度,同时无锚框结构有效减少了锚框相关参数的计算量。在RSOD和NWPU VHR-10数据集上的实验结果表明,SRAF-YOLO通过融合场景信息和无锚框机制提升了目标检测精度,平均精度均值(mAP)分别达到94.58%和95.95%,相较于基线模型YOLOv8分别提升了1.51%和3.0%,并优于其他对比方法。在外部数据集上的验证结果进一步证实,该算法具备良好的泛化能力。