摘要:现有大多遥感图像超分辨率方法,无法充分挖掘图像中混合尺度的自相似性信息和跨尺度区域间的关联信息,且忽略了频率域对感知图像高频信息的能力。针对这一问题,本文提出了一种空间自适应及频率融合网络(Spatial Adaptation and Frequency Fusion Network, SAF2Net)。SAF2Net首先引入一种混合尺度空间自适应特征调制模块,采用类似于特征金字塔的方式获取不同尺度下的判别特征,丰富多尺度特征的表达能力。随后,设计了一个全局多尺度感受野选择块,挖掘跨尺度区域间的关联特征。在此基础上,引入空间自适应选择块和频率分离选择块,融合空间-频率互补信息以增强局部特征,提高模型对图像高频内容的建模能力。在两个公开遥感图像数据集上进行多组实验,SAF2Net获得的定量评价指标结果均优于其他对比方法。以UCMerced数据集3倍超分辨率为例,本文方法相较于次优方法HAUNet,PSNR和SSIM分别提升了0.11 dB和0.003 3;在主观视觉质量方面,SAF2Net能够恢复出更多清晰的纹理细节。实验结果表明,本文所提出的SAF2Net能够从两个不同的角度挖掘混合尺度全局信息,并有效融合空间-频率互补特征,在遥感图像超分辨率任务中表现出具有竞争力的重建性能。
摘要:平面特征作为一种高层几何特征而广泛存在于结构化环境中,对于大多数同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)系统来说是个很好的补充。为了解决特征点与平面特征融合时引入了新的误差并且平面存在着退化的可能,本文提出了一个融合异质特征的单目视觉惯性SLAM系统。首先从灰度图像中提取特征点;其次对特征点集合进行三角剖分,并将三角剖分的结果转换到世界坐标系下;接着将初始化过程建模为有约束的优化问题,并用交替方向乘子法分布式求解;然后对相似平面进行聚类,并用所提出的平面碰撞概率模型拟合平面,得到对应的有界平面参数;最后在因子图中引入了平面特征的几何约束,通过误差模型同时优化相机运动以及平面参数。与典型的视觉惯性SLAM系统VINS相比,本文提出的系统在EuRoC数据集的绝对轨迹误差平均值降低了50%;在TUM-Ⅵ数据集的绝对轨迹误差平均值降低了40%。该方法能够在结构化场景中稳定、连续地工作,并且提高了弱纹理区域的定位精度和鲁棒性。
摘要:现有大多数视觉同步定位与地图构建(Simultaneous Localization and Mapping, SLAM)方法大部分基于静态环境假设,导致其在动态环境中的定位精度显著下降。为解决这一问题,本文提出一种结合目标检测和光流方法的对象级动态SLAM方法。该方法使用目标检测获取对象信息,结合光流和对象重投影技术来识别对象的动静属性,并剔除动态对象上的特征点。随后,寻找检测对象和地图中对象的最佳匹配关系。然后,在关键帧中优化静态对象,同时提出一种动态二次曲面优化策略,用于在对象地图中优化动态二次曲面模型,并追踪动态对象的运动轨迹。最后,重建稠密静态背景。在Bonn和TUM数据集上的实验表明,本文方法的绝对位姿精度提升约44.3%,相对位姿精度提升约19.0%。实验结果表明,本文方法在动态场景中能够实现更精确、更稳健的定位。为进一步验证系统的在线性能,本文还在真实动态场景中对该系统进行了测试,并达到了预期的结果。