近日,北京理工大学信息与电子学院吴鑫博士、李伟教授、陶然教授,德国宇航中心洪丹枫研究员、田娇娇研究员,美国密西西比州立大学杜谦教授共同合作,利用主动学习理论以及图像分割技术设计出了新颖的主动精调网络,显著提升了弱监督下的多源遥感数据车辆目标检测精度,实现了在没有准确样本标记情况下的遥感数据目标检测。研究成果以“Vehicle Detection of Multi-source Remote Sensing Data Using Active Fine-tuning Network”为题,发表在摄影测量与遥感领域顶级期刊、国际摄影测量与遥感协会(ISPRS)会刊[ISPRS Journal of Photogrammetry and Remote Sensing, 2020](影响因子IF:7.319)。
图1. 真彩色和DSM遥感图像协同车辆目标检测算法(Ms-AFt)的流程示意图
真彩色、多光谱等高分辨遥感图像拥有丰富的空间结构和纹理信息,然而其对于光照、遮挡以及环境变化等因素十分敏感,而且样本标记高昂的人力物力花费,这使得深度网络在航拍遥感图像目标检测中的性能受限。尤其在许多实际目标检测任务中,由于没有或仅有少量的标记的样本可供网络训练,进一步降低了深度学习在遥感目标检测中的实用性。针对这一重要的挑战,团队借助于DSM提供的高层信息,与主动学习理论和无监督的物体分割技术相结合,提出了一个新颖的主动精调网络(Ms-AFt)目标检测算法。该网络集多源遥感数据、物体定位分割、主动分类学习以及目标检测网络精调为一体,设计出了一个针对弱标记甚至无标记样本情况下的遥感目标检测框架,利用DSM的高层信息有效地定位和分割出大量的潜在目标物体,将这些物体输入主动分类网络筛选出质量高的伪标记样本,这些大量的样本对可作为任意目标检测网络的输入输出,训练出高性能的检测网络。论文基于三个航拍遥感数据库验证了该算法在目标检测中性能的优越性和有效性。
论文链接:
https://www.sciencedirect.com/science/article/pii/S092427162030174X?dgcid=author