首页 > 专利 > 杭州电子科技大学 > 基于非对称交叉融合的多光谱图像语义分割方法专利详情

基于非对称交叉融合的多光谱图像语义分割方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2022-01-28
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2022-05-24
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-12-02
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2042-01-28
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202210111951.0 申请日 2022-01-28
公开/公告号 CN114445442B 公开/公告日 2022-12-02
授权日 2022-12-02 预估到期日 2042-01-28
申请年 2022年 公开/公告年 2022年
缴费截止日
分类号 G06T7/136G06T7/12G06T7/13G06N3/04G06N3/08 主分类号 G06T7/136
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 4
权利要求数量 5 非专利引证数量 0
引用专利数量 17 被引证专利数量 0
非专利引证
引用专利 CN113902783A、CN113158875A、CN113486899A、CN112784745A、CN107146219A、CN111768375A、CN110751655A、CN111563418A、CN113192089A、CN110619638A、WO2021088300A1、US11189034B1、US2021209754A1、CN113807355A、CN113269787A、CN113192073A、CN111983691A 被引证专利
专利权维持 0 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 李平、陈俊杰、徐向华 第一发明人 李平
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 3
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
陈炜
摘要
本发明公开了基于非对称交叉融合的多光谱图像语义分割方法。本发明方法首先对多光谱图像进行预处理,输入非对称编码器,获得RGB图像和Thermal图像的特征图及其显著置信度,将输入门控交叉融合模块得到融合特征图;将RGB和Thermal图像输入构建的多光谱显著性感知模块,得到对应显著伪标记;将融合特征图输入由转置卷积组成的解码器;使用随机梯度下降算法优化分割网络模型,对新的多光谱图像依次通过上述步骤获得语义分割结果。本发明方法通过非对称编码器提取多光谱图像特征,可有效减少模型计算开销,还利用门控交叉融合机制自适应地对图像的显著区域融合,有利于对像素点的空间分布关系进行建模,获得更优的语义分割性能。
  • 摘要附图
    基于非对称交叉融合的多光谱图像语义分割方法
  • 说明书附图:[转续页]
    基于非对称交叉融合的多光谱图像语义分割方法
  • 说明书附图:图1
    基于非对称交叉融合的多光谱图像语义分割方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-12-02 授权
2 2022-05-24 实质审查的生效 IPC(主分类): G06T 7/136 专利申请号: 202210111951.0 申请日: 2022.01.28
3 2022-05-06 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.基于非对称交叉融合的多光谱图像语义分割方法,其特征在于,该方法首先获取多光谱图像数据集合,然后进行如下操作:
步骤(1)对多光谱数据集进行预处理,将多光谱图像输入至非对称编码器,获得RGB图像的特征图和显著置信度,以及Thermal图像的特征图和显著置信度;具体是:
(1‑1)对多光谱数据集进行预处理操作,得到训练数据集
其中Ii表示第i个增强多光谱图像训练样本,共N个训练样
本,4表示多光谱通道数量,H表示多光谱图像的高度,W表示多光谱图像的宽度,其中表示多光谱由配对的RGB图像与Thermal图像拼接而成, 表示第i个三
通道的RGB图像样本, 表示第i个单通道的Thermal图像样本,上标r表示RGB,上标t表示Thermal;
(1‑2)进行像素级标记,记为标记集合 其中Yi是高为H、
宽为W的矩阵,像素级标记Yi的元素取值为{0,1,…,K},其中K为待分割的类别总数,在训练阶段每张多光谱都有对应的像素级标记,处理新多光谱时不会给出像素级标记;
(1‑3)构建非对称编码器中的RGB编码器,即大型图像库ImageNet上预训练并去除全局池化层与全连接层的卷积神经网络ResNet,对训练数据集 的第i个RGB图像样本Iir依次提取RGB四个编码阶段特征图 其中H1=H/4,W1=W/4,Hj+1=Hj/2,
Wj+1=Wj/2,Hj×Wj表示特征图分辨率,C1<C2<C3<C4表示特征图的通道维度,根据神经网络中间特征图的Hj维度和Wj维度的不同将ResNet分为4个编码阶段,第j个编码阶段为在ResNet中由多个卷积层组成的模块;
(1‑4)构建RGB置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将RGB第四编码阶段特征图 经过RGB置信度预测分类器得到r r
RGB显著置信度Pi,0≤Pi≤1;
(1‑5)构建非对称编码器中的轻量级Thermal编码器,对训练数据集 的第i个Thermal图像样本 依次提取Thermal各个编码阶段特征图 其中Thermal
编码器分为四个阶段,每个阶段均由7×7卷积层、2×2最大池化层和两个结构相同的上下文卷积模块组成;将Thermal图像样本 输入Thermal编码器第一阶段的7×7卷积层、2×2最大池化层,获得浅层视觉特征图 构建上下文卷积模块,具体包含了两条并行的特征提取支路:其中一条支路由1×1卷积层、空洞率为1和分组数为C1的3×3卷积层与1×1卷积层组成;另一条支路由空洞率为2和分组数为C1的3×3卷积层与1×1卷积层组成;每个卷积层之后,经过批归一化操作和线性整流函数,将浅层视觉特征图x输入上下文卷积模块得到第一支路特征图 和第二支路特征图 再经过通道维度上
的拼接得到初级上下文特征图 将初级上下文特征图 输入到第二个
上下文卷积模块,获得高级上下文特征图 再经过一次2×2最大池化层得到第一编码阶段Thermal特征图 将第一编码阶段特征图 输入到
Thermal编码器的后续三个编码阶段获得后续特征图,最终输出四个编码阶段的Thermal特征图
(1‑6)构建Thermal置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将Thermal第四编码阶段特征图 经过Thermal置信度预t t
测分类器得到Thermal显著置信度Pi,0≤Pi≤1;
步骤(2)构建多光谱显著性感知模块,输入为RGB图像和Thermal图像,输出为RGB显著伪标记和Thermal显著伪标记;具体是:
(2‑1)构建多光谱显著性感知模块,将RGB图像 进行静态细粒度显著性计算,得到RGB显著图 将Thermal图像 进行静态细粒度显著性计算,得到Thermal显著图(2‑2)对RGB显著图 通过大津法进行阈值分割得到RGB二值图像 对Thermal显著图 通过大津法进行阈值分割得到Thermal二值图像
(2‑3)计算RGB二值图像 与像素级标记Yi的交并比 计算
Thermal二值图像 与像素级标记Yi的交并比
(2‑4)通过交并比得到两种光谱图像的显著伪标记:RGB显著伪标记
‑7
Thermal显著伪标记 1e 的作用是为了防止除数为零;
步骤(3)构建门控交叉融合模块,输入为RGB图像和Thermal图像的特征图及其显著置信度,输出为融合特征图;
步骤(4)将融合特征图输入由转置卷积组成的解码器,获得预测分割标记;
步骤(5)对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络,使用交叉熵损失函数和L1损失函数进行优化,获得已训练的多光谱图像语义分割网络;
步骤(6)将新多光谱图像输入至已训练的分割网络,输出对应的语义分割结果。

2.如权利要求1所述的基于非对称交叉融合的多光谱图像语义分割方法,其特征在于,步骤(3)具体是:
(3‑1)构建门控交叉融合模块,由光谱引导模块和Sigmoid函数组成,所述的光谱引导模块由1×1卷积层、7×7卷积层、1×1卷积层组成;将Thermal第四编码阶段特征图 输入到光谱引导模块得到Thermal第四编码阶段光谱特征图
(3‑2)将RGB第四编码阶段特征图 输入到新构建的光谱引导模块得到RGB第四编码阶段光谱特征图 将Thermal第四编码阶段光谱特征图 经过Sigmoid函数再
与RGB第四编码阶段光谱特征图 进行逐元素乘法操作,得到RGB第四编码阶段多光谱融合特征图
(3‑3)将RGB第四编码阶段光谱特征图 经过Sigmoid函数,再与Thermal第四编码阶段光谱特征图 进行逐元素乘法操作,得到Thermal第四编码阶段多光谱融合特征图将Thermal第四编码阶段特征图 与Thermal第四编码阶段多光谱融合特
t
征图 进行逐元素相加再乘以Thermal显著置信度Pi,得到Thermal第四编码阶段增强特征图 将RGB第四编码阶段特征图 与RGB第四编码阶段多光谱融合特征图
r
进行逐元素相加再乘以RGB显著置信度Pi ,得到RGB第四编码阶段增强特征图将Thermal第四编码阶段增强特征图 和RGB第四编码阶段增强特征图
进行逐元素相加得到第四编码阶段融合特征图
(3‑4)将Thermal第三编码阶段特征图 和RGB第三编码阶段特征图
输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第三编码阶段融合特征图 将Thermal第二编码阶段特征图 和RGB第二
编码阶段特征图 输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第二编码阶段融合特征图 将Thermal第一编码阶段特征图
和RGB第一编码阶段特征图 输入到新构建的门控交叉融合模块,经
过与(3‑1)~(3‑3)同类操作,获得第一编码阶段融合特征图

3.如权利要求2所述的基于非对称交叉融合的多光谱图像语义分割方法,其特征在于,步骤(4)具体是:
(4‑1)构建由五个转置卷积层组成的解码器,转置卷积即卷积的逆向过程,将第一编码阶段融合特征图fi,1输入到解码器第一个转置卷积层得到第一编码阶段修正特征图(4‑2)将第二编码阶段融合特征图fi,2输入到解码器第二个转置卷积层,得到第二编码阶段修正特征图 将第三编码阶段融合特征图fi,3输入到解码器第三个转置卷积层,得到第三编码阶段修正特征图 将第四编码阶段融合特征图fi,4输入到解码器第四个转置卷积层,得到第四编码阶段修正特征图
(4‑3)将各个编码阶段修正特征图进行通道维度上的拼接,得到集成修正特征图(4‑4)将集成修正特征图ti输入到解码器的第五个转置卷积,得到预测分割标记多光谱图像中每个像素对应的类别为这K个类别中概率最大的类别。

4.如权利要求3所述的基于非对称交叉融合的多光谱图像语义分割方法,其特征在于,步骤(5)具体是:
(5‑1)将预测分割标记 与像素级标记Yi作为输入,利用交叉熵损失函数计算损失值h表示像素点纵轴坐标值,w表示像素点横轴坐标
值,k表示K个语义类别中的第k个类别;
r
(5‑2)将RGB显著伪标记 和RGB显著置信度Pi 作为输入,利用L1损失函数计算损失值:
t
其中||·||1表示L1范数;将Thermal显著伪标记 和Thermal显著置信度Pi作为输入,利用L1损失函数计算损失值:
(5‑3)将损失值 作为输入,得到最终的损失函数为 λ>0为
置信度损失函数权重;
(5‑4)通过随机梯度下降算法对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络模型进行优化,获得训练好的多光谱图像语义分割网络。

5.如权利要求4所述的基于非对称交叉融合的多光谱图像语义分割方法,其特征在于,步骤(6)具体是:
(6‑1)获取新多光谱图像,并将其按照步骤(1)方法获得两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度;
(6‑2)将两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度按照步骤(3)和(4)进行操作,最终输出相应的分割结果 其中第一个维度表示语义类别。
说明书

技术领域

[0001] 本发明属于计算机视觉技术领域,尤其是多光谱数据中的语义分割领域,涉及一种基于非对称交叉融合的多光谱图像语义分割方法。

背景技术

[0002] 随着我国车辆数量不断增加,驾驶员数量也随之增加。面对复杂的道路状况,驾驶员的不规范或夜间疲劳驾驶都将可能导致严重的车祸事故,因此,驾驶安全日益受到社会的高度关注,从而推动智能自动驾驶技术的发展。全天候条件下的高效稳健视觉感知系统是自动驾驶的关键部件,而多光谱图像语义分割作为其重要技术主要处理由RGB图像(可见光)和Thermal图像(不可见光)组成的多光谱图像。RGB图像是由红、绿、蓝三个颜色通道叠加而成的可见光光谱;Thermal图像是由温度在绝对零度以上的物体产生热辐射形成的不可见光谱。多光谱图像语义分割旨在对多光谱图像进行像素级别的类别标记,通常给定N个语义类别,其中包括N‑1个前景类别和1个背景类别,获得与原始图像同等尺寸的逐像素类别标记矩阵。该技术可广泛应用在自动驾驶,无人机侦察、机器视觉等实际领域。例如,在自动驾驶夜间环境中,由于光照不足,仅利用RGB可见光摄像头无法有效采集路面状况,而利用多光谱摄像头可获得RGB图像与Thermal图像并组成多光谱图像,获得精确鲁棒的路况信息,有利于在光照不足或恶劣天气的情况中辅助驾驶并确保司乘安全。
[0003] 近年来,深度卷积神经网络由于其卓越的特征提取能力被应用于多光谱图像语义分割。典型的方法利用现有深度卷积神经网络作为编码器,从多光谱图像组成的四通道张量中提取语义特征,然后通过解码器的逐层上采样操作获得逐像素类别标记矩阵。然而,此种方法在进行特征提取的过程中忽视RGB图像与Thermal图像两者的内在差异,对两种图像进行统一的特征提取,难以有效融合两种光谱的特征。为此,部分方法采用双流模型以获得准确的分割结果,其显著特点是:利用两个结构相同的卷积神经网络,即对称编码器分别作为RGB图像和Thermal图像的特征提取器,在特征提取的过程中,将两种光谱的中间特征图进行逐元素相加或者逐通道拼接得到融合特征图,以捕获两种光谱在多个分辨率下的语义特征,最后经过多次卷积与上采样得到逐像素类别标记矩阵。
[0004] 上述方法存在的不足点主要表现在两个方面:1)为了提高精度,通常采用两个大型相同的卷积神经网络作为两种光谱的特征提取器,并没有充分考虑两种光谱数据的容量,如RGB图像能够刻画丰富的颜色、纹理等信息,而Thermal图像仅能表示粗略的位置与模糊的外观信息,使得提取Thermal图像的特征时存在冗余,并且时空复杂度高;2)采用逐元素相加或逐通道拼接的融合策略忽略了RGB图像与Thermal图像所刻画的物体信息差异,如难以有效地以互补的形式融合两种光谱物体信息。因此,针对双流分割模型的时空复杂度高、多光谱特征融合困难等问题,迫切需要一种既能达到较高分割精度又能保障多光谱分割模型轻量化的方法。

发明内容

[0005] 本发明的目的就是针对现有技术的不足,提供一种基于非对称交叉融合的多光谱图像语义分割方法。本发明方法通过构建非对称结构编码器分别对RGB图像与Thermal图像进行特征提取,充分考虑RGB图像的颜色和纹理信息和Thermal图像的轮廓信息;同时设计门控交叉融合机制对两种光谱特征图中的显著性区域进行自适应融合,学习视觉显著性的先验知识,有利于提升模型在不同光照强度下对不同语义类别的判别能力,从而提高分割精度和鲁棒性。
[0006] 本发明方法首先获取多光谱图像数据集合,然后进行如下操作:
[0007] 步骤(1)对多光谱数据集进行预处理,将多光谱图像输入至非对称编码器,获得RGB图像的特征图和显著置信度,以及Thermal图像的特征图和显著置信度;
[0008] 步骤(2)构建多光谱显著性感知模块,输入为RGB图像和Thermal图像,输出为RGB显著伪标记和Thermal显著伪标记;
[0009] 步骤(3)构建门控交叉融合模块,输入为RGB图像和Thermal图像的特征图及其显著置信度,输出为融合特征图;
[0010] 步骤(4)将融合特征图输入由转置卷积组成的解码器,获得预测分割标记;
[0011] 步骤(5)对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络,使用交叉熵损失函数和L1损失函数进行优化,获得已训练的多光谱图像语义分割网络;
[0012] 步骤(6)将新多光谱图像输入至已训练的分割网络,输出对应的语义分割结果。
[0013] 步骤(1)具体是:
[0014] (1 ‑ 1) 对 多 光 谱 数 据 集 进 行 预 处 理 操 作 ,得 到 训 练 数 据 集其中Ii表示第i个增强多光谱图像训练样本,共N个训练样本,4表示多光谱通道数量,H表示多光谱图像的高度,W表示多光谱图像的宽度,其中表示多光谱由配对的RGB图像与Thermal图像拼接而成, 表示第i个三
通道的RGB图像样本, 表示第i个单通道的Thermal图像样本,上标r表示RGB,上标t表示Thermal;
[0015] (1‑2)进行像素级标记,记为标记集合 其中Yi是高为H、宽为W的矩阵,像素级标记Yi的元素取值为{0,1,…,K},其中K为待分割的类别总数,在训练阶段每张多光谱都有对应的像素级标记,处理新多光谱时不会给出像素级标记;
[0016] (1‑3)构建非对称编码器中的RGB编码器,即大型图像库ImageNet上预训练并去除全局池化层与全连接层的卷积神经网络ResNet,对训练数据集 的第i个RGB图像样本 依次提取RGB四个编码阶段特征图 其中H1=H/4,W1=W/4,Hj+1=Hj/2,Wj+1=Wj/2,Hj×Wj表示特征图分辨率,C1<C2<C3<C4表示特征图的通道维度,根据神经网络中间特征图的Hj维度和Wj维度的不同将ResNet分为4个编码阶段,第j个编码阶段为在ResNet中由多个卷积层组成的模块;
[0017] (1‑4)构建RGB置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将RGB第四编码阶段特征图 经过RGB置信度预测分类器r r得到RGB显著置信度Pi,0≤Pi≤1;
[0018] (1‑5)构建非对称编码器中的轻量级Thermal编码器,对训练数据集 的第i个Thermal图像样本 依次提取Thermal各个编码阶段特征图 其中Thermal编码器分为四个阶段,每个阶段均由7×7卷积层(7×7表示卷积核大小)、2×2最大池化层(2×2表示下采样比例)和两个结构相同的上下文卷积模块组成;将Thermal图像样本 输入Thermal编码器第一阶段的7×7卷积层、2×2最大池化层,获得浅层视觉特征图构建上下文卷积模块,具体包含了两条并行的特征提取支路:其中一条支路由
1×1卷积层、空洞率为1和分组数为C1的3×3卷积层(3×3表示卷积核大小)与1×1卷积层(1×1表示卷积核大小)组成;另一条支路由空洞率为2和分组数为C1的3×3卷积层与1×1卷积层组成;每个卷积层之后,经过批归一化操作和线性整流函数,将浅层视觉特征图x输入上下文卷积模块得到第一支路特征图 和第二支路特征图
再经过通道维度上的拼接得到初级上下文特征图 将初级上下文特征
图 输入到第二个上下文卷积模块,获得高级上下文特征图 再经过一次2×2最大池化层得到第一编码阶段Thermal特征图 将第一编码阶段特征图
输入到Thermal编码器的后续三个编码阶段获得后续特征图,最终输出四个编码阶段的Thermal特征图
[0019] (1‑6)构建Thermal置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将Thermal第四编码阶段特征图 经过Thermal置信度t t预测分类器得到Thermal显著置信度Pi,0≤Pi≤1。
[0020] 步骤(2)具体是:
[0021] (2‑1)构建多光谱显著性感知模块,将RGB图像 进行静态细粒度显著性计算,得到RGB显著图 将Thermal图像 进行静态细粒度显著性计算,得到Thermal显著图静态细粒度显著性算法是一种基于中心像素点与周围像素点之间的差异计算显著值的传统图像处理方法;
[0022] (2‑2)对RGB显著图 通过OSTU(大津法)进行阈值分割得到RGB二值图像对Thermal显著图 通过OSTU(大津法)进行阈值分割得到Thermal二值图像[0023] (2‑3)计算RGB二值图像 与像素级标记Yi的交并比 计算Thermal二值图像 与像素级标记Yi的交并比
[0024] (2‑4)通过交并比得到两种光谱图像的显著伪标记:RGB显著伪标记‑7Thermal显著伪标记 1e 的作用是为
了防止除数为零。
[0025] 进一步,步骤(3)具体是:
[0026] (3‑1)构建门控交叉融合模块,由光谱引导模块和Sigmoid函数组成,将Thermal第四编码阶段特征图 输入到光谱引导模块得到Thermal第四编码阶段光谱特征图光谱引导模块由1×1卷积层、7×7卷积层、1×1卷积层组成,目的是利用大感受野捕获重要的细节区域,进而感知该编码阶段特征图的显著性区域;
[0027] (3‑2)将RGB第四编码阶段特征图 输入到新构建的光谱引导模块得到RGB第四编码阶段光谱特征图 将Thermal第四编码阶段光谱特征图 经过Sigmoid函数再与RGB第四编码阶段光谱特征图 进行逐元素乘法操作,得到RGB第四编码阶段多光谱融合特征图
[0028] (3‑3)将RGB第四编码阶段光谱特征图 经过Sigmoid函数,再与Thermal第四编码阶段光谱特征图 进行逐元素乘法操作,得到Thermal第四编码阶段多光谱融合特征图 将Thermal第四编码阶段特征图 与Thermal第四编码阶段多光谱融合t
特征图 进行逐元素相加再乘以Thermal显著置信度Pi ,得到Thermal第四编码阶段增强特征图 将RGB第四编码阶段特征图 与RGB第四编码阶段多光谱融合特征图r
进行逐元素相加再乘以RGB显著置信度Pi ,得到RGB第四编码阶段增强特征图将Thermal第四编码阶段增强特征图 和RGB第四编码阶段增强特征图
进行逐元素相加得到第四编码阶段融合特征图
[0029] (3‑4)将Thermal第三编码阶段特征图 和RGB第三编码阶段特征图输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第三编码阶段融合特征图 将Thermal第二编码阶段特征图 和RGB第二编码阶段特征图 输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第二编码阶段融合特征图 将Thermal第一编码阶段特征图
和RGB第一编码阶段特征图 输入到新构建的门控交叉融合模块,经
过与(3‑1)~(3‑3)同类操作,获得第一编码阶段融合特征图
[0030] 更进一步,步骤(4)具体是:
[0031] (4‑1)构建由五个转置卷积层组成的解码器,转置卷积即卷积的逆向过程,将第一编码阶段融合特征图fi,1输入到解码器第一个转置卷积层得到第一编码阶段修正特征图[0032] (4‑2)将第二编码阶段融合特征图fi,2输入到解码器第二个转置卷积层,得到第二编码阶段修正特征图 将第三编码阶段融合特征图fi,3输入到解码器第三个转置卷积层,得到第三编码阶段修正特征图 将第四编码阶段融合特征图fi,4输入到解码器第四个转置卷积层,得到第四编码阶段修正特征图
[0033] (4‑3)将各个编码阶段修正特征图进行通道维度上的拼接,得到集成修正特征图[0034] (4‑4)将集成修正特征图ti输入到解码器的第五个转置卷积,得到预测分割标记多光谱图像中每个像素对应的类别为这K个类别中概率最大的类别。
[0035] 再进一步,步骤(5)的具体是:
[0036] (5‑1)将预测分割标记 与像素级标记Yi作为输入,利用交叉熵损失函数计算损失值 h表示像素点纵轴坐标值,w表示像素点横轴坐标值,k表示K个语义类别中的第k个类别;
r
[0037] (5‑2)将RGB显著伪标记 和RGB显著置信度Pi作为输入,利用L1损失函数计算损失值: 其中||·||1表示L1范数;将Thermal显著伪标记 和Thermal显著置t信度Pi作为输入,利用L1损失函数计算损失值:
[0038] (5‑3)将损失值 作为输入,得到最终的损失函数为 λ>0为置信度损失函数权重;
[0039] (5‑4)通过随机梯度下降算法对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络模型进行优化,获得训练好的多光谱图像语义分割网络。
[0040] 还进一步,步骤(6)具体是:
[0041] (6‑1)获取新多光谱图像,并将其按照步骤(1)方法获得两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度;
[0042] (6‑2)将两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度按照步骤(3)和(4)进行操作,最终输出相应的分割结果 其中第一个维度表示语义类别。
[0043] 本发明方法利用非对称编码器和门控交叉融合模块对多光谱图像进行语义分割,具有以下几个特点:1)不同于已有方法利用两个大型对称编码器对RGB图像和Thermal图像进行特征提取,所设计的非对称编码器对多光谱进行特征提取,通过构建轻量级Thermal编码器从低层特征表示中捕获边缘、轮廓等信息以及从高层特征表示中捕获语义信息,进而减少冗余的Thermal图像编码特征和整体模型的参数量;2)通过构建门控交叉融合模块,根据计算多光谱显著置信度对两种光谱的特征图分配不同权重,能够自适应地选择两种光谱特征图中显著性区域进行融合,有效地选取两种光谱的互补特征进行融合,获得更加精确的分割结果。
[0044] 本发明方法适用于对实时性要求严格的多光谱图像语义分割,有益效果包括:1)通过构建非对称编码器对多光谱图像进行特征提取,能有效地减少冗余特征和整体网络的参数量,能够提高分割速度;2)通过构建门控交叉融合模块能够在不显著增加网络复杂度的情况下,能够自适应选择多光谱特征图中显著性区域进行有效融合,获得更加精确的分割结果。本发明具有高效的多光谱特征提取能力和有效的特征交叉融合能力,可应用于自动驾驶,无人机侦察、机器视觉等实际领域。

实施方案

[0046] 以下结合附图对本发明作进一步说明。
[0047] 如图1,一种基于非对称交叉融合的多光谱图像语义分割方法,首先获取多光谱图像在非对称编码器中各个编码阶段的特征图和显著置信度;在训练阶段中构建多光谱显著性感知模块生成显著伪标记,并对显著置信度进行训练优化;然后通过门控交叉融合机制将多光谱各个编码阶段和显著置信度进行多光谱融合得到各个编码阶段融合特征图,最后,将各个编码融合特征图输入解码器进行上采样得到语义分割结果。该方法利用非对称编码器,即构建两个由不同层数的卷积神经网络组成的编码器对两种光谱图像进行特征提取,减少提取Thermal图像时产生的冗余特征,降低整体网络的计算量,提高分割速度;同时利用门控交叉融合机制根据两种光谱图像的显著性,实现自适应融合互补的多光谱特征,提高在不同光照强度场景下的稳定性和健壮性。
[0048] 具体是获取多光谱图像数据集合后,进行如下操作:
[0049] 步骤(1)对多光谱数据集进行预处理,将多光谱图像输入至非对称编码器,获得RGB图像的特征图和显著置信度,以及Thermal图像的特征图和显著置信度。具体是:
[0050] (1 ‑ 1) 对 多 光 谱 数 据 集 进 行 预 处 理 操 作 ,得 到 训 练 数 据 集其中Ii表示第i个增强多光谱图像训练样本,共N个训练样本,4表示多光谱通道数量,H表示多光谱图像的高度,W表示多光谱图像的宽度,其中表示多光谱由配对的RGB图像与Thermal图像拼接而成, 表示第i个三
通道的RGB图像样本, 表示第i个单通道的Thermal图像样本,上标r表示RGB,上标t表示Thermal;
[0051] (1‑2)进行像素级标记,记为标记集合 其中Yi是高为H、宽为W的矩阵,像素级标记Yi的元素取值为{0,1,…,K},其中K为待分割的类别总数,在训练阶段每张多光谱都有对应的像素级标记,处理新多光谱时不会给出像素级标记;
[0052] (1‑3)构建非对称编码器中的RGB编码器,即大型图像库ImageNet上预训练并去除全局池化层与全连接层的卷积神经网络ResNet,对训练数据集 的第i个RGB图像样本 依次提取RGB四个编码阶段特征图 其中H1=H/4,W1=W/4,Hj+1=Hj/2,Wj+1=Wj/2,Hj×Wj表示特征图分辨率,C1<C2<C3<C4表示特征图的通道维度,根据神经网络中间特征图的Hj维度和Wj维度的不同将ResNet分为4个编码阶段,第j个编码阶段为在ResNet中由多个卷积层组成的模块;
[0053] (1‑4)构建RGB置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将RGB第四编码阶段特征图 经过RGB置信度预测分类器r r得到RGB显著置信度Pi,0≤Pi≤1;
[0054] (1‑5)构建非对称编码器中的轻量级Thermal编码器,对训练数据集 的第i个Thermal图像样本 依次提取Thermal各个编码阶段特征图 其中Thermal编码器分为四个阶段,每个阶段均由7×7卷积层(7×7表示卷积核大小)、2×2最大池化层(2×2表示下采样比例)和两个结构相同的上下文卷积模块组成;将Thermal图像样本 输入Thermal编码器第一阶段的7×7卷积层、2×2最大池化层,获得浅层视觉特征图构建上下文卷积模块,具体包含了两条并行的特征提取支路:其中一条支路由
1×1卷积层、空洞率为1和分组数为C1的3×3卷积层(3×3表示卷积核大小)与1×1卷积层(1×1表示卷积核大小)组成;另一条支路由空洞率为2和分组数为C1的3×3卷积层与1×1卷积层组成;每个卷积层之后,经过批归一化操作和线性整流函数,将浅层视觉特征图x输入上下文卷积模块得到第一支路特征图 和第二支路特征图
再经过通道维度上的拼接得到初级上下文特征图 将初级上下文特征
图 输入到第二个上下文卷积模块,获得高级上下文特征图 再经过一次2×2最大池化层得到第一编码阶段Thermal特征图 将第一编码阶段特征图
输入到Thermal编码器的后续三个编码阶段获得后续特征图,最终输出四个编码阶段的Thermal特征图
[0055] (1‑6)构建Thermal置信度预测分类器,由全局平均池化操作、全连接层、线性整流函数、全连接层、Sigmoid函数组成,将Thermal第四编码阶段特征图 经过Thermal置信度t t预测分类器得到Thermal显著置信度Pi,0≤Pi≤1。
[0056] 步骤(2)构建多光谱显著性感知模块,输入为RGB图像和Thermal图像,输出为RGB显著伪标记和Thermal显著伪标记。具体是:
[0057] (2‑1)构建多光谱显著性感知模块,将RGB图像 进行静态细粒度显著性计算,得到RGB显著图 将Thermal图像 进行静态细粒度显著性计算,得到Thermal显著图[0058] (2‑2)对RGB显著图 通过OSTU(大津法)进行阈值分割得到RGB二值图像对Thermal显著图 通过OSTU(大津法)进行阈值分割得到Thermal二值图像[0059] (2‑3)计算RGB二值图像 与像素级标记Yi的交并比 计算Thermal二值图像 与像素级标记Yi的交并比
[0060] (2‑4)通过交并比得到两种光谱图像的显著伪标记:RGB显著伪标记‑7Thermal显著伪标记 1e 的作用是为
了防止除数为零。
[0061] 步骤(3)构建门控交叉融合模块,输入为RGB图像和Thermal图像的特征图及其显著置信度,输出为融合特征图。具体是:
[0062] (3‑1)构建门控交叉融合模块,由光谱引导模块和Sigmoid函数组成,将Thermal第四编码阶段特征图 输入到光谱引导模块得到Thermal第四编码阶段光谱特征图光谱引导模块由1×1卷积层、7×7卷积层、1×1卷积层组成,目的是利用大感受野捕获重要的细节区域,进而感知该编码阶段特征图的显著性区域;
[0063] (3‑2)将RGB第四编码阶段特征图 输入到新构建的光谱引导模块得到RGB第四编码阶段光谱特征图 将Thermal第四编码阶段光谱特征图 经过Sigmoid函数再与RGB第四编码阶段光谱特征图 进行逐元素乘法操作,得到RGB第四编码阶段多光谱融合特征图
[0064] (3‑3)将RGB第四编码阶段光谱特征图 经过Sigmoid函数,再与Thermal第四编码阶段光谱特征图 进行逐元素乘法操作,得到Thermal第四编码阶段多光谱融合特征图 将Thermal第四编码阶段特征图 与Thermal第四编码阶段多光谱融合t
特征图 进行逐元素相加再乘以Thermal显著置信度Pi ,得到Thermal第四编码阶段增强特征图 将RGB第四编码阶段特征图 与RGB第四编码阶段多光谱融合特征图r
进行逐元素相加再乘以RGB显著置信度Pi ,得到RGB第四编码阶段增强特征图将Thermal第四编码阶段增强特征图 和RGB第四编码阶段增强特征图
进行逐元素相加得到第四编码阶段融合特征图
[0065] (3‑4)将Thermal第三编码阶段特征图 和RGB第三编码阶段特征图输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第三编码阶段融合特征图 将Thermal第二编码阶段特征图 和RGB第二编码阶段特征图 输入到新构建的门控交叉融合模块,经过与(3‑1)~(3‑3)同类操作,获得第二编码阶段融合特征图 将Thermal第一编码阶段特征图
和RGB第一编码阶段特征图 输入到新构建的门控交叉融合模块,经
过与(3‑1)~(3‑3)同类操作,获得第一编码阶段融合特征图
[0066] 步骤(4)将融合特征图输入由转置卷积组成的解码器,获得预测分割标记。具体是:
[0067] (4‑1)构建由五个转置卷积层组成的解码器,转置卷积即卷积的逆向过程,将第一编码阶段融合特征图fi,1输入到解码器第一个转置卷积层得到第一编码阶段修正特征图[0068] (4‑2)将第二编码阶段融合特征图fi,2输入到解码器第二个转置卷积层,得到第二编码阶段修正特征图 将第三编码阶段融合特征图fi,3输入到解码器第三个转置卷积层,得到第三编码阶段修正特征图 将第四编码阶段融合特征图fi,4输入到解码器第四个转置卷积层,得到第四编码阶段修正特征图
[0069] (4‑3)将各个编码阶段修正特征图进行通道维度上的拼接,得到集成修正特征图[0070] (4‑4)将集成修正特征图ti输入到解码器的第五个转置卷积,得到预测分割标记多光谱图像中每个像素对应的类别为这K个类别中概率最大的类别。
[0071] 步骤(5)对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络,使用交叉熵损失函数和L1损失函数进行优化,获得已训练的多光谱图像语义分割网络。具体是:
[0072] (5‑1)将预测分割标记 与像素级标记Yi作为输入,利用交叉熵损失函数计算损失值 h表示像素点纵轴坐标值,w表示像素点横轴坐标值,k表示K个语义类别中的第k个类别;
r
[0073] (5‑2)将RGB显著伪标记 和RGB显著置信度Pi 作为输入,利用L1损失函数计算损失值: 其中||·||1表示L1范数;将Thermal显著伪标记 和Thermal显著置t信度Pi作为输入,利用L1损失函数计算损失值:
[0074] (5‑3)将损失值 作为输入,得到最终的损失函数为 λ>0为置信度损失函数权重;
[0075] (5‑4)通过随机梯度下降算法对由非对称编码器、多光谱显著性感知模块、门控交叉融合模块、解码器构成的分割网络模型进行优化,获得训练好的多光谱图像语义分割网络。
[0076] 步骤(6)将新多光谱图像输入至已训练的分割网络,输出对应的语义分割结果。具体是:
[0077] (6‑1)获取新多光谱图像,并将其按照步骤(1)方法获得两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度;
[0078] (6‑2)将两种光谱的各个编码阶段特征图、RGB显著置信度和Thermal显著置信度按照步骤(3)和(4)进行操作,最终输出相应的分割结果 其中第一个维度表示语义类别。
[0079] 本实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

附图说明

[0045] 图1是本发明方法的流程图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号