首页 > 专利 > 长安大学 > 一种融合深度区域分割的多大气光值交通图像去雾方法专利详情

一种融合深度区域分割的多大气光值交通图像去雾方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-06-26
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-11-01
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-06-01
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-06-26
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910559582.X 申请日 2019-06-26
公开/公告号 CN110310241B 公开/公告日 2021-06-01
授权日 2021-06-01 预估到期日 2039-06-26
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 G06T5/00G06T7/11G06T7/55G06N20/00 主分类号 G06T5/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 2
权利要求数量 3 非专利引证数量 1
引用专利数量 0 被引证专利数量 0
非专利引证 1、CN 106204494 A,2016.12.07CN 108765336 A,2018.11.06CN 104794688 A,2015.07.22CN 105701785 A,2016.06.22CN 109523480 A,2019.03.26陈燕 等.基于图模型分割和大气光细化的天空区域去雾优化算法《.辽宁工业大学学报(自然科学版)》.2019,第39卷(第2期),Xiao,JS et al.Scene-aware imagedehazing based on sky-segmented darkchannel prior《.IET IMAGE PROCESSING》.2017,第11卷(第12期),;
引用专利 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 转让 事务标签 公开、实质审查、授权、权利转移
申请人信息
申请人 第一申请人
专利权人 长安大学 当前专利权人 合肥九州龙腾科技成果转化有限公司
发明人 黄鹤、李光泽、郭璐、王会峰、许哲、茹锋、汪贵平、黄莺、惠晓滨 第一发明人 黄鹤
地址 陕西省西安市南二环路中段 邮编 710064
申请人数量 1 发明人数量 9
申请人所在省 陕西省 申请人所在市 陕西省西安市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
西安通大专利代理有限责任公司 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
范巍
摘要
本发明公开了一种融合深度区域分割的多大气光值交通图像去雾方法,首先制作雾霾图像数据集,然后利用雾霾图像数据集为输入,训练雾霾图像深度分割器,让机器学习雾霾天气下天空和非天空区域的特征;采集雾霾天气下用于测试的交通图像;采用雾霾图像深度分割器对采集的交通图像进行分割,得到天空区域和非天空区域,求取天空区域和非天空区域的大气光值和透射率,加权平均后,得到综合大气光值和综合透射率;利用快速引导滤波对综合透射率细化处理,重构无雾交通场景图片。
  • 摘要附图
    一种融合深度区域分割的多大气光值交通图像去雾方法
  • 说明书附图:图1
    一种融合深度区域分割的多大气光值交通图像去雾方法
  • 说明书附图:图2
    一种融合深度区域分割的多大气光值交通图像去雾方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2023-03-10 专利权的转移 登记生效日: 2023.02.27 专利权人由长安大学变更为合肥九州龙腾科技成果转化有限公司 地址由710064 陕西省西安市南二环路中段变更为230000 安徽省合肥市蜀山经济开发区井岗路电商园一期2号楼203
2 2021-06-01 授权
3 2019-11-01 实质审查的生效 IPC(主分类): G06T 5/00 专利申请号: 201910559582.X 申请日: 2019.06.26
4 2019-10-08 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种融合深度区域分割的多大气光值交通图像去雾方法,其特征在于,包括以下步骤:
步骤1:制作雾霾图像数据集;
具体包括:
步骤1.1:在含雾的天气下,沿着交通路线,拍摄各个路口,整理成9个视频和1000张图片,对含有天空和非天空区域的图片进行筛选,最终确定264张真实交通场景图像,做成初始雾霾图像数据集;
步骤1.2:对步骤1.1中初始雾霾图像数据集的图片进行标注,即采用github开源工具labelme对雾天场景的天空和非天空区域进行分割,最终得到的雾霾图像数据集包含四类文件,第一类文件是步骤1.1中初始雾霾图像数据集,第二类文件是对第一类文件标注后生成的标签文件,第三类文件是通过第二类文件的标签信息生成的数据集,第四类文件是从第三类文件中提取的分割图片集合,共有两类,分为天空区域和非天空区域;
步骤2:利用步骤1中的雾霾图像数据集为输入,训练雾霾图像深度分割器,让机器学习雾霾天气下天空和非天空区域的特征;
具体包括:
步骤2.1:搭建Mask R‑CNN网络
网络第一部分使用了残差网络ResNet对初始雾霾图像数据集中的雾霾图像的结构和纹理特征进行提取;
网络第二部分是候选区生成网络RPN,候选区生成网络RPN依赖于一个滑动的窗口,在网络第一部分输出的特征图上遍历,为每一个像素点生成9种目标框,对于生成的目标框,首先通过目标框与第三类文件中含有标签信息数据集中图片的的交叠比判断当前目标框属于前景还是背景,交叠比大于0.5认为是前景,小于0.3认为是背景,交叠比在0.3和0.5之间的目标框舍弃;然后在判断出目标框为前景的情况下,对其区域的坐标进行依次修正,整个候选区生成网络RPN的损失函数如式(1):
其中,pi为目标框预测为目标的概率, 在正标签是值为1,其他全为0,ti={tx,ty,tw,th}是一个向量,表示预测的目标框的4个参数化坐标,是前景部分目标框对应的真实标签坐标向量, 是目标和非目标的对数损失, 是回归损失,λ为10,Ncls为
256,Nreg设为2400,以确保两部分损失平衡;
网络第三部分是分类输出,一共有三个输出分支,第一个分支中,每一类都输出一张分割预测图;第二个分支,得到目标框的位置信息输出;第三个分支,得到类别的输出,这三个分支的输出组合成了最终的结果,包含有目标检测、识别和分割,总体损失函数为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask)    (2)
其中L({pi},{ti})表示RPN部分的损失,Lcls、Lbox、Lmask分别表示类别、目标框、分割部分的损失;
对步骤1中的雾霾图像数据集进行训练,当总体损失函数Lfinal小于0.01时,跳出训练过程;
步骤2.2:对步骤1中获得的图像进行模糊C均值聚类
首先获取步骤1中雾霾图像的暗通道图,求取暗通道的公式表示为:
其中, 表示训练集中图像的暗通道图,c表示RGB的某个通道, 表示训练集中图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小;
然后对暗通道图进行模糊C均值聚类;
使用随机算法生成一组数据,利用不确定的数据初始化隶属度矩阵U,使其符合式:
其中,c表示聚类中心的个数,uij表示索引为(i,j)的隶属度;
计算出聚类中心的个数c,符合下式:
其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,n是需要分类的样本数量;
设置阈值判断条件,使算法执行或者跳出,以达到损失函数要求,损失函数表示为:
其中,ci为第i个模糊组的中心,U为隶属度矩阵,uij表示索引为(i,j)的隶属度,介于0到1间,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,m表示控制算法的柔性参数;
计算每一次迭代后的U矩阵,其中矩阵中每个元素满足:
其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,dkj=||ck‑xj||为第j个数据与第k个中心与的欧式距离;
总体损失函数为:
其中,U为隶属度矩阵,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,λj表示第索引为j的平衡系数,m表示控制算法的柔性参数,dij为第j个数据与第i个中心与的欧式距离;
步骤2.3:综合步骤2.1和步骤2.2算法,得到雾霾图像深度分割器;
步骤3:采集雾霾天气下用于测试的交通图像;
步骤4:采用步骤2中雾霾图像深度分割器对步骤3采集的交通图像进行分割,得到天空区域和非天空区域,求取天空区域和非天空区域的大气光值和透射率,对天空区域和非天空区域的大气光值进行加权平均,得到综合大气光值,再根据综合大气光值计算得到综合透射率;
步骤5:利用快速引导滤波对步骤4中的综合透射率细化处理,重构无雾交通场景图片。

2.根据权利要求1所述的一种融合深度区域分割的多大气光值交通图像去雾方法,其特征在于,步骤4中求取综合大气光值和综合透射率的方法为:
步骤4.1:利用步骤2中得到的雾霾图像深度分割器,对步骤3中采集的测试图像分割,sky non‑sky
得到雾霾天气下交通图像的天空区域图像I ,非天空区域图像I ;
sky non‑sky
步骤4.2:利用步骤4.1中的I ,I 求综合大气光值;
先求出步骤3中测试图像的暗通道图,
其中, 表示测试图像的暗通道图,c表示RGB的某个通道, 表示测试图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小;
sky non‑sky
结合步骤4.1中I ,I ,对 进行分割,得到只含天空区域的暗通道图
和只含非天空区域的暗通道图
找出图像 和 中亮度值为从小到大排列后前千分之一点的坐标,将得到
的坐标映射到步骤3中的测试图像中,提取出相应点的像素值,累加之后取平均值,得到需要的大气光;
sky sky non‑sky
其中,A 对应天空区域I 的大气光值矩阵,A 对应非天空区域的大气光值矩阵,sky non‑sky
n1和n2分别表示A 和A 的元素个数, 和 表示天空和非天空区域的大气
光值;
综合 和 得到综合大气光值
其中, 和 表示天空和非天空区域的大气光值,Azonghe表示综合大气光值;
步骤4.3:求透射率图
初始透射率计算的计算如下
其中, 为估计的初始透射率,ω为影响因子,Ω(x)为计算暗通道的算子滑块大小,c
I(x)为步骤3中测试图像对应RGB三通道的图像, 为某一通道对应的综合大气光值。

3.根据权利要求2所述的一种融合深度区域分割的多大气光值交通图像去雾方法,其特征在于,步骤5中还原无雾图像的方法为:
以初始透射率图 为输入图像,步骤3中的测试图像为引导图像,输出图像为最终的透射率图t(x),采用快速引导滤波对初始透射率细化,首先对输入图像和引导图像以步长为4进行下采样,得到缩小尺寸的输入图像p′和引导图像I′;
之后对输入图像p′和引导图像I′进行引导滤波:
q′in=∑jnWinjn(I′)p′jn    (14)
其中,I′为缩小尺寸的引导图像,in,jn是图像像素的索引,缩小尺寸的输入图像的像素点为p′jn,输出图像像素点为q′in,Winjn是由输入图像和引导图像组成的滤波核函数;
假设滤波过程为成局部的线性变换,滤波后的输出图像表示为:
其中,ak和bk是以像素k为中心的滑框系数;
对比输入输出图像的差异,将误差降到最低,则得到
其中,μk和 分别表示引导图像I′在局部窗口ωk中的均值和方差, 是缩小尺寸的输入图像p′在窗口ωk中的均值;
然后对式(15)中的输出图像进行上采样,恢复到原有尺寸大小,得到输出图像为qin;
公式为:
其中,
重构图像公式为
其中,I(x)表示步骤3中的测试图像,Azonghe表示综合大气光值,t(x)为经过快速引导滤波后的透射率图,即为式(18)的结果图qin,t0为正则化项,取0.15。
说明书

技术领域

[0001] 本发明属于图像处理技术领域,具体涉及一种融合深度区域分割的多大气光值交通图像去雾方法。

背景技术

[0002] 大气污染物是一个待解决的环境问题,其来源有很多,电厂煤炭发电,路上车排放的尾气,工厂排放的废气等,导致雾霾天气频发。细分地说,雾是液体颜色偏白,霾是固体颜色偏黄且有害,二者结合就产生了灰暗色调的雾霾。空气中的雾霾,会使得图像在被采集的过程中发生降质。雾霾越重,图像质量越差。在公路交通视频监控、无人机航拍、卫星遥感等领域,往往需要利用采集到的高质量视频图像进行后续的检测、识别、分类等任务,低质量雾霾图像显然不能满足其输入要求,因此去雾的研究有很大意义。
[0003] 现阶段,以去雾本质是否基于大气散射模型将算法分成两大类,基于非物理模型的图像增强去雾和基于物理模型参数先验的图像重构去雾,从效果上看,结合雾霾物理成像模型的方法有更好的结果图。但是已有的去雾算法在重构还原图像的时候,由于没有处理好天空区域和场景区域的关系,往往会使结果图的整体亮度下降或者出现光晕现象,严重的会出现失真。

发明内容

[0004] 本发明的目的在于提供一种融合深度区域分割的多大气光值交通图像去雾方法,以克服现有技术存在的缺陷,本发明提出了一种专门处理雾霾图像的深度分割器,通过机器学习的方法对雾霾图像的天空和场景区域进行特征学习,将图像分割应用到去雾中去,填补了原有分割算法对雾天降质图像的应用空缺,改善了基于物理模型去雾的模型参数大气光和投射率的估计不足。
[0005] 为达到上述目的,本发明采用如下技术方案:
[0006] 一种融合深度区域分割的多大气光值交通图像去雾方法,包括以下步骤:
[0007] 步骤1:制作雾霾图像数据集;
[0008] 步骤2:利用步骤1中的雾霾图像数据集为输入,训练雾霾图像深度分割器,让机器学习雾霾天气下天空和非天空区域的特征;
[0009] 步骤3:采集雾霾天气下用于测试的交通图像;
[0010] 步骤4:采用步骤2中雾霾图像深度分割器对步骤3采集的交通图像进行分割,得到天空区域和非天空区域,求取天空区域和非天空区域的大气光值和透射率,加权平均后,得到综合大气光值和综合透射率;
[0011] 步骤5:利用快速引导滤波对步骤4中的综合透射率细化处理,重构无雾交通场景图片。
[0012] 进一步地,步骤1中制作雾霾图像数据集的方法为:
[0013] 步骤1.1:在含雾的天气下,沿着交通路线,拍摄各个路口,整理成9个视频和1000张图片,对含有天空和非天空区域的图片进行筛选,最终确定264张真实交通场景图像,做成初始雾霾图像数据集;
[0014] 步骤1.2:对步骤1.1中初始雾霾图像数据集的图片进行标注,即采用github开源工具labelme对雾天场景的天空和非天空区域进行分割,最终得到的雾霾图像数据集包含四类文件,第一类文件是步骤1.1中初始雾霾图像数据集,第二类文件是对第一类文件标注后生成的标签文件,第三类文件是通过第二类文件的标签信息生成的数据集,第四类文件是从第三类文件中提取的分割图片集合,共有两类,分为天空区域和非天空区域。
[0015] 进一步地,步骤2具体为:
[0016] 步骤2.1:搭建Mask R‑CNN网络
[0017] 网络第一部分使用了残差网络ResNet对初始雾霾图像数据集中的雾霾图像的结构和纹理特征进行提取;
[0018] 网络第二部分是候选区生成网络RPN,候选区生成网络RPN依赖于一个滑动的窗口,在网络第一部分输出的特征图上遍历,为每一个像素点生成9种目标框,对于生成的目标框,首先通过目标框与第三类文件中含有标签信息数据集中图片的的交叠比判断当前目标框属于前景还是背景,交叠比大于0.5认为是前景,小于0.3认为是背景,交叠比在0.3和0.5之间的目标框舍弃;然后在判断出目标框为前景的情况下,对其区域的坐标进行依次修正,整个候选区生成网络RPN的损失函数如式(1):
[0019]
[0020] 其中,pi为目标框预测为目标的概率,在正标签是值为1,其他全为0,ti={tx,ty,tw,th}是一个向量,表示预测的目标框的4个参数化坐标,是前景部分目标框对应的真实标签坐标向量, 是目标和非目标的对数损失, 是回归损失,λ为10,Ncls为256,Nreg设为2400,以确保两部分损失平衡;
[0021] 网络第三部分是分类输出,一共有三个输出分支,第一个分支中,每一类都输出一张分割预测图;第二个分支,得到目标框的位置信息输出;第三个分支,得到类别的输出,这三个分支的输出组合成了最终的结果,包含有目标检测、识别和分割,总体损失函数为:
[0022] Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask)(2)
[0023] 其中L({pi},{ti})表示RPN部分的损失,Lcls、Lbox、Lmask分别表示类别、目标框、分割部分的损失;
[0024] 对步骤1中的雾霾图像数据集进行训练,当总体损失函数Lfinal小于0.01时,跳出训练过程;
[0025] 步骤2.2:对步骤1中获得的图像进行模糊C均值聚类
[0026] 首先获取步骤1中雾霾图像的暗通道图,求取暗通道的公式表示为:
[0027]
[0028] 其中, 表示训练集中图像的暗通道图,c表示RGB的某个通道, 表示训练集中图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小;
[0029] 然后对暗通道图进行模糊C均值聚类;
[0030] 使用随机算法生成一组数据,利用不确定的数据初始化隶属度矩阵U,使其符合式:
[0031]
[0032] 其中,c表示聚类中心的个数,uij表示索引为(i,j)的隶属度;
[0033] 计算出聚类中心的个数c,符合下式:
[0034]
[0035] 其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,n是需要分类的样本数量;
[0036] 设置阈值判断条件,使算法执行或者跳出,以达到损失函数要求,损失函数表示为:
[0037]
[0038] 其中,ci为第i个模糊组的中心,U为隶属度矩阵,uij表示索引为(i,j)的隶属度,介于0到1间,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,m表示控制算法的柔性参数;
[0039] 计算每一次迭代后的U矩阵,其中矩阵中每个元素满足:
[0040]
[0041] 其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,dkj=||ck‑xj||为第j个数据与第k个中心与的欧式距离;
[0042] 总体损失函数为:
[0043]
[0044] 其中,U为隶属度矩阵,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,λj表示第索引为j的平衡系数,m表示控制算法的柔性参数,dij为第j个数据与第i个中心与的欧式距离;
[0045] 步骤2.3:综合步骤2.1和步骤2.2算法,得到雾霾图像深度分割器。
[0046] 进一步地,步骤4中求取综合大气光值和综合透射率的方法为:
[0047] 步骤4.1:利用步骤2中得到的雾霾图像深度分割器,对步骤3中采集的测试图像分sky non‑sky割,得到雾霾天气下交通图像的天空区域图像I ,非天空区域图像I ;
[0048] 步骤4.2:利用步骤4.1中的Isky,Inon‑sky求综合大气光值;
[0049] 先求出步骤3中测试图像的暗通道图,
[0050]
[0051] 其中, 表示测试图像的暗通道图,c表示RGB的某个通道, 表示测试图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小;
[0052] 结合步骤4.1中Isky,Inon‑sky,对 进行分割,得到只含天空区域的暗通道图和只含非天空区域的暗通道图
[0053] 找出图像 和 中亮度值为从小到大排列后前千分之一点的坐标,将得到的坐标映射到步骤3中的测试图像中,提取出相应点的像素值,累加之后取平均值,得到需要的大气光;
[0054]
[0055]
[0056] 其中,Asky对应天空区域Isky的大气光值矩阵,Anon‑sky对应非天空区域的大气光值sky non‑sky矩阵,n1和n2分别表示A 和A 的元素个数, 和 表示天空和非天空区域的大
气光值;
[0057] 综合 和 得到综合大气光值
[0058]
[0059] 其中, 和 表示天空和非天空区域的大气光值,Azonghe表示综合大气光值;
[0060] 步骤4.3:求透射率图
[0061] 初始透射率计算的计算如下
[0062]
[0063] 其中, 为估计的初始透射率,ω为影响因子,Ω(x)为计算暗通道的算子滑块大c小,I(x)为步骤3中测试图像对应RGB三通道的图像, 为某一通道对应的大气光值。
[0064] 进一步地,步骤5中还原无雾图像的方法为:
[0065] 以初始透射率图 为输入图像,步骤3中的测试图像为引导图像,输出图像为最终的透射率图t(x),采用快速引导滤波对初始透射率细化,首先对输入图像和引导图像以步长为4进行下采样,得到缩小尺寸的输入图像p′和引导图像I′;
[0066] 之后对输入图像p′和引导图像I′进行引导滤波:
[0067] qi′n=∑jnWinjn(I′)p′jn               (14)
[0068] 其中,I′为缩小尺寸的引导图像,in,jn是图像像素的索引,缩小尺寸的输入图像的像素点为pj′n,输出图像像素点为qi′n,Winjn是由输入图像和引导图像组成的滤波核函数;
[0069] 假设滤波过程为成局部的线性变换,滤波后的输出图像表示为:
[0070]
[0071] 其中,ak和bk是以像素k为中心的滑框系数;
[0072] 对比输入输出图像的差异,将误差降到最低,则得到
[0073]
[0074]
[0075] 其中,μk和 分别表示引导图像I′在局部窗口ωk中的均值和方差, 是缩小尺寸的输入图像p′在窗口ωk中的均值;
[0076] 然后对式(15)中的输出图像进行上采样,恢复到原有尺寸大小,得到输出图像为qin;
[0077] 公式为:
[0078]
[0079] 其中,
[0080] 重构图像公式为
[0081]
[0082] 其中,I(x)表示步骤3中的测试图像,Azonghe表示综合大气光值,t(x)为经过快速引导滤波后的透射率图,即为式(18)的结果图qin,t0为正则化项,取0.15。
[0083] 与现有技术相比,本发明具有以下有益的技术效果:
[0084] 对于从雾霾天气下获得的交通图像,传统暗通道去雾算法先取暗通道图中灰度值前千分之一像素对应的位置,然后映射到原图,取平均值作为大气光值,这样会导致图像整体亮度很低。其根本原因是没有考虑天空区域和非天空区域的关系。本发明中兼顾天空区域与非天空区域的关联信息,提出一种新的雾霾图像深度分割器,该分割器融合了Mask R‑CNN神经网络和模糊C均值(FCM)聚类的优点,对雾天降质图像进行分割。对分割后得到的天空和非天空区域分别处理,细化透射率后,得到去雾后图像。对比当前图像分割技术,本发明提出的雾霾图像深度分割器(DRSH)能够更好地适应雾霾图像。兼顾了天空和非天空区域信息,去雾后的图像更加接近真实无雾场景图像,克服了传统算法不适用于天空区域的缺陷。

实施方案

[0087] 下面结合附图对本发明作进一步详细描述:
[0088] 参见图1,本发明提供了一种融合深度区域分割的多大气光值交通图像去雾算法,提出了雾霾图像深度分割器,让分割器对雾霾图像数据集进行学习,完成对天空和非天空区域的分割。对分割后的图像分别处理,综合细化。具体的思路是,考虑到传统暗通道去雾对天空区域的估计不足,导致图像整体亮度偏暗,现设计一种雾霾图像深度分割器,综合了有监督的神经网络Mask R‑CNN和无监督的聚类算法FCM的优点,完成对雾霾天气下严重降质图像的天空和非天空区域分割,对分割后的两个区域分别求取大气光值,加权平均得到综合大气光值,利用综合大气光值估计初始透射率,利用快速引导滤波细化透射率,最后结合大气散射模型重构无雾图像。
[0089] 具体步骤如下:
[0090] 步骤1、制作雾霾图像数据集;
[0091] 在含雾的天气下,沿着交通路线,拍摄各个路口,整理成9个视频和1000张图片,对含有天空和非天空区域的图片进行筛选,最终确定264张真实交通场景图像,做成初始雾霾图像数据集;
[0092] 对初始雾霾图像数据集的图片进行标注,这里只对雾天场景的天空和非天空区域进行分割,选用的是github开源工具labelme,整个数据集制作完成需要包含四类文件,第一类文件是初始雾霾图像数据集,第二类文件是对第一类文件标注后生成的标签文件,第三类文件是通过第二类文件的标签信息生成的数据集,第四类文件是从第三类文件中提取的分割图片集合,共有两类,分为天空区域和非天空区域。
[0093] 步骤2、利用步骤1中的雾霾数据集为输入,训练雾霾图像深度区域分割器,让机器学习雾霾天气下天空和非天空区域的特征;
[0094] 搭建Mask R‑CNN网络,网络一共分为三个部分。
[0095] 网络第一部分使用了残差网络ResNet对初始雾霾图像数据集中的雾霾图像的结构和纹理特征进行提取。
[0096] 网络第二部分是候选区生成网络(RPN),RPN依赖于一个滑动的窗口,其在网络第一部分输出的特征图上遍历,为每一个像素点生成9种目标框(anchor),每种anchor包含512×512、256×256、128×128三种面积,每种面积包含1:1、1:2、2:1三种长宽比。对于生成的anchor,RPN需要做两件事,第一判断当前anchor属于目标内部还是外部,判断前景还是背景问题;第二在判断出anchor为前景的情况下,对其区域的坐标进行依次修正,这也是整个网络中第一次对预测框修正。采用Softmax直接进行训练,排除一些明显超出图像边界的anchor。对于RPN网络输出特征图的每个点,由于每一个像素点都对应9个anchor,每个anchor有前景和背景两个的分数,所以第一个卷积层输出了18个值。RPN网络训练时需要用anchor与步骤1中第三类文件中含有标签信息的数据集的交叠比判断,值大于0.5算前景,小于0.3认为是背景,交叠比在0.3和0.5之间的目标框舍弃,以这个为标准答案,对网络进行有效训练得到好的输出。对于第二个问题,网络使用SmoothL1loss训练。整个RPN的损失函数可以写成:
[0097]
[0098] 其中,pi为目标框预测为目标的概率, 在正标签是值为1,其他全为0,ti={tx,ty,tw,th}是一个向量,表示预测的目标框的4个参数化坐标, 是前景部分目标框对应的真实标签坐标向量, 是目标和非目标的对数损失, 是回归损失,λ为10,Ncls为256,Nreg设为2400,以确保两部分损失平衡。
[0099] 网络第三部分是分类输出,一共有三个输出分支,第一个分支中,每一类都输出一张分割预测图;第二个分支,得到目标框的位置信息输出;第三个分支,得到类别的输出,这三个分支的输出组合成了最终的结果,包含有目标检测、识别和分割,总体损失函数为:
[0100] Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask)       (2)
[0101] 其中L({pi},{ti})表示RPN部分的损失,Lcls、Lbox、Lmask分别表示类别、目标框、分割部分的损。
[0102] 对步骤1中的雾霾图像数据集进行训练,当总体损失函数Lfinal小于0.01时,跳出训练过程。
[0103] 对步骤1中获得的图像进行模糊C均值聚类(FCM)。
[0104] 首先获取步骤1中雾霾图像的暗通道图,求取暗通道的公式表示为:
[0105]
[0106] 其中, 表示训练集中图像的暗通道图,c表示RGB的某个通道, 表示训练集中图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小。
[0107] 然后对暗通道图进行FCM聚类。
[0108] 使用随机算法生成一组数据,利用不确定的数据初始化隶属度矩阵U,使其符合式:
[0109]
[0110] 其中,c表示聚类中心的个数,uij表示索引为(i,j)的隶属度。
[0111] 计算出聚类中心的个数c,符合式:
[0112]
[0113] 其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,n是需要分类的样本数量。
[0114] 设置阈值判断条件,来让算法执行或者跳出,以达到损失函数要求,损失函数表示为:
[0115]
[0116] 其中,ci为第i个模糊组的中心,U为隶属度矩阵,uij表示索引为(i,j)的隶属度,介于0到1间,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,m表示控制算法的柔性参数。
[0117] 计算每一次迭代后的U矩阵,其中矩阵中每个元素满足:
[0118]
[0119] 其中,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,m表示控制算法的柔性参数,dij=||ci‑xj||为第j个数据与第i个中心与的欧式距离,dkj=||ck‑xj||为第j个数据与第k个中心与的欧式距离。
[0120] 总体损失函数为:
[0121]
[0122] 其中,U为隶属度矩阵,c为模糊组的中心的个数,uij表示索引为(i,j)的隶属度,λj表示第索引为j的平衡系数,m表示控制算法的柔性参数,dij为第j个数据与第i个中心与的欧式距离。
[0123] 综合神经网络和聚类算法的输出,得到雾霾图像深度分割器,此时的分割器可以适应雾霾天气下交通图片,能够很好地分割出雾霾图像的天空和非天空区域,对于一些肉眼难以区分的细节也能做到很好地分割。
[0124] 步骤3、采集雾霾天气下用于测试的交通图像;
[0125] 在雾霾天气条件下,去交通路口,使用图像采集设备采集测试图像。
[0126] 步骤4、采用步骤2中雾霾图像深度分割器对步骤3中的图像进行分割,得到天空区域和非天空区域,求取天空区域和非天空区域的大气光值和透射率,加权平均后,得到综合大气光值和综合透射率;
[0127] 利用步骤2中得到的雾霾图像深度分割器,对步骤3中获得的图像分割。得到雾霾sky non‑sky天气下交通图像的天空区域图像I ,非天空区域图像I 。
[0128] 利用Isky,Inon‑sky求综合大气光值。
[0129] 先求出步骤3中测试图像的暗通道图,
[0130]
[0131] 其中, 表示测试图像的暗通道图,c表示RGB的某个通道, 表示测试图像对应通道的原图,Ω(x)是计算暗通道的算子滑块大小。
[0132] 结合Isky,Inon‑sky,对 进行分割,得到只含天空区域的暗通道图 和只含非天空区域的暗通道图
[0133] 找出图像 和 中亮度值为前千分之一点的坐标,将得到的坐标映射到原始雾霾图像中,提取出相应点的像素值,累加之后取平均值,得到需要的大气光。
[0134]
[0135]
[0136] 其中,Asky对应天空区域Isky的大气光值矩阵,Anon‑sky对应非天空区域的大气光值sky non‑sky矩阵,n1和n2分别表示A 和A 的元素个数, 和 表示天空和非天空区域的大
气光值。
[0137] 综合 和 得到综合大气光值
[0138]
[0139] 其中, 和 表示天空和非天空区域的大气光值,Azonghe表示综合大气光值。
[0140] 利用综合大气光值求透射率图。
[0141] 初始透射率计算的计算如下
[0142]
[0143] 其中, 为估计的透射率,ω为影响因子,Ω(x)为计算暗通道的算子滑块大小,cI(x)为步骤3中测试图像对应RGB三通道的图像, 为某一通道对应的大气光值。
[0144] 步骤5、利用快速引导滤波对步骤4中的综合透射率细化处理,重构无雾交通场景图片。
[0145] 采用快速引导滤波对初始透射率细化。
[0146] 以初始透射率图 为输入图像,步骤3中的测试图像为引导图像,输出图像为最终的透射率图t(x),采用快速引导滤波对初始透射率细化,首先对输入图像和引导图像以步长为4进行下采样,得到缩小尺寸的输入图像p′和引导图像I′。
[0147] 之后对输入图像p′和引导图像I′进行引导滤波:
[0148] q′in=∑jn Winjn(I′)p′jn        (14)
[0149] 其中,I′为缩小尺寸的引导图像,in,jn是图像像素的索引,缩小尺寸的输入图像的像素点为p′jn,输出图像像素点为q′in,Winjn是由输入图像和引导图像组成的滤波核函数;
[0150] 假设滤波过程为成局部的线性变换,滤波后的输出图像表示为:
[0151]
[0152] 其中,ak和bk是以像素k为中心的滑框系数;
[0153] 对比输入输出图像的差异,将误差降到最低,则得到
[0154]
[0155]
[0156] 其中,μk和 分别表示引导图像I′在局部窗口ωk中的均值和方差, 是缩小尺寸的输入图像p′在窗口ωk中的均值;
[0157] 然后对式(15)中的输出图像进行上采样,恢复到原有尺寸大小,得到输出图像为q训
[0158] 公式为:
[0159]
[0160] 其中,
[0161] 重构图像公式为
[0162]
[0163] 其中,I(x)表示步骤3中的测试图像,Azonghe表示综合大气光值,t(x)就是式(18)的结果图qin,t0为正则化项,取0.15。
[0164] 从图2可以看出,图2中(a)为原始雾霾图像,分别使用传统方法和本文中提出的方法对(a)去雾。首先使用雾霾图像深度分割器对图像中的天空和非天空区域分割,分割后的非天空图像如(b)所示,分割后的天空图像如(c)所示,综合(b)和(c)的结果可以发现分割效果很好,对路灯和树杈区域也能有效分割;(d)是暗通道去雾后图像;(e)双边滤波去雾后图像;(f)引导滤波去雾后图像;(g)DehazeNet去雾后图像。这些方法都对天空区域的处理很不好,整体亮度偏暗,细节还原不到位,对比度不高。(h)是本发明的去雾算法,使用雾霾图像深度分割器,综合了有监督的神经网络Mask R‑CNN和无监督的聚类算法FCM的优点,完成对雾霾天气下严重降质图像的天空和非天空区域分割,对分割后的两个区域分别求取大气光值,加权平均得到综合大气光值,利用综合大气光值估计初始透射率,利用快速引导滤波细化透射率,最后结合大气散射模型重构无雾图像。与其他算法相比,该算法在天空区域的处理更好,图像整体亮度提高,细节还原地更充分。
[0165] 表1多种去雾图像的图像质量评价比较
[0166]
[0167] 表1通过对比平均梯度、标准差、对比度、模糊系数和雾浓度评估器(FADE)来比较处理后去雾效果。由表1可知,一般情况下平均梯度、标准差和对比度越大表示图像清晰度越高,则说明本发明相比于暗通道去雾、双边滤波去雾、引导滤波去雾、DehazeNet去雾的清晰度高。在对图像的模糊系数进行评价的时候,本发明中的方法参数明显优于其他的去雾方法,图像的边缘轮廓和纹理信息更加清晰突出。雾浓度评估器(FADE)越小表示雾的浓度越小,从表1中可以发现本发明算法的雾浓度是最低,效果最佳。
[0168] 综合以上可以发现本发明算法优于其他传统去雾算法。

附图说明

[0085] 图1是本发明的流程示意图;
[0086] 图2是本发明与其他图像去雾算法的结果图对比,其中,(a)为雾霾图像,(b)雾霾图像深度分割器分割的非天空区域图像,(c)雾霾图像深度分割器分割的天空区域图像,(d)暗通道去雾后图像,(e)双边滤波去雾后图像,(f)引导滤波去雾后图像,(g)DehazeNet去雾后图像,(h)本发明去雾后的图像。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号