首页 > 专利 > 杭州电子科技大学 > 基于深度可信度分析的RGB-D图像显著性检测方法专利详情

基于深度可信度分析的RGB-D图像显著性检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-04-15
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-09-24
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-05-07
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-04-15
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910298984.9 申请日 2019-04-15
公开/公告号 CN110189294B 公开/公告日 2021-05-07
授权日 2021-05-07 预估到期日 2039-04-15
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 G06T7/00G06T7/10G06T7/136G06T7/66G06T7/90 主分类号 G06T7/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 8
权利要求数量 9 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2016.06.30Changyang Li et al..Robust SaliencyDetection via Regularized Random WalksRanking《.CVPR2015》.2015,Runmin Cong et al..Saliency Detectionfor Stereoscopic Images Based on DepthConfidence Analysis and Multiple CuesFusion《.arXiv:1710.05174v1》.2017,Anzhi Wang et al..RGB-D SalientObject Detection via Minimum BarrierDistance Transform and Saliency Fusion. 《IEEE SIGNAL PROCESSING LETTERS》.2017,第24卷(第5期),Chuan Yang et al..Saliency Detectionvia Graph-Based Manifold Ranking《.2013IEEE Conference Computer Vision andPattern Recognition》.2013,;
引用专利 US2016189419A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 周洋、刘晓琪、尉婉丽、梁文青 第一发明人 周洋
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱月芬
摘要
本发明公开了一种基于深度可信度分析的RGB‑D图像显著性检测方法。本发明方法首先评判深度图所反映场景远近程度信息的可信度,引出深度可信度因子λ作为度量立体图像显著性的主要特征指标,当深度图能较准确反映场景信息时,即λ<0.45,仅通过深度特征来进行立体图像显著性检测;当深度图可信度较低或场景较模糊时,即λ≥0.45,再结合其他特征如颜色等进行显著性检测。本发明方法充分考虑了深度图线索对于立体视觉显著性检测的贡献度,通过计算深度图可信度因子,判断深度图能否准确反映场景距离或深度图是否存在失真。本发明方法计算复杂度低,获取的立体图像显著图质量高,可直接应用在3D图像感知,3D质量评估以及物体识别等工程领域中。
  • 摘要附图
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图1
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图2
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图3
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图4
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图5
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图6
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图7
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图8
    基于深度可信度分析的RGB-D图像显著性检测方法
  • 说明书附图:图9
    基于深度可信度分析的RGB-D图像显著性检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-05-07 授权
2 2019-09-24 实质审查的生效 IPC(主分类): G06T 7/00 专利申请号: 201910298984.9 申请日: 2019.04.15
3 2019-08-30 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:该方法首先评判深度图所反映场景远近程度信息的可信度,得到深度图的可信度因子λ,将λ作为度量立体图像显著性的特征指标,λ<0.45时,通过基于深度信息进行立体视觉显著性检测,λ≥0.45时,结合颜色特征进行立体视觉显著性检测;该方法包括三个模块:深度可信度分析、基于深度信息进行立体视觉显著性检测、结合颜色特征进行立体视觉显著性检测;具体如下:
(1)首先进行深度可信度分析:输入深度图像:首先采用线性迭代聚类SLIC超像素分割算法进行图像分割,并构造图G=(V,E),其中V表示节点集,V中的每个节点对应于超像素块vi,边缘E连接相邻的超像素块;依据深度图特征分析,超像素块vi的深度可信度为:
其中,m和s分别表示整幅深度图中像素值的平均值和标准差,mi表示
超像素块vi的平均值,H表示图像熵, 其中,其中L是深度图的灰度级,Pj是
深度图中第j个灰度级出现的概率;C0为强度调整因子;
然后融合每个超像素块vi的深度可信度值λi,得到整个深度图的可信度因子
其中Ns表示超像素个数,Ns∈[100,200,300];当λ<0.45时,采用基于深度信息进行立体视觉显著性检测;当λ≥0.45时,结合颜色特征进行立体视觉显著性检测;
(2)基于深度信息进行立体视觉显著性检测的具体步骤是:
(2‑1)粗略背景滤波:对比深度图中像素点与所在行的平均深度差异程度,得到初步的深度图前背景区分: 其中,Ik和I′k分别表示像素点k在原始深度图像和粗
略滤波后图像的深度值, 表示像素点k所在行的平均深度值;
(2‑2)深度紧凑度显著性分析:结合深度可信度因子,首先分析超像素块vi的基于深度的紧凑性: 其中,Sdc(vi)表示每一个超像素
块的紧凑显著性值,nj是超像素vj中包含的像素个数,λj表示已计算得到的超像素块vj的深度可信度值, 是超像素块vj的质心坐标, 表示整个深度图像的质
心位置;aij表示预处理后的深度图中两个超像素块之间的相似度,
2
m′i和m′j表示超像素v′i和v'j的平均值; 为控制常量,σ为控制相似度矩阵亲和度常数;
深度紧凑度计算的显著性图Scom最终实现为:Scom(vi)=1‑norm(Sdc(vi)),norm(·)为归一化函数,将显著值重新映射到[0,255]的范围得到深度紧凑度显著图;
(2‑3)深度对比度显著性分析:像素k的显著值Scon(k)基于其与深度图像中的所有其他像素的对比度: fl表示在经过初略背景滤除后的深度图中不同深度
值出现的频率;其中,D(I′k,I′l)=||I′k‑I′l||,表示图像像素点I′k与其他图像像素点I′l之间的空间距离,像素点I′k和I′l的深度值在[0,255]范围内;
(2‑4)将深度紧凑度显著性结果Scom和深度对比度显著性结果Scon融合,获取基于深度信息的显著图为:Sdepth=θScom+(1‑θ)Scon,θ为两个显著性项之间的正控制参数;
(3)结合颜色特征进行立体视觉显著性检测的具体步骤是:
(3‑1)基于背景先验的并行结构:
首先通过消除假边界来最小化背景的影响,实现方法为:
Dcolor(Ip,Iq)表示不同边之间的颜色距离差异值,R/G/B分别为红色、绿色和蓝色通道,p、q是四个边界中任意两边, 是边界p上三通道的特征平均值, 是边界q上三通道的特征平均值;通过计算所有边界之间的距离D得到4×4矩阵A并归一化,在最大列之和与最小列之和 满足条件 条件时,列和最大值对应的边界被定义为假
边界,并移除;τC为设定阈值;
然后分别进行基于背景和前景的显著性排序;其中,对滤除假边界后的其他边计算基于该边背景的显著图;
最后,基于背景先验的显著性排序结果为: 其中, 对应剩余边界,
表示基于每个背景边的显著结果图,最终乘性融合得到基于背景先验的显著性排序结果Sb(i);分析基于前景的显著性实现表示为:
在分别求得基于背景和前景的显著性图后乘性融合,得到初步显著目标区域如下:
Sinitial(i)=Sb(i)·Sf(i);
(3‑2)在得到初步显著结果后,将图中的前景区域作为种子点进行特征优化,重新定义流行排序函数指示向量为: 在经过显著特征优化后计算得
到最终的基于RGB颜色特征的显著性图;
(3‑3)结合深度信息的显著性更新:
利用细胞自动机迭代方法来更新显著性结果,并针对实际情况对该方法进行修改:
其中,||di,dj||表示超像素块i和j之间的深度距离,
2
Ni是超像素i的邻域集合,fij表示不同超像素块之间的相似度,δ表示控制相似强度的参数;
基于深度特征相似性,每个超像素的显著性值由自身的显著特征值及其邻域特征值确定;设定细胞机迭代传播的次数设置为K次,通过结合深度信息的显著性更新,得到更准确的RGB‑D显著性图。

2.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:1≤C0≤10。

3.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:

4.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在
2
于:σ=0.1。

5.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:Ns=200。

6.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:θ=0.5。

7.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:0.1≤τC≤1.0。

8.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在
2
于:δ=0.1。

9.如权利要求1所述的基于深度可信度分析的RGB‑D图像显著性检测方法,其特征在于:K=5~50。
说明书

技术领域

[0001] 本发明属于图像处理技术领域,具体是立体图像处理技术领域,涉及一种基于深度可信度分析的RGB‑D图像显著性检测方法。

背景技术

[0002] 随着多媒体工具的“爆炸式”出现,数量巨大、方式多样的信息涌现在人们面前,图像及视频因其丰富的表现力及生动的内容等特点备受青睐,成为信息表达和传递的主流方式。如何准确高效地挖掘图像/视频中的人眼关注度高的显著信息来减轻机器计算处理和存储负担,已成为了视频图像处理和计算机视觉领域的共同研究热点。目前大多数的计算方法主要用于单目显著性检测,已经实现了对彩色图像的精确检测,但在自然场景中,人类视觉系统除了感知颜色、形状等信息时,还会场景距离远近进行处理,也即感知深度信息。传统显著性模型在一定程度上忽略了深度特征对目标检测的影响。近年来,学者在双目立体视觉领域展开了结合深度特征的立体图像显著性检测。在人眼视觉系统中,双目差距会使得自然场景投射到双眼中的成像略有不同,这种差异主要集中在水平维度也即视差,这一差异是人类感知场景立体深度的重要渠道。在显著性检测中,深度信息一般表示为灰度图像,其像素值表示从相机到在图像平面中投影的对象的距离,是反映物体距离人眼的远近,是立体图像的重要感知特征之一。
[0003] 纵观目前提出的立体场景显著性检测方法,学者们采用不同的计算模型,结合颜色、纹理等平面特征和深度特征突出显著目标区域。在这些方法中,由于深度图获取方式不同,一些深度图会产生失真或场景模糊情况,从而影响显著性检测结果产生一定偏差。

发明内容

[0004] 本发明的目的就是针对现有技术的不足,提供一种基于深度可信度分析的RGB‑D图像显著性检测方法。
[0005] 该方法首先评判深度图所反映场景远近程度信息的可信度,得到深度图的可信度因子λ,将λ作为度量立体图像显著性的特征指标,λ<0.45时,通过基于深度信息进行立体视觉显著性检测,λ≥0.45时,结合颜色特征进行立体视觉显著性检测;该方法包括三个模块:深度可信度分析、基于深度信息进行立体视觉显著性检测、结合颜色特征进行立体视觉显著性检测;具体如下:
[0006] (1)首先进行深度可信度分析:输入深度图像:首先采用线性迭代聚类SLIC超像素分割算法进行图像分割,并构造图G=(V,E),其中V表示节点集,V中的每个节点对应于超像素块vi,边缘E连接相邻的超像素块;依据深度图特征分析,超像素块vi的深度可信度为:其中,m和s分别表示整幅深度图中像素值的平均值和标准差,mi表示
超像素块vi的平均值,H表示图像熵, 其中,其中L是深度图的灰度级,Pj是
深度图中第j个灰度级出现的概率;C0为强度调整因子,1≤C0≤10;
[0007] 然后融合每个超像素块vi的深度可信度值λi,得到整个深度图的可信度因子其中Ns表示超像素个数,Ns∈[100,200,300];当λ<0.45时,采用基于深度信息进行立体视觉显著性检测;当λ≥0.45时,结合颜色特征进行立体视觉显著性检测。
[0008] (2)基于深度信息进行立体视觉显著性检测的具体步骤是:
[0009] (2‑1)粗略背景滤波:对比深度图中像素点与所在行的平均深度差异程度,得到初步的深度图前背景区分: 其中,Ik和I′k分别表示像素点k在原始深度图像和粗略滤波后图像的深度值, 表示像素点k所在行的平均深度值;
[0010] (2‑2)深度紧凑度显著性分析:结合深度可信度因子,首先分析超像素块vi的基于深度的紧凑性: 其中,Sdc(vi)表示每一个超像素块的紧凑显著性值,nj是超像素vj中包含的像素个数,λj表示已计算得到的超像素块vj的深度可信度值, 是超像素块vj的质心坐标, 表示整个深度图像的
质心位置;aij表示预处理后的深度图中两个超像素块之间的相似度,
2
m′i和m′j表示超像素vi'和v'j的平均值; 为控制常量, σ为控制相似度矩阵亲和
2
度常数,σ=0.1;深度紧凑度计算的显著性图Scom最终实现为:Scom(vi)=1‑norm(Sdc(vi)),norm(·)为归一化函数,将显著值重新映射到[0,255]的范围得到深度紧凑度显著图;
[0011] (2‑3)深度对比度显著性分析:像素k的显著值Scon(k)基于其与深度图像中的所有其他像素的对比度: fl表示在经过初略背景滤除后的深度图中不同深度值出现的频率;其中,D(I′k,I′l)=||I′k‑I′l||,表示图像像素点I′k与其他图像像素点I′l之间的空间距离,像素点I′k和I′l的深度值在[0,255]范围内;
[0012] (2‑4)将深度紧凑度显著性结果Scom和深度对比度显著性结果Scon融合,获取基于深度信息的显著图为:Sdepth=θScom+(1‑θ)Scon,θ为两个显著性项之间的正控制参数,θ=0.5。
[0013] (3)结合颜色特征进行立体视觉显著性检测的具体步骤是:
[0014] (3‑1)基于背景先验的并行结构:
[0015] 首先通过消除假边界来最小化背景的影响,实现方法为:Dcolor(Ip,Iq)表示不同边之间的颜色距离差异值,R/G/B分别为红色、绿色和蓝色通道,p、q是四个边界中任意两边, 是边界p上三通道的特征平均值, 是边界q上三通道的特征平均值;通过计算所有边界之间的距离D得到4×4矩阵A并归一化,在最大列之和与最小列之和 满足条件 条件时,列和最大值对应的边界被定义为假
边界,并移除;τC为设定阈值,0.1≤τC≤1.0;
[0016] 然后分别进行基于背景和前景的显著性排序;其中,对滤除假边界后的其他边计算基于该边背景的显著图;
[0017] 最后,基于背景先验的显著性排序结果为: 其中, 对应剩余边界, 表示基于每个背景边的显著结果图,最终乘性融合得到基于背景先验的显著性排序结果Sb(i);分析基于前景的显著性实现表示为:
[0018] 在分别求得基于背景和前景的显著性图后乘性融合,得到初步显著目标区域Sinitial(i)=Sb(i)·Sf(i);
[0019] (3‑2)在得到初步显著结果后,将图中的前景区域作为种子点进行特征优化,重新定义流行排序函数指示向量为: 在经过显著特征优化后计算得到最终的基于RGB颜色特征的显著性图;
[0020] (3‑3)结合深度信息的显著性更新:
[0021] 利用细胞自动机迭代方法来更新显著性结果,并针对本发明的实际情况对该方法进行修改: 其中,||di,dj||表示超像素块i和j之间的2
深度距离,Ni是超像素i的邻域集合,fij表示不同超像素块之间的相似度,δ表示控制相似
2
强度的参数,δ=0.1;
[0022] 基于深度特征相似性,每个超像素的显著性值由自身的显著特征值及其邻域特征值确定。设定细胞机迭代传播的次数设置为K次,K=5~50,通过结合深度信息的显著性更新,得到更准确的RGB‑D显著性图。
[0023] 本发明方法在立体图像处理研究领域中提出了一种新颖的立体图像显著性检测技术,尽可能的去模拟人眼视觉注意力机制。改进了现有的立体图像显著目标检测算法,充分利用深度信息在立体视觉显著性检测中的重要作用。本发明方法中引入了一种新颖的判别方式—深度图可信度评价因子,它可以较准确度量深度图中场景信息是否存在模糊或失真,进而判断是否可以仅通过深度图信息进行立体图像显著性检测。当深度图存在模糊或失真时,仅仅通过深度图无法准确判断场景特征,再结合颜色信息分析立体视觉显著性。该立体图像显著性模型可以直接应用在3D视频处理,3D质量评估以及物体识别等工程领域中。

实施方案

[0033] 如图1所示,基于深度可信度分析的RGB‑D图像显著性检测方法,首先评判深度图所反映场景远近程度信息的可信度,引出深度可信度因子λ作为度量立体图像显著性的主要特征指标,当深度图能较准确反映场景信息时,即λ<0.45,仅通过深度特征来进行立体图像显著性检测;反之,当深度图可信度较低或场景较模糊时,再结合其他特征如颜色等进行显著性检测,从而在整体上降低立体图像显著性检测复杂度。
[0034] 本发明方法包括三个模块:深度可信度分析、基于深度信息进行立体视觉显著性检测、结合颜色特征进行立体视觉显著性检测。具体如下:
[0035] (1)首先进行深度可信度分析:
[0036] 如图2所示,输入深度图像:首先采用现有的简单线性迭代聚类SLIC超像素分割算法进行图像分割,构造图G=(V,E),其中V表示节点集,V中的每个节点对应于超像素块vi,边缘E连接相邻的超像素块;依据深度图特征分析,超像素块vi的深度可信度为:其中,m和s分别表示整幅深度图中像素值的平均值和标准差,mi表示
超像素块vi的平均值,H表示图像熵, 其中,其中L是深度图的灰度级,Pj是
深度图中第j个灰度级出现的概率。C0为强度调整因子,1≤C0≤10,本实施例C0=2。图像深度图SLIC处理结果如图3所示。
[0037] 然后融合每个超像素块vi的深度可信度值λi,得到整个深度图的可信度因子其中Ns表示超像素个数,Ns∈[100,200,300],本发明中取200。λ越小表示深度图可信度越高,也即能从中更准确的提取场景目标信息。当λ<0.45时,通过深度图所反映的场景信息较准确地提取显著目标区域,采用基于深度信息进行立体视觉显著性检测;当λ≥0.45时,结合其他场景特征进行处理,本发明结合颜色特征进行立体视觉显著性检测。
[0038] (2)基于深度信息进行立体视觉显著性检测的具体步骤是:
[0039] (2‑1)粗略背景滤波:为降低深度图中深度值较大但非显著区域的干扰,本发明提出一种简单的粗略背景滤波方式,对比深度图中像素点与所在行的平均深度差异程度,实现降干扰目的,从而得到初步的深度图前背景区分: 其中,Ik和I′k分别表示像素点k在原始深度图像和粗略滤波后图像的深度值, 表示像素点k所在行的平均深度值。经过粗略背景滤波得到的深度图如图4所示。
[0040] (2‑2)深度紧凑度显著性分析:结合深度可信度因子,首先分析超像素块vi的基于深度的紧凑性: 其中,Sdc(vi)表示每一个超像素块的紧凑显著性值,nj是超像素vj中包含的像素个数,λj表示已计算得到的超像素块vj的深度可信度值, 是超像素块vj的质心坐标, 表示整个深度图像的
质心位置;aij表示预处理后的深度图中两个超像素块之间的相似度,
2
m′i和m′j表示超像素vi'和v'j的平均值; 为控制常量, σ为控制相似度矩阵亲和
2
度常数,σ=0.1;
[0041] 深度紧凑度计算的显著性图Scom最终实现为:Scom(vi)=1‑norm(Sdc(vi)),norm(·)为归一化函数,将显著值重新映射到[0,255]的范围得到深度紧凑度显著图。实现结果如图5所示。
[0042] (2‑3)深度对比度显著性分析:像素k的显著值Scon(k)基于其与深度图像中的所有其他像素的对比度: fl表示在经过初略背景滤除后的深度图中不同深度值出现的频率。其中,D(I′k,I′l)=||I′k‑I′l||,表示图像像素点I′k与其他图像像素点I′l之间的空间距离,像素点I′k和I′l的深度值在[0,255]范围内。实现结果如图6所示。
[0043] (2‑4)将深度紧凑度显著性结果Scom和深度对比度显著性结果Scon融合,获取基于深度信息的显著图为:Sdepth=θScom+(1‑θ)Scon;θ为两个显著性项之间的正控制参数,θ=0.5。实现结果如图7所示。
[0044] (3)结合颜色特征进行立体视觉显著性检测的具体步骤是:
[0045] (3‑1)基于背景先验的并行结构:
[0046] 首先通过消除假边界来最小化背景的影响,以提高检测的准确性。实现方法为:Dcolor(Ip,Iq)表示不同边之间的颜色距离差异值,R/G/B分
别为红色、绿色和蓝色通道,p、q是四个边界中任意两边, 是边界p上三通道的特征平均值, 是边界q上三通道的特征平均值。通过计算所有边界之间的距离D得到4×4矩阵A并归一化。当矩阵A中某列和最大时,其对应的边界与其他图像边界存在较大的特征差异,可能包含前景目标。在最大列之和 与最小列之和 满足条件 条件
时,列和最大值对应的边界被定义为假边界,并移除;τC为设定阈值,0.1≤τC≤1.0,本实施例τC=0.4。
[0047] 采用已有流行排序算法作为依托,采用通用的流行排序算法函数标识,分别进行基于背景和前景的显著性排序。其中,对滤除假边界后的其他边计算基于该边背景的显著图,在此以左边界为例实现方法为: Sl为以深度图左边界为背景种子点计算得到的显著结果, 是归一化矢量,i表示超像素块索引。采用相同方法,计算基于其他边界作为查询种子点时的显著性结果。
[0048] 最后,基于背景先验的显著性排序结果为: 其中,对应剩余边界, 表示基于每个背景边的显著结果图,最终乘性融合得到基于背景先验的显著性排序结果Sb(i)。当一个或多个边界与前景对象相邻时,去除假边界可以提高显著目标检测的准确性。
[0049] 同样的采用流行排序算法分析基于前景的显著性实现表示为:
[0050] 在分别求得基于背景和前景的显著性图后乘性融合,得到初步显著目标区域如下:
[0051] Sinitial(i)=Sb(i)·Sf(i)。
[0052] (3‑2)在得到初步显著结果后,将图中的前景区域作为种子点进行特征优化,重新定义流行排序函数指示向量为: 在经过显著特征优化后计算得到最终的基于RGB颜色特征的显著性图。
[0053] (3‑3)结合深度信息的显著性更新:结合深度信息考虑空间场景位置信息对显著性的贡献以优化初始结果。利用细胞自动机迭代方法(Saliency Cellular Automata,SCA)来更新显著性结果,并针对本发明的实际情况对该方法进行了如下修改:
[0054]
[0055] 其中,||di,dj||表示超像素块i和j之间的深度距离,Ni是超像素i的邻域集合,fij2 2
表示不同超像素块之间的相似度,δ表示控制相似强度的参数,δ=0.1。
[0056] 基于深度特征相似性,每个超像素的显著性值由自身的显著特征值及其邻域特征值确定。设定细胞机迭代传播的次数设置为K次,K=5~50,本实施例K=10,通过结合深度信息的显著性更新,得到更准确的RGB‑D显著性图。最后的检测结果如图8所示。
[0057] 由于考虑到不同场景下本发明的检测结果,还选取5组不同场景下的RGB‑D图像测试序列进行实验使用本发明的立体视频显著性检测方法进行检测,检测的结果如图9所示。从实验结果验证了本发明方法能够有效的检测出RGB‑D立体图像的显著区域。
[0058] 本发明的保护内容不局限于以上实例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。

附图说明

[0024] 图1是本发明方法的流程图;
[0025] 图2是立体图像深度图;
[0026] 图3是立体图像深度图SLIC处理结果;
[0027] 图4是深度图预处理结果图;
[0028] 图5是深度图紧凑显著结果图像;
[0029] 图6是深度图对比显著结果图像;
[0030] 图7是基于深度信息的立体图像显著图结果;
[0031] 图8是结合颜色信息的立体图像显著图结果;
[0032] 图9是不同的立体图像序列的检测结果图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号