[0033] 如图1所示,基于深度可信度分析的RGB‑D图像显著性检测方法,首先评判深度图所反映场景远近程度信息的可信度,引出深度可信度因子λ作为度量立体图像显著性的主要特征指标,当深度图能较准确反映场景信息时,即λ<0.45,仅通过深度特征来进行立体图像显著性检测;反之,当深度图可信度较低或场景较模糊时,再结合其他特征如颜色等进行显著性检测,从而在整体上降低立体图像显著性检测复杂度。
[0034] 本发明方法包括三个模块:深度可信度分析、基于深度信息进行立体视觉显著性检测、结合颜色特征进行立体视觉显著性检测。具体如下:
[0035] (1)首先进行深度可信度分析:
[0036] 如图2所示,输入深度图像:首先采用现有的简单线性迭代聚类SLIC超像素分割算法进行图像分割,构造图G=(V,E),其中V表示节点集,V中的每个节点对应于超像素块vi,边缘E连接相邻的超像素块;依据深度图特征分析,超像素块vi的深度可信度为:其中,m和s分别表示整幅深度图中像素值的平均值和标准差,mi表示
超像素块vi的平均值,H表示图像熵, 其中,其中L是深度图的灰度级,Pj是
深度图中第j个灰度级出现的概率。C0为强度调整因子,1≤C0≤10,本实施例C0=2。图像深度图SLIC处理结果如图3所示。
[0037] 然后融合每个超像素块vi的深度可信度值λi,得到整个深度图的可信度因子其中Ns表示超像素个数,Ns∈[100,200,300],本发明中取200。λ越小表示深度图可信度越高,也即能从中更准确的提取场景目标信息。当λ<0.45时,通过深度图所反映的场景信息较准确地提取显著目标区域,采用基于深度信息进行立体视觉显著性检测;当λ≥0.45时,结合其他场景特征进行处理,本发明结合颜色特征进行立体视觉显著性检测。
[0038] (2)基于深度信息进行立体视觉显著性检测的具体步骤是:
[0039] (2‑1)粗略背景滤波:为降低深度图中深度值较大但非显著区域的干扰,本发明提出一种简单的粗略背景滤波方式,对比深度图中像素点与所在行的平均深度差异程度,实现降干扰目的,从而得到初步的深度图前背景区分: 其中,Ik和I′k分别表示像素点k在原始深度图像和粗略滤波后图像的深度值, 表示像素点k所在行的平均深度值。经过粗略背景滤波得到的深度图如图4所示。
[0040] (2‑2)深度紧凑度显著性分析:结合深度可信度因子,首先分析超像素块vi的基于深度的紧凑性: 其中,Sdc(vi)表示每一个超像素块的紧凑显著性值,nj是超像素vj中包含的像素个数,λj表示已计算得到的超像素块vj的深度可信度值, 是超像素块vj的质心坐标, 表示整个深度图像的
质心位置;aij表示预处理后的深度图中两个超像素块之间的相似度,
2
m′i和m′j表示超像素vi'和v'j的平均值; 为控制常量, σ为控制相似度矩阵亲和
2
度常数,σ=0.1;
[0041] 深度紧凑度计算的显著性图Scom最终实现为:Scom(vi)=1‑norm(Sdc(vi)),norm(·)为归一化函数,将显著值重新映射到[0,255]的范围得到深度紧凑度显著图。实现结果如图5所示。
[0042] (2‑3)深度对比度显著性分析:像素k的显著值Scon(k)基于其与深度图像中的所有其他像素的对比度: fl表示在经过初略背景滤除后的深度图中不同深度值出现的频率。其中,D(I′k,I′l)=||I′k‑I′l||,表示图像像素点I′k与其他图像像素点I′l之间的空间距离,像素点I′k和I′l的深度值在[0,255]范围内。实现结果如图6所示。
[0043] (2‑4)将深度紧凑度显著性结果Scom和深度对比度显著性结果Scon融合,获取基于深度信息的显著图为:Sdepth=θScom+(1‑θ)Scon;θ为两个显著性项之间的正控制参数,θ=0.5。实现结果如图7所示。
[0044] (3)结合颜色特征进行立体视觉显著性检测的具体步骤是:
[0045] (3‑1)基于背景先验的并行结构:
[0046] 首先通过消除假边界来最小化背景的影响,以提高检测的准确性。实现方法为:Dcolor(Ip,Iq)表示不同边之间的颜色距离差异值,R/G/B分
别为红色、绿色和蓝色通道,p、q是四个边界中任意两边, 是边界p上三通道的特征平均值, 是边界q上三通道的特征平均值。通过计算所有边界之间的距离D得到4×4矩阵A并归一化。当矩阵A中某列和最大时,其对应的边界与其他图像边界存在较大的特征差异,可能包含前景目标。在最大列之和 与最小列之和 满足条件 条件
时,列和最大值对应的边界被定义为假边界,并移除;τC为设定阈值,0.1≤τC≤1.0,本实施例τC=0.4。
[0047] 采用已有流行排序算法作为依托,采用通用的流行排序算法函数标识,分别进行基于背景和前景的显著性排序。其中,对滤除假边界后的其他边计算基于该边背景的显著图,在此以左边界为例实现方法为: Sl为以深度图左边界为背景种子点计算得到的显著结果, 是归一化矢量,i表示超像素块索引。采用相同方法,计算基于其他边界作为查询种子点时的显著性结果。
[0048] 最后,基于背景先验的显著性排序结果为: 其中,对应剩余边界, 表示基于每个背景边的显著结果图,最终乘性融合得到基于背景先验的显著性排序结果Sb(i)。当一个或多个边界与前景对象相邻时,去除假边界可以提高显著目标检测的准确性。
[0049] 同样的采用流行排序算法分析基于前景的显著性实现表示为:
[0050] 在分别求得基于背景和前景的显著性图后乘性融合,得到初步显著目标区域如下:
[0051] Sinitial(i)=Sb(i)·Sf(i)。
[0052] (3‑2)在得到初步显著结果后,将图中的前景区域作为种子点进行特征优化,重新定义流行排序函数指示向量为: 在经过显著特征优化后计算得到最终的基于RGB颜色特征的显著性图。
[0053] (3‑3)结合深度信息的显著性更新:结合深度信息考虑空间场景位置信息对显著性的贡献以优化初始结果。利用细胞自动机迭代方法(Saliency Cellular Automata,SCA)来更新显著性结果,并针对本发明的实际情况对该方法进行了如下修改:
[0054]
[0055] 其中,||di,dj||表示超像素块i和j之间的深度距离,Ni是超像素i的邻域集合,fij2 2
表示不同超像素块之间的相似度,δ表示控制相似强度的参数,δ=0.1。
[0056] 基于深度特征相似性,每个超像素的显著性值由自身的显著特征值及其邻域特征值确定。设定细胞机迭代传播的次数设置为K次,K=5~50,本实施例K=10,通过结合深度信息的显著性更新,得到更准确的RGB‑D显著性图。最后的检测结果如图8所示。
[0057] 由于考虑到不同场景下本发明的检测结果,还选取5组不同场景下的RGB‑D图像测试序列进行实验使用本发明的立体视频显著性检测方法进行检测,检测的结果如图9所示。从实验结果验证了本发明方法能够有效的检测出RGB‑D立体图像的显著区域。
[0058] 本发明的保护内容不局限于以上实例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。