首页 > 专利 > 宁波大学 > 一种基于联合字典的彩色与深度图像后处理方法专利详情

一种基于联合字典的彩色与深度图像后处理方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2015-11-24
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2016-05-04
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2018-04-17
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2035-11-24
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201510822606.8 申请日 2015-11-24
公开/公告号 CN105472393B 公开/公告日 2018-04-17
授权日 2018-04-17 预估到期日 2035-11-24
申请年 2015年 公开/公告年 2018年
缴费截止日
分类号 H04N19/597H04N19/147H04N19/117H04N13/161H04N13/122H04N13/15 主分类号 H04N19/597
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 2
权利要求数量 3 非专利引证数量 1
引用专利数量 6 被引证专利数量 1
非专利引证 1、秦振涛等.基于稀疏表示和自适应字典学习的“高分一号”遥感图像去噪《.光电工程》.2013,M.Zhou等.Nonparametric bayesiandictionary learning for analysis of noisyand incomplete images《.IEEE Trans. onImage Processing》.2011,Li He等.Beta Process Joint DictionaryLearning for Coupled Feature Spaces withApplication to Single Image Super-Resolution《.IEEE Conference on ComputerVision and Pattern Recognition》.2013,;
引用专利 CN104732492A、US20130251245A1、CN102523454A、CN104036501A、CN104036502A、CN104408716A 被引证专利
专利权维持 2 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 宁波大学 当前专利权人 宁波大学
发明人 邵枫、袁其政、李福翠 第一发明人 邵枫
地址 浙江省宁波市江北区风华路818号 邮编 315211
申请人数量 1 发明人数量 3
申请人所在省 浙江省 申请人所在市 浙江省宁波市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
宁波奥圣专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
周珏
摘要
本发明公开了一种基于联合字典的彩色与深度图像后处理方法,其在训练阶段,采用K‑SVD方法对多幅无失真彩色图像中的所有子块构成的集合、多幅无失真深度图像中的所有子块构成的集合进行字典训练操作,构造得到彩色字典表和深度字典表;在测试阶段,根据彩色字典表和深度字典表,考虑到彩色特征空间与深度特征空间之间的几何关系,对待处理的彩色与深度图像构造联合字典表,根据联合字典表对彩色与深度图像进行后处理,得到后处理的彩色与深度图像;优点是在训练阶段不需要复杂的机器学习训练过程,在测试阶段只需构造能反映彩色与深度图像本质特征的联合字典,根据联合字典表进行后处理操作,能够保持更好的对象轮廓信息,提高虚拟视点图像的质量。
  • 摘要附图
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图1
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图2a
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图2b
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图2c
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图3a
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图3b
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图3c
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图4a
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图4b
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图4c
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图5a
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图5b
    一种基于联合字典的彩色与深度图像后处理方法
  • 说明书附图:图5c
    一种基于联合字典的彩色与深度图像后处理方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2018-04-17 授权
2 2016-05-04 实质审查的生效 IPC(主分类): H04N 19/597 专利申请号: 201510822606.8 申请日: 2015.11.24
3 2016-04-06 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于联合字典的彩色与深度图像后处理方法,其特征在于包括训练阶段和测试
阶段两个过程,所述的训练阶段过程的具体步骤如下:
①-1、选取N幅宽度为W且高度为H的原始的无失真彩色图像及对应的深度图像,将由N
幅原始的无失真彩色图像构成的彩色图像集合记为{Ii,org|1≤i≤N},将由N幅原始的无失真彩色图像对应的深度图像构成的深度图像集合记为{Di,org|1≤i≤N},其中,N≥1,Ii,org表示{Ii,org|1≤i≤N}中的第i幅彩色图像,Di,org表示{Di,org|1≤i≤N}中的第i幅深度图像,Ii,org与Di,org对应;
①-2、将{Ii,org|1≤i≤N}中的每幅彩色图像划分成 个互不重叠的尺寸大小为8
×8的子块;然后采用K-SVD方法对{Ii,org|1≤i≤N}中的所有彩色图像中的子块构成的集合进行字典训练操作,构造得到{Ii,org|1≤i≤N}的彩色字典表,记为Dc,其中,Dc的维数为64×K,K表示设定的字典的个数,K≥1;
同样,将{Di,org|1≤i≤N}中的每幅深度图像划分成 个互不重叠的尺寸大小为8
×8的子块;然后采用K-SVD方法对{Di,org|1≤i≤N}中的所有深度图像中的子块构成的集合进行字典训练操作,构造得到{Di,org|1≤i≤N}的深度字典表,记为Dd,其中,Dd的维数为64×K;
所述的测试阶段过程的具体步骤如下:
②-1、对于任意一幅宽度为W'且高度为H'的经JPEG编码失真的彩色图像Itest及对应的
经JPEG编码失真的深度图像Dtest;
②-2、将Itest划分成 个互不重叠的尺寸大小为8×8的子块;同样,将Dtest划分成
个互不重叠的尺寸大小为8×8的子块;然后根据Itest中的所有子块构成的集合和
Dtest中的所有子块构成的集合、在训练阶段构造得到的Dc和Dd,获取Itest和Dtest的联合字典表,记为{Dc,test,Dd,test},其中,Dc,test为{Dc,test,Dd,test}中的彩色字典表,Dd,test为{Dc,test,Dd,test}中的深度字典表,Dc,test和Dd,test的维数均为64×K,K表示设定的字典的个数,K≥1;
所述的步骤②-2中的{Dc,test,Dd,test}的获取过程为:
②-2a、将Itest中的所有子块构成一个集合,记为 并将Dtest中的所有
子块构成一个集合,记为 其中,M'表示Itest中的子块的总个数,M'亦表示
Dtest中的子块的总个数, 的维数为64×1, 表示Itest中的第t'个子块
中的所有像素点组成的列向量, 的维数为64×1, 表示Dtest中的第t'个子块中的所
有像素点组成的列向量;
②-2b、根据在训练阶段构造得到的Dc,获取 中的每个列向量的稀疏系
数矩阵,将 的稀疏系数矩阵记为 通过求解 得
到,其中, 的维数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,T为误差系数;
同样,根据在训练阶段构造得到的Dd,获取 中的每个列向量的稀疏系
数矩阵,将 的稀疏系数矩阵记为 通过求解 得
到,其中, 的维数为K×1,T为误差系数;
②-2c、根据 和 中的所有列向量各自的稀疏系数矩
阵,计算彩色联合矩阵和深度联合矩阵,对应记为Mc,test和Md,test,Mc,test=[(Xc,test(Xc,test)T)-1Xc,test(Xd,test)T]T,Md,test=[(Xd,test(Xd,test)T)-1Xd,test(Xc,test)T]T,其中,Xc,test的维数为K×M', 表示 中的第1个列向量的稀疏
系数矩阵, 表示 中的第t'个列向量的稀疏系数矩阵, 表示
中的第M'个列向量的稀疏系数矩阵,Xd,test的维数为K×M',
表示 中的第1个列向量的稀疏系数矩
阵, 表示 中的第t'个列向量的稀疏系数矩阵, 表示
中的第M'个列向量的稀疏系数矩阵,(Xc,test)T为Xc,test的转置矩阵,
(Xd,test)T为Xd,test的转置矩阵,(Xc,test(Xc,test)T)-1为Xc,test(Xc,test)T的逆矩阵,(Xd,test(Xd,test)T)-1为Xd,test(Xd,test)T的逆矩阵,[(Xc,test(Xc,test)T)-1Xc,test(Xd,test)T]T为(Xc,test(Xc,test)T)-1Xc,test(Xd,test)T的转置矩阵,[(Xd,test(Xd,test)T)-1Xd,test(Xc,test)T]T为(Xd,testT -1 T
(Xd,test)) Xd,test(Xc,test)的转置矩阵;
②-2d、对训练阶段构造得到的Dc和Dd、Mc,test和Md,test进行联合,得到Itest和Dtest的联合字典表{Dc,test,Dd,test},Dc,test=DcMc,test,Dd,test=DdMd,test;
②-3、根据Dc,test,获取 中的每个列向量的稀疏系数矩阵,将 的稀
疏系数矩阵记为 通过求解 得到,其中, 的维
数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,Tp1为误差系数;
同样,根据Dd,test,获取 中的每个列向量的稀疏系数矩阵,将 的稀
疏系数矩阵记为 通过求解 得到,其中, 的维
数为K×1,Tp2为误差系数;
②-4、计算 中的每个列向量的重建向量,将 的重建向量记为
然后将 中的每个列向量的重建向量中的每个元
素的值作为Itest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个
元素的值,将其作为Itest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Itest的后处理图像,记为I'test,其中,1≤j≤64;
同样,计算 中的每个列向量的重建向量,将 的重建向量记为
然后将 中的每个列向量的重建向量中的每个元
素的值作为Dtest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个
元素的值,将其作为Dtest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Dtest的后处理图像,记为D'test。

2.根据权利要求1所述的一种基于联合字典的彩色与深度图像后处理方法,其特征在
于所述的步骤①-2中的Dc的获取过程为:
①-2a、将{Ii,org|1≤i≤N}中的N幅彩色图像中的所有子块构成一个集合,记为
其中,此处M表示{Ii,org|1≤i≤N}中的所有彩色图像中的子块的总个数,
的维数为64×1, 表示{Ii,org|1≤i≤N}中的所有彩色图像中的第t个
子块中的所有像素点组成的列向量;
①-2b、采用K-SVD方法对 进行字典训练操作,构造得到{Ii,org|1≤i≤N}
的彩色字典表Dc,Dc通过K-SVD方法求解 得到,其中,min()为取最小值函
数,符号“|| ||2”为求取矩阵的2-范数符号,Yc的维数为64×M, 为
中的第1个列向量, 为 中的第t个列向量, 为
中的第M个列向量,Xc的维数为K×M, 表示Xc中的第1个列向量, 亦
表示 的稀疏系数矩阵, 表示Xc中的第t个列向量, 亦表示 的稀疏系数矩阵, 表示
Xc中的第M个列向量, 亦表示 的稀疏系数矩阵,符号“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,T为误差系数;
所述的步骤①-2中的Dd的获取过程为:
①-2c、将{Di,org|1≤i≤N}中的N幅深度图像中的所有子块构成一个集合,记为
其中,此处M表示{Di,org|1≤i≤N}中的所有深度图像中的子块的总个数,
的维数为64×1, 表示{Di,org|1≤i≤N}中的所有深度图像中的第t个
子块中的所有像素点组成的列向量;
①-2d、采用K-SVD方法对 进行字典训练操作,构造得到{Di,org|1≤i≤N}
的深度字典表Dd,Dd通过K-SVD方法求解 得到,其中,Yd的维数为64×M,
为 中的第1个列向量, 为 中的第t个
列向量, 为 中的第M个列向量,Xd的维数为K×M,
表示Xd中的第1个列向量, 亦表示 的稀疏系数矩阵, 表示Xd中的第t个列向量, 亦表
示 的稀疏系数矩阵, 表示Xd中的第M个列向量, 亦表示 的稀疏系数矩阵,符号
“[]”为矢量表示符号,T为误差系数。

3.根据权利要求1所述的一种基于联合字典的彩色与深度图像后处理方法,其特征在
于所述的步骤②-3中的Tp1的取值与对Itest进行JPEG编码的压缩因子q1有关,
Tp2的取值与对Dtest进行JPEG编码的压缩因子q2有关,
其中,C=1.15,c1=36.143,c2=-19.789,c3=3.881,
c4=-0.250。
说明书

技术领域

[0001] 本发明涉及一种视频信号的处理方法,尤其是涉及一种基于联合字典的彩色与深度图像后处理方法。

背景技术

[0002] 随着通信技术和视频技术的不断成熟,高质量的视觉体验成为发展的主流,而3D视频能够提供深度信息,满足人们对立体感和真实感的视觉需求。但是3D视频的数据量非常庞大,需要进行编码以适应传输或存储的要求。近年来,基于块的离散余弦变换已经广泛的应用于图像和视频压缩之中,如:JPEG、MPEG、H.264/AVC等,然而,视频经过编码后会产生块效应,并严重影响观看和绘制效果,因此有效的滤波后处理技术已成为研究的热点。
[0003] 现有的视频编码标准采用环路处理方法将去除块效应操作嵌入到编码框架中,这样能有效地避免块效应在帧间的传播;或者通过采用滤波方法对解码视频图像进行后处理,但这类方法更多的是考虑如何提升编码,而经过压缩后的彩色与深度图像,结构信息会发生严重的退化,而彩色与深度图像本身存在较强的结构关联度,因此,如何构造能反映彩色与深度图像本质特征的联合字典,如何根据联合字典来对彩色与深度图像进行后处理操作,都是在对彩色与深度图像后处理研究中需要重点解决的技术问题。

发明内容

[0004] 本发明所要解决的技术问题是提供一种基于联合字典的彩色与深度图像后处理方法,其能够充分地恢复出彩色与深度图像的结构信息,能够有效地提高虚拟视点图像的绘制性能。
[0005] 本发明解决上述技术问题所采用的技术方案为:一种基于联合字典的彩色与深度图像后处理方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:
[0006] ①-1、选取N幅宽度为W且高度为H的原始的无失真彩色图像及对应的深度图像,将由N幅原始的无失真彩色图像构成的彩色图像集合记为{Ii,org|1≤i≤N},将由N幅原始的无失真彩色图像对应的深度图像构成的深度图像集合记为{Di,org|1≤i≤N},其中,N≥1,Ii,org表示{Ii,org|1≤i≤N}中的第i幅彩色图像,Di,org表示{Di,org|1≤i≤N}中的第i幅深度图像,Ii,org与Di,org对应;
[0007] ①-2、将{Ii,org|1≤i≤N}中的每幅彩色图像划分成 个互不重叠的尺寸大小为8×8的子块;然后采用K-SVD方法对{Ii,org|1≤i≤N}中的所有彩色图像中的子块构成的集合进行字典训练操作,构造得到{Ii,org|1≤i≤N}的彩色字典表,记为Dc,其中,Dc的维数为64×K,K表示设定的字典的个数,K≥1;
[0008] 同样,将{Di,org|1≤i≤N}中的每幅深度图像划分成 个互不重叠的尺寸大小为8×8的子块;然后采用K-SVD方法对{Di,org|1≤i≤N}中的所有深度图像中的子块构成的集合进行字典训练操作,构造得到{Di,org|1≤i≤N}的深度字典表,记为Dd,其中,Dd的维数为64×K;
[0009] 所述的测试阶段过程的具体步骤如下:
[0010] ②-1、对于任意一幅宽度为W'且高度为H'的经JPEG编码失真的彩色图像Itest及对应的经JPEG编码失真的深度图像Dtest;
[0011] ②-2、将Itest划分成 个互不重叠的尺寸大小为8×8的子块;同样,将Dtest划分成 个互不重叠的尺寸大小为8×8的子块;然后根据Itest中的所有子块构成的集合和Dtest中的所有子块构成的集合、在训练阶段构造得到的Dc和Dd,获取Itest和Dtest的联合字典表,记为{Dc,test,Dd,test},其中,Dc,test为{Dc,test,Dd,test}中的彩色字典表,Dd,test为{Dc,test,Dd,test}中的深度字典表,Dc,test和Dd,test的维数均为64×K,K表示设定的字典的个数,K≥1;
[0012] ②-3、根据Dc,test,获取 中的每个列向量的稀疏系数矩阵,将的稀疏系数矩阵记为 通过求解 得到,其中, 的
维数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,Tp1为误差系数;
[0013] 同样,根据Dd,test,获取 中的每个列向量的稀疏系数矩阵,将的稀疏系数矩阵记为 通过求解 得到,其中,
的维数为K×1,Tp2为误差系数;
[0014] ②-4、计算 中的每个列向量的重建向量,将 的重建向量记为 然后将 中的每个列向量的重建向量中的每个
元素的值作为Itest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个元素的值,将其作为Itest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Itest的后处理图像,记为I'test,其中,1≤j≤64;
[0015] 同样,计算 中的每个列向量的重建向量,将 的重建向量记为然后将 中的每个列向量的重建向量中的每个元
素的值作为Dtest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个元素的值,将其作为Dtest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Dtest的后处理图像,记为D'test。
[0016] 所述的步骤①-2中的Dc的获取过程为:
[0017] ①-2a、将{Ii,org|1≤i≤N}中的N幅彩色图像中的所有子块构成一个集合,记为其中,此处M表示{Ii,org|1≤i≤N}中的所有彩色图像中的子块的总个数,的维数为64×1, 表示{Ii,org|1≤i≤N}中的所有彩色图像中的第t个
子块中的所有像素点组成的列向量;
[0018] ①-2b、采用K-SVD方法对 进行字典训练操作,构造得到{Ii,org|1≤i≤N}的彩色字典表Dc,Dc通过K-SVD方法求解 得到,其中,min()为取最
小值函数,符号“|| ||2”为求取矩阵的2-范数符号,Yc的维数为64×M,
为 中的第1个列向量, 为 中的第t个列向量, 为
中的第M个列向量,Xc的维数为K×M, 表示Xc中的第1个
列向量, 亦表示 的稀疏系数矩阵, 表示Xc中的第t个列向量, 亦表示 的稀疏系数
矩阵, 表示Xc中的第M个列向量, 亦表示 的稀疏系数矩阵,符号“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,T为误差系数;
[0019] 所述的步骤①-2中的Dd的获取过程为:
[0020] ①-2c、将{Di,org|1≤i≤N}中的N幅深度图像中的所有子块构成一个集合,记为其中,此处M表示{Di,org|1≤i≤N}中的所有深度图像中的子块的总个数,的维数为64×1, 表示{Di,org|1≤i≤N}中的所有深度图像中的第t个
子块中的所有像素点组成的列向量;
[0021] ①-2d、采用K-SVD方法对 进行字典训练操作,构造得到{Di,org|1≤i≤N}的深度字典表Dd,Dd通过K-SVD方法求解 得到,其中,Yd的维数为64
×M, 为 中的第1个列向量, 为 中的第
t个列向量, 为 中的第M个列向量,Xd的维数为K×M,
表示Xd中的第1个列向量, 亦表示 的稀疏系数矩阵, 表示Xd中的第t个列向量, 亦
表示 的稀疏系数矩阵, 表示Xd中的第M个列向量, 亦表示 的稀疏系数矩阵,符号
“[]”为矢量表示符号,T为误差系数。
[0022] 所述的步骤②-2中的{Dc,test,Dd,test}的获取过程为:
[0023] ②-2a、将Itest中的所有子块构成一个集合,记为 并将Dtest中的所有子块构成一个集合,记为 其中,M'表示Itest中的子块的总个数,M'亦
表示Dtest中的子块的总个数, 的维数为64×1, 表示Itest中的第t'个
子块中的所有像素点组成的列向量, 的维数为64×1, 表示Dtest中的第t'个子块中
的所有像素点组成的列向量;
[0024] ②-2b、根据在训练阶段构造得到的Dc,获取 中的每个列向量的稀疏系数矩阵,将 的稀疏系数矩阵记为 通过求解
得到,其中, 的维数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,T为误差系数;
[0025] 同样,根据在训练阶段构造得到的Dd,获取 中的每个列向量的稀疏系数矩阵,将 的稀疏系数矩阵记为 通过求解
得到,其中, 的维数为K×1,T为误差系数;
[0026] ②-2c、根据 和 中的所有列向量各自的稀疏系数矩阵,计算彩色联合矩阵和深度联合矩阵,对应记为Mc,test和Md,test,

中,Xc,test的维数为K×M', 表示 中的
第1个列向量的稀疏系数矩阵, 表示 中的第t'个列向量的稀疏系数矩
阵, 表示 中的第M'个列向量的稀疏系数矩阵,Xd,test的维数为K×M',
表示 中的第1个列向量的稀疏系数矩
阵, 表示 中的第t'个列向量的稀疏系数矩阵, 表示
中的第M'个列向量的稀疏系数矩阵,(Xc,test)T为Xc,test的转置矩阵,(Xd,test)T为Xd,test的转置矩阵, 为Xc,test(Xc,test)T的逆矩阵, 为Xd,test(Xd,test)T的逆
矩阵, 为 的转置矩阵,
为 的转置矩阵;
[0027] ②-2d、对训练阶段构造得到的Dc和Dd、Mc,test和Md,test进行联合,得到Itest和Dtest的联合字典表{Dc,test,Dd,test},Dc,test=DcMc,test,Dd,test=DdMd,test。
[0028] 所述的步骤②-3中的Tp1的取值与对Itest进行JPEG编码的压缩因子q1有关,Tp2的取值与对Dtest进行JPEG编码的压缩因子q2有关,
其中,C=1.15,c1=36.143,c2=-19.789,c3=3.881,
c4=-0.250。
[0029] 与现有技术相比,本发明的优点在于:
[0030] 1)本发明方法考虑到失真会导致彩色图像或深度图像结构信息的损失,因此在训练阶段对由多幅无失真彩色图像中的所有子块构成的集合进行字典训练操作,构造得到彩色字典表,对由多幅无失真深度图像中的所有子块构成的集合进行字典训练操作,构造得到深度字典表,这样避免了复杂的机器学习训练过程,降低了计算复杂度。
[0031] 2)本发明方法在测试阶段,根据在训练阶段构造得到的彩色字典表和深度字典表,考虑到彩色特征空间与深度特征空间之间的几何关系,对不同的待处理的彩色图像与深度图像构造对应的联合字典表,并根据联合字典表对彩色图像与深度图像进行后处理操作,这样能够保持更好的对象轮廓信息,提高了虚拟视点图像的质量。

实施方案

[0045] 以下结合附图实施例对本发明作进一步详细描述。
[0046] 本发明提出的一种基于联合字典的彩色与深度图像后处理方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程,所述的训练阶段过程的具体步骤如下:
[0047] ①-1、选取N幅宽度为W且高度为H的原始的无失真彩色图像及对应的深度图像,将由N幅原始的无失真彩色图像构成的彩色图像集合记为{Ii,org|1≤i≤N},将由N幅原始的无失真彩色图像对应的深度图像构成的深度图像集合记为{Di,org|1≤i≤N},其中,N≥1,Ii,org表示{Ii,org|1≤i≤N}中的第i幅彩色图像,Di,org表示{Di,org|1≤i≤N}中的第i幅深度图像,Ii,org与Di,org对应。
[0048] 在具体实施时,原始的无失真彩色图像及对应的深度图像选取的幅数应当适当,如果N的值越大,则通过训练得到的字典表的精度也就越高,但计算复杂度也就越高,因此在本实施例中取N=10。
[0049] ①-2、将{Ii,org|1≤i≤N}中的每幅彩色图像划分成 个互不重叠的尺寸大小为8×8的子块;然后采用K-SVD方法对{Ii,org|1≤i≤N}中的所有彩色图像中的子块构成的集合进行字典训练操作,构造得到{Ii,org|1≤i≤N}的彩色字典表,记为Dc,其中,Dc的维数为64×K,K表示设定的字典的个数,K≥1,K的取值过大会出现过聚类现象,K的取值过小会出现欠聚类现象,在本实施例中取K=128。
[0050] 在此具体实施例中,步骤①-2中的Dc的获取过程为:
[0051] ①-2a、将{Ii,org|1≤i≤N}中的N幅彩色图像中的所有子块构成一个集合,记为其中,此处M表示{Ii,org|1≤i≤N}中的所有彩色图像中的子块的总个数,的维数为64×1, 表示{Ii,org|1≤i≤N}中的所有彩色图像中的第t个子
块中的所有像素点组成的列向量, 亦表示 中的第t个列向量。
[0052] ①-2b、采用现有的K-SVD方法对 进行字典训练操作,构造得到{Ii,org|1≤i≤N}的彩色字典表Dc,Dc通过K-SVD方法求解 得到,其中,min()为
取最小值函数,符号“||  ||2”为求取矩阵的2-范数符号,Yc的维数为64×M,
为 中的第1个列向量, 亦表示{Ii,org|1≤i≤N}中的
所有彩色图像中的第1个子块中的所有像素点组成的列向量, 为 中的第t个
列向量, 亦表示{Ii,org|1≤i≤N}中的所有彩色图像中的第t个子块中的所有像素点组成的列向量, 为 中的第M个列向量, 亦表示{Ii,org|1≤i≤N}中的所有彩色
图像中的第M个子块中的所有像素点组成的列向量,Xc的维数为K×M,
表示Xc中的第1个列向量, 亦表示 的稀疏系数矩阵, 表示Xc中的第t个列向量, 亦
表示 的稀疏系数矩阵, 表示Xc中的第M个列向量, 亦表示 的稀疏系数矩阵,符号
“[]”为矢量表示符号,符号“|| ||0”为求取矩阵的0-范数符号,T为误差系数,在本实施例中取T=0.1。
[0053] 同样,将{Di,org|1≤i≤N}中的每幅深度图像划分成 个互不重叠的尺寸大小为8×8的子块;然后采用K-SVD方法对{Di,org|1≤i≤N}中的所有深度图像中的子块构成的集合进行字典训练操作,构造得到{Di,org|1≤i≤N}的深度字典表,记为Dd,其中,Dd的维数为64×K。
[0054] 在此具体实施例中,步骤①-2中的Dd的获取过程为:
[0055] ①-2c、将{Di,org|1≤i≤N}中的N幅深度图像中的所有子块构成一个集合,记为其中,此处M表示{Di,org|1≤i≤N}中的所有深度图像中的子块的总个数,的维数为64×1, 表示{Di,org|1≤i≤N}中的所有深度图像中的第t个
子块中的所有像素点组成的列向量, 亦表示 中的第t个列向量。
[0056] ①-2d、采用现有的K-SVD方法对 进行字典训练操作,构造得到{Di,org|1≤i≤N}的深度字典表Dd,Dd通过K-SVD方法求解 得到,其中,Yd的维数
为64×M, 为 中的第1个列向量, 亦表示{Di,org|1≤i
≤N}中的所有深度图像中的第1个子块中的所有像素点组成的列向量, 为
中的第t个列向量, 亦表示{Di,org|1≤i≤N}中的所有深度图像中的第t个子块中的所有像素点组成的列向量, 为 中的第M个列向量, 亦表示{Di,org|1≤i≤N}中的
所有深度图像中的第M个子块中的所有像素点组成的列向量,Xd的维数为K×M,
表示Xd中的第1个列向量, 亦表示 的稀疏系数矩阵, 表示Xd中
的第t个列向量, 亦表示 的稀疏系数矩阵, 表示Xd中的第M个列向量, 亦表示 的
稀疏系数矩阵,符号“[]”为矢量表示符号,T为误差系数,在本实施例中取T=0.1。
[0057] 所述的测试阶段过程的具体步骤如下:
[0058] ②-1、对于任意一幅宽度为W'且高度为H'的经JPEG编码失真的彩色图像Itest及对应的经JPEG编码失真的深度图像Dtest;在此,W'与W可以相同也可以不同,H'与H可以相同也可以不同。
[0059] ②-2、将Itest划分成 个互不重叠的尺寸大小为8×8的子块;同样,将Dtest划分成 个互不重叠的尺寸大小为8×8的子块;然后由于在训练阶段独立构造的彩色字典表和深度字典表忽略了彩色特征空间与深度特征空间之间的几何关系,因此本发明方法根据Itest中的所有子块构成的集合和Dtest中的所有子块构成的集合、在训练阶段构造得到的Dc和Dd,获取Itest和Dtest的联合字典表,记为{Dc,test,Dd,test},其中,Dc,test为{Dc,test,Dd,test}中的彩色字典表,Dd,test为{Dc,test,Dd,test}中的深度字典表,Dc,test和Dd,test的维数均为64×K,K表示设定的字典的个数,K≥1,K的取值过大会出现过聚类现象,K的取值过小会出现欠聚类现象,在本实施例中取K=128。
[0060] 在此具体实施例中,步骤②-2中的{Dc,test,Dd,test}的获取过程为:
[0061] ②-2a、将Itest中的所有子块构成一个集合,记为 并将Dtest中的所有子块构成一个集合,记为 其中,M'表示Itest中的子块的总个数,M'亦
表示Dtest中的子块的总个数, 的维数为64×1, 表示Itest中的第t'个
子块中的所有像素点组成的列向量, 亦表示 中的第t'个列向量,
的维数为64×1, 表示Dtest中的第t'个子块中的所有像素点组成的列向量, 亦
表示 中的第t'个列向量。
[0062] ②-2b、根据在训练阶段构造得到的Dc,获取 中的每个列向量的稀疏系数矩阵,将 的稀疏系数矩阵记为 通过求解
得到,其中, 的维数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,T为误差系数,在本实施例中取T=0.1。
[0063] 同样,根据在训练阶段构造得到的Dd,获取 中的每个列向量的稀疏系数矩阵,将 的稀疏系数矩阵记为 通过求解
得到,其中, 的维数为K×1,T为误差系数,在本实施例中取T=0.1。
[0064] ②-2c、根据 和 中的所有列向量各自的稀疏系数矩阵,计算彩色联合矩阵和深度联合矩阵,对应记为Mc,test和Md,test,

中,Xc,test的维数为K×M', 表示 中的
第1个列向量的稀疏系数矩阵, 表示 中的第t'个列向量的稀疏系数矩
阵, 表示 中的第M'个列向量的稀疏系数矩阵,Xd,test的维数为K×M',
表示 中的第1个列向量的稀疏系数矩
阵, 表示 中的第t'个列向量的稀疏系数矩阵, 表示
中的第M'个列向量的稀疏系数矩阵,(Xc,test)T为Xc,test的转置矩阵,
(Xd,test)T为Xd,test的转置矩阵, 为Xc,test(Xc,test)T的逆矩阵,
为Xd,test(Xd,test)T的逆矩阵, 为
的 转 置 矩 阵 , 为
的转置矩阵。
[0065] ②-2d、对训练阶段构造得到的Dc和Dd、Mc,test和Md,test进行联合,得到Itest和Dtest的联合字典表{Dc,test,Dd,test},Dc,test=DcMc,test,Dd,test=DdMd,test。
[0066] ②-3、根据Dc,test,获取 中的每个列向量的稀疏系数矩阵,将的稀疏系数矩阵记为 通过求解 得到,其中,
的维数为K×1,min()为取最小值函数,符号“|| ||0”为求取矩阵的0-范数符号,符号“|| ||2”为求取矩阵的2-范数符号,Tp1为误差系数,在本实施例中Tp1的取值与对彩色图像Itest进行JPEG编码的压缩因子q1有关, C=1.15,c1=
36.143,c2=-19.789,c3=3.881,c4=-0.250。
[0067] 同样,根据Dd,test,获取 中的每个列向量的稀疏系数矩阵,将的稀疏系数矩阵记为 通过求解 得到,其中,
的维数为K×1,Tp2为误差系数,在本实施例中Tp2的取值与对深度图像Dtest进行JPEG编码的压缩因子q2有关, C=1.15,c1=36.143,c2=-19.789,
c3=3.881,c4=-0.250。
[0068] ②-4、计算 中的每个列向量的重建向量,将 的重建向量记为 然后将 中的每个列向量的重建向量中的每个
元素的值作为Itest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个元素的值,将其作为Itest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Itest的后处理图像,记为I'test,其中,1≤j≤64。
[0069] 同样,计算 中的每个列向量的重建向量,将 的重建向量记为 然后将 中的每个列向量的重建向量中的每个
元素的值作为Dtest中对应的子块中对应的像素点经后处理后的像素值,对于 中的第j个元素的值,将其作为Dtest中的第t'个子块中的第j个像素点经后处理后的像素值,从而得到Dtest的后处理图像,记为D'test。
[0070] 以下就本发明方法对“Undo Dancer”和“Balloons”三维视频序列中的彩色图像及对应的深度图像进行后处理和虚拟视点图像绘制的主客观性能进行比较。
[0071] 对“Undo Dancer”和“Balloons”三维视频序列中的彩色图像及对应的深度图像进行滤波后处理实验,图2a给出了“Undo Dancer”三维视频序列中的一帧经JPEG编码失真的彩色图像,图2b给出了“Undo Dancer”三维视频序列中的一帧经JPEG编码失真的深度图像,图2c给出了采用图2a所示的彩色图像和图2b所示的深度图像绘制得到的虚拟视点图像;图3a给出了图2a所示的彩色图像经本发明方法处理后得到的彩色图像即彩色滤波图像,图3b给出了图2b所示的深度图像经本发明方法处理后得到的深度图像即深度滤波图像,图3c给出了采用图3a所示的彩色图像和图3b所示的深度图像绘制得到的虚拟视点图像;图4a给出了“Balloons”三维视频序列中的一帧经JPEG编码失真的彩色图像,图4b给出了“Balloons”三维视频序列中的一帧经JPEG编码失真的深度图像,图4c给出了采用图4a所示的彩色图像和图4b所示的深度图像绘制得到的虚拟视点图像;图5a给出了图4a所示的彩色图像经本发明方法处理后得到的彩色图像即彩色滤波图像,图5b给出了图4b所示的深度图像经本发明方法处理后得到的深度图像即深度滤波图像,图5c给出了采用图5a所示的彩色图像和图5b所示的深度图像绘制得到的虚拟视点图像。从图2a至图5c中可以看出,采用本发明方法后处理滤波后的彩色图像和深度图像均保持了重要的几何特征,并且采用本发明方法后处理滤波后的彩色图像和深度图像绘制得到的虚拟视点图像能够保持更好的对象轮廓信息,提高了虚拟视点图像的质量。

附图说明

[0032] 图1为本发明方法的总体实现框图;
[0033] 图2a为“Undo Dancer”三维视频序列中的一帧经JPEG编码失真的彩色图像;
[0034] 图2b为“Undo Dancer”三维视频序列中的一帧经JPEG编码失真的深度图像;
[0035] 图2c为采用图2a所示的彩色图像和图2b所示的深度图像绘制得到的虚拟视点图像;
[0036] 图3a为图2a所示的彩色图像经本发明方法处理后得到的彩色图像;
[0037] 图3b为图2b所示的深度图像经本发明方法处理后得到的深度图像;
[0038] 图3c为采用图3a所示的彩色图像和图3b所示的深度图像绘制得到的虚拟视点图像;
[0039] 图4a为“Balloons”三维视频序列中的一帧经JPEG编码失真的彩色图像;
[0040] 图4b为“Balloons”三维视频序列中的一帧经JPEG编码失真的深度图像;
[0041] 图4c为采用图4a所示的彩色图像和图4b所示的深度图像绘制得到的虚拟视点图像;
[0042] 图5a为图4a所示的彩色图像经本发明方法处理后得到的彩色图像;
[0043] 图5b为图4b所示的深度图像经本发明方法处理后得到的深度图像;
[0044] 图5c为采用图5a所示的彩色图像和图5b所示的深度图像绘制得到的虚拟视点图像。
专利联系人(活跃度排行)
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号