首页 > 专利 > 宁波大学 > 一种深度图像的后处理方法专利详情

一种深度图像的后处理方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2012-06-29
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2013-03-27
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2015-03-18
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2032-06-29
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201210226018.4 申请日 2012-06-29
公开/公告号 CN102769749B 公开/公告日 2015-03-18
授权日 2015-03-18 预估到期日 2032-06-29
申请年 2012年 公开/公告年 2015年
缴费截止日
分类号 H04N19/597H04N19/63 主分类号 H04N19/597
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 2
权利要求数量 3 非专利引证数量 2
引用专利数量 8 被引证专利数量 0
非专利引证 1、顾珊波,等.一种基于最小可察觉失真的立体图像质量客观.《光电子· 激光》.2012,第23卷(第5期),; 2、D. V. S. X. De Silva,et al.A Depth Map Post-Processing Technique for 3D-TV Systems based on Compression Artifact Analysis.《IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING》.2011,;
引用专利 CN101937578A、CN102158712A、CN102271254A、CN102333233A、CN102523468A、CN101170702A、CN101888566A、WO2010008134A2 被引证专利
专利权维持 10 专利申请国编码 CN
专利事件 转让 事务标签 公开、实质审查、授权、权利转移
申请人信息
申请人 第一申请人
专利权人 宁波大学 当前专利权人 路亚科消防车辆制造有限公司
发明人 邵枫、蒋刚毅、郁梅、彭宗举、李福翠 第一发明人 邵枫
地址 浙江省宁波市江北区风华路818号 邮编 315211
申请人数量 1 发明人数量 5
申请人所在省 浙江省 申请人所在市 浙江省宁波市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
宁波奥圣专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
周珏
摘要
本发明公开了一种深度图像的后处理方法,其首先对获取的彩色图像及对应的深度图像进行编码,得到编码码流;然后获取深度图像的编码失真补偿参数,对深度图像的编码失真补偿参数进行编码,得到参数码流;接着对编码码流和参数码流进行解码,得到解码后的彩色图像和深度图像及编码失真补偿参数;再利用深度图像的编码失真补偿参数对解码后的深度图像进行补偿,得到深度补偿图像,对深度补偿图像进行滤波处理,得到深度滤波图像,该深度滤波图像用于绘制虚拟视点图像,优点在于在保持深度图像的压缩效率的基础上,降低了编码失真对虚拟视点图像绘制的影响,大大提高了虚拟视点图像绘制性能。
  • 摘要附图
    一种深度图像的后处理方法
  • 说明书附图:图1
    一种深度图像的后处理方法
  • 说明书附图:图2b
    一种深度图像的后处理方法
  • 说明书附图:图2a
    一种深度图像的后处理方法
  • 说明书附图:图2c
    一种深度图像的后处理方法
  • 说明书附图:图3a
    一种深度图像的后处理方法
  • 说明书附图:图2d
    一种深度图像的后处理方法
  • 说明书附图:图3b
    一种深度图像的后处理方法
  • 说明书附图:图4a
    一种深度图像的后处理方法
  • 说明书附图:图3c
    一种深度图像的后处理方法
  • 说明书附图:图3d
    一种深度图像的后处理方法
  • 说明书附图:图5b
    一种深度图像的后处理方法
  • 说明书附图:图5a
    一种深度图像的后处理方法
  • 说明书附图:图4b
    一种深度图像的后处理方法
  • 说明书附图:图6c
    一种深度图像的后处理方法
  • 说明书附图:图6b
    一种深度图像的后处理方法
  • 说明书附图:图6a
    一种深度图像的后处理方法
  • 说明书附图:图7b
    一种深度图像的后处理方法
  • 说明书附图:图7a
    一种深度图像的后处理方法
  • 说明书附图:图7c
    一种深度图像的后处理方法
  • 说明书附图:图8a
    一种深度图像的后处理方法
  • 说明书附图:图8b
    一种深度图像的后处理方法
  • 说明书附图:图8c
    一种深度图像的后处理方法
  • 说明书附图:图9b
    一种深度图像的后处理方法
  • 说明书附图:图9a
    一种深度图像的后处理方法
  • 说明书附图:图9c
    一种深度图像的后处理方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2023-01-03 专利权的转移 登记生效日: 2022.12.22 专利权人由湖州优研知识产权服务有限公司变更为路亚科消防车辆制造有限公司 地址由浙江省湖州市南浔区南浔镇朝阳路666号南浔科技创业园一层1020室变更为276000 山东省临沂市高新区解放路西段金湖工业园119号
2 2015-03-18 授权
3 2013-03-27 实质审查的生效 IPC(主分类): H04N 7/26 专利申请号: 201210226018.4 申请日: 2012.06.29
4 2012-11-07 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种深度图像的后处理方法,其特征在于它的处理过程为:首先对获取的彩色图像及其对应的深度图像进行编码,得到编码码流;然后获取深度图像的编码失真补偿参数,对深度图像的编码失真补偿参数进行编码,得到参数码流;接着对编码码流和参数码流进行解码,得到解码后的彩色图像和深度图像及深度图像的编码失真补偿参数;再利用深度图像的编码失真补偿参数对解码后的深度图像进行补偿,得到深度补偿图像,对深度补偿图像进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像绘制;
它包括以下具体步骤:
①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为 将t时刻的第k个参考视点的深度图像记为 其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度, 表示t时刻的第k个参考视点的彩色图像
中坐标位置为(x,y)的像素点的第i个分量的值, 表示t时刻的第k个参考视点的深度图像 中坐标位置为(x,y)的像素点的深度值;
②根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像进行编码,然后逐帧输出彩色图像码流及深度图像码流得到编码码流,再由服务端通过网络将编码码流传输给用户端;
③根据t时刻的K个参考视点的K幅深度图像和编码后再解码得到的t时刻的K个参考视点的K幅深度图像,采用维纳滤波器预测得到t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后采用CABAC无损压缩方法分别对t时刻的K个参考视点的K幅深度图像的编码失真补偿参数进行编码,再逐帧输出参数码流,最后由服务端通过网络将参数码流传输给用户端;
所述的步骤③中获取t时刻的K个参考视点的K幅深度图像的编码失真补偿参数的具体过程为:
③-1、将t时刻的K个参考视点的K幅深度图像中当前正在处理的第k个参考视点的深度图像 定义为当前深度图像;
③-2、对当前深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为
其中,1≤m≤3,1≤n≤3, 表示 中坐标位置为(x,y)处的小波系数;
③-3、对编码后再解码得到的t时刻的第k个参考视点的深度图像 实施3
级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示
中坐标位置为(x,y)处的小波系数;
③-4、采用维纳滤 波器预测得到解码后 的t时刻的第k个参考视 点
的深度图像 的每级小波变换的各个方向子带的小波系数矩阵
的编码 失真补 偿参数,将 的编 码失真 补偿参 数记为
其 中,L 表 示 维 纳
滤 波 器 的 滤 波 长 度 范 围, 表 示 求
的数学期望值, 表示
中坐标位置为(x+p,y+q)处的小波系数,argmin(X)表示使得函数X最小的参数;
③-5、根据解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵的编码失真补偿参数,得到当前深度图像 的编码失真补偿参数,记为
③-6、令k'=k+1,k=k',将t时刻的K个参考视点的K幅深度图像中下一个待处理的参考视点的深度图像作为当前深度图像,然后返回步骤③-2继续执行,直至t时刻的K个参考视点的K幅深度图像中的所有参考视点的深度图像处理完毕,其中,k'的初始值为
0;
④用户端对服务端发送来的编码码流进行解码,分别获得解码后的t时刻的K个参考视点的K幅彩色图像和对应的K幅深度图像,将解码后的t时刻的第k个参考视点的彩色图像和对应的深度图像分别对应记为 和 其中, 表示解码
后的t时刻的第k个参考视点的彩色图像 中坐标位置为(x,y)的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的深度图像 中坐
标位置为(x,y)的像素点的深度值;
⑤用户端对服务端发送来的参数码流进行解码,获得t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后利用t时刻的K个参考视点的K幅深度图像的编码失真补偿参数对解码后的t时刻的K个参考视点的K幅深度图像进行补偿,获得解码后的t时刻的K个参考视点的K幅深度补偿图像,将解码后的t时刻的第k个参考视点的深度补偿图像记为 其中, 表示解码后的t时刻的第k个参考视点的深度补偿图
像 中坐标位置为(x,y)的像素点的深度值;
所述的步骤⑤中获取解码后的t时刻的第k个参考视点的深度补偿图像 的具体过程为:
⑤-1、对解码后的t时刻的第k个参考视点的深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示 中坐
标位置为(x,y)处的小波系数;
⑤-2、计算解码后的t时刻的第k个参考视点的深度图像 的每级小波变
换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵,将 经过补偿后的小波系数矩阵记为 其中,
表示 中坐标位置为(x+p,y+q)处的小波系数;
⑤-3、对解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵实施反小波变换,得到解码后的t时刻的第k个参考视点的深度补偿图像,记为 其中, 表示解码
后的t时刻的第k个参考视点的深度补偿图像 中坐标位置为(x,y)的像素点的深度值;
⑥采用双向滤波器分别对解码后的t时刻的K个参考视点的K幅深度补偿图像进行双向滤波处理,获得解码后的t时刻的K个参考视点的K幅深度滤波图像,将解码后的t时刻的第k个参考视点的深度滤波图像记为 其中, 表示解码后的t时刻的
第k个参考视点的深度滤波图像 中坐标位置为(x,y)的像素点的深度值。

2.根据权利要求1所述的一种深度图像的后处理方法,其特征在于所述的步骤⑥中对解码后的t时刻的第k个参考视点的深度补偿图像 进行双向滤波处理的具体过程为:
⑥-1、定义解码后的t时刻的第k个参考视点的深度补偿图像 中当前正在处理的像素点为当前像素点;
⑥-2、将当前像素点的坐标位置记为p',将当前像素点的邻域像素点的坐标位置记为q',然后采用梯度模板Gx对当前像素点的深度值 进行卷积操作,得到当前像素点的梯度值gx(p'), 再判断|gx(p')|≥T是否成立,如果成立,则执行步
骤⑥-3,否则,执行步骤⑥-4,其中, “*”为卷积操作符号,“| |”为求绝对值操作符号,T为梯度幅度阈值;
⑥-3、采用标准差为(σs1,σr1)的双向滤波器对当前像素点的邻域像素点的深度值 进行滤波操作,得到当前像素点滤波后的深度值,记为
其中,
Gσs1(||p'-q'||)表示标准差
为σs1的高斯函数, ||p'-q'||表示坐标位置p'和坐标
位置q'之间的欧氏距离,“|| ||”为欧氏距离符号, 表示标准差为
σr1的高斯函数, “| |”为求绝对值
操作符号, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位
置为p'的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位置为q'的像素点的第i个分量的值, 表示解码后的t时
刻的第k个参考视点的深度补偿图像 中坐标位置为q'的像素点的深度值,exp( )表示以e为底的指数函数,e=2.71828183,N(p')表示以坐标位置为p'的像素点为中心的7×7邻域窗口;然后执行步骤⑥-5;
⑥-4、将当前像素点的深度值 作为滤波后的深度值 即
其中, 中的“=”为赋值符号;然后执行步骤⑥-5;
⑥-5、将解码后的t时刻的第k个参考视点的深度补偿图像 中下一个待处理的像素点作为当前像素点,然后返回步骤⑥-2继续执行,直至解码后的t时刻的第k个参考视点的深度补偿图像 中的所有像素点处理完毕,得到滤波后的深度滤波图像,记为

3.根据权利要求2所述的一种深度图像的后处理方法,其特征在于所述的步骤②中设定的编码预测结构为HBP编码预测结构。
说明书

技术领域

[0001] 本发明涉及一种图像处理方法,尤其是涉及一种深度图像的后处理方法。

背景技术

[0002] 三维视频(Three-Dimensional Video,3DV)是一种先进的视觉模式,它使人们在屏幕上观看图像时富有立体感和沉浸感,可以满足人们从不同角度观看三维(3D)场景的需求。典型的三维视频系统如图1所示,其主要包括视频捕获、视频编码、传输解码、虚拟视点绘制和交互显示等模块。
[0003] 多视点视频加深度(multi-view video plus depth,MVD)是目前ISO/MPEG推荐采用的3D场景信息表示方式。MVD数据在多视点彩色图像基础上增加了对应视点的深度信息,深度信息的获取目前主要有两种基本途径:1)通过深度相机获取;2)通过生成方法从普通的二维(2D)视频中生成深度信息。基于深度图像的绘制(Depth Image Based Rendering,DIBR)是一种利用参考视点的彩色图像所对应的深度图像绘制生成虚拟视点图像的方法,其通过利用参考视点的彩色图像及该参考视点的彩色图像中的每个像素点对应的深度信息来合成三维场景的虚拟视点图像。
[0004] 然而,与彩色图像相比,深度图像的纹理简单,其包括较多的平坦区域,但由于深度图像获取方法的局限性,因此深度图像普遍存在时间连续性差、深度不连续等问题,更重要是深度图像并非直接用于观看,而是用于辅助DIBR和3D显示。目前,相关研究人员已提出了一些针对深度图像的预处理方法,如对称高斯滤波和非对称高斯滤波等方法,然而这些预处理方法考虑更多的是如何提升编码的性能,编码性能的提升必然会牺牲虚拟视点绘制性能,因此,在保持深度图像的压缩效率的基础上,如何通过对深度图像进行后处理操作,以提高虚拟视点绘制性能是一个亟需解决的问题。

发明内容

[0005] 本发明所要解决的技术问题是提供一种在保持深度图像的压缩效率的基础上,能够有效提高虚拟视点图像绘制性能的深度图像后处理方法。
[0006] 本发明解决上述技术问题所采用的技术方案为:一种深度图像的后处理方法,其特征在于它的处理过程为:首先对获取的彩色图像及其对应的深度图像进行编码,得到编码码流;然后获取深度图像的编码失真补偿参数,对深度图像的编码失真补偿参数进行编码,得到参数码流;接着对编码码流和参数码流进行解码,得到解码后的彩色图像和深度图像及深度图像的编码失真补偿参数;再利用深度图像的编码失真补偿参数对解码后的深度图像进行补偿,得到深度补偿图像,对深度补偿图像进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像绘制。
[0007] 该后处理方法包括以下具体步骤:
[0008] ①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为 将t时刻的第k个参考视点的深度图像记为 其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度, 表示t时刻的第k个参考视点的彩色图像中坐标位置为(x,y)的像素点的第i个分量的值, 表示t时刻的第k个参考视点的深度图像 中坐标位置为(x,y)的像素点的深度值;
[0009] ②根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像进行编码,然后逐帧输出彩色图像码流及深度图像码流得到编码码流,再由服务端通过网络将编码码流传输给用户端;
[0010] ③根据t时刻的K个参考视点的K幅深度图像和编码后再解码得到的t时刻的K个参考视点的K幅深度图像,采用维纳滤波器预测得到t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后采用CABAC无损压缩方法分别对t时刻的K个参考视点的K幅深度图像的编码失真补偿参数进行编码,再逐帧输出参数码流,最后由服务端通过网络将参数码流传输给用户端;
[0011] ④用户端对服务端发送来的编码码流进行解码,分别获得解码后的t时刻的K个参考视点的K幅彩色图像和对应的K幅深度图像,将解码后的t时刻的第k个参考视点的彩色图像和对应的深度图像分别对应记为 和 其中, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位置为(x,y)的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的深度图像 中坐
标位置为(x,y)的像素点的深度值;
[0012] ⑤用户端对服务端发送来的参数码流进行解码,获得t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后利用t时刻的K个参考视点的K幅深度图像的编码失真补偿参数对解码后的t时刻的K个参考视点的K幅深度图像进行补偿,获得解码后的t时刻的K个参考视点的K幅深度补偿图像,将解码后的t时刻的第k个参考视点的深度补偿图像记为 其中, 表示解码后的t时刻的第k个参考视点的深度补偿图像 中坐标位置为(x,y)的像素点的深度值;
[0013] ⑥采用双向滤波器分别对解码后的t时刻的K个参考视点的K幅深度补偿图像进行双向滤波处理,获得解码后的t时刻的K个参考视点的K幅深度滤波图像,将解码后的t时刻的第k个参考视点的深度滤波图像记为 其中, 表示解码后的t时刻的第k个参考视点的深度滤波图像 中坐标位置为(x,y)的像素点的深度值。
[0014] 所述的步骤③中获取t时刻的K个参考视点的K幅深度图像的编码失真补偿参数的具体过程为:
[0015] ③-1、将t时刻的K个参考视点的K幅深度图像中当前正在处理的第k个参考视点的深度图像 定义为当前深度图像;
[0016] ③-2、对当前深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为其中,1≤m≤3,1≤n≤3, 表示 中坐标位置为(x,y)处的小波系数;
[0017] ③-3、对编码后再解码得到的t时刻的第k个参考视点的深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示中坐标位置为(x,y)处的小波系数;
[0018] ③-4、采 用维 纳滤 波器 预测 得到 解码 后 的t时刻 的第k 个参 考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵的编码失真补偿参数,将 的编码失真补偿参数记为
其中,L表示维纳
滤 波 器 的 滤 波 长 度 范 围, 表 示 求
的数学期望值, 表示 中
坐标位置为(x+p,y+q)处的小波系数,argmin(X)表示使得函数X最小的参数;
[0019] ③-5、根据解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵的编码失真补偿参数,得到当前深度图像 的编码失真补偿参数,记为
[0020] ③-6、令k'=k+1,k=k',将t时刻的K个参考视点的K幅深度图像中下一个待处理的参考视点的深度图像作为当前深度图像,然后返回步骤③-2继续执行,直至t时刻的K个参考视点的K幅深度图像中的所有参考视点的深度图像处理完毕,其中,k'的初始值为0。
[0021] 所述的步骤⑤中获取解码后的t时刻的第k个参考视点的深度补偿图像的具体过程为:
[0022] ⑤-1、对解码后的t时刻的第k个参考视点的深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示 中坐标位置为(x,y)处的小波系数;
[0023] ⑤-2、计算解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵,将 经过补偿后的小波系数矩阵记为 其中,表示 中坐标位置为(x+p,y+q)处的小波系数;
[0024] ⑤-3、对解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵实施反小波变换,得到解码后的t时刻的第k个参考视点的深度补偿图像,记为 其中, 表示解码后的t时刻的第k个参考视点的深度补偿图像 中坐标位置为(x,y)的像素点的深度值。
[0025] 所述的步骤⑥中对解码后的t时刻的第k个参考视点的深度补偿图像进行双向滤波处理的具体过程为:
[0026] ⑥-1、定义解码后的t时刻的第k个参考视点的深度补偿图像 中当前正在处理的像素点为当前像素点;
[0027] ⑥-2、将当前像素点的坐标位置记为p',将当前像素点的邻域像素点的坐标位置记为q',然后采用梯度模板Gx对当前像素点的深度值 进行卷积操作,得到当前像素点的梯度值gx(p'), 再判断|gx(p')|≥T是否成立,如果成立,则执行步骤⑥-3,否则,执行步骤⑥-4,其中, “*”为卷积操作符号,“||”为求绝对值操作符号,T为梯度幅度阈值;
[0028] ⑥-3、采用标准差为(σs1,σr1)的双向滤波器对当前像素点的邻域像素点的深度值 进行滤波操作,得到当前像素点滤波后的深度值,记为其中,
表示标准差为σs1的
高斯函数, ||p′-q'||表示坐标位置p'和坐标位置q'
之间的欧氏距离,“|| ||”为欧氏距离符号, 表示标准差为σr1的
高斯函数, “||”为求绝对值操作符
号, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位置为p'
的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的彩色图像中坐标位置为q'的像素点的第i个分量的值, 表示解码后的t时刻的第
k个参考视点的深度补偿图像 中坐标位置为q'的像素点的深度值,exp()表示以e为底的指数函数,e=2.71828183,N(p')表示以坐标位置为p'的像素点为中心的7×7邻域窗口;然后执行步骤⑥-5;
[0029] ⑥-4、将当前像素点的深度值 作为滤波后的深度值 即其中, 中的“=”为赋值符号;然后执行步骤⑥-5;
[0030] ⑥-5、将解码后的t时刻的第k个参考视点的深度补偿图像 中下一个待处理的像素点作为当前像素点,然后返回步骤⑥-2继续执行,直至解码后的t时刻的第k个参考视点的深度补偿图像 中的所有像素点处理完毕,得到滤波后的深度滤波图像,记为
[0031] 所述的步骤②中设定的编码预测结构为HBP编码预测结构。
[0032] 与现有技术相比,本发明的优点在于:
[0033] 1)本发明方法通过获取深度图像的编码失真补偿参数,然后利用编码失真补偿参数对解码后的深度图像进行补偿,再对补偿后得到的深度补偿图像进行滤波处理,将滤波处理后得到的深度滤波图像用于绘制虚拟视点图像,这个过程使得在保持深度图像的压缩效率的基础上,降低了编码失真对虚拟视点图像绘制的影响,从而大大提高了虚拟视点图像的绘制性能。
[0034] 2)本发明方法通过采用维纳滤波器预测得到深度图像的不同子带的小波系数矩阵的编码失真补偿参数,并采用无失真压缩方式对这些编码失真补偿参数进行编码,然后在用户端对解码的深度图像进行补偿,这样能够降低编码失真对虚拟视点图像绘制的影响。
[0035] 3)本发明方法考虑到深度图像边缘区域不连续的特点以及边缘区域的深度失真会对虚拟视点图像绘制产生较大的影响,采用双向滤波器对深度补偿图像的边缘区域的各个像素点的深度值进行滤波处理,这样能够有效提高虚拟视点图像的绘制性能。

实施方案

[0061] 以下结合附图实施例对本发明作进一步详细描述。
[0062] 本发明提出的一种深度图像的后处理方法,它的处理过程为:首先对获取的彩色图像及其对应的深度图像进行编码,得到编码码流;然后获取深度图像的编码失真补偿参数,对深度图像的编码失真补偿参数进行编码,得到参数码流;接着对编码码流和参数码流进行解码,得到解码后的彩色图像和深度图像及深度图像的编码失真补偿参数;再利用深度图像的编码失真补偿参数对解码后的深度图像进行补偿,得到深度补偿图像,对深度补偿图像进行滤波处理,得到深度滤波图像,该深度滤波图像用于虚拟视点图像绘制,即可根据解码后的彩色图像和深度滤波图像,采用基于深度图像的绘制得到虚拟视点图像。本发明方法具体包括以下步骤:
[0063] ①获取t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像,将t时刻的第k个参考视点的彩色图像记为 将t时刻的第k个参考视点的深度图像记为 其中,1≤k≤K,k的初始值为1,i=1,2,3分别表示YUV颜色空间的三个分量,YUV颜色空间的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V,(x,y)表示彩色图像和深度图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示彩色图像和深度图像的宽度,H表示彩色图像和深度图像的高度, 表示t时刻的第k个参考视点的彩色图像中坐标位置为(x,y)的像素点的第i个分量的值, 表示t时刻的第k个参考视点的深度图像 中坐标位置为(x,y)的像素点的深度值。
[0064] 在此,采用德国HHI实验室提供的三维视频测试序列“Bookarrival”和“Altmoabit”,这两个三维视频测试序列均包括16个参考视点的16幅彩色图像和对应的16幅深度图像,各幅彩色图像和深度图像的分辨率都为1024×768,帧率为15帧每秒,即
15fps,这两个三维视频测试序列是ISO/MPEG所推荐的标准测试序列。图2a和图2b分别给出了“Bookarrival”的第8个和第10个参考视点的一幅彩色图像;图2c和图2d分别给出了“Bookarrival”的第8个和第10个参考视点的彩色图像所对应的深度图像;图3a和图3b分别给出了“Altmoabit”的第8个和第10个参考视点的一幅彩色图像;图3c和图3d分别给出了“Altmoabit”的第8个和第10个参考视点的彩色图像所对应的深度图像。
[0065] ②根据设定的编码预测结构分别对t时刻的K个参考视点的K幅颜色空间为YUV的彩色图像及其对应的K幅深度图像进行编码,然后逐帧输出彩色图像码流及深度图像码流得到编码码流,再由服务端通过网络将编码码流传输给用户端。
[0066] 在此,设定的编码预测结构采用公知的HBP编码预测结构。
[0067] ③由于深度图像的编码会导致解码后的深度图像质量的下降,并必然会导致虚拟视点图像绘制性能的下降,因此本发明根据t时刻的K个参考视点的K幅深度图像和编码后再解码得到的t时刻的K个参考视点的K幅深度图像,采用维纳滤波器预测得到t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后采用CABAC(Context-based Adaptive Binary Arithmetic Coding,前文参考之适应性二元算术编码)无损压缩方法分别对t时刻的K个参考视点的K幅深度图像的编码失真补偿参数进行编码,再逐帧输出参数码流,最后由服务端通过网络将参数码流传输给用户端。
[0068] 在此具体实施例中,步骤③中获取t时刻的K个参考视点的K幅深度图像的编码失真补偿参数的具体过程为:
[0069] ③-1、将t时刻的K个参考视点的K幅深度图像中当前正在处理的第k个参考视点的深度图像 定义为当前深度图像。
[0070] ③-2、对当前深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为其中,1≤m≤3,1≤n≤3, 表示 中坐标位置为(x,y)处的小波系数。
[0071] ③-3、对编码后再解码得到的t时刻的第k个参考视点的深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示中坐标位置为(x,y)处的小波系数。
[0072] ③-4、采 用维 纳滤 波器 预测 得到 解码 后 的t时刻 的第k 个参 考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵的编码失真补偿参数,将 的编码失真补偿参数记为
其中,L表示维纳
滤波器的滤波长度范围, 表示求
的 数 学 期 望 值, 表 示
中坐标位置为(x+p,y+q)处的小波系数,argmin(X)表示使得函数X最
小 的参 数,即 表 示 使 得
最小的参数。
[0073] ③-5、根据解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵的编码失真补偿参数,得到当前深度图像 的编码失真补偿参数,记为
[0074] ③-6、令k'=k+1,k=k',将t时刻的K个参考视点的K幅深度图像中下一个待处理的参考视点的深度图像作为当前深度图像,然后返回步骤③-2继续执行,直至t时刻的K个参考视点的K幅深度图像中的所有参考视点的深度图像处理完毕,其中,k'的初始值为0。
[0075] ④用户端对服务端发送来的编码码流进行解码,分别获得解码后的t时刻的K个参考视点的K幅彩色图像和对应的K幅深度图像,将解码后的t时刻的第k个参考视点的彩色图像和对应的深度图像分别对应记为 和 其中, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位置为(x,y)的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的深度图像 中坐
标位置为(x,y)的像素点的深度值。
[0076] ⑤用户端对服务端发送来的参数码流进行解码,获得t时刻的K个参考视点的K幅深度图像的编码失真补偿参数,然后利用t时刻的K个参考视点的K幅深度图像的编码失真补偿参数对解码后的t时刻的K个参考视点的K幅深度图像进行补偿,获得解码后的t时刻的K个参考视点的K幅深度补偿图像,将解码后的t时刻的第k个参考视点的深度补偿图像记为 其中, 表示解码后的t时刻的第k个参考视点的深度补偿图像 中坐标位置为(x,y)的像素点的深度值。
[0077] 在此具体实施例中,步骤⑤中获取解码后的t时刻的第k个参考视点的深度补偿图像 的具体过程为:
[0078] ⑤-1、对解码后的t时刻的第k个参考视点的深度图像 实施3级小波变换,得到每级小波变换的3个方向子带的小波系数矩阵,3个方向子带包括水平方向子带、垂直方向子带和对角方向子带,将 实施第m级小波变换后得到的第n个方向子带的小波系数矩阵记为 其中,1≤m≤3,1≤n≤3, 表示 中坐标位置为(x,y)处的小波系数。
[0079] ⑤-2、计算解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵,将 经过补偿后的小波系数矩阵记为 其中,表示 中坐标位置为(x+p,y+q)处的小波系数。
[0080] ⑤-3、对解码后的t时刻的第k个参考视点的深度图像 的每级小波变换的各个方向子带的小波系数矩阵各自经过补偿后的小波系数矩阵实施反小波变换,得到解码后的t时刻的第k个参考视点的深度补偿图像,记为 其中, 表示解码后的t时刻的第k个参考视点的深度补偿图像 中坐标位置为(x,y)的像素点的深度值。
[0081] ⑥由于深度图像获取方法的局限,深度图像的边缘区域往往是不连续的,而深度图像与彩色图像之间存在较强的相关性,深度图像与彩色图像的运动对象及运动对象边界应当是一致的,因此,可以利用彩色图像的边缘信息来辅助深度图像的滤波处理,在此本发明采用双向滤波器分别对解码后的t时刻的K个参考视点的K幅深度补偿图像进行双向滤波处理,获得解码后的t时刻的K个参考视点的K幅深度滤波图像,将解码后的t时刻的第k个参考视点的深度滤波图像记为 其中, 表示解码后的t时刻的第k个参考视点的深度滤波图像 中坐标位置为(x,y)的像素点的深度值。在虚拟视点图像绘制时,可根据解码后的t时刻的K个参考视点的K幅彩色图像和解码后的t时刻的K个参考视点的K幅深度滤波图像,采用基于深度图像的绘制得到虚拟视点图像。
[0082] 在此具体实施例中,步骤⑥中对解码后的t时刻的第k个参考视点的深度补偿图像 进行双向滤波处理的具体过程为:
[0083] ⑥-1、定义解码后的t时刻的第k个参考视点的深度补偿图像 中当前正在处理的像素点为当前像素点。
[0084] ⑥-2、将当前像素点的坐标位置记为p',将当前像素点的邻域像素点的坐标位置记为q',然后采用梯度模板Gx对当前像素点的深度值 进行卷积操作,得到当前像素点的梯度值gx(p'), 再判断|gx(p')|≥T是否成立,如果成立,
[0085] 则执行步骤⑥-3,否则,执行步骤⑥-4,其中, “*”为卷积操作符号,“||”为求绝对值操作符号,T为梯度幅度阈值,在本实施例中,取T=5。
[0086] ⑥-3、采用标准差为(σs1,σr1)的双向滤波器对当前像素点的邻域像素点的深度值 进行滤波操作,得到当前像素点滤波后的深度值,记为其中,
表示标准差为σs1的
高斯函数, ||p′-q'||表示坐标位置p'和坐标位置q'
之间的欧氏距离,“|| ||”为欧氏距离符号, 表示标准差为σr1的
高斯函数, “||”为求绝对值操作符
号, 表示解码后的t时刻的第k个参考视点的彩色图像 中坐标位置为p'
的像素点的第i个分量的值, 表示解码后的t时刻的第k个参考视点的彩色图像中坐标位置为q'的像素点的第i个分量的值, 表示解码后的t时刻的第
k个参考视点的深度补偿图像 中坐标位置为q'的像素点的深度值,exp()表示以e为底的指数函数,e=2.71828183,N(p')表示以坐标位置为p'的像素点为中心的7×7邻域窗口,在实际处理过程中,也可采用其它大小的邻域窗口,但经大量实验,表明采用7×7邻域窗口时能够达到最好的效果;然后执行步骤⑥-5。
[0087] 在本实施例中,标准差(σs1,σr1)=(5,0.1)。
[0088] ⑥-4、将当前像素点的深度值 作为滤波后的深度值 即其中,“ ”中的“=”为赋值符号;然后执行步骤⑥-5。
[0089] ⑥-5、将解码后的t时刻的第k个参考视点的深度补偿图像 中下一个待处理的像素点作为当前像素点,然后返回步骤⑥-2继续执行,直至解码后的t时刻的第k个参考视点的深度补偿图像 中的所有像素点处理完毕,得到滤波后的深度滤波图像,记为
[0090] 对“Bookarrival”和“Altmoabit”三维视频测试序列的深度图像进行滤波处理实验,图4a给出了“Bookarrival”的第8个参考视点的解码的深度图像,图4b给出了“Bookarrival”的第8个参考视点的采用本发明方法得到的深度滤波图像,图5a给出了“Altmoabit”的第8个参考视点的解码的深度图像,图5b给出了“Altmoabit”的第8个参考视点的采用本发明方法得到的深度滤波图像,从图4a至图5b可以看出,采用本发明方法得到的滤波处理后的深度图像即深度滤波图像,保持了深度图像的重要的几何特征,产生了令人满意的锐利的边缘和平滑的轮廓。
[0091] 以下就利用本发明方法对“Bookarrival”和“Altmoabit”三维视频测试序列进行虚拟视点图像绘制的主观性能进行比较。
[0092] 将采用本发明方法得到的虚拟视点图像,与不采用本发明方法(直接采用解码图像)得到的虚拟视点图像进行比较。图6a给出了“Bookarrival”的第9个参考视点采用原始深度图像绘制得到的虚拟视点图像,图6b给出了“Bookarrival”的第9个参考视点采用解码深度图像绘制得到的虚拟视点图像,图6c给出了“Bookarrival”的第9个参考视点采用本发明方法绘制得到的虚拟视点图像,图7a给出了“Altmoabit”的第9个参考视点采用原始深度图像绘制得到的虚拟视点图像,图7b给出了“Altmoabit”的第9个参考视点采用解码深度图像绘制得到的虚拟视点图像,图7c给出了“Altmoabit”的第9个参考视点采用本发明方法绘制得到的虚拟视点图像,图8a、图8b和图8c分别给出了图6a、图6b和图6c的局部细节放大图,图9a、图9b和图9c分别给出了图7a、图7b和图7c的局部细节放大图。从图6a至图9c可以看出,采用本发明方法绘制得到的虚拟视点图像能够保持更好的对象轮廓信息,从而降低了由于深度图像的失真而引起的映射过程中产生的背景对前景的覆盖,并且根据彩色图像的边缘信息对深度图像的边缘区域进行双向滤波处理,能够有效地消除绘制的虚拟视点图像中的条纹噪声。
[0093] 将采用本发明方法绘制得到的虚拟视点图像与不采用本发明方法绘制得到的虚拟视点图像的峰值信噪比(PSNR)进行比较,比较结果如表1所列,从表1中可以看出,采用本发明方法绘制得到的虚拟视点图像质量要明显好于不采用本发明方法绘制得到的虚拟视点图像质量,足以说明本方法是有效可行的。
[0094] 表1利用本发明方法与不采用本发明方法的峰值信噪比比较
[0095]

附图说明

[0036] 图1为典型的三维视频系统的基本组成框图;
[0037] 图2a为“Bookarrival”三维视频测试序列的第8个参考视点的一幅彩色图像;
[0038] 图2b为“Bookarrival”三维视频测试序列的第10个参考视点的一幅彩色图像;
[0039] 图2c为图2a所示的彩色图像对应的深度图像;
[0040] 图2d为图2b所示的彩色图像对应的深度图像;
[0041] 图3a为“Altmoabit”三维视频测试序列的第8个参考视点的一幅彩色图像;
[0042] 图3b为“Altmoabit”三维视频测试序列的第10个参考视点的一幅彩色图像;
[0043] 图3c为图3a所示的彩色图像对应的深度图像;
[0044] 图3d为图3b所示的彩色图像对应的深度图像;
[0045] 图4a为“Bookarrival”三维视频测试序列的第8个参考视点的解码的深度图像;
[0046] 图4b为“Bookarrival”三维视频测试序列的第8个参考视点的采用本发明方法得到的深度滤波图像;
[0047] 图5a为“Altmoabit”三维视频测试序列的第8个参考视点的解码的深度图像;
[0048] 图5b为“Altmoabit”三维视频测试序列的第8个参考视点的采用本发明方法得到的深度滤波图像;
[0049] 图6a为“Bookarrival”三维视频测试序列的第9个参考视点的采用原始深度图像绘制得到的虚拟视点图像;
[0050] 图6b为“Bookarrival”三维视频测试序列的第9个参考视点的采用解码深度图像绘制得到的虚拟视点图像;
[0051] 图6c为“Bookarrival”三维视频测试序列的第9个参考视点的采用本发明方法绘制得到的虚拟视点图像;
[0052] 图7a为“Altmoabit”三维视频测试序列的第9个参考视点的采用原始深度图像绘制得到的虚拟视点图像;
[0053] 图7b为“Altmoabit”三维视频测试序列的第9个参考视点的采用解码深度图像绘制得到的虚拟视点图像;
[0054] 图7c为“Altmoabit”三维视频测试序列的第9个参考视点的采用本发明方法绘制得到的虚拟视点图像;
[0055] 图8a为图6a的局部细节放大图;
[0056] 图8b为图6b的局部细节放大图;
[0057] 图8c为图6c的局部细节放大图;
[0058] 图9a为图7a的局部细节放大图;
[0059] 图9b为图7b的局部细节放大图;
[0060] 图9c为图7c的局部细节放大图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号