首页 > 专利 > 浙江科技学院 > 一种基于稀疏表示的立体图像视觉显著提取方法专利详情

一种基于稀疏表示的立体图像视觉显著提取方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2016-12-15
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2017-06-09
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2020-04-17
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2036-12-15
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201611156751.8 申请日 2016-12-15
公开/公告号 CN106682599B 公开/公告日 2020-04-17
授权日 2020-04-17 预估到期日 2036-12-15
申请年 2016年 公开/公告年 2020年
缴费截止日
分类号 G06K9/00G06K9/46G06K9/62 主分类号 G06K9/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 1
引用专利数量 5 被引证专利数量 0
非专利引证 1、闫和鑫.基于多尺度超像素和字典学习的图像显着性检测《.中国优秀硕士学位论文全文数据库 信息科技辑》.2015,Fang Guo et al..Learning to detectstereo saliency《. 2014 IEEE InternationalConference on Multimedia and Expo(ICME)》.2014,;
引用专利 CN104036501A、CN105976395A、CN104658001A、CN104463890A、KR20130068182A 被引证专利
专利权维持 6 专利申请国编码 CN
专利事件 转让 事务标签 公开、实质审查、授权、权利转移
申请人信息
申请人 第一申请人
专利权人 浙江科技学院 当前专利权人 深圳龙图腾科技成果转化有限公司
发明人 周武杰、顾鹏笠、张爽爽、潘婷、蔡星宇、邱薇薇、周扬、赵颖、陈芳妮、陈寿法 第一发明人 周武杰
地址 浙江省杭州市西湖区留和路318号 邮编 310023
申请人数量 1 发明人数量 10
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
宁波奥圣专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
周珏
摘要
本发明公开了一种基于稀疏表示的立体图像视觉显著提取方法,其在字典学习阶段,先获取每幅立体图像的左视点图像的左视点视觉特征图和右视点图像的右视点视觉特征图,然后根据左视点图像和右视点图像及两者之间的视差图像、左视点视觉特征图和右视点视觉特征图,获取每幅立体图像的左右视点融合图像,接着根据所有左右视点融合图像进行联合字典训练操作得到融合图像字典表;在显著预测阶段,以相同的方式获取待视觉显著提取的立体图像的左右视点融合图像,然后根据融合图像字典表对左右视点融合图像进行处理得到融合稀疏特征图,进而提取得到视觉显著图;优点是符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
  • 摘要附图
    一种基于稀疏表示的立体图像视觉显著提取方法
  • 说明书附图:图1
    一种基于稀疏表示的立体图像视觉显著提取方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2023-02-03 专利权的转移 登记生效日: 2023.01.18 专利权人由浙江科技学院变更为深圳龙图腾科技成果转化有限公司 地址由310023 浙江省杭州市西湖区留和路318号变更为518000 广东省深圳市罗湖区笋岗街道笋岗东路3002号万通大厦22层2202室
2 2020-04-17 授权
3 2017-06-09 实质审查的生效 IPC(主分类): G06K 9/00 专利申请号: 201611156751.8 申请日: 2016.12.15
4 2017-05-17 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于稀疏表示的立体图像视觉显著提取方法,其特征在于包括字典学习阶段和显著预测阶段两个过程;
所述的字典学习阶段的具体步骤如下:
①_1、选取K幅宽度为W且高度为H的立体图像,将第k幅立体图像记为SRGB,k,将SRGB,k的左视点图像记为{LRGB,k(x,y)},将SRGB,k的右视点图像记为{RRGB,k(x,y)},其中,1≤K≤100,1≤k≤K,1≤x≤W,1≤y≤H,LRGB,k(x,y)表示{LRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB,k(x,y)表示{RRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①_2、根据每幅立体图像的左视点图像和右视点图像,并采用块匹配方法,计算每幅立体图像的左视点图像与右视点图像之间的视差图像,将{LRGB,k(x,y)}与{RRGB,k(x,y)}之间的视差图像记为{dk(x,y)},其中,dk(x,y)表示{dk(x,y)}中坐标位置为(x,y)的像素点的像素值;
①_3、采用LOG滤波方法,对每幅立体图像的左视点图像进行操作,得到每幅立体图像的左视点图像的左视点视觉特征图,将{LRGB,k(x,y)}的左视点视觉特征图记为{LLOG,k(x,y)},其中,LLOG,k(x,y)表示{LLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,采用LOG滤波方法,对每幅立体图像的右视点图像进行操作,得到每幅立体图像的右视点图像的右视点视觉特征图,将{RRGB,k(x,y)}的右视点视觉特征图记为{RLOG,k(x,y)},其中,RLOG,k(x,y)表示{RLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
①_4、根据每幅立体图像的左视点图像和右视点图像、左视点图像与右视点图像之间的视差图像、左视点图像的左视点视觉特征图和右视点图像的右视点视觉特征图,计算每幅立体图像的左右视点融合图像,将SRGB,k的左右视点融合图像记为{RL,R,k(x,y)},其中,RL,R,k(x,y)表示{RL,R,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤①_4中的
,其中,
RRGB,k(x+dk(x,y),y)表示{RRGB,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值,RLOG,k(x+dk(x,y),y)表示{RLOG,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值;
①_5、采用K-SVD方法,对所有立体图像的左右视点融合图像进行联合字典训练操作,得到融合图像字典表,记为{Dc(x,y)},其中,Dc(x,y)表示{Dc(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的显著预测阶段的具体步骤如下:
②_1、令SRGB表示宽度为W且高度为H的待视觉显著提取的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的右视点图像记为{RRGB(x,y)},其中,1≤x≤W,1≤y≤H,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB(x,y)表示{RRGB(x,y)}中坐标位置为(x,y)的像素点的像素值;
②_2、根据{LRGB(x,y)}和{RRGB(x,y)},采用块匹配方法,计算{LRGB(x,y)}与{RRGB(x,y)}之间的视差图像,记为{d(x,y)},其中,d(x,y)表示{d(x,y)}中坐标位置为(x,y)的像素点的像素值;
②_3、采用LOG滤波方法,对{LRGB(x,y)}进行操作,得到{LRGB(x,y)}的左视点视觉特征图,记为{LLOG(x,y)},其中,LLOG(x,y)表示{LLOG(x,y)}中坐标位置为(x,y)的像素点的像素值;
同样,采用LOG滤波方法,对{RRGB(x,y)}进行操作,得到{RRGB(x,y)}的右视点视觉特征图,记为{RLOG(x,y)},其中,RLOG(x,y)表示{RLOG(x,y)}中坐标位置为(x,y)的像素点的像素值;
②_4、根据{LRGB(x,y)}和{RRGB(x,y)}、{d(x,y)}、{LLOG(x,y)}和{RLOG(x,y)},计算SRGB的左右视点融合图像,记为{RL,R(x,y)},其中,RL,R(x,y)表示{RL,R(x,y)}中坐标位置为(x,y)的像素点的像素值;
所述的步骤②_4中的
,其中,
RRGB(x+d(x,y),y)表示{RRGB(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,RLOG(x+d(x,y),y)表示{RLOG(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值;
②_5、根据字典学习阶段得到的融合图像字典表{Dc(x,y)},并采用K-SVD求解方法对{RL,R(x,y)}进行处理,得到SRGB的融合稀疏特征图,记为{SR(x,y)},其中,SR(x,y)表示{SR(x,y)}中坐标位置为(x,y)的像素点的像素值;
②_6、采用中央周边差操作对{SR(x,y)}中的所有像素点的像素值进行处理,得到SRGB的视觉显著图,记为{S(x,y)},其中,S(x,y)表示{S(x,y)}中坐标位置为(x,y)的像素点的像素值。
说明书

技术领域

[0001] 本发明涉及一种图像信号的处理方法,尤其是涉及一种基于稀疏表示的立体图像视觉显著提取方法。

背景技术

[0002] 在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。而随着立体视频显示技术和高质量立体视频内容获取技术的快速发展,针对立体图像/视频的显著区域检测及建模也是一个非常重要的研究内容。
[0003] 然而,立体图像并不是平面图像的简单空间拓展,因此人眼感知立体图像产生立体视觉的过程也不是简单的左视点图像和右视点图像叠加的过程,因此,立体视觉特征(例如:三维视觉注意力)并不是平面视觉特性的简单拓展。然而,现有的立体图像显著提取方法还停留在平面图像显著提取方法的简单拓展上。因此,如何从立体图像中有效地提取出立体视觉特征、如何使得提取出的立体视觉特征符合人眼三维观看行为都是在对立体图像进行视觉显著图提取过程中需要研究解决的问题。

发明内容

[0004] 本发明所要解决的技术问题是提供一种基于稀疏表示的立体图像视觉显著提取方法,其符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。
[0005] 本发明解决上述技术问题所采用的技术方案为:一种基于稀疏表示的立体图像视觉显著提取方法,其特征在于包括字典学习阶段和显著预测阶段两个过程;
[0006] 所述的字典学习阶段的具体步骤如下:
[0007] ①_1、选取K幅宽度为W且高度为H的立体图像,将第k幅立体图像记为SRGB,k,将SRGB,k的左视点图像记为{LRGB,k(x,y)},将SRGB,k的右视点图像记为{RRGB,k(x,y)},其中,1≤K≤100,1≤k≤K,1≤x≤W,1≤y≤H,LRGB,k(x,y)表示{LRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB,k(x,y)表示{RRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0008] ①_2、根据每幅立体图像的左视点图像和右视点图像,并采用块匹配方法,计算每幅立体图像的左视点图像与右视点图像之间的视差图像,将{LRGB,k(x,y)}与{RRGB,k(x,y)}之间的视差图像记为{dk(x,y)},其中,dk(x,y)表示{dk(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0009] ①_3、采用LOG滤波方法,对每幅立体图像的左视点图像进行操作,得到每幅立体图像的左视点图像的左视点视觉特征图,将{LRGB,k(x,y)}的左视点视觉特征图记为{LLOG,k(x,y)},其中,LLOG,k(x,y)表示{LLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0010] 同样,采用LOG滤波方法,对每幅立体图像的右视点图像进行操作,得到每幅立体图像的右视点图像的右视点视觉特征图,将{RRGB,k(x,y)}的右视点视觉特征图记为{RLOG,k(x,y)},其中,RLOG,k(x,y)表示{RLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0011] ①_4、根据每幅立体图像的左视点图像和右视点图像、左视点图像与右视点图像之间的视差图像、左视点图像的左视点视觉特征图和右视点图像的右视点视觉特征图,计算每幅立体图像的左右视点融合图像,将SRGB,k的左右视点融合图像记为{RL,R,k(x,y)},其中,RL,R,k(x,y)表示{RL,R,k(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0012] ①_5、采用K-SVD方法,对所有立体图像的左右视点融合图像进行联合字典训练操作,得到融合图像字典表,记为{Dc(x,y)},其中,Dc(x,y)表示{Dc(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0013] 所述的显著预测阶段的具体步骤如下:
[0014] ②_1、令SRGB表示宽度为W且高度为H的待视觉显著提取的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的右视点图像记为{RRGB(x,y)},其中,1≤x≤W,1≤y≤H,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB(x,y)表示{RRGB(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0015] ②_2、根据{LRGB(x,y)}和{RRGB(x,y)},采用块匹配方法,计算{LRGB(x,y)}与{RRGB(x,y)}之间的视差图像,记为{d(x,y)},其中,d(x,y)表示{d(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0016] ②_3、采用LOG滤波方法,对{LRGB(x,y)}进行操作,得到{LRGB(x,y)}的左视点视觉特征图,记为{LLOG(x,y)},其中,LLOG(x,y)表示{LLOG(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0017] 同样,采用LOG滤波方法,对{RRGB(x,y)}进行操作,得到{RRGB(x,y)}的右视点视觉特征图,记为{RLOG(x,y)},其中,RLOG(x,y)表示{RLOG(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0018] ②_4、根据{LRGB(x,y)}和{RRGB(x,y)}、{d(x,y)}、{LLOG(x,y)}和{RLOG(x,y)},计算SRGB的左右视点融合图像,记为{RL,R(x,y)},其中,RL,R(x,y)表示{RL,R(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0019] ②_5、根据字典学习阶段得到的融合图像字典表{Dc(x,y)},并采用K-SVD求解方法对{RL,R(x,y)}进行处理,得到SRGB的融合稀疏特征图,记为{SR(x,y)},其中,SR(x,y)表示{SR(x,y)}中坐标位置为(x,y)的像素点的像素值;
[0020] ②_6、采用中央周边差操作对{SR(x,y)}中的所有像素点的像素值进行处理,得到SRGB的视觉显著图,记为{S(x,y)},其中,S(x,y)表示{S(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0021] 所述的步骤①_4中的其中,
RRGB,k(x+dk(x,y),y)表示{RRGB,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值,RLOG,k(x+dk(x,y),y)表示{RLOG,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值。
[0022] 所述的步骤②_4中的其中,
RRGB(x+d(x,y),y)表示{RRGB(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,RLOG(x+d(x,y),y)表示{RLOG(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值。
[0023] 与现有技术相比,本发明的优点在于:
[0024] 1)本发明方法采用双目融合模型对左右视点进行融合,左右视点融合图像很好的模拟了双目视觉特性,为提高视觉显著值预测的准确性和稳定性做了准备。
[0025] 2)本发明方法采用稀疏表示的方法提取融合稀疏特征图,提取的融合稀疏特征图能够较好地反映各种因素的显著变化情况,符合显著语义特征。
[0026] 3)本发明方法采用了中央周边差操作对融合稀疏特征图中的所有像素点的像素值进行处理,并最终获得立体图像的视觉显著图,通过这个过程进一步提高了视觉显著值的预测准确性和预测稳定性,从而进一步提高了立体图像的视觉显著图的提取稳定性和提取准确性。

实施方案

[0028] 以下结合附图实施例对本发明作进一步详细描述。
[0029] 本发明提出的一种基于稀疏表示的立体图像视觉显著提取方法,其总体实现框图如图1所示,其包括字典学习阶段和显著预测阶段两个过程。
[0030] 所述的字典学习阶段的具体步骤如下:
[0031] ①_1、选取K幅宽度为W且高度为H的立体图像,将第k幅立体图像记为SRGB,k,将SRGB,k的左视点图像记为{LRGB,k(x,y)},将SRGB,k的右视点图像记为{RRGB,k(x,y)},其中,1≤K≤100,如可取K=60,1≤k≤K,1≤x≤W,1≤y≤H,LRGB,k(x,y)表示{LRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB,k(x,y)表示{RRGB,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0032] ①_2、根据每幅立体图像的左视点图像和右视点图像,并采用现有的块匹配方法,计算每幅立体图像的左视点图像与右视点图像之间的视差图像,将{LRGB,k(x,y)}与{RRGB,k(x,y)}之间的视差图像记为{dk(x,y)},其中,dk(x,y)表示{dk(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0033] ①_3、采用现有的LOG(Laplacian of Gaussian)滤波方法,对每幅立体图像的左视点图像进行操作,得到每幅立体图像的左视点图像的左视点视觉特征图,将{LRGB,k(x,y)}的左视点视觉特征图记为{LLOG,k(x,y)},其中,LLOG,k(x,y)表示{LLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0034] 同样,采用现有的LOG滤波方法,对每幅立体图像的右视点图像进行操作,得到每幅立体图像的右视点图像的右视点视觉特征图,将{RRGB,k(x,y)}的右视点视觉特征图记为{RLOG,k(x,y)},其中,RLOG,k(x,y)表示{RLOG,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0035] ①_4、根据每幅立体图像的左视点图像和右视点图像、左视点图像与右视点图像之间的视差图像、左视点图像的左视点视觉特征图和右视点图像的右视点视觉特征图,计算每幅立体图像的左右视点融合图像,将SRGB,k的左右视点融合图像记为{RL,R,k(x,y)},其中,RL,R,k(x,y)表示{RL,R,k(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0036] 在此具体实施例中,步骤①_4中的其中,
RRGB,k(x+dk(x,y),y)表示{RRGB,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值,RLOG,k(x+dk(x,y),y)表示{RLOG,k(x,y)}中坐标位置为(x+dk(x,y),y)的像素点的像素值。
[0037] ①_5、采用现有的K-SVD(K-means Singular Value Decomposition)方法,对所有立体图像的左右视点融合图像进行联合字典训练操作,得到融合图像字典表,记为{Dc(x,y)},其中,Dc(x,y)表示{Dc(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0038] 所述的显著预测阶段的具体步骤如下:
[0039] ②_1、令SRGB表示宽度为W且高度为H的待视觉显著提取的立体图像,将SRGB的左视点图像记为{LRGB(x,y)},将SRGB的右视点图像记为{RRGB(x,y)},其中,1≤x≤W,1≤y≤H,LRGB(x,y)表示{LRGB(x,y)}中坐标位置为(x,y)的像素点的像素值,RRGB(x,y)表示{RRGB(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0040] ②_2、根据{LRGB(x,y)}和{RRGB(x,y)},采用现有的块匹配方法,计算{LRGB(x,y)}与{RRGB(x,y)}之间的视差图像,记为{d(x,y)},其中,d(x,y)表示{d(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0041] ②_3、采用现有的LOG滤波方法,对{LRGB(x,y)}进行操作,得到{LRGB(x,y)}的左视点视觉特征图,记为{LLOG(x,y)},其中,LLOG(x,y)表示{LLOG(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0042] 同样,采用现有的LOG滤波方法,对{RRGB(x,y)}进行操作,得到{RRGB(x,y)}的右视点视觉特征图,记为{RLOG(x,y)},其中,RLOG(x,y)表示{RLOG(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0043] ②_4、根据{LRGB(x,y)}和{RRGB(x,y)}、{d(x,y)}、{LLOG(x,y)}和{RLOG(x,y)},计算SRGB的左右视点融合图像,记为{RL,R(x,y)},其中,RL,R(x,y)表示{RL,R(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0044] 在此具体实施例中,步骤②_4中的其中,
RRGB(x+d(x,y),y)表示{RRGB(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值,RLOG(x+d(x,y),y)表示{RLOG(x,y)}中坐标位置为(x+d(x,y),y)的像素点的像素值。
[0045] ②_5、根据字典学习阶段得到的融合图像字典表{Dc(x,y)},并采用现有的K-SVD求解方法对{RL,R(x,y)}进行处理,得到SRGB的融合稀疏特征图,记为{SR(x,y)},其中,SR(x,y)表示{SR(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0046] ②_6、采用现有的中央周边差操作(Center-surround difference operations)对{SR(x,y)}中的所有像素点的像素值进行处理,得到SRGB的视觉显著图,记为{S(x,y)},其中,S(x,y)表示{S(x,y)}中坐标位置为(x,y)的像素点的像素值。
[0047] 为了验证本发明方法的可行性和有效性,进行实验。
[0048] 在此,采用法国南特大学提供的三维人眼跟踪数据库(3Deye-tracking database)来分析本发明方法的提取准确性和提取稳定性。这里,利用评估视觉显著提取方法的3个常用客观参量作为评价指标,即Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Kullback-Leibler散度系数(Kullback-Leibler divergence,KLD)、AUC参数(the Area Under the receiver operating characteristics Curve,AUC)。
[0049] 利用本发明方法获取法国南特大学提供的三维人眼跟踪数据库中的每幅立体图像的视觉显著图,并与三维人眼跟踪数据库中的每幅立体图像的主观视觉显著图(三维人眼跟踪数据库中存在)进行比较,PLCC和AUC值越高、KLD值越低说明本发明方法提取的视觉显著图与主观视觉显著图的一致性越好。反映本发明方法的显著提取性能的PLCC、KLD和AUC相关指标如表1所列。从表1所列的数据可知,按本发明方法提取得到的视觉显著图的提取准确性和提取稳定性是很好的,表明客观提取结果与人眼主观感知的结果较为一致,足以说明本发明方法的可行性和有效性。
[0050] 表1 利用本发明方法提取得到的视觉显著图的提取准确性和提取稳定性[0051] 性能指标 性能指标值PLCC 0.405
KLD 0.670
AUC 0.673

附图说明

[0027] 图1为本发明方法的总体实现框图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号