[0078] 下面结合附图和实施例具体说明本发明。
[0079] 实施例1
[0080] 本实施例提供的一种学习生物视觉通路的轮廓检测方法,包括以下步骤:
[0081] 所述的学习生物视觉通路的轮廓检测方法,包括以下步骤:
[0082] A、构建深度神经网络结构,深度神经网络结构如图1‑9所示,具体如下:
[0083] 编码网络、解码网络、前馈融合模块;其中,编码网络为VGG16与FENet相结合的网络结构;解码网络为RDNet网络;
[0084] VGG16网络以池化层为分界线,分为S1、S2、S3、S4、S5阶段;
[0085] FENet包括四个子网络:单拮抗特征子网络、双拮抗特征子网络、V1输出子网络、V2输出子网络;
[0086] B、原始图像输入VGG16网络中,依次经S1、S2、S3、S4、S5阶段卷积处理,分别获得输出结果S1、S2、S3、S4、S5,其中输出结果S1送入解码网络;
[0087] 原始图像经过公式1处理,得到R‑G,G‑R,B‑Y,Y‑B四种输入;
[0088] SOi=Cm‑ωCn (1)
[0089] 其中,i表示R‑G,G‑R,B‑Y,Y‑B;m和n都代表R、G、B、Y分量;ω为系数,取值为0.7;
[0090] 将R‑G,G‑R,B‑Y,Y‑B输入单拮抗特征子网络处理,获得输出结果a,输出结果a与输出结果S2相加融合后,得到融合结果a,输入解码网络;
[0091] 将R‑G,G‑R,B‑Y,Y‑B输入双拮抗特征子网络处理,获得输出结果b,输出结果b与输出结果S3相加融合后,得到融合结果b,输入解码网络;
[0092] 原始图像经过SCO算法得到V1区的边缘响应,输入V1输出子网络处理,获得输出结果c,输出结果c与输出结果S4相加融合后,得到融合结果c,输入解码网络;
[0093] 原始图像经过SED算法得到V2区的边缘响应,输入V2输出子网络处理,获得输出结果d,输出结果d与输出结果S5相加融合后,得到融合结果d,输入解码网络;
[0094] C、将输出结果a、输出结果b分别输入前馈融合模块中;
[0095] 输出结果S1、融合结果a、融合结果b、融合结果c、融合结果d经解码网络处理后,获得解码输出结果,输入前馈融合模块中,并计算其损失;
[0096] D、在前馈融合模块中,输出结果a、输出结果b分别经过1x1‑1卷积层后,经上采样恢复到原始分辨率,并计算其损失,最后乘以权重,获得的结果与解码输出结果相加融合后获得最终输出轮廓,并计算其损失。
[0097] SCO算法见如下文献记载:K.‑F.Yang,S.‑B.Gao,C.‑F.Guo,C.‑Y.Li,Y.‑J.Li,Boundary detection using double‑opponency and spatial sparseness constraint,IEEE Transactions on Image Processing,24(2015)2565‑2578.
[0098] SED算法见如下文献记载:A.Akbarinia,C.A.Parraga,Feedback and Surround Modulated Boundary Detection,International Journal of Computer Vision,126(2018)1367‑1380.
[0099] 所述的各步骤涉及的卷积表达式为m*n‑k conv+ReLU,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,ReLU表示激活函数;m*n、k均为预设值;所述的最终融合层的卷积表达式为m*n‑k conv。
[0100] 所述的VGG16网络由原始VGG16网络经过如下结构调整获得:
[0101] 去掉S4和S5之间的池化层,同时把S5的三个卷积层依次改为空洞率为2、4、8的空洞卷积层。
[0102] 所述的单拮抗特征子网络包括:R‑G、G‑R、B‑Y、Y‑B四组单拮抗卷积处理阶段,SEM多尺度增强模块,3×3‑128卷积层;
[0103] R‑G,G‑R,B‑Y,Y‑B单拮抗卷积处理阶段相同,分别依次经过3×3‑3卷积层、3×3‑64、最大池化层、3×3‑128卷积层;
[0104] 单拮抗特征子网络处理过程如下:
[0105] 将R‑G,G‑R单拮抗卷积处理阶段处理后的特征相加融合,经过多尺度增强模块处理,获得单拮抗增强结果a;将B‑Y,Y‑B单拮抗卷积处理阶段处理后的特征相加融合,经过多尺度增强模块处理,获得单拮抗增强结果b;
[0106] 将单拮抗增强结果a与单拮抗增强结果b拼接,然后通过3×3‑128卷积层来匹配通道数后得到融合结果a。
[0107] 所述的双拮抗特征子网络包括:R‑G,G‑R,B‑Y、Y‑B双拮抗卷积处理阶段,SEM多尺度增强模块,1×1‑256卷积层;
[0108] R‑G,G‑R,B‑Y、Y‑B双拮抗卷积处理阶段相同,每个阶段的输入分成两路,每个阶段中的两路分别依次经过9×9‑3卷积层、9×9‑64卷积层、2×2最大池化层、9×9‑128卷积层、2×2最大池化层、9×9‑256卷积层,乘以sigmoid函数归一化的可训练权重后,相减,分别获得R‑G,G‑R,B‑Y、Y‑B双拮抗卷积处理结果;
[0109] 将R‑G,G‑R双拮抗卷积处理结果相加融合后,通过SEM多尺度增强模块处理,获得双拮抗增强结果a;将B‑Y、Y‑B双拮抗卷积处理结果相加融合后,通过SEM多尺度增强模块处理,获得双拮抗增强结果b;
[0110] 将双拮抗增强结果a与双拮抗增强结果b拼接,然后通过1×1‑256卷积层来匹配通道数后得到融合结果b。
[0111] 所述的V1输出子网络包括依次连接的三组2×2最大池层、SEM多尺度增强模块、3×3‑512卷积层;
[0112] V1区的边缘响应在V1输出子网络中经过三次2×2最大池化,然后经过SEM多尺度增强模块提取多尺度特征,最后经过3×3‑512卷积层匹配通道数,得到融合结果c。
[0113] 所述的V2输出子网络包括依次连接的三组2×2最大池层、SEM多尺度增强模块、3×3‑512卷积层;
[0114] V2区的边缘响应在V2输出子网络中经过三次2×2最大池化,然后经过SEM多尺度增强模块提取多尺度特征,最后经过3×3‑512卷积层匹配通道数,得到融合结果d。
[0115] 所述的解码网络由多个单元模块R组成的4层结构,第一层包含4个单元模块R,第二层包含3个单元模块,第三层包含2个单元模块R,第四层包含1个单元模块R;
[0116] 融合结果d和融合结果c分别输入第一层的第一个单元模块R中,经该单元模块R处理获得处理结果R1;
[0117] 处理结果dc与融合结果b分别输入第一层的第二个单元模块R中,经该单元模块R处理获得处理结果R2;
[0118] 处理结果R2与融合结果a分别输入第一层的第三个单元模块R中,经该单元模块R处理获得处理结果R3;
[0119] 处理结果R3与输出结果S1分别输入第一层的第四个单元模块R中,经该单元模块R处理获得处理结果R4;
[0120] 处理结果R1与处理结果R2分别输入第二层的第一个单元模块R中,经该单元模块R处理获得处理结果R5;
[0121] 处理结果R5与处理结果R3分别输入第二层的第二个单元模块R中,经该单元模块R处理获得处理结果R6;
[0122] 处理结果R6与处理结果R4分别输入第二层的第三个单元模块R中,经该单元模块R处理获得处理结果R7;
[0123] 处理结果R5与处理结果R6分别输入第三层的第一个单元模块R中,经该单元模块R处理获得处理结果R8;
[0124] 处理结果R8与处理结果R7分别输入第三层的第二个单元模块R中,经该单元模块R处理获得处理结果R9;
[0125] 处理结果R8与处理结果R9分别输入第四层的单元模块R中,经该单元模块R处理获得处理结果R10,处理结果R10经1×1‑1卷积获得解码输出结果。
[0126] 所述的单元模块R包含两个输入通道,通道1输入尺寸较大的图像,通道2输入尺寸较小的图像;
[0127] 图像在通道1中依次经过3×3卷积,ReLU函数激活,批归一化层处理,乘以sigmoid函数归一化的可训练权重,获得通道1输出结果;
[0128] 图像在通道2中依次经过3×3卷积,ReLU函数激活,批归一化层,乘以sigmoid函数归一化的可训练权重,经上采样与通道1输出结果尺寸一致,获得通道2输出结果;
[0129] 其中,通道1和通道2中的3x3卷积层的输出通道数与两个输入中通道数小的保持一致;
[0130] 将通道1输出结果于通道2输出结果相加融合,获得当前单元模块R的输出结果。
[0131] 所述的步骤C和D中,计算损失的公式如下:
[0132] 总损失如下:
[0133]
[0134] 上式中,θi和θfuse分别表示三种子网络输出的损失的权重和最终预测的损失的权重,Pi代表三种不同的输出,Pfuse代表最终的边缘预测,Y表示真实边缘图;
[0135] l(Pfuse,Y)的计算公式如下:
[0136] 对于一张真实边缘图Y=(yj,j=1,...,|Y|),yj∈{0,1},定义Y+={yj,yj>η}和Y‑+ ‑={yj,yj=0},Y和Y分别代表正样本集和负样本集,其他像素全部忽略。
[0137] 因此l(Pfuse,Y)计算如下:
[0138]
[0139]
[0140] 式(3)中,P代表预测,pj代表在像素j处经过一个sigmoid函数处理后的值。α和β用于平衡正负样本,λ是控制系数大小的权重。
[0141] 实施例2
[0142] 将本实施例方法与以下文献1的方法进行边缘检测结果的对比;
[0143] 文献1:S.Xie and Z.Tu,"Holistically‑nested edge detection,"in International Comference on Computer Vision,2015,pp.1395‑1403.
[0144] 文献1所用到的参数和其原文一样,都是已经保证是该模型的最优参数。
[0145] 对于最终的轮廓图进行定量的性能评估,我们采用和文献1中一样的性能测量标准,具体评价如公式(3)所示。
[0146]
[0147] 其中,P表示精确率,R表示召回率。F的值越大,表明性能越好。
[0148] 图10所示为从伯克利分割数据集(BSDS500)选取的两幅自然图像、对应的真实轮廓图、文献1方法检测的轮廓图,实施例1方法检测的轮廓。
[0149] 从实验的效果来看,实施例1检测方法优于文献1的检测方法。