[0003] 本发明的目的在于提供一种基于大数据的人工智能目标识别测距方法。
[0004] 本发明的目的是这样实现的:
[0005] 一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
[0006] (1)对接收的信号进行预处理;
[0007] (2)通过K-Means聚类算法,生成识别目标的锚定框;
[0008] (3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
[0009] (4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
[0010] (5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
[0011] (6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
[0012] (7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
[0013] 所述的步骤(1)包括:
[0014] (1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
[0015] (1.2)对训练集图像进行归一化操作:
[0016] Norm(i)=(i-E(i))D(i)/Stddev(i);
[0017] Stddev(i)=max(D(i),1/√M);
[0018] 其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
[0019] (1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
[0020] (1.4)搭建蒙版图的生成器网络和判别器网络;
[0021] (1.5)定义损失函数为:
[0022] LGL1=E(||j-G(i)||1)
[0023]
[0024] LG=LGL1+LGGAN(G(i),D(i,j))
[0025]
[0026] 式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
[0027] (1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
[0028]
[0029] Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
[0030] 式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
[0031] (1.7)像素注意力模型的输出为:
[0032] xN[x,y,k]=x[x,y,k]·N[x,y];
[0033] 式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
[0034] 所述的步骤(2)包括:
[0035] (2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
[0036] (2.2)每除代表锚定框类别的边界框的类别设置为0;
[0037] (2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
[0038] (2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
[0039] (2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
[0040] (2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
[0041] 所述的步骤(3)包括:
[0042] 通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
[0043]
[0044] Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
[0045] Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
[0046] 所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
[0047] 遗忘门输出为:
[0048] ft=δ[Wf(ht,xt)+bf]
[0049] δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
[0050] 输入门输出为:
[0051] it=δ[Wi(ht-1,xt)+bi]
[0052] Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
[0053] 单元更新过程
[0054]
[0055] tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置[0056] 单元输出
[0057]
[0058] 输出门输出为
[0059] Ot=δ[Wo(ht-1,xt)+bo]
[0060] Wo为输出门的权重矩阵,bo为输出门的偏置;
[0061] t时刻总输出为
[0062] ht=Ot tanh(Ct)。
[0063] 所述的步骤(5)包括如下步骤:
[0064] 基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
[0065]
[0066]
[0067]
[0068]
[0069] 式中,W×H是图像的分辨率, 是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为 和
[0070] YOLOV3网络的边界框损失函数为:
[0071]
[0072] LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数; 指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
[0073] YOLOV3网络的置信度损失函数为:
[0074]
[0075] 其中,样本真实类别标签为C,真实置信度为P,预测类别标签为 预测置信度为λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
[0076] YOLOV3网络的损失函数L为:
[0077] L=htLD+Qp(x,y)LC。
[0078] 所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
[0079] 本发明的有益效果在于:
[0080] 本发明提出了利用卷积神经网络良好的空间特征提取能力和长短期记忆网络良好的时间序列处理能力,提取脉冲信号的空间特征和时间特征,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力。对图形信号进行采样,将采样后的离散信号的同相分量和正交分量直接作为输入,无需将接收信号变换为基带信号的复杂运算,同时对图像进行预处理,削减非目标区域的像素信息,提高目标检测的准确率;同时利用K-Means聚类算法,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。