首页 > 专利 > 哈尔滨工程大学 > 一种基于大数据的人工智能目标识别测距方法专利详情

一种基于大数据的人工智能目标识别测距方法   0    0

实质审查 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2020-10-20
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-02-09
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2040-10-20
基本信息
有效性 实质审查 专利类型 发明专利
申请号 CN202011127031.5 申请日 2020-10-20
公开/公告号 CN112257566A 公开/公告日 2021-01-22
授权日 预估到期日 2040-10-20
申请年 2020年 公开/公告年 2021年
缴费截止日
分类号 G06K9/00G06K9/46G06K9/62G06N3/04G06N3/08 主分类号 G06K9/00
是否联合申请 独立申请 文献类型号 A
独权数量 1 从权数量 6
权利要求数量 7 非专利引证数量 3
引用专利数量 7 被引证专利数量 1
非专利引证 1、王雪丽: "“基于卷积神经网络的双目测距研究”", 《电子质量》; 2、杜雪婷等: "“基于YOLOv3的车辆距离测量算法”", 《电脑编程技巧与维护》; 3、胡远志等: "“基于数据融合的目标测距方法研究”", 《重庆理工大学学报(自然科学版)》;
引用专利 US6366236B1、CN105277853A、CN108267123A、CN109029363A、CN109407067A、CN110297223A、US2020265591A1 被引证专利
专利权维持 99 专利申请国编码 CN
专利事件 事务标签 公开、实质审查
申请人信息
申请人 第一申请人
专利权人 哈尔滨工程大学 当前专利权人 哈尔滨工程大学
发明人 不公告发明人 第一发明人 不公告发明人
地址 黑龙江省哈尔滨市南岗区南通大街145-1号 邮编 150001
申请人数量 1 发明人数量 1
申请人所在省 黑龙江省 申请人所在市 黑龙江省哈尔滨市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
北京汇捷知识产权代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
林杨
摘要
本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。本发明包括对接收的信号进行预处理;通过K‑Means聚类算法,生成识别目标的锚定框;构建卷积神经网络支路,定义卷积神经网络的层和参数;利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。本发明能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。
  • 摘要附图
    一种基于大数据的人工智能目标识别测距方法
  • 说明书附图:图1
    一种基于大数据的人工智能目标识别测距方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-02-09 实质审查的生效 IPC(主分类): G06K 9/00 专利申请号: 202011127031.5 申请日: 2020.10.20
2 2021-01-22 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于大数据的人工智能目标识别测距方法,其特征在于,包括如下步骤:
(1)对接收的信号进行预处理;
(2)通过K-Means聚类算法,生成识别目标的锚定框;
(3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
(4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
(5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
(6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
(7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。

2.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(1)包括:
(1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
(1.2)对训练集图像进行归一化操作:
Norm(i)=(i-E(i))D(i)/Stddev(i);
其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
(1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
(1.4)搭建蒙版图的生成器网络和判别器网络;
(1.5)定义损失函数为:
LGL1=E(||j-G(i)||1)
LG=LGL1+LGGAN(G(i),D(i,j))
式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
(1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
(1.7)像素注意力模型的输出为:
xN[x,y,k]=x[x,y,k]·N[x,y];
式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。

3.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(2)包括:
(2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
(2.2)每除代表锚定框类别的边界框的类别设置为0;
(2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
(2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
(2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
(2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。

4.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(3)包括:
通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。

5.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
遗忘门输出为:
ft=δ[Wf(ht,xt)+bf]
δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
输入门输出为:
it=δ[Wi(ht-1,xt)+bi]
Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
单元更新过程
tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置
单元输出
输出门输出为
Ot=δ[Wo(ht-1,xt)+bo]
Wo为输出门的权重矩阵,bo为输出门的偏置;
t时刻总输出为
ht=Ottanh(Ct)。

6.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述的步骤(5)包括如下步骤:
基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
式中,W×H是图像的分辨率, 是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为 和
YOLOV3网络的边界框损失函数为:
LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数;
指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
YOLOV3网络的置信度损失函数为:
其中,样本真实类别标签为C,真实置信度为P,预测类别标签为 预测置信度为 λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
YOLOV3网络的损失函数L为:
L=htLD+Qp(x,y)LC。

7.根据权利要求1所述的一种基于大数据的人工智能目标识别测距方法,其特征在于,所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
说明书

技术领域

[0001] 本发明属于目标识别、测距技术领域,具体涉及一种识别准确率更高、速度更快的基于大数据的人工智能目标识别测距方法。

背景技术

[0002] 目标识别测距技术可运用到飞机、汽车、轨道交通、智能家居、轨迹监控等多个领域,整体输入人工智能的大数据处理技术。目前发明人检索到的,与本发明相类似的对比文件包括:1重庆理工大学学报《基于数据融合的目标测距方法研究》、专利申请号202010144063.X的《一种无人机目标识别定位方法》以及西安电子科技大学的《基于数据融合的目标测距方法研究》等。与上述的文献记载的相关技术相比,本发明更专注于提供一种在边界框内通过网络训练提高识别精度和测距速度的人工智能识别方法。

发明内容

[0003] 本发明的目的在于提供一种基于大数据的人工智能目标识别测距方法。
[0004] 本发明的目的是这样实现的:
[0005] 一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
[0006] (1)对接收的信号进行预处理;
[0007] (2)通过K-Means聚类算法,生成识别目标的锚定框;
[0008] (3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
[0009] (4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
[0010] (5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
[0011] (6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;
[0012] (7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
[0013] 所述的步骤(1)包括:
[0014] (1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
[0015] (1.2)对训练集图像进行归一化操作:
[0016] Norm(i)=(i-E(i))D(i)/Stddev(i);
[0017] Stddev(i)=max(D(i),1/√M);
[0018] 其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
[0019] (1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
[0020] (1.4)搭建蒙版图的生成器网络和判别器网络;
[0021] (1.5)定义损失函数为:
[0022] LGL1=E(||j-G(i)||1)
[0023]
[0024] LG=LGL1+LGGAN(G(i),D(i,j))
[0025]
[0026] 式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
[0027] (1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
[0028]
[0029] Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
[0030] 式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
[0031] (1.7)像素注意力模型的输出为:
[0032] xN[x,y,k]=x[x,y,k]·N[x,y];
[0033] 式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
[0034] 所述的步骤(2)包括:
[0035] (2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
[0036] (2.2)每除代表锚定框类别的边界框的类别设置为0;
[0037] (2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
[0038] (2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
[0039] (2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
[0040] (2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
[0041] 所述的步骤(3)包括:
[0042] 通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
[0043]
[0044] Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
[0045] Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
[0046] 所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
[0047] 遗忘门输出为:
[0048] ft=δ[Wf(ht,xt)+bf]
[0049] δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
[0050] 输入门输出为:
[0051] it=δ[Wi(ht-1,xt)+bi]
[0052] Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
[0053] 单元更新过程
[0054]
[0055] tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置[0056] 单元输出
[0057]
[0058] 输出门输出为
[0059] Ot=δ[Wo(ht-1,xt)+bo]
[0060] Wo为输出门的权重矩阵,bo为输出门的偏置;
[0061] t时刻总输出为
[0062] ht=Ot tanh(Ct)。
[0063] 所述的步骤(5)包括如下步骤:
[0064] 基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
[0065]
[0066]
[0067]
[0068]
[0069] 式中,W×H是图像的分辨率, 是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为 和
[0070] YOLOV3网络的边界框损失函数为:
[0071]
[0072] LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数; 指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
[0073] YOLOV3网络的置信度损失函数为:
[0074]
[0075] 其中,样本真实类别标签为C,真实置信度为P,预测类别标签为 预测置信度为λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
[0076] YOLOV3网络的损失函数L为:
[0077] L=htLD+Qp(x,y)LC。
[0078] 所述步骤(6)包括:通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
[0079] 本发明的有益效果在于:
[0080] 本发明提出了利用卷积神经网络良好的空间特征提取能力和长短期记忆网络良好的时间序列处理能力,提取脉冲信号的空间特征和时间特征,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力。对图形信号进行采样,将采样后的离散信号的同相分量和正交分量直接作为输入,无需将接收信号变换为基带信号的复杂运算,同时对图像进行预处理,削减非目标区域的像素信息,提高目标检测的准确率;同时利用K-Means聚类算法,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,加强梯度下降过程中有用特征的使用率,提高目标识别和测距的准确率。

实施方案

[0082] 下面结合附图对本发明作进一步描述。
[0083] 一种基于大数据的人工智能目标识别测距方法,包括如下步骤:
[0084] (1)对接收的信号进行预处理;
[0085] (1.1)采样连续脉冲信号,提取同相分量I路和正交分量Q路的数据,将I路数据、Q路数据分别保存为长度为Ni=1000的采样信号,组成2*1000的矩阵,作为深度学习网络的输入;
[0086] (1.2)对训练集图像进行归一化操作:
[0087] Norm(i)=(i-E(i))D(i)/Stddev(i);
[0088] Stddev(i)=max(D(i),1/√M);
[0089] 其中:i为目标图像,M为i的像素个数,Norm为归一化函数,Stddev为带有限制的方差函数,max为最大值函数,D为方差函数,E为均值函数;
[0090] (1.3)读取训练集中每一个目标图像的目标边界框信息,将边界框外的三个通道像素值置0,得到训练集图像的实蒙版图j;
[0091] (1.4)搭建蒙版图的生成器网络和判别器网络;
[0092] (1.5)定义损失函数为:
[0093] LGL1=E(||j-G(i)||1)
[0094]
[0095] LG=LGL1+LGGAN(G(i),D(i,j))
[0096]
[0097] 式中:G(i)是生成器,D(i,j)是判别器,s为非线性补偿系数,LGL1为生成器的L1范数损失函数,LGGAN为生成器的生成对抗损失函数,LG为生成器损失函数,LD为判别器损失函数;
[0098] (1.6)对生成器输出的中间蒙版图进行灰化和开关处理:
[0099]
[0100] Gray(R,G,B)=(R×0.235+G×0.536+B×0.123)/255;
[0101] 式中:N是生成蒙版图,Gray为灰化函数,Switch为开关函数;R、G、B分别是中间蒙版图的红、绿、蓝颜色通道的像素值,z是遗忘系数;
[0102] (1.7)像素注意力模型的输出为:
[0103] xN[x,y,k]=x[x,y,k]·N[x,y];
[0104] 式中:iN[x,y,k]为xN第x行第y列第k个颜色通道的像素值,i[x,y,k]为i第x行第y列第k个颜色通道的像素值,N[x,y]为第x行第y列的蒙版值。
[0105] (2)通过K-Means聚类算法,生成识别目标的锚定框;
[0106] (2.1)从边界框集合中随机选择15个边界框,每个边界框代表一个锚定框类别,依次标记为1-15;
[0107] (2.2)每除代表锚定框类别的边界框的类别设置为0;
[0108] (2.3)遍历每一个边界框,计算与每一个代表锚定框类别的边界框的欧几里得范数;
[0109] (2.4)对每一个类别的所有边界框计算平均值,以平均值作为虚拟质心;用虚拟质心替代原质心;
[0110] (2.5)计算每个代表锚定框类别的边界框和虚拟质心的欧几里得范数,若每个欧几里得范数都小于给定收敛阈值则执行(2.6);否则执行步骤(2.3);
[0111] (2.6)将15个虚拟质心按照边界框的面积从大到小排序,取面积最大的5个虚拟质心作为低分辨率的目标锚定框,中间的5个虚拟质心作为中分辨率的目标锚定框,面积最小5个作为高分辨率的目标锚定框。
[0112] (3)构建卷积神经网络支路,定义卷积神经网络的层和参数;
[0113] 通过卷积神经网络的卷积层提取预处理过的信号数据的空间特征,通过池化层提取特征的关键信息,通过稠密层激活函数计算各神经元的权重;卷积神经网络卷积层的输出为:
[0114]
[0115] Qp(x,y)=f[(X*Wp)(x,y)+bp]LGGAN(G(i),D(i,j))
[0116] Qp(x,y)表示的是输入与第p个卷积核卷积运算后的第x行y列的输出,X为输入,Wp是第p个的卷积核,bp是输出偏置,f是ReLU型激活函数。
[0117] (4)构建长短期记忆网络支路,定义长短期记忆网络的层和参数;
[0118] 所述的长短期记忆网络由一个记忆单元和三个控制门单元组成,包括遗忘门FG、输入门IG、输出门OG;
[0119] 遗忘门输出为:
[0120] ft=δ[Wf(ht,xt)+bf]
[0121] δ表示的是sigmoid型激励函数,Wf为遗忘门的权重矩阵,ht表示t时刻的输出,xt表示t时刻的输入,bf表示遗忘门的偏置;
[0122] 输入门输出为:
[0123] it=δ[Wi(ht-1,xt)+bi]
[0124] Wi为输入门的权重矩阵,bi表示遗忘门的偏置;
[0125] 单元更新过程
[0126]
[0127] tanh为激活函数,Wc辨识单元更新的权重矩阵,bc表示单元更新的偏置[0128] 单元输出
[0129]
[0130] 输出门输出为
[0131] Ot=δ[Wo(ht-1,xt)+bo]
[0132] Wo为输出门的权重矩阵,bo为输出门的偏置;
[0133] t时刻总输出为
[0134] ht=Ot tanh(Ct)。
[0135] (5)构建基于特征注意力模型的YOLOV3网络,进行卷积神经网络支路和长短期记忆网络支路的特征融合,得到评估模型,通过全连接层对评估模型进行非线性组合并进行输出;
[0136] 基于聚类生成的锚定框,将数据集的标签边界框转换为相对的形式:
[0137]
[0138]
[0139]
[0140]
[0141] 式中,W×H是图像的分辨率, 是锚定框的尺寸,对于第x个边界框ix、iy、wi和hi,其相对的坐标和尺寸为 和
[0142] YOLOV3网络的边界框损失函数为:
[0143]
[0144] LD为边界框损失函数;λcoord是用于调整船舶目标检测在损失函数所占的比重的参数; 指判断网格i中是否存在目标,存在时为1,不存在时为0,S为边界框面积,Bi为边界框边长;
[0145] YOLOV3网络的置信度损失函数为:
[0146]
[0147] 其中,样本真实类别标签为C,真实置信度为P,预测类别标签为 预测置信度为λnoobj是用于减少无目标区域的损失对于训练过程贡献的参数;
[0148] YOLOV3网络的损失函数L为:
[0149] L=htLD+Qp(x,y)LC。
[0150] (6)训练集训练评估模型,使用验证集评估模型,调整评估模型参数,获得最佳的神经网络评估模型;通过并联卷积神经网络和长短期记忆网络对经过处理的信号数据进行计算,输出信号数据的到达时间估计结果;经过迭代训练,通过估计结果的误差调整卷积神经网络和长短期记忆网络模型的各神经元的权重,保存训练模型。
[0151] (7)利用测试集对神经网络评估模型进行线性调频信号的信号到达时间测试,输出线性调频信号的信号到达时间估计结果,通过输入的图像信息得到目标与接收器之间的水平距离。
[0152] 本发明通过3种人工智能网络的结合运用,将图像信号的时空问题转化成基于并联卷积神经网络和长短期记忆网络的特征提取问题,提高了特征表达能力,生成识别目标的锚定框优化YOLOV3网络,能够在多种复杂背景与分辨率下对实现目标检测与识别,能够有效进行目标识别测距功能,相比于背景技术提出的对比文件,由于技术特征均没有公开,因此具有突出的实质性特点和显著的技术进步,技术整体具备充分的创造性。

附图说明

[0081] 图1为本发明方法的流程图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号