首页 > 专利 > 杭州电子科技大学 > 一种基于混合高斯模型和神经网络的行人摔倒检测方法专利详情

一种基于混合高斯模型和神经网络的行人摔倒检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-11-18
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-05-05
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-03-18
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-11-18
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201911130289.8 申请日 2019-11-18
公开/公告号 CN110991274B 公开/公告日 2022-03-18
授权日 2022-03-18 预估到期日 2039-11-18
申请年 2019年 公开/公告年 2022年
缴费截止日
分类号 G06V40/10G06K9/62G08B21/04G06N3/04G06V10/774 主分类号 G06V40/10
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 5
权利要求数量 6 非专利引证数量 1
引用专利数量 0 被引证专利数量 0
非专利引证 1、CN 110135319 A,2019.08.16CN 106845456 A,2017.06.13CN 108509938 A,2018.09.07CN 110188599 A,2019.08.30CN 110321780 A,2019.10.11陈文青等.基于行为视觉的行人摔倒自动检测系统设计《.现代电子技术》.2016,孙朋等.改进混合高斯模型在人体跌倒检测中的应用《.计算机工程与应用》.2017,Kun-Lin Lu等.An Image-Based FallDetection System for the Elderly《.Appl. Sci》.2018,Shuang Liu等.Abnormal BehaviorRecognition Based on Improved GaussianMixture Model and Hierarchical Detectors. 《2017 13th International Conference onNatural Computation, Fuzzy Systems andKnowledge Discovery》.2017,;
引用专利 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 何志伟、蓝孟阳、刘圆圆、高明煜 第一发明人 何志伟
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
杨舟涛
摘要
本发明公开了一种基于混合高斯模型和神经网络的行人摔倒检测方法。现有的基于硬件传感器和基于视频图像的摔倒检测方案检测准确率和泛化能力较差。本发明结合了混合高斯模型和神经网络,采用alphapose神经网络能对运动的物体区域进行行人目标检测和骨骼提取,单人骨骼提取的训练集采用人工合成三维人体模型的方法,之后的浅层卷积神经网络会对提取的骨骼进行分类,完成摔倒检测。高斯混合模型能快速的定位运动的前景,过滤视频帧中大量的非运动物体,减少神经网络的计算量。本发明方法检测速度快,且神经网络有较强的泛化性,能应用于实时的视频监控。
  • 摘要附图
    一种基于混合高斯模型和神经网络的行人摔倒检测方法
  • 说明书附图:图1
    一种基于混合高斯模型和神经网络的行人摔倒检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-03-18 授权
2 2020-05-05 实质审查的生效 IPC(主分类): G06K 9/00 专利申请号: 201911130289.8 申请日: 2019.11.18
3 2020-04-10 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于具体步骤如下:
步骤(1).提取视频中的前景区域:
(1‑1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜;
(1‑2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,最终找到前景区域的具体位置;
(1‑3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像;
步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
(2‑1).准备行人检测数据集和单人骨骼检测数据集:
行人检测数据集:从互联网上下载已经公开的官方的行人数据集;
单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
根据二维骨架图像,生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度;
根据生成的数据标注骨骼关键点的坐标;
(2‑2).训练yolov3行人检测神经网络,并进行检测:
训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集;
检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测;
(2‑3).训练单人骨骼检测网络,并进行检测:
训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练;
检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
形成第i帧图像中第n人单帧骨骼矩阵:分别选择左肩、右肩、左髋、右髋参照坐标点拼接形成骨骼的矩阵,拼接四个矩阵形成一个1行144列的单帧骨骼矩阵
其中,
表示以第n个人左肩 为参照点,计算此人所有骨骼关节与
参照点相对距离,最终拼接形成的矩阵;
表示以第n个人右肩 为参照点,计算此人所有骨骼关节与
参照点相对距离,最终拼接形成的矩阵;
表示以第n个人左髋 为参照点,计算此人所有骨骼关节与参照点相
对距离,最终拼接形成的矩阵;
表示以第n个人右髋 为参照点,计算此人所有骨骼关节与参照点相
对距离,最终拼接形成的矩阵;
对单帧骨骼矩阵进行0到255之间的归一化;
同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:
当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,形成如下形式的Fn:
imax为设定参数;
(2‑4).关键点初分类:
对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3);
其中,
分别表示图像中第n人骨骼中左踝的y坐标轴值和x坐标轴值;
分别表示图像中第n人骨骼中右踝的y坐标轴值和x坐标轴值;
表示图像中第n人骨骼中左髋的y坐标轴值;
表示图像中第n人骨骼中右髋的y坐标轴值;
Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
分别表示图像中第n人骨骼中左膝的y坐标轴值和x坐标轴值;
分别表示图像中第n人骨骼中右膝的y坐标轴值和x坐标轴值;
步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
(3‑1).制作训练集:
采集(2‑4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:
摔倒标注为0,误判标注为1;误判即为疑似摔倒的动作形成的骨骼序列图;
(3‑2).构建MobileNet网络进行训练并检测:
MobileNet网络共28层,0‑26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3;卷积层经过7x7的平均池化后与1024x1000的全连接层连接;最后一层为分类层,构建一个1024x2的分类层,并采用softmax获得类别概率;
训练:加载网络上下载的训练好的MobileNet网络权重,使用(3‑1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2后,再对所有层进行训练;
优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数;
检测:将(2‑4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。

2.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(1)中,N=10~30。

3.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于(1‑3)的具体方式是:
(k·N+1)帧图像与其对应的掩膜图像进行矩阵逻辑操作中的与操作,并将形成的图像作为输出图像,k=2,3,4,5,6,…;(k·N+1)帧图像对应的掩膜图像是(k‑1)N帧图像到k·N帧图像合并形成的掩膜。

4.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(2)中,τ1=0.7~0.8。

5.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(2)中,imax=144。

6.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(3)中,τ2=3~6%。
说明书

技术领域

[0001] 本发明属于图像处理领域,具体涉及一种基于混合高斯模型和神经网络的行人摔倒检测方法。

背景技术

[0002] 在现代社会中,由于摔倒造成的经济损失一直居高不下,特别是老年人群体。随着我国人口老龄化现象的日趋明显,摔倒检测越来越成为智能监控安防工程的重要关注课题。现如今,计算机视觉技术已经取得了巨大的进步,这使得通过视频监控实时检测摔倒的发生成为了可能。
[0003] 现在的摔倒检测主要存在两个方向:基于硬件传感器和基于视频图像的摔倒检测。基于硬件传感器的方向已经有了很大的进展,然而使用这种方式有许多问题,其中比较严重的有:这些设备需要长时间佩戴,对于老人的活动有比较大的阻碍;这些设备需要逐年的更新,且这些设备一般价格较高,对于独生子女家庭是个不小的负担。而基于视频图像的摔倒检测也包含基于运动物体提取,形态学操作,提取HOG特征并进行SVM分类等传统人工提取特征方向和深度学习提取骨骼方向。其中,传统人工提取特征方向具有检测速度快,计算复杂度低的优势,然而,在检测过程中,监控拍摄的角度,背景的变化,行人穿着的变化,行人体格的不同都会对检测结果带来影响,这个方法的检测准确率和泛化能力都较差。而深度学习提取骨骼方向可以通过扩大训练集的方式提高检测的准确率和泛化能力,这使得这个方法理论上能有效的实现摔倒检测。然而,有限的摔倒行人样本和巨大的计算复杂度都阻碍这一方案在实时摔倒检测方面的发展。

发明内容

[0004] 本发明的目的是为了针对现在技术不能有效的应用于实时视频监控中,提出了一种基于混合高斯模型和神经网络的行人摔倒检测方法。
[0005] 高斯混合模型能快速的定位运动的前景,再通过alphapose神经网络对运动的物体进行行人目标检测和骨骼提取。之后的浅层卷积神经网络会对提取的骨骼进行分类,完成摔倒检测。
[0006] 本发明方法的具体步骤如下:
[0007] 步骤(1).提取视频中的前景区域:
[0008] (1‑1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜;
[0009] (1‑2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,最终找到前景区域的具体位置;
[0010] (1‑3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像;
[0011] 步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
[0012] (2‑1).准备行人检测数据集和单人骨骼检测数据集:
[0013] 行人检测数据集:从互联网上下载已经公开的官方的行人数据集;
[0014] 单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
[0015] 下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
[0016] 根据二维骨架图像,生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度;
[0017] 根据生成的数据标注骨骼关键点的坐标;
[0018] (2‑2).训练yolov3行人检测神经网络,并进行检测:
[0019] 训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集;
[0020] 检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测;
[0021] (2‑3).训练单人骨骼检测网络,并进行检测:
[0022] 训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练;
[0023] 检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
[0024] 形成第i帧图像中第n人单帧骨骼矩阵:分别选择左肩、右肩、左髋、右髋参照坐标点拼接形成骨骼的矩阵,拼接四个矩阵形成一个1行144列的单帧骨骼矩阵其中,
[0025] 表示以第n个人左肩 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0026] 表示以第n个人右肩 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0027] 表示以第n个人左髋 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0028] 表示以第n个人右髋 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0029] 对单帧骨骼矩阵进行0到255之间的归一化;
[0030] 同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:
[0031] 当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,形成如下形式的Fn:
[0032] imax为设定参数;
[0033] (2‑4).关键点初分类:
[0034] 对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3);
[0035] 其中,
[0036] 分别表示图像中第n人骨骼中左踝的y坐标轴值和x坐标轴值;
[0037] 分别表示图像中第n人骨骼中右踝的y坐标轴值和x坐标轴值;
[0038] 表示图像中第n人骨骼中左髋的y坐标轴值;
[0039] 表示图像中第n人骨骼中右髋的y坐标轴值;
[0040] Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
[0041] 分别表示图像中第n人骨骼中左膝的y坐标轴值和x坐标轴值;
[0042] 分别表示图像中第n人骨骼中右膝的y坐标轴值和x坐标轴值;
[0043] 步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
[0044] (3‑1).制作训练集:
[0045] 采集(2‑4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:摔倒标注为0,误判标注为1;误判即为疑似摔倒的动作形成的骨骼序列图;
[0046] (3‑2).构建MobileNet网络进行训练并检测:
[0047] MobileNet网络共28层,0‑26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3;卷积层经过7x7的平均池化后与1024x1000的全连接层连接;最后一层为分类层,构建一个1024x2的分类层,并采用softmax获得类别概率;
[0048] 训练:加载网络上下载的训练好的MobileNet网络权重,使用(3‑1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2后,再对所有层进行训练;优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数;
[0049] 检测:将(2‑4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。

实施方案

[0051] 一种基于混合高斯模型和神经网络的行人摔倒检测方法,如图1所示,具体步骤如下:
[0052] 步骤(1).提取视频中的前景区域:
[0053] (1‑1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜。
[0054] (1‑2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,用于减少噪声和填补空洞,最终找到前景区域的具体位置;N=10~30。
[0055] (1‑3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像,具体实现如下:
[0056] (k·N+1)帧图像与其对应的掩膜图像进行矩阵逻辑操作中的与操作,并将形成的图像作为输出图像,k=2,3,4,5,6,…;(k·N+1)帧图像对应的掩膜图像是(k‑1)N帧图像到k·N帧图像合并形成的掩膜。
[0057] 以此图像作为输出使得alphapose神经网络只会对可能存在行人的前景区域进行检测,减少了需要检测的图像的面积,能有效的减轻alphapose神经网络的计算负担,提高运行速度。
[0058] 步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
[0059] (2‑1).准备行人检测数据集和单人骨骼检测数据集:
[0060] 行人检测数据集:从互联网上下载已经公开的官方的行人数据集,例如:Caltech行人数据库、coco行人数据集、INRIA数据集。
[0061] 单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
[0062] 下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
[0063] 根据二维骨架图像,使用一些开源的3D合成软件生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度,用于增加数据集的多样性,增加单人骨骼提取神经网络的泛化性;
[0064] 根据生成的数据标注骨骼关键点的坐标。
[0065] 采用人工合成数据的方式能有效的解决缺少大量人体骨骼数据的问题,且能根据实际问题合成特定情况下的数据,灵活性好。
[0066] (2‑2).训练yolov3行人检测神经网络,并进行检测:
[0067] 训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集。
[0068] 检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测。
[0069] (2‑3).训练单人骨骼检测网络,并进行检测:
[0070] 训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练。
[0071] 检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
[0072] 形成第i帧图像中第n人单帧骨骼矩阵:分别选择左肩、右肩、左髋、右髋参照坐标点拼接形成骨骼的矩阵。
[0073] 例如,选择此人左肩 为参照点,计算此人所有骨骼关节与其相对距离,形成1行36列矩阵:
[0074]其中,
[0075] 分别表示图像中第n人骨骼中左踝的y坐标轴值和x坐标轴值;
[0076] 分别表示图像中第n人骨骼中右踝的y坐标轴值和x坐标轴值;
[0077] Yn,nose、Xn,nose分别表示图像中第n人骨骼中鼻子的y坐标轴值和x坐标轴值;
[0078] Yn,neck、Xn,neck分别表示图像中第n人骨骼脖子的y坐标轴值和x坐标轴值;
[0079] 分别表示图像中第n人骨骼中左肩的y坐标轴值和x坐标轴值;
[0080] 分别表示图像中第n人骨骼中右肩的y坐标轴值和x坐标轴值;
[0081] 分别表示图像中第n人骨骼左肘的y坐标轴值和x坐标轴值;
[0082] 分别表示图像中第n人骨骼中右肘的y坐标轴值和x坐标轴值;
[0083] 分别表示图像中第n人骨骼中左腕的y坐标轴值和x坐标轴值;
[0084] 分别表示图像中第n人骨骼中右腕的y坐标轴值和x坐标轴值;
[0085] 分别表示图像中第n人骨骼中左髋的y坐标轴值和x坐标轴值;
[0086] 分别表示图像中第n人骨骼中右髋的y坐标轴值和x坐标轴值;
[0087] 分别表示图像中第n人骨骼中左膝的y坐标轴值和x坐标轴值;
[0088] 分别表示图像中第n人骨骼中右膝的y坐标轴值和x坐标轴值;
[0089] 分别表示图像中第n人骨骼中左耳的y坐标轴值和x坐标轴值;
[0090] 分别表示图像中第n人骨骼中右耳的y坐标轴值和x坐标轴值;
[0091] 分别表示图像中第n人骨骼中左眼的y坐标轴值和x坐标轴值;
[0092] 分别表示图像中第n人骨骼中右眼的y坐标轴值和x坐标轴值。
[0093] 其他3个由于采用不同参照点最终形成的矩形也可以用同样方法形成。拼接这4个矩阵形成一个1行144列的单帧骨骼矩阵 其中,
[0094] 表示以第n个人左肩 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0095] 表示以第n个人右肩 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0096] 表示以第n个人左髋 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵;
[0097] 表示以第n个人右髋 为参照点,计算此人所有骨骼关节与参照点相对距离,最终拼接形成的矩阵。
[0098] 对单帧骨骼矩阵进行0到255之间的归一化。
[0099] 同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往F尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,即形成如下形式的Fn:
[0100] imax为设定参数,一般情况下设置为144即可。
[0101] (2‑4).关键点初分类:
[0102] 对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3),τ1=0.7~0.8;
[0103] 其中,
[0104] 分别表示图像中第n人骨骼中左踝的y坐标轴值和x坐标轴值;
[0105] 分别表示图像中第n人骨骼中右踝的y坐标轴值和x坐标轴值;
[0106] 表示图像中第n人骨骼中左髋的y坐标轴值;
[0107] 表示图像中第n人骨骼中右髋的y坐标轴值;
[0108] Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
[0109] 分别表示图像中第n人骨骼中左膝的y坐标轴值和x坐标轴值;
[0110] 分别表示图像中第n人骨骼中右膝的y坐标轴值和x坐标轴值。
[0111] 步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
[0112] (3‑1).制作训练集:
[0113] 采集(2‑4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:摔倒标注为0,误判标注为1;所述的误判包含下蹲,弯腰等一系列疑似摔倒的动作形成的骨骼序列图。
[0114] (3‑2).构建MobileNet网络进行训练并检测:
[0115] MobileNet网络共28层,0‑26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3,这使得此网络拥有极少的参数和快速的前向传播速度。卷积层经过7x7的平均池化后与1024x1000的全连接层连接。最后一层为分类层,构建一个1024x2的分类层即可,并采用softmax获得类别概率。
[0116] 训练:加载网络上下载的训练好的MobileNet网络权重,使用(3‑1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2(τ2=3~6%,本实施例中τ2=5%)后,再对所有层进行训练。优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数。
[0117] 检测:将(2‑4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。

附图说明

[0050] 图1为本发明方法的流程图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号