首页 > 专利 > 重庆邮电大学 > 一种O2O商铺食品安全监测方法专利详情

一种O2O商铺食品安全监测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2020-12-01
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-03-30
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-07-29
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2040-12-01
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202011383623.3 申请日 2020-12-01
公开/公告号 CN112487145B 公开/公告日 2022-07-29
授权日 2022-07-29 预估到期日 2040-12-01
申请年 2020年 公开/公告年 2022年
缴费截止日
分类号 G06F16/33G06F16/35G06F40/216G06K9/62G06N3/04G06N3/08 主分类号 G06F16/33
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 3
权利要求数量 4 非专利引证数量 0
引用专利数量 0 被引证专利数量 0
非专利引证
引用专利 被引证专利
专利权维持 2 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 重庆邮电大学 当前专利权人 重庆邮电大学
发明人 王进、郝守迪、李馨渝、邱谦、闫振兴、孙开伟、刘彬 第一发明人 王进
地址 重庆市南岸区南山街道崇文路2号 邮编 400065
申请人数量 1 发明人数量 7
申请人所在省 重庆市 申请人所在市 重庆市南岸区
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
重庆辉腾律师事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
王海军
摘要
本发明涉及自然语言处理技术领域,具体涉及一种O2O商铺食品安全监测方法,包括:采用主动学习算法对用户历史评论文本数据进行标注,得到标注样本集L;根据标注样本集L构建词向量;将标注样本集L和词向量输入AT‑GRU模型中进行深度学习,输出店铺是否存在安全隐患以及具体的安全隐患;将标注样本集L输入ELECTRA模型进行微调,得到较精确的预测结果。本发明使用了预训练模型ELECTRA进行微调,不仅可以找到有食品安全隐患的店铺,并且使用基于注意力机制的AT‑GRU模型,可以进行细粒度预测,自动化地提取出具体的食品安全隐患。
  • 摘要附图
    一种O2O商铺食品安全监测方法
  • 说明书附图:图1
    一种O2O商铺食品安全监测方法
  • 说明书附图:图2
    一种O2O商铺食品安全监测方法
  • 说明书附图:图3
    一种O2O商铺食品安全监测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-07-29 授权
2 2021-03-30 实质审查的生效 IPC(主分类): G06F 16/33 专利申请号: 202011383623.3 申请日: 2020.12.01
3 2021-03-12 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种O2O商铺食品安全监测方法,其特征在于,包括以下步骤:
S1、采用主动学习算法对某一店铺的用户历史评论文本数据进行标注,得到标注样本集L和未标注样本集U;
采用主动学习算法进行人工标注包括:
S11、从网络平台上随机获取用户历史评论文本数据,随机选择获取的部分用户的历史评论文本数据进行人工标注,标注1表明有食品安全隐患,标注0表明没有食品安全隐患,剩下的部分用户的历史评论文本数据为未标注样本集U;
S12、使用标注样本集L训练逻辑回归模型,得到训练好的逻辑回归模型M;
S13、使用训练好的逻辑回归模型M对未标注样本集U进行查询函数计算,得到当前模型* *
M不确定的样本x ,对不确定的样本x进行人工标注,加入标注样本集L中,重复以上步骤,直*
到不确定的样本x对应的表达式 的值大于0.5为止,得到最终的标注样本集L;
查询函数的计算表达式如下:
*
其中,x表示模型M对未标注样本集U中最不确定的样本,Q(U)表示查询函数对未标注样本集U进行计算,argmin表示取表达式的值最小时的参数, 表示模型M对U中的样本x的预测值;
S2、根据标注样本集L构建词向量;
标注样本集L构建词向量包括:
S21、将标注样本集L中的文本分词后输入训练好的ALBERT语言模型,ALBERT模型对每个分词进行编码,去掉ALBERT语言模型的输出层,将ALBERT语言模型的最后一层编码状态进行平均池化后作为输入词的初始词向量;
S22、将初始词向量作为Word2Vec模型中隐藏层的初始化权重,再使用Word2Vec算法在用户的历史评论文本语料上进行训练,得到最终的词向量;
S3、将标注样本集L输入ELECTRA模型对模型参数进行微调,得到微调好的ELECTRA模型,将未标注样本集U输入微调好的ELECTRA模型中进行二分类,判别该店铺是否存在食品安全隐患,如果存在食品安全隐患,则执行步骤S4;
ELECTRA模型包括判别器,所述判别器为Transformer结构,由24个结构完全相同的层堆叠而成,每一层作用是对输入的序列状态向量进行编码;24个层被平均分为浅层、中间层和高层,浅层编码文本表层特征,中间层编码句法特征,高层编码语义特征;
S4、将标注样本集L和词向量输入AT‑GRU模型中进行细粒度预测,计算评论中每个词的注意力权重,取权重最大的词作为该店铺具体的食品安全隐患并输出;
所述AT‑GRU模型结构包括输入层、嵌入层、GRU网络层、注意力层和输出层;
所述输入层用于输入数据;
所述嵌入层将构建的词向量作为初始化的权重矩阵;
所述GRU网络层对输入的词向量序列进行编码,得到隐藏状态序列S;
所述注意力层对GRU网络层所有时间步的隐藏状态序列S做加权平均,得到编码向量h;
所述输出层用于对注意力层的编码向量h进行分类,最终输出店铺是否存在食品安全隐患。

2.根据权利要求1所述的一种O2O商铺食品安全监测方法,其特征在于,注意力层对GRU网络层所有时间步的隐藏状态S做加权平均,得到编码向量h,编码向量h的计算表达式包括:
T
h=Sγ
其中,注意力权重γ的计算方式如下:
D=ReLU(S)
其中,h表示注意力层编码的向量,D表示对S的激活处理,S表示GRU层对输入的词向量序列的编码,ReLU()表示修正线性单元函数,d表示隐藏状态的维度,w表示一个d维度的可学习的参数列向量。

3.根据权利要求1所述的一种O2O商铺食品安全监测方法,其特征在于,采用ELECTRA模型进行微调的微调方法包括:拼接ELECTRA模型中浅层、中间层和高层的编码状态,综合编码文本表层特征、句法特征、语义特征不同层次的信息,得到微调后的结果。

4.根据权利要求1所述的一种O2O商铺食品安全监测方法,其特征在于,采用ELECTRA模型进行微调的微调方法包括:去掉原判别器的输出层,将判别器的第6、12、18、24层的编码状态连接起来作为句子的向量表示,再输入到一个随机初始化参数的分类输出层,然后将整个网络的所有权重在训练集上进行微调,最终输出微调后的结果,计算表达式如下:
其中, 表示模型的最终预测结果,即是否存在食品安全隐患,Concat表示连接操作,h6,h12,h18,h24分别是判别器第6、12、18、24层的隐藏状态。
说明书

技术领域

[0001] 本发明涉及自然语言处理技术领域,具体涉及一种O2O商铺食品安全监测方法。

背景技术

[0002] “网络餐饮服务”近几年来随着互联网的快速发展,外卖以其方便快捷的配送和多种多样的菜式选择,迅速得到了以上班族和学生为主体的大量年轻人的青睐。但是,随着互联网与新商业模式的创新发展,“互联网+”食品、“互联网+”餐饮、“互联网+”食用农产品等在方便消费者生活、满足消费者多样化需求、促进大众创新创业的同时,也明显存在高信息不对称性、高外部性、高流动性及高风险性等特征,极易引发食品安全风险。例如:外卖网站上存在虚构店面地址、店家上传虚假店面照片等严重违规情况。这些问题的出现不但让消费者开始注意外卖的风险性,同时也引起了有关部门的注意。在现代大数据发展的背景下,如何有效利用大数据推进网络食品安全治理的研究就显得极为迫切。
[0003] 现有技术中,通常使用经典文本分类的方法例如逻辑斯特回归对商铺的用户评论进行监测,但监测准确率不高,并且监测结果过于单一,难以满足现今食品安全监管的要求。
[0004] 近期自然语言处理技术中预训练模型应用广泛,准确率超越了经典的文本分类方法。首先,预训练模型是一种迁移学习的应用,利用几乎无限的文本,学习输入句子的每一个成员的上下文相关的表示,它隐式地学习到了通用的语法语义知识。第二,预训练模型可以将从开放领域学到的知识迁移到下游任务,以改善低资源任务,对低资源语言处理也非常有利。第三,预训练模型在几乎所有自然语言处理任务中都取得了目前最佳的成果。最后,这个预训练模型+微调机制具备很好的可扩展性,在支持一个新任务时,只需要利用该任务的标注数据进行微调即可,一般工程师就可以实现。
[0005] 注意力机制源自人类的视觉注意力,在自然语言处理技术中起到了关键作用。人类的视觉注意力,使得我们能够在图片的“低解析度”背景下,更加关注具有“高解析度或辨识度”的特定区域(例如一张宠物狗图片中的耳朵),然后逐渐调整焦点,移动到另一个耳朵、眼睛、鼻子等,最后进行推断整张图片的信息。应用在自然语言处理中,注意力机制就可以找到文本中最关键的信息,使理解更加细粒度。

发明内容

[0006] 为了解决上述问题,本发明提供一种O2O商铺食品安全监测方法。
[0007] 一种O2O商铺食品安全监测方法,包括以下步骤:
[0008] S1、采用主动学习算法对某一店铺的用户历史评论文本数据进行标注,得到标注样本集L和未标注样本集U;
[0009] S2、根据标注样本集L构建词向量;
[0010] S3、将标注样本集L输入ELECTRA模型对模型参数进行微调,得到微调好的ELECTRA模型,将未标注样本集U输入微调好的ELECTRA模型中进行二分类,判别该店铺是否存在食品安全隐患,如果存在食品安全隐患,则执行步骤S4;
[0011] S4、将标注样本集L和词向量输入AT‑GRU模型中进行细粒度预测,计算评论中每个词的注意力权重,取权重最大的词作为该店铺具体的食品安全隐患并输出。
[0012] 进一步的,采用主动学习算法进行人工标注包括:
[0013] S11、从网络平台上随机获取用户历史评论文本数据,随机选择获取的部分用户的历史评论文本数据进行人工标注,标注1表明有食品安全隐患,标注0表明没有食品安全隐患,剩下的部分用户的历史评论文本数据为未标注样本集U;
[0014] S12、使用标注样本集L训练逻辑回归模型,得到训练好的逻辑回归模型M;
[0015] S13、使用训练好的逻辑回归模型M对未标注样本集U进行查询函数计算,得到当前* *模型M不确定的样本x ,对不确定的样本x进行人工标注,加入标注样本集L中,重复以上步*
骤,直到不确定的样本x对应的表达式 的值大于0.5为止,得到最终的标注样本集L。
[0016] 进一步的,查询函数的计算表达式如下:
[0017]
[0018] 其中,x*表示模型M对未标注样本集U中最不确定的样本,Q(U)表示查询函数对未标注样本集U进行计算,argmin表示取表达式的值最小时的参数,表示模型M对U中的样本x的预测值。
[0019] 进一步的,步骤S2中,所述根据标注样本集L构建词向量包括:
[0020] S21、将标注样本集L中的文本分词后输入训练好的ALBERT语言模型,ALBERT模型对每个分词进行编码,去掉ALBERT语言模型的输出层,将ALBERT语言模型的最后一层编码状态进行平均池化后作为输入词的初始词向量;
[0021] S22、将初始词向量作为Word2Vec模型中隐藏层的初始化权重,再使用Word2Vec算法在用户的历史评论文本语料上进行训练,得到最终的词向量。
[0022] 进一步的,所述AT‑GRU模型结构包括输入层、嵌入层、GRU网络层、注意力层和输出层,
[0023] 所述输入层用于输入数据;
[0024] 所述嵌入层将构建的词向量作为初始化的权重矩阵;
[0025] 所述GRU网络层对输入的词向量序列进行编码,得到隐藏状态序列S;
[0026] 所述注意力层对GRU网络层所有时间步的隐藏状态序列S做加权平均,得到编码向量h;
[0027] 所述输出层用于对注意力层的编码向量h进行分类,最终输出店铺是否存在食品安全隐患。
[0028] 进一步的,注意力层对GRU网络层所有时间步的隐藏状态S做加权平均,得到编码向量h,编码向量h的计算表达式包括:
[0029] h=SγT
[0030] 其中,注意力权重γ的计算方式如下:
[0031]
[0032] D=ReLU(S)
[0033] 其中,h表示注意力层编码的向量,D表示对S的激活处理,S表示GRU层对输入的词向量序列的编码,ReLU()表示修正线性单元函数,d表示隐藏状态的维度,w表示一个d维度的可学习的参数列向量。
[0034] 进一步的,ELECTRA模型包括判别器,所述判别器为Transformer结构,由24个结构完全相同的层堆叠而成,每一层作用是对输入的序列状态向量进行编码;24个层被平均分为浅层、中间层和高层,浅层主要编码文本表层特征,中间层主要编码句法特征,高层主要编码语义特征。
[0035] 进一步的,采用ELECTRA模型进行微调的微调方法包括:拼接ELECTRA模型中浅层、中间层和高层的编码状态,综合编码文本表层特征、句法特征、语义特征不同层次的信息,得到微调后的结果。
[0036] 进一步的,采用ELECTRA模型进行微调的微调方法包括:去掉原判别器的输出层,将判别器的第6、12、18、24层的编码状态连接起来作为句子的向量表示,再输入到一个随机初始化参数的分类输出层,然后将整个网络的所有权重在训练集上进行微调,最终输出微调后的结果,计算表达式如下:
[0037]
[0038] 其中, 表示模型的最终预测结果,即是否存在食品安全隐患,Concat表示连接操作,h6,h12,h18,h24分别是判别器第6、12、18、24层的隐藏状态。
[0039] 相对于现有技术,本发明的有益效果如下:
[0040] 1.本发明针对网络餐饮服务食品安全难以监管的难题,提出了使用用户评论进行自动化舆情分析的方法,并且使用了预训练模型ELECTRA对用户历史评论文本数据进行二分类,能够高效找到有食品安全隐患的店铺,达到了加强监管的作用。
[0041] 2.本发明使用预训练模型ELECTRA找到有食品安全隐患的店铺后,使用基于注意力机制的AT‑GRU模型进行细粒度预测,自动化地提取出具体的食品安全隐患呈现给监管人员,增强了可用性。

实施方案

[0046] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0047] 如图1所示为本发明实施例提供的一种O2O商铺食品安全监测方法的流程图,包括但不限于以下步骤:
[0048] (1)首先根据微调好的ELECTRA模型对某个店铺的评论的进行判别,判别该店铺是否存在食品安全隐患;
[0049] (2)如果存在食品安全隐患,则使用训练好的AT‑GRU模型(AT‑GRU模型的训练过程如S4所述)计算得到评论中每个词的注意力权重,取权重最大的词作为店铺具体的食品安全隐患。
[0050] S1、使用主动学习算法对用户历史评论文本数据进行标注,标注1表明有食品安全隐患,标注0表明没有食品安全隐患,最终得到标注样本集L,如图2所示。
[0051] S11、从网络平台上随机获取用户历史评论文本数据(400条以上,且用户历史评论文本数据中包括历史评论文本数据和历史评论文本数据所对应的标签),随机选择获取的部分用户的历史评论文本数据进行人工标注(标注1表明有食品安全隐患,标注0表明没有食品安全隐患),作为标注样本集L;剩下的部分用户的历史评论文本数据为未标注样本集U;
[0052] S12、使用标注样本集L训练逻辑回归模型(常规训练方法,不属于本发明的创造点,故不做过多赘述),使用文本和文本对应的标签训练逻辑回归模型的权重参数,最终得到训练好的逻辑回归模型M;
[0053] S13、使用训练好的逻辑回归模型M对未标注样本集U进行查询函数计算,得到当前模型M不确定的样本x*,对不确定的样本x*进行人工标注,加入标注样本集L中,重复以上步骤,直到不确定的样本x*对应的表达式 的值大于0.5为止,得到最终的标注样本集L。
[0054] 查询函数计算方法如下:
[0055]
[0056] 主动学习中基于不确定性的查询策略有三种方法:
[0057] (1)置信度最低(Least Confident):选择预测类别中最大的概率最小的样本进行标注,公式为:
[0058]
[0059] 其中,xLC表示基于置信度最低查询策略所得到的不确定性样本,θ表示一个已经训练好的机器学习模型参数集合, 对于x而言是
模型预测概率最大的类别。
[0060] (2)边缘采样(margin sampling):选择模型预测最大和第二大的概率差值最小的样本,用数学公式来描述就是:
[0061]
[0062] 其中, 表示基于边缘采样查询策略所得到的不确定性样本, 和 分别表示对于x而言,模型预测为最大可能类和第二大可能类。
[0063] (3)熵(Entropy):选择熵比较大的样本数据作为待定标注数据。
[0064]
[0065] 其中,xE表示基于熵查询策略所得到的不确定性样本。
[0066] 现有的基于不确定性的查询策略大多需要进行大量的计算过程,复杂度高。本发明对基于不确定性的查询策略做出改进,提出一种查询函数,不需要确定样本预测最大的概率,只需要使用预测为正类的概率进行计算即可得到不确定性数据,查询函数计算表达式如下:
[0067]
[0068] 其中,x*表示模型M对未标注样本集U中最不确定的样本,Q(U)表示查询函数对未标注样本集U进行计算,argmin表示取表达式的值最小时的参数, 表示模型M对U中的样本x的预测值。需要说明的是,除了上述本发明使用的查询函数计算当前模型M不确定的样本*x外,也可以采用现有的可以实现的查询策略得到不确定样本。
[0069] S2、根据标注样本集L构建词向量。
[0070] S21、将标注样本集L中的文本分词后输入训练好的ALBERT语言模型,ALBERT模型会对每个分词进行编码,去掉ALBERT语言模型的输出层,将ALBERT语言模型的最后一层编码状态进行平均池化后作为输入词的初始词向量。
[0071] S22、将初始词向量作为Word2Vec模型中隐藏层的初始化权重,再使用Word2Vec算法在用户的历史评论文本语料上进行训练,得到最终的词向量。
[0072] S3、将标注样本集L输入ELECTRA模型进行模型参数的微调,得到微调好的ELECTRA模型,将未标注样本集U输入微调好的ELECTRA模型中进行二分类,,判别该店铺是否存在食品安全隐患,如果存在食品安全隐患,则执行步骤S4。
[0073] 传统的预训练模型使用大规模语料对训练好的模型参数进行微调,微调方法是,将用户文本评论数据输入Transformer模型,这部分网络使用预训练的权重,然后由编码器编码得到句子的向量表示后,再经过一个自定义的分类器进行分类,分类器的权重随机初始化。将整个网络的所有权重在下游任务的数据集上进行训练,这就是预训练模型的微调过程。
[0074] ELECTRA模型的结构包括判别器,基于标注样本集L,使用判别器对模型参数进行微调。
[0075] ELECTRA模型中判别器的结构以及各结构的作用包括:判别器是一个Transformer结构,由24个结构完全相同的层堆叠而成,每一层都有两个子层。第一个子层是一个多头自注意力层,第二个子层是一个简单的、基于位置的全连接前馈网络。
[0076] Transformer结构中每一层作用是对输入的序列状态向量进行编码。24个层被平均分为浅层、中间层和高层,浅层主要编码文本表层特征(字的位置信息、短语信息、特殊符号),中间层主要编码句法特征,高层主要编码语义特征。
[0077] 现有的微调方法包括将其中一层隐状态接输出层,或者将最后四层的隐状态进行拼接或者平均或取最大再接输出层,或者将前四层的隐状态进行拼接或者平均或取最大再接输出层。
[0078] 本发明所采用的微调方法是通过拼接不同层次的编码状态,将ELECTRA模型中浅层、中间层和高层的编码状态进行拼接,能够有效地综合编码文本表层特征(词法特征)、句法特征、语义特征等不同层次的信息。
[0079] 在一个优选实施例中,微调方法包括:去掉原判别器的输出层,将判别器的第6、12、18、24层的编码状态连接起来作为句子的向量表示,再输入一个随机初始化参数的分类输出层,然后将整个网络的所有权重在训练集上进行微调,最终输出微调后的结果,计算表达式如下:
[0080]
[0081] 其中,表示模型的最终预测结果,即是否存在食品安全隐患,Concat表示连接操作,h6,h12,h18,h24分别是判别器第6、12、18、24层的隐藏状态。
[0082] 最终模型微调完成后,将未标注样本集U中的文本评论输入微调好的ELECTRA模型,可以得到更为精确的预测结果,即是否存在食品安全隐患。
[0083] S4、将标注样本集L和最终的词向量输入AT‑GRU模型中进行进行计细粒度预测,AT‑GRU模型计算评论中每个词的注意力权重,取权重最大的词作为该店铺具体的食品安全隐患并输出,得到细粒度预测结果。
[0084] 传统的使用注意力机制的文本分类模型是AT‑LSTM,即在LSTM层的后面接注意力层,而本发明选用的模型是AT‑GRU,使用的是GRU层而不是LSTM层,GRU层使得模型训练效率更高。另外,在AT‑GRU模型中进行注意力权重计算时使用了隐藏状态的维度,对点积结果进行了缩放,使得模型训练时能够更好地收敛。此外,在注意力层后使用ReLU激活函数而不是Tanh,防止梯度消失。
[0085] 如图3所示,AT‑GRU模型的具体结构包括输入层、嵌入层、GRU网络层、注意力层和输出层。其中,AT‑GRU模型各个结构的作用以及具体处理流程包括:
[0086] 输入层:用于输入数据,将标注样本集L和最终的词向量的索引序列作为输入。
[0087] 嵌入层:将构建的词向量作为初始化的权重矩阵;嵌入层的作用是将输入层输入的索引序列转换为词向量序列。
[0088] GRU网络层:对输入的词向量序列进行编码,得到隐藏状态序列S。
[0089] 注意力层:对GRU网络层所有时间步的隐藏状态序列S做加权平均,得到编码向量h,而每个时间步的隐藏状态S的权重γ就是对于不同词的注意力。编码向量h的计算表达式如下:
[0090] h=SγT
[0091] 其中,注意力权重γ的计算方式如下:
[0092]
[0093] D=ReLU(S)
[0094] 其中,h表示注意力层的编码向量,D表示对S的激活处理,S表示GRU层对输入的词向量序列的编码,ReLU()表示修正线性单元函数,d表示隐藏状态的维度,w表示一个d维度的可学习的参数列向量。
[0095] 输出层:对注意力层的编码向量h进行分类,最终输出文本评论是否存在食品安全隐患。
[0096] 最终模型训练完成后,将未标注样本集U中的文本评论输入训练好的AT‑GRU模型,可以得到细粒度预测结果:进行预测后,如果存在食品安全隐患,则使用AT‑GRU模型计算得到的评论中每个词的注意力权重,取注意力权重最大的词作为店铺具体的食品安全隐患。
[0097] 当介绍本申请的各种实施例的元件时,冠词“一”、“一个”、“这个”和“所述”都意图表示有一个或多个元件。词语“包括”、“包含”和“具有”都是包括性的并意味着除了列出的元件之外,还可以有其它元件。
[0098] 需要说明的是,本领域普通技术人员可以理解实现上述方法实施例中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read‑0nly Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
[0099] 以上所述仅是本申请的具体实施方式,应当指出,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

附图说明

[0042] 为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0043] 图1为本发明实施例一提供一种O2O商铺食品安全监测方法的流程图;
[0044] 图2为本发明实施例一提供一种O2O商铺食品安全监测方法中样本标注方法的示意图;
[0045] 图3为本发明实施例一提供一种O2O商铺食品安全监测方法中AT‑GRU模型结构示意图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号