[0025] 下面结合附图对本发明进行详细的介绍。
[0026] 实施方式1:
[0027] 本实施方式提供了一种纸张传递系统,如图1和2所示,包括单片机控制器、侧板812、翻转角度凸轮控制机构、连杆驱动机构和吸盘机构,翻转角度凸轮控制机构包括翻转电机,以及通过翻转电机的输出轴同轴连接的压位凸轮817和定位凸轮816。单片机控制器通过控制翻转电机驱动压位凸轮817和定位凸轮816同步30°往复转动,带动连杆驱动机构中的安装有角度传感器(优选型号为TQ513)的三角盘818 30°往复转动,进而再驱动吸盘机构中的吸盘81 90°往复转动。
[0028] 连杆驱动机构包括三角盘818、转动主杆88、牵拉机构和翻转滑动杆83,三角盘818的一个顶点固定在同步转轴813上,同步转轴813转动连接在侧板812上,另外两个顶点分别转动连接有滑轮814;压位凸轮817和定位凸轮816的边缘分别且始终与两个滑轮814有效接触。转动主杆88的一端固定在同步转轴813上,另一端与牵拉机构中的转动从杆87一端转动连接,牵拉机构包括转动从杆87、中间块86、牵拉主杆810、牵拉辅杆89、助力主杆 85、助力辅杆811和翻转杆;转动从杆87的一端与转动主杆88的一端转动连接,另一端与中间块86转动连接;牵拉辅杆89的一端转动连接在侧板812上,另一端转动连接在所述中间块86上;牵拉主杆810和助力主杆85的一端同轴转动连接在中间块86上,牵拉主杆810 的另一端与助力辅杆811的一端转动连接,助力辅杆811的另一端和翻转杆819的一端同轴转动连接在吸盘 机构的定位板820上,翻转杆819的另一端、翻转滑动杆83的底端、助力主杆85的另一端均同轴转动连接在中间块86上,翻转滑动杆83的顶端滑动连接在与侧板812 转动连接的旋转块84上。吸盘机构包括吸盘81、伸缩杆82和定位板820,吸盘81固定在伸缩杆82的底端,伸缩杆82的顶端固定在定位板820上,定位板820与助力辅杆811和翻转杆819的一端同轴转动连接。
[0029] 本实施方式中的物体传递凸轮控制系统的工作原理如下:
[0030] 假设图1为初始状态的纸张传递系统,需要扫描时,将批量的待扫描纸张整理整齐后竖直堆叠放置,然后单片机控制器控制翻转电机的输出轴正转30°,翻转电机的输出轴同步带动压位凸轮817和定位凸轮816正转(两个凸轮的位置相错开)。由于三角盘818的两个角上设置有两个滑轮814,两个滑轮814的位置也是相互错开的,分别能始终与压位凸轮817和定位凸轮816的边缘滑动接触,在压位凸轮817、定位凸轮816的转动下,三角盘818也正转,从而使得转动主杆88正转,转动主杆88正转会带动转动从杆87正转,转动从杆87的正转拉着转动中间块86正转,而转动中间块86拉着翻转滑动杆83和助力主杆85正转,同时在牵拉辅杆89和铰接在助力辅杆811上的牵拉主杆810和翻转杆819的配合作用下,翻转滑动杆83绕旋转块84正转,这样就能够将定位板820正转,从而带动伸缩杆82和吸盘81 正转。当角度传感器检测到三角盘818正转了30°时(转动幅度只需要30°就可以完成一个翻转动作),反转滑动杆83绕旋转块84正转了90°,定位板820正转了90°,伸缩杆82和吸盘81也正转了
90°,此时,吸盘81与竖直堆叠放置的待扫描纸张平行,角度传感器则会将信号传递给单片机控制器,单片机控制器控制翻转电机停止正转。接着辅助控制器(优选型号为STM32)控制伸缩杆82伸出带着吸盘81移动至最外侧的一张待扫描纸张时,吸盘81 表面上安装的压力传感器(型号优选为OMEGA PX409)感应到吸盘81接触到待扫描纸张后,将信号传递给辅助控制器,辅助控制器控制吸盘81吸附该待扫描纸张,然后控制伸缩杆82 收缩。
[0031] 接着单片机控制器控制翻转电机反转带动压位凸轮817和定位凸轮816反转,通过两个滑轮814的作用三角盘818也反转,从而使得转动主杆88反转,带动转动从杆87反转,转动从杆87的反转拉着转动中间块86反转,而转动中间块86拉着翻转滑动杆83和助力主杆 85反转,同时在牵拉辅杆89和铰接在助力辅杆811上的牵拉主杆810和翻转杆819的配合作用下,翻转滑动杆83绕旋转块84反转,这样就能够将定位板820反转,从而带动伸缩杆 82和吸盘81反转。当角度传感器检测到三角盘818反转了30°时,反转滑动杆83绕旋转块 84反转了90°,定位板820反转了90°,伸缩杆82和吸盘81也反转了90°,此时,吸盘 81上吸附的待扫描纸张与透明放置板平行,此时角度传感器会将信号传递给单片机控制器,单片机控制器控制翻转电机停止反转,即如图1的初始状态。然后辅助控制器控制伸缩杆82 伸长至吸盘
81上的待扫描纸张接触到透明放置板后,压力传感器感应到压力时,将信号传递给辅助控制器,辅助控制器控制吸盘81停止吸附,将吸附的待扫描纸张松开至透明放置板上后,辅助控制器控制伸缩杆82缩回。
[0032] 然后即可以对透明放置板上的待扫描纸张进行扫描,扫描结束后,单片机控制器以上述完全相同的方式,控制吸盘81将透明放置板上扫描完毕的纸张吸附后竖直移动到扫描后的纸张放置台(在需要将待扫描纸张取走时,扫描前的纸张放置台与吸盘的高度匹配,在需要将扫描后的纸张放置于扫描后的纸张放置台时,扫描后的纸张放置台与吸盘的高度匹配,实际应用中,扫描前的纸张放置台与扫描后的纸张放置台的高度可以设计成可以根据吸盘的高度往复切换)上,然后辅助控制器控制吸盘81停止吸附后再通过控制伸缩杆82 伸长推倒纸张,纸张即平铺到扫描后的纸张放置台上(也可以直接将扫描后的纸张竖直放置在扫描后的纸张放置台上,将扫描后的纸张也竖直堆叠在一起)。
[0033] 本物体传递凸轮控制系统能够将竖直堆叠放置的纸张取走平铺于水平的透明放置板上进行扫描,也能将扫描后平铺于透明放置板上的扫描件取出后集中水平或竖直堆叠在一起,便于扫描件的收集分类,提高了纸张取放分类效率,减少人工作业,也有利于扫描件的整理,防止排序错乱。本物体传递凸轮控制系统与传统的人工或者滚筒式纸张取放装置相比,能够一张一张的传递纸张,有效避免扫描错误和遗漏的情况,还能适用于传送不同规格和形状的纸张,能够对扫描件作进一步的分类,纸张被传送到透明放置板上时位置不会发生偏移,扫描件不会产生穿插交叠错乱的情况。
[0034] 上述单片机控制器的具体设计思路如下:
[0035] 一、系统总体功能的设计
[0036] 单片机控制器包括STM32单片机、L298电机驱动电路和STM32单片机中的智能控制器,其中智能控制器包括Elman神经网络控制器、PID控制器、ESN神经网络模型、2个NARX 神经网络模型、LSTM神经网络模型、动态递归小波神经网络模型、经验模态分解EMD模型和多个函数连接型神经网络FLNN模型;STM32单片机、L298电机驱动电路、翻转角度凸轮控制机构、三角盘和角度传感器组成三角盘转动调节平台;智能控制器实现对三角盘转动角度的智能化调节,三角盘转动调节平台和智能控制器见图3所示。
[0037] 二、智能控制器的设计过程
[0038] 1、Elman神经网络控制器设计
[0039] Elman神经网络控制器输出是ESN神经网络模型的对应输入,三角盘转动角度给定值和动态递归小波神经网络模型输出值的误差和误差变化率作为Elman神经网络控制器的输入; Elman神经网络控制器可以看作是一个具有局部记忆单元和局部反馈连接的前向神经网络,除了隐层外,还有一个特别的关联层;关联层从隐层接收反馈信号,每一个隐层节点都有一个与之对应的关联层节点连接。关联层将上一时刻的隐层状态连同当前时刻的网络输入一起作为隐层的输入,相当于状态反馈。隐层的传递函数一般为Sigmoid函数,输出层为线性函数,关联层也为线性函数。为了有效地解决三角盘转动角度控制中的逼近精度问题,增强关联层的作用。设Elman神经网络控制器的输入层、输出层、隐层的个数分别为m,n和r;w1, w2,w3和w4分别表示结构层单元到隐层、输入层到隐层、隐层到输出层、结构层到输出层的连接权矩阵,则Elman神经网络控制器的三角盘转动角度控制器的隐含层、关联层和输出层的表达式分别为:
[0040]
[0041] cp(k)=xp(k‑1) (2)
[0042]
[0043] 2、PID控制器设计
[0044] PID控制器输出是ESN神经网络模型的输入,三角盘转动角度给定值和动态递归小波神经网络模型输出值的误差和误差变化率分别作为PID控制器和Elman神经网络控制器的输入;计算PID控制器的三项输入,计算公式如(4)和(5)所示:
[0045]
[0046] PID的控制器的算法为:
[0047]
[0048] 3、ESN神经网络模型设计
[0049] PID控制器和Elman神经网络控制器的输出分别是ESN神经网络模型的输入,ESN神经网络模型输出和NARX神经网络模型1输出的和作为NARX神经网络模型2的输入;ESN神经网络模型(Echo state network,ESN)是一种新型的动态神经网络,具有动态神经网络的全部优点,同时由于回声状态网络引入了“储备池”概念,所以该方法较一般动态神经网络能够更好地适应非线性系统辨识。“储备池”就是把传统动态神经网络中间连接的部分转变成一个随机连接的“储备池”,整个学习过程其实就是学习如何连接“储备池”的过程。“储备池”其实就是一个随机生成的大规模递归结构,该结构中神经元相互连接是稀疏的,通常用SD表示相互连接的神经元占总的神经元N的百分比。ESN神经网络模型的其状态方程为:
[0050]
[0051] 式中W为神经网络的状态变量,Win为ESN神经网络模型的输入变量;Wback为ESN神经网络模型的输出状态变量连接权矩阵;x(n)表示ESN神经网络模型的内部状态;Wout为ESN 神经网络模型的核储备池、神经网络的输入以及神经网络的输出之间的连接权矩阵;为 ESN神经网络模型的输出偏差或可以代表噪声;f=f[f1,f2,…,fn]为“储备池”内部神经元的n个激活函数;fi为双曲正切函数;fout为ESN神经网络模型的ε个输出函数。
[0052] 4、NARX神经网络模型设计
[0053] ESN神经网络模型输出和NARX神经网络模型1输出的和作为NARX神经网络模型2的输入,NARX神经网络模型2输出分别为L298电机驱动电路输入和NARX神经网络模型1的对应输入,LSTM神经网络模型输出分别为NARX神经网络模型1的对应输入。NARX神经网络模型 (Nonlinear Auto‑Regression with External input neural network)是一种动态的前馈神经网络,NARX神经网络模型是一个有着外部输入的非线性自回归网络,它有一个多步时延的动态特性,并通过反馈连接封闭网络的若干层,NARX神经网络模型的回归神经网络是非线性动态系统中应用最广泛的一种动态神经网络,其性能普遍优于全回归神经网络。一个典型的NARX神经网络模型主要由输入层、隐层、输出层及输入和输出延时构成,在应用前一般要事先确定输入和输出的延时阶数、隐层神经元个数,NARX神经网络模型的当时输出不仅取决于过去的输出y(t‑n),还取决于当时的输入预测向量X(t)以及输入预测向量的延迟阶数等,其中输入信号通过时延层传递给隐层,隐层对输入的信号进行处理后传递到输出层,输出层将隐层输出信号做线性加权获得最终的神经网络输出信号,时延层将网络反馈的信号和输入层输出的信号进行延时,然后输送到隐层。NARX神经网络模型具有非线性映射能力、良好的鲁棒性和自适应性等特点,适宜对非线性变化参数进行预测。x(t)表示NARX神经网络模型的外部输入,m表示外部输入的延迟阶数;y(t)是NARX神经网络模型的输出,n是输出延迟阶数;s为隐含层神经元的个数;可以得到第j个隐含单元的输出为:
[0054]
[0055] 上式中,wji为第i个输入与第j个隐含神经元之间的连接权值,bj是第j个隐含神经元的偏置值,网络的输出y(t+1)的值为:
[0056] y(t+1)=f[y(t),y(t‑1),…,y(t‑n),x(t),x(t‑1),…,x(t‑m+1);W] (8)[0057] 5、LSTM神经网络模型设计
[0058] 角度传感器输出一段时间的三角盘转动角度值作为LSTM神经网络模型的输入,LSTM神经网络模型输出分别为NARX神经网络模型1的对应输入和经验模态分解EMD模型的输入;LSTM 神经网络模型由长短期记忆(LSTM)单元组成的时间递归神经网络(RNN)称为LSTM时间递归神经网络,通常也被称为LSTM网络。LSTM神经网络模型引入了记忆单元(Memory Cell)和隐藏层状态(Cell State)的机制来控制隐藏层之间的信息传递。一个LSTM神经网络的记忆单元内有3个门(Gates)计算结构分别是输入门(Input Gate)、遗忘门(Forget Gate) 和输出门(Output Gate)。其中,输入门能控制新信息的加入或滤出;遗忘门能忘记需要丢掉的信息以及保留过去有用的信息;输出门能使记忆单元只输出与当前时间步相关的信息。这3 个门结构在记忆单元中进行矩阵乘法和非线性求和等运算,使得记忆在不断的迭代中仍然不会衰减。长短期记忆单元(LSTM)结构单元由单元(Cell),输入门(Input Gate),输出门(Output Gate)和忘记门(Forget Gate)组成。单元负责在任意时间间隔内记住值,三个门均可以被认为是传统的人工神经元,用于计算激活函数的加权总和。LSTM神经网络模型是可以持续较长时间短期记忆的模型,适合用于预测时间序列等工作,LSTM有效防止了RNN训练时的梯度消失,长短期记忆(LSTM)网络是一种特殊的RNN。该模型可以学习长期的依赖信息,同时避免梯度消失问题。LSTM在神经元内部结构RNN的隐藏层的神经节点中,增加了一种被称为记忆单元(Memory Cell)的结构用来记忆过去的信息,并增加了三种门(Input、Forget、Output)结构来控制历史信息的使用。设输入LSTM神经网络模型的数序列为(x1,x2,…xT),隐含层状态为(h1,h2,…hT),则t时刻有:
[0059] it=sigmoid(Whiht‑1+WxiXt) (9)
[0060] ft=sigmoid(Whfht‑1+WhfXt) (10)
[0061] ct=ft⊙ct‑1+it⊙tanh(Whcht‑1+WxcXt) (11)
[0062] ot=sigmoid(Whoht‑1+WhcXt+Wcoct) (12)
[0063] ht=ot⊙tanh(ct) (132)
[0064] 其中it、ft、ot代表input门、forget门和output门,Ct代表cell单元,Wh代表递归连接的权重,Wx代表输入层到隐含层的权重,sigmoid与tanh为两种激活函数。使用长短期记忆的时间递归神经网络模型来对三角盘转角进行预测,该方法首先建立LSTM时间递归神经网络模型,利用三角盘转动角度数据建立训练集并对模型进行训练,LSTM神经网络模型考虑了三角盘的角度传感器输出数据的时序性和非线性,提高了三角盘转动角度的预测精确度。
[0065] 6、经验模态分解EMD模型设计
[0066] LSTM神经网络模型输出分别为NARX神经网络模型1的对应输入和经验模态分解EMD模型的输入,经验模态分解EMD模型把LSTM神经网络模型输出分解为低频趋势部分和多个高频波动部分,低频趋势部分和多个高频波动部分分别作为多个函数连接型神经网络FLNN模型的输入;经验模态分解(EMD)模型是一种自适应信号筛选方法,具有计算简单、直观、基于经验和自适应的特点。它能将存在于信号中不同特征的趋势逐级筛选出来,得到多个高频波动部分(IMF)和低频趋势部分。EMD分解出来的IMF分量包含了信号从高到低不同频率段的成分,每个频率段包含的频率分辨率都随信号本身变化,具有自适应多分辨分析特性。使用EMD分解的目的就是为了更准确地提取三角盘转动角度信息。IMF分量必须同时满足两个条件:①在待分解信号中,极值点的数目与过零点的数目相等,或最多相差一个;在任一时间上,由局部极大值和局部极小值定义的包络均值为零。经验模态分解方法针对LSTM神经网络模型输出值信号的“筛分”过程步骤如下:
[0067] (1)确定LSTM神经网络模型输出值信号所有的局部极值点,然后用三次样条线将左右的局部极大值点连接起来形成上包络线。
[0068] (2)在用三次样条线将LSTM神经网络模型输出值的局部极小值点连接起来形成下包络线,上、下包络线应该包络所有的数据点。
[0069] (3)上、下包络线的平均值记为m1(t),求出:
[0070] x(t)‑m1(t)=h1(t) (14)
[0071] x(t)为LSTM神经网络模型输出值原始信号,如果h1(t)是一个IMF,那么h1(t)就是x(t)的第一个IMF分量。记c1(t)=h1k(t),则c1(t)为信号x(t)的第一个满足IMF条件的分量。
[0072] (4)将c1(t)从x(t)中分离出来,得到:
[0073] r1(t)=x(t)‑c1(t) (15)
[0074] 将r1(t)作为原始数据重复步骤(1)‑步骤(3),得到x(t)的第2个满足IMF条件的分量c2。重复循环n次,得到信号x(t)的n个满足IMF条件的分量。这样就可以把LSTM神经网络模型输出值分解为低频趋势部分和多个高频波动部分。
[0075] 7、函数连接型神经网络FLNN模型设计
[0076] 经验模态分解EMD模型把LSTM神经网络模型输出分解为低频趋势部分和多个高频波动部分,低频趋势部分和多个高频波动部分分别作为多个函数连接型神经网络FLNN模型的输入;多个函数连接型神经网络FLNN模型的输出作为动态递归小波神经网络模型的输入,动态递归小波神经网络模型输出值作为三角盘转动角度反馈值;函数连接型神经网络FLNN模型是一个函数型神经网络模型,该模型中的函数型连接的作用是将三角盘转动角度传感器值的输入模式的每个分量乘以整个模式向量,其结果是产生一个原始模式向量的张积。函数连接型神经网络FLNN模型通过对三角盘转动角度的输入模式预先进行非线性扩展,在函数连接型神经网络FLNN模型中引入“高阶”项,通过对三角盘转动角度值的输入模式的非线性扩展,将三角盘转动角度值输入模式映射到一个更大的模式空间,增强了三角盘转动角度值输入信号的模式表达,大大简化了函数连接型神经网络FLNN模型的网络结构。虽然函数连接型神经网络 FLNN模型输入的三角盘转动角度传感器值信息并没有增多,但函数连接型神经网络FLNN模型模式的增强带来了函数连接型神经网络FLNN模型的网络结构的简化和学习速度的提高,用单层网络就可以实现“监督”学习,相对于多层前向神经网络具有很大的优势。函数连接型神经网络FLNN模型用单层网络实现监督学习,这个求解过程可由下述自适应监督学习算法完成。函数连接型神经网络FLNN模型的学习算法可由下式表示:
[0077]
[0078] 权值调整:
[0079]
[0080] 其中:Fi(k)、 ei(k)和wn(k)分别为第i个输入模式的期望输出、估计输出、误差和函数型网络在第k步的第n个连接权;α为学习因子,影响稳定性和收敛速度。函数连接型神经网络FLNN模型采用函数扩展的方式,对原始三角盘转动角度传感器值输入进行扩展,使三角盘转动角度传感器值输入转化到另外一个空间,将增强后的模式作为函数连接型神经网络FLNN模型的网络输入层的输入,通过这种方法来更好地处理非线性问题;函数连接型神经网络FLNN模型由输入层和输出层构成,没有隐含层,因此相较于传统神经网络,函数连接型神经网络FLNN模型的网络计算量更小,训练速度更快。可以避免更新隐层权值,只需调整输出层权值,因而具有较快的收敛速度及较少的在线计算量,同时扩展三角盘转动角度传感器值输入变量,可提高FLNN函数连接神经网络模型的网络分辨能力。
[0081] 8、动态递归小波神经网络模型设计
[0082] 多个函数连接型神经网络FLNN模型的输出作为动态递归小波神经网络模型的输入,动态递归小波神经网络模型输出值作为三角盘转动角度反馈值;三角盘转动角度给定值和动态递归小波神经网络模型输出值的误差和误差变化率分别作为PID控制器和Elman神经网络控制器的输入;小波神经网络WNN(Wavelet Neural Networks)理论基础以小波函数为神经元的激励函数并结合人工神经网络提出的一种前馈型网络,小波神经网络中小波的伸缩、平移因子以及连接权重在对误差能量函数的优化过程中被自适应调整。设动态递归小波神经网络模型的输入信号可以表示为输入的一维向量xi(i=1,2,…,n),输出信号表示为yk(k=1,2,…,m),动态递归小波神经网络模型输出值的计算公式为:
[0083]
[0084] 公式中ωij输入层i节点和隐含层j节点间的连接权值, 为小波基函数,bj为小波基函数的平移因子,aj小波基函数的伸缩因子,ωjk为隐含层j节点和输出层k节点间的连接权值。本专利的动态递归小波神经网络模型与普通静态小波神经网络的区别在于动态递归小波神经网络模型具有两个起存储网络“内部状态”的作用关联层节点,在两个关联层节点上增加了具有固定增益的自反馈环,增强时间序列特征信息的记忆性能,从而增强对升降框位移演化轨迹控制的跟踪精度以确保更好的控制精度;第一关联层节点用来存储隐含层节点在前一时刻相点的状态,下一时刻再传递给隐含层节点;第二关联层节点是用来存储输出层节点在前一时刻相点的状态,下一时刻再传递给隐含层节点;隐含层和输出层的神经元的反馈信息都会影响动态递归小波神经网络模型输出的三角盘转动角度值的动态处理能力,两个关联层都属于动态递归小波神经网络模型内部的状态反馈,形成动态递归小波神经网络模型的递归性所特有的动态记忆性能,提高动态递归小波神经网络模型与预测三角盘转动角度的准确性和动态性能;在动态递归小波神经网络模型的第一关联层节点与输出层节点之间增加了一组连接权值增强动态递归小波神经网络模型控制三角盘转动角度的动态逼近能力和提高预测三角盘转动角度的精度。本专利中的动态递归小波神经网络模型的权值和阈值的修正算法采用梯度修正法来更新网络权值和小波基函数参数,从而使动态递归小波神经网络输出不断逼近期望输出。
[0085] 上述实施方式只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的等效变换或修饰,都应涵盖在本发明的保护范围之内。