CN109298681A - 一种与人共融的镜面加工设备控制系统及方法 - Google Patents
一种与人共融的镜面加工设备控制系统及方法 Download PDFInfo
- Publication number
- CN109298681A CN109298681A CN201811202350.0A CN201811202350A CN109298681A CN 109298681 A CN109298681 A CN 109298681A CN 201811202350 A CN201811202350 A CN 201811202350A CN 109298681 A CN109298681 A CN 109298681A
- Authority
- CN
- China
- Prior art keywords
- unit
- layer
- personal computer
- voice
- industrial personal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4097—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35026—Design of machine tool, of cnc machine
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
Abstract
本发明公开了一种与人共融的镜面加工设备控制系统及方法,包括智能人机语音交互模块、工控机、多轴运动控制器、可编程逻辑控制器、数据采集卡、动平台驱动单元、刀具架驱动单元、柔性液压支撑单元、旋转平台控制单元和监测单元,通过智能人机语音交互模块和工控机进行人机的语音交互,然后工控机通过多轴运动控制器和可编程逻辑控制器对动平台驱动单元、刀具架驱动单元、柔性液压支撑单元和旋转平台控制单元进行控制,从而完成镜面加工的过程,本发明无需按照设定的加工程序持续加工,技术人员能对加工参数进行实时调整,使技术人员和加工设备相互关联,通过语音交互使二者协作共同完成镜面加工工作,从而有效提高镜面加工的精度和效率。
Description
技术领域
本发明涉及一种镜面加工设备控制系统及方法,具体是一种与人共融的镜面加工设备控制系统及方法。
背景技术
目前,光学镜片作为一种精密元件在各种光学仪器以及航空航天设备等领域得到了广泛应用,随着对它的表面质量要求不断提高,镜面加工设备也在逐步地更新换代。
随着自动化技术的不断发展,数控加工设备层出不穷,其具有加工效率高、精度高,但是现有的数控加工设备均是固化的加工程序,所以在加工过程中其没有处理突发事件的能力、学习能力和判断能力,技术人员只能通过键盘和鼠标发送指令,数控加工设备直接根据指令执行相应的加工程序,这种方式的人机交互性差。即使在加工过程中出现问题,技术人员也无法及时对加工过程进行调整;目前人工智能技术的不断发展,特别是共融机器人的出现,由于共融机器人能对人发出的指令进行执行并反馈相应信息,使得人机交互性大大提高,如能将共融机器人加入到镜面加工设备将会大大提高镜面加工的精度和效率;因此如何设计一种共融机器人和镜面加工设备结合的控制系统是本行业亟需解决的问题。
发明内容
针对上述现有技术存在的问题,本发明提供一种与人共融的镜面加工设备控制系统及方法,在镜面加工过程中技术人员能实时对加工参数通过语音进行调整,从而有效提高镜面加工的精度和效率。
为了实现上述目的,本发明采用的技术方案是:一种与人共融的镜面加工设备控制系统,包括智能人机语音交互模块、工控机、多轴运动控制器、可编程逻辑控制器、数据采集卡、动平台驱动单元、刀具架驱动单元、柔性液压支撑单元、旋转平台控制单元和监测单元;智能人机语音交互模块与工控机传输连接,工控机分别与多轴运动控制器、可编程逻辑控制器和数据采集卡传输连接;所述的多轴运动控制器输出端与动平台驱动控制单元和刀具架驱动控制单元输入端连接;动平台驱动单元和刀具架驱动单元均与镜面加工设备的两个并联机械手连接,所述可编程逻辑控制器的输出端与柔性液压支撑单元和旋转平台控制单元的输入端传输连接;所述的数据采集卡与监测单元传输连接。
进一步,所述智能人机语音交互模块用于技术人员与镜面加工设备的自然交互,智能人机语音交互模块主要由语音采集单元、语音识别单元、语音控制单元、语音合成单元和语音播放单元组成,语音采集单元与语音识别单元连接,语音识别单元与语音控制单元连接,语音控制单元分别与工控机和语音合成单元连接,语音合成单元与语音播放单元连接。
进一步,所述工控机内设有智能数据库和模糊神经网络控制器,智能数据库用于存储镜面加工的各种经验数据;所述模糊神经网络控制器为基于Takagi-Sugeno模型的模糊神经网络,模糊神经网络的输入为数据采集卡采集到的实时加工数据以及通过智能语音模块解码得到的控制指令,为了提高控制精度所述模糊神经网络设为五层,其中第一层为输入层,输入量为数据采集卡采集到的实时加工数据,输入量为各个传感器所检测到的温度、压力、力、振动、速度、位置等参数;第二层为输入隶属度函数,采用高斯函数作为输入隶属度函数;第三层为模糊神经网络的模糊规则层,充当前置条件与后续层面推理之间的联系,该层每个节点代表一条模糊规则,用来匹配模糊规则前件,计算出每条规则的适用度;第四层为推理层,实现推理计算;第五层为输出层,也是反模糊化层,实现清晰化计算,达到精确化控制。
进一步,所述多轴运动控制器用于控制动平台驱动单元和刀具架驱动单元、接受来自工控机的指令信息,调节两个并联机械手协同作业,并实时向工控机反馈加工位置信息,动平台驱动单元控制两个并联机械手的驱动进给,刀具架驱动单元控制刀具架的伸缩运动,对驱动进给加工动作进行微调,保证进给精度。
进一步,所述可编程逻辑控制器用于控制柔性液压支撑单元的高度和旋转平台控制单元的转速、接收来自工控机的指令信息,防止因支撑单元位置过高而导致研磨阻力过大造成设备或者镜面的损坏,同时可编程逻辑控制器实时向工控机反馈柔性液压支撑单元的高度信息和旋转平台的转速信息。
进一步,所述监测单元包括温度传感器、压力传感器、力传感器、振动传感器、惯性检测单元、速度传感器、加速度传感器、光栅尺和编码器;
所述温度传感器分别安装在两个并联机械手的刀具架上,对正在加工的镜面表面温度进行实时非接触测量;
所述压力传感器安装在柔性液压支撑系统的支撑油缸上,实时监测加工过程中的压力;
所述力传感器分别位于驱动运动支链与动平台球铰链间,实时监测加工过程中电动缸的受力情况;
所述振动传感器分别安装在两个并联机械手的刀具架上,实时监测加工过程中的振动情况;
所述惯性检测单元分别安装在两个并联机械手的动平台上,实时监测加工过程中的姿态情况;
所述速度传感器和加速度传感器分别安装在两个并联机械手的动平台上,实时监测并联机械手研磨加工的速度和加速度情况;
所述光栅尺安装在加工机械手的各个并联运动支链的电动缸或滚珠丝杠滑块上,用于向工控机反馈位置信号。
一种与人共融的镜面加工设备控制系统的工作方法,具体步骤为:
(1)建立智能数据库、模糊神经网络、语音识别单元的声学模型及语言模型、语音合成单元的语音语句及数据匹配:
将镜面加工经验数据存储在智能数据库中,加工经验数据包括多种控制指令和不同材料在不同环境温度下所需的进给速度、磨削深度、加工镜面温度以及取得的加工效果;
将神经网络结合到模糊系统中,构建起基于Takagi-Sugeno模型的模糊神经网络,并将模糊神经网络设为五层,其中第一层为输入层、第二层为输入隶属度层、第三层为规则层、第四层为推理层、第五层为输出层;
基于DNN-HMM系统建立语音识别单元的声学模型,通过深度学习对语音数据进行建模,利用深度学习的底层网络将噪声滤去,高层网络能提取语音特征中更具有区分性的特征,最终将需要的语音信息保存在上层;采用n-gram模型建立语音识别单元的语言模型,体现了技术人员对于语言习惯的表达,用来表示人机语音交互过程中某一字序列发生的概率;
建立语音合成单元的语音语句与数据匹配,通过预设多组语音语句并使其与对应的数据相匹配;
(2)镜面加工设备开启后,工控机等待技术人员的指令,技术人员发出准备工作的语音指令后,语音指令通过语音采集单元进行收集,而后传输给语音识别单元进行语音识别,语音识别单元通过梅尔频率倒谱系数对语音信号进行特征提取,并通过声学模型和语言模型对提取后的语音特征信号进行解码;完成后将识别后的文本文件传送至语音控制单元,语音控制单元根据文本信息与智能数据库中存储的多组控制指令进行匹配,匹配成功后,语音控制单元控制语音合成单元调取相应的语音文件,语音合成单元将语音文件基于波形拼接合成技术合成后,并对提取出的语音单元进行韵律的调节和控制,使用重叠相加的方法重建语音,得到最终的语音文件,然后通过语音播放单元播放出来,此时技术人员根据智能人机语音交互模块反馈的语音,通过发出所需加工的参数语音指令,智能人机语音交互模块重复上述语音识别过程,语音控制单元得到识别后的文本文件,并将其转换为计算机二进制指令,从而完成加工参数的初始化设置;在技术人员发出开始加工的语音指令后,工控机通过智能数据库中提取本次加工材料的加工数据,并通过模糊神经网络,对多轴运动控制器和可编程逻辑控制器传输指令;
(3)多轴运动控制器和可编程逻辑控制器接收到控制指令后,其中多轴运动控制器控制动平台驱动单元和刀具架驱动单元两个底层模块控制单元,完成对两个并联加工机械手各个并联运动链的驱动控制,保证两个加工机械手协同作业;可编程逻辑控制器控制柔性液压支撑单元和旋转平台控制单元完成对底层模块的控制,镜面被固定在旋转平台上,旋转平台带动镜面旋转,结合两个并联机械手的进给运动动作,开始对镜面进行研磨加工;
(4)加工过程中,监测单元中的各个传感器实时测量加工状态信息,并发送给数据采集卡,数据采集卡对加工过程中的实时状态信息进行汇总,传输给工控机的模糊神经网络,各个传感器反馈的数据依次经过输入层、输入隶属度层、规则层、推理层和输出层后,根据输出层输出的控制量,工控机对多轴运动控制器和可编程逻辑控制器进行调控;
(5)同时工控机在加工过程中根据数据采集卡反馈的信息,通过人机交互界面显示,并每隔一段时间通过智能人机语音交互模块中的语音合成单元向技术人员汇报实时加工的数据信息;
(6)技术人员通过工控机传来的实时加工信息进行分析,若确定加工信息正常,则发出确认语音指令,此时工控机保持加工设备继续加工;若技术人员确定加工信息异常,则技术人员发出参数调整的语音指令,此时智能人机语音交互模块进行识别后对工控机控制,完成对初始加工指令的调整,工控机将调整后的指令下达给多轴运动控制器和可编程逻辑控制器后,加工设备按照调整后的加工参数进行加工,若反馈的实时加工信息仍存在异常,则技术人员继续发出参数调整的语音指令直到技术人员确认加工信息正常为止;最后将本次调整的加工数据新建为数据模型存入智能数据库;
(7)镜面加工设备在执行完加工过程后,智能人机语音交互模块通过语音播放单元发出语音提示技术人员加工已完成,经过技术人员检测后,若镜面达到所需的表面粗糙程度,则加工结束;若镜面未达到所需的表面粗糙度,则镜面加工设备在技术人员的语音指令下重复步骤(6)继续加工,直至镜面达到所需的表面粗糙程度,完成本次镜面加工过程;
(8)工控机在加工设备加工过程中,将当前的加工情况与数据库中的资料进行对比,结合技术人员的语音调整指令,对多轴运动控制器和可编程逻辑控制器下达调整指令;
(9)本次镜面加工结束后,工控机把本次加工的实时数据作为新增数据存入智能数据库中,为后续镜面加工提供参考。
与现有技术相比,本发明采用共融机器人和镜面加工设备相结合方式,通过将人工智能技术引入到镜面加工设备,无需按照设定的加工程序持续加工,即技术人员预先编制好加工程序,加工设备按照既定程序和路线进行镜面研磨加工过程中,技术人员能对加工参数进行实时调整,本发明将技术人员和加工设备相互关联,通过二者协作,利用各自的优势,共同完成镜面加工工作;另外镜面加工设备具备学习的能力,通过从智能数据库中加工数据的对比、技术人员的语音指令指导,通过模糊神经网络算法总结出其中的规律,提高加工效率和质量;本发明打破了以往技术人员与镜面加工设备通过键盘输入的方式进行人机交互,二者通过基于深度学习技术的智能语音模块,可以直接运用人类语言进行对话交互,大大提升了加工效率。
附图说明
图1是本发明的控制原理图;
图2是本发明的控制流程图。
具体实施方式
下面将对本发明做进一步说明。
如图所示,一种与人共融的镜面加工设备控制系统,包括智能人机语音交互模块、工控机、多轴运动控制器、可编程逻辑控制器、数据采集卡、动平台驱动单元、刀具架驱动单元、柔性液压支撑单元、旋转平台控制单元和监测单元;智能人机语音交互模块与工控机传输连接,工控机分别与多轴运动控制器、可编程逻辑控制器和数据采集卡传输连接;所述的多轴运动控制器输出端与动平台驱动控制单元和刀具架驱动控制单元输入端连接;动平台驱动单元和刀具架驱动单元均与镜面加工设备的两个并联机械手连接,所述可编程逻辑控制器的输出端与柔性液压支撑单元和旋转平台控制单元的输入端传输连接;所述的数据采集卡与监测单元传输连接。
进一步,所述智能人机语音交互模块用于技术人员与镜面加工设备的自然交互,智能人机语音交互模块主要由语音采集单元、语音识别单元、语音控制单元、语音合成单元和语音播放单元组成,语音采集单元与语音识别单元连接,语音识别单元与语音控制单元连接,语音控制单元分别与工控机和语音合成单元连接,语音合成单元与语音播放单元连接。
进一步,所述工控机内设有智能数据库和模糊神经网络控制器,智能数据库用于存储镜面加工的各种经验数据;所述模糊神经网络控制器为基于Takagi-Sugeno模型的模糊神经网络,利用神经网络的学习功能,通过学习不断补充模糊规则,模糊神经网络的输入为数据采集卡采集到的实时加工数据以及通过智能语音模块解码得到的控制指令,为了提高控制精度所述模糊神经网络设为五层,其中第一层为输入层,输入量为数据采集卡采集到的实时加工数据,输入量为各个传感器所检测到的温度、压力、力、振动、速度、位置等参数;第二层为输入隶属度函数,采用高斯函数作为输入隶属度函数;第三层为模糊神经网络的模糊规则层,充当前置条件与后续层面推理之间的联系,该层每个节点代表一条模糊规则,用来匹配模糊规则前件,计算出每条规则的适用度;第四层为推理层,实现推理计算;第五层为输出层,也是反模糊化层,实现清晰化计算,达到精确化控制。
进一步,所述多轴运动控制器用于控制动平台驱动单元和刀具架驱动单元、接受来自工控机的指令信息,调节两个并联机械手协同作业,并实时向工控机反馈加工位置信息,动平台驱动单元控制两个并联机械手的驱动进给,刀具架驱动单元控制刀具架的伸缩运动,对驱动进给加工动作进行微调,保证进给精度;动平台驱动单元和刀具架驱动单元均是底层机构控制单元,主要由各个并联的运动支链组成,包括伺服电机、驱动器、电动缸、编码器和光栅尺组成,多轴运动控制器通过监测单元中的编码器和光栅尺,实时向工控机反馈加工状态信息。
进一步,所述可编程逻辑控制器用于控制柔性液压支撑单元的高度和旋转平台控制单元的转速、接收来自工控机的指令信息,同时可编程逻辑控制器实时向工控机反馈柔性液压支撑单元的高度信息和旋转平台的转速信息。柔性液压支撑单元和旋转平台控制单元均是底层机构执行单元,柔性液压支撑单元包括调高装置、支撑油缸、油缸体积调节装置等,旋转平台控制单元由驱动器和伺服电机控制支撑平台旋转。当监测单元监测到刀具对镜面的压力过大或者支撑单元的高度不合适时,可以通过控制液压系统灵活地调节支撑单元的高度,防止因支撑单元位置过高而导致研磨阻力过大造成设备或者镜面的损坏。
进一步,所述监测单元包括温度传感器、压力传感器、力传感器、振动传感器、惯性检测单元、速度传感器、加速度传感器、光栅尺和编码器;
所述温度传感器分别安装在两个并联机械手的刀具架上,对正在加工的镜面表面温度进行实时非接触测量;
所述压力传感器安装在柔性液压支撑系统的支撑油缸上,实时监测加工过程中的压力;
所述力传感器分别位于驱动运动支链与动平台球铰链间,实时监测加工过程中电动缸的受力情况;
所述振动传感器分别安装在两个并联机械手的刀具架上,实时监测加工过程中的振动情况;
所述惯性检测单元分别安装在两个并联机械手的动平台上,实时监测加工过程中的姿态情况;
所述速度传感器和加速度传感器分别安装在两个并联机械手的动平台上,实时监测并联机械手研磨加工的速度和加速度情况;
所述光栅尺安装在加工机械手的各个并联运动支链的电动缸或滚珠丝杠滑块上,用于向工控机反馈位置信号。
一种与人共融的镜面加工设备控制系统的工作方法,具体步骤为:
(1)建立智能数据库、模糊神经网络、语音识别单元的声学模型及语言模型、语音合成单元的语音语句及数据匹配:
将镜面加工经验数据存储在智能数据库中,加工经验数据包括多种控制指令和不同材料在不同环境温度下所需的进给速度、磨削深度、加工镜面温度以及取得的加工效果;
将神经网络结合到模糊系统中,构建起基于Takagi-Sugeno模型的模糊神经网络,并将模糊神经网络设为五层,其中第一层为输入层、第二层为输入隶属度层、第三层为规则层、第四层为推理层、第五层为输出层;
基于DNN-HMM系统建立语音识别单元的声学模型,通过深度学习对语音数据进行建模,利用深度学习的底层网络将噪声滤去,高层网络能提取语音特征中更具有区分性的特征,最终将需要的语音信息保存在上层;采用n-gram模型建立语音识别单元的语言模型,体现了技术人员对于语言习惯的表达,用来表示人机语音交互过程中某一字序列发生的概率;
建立语音合成单元的语音语句与数据匹配,通过预设多组语音语句并使其与对应的数据相匹配;
(2)镜面加工设备开启后,工控机等待技术人员的指令,技术人员发出准备工作的语音指令后,语音指令通过语音采集单元进行收集,而后传输给语音识别单元进行语音识别,语音识别单元通过梅尔频率倒谱系数对语音信号进行特征提取,并通过声学模型和语言模型对提取后的语音特征信号进行解码;完成后将识别后的文本文件传送至语音控制单元,语音识别的具体过程为:
1)对语音信号进行一定的处理,例如预加重、分帧、加窗等;
2)计算每一帧声音的梅尔频率倒谱系数,得到一个输入特征矩阵;
3)通过深度神经网络实现逐层的前向计算,获得输出矩阵;
4)在输出矩阵中,找到每一个列向量中的最大输出概率值,构成一个马尔科夫链;
5)将上一步得到的马尔科夫链输入语言模型中,对模型进行分析确定最高概率对应的路径,获取有关的文字信息,对识别结果进行文本输出。
语音控制单元根据文本信息与智能数据库中存储的多组控制指令进行匹配,匹配成功后,语音控制单元控制语音合成单元调取相应的语音文件,语音合成单元将语音文件基于波形拼接合成技术合成后,并对提取出的语音单元进行韵律的调节和控制,使用重叠相加的方法重建语音,得到最终的语音文件,然后通过语音播放单元播放出来,此时技术人员根据智能人机语音交互模块反馈的语音,通过发出所需加工的参数语音指令,智能人机语音交互模块重复上述语音识别过程,语音控制单元得到识别后的文本文件,并将其转换为计算机二进制指令,从而完成加工参数的初始化设置;在技术人员发出开始加工的语音指令后,工控机通过智能数据库中提取本次加工材料的加工数据,并通过模糊神经网络,对多轴运动控制器和可编程逻辑控制器传输指令;
(3)多轴运动控制器和可编程逻辑控制器接收到控制指令后,其中多轴运动控制器控制动平台驱动单元和刀具架驱动单元两个底层模块执行单元,完成对两个并联加工机械手各个并联运动链的驱动控制,保证两个加工机械手协同作业;可编程逻辑控制器控制柔性液压支撑单元和旋转平台控制单元完成对底层模块的控制,镜面被固定在旋转平台上,旋转平台带动镜面旋转,结合两个并联机械手的进给运动动作,开始对镜面进行研磨加工;
(4)加工过程中,监测单元中的各个传感器实时测量加工状态信息,并发送给数据采集卡,数据采集卡对加工过程中的实时状态信息进行汇总,传输给工控机的模糊神经网络,各个传感器反馈的数据依次经过输入层、输入隶属度层、规则层、推理层和输出层后,根据输出层输出的控制量,工控机对多轴运动控制器和可编程逻辑控制器进行调控;
(5)同时工控机在加工过程中根据数据采集卡反馈的信息,通过人机交互界面显示,并每隔一段时间通过智能人机语音交互模块中的语音合成单元向技术人员汇报实时加工的数据信息;
(6)技术人员通过工控机传来的实时加工信息进行分析,若确定加工信息正常,则发出确认语音指令,此时工控机保持加工设备继续加工;若技术人员确定加工信息异常,则技术人员发出参数调整的语音指令,此时智能人机语音交互模块进行识别后对工控机控制,完成对初始加工指令的调整,工控机将调整后的指令下达给多轴运动控制器和可编程逻辑控制器后,加工设备按照调整后的加工参数进行加工,若反馈的实时加工信息仍存在异常,则技术人员继续发出参数调整的语音指令直到技术人员确认加工信息正常为止;最后将本次调整的加工数据新建为数据模型存入智能数据库;
(7)镜面加工设备在执行完加工过程后,智能人机语音交互模块通过语音播放单元发出语音提示技术人员加工已完成,经过技术人员检测后,若镜面达到所需的表面粗糙程度,则加工结束;若镜面未达到所需的表面粗糙度,则镜面加工设备在技术人员的语音指令下重复步骤(6)继续加工,直至镜面达到所需的表面粗糙程度,完成本次镜面加工过程;
(8)工控机在加工设备加工过程中,将当前的加工情况与数据库中的资料进行对比,结合技术人员的语音调整指令,对多轴运动控制器和可编程逻辑控制器下达调整指令;
(9)本次镜面加工结束后,工控机把本次加工的实时数据作为新增数据存入智能数据库中,为后续镜面加工提供参考。
Claims (7)
1.一种与人共融的镜面加工设备控制系统,其特征在于,包括智能人机语音交互模块、工控机、多轴运动控制器、可编程逻辑控制器、数据采集卡、动平台驱动单元、刀具架驱动单元、柔性液压支撑单元、旋转平台控制单元和监测单元;智能人机语音交互模块与工控机传输连接,工控机分别与多轴运动控制器、可编程逻辑控制器和数据采集卡传输连接;所述的多轴运动控制器输出端与动平台驱动控制单元和刀具架驱动控制单元输入端连接;动平台驱动单元和刀具架驱动单元均与镜面加工设备的两个并联机械手连接,所述可编程逻辑控制器的输出端与柔性液压支撑单元和旋转平台控制单元的输入端传输连接;所述的数据采集卡与监测单元传输连接。
2.根据权利要求1所述的一种与人共融的镜面加工设备控制系统,其特征在于,所述智能人机语音交互模块用于技术人员与镜面加工设备的自然交互,智能人机语音交互模块主要由语音采集单元、语音识别单元、语音控制单元、语音合成单元和语音播放单元组成,语音采集单元与语音识别单元连接,语音识别单元与语音控制单元连接,语音控制单元分别与工控机和语音合成单元连接,语音合成单元与语音播放单元连接。
3.根据权利要求1所述的一种与人共融的镜面加工设备控制系统,其特征在于,所述工控机内设有智能数据库和模糊神经网络控制器,智能数据库用于存储镜面加工的各种经验数据;所述模糊神经网络控制器为基于Takagi-Sugeno模型的模糊神经网络,模糊神经网络的输入为数据采集卡采集到的实时加工数据以及通过智能语音模块解码得到的控制指令,所述模糊神经网络设为五层,其中第一层为输入层、第二层为输入隶属度层、第三层为规则层、第四层为推理层、第五层为输出层。
4.根据权利要求1所述的一种与人共融的镜面加工设备控制系统,其特征在于,所述多轴运动控制器用于控制动平台驱动单元和刀具架驱动单元、接受来自工控机的指令信息,并实时向工控机反馈加工位置信息,动平台驱动单元控制两个并联机械手的驱动进给,刀具架驱动单元控制刀具架的伸缩运动。
5.根据权利要求1所述的一种与人共融的镜面加工设备控制系统,其特征在于,所述可编程逻辑控制器用于控制柔性液压支撑单元的高度和旋转平台控制单元的转速、接收来自工控机的指令信息,同时可编程逻辑控制器实时向工控机反馈柔性液压支撑单元的高度信息和旋转平台的转速信息。
6.根据权利要求1所述的一种与人共融的镜面加工设备控制系统,其特征在于,所述监测单元包括温度传感器、压力传感器、力传感器、振动传感器、惯性检测单元、速度传感器、加速度传感器、光栅尺和编码器;
所述温度传感器分别安装在两个并联机械手的刀具架上,对正在加工的镜面表面温度进行实时非接触测量;
所述压力传感器安装在柔性液压支撑系统的支撑油缸上,实时监测加工过程中的压力;
所述力传感器分别位于驱动运动支链与动平台球铰链间,实时监测加工过程中电动缸的受力情况;
所述振动传感器分别安装在两个并联机械手的刀具架上,实时监测加工过程中的振动情况;
所述惯性检测单元分别安装在两个并联机械手的动平台上,实时监测加工过程中的姿态情况;
所述速度传感器和加速度传感器分别安装在两个并联机械手的动平台上,实时监测并联机械手研磨加工的速度和加速度情况;
所述光栅尺安装在加工机械手的各个并联运动支链的电动缸或滚珠丝杠滑块上,用于向工控机反馈位置信号。
7.一种根据权利要求1所述的与人共融的镜面加工设备控制系统的工作方法,其特征在于,具体步骤为:
(1)建立智能数据库、模糊神经网络、语音识别单元的声学模型及语言模型、语音合成单元的语音语句及数据匹配:
将镜面加工经验数据存储在智能数据库中,加工经验数据包括多种控制指令和不同材料在不同环境温度下所需的进给速度、磨削深度、加工镜面温度以及取得的加工效果;
将神经网络结合到模糊系统中,构建起基于Takagi-Sugeno模型的模糊神经网络,并将模糊神经网络设为五层,其中第一层为输入层、第二层为输入隶属度层、第三层为规则层、第四层为推理层、第五层为输出层;
基于DNN-HMM系统建立语音识别单元的声学模型,通过深度学习对语音数据进行建模,利用深度学习的底层网络将噪声滤去,高层网络能提取语音特征中更具有区分性的特征,最终将需要的语音信息保存在上层;采用n-gram模型建立语音识别单元的语言模型,用来表示人机语音交互过程中某一字序列发生的概率;
建立语音合成单元的语音语句与数据匹配,通过预设多组语音语句并使其与对应的数据相匹配;
(2)镜面加工设备开启后,工控机等待技术人员的指令,技术人员发出准备工作的语音指令后,语音指令通过语音采集单元进行收集,而后传输给语音识别单元进行语音识别,语音识别单元对语音信号进行特征提取,并通过声学模型和语言模型对提取后的语音特征信号进行解码;完成后将识别后的文本文件传送至语音控制单元,语音控制单元根据文本信息与智能数据库中存储的多组控制指令进行匹配,匹配成功后,语音控制单元控制语音合成单元调取相应的语音文件,语音合成单元将语音文件合成后通过语音播放单元播放出来,此时技术人员根据智能人机语音交互模块反馈的语音,通过发出所需加工的参数语音指令,智能人机语音交互模块重复上述语音识别过程,语音控制单元得到识别后的文本文件,并将其转换为计算机二进制指令,从而完成加工参数的初始化设置;在技术人员发出开始加工的语音指令后,工控机通过智能数据库中提取本次加工材料的加工数据,并通过模糊神经网络,对多轴运动控制器和可编程逻辑控制器传输指令;
(3)多轴运动控制器和可编程逻辑控制器接收到控制指令后,其中多轴运动控制器控制动平台驱动单元和刀具架驱动单元两个底层模块控制单元,完成对两个并联加工机械手各个并联运动链的驱动控制;可编程逻辑控制器控制柔性液压支撑单元和旋转平台控制单元完成对底层模块的控制,镜面被固定在旋转平台上,旋转平台带动镜面旋转,结合两个并联机械手的进给运动动作,开始对镜面进行研磨加工;
(4)加工过程中,监测单元中的各个传感器实时测量加工状态信息,并发送给数据采集卡,数据采集卡对加工过程中的实时状态信息进行汇总,传输给工控机的模糊神经网络,各个传感器反馈的数据依次经过输入层、输入隶属度层、规则层、推理层和输出层后,根据输出层输出的控制量,工控机对多轴运动控制器和可编程逻辑控制器进行调控;
(5)同时工控机在加工过程中根据数据采集卡反馈的信息,通过人机交互界面显示,并每隔一段时间通过智能人机语音交互模块中的语音合成单元向技术人员汇报实时加工的数据信息;
(6)技术人员通过工控机传来的实时加工信息进行分析,若确定加工信息正常,则发出确认语音指令,此时工控机保持加工设备继续加工;若技术人员确定加工信息异常,则技术人员发出参数调整的语音指令,此时智能人机语音交互模块进行识别后对工控机控制,完成对初始加工指令的调整,工控机将调整后的指令下达给多轴运动控制器和可编程逻辑控制器后,加工设备按照调整后的加工参数进行加工,若反馈的实时加工信息仍存在异常,则技术人员继续发出参数调整的语音指令直到技术人员确认加工信息正常为止;最后将本次调整的加工数据新建为数据模型存入智能数据库;
(7)镜面加工设备在执行完加工过程后,智能人机语音交互模块通过语音播放单元发出语音提示技术人员加工已完成,经过技术人员检测后,若镜面达到所需的表面粗糙程度,则加工结束;若镜面未达到所需的表面粗糙度,则镜面加工设备在技术人员的语音指令下重复步骤(6)继续加工,直至镜面达到所需的表面粗糙程度,完成本次镜面加工过程;
(8)工控机在加工设备加工过程中,将当前的加工情况与数据库中的资料进行对比,结合技术人员的语音调整指令,对多轴运动控制器和可编程逻辑控制器下达调整指令;
(9)本次镜面加工结束后,工控机把本次加工的实时数据作为新增数据存入智能数据库中,为后续镜面加工提供参考。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202350.0A CN109298681A (zh) | 2018-10-16 | 2018-10-16 | 一种与人共融的镜面加工设备控制系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202350.0A CN109298681A (zh) | 2018-10-16 | 2018-10-16 | 一种与人共融的镜面加工设备控制系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109298681A true CN109298681A (zh) | 2019-02-01 |
Family
ID=65162803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811202350.0A Pending CN109298681A (zh) | 2018-10-16 | 2018-10-16 | 一种与人共融的镜面加工设备控制系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109298681A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751953A (zh) * | 2019-12-24 | 2020-02-04 | 北京中鼎高科自动化技术有限公司 | 一种用于模切机的智能语音交互系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106054602A (zh) * | 2016-05-31 | 2016-10-26 | 中国人民解放军理工大学 | 一种识别语音需求的模糊自适应机器人系统及其工作方法 |
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习系统与交互方法 |
CN107329996A (zh) * | 2017-06-08 | 2017-11-07 | 三峡大学 | 一种基于模糊神经网络的聊天机器人系统与聊天方法 |
CN107984333A (zh) * | 2017-11-28 | 2018-05-04 | 中国矿业大学 | 一种柔索驱动的光学加工试验机控制系统及方法 |
CN108604093A (zh) * | 2016-02-05 | 2018-09-28 | 依视路国际公司 | 用于监测光学镜片制造过程的方法 |
-
2018
- 2018-10-16 CN CN201811202350.0A patent/CN109298681A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108604093A (zh) * | 2016-02-05 | 2018-09-28 | 依视路国际公司 | 用于监测光学镜片制造过程的方法 |
CN106054602A (zh) * | 2016-05-31 | 2016-10-26 | 中国人民解放军理工大学 | 一种识别语音需求的模糊自适应机器人系统及其工作方法 |
CN106228982A (zh) * | 2016-07-27 | 2016-12-14 | 华南理工大学 | 一种基于教育服务机器人的交互式学习系统与交互方法 |
CN107329996A (zh) * | 2017-06-08 | 2017-11-07 | 三峡大学 | 一种基于模糊神经网络的聊天机器人系统与聊天方法 |
CN107984333A (zh) * | 2017-11-28 | 2018-05-04 | 中国矿业大学 | 一种柔索驱动的光学加工试验机控制系统及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751953A (zh) * | 2019-12-24 | 2020-02-04 | 北京中鼎高科自动化技术有限公司 | 一种用于模切机的智能语音交互系统 |
CN110751953B (zh) * | 2019-12-24 | 2020-04-24 | 北京中鼎高科自动化技术有限公司 | 一种用于模切机的智能语音交互系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2933067B1 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
Vogt et al. | Automatic recognition of emotions from speech: a review of the literature and recommendations for practical realisation | |
EP1256937B1 (en) | Emotion recognition method and device | |
Liu et al. | Group gated fusion on attention-based bidirectional alignment for multimodal emotion recognition | |
Zhou et al. | Speech emotion recognition based on rough set and SVM | |
Kato et al. | The robot musician ‘wabot-2’(waseda robot-2) | |
JP2002283259A (ja) | ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体 | |
Pulasinghe et al. | Modular fuzzy-neuro controller driven by spoken language commands | |
US11322147B2 (en) | Voice control system for operating machinery | |
Abed | Design of voice controlled smart wheelchair | |
CN109298681A (zh) | 一种与人共融的镜面加工设备控制系统及方法 | |
TWI684177B (zh) | 工作機械語音控制系統 | |
Azargoshasb et al. | A voice command detection system for controlling movement of SCOUT robot | |
Austermann et al. | Fuzzy emotion recognition in natural speech dialogue | |
Andrew et al. | Implementation of low-cost voice command robot using arduino uno platform | |
CN107745384A (zh) | 一种双臂协作机器人 | |
Manoj Kumar et al. | Robot ARM performing writing through speech recognition using dynamic time warping algorithm | |
CN115736925A (zh) | 监控操作员疲劳 | |
Pantazoglou et al. | A Greek voice recognition interface for ROV applications, using machine learning technologies and the CMU Sphinx platform | |
Ismail et al. | Speech control of robotic hand augmented with 3D animation using neural network | |
Bouafif et al. | Implementation of a biometric interface in voice controlled wheelchairs | |
Huseein | Design and Implementation of Artificial Upper Limbs Based on Arabic Speech Words | |
Stefanenko et al. | An intelligent voice recognition system based on fuzzy logic and the bag-of-words technique | |
Barbosa et al. | Voice commanded system for navigation of mobile robots | |
Abed et al. | Design and implementation of wireless voice controlled mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190201 |
|
RJ01 | Rejection of invention patent application after publication |