CN113192489A - 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法 - Google Patents

一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法 Download PDF

Info

Publication number
CN113192489A
CN113192489A CN202110531117.2A CN202110531117A CN113192489A CN 113192489 A CN113192489 A CN 113192489A CN 202110531117 A CN202110531117 A CN 202110531117A CN 113192489 A CN113192489 A CN 113192489A
Authority
CN
China
Prior art keywords
layer
signal
frequency spectrum
spraying
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110531117.2A
Other languages
English (en)
Inventor
杨亦琛
李娟�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinling Institute of Technology
Original Assignee
Jinling Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinling Institute of Technology filed Critical Jinling Institute of Technology
Priority to CN202110531117.2A priority Critical patent/CN113192489A/zh
Publication of CN113192489A publication Critical patent/CN113192489A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法。1)利用信号采集系统采集常用的喷涂声音指令,其中的数据采集卡选用NI‑9234;2)向采集的音频信号中重复添加100次高斯白噪声,生成含噪信号并求解相应的梅尔频谱序列,而后求解100个梅尔频谱序列的平均序列;3)利用多尺度的卷积滤波器对平均梅尔频谱序列进行特征提取,接着使用BiLSTM模型对所提取的特征进行进一步挖掘以得到相应的输出;4),将BiLSTM模型的输出拼接在一起,而后输入到全连接层和Softmax层进行处理,最后结合CTC算法实现语音识别;5),将步骤1‑4训练得到的模型嵌入喷涂机器人中,智能化的实现相应的喷涂任务。本发明所述模型可以实现喷涂机器人智能语音识别功能,具有很高的实际应用价值。

Description

一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法
技术领域
本发明涉及智能化喷涂机器人领域,特别是涉及一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法。
背景技术
随着目前国内建筑行业的快速发展,与建筑业息息相关的装饰行业也具有很大的市场前景;然而当前装饰行业很大一部分工作需要人工完成,比如墙面喷涂就基本是人手里拿着喷涂机进行人工喷涂,其喷涂的效果不一,很难保证施工质量和效率。
手工喷涂,工人劳动强度大,而且喷涂距离和喷涂速度也不易控制,容易造成喷涂厚度误差过大而返工,甚至不符合质量要求;涂料含有重金属、放射性物质和有毒农业生产体系溶剂等,在喷涂过程中涂料需要雾化,雾化的涂料很容易吸入现场施工人员的肺中,恶劣的施工环境对喷涂工人健康危害很大。针对以上各种问题,本专利提出了一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,它能帮助机器人实现对房屋墙面喷涂的自动化,从而以自适应的喷涂作业代替人工的无序喷涂作业,能够改善工作环境,减轻工人劳动强度,大幅度提高喷涂的效率,并且对于施工的质量也能够有所保障。
国内涉及智能喷涂机器人的专利有“一种智能喷涂机器人系统及其喷涂方法”(201910960106.9),通过设计扫描建模单元、离线编程单元、驱动控制单元和机器人本体及厚度检测单元,实现了喷涂机器人的智能化喷涂,有效降低了喷涂轨迹误差、喷涂工艺参数误差等误差引起的喷涂质量问题。国家发明专利“一种基于智能喷涂机器人的建筑外墙喷涂方法”(202011419313.2),该发明基于智能喷涂机器人的建筑外墙喷涂方法,通过控制收放组件,可使机器人本体在建筑外壁上自动沿波浪形轨迹进行喷涂作业,其中控制器可以根据涂料箱内涂料的余量值自动补充涂料,需要的人工干涉少,不需要人工直接参与,施工成本低且无人员风险。以上专利都是预定任务然后喷涂机器人执行,不具有自适应性,现实中喷涂机器人需要根据不同的情况做出相应的变化,而非机械式的执行任务,赋予喷涂机器人语音识别功能可以自适应的完成相应的喷涂任务,这具有重要的现实意义。
发明内容
为解决上述问题,本发明在卷积神经网络(Convolutional Neural Networks,CNN)和双向长期短期记忆机(Bi-directional Long Short-Term Memory,BiLSTM)的基础上,提出了一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法。首先,考虑到采集信号中含有的噪声成分对模型识别精度的影响,本专利提出了一种集合消噪算法,通过多次集合平均可以很好的消除噪声影响以增强语音信号的特征;其次,针对语音信号特征不易挖掘的特点,本专利设计了一种多尺度卷积滤波器组,通过设计四个有效长度的卷积核,从多尺度方向挖掘信号中存在的特征,这可以极大的帮助模型挖掘语音信号中的特征,从而提高模型的诊断精度;最后,采用了BiLSTM模型对语音信号进行进一步的特征提取,并向模型中加入全连接层、Softmax层和CTC算法最终实现语音识别。为达此目的,本发明提供一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,具体步骤如下,其特征在于:
步骤1,采集指令信号:利用信号采集系统采集常用的喷涂声音指令,其中的数据采集卡选用NI-9234;
步骤2,集合消噪预处理:向采集的音频信号中重复添加100次高斯白噪声,生成含噪信号并求解相应的梅尔频谱序列,而后求解100个梅尔频谱序列的平均序列;
步骤3,多尺度特征提取:利用多尺度的卷积滤波器对平均梅尔频谱序列进行特征提取,接着使用BiLSTM模型对所提取的特征进行进一步挖掘以得到相应的输出;
步骤4,特征融合识别:将BiLSTM模型的输出拼接在一起,而后输入到全连接层和Softmax层进行处理,最后结合CTC算法实现语音识别;
步骤5,喷涂机器人应用:将步骤1~步骤4训练得到的模型嵌入喷涂机器人中,智能化的实现相应的喷涂任务。
进一步,步骤2中采用集合消噪预处理对音频信号进行预处理的过程可表述为:
假设采集到的音频信号为x(t),其中包含有效信号c(t)和环境噪声信号n(t),即:x(t)=c(t)+n(t),向x(t)中添加100组高斯白噪声g(t)以生成含噪信号s(t),并求解s(t)的梅尔频谱序列,最后求解这100个梅尔频谱序列的平均序列Msave
Figure BDA0003067910390000021
式中,Ms(·)表示梅尔频谱序列的计算求解,由于高斯白噪声的均值为0,所以当所加高斯白噪声的次数足够多时
Figure BDA0003067910390000022
的值接近0,这就使得所采集到的信号中的环境噪声信号n(t)被滤去,极大的增强了有效信号c(t)的特征。
进一步,步骤3中对步骤2中获得的梅尔频谱平均序列Msave进行多尺度特征提取的具体步骤为:
步骤3.1,设计四个不同尺度的一维卷积核对Msave进行滤波处理,四个卷积核的长度分别为
Figure BDA0003067910390000031
其中L为Msave的长度;
步骤3.2,利用BiLSTM模型进行进一步处理,其具体步骤可表述为:
步骤3.2.1,搭建具有前向传播层和后向传播层的BiLSTM网络;
步骤3.2.2,利用前向传播层对Msave进行计算以得到t时刻的前向隐藏状态
Figure BDA0003067910390000032
计算表达式如下:
Figure BDA0003067910390000033
式中,H表示隐藏层的激活函数,本专利选取sigmoid激活函数,xt为输入数据(Msave),
Figure BDA0003067910390000034
表示前向输入层与隐藏层间的连接权重系数,
Figure BDA0003067910390000035
表示前向隐藏层间的连接权重系数,
Figure BDA0003067910390000036
表示t-1时刻前向隐藏层状态,
Figure BDA0003067910390000037
表示前向隐藏层的偏置系数。
步骤3.2.3,利用后向传播层对Msave进行计算以得到t时刻的后向隐藏状态
Figure BDA0003067910390000038
计算表达式如下:
Figure BDA0003067910390000039
式中,
Figure BDA00030679103900000310
表示后向输入层与隐藏层间的连接权重系数,
Figure BDA00030679103900000311
表示后向隐藏层间的连接权重系数,
Figure BDA00030679103900000312
表示t-1时刻后向隐藏层状态,
Figure BDA00030679103900000313
表示后向隐藏层的偏置系数。
步骤3.2.4,计算输出层的输出向量yt,计算表达式为:
Figure BDA00030679103900000314
式中,
Figure BDA00030679103900000315
为前向隐藏层与输出层间的连接权重系数,
Figure BDA00030679103900000316
为后向隐藏层与输出层间的连接权重系数,b0为输出层的偏置系数。
步骤3.2.5,将多个BiLSTM模型的输出拼接在一起,并输入至全连接层中,接着由Softmax层进行处理;
步骤3.2.6,利用CTC算法对Softmax层的输出进行解码处理以实现语音识别。
本发明一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,有益效果:本发明的技术效果在于:
1.本发明考虑到采集信号中含有的噪声成分对模型识别精度的影响,提出了一种集合消噪算法,通过多次集合平均可以很好的消除噪声影响以增强语音信号的特征,从而可以提高网络模型的鲁棒性;
2.本发明针对语音信号特征不易挖掘的特点,设计了一种多尺度卷积滤波器组,通过设计四个有效长度的卷积核,从多尺度方向挖掘信号中存在的特征,这可以极大的帮助模型挖掘语音信号中的特征,从而提高模型的诊断精度;
3.本发明采用了BiLSTM模型对语音信号进行进一步的特征提取,并向模型中加入全连接层、Softmax层和CTC算法,通过设计一个新的模型最终实现语音识别。
附图说明
图1为本发明的流程图;
图2为本发明所提的多尺度增强BiLSTM模型的网络结构图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提出了一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,旨在帮助喷涂机器人智能识别语音从而完成相应的喷涂任务。图1为本发明的流程图,下面结合流程图对本发明的步骤作详细介绍。
步骤1,采集指令信号:利用信号采集系统采集常用的喷涂声音指令,其中的数据采集卡选用NI-9234;
步骤2,集合消噪预处理:向采集的音频信号中重复添加100次高斯白噪声,生成含噪信号并求解相应的梅尔频谱序列,而后求解100个梅尔频谱序列的平均序列;
步骤2中采用集合消噪预处理对音频信号进行预处理的过程可表述为:
假设采集到的音频信号为x(t),其中包含有效信号c(t)和环境噪声信号n(t),即:x(t)=c(t)+n(t),向x(t)中添加100组高斯白噪声g(t)以生成含噪信号s(t),并求解s(t)的梅尔频谱序列,最后求解这100个梅尔频谱序列的平均序列Msave
Figure BDA0003067910390000041
式中,Ms(·)表示梅尔频谱序列的计算求解,由于高斯白噪声的均值为0,所以当所加高斯白噪声的次数足够多时
Figure BDA0003067910390000042
的值接近0,这就使得所采集到的信号中的环境噪声信号n(t)被滤去,极大的增强了有效信号c(t)的特征。
步骤3,多尺度特征提取:利用多尺度的卷积滤波器对平均梅尔频谱序列进行特征提取,接着使用BiLSTM模型对所提取的特征进行进一步挖掘以得到相应的输出;
步骤3中对步骤2中获得的梅尔频谱平均序列Msave进行多尺度特征提取的具体步骤为:
步骤3.1,设计四个不同尺度的一维卷积核对Msave进行滤波处理,四个卷积核的长度分别为
Figure BDA0003067910390000051
其中L为Msave的长度;
步骤3.2,利用BiLSTM模型进行进一步处理,其具体步骤可表述为:
步骤3.2.1,搭建具有前向传播层和后向传播层的BiLSTM网络;
步骤3.2.2,利用前向传播层对Msave进行计算以得到t时刻的前向隐藏状态
Figure BDA0003067910390000052
计算表达式如下:
Figure BDA0003067910390000053
式中,H表示隐藏层的激活函数,本专利选取sigmoid激活函数,xt为输入数据(Msave),
Figure BDA0003067910390000054
表示前向输入层与隐藏层间的连接权重系数,
Figure BDA0003067910390000055
表示前向隐藏层间的连接权重系数,
Figure BDA0003067910390000056
表示t-1时刻前向隐藏层状态,
Figure BDA0003067910390000057
表示前向隐藏层的偏置系数。
步骤3.2.3,利用后向传播层对Msave进行计算以得到t时刻的后向隐藏状态
Figure BDA0003067910390000058
计算表达式如下:
Figure BDA0003067910390000059
式中,
Figure BDA00030679103900000510
表示后向输入层与隐藏层间的连接权重系数,
Figure BDA00030679103900000511
表示后向隐藏层间的连接权重系数,
Figure BDA00030679103900000512
表示t-1时刻后向隐藏层状态,
Figure BDA00030679103900000513
表示后向隐藏层的偏置系数。
步骤3.2.4,计算输出层的输出向量yt,计算表达式为:
Figure BDA00030679103900000514
式中,
Figure BDA00030679103900000515
为前向隐藏层与输出层间的连接权重系数,
Figure BDA00030679103900000516
为后向隐藏层与输出层间的连接权重系数,b0为输出层的偏置系数。
步骤3.2.5,将多个BiLSTM模型的输出拼接在一起,并输入至全连接层中,接着由Softmax层进行处理;
步骤3.2.6,利用CTC算法对Softmax层的输出进行解码处理以实现语音识别。
步骤4,特征融合识别:将BiLSTM模型的输出拼接在一起,而后输入到全连接层和Softmax层进行处理,最后结合CTC算法实现语音识别;
步骤5,喷涂机器人应用:将步骤1~步骤4训练得到的模型嵌入喷涂机器人中,智能化的实现相应的喷涂任务。
图2为本发明所提出的多尺度增强BiLSTM模型的网络结构图。从该结构图中可以清楚的看出,对于所采集到的语音信号,先通过添加100组高斯白噪声,而后求解加噪信号的梅尔频谱序列,然后将求得的梅尔频谱序列进行算术平均,最终得到平均的梅尔频谱序列,也即是通过集合加噪的方式滤除了原有声音信号中的噪声干扰,增强了有效信号的特征;接着设计了4个不同尺度的卷积滤波器组,然后分别输入到BiLSTM模型中,实现了从多尺度层面学习原有信号的特征;接着将BiLSTM模型的输出拼接在一起,通过全连接层、Softmax层和CTC解码算法的处理最终实现语音的智能识别。另外,从BiLSTM模型的结构中可以看出,BiLSTM是由前向和后向两个方向的LSTM模型组成的,通过前向和后向隐藏层间的联系,较LSTM可以更加准确的挖掘声音信号中含有的特征。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (3)

1.一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,具体步骤如下,其特征在于:
步骤1,采集指令信号:利用信号采集系统采集常用的喷涂声音指令,其中的数据采集卡选用NI-9234;
步骤2,集合消噪预处理:向采集的音频信号中重复添加100次高斯白噪声,生成含噪信号并求解相应的梅尔频谱序列,而后求解100个梅尔频谱序列的平均序列;
步骤3,多尺度特征提取:利用多尺度的卷积滤波器对平均梅尔频谱序列进行特征提取,接着使用BiLSTM模型对所提取的特征进行进一步挖掘以得到相应的输出;
步骤4,特征融合识别:将BiLSTM模型的输出拼接在一起,而后输入到全连接层和Softmax层进行处理,最后结合CTC算法实现语音识别;
步骤5,喷涂机器人应用:将步骤1~步骤4训练得到的模型嵌入喷涂机器人中,智能化的实现相应的喷涂任务。
2.根据权利要求1所述的一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,其特征在于:步骤2中采用集合消噪预处理对音频信号进行预处理的过程可表述为:
假设采集到的音频信号为x(t),其中包含有效信号c(t)和环境噪声信号n(t),即:x(t)=c(t)+n(t),向x(t)中添加100组高斯白噪声g(t)以生成含噪信号s(t),并求解s(t)的梅尔频谱序列,最后求解这100个梅尔频谱序列的平均序列Msave
Figure FDA0003067910380000011
式中,Ms(·)表示梅尔频谱序列的计算求解,由于高斯白噪声的均值为0,所以当所加高斯白噪声的次数足够多时
Figure FDA0003067910380000012
的值接近0,这就使得所采集到的信号中的环境噪声信号n(t)被滤去,极大的增强了有效信号c(t)的特征。
3.根据权利要求1所述的一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法,其特征在于:步骤3中对步骤2中获得的梅尔频谱平均序列Msave进行多尺度特征提取的具体步骤为:
步骤3.1,设计四个不同尺度的一维卷积核对Msave进行滤波处理,四个卷积核的长度分别为
Figure FDA0003067910380000021
其中L为Msave的长度;
步骤3.2,利用BiLSTM模型进行进一步处理,其具体步骤可表述为:
步骤3.2.1,搭建具有前向传播层和后向传播层的BiLSTM网络;
步骤3.2.2,利用前向传播层对Msave进行计算以得到t时刻的前向隐藏状态
Figure FDA0003067910380000022
计算表达式如下:
Figure FDA0003067910380000023
式中,H表示隐藏层的激活函数,本专利选取sigmoid激活函数,xt为输入数据(Msave),
Figure FDA0003067910380000024
表示前向输入层与隐藏层间的连接权重系数,
Figure FDA0003067910380000025
表示前向隐藏层间的连接权重系数,
Figure FDA0003067910380000026
表示t-1时刻前向隐藏层状态,
Figure FDA0003067910380000027
表示前向隐藏层的偏置系数;
步骤3.2.3,利用后向传播层对Msave进行计算以得到t时刻的后向隐藏状态
Figure FDA0003067910380000028
计算表达式如下:
Figure FDA0003067910380000029
式中,
Figure FDA00030679103800000210
表示后向输入层与隐藏层间的连接权重系数,
Figure FDA00030679103800000211
表示后向隐藏层间的连接权重系数,
Figure FDA00030679103800000212
表示t-1时刻后向隐藏层状态,
Figure FDA00030679103800000213
表示后向隐藏层的偏置系数;
步骤3.2.4,计算输出层的输出向量yt,计算表达式为:
Figure FDA00030679103800000214
式中,
Figure FDA00030679103800000215
为前向隐藏层与输出层间的连接权重系数,
Figure FDA00030679103800000216
为后向隐藏层与输出层间的连接权重系数,b0为输出层的偏置系数。
步骤3.2.5,将多个BiLSTM模型的输出拼接在一起,并输入至全连接层中,接着由Softmax层进行处理;
步骤3.2.6,利用CTC算法对Softmax层的输出进行解码处理以实现语音识别。
CN202110531117.2A 2021-05-16 2021-05-16 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法 Pending CN113192489A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110531117.2A CN113192489A (zh) 2021-05-16 2021-05-16 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110531117.2A CN113192489A (zh) 2021-05-16 2021-05-16 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法

Publications (1)

Publication Number Publication Date
CN113192489A true CN113192489A (zh) 2021-07-30

Family

ID=76981842

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110531117.2A Pending CN113192489A (zh) 2021-05-16 2021-05-16 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法

Country Status (1)

Country Link
CN (1) CN113192489A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542151A (zh) * 2011-11-30 2012-07-04 重庆大学 基于集合经验模式分解的旋转机械轴心轨迹提纯方法
CN103226649A (zh) * 2013-03-25 2013-07-31 西安交通大学 机械早期及复合故障的集成噪声重构经验模式分解方法
CN103839197A (zh) * 2014-03-19 2014-06-04 国家电网公司 一种基于eemd方法的用户用电行为异常的判定方法
CN110211574A (zh) * 2019-06-03 2019-09-06 哈尔滨工业大学 基于瓶颈特征和多尺度多头注意力机制的语音识别模型建立方法
CN111653275A (zh) * 2020-04-02 2020-09-11 武汉大学 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法
CN112593680A (zh) * 2020-12-07 2021-04-02 李朝阳 一种基于智能喷涂机器人的建筑外墙喷涂方法
CN112642619A (zh) * 2019-10-10 2021-04-13 中国科学院重庆绿色智能技术研究院 一种智能喷涂机器人系统及其喷涂方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542151A (zh) * 2011-11-30 2012-07-04 重庆大学 基于集合经验模式分解的旋转机械轴心轨迹提纯方法
CN103226649A (zh) * 2013-03-25 2013-07-31 西安交通大学 机械早期及复合故障的集成噪声重构经验模式分解方法
CN103839197A (zh) * 2014-03-19 2014-06-04 国家电网公司 一种基于eemd方法的用户用电行为异常的判定方法
CN110211574A (zh) * 2019-06-03 2019-09-06 哈尔滨工业大学 基于瓶颈特征和多尺度多头注意力机制的语音识别模型建立方法
CN112642619A (zh) * 2019-10-10 2021-04-13 中国科学院重庆绿色智能技术研究院 一种智能喷涂机器人系统及其喷涂方法
CN111653275A (zh) * 2020-04-02 2020-09-11 武汉大学 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法
CN112593680A (zh) * 2020-12-07 2021-04-02 李朝阳 一种基于智能喷涂机器人的建筑外墙喷涂方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
范勇: ""基于改进EMD与SOM神经自动机驱动机构故障诊断研究"" *

Similar Documents

Publication Publication Date Title
CN109664300B (zh) 一种基于力觉学习的机器人多风格书法临摹方法
CN110543878B (zh) 一种基于神经网络的指针仪表读数识别方法
CN111192237B (zh) 一种基于深度学习的涂胶检测系统和方法
CN105931218A (zh) 模块化机械臂的智能分拣方法
Liu et al. Recognition methods for coal and coal gangue based on deep learning
CN113538486B (zh) 一种提高汽车钣金工件的识别与定位精度的方法
CN110188669B (zh) 一种基于注意力机制的空中手写字符轨迹恢复方法
CN101441776A (zh) 示范表演驱动的基于加速传感器的三维人体动作编排方法
CN106514667A (zh) 基于Kinect骨骼追踪和无标定视觉伺服的人机协作系统
CN106406518A (zh) 手势控制装置及手势识别方法
CN111309035B (zh) 多机器人协同移动与动态避障方法、装置、设备及介质
CN105389570A (zh) 一种人脸角度判定方法及其系统
CN112507859B (zh) 一种用于移动机器人的视觉跟踪方法
CN114851209B (zh) 一种基于视觉的工业机器人工作路径规划优化方法及系统
CN113192489A (zh) 一种基于多尺度增强BiLSTM模型的喷漆机器人语音识别方法
CN109087646B (zh) 一种导入人工智能超深度学习用于语音图像识别的方法
CN111681649B (zh) 语音识别方法、交互系统及包括该系统的成绩管理系统
CN111267097B (zh) 基于自然语言的工业机器人辅助编程方法
CN103530857B (zh) 基于多尺度的卡尔曼滤波图像去噪方法
CN112965487A (zh) 基于策略迭代的移动机器人轨迹跟踪控制方法
Luo et al. Robot artist performs cartoon style facial portrait painting
CN110472691A (zh) 目标定位模块训练方法、装置、机器人及存储介质
CN114715363A (zh) 海底地层空间钻进机器人导航方法、系统及电子设备
CN113780560B (zh) 一种基于虚拟演示的机器人任务知识自生成系统
Park et al. Conversion Tools of Spiking Deep Neural Network based on ONNX

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210730

RJ01 Rejection of invention patent application after publication