CN114822508B - 一种消除不同说话特性的缄默通讯方法和系统 - Google Patents
一种消除不同说话特性的缄默通讯方法和系统 Download PDFInfo
- Publication number
- CN114822508B CN114822508B CN202210441273.4A CN202210441273A CN114822508B CN 114822508 B CN114822508 B CN 114822508B CN 202210441273 A CN202210441273 A CN 202210441273A CN 114822508 B CN114822508 B CN 114822508B
- Authority
- CN
- China
- Prior art keywords
- electromyographic signals
- signal
- frame
- muted
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000004891 communication Methods 0.000 title claims abstract description 38
- 230000001815 facial effect Effects 0.000 claims abstract description 62
- 238000012544 monitoring process Methods 0.000 claims abstract description 51
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000012549 training Methods 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 230000006835 compression Effects 0.000 claims description 14
- 238000007906 compression Methods 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 230000007480 spreading Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 23
- 230000004913 activation Effects 0.000 description 11
- 230000001276 controlling effect Effects 0.000 description 5
- 210000003205 muscle Anatomy 0.000 description 5
- 230000003183 myoelectrical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000209020 Cornus Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 230000030279 gene silencing Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000000008 neuroelectric effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 208000003265 stomatitis Diseases 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种消除不同说话特性的缄默通讯方法和系统,方法包括采集无声状态下的面部肌电信号;对面部肌电信号进行预处理,对预处理后的面部肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取;将处理后的特征数据送到缄默语音识别模型中进行识别,得到无声语音数据,用来显示或者操控。本发明设计了一种消除不同说话特性的缄默通讯方法和系统,首先采集面部肌电信号,其次进行预处理、语速和幅度的监控处理以及特征提取,得到处理后的特征数据,最后根据处理后的特征数据训练缄默语音识别模型,进而识别以缄默方式说话时的无声语音。该方法能够获得准确率更高,识别速度更快的无声语音识别结果。
Description
技术领域
本发明属于通讯技术领域,特别涉及一种消除不同说话特性的缄默通讯方法和系统。
背景技术
自动语音识别(Automatic Speech Recognition,ASR)技术已经十分普及,大大推动了人工智能领域的发展,然而它的识别率也会受到一些因素的限制,比如在吵闹的工厂中,周围环境会产生干扰使语音识别的准确率受到影响;日常生活中人们在很多场合需要保护自己的隐私,语音识别就会出现一些弊端,因此不依靠声学信号的通讯方法显得尤为可贵。
随着缄默通讯技术的发展,使用的方法主要可以分为以下几类:通过采集唇部光学图像数据实现图像到语音信号的转换;使用表面肌电信号传感器采集无声说话时面部及喉部肌肉的电信号,从脑电图解析语言中枢的语言信号,通过记录说话者脑电图情况,模拟语音产生的过程。
虽然说扩大数据集可以提高缄默语音识别的准确率,但是采集一个很大的数据库费时费力,对每一名被试者也有不同程度的说话要求,语速过快会造成信号的粘连,增大了错误识别的可能性,说话幅度过小,也会增加模型训练的难度。因此本发明提出了一个语速和幅值的自适应调节方法,通过监测信号的时间范围和幅值状态,解决现有的基于面部肌电信号的缄默通讯系统中信号多样化和训练难度大的问题,从而提高肌电信号的鲁棒性和泛化能力,实现了不同的人对缄默通讯系统的适应性,提高了缄默通讯系统的识别准确率。
发明内容
本发明提出了一种消除不同说话特性的缄默通讯方法,包括:
采集无声状态下的面部肌电信号;
对面部肌电信号进行预处理,对预处理后的面部肌电信号进行语速监测控制和幅度的监测控制;
对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;
将处理后的特征数据送到缄默语音识别模型中进行识别,得到以缄默方式说话时的无声语音数据;将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控。
进一步地,所述对预处理后的肌电信号进行语速监测控制包括:
监测预处理后的肌电信号的时间范围;当预处理后的肌电信号的序列长度小于时间阈值,使用插帧技术将预处理后的肌电信号铺展至固定长度。
进一步地,所述使用插帧技术将监测预处理后的肌电信号铺展至固定长度包括:
采用Super-SloMo神经网络的插帧技术将预处理后的肌电信号铺展至固定长度;
所述Super-SloMo神经网络包括两个U-Net网络,用一个U-Net网络计算帧与帧之间的双向信号流,在每个时间步长上对这些信号流进行线性拟合,以近似中间帧的信号,使用另一个U-Net网络来对近似的信号进行改善,并且预测柔性可见性映射关系,最后,将前后两帧信号进行扭曲和线性融合,从而形成中间帧;
所述中间帧的预测计算如式(4)所示:
It=(1-t)*g(I0,St→0)+t*g(I1,St→1) (4)
其中,t是中间帧的位置信息,g(I0,St→0)是初始帧到中间帧的信号流的转换,g(I1,St→1)是结束帧到中间帧的信号流转换;
It和I0之间的信号流如式(5)所示:
St→0=-(1-t)tS0→1+t2S1→0 (5)
其中,St→0是初始帧到中间帧的预测信号流,即正向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息;
It和I1之间的信号流如式(6)所示:
St→1=(1-t)2S0→1-t(1-t)S1→0 (6)
其中,St→1是结束帧到中间帧的预测信号流,即反向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息;
将中间帧插入到原信号流中,重新生成新的中间帧。
进一步地,所述U-Net网络左侧是由卷积和Max Pooling构成,为压缩路径;压缩路径由5block组成,每个block使用了2有效卷积和1个Max Pooling降采样,每个block的卷积核数目为:32,64,128,256,512;采样之后input个数乘2;
所述U-Net网络右侧部分由卷积和Bilinear upsampling构成,为扩展路径;扩展路径由5block组成,每个block的卷积核数目为512,256,128,64,32;前四个block开始之前通过反卷积将input的尺寸乘2,同时将其个数减半;之后和左侧对称的压缩路径的input合并。
进一步地,所述幅度的监测控制包括:
监测语速调节后的肌电信号的绝对平均值;若语速调节后的肌电信号的绝对平均值小于所设定的信号阈值,便对整个语速调节后的肌电信号进行等比例调节处理。
进一步地,所述将整个语速处理后的肌电信号进行等比例调节包括:训练时调节和识别时调节;
所述训练时调节包括:检索一名用户的所有指令,将该用户所有信号中的绝对平均值的最大值标记为该用户的信号界值;检索其他用户的信号界值,对比不同用户之间的信号界值,将其中的最大值设置为信号阈值;
幅值调节使用如式(8)所示,
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前指令信号阈值,xo是幅值调节后信号的数据值;
所述识别时调节包括:
以模型生成时得到的信号阈值为标准进行调节;
幅值调节使用如式(8)所示,
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前指令信号阈值,xo是幅值调节后信号的数据值。
进一步地,所述对面部肌电信号进行预处理,包括:对面部肌电信号进行直流偏置的去除,工频噪声的去除和有效信号段的提取。
进一步地,所述缄默语音识别模型使用如下方式建立:
采集无声状态下的面部肌电信号及收集对应的缄默方式说话时的无声语音数据;对面部肌电信号进行预处理,对预处理后的面部肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;将处理后的特征数据和对应的无声语音数据送入到卷积神经网络和门控循环单元进行特征学习。
进一步地,所述卷积神经网络和门控循环单元包括:CNN网络和GRU网络;
其中,CNN网络作为处理后的特征数据的预训练网络,GRU网络作为处理后的特征数据的解码网络;
所述CNN网络包括两个64维的卷积,两个128维的卷积,两个256维的卷积和两个512维的卷积,不同的卷积层中间使用最大池化层连接;所述GRU网络为两层GRU网络,第一层包含512个隐藏层,第二层包含1024个隐藏层;所述CNN网络最后一层的池化层输出与GRU网络中重置门输入连接。
本发明还提出了一种消除不同说话特性的缄默通讯系统,所述消除不同说话特性的缄默通讯系统包括:
采集组件,用于采集无声状态下的面部肌电信号;
预处理组件,用于对预处理后的肌电信号进行语速监测控制和幅度的监测控制;
特征提取组件,用于对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;
识别组件,用于将处理后的特征数据送到缄默语音识别模型中进行识别,得到以缄默方式说话时的无声语音数据;
传送组件,用于将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控;
模型建立组件,用于建立缄默语音识别模型,所述缄默语音识别模型使用如下方式建立:
采集无声状态下的面部肌电信号及收集对应的缄默方式说话时的无声语音数据;对面部肌电信号进行预处理,对预处理后的肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;将处理后的特征数据和对应的无声语音数据送入到卷积神经网络和门控循环单元进行特征学习。
本发明设计了一种消除不同说话特性的缄默通讯方法和系统,首先采集面部肌电信号,其次进行预处理、语速和幅度的监控处理以及特征提取,得到处理后的特征数据,最后根据处理后的特征数据训练缄默语音识别模型,进而识别以缄默方式说话时的无声语音。该方法能够获得准确率更高,识别速度更快的无声语音识别结果。
附图说明
图1示出了本发明实施例中一种消除不同说话特性的缄默通讯方法的流程示意图;
图2示出了本发明实施例中一种消除不同说话特性的缄默通讯系统面部肌电信号采集位置的示意图;
图3示出了本发明实施例中U-Net结构示意图;
图4示出了本发明实施例中GRU结构示意图;
图5示出了本发明实施例中一种消除不同说话特性的缄默通讯系统结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
人在发声状态下说话时,声带的振动会带动口腔的振动,而在无声状态下说话时,口腔内完全没有振动,当用有声的肌电信号训练模型识别无声的语音时,准确率会受到影响,因此训练模型要采用无声状态下的面部肌电信号。嘴巴的运动对应着不同的神经电活动,将表面电极贴在运动肌肉的皮肤表面上,接着对检测到的这些表面肌电信号进行分析与解码,从而识别出说话者所说的内容。由于不同人有不同的说话特点,例如说话速度的快慢,说话幅度的大小,都会对识别结果产生很大的影响,因此通过对这两种说话特性进行处理能够一定程度上提高缄默语音的准确率。
本发明设计一种消除不同说话特性的缄默通讯方法,如图1所示。本发明中建立模型或最终的识别,均需要通过肌电采集设备获取面部肌电数据并进行数据预处理和肌电特征提取。
S1:采用表面贴片电极采集面部肌电信号。
具体地,如图2所示,人在说话时面部肌肉的运动对应着不同的神经电活动,以表面贴片电极为引导电极,放置在相应肌肉的面部和喉部的皮肤上,通过测量肌肉电活动在检测电极处的电位差得到面部肌电信号。可以采用五对贴片电极采集原始一维的肌电信号,五对贴片电极分别对应上唇提肌、口轮匝肌、降下唇肌、降口角肌、肩胛舌骨肌,通过该步骤,可以采集面部肌电信号。
建立模型时,采集无声状态下的面部肌电信号,需要同时收集对应的语言内容,即缄默方式说话时的无声语音数据。可以规定语言内容,由不同人进行无声状态下说话时,采集其对应的面部肌电信号。
S2:对面部肌电信号进行预处理,对预处理后的肌电信号进行语速和幅度的监测控制。
对采集到的面部肌电信号进行预处理,包括:对面部肌电信号进行直流偏置的去除,工频噪声的去除以及有效信号段的提取,得到预处理后的面部肌电信号。
对直流偏置的去除可以直接采用10-400Hz的ButterworthⅠ型IIR带通滤波器进行滤波。
对工频噪声的去除可以使用50Hz的IIR陷波器去除工频干扰,同时还需要设置相应的倍频,去除50Hz的倍频噪声。
对有效信号段的提取,采用短时能量和短时平均过零率结合的方法:
具体地,首先确定两个短时能量门限,一个是较高的短时能量门限,可以粗略提取有用信号段,一个是较低的平均能量门限,可以较为精确的提取有用信号段。
设肌电波形时域信号为x(n),窗函数为w(n),一般为矩形窗或汉明窗,对肌电信号段分帧处理如式(1)所示:
yi(n)=w(n)*x((i-1)*inc+n) (1)
其中,yi(n)为分帧处理后得到的第i帧肌电信号;inc为帧移长度;n的范围为1,2,…,L,L为帧长;i的范围为1,2,…,fn,fn为分帧后的总帧数。
计算第i帧肌电信号yi(n)的短时能量如式(2)所示:
确定两个短时过零率门限,一个是较高的门限过零率,一个是较低的门限电平,短时平均过零率表示一帧信号波形穿过横轴的次数,即信号改变符号的次数,如式(3)所示:
其中,Sgn为符号函数,即:
综合两个门限,低门限被超越有可能是时间很短的噪声引起的,高门限被超越基本上可以确定是由有用信号造成的,由此便可提取肌电的有效信号段。
面部肌电信号进行预处理后,生成预处理后的面部肌电信号。
对预处理后的肌电信号进行语速和幅度的监测控制,对于语速的监测是指监测信号的时间范围,对于幅度的监测是指监测信号的幅值状态,并通过监测结果进行相应的处理和控制。
具体地,监测预处理后的肌电信号的时间范围是指监测信号的时间序列长度。当预处理后的肌电信号的序列长度小于时间阈值,使用插帧技术将预处理后的肌电信号铺展至固定长度。
在一种实现方式中,采集的每一条面部肌电信号为2000ms,实际提取有效信号段后,由于不同人的说话语速不同,不同人提取到的信号时间序列也不同。因此采用Super-SloMo神经网络的插帧技术将预处理后提取到的有效信号,即预处理后的肌电信号铺展至固定长度,从而达到放慢语速和统一时间序列的效果。
Super-SloMo神经网络是一种端到端的卷积神经网络,利用该卷积神经网络来实现补帧的操作。Super-SloMo神经网络包括两个U-Net网络,先用一个U-Net网络计算帧与帧之间的双向信号流,在每个时间步长上对这些信号流进行线性拟合,以近似中间帧的信号,使用另一个U-Net来对近似的信号进行改善,并且预测柔性可见性映射关系,最后,将前后两帧信号进行扭曲和线性融合,从而形成中间帧。如图3所示是U-Net架构示意图。
网络的左侧是由卷积和Max Pooling构成的一系列降采样操作,为压缩路径。压缩路径由5block组成,每个block使用了2有效卷积和1个Max Pooling降采样,每个block的卷积核数目为:32,64,128,256,512;采样之后input个数乘2。
网络的右侧部分为扩展路径,是由卷积和Bilinearupsampling构成的一系列上采样操作。同样由5block组成,每个block具体为512,256,128,64,32,每个block开始之前通过反卷积将input的尺寸乘2,同时将其个数减半(最后一层略有不同),然后和左侧对称的压缩路径的input合并,由于左侧压缩路径和右侧扩展路径的input的尺寸不一样,U-Net是通过将压缩路径的input裁剪到和扩展路径相同尺寸的input进行归一化的input。扩展路径的卷积操作依旧使用的是有效卷积操作,最终得到的输出结果。
中间帧It可以通过初始帧I0结合信号流的转换g()而形成,也可以通过结束帧I1结合信号流转换而形成,本发明使用两者的线性组合。信号流是两帧之间的关系拟合函数,使用非线性函数拟合,中间帧的预测计算公式如式(4)所示:
It=(1-t)*g(I0,St→0)+t*g(I1,St→1) (4)
其中,t是中间帧的位置信息,g(I0,St→0)是初始帧到中间帧的信号流的转换,g(I1,St→1)是结束帧到中间帧的信号流转换。
由于中间帧本身是需要预测的,不是预先存在的,因此需要用I0和I1之间的信号流对It和I0、I1之间的信号流进行近似,如式(5)(6)所示:
St→0=-(1-t)tS0→1+t2S1→0 (5)
其中,St→0是初始帧到中间帧的预测信号流,即正向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息。
St→1=(1-t)2S0→1-t(1-t)S1→0 (6)
其中,St→1结束帧到中间帧的预测信号流,即反向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息。
最终的架构设计分为两个阶段,第一阶段将I0和I1输入到信号流计算中,得到两者之间正向和反向的信号流;第二阶段再以I0和I1到It之间的近似信号流为输入,得到近似信号流的增量,结合这些量,即将中间帧插入到原信号流中,循环生成新的中间帧,并重新插入,最终得到增加帧后的信号,即语速调节后的肌电信号。
以下以通过第一帧信号(I1)和第五帧信号(I5)预测中间的第三帧信号(I3)为例,本领域技术人员能够得出从第1帧与第2n-1帧预测第n帧的方式。第三帧信号的预测结果为(I3),具体操作为:
首先,将I1和I5输入到信号流的计算中,计算出第一帧和第五帧之间的信号流,即非线性关系,得到S1→5和S5→1,再以S1→5和S5→1作为输入,送入中间帧信号流的预测算法中,得到I5和I1到I3之间的近似信号流,即S3→1和S3→5。
其次,将I1、I5、S3→1和S3→5作为输入送入中间帧的预测公式中,得到中间帧信息,最后将中间帧信息插入到原始信号中,得到增加帧后的信号。以此类推,使用I1、I3能够得到I2,使用I3、I5能够得到I4。实际操作中,通过I1与I2n-1得到In,将In插入到原始信号中后继续生成新的中间帧,最终使预处理后的肌电信号铺展至固定长度,得到语速调节后的肌电信号。
具体地,监测滤波后信号的幅值状态是指监测信号的一段时间内幅度绝对平均值大小。绝对平均值如式(7)所示。
其中,xj为信号第j时刻幅度值。
由于不同人的说话幅度大小不同,具体采集到的信号幅值差别很大。先对语速调节后的肌电信号进行绝对平均值的提取,若语速调节后的肌电信号的绝对平均值在对应时间段内小于所设定的信号阈值,则认为该肌电信号幅度处于欠调制状态。通过设定的信号阈值计算出欠调制的比例值,并将整个语速调节后的肌电信号送入幅值调节算法中进行等比例调节,若幅度不小于所设定的信号阈值,则直接进行下一步特征提取。
面部肌电信号的数据集包含多名用户的数据,每名用户的数据包含多条不同的指令,每条指令重复多次。在训练时,首先检索一名用户的所有指令,将该用户所有指令中的绝对平均值的最大值标记为该用户的信号界值。如A用户数据包含a1、a2、a3、a4、a5共5条指令,对于a1、a2、a3、a4、a5分别求得其幅度对应的绝对平均值a1’、a2’、a3’、a4’、a5’。取a1’、a2’、a3’、a4’、a5’中最大值为A用户信号界值。
其次检索其他用户的信号界值,对比不同用户之间的信号界值,将其中的最大值设置为信号阈值。如A、B、C三名用户的个人数据集中分别包含n条指令。先检索用户A中所有指令中的绝对平均值的最大值,并将该最大值设为用户A的界值,假设A用户的信号界值为a。同理检索用户B、C所有指令的绝对平均值的最大值,并将其设为其对应的信号界值,假设B用户的信号界值为b,C用户的信号界值为c。对比a、b、c三个值的大小,由于个体的说话差异,B用户的界值b最大,将b标记为信号阈值,用来对A用户和C用户滤波后信号进行幅值的调节,消除幅值差异对指令识别的影响,减少分类误差。在识别一条新的信号时,首先需要将已经训练好的模型中信号的阈值,作为本次识别的信号阈值,对新信号的幅值范围进行调节,其次将调节后的信号送入分类模型中进行相应指令的识别,最后输出识别结果。
模型训练好后进行识别时,以该模型生成时得到信号阈值为标准进行调节,即模型中所有存在信号界值最大值设置为信号阈值。这个值也等于在模型训练前最后一刻生成的信号阈值值。当模型训练好后,信号阈值已经被固定。训练过程中,数据集属于一直增长状态,其信号阈值随数据集变化而变化。
识别时,根据已经得到的数据阈值,提前设定幅值的信号阈值范围,对新采集的信号进行幅值的调节。
幅值调节均使用如式(8)所示,幅值调节算法的具体原理是等比例放大。
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前指令阈值大小,xo是幅值调节后信号的数据值。
需要注意的是,幅值调节的目的是消除不同人的说话特异性,增大指令间的差异性,因此需要遍历当前所有的数据。
预处理后并经过的语速和幅度的监测控制后,生成处理后的面部肌电信号。
S3:对处理后的面部肌电信号进行特征提取,得到处理后的特征数据。
虽然MFSC特征提取最初是用于音频信号上的,但是相关研究表明也能用于作为基于表面肌电信号的无声语音识别的特征。
对处理后的面部肌电信号提取梅尔频率谱系数特征,及其包含了动态特征信息的一阶差分和二阶差分系数,得到面部肌肉运动的动态特征数据。该动态特征数据可以直接进行神经网络训练和识别,通过该步骤,可以得到面部肌电信号的特征数据。
对处理后的面部肌电信号进行特征提取后,得到处理后的特征数据。
S4:根据处理后的特征数据,采用深度学习的方法训练缄默语音识别模型。
本发明采用深度学习中的卷积神经网络(CNN)和门控循环单元(GRU)相结合的方式训练缄默语音识别模型,其输入为处理后的特征数据,输出为其对应的语言内容,即缄默方式说话时的无声语音数据。模型训练好后,将处理后的特征数据输入到训练好的缄默语音识别模型,可以得到以缄默方式说话时对应的无声语言内容。CNN用于训练空间特征,GRU用于训练时序特征;卷积神经网络和门控循环单元的融合的训练效果比较好。
本发明中,卷积神经网络包括卷积层、激活函数层、池化层。卷积层是通过特定数目的卷积核(滤波器),对输入的多通道特征图进行扫描和运算,从而得到多个拥有更高层语义信息的输出特征图。卷积核不断地扫描整个输入特征图,最终得到输出特征图。
激活函数是在深度神经网络中后一层节点的输入和前一层节点的输出之间的一种自定义的映射关系,通常使用非线性函数作为激活函数,加入非线性激活函数后,神经网络能够更好的拟合目标函数。理论上通过多层神经网络和非线性激活函数的组合可以任意逼近训练样本中数据输入和标签之间的关系。本发明,可以使用的激活函数包括Sigmoid函数、Tanh函数、ReLU函数和LeakyReLU函数等。
池化层的池化操作主要针对特征图中的非重叠区域,主要包括均值池化、最大池化和全局平局池化。池化操作的本质是降采样,不仅能显著降低参数量,也能在一定程度上防止模型出现过拟合,还能够保持对输入图像的旋转、伸缩、平移操作的不变性。
经过卷积层、池化层和激活函数层后,得到样本属于各个类别的概率分布情况,全连接层通过概率识别出属于哪一个类别。在多分类问题中,CNN中最后全连接层的输出使用Softmax函数,Softmax的计算公式如式(9)所示,softmax函数的输入,输出为预测对象分类结果的概率:
其中,xm为最后一层的神经元节点的输出,N表示分类结果的总数。
GRU神经网络是循环神经网络的一个分支,如图4所示,是LSTM网络的一种效果等价的变体,为了解决RNN网络中长期依赖的问题而提出,它比LSTM的结构更加简单,更易于计算和进行训练,在GRU神经网络包括两个门控单元:更新门和重置门。GRU神经网络具体的训练过程如下:
首先,先通过上一个传输下来的状态ht-1和当前节点的输入xt来获取两个门控状态。其中r为控制重置的门控,z为控制更新的门控。
(1)重置门:重置门控制前一状态有多少信息被写入到当前的候选集上,重置门越小,前一状态的信息被写入的越少。在该门控单元中,先将上一层的输出ht-1和本层要输入的序列数据xt进行拼接,通过一个sigmoid激活函数,得到输出为rt;rt的输出取值在[0,1]区间,表示前一状态信息被写入的数据量,1是“完全保留”,0是“完全舍弃”,如式(10)所示。
rt=sigmoid(Wr*[ht-1,xt]+br) (10)
其中,xt是当前的输入数据;ht-1是上一个节点传递下来的隐状态,包含了之前节点的相关信息;Wr为GRU网络模型重置门控单元中拼接后输入的权重参数,Wr的初始值是通过一组输入信号与对应的输出之间的关系计算出来的,随着数据的不断增加和神经网络的迭代更新,训练出最终的权重值;br为GRU网络模型重置门的偏置参数,初始值设为1,作为偏置项的基底,然后让网络去训练偏置项,使得偏置项在训练的过程中不断调整以得到最终值。
(2)更新门:用于控制前一时刻的状态信息,被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多。在该门控单元中,将上一层的输出ht-1和本层要输入的序列数据xt进行拼接,通过一个sigmoid激活函数,得到输出为zt,如式(11)所示。
zt=sigmoid(Wt*[ht-1,xt]+bz) (11)
其中,xt是当前的输入数据;ht-1是上一个节点传递下来的隐状态;Wt为GRU网络模型更新门控单元中拼接后输入的权重参数,Wt的初始值是通过一组输入信号与对应的输出之间的关系计算出来的,随着数据的不断增加和神经网络的迭代更新,训练出最终的权重值;bz为GRU网络模型更新门的偏置参数,初始值设为1,作为偏置项的基底,然后让网络去训练偏置项,使得偏置项在训练的过程中不断调整以得到最终值。
在GRU网络的记忆阶段,将rt·ht-1与xt作为输入进行拼接,并通过一个tanh激活函数来将数据放缩到-1~1的范围内,得到输出如式(12)所示。
其中,xt是当前的输入数据;ht-1是上一个节点传递下来的隐状态;rt是重置门控单元得到的输出值;为更新门控单元中拼接后输入的权重参数,/>的初始值是通过一组输入信号与对应的输出之间的关系计算出来的,随着数据的不断增加和神经网络的迭代更新,训练出最终的权重值;/>为GRU网络模型更新门的偏置参数。
在更新记忆阶段,同时进行了遗忘和记忆两个步骤。如式(13)所示,最终得到更新记忆阶段的输出ht。
其中,zt、ht-1与作为输入;zt是更新门控得到的输出数据;ht-1是上一个节点传递下来的隐状态;/>是记忆阶段得到的输出;(1-zt)·ht-1表示对原本隐藏状态的选择性“遗忘”;/>表示对包含当前节点信息的/>进行选择性“记忆”。
输出使用sigmoid激活函数得到一个[0,1]区间取值的yt,如式(14)所示。
yt=sigmoid(Wo*ht+by) (14)
其中,更新记忆阶段的输出ht作为输入;Wo为更新记忆阶段的输出ht的对应的权重参数;by为该输出公式的偏置参数;Wo的初始值是通过一组输入信号与其对应的输出之间的关系计算出来的,随着数据的不断增加和神经网络的迭代更新,训练出最终的权重值;对于偏置参数首先将by的初始值设为1,作为偏置项的基底,然后让网络去训练偏置项,使得偏置项在训练的过程中不断调整以得到最终值。
在本发明中,CNN网络作为肌电特征的预训练网络,GRU作为肌电特征的解码网络。CNN网络包括两个64维的卷积,两个128维的卷积,两个256维的卷积和两个512维的卷积,不同的卷积层中间使用最大池化层连接;解码网络使用了两层GRU网络,第一层包含512个隐藏层,第二层包含1024个隐藏层。将CNN网络最后一层的池化层输出与GRU网络中重置门输入连接,实现两个网络的融合,形成一个完整的缄默语音识别模型。
S5:将处理后的特征数据输入到训练好的缄默语音识别模型中,得到以缄默方式说话时的无声语音数据,将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控。
具体地,采集另一组无声状态下的面部肌电信号,分别经过数据预处理,对语速和幅度的监测处理;特征提取后送入训练好的缄默语音识别模型中进行识别,得到缄默状态下的无声语音数据。
具体地,识别出缄默状态下的无声语音数据后,可以通过无线通信装置将其发送到语音接收设备,实现缄默通讯。在一种可能的实现方式中,通过WIFI将识别出的无声语音发送到语音接收设备,可选地,还可以进行有线连接和蓝牙连接。
本发明实施例提供了一种消除不同说话特性的缄默通讯的系统,如图5所示,包括:
采集组件,用于采集无声状态下的面部肌电信号;
预处理组件,用于对预处理后的肌电信号进行语速监测控制和幅度的监测控制;接收采集组件传来的面部肌电信号,生成处理后的面部肌电信号;
特征提取组件,用于对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;接收预处理组件传来的处理后的面部肌电信号,生成处理后的特征数据;
识别组件,用于将处理后的特征数据送到缄默语音识别模型中进行识别,得到以缄默方式说话时的无声语音数据;接收特征提取组件传来的处理后的特征数据;
传送组件,用于将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控;接收识别组件传来的无声语音数据;
模型建立组件,用于建立缄默语音识别模型,所述缄默语音识别模型使用如下方式建立:
采集无声状态下的面部肌电信号及收集对应的缄默方式说话时的无声语音数据;对面部肌电信号进行预处理,对预处理后的肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;将处理后的特征数据和对应的无声语音数据送入到卷积神经网络和门控循环单元进行特征学习。
其中,所述使用插帧技术将监测预处理后的肌电信号铺展至固定长度包括:采用Super-SloMo神经网络的插帧技术将预处理后提取到的有效信号铺展至固定长度;所述Super-SloMo神经网络包括两个U-Net网络,用一个U-Net网络计算帧与帧之间的双向信号流,在每个时间步长上对这些信号流进行线性拟合,以近似中间帧的信号,使用另一个U-Net网络来对近似的信号进行改善,并且预测柔性可见性映射关系,最后,将前后两帧信号进行扭曲和线性融合,从而形成中间帧;
所述中间帧的预测计算如式(4)所示:
It=(1-t)*g(I0,St→0)+t*g(I1,St→1) (4)
其中,t是中间帧的位置信息,g(I0,St→0)是初始帧到中间帧的信号流的转换,g(I1,St→1)是结束帧到中间帧的信号流转换;
It和I0之间的信号流如式(5)所示:
St→0=-(1-t)tS0→1+t2S1→0 (5)
其中,St→0是初始帧到中间帧的预测信号流,即正向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息;
It和I1之间的信号流如式(6)所示:
St→1=(1-t)2S0→1-t(1-t)S1→0 (6)
其中,St→1是结束帧到中间帧的预测信号流,即反向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息。
所述U-Net网络左侧是由卷积和Max Pooling构成,为压缩路径;压缩路径由5block组成,每个block使用了2有效卷积和1个Max Pooling降采样,每个block的卷积核数目为:32,64,128,256,512;采样之后input个数乘2;
所述U-Net网络右侧部分由卷积和Bilinear upsampling构成,为扩展路径;扩展路径由5block组成,每个block的卷积核数目为512,256,128,64,32;前四个block开始之前通过反卷积将input的尺寸乘2,同时将其个数减半;之后和左侧对称的压缩路径的input合并。
所述幅度的监测控制包括:监测语速调节后的肌电信号的绝对平均值的大小;若需要检测的信号的绝对平均值在对应时间段内小于所设定的阈值,便对整个语速处理后的肌电信号进行等比例调节处理。
所述将整个语速处理后的肌电信号进行等比例调节包括:
检索每一名被试的数据,将绝对平均值最大的被试的值标记为信号的阈值;幅值调节使用如式(8)所示,
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前信号的阈值,xo是幅值调节后信号的数据值。
所述卷积神经网络和门控循环单元包括:CNN网络和GRU网络;
其中,CNN网络作为处理后的特征数据的预训练网络,GRU网络作为处理后的特征数据的解码网络;
所述CNN网络包括两个64维的卷积,两个128维的卷积,两个256维的卷积和两个512维的卷积,不同的卷积层中间使用最大池化层连接;所述GRU网络为两层GRU网络,第一层包含512个隐藏层,第二层包含1024个隐藏层;所述CNN网络最后一层的池化层输出与GRU网络中重置门输入连接。
可以使用如下方式使用本发明的消除不同说话特性的缄默通讯:
步骤1:用户穿戴肌电采集设备,开启设备开关。检查各个组件是否正常开启,检测通信设备是否正常,当各模块没有正常开启时,执行步骤2,提示用户开启相应组件。
步骤2:如果设备出现问题,不能正常运作和通信时,根据提示用户检查相对应的组件;当各组件正常开启时,检测用户是否已经开始说话。当用户开始说话时,执行步骤3;如果没有开始说话时,进入待机状态。
步骤3:用户在静默状态下开始说话,采集组件开始采集用户无声状态下的面部肌电信号。
步骤4:将采集得到的肌电信号送入预处理组件和特征提取组件中,进行相应的数据处理,得到处理后的特征数据。如果是训练模型,则执行步骤5,进行模型的训练;如果是识别肌电信号,则执行步骤6,默认缄默语音识别模型已经训练完毕。
步骤5:采用机器学习或者深度学习的方法对步骤4处理后的特征数据进行模型的训练,训练一个缄默语音识别模型。
步骤6:将经过步骤4处理后的特征数据输入预先训练好的缄默语音识别模型中,得到以缄默方式说话的无声语音数据。
步骤7:将识别到的无声语音数据发送至通讯交互组件,完成通信交流或外部设备控制;若异常,则提示通信异常,用户重复所说内容。
步骤8、通信完成后,检测通信环境是否关闭,若没有,则进入待机状态。
本发明设计了一种消除不同说话特性的缄默通讯方法和系统,首先采集面部肌电信号,其次进行预处理、语速和幅度的监控处理以及特征提取,得到处理后的特征数据,最后根据处理后的特征数据训练缄默语音识别模型,进而识别以缄默方式说话时的无声语音。该方法能够获得准确率更高,识别速度更快的无声语音识别结果。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (8)
1.一种消除不同说话特性的缄默通讯方法,其特征在于,所述消除不同说话特性的缄默通讯方法包括:
采集无声状态下的面部肌电信号;
对面部肌电信号进行预处理,对预处理后的面部肌电信号进行语速监测控制和幅度的监测控制;
对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;
将处理后的特征数据送到缄默语音识别模型中进行识别,得到以缄默方式说话时的无声语音数据;将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控;
所述对预处理后的肌电信号进行语速监测控制包括:
监测预处理后的肌电信号的时间范围;当预处理后的肌电信号的序列长度小于时间阈值,使用插帧技术将预处理后的肌电信号铺展至固定长度;
所述幅度的监测控制包括:
监测语速调节后的肌电信号的绝对平均值;若语速调节后的肌电信号的绝对平均值小于所设定的信号阈值,便对整个语速调节后的肌电信号进行等比例调节处理。
2.根据权利要求1所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述使用插帧技术将监测预处理后的肌电信号铺展至固定长度包括:
采用Super-SloMo神经网络的插帧技术将预处理后的肌电信号铺展至固定长度;
所述Super-SloMo神经网络包括两个U-Net网络,用一个U-Net网络计算帧与帧之间的双向信号流,在每个时间步长上对这些信号流进行线性拟合,以近似中间帧的信号,使用另一个U-Net网络来对近似的信号进行改善,并且预测柔性可见性映射关系,最后,将前后两帧信号进行扭曲和线性融合,从而形成中间帧;
所述中间帧的预测计算如式(4)所示:
It=(1-t)*g(I0,St→0)+t*g(I1,St→1) (4)
其中,t是中间帧的位置信息,g(I0,St→0)是初始帧到中间帧的信号流的转换,g(I1,St→1)是结束帧到中间帧的信号流转换;
It和I0之间的信号流如式(5)所示:
St→0=-(1-t)tS0→1+t2S1→0 (5)
其中,St→0是初始帧到中间帧的预测信号流,即正向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息;
It和I1之间的信号流如式(6)所示:
St→1=(1-t)2S0→1-t(1-t)S1→0 (6)
其中,St→1是结束帧到中间帧的预测信号流,即反向信号流信息,t是中间帧的位置信息,S0→1是初始帧到结束帧的信号流信息,S1→0是结束帧到初始帧的信号流信息;
将中间帧插入到原信号流中,重新生成新的中间帧。
3.根据权利要求2所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述U-Net网络左侧是由卷积和Max Pooling构成,为压缩路径;压缩路径由5block组成,每个block使用了2有效卷积和1个Max Pooling降采样,每个block的卷积核数目为:32,64,128,256,512;采样之后input个数乘2;
所述U-Net网络右侧部分由卷积和Bilinear upsampling构成,为扩展路径;扩展路径由5block组成,每个block的卷积核数目为512,256,128,64,32;前四个block开始之前通过反卷积将input的尺寸乘2,同时将其个数减半;之后和左侧对称的压缩路径的input合并。
4.根据权利要求3所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述将整个语速处理后的肌电信号进行等比例调节包括:训练时调节和识别时调节;
所述训练时调节包括:检索一名用户的所有指令,将该用户所有信号中的绝对平均值的最大值标记为该用户的信号界值;检索其他用户的信号界值,对比不同用户之间的信号界值,将其中的最大值设置为信号阈值;
幅值调节使用如式(8)所示,
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前指令信号阈值,xo是幅值调节后信号的数据值;
所述识别时调节包括:
以模型生成时得到的信号阈值为标准进行调节;
幅值调节使用如式(8)所示,
其中,x是欠调制状态的信号,xi是原始的欠调制状态信号的绝对平均值,xp是当前指令信号阈值,xo是幅值调节后信号的数据值。
5.根据权利要求1所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述对面部肌电信号进行预处理,包括:对面部肌电信号进行直流偏置的去除,工频噪声的去除和有效信号段的提取。
6.根据权利要求1所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述缄默语音识别模型使用如下方式建立:
采集无声状态下的面部肌电信号及收集对应的缄默方式说话时的无声语音数据;对面部肌电信号进行预处理,对预处理后的面部肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;将处理后的特征数据和对应的无声语音数据送入到卷积神经网络和门控循环单元进行特征学习。
7.根据权利要求6所述的一种消除不同说话特性的缄默通讯方法,其特征在于,
所述卷积神经网络和门控循环单元包括:CNN网络和GRU网络;
其中,CNN网络作为处理后的特征数据的预训练网络,GRU网络作为处理后的特征数据的解码网络;
所述CNN网络包括两个64维的卷积,两个128维的卷积,两个256维的卷积和两个512维的卷积,不同的卷积层中间使用最大池化层连接;所述GRU网络为两层GRU网络,第一层包含512个隐藏层,第二层包含1024个隐藏层;所述CNN网络最后一层的池化层输出与GRU网络中重置门输入连接。
8.一种消除不同说话特性的缄默通讯系统,其特征在于,所述消除不同说话特性的缄默通讯系统包括:
采集组件,用于采集无声状态下的面部肌电信号;
预处理组件,用于对预处理后的肌电信号进行语速监测控制和幅度的监测控制;
特征提取组件,用于对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;
识别组件,用于将处理后的特征数据送到缄默语音识别模型中进行识别,得到以缄默方式说话时的无声语音数据;
传送组件,用于将得到的无声语音数据传输到设备上进行显示或者进行相应设备的操控;
模型建立组件,用于建立缄默语音识别模型,所述缄默语音识别模型使用如下方式建立:
采集无声状态下的面部肌电信号及收集对应的缄默方式说话时的无声语音数据;对面部肌电信号进行预处理,对预处理后的肌电信号进行语速监测控制和幅度的监测控制;对处理后的面部肌电信号进行特征提取,得到处理后的特征数据;将处理后的特征数据和对应的无声语音数据送入到卷积神经网络和门控循环单元进行特征学习;
所述对预处理后的肌电信号进行语速监测控制包括:
监测预处理后的肌电信号的时间范围;当预处理后的肌电信号的序列长度小于时间阈值,使用插帧技术将预处理后的肌电信号铺展至固定长度;
所述幅度的监测控制包括:
监测语速调节后的肌电信号的绝对平均值;若语速调节后的肌电信号的绝对平均值小于所设定的信号阈值,便对整个语速调节后的肌电信号进行等比例调节处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210441273.4A CN114822508B (zh) | 2022-04-25 | 2022-04-25 | 一种消除不同说话特性的缄默通讯方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210441273.4A CN114822508B (zh) | 2022-04-25 | 2022-04-25 | 一种消除不同说话特性的缄默通讯方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114822508A CN114822508A (zh) | 2022-07-29 |
CN114822508B true CN114822508B (zh) | 2024-05-10 |
Family
ID=82507490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210441273.4A Active CN114822508B (zh) | 2022-04-25 | 2022-04-25 | 一种消除不同说话特性的缄默通讯方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114822508B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7574357B1 (en) * | 2005-06-24 | 2009-08-11 | The United States Of America As Represented By The Admimnistrator Of The National Aeronautics And Space Administration (Nasa) | Applications of sub-audible speech recognition based upon electromyographic signals |
CN102169690A (zh) * | 2011-04-08 | 2011-08-31 | 哈尔滨理工大学 | 基于表面肌电信号的语音信号识别系统和识别方法 |
KR20170095603A (ko) * | 2016-02-15 | 2017-08-23 | 인하대학교 산학협력단 | 근육 조합 최적화를 통한 안면근육 표면근전도 신호기반 단모음인식 방법 |
CN110767208A (zh) * | 2019-11-18 | 2020-02-07 | 中国矿业大学(北京) | 一种基于面部表面肌肉信号的不发声指令识别的辅助救援通讯方法及装置 |
CN111091830A (zh) * | 2020-01-14 | 2020-05-01 | 浙江清华柔性电子技术研究院 | 语言识别系统 |
CN111899713A (zh) * | 2020-07-20 | 2020-11-06 | 中国人民解放军军事科学院国防科技创新研究院 | 一种缄默通讯方法、装置、设备及存储介质 |
WO2020243299A1 (en) * | 2019-05-29 | 2020-12-03 | Cornell University | Devices, systems, and methods for personal speech recognition and replacement |
CN113288183A (zh) * | 2021-05-20 | 2021-08-24 | 中国科学技术大学 | 一种基于面颈部表面肌电的无声语音识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11798254B2 (en) * | 2020-09-01 | 2023-10-24 | Northwestern University | Bandwidth limited context based adaptive acquisition of video frames and events for user defined tasks |
-
2022
- 2022-04-25 CN CN202210441273.4A patent/CN114822508B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7574357B1 (en) * | 2005-06-24 | 2009-08-11 | The United States Of America As Represented By The Admimnistrator Of The National Aeronautics And Space Administration (Nasa) | Applications of sub-audible speech recognition based upon electromyographic signals |
CN102169690A (zh) * | 2011-04-08 | 2011-08-31 | 哈尔滨理工大学 | 基于表面肌电信号的语音信号识别系统和识别方法 |
KR20170095603A (ko) * | 2016-02-15 | 2017-08-23 | 인하대학교 산학협력단 | 근육 조합 최적화를 통한 안면근육 표면근전도 신호기반 단모음인식 방법 |
WO2020243299A1 (en) * | 2019-05-29 | 2020-12-03 | Cornell University | Devices, systems, and methods for personal speech recognition and replacement |
CN110767208A (zh) * | 2019-11-18 | 2020-02-07 | 中国矿业大学(北京) | 一种基于面部表面肌肉信号的不发声指令识别的辅助救援通讯方法及装置 |
CN111091830A (zh) * | 2020-01-14 | 2020-05-01 | 浙江清华柔性电子技术研究院 | 语言识别系统 |
CN111899713A (zh) * | 2020-07-20 | 2020-11-06 | 中国人民解放军军事科学院国防科技创新研究院 | 一种缄默通讯方法、装置、设备及存储介质 |
CN113288183A (zh) * | 2021-05-20 | 2021-08-24 | 中国科学技术大学 | 一种基于面颈部表面肌电的无声语音识别方法 |
Non-Patent Citations (4)
Title |
---|
Huihui Cai et al.A Facial Electromyography Activity Detection Method in Silent Speech Recognition.2021 International Conference on High Performance Big Data and Intelligent Systems .2022,第 246-249页. * |
Matthias Janke et al.EMG-to-Speech: Direct Generation of Speech From Facial Electromyographic Signals.IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING.2017,第第25卷卷(第第12期期),第2375-2384. * |
Siyuan Ma et al.Silent Speech Recognition Based on Surface Electromyography.IEEE.2019,第4497-4500页. * |
带置信度的基于sEMG的无声语音识别研究;王鑫;乔波;杨梦;;电脑知识与技术;20200615(第17期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114822508A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4006898A1 (en) | Voice recognition method, device, and computer-readable storage medium | |
CN105139864B (zh) | 语音识别方法和装置 | |
CN112581979A (zh) | 一种基于语谱图的语音情绪识别方法 | |
CN108597496A (zh) | 一种基于生成式对抗网络的语音生成方法及装置 | |
CN110286774B (zh) | 一种基于手腕运动传感器的手语识别方法 | |
CN111899757B (zh) | 针对目标说话人提取的单通道语音分离方法及系统 | |
Hui et al. | Convolutional maxout neural networks for speech separation | |
CN113205820B (zh) | 一种用于声音事件检测的声音编码器的生成方法 | |
CN111326179A (zh) | 一种婴儿哭声检测深度学习方法 | |
CN111723717A (zh) | 一种无声语音识别方法及系统 | |
CN115346561B (zh) | 基于语音特征的抑郁情绪评估预测方法及系统 | |
CN115881164A (zh) | 一种语音情感识别方法及系统 | |
CN109346107B (zh) | 一种基于lstm的独立说话人语音发音逆求解的方法 | |
CN113408503B (zh) | 一种情绪识别方法、装置、计算机可读存储介质及设备 | |
CN113571095B (zh) | 基于嵌套深度神经网络的语音情感识别方法和系统 | |
CN114299995A (zh) | 一种用于情绪评估的语言情感识别方法 | |
CN114822508B (zh) | 一种消除不同说话特性的缄默通讯方法和系统 | |
Shin et al. | Speaker-invariant psychological stress detection using attention-based network | |
Song et al. | An Intelligent Speech Multifeature Recognition Method Based on Deep Machine Learning: A Smart City Application | |
Yousfi et al. | Isolated Iqlab checking rules based on speech recognition system | |
Rheault et al. | Multimodal techniques for the study of a ect in political videos | |
CN113887339A (zh) | 融合表面肌电信号与唇部图像的无声语音识别系统及方法 | |
Liu et al. | Hypemasality detection in cleft palate speech based on natural computation | |
CN114822542B (zh) | 一种不同人分类辅助的无声语音识别方法和系统 | |
CN117014761B (zh) | 交互式脑控耳机控制方法及装置、脑控耳机、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |