CN111508485B - 电子装置及其语音指令识别方法 - Google Patents
电子装置及其语音指令识别方法 Download PDFInfo
- Publication number
- CN111508485B CN111508485B CN201910136770.1A CN201910136770A CN111508485B CN 111508485 B CN111508485 B CN 111508485B CN 201910136770 A CN201910136770 A CN 201910136770A CN 111508485 B CN111508485 B CN 111508485B
- Authority
- CN
- China
- Prior art keywords
- voice
- sound
- composite
- feature data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000005236 sound signal Effects 0.000 claims abstract description 140
- 239000002131 composite material Substances 0.000 claims abstract description 125
- 238000013507 mapping Methods 0.000 claims description 67
- 230000004044 response Effects 0.000 claims description 18
- 238000011403 purification operation Methods 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 230000006835 compression Effects 0.000 claims description 8
- 238000007906 compression Methods 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims 1
- 238000000746 purification Methods 0.000 description 36
- 239000011159 matrix material Substances 0.000 description 22
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 239000013598 vector Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 150000001875 compounds Chemical class 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000036039 immunity Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000013707 sensory perception of sound Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/23—Direction finding using a sum-delay beam-former
Abstract
一种适用于具有麦克风阵列的电子装置的语音指令识别方法。所述方法包括经由所述麦克风阵列获得多个声音信号;对所述多个声音信号执行一语音纯化操作,以获得纯化后声音信号,并且从纯化后声音信号中识别一目标语音信号;经由一复合式语音识别模型来计算对应所述目标语音信号的一复合式语音特征数据;比对复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令;以及执行所述目标指令。
Description
技术领域
本发明是有关于一种语音识别方法,且特别是有关于一种电子装置及其语音指令识别方法。
背景技术
随着科技的进展,为了增进电子产品使用上的便利,越来越多的产品支持了语音控制。不过,大部分产品的语音控制功能需要连网才能有识别能力(如google home/语音助理;Apple homepad/siri;Amazon Alexa等…)。因为,这些产品需要利用网络链接至远端的服务器,以让所述服务器来对这些产品所接收到的声音进行复杂的语音识别操作。
发明内容
本发明提供一种电子装置及其语音指令识别方法,可在不连网的情况下,识别到所接收到的用户语音,并且对此用户语音独立地执行语音指令识别操作,以确认用户语音所欲执行的电子装置的目标指令,进而执行所述目标指令。
本发明的一实施例提供一种电子装置,其包括麦克风阵列、语音指令管理电路单元、存储单元与处理器。所述麦克风阵列获得多个声音信号。所述语音指令管理电路单元对所述多个声音信号执行一语音纯化操作,以获得纯化后声音信号,并且从纯化后声音信号中识别一目标语音信号,其中所述语音指令管理电路单元经由一复合式语音识别模型来计算对应所述目标语音信号的一复合式语音特征数据,其中所述语音指令管理电路单元比对复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令。所述处理器执行所述目标指令。
本发明的一实施例提供一种语音指令识别方法,适用于具有麦克风阵列的电子装置。所述方法包括经由所述麦克风阵列获得多个声音信号;对所述多个声音信号执行一语音纯化操作,以获得纯化后声音信号,并且从纯化后声音信号中识别一目标语音信号;经由一复合式语音识别模型来计算对应所述目标语音信号的一复合式语音特征数据;比对复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令;以及执行所述目标指令。
基于上述,本发明的实施例所提供的电子装置及适用于所述电子装置的语音识别方法,可在不需要连接网络的情况下,独立利用较少的运算资源来判断语音指令的存在而触发后续的语音纯化操作,藉由语音纯化操作强化语音指令(对应目标指令的语音)的清晰程度,并且藉由复合式语音识别模型与动态时间规整来较准确地判定用户所说的语音指令是映射至电子装置的目标指令,进而使电子装置可有效率地被用户的语音所控制。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
图1是依照本发明的一实施例所绘示的电子装置的方块示意图。
图2是依照本发明的一实施例所绘示的电子装置的使用情境图。
图3A是依照本发明的一实施例所绘示的语音指令识别方法的流程图。
图3B是依照本发明的一实施例所绘示的语音指令识别方法的语音触发检测阶段的流程图。
图3C是依照本发明的一实施例所绘示的语音指令识别方法的语音纯化阶段的流程图。
图4A至4C是依照本发明的一实施例所绘示的声源定向操作的示意图。
图4D是依照本发明的一实施例所绘示的噪音压抑操作的示意图。
图5A至5B是依照本发明的一实施例所绘示的语音指令识别方法的语音指令映射阶段的流程示意图。
图6是依照本发明的一实施例所绘示的分群及权重分配的示意图。
图7A是依照本发明的一实施例所绘示的用以计算特征数据之间的距离的矩阵的示意图。
图7B是依照本发明的一实施例所绘示的经由动态时间规整比对参考语音特征数据的流程图。
具体实施方式
图2是依照本发明的一实施例所绘示的电子装置的使用情境图。请参照图2,本发明的一实施例提供一种电子装置10,可藉由所具有的麦克风阵列(例如包含多个麦克风110(1)~110(8))持续地接收电子装置10周遭的声音,所述声音包括任何环境音(如,家电31所发出的声音SD2或家电32所发出的声音SD3)与用户20的语音SD1(所述语音SD1可视为发自对应用户20的声源SR1)。并且,识别所接收的声音中是否具有符合电子装置10的其中一个指令。若符合,则电子装置10可对应地执行所符合的指令。以下会再藉由多个图式来说明所述电子装置10所使用的语音指令识别方法的细节。
图1是依照本发明的一实施例所绘示的电子装置的方块示意图。请参照图1,在本实施例中,电子装置10包括麦克风阵列110、语音指令管理电路单元120、处理器130、存储单元140。在另一实施例中,所述电子装置10更包括输入/输出单元150与连接接口电路单元160。所述处理器130耦接至所述麦克风阵列110、所述语音指令管理电路单元120与所述存储单元140。
所述麦克风阵列110包括多个麦克风110(1)~110(N),N为所述多个麦克风的总数量。在本实施例中,N被预设为8,但本发明不限于所述多个麦克风的总数量N。例如,在其他实施例中,N可为大于8或小于8的正整数。N的较佳者为偶数,于另一实施例中N亦可为4。如图2所绘示,麦克风阵列110的8个麦克风110(1)~110(8)均匀地环状排列在电子装置10的上方,但本发明不限于此。例如,在其他实施例,麦克风阵列110的所述多个麦克风可适应电子装置的形状来被配置于电子装置的表面,以使所述麦克风阵列110可接收到来自电子装置10附近的任意方位的用户所发出的语音。所述麦克风阵列110中的每个麦克风用以接收(聆听)声音,并且可以将所接收到的声音转为声音信号。所述声音信号可被传送至语音指令管理电路单元120做进一步的处理。本发明并不限定于所述麦克风的其他细节。
处理器130为具备运算能力的硬件(例如芯片组、处理器等),用以管理电子装置10的整体运作,即,所述处理器130可控制每个功能的运作。在本实施例中,处理器130,例如是一核心或多核心的中央处理单元(Central Processing Unit,CPU)、微处理器(micro-processor)、或是其他可程序化的处理单元(Programmable processor)、数字信号处理器(Digital Signal Processor,DSP)、可程序化控制器、特殊应用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、可程序化逻辑装置(Programmable LogicDevice,PLD)或其他类似装置。
存储单元140可经由处理器130或语音指令管理电路单元120的指示来暂存数据,所述数据包括用以管理电子装置10的数据、用以执行语音识别操作的暂存数据或是其他类型的数据,本发明不限于此。除此之外,存储单元140还可以经由处理器130或语音指令管理电路单元120的指示来记录一些需要长时间存储的数据,例如,对应语音指令识别操作的语音特征数据库141或电子装置10的固件或是软件。值得一提的是,在另一实施例中,存储单元140也可以包含于处理器130中。存储单元140可以是任何型态的硬盘机(hard diskdrive,HDD)或非挥发性存储器存储装置(如,固态硬盘)。
如上述,在一实施例中,电子装置10包括输入/输出单元150,其可用以接收用户的输出操作,以触发电子装置10的一或多项功能。此外,输入/输出单元150也可用以输出信息。在本实施例中,输入/输出单元150可具有多个实体按钮与显示面板。在另一实施例中,输入/输出单元150可为触控屏幕。
此外,在一实施例中,处理器130可藉由连接接口电路单元160与其他电子装置连接,以与其他电子装置的处理器沟通,获得相关于其他电子装置的多个指令的信息。藉此,处理器130可以根据判断用户的语音是否符合其他电子装置的所述多个指令,以对其他电子装置的处理器下达指令,进而操控其他电子装置。连接接口电路单元160例如是兼容于串行高级技术附件(Serial Advanced Technology Attachment,SATA)标准、并行高级技术附件(Parallel Advanced Technology Attachment,PATA)标准、电气和电子工程师协会(Institute of Electrical and Electronic Engineers,IEEE)1394标准、高速周边零件连接接口(Peripheral Component Interconnect Express,PCI Express)标准、通用串行总线(Universal Serial Bus,USB)标准、整合式驱动电子接口(Integrated DeviceElectronics,IDE)标准或其他适合的标准。
在本实施例中,所述语音指令管理电路单元120包括语音触发电路121、语音纯化电路122与语音指令映射电路123。所述语音指令管理电路单元120用以根据麦克风阵列110所接收的声音来执行语音指令识别操作。所述语音触发电路121、语音纯化电路122与语音指令映射电路123可用以执行语音指令识别操作的不同阶段。所述语音触发电路121、语音纯化电路122与语音指令映射电路123所执行的操作亦可表示为所述语音指令管理电路单元120的整体运作。
所述语音触发电路121用以选择麦克风阵列110的一个检测麦克风,根据对所述检测麦克风所产生的声音信号来执行语音触发检测操作(语音指令识别操作中的语音触发检测阶段),进而根据语音触发检测操作的结果来判断是否触发后续的处理程序(如,语音指令识别操作中的语音纯化阶段、语音指令识别阶段与语音指令执行阶段)。如此一来,可避免同时对多个麦克风的多个声音信号来执行多个语音触发检测操作,进而可节省语音指令管理电路单元120所耗费的运算资源。所述语音触发电路121可以根据所述多个麦克风所产生的多个声音信号,选择在所述多个声音信号中声强最大的声音信号所属的麦克风作为所述检测麦克风。此外,所述检测麦克风也可为用户或厂商所默认的麦克风。
语音纯化电路122用以在语音指令识别操作中的语音纯化阶段中执行语音纯化操作。在所述语音纯化操作中,语音纯化电路122可以识别对应用户语音的声源SR1相对于电子装置10的方向并且藉此强化用户语音的声强,同时降低其他方向的声音的声强。此外,在所述语音纯化操作中,语音纯化电路122更可进一步地根据持续更新的噪音信息来压抑多个声音信号中的噪音。如此一来,语音纯化电路122可从多个声音信号中获取出对应用户语音的目标语音信号。
语音指令映射电路123用以在语音指令识别操作中的语音指令映射阶段中执行语音指令映射操作。在所述语音指令映射操作中,语音指令映射电路123可根据目标语音信号来获得对应的复合式语音特征数据,并且比对所述复合式语音特征数据与所述语音特征数据库141中的多笔参考语音特征数据,以找出所述目标语音信号所映射的目标指令。语音指令映射电路123可传送所述目标指令至处理器130,以指示处理器130执行对应所述目标指令的功能。应注意的是,在一实施例中,语音指令映射电路123更可包含存储电路,以使所述语音特征数据库141可被存储至语音指令映射电路123的存储电路中。
以下会藉由图3A至3C来进一步说明本发明的一实施例所提供的语音指令识别方法的细节与所述电子装置10的各部件的运作。
图3A是依照本发明的一实施例所绘示的语音指令识别方法的流程图。请参照图1、2与图3A,在步骤S31中,经由麦克风阵列110获得多个声音信号(N预设为8)。具体来说,经由麦克风阵列110的多个麦克风110(1)~110(8),获得分别对应所述麦克风阵列的多个麦克风110(1)~110(8)的多个声音信号。所述多个声音信号被传送至语音指令管理电路单元120。在本实施中,假设麦克风110(1)被设定为检测麦克风(亦称,第一麦克风)。语音指令管理电路单元120会持续地分析麦克风110(1)所产生的声音信号(亦称,第一声音信号)(即,对第一声音信号执行语音触发检测操作)。
接着,根据分析结果,在步骤S32中,语音指令管理电路单元120用以从所述多个声音信号中的第一声音信号中识别第一触发语音信号。上述步骤S31与S32可表示语音指令识别操作中的语音触发检测阶段。以下利用图3B来说明语音触发检测阶段的细节。
图3B是依照本发明的一实施例所绘示的语音指令识别方法的语音触发检测阶段的流程图。请参照图3B,步骤S32包括步骤S321~S324。
在步骤S321中,根据所述第一声音信号的声强,识别所述第一声音信号中声强大于触发声强门限值的部分第一声音信号。在一实施例中,语音触发电路121只保留在人声频带(如,300赫兹至3400赫兹)的声音信号,以使所述第一声音信号为对应人声频带的声音信号。如此一来,可减少计算量,更可因只针对人声频带而避免其他种类的杂音所造成的影响,另外,亦可检测到缺乏能量、频率较快的清、浊音。
具体来说,语音触发电路121会分析第一声音信号的波形与声强。当第一声音信号的声强大于触发声强门限值时,语音触发电路121,会进一步设定一个起始时间,以累计在起始时间之后,第一声音信号的声强大于触发声强门限值的持续时间。换言之,所述部分第一声音信号为第一声音信号中连续的声强大于触发声强门限值的部分的声音信号。
接着,在步骤S322中,语音触发电路121判断所述部分第一声音信号的持续时间是否小于触发时间门限值。具体来说,本实施例假设用户所发出的对应电子装置的指令的语音的长度会小于触发时间门限值(如,3秒)。基此,反应于所述部分第一声音信号的所述持续时间的长度小于触发时间门限值,语音触发电路121判定所述部分第一声音信号为第一触发语音信号(步骤S323);反应于所述部分第一声音信号的所述持续时间的长度不小于触发时间门限值,语音触发电路121判定所述部分第一声音信号为噪音(步骤S324)。藉此,语音触发电路121可进一步地避免电子装置10周遭的持续性的噪音(如,电器运转声、电器所播放的声音)被作为触发语音信号。
此外,在另一实施例中,语音触发电路121假设用户所发出的对应电子装置的指令的语音的长度会大于临界时间门限值(如,0.5秒或1秒)且小于触发时间门限值(如,3秒)。基此,语音触发电路121会根据判断所述部分第一声音信号的持续时间是否大于临界时间门限值且小于触发时间门限值,以判定所述部分第一声音信号是第一触发语音信号或噪音。藉此,语音触发电路121可进一步地避免电子装置10周遭的短暂且大声的噪音被作为触发语音信号。
若所述部分第一声音信号被判定为噪音,则语音纯化电路122可根据被判定为噪音的所述部分第一声音信号来更新所记录的噪音信息,其中所述噪音信息被用于所述语音纯化操作中的噪音压抑操作中。例如,语音纯化电路122可根据被判定为噪音的所述部分第一声音信号的波形来过滤所述多个声音信号中的噪音。换句话说,在所述语音触发检测阶段中,第一声音信号中被判定的噪音可进一步地被反馈至后续的语音纯化操作,以强化语音纯化电路122压抑噪音的效率。
如上述,在判定所述部分第一声音信号为第一触发语音信号(步骤S323)后,语音触发电路121会指示语音纯化电路122执行后续的语音纯化阶段(即,步骤S33),即,流程会接续至步骤S33。
在步骤S33中,语音纯化电路122对所述多个声音信号执行语音纯化操作,以获得纯化后声音信号,并且从所述纯化后声音信号中识别一目标语音信号。
图3C是依照本发明的一实施例所绘示的语音指令识别方法的语音纯化阶段的流程图。请参照图3C,步骤S33可包括步骤S331~S333。
在步骤S331中,语音纯化电路122根据所述第一触发语音信号,对所述多个声音信号执行声源定向操作,以获得对应所述第一触发语音信号的声源角度。以下藉由图4A至图4C来说明声源定向操作的细节。
图4A至4C是依照本发明的一实施例所绘示的声源定向操作的示意图。请参照图4A,举例来说,假设声源SR1发出声音SD1,并且麦克风阵列110的多个麦克风110(1)~110(8)都会接收到声音SD1。在判定第一触发语音信号后,语音纯化电路122可从第一麦克风110(1)之外的其他麦克风110(2)~110(8)(亦称,第二麦克风)所产生的多个第二声音信号中分别识别其中的第二触发语音信号。也就是说,在判定第一声音信号中的第一触发语音信号的存在之后,语音纯化电路122可从每一个第二声音信号中识别到对应于第一触发语音信号的第二触发语音信号。所述第二触发语音信号的波形与声强会相似或相同于第一触发语音信号。在另一实施例中,所述多个麦克风各自可切割出大于触发声强门限值、大于临界时间门限值、小于触发时间门限值且为人类的声音频率的声音信号,以产生对应的声音信号给语音指令管理电路单元120。
接着,语音纯化电路122识别对应所述第一触发语音信号与所述多个第二触发语音信号的多个起始时间(亦可视为,所述多个第二声音信号的多个起始时间),并且根据所述多个起始时间计算麦克风110(1)~110(8)间的多个时间差。其中,麦克风110(1)~110(8)分别对应不同的角度(亦称,麦克风角度),所述多个时间差的每一个时间差各自对应不同的麦克风角度,并且不同的所述麦克风角度分别对应所述多个麦克风110(1)~110(8)中的不同的麦克风。更详细来说,由于8颗麦克风间彼此之间有非常多的排列组合与对应的多个时间差。为了让延迟时间更显著,得到最大的角度分辨率。在本实施例中,会使用对角关系来计算时间差。即,为了使一个时间差所对应的两个麦克风之间的间距为最大,本实施例是从8个麦克风中设定4个对角麦克风(如,麦克风110(1)与麦克风110(5)为一组对角麦克风;麦克风110(2)与麦克风110(6)为一组对角麦克风;麦克风110(3)与麦克风110(7)为一组对角麦克风;麦克风110(4)与麦克风110(8)为一组对角麦克风)。每个成对的对角麦克风彼此与电子装置10的中心C10的角度差为180度(对角)。此外,本实施例更利用对角麦克风的对称性,来计算时间差与对应的声源角度。经由对角麦克风110(1)、110(5)所获得的时间差Td15与Td51可被预先设定为对应至为0、180度的角度,并且可藉此来推算出其他对角麦克风的时间差所对应的角度值(如,对应对角麦克风110(3)、110(7)的时间差Td37对应至为90度的角度)。一个时间差所对应的角度亦称为所述时间差的对应角度。
举例来说,如图4A所绘示,第一麦克风110(1)所产生的第一声音信号中的第一触发声音信号的起始时间为时间T1;第二麦克风110(2)~110(8)所产生的第二声音信号中的第二触发声音信号的起始时间为时间T2~T8。在本实施例中,语音纯化电路122计算每一对对角麦克风之间的起始时间的时间差。
例如,如图4B所绘示,第二麦克风110(3)与110(7)彼此成对,语音纯化电路122可计算出第二麦克风110(3)与110(7)之间的起始时间的时间差Td37为第二麦克风110(3)的起始时间T3减去第二麦克风110(7)的起始时间T7的差值(即,Td37=T3-T7)。在本实施例中,8个麦克风110(1)~110(8)共包含了4组对角麦克风,利用上述的方式,如同图4B中的表格所记载,语音纯化电路122可计算出对应四组对角麦克风的8个时间差,即,对应对角麦克风110(1)、110(5)的时间差Td15与Td51;对应对角麦克风110(2)、110(6)的时间差Td26与Td62;对应对角麦克风110(3)、110(7)的时间差Td37与Td73;对应对角麦克风110(4)、110(8)的时间差Td48与Td84。
接着,语音纯化电路122根据所述多个时间差,计算对应所述多组对角麦克风间的所述多个时间差的多个时间差移动平均。具体来说,在本实施例中,所述时间差Td15对应麦克风110(1),并且其对应角度为0度;所述时间差Td51对应麦克风110(5),并且其对应角度为180度;所述时间差Td26对应麦克风110(2),并且其对应角度为45度;所述时间差Td62对应麦克风110(6),并且其对应角度为-135度;所述时间差Td37对应麦克风110(3),并且其对应角度为90度;所述时间差Td73对应麦克风110(7),并且其对应角度为-90度;所述时间差Td48对应麦克风110(4),并且其对应角度为135度;所述时间差Td84对应麦克风110(8),并且其对应角度为-45度。
此外,考量到信号量测误差的消除,语音纯化电路122会进一步对所述多个时间差计算移动平均,其中移动平均所使用的参数设定为3。在本实施例中,语音纯化电路122将一个时间差所对应的麦克风为中心,根据移动平均所使用的参数“3”来找出在为中心的麦克风旁的2个麦克风与对应的2个时间差。接着,利用共3个时间差来计算时间差移动平均。
举例来说,对应时间差Td15的时间差移动平均m1(亦对应麦克风110(1))会利用包含时间差Td15以及前后时间差Td26、Td84的共3个时间差来进行移动平均。即,对应时间差Td15的时间差移动平均m1为-13/3(即,(Td26+Td15+Td84)/3),并且所述时间差移动平均m1的对应角度相同于时间差Td15的对应角度(即,0度)。以此类推,如图4C中的表格所示,语音纯化电路122可计算出其余的时间差移动平均m2~m8与各自的对应角度。
接着,语音纯化电路122根据所述多个时间差移动平均m1~m8的大小来选择多个目标时间差移动平均,其中所述多个目标时间差移动平均的数量小于所述多个时间差移动平均的数量。具体来说,越接近第一触发语音信号的声源SR1的麦克风所对应的时间差移动平均的值会越小,即,在本例子中,对应时间差移动平均m1的麦克风110(1)是在所有麦克风110(1)~110(8)中最接近声源SR1的麦克风。在一实施例中,语音纯化电路122会选择所有为负值的时间差移动平均来做为目标时间差移动平均。
接着,语音纯化电路122根据所述多个目标时间差移动平均与分别对应所述多个目标时间差移动平均的多个对应角度来计算所述声源角度。具体来说,语音纯化电路122先计算所述多个目标时间差移动平均的总和,并且将每个所述多个目标时间差移动平均除以所述多个目标时间差移动平均的总和,来获得多个时间差比率。举例来说,接续上述的例子,为负值的时间差移动平均m1、m8、m2被设定为目标时间差移动平均。所述多个目标时间差移动平均m1、m8、m2的总和为-31/3,并且对应的时间差比率为13/31、9/31与9/31(如,图4C中的表格所示)。
接着,语音纯化电路122将对应所述多个目标时间差移动平均m1、m8、m2的对应角度0度、45度、-45度各自乘以对应所述多个目标时间差移动平均m1、m8、m2的时间差比率,以获得对应所述多个目标时间差移动平均m1、m8、m2的加权后角度0度、(405/31)度与(-405/31)度。最后,语音纯化电路122加总对应所述多个目标时间差移动平均m1、m8、m2的所有加权后角度,以获得加权后角度总和,并且将加权后角度总和作为对应声源SR1的声源角度。
如图4C所绘示,所计算的声源角度为0度,即,声源SR1相对于电子装置的中心点C10的角度为0度,并且其对应麦克风110(1)的对应角度“0度”。例如,假设随着用户的移动,触发语音为语音SD1’,计算出的声源角度从0度转变至-45度(如,箭头A41所示)。在此情境下,移动后的声源SR1’相对于中心点C10的角度为-45度。
接着,在获得声源角度后,在步骤S332,语音纯化电路122根据所述声源角度对所述多个声音信号执行声音聚束操作,以产生聚束后声音信号。具体来说,语音纯化电路122会经由聚束形成(Beamforming)技术,读取所述第一触发语音信号与所述多个第二触发语音信号,并且利用所述声源角度来计算对应每个声音信号的转向向量(Steer Vectors),以将对应所述声源角度的声音信号分离出来。如,对一个声音信号,强化此声音信号中于所述声源角度的角度范围内的部分声音信号的声强,并且减弱其他部分的声音信号的声强(或是直接滤除其他部分的声音信号)。如此一来,可将调整声强后的所述多个声音信号集合为聚束后声音信号。上述操作可称为声音聚束操作。
在一实施例中,语音纯化电路122根据所述声源角度,识别每一所述多个声音信号中对应所述声源角度的聚束部分与非聚束部分。所述语音纯化电路122可增加每一所述多个声音信号中的所述聚束部分的声强,减少每一所述多个声音信号中的所述非聚束部分的声强,并且根据所述声源角度与对应所述多个麦克风的多个时间差来将所述多个声音信号中的所述聚束部分相加,以获得聚束后声音信号。在另一实施例中,语音纯化电路122可根据下列步骤来执行声音聚束操作:(1)所述多个声音信号的时域信号经过傅立叶变换转至频域;(2)利用所述声源角度来计算对应每个声音信号的转向向量;(3)利用得到的转向向量来建立波束形成器;(4)将频域的所述多个声音信号输入至波束形成器以相乘叠加,以获得单一声音信号;(5)对所获得的单一的声音信号进行反傅立叶变换,以获得时域的聚束后声音信号。
接着,在步骤S333中,语音纯化电路122对所述聚束后声音信号执行噪音压抑操作,以获得目标语音信号。
图4D是依照本发明的一实施例所绘示的噪音压抑操作的示意图。请参照图4D,图4D上方是一个聚束后声音信号的信号波形图。聚束后声音信号中具有多个噪音区段与非噪音区段410、420、430。所述非噪音区段410、420、430为对应所述声源角度的声音信号。
具体来说,语音纯化电路122根据上述的噪音信息与人声频带,利用两步估测法(Two-Step Noise Reduction,TSNR)与谐波重建法(Harmonic Regeneration NoiseReduction),经由维纳滤波器(Wiener Filter),降低所述聚束后声音信号中的噪音的声强,以获得纯化后声音信号。所述两步估测法可避免运算时所造成的音框延迟;所述谐波重建法,可避免过度压抑噪音而产生声音信号的失真。在本实施例中,维纳滤波器可用于压抑稳态的背景噪音。此外,在本实施例中,语音纯化电路122可进一步利用所述噪音信息来补足维纳滤波器的缺陷。如上述,所述噪音信息为适应性背景噪音信息,即,在语音识别操作中所识别出的暂态噪音的相应信息。语音纯化电路122可相应地利用目前环境中的暂态噪音的噪音信息经由所述两步估测法与所述谐波重建法来压抑声音信息中的暂态噪音。若没有检测到任何语音活动,所识别出的环境噪音可对应地被持续更新,以使适应性背景噪音信息可持续地根据环境噪音的变化而对应地更新。应注意的是,在上述的噪音压抑操作中,语音纯化电路122会根据人声频带(300Hz至3400Hz),仅保留聚束声音信号中于这频带范围内的声音信号,并且移除这频带范围之外的声音信号。
也就是说,请参照图4D,如箭头A21所示,图4D上方的聚束后声音信号(亦可称,纯化后声音信号),可经由所执行的噪音压抑操作来获得目标语音信号。具体来说,非噪音区段410、420、430中的声音信号的波形经过噪音压抑操作后,会变成更为清晰的声音信号(如,非噪音区段411、421、431),其中的噪声(如,噪音所导致的声音信号的噪声)也会被消除。于一实施例中,语音纯化电路122使用目标声强门限值来从纯化后声音信号中识别目标语音信号。语音纯化电路122可从非噪音区段411、421、431中识别所述目标语音信号。所述目标语音信号的声强大于目标声强门限值。例如,上述非噪音区段411、421、431中的声音信号的声强皆大于目标声强门限值,并且非噪音区段411、421、431中的声音信号皆为合格的目标语音信号。被识别出的目标语音信号会被语音纯化电路122所获取,并且被用于后续的语音指令映射阶段(即,步骤S34~S35)。以下会利用图5A、5B来说明语音指令映射阶段的细节。
图5A至5B是依照本发明的一实施例所绘示的语音指令识别方法的语音指令映射阶段的流程示意图。
请同时参照图3A与5A,在步骤S34中,语音指令映射电路123基于所述目标语音信号,经由复合式语音识别模型来计算对应所述目标语音信号的复合式语音特征数据。详细来说,复合式语音识别模型包括第一复合式语音识别模型511与第二复合式语音识别模型512。
所述第一复合式语音识别模型511包括MFs(Mel-scale Frequency)滤波器与IMFs(Inverse Mel-scale Frequency)滤波器。其中MFs滤波器根据人耳听觉系统的特性,将频率信号转换为Mel刻度,以模拟人耳对声音的感受。所述IMFs滤波器主要是补足原始MFs滤波器在频率-声强结构上的不足(IMFs滤波器的频率-声强结构相似于MFs滤波器的频率-声强结构的镜像)。所述第一复合式语音识别模型511用来强化语者声纹。
所述第二复合式语音识别模型512包括GFs(Gammatone-scale Frequency)滤波器与IGFs(Inverse Gammatone-scale Frequency)滤波器。GFs滤波器可将保留语音中的关键的模板特征,并且对其中的噪声加以模糊化。换言之,GFs滤波器会使所获得的语音特征数据具有较高的抗噪性。所述IGFs滤波器主要是补足原始GFs滤波器在频率-声强结构上的不足(IGFs滤波器的频率-声强结构相似于GFs滤波器的频率-声强结构的镜像)。所述第二复合式语音识别模型512用来强化语音特征。
如此一来,由于复合式语音识别模型同时利用了上述的滤波器,可以同时保留目标语音信号的声纹特征,并且提高目标语音信号的抗噪性。
请参照图5A,在本实施例中,语音指令映射电路123输入所述目标语音信号至所述复合式语音识别模型中的第一复合式语音识别模型511(步骤S51-1),以获得第一复合式语音特征数据521(如,Compound Mel Features,CMF)(步骤S52-1),并且输入所述目标语音信号至所述复合式语音识别模型中的第二复合式语音识别模型512(步骤S51-2),以获得第二复合式语音特征数据522(如,Compound Gammatone Features,CGF)(步骤S52-2)。
语音指令映射电路123对所述第一复合式语音特征数据与所述第二复合式语音特征数据执行特征压缩操作(步骤S53-1、S53-2),以获得压缩后第一复合式语音特征数据531(如,Compressed Compound Mel Features,CCMF)与压缩后第二复合式语音特征数据532(如,Compressed Compound Gammatone Feature,CCGF)。所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据为所述复合式语音特征数据。由于经由所述特征压缩操作所获得的复合式语音特征数据的数据量远小于所述第一复合式语音特征数据与所述第二复合式语音特征数据。如此一来,对于复合式语音特征数据的语音映射操作的运算量也会大量减少,进而减少了运算时间。
在本实施例中,处理器130可接收用户的输入操作,以启动电子装置10的训练模式。在此训练模式中,用户可指定要训练的电子装置的目标指令,并且说出对应的语音,以使语音指令管理电路单元120可在获得对应此语音的目标语音信号的复合式语音特征数据后,判定此复合式语音特征数据为对应此目标指令的训练用的复合式语音特征数据,并且将此复合式语音特征数据存储至对应的语音特征数据库,以成为参考语音特征数据。
也就是说,反应于判定所述电子装置10处于对应所述目标指令的所述训练模式,语音指令映射电路123存储所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据于所述语音特征数据库(如,分别存储于第一语音特征数据库141-1与第二语音特征数据库141-2)中,以成为参考语音特征数据,并且所存储的所述压缩后第一复合式语音特征数据与所存储的所述压缩后第二复合式语音特征数据被映射至所述目标指令。
相对地,反应于判定所述电子装置10不处于所述训练模式,语音指令映射电路123分别对所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据执行语音映射操作S35-1、S35-2,以藉由存储在第一语音特征数据库141-1与第二语音特征数据库141-2的多个参考语音特征数据来判断所述目标语音信号所映射的所述目标指令。应注意的是,本发明并不限定于压缩所述复合式语音特征数据的方式。
请再参照图3A,在获得所述复合式语音特征数据,在步骤S35中,语音指令映射电路123经由动态时间规整(Dynamic Time Wraping,DTW)的方式,比对所述复合式语音特征数据与语音特征数据库141中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令。
具体来说,请参照图5B,以压缩后第一复合式语音特征数据531为例子。首先,语音指令映射电路123会经由所述动态时间规整的方式,将所述复合式语音特征数据来比对所述语音特征数据库中的多笔参考语音特征数据,以从所述多笔参考语音特征数据中识别k个最终最近参考语音特征数据(步骤S54-1)。应注意的是,在步骤S54-1中,会利用所述动态时间规整的方式以及最近邻居法的概念来从第一语音数据库141-1中依照时间顺序找出k个最近参考语音特征数据。在最后的时间点所找出的k个最近参考语音特征数据即为所述k个最终最近参考语音特征数据,其中每个最终最近参考语音特征数据会映射一个指令。所述k为预先设定的正整数。
以下先利用图7A、7B来说明本实施例所使用的动态时间规整的方式的细节。
图7A是依照本发明的一实施例所绘示的用以计算特征数据之间的距离的矩阵的示意图。举例来说,假设目前欲计算语音特征数据S与参考语音特征数据K1之间的距离。此外,语音特征数据S具有3个音框数,如,S=[Vf1,Vf2,Vf3],其中每个Vf为对应3个音框的多个特征向量的集合(如,Vf1为对应第一个音框的特征向量的集合)。参考语音特征数据K1具有4个音框数,如,K1=[K1F1,K1F2,K1F3,K1F4],其中每个K1F为对应的音框的4个特征向量的集合(如,K1F1为对应参考语音特征数据K1中第一个音框的特征向量的集合)。
请参照图7A,为了计算语音特征数据S与参考语音特征数据K1之间的距离,语音指令映射电路123建立一个距离矩阵M1,所述距离矩阵M1的维度是根据语音特征数据S与参考语音特征数据K1各自的音框数来决定的。以此例,语音特征数据S的音框数为3,参考语音特征数据K1的音框数为4。因此距离矩阵M1为4*3的矩阵。
接着,语音指令映射电路123利用下列公式来计算距离矩阵M1的每个元素的数值。所述元素可代表语音特征数据S与参考语音特征数据K1的对应的音框的多个特征向量之间的距离。假设每个音框有147个特征向量。
图7A中的距离矩阵M1的各元素aij的值等于M1(i,j)。例如,
所述元素a11为语音特征数据S的第一个音框的147个特征向量与参考语音特征数据K1的第一个音框的147个特征向量之间的距离。以此类推,可计算出距离矩阵M1的每个元素的值。矩阵计算的顺序为从左而右,从上而下。即,先计算a11,a12,a13,再计算a21,a 22,a23,再计算a31,a32,a33,再计算a41,a42,a43。
图7B是依照本发明的一实施例所绘示的经由动态时间规整比对参考语音特征数据的流程图。请参照图7B,图7B的步骤S71~S80可视为图5B中的步骤S54-1的流程步骤。“h”用以辨别当前与压缩后第一复合式语音特征数据进行比较的第一语音特征数据库141-1的参考语音特征数据,并且所述h的初始为1(表示第“1”个与压缩后第一复合式语音特征数据进行比较的参考语音特征数据,意即上述的第“1”个参考语音特征数据为参考语音特征数据K1,将参考语音特征数据K1与压缩后第一复合式语音特征数据进行比较,第“2”个参考语音特征数据即为参考语音特征数据K2,以此类推)。以压缩后第一复合式语音特征数据为例,所述在步骤S71中,语音指令映射电路123经由动态时间规整来计算压缩后第一复合式语音特征数据与第h个参考语音特征数据的距离矩阵。计算距离矩阵的方法已经说明如上,不赘述于此。在步骤S72中,语音指令映射电路123判断h是否大于k。若不大于k(步骤S72→否),接续至步骤S73,语音指令映射电路123存储对应所述第h个参考语音特征数据的所述距离矩阵,并且设定所述第h个参考语音特征数据为候选参考语音特征数据。接着,在步骤S74中,语音指令映射电路123判断h是否等于k。若不等于k(步骤S74→否),接续至步骤S76,h=h+1,即,语音指令映射电路123将h加上1,选择下一个参考语音特征数据。接着,流程再回到步骤S71。
若在步骤S74中,判定h等于k(步骤S74→是),并且流程接续至步骤S75。此时,语音指令映射电路123可知道目前已经设定的候选参考语音特征数据的总数目等于预先设定的k。在步骤S75中,语音指令映射电路123初始化终止阈值。具体来说,语音指令映射电路123从对应k个候选参考语音特征数据的距离矩阵的多个元素(距离)中找寻最大者(最大距离值),并且将终止阈值的数值设定为所找到的最大距离值。接着,执行步骤S76,h的值又加1。
若在步骤S72中,语音指令映射电路123判定h大于k,接续至步骤S77,语音指令映射电路123判断对应所述第h个参考语音特征数据的所述距离矩阵是否具有大于所述终止阈值的距离值。具体来说,语音指令映射电路123会比较所述第h个参考语音特征数据的所述距离矩阵中的每个元素(距离值)与所述终止阈值。若不大于(步骤S77→否),接续至步骤S78;若大于(步骤S77→是),接续至步骤S80。
在一实施例中,在h大于k后,于执行步骤S77,即,计算所述第h个参考语音特征数据的所述距离矩阵的过程中,语音指令映射电路123会比较距离矩阵的每一个元素(距离值)与终止阈值。当距离矩阵中有一行的距离值皆大于所述终止阈值时,就停止计算距离矩阵的其他距离值,并且接续至步骤S80,可加速寻找k个最终最近参考语音特征数据的运算速度。
在步骤S78中,语音指令映射电路123存储对应所述第h个参考语音特征数据的所述距离矩阵,并且设定所述第h个参考语音特征数据为候选参考语音特征数据。具体来说,语音指令映射电路123设定所述第h个参考语音特征数据为候选参考语音特征数据(候选参考语音特征数据的总数目为k+1),并且从所有的候选参考语音特征数据删除具有终止阈值的候选参考语音特征数据,以保留k个候选参考语音特征数据。
接着,在步骤S79中,语音指令映射电路123更新终止阈值。即,语音指令映射电路123,会找寻当前的k个候选参考语音特征数据的多个距离矩阵的多个距离值中的最大者,并且将此最大者设定为新的终止阈值。
接着,在步骤S80中,语音指令映射电路123判断h是否等于第一语音特征数据库的参考语音特征数据总数目。若是(S80→是),语音指令映射电路123会判定第一语音特征数据库的所有参考语音特征数据皆已经由动态时间规整的方式来与压缩后第一复合式语音特征数据计算出对应的距离矩阵,并且当前的所设定的k个候选参考语音特征数据即为所述k个最终最近参考语音特征数据。接着,语音指令映射电路123执行步骤S55-1;若否(S80→否),流程接续至步骤S76。如此一来,经由图7B所述的流程,语音指令映射电路123可以找到k个最终最近参考语音特征数据。
请再回到图5B,在找出所述k个最终最近参考语音特征数据后,语音指令映射电路123会对k个最终最近参考语音特征数据来进行分群及权重分配(步骤S55-1)。以下利用图6来说明。应注意的是,压缩后第二复合式语音特征数据532的语音映射操作相似于压缩后第一复合式语音特征数据531的语音映射操作,不再赘述于此。
图6是依照本发明的一实施例所绘示的分群及权重分配的示意图。举例来说,如图6中的例子,假设压缩后第一复合式语音特征数据为目标特征值TF,k被设定为6,并且于多个参考语音特征数据DB1~DB15中,k个最终最近参考语音特征数据为DB1~DB6,其中最终最近参考语音特征数据DB1~DB4映射至电子装置10的多个指令中的第一指令,并且最终最近参考语音特征数据DB5~DB6映射至第二指令。此外,信心阈值被设定为3。
语音指令映射电路123会计算所述复合式语音特征数据分别与所述k个最终最近参考语音特征数据DB1~DB6之间的k个距离D1~D6,根据k个距离D1~D6的大小来分别赋予所述k个最终最近参考语音特征数据一次序权重值,其中越小的距离对应越大的次序权重值。如表600所示,语音指令映射电路123可依据距离D1~D6,由近至远,来识别对应的接近次序,将所述k个最终最近参考语音特征数据DB1~DB6依据对应的接近次序来排序,并且根据接近次序赋予对应的次序权重值(即,接近次序越前方,对应的次序权重值越大)。如,根据接近次序为“1、2、3、4、5、6”,将最终最近参考语音特征数据的次序权重值依序设定为“1、0.85、0.8、0.75、0.7、0.65”。
接着,语音指令映射电路123根据所述k个最终最近参考语音特征数据的所述次序权重值对所述k个最终最近参考语音特征数据所映射的一或多个指令分别进行权重加总运算,以获得所述一或多个指令各自的总权重值。例如,于一实施例中,依据距离赋予所述k个最终最近参考语音特征数据DB1~DB6的所述次序权重值分别为1、0.65、0.7、0.85、0.8、0.75。则,对应第一指令的总权重值即为映射至第一指令的最终最近参考语音特征数据DB1~DB4的次序权重值1、0.65、0.7、0.85的总和(即,3.2);对应第二指令的总权重值即为映射至第二指令的最终最近参考语音特征数据DB5~DB6的次序权重值0.8、0.75的总和(即,1.55)。
在计算出总权重值后,语音指令映射电路123根据所述一或多个总权重值中的最大总权重值与一信心阈值来判断所述一或多个指令中是否具有映射至所述目标语音信号的所述目标指令(步骤S56-1),其中反应于所述最大总权重值大于所述信心阈值,语音指令映射电路123判定所述一或多个指令中对应所述最大总权重值的指令为所述目标语音信号所映射的所述目标指令,其中反应于所述最大总权重值不大于所述信心阈值,语音指令映射电路123判定所述目标语音信号为噪音。被判定为噪音的目标语音信号也可用来更新噪音信息。
例如,在此例子中,由于最大的总权重值是对应第一指令的总权重值,并且对应第一指令的总权重值大于信心阈值(即,3.2>3)。语音指令映射电路123判定对应第一指令的总权重值具有可信度,并且第一指令即为目标语音信号所映射的目标指令(步骤S57-1)。语音指令映射电路123会输出目标语音信号所映射的目标指令给处理器130(步骤S58-1)。应注意的是,当步骤S57-1与S57-2所判定的目标指令不同时,于步骤S59中,语音指令映射电路123会进一步加总于步骤S55-1、S55-2的相同指令的总权重值,以获得统合的多个指令的总权重值,并且判定具有最大总权重值的指令为目标指令。
接着,请回到图3A,在判定目标语音信号所映射的目标指令后,语音指令映射电路123会告知处理器130,并且在步骤S36中,处理器130执行所述目标指令。所述目标指令的详细的指令叙述内容已经记载于电子装置10的固件中,并且所述处理器130可根据所述目标指令的所述指令叙述内容来执行所述目标指令,本发明并不限定于所述目标指令的详细指令叙述内容。
应注意的是,上述语音识别操作并不会经由网络连线或是其他连线来使用其他电子装置来以执行。换言之,上述语音识别操作皆可经由电子装置10中的语音指令管理电路单元120独立执行完成。也因为没有连线至其他外部装置,用户个人数据的安全性也得以保障。
值得一提的是,在本范例实施例中,语音指令管理电路单元120是以硬件电路实施,但本发明不限于此。语音指令管理电路单元120可以程序代码或软件来实现相同于语音指令管理电路单元120的功能,并且被存储在存储单元140中。例如,语音指令管理电路单元120的功能可实作为以多个程序指令所组成的语音指令管理模块,其包括语音触发模块、语音纯化模块及语音指令映射模块。并且,语音指令管理模块可由处理器130来执行以完成上述语音指令管理电路单元120的功能。换言之,本发明的上述方法可实现在软件或固件中,或者可实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码。另外,当处理器130存取上述的程序代码模块,以实现在上述语音识别方法时,所述电子装置10也转变为特定功能的可处理上述语音识别操作的专用电子装置。
综上所述,本发明的实施例所提供的电子装置及适用于所述电子装置的语音识别方法,可在不需要连接网络的情况下,独立利用较少的运算资源来判断语音指令的存在而触发后续的语音纯化操作,藉由语音纯化操作强化语音指令(对应目标指令的语音)的清晰程度,并且藉由复合式语音识别模型与动态时间规整来较准确地判定用户所说的语音指令是映射至电子装置的目标指令,进而使电子装置可有效率地被用户的语音所控制。此外,由于可不经由连接网络而完成语音指令映射操作,本发明的实施例更可避免用户个人数据经由网络连线而外泄,进而保障了用户个人数据的安全性,并且适用于需要对个人数据保密的特定电子装置(如,个人辅助器具、医疗设备等…)。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,本领域技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视后附的权利要求所界定者为准。
【符号说明】
10:电子装置
20:用户
31、32:其他电子装置
SD1、SD1’、SD2、SD3:声音
SR1、SR1’:声源
C10:中心点
110:麦克风阵列
110(1)~110(8):麦克风
120:语音指令管理电路单元
121:语音触发电路
122:语音纯化电路
123:语音指令映射电路
130:处理器
140:存储单元
141、141-1、141-2:语音特征数据库
150:输入/输出单元
160:连接接口电路单元
S31、S32、S33、S34、S35、S36:语音识别方法的流程步骤
S321、S322、S323、S324:语音识别方法的步骤S32的流程步骤
S331、S332、S333、S334:语音识别方法的步骤S33的流程步骤
T1~T8:时间
Td15、Td51、Td26、Td62、Td37、Td73、Td48、Td84:时间差
m1~m8:时间差移动平均
A41、A42:箭头
410、411、420、421、430、431:区域
510、511、512:复合式语音识别模型
521、522、531、532:特征数据
S51-1、S51-2、S52-1、S52-2、S53-1、S53-2、S35-1、S35-2、S54-1、S54-2、S55-1、S55-2、S56-1、S56-2、S57-1、S57-2、S58-1、S58-2、S59:语音指令映射阶段的步骤
DB1~DB15:参考语音特征数据
600:表格
D1~D6:距离
TF:对应目标语音信号的复合式语音特征数据
Claims (20)
1.一种电子装置,包括:
一麦克风阵列,所述麦克风阵列获得多个声音信号;
一语音指令管理电路单元,耦接所述麦克风阵列:
一存储单元,用以存储一语音特征数据库,耦接所述语音指令管理电路单元;以及
一处理器,耦接所述语音指令管理电路单元,其中
所述语音指令管理电路单元对所述多个声音信号执行一语音纯化操作,以获得纯化后声音信号,并且从纯化后声音信号中识别一目标语音信号,
其中所述语音指令管理电路单元经由一复合式语音识别模型计算对应所述目标语音信号的一复合式语音特征数据,其中,所述复合式语音特征数据包括一压缩后第一复合式语音特征数据与一压缩后第二复合式语音特征数据;
其中所述语音指令管理电路单元比对所述复合式语音特征数据与所述语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令,其中所述多笔参考语音特征数据的每一笔参考语音特征数据映射至所述电子装置的多个指令中的其中之一,且其中,比对所述复合式语音特征数据与所述语音特征数据库中的多笔参考语音特征数据包括:分别对所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据执行语音映射操作;
其中所述处理器执行所述目标指令。
2.如权利要求1所述的电子装置,其中所述语音指令管理电路单元更用以从所述多个声音信号中的一第一声音信号中识别一第一触发语音信号,
其中所述语音指令管理电路单元根据所述第一声音信号的声强,识别所述第一声音信号中声强大于触发声强门限值的部分第一声音信号,
其中所述语音指令管理电路单元判断所述部分第一声音信号的持续时间是否小于触发时间门限值,
其中反应于所述部分第一声音信号的所述持续时间小于所述触发时间门限值,判定所述部分第一声音信号为第一触发语音信号,
其中反应于所述部分第一声音信号的所述持续时间不小于所述触发时间门限值,判定所述部分第一声音信号为噪音。
3.如权利要求2所述的电子装置,其中
所述语音指令管理电路单元根据被判定为噪音的所述部分第一声音信号来更新一噪音信息,其中所述噪音信息被用于所述语音纯化操作中的噪音压抑操作中。
4.如权利要求2所述的电子装置,其中在所述语音指令管理电路单元更用以对所述多个声音信号执行所述语音纯化操作,以获得所述纯化后声音信号,并且从所述纯化后声音信号中识别所述目标语音信号的操作中,
所述语音指令管理电路单元根据所述第一触发语音信号,计算对应多个声音信号的多个时间差,以获得对应所述第一触发语音信号的一声源角度,
其中所述语音指令管理电路单元根据所述声源角度对所述多个声音信号执行一声音聚束操作,以产生聚束后声音信号,其中所述聚束后声音信号为所述纯化后声音信号,
其中所述语音指令管理电路单元对所述聚束后声音信号执行一噪音压抑操作,以获得目标语音信号。
5.如权利要求4所述的电子装置,其中所述第一声音信号为所述麦克风阵列的多个麦克风中的一第一麦克风根据所接收的声音所产生,其中所述多个麦克风中非所述第一麦克风的多个第二麦克风根据所接收的所述声音产生多个第二声音信号,
其中所述语音指令管理电路单元识别所述第一触发语音信号与所述多个第二声音信号的多个起始时间,计算多个时间差,
所述语音指令管理电路单元根据所述多个时间差,计算对应所述多个时间差的多个时间差移动平均,
所述语音指令管理电路单元选择所述多个时间差移动平均中为负值的多个目标时间差移动平均,
根据所述多个目标时间差移动平均与对应所述多个目标时间差移动平均的多个对应角度来计算所述声源角度。
6.如权利要求4所述的电子装置,其中在所述声音聚束操作中,
所述语音指令管理电路单元根据所述声源角度,识别每一所述多个声音信号中对应所述声源角度的聚束部分与非聚束部分,
所述语音指令管理电路单元增加每一所述多个声音信号中的所述聚束部分的声强,减少每一所述多个声音信号中的所述非聚束部分的声强,并且根据所述声源角度与对应所述多个麦克风的多个时间差来将所述多个声音信号中的所述聚束部分相加,以获得所述聚束后声音信号。
7.如权利要求4所述的电子装置,其中在所述噪音压抑操作中,
所述语音指令管理电路单元根据一噪音信息,利用两步估测法与谐波重建法,经由维纳滤波器,降低所述聚束后声音信号中的噪音的声强,以获得所述目标语音信号,其中所述目标语音信号的声强大于一目标声强门限值。
8.如权利要求1所述的电子装置,其中在上述所述语音指令管理电路单元经由所述复合式语音识别模型来计算对应所述目标语音信号的复合式语音特征数据的操作中,
所述语音指令管理电路单元输入所述目标语音信号至所述复合式语音识别模型中的一第一复合式语音识别模型,以获得一第一复合式语音特征数据,并且输入所述目标语音信号至所述复合式语音识别模型中的一第二复合式语音识别模型,以获得一第二复合式语音特征数据,
所述语音指令管理电路单元对所述第一复合式语音特征数据与所述第二复合式语音特征数据执行特征压缩操作,以获得所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据,其中反应于判定所述电子装置处于对应所述目标指令的训练模式,所述语音指令管理电路单元存储所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据于所述语音特征数据库中以成为参考语音特征数据,并且所存储的所述压缩后第一复合式语音特征数据与所存储的所述压缩后第二复合式语音特征数据被映射至所述目标指令,
其中反应于判定所述电子装置不处于所述训练模式,所述语音指令管理电路单元分别对所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据执行语音映射操作,以判断所述目标语音信号所映射的所述目标指令。
9.如权利要求8所述的电子装置,其中所述第一复合式语音识别模型包括MFs(Mel-scale Frequency)滤波器与IMFs(Inverse Mel-scale Frequency)滤波器,并且所述第二复合式语音识别模型包括GFs(Gammatone-scale Frequency)滤波器与IGFs(InverseGammatone-scale Frequency)滤波器。
10.如权利要求1所述的电子装置,其中在上述所述语音指令管理电路单元比对所述复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的所述目标指令的操作中,
所述语音指令管理电路单元经由动态时间规整的方式,比对所述复合式语音特征数据与所述语音特征数据库中的所述多笔参考语音特征数据,以从所述多笔参考语音特征数据中识别k个最终最近参考语音特征数据,
所述语音指令管理电路单元计算所述复合式语音特征数据分别与所述k个最终最近参考语音特征数据之间的距离,
所述语音指令管理电路单元根据所述距离的大小来分别赋予所述k个最终最近参考语音特征数据一次序权重值,其中越小的所述距离对应越大的所述次序权重值,
所述语音指令管理电路单元根据所述k个最终最近参考语音特征数据的所述次序权重值对所述k个最终最近参考语音特征数据所映射的一或多个指令分别进行权重加总运算,以获得所述一或多个指令各自对应的总权重值,
所述语音指令管理电路单元比对所述一或多个总权重值中的最大总权重值与一信心阈值,
其中反应于所述最大总权重值大于所述信心阈值,所述语音指令管理电路单元判定所述一或多个指令中对应所述最大总权重值的指令为所述目标语音信号所映射的所述目标指令,
其中反应于所述最大总权重值不大于所述信心阈值,所述语音指令管理电路单元判定所述目标语音信号为噪音。
11.一种语音指令识别方法,适用于具有一麦克风阵列的电子装置,所述方法包括:
经由所述麦克风阵列获得多个声音信号;
对所述多个声音信号执行一语音纯化操作,以获得纯化后声音信号,并且从纯化后声音信号中识别一目标语音信号;
经由一复合式语音识别模型来计算对应所述目标语音信号的一复合式语音特征数据;其中,所述复合式语音特征数据包括一压缩后第一复合式语音特征数据与一压缩后第二复合式语音特征数据;
比对复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的目标指令;且其中,比对所述复合式语音特征数据与所述语音特征数据库中的多笔参考语音特征数据包括:分别对所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据执行语音映射操作;以及
执行所述目标指令。
12.如权利要求11所述的语音指令识别方法,更包括:
从所述多个声音信号中的一第一声音信号中识别一第一触发语音信号;
根据所述第一声音信号的声强,识别所述第一声音信号中声强大于触发声强门限值的部分第一声音信号;以及
判断所述部分第一声音信号的持续时间是否小于触发时间门限值,
其中反应于所述部分第一声音信号的所述持续时间小于所述触发时间门限值,判定所述部分第一声音信号为第一触发语音信号;以及
其中反应于所述部分第一声音信号的所述持续时间不小于所述触发时间门限值,判定所述部分第一声音信号为噪音。
13.如权利要求12所述的语音指令识别方法,更包括:
根据被判定为噪音的所述部分第一声音信号来更新一噪音信息,其中所述噪音信息被用于所述语音纯化操作中的噪音压抑操作中。
14.如权利要求12所述的语音指令识别方法,其中对所述多个声音信号执行所述语音纯化操作,以获得所述纯化后声音信号,并且从所述纯化后声音信号中识别所述目标语音信号的步骤包括:
根据所述第一触发语音信号,计算对应多个声音信号的多个时间差,以获得对应所述第一触发语音信号的一声源角度;
根据所述声源角度对所述多个声音信号执行一声音聚束操作,以产生聚束后声音信号,其中所述聚束后声音信号为所述纯化后声音信号;以及
对所述聚束后声音信号执行一噪音压抑操作,以获得目标语音信号。
15.如权利要求14所述的语音指令识别方法,其中所述第一声音信号为所述麦克风阵列的多个麦克风中的一第一麦克风根据所接收的声音所产生,其中所述多个麦克风中非所述第一麦克风的多个第二麦克风根据所接收的所述声音产生多个第二声音信号,
识别所述第一触发语音信号与所述多个第二声音信号的多个起始时间,计算多个时间差;
根据所述多个时间差,计算对应所述多个时间差的多个时间差移动平均;
选择所述多个时间差移动平均中为负值的多个目标时间差移动平均;以及
根据所述多个目标时间差移动平均与对应所述多个目标时间差移动平均的多个对应角度来计算所述声源角度。
16.如权利要求14所述的语音指令识别方法,其中所述声音聚束操作包括:
根据所述声源角度,识别每一所述多个声音信号中对应所述声源角度的聚束部分与非聚束部分;以及
增加每一所述多个声音信号中的所述聚束部分的声强,减少每一所述多个声音信号中的所述非聚束部分的声强,并且根据所述声源角度与对应所述多个麦克风的多个时间差来将所述多个声音信号中的所述聚束部分相加,以获得所述聚束后声音信号。
17.如权利要求14所述的语音指令识别方法,其中所述噪音压抑操作包括:
根据一噪音信息,利用两步估测法与谐波重建法,经由维纳滤波器,降低所述聚束后声音信号中的噪音的声强,以获得所述目标语音信号,其中所述目标语音信号的声强大于一目标声强门限值。
18.如权利要求11所述的语音指令识别方法,其中经由所述复合式语音识别模型来计算对应所述目标语音信号的复合式语音特征数据的步骤包括:
输入所述目标语音信号至所述复合式语音识别模型中的一第一复合式语音识别模型,以获得一第一复合式语音特征数据,并且输入所述目标语音信号至所述复合式语音识别模型中的一第二复合式语音识别模型,以获得一第二复合式语音特征数据;
对所述第一复合式语音特征数据与所述第二复合式语音特征数据执行特征压缩操作,以获得所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据;
反应于判定所述电子装置处于对应所述目标指令的训练模式,存储所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据于所述语音特征数据库中以成为参考语音特征数据,其中所存储的所述压缩后第一复合式语音特征数据与所存储的所述压缩后第二复合式语音特征数据被映射至所述目标指令;
反应于判定所述电子装置不处于所述训练模式,分别对所述压缩后第一复合式语音特征数据与所述压缩后第二复合式语音特征数据执行语音映射操作,以判断所述目标语音信号所映射的所述目标指令。
19.如权利要求18所述的语音指令识别方法,其中所述第一复合式语音识别模型包括MFs(Mel-scale Frequency)滤波器与IMFs(Inverse Mel-scale Frequency)滤波器,并且所述第二复合式语音识别模型包括GFs(Gammatone-scale Frequency)滤波器与IGFs(Inverse Gammatone-scale Frequency)滤波器。
20.如权利要求11所述的语音指令识别方法,其中所述比对所述复合式语音特征数据与语音特征数据库中的多笔参考语音特征数据,以判断所述目标语音信号所映射的所述目标指令的步骤包括:
经由动态时间规整的方式,比对所述复合式语音特征数据与语音特征数据库中的所述多笔参考语音特征数据,以从所述多笔参考语音特征数据中识别k个最终最近参考语音特征数据;
计算所述复合式语音特征数据分别与所述k个最终最近参考语音特征数据之间的距离;
根据所述距离的大小来分别赋予所述k个最终最近参考语音特征数据一次序权重值,其中越小的所述距离对应越大的所述次序权重值;
根据所述k个最终最近参考语音特征数据的所述次序权重值对所述k个最终最近参考语音特征数据所映射的一或多个指令分别进行权重加总运算,以获得所述一或多个指令各自对应的总权重值;以及
比对所述一或多个总权重值中的最大总权重值与一信心阈值,
其中反应于所述最大总权重值大于所述信心阈值,判定所述一或多个指令中对应所述最大总权重值的指令为所述目标语音信号所映射的所述目标指令,
其中反应于所述最大总权重值不大于所述信心阈值,判定所述目标语音信号为噪音。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108101163 | 2019-01-11 | ||
TW108101163A TWI719385B (zh) | 2019-01-11 | 2019-01-11 | 電子裝置及其語音指令辨識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111508485A CN111508485A (zh) | 2020-08-07 |
CN111508485B true CN111508485B (zh) | 2023-11-07 |
Family
ID=71517727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910136770.1A Active CN111508485B (zh) | 2019-01-11 | 2019-02-25 | 电子装置及其语音指令识别方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10902853B2 (zh) |
CN (1) | CN111508485B (zh) |
TW (1) | TWI719385B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7063990B2 (ja) * | 2017-10-21 | 2022-05-09 | アップル インコーポレイテッド | 共用デバイス上の仮想アシスタントシステム用の個人ドメイン |
GB2578335B (en) * | 2019-02-04 | 2021-02-17 | Vaion Ltd | Video camera |
US11120790B2 (en) | 2019-09-24 | 2021-09-14 | Amazon Technologies, Inc. | Multi-assistant natural language input processing |
US11393477B2 (en) * | 2019-09-24 | 2022-07-19 | Amazon Technologies, Inc. | Multi-assistant natural language input processing to determine a voice model for synthesized speech |
US11715466B2 (en) * | 2019-11-21 | 2023-08-01 | Rovi Guides, Inc. | Systems and methods for local interpretation of voice queries |
US11361774B2 (en) * | 2020-01-17 | 2022-06-14 | Lisnr | Multi-signal detection and combination of audio-based data transmissions |
US11418876B2 (en) * | 2020-01-17 | 2022-08-16 | Lisnr | Directional detection and acknowledgment of audio-based data transmissions |
CN112653756B (zh) * | 2020-12-20 | 2022-09-06 | 国网山东省电力公司临沂供电公司 | 物联网智能数据处理系统及方法 |
CN113436623A (zh) * | 2021-05-24 | 2021-09-24 | 青岛海尔空调器有限总公司 | 一种空调器的语音控制方法及空调器 |
CN113335205B (zh) * | 2021-06-09 | 2022-06-03 | 东风柳州汽车有限公司 | 语音唤醒方法、装置、设备及存储介质 |
US11922938B1 (en) | 2021-11-22 | 2024-03-05 | Amazon Technologies, Inc. | Access to multiple virtual assistants |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9401140B1 (en) * | 2012-08-22 | 2016-07-26 | Amazon Technologies, Inc. | Unsupervised acoustic model training |
US9659555B1 (en) * | 2016-02-09 | 2017-05-23 | Amazon Technologies, Inc. | Multichannel acoustic echo cancellation |
CN106782522A (zh) * | 2015-11-23 | 2017-05-31 | 宏碁股份有限公司 | 语音控制方法及语音控制系统 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007018293A1 (ja) * | 2005-08-11 | 2007-02-15 | Asahi Kasei Kabushiki Kaisha | 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム |
JP5156260B2 (ja) * | 2007-04-27 | 2013-03-06 | ニュアンス コミュニケーションズ,インコーポレイテッド | 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム |
US8290782B2 (en) * | 2008-07-24 | 2012-10-16 | Dts, Inc. | Compression of audio scale-factors by two-dimensional transformation |
US20130282373A1 (en) * | 2012-04-23 | 2013-10-24 | Qualcomm Incorporated | Systems and methods for audio signal processing |
KR20140031790A (ko) * | 2012-09-05 | 2014-03-13 | 삼성전자주식회사 | 잡음 환경에서 강인한 음성 구간 검출 방법 및 장치 |
US20140278393A1 (en) * | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Apparatus and Method for Power Efficient Signal Conditioning for a Voice Recognition System |
US9654894B2 (en) * | 2013-10-31 | 2017-05-16 | Conexant Systems, Inc. | Selective audio source enhancement |
US9530407B2 (en) * | 2014-06-11 | 2016-12-27 | Honeywell International Inc. | Spatial audio database based noise discrimination |
US10360926B2 (en) * | 2014-07-10 | 2019-07-23 | Analog Devices Global Unlimited Company | Low-complexity voice activity detection |
WO2016033269A1 (en) * | 2014-08-28 | 2016-03-03 | Analog Devices, Inc. | Audio processing using an intelligent microphone |
CN104298722B (zh) * | 2014-09-24 | 2018-01-19 | 张鸿勋 | 多媒体交互系统及其方法 |
KR101988222B1 (ko) * | 2015-02-12 | 2019-06-13 | 한국전자통신연구원 | 대어휘 연속 음성 인식 장치 및 방법 |
US20160284349A1 (en) * | 2015-03-26 | 2016-09-29 | Binuraj Ravindran | Method and system of environment sensitive automatic speech recognition |
KR102405793B1 (ko) * | 2015-10-15 | 2022-06-08 | 삼성전자 주식회사 | 음성 신호 인식 방법 및 이를 제공하는 전자 장치 |
KR102476600B1 (ko) * | 2015-10-21 | 2022-12-12 | 삼성전자주식회사 | 전자 장치, 그의 음성 인식 방법 및 비일시적 컴퓨터 판독가능 기록매체 |
TWI656523B (zh) * | 2016-12-16 | 2019-04-11 | 群邁通訊股份有限公司 | 語音控制裝置、系統及控制方法 |
GB2560174B (en) * | 2017-03-01 | 2020-09-23 | Toshiba Kk | Training an automatic speech recognition system |
CN107146613A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 一种语音交互方法及装置 |
US10403299B2 (en) * | 2017-06-02 | 2019-09-03 | Apple Inc. | Multi-channel speech signal enhancement for robust voice trigger detection and automatic speech recognition |
CN107393548B (zh) * | 2017-07-05 | 2021-05-07 | 海信视像科技股份有限公司 | 多个语音助手设备采集的语音信息的处理方法及装置 |
US10657981B1 (en) * | 2018-01-19 | 2020-05-19 | Amazon Technologies, Inc. | Acoustic echo cancellation with loudspeaker canceling beamformer |
CN108390859B (zh) * | 2018-01-22 | 2021-03-23 | 深圳慧安康科技有限公司 | 一种对讲分机智能机器人装置 |
US10602268B1 (en) * | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
JP2020115206A (ja) * | 2019-01-07 | 2020-07-30 | シナプティクス インコーポレイテッド | システム及び方法 |
-
2019
- 2019-01-11 TW TW108101163A patent/TWI719385B/zh active
- 2019-02-25 CN CN201910136770.1A patent/CN111508485B/zh active Active
- 2019-04-17 US US16/386,277 patent/US10902853B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9401140B1 (en) * | 2012-08-22 | 2016-07-26 | Amazon Technologies, Inc. | Unsupervised acoustic model training |
CN106782522A (zh) * | 2015-11-23 | 2017-05-31 | 宏碁股份有限公司 | 语音控制方法及语音控制系统 |
US9659555B1 (en) * | 2016-02-09 | 2017-05-23 | Amazon Technologies, Inc. | Multichannel acoustic echo cancellation |
Also Published As
Publication number | Publication date |
---|---|
US20200227039A1 (en) | 2020-07-16 |
US10902853B2 (en) | 2021-01-26 |
TWI719385B (zh) | 2021-02-21 |
CN111508485A (zh) | 2020-08-07 |
TW202027061A (zh) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111508485B (zh) | 电子装置及其语音指令识别方法 | |
TWI502584B (zh) | 電腦實施的波束成形方法,波束成形系統及相關之非暫時性電腦可讀媒體 | |
CN110970057B (zh) | 一种声音处理方法、装置与设备 | |
WO2021022094A1 (en) | Per-epoch data augmentation for training acoustic models | |
WO2021093380A1 (zh) | 一种噪声处理方法、装置、系统 | |
WO2020034779A1 (zh) | 音频处理方法、存储介质及电子设备 | |
JP2007033825A (ja) | 音源分離装置,音源分離プログラム及び音源分離方法 | |
WO2020097824A1 (zh) | 音频处理方法、装置、存储介质及电子设备 | |
US10811033B2 (en) | Vibration sensor signal transformation based on smooth average spectrums | |
JP6966750B2 (ja) | ブラインド信号分離のための方法、装置及び電子デバイス | |
CN110475181B (zh) | 设备配置方法、装置、设备和存储介质 | |
KR20240017404A (ko) | 탠덤 네트워크들을 사용한 잡음 억제 | |
US20220208207A1 (en) | Audio signal processing method and system for echo suppression | |
JP2021033260A (ja) | 学習方法、話者識別方法、及び、プログラム | |
CN112997249B (zh) | 语音处理方法、装置、存储介质及电子设备 | |
CN109920433A (zh) | 嘈杂环境下电子设备的语音唤醒方法 | |
CN113223552B (zh) | 语音增强方法、装置、设备、存储介质及程序 | |
CN114302286A (zh) | 一种通话语音降噪方法、装置、设备及存储介质 | |
KR20150107520A (ko) | 음성인식 방법 및 장치 | |
WO2024016793A1 (zh) | 语音信号的处理方法、装置、设备及计算机可读存储介质 | |
CN116320144B (zh) | 一种音频播放方法及电子设备、可读存储介质 | |
KR102503895B1 (ko) | 음향 신호 처리 방법 및 장치 | |
US20220208209A1 (en) | Audio signal generation method and system | |
JP7304301B2 (ja) | 音響診断方法、音響診断システム、及び音響診断プログラム | |
JP6956929B2 (ja) | 情報処理装置、制御方法、及び制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |