CN114203156A - 音频识别方法、音频识别装置、电子设备和存储介质 - Google Patents
音频识别方法、音频识别装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114203156A CN114203156A CN202010991729.5A CN202010991729A CN114203156A CN 114203156 A CN114203156 A CN 114203156A CN 202010991729 A CN202010991729 A CN 202010991729A CN 114203156 A CN114203156 A CN 114203156A
- Authority
- CN
- China
- Prior art keywords
- audio signal
- audio
- playing
- filter coefficient
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000005236 sound signal Effects 0.000 claims abstract description 202
- 230000004044 response Effects 0.000 claims abstract description 68
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000012360 testing method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 14
- 238000001228 spectrum Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000012795 verification Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 239000010426 asphalt Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请公开了音频识别方法、音频识别装置、电子设备和存储介质,涉及语音技术、物联网、智能交通领域。具体实现方案为:该音频识别方法包括:获取经录制得到的第一音频信号;根据第一滤波系数对第一音频信号进行处理,得到第二音频信号,其中,第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和校准信号的频率响应计算得到的;以及对利用第一音频播放设备播放第二音频信号得到的声音进行识别。
Description
技术领域
本申请涉及计算机技术、语音处理技术领域,主要涉及语音识别技术、物联网、智能交通领域。尤其涉及一种音频识别方法、音频识别装置、电子设备和存储介质。
背景技术
随着语音处理技术的不断发展,语音识别技术在各行各业的应用日渐广泛,包括但不限于智能汽车,智能音箱的应用等等。具体地,例如,随着汽车智能网联技术的发展,语音识别技术在车辆上的应用日渐广泛。识别率作为车载语音识别性能的评价指标之一,在整个语音识别系统开发过程中具有非常重要的作用。相关技术中一般采用业务人员实地测试的方式对设备的语音识别性能进行测试,然而实地测试的方式受到外界干扰因素的限制,导致人力耗费,测试效率低。
发明内容
提供了一种音频识别方法、音频识别装置、电子设备和存储介质。
根据第一方面,提供了一种音频识别方法,包括:获取经录制得到的第一音频信号;根据第一滤波系数对上述第一音频信号进行处理,得到第二音频信号,其中,上述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和上述校准信号的频率响应计算得到的;以及对利用上述第一音频播放设备播放上述第二音频信号得到的声音进行识别。
根据第二方面,提供了一种音频识别装置,包括:第一获取模块,用于获取经录制得到的第一音频信号;第一处理模块,用于根据第一滤波系数对上述第一音频信号进行处理,得到第二音频信号,其中,上述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和上述校准信号的频率响应计算得到的;以及识别模块,用于对利用上述第一音频播放设备播放上述第二音频信号得到的声音进行识别。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,上述存储器存储有可被上述至少一个处理器执行的指令,上述指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行本申请上述的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,上述计算机指令用于使上述计算机执行本申请上述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1示意性示出了根据本公开实施例的可以应用音频识别方法及装置、电子设备和存储介质的示例性应用场景;
图2示意性示出了根据本公开实施例的音频识别方法的流程图;
图3示意性示出了根据本公开实施例的对利用第一音频播放设备播放第二音频信号得到的声音进行识别的流程图;
图4示意性示出了根据本公开另一实施例的音频识别方法的流程图;
图5示意性示出了根据本公开实施例的没有经过滤波系数处理的校准信号经过人工嘴播放的频谱示意图;
图6示意性示出了根据本公开实施例的经过滤波系数处理的校准信号经过人工嘴播放的频谱示意图;
图7示意性示出了根据本公开实施例的音频识别装置的框图;以及
图8示意性示出了根据本公开实施例的适于实现音频识别方法的计算机系统的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
随着语音识别技术的不断发展,语音识别技术在不同的应用领域得到了较为广泛的应用,用户对语音识别的性能要求也越来越高。为了提高设备出厂时的语音识别性能,需要不断的测试并优化语音识别功能。
相关技术中一般采用业务人员实地测试的方式对设备的语音识别性能进行测试,例如,在对车载语音进行识别时,需要到高速、柏油路、沥青路、下雨天等实地场景中对车载语音进行测试。再例如,在对音箱语音进行识别时,需要到音箱的使用场地,如客厅,厨房,会议室等场地进行实地测试。
然而,在实现本申请的过程中发现,实地测试的方式受到外界干扰因素的限制,如无法在路上长时间测试高速、柏油路、沥青路、下雨等场景,导致人力耗费,测试效率低。并且调优结果也不可靠,例如对于莱一场景,识别率较低,需要经过前端信号处理与语音引擎训练调优之后再验证,但是由于每个测试人员说话难以做到每次都一样,所以无法确定调优前和调优后的结果不同是因为调优的影响,还是因为测试人员说话状态不同产生的影响。
有鉴于此,本申请提供了一种音频识别方法及装置、电子设备和存储介质,其中,该方法包括:获取经录制得到的第一音频信号;根据第一滤波系数对上述第一音频信号进行处理,得到第二音频信号,其中,上述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和上述校准信号的频率响应计算得到的;以及对利用上述第一音频播放设备播放上述第二音频信号得到的声音进行识别。
图1示意性示出了根据本公开实施例的可以应用音频识别方法及装置、电子设备和存储介质的示例性应用场景。
需要注意的是,图1所示仅为可以应用本公开实施例的应用场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。例如,音频识别方法及装置、电子设备和存储介质的示例性应用场景可以是在家居场景中对智能音箱进行测试。
如图1所示,在该应用场景100中,交通工具110内有电子设备120和音频播放设备130。
交通工具110、电子设备120和音频播放设备130之间可以通过网络进行通信链接。网络可以包括各种连接类型,例如有线和/或无线通信链路等等。
根据本公开的实施例,语音识别系统可以设置在交通工具110或者电子设备120中,录制完成的音频文件可以存储在电子设备120中,电子设备120中可以设置音频播放程序,可以根据场景定义控制音频播放设备130播放不同的音频文件,音频文件可以包括人声、噪音等。语音识别系统可以对播放的声音进行识别,并输出识别结果,通过电子设备120可以验证识别结果的正确性。
在交通工具110、电子设备120和音频播放设备130之间通过网络进行通信链接之后,电子设备120可以将对经录制得到的音频信号进行滤波处理后得到的音频信号发送给音频播放设备130,音频播放设备130可以发送广播通知交通工具110或电子设备120开启语音识别系统进行识别,语音识别系统开启后音频播放设备130开始播放对应需要测试的识别词,在识别词播出一段时间后,可以再广播通知语音关闭识别,并统计这一次识别的结果。然后播放下一条,如此循环,指导播放完所有需要的场景。
根据本申请的实施例,可以实现一次录制多次验证调优的效果,在交通工具110静止的情况下,即可验证各种场景下语音的识别率,并且输出功率稳定可控,使得每一次调优的结果验证都可自动化完成,节省人力,并且验证结果高可靠。
交通工具110可以是具有语音识别系统的各种交通工具,包括但不限于汽车、飞机等等。
电子设备120可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机等等。
音频播放设备130可以是具有播放功能的各种播放设备,包括但不限于人工嘴、音箱等等。
需要说明的是,本公开实施例所提供的音频识别方法一般可以由电子设备120执行。相应地,本公开实施例所提供的音频识别装置也可以设置于电子设备120中。
或者,本公开实施例所提供的音频识别方法也可以由交通工具110和电子设备120共同执行。相应地,本公开实施例所提供的音频识别装置也可以设置于交通工具110和电子设备120中。例如,电子设备120获取经录制得到的第一音频信号,根据第一滤波系数对第一音频信号进行处理,得到第二音频信号,交通工具110对利用第一音频播放设备播放第二音频信号得到的声音进行识别。
或者,本公开实施例所提供的音频识别方法也可以由交通工具110执行。相应地,本公开实施例所提供的音频识别装置也可以设置于交通工具110中。例如,交通工具110获取经录制得到的第一音频信号,根据第一滤波系数对第一音频信号进行处理,得到第二音频信号,交通工具110对利用第一音频播放设备播放第二音频信号得到的声音进行识别。
应该理解,图1中的交通工具110、电子设备120和音频播放设备130的数目仅仅是示意性的。根据实现需要,可以具有任意数目。
根据本公开的另一实施例,上述应用场景中也可以不包括交通工具110,通过将语音识别系统先设置在电子设备120中,在测试完成之后,再设置在交通工具110中。根据本公开的实施例,语音识别系统可以用于语音控制交通工具,用户能够通过语音指令对交通工具进行控制。例如,驾驶员在开车过程中,可以通过语音指令设定导航或更换调频,就不需要去看中控台手动操作。一方面,这样能够解放驾驶员双手,另一方面,驾驶员不需要看着中控台进行手动操作,在开车过程中不会分散注意力,有利于提高行车安全。
图2示意性示出了根据本公开实施例的音频识别方法的流程图。
如图2所示,该音频识别方法包括操作S210~S230。
在操作S210,获取经录制得到的第一音频信号。
在操作S220,根据第一滤波系数对第一音频信号进行处理,得到第二音频信号,其中,第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和校准信号的频率响应计算得到的。
在操作S230,对利用第一音频播放设备播放第二音频信号得到的声音进行识别。
根据本申请的实施例,可以对用户语音进行录制,例如使用频率响应曲线平坦的高精度测试麦克风在静音房进行人声采集,保证用户语音纯净,无噪音,无回声,每段音频文件可以以语音内容命名。例如,一段语音的音频内容是“天气怎么样”,那么音频文件名可以命名为“天气怎么样”。
根据本申请的实施例,经录制得到的第一音频信号可以是关于不同测试场景所需要的音频信号。根据本申请的实施例,以音频识别方法应用于车载语音测试场景为例,第一音频信号可以是车辆能够提供的操作功能的指令,例如,车辆能够提供的操作功能的指令可以包括查找地图指令、开空调指令、放音乐指令、开车窗指令等等。
根据本申请的实施例,第一音频播放设备的类型不做限定,包括但不限于人工嘴,音箱等等。不同类型的音频播放设备的频率响应是不同的,例如,人工嘴和音箱的频率响应是不同的,或者相同类型的不同音频播放设备的频率响应也可能是不同的,频率响应可以通过频率响应曲线来描述。
根据本申请的实施例,第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和校准信号的频率响应计算得到的。校准信号可以采用频率响应曲线平直的白噪音。
根据本申请的实施例,白噪音作为校准信号仅是示例性实施例,但不限于此,还可以包括本领域已知的其他校准信号。
根据本申请的实施例,根据第一滤波系数对第一音频信号进行处理,可以是利用第一滤波系数将第一音频信号在不同预设频段中的对应音频信号进行过滤或增益,使得得到的第二音频信号与录制得到的第一音频信号不同。由于播放音频信号的人工嘴、音箱等都有自己特定的频率响应曲线,音频信号经过这些设备播放后会和原本录制时不一样,通过根据播放设备的频率响应曲线,预先对录制得到的音频信号做反向调整,使得通过播放设备播放出来后的声音和其录制时的频率响应曲线一致,达到了音频重现的技术效果。
根据本申请的实施例,在得到第二音频信号之后,可以将第二音频信号发送给第一音频播放设备播放,在第一音频播放设备播放第二音频信号的过程中,可以利用语音识别系统对播放得到的声音进行识别。
图3示意性示出了根据本公开实施例的对利用第一音频播放设备播放第二音频信号得到的声音进行识别的流程图。
如图3所示,该对利用第一音频播放设备播放第二音频信号得到的声音进行识别包括操作S310~S320。
在操作S310,启动语音识别功能。
在操作S320,基于语音识别功能对播放第二音频信号得到的声音进行识别。
根据本申请的实施例,在对播放第二音频信号得到的声音进行识别之后,可以输出识别结果;并验证识别结果的正确性。
根据本申请的实施例,可以启动一个后台进程一直监听语音日志,在每次识别出结果后,语音识别系统会打印日志,将日志与播放的音频文件名对比,若一致,则认为识别成功。音频文件名可以为音频内容。
根据本申请的实施例,验证识别结果的正确性包括:将识别结果与第一音频信号的音频内容进行比较;在识别结果与第一音频信号的音频内容一致的情况下,确定识别结果正确;以及在识别结果与第一音频信号的音频内容不一致的情况下,确定识别结果错误。
根据本申请的实施例,例如,在对播放第二音频信号得到的声音进行识别之后,输出的识别结果为“空气怎么样”,如果第一音频信号对应的音频内容为“空气怎么样”,那么,识别结果与第一音频信号的音频内容一致,确定识别结果正确。如果第一音频信号对应的音频内容为“天气怎么样”,那么,识别结果与第一音频信号的音频内容不一致,确定识别结果不正确。
图4示意性示出了根据本公开另一实施例的音频识别方法的流程图。
根据本申请的实施例,第一音频信号可以包括多个,每个第一音频信号经第一滤波系数处理后得到一个第二音频信号。根据本申请的实施例,一句识别语音可以作为一个第一音频信号。
如图4所示,该方法包括操作S410~S430。
在操作S410,获取经录制得到的多个第一音频信号。
在操作S420,根据第一滤波系数对每个第一音频信号进行处理,得到多个第二音频信号。
在操作S430,对利用第一音频播放设备按照预设时间间隔播放每个第二音频信号得到的声音分别进行识别。
根据本申请的实施例,预设时间间隔例如可以是5秒、7秒等等。在语音识别系统开启后,开始播放对应需要测试的识别词,播出后的预设时间间隔期间,识别并统计这一次识别的结果。然后再播放下一条,如此执行,直到播放完所有需要的场景。
根据本申请的实施例,在对声音分别进行识别时,可以对输入语音信号进行预加重和分帧加窗、断点检测、降噪操作。然后进行特征提取:常见的特征参数包括基于时域的幅度和能量,以及基于频域的线性预测倒谱系数(LPCC)、Mel倒谱系数(MFCC)等。最后识别结果与正确结果进行匹配,从而得出验证结果。
根据本申请的实施例,由于录制得到的第一音频信号可以是不同场景下的测试语音,无需进行实地测试,避免了受到外界干扰因素的限制,提高了测试效率。并且由于第一音频播放设备可以重复播放第二音频信号,因此,可以确定语音识别系统调优前和调优后的结果不同是因为调优的影响,而不存在由于测试人员说话状态不同产生调优结果不同的问题。可以验证各种场景下语音的识别率,完整的复现人声,并且输出功率稳定可控,使得每一次调优的结果验证都可自动化完成,节省人力,并且验证结果高可靠。
在语音识别过程中,通常需要考虑其他声源或环境噪音对语音识别的影响。例如,车载语音要考虑多种使用场景,不同的噪音源会不同程度干扰语音的识别率,为了提升语音测试调优的效率,减少人力投入,提升测试结果可靠性,提升调优结果可靠性,可以在不同的噪音环境下对语音进行识别。
根据本公开的实施例,可以获取经录制得到的第三音频信号;根据第二滤波系数对第三音频信号进行处理,得到第四音频信号,其中,第二滤波系数是根据第二音频播放设备播放校准信号后得到的声音的第二频率响应和校准信号的频率响应计算得到的;在利用第一音频播放设备播放第二音频信号并同时利用第二音频播放设备播放第四音频信号的过程中,对播放第二音频信号得到的声音进行识别。
根据本申请的实施例,第三音频信号可以是其他用户的声音,也可以是噪声。
根据本申请的实施例,具体地,第一音频信号包括人声音频信号,第三音频信号包括噪声音频信号。
根据本申请的实施例,例如,在利用人工嘴播放人声音频信号的过程中,可以利用音箱播放噪声,此时可以利用语音识别系统对夹杂有噪声的人声进行识别。
根据本申请的实施例,噪声的类型不做限定,并且,可以预先录制不同类型的噪声。例如,使用频率响应曲线平坦的高精度测试麦克风采集车辆静止、行驶过程中的各场景噪音,如关窗慢速无空调、开窗高速柏油路等噪音。
根据本申请的实施例,根据第一滤波系数对第一音频信号进行处理,得到第二音频信号包括:利用第一滤波系数调整第一音频信号的频谱,得到第二音频信号。
根据本申请的实施例,根据第二滤波系数对第三音频信号进行处理,得到第四音频信号包括:利用第二滤波系数调整第三音频信号的频谱,得到第四音频信号。
根据本申请的实施例,利用滤波系数调整音频信号的频谱仅是示例性实施例,但不限于此,还可以包括本领域已知的其他利用滤波系数处理音频信号的方法,只要能够实现处理后的音频信号在被音频播放设备播放后得到的声音为录制得到的声音即可,即只要能够实现还原声音的效果即可。
图5示意性示出了根据本公开实施例的没有经过滤波系数处理的校准信号经过人工嘴播放的频谱示意图。
当原始校准信号为一段频响曲线平值的白噪声时,如图5所示,人工嘴实际输出的信号是受到人工嘴自身频率响应影响的,从图5可以看出经过人工嘴播放的信号就像经过了一个中频加强,高配丢失的滤波器,导致这样的信号给到语音识别系统后识别率低,导致测试的准确性无法保证。
在实现本申请的过程中,考虑到由于播放音频信号的人工嘴、音箱等都有自己特定的频率响应曲线,音频信号经过这些设备播放后会和原本录制时不一样,通过根据播放设备的频率响应曲线,预先对录制得到的音频信号做反向调整,使得通过播放设备播放出来后的声音和其录制时的频率响应曲线一致,达到了音频重现的技术效果。
图6示意性示出了根据本公开实施例的经过滤波系数处理的校准信号经过人工嘴播放的频谱示意图。
当原始校准信号为一段频响曲线平值的白噪声时,如图6所示,经过处理的音频信号再被人工嘴播出后,信号曲线近似平直,几乎可以完全还原录制的声音,识别测试的准确性能得到保证,即使利用人耳听也无法听出和真实发音的区别。
根据本申请的实施例,第一滤波系数可以根据校准信号的频率响应和第一频率响应的差异确定;第二滤波系数可以根据校准信号的频率响应和第二频率响应的差异确定。
根据本申请的实施例,音频信号反向校准的原理是通过比对原始信号与人工嘴播放信号的频率响应的差值,计算出滤波系数,原始信号可以采用频率响应曲线平直的白噪音,因此,滤波系数可以是人工嘴播出信号频率响应曲线的反向取值。
根据本申请的实施例,在确定滤波系数时,可以将处理后的信号再次经过人工嘴播出,再看其信号曲线是否平直,如果信号曲线不平直,再看频率响应曲线哪里需要补充或降增益,通过不断调整各个频段增益,使得最终人工嘴播出的信号为平直,保存滤波系数。对于其它非平直的信号,比如人声,再经过滤波器处理,后又经过人工嘴播放后,经过正反两次变化,最终形成和原始的人声一致的信号。
根据本申请的实施例,经过验证,对于一百句识别的语料。实际人声直接测试时识别率为98%,那么使用人工头播放,未经校准前,用人工头播放测试识别率仅为60%,但是经过校准后,识别率比原声上下浮动1%,97%~99%,具有显著的效果。
根据本申请的实施例,由于语言识别系统一般对在人声100赫兹以下以及10k赫兹以上的频率不进行语音识别,因此在100赫兹以下以及10k赫兹以上的频率可以不使用滤波系数进行调整。根据本申请的实施例,可以确定语言识别系统进行响应识别的频段,针对可响应识别的频段确定滤波系数。
根据本申请的实施例,第一滤波系数可以包括多个第一滤波子系数,每个第一滤波子系数分别用于调整第一预设频段中的对应音频信号;第二滤波系数包括多个第二滤波子系数,每个第二滤波子系数分别用于调整第二预设频段中的对应音频信号。
根据本申请的实施例,第一预设频段中可以包括多个第一子频段,每个第一子频段具有对应的第一滤波子系数,第一滤波子系数用于处理对应的第一子频段中的音频信号。第二预设频段中可以包括多个第二子频段,每个第二子频段具有对应的第二滤波子系数,第二滤波子系数用于处理对应的第二子频段中的音频信号。
根据本申请的实施例,利用不同滤波子系数处理不同子频段中的音频信号,可以有针对性的处理音频信号,提高音频还原的精确度,进而提高语音识别的精确度。
图7示意性示出了根据本公开实施例的音频识别装置的框图。
如图7所示,音频识别装置700包括:第一获取模块710、第一处理模块720和识别模块730。
第一获取模块710用于获取经录制得到的第一音频信号。
第一处理模块720用于根据第一滤波系数对所述第一音频信号进行处理,得到第二音频信号,其中,所述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和所述校准信号的频率响应计算得到的。
识别模块730用于对利用所述第一音频播放设备播放所述第二音频信号得到的声音进行识别。
由于录制得到的第一音频信号可以是不同场景下的测试语音,无需进行实地测试,避免了受到外界干扰因素的限制,提高了测试效率。并且由于第一音频播放设备可以重复播放第二音频信号,因此,可以确定语音识别系统调优前和调优后的结果不同是因为调优的影响,而不存在由于测试人员说话状态不同产生调优结果不同的问题。由于音频信号经过设备播放后会和原本录制时不一样,通过根据播放设备的频率响应曲线,预先对录制得到的音频信号做反向调整,使得通过播放设备播放出来后的声音和其录制时的频率响应曲线一致,达到了音频重现的技术效果。
根据本申请的实施例,音频识别装置700还包括:第二获取模块和第二处理模块。
第二获取模块,用于获取经录制得到的第三音频信号。
第二处理模块,用于根据第二滤波系数对所述第三音频信号进行处理,得到第四音频信号,其中,所述第二滤波系数是根据第二音频播放设备播放所述校准信号后得到的声音的第二频率响应和所述校准信号的频率响应计算得到的。
所述识别模块730用于在利用所述第一音频播放设备播放所述第二音频信号并同时利用所述第二音频播放设备播放所述第四音频信号的过程中,对播放所述第二音频信号得到的声音进行识别。
根据本申请的实施例,所述第一音频信号包括人声音频信号,所述第三音频信号包括噪声音频信号。
根据本申请的实施例,所述第一处理模块用于:利用所述第一滤波系数调整所述第一音频信号的频谱,得到所述第二音频信号。
所述第二处理模块用于:利用所述第二滤波系数调整所述第三音频信号的频谱,得到所述第四音频信号。
根据本申请的实施例,所述第一滤波系数根据所述校准信号的频率响应和所述第一频率响应的差异确定;所述第二滤波系数根据所述校准信号的频率响应和所述第二频率响应的差异确定。
根据本申请的实施例,所述第一滤波系数包括多个第一滤波子系数,每个第一滤波子系数分别用于调整第一预设频段中的对应音频信号;所述第二滤波系数包括多个第二滤波子系数,每个第二滤波子系数分别用于调整第二预设频段中的对应音频信号。
根据本申请的实施例,所述识别模块包括:启动单元和识别单元。
启动单元用于启动语音识别功能。
识别单元用于基于所述语音识别功能对播放所述第二音频信号得到的声音进行识别。
根据本申请的实施例,音频识别装置还包括:输出模块和验证模块。
输出模块用于在对播放所述第二音频信号得到的声音进行识别之后,输出识别结果。
验证模块用于验证所述识别结果的正确性。
根据本申请的实施例,所述验证模块包括:比较单元、第一确定单元和第二确定单元。
比较单元用于将所述识别结果与所述第一音频信号的音频内容进行比较。
第一确定单元用于在所述识别结果与所述第一音频信号的音频内容一致的情况下,确定所述识别结果正确。
第二确定单元用于在所述识别结果与所述第一音频信号的音频内容不一致的情况下,确定所述识别结果错误。
根据本申请的实施例,所述第一音频信号包括多个,每个所述第一音频信号经所述第一滤波系数处理后得到一个所述第二音频信号。
所述识别模块用于对利用所述第一音频播放设备按照预设时间间隔播放每个所述第二音频信号得到的声音分别进行识别。
根据本申请的实施例,所述音频识别装置应用于车载语音测试场景。
根据本申请的实施例,所述第一音频播放设备包括人工嘴。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图8示意性示出了根据本公开实施例的适于实现音频识别方法的计算机系统的框图。
如图8所示,是执行本申请实施例的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备800包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的方法对应的程序指令/模块(例如,附图7所示的第一获取模块710、第一处理模块720和识别模块730)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据上述方法的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,由于录制得到的第一音频信号可以是不同场景下的测试语音,无需进行实地测试,避免了受到外界干扰因素的限制,提高了测试效率。并且由于第一音频播放设备可以重复播放第二音频信号,因此,可以确定语音识别系统调优前和调优后的结果不同是因为调优的影响,而不存在由于测试人员说话状态不同产生调优结果不同的问题。由于音频信号经过设备播放后会和原本录制时不一样,通过根据播放设备的频率响应曲线,预先对录制得到的音频信号做反向调整,使得通过播放设备播放出来后的声音和其录制时的频率响应曲线一致,达到了音频重现的技术效果。根据本申请实施例的技术方案,能够代替人工进行实地测试,在大大节省人力的同时,也可以降低测试过程对环境的依赖性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (20)
1.一种音频识别方法,包括:
获取经录制得到的第一音频信号;
根据第一滤波系数对所述第一音频信号进行处理,得到第二音频信号,其中,所述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和所述校准信号的频率响应计算得到的;以及
对利用所述第一音频播放设备播放所述第二音频信号得到的声音进行识别。
2.根据权利要求1所述的方法,还包括:
获取经录制得到的第三音频信号;
根据第二滤波系数对所述第三音频信号进行处理,得到第四音频信号,其中,所述第二滤波系数是根据第二音频播放设备播放所述校准信号后得到的声音的第二频率响应和所述校准信号的频率响应计算得到的;
在利用所述第一音频播放设备播放所述第二音频信号并同时利用所述第二音频播放设备播放所述第四音频信号的过程中,对播放所述第二音频信号得到的声音进行识别。
3.根据权利要求2所述的方法,其中,所述第一音频信号包括人声音频信号,所述第三音频信号包括噪声音频信号。
4.根据权利要求1或2所述的方法,其中,
所述根据第一滤波系数对所述第一音频信号进行处理,得到第二音频信号包括:利用所述第一滤波系数调整所述第一音频信号的频谱,得到所述第二音频信号;
所述根据第二滤波系数对所述第三音频信号进行处理,得到第四音频信号包括:利用所述第二滤波系数调整所述第三音频信号的频谱,得到所述第四音频信号。
5.根据权利要求1或2所述的方法,其中,所述第一滤波系数根据所述校准信号的频率响应和所述第一频率响应的差异确定;所述第二滤波系数根据所述校准信号的频率响应和所述第二频率响应的差异确定。
6.根据权利要求1或2所述的方法,其中,所述第一滤波系数包括多个第一滤波子系数,每个第一滤波子系数分别用于调整第一预设频段中的对应音频信号;所述第二滤波系数包括多个第二滤波子系数,每个第二滤波子系数分别用于调整第二预设频段中的对应音频信号。
7.根据权利要求1所述的方法,其中,所述对利用所述第一音频播放设备播放所述第二音频信号得到的声音进行识别包括:
启动语音识别功能;以及
基于所述语音识别功能对播放所述第二音频信号得到的声音进行识别。
8.根据权利要求7所述的方法,还包括:
在对播放所述第二音频信号得到的声音进行识别之后,输出识别结果;以及
验证所述识别结果的正确性。
9.根据权利要求8所述的方法,其中,所述验证所述识别结果的正确性包括:
将所述识别结果与所述第一音频信号的音频内容进行比较;
在所述识别结果与所述第一音频信号的音频内容一致的情况下,确定所述识别结果正确;以及
在所述识别结果与所述第一音频信号的音频内容不一致的情况下,确定所述识别结果错误。
10.根据权利要求1所述的方法,其中,所述第一音频信号包括多个,每个所述第一音频信号经所述第一滤波系数处理后得到一个所述第二音频信号;
对利用所述第一音频播放设备播放所述第二音频信号得到的声音进行识别包括:
对利用所述第一音频播放设备按照预设时间间隔播放每个所述第二音频信号得到的声音分别进行识别。
11.根据权利要求1所述的方法,其中,所述音频识别方法应用于车载语音测试场景。
12.根据权利要求1所述的方法,其中,所述第一音频播放设备包括人工嘴。
13.一种音频识别装置,包括:
第一获取模块,用于获取经录制得到的第一音频信号;
第一处理模块,用于根据第一滤波系数对所述第一音频信号进行处理,得到第二音频信号,其中,所述第一滤波系数是根据第一音频播放设备播放校准信号后得到的声音的第一频率响应和所述校准信号的频率响应计算得到的;以及
识别模块,用于对利用所述第一音频播放设备播放所述第二音频信号得到的声音进行识别。
14.根据权利要求13所述的装置,还包括:
第二获取模块,用于获取经录制得到的第三音频信号;
第二处理模块,用于根据第二滤波系数对所述第三音频信号进行处理,得到第四音频信号,其中,所述第二滤波系数是根据第二音频播放设备播放所述校准信号后得到的声音的第二频率响应和所述校准信号的频率响应计算得到的;
所述识别模块,用于在利用所述第一音频播放设备播放所述第二音频信号并同时利用所述第二音频播放设备播放所述第四音频信号的过程中,对播放所述第二音频信号得到的声音进行识别。
15.根据权利要求14所述的装置,其中,所述第一音频信号包括人声音频信号,所述第三音频信号包括噪声音频信号。
16.根据权利要求13或14所述的装置,其中,
所述第一处理模块用于:利用所述第一滤波系数调整所述第一音频信号的频谱,得到所述第二音频信号;
所述第二处理模块用于:利用所述第二滤波系数调整所述第三音频信号的频谱,得到所述第四音频信号。
17.根据权利要求13或14所述的装置,其中,所述第一滤波系数根据所述校准信号的频率响应和所述第一频率响应的差异确定;所述第二滤波系数根据所述校准信号的频率响应和所述第二频率响应的差异确定。
18.根据权利要求13或14所述的装置,其中,所述第一滤波系数包括多个第一滤波子系数,每个第一滤波子系数分别用于调整第一预设频段中的对应音频信号;所述第二滤波系数包括多个第二滤波子系数,每个第二滤波子系数分别用于调整第二预设频段中的对应音频信号。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-12中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010991729.5A CN114203156A (zh) | 2020-09-18 | 2020-09-18 | 音频识别方法、音频识别装置、电子设备和存储介质 |
KR1020210033390A KR102488319B1 (ko) | 2020-09-18 | 2021-03-15 | 오디오 인식 방법, 오디오 인식 장치, 전자 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 |
JP2021053196A JP7158110B2 (ja) | 2020-09-18 | 2021-03-26 | オーディオ認識方法、オーディオ認識装置、電子機器、記憶媒体及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010991729.5A CN114203156A (zh) | 2020-09-18 | 2020-09-18 | 音频识别方法、音频识别装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114203156A true CN114203156A (zh) | 2022-03-18 |
Family
ID=75743268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010991729.5A Pending CN114203156A (zh) | 2020-09-18 | 2020-09-18 | 音频识别方法、音频识别装置、电子设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7158110B2 (zh) |
KR (1) | KR102488319B1 (zh) |
CN (1) | CN114203156A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470618A (zh) * | 2021-06-08 | 2021-10-01 | 阿波罗智联(北京)科技有限公司 | 唤醒测试的方法、装置、电子设备和可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100518031B1 (ko) * | 2003-12-20 | 2005-10-04 | 한국전자통신연구원 | 수신기 캘리브레이션용 신호 발생 장치 |
JP5916054B2 (ja) * | 2011-06-22 | 2016-05-11 | クラリオン株式会社 | 音声データ中継装置、端末装置、音声データ中継方法、および音声認識システム |
CN103745731B (zh) | 2013-12-31 | 2016-10-19 | 科大讯飞股份有限公司 | 一种语音识别效果自动化测试系统及测试方法 |
-
2020
- 2020-09-18 CN CN202010991729.5A patent/CN114203156A/zh active Pending
-
2021
- 2021-03-15 KR KR1020210033390A patent/KR102488319B1/ko active IP Right Grant
- 2021-03-26 JP JP2021053196A patent/JP7158110B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20210042851A (ko) | 2021-04-20 |
JP2021103329A (ja) | 2021-07-15 |
JP7158110B2 (ja) | 2022-10-21 |
KR102488319B1 (ko) | 2023-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230267921A1 (en) | Systems and methods for determining whether to trigger a voice capable device based on speaking cadence | |
CN103440862B (zh) | 一种语音与音乐合成的方法、装置以及设备 | |
US9953634B1 (en) | Passive training for automatic speech recognition | |
CN110197658B (zh) | 语音处理方法、装置以及电子设备 | |
US20090034750A1 (en) | System and method to evaluate an audio configuration | |
US9368107B2 (en) | Permitting automated speech command discovery via manual event to command mapping | |
KR20160125984A (ko) | 화자 사전 기반 스피치 모델링을 위한 시스템들 및 방법들 | |
CN104123938A (zh) | 语音控制系统、电子装置及语音控制方法 | |
US10685664B1 (en) | Analyzing noise levels to determine usability of microphones | |
CN109671435B (zh) | 用于唤醒智能设备的方法和装置 | |
US10229701B2 (en) | Server-side ASR adaptation to speaker, device and noise condition via non-ASR audio transmission | |
US11626104B2 (en) | User speech profile management | |
CN110097895B (zh) | 一种纯音乐检测方法、装置及存储介质 | |
WO2019031268A1 (ja) | 情報処理装置、及び情報処理方法 | |
CN113257283B (zh) | 音频信号的处理方法、装置、电子设备和存储介质 | |
EP4033483B1 (en) | Method and apparatus for testing vehicle-mounted voice device, electronic device and storage medium | |
US20220394403A1 (en) | Wakeup testing method and apparatus, electronic device and readable storage medium | |
CN109819375A (zh) | 调节音量的方法与装置、存储介质、电子设备 | |
US10224029B2 (en) | Method for using voiceprint identification to operate voice recognition and electronic device thereof | |
CN111739512A (zh) | 一种基于实车的语音唤醒率测试方法、系统、设备及介质 | |
CN111768759A (zh) | 用于生成信息的方法和装置 | |
CN114203156A (zh) | 音频识别方法、音频识别装置、电子设备和存储介质 | |
CN112216296B (zh) | 音频对抗扰动的测试方法、设备及存储介质 | |
CN113643704A (zh) | 车机语音系统的测试方法、上位机、系统和存储介质 | |
CN109271480B (zh) | 一种语音搜题方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |