CN111883113B - 一种语音识别的方法及装置 - Google Patents
一种语音识别的方法及装置 Download PDFInfo
- Publication number
- CN111883113B CN111883113B CN202010753634.XA CN202010753634A CN111883113B CN 111883113 B CN111883113 B CN 111883113B CN 202010753634 A CN202010753634 A CN 202010753634A CN 111883113 B CN111883113 B CN 111883113B
- Authority
- CN
- China
- Prior art keywords
- scene
- voice
- acoustic model
- module
- meeting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 4
- 230000008859 change Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 2
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种语音识别方法,所述方法包括:增加声学模型的场景分类信息;获取待测语音在所述场景分类信息下的声学模型输出,并确定符合条件的场景;动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果。通过应用本发明实施例提供的语音识别方法,使声学模型增加场景信息,动态加载符合条件的场景模型,解除原本预设场景模型的限制,提升识别效率,识别场景的模型数值设定后并采用动态加载的方式,所以不会由于业务需求的变化导致该数值改变,从而使响应速度稳定在设定数值的模型的解码速度。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种语音识别的方法及装置。
背景技术
自动语音识别(Automatic Speech Recognition,简称ASR)由声学模型、语言模型和解码器三个部分组成,如下图1所示。其中声学模型和语言模型都有各自的训练方法,声学模型使用语音数据训练声音映射发音的模型;语言模型使用文本数据训练发音映射文字的模型,一般语言模型根据使用场景会预先训练多个,根据使用场景加载可能使用的场景模型;二者可分开并行训练;在使用ASR识别项目时,目前需要人工设置场景的边界,即声学需要配置近讲场景或者远讲的场景,语言模型则需要从众多的业务场景中选择出使用的场景,比如:家具控制,音乐,电影等,其中m代表预设的场景数目。声学和语言的模型的配置都是研发人员进行手工设置,当输入一条音频时,解码器加载声学和预先设定多个语言模型,搜索出最优的打分结果,作为识别结果,放回给用户。
但上述技术存在以下问题:
(1)声学和语言场景数目较多,特别是语言模型的场景,考验项目团队的操作经验和对实际业务场景的把控力。
(2)语言模型配置数目预设越多,速度越慢,并且存在上限数目;当达到语言模型的配置上限时,识别的速率会降低并且模型对于新的未知识别场景能力受限。
发明内容
本发明实施例的目的是提供一种语音识别的方法及装置,以解决现有技术中的ASR识别需预设多个语言模型,识别响应速度降低且识别场景不匹配问题。
为解决上述问题,第一方面,本发明提供了一种语音识别的方法,所述方法包括:
增加声学模型的场景分类信息;
获取待测语音在所述场景分类信息下的声学模型输出,并确定符合条件的场景;
动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果。
在一种可能的实现方式中,所述增加声学模型的场景信息,具体为:
通过语音训练数据中增加场景分类标签,使声学模型增加场景分类信息。
在一种可能的实现方式中,所述获取待测语音在所述场景分类信息下的声学模型输出,确定适合的场景,具体为:
获取待测语音在所述场景分类信息下的声学模型输出;
求待测语音的语音帧的场景概率平均值;
基于所述平均值,确定阈值;
根据阈值选择所述待测语音符合条件的场景。
在一种可能的实现方式中,,所述阈值为0.8。
在一种可能的实现方式中,基于识别速度和识别速率求符合条件的场景。
第二方面,本发明提供了一种语音识别设备,所述设备包括:
增加场景模块,用于增加声学模型的场景分类信息;
第一处理模块,用于获取待测语音的声学模型输出,并确定符合条件的场景;
第二处理模块,用于动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果。
在一种可能的实现方式中,所述第一处理模块包括获取模块、计算模块、确定模块和选择模块;
所述获取模块,用于获取待测语音的声学模型输出;
所述计算模块,用于求待测语音的语音帧的场景概率平均值;
所述确定模块,用于基于所述平均值,确定阈值;
所述选择模块,用于根据阈值选择所述待测语音符合条件的场景。
第三方面,本发明提供了一种语音识别设备一种语音识别系统,所述系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如第一方面中一个或多个所述的方法。
第四方面,本发明提供了一种芯片,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如第一方面中一个或多个所述的方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如第三方面所述的系统执行,以实现如第一方面中一个或多个所述的方法。
通过应用本发明实施例提供的语音识别方法,使声学模型增加场景信息,动态加载符合条件的场景模型,解除原本预设场景模型的限制,提升识别效率,识别场景的模型数值设定后并采用动态加载的方式,所以不会由于业务需求的变化导致该数值改变,从而使响应速度稳定在设定数值的模型的解码速度。
附图说明
图1为现有技术中语音识别流程示意图;
图2为本发明实施例提供的语音识别方法流程示意图;
图3为本发明实施例提供的确定符合条件场景的流程示意图;
图4为本发明实施例提供的动态记载方式来进行语音识别的流程示意图;
图5为本发明实施例提供的语音识别装置结构示意图;
图6为本发明实施例提供的第一处理模块结构示意图;
图7为本发明实施例提供的一种语音识别系统结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图2为本发明实施例语音识别方法流程示意图,该方法的执行主体为智能外呼平台。如图2所示,该语音识别方法包括以下流程:
步骤210,增加声学模型的场景分类信息。
具体地,通过语音训练数据中增加场景分类标签,使声学模型增加场景分类信息,进而使得声学模型输出音素的基础上增加场景分类概率。假设语音训练数据中预设的场景数目为m,原本声学模型输出音素的序列具有n个维度,现在加上场景分类标签后,声学模型的输出序列的维度变为:音素+场景=n+m个维度。数学表如下:
(x1,x2,x3…,xp)->(y1,y2…,yn)→
(x1,x2,x3…,xp)->(y1,y2,…,yn,yn+1,…,ym-n+1,…,ym+n)
其中,xi表示语音特征每一个维度;yi表示某一个场景,也可以理解为场景向量的某一个维度;i为1,2……n;p指特征向量;(x1,x2,x3…,xp),表示一共有p个维度。
步骤220,获取待测语音在所述场景分类信息下的声学模型输出,并确定符合条件的场景。
下面通过一个示例说明如何确定符合条件的场景,在一个示例中,图3为本发明实施例提供的确定符合条件场景的流程示意图,如图3所示:
步骤2201,获取待测语音在所述场景分类信息下的声学模型输出。
步骤2202,求待测语音的语音帧的场景概率平均值。
步骤2203,基于所述平均值,确定阈值。
步骤2204,根据阈值选择所述待测语音符合条件的场景。
具体的,在获取一条待测语音的全部语音帧带场景分类的声学模型输出(n+m)后,将所有语音帧的场景概率做和求平均,根据阈值选择该条待测语音最适合的Topk的场景,说明一下,所谓最合适的,即为符合条件的,Topk表示符合条件的k个场景,k自定义值,其基于识别速度和识别速率来确定,这是因为k是指加载k个场景,一般来说k取得大一些,场景识别得覆盖全一些,识别率在大场景识别率会好一点;但是k大,加载模型数目多,识别得速度就会慢一点,所以需要根据项目需求在识别率和识别速度取一个平衡。即根据项目对识别速度和识别率要求取K的平衡值,一般k<m;L表示语音总帧数,Ni表示第i个场景概率;
在此需要说明的是,阈值可变,优选地设为0.8。
举例说明,假设有5个场景概率分别为0.5、0.6、0.7、0.8和0.9,若阈值选0.6,符合条件的场景就有4个,即k=4,若阈值选0.8,符合条件的场景就有2个,即k=2。所以阈值会选取一个经验值,但是这个经验值在使用时还需要根据项目测试做小的调节。
步骤130,动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果。
具体的,图4为本发明实施例提供的动态记载方式来进行语音识别的流程示意图,如图4所示,根据匹配top k个场景动态相应场景的语言模型,获得语音识别的结果。
一般来说动态加载语言模型数目基本会比预设模型数目少,这样解码器搜索的路径变少,从而提高了响应速度;另外加载的语言模型和场景匹配度相对较高识率也会提升。
与上述实施例对应的,本发明还提供了一种语音识别装置,如图5所示,该语音识别装置包括:增加场景模块510,第一处理模块520和第二处理模块530。
增加场景模块510,用于增加声学模型的场景分类信息。
具体的,语音识别装置还包括输入场景模块(未示出),用于通过语音训练数据中增加场景分类标签,使声学模型增加场景分类信息。
第一处理模块520,用于获取待测语音的声学模型输出,并确定符合条件的场景。
在一个示例中,如图6所示,第一处理模块520包括获取模块5201、计算模块5202、确定模块5203和选择模块5204;
所述获取模块5201,用于获取待测语音的声学模型输出;
所述计算模块5202,用于求待测语音的语音帧的场景概率平均值;
所述确定模块5203,用于基于所述平均值,确定阈值;
所述选择模块5204,用于根据阈值选择所述待测语音符合条件的场景。
第二处理模块530,用于动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果。
本发明实施例提供的一种语音识别装置中各部件所执行的功能均已在上述方法中做了详细介绍,因此这里不做过多赘述。
与上述实施例相对应的,本发明实施例、还提供了一种语音识别系统,具体如图7所示,该系统包括至少一个处理器710和存储器720;
存储器710,用于存储一个或多个程序指令;
处理器720,用于运行一个或多个程序指令,执行如上述实施例所介绍的一种语音识别方法中的任一方法步骤。
与上述实施例相对应的,本发明实施例还提供了一种芯片,该芯片芯片与上述系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如上述实施例所介绍的语音识别方法。
与上述实施例相对应的,本发明实施例还提供了一种计算机存储介质,该计算机存储介质中包括一个或多个程序,其中,一个或多个程序指令用于被一种语音识别系统执行如上介绍的语音识别方法。
本申请提供的语音识别方法、装置和系统,在原有的训练流程中,声学模型和语言模型是相对独立的模型;在本发明的技术方案中,使得声学模型的输入带有语言模型分类的信息,让二者能够产生联系。在后续解码器进行解码时可以利用该信息,动态加载符合条件的语言模型,从而避免业务根据需求主观判断场景使用模型,减少前场人员的工作难度;
由于动态加载的语言的为概率的最高,也就是最合适的模型,减少了模型加载数目,使得原本的m(m>=k)的数目变成k;从而提升识别的效果和速度;另外,由于每次可动态的加载模型,也突破语言模型的使用上限,对于未知的识别场景也不在受局限
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种语音识别方法,其特征在于,所述方法包括:
增加声学模型的场景分类信息;
获取待测语音在所述场景分类信息下的声学模型输出,并确定符合条件的场景;
动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果;
所述获取待测语音在所述场景分类信息下的声学模型输出,确定适合的场景,具体为:
获取待测语音在所述场景分类信息下的声学模型输出;
求待测语音的语音帧的场景概率平均值;
基于所述平均值,确定阈值;
根据阈值选择所述待测语音符合条件的场景。
2.根据权利要求1所述的方法,其特征在于,所述增加声学模型的场景信息,具体为:
通过语音训练数据中增加场景分类标签,使声学模型增加场景分类信息。
3.根据权利要求1所述的方法,其特征在于,所述阈值为0.8。
4.根据权利要求1所述的方法,其特征在于,基于识别速度和识别率求符合条件的场景。
5.一种语音识别设备,其特征在于,所述设备包括:
增加场景模块,用于增加声学模型的场景分类信息;
第一处理模块,用于获取待测语音的声学模型输出,并确定符合条件的场景;
第二处理模块,用于动态加载所述符合条件的场景相应的语音模型,获得语音识别的结果;
所述第一处理模块包括获取模块、计算模块、确定模块和选择模块;
所述获取模块,用于获取待测语音的声学模型输出;
所述计算模块,用于求待测语音的语音帧的场景概率平均值;
所述确定模块,用于基于所述平均值,确定阈值;
所述选择模块,用于根据阈值选择所述待测语音符合条件的场景。
6.一种语音识别系统,其特征在于,所述系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如权利要求1至4中任一所述的方法。
7.一种芯片,其特征在于,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如权利要求1至4中任一所述的方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如权利要求6所述的系统执行,以实现如权利要求1至4中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010753634.XA CN111883113B (zh) | 2020-07-30 | 2020-07-30 | 一种语音识别的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010753634.XA CN111883113B (zh) | 2020-07-30 | 2020-07-30 | 一种语音识别的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111883113A CN111883113A (zh) | 2020-11-03 |
CN111883113B true CN111883113B (zh) | 2024-01-30 |
Family
ID=73204530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010753634.XA Active CN111883113B (zh) | 2020-07-30 | 2020-07-30 | 一种语音识别的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111883113B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112185357A (zh) * | 2020-12-02 | 2021-01-05 | 成都启英泰伦科技有限公司 | 一种同时识别人声和非人声的装置及方法 |
CN112786055A (zh) * | 2020-12-25 | 2021-05-11 | 北京百度网讯科技有限公司 | 资源挂载方法、装置、设备、存储介质及计算机程序产品 |
CN113035177B (zh) * | 2021-03-11 | 2024-02-09 | 平安科技(深圳)有限公司 | 声学模型训练方法及装置 |
CN113299283B (zh) * | 2021-04-28 | 2023-03-10 | 上海淇玥信息技术有限公司 | 语音识别方法、系统、装置及介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009140884A1 (zh) * | 2008-05-23 | 2009-11-26 | 深圳市北科瑞声科技有限公司 | 一种车载语音交互系统 |
WO2014014478A1 (en) * | 2012-07-20 | 2014-01-23 | Interactive Intelligence, Inc. | Method and system for real-time keyword spotting for speech analytics |
KR20150054445A (ko) * | 2013-11-12 | 2015-05-20 | 한국전자통신연구원 | 음성인식장치 |
CN105206263A (zh) * | 2015-08-11 | 2015-12-30 | 东莞市凡豆信息科技有限公司 | 基于动态字典的语音语义识别方法 |
CN105448292A (zh) * | 2014-08-19 | 2016-03-30 | 北京羽扇智信息科技有限公司 | 一种基于场景的实时语音识别系统和方法 |
CN107203777A (zh) * | 2017-04-19 | 2017-09-26 | 北京协同创新研究院 | 音频场景分类方法及装置 |
CN110390948A (zh) * | 2019-07-24 | 2019-10-29 | 厦门快商通科技股份有限公司 | 一种快速语音识别的方法及系统 |
CN110600032A (zh) * | 2018-05-23 | 2019-12-20 | 北京语智科技有限公司 | 一种语音识别方法及装置 |
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110910901A (zh) * | 2019-10-08 | 2020-03-24 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
CN111049996A (zh) * | 2019-12-26 | 2020-04-21 | 苏州思必驰信息科技有限公司 | 多场景语音识别方法及装置、和应用其的智能客服系统 |
CN111369978A (zh) * | 2018-12-26 | 2020-07-03 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
-
2020
- 2020-07-30 CN CN202010753634.XA patent/CN111883113B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009140884A1 (zh) * | 2008-05-23 | 2009-11-26 | 深圳市北科瑞声科技有限公司 | 一种车载语音交互系统 |
WO2014014478A1 (en) * | 2012-07-20 | 2014-01-23 | Interactive Intelligence, Inc. | Method and system for real-time keyword spotting for speech analytics |
KR20150054445A (ko) * | 2013-11-12 | 2015-05-20 | 한국전자통신연구원 | 음성인식장치 |
CN105448292A (zh) * | 2014-08-19 | 2016-03-30 | 北京羽扇智信息科技有限公司 | 一种基于场景的实时语音识别系统和方法 |
CN105206263A (zh) * | 2015-08-11 | 2015-12-30 | 东莞市凡豆信息科技有限公司 | 基于动态字典的语音语义识别方法 |
CN107203777A (zh) * | 2017-04-19 | 2017-09-26 | 北京协同创新研究院 | 音频场景分类方法及装置 |
CN110600032A (zh) * | 2018-05-23 | 2019-12-20 | 北京语智科技有限公司 | 一种语音识别方法及装置 |
CN111369978A (zh) * | 2018-12-26 | 2020-07-03 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN110390948A (zh) * | 2019-07-24 | 2019-10-29 | 厦门快商通科技股份有限公司 | 一种快速语音识别的方法及系统 |
CN110718234A (zh) * | 2019-09-02 | 2020-01-21 | 江苏师范大学 | 基于语义分割编解码网络的声学场景分类方法 |
CN110910901A (zh) * | 2019-10-08 | 2020-03-24 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
CN111049996A (zh) * | 2019-12-26 | 2020-04-21 | 苏州思必驰信息科技有限公司 | 多场景语音识别方法及装置、和应用其的智能客服系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111883113A (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111883113B (zh) | 一种语音识别的方法及装置 | |
US11830499B2 (en) | Providing answers to voice queries using user feedback | |
US10726833B2 (en) | System and method for rapid customization of speech recognition models | |
US10991366B2 (en) | Method of processing dialogue query priority based on dialog act information dependent on number of empty slots of the query | |
US10699702B2 (en) | System and method for personalization of acoustic models for automatic speech recognition | |
US11929073B2 (en) | Hybrid arbitration system | |
US20180005628A1 (en) | Speech Recognition | |
US9984679B2 (en) | System and method for optimizing speech recognition and natural language parameters with user feedback | |
US20170076727A1 (en) | Speech processing device, speech processing method, and computer program product | |
CN110069608A (zh) | 一种语音交互的方法、装置、设备和计算机存储介质 | |
CN111145733B (zh) | 语音识别方法、装置、计算机设备和计算机可读存储介质 | |
EP3179427A1 (en) | Computing system with conversation modeling mechanism and method of operation thereof | |
CN109196583A (zh) | 动态语音识别数据评估 | |
JP2015176175A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Kim et al. | Multistage data selection-based unsupervised speaker adaptation for personalized speech emotion recognition | |
EP3593346A1 (en) | Graphical data selection and presentation of digital content | |
CN112687286A (zh) | 音频设备的降噪模型的调整方法和装置 | |
CN114093358A (zh) | 语音识别方法和装置、电子设备和存储介质 | |
CN112863496B (zh) | 一种语音端点检测方法以及装置 | |
US11817098B1 (en) | Bias detection in speech recognition models | |
US20180082703A1 (en) | Suitability score based on attribute scores | |
US20230377560A1 (en) | Speech tendency classification | |
JP6903613B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
CN110489532B (zh) | 提供自适应会话系统的计算机实现方法和自适应会话系统 | |
US20090198494A1 (en) | Resource conservative transformation based unsupervised speaker adaptation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |