CN112259081B - 语音的处理方法和装置 - Google Patents
语音的处理方法和装置 Download PDFInfo
- Publication number
- CN112259081B CN112259081B CN202011513868.3A CN202011513868A CN112259081B CN 112259081 B CN112259081 B CN 112259081B CN 202011513868 A CN202011513868 A CN 202011513868A CN 112259081 B CN112259081 B CN 112259081B
- Authority
- CN
- China
- Prior art keywords
- model
- text
- domain
- domain scene
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 55
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语音的处理方法,包括:获取原始语音数据;对原始语音数据进行预识别,以获得预识别文本;通过领域场景分类器模型对预识别文本进行处理,以获得预识别文本所属的领域场景信息;通过与领域场景信息对应的领域场景语言模型对预识别结果进行二次识别,以获得最终识别文本;对最终识别文本进行正确性修正和领域场景信息标注,以获得修正后文本;根据领域场景信息,将修正后文本加入到相应的领域场景语言模型的文本数据库中;对领域场景语言模型进行更新;将修正后文本加入到领域场景分类器模型的训练数据库中;对领域场景分类器模型进行迭代训练。能够使得语音识别模型与具体的应用领域场景更有效的匹配,提高语音识别的准确性。
Description
技术领域
本申请属于语音识别技术领域,具体涉及一种语音的处理方法和装置。
背景技术
现有技术中,语音识别系统主要包含声学模型和语言模型两部分,声学模型负责将语音信号加窗分帧、提取特征,之后转化为每帧对应的音素状态得分;语言模型主要负责对可能存在的多种音素序列,找到与音素状态序列最匹配的文本序列。通常情况下,选用不同的语言模型最终得到的语音识别文本是有差异的。
但是在实现本申请过程中,发明人发现,目前至少存在以下问题:一般来说,现有技术会选取构建一个通用的语言模型,由于不同领域场景的语言模型在话题、词频和风格上有着较大的差异,通用的语言模型与实际应用需求之间的匹配度往往不高,导致不能有效的降低语音识别系统的识别错误率。
发明内容
本申请实施例的目的是提供语音的处理方法和装置,能够解决目前的由于不同领域场景的语言模型在话题、词频和风格上有着较大的差异,通用的语言模型与实际应用需求之间的匹配度往往不高,导致不能有效的降低语音识别系统的识别错误率的技术问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种语音的处理方法,包括:
获取原始语音数据;
对所述原始语音数据进行预识别,以获得预识别文本;
通过领域场景分类器模型对所述预识别文本进行处理,以获得所述预识别文本所属的领域场景信息;
通过与所述领域场景信息对应的领域场景语言模型对所述预识别结果进行二次识别,以获得最终识别文本;
对所述最终识别文本进行正确性修正和领域场景信息标注,以获得修正后文本;
根据所述领域场景信息,将所述修正后文本加入到相应的所述领域场景语言模型的文本数据库中;
对所述领域场景语言模型进行更新;
将所述修正后文本加入到领域场景分类器模型的训练数据库中;
对所述领域场景分类器模型进行迭代训练。
进一步地,所述对所述领域场景语言模型进行更新,具体为:
定时对所述领域场景语言模型进行更新,或者,
在加入到所述文本数据库中的文本数量大于第一预设值的情况下,对所述领域场景语言模型进行更新。
进一步地,所述对所述领域场景分类器模型进行迭代训练,具体为:
定时对所述领域场景分类器模型进行迭代训练,或者,
在加入到所述训练数据库中的文本数量大于第二预设值的情况下,对所述领域场景分类器模型进行迭代训练。
进一步地,所述对所述领域场景分类器模型进行迭代训练,具体为:
在bert预训练模型上利用所述修正后文本与所述领域场景信息对所述领域场景分类器模型进行微调。
进一步地,所述领域场景分类器模型由对textcnn模型或者fasttext模型进行训练生成;所述领域场景语言模型由对N-gram模型或者神经网络进行训练生成。
第二方面,本申请实施例提供了一种语音的处理装置,其特征在于,包括:
获取模块,用于获取原始语音数据;
预识别模块,用于对所述原始语音数据进行预识别,以获得预识别文本;
分类模块,用于通过领域场景分类器模型对所述预识别文本进行处理,以获得所述预识别文本所属的领域场景信息;
二次识别模块,用于通过与所述领域场景信息对应的领域场景语言模型对所述预识别结果进行二次识别,以获得最终识别文本;
修正模块,用于对所述最终识别文本进行正确性修正和领域场景信息标注,以获得修正后文本;
第一加入模块,用于根据所述领域场景信息,将所述修正后文本加入到相应的所述领域场景语言模型的文本数据库中;
更新模块,用于对所述领域场景语言模型进行更新;
第二加入模块,用于将所述修正后文本加入到领域场景分类器模型的训练数据库中;
迭代模块,用于对所述领域场景分类器模型进行迭代训练。
进一步地,所述更新模块具体用于定时对所述领域场景语言模型进行更新,或者,在加入到所述文本数据库中的文本数量大于第一预设值的情况下,对所述领域场景语言模型进行更新。
进一步地,所述迭代模块,具体用于定时对所述领域场景分类器模型进行迭代训练,或者,在加入到所述训练数据库中的文本数量大于第二预设值的情况下,对所述领域场景分类器模型进行迭代训练。
进一步地,所述迭代模块,具体用于在bert预训练模型上利用所述修正后文本与所述领域场景信息对所述领域场景分类器模型进行微调。
进一步地,所述领域场景分类器模型由对textcnn模型或者fasttext模型进行训练生成;所述领域场景语言模型由对N-gram模型或者神经网络进行训练生成。
在本申请实施例中,通过对领域场景语言模型的自动更新和对领域场景分类器模型的自动迭代训练,能够使得语音识别模型与具体的应用领域场景更有效的匹配,从而进一步提高语音识别的准确性。
附图说明
图1是本申请实施例提供的一种语音的处理方法的流程示意图;
图2是本申请实施例提供的另一种语音的处理方法的流程示意图;
图3是本申请实施例提供的一种语音的处理装置的结构示意图。
附图标记说明:
201-原始语音数据、202-全领域语言模型、203-预识别文本、204-领域场景分类器模型、205-领域场景信息、206-领域场景语言模型、207-最终识别文本、208-标注平台、209-修正后文本、30-装置、301-获取模块、302-预识别模块、303-分类模块、304-二次识别模块、305-修正模块、306-第一加入模块、307-更新模块、308-第二加入模块、309-迭代模块。
本发明目的的实现、功能特点及优点将结合实施例、参照附图做进一步说明。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域场景普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的语音处理方法进行详细地说明。
实施例一
参照图1,示出了本申请实施例提供的一种语音的处理方法的流程示意图,参照图2,示出了本申请实施例提供的另一种语音的处理方法的流程示意图,语音的处理方法包括:
S101:获取原始语音数据201。
具体地,可以通过用户的上传获取原始语音数据201,也可以通过现场采集的方式的获取原始语音数据201,本申请实施例对于以何种方式获取原始语音数据201不做限定。
S102:对原始语音数据201进行预识别,以获得预识别文本203。
具体地,可以通过通用的全领域语言模型202对原始语音数据201进行预识别,以获得预识别文本203,其中,全领域语言模型202是现有技术,在此不做赘述。
S103:通过领域场景分类器模型204对预识别文本203进行处理,以获得预识别文本203所属的领域场景信息205。
具体地,领域场景分类器模型204可以由对textcnn模型或者fasttext模型进行训练生成。
可选地,领域场景信息205可以包括:金融类、电商类、教育类和体育类等。
S104:通过与领域场景信息205对应的领域场景语言模型206对预识别结果进行二次识别,以获得最终识别文本207。
具体地,领域场景语言模型由对N-gram模型或者神经网络进行训练生成。
具体地,领域场景信息205与其对应的领域场景语音模型206存在一一对应的关系,例如,金融类对应有金融类语言模型,电商类对应有电商类语言模型。
应当理解的是,不同类别的语言模型,其文本数据库也是不同的,即使是相同词汇,在不同类别的语言模型中词频也是不同的。例如,教育类语音模型中课程学习等词频较高,而在电商类语言模型中显然购物折扣等词频较高;金融类语言模型则更多的会包含保险投资的词汇。
S105:对最终识别文本207进行正确性修正和领域场景信息标注,以获得修正后文本209。
具体地,可以由标注平台208完成此步骤,也可以由处理装置30完成此步骤,还可以由人工完成此步骤。
S106:根据领域场景信息205,将修正后文本209加入到相应的领域场景语言模型206的文本数据库中。
S107:对领域场景语言模型206进行更新。
具体地,可以定时对领域场景语言模型206进行更新,或者,在加入到文本数据库中的文本数量大于第一预设值的情况下,对领域场景语言模型206进行更新。
S108:将修正后文本加入到领域场景分类器模型的训练数据库中。
S109:对领域场景分类器模型进行迭代训练。
具体地,可以定时对领域场景分类器模型204进行迭代训练,或者,
在加入到训练数据库中的文本数量大于第二预设值的情况下,对领域场景分类器模型204进行迭代训练。
具体地,在bert预训练模型上利用修正后文本209与领域场景信息205对领域场景分类器模型204进行微调。
应当理解的是,随着领域场景分类器模型204的不断迭代,领域场景分类器模型204的准确性是越来越高的。
在本申请实施例中,通过对领域场景语言模型206的自动更新和对领域场景分类器模型204的自动迭代训练,能够使得语音识别模型与具体的应用领域场景更有效的匹配,从而进一步提高语音识别的准确性,并且随着领域场景语言模型206与领域场景分类器模型204不断的迭代与更新,语音识别的准确性也不断的提高。
实施例二
参照图3,示出了本申请实施例提供的一种语音的处理装置的结构示意图,语音的处理装置30包括:
获取模块301,用于获取原始语音数据201。
预识别模块302,用于对原始语音数据201进行预识别,以获得预识别文本203。
分类模块303,用于通过领域场景分类器模型204对预识别文本203进行处理,以获得预识别文本203所属的领域场景信息205。
进一步地,领域场景分类器模型204由对textcnn模型或者fasttext模型进行训练生成。
二次识别模块304,用于通过与领域场景信息205对应的领域场景语言模型206对预识别结果进行二次识别,以获得最终识别文本207。
进一步地,领域场景语言模型206由对N-gram模型或者神经网络进行训练生成。
修正模块305,用于对最终识别文本207进行正确性修正和领域场景信息标注,以获得修正后文本209。
第一加入模块306,用于根据领域场景信息205,将修正后文本209加入到相应的领域场景语言模型206的文本数据库中。
更新模块307,用于对领域场景语言模型206进行更新。
进一步地,更新模块307具体用于定时对领域场景语言模型206进行更新,或者,在加入到文本数据库中的文本数量大于第一预设值的情况下,对领域场景语言模型206进行更新。
第二加入模块308,用于将修正后文本209加入到领域场景分类器模型204的训练数据库中。
迭代模块309,用于对领域场景分类器模型204进行迭代训练。
进一步地,迭代模块309,具体用于定时对领域场景分类器模型204进行迭代训练,或者,在加入到训练数据库中的文本数量大于第二预设值的情况下,对领域场景分类器模型204进行迭代训练。
进一步地,迭代模块309,具体用于在bert预训练模型上利用修正后文本与领域场景信息对领域场景分类器模型进行微调。
本申请实施例提供的语音的处理装置30能够实现上述方法实施例中实现的各个过程,为避免重复,这里不再赘述。
在本申请实施例中,通过对领域场景语言模型206的自动更新和对领域场景分类器模型204的自动迭代训练,能够使得语音识别模型与具体的应用领域场景更有效的匹配,从而进一步提高语音识别的准确性,并且随着领域场景语言模型206与领域场景分类器模型204不断的迭代与更新,语音识别的准确性也不断的提高。
本申请实施例中的虚拟装置可以是装置,也可以是终端中的部件、集成电路、或芯片。
以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域场景技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (10)
1.一种语音的处理方法,其特征在于,包括:
获取原始语音数据;
对所述原始语音数据进行预识别,以获得预识别文本;
通过领域场景分类器模型对所述预识别文本进行处理,以获得所述预识别文本所属的领域场景信息;
通过与所述领域场景信息对应的领域场景语言模型对所述预识别文本进行二次识别,以获得最终识别文本;
对所述最终识别文本进行正确性修正和领域场景信息标注,以获得修正后文本;
根据所述领域场景信息,将所述修正后文本加入到相应的所述领域场景语言模型的文本数据库中;
对所述领域场景语言模型进行更新;
将所述修正后文本加入到领域场景分类器模型的训练数据库中;
对所述领域场景分类器模型进行迭代训练。
2.根据权利要求1所述的方法,其特征在于,所述对所述领域场景语言模型进行更新,具体为:
定时对所述领域场景语言模型进行更新,或者,
在加入到所述文本数据库中的文本数量大于第一预设值的情况下,对所述领域场景语言模型进行更新。
3.根据权利要求1所述的方法,其特征在于,所述对所述领域场景分类器模型进行迭代训练,具体为:
定时对所述领域场景分类器模型进行迭代训练,或者,
在加入到所述训练数据库中的文本数量大于第二预设值的情况下,对所述领域场景分类器模型进行迭代训练。
4.根据权利要求1所述的方法,其特征在于,所述对所述领域场景分类器模型进行迭代训练,具体为:
在bert预训练模型上利用所述修正后文本与所述领域场景信息对所述领域场景分类器模型进行微调。
5.根据权利要求1所述的方法,其特征在于,所述领域场景分类器模型由对textcnn模型或者fasttext模型进行训练生成;所述领域场景语言模型由对N-gram模型或者神经网络进行训练生成。
6.一种语音的处理装置,其特征在于,包括:
获取模块,用于获取原始语音数据;
预识别模块,用于对所述原始语音数据进行预识别,以获得预识别文本;
分类模块,用于通过领域场景分类器模型对所述预识别文本进行处理,以获得所述预识别文本所属的领域场景信息;
二次识别模块,用于通过与所述领域场景信息对应的领域场景语言模型对所述预识别文本进行二次识别,以获得最终识别文本;
修正模块,用于对所述最终识别文本进行正确性修正和领域场景信息标注,以获得修正后文本;
第一加入模块,用于根据所述领域场景信息,将所述修正后文本加入到相应的所述领域场景语言模型的文本数据库中;
更新模块,用于对所述领域场景语言模型进行更新;
第二加入模块,用于将所述修正后文本加入到领域场景分类器模型的训练数据库中;
迭代模块,用于对所述领域场景分类器模型进行迭代训练。
7.根据权利要求6所述的装置,其特征在于,所述更新模块具体用于定时对所述领域场景语言模型进行更新,或者,在加入到所述文本数据库中的文本数量大于第一预设值的情况下,对所述领域场景语言模型进行更新。
8.根据权利要求6所述的装置,其特征在于,所述迭代模块,具体用于定时对所述领域场景分类器模型进行迭代训练,或者,在加入到所述训练数据库中的文本数量大于第二预设值的情况下,对所述领域场景分类器模型进行迭代训练。
9.根据权利要求6所述的装置,其特征在于,所述迭代模块,具体用于在bert预训练模型上利用所述修正后文本与所述领域场景信息对所述领域场景分类器模型进行微调。
10.根据权利要求6所述的装置,其特征在于,所述领域场景分类器模型由对textcnn模型或者fasttext模型进行训练生成;所述领域场景语言模型由对N-gram模型或者神经网络进行训练生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011513868.3A CN112259081B (zh) | 2020-12-21 | 2020-12-21 | 语音的处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011513868.3A CN112259081B (zh) | 2020-12-21 | 2020-12-21 | 语音的处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112259081A CN112259081A (zh) | 2021-01-22 |
CN112259081B true CN112259081B (zh) | 2021-04-16 |
Family
ID=74225844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011513868.3A Active CN112259081B (zh) | 2020-12-21 | 2020-12-21 | 语音的处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112259081B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115579000B (zh) * | 2022-12-07 | 2023-03-03 | 中诚华隆计算机技术有限公司 | 一种用于语音识别芯片的智能修正方法及系统 |
CN117198289B (zh) * | 2023-09-28 | 2024-05-10 | 阿波罗智联(北京)科技有限公司 | 语音交互方法、装置、设备、介质及产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012105231A1 (ja) * | 2011-02-03 | 2012-08-09 | 日本電気株式会社 | モデル適応化装置、モデル適応化方法およびモデル適応化用プログラム |
CN111508479A (zh) * | 2020-04-16 | 2020-08-07 | 重庆农村商业银行股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN111613212A (zh) * | 2020-05-13 | 2020-09-01 | 携程旅游信息技术(上海)有限公司 | 语音识别方法、系统、电子设备和存储介质 |
CN111816165A (zh) * | 2020-07-07 | 2020-10-23 | 北京声智科技有限公司 | 语音识别方法、装置及电子设备 |
CN112017645A (zh) * | 2020-08-31 | 2020-12-01 | 广州市百果园信息技术有限公司 | 一种语音识别方法及装置 |
-
2020
- 2020-12-21 CN CN202011513868.3A patent/CN112259081B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012105231A1 (ja) * | 2011-02-03 | 2012-08-09 | 日本電気株式会社 | モデル適応化装置、モデル適応化方法およびモデル適応化用プログラム |
CN111508479A (zh) * | 2020-04-16 | 2020-08-07 | 重庆农村商业银行股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN111613212A (zh) * | 2020-05-13 | 2020-09-01 | 携程旅游信息技术(上海)有限公司 | 语音识别方法、系统、电子设备和存储介质 |
CN111816165A (zh) * | 2020-07-07 | 2020-10-23 | 北京声智科技有限公司 | 语音识别方法、装置及电子设备 |
CN112017645A (zh) * | 2020-08-31 | 2020-12-01 | 广州市百果园信息技术有限公司 | 一种语音识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112259081A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104978587B (zh) | 一种基于文档类型的实体识别合作学习算法 | |
CN111046133A (zh) | 基于图谱化知识库的问答方法、设备、存储介质及装置 | |
CN109637537B (zh) | 一种自动获取标注数据优化自定义唤醒模型的方法 | |
CN108287858A (zh) | 自然语言的语义提取方法及装置 | |
CN112259081B (zh) | 语音的处理方法和装置 | |
US20060020448A1 (en) | Method and apparatus for capitalizing text using maximum entropy | |
US20220335936A1 (en) | Method and apparatus of verifying information based on a voice interaction, device, and computer storage medium | |
CN107180084A (zh) | 词库更新方法及装置 | |
CN113408535B (zh) | 一种基于中文字符级特征和语言模型的ocr纠错方法 | |
CN113326702B (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN110019741A (zh) | 问答系统答案匹配方法、装置、设备及可读存储介质 | |
CN111428030B (zh) | 一种语料分类的方法及系统 | |
CN112489655A (zh) | 一种特定领域的语音识别文本纠错方法、系统和存储介质 | |
CN111190973A (zh) | 一种申报表的分类方法、装置、设备及存储介质 | |
CN112487813B (zh) | 命名实体识别方法及系统、电子设备及存储介质 | |
CN113158667B (zh) | 基于实体关系级别注意力机制的事件检测方法 | |
CN112530402B (zh) | 一种语音合成方法、语音合成装置及智能设备 | |
CN112528653A (zh) | 短文本实体识别方法和系统 | |
CN111477212B (zh) | 内容识别、模型训练、数据处理方法、系统及设备 | |
CN110708619A (zh) | 一种智能设备的词向量训练方法及装置 | |
CN116306502A (zh) | 一种针对bert分类任务的数据标注优化系统及方法 | |
CN113963235A (zh) | 一种跨类别图像识别模型重用方法和系统 | |
CN114564942A (zh) | 一种用于监管领域的文本纠错方法、存储介质和装置 | |
CN113035236A (zh) | 语音合成数据的质检方法以及装置 | |
CN113096667A (zh) | 一种错别字识别检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 411, 4th floor, building 4, No.44, Middle North Third Ring Road, Haidian District, Beijing 100088 Patentee after: Beijing Qingshu Intelligent Technology Co.,Ltd. Address before: 100044 411, 4th floor, building 4, No. 44, Middle North Third Ring Road, Haidian District, Beijing Patentee before: BEIJING AISHU WISDOM TECHNOLOGY CO.,LTD. |
|
CP03 | Change of name, title or address |