CN108288466A - 一种提高语音识别准确率的方法及装置 - Google Patents

一种提高语音识别准确率的方法及装置 Download PDF

Info

Publication number
CN108288466A
CN108288466A CN201611265513.0A CN201611265513A CN108288466A CN 108288466 A CN108288466 A CN 108288466A CN 201611265513 A CN201611265513 A CN 201611265513A CN 108288466 A CN108288466 A CN 108288466A
Authority
CN
China
Prior art keywords
user
ownership place
emotional affection
target
telephone number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611265513.0A
Other languages
English (en)
Other versions
CN108288466B (zh
Inventor
叶勇
申宗杰
方国梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Zhejiang Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201611265513.0A priority Critical patent/CN108288466B/zh
Publication of CN108288466A publication Critical patent/CN108288466A/zh
Application granted granted Critical
Publication of CN108288466B publication Critical patent/CN108288466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/16Hidden Markov models [HMM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明实施例公开一种提高语音识别准确率的方法及装置。所述方法包括:获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。所述装置用于实现所述方法,本发明实施例提供的提高语音识别准确率的方法,可提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率。

Description

一种提高语音识别准确率的方法及装置
技术领域
本发明属于通信技术领域,具体涉及一种提高语音识别准确率的方法及装置。
背景技术
随着语音识别技术的发展,基于语音识别技术的应用层出不穷。尤其是在通信领域,各大通信运营商均推出了基于语音识别技术的应用以及业务。而对语音识别的准确率,直接关系到该应用或业务能否取得成功。
一般地,提升语音识别准确率的方式主要有以下几种:
1、优化声学模型:该方法通过计算语音到音节的概率,得到最优的语音与音节的对应关系。目前,声学模型主要基于隐马尔可夫(Hidden Markov Model,HMM)的框架进行声学建模。隐马尔可夫模型技术的成熟和不断完善使之成为主流方法,而通过寻找其他方式进一步优化声学模型是非常困难的。
2、优化语言模型:该方法主要根据规则和统计的方式建立音节与字的关系,通过用概率统计的方法来揭示语音单位内在的统计规律。当前,被广泛使用且简单有效的是N-gram模型。
3、训练通用语言和声学模型:该方法通过收集大量的语音文件,增加模型的训练数据,通过机器学习后得到一个通用的语言和声学模型。然而,我国幅员辽阔,文化和语言种类众多,即使是国家通用的普通话,也夹杂着当地的方言口音和文化表达。因此,通用模型很难保持稳定的语音识别准确率。
4、训练专项语言和声学模型:该方法根据实际的场景需要,通过训练一部分语音、语料以建立一个专用语言和声学模型。然而,此方式只能满足小部分人的需求,很难推广使用。
上述现有的通过模型算法优化,或者根据数据源大小训练得到不同模型的方式,存在以下问题:
不能针对用户的说话系统进行个性化定制优化:由于每个地区用户的语音表述都会具有不同的本地特色,因此,基于上线数据来对上线声学模型和语言模型进行自适应优化,虽然整体的优化方案通用性比较好,但是针对地域差异性明显或者发音比较独特的用户群体,其很难保持比较准确的识别效果。即便现有技术中为各地域各口音的用户群体建立了不同的声学和语言模型,但在实际应用时,并不能快速准确地确认用户所在的地域或者口音类别,使得声学和语言模型适用错误。
因此,如何提出一种方法,可提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率,具有十分重要的意义。
发明内容
针对现有技术中的缺陷,本发明实施例提供一种提高语音识别准确率的方法及装置。
一方面,本发明实施例提出一种提高语音识别准确率的方法,包括:
获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例提供的提高语音识别准确率的方法,由于可根据用户亲情网中的亲情用户的电话号码的归属地作为目标归属地,并根据目标归属地确定对应的声学模型以及语言模型,因此可避免例如用户因为在外工作而导致的声学模型以及语言模型适用错误的情况,能显著提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率。
另一方面,本发明实施例提出一种提高语音识别准确率的装置,包括:
信息获取模块,用于获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
归属地获取模块,用于根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
语言模型确定模块,用于根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
语音转写模块,用于根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例提供的提高语音识别准确率的装置,由于可根据用户亲情网中的亲情用户的电话号码的归属地作为目标归属地,并根据目标归属地确定对应的声学模型以及语言模型,因此可避免例如用户因为在外工作而导致的声学模型以及语言模型适用错误的情况,能显著提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率。
附图说明
图1为本发明提高语音识别准确率的方法实施例的流程示意图;
图2为本发明提高语音识别准确率的装置实施例的流程示意图;
图3为本发明提高语音识别准确率的装置的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明提高语音识别准确率的方法实施例的流程示意图,参看图1,本实施例公开一种提高语音识别准确率的方法,包括:
S1、获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
S2、根据所述用户的注册信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
S3、根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
S4、根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例提供的提高语音识别准确率的方法,由于可根据用户亲情网中的亲情用户的电话号码的归属地作为目标归属地,并根据目标归属地确定对应的声学模型以及语言模型,因此可避免例如用户因为在外工作而导致的声学模型以及语言模型适用错误的情况,能显著提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率。
需要说明的是,本方法实施例的执行主体为服务器。
具体地,在步骤S1中,当用户终端在进行语音通话时,服务器获取来自用户终端的语音信息,并可对该语音信息进行预处理,例如将该语音信息中的静音部分去除。
同时,服务器还可根据用户终端的电话号码,通过CRM(Customer RelationshipManagement,用户关系管理)系统获取用户的亲情网组网信息。所述亲情网组网信息包括组网内各亲情用户的注册信息以及归属地信息。
需要说明的是,所述亲情网指通信运营商为用户提供的一项话务服务:用户可建立亲情网组网,并将其他用户加入到组网中,在组网中的用户即为亲情用户。通常,亲情用户与建立亲情网组网的用户关系紧密,例如家庭关系等。
常见的亲情网业务有中国移动亲情网,天翼亲情网等。
在步骤S2中,所述预设条件包括:
与所述用户的年龄差达到一定阈值;和/或年龄超过预设值。
可以理解的是,与所述用户的年龄差达到一定阈值例如22的亲情用户,与所述用户的关系通常为父子关系或母子关系。
而年龄超过预设值例如65,则通常为保持鲜明口音特征的老年人。
通过设置这样的预设条件,即可筛选出与所述用户口音特征相同或至少相似的亲情用户。
可选地,服务器可获取在传统节假日期间,所述用户与各亲情用户的通话频次和通话时长,以及从BOSS(Business&Operation Support System,业务运营支撑系统)系统中获取所述用户与各亲情用户的支付关系,从而进一步确认所述用户与各亲情用户的亲密关系(父子、爷孙等)。
在步骤S2中,服务器可获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息,如归属的市、区、县等,作为所述各亲情用户的电话号码的归属地。
其中,所述归属地可以根据电话号码发行的区域确定;也可根据各亲情用户的数据所属的HLR(Home Location Register,本地位置寄存器)确定;还可根据所述各亲情用户的历史通信数据中,最常接入的基站的地理位置确定。
在步骤S3中,具体地,所述根据所述各亲情用户的电话号码的归属地信息,获取目标归属地包括:
若所述各亲情用户的电话号码的归属地一致,则将所述归属地作为目标归属地;
若所述各亲情用户的电话号码的归属地不一致,则选取所述归属地中对应所述亲情用户的电话号码的数量最多的归属地作为目标归属地。
进一步地,针对以工作为目的建立亲情网组网的现象,可将在固定时间段内如节假日、非工作日等联系频率和时间,较工作日少的亲情用户的电话号码的归属地排除,以进一步提高目标归属地的准确性。
可选地,若所述各亲情用户的电话号码的归属地不一致,还可将所述各亲情用户中,年龄最大的用户对应的归属地作为目标归属地。
可以理解的是,由于满足预设条件的亲情用户与所述用户的关系最紧密,因此,在确定目标归属地后,所述用户的口音最有可能与该确定的目标归属地的口音相同或至少相似。此外,由于年长用户的归属地通常与该年长用户的口音对应,因此,基于年龄确定的目标归属地,也具有极高的准确性。
进一步地,在确定目标归属地后,服务器则可根据所述目标归属地,确定目标声学模型以及语言模型。
具体地,服务器会判断与所述目标归属地对应的声学模型以及语言模型是否存在,若存在,则将该声学模型以及语言模型作为目标声学模型以及语言模型;
若不存在,则将通用的声学模型以及语言模型作为目标声学模型以及语言模型。
例如,若服务器获知目标归属地为广州市,而在数据库中存在广州市的声学模型以及语言模型,服务器则将广州市的声学模型以及语言模型作为目标声学模型以及语言模型;
若数据库中不存在广州市的声学模型以及语言模型,服务器则将通用的声学模型以及语言模型,例如粤语的声学模型以及语言模型,作为目标声学模型以及语言模型。
在步骤S4中,服务器确定目标声学模型以及语言模型后,则可根据该确定的目标声学模型以及语言模型,对在步骤S1中获取到的语音信息进行转写,将其转写成文本信息。
本发明实施例提供的提高语音识别准确率的方法,由于可基于用户亲情网中的亲情用户的电话号码的归属地,确定对应的声学以及语言模型,因此,可快速有效地提高语音识别的准确率,具有十分广阔的应用前景。
图1为本发明提高语音识别准确率的方法实施例的流程示意图,参看图1,本实施例公开一种提高语音识别准确率的方法,包括:信息获取模块1、归属地获取模块2、语言模型确定模块3以及语音转写模块4。
信息获取模块1用于获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
归属地获取模块2用于根据所述用户的注册信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
语言模型确定模块3用于根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
语音转写模块4用于根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例提供的提高语音识别准确率的装置,由于可根据用户亲情网中的亲情用户的电话号码的归属地作为目标归属地,并根据目标归属地确定对应的声学模型以及语言模型,因此可避免例如用户因为在外工作而导致的声学模型以及语言模型适用错误的情况,能显著提高声学模型和语言模型适用的准确率,进而提高语音识别的准确率。
具体地,当用户终端在进行语音通话时,信息获取模块1会获取来自用户终端的语音信息,并对该语音信息进行预处理,例如将该语音信息中的静音部分去除。
同时,信息获取模块1还可根据用户终端的电话号码,通过CRM(CustomerRelationship Management,用户关系管理)系统获取用户的亲情网组网信息。所述亲情网组网信息包括组网内各亲情用户的注册信息以及归属地信息。
需要说明的是,所述亲情网指通信运营商为用户提供的一项话务服务:用户可建立亲情网组网,并将其他用户加入到组网中,在组网中的用户即为亲情用户。通常,亲情用户与建立亲情网组网的用户关系紧密,例如家庭关系等。
常见的亲情网业务有中国移动亲情网,天翼亲情网等。
具体地,所述预设条件包括:
与所述用户的年龄差达到一定阈值;和/或年龄超过预设值。
可以理解的是,与所述用户的年龄差达到一定阈值例如22的亲情用户,与所述用户的关系通常为父子关系或母子关系。
而年龄超过预设值例如65,则通常为保持鲜明口音特征的老年人。
通过这样的预设条件,归属地获取模块2即可筛选出与所述用户口音特征相同或至少相似的亲情用户。
可选地,归属地获取模块2可获取在传统节假日期间,所述用户与各亲情用户的通话频次和通话时长,以及从BOSS(Business&Operation Support System,业务运营支撑系统)系统中获取所述用户与各亲情用户的支付关系,从而进一步确认所述用户与各亲情用户的亲密关系(父子、爷孙等)。
进一步地,归属地获取模块2可获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息,如归属的市、区、县等,作为所述各亲情用户的电话号码的归属地。
其中,所述归属地可以根据电话号码发行的区域确定;也可根据各亲情用户的数据所属的HLR(Home Location Register,本地位置寄存器)确定;还可根据所述各亲情用户的历史通信数据中,最常接入的基站的地理位置确定。
语言模型确定模块3具体用于:
若所述各亲情用户的电话号码的归属地一致,则将所述归属地作为目标归属地;
若所述各亲情用户的电话号码的归属地不一致,则选取所述归属地中对应所述亲情用户的电话号码的数量最多的归属地作为目标归属地。
进一步地,针对以工作为目的建立亲情网组网的现象,语言模型确定模块3可将在固定时间段内如节假日、非工作日等联系频率和时间,较工作日少的亲情用户的电话号码的归属地排除,以进一步提高目标归属地的准确性。
可选地,若所述各亲情用户的电话号码的归属地不一致,语言模型确定模块3还可将所述各亲情用户中,年龄最大的用户对应的归属地作为目标归属地。
可以理解的是,由于满足预设条件的亲情用户与所述用户的关系最紧密,因此,在确定目标归属地后,所述用户的口音最有可能与该确定的目标归属地的口音相同或至少相似。此外,由于年长用户的归属地通常与该年长用户的口音对应,因此,基于年龄确定的目标归属地,也具有极高的准确性。
进一步地,语言模型确定模块3在确定目标归属地后,则可根据所述目标归属地,确定目标声学模型以及语言模型。
具体地,服务器会判断与所述目标归属地对应的声学模型以及语言模型是否存在,若存在,则将该声学模型以及语言模型作为目标声学模型以及语言模型;
若不存在,则将通用的声学模型以及语言模型作为目标声学模型以及语言模型。
例如,若语言模型确定模块3获知目标归属地为广州市,而在数据库中存在广州市的声学模型以及语言模型,语言模型确定模块3则将广州市的声学模型以及语言模型作为目标声学模型以及语言模型;
若数据库中不存在广州市的声学模型以及语言模型,语言模型确定模块3则将通用的声学模型以及语言模型,例如粤语的声学模型以及语言模型,作为目标声学模型以及语言模型。
在语言模型确定模块3确定目标声学模型以及语言模型后,语音转写模块4则可根据该确定的目标声学模型以及语言模型,对在信息获取模块1获取到的语音信息进行转写,将其转写成文本信息。
本发明实施例提供的提高语音识别准确率的装置,由于可基于用户亲情网中的亲情用户的电话号码的归属地,确定对应的声学以及语言模型,因此,可快速有效地提高语音识别的准确率,具有十分广阔的应用前景。
图3为本发明提高语音识别准确率的装置的结构框图;参看图3,所述装置包括:处理器(processor)301、存储器(memory)302、通信接口(Communications Interface)303和总线304;
其中,
所述处理器301、存储器302、通信接口303通过所述总线304完成相互间的通信;
所述通信接口303用于该装置与其他装置的通信设备之间的信息传输;
所述处理器301用于调用所述存储器302中的程序指令,以执行上述各方法实施例所提供的方法,例如包括:获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例还公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
本发明实施例还提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法,例如包括:获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种提高语音识别准确率的方法,其特征在于,包括:
获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
2.根据权利要求1所述的方法,其特征在于,所述预设条件包括:
与所述用户的年龄差达到一定阈值;
和/或年龄超过预设值。
3.根据权利要求1所述的方法,其特征在于,所述根据所述各亲情用户的电话号码的归属地信息,获取目标归属地包括:
若所述各亲情用户的电话号码的归属地一致,则将所述归属地作为目标归属地;
若所述各亲情用户的电话号码的归属地不一致,则选取所述归属地中对应所述亲情用户的电话号码的数量最多的归属地作为目标归属地。
4.根据权利要求3所述的方法,其特征在于,所述根据所述各亲情用户的电话号码的归属地信息,获取目标归属地还包括:
若所述各亲情用户的电话号码的归属地不一致,则将所述各亲情用户中,年龄最大的用户对应的归属地作为目标归属地。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标归属地,确定目标声学模型以及语言模型包括:
判断与所述目标归属地对应的声学模型以及语言模型是否存在,若存在,则将该声学模型以及语言模型作为目标声学模型以及语言模型;
若不存在,则将通用的声学模型以及语言模型作为目标声学模型以及语言模型。
6.一种提高语音识别准确率的装置,其特征在于,包括:
信息获取模块,用于获取来自用户终端的语音信息,并根据所述用户终端的电话号码,获取用户的亲情网组网信息;
归属地获取模块,用于根据所述用户的亲情网组网信息,获取满足预设条件的各亲情用户的电话号码,并获取所述各亲情用户的电话号码的归属地信息;
语言模型确定模块,用于根据所述各亲情用户的电话号码的归属地信息,获取目标归属地,并根据所述目标归属地,确定目标声学模型以及语言模型;
语音转写模块,用于根据所述目标声学模型以及语言模型,将所述语音信息转写成文本信息。
7.根据权利要求6所述的装置,其特征在于,所述预设条件包括:
与所述用户的年龄差达到一定阈值;
和/或年龄超过预设值。
8.根据权利要求6所述的装置,其特征在于,所述语言模型确定模块具体用于:
若所述各亲情用户的电话号码的归属地一致,则将所述归属地作为目标归属地;
若所述各亲情用户的电话号码的归属地不一致,则选取所述归属地中对应所述亲情用户的电话号码的数量最多的归属地作为目标归属地。
9.根据权利要求8所述的装置,其特征在于,所述语言模型确定模块还具体用于:
若所述各亲情用户的电话号码的归属地不一致,则将所述各亲情用户中,年龄最大的用户对应的归属地作为目标归属地。
10.根据权利要求6所述的装置,其特征在于,所述语言模型确定模块具体用于:
判断与所述目标归属地对应的声学模型以及语言模型是否存在,若存在,则将该声学模型以及语言模型作为目标声学模型以及语言模型;
若不存在,则将通用的声学模型以及语言模型作为目标声学模型以及语言模型。
CN201611265513.0A 2016-12-30 2016-12-30 一种提高语音识别准确率的方法及装置 Active CN108288466B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611265513.0A CN108288466B (zh) 2016-12-30 2016-12-30 一种提高语音识别准确率的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611265513.0A CN108288466B (zh) 2016-12-30 2016-12-30 一种提高语音识别准确率的方法及装置

Publications (2)

Publication Number Publication Date
CN108288466A true CN108288466A (zh) 2018-07-17
CN108288466B CN108288466B (zh) 2020-10-16

Family

ID=62817161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611265513.0A Active CN108288466B (zh) 2016-12-30 2016-12-30 一种提高语音识别准确率的方法及装置

Country Status (1)

Country Link
CN (1) CN108288466B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110534116A (zh) * 2019-08-29 2019-12-03 北京安云世纪科技有限公司 应用于智能设备的语音识别模型设置方法及装置
CN111986651A (zh) * 2020-09-02 2020-11-24 上海优扬新媒信息技术有限公司 一种人机交互方法、装置及智能交互终端
CN113327582A (zh) * 2021-05-18 2021-08-31 北京声智科技有限公司 语音交互方法、装置、电子设备及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000022609A1 (en) * 1998-10-13 2000-04-20 Telefonaktiebolaget Lm Ericsson (Publ) Speech recognition and control system and telephone
JP2000132180A (ja) * 1998-10-28 2000-05-12 Mitsubishi Electric Corp 音声出力装置及び音声変換方法
CN1361516A (zh) * 2000-12-28 2002-07-31 广东科龙电器股份有限公司 家庭综合服务器
US20040093211A1 (en) * 2002-11-13 2004-05-13 Sbc Properties, L.P. System and method for remote speech recognition
US20040153306A1 (en) * 2003-01-31 2004-08-05 Comverse, Inc. Recognition of proper nouns using native-language pronunciation
CN101184326A (zh) * 2007-12-13 2008-05-21 中国移动通信集团广东有限公司 一种在线计费系统修改亲情号码的方法
CN102547604A (zh) * 2010-12-20 2012-07-04 中国移动通信集团公司 一种可视电话业务的实现方法、系统及装置
CN103037117A (zh) * 2011-09-29 2013-04-10 中国电信股份有限公司 语音识别方法、系统和语音接入平台
US20130289988A1 (en) * 2012-04-30 2013-10-31 Qnx Software Systems Limited Post processing of natural language asr
CN103814405A (zh) * 2011-07-12 2014-05-21 惠普发展公司,有限责任合伙企业 音频采样
CN105408952A (zh) * 2013-02-21 2016-03-16 谷歌技术控股有限责任公司 识别带口音的语音
CN105872687A (zh) * 2016-03-31 2016-08-17 乐视控股(北京)有限公司 一种通过语音控制智能设备的方法及装置
CN105979056A (zh) * 2016-05-06 2016-09-28 北京奇虎科技有限公司 通信终端及按号码归属地查询通信号码的方法和装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000022609A1 (en) * 1998-10-13 2000-04-20 Telefonaktiebolaget Lm Ericsson (Publ) Speech recognition and control system and telephone
JP2000132180A (ja) * 1998-10-28 2000-05-12 Mitsubishi Electric Corp 音声出力装置及び音声変換方法
CN1361516A (zh) * 2000-12-28 2002-07-31 广东科龙电器股份有限公司 家庭综合服务器
US20040093211A1 (en) * 2002-11-13 2004-05-13 Sbc Properties, L.P. System and method for remote speech recognition
US20040153306A1 (en) * 2003-01-31 2004-08-05 Comverse, Inc. Recognition of proper nouns using native-language pronunciation
CN101184326A (zh) * 2007-12-13 2008-05-21 中国移动通信集团广东有限公司 一种在线计费系统修改亲情号码的方法
CN102547604A (zh) * 2010-12-20 2012-07-04 中国移动通信集团公司 一种可视电话业务的实现方法、系统及装置
CN103814405A (zh) * 2011-07-12 2014-05-21 惠普发展公司,有限责任合伙企业 音频采样
CN103037117A (zh) * 2011-09-29 2013-04-10 中国电信股份有限公司 语音识别方法、系统和语音接入平台
US20130289988A1 (en) * 2012-04-30 2013-10-31 Qnx Software Systems Limited Post processing of natural language asr
CN105408952A (zh) * 2013-02-21 2016-03-16 谷歌技术控股有限责任公司 识别带口音的语音
CN105872687A (zh) * 2016-03-31 2016-08-17 乐视控股(北京)有限公司 一种通过语音控制智能设备的方法及装置
CN105979056A (zh) * 2016-05-06 2016-09-28 北京奇虎科技有限公司 通信终端及按号码归属地查询通信号码的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KANAE AMINO等: "Native vs. non-native accent identification using Japanese spoken telephone numbers", 《SPEECH COMMUNICATION》 *
黄威等: "基于深度神经网络的语音识别研究", 《研究与开发》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110534116A (zh) * 2019-08-29 2019-12-03 北京安云世纪科技有限公司 应用于智能设备的语音识别模型设置方法及装置
CN110534116B (zh) * 2019-08-29 2022-06-03 北京安云世纪科技有限公司 应用于智能设备的语音识别模型设置方法及装置
CN111986651A (zh) * 2020-09-02 2020-11-24 上海优扬新媒信息技术有限公司 一种人机交互方法、装置及智能交互终端
CN111986651B (zh) * 2020-09-02 2023-09-29 度小满科技(北京)有限公司 一种人机交互方法、装置及智能交互终端
CN113327582A (zh) * 2021-05-18 2021-08-31 北京声智科技有限公司 语音交互方法、装置、电子设备及存储介质
CN113327582B (zh) * 2021-05-18 2023-06-02 北京声智科技有限公司 语音交互方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN108288466B (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN105261366B (zh) 语音识别方法、语音引擎及终端
US10217463B2 (en) Hybridized client-server speech recognition
CN111261144B (zh) 一种语音识别的方法、装置、终端以及存储介质
CN105448292B (zh) 一种基于场景的实时语音识别系统和方法
US9742912B2 (en) Method and apparatus for predicting intent in IVR using natural language queries
WO2018036555A1 (zh) 会话处理方法及装置
CN108694942A (zh) 一种基于家居智能服务机器人的智能家居交互问答系统
CN108228699A (zh) 协作性语音控制装置
CN109389283B (zh) 自动派件方法、装置、计算机设备及存储介质
CN109243468A (zh) 语音识别方法、装置、电子设备及存储介质
CN103903611A (zh) 一种语音信息的识别方法和设备
CA2612645A1 (en) Method and system for configuring information regarding processing of calls involving a party
CN108288466A (zh) 一种提高语音识别准确率的方法及装置
CN111090728A (zh) 一种对话状态跟踪方法、装置及计算设备
CN103546623B (zh) 用于发送语音信息及其文本描述信息的方法、装置与设备
CN103218705A (zh) 一种日程提醒方法和装置
CN104702759A (zh) 通讯录的设置方法及装置
CN109145047A (zh) 用户标签画像的配置方法、数据处理装置及存储介质
CN106649410B (zh) 一种获取聊天回复内容的方法及装置
CN110297909A (zh) 一种无标签语料的分类方法及装置
CN112052316A (zh) 模型评估方法、装置、存储介质及电子设备
CN107808662B (zh) 更新语音识别用的语法规则库的方法及装置
CN104702758A (zh) 一种终端及其管理多媒体记事本的方法
CN103474063B (zh) 语音辨识系统以及方法
CN112435657B (zh) 语音识别方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: No. 19, Jiefang East Road, Hangzhou, Zhejiang Province, 310016

Patentee after: CHINA MOBILE GROUP ZHEJIANG Co.,Ltd.

Patentee after: CHINA MOBILE COMMUNICATIONS GROUP Co.,Ltd.

Address before: No. 19, Jiefang East Road, Hangzhou, Zhejiang Province, 310016

Patentee before: CHINA MOBILE GROUP ZHEJIANG Co.,Ltd.

Patentee before: CHINA MOBILE COMMUNICATIONS Corp.