CN110853674A - 文本核对方法、设备以及计算机可读存储介质 - Google Patents

文本核对方法、设备以及计算机可读存储介质 Download PDF

Info

Publication number
CN110853674A
CN110853674A CN201810820373.1A CN201810820373A CN110853674A CN 110853674 A CN110853674 A CN 110853674A CN 201810820373 A CN201810820373 A CN 201810820373A CN 110853674 A CN110853674 A CN 110853674A
Authority
CN
China
Prior art keywords
feature vector
text
checking
input voice
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810820373.1A
Other languages
English (en)
Inventor
王柏鸥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Priority to CN201810820373.1A priority Critical patent/CN110853674A/zh
Publication of CN110853674A publication Critical patent/CN110853674A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例公开一种文本核对方法、设备以及计算机可读存储介质,该方法包括:获取输入语音特征向量和标准语音特征向量;对所述输入语音特征向量和所述标准语音特征向量进行相似度分析,得到文本核对匹配度;将所述文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。本申请实施例通过对输入语音特征向量和标准语音特征向量进行相似度分析,进而确定文本核对结果;一方面保留输入语音的特征向量进行核对,避免解码过程中信息损失和受语言模型干扰;另一方面提高了语音交互中文本核对的准确性,同时为业务处理提供了更大的灵活性。

Description

文本核对方法、设备以及计算机可读存储介质
技术领域
本申请实施例涉及人机语音交互技术领域,尤其涉及一种文本核对方法、设备以及计算机可读存储介质。
背景技术
目前在保险等行业开始尝试开展智能外呼业务。系统集成TTS(Text To Speech,文语转换)/ASR(Automated Speech Recognition,自动语音识别)引擎,通过电话方式呼通用户后,自动播放语音与用户沟通确认,在话音和互动性上模拟和接近话务员的沟通效果。交互过程中除了播放问题让用户选择性回答外,一般会涉及与客户核对身份,年龄、联系方式及住址等。
业界各厂商的ASR引擎支持将语音识别为文本后上报给业务,业务再与期望文本进行比对和匹配等处理。此种方式对固定词汇识别率较高(如询问用户对某产品是否满意,用户回答满意),但在特定领域,如姓名核对,由于客户非标准普通话和口音问题,如果直接将ASR识别结果匹配用户名称,成功率较低,原因是通过语音识别生成文本的过程中,在声学模型匹配和语言模型取舍时,非此即比的判断会导致信息的误判,很难与实际的姓名匹配,即使通过拼音模糊匹配和近似度算法处理,仍然达不到很好效果。
该问题的出现,与ASR的识别处理机制直接相关(详见附图1):在ASR将语音编码处理形成文字的过程,依赖于声学模型和语言模型,识别的时候除了计算声学得分外,还会考虑语言得分,然后挑选一个最佳得分出来,选择为识别结果。对于一些长句子或者常见语汇,语言得分会发挥很大作用(主要是句子长了,语言得分区分度大),声学得分基本上偏差不大。这就会使得ASR识别长句子比较准确(语言得分区分度大导致候选句子间得分区分度大)。短句,特别是非常见语汇,比如人名识别,就比较困难。语言得分和声学得分整体区分度都不够大,识别结果会整体向语言得分稍大的词偏。结果,不仅是“章森”往往往被识别为“张生”,甚至可能把“张五”识别为“商务”等。
可能的一种解决方法是将ASR识别出的姓名与实际姓名做拼音对比,并且模糊音匹配处理,如z、c、s与zh、ch、sh,k、n、h与g、l、f等,认为是相同发音。但由于用户发音本身不规范加上语言模型的相互作用和干扰,核对准确率仍然不高。
发明内容
有鉴于此,本申请实施例的目的在于提供一种文本核对方法、设备以及计算机可读存储介质,以解决语音交互中文本核对的准确率不高的问题。
本申请实施例解决上述技术问题所采用的技术方案如下:
根据本申请实施例的一个方面,提供的一种文本核对方法,所述方法包括:
获取输入语音特征向量和标准语音特征向量;
对所述输入语音特征向量和所述标准语音特征向量进行相似度分析,得到文本核对匹配度;
将所述文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。
根据本申请实施例的另一个方面,提供的一种文本核对设备,所述设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的文本核对程序,所述文本核对程序被所述处理器执行时实现上述的文本核对方法的步骤。
根据本申请实施例的另一个方面,提供的一种计算机可读存储介质,所述计算机可读存储介质上存储有文本核对程序,所述文本核对程序被处理器执行时实现上述的文本核对方法的步骤。
本申请实施例的文本核对方法、设备以及计算机可读存储介质,通过对输入语音特征向量和标准语音特征向量进行相似度分析,进而确定文本核对结果;一方面保留输入语音的特征向量进行核对,避免解码过程中信息损失和受语言模型干扰;另一方面提高了语音交互中文本核对的准确性,同时为业务处理提供了更大的灵活性。
附图说明
图1为现有的ASR的识别处理机制结构示意图;
图2为本申请第一实施例的文本核对方法流程示意图;
图3为本申请实施例的文本核对系统结构示意图;
图4为本申请实施例的根据输入语音的核对场景进行文本核对的流程示意图;
图5为本申请第二实施例的文本核对设备结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请所要解决的技术问题、技术方案及有益效果更加清楚、明白,以下结合附图和实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
第一实施例
如图2所示,本申请第一实施例提供一种文本核对方法,所述方法包括:
步骤S11:获取输入语音特征向量和标准语音特征向量。
在一种实施方式中,所述获取输入语音特征向量包括:
获取输入语音;
提取所述输入语音的特征,生成所述输入语音特征向量。
在该实施方式中,输入语音为对模拟语音信号进行采样编码后转换生成的数字语音信号。在进行采样编码时,一般会将模拟语音信号按照很短的时间间隔(毫秒级别)切成帧,帧与帧之间会有一定的重叠。
在该实施方式中,所述提取所述输入语音的特征,生成所述输入语音特征向量,之前还包括:
确定所述输入语音的核对场景;
所述提取所述输入语音的特征,生成所述输入语音特征向量包括:
根据所述输入语音的核对场景提取所述输入语音的特征,生成所述输入语音特征向量。
在该实施方式中,所述核对场景包括姓名核对场景、车牌核对场景、地址核对场景中的至少一种。
作为示例地,姓名核对场景、车牌核对场景、地址核对场景分别有不同的特征模型:姓名特征(N1,N2,N3,...,Ni),车牌特征(P1,P2,P3,...,Pi),地址特征(A1,A2,A3,...,Ai)。
需要说明的是,对于地址核对场景,地址信息一般包含几个部分,包括市县、城区、街道/小区、门牌号等,生成特征向量时需要考虑客户非常规描述,如省略市县,城区在最后补充说明等情况。
在该实施方式中,所述提取所述输入语音的特征,生成所述输入语音特征向量,之前还包括:
剔除所述输入语音中的非关键语音信息。
作为示例地,在姓名核对时,客户回答“我是xxx”,“我的名字叫xxx”等,需要将“我是”,“我的名字叫”去除后,再提取输入语音的特征。
在该实施方式中,所述提取所述输入语音的特征包括:
通过MFCC(Mel-Frequency Cepstral Coefficients,Mel频率倒谱系数)规则和端点检测方式提取所述输入语音的特征。
具体地,对于语音编码中每一帧,可以通过对应规则和端点检测方式提取信号中的特征,将其变成一个多维向量,例如:(X1,X2,X3,X4)。向量中的每一个维度可以看作描述了这帧信号中的一项特征。
在一种实施方式中,所述获取标准语音特征向量包括:
获取预期文本;
将所述预期文本转换生成所述标准语音特征向量。
在该实施方式中,可通过预设的音库模型数据将所述预期文本转换生成所述标准语音特征向量。音库模型数据可参考现有技术,在此不作赘述。
类似TTS技术中采用的方法,将文字序列转换生成音韵系列,转换时还需考虑语言学上的处理,例如分词,字音转换等。不同之处在于生成的音韵系列不是产生声音波形,而是输出标准语音特征向量,例如:(X′1,X′2,X′3,X′4)。
作为示例地,与上述的核对场景类似的,姓名核对场景、车牌核对场景、地址核对场景分别有不同的特征模型:姓名特征(N′1,N′2,N′3,...,N′i),车牌特征(P′1,P′2,P′3,...,P′i),地址特征(A′1,A′2,A′3,...,A′i)。
步骤S12:对所述输入语音特征向量和所述标准语音特征向量进行相似度分析,得到文本核对匹配度。
在本实施例中,所述对所述输入语音特征向量和所述标准语音特征向量进行相似度分析包括:
对所述输入语音特征向量和所述标准语音特征向量进行相似度度量和距离度量。
步骤S13:将所述文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。
在本实施例中,所述文本核对匹配度的值为(0~1)之间的数值,数值越高越相似。一般情况下,若文本核对匹配度的值>=0.8,即认为输入语音与预期文本核对成功。
为了更好地阐述本实施例,以下结合图3-图4对文本核对过程进行说明:
如图3所示,文本核对系统包括语音输入模块、媒体处理模块、预处理模块和核对模块。
语音输入模块,用于获取用户需要核对的文本(即模拟语音信号),例如:姓名。
媒体处理模块,用于对模拟语音信号进行采样编码后转换生成数字语音信号。
预处理模块,用于确定输入语音的核对场景;提取输入语音的特征,并生成输入语音特征向量。
核对模块,用于通过音库模型数据将预期文本转换生成标准语音特征向量;对输入语音特征向量和标准语音特征向量进行相似度分析,得到文本核对匹配度;将文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。
图4为根据输入语音的核对场景进行文本核对的流程示意图,具体地包括步骤:
S201、对用户输入语音进行编码,转换成数字语音信号。
S202、确定输入语音的核对场景。其中,姓名核对,车牌核对,地址核对分别有不同的特征模型:姓名特征(N1,N2,N3,...,Ni),车牌特征(P1,P2,P3,...,Pi),地址特征(A1,A2,A3,...,Ai)。
S203、通过音库模型数据将预期文本转换生成标准语音特征向量。其中,姓名核对,车牌核对,地址核对分别有不同的特征向量:姓名特征(N′1,N′2,N′3,...,N′i),车牌特征(P′1,P′2,P′3,...,P′i),地址特征(A′1,A′2,A′3,...,A′i)。
S204、对输入语音特征向量和标准语音特征向量进行相似度分析,即计算向量空间余弦相似度和距离。
S205、输出相似度。一般情况下,相似度>=0.8,即认为输入语音与预期文本核对成功。
以下再结合应用场景对文本核对过程进行说明:
应用场景一:保险新契约回访业务。
按银行保监会要求,客户签署保单后,保险公司必须在犹豫期内对客户进行回访,对保险人身份,保险条款,产品特征与客户沟通确认,并进行录音。
为了节省人力成本,保险公司开始推广通过自动语音进行智能外呼,通过呼叫中心IVR(Interactive Voice Response,互动式语音应答)系统呼叫用户,在语音交互过程中除了播放问题让客户选择性回答外,一般会涉及与客户核对被保险人姓名。
此时,对客户输入语音(姓名)进行特征提取生成输入语音特征向量,并将保单中的姓名作为预期文本输入产生标准语音向量,经过相似度分析后输出相似度,IVR流程中再与预先设置的阈值(如,0.9)比较,大于阈值则认为被保人姓名核对成功,继续下一步流程。否则提示客户重新说出被保人姓名再次核对。
应用场景二:车险客户验真回访。
针对非新车客户系统应首先核实车牌号。典型话术为“请问您投保的车辆号牌的后五位是渝***多少?(如:渝A-BC123)”客户输入语音后,在生成输入语音特征向量之前,需要进行预处理,即将客户的说法中可能重复问题的部分“渝A-”去掉,然后再将剩下部分生成输入语音特征向量;生成的输入语音特征向量与“BC123”标准语音特征向量进行相似度分析。
应用场景三:某电子商务网站组织抽奖活动,客户在网站上登记电话号码和收件地址。
为了确保收件地址真实有效,系统事后发起自动语音外呼客户,提示客户说出地址。客户语音回答时,系统需要对语音信号的短时能量、波形走势特征进行端点检测,将客户所说地址信息进行切分,如“重庆市”、“两江新区”、“人和街道”、“星光五路3号”,然后再生成多段输入特征向量(即输入语音特征向量)。同时将客户在网站登记的地址信息进行分词,形成多段预期特征向量(即标准语音特征向量),然后再进行交叉对比,计算最优组合下的匹配度,并加权处理后作为总匹配度输出。
本申请实施例的文本核对方法,通过对输入语音特征向量和标准语音特征向量进行相似度分析,进而确定文本核对结果;一方面保留输入语音的特征向量进行核对,避免解码过程中信息损失和受语言模型干扰;另一方面提高了语音交互中文本核对的准确性,同时为业务处理提供了更大的灵活性。
第二实施例
如图5所示,本申请第二实施例提供一种文本核对设备,所述设备包括:存储器31、处理器32及存储在所述存储器31上并可在所述处理器32上运行的文本核对程序,所述文本核对程序被所述处理器32执行时,用于实现以下所述的文本核对方法的步骤:
获取输入语音特征向量和标准语音特征向量;
对所述输入语音特征向量和所述标准语音特征向量进行相似度分析,得到文本核对匹配度;
将所述文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
获取输入语音;
提取所述输入语音的特征,生成所述输入语音特征向量。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
所述提取所述输入语音的特征,生成所述输入语音特征向量,之前还包括:
确定所述输入语音的核对场景;
所述提取所述输入语音的特征,生成所述输入语音特征向量包括:
根据所述输入语音的核对场景提取所述输入语音的特征,生成所述输入语音特征向量。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
所述核对场景包括姓名核对场景、车牌核对场景、地址核对场景中的至少一种。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
剔除所述输入语音中的非关键语音信息。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
通过Mel频率倒谱系数MFCC规则和端点检测方式提取所述输入语音的特征。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
获取预期文本;
将所述预期文本转换生成所述标准语音特征向量。
所述文本核对程序被所述处理器32执行时,还用于实现以下所述的文本核对方法的步骤:
对所述输入语音特征向量和所述标准语音特征向量进行相似度度量和距离度量。
本申请实施例的文本核对设备,通过对输入语音特征向量和标准语音特征向量进行相似度分析,进而确定文本核对结果;一方面保留输入语音的特征向量进行核对,避免解码过程中信息损失和受语言模型干扰;另一方面提高了语音交互中文本核对的准确性,同时为业务处理提供了更大的灵活性。
第三实施例
本申请第三实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有文本核对程序,所述文本核对程序被处理器执行时用于实现第一实施例所述的文本核对方法的步骤。
需要说明的是,本实施例的计算机可读存储介质,与第一实施例的方法属于同一构思,其具体实现过程详细见方法实施例,且方法实施例中的技术特征在本实施例中均对应适用,这里不再赘述。
本申请实施例的计算机可读存储介质,通过对输入语音特征向量和标准语音特征向量进行相似度分析,进而确定文本核对结果;一方面保留输入语音的特征向量进行核对,避免解码过程中信息损失和受语言模型干扰;另一方面提高了语音交互中文本核对的准确性,同时为业务处理提供了更大的灵活性。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
以上参照附图说明了本申请的优选实施例,并非因此局限本申请的权利范围。本领域技术人员不脱离本申请的范围和实质内所作的任何修改、等同替换和改进,均应在本申请的权利范围之内。

Claims (10)

1.一种文本核对方法,所述方法包括:
获取输入语音特征向量和标准语音特征向量;
对所述输入语音特征向量和所述标准语音特征向量进行相似度分析,得到文本核对匹配度;
将所述文本核对匹配度的值与预设阈值进行比较,并根据比较结果确定文本核对结果。
2.根据权利要求1所述的方法,其特征在于,所述获取输入语音特征向量包括:
获取输入语音;
提取所述输入语音的特征,生成所述输入语音特征向量。
3.根据权利要求2所述的方法,其特征在于,所述提取所述输入语音的特征,生成所述输入语音特征向量,之前还包括:
确定所述输入语音的核对场景;
所述提取所述输入语音的特征,生成所述输入语音特征向量包括:
根据所述输入语音的核对场景提取所述输入语音的特征,生成所述输入语音特征向量。
4.根据权利要求3所述的方法,其特征在于,所述核对场景包括姓名核对场景、车牌核对场景、地址核对场景中的至少一种。
5.根据权利要求2所述的方法,其特征在于,所述提取所述输入语音的特征,生成所述输入语音特征向量,之前还包括:
剔除所述输入语音中的非关键语音信息。
6.根据权利要求2所述的方法,其特征在于,所述提取所述输入语音的特征包括:
通过Mel频率倒谱系数MFCC规则和端点检测方式提取所述输入语音的特征。
7.根据权利要求1所述的方法,其特征在于,所述获取标准语音特征向量包括:
获取预期文本;
将所述预期文本转换生成所述标准语音特征向量。
8.根据权利要求1所述的方法,其特征在于,所述对所述输入语音特征向量和所述标准语音特征向量进行相似度分析包括:
对所述输入语音特征向量和所述标准语音特征向量进行相似度度量和距离度量。
9.一种文本核对设备,其特征在于,所述设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的文本核对程序,所述文本核对程序被所述处理器执行时实现如权利要求1至8中任一项所述的文本核对方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有文本核对程序,所述文本核对程序被处理器执行时实现如权利要求1至8中任一项所述的文本核对方法的步骤。
CN201810820373.1A 2018-07-24 2018-07-24 文本核对方法、设备以及计算机可读存储介质 Withdrawn CN110853674A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810820373.1A CN110853674A (zh) 2018-07-24 2018-07-24 文本核对方法、设备以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810820373.1A CN110853674A (zh) 2018-07-24 2018-07-24 文本核对方法、设备以及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN110853674A true CN110853674A (zh) 2020-02-28

Family

ID=69594343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810820373.1A Withdrawn CN110853674A (zh) 2018-07-24 2018-07-24 文本核对方法、设备以及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110853674A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111613244A (zh) * 2020-05-20 2020-09-01 北京搜狗科技发展有限公司 一种扫描跟读处理的方法及相关装置
CN111898923A (zh) * 2020-08-12 2020-11-06 中国人民解放军总医院第二医学中心 一种信息分析方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512535A (zh) * 2016-01-08 2016-04-20 广东德生科技股份有限公司 一种用户认证的方法及装置
CN105913842A (zh) * 2016-07-03 2016-08-31 朱小龙 一种语音自定义唤醒手机的方法
CN106056207A (zh) * 2016-05-09 2016-10-26 武汉科技大学 一种基于自然语言的机器人深度交互与推理方法与装置
CN106782564A (zh) * 2016-11-18 2017-05-31 百度在线网络技术(北京)有限公司 用于处理语音数据的方法和装置
CN106816149A (zh) * 2015-12-02 2017-06-09 通用汽车环球科技运作有限责任公司 车辆自动语音识别系统的优先化内容加载
CN107516534A (zh) * 2017-08-31 2017-12-26 广东小天才科技有限公司 一种语音信息的比对方法、装置及终端设备
CN108062464A (zh) * 2017-11-27 2018-05-22 北京传嘉科技有限公司 基于声纹识别的终端控制方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106816149A (zh) * 2015-12-02 2017-06-09 通用汽车环球科技运作有限责任公司 车辆自动语音识别系统的优先化内容加载
CN105512535A (zh) * 2016-01-08 2016-04-20 广东德生科技股份有限公司 一种用户认证的方法及装置
CN106056207A (zh) * 2016-05-09 2016-10-26 武汉科技大学 一种基于自然语言的机器人深度交互与推理方法与装置
CN105913842A (zh) * 2016-07-03 2016-08-31 朱小龙 一种语音自定义唤醒手机的方法
CN106782564A (zh) * 2016-11-18 2017-05-31 百度在线网络技术(北京)有限公司 用于处理语音数据的方法和装置
CN107516534A (zh) * 2017-08-31 2017-12-26 广东小天才科技有限公司 一种语音信息的比对方法、装置及终端设备
CN108062464A (zh) * 2017-11-27 2018-05-22 北京传嘉科技有限公司 基于声纹识别的终端控制方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111613244A (zh) * 2020-05-20 2020-09-01 北京搜狗科技发展有限公司 一种扫描跟读处理的方法及相关装置
CN111898923A (zh) * 2020-08-12 2020-11-06 中国人民解放军总医院第二医学中心 一种信息分析方法

Similar Documents

Publication Publication Date Title
CN112804400B (zh) 客服呼叫语音质检方法、装置、电子设备及存储介质
CN110136727B (zh) 基于说话内容的说话者身份识别方法、装置及存储介质
US10593333B2 (en) Method and device for processing voice message, terminal and storage medium
JP6394709B2 (ja) 話者識別装置および話者識別用の登録音声の特徴量登録方法
Juang et al. Automatic recognition and understanding of spoken language-a first step toward natural human-machine communication
WO2020228173A1 (zh) 违规话术检测方法、装置、设备及计算机可读存储介质
US7711105B2 (en) Methods and apparatus for processing foreign accent/language communications
US8949127B2 (en) Recognizing the numeric language in natural spoken dialogue
US5621857A (en) Method and system for identifying and recognizing speech
CN111402862B (zh) 语音识别方法、装置、存储介质及设备
CN104903954A (zh) 使用基于人工神经网络的亚语音单位区分的说话人验证及识别
Burkhardt et al. Detecting anger in automated voice portal dialogs.
CN110198381B (zh) 一种识别ai来电的方法、装置、语音助手、终端、计算机设备及计算机可读存储介质
Kopparapu Non-linguistic analysis of call center conversations
CN113920986A (zh) 会议记录生成方法、装置、设备及存储介质
CN110782902A (zh) 音频数据确定方法、装置、设备和介质
CN112800743A (zh) 一种基于特定领域的语音打分模型构建系统及方法
CN116631412A (zh) 一种通过声纹匹配判断语音机器人的方法
CN115457938A (zh) 识别唤醒词的方法、装置、存储介质及电子装置
CN110853674A (zh) 文本核对方法、设备以及计算机可读存储介质
Cole et al. Experiments with a spoken dialogue system for taking the US census
Barnard et al. Real-world speech recognition with neural networks
Rahim et al. Robust numeric recognition in spoken language dialogue
CN112565242B (zh) 基于声纹识别的远程授权方法、系统、设备及存储介质
CN110875044B (zh) 一种基于字相关得分计算的说话人识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200228