CN109166594A - 一种数据处理方法、装置和用于数据处理的装置 - Google Patents

一种数据处理方法、装置和用于数据处理的装置 Download PDF

Info

Publication number
CN109166594A
CN109166594A CN201810822000.8A CN201810822000A CN109166594A CN 109166594 A CN109166594 A CN 109166594A CN 201810822000 A CN201810822000 A CN 201810822000A CN 109166594 A CN109166594 A CN 109166594A
Authority
CN
China
Prior art keywords
information
translation result
quality information
voiced translation
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810822000.8A
Other languages
English (en)
Inventor
姜里羊
王宇光
阳家俊
施亮亮
卫林钰
陈伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201810822000.8A priority Critical patent/CN109166594A/zh
Priority to PCT/CN2018/117676 priority patent/WO2020019610A1/zh
Publication of CN109166594A publication Critical patent/CN109166594A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提供了一种数据处理方法、装置和用于数据处理的装置。其中的方法具体包括:接收用户输入的第一语种的语音信号;确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。本发明实施例可以向用户提供语音翻译结果的置信度,使用户直观地了解语音翻译结果的准确率。

Description

一种数据处理方法、装置和用于数据处理的装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种数据处理方法、装置和用于数据处理的装置。
背景技术
随着计算机技术的发展,语音数字化及相关技术得到应用,目前已出现多种语音技术的商业化产品,如语音识别和语音翻译等与用户生活相关的应用。
语音翻译一般涉及两个环节,第一是利用语音识别技术,将用户输入的第一语种的语音信号转换为文本;第二是利用机器翻译技术对文本进行翻译,以得到作为语音翻译结果的第二语种的文本,最后向用户提供第二语种的文本或者语音信息。
在实际应用中,语音技术和机器翻译技术的局限性,导致语音翻译结果通常无法具备100%的准确率;这样,用户在不懂第二语种的情况下,将无法判断语音翻译结果是否准确。
发明内容
本发明实施例提供一种数据处理方法、装置和用于数据处理的装置,可以向用户提供语音翻译结果的置信度,使用户直观地了解语音翻译结果的准确率。
为了解决上述问题,本发明实施例公开了一种数据处理方法,包括:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
另一方面,本发明实施例公开了一种数据处理装置,包括:
接收模块,用于接收用户输入的第一语种的语音信号;
确定模块,用于确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;以及
结果质量输出模块,用于输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
再一方面,本发明实施例公开了一种用于数据处理的装置,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
又一方面,本发明实施例公开了一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如前述一个或多个所述的数据处理方法。
本发明实施例包括以下优点:
本发明实施例输出语音翻译结果对应的质量信息,可以向用户提供语音翻译结果的置信度,使用户直观地了解语音翻译结果的准确率,进而可以使用户确定是否需要重新输入语音信号,以获得新的、更为准确的语音翻译结果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的一种数据处理方法的应用环境的示意;
图2是本发明实施例的一种语音翻译系统的示例性结构示意图;
图3是本发明的一种数据处理方法实施例一的步骤流程图;
图4是本发明的一种数据处理方法实施例二的步骤流程图;
图5是本发明的一种数据处理装置实施例的结构框图;
图6是本发明的一种用于数据处理的装置800的框图;及
图7是本发明的一些实施例中服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种数据处理方案,该方案可以包括:接收用户输入的第一语种的语音信号;确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果可以对应第二语种;以及,输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
本发明实施例中,语音翻译结果对应的质量信息可以指语音翻译结果的置信度,本发明实施例输出语音翻译结果对应的质量信息,可以向用户提供语音翻译结果的置信度,使用户直观地了解语音翻译结果的准确率,进而可以使用户确定是否需要重新输入语音信号,以获得新的、更为准确的语音翻译结果。
本发明实施例可以应用于语音翻译、同声翻译等任意的需要对语音识别结果进行在线翻译的场景中。本发明实施例提供的数据处理方法可以应用于例如网站和/或APP(应用程序,Application)的应用环境中,以使用户直观地了解语音翻译结果的准确率。
本发明实施例提供的数据处理方法可应用于图1所示的应用环境中,如图1所示,客户端100与服务器200位于有线或无线网络中,通过该有线或无线网络,客户端100与服务器200进行数据交互。
在实际应用中,客户端100可以接收用户输入的第一语种的语音信号,并向服务器200发送该语音信号。服务器200可以确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息,并向客户端100输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。而客户端100可以向用户展现所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
可以理解,上述服务器200确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息,只是作为可选实施例,实际上,客户端100可以确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息。
可选地,客户端100可以运行在终端上,上述终端具体包括但不限于:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准音频层面3,Moving Picture ExpertsGroup Audio Layer III)播放器、MP4(动态影像专家压缩标准音频层面4,Moving PictureExperts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等。
参照图2,示出了本发明实施例的一种语音翻译系统的示例性结构示意图,其具体可以包括:语音识别装置201和机器翻译装置202。其中,语音识别装置201和机器翻译装置202可以作为单独的装置(包括服务器或者终端),可以共同设置于同一个装置中;可以理解,本发明实施例对于语音识别装置201和机器翻译装置202的具体设置方式不加以限制。
其中,语音识别装置201可用于将讲话用户的语音信号转换为文本,具体地,语音识别装置201可以输出语音识别结果。在实际应用中,讲话用户可以为语音翻译的场景中讲话并发出语音信号的用户,则可以通过麦克风或其他语音采集器件接收讲话用户的语音信号,并向语音识别装置201发送所接收的语音信号;或者,该语音识别装置201可以具有接收讲话用户的语音信号的功能。
可选地,语音识别装置201可以采用语音识别技术将讲话用户的语音信号转换为文本。如果将用户讲话用户的语音信号记作S,对S进行一系列处理后得到与之相对应的语音特征序列O,记作O={O1,O2,…,Oi,…,OT},其中Oi是第i个语音特征,T为语音特征总个数。语音信号S对应的句子可看作是由许多词组成的一个词串,记作W={w1,w2,…,wn}。语音识别的过程就是根据已知的语音特征序列O,求出最可能的词串W。
具体来说,语音识别是一个模型匹配的过程,在这个过程中,可以首先根据人的语音特点建立语音模型,通过对输入的语音信号的分析,抽取所需的特征,来建立语音识别所需的模板;对用户所输入语音进行识别的过程即是将用户所输入语音的特征与所述模板比较的过程,最后确定与所述用户所输入语音匹配的最佳模板,从而获得语音识别的结果。具体的语音识别算法,可采用基于统计的隐含马尔可夫模型的训练和识别算法,也可采用基于神经网络的训练和识别算法、基于动态时间归整匹配的识别算法等等其他算法,本发明实施例对于具体的语音识别过程不加以限制。
机器翻译装置202可以对利用机器翻译技术对语音识别装置201输出的语音识别结果进行翻译,以得到作为语音翻译结果的第二语种的文本,最后向用户提供第二语种的文本或者语音信息。可选地,可以利用文本到语音的转换技术(如语音合成技术),将第二语种的文本转换为第二语种的语音,并通过耳机、扬声器等语音播放器件将第二语种的语音输出。
本发明实施例的上述机器翻译技术可以包括但不限于:规则机器翻译技术、SMT(统计机器翻译,Statistical Machine Translation)技术和NMT(神经网络机器翻译,Neural Machine Translation)技术等。
其中,规则机器翻译技术利用翻译规则进行翻译,然而,翻译规则的确定往往需要语言专家的参与,而且通常每更换一个翻译领域就需要重写大批的翻译规则,需要耗费大量的人力、物力和财力。
统计机器翻译技术的基本思想是通过对大量的平行语料进行统计分析,构建统计翻译模型,进而使用此模型进行翻译。从早期基于词的机器翻译已经过渡到基于短语的翻译,并正在融合句法信息,以进一步提高翻译的精确性。
神经网络机器翻译技术是最近几年提出来的一种机器翻译技术。相比于SMT,NMT能够训练一张能够从一个序列映射到另一个序列的神经网络,输出的可以是一个变长的序列,这在翻译、对话和文字概括方面能够获得非常好的表现。NMT其实是一个encoder-decoder(编码器-编码器)系统,encoder把源语言文本进行编码,并提取源语言文本中信息,通过decoder再把这种信息转换到另一种语言即目标语言中来,从而完成对语言的翻译。
方法实施例一
参照图3,示出了本发明的一种数据处理方法实施例一的步骤流程图,具体可以包括如下步骤:
步骤301、接收用户输入的第一语种的语音信号;
步骤302、确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果可以对应第二语种;
步骤303、输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
图3所示实施例的至少一个步骤可由服务器和/或客户端执行,当然本发明实施例对于各个步骤的具体执行主体不加以限制。
本发明实施例中,第一语种和第二语种可用于表示不同的两种语言,上述第一语种和第二语种可由用户预置得到,也可通过分析用户的历史行为得到。可选地,可以将用户最常用的语言作为第一语种,将除第一语种之外使用过的语言作为第二语种。可以理解,本发明实施例的第二语种的数量可以为一种或者多种,例如,对于以中文(汉语)为母语的用户而言,第一语种可以为中文(汉语),第二语种可以为英文、日文、韩文、德文、法文、少数民族语言和盲文中的一种或者组合。
步骤301中,可以通过麦克风或其他语音采集器件接收用户的语音信号。
步骤302中,可以利用例如图2所示的语音翻译系统,确定所述语音信号对应的语音翻译结果。具体地,可以首先利用语音识别技术,将用户输入的第一语种的语音信号转换为文本,也即语音识别结果;然后,利用机器翻译技术对语音识别结果进行翻译,以得到作为语音翻译结果的第二语种的文本。可以理解,本发明实施例对于确定所述语音信号对应的语音翻译结果的具体过程不加以限制。
本发明实施例中,语音翻译结果对应的质量信息可以指语音翻译结果的置信度。
在实际应用中,可以通过数值来表征该质量信息。该质量信息对应的数值范围可以为0~100,该质量信息还可以对应有单位。根据一种实施例,该质量信息的单位可以为“分”,例如,输出的质量信息可以为“90分”等。根据另一种实施例,该质量信息对应的单位可以为“%”,例如,输出的质量信息可以为“90%”等。可以理解,本发明实施例对于质量信息的具体数值范围、以及对应的单位不加以限制。
本发明实施例中,可选的是,所述语音翻译结果对应的质量信息具体可以包括:
1)所述语音信号对应语音识别结果的语音识别质量信息;和/或
语音识别质量信息可用于表征语音识别结果的质量,其可以受到语音识别技术的影响。
在本发明的一种可选实施例中,语音识别质量信息对应的特征可以包括:语言模型特征和声学特征,这样,可以依据语言模型特征和声学特征,确定语音识别质量信息。
可选地,语言模型特征可由语言模型提供。语言模型用于描述给定词序列在语言中的出现概率的分布。具体到本发明实施例,语言模型可以给出语音识别结果对应的词序列在语言中的出现概率。可以将语言模型描述的语音识别结果对应的词序列在语言中的出现的概率的分布称为语言模型得分。
可选地,声学特征可由声学模型提供。声学模型可用于计算语音信号的每个帧的发音概率。可以依据声学模型计算语音识别结果对应的声学得分。
可选地,可以对语音识别结果对应的语言模型得分和声学得分进行融合,以得到语音识别质量信息。上述融合可以包括:加权平均等,可以理解,本发明实施例对于具体的融合方式不加以限制。
可以理解,上述语言模型特征和声学特征只是作为语音识别质量信息对应的特征的可选实施例,实际上,本发明实施例中语音识别质量信息对应的特征可以包括:声学特征和语音单元语速差异值等,通常,语音单元语速差异值越低,则对应的语音识别质量越高。
2)所述语音翻译结果对应的翻译质量信息;和/或
翻译质量信息可用于表征语音翻译结果的质量,其可以受到机器翻译技术的影响。
根据一种实施例,在采用模式识别类型的机器翻译技术,如SMT、NMT等机器翻译技术的情况下,翻译质量信息可以为:在语音识别结果出现的情况下,语音翻译结果出现的条件概率。
根据另一种实施例,可以采用BLEU(双语评估研究,bilingual evaluationunderstudy),来确定机器翻译结果的质量。BLEU的原理是:机器翻译结果越接近人工翻译结果,则机器翻译结果的质量越高。在实际应用中,可以句子为单位,确定机器翻译结果与人工翻译结果之间的相似度,并依据该相似度,确定翻译质量信息。通常该相似度越高,则翻译质量信息越高。
可以理解,模式识别类型的机器翻译技术和BLEU只是作为翻译质量信息的确定方式的可选实施例,实际上,本领域技术人员可以根据实际应用需求,采用其他确定方式确定翻译质量信息,本发明实施例对于翻译质量信息的具体确定方式不加以限制。
3)所述语音翻译结果对应的综合质量信息;所述综合质量信息可以为依据所述语音识别质量信息和所述翻译质量信息得到,该综合质量信息可以受到语音识别技术和机器翻译技术的综合影响。
在实际应用中,可以对语音识别质量信息和和翻译质量信息进行融合,以得到上述综合质量信息。上述融合方式可以包括:加权平均方式等,可以理解,本发明实施例对于具体的融合方式不加以限制。
需要说明的是,本发明实施例得到的质量信息可能不在上述数值范围内,此种情况下,可以通过标准化、或者归一化方法,对上述质量信息进行处理,以得到位于上述数值范围内的质量信息。
步骤303中,可以展现所述语音翻译结果,并通过语音播报形式或者界面形式,输出所述语音翻译结果对应的质量信息。
例如,可以展现所述语音翻译结果对应的综合质量信息,或者,可以展现所述语音翻译结果对应的语音识别质量信息和翻译质量信息。输出的质量信息可以使用户直观地了解语音翻译结果的准确率。
综上,本发明实施例的数据处理方法,输出语音翻译结果对应的质量信息,可以向用户提供语音翻译结果的置信度,使用户直观地了解语音翻译结果的准确率,进而可以使用户确定是否需要重新输入语音信号,以获得新的、更为准确的语音翻译结果。
方法实施例二
参照图4,示出了本发明的一种数据处理方法实施例二的步骤流程图,具体可以包括如下步骤:
步骤401、接收用户输入的第一语种的语音信号;
步骤402、确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果可以对应第二语种;
步骤403、输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
相对于图3所示方法实施例一,本发明实施例的方法还可以包括:
步骤404、若所述质量信息符合预置低质量条件,则输出建议信息。
预置低质量条件可用于约束低的质量信息。上述预置低质量条件可以包括但不限于:
语音识别质量信息不超过第一阈值;和/或
翻译质量信息不超过第二阈值;和/或
综合质量信息不超过第三阈值。
上述第一阈值、第二阈值、第三阈值可由本领域技术人员或者用户根据实际应用需求确定。例如,可以向用户提供设置接口,以使用户通过上述设置接口,进行上述第一阈值、第二阈值、或者第三阈值的设置,由此可以得到符合用户需求的上述第一阈值、第二阈值、或者第三阈值。例如,用户1设置的第三阈值为85分,用户2设置的第三阈值为80分,而用户3设置的第三阈值为60分,等等。
本发明实施例在上述质量信息符合预置低质量条件的情况下,说明语音翻译结果的质量较低,此种情况下,可以输出建议信息,上述建议信息可以给用户再次输入语音信息提供有效的建议,因此可以提高用户再次输入的语音信息的准确度。
本发明实施例输出建议信息,所采用的输出方式可以包括:界面展现方式、和/或、语音播报方式。其中,界面展现方式可以是在交互界面上展示建议信息对应的文本或者图片或者视频(如动画);语音播报方式可以通过语音向用户提示上述建议信息。可以理解,本领域技术人员可以根据实际应用需求,采用界面展现方式和语音播报方式中的任一或者组合。
本发明实施例中,可选的是,建议信息可以包括但不限于如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
其中,发音建议信息可用于指导用户发音,以使用户输入发音更准确的语音信息,进而可以得到更准确的语音翻译结果。
根据一种实施例,语音识别质量较低的原因可以包括:语音识别结果中包含专有名词或同音易混词。在语音识别质量较低的情况下,若语音识别结果中包含专有名词或同音易混词,则可以说明因为专有名词或同音易混词造成了语音识别错误,因此可以建议用户更准确地发音。例如,语音识别结果为“时间检验真理”,其中,“时间”为同音易混词,“时间”对应的同音易混词可以包括“实践”等,该示例中用户需要的语音识别结果应该为“实践检验真理”,此种情况下,可以向用户输出发音建议信息:“请注意shijian的发音”等,以使用户输入发音更准确的语音信息。
根据另一种实施例,语音识别质量较低的原因可以包括:语音信号中含有噪音。此种情况下,发音建议信息可以为“请到安静环境重新输入”,以减少语音信号中的噪音,进而可以避免因噪音而导致语音识别质量低的情况,进而可以提高语音识别质量。
语法建议信息可用于建议用户改进语法。在语法不符合规范的情况下,可以造成语音识别质量较低,或者,即使语音识别质量较高、但翻译质量较低;此种情况下,可以建议用户改进语法。语法不符合规范可以包括:用词不当、成分残缺(如缺少主语)、搭配不当(如动宾搭配不当等)、结构错乱、呼应混乱、句式复杂等,此种情况下,可以依据语法问题,向用户提供相应的语法建议信息。例如,在缺少主语的情况下,语法建议信息可以为“请补充主语”等。
上述语法建议信息可以进一步包括:用词建议信息。用词建议信息可用于指导用户用词。例如,在语音识别质量较低的情况下,若语音识别结果中包含大量的口语,如“嗯”、“啊”、“这个”等,则可以认为口语造成了语音识别错误,因此可以建议用户使用书面语、或者少使用口语或者少使用口头禅,以得到更准确的语音翻译结果。
上述语法建议信息可以进一步包括:句式建议信息。句式建议信息可用于建议用户改进句式。句子可以指句子的结构方式。句式可以包括但不限于:陈述句、反问句、设问句、疑问句、肯定句、否定句、双重否定句、把字句、被字句、祈使句、感叹句、倒装句。其中,为了强调、突出等词语的目的而颠倒原有语序的句式叫做倒装句,在倒装句中,颠倒了的成分可以恢复原位而句意基本不变,句法成分不变。通常,句式的复杂度将影响翻译质量。因此,在由于句式复杂导致翻译质量较低的情况下,可以向用户提供句式建议信息,如“请变换句式”、“请使用简单的句式”、或者“请将倒装句改为正常语序”等,以得到更准确的语音翻译结果。
在实际应用中,本领域技术人员可以根据实际应用需求,采用上述发音建议信息和语法建议信息中的任一或者组合,或者,还可以采用其他建议信息,可以理解,本发明实施例对于具体的建议信息不加以限制。
本发明实施例中,可选的是,所述建议信息可以为依据所述语音信号对应语音识别结果的语法分析结果得到。其中,可以对语音识别结果进行语法分析,以得到上述语法分析结果。语法可以包括词法和句法。词法的研究范围包括:各类词的构成、词形变化(形态)和词类。句法的研究范围包括:短语、句子的结构规律和类型。语法分析方法可以包括:句子成分分析方法、层次分析方法、变换分析方法、语义特征分析方法等。
在本发明的一种可选实施例中,可以依据语音识别结果的语法分析结果,确定语音识别结果的语法问题,并确定该语法问题对应的建议信息。该建议信息可以直接包含该语法问题或者隐含该语法问题,或者,该建议信息可以包括:针对该语法问题的纠正信息。
例如,语法问题包括:句式复杂,则该建议信息可以包括:“句式过于复杂”、或者“请使用简单的句式”等。又如,又如,语法问题包括:缺少主语,则该建议信息可以包括:“缺少主语”、或者“请使用主语”等。再如,语法问题包括:动宾搭配不当,对应的例子可以包括“你的歌声焕发着泥土的芳香”,则该建议信息可以包括:“焕发与芳香搭配不当”、或者“请用散发”等。
本发明实施例可以依据具体的质量信息提供如下输出建议信息的技术方案:
技术方案1
技术方案1中,步骤404若所述质量信息符合预置低质量条件,则输出建议信息,具体可以包括:
若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息可以包括:发音建议信息和语法建议信息中的至少一种。
语音识别质量信息符合第一预置低质量条件,可以说明语音识别的质量或者置信度较低,语音识别的质量较低的原因可以包括:某些专有名词或者同音易混词造成的识别错误;或者,语言太过口语化(如缺少主语、语序混乱等);或者,用户口误导致发音变形。此种情况下,可以输出第一建议信息,以使用户再次输入语音信息,并且,上述第一建议信息可以使用户通过再次输入的语音信息获得更准确的语音翻译结果。
技术方案2
技术方案2中,步骤404若所述质量信息符合预置低质量条件,则输出建议信息,具体可以包括:
所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息可以包括:语法建议信息。
翻译质量信息符合第二预置低质量条件,可以说明翻译的质量或者置信度较低,翻译的质量较低的原因可以包括:句式复杂或者语法不符合规范。此种情况下,可以建议用户变换句式(如倒装句改为正常语序、缺少主语的句子补充主语等),以使用户通过再次输入的语音信息获得更准确的语音翻译结果。
需要说明的是,在本发明的一种实施例中,若所述语音信号对应语音识别结果的语音识别质量信息不符合第一预置低质量条件,且所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息可以包括:语法建议信息。此种情况下,可以认为语音识别的置信度高、但翻译的置信度低,因此可以依据翻译的置信度低的原因,给出相应的第二建议信息。
综上,本发明实施例的数据处理方法,在上述质量信息符合预置低质量条件的情况下,说明语音翻译结果的质量较低,此种情况下,可以输出建议信息,上述建议信息可以给用户再次输入语音信息提供有效的建议,因此可以提高用户再次输入的语音信息的准确度。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
装置实施例
参照图5,示出了本发明的一种数据处理装置实施例的结构框图,具体可以包括:
接收模块501,用于接收用户输入的第一语种的语音信号;
确定模块502,用于确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;以及
结果质量输出模块503,用于输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
可选地,所述语音翻译结果对应的质量信息可以包括:
所述语音信号对应语音识别结果的语音识别质量信息;和/或
所述语音翻译结果对应的翻译质量信息;和/或
所述语音翻译结果对应的综合质量信息;所述综合质量信息为依据所述语音识别质量信息和所述翻译质量信息得到。
可选地,所述装置还可以包括:
建议输出模块,用于若所述质量信息符合预置低质量条件,则输出建议信息。
可选地,所述建议信息可以包括如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
可选地,所述建议输出模块可以包括:
第一建议输出模块,用于若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息可以包括:发音建议信息和语法建议信息中的至少一种。
可选地,所述建议输出模块可以包括:
第二建议输出模块,用于所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息可以包括:语法建议信息。
可选地,所述建议信息为依据所述语音信号对应语音识别结果的语法分析结果得到。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明实施例提供了一种用于数据处理的装置,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:接收用户输入的第一语种的语音信号;确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
图6是根据一示例性实施例示出的一种用于数据处理的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音数据处理模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频数据处理(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图7是本发明的一些实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processingunits,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作系统1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置(服务器或者终端)的处理器执行时,使得装置能够执行图3或图4所示的数据处理方法。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置(服务器或者终端)的处理器执行时,使得装置能够执行一种数据处理方法,所述方法包括:接收用户输入的第一语种的语音信号;确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
本发明实施例公开了A1、一种数据处理方法,所述方法包括:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
A2、根据A1所述的方法,所述语音翻译结果对应的质量信息包括:
所述语音信号对应语音识别结果的语音识别质量信息;和/或
所述语音翻译结果对应的翻译质量信息;和/或
所述语音翻译结果对应的综合质量信息;所述综合质量信息为依据所述语音识别质量信息和所述翻译质量信息得到。
A3、根据A1或A2所述的方法,所述方法还包括:
若所述质量信息符合预置低质量条件,则输出建议信息。
A4、根据A3所述的方法,所述建议信息包括如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
A5、根据A3所述的方法,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息包括:发音建议信息和语法建议信息中的至少一种。
A6、根据A3所述的方法,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息包括:语法建议信息。
A7、根据A3所述的方法,所述建议信息为依据所述语音信号对应语音识别结果的语法分析结果得到。
本发明实施例公开了B8、一种数据处理装置,包括:
接收模块,用于接收用户输入的第一语种的语音信号;
确定模块,用于确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;以及
结果质量输出模块,用于输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
B9、根据B8所述的装置,所述语音翻译结果对应的质量信息包括:
所述语音信号对应语音识别结果的语音识别质量信息;和/或
所述语音翻译结果对应的翻译质量信息;和/或
所述语音翻译结果对应的综合质量信息;所述综合质量信息为依据所述语音识别质量信息和所述翻译质量信息得到。
B10、根据B8或9所述的装置,所述装置还包括:
建议输出模块,用于若所述质量信息符合预置低质量条件,则输出建议信息。
B11、根据B10所述的装置,所述建议信息包括如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
B12、根据B10所述的装置,所述建议输出模块包括:
第一建议输出模块,用于若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息包括:发音建议信息和语法建议信息中的至少一种。
B13、根据B10所述的装置,所述建议输出模块包括:
第二建议输出模块,用于所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息包括:语法建议信息。
B14、根据B10所述的装置,所述建议信息为依据所述语音信号对应语音识别结果的语法分析结果得到。
本发明实施例公开了C15、一种用于数据处理的装置,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
C16、根据C15所述的装置,所述语音翻译结果对应的质量信息包括:
所述语音信号对应语音识别结果的语音识别质量信息;和/或
所述语音翻译结果对应的翻译质量信息;和/或
所述语音翻译结果对应的综合质量信息;所述综合质量信息为依据所述语音识别质量信息和所述翻译质量信息得到。
C17、根据C15或C16所述的装置,所述装置还包括:
若所述质量信息符合预置低质量条件,则输出建议信息。
C18、根据C17所述的装置,所述建议信息包括如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
C19、根据C17所述的装置,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息包括:发音建议信息和语法建议信息中的至少一种。
C20、根据C17所述的装置,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息包括:语法建议信息。
C21、根据C17所述的装置,所述建议信息为依据所述语音信号对应语音识别结果的语法分析结果得到。
本发明实施例公开了D22、一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如A1至A7中一个或多个所述的数据处理方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上对本发明所提供的一种数据处理方法、一种数据处理装置和一种用于数据处理的装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种数据处理方法,其特征在于,所述方法包括:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
2.根据权利要求1所述的方法,其特征在于,所述语音翻译结果对应的质量信息包括:
所述语音信号对应语音识别结果的语音识别质量信息;和/或
所述语音翻译结果对应的翻译质量信息;和/或
所述语音翻译结果对应的综合质量信息;所述综合质量信息为依据所述语音识别质量信息和所述翻译质量信息得到。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
若所述质量信息符合预置低质量条件,则输出建议信息。
4.根据权利要求3所述的方法,其特征在于,所述建议信息包括如下信息中的至少一种:
发音建议信息;以及
语法建议信息。
5.根据权利要求3所述的方法,其特征在于,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
若所述语音信号对应语音识别结果的语音识别质量信息符合第一预置低质量条件,则输出第一建议信息,所述第一建议信息包括:发音建议信息和语法建议信息中的至少一种。
6.根据权利要求3所述的方法,其特征在于,所述若所述质量信息符合预置低质量条件,则输出建议信息,包括:
所述语音翻译结果对应的翻译质量信息符合第二预置低质量条件,则输出第二建议信息,所述第二建议信息包括:语法建议信息。
7.根据权利要求3所述的方法,其特征在于,所述建议信息为依据所述语音信号对应语音识别结果的语法分析结果得到。
8.一种数据处理装置,其特征在于,包括:
接收模块,用于接收用户输入的第一语种的语音信号;
确定模块,用于确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;以及
结果质量输出模块,用于输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
9.一种用于数据处理的装置,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
接收用户输入的第一语种的语音信号;
确定所述语音信号对应的语音翻译结果、以及所述语音翻译结果对应的质量信息;所述语音翻译结果对应第二语种;
输出所述语音翻译结果、以及所述语音翻译结果对应的质量信息。
10.一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如权利要求1至7中一个或多个所述的数据处理方法。
CN201810822000.8A 2018-07-24 2018-07-24 一种数据处理方法、装置和用于数据处理的装置 Pending CN109166594A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810822000.8A CN109166594A (zh) 2018-07-24 2018-07-24 一种数据处理方法、装置和用于数据处理的装置
PCT/CN2018/117676 WO2020019610A1 (zh) 2018-07-24 2018-11-27 一种数据处理方法、装置和用于数据处理的装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810822000.8A CN109166594A (zh) 2018-07-24 2018-07-24 一种数据处理方法、装置和用于数据处理的装置

Publications (1)

Publication Number Publication Date
CN109166594A true CN109166594A (zh) 2019-01-08

Family

ID=64898318

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810822000.8A Pending CN109166594A (zh) 2018-07-24 2018-07-24 一种数据处理方法、装置和用于数据处理的装置

Country Status (2)

Country Link
CN (1) CN109166594A (zh)
WO (1) WO2020019610A1 (zh)

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1275223A (zh) * 1998-08-31 2000-11-29 索尼株式会社 自然语言处理装置及方法
CN1614684A (zh) * 2003-11-03 2005-05-11 微星科技股份有限公司 发音矫正设备及方法
CN101256559A (zh) * 2007-02-27 2008-09-03 株式会社东芝 用于处理输入语音的装置和方法
CN101366065A (zh) * 2005-11-30 2009-02-11 语文交流企业公司 交互式语言教育系统和方法
CN101661675A (zh) * 2009-09-29 2010-03-03 苏州思必驰信息科技有限公司 一种错误自感知的声调发音学习方法和系统
CN101727900A (zh) * 2009-11-24 2010-06-09 北京中星微电子有限公司 一种用户发音检测方法及设备
US20120078607A1 (en) * 2010-09-29 2012-03-29 Kabushiki Kaisha Toshiba Speech translation apparatus, method and program
US20120109626A1 (en) * 2010-10-31 2012-05-03 Fathy Yassa Speech Morphing Communication System
CN103744843A (zh) * 2013-12-25 2014-04-23 北京百度网讯科技有限公司 一种在线语音翻译方法及装置
CN104380375A (zh) * 2012-03-08 2015-02-25 脸谱公司 用于从对话中提取信息的设备
CN106202029A (zh) * 2015-05-07 2016-12-07 阿里巴巴集团控股有限公司 一种指示描述信息的歧义的方法和装置
CN106415528A (zh) * 2014-02-12 2017-02-15 夏普株式会社 翻译装置
CN106558252A (zh) * 2015-09-28 2017-04-05 百度在线网络技术(北京)有限公司 由计算机实现的口语练习方法及装置
CN106571139A (zh) * 2016-11-09 2017-04-19 百度在线网络技术(北京)有限公司 基于人工智能的语音搜索结果处理方法及装置
CN106598957A (zh) * 2016-12-21 2017-04-26 语联网(武汉)信息技术有限公司 一种译句的数据分析方法及系统
CN107220243A (zh) * 2017-05-31 2017-09-29 陈振 一种数据库交互式翻译系统
CN107315742A (zh) * 2017-07-03 2017-11-03 中国科学院自动化研究所 具有人机对话功能的拟人化口语翻译方法及系统
CN107480147A (zh) * 2017-08-15 2017-12-15 中译语通科技(北京)有限公司 一种对比评价机器翻译系统的方法及系统
CN107767871A (zh) * 2017-10-12 2018-03-06 安徽听见科技有限公司 文本显示方法、终端及服务器
CN107886940A (zh) * 2017-11-10 2018-04-06 科大讯飞股份有限公司 语音翻译处理方法及装置
CN107977356A (zh) * 2017-11-21 2018-05-01 新疆科大讯飞信息科技有限责任公司 识别文本纠错方法及装置
CN108228574A (zh) * 2017-12-07 2018-06-29 科大讯飞股份有限公司 文本翻译处理方法及装置
CN108304389A (zh) * 2017-12-07 2018-07-20 科大讯飞股份有限公司 交互式语音翻译方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI276046B (en) * 2005-02-18 2007-03-11 Delta Electronics Inc Distributed language processing system and method of transmitting medium information therefore

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1275223A (zh) * 1998-08-31 2000-11-29 索尼株式会社 自然语言处理装置及方法
CN1614684A (zh) * 2003-11-03 2005-05-11 微星科技股份有限公司 发音矫正设备及方法
CN101366065A (zh) * 2005-11-30 2009-02-11 语文交流企业公司 交互式语言教育系统和方法
CN101256559A (zh) * 2007-02-27 2008-09-03 株式会社东芝 用于处理输入语音的装置和方法
CN101661675A (zh) * 2009-09-29 2010-03-03 苏州思必驰信息科技有限公司 一种错误自感知的声调发音学习方法和系统
CN101727900A (zh) * 2009-11-24 2010-06-09 北京中星微电子有限公司 一种用户发音检测方法及设备
US20120078607A1 (en) * 2010-09-29 2012-03-29 Kabushiki Kaisha Toshiba Speech translation apparatus, method and program
US20120109626A1 (en) * 2010-10-31 2012-05-03 Fathy Yassa Speech Morphing Communication System
CN104380375A (zh) * 2012-03-08 2015-02-25 脸谱公司 用于从对话中提取信息的设备
CN103744843A (zh) * 2013-12-25 2014-04-23 北京百度网讯科技有限公司 一种在线语音翻译方法及装置
CN106415528A (zh) * 2014-02-12 2017-02-15 夏普株式会社 翻译装置
CN106202029A (zh) * 2015-05-07 2016-12-07 阿里巴巴集团控股有限公司 一种指示描述信息的歧义的方法和装置
CN106558252A (zh) * 2015-09-28 2017-04-05 百度在线网络技术(北京)有限公司 由计算机实现的口语练习方法及装置
CN106571139A (zh) * 2016-11-09 2017-04-19 百度在线网络技术(北京)有限公司 基于人工智能的语音搜索结果处理方法及装置
CN106598957A (zh) * 2016-12-21 2017-04-26 语联网(武汉)信息技术有限公司 一种译句的数据分析方法及系统
CN107220243A (zh) * 2017-05-31 2017-09-29 陈振 一种数据库交互式翻译系统
CN107315742A (zh) * 2017-07-03 2017-11-03 中国科学院自动化研究所 具有人机对话功能的拟人化口语翻译方法及系统
CN107480147A (zh) * 2017-08-15 2017-12-15 中译语通科技(北京)有限公司 一种对比评价机器翻译系统的方法及系统
CN107767871A (zh) * 2017-10-12 2018-03-06 安徽听见科技有限公司 文本显示方法、终端及服务器
CN107886940A (zh) * 2017-11-10 2018-04-06 科大讯飞股份有限公司 语音翻译处理方法及装置
CN107977356A (zh) * 2017-11-21 2018-05-01 新疆科大讯飞信息科技有限责任公司 识别文本纠错方法及装置
CN108228574A (zh) * 2017-12-07 2018-06-29 科大讯飞股份有限公司 文本翻译处理方法及装置
CN108304389A (zh) * 2017-12-07 2018-07-20 科大讯飞股份有限公司 交互式语音翻译方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
苏剑波 等: "《应用模式识别技术导论 人脸识别与语音识别》", 31 May 2001, 上海交通大学出版社 *

Also Published As

Publication number Publication date
WO2020019610A1 (zh) 2020-01-30

Similar Documents

Publication Publication Date Title
US10402501B2 (en) Multi-lingual virtual personal assistant
CN110288077B (zh) 一种基于人工智能的合成说话表情的方法和相关装置
US11302337B2 (en) Voiceprint recognition method and apparatus
CN110288985B (zh) 语音数据处理方法、装置、电子设备及存储介质
US20220246140A1 (en) Dynamic and/or context-specific hot words to invoke automated assistant
US20200126566A1 (en) Method and apparatus for voice interaction
CN107632980A (zh) 语音翻译方法和装置、用于语音翻译的装置
CN107291690A (zh) 标点添加方法和装置、用于标点添加的装置
CN112040263A (zh) 视频处理方法、视频播放方法、装置、存储介质和设备
CN108399914B (zh) 一种语音识别的方法和装置
CN107221330A (zh) 标点添加方法和装置、用于标点添加的装置
CN110210310A (zh) 一种视频处理方法、装置和用于视频处理的装置
CN111414506B (zh) 基于人工智能情绪处理方法、装置、电子设备及存储介质
CN109543021B (zh) 一种面向智能机器人的故事数据处理方法及系统
CN112309365A (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
CN107291704A (zh) 处理方法和装置、用于处理的装置
CN107274903A (zh) 文本处理方法和装置、用于文本处理的装置
CN108345612A (zh) 一种问题处理方法和装置、一种用于问题处理的装置
CN108628819B (zh) 处理方法和装置、用于处理的装置
CN107564526A (zh) 处理方法、装置和机器可读介质
CN108628813A (zh) 处理方法和装置、用于处理的装置
CN108073572A (zh) 信息处理方法及其装置、同声翻译系统
CN108255940A (zh) 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置
CN112669842A (zh) 人机对话控制方法、装置、计算机设备及存储介质
CN108255939A (zh) 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190108

RJ01 Rejection of invention patent application after publication