CN102473413A - 语音翻译系统、词典服务器装置及其程序 - Google Patents
语音翻译系统、词典服务器装置及其程序 Download PDFInfo
- Publication number
- CN102473413A CN102473413A CN2010800312696A CN201080031269A CN102473413A CN 102473413 A CN102473413 A CN 102473413A CN 2010800312696 A CN2010800312696 A CN 2010800312696A CN 201080031269 A CN201080031269 A CN 201080031269A CN 102473413 A CN102473413 A CN 102473413A
- Authority
- CN
- China
- Prior art keywords
- information
- language
- translation
- phonetic synthesis
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 491
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 370
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 365
- 230000005540 biological transmission Effects 0.000 claims description 129
- 238000012545 processing Methods 0.000 claims description 70
- 230000002194 synthesizing effect Effects 0.000 claims description 47
- 230000013011 mating Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 244000188472 Ilex paraguariensis Species 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 230000009471 action Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008676 import Effects 0.000 description 6
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
Abstract
以往,在语音翻译中使用的语音识别词典、翻译词典以及语音合成词典中存在不匹配的现象。通过词典服务器装置能够消除词典之间的不匹配,该词典服务器装置具备:全语言配对词典存储部,对于两种以上的语言,能够存储用于语音识别、翻译、语音合成的两个以上的全语言术语信息;语音识别用信息传送部,对于所有语言,取得包括术语的语音识别信息在内的语音识别用信息,并传送给一个以上的语音识别服务器装置;翻译用信息传送部,对于所有语言,取得包括术语标记的翻译用信息,并传送给一个以上的翻译服务器装置;语音合成用信息传送部,对于所有语言,取得包括术语的语音合成信息在内的语音合成用信息,并传送给一个以上的语音合成服务器装置。
Description
技术领域
本发明涉及进行语音翻译的语音翻译系统等。
背景技术
在以往的语音翻译系统中,具有用于提高语音识别的准确性、提高翻译处理的准确性等提高各部分处理的准确性的技术(例如,参照专利文献1、专利文献2)。
专利文献1:日本特开2008-243080号公报(第一页、图1等)
专利文献2:日本特开2009-140503号公报(第一页、图1等)
发明内容
发明所要解决的问题
但是,以往,由于进行语音翻译处理时使用的语音识别词典、翻译词典以及语音合成词典之间存在不匹配,所以有时不能进行语音翻译。词典之间的不匹配是指,有些词典中存在的术语信息在其它词典中不存在等现象。
问题解决方法
本第一发明的语音翻译系统,具有词典服务器装置、一个以上的语音识别服务器装置、一个以上的翻译服务器装置、一个以上的语音合成服务器装置,其中,词典服务器装置具备:全语言配对词典存储部,能够存储两个以上的全语言术语信息,该全语言术语信息具有在两种以上语言的所有语言中相互匹配的术语信息,该术语信息具有两种以上语言的各语言中的术语标记、语音识别信息以及语音合成信息,该术语拥有一个以上的单词,该语音识别信息为对术语进行语音识别所需的信息,而该语音合成信息为对术语进行语音合成所需的信息;语音识别用信息传送部,对于两种以上语言中的所有语言或两种以上语言中的部分语言,从全语言配对词典存储部取得包括术语的语音识别信息的语音识别用信息,并传送给一个以上的语音识别服务器装置;翻译用信息传送部,对于两种以上语言中的所有语言或两种以上语言中的部分语言,从全语言配对词典存储部取得包括术语标记的翻译用信息,并传送给一个以上的翻译服务器装置;语音合成用信息传送部,对于两种以上语言中的所有语言或两种以上语言中的部分语言,从全语言配对词典存储部取得包括术语的语音合成信息的语音合成用信息,并传送给一个以上的语音合成服务器装置;
语音识别服务器装置具备:语音识别用信息存储部,能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;语音识别用信息接收部,从词典服务器装置接收两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;语音识别用信息积存部,将语音识别用信息接收部接收的语音识别用信息积存在语音识别用信息存储部;语音信息接收部,接收作为输入到第一终端装置的语音的信息的语音信息;语音识别部,利用语音识别用信息存储部的语音识别用信息,对语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果;语音识别结果传送部,传送语音识别结果;
翻译服务器装置具备:翻译用信息存储部,能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;翻译用信息接收部,从词典服务器装置接收两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;翻译用信息积存部,将翻译用信息接收部接收的翻译用信息积存在翻译用信息存储部;语音识别结果接收部,接收语音识别结果;翻译部,利用翻译用信息存储部的翻译用信息,将语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果;翻译结果传送部,传送翻译结果;
语音合成服务器装置具备:语音合成用信息存储部,能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;语音合成用信息接收部,从词典服务器装置接收两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;语音合成用信息积存部,将语音合成用信息接收部接收的语音合成用信息积存在语音合成用信息存储部;翻译结果接收部,接收翻译结果;语音合成部,利用语音合成用信息存储部的语音合成用信息,对翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果;语音合成结果传送部,将语音合成结果传送给第二终端装置。
根据这样的构成,能够消除语音翻译中使用的词典之间的不匹配。
而且,本第二发明的语音翻译系统,对于第一发明,语音识别服务器装置的语音识别部具备:语音识别判断单元,判断对语音信息接收部接收的语音信息的语音识别处理是成功还是失败;语音识别信息传送指示单元,当语音识别判断单元判断语音识别处理失败了时,对词典服务器装置进行传送语音识别信息的指示;语音识别单元,利用语音识别用信息存储部的语音识别用信息,对语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果,而且,与指示的传送对应地,利用语音识别用信息接收部从词典服务器装置接收的语音识别信息进行语音识别,并取得语音识别结果;语音识别用信息接收部与指示的传送对应地从词典服务器装置接收语音识别信息。
根据这样的构成,在语音翻译中,即使语音识别词典中暂时不存在术语的信息,也能够在语音识别处理时自动取得所需术语的信息,从而能够进行语音识别处理。
而且,本第三发明的语音翻译系统,对于第一发明,翻译服务器装置的翻译部具备:翻译判断单元,判断对语音识别结果接收部接收的语音识别结果的翻译处理是成功还是失败;翻译信息传送指示单元,当翻译判断单元判断翻译处理失败了时,对词典服务器装置进行传送目的语言的术语标记的指示;翻译单元,利用翻译用信息存储部的翻译用信息,将语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果,而且,与指示的传送对应地,利用翻译用信息接收部从词典服务器装置接收的目的语言的术语标记,将语音识别结果翻译成目的语言,并取得翻译结果;翻译用信息接收部,与指示的传送对应地,从词典服务器装置接收目的语言的术语标记。
根据这样的构成,在语音翻译中,即使翻译词典中暂时不存在术语的信息,也能够在翻译处理时自动取得所需术语的信息,从而能够进行翻译处理。
而且,本第四发明的语音翻译系统,对于第一发明,语音合成服务器装置的语音合成部具备:语音合成判断单元,判断对翻译结果接收部接收的翻译结果的语音合成处理是成功还是失败;语音合成信息传送指示单元,当语音合成判断单元判断语音合成处理失败了时,对词典服务器装置进行传送语音合成信息的指示;语音合成单元,利用语音合成用信息存储部的语音合成用信息,对翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果,而且,与指示的传送对应地,利用语音合成用信息接收部从词典服务器装置接收的语音合成信息,对翻译结果进行语音合成,并取得语音合成结果;语音合成用信息接收部与指示的传送对应地,从词典服务器装置接收语音合成信息。
根据这样的构成,在语音翻译中,即使语音合成词典中暂时不存在术语的信息,也能够在语音合成处理时自动取得所需术语的信息,从而能够进行语音合成处理。
而且,本第五发明的语音翻译系统,对于第一至第四的任一发明,词典服务器装置还具备:标记取得部,从互联网上的一个以上Web服务器装置的网页,取得全语言配对词典存储部中不存在的术语标记;标记积存部,将标记取得部取得的术语标记,积存在全语言配对词典存储部。
根据这样的构成,能够自动补充为了消除在语音翻译中使用的词典之间的不匹配而利用的多国语共通词典的信息。
而且,本第六发明的语音翻译系统,对于第五发明,词典服务器装置还具备:信息接受部,从一个以上的第三终端装置接受术语信息中的任一信息;信息积存部,将信息接受部接受的信息,与对应语言的对应术语标记进行匹配,并积存在全语言配对词典存储部。
根据这样的构成,能够自动补充为了消除在语音翻译中使用的词典之间的不匹配而利用的多国语共通词典的信息。
而且,本第七发明的语音翻译系统,对于第五或第六发明,词典服务器装置还具备输出全语言术语信息或全语言术语信息中的部分信息的输出部,输出部在输出全语言术语信息或全语言术语信息中的部分信息时,对于两种以上语言中的所有语言,按照预先决定的所有信息存在的情况,和预先决定的所有信息中的部分信息不存在的情况,以不同视觉方式输出全语言术语信息或全语言术语信息中的部分信息。
根据这样的构成,能够容易补充为了消除在语音翻译中使用的词典之间的不匹配而利用的多国语共通词典的信息。
发明效果
根据本发明涉及的语音翻译系统,能够消除在语音翻译中使用的词典之间的不匹配。
具体实施方式
下面,参照附图说明语音翻译系统等的实施方式。还有,在实施方式中赋予相同符号的构成要素进行同样的动作,所以有时省略重复说明。
实施方式1
在本实施方式中,利用具有全语言配对词典的词典服务器装置,说明能够消除在语音翻译中使用的词典之间不匹配的语音翻译系统。还有,全语言配对词典是指,统一管理语音识别、翻译以及语音合成所需的信息的词典。全语言配对词典是存储有两个以上全语言术语信息的词典信息。全语言术语信息,对于能够成为语音翻译对象的两种以上的语言,按照每种语言分别具有一个术语信息。术语信息具有作为语音识别所需信息的语音识别信息、作为翻译所需信息的翻译信息、和作为语音合成所需信息的语音合成信息。术语信息是有关一个术语的信息。而且,术语信息,根据语言,其构造可有所不同。而且,能够成为语音翻译对象的两种以上的语言,优选是三种以上的语言。
而且,在本实施方式中说明进行如下处理的语音翻译系统,当在语音识别、翻译及语音合成等的各处理阶段中进行各处理的装置中,不存在所需信息时,实时地从具有全语言配对词典的词典服务器装置取得各装置进行处理所需的信息。
而且,在本实施方式中说明具有如下功能的词典服务器装置,例如,从一个以上的Web服务器,通过采集等方式取得新出现术语等信息,从而丰富全语言配对词典,或例如从不特定多数或特定多数的用户,接受积存在全语言配对词典中的信息。
图1是本实施方式涉及的语音翻译系统1的概念图。语音翻译系统1具备:一个以上的第一终端装置11、一个以上的第二终端装置12、词典服务器装置13、一个以上的语音识别服务器装置14、一个以上的翻译服务器装置15、一个以上的语音合成服务器装置16、一个以上的第三终端装置17。
在语音翻译系统1中,例如,当作为第一终端装置11的用户(用户A)的日本人用日语讲“おはよう”(早上好)时,语音识别服务器装置14对日语“おはよう”进行语音识别。然后,翻译服务器装置15将语音识别结果翻译成例如英语“Good morning”。其次,语音合成服务器装置16从英语“Good morning”生成“Good morning”的语音信息。然后,从英语为母语的用户B的第二终端装置12输出语音“Good morning”。
第一终端装置11及第二终端装置12例如是进行通话的终端(包括电话、手机等)。在此,主要以第一终端装置11作为讲话侧终端,而第二终端装置12作为被讲话侧终端进行说明,当然两者能够互换。
而且,词典服务器装置13拥有被语音识别服务器装置14、翻译服务器装置15及语音合成服务器装置16利用的所有信息。该信息就是所述全语言配对词典。
进一步,第三终端装置17是用于输入信息的终端,以便向全语言配对词典添加信息,丰富全语言配对词典。
图2是本实施方式涉及的语音翻译系统1的框图。而且,图3是词典服务器装置13的框图。图4是语音识别服务器装置14的框图。图5是翻译服务器装置15的框图。图6是语音合成服务器装置16的框图。
第一终端装置11具备:第一语音接受部111、第一语音传送部112、第一语音接收部113、第一语音输出部114。
第二终端装置12具备:第二语音接受部121、第二语音传送部122、第二语音接收部123、第二语音输出部124。
如图3所示,词典服务器装置13具备:全语言配对词典存储部131、语音识别用信息传送部132、翻译用信息传送部133、语音合成用信息传送部134、标记取得部135、标记积存部136、信息接受部137、信息积存部138、输出部139。
如图4所示,语音识别服务器装置14具备:语音识别用信息存储部141、语音识别用信息接收部142、语音识别用信息积存部143、语音信息接收部144、语音识别部145、语音识别结果传送部146。语音识别部145具备:语音识别判断单元1451、语音识别信息传送指示单元1452、语音识别单元1453。
如图5所示,翻译服务器装置15具备:翻译用信息存储部151、翻译用信息接收部152、翻译用信息积存部153、语音识别结果接收部154、翻译部155、翻译结果传送部156。翻译部155具备:翻译判断单元1551、翻译信息传送指示单元1552、翻译单元1553。
如图6所述,语音合成服务器装置16具备:语音合成用信息存储部161、语音合成用信息接收部162、语音合成用信息积存部163、翻译结果接收部164、语音合成部165、语音合成结果传送部166。语音合成部165具备:语音合成判断单元1651、语音合成信息传送指示单元1652、语音合成单元1653。
第三终端装置17具备:输入接受部171、信息接收部172、信息输出部173、输入信息传送部174。
第一语音接受部111从第一终端装置11的用户(称为用户A)接受语音。第一语音接受部111,例如可以通过话筒和其设备驱动程序等实现。
第一语音传送部112传送第一语音接受部111接受的语音。语音传送目的地是一个以上语音识别服务器装置14中的任一个。还有,第一语音传送部112也可以向两个以上的语音识别服务器装置14传送语音。而且,在此,语音是指语音信息,优选传送的语音被数字化。而且,第一语音传送部112也可以传送语音的同时传送语音翻译控制信息。语音翻译控制信息具有语音识别服务器装置14、翻译服务器装置15以及语音合成服务器装置16分别进行语音识别、翻译以及语音合成或传送处理结果所需的信息。语音翻译控制信息具有,例如,确定传送处理结果的目的地的信息(IP地址或电话号码等)、确定源语言或目的语言的信息(日语、英语、德语等)等。第一终端装置11或第二终端装置12,例如从用户处接受源语言和目的语言。而且,第一终端装置11或第二终端装置12,例如从第二终端装置12或第一终端装置11的电话号码或IP地址等,自动决定源语言和目的语言。在这种情况下,第二终端装置12或第一终端装置11将电话号码或IP地址等信息与用于确定语言的信息进行匹配而持有,或将电话号码或IP地址等信息作为关键词从其它装置取得用于确定语言的信息。而且,第一终端装置11或第二终端装置12通过源语言或目的语言取得用于确定需要语音识别的语音识别服务器装置14的信息(IP地址等)、用于确定翻译服务器装置15的信息(IP地址等)、和用于确定语音合成服务器装置16的信息(IP地址等)。也就是说,第一终端装置11或第二终端装置12将源语言和目的语言与用于确定各服务器装置的信息匹配,或利用源语言和目的语言,从其它装置取得用于确定各服务器装置的信息。而且,语音翻译控制信息还可以具有,表示输入语音格式的信息、表示输出语音格式的信息、指定输出入语音音质的信息、表示输入文本格式的信息、表示输出文本格式的信息等。进一步,第一语音传送部112也可以直接将语音传送给一个以上的语音识别服务器装置14,也可以通过其它装置(间接地)将语音传送给一个以上的语音识别服务器装置14。第一语音传送部112通常由无线或有线通信单元实现,但也可以由广播单元实现。
第一语音接收部113用于接收语音(通常,被数字化的语音信息)。该语音是,将第二终端装置12的用户(用户B)发出的语音内容,翻译成第一终端装置11的用户A能够理解的语言的语音。第一语音接收部113直接或间接地从语音合成服务器装置16接收语音。第一语音接收部113通常由无线或有线通信单元实现,但也可以由用于接收广播的单元实现。
第一语音输出部114输出第一语音接收部113接收的语音。也可以认为第一语音输出部114包括或不包括扬声器(输出设备)。第一语音输出部114可以由输出设备的驱动软件或输出设备的驱动软件和输出设备等来实现。
第二语音接受部121从第二终端装置12的用户B处接受语音。第二语音接受部121,例如可以由话筒和其设备驱动程序等来实现。
第二语音传送部122传送第二语音接受部121接受的语音。语音传送目的地是一个以上的语音识别服务器装置14中的任一个。还有,第二语音传送部122也可以向两个以上的语音识别服务器装置14传送语音。而且,在此,语音是指语音信息,优选传送的语音被数字化。进一步,第二语音传送部122也可以直接将语音传送给一个以上的语音识别服务器装置14,也可以通过其它装置(间接地)将语音传送给一个以上的语音识别服务器装置14。第二语音传送部122通常通过无线或有线通信单元实现,也可以通过广播单元实现。
第二语音接收部123用于接收语音(通常被数字化的语音信息)。该语音是,将第一终端装置11的用户(用户A)发出的语音内容翻译成第二终端装置12的用户B能够理解的语言(目的语言)的语音。第二语音接收部123直接或间接地从语音合成服务器装置16接收语音。第二语音接收部123通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
第二语音输出部124输出第二语音接收部123接收的语音。可以认为第二语音输出部124包括或不包括扬声器(输出设备)。第一语音输出部114,可以通过输出设备的驱动软件,或输出设备的驱动软件和输出设备等来实现。
全语言配对词典存储部131存储全语言配对词典。有关全语言配对词典如上所述。还有,全语言配对词典所具有的语音识别信息是,例如隐马尔可夫模型(HMM)等声模型。而且,全语言配对词典所具有的翻译信息例如是术语标记。术语标记是指,当语言的日语为“大阪”时,英语为“Osaka”、中国语为“大阪”。还有,术语可认为是包括一个单词、一个以上单词、一个以上词节、文章等的广义概念。语音合成信息是指,例如,读法信息(适当称为“读法”)和语调信息(适当称为“语调”)等。术语信息通常具有术语的读法。术语信息例如具有标记、读法、语调、音调等信息。术语信息通常根据语言具有不同结构。例如,语言为德语时,术语信息具有表示术语是男性词还是女性词的标志(flag)信息。而这种标志信息在日语或英语等语言的术语信息中不存在。
而且,全语言配对词典通常对每种语言都有一个结构信息。例如,全语言配对词典中,“日语<HMM><标记><读法><语调>”、“英语<HMM><标记><读法><语调><音调>”、“德语<标记><标志信息><读法><语调>”等。还有,结构信息可以对语言共通具有的结构信息进行统一管理,仅对表示语言特有信息的结构信息按每种语言分别进行管理。在这种情况下,结构信息可以是语言共通的结构信息“<HMM><标记><读法><语调>”、“德语<标志信息>”等信息。
全语言配对词典存储部131优选是非易失性记录介质,但也可以由易失性记录介质实现。在全语言配对词典存储部131中存储各种信息的过程不限。例如,各种信息可以通过记录介质被存储到全语言配对词典存储部131,也可以将通过通信电路等传送的各种信息存储在全语言配对词典存储部131,或者,也可以将通过输入设备而输入的各种信息存储在全语言配对词典存储部131。还有,信息优选通过后述的标记取得部135、标记积存部136、信息接受部137、信息积存部138等而被积存到全语言配对词典存储部131。
语音识别用信息传送部132从全语言配对词典存储部131中读取语音识别用信息,并且将该语音识别用信息传送给一个以上的语音识别服务器装置14。语音识别用信息是包括术语的语音识别信息的信息,是语音识别服务器装置14为了语音识别而利用的信息。语音识别用信息是,包括两种以上语言中的所有语言或部分语言的语音识别信息的信息。语音识别用信息可以是与语音识别信息相同的信息,或也可以是在语音识别信息增加其它信息的信息。而且,语音识别用信息传送部132优选不传送语音识别用信息中缺少部分信息的术语的语音识别信息。语音识别用信息传送部132通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
翻译用信息传送部133从全语言配对词典存储部131中读取翻译用信息,并且将该翻译用信息传送给一个以上的翻译服务器装置15。翻译用信息是包括术语标记的信息,是翻译服务器装置15为了翻译而利用的信息。翻译用信息是包括两种以上语言中的所有语言或部分语言的标记的信息。翻译用信息可以仅是标记,也可以是对标记增加其它信息的信息。而且,翻译用信息传送部133优选不传送翻译用信息中缺少部分信息的术语的翻译信息。也就是说,当出现只存在日语术语标记的术语信息时,具有该术语信息的信息优选不传送。翻译用信息传送部133通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
语音合成用信息传送部134从全语言配对词典存储部131中读取语音合成用信息,并且将该语音合成用信息传送给一个以上的语音合成服务器装置16。语音合成用信息是包括术语的语音合成信息的信息,是语音合成服务器装置16为了语音合成而利用的信息。语音合成用信息是包括两种以上语言中的所有语言或部分语言的语音合成信息的信息。语音合成用信息可以是与语音合成信息相同的信息,也可以是在语音合成信息增加其它信息的信息。而且,语音合成用信息传送部134优选不传送语音合成用信息中缺少部分信息的术语的语音合成信息。语音合成用信息传送部134通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
标记取得部135从互联网上的一个以上Web服务器装置的网页上,取得不存在于全语言配对词典存储部131中的术语标记。标记取得部135取得标记时,优选还取得用于识别语言的信息的语言标识符。标记取得部135例如当取得术语的网页网址包括“.jp”时取得语言标识符“日语”,当包括“.kr”时取得语言标识符“韩国语”。而且,标记取得部135,例如也可以从取得术语的地址的数据库或网页的字符代码,自动识别语言。进一步,标记取得部135从网页取得术语之后,也可以问询用户,并请用户输入语言。
而且,标记取得部135从网页取得术语之后,以该术语为关键词,检索全语言配对词典存储部131,当判断术语不存在于全语言配对词典存储部131中时,也可以认为取得了术语。也就是说,在这种情况下,所取得的术语在全语言配对词典存储部131中存在时,标记取得部135也可以放弃该术语。
标记取得部135通常可以通过MPU或存储器或通信单元等实现。标记取得部135的处理顺序,通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。标记取得部135也可以进行所谓启动搜索引擎的处理。在这种情况下,标记取得部135可以认为不具有搜索引擎,或也可以认为具有搜索引擎。
标记积存部136将标记取得部135取得的术语标记积存在全语言配对词典存储部131。通常,标记积存部136积存所取得的术语标记,作为与标记取得部135取得的语言标识符对应的语言的标记。标记积存部136通常可以通过MPU或存储器等实现。标记积存部136的处理顺序,通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
信息接受部137从一个以上的第三终端装置17接受术语信息中的任何信息。接受信息是,例如,HMM、标记、读法、语调、音调、标志信息等。信息接受部137通常接受语言和用于识别相应标记等信息的同时接受信息。也就是说,能够判断接受的信息是对应哪些语言的哪些标记或读法等的信息。在此,接受是指,包括通过键盘或鼠标、触摸屏等输入设备输入的信息的接受、通过有线或无线通信电路传送的信息的接收、从光盘或磁盘、半导体存储器等记录介质读取的信息的接受等概念。信息接受部137例如可以通过有线或无线通信单元实现。
信息积存部138将信息接受部137接受的信息,与相应语言的相应术语标记进行匹配而积存。而且,当信息接受部137接受到标记时,积存到相应语言区域。而且,当信息接受部137接受到标记,且读法等其它信息已经存在时,以与相应语言的相应术语的读法等进行匹配的方式积存标记。信息积存部138通常可以通过MPU或存储器等实现。信息积存部138的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
输出部139输出全语言术语信息或全语言术语信息中的部分信息。输出部139通常根据第三终端装置17的指示或用户的指示而输出信息。此时的输出是指,通常,向传送指示的第三终端装置17传送信息。当输出部139输出全语言术语信息或全语言术语信息中的部分信息时,优选对于两种以上语言中的所有语言,按照预先决定的所有信息存在的情况和预先决定的所有信息中的部分信息不存在的情况,以不同视觉方式输出全语言术语信息或全语言术语信息中的部分信息。预先决定的所有信息是,与全语言配对词典存储部131具有的结构信息对应的信息。输出部139通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
语音识别用信息存储部141可以存储对两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息。语音识别用信息存储部141优选是非易失性记录介质,但也可以由易失性记录介质实现。
通常,通过从词典服务器装置13接收语音识别用信息,将语音识别用信息存储到语音识别用信息存储部141。但是,将语音识别用信息存储到语音识别用信息存储部141的过程不限。例如,语音识别用信息可以通过记录介质存储到语音识别用信息存储部141,或者也可以是将通过输入设备输入的语音识别用信息存储到语音识别用信息存储部141。
语音识别用信息接收部142从词典服务器装置13接收对两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息。语音识别用信息接收部142也可以与语音识别信息传送指示单元1452的向词典服务器装置传送的指示相应地从词典服务器装置13接收语音识别信息。语音识别用信息接收部142通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
语音识别用信息积存部143将语音识别用信息接收部142接收的语音识别用信息积存到语音识别用信息存储部141。而且,语音识别用信息积存部143将语音识别用信息接收部142接收的语音识别信息积存到语音识别用信息存储部141。语音识别用信息积存部143通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音信息接收部144接收作为输入到第一终端装置11的语音的信息的语音信息。语音信息接收部144直接或间接地从第一终端装置11接收语音信息。语音信息接收部144通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
语音识别部145利用语音识别用信息存储部141的语音识别用信息,对语音信息接收部144接收的语音信息进行语音识别,并取得语音识别结果。语音识别结果通常是源语言(第一终端装置11的用户A讲的语音的语言)的字符串。语音识别部145所进行的语音识别方法可以是任何语音识别方法。语音识别部145属于公知技术,故省略详细说明。语音识别部145通常可以通过MPU或存储器等实现。语音识别部145的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音识别判断单元1451判断对于语音信息接收部144接收的语音信息的语音识别处理是成功还是失败。语音识别判断单元1451判断,例如,属于语音信息接收部144接收的语音信息所具有的信息且对应于作为对应一个以上术语的部分语音信息的语音识别信息,是否存在于语音识别用信息存储部141。还有,在此,部分语音信息通常是语音信息的一部分,但也可以与语音信息相同。而且,语音识别判断单元1451也可以通过语音识别单元1453对语音信息接收部144接收的语音信息进行语音识别处理,从而判断其结果是成功还是失败。如果成功,则属于对应于部分语音信息的语音识别信息存在于语音识别用信息存储部141的情况。而且,如果失败,则属于对应于部分语音信息的语音识别信息不存在于语音识别用信息存储部141的情况。还有,语音识别判断单元1451,当语音识别结果的似然性大于(大于等于)预先决定的值时,可以判断为语音识别处理成功,当预先决定值以下(小于)时,也可以判断为语音识别处理失败。语音识别判断单元1451通常可以通过MPU或存储器等实现。语音识别判断单元1451的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
当判断对语音信息接收部144接收的语音信息的语音识别处理失败了时,语音识别信息传送指示单元1452对词典服务器装置13进行传送语音识别信息的指示。例如,语音识别判断单元1451判断语音识别信息不存在于语音识别用信息存储部141时,对词典服务器装置13进行传送语音识别信息的指示。而且该指示例如包括部分语音信息和语言标识符等。还有,该指示例如包括从部分语音信息生成的音素序列和语言标识符等。语音识别信息传送指示单元1452通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
语音识别单元1453利用所述语音识别用信息存储部的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果。而且,语音识别单元1453响应在语音识别信息传送指示单元1452中传送的指示,利用语音识别用信息接收部142从词典服务器装置13接收的语音识别信息进行语音识别,并取得语音识别结果。而且,当语音识别判断单元1451判断语音识别信息存在于语音识别用信息存储部141时,语音识别单元1453利用语音识别用信息存储部141的语音识别用信息进行语音识别,并取得语音识别结果。语音识别单元1453通常可以通过MPU或存储器等实现。语音识别单元1453的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音识别结果传送部146传送语音识别部145取得的语音识别结果。语音识别结果传送部146直接或间接地向翻译服务器装置15传送语音识别结果。语音识别结果传送部146通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
翻译用信息存储部151能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息。翻译用信息例如是翻译模型和语言模型。翻译用信息存储部151优选是非易失性记录介质,但也可以由易失性记录介质实现。
通常,通过从词典服务器装置13接收翻译用信息,将翻译用信息存储在翻译用信息存储部151。但是,将翻译用信息存储在翻译用信息存储部151的过程不限。例如,翻译用信息可以通过记录介质存储到翻译用信息存储部151,或者也可以是将通过输入设备输入的翻译用信息存储到翻译用信息存储部151。
翻译用信息接收部152从词典服务器装置13接收两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息。翻译用信息接收部152响应在翻译信息传送指示单元1552中向词典服务器装置13传送的指示,从词典服务器装置13接收目的语言的术语标记。翻译用信息接收部152通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
翻译用信息积存部153将翻译用信息接收部152接收的翻译用信息积存在翻译用信息存储部151。而且,翻译用信息积存部153将翻译用信息接收部152接收的目的语言的术语标记积存在翻译用信息存储部151。翻译用信息积存部153通常可以通过MPU或存储器等实现。翻译用信息积存部153的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音识别结果接收部154接收语音识别服务器装置14取得的语音识别结果。语音识别结果接收部154直接或间接地从语音识别服务器装置14接收语音识别结果。语音识别结果接收部154通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
翻译部155利用翻译用信息存储部151的翻译用信息,将语音识别结果接收部154接收的语音识别结果翻译成目的语言,并取得翻译结果。不限翻译部155中的翻译算法等。翻译部155属于公知技术,故省略详细说明。翻译部155通常可以通过MPU或存储器等实现。翻译部155的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
翻译判断单元1551判断对语音识别结果接收部154接收的语音识别结果的翻译处理是成功还是失败。翻译判断单元1551判断,例如属于语音识别结果接收部154接收的语音识别结果所具有的信息且作为对应一个以上术语的信息的、部分语音识别结果(通常,源语言的术语的字符串)所对应的目的语言的术语标记,是否存在于翻译用信息存储部151。还有,在此,部分语音识别结果通常是语音识别结果的一部分,但也可以与语音识别结果相同。而且,翻译判断单元1551也可以通过翻译单元1553对语音识别结果接收部154接收的语音识别结果进行翻译处理,从而判断其结果是成功还是失败。如果成功,则属于对应于部分语音识别结果的目的语言的术语标记存在于翻译用信息存储部151的情况。而且,如果失败,则属于对应于部分语音识别结果的目的语言的术语标记不存在于翻译用信息存储部151的情况。还有,当翻译结果的似然性大于(大于等于)预先决定的值时,翻译判断单元1551可以判断为翻译处理成功,当预先决定值以下(小于)时,可以判断为翻译处理失败。翻译判断单元1551通常可以通过MPU或存储器等实现。翻译判断单元1551的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
当翻译判断单元1551判断目的语言的术语标记不存在于翻译用信息存储部151时,翻译信息传送指示单元1552对于词典服务器装置13进行传送目的语言的术语标记的指示。该指示例如包括源语言的术语标记和目的语言的语言标识符。翻译信息传送指示单元1552通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
翻译单元1553利用翻译用信息存储部151的翻译用信息,将语音识别结果接收部154接收的语音识别结果翻译成目的语言,并取得翻译结果。而且,翻译单元1553响应在翻译信息传送指示单元1552中传送的指示,利用翻译用信息接收部152从词典服务器装置13接收的目的语言的术语标记,将语音识别结果翻译成目的语言,并取得翻译结果。而且,例如当翻译判断单元1551判断目的语言的术语标记存在于翻译用信息存储部151时,翻译单元1553利用翻译用信息存储部151的目的语言的术语标记,翻译语音识别结果,并取得翻译结果。还有,翻译结果通常是指,目的语言的术语的字符串。翻译单元1553通常可以通过MPU或存储器等实现。翻译单元1553的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
翻译结果传送部156传送翻译部155取得的翻译结果。翻译结果传送部156直接或间接地向语音合成服务器装置16传送翻译结果。翻译结果传送部156通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
语音合成用信息存储部161能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息。语音合成用信息存储部161优选是非易失性记录介质,但也可以由易失性记录介质实现。
通常,通过从词典服务器装置13接收语音合成用信息,将语音合成用信息存储在语音合成用信息存储部161。但是,将语音合成用信息存储在语音合成用信息存储部161的过程不限。例如,语音合成用信息可以通过记录介质存储到语音合成用信息存储部161,或者也可以是将通过输入设备输入的语音合成用信息存储到语音合成用信息存储部161。
语音合成用信息接收部162从词典服务器装置13接收两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息。语音合成用信息接收部162响应语音合成信息传送指示单元1652向词典服务器装置13传送的指示,从词典服务器装置13接收语音合成信息。语音合成用信息接收部162通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
语音合成用信息积存部163将语音合成用信息接收部162接收的语音合成用信息积存在语音合成用信息存储部161。而且,语音合成用信息积存部163将语音合成用信息接收部162接收的语音合成信息积存在语音合成用信息存储部161。语音合成用信息积存部163通常可以通过MPU或存储器等实现。语音合成用信息积存部163的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
翻译结果接收部164接收翻译服务器装置15取得的翻译结果。翻译结果接收部164直接或间接地从翻译服务器装置15接收翻译结果。翻译结果接收部164通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
语音合成部165利用语音合成用信息存储部161的语音合成用信息,对翻译结果接收部164接收的翻译结果进行语音合成,并取得语音合成结果。语音合成的算法等不限。语音合成部165属于公知技术,故省略详细说明。语音合成部165通常可以通过MPU或存储器等实现。语音合成部165的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音合成判断单元1651判断对翻译结果接收部164接收的翻译结果的语音合成处理是成功还是失败。语音合成判断单元1651判断,例如属于翻译结果接收部164接收的翻译结果所具有的信息且作为对应一个以上术语的信息的、部分翻译结果所对应的语音合成信息,是否存在于语音合成用信息存储部161。还有,在此,部分翻译结果通常是翻译结果的一部分,但也可以与翻译结果相同。而且,语音合成判断单元1651也可以通过语音合成单元1653对翻译结果接收部164接收的翻译结果进行语音合成处理,从而判断其结果是成功还是失败。如果成功,则属于对应于部分翻译结果的语音合成信息存在于语音合成用信息存储部161的情况。而且,如果失败,则属于对应于部分翻译结果的语音合成信息不存在于语音合成用信息存储部161的情况。还有,当语音合成结果的似然性大于(大于等于)预先决定的值时,语音合成判断单元1651可以判断为语音合成处理成功,当预先决定值以下(小于)时,可以判断为语音合成处理失败。语音合成判断单元1651通常可以通过MPU或存储器等实现。语音合成判断单元1651的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
当判断对翻译结果接收部164接收的翻译结果的语音合成处理失败了时,语音合成信息传送指示单元1652对词典服务器装置13进行传送语音合成信息的指示。例如,当语音合成判断单元1651判断语音合成信息不存在于语音合成用信息存储部161时,语音合成信息传送指示单元1652对词典服务器装置13进行传送语音合成信息的指示。还有,该指示例如包括目的语言的术语标记(部分翻译结果)和目的语言的语言标识符。语音合成信息传送指示单元1652通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
语音合成单元1653利用语音合成用信息存储部161的语音合成用信息,对翻译结果接收部164接收的翻译结果进行语音合成,并取得语音合成结果。而且,语音合成单元1653响应语音合成信息传送指示单元1652传送的指示,利用语音合成用信息接收部162从词典服务器装置13接收的语音合成信息,对部分翻译结果进行语音合成,并取得语音合成结果。而且,例如,当语音合成判断单元1651判断语音合成信息存在于语音合成用信息存储部161时,语音合成单元1653也可以利用语音合成用信息存储部161的语音合成用信息,对部分翻译结果进行语音合成,并取得语音合成结果。语音合成结果通常是指,目的语言的语音信息。语音合成单元1653通常可以通过MPU或存储器等实现。语音合成单元1653的处理顺序通常由软件实现,该软件记录在ROM等的记录介质上。但是,也可以由硬件(专用电路)实现。
语音合成结果传送部166将语音合成部165取得的语音合成结果传送该第二终端装置12。语音合成结果传送部166直接或间接地向第二终端装置12传送语音合成结果。语音合成结果传送部166通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
输入接受部171接受用户输入的各种指示或各种信息。指示或信息的输入单元可以是数字键盘、键盘、鼠标或菜单画面等。输入接受部171可通过数字键盘或键盘等输入单元的设备驱动程序或菜单画面的控制软件等实现。
信息接收部172从词典服务器装置13接收信息。该接收的信息是,全语言术语信息或全语言术语信息中的部分信息。信息接收部172通常通过无线或有线通信单元实现,但也可以通过用于接收广播的单元实现。
信息输出部173输出信息接收部172接收的信息。信息输出部173按照预先决定的所有信息存在的情况和预先决定的所有信息中的部分信息不存在的情况,对两种以上语言中的所有语言,以不同视觉方式输出接收的信息(全语言术语信息或全语言术语信息中的部分信息)。可以认为信息输出部173包括或不包括显示器或扬声器等输出设备。信息输出部173可以通过输出设备的驱动软件或输出设备的驱动软件和输出设备等来实现。
输入信息传送部174将输入接受部171接受的指示或信息传送给词典服务器装置13。输入信息传送部174通常通过无线或有线通信单元实现,但也可以通过广播单元实现。
其次,说明语音翻译系统1的动作。首先,说明第一终端装置11的动作。第一终端装置11的第一语音接受部111接受用户A发出的语言A的语音。然后,第一语音传送部112将接受的语音作为语音信息,并传送该语音信息(有时也简称为“语音”)。而且,第一语音接收部113接收将用户B发出的语言B的语音信息进行语音翻译而获得的语言A的语音信息。其次,第一语音输出部114将语言A的语音信息作为语音输出。
其次,说明第二终端装置12的动作。第二终端装置12的第二语音接收部123接收将用户A发出的语言A的语音进行语音翻译而获得的语言B的语音信息。然后,第二语音输出部124将第二语音接收部123接收的语言B的语音信息作为语音输出。而且,第二语音接受部121从第二终端装置12的用户B接受语言B的语音。然后,第二语音传送部122将第二语音接受部121接受的语言B的语音作为语音信息进行传送。
其次,参照图7的流程图说明词典服务器装置13的动作。
(步骤S701)词典服务器装置13判断是否从外部装置接收到指示。如果接收到指示则转到步骤S702,如果未接收到指示则转到步骤S706。
(步骤S702)词典服务器装置13判断从步骤S701接受的指示是否为信息传送指示。如果是信息传送指示则转到步骤S703,如果不是信息传送指示则转到步骤S705。
(步骤S703)词典服务器装置13的语音识别用信息传送部132、翻译用信息传送部133或者语音合成用信息传送部134,从全语言配对词典存储部131中检索对应于步骤S701中接受的指示的信息,并取得语音识别所需的信息、翻译所需的信息、或者语音合成所需的信息。进一步具体地说,例如,语音识别用信息传送部132将在步骤S701中所接受的指示所具有的语音识别失败的语音信息和语音标识符作为关键词,检索全语言配对词典存储部131,并取得语音识别信息(例如,声模型)。而且,例如,翻译用信息传送部133,将在步骤S701中所接受的指示所具有的翻译失败的语音识别结果(有时是一部分)和源语言的标识符和目的语言的标识符作为关键词,检索全语言配对词典存储部131,从而取得翻译信息(例如,目的语言的术语标记)。进一步,例如,语音合成用信息传送部134将在步骤S701中所接受的指示所具有的语音合成失败的翻译结果(有时是一部分)和目的语言的标识符作为关键词,检索全语言配对词典存储部131,从而取得语音合成信息(例如,术语读法和语调信息)。
(步骤S704)语音识别用信息传送部132、翻译用信息传送部133或者语音合成用信息传送部134,传送在步骤S703中取得的信息。传送目的地是,发送指示的装置(语音识别服务器装置14、翻译服务器装置15或者语音合成服务器装置16)。返回步骤S701。
(步骤S705)词典服务器装置13进行对应于在步骤S701中所接受指示的处理。例如,指示为信息输出指示(传送指示)时,输出部139从全语言配对词典存储部131中检索对应于指示的信息,并且将通过检索取得的信息传送给发送指示的装置(通常为,第三终端装置17)。返回步骤S701。
(步骤S706)信息接受部137判断是否从外部装置(通常为,第三终端装置17)接收信息。如果接收到信息则转到步骤S707,如果未接收到信息则转到步骤S708。
(步骤S707)信息积存部138将在步骤S706中接收的信息积存在全语言配对词典存储部131内的对应区域。还有,信息例如是,术语读法、HMM、语调信息、音调信息等,是能够在语音识别、翻译或者语音合成中利用的信息。而且,对应区域是指以下情况。即,接收的信息例如包括确定语言标识符和术语的信息(术语标记等)的追加的信息(术语读法、HMM、语调信息、音调信息等)。然后,信息积存部138利用确定语言标识符和术语的信息,决定写入追加的信息的区域,并且将追加的信息积存到该区域。返回步骤S701。
(步骤S708)语音识别用信息传送部132、翻译用信息传送部133或者语音合成用信息传送部134判断是否为传送信息的时机。如果是传送信息的时机则转到步骤S714,如果不是传送信息的时机则转到步骤S709。在此,信息是指语音识别用信息、翻译用信息或者语音合成用信息。而且,传送信息的时机是指,例如接受来自用户的指示的时机等。进一步,信息的传送目的地预先存储在语音识别用信息传送部132、翻译用信息传送部133或者语音合成用信息传送部134中。
(步骤S709)标记取得部135判断是否为在网络上开始进行采集的时机。如果是开始采集的时机则转到步骤S710,如果不是开始采集的时机则返回步骤S701。还有,例如标记取得部135定期地判断开始采集的时机。
(步骤S710)标记取得部135通过在网络上采集而取得术语标记。还有,标记取得部135优选检索被更新的网络,并与旧网络进行比较,抽取更新部分,从而从该更新部分取得术语(名词、名词子句、动词、形容词等)。还有,术语标记,也适当称为“术语”。而且,采集技术属于公知技术,故省略详细说明。进一步,标记取得部135在本步骤中可以取得一个术语,也可以取得多个术语。
(步骤S711)标记取得部135将在步骤S710中取得的一个以上的各术语标记作为关键词,检索全语言配对词典存储部131。
(步骤S712)标记取得部135通过在步骤S711中的检索结果,判断在步骤S710中取得的一个以上的各术语标记,是否存在于全语言配对词典存储部131中。如果所有术语标记存在则返回步骤S701,如果有未存在术语标记则转到步骤S713。
(步骤S713)标记积存部136将在步骤S712中判断不存在于全语言配对词典存储部131中的一个以上的术语标记,积存在全语言配对词典存储部131。还有,标记积存部136将一个以上的术语标记积存在与术语标记匹配的语言标识符的对应区域。而且,标记取得部135在取得术语时,与术语匹配地取得语言标识符。返回步骤S701。
(步骤S714)语音识别用信息传送部132判断是否为传送语音识别用信息的时机。如果是传送语音识别用信息的时机则转到步骤S715,如果不是传送语音识别用信息的时机则转到步骤S717。传送语音识别用信息的时机例如是,接受来自用户的指示的时机等。
(步骤S715)语音识别用信息传送部132从全语言配对词典存储部131读取语音识别用信息。
(步骤S716)语音识别用信息传送部132将在步骤S715中读取的语音识别用信息传送给一个以上的语音识别服务器装置14。假定为,用于向一个以上的语音识别服务器装置14传送信息的信息(IP地址或URL等),预先保存在语音识别用信息传送部132。返回步骤S701。
(步骤S717)翻译用信息传送部133判断是否为传送翻译用信息的时机。如果是传送翻译用信息的时机则转到步骤S718,如果不是传送翻译用信息的时机则转到步骤S720。还有,传送翻译用信息的时机例如是,接受来自用户的指示的时机等。
(步骤S718)翻译用信息传送部133从全语言配对词典存储部131读取翻译用信息。
(步骤S719)翻译用信息传送部133将在步骤S718中读取的翻译用信息传送给一个以上的翻译服务器装置15。还有,用于向一个以上的翻译服务器装置15传送信息的信息(IP地址或URL等),预先保存在翻译用信息传送部133。返回步骤S701。
(步骤S720)语音合成用信息传送部134判断是否为传送语音合成用信息的时机。如果是传送语音合成用信息的时机则转到步骤S721,如果不是传送语音合成用信息的时机则返回步骤S701。假设为,传送语音合成用信息的时机例如是,接受来自用户的指示的时机等。
(步骤S721)语音合成用信息传送部134从全语言配对词典存储部131读取语音合成用信息。
(步骤S722)语音合成用信息传送部134将在步骤S718中读取的语音合成用信息传送给一个以上的语音合成服务器装置16。假设为,用于向一个以上的语音合成服务器装置16传送信息的信息(IP地址或URL等),预先保存在语音合成用信息传送部134。返回步骤S701。
还有,在图7的流程图中,随着电源关闭或处理结束的插入而结束处理。
其次,参照图8的流程图说明语音识别服务器装置14的动作。
(步骤S801)语音信息接收部144判断是否接收到语音信息。如果接收到语音信息则转到步骤S802,如果未接收到语音信息则转到步骤S809。
(步骤S802)语音识别单元1453对步骤S801中接收的语音信息进行语音识别处理,从而获得语音识别结果。
(步骤S803)语音识别判断单元1451判断在步骤S802中的语音识别结果是否成功。在此,例如,利用语音识别结果的似然性来进行判断。如果成功则转到步骤S804,如果未成功则转到步骤S805。
(步骤S804)语音识别结果传送部146将在步骤S802中取得的语音识别结果传送给翻译服务器装置15。返回步骤S801。
(步骤S805)语音识别信息传送指示单元1452,为了取得语音识别语音信息所需的信息(语音识别信息),取得传送给词典服务器装置13的信息。取得的信息例如是,语音识别失败的语音信息(有时是一部分)或用于确定语言的信息(语言标识符)等。
(步骤S806)语音识别信息传送指示单元1452将包括在步骤S805中所取得的信息的指示,传送给词典服务器装置13。该指示是,促使传送语音识别信息的指示。
(步骤S807)语音识别用信息接收部142判断,对于在步骤S806中传送的指示,是否接收到语音识别信息。如果接收到语音识别信息则转到步骤S808,如果未接收到语音识别信息则返回步骤S807。
(步骤S808)语音识别用信息积存部143将在步骤S807中接收的语音识别信息积存到语音识别用信息存储部141。
(步骤S809)语音识别单元1453利用在步骤S807中接收的语音识别信息,对在步骤S801中接收的语音信息进行语音识别处理,并取得语音识别结果。转到步骤S804。
(步骤S810)语音识别用信息接收部142判断,是否从词典服务器装置13接收到对两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息。如果接收到语音识别用信息则转到步骤S811,如果未接收到语音识别用信息则返回步骤S801。
(步骤S811)语音识别用信息积存部143将在步骤S810中接收的语音识别用信息积存在语音识别用信息存储部141。返回步骤S801。
还有,在图8的流程图中,随着电源关闭或处理结束的插入而结束处理。
其次,参照图9的流程图说明翻译服务器装置15的动作。
(步骤S901)语音识别结果接收部154判断是否接收到语音识别结果。如果接收到语音识别结果则转到步骤S902,如果未接收到语音识别结果则转到步骤S909。
(步骤S902)翻译单元1553对在步骤S901中接收的语音识别结果进行翻译处理,并取得翻译结果。
(步骤S903)翻译判断单元1551判断在步骤S902中的翻译结果是否成功。在此,例如利用翻译结果的似然性来进行判断。如果成功则转到步骤S904,如果未成功则转到步骤S905。
(步骤S904)翻译结果传送部156将在步骤S902中取得的翻译结果传送给语音合成服务器装置16。返回步骤S901。
(步骤S905)翻译信息传送指示单元1552,为了取得翻译语音识别结果所需的信息(翻译信息),取得传送给词典服务器装置13的信息。取得的信息例如是,翻译失败的语音识别结果(有时是一部分)、源语言的标识符和目的语言的标识符等。
(步骤S906)翻译信息传送指示单元1552将包括在步骤S905中所取得的信息的指示传送给词典服务器装置13。该指示是促使传送翻译信息的指示。
(步骤S907)翻译用信息接收部152判断,对应于在步骤S906中传送的指示,是否接收到翻译信息。如果接收到翻译信息则转到步骤S908,如果未接收到翻译信息则返回步骤S907。
(步骤S908)翻译用信息积存部153将在步骤S907中接收的翻译信息积存到翻译用信息存储部151。
(步骤S909)翻译单元1553利用在步骤S907中接收的翻译信息,对在步骤S901中接收的语音识别结果进行翻译处理,并取得翻译结果。转到步骤S904。
(步骤S910)翻译用信息接收部152判断,是否从词典服务器装置13接收到对两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息。如果接收到翻译用信息则转到步骤S911,如果未接收到翻译用信息则返回步骤S901。
(步骤S911)翻译用信息积存部153将在步骤S910中接收的翻译用信息积存在翻译用信息存储部151。返回步骤S901。
还有,在图9的流程图中,随着电源关闭或处理结束的插入而结束处理。
其次,参照图10的流程图说明语音合成服务器装置16的动作。
(步骤S1001)翻译结果接收部164判断是否接收到翻译结果。如果接收到翻译结果则转到步骤S1002,如果未接收到翻译结果则转到步骤S1009。
(步骤S1002)语音合成单元1653对在步骤S1001中接收的语音信息进行语音合成处理,并取得语音合成结果。
(步骤S1003)语音合成判断单元1651判断在步骤S1002中的语音合成结果是否成功。在此,例如利用语音合成结果的似然性来进行判断。如果成功则转到步骤S1004,如果未成功则转到步骤S1005。
(步骤S1004)语音合成结果传送部166将在步骤S1002中取得的语音合成结果传送给第二终端装置12。返回步骤S1001。
(步骤S1005)语音合成信息传送指示单元1652,为了取得语音合成翻译结果所需的信息(语音合成信息),取得传送给词典服务器装置13的信息。取得的信息例如是,语音合成失败的翻译结果(有时是一部分)和目的语言的标识符。
(步骤S1006)语音合成信息传送指示单元1652将包括在步骤S1005中所取得的信息的指示传送给词典服务器装置13。该指示是,促使传送语音合成信息的指示。
(步骤S1007)语音合成用信息接收部162判断,对应于在步骤S1006中传送的指示,是否接收到语音合成信息。如果接收到语音合成信息则转到步骤S1008,如果未接收到语音合成信息则返回步骤S1007。
(步骤S1008)语音合成用信息积存部163将在步骤S1007中接收的语音合成信息积存到语音合成用信息存储部161。
(步骤S1009)语音合成单元1653利用在步骤S1007中接收的语音合成信息,对在步骤S1001中接收的翻译结果进行语音合成处理,并取得语音合成结果。转到步骤S1004。
(步骤S1010)语音合成用信息接收部162判断,是否从词典服务器装置13接收到对两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息。如果接收到语音合成用信息则转到步骤S1011,如果未接收到语音合成用信息则返回步骤S1001。
(步骤S1011)语音合成用信息积存部163将在步骤S1010中接收的语音合成用信息积存在语音合成用信息存储部161。返回步骤S1001。
还有,在图10的流程图中,随着电源关闭或处理结束的插入而结束处理。
其次,说明第三终端装置17的动作。第三终端装置17的输入接受部171接受用户输入的各种指示或各种信息。例如,输入接受部171接受来自用户的全语言配对词典的输出指示。然后,输入信息传送部174将输入接受部171接受的输出指示传送给词典服务器装置13。之后,响应该输出指示,信息接收部172从词典服务器装置13接收所有或部分全语言配对词典。其次,信息输出部173输出信息接收部172接收的所有或部分全语言配对词典。还有,该输出之际,信息输出部173按照预先决定的所有信息存在的情况和预先决定的所有信息中的部分信息不存在的情况,对两种以上语言中的所有语言,以不同视觉方式输出接收的信息(全语言术语信息或全语言术语信息中的部分信息)。也就是说,对于存在缺少信息的术语,以将缺少信息的情况明示给用户的方式输出所有或部分(一个以上的术语信息)全语言配对词典。
而且,输入接受部171接受用户输入的在全语言配对词典内缺少的信息。之后,输入信息传送部174将输入接受部171接受的信息传送给词典服务器装置13。从而,在全语言配对词典中积存这些信息。由此,全语言配对词典的内容逐渐丰富。
下面,说明本实施方式涉及的语音翻译系统1的具体动作。图1是语音翻译系统1的概念图。
现在,词典服务器装置13的全语言配对词典存储部131存储有图11的全语言配对词典。图11的全语言配对词典,为了解决语音翻译中词典之间的不匹配问题,具有如下结构。全语言配对词典是,将语音识别词典、翻译用双语词典以及合成语音用词典所需的信息,以全语言配对方式进行综合管理的信息。具体地说,假定全语言配对词典具有,结构信息“日语<标记><读法><声模型><语调>...”、“英语<标记><读法><声模型><语调><音调>...”、“中国语<标记><读法><声模型><语调><声调>、“德语<标记><读法><声模型><语调><标志信息>...”等。而且,全语言配对词典具有对应于结构信息的按照每种语言的术语信息。在图11中,术语“大阪”的日语术语信息是“<标记>大阪<读法>おおさか<声模型>...<语调>4短音节O型...”。还有,被括号(“<”“>”)括起来的信息是表示词典要素(属性)的信息,被括号(“<”“>”)括起来的信息群就是上述的结构信息。
在这种情况下,首先假定,根据来自用户的指示,词典服务器装置13的语音识别用信息传送部132判断为传送语音识别用信息的时机。
然后,语音识别用信息传送部132从全语言配对词典存储部131读取如图12所示的语音识别用信息(与语音识别词典相同含义)。语音识别词典按照各术语、各语言具有“标记”、“声模型”等信息。
其次,语音识别用信息传送部132将读取的语音识别词典传送给一个以上的语音识别服务器装置14。
其次,一个以上的各语音识别服务器装置14的语音识别用信息接收部142从词典服务器装置13接收语音识别词典。
然后,语音识别用信息积存部143将接收的语音识别词典(语音识别用信息)积存在语音识别用信息存储部141。
而且,其次,根据来自用户的指示,词典服务器装置13的翻译用信息传送部133判断为传送翻译用信息的时机。
然后,翻译用信息传送部133从全语言配对词典存储部131读取如图13所示的翻译用信息(与翻译词典相同含义)。翻译词典按照各术语、各语言具有“标记”等信息。
其次,翻译用信息传送部133将读取的翻译词典传送给一个以上的翻译服务器装置15。
其次,一个以上的各翻译服务器装置15的翻译用信息接收部152从词典服务器装置13接收翻译词典。
然后,翻译用信息积存部153将接收的翻译词典(翻译用信息)积存在翻译用信息存储部151。
进一步,语音合成用信息传送部134判断为传送语音合成用信息的时机。
其次,语音合成用信息传送部134从全语言配对词典存储部131读取如图14所示的语音合成用信息(与语音合成词典相同含义)。语音合成词典按照各术语、各语言具有“标记”、“读法”、“语调”等信息。
其次,语音合成用信息传送部134将读取的语音合成词典传送给一个以上的语音合成服务器装置16。
然后,语音合成用信息接收部162从词典服务器装置13接收语音合成词典。
然后,语音合成用信息积存部163将接收的语音合成词典(语音合成用信息)积存在语音合成用信息存储部161。
通过以上处理,在语音识别服务器装置14、翻译服务器装置15以及语音合成服务器装置16中,存储具有一致性的词典,因此通常能够安全地进行语音翻译。但是,语音识别服务器装置14、翻译服务器装置15以及语音合成服务器装置16的各词典,可以各自独自扩展,其结果有可能发生词典之间不匹配的情况。
其次,假定在语音识别服务器装置14、翻译服务器装置15以及语音合成服务器装置16中构筑语音识别、翻译以及语音合成所需词典的状况下,第一终端装置11的用户A和第二终端装置12的用户B利用语音翻译系统进行电话交谈。还有,用户A的语言例如是日语。而且,用户B的语言例如是英语。
然后,假定第一终端装置11持有如图15所示的语音翻译控制信息。进一步,假定第二终端装置12持有如图16所示的语音翻译控制信息。语音翻译控制信息具有:作为用户发出的语言的源语言的信息(在此是<源语言>信息)、作为对话对方发出的语言的目的语言的信息(在此是<目的语言>信息)、用于与语音识别服务器装置14进行通信的信息(在此是<语音识别服务器>信息)、用于与翻译服务器装置15进行通信的信息(在此是<翻译服务器>信息)、用于与语音合成服务器装置16进行图像的信息(在此是<语音合成服务器>信息)、第二终端装置12或第一终端装置11的标识符(在此是<对方终端>信息)以及第一终端装置11或第二终端装置12的标识符(在此是<自己终端>信息)等。还有,<语音识别服务器>、<翻译服务器>、<语音合成服务器>的各信息,在此是各装置的IP地址,但也可以是URL或电话号码等其它信息。而且<对方终端>、<自己终端>的各信息,在此是电话号码,但也可以是IP地址或MAC地址等其它信息。
然后,假定在会话中,用户A对第一终端装置发出了“大阪”。
其次,第一终端装置11构成“大阪”的语音信息。然后,第一终端装置11读取如图15所示的语音翻译控制信息,并向被“<语音识别服务器>186.221.1.27”确定的语音识别服务器装置14传送“大阪”的语音信息和如图15所示的语音翻译控制信息。
其次,语音识别服务器装置14接收“大阪”的语音信息和如图15所示的语音翻译控制信息。
其次,语音识别服务器装置14的语音识别单元1453取得如图15所示的语音翻译控制信息的“<源语言>日语”。然后,语音识别单元1453利用日语的声模型(参照图12)对接收的“大阪”语音信息进行语音识别处理,从而取得语音识别结果(具有字符串“大阪”)。
其次,语音识别判断单元1451判断语音识别结果所具有的似然性是否大于等于预先决定的阈值(语音识别是否成功)。在此,假定语音识别成功。
其次,语音识别结果传送部146将取得的语音识别结果传送给图15所示的语音翻译控制信息所具有的表示为“<翻译服务器>225.68.21.129”的翻译服务器装置15。而且,语音识别结果传送部146还将图15所示的语音翻译控制信息传送给表示为“<翻译服务器>225.68.21.129”的翻译服务器装置15。
其次,翻译服务器装置15的语音识别结果接收部154接收语音识别结果(具有“大阪”)以及语音翻译控制信息。
其次,翻译单元1553读取语音翻译控制信息所具有的“<源语言>日语”以及“<目的语言>英语”。
然后,翻译单元1553判断语音识别结果(具有“大阪”)为日语,并从图13的翻译词典读取与术语“大阪”成对的“<目的语言>英语”的术语“Osaka”。然后,翻译单元1553取得翻译结果“Osaka”。
其次,翻译判断单元1551由于从翻译词典检索到了对应于“<目的语言>英语”的术语,从而判断翻译结果成功。
其次,翻译结果传送部156将取得的翻译结果“Osaka”和如图15所示的语音翻译控制信息传送给表示为“<语音合成服务器>56.72.128.202”的语音合成服务器装置16。
其次,语音合成服务器装置16的翻译结果接收部164接收翻译结果“Osaka”和如图15所示的语音翻译控制信息。
然后,语音合成单元1653从语音翻译控制信息读取“<目的语言>英语”。
其次,语音合成单元1653从图14的语音合成词典读取对应于术语“Osaka”以及“<目的语言>英语”的语音合成信息(读法及语调等)。
其次,语音合成单元1653利用读取的语音合成信息进行语音合成处理,并取得语音合成结果。
其次,假定语音合成结果的似然性大于预先决定的阈值,所以语音合成判断单元1651判断语音合成结果成功。
其次,语音合成结果传送部166将取得的语音合成结果传送给以“<对方终端>090-1445-1122”确定的第二终端装置12。
其次,第二终端装置12的第二语音接收部123接收对用户A发出的日语语音“大阪”进行语音翻译而取得的英语语音(“Osaka”的语音)。
然后,第二语音输出部124输出第二语音接收部123接收的语音(“Osaka”的语音)。
通过以上处理实现语音翻译。而且,为了将用户B发出的语音翻译并传给用户A,利用图16的语音翻译控制信息。而且,语音翻译顺序,如上所述。
而且,在语音识别、翻译、语音合成的各处理阶段中,各处理失败了时,语音识别服务器装置14、翻译服务器装置15或语音合成服务器装置16,实时地联系词典服务器装置13并接收所需信息。然后,语音识别服务器装置14、翻译服务器装置15或语音合成服务器装置16从词典服务器装置13接收各处理所需的信息之后,进行如上所述的语音识别、翻译或语音合成的处理。
进一步,假定词典服务器装置13的标记取得部135判断为开始进行网络采集的时机。
然后,标记取得部135通过在网络上进行采集,例如,假定取得了术语“名古屋”的标记“名古屋”。然后,标记取得部135将取得的术语标记“名古屋”作为关键词检索全语言配对词典。然后,假定标记取得部135经检索判断取得的术语标记“名古屋”不存在于全语言配对词典中。
其次,标记积存部136将判断为不存在于全语言配对词典中的术语标记“名古屋”积存在全语言配对词典中。然后,全语言配对词典例如如图17所示。在图17中,关于术语“名古屋”,只存在标记,但不存在读法和声模型。
在这种情况下,假定第三终端装置17的输入接受部171接受了来自用户的全语言配对词典的输出指示。
其次,输入信息传送部174将输入接受部171接受的输出指示传送给词典服务器装置13。
其次,词典服务器装置13接收输出指示。然后,输出部139从全语言配对词典检索对应于输出指示的信息,并将通过检索取得的信息传送给发送指示的装置(通常,第三终端装置17)。
其次,第三终端装置17的信息接收部172对应传送的输出指示,从词典服务器装置13接收部分全语言配对词典。
其次,信息输出部173输出信息接收部172接收的部分全语言配对词典。图18是这些输出例。在图18中,按照预先决定的所有信息存在的情况(术语“大阪”)和预先决定的所有信息中部分信息不存在的情况(术语“大阪”),对两种以上语言中的所有语言,以不同视觉方式输出信息。在图18中,无数据区域(单元),画有虚线。这是为了促使第三终端装置17的用户输入缺少的信息。
然后,用户输入例如术语“名古屋”的读法“なごや”或日语的声模型,或韩国语标记或读法等、英语标记或读法等。其次,输入接受部171接受来自用户的输入。
其次,第三终端装置17的输入信息传送部174将输入接受部171接受的信息传送给词典服务器装置13。
其次,词典服务器装置13的信息接受部137从第三终端装置17接受术语信息中的一些信息(术语“名古屋”的读法“なごや”或日语的声模型,或韩国语标记或读法等、英语标记或读法等)。
然后,信息积存部138将信息接受部137接受的信息与对应语言所对应的术语标记进行匹配而积存。
通过以上处理,词典服务器装置的全语言配对词典的内容逐渐丰富。
以上,根据本实施方式,可以在语音翻译中使用的语音识别词典、翻译词典以及语音合成词典中,避免有些词典中存在的术语信息在其它词典中不存在等的词典之间的不匹配。其结果,能够正常进行语音翻译。
而且,根据本实施方式,在语音识别、翻译、语音合成的各处理阶段中,各处理失败了时,语音识别服务器装置14、翻译服务器装置15或语音合成服务器装置16实时地联系词典服务器装置13,并接收所需信息。其结果,以非常高的概率进行语音翻译。
进一步,根据本实施方式,能够通过在网络上采集或接受用户输入的信息,丰富词典服务器装置13的全语言配对词典。因此,能够对包括新出现术语等的各种术语进行语音翻译。
还有,在本实施方式中,主要以语音识别部145具备语音识别判断单元1451、语音识别信息传送指示单元1452、语音识别单元1453的结构进行了说明。但是,语音识别部145也可以不具备语音识别判断单元1451及语音识别信息传送指示单元1452。在这种情况下,语音识别部145以语音识别处理不失败为前提。而且,在本实施方式中,主要以翻译部155具备翻译判断单元1551、翻译信息传送指示单元1552、翻译单元1553的结构进行了说明。但是,翻译部155也可以不具备翻译判断单元1551及翻译信息传送指示单元1552。在这种情况下,翻译部155以翻译处理不失败为前提。进一步,以语音合成部165具备语音合成判断单元1651、语音合成信息传送指示单元1652、语音合成单元1653的结构进行了说明。但是,语音合成部165也可以不具备语音合成判断单元1651及语音合成信息传送指示单元1652。在这种情况下,语音合成部165以语音合成处理不失败为前提。这种情况,本实施方式涉及的语音翻译系统1具有词典服务器装置、一个以上的语音识别服务器装置、一个以上的翻译服务器装置、一个以上的语音合成服务器装置,其中,所述词典服务器装置具备:全语言配对词典存储部,能够存储两个以上的全语言术语信息,该全语言术语信息具有在两种以上语言的所有语言中相互匹配的术语信息,该术语信息具有两种以上语言的各语言中的术语标记、语音识别信息以及语音合成信息,该术语拥有一个以上的单词,该语音识别信息为对术语进行语音识别所需的信息,而该语音合成信息为对术语进行语音合成所需的信息;语音识别用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语的语音识别信息的语音识别用信息,并传送给所述一个以上的语音识别服务器装置;翻译用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语标记的翻译用信息,并传送给所述一个以上的翻译服务器装置;语音合成用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语的语音合成信息的语音合成用信息,并传送给所述一个以上的语音合成服务器装置;所述语音识别服务器装置具备:语音识别用信息存储部,能够存储两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;语音识别用信息接收部,从所述词典服务器装置,接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;语音识别用信息积存部,将所述语音识别用信息接收部接收的语音识别用信息积存在所述语音识别用信息存储部;语音信息接收部,接收作为输入到第一终端装置的语音的信息的语音信息;语音识别部,利用所述语音识别用信息存储部的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果;语音识别结果传送部,传送所述语音识别结果;所述翻译服务器装置具备:翻译用信息存储部,能够存储对于所述两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;翻译用信息接收部,从所述词典服务器装置,接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;翻译用信息积存部,将所述翻译用信息接收部接收的翻译用信息积存在所述翻译用信息存储部;语音识别结果接收部,接收所述语音识别结果;翻译部,利用所述翻译用信息存储部的翻译用信息,将所述语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果;翻译结果传送部,传送所述翻译结果;所述语音合成服务器装置具备:语音合成用信息存储部,能够存储对于所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;语音合成用信息接收部,从所述词典服务器装置接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;语音合成用信息积存部,将所述语音合成用信息接收部接收的语音合成用信息积存在所述语音合成用信息存储部;翻译结果接收部,接收所述翻译结果;语音合成部,利用所述语音合成用信息存储部的语音合成用信息,对所述翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果;语音合成结果传送部,将所述语音合成结果传送给第二终端装置。
而且,本实施方式中的处理,也可以由软件实现。而且,该软件也可以通过下载软件等来分发。而且,也可以将该软件记录在CD-ROM等记录介质上传播。还有,这些也适合于本说明书中的其它实施方式。还有,实现本实施方式中的词典服务器装置的软件是以下程序。也就是说,该程序是,在记录介质上,存储两个以上的全语言术语信息,该全语言术语信息具有在两种以上语言的所有语言中相互匹配的术语信息,该术语信息具有两种以上语言的各语言中的术语标记、语音识别信息以及语音合成信息,该术语拥有一个以上的单词,该语音识别信息为对术语进行语音识别所需的信息,而该语音合成信息为对术语进行语音合成所需的信息。而且,使计算机作为如下结构发挥功能:语音识别用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语的语音识别信息的语音识别用信息,并传送给所述一个以上的语音识别服务器装置;翻译用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语标记的翻译用信息,并传送给所述一个以上的翻译服务器装置;语音合成用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语的语音合成信息的语音合成用信息,并传送给所述一个以上的语音合成服务器装置。
而且,优选为,所述程序使计算机还作为如下结构发挥作用:标记取得部,从互联网上的一个以上Web服务器装置的网页,取得不存在于所述记录介质上的术语标记;标记积存部,将所述取得部取得的术语标记积存在所述记录介质上。
而且,优选为,所述程序使计算机还作为如下结构发挥作用:信息接受部,从一个以上的第三终端装置接受术语信息中的任何信息;信息积存部,将所述信息接受部接受的信息与相应语言的相应术语标记进行匹配,并积存到所述记录介质上。
而且,优选为,所述程序使计算机还作为输出部发挥作用,该输出部用于输出所述全语言术语信息或所述全语言术语信息中的部分信息,当所述输出部输出所述全语言术语信息或所述全语言术语信息中的部分信息时,对所述两种以上语言中的所有语言,按照预先决定的所有信息存在的情况和预先决定的所有信息中部分信息不存在的情况,以不同视觉方式输出所述全语言术语信息或所述全语言术语信息中的部分信息。
而且,实现本实施方式中的语音识别服务器装置的软件是以下程序。也就是说,该程序是,在记录介质上存储对两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息,而且,使计算机作为如下结构发挥作用:语音识别用信息接收部,从词典服务器装置接收对所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;语音识别用信息积存部,将所述语音识别用信息接收部接收的语音识别用信息积存在所述记录介质上;语音信息接收部,接收作为输入到第一终端装置的语音的信息的语音信息;语音识别部,利用所述记录介质的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果;语音识别结果传送部,传送所述语音识别结果。
而且,优选为,在所述程序具有如下功能,即,所述语音识别部具备:语音识别判断单元,判断对所述语音信息接收部接收的语音信息的语音识别处理是成功还是失败;语音识别信息传送指示单元,当所述语音识别判断单元判断所述语音识别处理失败了时,进行对所述词典服务器装置传送语音识别信息的指示;语音识别单元,利用所述记录介质的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果,而且与所述指示的传送对应地利用所述语音识别用信息接收部从所述词典服务器装置接收的语音识别信息进行语音识别,并取得语音识别结果;所述语音识别用信息接收部,与所述指示的传送对应地从所述词典服务器装置接收所述语音识别信息。
而且,实现本实施方式涉及的翻译服务器装置的软件是以下程序。也就是说,该程序是,在记录介质上存储对两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息,而且,使计算机作为如下结构发挥作用:翻译用信息接收部,从词典服务器装置接收对两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;翻译用信息积存部,将所述翻译用信息接收部接收的翻译用信息积存在所述记录介质上;语音识别结果接收部,接收所述语音识别结果信息;翻译部,利用所述记录介质的翻译用信息,将所述语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果;翻译结果传送部,传送所述翻译结果。
而且,优选为,所述程序具有如下功能,即,所述翻译部具备:翻译判断单元,判断对所述语音识别结果部接收的语音识别结果的翻译处理是成功还是失败;翻译信息传送指示单元,当所述翻译判断单元判断所述翻译处理失败了时,对所述词典服务器装置进行传送所述目的语言的术语标记的指示;翻译单元,利用所述记录介质的翻译用信息,将所述语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果,而且,与所述指示的传送对应地利用所述翻译用信息接收部从所述词典服务器装置接收的目的语言的术语标记,将所述语音识别结果翻译成目的语言,并取得翻译结果;所述翻译用信息接收部与传送的所述指示对应地,从所述词典服务器装置接收所述目的语言的术语标记。
实现本实施方式涉及的语音合成服务器装置的软件是以下程序。也就是说,该程序是,在记录介质上存储有关两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息,而且,使计算机作为如下结构作用:语音合成用信息接收部,从词典服务器装置,接收有关两种以上语言中的所有语言或两种以上语言中的部分语言的声语音合成用信息;语音合成用信息积存部,将所述语音合成用信息接收部接收的语音合成用信息积存在所述记录介质上;翻译结果接收部,接收所述翻译结果;语音合成部,利用所述记录介质的语音合成用信息,对所述翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果;语音合成结果传送部,将所述语音合成结果传送给第二终端装置。
而且,优选为,所述程序具有如下功能,即,所述语音合成部具备:语音合成判断单元,判断对所述翻译结果接收部接收的翻译结果的语音合成处理是成功还是失败;语音合成信息传送指示单元,当所述语音合成判断单元判断所述语音合成处理失败了时,对所述词典服务器装置进行传送语音合成信息的指示;语音合成单元,利用所述记录介质的语音合成用信息,对所述翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果,而且,与所述指示的传送对应地利用所述语音合成用信息接收部从所述词典服务器装置接收的语音合成信息,对所述翻译结果进行语音合成,并取得语音合成结果;所述语音合成用信息接收部与所述指示的传送对应地从所述词典服务器装置接收所述语音合成信息。
而且,图19是表示执行本说明书描述的程序从而实现所述实施方式的语音翻译系统等的计算机外观。所述实施方式,可以通过计算机硬件以及在该硬件上执行的计算机程序实现。图19是该计算机系统340的概念图,图20是计算机系统340的框图。
在图19中,计算机系统340包括:计算机341,该计算机341包括FD驱动器和CD-ROM驱动器;键盘342;鼠标343;显示器344。
在图20中,计算机341包括:FD驱动器3411;CD-ROM驱动器3412;还包括:MPU3413;总线3414,与CD-ROM驱动器3412及FD驱动器3411连接;RAM3416,与用于存储开机程序等程序的ROM3415连接,并且临时存储应用程序命令的同时提供临时存储空间;以及硬盘3417,用于存储应用程序、系统程序及数据。在此,虽然未图示,计算机341还可以包括提供与LAN连接的网卡。
使计算机系统340执行所述实施方式的语音识别等功能的程序,可以存储在CD-ROM3501或FD3502上,并插入在CD-ROM驱动器3412或FD驱动器3411中,进一步转送给硬盘3417。取而代之,程序也可以通过未图示的网络传送到计算机341,存储在硬盘3417上。程序在执行时被加载到RAM3416上。程序也可以从CD-ROM3501、FD3502或网络直接加载。
程序也不一定非要包括使计算机341执行所述实施方式的语音识别等功能的操作系统(OS)或第三方程序等。程序只要包括能够以被控制方式调用相应功能(模块)并取得所要结果的命令部分即可。计算机系统340如何动作是众所周知的,故省略详细说明。
还有,在所述程序中,在传送信息的传送步骤或接收信息的接收步骤等中不包括通过硬件进行的处理,例如在传送步骤中通过调制解调器或接口卡等进行的处理(只在硬盘上进行的处理)。
而且,执行所述程序的计算机可以是单数,也可以是复数。即,可以进行集中处理,也可以进行分散处理。
而且,在所述实施方式中,存在于一个装置中的两个以上通信单元(语音信息接收部、语音识别用信息接收部等)也可以在一个物理介质上实现。
而且,在所述实施方式中,各处理(各功能)也可以由一个装置(系统)通过集中处理实现,或者,也可以由多个装置通过分散处理实现。
本发明,并不限定于所述实施方式,可以进行多种变更,当然,这些变更也包括在本发明的保护范围内。
产业上的可利用性
如上所述,本发明涉及的语音翻译系统具有能够消除在语音翻译中使用的词典之间不匹配的效果,作为语音翻译系统等而有用。
附图说明
图1是实施方式一涉及的语音翻译系统的概念图。
图2是语音翻译系统的框图。
图3是词典服务器装置的框图。
图4是语音识别服务器装置的框图。
图5是翻译服务器装置的框图。
图6是语音合成服务器装置的框图。
图7是用于说明词典服务器装置动作的流程图。
图8是用于说明语音识别服务器装置动作的流程图。
图9是用于说明翻译服务器装置动作的流程图。
图10是用于说明语音合成服务器装置动作的流程图。
图11是表示全语言配对词典的示意图。
图12是表示语音识别词典的示意图。
图13是表示翻译词典的示意图。
图14是表示语音合成词典的示意图。
图15是表示语音翻译控制信息的示意图。
图16是表示语音翻译控制信息的示意图。
图17是表示全语言配对词典的示意图。
图18是表示输出例的示意图。
图19是计算机系统的概略图。
图20是计算机系统的框图。
Claims (12)
1.一种语音翻译系统,具有词典服务器装置、一个以上的语音识别服务器装置、一个以上的翻译服务器装置、一个以上的语音合成服务器装置,其中,
所述词典服务器装置具备:
全语言配对词典存储部,能够存储两个以上的全语言术语信息,该全语言术语信息具有在所述两种以上语言的所有语言中相互匹配的术语信息,该术语信息具有两种以上语言的各语言中的术语标记、语音识别信息以及语音合成信息,该术语拥有一个以上的单词,该语音识别信息为对术语进行语音识别所需的信息,而该语音合成信息为对术语进行语音合成所需的信息;
语音识别用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语的语音识别信息在内的语音识别用信息,并传送给所述一个以上的语音识别服务器装置;
翻译用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语标记的翻译用信息,并传送给所述一个以上的翻译服务器装置;
语音合成用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述全语言配对词典存储部取得包括所述术语的语音合成信息在内的语音合成用信息,并传送给所述一个以上的语音合成服务器装置;
所述语音识别服务器装置具备:
语音识别用信息存储部,能够存储所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;
语音识别用信息接收部,从所述词典服务器装置接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音识别用信息;
语音识别用信息积存部,将所述语音识别用信息接收部接收的语音识别用信息积存在所述语音识别用信息存储部;
语音信息接收部,接收作为输入到第一终端装置的语音的信息的语音信息;
语音识别部,利用所述语音识别用信息存储部的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果;
语音识别结果传送部,传送所述语音识别结果;
所述翻译服务器装置具备:
翻译用信息存储部,能够存储对于所述两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;
翻译用信息接收部,从所述词典服务器装置接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的翻译用信息;
翻译用信息积存部,将所述翻译用信息接收部接收的翻译用信息积存在所述翻译用信息存储部;
语音识别结果接收部,接收所述语音识别结果;
翻译部,利用所述翻译用信息存储部的翻译用信息,将所述语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果;
翻译结果传送部,传送所述翻译结果;
所述语音合成服务器装置具备:
语音合成用信息存储部,能够存储对于所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;
语音合成用信息接收部,从所述词典服务器装置接收所述两种以上语言中的所有语言或两种以上语言中的部分语言的语音合成用信息;
语音合成用信息积存部,将所述语音合成用信息接收部接收的语音合成用信息积存在所述语音合成用信息存储部;
翻译结果接收部,接收所述翻译结果;
语音合成部,利用所述语音合成用信息存储部的语音合成用信息,对所述翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果;
语音合成结果传送部,将所述语音合成结果传送给第二终端装置。
2.如权利要求1所述的语音翻译系统,所述语音识别服务器装置的所述语音识别部具备:
语音识别判断单元,判断对所述语音信息接收部接收的语音信息的语音识别处理是成功还是失败;
语音识别信息传送指示单元,当所述语音识别判断单元判断所述语音识别处理失败了时,对所述词典服务器装置进行传送语音识别信息的指示;
语音识别单元,利用所述语音识别用信息存储部的语音识别用信息,对所述语音信息接收部接收的语音信息进行语音识别,并取得语音识别结果,而且,与所述指示的传送对应地,利用所述语音识别用信息接收部从所述词典服务器装置接收的语音识别信息进行语音识别,并取得语音识别结果;
其中,所述语音识别用信息接收部,与所述指示的传送对应地从所述词典服务器装置接收所述语音识别信息。
3.如权利要求1所述的语音翻译系统,所述翻译服务器装置的所述翻译部具备:
翻译判断单元,判断对所述语音识别结果接收部接收的语音识别结果的翻译处理是成功还是失败;
翻译信息传送指示单元,当所述翻译判断单元判断所述翻译处理失败了时,对所述词典服务器装置进行传送所述目的语言的术语标记的指示;
翻译单元,利用所述翻译用信息存储部的翻译用信息,将所述语音识别结果接收部接收的语音识别结果翻译成目的语言,并取得翻译结果,而且,与所述指示的传送对应地,利用所述翻译用信息接收部从所述词典服务器装置接收的目的语言的术语标记,将所述语音识别结果翻译成目的语言,并取得翻译结果;
其中,所述翻译用信息接收部,与所述指示的传送对应地从所述词典服务器装置接收所述目的语言的术语标记。
4.如权利要求1所述的语音翻译系统,所述语音合成服务器装置的所述语音合成部具备:
语音合成判断单元,判断对所述翻译结果接收部接收的翻译结果的语音合成处理是成功还是失败;
语音合成信息传送指示单元,当所述语音合成判断单元判断所述语音合成处理失败了时,对所述词典服务器装置进行传送语音合成信息的指示;
语音合成单元,利用所述语音合成用信息存储部的语音合成用信息,对所述翻译结果接收部接收的翻译结果进行语音合成,并取得语音合成结果,而且,与所述指示的传送对应地,利用所述语音合成用信息接收部从所述词典服务器装置接收的语音合成信息,对所述翻译结果进行语音合成,并取得语音合成结果;
其中,所述语音合成用信息接收部,与所述指示的传送对应地从所述词典服务器装置接收所述语音合成信息。
5.如权利要求1至4中任一项所述的语音翻译系统,所述词典服务器装置还具备:
标记取得部,从互联网上的一个以上Web服务器装置的网页,取得所述全语言配对词典存储部中不存在的术语标记;
标记积存部,将所述标记取得部取得的术语标记积存在所述全语言配对词典存储部。
6.如权利要求5所述的语音翻译系统,所述词典服务器装置还具备:
信息接受部,从一个以上的第三终端装置接受术语信息中的任一信息;
信息积存部,将所述信息接受部接受的信息,与对应语言的对应术语标记进行匹配,并积存在所述全语言配对词典存储部。
7.如权利要求5或6所述的语音翻译系统,所述词典服务器装置还具备输出所述全语言术语信息或所述全语言术语信息中的部分信息的输出部,
所述输出部在输出所述全语言术语信息或所述全语言术语信息中的部分信息时,对于所述两种以上语言中的所有语言,按照预先决定的所有信息存在的情况和预先决定的所有信息中的部分信息不存在的情况,以不同视觉方式输出所述全语言术语信息或所述全语言术语信息中的部分信息。
8.一种构成权利要求1所述语音翻译系统的词典服务器装置。
9.一种构成权利要求1所述语音翻译系统的语音识别服务器装置。
10.一种构成权利要求1所述语音翻译系统的翻译服务器装置。
11.一种构成权利要求1所述语音翻译系统的语音合成服务器装置。
12.一种程序,在记录介质上存储两个以上的全语言术语信息,该全语言术语信息具有在所述两种以上语言的所有语言中相互匹配的术语信息,该术语信息具有两种以上语言的各语言中的术语标记、语音识别信息以及语音合成信息,该术语拥有一个以上的单词,该语音识别信息为对术语进行语音识别所需的信息,而该语音合成信息为对术语进行语音合成所需的信息;
而且,所述程序使计算机作为如下结构发挥作用:
语音识别用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语的语音识别信息在内的语音识别用信息,并传送给一个以上的语音识别服务器装置;
翻译用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语标记的翻译用信息,并传送给一个以上的翻译服务器装置;
语音合成用信息传送部,对于所述两种以上语言中的所有语言或两种以上语言中的部分语言,从所述记录介质取得包括所述术语的语音合成信息在内的语音合成用信息,并传送给一个以上的语音合成服务器装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009167501A JP5471106B2 (ja) | 2009-07-16 | 2009-07-16 | 音声翻訳システム、辞書サーバ装置、およびプログラム |
JP2009-167501 | 2009-07-16 | ||
PCT/JP2010/053418 WO2011007595A1 (ja) | 2009-07-16 | 2010-03-03 | 音声翻訳システム、辞書サーバ装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102473413A true CN102473413A (zh) | 2012-05-23 |
CN102473413B CN102473413B (zh) | 2013-08-28 |
Family
ID=43449205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010800312696A Expired - Fee Related CN102473413B (zh) | 2009-07-16 | 2010-03-03 | 语音翻译系统、词典服务器装置及语音翻译方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9442920B2 (zh) |
EP (1) | EP2455936B1 (zh) |
JP (1) | JP5471106B2 (zh) |
KR (1) | KR101626887B1 (zh) |
CN (1) | CN102473413B (zh) |
WO (1) | WO2011007595A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102706343A (zh) * | 2012-06-01 | 2012-10-03 | 陈耀伦 | 一种基于互联网语音导航的方法、装置和系统 |
CN106998359A (zh) * | 2017-03-24 | 2017-08-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别服务的网络接入方法以及装置 |
CN107851242A (zh) * | 2015-01-16 | 2018-03-27 | 株式会社咕嘟妈咪 | 信息多语言转换系统 |
CN108461082A (zh) * | 2017-02-20 | 2018-08-28 | Lg 电子株式会社 | 控制执行多语音处理的人工智能系统的方法 |
CN111274828A (zh) * | 2020-01-21 | 2020-06-12 | 陈刚 | 基于留言的语言翻译方法、系统、计算机程序和手持终端 |
CN112487137A (zh) * | 2019-09-12 | 2021-03-12 | 甲骨文国际公司 | 使用集成共享资源来流线化对话处理 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101834546B1 (ko) | 2013-08-28 | 2018-04-13 | 한국전자통신연구원 | 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법 |
CN103533129B (zh) * | 2013-10-23 | 2017-06-23 | 上海斐讯数据通信技术有限公司 | 实时的语音翻译通信方法、系统及所适用的通讯设备 |
KR101740332B1 (ko) * | 2013-11-05 | 2017-06-08 | 한국전자통신연구원 | 자동 번역 장치 및 방법 |
JP2016177782A (ja) * | 2015-03-19 | 2016-10-06 | パナソニックIpマネジメント株式会社 | ウェアラブル装置及び翻訳システム |
JP7000671B2 (ja) * | 2016-10-05 | 2022-01-19 | 株式会社リコー | 情報処理システム、情報処理装置、及び情報処理方法 |
US10826857B2 (en) * | 2017-10-20 | 2020-11-03 | Sap Se | Message processing for cloud computing applications |
WO2019172946A1 (en) | 2018-03-07 | 2019-09-12 | Google Llc | Facilitating end-to-end communications with automated assistants in multiple languages |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148176A (ja) * | 1998-11-18 | 2000-05-26 | Sony Corp | 情報処理装置および方法、提供媒体、音声認識システム、音声合成システム、翻訳装置および方法、並びに翻訳システム |
JP2000194698A (ja) * | 1998-12-25 | 2000-07-14 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP2002245038A (ja) * | 2001-02-21 | 2002-08-30 | Ricoh Co Ltd | 携帯端末装置による多国語翻訳システム |
CN1666199A (zh) * | 2002-07-02 | 2005-09-07 | 艾利森电话股份有限公司 | 一种与访问互联网内容有关的装置及方法 |
CN1955953A (zh) * | 2005-10-27 | 2007-05-02 | 株式会社东芝 | 根据单词之间的语义关系优化翻译的装置和方法 |
CN101256558A (zh) * | 2007-02-26 | 2008-09-03 | 株式会社东芝 | 用于将语音由源语言翻译成目标语言的装置和方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6488875A (en) | 1987-09-30 | 1989-04-03 | Toshiba Corp | Voice translation device |
JP2667408B2 (ja) * | 1987-10-08 | 1997-10-27 | 株式会社東芝 | 翻訳通信システム |
GB2303955B (en) * | 1996-09-24 | 1997-05-14 | Allvoice Computing Plc | Data processing method and apparatus |
JP3466857B2 (ja) * | 1997-03-06 | 2003-11-17 | 株式会社東芝 | 辞書更新方法および辞書更新システム |
JPH11328179A (ja) * | 1998-05-08 | 1999-11-30 | Toshiba Corp | 辞書管理方法及び辞書管理システム |
CN1311881A (zh) * | 1998-06-04 | 2001-09-05 | 松下电器产业株式会社 | 语言变换规则产生装置、语言变换装置及程序记录媒体 |
US6138099A (en) * | 1998-10-19 | 2000-10-24 | International Business Machines Corp. | Automatically updating language models |
US6219638B1 (en) * | 1998-11-03 | 2001-04-17 | International Business Machines Corporation | Telephone messaging and editing system |
JP2000259632A (ja) * | 1999-03-09 | 2000-09-22 | Toshiba Corp | 自動通訳システム、通訳プログラム伝送システム、記録媒体および情報伝送媒体 |
JP2001005488A (ja) * | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声対話システム |
AU2001259446A1 (en) * | 2000-05-02 | 2001-11-12 | Dragon Systems, Inc. | Error correction in speech recognition |
JP2002123282A (ja) | 2000-10-17 | 2002-04-26 | Brother Ind Ltd | 翻訳装置および記録媒体 |
JP3581648B2 (ja) * | 2000-11-27 | 2004-10-27 | キヤノン株式会社 | 音声認識システム、情報処理装置及びそれらの制御方法、プログラム |
US7493259B2 (en) * | 2002-01-04 | 2009-02-17 | Siebel Systems, Inc. | Method for accessing data via voice |
AU2003210795A1 (en) * | 2002-02-01 | 2003-09-02 | John Fairweather | System and method for analyzing data |
US7013262B2 (en) * | 2002-02-12 | 2006-03-14 | Sunflare Co., Ltd | System and method for accurate grammar analysis using a learners' model and part-of-speech tagged (POST) parser |
JP2003295893A (ja) * | 2002-04-01 | 2003-10-15 | Omron Corp | 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体 |
GB2395029A (en) * | 2002-11-06 | 2004-05-12 | Alan Wilkinson | Translation of electronically transmitted messages |
DE10304229A1 (de) * | 2003-01-28 | 2004-08-05 | Deutsche Telekom Ag | Kommunikationssystem, Kommunikationsendeinrichtung und Vorrichtung zum Erkennen fehlerbehafteter Text-Nachrichten |
JP2005055607A (ja) * | 2003-08-01 | 2005-03-03 | Toyota Motor Corp | サーバ、情報処理端末、音声合成システム |
JP2005202884A (ja) * | 2004-01-19 | 2005-07-28 | Toshiba Corp | 送信装置、受信装置、中継装置、および送受信システム |
CN100547654C (zh) * | 2004-07-21 | 2009-10-07 | 松下电器产业株式会社 | 语音合成装置 |
JP2006099296A (ja) * | 2004-09-29 | 2006-04-13 | Nec Corp | 翻訳システム、翻訳通信システム、機械翻訳方法、および、プログラム |
US7620549B2 (en) * | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US7949529B2 (en) * | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
JP5040909B2 (ja) * | 2006-02-23 | 2012-10-03 | 日本電気株式会社 | 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム |
US7756708B2 (en) * | 2006-04-03 | 2010-07-13 | Google Inc. | Automatic language model update |
KR100859532B1 (ko) * | 2006-11-06 | 2008-09-24 | 한국전자통신연구원 | 대응 문형 패턴 기반 자동통역 방법 및 장치 |
US8355915B2 (en) * | 2006-11-30 | 2013-01-15 | Rao Ashwin P | Multimodal speech recognition system |
JP5233989B2 (ja) * | 2007-03-14 | 2013-07-10 | 日本電気株式会社 | 音声認識システム、音声認識方法、および音声認識処理プログラム |
JP2008243080A (ja) | 2007-03-28 | 2008-10-09 | Toshiba Corp | 音声を翻訳する装置、方法およびプログラム |
US7634383B2 (en) * | 2007-07-31 | 2009-12-15 | Northrop Grumman Corporation | Prognosis adaptation method |
CN101458681A (zh) | 2007-12-10 | 2009-06-17 | 株式会社东芝 | 语音翻译方法和语音翻译装置 |
JP5098613B2 (ja) * | 2007-12-10 | 2012-12-12 | 富士通株式会社 | 音声認識装置及びコンピュータプログラム |
JP3142002U (ja) | 2008-03-17 | 2008-05-29 | 隆司 内山 | 翻訳通話システム |
US8326637B2 (en) * | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US9171541B2 (en) * | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
-
2009
- 2009-07-16 JP JP2009167501A patent/JP5471106B2/ja not_active Expired - Fee Related
-
2010
- 2010-03-03 EP EP10799657.1A patent/EP2455936B1/en not_active Not-in-force
- 2010-03-03 CN CN2010800312696A patent/CN102473413B/zh not_active Expired - Fee Related
- 2010-03-03 US US13/383,742 patent/US9442920B2/en not_active Expired - Fee Related
- 2010-03-03 KR KR1020127001119A patent/KR101626887B1/ko active IP Right Grant
- 2010-03-03 WO PCT/JP2010/053418 patent/WO2011007595A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148176A (ja) * | 1998-11-18 | 2000-05-26 | Sony Corp | 情報処理装置および方法、提供媒体、音声認識システム、音声合成システム、翻訳装置および方法、並びに翻訳システム |
JP2000194698A (ja) * | 1998-12-25 | 2000-07-14 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP2002245038A (ja) * | 2001-02-21 | 2002-08-30 | Ricoh Co Ltd | 携帯端末装置による多国語翻訳システム |
CN1666199A (zh) * | 2002-07-02 | 2005-09-07 | 艾利森电话股份有限公司 | 一种与访问互联网内容有关的装置及方法 |
CN1955953A (zh) * | 2005-10-27 | 2007-05-02 | 株式会社东芝 | 根据单词之间的语义关系优化翻译的装置和方法 |
CN101256558A (zh) * | 2007-02-26 | 2008-09-03 | 株式会社东芝 | 用于将语音由源语言翻译成目标语言的装置和方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102706343A (zh) * | 2012-06-01 | 2012-10-03 | 陈耀伦 | 一种基于互联网语音导航的方法、装置和系统 |
CN107851242A (zh) * | 2015-01-16 | 2018-03-27 | 株式会社咕嘟妈咪 | 信息多语言转换系统 |
CN108461082A (zh) * | 2017-02-20 | 2018-08-28 | Lg 电子株式会社 | 控制执行多语音处理的人工智能系统的方法 |
CN106998359A (zh) * | 2017-03-24 | 2017-08-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别服务的网络接入方法以及装置 |
CN112487137A (zh) * | 2019-09-12 | 2021-03-12 | 甲骨文国际公司 | 使用集成共享资源来流线化对话处理 |
CN112487137B (zh) * | 2019-09-12 | 2023-11-03 | 甲骨文国际公司 | 使用集成共享资源来流线化对话处理 |
CN111274828A (zh) * | 2020-01-21 | 2020-06-12 | 陈刚 | 基于留言的语言翻译方法、系统、计算机程序和手持终端 |
Also Published As
Publication number | Publication date |
---|---|
US9442920B2 (en) | 2016-09-13 |
EP2455936A1 (en) | 2012-05-23 |
CN102473413B (zh) | 2013-08-28 |
KR20120040190A (ko) | 2012-04-26 |
EP2455936A4 (en) | 2018-01-10 |
EP2455936B1 (en) | 2019-01-16 |
US20120166176A1 (en) | 2012-06-28 |
WO2011007595A1 (ja) | 2011-01-20 |
JP5471106B2 (ja) | 2014-04-16 |
JP2011022813A (ja) | 2011-02-03 |
KR101626887B1 (ko) | 2016-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102473413B (zh) | 语音翻译系统、词典服务器装置及语音翻译方法 | |
JP7150770B2 (ja) | 対話方法、装置、コンピュータ可読記憶媒体、及びプログラム | |
JP6604836B2 (ja) | 対話テキスト要約装置及び方法 | |
CN107039038A (zh) | 学习个性化实体发音 | |
CN109496332A (zh) | 语音对话装置、语音对话方法以及存储介质 | |
JP5857090B2 (ja) | 情報検索装置、情報検索プログラム、及び情報検索システム | |
CN102549653A (zh) | 语音翻译系统、第一终端装置、语音识别服务器装置、翻译服务器装置以及语音合成服务器装置 | |
JP2001273283A (ja) | 言語を識別しかつ音声再生装置を制御する方法及び通信デバイス | |
CN102549654A (zh) | 语音翻译系统、控制装置以及控制方法 | |
CN103377652A (zh) | 一种用于进行语音识别的方法、装置和设备 | |
CN108304424B (zh) | 文本关键词提取方法及文本关键词提取装置 | |
CN111090727A (zh) | 语言转换处理方法、装置及方言语音交互系统 | |
CN106713111B (zh) | 一种添加好友的处理方法、终端及服务器 | |
CN110600004A (zh) | 一种语音合成播放方法、装置和存储介质 | |
CN113066480A (zh) | 语音识别方法、装置、电子设备及存储介质 | |
WO2017016126A1 (zh) | 语音识别语法树的构图方法、装置、终端设备及存储介质 | |
JP2011232619A (ja) | 音声認識装置および音声認識方法 | |
KR102140391B1 (ko) | 검색 방법 및 이 방법을 적용하는 전자 장치 | |
CN113051384B (zh) | 基于对话的用户画像抽取方法及相关装置 | |
CN110246493A (zh) | 通讯录联系人查找方法、装置及存储介质 | |
CN112860642A (zh) | 一种庭审数据处理方法、服务器及终端 | |
WO2024088039A1 (zh) | 人机对话方法、对话网络模型的训练方法及装置 | |
AU2022204669B2 (en) | Disfluency removal using machine learning | |
JP7182584B2 (ja) | スピーチ理解における解析異常の情報を出力するための方法 | |
US6963838B1 (en) | Adaptive hosted text to speech processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130828 Termination date: 20200303 |
|
CF01 | Termination of patent right due to non-payment of annual fee |