JP2011022813A - 音声翻訳システム、辞書サーバ装置、およびプログラム - Google Patents

音声翻訳システム、辞書サーバ装置、およびプログラム Download PDF

Info

Publication number
JP2011022813A
JP2011022813A JP2009167501A JP2009167501A JP2011022813A JP 2011022813 A JP2011022813 A JP 2011022813A JP 2009167501 A JP2009167501 A JP 2009167501A JP 2009167501 A JP2009167501 A JP 2009167501A JP 2011022813 A JP2011022813 A JP 2011022813A
Authority
JP
Japan
Prior art keywords
information
translation
speech
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009167501A
Other languages
English (en)
Other versions
JP5471106B2 (ja
Inventor
Satoru Nakamura
哲 中村
Eiichiro Sumida
英一郎 隅田
Yutaka Ashikari
豊 葦苅
Noriyuki Kimura
法幸 木村
Tomoori Hori
智織 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009167501A priority Critical patent/JP5471106B2/ja
Priority to EP10799657.1A priority patent/EP2455936B1/en
Priority to KR1020127001119A priority patent/KR101626887B1/ko
Priority to PCT/JP2010/053418 priority patent/WO2011007595A1/ja
Priority to CN2010800312696A priority patent/CN102473413B/zh
Priority to US13/383,742 priority patent/US9442920B2/en
Publication of JP2011022813A publication Critical patent/JP2011022813A/ja
Application granted granted Critical
Publication of JP5471106B2 publication Critical patent/JP5471106B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)

Abstract

【課題】従来、音声翻訳において使用する音声認識辞書、翻訳辞書、および音声合成辞書において不整合があった。
【解決手段】2以上の言語について、音声認識、翻訳、音声合成に利用する全言語用語情報を2以上格納し得る全言語対辞書格納部と、全言語について、用語の音声認識情報を含む音声認識用情報を取得し、1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、全言語について、用語の表記を含む翻訳用情報を取得し、1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、全言語について、用語の音声合成情報を含む音声合成用情報を取得し、1以上の音声合成サーバ装置に送信する音声合成用情報送信部とを具備する辞書サーバ装置により、辞書間の不整合を解消できる。
【選択図】図1

Description

本発明は、音声翻訳を行う音声翻訳システム等に関するものである。
従来の音声翻訳システムにおいて、音声認識の精度を向上させたり、翻訳処理の精度を向上させたり等、各部分処理の精度を向上させるための技術が存在した(例えば、特許文献1、特許文献2参照)。
特開2008−243080号公報(第1頁、第1図等) 特開2009−140503号公報(第1頁、第1図等)
しかしながら、従来、音声翻訳処理を行う際に使用する音声認識辞書、翻訳辞書、および音声合成辞書の間で不整合があり、音声翻訳ができない場合があった。辞書間の不整合とは、ある辞書に存在する用語の情報が他の辞書には存在しない等という現象である。
本第一の発明の音声翻訳システムは、辞書サーバ装置と、1以上の音声認識サーバ装置、1以上の翻訳サーバ装置、1以上の音声合成サーバ装置とを有する音声翻訳システムであって、辞書サーバ装置は、2以上の言語の各言語について、1以上の単語を有する用語の表記と、用語を音声認識するための情報である音声認識情報と、用語を音声合成するための情報である音声合成情報とを有する用語情報を、2以上の言語のすべてについて対応付けて有する全言語用語情報を、2以上格納し得る全言語対辞書格納部と、2以上の言語のうちのすべての言語または2以上の一部の言語について、用語の音声認識情報を含む音声認識用情報を、全言語対辞書格納部から取得し、1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、2以上の言語のうちのすべての言語または2以上の一部の言語について、用語の表記を含む翻訳用情報を、全言語対辞書格納部から取得し、1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、2以上の言語のうちのすべての言語または2以上の一部の言語について、用語の音声合成情報を含む音声合成用情報を、全言語対辞書格納部から取得し、1以上の音声合成サーバ装置に送信する音声合成用情報送信部とを具備し、音声認識サーバ装置は、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声認識用情報を格納し得る音声認識用情報格納部と、辞書サーバ装置から、2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信する音声認識用情報受信部と、音声認識用情報受信部が受信した音声認識用情報を音声認識用情報格納部に蓄積する音声認識用情報蓄積部と、第一端末装置に入力された音声の情報である音声情報を受信する音声情報受信部と、音声情報受信部が受信した音声情報を、音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得する音声認識部と、音声認識結果を送信する音声認識結果送信部とを具備し、翻訳サーバ装置は、2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を格納し得る翻訳用情報格納部と、辞書サーバ装置から、2以上の言語のうちのすべての言語または2以上の一部の言語について、音翻訳用情報を受信する翻訳用情報受信部と、翻訳用情報受信部が受信した翻訳用情報を翻訳用情報格納部に蓄積する翻訳用情報蓄積部と、音声認識結果を受信する音声認識結果受信部と、音声認識結果受信部が受信した音声認識結果を、翻訳用情報格納部の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する翻訳部と、翻訳結果を送信する翻訳結果送信部とを具備し、音声合成サーバ装置は、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を格納し得る音声合成用情報格納部と、辞書サーバ装置から、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を受信する音声合成用情報受信部と、音声合成用情報受信部が受信した音声合成用情報を音声合成用情報格納部に蓄積する音声合成用情報蓄積部と、翻訳結果を受信する翻訳結果受信部と、翻訳結果受信部が受信した翻訳結果を、音声合成用情報格納部の音声合成用情報を用いて音声合成し、音声合成結果を取得する音声合成部と、音声合成結果を第二端末装置に送信する音声合成結果送信部とを具備する音声翻訳システムである。
かかる構成により、音声翻訳において使用する辞書の間の不整合をなくすことができる。
また、本第二の発明の音声翻訳システムは、第一の発明に対して、音声認識サーバ装置の音声認識部は、音声情報受信部が受信した音声情報に対する音声認識処理が成功であるか失敗であるかを判断する音声認識判断手段と、音声認識判断手段が、音声認識処理が失敗であると判断した場合に、辞書サーバ装置に対して、音声認識情報を送信する指示を行う音声認識情報送信指示手段と、音声情報受信部が受信した音声情報を、音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得し、かつ、指示の送信に対応して、辞書サーバ装置から音声認識用情報受信部が受信した音声認識情報を用いて音声認識し、音声認識結果を取得する音声認識手段とを具備し、音声認識用情報受信部は、指示の送信に対応して、辞書サーバ装置から音声認識情報を受信する音声翻訳システムである。
かかる構成により、音声翻訳において、音声認識辞書に用語の情報が一時的に存在しない場合でも、音声認識処理の時点で自動的に必要な用語の情報を取得でき、音声認識処理を実行できる。
また、本第三の発明の音声翻訳システムは、第一の発明に対して、翻訳サーバ装置の翻訳部は、音声認識結果受信部が受信した音声認識結果に対する翻訳処理が成功であるか失敗であるかを判断する翻訳判断手段と、翻訳判断手段が、翻訳処理が失敗であると判断した場合に、辞書サーバ装置に対して、目的言語の用語の表記を送信する指示を行う翻訳情報送信指示手段と、音声認識結果受信部が受信した音声認識結果を、翻訳用情報格納部の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得し、かつ、指示の送信に対応して、辞書サーバ装置から翻訳用情報受信部が受信した目的言語の用語の表記を用いて、音声認識結果を目的言語に翻訳し、翻訳結果を取得する翻訳手段とを具備し、翻訳用情報受信部は、指示の送信に対応して、辞書サーバ装置から目的言語の用語の表記を受信する音声翻訳システムである。
かかる構成により、音声翻訳において、翻訳辞書に用語の情報が一時的に存在しない場合でも、翻訳処理の時点で自動的に必要な用語の情報を取得でき、翻訳処理を実行できる。
また、本第四の発明の音声翻訳システムは、第一の発明に対して、音声合成サーバ装置の音声合成部は、翻訳結果受信部が受信した翻訳結果に対する音声合成処理が成功であるか失敗であるかを判断する音声合成判断手段と、音声合成判断手段が、音声合成処理が失敗であると判断した場合に、辞書サーバ装置に対して、音声合成情報を送信する指示を行う音声合成情報送信指示手段と、翻訳結果受信部が受信した翻訳結果を、音声合成用情報格納部の音声合成用情報を用いて音声合成し、音声合成結果を取得し、かつ、指示の送信に対応して、辞書サーバ装置から音声合成用情報受信部が受信した音声合成情報を用いて翻訳結果を音声合成し、音声合成結果を取得する音声合成手段とを具備し、音声合成用情報受信部は、指示の送信に対応して、辞書サーバ装置から音声合成情報を受信する音声翻訳システムである。
かかる構成により、音声翻訳において、音声合成辞書に用語の情報が一時的に存在しない場合でも、音声合成処理の時点で自動的に必要な用語の情報を取得でき、音声合成処理を実行できる。
また、本第五の発明の音声翻訳システムは、第一から第四いずれかの発明に対して、辞書サーバ装置は、インターネット上の1以上のウェブサーバ装置のウェブページから、全言語対辞書格納部に存在しない用語の表記を取得する表記取得部と、表記取得部が取得した用語の表記を、全言語対辞書格納部に蓄積する表記蓄積部とをさらに具備する音声翻訳システムである。
かかる構成により、音声翻訳において使用する辞書の間の不整合をなくすために利用する多国語共通辞書の情報を自動的に補充できる。
また、本第六の発明の音声翻訳システムは、第五に対して、辞書サーバ装置は、1以上の第三端末装置から、用語情報のうちのいずれかの情報を受け付ける情報受付部と、情報受付部が受け付けた情報を、対応する言語の対応する用語の表記に対応付けて、全言語対辞書格納部に蓄積する情報蓄積部とをさらに具備する音声翻訳システムである。
かかる構成により、音声翻訳において使用する辞書の間の不整合をなくすために利用する多国語共通辞書の情報を補充できる。
また、本第七の発明の音声翻訳システムは、第五または第六の発明に対して、辞書サーバ装置は、全言語用語情報または全言語用語情報の一部の情報を出力する出力部をさらに具備し、出力部は、全言語用語情報または全言語用語情報の一部の情報を出力する場合に、2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、全言語用語情報または全言語用語情報の一部の情報を出力する音声翻訳システムである。
かかる構成により、音声翻訳において使用する辞書の間の不整合をなくすために利用する多国語共通辞書の情報を補充しやすくできる。
本発明による音声翻訳システムによれば、音声翻訳において使用する辞書の間の不整合をなくすことができる。
実施の形態1における音声翻訳システムの概念図 同音声翻訳システムのブロック図 同辞書サーバ装置のブロック図 同音声認識サーバ装置のブロック図 同翻訳サーバ装置のブロック図 同音声合成サーバ装置のブロック図 同辞書サーバ装置の動作について説明するフローチャート 同音声認識サーバ装置の動作について説明するフローチャート 同翻訳サーバ装置の動作について説明するフローチャート 同音声合成サーバ装置の動作について説明するフローチャート 同全言語対辞書を示す図 同音声認識辞書を示す図 同翻訳辞書を示す図 同音声合成辞書を示す図 同音声翻訳制御情報を示す図 同音声翻訳制御情報を示す図 同全言語対辞書を示す図 同出力例を示す図 同コンピュータシステムの概観図 同コンピュータシステムのブロック図
以下、音声翻訳システム等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
(実施の形態1)
本実施の形態において、全言語対辞書を有する辞書サーバ装置を用いて、音声翻訳において使用する辞書の間の不整合をなくすことができる音声翻訳システムについて説明する。なお、全言語対辞書とは、音声認識、翻訳、および音声合成に必要な情報を一元管理している辞書である。全言語対辞書は、2以上の全言語用語情報を格納している辞書の情報である。全言語用語情報は、音声翻訳の対象となり得る2以上の言語について、言語ごとに、一つの用語情報を有する情報である。用語情報は、音声認識に必要な情報である音声認識情報と、翻訳に必要な情報である翻訳情報と、音声合成に必要な情報である音声合成情報とを有する情報である。用語情報は、一つの用語に関する情報である。また、用語情報は、言語により、その構造が異なっても良い。また、音声翻訳の対象となり得る2以上の言語は、好ましくは3以上の言語である。
また、本実施の形態において、音声認識や翻訳や音声合成などの各処理の段階で、各処理を行う装置において、必要な情報が存在しない場合に、リアルタイムに、全言語対辞書を有する辞書サーバ装置から、各装置が処理を行うために必要な情報を取得しにいく処理(リアルタイム補完処理、という)を実行する音声翻訳システムについて説明する。
また、本実施の形態において、例えば、1以上のウェブサーバから、新しく出現した用語などの情報を、クロールなどして取得し、全言語対辞書を充実させていったり、例えば、不特定多数または特定の多数のユーザから、全言語対辞書に蓄積される情報を受け付けたりする機能を有する辞書サーバ装置について説明する。
図1は、本実施の形態における音声翻訳システム1の概念図である。音声翻訳システム1は、1以上の第一端末装置11、1以上の第二端末装置12、辞書サーバ装置13、1以上の音声認識サーバ装置14、1以上の翻訳サーバ装置15、1以上の音声合成サーバ装置16、1以上の第三端末装置17を具備する。
音声翻訳システム1において、例えば、第一端末装置11のユーザ(ユーザA)である日本人が日本語で「おはよう」と発話した場合、音声認識サーバ装置14は日本語「おはよう」を音声認識する。そして、翻訳サーバ装置15は音声認識結果を、例えば、英語「Good morning」に翻訳する。次に、音声合成サーバ装置16は英文「Good morning」から「Good morning」の音声情報を作りだす。そして、英語のネイティブであるユーザBの第二端末装置12から、音声「Good morning」が出力される。
第一端末装置11および第二端末装置12は、例えば、通話する端末(電話、携帯電話を含む)である。ここでは、主として、第一端末装置11を発話する側の端末、第二端末装置12を発話される側の端末として説明するが、両者は入れ替われることは言うまでもない。
また、辞書サーバ装置13は、音声認識サーバ装置14、翻訳サーバ装置15、および音声合成サーバ装置16で利用される情報をすべて保有している。この情報が、上述した全言語対辞書である。
さらに、第三端末装置17は、全言語対辞書に情報を追記し、全言語対辞書を充実させるために、情報を入力するための端末である。
図2は、本実施の形態における音声翻訳システム1のブロック図である。また、図3は、辞書サーバ装置13のブロック図である。図4は、音声認識サーバ装置14のブロック図である。図5は、翻訳サーバ装置15のブロック図である。図6は、音声合成サーバ装置16のブロック図である。
第一端末装置11は、第一音声受付部111、第一音声送信部112、第一音声受信部113、第一音声出力部114を具備する。
第二端末装置12は、第二音声受付部121、第二音声送信部122、第二音声受信部123、第二音声出力部124を具備する。
図3に示すように、辞書サーバ装置13は、全言語対辞書格納部131、音声認識用情報送信部132、翻訳用情報送信部133、音声合成用情報送信部134、表記取得部135、表記蓄積部136、情報受付部137、情報蓄積部138、出力部139を具備する。
図4に示すように、音声認識サーバ装置14は、音声認識用情報格納部141、音声認識用情報受信部142、音声認識用情報蓄積部143、音声情報受信部144、音声認識部145、音声認識結果送信部146を具備する。音声認識部145は、音声認識判断手段1451、音声認識情報送信指示手段1452、音声認識手段1453を具備する。
図5に示すように、翻訳サーバ装置15は、翻訳用情報格納部151、翻訳用情報受信部152、翻訳用情報蓄積部153、音声認識結果受信部154、翻訳部155、翻訳結果送信部156を具備する。翻訳部155は、翻訳判断手段1551、翻訳情報送信指示手段1552、翻訳手段1553を具備する。
図6に示すように、音声合成サーバ装置16は、音声合成用情報格納部161、音声合成用情報受信部162、音声合成用情報蓄積部163、翻訳結果受信部164、音声合成部165、音声合成結果送信部166を具備する。音声合成部165は、音声合成判断手段1651、音声合成情報送信指示手段1652、音声合成手段1653を具備する。
第三端末装置17は、入力受付部171、情報受信部172、情報出力部173、入力情報送信部174を具備する。
第一音声受付部111は、第一端末装置11のユーザ(ユーザAという)から音声を受け付ける。第一音声受付部111は、例えば、マイクとそのデバイスドライバーなどにより実現され得る。
第一音声送信部112は、第一音声受付部111が受け付けた音声を送信する。音声の送信先は、1以上の音声認識サーバ装置14のうちのいずれかである。なお、第一音声送信部112は、2以上の音声認識サーバ装置14に音声を送信しても良い。また、ここで、音声とは音声の情報であり、送信する音声はデジタル化されていることは好適である。また、第一音声送信部112は、音声とともに、音声翻訳制御情報を送信しても良い。音声翻訳制御情報は、音声認識サーバ装置14、翻訳サーバ装置15、および音声合成サーバ装置16が、それぞれ音声認識、翻訳、および音声合成を行ったり、処理結果を送信したりするための情報を有する。音声翻訳制御情報は、例えば、処理結果を送信する先を特定する情報(IPアドレスや電話番号など)、原言語や目的言語を特定する情報(日本語、英語、ドイツ語など)などを有する。第一端末装置11や第二端末装置12は、例えば、原言語と目的言語を、ユーザから受け付ける。また、第一端末装置11や第二端末装置12は、例えば、第二端末装置12や第一端末装置11の電話番号やIPアドレスなどから、自動的に原言語と目的言語を決定する。かかる場合、第二端末装置12や第一端末装置11は、電話番号やIPアドレスなどの情報と、言語を特定する情報を対応付けて保持していたり、電話番号やIPアドレスなどの情報をキーとして他の装置から言語を特定する情報を取得したりする。また、第一端末装置11や第二端末装置12は、原言語や目的言語から音声認識すべき音声認識サーバ装置14を特定する情報(IPアドレスなど)や、翻訳サーバ装置15を特定する情報(IPアドレスなど)や、音声合成サーバ装置16を特定する情報(IPアドレスなど)を取得する。つまり、第一端末装置11や第二端末装置12は、原言語や目的言語と、各サーバ装置を特定する情報とを対応付けて有していたり、原言語や目的言語を用いて、他の装置から、各サーバ装置を特定する情報を取得したりする。また、音声翻訳制御情報は、入力音声のフォーマットを示す情報、出力音声のフォーマットを示す情報、入出力音声の声質を指定する情報、入力テキストのフォーマットを示す情報、出力テキストのフォーマットを示す情報なども有しても良い。さらに、第一音声送信部112は、直接的に音声を1以上の音声認識サーバ装置14に送信しても良いし、他の装置経由で(間接的に)、音声を1以上の音声認識サーバ装置14に送信しても良い。第一音声送信部112は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
第一音声受信部113は、音声(通常、デジタル化されている音声情報)を受信する。この音声は、第二端末装置12のユーザ(ユーザBという)が発声した音声の内容を、第一端末装置11のユーザAが理解できる言語に翻訳された音声である。第一音声受信部113は、音声合成サーバ装置16から、直接的または間接的に音声を受信する。第一音声受信部113は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
第一音声出力部114は、第一音声受信部113が受信した音声を出力する。第一音声出力部114は、スピーカー(出力デバイス)を含むと考えても含まないと考えても良い。第一音声出力部114は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
第二音声受付部121は、第二端末装置12のユーザBから音声を受け付ける。第二音声受付部121は、例えば、マイクとそのデバイスドライバーなどにより実現され得る。
第二音声送信部122は、第二音声受付部121が受け付けた音声を送信する。音声の送信先は、1以上の音声認識サーバ装置14のうちのいずれかである。なお、第二音声送信部122は、2以上の音声認識サーバ装置14に音声を送信しても良い。また、ここで、音声とは音声の情報であり、送信する音声はデジタル化されていることは好適である。さらに、第二音声送信部122は、直接的に音声を1以上の音声認識サーバ装置14に送信しても良いし、他の装置経由で(間接的に)、音声を1以上の音声認識サーバ装置14に送信しても良い。第二音声送信部122は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
第二音声受信部123は、音声(通常、デジタル化されている音声情報)を受信する。この音声は、第一端末装置11のユーザAが発声した音声の内容を、第二端末装置12のユーザBが理解できる言語(目的言語)に翻訳された音声である。第二音声受信部123は、音声合成サーバ装置16から、直接的または間接的に音声を受信する。第二音声受信部123は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
第二音声出力部124は、第二音声受信部123が受信した音声を出力する。第二音声出力部124は、スピーカー(出力デバイス)を含むと考えても含まないと考えても良い。第一音声出力部114は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
全言語対辞書格納部131は、全言語対辞書を格納している。全言語対辞書については、上述した。なお、全言語対辞書が有する音声認識情報は、例えば、隠れマルコフモデル(HMM)などの音響モデルである。また、全言語対辞書が有する翻訳情報は、例えば、用語の表記である。用語の表記とは、言語の日本語が「大阪」である場合、英語は「Osaka」、中国語は「大阪」である。なお、用語とは、一つの単語、1以上の単語、1以上の文節、文なども含む広い概念である、として捉える。音声合成情報とは、例えば、読みの情報(適宜「読み」という)とアクセントの情報(適宜「アクセント」という)などである。用語情報は、用語の読みを、通常、有する。用語情報は、例えば、表記、読み、アクセント、トーンなどの情報を有する。用語情報は、通常、言語により構造は異なる。例えば、言語がドイツ語の場合、用語情報は、用語に対して男性語であるか女性語であるかを示すフラグ情報を有する。なお、かかるフラグ情報は、日本語や英語などの言語の用語情報には存在しない。
また、全言語対辞書は、通常、言語ごとの構造情報を有する。例えば、全言語対辞書は、「日本語<HMM><表記><読み><アクセント>」「英語<HMM><表記><読み><アクセント><トーン>」「ドイツ語<表記><フラグ情報><読み><アクセント>」などである。なお、構造情報は、言語共通で有する構造の情報は一つで管理し、言語特有の情報を示す構造情報のみ、言語ごとに管理しても良い。かかる場合、構造情報は、言語共通の構造情報「<HMM><表記><読み><アクセント>」、「ドイツ語<フラグ情報>」等の情報となる。
全言語対辞書格納部131は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。全言語対辞書格納部131に各種の情報が記憶される過程は問わない。例えば、記録媒体を介して各種の情報が全言語対辞書格納部131で記憶されるようになってもよく、通信回線等を介して送信された各種の情報が全言語対辞書格納部131で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された各種の情報が全言語対辞書格納部131で記憶されるようになってもよい。なお、後述する表記取得部135、表記蓄積部136、情報受付部137、情報蓄積部138などにより、全言語対辞書格納部131に情報が蓄積されることは好適である。
音声認識用情報送信部132は、全言語対辞書格納部131から音声認識用情報を読み出し、当該音声認識用情報を1以上の音声認識サーバ装置14に送信する。音声認識用情報とは、用語の音声認識情報を含む情報であり、音声認識サーバ装置14で音声認識のために利用される情報である。音声認識用情報は、2以上の言語のうちのすべての言語または一部の言語についての音声認識情報を含む情報である。音声認識用情報は、音声認識情報と同一の情報でも良いし、音声認識情報に他の情報を加えた情報でも良い。また、音声認識用情報送信部132は、音声認識用情報の中で一部に欠けている情報がある用語の音声認識情報は送信しないことは好適である。音声認識用情報送信部132は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
翻訳用情報送信部133は、全言語対辞書格納部131から翻訳用情報を読み出し、当該翻訳用情報を1以上の翻訳サーバ装置15に送信する。翻訳用情報とは、用語の表記を含む情報であり、翻訳サーバ装置15で翻訳のために利用される情報である。翻訳用情報は、2以上の言語のうちのすべての言語または一部の言語についての表記を含む情報である。翻訳用情報は、表記のみでも良いし、表記に他の情報を加えた情報でも良い。また、翻訳用情報送信部133は、翻訳用情報の中で一部に欠けている情報がある用語の翻訳情報は送信しないことは好適である。つまり、日本語の用語の表記のみしか存在しない用語情報があった場合、当該用語情報が有する情報は、全く送信しないことは好適である。翻訳用情報送信部133は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
音声合成用情報送信部134は、全言語対辞書格納部131から音声合成用情報を読み出し、当該音声合成用情報を1以上の音声合成サーバ装置16に送信する。音声合成用情報とは、用語の音声合成情報を含む情報であり、音声合成サーバ装置16で音声合成のために利用される情報である。音声合成用情報は、2以上の言語のうちのすべての言語または一部の言語についての音声合成情報を含む情報である。音声合成用情報は、音声合成情報と同一の情報でも良いし、音声合成情報に他の情報を加えた情報でも良い。また、音声合成用情報送信部134は、音声合成用情報の中で一部に欠けている情報がある用語の音声合成情報は送信しないことは好適である。音声合成用情報送信部134は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
表記取得部135は、インターネット上の1以上のウェブサーバ装置のウェブページから、全言語対辞書格納部131に存在しない用語の表記を取得する。表記取得部135は、表記を取得する場合に、言語を識別する情報である言語識別子も取得することは好適である。表記取得部135は、例えば、用語を取得したウェブページのURLが「.jp」を含む場合は言語識別子「日本語」、「.kr」を含む場合は言語識別子「韓国語」を取得する。また、表記取得部135は、例えば、用語を取得した先のデータベースやウェブページの文字コードから、言語を自動識別しても良い。さらに、表記取得部135は、ウェブページから用語を取得した後、ユーザに問い合わせ、言語を入力してもらうようにしても良い。
また、表記取得部135は、ウェブページから用語を取得し、当該用語をキーとして、全言語対辞書格納部131を検索して、全言語対辞書格納部131に用語は存在しないと判断した場合に、用語を取得した、としても良い。つまり、かかる場合、表記取得部135は、一度、取得した用語が、全言語対辞書格納部131に存在する場合、当該用語を捨てるようにしても良い。
表記取得部135は、通常、MPUやメモリや通信手段等から実現され得る。表記取得部135の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。表記取得部135は、いわゆる検索エンジンを起動する処理を行っても良い。かかる場合、表記取得部135は、検索エンジンを有しないと考えても、検索エンジンを有すると考えても良い。
表記蓄積部136は、表記取得部135が取得した用語の表記を、全言語対辞書格納部131に蓄積する。通常、表記蓄積部136は、表記取得部135が取得した言語識別子に対応する言語の表記として、取得した用語の表記を蓄積する。表記蓄積部136は、通常、MPUやメモリ等から実現され得る。表記蓄積部136の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
情報受付部137は、1以上の第三端末装置17から、用語情報のうちのいずれかの情報を受け付ける。受け付ける情報は、例えば、HMM、表記、読み、アクセント、トーン、フラグ情報などである。情報受付部137は、通常、言語と、対応する表記等を識別する情報とともに、情報を受け付ける。つまり、受け付けた情報が、どの言語のどの表記または読み等に対応する情報であるかが判断できる状況であることは言うまでもない。ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。情報受付部137は、例えば、有線もしくは無線の通信手段で実現され得る。
情報蓄積部138は、情報受付部137が受け付けた情報を、対応する言語の対応する用語の表記に対応付けて蓄積する。また、情報受付部137が表記を受け付けた場合、対応する言語の領域に蓄積する。また、情報受付部137が表記を受け付け、かつ読みなどの他の情報が既に存在する場合、対応する言語の対応する用語の読み等に対応付けて、表記を蓄積する。情報蓄積部138は、通常、MPUやメモリ等から実現され得る。情報蓄積部138の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
出力部139は、全言語用語情報または全言語用語情報の一部の情報を出力する。出力部139は、通常、第三端末装置17からの指示、またはユーザからの指示により、情報を出力する。ここでの出力とは、通常、指示を送信した第三端末装置17への、情報の送信である。出力部139は、全言語用語情報または全言語用語情報の一部の情報を出力する場合に、2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、全言語用語情報または全言語用語情報の一部の情報を出力することは好適である。予め決められたすべての情報は、全言語対辞書格納部131が有する構造情報に対応する情報である。出力部139は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
音声認識用情報格納部141は、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声認識用情報を格納し得る。音声認識用情報格納部141は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
通常、辞書サーバ装置13から音声認識用情報を受信することにより、音声認識用情報格納部141に音声認識用情報が記憶される。ただし、音声認識用情報格納部141に音声認識用情報が記憶される過程は、問わない。例えば、記録媒体を介して音声認識用情報が音声認識用情報格納部141で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された音声認識用情報が音声認識用情報格納部141で記憶されるようになってもよい。
音声認識用情報受信部142は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信する。音声認識用情報受信部142は、音声認識情報送信指示手段1452における辞書サーバ装置13への指示の送信に対応して、辞書サーバ装置13から音声認識情報を受信しても良い。音声認識用情報受信部142は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
音声認識用情報蓄積部143は、音声認識用情報受信部142が受信した音声認識用情報を音声認識用情報格納部141に蓄積する。また、音声認識用情報蓄積部143は、音声認識用情報受信部142が受信した音声認識情報を音声認識用情報格納部141に蓄積する。音声認識用情報蓄積部143は、通常、MPUやメモリ等から実現され得る。音声認識用情報蓄積部143の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声情報受信部144は、第一端末装置11に入力された音声の情報である音声情報を受信する。音声情報受信部144は、第一端末装置11から直接、または間接的に音声情報を受信する。音声情報受信部144は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
音声認識部145は、音声情報受信部144が受信した音声情報を、音声認識用情報格納部141の音声認識用情報を用いて音声認識し、音声認識結果を取得する。音声認識結果は、通常、原言語(第一端末装置11のユーザAが発話した音声の言語)の文字列である。音声認識部145が行う音声認識方法は、いかなる音声認識方法でも良い。音声認識部145は公知技術であるので詳細な説明を省略する。音声認識部145は、通常、MPUやメモリ等から実現され得る。音声認識部145の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声認識判断手段1451は、音声情報受信部144が受信した音声情報に対する音声認識処理が成功であるか失敗であるかを判断する。音声認識判断手段1451は、例えば、音声情報受信部144が受信した音声情報が有する情報であり、1以上の用語に対応する情報である部分音声情報に対応する音声認識情報が、音声認識用情報格納部141に存在するか否かを判断する。なお、ここで、部分音声情報は、通常、音声情報の一部であるが、音声情報と同じである場合もあり得る。また、音声認識判断手段1451は、音声情報受信部144が受信した音声情報に対して、音声認識手段1453に音声認識処理を行わせ、その結果が成功であるか失敗であるかを判断しても良い。成功である場合は、部分音声情報に対応する音声認識情報が、音声認識用情報格納部141に存在する場合である。また、失敗である場合は、部分音声情報に対応する音声認識情報が、音声認識用情報格納部141に存在しない場合である。なお、音声認識判断手段1451は、音声認識結果の尤度が予め決められた値より大きい(以上の)場合に音声認識処理が成功であり、予め決められた値以下の(より小さい)場合に音声認識処理が失敗であると判断しても良い。音声認識判断手段1451は、通常、MPUやメモリ等から実現され得る。音声認識判断手段1451の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声認識情報送信指示手段1452は、音声情報受信部144が受信した音声情報に対する音声認識処理が失敗であったと判断した場合に、辞書サーバ装置13に対して、音声認識情報を送信する指示を行う。例えば、音声認識判断手段1451が音声認識情報は音声認識用情報格納部141に存在しないと判断した場合に、辞書サーバ装置13に対して、音声認識情報を送信する指示を行う。なお、この指示は、例えば、部分音声情報と言語識別子等を含む。また、この指示は、例えば、部分音声情報から生成された音素列と言語識別子等を含む。音声認識情報送信指示手段1452は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
音声認識手段1453は、前記音声情報受信部が受信した音声情報を、前記音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得する。また、音声認識手段1453は、音声認識情報送信指示手段1452における指示の送信に対応して、辞書サーバ装置13から音声認識用情報受信部142が受信した音声認識情報を用いて音声認識し、音声認識結果を取得する。また、音声認識手段1453は、音声認識判断手段1451が音声認識情報は音声認識用情報格納部141に存在すると判断した場合に、音声認識用情報格納部141の音声認識用情報を用いて音声認識し、音声認識結果を取得する。音声認識手段1453は、通常、MPUやメモリ等から実現され得る。音声認識手段1453の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声認識結果送信部146は、音声認識部145が取得した音声認識結果を送信する。音声認識結果送信部146は、直接的または間接的に、音声認識結果を翻訳サーバ装置15に送信する。音声認識結果送信部146は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
翻訳用情報格納部151は、2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を格納し得る。翻訳用情報は、例えば、翻訳モデルと言語モデルである。翻訳用情報格納部151は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
通常、辞書サーバ装置13から翻訳用情報を受信することにより、翻訳用情報格納部151に翻訳用情報が記憶される。ただし、翻訳用情報格納部151に翻訳用情報が記憶される過程は問わない。例えば、記録媒体を介して翻訳用情報が翻訳用情報格納部151で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された翻訳用情報が翻訳用情報格納部151で記憶されるようになってもよい。
翻訳用情報受信部152は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を受信する。翻訳用情報受信部152は、翻訳情報送信指示手段1552における辞書サーバ装置13への指示の送信に対応して、辞書サーバ装置13から目的言語の用語の表記を受信する。翻訳用情報受信部152は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
翻訳用情報蓄積部153は、翻訳用情報受信部152が受信した翻訳用情報を翻訳用情報格納部151に蓄積する。また、翻訳用情報蓄積部153は、翻訳用情報受信部152が受信した目的言語の用語の表記を翻訳用情報格納部151に蓄積する。翻訳用情報蓄積部153は、通常、MPUやメモリ等から実現され得る。翻訳用情報蓄積部153の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声認識結果受信部154は、音声認識サーバ装置14が取得した音声認識結果を受信する。音声認識結果受信部154は、音声認識サーバ装置14から直接、または間接的に音声認識結果を受信する。音声認識結果受信部154は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
翻訳部155は、音声認識結果受信部154が受信した音声認識結果を、翻訳用情報格納部151の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する。翻訳部155における翻訳アルゴリズム等と問わない。翻訳部155は公知技術であるので詳細な説明を省略する。翻訳部155は、通常、MPUやメモリ等から実現され得る。翻訳部155の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳判断手段1551は、音声認識結果受信部154が受信した音声認識結果に対する翻訳処理が成功であるか失敗であるかを判断する。翻訳判断手段1551は、例えば、音声認識結果受信部154が受信した音声認識結果が有する情報であり、1以上の用語に対応する情報である部分音声認識結果(通常、原言語の用語の文字列)に対応する目的言語の用語の表記が、翻訳用情報格納部151に存在するか否かを判断する。なお、ここで、部分音声認識結果は、通常、音声認識結果の一部であるが、音声認識結果と同じである場合もあり得る。また、翻訳判断手段1551は、音声認識結果受信部154が受信した音声認識結果に対して、翻訳手段1553に翻訳処理を行わせ、その結果が成功であるか失敗であるかを判断しても良い。成功である場合は、部分音声認識結果に対応する目的言語の用語の表記が、翻訳用情報格納部151に存在する場合である。また、失敗である場合は、部分音声認識結果に対応する目的言語の用語の表記が、翻訳用情報格納部151に存在しない場合である。なお、翻訳判断手段1551は、翻訳結果の尤度が予め決められた値より大きい(以上の)場合に翻訳処理が成功であり、予め決められた値以下の(より小さい)場合に翻訳処理が失敗であると判断しても良い。翻訳判断手段1551は、通常、MPUやメモリ等から実現され得る。翻訳判断手段1551の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳情報送信指示手段1552は、翻訳判断手段1551が目的言語の用語の表記は翻訳用情報格納部151に存在しないと判断した場合に、辞書サーバ装置13に対して、目的言語の用語の表記を送信する指示を行う。この指示は、例えば、原言語の用語の表記と目的言語の言語識別子とを含む。翻訳情報送信指示手段1552は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
翻訳手段1553は、音声認識結果受信部154が受信した音声認識結果を、翻訳用情報格納部151の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する。また、翻訳手段1553は、翻訳情報送信指示手段1552における指示の送信に対応して、辞書サーバ装置13から翻訳用情報受信部152が受信した目的言語の用語の表記を用いて、音声認識結果を目的言語に翻訳し、翻訳結果を取得する。また、翻訳手段1553は、例えば、翻訳判断手段1551が目的言語の用語の表記は翻訳用情報格納部151に存在すると判断した場合に、翻訳用情報格納部151の目的言語の用語の表記を用いて音声認識結果を翻訳し、翻訳結果を取得する。なお、翻訳結果とは、通常、目的言語の用語の文字列である。翻訳手段1553は、通常、MPUやメモリ等から実現され得る。翻訳手段1553の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳結果送信部156は、翻訳部155が取得した翻訳結果を送信する。翻訳結果送信部156は、音声合成サーバ装置16に直接的、または間接的に翻訳結果を送信する。翻訳結果送信部156は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
音声合成用情報格納部161は、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を格納し得る。音声合成用情報格納部161は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
通常、辞書サーバ装置13から音声合成用情報を受信することにより、音声合成用情報格納部161に音声合成用情報が記憶される。ただし、音声合成用情報格納部161に音声合成用情報が記憶される過程は問わない。例えば、記録媒体を介して音声合成用情報が音声合成用情報格納部161で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された音声合成用情報が音声合成用情報格納部161で記憶されるようになってもよい。
音声合成用情報受信部162は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を受信する。音声合成用情報受信部162は、音声合成情報送信指示手段1652における辞書サーバ装置13への指示の送信に対応して、辞書サーバ装置13から音声合成情報を受信する。音声合成用情報受信部162は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
音声合成用情報蓄積部163は、音声合成用情報受信部162が受信した音声合成用情報を音声合成用情報格納部161に蓄積する。また、音声合成用情報蓄積部163は、音声合成用情報受信部162が受信した音声合成情報を音声合成用情報格納部161に蓄積する。音声合成用情報蓄積部163は、通常、MPUやメモリ等から実現され得る。音声合成用情報蓄積部163の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳結果受信部164は、翻訳サーバ装置15が取得した翻訳結果を受信する。翻訳結果受信部164は、翻訳サーバ装置15から直接、または間接的に翻訳結果を受信する。翻訳結果受信部164は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
音声合成部165は、翻訳結果受信部164が受信した翻訳結果を、音声合成用情報格納部161の音声合成用情報を用いて音声合成し、音声合成結果を取得する。音声合成のアルゴリズム等と問わない。音声合成部165は公知技術であるので詳細な説明を省略する。音声合成部165は、通常、MPUやメモリ等から実現され得る。音声合成部165の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声合成判断手段1651は、翻訳結果受信部164が受信した翻訳結果に対する音声合成処理が成功であるか失敗であるかを判断する。音声合成判断手段1651は、例えば、翻訳結果受信部164が受信した翻訳結果が有する情報であり、1以上の用語に対応する情報である部分翻訳結果に対応する音声合成情報が、音声合成用情報格納部161に存在するか否かを判断する。なお、ここで、部分翻訳結果は、通常、翻訳結果の一部であるが、翻訳結果と同じである場合もあり得る。また、音声合成判断手段1651は、翻訳結果受信部164が受信した翻訳結果に対して、音声合成手段1653に音声合成処理を行わせ、その結果が成功であるか失敗であるかを判断しても良い。成功である場合は、部分翻訳結果に対応する音声合成情報が、音声合成用情報格納部161に存在する場合である。また、失敗である場合は、部分翻訳結果に対応する音声合成情報が、音声合成用情報格納部161に存在しない場合である。なお、音声合成判断手段1651は、音声合成結果の尤度が予め決められた値より大きい(以上の)場合に音声合成処理が成功であり、予め決められた値以下の(より小さい)場合に音声合成処理が失敗であると判断しても良い。音声合成判断手段1651は、通常、MPUやメモリ等から実現され得る。音声合成判断手段1651の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声合成情報送信指示手段1652は、翻訳結果受信部164が受信した翻訳結果に対する音声合成処理が失敗であると判断した場合に、辞書サーバ装置13に対して、音声合成情報を送信する指示を行う。例えば、音声合成情報送信指示手段1652は、音声合成判断手段1651が音声合成情報は音声合成用情報格納部161に存在しないと判断した場合に、辞書サーバ装置13に対して、音声合成情報を送信する指示を行う。なお、この指示は、例えば、目的言語の用語の表記(部分翻訳結果)と目的言語の言語識別子とを含む。音声合成情報送信指示手段1652は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
音声合成手段1653は、翻訳結果受信部164が受信した翻訳結果を、音声合成用情報格納部161の音声合成用情報を用いて音声合成し、音声合成結果を取得する。また、音声合成手段1653は、音声合成情報送信指示手段1652における指示の送信に対応して、辞書サーバ装置13から音声合成用情報受信部162が受信した音声合成情報を用いて部分翻訳結果を音声合成し、音声合成結果を取得する。また、例えば、音声合成手段1653は、音声合成判断手段1651が音声合成情報は音声合成用情報格納部161に存在すると判断した場合に、音声合成用情報格納部161の音声合成用情報を用いて部分翻訳結果を音声合成し、音声合成結果を取得しても良い。音声合成結果とは、通常、目的言語の音声の情報である。音声合成手段1653は、通常、MPUやメモリ等から実現され得る。音声合成手段1653の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
音声合成結果送信部166は、音声合成部165が取得した音声合成結果を第二端末装置12に送信する。音声合成結果送信部166は、直接的または間接的に、音声合成結果を第二端末装置12に送信する。音声合成結果送信部166は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
入力受付部171は、ユーザから各種の指示や各種の情報の入力を受け付ける。指示や情報の入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でも良い。入力受付部171は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
情報受信部172は、辞書サーバ装置13から、情報を受信する。この受信する情報は、全言語用語情報または全言語用語情報の一部の情報である。情報受信部172は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。
情報出力部173は、情報受信部172が受信した情報を出力する。情報出力部173は、2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、受信された情報(全言語用語情報または全言語用語情報の一部の情報)を出力する。情報出力部173は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。情報出力部173は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
入力情報送信部174は、入力受付部171が受け付けた指示または情報を、辞書サーバ装置13に送信する。入力情報送信部174は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。
次に、音声翻訳システム1の動作について説明する。まず、第一端末装置11の動作について説明する。第一端末装置11の第一音声受付部111は、ユーザAから発声された言語Aの音声を受け付ける。そして、第一音声送信部112は、受け付けた音声を音声情報とし、当該音声情報(単に「音声」という場合もある)を送信する。また、第一音声受信部113は、ユーザBが発声した言語Bの音声情報を音声翻訳して得られた言語Aの音声情報を受信する。次に、第一音声出力部114は、言語Aの音声情報を、音声として出力する。
次に、第二端末装置12の動作について説明する。第二端末装置12の第二音声受信部123は、ユーザAから発声された言語Aの音声を音声翻訳して得られた言語Bの音声情報を受信する。そして、第二音声出力部124は、第二音声受信部123が受信した言語Bの音声情報を、音声として出力する。また、第二音声受付部121は、第二端末装置12のユーザBから、言語Bの音声を受け付ける。そして、第二音声送信部122は、第二音声受付部121が受け付けた言語Bの音声を音声情報として送信する。
次に、辞書サーバ装置13の動作について、図7のフローチャートを用いて説明する。
(ステップS701)辞書サーバ装置13は、外部の装置から指示を受信したか否かを判断する。指示を受信すればステップS702に行き、指示を受信しなければステップS706に行く。
(ステップS702)辞書サーバ装置13は、ステップS701で受け付けた指示が情報の送信指示であるか否かを判断する。情報の送信指示であればステップS703に行き、情報の送信指示でなければステップS705に行く。
(ステップS703)辞書サーバ装置13の音声認識用情報送信部132、翻訳用情報送信部133、または音声合成用情報送信部134は、ステップS701で受け付けた指示に対応する情報を、全言語対辞書格納部131から検索し、音声認識のために必要な情報、または翻訳のために必要な情報、または音声合成のために必要な情報を取得する。さらに具体的には、例えば、音声認識用情報送信部132は、ステップS701で受け付けた指示が有する音声認識に失敗した音声情報と言語識別子とをキーとして、全言語対辞書格納部131を検索し、音声認識情報(例えば、音響モデル)を取得する。また、例えば、翻訳用情報送信部133は、ステップS701で受け付けた指示が有する翻訳に失敗した音声認識結果(一部である場合もある)と原言語の識別子と目的言語の識別子とをキーとして、全言語対辞書格納部131を検索し、翻訳情報(例えば、目的言語の用語の表記)を取得する。さらに、例えば、音声合成用情報送信部134は、ステップS701で受け付けた指示が有する音声合成に失敗した翻訳結果(一部である場合もある)と目的言語の識別子とをキーとして、全言語対辞書格納部131を検索し、音声合成情報(例えば、用語の読みとアクセントの情報)を取得する。
(ステップS704)音声認識用情報送信部132、翻訳用情報送信部133、または音声合成用情報送信部134は、ステップS703で取得した情報を送信する。送信先は、指示を送信してきた装置(音声認識サーバ装置14、翻訳サーバ装置15、または音声合成サーバ装置16)である。ステップS701に戻る。
(ステップS705)辞書サーバ装置13は、ステップS701で受け付けた指示に対応する処理を行う。例えば、指示が情報の出力指示(送信指示)である場合、出力部139は、指示に対応する情報を全言語対辞書格納部131から検索し、検索により取得した情報を、指示を送信してきた装置(通常、第三端末装置17)に送信する。ステップS701に戻る。
(ステップS706)情報受付部137は、外部の装置(通常、第三端末装置17)から情報を受信したか否かを判断する。情報を受信すればステップS707に行き、情報を受信しなければステップS708に行く。
(ステップS707)情報蓄積部138は、ステップS706で受信した情報を、全言語対辞書格納部131内の対応する領域に蓄積する。なお、情報とは、例えば、用語の読み、HMM、アクセントの情報、トーンの情報などであり、音声認識、翻訳、または音声合成に利用できる情報である。また、対応する領域とは、以下のことを言う。つまり、受信した情報は、例えば、言語識別子と用語を特定する情報(用語の表記など)と追記する情報(用語の読み、HMM、アクセントの情報、トーンの情報など)が含まれる。そして、情報蓄積部138は、言語識別子と用語を特定する情報を用いて、追記する情報を書き込むべき領域を決定し、当該領域に追記する情報を蓄積する。ステップS701に戻る。
(ステップS708)音声認識用情報送信部132、翻訳用情報送信部133、または音声合成用情報送信部134は、情報を送信するタイミングであるか否かを判断する。情報を送信するタイミングであればステップS714に行き、情報を送信するタイミングでなければステップS709に行く。ここで、情報とは、音声認識用情報、翻訳用情報、または音声合成用情報である。また、情報を送信するタイミングは、例えば、ユーザからの指示を受け付けたタイミングなどである。さらに、情報の送信先は、音声認識用情報送信部132、翻訳用情報送信部133、または音声合成用情報送信部134が予め格納している。
(ステップS709)表記取得部135は、ウェブ上のクロールを開始するタイミングであるか否かを判断する。クロールを開始するタイミングであればステップS710に行き、クロールを開始するタイミングでなければステップS701に戻る。なお、例えば、表記取得部135は、定期的にクロールを開始するタイミングであると判断する。
(ステップS710)表記取得部135は、ウェブ上をクロールし、用語の表記を取得する。なお、表記取得部135は、更新されたウェブページを検索し、旧ウェブページと比較し、更新箇所を抽出し、当該更新箇所から用語(名詞、名詞句、動詞、形容詞など)を取得することは好適である。なお、用語の表記は、適宜、「用語」とも言う。また、クロールする技術は公知技術であるので詳細な説明を省略する。さらに、表記取得部135は、本ステップで、一の用語を取得しても良いし、複数の用語を取得しても良い。
(ステップS711)表記取得部135は、ステップS710で取得した1以上の各用語の表記をキーとして、全言語対辞書格納部131を検索する。
(ステップS712)表記取得部135は、ステップS711における検索の結果、ステップS710で取得した1以上の各用語の表記が、全言語対辞書格納部131に存在するか否かを判断する。すべての用語の表記が存在すればステップS701に戻り、存在しない用語の表記があればステップS713に行く。
(ステップS713)表記蓄積部136は、ステップS712で全言語対辞書格納部131に存在しないと判断された1以上の用語の表記を、全言語対辞書格納部131に蓄積する。なお、表記蓄積部136は、用語の表記に対応付けられている言語識別子に対応する領域に、1以上の用語の表記を蓄積する。また、表記取得部135は、用語を取得する際に、用語と対応付けて言語識別子を取得する、とする。ステップS701に戻る。
(ステップS714)音声認識用情報送信部132は、音声認識用情報を送信するタイミングであるか否かを判断する。音声認識用情報を送信するタイミングであればステップS715に行き、音声認識用情報を送信するタイミングでなければステップS717に行く。音声認識用情報を送信するタイミングは、例えば、ユーザからの指示を受け付けたタイミングなどである。
(ステップS715)音声認識用情報送信部132は、全言語対辞書格納部131から音声認識用情報を読み出す。
(ステップS716)音声認識用情報送信部132は、ステップS715で読み出した音声認識用情報を、1以上の音声認識サーバ装置14に送信する。なお、1以上の音声認識サーバ装置14に情報を送信するための情報(IPアドレスやURLなど)は、音声認識用情報送信部132が予め保持している、とする。ステップS701に戻る。
(ステップS717)翻訳用情報送信部133は、翻訳用情報を送信するタイミングであるか否かを判断する。翻訳用情報を送信するタイミングであればステップS718に行き、翻訳用情報を送信するタイミングでなければステップS720に行く。なお、翻訳用情報を送信するタイミングは、例えば、ユーザからの指示を受け付けたタイミングなどである。
(ステップS718)翻訳用情報送信部133は、全言語対辞書格納部131から翻訳用情報を読み出す。
(ステップS719)翻訳用情報送信部133は、ステップS718で読み出した翻訳用情報を、1以上の翻訳サーバ装置15に送信する。なお、1以上の翻訳サーバ装置15に情報を送信するための情報(IPアドレスやURLなど)は、翻訳用情報送信部133が予め保持している、とする。ステップS701に戻る。
(ステップS720)音声合成用情報送信部134は、音声合成用情報を送信するタイミングであるか否かを判断する。音声合成用情報を送信するタイミングであればステップS721に行き、音声合成用情報を送信するタイミングでなければステップS701に戻る。なお、音声合成用情報を送信するタイミングは、例えば、ユーザからの指示を受け付けたタイミングなどである。
(ステップS721)音声合成用情報送信部134は、全言語対辞書格納部131から音声合成用情報を読み出す。
(ステップS722)音声合成用情報送信部134は、ステップS718で読み出した音声合成用情報を、1以上の音声合成サーバ装置16に送信する。なお、1以上の音声合成サーバ装置16に情報を送信するための情報(IPアドレスやURLなど)は、音声合成用情報送信部134が予め保持している、とする。ステップS701に戻る。
なお、図7のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
次に、音声認識サーバ装置14の動作について、図8のフローチャートを用いて説明する。
(ステップS801)音声情報受信部144は、音声情報を受信したか否かを判断する。音声情報を受信すればステップS802に行き、音声情報を受信しなければステップS809に行く。
(ステップS802)音声認識手段1453は、ステップS801で受信された音声情報に対して、音声認識処理を行い、音声認識結果を得る。
(ステップS803)音声認識判断手段1451は、ステップS802における音声認識の結果が成功であるか否かを判断する。ここで、例えば、音声認識結果の尤度を用いて判断する。成功であればステップS804に行き、成功でなければステップS805に行く。
(ステップS804)音声認識結果送信部146は、ステップS802で取得された音声認識結果を、翻訳サーバ装置15に送信する。ステップS801に戻る。
(ステップS805)音声認識情報送信指示手段1452は、音声情報を音声認識するために必要な情報(音声認識情報)を取得するために、辞書サーバ装置13に送信する情報を取得する。取得する情報は、例えば、音声認識に失敗した音声情報(一部である場合もある)や、言語を特定する情報(言語識別子)などである。
(ステップS806)音声認識情報送信指示手段1452は、ステップS805で取得した情報を含む指示を、辞書サーバ装置13に送信する。この指示は、音声認識情報の送信を促す指示である。
(ステップS807)音声認識用情報受信部142は、ステップS806における指示の送信に対応して、音声認識情報を受信したか否かを判断する。音声認識情報を受信すればステップS808に行き、音声認識情報を受信しなければステップS807に戻る。
(ステップS808)音声認識用情報蓄積部143は、ステップS807で受信された音声認識情報を音声認識用情報格納部141に蓄積する。
(ステップS809)音声認識手段1453は、ステップS807で受信された音声認識情報を用いて、ステップS801で受信された音声情報に対して、音声認識処理を行い、音声認識結果を得る。ステップS804に行く。
(ステップS810)音声認識用情報受信部142は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信したか否かを判断する。音声認識用情報を受信すればステップS811に行き、音声認識用情報を受信しなければステップS801に戻る。
(ステップS811)音声認識用情報蓄積部143は、ステップS810で受信された音声認識用情報を音声認識用情報格納部141に蓄積する。ステップS801に戻る。
なお、図8のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
次に、翻訳サーバ装置15の動作について、図9のフローチャートを用いて説明する。
(ステップS901)音声認識結果受信部154は、音声認識結果を受信したか否かを判断する。音声認識結果を受信すればステップS902に行き、音声認識結果を受信しなければステップS909に行く。
(ステップS902)翻訳手段1553は、ステップS901で受信された音声認識結果に対して、翻訳処理を行い、翻訳結果を得る。
(ステップS903)翻訳判断手段1551は、ステップS902における翻訳の結果が成功であるか否かを判断する。ここで、例えば、翻訳結果の尤度を用いて判断する。成功であればステップS904に行き、成功でなければステップS905に行く。
(ステップS904)翻訳結果送信部156は、ステップS902で取得された翻訳結果を、音声合成サーバ装置16に送信する。ステップS901に戻る。
(ステップS905)翻訳情報送信指示手段1552は、音声認識結果を翻訳するために必要な情報(翻訳情報)を取得するために、辞書サーバ装置13に送信する情報を取得する。取得する情報は、例えば、翻訳に失敗した音声認識結果(一部である場合もある)と原言語の識別子と目的言語の識別子等である。
(ステップS906)翻訳情報送信指示手段1552は、ステップS905で取得した情報を含む指示を、辞書サーバ装置13に送信する。この指示は、翻訳情報の送信を促す指示である。
(ステップS907)翻訳用情報受信部152は、ステップS906における指示の送信に対応して、翻訳情報を受信したか否かを判断する。翻訳情報を受信すればステップS908に行き、翻訳情報を受信しなければステップS907に戻る。
(ステップS908)翻訳用情報蓄積部153は、ステップS907で受信された翻訳情報を翻訳用情報格納部151に蓄積する。
(ステップS909)翻訳手段1553は、ステップS907で受信された翻訳情報を用いて、ステップS901で受信された音声認識結果に対して、翻訳処理を行い、翻訳結果を得る。ステップS904に行く。
(ステップS910)翻訳用情報受信部152は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語についての翻訳用情報を受信したか否かを判断する。翻訳用情報を受信すればステップS911に行き、翻訳用情報を受信しなければステップS901に戻る。
(ステップS911)翻訳用情報蓄積部153は、ステップS910で受信された翻訳用情報を翻訳用情報格納部151に蓄積する。ステップS901に戻る。
なお、図9のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
次に、音声合成サーバ装置16の動作について、図10のフローチャートを用いて説明する。
(ステップS1001)翻訳結果受信部164は、翻訳結果を受信したか否かを判断する。翻訳結果を受信すればステップS1002に行き、翻訳結果を受信しなければステップS1009に行く。
(ステップS1002)音声合成手段1653は、ステップS1001で受信された音声情報に対して、音声合成処理を行い、音声合成結果を得る。
(ステップS1003)音声合成判断手段1651は、ステップS1002における音声合成の結果が成功であるか否かを判断する。ここで、例えば、音声合成結果の尤度を用いて判断する。成功であればステップS1004に行き、成功でなければステップS1005に行く。
(ステップS1004)音声合成結果送信部166は、ステップS1002で取得された音声合成結果を、第二端末装置12に送信する。ステップS1001に戻る。
(ステップS1005)音声合成情報送信指示手段1652は、翻訳結果を音声合成するために必要な情報(音声合成情報)を取得するために、辞書サーバ装置13に送信する情報を取得する。取得する情報は、例えば、音声合成に失敗した翻訳結果(一部である場合もある)と目的言語の識別子である。
(ステップS1006)音声合成情報送信指示手段1652は、ステップS1005で取得した情報を含む指示を、辞書サーバ装置13に送信する。この指示は、音声合成情報の送信を促す指示である。
(ステップS1007)音声合成用情報受信部162は、ステップS1006における指示の送信に対応して、音声合成情報を受信したか否かを判断する。音声合成情報を受信すればステップS1008に行き、音声合成情報を受信しなければステップS1007に戻る。
(ステップS1008)音声合成用情報蓄積部163は、ステップS1007で受信された音声合成情報を音声合成用情報格納部161に蓄積する。
(ステップS1009)音声合成手段1653は、ステップS1007で受信された音声合成情報を用いて、ステップS1001で受信された翻訳結果に対して、音声合成処理を行い、音声合成結果を得る。ステップS1004に行く。
(ステップS1010)音声合成用情報受信部162は、辞書サーバ装置13から、2以上の言語のうちのすべての言語または2以上の一部の言語についての音声合成用情報を受信したか否かを判断する。音声合成用情報を受信すればステップS1011に行き、音声合成用情報を受信しなければステップS1001に戻る。
(ステップS1011)音声合成用情報蓄積部163は、ステップS1010で受信された音声合成用情報を音声合成用情報格納部161に蓄積する。ステップS1001に戻る。
なお、図10のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
次に、第三端末装置17の動作について説明する。第三端末装置17の入力受付部171は、ユーザから各種の指示や各種の情報の入力を受け付ける。例えば、入力受付部171は、ユーザから全言語対辞書の出力指示を受け付ける。すると、入力情報送信部174は、入力受付部171が受け付けた出力指示を、辞書サーバ装置13に送信する。そして、かかる出力指示の送信に対応して、情報受信部172は、辞書サーバ装置13から、全言語対辞書の全部または一部を受信する。次に、情報出力部173は、情報受信部172が受信した全言語対辞書の全部または一部を出力する。なお、かかる出力の際に、情報出力部173は、2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、受信された情報(全言語用語情報または全言語用語情報の一部の情報)を出力する。つまり、抜けている情報が存在する用語において、情報が抜けていることをユーザに明示するように、全言語対辞書の全部または一部(1以上の用語の情報)を出力する。
また、入力受付部171は、ユーザから全言語対辞書内の抜けている情報の入力を受け付ける。そして、入力情報送信部174は、入力受付部171が受け付けた情報を、辞書サーバ装置13に送信する。そして、全言語対辞書に、かかる情報が蓄積されることとなる。このことにより、全言語対辞書が充実していく。
以下、本実施の形態における音声翻訳システム1の具体的な動作について説明する。音声翻訳システム1の概念図は図1である。
今、辞書サーバ装置13の全言語対辞書格納部131は、図11の全言語対辞書を格納している。図11の全言語対辞書は、音声翻訳における辞書間の不整合の問題を解決するために、以下のような構造を有する。全言語対辞書は、音声認識辞書、翻訳用対訳辞書、および合成音声用辞書に必要な情報を全言語対で一元管理している情報である。具体的には、全言語対辞書は、構造情報「日本語<表記><読み><音響モデル><アクセント>・・・」「英語<表記><読み><音響モデル><アクセント><トーン>・・・」「中国語<表記><読み><音響モデル><アクセント><声調>・・・」「ドイツ語<表記><読み><音響モデル><アクセント><フラグ情報>・・・」などを有する、とする。そして、全言語対辞書は、構造情報に対応した言語ごとの用語情報を有する。図11において、用語「大阪」の日本語の用語情報は「<表記>大阪<読み>おおさか<音響モデル>・・・<アクセント>4モーラ0型・・・」である。なお、括弧("<"">")で囲まれた情報は、辞書の要素(属性)を示す情報であり、括弧("<"">")で囲まれた情報群が、ここでの構造情報である。
かかる状況において、まず、ユーザからの指示により、辞書サーバ装置13の音声認識用情報送信部132は、音声認識用情報を送信するタイミングであると、判断した、とする。
そして、音声認識用情報送信部132は、全言語対辞書格納部131から、図12に示す音声認識用情報(音声認識辞書と同意義である)を読み出す。音声認識辞書は、各用語ごと、各言語ごとに、「表記」「音響モデル」等の情報を有する。
次に、音声認識用情報送信部132は、読み出した音声認識辞書を、1以上の音声認識サーバ装置14に送信する。
次に、1以上の各音声認識サーバ装置14の音声認識用情報受信部142は、辞書サーバ装置13から、音声認識辞書を受信する。
そして、音声認識用情報蓄積部143は、受信された音声認識辞書(音声認識用情報)を音声認識用情報格納部141に蓄積する。
また、次に、ユーザからの指示により、辞書サーバ装置13の翻訳用情報送信部133は、翻訳用情報を送信するタイミングであると判断する。
そして、翻訳用情報送信部133は、全言語対辞書格納部131から、図13に示す翻訳用情報(翻訳辞書と同意義である)を読み出す。翻訳辞書は、各用語ごと、各言語ごとに、「表記」等の情報を有する。
次に、翻訳用情報送信部133は、読み出した翻訳辞書を、1以上の翻訳サーバ装置15に送信する。
次に、1以上の各翻訳サーバ装置15の翻訳用情報受信部152は、辞書サーバ装置13から、翻訳辞書を受信する。
そして、翻訳用情報蓄積部153は、受信された翻訳辞書(翻訳用情報)を翻訳用情報格納部151に蓄積する。
さらに、音声合成用情報送信部134は、音声合成用情報を送信するタイミングであると判断する。
次に、音声合成用情報送信部134は、全言語対辞書格納部131から、図14に示す音声合成用情報(音声合成辞書と同意義である)を読み出す。音声合成辞書は、各用語ごと、各言語ごとに、「表記」「読み」「アクセント」等の情報を有する。
次に、音声合成用情報送信部134は読み出した音声合成辞書を、1以上の音声合成サーバ装置16に送信する。
そして、音声合成用情報受信部162は、辞書サーバ装置13から、音声合成辞書を受信する。
そして、音声合成用情報蓄積部163は、は、受信された音声合成辞書(音声合成用情報)を音声合成用情報格納部161に蓄積する。
以上の処理により、音声認識サーバ装置14、翻訳サーバ装置15、および音声合成サーバ装置16には、整合性のある辞書が格納され、通常、問題なく音声翻訳ができることとなった。ただし、音声認識サーバ装置14、翻訳サーバ装置15、および音声合成サーバ装置16の各辞書は、それぞれ独自に拡張され得ることもあり、その結果、辞書間の不整合が生じる場合もあり得る。
次に、音声認識サーバ装置14、翻訳サーバ装置15、および音声合成サーバ装置16に、音声認識、翻訳、および音声合成に必要な辞書が構築された状況において、第一端末装置11のユーザAと、第二端末装置12のユーザBが、音声翻訳システムを利用して、電話で会話を行う、とする。なお、ユーザAの言語は、例えば、日本語である。また、ユーザBの言語は、例えば、英語である。
そして、第一端末装置11は、図15に示す音声翻訳制御情報を保持している、とする。さらに、第二端末装置12は、図16に示す音声翻訳制御情報を保持している、とする。音声翻訳制御情報は、ユーザが発声する言語である原言語の情報(ここでは<原言語>の情報)、対話の相手が発声する言語である目的言語の情報(ここでは<目的言語>の情報)、音声認識サーバ装置14と通信するための情報(ここでは<音声認識サーバ>の情報)、翻訳サーバ装置15と通信するための情報(ここでは<翻訳サーバ>の情報)、音声合成サーバ装置16と通信するための情報(ここでは<音声合成サーバ>の情報)、第二端末装置12または第一端末装置11の識別子(ここでは<相手端末>の情報)、および第一端末装置11または第二端末装置12の識別子(ここでは<自端末>の情報)などを有する。なお、<音声認識サーバ>、<翻訳サーバ>、<音声合成サーバ>の各情報は、ここでは、各装置のIPアドレスであるが、URLや電話番号など、他の情報でも良いことは言うまでもない。また、<相手端末>、<自端末>の各情報は、ここでは、電話番号であるが、IPアドレスやMACアドレスなど他の情報でも良いことは言うまでもない。
そして、会話中において、ユーザAが第一端末装置11に対して「大阪」と発声した、とする。
次に、第一端末装置11は、「大阪」の音声情報を構成する。そして、第一端末装置11は、図15に示す音声翻訳制御情報を読み出し、「<音声認識サーバ>186.221.1.27」で特定される音声認識サーバ装置14に、「大阪」の音声情報と、図15に示す音声翻訳制御情報を送信する。
次に、音声認識サーバ装置14は、「大阪」の音声情報と、図15に示す音声翻訳制御情報を受信する。
次に、音声認識サーバ装置14の音声認識手段1453は、図15に示す音声翻訳制御情報の「<原言語>日本語」を取得する。そして、音声認識手段1453は、日本語の音響モデル(図12参照)を用いて、受信された「大阪」の音声情報に対して、音声認識処理を行い、音声認識結果(文字列「大阪」を有する)を得る。
次に、音声認識判断手段1451は、音声認識結果が有する尤度が予め決められた閾値以上であるか否か(音声認識が成功であるか否か)を判断する。ここで、音声認識が成功であった、とする。
次に、音声認識結果送信部146は、取得された音声認識結果を、図15に示す音声翻訳制御情報が有する「<翻訳サーバ>225.68.21.129」で示される翻訳サーバ装置15に送信する。また、音声認識結果送信部146は、図15に示す音声翻訳制御情報も、「<翻訳サーバ>225.68.21.129」で示される翻訳サーバ装置15に送信する。
次に、翻訳サーバ装置15の音声認識結果受信部154は、音声認識結果(「大阪」を有する)および音声翻訳制御情報を受信する。
次に、翻訳手段1553は、音声翻訳制御情報が有する「<原言語>日本語」および「<目的言語>英語」を読み出す。
そして、翻訳手段1553は、音声認識結果(「大阪」を有する)を日本語であると判断し、用語「大阪」と対になる「<目的言語>英語」の用語「Osaka」を、図13の翻訳辞書から読み出す。そして、翻訳手段1553は、翻訳結果「Osaka」を得る。
次に、翻訳判断手段1551は、「<目的言語>英語」に対応する用語を翻訳辞書から検索できたので、翻訳結果が成功であると判断する。
次に、翻訳結果送信部156は、取得された翻訳結果「Osaka」と図15に示す音声翻訳制御情報とを、「<音声合成サーバ>56.72.128.202」で示される音声合成サーバ装置16に送信する。
次に、音声合成サーバ装置16の翻訳結果受信部164は、翻訳結果「Osaka」と図15に示す音声翻訳制御情報とを受信する。
そして、音声合成手段1653は、音声翻訳制御情報から「<目的言語>英語」を読み出す。
次に、音声合成手段1653は、用語「Osaka」、および「<目的言語>英語」に対応する音声合成情報(読みおよびアクセントなど)を、図14の音声合成辞書から読み出す。
次に、音声合成手段1653は、読み出した音声合成情報を用いて、音声合成処理を行い、音声合成結果を得る。
次に、音声合成判断手段1651は、音声合成結果の尤度が予め決められた閾値以上であるので、音声合成の結果が成功であると判断する、とする。
次に、音声合成結果送信部166は、取得された音声合成結果とを、「<相手端末>090−1445−1122」で特定される第二端末装置12に送信する。
次に、第二端末装置12の第二音声受信部123は、ユーザAから発声された日本語の音声「大阪」を音声翻訳して得られた英語の音声(「Osaka」の音声)を受信する。
そして、第二音声出力部124は、第二音声受信部123が受信した音声(「Osaka」の音声)を出力する。
以上の処理により、音声翻訳が実現する。また、ユーザBが発声した音声がユーザAに、翻訳されて届くためには、図16の音声翻訳制御情報を利用する。また、音声翻訳の手順は、上記と同様である。
また、音声認識、翻訳、音声合成の各処理段階で、各処理が失敗した場合、音声認識サーバ装置14、翻訳サーバ装置15、または音声合成サーバ装置16は、リアルタイムに、辞書サーバ装置13に問い合わせ、必要な情報を送信してもらう。そして、音声認識サーバ装置14、翻訳サーバ装置15、または音声合成サーバ装置16は、各処理に必要な情報を辞書サーバ装置13から受信した後、音声認識、翻訳、または音声合成の処理を進めることは上述した通りである。
さらに、辞書サーバ装置13の表記取得部135は、ウェブ上のクロールを開始するタイミングであると判断した、とする。
そして、表記取得部135は、ウェブ上をクロールし、例えば、用語「名古屋」の表記「名古屋」を取得した、とする。そして、表記取得部135は、取得した用語の表記「名古屋」をキーとして、全言語対辞書を検索する。そして、表記取得部135は、検索の結果、取得した用語の表記「名古屋」が、全言語対辞書に存在しないと判断した、とする。
次に、表記蓄積部136は、全言語対辞書に存在しないと判断された用語の表記「名古屋」を、全言語対辞書に蓄積する。そして、全言語対辞書は、例えば、図17のようになる。図17において、用語「名古屋」について、表記のみ存在し、読みや音響モデルが存在していない状況です。
かかる状況において、第三端末装置17の入力受付部171は、ユーザから全言語対辞書の出力指示を受け付けた、とする。
次に、入力情報送信部174は、入力受付部171が受け付けた出力指示を、辞書サーバ装置13に送信する。
次に、辞書サーバ装置13は、出力指示を受信する。そして、出力部139は、出力指示に対応する情報を全言語対辞書から検索し、検索により取得した情報を、指示を送信してきた装置(通常、第三端末装置17)に送信する。
次に、そして、出力指示の送信に対応して、第三端末装置17の情報受信部172は、辞書サーバ装置13から、全言語対辞書の一部を受信する。
次に、次に、情報出力部173は、情報受信部172が受信した全言語対辞書の一部を出力する。かかる出力例は、図18である。図18において、2以上のすべての言語について、予め決められたすべての情報が存在する場合(用語「大阪」)と、予め決められたすべての情報のうちの一部の情報が存在しない場合(用語「名古屋」)とにより、視覚的に異なる態様で情報を出力している。図18において、空のデータ領域(セル)は、網掛けになっている。これは、不足している情報の入力を、第三端末装置17のユーザに促すためである。
そして、ユーザは、例えば、用語「名古屋」の読み「なごや」や日本語の音響モデルや、韓国語の表記や読み等、英語の表記や読み等を入力する。次に、入力受付部171は、ユーザからの入力を受け付ける。
次に、第三端末装置17の入力情報送信部174は、入力受付部171が受け付けた情報を、辞書サーバ装置13に送信する。
次に、辞書サーバ装置13の情報受付部137は、第三端末装置17から、用語情報のうちのいくつかの情報(用語「名古屋」の読み「なごや」や日本語の音響モデルや、韓国語の表記や読み等、英語の表記や読み等)を受け付ける。
そして、情報蓄積部138は、情報受付部137が受け付けた情報を、対応する言語の対応する用語の表記に対応付けて蓄積する。
以上の処理により、辞書サーバ装置13の全言語対辞書は充実していく。
以上、本実施の形態によれば、音声翻訳において使用する音声認識辞書、翻訳辞書、および音声合成辞書において、ある辞書に存在する用語の情報が他の辞書には存在しない等という辞書の間の不整合を回避できる。その結果、音声翻訳が正常に行われるようになる。
また、本実施の形態によれば、音声認識、翻訳、音声合成の各処理段階で、各処理が失敗する場合、音声認識サーバ装置14、翻訳サーバ装置15、または音声合成サーバ装置16は、リアルタイムに、辞書サーバ装置13に問い合わせ、必要な情報を送信してもらえる。その結果、極めて高い確率で、音声翻訳が行われる。
さらに、本実施の形態によれば、ウェブ上をクロールしたり、ユーザからの情報の入力を受け付けたりすることにより、辞書サーバ装置13の全言語対辞書を充実させることができるようになる。このため、新出の用語などを含む、種々の用語に対して、音声翻訳が可能となり得る。
なお、本実施の形態において、主として、音声認識部145は、音声認識判断手段1451、音声認識情報送信指示手段1452、音声認識手段1453を具備するものとして説明した。ただし、音声認識部145は、音声認識判断手段1451、および音声認識情報送信指示手段1452を具備しなくても良い。かかる場合、音声認識部145は、音声認識処理を失敗しない、という前提である。また、本実施の形態において、主として、翻訳部155は、翻訳判断手段1551、翻訳情報送信指示手段1552、翻訳手段1553を具備するものとして説明した。ただし、翻訳部155は、翻訳判断手段1551、および翻訳情報送信指示手段1552を具備しなくても良い。かかる場合、翻訳部155は、翻訳処理を失敗しない、という前提である。さらに、音声合成部165は、音声合成判断手段1651、音声合成情報送信指示手段1652、音声合成手段1653を具備するものとして説明した。ただし、音声合成部165は、音声合成判断手段1651、および音声合成情報送信指示手段1652を具備しなくても良い。かかる場合、音声合成部165は、音声合成処理を失敗しない、という前提である。かかる場合、本実施の形態における音声翻訳システム1は、辞書サーバ装置と、1以上の音声認識サーバ装置、1以上の翻訳サーバ装置、1以上の音声合成サーバ装置とを有する音声翻訳システムであって、前記辞書サーバ装置は、2以上の言語の各言語について、1以上の単語を有する用語の表記と、用語を音声認識するための情報である音声認識情報と、用語を音声合成するための情報である音声合成情報とを有する用語情報を、前記2以上の言語のすべてについて対応付けて有する全言語用語情報を、2以上格納し得る全言語対辞書格納部と、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声認識情報を含む音声認識用情報を、前記全言語対辞書格納部から取得し、前記1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の表記を含む翻訳用情報を、前記全言語対辞書格納部から取得し、前記1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声合成情報を含む音声合成用情報を、前記全言語対辞書格納部から取得し、前記1以上の音声合成サーバ装置に送信する音声合成用情報送信部とを具備し、前記音声認識サーバ装置は、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声認識用情報を格納し得る音声認識用情報格納部と、前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信する音声認識用情報受信部と、前記音声認識用情報受信部が受信した音声認識用情報を前記音声認識用情報格納部に蓄積する音声認識用情報蓄積部と、第一端末装置に入力された音声の情報である音声情報を受信する音声情報受信部と、前記音声情報受信部が受信した音声情報を、前記音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得する音声認識部と、前記音声認識結果を送信する音声認識結果送信部とを具備し、前記翻訳サーバ装置は、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を格納し得る翻訳用情報格納部と、前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音翻訳用情報を受信する翻訳用情報受信部と、前記翻訳用情報受信部が受信した翻訳用情報を前記翻訳用情報格納部に蓄積する翻訳用情報蓄積部と、前記音声認識結果を受信する音声認識結果受信部と、前記音声認識結果受信部が受信した音声認識結果を、前記翻訳用情報格納部の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する翻訳部と、前記翻訳結果を送信する翻訳結果送信部とを具備し、前記音声合成サーバ装置は、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を格納し得る音声合成用情報格納部と、前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を受信する音声合成用情報受信部と、前記音声合成用情報受信部が受信した音声合成用情報を前記音声合成用情報格納部に蓄積する音声合成用情報蓄積部と、前記翻訳結果を受信する翻訳結果受信部と、前記翻訳結果受信部が受信した翻訳結果を、前記音声合成用情報格納部の音声合成用情報を用いて音声合成し、音声合成結果を取得する音声合成部と、前記音声合成結果を第二端末装置に送信する音声合成結果送信部とを具備する音声翻訳システム、である。
また、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における辞書サーバ装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、2以上の言語の各言語について、1以上の単語を有する用語の表記と、用語を音声認識するための情報である音声認識情報と、用語を音声合成するための情報である音声合成情報とを有する用語情報を、前記2以上の言語のすべてについて対応付けて有する全言語用語情報を、2以上格納しており、コンピュータを、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声認識情報を含む音声認識用情報を、前記記憶媒体から取得し、前記1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の表記を含む翻訳用情報を、前記記憶媒体から取得し、前記1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声合成情報を含む音声合成用情報を、前記記憶媒体から取得し、前記1以上の音声合成サーバ装置に送信する音声合成用情報送信部として機能させるためのプログラム、である。
また、上記プログラムにおいて、コンピュータを、インターネット上の1以上のウェブサーバ装置のウェブページから、前記記憶媒体に存在しない用語の表記を取得する表記取得部と、前記表記取得部が取得した用語の表記を、前記記憶媒体に蓄積する表記蓄積部としてさらに機能させるためのプログラムであることは好適である。
また、上記プログラムにおいて、コンピュータを、1以上の第三端末装置から、用語情報のうちのいずれかの情報を受け付ける情報受付部と、前記情報受付部が受け付けた情報を、対応する言語の対応する用語の表記に対応付けて、前記記憶媒体に蓄積する情報蓄積部としてさらに機能させるためのプログラムであることは好適である。
また、上記プログラムにおいて、コンピュータを、前記全言語用語情報または前記全言語用語情報の一部の情報を出力する出力部をさらに機能させ、前記出力部は、前記全言語用語情報または前記全言語用語情報の一部の情報を出力する場合に、前記2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、前記全言語用語情報または前記全言語用語情報の一部の情報を出力するものとして機能させるためのプログラムであることは好適である。
また、本実施の形態における音声認識サーバ装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声認識用情報を格納しており、コンピュータを、辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信する音声認識用情報受信部と、前記音声認識用情報受信部が受信した音声認識用情報を前記記憶媒体に蓄積する音声認識用情報蓄積部と、第一端末装置に入力された音声の情報である音声情報を受信する音声情報受信部と、前記音声情報受信部が受信した音声情報を、前記記憶媒体の音声認識用情報を用いて音声認識し、音声認識結果を取得する音声認識部と、前記音声認識結果を送信する音声認識結果送信部として機能させるためのプログラムである。
また、上記プログラムにおいて、前記音声認識部は、前記音声情報受信部が受信した音声情報に対する音声認識処理が成功であるか失敗であるかを判断する音声認識判断手段と、前記音声認識判断手段が、前記音声認識処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、音声認識情報を送信する指示を行う音声認識情報送信指示手段と、
前記音声情報受信部が受信した音声情報を、前記記憶媒体の音声認識用情報を用いて音声認識し、音声認識結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記音声認識用情報受信部が受信した音声認識情報を用いて音声認識し、音声認識結果を取得する音声認識手段とを具備し、前記音声認識用情報受信部は、前記指示の送信に対応して、前記辞書サーバ装置から前記音声認識情報を受信するものとして機能させるためのプログラムであることは好適である。
また、本実施の形態における翻訳サーバ装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を格納しており、コンピュータを、辞書サーバ装置から、2以上の言語のうちのすべての言語または2以上の一部の言語について、音翻訳用情報を受信する翻訳用情報受信部と、前記翻訳用情報受信部が受信した翻訳用情報を前記記憶媒体に蓄積する翻訳用情報蓄積部と、前記音声認識結果を受信する音声認識結果受信部と、前記音声認識結果受信部が受信した音声認識結果を、前記記憶媒体の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する翻訳部と、前記翻訳結果を送信する翻訳結果送信部として機能させるためのプログラムである。
また、上記プログラムにおいて、前記翻訳部は、前記音声認識結果受信部が受信した音声認識結果に対する翻訳処理が成功であるか失敗であるかを判断する翻訳判断手段と、前記翻訳判断手段が、前記翻訳処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、前記目的言語の用語の表記を送信する指示を行う翻訳情報送信指示手段と、前記音声認識結果受信部が受信した音声認識結果を、前記記憶媒体の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記翻訳用情報受信部が受信した目的言語の用語の表記を用いて、前記音声認識結果を目的言語に翻訳し、翻訳結果を取得する翻訳手段とを具備し、前記翻訳用情報受信部は、前記指示の送信に対応して、前記辞書サーバ装置から前記目的言語の用語の表記を受信するものとして機能させるためのプログラムであることは好適である。
本実施の形態における音声合成サーバ装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を格納しており、コンピュータを、辞書サーバ装置から、2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を受信する音声合成用情報受信部と、前記音声合成用情報受信部が受信した音声合成用情報を前記記憶媒体に蓄積する音声合成用情報蓄積部と、前記翻訳結果を受信する翻訳結果受信部と、前記翻訳結果受信部が受信した翻訳結果を、前記記憶媒体の音声合成用情報を用いて音声合成し、音声合成結果を取得する音声合成部と、
前記音声合成結果を第二端末装置に送信する音声合成結果送信部として機能させるためのプログラムである。
また、上記プログラムにおいて、前記音声合成部は、前記翻訳結果受信部が受信した翻訳結果に対する音声合成処理が成功であるか失敗であるかを判断する音声合成判断手段と、前記音声合成判断手段が、前記音声合成処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、音声合成情報を送信する指示を行う音声合成情報送信指示手段と、前記翻訳結果受信部が受信した翻訳結果を、前記記憶媒体の音声合成用情報を用いて音声合成し、音声合成結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記音声合成用情報受信部が受信した音声合成情報を用いて前記翻訳結果を音声合成し、音声合成結果を取得する音声合成手段とを具備し、前記音声合成用情報受信部は、前記指示の送信に対応して、前記辞書サーバ装置から前記音声合成情報を受信するものとして機能させるためのプログラムであることは好適である。
また、図19は、本明細書で述べたプログラムを実行して、上述した実施の形態の音声翻訳システム等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図19は、このコンピュータシステム340の概観図であり、図20は、コンピュータシステム340のブロック図である。
図19において、コンピュータシステム340は、FDドライブ、CD−ROMドライブを含むコンピュータ341と、キーボード342と、マウス343と、モニタ344とを含む。
図20において、コンピュータ341は、FDドライブ3411、CD−ROMドライブ3412に加えて、MPU3413と、CD−ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM3415とに接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
コンピュータシステム340に、上述した実施の形態の音声認識等の機能を実行させるプログラムは、CD−ROM3501、またはFD3502に記憶されて、CD−ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD−ROM3501、FD3502またはネットワークから直接、ロードされても良い。
プログラムは、コンピュータ341に、上述した実施の形態の音声認識等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。
なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、上記各実施の形態において、一の装置に存在する2以上の通信手段(音声情報受信部、音声認識用情報受信部など)は、物理的に一の媒体で実現されても良いことは言うまでもない。
また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
以上のように、本発明にかかる音声翻訳システムは、音声翻訳において使用する辞書の間の不整合をなくすことができる、という効果を有し、音声翻訳システム等として有用である。
1 音声翻訳システム
11 第一端末装置
12 第二端末装置
13 辞書サーバ装置
14 音声認識サーバ装置
15 翻訳サーバ装置
16 音声合成サーバ装置
17 第三端末装置
111 第一音声受付部
112 第一音声送信部
113 第一音声受信部
114 第一音声出力部
121 第二音声受付部
122 第二音声送信部
123 第二音声受信部
124 第二音声出力部
131 全言語対辞書格納部
132 音声認識用情報送信部
133 翻訳用情報送信部
134 音声合成用情報送信部
135 表記取得部
136 表記蓄積部
137 情報受付部
138 情報蓄積部
139 出力部
141 音声認識用情報格納部
142 音声認識用情報受信部
143 音声認識用情報蓄積部
144 音声情報受信部
145 音声認識部
146 音声認識結果送信部
151 翻訳用情報格納部
152 翻訳用情報受信部
153 翻訳用情報蓄積部
154 音声認識結果受信部
155 翻訳部
156 翻訳結果送信部
161 音声合成用情報格納部
162 音声合成用情報受信部
163 音声合成用情報蓄積部
164 翻訳結果受信部
165 音声合成部
166 音声合成結果送信部
171 入力受付部
172 情報受信部
173 情報出力部
174 入力情報送信部
1451 音声認識判断手段
1452 音声認識情報送信指示手段
1453 音声認識手段
1551 翻訳判断手段
1552 翻訳情報送信指示手段
1553 翻訳手段
1651 音声合成判断手段
1652 音声合成情報送信指示手段
1653 音声合成手段

Claims (12)

  1. 辞書サーバ装置と、1以上の音声認識サーバ装置、1以上の翻訳サーバ装置、1以上の音声合成サーバ装置とを有する音声翻訳システムであって、
    前記辞書サーバ装置は、
    2以上の言語の各言語について、1以上の単語を有する用語の表記と、用語を音声認識するための情報である音声認識情報と、用語を音声合成するための情報である音声合成情報とを有する用語情報を、前記2以上の言語のすべてについて対応付けて有する全言語用語情報を、2以上格納し得る全言語対辞書格納部と、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声認識情報を含む音声認識用情報を、前記全言語対辞書格納部から取得し、前記1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の表記を含む翻訳用情報を、前記全言語対辞書格納部から取得し、前記1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声合成情報を含む音声合成用情報を、前記全言語対辞書格納部から取得し、前記1以上の音声合成サーバ装置に送信する音声合成用情報送信部とを具備し、
    前記音声認識サーバ装置は、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声認識用情報を格納し得る音声認識用情報格納部と、
    前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語についての音声認識用情報を受信する音声認識用情報受信部と、
    前記音声認識用情報受信部が受信した音声認識用情報を前記音声認識用情報格納部に蓄積する音声認識用情報蓄積部と、
    第一端末装置に入力された音声の情報である音声情報を受信する音声情報受信部と、
    前記音声情報受信部が受信した音声情報を、前記音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得する音声認識部と、
    前記音声認識結果を送信する音声認識結果送信部とを具備し、
    前記翻訳サーバ装置は、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、翻訳用情報を格納し得る翻訳用情報格納部と、
    前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音翻訳用情報を受信する翻訳用情報受信部と、
    前記翻訳用情報受信部が受信した翻訳用情報を前記翻訳用情報格納部に蓄積する翻訳用情報蓄積部と、
    前記音声認識結果を受信する音声認識結果受信部と、
    前記音声認識結果受信部が受信した音声認識結果を、前記翻訳用情報格納部の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得する翻訳部と、
    前記翻訳結果を送信する翻訳結果送信部とを具備し、
    前記音声合成サーバ装置は、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を格納し得る音声合成用情報格納部と、
    前記辞書サーバ装置から、前記2以上の言語のうちのすべての言語または2以上の一部の言語について、音声合成用情報を受信する音声合成用情報受信部と、
    前記音声合成用情報受信部が受信した音声合成用情報を前記音声合成用情報格納部に蓄積する音声合成用情報蓄積部と、
    前記翻訳結果を受信する翻訳結果受信部と、
    前記翻訳結果受信部が受信した翻訳結果を、前記音声合成用情報格納部の音声合成用情報を用いて音声合成し、音声合成結果を取得する音声合成部と、
    前記音声合成結果を第二端末装置に送信する音声合成結果送信部とを具備する音声翻訳システム。
  2. 前記音声認識サーバ装置の前記音声認識部は、
    前記音声情報受信部が受信した音声情報に対する音声認識処理が成功であるか失敗であるかを判断する音声認識判断手段と、
    前記音声認識判断手段が、前記音声認識処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、音声認識情報を送信する指示を行う音声認識情報送信指示手段と、
    前記音声情報受信部が受信した音声情報を、前記音声認識用情報格納部の音声認識用情報を用いて音声認識し、音声認識結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記音声認識用情報受信部が受信した音声認識情報を用いて音声認識し、音声認識結果を取得する音声認識手段とを具備し、
    前記音声認識用情報受信部は、
    前記指示の送信に対応して、前記辞書サーバ装置から前記音声認識情報を受信する請求項1記載の音声翻訳システム。
  3. 前記翻訳サーバ装置の前記翻訳部は、
    前記音声認識結果受信部が受信した音声認識結果に対する翻訳処理が成功であるか失敗であるかを判断する翻訳判断手段と、
    前記翻訳判断手段が、前記翻訳処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、前記目的言語の用語の表記を送信する指示を行う翻訳情報送信指示手段と、
    前記音声認識結果受信部が受信した音声認識結果を、前記翻訳用情報格納部の翻訳用情報を用いて、目的言語に翻訳し、翻訳結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記翻訳用情報受信部が受信した目的言語の用語の表記を用いて、前記音声認識結果を目的言語に翻訳し、翻訳結果を取得する翻訳手段とを具備し、
    前記翻訳用情報受信部は、
    前記指示の送信に対応して、前記辞書サーバ装置から前記目的言語の用語の表記を受信する請求項1記載の音声翻訳システム。
  4. 前記音声合成サーバ装置の前記音声合成部は、
    前記翻訳結果受信部が受信した翻訳結果に対する音声合成処理が成功であるか失敗であるかを判断する音声合成判断手段と、
    前記音声合成判断手段が、前記音声合成処理が失敗であると判断した場合に、前記辞書サーバ装置に対して、音声合成情報を送信する指示を行う音声合成情報送信指示手段と、
    前記翻訳結果受信部が受信した翻訳結果を、前記音声合成用情報格納部の音声合成用情報を用いて音声合成し、音声合成結果を取得し、かつ、前記指示の送信に対応して、前記辞書サーバ装置から前記音声合成用情報受信部が受信した音声合成情報を用いて前記翻訳結果を音声合成し、音声合成結果を取得する音声合成手段とを具備し、
    前記音声合成用情報受信部は、
    前記指示の送信に対応して、前記辞書サーバ装置から前記音声合成情報を受信する請求項1記載の音声翻訳システム。
  5. 前記辞書サーバ装置は、
    インターネット上の1以上のウェブサーバ装置のウェブページから、前記全言語対辞書格納部に存在しない用語の表記を取得する表記取得部と、
    前記表記取得部が取得した用語の表記を、前記全言語対辞書格納部に蓄積する表記蓄積部とをさらに具備する請求項1から請求項4いずれか記載の音声翻訳システム。
  6. 前記辞書サーバ装置は、
    1以上の第三端末装置から、用語情報のうちのいずれかの情報を受け付ける情報受付部と、
    前記情報受付部が受け付けた情報を、対応する言語の対応する用語の表記に対応付けて、前記全言語対辞書格納部に蓄積する情報蓄積部とをさらに具備する請求項5記載の音声翻訳システム。
  7. 前記辞書サーバ装置は、
    前記全言語用語情報または前記全言語用語情報の一部の情報を出力する出力部をさらに具備し、
    前記出力部は、
    前記全言語用語情報または前記全言語用語情報の一部の情報を出力する場合に、前記2以上のすべての言語について、予め決められたすべての情報が存在する場合と、予め決められたすべての情報のうちの一部の情報が存在しない場合とにより、視覚的に異なる態様で、前記全言語用語情報または前記全言語用語情報の一部の情報を出力する請求項5または請求項6記載の音声翻訳システム。
  8. 請求項1から請求項7いずれか記載の音声翻訳システムを構成する辞書サーバ装置。
  9. 請求項1から請求項7いずれか記載の音声翻訳システムを構成する音声認識サーバ装置。
  10. 請求項1から請求項7いずれか記載の音声翻訳システムを構成する翻訳サーバ装置。
  11. 請求項1から請求項7いずれか記載の音声翻訳システムを構成する音声合成サーバ装置。
  12. 記憶媒体に、
    2以上の言語の各言語について、1以上の単語を有する用語の表記と、用語を音声認識するための情報である音声認識情報と、用語を音声合成するための情報である音声合成情報とを有する用語情報を、前記2以上の言語のすべてについて対応付けて有する全言語用語情報を、2以上格納しており、
    コンピュータを、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声認識情報を含む音声認識用情報を、前記記憶媒体から取得し、前記1以上の音声認識サーバ装置に送信する音声認識用情報送信部と、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の表記を含む翻訳用情報を、前記記憶媒体から取得し、前記1以上の翻訳サーバ装置に送信する翻訳用情報送信部と、
    前記2以上の言語のうちのすべての言語または2以上の一部の言語について、前記用語の音声合成情報を含む音声合成用情報を、前記記憶媒体から取得し、前記1以上の音声合成サーバ装置に送信する音声合成用情報送信部として機能させるためのプログラム。
JP2009167501A 2009-07-16 2009-07-16 音声翻訳システム、辞書サーバ装置、およびプログラム Expired - Fee Related JP5471106B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009167501A JP5471106B2 (ja) 2009-07-16 2009-07-16 音声翻訳システム、辞書サーバ装置、およびプログラム
EP10799657.1A EP2455936B1 (en) 2009-07-16 2010-03-03 Speech translation system, dictionary server, and program
KR1020127001119A KR101626887B1 (ko) 2009-07-16 2010-03-03 음성번역시스템, 사전서버장치, 및 프로그램
PCT/JP2010/053418 WO2011007595A1 (ja) 2009-07-16 2010-03-03 音声翻訳システム、辞書サーバ装置、およびプログラム
CN2010800312696A CN102473413B (zh) 2009-07-16 2010-03-03 语音翻译系统、词典服务器装置及语音翻译方法
US13/383,742 US9442920B2 (en) 2009-07-16 2010-03-03 Speech translation system, dictionary server, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009167501A JP5471106B2 (ja) 2009-07-16 2009-07-16 音声翻訳システム、辞書サーバ装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2011022813A true JP2011022813A (ja) 2011-02-03
JP5471106B2 JP5471106B2 (ja) 2014-04-16

Family

ID=43449205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009167501A Expired - Fee Related JP5471106B2 (ja) 2009-07-16 2009-07-16 音声翻訳システム、辞書サーバ装置、およびプログラム

Country Status (6)

Country Link
US (1) US9442920B2 (ja)
EP (1) EP2455936B1 (ja)
JP (1) JP5471106B2 (ja)
KR (1) KR101626887B1 (ja)
CN (1) CN102473413B (ja)
WO (1) WO2011007595A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177782A (ja) * 2015-03-19 2016-10-06 パナソニックIpマネジメント株式会社 ウェアラブル装置及び翻訳システム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102706343A (zh) * 2012-06-01 2012-10-03 陈耀伦 一种基于互联网语音导航的方法、装置和系统
KR101834546B1 (ko) 2013-08-28 2018-04-13 한국전자통신연구원 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법
CN103533129B (zh) * 2013-10-23 2017-06-23 上海斐讯数据通信技术有限公司 实时的语音翻译通信方法、系统及所适用的通讯设备
KR101740332B1 (ko) * 2013-11-05 2017-06-08 한국전자통신연구원 자동 번역 장치 및 방법
JP2016133861A (ja) * 2015-01-16 2016-07-25 株式会社ぐるなび 情報多言語変換システム
JP7000671B2 (ja) 2016-10-05 2022-01-19 株式会社リコー 情報処理システム、情報処理装置、及び情報処理方法
KR102384641B1 (ko) * 2017-02-20 2022-04-08 엘지전자 주식회사 다국어 처리를 수행하는 인공 지능 시스템의 제어 방법
CN106998359A (zh) * 2017-03-24 2017-08-01 百度在线网络技术(北京)有限公司 基于人工智能的语音识别服务的网络接入方法以及装置
US10826857B2 (en) * 2017-10-20 2020-11-03 Sap Se Message processing for cloud computing applications
EP3559946B1 (en) * 2018-03-07 2020-09-23 Google LLC Facilitating end-to-end communications with automated assistants in multiple languages
US11403462B2 (en) * 2019-09-12 2022-08-02 Oracle International Corporation Streamlining dialog processing using integrated shared resources
CN111274828B (zh) * 2020-01-21 2021-02-02 陈刚 基于留言的语言翻译方法、系统、计算机程序和手持终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328179A (ja) * 1998-05-08 1999-11-30 Toshiba Corp 辞書管理方法及び辞書管理システム
JP2003295893A (ja) * 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005055607A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp サーバ、情報処理端末、音声合成システム
JP2005202884A (ja) * 2004-01-19 2005-07-28 Toshiba Corp 送信装置、受信装置、中継装置、および送受信システム
JP2006099296A (ja) * 2004-09-29 2006-04-13 Nec Corp 翻訳システム、翻訳通信システム、機械翻訳方法、および、プログラム
WO2008114708A1 (ja) * 2007-03-14 2008-09-25 Nec Corporation 音声認識システム、音声認識方法、および音声認識処理プログラム
JP2009139862A (ja) * 2007-12-10 2009-06-25 Fujitsu Ltd 音声認識装置及びコンピュータプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488875A (en) 1987-09-30 1989-04-03 Toshiba Corp Voice translation device
JP2667408B2 (ja) * 1987-10-08 1997-10-27 株式会社東芝 翻訳通信システム
GB2303955B (en) * 1996-09-24 1997-05-14 Allvoice Computing Plc Data processing method and apparatus
JP3466857B2 (ja) * 1997-03-06 2003-11-17 株式会社東芝 辞書更新方法および辞書更新システム
CN1652107A (zh) * 1998-06-04 2005-08-10 松下电器产业株式会社 语言变换规则产生装置、语言变换装置及程序记录媒体
US6138099A (en) * 1998-10-19 2000-10-24 International Business Machines Corp. Automatically updating language models
US6219638B1 (en) * 1998-11-03 2001-04-17 International Business Machines Corporation Telephone messaging and editing system
JP2000148176A (ja) * 1998-11-18 2000-05-26 Sony Corp 情報処理装置および方法、提供媒体、音声認識システム、音声合成システム、翻訳装置および方法、並びに翻訳システム
JP2000194698A (ja) 1998-12-25 2000-07-14 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000259632A (ja) * 1999-03-09 2000-09-22 Toshiba Corp 自動通訳システム、通訳プログラム伝送システム、記録媒体および情報伝送媒体
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
AU2001259446A1 (en) * 2000-05-02 2001-11-12 Dragon Systems, Inc. Error correction in speech recognition
JP2002123282A (ja) 2000-10-17 2002-04-26 Brother Ind Ltd 翻訳装置および記録媒体
JP3581648B2 (ja) * 2000-11-27 2004-10-27 キヤノン株式会社 音声認識システム、情報処理装置及びそれらの制御方法、プログラム
JP2002245038A (ja) * 2001-02-21 2002-08-30 Ricoh Co Ltd 携帯端末装置による多国語翻訳システム
US7493259B2 (en) * 2002-01-04 2009-02-17 Siebel Systems, Inc. Method for accessing data via voice
AU2003210803A1 (en) * 2002-02-01 2003-09-02 John Fairweather A system and method for real time interface translation
US7013262B2 (en) * 2002-02-12 2006-03-14 Sunflare Co., Ltd System and method for accurate grammar analysis using a learners' model and part-of-speech tagged (POST) parser
SE0202058D0 (sv) * 2002-07-02 2002-07-02 Ericsson Telefon Ab L M Voice browsing architecture based on adaptive keyword spotting
GB2395029A (en) * 2002-11-06 2004-05-12 Alan Wilkinson Translation of electronically transmitted messages
DE10304229A1 (de) * 2003-01-28 2004-08-05 Deutsche Telekom Ag Kommunikationssystem, Kommunikationsendeinrichtung und Vorrichtung zum Erkennen fehlerbehafteter Text-Nachrichten
WO2006008871A1 (ja) * 2004-07-21 2006-01-26 Matsushita Electric Industrial Co., Ltd. 音声合成装置
US7620549B2 (en) * 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP4047885B2 (ja) * 2005-10-27 2008-02-13 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US8719021B2 (en) * 2006-02-23 2014-05-06 Nec Corporation Speech recognition dictionary compilation assisting system, speech recognition dictionary compilation assisting method and speech recognition dictionary compilation assisting program
US7756708B2 (en) * 2006-04-03 2010-07-13 Google Inc. Automatic language model update
KR100859532B1 (ko) * 2006-11-06 2008-09-24 한국전자통신연구원 대응 문형 패턴 기반 자동통역 방법 및 장치
WO2008067562A2 (en) * 2006-11-30 2008-06-05 Rao Ashwin P Multimodal speech recognition system
JP5121252B2 (ja) * 2007-02-26 2013-01-16 株式会社東芝 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
JP2008243080A (ja) 2007-03-28 2008-10-09 Toshiba Corp 音声を翻訳する装置、方法およびプログラム
US7634383B2 (en) * 2007-07-31 2009-12-15 Northrop Grumman Corporation Prognosis adaptation method
CN101458681A (zh) 2007-12-10 2009-06-17 株式会社东芝 语音翻译方法和语音翻译装置
JP3142002U (ja) 2008-03-17 2008-05-29 隆司 内山 翻訳通話システム
US8326637B2 (en) * 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US9171541B2 (en) * 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328179A (ja) * 1998-05-08 1999-11-30 Toshiba Corp 辞書管理方法及び辞書管理システム
JP2003295893A (ja) * 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005055607A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp サーバ、情報処理端末、音声合成システム
JP2005202884A (ja) * 2004-01-19 2005-07-28 Toshiba Corp 送信装置、受信装置、中継装置、および送受信システム
JP2006099296A (ja) * 2004-09-29 2006-04-13 Nec Corp 翻訳システム、翻訳通信システム、機械翻訳方法、および、プログラム
WO2008114708A1 (ja) * 2007-03-14 2008-09-25 Nec Corporation 音声認識システム、音声認識方法、および音声認識処理プログラム
JP2009139862A (ja) * 2007-12-10 2009-06-25 Fujitsu Ltd 音声認識装置及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177782A (ja) * 2015-03-19 2016-10-06 パナソニックIpマネジメント株式会社 ウェアラブル装置及び翻訳システム

Also Published As

Publication number Publication date
WO2011007595A1 (ja) 2011-01-20
JP5471106B2 (ja) 2014-04-16
US20120166176A1 (en) 2012-06-28
CN102473413B (zh) 2013-08-28
EP2455936B1 (en) 2019-01-16
KR20120040190A (ko) 2012-04-26
CN102473413A (zh) 2012-05-23
US9442920B2 (en) 2016-09-13
EP2455936A1 (en) 2012-05-23
EP2455936A4 (en) 2018-01-10
KR101626887B1 (ko) 2016-06-13

Similar Documents

Publication Publication Date Title
JP5471106B2 (ja) 音声翻訳システム、辞書サーバ装置、およびプログラム
US11437041B1 (en) Speech interface device with caching component
JP5598998B2 (ja) 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
US9761241B2 (en) System and method for providing network coordinated conversational services
EP1125279B1 (en) System and method for providing network coordinated conversational services
KR101683944B1 (ko) 음성번역 시스템, 제어장치, 및 제어방법
WO2018021237A1 (ja) 音声対話装置、音声対話方法、および記録媒体
US6182038B1 (en) Context dependent phoneme networks for encoding speech information
JP5613335B2 (ja) 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置
JP2014106523A (ja) 音声入力対応装置及び音声入力対応プログラム
JP2009122989A (ja) 翻訳装置
AT&T
US20170185587A1 (en) Machine translation method and machine translation system
JP2000259632A (ja) 自動通訳システム、通訳プログラム伝送システム、記録媒体および情報伝送媒体
Fischer et al. Towards multi-modal interfaces for embedded devices
JP2016148943A (ja) 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Ref document number: 5471106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees