JP2008210132A - 原言語による音声を目的言語に翻訳する装置、方法およびプログラム - Google Patents

原言語による音声を目的言語に翻訳する装置、方法およびプログラム Download PDF

Info

Publication number
JP2008210132A
JP2008210132A JP2007045954A JP2007045954A JP2008210132A JP 2008210132 A JP2008210132 A JP 2008210132A JP 2007045954 A JP2007045954 A JP 2007045954A JP 2007045954 A JP2007045954 A JP 2007045954A JP 2008210132 A JP2008210132 A JP 2008210132A
Authority
JP
Japan
Prior art keywords
related information
unit
name
storage unit
source language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007045954A
Other languages
English (en)
Other versions
JP5121252B2 (ja
Inventor
Kazuo Sumita
一男 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007045954A priority Critical patent/JP5121252B2/ja
Priority to US11/896,887 priority patent/US8055495B2/en
Priority to CNA2008100031131A priority patent/CN101256558A/zh
Publication of JP2008210132A publication Critical patent/JP2008210132A/ja
Application granted granted Critical
Publication of JP5121252B2 publication Critical patent/JP5121252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language

Abstract

【課題】翻訳精度を向上させる音声翻訳装置を提供する。
【解決手段】関連情報の名称と関連情報の表示位置とを対応づけて記憶する関連情報記憶部121と、語句の意味属性を表す意味クラスと原言語の用例と目的言語の用例とを対応づけて記憶する用例記憶部122と、関連情報の名称と意味クラスとを対応づけて記憶する辞書記憶部123と、音声を受付ける音声受付部101と、関連情報の選択を受付ける選択受付部102と、受付けた関連情報の表示位置に対応する関連情報の名称を関連情報記憶部121から取得し、取得した関連情報の名称に対応する意味クラスを辞書記憶部122から取得する取得部104と、受付けた音声を認識する認識部103と、取得した意味クラスと認識部の認識結果とに対応する目的言語の用例を用例記憶部122から取得することにより認識結果を翻訳する翻訳部105とを備えた。
【選択図】 図1

Description

この発明は、入力された音声を翻訳して音声合成して出力することにより、異なる言語を母語とする人同士が音声によりコミュニケーションを行うことを支援する装置、方法およびプログラムに関するものである。
近年、異なる言語を母語とする人同士のコミュニケーションを支援する音声翻訳装置の実用化に対する期待が高まっている。このような音声翻訳装置は、基本的には、音声を認識する手段、音声認識の結果得られた文字列を翻訳する手段、翻訳の結果得られた文字列を音声で合成する手段を用い、音声認識処理、翻訳処理、音声合成処理を順次実行することにより構成することができる。
ユーザが発話した音声を認識して文字情報を出力する音声認識システムは、すでにパッケージソフトなどの形態で実用化されている。また、書き言葉(テキスト)を入力とした機械翻訳システムについても、同様にパッケージソフトなどの形態で実用化されている。音声合成システムについても、すでに実用に供せられており、これらのソフトウェアを適宜利用することで、音声翻訳装置を実現することは可能である。
音声翻訳の実現にあたっては、様々な音声認識方式や機械翻訳方式を採用することが考えられるが、いずれの方式を採用するにしても音声認識や機械翻訳の精度向上が課題となっている。
例えば、原言語と目的言語との対訳コーパスを用いて翻訳を行う用例ベース機械翻訳では、すべての文を用例として準備しておくことはできないことや、用例の数を増やすほど入力文に対して検索される文が多数になるため、その中からユーザが適切な文を選択する手間が発生することなどの問題が存在する。
また、音声翻訳装置によるコミュニケーションの内容は多岐にわたるため、それらの内容を正しく音声翻訳するためには、大規模な語彙を対象とした音声認識、機械翻訳、および音声合成が必要となる。普通名詞や動詞、形容詞、副詞などのカテゴリの語については、ある程度その数が限られ、それらの語を音声認識や音声翻訳、音声合成が用いる辞書にあらかじめ登録しておくことは可能である。ところが、地名、人名、料理名、店舗名、または会社名などの固有名詞は、日々発生するものであり、あらかじめすべての固有名詞を辞書に登録しておくことは一般に困難である。
このように辞書に訳語が登録されていないことに起因して、海外旅行などで経験するように、その国や地域における地名や店舗名などの固有名詞について、旅行者自らがその現地の言葉で発話しなければならない状況が生じうる。しかし、発音体系が大きく異なる旅行者の場合、現地の言葉としての発音を正しく行うことは難しく、発音した固有名詞が何を指しているかが、相手に伝わらないことも多い。
この問題の最も単純な解決方法として、旅行ガイド情報や地図情報の表示機能を有する携帯端末を利用し、ユーザがその携帯端末のディスプレイ上に表示された旅行ガイド情報や地図情報の特定部分を指し示すことによって、所望の場所を伝えられるようにすることが考えられる。
しかし、場所や地名を指し示すだけでは、ユーザの意図は十分に伝えることができない。例えば、ある施設を指し示しただけでは、その施設に「行きたい」のか、または「行くには何分かかるか」、「今何の催しをやっているか」、「料金はいくらか」などを確認することを意図しているのかを伝えることができない。
そこで、旅行ガイド情報や地図情報などを表示する表示手段と、提示された情報から地名や施設名等を指示入力する手段と、音声翻訳手段とを組合せ、翻訳したユーザの発話を出力することによりユーザの意図を伝える方法が考えられる。
これに関連する技術として、音声認識手段と地図表示手段を有し、音声認識と同時に地図に対してユーザ行ったポインティング動作を認識し、双方の時間的な関係から、発話された文に含まれる指示詞を具体的な地図の位置情報に置き換えた文の意味構造を出力する技術が提案されている(例えば、特許文献1)。
特開平09−114634号公報
しかしながら、特許文献1の方法によれば、ユーザの指示内容を参照して指示詞を含む意味表現を解析することにより音声認識の精度を上げることができるが、指示内容を利用して機械翻訳の精度を向上させることができないという問題があった。
本発明は、上記に鑑みてなされたものであって、表示した情報に対してユーザが指示した内容を参照して翻訳精度を向上させることができる装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、発話に関連する関連情報の名称と、前記関連情報の表示位置とを対応づけて記憶する関連情報記憶部と、語句の意味属性を表す意味クラスと、前記語句を含む原言語の用例と、前記原言語の用例を翻訳した目的言語の用例とを対応づけて記憶する用例記憶部と、前記関連情報の名称と、前記関連情報の名称の前記意味クラスとを対応づけて記憶する辞書記憶部と、前記関連情報の前記表示位置を前記関連情報記憶部から取得し、取得した前記表示位置に前記関連情報を表示する表示部と、原言語により発話された音声を受付ける音声受付部と、受付けた前記音声を認識して原言語による原言語文字列を生成する認識部と、前記表示部に表示された前記関連情報の選択を受付ける選択受付部と、選択を受付けた前記関連情報の前記表示位置に対応する前記関連情報の名称を前記関連情報記憶部から取得し、取得した前記関連情報の名称に対応する前記意味クラスを前記辞書記憶部から取得する取得部と、取得した前記意味クラスと、前記原言語文字列とに対応する前記目的言語の用例を前記用例記憶部から取得することにより、前記原言語文字列を目的言語に翻訳する翻訳部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法およびプログラムである。
本発明によれば、指示内容によって翻訳結果の候補を探索する範囲を絞り込めるため、機械翻訳の精度を向上させることができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる音声翻訳する装置、方法およびプログラムの最良な実施の形態を詳細に説明する。なお、以下では説明の簡略化のため、主に原言語は日本語、目的言語は中国語として説明するが、言語の種別は日本語と中国語に限られるものではなく、他の言語対に関しても適用できるということはいうまでもない。
(第1の実施の形態)
第1の実施の形態にかかる音声翻訳装置は、ユーザの発話内容に関連する地図や料理名などの関連情報を画面に表示し、表示した関連情報からユーザが指示した関連情報の意味クラスと同一の意味クラスに対応づけられた用例のみを用例の探索範囲とするものである。
図1は、第1の実施の形態にかかる音声翻訳装置100の構成を示すブロック図である。同図に示すように、音声翻訳装置100は、マイク111と、音声入力ボタン112と、ポインティングデバイス113と、操作パネル114と、スピーカ115と、関連情報記憶部121と、用例記憶部122と、辞書記憶部123と、音声受付部101と、選択受付部102と、認識部103と、取得部104と、翻訳部105と、合成部106と、出力制御部107と、を備えている。
マイク111は、ユーザが発話する原言語の音声を入力するものである。音声入力ボタン112は、マイク111からユーザの発話した音声の取り込みを開始するときに押下するボタンである。なお、後述するように、音声入力ボタン112の他の操作ボタンとして、翻訳処理の開始を指示するための翻訳ボタンと、合成音声の出力を指定する音声ボタンとが存在するが、同図では図示を省略する。
ポインティングデバイス113は、後述する操作パネル114に表示されているオブジェクトを指し示すことにより場所や施設、料理などの関連情報を指定するためのデバイスであり、ペンやマウスなどにより構成される。以下では、ポインティングデバイス113としてペンが用いられるものとして説明する。
操作パネル114は、音声翻訳装置100の操作に関する情報を表示する液晶ディスプレイなどの表示部であり、ポインティングデバイス113による操作を受付けることにより表示した情報を指定可能に構成されている。
本実施の形態では、操作パネル114は、地図形式による場所、施設等の表示、およびリスト形式による施設、料理名等の表示を行う。また、操作パネル114は、後述する認識部103が生成した認識結果の候補を選択可能に表示する。
スピーカ115は、後述する合成部106が合成した音声を出力するものである。
関連情報記憶部121は、操作パネル114に表示する地図や料理名リストなどの関連情報を記憶するものである。図2は、関連情報記憶部121に記憶された関連情報のデータ構造の一例を示す説明図である。同図に示すように、関連情報記憶部121には、関連情報の目的言語での名称と、当該関連情報を操作パネル114に表示するときに必要な座標などを表す表示位置とが対応づけられて格納されている。同図では、画面上のX,Y座標により表示位置を指定する例が示されている。
なお、表示位置の指定方法はこれに限られるものではなく、ポインティングデバイス113の指示した操作パネル114の位置から関連情報を特定可能な方法であればあらゆる方法を適用できる。例えば、操作パネル114に地図を表示している場合は、当該地図上での施設等の表示対象の表示位置を関連情報記憶部121に記憶するように構成してもよい。また、関連情報記憶部121に関連情報の原言語での名称も対応づけて格納するように構成してもよい。
用例記憶部122は、翻訳部105が翻訳処理に用いる対訳用例を記憶するものである。図3は、用例記憶部122に記憶された対訳用例のデータ構造の一例を示す説明図である。同図に示すように、対訳用例は、記号「<」と記号「>」とで囲まれたタグを用いたタグ形式で記述されており、タグ「<p pid=“NNN">」とタグ「</p>」とで囲まれた部分が一つの対訳用例を表す。
この対訳用例のそれぞれは、さらにタグ「<j>」とタグ「</j>」とで囲まれた日本語文、タグ「<c>」とタグ「</c>」とで囲まれた中国語文、タグ「<s id=”LLL”>」とタグ「</s>」とで囲まれた意味クラス情報とを含んでいる。なお、「LLL」は数値を表す。
タグ「<a id=”MMM”>」とタグ「</a>」とで囲まれている語は、日本語文と中国語文におけるそれぞれの語を対応付ける数値「MMM」が与えられている。また、タグ「<s id=”LLL”>」とタグ「</s>」とで囲まれた意味クラス情報は、上述の数値「LLL」で対応付けられるタグ「<a id=“LLL">」に対応する語の意味属性を表している。
辞書記憶部123は、原言語の単語と目的言語の単語とを対応づけた辞書情報を格納するものである。図4は、辞書情報のデータ構造の一例を示す説明図である。同図に示すように、辞書情報として、中国語の単語と、日本語の単語と、各単語の意味属性を表す意味クラスとを対応づけて格納している。なお、一方の言語で他方の言語の訳語が存在しない場合は、記号「−」によって対応する訳語が存在しないことを表す。辞書記憶部123は、後述する取得部104が関連情報に対応する意味クラスを取得するときに参照される。
なお、関連情報記憶部121、用例記憶部122、および辞書記憶部123は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
音声受付部101は、マイク111から入力された音声のアナログ信号に対してサンプリングを行い、ステレオのデジタル信号に変換して出力する処理を行うものである。音声受付部101の処理では、従来から用いられているA/D変換技術などを適用することができる。
選択受付部102は、ポインティングデバイス113により操作パネル114上で指示された関連情報または認識結果の候補の選択を受付けるものである。
認識部103は、音声受付部101が出力したデジタル音声信号を入力として、対応する原言語の文字列である認識結果の候補を生成する音声認識処理を行うものである。音声認識処理では、LPC分析、隠れマルコフモデル(HMM:Hidden Markov Model)、ダイナミックプログラミング、ニューラルネットワーク、Nグラム言語モデルなどを用いた、一般的に利用されているあらゆる音声認識方法を適用することができる。
なお、認識部103は、各候補について、候補の確からしさを表す尤度を算出し、算出した尤度が大きい順に所定数の候補を生成して出力する。また、認識部103は、選択受付部102が関連情報を受付けた場合、認識結果に含まれる近接場に関する指示代名詞(これ、ここ、この)を、受付けた関連情報の名称で置換する。指示代名詞の置換処理では、上記特許文献1に記載の技術など、従来から用いられているあらゆる技術を利用することができる。
取得部104は、選択受付部102が受付けた関連情報に対応する意味クラスを辞書記憶部123から取得するものである。
翻訳部105は、認識部103で得られた認識結果を、用例ベース機械翻訳方式により、目的言語の文字列に翻訳するものである。具体的には、翻訳部105は、認識結果と一致または類似する原言語の用例を用例記憶部122から取得し、取得した原言語の用例に対応する目的言語の用例を取得することにより認識結果の翻訳を行う。
このとき、本実施の形態では、翻訳部105は、取得部104が取得した意味クラスと同一の意味クラスが対応づけられた用例の中から、適合する用例を探索する。すなわち、翻訳部105は、用例の探索範囲を、指示された関連情報の意味クラスと一致する意味クラスに対応する用例のみに絞り込む。これにより、翻訳の精度を向上させることができる。
合成部106は、翻訳部105で得られた文字列を音声信号に変換する音声合成処理を行うものである。合成部106により行われる音声合成処理は、音声素片編集音声合成、フォルマント音声合成、音声コーパスベースの音声合成などの一般的に利用されているあらゆる方法を適用することができる。
出力制御部107は、操作パネル114およびスピーカ115に対する各種情報の出力処理を制御するものである。具体的には、出力制御部107は、合成部106が生成した音声信号をDA変換してスピーカ115に出力する処理、生成された認識結果の候補を操作パネル114に出力する処理などを行う。
ここで、本実施の形態による音声翻訳処理の全体の流れを表す具体例について説明する。図5は、本実施の形態による音声翻訳処理の動作イメージを示す説明図である。なお、同図では、括弧内の数字により音声翻訳処理の動作順を表している。
まず、ユーザがペンなどのポインティングデバイス113によって指定した地図201上の場所202の指示が受付けられる(1)。次に、音声入力ボタン112の押下による発話開始指示が受付けられる(2)。そして、音声入力ボタン112が押下された後に、発話されるユーザの音声204が取り込まれる(3)。次に、取り込まれた音声信号に基づいて音声認識を行った結果と、(1)で指示された場所に対応する固有名詞とから、妥当性の高い原言語の文を合成した候補が表示される(4)。そして、表示されている文の候補からユーザが指定した候補205の選択が受付けられる(5)。次に、翻訳ボタン207の押下により、選択された候補205の翻訳指示が受付けられる(6)。その後、翻訳処理が実行され、その翻訳結果208が表示される(7)。また、音声ボタン210の押下により、翻訳結果208を合成した音声209が出力される(8)。
次に、このように構成された第1の実施の形態にかかる音声翻訳装置100による音声翻訳処理について説明する。図6−1、図6−2は、第1の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。
なお、本実施の形態の音声翻訳処理は、関連情報記憶部121に記憶されている地図や料理名リストなどの関連情報が操作パネル114に表示されていることを前提とする。
まず、選択受付部102が、ポインティングデバイス113の入力、すなわち、ペン入力があったか否かを判断する(ステップS601)。ここでのペン入力は、表示されている関連情報(以下、オブジェクトという。)をユーザが指示したことを意味する。
ペン入力があった場合は(ステップS601:YES)、選択受付部102は、ポインティングデバイス113で指示されたオブジェクトの名称を関連情報記憶部121から取得する(ステップS602)。具体的には、選択受付部102は、指示された表示位置に対応するオブジェクトの名称を関連情報記憶部121から取得する。なお、関連情報記憶部121に目的言語の名称のみが格納されているときは、辞書記憶部123を参照して原言語の名称を取得する。ここで取得した原言語の名称を以下ではAとする。
次に、音声受付部101が、音声入力ボタン112が押下されたか否かを判断する(ステップS603)。押下されていない場合は(ステップS603:NO)、押下されるまで処理を繰り返す。押下された場合は(ステップS603:YES)、音声受付部101は、マイク111から音声の入力を受付ける(ステップS604)。
次に、認識部103は、受付けた音声に対する音声認識処理を実行する(ステップS605)。なお、認識部103は、上述のように、音声認識処理により尤度の高い所定数の認識結果の候補を生成する。
次に、認識部103は、認識結果の候補に含まれる指示代名詞を検出し、検出した指示代名詞を、ステップS602で取得されたオブジェクトの名称Aで置換する(ステップS606)。
図7は、認識結果の置換の具体例を示す説明図である。同図は、日本語による原言語音声の認識結果の候補として、「これにどれくらいで行けますか。」を意味する候補701と、「これにどこから行けますか。」を意味する候補702が生成された場合の例を示している。なお、各候補には、それぞれ「これ」を意味する指示代名詞703、704が含まれる。
また、この例では、ユーザが操作パネル114に表示された地図上で、あるオブジェクトを指示し、指示されたオブジェクトの固有名詞として単語705(故宮)が得られたことを前提としている。
この場合、指示代名詞703、704の部分をそれぞれ単語705で置換した候補706、707がそれぞれ生成される。
図6に戻り、取得部104は、指示されたオブジェクトに対応する意味クラスを辞書記憶部123から取得する(ステップS607)。取得した意味クラスは、後述するステップS616の機械翻訳処理で参照される。
次に、ステップS601で、ペン入力がないと判断された場合は(ステップS601:NO)、音声受付部101は、音声入力ボタン112が押下されたか否かを判断する(ステップS607)。押下されていない場合は(ステップS607:NO)、ステップS601に戻って処理を繰り返す。
押下された場合は(ステップS607:YES)、音声受付部101は、マイク111から音声の入力を受付ける(ステップS608)。なお、ステップS607で音声入力ボタン112の押下を検出する場合は、ユーザがオブジェクトを指示せずに(ステップS601:NO)音声入力ボタン112を押下して発話する場合が該当する。
次に、認識部103は、受付けた音声に対する音声認識処理を実行する(ステップS609)。
ステップS606で指示代名詞を置換した後、または、ステップS609で音声認識処理を実行後、出力制御部107は、生成された認識結果の候補(以下、候補文という。)を操作パネル114に表示する(ステップS610)。
次に、選択受付部102は、さらにペン入力があったか否かを判断する(ステップS611)。ここでのペン入力は、表示された候補文からいずれか1つの候補文を選択するための入力を意味する。
ペン入力があった場合は(ステップS611:YES)、選択受付部102は、ポインティングデバイス113で指示された候補文の選択を受付ける(ステップS612)。次に、選択受付部102は、翻訳ボタンが押下されたか否かを判断する(ステップS613)。押下されていない場合は(ステップS613:NO)、選択受付部102は、押下されるまで処理を繰り返す。
ステップS611で、ペン入力がないと判断された場合は(ステップS611:NO)、選択受付部102は、翻訳ボタンが押下されたか否かを判断する(ステップS614)。押下されていない場合は(ステップS614:NO)、選択受付部102は、ステップS611に戻って処理を繰り返す。
ステップS613またはステップS614で翻訳ボタンが押下されたと判断された場合は(ステップS613:YES、ステップS614:YES)、翻訳部105は、用例記憶部122を参照して適合する用例を取得することにより翻訳を行う機械翻訳処理を実行する(ステップS615)。
なお、機械翻訳処理は、ステップS612で選択された候補文、または候補文がユーザにより選択されていないときは、最も尤度の高い候補文など予め定められた規則により選択した候補文を対象として実行される。機械翻訳処理の詳細については後述する。
次に、出力制御部107は、機械翻訳処理の翻訳結果を操作パネル114に表示する(ステップS616)。そして、ユーザが音声ボタンを押下することにより合成音声の出力が指示された場合は、合成部106が翻訳結果を音声合成する(ステップS617)。次に、出力制御部107が、合成した音声をスピーカ115に出力する(ステップS618)。
次に、ステップS615の機械翻訳処理の詳細について説明する。図8は、機械翻訳処理の全体の流れを示すフローチャートである。
まず、翻訳部105は、ポインティングデバイス113(ペン)で指示されたオブジェクトの意味クラスと同一の意味クラスを有する用例を検索対象として定める(ステップS801)。
次に、翻訳部105は、検索対象の用例のうち、候補文と類似する原言語の用例を用例記憶部122から取得し、さらに取得した原言語の用例に対応する目的言語の用例を用例記憶部122から取得する(ステップS802)。
次に、翻訳部105は、候補文と原言語の用例との相違部分を検出する(ステップS803)。続いて、翻訳部105は、取得した目的言語の用例について、相違部分に対応する目的言語の単語(訳語)を辞書記憶部123から取得し、取得した訳語で相違部分を置換する(ステップS804)。
なお、ステップS802からステップS804までの用例検索・相違部分置換処理は、従来から用いられている用例ベース機械翻訳と同様の方法により実行できる。本実施の形態では、用例の探索範囲が、指示されたオブジェクトの意味クラスと同一の意味クラスに対応する用例に絞り込まれる点が(ステップS801)、従来の手法と異なっている。
図9は、機械翻訳処理の具体例を示す説明図である。同図は、ユーザにより操作パネル114上で図4の中国語401(故宮)に対応するオブジェクトが指示され(ステップS601:YES)、施設を意味する図4の意味クラス402(施設)が取得されていること(ステップS607)を前提とした例を示している。また、候補文として、「故宮にどれくらいで行けますか。」を意味する候補文903が選択されたことを前提としている。
この例では、図4の意味クラス402が取得されているため、意味クラス402と同一の意味クラス901(施設)を有する用例の中から類似文が検索される(ステップS802)。
また、候補文903(故宮にどれくらいでいけますか。)と、検索された類似文902(万里の長城にどれくらいで行けますか。)との相違部分は、単語904(万里の長城)と単語905(故宮)の部分である(ステップS803)。
原言語文と目的言語文の対応情報(<a id="1">)から、目的言語の用例で置換すべき部分は、中国語906であることが特定できる。したがって、この中国語906を、相違部分である単語905に対応する中国語の単語(故宮)で置換した用例907が生成される(ステップS804)。
次に、日英翻訳について本実施の形態の手法を適用した例について説明する。図10は、日本語を入力として英語に翻訳する場合に処理される各種データの一例を示している。
同図では、「この空港までおいくらですか。」を意味する日本語1001が入力されるとともに(ステップS604)、地図上で「SanJose」に対応するオブジェクトが指示され(ステップS601:YES)、対応する名称1002(SanJose)が取得された場合(ステップS602)の例が示されている。
この場合、指示代名詞が名称1002で置換された候補文1003(SanJoseの空港までおいくらですか。)が生成される(ステップS606)。次に、類似する用例1004が用例記憶部122から取得される(ステップS802)。なお、この例では日本語の用例と英語の用例とを対応づけた対訳用例が用例記憶部122に記憶されているものとする。
そして、用例1004に対応する英語の用例1005のうち、候補文との相違部分である空港名の部分が置換された翻訳結果1006が出力される(ステップS804)。
(変形例)
上述のフローチャートでは、音声認識結果を表示してユーザに選択させるように構成していたが、音声認識結果のそれぞれについて類似した用例を検索し、検索された用例をユーザに候補文として示して選択させるように構成してもよい。このような方法によれば、音声認識結果に誤りが含まれていたとしても、検索された用例には誤りが含まれていないため、用例を提示することによりユーザに良い印象を与えられるというメリットがある。
以下に、このように構成した第1の実施の形態の変形例にかかる音声翻訳装置100による音声翻訳処理について説明する。図11−1、図11−2は、第1の実施の形態の変形例における音声翻訳処理の全体の流れを示すフローチャートである。
ステップS1101からステップS1110までの、オブジェクト選択受付処理、音声受付処理、認識処理は、第1の実施の形態にかかる音声翻訳装置100におけるステップS601からステップS610までと同様の処理なので、その説明を省略する。
音声認識処理(ステップS1110)または認識結果の置換処理の後(ステップS1106)、本変形例では、翻訳部105による機械翻訳処理が実行される(ステップS1111)。また、出力制御部107は、機械翻訳処理内で検索された原言語の用例を候補文として操作パネル114に表示する(ステップS1112)。
ステップS1113からステップS1116までの、候補文選択受付処理、翻訳ボタン受付処理は、第1の実施の形態にかかる音声翻訳装置100におけるステップS612からステップS615までと同様の処理なので、その説明を省略する。
次に、出力制御部107は、選択された候補文に対応する翻訳結果を、ステップS1111で実行された機械翻訳処理の翻訳結果の中から取得して操作パネル114に表示する(ステップS1117)。
ステップS1118からステップS1119までの、音声合成処理、合成音声出力処理は、第1の実施の形態にかかる音声翻訳装置100におけるステップS618からステップS619までと同様の処理なので、その説明を省略する。
このように、第1の実施の形態にかかる音声翻訳装置では、表示部に表示された地名や料理名などをポインティングデバイスによって指示することにより、発音の困難な固有名詞をユーザが発話する必要がなくなる。また、ユーザが指示と同時に発話した音声に対する音声認識や機械翻訳の解候補の探索範囲を、指示された固有名詞の意味クラスによって絞り込むことができるようになる。このため、機械翻訳の精度を向上させることが可能となる。
(第2の実施の形態)
第2の実施の形態にかかる音声翻訳装置は、指示されたオブジェクトの意味クラスに関する共起情報を用いて音声認識処理の絞込みを行うことにより音声翻訳処理の精度を向上させるものである。
図12は、第2の実施の形態にかかる音声翻訳装置1200の構成を示すブロック図である。同図に示すように、音声翻訳装置1200は、マイク111と、音声入力ボタン112と、ポインティングデバイス113と、操作パネル114と、スピーカ115と、関連情報記憶部121と、用例記憶部122と、辞書記憶部123と、共起情報記憶部1224と、音声受付部101と、選択受付部102と、認識部1203と、取得部104と、翻訳部105と、合成部106と、出力制御部107と、を備えている。
第2の実施の形態では、共起情報記憶部1224を追加したこと、および認識部1203の機能が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる音声翻訳装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
共起情報記憶部1224は、意味クラスと、当該意味クラスを有する単語と共に用いられる単語である共起語とを対応づけた共起情報を記憶するものである。図13は、共起情報のデータ構造の一例を示す説明図である。同図に示すように、共起情報は、意味クラスと、格助詞と、自立語とを含んでいる。このような共起情報により、例えば、意味クラス1301(料理名)を有する単語は、格助詞1302(に)および自立語1303(付く)と共に用いられることが表される。
認識部1203は、取得部104が取得した意味クラスとともに用いられる共起語を共起情報記憶部1224から取得し、音声認識処理の認識結果の候補を、取得した共起語を含む候補に絞り込む点が、第1の実施の形態の認識部103と異なっている。
次に、このように構成された第2の実施の形態にかかる音声翻訳装置1200による音声翻訳処理について説明する。図14−1、図14−2は、第2の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。
第2の実施の形態では、ステップS1411の認識結果の絞り込み処理が追加された点が、第1の実施の形態の変形例に関するフローチャートを示す図11と異なっている。その他の処理は、図11と同様であるため、その説明を省略する。
ステップS1411では、認識部1203が、取得された意味クラスを含む共起情報を共起情報記憶部1224から取得し、取得した共起情報に適合する候補のみに認識結果の候補を絞り込む。これにより、音声認識処理の精度向上を図り、結果として音声翻訳処理の精度を向上させることが可能となる。
次に、本実施の形態における音声翻訳処理の具体例について説明する。図15は、表示された料理名を指示しながら音声を入力した場合に処理される各種データの一例を示す説明図である。また、図16は、表示された地名を指示しながら音声を入力した場合に処理される各種データの一例を示す説明図である。
なお、図15および図16では、類似の日本語の音声が入力されたため、認識結果の候補として2つの同一の候補が生成されたことを前提としている。すなわち、図15および図16の例では、同一の候補が生成された場合であっても、指示されたオブジェクトの意味クラスによって認識結果の候補の絞り込みが行われるため、それぞれ異なる適切な候補文が選択されることが示される。
まず、図15のように料理名が指示された場合は、音声認識結果として認識結果1501(これにつくのはどれですか。)と認識結果1502(これにいくのはどれですか。)が生成され(ステップS1405)、指示された料理名の名称1503が取得される(ステップS1402)。
この例の場合、料理名に関するオブジェクトが指示されているため、オブジェクトの意味クラスとして料理名を意味する意味クラス1504が取得される(ステップS1407)。そして、認識結果1501と認識結果1502との相違部分である単語1511と単語1512とのうち、意味クラス1504に対応する共起情報1505に含まれる自立語1513と同一の発音を有する単語1511を含む認識結果1501が取得される(ステップS1411)。
次に、認識結果1501に類似する用例として、用例1506(麻婆豆腐に付くのはどのデザートですか。)、用例1507(麻婆豆腐の値段はいくらですか。)が検索される(ステップS802)。
認識結果1501との類似度の高い用例1506が選択されたとすると、相違部分である単語1514に相当する目的言語の単語が、名称1503に置換された候補文1508が生成され、操作パネル114に表示される(ステップS1413)。
一方、図16のように地名が指示された場合は、音声認識結果として図15の認識結果1501、認識結果1502と同一の認識結果1601、認識結果1602が生成され(ステップS1405)、指示された地名の名称1603が取得される(ステップS1402)。
この例の場合、地名に関するオブジェクトが指示されているため、オブジェクトの意味クラスとして地名を意味する意味クラス1604が取得される(ステップS1407)。また、この例の場合、認識結果1601と認識結果1602との相違部分である単語1611と単語1612とに対して、各単語をそれぞれ含み、意味クラス1604に対応する共起情報がそれぞれ存在する。
すなわち、単語1611に対しては、単語1611と同一の発音を有する自立語1613を含む共起情報1605が存在する。また、単語1612に対しては、単語1612と同一の発音を有する自立語1614を含む共起情報1606が存在する。
したがって、認識結果1601、認識結果1602のいずれも候補として残される(ステップS1411)。
次に、認識結果1601および認識結果1602に類似する用例として、それぞれ用例1607(北京に行くのはどのバスですか。)および用例1608(北京に着くまで何分かかりますか。)が検索される(ステップS802)。
そして、相違部分である単語1615に相当する目的言語の単語が、名称1603に置換された候補文1609および候補文1610がそれぞれ生成され、操作パネル114に表示される(ステップS1413)。
このように、第2の実施の形態にかかる音声翻訳装置では、指示されたオブジェクトの意味クラスに関する共起情報を用いて音声認識処理の絞込みを行うことにより音声認識処理を高精度に実行することができる。その結果、音声翻訳処理の精度を向上させることができる。
図17は、第1または第2の実施の形態にかかる音声翻訳装置のハードウェア構成を示す説明図である。
第1または第2の実施の形態にかかる音声翻訳装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施の形態にかかる音声翻訳装置で実行される音声翻訳プログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施の形態にかかる音声翻訳装置で実行される音声翻訳プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1または第2の実施の形態にかかる音声翻訳装置で実行される音声翻訳プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施の形態にかかる音声翻訳装置で実行される音声翻訳プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施の形態にかかる音声翻訳装置で実行される音声翻訳プログラムは、上述した各部(音声受付部、選択受付部、認識部、取得部、翻訳部、合成部、出力制御部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記ROM52から音声翻訳プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる音声翻訳装置は、異なる言語を母語とする人同士の対話を支援する音声翻訳装置に適している。
第1の実施の形態にかかる音声翻訳装置の構成を示すブロック図である。 関連情報記憶部に記憶された関連情報のデータ構造の一例を示す説明図である。 用例記憶部に記憶された対訳用例のデータ構造の一例を示す説明図である。 辞書情報のデータ構造の一例を示す説明図である。 本実施の形態による音声翻訳処理の動作イメージを示す説明図である。 第1の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。 第1の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。 認識結果の置換の具体例を示す説明図である。 機械翻訳処理の全体の流れを示すフローチャートである。 機械翻訳処理の具体例を示す説明図である。 日本語を入力として英語に翻訳する場合に処理される各種データの一例を示している図である。 第1の実施の形態の変形例における音声翻訳処理の全体の流れを示すフローチャートである。 第1の実施の形態の変形例における音声翻訳処理の全体の流れを示すフローチャートである。 第2の実施の形態にかかる音声翻訳装置の構成を示すブロック図である。 共起情報のデータ構造の一例を示す説明図である。 第2の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。 第2の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。 処理される各種データの一例を示す説明図である。 処理される各種データの一例を示す説明図である。 第1または第2の実施の形態にかかる音声翻訳装置のハードウェア構成を示す説明図である。
符号の説明
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100 音声翻訳装置
101 音声受付部
102 選択受付部
103 認識部
104 取得部
105 翻訳部
106 合成部
107 出力制御部
111 マイク
112 音声入力ボタン
113 ポインティングデバイス
114 操作パネル
115 スピーカ
121 関連情報記憶部
122 用例記憶部
123 辞書記憶部
201 地図
202 場所
204 音声
205 候補
207 翻訳ボタン
208 翻訳結果
209 音声
210 音声ボタン
401 中国語
402 意味クラス
701、702 候補
703、704 指示代名詞
705 単語
706 候補
901 意味クラス
902 類似文
903 候補文
904、905 単語
906 中国語
907 用例
1001 日本語
1002 名称
1003 候補文
1004、1005 用例
1006 翻訳結果
1200 音声翻訳装置
1203 認識部
1224 共起情報記憶部
1301 意味クラス
1302 格助詞
1303 自立語
1501、1502 認識結果
1503 名称
1504 意味クラス
1505 共起情報
1506、1507 用例
1508 候補文
1511、1512、1514 単語
1513 自立語
1601、1602 認識結果
1603 名称
1604 意味クラス
1605、1606 共起情報
1607、1608 用例
1609、1610 候補文
1611、1612、1615 単語
1613、1614 自立語

Claims (12)

  1. 発話に関連する関連情報の名称と、前記関連情報の表示位置とを対応づけて記憶する関連情報記憶部と、
    語句の意味属性を表す意味クラスと、前記語句を含む原言語の用例と、前記原言語の用例を翻訳した目的言語の用例とを対応づけて記憶する用例記憶部と、
    前記関連情報の名称と、前記関連情報の名称の前記意味クラスとを対応づけて記憶する辞書記憶部と、
    前記関連情報の前記表示位置を前記関連情報記憶部から取得し、取得した前記表示位置に前記関連情報を表示する表示部と、
    原言語により発話された音声を受付ける音声受付部と、
    受付けた前記音声を認識して原言語による原言語文字列を生成する認識部と、
    前記表示部に表示された前記関連情報の選択を受付ける選択受付部と、
    選択を受付けた前記関連情報の前記表示位置に対応する前記関連情報の名称を前記関連情報記憶部から取得し、取得した前記関連情報の名称に対応する前記意味クラスを前記辞書記憶部から取得する取得部と、
    取得した前記意味クラスと、前記原言語文字列とに対応する前記目的言語の用例を前記用例記憶部から取得することにより、前記原言語文字列を目的言語に翻訳する翻訳部と、
    を備えたことを特徴とする音声翻訳装置。
  2. 前記認識部は、受付けた前記音声を認識して前記原言語文字列の候補を生成し、
    前記選択受付部は、さらに前記表示部に表示された前記候補から、前記候補の選択を受付け、
    前記翻訳部は、取得した前記意味クラスと、選択された前記候補とに対応する前記目的言語の用例を前記用例記憶部から取得することにより、前記候補を目的言語に翻訳すること、
    を特徴とする請求項1に記載の音声翻訳装置。
  3. 前記認識部は、前記候補の確からしさを表す尤度が大きい順に予め定められた個数の前記候補を生成すること、
    を特徴とする請求項2に記載の音声翻訳装置。
  4. 前記認識部は、受付けた前記音声を認識して前記原言語文字列の候補を生成し、
    前記翻訳部は、生成された前記候補のそれぞれについて、前記候補に適合する前記原言語の用例を取得し、取得した前記原言語の用例と、前記取得部が取得した前記意味クラスとに対応する前記目的言語の用例を前記用例記憶部から取得することにより、前記候補を目的言語に翻訳し、
    前記選択受付部は、さらに前記表示部に表示された、前記翻訳部が取得した前記原言語の用例から、前記原言語の用例の選択を受付け、
    選択された前記原言語の用例に対応する前記目的言語の用例を出力する出力制御部をさらに備えたこと、
    を特徴とする請求項1に記載の音声翻訳装置。
  5. 前記認識部は、前記候補の確からしさを表す尤度が大きい順に予め定められた個数の前記候補を生成すること、
    を特徴とする請求項4に記載の音声翻訳装置。
  6. 前記認識部は、前記原言語文字列に含まれる指示代名詞を、取得した前記関連情報の名称で置換すること、
    を特徴とする請求項1に記載の音声翻訳装置。
  7. 前記関連情報記憶部は、地図上に表示される表示対象の名称を前記関連情報の名称として、前記表示対象の前記地図上での前記表示位置と対応づけて記憶し、
    前記辞書記憶部は、前記表示対象の名称と、前記表示対象の名称の前記意味クラスとを対応づけて記憶し、
    前記選択受付部は、前記表示部に表示された前記地図上の前記表示位置に表示された前記表示対象の選択を受付け、
    前記取得部は、選択を受付けた前記表示対象の前記表示位置に対応する前記表示対象の名称を前記関連情報記憶部から取得し、取得した前記表示対象の名称に対応する前記意味クラスを前記辞書記憶部から取得すること、
    を特徴とする請求項1に記載の音声翻訳装置。
  8. 前記関連情報記憶部は、前記関連情報の名称と、一覧形式で表示する前記関連情報の一覧上での前記表示位置とを対応づけて記憶し、
    前記選択受付部は、前記表示部に表示された前記関連情報の一覧上の前記表示位置に表示された前記関連情報の選択を受付けること、
    を特徴とする請求項1に記載の音声翻訳装置。
  9. 前記翻訳部が取得した前記目的言語の用例を目的言語の音声に合成する合成部と、
    合成された前記目的言語の音声を出力する出力制御部と、をさらに備えたこと、
    を特徴とする請求項1に記載の音声翻訳装置。
  10. 前記意味クラスと、前記意味クラスが表す意味属性の語句と共に用いられる語句である共起語とを対応づけて記憶する共起情報記憶部をさらに備え、
    前記認識部は、前記原言語文字列の候補のうち、前記取得部が取得した前記意味クラスに対応する前記共起語を前記共起情報記憶部から取得し、取得した前記共起語を含む前記候補を前記原言語文字列として選択すること、
    を特徴とする請求項1に記載の音声翻訳装置。
  11. 音声受付部により、原言語により発話された音声を受付ける音声受付ステップと、
    認識部により、受付けた前記音声を認識して原言語による原言語文字列を生成する認識ステップと、
    選択受付部により、表示部に表示された、発話に関連する関連情報の選択を受付ける選択受付ステップと、
    取得部により、前記関連情報の名称と前記関連情報の表示位置とを対応づけて記憶する関連情報記憶部から、選択を受付けた前記関連情報の前記表示位置に対応する前記関連情報の名称を取得し、前記関連情報の名称と前記関連情報の名称の意味属性を表す意味クラスとを対応づけて記憶する辞書記憶部から、取得した前記関連情報の名称に対応する前記意味クラスを取得する取得ステップと、
    翻訳部により、語句の前記意味クラスと、前記語句を含む原言語の用例と、前記原言語の用例を翻訳した目的言語の用例とを対応づけて記憶する用例記憶部から、取得した前記意味クラスと、前記原言語文字列とに対応する前記目的言語の用例を取得することにより、前記認識結果を目的言語に翻訳する翻訳ステップと、
    を備えたことを特徴とする音声翻訳方法。
  12. 原言語により発話された音声を受付ける音声受付手順と、
    受付けた前記音声を認識して原言語による原言語文字列を生成する認識手順と、
    表示部に表示された、発話に関連する関連情報の選択を受付ける選択受付手順と、
    前記関連情報の名称と前記関連情報の表示位置とを対応づけて記憶する関連情報記憶部から、選択を受付けた前記関連情報の前記表示位置に対応する前記関連情報の名称を取得し、前記関連情報の名称と前記関連情報の名称の意味属性を表す意味クラスとを対応づけて記憶する辞書記憶部から、取得した前記関連情報の名称に対応する前記意味クラスを取得する取得手順と、
    語句の前記意味クラスと、前記語句を含む原言語の用例と、前記原言語の用例を翻訳した目的言語の用例とを対応づけて記憶する用例記憶部から、取得した前記意味クラスと、前記原言語文字列とに対応する前記目的言語の用例を取得することにより、前記認識結果を目的言語に翻訳する翻訳手順と、
    をコンピュータに実行させる音声翻訳プログラム。
JP2007045954A 2007-02-26 2007-02-26 原言語による音声を目的言語に翻訳する装置、方法およびプログラム Active JP5121252B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007045954A JP5121252B2 (ja) 2007-02-26 2007-02-26 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
US11/896,887 US8055495B2 (en) 2007-02-26 2007-09-06 Apparatus and method for translating input speech sentences in accordance with information obtained from a pointing device
CNA2008100031131A CN101256558A (zh) 2007-02-26 2008-01-10 用于将语音由源语言翻译成目标语言的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007045954A JP5121252B2 (ja) 2007-02-26 2007-02-26 原言語による音声を目的言語に翻訳する装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2008210132A true JP2008210132A (ja) 2008-09-11
JP5121252B2 JP5121252B2 (ja) 2013-01-16

Family

ID=39716911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007045954A Active JP5121252B2 (ja) 2007-02-26 2007-02-26 原言語による音声を目的言語に翻訳する装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US8055495B2 (ja)
JP (1) JP5121252B2 (ja)
CN (1) CN101256558A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011036830A1 (ja) * 2009-09-24 2011-03-31 日本電気株式会社 単語認識装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体並びに発送物区分装置
WO2013005248A1 (ja) * 2011-07-05 2013-01-10 三菱電機株式会社 音声認識装置およびナビゲーション装置
JPWO2013005248A1 (ja) * 2011-07-05 2015-02-23 三菱電機株式会社 音声認識装置およびナビゲーション装置
WO2018020828A1 (ja) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 翻訳装置および翻訳システム

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8209164B2 (en) * 2007-11-21 2012-06-26 University Of Washington Use of lexical translations for facilitating searches
US20100082324A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Replacing terms in machine translation
JP5471106B2 (ja) * 2009-07-16 2014-04-16 独立行政法人情報通信研究機構 音声翻訳システム、辞書サーバ装置、およびプログラム
US8943094B2 (en) * 2009-09-22 2015-01-27 Next It Corporation Apparatus, system, and method for natural language processing
US9116885B2 (en) * 2012-01-16 2015-08-25 Google Inc. Techniques for a gender weighted pinyin input method editor
US9098494B2 (en) * 2012-05-10 2015-08-04 Microsoft Technology Licensing, Llc Building multi-language processes from existing single-language processes
US9575954B2 (en) 2012-11-05 2017-02-21 Unified Compliance Framework (Network Frontiers) Structured dictionary
US9009197B2 (en) 2012-11-05 2015-04-14 Unified Compliance Framework (Network Frontiers) Methods and systems for a compliance framework database schema
CN103020048A (zh) * 2013-01-08 2013-04-03 深圳大学 一种语言翻译方法及系统
KR101864361B1 (ko) * 2014-04-08 2018-06-04 네이버 주식회사 다양한 의미 범주에 기반한 번역 결과 제공 방법 및 시스템
US9582499B2 (en) * 2014-04-14 2017-02-28 Xerox Corporation Retrieval of domain relevant phrase tables
US9721564B2 (en) * 2014-07-31 2017-08-01 Rovi Guides, Inc. Systems and methods for performing ASR in the presence of heterographs
JP2016133861A (ja) * 2015-01-16 2016-07-25 株式会社ぐるなび 情報多言語変換システム
WO2016171927A1 (en) * 2015-04-20 2016-10-27 Unified Compliance Framework (Network Frontiers) Structured dictionary
US10460038B2 (en) 2016-06-24 2019-10-29 Facebook, Inc. Target phrase classifier
US10268686B2 (en) * 2016-06-24 2019-04-23 Facebook, Inc. Machine translation system employing classifier
CN107657949A (zh) * 2017-04-14 2018-02-02 深圳市人马互动科技有限公司 游戏数据的获取方法及装置
CN107221329A (zh) * 2017-07-06 2017-09-29 上海思依暄机器人科技股份有限公司 一种对话控制方法、装置及机器人
CN108986820B (zh) * 2018-06-29 2020-12-18 北京百度网讯科技有限公司 用于语音翻译的方法、装置、电子设备和存储介质
CN109344414A (zh) * 2018-11-02 2019-02-15 芋头科技(杭州)有限公司 同声传译方法、系统和设备以及控制器和介质
US11120227B1 (en) 2019-07-01 2021-09-14 Unified Compliance Framework (Network Frontiers) Automatic compliance tools
US10824817B1 (en) 2019-07-01 2020-11-03 Unified Compliance Framework (Network Frontiers) Automatic compliance tools for substituting authority document synonyms
US10769379B1 (en) 2019-07-01 2020-09-08 Unified Compliance Framework (Network Frontiers) Automatic compliance tools
US11386270B2 (en) 2020-08-27 2022-07-12 Unified Compliance Framework (Network Frontiers) Automatically identifying multi-word expressions
CN113345408B (zh) * 2021-06-02 2022-12-27 云知声智能科技股份有限公司 中英文语音混合合成方法、装置、电子设备和存储介质
CN113539239A (zh) * 2021-07-12 2021-10-22 网易(杭州)网络有限公司 语音转换方法、装置、存储介质及电子设备
US20230031040A1 (en) 2021-07-20 2023-02-02 Unified Compliance Framework (Network Frontiers) Retrieval interface for content, such as compliance-related content
US20230084294A1 (en) * 2021-09-15 2023-03-16 Google Llc Determining multilingual content in responses to a query

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962681A (ja) * 1995-06-13 1997-03-07 Sharp Corp 会話文翻訳装置
JPH09114634A (ja) * 1995-10-16 1997-05-02 Atr Onsei Honyaku Tsushin Kenkyusho:Kk マルチモーダル情報統合解析装置
WO2005091166A2 (ja) * 2004-03-18 2005-09-29 Nec Corp 機械翻訳システム、機械翻訳方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6170663A (ja) 1984-09-14 1986-04-11 Toshiba Corp 住所翻訳装置
JPH06131437A (ja) * 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
JP3015223B2 (ja) * 1993-05-14 2000-03-06 シャープ株式会社 特殊共起を処理する電子化辞書装置、及び機械翻訳装置、並びに情報検索装置
US6278968B1 (en) * 1999-01-29 2001-08-21 Sony Corporation Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
JP2001101187A (ja) * 1999-09-30 2001-04-13 Sony Corp 翻訳装置および翻訳方法、並びに記録媒体
US7050979B2 (en) * 2001-01-24 2006-05-23 Matsushita Electric Industrial Co., Ltd. Apparatus and method for converting a spoken language to a second language
WO2002061728A1 (fr) * 2001-02-01 2002-08-08 Matsushita Electric Industrial Co., Ltd. Dispositif de reconnaissance de phrases, procede de reconnaissance de phrases, programme et support
JP3379090B2 (ja) * 2001-03-02 2003-02-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 機械翻訳システム、機械翻訳方法、及び機械翻訳用プログラム
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
US20030120478A1 (en) * 2001-12-21 2003-06-26 Robert Palmquist Network-based translation system
US7539619B1 (en) * 2003-09-05 2009-05-26 Spoken Translation Ind. Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy
US20050192714A1 (en) * 2004-02-27 2005-09-01 Walton Fong Travel assistant device
CN1942875B (zh) 2004-04-12 2010-05-26 松下电器产业株式会社 对话支援装置
JP4050755B2 (ja) * 2005-03-30 2008-02-20 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US20070050183A1 (en) * 2005-08-26 2007-03-01 Garmin Ltd. A Cayman Islands Corporation Navigation device with integrated multi-language dictionary and translator
JP4047885B2 (ja) * 2005-10-27 2008-02-13 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US20080133245A1 (en) * 2006-12-04 2008-06-05 Sehda, Inc. Methods for speech-to-speech translation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962681A (ja) * 1995-06-13 1997-03-07 Sharp Corp 会話文翻訳装置
JPH09114634A (ja) * 1995-10-16 1997-05-02 Atr Onsei Honyaku Tsushin Kenkyusho:Kk マルチモーダル情報統合解析装置
WO2005091166A2 (ja) * 2004-03-18 2005-09-29 Nec Corp 機械翻訳システム、機械翻訳方法及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011036830A1 (ja) * 2009-09-24 2011-03-31 日本電気株式会社 単語認識装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体並びに発送物区分装置
JP5621777B2 (ja) * 2009-09-24 2014-11-12 日本電気株式会社 単語認識装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体並びに発送物区分装置
US9101961B2 (en) 2009-09-24 2015-08-11 Nec Corporation Word recognition apparatus, word recognition method, non-transitory computer readable medium storing word recognition program, and delivery item sorting apparatus
WO2013005248A1 (ja) * 2011-07-05 2013-01-10 三菱電機株式会社 音声認識装置およびナビゲーション装置
JPWO2013005248A1 (ja) * 2011-07-05 2015-02-23 三菱電機株式会社 音声認識装置およびナビゲーション装置
WO2018020828A1 (ja) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 翻訳装置および翻訳システム

Also Published As

Publication number Publication date
US20080208563A1 (en) 2008-08-28
JP5121252B2 (ja) 2013-01-16
US8055495B2 (en) 2011-11-08
CN101256558A (zh) 2008-09-03

Similar Documents

Publication Publication Date Title
JP5121252B2 (ja) 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
JP4559946B2 (ja) 入力装置、入力方法および入力プログラム
US8407039B2 (en) Method and apparatus of translating language using voice recognition
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US7047195B2 (en) Speech translation device and computer readable medium
JP4050755B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
EP0262938B1 (en) Language translation system
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2007141133A (ja) 用例翻訳装置、用例翻訳方法および用例翻訳プログラム
JP6150268B2 (ja) 単語登録装置及びそのためのコンピュータプログラム
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2008209717A (ja) 入力された音声を処理する装置、方法およびプログラム
JP2007004730A (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
JPH0916602A (ja) 翻訳装置および翻訳方法
JP2009186820A (ja) 音声処理システム、音声処理プログラム及び音声処理方法
KR20100134618A (ko) 정보 처리 장치, 방법 및 기록 매체
JP2008083855A (ja) 機械翻訳を行う装置、システム、方法およびプログラム
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
WO2018053502A1 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP2005043461A (ja) 音声認識方法及び音声認識装置
WO2000013102A1 (fr) Dispositif et procede pour le traitement du langage naturel
EP3005152B1 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP7117629B2 (ja) 翻訳装置
JP2010186339A (ja) 通訳装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5121252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350