JP2009122989A - 翻訳装置 - Google Patents

翻訳装置 Download PDF

Info

Publication number
JP2009122989A
JP2009122989A JP2007296671A JP2007296671A JP2009122989A JP 2009122989 A JP2009122989 A JP 2009122989A JP 2007296671 A JP2007296671 A JP 2007296671A JP 2007296671 A JP2007296671 A JP 2007296671A JP 2009122989 A JP2009122989 A JP 2009122989A
Authority
JP
Japan
Prior art keywords
text
unit
data
speech
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007296671A
Other languages
English (en)
Inventor
Junichi Shibuya
純一 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2007296671A priority Critical patent/JP2009122989A/ja
Publication of JP2009122989A publication Critical patent/JP2009122989A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができる翻訳装置を提供すること。
【解決手段】話者が発言したときの原言語の音声データをテキストデータに変換する音声認識部11と、原言語を翻訳して所定の言語のテキストデータに変換する基本翻訳部12と、基本翻訳部12によって変換された所定の言語のテキストデータを音声合成して音声データに変換する音声合成部13と、音声合成部13によって変換された音声データを所定の装置に送信する音声データ送信部14と、基本翻訳部12によって変換された所定の言語を翻訳して原言語のテキストデータに変換する折返翻訳部15と、折返翻訳部15によって変換されたテキストデータを編集する編集部17とを備え、基本翻訳部12は、編集部17によって編集されたテキストデータを翻訳して所定の言語のテキストデータに変換する構成する。
【選択図】図2

Description

本発明は、互いに異なる言語を使用する話者同士の言語を翻訳する翻訳装置に関する。
多言語間で会議を行う際、通訳者を介在して会議が行われるが、会議を行う毎に専任の通訳者を用意し、多言語間での通訳作業を実施するには相当の費用がかかるため、日常の業務で行う会議の活用には不向きであった。
そこで、通訳者を不用とするため、ネットワーク上にて機械翻訳システムを利用する際、高性能でリアルタイムに耐える自動翻訳サーバ(ATS:Automatic Translation Server)が必要となる。機械翻訳システムでは、活用するシーンをある程度限定すれば、十分運用に耐える自動翻訳システムになる。
従来の自動翻訳システムは、コンピュータで構成されており、キーボードから直接原文のテキストが入力され、テキストを翻訳する際、毎回キーボードにてテキスト文が入力されてから翻訳ソフトウエアを起動し、その都度翻訳しているが、とても会議で使えるものではない。そこで、従来の自動翻訳システムは、会話の内容の音声が入力され、入力された音声を音声認識システムでテキストに変換した後、テキストを翻訳している。
例えば、従来の翻訳装置としては、音声により入力を行い、第1の言語の音声情報を第1の言語によるテキスト情報に変換し、変換によって得られた第1の言語によるテキスト情報にあらかじめ決められた区切り記号があるか否かを逐次検出し、区切り記号が検出された場合に、変換によって得られた第1の言語によるテキスト情報を第1の言語とは異なる第2の言語によるテキスト情報に翻訳することで、より円滑にユーザの意図する翻訳結果を得ることができるものが知られている(例えば、特許文献1参照)。
特開2005−149042号公報
しかしながら、従来の翻訳装置では、発話者が正確な文法を用いて発話しない場合もあり、発話の内容に主語や述語が省略されていたりすると、第2の言語によるテキスト情報の翻訳が不正確なものになってしまうという問題があった。また、第2の言語を介して第1の言語から第3の言語に翻訳するブリッジ翻訳を行う際には、第2の言語によるテキスト情報の翻訳が不正確であると、当然に第3の言語の翻訳結果も不正確になってしまう。
そこで、本発明は、音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができる翻訳装置を提供することを目的としたものである。
本発明の翻訳装置は、話者が発言したときの原言語の音声データをテキストデータに変換する音声認識部と、前記テキストデータで表される原言語を翻訳して所定の言語のテキストデータに変換する基本翻訳部と、前記基本翻訳部によって変換された所定の言語のテキストデータを音声合成して音声データに変換する音声合成部と、前記音声合成部によって変換された音声データを所定の装置に送信する音声データ送信部と、前記基本翻訳部によって変換された所定の言語のテキストデータで表される言語を翻訳して前記原言語のテキストデータに変換する折返翻訳部と、前記折返翻訳部によって変換されたテキストデータを編集する編集部とを備え、前記基本翻訳部は、前記編集部によって編集されたテキストデータを翻訳して前記所定の言語のテキストデータに変換する構成を有している。
この構成により、一旦翻訳された所定の言語のテキストデータで表される言語を折返翻訳して原言語のテキストデータに変換し、変換されたテキストデータが編集されたテキストデータを翻訳して所定の言語のテキストデータに変換するため、音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができる。
また、本発明の翻訳装置は、前記基本翻訳部が変換した前記所定の言語のテキストデータまたは該テキストデータの基になるデータから前記所定の言語と異なる言語のテキストデータに変換するブリッジ翻訳部を備え、前記音声合成部は、前記ブリッジ翻訳部によって変換された前記異なる言語のテキストデータを音声合成して音声データに変換し、前記音声データ送信部は、前記音声合成部によって変換された音声データを所定の装置に送信する構成を有している。
この構成により、折返翻訳して原言語のテキストデータに変換し、変換されたテキストデータが編集されたテキストデータを翻訳して変換した所定の言語のテキストデータまたは該テキストデータの基になるデータから、所定の言語と異なる言語のテキストデータにブリッジ翻訳するため、精度の良いブリッジ翻訳が可能となる。
また、本発明の翻訳装置は、前記折返翻訳部によって変換されたテキストデータを表示させる表示制御部を備え、前記表示制御部は、前記折返翻訳部によって変換された原言語のテキストデータを前記所定の装置に送信して表示させる構成を有している。
この構成により、折返翻訳されたテキストデータである確認文の表示内容を他の装置に送信して表示させることで、確認文のテキストの修正状況や修正内容、さらに会議の進行状況を他の装置の使用者に確認させることができる。
また、本発明の翻訳装置は、前記折返翻訳部が、前記編集部が前記折返翻訳部によって変換されたテキストデータを編集した内容から、前記話者の言い回しを学習し、学習した結果を反映させて前記原言語のテキストデータに変換する構成を有している。
この構成により、学習した結果を反映させて原言語のテキストデータに変換するため、精度の高い折返翻訳を行うことができる。
以上のように本発明は、音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができる翻訳装置を提供するものである。
以下、本発明の実施の形態について、図面を用いて説明する。
(本発明の第1の実施の形態)
図1は、本発明の第1の実施の形態に係る会議システムを表す図である。図1に示した会議システムでは、ネットワークを介して2つの会議端末10が互いに接続されている。以降、会議端末10の各々を区別する場合、会議端末10A、会議端末10Bとして記載し、区別しない場合、会議端末10として記載する。図1では、会議端末10Aは日本人が使用するものとし、会議端末10Bはアメリカ人が使用するものとする。
会議端末10は、パソコンなどである。電子会議を行う際に、ネットワークに接続された会議端末10同士がデータを送受信することができる。例えば、会議端末10は、電子会議中に、参加者(会議端末10の使用者)の発言の言語から対象言語に翻訳し、翻訳した対象言語の内容を他の会議端末10に送信したり、他の会議端末10から受信した発言の音声データを再生することで、異なる言語の間で会議を行うようになっている。
例えば、図1では、会議端末10Aは、日本語の発言内容を英語に翻訳し、翻訳した英語の内容を表す音声データを会議端末10Bに送信する。会議端末10Bは、送信された英語の内容を表す音声データを受信し、受信した音声データを再生する。
本発明の実施の形態では、図1に示した会議システムで用いられるデータの送受信は、IP(Internet Protocol)に準拠して行われるため、会議端末10には、IPアドレスが登録されている。なお、本発明の翻訳装置は例示すれば会議端末10であるため、本発明の第1の実施の形態では、会議端末10について説明する。
図2は、本発明の第1の実施の形態に係る会議端末のブロック図である。会議端末10は、一般的なコンピュータの構成を有しており、詳細には、図示していないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、およびハードディスク、さらに、ネットワークに接続するためのネットワークインタフェース21、電子会議の参加者の音声を出力するスピーカ22、会議端末10の使用者の音声を入力するマイクロホン23、使用者からの情報を入力するキーボードやマウスなどの入力機器24、情報を表示するディスプレイ25を有している。
なお、発話時に周囲の雑音が混入してしまうことを防止するため、マイクロホン23およびスピーカ22を、マイクロホンとイヤホンとが一体型となっているイヤホンマイクに替えてもよい。また、マイクロホン23は、プレストークスイッチを有し、プレストークスイッチを押してから発言内容を収音するようなものでもよい。
また、図2に示すように、会議端末10は、音声認識部11、基本翻訳部12、音声合成部13、音声データ送信部14、折返翻訳部15、表示制御部16、編集部17、および音声データ受信部18を備えており、例えば、これらの機能部は、CPUが実行するプログラムのモジュールなどで実施されてもよい。
音声認識部11は、話者が発言したときの原言語の音声データをテキストデータに変換するようになっている。例えば、音声認識部11は、マイクロホン23から収音されて得られた音声データ、または、RAMなどの記憶媒体に保存されていた音声データを認識することでテキストデータに変換するようになっている。
なお、音声認識部11は、学習機能を有する音声認識エンジンを有しており、同じ使用者の音声データをできるだけ一度に音声認識することで、音声認識の精度(音声認識率)を向上させるようにしてもよい。
音声認識部11で音声認識する音声データは、できる限りノイズが無く1文に区切れている音声データであることが好ましい。原言語の音声データが音声認識部11でテキストデータに変換されると、基本翻訳部12の翻訳が開始される。また、原言語の音声データが音声認識部11でテキストデータに変換されると、所定のタイミングで基本翻訳部12の翻訳が開始される。所定のタイミングは、例えば、音声データ内の無音部分を検出してから500ms〜3000ms程度が好ましい。
基本翻訳部12は、テキストデータで表される原言語を翻訳して所定の言語のテキストデータに変換するようになっている。例えば、基本翻訳部12は、日本語から英語に翻訳するものであって、形態素解析および構文解析などを用いて日本語のテキストデータを翻訳して英語のテキストデータに変換するようになっている。
なお、音声認識部11で出力されるテキストの文字コードと、基本翻訳部12で出力されるテキストの文字コードとが一致していないと、基本翻訳部12で出力されるテキストが表示されると文字化けしてしまうので、テキストの文字コードを予め一致させるように設定されている。
音声合成部13は、基本翻訳部12によって変換された所定の言語のテキストデータを音声合成して音声データに変換するようになっている。例えば、音声合成部13は、英語のテキストデータを音声合成するものであって、英語のテキストデータを口語で表現した音声データに変換するようになっている。
音声データ送信部14は、音声合成部13で変換された音声データを所定の装置に送信するようになっている。例えば、音声データ送信部14は、音声データをネットワークインタフェース21を介して所定の装置に送信するようになっている。
音声データ受信部18は、他の装置から送信された音声データを受信し、音声データを再生し、再生された音声をスピーカに出力するようになっている。なお、IPに準拠したネットワークを使用して電子会議を行う場合、音声データは、IPパケットのペイロード部に設定されているものであり、RTP(Real-time Transport Protocol)等に準拠した技術に従ってリアルタイムに送受信される。
折返翻訳部15は、基本翻訳部12によって変換された所定の言語のテキストデータで表される言語を翻訳して原言語のテキストデータに変換(折返翻訳)するようになっている。例えば、折返翻訳部15は、英語から日本語に翻訳するものであって、形態素解析および構文解析などを用いて英語のテキストデータを翻訳して日本語のテキストデータに変換するようになっている。
表示制御部16は、折返翻訳部15によって変換されたテキストデータを表示させるようになっている。例えば、折返翻訳部15によって変換された原言語が日本語であった場合、表示制御部16は、折返翻訳部15によって変換された日本語のテキストデータをディスプレイ25に表示させるようになっている。
ここで、折返翻訳部15によって変換された日本語のテキストデータを図3に示す。図3では、音声認識部11によって音声認識された原文(テキスト)と、基本翻訳部12によって翻訳された翻訳文のテキストと、折返翻訳部15によって変換されたテキストとを対応させたものを表示制御部16がディスプレイ25に表示させている。
図3において、列1には音声認識された原文が表示され、列2には翻訳された翻訳文のテキストが表示され、列3には折返翻訳された翻訳文のテキストが表示されている。図3における各行について、表示制御部16は、例えば、時系列を表すものであり、各テキストが出力された時点毎に1行ずつ進めてテキストを表示するようになっている。
例えば、音声認識部11、基本翻訳部12、折返翻訳部15の順でテキストが出力され、これらのテキストがRAM等に一時的に記憶されているため、表示制御部16は、RAMを介して、図3に示すように音声認識部11によって出力されたテキストを行1に、基本翻訳部12によって出力されたテキストを行2に、折返翻訳部15によって出力されたテキストを行3に表示させる。また、対応関係を明確にするために、表示制御部16は、音声認識部11、基本翻訳部12、折返翻訳部15それぞれが出力したテキストを同じ行に表示させてもよい。
図3では、主語が省略された「Aさんの東京訪問を歓迎します」というテキストが行1で表示されている。行1のテキストに対し、「I」を補って英語に翻訳されたものが行2で表示されている。英語に翻訳されたテキストに対し、折返翻訳されたものが行3で表示されている。
図3の列3行3の確認文のテキストがある列3行3には確定ボタンが表示されているが、使用者が確定ボタンをマウス等でクリックすることで、表示制御部16は、基本翻訳部12によって出力された列2行2のテキストを音声合成部13に音声合成させ、音声合成された音声データが所定の装置に送信される。なお、図3の列3行3にある修正ボタンについては後述する。
編集部17は、折返翻訳部15によって変換されたテキストデータを編集するようになっている。ここで、テキストデータの編集について図3および図4を用いて説明する。図4は、図3に示した図3の列3の確認文のテキストを修正したものである。例えば、図4に示すように、図3に示した列3行3の確認文のテキストを入力機器24で使用者に修正させて編集する。図4では、使用者が確認文のテキストを「私」から「私達」に修正している。使用者は確認文のテキストを修正した後、列3行3にある修正ボタンをクリックすることで、編集部17は、使用者が修正した内容を反映させるよう折返翻訳部15が出力したテキストを編集するようになっている。
なお、図3の列3行3のように、意味が通じるテキストである場合もあるが、上手く発話されていないと、部分的に折返翻訳されてしまい、意味が通じないテキストの場合もある。また、このように確認文(図4、列3行3)に修正を行うのに対し、原文である図4の列1行1のテキストを、列1行1の修正ボタンをクリックすることで修正することも可能である。その理由としては、「折返翻訳」による「確認文」の意味が通じず乱れてしまった場合、どうしても原文を直接修正した方が得策である場合もあるためである。
また、折返翻訳部15は、会議端末10の使用者が確認文のテキストを修正して編集部17が編集した内容から、使用者の言い回しなどを学習し、学習した結果を反映させて原言語のテキストデータに折返翻訳するようにしてもよい。
なお、折返翻訳部15において、修正の結果を学習効果に結び付けるには、修正箇所をマウスで選択した時点でユーザ辞書からの修正の候補を示しておき、その候補の中から選択させるか、「修正文書」内容をマニュアルで直接修正を加えるかを行ってもよく、運用管理者にて最適解を選ばせるようにしておくことも可能である。こまめに修正を繰り返すことにより、学習効果に蓄積され修正の都度に加えられた候補が掲載される。なお、その人の「言い回し」なども修正の対象になる。修正の候補は、選択される回数の多い候補が優先的に先頭に掲載される。学習を繰り返す事により、発話者の意図する翻訳にもなる。
ここで、基本翻訳部12は、編集部17によって編集されたテキストデータを翻訳して所定の言語のテキストデータに変換する。基本翻訳部12によって変換されたテキストが、音声合成部13で音声合成され、所定の装置に送信される。
上述のように、修正ボタンをクリックすることで、折返翻訳部15が出力したテキストが編集され、編集されたテキストデータが翻訳および音声合成されて送信されてもよいが、図4の列2行3のように、表示制御部16は、修正された日本語のテキストから再度翻訳された英語のテキストを表示させておき、確定ボタンをクリックすることで列2行3のテキストが、音声合成および送信されてもよい。
また、表示制御部16は、折返翻訳部15によって変換されたテキストデータを所定の装置に送信して表示させてもよい。例えば、表示制御部16は、図3や図4に示した表示内容を他の装置に送信して表示させることで、確認文のテキストの修正状況や修正内容、さらに会議の進行状況を他の装置の使用者に確認させることができる。
以上のように構成された会議端末10の動作の一例について図1から図5を用いて以下に説明する。図5は、原言語を所定の言語に翻訳するときの処理の流れの一例を示すフローチャートである。ここでは、図1に示した会議端末10Aの動作について説明し、原言語を日本語とし、日本語の発話を英語に翻訳する場合について説明している。
まず、会議端末10Aの使用者の発話による日本語の音声がマイクロホン23から入力される(ステップS1)。例えば、発話時に周囲の雑音が混入してしまうことを防止するため、マイクロホン23のプレストークスイッチが押下(ON)されてから押下が解除される(OFF)までの発話による音声が入力される。
一般的な音声認識エンジンは、起動した直後の発話に処理が追いつけずに、発話の開始部分が抜けて(切れて)しまう事がある。これを防止し翻訳品質を向上する為には、会議が開始された時点で音声認識エンジンを起動しておき、常時アイドリング状態に保っておくことにより、プレストークスイッチがONになった時点から、発話を的確に捉えることが可能となる。また、プレストークスイッチがOFFに切り替わった時点で、発話の入力は中断される。このようにして、プレストークスイッチのON/OFFを操作すれば、一連の連続した会議内容の発話が正確に音声認識される。
音声認識部11は、入力された音声データを音声認識することで日本語(原言語)のテキストデータに変換する(ステップS2)。次に、基本翻訳部12は、音声認識部11によって変換されたテキストデータの日本語(原言語)を翻訳して英語(所定の言語)テキストデータに変換する(ステップS3)。
次に、折返翻訳部15は、基本翻訳部12によって変換された英語のテキストデータで表される言語を翻訳して日本語のテキストデータに変換(折返翻訳)する(ステップS4)。図3に示したように、音声認識部11によって音声認識された日本語のテキストと、基本翻訳部12によって翻訳された英語のテキストと、折返翻訳部15によって変換された確認用の日本語のテキストとを対応させたものが表示制御部16によってディスプレイ25に表示される(ステップS5)。なお、ステップS5と同時に表示制御部16は、図3に示した表示内容のデータを会議端末10Bに送信し、図3に示した表示内容を会議端末10Bに表示させてもよい。
ここで、会議端末10Aの使用者は、図3に示した表示内容から確認文を修正するか否かを決め、確認文の修正を決めた場合、例えば図3の確認文を図4のように修正し、表示内容から確認文を修正しない場合、図3の確定ボタンをクリックする。確定ボタンがクリックされた場合(ステップS6)、表示制御部16は、基本翻訳部12によって出力された列2行2のテキストを音声合成部13に音声合成させるため、処理はステップS9に進む。
会議端末10Aの使用者は、例えば図3の確認文を図4のように修正した後、修正ボタンをクリックし、修正ボタンがクリックされた場合(ステップS6)、編集部17は、使用者が修正した内容を反映させるよう折返翻訳部15が出力したテキストを編集する(ステップS7)。
編集部17がテキストを編集したとき、基本翻訳部12は、編集部17によって編集されたテキストデータを翻訳して再度、英語のテキストデータに変換する(ステップS8)。このとき、表示制御部16は、図4の列2行3のように、修正された日本語のテキストから再度翻訳された英語のテキストを表示させてもよい。
続いて、音声合成部13は、基本翻訳部12によって変換された英語のテキストデータを音声合成して音声データに変換する(ステップS9)。音声データ送信部14は、音声合成部13で変換された音声データを会議端末10Bに送信する(ステップS10)。
以上説明したように、本発明の第1の実施の形態に係る会議端末は、例えば主語や述語が省略された原言語のテキストが所定の言語に翻訳された場合などでも、翻訳されたときのテキストデータで表される言語を折返翻訳して原言語(例えば日本語)のテキストデータに変換し、変換されたテキストデータが編集されたテキストデータを翻訳して所定の言語(例えば英語)のテキストデータに変換するため、音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができる。
(本発明の第2の実施の形態)
図6は、本発明の第2の実施の形態に係る会議システムを表す図である。図6に示した会議システムでは、ネットワークを介して3つの会議端末30が互いに接続されている。以降、会議端末30の各々を区別する場合、会議端末30A、会議端末30B、会議端末30Cとして記載し、区別しない場合、会議端末30として記載する。図6では、会議端末30Aは日本人が使用するものとし、会議端末30Bはアメリカ人が使用するものとし、会議端末30Cはフランス人が使用するものとする。
会議端末30は、パソコンなどである。電子会議を行う際に、ネットワークに接続された会議端末30同士がデータを送受信することができる。例えば、会議端末30は、電子会議中に、参加者(会議端末30の使用者)の発言の言語から対象言語に翻訳し、翻訳した対象言語の内容を他の会議端末30に送信したり、他の会議端末30から受信した発言の音声データを再生することで、異なる言語の間で会議を行うようになっている。
例えば、図6では、会議端末30Aは、日本語の発言内容を英語に翻訳し、翻訳した英語の内容を表す音声データを会議端末30Bに送信する。また、会議端末30Aは、日本語の発言内容を英語に翻訳し、さらに英語からフランス語に翻訳し、翻訳したフランス語の内容を表す音声データを会議端末30Cに送信する。会議端末30Bは、送信された英語の内容を表す音声データを受信し、受信した音声データを再生する。会議端末30Cは、送信されたフランス語の内容を表す音声データを受信し、受信した音声データを再生する。
本発明の実施の形態では、図6に示した会議システムで用いられるデータの送受信は、IP(Internet Protocol)に準拠して行われるため、会議端末30には、IPアドレスが登録されている。なお、本発明の翻訳装置は例示すれば会議端末30であるため、本発明の第2の実施の形態では、会議端末30について説明する。
図7は、本発明の第2の実施の形態に係る会議端末のブロック図である。なお、本発明の第2の実施の形態に係る会議端末を構成する構成要素のうち、本発明の第1の実施の形態に係る会議端末を構成する構成要素と同一の構成要素には同一の符号を付し、それぞれの説明を省略する。
会議端末30は、一般的なコンピュータの構成を有しており、詳細には、図示していないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、およびハードディスク、さらに、ネットワークに接続するためのネットワークインタフェース21、電子会議の参加者の音声を出力するスピーカ22、会議端末10の使用者の音声を入力するマイクロホン23、使用者からの情報を入力するキーボードやマウスなどの入力機器24、情報を表示するディスプレイ25を有している。
また、図7に示すように、会議端末30は、音声認識部11、基本翻訳部12、音声合成部33、音声データ送信部14、折返翻訳部15、表示制御部36、編集部17、音声データ受信部18、およびブリッジ翻訳部39を備えており、例えば、これらの機能部は、CPUが実行するプログラムのモジュールなどで実施されてもよい。
ブリッジ翻訳部39は、基本翻訳部12が変換した所定の言語のテキストデータまたは該テキストデータの基になるデータから所定の言語と異なる言語のテキストデータに変換するようになっている。ここで、ブリッジ翻訳について説明する。英語、ドイツ語、フランス語などヨーロッパの言語の間で行われる機械翻訳については、それぞれの言語の文法などが相当似ているため、単語を入れ替えるだけでも良好な機械翻訳ができる場合がある。日本語からフランス語に翻訳するというような、文法などが似ていない言語間では、開発が進んでいる日本語と英語との間の機械翻訳を介在させて、日本語から一旦英語に翻訳され、英語からフランス語に翻訳されるなど、この場合では英語という中間言語を介在させるブリッジ翻訳という手法がよく採用される。
例えば、ブリッジ翻訳部39は、英語からフランス語に翻訳する場合、本発明の第1の実施の形態で説明したように、基本翻訳部12によって変換された英語のテキストからフランス語に翻訳してフランス語のテキストデータに出力するようになっている。また、ブリッジ翻訳部39は、英語のテキストからフランス語のテキストに変換せず、英語のテキストになる前の基になるデータ(構文情報や形態素情報など)からフランス語のテキストデータに変換するようにしてもよい。
表示制御部36は、図8に示すように、音声認識部11によって音声認識された原文(テキスト)と、基本翻訳部12によって翻訳された翻訳文のテキストと、折返翻訳部15によって変換されたテキストと、ブリッジ翻訳部39によって翻訳された翻訳文のテキストとを対応させたものをディスプレイ25に表示させている。
図8において、列1には音声認識された原文(日本語)が表示され、列2には翻訳された翻訳文(英語)のテキストが表示され、列3にはブリッジ翻訳された翻訳文(フランス語)のテキストが表示され、列4には折返翻訳された翻訳文のテキストが表示されている。図8における各行について、表示制御部36は、例えば、時系列を表すものであり、各テキストが出力された時点毎に1行ずつ進めてテキストを表示するようになっている。
例えば、音声認識部11、基本翻訳部12、折返翻訳部15の順でテキストが出力され、これらのテキストがRAM等に一時的に記憶されているため、表示制御部36は、RAMを介して、図8に示すように音声認識部11によって出力されたテキストを行1に、基本翻訳部12によって出力されたテキストを行2に、折返翻訳部15によって出力されたテキストを行3に表示させる。また、対応関係を明確にするために、表示制御部36は、音声認識部11、基本翻訳部12、折返翻訳部15それぞれが出力したテキストを同じ行に表示させてもよい。確定ボタンおよび修正ボタンについては図3と同様である。
また、本発明の第1の実施の形態で説明したように、修正ボタンをクリックすることで、折返翻訳部15が出力したテキストが編集され、図9の列2行3および列3行3のように、表示制御部36は、修正された日本語のテキストから再度翻訳された英語のテキストおよびブリッジ翻訳部39によって翻訳されたフランス語のテキストを表示させ、それぞれのテキストデータが音声合成されて送信されるようにしてもよい。
また、表示制御部36は、折返翻訳部15によって変換されたテキストデータを所定の装置に送信して表示させてもよい。例えば、表示制御部36は、図8や図9に示した表示内容を他の装置に送信して表示させることで、確認文のテキストの修正状況や修正内容、さらに会議の進行状況を他の装置の使用者に確認させることができる。
音声合成部33は、基本翻訳部12によって変換された所定の言語のテキストデータ、および、ブリッジ翻訳部39によって翻訳された所定の言語と異なる言語のテキストデータを音声合成して音声データに変換するようになっている。例えば、音声合成部33は、英語およびフランス語のテキストデータを音声合成するものであって、英語およびフランス語のテキストデータを口語で表現した音声データに変換するようになっている。
なお、図7では、マイクロホン23と音声データ送信部14とが結線されているように示しているが、これについては後述する。
以上のように構成された会議端末30の動作の一例について図6から図10を用いて以下に説明する。ここでは、図6に示した会議端末30Aの動作について説明している。図10は、原言語を日本語とし、日本語の発話を英語に翻訳し、さらにフランス語に翻訳するときの処理の流れの一例を示すフローチャートである。
図10で示したステップS1〜ステップS4については、本発明の第1の実施の形態に係る会議端末の動作を構成するステップと同一であり、それぞれの説明を省略する。ステップS4の後、図8に示したように、音声認識部11によって音声認識された日本語のテキストと、基本翻訳部12によって翻訳された英語のテキストと、折返翻訳部15によって変換された確認用の日本語のテキストとを対応させたものが表示制御部36によってディスプレイ25に表示される(ステップS20)。なお、ステップS20と同時に表示制御部36は、図8に示した表示内容のデータを会議端末30Bおよび会議端末30Cに送信し、図8に示した表示内容を会議端末30Bおよび会議端末30Cに表示させてもよい。
ここで、会議端末30Aの使用者は、図8に示した表示内容から確認文を修正するか否かを決め、確認文の修正を決めた場合、例えば図8の確認文を図9のように修正し、表示内容から確認文を修正しない場合、図8の確定ボタンをクリックする。確定ボタンがクリックされた場合(ステップS6)、表示制御部36は、基本翻訳部12によって出力された図8の列2行2のテキストを音声合成部13に音声合成させるため、処理はステップS21に進む。
会議端末30Aの使用者は、例えば図8の確認文を図9のように修正した後、修正ボタンをクリックし、修正ボタンがクリックされた場合(ステップS6)、編集部17は、使用者が修正した内容を反映させるよう折返翻訳部15が出力したテキストを編集する(ステップS7)。
編集部17がテキストを編集したとき、基本翻訳部12は、編集部17によって編集されたテキストデータを翻訳して再度、英語のテキストデータに変換する(ステップS8)。このとき、表示制御部36は、図9の列2行3のように、修正された日本語のテキストから再度翻訳された英語のテキストを表示させてもよい。
ブリッジ翻訳部39は、基本翻訳部12によって変換された英語のテキストデータをブリッジ翻訳してフランス語のテキストデータに変換する(ステップS21)。このとき、表示制御部36は、図9の列3行3のように、ブリッジ翻訳部39によってブリッジ翻訳されたフランス語のテキストを表示させてもよい。
続いて、音声合成部33は、基本翻訳部12によって変換された英語のテキストデータ、および、ブリッジ翻訳部39によって翻訳されたフランス語のテキストデータを音声合成して音声データに変換する(ステップS22)。
音声データ送信部14は、音声合成部33によって変換されたそれぞれの音声データを該当する会議端末30に送信する(ステップS23)。例えば、表1に示すような、音声データの送信に用いる宛先アドレスと各言語とを対応させた対応情報がRAMやROMなどに記憶されており、音声データ送信部14は、この対応情報に従って英語やフランス語の音声データを該当する会議端末30に送信する。
Figure 2009122989
なお、本発明の第2の実施の形態では、会議端末30A〜会議端末30Cまでの形態について説明しているが、英語の音声データを受信する会議端末30が追加された場合、表1の対応情報の英語の宛先アドレスには、会議端末30Bのアドレスに加えて、英語の音声データを受信する会議端末30のアドレスが追加される。また、フランス語の音声データを受信する会議端末30が追加された場合、表1の対応情報のフランス語の宛先アドレスには、会議端末30Cのアドレスに加えて、フランス語の音声データを受信する会議端末30のアドレスが追加される。
以上説明したように、本発明の第2の実施の形態に係る会議端末は、例えば主語や述語が省略された原言語のテキストが所定の言語に翻訳された場合などでも、翻訳されたときのテキストデータで表される言語を折返翻訳して原言語(例えば日本語)のテキストデータに変換し、変換されたテキストデータが編集されたテキストデータを翻訳して変換した所定の言語(例えば英語)のテキストデータまたは該テキストデータの基になるデータから、所定の言語と異なる言語(例えばフランス語)のテキストデータにブリッジ翻訳するため、精度の良いブリッジ翻訳が可能となる。
また、本発明の実施の形態に係る会議端末は、図3や図4、または図8や図9に示した表示内容を記録することで、議事録を作成することができ、これらの表示内容を他の装置にも送信するため、他の装置でも議事録を作成することができる。
また、本発明の実施の形態に係る会議システムは、自動翻訳サーバ(ATS)が無い構成としているが、会議端末10や会議端末30を自動翻訳サーバとして、自動翻訳サーバおよびクライアントを有する構成としてもよい。例えばこの場合、自動翻訳サーバとなる会議端末10や会議端末30は、クライアントとなる端末から使用者の発話となる音声データを受信し、受信した音声認識部11で音声認識する。また、表示制御部が表示させる表示内容は、クライアントとなる端末に送信され表示される。
また、基本翻訳部12は、図11に示すように分岐回路で構成されるようにしてもよい。図11に示した分岐回路をもつ基本翻訳部12は、3つのスイッチ(以下、SWという)を有し、SW1は、音声認識部11からの入力を受付けるか、編集部17からの入力を受付けるかを切替えるものであり、SW2は、折返翻訳部15に出力するか、音声合成部33またはブリッジ翻訳部39に出力するかを切替えるものであり、SW3は、図12に示すブリッジ翻訳テーブル40に基づいて、音声合成部33に出力するか、ブリッジ翻訳部39に出力するかの何れかまたは両方に切替えるものである。以降に詳細を説明する。
図6では、会議端末30A、会議端末30B、会議端末30Cを図示していたが、以下の説明では、さらに、日本人が使用する会議端末30D(図示していない)を加えたものとし、ネットワークを介して4つの会議端末30が互いに接続されているものとすることを前提にする。ここでは、図11に示した基本翻訳部12は、会議端末30Aのものであるとする。
まず、音声認識部11から日本語(原言語)のテキストデータが基本翻訳部12に入力されている際には、SW1が音声認識部11側に接続され、SW2が折返翻訳部15側に接続される。このような接続で基本翻訳部12は、上述したように基本翻訳の処理を行う。また、編集部17によって編集されたテキストデータが基本翻訳部12に入力されている際には、SW1が編集部17側に接続され、SW2がSW3側に接続される。このような接続でも基本翻訳部12は、基本翻訳の処理を行う。
SW2がSW3側に接続されているとき、基本翻訳部12は、図12に示すブリッジ翻訳テーブル40に基づいてSW3の切り替え処理を行う。
例えば、会議端末30Aを使用する日本人および会議端末30Bを使用するアメリカ人が電子会議に参加する場合、基本翻訳部12は、ブリッジ翻訳テーブル40に従って、SW3の端子Eと端子Oとを接続することで、基本翻訳されたテキストデータを音声合成部33に出力する。
また、会議端末30Aを使用する日本人および会議端末30Cを使用するフランス人が電子会議に参加する場合、基本翻訳部12は、ブリッジ翻訳テーブル40に従って、SW3の端子Eと端子Fとを接続することで、基本翻訳されたテキストデータをブリッジ翻訳部39に出力する。
また、会議端末30Aを使用する日本人、会議端末30Bを使用するアメリカ人、および会議端末30Cを使用するフランス人が電子会議に参加する場合、基本翻訳部12は、ブリッジ翻訳テーブル40に従って、端子Eと端子Oとを接続かつ端子Eと端子Fとを接続することで、基本翻訳されたテキストデータが、端子Oを介して音声合成部33に出力されると共に、端子Fを介してブリッジ翻訳部39に出力されてからブリッジ翻訳されたものが音声合成部33に出力される。
上述のように、SW3の切り替えにより、音声合成部33は、英語、フランス語のテキストデータを口語で表現した音声データに変換し、音声データ送信部14は、変換された音声データを該当する会議端末30に送信する。
ところで、音声合成部33は、例えば、英語、フランス語のテキストデータを口語で表現した音声データに変換するとしたが、これらに加えて日本語のテキストデータを口語で表現した音声データに変換するものとする。また、図7では、マイクロホン23と音声データ送信部14とが結線されているように示しているが、表2の対応情報に示すような、音声データの送信に用いる宛先アドレスと各言語とを対応させた対応情報がRAMやROMなどに記憶されており、音声データ送信部14は、表2の対応情報に従って音声データを該当する会議端末30に送信する。

Figure 2009122989
このため、音声データ送信部14は、マイクロホン23から出力された音声データを会議端末30Dに送信する。表2の対応情報において、マイクロホン23から出力された音声データを送信する端末のアドレスは、原言語を用いる参加者のアドレスが設定されているのが好ましい。
また、表2の対応情報において、音声合成部33から出力される英語のテキストデータを送信する端末のアドレスは、英語を用いる参加者の端末のアドレスが設定されているのが好ましく、フランス語のテキストデータを送信する端末のアドレスは、フランス語を用いる参加者の端末のアドレスが設定されているのが好ましく、日本語のテキストデータを送信する端末のアドレスは、日本語を用いる参加者の端末のアドレスが設定されているのが好ましい。なお、表2の対応情報のそれぞれの欄に1つのアドレスが設定されているが、複数のアドレスが設定されてもよい。
マイクロホン23から出力された音声データは、音声データ送信部14および音声認識部11に出力され、音声データ送信部14に出力されたものは、表2の対応情報に従って一旦会議端末30Dに送信され、音声認識部11に出力されたものは、基本翻訳部12、折返翻訳部15、および編集部17などを経由する。ここで、会議端末30Aを使用する日本人および会議端末30Dを使用する日本人が電子会議に参加する場合、基本翻訳部12は、ブリッジ翻訳テーブル40に従って、SW3の端子Jと端子Oとを接続することで、編集部17から出力された日本語のテキストデータを音声合成部33に出力する。この場合、音声合成部33は、日本語のテキストデータを口語で表現した音声データに変換し、音声データ送信部14は、変換された音声データを表2の対応情報に従って会議端末30Dに送信する。
以上のように、会議端末30Dの参加者(原言語と同じ言語を用いる参加者)は、最初に、マイクロホン23から直に出力された音声データの音声を聞き、さらに、折返翻訳部15および編集部17などを経由した音声データの音声を聞くため、同じような内容の音声を2度聞くことになる。従って、最初の発言内容が不明確な音声でも、次に、明確になった内容の音声を聞けるため、発言内容を確実に理解できる。また、表示制御部36は、折返翻訳部15によって変換されたテキストデータを所定の装置に送信して表示させることができるため、この機能と合わせて使えば完全に発言内容を理解させることができる。
また、会議端末30Aを使用する日本人、会議端末30Bを使用するアメリカ人、および会議端末30Cを使用するフランス人、および、会議端末30Dを使用する日本人が電子会議に参加する場合、基本翻訳部12は、ブリッジ翻訳テーブル40に従って、SW3の端子Eと端子Oとを接続、かつ端子Eと端子Fとを接続、かつ端子Jと端子Oとを接続することで、基本翻訳されたテキストデータが、端子Oを介して音声合成部33に出力されると共に、端子Fを介してブリッジ翻訳部39に出力されてからブリッジ翻訳されたものが音声合成部33に出力され、さらに、編集部17から出力された日本語のテキストデータが音声合成部33に出力される。音声合成部33は、英語、フランス語、日本語のテキストデータを口語で表現した音声データに変換し、音声データ送信部14は、変換された音声データを該当する会議端末30に送信する。
なお、現状の水準における音声合成エンジンは、複数の言語を同時に音声合成しても致命的な遅延は発生しない程度の性能を有しているため、音声データ送信部14は、該当するそれぞれの会議端末30に音声データを略同時に送信することができる。従って、それぞれの会議端末30の参加者が音声データの内容を遅延なく聞くことができる。
以下、下記に付記を示す。
(付記1)
話者が発言したときの原言語の音声データをテキストデータに変換する音声認識部と、
前記テキストデータで表される原言語を翻訳して所定の言語のテキストデータに変換する基本翻訳部と、
前記基本翻訳部によって変換された所定の言語のテキストデータを音声合成して音声データに変換する音声合成部と、
前記音声合成部によって変換された音声データを所定の装置に送信する音声データ送信部と、
前記基本翻訳部によって変換された所定の言語のテキストデータで表される言語を翻訳して前記原言語のテキストデータに変換する折返翻訳部と、
前記折返翻訳部によって変換されたテキストデータを編集する編集部とを備え、
前記基本翻訳部は、前記編集部によって編集されたテキストデータを翻訳して前記所定の言語のテキストデータに変換することを特徴とする翻訳装置。
(付記2)
前記基本翻訳部が変換した前記所定の言語のテキストデータまたは該テキストデータの基になるデータから前記所定の言語と異なる言語のテキストデータに変換するブリッジ翻訳部を備え、
前記音声合成部は、前記ブリッジ翻訳部によって変換された前記異なる言語のテキストデータを音声合成して音声データに変換し、
前記音声データ送信部は、前記音声合成部によって変換された音声データを所定の装置に送信することを特徴とする付記1に記載の翻訳装置。
(付記3)
前記折返翻訳部によって変換されたテキストデータを表示させる表示制御部を備え、
前記表示制御部は、前記折返翻訳部によって変換された原言語のテキストデータを前記所定の装置に送信して表示させることを特徴とする付記1または付記2に記載の翻訳装置。
(付記4)
前記折返翻訳部は、前記編集部が前記折返翻訳部によって変換されたテキストデータを編集した内容から、前記話者の言い回しを学習し、学習した結果を反映させて前記原言語のテキストデータに変換することを特徴とする付記1から付記3までの何れかに記載の翻訳装置。
以上のように、本発明は、音声による発話の内容から音声認識されたテキストデータを正確に翻訳することができるという効果を有し、電子会議用のパソコンなどに有用である。具体的には下記の用途などに有用である。
1.国際姉妹都市間でのインタラクティブビジュアルコミュニケーション交流の場面
2.学校における国際交流の場面(特に小学生、中学生、高校生など)
3.一般企業を含む国際Web会議システム(多国籍間でのソフトウエア開発打ち合わせ)
4.インターネット放送からの情報収集
5.海外の株式市況からの最新情報の入手(個人株取引の参考に)
6.議事録原稿の自動作成(マルチ言語での議事録作成に威力を発揮します)
7.国際コンタクトセンター(在宅勤務を前提にしています)での24時間、365日受付業務(多国籍対応)
8.同時通訳者の補助ツール
本発明の第1の実施の形態に係る会議システムを表す図 本発明の第1の実施の形態に係る会議端末のブロック図 原文、翻訳文、折返翻訳された確認文のテキストを対応させた表示のイメージ図 図3に表示された確認文を修正したときのイメージ図 原言語を所定の言語に翻訳するときの処理の流れの一例を示すフローチャート 本発明の第2の実施の形態に係る会議システムを表す図 本発明の第2の実施の形態に係る会議端末のブロック図 原文、翻訳文、折返翻訳された確認文のテキストを対応させた表示のイメージ図 図8に表示された確認文を修正したときのイメージ図 原言語を所定の言語に翻訳してさらにブリッジ翻訳するときの処理の流れの一例を示すフローチャート 3つのスイッチをもつ基本翻訳部の構成を示す図 ブリッジ翻訳テーブルを示す図
符号の説明
10、30 会議端末
11 音声認識部
12 基本翻訳部
13、33 音声合成部
14 音声データ送信部
15 折返翻訳部
16、36 表示制御部
17 編集部
18 音声データ受信部
21 ネットワークインタフェース
22 スピーカ
23 マイクロホン
24 入力機器
25 ディスプレイ
39 ブリッジ翻訳部
40 ブリッジ翻訳テーブル

Claims (1)

  1. 話者が発言したときの原言語の音声データをテキストデータに変換する音声認識部と、
    前記テキストデータで表される原言語を翻訳して所定の言語のテキストデータに変換する基本翻訳部と、
    前記基本翻訳部によって変換された所定の言語のテキストデータを音声合成して音声データに変換する音声合成部と、
    前記音声合成部によって変換された音声データを所定の装置に送信する音声データ送信部と、
    前記基本翻訳部によって変換された所定の言語のテキストデータで表される言語を翻訳して前記原言語のテキストデータに変換する折返翻訳部と、
    前記折返翻訳部によって変換されたテキストデータを編集する編集部とを備え、
    前記基本翻訳部は、前記編集部によって編集されたテキストデータを翻訳して前記所定の言語のテキストデータに変換することを特徴とする翻訳装置。
JP2007296671A 2007-11-15 2007-11-15 翻訳装置 Pending JP2009122989A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007296671A JP2009122989A (ja) 2007-11-15 2007-11-15 翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007296671A JP2009122989A (ja) 2007-11-15 2007-11-15 翻訳装置

Publications (1)

Publication Number Publication Date
JP2009122989A true JP2009122989A (ja) 2009-06-04

Family

ID=40815072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007296671A Pending JP2009122989A (ja) 2007-11-15 2007-11-15 翻訳装置

Country Status (1)

Country Link
JP (1) JP2009122989A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069600A (ja) * 2013-09-30 2015-04-13 株式会社東芝 音声翻訳システム、方法およびプログラム
JP2019020950A (ja) * 2017-07-14 2019-02-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 翻訳方法、翻訳装置及び翻訳プログラム
CN111680525A (zh) * 2020-06-09 2020-09-18 语联网(武汉)信息技术有限公司 基于逆向差异识别的人机共译方法与系统
CN113657122A (zh) * 2021-09-07 2021-11-16 内蒙古工业大学 一种融合迁移学习的伪平行语料库的蒙汉机器翻译方法
JP2022105982A (ja) * 2021-01-05 2022-07-15 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 話者分離基盤の自動通訳方法、話者分離基盤の自動通訳サービスを提供するユーザ端末、及び、話者分離基盤の自動通訳サービス提供システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61282969A (ja) * 1985-06-10 1986-12-13 Matsushita Electric Ind Co Ltd 言語翻訳装置
JPH03282776A (ja) * 1990-03-30 1991-12-12 Nec Corp 文書処理方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61282969A (ja) * 1985-06-10 1986-12-13 Matsushita Electric Ind Co Ltd 言語翻訳装置
JPH03282776A (ja) * 1990-03-30 1991-12-12 Nec Corp 文書処理方式

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069600A (ja) * 2013-09-30 2015-04-13 株式会社東芝 音声翻訳システム、方法およびプログラム
JP2019020950A (ja) * 2017-07-14 2019-02-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 翻訳方法、翻訳装置及び翻訳プログラム
JP7030434B2 (ja) 2017-07-14 2022-03-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 翻訳方法、翻訳装置及び翻訳プログラム
CN111680525A (zh) * 2020-06-09 2020-09-18 语联网(武汉)信息技术有限公司 基于逆向差异识别的人机共译方法与系统
CN111680525B (zh) * 2020-06-09 2024-03-26 语联网(武汉)信息技术有限公司 基于逆向差异识别的人机共译方法与系统
JP2022105982A (ja) * 2021-01-05 2022-07-15 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 話者分離基盤の自動通訳方法、話者分離基盤の自動通訳サービスを提供するユーザ端末、及び、話者分離基盤の自動通訳サービス提供システム
JP7333371B2 (ja) 2021-01-05 2023-08-24 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 話者分離基盤の自動通訳方法、話者分離基盤の自動通訳サービスを提供するユーザ端末、及び、話者分離基盤の自動通訳サービス提供システム
CN113657122A (zh) * 2021-09-07 2021-11-16 内蒙古工业大学 一种融合迁移学习的伪平行语料库的蒙汉机器翻译方法
CN113657122B (zh) * 2021-09-07 2023-12-15 内蒙古工业大学 一种融合迁移学习的伪平行语料库的蒙汉机器翻译方法

Similar Documents

Publication Publication Date Title
US10885318B2 (en) Performing artificial intelligence sign language translation services in a video relay service environment
JP4466666B2 (ja) 議事録作成方法、その装置及びそのプログラム
US7519536B2 (en) System and method for providing network coordinated conversational services
US6618704B2 (en) System and method of teleconferencing with the deaf or hearing-impaired
US7092496B1 (en) Method and apparatus for processing information signals based on content
US7593842B2 (en) Device and method for translating language
US20120004910A1 (en) System and method for speech processing and speech to text
US20030115059A1 (en) Real time translator and method of performing real time translation of a plurality of spoken languages
WO2019111346A1 (ja) 双方向音声翻訳システム、双方向音声翻訳方法及びプログラム
US20050232166A1 (en) Mixed mode conferencing
US20100268534A1 (en) Transcription, archiving and threading of voice communications
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
JP2005513619A (ja) リアルタイム翻訳機および多数の口語言語のリアルタイム翻訳を行う方法
US20110307242A1 (en) Method for realtime spoken natural language translation and apparatus therefor
EP1125279A1 (en) System and method for providing network coordinated conversational services
US20020198716A1 (en) System and method of improved communication
US20190121860A1 (en) Conference And Call Center Speech To Text Machine Translation Engine
JP2009122989A (ja) 翻訳装置
JPH10136327A (ja) ディスクトップ会議システム
TW200304638A (en) Network-accessible speaker-dependent voice models of multiple persons
CN111554280A (zh) 对利用人工智能的翻译内容和口译专家的口译内容进行混合的实时口译服务系统
US6501751B1 (en) Voice communication with simulated speech data
JP2008066866A (ja) 電話システムと通話補助方法とプログラム
US11848026B2 (en) Performing artificial intelligence sign language translation services in a video relay service environment
JP7055327B2 (ja) 会話収集装置、会話収集システム及び会話収集方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329