JP2020086977A - 翻訳装置 - Google Patents

翻訳装置 Download PDF

Info

Publication number
JP2020086977A
JP2020086977A JP2018220803A JP2018220803A JP2020086977A JP 2020086977 A JP2020086977 A JP 2020086977A JP 2018220803 A JP2018220803 A JP 2018220803A JP 2018220803 A JP2018220803 A JP 2018220803A JP 2020086977 A JP2020086977 A JP 2020086977A
Authority
JP
Japan
Prior art keywords
translation
voice
data
display
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018220803A
Other languages
English (en)
Inventor
中村 洋一
Yoichi Nakamura
洋一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Plus Corp
Original Assignee
Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Plus Corp filed Critical Plus Corp
Priority to JP2018220803A priority Critical patent/JP2020086977A/ja
Publication of JP2020086977A publication Critical patent/JP2020086977A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】異なる言語を使用する2者間のコミュニケーションを円滑に補助することができる翻訳装置を提供する。【解決手段】翻訳装置HSは、第1利用者の音声から音声データを取得する音声データ取得手段と、音声データ取得手段により取得された音声データを翻訳前文字データに変換する音声認識手段と、音声認識手段により変換された翻訳前文字データを翻訳後文字データに翻訳する翻訳手段と、一方側に配置されたディスプレイには、音声認識手段により変換した翻訳前文字データに基づいて翻訳前文字を表示する第1表示手段と、他方側に配置されたディスプレイには、翻訳手段により翻訳された翻訳後文字データに基づいて翻訳後文字を表示する第2表示手段と、を備える。【選択図】図2

Description

本発明は、コミュニケーションを補助するための翻訳装置およびプログラムに関する。
従来から互いに異なる言語を使用する2者間のコミュニケーションを補助するための翻訳装置は知られている。例えば、特許文献1には、お互いに異なる言語を使用する2者の間に配置される翻訳装置が開示されている。
この翻訳装置は、第1利用者が話した音声をマイクで拾い、音声データを生成後、翻訳装置の姿勢に変化があった場合に、音声データから第2利用者の言語へ翻訳を行う。
特開2008−085091号公報
しかしながら、特許文献1の翻訳装置を使用する場合、翻訳の処理に時間を要するためワンテンポの間が空いてしまうことから、第1利用者が先ほど話していた内容を忘れてしまい、第2利用者からの返答に対して、第1利用者自身が問いかけた質問を思い出せずコミュニケーションが成り立たなくなる等、阻害される可能性があった。
本発明は、異なる言語を使用する2者間のコミュニケーションを円滑に補助することができる翻訳装置を提供する事を目的とする。
上記目的を達成するために、請求項1に記載の発明に係る翻訳装置は、第1利用者の音声から音声データを取得する音声データ取得手段と、音声データ取得手段により取得された音声データを翻訳前文字データに変換する音声認識手段と、音声認識手段により変換された翻訳前文字データを翻訳後文字データに翻訳する翻訳手段と、一方側に配置されたディスプレイには、音声認識手段により変換した翻訳前文字データに基づいて翻訳前文字を表示する第1表示手段と、他方側に配置されたディスプレイには、翻訳手段により翻訳された翻訳後文字データに基づいて翻訳後文字を表示する第2表示手段と、を備える。
請求項2に記載の発明に係る翻訳装置において、前記第1表示手段は、前記翻訳前文字に加えて、翻訳後文字データに基づいて翻訳後文字を表示する。
請求項3に記載の発明に係る翻訳装置において、前記第2表示手段は、前記翻訳後文字に加えて、翻訳前文字データに基づいて翻訳前文字を表示する。
請求項4に記載の発明に係る翻訳装置において、前記音声データ取得手段は、前記一方側に配置されたディスプレイおよび前記他方側に配置されたディスプレイの近傍に各々備えられ、各々の前記音声データ取得手段にて取得した音声データのうち、最も速く取得した音声データを翻訳対象と特定する音声データ抽出手段を備える。
請求項5に記載の発明に係る翻訳装置において、前記音声データ取得手段は、前記一方側に配置されたディスプレイおよび前記他方側に配置されたディスプレイの近傍に各々備えられ、各々の前記音声データ取得手段にて取得した音声データのうち、最も振幅の大きい音声データを翻訳対象と特定する音声データ抽出手段を備える。
本発明によれば、異なる言語を使用する2者間のコミュニケーションを円滑に補助することができる。
本発明の実施形態に係る翻訳装置1の全体形状を示す図である。 本実施形態に係る翻訳装置1の全体構成を示すブロック図である。 本実施形態に係る翻訳装置1において、音声データが翻訳される処理と、ディスプレイに翻訳された文字が表示される処理とを示すフロー図である。
[実施形態]
本発明の実施形態に係る翻訳装置について、図面を参照して説明する。翻訳装置を説明するために、図1の上方向を「上」及び下方向を「下」と、左方向を「左」及び右方向を「右」と、紙面から向こう側を「裏」及び紙面から手前側を「表」と、表現して説明する。
図1に示すように、翻訳装置HSは、図示した表側に第1操作部11と、第1マイク21と、第1ディスプレイ32と、を備え、図示しない裏側に第2操作部41と、第2マイク51と、第2ディスプレイ62と、を備える。翻訳装置HSは、小型であり、持ち運びが可能な装置である。異なる言語を話す2者の間に、翻訳装置HSを置き、第1利用者は表側の第1操作部11と、第1マイク21と、第1ディスプレイ32と、を使用し、第2利用者は、裏側の第2操作部41と、第2マイク51と、第2ディスプレイ62と、を使用する。
図2は、本実施形態の翻訳装置1の全体構成を示すブロック図である。図2に示すように翻訳装置HSは、第1操作部11と、第1操作処理部12と、第1マイク21と、第1音声処理部22と、CPU23と、RAM24と、ROM25と、音声認識部26と、翻訳処理部27と、第1画像処理部31と、第1ディスプレイ32と、第2操作部41と、第2操作処理部42と、第2マイク51と、第2音声処理部52と、第2画像処理部61と、第2ディスプレイ62と、を備える。
第1操作部11は、翻訳装置HSの表側に備えられる。第1操作部11は、言語を選択するためのボタン、電源スイッチを備える。言語を選択するボタンは、第1利用者が日常使用している言語を選択するために第1利用者によって操作される。
第1操作処理部12は、第1利用者が第1操作部11を操作したときに、第1操作部11の操作位置に応じた操作データを生成し、CPU23へ出力する。
第1マイク21は、第1利用者が話した音声を拾うため、ディスプレイよりも表側に備えられる。第1マイク21は、第1利用者が話した音声を第1音声処理部22に出力する。
第1音声処理部22は、第1マイク21から入力された音声に基づいて第1利用者の音声を示す音声データを生成し、第1音声処理部で生成したことを示す識別コードを音声データに紐づけしてCPU23へ出力する。
CPU23は、ROM25に予め記憶された各種プログラムに基づいてデータを処理する。CPU23は、第1操作処理部12から入力された操作データまたは第1音声処理部22から入力された音声データを各種プログラムに基づき処理し、音声認識部26、翻訳処理部27、第1画像処理部31および第2画像処理部32に各種処理を指令する。
RAM24は、CPU23で処理したデータを一時的に記憶する。RAM24は、第1記憶領域と第2記憶領域と第3記憶領域と第4記憶領域とを備える。
ROM25は、各種プログラム、データベース、およびモデルを記憶する。
各種プログラムは、翻訳装置HSの基本的な処理を行うためのオペレーティングシステムプログラム、音声認識の処理を行うためのプログラム、翻訳処理を行うためのプログラムである。
データベースは、音声認識処理および翻訳処理に必要となる各種コーパスである。具体的に各種コーパスは、日本語と英語との間で翻訳を行う場合には、日本語音声コーパス、日本語文字コーパス、日本語辞書、英語文字コーパス、英語辞書等である。日本語と英語以外の言語との間で翻訳を行う場合には、上記に加えて英語以外の言語文字コーパス、英語以外の言語辞書等が必要となる。
モデルは、音声認識に使用する音響モデル、言語モデル等である。
音声認識部26は、CPU23の指令に従いRAM24の第2記憶領域から読み出した音声データを文字データに変換し、文字データを翻訳前文字データとしてRAM24の第3記憶領域に記憶する。
翻訳処理部27は、CPU23の指令に従いRAM24の第3記憶領域に記憶された翻訳前文字データを読み出し、翻訳を行い、翻訳後文字データを生成する。翻訳処理部27は、翻訳後文字データをRAM24の第4記憶領域に記憶する。
第1画像処理31は、CPU23の指令に従いRAM24の第3記憶領域から翻訳前文字データを読み出し、翻訳前文字データを文字に変換して第1ディスプレイ32に出力する。
第1ディスプレイ32は、第1画像処理部31から入力された文字を表示する。
第2操作部41、第2操作処理部42、第2マイク51、および第2音声処理部52は、上述した第1処理部11、第1操作処理部12、第1マイク21、第1音声処理部22と同じ機構であり、同じ処理を行うため説明を省略する。
第2画像処理部61は、CPU23の指令に従いRAM24の第4記憶領域から翻訳後文字データを読み出し、翻訳後文字データを文字に変換して第2ディスプレイ62に出力する。
第2ディスプレイ62は、第2画像処理部61から入力された文字を表示する。
<本実施形態の動作および作用>
本実施形態の動作および作用について、図3を参照して説明する。図3に示すステップS01からステップS08までの処理は、CPU23の処理を示す。
操作データが取得されたか否かが判断される(ステップS01)。具体的には、第1利用者および第2利用者が言語を選択するために第1操作部11および第2操作部41が操作されると、各々の言語を示す操作データが第1操作処理部12および第2操作処理部42で生成され、RAM24の第1記憶領域に記憶されたか否かが判断される。操作データが取得されたと判断される場合(ステップS01:YES)、処理がステップS02に進められる。操作データが取得されていないと判断された場合(ステップS01:NO)、ステップS01の処理が繰り返される。
所定時間を超えたか否かが判断される(ステップS02)。具体的には、ブロック部には図示しないタイマーにより、操作データが取得された時から現時点までの時間を計測し、時間を示す時間データと、第1利用者または第2利用者によって予め設定された所定時間とを、比較し、所定時間を超えたか否かが判断される。所定時間を超えたと判断される場合(ステップS02:YES)、ステップS01の処理が繰り返される。所定時間を超えていないと判断される場合(ステップS02:NO)、処理がステップS03に進められる。
音声データが取得されたか否かが判断される(ステップS03)。具体的には、第1利用者および第2利用者のうち、どちらか一方が話し始め、第1マイク21および第2マイク51のうち、少なくともどちらか一方のマイクで音声が拾われる。第1音声処理部22および第2音声処理部52のうち、少なくともどちらか一方で音声から音声データが生成され、RAM24の第2記憶領域に音声データとタイマーにより計測した時間を示す時間データと識別コードとが紐づけされて記憶されたか否かが判断される。音声データが取得されたと判断された場合(ステップS03:YES)、処理がステップS04に進められる。音声データが取得されていないと判断された場合(ステップS03:NO)、ステップS02の処理が繰り返される。以下の動作および作用の説明においては、第1利用者を話し手および第2利用者を聞き手と仮定して説明を行う。
音声データが複数あるか否かが判断される(ステップS04)。具体的には、RAM24の第2記憶領域に記憶された第1利用者の音声を示す音声データが読み出され、音声データが第1音声処理部22および第2音声処理部52によりそれぞれ取得されたか否かが判断される。第1音声処理部22および第2音声処理部52のそれぞれで音声データが取得されたと判断される場合(ステップS04:YES)、それぞれの音声データがRAM24の第2記憶領域に記憶され、処理がステップS05に進められる。第1音声処理部22および第2音声処理部52のうち、どちらか一方でのみ音声データが取得されたと判断される場合(ステップS04:NO)、音声データがRAM24の第2記憶領域に記憶され、処理がステップS06に進められる。
音声データが抽出される(ステップS05)。具体的には、RAM24の第2記憶領域に記憶された各々の音声データと各々の音声データに紐づけされた時間データが読み出され、各々の音声データに紐づけされた時間データのうち一番早い時間データに紐づけされた音声データが抽出される。他の音声データが消去され、一番早い時間データに紐づけされた音声データのみがRAM24の第2記憶領域に記憶される。
音声データが文字データに変換される(ステップS06)。具体的には、RAM24の第2記憶領域に記憶された音声データと音声データに紐づけされた識別コードとが読み出され、ROM25に記憶された音声認識の処理を行うためのプログラムと、日本語等の音声コーパス等のデータベースと、音響モデルおよび言語モデル等のモデルとが、読み出される。音声データが文字データに変換され、文字データが翻訳前文字データとして、識別コードと紐づけされてRAM24の第3記憶領域に記憶される。
文字データが翻訳される(ステップS07)。具体的には、RAM24の第3記憶領域に記憶された翻訳前文字データが読み出され、複製され、一方の翻訳前文字データがRAM24の第3記憶領域に記憶される。また、RAM24の第1記憶領域に記憶された言語を示す操作データが読み出される。ROM25に記憶された翻訳処理を行うためのプログラムと、日本語音声コーパスと、日本語文字コーパスと、日本語辞書とが読み出され、操作データに関連される文字コーパスと、辞書等とが、読み出される。他方の翻訳前文字データが示す翻訳前文字を構成する単語に対応した翻訳後の単語を示す単語データが抽出され、文法に従って並び替えて自然な句、節、文等へと変換されることにより他方の翻訳前文字データから翻訳後文字データへ翻訳が行われ、翻訳後文字データがRAM24の第4記憶領域に記憶される。
翻訳前文字データおよび翻訳後文字データがそれぞれ文字に変換されディスプレイに表示される(ステップS08)。RAM24の第3記憶領域に記憶された翻訳前文字データと識別コードとが読み出され、識別コードにより話し手利用者側のディスプレイを特定し、第1画像処理部31により翻訳前文字データが翻訳前文字に変換され、翻訳前文字が第1ディスプレイ32に表示される。また、RAM24の第4記憶領域に記憶された翻訳後文字データが読み出され、第2画像処理部61により翻訳後文字データが翻訳後文字に変換され、翻訳後文字が第2ディスプレイ62に表示される。
<本実施形態の効果>
本実施形態によれば、話し手側の利用者は、話した音声がディスプレイにより文字として表示されるため、目視にて確認できる。このため、翻訳処理によりワンテンポの間ができても、話し手側の利用者は何を話したのか、何を質問したのか忘れることなく、円滑にコミュニケーションを行うことができる。
翻訳装置HSは、小型の装置であるため、話し手利用者が話した音声が、話し手利用者側のマイクのみならず、聞き手利用者側のマイクにも音声が拾われ、翻訳後文字をどちらのディスプレイに表示すべきか正確に判断することができない。このため本実施形態では、翻訳装置HSに音声データ抽出手段を備えることにより、聞き手利用者側のマイクに音声データが取得されたとしても、話し手利用者側のマイクの音声を示す音声データのみが抽出されるため、翻訳を必要とする聞き手利用者側のディスプレイに翻訳後文字を表示させることができる。
本発明の実施形態について以上説明したが、本発明の趣旨を逸脱しない範囲において、当業者であれば種々の変更を加える事ができる。
(変形例1)
本実施形態において、音声データ抽出手段は、一番早い時間データに紐づけされた音声データを抽出する。この実施形態に代えて、音声データ抽出手段は、話し手の利用者に近いマイクに拾われた音声は、遠いマイクで拾われた音声に比べて大きいことから、音声データの振幅をそれぞれ比較し、最も大きい振幅の音声データを抽出してもよい。
本実施形態において、第1利用者が話し手と仮定した場合、第1表示手段は、第1ディスプレイに翻訳前文字を表示し、第2表示手段は、第2ディスプレイに翻訳後文字を表示する。この実施形態に代えて、第1表示手段は、第1ディスプレイに翻訳前文字を大きなフォントで、翻訳後文字を小さなフォントで表示し、第2表示手段は、第2ディスプレイに翻訳後文字を大きなフォントで、翻訳前文字を小さなフォントで表示してもよい。
HS・・・翻訳装置
11・・・第1操作部
12・・・第1操作処理部
21・・・第1マイク
22・・・第1音声処理部
23・・・CPU
24・・・RAM
25・・・ROM
26・・・音声認識部
27・・・翻訳処理部
31・・・第1画像処理部
32・・・第1ディスプレイ
41・・・第2操作部
42・・・第2操作処理部
51・・・第2マイク
52・・・第2音声処理部
61・・・第2画像処理部
62・・・第2ディスプレイ

Claims (5)

  1. 第1利用者の音声から音声データを取得する音声データ取得手段と、
    音声データ取得手段により取得された音声データを翻訳前文字データに変換する音声認識手段と、
    音声認識手段により変換された翻訳前文字データを翻訳後文字データに翻訳する翻訳手段と、
    一方側に配置されたディスプレイには、音声認識手段により変換した翻訳前文字データに基づいて翻訳前文字を表示する第1表示手段と、
    他方側に配置されたディスプレイには、翻訳手段により翻訳された翻訳後文字データに基づいて翻訳後文字を表示する第2表示手段と、を備えた翻訳装置。
  2. 前記第1表示手段は、前記翻訳前文字に加えて、翻訳後文字データに基づいて翻訳後文字を表示する請求項1に記載の翻訳装置。
  3. 前記第2表示手段は、前記翻訳後文字に加えて、翻訳前文字データに基づいて翻訳前文字を表示する請求項1に記載の翻訳装置。
  4. 前記音声データ取得手段は、前記一方側に配置されたディスプレイおよび前記他方側に配置されたディスプレイの近傍に各々備えられ、各々の前記音声データ取得手段にて取得した音声データのうち、最も速く取得した音声データを翻訳対象と特定する音声データ抽出手段を備えた請求項1乃至請求項3に記載の翻訳装置。
  5. 前記音声データ取得手段は、前記一方側に配置されたディスプレイおよび前記他方側に配置されたディスプレイの近傍に各々備えられ、各々の前記音声データ取得手段にて取得した音声データのうち、最も振幅の大きい音声データを翻訳対象と特定する音声データ抽出手段を備えた請求項1乃至請求項3に記載の翻訳装置。
JP2018220803A 2018-11-27 2018-11-27 翻訳装置 Pending JP2020086977A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220803A JP2020086977A (ja) 2018-11-27 2018-11-27 翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220803A JP2020086977A (ja) 2018-11-27 2018-11-27 翻訳装置

Publications (1)

Publication Number Publication Date
JP2020086977A true JP2020086977A (ja) 2020-06-04

Family

ID=70908254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220803A Pending JP2020086977A (ja) 2018-11-27 2018-11-27 翻訳装置

Country Status (1)

Country Link
JP (1) JP2020086977A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112888224A (zh) * 2021-02-06 2021-06-01 江苏电子信息职业学院 一种便携式英语翻译设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6160123A (ja) * 1984-08-31 1986-03-27 Nec Corp 多言語間音声会議システム
JPH08278972A (ja) * 1995-04-06 1996-10-22 Sony Corp 音声入力翻訳装置
JP2003223188A (ja) * 2002-01-29 2003-08-08 Toshiba Corp 音声入力システム、音声入力方法及び音声入力プログラム
JP2005222136A (ja) * 2004-02-03 2005-08-18 Seiko Epson Corp 会話型翻訳装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6160123A (ja) * 1984-08-31 1986-03-27 Nec Corp 多言語間音声会議システム
JPH08278972A (ja) * 1995-04-06 1996-10-22 Sony Corp 音声入力翻訳装置
JP2003223188A (ja) * 2002-01-29 2003-08-08 Toshiba Corp 音声入力システム、音声入力方法及び音声入力プログラム
JP2005222136A (ja) * 2004-02-03 2005-08-18 Seiko Epson Corp 会話型翻訳装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112888224A (zh) * 2021-02-06 2021-06-01 江苏电子信息职业学院 一种便携式英语翻译设备

Similar Documents

Publication Publication Date Title
JP4786384B2 (ja) 音声処理装置、音声処理方法および音声処理プログラム
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
US8560326B2 (en) Voice prompts for use in speech-to-speech translation system
RU2653283C2 (ru) Способ диалога между машиной, такой как гуманоидный робот, и собеседником-человеком, компьютерный программный продукт и гуманоидный робот для осуществления такого способа
CN108431883B (zh) 语言学习系统以及语言学习程序
US20050131673A1 (en) Speech translation device and computer readable medium
US10613826B2 (en) Head-mounted display system and operating method for head-mounted display device
KR101836430B1 (ko) 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버
JP2008309856A (ja) 音声認識装置及び会議システム
KR20050103196A (ko) 음소 발성을 위한 장치 및 방법과, 이러한 장치에서의사용을 위한 키보드
JP2010282058A (ja) 外国語学習補助方法及び装置
JP2016521383A (ja) 少なくとも一つの意味論的単位の集合を改善するための方法、装置およびコンピュータ読み取り可能な記録媒体
KR20150065523A (ko) 상담 정보를 이용하여 상담 대화를 제공하는 방법 및 장치
US10269349B2 (en) Voice interactive device and voice interaction method
US10671814B2 (en) Translation device and program recording medium
JP2020086977A (ja) 翻訳装置
JP6723907B2 (ja) 言語認識システム、言語認識方法、及び言語認識プログラム
KR102557092B1 (ko) 투명 디스플레이를 이용한 자동 통번역 및 대화 보조 시스템
KR20150014235A (ko) 자동 통역 장치 및 방법
JP2016156993A (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体
JP2007233249A (ja) 音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラム
KR20130065064A (ko) 음성인식정보를 수화정보로 자동변환시켜 제공하는 시스템
JP2001117752A (ja) 情報処理装置および情報処理方法、並びに記録媒体
KR102416000B1 (ko) 영어 발음 자동 평가 시스템 및 방법
JP2020129708A (ja) ビデオ会議装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516