JP2005222136A - 会話型翻訳装置 - Google Patents

会話型翻訳装置 Download PDF

Info

Publication number
JP2005222136A
JP2005222136A JP2004026720A JP2004026720A JP2005222136A JP 2005222136 A JP2005222136 A JP 2005222136A JP 2004026720 A JP2004026720 A JP 2004026720A JP 2004026720 A JP2004026720 A JP 2004026720A JP 2005222136 A JP2005222136 A JP 2005222136A
Authority
JP
Japan
Prior art keywords
voice
data
language
translation
language data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004026720A
Other languages
English (en)
Inventor
Hoki Taniguchi
方紀 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004026720A priority Critical patent/JP2005222136A/ja
Publication of JP2005222136A publication Critical patent/JP2005222136A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】 めんどうな操作を伴わずに、利用者の意思を相手に容易に伝えることができるとともに利用者が相手の話を容易に理解することのできる新規の会話型翻訳装置を提供する。
【解決手段】 本発明の会話型翻訳装置は、音声を入力する音声入力手段113,114と、音声データを認識して第1の言語データを生成する第1の音声認識手段及び音声データを認識して第2の言語データを生成する第2の音声認識手段110Cと、第1の言語データを第2の言語データに翻訳する第1の翻訳処理手段及び第2の言語データを第1の言語データに翻訳する第2の翻訳処理手段110Dと、第1の言語データを第1の音声データに変換する第1の音声変換手段及び第2の言語データを第2の音声データに変換する第2の音声変換手段110Fと、音声データを音声に変換して出力する音声出力手段115,116とを有することを特徴とする。
【選択図】図2

Description

本発明は会話型翻訳装置に係り、特に、携帯型電子機器として構成する場合に好適な翻訳装置の構成に関する。
一般に、小型電子機器の形態を有し、入力された単語などの意味を調べることのできる電子辞書や、簡単な文章を翻訳することのできる携帯型翻訳機などが市販されている。しかしながら、電子辞書では、個々の単語を参照することができるだけであり、実際の会話には利用しにくい場合が多く、一方、携帯型翻訳機においては、利用者が文章を入力しなければならないため使い勝手が悪く、必ずしも普及していない。
一方、時計本体の内部に翻訳用ICを内蔵することにより、腕時計型機器に翻訳機能を付加してなるものが知られている(例えば、以下の特許文献1参照)。また、腕時計の内部に音声認識機能及び翻訳処理機能を実現する手段を設け、翻訳モードにおいて、マイクロフォンで入力された音声を音声認識部によって認識し、翻訳を行うことを可能としたものが知られている(例えば、以下の特許文献2参照)。
特開平6−102374号公報 特開平11−153679号公報
しかしながら、前述の如く、従来の翻訳機能を有する機器においては、翻訳機能を備えていても、それを利用して会話を行うのはあくまでも利用者であり、その使い勝手は、よく使われる文章を記載した旅行ガイドブックなどの冊子とほとんど変わらないという問題点がある。
特に、利用者が相手に伝えたいと考える文章が翻訳によって得られても、実際に文章を話したときに発音の問題により相手に伝わらない場合があり、また、ヒアリング力の問題により相手が話した文章を聞き取ることができない場合があり、実際のコミュニケーションにおける利便性に欠けると言う問題点がある。
そこで、本発明は上記問題点を解決するものであり、その課題は、めんどうな操作を行うことなく、利用者の意思を相手に容易に伝えることができるとともに、利用者が相手の話を容易に理解することのできる新規の会話型翻訳装置を提供することにある。
斯かる実情に鑑み、本発明の会話型翻訳装置は、音声を入力して音声データとする音声入力手段と、該音声入力手段により入力された前記音声データを認識して第1の言語体系における第1の言語データを生成する第1の音声認識手段と、前記音声データを認識して第2の言語体系における第2の言語データを生成する第2の音声認識手段と、前記第1の言語データを第2の言語体系における第2の言語データに翻訳する第1の翻訳処理手段と、前記第2の言語データを第1の言語体系における第1の言語データに翻訳する第2の翻訳処理手段と、前記第1の言語データを第1の音声データに変換する第1の音声変換手段と、前記第2の言語データを第2の音声データに変換する第2の音声変換手段と、前記第1の音声変換手段及び前記第2の音声変換手段により変換された音声データを音声に変換して出力する音声出力手段と、を有することを特徴とする。
この発明によれば、第1の言語体系に基づく音声は音声入力手段によって入力されて音声データとなり、この音声データが第1の音声認識手段によって第1の言語データとなり、この第1の言語データが第1の翻訳処理手段によって第2の言語体系における第2の言語データに変換され、これが第2の音声変換手段によって音声データに変換され、音声出力手段によって出力される。また、第2の言語体系に基づく音声は、音声入力手段によって入力された音声データが第2の音声認識手段によって第2の言語データとなり、この第2の言語データが第2の翻訳処理手段によって第1の言語体系における第1の言語データに変換され、これが第1の音声変換手段によって音声データに変換され、音声出力手段によって出力される。したがって、第1の言語体系に基づく音声を第2の言語体系に基づく音声に翻訳して出力することが可能であり、かつ、第2の言語体系に基づく音声を第1の言語体系に基づく音声に翻訳して出力することができるので、第1の言語体系を用いる人と、第2の言語体系を用いる人との間の会話を円滑に行わせることができる。
したがって、本発明では、第2の言語体系を用いる利用者は複雑な操作を行わなくても、当該装置に話をするだけで、これを自動的に認識して翻訳された第1の言語体系に基づく音声が相手に向けて出力される。また、相手に直接音声を聞かせなくても、翻訳された音声を聞いた上で、利用者がこれを真似て相手に伝えることによって、発音などの問題で相手に真意が伝わらないなどの事態が発生しにくくなる。また、第1の言語体系を用いる相手の話が自動的に認識され、翻訳されて音声として出力されるので、ヒアリング力などの問題で相手の真意が理解できないなどの事態も回避できる。
また、本発明の別の会話型翻訳装置は、音声を入力して音声データとする音声入力手段と、該音声入力手段により入力された前記音声データを認識して第1の言語体系における第1の言語データを生成する第1の音声認識手段と、前記音声データを認識して第2の言語体系における第2の言語データを生成する第2の音声認識手段と、前記第1の言語データを第2の言語体系における第2の言語データに翻訳する第1の翻訳処理手段と、前記第2の言語データを第1の言語体系における第1の言語データに翻訳する第2の翻訳処理手段と、前記第1の言語データを第1の音声データに変換する第1の音声変換手段と、前記第2の言語データを表示する言語データ表示手段と、前記第1の音声変換手段により変換された音声データを音声に変換して出力する音声出力手段と、を有することを特徴とする。
この発明によれば、第1の言語体系に基づく音声は音声入力手段によって入力されて音声データとなり、この音声データが第1の音声認識手段によって第1の言語データとなり、この第1の言語データが第1の翻訳処理手段によって第2の言語体系における第2の言語データに変換され、これが言語データ表示手段によって表示される。また、第2の言語体系に基づく音声は、音声入力手段によって入力された音声データが第2の音声認識手段によって第2の言語データとなり、この第2の言語データが第2の翻訳処理手段によって第1の言語体系における第1の言語データに変換され、これが第1の音声変換手段によって音声データに変換され、音声出力手段によって出力される。したがって、第1の言語体系に基づく音声を第2の言語体系に基づく言語に翻訳して表示することが可能であり、かつ、第2の言語体系に基づく音声を第1の言語体系に基づく音声に翻訳して出力することができるので、第1の言語体系を用いる人と、第2の言語体系を用いる人との間の会話を円滑に行わせることができる。
したがって、本発明では、第2の言語体系を用いる利用者は複雑な操作を行わなくても、当該装置に話をするだけで、これを自動的に認識して第1の言語体系に翻訳された音声が相手に向けて出力される。また、相手に直接音声を聞かせなくても、翻訳された音声を聞いた上で、利用者がこれを真似て相手に伝えることによって、発音などの問題で相手に真意が伝わらないなどの事態が発生しにくくなる。また、第1の言語体系を用いる相手の話が自動的に認識され、翻訳されて表示されるので、ヒアリング力などの問題で相手の真意が理解できないなどの事態も回避できる。
なお、上記各発明における言語体系とは、日本語、英語、フランス語、ドイツ語、中国語などのような通常の言語体系に限らず、幼児語、ペットとのコミュニケーションに用いる指示語、身障者などが用いる省略語など、特殊な言語体系、或いは、独自に構成された言語体系であっても構わない。
本発明において、前記音声入力手段として、前記第1の言語データに対応する音声を入力する第1の音声入力手段と、前記第2の言語データに対応する音声を入力する第2の音声入力手段とを有し、前記第1の音声入力手段と前記第2の音声入力手段とが相互に離間して設けられていることが好ましい。これによれば、第1の音声入力手段と第2の音声入力手段とが相互に離間して設けられていることにより、会話を行う二人の音声をそれぞれ効率的に入力することができるとともに、二人の音声が相互に紛れて混乱するといったことを低減することができる。
特に、第1の音声入力手段と前記第2の音声入力手段とが相互に異なる方向を指向していることが望ましい。これによって、音声が相互に紛れることをより確実に防止できる。ここで、異なる方向を指向しているとは、必ずしも指向性の設定方位が異なることだけを指すのではなく、指向性のないもの、或いは、弱いものであっても、音声入力部分(受音部)が異なる方向に向いていることも含む。ただし、これらの音声入力手段としては、指向性の強いマイクロフォンを用い、かつ、その指向性の設定方位が相互に異なるものであることが好ましい。
本発明において、利用者への情報提供を行うための情報表示手段をさらに有し、前記第1の音声入力手段と前記第2の音声入力手段とが前記情報表示手段の表示画面を挟んでその両側に配置されていることが好ましい。これによれば、情報表示手段の表示画面を挟んでその両側に第1の音声入力手段と第2の音声入力手段とが配置されていることにより、装置の形状寸法を利用して両手段を相互に離間させることができる。ここで、情報表示手段は、上記の言語データ表示手段であってもよく、また、言語データ表示手段と表示体を共通とするものであってもよく、さらに、言語データ表示手段とは全く別個に設けられたものであっても構わない。
本発明において、前記音声出力手段として、前記第1の言語データに対応する音声を出力する第1の音声出力手段と、前記第2の言語データに対応する音声を出力する第2の音声出力手段とを有し、前記第1の音声出力手段と前記第2の音声出力手段とが相互に離間して設けられていることが好ましい。これによれば、第1の言語体系の音声と、第2の言語体系の音声とを別々に離間した位置から出力できるので、会話を行う二人がそれぞれの音声をより聞き取りやすくなる。
本発明において、前記第1の音声入力手段と前記第2の音声入力手段とが相互に異なる方向を指向していることが望ましい。これによれば、それぞれの音声をさらに聞き取りやすくすることができる。ここで、異なる方向を指向しているとは、必ずしも指向性の設定方位が異なることだけを指すのではなく、指向性のないもの、或いは、弱いものであっても、音声出力部分が異なる方向に向いていることも含む。ただし、これらの音声出力手段としては、指向性の強いスピーカを用い、かつ、その指向性の設定方位が相互に異なるものであることが好ましい。
本発明において、利用者への情報提供を行うための情報表示手段をさらに有し、前記第1の音声出力手段と前記第2の音声出力手段とが前記情報表示手段の表示画面を挟んでその両側に配置されていることが望ましい。これによれば、情報表示手段の表示画面を挟んでその両側に第1の音声出力手段と第2の音声出力手段とが配置されていることにより、装置の形状寸法を利用して両手段を相互に離間させることができる。ここで、情報表示手段は、上記の言語データ表示手段であってもよく、また、言語データ表示手段と表示体を共通とするものであってもよく、さらに、言語データ表示手段とは全く別個に設けられたものであっても構わない。
本発明において、前記第1の翻訳処理手段若しくは前記第2の翻訳処理手段の翻訳対象及び翻訳結果を表示する翻訳表示手段をさらに有することが好ましい。これによれば、翻訳対象となる原文と、翻訳文とを対比して視認することができるため、翻訳状態を確認できる。また、複数の翻訳文の候補を挙げ、これらを利用者に選択させるといったことも可能である。
本発明において、前記翻訳表示手段は、前記第1の言語データを表示する第1の表示画面と、前記第2の言語データを表示する第2の表示画面とを有することが好ましい。また、表示画面を大きく確保しつつコンパクトに構成可能とするためには、第1の表示画面を備えた部分と第2の表示画面を備えた部分とが折り畳み自在に構成されていることが望ましい。
本発明において、利用者への情報提供を行うための情報表示手段をさらに有し、前記音声出力手段は、前記情報表示手段の表示画面を振動させる手段を有することが好ましい。これによれば、表示画面以外の場所に別途音声出力手段の出力部分(放音部)を設ける必要がないので、装置をコンパクトに構成できる。
なお、上記各発明において、上記の各手段を内蔵する本体部と、この本体部を人体(例えば腕)に装着するためのバンドとを有することが好ましい。特に、腕装着型構造とすることにより、利用者と相手との間に腕を出すことで、腕に装着された本発明の会話型翻訳装置が両人の間に配置されるので、無理のない姿勢で容易に会話を続けることができる。
本発明の会話型翻訳装置によれば、発音の問題やヒアリングの問題に起因する会話障害を回避することができるため、異なる言語体系を用いる相手とスムーズに会話を行うことができると言う優れた効果を奏し得る。
次に、添付図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明に係る第1実施形態の会話型翻訳装置100の使用状態を模式的に示す概略斜視図である。この実施形態の会話型翻訳装置100は携帯型電子機器であり、具体的には、利用者Xの腕に装着して用いる腕装着型電子機器となっている。すなわち、この装置100は、本体110と、この本体110に連結された装着バンド120とを有し、この装着バンド120によって腕に装着できるように構成されている。
図1に示すように、本体110には、基体部111と、この基体部111に対して開閉可能に取り付けられた蓋体部112とを有し、通常は、蓋体部112を基体部111に重ねるように閉じた状態とすることにより、通常の腕時計と同様の形状となるように構成されている。そして、蓋体部112の外面(すなわち閉じたときに表になる面)には表示画面110Gが設けられ、この表示画面110Gに時刻情報などが表示されるようになっている。また、基体部111の表面と、蓋体部112の内面には、それぞれ表示画面111G及び112Gが設けられている。これらの表示画面110G,111G,112Gは、液晶表示体や有機エレクトロルミネッセンス表示体などによって構成することができる。これらの表示画面110G,111G,112Gは、上述の情報表示手段、言語データ表示手段、翻訳表示手段などの各表示手段の一部を構成する。
基体部111には、各種操作を行うためのボタンやスイッチなどで構成される操作部110Bが設けられている。この操作部110Bは、蓋体部112の内面や外面上に設けられていても構わない。すなわち、操作部110Bは本体110のいずれかに設けられていればよい。
基体部111の前後両側(バンド120に接続される両端部)には、音声入力手段の一部を構成する音声入力部(マイクロフォン)113,114と、音声出力手段の一部を構成する音声出力部(スピーカ)115,116とが設けられている。ここで、音声入力部113と音声出力部115は本体110の一端側に相互に隣接して配置され、音声入力部114と音声出力部116は本体110の他端側に相互に隣接して配置されている。また、音声入力部113と114は本体部110(表示画面111G)を挟んでその両側に相互に離間して配置されている。さらに、音声出力部115と116も本体部110(表示画面111G)を挟んでその両側に相互に離間して配置されている。さらに、本体110には、アンテナ117が伸縮自在に設けられている。なお、アンテナ117は本体110に内蔵されていても構わない。
図2は、本実施形態の内部構成を模式的に示す概略構成図である。本体110内に設けられた制御部110Aは各部を制御するものであり、例えば、MPU(マイクロプロセッサユニット)などで構成される。MPUは、例えば、CPU(中央演算ユニット)、メモリ、バス、入出力回路などで構成され、所定の動作プログラムに基づいて演算処理を実行したり、データのやり取りを行ったり、各部に制御信号を送出したりするように構成されている。メモリには上記動作プログラムが格納されるとともに、動作に必要な各種の設定値が保存されている。
操作部110Bは、上記のように本体110に設けられた外部操作部材(操作ボタンなど)を有し、利用者Xの操作に応じた操作信号を上記の制御部110Aに送出する。このとき、制御部110Aは上記の操作信号に応じた動作を実行するように構成されている。
音声認識部110Cは、上記の音声入力部113,115で入力された音声データに基づいて音声認識処理を実行し、所定の言語データを生成する。なお、このように音声認識部110Cを制御部110Aとは別に設けるのではなく、音声認識処理を制御部110Aにより実行される動作プログラムにて行ってもよい。音声認識処理は、言語体系毎に異なる手順や内容で実施される。すなわち、音声認識処理を実施するためのハード構成は上記音声認識部110Cや制御部110Aであるが、音声認識手段としては、或る言語体系の音声を当該言語体系の言語データに変換する必要があるため、言語体系毎に異なる音声認識手段が仮想的に構成されていることになる。このような音声認識手段は、メモリ110E内の音声認識データや音声認識プログラムなどに基づいて実施される。メモリ110Eに記録された音声認識データは、音声認識処理に用いる発音パターンなどで構成される音声情報や音声認識時の推定処理などに用いる語彙などで構成される言語情報などである。また、音声認識プログラムは、言語体系毎に音声認識の手法に応じた処理手順を規定している。
翻訳処理部110Dは、上記の言語データを、その言語体系とは異なる別の言語体系の言語データに翻訳する。なお、このように翻訳処理部110Dを制御部110Aとは別途設けるのではなく、翻訳処理を制御部110Aにより実行される動作プログラムにて行ってもよい。翻訳処理は、言語体系毎に異なる手順や内容で実施される。すなわち、音声認識処理を実施するためのハード構成は上記翻訳処理部110Dや制御部110Aであるが、翻訳処理手段としては、或る言語体系の言語データを他の言語体系の言語データに変換する必要があるため、翻訳前の原文の言語体系及び翻訳文の言語体系の組み合わせ毎に異なる翻訳処理手段が仮想的に構成されていることになる。このような翻訳処理手段は、メモリ110E内の翻訳言語データや翻訳処理プログラムなどに基づいて実施される。メモリ110Eに記録された翻訳言語データは、翻訳処理に用いる辞書データや構文データなどである。また、翻訳処理プログラムは、言語体系毎に翻訳処理の手法に応じた処理手順を規定している。
音声変換部110Fは、上記の言語データを音声に変換し、音声出力部114,116で出力可能な音声信号として出力するものである。なお、このように音声変換部110Fを制御部110Aとは別に設けるのではなく、音声変換処理を制御部110Aにより実行される動作プログラムにて行ってもよい。音声変換処理は、言語体系毎に異なる手順や内容で実施される。すなわち、音声変換処理を実施するためのハード構成は上記音声変換部110Fや制御部110Aであるが、音声変換手段としては、或る言語体系の言語データを当該言語体系の音声データに変換する必要があるため、言語体系毎に異なる音声変換手段が仮想的に構成されていることになる。このような音声変換手段は、メモリ110E内の音声変換データや音声変換プログラムなどに基づいて実施される。メモリ110Eに記録された音声変換データは、音声変換処理に用いる発音パターンなどで構成される音声情報や音声変換時の推定処理などに用いる語彙などで構成される言語情報などである。また、音声変換プログラムは、言語体系毎に音声変換の手法に応じた処理手順を規定している。
通信部110Sは、アンテナ117に接続された受信回路を有し、例えば、GPS(グローバル・ポジショニング・システム)のGPS衛星からの電波を受信することができるように構成されている。そして、受信データを制御部110Aにて処理することによって、装置の場所を算出し、その場所に応じた言語体系を選択して、上記の処理を行うように構成できる。例えば、利用者が日本人で、その所在地が中国であれば、日本語と中国語に対応する上記の音声入力手段、翻訳処理手段、音声変換手段を動作させるようにする。また、上記通信部110Sによって、時刻情報を送信する送信局からの電波を受信し、後述する計時回路110Tによる計時データを修正するといったことも可能である。
計時部110Tは、クロック信号を生成するクロック発振回路、分周回路、カウンタ回路などを内蔵し、所定の時刻信号を出力する。この時刻信号は制御部110Aを介して後述する表示手段によって表示画面110Gに表示される。制御部110Aは、操作部110Bの操作態様に応じて計時部110Tの修正などを行うことができるように構成されている。
表示制御部110Iは、制御部110Aの制御信号に応じて表示画像を生成し、この表示画像に対応した態様で、表示駆動部110Jを制御する。表示駆動部110Jは、表示体110K、111K,112Kを表示駆動し、それらの表示画面110G,111G,112G上に所定の表示を実現する。
図3は、上記実施形態の動作手順の一例を示す概略フローチャートである。本実施形態の動作プログラムが開始されると、ステップS00において上記の操作部110Bの操作を待って、ステップS10に入り、音声入力を開始する。ここで、例えば、第1言語体系を英語、第2言語体系を日本語としたとき、音声が英語であるか日本語であるかを判定し、その判定結果に応じて処理を開始する。また、操作部110Bの操作によって英語と日本語の処理を手動で切り換えるようにしてもよい。
最初に、音声入力部113,114にて入力した音声データをステップS01,S11にて音声認識部110Cにて認識し、言語データに変換する。ここで、ステップS02、S12において変換された言語データを表示画面111G,112Gなどに表示し、ステップS03,S13において操作部110Bの操作によって取り消し若しくは確定を行うようにしてもよい。例えば、表示された認識結果を取り消すと再度認識処理を再実行するように構成したり、或いは、複数の認識結果を表示し、その中から利用者が翻訳対象となるものを選択できるように構成したりすることができる。
次に、ステップS04、S14において、確定(選択)された言語データに翻訳処理を施し、他の言語体系に基づく言語データに変換する。この場合についても、上記と同様に、ステップS05、S15において翻訳結果が表示され、ステップS06、S16において利用者の操作部110Bに対する操作に応じて翻訳結果が確定(選択)される。確定(選択)された言語データは、ステップS07、S17において音声変換部110Fにより変換され、さらにステップS08,S18において音声出力部115,116により出力される。
本実施形態では、音声が入力される度に上記の処理手順が繰り返し行われ、これによって図4(A)〜(D)に示すように、2つの言語体系を用いる者の間で会話を行うことができる。ここで、上記の処理手順では、ステップS00において操作部110Bの操作が一定時間なされないと、内部タイマによって動作プログラムは終了する。また、上記のステップS10において、音声入力が一定時間ない場合(例えば、会話が終了した場合など)にも内部タイマによって動作プログラムは終了する。ただし、動作プログラムは、上記のように待機時間の満了によって終了するのではなく、ステップS00などにおいて操作部110Bの特定の操作(例えば停止ボタンの操作)を待って終了するようにしてもよい。なお、利用者が用いる言語体系の言語が音声出力部115から出力されることが煩わしい場合には、音声出力を行う代わりに、表示画面111G,112Gに表示するだけとしてもよい。もちろん、会話型翻訳装置100に音声出力部115を設けずに、利用者の用いる言語については表示のみがなされるように構成しても構わない。
図5は、上記実施形態とは異なる会話型翻訳装置200の外観を模式的に示す概略平面図(a)及び概略側面図(b)である。この装置200は、本体210と装着バンド220とを有する。本体210は、中央に表示体の表示画面210Gが配置されている。また、本体210の両端部(装着バンド220が連結されている部分)には、音声入力部213,214及び音声出力部215,216が配置されている。音声入力部213と214は、本体210(の表示画面210G)を挟んでその両側に配置されている。また、これらは相互に異なる方位を向いた受音面を備えている。また、音声出力部215と216は、本体210(の表示画面210G)を挟んでその両側に配置されている。また、これらは相互に異なる方位を向いた放音面を備えている。
なお、図示例では、音声入力部213と214及び音声出力部215,216のそれぞれが互い違いに(対角線上に)対向配置されるように構成されているが、図1に示す実施形態と同様に音声入力部同士、音声出力部同士がそれぞれ対向配置されるように構成しても構わない。
音声入力部及び音声出力部は、それぞれ本体210の表面(表示画面210G)に対して外側に傾斜した受音面若しくは放音面を有する。当該表面に対する傾斜角は、40〜60度の範囲内であることが好ましく、約45度であることが最も望ましい。これによって、図1に示すように、利用者Xと相手Yとが装置を挟んで対峙したとき、利用者X及び相手Yの口に受音面及び放音面が向くことになり、音声に対する感度を向上させることができ、或いは、出力される音声の聞き取りを容易にすることができる。
また、本実施形態では、音声入力部の受音面及び音声出力部の放音面は凹状に湾曲している。図示例では、図5(a)に示すように、平面図上においてそれぞれの受音面若しくは放音面が外側に向けて湾曲した円弧状に構成されている。これによって、集音特性や報音特性の指向性を高めることができる。
特に、音声入力部として指向性(狭指向性)マイクロフォンを用いることが好ましい。指向性マイクロフォンとしては、複数のマイクロフォンの入力信号を合成することによって出力を得る音圧傾度型マイクロフォンなどを用いることができる。また、音声出力部としても指向性(狭指向性)スピーカを用いることが好ましい。指向性スピーカとしては、複数のスピーカを配列させた構造のものや、音源の背後に音波を反射する特殊形状の反射板を設けたものなどが挙げられる。
図6は、さらに異なる構造を有する会話型翻訳装置300の構造を示す概略平面図(a)及び概略側面図(b)である。この装置300には、本体310と、装着バンド320とが設けられている。本体310には、時刻などを表示するための表示画面310Gが設けられている。また、装着バンド320には、本体310の端部近傍の表側において、それぞれ音声入力部313,314及び音声出力部315,316が設けられている。上記の各部は、先に説明した実施形態と同様の機能を有するものである。
この例では、装着バンド320に音声入力部及び音声出力部が設けられている点で、先に説明した各実施形態とは異なるが、本体310を挟んでその両側に音声入力部313と314がさらに離間して設けられているため、利用者X及び相手Yに対する効率的で干渉のない音声入力が可能になる。また、本体310を挟んでその両側に音声出力部315,316がさらに離間して設けられることによって、出力される音声を利用者X及び相手Yがより聞き取りやすくなる。
図7は、さらに別の会話型翻訳装置400の外観を、折り畳み状態(a)と開放状態(b)とに分けて示す概略正面図である。この装置400は、装着バンドを備えておらず、ヒンジ部400Hにより相互に開閉自在に構成された本体410と420によって構成されている。各本体410,420にはそれぞれ表示画面410G、420Gが設けられている。本体410の上下両端部には音声入力部413,414が設けられ、本体420の上下両端部には音声出力部415,416が設けられている。また、本体410,420には、それぞれ操作部410B、420Bが設けられている。
なお、上記装置400では、一対の本体410,420が左右に開閉自在となっているが、上下に開閉自在に構成されたものであっても構わない。この場合、音声入力部及び音声出力部は一対の本体の下端部と上端部にそれぞれ設けられることが望ましい。
図8は、上記と異なる会話型翻訳装置500の構造を示す正面図である。この装置500では、一体の本体の表面に一対の左右に並んだ表示画面510G,520Gと、操作部510B,520Bとが設けられている。また、音声入力部513,514と、音声出力部515,516は、上下両端部にそれぞれ設けられている。
図9は、さらに異なる会話型翻訳装置600の構造を示す正面図である。この装置600では、カード型に構成された一体の本体の表面に一対の上下に並んだ表示画面610G,620Gと、操作部610Bとが設けられている。また、音声入力部613,614及び音声出力部615,616は、本体の外縁部の角部及びその近傍にそれぞれ形成されている。
図10は、さらに別の会話型翻訳装置700の構造を示す正面図(a)、並びに、内部に収容された表示体の側面図(b)及び表示体の正面図(c)である。この装置700では、表示画面700G、操作部700B、音声入力部713,714が設けられている。音声入力部713,714が本体(表示画面700G)を挟んでその両側に離間して設けられている点は先の各実施形態と同様である。その内部には、上記表示画面700Gを構成する表示体700Kが収容されている。
この装置700においては、本体の内部に収容された表示体700Kの一方の基板上に圧電素子などで構成される基板振動手段700Lが搭載され、上記と同様の音声変換部700Fからの音声信号が基板振動手段700Lに与えられるように構成されている。また、表示体700Kには、表示画面に画像を表示させるための半導体チップなどで構成される駆動回路700Jも実装されている。
この実施形態では、音声変化部700Fから出力される音声信号が基板振動手段700Lに供給されると、基板振動手段700Lは音声信号を機械的振動に変換して表示体700Kの基板を振動させ、図7(b)に示すように表示体700Kの基板から音を放出させる。これによって、表示体700K以外に音声出力部を別途設ける必要がなくなるので、装置のコンパクト化を図ることができる。また、音声出力手段の放音面積を充分に確保することができる。
なお、上記各実施形態において、音声入力手段は、利用者Xや相手Yの音声の周波数域を学習して、当該音声と、周囲の雑音とを弁別する音声フィルタ機能を有することが好ましい。これによって、音声認識の精度を向上させることも可能になる。また、上記各実施形態において、音声認識手段は、一方の対話者の言葉を参考にして他方の対話者の言葉を推定する機能を有することが好ましい。これによって音声認識の精度を向上させることができる。同様に、翻訳処理手段は、一方の対話者の言葉を参考にして他方の対話者の言葉の翻訳時において翻訳文の構成を推定する機能を有することが好ましい。これによって翻訳処理の精度を向上させることができる。
尚、本発明の会話型翻訳装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態では、一対の音声入力部と、一対の音声出力部を備えているが、音声入力部と音声出力部を異なる言語体系について兼用し、それぞれ一つだけで構成してもよい。また、利用者Xに対する伝達作用は音声出力ではなく、画像表示で行うようにしても構わない。
実施形態の会話型翻訳装置100の構造及び使用態様を示す概略斜視図。 装置100の内部構成を模式的に示す概略構成図。 実施形態の動作手順を示す概略フローチャート。 装置100を用いた会話の態様を示す説明図(A)〜(D)。 実施形態の装置200の概略平面図(a)及び概略側面図(b)。 実施形態の装置300の概略平面図(a)及び概略側面図(b)。 実施形態の装置400の閉鎖状態を示す正面図(a)及び開放状態を示す正面図(b)。 実施形態の装置500の正面図。 実施形態の装置600の正面図。 実施形態の装置700の正面図(a)並びに表示体の側面図(b)及び正面図(c)。
符号の説明
100…会話型翻訳装置、110…本体、110A…制御部、110B…操作部、110C…音声認識部、110D…翻訳処理部、110E…メモリ、110F…音声変換部、110S…通信部、110T…計時部、I110I…表示制御部、J110…表示駆動部、110K…表示体、111…基体部、112…蓋体部、110G,111G,112G…表示画面、113,114…音声入力部、115,116…音声出力部、117…アンテナ、120…バンド

Claims (11)

  1. 音声を入力して音声データとする音声入力手段と、該音声入力手段により入力された前記音声データを認識して第1の言語体系における第1の言語データを生成する第1の音声認識手段と、前記音声データを認識して第2の言語体系における第2の言語データを生成する第2の音声認識手段と、前記第1の言語データを第2の言語体系における第2の言語データに翻訳する第1の翻訳処理手段と、前記第2の言語データを第1の言語体系における第1の言語データに翻訳する第2の翻訳処理手段と、前記第1の言語データを第1の音声データに変換する第1の音声変換手段と、前記第2の言語データを第2の音声データに変換する第2の音声変換手段と、前記第1の音声変換手段及び前記第2の音声変換手段により変換された音声データを音声に変換して出力する音声出力手段と、を有することを特徴とする会話型翻訳装置。
  2. 音声を入力して音声データとする音声入力手段と、該音声入力手段により入力された前記音声データを認識して第1の言語体系における第1の言語データを生成する第1の音声認識手段と、前記音声データを認識して第2の言語体系における第2の言語データを生成する第2の音声認識手段と、前記第1の言語データを第2の言語体系における第2の言語データに翻訳する第1の翻訳処理手段と、前記第2の言語データを第1の言語体系における第1の言語データに翻訳する第2の翻訳処理手段と、前記第1の言語データを第1の音声データに変換する第1の音声変換手段と、前記第2の言語データを表示する言語データ表示手段と、前記第1の音声変換手段により変換された音声データを音声に変換して出力する音声出力手段と、を有することを特徴とする会話型翻訳装置。
  3. 前記音声入力手段として、前記第1の言語データに対応する音声を入力する第1の音声入力手段と、前記第2の言語データに対応する音声を入力する第2の音声入力手段とを有し、前記第1の音声入力手段と前記第2の音声入力手段とが相互に離間して設けられていることを特徴とする請求項1又は2に記載の会話型翻訳装置。
  4. 前記第1の音声入力手段と前記第2の音声入力手段とが相互に異なる方向を指向していることを特徴とする請求項3に記載の会話型翻訳装置。
  5. 利用者への情報提供を行うための情報表示手段をさらに有し、前記第1の音声入力手段と前記第2の音声入力手段とが前記情報表示手段の表示画面を挟んでその両側に配置されていることを特徴とする請求項3又は4に記載の会話型翻訳装置。
  6. 前記音声出力手段として、前記第1の言語データに対応する音声を出力する第1の音声出力手段と、前記第2の言語データに対応する音声を出力する第2の音声出力手段とを有し、前記第1の音声出力手段と前記第2の音声出力手段とが相互に離間して設けられていることを特徴とする請求項1乃至5のいずれか一項に記載の会話型翻訳装置。
  7. 前記第1の音声入力手段と前記第2の音声入力手段とが相互に異なる方向を指向していることを特徴とする請求項6に記載の会話型翻訳装置。
  8. 利用者への情報提供を行うための情報表示手段をさらに有し、前記第1の音声出力手段と前記第2の音声出力手段とが前記情報表示手段の表示画面を挟んでその両側に配置されていることを特徴とする請求項6又は7に記載の会話型翻訳装置。
  9. 前記第1の翻訳処理手段若しくは前記第2の翻訳処理手段の翻訳対象及び翻訳結果を表示する翻訳表示手段をさらに有することを特徴とする請求項1乃至8に記載の会話型翻訳装置。
  10. 前記翻訳表示手段は、前記第1の言語データを表示する第1の表示画面と、前記第2の言語データを表示する第2の表示画面とを有することを特徴とする請求項9に記載の会話型翻訳装置。
  11. 利用者への情報提供を行うための情報表示手段をさらに有し、前記音声出力手段は、前記情報表示手段の表示画面を振動させる手段を有することを特徴とする請求項1乃至3のいずれか一項に記載の会話型翻訳装置。
JP2004026720A 2004-02-03 2004-02-03 会話型翻訳装置 Withdrawn JP2005222136A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004026720A JP2005222136A (ja) 2004-02-03 2004-02-03 会話型翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004026720A JP2005222136A (ja) 2004-02-03 2004-02-03 会話型翻訳装置

Publications (1)

Publication Number Publication Date
JP2005222136A true JP2005222136A (ja) 2005-08-18

Family

ID=34997734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004026720A Withdrawn JP2005222136A (ja) 2004-02-03 2004-02-03 会話型翻訳装置

Country Status (1)

Country Link
JP (1) JP2005222136A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026220A (ja) * 2008-07-18 2010-02-04 Sharp Corp 音声翻訳装置、および音声翻訳方法
WO2013077110A1 (ja) * 2011-11-22 2013-05-30 Necカシオモバイルコミュニケーションズ株式会社 翻訳装置、翻訳システム、翻訳方法およびプログラム
JP2014509458A (ja) * 2010-10-20 2014-04-17 ヨタ デバイセズ アイピーアール リミテッド 携帯機器
JP2016177782A (ja) * 2015-03-19 2016-10-06 パナソニックIpマネジメント株式会社 ウェアラブル装置及び翻訳システム
JP2020086977A (ja) * 2018-11-27 2020-06-04 プラス株式会社 翻訳装置
US10872605B2 (en) 2016-07-08 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Translation device
JP2021114292A (ja) * 2020-01-16 2021-08-05 ネイバー コーポレーションNAVER Corporation 原文と翻訳文の位置同期化のための自動スクロール制御方法、コンピュータプログラムおよび端末装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026220A (ja) * 2008-07-18 2010-02-04 Sharp Corp 音声翻訳装置、および音声翻訳方法
JP2014509458A (ja) * 2010-10-20 2014-04-17 ヨタ デバイセズ アイピーアール リミテッド 携帯機器
WO2013077110A1 (ja) * 2011-11-22 2013-05-30 Necカシオモバイルコミュニケーションズ株式会社 翻訳装置、翻訳システム、翻訳方法およびプログラム
JPWO2013077110A1 (ja) * 2011-11-22 2015-04-27 Necカシオモバイルコミュニケーションズ株式会社 翻訳装置、翻訳システム、翻訳方法およびプログラム
JP2016177782A (ja) * 2015-03-19 2016-10-06 パナソニックIpマネジメント株式会社 ウェアラブル装置及び翻訳システム
US10872605B2 (en) 2016-07-08 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Translation device
JP2020086977A (ja) * 2018-11-27 2020-06-04 プラス株式会社 翻訳装置
JP2021114292A (ja) * 2020-01-16 2021-08-05 ネイバー コーポレーションNAVER Corporation 原文と翻訳文の位置同期化のための自動スクロール制御方法、コンピュータプログラムおよび端末装置
JP7150071B2 (ja) 2020-01-16 2022-10-07 ネイバー コーポレーション 原文と翻訳文の位置同期化のための自動スクロール制御方法、コンピュータプログラムおよび端末装置
US11531509B2 (en) 2020-01-16 2022-12-20 Naver Corporation Automatic scroll control method for synchronizing positions of original text and translation, computer program and terminal device

Similar Documents

Publication Publication Date Title
US11308977B2 (en) Processing method of audio signal using spectral envelope signal and excitation signal and electronic device including a plurality of microphones supporting the same
US8082152B2 (en) Device for communication for persons with speech and/or hearing handicap
KR101877652B1 (ko) 휴대 전화
US12028685B2 (en) Hearing aid system for estimating acoustic transfer functions
US9507772B2 (en) Instant translation system
KR101863831B1 (ko) 연골 전도부를 갖는 휴대 전화
US20030125959A1 (en) Translation device with planar microphone array
TW201637458A (zh) 利用電磁型振動單元之軟骨傳導聽取裝置、及電磁型振動單元
CN108198569A (zh) 一种音频处理方法、装置、设备及可读存储介质
CN109040641A (zh) 一种视频数据合成方法及装置
CN112001189A (zh) 实时外语沟通系统
JP2010026220A (ja) 音声翻訳装置、および音声翻訳方法
JP2005222136A (ja) 会話型翻訳装置
JP2019110447A (ja) 電子機器、電子機器の制御方法、及び、電子機器の制御プログラム
KR20070071854A (ko) 이동통신 단말기의 청각장애인과 정상인 사이의 통화 보조방법
JP2019087798A (ja) 音声入力装置
JP2006139138A (ja) 情報端末及び基地局
KR100553437B1 (ko) 음성 합성을 이용한 음성 메시지 전송 기능을 가지는무선통신 단말기 및 그 방법
JP5352382B2 (ja) 電子機器
JP2006276470A (ja) 音声通話装置および音声通話システム
US20240284123A1 (en) Hearing Device Comprising An Own Voice Estimator
JP2006211036A (ja) 折りたたみ式携帯電話機における開閉検出方法
JP2005117117A (ja) 旋回式携帯電話機器
JP3655837B2 (ja) 携帯電話機及び携帯電話機による時刻報知方法
KR101121063B1 (ko) 인공성대 기능이 구비된 이동통신단말기

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403