JP2011128260A - 外国語会話支援装置、方法、プログラム、および電話端末装置 - Google Patents
外国語会話支援装置、方法、プログラム、および電話端末装置 Download PDFInfo
- Publication number
- JP2011128260A JP2011128260A JP2009284899A JP2009284899A JP2011128260A JP 2011128260 A JP2011128260 A JP 2011128260A JP 2009284899 A JP2009284899 A JP 2009284899A JP 2009284899 A JP2009284899 A JP 2009284899A JP 2011128260 A JP2011128260 A JP 2011128260A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- language
- voice
- unit
- support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】会話を阻害することなく、状況に応じて適切に会話を支援するための翻訳支援情報を提示する。
【解決手段】外国語会話支援装置20において、言語識別部21で、入力音声31の言語の種別を識別するとともに、音声出力部24で、会話相手への出力音声として出力し、判定部22で、入力音声31が会話相手との会話で使用している会話言語か否かを判定し、入力音声31が会話相手との会話で使用している会話言語でなかった場合、会話支援部25で、入力音声31を会話言語に翻訳するための翻訳支援情報33を生成し、その翻訳支援情報33を画面表示する。
【選択図】 図1
【解決手段】外国語会話支援装置20において、言語識別部21で、入力音声31の言語の種別を識別するとともに、音声出力部24で、会話相手への出力音声として出力し、判定部22で、入力音声31が会話相手との会話で使用している会話言語か否かを判定し、入力音声31が会話相手との会話で使用している会話言語でなかった場合、会話支援部25で、入力音声31を会話言語に翻訳するための翻訳支援情報33を生成し、その翻訳支援情報33を画面表示する。
【選択図】 図1
Description
本発明は、会話支援技術に関し、特に外国語を用いて会話している際に利用者が分からない言葉を翻訳して支援する外国語会話支援に関する。
同時通訳者のように、複数言語で会話する能力のある人が母国語以外の言語で会話を行う場合に、知らない単語や会話表現等がある場合に、辞書や機械翻訳装置を用いてそれらを調べることで会話を円滑に進めることがある。
このような目的に使用可能な機械翻訳装置として、特許文献1に記載される機械翻訳装置がある。この従来の機械翻訳装置は、装置利用者が調べたい、あるいは、翻訳したい語句を音声で入力し、その結果を参照して会話に活用するものである。
このような目的に使用可能な機械翻訳装置として、特許文献1に記載される機械翻訳装置がある。この従来の機械翻訳装置は、装置利用者が調べたい、あるいは、翻訳したい語句を音声で入力し、その結果を参照して会話に活用するものである。
しかしながら、このような関連技術では、母国語でない言語で会話をしている最中に、意味や表現を調べたい場合、会話を中断して利用者が明示的にその機能を有効にする必要があるため、この機能の起動/停止を選択するための操作負担が発生し、会話が阻止されるという問題点があった。その理由は、特許文献1記載の機械翻訳システムでは、機械翻訳システムに入力された母国語が、機器を操作するためのコマンド発声か、意味や表現を調べたい語句なのかを判定する機能しか備えていないためである。
本発明はこのような課題を解決するためのものであり、会話を阻害することなく、状況に応じて適切に会話を支援するための翻訳支援情報を提示できる外国語会話支援技術を提供することを目的としている。
このような目的を達成するために、本発明にかかる外国語会話支援装置は、入力音声の言語の種別を識別する言語識別部と、入力音声を一時的に蓄積する音声蓄積部と、音声蓄積部から入力音声を読み出して会話相手への出力音声として出力する音声出力部と、識別結果に基づいて、入力音声が会話相手との会話で使用している会話言語か否かを判定する判定部と、判定の結果、入力音声が会話言語でなかった場合、音声蓄積部から入力音声を読み出して、入力音声を会話言語に翻訳するための翻訳支援情報を生成し、その翻訳支援情報を画面表示する会話支援部とを備えている。
この際、音声出力部で、判定の結果、入力音声が会話言語でなかった場合、出力音声の出力を停止するようにしてもよい。
また、音声出力部で、判定の結果、入力音声が会話言語でなかった場合、会話支援部による会話支援機能が動作中であることを会話相手に告知する音声信号を、出力音声として出力するようにしてもよい。
また、会話支援部を、音声蓄積部から入力音声を読み出して音声認識する音声認識部と、音声認識で得られた文字情報を会話言語へ翻訳する機械翻訳部と、翻訳の結果を翻訳支援情報として画面表示する翻訳結果表示部とから構成してもよい。
また、本発明にかかる外国語会話支援方法は、入力音声の言語の種別を識別した識別結果に基づいて、入力音声が会話相手との会話で使用している会話言語か否かを判定する判定ステップと、入力音声を会話相手への出力音声として出力する音声出力ステップと、判定の結果、入力音声が会話言語でなかった場合、入力音声を会話言語に翻訳するための翻訳支援情報を生成し、その翻訳支援情報を画面表示する会話支援ステップとを備えている。
この際、音声出力ステップで、判定の結果、入力音声が会話言語でなかった場合、出力音声の出力を停止するようにしてもよい。
また、音声出力ステップで、判定の結果、入力音声が会話言語でなかった場合、会話支援ステップによる会話支援機能が動作中であることを会話相手に告知する音声信号を、出力音声として出力するようにしてもよい。
また、会話支援ステップを、入力音声を音声認識する音声認識ステップと、音声認識で得られた文字情報を会話言語へ翻訳する機械翻訳ステップと、翻訳の結果を翻訳支援情報として画面表示する翻訳結果表示ステップとから構成してもよい。
また、本発明にかかるプログラムは、コンピュータに、前述したいずれかの外国語会話支援装置を構成する各部として機能させるためのプログラムである。
また、本発明にかかる電話端末装置は、前出したいずれかの外国語会話支援装置を含む電話端末装置である。
また、本発明にかかる電話端末装置は、前出したいずれかの外国語会話支援装置を含む電話端末装置である。
本発明によれば、外国語会話支援機能の起動/停止を選択する際に、利用者への操作負担を回避できるため、会話を阻害することなく、状況に応じて適切に会話を支援するための翻訳支援情報を提示できる。
次に、本発明の一実施形態について図面を参照して説明する。
[外国語会話支援装置]
まず、図1を参照して、本実施形態にかかる外国語会話支援装置について説明する。図1は、本実施形態にかかる外国語会話支援装置および電話端末装置の構成を示すブロック図である。
[外国語会話支援装置]
まず、図1を参照して、本実施形態にかかる外国語会話支援装置について説明する。図1は、本実施形態にかかる外国語会話支援装置および電話端末装置の構成を示すブロック図である。
この外国語会話支援装置20は、全体として音声を処理する音声処理装置からなり、利用者が会話相手と外国語を用いて会話している際に、利用者が分からない言葉を翻訳して画面表示することにより、利用者を支援するための装置である。
ここでは、STNやIP電話網などの有線電話網を用いて通話を行う固定電話機や、携帯電話網などの無線電話網を用いて通話を行う携帯電話機など、各種の電話端末装置10に外国語会話支援装置20に実装されて、電話網50を介して相手電話装置40と通話を行う際に利用される場合について説明する。
ここでは、STNやIP電話網などの有線電話網を用いて通話を行う固定電話機や、携帯電話網などの無線電話網を用いて通話を行う携帯電話機など、各種の電話端末装置10に外国語会話支援装置20に実装されて、電話網50を介して相手電話装置40と通話を行う際に利用される場合について説明する。
電話端末装置10には、主な機能部として、通信インターフェース部(以下、通信I/F部という)11、音声処理部12、操作入力部13、画面表示部14、電話制御部16、および外国語会話支援装置20が設けられている。
通信I/F部11は、電話網50や相手電話装置40との間で、電話回線51を介して各種制御信号や音声信号を送受信する機能を有している。
音声処理部12は、通信I/F部11で受信した会話相手からの受話音声をスピーカから出力する機能と、マイクから入力された利用者の入力音声を通信I/F部11へ出力する機能と、電話制御部16からの指示に応じて、着信音などの各種信号音をスピーカから出力する機能とを有している。また、音声処理部12は、外国語会話支援対応機能として、電話制御部16からの指示に応じて、マイクから入力された利用者の入力音声を電話制御部16へ出力する機能と、電話制御部16からの指示に応じて、電話制御部16から入力された入力音声を通信I/F部11へ出力する機能とを有している。
音声処理部12は、通信I/F部11で受信した会話相手からの受話音声をスピーカから出力する機能と、マイクから入力された利用者の入力音声を通信I/F部11へ出力する機能と、電話制御部16からの指示に応じて、着信音などの各種信号音をスピーカから出力する機能とを有している。また、音声処理部12は、外国語会話支援対応機能として、電話制御部16からの指示に応じて、マイクから入力された利用者の入力音声を電話制御部16へ出力する機能と、電話制御部16からの指示に応じて、電話制御部16から入力された入力音声を通信I/F部11へ出力する機能とを有している。
操作入力部13は、ダイヤルボタン、回線ボタン、保留ボタン、フックスイッチ、機能スイッチなどのボタンやスイッチからなり、利用者の操作を検出して電話制御部16へ出力する機能を有している。
画面表示部14は、LCDなどの画面表示装置からなり、電話制御部16から出力された、操作メニューや通話画面、さらには外国語会話支援装置20から通知された翻訳支援情報などの各種情報を画面表示する機能を有している。
記憶部15は、半導体メモリなどの記憶装置からなり、電話制御部16で用いる各種処理情報やプログラムを記憶する機能を有している。
画面表示部14は、LCDなどの画面表示装置からなり、電話制御部16から出力された、操作メニューや通話画面、さらには外国語会話支援装置20から通知された翻訳支援情報などの各種情報を画面表示する機能を有している。
記憶部15は、半導体メモリなどの記憶装置からなり、電話制御部16で用いる各種処理情報やプログラムを記憶する機能を有している。
電話制御部16は、CPUなどの演算処理部からなり、通信I/F部11を介して制御信号を電話網50との間でやり取りすることにより、発信、着信、通話、終話などの各種呼制御を行う機能と、これら呼制御による動作状態の変化に応じて、音声処理部12、画面表示部14、および外国語会話支援装置20を制御する機能と、操作入力部13から操作入力された、電話制御に関する電話設定情報や、外国語会話支援装置20に関する、会話相手との会話で使用する会話言語などの会話支援設定情報などの各種設定情報を記憶部15へ登録する機能とを有している。
また、電話制御部16は、外国語会話支援対応機能として、通話時にマイクから入力された利用者の入力音声を音声処理部12から取得して外国語会話支援装置20へ出力する機能と、外国語会話支援装置20から出力された会話相手への出力音声を音声処理部12へ出力する機能と、外国語会話支援装置20から出力された翻訳支援情報を画面表示部14へ出力して画面表示する機能とを有している。
通常、電話網50からの着信通知を通信I/F部11で受信した場合、電話制御部16は、音声処理部12や画面表示部14を制御して着信表示を行い、利用者による応答操作を操作入力部13で検出した場合、応答通知を通信I/F部11から電話網50へ送信し、音声処理部12を制御して通話状態とする。
また、利用者による発信操作を操作入力部13で検出した場合、電話制御部16は、発信要求を通信I/F部11から電話網50へ送信し、これに応じた電話網からの応答通知を通信I/F部11で受信した後、音声処理部12を制御して通話状態とする。
また、利用者による発信操作を操作入力部13で検出した場合、電話制御部16は、発信要求を通信I/F部11から電話網50へ送信し、これに応じた電話網からの応答通知を通信I/F部11で受信した後、音声処理部12を制御して通話状態とする。
通話状態において、利用者による外国語会話支援開始操作を操作入力部13で検出した場合、電話制御部16は、マイクから入力された利用者の入力音声を音声処理部12から取得し、一旦、外国語会話支援装置20を経由した後、音声処理部12から通信I/F部11を介して電話網50へ送信する。
本実施形態は、外国語会話支援装置20において、入力音声の言語を識別するとともに、会話相手への出力音声として出力し、識別の結果、入力音声が会話相手との会話で使用している会話言語でなかった場合、入力音声を会話言語に翻訳するための翻訳支援情報を生成し、その翻訳支援情報を画面表示するようにしたものである。
次に、図1および図2を参照して、外国語会話支援装置20の構成について詳細に説明する。図2は、外国語会話支援装置の動作を示すフロー図である。
外国語会話支援装置20には、主な機能部として、言語識別部21、判定部22、音声蓄積部23、音声出力部24、および会話支援部25が設けられている。これら機能部のうち、音声蓄積部23は半導体メモリから構成されており、そのほかはそれぞれCPUや専用の信号処理回路から構成されている。
外国語会話支援装置20には、主な機能部として、言語識別部21、判定部22、音声蓄積部23、音声出力部24、および会話支援部25が設けられている。これら機能部のうち、音声蓄積部23は半導体メモリから構成されており、そのほかはそれぞれCPUや専用の信号処理回路から構成されている。
言語識別部21は、電話制御部16から入力された利用者の入力音声31について、日本語、英語など、その言語の種別を識別する機能を有している。
判定部22は、言語識別部21での識別結果と、電話制御部16経由で記憶部15から取得した会話相手との会話で使用する会話言語の種別とを比較することにより、入力音声31が会話相手との会話で使用している会話言語か否かを判定する機能を有している。
音声蓄積部23は、電話制御部16から入力された利用者の入力音声31を一時的に蓄積する機能を有している。
判定部22は、言語識別部21での識別結果と、電話制御部16経由で記憶部15から取得した会話相手との会話で使用する会話言語の種別とを比較することにより、入力音声31が会話相手との会話で使用している会話言語か否かを判定する機能を有している。
音声蓄積部23は、電話制御部16から入力された利用者の入力音声31を一時的に蓄積する機能を有している。
音声出力部24は、音声蓄積部23から入力音声31を読み出して会話相手への出力音声32として電話制御部16へ出力する機能と、判定部22での判定の結果、入力音声31が会話言語でなかった場合、出力音声32の出力を停止する機能と、判定部22での判定の結果、入力音声31が会話言語でなかった場合、会話支援部25による会話支援機能が動作中であることを会話相手に告知する音声信号を、出力音声32として出力する機能とを有している。
会話支援部25は、判定部22での判定の結果、入力音声31が会話言語でなかった場合、音声蓄積部23から入力音声31を読み出して、入力音声を会話言語に翻訳するための翻訳支援情報33を生成する機能と、その翻訳支援情報33を電話制御部16へ出力して画面表示部14で画面表示する機能とを有している。
会話支援部25には、主な処理部として、音声認識部25A、機械翻訳部25B、および翻訳結果表示部25Cが設けられている。これら処理部は、それぞれCPUや専用の信号処理回路から構成されている。
会話支援部25には、主な処理部として、音声認識部25A、機械翻訳部25B、および翻訳結果表示部25Cが設けられている。これら処理部は、それぞれCPUや専用の信号処理回路から構成されている。
音声認識部25Aは、音声蓄積部23から入力音声31を読み出して音声認識する機能を有している。
機械翻訳部25Bは、音声認識部25Aで音声認識で得られた文字情報を会話言語へ翻訳する機能を有している。
翻訳結果表示部25Cは、機械翻訳部25Bで得られた翻訳結果を翻訳支援情報33として電話制御部16へ出力して画面表示部14で画面表示する機能を有している。
機械翻訳部25Bは、音声認識部25Aで音声認識で得られた文字情報を会話言語へ翻訳する機能を有している。
翻訳結果表示部25Cは、機械翻訳部25Bで得られた翻訳結果を翻訳支援情報33として電話制御部16へ出力して画面表示部14で画面表示する機能を有している。
[本実施形態の動作]
次に、図2および図3を参照して、本実施形態にかかる外国語会話支援装置20の動作について詳細に説明する。図3は、外国語会話支援装置の会話支援処理を示すフローチャートである。
次に、図2および図3を参照して、本実施形態にかかる外国語会話支援装置20の動作について詳細に説明する。図3は、外国語会話支援装置の会話支援処理を示すフローチャートである。
外国語会話支援装置20は、日本語を母国語とする利用者が、電話端末装置10を用いて相手電話装置40の会話相手と英語で通話している際、利用者の外国語会話支援開始操作に応じた電話制御部16からの指示に応じて、図3に示す会話支援処理を開始する。この際、記憶部15には、会話で用いる外国語の種別が予め設定されているものとする。
まず、音声蓄積部23は、電話制御部16経由で音声処理部12から、利用者が発した音声が入力音声31が入力されるごとに、その入力音声31を一旦蓄積する(ステップ101)。なお、以下では、入力音声31に対する会話支援処理について、入力音声31の無音区間で区別した区間ごとに処理するものとする。
また、言語識別部21は、入力された入力音声31の言語の種別を識別し、何語かを判定する(ステップ102)。この判定のためには、例えば、入力された音声に対して事前に用意された各国語の音響モデルを適用し、スコアが一番高かったものを結果とするような公知の方法を用いればよい。なお、言語識別部21では、音声蓄積部23に一旦蓄積された入力音声31を読み出して識別してもよいが、電話制御部16経由で音声処理部12から、直接、入力音声31を受け取って識別することにより、音声蓄積部23での処理遅延分を短縮できる。
次に、判定部22は、言語識別部21での識別結果と、電話制御部16経由で記憶部15から取得した会話相手との会話で使用する会話言語の種別とを比較することにより、入力音声31が会話相手との会話で使用している会話言語か否かを判定する(ステップ103)。
ここで、入力音声31が会話言語であれば(ステップ103:YES)、音声出力部24は、音声蓄積部23から入力音声31を読み出して会話相手への出力音声32として、電話制御部16経由で音声処理部12へ出力する(ステップ104)。
これにより、利用者が会話言語である英語で発話した場合、その入力音声は、音声処理部12から通信I/F部11を介して相手電話装置40へ送信される。
これにより、利用者が会話言語である英語で発話した場合、その入力音声は、音声処理部12から通信I/F部11を介して相手電話装置40へ送信される。
一方、入力音声31が会話言語でなければ(ステップ103:NO)、会話支援部25は、音声認識部25Aで、音声蓄積部23から入力音声31を読み出して音声認識することにより文字情報へ変換し、その音声認識結果を会話言語へ翻訳し、この翻訳結果を含む翻訳支援情報を生成する(ステップ105)。この翻訳のためには、例えば、和英辞書データベースを検索することにより、日本語を英語に翻訳するような公知の方法を用いればよい。また、翻訳支援情報33としては、入力音声31を会話言語に翻訳する際に必要な各種辞書情報を含んでいてもよく、入力音声31を会話言語に翻訳した翻訳結果そのものを含んでいてもよい。
この後、会話支援部25は、翻訳結果表示部25Cで、機械翻訳部25Bで得られた翻訳結果を翻訳支援情報33として電話制御部16へ出力して画面表示部14で画面表示する(ステップ106)。
これにより、利用者が会話言語でなく日本語で発話した場合、その入力音声は、会話支援部25で英語に翻訳され、その翻訳結果が翻訳支援情報33として画面表示される。
これにより、利用者が会話言語でなく日本語で発話した場合、その入力音声は、会話支援部25で英語に翻訳され、その翻訳結果が翻訳支援情報33として画面表示される。
図4は、会話支援処理の動作例である。
時刻T0において、利用者が英語で会話を開始した場合、外国語会話支援装置20において、その入力音声31が英語、すなわち会話言語であると判定されるため、その入力音声31は、出力音声32として会話相手へ出力される。
その後、時刻T1において、利用者が英語でどのように話せばよいか分からない場合、その日本語を発話する。この場合、外国語会話支援装置20において、その入力音声31が会話言語ではないと判定されるため、その日本語が英語の文字情報へ翻訳され、その翻訳結果が翻訳支援情報33として画面表示される。
時刻T0において、利用者が英語で会話を開始した場合、外国語会話支援装置20において、その入力音声31が英語、すなわち会話言語であると判定されるため、その入力音声31は、出力音声32として会話相手へ出力される。
その後、時刻T1において、利用者が英語でどのように話せばよいか分からない場合、その日本語を発話する。この場合、外国語会話支援装置20において、その入力音声31が会話言語ではないと判定されるため、その日本語が英語の文字情報へ翻訳され、その翻訳結果が翻訳支援情報33として画面表示される。
これにより、利用者は、画面表示された翻訳支援情報33を確認し、その後の時刻T2から、英語での会話を再開する。この場合、外国語会話支援装置20において、その入力音声31が英語であると判定されるため、その入力音声31は、出力音声32として会話相手へ出力される。
[本実施形態の効果]
このように、本実施形態は、外国語会話支援装置20において、言語識別部21で、入力音声31の言語の種別を識別するとともに、音声出力部24で、会話相手への出力音声として出力し、判定部22で、入力音声31が会話相手との会話で使用している会話言語か否かを判定し、入力音声31が会話相手との会話で使用している会話言語でなかった場合、会話支援部25で、入力音声31を会話言語に翻訳するための翻訳支援情報33を生成し、その翻訳支援情報33画面表示するようにしたので、利用者が、会話言語ではなく例えば母国語で発話するだけで、例えば当該母国語を会話言語へ翻訳した翻訳結果などの翻訳支援情報33を文字情報により確認できる。
したがって、外国語会話支援機能の起動/停止を選択するための、利用者への操作負担を回避できるため、会話を阻害することなく、状況に応じて適切に会話を支援するための辞書情報や翻訳結果を提示できる。
このように、本実施形態は、外国語会話支援装置20において、言語識別部21で、入力音声31の言語の種別を識別するとともに、音声出力部24で、会話相手への出力音声として出力し、判定部22で、入力音声31が会話相手との会話で使用している会話言語か否かを判定し、入力音声31が会話相手との会話で使用している会話言語でなかった場合、会話支援部25で、入力音声31を会話言語に翻訳するための翻訳支援情報33を生成し、その翻訳支援情報33画面表示するようにしたので、利用者が、会話言語ではなく例えば母国語で発話するだけで、例えば当該母国語を会話言語へ翻訳した翻訳結果などの翻訳支援情報33を文字情報により確認できる。
したがって、外国語会話支援機能の起動/停止を選択するための、利用者への操作負担を回避できるため、会話を阻害することなく、状況に応じて適切に会話を支援するための辞書情報や翻訳結果を提示できる。
また、本実施形態では、音声出力部24において、判定部22での判定の結果、入力音声31が会話言語でなかった場合、出力音声の出力を停止するようにしてもよい。これにより、会話相手との会話に不必要な発話の送信を回避することができ、スムーズな会話を実現することが可能となる。
また、本実施形態では、音声出力部24において、判定部22での判定の結果、入力音声31が会話言語でなかった場合、会話支援部25による会話支援機能が動作中であることを会話相手に告知する音声信号を、出力音声32として出力するようにしてもよい。これにより、会話支援機能が動作中に会話相手への出力音声の停止する理由を、会話相手に伝えることができる。
また、本実施形態では、会話支援部25を、音声蓄積部23から入力音声31を読み出して音声認識する音声認識部25Aと、音声認識で得られた文字情報を会話言語へ翻訳する機械翻訳部25Bと、翻訳の結果を翻訳支援情報33として画面表示する翻訳結果表示部25Cとから構成したので、翻訳支援情報33として極めて具体的な翻訳結果を利用者に提示することができる。
また、本実施形態では、言語識別部21での識別結果に基づいて、判定部22で、会話支援機能の起動/停止を切り替える場合を例として説明したが、これに限定されるものではない。
例えば、両者の発話がない無音部分やフィラーが一定時間以上続く場合や、これまでの会話と異なる傾向で出現した場合、これを判定部22で検出して、会話支援機能を起動し、発話再開に応じて会話支援機能を停止するようにしてもよい。また、入力音声が会話で使用されている言語であっても、利用者による「Wait a moment」や「Excuse me」といった、予め決められた発声を音声認識部25Aで検知した場合、判定部22で会話支援機能を起動するようにしてもよい。この際、つぶやき声等、発声様式の変化を音声認識部25Aで検知して、判定部22で会話支援機能を起動するようにしてもよい。
例えば、両者の発話がない無音部分やフィラーが一定時間以上続く場合や、これまでの会話と異なる傾向で出現した場合、これを判定部22で検出して、会話支援機能を起動し、発話再開に応じて会話支援機能を停止するようにしてもよい。また、入力音声が会話で使用されている言語であっても、利用者による「Wait a moment」や「Excuse me」といった、予め決められた発声を音声認識部25Aで検知した場合、判定部22で会話支援機能を起動するようにしてもよい。この際、つぶやき声等、発声様式の変化を音声認識部25Aで検知して、判定部22で会話支援機能を起動するようにしてもよい。
また、音声出力部24において、会話支援機能が動作中であることを会話相手に音声信号で告知する具体的な動作としては、例えば、英語であれば「Wait a moment」といった音声ガイダンスを自動的に流すことで、利用者が会話を再開するまで少し時間が掛かることを、会話相手に対して知らせることができる。
[実施形態の拡張]
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
外国語での会話を行う電話端末装置といった用途に好適である。
10…電話端末装置、11…通信I/F部、12…音声処理部、13…操作入力部、14…画面表示部、15…記憶部、16…電話制御部、20…外国語会話支援装置、21…言語識別部、22…判定部、23…音声蓄積部、24…音声出力部、25…会話支援部、25A…音声認識部、25B…機械翻訳部、25C…翻訳結果表示部、31…入力音声、32…出力音声、33…翻訳支援情報、40…相手電話装置、50…電話網、51…電話回線。
Claims (10)
- 入力音声の言語の種別を識別する言語識別部と、
前記入力音声を一時的に蓄積する音声蓄積部と、
前記音声蓄積部から前記入力音声を読み出して会話相手への出力音声として出力する音声出力部と、
前記識別結果に基づいて、前記入力音声が前記会話相手との会話で使用している会話言語か否かを判定する判定部と、
前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記音声蓄積部から前記入力音声を読み出して、前記入力音声を前記会話言語に翻訳するための翻訳支援情報を生成し、その翻訳支援情報を画面表示する会話支援部と
を備えることを特徴とする外国語会話支援装置。 - 請求項1に記載の外国語会話支援装置において、
前記音声出力部は、前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記出力音声の出力を停止することを特徴とする外国語会話支援装置。 - 請求項1に記載の外国語会話支援装置において、
前記音声出力部は、前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記会話支援部による会話支援機能が動作中であることを前記会話相手に告知する音声信号を、前記出力音声として出力することを特徴とする外国語会話支援装置。 - 請求項1に記載の外国語会話支援装置において、
前記会話支援部は、
前記音声蓄積部から前記入力音声を読み出して音声認識する音声認識部と、
前記音声認識で得られた文字情報を前記会話言語へ翻訳する機械翻訳部と、
前記翻訳の結果を前記翻訳支援情報として画面表示する翻訳結果表示部と
を備えることを特徴とする外国語会話支援装置。 - 入力音声の言語の種別を識別した識別結果に基づいて、前記入力音声が会話相手との会話で使用している会話言語か否かを判定する判定ステップと、
前記入力音声を会話相手への出力音声として出力する音声出力ステップと、
前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記入力音声を前記会話言語に翻訳するための翻訳支援情報を生成し、その翻訳支援情報を画面表示する会話支援ステップと
を備えることを特徴とする外国語会話支援方法。 - 請求項5に記載の外国語会話支援方法において、
前記音声出力ステップは、前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記出力音声の出力を停止することを特徴とする外国語会話支援方法。 - 請求項5に記載の外国語会話支援方法において、
前記音声出力ステップは、前記判定の結果、前記入力音声が前記会話言語でなかった場合、前記会話支援ステップによる会話支援機能が動作中であることを前記会話相手に告知する音声信号を、前記出力音声として出力することを特徴とする外国語会話支援方法。 - 請求項5に記載の外国語会話支援方法において、
前記会話支援ステップは、
前記入力音声を音声認識する音声認識ステップと、
前記音声認識で得られた文字情報を前記会話言語へ翻訳する機械翻訳ステップと、
前記翻訳の結果を前記翻訳支援情報として画面表示する翻訳結果表示ステップと
を備えることを特徴とする外国語会話支援方法。 - コンピュータに、請求項1〜請求項4のいずれか1つに記載の外国語会話支援装置を構成する各部として機能させるためのプログラム。
- 請求項1〜請求項4のいずれか1つに記載の外国語会話支援装置を含む電話端末装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009284899A JP2011128260A (ja) | 2009-12-16 | 2009-12-16 | 外国語会話支援装置、方法、プログラム、および電話端末装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009284899A JP2011128260A (ja) | 2009-12-16 | 2009-12-16 | 外国語会話支援装置、方法、プログラム、および電話端末装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011128260A true JP2011128260A (ja) | 2011-06-30 |
Family
ID=44290943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009284899A Pending JP2011128260A (ja) | 2009-12-16 | 2009-12-16 | 外国語会話支援装置、方法、プログラム、および電話端末装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011128260A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016165590A1 (zh) * | 2015-04-13 | 2016-10-20 | 中兴通讯股份有限公司 | 语音翻译方法及装置 |
JP2018533786A (ja) * | 2015-09-22 | 2018-11-15 | フェイスブック,インク. | 世界共通翻訳 |
JP2020030231A (ja) * | 2018-08-20 | 2020-02-27 | Zホールディングス株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
-
2009
- 2009-12-16 JP JP2009284899A patent/JP2011128260A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016165590A1 (zh) * | 2015-04-13 | 2016-10-20 | 中兴通讯股份有限公司 | 语音翻译方法及装置 |
JP2018533786A (ja) * | 2015-09-22 | 2018-11-15 | フェイスブック,インク. | 世界共通翻訳 |
JP2020030231A (ja) * | 2018-08-20 | 2020-02-27 | Zホールディングス株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7187212B2 (ja) | 2018-08-20 | 2022-12-12 | ヤフー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817673B2 (en) | Translating languages | |
KR102303810B1 (ko) | 공유된 음성 작동 디바이스상의 호출 핸들링 | |
US9280539B2 (en) | System and method for translating speech, and non-transitory computer readable medium thereof | |
JP6570651B2 (ja) | 音声対話装置および音声対話方法 | |
US9668112B2 (en) | On-hold processing for telephonic systems | |
US20150081271A1 (en) | Speech translation apparatus, speech translation method, and non-transitory computer readable medium thereof | |
US8560326B2 (en) | Voice prompts for use in speech-to-speech translation system | |
BR112019026006A2 (pt) | Sistema para comunicação multimodal assíncrona e método de comunicação multimodal assíncrona | |
JP2011022600A (ja) | 音声認識システムの動作方法 | |
KR101954774B1 (ko) | 문자 데이터를 이용한 음성 통화를 제공하기 위한 전자 장치 및 방법 | |
KR20120093597A (ko) | 음성 인식으로 애플리케이션의 실행 가능한 이동통신 단말 장치 및 방법 | |
KR102628211B1 (ko) | 전자 장치 및 그 제어 방법 | |
US20190147851A1 (en) | Information processing apparatus, information processing system, information processing method, and storage medium which stores information processing program therein | |
JP2009300915A (ja) | 音楽再生機能を有する携帯端末 | |
JP7330066B2 (ja) | 音声認識装置、音声認識方法及びそのプログラム | |
JP2010103751A (ja) | 禁止語発信防止方法、禁止語発信防止電話、禁止語発信防止サーバ | |
WO2015083741A1 (ja) | 中継装置、表示装置および通信システム | |
JP2011128260A (ja) | 外国語会話支援装置、方法、プログラム、および電話端末装置 | |
JP7287006B2 (ja) | 話者決定装置、話者決定方法、および話者決定装置の制御プログラム | |
JP2010199741A (ja) | 携帯電話端末装置 | |
KR101450188B1 (ko) | 휴대용 단말기의 음성 제어 장치 및 방법 | |
JP2011248002A (ja) | 翻訳装置 | |
JP2016066983A (ja) | 通訳サービスシステム及び通訳サービス方法 | |
JP2020119043A (ja) | 音声翻訳システムおよび音声翻訳方法 | |
KR102496398B1 (ko) | 사용자 디바이스에 페어링되어 음성-텍스트를 변환하는 장치 및 그 방법 |