JP4935158B2 - 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム - Google Patents

音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム Download PDF

Info

Publication number
JP4935158B2
JP4935158B2 JP2006106776A JP2006106776A JP4935158B2 JP 4935158 B2 JP4935158 B2 JP 4935158B2 JP 2006106776 A JP2006106776 A JP 2006106776A JP 2006106776 A JP2006106776 A JP 2006106776A JP 4935158 B2 JP4935158 B2 JP 4935158B2
Authority
JP
Japan
Prior art keywords
translation
language
search priority
speech
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006106776A
Other languages
English (en)
Other versions
JP2007280137A (ja
Inventor
勇輝 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006106776A priority Critical patent/JP4935158B2/ja
Publication of JP2007280137A publication Critical patent/JP2007280137A/ja
Application granted granted Critical
Publication of JP4935158B2 publication Critical patent/JP4935158B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、音声を自動的に他の言語による音声に翻訳する技術に関し、特に、処理能力の低い携帯端末に好適な音声自動翻訳方法等に関する。
ある言語で入力された音声データを他の言語による音声データに変換して出力する自動翻訳システムは、その実用化がされ始めている。
特許文献1には、このような自動翻訳システムが記載されている。このシステムは、音声認識部と翻訳部と音声合成部を備えている。音声認識部は、第1の言語により入力された音声を認識し第1の言語で記述された文字列を得る。翻訳部は、この文字列を第2の言語で記述された翻訳文に変換する。音声合成部は、翻訳文を第2の言語による音声に変換して出力する。
このような翻訳システムの課題は、いかに高速にリアルタイムで翻訳を行うかということである。翻訳時間を短縮するため、漢字辞書のように、よく使用されている単語や単語列がライブラリの先頭にくるようにメモリ内の配置を変えながら翻訳する手法が一般的である。
特開2005−275887号公報
しかし、上記の翻訳高速化の手法は、パーソナルコンピュータのように高性能のCPU(Central Processing Unit)と大量のメモリ(たとえば、数GHzのクロックで動作するCPUと数百MBのメモリ)を備えた比較的処理能力の高い装置には適用できるが、コストや装置の大きさの制限のため処理能力が低くならざるを得ない携帯電話端末等の携帯型の装置には適用できないという問題があった。
そこで、本発明は、処理能力の低い装置にも適用することができる翻訳の高速化方法等を提供することを目的とする。
本発明の、音声自動翻訳装置は、単語または語句を話題別にグループ分けして登録した翻訳ライブラリと標準翻訳時間を記憶する記憶部と、第1の言語により入力された音声情報を音声認識して第1の言語によるテキストを生成する音声認識手段と、グループに設定された検索優先順に従って翻訳ライブラリを検索し、第1の言語による単語または語句に対応する第2の語句による単語または語句を取得してテキストを第2の原語による翻訳テキストに翻訳する翻訳手段と、翻訳テキストを第2の言語による翻訳音声情報に変換する音声合成手段と、により音声を自動的に翻訳する。
検索優先順序変更手段は、翻訳手段による翻訳に要した翻訳時間を複数回計測し、複数の翻訳時間と標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に入力音声の話題を判定し、その判定結果に対応するグループの検索優先順を上げる方向に変更する(請求項1ないし請求項4)。
上記音声自動翻訳装置によれば、検索優先順変更手段は、翻訳時間が標準翻訳時間と比較して長いと判断した場合には、会話中の話題を判断し、翻訳ライブラリの検索優先順の変更を行い、翻訳手段は変更された優先順に従って翻訳ライブラリを検索して翻訳を行う。
そのため、翻訳の時間を短縮することができるという効果がある。
また、翻訳ライブラリを話題によりグループ分けし、そのグループの検索優先順を変えることにより検索時間の短縮を実現しているから、よく使用されている単語や語句がライブラリの先頭にくるようにメモリ内の配置をリアルタイムに変えながら翻訳する必要はなくなる。
そのため、それに伴うCPUの処理能力とメモリ容量への要求は不要になり、装置サイズやコストへのインパクトを抑制できる効果がある。
上記音声自動翻訳装置において、所定の条件を、予め定めた回数の比較において翻訳時間が標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件としてもよい(請求項2)。
このようにすれば、検索優先順を変更するか否かを判定する区切りとなる翻訳時間の計測回数を適切に定め、検索優先順の変更処理によるオーバヘッドと検索優先順を変更することによる検索の高速化のバランスをとり最適化することが出来る。
上記音声自動翻訳装置において、所定の条件を、比較において予め定めた基準回数以上連続して翻訳時間が標準翻訳時間よりも大きいと判定した、という条件としてもよい(請求項3)。
このようにすれば、基準回数を適切に定めて、話題の判定の精度を向上させることが出来る。
上記音声自動翻訳装置において、話題には日常話題が含まれ、この日常話題のグループの検索優先順は最上位に固定されているようにしてもよい(請求項4)。
このようにすれば、翻訳手段は、話者によらず会話中の出現頻度が高い日常話題に関する単語等を優先的に検索することができる。
そのため、翻訳の時間を短縮することができる。
本発明の音声自動翻訳方法は、第1の言語により入力された音声情報を音声認識して第1の言語によるテキストを生成する音声認識工程と、単語または語句を話題別にグループ分けして登録し記憶装置に予め格納された翻訳ライブラリをグループに設定された検索優先順に従って検索し、第1の言語による単語または語句に対応する第2の言語による単語または語句を取得してテキストを第2の言語による翻訳テキストに翻訳する翻訳工程と、翻訳テキストを第2の言語による翻訳音声情報に変換する音声合成工程と、翻訳工程における翻訳に要した翻訳時間を複数回計測し、翻訳時間と記憶装置に予め記憶された標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に入力音声の話題を判定し、その判定結果に対応するグループの検索優先順を上げる方向に変更する検索優先順変更工程とにより音声の自動翻訳を行う(請求項5ないし請求項8)。
上記音声自動翻訳方法によれば、検索優先順変更工程では、翻訳時間が標準翻訳時間と比較して長いと判断した場合には、会話中の話題を判断し、翻訳ライブラリの検索優先順の変更を行い、翻訳工程では、変更された優先順に従って翻訳ライブラリを検索して翻訳を行う。
そのため、翻訳の時間を短縮することができるという効果がある。
また、翻訳ライブラリを話題によりグループ分けし、そのグループの検索優先順を変えることにより検索時間の短縮を実現しているから、よく使用されている単語や語句がライブラリの先頭にくるようにメモリ内の配置をリアルタイムに変えながら翻訳する必要はなくなる。
そのため、それに伴うCPUの処理能力とメモリ容量への要求は不要になり、装置サイズやコストへのインパクトを抑制できる効果がある。
上記音声自動翻訳方法において、所定の条件を、予め定めた回数の比較において翻訳時間が標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件としても良い(請求項6)。
このようにすれば、検索優先順を変更するか否かを判定する区切りとなる翻訳時間の計測回数を適切に定め、検索優先順の変更処理によるオーバヘッドと検索優先順を変更することによる検索の高速化のバランスをとり最適化することが出来る。
上記音声自動翻訳方法において、所定の条件は、比較において予め定めた基準回数以上連続して翻訳時間が標準翻訳時間よりも大きいと判定した、という条件としても良い(請求項7)。
このようにすれば、基準回数を適切に定めて、話題の判定の精度を向上させることが出来る。
上記音声自動翻訳方法において、グループには日常話題のグループが含まれ、この日常話題のグループの検索優先順は最上位に固定されているようにしても良い(請求項8)。
このようにすれば、翻訳手段は、話者によらず会話中の出現頻度が高い日常話題に関する単語等を優先的に検索することができる。
そのため、翻訳の時間を短縮することができる。
本発明の音声自動翻訳プログラムは、コンピュータに、第1の言語により入力された音声情報を音声認識して第1の言語によるテキストを生成する音声認識機能と、単語または語句を話題別にグループ分けして登録し記憶装置に予め格納された翻訳ライブラリをグループに設定された検索優先順に従って検索し、第1の言語による単語または語句に対応する第2の言語による単語または語句を取得してテキストを第2の言語による翻訳テキストに翻訳する翻訳機能と、翻訳テキストを第2の言語による翻訳音声情報に変換する音声合成機能と、翻訳工程における翻訳に要した翻訳時間を複数回計測し、翻訳時間と記憶装置に予め記憶された標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に入力音声の話題を判定し、その判定結果に対応するグループの検索優先順を上げる方向に変更する検索優先順変更機能とを実行させることにより音声の自動翻訳を行う(請求項9ないし請求項12)。
上記音声自動翻訳プログラムによれば、検索優先順変更機能は、翻訳時間が標準翻訳時間と比較して長いと判断した場合には、会話中の話題を判断し、翻訳ライブラリの検索優先順の変更を行い、翻訳機能は、変更された優先順に従って翻訳ライブラリを検索して翻訳を行う。
そのため、翻訳の時間を短縮することができるという効果がある。
また、翻訳ライブラリを話題によりグループ分けし、そのグループの検索優先順を変えることにより検索時間の短縮を実現しているから、よく使用されている単語や語句がライブラリの先頭にくるようにメモリ内の配置をリアルタイムに変えながら翻訳する必要はなくなる。
そのため、それに伴うCPUの処理能力とメモリ容量への要求は不要になり、装置サイズやコストへのインパクトを抑制できる効果がある。
上記音声自動翻訳プログラムにおいて、所定の条件を、予め定めた回数の比較において翻訳時間が標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件としても良い(請求項10)。
このようにすれば、検索優先順を変更するか否かを判定する区切りとなる翻訳時間の計測回数を適切に定め、検索優先順の変更処理によるオーバヘッドと検索優先順を変更することによる検索の高速化のバランスをとり最適化することが出来る。
上記音声自動翻訳プログラムにおいて、所定の条件を、比較において予め定めた基準回数以上連続して翻訳時間が標準翻訳時間よりも大きいと判定した、という条件としても良い(請求項11)。
このようにすれば、基準回数を適切に定めて、話題の判定の精度を向上させることが出来る。
上記音声自動翻訳プログラムにおいて、グループには日常話題のグループが含まれ、この日常話題のグループの検索優先順は最上位に固定されているようにしても良い(請求項12)。
このようにすれば、翻訳手段は、話者によらず会話中の出現頻度が高い日常話題に関する単語等を優先的に検索することができる。
そのため、翻訳の時間を短縮することができる。
本発明によれば、翻訳時間が標準翻訳時間と比較して長いと判断した場合には、会話中の話題を判断し、翻訳ライブラリの検索優先順の変更を行い、変更された優先順に従って翻訳ライブラリを検索して翻訳を行う。
そのため、翻訳の時間を短縮することができるという効果がある。
また、翻訳ライブラリを話題によりグループ分けし、そのグループの検索優先順を変えることにより検索時間の短縮を実現しているから、よく使用されている単語や語句がライブラリの先頭にくるようにメモリ内の配置をリアルタイムに変えながら翻訳する必要はなくなる。
そのため、それに伴うCPUの処理能力とメモリ容量への要求は不要になり、装置サイズやコストへのインパクトを抑制できる効果がある。
以下、図を参照しながら本発明の一実施形態である端末1(音声自動翻訳装置の一例)の構成と動作について説明する。
図1(a)は、端末1の構成を示すブロック図である。
端末1は、携帯電話機、スマートフォン等の携行可能な端末装置で、無線通信により公衆電話網2を介して相手端末3と接続し通話する機能を備えている。相手端末は、携帯電話機、固定電話機等任意の電話端末である。
端末1は、後述する音声自動翻訳部20を備え、端末1と相手端末3の間の音声通話を自動的に翻訳する。この翻訳は、双方向で行うため端末3は、翻訳機能を備えている必要はない。
端末1は、CPU11、メモリ12、通信部13、マイクロフォン14、スピーカ15を備えている。
CPU11は、制御機能および演算機能を備え、メモリ12に記憶されたコンピュータプログラムを読み込んで実行することにより端末1全体の動作を制御する。
メモリ12は、たとえばRAMにより構成され、CPU11の主記憶装置として機能すると共に、翻訳ライブラリ104等の情報を格納している。
通信部13は、CDMA方式等の携帯電話規格に従った通信ユニットで、無線により公衆電話網2に接続し、相手端末3等の他の端末装置の間で情報の送受信を行う。
マイクロフォン14は、音声入力手段であり、端末1のユーザが発声した音声を電気信号に変換し、後述する音声認識手段21に出力する。
スピーカ15は、相手端末3から受信した音声情報や、音声合成手段23から出力された翻訳された音声情報を音波に変換して出力する。
図1(b)は、端末1の機能ブロック図である。
端末1は、音声情報自動翻訳部20と記憶部30により構成される。
音声情報自動翻訳部20は、次の各手段を含み、端末1のユーザ(以下、単に「ユーザ」という)と相手端末3のユーザ(以下、「通話相手」という)の通話に用いる言語が異なる場合に、リアルタイムで相互に翻訳を行う。
音声認識手段21は、ユーザが発声し、マイクロフォン14から入力された音声情報を音声認識してユーザが用いる言語による文字列を生成する。また、通話相手が発声し、通信部13から入力された音声情報を音声認識して通話相手が用いる言語による文字列を生成する。
翻訳手段22は、音声認識手段21が生成したユーザが用いる言語による文字列と通話相手が用いる言語による文字列との間で相互に翻訳を行う。翻訳手段22は、翻訳を行う際に、翻訳ライブラリ31を参照し、原文に含まれる単語または語句(以下「単語等」という)に対応する翻訳文の単語等を取得する。
音声合成手段23は、翻訳手段22が生成した翻訳済みの文字列を音声情報に変換し、通信部13またはマイクロフォン14に出力する。
検索優先順変更手段24は、翻訳手段22が翻訳に要した時間を計測し、これが標準翻訳時間よりも大きい場合に、進行している通話の現在の話題を判定し、その判定結果に応じて翻訳ライブラリ31の検索優先順を変更する。
上記の各手段は、CPU11がメモリ12に格納された音声自動翻訳プログラムを実行し、端末1の各ハードウェアを制御することにより実現される。
記憶部30には、翻訳ライブラリ31と標準翻訳時間32が記憶されている。
翻訳ライブラリ31は、翻訳手段22が原文の単語等に対応する翻訳文の単語等を検索するためのテーブルで、端末1においては、単語が話題毎に分類して格納されている。翻訳手段23は、検索優先順変更手段24により決定された順番で、翻訳ライブラリ31を検索する。
翻訳ライブラリ31の構成例を図2、図3に示す。
図2は、検索優先順変更前の翻訳ライブラリ31の一例である。翻訳ライブラリ31は、日常話題、ビジネス話題、政治話題、医学話題、文化話題、工学話題等のグループから構成されている。各グループには、その話題に関する会話中で出現頻度が高い単語等が登録されている。
検索優先順変更前の翻訳ライブラリ検索優先順は、日常話題がトップで、その次にビジネス話題、政治話題等という順である。通常の通話内容は日常的なものが多いため、検索優先順の初期設定では、日常話題をトップにしてある。そうすることによって、翻訳手段22は、よく使う会話中の話題の単語を優先的に検索することができ、翻訳の時間を短縮することができる。
図3は、検索優先順変更後の翻訳ライブラリ31の一例である。翻訳ライブラリ31は、上記の図2と同様に日常話題、ビジネス話題、政治話題、医学話題、文化話題、工学話題等から構成されている。
検索優先順変更後の翻訳ライブラリ検索優先順は、日常話題がトップで、その次に工学話題、ビジネス話題、政治話題等順である。それは会話内容に使用された単語数が一番多いのは日常話題で、その次は工学話題、ビジネス話題、政治話題等であることを意味する。そうすることによって、通話中によく使用されている日常話題及び工学話題の単語を優先的に検索され、翻訳の時間を短縮することができる。
標準翻訳時間32は、検索優先順変更手段24が翻訳時間が長いか否かを判定する際の基準となる情報で、たとえば、標準的なテキストをいくつか選定し端末1により実際に翻訳を行い、各テキストを翻訳するのに要した時間を計測してそれらを平均することにより決定する。
次に、端末1の動作について、詳細に説明する。
図4は、ユーザが端末1を用いて通話相手と通話する場合の端末1の全体の動作を示すフローチャート図である。
図4を参照すると、端末1の音声情報自動翻訳部20は、通話が開始されているか否かを判定し(ステップA1)、開始後であると判断した場合には、通話相手からの音声情報があるかどうかの確認を行う(ステップA2)。
通話相手からの音声情報があった場合には、ユーザと通話相手が通話に使用する言語が同一かどうかの判断を行う(ステップA3)。
使用言語が異なる(たとえばユーザは日本語、通話相手は英語を使用しているとする)場合には、音声情報自動翻訳部20は、双方向の音声情報自動翻訳を行う(ステップA4)。具体的には、音声認識手段21がユーザが入力した日本語の音声を音声認識して日本語のテキストを生成し、これを翻訳手段22が英語のテキストに翻訳し、音声合成手段23が翻訳したテキストを英語の音声に変換して通信部13を介して端末3に送信する。端末3から受信した英語の音声情報についても同様の手順で日本語の音声情報に変換してスピーカ15に出力する。
このとき、検索優先順変更手段24は、原語のテキストから翻訳テキストを生成するまでの時間である翻訳時間tを、たとえば1文ごとに計測する(ステップA5)。翻訳時間の測定は、このほか、予め定めた語数、音声データの情報量(ビット数)を区切りとして行っても良い。
そして、翻訳時間を標準翻訳時間Tと比較して、翻訳の時間が長いかどうかの判断を行う(ステップA6)。翻訳の時間が遅くない(翻訳時間t≦標準翻訳時間T)場合には、N(ステップA6の判定結果がノーであった回数)を1増加させる処理を実行し(ステップA7)、翻訳の時間が長い(翻訳時間t>標準翻訳時間T)という結果を得た場合には、Y(ステップA6の判定結果がイエスであった回数)を1増加させる処理を実行(ステップA8)する。
次に、検索優先順変更手段24は、ライブラリの検索優先順序を変える条件が満たされるか否かを判定する(ステップA9)。図4では、一例として、この判定を翻訳時間の測定を10回行う毎に行うこととし、翻訳時間が長いと判定された回数が長くないと判定された回数以上(Y+N=10、かつ、Y≧N)である場合に検索優先順の変更を行うようにしている。判定条件は、この例には限定されず、たとえば、ステップA6の判定が、所定の回数(たとえば3回)以上連続して「イエス」となった場合に検索優先順序を変更するようにしても良い。
ステップA9の判定が「イエス」となった場合は、現在の話題を判定し、その判定結果に基づいてライブラリの検索優先順序の変更を実施する(ステップA10)。この処理の詳細については後述する。
端末1は、以上の動作を通話が完了するまで繰り返し実行する(ステップA11)。
ユーザと通話相手が共にエンジニアである場合に想定される具体的な動作例は、たとえば、次のようになる。
会話を始めた直後は、「こんにちは」等の挨拶に始まり日常の話題が主であるのが通例である。そのため、翻訳ライブラリ31は図2に示す様な話題の検索優先順となっており、会話中の単語等を検索するに適した格好になっている。この為、翻訳時間は短く、上述のステップA6の判断結果はNoとなる確率が高い。
一方、会話が進み、用件の本題に入った場合、例えばその話題がプロジェクト開発の技術論であった場合、図2の翻訳ライブラリ31の検索順では、工学話題が後方にあり検索に時間を要する場合が多くなる。この場合、上述のステップA6の判断はYesとなる場合が多くなる。
その結果、「Y+N=10(10は一例)、かつ、Y≧N」という条件が満足され(ステップA9)、端末1の検索優先順変更手段24は、翻訳時間が長いと判断し、会話中の話題により翻訳ライブラリ31の検索優先順の変更を行う(ステップA10)。
前述のステップA9は、会話の中から話題を予測し判断するための処理である。会話の中には様々な言葉や単語が含まれており、その個々の言葉や単語で翻訳ライブラリ31の検索順序を変更してしまうと、頻繁に検索順序が変わってしまうことになり、結果、次に来る言葉や単語を正確に予測できず、翻訳時間を最適化できない。
話題を予測・判断する処理を入れ、翻訳ライブラリの検索順をリアルタイムではなくゆっくり変えることで、同じ話題を続けている間は翻訳時間を短縮することが可能になる。話題が変わった場合には、その検索順を変更し翻訳時間を短縮する。この処理を会話中、繰り返し行う。
会話中の話題により翻訳ライブラリ31の検索優先順の変更を行う処理(図4のステップA10)の詳細を図5のフローチャート図に示す。
進行中の会話内容によりM(M=1, 2, …)個の単語等をサンプリングし(ステップB1)、そのサンプリングされたM個の言葉や単語を翻訳ライブラリ31のデータと照合する(ステップB2)。
次に、サンプリングされた言葉や単語が、どの話題のライブラリに属しているかをカウントする(ステップB3)。
M個のサンプリングが終了した時点でカウント数の多い順に翻訳ライブラリ31の検索優先順の変更を行う(ステップB4)。
図3は図2の検索順が上述の検索優先順の変更処理により変更された一例である。上述の例で、会話はプロジェクト開発の技術論であった為、翻訳した言葉や単語が工業話題に属することが多くなり、工業話題が上位に上がっている。これにより、プロジェクト開発の技術論の会話の翻訳速度は向上する。
以上のように、端末1によれば、検索優先順変更手段24は、測定した翻訳時間と標準翻訳時間とを比較して、翻訳時間が長いと判断した場合には、会話中の話題を判断し、翻訳ライブラリの検索優先順の変更を行う。翻訳手段22は、この変更された検索優先順に従って翻訳ライブラリ21を検索して翻訳を行う。
そのため、翻訳の時間を短縮することができるという効果がある。
また、端末1によれば、検索優先順変更手段24は、所定の条件(たとえば図4のステップA9)が満たされる場合にのみ優先順の変更を行う。
そのため、仮名漢字変換を行う際の漢字辞書の様に、よく使用されている単語等がライブラリの先頭にくるようにメモリ内の配置をリアルタイムに変えながら翻訳する必要はなくなり、それに伴うCPUの処理能力とメモリ容量への要求は不要になる。これにより、装置サイズやコストへのインパクトを抑制できる効果がある。
図1(a)は、本発明の一実施形態である端末のハードウェア構成を示すブロック図である。図1(b)は、端末の機能ブロック図である。 検索優先順を変更する前の翻訳ライブラリの一例を示す図である。 検索優先順を変更した後の翻訳ライブラリの一例を示す図である。 音声情報の自動翻訳を行う際の端末の動作を示すフローチャート図である。 翻訳ライブラリの検索優先順を変更する際の端末の動作を示すフローチャート図である。
符号の説明
1 端末
2 公衆電話網
3 相手端末
20 音声情報自動翻訳部
21 音声認識手段
22 翻訳手段
23 音声合成手段
24 検索優先順変更手段
30 記憶部
31 翻訳ライブラリ
32 標準翻訳時間

Claims (12)

  1. 単語または語句を話題別にグループ分けして登録した翻訳ライブラリと標準翻訳時間を記憶する記憶部と、
    第1の言語により入力された音声情報を音声認識して前記第1の言語によるテキストを生成する音声認識手段と、
    前記グループに設定された検索優先順に従って前記翻訳ライブラリを検索し、前記第1の言語による単語または語句に対応する第2の言語による単語または語句を取得して前記テキストを前記第2の言語による翻訳テキストに翻訳する翻訳手段と、
    前記翻訳テキストを前記第2の言語による翻訳音声情報に変換する音声合成手段と、
    前記翻訳手段による前記翻訳に要した翻訳時間を複数回計測し、前記翻訳時間と前記標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に前記入力音声の話題を判定し、その判定結果に対応する前記グループの前記検索優先順を上げる方向に変更する検索優先順変更手段とを備えたことを特徴とした音声自動翻訳装置。
  2. 前記所定の条件は、予め定めた回数の前記比較において前記翻訳時間が前記標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件であることを特徴とした請求項1に記載の音声自動翻訳装置。
  3. 前記所定の条件は、前記比較において予め定めた基準回数以上連続して前記翻訳時間が前記標準翻訳時間よりも大きいと判定した、という条件であることを特徴とした請求項1に記載の音声自動翻訳装置。
  4. 前記グループには日常話題のグループが含まれ、この日常話題のグループの前記検索優先順は最上位に固定されていることを特徴とした請求項1ないし請求項3のいずれかひとつに記載の音声自動翻訳装置。
  5. 第1の言語により入力された音声情報を音声認識して前記第1の言語によるテキストを生成する音声認識工程と、
    単語または語句を話題別にグループ分けして登録し記憶装置に予め格納された翻訳ライブラリを前記グループに設定された検索優先順に従って検索し、前記第1の言語による単語または語句に対応する第2の言語による単語または語句を取得して前記テキストを前記第2の言語による翻訳テキストに翻訳する翻訳工程と、
    前記翻訳テキストを前記第2の言語による翻訳音声情報に変換する音声合成工程と、
    前記翻訳工程における前記翻訳に要した翻訳時間を複数回計測し、前記翻訳時間と記憶装置に予め記憶された標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に前記入力音声の話題を判定し、その判定結果に対応する前記グループの前記検索優先順を上げる方向に変更する検索優先順変更工程とを備えたことを特徴とした音声自動翻訳方法。
  6. 前記所定の条件は、予め定めた回数の前記比較において前記翻訳時間が前記標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件であることを特徴とした請求項5に記載の音声自動翻訳方法。
  7. 前記所定の条件は、前記比較において予め定めた基準回数以上連続して前記翻訳時間が前記標準翻訳時間よりも大きいと判定した、という条件であることを特徴とした請求項5に記載の音声自動翻訳方法。
  8. 前記グループには日常話題のグループが含まれ、この日常話題のグループの前記検索優先順は最上位に固定されていることを特徴とした請求項5ないし請求項7のいずれかひとつに記載の音声自動翻訳方法。
  9. コンピュータに、
    第1の言語により入力された音声情報を音声認識して前記第1の言語によるテキストを生成する音声認識機能と、
    単語または語句を話題別にグループ分けして登録し記憶装置に予め格納された翻訳ライブラリを前記グループに設定された検索優先順に従って検索し、前記第1の言語による単語または語句に対応する第2の言語による単語または語句を取得して前記テキストを前記第2の言語による翻訳テキストに翻訳する翻訳機能と、
    前記翻訳テキストを前記第2の言語による翻訳音声情報に変換する音声合成機能と、
    前記翻訳工程における前記翻訳に要した翻訳時間を複数回計測し、前記翻訳時間と記憶装置に予め記憶された標準翻訳時間とを比較し、その比較結果が所定の条件を満たす場合に前記入力音声の話題を判定し、その判定結果に対応する前記グループの前記検索優先順を上げる方向に変更する検索優先順変更機能とを実行させることを特徴とした音声自動翻訳プログラム。
  10. 前記所定の条件は、予め定めた回数の前記比較において前記翻訳時間が前記標準翻訳時間よりも大きいと判定した回数がそうでないと判定した回数以上である、という条件であることを特徴とした請求項9に記載の音声自動翻訳プログラム。
  11. 前記所定の条件は、前記比較において予め定めた基準回数以上連続して前記翻訳時間が前記標準翻訳時間よりも大きいと判定した、という条件であることを特徴とした請求項9に記載の音声自動翻訳プログラム。
  12. 前記グループには日常話題のグループが含まれ、この日常話題のグループの前記検索優先順は最上位に固定されていることを特徴とした請求項9ないし請求項11のいずれかひとつに記載の音声自動翻訳プログラム。
JP2006106776A 2006-04-07 2006-04-07 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム Expired - Fee Related JP4935158B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006106776A JP4935158B2 (ja) 2006-04-07 2006-04-07 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006106776A JP4935158B2 (ja) 2006-04-07 2006-04-07 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム

Publications (2)

Publication Number Publication Date
JP2007280137A JP2007280137A (ja) 2007-10-25
JP4935158B2 true JP4935158B2 (ja) 2012-05-23

Family

ID=38681509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006106776A Expired - Fee Related JP4935158B2 (ja) 2006-04-07 2006-04-07 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム

Country Status (1)

Country Link
JP (1) JP4935158B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220029912A (ko) * 2020-09-02 2022-03-10 삼성전자주식회사 통역 상황 정보를 제공하는 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01131959A (ja) * 1987-11-17 1989-05-24 Nec Corp 話題予測に基づいた文章解釈方式及び装置
JP2002183134A (ja) * 2000-12-18 2002-06-28 Logo Vista Corp 翻訳装置

Also Published As

Publication number Publication date
JP2007280137A (ja) 2007-10-25

Similar Documents

Publication Publication Date Title
KR101932181B1 (ko) 디바이스 도킹 컨텍스트를 이용한 음성인식
US7957972B2 (en) Voice recognition system and method thereof
US7818166B2 (en) Method and apparatus for intention based communications for mobile communication devices
US7552045B2 (en) Method, apparatus and computer program product for providing flexible text based language identification
JP4041158B2 (ja) 対話支援装置
US8204748B2 (en) System and method for providing a textual representation of an audio message to a mobile device
US8862478B2 (en) Speech translation system, first terminal apparatus, speech recognition server, translation server, and speech synthesis server
US8423351B2 (en) Speech correction for typed input
KR20090085673A (ko) 음성 인식을 이용한 콘텐츠 선택
CN101681365A (zh) 用于分布式语音搜索的方法和装置
KR20090111825A (ko) 언어 독립적인 음성 인덱싱 및 검색 방법 및 장치
Husnjak et al. Possibilities of using speech recognition systems of smart terminal devices in traffic environment
KR102056330B1 (ko) 통역장치 및 그 방법
CN112580335A (zh) 多音字消歧方法及装置
JP4935158B2 (ja) 音声自動翻訳装置、音声自動翻訳方法、音声自動翻訳プログラム
KR100367579B1 (ko) 음성을 이용한 인터넷사용시스템
KR102056329B1 (ko) 통역방법
CN110827815A (zh) 一种语音识别方法、终端、系统以及计算机存储介质
KR20200109995A (ko) 피싱 분석 장치 및 그 방법
WO2023004561A1 (en) Voice or speech recognition using contextual information and user emotion
KR101999779B1 (ko) 통역방법
KR20090000858A (ko) 멀티모달 기반의 정보 검색 장치 및 방법
KR20120063827A (ko) 연속 음성 인식에 대한 시맨틱 네트워크를 이용한 호 분류 방법 및 그 시스템
JP4445371B2 (ja) 認識語彙の登録装置と音声認識装置および方法
KR101037779B1 (ko) 한국어 음소결합확률계산기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees