JP6923332B2 - 自動通訳方法及び装置 - Google Patents

自動通訳方法及び装置 Download PDF

Info

Publication number
JP6923332B2
JP6923332B2 JP2017058860A JP2017058860A JP6923332B2 JP 6923332 B2 JP6923332 B2 JP 6923332B2 JP 2017058860 A JP2017058860 A JP 2017058860A JP 2017058860 A JP2017058860 A JP 2017058860A JP 6923332 B2 JP6923332 B2 JP 6923332B2
Authority
JP
Japan
Prior art keywords
sentence
language
feature vector
translation
automatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058860A
Other languages
English (en)
Other versions
JP2018005218A (ja
Inventor
昊 潼 李
昊 潼 李
永 起 朴
永 起 朴
尚 賢 柳
尚 賢 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018005218A publication Critical patent/JP2018005218A/ja
Application granted granted Critical
Publication of JP6923332B2 publication Critical patent/JP6923332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施形態は自動通訳方法及び装置に関する。
情報通信技術及びインターネットの発達に伴って人は様々な言語で作られたコンテンツの提供を受けることになった。特に、グローバルビジネス化によって様々な言語を用いるユーザ間のコミュニケーション及びコンテンツ翻訳などのために通訳及び翻訳技術が早く発展している。
しかし、同一又は類似の意味を伝達する音声でも文章の表現方式又は使用する単語などによって通訳及び翻訳結果が極めて異なることがある。
一側面によれば、音声認識器の符号化結果、復号化結果、及び機械翻訳機の符号化結果、復号化結果を用いてn−best候補群を生成することによって、通訳のための時間追加なくともより正確な通訳結果を提供することにある。
一側面によれば、類似文章に有能な自動通訳方法及び装置を提供することにある。
一側面によれば、自動通訳方法は、第1特徴ベクトルを生成するために第1言語からなる音声信号を符号化するステップと、第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップと、第2言語に対する第2特徴ベクトルを生成するために前記第1言語文章を符号化するステップと、前記第2特徴ベクトルを復号化して第2言語文章を生成するステップと、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいた候補文章リストの生成を制御するステップと、前記音声信号の翻訳として前記候補文章リストから最終第2言語文章を選択するステップとを含む。
音声認識器の符号化結果、復号化結果、及び機械翻訳機の符号化結果、復号化結果を用いてn−best候補群を生成することにより、通訳のために時間が追加されなくても正確な通訳結果を提供することができる。
類似文章に有能な自動通訳方法及び装置を提供することができる。
一実施形態に係る自動通訳装置の動作原理を説明するための図である。 一実施形態に係る自動通訳装置の構成及び通訳方法を説明するための図である。 一実施形態に係る機械翻訳装置の構成及び翻訳方法を説明するための図である。 一実施形態に係る自動通訳装置に含まれた音声認識器及び翻訳機の構成及び動作を説明するための図である。 一実施形態に係る音声信号から特徴を抽出する方法を説明するための図である。 一実施形態に係る音声認識器の音声認識方法を説明するための図である。 他の実施形態に係る音声認識方法を説明するための図である。 一実施形態に係る翻訳機を構成するニューラルネットワークの構造及び動作を説明するための図である。 一実施形態に係るデータベースに格納される情報の形態を示す図である。 一実施形態に係る最終第2言語文章を選択する方法を説明するための図である。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。 一実施形態に係る自動通訳方法を示すフローチャートである。
<発明の概要>
一側面によれば、自動通訳方法は、第1特徴ベクトルを生成するために第1言語からなる音声信号を符号化するステップと、第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップと、第2言語に対する第2特徴ベクトルを生成するために前記第1言語文章を符号化するステップと、前記第2特徴ベクトルを復号化して第2言語文章を生成するステップと、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいた候補文章リストの生成を制御するステップと、前記音声信号の翻訳として前記候補文章リストから最終第2言語文章を選択するステップとを含む。
前記候補文章リストの生成を制御するステップは、データベースから前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに対応するものとして決定された候補文章を取得するステップを含み得る。
前記候補文章を取得するステップは、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、前記データベースに格納された複数の要素のうち前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似すると決定された要素それぞれを検索するステップを含み得る。
前記候補文章リストの生成を決定するステップは、データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果を取得するステップと、前記データベースから前記第1言語文章に類似すると決定された以前に認識された文章にマッチングされた第2通訳結果を取得するステップと、前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果を取得するステップと、前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果を取得するステップとのうちいずれか1つ又はその組合せを含み得る。
前記候補文章リストの生成を制御するステップは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加するステップと、前記第2言語文章を前記候補文章リストに追加するステップとをさらに含み得る。
前記第2通訳結果を取得するステップは、前記第1言語文章をベクトルに変換するステップと、前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定するステップとを含み得る。
前記第4通訳結果を取得するステップは、前記第2言語文章をベクトルに変換するステップと、前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第2言語文章に類似するかを決定するステップとを含み得る。
前記最終第2言語文章を選択するステップは、前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出するステップと、前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択するステップとを含み得る。
前記第1言語の音声信号を符号化するステップは、予め決定されたフレームの長さに基づいて前記第1言語の音声信号をサンプリングするステップと、フレームに対応する入力ベクトルそれぞれを生成するステップと、音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力するステップと、前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからのプリントされるように決定することによって前記第1特徴ベクトルを生成するステップとを含み得る。
前記第1特徴ベクトルを復号化するステップは、前記第1特徴ベクトルを音声認識のためのデコーダに入力するステップと、前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、前記予め決定された数の文章シーケンスのうち、コアが最も高い文章シーケンスを前記第1言語文章として選択することで前記第1言語文章を生成するステップとを含み得る。
前記第1言語文章を符号化するステップは、前記第1言語文章を複数のサブワードに分割するステップと、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力するステップと、前記順次入力された入力ベクトルそれぞれに対して前記第2特徴ベクトルが前記エンコーダからのプリントされるように決定することで前記第2特徴ベクトルを生成するステップとを含み得る。
前記第2言語文章を生成するステップは、前記第2特徴ベクトルを機械翻訳のためのデコーダに入力するステップと、前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択するステップとを含み得る。
前記自動通訳方法は、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルをデータベースに格納するステップと、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルに対応する前記第2言語文章及び前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納するステップとをさらに含み得る。
一実施形態によると、自動通訳方法は、第2言語に対する特徴ベクトルを生成するために第1言語からなる第1言語文章を符号化するステップと、前記第2言語からなる第2言語文章を生成するために前記特徴ベクトルを復号化するステップと、前記特徴ベクトル及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいて候補文章リストの生成を制御するステップと、前記候補文章リストから最終第2言語文章を選択するステップとを含む。
前記自動通訳方法は、第1特徴ベクトルを生成するために前記第1言語からなる音声信号を符号化するステップと、前記第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップとをさらに含み得る。
前記候補文章リストの生成を制御するステップは、データベースから前記特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第1翻訳結果を取得するステップと、前記データベースから前記第2言語文章に類似すると決定された文章にマッチングされた第2翻訳結果を取得するステップとのうちいずれか1つ又はその組合せを含み得る。
前記候補文章リストの生成を制御するステップは、前記第1翻訳結果及び前記第2翻訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加するステップと、前記第2言語文章を前記候補文章リストに追加するステップとをさらに含み得る。
前記最終第2言語文章を選択するステップは、前記特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出するステップと、前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択するステップとを含み得る。
前記第1言語文章を符号化するステップは、前記第1言語文章を複数のサブワードに分割するステップと、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力するステップと、前記順次入力された入力ベクトルそれぞれに対して前記特徴ベクトルが前記エンコーダからのプリントされるように決定することによって前記特徴ベクトルを生成するステップとを含み得る。
前記特徴ベクトルを復号化するステップは、前記特徴ベクトルを機械翻訳のためのデコーダに入力するステップと、前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択することで前記第2言語文章を生成するステップとを含み得る。
前記自動通訳方法は、データベースに格納された前記第1言語文章と共に、前記特徴ベクトルを前記データベースに格納するステップと、前記第1言語文章及び前記特徴ベクトルに対応する前記第2言語文章及び前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納するステップとをさらに含み得る。
一実施形態に係る自動通訳装置は、第1言語からなる音声信号を認識符号化して前記第1言語に対する第1特徴ベクトルを生成し、前記第1特徴ベクトルを復号化して第1言語文章を生成する音声認識器と、前記第1言語からなる第1言語文章を翻訳符号化して前記第2言語に対する第2特徴ベクトルを生成し、前記第2特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいて生成された候補文章リストから前記音声信号の翻訳として最終第2言語文章を選択するプロセッサとを含む。
前記音声認識器は、前記第1特徴ベクトルを生成するために前記音声信号の認識符号化を行う認識エンコーダ、及び前記第1言語文章を生成するために前記第1特徴ベクトルの復号化を行う認識デコーダを含み、前記翻訳機は、前記第2特徴ベクトルを生成するために前記第1言語文章の翻訳符号化を行う翻訳エンコーダ、及び前記第2言語文章を生成するために前記第2特徴ベクトルの復号化を行う翻訳デコーダを含み得る。
前記プロセッサは、前記認識エンコーダ、前記認識デコーダ、前記翻訳エンコーダ及び前記翻訳デコーダをさらに含み、前記認識エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記音声信号に基づいて前記第1特徴ベクトルを決定するニューラルネットワークを実現し、前記認識デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1特徴ベクトルに基づいて前記第1言語文章を決定するニューラルネットワークを実現し、前記翻訳エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1言語文章に基づいて前記第2特徴ベクトルを決定するニューラルネットワークを実現し、前記翻訳デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第2特徴ベクトルに基づいて前記第2言語文章を決定するニューラルネットワークを実現し得る。
前記自動通訳装置 前記プロセッサは、データベースを含むメモリをさらに含み、前記データベースから前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つ又はその組合せに対応すると決定された候補文章を取得し得る。
前記プロセッサは、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、前記データベースに格納された複数の要素のうち前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似すると決定された要素それぞれを検索し得る。
前記プロセッサは、データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果、前記データベースから前記第1言語文章に類似すると決定された以前認識された文章にマッチングされた第2通訳結果、前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果、及び前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果のうちいずれか1つ又はその組合せを取得し得る。
前記プロセッサは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加し得る。
前記プロセッサは、前記第1言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定し得る。
前記プロセッサは、前記第2言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前の翻訳文章のいずれかが前記第2言語文章に類似するかを決定し得る。
前記翻訳機は、前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択し得る。
前記プロセッサは、予め決定されたフレームの長さに基づいて前記第1言語からなる音声信号をサンプリングし、フレームに対応する入力ベクトルそれぞれを生成し、音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからのプリントされるように決定し得る。
前記プロセッサは、前記第1特徴ベクトルを音声認識のためのデコーダに入力し、前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第1言語文章として選択し得る。
前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記第2特徴ベクトルが前記エンコーダからのプリントされるように決定し得る。
前記プロセッサは、前記第2特徴ベクトルを機械翻訳のためのデコーダに入力し、前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択し得る。
前記プロセッサは、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルをデータベースに格納し、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルに対応する前記第2言語文章及び前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納し得る。
一実施形態に係る自動通訳システムは、第1言語からなる第1言語文章を翻訳符号化して第2言語に対する特徴ベクトルを生成し、前記特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、前記特徴ベクトル及び前記第2言語文章のうちいずれか1つ又はその組合せに基づいて生成した候補文章リストから前記第1言語文章の翻訳として最終第2言語文章を選択するプロセッサとを含む。
前記自動通訳システムは、前記第1言語からなる音声信号を認識符号化して生成された第1特徴ベクトルを復号化することによって前記第1言語文章を生成する音声認識器をさらに含み得る。
前記自動通訳システムは、データベースを含むメモリをさらに含み、前記プロセッサは、前記データベースから、前記特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第1翻訳結果、前記データベースから前記第2言語文章に類似すると決定された文章にマッチングされた第2翻訳結果のうちいずれか1つ又はその組合せを取得し得る。
前記プロセッサは、前記第1翻訳結果及び前記第2翻訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加し得る。
前記翻訳機は、前記特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最大値を有する候補文章が前記最終第2言語文章になるよう選択し得る。
前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記特徴ベクトルが前記エンコーダからのプリントされるように決定し得る。
前記プロセッサは、前記特徴ベクトルを機械翻訳のためのデコーダに入力し、前記デコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択し得る。
前記プロセッサは、前記データベースに格納された前記第1言語文章と共に前記特徴ベクトルを前記データベースに格納し、前記第1言語文章及び前記特徴ベクトルに対応する前記第2言語文章と前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納し得る。
一実施形態に係る自動通訳システムは、入力された音声信号の音声認識を行い、前記音声認識の認識結果に対する初期翻訳を行って、前記入力された音声信号の最終翻訳を決定するために前記初期翻訳の結果と選択された以前の翻訳の以前の結果とを比較する1つ以上のプロセッサを含み、前記比較は、前記選択された以前の翻訳を、データベースに情報が記録された複数の以前の翻訳から識別するための、前記音声認識から誘導された1つ以上の情報と前記初期翻訳から誘導された情報のうちの1つ以上の情報と前記データベースに格納された前記一つ以上の以前の文章翻訳の結果に関する情報との間の比較を含む。
前記比較は、前記選択された以前の翻訳を識別するための、前記音声認識で誘導された第1特徴ベクトル、前記音声認識で誘導された第1言語文章、前記初期翻訳で誘導された第2特徴ベクトル、及び前記初期翻訳で誘導された第2言語文章のうちの1つ以上の情報と前記データベースに格納された情報との間の比較を含み得る。
前記一つ以上のプロセッサは同じモバイル装置に含まれる。
<発明の詳細>
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結されて」いると言及された場合、その次の構成要素に直接的に連結されてもよく、又は中間に他の構成要素が存在することもあり得ると理解されなければならない。一方いずれかの構成要素が他の構成要素に「直接連結されて」いるか「直接接続されて」いと言及される場合には、中間に他の構成要素が存在しないものとして理解されなければならない。構成要素間の関係を説明する表現、例えば「〜間に」と「すぐ〜の間に」、又は「〜に隣接する」と「〜に直接に隣接する」などのように解釈されなければならない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
下記で説明される実施形態は、自動車、テレビ、携帯電話、その他の電子装置などに搭載されて通訳及び翻訳の提供に用いられる。実施形態は、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、スマート家電機器、及びウェアラブルデバイスなどの様々な形態の製品で実現する。例えば、実施形態は、スマートフォン、モバイル機器、スマートホームシステム、及びウェアラブルデバイスなどに搭載されて通訳アプリケーションで機能したり、外国人との画像会議時に翻訳字幕を提供することもできる。また、車、バス、タクシーなどを用いる場合、互いに異なる言語を用いる乗客と運転者との間の通訳に用いることもできる。以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る自動通訳装置の動作原理を説明するための図である。図1を参照すると、一実施形態に係る自動通訳装置130がユーザ110によって発話された第1言語を第2言語に自動通訳する過程が示されている。自動通訳装置130は、エージェント133と翻訳機136を含む。以下で詳細に説明するが、自動通訳装置は、音声認識器と機械翻訳機で構成される。音声認識器は、ユーザの音声を第1言語からなる第1言語文章に変換し、機械翻訳機は、第1言語文章を第2言語からなる第2言語文章に変換する。図1に示された翻訳機136は機械翻訳機に対応し、エージェント133は自動通訳過程を管制するコントローラと音声認識器を含むものとして理解される。
コントローラは、代案的に自動通訳装置内又は自動通訳装置の外部にそれぞれ異なるように構成され得る。
エージェント133は知能型コミュニケーションエージェントであり、エージェント133は、ユーザとエージェントとの間の知能型コミュニケーションインタラクションのように、オーディオ情報の認識及び理解動作を行う処理装置ハードウェア又はコンピュータを称し、又は、単に音声認識を行うコンピュータ又は処理装置ハードウェアであり得る。
エージェント133は、例えば、エージェント133による認識結果及び/又は翻訳機136の翻訳結果の出力を制御する。実行された認識は、例えば、音声学又は発音のための音響モデル、例えば、単語又は構文間の連結性のための言語モデルのうちの1つ又はその組合せの使用によりデジタル化された音声の様々な音声認識方法を含む。
デジタル化された音声は、入力された音声をオーディオフレームに分析できるアナログ−デジタルコンバータ(analog to digital converter;ADC)及びパーサー(parser)によって導き出される。ここで、オーディオフレームは、例示的な音響及び/又は言語モデルのうちいずれか1つ又は両方によって提供され、このようなモデルに対する参照は単なる例示的なものであり、実施形態がこれに限定されることはない。
入力された可聴音声に対するより多い又は最も可能性のある認識を示す音響及び/又は言語モデルの他にも、音響及び/又は言語モデルは、潜在的な音声又は単語認識それぞれに対する確率又は点数を示す。
デコーダは、例えば、音響及び/又は言語モデル(及び/又は他のモデル)のうちの1つ又は両方を用いるときに可聴音声の最終認識を決定するために認識モデルの結果を相関させるために用いられる。
エージェント133と翻訳機136は、それぞれ1つ又はそれ以上のソフトウェアモジュール、1つ又はそれ以上のハードウェアモジュール、又は、様々な組合で実現される。一例として、エージェント133及び翻訳機136は、それぞれ1つ以上のハードウェア要素又はその組合せによって1つ以上の命令又はソフトウェアを含む非一時的なコンピュータで読み出し可能な媒体により実現される。一例として、ユーザ110は、自動通訳装置130に第1言語で表現されたAを第2言語に通訳することを要求する。この場合、Aは第1言語の音声信号であり得る。ユーザ110は、自動通訳装置130のユーザインターフェースとインタラクションして認識及び/又は翻訳を要求したり、又は、例えば、基底(基礎にある)装置の背景動作で自動的又は連続的に動作できる自動通訳装置130の認識及び/又は翻訳動作を要求する。ユーザ110は、ユーザインターフェース要求及び自動具現のいずれか1つ又は両方を選択的に実現できる。音声信号Aが自動通訳装置130に入力されれば(101)、自動通訳装置130のエージェント133は音声信号Aを認識して第1言語文章Aを生成する。
上述したように、エージェント133は、可聴音声をデジタル信号に変換するためのハードウェアを含む。例えば、エージェント133は、自動通訳装置100の外部又は内部のどこかに含まれる1つ又はそれ以上のマイクロホン、アナログ−デジタルコンバータ及びパーサーを含んだり、又は、マイクロホン、アナログ−デジタルコンバータ及びパーサーのうちいずれか1つ又はその組合せを含む。
文章Aは、例えば、最終的にテキスト形態のデータにされる。一例として、認識モデルは、学習されたニューラルネットワークそれぞれである。自動通訳装置130は、翻訳機136に文章Aの翻訳を要求する(102)。
翻訳機136は、文章Aの初期翻訳の結果として第2言語文章A’を生成してエージェント133に提供する(103)。エージェント133は、データベースに予め格納されていた第2言語文章B’と第2言語文章C’を翻訳機136に提供し、翻訳機136はA’、B’、及びC’のうち最適な翻訳結果を選択することができる(104)。ここで、エージェント133は、例えば、異なる複数の文章のうち文章B’及び文章C’が音声信号Aに類似の音声それぞれに関わっていると決定する。
ここで、文章B’と文章C’は通訳した結果としてデータベースに予め格納されているものである。文章B’及び文章C’は自動通訳装置130の以前の通訳動作の結果として、データベースに以前に格納され、必ずこれに限定されることはない。
例えば、自動通訳装置130は、過去に音声信号Bの通訳要求を処理する過程で文章B’を生成し、生成された文章B’をデータベースに格納する。例えば、音声信号Bに対する通訳要求が以前に処理された場合、自動通訳装置130は文章B’を生成し、生成された文章B’をデータベースに格納しておく。
また、音声信号Aと発話が類似の音声信号Cを通訳する他の以前過程で文章C’がデータベースに格納される。例えば、そのような文章は一例であって、分類されて又は検索可能な方式で1つ以上のデータベースに格納されることがあるため、ステップ104の間にエージェント133は以前に格納された文章を現在の翻訳された文章に関する情報と関連させ、翻訳機136に同一の情報を伝達する。翻訳機136は、初期翻訳の結果である文章A’に類似発話に基づいて取得された文章B’及び文章C’のうち最適な翻訳結果をAの最終翻訳の結果として選択してエージェント133に伝達する(105)。例えば、翻訳機136は、初期翻訳の結果である文章A’に比べて類似発話に基づいて取得された文章B’がより良好な翻訳結果であると判断する。
翻訳機136は、第1言語のAを第2言語に翻訳する性能に比べて、第2言語の候補文章のいずれが第1言語のAを良好に翻訳した結果であるかを判断する性能がより良い点を用いる。
第2言語の候補文章から第1言語の音声に対する最適な翻訳結果は、第1言語のコンテンツAを第2言語のコンテンツ(A)に直接翻訳する性能と比較するとき、容易に提供されることができる。
また、様々な考慮事項に基づいた関連性の決定と共に、第1言語からなる音声の初期翻訳との関連性及び/又は第1言語からなる音声に対する決定された関連性に基づいて候補文章が候補として決定されるとき、第1言語の音声に対する最終翻訳結果は、例えば、第1言語の音声の初期翻訳を誘導するために実現される翻訳モデルのように、翻訳機136によって具現された翻訳モデルを用いて第1言語の音声を第2言語に単純翻訳又は直接翻訳することよりも有能であり又は強固であり及び正確である。
したがって、実施形態における翻訳機136は、以前の翻訳過程で累積した翻訳結果を現在の翻訳結果と共に利用するが、翻訳結果のうち最も高いスコアを有する翻訳結果を最終翻訳結果として選択することにより、第1言語からなる発話に対してより有能かつ正確な翻訳結果を提供することができる。
エージェント133は、最終の通訳結果をユーザ110に伝達する(106)。エージェント133は、例えば、自動通訳装置130のディスプレイを介して最終の通訳結果を第2言語のテキスト形態にユーザ110へ提供する。一実施形態におけるエージェント133は、エージェント133の音声合成の過程及び自動通訳装置130のスピーカを介してユーザ110に最終の通訳結果が聞こえるように提供する。
例えば、エージェント133は、エージェント133のTTS(Text to Speech)技術を用いて最終の通訳結果を第2言語の音声形態にユーザ110に提供できる。
エージェント133及び翻訳機136は、それぞれユーザ端末やサーバで駆動されるように実現できる。一例として、エージェント133及び翻訳機136は、全てスマートフォンなどのユーザ端末で動作できる。異なる例として、エージェント133及び翻訳機136は、遠隔端末から音声の音声レコーディング又はオーディオフレームのうちいずれか1つを受信することにより全て又相互代替的にサーバで動作できる。入力された音声に対する最上の翻訳を決定するとき、サーバの実現は、互いに異なるローカル及び/又は遠隔端末からの候補文章を考慮し得る。
更なる例として、図1に示す動作に応じて、認識結果を翻訳機136に伝達し、翻訳機136はエージェント133に結果を返す。エージェント133はユーザ端末で駆動され、翻訳機136はサーバで駆動されてもよい。
前述した事項は例示的な事項に過ぎず、実施形態は様々に変形され得る。例えば、エージェント133に含まれたコントローラのみがユーザ端末で駆動され、音声認識器と機械翻訳機はサーバで駆動されてもよい。また、動作がエージェント133によって実行されるものとして議論されたり、又は、動作が翻訳機136によって実行されるものとして議論され得るが、エージェント133の制御部は、このような動作がエージェント133及び翻訳機136のそれぞれによって実行されるように制御し、図1に示す動作で、上述したように、その間の情報の受信及び送信を制御する。
代案的に、制御部は、翻訳機136に含まれてもよい。又は、翻訳機136及びエージェント133は、エージェント133及び翻訳機136のそれぞれを制御し、その間の上述した動作の結果を送信する制御部をそれぞれ含む。
一実施形態では、認識及び翻訳を行う自動通訳装置130の構成及び動作について図2を参照して説明する。他の実施形態において、このような認識構成の有無に関係関なく、翻訳を行う自動通訳装置130の構成及び動作については図3を参照して説明する。
図2は、一実施形態に係る自動通訳装置の構成及び通訳方法を説明するための図である。図2を参照すると、一実施形態に係る自動通訳装置200は、音声認識器210、翻訳機230、及びデータベース(DB)250を含む。
音声認識器210は、音声認識のためのエンコーダ211及びデコーダ213を含む。また、翻訳機230は、機械翻訳のためのエンコーダ231及びデコーダ233を含む。
自動通訳装置200は、音声認識器210に含まれたエンコーダ211及びデコーダ213の出力及び/又は動作結果、及び翻訳機230に含まれたエンコーダ231及びデコーダ233の出力及び/又は動作結果を収集し、それぞれの認識及び/又は翻訳動作を行う間に動作可能な結果及び/又は出力それぞれをデータベース250に格納する。
音声認識器210の動作結果及び/又は出力は、一例として、入力された音声信号の抽象化された音声情報(例えば、サンプリングされた音声フレームから分離したり抽出された音声、音響、音素、形態素、構文及び/又は文脈情報)及び入力された音声信号に対する音声認識結果を含む。
翻訳機230の動作結果及び/又は出力は一例として、音声認識結果に対する抽象化された文章情報(例えば、翻訳考慮事項から分離したり、又は抽出された情報、及び抽象化された音声情報に基づいた音声認識結果に対する翻訳結果)を含む。
ここで、抽象化された音声情報及び抽象化された文章情報の一例はこれに限定されることなく、例えば、音声認識器210及び翻訳機230それぞれの動作によって音声信号、音響情報、及び文章、又は文脈情報が分離又は抽出され得る。例えば、「江南駅までどうやって行けばいいですか?」というユーザの音声信号が自動通訳装置200に入力されれば、自動通訳装置200は、音声信号から抽出された特徴を音声認識器210に提供し、音声認識器210から音声認識結果を取得する。音声認識結果はユーザの音声(例えば、韓国語からなる音声認識)に対応する第1言語文章である。
自動通訳装置200は音声認識結果を翻訳機230に提供し、翻訳機230から初期翻訳の結果を取得する。例えば、音声認識の初期翻訳の結果は「I’ll go to Gangnam?」である。実施形態により、翻訳機230の初期翻訳の結果は「I’ll go to Gangnam?」の他にも、例えば、決定された正確度スコアが第1閾値以上である1つ以上の初期翻訳の結果が選択される。自動通訳装置200は、翻訳機230のデコーダ233によって出力された初期翻訳の結果を翻訳候補(又は、候補文章)に選定する。翻訳候補は、例えば、n−best候補文章リストに格納される。
自動通訳装置200は、音声信号「江南駅までどうやって行けばいいですか?」を認識及び翻訳する過程で生成されたエンコーダ211、231及びデコーダ213、233の結果(例えば、抽象化された音声情報、音声認識結果、抽象化された文章情報、翻訳結果)に類似の情報要素をデータベース250から検索する。情報要素は、抽象化された音声情報、音声認識結果、抽象化された文章情報、翻訳結果のうちのいずれか1つであり得る。自動通訳装置200は、検索された情報要素にマッチングして格納された最終文章(例えば、「How do I get to length Gangnam?」、「How do I get to Gangnam Station?」など)をデータベース250から検索する。自動通訳装置200は、検索された最終文章を翻訳候補として候補文章リストに追加する。
自動通訳装置200は、入力された音声信号「江南駅までどうやって行けばいいですか?」を認識して翻訳する過程で生成されたエンコーダ211、エンコーダ231、デコーダ213及びデコーダ233の出力又は結果に類似の情報要素のためにデータベース250を検索する。検索された情報要素は、例えば、以前の通訳過程から取得した、格納された抽象化された音声情報、格納された音声認識結果、格納された抽象化された文章情報、及び格納された翻訳結果のうちの1つであり得る。
自動通訳装置200は、例示された翻訳結果としてデータベース250に格納された、類似するものとして判明した検索された情報要素と一致又は対応する最終翻訳文章をデータベース250から検索する。
例えば、発見又は決定された類似の情報要素に基づいて、「How do I get to length Gangnam?」及び「How do I get to Gangnam Station?」の格納された以前の最終翻訳が識別され、n−best候補翻訳リストに候補翻訳として追加される。このようにn−best候補文章リストは、初期翻訳の結果に該当する文章及びデータベースから取得された少なくとも1つの翻訳文章を含み得る。例えば、候補文章リストは、現在の翻訳結果及び過去の翻訳結果が含まれる。例えば、候補文章リストには、「I’ll go to Gangnam?」、「How do I get to length Gangnam?」、「How do I get to Gangnam Station?」などの文章が含まれる。
自動通訳装置200は、類似翻訳結果に対応する最終文章が追加された候補文章リストに対して最終的なスコアを算定する。
自動通訳装置200は、類似翻訳結果に対応する最終文章が追加された候補文章リストそれぞれを再算定して候補文章それぞれに対する最終スコアを取得する。
自動通訳装置200は、現在の通訳中である発話(例えば、現在の通訳されている音声)に基づいて候補文章の最終的なスコアを算定する。
ここで、自動通訳装置は、例えば、以前の通訳対象それぞれに対する最終翻訳作業それぞれを行うとき、格納された以前の翻訳結果から任意の候補文章のスコアを算定できる。
したがって、現在の通訳対象に対する通訳動作を行うとき、自動通訳装置200は、例えば、以前の翻訳結果を再び算出又は再算定すること、すなわち、再び算出又は再び算定するものと見なし得るが、今回は現在の通訳対象に基づく。
自動通訳装置200は、現在の通訳対象に基づいて候補文章それぞれに対する最終的なスコアを再算定するためにデコーダ233を用いる。ここで、デコーダ233は、現在の翻訳過程で取得された初期翻訳の結果よりもデータベース250に予め格納されていた翻訳結果に対して高いスコアを付与してもよい。
他の実施形態として、以下でさらに詳細に説明するように、図10は、最終第2言語文章を選択する方法の一例を説明する。ここで、候補文章は互いに異なる音声を通訳して取得された結果を含み、したがって、現在の通訳対象に対応する音声のスコアが再算出される。例えば、候補文章のスコアは、現在の翻訳対象に対応する予め生成された抽象化された文章情報に基づいて再算出される。
このような実施形態に係る再算定は通訳対象に対応する音声復号化の過程で各単語に対する(又は、翻訳モデルの結果として生成された)確率値に基づいて実行される。
しかし、実施形態により、ドメイン、ユーザ、国などを考慮した加重和、他の言語モデルの単語確率値、又は、n−グラム(n−gram)基盤の確率値の形態に変換又は補間するよう異なる再算定方法を用いることができる。
自動通訳装置200は、候補翻訳の再算定結果に基づいて最終翻訳結果を生成する。例えば、候補文章リストに含まれた翻訳結果の再算定結果、文章「How do I get to Gangnam Station?」のスコアが最も高ければ、自動通訳装置200は「How do I get to Gangnam Station?」を自動通訳装置200の最終結果として選択する。
以下、例えば、表1のような音声信号が自動通訳装置200によって翻訳されるシナリオを具体的に説明する。
Figure 0006923332
1番の音声信号(「江南駅までどのように行きますか?」)が自動通訳装置200に入力される場合、例えば、他の翻訳が以前に実行されていない場合もあるためデータベース250を介して検索するための初期格納された情報要素がないこともある。データベース250には予め格納された情報要素がないため、翻訳機230の初期翻訳の結果(例えば、「How do I get to Gangnam?」)のみが翻訳候補(n−best)に選定されて1番の音声信号に対する候補文章リストに格納される。この場合、初期翻訳の結果がそのまま自動通訳装置200の最終翻訳結果になる。
2番の音声信号(「おいしいチャジャン麺の店を教えて下さい」)が後で入力されれば、自動通訳装置200は翻訳機230を用いて初期翻訳の結果(「Tell us delicious jajangmen home」)を生成した後、初期翻訳の結果を2番の音声信号に対する翻訳候補(n−best)として選定する。通訳装置200は、データベース250で初期翻訳の過程で生成された結果(例えば、「抽象化された音声情報」、「音声認識結果」、「抽象化された文章情報」、及び「翻訳結果」)に類似の情報要素があるか否かを確認する。データベース250には初期翻訳の過程で生成された結果として類似の情報要素が存在しないため翻訳候補(n−best)が追加的に選択されない。この場合にも、初期翻訳の結果がそのまま2番の音声信号に対する自動通訳装置200の最終翻訳結果になる。
3番の音声信号(「江南駅まではどういうふうに行くんですか?」)が入力されれば、自動通訳装置200は、翻訳機230で初期翻訳の結果(「How do I get to length Gangnam?」)を生成した後、3番の音声信号に対する翻訳候補(n−best)として選定する。自動通訳装置200は、データベース250で追加的な翻訳候補を検索する。例えば、自動通訳装置200は、初期翻訳の過程で生成された結果に類似の情報要素として1番の音声信号、及び2番の音声信号の両方又はいずれか1つの翻訳結果(「抽象化された音声情報」、「音声認識結果」、「抽象化された文章情報」、及び「翻訳結果」)を検索する。自動通訳装置200は、3番の音声信号の現在の通訳過程で生成された結果又は出力に類似の情報要素に対して以前の通訳結果を検索する。次に、抽象化された音声情報、音声認識結果、抽象化された文章情報、及びデータベース250の翻訳結果にマッチングされたり、又は類似の情報のうちいずれか1つに対応する以前の翻訳文章結果が候補翻訳リストに追加される。
自動通訳装置200は、1番の音声信号の以前翻訳の結果に対応する最終文章(「How do I get to Gangnam?」)を翻訳候補(n−best)として候補文章リストに追加する。例えば、自動通訳装置200は、現在3番の音声信号に関する情報要素と1番の音声信号に対応する1つ以上の格納された情報要素との間に類似性があると決定されれば、以前の最終翻訳文章「How do I get to Gangnam?」を候補翻訳として候補翻訳リストに追加する。
ここで、候補文章リストは、翻訳候補である「How do I get to length Gangnam?」及び「How do I get to Gangnam?」を含む。自動通訳装置200は、3番の音声信号に対して候補文章リストに含まれた翻訳候補のスコアを算出し、翻訳候補のうちスコアの高い翻訳候補(例えば、「How do I get to Gangnam?」)を3番の音声信号に対する最終翻訳結果として選定する。
4番の音声信号(「江南駅までどうやって行けばいいですか?」)が入力されれば、自動通訳装置200は初期翻訳の結果(「I’ll go to Gangnam?」)を生成した後、4番の音声信号に対する翻訳候補(n−best)として選定する。自動通訳装置200は、データベース250から初期翻訳の過程で生成された結果に類似の情報要素に基づいて、1番の音声信号の翻訳結果及び2番の音声信号の翻訳結果を検索する
自動通訳装置200は、4番の音声信号に対する現在の通訳過程で初期翻訳の過程により生成された結果及び出力に基づいて、データベース250にある1番の音声信号に対する格納された通訳結果、2番の音声信号に対する格納された通訳結果、3番の音声信号に対する格納された通訳結果から類似の情報要素を検索する。
自動通訳装置200は、1番及び2番の音声信号の翻訳結果に対応する最終翻訳文章(「How do I get to Gangnam」、「How do I get to length Gangnam?」)を4番の音声信号に対する翻訳候補(n−best)に追加する。この場合、候補文章リストに含まれた翻訳候補のうちスコアの高い翻訳候補(例えば、「How do I get to Gangnam」)が4番の音声信号に対する最終の翻訳結果として選択される。
データベース250から情報要素又は類似の情報要素を検索するとき、自動通訳装置200は、様々なアルゴリズムを個別的又は組み合わせて利用する。例えば、自動通訳装置200は、近似k−隣接の隣(approximate k−Nearest Neighbor(k−NN))アルゴリズム又はこれに類似のアルゴリズムを用いて現在の翻訳過程から、エンコーダ211、231及びデコーダ213、233の結果に類似の情報要素をデータベース250から早く決定又は検索することができる。例えば、自動通訳装置200は、エンコーダ211、エンコーダ231、デコーダ213、及びデコーダ233の出力をデータベース250に格納された情報と比較して、以前の解釈過程から追加的な候補変換を識別するためにLSH(Locality Sensitive Hashing)アルゴリズム、及び/又はグリーディ(greedy)フィルタリングなどを用いてもよい。
また、データベース250におけるこのような検索結果はデータベース250に格納され、データベース250の現在又は未来の検索を精緻化するために用いられる。
追加的に、又は代案として、エンコーダ211、エンコーダ231、デコーダ213及びデコーダ233の出力とデータベース250に格納された情報との間の自動通訳装置200による比較は、特徴ベクトル(現在の通訳過程で決定された第1特徴ベクトル、及び/又は第2特徴ベクトル、及びデータベース250に格納された特徴ベクトル)間の類似度が存在するか否かを判断する方法を含む。
例えば、抽象化された音声情報、認識結果、及び抽象化された文章情報は、高次元ベクトル形態の各情報に変換されてデータベース250にそれぞれ格納される。
一例として、エンコーダ211及びデコーダ213が、例えば、回帰ニューラルネットワークのようなニューラルネットワークを含み、音声認識を処理するためのニューラルネットワーク学習を実現する場合、中間結果として生成されたベクトル形態又は音素シーケンスはニューラルネットワーク音声認識過程の副産物になる。
他の実施形態として、自動通訳装置200は、現在の認識又は翻訳過程で生成された1つ以上の特徴ベクトル(以下、「対象特徴ベクトル」)とデータベースに格納された特徴ベクトルとの間のユークリッド距離を算出する。一例として、候補翻訳を決定するための類似性の決定又は比較は、データベース250に格納された特徴ベクトルと対象特徴ベクトルとの間の類似度がこの間のユークリッド距離が減少するにつれて増加するという、決定された原理に基づくものであり、択一的又はこれに加えて類似度決定又は比較は、類似性がこの間のユクルリス距離が増加するにつれて減少するという決定された原理に基づくものである。
又は、自動通訳装置は、コサイン類似度を用いて対象特徴ベクトルとデータベースに格納された特徴ベクトルが互いに類似するか否かを判断する。例えば、自動通訳装置は、対象特徴ベクトルとデータベースに格納された特徴ベクトルとの間のコサイン類似度が「1」に近いほど、対象特徴ベクトルとデータベースに格納された特徴ベクトルが互いに類似すると判断する。類似度判断の閾値を決定することは容易でないため、自動通訳装置200は、データベースに格納された特徴ベクトルを類似度が高い順に整列し、このうち最上位(類似度)のランキングで予め決定されたパーセンテージ(%)又は高い順に整列した予め設定された個数に該当する特徴ベクトルを対象特徴ベクトルに類似すると判断する。自動通訳装置200は、候補翻訳リスト内で決定された特徴ベクトルに対応する以前の翻訳結果を識別又は格納する。
自動通訳装置が文章(第1言語文章、第2言語文章)の類似有無を判断する方法は次の通りである。例えば、自動通訳装置200は、様々な文書からなる文書群のうち単語が特定の文書内でどれ程頻繁に現れるか、又はどれ程重要であるかなどを示す統計的な数値であるTF−IDF(Term Frequency−inverse Document Frequency)を用いて文章間の類似有無を判断する。TF(Term Frequency:単語頻度)は、特定の単語が特定の文書内でどれ程頻繁に登場するかを示す値であって、この値が高いほど該当文書で該当単語がさらに重要に判断される。一方、特定単語が様々な文書からなる文書群にかけて頻繁に用いられる場合、該当単語が頻繁に登場することを意味する。これをDF(Document Grequency:文書頻度)といい、この値の逆数をIDF(Inverse Document Frequency:逆文書頻度)という。TF−IDFは、TFとIDFを乗算した値になる。
自動通訳装置200は、TF−IDFを用いて文章をベクトルに変形し、ベクトル間の類似度を比較することで、現在の認識又は翻訳過程で生成された文章(以下、「対象文章」)とデータベース250に格納された文章との間の類似有無を判断する。類似度判断の閾値を決定することは容易ではないため、自動通訳装置200は、データベースに格納された文章をその類似度に基づいて高い順に整列し、このうち予め設定された最上位ランクのパーセンテージ(%)又は予め設定された個数に該当する文章を対象文章に類似するものと判断する。自動通訳装置200は、候補翻訳リスト内の特徴ベクトルに対応する以前の翻訳結果を識別又は格納する。
図面に図示していないが、実施形態によりデータベース250には音声信号から抽出された特徴が追加的に格納され、n−best翻訳候補を選定するために音声信号から抽出された特徴が追加的に用いられてもよい。
例えば、例示的なニューラルネットワーク音声認識過程の間に生成された特徴ベクトルを用いて、相異なる長さ又は変更された長さの音声信号の間の類似度が決定され得る。
一例として、類似の部分が互いに比較されたり、又は、動的時間歪み方法(dynamic time warping scheme)が全体シーケンスに対して実行されて2つのシーケンス間の変換を取得する。これによって、例えば、互いに異なる長さを有する音声信号シーケンス間の類似性が検証され、類似性は候補翻訳を選択するために用いられてもよい。
図3は、一実施形態に係る機械翻訳装置の構成及び翻訳方法を説明するための図である。図3を参照すると、自動通訳装置130の一例として、機械翻訳装置300は機械翻訳を行い、実施形態によって認識装置を含むか、あるいは含まず、又は、音声認識を行ってもよい。機械翻訳装置300は、翻訳機310及びデータベース(DB)330を含む。
図2で音声認識器210の抽象化された音声情報及び音声認識結果がデータベース250に格納され、n−best翻訳候補を選定するために用いられることとは異なって、機械翻訳装置300が翻訳のみを行う場合に抽象化された音声情報及び音声認識結果は利用されない。図面に図示していないが、実施形態によりデータベース330には、翻訳機310に以前に入力された第1言語文章が格納される。
n−best翻訳候補を選定するために、以前の他の翻訳に対する追加的な抽象化された文章情報及び翻訳結果のうちの1つだけではなく、第1言語文章が第1言語文章に用いられてもよい。前述した事項を除いた残りの動作は、図2に示す翻訳機230及びデータベース250の動作と同一であるため、翻訳機310及びデータベース330の残りの動作に関する具体的な説明は省略する。
図4は、一実施形態に係る自動通訳装置に含まれた音声認識器及び翻訳機の構成及び動作を説明するための図である。図4を参照すると、一実施形態に係る自動通訳装置に入力された第1言語の音声信号に対する初期翻訳の結果が、音声認識器210及び翻訳機230の動作を経て音声信号に対する第2言語の候補文章に決定される過程を示している。ここで、音声認識器210及び/又は翻訳機230は図4に示された自動通訳装置だけではなく、図2に示された自動通訳装置の音声認識器及び/又は翻訳機と同一であり、実施形態がこれに限定されることはない。
音声認識器210のエンコーダ211はニューラルネットワーク212で構成され、デコーダ213はニューラルネットワーク214で構成される。また、翻訳機230のエンコーダ231はニューラルネットワーク232で構成され、デコーダ233はニューラルネットワーク234で構成される。
図4に示すエンコーダ211、デコーダ213、エンコーダ231及び/又はデコーダ233は、図2に示すエンコーダ211、デコーダ213、エンコーダ231及び/又はデコーダ233と同一であり、実施形態がこれに限定されることはない。
ニューラルネットワーク212、ニューラルネットワーク214、ニューラルネットワーク232、及びニューラルネットワーク234は、自動通訳装置で互いに同じ構造であってもよく、互いに異なる構造であってもよい。
一実施形態に示すように、エンコーダ211、231及びデコーダ213、233をニューラルネットワークで構成する場合、エンコーダ211、231及びデコーダ213、233を学習させる過程が現在の入力された音声の通訳又は翻訳に前もって実行され得る。ここで、エンコーダ211、231及びデコーダ213、233を学習させることは、学習過程によりニューラルネットワークを構成するパラメータ又は加重値の値を決定するものとして理解される。
学習動作は、学習データを用いて製造時に及び/又は製造後にそれぞれ実行され、また、自動通訳装置の作動中に更新される。
例えば、第1言語の音声信号(「江南駅までどうやって行けばいいですか?」)が入力されれば、自動通訳装置は音声信号から特徴を抽出する。自動通訳装置が音声信号から特徴を抽出する方法については図5を参照してより具体的に説明する。
音声信号から抽出した特徴が入力されれば、エンコーダ211は抽出された特徴を符号化して第1特徴ベクトル(例えば、{「2.542」、「0.827」、…、「5.936」}の実数ベクトル)を生成する。デコーダ213は、エンコーダ211で生成された第1特徴ベクトルを復号化して音声認識結果として第1言語文章(例えば、「江南駅までどうやって行けばいいですか?」の文章)を生成する。デコーダ213は、第1言語文章のサブワード(又はワード)単位で出力する。サブワードは、一例として、音素又は音節のように、一般的な文章で頻繁に用いられるキャラクターのシーケンスとして理解される。エンコーダ211及びデコーダ213を構成するニューラルネットワーク212、214については図6〜図7を参照してより具体的に説明する。
デコーダ213は、第1特徴ベクトルを復号化してm個の第1言語の候補文章を含むm−ベストリストを生成する。デコーダ213は、例えば、ビームサーチアルゴリズムを用いて第1言語のm−ベストリストを生成する。mはビームサーチアルゴリズムの複雑度であり得る。m−ベストリストは、図2及び図3に示された文章及び/又は構文候補のn−bestリストとは区別される概念であって、音声認識候補に該当する文章を含む。
m−ベストリストは、例えば、「江南駅までどうやって行けばいいですか?」、「江南駅にはどのように行きますか?」、「江南駅に行く道を教えて」、及び「江南駅までどうやって行きましょうか?」などのような第1言語文章を含む。ここで、m−ベストリストに含まれた文章(及び/又は構文)それぞれは0.6、0.05、0.2、0.1などのように該当文章に加えて格納されたスコア(確率値)を含む。
音声認識器210はリスコアリングモデル215をさらに含む。リスコアリングモデル215は、スコアに基づいて文章の順位を付けたり、文章のスコアを再算定する。リスコアリングモデル215は、音声認識の結果としてm個の文章のうち1−ベストの文章(又は構文)を出力する。
翻訳機230のエンコーダ231は、第1言語文章(「江南駅までどうやって行けばいいですか?」)を符号化して第2特徴ベクトルを生成する。エンコーダ231は、第1言語文章を第2特徴ベクトルで符号化するためにニューラルネットワーク232を用いることができる。
デコーダ233は、第2特徴ベクトルを復号化してm個の第2言語の候補文章を含む第2言語のm−ベストリスト(m−Best list)を生成する。m−ベストリストは、図2及び図3に示された文章(及び/又は構文)の翻訳候補(n−best list)とは区別される概念であって、初期翻訳候補に該当する文章(及び/又は構文)を含む。一実施形態におけるmは、ビームサーチアルゴリズムの複雑度であり得る。
デコーダ233は、第2特徴ベクトルを復号化するためにニューラルネットワーク234を用いる。デコーダ233は、例えば、ビームサーチアルゴリズムを用いてm−ベストリストを生成する。
一実施形態において、エンコーダ231の入力次元は第1言語の「サブワード」で構成される辞書の次元であり、デコーダ233の出力次元は第2言語の「サブワード」で構成される辞書の次元である。辞書の次元は、予め含まれたサブワードであり得る。エンコーダ231を構成するニューラルネットワーク232及びデコーダ233を構成するニューラルネットワーク234の構造及び動作については図8を参照して説明する。
翻訳機230は、リスコアリングモデル235をさらに含む。一例として、リスコアリングモデル235は、例えば、翻訳された文章が本来の文章に正確に翻訳される、そのような確率信頼度の平均に関し、候補文章それぞれのオリジナル文章が翻訳文に正確に翻訳される確率値又は信頼度に基づいて最終の文章を選択することができる。
他の例として、リスコアリングモデル235は、第2言語の候補文章を復号化する過程で算出されたスコアをそのまま第2言語の候補文章のスコアとして決定する。一例として、候補文章に対するスコアは、オリジナル文章が対応する候補文章を正確に翻訳される確率値又は信頼度であり得る。この場合、リスコアリングモデル235は、「ランキングモデル」とも呼ばれる。
これに限定されることはないが、リスコアリングモデル235は、m個の文章のうち1−ベスト又は最高スコアを有する文章を出力する。例えば、リスコアリングモデル235は、最も高いスコア(例えば、0.5)に対応する候補文章(「I’ll go to Gangnam?」)を初期翻訳の結果として出力する。
図5は、一実施形態に係る音声信号から特徴を抽出する方法を説明するための図である。図5を参照すると、一実施形態に係る自動通訳装置は、予め決定されたフレームの速度(例えば、1秒当たり100フレーム)に基づいて第1言語の音声信号をサンプリングする。一例として、サンプリングは1つ以上のアナログ−デジタルコンバータ及びパーサーによって実行される。したがって、一実施形態における自動通訳装置は、例えば、設定されたフレームの長さを有するそれぞれのフレームで、設定されたフレーム単位で特徴X、X、..X、..Xを抽出して複数のフレームそれぞれに対して入力ベクトルを生成する。各フレームの入力ベクトルは、例えば、40次元の(薄い)点などのような40個のポイントで構成され得る。
図6は、一実施形態に係る音声認識器210の音声認識方法を説明するための図である。図6を参照すると、一実施形態に係る音声認識器210におけるエンドツーエンドの音声認識過程が示されている。音声認識器210は、エンコーダとデコーダをともに含む構造のニューラルネットワーク610を用いる。例えば、ニューラルネットワーク610は、図4に示す実施形態に記述されたニューラルネットワーク212及びニューラルネットワーク214が統合された形態の単一ニューラルネットワークであり得る。ニューラルネットワーク610は、回帰ニューラルネットワーク(Recurrent Neural Network)であり得る。
ここで、音声認識器210は、図2及び図4に示す音声認識器と同一であってもよく、必ずこれに限定されることはない。図4に示された基準ニューラルネットワーク212、214は図4に示すニューラルネットワーク212、214と同一であってもよく、必ずこれに限定されることはない。
図5において、フレームに対応して生成された入力ベクトルx、x、..x、..xはニューラルネットワーク610のエンコーダの部分に、又はニューラルネットワーク610の入力に順次入力される。ニューラルネットワーク610のエンコーダの部分は音声要約情報を出力し、音声要約情報はニューラルネットワーク610が入力又はデコーダの部分に入力又は提供され得る。出力された音声要約情報は抽象化された音声情報に該当し、例えば、図2に示すデータベース250のようなデータベースに個別に格納される。
ニューラルネットワーク610のデコーダの部分は、第1言語文章を構成するサブワードy、y、..y、..yを順次出力する。出力されるサブワードは、ニューラルネットワーク610のデコーダの部分で再入力され、例えば、時間の制約を受けるフィードバック(temporal feedback)のように次にサブワードを認識するために用いられる。ニューラルネットワーク610のデコーダの部分は、ビームサーチアルゴリズムを用いて予め決定された数の文章(及び/又は構文)のシーケンスを生成し、予め決定された数の文章シーケンスのうち最も高い設定スコアを有する文章(及び/又は構文)のシーケンスを第1言語文章(「江南駅までどうやって行けばいいですか?」)として選択する。認識された第1言語文章は音声認識結果に該当し、データベースに格納される。ここで、データベースは、出力された音声要約情報が格納されたデータベースと同一のデータベースであるか、又は他のデータベースであってもよい。
図7は、他の実施形態に係る音声認識方法を説明するための図である。図7を参照すると、集中機構(メカニズム)を用いた音声認識の過程が示されている。ここで、図8に示された音声認識器210は図2及び図4のうちいずれか1つに示された音声認識器と同一であり、必ずこれに限定されることはない。ニューラルネットワーク710は、図4に示されたニューラルネットワーク232及びニューラルネットワーク234の組合いであり、必ずこれに限定されることはない。
図6に示すニューラルネットワーク610に比べて、図7に示すニューラルネットワーク710のデコーダの部分はより多くの情報を用いることができる。例えば、ニューラルネットワーク710のデコーダの部分は次のサブワードを認識するとき、ニューラルネットワーク710のエンコーダの部分によって出力された音声要約情報だけではなく、追加情報をさらに利用する。ここで、追加情報は、ニューラルネットワーク710のエンコーダの部分が音声を認識する途中生成された情報であり得る。そのため、ニューラルネットワーク710のデコーダの部分が次のサブワードを認識するとき、符号化シーケンスのうちある部分に集中するかが精密に考慮される。実施形態によれば、集中機構(メカニズム)のための連結構造は別途のニューラルネットワークに実現され得る。
図8は、一実施形態に係る翻訳機を構成するニューラルネットワークの構造及び動作を説明するための図である。図8を参照すると、翻訳機230のエンコーダを構成するニューラルネットワーク232とデコーダを構成するニューラルネットワーク234の構造及び動作が示されている。ここで、翻訳機230は、図2及び図4のうちいずれか1つの翻訳機230と同一であってもよいが、必ずこれに限定されることはない。図8に示されたニューラルネットワーク232及び/又はニューラルネットワーク234は、図4に示されたニューラルネットワーク232及びニューラルネットワーク234と同一であってもよいが、必ずこれに限定されることはない。
図8に示すニューラルネットワーク232は、入力レイヤ810、隠れレイヤ820及び出力レイヤ830を含む。入力レイヤ810の次元は、第1言語のサブワードの次元に対応する。第1言語はサブワード単位であって、ワン・ホットベクトルの形態に入力レイヤ810から入力される。例えば、エンコーダから入力される最初サブワードが「江南駅」である場合、入力レイヤ810の複数のノードのうち「江南駅」に対応するノードに二進数「1」が入力され、残りのノードには二進数「0」が入力される。入力レイヤ810に入力されたワン・ホットベクトル(「江南駅」に対応して二進数「1」がマッピングされたベクトル)は隠れレイヤ820を経て出力レイヤ830に伝播される。
図8に示すエンコーダを構成しているニューラルネットワーク232は、再帰型ニューラルネットワークから構成され得る。そのため、2番目の以後又はその次のサブワードを符号化するとき、少なくとも1つの以前サブワードの符号化結果が影響を及ぼしかねない。例えば、2番目のサブワードが「まで」である場合、「まで」に対応して二進数「1」がマッピングされたワン・ホットベクトルが入力レイヤから入力される。「まで」に対応して二進数「1」がマッピングされたワン・ホットベクトルが隠れレイヤを経て出力レイヤに伝播されるとき、隠れレイヤに含まれたノードは最初のサブワードを伝播させた隠れレイヤのノードの出力が追加的に入力されることができる。
このように、ニューラルネットワーク232の入力レイヤに第1言語のサブワードが順次入力されるにつれて、最終的に出力される特徴ベクトルが生成される。生成された特徴ベクトルは抽象化された文章情報に該当し、一例として、図2に示すデータベース250のように別個のデータベースに格納され得る。エンコーダを構成するニューラルネットワーク232で最終的に出力される特徴ベクトルは、デコーダを構成するニューラルネットワーク234から入力される。
図8に示すデコーダを構成するニューラルネットワーク234についても、入力レイヤ850、隠れレイヤ860、及び出力レイヤ870を含む。ニューラルネットワーク234は、ニューラルネットワーク232で最終的に出力された特徴ベクトルを復号化して第2言語の候補文章を生成する。
ニューラルネットワーク234の入力レイヤ850は、エンコーダで最終的に出力された特徴ベクトルを受信する。特徴ベクトルは、隠れレイヤ860を経て出力レイヤ870に伝播される。出力レイヤ870の次元は、第2言語のサブワードで構成された辞書の次元に対応する。出力レイヤ870に含まれた各ノードは第2言語のサブワードに対応し、各ノードの出力値は該当するノードのサブワードが正確に翻訳されて出力される確率又は信頼度を意味する。ビームサーチアルゴリズムを行う自動通訳装置は、確率値の高い順にデコーダによって予め決定された数(例えば、3)の候補サブワードを選択する。例えば、予め決定された3万個のサブワードのうち、特徴ベクトルが示される確率(スコア)に該当する3つのサブワードのスコアP1−1、P1−2、P1−3が次のステップに伝播される。
候補サブワードが選択されれば、各候補サブワードに対応して次に候補サブワードが復号化される。ここで、図8に示すエンコーダのニューラルネットワーク232と同様に、デコーダのニューラルネットワーク234の隠れレイヤ860の状態情報は隠れレイヤ860の次に隠れレイヤに伝達される。例えば、i番目のサブワードを決定しようとする場合、ニューラルネットワーク234は1〜i−1番目まで決定されたサブワードに基づいてi番目のサブワードの確率(スコア)を決定する。
前述した方式により候補サブワードのシーケンスが生成され、候補サブワードのシーケンスによって第2言語の候補文章(又は構文)が構成される。ただし、1つのサブワードを復号化するごとに予め決定された数(例えば、3)の候補サブワードが選択される場合、最終候補文章の数が指数的に増加する。このような現象を防止又は最小化するために、実施形態で各復号化の段階ごとに枝刈りが適用される。枝刈りは、候補文章の数が予め決定された数に保持できるよう枝刈りする方式であって、例えば、枝刈りによって2番目のサブワードまで復号化して生成された9個の候補文章のうち、3つの候補文章のみが選択されて次の段階に伝播される。
一実施形態によれば、一ステップでサブワードが選択されれば、選択されたサブワードによって次のステップの隠れレイヤが変更される。一例として、選択されたサブワードを指示する埋め込みベクトルが次の段階の隠れレイヤに含まれたノードの内部状態に反映される。
図9は、一実施形態に係るデータベースに格納される情報の形態を示す図である。図9は、図2に関して上述したデータベース250のようなデータベースに格納される情報の類型の一例を示すが、これに限定されることはない。
図9を参照すると、図1〜図8及び図19A〜20の自動通訳装置のうちいずれか1つのように、一実施形態に係る自動通訳装置は、例えば、抽象化された音声情報(第1特徴ベクトル)、音声認識結果(第1言語文章)、及び抽象化された文章情報(第2特徴ベクトル)をデータベースに格納する。また、自動通訳装置は、データベースにある初期翻訳の結果(第2言語文章)及び最終翻訳結果のうち少なくとも1つを抽象化された音声情報(第1特徴ベクトル)、音声認識結果(第1言語文章)、及び抽象化された文章情報(第2特徴ベクトル)間のマッチングを行ってマッチング結果を格納する。
図10は、一実施形態に係る最終第2言語文章を選択する方法を説明するための図である。図10は、例えば、音声認識が実行されていない場合、第1言語からなる現在の音声信号の最終翻訳又は第1言語文章の他の最終翻訳のように最終第2言語文章を選択する方法を説明する。
図10を参照すると、機械翻訳機のデコーダを用いて第1候補文章から第n候補文章それぞれに対するスコアが算定される過程が示されている。ここで、各候補文章に対するスコアを再算定するために用いられるニューラルネットワークは、例えば、図4及び図8に示すニューラルネットワーク234のうちの1つであってもよく、実施形態が必ずこれに限定されることはない。
候補文章は、互いに異なる又は以前の発話に対応して翻訳された結果であるため、候補文章のスコアは現在の通訳対象である発話に対応してスコアを再算定されなければならない。一実施形態によれば、現在の通訳対象である発話に対応して予め生成された抽象化された文章情報に基づいて、候補文章のスコアが再算定される。例えば、表1の実施形態において、次の音声信号に対する第2言語の一例である第1候補文章(例えば、「I’ll go to Gangnam.」)をリスコアリングする過程は次の通りである。
ニューラルネットワーク234の入力レイヤに入力された抽象化された文章情報は隠れレイヤを経て出力レイヤに伝播される。出力レイヤに含まれたノードは、第2言語のサブワード(例えば、Gangnam、…、I、…、(I’llの’llに該当する)「will」)に対応し、各ノードの出力値は、該当するノードのサブワードが正確に翻訳されて出力される確率又は信頼度を意味する。
第1候補文章の最初のサブワードが「I」である場合、自動通訳装置は、第1候補文章のスコアを算出するために「I」に該当するノードから出力される確率P1−1を選択する。最初のサブワードに該当するノードが選択されれば、ニューラルネットワーク234の出力レイヤは2番目のサブワードに対する確率を出力する。このように、第1候補文章を構成するサブワードによりニューラルネットワーク234の出力レイヤでノードを順次選択することにより、自動通訳装置は第1候補文章のスコアを算出することができる。
前述した方式により、自動通訳装置は候補文章のスコアを再算定する。自動通訳装置は、例えば、第1候補文章に対して再算定されたスコアから第n候補文章に対して再算定されたスコアのうち最もスコアが高い候補文章を現在の入力された音声信号に対する最終文章(構文)として選択できる。
図11は、一実施形態に係る自動通訳方法を示すフローチャートである。
ここで、図11に示す自動通訳装置は、図1〜図10及び図19A〜図19Bの自動通訳装置のうちいずれか1つによって実現されるが、実施形態がこれに限定されることはない。また、図1〜図10で議論された上述した動作のうちいずれか1つ又はその組合せに対応する説明は、図11に示す動作にも適用可能であり、簡潔性のために繰り返して記載しない。
図11を参照すると、一実施形態に係る自動通訳装置は、第1言語の音声信号を符号化して第1特徴ベクトルを生成する(S1110)。自動通訳装置は、第1特徴ベクトルを復号化して第1言語文章を生成する(S1120)。自動通訳装置は第1言語文章を符号化し、第1言語文章の符号化に基づいて第2特徴ベクトルを生成する(S1130)。自動通訳装置は、第2特徴ベクトルを復号化して第2言語文章を生成する(S1140)。自動通訳装置は、第1特徴ベクトル、第1言語文章、第2特徴ベクトル及び第2言語のうちの1つ、2つ、3つ又はネットの全ての文章に基づいて候補文章リスト及び以前の第1言語符号化及び/又は復号化認識動作及び/又は第2言語符号化及び/又は復号化翻訳動作による情報を生成又は追加する(S1150)。自動通訳装置は、候補文章リストから最終第2言語文章を選択する(S1160)。自動通訳装置は、第1特徴ベクトル、第1言語文章、及び現在の通訳過程における第2特徴ベクトルを、例えば、図2に示すデータベース250のようなデータベースに格納する。一例として、データベースは、また、以前の第1言語符号化及び/又は復号化認識動作に関する情報及び/又は第2言語符号化及び/又は復号化翻訳動作の情報を格納する。
また、自動通訳装置は、現在の通訳過程で第2言語文章及び/又は格納された第1特徴ベクトルに対する最終第2言語文章、第1言語文章、及び第2特徴ベクトルそれぞれにマッチング又は対応することを示す情報と共に、現在の通訳過程における初期第2言語文章、最終第2言語文章のうちいずれか1つ又は両方をデータベースに格納する。以下、図12〜図17を参照して、図11に示された各ステップが動作するフローチャートを説明する。図12〜図17に示す方法のそれぞれは、図1〜図10及び図19A〜図19Bに示す自動通訳装置のうちいずれか1つによって実現されるが、実施形態がこれに限定されることはない。
図12は、一実施形態に係る第1特徴ベクトルを生成する方法を示したフローチャートである。図12を参照すると、一実施形態に係る自動通訳装置は、予め決定されたフレームの長さ又は速度に基づいて第1言語の音声信号をサンプリングする(S1210)。例えば、自動通訳装置は、第1言語の音声信号を、例えば、10msのフレームの長さに該当する1秒当たり100フレームでサンプリングする。自動通訳装置は、フレームに対応する入力ベクトルを生成する(S1220)。自動通訳装置は、音声認識のための音声認識エンコーダに生成された入力ベクトルを順次入力する(S1230)。自動通訳装置は、順次入力された入力ベクトルに対応して音声認識のための音声認識エンコーダから出力される第1特徴ベクトルを取得することで第1特徴ベクトルを生成又は取得する(S1240)。
図13は、一実施形態に係る第1言語文章を生成する方法を示したフローチャートである。図13を参照すると、一実施形態に係る自動通訳装置は、第1特徴ベクトルを音声認識のための音声認識デコーダに入力する(S1310)。一例として、第1特徴ベクトルは、図12に示すステップS1240で生成又は取得される。自動通訳装置は、音声認識のためのデコーダから順次生成又は決定されるサブワード(又はワード)の決定された確率(スコア)に基づいて、予め決定された数の文章(又は構文)シーケンスを生成する(S1320)。自動通訳装置は、予め決定される数の文章シーケンスのうちスコアが最も高い文章シーケンスを第1言語文章として選択する(S1330)。
図14は、一実施形態に係る第2特徴ベクトルを生成する方法を示したフローチャートである。図14を参照すると、一実施形態に係る自動通訳装置は、第1言語文章を複数のサブワードに分割する(S1410)。一例として、第1言語文章は、図13に示すステップS1330で認識された第1言語文章であり得る。自動通訳装置は、第1言語文章の機械翻訳のための翻訳エンコーダに複数のサブワードを指示する入力ベクトルを順次入力する(S1420)。自動通訳装置は、例えば、第2言語に対して機械翻訳のための翻訳エンコーダから出力される第2特徴ベクトルを取得又は生成することによって第2特徴ベクトルを生成する(S1430)。
図15は、一実施形態に係る第2言語文章を生成する方法を示したフローチャートである。図15を参照すると、一実施形態に係る自動通訳装置は、第2特徴ベクトルを機械翻訳のための翻訳デコーダに入力する(S1510)。一例として、第2特徴ベクトルは、図14に示すステップS1430の第2特徴ベクトルであり得る。自動通訳装置は、機械翻訳のための翻訳デコーダから順次生成又は決定された第2言語のサブワード(又はワード)の確率に基づいて、予め決定された数の文章(又は構文)シーケンスを生成する(S1520)。自動通訳装置は、予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを翻訳された第2言語文章として選択する(S1530)。
図16は、一実施形態に係る候補文章リストを生成する方法を示したフローチャートである。図16は、上述した異なる実施形態で議論された候補文章リストのうち任意の候補リストのような候補文章リストを生成する方法を説明する。
図16を参照すると、一実施形態に係る自動通訳装置は、現在の音声信号に対する認識及び翻訳のためにデータベースから、第1特徴ベクトル、第1言語文章、第2特徴ベクトル、及び第2言語文章のうち少なくとも1つに対応する候補文章を取得する(S1610)。例えば、自動通訳装置は、データベースに格納された複数の情報要素のうち第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうち少なくとも1つに類似の情報要素を検索する。自動通訳装置は、検索された情報要素に対応する候補文章をデータベースから取得する。自動通訳装置は、ステップS1610で取得された少なくとも1つの候補文章を候補文章リストに追加する(S1620)。また、自動通訳装置は、第2言語文章を前記候補文章リストに追加する(S1630)。一例として、第2言語文章は、図15に示すステップS1530の翻訳された第2言語文章であり得る。
図17は、一実施形態に係る最終翻訳された最終第2言語文章を選択する方法を示したフローチャートである。図17を参照すると、一実施形態に係る自動通訳装置は、第2特徴ベクトルに基づいて候補文章リストに含まれた候補文章のスコアを算出する(S1710)。一例として、候補文章リストは、図16に示すステップにおける候補文章リストと同一であり得る。
自動通訳装置は、候補文章リストに含まれた候補文章のうち最高スコアを有する候補文章を最終第2言語文章の最終翻訳として選択する(S1720)。
図18は、一実施形態に係る機械翻訳方法を示したフローチャートである。図18の動作は、図1〜図10及び図19A〜図19Bの自動通訳装置のうちいずれか1つによって実現されるが、実施形態がこれに限定されることはない。
図18を参照すると、一実施形態に係る機械翻訳装置(以下、「翻訳機」)は、第1言語文章を符号化して特徴ベクトルを生成する(S1810)。機械翻訳装置は、図1〜図2、図4〜図10及び図19A〜図19Bの自動通訳装置のうちいずれか1つに対応する。ここで、一例として、音声認識及び言語翻訳の両方が実行されたり、又は言語翻訳のみが可能又は実行される。一例として、機械翻訳装置は、図3に示す機械翻訳装置300に対応し、実施形態がこれに限定されることはない。
翻訳機は、特徴ベクトルを復号化して第2言語文章を生成する(S1820)。翻訳機は、第1言語文章、特徴ベクトル及び第1言語文章の翻訳に対する第2言語文章のうちの1つ、2又は3全てに基づいて第2翻訳文章の候補に対する候補文章リストを生成する(S1830)。翻訳機は、候補文章リストから最終第2言語文章を第1言語文章の最終翻訳として選択する(S1840)。
翻訳機は、特徴ベクトルをデータベースに格納する。また、翻訳機は、データベースにある特徴ベクトルにマッチング又は対応し、第2言語文章及び最終第2言語文章のうちの1つ又は両方を格納する。
ここで、通訳過程が第1言語からなる情報を第2言語からなる文章又は構文に翻訳することについて議論したが、実施形態がこれに限定されることはない。1つ以上の実施形態において、自動通訳装置又は機械翻訳装置内に例示された翻訳機は複数の翻訳機それぞれを示し、翻訳機それぞれは上述したように第1言語又は他の言語からの文章情報を第2言語又は、例えば、第2言語英語以外の他の言語に翻訳するように構成され得る。
複数の異なる翻訳過程が選択的に及び/又は同時に実行され得る。
また、異なる翻訳過程は、基底(基礎にある)装置の自動背景処理として自動的又は選択的に実行され、ユーザが希望したり又は基底装置の基底インタラクションエージェントがユーザを必要としたり所望する場合(又はその時)にこのような翻訳作業の結果をユーザに提供することができる。
図19A及び図19Bは、実施形態に係る自動通訳装置のブロック図である。
図19A及び図19Bの自動通訳装置は、図1〜図18に関して上述した動作のいずれか1つ又はその組合せを実行することができ、実施形態がこれに同一に制限されることはない。
また、図19A及び図19Bの自動通訳装置は、図1〜図4及び図6〜図8の自動通訳装置のうちいずれか1つ又はその組合せに対応し、実施形態がこれに同一に限定されることはない。
図19A及び図19Bを参照すると、それぞれの自動通訳装置1900は、メモリ1910、及びプロセッサ1920を含む。また、自動通訳装置1900は、図19Aに示すように音声認識器1930及び/又は翻訳機1940をさらに含む。
その代案として、音声認識器1930及び/又は翻訳機1940は、構成されたようにプロセッサ1920に含まれる。また、一例として、自動通訳装置1900それぞれは翻訳機1940を含み、音声認識器1930を含まないか、又は、音声認識器1930を含み、翻訳機1940を含まない場合がある。
一実施形態では、図19Aに示すように、メモリ1910、プロセッサ1920、音声認識器1930、及び翻訳機1940はバス1950を用いて通信を行う。
メモリ1910は、例えば、揮発性メモリ及び不揮発性メモリを含み、バス1950を用いて受信された情報を格納する。メモリ1910は、例えば、図1〜図18に関して上述したいずれか1つ又は組合せの処理のような自動通訳過程で生成された第1特徴ベクトル、第1言語文章、第2特徴ベクトル、及び第2言語文章などを格納するデータベースを含む。メモリ1910は、第1特徴ベクトル、第1言語文章、第2特徴ベクトルにマッチングして第2言語文章及び/又は最終第2言語文章をデータベースに格納する。その他にも、メモリ1910は様々なタイプのデータとプログラムなどを格納する。
一実施形態では、一時的ではないコンピュータで読み出し可能な格納媒体として、メモリ1910は、例えば、プロセッサ1920によって実行されるとき、プロセッサ1920が図1〜図18に関して上述した過程のうちいずれか1つ又はその組合せを行うようにする命令語を格納する。
代案的に、更なるメモリが自動通訳装置1900のそれぞれに含まれ、命令語を格納し、及び/又は自動通訳装置1900それぞれの他のプロセッサが格納された命令語を行ってもよい。
プロセッサ1920は、図1に示すエージェント133の動作を行う。例えば、実施形態でプロセッサ1920は、図19Bに示す自動通訳装置1900のユーザインターフェース1960によって表現されたマイクロホンにより取得されたユーザの音声を音声認識器1930に伝達し、音声認識器1930から第1特徴ベクトル及び第1言語文章を受信する。また、実施形態において、プロセッサ1920は第1言語文章を翻訳機1940に伝達し、翻訳機1940から第2特徴ベクトル及び第2言語文章を受信する。
1つ以上の実施形態で、プロセッサ1920は第1特徴ベクトル及び第1言語文章を生成し、第2特徴ベクトル及び第2言語文章を生成する音声認識器1930及び翻訳機1940それぞれの過程及び/又はそれぞれの動作を行うように制御するコントローラで構成されたり、又は、このようなコントローラであり得る。
また、1つ以上の実施形態において、プロセッサ1920又は他のプロセッサはユーザの音声のサンプリングを行い、結果的にサンプリングされたオーディオフレームを音声認識装置1930に提供することができる。
プロセッサ1920は、例えば、現在の認識又は翻訳過程における第1特徴ベクトル、第1言語文章、第2特徴ベクトル、及び第2言語文章のうちいずれか1つ又はその組合せに基づいて、メモリ1910のデータベースから候補文章を取得する。プロセッサ1920は、翻訳機1940のデコーダに候補文章及び第2特徴ベクトルを伝達し、翻訳機1940のデコーダから、例えば、翻訳機1940のデコーダによって決定又は算出された候補文章それぞれに対する点数を受信する。プロセッサ1920は、点数に基づいて候補文章のうち最終文章を選択する。
一実施形態によれば、音声認識器1930及び翻訳機1940はプロセッサ1920と独立的に実現される。この場合、音声認識器1930及び翻訳機1940は、プロセッサ1920と区別される別途のコンピューティングリソース又はプロセッサを用いて実現される。又は、音声認識器1930及び翻訳機1940は、同一のプロセッサ又は同一のコンピューティングリソースによって具現されたり、又は、互いに異なるプロセッサ又は互いに異なるコンピューティングリソースによって実現され得る。
これに加えて、実施形態で音声認識器1930及び翻訳機1940は、自動通訳装置1900それぞれの外部又は遠隔に位置することができ、有線及び/又は無線ネットワークを介して自動通訳装置1900と通信できる。
図19Bに示されたユーザインターフェース1960は、ハードウェア有線及び/又は無線通信モジュールだけではなく、一例として、キーボード、タッチスクリーン、マウス又はスタイラスのような他のユーザインターフェース装置を示す。
このような外部又は遠隔例において、プロセッサ1920は、ユーザインターフェース1960によって表現されたマイクロホンによってキャプチャーされたアナログ信号と共にユーザの音声のサンプリングを行った後、一例として、音声認識器1930及び/又は翻訳機1940のそれぞれを含む1つ以上の外部サーバと通信するハードウェア通信モジュールを用いることができる。
最終の第2言語翻訳は、自動翻訳装置1900のプロセッサ1920に最終第2言語翻訳を伝達できる翻訳機1940による候補文章リストから決定され、ユーザに視覚的及び/又は聴覚的に翻訳を出力するように構成される。
例えば、ユーザインターフェース1960は、翻訳を聴覚的に出力する音声合成器及びスピーカを示し、及び/又はディスプレイ1970はディスプレイ1970のスクリーン上にテキストを通した翻訳を視覚的に表示し得る。一実施形態によれば、音声認識器1930及び翻訳機1940は、例えば、認識及び翻訳モデリングによってプロセッサ1920とメモリ1910を用いて実現される。例えば、音声認識器1930に含まれた1つ以上のニューラルネットワークは、一例として、音声認識器1930のエンコーダ及びデコーダに含まれたニューラルネットワーク、及び/又は翻訳機1940に含まれた1つ以上のニューラルネットワーク、一例として、翻訳機1940のエンコーダ及びデコーダに含まれたそれぞれのニューラルネットワークを含み、メモリ1910に格納される。
ニューラルネットワークのそれぞれは、実行可能なオブジェクトファイルや実行ファイルの形態にメモリ1910に格納される。また、各ニューラルネットワークのためのパラメータもメモリ1910に格納される。このような例として、プロセッサ1920は、メモリ1910からニューラルネットワークをロードし、ニューラルネットワークそれぞれに対するパラメータを適用することによって音声認識装置1930の認識及び翻訳機1940の翻訳を実現することができる。
プロセッサ1920は、メモリ1910からニューラルネットワークをロードし、ニューラルネットワークそれぞれに該当するパラメータを適用することによって、音声認識器1930のエンコーダとデコーダ及び翻訳機1940のエンコーダとデコーダを実現することができる。
他の実施形態によれば、プロセッサ1920は、第1言語のサンプリングされた音声信号のフレームを符号化して第1言語の第1特徴ベクトルを生成する。プロセッサ1920は、第1特徴ベクトルを復号化して第1言語の第1言語文章を生成する。プロセッサ1920は、第2言語に対する第1言語文章を符号化して第2言語に対する第2特徴ベクトルを生成する。プロセッサ1920は、第2特徴ベクトルを復号化して第2言語文章を生成する。プロセッサ1920は、第1特徴ベクトル、第1言語文章、第2特徴ベクトル、及び第2言語文章のうちいずれか1つ又はその組合せに基づいて、例えば、プロセッサ1920によって生成した候補文章リストから最終第2言語文章を選択する。
音声認識過程で生成された結果又は参照された出力及び機械翻訳の過程で生成された結果及び参照された出力はメモリ1910に送信される。
また、実施形態はこのような出力又は生成された結果は、プロセッサ1920、音声認識器1930、及び/又は翻訳機1940間に送信され得る。
実施形態は、また、プロセッサ1920、音声認識器1930及び/又は翻訳機1940のうちいずれか1つによりローカルキャッシュ、メモリ1910又は他のメモリから取得又は要求するよう、ローカルキャッシュ、メモリ1910、又は、任意の他のメモリにそれぞれの出力又は結果を格納するプロセッサ1920、音声認識器1930、及び/又は翻訳機1940を含む。
上述した動作を行う図1〜図4、図6〜図7、図19A〜図19Bに示されたエージェント133、翻訳機136、自動通訳装置130、自動通訳装置200、音声認識器210、エンコーダ211、デコーダ213、翻訳機230、エンコーダ231、デコーダ233、データベース250、リスコアリングモデル215、リスコアリングモデル235、ニューラルネットワーク212、ニューラルネットワーク214、ニューラルネットワーク232、ニューラルネットワーク234、機械翻訳装置300、翻訳機310、データベース330、ニューラルネットワーク610、ニューラルネットワーク710、自動通訳装置1900、メモリ1910、プロセッサ1920、音声認識器1930、翻訳機1940、バス1950、ユーザインターフェース1960、及びディスプレイ1970は、上述した動作を行うように構成されたハードウェア構成要素によって実行され得る。
上述した動作を行うために用いられるハードウェア構成要素の実施形態は、上述した実施形態で記述された動作を行うように構成されたコントローラ、センサ、ジェネレータ、ドライバ、メモリ、比較器、算術論理ユニット、加算器、減算器、乗算器、分周器、積分器、及びその他の電子部品を含む。
以上に前述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
非限定的な例として、又は、異なる実施形態において、自動通訳装置は、セルラーフォン、スマートフォン、ウェアラブルスマート装置(例えば、リング、時計、ひじ掛け、アンクレット、ベルト、ネックレス、イヤリング、ヘアバンド、ヘルメット又は衣類に内蔵された装置)、携帯用パーソナルコンピュータ(PC)(例えば、ノート型パソコン、タブレットPC、タブレットPC、PDA、デジタルカメラ、携帯用ゲームコンソール、MP3プレーヤー、携帯用/個人携帯用コンピュータ、PMP(personal multimedia player)、ハンドヘルド電子書籍(handheld e−book)、GPS(global positioning system)ナビゲーション装置又はデスクトップPC、HDTV、DVDプレーヤー、Blu−セットトップボックス又は家庭用機器又は無線又はネットワーク通信を行うように構成された他の移動装置又は固定装置であり得る。
例えば、上述した実施形態で自動通訳は、同時画像会議をリアルタイムで出力及び表示して、画像会議を実現するモバイルデバイス、テレビ、又はPCなどのようなハードウェアに実現する。1つ以上の実施形態に係る自動通訳装置又は自動通訳システムは車両、公共交通キオスク又はインターフェース、又は、他のユーザインターフェースであり得る。
他の実施形態において、1つ以上の実施形態に係るモバイルデバイスは公共交通システム又は可聴警告システムのような公開公知を自動通訳するように構成する。
一例として、ウェアラブルデバイスは、メガネ、又はブレスレットのようにユーザの身体に直接装着されるよう設計された装置である。
異なる例として、ウェアラブルデバイスは、アームバンドを用いてユーザの腕に付着するスマートフォン、タブレットのような取付装置、又は、ひもを用いてユーザの首に垂下するような取付装置を用いてユーザの身体に装着され得る。
このような例は説明の目的のためのものであり、自動通訳装置又は自動通訳システムの応用又は実現を制限すると解釈されてはいけない。上述したように実施形態がたとえ限定された図面によって説明されたが、当技術分野で通常の知識を有する者であれば前記に基づいて様々な技術的修正及び変形を適用する。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果が達成されることができる。
1900:自動通訳装置
1910:メモリ
1920:プロセッサ
1930:音声認識器
1940:翻訳機
1950:バス

Claims (35)

  1. 自動通訳装置により実施される自動通訳方法であって、前記自動通訳装置のプロセッサが、
    第1特徴ベクトルを生成するために第1言語からなる音声信号を符号化するステップと、
    第1言語文章を生成するために前記第1特徴ベクトルを復号化するステップと、
    第2言語に対する第2特徴ベクトルを生成するために前記第1言語文章を符号化するステップと、
    前記第2特徴ベクトルを復号化して第2言語文章を生成するステップと、
    候補文章リストの生成を制御するステップであって、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を前記候補文章リストに追加する、ステップと、
    前記音声信号の翻訳として前記候補文章リストから最終第2言語文章を選択するステップと、
    を含む、自動通訳方法。
  2. 前記候補文章リストの生成を制御するステップは、
    データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果を取得するステップと、
    前記データベースから前記第1言語文章に類似すると決定された以前に認識された文章にマッチングされた第2通訳結果を取得するステップと、
    前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果を取得するステップと、
    前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果を取得するステップと、
    のうちいずれか1つ又はその組合せを含む、請求項1に記載の自動通訳方法。
  3. 前記候補文章リストの生成を制御するステップは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加するステップと、
    前記第2言語文章を前記候補文章リストに追加するステップと、
    をさらに含む、請求項に記載の自動通訳方法。
  4. 前記第2通訳結果を取得するステップは、
    前記第1言語文章をベクトルに変換するステップと、
    前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定するステップと、
    を含む、請求項又はに記載の自動通訳方法。
  5. 前記第4通訳結果を取得するステップは、
    前記第2言語文章をベクトルに変換するステップと、
    前記変換されたベクトルに基づいて、前記データベースから複数の以前認識された文章のいずれかが前記第2言語文章に類似するかを決定するステップと、
    を含む、請求項乃至のいずれか一項に記載の自動通訳方法。
  6. 前記最終第2言語文章を選択するステップは、
    前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出するステップと、
    前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択するステップと、
    を含む、請求項1乃至のいずれか一項に記載の自動通訳方法。
  7. 前記第1言語の音声信号を符号化するステップは、
    予め決定されたフレームの長さに基づいて前記第1言語の音声信号をサンプリングするステップと、
    フレームに対応する入力ベクトルそれぞれを生成するステップと、
    音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力するステップと、
    前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからの出力されるように決定することによって前記第1特徴ベクトルを生成するステップと、
    を含む、請求項1乃至のいずれか一項に記載の自動通訳方法。
  8. 前記第1特徴ベクトルを復号化するステップは、前記第1特徴ベクトルを音声認識のためのデコーダに入力するステップと、
    前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、
    前記予め決定された数の文章シーケンスのうち、コアが最も高い文章シーケンスを前記第1言語文章として選択することで前記第1言語文章を生成するステップと、
    を含む、請求項1乃至のいずれか一項に記載の自動通訳方法。
  9. 前記第1言語文章を符号化するステップは、
    前記第1言語文章を複数のサブワードに分割するステップと、
    機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力するステップと、
    前記順次入力された入力ベクトルそれぞれに対して前記第2特徴ベクトルが前記エンコーダからの出力されるように決定することで前記第2特徴ベクトルを生成するステップと、
    を含む、請求項1乃至のいずれか一項に記載の自動通訳方法。
  10. 前記第2言語文章を生成するステップは、
    前記第2特徴ベクトルを機械翻訳のためのデコーダに入力するステップと、
    前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて、予め決定された数の文章シーケンスを生成するステップと、
    前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択するステップと、
    を含む、請求項1乃至のいずれか一項に記載の自動通訳方法。
  11. ハードウェアと結合して請求項1乃至10のいずれか一項に記載の方法を実行させるためコンピュータプログラム。
  12. 第1言語からなる音声信号を認識符号化して前記第1言語に対する第1特徴ベクトルを生成し、前記第1特徴ベクトルを復号化して第1言語文章を生成する音声認識器と、
    前記第1言語からなる第1言語文章を翻訳符号化して第2言語に対する第2特徴ベクトルを生成し、前記第2特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、
    1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記第1特徴ベクトル、前記第1言語文章、前記第2特徴ベクトル、及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を候補文章リストに追加し、前記候補文章リストから前記音声信号の翻訳として最終第2言語文章を選択するプロセッサと、
    を含む、自動通訳装置。
  13. 前記音声認識器は、前記第1特徴ベクトルを生成するために前記音声信号の認識符号化を行う認識エンコーダ、及び前記第1言語文章を生成するために前記第1特徴ベクトルの復号化を行う認識デコーダを含み、
    前記翻訳機は、前記第2特徴ベクトルを生成するために前記第1言語文章の翻訳符号化を行う翻訳エンコーダ、及び前記第2言語文章を生成するために前記第2特徴ベクトルの復号化を行う翻訳デコーダを含む、請求項12に記載の自動通訳装置。
  14. 前記プロセッサは、前記認識エンコーダ、前記認識デコーダ、前記翻訳エンコーダ及び前記翻訳デコーダをさらに含み、
    前記認識エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記音声信号に基づいて前記第1特徴ベクトルを決定するニューラルネットワークを実現し、
    前記認識デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1特徴ベクトルに基づいて前記第1言語文章を決定するニューラルネットワークを実現し、
    前記翻訳エンコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第1言語文章に基づいて前記第2特徴ベクトルを決定するニューラルネットワークを実現し、
    前記翻訳デコーダは、前記自動通訳装置の1つ以上のニューラルネットワークのうち前記第2特徴ベクトルに基づいて前記第2言語文章を決定するニューラルネットワークを実現する、請求項13に記載の自動通訳装置。
  15. 前記プロセッサは、データベースから前記第1特徴ベクトルに類似すると決定された第1言語特徴ベクトルにマッチングされた第1通訳結果、前記データベースから前記第1言語文章に類似すると決定された以前認識された文章にマッチングされた第2通訳結果、前記データベースから前記第2特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第3通訳結果、及び前記データベースから前記第2言語文章に類似すると決定された以前の翻訳文章にマッチングされた第4通訳結果のうちいずれか1つ又はその組合せを取得する、請求項12に記載の自動通訳装置。
  16. 前記プロセッサは、前記第1通訳結果、前記第2通訳結果、前記第3通訳結果、及び前記第4通訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加する、請求項15に記載の自動通訳装置。
  17. 前記プロセッサは、前記第1言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前認識された文章のいずれかが前記第1言語文章に類似するかを決定する、請求項15又は16に記載の自動通訳装置。
  18. 前記プロセッサは、前記第2言語文章をベクトルに変換し、前記変換されたベクトルに基づいて前記データベースから複数の以前の翻訳文章のいずれかが前記第2言語文章に類似するかを決定する、請求項15乃至17のいずれか一項に記載の自動通訳装置。
  19. 前記翻訳機は、前記第2特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、
    前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最高値を有する候補文章を前記最終第2言語文章として選択する、請求項12乃至18のいずれか一項に記載の自動通訳装置。
  20. 前記プロセッサは、予め決定されたフレームの長さに基づいて前記第1言語からなる音声信号をサンプリングし、フレームに対応する入力ベクトルそれぞれを生成し、音声認識のためのエンコーダに前記入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルそれぞれに対して前記第1特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項12乃至19のいずれか一項に記載の自動通訳装置。
  21. 前記プロセッサは、前記第1特徴ベクトルを音声認識のためのデコーダに入力し、前記音声認識のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第1言語文章として選択する、請求項12乃至20のいずれか一項に記載の自動通訳装置。
  22. 前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記第2特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項12乃至21のいずれか一項に記載の自動通訳装置。
  23. 前記プロセッサは、前記第2特徴ベクトルを機械翻訳のためのデコーダに入力し、前記機械翻訳のためのデコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択する、請求項12乃至22のいずれか一項に記載の自動通訳装置。
  24. 前記プロセッサは、前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルを前記データベースに格納し、
    前記第1特徴ベクトル、前記第1言語文章、及び前記第2特徴ベクトルに対応する前記第2言語文章及び前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納する、請求項12乃至23のいずれか一項に記載の自動通訳装置。
  25. 第1言語からなる第1言語文章を翻訳符号化して第2言語に対する特徴ベクトルを生成し、前記特徴ベクトルを復号化して第2言語からなる第2言語文章を生成する翻訳機と、
    1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに格納された複数の要素から、前記特徴ベクトル及び前記第2言語文章のうちいずれか1つに類似する要素を検索することにより、候補文章を取得し、取得した前記候補文章を候補文章リストに追加し、前記候補文章リストから前記第1言語文章の翻訳として最終第2言語文章を選択するプロセッサと、
    を含む、自動通訳システム。
  26. 前記第1言語からなる音声信号を認識符号化して生成された第1特徴ベクトルを復号化することによって前記第1言語文章を生成する音声認識器をさらに含む、請求項25に記載の自動通訳システム。
  27. データベースを含むメモリをさらに含み、
    前記プロセッサは、前記データベースから、前記特徴ベクトルに類似すると決定された第2言語特徴ベクトルにマッチングされた第1翻訳結果、前記データベースから前記第2言語文章に類似すると決定された文章にマッチングされた第2翻訳結果のうちいずれか1つ又はその組合せを取得する、請求項25又は26に記載の自動通訳システム。
  28. 前記プロセッサは、前記第1翻訳結果及び前記第2翻訳結果のうちいずれか1つに対応する任意の以前の翻訳文章を前記候補文章リストに追加し、前記第2言語文章を前記候補文章リストに追加する、請求項27に記載の自動通訳システム。
  29. 前記翻訳機は、前記特徴ベクトルに基づいて前記候補文章リストに含まれた候補文章のスコアを算出し、
    前記プロセッサは、前記候補文章リストから前記算出されたスコアのうち最大値を有する候補文章が前記最終第2言語文章になるよう選択する、請求項25乃至28のいずれか一項に記載の自動通訳システム。
  30. 前記プロセッサは、前記第1言語文章を複数のサブワードに分割し、機械翻訳のためのエンコーダに前記複数のサブワードを指示する入力ベクトルそれぞれを順次入力し、前記順次入力された入力ベクトルに対して前記特徴ベクトルが前記エンコーダからの出力されるように決定する、請求項25乃至29のいずれか一項に記載の自動通訳システム。
  31. 前記プロセッサは、前記特徴ベクトルを機械翻訳のためのデコーダに入力し、前記デコーダから順次出力されるサブワードの確率に基づいて予め決定された数の文章シーケンスを生成し、前記予め決定された数の文章シーケンスのうちスコアが最も高い文章シーケンスを前記第2言語文章として選択する、請求項25乃至30のいずれか一項に記載の自動通訳システム。
  32. 前記プロセッサは、前記データベースに格納された前記第1言語文章と共に前記特徴ベクトルを前記データベースに格納し、
    前記第1言語文章及び前記特徴ベクトルに対応する前記第2言語文章と前記最終第2言語文章のうちいずれか1つ又はその組合せを前記データベースに格納する、請求項27に記載の自動通訳システム。
  33. 入力された音声信号の音声認識を行い、前記音声認識の認識結果に対する初期翻訳を行って、前記入力された音声信号の最終翻訳を決定するために前記初期翻訳の結果と選択された以前の翻訳の以前の結果とを比較する1つ以上のプロセッサを含み、
    前記比較は、
    前記選択された以前の翻訳を、1つ以上の近似NN(approximate Nearest Neighbor)アルゴリズムを用いて、データベースに記録された複数の以前の翻訳から識別するための、前記音声認識から誘導された1つ以上の情報と前記初期翻訳から誘導された情報のうちの1つ以上の情報と前記データベースに格納された前記複数の以前の翻訳の結果に関する情報との間の比較を含む、自動通訳システム。
  34. 前記比較は、前記選択された以前の翻訳を識別するための、前記音声認識で誘導された第1特徴ベクトル、前記音声認識で誘導された第1言語文章、前記初期翻訳で誘導された第2特徴ベクトル、及び前記初期翻訳で誘導された第2言語文章のうちの1つ以上の情報と前記データベースに格納された情報との間の比較を含む、請求項33に記載の自動通訳システム。
  35. 前記1つ以上のプロセッサは同じモバイル装置に含まれる、請求項33又は34に記載の自動通訳システム。

JP2017058860A 2016-07-07 2017-03-24 自動通訳方法及び装置 Active JP6923332B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160086036A KR102565274B1 (ko) 2016-07-07 2016-07-07 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
KR10-2016-0086036 2016-07-07

Publications (2)

Publication Number Publication Date
JP2018005218A JP2018005218A (ja) 2018-01-11
JP6923332B2 true JP6923332B2 (ja) 2021-08-18

Family

ID=58191222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058860A Active JP6923332B2 (ja) 2016-07-07 2017-03-24 自動通訳方法及び装置

Country Status (5)

Country Link
US (1) US10867136B2 (ja)
EP (1) EP3267328B1 (ja)
JP (1) JP6923332B2 (ja)
KR (1) KR102565274B1 (ja)
CN (1) CN107590135B (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US10706351B2 (en) * 2016-08-30 2020-07-07 American Software Safety Reliability Company Recurrent encoder and decoder
JP6705506B2 (ja) * 2016-10-04 2020-06-03 富士通株式会社 学習プログラム、情報処理装置および学習方法
WO2018083670A1 (en) * 2016-11-04 2018-05-11 Deepmind Technologies Limited Sequence transduction neural networks
EP3542360A4 (en) * 2016-11-21 2020-04-29 Microsoft Technology Licensing, LLC METHOD AND DEVICE FOR AUTOMATIC SYNCHRONIZATION
US11210328B2 (en) * 2016-12-29 2021-12-28 Ncsoft Corporation Apparatus and method for learning narrative of document, and apparatus and method for generating narrative of document
US11631026B2 (en) * 2017-07-13 2023-04-18 Meta Platforms, Inc. Systems and methods for neural embedding translation
CN108304388B (zh) * 2017-09-12 2020-07-07 腾讯科技(深圳)有限公司 机器翻译方法及装置
KR102509822B1 (ko) * 2017-09-25 2023-03-14 삼성전자주식회사 문장 생성 방법 및 장치
US10552547B2 (en) * 2017-10-10 2020-02-04 International Business Machines Corporation Real-time translation evaluation services for integrated development environments
CN108509411B (zh) * 2017-10-10 2021-05-11 腾讯科技(深圳)有限公司 语义分析方法和装置
KR102449875B1 (ko) 2017-10-18 2022-09-30 삼성전자주식회사 음성 신호 번역 방법 및 그에 따른 전자 장치
CN111566656B (zh) * 2018-01-11 2024-02-20 新智株式会社 利用多种语言文本语音合成模型的语音翻译方法及系统
KR102516363B1 (ko) * 2018-01-26 2023-03-31 삼성전자주식회사 기계 번역 방법 및 장치
CN108197123A (zh) * 2018-02-07 2018-06-22 云南衍那科技有限公司 一种基于智能手表的云翻译系统和方法
CN110134780B (zh) * 2018-02-08 2023-11-24 株式会社理光 文档摘要的生成方法、装置、设备、计算机可读存储介质
GB201804073D0 (en) 2018-03-14 2018-04-25 Papercup Tech Limited A speech processing system and a method of processing a speech signal
CN108595443A (zh) * 2018-03-30 2018-09-28 浙江吉利控股集团有限公司 同声翻译方法、装置、智能车载终端及存储介质
US11790185B2 (en) 2018-05-23 2023-10-17 Ntt Docomo, Inc. Created text evaluation device
US10664472B2 (en) * 2018-06-27 2020-05-26 Bitdefender IPR Management Ltd. Systems and methods for translating natural language sentences into database queries
CN108920472B (zh) * 2018-07-04 2020-01-10 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法
CN112889073A (zh) * 2018-08-30 2021-06-01 谷歌有限责任公司 使用多语言神经机器翻译的跨语言分类
US20200193965A1 (en) * 2018-12-13 2020-06-18 Language Line Services, Inc. Consistent audio generation configuration for a multi-modal language interpretation system
CN115455988A (zh) * 2018-12-29 2022-12-09 苏州七星天专利运营管理有限责任公司 一种高风险语句的处理方法和系统
US11361170B1 (en) * 2019-01-18 2022-06-14 Lilt, Inc. Apparatus and method for accurate translation reviews and consistency across multiple translators
US11106873B2 (en) * 2019-01-22 2021-08-31 Sap Se Context-based translation retrieval via multilingual space
CN110162604B (zh) * 2019-01-24 2023-09-12 腾讯科技(深圳)有限公司 语句生成方法、装置、设备及存储介质
CN109933809B (zh) * 2019-03-15 2023-09-15 北京金山数字娱乐科技有限公司 一种翻译方法及装置、翻译模型的训练方法及装置
CN111783435B (zh) * 2019-03-18 2024-06-25 株式会社理光 共享词汇的选择方法、装置及存储介质
CN113412515A (zh) * 2019-05-02 2021-09-17 谷歌有限责任公司 适配自动化助理以用多种语言使用
JP7229347B2 (ja) * 2019-05-07 2023-02-27 株式会社Nttドコモ 内部状態変更装置
WO2020236710A1 (en) * 2019-05-20 2020-11-26 Black & Decker, Inc. Speech-responsive construction tool
CN110175338B (zh) * 2019-05-31 2023-09-26 北京金山数字娱乐科技有限公司 一种数据处理方法及装置
KR102215581B1 (ko) * 2019-06-03 2021-02-15 주식회사 한글과컴퓨터 사용자의 위치 정보에 의해 자동 지정된 타겟 언어를 기반으로 번역 문장 추천 기능을 제공하는 전자 단말 장치 및 그 동작 방법
CN110489762B (zh) * 2019-06-26 2023-07-04 中译语通科技股份有限公司 基于神经网络机器翻译的术语翻译方法、存储介质和装置
CN110807335B (zh) * 2019-09-02 2023-06-30 腾讯科技(深圳)有限公司 基于机器学习的翻译方法、装置、设备及存储介质
KR20210060897A (ko) * 2019-11-19 2021-05-27 삼성전자주식회사 음성 처리 방법 및 장치
US11392770B2 (en) * 2019-12-11 2022-07-19 Microsoft Technology Licensing, Llc Sentence similarity scoring using neural network distillation
CN111128191B (zh) * 2019-12-31 2023-03-28 中国科学院声学研究所 一种在线端对端语音转写方法及系统
US11557284B2 (en) * 2020-01-03 2023-01-17 International Business Machines Corporation Cognitive analysis for speech recognition using multi-language vector representations
CN111476040A (zh) * 2020-03-27 2020-07-31 深圳光启超材料技术有限公司 语言输出方法、头戴设备、存储介质及电子设备
US11586833B2 (en) * 2020-06-12 2023-02-21 Huawei Technologies Co., Ltd. System and method for bi-directional translation using sum-product networks
GB2596092A (en) * 2020-06-17 2021-12-22 Daimler Ag A method for generating at least one alternative utterance to an initial utterance, as well as a semantic analyzer module
EP4200717A2 (en) 2020-08-24 2023-06-28 Unlikely Artificial Intelligence Limited A computer implemented method for the automated analysis or use of data
WO2022130940A1 (ja) * 2020-12-15 2022-06-23 株式会社Nttドコモ 提示装置
US11989528B2 (en) * 2020-12-30 2024-05-21 Direct Cursus Technology L.L.C Method and server for training a machine learning algorithm for executing translation
CN113257239B (zh) * 2021-06-15 2021-10-08 深圳市北科瑞声科技股份有限公司 语音识别方法、装置、电子设备及存储介质
US12067362B2 (en) 2021-08-24 2024-08-20 Unlikely Artificial Intelligence Limited Computer implemented methods for the automated analysis or use of data, including use of a large language model
US11989527B2 (en) 2021-08-24 2024-05-21 Unlikely Artificial Intelligence Limited Computer implemented methods for the automated analysis or use of data, including use of a large language model
US11977854B2 (en) 2021-08-24 2024-05-07 Unlikely Artificial Intelligence Limited Computer implemented methods for the automated analysis or use of data, including use of a large language model
US11989507B2 (en) 2021-08-24 2024-05-21 Unlikely Artificial Intelligence Limited Computer implemented methods for the automated analysis or use of data, including use of a large language model
US12073180B2 (en) 2021-08-24 2024-08-27 Unlikely Artificial Intelligence Limited Computer implemented methods for the automated analysis or use of data, including use of a large language model
US11900073B2 (en) * 2021-09-07 2024-02-13 Lilt, Inc. Partial execution of translation in browser
EP4332960A1 (en) * 2021-10-15 2024-03-06 Samsung Electronics Co., Ltd. Electronic device and control method thereof
WO2023063746A1 (ko) * 2021-10-15 2023-04-20 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102635031B1 (ko) * 2023-09-27 2024-02-13 주식회사 에이아이노미스 의미 단위 시각화를 기반으로 한 화자 분리 실시간 통역 서비스 제공 방법, 장치 및 시스템

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01314373A (ja) 1988-06-15 1989-12-19 Hitachi Ltd 機械翻訳システムにおける訳語選択方式
US6411928B2 (en) * 1990-02-09 2002-06-25 Sanyo Electric Apparatus and method for recognizing voice with reduced sensitivity to ambient noise
US5809461A (en) 1992-03-30 1998-09-15 Seiko Epson Corporation Speech recognition apparatus using neural network and learning method therefor
US6408272B1 (en) 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
US7219058B1 (en) 2000-10-13 2007-05-15 At&T Corp. System and method for processing speech recognition results
US7343041B2 (en) 2001-02-22 2008-03-11 International Business Machines Corporation Handwritten word recognition using nearest neighbor techniques that allow adaptive learning
US7224981B2 (en) 2002-06-20 2007-05-29 Intel Corporation Speech recognition of mobile devices
TWI245259B (en) * 2002-12-20 2005-12-11 Ibm Sensor based speech recognizer selection, adaptation and combination
EP1576580B1 (en) 2002-12-23 2012-02-08 LOQUENDO SpA Method of optimising the execution of a neural network in a speech recognition system through conditionally skipping a variable number of frames
US20040148170A1 (en) * 2003-01-23 2004-07-29 Alejandro Acero Statistical classifiers for spoken language understanding and command/control scenarios
KR100542755B1 (ko) * 2003-09-15 2006-01-20 한국전자통신연구원 규칙 기반 방식과 번역 패턴 방식을 혼합한 하이브리드자동 번역 장치 및 방법과 그 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체
JP2006053683A (ja) * 2004-08-10 2006-02-23 Advanced Telecommunication Research Institute International 音声認識および機械翻訳装置
US20060271370A1 (en) 2005-05-24 2006-11-30 Li Qi P Mobile two-way spoken language translator and noise reduction using multi-directional microphone arrays
JP4756499B2 (ja) 2005-08-19 2011-08-24 株式会社国際電気通信基礎技術研究所 音声認識結果の検査装置及びコンピュータプログラム
WO2007098055A2 (en) 2006-02-17 2007-08-30 Google Inc. Encoding and adaptive, scalable accessing of distributed models
JP5011751B2 (ja) * 2006-02-27 2012-08-29 富士通株式会社 訳語情報出力処理プログラム,処理方法および処理装置
JP2008032834A (ja) 2006-07-26 2008-02-14 Toshiba Corp 音声翻訳装置及びその方法
JP4393494B2 (ja) * 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US8145473B2 (en) * 2006-10-10 2012-03-27 Abbyy Software Ltd. Deep model statistics method for machine translation
US8195447B2 (en) * 2006-10-10 2012-06-05 Abbyy Software Ltd. Translating sentences between languages using language-independent semantic structures and ratings of syntactic constructions
US20080133245A1 (en) * 2006-12-04 2008-06-05 Sehda, Inc. Methods for speech-to-speech translation
US20080154577A1 (en) 2006-12-26 2008-06-26 Sehda,Inc. Chunk-based statistical machine translation system
KR100853173B1 (ko) 2007-01-22 2008-08-20 포항공과대학교 산학협력단 통계적 자동 번역 방식에 기반한 음성 자동 통역 시스템 및그에 적용되는 번역 처리 방법 및 그 훈련방법
US8799307B2 (en) * 2007-05-16 2014-08-05 Google Inc. Cross-language information retrieval
JP2008305167A (ja) * 2007-06-07 2008-12-18 Toshiba Corp 原言語文を目的言語文に機械翻訳する装置、方法およびプログラム
US9436759B2 (en) * 2007-12-27 2016-09-06 Nant Holdings Ip, Llc Robust information extraction from utterances
US8583416B2 (en) * 2007-12-27 2013-11-12 Fluential, Llc Robust information extraction from utterances
US8478578B2 (en) 2008-01-09 2013-07-02 Fluential, Llc Mobile speech-to-speech interpretation system
US8615388B2 (en) 2008-03-28 2013-12-24 Microsoft Corporation Intra-language statistical machine translation
US20100088096A1 (en) 2008-10-02 2010-04-08 Stephen John Parsons Hand held speech recognition device
KR101134467B1 (ko) 2009-07-27 2012-04-13 한국전자통신연구원 의미 표현 처리 장치 및 그 방법
US20110046941A1 (en) 2009-08-18 2011-02-24 Manuel-Devados Johnson Smith Johnson Advanced Natural Language Translation System
US20110097693A1 (en) 2009-10-28 2011-04-28 Richard Henry Dana Crawford Aligning chunk translations for language learners
US8352243B2 (en) 2010-05-18 2013-01-08 Hai-Shan Jang Multi-language translator for specific fields of knowledge
JP5066242B2 (ja) * 2010-09-29 2012-11-07 株式会社東芝 音声翻訳装置、方法、及びプログラム
US8930194B2 (en) 2011-01-07 2015-01-06 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
KR20120138273A (ko) * 2011-06-14 2012-12-26 한국전자통신연구원 자동 통역 방법 및 이를 실행하는 장치
US8694303B2 (en) 2011-06-15 2014-04-08 Language Weaver, Inc. Systems and methods for tuning parameters in statistical machine translation
KR20130014106A (ko) * 2011-07-29 2013-02-07 한국전자통신연구원 다중 번역 엔진을 사용한 번역 장치 및 방법
KR101449551B1 (ko) * 2011-10-19 2014-10-14 한국전자통신연구원 유사문장 검색 장치 및 방법, 유사문장 검색 방법을 실행시키기 위한 프로그램이 기록된 기록매체
US20130103695A1 (en) * 2011-10-21 2013-04-25 Microsoft Corporation Machine translation detection in web-scraped parallel corpora
US8700552B2 (en) 2011-11-28 2014-04-15 Microsoft Corporation Exploiting sparseness in training deep neural networks
US8775177B1 (en) * 2012-03-08 2014-07-08 Google Inc. Speech recognition process
JP5967569B2 (ja) 2012-07-09 2016-08-10 国立研究開発法人情報通信研究機構 音声処理システム
US20150227505A1 (en) * 2012-08-27 2015-08-13 Hitachi, Ltd. Word meaning relationship extraction device
US9519858B2 (en) * 2013-02-10 2016-12-13 Microsoft Technology Licensing, Llc Feature-augmented neural networks and applications of same
US9606987B2 (en) * 2013-05-06 2017-03-28 Facebook, Inc. Methods and systems for generation of a translatable sentence syntax in a social networking system
JP2014235599A (ja) * 2013-06-03 2014-12-15 独立行政法人情報通信研究機構 翻訳装置、学習装置、翻訳方法、およびプログラム
KR102214178B1 (ko) 2013-12-13 2021-02-10 한국전자통신연구원 자동 통역 장치 및 방법
JP2016057986A (ja) * 2014-09-11 2016-04-21 株式会社東芝 音声翻訳装置、方法およびプログラム
EP3210132A1 (en) * 2014-10-24 2017-08-30 Google, Inc. Neural machine translation systems with rare word processing
US9589355B2 (en) * 2015-03-16 2017-03-07 Here Global B.V. Guided geometry extraction for localization of a device
US9836457B2 (en) * 2015-05-25 2017-12-05 Panasonic Intellectual Property Corporation Of America Machine translation method for performing translation between languages
CN106383818A (zh) * 2015-07-30 2017-02-08 阿里巴巴集团控股有限公司 一种机器翻译方法及装置
US10055489B2 (en) * 2016-02-08 2018-08-21 Ebay Inc. System and method for content-based media analysis
US9704257B1 (en) * 2016-03-25 2017-07-11 Mitsubishi Electric Research Laboratories, Inc. System and method for semantic segmentation using Gaussian random field network
US20180133245A1 (en) * 2016-11-15 2018-05-17 Tatiana Balazs-keithley Impact of electrolytes on tumors and various diseases

Also Published As

Publication number Publication date
KR102565274B1 (ko) 2023-08-09
JP2018005218A (ja) 2018-01-11
CN107590135A (zh) 2018-01-16
CN107590135B (zh) 2024-01-05
KR20180005850A (ko) 2018-01-17
EP3267328B1 (en) 2024-01-10
US20180011843A1 (en) 2018-01-11
EP3267328A1 (en) 2018-01-10
US10867136B2 (en) 2020-12-15

Similar Documents

Publication Publication Date Title
JP6923332B2 (ja) 自動通訳方法及び装置
JP7066349B2 (ja) 翻訳方法、翻訳装置及びコンピュータプログラム
CN111933129B (zh) 音频处理方法、语言模型的训练方法、装置及计算机设备
US11380330B2 (en) Conversational recovery for voice user interface
JP7167074B2 (ja) 音声認識方法、装置、機器及びコンピュータ可読記憶媒体
US10388284B2 (en) Speech recognition apparatus and method
CN107077841B (zh) 用于文本到语音的超结构循环神经网络
EP3032532B1 (en) Disambiguating heteronyms in speech synthesis
US9761220B2 (en) Language modeling based on spoken and unspeakable corpuses
CN111710333B (zh) 用于生成语音转录的方法和系统
US9805718B2 (en) Clarifying natural language input using targeted questions
JP2020086437A (ja) 音声認識方法及び音声認識装置
US11093110B1 (en) Messaging feedback mechanism
KR20190064181A (ko) 언어 모델 학습 방법 및 이를 사용하는 장치
JP2019075088A (ja) 文章生成モデルのアップデート方法及び文章生成装置
US10152298B1 (en) Confidence estimation based on frequency
CN116343747A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN111508497B (zh) 语音识别方法、装置、电子设备及存储介质
US11626107B1 (en) Natural language processing
US11900072B1 (en) Quick lookup for speech translation
Oyucu et al. Web Service-Based Turkish Automatic Speech Recognition Platform
US11482214B1 (en) Hypothesis generation and selection for inverse text normalization for search
US11798542B1 (en) Systems and methods for integrating voice controls into applications
Moyal et al. Keyword spotting methods
CN115410558A (zh) 集外词处理方法、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210729

R150 Certificate of patent or registration of utility model

Ref document number: 6923332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250