JP6462651B2 - 音声翻訳装置、音声翻訳方法及びプログラム - Google Patents

音声翻訳装置、音声翻訳方法及びプログラム Download PDF

Info

Publication number
JP6462651B2
JP6462651B2 JP2016241190A JP2016241190A JP6462651B2 JP 6462651 B2 JP6462651 B2 JP 6462651B2 JP 2016241190 A JP2016241190 A JP 2016241190A JP 2016241190 A JP2016241190 A JP 2016241190A JP 6462651 B2 JP6462651 B2 JP 6462651B2
Authority
JP
Japan
Prior art keywords
user
word
words
conference
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016241190A
Other languages
English (en)
Other versions
JP2017146587A (ja
Inventor
ハイリィアン リー
ハイリィアン リー
シン リー
シン リー
リンジュ ワン
リンジュ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2017146587A publication Critical patent/JP2017146587A/ja
Application granted granted Critical
Publication of JP6462651B2 publication Critical patent/JP6462651B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Description

本発明の実施形態は、音声翻訳装置、音声翻訳方法及びプログラムに関する。
会議は、人々が日常の仕事や生活において話し合うための重要な手段である。更に、文化と経済のグローバル化により、異なる母国語を有する人々の会議が増加している。特に、ほとんどの多国籍企業において、複数言語の会議は極めて頻繁に行われる。例えば、会議に参加している人々は、異なる母国語(中国語、日本語、英語等)を用いて話し合いを行う。
この理由により、多言語会議において音声翻訳サービスを提供するための音声認識・機械翻訳技術が開発されている。この技術の音声認識・翻訳精度を向上させるため、異なったドメイン(分野)毎に多数の単語セットを事前収集しておく。そして実際の会議において、この会議に関連するドメインの単語セットを用いて、音声認識・機械翻訳を行う。
しかしながら、実際の会議に適用する時、従来技術によるドメイン単語セットを用いた上記翻訳方法には、高コストと低効率という問題を有する。ドメイン単語セットが膨大であり、且つ動的に更新することが困難であるため、その効果が明白でない。
更に実際の会議において、会議の議題や参加者により、多くの異なった専門技術語や組織独自の単語が用いられる。これは音声認識・機械翻訳の精度の低下をもたらす。結果として、会議音声翻訳サービスの品質に悪影響を与える。
US8768686号公報 US8463806号公報 US7089493号公報
多言語会議において、音声認識・機械翻訳の精度を向上させることが可能な音声翻訳装置、音声翻訳方法及びプログラムを提供する。
実施形態に係る音声翻訳装置は、音声認識部、機械翻訳部、抽出部、及び受信部を備える。前記抽出部は、会議の関連情報に基づいて、単語セットから前記会議に用いられる単語を抽出し、この抽出した単語を前記音声認識部及び前記機械翻訳部へ送る。前記受信部は、前記会議における第1言語音声を受信する。前記音声認識部は、前記抽出した単語に基づいて、前記第1言語音声を第1言語テキストとして認識する。前記機械翻訳部は、前記抽出した単語に基づいて、前記第1言語テキストを第2言語テキストへ翻訳する。前記会議の関連情報は、前記会議の議題及びユーザ情報を含む。前記単語セットは、ユーザ語彙、グループ語彙、及びユーザとグループ間の関係情報を含む。前記抽出部は、前記ユーザ情報に基づいて前記ユーザ語彙から前記ユーザに関連するユーザ単語を抽出し、前記関係情報に基づいて前記グループ語彙から前記ユーザが属するグループのグループ語を抽出し、前記議題に基づいて、抽出されたユーザ単語及びグループ語から前記会議に関連する単語を抽出する。
本発明の1実施形態に係る会議音声翻訳方法のフローチャートである。 本発明の1実施形態に係る会議音声翻訳方法において、抽出された単語のフィルタリング処理の第1フローチャートである。 本発明の1実施形態に係る会議音声翻訳方法において、抽出された単語のフィルタリング処理の第2フローチャートである。 本発明の1実施形態に係る会議音声翻訳方法において、抽出された単語のフィルタリング処理の第3フローチャートである。 本発明の1実施形態に係る会議音声翻訳方法において、蓄積されたユーザ単語の使用頻度の更新処理のフローチャートである。 本発明の1実施形態に係る会議音声翻訳方法において、グループ語の追加処理のフローチャートである。 本発明の他の実施形態に係る会議音声翻訳装置のブロック図である。
以下、図面を参照しながら、発明を実施するための実施形態について説明する。
<会議音声翻訳方法>
図1は本発明の1実施形態に係る、会議音声翻訳方法のフローチャートである。
図1に示すように、本実施形態の会議音声翻訳方法は以下のステップを有する。ステップS101では、会議関連情報10に基づいて、会議に使用される単語を単語セット20から抽出する。ステップS105では、抽出した単語を音声翻訳エンジン30(音声認識エンジン301と機械翻訳エンジン305を含む)へ送る。ステップS110では、該会議中の音声40から、第1言語の音声を受信する。ステップS115では、音声認識エンジン301を用いて、前記第1言語の音声を、第1言語のテキストとして認識する。ステップS120では、機械翻訳エンジン305を用いて、前記第1言語のテキストを第2言語のテキストに翻訳する。
本実施形態において、会議とは広い意味での会議である。例えば、少なくとも2つの仲間(グループ、又は2人の人々)が参加している会議、少なくとも1人が他の1人以上の人々に向かって行う講義・報告、2人以上の人々の間で雑談する音声や映像を含む。つまり、2人以上の人々が、音声を介してコミュニケーション(伝達)する限り、それは会議に属するとする。
本実施形態において、会議とはオンサイトの会議でもよい。例えば会議参加者が他の会議参加者とダイレクトにコミュニケーションする会議室で会議が開催される場合である。又、会議とはネットワーク会議でもよい。つまり人々がネットワークを介して会議に出席する場合である。ここで会議出席者の音声はネットワークを介して他の会議出席者に伝達される。
本実施形態の会議音声翻訳方法の各ステップを以下、詳細に説明する。
ステップS101において、会議関連情報10に基づいて、会議に使用される単語を単語セット20から抽出する。
本実施形態において、会議関連情報10は、好ましくは、会議の議題やユーザ情報を含む。ユーザ情報とは、会議参加者の情報である。
単語セット20は、好ましくは、ユーザ語彙(辞書)、グループ語彙(辞書)、ユーザとグループ間の関係情報を含む。単語セット20は、複数のユーザ語彙を含む。各ユーザ語彙は該ユーザに関係する単語(例えば、会議履歴に蓄積された該ユーザの単語、該ユーザに特有の単語等)を含む。複数ユーザは単語セット20内でグループ化されており、各グループはグループ語彙を有する。語彙内の各単語は、原テキスト、この原テキストの発音及び翻訳結果を含む。この翻訳結果は複数言語による翻訳を含んでもよい。
本実施形態において、以下の方法によって、該会議の使用単語が単語セット20から抽出される。
先ず、該ユーザに関係するユーザ単語を、該ユーザ情報に基づいて単語セット20内のユーザ語彙から抽出する。又、該ユーザが属するグループのグループ語を、該ユーザと該グループ間の関係情報に基づいて、グループ語彙から抽出する。
次に、ユーザ単語とグループ語の抽出後、好ましくは、会議の議題に基づいて、該会議に関連する単語を、抽出したユーザ単語・グループ語から抽出する。
更に好ましくは、該会議に関係する抽出語をフィルタリングする。例えば、同一単語や低使用頻度の単語を除去する。
次に、本実施形態において、抽出したユーザ単語・グループ語をフィルタリングするための好ましい方法を、図2〜4を参照して説明する。図2は本実施形態の会議音声翻訳方法において、抽出された単語のフィルタリング処理の第1フローチャートである。図3は本実施形態の会議音声翻訳方法において、抽出された単語のフィルタリング処理の第2フローチャートである。図4は本実施形態の会議音声翻訳方法において、抽出された単語のフィルタリング処理の第3フローチャートである。
図2に示すように、ステップS201において、抽出単語(複数)60の原テキストの発音が比較される。ステップS205において、原テキストの発音が一致しているか否かが判定される。原テキストの発音が不一致の場合、抽出単語(複数)が異なる単語と判定される。
原テキストの発音が一致する場合、ステップS215において、原テキストの発音が一致する単語(複数)の、原テキストと翻訳結果を夫々比較する。ステップS220において、原テキストと翻訳結果が夫々一致するか否か判定する。原テキストの発音は一致するが、原テキスト及び翻訳結果が不一致の場合、ステップS225において、使用頻度に基づいてフィルタリングが行われる。
ユーザ単語について、その使用頻度は、例えば、ユーザの会話履歴で使用された回数でもよい。グループ語について、その使用頻度は、例えば、そのグループに属するユーザの会話履歴で使用された回数でもよい。ステップS225において、使用頻度が所定閾値よりも低い単語を除去する。更に、ステップS225において、会議の議題とマッチしており、且つ、最も高い使用頻度を有する単語を保持し、他の単語を除去してもよい。
ステップS230において、原テキストの発音、原テキスト及び翻訳結果が全て一致する場合、これらの単語を同一とみなし、1個の単語のみを保持して、他の同じ単語を除去する。
更に、抽出単語を図3又は図4の方法に基づいてフィルタ処理してもよい。或いは、図2の方法に基づいてフィルタ処理した後、抽出単語を図3又は図4の方法に基づいてフィルタ処理してもよい。つまり、図2・図3・図4に示すフィルタリング方法は、単独で用いてもよいし、組み合わせて用いてもよい。
図3の絶対フィルタリング方法、及び図4の相対フィルタリング方法を、詳細に以下説明する。
図3に示す様に、ステップS301において、抽出単語(複数)60を使用頻度の降順(値の大きい順)にソートする。次に、ステップS305において、使用頻度が所定閾値よりも低い単語を除去する。
図4に示す様に、ステップS401において、抽出単語(複数)60を使用頻度の降順にソートする。次に、ステップS405において、低い使用頻度を有する単語の所定数、又は所定割合を除去する。例えば、低い使用頻度を有する単語を1000個除去する。又は、低い使用頻度を有する単語の30%を除去する。
図1に戻って、ステップS105において、抽出単語を音声翻訳エンジン30へ送る(追加する)。音声翻訳エンジン30は、音声認識エンジン301と機械翻訳エンジン305を含む。これらは当業者に周知のいずれかの音声認識エンジンと機械翻訳エンジンでよい。本実施形態はこれについて限定しない。
ステップS110において、会議における第1言語の音声を、会議中の音声40から受信する。
本実施形態において、第1言語は、英語、中国語、日本語など、自然言語のいずれでもよい。第1言語の音声は人によって話されるものでよい。又は、会議出席者によって再生される録音のように、機械によって出力されるものでもよい。本実施形態はこれについて限定しない。
ステップS115において、音声認識エンジン301を用いて、第1言語の音声が第1言語のテキストとして認識される。ステップS120において、機械翻訳エンジン305を用いて、第1言語のテキストが第2言語のテキストに翻訳される。
本実施形態において、第2言語は第1言語と異なる、いかなる言語でもよい。
本実施形態の会議音声翻訳方法によれば、会議の基本情報に基づいて、この会議のみに適した適応データを抽出し、リアルタイムで音声翻訳エンジンに格納する。低コスト・高効率で、高品質な音声翻訳サービスを提供できる。更に、本実施形態の会議音声翻訳方法によれば、会議の議題・ユーザ情報に基づいて、この会議のみに適した単語を単語セットから抽出する。低コスト・高効率で、会議音声翻訳の品質を向上できる。更に、本実施形態の会議音声翻訳方法によれば、抽出単語のフィルタリングにより、データ量・コストを更に減少でき、効率が向上する。
更に望ましくは、本実施形態の会議音声翻訳方法において、会議中のユーザ音声に基づいて、新ユーザ単語が蓄積され、音声翻訳エンジン30に追加される。
更に望ましくは、本実施形態の会議音声翻訳方法において、会議中のユーザ音声に基づいて、新ユーザ単語が蓄積され、単語セット20のユーザ語彙に追加される。
次に、本実施形態の新ユーザ単語の蓄積方法を詳細に説明する。
本実施形態において、会議中のユーザ音声に基づいた新ユーザ単語の蓄積方法は、以下の方法のいずれか、又は組み合わせでよい。
(1)会議中のユーザ音声に基づいて、新ユーザ単語の原テキスト、この原テキストの発音・翻訳結果を手入力する。
(2)会議中のユーザ音声に基づいて、新ユーザ単語の原テキストを手入力する。書記素―音素変換モジュール、及び/又は、テキスト-音素変換モジュールを用いて、原テキストの発音を生成する。機械翻訳エンジンを用いて、原テキストの翻訳を生成する。自動的に生成された情報は修正してもよい。
(3)会議中のユーザ音声から声データを収集する。音声認識エンジンを用いて、原テキスト、及び原テキストの発音を生成する。音声翻訳エンジンを用いて、原テキストの翻訳を生成する。自動的に生成された情報は修正してもよい。
(4)会議の音声認識結果及び機械翻訳結果から、登録すべきユーザ単語を選択する。望ましくは、校正後に登録を行う。
(5)会議の音声認識結果及び機械翻訳結果における未知語を検出する。望ましくは、校正後に登録を行う。
上記の望ましい方法に基づいて、新ユーザ単語を蓄積する。しかしながら、当業者に知られている他の新ユーザ単語蓄積方法を使用してもよい。本実施形態は特に制限されない。
更に、会議中のユーザ音声に基づいて、新ユーザ単語を蓄積している処理中に、会議の議題情報、及び新ユーザ単語に関連するユーザ情報を獲得してもよい。
更に、本実施形態において、蓄積した新ユーザ単語を単語セット20のユーザ語彙に追加後、望ましくは、ユーザ単語の使用頻度をリアルタイムで、又は今後の会議で更新してもよい。
次に、ユーザ単語の使用頻度の更新方法について、図5を参照して詳細に説明する。図5は、本実施形態の会議音声翻訳方法において、蓄積されたユーザ単語の使用頻度の更新方法のフローチャートである。
図5に示す様に、ステップS501において、ユーザ単語を獲得する。次に、ステップS505において、ユーザ単語をユーザの音声記録とマッチングする。即ち、各ユーザ単語について、該ユーザ単語が存在するか否かを判定するために、ユーザの音声記録を調べる。該ユーザ単語が存在する場合は、ステップS510において、マッチングの回数、即ち、該ユーザ単語がユーザの音声記録に出現する回数を、該ユーザ単語の使用頻度として、データベース中で更新する。次に、ステップS515において、全てのユーザ単語がマッチングされたか否か(使用頻度を更新したか否か)を判定する。マッチングすべきユーザ単語がない場合、処理を終了する。そうでない場合、処理はステップS505に戻り、マッチングを続ける。
更に望ましくは、本実施形態の会議音声翻訳方法において、新ユーザ単語を、ユーザ単語に基づいた単語セット20のグループ語彙に追加してもよい。
次に、グループ語彙への新グループ語の追加方法を、図6を参照して詳細に説明する。図6は、本実施形態の会議音声翻訳方法における、グループ語追加方法のフローチャートである。
図7に示す様に、本実施形態は会議音声翻訳装置700を提供する。会議音声翻訳装置700は以下を備える。音声翻訳エンジン30は、音声認識エンジン301と機械翻訳エンジン305を含む。抽出部701は、会議関連情報10に基づいて、単語セット20から会議に使用される単語を抽出し、抽出された単語を音声翻訳エンジン30へ送る(追加する)。受信部710は、会議中に第1言語の音声を受信する。音声認識エンジン301は、第1単語の該音声を第1単語のテキストとして認識する。機械翻訳エンジン305は、第1言語の該テキストを第2言語のテキストへ翻訳する。更にオプションとして、本実施形態の会議音声翻訳装置700は、蓄積部70を備えてもよい。
ステップS605において、ユーザ数と、同一ユーザ単語の使用頻度を計算する。具体的には、各ユーザ単語の属性情報は、ユーザ数と使用頻度を含む。該ユーザ単語を含むユーザ語彙数は、ユーザ数とみなされる。各ユーザ語彙において、該ユーザ単語の使用頻度の合計は、ステップS605で計算された使用頻度とみなされる。
次に、ステップS610において、ユーザ数が第2閾値より大きいか否か比較される。ステップS620において、使用頻度が第3閾値より大きいか否か比較される。ユーザ数が第2閾値より大きく、且つ、使用頻度が第3閾値より大きい場合、ステップS625において、該ユーザ単語を、グループ語としてグループ語彙に追加する。ユーザ数が第2閾値より大きくないか、又は、使用頻度が第3閾値より大きくない場合、ステップS615において、該ユーザ単語を、グループ語としてグループ語彙に追加しない。
本実施形態の会議音声翻訳方法によれば、会議中に新語を蓄積し、音声翻訳エンジンを自動的に更新することにより、該音声翻訳エンジンを、会議中の音声内容に従って自動的に調整できる。結果として、音声翻訳効果を動的・適応的に遂行できる。更に、本実施形態の会議音声翻訳方法によれば、会議中に新語を蓄積することにより、該新語を単語セットに追加すると共に、今後の会議で適用できる。結果として、会議音声翻訳の品質を定常的に向上できる。
<会議音声翻訳装置>
上記実施形態と同様の発明概念に基づいて、図7は他の実施形態に係る、会議音声翻訳装置のブロック図である。次に、本実施形態について、図面を参照して説明する。上記実施形態と同一部分については、その説明を省略する。
図7に示す様に、本実施形態は会議音声翻訳装置700を提供する。会議音声翻訳装置700は以下を備える。音声翻訳エンジン30は、音声認識エンジン301と機械翻訳エンジン305を含む。抽出部701は、会議関連情報10に基づいて、単語セット20から会議に使用される単語を抽出し、抽出された単語を音声翻訳エンジン30へ送る(追加する)。受信部710は、会議中に第1言語の音声を受信する。音声認識エンジン301は、第1単語の該音声を第1単語のテキストとして認識する。音声翻訳エンジン305は、第1言語の該テキストを第2言語のテキストへ翻訳する。更にオプションとして、本実施形態の会議音声翻訳装置700は、蓄積部700を備えてもよい。
本実施形態において、会議とは広い意味での会議である。例えば、少なくとも2つの仲間(グループ、又は2人の人々)が参加している会議、少なくとも1人が他の1人以上の人々に向かって行う講義・報告、2人以上の人々の間で雑談する音声や映像を含む。つまり、2人以上の人々が、音声を介してコミュニケーション(伝達)する限り、それは会議に属するとする。
本実施形態において、会議とはオンサイトの会議でもよい。例えば会議参加者が他の会議参加者とダイレクトにコミュニケーションする会議室で会議が開催される場合である。又、会議とはネットワーク会議でもよい。つまり人々がネットワークを介して会議に出席する場合である。ここで会議出席者の音声はネットワークを介して他の会議出席者に伝達される。
本実施形態の会議音声翻訳装置700の様々なユニットとモジュールを以下、図7を参照して詳細に説明する。
抽出部701は、会議関連情報10に基づいて、会議に使用される単語を単語セット20から抽出する。
本実施形態において、会議関連情報10は、好ましくは、会議の議題やユーザ情報を含む。ユーザ情報とは、会議参加者の情報である。
単語セット20は、好ましくは、ユーザ語彙(辞書)、グループ語彙(辞書)、ユーザとグループ間の関係情報を含む。単語セット20は、複数のユーザ語彙を含む。各ユーザ語彙は該ユーザに関係する単語(例えば、会議履歴に蓄積された該ユーザの単語、該ユーザに特有の単語等)を含む。複数ユーザは単語セット20内でグループ化されており、各グループはグループ語彙を有する。語彙内の各単語は、原テキスト、この原テキストの発音及び翻訳結果を含む。この翻訳結果は複数言語による翻訳を含んでもよい。
本実施形態において、以下の方法によって、抽出部701が該会議の使用単語を単語セット20から抽出する。
先ず、抽出部701は、該ユーザに関係するユーザ単語を、該ユーザ情報に基づいて単語セット20内のユーザ語彙から抽出する。又、該ユーザが属するグループのグループ語を、該ユーザと該グループ間の関係情報に基づいて、グループ語彙から抽出する。
次に、抽出部701は、ユーザ単語とグループ語の抽出後、会議の議題に基づいて、該会議に関連する単語を、抽出したユーザ単語・グループ語から抽出する。
更に好ましくは、抽出部701はフィルタリング部を含む。フィルタリング部は、該会議に関係する抽出語をフィルタリングする。好ましくは、同一単語や低使用頻度の単語を除去する。
本実施形態において、フィルタリング部によって用いられる、会議に関連した抽出単語のフィルタリング方法は、図2〜4を参照した上記説明と同じである。次に図2〜4を参照して、フィルタリング方法を再度説明する。
図2に示すように、フィルタリング部は、抽出単語(複数)60の原テキストの発音を比較する。次に、原テキストの発音が一致しているか否かを判定する。原テキストの発音が不一致の場合、抽出単語(複数)を異なる単語と判定する。
原テキストの発音が一致する場合、フィルタリング部は、原テキストの発音が一致する単語(複数)の、原テキストと翻訳結果を夫々比較し、原テキストと翻訳結果が夫々一致するか否を判定する。原テキストの発音は一致するが、原テキスト及び翻訳結果が不一致の場合、フィルタリング部は、使用頻度に基づいてフィルタリングを行う。
ユーザ単語について、その使用頻度は、例えば、ユーザの会話履歴で使用された回数でもよい。グループ語について、その使用頻度は、例えば、そのグループに属するユーザの会話履歴で使用された回数でもよい。フィルタリング部は、使用頻度が所定閾値よりも低い単語を除去する。更に、フィルタリング部は、会議の議題とマッチしており、且つ、最も高い使用頻度を有する単語を保持し、他の単語を除去する。
更にフィルタリング部は、原テキストの発音、原テキスト及び翻訳結果が全て一致する場合、これらの単語を同一とみなし、1個の単語のみを保持して、他の同じ単語を除去する。
更にフィルタリング部は、抽出単語60を図3又は図4の方法に基づいてフィルタ処理してもよい。或いは、図2の方法に基づいてフィルタ処理した後、抽出単語を図3又は図4の方法に基づいてフィルタ処理してもよい。つまり、図2・図3・図4に示すフィルタリング方法は、単独で用いてもよいし、組み合わせて用いてもよい。
図3の絶対フィルタリング方法、及び図4の相対フィルタリング方法を、詳細に以下説明する。
図3に示す様に、フィルタリング部は、抽出単語(複数)60を使用頻度の降順(値の大きい順)にソートする。次に、フィルタリング部は、使用頻度が所定閾値よりも低い単語を除去する。
図4に示す様に、フィルタリング部は、抽出単語(複数)60を使用頻度の降順にソートする。次に、フィルタリング部は、低い使用頻度を有する単語の所定数、又は所定割合を除去する。例えば、低い使用頻度を有する単語を1000個除去する。又は、低い使用頻度を有する単語の30%を除去する。
図7に戻って、抽出部701は、会議に関連した単語を抽出後、これらの抽出単語を音声翻訳エンジン30へ送る(追加する)。音声翻訳エンジン30は、音声認識エンジン301と機械翻訳エンジン305を含む。これらは当業者に周知のいずれかの音声認識エンジンと機械翻訳エンジンでよい。本実施形態はこれについて限定しない。
受信部710は、会議における第1言語の音声を、会議中の音声40から受信する。
本実施形態において、第1言語は、英語、中国語、日本語など、自然言語のいずれでもよい。第1言語の音声は人によって話されるものでよい。又は、会議出席者によって再生される録音のように、機械によって出力されるものでもよい。本実施形態はこれについて限定しない。
受信部710は、第1言語の受信音声を、音声認識エンジン301へ入力する。音声認識エンジン301は、第1言語の音声を第1言語のテキストとして認識する。次に機械翻訳エンジン305は、第1言語のテキストを第2言語のテキストに翻訳する。
本実施形態において、第2言語は第1言語と異なる、いかなる言語でもよい。
本実施形態の会議音声翻訳装置700によれば、会議の基本情報に基づいて、この会議のみに適した適応データを抽出し、リアルタイムで音声翻訳エンジンに格納する。低コスト・高効率で、高品質な音声翻訳サービスを提供できる。更に、本実施形態の会議音声翻訳装置によれば、会議の議題・ユーザ情報に基づいて、この会議のみに適した単語を単語セットから抽出する。低コスト・高効率で、会議音声翻訳の品質を向上できる。更に、本実施形態の会議音声翻訳装置によれば、抽出単語のフィルタリングにより、データ量・コストを更に減少でき、効率が向上する。
更に望ましくは、本実施形態の会議音声翻訳装置700は蓄積部720を有する。この蓄積部720は、会議中のユーザ音声に基づいて、新ユーザ単語を蓄積し、音声翻訳エンジン30に追加する。
更に望ましくは、蓄積部720は、会議中のユーザ音声に基づいて、新ユーザ単語を蓄積し、単語セット20のユーザ語彙に追加する。
次に、本実施形態の蓄積部720による、新ユーザ単語の蓄積機能を詳細に説明する。
本実施形態において、蓄積部720は、以下の機能のいずれか1つを有する。
(1)会議中のユーザ音声に基づいて、新ユーザ単語の原テキスト、この原テキストの発音・翻訳結果を手入力する。
(2)会議中のユーザ音声に基づいて、新ユーザ単語の原テキストを手入力する。書記素―音素変換モジュール、及び/又は、テキスト-音素変換モジュールを用いて、原テキストの発音を生成する。機械翻訳エンジンを用いて、原テキストの翻訳を生成する。自動的に生成された情報は修正してもよい。
(3)会議中のユーザ音声から声データを収集する。音声認識エンジンを用いて、原テキスト、及び原テキストの発音を生成する。音声翻訳エンジンを用いて、原テキストの翻訳を生成する。自動的に生成された情報は修正してもよい。
(4)会議の音声認識結果及び機械翻訳結果から、登録すべきユーザ単語を選択する。望ましくは、校正後に登録を行う。
(5)会議の音声認識結果及び機械翻訳結果における未知語を検出する。望ましくは、校正後に登録を行う。
上記の機能に加えて、蓄積部720は、当業者に知られている新ユーザ単語蓄積の他機能を使用してもよい。本実施形態は特に制限されない。
更に、蓄積部720は、会議中のユーザ音声に基づいて、新ユーザ単語を蓄積している処理中に、会議の議題情報、及び新ユーザ単語に関連するユーザ情報を獲得してもよい。
更に望ましくは、本実施形態の会議音声翻訳装置700は、更新部を備えてもよい。この更新部は、蓄積部720が蓄積した新ユーザ単語を単語セット20のユーザ語彙に追加後、ユーザ単語の使用頻度をリアルタイムで、又は今後の会議で更新する。
本実施形態において、更新部によるユーザ単語の使用頻度の更新方法は、図5を参照した上記説明と同じである。次に図5を参照して、使用頻度更新方法を再度説明する。
図5に示す様に、更新部はユーザ単語を獲得する。次に、更新部は、ユーザ単語をユーザの音声記録とマッチングする。即ち、各ユーザ単語について、該ユーザ単語が存在するか否かを判定するために、ユーザの音声記録を調べる。該ユーザ単語が存在する場合は、更新部は、マッチングの回数、即ち、該ユーザ単語がユーザの音声記録に出現する回数を、該ユーザ単語の使用頻度として、データベース中で更新する。最後に、更新部は、全てのユーザ単語がマッチングされたか否か(使用頻度を更新したか否か)を判定する。マッチングすべきユーザ単語がない場合、処理を終了する。そうでない場合、マッチング処理を続ける。
更に望ましくは、本実施形態の会議音声翻訳装置700はグループ語追加部を有する。グループ語追加部は、新ユーザ単語を、該ユーザ単語に基づいた単語セット20のグループ語彙に追加する。
本実施形態において、グループ語追加部によるグループ語彙への新グループ語の追加方法は、図6を参照した上記説明と同じである。次に図6を参照して、新グループ語追加方法を再度説明する。
図6に示す様に、グループ語追加部は、グループに属するユーザのユーザ単語を獲得する。
グループ語追加部は、ユーザ数と、同一ユーザ単語の使用頻度を計算する。具体的には、各ユーザ単語の属性情報は、ユーザ数と使用頻度を含む。該ユーザ単語を含むユーザ語彙数は、ユーザ数とみなされる。各ユーザ語彙において、該ユーザ単語の使用頻度の合計は、使用頻度とみなされる。
グループ語追加部は、ユーザ数が第2閾値より大きいか否か比較する。又、使用頻度が第3閾値より大きいか否か比較する。ユーザ数が第2閾値より大きく、且つ、使用頻度が第3閾値より大きい場合、該ユーザ単語を、グループ語としてグループ語彙に追加する。ユーザ数が第2閾値より大きくないか、又は、使用頻度が第3閾値より大きくない場合、該ユーザ単語を、グループ語としてグループ語彙に追加しない。
本実施形態の会議音声翻訳装置700によれば、会議中に新語を蓄積し、音声翻訳エンジンを自動的に更新することにより、該音声翻訳エンジンを、会議中の音声内容に従って自動的に調整できる。結果として、音声翻訳効果を動的・適応的に遂行できる。更に、本実施形態の会議音声翻訳装置によれば、会議中に新語を蓄積することにより、該新語を単語セットに追加すると共に、今後の会議で適用できる。結果として、会議音声翻訳の品質を定常的に向上できる。
本発明に係る音声翻訳装置、音声翻訳方法及びプログラムは、各実施形態として詳細に説明したが、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、様々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10・・・会議関連情報
20・・・単語セット
30・・・音声翻訳エンジン
40・・・会議中の音声
50・・・翻訳結果
60・・・抽出単語
70・・・フィルタ処理された単語
301・・・音声認識エンジン
305・・・機械翻訳エンジン
700・・・会議音声翻訳装置
701・・・抽出部
710・・・受信部
720・・・蓄積部

Claims (11)

  1. 音声認識部と、
    機械翻訳部と、
    会議の関連情報に基づいて、単語セットから前記会議に用いられる単語を抽出し、この抽出した単語を前記音声認識部及び前記機械翻訳部へ送る抽出部と、
    前記会議における第1言語音声を受信する受信部とを備え、
    前記音声認識部は、前記抽出した単語に基づいて、前記第1言語音声を第1言語テキストとして認識し、
    前記機械翻訳部は、前記抽出した単語に基づいて、前記第1言語テキストを第2言語テキストへ翻訳し、
    前記会議の関連情報は、前記会議の議題及びユーザ情報を含んでおり、
    前記単語セットは、ユーザ語彙、グループ語彙、及びユーザとグループ間の関係情報を含んでおり、
    前記抽出部は、
    前記ユーザ情報に基づいて、前記ユーザ語彙から前記ユーザに関連するユーザ単語を抽出し、
    前記関係情報に基づいて、前記グループ語彙から前記ユーザが属するグループのグループ語を抽出し、
    前記議題に基づいて、抽出されたユーザ単語及びグループ語から前記会議に関連する単語を抽出する
    ことを特徴とする音声翻訳装置。
  2. 前記抽出部は、前記抽出した単語の原テキスト、前記原テキストの発音及び翻訳結果に基づいて、前記抽出した単語をフィルタ処理するフィタリング部を更に備えた、
    請求項に記載の音声翻訳装置。
  3. 前記フィルタリング部は、
    抽出した各単語の前記原テキストの発音が一致しているか否か比較し、
    前記原テキストの発音が一致している場合、一致した各単語について、前記原テキストと前記翻訳結果が一致しているか否か比較し、
    前記原テキストと前記翻訳結果が一致している場合、前記原テキストの発音、前記原テキスト及び前記翻訳結果が全て一致している単語をフィルタ処理し、
    前記原テキストと前記翻訳結果の少なくとも1つが一致しない場合、該単語の使用頻度に基づいて、原テキストの発音が一致している単語をフィルタ処理する、
    請求項に記載の音声翻訳装置。
  4. 前記フィルタリング部は、
    前記使用頻度に基づいて、前記抽出した単語をソートし、
    第1閾値より低い使用頻度の単語をフィルタ除去するか、又は、低使用頻度の単語群の内、所定個数又は所定割合の単語をフィルタ除去する、
    請求項に記載の音声翻訳装置。
  5. 前記会議における前記ユーザの音声に基づいて、新ユーザ単語を蓄積し、前記新ユーザ単語を前記音声認識部及び前記機械翻訳部へ送る蓄積部を更に備えた、
    請求項1に記載の音声翻訳装置。
  6. 前記会議における前記ユーザの音声に基づいて、新ユーザ単語を蓄積し、前記新ユーザ単語を前記単語セットの前記ユーザ語彙へ追加する蓄積部を更に備え、
    前記新ユーザ単語は、前記会議の議題及びユーザ情報を含む、
    請求項1に記載の音声翻訳装置。
  7. 前記蓄積部は以下の機能の少なくとも1つを有する、
    前記新ユーザ単語の原テキスト、前記原テキストの発音及び翻訳結果をマニュアル入力する;
    前記新ユーザ単語の原テキストをマニュアル入力し、テキスト-音素変換モジュールを用いて前記原テキストの発音を生成し、前記機械翻訳部を用いて前記原テキストの翻訳結果を生成する;
    前記会議における前記ユーザの音声から声データを収集し、前記音声認識部を用いて原テキスト及びこの発音を生成し、前記機械翻訳部を用いて前記原テキストの翻訳結果を生成する;
    前記会議の音声認識結果及び機械翻訳結果から前記新ユーザ単語を選択する;
    前記音声認識結果及び前記機械翻訳結果において、未知語を前記新ユーザ単語として検出する;
    請求項に記載の音声翻訳装置。
  8. 前記ユーザ語彙のユーザ単語の使用頻度を更新する更新部を更に備えた、
    請求項に記載の音声翻訳装置。
  9. 新グループ語を、ユーザ単語に基づいた前記単語セットの前記グループ語彙に追加するグループ語追加部を更に備え、
    前記グループ語追加部は、
    前記グループに属するユーザのユーザ単語を獲得し、
    前記ユーザの数及び同一ユーザ単語の使用頻度を計算し、
    前記ユーザの数が第2閾値より大きいユーザ単語、及び、前記使用頻度が第3閾値より大きいユーザ単語を、グループ語として前記グループ語彙に追加する、
    請求項に記載の音声翻訳装置。
  10. 音声翻訳装置の抽出部により、会議の関連情報に基づいて、単語セットから前記会議に用いられる単語を抽出するステップと、
    前記抽出部により、前記ステップ抽出した単語を、音声認識部及び機械翻訳部へ送るステップと、
    前記音声翻訳装置の受信部により、前記会議における第1言語音声を受信するステップと、
    前記音声認識部により、前記抽出した単語に基づいて、前記第1言語音声を第1言語テキストとして認識するステップと、
    前記機械翻訳部により、前記抽出した単語に基づいて、前記第1言語テキストを第2言語テキストへ翻訳するステップと、
    を備え、
    前記会議の関連情報は、前記会議の議題及びユーザ情報を含んでおり、
    前記単語セットは、ユーザ語彙、グループ語彙、及びユーザとグループ間の関係情報を含んでおり、
    前記抽出するステップは、
    前記ユーザ情報に基づいて、前記ユーザ語彙から前記ユーザに関連するユーザ単語を抽出し、
    前記関係情報に基づいて、前記グループ語彙から前記ユーザが属するグループのグループ語を抽出し、
    前記議題に基づいて、抽出されたユーザ単語及びグループ語から前記会議に関連する単語を抽出する
    ことを特徴とする音声翻訳方法。
  11. 音声認識及び機械翻訳を行うためのコンピュータに用いられるプログラムであって、
    前記コンピュータに、
    会議の関連情報に基づいて、単語セットから前記会議に用いられる単語を抽出する機能と、
    この機能により抽出した単語を、音声認識部及び機械翻訳部へ送る機能と、
    前記会議における第1言語音声を受信する機能と、
    前記音声認識部により、前記抽出した単語に基づいて、前記第1言語音声を第1言語テキストとして認識する機能と、
    前記機械翻訳部により、前記抽出した単語に基づいて、前記第1言語テキストを第2言語テキストへ翻訳する機能と、
    を実現させ、
    前記会議の関連情報は、前記会議の議題及びユーザ情報を含んでおり、
    前記単語セットは、ユーザ語彙、グループ語彙、及びユーザとグループ間の関係情報を含んでおり、
    前記抽出する機能は、
    前記ユーザ情報に基づいて、前記ユーザ語彙から前記ユーザに関連するユーザ単語を抽出し、
    前記関係情報に基づいて、前記グループ語彙から前記ユーザが属するグループのグループ語を抽出し、
    前記議題に基づいて、抽出されたユーザ単語及びグループ語から前記会議に関連する単語を抽出する
    ことを特徴とするプログラム。
JP2016241190A 2016-02-19 2016-12-13 音声翻訳装置、音声翻訳方法及びプログラム Expired - Fee Related JP6462651B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610094537.8 2016-02-19
CN201610094537.8A CN107102990A (zh) 2016-02-19 2016-02-19 对语音进行翻译的方法和装置

Publications (2)

Publication Number Publication Date
JP2017146587A JP2017146587A (ja) 2017-08-24
JP6462651B2 true JP6462651B2 (ja) 2019-01-30

Family

ID=59629975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241190A Expired - Fee Related JP6462651B2 (ja) 2016-02-19 2016-12-13 音声翻訳装置、音声翻訳方法及びプログラム

Country Status (3)

Country Link
US (1) US20170242847A1 (ja)
JP (1) JP6462651B2 (ja)
CN (1) CN107102990A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156012A (zh) * 2016-06-28 2016-11-23 乐视控股(北京)有限公司 一种字幕生成方法及装置
KR102449875B1 (ko) 2017-10-18 2022-09-30 삼성전자주식회사 음성 신호 번역 방법 및 그에 따른 전자 장치
CN108712271A (zh) * 2018-04-02 2018-10-26 深圳市沃特沃德股份有限公司 翻译方法和翻译装置
US20190327330A1 (en) 2018-04-20 2019-10-24 Facebook, Inc. Building Customized User Profiles Based on Conversational Data
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
JP2021529337A (ja) * 2018-04-27 2021-10-28 エル ソルー カンパニー, リミテッドLlsollu Co., Ltd. 音声認識技術を利用した多者間対話記録/出力方法及びこのため装置
JP7124442B2 (ja) * 2018-05-23 2022-08-24 富士電機株式会社 システム、方法、及びプログラム
CN109101499B (zh) * 2018-08-02 2022-12-16 北京中科汇联科技股份有限公司 基于神经网络的人工智能语音学习方法
CN109033423A (zh) * 2018-08-10 2018-12-18 北京搜狗科技发展有限公司 同传字幕显示方法及装置、智能会议方法、装置及系统
KR20210052958A (ko) * 2019-11-01 2021-05-11 엘지전자 주식회사 인공 지능 서버
US11437026B1 (en) * 2019-11-04 2022-09-06 Amazon Technologies, Inc. Personalized alternate utterance generation
CN110728156B (zh) 2019-12-19 2020-07-10 北京百度网讯科技有限公司 翻译方法、装置、电子设备及可读存储介质
CN111447397B (zh) * 2020-03-27 2021-11-23 深圳市贸人科技有限公司 一种基于视频会议的翻译方法、视频会议系统及翻译装置
CN112511847A (zh) * 2020-11-06 2021-03-16 广东公信智能会议股份有限公司 视频图像叠加实时语音字幕的方法及装置
US20230306207A1 (en) * 2022-03-22 2023-09-28 Charles University, Faculty Of Mathematics And Physics Computer-Implemented Method Of Real Time Speech Translation And A Computer System For Carrying Out The Method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5175684A (en) * 1990-12-31 1992-12-29 Trans-Link International Corp. Automatic text translation and routing system
JPH07271784A (ja) * 1994-03-31 1995-10-20 Sharp Corp 文書処理装置
JP3624698B2 (ja) * 1998-07-01 2005-03-02 株式会社デンソー 音声認識装置、その装置を用いたナビゲーションシステム及び自動販売システム
JP4816409B2 (ja) * 2006-01-10 2011-11-16 日産自動車株式会社 認識辞書システムおよびその更新方法
JP4715704B2 (ja) * 2006-09-29 2011-07-06 富士通株式会社 音声認識装置、および音声認識プログラム
JP4466665B2 (ja) * 2007-03-13 2010-05-26 日本電気株式会社 議事録作成方法、その装置及びそのプログラム
JP4466666B2 (ja) * 2007-03-14 2010-05-26 日本電気株式会社 議事録作成方法、その装置及びそのプログラム
EP2274742A1 (en) * 2008-04-15 2011-01-19 Mobile Technologies, Llc System and methods for maintaining speech-to-speech translation in the field
JP2015060095A (ja) * 2013-09-19 2015-03-30 株式会社東芝 音声翻訳装置、音声翻訳方法およびプログラム

Also Published As

Publication number Publication date
JP2017146587A (ja) 2017-08-24
CN107102990A (zh) 2017-08-29
US20170242847A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6462651B2 (ja) 音声翻訳装置、音声翻訳方法及びプログラム
US8532994B2 (en) Speech recognition using a personal vocabulary and language model
CN107945805B (zh) 一种智能化跨语言语音识别转化方法
US8676586B2 (en) Method and apparatus for interaction or discourse analytics
JP2008225068A (ja) 議事録作成方法、その装置及びそのプログラム
CN1870728A (zh) 自动加配字幕的方法和系统
CN101923854A (zh) 一种交互式语音识别系统和方法
CN107886951B (zh) 一种语音检测方法、装置及设备
CN107943786B (zh) 一种中文命名实体识别方法及系统
CN111489765A (zh) 一种基于智能语音技术的话务服务质检方法
Bougrine et al. Toward a Web-based speech corpus for Algerian dialectal Arabic varieties
CN109710949A (zh) 一种翻译方法及翻译机
CN104347071B (zh) 生成口语考试参考答案的方法及系统
JP6242963B2 (ja) 言語モデル改良装置及び方法、音声認識装置及び方法
Lebourdais et al. Overlaps and gender analysis in the context of broadcast media
WO2021135140A1 (zh) 匹配情感极性的词语采集
CN111797599A (zh) 一种会议记录抽取与ppt插入方法与系统
CN115831125A (zh) 语音识别方法、装置、设备、存储介质及产品
Salimbajevs et al. Latvian speech-to-text transcription service
JP5713782B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN113409774A (zh) 语音识别方法、装置及电子设备
CN117411970B (zh) 一种基于声音处理的人机耦合客服控制方法及系统
CN112992150B (zh) 话术模板使用效果评价方法及装置
JP6830148B1 (ja) 修正候補特定装置、修正候補特定方法及び修正候補特定プログラム
CN108647267A (zh) 一种基于互联网大数据机器人物联网系统

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181227

R151 Written notification of patent or utility model registration

Ref document number: 6462651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees