JP6284462B2 - 音声認識方法、及び音声認識装置 - Google Patents
音声認識方法、及び音声認識装置 Download PDFInfo
- Publication number
- JP6284462B2 JP6284462B2 JP2014192548A JP2014192548A JP6284462B2 JP 6284462 B2 JP6284462 B2 JP 6284462B2 JP 2014192548 A JP2014192548 A JP 2014192548A JP 2014192548 A JP2014192548 A JP 2014192548A JP 6284462 B2 JP6284462 B2 JP 6284462B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- voice
- recognition result
- speech
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
<音声データ認識装置の構成>
(i)機能ブロック構成
図1は、本発明の第1の実施形態による音声データ認識装置1の機能ブロック図である。音声データ認識装置1は、ラベル付き音声データ(記憶部)101と、音響モデル学習部102と、音響モデル(記憶部)103と、文法・文書データ(記憶部)104と、言語モデル構築部105と、言語モデル(記憶部)106と、音声入力受付部107と、特徴量抽出部108と、音声認識部109と、認識結果情報記憶部110と、発話判定部111と、発話・認識結果選択部112と、結果受付部113と、画面表示部114と、判定フラグ記憶部115と、を備える。以下、各モジュールの概要を説明する。
発話判定部111は、入力された音声が前回の音声入力と同じ内容かどうか、つまり、前回認識結果の訂正かどうかを、音声認識部109の出力と認識結果情報記憶部110に格納された情報を用いて判定する。この判定には、今回と前回の音声認識結果の文章や発話時刻といった情報が用いられる。前回と異なる内容と判断した場合、発話判定部111は、認識結果情報記憶部110に格納されている当該認識結果に対応するIDを結果受付部113へ出力する。また、このとき、発話判定部111は、今回の音声認識結果が訂正の可能性があることを示すフラグ、或いは、前回の音声認識結果が誤りではないことが確定した場合にはその旨を示すフラグである、判定フラグを同時に出力する。前回と同じ内容と判断した場合、発話判定部111は、発話・認識結果選択部112に当該認識結果のIDを出力する。
図2は、本発明の第1の実施形態による音声データ認識装置1のハードウェア構成を示す図である。
以下、各処理部によって実行される処理について説明する。
実施形態による音声データ認識装置1では、まず、音声データを認識可能にするための処理が行われる。そのために、音響モデル103、言語モデル106を構築する必要がある。
音響モデル学習部102は、ラベル付き音声データ101を用いて、音響モデル103のパラメータを推定する処理を行う。ラベル付き音声データ101は、不特定話者の多数の音声データとその書き起こしテキストを最低限含んでいる。一般的に、音声データを認識する問題は、事後確率最大化探索問題として扱われる。この事後確率最大化探索の枠組みでは、大量の学習データから学習された音響モデル及び言語モデルを用いて、入力音声データにもっとも適合する単語列やテキストパターンが求められる。例えば、音響モデルにはHMM(Hidden Markov Model)を採用することができる。パラメータを推定する方法については、広く知られた技術であるので説明は省略する。例えば、「鹿野清宏、伊藤克亘、河原達也、武田一哉、山本幹雄、「音声認識システム」、オーム社、2001年」に記載されている。なお、ラベル付き音声データに、感情や意図といったその他のラベルが付与されている場合、必要があれば、同様の枠組みで入力音声データから感情や意図のラベルを出力することも可能である。
言語モデル構築部105は、文法・文書データ104と音響モデル103を用いて、言語モデル106のパラメータの推定と音声認識に用いる探索ネットワークの構築処理を行う。
文法・文書データ104における文法データは、一般的な文法規則の他、音声認識システムの設計者が認識すべき各単語の表記および読み、各単語のつながりのパターンを記述している。ここでは、ユーザに、「項目名」と「数値」を連続して発話してもらう音声認識システムを想定する。項目名には、「ABC(えーびーしー)」、「DEF(でぃーいーえふ)」、「GHI(じーえいちあい)」、「JKL(じぇーけーえる)」などの単語があることを想定する。ユーザが、「ABC 30(えーびーしーさんじゅう)」というような形式で発話すると、結果が端末上に入力される。このような音声認識を実現するためには、文法データに、項目名(「ABC」など)と数値(「30」など)の繋がりを受理するようなパターンを記述しておけばよい。
以上により、前処理が終了し、音声認識のための準備が整ったことになる。
(i)音声入力受付処理
音声入力受付部107は、発話の開始と終了を判定し、発話の開始から終了までの音声信号を特徴量抽出部108に出力する。発話の開始と終了は、例えば、携帯端末であれば、ユーザが指でボタンを押すことにより検知することができる。また、音声と無音・雑音を判別する判別器を構築し、その出力によって自動的に検知することも可能である。この検出器は様々な方法で構築することができる。その一例を挙げるなら、無音・雑音信号と音声信号から特徴量を抽出し、無音・雑音信号と音声信号の特徴量分布をGMM(Gaussian Mixture Model)で表現する。GMMのパラメータは予めデータから推定し、音声の検知は各GMMの尤度比が閾値を上回るかどうかで判定を行えばよい。そのほかにも、音声パワーで区切る方法、ゼロ交差数を用いる方法などがあり、公知の技術を用いることができる。
音声特徴量抽出部108は、音声信号から音声特徴量を抽出する。音声特徴量としては、例えば、入力音声の周波数分布が該当し、音声認識でよく用いられるMFCC(Mel Frequency Cepstrum Coefficient)を使うことができる。その他、LPC(Linear Prediction Coefficient)を使うこともできる。
音声認識部108は、抽出した音声特徴量、音響モデル103、及び言語モデル106を用いて、音声認識処理を実行し、認識結果を出力する。音声認識部108は、点数(例えば、対数確率値)と探索履歴を保持する仮説(認識候補)を展開していき、音声入力の終了時に高い点数順にそれらを出力する。ここで、仮説展開は、言語モデル106における探索ネットワークに従って、現在の仮説から次のHMM状態へ遷移し、音響モデル103に格納されている状態遷移確率と入力特徴量から出力確率計算し、点数に加算することにより行われる。そして、仮説の展開ごとに、点数の低い仮説を除外したり、同一状態における仮説数を制限することで、処理の効率化を行うこともできる。
図4は、本実施形態における認識結果情報記憶部110が保持する情報の構成例を示している。
発話判定部111は、音声認識部109の結果と認識結果情報記憶部110の情報を用いて、前回以前の発話と同一内容かどうかを判定する。図5は、本発明の実施形態による発話判定部111の処理例を説明するためのフローチャートである。
次に、認識結果情報記憶部110の情報に基づき、今回の発話に対する認識結果を出力する発話・認識結果選択部112の処理について説明する。図6は、本発明の第1の実施形態による発話・認識結果選択部112の処理例を説明するためのフローチャートである。
結果受付部113は、発話判定部111または発話・認識結果選択部112からの出力を保存・加工し、画面に出力すべき内容を画面表示部114へ出力する。例えば、発話判定部111からの文章304を受け付けた後、この結果は訂正される可能性があるというフラグを内部に保存しておき、認識文章を項目名と数値に分割し、画面表示部114へ出力する。同時に、以前に訂正される可能性があるフラグ(判定フラグ)がある結果に対して、そのフラグを外し、結果を確定させる。この結果の確定は、例えば、一定時間発話入力がなかったり、作業を完了したことを示す入力があった場合にも行うことができる。発話・認識結果選択部112からの出力を用いる場合には、ほとんど同様の処理であるが、訂正される可能性があるフラグに対しては何も処理は行われない。
画面表示部114は、結果受付部113から携帯端末に表示すべき内容を受け取り、デバイスに表示する処理を行う。
以上説明したように、第1の実施形態によると、訂正発話が入力されたと判断された場合、これまでに出力された音声認識の情報(複数のパターンとスコア)と訂正履歴を用いて、各発話の認識結果の中から1つ発話に対する結果を選択する。このようにすることにより、訂正発話における音声認識の精度を高め、ユーザの訂正発話回数を削減できるようになる。
第2の実施形態では、訂正発話が受け付けられたときに発話履歴を用いて音響モデルを適応処理することにより、より精度が高い音声認識が可能となる音声データ認識装置800について説明する。
(i)機能ブロック構成
図8は、本発明の第2の実施形態による音声データ認識装置800の機能構成を示すブロック図である。なお、図8において、第1の実施形態(図1)による音声データ認識装置1と同一の符号を付与された構成及び機能については、説明を省略する。
第2の実施形態による音声データ認識装置800のハードウェア構成は、第1の実施形態による構成(図2)とほぼ同様である。ただし、図2において、メモリ202は、新たなプログラムとして、適応認識部802と、発話・認識結果選択部803と、を有している。また、記憶装置203は、新たに、特徴量(特徴量記憶部において)を記憶している。その他の構成は第1の実施形態の場合と同様である。また、言語モデル106や音響モデル103をサーバ等から複製して記憶装置203に格納する構成を採ることができる点、及び単独の音声データ認識装置として構成しても良い点についても第1の実施形態と同様である。
(i)特徴量
図9は、第2の実施形態による特徴量記憶部801の構成例を示す図である。
適応認識部802は、認識結果情報記憶部110の情報に基づき、同一内容と判定された発話に対して、音響モデルの適応と認識を行い、結果を発話・認識結果選択部113へ出力する。
発話・認識結果選択部803は、発話・認識結果選択部113における分散の計算と発話と文章204の選択のみを行う。なお、図6のステップ602の処理とステップ603の前半の処理(過去の発話候補の中で最もスコアの高い認識結果を順次除外する処理)に関しては、適応認識部802で行っているため不要となる。
画面表示部804は、発話判定部111において前回と同一内容の発話だと判断された場合、適応認識中であることを画面に通知する処理を実行する。
第2の実施形態では、訂正発話が受け付けられたときに発話履歴を用いて音響モデルを適応的に変更・更新する。これにより、より精度が高い音声認識が可能となる。より具体的には、分散が大きい文章群のうち最も点数の高い文章を最終認識結果として出力する処理において、適応認識部802は、先に入力された第1音声に対する認識結果(第1認識結果)及び次に入力された第2音声に対する認識結果(第2認識結果)と、第1音声を音声認識して得られる認識文章候補(第1文章群)及び第2音声を音声認識して得られる認識文章候補(第2文章群)の点数を用いて、第1音声及び第2音声のそれぞれの認識に用いた各音響モデルを適応的に変更する。そして、適応認識部802は、当該変更された音響モデルのそれぞれ(第1音声についての音響モデルと第2音声についての音響モデル)に基づいて第1音声及び第2音声に対する第1及び第2文章群を取得する。そして、発話・認識結果選択部803は、第1及び第2文章群の点数の分散を求め、当該分散が大きい文章群のうち最も点数の高い文章を最終認識結果として出力する。
本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
2・・・データサーバ
3・・・ネットワーク
101・・・ラベル付き音声データ
102・・・音響モデル学習部
103・・・音響モデル記憶部
104・・・文法・文書データ
105・・・言語モデル構築部
106・・・言語モデル記憶部
107・・・音声入力受付部
108・・・特徴量抽出部
109・・・音声認識部
110・・・認識結果情報記憶部
111・・・発話判定部
112・・・発話・認識結果選択部
113・・・結果受付部
114・・・画面表示部
115・・・判定フラグ記憶部
201・・・CPU
202・・・メモリ
203・・・記憶装置
204・・・マイク
205・・・ディスプレイ
206・・・キーボード
207・・・マウス
208・・・通信デバイス
209・・・CPU
210・・・メモリ
211・・・記憶装置
212・・・通信デバイス
213・・・入出力デバイス
800・・・音声データ認識装置
801・・・特徴量記憶部
802・・・適応認識部
803・・・発話・認識結果選択部
804・・・画面表示部
Claims (14)
- プロセッサが音声認識処理に関連する各種プログラムを実行して認識結果を出力する音声認識方法であって、
前記プロセッサが、第1音声の入力を受け付けるステップと、
前記プロセッサが、第1音声から第1特徴量を抽出するステップと、
前記プロセッサが、前記第1特徴量と、予め記憶装置に記憶されている音響モデルとを用いて前記第1音声を文字列へ変換し、変換した結果であり、複数の文章を含む第1文章群を生成するステップと、
前記プロセッサが、前記第1文章群の各文章を評価し、最も点数の高い文章を第1認識結果とするステップと、
前記プロセッサが、第2音声の入力を受け付けるステップと、
前記プロセッサが、前記第2音声から第2特徴量を抽出するステップと、
前記プロセッサが、前記第2特徴量と前記音響モデルを用いて、前記第2音声を文字列へ変換し、変換した結果であり、複数の文章を含む第2文章群を生成するステップと、
前記プロセッサが、前記第2文章群の各文章を評価し、最も点数の高い文章を第2認識結果とするステップと、
前記プロセッサが、前記第1音声と第2音声とが同一の音声入力であると判断した場合には、前記第1文章群において最も点数の高い文章である前記第1認識結果を除外して、音声認識処理により得られる各文章の点数の分散を算出し、前記第2文章群において前記最も点数の高い文章である前記第1認識結果を除外して各文章の前記点数の分散を算出し、分散が大きい文章群のうち最も点数の高い文章を最終認識結果とするステップと、
を有する音声認識方法。 - 請求項1において、
前記プロセッサは、前記第1認識結果と前記第2認識結果の編集距離が所定値以内である場合に、前記第1音声と前記第2音声が同一の音声入力であると判断する、音声認識方法。 - 請求項2において、
前記プロセッサは、前記第1音声と前記第2音声の入力時間差が所定時間以内である場合に、前記第1認識結果と前記第2認識結果の編集距離を判断する、音声認識方法。 - 請求項1において、
前記プロセッサは、前記第1文章の各文章の中で最も点数が高い文章を除外して前記分散を計算する、音声認識方法。 - 請求項1において、
前記分散が大きい文章群のうち最も点数の高い文章を最終認識結果として出力するステップにおいて、前記プロセッサは、前記第1及び第2認識結果と前記第1及び第2文章群の点数を用いて前記第1音声及び第2音声のそれぞれの認識に用いた各音響モデルを適応的に変更し、当該変更された音響モデルのそれぞれに基づいて前記第1音声及び第2音声に対する第1及び第2文章群と、当該第1及び第2文章群の点数の分散を求め、当該分散が大きい文章群のうち最も点数の高い文章を前記最終認識結果として出力する、音声認識方法。 - 請求項5において、
さらに、前記プロセッサが、前記音響モデルに対して適応処理実行中であることを表示画面に表示するステップを有する、音声認識方法。 - 請求項5において、
前記プロセッサは、前記音響モデルを適応的に変更する処理における事後確率計算を発話或いは文章単位で並列的に行う、音声認識方法。 - 音声認識処理に関連する各種プログラムを格納するメモリと、
前記メモリから前記各種プログラムを読みだして実行するプロセッサと、を有し、
前記プロセッサは、
入力音声から特徴量を抽出する処理と、
前記特徴量と、予め記憶装置に記憶されている音響モデルとを用いて前記入力音声を文字列へ変換し、変換した結果であり、複数の文章を含む文章群を生成する処理と、
前記文章群の各文章を評価し、最も点数の高い文章を認識結果として取得する処理と、を実行し、
さらに、前記プロセッサは、第1音声の入力の後に第2音声の入力を受け付けた場合、前記第1音声と第2音声とが同一の音声入力であると判定する処理と、前記第1音声に対して生成された第1文章群において最も点数の高い文章である前記第1認識結果を除外して各文章の点数の分散を算出し、前記第2音声に対して生成された第2文章群において前記最も点数の高い文章である前記第1認識結果を除外して各文章の点数の分散を算出し、分散が大きい文章群のうち最も点数の高い文章を最終認識結果とする処理と、を実行する、音声認識装置。 - 請求項8において、
前記プロセッサは、前記第1音声についての第1認識結果と前記第2音声についての第2認識結果の編集距離が所定値以内である場合に、前記第1音声と前記第2音声が同一の音声入力であると判断する、音声認識装置。 - 請求項9において、
前記プロセッサは、前記第1音声と前記第2音声の入力時間差が所定時間以内である場合に、前記第1認識結果と前記第2認識結果の編集距離を判断する、音声認識装置。 - 請求項8において、
前記プロセッサは、前記第1文章の各文章の中で最も点数が高い文章を除外して前記分散を計算する、音声認識装置。 - 請求項8において、
前記プロセッサは、前記第1及び第2認識結果と前記第1及び第2文章群の点数を用いて前記第1音声及び第2音声のそれぞれの認識に用いた各音響モデルを適応的に変更し、当該変更された音響モデルのそれぞれに基づいて前記第1音声及び第2音声に対する第1及び第2文章群と、当該第1及び第2文章群の点数の分散を求め、当該分散が大きい文章群のうち最も点数の高い文章を前記最終認識結果として出力する、音声認識装置。 - 請求項12において、
前記プロセッサは、さらに、前記音響モデルに対して適応処理実行中であることを表示画面に表示する処理を実行する、音声認識装置。 - 請求項12において、
前記プロセッサは、前記音響モデルを適応的に変更する処理における事後確率計算を発話或いは文章単位で並列的に行う、音声認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192548A JP6284462B2 (ja) | 2014-09-22 | 2014-09-22 | 音声認識方法、及び音声認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192548A JP6284462B2 (ja) | 2014-09-22 | 2014-09-22 | 音声認識方法、及び音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062069A JP2016062069A (ja) | 2016-04-25 |
JP6284462B2 true JP6284462B2 (ja) | 2018-02-28 |
Family
ID=55797773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014192548A Active JP6284462B2 (ja) | 2014-09-22 | 2014-09-22 | 音声認識方法、及び音声認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6284462B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10950240B2 (en) | 2016-08-26 | 2021-03-16 | Sony Corporation | Information processing device and information processing method |
JP6790619B2 (ja) * | 2016-09-07 | 2020-11-25 | カシオ計算機株式会社 | 発話判定装置、発話判定システム、プログラム及び発話判定方法 |
JPWO2018079294A1 (ja) * | 2016-10-27 | 2019-09-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
CA3004281A1 (en) | 2016-10-31 | 2018-05-03 | Rovi Guides, Inc. | Systems and methods for flexibly using trending topics as parameters for recommending media assets that are related to a viewed media asset |
WO2018174884A1 (en) | 2017-03-23 | 2018-09-27 | Rovi Guides, Inc. | Systems and methods for calculating a predicted time when a user will be exposed to a spoiler of a media asset |
KR102428911B1 (ko) | 2017-05-24 | 2022-08-03 | 로비 가이드스, 인크. | 자동 음성 인식을 사용하여 생성되는 입력을 음성에 기초하여 정정하기 위한 방법 및 시스템 |
KR102075796B1 (ko) * | 2017-11-14 | 2020-03-02 | 주식회사 엘솔루 | 자동 음성인식 장치 및 방법 |
JP2019095606A (ja) * | 2017-11-22 | 2019-06-20 | クラリオン株式会社 | 学習データ生成方法、学習データ生成プログラム、サーバ |
EP3742301A1 (en) | 2018-01-17 | 2020-11-25 | Sony Corporation | Information processing device and information processing method |
JP6910987B2 (ja) * | 2018-06-07 | 2021-07-28 | 株式会社東芝 | 認識装置、認識システム、端末装置、サーバ装置、方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11149294A (ja) * | 1997-11-17 | 1999-06-02 | Toyota Motor Corp | 音声認識装置および音声認識方法 |
JP2005091568A (ja) * | 2003-09-16 | 2005-04-07 | Sony Corp | 音声認識装置および方法、記録媒体、並びにプログラム |
JP4156563B2 (ja) * | 2004-06-07 | 2008-09-24 | 株式会社デンソー | 単語列認識装置 |
JP2010044239A (ja) * | 2008-08-13 | 2010-02-25 | Kddi Corp | 音声認識装置およびプログラム |
JP2012108429A (ja) * | 2010-11-19 | 2012-06-07 | Nec Corp | 音声選択装置、発話選択装置、音声選択システム、音声選択方法および音声選択プログラム |
-
2014
- 2014-09-22 JP JP2014192548A patent/JP6284462B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016062069A (ja) | 2016-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6284462B2 (ja) | 音声認識方法、及び音声認識装置 | |
US10699699B2 (en) | Constructing speech decoding network for numeric speech recognition | |
Ghai et al. | Literature review on automatic speech recognition | |
US8019602B2 (en) | Automatic speech recognition learning using user corrections | |
KR101153078B1 (ko) | 음성 분류 및 음성 인식을 위한 은닉 조건부 랜덤 필드모델 | |
WO2017114172A1 (zh) | 一种发音词典的构建方法及装置 | |
US20150058006A1 (en) | Phonetic alignment for user-agent dialogue recognition | |
EP1701338B1 (en) | Speech recognition method | |
CN111243599B (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
KR102199246B1 (ko) | 신뢰도 측점 점수를 고려한 음향 모델 학습 방법 및 장치 | |
JP6690484B2 (ja) | 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法 | |
Jothilakshmi et al. | Large scale data enabled evolution of spoken language research and applications | |
Kurian et al. | Speech recognition of Malayalam numbers | |
Këpuska | Wake-up-word speech recognition | |
Singhal et al. | Automatic speech recognition for connected words using DTW/HMM for English/Hindi languages | |
KR100848148B1 (ko) | 음절 단위의 음성 인식 장치, 음절 단위의 음성 인식을이용한 문자 입력 장치, 그 방법 및 기록 매체 | |
Liu et al. | Deriving disyllabic word variants from a Chinese conversational speech corpus | |
Rebai et al. | LinTO Platform: A Smart Open Voice Assistant for Business Environments | |
US9928832B2 (en) | Method and apparatus for classifying lexical stress | |
Caranica et al. | On the design of an automatic speaker independent digits recognition system for Romanian language | |
TW201828281A (zh) | 發音詞典的構建方法及裝置 | |
JP2011039468A (ja) | 電子辞書で音声認識を用いた単語探索装置及びその方法 | |
Radha et al. | Continuous speech recognition system for Tamil language using monophone-based hidden markov model | |
Prukkanon et al. | F0 contour approximation model for a one-stream tonal word recognition system | |
Lingam | Speaker based language independent isolated speech recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171121 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180130 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6284462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |