JP6078380B2 - 文書解析装置、及びプログラム - Google Patents
文書解析装置、及びプログラム Download PDFInfo
- Publication number
- JP6078380B2 JP6078380B2 JP2013041779A JP2013041779A JP6078380B2 JP 6078380 B2 JP6078380 B2 JP 6078380B2 JP 2013041779 A JP2013041779 A JP 2013041779A JP 2013041779 A JP2013041779 A JP 2013041779A JP 6078380 B2 JP6078380 B2 JP 6078380B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- word
- document data
- style
- appearance frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
自動文書分類についてはいくつかの手法が知られているが、ここでは特に潜在話題解析と呼ばれる手法について取り上げる。潜在話題解析では、各々の文書データをある特徴ベクトルに変換し、その特徴ベクトルを並べた行列に対して因子分解を行う。これにより、ある特定の話題の文書データに現れる特徴ベクトルの共通パターンを抽出し、抽出された共通パターンに基づいて、同じ話題について書かれた異なる文書データを同じカテゴリに帰属させる。
この性質により、例えばある文書の特徴ベクトルを再構成する際に、一番寄与が大きい基底ベクトルが共通の文書は同じ話題の異なる文書であるとみなし、同一カテゴリに帰属させることができる。
また、特許文献1、特許文献2とも、各文書のキーワード抽出に関する技術であり、単語の出現頻度を利用して文書の特徴を解析する際に、スタイルを表す機能語の影響を抑えるものではない。
この発明によれば、文書解析装置は、複数の文書データそれぞれについて生成した特徴量を並べて文書行列を生成し、因子分解する。特徴量は、文書データにおいて各単語が出現する頻度を表し、因子分解には、例えば、非負値行列因子分解が用いられる。文書のスタイルに寄与する機能語は、話題を表す単語よりも出現頻度が多いため、文書解析装置は、非負値行列因子分解によって、機能語の出現頻度分布を表す基底と、その基底が各文書データそれぞれに寄与している度合いを得る。機能語の出現頻度分布は文書のスタイルを表していることから、文書解析装置は、各基底が各文書データに寄与している度合いに基づいて文書データをスタイル別にカテゴリ分けする。文書解析装置は、文書データの特徴量が表す機能語の出現頻度を、当該文書データが属するスタイルにおける機能語の出現頻度に応じて低減するよう重み付けを行い、重み付け後の特徴量を用いて文書データの特徴を解析する。
これにより、文書解析装置は、文書に出現する単語の出現頻度で表される特徴量を用いて文書の特徴を解析する際に、その解析に用いる特徴量に対してスタイルに相当する機能語の出現頻度を抑制する重み付けを行う。この重み付けを行った特徴量を用いて文書の特徴を解析することにより、話題に関する単語の出現頻度に基づいた文書解析の精度が向上する。
この発明によれば、文書解析装置は、探索文書データにおいて各単語が出現する頻度をカウントし、そのカウント値を表す特徴量を生成する。文書解析装置は、探索文書データの特徴量が表す機能語の出現頻度を、解析済みの文書データにおける機能語の出現頻度に応じて低減するよう重み付けを行う。文書解析装置は、重み付け後の探索文書データの特徴量を用いて、解析済みの複数の文書データの中から類似する文書データを探索する。
これにより、文書解析装置は、探索文書に出現する単語の出現頻度を表す特徴量を用いて解析済みの文書の中からこの探索文書に類似した文書を探索する際に、探索文書の特徴量に対してスタイルに相当する機能語の出現頻度を抑制する重み付けを行う。文書解析装置は、機能語の出現頻度を抑制した特徴量を用いて類似する文書を探索するため、類似文書の検出精度が向上する。
この発明によれば、文書解析装置は、文書データの特徴量が表す機能語の出現頻度を、当該文書データのスタイルを表す基底が示す機能語の出現頻度分布に応じて低減するよう重み付けを行う。
これにより、文書解析装置は、出現頻度が大きい機能語ほど基底において大きな値を有することを利用して、文書データの特徴量に対し、機能語の出現頻度を低減するように重み付けを行うことができる。
この発明によれば、文書解析装置は、スタイル別に、各単語が出現する文書の割合が多いほど重みが小さくなるようにそれら各単語の重みを決定し、文書データの特徴量が表す各単語の出現頻度に、当該文書データのスタイルについて決定した各単語の重みを適用する。
これにより、文書解析装置は、同じスタイルに属する文書の中ではそのスタイルに依存した機能語が出現する文書の割合が高いことを利用して、文書データの特徴量に対し、機能語の出現頻度を低減するように重み付けを行うことができる。
本発明の一実施形態による文書解析装置は、コンピュータに保存された大量の文書データから、同じ話題について書かれた異なる文書データを同じクラスタに分類する。この分類を行うために、本実施形態による文書解析装置は、各文書データのBOW(Bag−of−Words)特徴ベクトルを並べた文書行列に対して行列因子分解を施し、文書データの特徴を解析する。BOW特徴ベクトルは、文書データにおける各単語の出現回数を要素とするベクトルである。本実施形態による文書解析装置は、行列因子分解を行う際、BOW特徴ベクトルに対して、スタイルを表す機能語(助詞、副詞など)の出現頻度を、非負値行列因子分解を用いて抑制する。スタイルを表す機能語は、文書データを話題別に分類するために行う際の文書データの特徴解析に悪影響を及ぼすが、本実施形態では、機能語の出現頻度を抑制することによりその悪影響を低減させ、文書分類精度を向上させる。
図1は、本発明の一実施形態による文書解析装置100の機能ブロック図である。同図に示すように、文書解析装置100は、文書分類部1、及び文書探索部3を備えて構成される。
文書探索部3に、探索のキーとなる文書データである探索文書データが入力されると、探索文書特徴抽出部31は、入力された探索文書データの特徴量を抽出する。この特徴量は、文書特徴抽出部11により抽出される特徴量と同様、BOW特徴量である。探索文書重み付け処理部32は、探索文書特徴抽出部31が抽出した特徴量に対し、文書分類部1の第一単語重みDB13に記憶されている単語重み係数の値、及び第一文書重みDB14に記憶されている文書重み係数の値に基づいて重み付け処理を施す。類似文書探索部33は、探索文書重み付け処理部32により重み付けされた特徴量と、第二単語重みDB17に記憶されている単語重み係数の値、及び第二文書重みDB18に記憶されている文書重み係数の値とに基づいて類似する文書データを探索し、出力する。
続いて、図1に示す文書解析装置100の具体的な動作について説明する。文書DB10には予め、大量の文書データが記憶されている。
図4は、文書DB10に記憶されている文書データの例を示す図である。同図に示すように、文書データは、文書を特定する文書IDと、文書名と、文書内容のテキストとを対応付けたデータである。
図2は、文書分類部1の処理フローを示す図である。同図を参照しながら、文書分類部1の動作について詳細に説明する。
文書特徴抽出部11は、文書DB10に記憶されている各文書データの文書内容が示すテキストに対し、文を形態素に分ち書きする形態素解析を施す。この形態素解析には、既存の技術を用いることができ、例えば、和布蕪(http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html)というソフトウェアを用いることで実現可能である。文書特徴抽出部11は、文書データ毎に、分かち書きされたテキスト内における各形態素の出現回数をカウントし、それら各形態素の出現回数を要素として並べて特徴ベクトルを生成する。以下に、この操作を数式で表現する。
第一因子分解部12は、以下の式(6)に示すように、全ての文書jの特徴ベクトルxjを並べた文書行列Xを生成する。つまり、文書行列Xのj列は、文書jの特徴ベクトルxjである。
一般的に文書のBOW特徴量では、話題に依存する様な単語である内容語より、助詞、副詞の様な機能語が高い頻度を持つ。この機能語の出現頻度分布をスタイルと呼ぶ。非負値行列因子分解の頻出パターンを抽出する性質から、列数(基底の数)Rを文書データ数Dより非常に小さくとる(例えば、1000分の1程度)と、スタイルに相当する単語が高い値を持つ基底行列Uが得られる。
次に、重み付け処理部15は、第一単語重みDB13に記憶されている単語重み係数の値、及び第一文書重みDB14に記憶されている文書重み係数の値を用いて、各文書jのBOW特徴量である特徴ベクトルxjに重み付けを施す。そこでまず、重み付け処理部15は、文書jに対応して第一文書重みDB14に保存されている列ベクトルhjの要素hrjのうち最大の値である要素を、その文書jのスタイルと定義する。つまり、重み付け処理部15は、文書jが属するスタイルカテゴリをcjとおくと、以下の式(14)により、各文書jのスタイルカテゴリcjを求める。
なお、重み付け処理部15は、文書jの文書IDを示すインデックスjと、文書jが属するサブコーパス内におけるインデックスjkとを対応付けて記憶するとともに、第二文書重みDB18に書き込んでおく。
重み付け処理部15は、構築した文書行列Xkに対し、スタイルの影響を抑制する様な重み付け演算処理を行う。重み付け演算として、以下の2つの例を示す。
出現頻度が大きい単語ほど、スタイル依存分布ukにおいて大きな値を持つ。そこで、f(・)として、例えば、上記のような指数関数f(x)=10axなどを用いることで、1/f(uik)は、出現頻度の大きい単語、つまり、スタイルに相当する様な機能語ほど出現頻度の低減の効果が大きくなるように、より小さな重みとすることができる。
非負値行列因子分解の頻出パターン抽出の性質より、サブコーパス内では、スタイルに相当する様な機能語の出現頻度はある程度類似していると考えられる。従って、そのサブコーパス内でIDF値を計算すると、サブコーパス内で共通に現れる単語に対しては小さな値となるので、スタイルに相当する機能語の出現頻度を抑制する効果がある。
続いて、第二因子分解部16は、ステップS130において重み付け処理部15が重み付け処理を行った特徴量行列を用いて、再び非負値行列因子分解を行う。以下では、ステップS130の(1)に示す重み付け演算により算出された特徴量行列(Tk)−1Xkを用いる場合を例に説明する。ステップS130の(2)に示す重み付け演算により算出された特徴量行列を用いる場合、(Tk)−1Xkに代えてQkXkを用いればよい。因子分解の方法として、サブコーパス毎に実施する場合と、サブコーパスを統合して実施する場合がある。
第二因子分解部16は、サブコーパスそれぞれについて、例えば、式(16)のKL−Divergenceを最小化する基底行列Ukと係数行列Hkを求める。
第二因子分解部16は、求めた基底行列Ukをそれぞれ第二単語重みDB17に書き込み、係数行列Hkを第二文書重みDB18に書き込む。
第二因子分解部16は、以下の式(17)に示すように、各サブコーパスについて重み付け処理を行った特徴量行列を並べ、統合特徴量行列XCを生成する。
第二因子分解部16は、求めた基底行列UCが示す単語重み係数を第二単語重みDB17に書き込み、係数行列HCが示す文書重み係数を第二文書重みDB18に書き込む。
続いて、分類部19は、第二単語重みDB17に記憶されている単語重みの値、及び、第二文書重みDB18に記憶されている文書重みの値を用いて、文書データを分類する。
分類部19は、まず、サブコーパス毎に文書データの分類を行う。すなわち、分類部19は、第二文書重みDB18からk番目のサブコーパスの係数行列Hkを読み出し、係数行列Hkの各列ベクトルhk j_kのうち、最大値を示す要素の行のインデックスが同じ列に対応した文書データを同じカテゴリと判断する。
分類部19は、列ベクトルhk j_kから最大値を示す要素の行のインデックスrkを取得し、第二単語重みDB17に記憶されている基底行列Ukからインデックスrkに対応した基底ベクトルuk r_kを読み出す。続いて、分類部19は、第二単語重みDB17に記憶されているm番目(k≠m)のサブコーパスの基底行列Umから各列nmの基底ベクトルum n_mを読み出す。分類部19は、(uk r_k)Tum n_mを算出し、算出結果が一定値以上の基底ベクトルum n_mを特定する。分類部19は、第二文書重みDB18に記憶されているm番目のサブコーパスの係数行列Hmから、特定した基底ベクトルum n_mへの寄与が大きい列ベクトルhm j_mを特定する。分類部19は、特定した列ベクトルhm j_mに対応した文書jmと、インデックスrkが得られた係数行列Hkの列ベクトルhk j_kに対応した文書jkとを同じカテゴリと判断する。
分類部19は、同じカテゴリと判断した文書データ(文書jk及び文書jm)の文書IDを対応付けて分類結果DB20に書き込む。
分類部19は、第二文書重みDB18に記憶した係数行列HCの各列ベクトルhClのうち、最大値を示す要素の行のインデックスが同じ文書データを同じカテゴリと判断する。分類部19は、同じカテゴリと判断した文書データの文書IDを対応付けて分類結果DB20に書き込む。
図3は、文書探索部3の処理フローを示す図である。同図を参照しながら、図2に示す処理において保存された分類結果を用いて、キーとなる探索文書データと類似した話題の文書データを探す文書探索部3の動作について詳細に説明する。
まず、探索文書特徴抽出部31は、文書分類部1の文書特徴抽出部11と同様の処理を行い、探索文書データから文書特徴量である特徴ベクトルx’=(n1’,…,ni’,…,nM’)Tを生成する。なお、ni’は、探索文書データが示すテキストに単語wiが出現した回数である。
続いて、探索文書重み付け処理部32は、ステップS210において探索文書特徴抽出部31が生成した特徴ベクトルx’に、文書分類部1の重み付け処理部15と同様の処理により重み処理を施す。ただし、これは必須の処理ではない。探索文書重み付け処理部32は、サブコーパスの重み(Tk)−1を特徴ベクトルx’にかけて、特徴ベクトル(Tk)−1x’を算出する。なお、サブコーパスの重み(Tk)−1として、いずれかのサブコーパスの重みのみを用いてもよく、全てのサブコーパスの重みの平均値を用いてもよい。また、異なるサブコーパスの重みをそれぞれ特徴ベクトルx’にかけて複数の特徴ベクトルに変換してもよい。
類似文書探索部33は、ステップS220において重み処理が施された特徴ベクトル(Tk)−1x’と、第二単語重みDB17及び第二文書重みDB18に保存された単語重み係数、文書重み係数の値を用い、類似する文書データを探索して出力する。
類似文書探索部33は、kが1番目からR番目のまでのサブコーパスのそれぞれについて、以下の処理を行う。
まず、類似文書探索部33は、第二単語重みDB17に記憶されている単語重み係数で示される基底行列Ukを用いて、以下の式(19)により係数ベクトル(h’)kを求める。
類似文書探索部33は、第二単語重みDB17に記憶されている単語重み係数で示される基底行列UCを用いて、以下の式(21)により係数ベクトルh’を求める。
なお、上述の文書解析装置100は、内部にコンピュータシステムを有している。そして、文書解析装置100の各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
10 文書DB
11 文書特徴抽出部
12 第一因子分解部(因子分解部)
13 第一単語重みDB
14 第一文書重みDB
15 重み付け処理部
16 第二因子分解部(解析部)
17 第二単語重みDB
18 第二文書重みDB
19 分類部(解析部)
20 分類結果DB
3 文書探索部
31 探索文書特徴抽出部
32 探索文書重み付け処理部
33 類似文書探索部
100 文書解析装置
Claims (5)
- 複数の文書データそれぞれにおける各単語の出現頻度を表す特徴量を並べた文書行列に因子分解を行い、機能語の出現頻度分布を表す基底が前記文書データそれぞれに寄与している度合いを取得する因子分解部と、
前記因子分解部が取得した前記基底の寄与の度合いに基づいて前記文書データをスタイル別にカテゴリ分けし、前記文書データの前記特徴量が表す前記機能語の出現頻度を、当該文書データが属する前記スタイルにおける前記機能語の出現頻度に応じて低減させる重み付け処理部と、
前記重み付け処理部により前記機能語の出現頻度が低減された前記特徴量を用いて前記文書データの特徴を解析する解析部と、
を備えることを特徴とする文書解析装置。 - 探索文書データにおける各単語の出現頻度を表す特徴量を生成する探索文書特徴抽出部と、
前記スタイルにおける前記機能語の出現頻度に応じて、前記探索文書特徴抽出部が生成した前記特徴量が表す前記機能語の出現頻度を低減する探索文書重み付け処理部と、
前記探索文書重み付け処理部により前記機能語の出現頻度が低減された前記特徴量と、前記解析部による前記文書データの特徴の解析結果とに基づいて、前記探索文書データに類似する前記文書データを探索する類似文書探索部とをさらに備える、
ことを特徴とする請求項1に記載の文書解析装置。 - 前記重み付け処理部は、前記因子分解部が取得した前記基底の寄与の度合いに基づいて前記文書データをスタイル別にカテゴリ分けし、前記文書データの前記特徴量が表す前記機能語の出現頻度を、当該文書データが属する前記スタイルに最も寄与の度合いが大きな前記基底が示す前記機能語の出現頻度分布に応じて低減する、
ことを特徴とする請求項1または請求項2に記載の文書解析装置。 - 前記重み付け処理部は、前記因子分解部が取得した前記基底の寄与の度合いに基づいて前記文書データをスタイル別にカテゴリ分けし、前記スタイル別に、当該スタイルに属する前記文書データのうち各単語が出現する文書データの割合を算出し、算出した割合が多いほど重みが小さくなるように各単語の重みを決定し、前記文書データの前記特徴量が表す各単語の出現頻度に、当該文書データが属する前記スタイルについて決定した各単語の前記重みを適用する、
ことを特徴とする請求項1または請求項2に記載の文書解析装置。 - コンピュータを、
複数の文書データそれぞれにおける各単語の出現頻度を表す特徴量を並べた文書行列に因子分解を行い、機能語の出現頻度分布を表す基底が前記文書データそれぞれに寄与している度合いを取得する因子分解手段と、
前記因子分解手段が取得した前記基底の寄与の度合いに基づいて前記文書データをスタイル別にカテゴリ分けし、前記文書データの前記特徴量が表す前記機能語の出現頻度を、当該文書データが属する前記スタイルにおける前記機能語の出現頻度に応じて低減させる重み付け処理手段と、
前記重み付け処理手段により前記機能語の出現頻度が低減された前記特徴量を用いて前記文書データの特徴を解析する解析手段と、
を具備する文書解析装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013041779A JP6078380B2 (ja) | 2013-03-04 | 2013-03-04 | 文書解析装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013041779A JP6078380B2 (ja) | 2013-03-04 | 2013-03-04 | 文書解析装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014170377A JP2014170377A (ja) | 2014-09-18 |
JP6078380B2 true JP6078380B2 (ja) | 2017-02-08 |
Family
ID=51692730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013041779A Expired - Fee Related JP6078380B2 (ja) | 2013-03-04 | 2013-03-04 | 文書解析装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6078380B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6092072B2 (ja) * | 2013-10-29 | 2017-03-08 | 日本電信電話株式会社 | データ解析装置、方法、及びプログラム |
US10354010B2 (en) | 2015-04-24 | 2019-07-16 | Nec Corporation | Information processing system, an information processing method and a computer readable storage medium |
CN114708117A (zh) * | 2022-03-21 | 2022-07-05 | 广东电网有限责任公司 | 融合先验知识的用电安全检查评级方法、装置及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293767A (ja) * | 2005-04-12 | 2006-10-26 | Nomura Research Institute Ltd | 文章分類装置、文章分類方法および分類辞書作成装置 |
JP5657338B2 (ja) * | 2010-10-19 | 2015-01-21 | 株式会社中電シーティーアイ | 入力情報分析装置 |
-
2013
- 2013-03-04 JP JP2013041779A patent/JP6078380B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014170377A (ja) | 2014-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10354170B2 (en) | Method and apparatus of establishing image search relevance prediction model, and image search method and apparatus | |
KR101721338B1 (ko) | 검색 엔진 및 그의 구현 방법 | |
KR20210104571A (ko) | 멀티 모달리티를 기반으로 하는 주제 분류 방법, 장치, 기기 및 저장 매체 | |
WO2018086470A1 (zh) | 关键词提取方法、装置和服务器 | |
US8510257B2 (en) | Collapsed gibbs sampler for sparse topic models and discrete matrix factorization | |
WO2017097231A1 (zh) | 话题处理方法及装置 | |
WO2019140863A1 (en) | Method of calculating relevancy, apparatus for calculating relevancy, data query apparatus, and non-transitory computer-readable storage medium | |
WO2022095374A1 (zh) | 关键词抽取方法、装置、终端设备及存储介质 | |
CN108280114B (zh) | 一种基于深度学习的用户文献阅读兴趣分析方法 | |
US10691585B2 (en) | Efficient software testing system | |
García-Escudero et al. | Avoiding spurious local maximizers in mixture modeling | |
WO2015165372A1 (en) | Method and apparatus for classifying object based on social networking service, and storage medium | |
CN107832326B (zh) | 一种基于深层卷积神经网络的自然语言问答方法 | |
KR101877161B1 (ko) | 문서 문맥정보를 고려하는 상황기반 추천 방법 및 장치 | |
WO2021139343A1 (zh) | 基于自然语言处理的数据分析方法、装置和计算机设备 | |
US9348901B2 (en) | System and method for rule based classification of a text fragment | |
WO2017113592A1 (zh) | 模型生成方法、词语赋权方法、装置、设备及计算机存储介质 | |
US20210056127A1 (en) | Method for multi-modal retrieval and clustering using deep cca and active pairwise queries | |
WO2018121198A1 (en) | Topic based intelligent electronic file searching | |
RU2738335C1 (ru) | Способ и система классификации и фильтрации запрещенного контента в сети | |
CN115795030A (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN104615723B (zh) | 查询词权重值的确定方法和装置 | |
JP6078380B2 (ja) | 文書解析装置、及びプログラム | |
Wong et al. | Feature selection and feature extraction: highlights | |
CN112307738A (zh) | 用于处理文本的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6078380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |