JP2015032166A - 分類装置、分類方法、および分類プログラム - Google Patents
分類装置、分類方法、および分類プログラム Download PDFInfo
- Publication number
- JP2015032166A JP2015032166A JP2013161860A JP2013161860A JP2015032166A JP 2015032166 A JP2015032166 A JP 2015032166A JP 2013161860 A JP2013161860 A JP 2013161860A JP 2013161860 A JP2013161860 A JP 2013161860A JP 2015032166 A JP2015032166 A JP 2015032166A
- Authority
- JP
- Japan
- Prior art keywords
- topic
- information
- word
- node
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 42
- 238000009826 distribution Methods 0.000 claims description 135
- 239000000284 extract Substances 0.000 claims description 10
- 238000007619 statistical method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 description 63
- 238000012545 processing Methods 0.000 description 31
- 230000000052 comparative effect Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 13
- 238000005070 sampling Methods 0.000 description 13
- 238000007781 pre-processing Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012552 review Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- SNICXCGAKADSCV-UHFFFAOYSA-N nicotine Chemical compound CN1CCCC1C1=CC=CN=C1 SNICXCGAKADSCV-UHFFFAOYSA-N 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
を有することを特徴とする分類方法である。
以下、本発明の実施形態と比較する第1の比較例について図面を参照しながら詳しく説明する。
図16は、本発明の実施形態と比較する第1の比較例に係るグラフィックモデルである。
図16において、ノード112は、ハイパーパラメータβのノードである。ハイパーパラメータβは、トピック(単語)の確率分布θdを求めるのに用いられる。ハイパーパラメータβは、初期値としてランダム値が用いられる。
ノード113は、テキストデータごとに特異なトピックの確率分布θdを求めるノードである。ここで、Dは、文章の数を表し、トピックの確率分布θdは、テキストデータごとにD種類存在する。
ノード116は、トピックごとに特異な単語の確率分布φを求めるノードである。トピックの数はZであり、ノード116の単語の確率分布φは、Z種類となる。
ノード117は、トピックごとのタイムスタンプの確率分布λを求めるノードである。トピックの数はZであり、ノード117のタイムスタンプの確率分布λは、Z種類となる。
ノード119は、単語wiを取得するノードである。すなわち、ノード119は、ノード114で取得されたトピックから、ノード116で求められた単語の確率分布φに基づき、単語の確率変数wiを取得する。ここで、wiは、i番目(iは任意の整数)の単語を表す。
以下、本発明の実施形態と比較する第2の比較例について図面を参照しながら詳しく説明する。
図17は、本発明の実施形態と比較する第2の比較例に係るグラフィックモデルである。
図17において、ノード101は、ハイパーパラメータβのノードである。ハイパーパラメータβは、トピック(単語)の確率分布θdを求めるのに用いられる。ハイパーパラメータβは、初期値としてランダム値が用いられる。
ノード102は、テキストデータごとに特異なトピックの確率分布θdを求めるノードである。ここで、Dは、文章の数を表し、トピックの確率分布θdは、テキストデータごとにD種類存在する。
ノード104は、テキストデータごとにスイッチ変数の確率分布μdを求めるノードである。
ノード105は、スイッチ変数riを取得するノードである。すなわち、ノード105は、ノード104で求められたスイッチ変数の確率分布μdに基づき、スイッチ変数riを取得する。ここで、riは、i番目(iは任意の整数)のスイッチ変数である。
ノード108は、トピックごとに特異な単語の確率分布φを求めるノードである。トピックの数はZであり、ノード108の単語の確率分布φは、Z+1種類となる。
ノード109は、トピックごとのタイムスタンプの確率分布λを求めるノードである。トピックの数はZであり、ノード109のタイムスタンプの確率分布λは、Z種類となる。
ノード111は、単語wiを取得するノードである。すなわち、ノード111は、ノード106で取得されたトピックから、ノード108で求められた単語の確率分布φに基づき、単語の確率変数wiを取得する。ここで、wiは、i番目(iは任意の整数)の単語を表す。
以下、本発明の実施形態と比較する第3の比較例について図面を参照しながら詳しく説明する。
図18は、本発明の実施形態と比較する第3の比較例に係るグラフィックモデルである。
図18において、ノード120は、ハイパーパラメータαのノードである。ハイパーパラメータαは、トピック(単語)の確率分布θdを求めるのに用いられる。ハイパーパラメータαは、初期値としてランダム値が用いられる。
ノード121は、テキストデータごとにトピックの確率分布θdを求めるノードである。ここで、Dは、文章の数を表し、トピックの確率分布θdは、テキストデータごとにD種類存在する。
ノード124は、テキストデータごとに特異なトピックの確率分布θdzを求めるノードである。ここで、トピックの確率分布θdzは、トピックごとにZ種類、存在する。
ノード127は、トピックごとに特異な単語の確率分布φを求めるノードである。トピックの数はZ’であり、ノード127の単語の確率分布φは、Z’種類となる。
以下、本発明の実施形態について図面を参照しながら詳しく説明する。
図1は、本発明の実施形態により実現される付随情報に関連する単語、および付随情報に関連する単語以外であって同一カテゴリーの文章情報に共通して出現する単語の抽出の一例を示す概略図である。
例えば、図示するように、実施形態における分類装置は、文章情報群200の中の文章情報201から抽出情報210として、付随情報に関連する単語「England」、および付随情報に関連する単語以外であって同一カテゴリーの文章情報に共通して出現する単語「Tower Bridge」、「Buckingham Palaces」、「Royal Family」などを、単語の集合を表すトピックとして抽出することができる。
文章情報の作成者に関する情報には、文章情報を作成した作成者を識別する作成者識別情報、当該作成者に対する信頼度を表す信頼度情報、当該作成者に関連づけられたユーザを識別する識別情報などが含まれる。
文章情報名に関する情報には、文章情報の名称、文章情報の本文に含まれる商品の名称、施設や店舗の名称、場所の名称などの名称に関する情報が含まれる。
トピックには、テーマトピックとトレンドトピックとが含まれる。
図2において、ノード11は、ハイパーパラメータαのノードである。ハイパーパラメータαは、テーマトピックの確率分布θを求めるためのものである。ハイパーパラメータαは、初期値としてランダム値が用いられる。
r=1:各文章データにおいて固有の単語(各文章データにおける独特な単語など)
r=2:テーマトピックに関連する単語
r=3:トレンドトピックに関連する単語
図3は、本実施形態に係る分類システムS1の構成の一例を示す概略図である。
図4は、本実施形態に係る分類システムS1の構成の一例を示す概略ブロック図である。
分類システムS1は、ファイルサーバ51と、計算サーバ52(分類装置)と、データベース53と、サービスサーバ54と、を含んで構成される。
事前処理部71は、図2に示したグラフィカルモデルに対応する事前処理を行い、計算処理対象の文章データから、単語を抽出する。事前処理部71の事前処理については、後述する。
本実施形態では、確率変数の取得に、ギブスサンプリングを用いている。計算処理部72の計算処理については、後述する。
サービスサーバ54は、計算結果をサービスの利用のために提供するためのサーバである。図4に示すように、サービスサーバ54は、呼び出し部91を備えている。
ユーザ端末55からの呼び出しに応じて、呼び出し部91は、計算結果をユーザ端末55に送る。この計算結果は、商品検索、レビュー検索、マーケティングなど、各種のサービスに利用できる。
事前処理部71は、関連抽出部711と、共通抽出部712と、を含んで構成される。また、計算処理部72は、割当部721と、算出部722と、を含んで構成される。
共通抽出部712は、文章データと当該文章データに付随する付随情報とに対して、関連抽出部711が抽出した付随情報に関連する単語以外であって同一カテゴリーの文章情報に共通し、かつ高頻度で出現する単語を抽出する。共通抽出部712は、抽出した共通して出現する単語の情報を計算処理部72に出力する。
図示するように、テーブルT1は、計算処理部72における計算結果の一例であり、確率変数と、確率分布のパラメータとその種類からなる。確率変数には、観測変数であるトレンドの確率変数tと、潜在変数であるスイッチ変数rと、潜在変数であるテーマトピックの確率変数gおよびトレンドトピックの確率変数cと、観測変数である単語の確率変数wと、が保存される。また、確率分布のパラメータとその種類には、確率変数を取得するための確率分布のパラメータおよびその種類が保存される。トレンドの確率変数tに対応する確率分布はλであり、その種類はC種類である。また、スイッチ変数rに対応する確率分布はμdであり、その種類はD種類である。また、テーマトピックの確率変数gに対応する確率分布はθであり、その種類はD種類、トレンドトピックの確率変数cに対応する確率分布はΨdgであり、その種類はDG種類である。ここで、確率分布Ψdgは、文章データdにおける特異なテーマトピックの確率変数gの確率分布Ψである。また、単語の確率変数wに対応する確率分布はφc(g、d、b)であり、その種類はG+C+D+1種類である。確率分布φc(g、d、b)は、文章データdにおける特異なトレンドトピックの確率変数cの確率分布φである。なお、bは、バックグラウンドトピックである。
ステップST101の前に、事前処理部71の事前処理について図8を参照して説明する。
図8は、本実施形態に係る分類装置における計算処理の処理内容の一例を説明する説明図である。
テーブルT2では、最初のレコードの文章データには、文章データとして「テキストAAAB」が記述され、付随情報として「44Like」が記述されている。文章データの要素となるトークン(単語)のそれぞれの項目列には、関連抽出部711および共通抽出部712が抽出した単語「リンゴ」、「操作性」、・・・、「遺産」が記述されている。そして、最後のレコードの文章データには、文章データとして「テキストXDCF」が記述され、付随情報として「5Like」が記述されている。文章データの要素となるトークン(単語)のそれぞれの項目列には、関連抽出部711および共通抽出部712が抽出した単語「音楽」、「芸術」、・・・、「リンゴ」が記述されている。
当該テーブルT2に対して、計算処理部72は、以下のステップST101を行う。
なお、トピックとは、テーマトピックとトレンドトピックとを総称したものである。また、Zは、トピックの数を表す。
テーブルT3は、テーブルT2に対して、ステップST101で、文章データID、付随情報ID、単語IDを割り振る処理を行ったときの一例である。
テーブルT3に図示するように、最初のレコードの文章データには、文章データIDとして「000」が割り当てられ、付随情報IDとして「44」が割り当てられる。トークン1〜トークンN_dに対して、単語ID「0000」、「0003」、・・・、「0120」がそれぞれ割り振られる。そして、最後のレコードの文章データでは、文章データIDとして「086」が割り当てられ、付随情報IDとして「0211」が割り当てられる。そして、トークン1〜トークンN_dに対して、単語ID「121234」、「03043」、・・・、「0000」がそれぞれ割り振られる。なお、同一のトークンには、同一のトークンIDが割り振られる。
ステップST103において、計算処理部72は、トピックの確率変数の数(G、C)のそれぞれの値の範囲で乱数を発生し、その値をトピックの確率変数(g、c)およびスイッチ変数rに与える。図9を参照して、ステップST103の処理を詳細に説明する。
このように、本実施形態では、ギブスサンプリングにより、確率変数の取得が行われる。図10は、図2に示したグラフィカルモデルにおける各ノードと、ギブスサンプリングにより取得される確率変数(図9におけるテーブルT4)との対応を示している。
本実施形態では、図11に示すように、確率変数を統計的処理により取得するために、ディリクレ分布およびベータ分布を導入している。ディリクレ分布は、連続型の確率分布であるが、積分することにより、離散型に変換できる。
テーブルT5は、テーマトピック(theme)と、分布(distribution)と、第1のトレンドトピック(trend1)と、第2のトレンドトピック(trend2)と、第3のトレンドトピック(trend3)と、の各項目列を有する。例えば、テーマトピックの最初の行には、training、learning、classification、feature、supervise、analysis、label、vector、regression、trainが格納される。
また、第2のトレンドトピックの最初の行には、information、application、queries、relations、ontology、ranking、hypertext、unstructured、graphs、precisionが格納される。
また、第3のトレンドトピックの最初の行には、probabilistic、models、model、knowledge、framework、future、access、statistics、commercial、networksが格納される。
また、分布の最後の行には、横軸に評点を1で正規化したもの、縦軸に確率密度をとり、第1から第3のトレンドトピックに対応する単語の確率密度の特性が格納される。なお、当該最後の行における第1から第3のトレンドトピックは、第1から第3のスコアトピックを表す。
また、第2のトレンドトピックの最後の行、すなわち、第2のスコアトピックの最後の行には、family、good、fans、enjoy、quality、make、people、funny、special、qualityが格納される。
また、第3のトレンドトピックの最後の行、すなわち、第3のスコアトピックの最後の行には、great、best、really、love、better、like、feel、know、highly、recommendが格納される。
本実施形態では、トピックをテーマトピックとトレンドトピックとで階層化しているため、式(5)を変形して、次のように表すことができる。
テーブルT6は、データ(Data)と、第1の比較例と、第2の比較例と、第3の比較例と、本実施形態と、の各項目列を有する。
データの各行は、計算対象の文章データが異なる。また、各比較例では、トピックであるのに対し、本実施形態では、当該トピックがテーマトピック、トレンドトピックの二つのトピックである点が異なる。
横軸は、本実施形態に対してはテーマトピック、トレンドトピックの数を表し、各比較例ではトピックの数を表す。
図示するように、本実施形態における評価指標の値は、各比較例の評価指標の値と比べて小さく、本実施形態のモデルの予測精度が高いことを表している。
テーブルT7は、各比較例と本実施形態により単語の抽出を行ったときの予測誤差の値を示したものである。当該予測誤差の値は、値が小さいほど予測誤差が少なく、予測精度が高いことを表している。
図示するように、本実施形態では、データの種類や観測変数(t、v)の種類によらず、観測変数の予測誤差の値が各比較例の値と比べて小さく、予測精度が高いことを表している。
Claims (5)
- 文章情報と当該文章情報に対応する付随情報とに対して、前記文章情報から前記付随情報に関連する単語を抽出する関連抽出部と、
前記関連抽出部が抽出した前記付随情報に関連する単語以外であって同一カテゴリーの文章情報に共通し、かつ高頻度で出現する単語を抽出する共通抽出部と、
を備えることを特徴とする分類装置。 - 前記関連抽出部が抽出した前記付随情報に関連する単語および前記共通抽出部が抽出した前記共通して出現する単語に基づいて、前記付随情報に関連する単語に対応するトピック、および前記共通して出現する単語に対応するトピックの確率分布を割り当てる割当部と、
前記割当部がトピックおよびトピックの確率分布を割り当てた全ての単語について、統計的な手法により、前記付随情報に関連する単語に対応するトピックと、前記共通して出現する単語に対応するトピックの確率分布と、前記単語に対応するトピックと前記共通して出現する単語に対応するトピックの確率分布とを選択するスイッチ変数の確率分布とを推定する推定部と、
をさらに備えることを特徴とする請求項1に記載の分類装置。 - 前記同一カテゴリーの文章情報とは、前記文章情報を構成する前記付随情報に関連する単語に対応するトピックが所定の数以上、同一である文章情報であること
を特徴とする請求項1または請求項2に記載の分類装置。 - 文章情報と当該文章情報に対応する付随情報とに対して、前記文章情報から前記付随情報に関連する単語を抽出する関連抽出過程と、
前記関連抽出過程により抽出された前記付随情報に関連する単語以外であって、同一カテゴリーの文章情報に共通し、かつ高頻度で出現する単語を抽出する共通抽出過程と、
を有することを特徴とする分類方法。 - コンピュータに、
文章情報と当該文章情報に対応する付随情報とに対して、前記文章情報から前記付随情報に関連する単語を抽出する関連抽出ステップと、
前記関連抽出ステップにより抽出された前記付随情報に関連する単語以外であって、同一カテゴリーの文章情報に共通し、かつ高頻度で出現する単語を抽出する共通抽出ステップと、
を実行させるための分類プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161860A JP6166980B2 (ja) | 2013-08-02 | 2013-08-02 | 情報処理装置、情報処理方法、および情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013161860A JP6166980B2 (ja) | 2013-08-02 | 2013-08-02 | 情報処理装置、情報処理方法、および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015032166A true JP2015032166A (ja) | 2015-02-16 |
JP6166980B2 JP6166980B2 (ja) | 2017-07-19 |
Family
ID=52517422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013161860A Active JP6166980B2 (ja) | 2013-08-02 | 2013-08-02 | 情報処理装置、情報処理方法、および情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6166980B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101705810B1 (ko) * | 2015-11-18 | 2017-02-10 | 고려대학교 산학협력단 | 뉴스를 추천하는 서버, 스마트 단말 및 이를 이용한 뉴스 추천 방법 |
KR101705804B1 (ko) * | 2015-11-18 | 2017-02-10 | 고려대학교 산학협력단 | 시맨틱 콘텐츠 분류 장치 및 이를 이용한 콘텐츠 분류 방법 |
KR20180078010A (ko) * | 2016-12-29 | 2018-07-09 | (주) 더아이엠씨 | 패션 분야의 단어 구 단위 감성분석방법 및 이를 포함하는 저장매체 |
CN108875800A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于rfid卡的行为特征提取方法 |
KR101931624B1 (ko) | 2016-12-29 | 2018-12-21 | (주)더아이엠씨 | 패션 분야의 트렌드 분석방법 및 이를 포함하는 저장매체 |
CN110309513A (zh) * | 2019-07-09 | 2019-10-08 | 北京金山数字娱乐科技有限公司 | 一种文本依存分析的方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185531B1 (en) * | 1997-01-09 | 2001-02-06 | Gte Internetworking Incorporated | Topic indexing method |
JP2002245070A (ja) * | 2001-02-20 | 2002-08-30 | Hitachi Ltd | データ表示方法及び装置並びにその処理プログラムを記憶した媒体 |
JP2010267017A (ja) * | 2009-05-13 | 2010-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 文書分類装置、文書分類方法および文書分類プログラム |
-
2013
- 2013-08-02 JP JP2013161860A patent/JP6166980B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6185531B1 (en) * | 1997-01-09 | 2001-02-06 | Gte Internetworking Incorporated | Topic indexing method |
JP2002245070A (ja) * | 2001-02-20 | 2002-08-30 | Hitachi Ltd | データ表示方法及び装置並びにその処理プログラムを記憶した媒体 |
JP2010267017A (ja) * | 2009-05-13 | 2010-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 文書分類装置、文書分類方法および文書分類プログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101705810B1 (ko) * | 2015-11-18 | 2017-02-10 | 고려대학교 산학협력단 | 뉴스를 추천하는 서버, 스마트 단말 및 이를 이용한 뉴스 추천 방법 |
KR101705804B1 (ko) * | 2015-11-18 | 2017-02-10 | 고려대학교 산학협력단 | 시맨틱 콘텐츠 분류 장치 및 이를 이용한 콘텐츠 분류 방법 |
KR20180078010A (ko) * | 2016-12-29 | 2018-07-09 | (주) 더아이엠씨 | 패션 분야의 단어 구 단위 감성분석방법 및 이를 포함하는 저장매체 |
KR101931624B1 (ko) | 2016-12-29 | 2018-12-21 | (주)더아이엠씨 | 패션 분야의 트렌드 분석방법 및 이를 포함하는 저장매체 |
KR101935109B1 (ko) * | 2016-12-29 | 2019-01-04 | (주) 더아이엠씨 | 패션 분야의 단어 구 단위 감성분석방법 및 이를 포함하는 저장매체 |
CN108875800A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于rfid卡的行为特征提取方法 |
CN110309513A (zh) * | 2019-07-09 | 2019-10-08 | 北京金山数字娱乐科技有限公司 | 一种文本依存分析的方法和装置 |
CN110309513B (zh) * | 2019-07-09 | 2023-07-25 | 北京金山数字娱乐科技有限公司 | 一种文本依存分析的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6166980B2 (ja) | 2017-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hoang et al. | Predicting information diffusion on Twitter–Analysis of predictive features | |
JP7104244B2 (ja) | ユーザタグ生成方法並びにその、装置、コンピュータプログラム及びコンピュータ機器 | |
CN110309427B (zh) | 一种对象推荐方法、装置及存储介质 | |
JP6166980B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
CN105989040B (zh) | 智能问答的方法、装置及系统 | |
AU2014201827B2 (en) | Scoring concept terms using a deep network | |
JP5647508B2 (ja) | ショートテキスト通信のトピックを識別するためのシステムおよび方法 | |
US9633311B2 (en) | Decision tree learning | |
CN110334356B (zh) | 文章质量的确定方法、文章筛选方法、以及相应的装置 | |
CN110909182A (zh) | 多媒体资源搜索方法、装置、计算机设备及存储介质 | |
CN108108353B (zh) | 一种基于弹幕的视频语义标注方法、装置及电子设备 | |
Zou et al. | LDA-TM: A two-step approach to Twitter topic data clustering | |
CN113688310A (zh) | 一种内容推荐方法、装置、设备及存储介质 | |
CN112434211A (zh) | 一种数据处理方法、装置、存储介质及设备 | |
CN110209780B (zh) | 一种问题模板生成方法、装置、服务器及存储介质 | |
Mussumeci et al. | Reconstructing news spread networks and studying its dynamics | |
CN112307726A (zh) | 因果去偏差模型指导的法院观点自动生成方法 | |
Jeong et al. | Discovery of research interests of authors over time using a topic model | |
CN111538898B (zh) | 基于组合特征提取的Web服务包推荐方法及系统 | |
US20160196619A1 (en) | Homogenizing time-based seniority signal with transition-based signal | |
Wang et al. | Enhanced gender identification through social media analytics on the cloud | |
KR102389555B1 (ko) | 가중 트리플 지식 그래프를 생성하는 장치, 방법 및 컴퓨터 프로그램 | |
JP2013214149A (ja) | 分類装置、分類システム、分類方法及び分類プログラム | |
JP2013214150A (ja) | 分類装置、分類システム、分類方法及び分類プログラム | |
Ozdikis et al. | Context based semantic relations in tweets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6166980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |