JP2006338263A - コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体 - Google Patents

コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2006338263A
JP2006338263A JP2005161362A JP2005161362A JP2006338263A JP 2006338263 A JP2006338263 A JP 2006338263A JP 2005161362 A JP2005161362 A JP 2005161362A JP 2005161362 A JP2005161362 A JP 2005161362A JP 2006338263 A JP2006338263 A JP 2006338263A
Authority
JP
Japan
Prior art keywords
content
parameter
content classification
sample
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005161362A
Other languages
English (en)
Other versions
JP4490876B2 (ja
Inventor
Akinori Fujino
昭典 藤野
Shuko Ueda
修功 上田
Kazumi Saito
和巳 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005161362A priority Critical patent/JP4490876B2/ja
Publication of JP2006338263A publication Critical patent/JP2006338263A/ja
Application granted granted Critical
Publication of JP4490876B2 publication Critical patent/JP4490876B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 コンテンツを複数のカテゴリのいずれかに分類するコンテンツ分類方法を提供すること。
【解決手段】 コンピュータが、ラベルありサンプルおよびラベルなしサンプルを取得する手順と、ラベルありコンテンツの特徴ベクトルを算出して、生成モデルのパラメータを算出する手順と、ラベルありサンプルから1つずつコンテンツを除外した場合の生成モデルのパラメータを算出し、この算出結果を用いて結合パラメータを算出する手順と、生成モデルおよび生成モデルの偏りを補正するバイアス補正モデルを、結合パラメータを用いて結合した識別関数を生成する手順と、分類対象のコンテンツの特徴ベクトルを算出する手順と、識別関数を用いて、コンテンツの複数のカテゴリに対する事後確率が最大となるカテゴリを選択する手順とを含んで実行する。
【選択図】 図2

Description

本発明は、特徴ベクトルにより表現可能なコンテンツを複数のカテゴリに分類する際に、カテゴリが判明している少数のラベルありコンテンツの統計情報を用いて、カテゴリの推定値を出力する識別関数のパラメータを学習し、その識別関数を用いてカテゴリが未知のコンテンツを分類するコンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体に関する。
データベースに含まれる文書データ、オンラインニュースデータ、電子メールなどのテキスト情報を含むコンテンツ、ウェブページやブログページなどのテキスト情報とリンク情報とを含むコンテンツ、または画像データからなるコンテンツなどの特徴ベクトルを用いて表現可能なコンテンツを複数のカテゴリに分類する手法がさまざまに開発されている。
例えば、非特許文献1には、カテゴリが判明しているコンテンツ(以下、ラベルありサンプル)が少数しかない場合、カテゴリが不明なコンテンツ(以下、ラベルなしサンプル)を用いて分類器を学習することで、入力されるカテゴリが未知のコンテンツ(以下、未知コンテンツ)の分類の精度を向上させる分類器が記載されている。
一般に、ラベルありサンプルの作成は、人手によるコンテンツのカテゴリ分類が必要となるため、多数のラベルありサンプルを用いて分類器を学習させることは困難である。したがって、少数のラベルありサンプルを用いて学習された分類器には、ラベルありサンプルの与え方による統計的な偏りが生じ、高い分類精度が期待できないことがある。
このため、非特許文献1に記載の分類器では、少数のラベルありサンプルに加えて、多数の未分類のラベルなしサンプルを分類器の学習に用いて、学習の偏りを緩和することで分類精度の向上を図っている。
非特許文献1に記載された分類器は、1つの生成モデルを仮定し、ラベルありサンプルで学習した生成モデルを用いてラベルなしサンプルの属するカテゴリを推定し、その結果をラベルとして付加して生成モデルを再学習することで、分類器の精度の向上を図る特徴を有している。
また、非特許文献2には、少数のラベルありサンプルに多数のラベルなしサンプルを用いることにより、分類器の精度向上を図った分類器が記載されている。この分類器では、ガウスカーネルを用いてラベルありサンプルあるいはラベルなしサンプルと未知コンテンツとの類似度をもとに分類を行うことを基本的な特徴とする。
非特許文献2に記載の分類器では、ラベルなしサンプルiの各カテゴリcに属する確率P(c|i)をラベルありサンプルを用いて予め推定したうえで、未知コンテンツdとラベルありサンプル・ラベルなしサンプルとの類似度P(i|d)と、ラベルありサンプルとラベルなしサンプルのカテゴリcに属する確率P(c|i)の積の線形和により未知コンテンツdのカテゴリcに属するP(c|d)を計算することで、未知コンテンツdを各カテゴリに分類する。
K.Nigam, A.McCallum, S.Thrun and T.Mitchell: Text classification from labeled and unlabeled documents using EM, Machine Learning, 39, p103-134(2000). M.Szummer and T.Jaakkola: Kernel expansions with unlabeled examples, Advances in Neural Information Processing Systems (NIPS), 13, p626-632(2001).
非特許文献1に記載の技術では、ラベルなしサンプルの属するカテゴリを推定した結果をラベルありサンプルとともに用いることで生成モデルのパラメータを学習する。しかしながら、ラベルなしサンプルのカテゴリの推定結果は、必ずしもラベルなしサンプルが属する真のカテゴリと一致するとは限らない。したがって、ラベルなしサンプルの分類器の学習への利用は、必ずしも分類精度の向上に有効であるとは限らない。このため、高精度の分類器を獲得するためには、分類器に反映させるラベルありサンプルの統計情報とラベルなしサンプルの統計情報の比率を調節することが必要になる。
また、非特許文献1に記載の技術において、前記の統計情報の比率の調節は、比率を少しずつ変えて分類器を学習し、得られた複数の分類器から1つの分類器を、未知コンテンツを分類する分類器として選択することで実現される。このため、比率の候補数が多いほど分類器の精度向上が期待できるが、そのための計算量が多くなり学習が非効率になる。逆に比率の候補数が少ないほど学習は効率的となるが、分類器の精度向上は期待できない。
このため、学習に用いるラベルありサンプルとラベルなしサンプルとの統計情報の最適な比率の推定手法が別途必要であり、その推定を可能とする分類器のモデル設計が必要となるという問題がある。
また、非特許文献1に記載の分類器では訓練データの識別精度について、最適化とは異なる評価基準でモデルのパラメータの学習が行われる。したがって、ラベルなしデータのカテゴリ情報の推定の精度が低いとき、学習される分類器の精度がラベルなし情報を用いても大きく向上しない、または逆に悪化することが考えられる。このため、ラベルなしデータのカテゴリ情報の推定精度を向上させる分類器の学習法が課題となる。
非特許文献2に記載の技術では、ガウスカーネルのパラメータ値の設定により分類精度が大きく異なる特徴をもつ。しかしながら、パラメータ値の調節は探索的に行う必要があるため、最適なパラメータ値を与えることは容易ではない。また、コンテンツ間の類似度に基づくため、コンテンツの特徴ベクトルが高次元で疎である場合には、類似度が‘0’に近付くことで分類精度が低くなる可能性がある。さらに、この技術は2値分類用に開発されており、必ずしも多クラス問題における分類精度は高くない。このため、この方法は、多数の語彙から構成される文書などのテキスト情報を複数のカテゴリに分類する問題には適さないという問題がある。
したがって、本発明の目的は、コンテンツの特徴ベクトルが疎である場合および多クラスに分類する場合にも適用可能なコンテンツの分類手段を提供することにある。
前記した目的を達成するために成された本発明に係るコンテンツ分類方法は、帰属するカテゴリが既知の少数のコンテンツからなるラベルありサンプルおよび帰属するカテゴリが未知の多数のコンテンツからなるラベルなしサンプルを取得する手順と、ラベルありサンプルを用いて、生成モデルのパラメータを算出する生成モデルパラメータ学習手順と、ラベルありサンプルから1つずつコンテンツを除外した場合のサンプルを用いて、生成モデルのパラメータを算出し、この算出結果を用いて非線形の最適化計算に基づいて結合パラメータを算出する手順と、生成モデルおよび生成モデルの偏りを補正するバイアス補正モデルを、結合パラメータを用いて結合した識別関数を生成する手順と、分類対象のコンテンツを取得する手順と、識別関数を用いて、分類対象のコンテンツの複数のカテゴリに対する第1の事後確率を算出し、この第1の事後確率が最大となるカテゴリを、複数のカテゴリから選択する手順とを含んでコンピュータが実行することを特徴としている。
本発明の他の形態については後記する実施の形態の中で詳しく説明する。
本発明によると、ラベルありサンプルおよびラベルなしサンプルを用いてパラメータを定めたモデルを非線形の最適化計算に基づいて最適に結合させて生成した識別関数を用いてコンテンツを分類することで、コンテンツの特徴ベクトルが疎である場合および多クラスに分類する場合にも適用可能であり、さらに、コンテンツの分類精度を向上させることができる。
以下、本発明の実施の形態を添付した図面を参照して詳しく説明する。本実施の形態のコンテンツ分類装置は、訓練データ集合を用いて、コンテンツ事後確率を出力する識別関数のパラメータを学習して、分類対象のコンテンツを分類する。
ここで、図1は、本実施の形態のコンテンツ分類装置の構成を示す機能ブロック図の例である。
図1に示すように、コンテンツ分類装置1は、識別関数を学習するために用いる訓練データ集合が格納された訓練データDB2と、訓練データ集合を用いて識別関数を生成する識別関数生成部3と、識別関数生成部3において生成された識別関数を用いてコンテンツが属するカテゴリの分類を推定するコンテンツ分類部4と、識別関数生成部3およびコンテンツ分類部4における処理の際に、一時データを保存するメモリ7とを含んで構成される。
さらに、コンテンツ分類装置1は、分類対象のコンテンツを入力する際のインターフェイスとなる入力部5と、入力された分類対象のコンテンツの分類結果を画面表示したり、入力されたコンテンツを分類・保存して出力する際などのインターフェイスとなる出力部6とを含んで構成される。
ここで、訓練データDB2には、分類対象となるコンテンツと同様の形式をもつコンテンツの特徴ベクトルの例を集めて生成された訓練データ集合が記憶されている。例えば、コンテンツ分類装置1をウェブページからなるコンテンツの分類に適用する場合は、訓練データDB2にウェブページの特徴ベクトルの例を集めた訓練データ集合を格納しておく。
訓練データDB2に格納された訓練データ集合は、コンテンツの特徴ベクトル(以下、単にコンテンツ)本体とコンテンツが属するカテゴリID(以下、カテゴリ情報)の対より構成されるラベルありサンプルと、カテゴリ情報が付与されていないコンテンツのみで構成されるラベルなしサンプルとから構成されている。このラベルありサンプルのカテゴリ情報は、利用者またはコンテンツ分類装置1の管理者などによって予め付与されている。
なお、本実施の形態において、訓練データDB2をコンテンツ分類装置1の内部に含む構成としたが、例えば、ネットワークなどで接続された外部のデータベースサーバなどに訓練データDB2を構成して、このデータベースサーバから訓練データ集合を取得する構成としてもよい。
本実施の形態のコンテンツ分類装置1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、ネットワークカード、ディスプレイ装置などを含んで構成される一般的なパーソナルコンピュータにより具現される。コンテンツ分類装置1の訓練データDB2は、例えば、ハードディスクドライブの所定の領域を割り当てることで具現され、入力部5は、例えば、分類対象のコンテンツがネットワークを介して入力される場合は、ネットワークカードにより具現される。また、出力部6は、コンテンツの分類結果を表示画面として出力する際には、ディスプレイインターフェイスにより具現される。
さらに、識別関数生成部3およびコンテンツ分類部4は、例えば、ハードディスクドライブに格納されたプログラムコードであるコンテンツ分類プログラムをRAMに展開して、CPUが実行することで具現される。また、このコンテンツ分類プログラムは、ハードディスクドライブに格納される以外にも、コンピュータのROMや、コンパクトディスクなどの記録媒体などに記録され、コンピュータのRAMに読み込むこともできる。また、コンピュータが、外部からネットワークを介した伝送によりコンテンツ分類プログラムを取得する構成としてもよい。
次に、図2に、コンテンツ分類装置1の識別関数生成部3における情報処理の概略的な手順を示すフローチャートの例を、図3に、ラベルありサンプルを用いて学習され、コンテンツの生成確率を数理的な分布により表現する生成モデルのパラメータ学習の処理手順を示すフローチャートの例を、図4に、識別関数の結合パラメータの学習に用いるラベルありサンプルと生成モデルのパラメータ対を作成する処理手順を示すフローチャートの例をそれぞれ示す。
以下に、図2ないし図4に示したフローチャートを参照しつつ、コンテンツ分類装置1の識別関数生成部3における識別関数の生成手順を詳しく説明する(適宜、図1参照)。
以下の処理手順において、コンテンツ分類装置1の識別関数生成部3は、訓練データDB2に格納された訓練データ集合を用いて識別関数R(k|x,Θ,Ψ,Λ)のパラメータΘ,Ψ,Λを学習する。
ここで、Θは、生成モデルのパラメータを、Ψは、学習された生成モデルの統計上の偏りを補正するバイアス補正モデルのパラメータを、Λは、非線形の最適化計算である最大エントロピ原理により推定される生成モデルおよびバイアス補正モデルの結合パラメータを表している。つまり、識別関数R(k|x,Θ,Ψ,Λ)は、生成モデルとバイアス補正モデルを結合パラメータを用いて結合した関数として定義される。
さらに、xはコンテンツを、k∈{1,・・・,K}は、コンテンツが属するカテゴリの候補となるクラスを表している。
はじめに、識別関数生成部3は、訓練データDB2に格納された訓練データ集合に含まれるカテゴリ情報を有するコンテンツのサンプル集合であるラベルありサンプル
Figure 2006338263
とカテゴリ情報を有しないコンテンツのサンプル集合であるラベルなしサンプル
Figure 2006338263
とを取り込んで、メモリ7に格納する(ステップS101)。そして、識別関数のパラメータ学習の繰り返し回数を示すカウンタtの初期値t=0と、学習された識別関数の妥当性を測定するために定義された評価関数Fの初期値F(0)=−∞と、バイアス補正モデルのパラメータの初期値Ψ(1)とを与えて、各パラメータを初期化してメモリ7に格納する(ステップS102)。
ここで、ラベルありサンプルのynはコンテンツxnが属するカテゴリに従って付与されたクラスラベル(カテゴリ情報)を示している。
次に、識別関数生成部3は、生成モデルのパラメータの推定値
Figure 2006338263
を、メモリ7内に格納されたラベルありサンプルを用いて学習する(ステップS103)。ステップS103における、生成モデルのパラメータは、図3のフローチャートに示すように、まず、訓練データ集合に含まれるサンプルの、訓練データ集合全体に対する特徴ベクトルの偏りを緩和するための平滑化パラメータを学習してメモリ7に格納し(ステップS201)、その結果を用いて最適なパラメータを学習してメモリ7に格納する(ステップS202)ことで推定される。
なお、生成モデルのパラメータの算出手順の詳細を、後記する実施形態例の中で説明する。
次に、図2に戻って、識別関数生成部3は、結合パラメータΛを推定するために、メモリ7内に格納されたラベルありサンプルと生成モデルのパラメータとの対を作成する(ステップS104)。ステップS104のラベルありサンプルと生成モデルのパラメータとの対の作成手順の詳細な処理手順を、図4に示したフローチャートを参照しつつ説明する(適宜、図1参照)。
まず、識別関数生成部3は、メモリ7内に格納されたラベルありサンプルから任意の1つのサンプル(xn,yn)を除外して(S301)、1点除外ラベルありサンプル
Figure 2006338263
を生成してメモリ7に格納する。そして、このメモリ7内の1点除外ラベルありサンプル
Figure 2006338263
を用いて、図3に示したフローチャートと同様の手順により、生成モデルのパラメータΘ(-n)を算出してメモリ7に格納して(ステップS302)、除外したサンプルと生成モデルのパラメータとの対であるサンプル・パラメータ対(xn,yn,Θ(-n))を生成してメモリ7に格納する(ステップS303)。
次に、識別関数生成部3は、再び、ラベルありサンプルから、ステップS301において選択したラベルありサンプルとは別の任意の1つのラベルありサンプルを除外して、この除外したサンプルに対応するサンプル・パラメータ対を生成してメモリ7に格納する処理(ステップS301ないしステップS303)を実行して、すべてのラベルありサンプルを除外した場合のサンプル・パラメータ対を生成したか否かを判定し(ステップS304)、すべてのラベルありサンプルを除外した場合のサンプル・パラメータ対を生成するまで、ステップS301ないしステップS303の処理を実行する。
識別関数生成部3が、すべてのラベルありサンプルについてサンプル・パラメータ対を生成すると(ステップS304で‘Yes’の場合)、図2に示したフローチャートに戻って、ステップS104で生成してメモリ7内に格納されたサンプル・パラメータ対、ステップS103で推定されてメモリ7内に格納された生成モデルのパラメータ、およびステップS102で設定されてメモリ7内に格納されたバイアス補正モデルのパラメータの初期値を用いて、最大エントロピ原理に基づいて、生成モデルとバイアス補正モデルの結合パラメータΛの推定値Λ(t+1)を学習してメモリ7に格納し(ステップS105)、識別関数
Figure 2006338263
を生成してメモリ7に格納する(ステップS106)。そして、識別関数を生成すると、識別関数生成部3は、ステップS107にて評価関数の変量F(t+1)−F(t)を求め、収束条件F(t+1)−F(t)<ε(εは分管理者などにより与えられる所定の微小の定数値)を満たせば(ステップS107で‘Yes’の場合)、
Figure 2006338263
として、分類器の識別関数
Figure 2006338263
を決定して、この決定したメモリ7内に格納された識別関数をコンテンツ分類部4に受け渡す(ステップS111)。
また、前記の収束条件を満たさない場合は(ステップS107で‘No’の場合)、メモリ7内に格納されたパラメータ学習のカウンタtに‘1’を加算してカウンタtを更新してメモリ7に格納し(ステップS108)、メモリ7内に格納されたラベルなしコンテンツのクラス事後確率
Figure 2006338263
をステップS106で得られた識別関数を用いて推定してメモリ7に格納する(ステップS109)。
次に、識別関数生成部3は、メモリ7内に格納されたラベルなしコンテンツと、ステップS109でメモリ7内に格納されたクラス事後確率とを用いてバイアス補正モデルのパラメータの推定値Ψ(t+1)を学習してメモリ7に格納し(ステップS110)、ステップS105に戻る。
ここで、バイアス補正モデルのパラメータ学習の詳細は、図3のフローチャートで示した生成モデルのパラメータ学習と同様に、最適な平滑化パラメータを学習してメモリ7に格納し(ステップS201)、このメモリ7内に格納された平滑化パラメータを用いて最適なパラメータを学習してメモリ7に格納する(ステップS202)ことで推定される。
そして、ステップS105からステップS110までの処理はステップS107における収束条件を満たすまで繰り返し実行される。
次に、図5に、コンテンツ分類装置1のコンテンツ分類部4における情報処理の概略的な手順を示すフローチャートの例を示す。図5に示したフローチャートを参照しつつ、コンテンツ分類部4におけるコンテンツの分類手順を説明する。
はじめに、コンテンツ分類部4は、ステップS111(図2参照)で識別関数生成部3が受け渡した識別関数
Figure 2006338263
を取得してメモリ7に格納する(ステップS401)。そして、外部からの入力インターフェイスである入力部5から、分類対象のコンテンツを取得してメモリ7に格納する(ステップS402)。
次に、識別関数
Figure 2006338263
を用いて、メモリ7内に格納された分類対象のコンテンツのクラス事後確率を算出してメモリ7に格納し(ステップS403)、算出したクラス事後確率が最大となるカテゴリを、このコンテンツの属するカテゴリであると推定してメモリ7に格納する(ステップS404)。
そして、コンテンツ分類部4は、推定したカテゴリを分類結果として出力部6に受け渡し、この分類結果を取得した出力部6は、分類結果を表示画面などに出力し、必要に応じてコンテンツファイルを分類結果に応じて適切な箇所に保存する。
(実施形態例)
前記したコンテンツ分類装置1において、K個のクラス{1,・・・,k,・・・K}からコンテンツxが属するカテゴリyを1つ選択する場合に、生成モデルおよびバイアス補正モデルに「Naive Bayes」モデル(以下、NBモデル)を用いた場合の実施形態例を詳しく説明する(適宜、図1ないし図5参照)。
まず、コンテンツの特徴ベクトルを定義する。コンテンツの単語等により構成される特徴空間をT={t1,・・・,ti,・・・,tV}とするとき、コンテンツの特徴ベクトルは、コンテンツに含まれるtiの頻度をもとにx={x1,・・・,xi,・・・,xV}で表現される。ここで、Vはコンテンツに含まれる可能性がある特徴の種類の数を表す。例えば、コンテンツがテキストデータである場合、Vはコンテンツで出現する可能性がある語彙の総数を表す。
NBモデルでは、クラスkからコンテンツxnが生成される確率P(xn|k)は、クラスkにおけるそれぞれの特徴tiの出現確率θikと独立であると仮定して、次の数式(1)で定義する。
Figure 2006338263
ここで、数式(1)のP(x|k,θk)は、NBモデルを用いる場合の生成モデルを表し、
Figure 2006338263
は、生成モデルの推定すべきパラメータを表す。バイアス補正モデルP(x|k,ψk)も、数式(1)と同型の分布で定義される。
以下に、図2に示したフローチャートに従って本実施形態例のコンテンツ分類装置1の動作を説明する。まず、識別関数生成部3は、訓練データDB2から訓練データ集合であるラベルありサンプルとラベルなしサンプルとを取り込んでメモリ7に格納する(ステップS101)。そして、ステップS102において、バイアス補正モデルのパラメータの初期値
Figure 2006338263
を、
Figure 2006338263
で与え、それぞれメモリ7に格納する。
次に、ステップS103において、生成モデルのパラメータの推定値
Figure 2006338263
は、
Figure 2006338263
でコンテンツの特徴ベクトルを正規化するとき、メモリ7内に格納されたラベルありサンプル集合Dlを用いてMAP推定による以下の数式(2)で得られる。
Figure 2006338263
数式(2)において、znkは、サンプルxnがクラスkに属するか否かを表すクラス変数であり、ラベルありサンプルxnのクラス変数は、yn=1のときznk=1、それ以外のときznk=0である。また、ξkは、平滑化パラメータを表し、
Figure 2006338263
を学習するために推定すべきパラメータである。また、
Figure 2006338263
である。
Figure 2006338263
の学習は、まず平滑化パラメータの推定値
Figure 2006338263
を学習してメモリ7に格納し(ステップS201)、メモリ7内に格納された
Figure 2006338263
を数式(2)に代入して
Figure 2006338263
を学習してメモリ7に格納する(ステップS202)。
ここで、平滑化パラメータの推定値
Figure 2006338263
は、1点交差確認法(leave-one-out cross validation)を用いて、次の数式(3)で表す対数尤度L1(ξk)を最大化するξkを、EMアルゴリズム(Dempster, A.P.,Laird, N.M. and Rubin, D.B.: Maximum likelihood from incomplete data viathe EM algorithm. Journal of the Royal Statistical Society, SeriesB, 39, 1-38 (1977) )で求めることで得られる。
Figure 2006338263
Figure 2006338263
とおくとき、
Figure 2006338263
の制約の下で、以下の数式(4)および数式(5)を用いて、反復的にαlを求めることで、最適な平滑化パラメータ
Figure 2006338263
を算出することができる。
Figure 2006338263
次に、ステップS104において、図4のフローチャートに示したように、メモリ7内に格納されたラベルありデータ集合Dlの任意のサンプル(xn,yn)を除外して(ステップS301)生成したデータ集合
Figure 2006338263
を用いることで、
Figure 2006338263
によりパラメータ
Figure 2006338263
を計算してメモリ7に格納し(ステップS302)、サンプル・パラメータ対(xn,yn,Θ(-n))を生成してメモリ7に格納する(ステップS303)。ステップS304の処理により、このパラメータ計算を繰り返し行うことで、すべてのラベルありサンプルに対するサンプル・パラメータ対が得られてメモリ7に格納される。
次に、ステップS105では、最大エントロピ原理に基づいて、識別関数
Figure 2006338263
の結合パラメータ
Figure 2006338263
の推定値Λ(t+1)を、
Figure 2006338263
とメモリ7内に格納されたΨ(t+1)を与えた下で、メモリ7内に格納されたサンプル・パラメータ対
Figure 2006338263
を用いて、以下の関数を最大にするΛとして算出してメモリ7に格納する。
Figure 2006338263
この数式(8)において、R(Λ)は、パラメータΛの事前確率であり、例えば、
Figure 2006338263
で与えられる。数式(8)の目的関数J(Λ)を最大にするΛは、例えば、IISアルゴリズム(K. Nigam,J. Lafferty and A. McCallum: Using maximum entropy for text classification, In IJCAI-99 Workshop on Machine Learning for Information filtering, p61-67 (1999).)またはL−BFGSアルゴリズム(D.C. Liu and J. Nocedel: On the limited memory BFGS method for large scale optimization. In Math. Programming, 45(3,(ser. B)), p503-528 (1989).)を用いて求めることができる。
これにより算出されてメモリ7内に格納されたΛ(t+1)と、Ψ(t+1)とを用いて、パラメータ学習のカウンタtにおける識別関数
Figure 2006338263
を生成してメモリ7に格納する(ステップS106)。
次に、ステップS107において、パラメータ学習の収束条件F(t+1)−F(t)<εを与える評価関数F(t)は、例えば、
Figure 2006338263
で与えられる。
パラメータ学習の集束条件を満たさない場合(ステップS107で‘No’の場合)、メモリ7内に格納されたカウンタtを更新してメモリ7に格納し(ステップS108)、ステップS110では、メモリ7内に格納されたラベルなしコンテンツと、ステップS109において識別関数をもとに推定されてメモリ7内に格納されたラベルなしサンプルのクラス事後確率
Figure 2006338263
とをもとに、MAP推定により、バイアス補正モデルのパラメータの推定値Ψ(t+1)を以下の式に従って学習してメモリ7に格納する。
Figure 2006338263
ここで、ηkは平滑化パラメータを表し、
Figure 2006338263
を学習するために推定すべきパラメータである。また、
Figure 2006338263
は、ステップS103における
Figure 2006338263
の学習と同様に、図3のフローチャートに示すように、平滑化パラメータの学習(ステップS201)と、モデルのパラメータの学習(ステップS202)の処理手順により学習されてメモリ7に格納される。平滑化パラメータの推定値
Figure 2006338263
は、以下の目的関数を最大にするηkを、EMアルゴリズムによって求めることで算出される。
Figure 2006338263
メモリ7内に格納されたラベルなしサンプルのクラス事後確率をもとに、バイアス補正モデルのパラメータの推定値Ψ(t+1)を学習してメモリ7に格納すると、ステップS107における集束条件を満たすまで、ステップS105ないしステップS110の処理手順を繰り返すことで、識別関数生成部3は、識別関数を決定してメモリ7に格納することができる。
そして、ステップS107における集束条件を満たすと、このときメモリ7内に格納された識別関数をコンテンツ分類部4に受け渡して(ステップS111)、識別関数生成部3における処理が終了する。
以上の実施形態例に基づいたパラメータの学習アルゴリズムの例を次の表1に示す。
Figure 2006338263
次に、コンテンツ分類部4による、ユーザにより入力されたコンテンツx’が属するカテゴリy’の推定方の実施形態例を説明する。
図5のフローチャートを参照して、まず、ステップS401において、数式(7)で示される式に
Figure 2006338263

Figure 2006338263
を代入することで得られる識別関数
Figure 2006338263
を識別関数生成部3から取得してメモリ7に格納し、このメモリ7内に格納された識別関数を用いて、ステップS402で入力部5から取得してメモリ7内に格納された識別対象のコンテンツのx’を用いて、クラス事後確率を算出してメモリ7に格納し(ステップS403)、識別関数
Figure 2006338263
を最大にするkを、コンテンツx’が属するカテゴリの推定値
Figure 2006338263
として算出することで、コンテンツx’が属するカテゴリを推定してメモリ7に格納する(ステップS404)。
以上のカテゴリ推定アルゴリズムの例を次の表2に示す。
Figure 2006338263
以上の手順により、属するカテゴリが推定されたコンテンツは、例えば、出力部6からカテゴリごとのフォルダに分類されたファイルとして出力される。
(実験例)
次に、図6は、テキスト自動分類の性能検査用に用いられるデータベースである20News(非特許文献1参照)に、前記した実施形態例のコンテンツ分類装置1を適用した場合のカテゴリの分類性能を示すグラフである。
このデータベースには、コンテンツ本体とコンテンツが属するカテゴリ情報が予め付与されている。この検査に際して、データベースに含まれるコンテンツのうち4000を分類対象のコンテンツとして(以下、テストサンプル)、分類精度の評価に用いる。
また、残りのコンテンツのうち、10000のコンテンツをラベルなしサンプルとして、さらに、その残りから任意数のコンテンツをラベルありサンプルとして選択し、訓練データ集合とした。
ここで、ラベルありサンプルとは、コンテンツ本体とカテゴリ情報の両方を訓練データとして用いるサンプルであり、ラベルなしサンプルとはコンテンツ本体のみの情報を訓練データとして用いるサンプルである。すなわち、ラベルなしサンプルが属するカテゴリは未知として、分類器の学習を行う。
性能検査は、テストサンプルが属するカテゴリを、訓練データ集合を用いて学習された分類器の識別関数を用いて推定し、その推定結果とカテゴリ情報との一致度(以下、分類精度)を用いて行なった。
図6は、20Newsのデータベースに対して、訓練サンプルの個数を変えてコンテンツ分類装置1に適用した場合の結果(方法1)を表す。このデータベースは20個のカテゴリを有する。比較対象として、非特許文献1に基づくEM−λ(方法2)の結果とラベルなしデータを用いないNB法(方法3)の結果を合わせて示す。図6に示すように、訓練サンプルの個数によらず、本発明に係る方法1が、方法2および方法3の手法よりも分類精度が高いことがわかる。この結果、本実施の形態のコンテンツ分類装置1の分類精度は、従来技術のコンテンツ分類技術に比べ、優位性を有していることがわかる。
以上、本発明の実施の形態を説明したが、前記した実施の形態に具体的に記載した数式や、アルゴリズムなどは、説明のために例示したものであり、本発明はこれらの事項に限定されることなく、特許請求の範囲に記載された技術的思想により定められる。
コンテンツ分類装置の機能ブロック図である。 評価関数生成部における処理手順を説明するフローチャートである。 生成モデルのパラメータ学習の手順を説明するフローチャートである。 結合パラメータ学習の処理手順を説明するフローチャートである。 コンテンツ分類部における処理手順を説明するフローチャートである。 本実施形態例によるコンテンツ分類装置の分類性能を示すグラフである。
符号の説明
1 コンテンツ分類装置
2 訓練データDB
3 識別関数生成部
4 コンテンツ分類部
5 入力部

Claims (10)

  1. 特徴ベクトルで表現されたコンテンツを、複数のカテゴリに分類するコンテンツ分類方法であって、
    コンピュータが、
    帰属するカテゴリが既知の少数のコンテンツからなるラベルありサンプルおよび帰属するカテゴリが未知の多数のコンテンツからなるラベルなしサンプルを取得するサンプルデータ取得手順と、
    前記ラベルありサンプルを用いて、生成モデルのパラメータを算出する生成モデルパラメータ学習手順と、
    前記ラベルありサンプルから1つずつコンテンツを除外した場合のサンプルを用いて、前記生成モデルのパラメータを算出し、この算出結果を用いて非線形の最適化計算に基づいて結合パラメータを算出する結合パラメータ学習手順と、
    前記生成モデルおよび前記生成モデルの偏りを補正するバイアス補正モデルを、前記結合パラメータを用いて結合した識別関数を生成する識別関数生成手順と、
    分類対象のコンテンツを取得する分類対象コンテンツ取得手順と、
    前記識別関数を用いて、前記分類対象のコンテンツの前記複数のカテゴリに対する第1の事後確率を算出し、この第1の事後確率が最大となるカテゴリを、前記複数のカテゴリから選択するコンテンツ分類手順と、
    を含んで実行することを特徴とすることを特徴とするコンテンツ分類方法。
  2. 前記生成モデルパラメータ学習手順は、
    前記ラベルありサンプルの対数尤度の総和を最大化する平滑化パラメータを算出する第1の平滑化パラメータ生成手順と、
    前記算出された平滑化パラメータを用いて、前記生成モデルのパラメータを算出する第1のパラメータ生成手順とを含むこと、
    を特徴とする請求項1に記載のコンテンツ分類方法。
  3. 前記識別関数生成手順のあとに、
    前記識別関数が所定の収束条件を満たすまで、前記識別関数を用いて前記ラベルなしサンプルの各コンテンツのカテゴリに対する第2の事後確率を算出し、この第2の事後確率および前記ラベルなしサンプルを用いて、前記バイアス補正モデルのパラメータを算出し、このパラメータを適用した前記バイアス補正モデルを用いて前記結合パラメータを算出して、この結合パラメータを用いて前記識別関数の生成を行う識別関数最適化手順をさらに含むこと、
    を特徴とする請求項1または請求項2に記載のコンテンツ分類方法。
  4. 前記バイアス補正モデルのパラメータの算出は、
    前記第2の事後確率および前記ラベルなしコンテンツの積の対数尤度の総和を最大化する平滑化パラメータを算出する第2の平滑化パラメータ生成手順と、
    前記算出された平滑化パラメータを用いて、前記バイアス補正モデルのパラメータを算出する第2のパラメータ生成手順とからなること、
    を特徴とする請求項3に記載のコンテンツ分類方法。
  5. 前記非線形の最適化計算が、最大エントロピー原理に基づく計算であること、
    を特徴とする請求項1ないし請求項4のいずれか1項に記載のコンテンツ分類装置。
  6. 特徴ベクトルで表現されたコンテンツを、複数のカテゴリに分類するするコンテンツ分類装置であって、
    分類対象のコンテンツを取得する入力部と、
    帰属するカテゴリが既知の少数のコンテンツからなるラベルありサンプルおよび帰属するカテゴリが未知の多数のコンテンツからなるラベルなしサンプルから構成されるサンプルデータ集合を格納したデータベースと、
    前記ラベルありコンテンツの対数尤度の総和を最大化する平滑化パラメータを算出して、この平 滑化パラメータを用いて、前記生成モデルのパラメータを算出し、前記ラベルありサンプルから1つずつコンテンツを除外した場合の前記生成モデルのパラメータを算出した結果を用いて、非線形の最適化計算に基づいて結合パラメータを算出し、前記生成モデルおよび前記生成モデルの偏りを補正するバイアス補正モデルを、前記結合パラメータを用いて結合した識別関数を生成する識別関数生成部と、
    前記識別関数生成部が生成した前記識別関数を用いて、前記入力部が取得した前記分類対象のコンテンツの、前記複数のカテゴリの各カテゴリに対する第1の事後確率を算出し、この第1の事後確率が最大となるカテゴリを、前記複数のカテゴリから選択するコンテンツ分類部と、
    を含んで構成されることを特徴とするコンテンツ分類装置。
  7. 前記識別関数生成部は、所定の収束条件を満たすまで、生成した前記識別関数を用いて、前記ラベルなしサンプルの各サンプルのカテゴリに対する第2の事後確率を算出し、この第2の事後確率から算出される前記ラベルなしサンプルの対数尤度の総和を最大化するように平滑化パラメータを算出して、この平滑化パラメータを用いて、前記バイアス補正モデルのパラメータを算出し、このパラメータを適用した前記バイアス補正モデルを用いて前記結合パラメータを再度算出して、この結合パラメータを用いて前記識別関数を再度生成すること、
    を特徴とする請求項6に記載のコンテンツ分類装置。
  8. 前記非線形の最適化計算が、最大エントロピー原理に基づく計算であること、
    を特徴とする請求項6または請求項7に記載のコンテンツ分類装置。
  9. コンピュータに、請求項1ないし請求項5のいずれか1項に記載のコンテンツ分類方法を実行させるコンテンツ分類プログラム。
  10. 請求項9に記載のコンテンツ分類プログラムを記録した記録媒体。
JP2005161362A 2005-06-01 2005-06-01 コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体 Expired - Fee Related JP4490876B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005161362A JP4490876B2 (ja) 2005-06-01 2005-06-01 コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005161362A JP4490876B2 (ja) 2005-06-01 2005-06-01 コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2006338263A true JP2006338263A (ja) 2006-12-14
JP4490876B2 JP4490876B2 (ja) 2010-06-30

Family

ID=37558777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005161362A Expired - Fee Related JP4490876B2 (ja) 2005-06-01 2005-06-01 コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4490876B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276571A (ja) * 2007-04-27 2008-11-13 Nippon Telegr & Teleph Corp <Ntt> ラベル付与方法、ラベル付与装置、ラベル付与プログラムおよびその記憶媒体
JP2009075671A (ja) * 2007-09-18 2009-04-09 Nippon Telegr & Teleph Corp <Ntt> 文書分類装置およびプログラム
JP2009259109A (ja) * 2008-04-18 2009-11-05 Nippon Telegr & Teleph Corp <Ntt> ラベル付与装置、ラベル付与プログラム、ラベル付与プログラムが記録された記録媒体、および、ラベル付与方法
JP2010003106A (ja) * 2008-06-20 2010-01-07 Nippon Telegr & Teleph Corp <Ntt> 分類モデル生成装置、分類装置、分類モデル生成方法、分類方法、分類モデル生成プログラム、分類プログラムおよび記録媒体
JP2011145951A (ja) * 2010-01-15 2011-07-28 Nippon Telegr & Teleph Corp <Ntt> コンテンツ自動分類装置、コンテンツ自動分類方法およびコンテンツ自動分類プログラム
JP2011154469A (ja) * 2010-01-26 2011-08-11 Nippon Telegr & Teleph Corp <Ntt> パターン抽出装置、パターン抽出方法及びプログラム
WO2012124458A1 (ja) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ 本人認証テンプレート学習システム、及び本人認証テンプレート学習方法
JP2013080395A (ja) * 2011-10-04 2013-05-02 Nippon Telegr & Teleph Corp <Ntt> 誤分類検出装置、方法、及びプログラム
JP2014507716A (ja) * 2011-01-25 2014-03-27 アリババ・グループ・ホールディング・リミテッド 分類された誤配置の識別
WO2014087506A1 (ja) * 2012-12-05 2014-06-12 三菱電機株式会社 語義推定装置、語義推定方法及び語義推定プログラム
JP2015114681A (ja) * 2013-12-09 2015-06-22 日本電信電話株式会社 キーワード付与装置、キーワード付与方法及びプログラム
JP2016024502A (ja) * 2014-07-16 2016-02-08 日本電信電話株式会社 モデルパラメータ推定装置、方法、及びプログラム
WO2017138549A1 (ja) * 2016-02-12 2017-08-17 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
CN116257800A (zh) * 2023-05-12 2023-06-13 智慧眼科技股份有限公司 一种训练样本的标注方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320370A (ja) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> 複数の識別関数の統合によるパターン認識方法
JP2002366926A (ja) * 2001-06-07 2002-12-20 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法および装置とパターン認識プログラムおよび該プログラムを記録した記録媒体
JP2003256839A (ja) * 2002-02-27 2003-09-12 Nec Corp パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
JP2004265190A (ja) * 2003-03-03 2004-09-24 Japan Energy Electronic Materials Inc 階層型ニューラルネットワークの学習方法、そのプログラム及びそのプログラムを記録した記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320370A (ja) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> 複数の識別関数の統合によるパターン認識方法
JP2002366926A (ja) * 2001-06-07 2002-12-20 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法および装置とパターン認識プログラムおよび該プログラムを記録した記録媒体
JP2003256839A (ja) * 2002-02-27 2003-09-12 Nec Corp パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
JP2004265190A (ja) * 2003-03-03 2004-09-24 Japan Energy Electronic Materials Inc 階層型ニューラルネットワークの学習方法、そのプログラム及びそのプログラムを記録した記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CSNG200501059009, 藤野 昭典, "文書の構成要素モデルのアンサンブル学習に基づくテキスト分類", 電子情報通信学会技術研究報告, 20041012, Vol.104 No.349, 第69頁乃至第74頁, JP, 社団法人電子情報通信学会 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276571A (ja) * 2007-04-27 2008-11-13 Nippon Telegr & Teleph Corp <Ntt> ラベル付与方法、ラベル付与装置、ラベル付与プログラムおよびその記憶媒体
JP2009075671A (ja) * 2007-09-18 2009-04-09 Nippon Telegr & Teleph Corp <Ntt> 文書分類装置およびプログラム
JP2009259109A (ja) * 2008-04-18 2009-11-05 Nippon Telegr & Teleph Corp <Ntt> ラベル付与装置、ラベル付与プログラム、ラベル付与プログラムが記録された記録媒体、および、ラベル付与方法
JP2010003106A (ja) * 2008-06-20 2010-01-07 Nippon Telegr & Teleph Corp <Ntt> 分類モデル生成装置、分類装置、分類モデル生成方法、分類方法、分類モデル生成プログラム、分類プログラムおよび記録媒体
JP2011145951A (ja) * 2010-01-15 2011-07-28 Nippon Telegr & Teleph Corp <Ntt> コンテンツ自動分類装置、コンテンツ自動分類方法およびコンテンツ自動分類プログラム
JP2011154469A (ja) * 2010-01-26 2011-08-11 Nippon Telegr & Teleph Corp <Ntt> パターン抽出装置、パターン抽出方法及びプログラム
JP2014507716A (ja) * 2011-01-25 2014-03-27 アリババ・グループ・ホールディング・リミテッド 分類された誤配置の識別
WO2012124458A1 (ja) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ 本人認証テンプレート学習システム、及び本人認証テンプレート学習方法
JP5698343B2 (ja) * 2011-03-16 2015-04-08 株式会社Nttドコモ 本人認証テンプレート学習システム、本人認証テンプレート学習方法及びプログラム
JP2013080395A (ja) * 2011-10-04 2013-05-02 Nippon Telegr & Teleph Corp <Ntt> 誤分類検出装置、方法、及びプログラム
WO2014087506A1 (ja) * 2012-12-05 2014-06-12 三菱電機株式会社 語義推定装置、語義推定方法及び語義推定プログラム
JP2015114681A (ja) * 2013-12-09 2015-06-22 日本電信電話株式会社 キーワード付与装置、キーワード付与方法及びプログラム
JP2016024502A (ja) * 2014-07-16 2016-02-08 日本電信電話株式会社 モデルパラメータ推定装置、方法、及びプログラム
WO2017138549A1 (ja) * 2016-02-12 2017-08-17 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
US10803358B2 (en) 2016-02-12 2020-10-13 Nec Corporation Information processing device, information processing method, and recording medium
CN116257800A (zh) * 2023-05-12 2023-06-13 智慧眼科技股份有限公司 一种训练样本的标注方法及系统
CN116257800B (zh) * 2023-05-12 2023-08-25 智慧眼科技股份有限公司 一种训练样本的标注方法及系统

Also Published As

Publication number Publication date
JP4490876B2 (ja) 2010-06-30

Similar Documents

Publication Publication Date Title
JP4490876B2 (ja) コンテンツ分類方法、コンテンツ分類装置、コンテンツ分類プログラムおよびコンテンツ分類プログラムを記録した記録媒体
Krishnan et al. Improving model calibration with accuracy versus uncertainty optimization
Delgado et al. Why Cohen’s Kappa should be avoided as performance measure in classification
Seguy et al. Large-scale optimal transport and mapping estimation
Kolouri et al. Wasserstein embedding for graph learning
Schirrmeister et al. Understanding anomaly detection with deep invertible networks through hierarchies of distributions and features
Nowak Noisy generalized binary search
EP1924926A2 (en) Methods and systems for transductive data classification and data classification methods using machine learning techniques
Frénay et al. Estimating mutual information for feature selection in the presence of label noise
Song et al. Selective zero-shot classification with augmented attributes
Yu et al. Robust calibration with multi-domain temperature scaling
US20220245422A1 (en) System and method for machine learning architecture for out-of-distribution data detection
Bonaccorso Hands-On Unsupervised Learning with Python: Implement machine learning and deep learning models using Scikit-Learn, TensorFlow, and more
Tomani et al. Parameterized temperature scaling for boosting the expressive power in post-hoc uncertainty calibration
Wu et al. Conditional mutual information-based contrastive loss for financial time series forecasting
Vieira et al. Main concepts in machine learning
Girase et al. Role of matrix factorization model in collaborative filtering algorithm: a survey
Li et al. Data-driven ranking and selection: High-dimensional covariates and general dependence
Xiang et al. Understanding propagation error and its effect on collective classification
Yoon et al. ESD: Expected Squared Difference as a Tuning-Free Trainable Calibration Measure
Liu et al. Reliable semi-supervised learning when labels are missing at random
Nikolaou et al. Calibrating AdaBoost for asymmetric learning
Fedorov et al. Multimodal sparse bayesian dictionary learning
Feng et al. Towards a Unified Analysis of Kernel-based Methods Under Covariate Shift
Ghojogh et al. Generative locally linear embedding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees