JP2004054567A - データ分類方法 - Google Patents
データ分類方法 Download PDFInfo
- Publication number
- JP2004054567A JP2004054567A JP2002210781A JP2002210781A JP2004054567A JP 2004054567 A JP2004054567 A JP 2004054567A JP 2002210781 A JP2002210781 A JP 2002210781A JP 2002210781 A JP2002210781 A JP 2002210781A JP 2004054567 A JP2004054567 A JP 2004054567A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- class
- data
- support vector
- vector machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】Kクラス分類問題10をより小規模な2クラス問題11に分割し、サポートベクトルマシンによる学習13および、出力結果17をMINユニットで結合し、データ分類を行う。分割された2クラス問題11が複雑な場合には更に小さな2クラス問題14に分割し、MIN・MAXユニット19・20による結合を経て他のモジュールと共にMINユニットによる結合を行ってもよい。
【選択図】 図2
Description
【発明の属する技術分野】
本発明は、サポートベクトルマシンを用いたデータ分類方法に関するものであり、とりわけサポートベクトルマシンにより多数のクラス分け問題を効率よく分類する技術に係るものである。
【0002】
【従来の技術】
膨大な情報量を有するデータベースにおけるデータを、複数の分類に分類するデータ分類方法は、近年の情報処理において欠かせない技術である。
あるデータの分類について、明確に分類出来るものは稀であるから、すでに的確に分類がなされた学習データを用いて学習させ、その学習結果に基づいて分類をする手法が考えられている。そして、的確な分類を高速に、低コストに行う技術は様々な情報処理の分野で望まれている。
【0003】
例えば、言語処理の分野においては、品詞タグ付け、語の多義性解消、係り受け解析など困難な数多くの課題を文脈を用いた分類問題とみなすことができるため、上記データ分類方法が必要である。
そして最近では、数多くの学習手法の中、サポートベクトルマシン(Support Vector Machine、以下、SVMと呼ぶ。)が様々な言語処理タスクに最も有効であることが実験的に証明され、自然言語処理の分野では広く用いられている。
【0004】
例えば、本件出願人らによる論文「SENSEVAL2J辞書タスクでのCRLの取り組み」(電子情報通信学会 NLC2001−40)では、機械学習手法などと共に、SVMを用いた単語多義性解消問題に対する解法を示している。
SVMは分類の数が2個のデータを扱うものであるため、この中ではペアワイズ法と呼ばれる手法を組み合わせ、単語多義性解消に必要な3個以上の分類を可能にしている。
【0005】
ペアワイズ手法とは、N個(Nは3以上)の分類をもつデータの場合、異なる2つの分類先のあらゆるペア(N(N−1)/2個)を作り、各ペア毎にどちらがよいかをSVM(他の2値分類器でもよい。)を用いて求め、最終的にN(N−1)/2個のSVMの分類先の多数決により分類先を求める方法である。
これにより、2個の分類を対象とするSVMを用いても、より多くの分類に対応する手法が提供できる。
【0006】
多数決による方法は非常にオーソドックスなやり方で構成もシンプルである反面、性能向上のために改善する余地が大きい。また、多数決といっても、「多数」の程度も性能に影響するので、その「多数」を判断する閾値をどう決めるかが問題であり、安定した性能を発揮できる手法とはなっていない。
そして従来から、少量の学習データを用いて高い性能を出せるSVMを用いつつ、大規模データに対応し、複雑なデータ分類が可能な方法が求められている。
【0007】
【発明が解決しようとする課題】
本発明は、前記従来の問題点を解決するためになされたもので、サポートベクトルマシンを用いて高性能に3以上の分類が行えると同時に、大規模データの分類が可能なデータ分類方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は上記課題の解決を図るため、次のようなデータ分類方法を創出する。
すなわち、入力するデータを3以上の数であるK個のクラスに分類するKクラス問題のデータ分類方法であって、そのKクラス問題を小規模な2クラス問題に分割する2クラス問題分割ステップ、分割された2クラス問題を正例と負例とからなる分類として1つのモジュールを構成し、各モジュール毎にサポートベクトルマシン(Support Vector Machine)による学習を行う学習ステップ、全てのモジュールにおける各学習結果に基づくサポートベクトルマシンの出力結果を、多入力値から最小値を選択するMINユニットに入力し、出力結果を結合する結合ステップ、の各ステップを少なくとも有する。
そして、該結合結果を用いて入力したデータをK個のクラスに分類することを特徴とするデータ分類方法を提供する。
【0009】
ここで、さらに次の構成をとることもできる。
上記2クラス問題分割ステップにおいて、分割された2クラス問題から構成されたモジュールの上記学習ステップにおける学習データの数が閾値以上の時に、上記2クラス問題を学習データの数が該閾値以下になるまで2クラスの部分問題に再分割を行う。又、上記の学習ステップにおいて、その部分問題については、各部分問題毎にサポートベクトルマシン(Support Vector Machine)による学習を行う。
【0010】
本構成では、学習ステップの後に、再分割前のクラス毎に、各学習結果に基づくサポートベクトルマシンの出力結果を、多入力値から最小値を選択するMINユニットに入力して各モジュールを結合すると共に、その結果を、多入力値から最大値を選択するMAXユニットにより結合するMIN−MAX結合ステップを有する。
そして、MIN−MAX結合結果を当該モジュールの出力結果とし前記結合ステップにおける処理に進むようにする。
【0011】
【発明の実施の形態】
以下、図を参照して、本発明の一実施形態について説明する。
まず、本発明に係るサポートベクトルマシン(以下、SVM)について説述する。
SVMは、空間を超平面で分割することにより2つの分類からなるデータを分類する手法である。このとき、2つの分類が正例と負例とからなるものとすると、学習データにおける正例と負例の間隔(マージン)が大きいものほどオープンデータで誤った分類をする可能性が低いと考えられ、このマージンを最大にする超平面を求め、それを用いて分類を行う。
【0012】
図1はこのときのより小さなマージンの空間と、より大きなマージンの空間を表す図である。
図中において、白点(1)は正例、黒点(2)は負例を表し、実線は空間を分割する超平面(3)を、波線はマージン領域の境界を表す面(4)を意味している。
【0013】
通常、学習データにおいてマージンの内部領域に少数の事例が含まれていてもよいとする手法の拡張や、超平面の線形の部分を非線形に拡張(カーネル関数の導入)がなされたものが用いられる。以下、カーネル関数を導入する手法について説明を続ける。
【0014】
この拡張された方法は、以下の識別関数を用いて分類することと等価であり、その識別関数の出力値が正か負かによって2つの分類を判別することができる。
SVMによる分類に関する定式化の一例について説明する。尚、ここで示す定式化は公知のものである。まず、xを2次元ベクトル、xiをi番目のサポートベクトル、Kをカーネル関数、yiは、後述するようにサポートベクトルxi(i=1,2・・・l、yi∈{1,−1})に対する期待される出力値である。bはパラメータである。
【0015】
【数式1】
【0016】
関数sgnは、数式2によって定義される。
【0017】
【数式2】
【0018】
また、各αiは数式4と数式5の制約のもと、数式3のL(α)を最大にする場合のものである。
【0019】
【数式3】
【数式4】
【数式5】
【0020】
また、カーネル関数Kは数式6のものを用いている。
【0021】
【数式6】
【0022】
ここで、C,dは実験的に設定される定数である。本実施例では例えばCを1,dを2に固定しているが、適宜設定することができる。
ここで、αi>0となるサポートベクトルxiについて、数式1の和をとっている部分は、この事例のみを用いて計算される。つまり実際の解析には学習データのうち、サポートベクトルと呼ばれる事例のみしか用いられない。
【0023】
以上に示すように、サポートベクトルマシン法は、分類の数が2個のデータを扱うもので、より多くの分類を行う場合に、従来では前記ペアワイズ手法など別の手法を組み合わせていた。
ところで、カーネル関数としては、ポリノミアル(Polynomial)、ガウシャン・ラジアル・ベイシス・ファンクション(Gaussian Radial Basis Function)、エクスポネンシャル・ラジアル・ベイシス・ファンクション(Exponential Radial BasisFunction)、マルチレイヤー・パーセプション(Multi−Layer Perception)、フーリエー・シリーズ(Fourier Series)、スプライン(Splines)、ビースプライン(Bsplines)、アディティブ・カーネル(Additive Kernels)、テンソル・プロダクト・カーネル(Tensor Product Kernels)等の関数を用いることもできる。
【0024】
次に、本発明の要部について説述する。
図2には、従来のペアワイズ手法のように多数決によって最終解を出すのではなく、MINユニット、MAXユニットなどを組み合わせて好適な最終解を出すことのできる本発明による手法のフローチャートを示す。
【0025】
本発明では、まずKクラス問題(10)が与えられたとき、2クラス問題に分割(11)する。2クラス問題は正例と負例とからなる分類として1つのモジュールを構成する。
分割後の2クラス問題について、学習データの数がある閾値よりも大きいか否かを調べ(12)、妥当な学習データの数である場合には、SVMを用いた学習ステップ(13)に進み、学習データの数が多すぎる場合には更に小さな2クラス問題に再分割(14)する。
再分割(14)された適正な規模の2クラス問題は、SVMによる学習ステップ(15)において学習に用いられる。
【0026】
以上によって学習されたSVMに、分類すべきデータ(16)を入力し、それぞれ結果を出力(17)(18)する。
ここで、出力結果(18)については、再分割前のクラス毎(再分割前の2クラス問題毎)に、多入力値から最小値を選択するMINユニットに入力して各モジュールを結合(19)すると共に、さらにその結果を、多入力値から最大値を選択するMAXユニットにより結合(20)する。
【0027】
最後にすべてのモジュールをMINユニットによって結合(21)する。以上の流れが本発明による複数のクラス分け問題をSVMを用いて解決する手法であって、このMINユニットからの出力結果に基づき、任意の方法でデコードし、データ分類(22)を行うことができる。
【0028】
この手法を言語処理に用いる一例として、タイ語の品詞のタグ付けに用いる例を示す。もちろん、本発明が品詞のタグ付け問題に用いられることに限定されるものではなく、タイ語は日本語や英語に比べて品詞のタグ付けが困難と考えられるために用いたに過ぎない。
ここで、8322文のタイ語コーパス(品詞を正しく分類してある)をSVMにおける学習に用い、タイ語による2130文のテスト文で品詞分類を試みる。学習用文には124331個の単語(そのうち、22311個が品詞タグ付けの学習に用いられる多品詞語)、テスト文では34544個の単語(これは実験用にあらかじめ6717個の多品詞語が含まれることが分かっている。)をそれぞれ含む。
【0029】
従って、SVMにおける学習では多品詞語のみを学習に用いた。タイ語における品詞は47種類が定義されているが、ここでは学習用文における38種類を対象とする。ここで、品詞は本発明におけるクラスに相当するので、品詞タグ付け問題はクラス分け問題と同義になる。以下、38クラスのクラス分け問題であると考えて実施例を説明する。
【0030】
38クラス問題は、本発明によりまず一意的に2クラス問題に分割する。分割方法は次の通りである。
Kクラス問題に関する学習データの集合をTで表す。すなわち、
【0031】
【数式7】
【0032】
ここにX1IRnは入力ベクトル、YlIRKは所要の出力、およびLは学習データの個数を表す。一般にKクラス問題は、次の数式8に示されるように、いずれも2クラス問題へ分解することが出来る。
【0033】
【数式8】
ここに、εは小さな正数であり、Xl (i)およびXl (j)はCiおよびCjに属する入力ベクトルである。
【0034】
数式8により、38クラス問題は、K×(K−1)=38×37=1406個の2クラス問題に分割される。これにより、SVMを用いることができるようになるが、実際には各2クラス問題により、学習データの数が大きくことなるため、一定以上データ数が多い複雑な2クラス問題については、さらに小規模な2クラス問題に分割することを試みる。
【0035】
次の表1は学習用文に表れる22311個の多品詞語と、テスト文に表れる6716個の多品詞語の各クラス(1〜38)に属する数の分布である。
【0036】
【表1】
【0037】
表1からも明らかな通り、最も小さな2クラス問題(T36,38)は学習データ数が2+1=3個であるのに対し、最も大きな2クラス問題(T6,8)は学習データ数が3008+3197=6205個ある。
これを更に分解するために次の方法による。
【0038】
すなわち、各クラスに属する入力ベクトルの大集合、たとえばXl (i)(数式8参照)を、まず無作為法によってNi(1≦Ni≦Li)個の部分集合χijに分解する。すなわち、
【0039】
【数式9】
ここに、Li (j)は部分集合χij内の入力ベクトルの個数である。
【0040】
このような部分集合を使用すれば、数式8で定義される2クラス問題を、次のNi×Nj個の小規模かつ簡単な問題へ再分割することが出来る。
【0041】
【数式10】
ここに、Xl (iu)IχiuおよびXl (jv)Iχjvは、それぞれCiおよびCjに属する要素である。
【0042】
したがって、数式8によって定義される2クラス問題が、数式10によって定義される問題へすべて再分割されれば、当初のKクラス問題は数式11で表される個数の2クラス問題に分解可能である。
【0043】
【数式11】
【0044】
以上の方法を当てはめ、例えば表1から学習データ数が481(C10)を超える12のクラスのデータを組み合わせ、例えばデータ数が300を超えないように再分割する。
ここで、481や300は任意に設定できる閾値であり、収束性とモジュール数のトレードオフを考慮して適宜決めることができる。モジュール数が多くてもよいから収束をスピードアップしたければ値をより小さく設定すればよく、逆の場合には値を大きく設定すればよい。本発明の実施において、これら閾値は諸条件に合わせて最適な値を選ぶことができる。
【0045】
この結果、それらのクラスを含む2クラス問題Ti,jは数式10に定義されたNi×Njの2クラス問題に再分割される。Ni、NjはそれぞれクラスCiとクラスCjに属する学習データが分割されたサブセットの数であり、本実施例では表2のようになった。表中に示さないクラスはサブセット数が1のもの(再分割しないクラス)である。
【0046】
【表2】
【0047】
例えば、T1,3はN1×N3=10×5=50個の部分問題に分割され、T2,7のような2クラス問題はN2×N7=1×1=1で再分割されないことが分かる。
以上のような再分割を経ると、本実施例におけるタグ付け問題は、数式11より適正な規模の3893個の2クラス問題に分割できる。
【0048】
ここまでの処理による2クラス問題をSVMによる学習、分類に用いる。図3には数式8による2クラス問題への分割(11)及び、図4には数式11による再分割(14)により構成されたモジュールを結合するまでのブロック図をそれぞれ示す。
【0049】
図3において例えばM1,2はC1及びC2に属する学習データに分割された2クラス問題のモジュール(30)(30)・・であり、N1×N2=10個の部分問題に分割され、M1,3は前述のとおり50個の部分問題に分割される。
その結果、図4のように更に小規模な2クラス問題のモジュール(40)(40)・・に分割される。
【0050】
本発明では全てのモジュール(30)(40)毎にSVMによる学習を行う。SVMによる学習・分類は前述した通り公知の技術を用いるが、本実施例では数式1におけるxは分類する多品詞語の集合を、xiとyiはそれぞれ学習用文における多品詞語の集合と、分類先の品詞を意味する。
【0051】
学習用文の入力により学習済みのSVMに分類するテスト文(16)を入力し、その結果を結合する。結合には、MIN、MAXと呼ぶユニットを使用する。ここでは、2クラス問題Tij(数式8)および再分割後の2クラス問題Tij (u, v)(数式10)に関するモジュール(30)(40)を、それぞれ記号MijおよびMij (u, v)で表す。
図2におけるMINユニットによる結合(21)は全てのモジュール(30)について行う。MINユニット(31)(31)・・は多入力値から最小値を選択するユニットであり、次の操作を行う。
【0052】
【数式12】
【0053】
ここでは、便宜上MIN単位の記号によってその出力を表し、モジュールの記号によってその出力を表す。かくてMIN単位の出力値K個による出力ベクトルY={y1,y2,・・・y38}を得る。
【0054】
本実施例において、Yは以下のようにデコードする。τ(wt)は単語wtへの品詞タグ付け結果を、τiは分類先の品詞である。
【0055】
【数式13】
【0056】
一方、再分割後の2クラス問題Tij (u, v)へ分解する場合は、モジュールMij (u, v)を、まずMINユニット(41)(41)・・と組み合わせる。これは図2におけるMINユニットによる結合(19)の処理である。すなわち、
【0057】
【数式14】
そして、モジュールMijは、多入力値から最大値を選択するMAXユニット(42)を用いて構成される。これは図2におけるMAXユニットによる結合(20)の処理である。すなわち、
【0058】
【数式15】
このようにして構成されたMijをモジュール(30)として上記MINユニットによる結合(21)に入力する。
【0059】
本発明は以上のように構成され、本来2クラスの分類処理を行うSVMを用いて、例えば品詞のタグ付けなど、多数のクラス分け問題にも適用可能な分類方法を提供する。
上記実施例において、数式8による2クラス問題への分割(11)後、複雑なものを2クラス問題に再分割(14)しているが、本発明の実施においてはかならずしも再分割のステップは設ける必要はなく、すべての学習データ・テストデータについて、図2における、(10)(11)(13)(17)(21)のステップから構成する分類方法でもよい。
【0060】
【発明の効果】
本発明によれば、大規模な学習問題をいくらでも小規模問題に分割できるので、どのような大規模な問題にも対処できる。本来2クラス問題に対応するサポートベクトルマシンを用いることができると同時に、大規模な学習データを学習することによってシステムのさらなる性能向上が期待できる。
【0061】
また、個々のモジュールはそれぞれ独立に学習できるため、並列計算機を用いれば学習が高速に行えるため、本発明によるデータ分類方法は、処理の高速化が可能な方法である。
【0062】
さらに、本発明によれば、Kクラス問題は2クラス問題をMINユニット及びMAXユニットで結合して解決するため、従来の問題であった多数決の問題を解決でき、導入するシステムのさらなる性能向上に寄与する。
【図面の簡単な説明】
【図1】サポートベクトルマシン法におけるマージンの説明図である。
【図2】本発明に係るデータ分類方法のフローチャートである。
【図3】本発明に係るモジュールの結合方法を説明する説明図である。
【図4】本発明に係るモジュールの結合方法を説明する説明図である。
【符号の説明】
10 Kクラス分類問題
11 2クラス問題に分割するステップ
12 学習データの数を判定するステップ
13 SVMにおける学習のステップ
14 更に小さな2クラス問題に分割するステップ
15 SVMにおける学習のステップ
16 分類するデータ
17 SVMの出力結果を出力をするステップ
18 SVMの出力結果を出力をするステップ
19 MINユニットによる結合のステップ
20 MAXユニットによる結合のステップ
21 MINユニットによる結合のステップ
Claims (2)
- 入力するデータを3以上の数であるK個のクラスに分類するKクラス問題のデータ分類方法であって、
該Kクラス問題を小規模な2クラス問題に分割する2クラス問題分割ステップ、
分割された2クラス問題を正例と負例とからなる分類として1つのモジュールを構成し、各モジュール毎にサポートベクトルマシン(Support Vector Machine)による学習を行う学習ステップ、
全てのモジュールにおける該学習結果に基づくサポートベクトルマシンの出力結果を、多入力値から最小値を選択するMINユニットに入力し、出力結果を結合する結合ステップ、
の各ステップを少なくとも有し、
該結合結果を用いて入力したデータをK個のクラスに分類する
ことを特徴とするデータ分類方法。 - 前記2クラス問題分割ステップにおいて、
分割された2クラス問題から構成されたモジュールの前記学習ステップにおける学習データの数が閾値以上の時に、
当該2クラス問題を学習データの数が該閾値以下になるまで2クラスの部分問題に再分割を行うと共に、
前記学習ステップにおいて、
該部分問題については、各部分問題毎にサポートベクトルマシン(Support Vector Machine)による学習を行い、
再分割前のクラス毎に、該学習結果に基づくサポートベクトルマシンの出力結果を、多入力値から最小値を選択するMINユニットに入力して各モジュールを結合すると共に、その結果を、多入力値から最大値を選択するMAXユニットにより結合するMIN−MAX結合ステップを有し、
該MIN−MAX結合結果を当該モジュールの出力結果とし、
前記結合ステップにおける処理に進む
ことを特徴とする請求項1に記載のデータ分類方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002210781A JP2004054567A (ja) | 2002-07-19 | 2002-07-19 | データ分類方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002210781A JP2004054567A (ja) | 2002-07-19 | 2002-07-19 | データ分類方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004054567A true JP2004054567A (ja) | 2004-02-19 |
Family
ID=31934194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002210781A Pending JP2004054567A (ja) | 2002-07-19 | 2002-07-19 | データ分類方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004054567A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007095069A (ja) * | 2005-09-28 | 2007-04-12 | Nec Lab America Inc | 分散カーネル・サポート・ベクトル・マシン |
CN102306144A (zh) * | 2011-07-18 | 2012-01-04 | 南京邮电大学 | 一种基于语义词典的词语消歧方法 |
JP7483431B2 (ja) | 2020-03-19 | 2024-05-15 | 日産自動車株式会社 | データ分類装置、データ分類方法、およびプログラム |
-
2002
- 2002-07-19 JP JP2002210781A patent/JP2004054567A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007095069A (ja) * | 2005-09-28 | 2007-04-12 | Nec Lab America Inc | 分散カーネル・サポート・ベクトル・マシン |
CN102306144A (zh) * | 2011-07-18 | 2012-01-04 | 南京邮电大学 | 一种基于语义词典的词语消歧方法 |
JP7483431B2 (ja) | 2020-03-19 | 2024-05-15 | 日産自動車株式会社 | データ分類装置、データ分類方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107949841B (zh) | 提问应答系统的训练装置以及存储介质 | |
CN112711953B (zh) | 一种基于注意力机制和gcn的文本多标签分类方法和系统 | |
US10963685B2 (en) | Generating variations of a known shred | |
US20170076152A1 (en) | Determining a text string based on visual features of a shred | |
CN111859983B (zh) | 基于人工智能的自然语言标注方法及相关设备 | |
WO2006095853A1 (ja) | 学習処理方法、学習処理装置、および、プログラム | |
CN110347791B (zh) | 一种基于多标签分类卷积神经网络的题目推荐方法 | |
CN106503616A (zh) | 一种基于分层超限学习机的运动想象脑电信号分类方法 | |
Jarvis | Data mining with learner corpora | |
CN107391565B (zh) | 一种基于主题模型的跨语言层次分类体系匹配方法 | |
CN110717013B (zh) | 文档的矢量化 | |
Varela et al. | Selecting syntactic attributes for authorship attribution | |
Castellanos et al. | Prototype generation in the string space via approximate median for data reduction in nearest neighbor classification | |
Athavale et al. | Predicting algorithm classes for programming word problems | |
CN112446205A (zh) | 语句判别方法、装置、设备及存储介质 | |
CN111723206A (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
JP2004054567A (ja) | データ分類方法 | |
Kim et al. | Multi class adult image classification using neural networks | |
CN114896404A (zh) | 文档分类方法及装置 | |
Jothi et al. | Machine learning approach to document classification using concept based features | |
Shafi et al. | Urdu character recognition: A systematic literature review | |
CN112529743A (zh) | 合同要素抽取方法、装置、电子设备及介质 | |
Dimililer et al. | Vote-based classifier selection for biomedical NER using genetic algorithms | |
Sabahi et al. | Hopfield network-based image retrieval using re-ranking and voting | |
Islam et al. | Natural Language Processing and Machine Learning Approaches to Detect Bangla Hate Speech on Social Media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20020719 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20040416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060320 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060412 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060612 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20060614 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060713 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20060804 |