JP2008217589A - 学習装置及びパターン認識装置 - Google Patents

学習装置及びパターン認識装置 Download PDF

Info

Publication number
JP2008217589A
JP2008217589A JP2007056088A JP2007056088A JP2008217589A JP 2008217589 A JP2008217589 A JP 2008217589A JP 2007056088 A JP2007056088 A JP 2007056088A JP 2007056088 A JP2007056088 A JP 2007056088A JP 2008217589 A JP2008217589 A JP 2008217589A
Authority
JP
Japan
Prior art keywords
identification
information
region
local
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007056088A
Other languages
English (en)
Inventor
Hiroshi Hattori
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007056088A priority Critical patent/JP2008217589A/ja
Priority to US12/040,993 priority patent/US20080219565A1/en
Publication of JP2008217589A publication Critical patent/JP2008217589A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】識別性能を向上させるパターン認識装置を提供する。
【解決手段】パターン認識装置50は、局所特徴計算部52、入力部54、特徴量子化部56、識別部58、統合部60、最終識別部62、出力部64から構成され、参照ウィンドウ内の部分画像から得られる局所特徴に加えて、近傍ウィンドウの予測ラベルから空間的な配置に関する配置特徴を研鑽し、これらの複数の特徴の中から識別に有効な組合せを逐次選択する。
【選択図】 図2

Description

本発明は、入力画像から特定のパターンを検出したり、入力画像を既知の識別クラス毎に領域分割するための学習装置及びパターン認識装置に関する。
入力画像に含まれる特定のパターンを検出したり、複数のパターンを既知のクラスに識別する技術は、パターン認識(あるいは識別)技術と呼ばれる。
パターン認識は、まず帰属クラスが既知のサンプルデータをうまく識別できるような識別関数を学習することが必要となる。そうした学習方式の1つであるAdaBoostでは、識別性能の低い識別器(弱識別器)を複数個学習し、それらを統合することにより高い識別性能を持つ識別器(強識別器)を構成する。AdaBoostによるパターン認識は、認識性能が高く、かつ、計算コストも実用的であることから広く用いられている(例えば、非特許文献1参照)。
非特許文献1の方法では、識別に用いる特徴量としては、高速に計算可能な複数の矩形領域の明度差を採用し、各弱識別器は単一の特徴量に基づいて識別を行う。
各弱識別器につき単一の特徴量を用いると、特徴同士の相関を有効に評価できず識別性能が低くなる場合があるが、特願2005−54780では、各弱識別器で複数の特徴の組合せに基づいて識別を行う方法が開示されている。
P.Viola and M.Jones,「Rapid Object Detection using a Boosted Cascade of Simple Features 」, IEEE conf. on Computer Vision and PatternRecognition (CVPR),2001
上記の2つの方法を含む従来方法では、入力画像に所定の大きさの矩形(参照ウィンドウと呼ぶ)を設定し、参照ウィンドウ内の部分画像から計算される特徴量を用いて識別を行う。このため、極めて局所的な情報から識別することになり識別性能が上がらない場合がある。また、識別に有用と考えられる近傍の点の識別結果は従来方式では考慮されていない。さらに、一般の物体認識を考えると、「机の近くには椅子があることが多い」、といった識別に有効と考えられる識別クラス間の相互関係を上記の方法では組み込むことができず、識別精度の向上に限界があるという問題点がある。
そこで本発明は上記問題点に鑑み、識別性能を向上させる学習装置、及び、その学習装置を用いて得られた識別器を用いたパターン認識装置を提供することを目的とする。
本発明は、対象画像の中の領域の画像が属する識別クラスを識別するための複数の弱識別器を生成する学習装置において、
学習のための複数のサンプル画像を格納するサンプル画像蓄積部と、
前記各サンプル画像の分割された領域の局所画像毎に、前記局所画像の識別に用いる一または複数の局所情報をそれぞれ計算する局所情報計算部と、
前記複数の弱識別器の中の一つの弱識別器を前記複数のサンプル画像の前記各局所情報を用いて生成する弱識別器生成部と、
を有し、
前記弱識別器生成部は、
(A)(1)前記サンプル画像の複数の領域の中の注目する一つの注目領域と、前記 注目領域の周囲にある一または複数の周囲領域との位置関係情報、及び、
(2)前記周囲領域に対する予め格納、または、予め識別された識別クラス、を用いて、前記注目領域の周囲にある前記周囲領域の識別クラスの配置を表す配置情報を前記注目領域毎にそれぞれ計算する配置情報計算部と、
(B)前記一または複数の局所情報と前記配置情報とを組み合わせた複数の組合せ情報の中から、一つの組合せ情報を選択する組合せ情報選択部と、
(C)前記組合せ情報に基づいて、前記一つの弱識別器の識別パラメータを計算する識別パラメータ計算部と、
を有する学習装置である。
また、本発明は、対象画像の中の領域が、複数の識別クラス中のどの識別クラスに属するかを複数の弱識別器を用いて識別するパターン認識装置において、前記対象画像を入力する入力部と、前記対象画像の中の領域毎に識別に用いる局所情報を計算する局所情報計算部と、前記対象画像の複数の領域の中で注目する一つの注目領域の周囲にある一または複数の周囲領域の推定識別クラスと、前記注目領域と前記周囲領域の位置関係情報とに基づいた配置情報を前記注目領域毎に計算するT個(但し、T>=2である)の配置情報計算部と、前記T個の配置情報計算部のそれぞれに対応して設けられ、前記対象画像の領域毎の前記局所情報と前記対応する配置情報計算部から入力された配置情報とに基づいて、どの識別クラスであるかを前記領域毎に識別するT個の弱識別器と、前記T個の弱識別器からそれぞれ出力された前記領域毎の出力値に基づいて、前記領域毎の最終的な識別クラスを求める最終識別部と、を有するパターン認識装置である。
本発明によれば、従来より精度の高いパターン認識が可能である。言い換えれば、従来よりも低い計算コストで同等の性能を得ることができる。
以下で図1〜図6を参照しながら、本発明の一実施形態の学習装置10、及びその学習装置10で生成した識別器を用いたパターン認識装置50を説明する。
なお、本実施形態では2クラスの識別問題、例えば、車に搭載した画像から、道路領域を抽出する問題、すなわち、入力画像を対象画像として、この対象画像に写っている道路と非道路とを2つの領域に分割する問題を想定している。
まず、学習装置10について説明し、次に、パターン認識装置50について説明する。
(学習装置10)
本実施形態の学習装置10について図1、図3〜図6を参照して説明する。
学習装置10は学習アルゴリズムとしてAdaBoostを採用する。AdaBoostは逐次的に学習サンプルの重みを変化させながら異なる識別器(弱識別器と呼ぶ)を生成し、これら複数の弱識別器を組合せて精度の高い識別器(強識別器と呼ぶ)を構成する学習方法である。
(1)学習装置10の構成
図1は、学習装置10のブロック図である。
学習装置10は、図1に示すように、データ蓄積部12、重み初期化部14、局所特徴計算部16、配置特徴計算部18、弱識別器選択部20、記憶部22、重み更新部24を備えており、弱識別器選択部20はさらに量子化部26、組合せ生成部28、確率分布計算部30、組合せ選択部32から構成される。
各部12〜32の各機能は、コンピュータの記録媒体に格納されたプログラムによっても実現可能である。
なお、数1から数12ではベクトル量を太字で表し、スカラー量を標準字で表すが、明細書では太字は表現できないため、ベクトル量を示すときは、「ベクトルx」「ベクトルl」「ベクトルg」のように表現する。また、スカラー量は「x」「y」「i」「l」のように表現する。
(2)データ蓄積部12
データ蓄積部12は認識対象が含まれるサンプル画像を多数格納する。例えば、道路が撮影されている画像をサンプル画像として格納する。
ここでは切り出された部分画像をクラス毎に保存するのではなく、元画像をサンプル画像として保持する。サンプル画像には通常、複数の識別対象が混在しているため、各点(各画素)がどの識別クラスに属するかを示すクラスラベルを輝度と共に蓄積しておく。各点のクラスラベルは適当な手段で与える。例えば手動で与える。
以下の説明においては、データ蓄積部12に蓄積されたサンプル画像から得たN個の学習サンプル(ベクトルx,y),(ベクトルx,y)・・・,(ベクトルx,y)を訓練データとして、これらに付加した重みを変化させながらT個の弱識別器h(ベクトルx),h(ベクトルx),・・・,h(ベクトルx)を逐次学習し、学習した弱識別器で構成される強識別器H(ベクトルx)を求めるものとする。
ここでiは全サンプル画像の各点に通して割り当てられたインデックス番号であり、ベクトルx( i=1,2,・・・,N)は後に説明する特徴ベクトル、y( i=1,2,・・・,N)はそのクラスラベルである。2つの識別クラスのラベルを−1、+1とすると、y( i=1,2,・・・,N)が取り得る値は−1または+1であり、各弱識別器、強識別器の出力値はいずれもクラスラベルであるから、これらの取り得る値も−1か+1である。
(3)重み初期化部14
重み初期化部14は個々の学習サンプルの重みを初期化する。この重みとは、一つの弱識別器で識別する場合に学習サンプルの重要度を表す係数である。
例えば、全ての学習サンプルに対して均一な重みを設定する場合には、i番目の学習サンプルの重みは、

(i)=1/N (1)

により与えられる。この重みは第1の弱識別器h(ベクトルx)を学習する際に用いられ、後に説明する重み更新部24で逐次更新される。
(4)局所特徴計算部16
局所特徴計算部16は、データ蓄積部12に蓄積されたサンプル画像上の点毎に、その点を中心とする図4に示すような矩形ウィンドウを用いて、パターン認識に必要な局所情報である複数の局所特徴を抽出する。
ここで計算する局所特徴は、その点の2次元の画像座標(u,v)、ウィンドウ内の輝度平均、ウィンドウ内の輝度分散、ウィンドウ内の輝度勾配の平均、ウィンドウ内の輝度勾配の分散、その他、識別に有効と予想される特徴量を計算する。
後に説明する識別処理で、ある特徴が識別にとって無効であると分かれば、パターン認識装置50ではその特徴の計算を省けばよいので、ここでは識別に有効である可能性のある特徴量をできるだけ多く計算する。
その特徴の総数をL個とし、これらをまとめてL次元ベクトルlは、

ベクトルl=(l,l・・・l) (2)

で表す。このベクトルを局所特徴ベクトルと呼ぶ。局所特徴計算部16は、データ蓄積部12に蓄積された全ての画像の各点iに対してlを計算し、N本の局所特徴ベクトルを出力する。
(5)配置特徴計算部18
配置特徴計算部18は、データ蓄積部12に蓄積されたサンプル画像上の画素毎、すなわち、点毎に配置情報である配置特徴を計算する。配置特徴とは、上記従来の問題点で説明したように局所的な情報だけでは識別精度の向上に限界があるため、注目点を中心としてその周囲の領域の識別クラスに関する情報も前記注目点の識別に用いるものである。言い換えれば、配置情報、すなわち、配置特徴とは、注目点の周囲の領域の識別クラスを特定している。
配置特徴は各点の近傍の点のクラスラベルから計算する。図3を用いて配置特徴を説明する。
図3左に4近傍の配置特徴の例を示す。4近傍の配置特徴は注目点の上下左右のクラスラベルから計算する。クラスラベルは−1か+1であるが、配置特徴計算部18においては処理の簡単化のため−1を0と置き換える。この例では(1100)=12が4近傍の配置特徴量となる。
図3右は8近傍の配置特徴の例であり、この場合の配置特徴量は(01100101)=109となる。
識別クラス数が2の場合の4近傍及び8近傍の配置特徴量は各々4ビット、8ドット階調で表現される。一般化すると識別クラス数がNの場合には、F近傍配置特徴量はF桁のN進数で表現される。
なお、同一の配置であっても0と1をどの順序で2進数表現するかによって値が異なる。例えば、図3の4近傍配置特徴量は(上左右下)の順序で2進表現しているが、この順序を変えると値が異なる。このため、各配置に対して予め定めた順序を用いることとし、パターン認識装置50においても同一の順序を用いる。この順序が位置関係、すなわち、配置を特定している。
配置特徴計算部18は上記の4近傍や8近傍などのG種類の配置特徴量を計算する。これらG個の配置特徴量をまとめてG次元の配置特徴ベクトルgは、

ベクトルg=(g,g・・・g) (3)

で表す。
配置特徴計算部18では、データ蓄積部12に蓄積された画像の各点iに対してgを計算する。
なお、ここでは4近傍と8近傍の例を説明したが、上下や左右の2点で配置特徴を定義したり、上や下の1点だけで定義してもよい。また、配置を定義する点が自身の近傍に限定される必要もなく任意の配置であってよい。
局所特徴計算部16で計算した局所特徴ベクトルと、配置特徴計算部18で計算した配置特徴ベクトルをまとめて、

ベクトルx=(ベクトルl,ベクトルg)
=(l,l・・・l,g,g・・・g
=(x,x・・・x) (4)

とし、このd次元のベクトルxを特徴ベクトルxと呼ぶ。なお、d=L+Gである。ベクトルxとそのクラスラベルy(識別クラスの真値)を合わせた(ベクトルx,y)が前記した学習サンプルである。
なお、上記では配置特徴計算の際に学習サンプルに与えられたクラスラベルを用いたが、既に求められた弱識別器によって推定されるクラスラベルy を用いることもできる。例えば、t番目の弱識別器の学習を開始する時点で1,2,・・・t−1番目の弱識別器は既知であるから、それらの弱識別器から学習サンプルのベクトルxのクラスラベルy を推定し、
Figure 2008217589
(i=1,2,・・・,N)を用いて配置特徴を計算して、t番目の弱識別器の学習の際に用いてもよい。クラスラベルy(i=1,2,・・・,N)は定数であるが、予測ラベルy (i=1,2,・・・,N)は学習の過程で変化する。
なお、予測ラベルy (i=1,2,・・・,N)はそれまでに学習した弱識別器を用いるので第1の弱識別器を学習する際には用いることはできない。
(6)弱識別器選択部20
弱識別器選択部20は、図1に示すように、量子化部26、組合せ生成部28、確率分布計算部30、組合せ選択部32から構成され、N個の学習サンプルのベクトルx(i=1,2,・・・,N)とそれに付加された重みD(i)を考慮して、弱識別器h(ベクトルx)を選択する。以下その詳細について説明する。
(6−1)量子化部26
量子化部26でまず最初に各特徴量(特徴ベクトルの各要素)の確率分布を識別クラス毎に求める。この確率分布は学習サンプルの個数ではなく、重みに基づいて計算する。図5に確率分布の例を示す。1本の曲線が1つの識別クラスの確率分布に対応しており、本実施形態では2クラスの識別問題を想定しているので、1つの特徴に対して2つの確率分布を求めることとなる。
次に、この確率分布に基づいて各特徴量を量子化する。識別誤り率を最小にする閾値を1つ求めて2段階に量子化する場合を示す。識別誤り率は、確率分布をある閾値で分割した時の狭い方の領域(図5でクラス1の分布では点線で示した閾値の右側の領域、クラス2の分布では左側の領域)の面積に一致するので、それら2つの面積の和が最小となる境界を求める。
このようにして求めた閾値を用いて、各特徴量を量子化する。すなわち、各特徴量が閾値よりも小さい場合は0、大きい場合は1というように閾値に対する大小関係を表す符号で特徴量を置き換える。
なお、ここでは1つの閾値と大小関係によって量子化する方法について説明したが、2つの閾値で上限と下限を設定し、その範囲内ならば0、それ範囲外ならば1、等としてもよい。また3つ以上の段階で量子化してもよい。
(6−2)組合せ生成部28
組合せ生成部28では特徴の組合せを生成する。
組合せを生成する方法としては、まず第1に、全ての組合せを生成する方法が考えられる。この場合の組合せの総数Kは、全部でd個の特徴から1,2,・・・,d個の特徴を抽出して得られる組合せの総数なので次式で与えられる。
Figure 2008217589
この組合せの総数Kは、特に特徴数dが大きい場合に非常に大きな数字となり、大幅に計算回数が増加する。これを回避するための何個かの特徴を組み合わせるかを予め決めておいたり、組み合わせる特徴の数に上限や下限を設定しておいてもよい。また、量子化部26で各特徴量を符号化する際に識別誤り率が求められているので、これに基づいて特徴量を識別性能が高い(識別誤り率が低い)順にソートし、識別性能が高い特徴を優先的に用いて一定数の組合せを生成してもよい。
(6−3)確率分布計算部30
確率分布計算部30では、組合せ生成部28で生成したK種類の特徴の組合せ各々から組合せ特徴量を求め、組合せ特徴量の確率分布を識別クラス毎に求める。
K個の特徴の組合せをc(k=1,2,・・・,K)とし、各cについて下記の計算を行う。
(6−3−1)ステップ1
の構成要素がf個の特徴量v,v,・・・vであるとする。これらf個の特徴量は量子化部26で量子化された符号である。各々異なる段階で量子化されている可能性があるが、説明の簡素化のため全て2段階で量子化されているものとする。この場合、全ての特徴量は0か1の2値符号であるから、そのf個の組合せはfビット階調のスカラー量φで表現できる。このスカラー量φを組合せ特徴量と呼ぶ。
Figure 2008217589
(6−3−2)ステップ2
組合せ特徴量φの確率分布を識別クラス毎に求める。本実施形態では識別クラス数は2だから2つの分布W (φ),W (φ)を次式により求める。
Figure 2008217589
(6−3−3)ステップ3
(φ),W (φ)は各々全体の総和が1になるように正規化しておく。
図6上の確率分布の例を示す。ある組合せ特徴量φが得られた時、この確率分布を参照することによって(つまりW (φ)とW (φ)の大小関係によって)、特徴量φがどちらかのクラスに属する確率が高いかを判定することができる。
なお、2つの確率分布から、図6下に示すような比較結果(クラスラベル)をテーブルとして作成してもよい。以下ではこれを比較テーブルと呼び、W (φ)と表現する。
(6−4)組合せ選択部32
組合せ選択部32では、生成されたK種類の組合せ各々の識別誤り率を求め、識別誤り率が最小となる組合せとして選択する。
Figure 2008217589
但し、h(x)=sign(W (φ)−W (φ))である。
(7)記憶部22
記憶部22は学習が終了した弱識別器に関する識別パラメータを逐次記憶する。
具体的には、特徴量の量子化の際に用いた閾値、選択された特徴量の組合せc、及びその確率分布W (φ),W (φ)等が識別パラメータとなる。また、識別パラメータとして、比較テーブルW (φ)を記憶してもよい。
以下ではt番目の弱識別器に対応する識別パラメータという意味でc,W (φ)−W (φ),W (φ)と表記する。
(8)データ重み更新部24
データ重み更新部24では各学習サンプルの重みを更新する。i番目の学習サンプル(x,y)の重みは次式により与えられる。
Figure 2008217589
αは次式により与えられる。
Figure 2008217589
Figure 2008217589
で与えられる。また、Zは重みの総和を1とするための正規化係数であり、次式により与えられる。
Figure 2008217589
(i)の初期値D(i)は式(1)で求められている。
重み更新部24が、弱識別器h(x)によって正しく識別されなかったサンプルデータの重みを大きく、正しく認識されたデータに対しては重みを小さくすることにより、次の弱識別器ht+1(x)が前回識別できなかったサンプルデータに対する識別性能が高いものとなり、これら複数の弱識別器を統合することで全体として高性能の識別器を得る。最終的な識別器はT個の弱識別器h(x)(t=1,2,・・・,T)を式(11)で与えられる信頼度αで重み付けて多数決をとった
Figure 2008217589
となる。
(パターン認識装置50)
次に本実施形態のパターン認識装置50について図面を参照して説明する。
(1)パターン認識装置50の構成
図2は、本実施形態におけるパターン認識装置50のブロック図を示すもので、局所特徴計算部52、入力部54、特徴量子化部56、識別部58、統合部60、最終識別部62、出力部64から構成されている。
図2の点線矩形内の、複数の特徴量子化部56と識別部58をまとめて弱識別器66と呼び、上から順に第1弱識別器66−1、第2弱識別器66−2、・・・、第T弱識別器66−Tとする。ここで符号66を付けて弱識別器を説明する場合は装置の意味であり、h(x)を付けて弱識別器を説明する場合は識別関数としての意味である。これらの弱識別器h(x)は前述の学習装置10により学習されたものであり、処理の際に必要な閾値等の識別パラメータは既に求められているものとする。
(2)局所特徴計算部52
局所特徴計算部52は、入力された画像上を原点位置から所定のステップ幅で走査し、各点に対して局所特徴を求める。この局所特徴は、前述の学習装置10の局所特徴計算部16で用いたL個の局所特徴l,l・・・lと同一のものである。学習装置10と同様にL次元のベクトルlは、

ベクトルl=(l,l・・・l) (15)

と表記する。
この局所特徴ベクトルlは入力画像上で識別を行う点毎に計算するものであり、識別を行う点がN個存在する場合には、N本の局所特徴ベクトルl(i=1,2,・・・,N)が局所特徴計算部52から出力される。
なお、これらの特徴に基づいて識別計算を行うが、L個の局所特徴の中に、どの弱識別器においても使われない特徴が存在する場合には、その特徴は識別にとって無効であり、以下の処理では不要であるので計算せず、適当なデフォルト値を代入しておく。これにより計算コストを削減することができる。
(3)入力部54
入力部54は、図2に示すように各弱識別器66に対して備えられており、局所特徴計算部52で計算したN本のL次元局所特徴ベクトルlと、統合部60で算出されるG次元の配置特徴ベクトルgを各弱識別器66にそれぞれ入力する。
配置特徴ベクトルgは基本的には前述の学習装置10で使用したものと同一であるが、パターン認識装置50では後に説明する統合部60で算出される。
学習装置10では各学習サンプルのクラスラベルが既知であるから、その既知ラベルから配置特徴を計算することもできたが、パターン認識装置50においてはクラスラベルが未知であるから、逐次推定されるラベルを用いて配置特徴を計算する。これら2種類のベクトルはいずれもN本生成されており、各々から1本ずつ入力していく。学習装置10と同様に、局所特徴ベクトルと空間配置ベクトルから生成されるd次元のベクトルxを特徴ベクトルとし、ベクトルxが弱識別器66に入力されるものとする。

ベクトルx=(ベクトルl,ベクトルg)
=(l,l・・・l,g,g・・・g
=(x,x・・・x) (16)

但し、d=L+Gである。
なお、第1弱識別器66−1への入力は局所特徴ベクトルlのみであるが、この場合には空間配置ベクトルの各要素を適当なデフォルト値、例えば−1で初期化しておく。すなわち、

ベクトルx=(ベクトルl,ベクトルg)
=(x,x・・・x,−1,−1,・・・,−1)
(17)

とする。
以下では全ての弱識別器66にd次元の特徴ベクトルx=(x,x・・・x)が入力されると考える。
(4)弱識別器66
以下に各弱識別器66について説明する。
T個の弱識別器66は識別に用いる特徴の組合せ、量子化の際に用いる閾値等は各々異なるが、その基本的な動作は共通である。
(4−1)特徴量子化部56
各弱識別器66が具備する複数の特徴量子化部56は、各弱識別器66内では互いに異なる特徴に対応しており、対応する特徴を複数の段階に量子化する。各特徴量子化部56が量子化する特徴や量子化の際に用いる閾値、何段階に量子化するかは、前述の学習装置10によって求められている。
例えば、ある特徴量子化部56が閾値thrで特徴量を2段階に量子化する場合の出力値θは次式で計算される。
Figure 2008217589
特徴量子化部56の個数をFとするとそれらからF個の出力θ(f=1,2,・・・,F)が求められる。
(4−2)識別部58
識別部58は、F個の量子化特徴θ(f=1,2,・・・,F)を入力し、識別結果を出力する。
本実施形態では2クラスの識別問題を考えており、出力値は−1か+1の2値である。
まず、識別は、F個の量子化特徴θ(f=1,2,・・・,F)の組合せから前述の学習装置10で説明した組合せ特徴量φを計算する。
次に、組合せ特徴量φが各識別クラスから観測される確率を、前述の学習装置10の記憶部22で記憶した各識別クラスの確率分布W (φ),W (φ)を参照し、その大小関係によって識別クラスを決定する。
なお、2つの確率分布の代わりに比較テーブルW (φ)を参照してもよい。
(5)統合部60
統合部60では各弱識別器66から出力される識別結果を順次統合し、各点の配置特徴gを計算する。
例えば、第t弱識別器66−t、(但し、1=<t=<Tである)の処理が終了した時点を考える。
まず、学習が終了したt個の弱識別器h(ベクトルx)(i=1,2,・・・,t)から次式により統合値s(ベクトルx)を求める。
Figure 2008217589
α(i=1,2,・・・,t)は弱識別器66毎に定められたパラメータであり、各弱識別器66の信頼度を表す。このパラメータは前述の学習装置10により求められている。
次に、統合値s(x)からデータxのクラスラベルβ(ベクトルx)を推定する。例えば、s(ベクトルx)の正負でβ(ベクトルx)を推定する。N本の特徴ベクトルy(ベクトルx)(i=1,2,・・・,N)について推定すると、N個のクラスラベルβ(x)(i=1,2,・・・,N)を得る。このN個のクラスラベルβ(ベクトルx)(i=1,2,・・・,N)から前述の学習装置10で用いた配置特徴を計算する。
なお、局所特徴の計算と同様に、いずれの弱識別器66においても使用されない配置特徴が存在する場合には、その配置特徴は識別にとって無効な特徴であるから計算する必要はない。
第T弱識別器66−Tからの識別結果が入力されると、各特徴ベクトルに対する統合値を最終識別部62に出力する。
(6)最終識別部62
最終識別部62は、各点の最終統合値s(ベクトルx)から各点の識別クラスを最終判断する。2クラスの識別の場合は通常、s(ベクトルx)の正負でクラスラベルを決定する。
(7)出力部64
出力部64は最終的に識別された各点のクラスラベル値を出力する。
(8)効果
以上のようにして、複数の局所特徴と配置特徴の組合せに基づいて識別処理を行うことにより、従来より精度の高いパターン認識が可能となる。換言すれば、本実施形態によって従来よりも低い計算コストで同等の識別性能を得ることができる。
(変更例)
本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。その他、本発明の要旨を逸脱しない範囲で変形を実施できる。
(1)変更例1
本実施形態では2クラスの識別問題を想定したが、例えば、複数の強識別器を組み合わせることにより、一般の他のクラスの識別問題に適用することも可能である。
(2)変更例2
上記実施形態では学習アルゴリズムとしてAdaBoostを採用したが、他のBoosting手法を用いることもできる。
例えば、非特許文献2(R.E.Schapire and Y.Singer,「Improved Boosting Algorithms Using Confidence-rated Predictions 」, Machine Learning,37,pp.297-336,1999)に記載されているReal AdaBoostと呼ばれる方法を用いてもよい。
本発明の一実施形態の学習装置のブロック図である。 同じくパターン認識装置のブロック図である。 空間配置特徴を説明するための図である。 局所特徴を説明するための図である。 閾値の決定方法を説明するための図である。 確率分布と比較テーブルの関係を説明するための図である。
符号の説明
10 学習装置
12 データ蓄積部
14 重み初期化部
16 局所特徴計算部
18 配置特徴計算部
20 弱識別器選択部
22 記憶部
24 重み更新部
26 量子化部
28 組合せ生成部
30 確率分布計算部
32 組合せ選択部
50 パターン認識装置
52 局所特徴計算部
54 入力部
56 特徴量子化部
58 識別部
60 統合部
62 最終識別部
64 出力部
66 弱識別器

Claims (15)

  1. 対象画像の中の領域の画像が属する識別クラスを識別するための複数の弱識別器を生成する学習装置において、
    学習のための複数のサンプル画像を格納するサンプル画像蓄積部と、
    前記各サンプル画像の分割された領域の局所画像毎に、前記局所画像の識別に用いる一または複数の局所情報をそれぞれ計算する局所情報計算部と、
    前記複数の弱識別器の中の一つの弱識別器を前記複数のサンプル画像の前記各局所情報を用いて生成する弱識別器生成部と、
    を有し、
    前記弱識別器生成部は、
    (A)(1)前記サンプル画像の複数の領域の中の注目する一つの注目領域と、前記 注目領域の周囲にある一または複数の周囲領域との位置関係情報、及び、
    (2)前記周囲領域に対する予め格納、または、予め識別された識別クラス、を用いて、前記注目領域の周囲にある前記周囲領域の識別クラスの配置を表す配置情報を前記注目領域毎にそれぞれ計算する配置情報計算部と、
    (B)前記一または複数の局所情報と前記配置情報とを組み合わせた複数の組合せ情報の中から、一つの組合せ情報を選択する組合せ情報選択部と、
    (C)前記組合せ情報に基づいて、前記一つの弱識別器の識別パラメータを計算する識別パラメータ計算部と、
    を有する学習装置。
  2. 前記格納された各サンプル画像の各領域の識別クラスを格納する識別クラス蓄積部と、
    前記各サンプル画像の各領域と前記各領域の識別クラスとから構成された学習サンプルに対し、前記弱識別器で識別する場合に前記学習サンプルの重要度を表す重みを前記一つの弱識別器毎に設定する重み設定部と、
    を有し、
    前記識別パラメータ計算部は、前記組合せ情報と前記重みに基づいて、前記弱識別器の識別パラメータを計算する、
    請求項1記載の学習装置。
  3. 前記組合せ情報生成部は、前記複数の組合せ情報の中で、前記サンプル画像に対する識別誤り率が最も小さい前記一つの組合せ情報を選択する、
    請求項1記載の学習装置。
  4. 前記局所情報計算部は、前記領域毎に複数種類の前記局所情報を計算する、
    請求項1記載の学習装置。
  5. 前記配置情報計算部は、前記注目領域に対してそれぞれ異なる位置にある複数の周囲領域を用いて、複数種類の前記配置情報を計算する、
    請求項1記載の学習装置。
  6. 前記配置情報計算部は、前記サンプル画像の領域毎に真値として予め与えられた識別クラスを用いて前記配置情報を計算する、
    請求項1記載の学習装置。
  7. 前記配置情報計算部は、既に生成された弱識別器から出力された出力値を用いて前記配置情報を計算する、
    請求項1記載の学習装置。
  8. 対象画像の中の領域が、複数の識別クラス中のどの識別クラスに属するかを複数の弱識別器を用いて識別するパターン認識装置において、
    前記対象画像を入力する入力部と、
    前記対象画像の中の領域毎に識別に用いる局所情報を計算する局所情報計算部と、
    前記対象画像の複数の領域の中で注目する一つの注目領域の周囲にある一または複数の周囲領域の推定識別クラスと、前記注目領域と前記周囲領域の位置関係情報とに基づいた配置情報を前記注目領域毎に計算するT個(但し、T>=2である)の配置情報計算部と、
    前記T個の配置情報計算部のそれぞれに対応して設けられ、前記対象画像の領域毎の前記局所情報と前記対応する配置情報計算部から入力された配置情報とに基づいて、どの識別クラスであるかを前記領域毎に識別するT個の弱識別器と、
    前記T個の弱識別器からそれぞれ出力された前記領域毎の出力値に基づいて、前記領域毎の最終的な識別クラスを求める最終識別部と、
    を有するパターン認識装置。
  9. 前記弱識別器の識別パラメータは、
    (1)前記対象画像を識別するためのサンプル画像の領域毎の前記局所情報と、(2)前記サンプル画像の領域毎の配置情報とを組み合わせた組合せ情報に基づいて生成されている、
    請求項8記載のパターン認識装置。
  10. 前記T個の弱識別器の中の第t(但し、1<t=<Tである)弱識別器で用いる第t配置情報を計算する際に、前記第t弱識別器以外の弱識別器の出力値を統合して前記第t配置情報とする、
    請求項8記載のパターン認識装置。
  11. 前記T個の弱識別器の中の第t(但し、1<t=<Tである)弱識別器で用いる第t配置情報を計算する際に、前記第1〜第(t−1)弱識別器の統合結果から前記第t配置情報を計算し、
    前記最終識別部は、前記T個の弱識別器の出力値を統合して最終的な識別クラスとする、
    請求項8記載のパターン認識装置。
  12. 対象画像の中の領域の画像が属する識別クラスを識別するための複数の弱識別器を生成する学習方法において、
    学習のための複数のサンプル画像を格納するサンプル画像蓄積ステップと、
    前記各サンプル画像の分割された領域の局所画像毎に、前記局所画像の識別に用いる一または複数の局所情報をそれぞれ計算する局所情報計算ステップと、
    前記複数の弱識別器の中の一つの弱識別器を前記複数のサンプル画像の前記各局所情報を用いて生成する弱識別器生成ステップと、
    を有し、
    前記弱識別器生成ステップは、
    (A)(1)前記サンプル画像の複数の領域の中の注目する一つの注目領域と、前記 注目領域の周囲にある一または複数の周囲領域との位置関係情報、及び、
    (2)前記周囲領域に対する予め格納、または、予め識別された識別クラス、を用いて、前記注目領域の周囲にある前記周囲領域の識別クラスの配置を表す配置情報を前記注目領域毎にそれぞれ計算する配置情報計算ステップと、
    (B)前記一または複数の局所情報と前記配置情報とを組み合わせた複数の組合せ情報の中から、一つの組合せ情報を選択する組合せ情報選択ステップと、
    (C)前記組合せ情報に基づいて、前記一つの弱識別器の識別パラメータを計算する識別パラメータ計算ステップと、
    を有する学習方法。
  13. 対象画像の中の領域が、複数の識別クラス中のどの識別クラスに属するかを複数の弱識別器を用いて識別するパターン認識方法において、
    前記対象画像を入力する入力ステップと、
    前記対象画像の中の領域毎に識別に用いる局所情報を計算する局所情報計算ステップと、
    前記対象画像の複数の領域の中で注目する一つの注目領域の周囲にある一または複数の周囲領域の推定識別クラスと、前記注目領域と前記周囲領域の位置関係情報とに基づいた配置情報を前記注目領域毎に計算するT個(但し、T>=2である)の配置情報計算ステップと、
    前記T個の配置情報計算ステップのそれぞれに対応して設けられ、前記対象画像の領域毎の前記局所情報と前記対応する配置情報計算ステップから入力された配置情報とに基づいて、どの識別クラスであるかを前記領域毎に識別するT個の弱識別器と、
    前記T個の弱識別器からそれぞれ出力された前記領域毎の出力値に基づいて、前記領域毎の最終的な識別クラスを求める最終識別ステップと、
    を有するパターン認識方法。
  14. 対象画像の中の領域の画像が属する識別クラスを識別するための複数の弱識別器を生成する学習プログラムにおいて、
    学習のための複数のサンプル画像を格納するサンプル画像蓄積機能と、
    前記各サンプル画像の分割された領域の局所画像毎に、前記局所画像の識別に用いる一または複数の局所情報をそれぞれ計算する局所情報計算機能と、
    前記複数の弱識別器の中の一つの弱識別器を前記複数のサンプル画像の前記各局所情報を用いて生成する弱識別器生成機能と、
    をコンピュータによって実現し、
    前記弱識別器生成機能は、
    (A)(1)前記サンプル画像の複数の領域の中の注目する一つの注目領域と、前記 注目領域の周囲にある一または複数の周囲領域との位置関係情報、及び、
    (2)前記周囲領域に対する予め格納、または、予め識別された識別クラス、を用いて、前記注目領域の周囲にある前記周囲領域の識別クラスの配置を表す配置情報を前記注目領域毎にそれぞれ計算する配置情報計算機能と、
    (B)前記一または複数の局所情報と前記配置情報とを組み合わせた複数の組合せ情報の中から、一つの組合せ情報を選択する組合せ情報選択機能と、
    (C)前記組合せ情報に基づいて、前記一つの弱識別器の識別パラメータを計算する識別パラメータ計算機能と、
    を実現する学習プログラム。
  15. 対象画像の中の領域が、複数の識別クラス中のどの識別クラスに属するかを複数の弱識別器を用いて識別するパターン認識プログラムにおいて、
    前記対象画像を入力する入力機能と、
    前記対象画像の中の領域毎に識別に用いる局所情報を計算する局所情報計算機能と、
    前記対象画像の複数の領域の中で注目する一つの注目領域の周囲にある一または複数の周囲領域の推定識別クラスと、前記注目領域と前記周囲領域の位置関係情報とに基づいた配置情報を前記注目領域毎に計算するT個(但し、T>=2である)の配置情報計算機能と、
    前記T個の配置情報計算機能のそれぞれに対応して設けられ、前記対象画像の領域毎の前記局所情報と前記対応する配置情報計算機能から入力された配置情報とに基づいて、どの識別クラスであるかを前記領域毎に識別するT個の弱識別器と、
    前記T個の弱識別器からそれぞれ出力された前記領域毎の出力値に基づいて、前記領域毎の最終的な識別クラスを求める最終識別機能と、
    をコンピュータによって実現する認識プログラム。
JP2007056088A 2007-03-06 2007-03-06 学習装置及びパターン認識装置 Abandoned JP2008217589A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007056088A JP2008217589A (ja) 2007-03-06 2007-03-06 学習装置及びパターン認識装置
US12/040,993 US20080219565A1 (en) 2007-03-06 2008-03-03 Training device and pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007056088A JP2008217589A (ja) 2007-03-06 2007-03-06 学習装置及びパターン認識装置

Publications (1)

Publication Number Publication Date
JP2008217589A true JP2008217589A (ja) 2008-09-18

Family

ID=39741687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007056088A Abandoned JP2008217589A (ja) 2007-03-06 2007-03-06 学習装置及びパターン認識装置

Country Status (2)

Country Link
US (1) US20080219565A1 (ja)
JP (1) JP2008217589A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090189A1 (ja) * 2009-02-03 2010-08-12 日本電気株式会社 パターン認識装置、パターン認識方法およびパターン認識プログラム
WO2010109644A1 (ja) * 2009-03-27 2010-09-30 グローリー株式会社 被写体識別方法、被写体識別プログラムおよび被写体識別装置
JP2010231455A (ja) * 2009-03-26 2010-10-14 Panasonic Electric Works Co Ltd 信号識別方法および信号識別装置
WO2015146113A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および記録媒体
JP2015204030A (ja) * 2014-04-15 2015-11-16 キヤノン株式会社 認識装置及び認識方法
JP2016520934A (ja) * 2013-05-31 2016-07-14 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. フィーチャの定型パターンの自動検出
US9600745B2 (en) 2011-03-17 2017-03-21 Nec Corporation Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
JP2012113621A (ja) * 2010-11-26 2012-06-14 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US9336774B1 (en) * 2012-04-20 2016-05-10 Google Inc. Pattern recognizing engine
KR20140019501A (ko) * 2012-08-06 2014-02-17 현대자동차주식회사 장애물 인식을 위한 분류기의 생성방법
US11620573B1 (en) 2013-05-31 2023-04-04 Google Llc Totally corrective boosting with cardinality penalization
JP6325405B2 (ja) * 2014-09-22 2018-05-16 株式会社東芝 特徴点検出装置、方法及びプログラム
CN104318236B (zh) * 2014-10-28 2017-11-14 苏州科达科技股份有限公司 一种获取图像局部特征的方法及系统
CN106017876A (zh) * 2016-05-11 2016-10-12 西安交通大学 基于等权局部特征稀疏滤波网络的轮对轴承故障诊断方法
CN114037739A (zh) * 2021-10-29 2022-02-11 齐鲁工业大学 一种基于机器学习的流场特征提取方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP2006350645A (ja) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd 対象物検出装置及びその学習装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526101B2 (en) * 2005-01-24 2009-04-28 Mitsubishi Electric Research Laboratories, Inc. Tracking objects in videos with adaptive classifiers
JP4708909B2 (ja) * 2005-08-09 2011-06-22 富士フイルム株式会社 デジタル画像の対象物検出方法および装置並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP2006350645A (ja) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd 対象物検出装置及びその学習装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090189A1 (ja) * 2009-02-03 2010-08-12 日本電気株式会社 パターン認識装置、パターン認識方法およびパターン認識プログラム
JP5408143B2 (ja) * 2009-02-03 2014-02-05 日本電気株式会社 パターン認識装置、パターン認識方法およびパターン認識プログラム
JP2010231455A (ja) * 2009-03-26 2010-10-14 Panasonic Electric Works Co Ltd 信号識別方法および信号識別装置
WO2010116222A1 (ja) * 2009-03-26 2010-10-14 パナソニック電工株式会社 信号識別方法および信号識別装置
WO2010109644A1 (ja) * 2009-03-27 2010-09-30 グローリー株式会社 被写体識別方法、被写体識別プログラムおよび被写体識別装置
JP5290401B2 (ja) * 2009-03-27 2013-09-18 グローリー株式会社 被写体識別方法、被写体識別プログラムおよび被写体識別装置
US9600745B2 (en) 2011-03-17 2017-03-21 Nec Corporation Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program
JP2016520934A (ja) * 2013-05-31 2016-07-14 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. フィーチャの定型パターンの自動検出
WO2015146113A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および記録媒体
JPWO2015146113A1 (ja) * 2014-03-28 2017-04-13 日本電気株式会社 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム
US10380456B2 (en) 2014-03-28 2019-08-13 Nec Corporation Classification dictionary learning system, classification dictionary learning method and recording medium
JP2020053073A (ja) * 2014-03-28 2020-04-02 日本電気株式会社 学習方法、学習システム、および学習プログラム
JP2015204030A (ja) * 2014-04-15 2015-11-16 キヤノン株式会社 認識装置及び認識方法

Also Published As

Publication number Publication date
US20080219565A1 (en) 2008-09-11

Similar Documents

Publication Publication Date Title
JP2008217589A (ja) 学習装置及びパターン認識装置
US10909455B2 (en) Information processing apparatus using multi-layer neural network and method therefor
He et al. Learning and incorporating top-down cues in image segmentation
US9213885B1 (en) Object recognizer and detector for two-dimensional images using Bayesian network based classifier
JP4517633B2 (ja) 対象物検出装置及び方法
JP5554987B2 (ja) オブジェクト識別装置及びその制御方法
JP4429370B2 (ja) ポーズによるヒト検出
US8374442B2 (en) Linear spatial pyramid matching using sparse coding
JP6111297B2 (ja) 方法、装置、およびプログラム
US8103058B2 (en) Detecting and tracking objects in digital images
JP4588575B2 (ja) デジタル画像の複数対象物検出方法および装置並びにプログラム
JP2011013732A (ja) 情報処理装置、情報処理方法、およびプログラム
JP4553044B2 (ja) 集団学習装置及び方法
KR20160011916A (ko) 얼굴 인식을 통한 사용자 식별 방법 및 장치
JP2005202932A (ja) データを複数のクラスに分類する方法
JP5123759B2 (ja) パターン検出器の学習装置、学習方法及びプログラム
JP2011154501A (ja) 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP5311899B2 (ja) パターン検出器の学習装置、学習方法及びプログラム
JP5214679B2 (ja) 学習装置、方法及びプログラム
Han et al. High-order statistics of microtexton for hep-2 staining pattern classification
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
CN114676777A (zh) 一种基于孪生网络的自监督学习细粒度图像分类方法
JP2009140369A (ja) 集団学習装置及び集団学習方法、対象物検出装置及び対象物検出方法、並びにコンピュータ・プログラム
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
Wong et al. Real-time adaptive hand motion recognition using a sparse bayesian classifier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110616