JP2003168113A - 画像認識システム、画像認識方法および画像認識プログラム - Google Patents

画像認識システム、画像認識方法および画像認識プログラム

Info

Publication number
JP2003168113A
JP2003168113A JP2001369557A JP2001369557A JP2003168113A JP 2003168113 A JP2003168113 A JP 2003168113A JP 2001369557 A JP2001369557 A JP 2001369557A JP 2001369557 A JP2001369557 A JP 2001369557A JP 2003168113 A JP2003168113 A JP 2003168113A
Authority
JP
Japan
Prior art keywords
input
dictionary
vector
principal component
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001369557A
Other languages
English (en)
Other versions
JP4099981B2 (ja
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001369557A priority Critical patent/JP4099981B2/ja
Publication of JP2003168113A publication Critical patent/JP2003168113A/ja
Application granted granted Critical
Publication of JP4099981B2 publication Critical patent/JP4099981B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 入力部分空間と辞書部分空間との角度に依存
せず、入力画像群を正しく判別することができる画像認
識システムを提供する。 【解決手段】 入力特徴データ51Aを含む入力部分空
間に属する任意のベクトルである入力代表ベクトル52
Aを生成する入力代表ベクトル生成部52と、任意のK
個の入力特徴データ51Aと入力代表ベクトル51Aと
の差を表すK個の入力主成分ベクトル53Aを生成する
入力主成分データ生成部53と、入力主成分ベクトル5
3A、入力代表ベクトル52A、辞書格納部3に格納さ
れているL個の辞書主成分ベクトル63Aおよび辞書代
表ベクトル62から入力部分空間と辞書部分空間との距
離値を算出する距離算出部54と、算出された距離値に
基づいて認識結果5Aを出力する識別部55とを備えて
いる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像認識システ
ム、画像認識方法および画像認識プログラムに関し、特
に、画像として撮影された対象物体が、辞書に登録され
た物体かどうかを識別する、または辞書に登録された複
数のカテゴリ中の一つに分類する画像認識システム、画
像認識方法および画像認識プログラムに関する。
【0002】
【従来の技術】従来の画像認識システムの一例が、特開
平11−265452号公報(物体認識装置および物体
認識方法)に記載されている。図13は、この従来の画
像認識システムの構成を示すブロック図である。この図
に示すように、従来の画像認識画像認識システムは、画
像入力部501と、辞書記憶部502と、部分空間間の
角度計算部503と、認識部504とから構成されてい
る。
【0003】画像入力部501は、複数方向から撮影さ
れた複数の画像を獲得する。辞書記憶部502には、あ
らかじめM次元の部分空間で表現された辞書データが、
カテゴリごとに用意されている。部分空間間の角度計算
部503は、まず画像入力部501によって獲得された
入力画像群をN次元部分空間で表現する。具体的には、
入力画像を1次元特徴データとみなして主成分分析し、
N個の固有ベクトルを抽出し、このN個の固有ベクトル
でN次元部分空間を規定する。部分空間間の角度計算部
503は、さらに入力画像のN次元部分空間(以下、入
力部分空間という)と辞書のM次元部分空間(以下、辞
書部分空間という)との角度Θを、辞書のカテゴリごと
に計算する。認識部504は、部分空間間の角度計算部
503において算出された角度Θを比較し、角度Θが最
も小さいカテゴリを認識結果として出力する。
【0004】図14を参照して、より具体的に説明す
る。図14において、511は入力画像から抽出された
特徴データが分布する入力特徴分布、512は入力特徴
分布511を含む入力部分空間、521は辞書データの
あるカテゴリの作成に用いた特徴データが分布する辞書
特徴分布、522は辞書特徴分布521を含む辞書部分
空間である。入力部分空間512の基底ベクトルをΨn
(n=1,2,…,N)、辞書部分空間522の基底ベ
クトルをΦm(m=1,2,…,M)とすると、部分空
間間の角度計算部503で、式(1)または式(2)の
xijを要素にもつ行列Xを計算する。
【0005】
【数5】
【0006】行列Xの最大固有値として、部分空間51
2,522間の角度Θの余弦の二乗が求められる。角度
Θの余弦の二乗が大きい(または、小さい)とき、角度
Θは小さく(または、大きく)なり、また角度Θが小さ
い(または、大きい)とき、部分空間512,522間
の類似度が大きく(または、小さく)なる。したがっ
て、行列Xの最大固有値を、部分空間512,522間
の類似度と言い換えることができる。よって、部分空間
間の角度計算部503で、各カテゴリに対し行列Xの最
大固有値を求めて類似度とし、認識部504で、類似度
が最大のカテゴリに入力画像を分類する。
【0007】
【発明が解決しようとする課題】図15は、従来の画像
認識システムの問題点を示す概念図である。この図に示
すように、同じ入力部分空間512内の異なる位置に3
つの入力特徴分布511A,511B,511Cが存在
する場合には、3つの入力特徴分布511A〜511C
は互いに離れた位置にあり、辞書部分空間522内の辞
書特徴分布521との隔たりも明らかに異なるので、本
来は異なる類似度が算出されなければならない。
【0008】しかし、従来の画像認識システムでは、入
力部分空間512と辞書部分空間522との角度Θの余
弦の二乗と等価な行列Xの最大固有値を類似度として用
いているので、同じ入力部分空間512内に存在する3
つの入力特徴分布511A〜511Cと辞書部分空間5
22との類似度がすべて同じになってしまう。このよう
に、従来の画像認識システムでは、同じ入力部分空間5
12内の異なる位置に入力特徴分布がある場合には、辞
書部分空間522との類似度がすべて同じとなり、判別
できないという問題があった。
【0009】本発明はこのような課題を解決するために
なされたものであり、その目的は、入力部分空間と辞書
部分空間との角度に依存せず、入力画像群を正しく判別
することができる画像認識システム、画像認識方法およ
び画像認識プログラムを提供することにある。
【0010】
【課題を解決するための手段】このような目的を達成す
るために、本発明の画像認識システムは、同じ対象が撮
影された複数の入力画像と予め登録された辞書データと
を照合し認識結果を出力する画像認識システムであっ
て、入力画像から得られた入力特徴データを含む入力部
分空間を生成する入力部分空間生成手段と、入力部分空
間に属する任意のベクトルである入力代表ベクトルを生
成する入力代表ベクトル生成手段と、辞書データから得
られた辞書特徴データを含む辞書部分空間およびこの辞
書部分空間に属する任意のベクトルである辞書代表ベク
トルを格納する辞書格納手段と、入力部分空間と辞書代
表ベクトルとの距離および辞書部分空間と入力代表ベク
トルとの距離に基づいて認識結果を生成する照合手段と
を備えたことを特徴とする。
【0011】より具体的には、入力画像から得られた入
力特徴データを含む入力部分空間に属する任意のベクト
ルである入力代表ベクトルを生成する入力代表ベクトル
生成手段と、任意のK個(Kは自然数)の入力特徴デー
タのそれぞれと入力代表ベクトルとの差を表すK個の入
力主成分ベクトルを生成する入力主成分データ生成手段
と、辞書データから得られた辞書特徴データを含む辞書
部分空間に属する任意のベクトルである辞書代表ベクト
ルおよび任意のL個(Lは自然数)の辞書特徴データの
それぞれと辞書代表ベクトルとの差を表すL個の辞書主
成分ベクトルを格納する辞書格納手段と、入力主成分ベ
クトル、入力代表ベクトル、辞書主成分ベクトルおよび
辞書代表ベクトルから入力部分空間と辞書部分空間との
距離値を算出する距離算出手段と、この距離算出手段に
より算出された距離値に基づいて認識結果を出力する識
別手段とを備えてもよい。これにより、複数の入力特徴
分布が同じ入力部分空間内に存在する場合でも、各入力
特徴分布の配置が異なれば距離値も異なるので、入力画
像群を正しく判別することができる。
【0012】この画像認識システムにおいて、入力主成
分ベクトルおよび辞書主成分ベクトルが、直交基底であ
ってもよい。直交基底である主成分ベクトルを用いて距
離値の計算を行うことにより、直交基底でない場合と比
較して、短時間で高精度の照合結果を得ることができ、
認識率を向上させることができる。また、入力代表ベク
トルが、入力特徴データの平均ベクトルであり、入力主
成分ベクトルが、入力特徴データから入力代表ベクトル
を減算した成分のうち固有値が大きい方からK個の固有
ベクトルであり、辞書代表ベクトルが、辞書特徴データ
の平均ベクトルであり、辞書主成分ベクトルが、辞書特
徴データから辞書代表ベクトルを減算した成分のうち固
有値が大きい方からL個の固有ベクトルであってもよ
い。
【0013】また、距離算出手段は、L個の辞書主成分
ベクトルで形成される空間と入力代表ベクトルとの第1
の距離を算出する入力投影距離算出手段と、K個の入力
主成分ベクトルで形成される空間と辞書代表ベクトルと
の第2の距離を算出する辞書投影距離算出手段と、第1
および第2の距離から入力部分空間と辞書部分空間との
距離値を算出する統合手段とを備えるものであってもよ
い。このように入力画像および辞書データから得られた
多くのデータを有効に利用して距離値を算出し、この距
離値を照合に用いるので、照合性能が向上し、高い認識
率が得られる。
【0014】ここで、入力代表ベクトルをV1、辞書代
表ベクトルをV2、入力主成分ベクトルをΨi(i=1,
…,K)、辞書主成分ベクトルをΦj(j=1,…,
L)とすると、入力投影距離算出手段は、式(3)によ
り第1の距離d1を算出し、辞書投影距離算出手段は、
式(4)により第2の距離d2を算出するものであって
もよい。
【0015】
【数6】
【0016】また、上述した画像認識システムにおい
て、入力主成分データ生成手段は、さらに入力主成分ベ
クトルのそれぞれに対応するK個の重みを生成し、辞書
格納手段は、さらに辞書主成分ベクトルのそれぞれに対
応するL個の重みを格納するものであってもよい。ここ
で、入力主成分ベクトルに対応する重みが、入力主成分
ベクトルとなる固有ベクトルのK個の固有値であり、辞
書主成分ベクトルに対応する重みが、辞書主成分ベクト
ルとなる固有ベクトルのL個の固有値であってもよい。
【0017】また、入力代表ベクトルをV1、辞書代表
ベクトルをV2、入力主成分ベクトルをΨi(i=1,
…,K)、入力主成分ベクトルに対応する重みをμ
i(i=1,…,K)、辞書主成分ベクトルをΦj(j=
1,…,L)、辞書主成分ベクトルに対応する重みをλ
j(j=1,…,L)とすると、入力投影距離算出手段
は、式(5)により第1の距離d1を算出し、辞書投影
距離算出手段は、式(6)により第2の距離d2を算出
するものであってもよい(ただし、σは任意の定数)。
【0018】
【数7】
【0019】また、上述した画像認識システムにおい
て、統合手段は、第1の距離d1および第2の距離d2
ら式(7)により入力部分空間と辞書部分空間との距離
値Dを算出するものであってもよい。 D=αd1+βd2 ・・・(7) (ただし、α,βは定数) あるいは、統合手段は、第1の距離d1および第2の距
離d2から式(8)により入力部分空間と辞書部分空間
との距離値Dを算出するものであってもよい。 D=αd1・d2/(d1+d2) ・・・(8) (ただし、αは定数)
【0020】また、上述した画像認識システムにおい
て、前記辞書主成分ベクトルを生成し辞書格納手段に出
力する辞書主成分データ生成手段と、前記辞書代表ベク
トルを生成し辞書格納手段に出力する辞書代表ベクトル
生成手段とをさらに備えていてもよい。これにより、辞
書データの内容を随時更新し、急激な内容変化に対応す
ることができる。
【0021】また、上述した画像認識システムにおい
て、入力される画像シーケンスから顔画像データを選択
し入力画像として入力主成分データ生成手段および入力
代表ベクトル生成手段に出力する顔画像検出手段をさら
に備えていてもよい。あるいは、入力される画像シーケ
ンスから顔画像データを選択し、認識動作の際には、選
択された顔画像データを入力画像として入力主成分デー
タ生成手段および入力代表ベクトル生成手段に出力し、
辞書データ学習動作の際には、選択された顔画像データ
を辞書データとして辞書主成分データ生成手段および辞
書代表ベクトル生成手段に出力する顔画像検出手段をさ
らに備えていてもよい。これにより、人間の顔画像を用
いて画像中の人物を同定するシステムを構成することが
できる。
【0022】また、本発明の画像認識方法は、同じ対象
が撮影された複数の入力画像と予め登録された辞書デー
タとを照合し認識結果を出力する画像認識方法であっ
て、入力画像から得られた入力特徴データを含む入力部
分空間およびこの入力部分空間に属する任意のベクトル
である入力代表ベクトルを生成する第1のステップと、
辞書データから得られた辞書特徴データを含む辞書部分
空間と入力代表ベクトルとの第1の距離および辞書部分
空間に属する任意のベクトルである辞書代表ベクトルと
入力部分空間との第2の距離を算出する第2のステップ
と、算出された第1および第2の距離に基づいて認識結
果を出力する第3のステップとを備えたことを特徴とす
る。
【0023】より具体的には、入力画像から得られた入
力特徴データを含む入力部分空間に属する任意のベクト
ルである入力代表ベクトルおよび任意のK個(Kは自然
数)の入力特徴データのそれぞれと入力代表ベクトルと
の差を表すK個の入力主成分ベクトルを生成する第1の
ステップと、入力代表ベクトル、入力主成分ベクトル、
辞書データから得られた辞書特徴データを含む辞書部分
空間に属する任意のベクトルである辞書代表ベクトルお
よび任意のL個(Lは自然数)の辞書特徴データのそれ
ぞれと辞書代表ベクトルとの差を表すL個の辞書主成分
ベクトルから、入力部分空間と辞書部分空間との距離値
を算出する第2のステップと、算出された距離値に基づ
いて認識結果を出力する第3のステップとを備えていて
もよい。この画像認識方法において、入力主成分ベクト
ルおよび辞書主成分ベクトルが、直交基底であってもよ
い。
【0024】また、本発明の画像認識プログラムは、同
じ対象が撮影された複数の入力画像と予め登録された辞
書データとを照合し認識結果を出力する処理をコンピュ
ータに実行させるための画像認識プログラムであって、
入力画像から得られた入力特徴データを含む入力部分空
間を生成する入力部分空間生成処理と、入力部分空間に
属する任意のベクトルである入力代表ベクトルを生成す
る入力代表ベクトル生成処理と、辞書データから得られ
た辞書特徴データを含む辞書部分空間と入力代表ベクト
ルとの距離および辞書部分空間に属する任意のベクトル
である辞書代表ベクトルと入力部分空間との距離に基づ
いて認識結果を生成する照合処理とをコンピュータに実
行させるためのプログラムである。
【0025】より具体的には、入力画像から得られた入
力特徴データを含む入力部分空間に属する任意のベクト
ルである入力代表ベクトルを生成する入力代表ベクトル
生成処理と、任意のK個(Kは自然数)の入力特徴デー
タのそれぞれと入力代表ベクトルとの差を表すK個の入
力主成分ベクトルを生成する入力主成分データ生成処理
と、入力代表ベクトル、入力主成分ベクトル、辞書デー
タから得られた辞書特徴データを含む辞書部分空間に属
する任意のベクトルである辞書代表ベクトルおよび任意
のL個(Lは自然数)の辞書特徴データのそれぞれと辞
書代表ベクトルとの差を表すL個の辞書主成分ベクトル
から、入力部分空間と辞書部分空間との距離値を算出す
る距離算出処理と、算出された距離値に基づいて認識結
果を出力する識別処理とをコンピュータに実行させるた
めのプログラムであってもよい。
【0026】ここで、入力主成分ベクトルおよび辞書主
成分ベクトルが、直交基底であってもよい。また、入力
代表ベクトルが、入力特徴データの平均ベクトルであ
り、入力主成分ベクトルが、入力特徴データから入力代
表ベクトルを減算した成分のうち固有値が大きい方から
K個の固有ベクトルであり、辞書代表ベクトルが、辞書
特徴データの平均ベクトルであり、辞書主成分ベクトル
が、辞書特徴データから辞書代表ベクトルを減算した成
分のうち固有値が大きい方からL個の固有ベクトルであ
ってもよい。
【0027】また、距離算出処理として、L個の辞書主
成分ベクトルで形成される空間と入力代表ベクトルとの
第1の距離を算出する入力投影距離算出処理と、K個の
入力主成分ベクトルで形成される空間と辞書代表ベクト
ルとの第2の距離を算出する辞書投影距離算出処理と、
第1および第2の距離から入力部分空間と辞書部分空間
との距離値を算出する統合処理とを実行させてもよい。
ここで、入力代表ベクトルをV1、辞書代表ベクトルを
2、入力主成分ベクトルをΨi(i=1,…,K)、辞
書主成分ベクトルをΦj(j=1,…,L)とすると、
入力投影距離算出処理は、式(9)により第1の距離d
1を算出し、辞書投影距離算出処理は、式(10)によ
り第2の距離d2を算出するものであってもよい。
【0028】
【数8】
【0029】また、入力主成分データ生成処理は、さら
に入力主成分ベクトルのそれぞれに対応するK個の重み
を生成し、距離算出処理は、さらにK個の重みおよび辞
書主成分ベクトルのそれぞれに対応するL個の重みを用
いて距離値を算出するものであってもよい。ここで、入
力主成分ベクトルに対応する重みが、入力主成分ベクト
ルとなる固有ベクトルのK個の固有値であり、辞書主成
分ベクトルに対応する重みが、辞書主成分ベクトルとな
る固有ベクトルのL個の固有値であってもよい。
【0030】また、入力代表ベクトルをV1、辞書代表
ベクトルをV2、入力主成分ベクトルをΨi(i=1,
…,K)、入力主成分ベクトルに対応する重みをμ
i(i=1,…,K)、辞書主成分ベクトルをΦj(j=
1,…,L)、辞書主成分ベクトルに対応する重みをλ
j(j=1,…,L)とすると、入力投影距離算出処理
は、式(11)により第1の距離d1を算出し、辞書投
影距離算出処理は、式(12)により第2の距離d2
算出するものであってもよい(ただし、σは任意の定
数)。
【0031】
【数9】
【0032】また、統合手段は、第1の距離d1および
第2の距離d2から式(13)により入力部分空間と辞
書部分空間との距離値Dを算出するものであってもよ
い。 D=αd1+βd2 ・・・(13) (ただし、α,βは定数) あるいは、統合手段は、第1の距離d1および第2の距
離d2から式(14)により入力部分空間と辞書部分空
間との距離値Dを算出するものであってもよい。 D=αd1・d2/(d1+d2) ・・・(14) (ただし、αは定数)
【0033】また、辞書主成分ベクトルを生成し登録す
る辞書主成分データ生成処理と、辞書代表ベクトルを生
成し登録する辞書代表ベクトル生成処理とをさらに実行
させてもよい。また、入力される画像シーケンスから顔
画像データを選択し、入力画像として入力主成分データ
生成処理および入力代表ベクトル生成処理で使用させる
顔画像検出処理をさらに実行させてもよい。あるいは、
入力される画像シーケンスから顔画像データを選択し、
認識動作の際には、選択された顔画像データを入力画像
として入力主成分データ生成処理および入力代表ベクト
ル生成処理で使用させ、辞書データ学習動作の際には、
選択された顔画像データを辞書データとして辞書主成分
データ生成処理および辞書代表ベクトル生成処理で使用
させる顔画像検出処理をさらに実行させてもよい。
【0034】
【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照して詳細に説明する。
【0035】(第1の実施の形態)図1は、本発明の第
1の実施の形態である画像認識システムの構成を示すブ
ロック図である。図2は、図1に示す画像認識システム
による処理を概念的に示す図である。図1に示す画像認
識システムは、同じ対象を撮影して得られた複数の学習
画像データからなる学習画像群を獲得する学習画像群入
力部1と、この学習画像群入力部1より入力される学習
画像群から辞書データを生成する学習部2と、この学習
部2で生成される辞書データを撮影対象毎にカテゴリに
分けて格納する辞書格納部3と、同じ対象を撮影して得
られた複数の入力画像データからなる入力画像群を獲得
する識別対象画像群入力部4と、辞書格納部3に格納さ
れている辞書データを用いて識別対象画像群入力部4よ
り入力される入力画像群から撮影対象を認識する照合部
5とから構成されている。
【0036】学習画像群入力部1は、辞書として登録す
るためビデオカメラ等によって同一対象物体を撮影して
得られたM個(Mは自然数)の静止画像を獲得し、これ
らを学習画像データ1AとしてカテゴリID1Bととも
に学習部2に出力する。M個の学習画像データ1Aは、
カテゴリID1Bによって指定されたカテゴリに属する
ものとする。学習部2は更に、学習画像特徴抽出部21
と、辞書代表ベクトル生成部22と、辞書主成分データ
生成部(辞書部分空間生成手段)23とから構成されて
いる。
【0037】学習画像特徴抽出部21は、学習画像群入
力部1より入力されるM個の学習画像データ1Aから、
認識に用いるM個の辞書特徴データ21Aを特徴抽出
し、辞書代表ベクトル生成部22および辞書主成分デー
タ生成部23に出力する。M個の辞書特徴データ21A
からなる辞書特徴データ群は、図2(a)に示す辞書特
徴分布21Bに分布しているものとする。学習画像特徴
抽出部21の一例として、元の画像データに1次微分、
2次微分フィルタを作用させた出力を、ラスタースキャ
ンして1次元特徴データとして出力するものがある。ま
た、辞書画像特徴抽出部21の他の例として、元の画像
データをラスタースキャンして1次元特徴データとし、
その平均を0、分散を1.0とするように、平均と分散
を一定値に正規化するものがある。これにより、輪郭強
調や雑音除去などが施された辞書特徴データ21Aが得
られる。なお、学習画像特徴抽出部21は、仮に識別対
象画像群入力部4から出力される入力画像データ4Aが
入力されたとしたら、照合部5の入力画像特徴抽出部5
1と同じ特徴データを抽出するものである必要がある。
【0038】辞書代表ベクトル生成部22は、M個の入
力特徴データ21Aからなる辞書特徴データ群を基に、
この辞書特徴データ群を代表する1つのベクトルである
辞書代表ベクトル22Aを生成し、辞書主成分データ生
成部23および辞書格納部3に出力する。辞書代表ベク
トル22Aは、辞書特徴分布21Bを含む辞書部分空間
に属する任意のベクトルであり、原点Oを始点とし、辞
書部分空間上のP点を終点とする。辞書代表ベクトル2
2Aの一例として、辞書特徴データ群の平均値(平均ベ
クトル)や中央値(中央ベクトル)などが挙げられる。
【0039】辞書主成分データ生成部23は、M個の辞
書特徴データ21Aのそれぞれから辞書代表ベクトル2
2Aを除いた後の成分を代表するL個のベクトルである
辞書主成分ベクトル(Φj(j=1,・・・,L))2
3Aと、辞書主成分ベクトル(Φi)のそれぞれに対応
する重み値(λj(j=1,・・・,L))23Bを抽
出し、辞書格納部3に出力する。辞書特徴データ21A
の特徴次元数をDとすると、Lは1より大きく、min
(M,D)以下の自然数である。min(M,D)は、
MとDの小さい方の数を表す。辞書主成分ベクトル23
Aは、辞書特徴分布21Bを含む辞書部分空間を表すベ
クトルである。
【0040】辞書特徴データ21Aから辞書代表ベクト
ル22Aを除く方法としては、辞書特徴データ21Aか
ら辞書代表ベクトル22Aを減算する方法や、辞書特徴
データ21Aの辞書代表ベクトル22Aに垂直な成分を
計算する方法がある。その後、L個の辞書主成分ベクト
ル23Aおよび重み値23Bを抽出する方法としては、
M個の辞書特徴データ21Aのそれぞれから辞書代表ベ
クトル22Aを除いた後の成分を主成分分析し、固有値
が大きい方からL個の固有ベクトルを辞書主成分ベクト
ル23Aとして選択し、選択された辞書主成分ベクトル
23Aに対応する固有値を重み値23Bとして採用する
方法がある。固有値および固有ベクトルの求め方は、一
般的な多変量解析の文献に述べられており、例えば文献
1(田中、脇本著、「多変量統計解析法」、現代数学
社、pp.71-79, 1983)がある。
【0041】辞書格納部3は、例えば図3に示すよう
に、C個(Cは自然数)のレコード記憶部31,32,
・・・,3Cを有し、各レコード記憶部31〜3Cは、
それぞれレコード番号61、辞書代表ベクトル62、辞
書主成分データ63、カテゴリID64を記憶すること
ができる。辞書代表ベクトル62として、辞書代表ベク
トル生成部22で生成された辞書代表ベクトル22A
を、辞書主成分データ63として、辞書主成分データ生
成部23で生成されたL個の辞書主成分ベクトル23A
および重み値23Bを、カテゴリID64として、カテ
ゴリID1Bを記憶する。このように辞書格納部3は、
辞書代表ベクトル62および辞書主成分データ63を辞
書データとしてカテゴリID64にしたがって格納す
る。なお、同じカテゴリIDをもつ複数の辞書データを
格納することも可能である。
【0042】識別対象画像群入力部4は、ビデオカメラ
等によって同一対象物体を撮影して得られたN個(Nは
自然数)の静止画像を獲得し、これらを入力画像データ
4Aとして照合部5に出力する。照合部5は更に、入力
画像特徴抽出部51と、入力代表ベクトル生成部52
と、入力主成分データ生成部(入力部分空間生成手段)
53と、距離算出部54と、識別部55とから構成され
ている。
【0043】入力画像特徴抽出部51は、識別対象画像
群入力部4より入力されるN個の入力画像データ4Aか
ら、認識に用いるN個の入力特徴データ51Aを特徴抽
出し、入力代表ベクトル生成部52および入力主成分デ
ータ生成部53に出力する。N個の入力特徴データ51
Aからなる入力特徴データ群は、図2(a)に示す入力
特徴分布51Bに分布しているものとする。入力画像特
徴抽出部51の一例として、元の画像データに1次微
分、2次微分フィルタを作用させた出力を、ラスタース
キャンして1次元特徴データとして出力するものがあ
る。また入力画像特徴抽出部51の他の例として、元の
画像データをラスタースキャンして1次元特徴データと
し、その平均を0、分散を1.0とするように、平均と
分散を一定値に正規化するものがある。これにより、輪
郭強調や雑音除去などが施された入力特徴データ51A
が得られる。
【0044】入力代表ベクトル生成部52は、N個の入
力特徴データ51Aからなる入力特徴データ群を基に、
この入力特徴データ群を代表する1つのベクトルである
入力代表ベクトル52Aを生成し、入力主成分データ生
成部53および距離算出部54に出力する。入力代表ベ
クトル52Aは、入力特徴分布51Bを含む入力部分空
間に属する任意のベクトルであり、原点Oを始点とし、
入力部分空間上のQ点を終点とする。入力代表ベクトル
52Aの一例として、入力特徴データ群の平均値(平均
ベクトル)や中央値(中央ベクトル)などが挙げられ
る。
【0045】入力主成分データ生成部53は、N個の入
力特徴データ51Aのそれぞれから入力代表ベクトル5
2Aを除いた後の成分を代表するK個のベクトルである
入力主成分ベクトル(Ψi(i=1,・・・,K))5
3Aと、入力主成分ベクトル(Ψj)のそれぞれに対応
する重み値(μi(i=1,・・・,K))53Cを抽
出し、距離算出部54に出力する。入力特徴データ51
Aの特徴次元数をDとすると、Kは1より大きく、mi
n(N,D)以下の自然数である。入力主成分ベクトル
53Aは、入力特徴分布51Bを含む入力部分空間を表
すベクトルである。
【0046】入力特徴データ51Aから入力代表ベクト
ル52Aを除く方法としては、入力特徴データ51Aか
ら入力代表ベクトル52Aを減算する方法や、入力特徴
データ51Aの入力代表ベクトル52Aに垂直な成分を
計算する方法がある。K個の入力主成分ベクトル53A
および重み値53Cを抽出する方法としては、N個の入
力特徴データ51Aのそれぞれから入力代表ベクトル5
2Aを除いた後の成分を主成分分析し、固有値が大きい
方からK個の固有ベクトルを入力主成分ベクトル53A
として選択し、選択された入力主成分ベクトル53Aに
対応する固有値を重み値53Cとして採用する方法があ
る。
【0047】距離算出部54は、入力代表ベクトル52
A、入力主成分ベクトル53Aおよび重み値53Cを用
いて、辞書格納部3に格納されているC個のカテゴリに
属する辞書データとの距離値を算出する。より具体的に
は、辞書格納部3のレコード記憶部31〜3Cのそれぞ
れから、辞書代表ベクトル62と、辞書主成分データ6
3として記憶されているL個の辞書主成分ベクトル63
Aおよび重み値63Bとを読み出し、入力代表ベクトル
52A、入力主成分ベクトル53Aおよび重み値53C
を用いて、図2(b)に示す入力特徴分布51Bを含む
入力部分空間と各カテゴリの辞書特徴分布21BBを含
む辞書部分空間との間の距離の値Dを算出し、距離値5
4Aとして識別部55に順次出力する。
【0048】識別部55は、C個のカテゴリとの距離値
54Aに基づいて、入力画像データ4Aに対する認識結
果5Aを出力する。この識別部55は、例えば図4に示
すように、最小値算出部71と、閾値処理部72とから
構成される。最小値算出部71は、C個のカテゴリとの
距離値54Aの最小値を求める。閾値処理部72は、最
小値算出部71によって求められた最小値を、あらかじ
め決められた閾値と比較し、閾値より小さければ、最小
値が得られたカテゴリを認識結果5Aとして出力する。
逆に、閾値以上であれば、入力画像データ4Aは辞書に
は存在しないパターンであるという認識結果5Aを出力
する。
【0049】次に、図5および図6を参照し、距離算出
部54の構成および動作について詳述する。図5は、距
離算出部54の一構成例を示すブロック図である。図6
は、距離算出部54の動作を説明する概念図である。図
5に示すように、距離算出部54は、入力投影距離算出
部81と、辞書投影距離算出部82と、統合部83とか
ら構成される。入力投影距離算出部81は、図6に示す
入力代表ベクトル52Aの終点Qと、L個の辞書主成分
ベクトル63Aで形成される辞書部分空間63Cとの距
離を表す入力投影距離値(第1の距離)d1を算出す
る。入力代表ベクトル52AをV1、辞書代表ベクトル
62をV2、σを任意の定数とすると、距離値d1を例え
ば式(15)によって算出することができる。
【0050】
【数10】
【0051】計算の高速化のため、定数σ=0とし、式
(16)のように簡略化してもよい。
【0052】
【数11】
【0053】式(15)および式(16)において、ベ
クトル(V2−V1)は、ベクトルQPであり、入力投影
距離値d1は、入力代表ベクトル52Aの終点Qと、辞
書部分空間63Cとの距離値を表している。辞書投影距
離算出部82は、図6に示す辞書代表ベクトル62の終
点Pと、K個の入力主成分ベクトル53Aで形成される
入力部分空間53Cとの辞書投影距離値(第2の距離)
2を算出する。同様に、距離値d2を例えば式(17)
によって算出することができる。
【0054】
【数12】
【0055】計算の高速化のため、定数σ=0とし、式
(18)のように簡略化してもよい。
【0056】
【数13】
【0057】式(17)および式(18)において、ベ
クトル(V1−V2)は、ベクトルPQであり、辞書投影
距離値d2は、辞書代表ベクトル62の終点Pと、入力
部分空間53Cとの距離値を表している。統合部83
は、入力投影距離値d1および辞書投影距離値d2の両方
を用いて、距離値Dを算出する。例えば、式(19)を
用いて距離値Dを算出することができる。 D=αd1+βd2 ・・・(19) ただし、α,βは定数である。また、式(20)を用い
てもよい。 D=αd1・d2/(d1+d2) ・・・(20) ただし、αは定数である。
【0058】図2(b)において、入力特徴分布51B
と辞書特徴分布21BBとの間の距離値Dは、ベクトル
PQのノルムを計算することによっても得られるが、こ
の方法では入力代表ベクトル52Aおよび辞書代表ベク
トル62の2個のデータしか用いないので、得られた距
離値Dを実際の照合に用いても、照合性能が低く、高い
認識率は得られない。これに対し、入力代表ベクトル5
2Aと辞書部分空間63Cとの投影距離値d1と、辞書
代表ベクトル62と入力部分空間53Cとの投影距離値
2とを統合することによって得られた距離値Dは、入
力代表ベクトル52A、辞書代表ベクトル62に加え
て、K個の入力主成分ベクトル53A(および重み値5
3B)と、L個の辞書主成分ベクトル63A(および重
み値63B)という、より多くのデータを利用して得ら
れたものであるから、上述した方法と比較して、照合性
能がはるかに高く、高い認識率が得られる。
【0059】また、入力部分空間53Cと辞書部分空間
63Cとの角度ではなく、代表ベクトルおよび主成分ベ
クトルを用いて算出した分布間の距離値Dを照合に用い
るので、図15に示したような分布配置の場合でも、正
確な照合が可能となる。また、入力画像として複数の画
像データ4Aを用いるので、1つの入力画像データを用
いて認識するシステムに比べると、照合性能がはるかに
高い。なお、距離値Dの計算に用いる辞書主成分ベクト
ル63Aおよび入力主成分ベクトル53Aは、ともに直
交基底であることが好ましい。直交基底である主成分ベ
クトル63A,53Aを用いて距離値の計算を行うこと
により、直交基底でない場合と比較して、短時間で高精
度の照合結果を得ることができ、認識率を向上させるこ
とができるからである。
【0060】次に、図1に示した画像認識システムの辞
書データ学習の動作について説明する。図7は、この辞
書データ学習の動作の流れを示すフローチャートであ
る。また、図8は、辞書学習に用いる学習画像の一例を
示す図である。まず、辞書学習に用いる学習画像群と、
この学習画像群に対応するカテゴリIDを入力する(図
7のステップS1)。この学習画像群は、例えば図8に
示すように、カテゴリ1の学習画像データ91、カテゴ
リ2の学習画像データ92、カテゴリ3の学習画像デー
タ93のように、特定のカテゴリに属する複数(M個)
の画像データからなる。
【0061】つぎに、入力されたM個の学習画像データ
のそれぞれに対して特徴抽出を行い、M個の辞書特徴デ
ータを得る(図7のステップS2)。つぎに、得られた
辞書特徴データ群を代表する1つのベクトルを生成し、
辞書代表ベクトルとする(図7のステップS3)。つぎ
に、辞書特徴データ群から辞書代表ベクトルを除いた成
分について、その分布を代表するL個の辞書主成分ベク
トルを含む辞書主成分データを生成する(図7のステッ
プS4)。こうして得られた辞書代表ベクトルおよび辞
書主成分データを辞書データとして、カテゴリIDによ
って分類し辞書格納部3に格納する(図7のステップS
5)。他のカテゴリについて学習するかどうかを判断し
(図7のステップS6)、学習する場合には学習画像群
の入力(図7のステップS1)から作業を繰り返す。作
成が終了したら学習動作を終了する。
【0062】次に、図1に示した画像認識システムの認
識動作について説明する。図9は、この認識動作の流れ
を示すフローチャートである。また、図10は、認識対
象の入力画像の一例を示す図である。まず、認識対象の
画像群を入力する(図9のステップS11)。この入力
画像群は、例えば図10に示すように、同じ対象物体を
撮影して得られた複数(N個)の画像データ90からな
る。
【0063】つぎに、入力されたN個の入力画像データ
のそれぞれに対して特徴抽出を行い、N個の入力特徴デ
ータを得る(図9のステップS12)。つぎに、得られ
た入力特徴データ群を代表する1つのベクトルを生成
し、入力代表ベクトルとする(図9のステップS1
3)。つぎに、入力特徴データ群から入力代表ベクトル
を除いた成分について、その分布を代表するK個の入力
主成分ベクトルを含む入力主成分データを生成する(図
9のステップS14)。
【0064】つぎに、辞書格納部3にカテゴリ毎に格納
されている辞書データを読み出し、入力代表ベクトルお
よび入力主成分データを用いて、辞書データとの距離値
をカテゴリ毎に計算する(図9のステップS15)。そ
して、これらの中で最小の距離値を求める(図9のステ
ップS16)。つぎに、最小距離値が閾値よりも小さい
かどうかを判断する(図9のステップS17)。最小距
離値が閾値よりも小さいときは、最小距離となったカテ
ゴリを認識結果として出力して終了する(図9のステッ
プS18)。逆に、最小距離値が閾値以上であるとき
は、該当クラスなしを出力して終了する(図9のステッ
プS19)。ここでは、最小距離値が閾値と等しい場
合、ステップS19に移行することとしたが、ステップ
S18に移行するようにしてもよいことは言うまでもな
い。
【0065】(第2の実施の形態)図11は、本発明の
第2の実施の形態である顔画像認識システムの構成を示
すブロック図である。この顔画像認識システムは、顔画
像検出部100と、学習部102と、顔辞書格納部10
3と、照合部105とから構成されている。顔画像検出
部100は、ビデオ映像などの画像シーケンスの各フレ
ームから人間の顔が映っている顔画像データを選択す
る。辞書データ学習動作の際には、選択された顔画像デ
ータを学習部102に出力し、認識動作の際には、照合
部105に出力する。顔画像データを選択する方法とし
ては、人間の肌の色に近い色の領域の面積、動きのある
領域の面積がある閾値以上になったときに顔があると判
断する方法がある。また、人間が手動で顔が撮影された
画像群を画面で見ながら選択する方法もある。
【0066】学習部102の動作は、図1における学習
部2の動作と同じである。顔辞書格納部103の動作
は、レコードとして人間の顔画像を対象とした辞書デー
タが格納されることを除き、図1における辞書格納部3
の動作と同じである。照合部105の動作は、図1にお
ける照合部5の動作と同じである。図8に示す顔画像認
識システムは、人間の顔を対象とし、入力された画像に
映る人物が誰なのかを認識することができ、セキュリテ
ィ、監視、ヒューマンインターフェース等に利用するこ
とができる。
【0067】(第3の実施の形態)図12は、本発明の
画像認識システムである第3の実施の形態の構成を示す
ブロック図である。この画像認識システムは、プログラ
ム制御により動作するコンピュータ110と、識別対象
画像及び学習画像を取り込みコンピュータ110に出力
するカメラ121と、コンピュータ110に対してオペ
レータが認識の指示及び学習の指示を与えるための操作
卓122と、コンピュータ110から出力された認識結
果を表示する表示装置123とから構成されている。コ
ンピュータ110は、演算処理部111と記憶部112
とインタフェース部(以下、I/F部という)1131
〜1134 とがバス114に接続された構成となってい
る。I/F部1131 〜1133 は、コンピュータ11
0の外部装置であるカメラ121、操作卓122、表示
装置123とインタフェースをとる。
【0068】コンピュータ110の動作を制御する画像
認識プログラムは、磁気ディスク、半導体メモリその他
の記録媒体124に記録された状態で提供される。この
記録媒体124をI/F部1134 に接続すると、演算
処理部111は記録媒体124に書き込まれた画像認識
プログラムを読み出し、記憶部112に格納する。その
後、操作卓122からの指示に基づき、演算処理部11
1が記憶部112に格納された画像認識プログラムを実
行し、図1に示した学習部2と、辞書格納部3と、照合
部5とを実現する。なお、画像認識プログラムは、イン
ターネットなどの電気通信回線を介して提供されてもよ
い。
【0069】コンピュータ110は、図7および図9の
フローチャートに示す動作を行う。すなわち、操作卓1
22より学習の指示があり、カメラ121から学習画像
データ群が入力されるとともに操作卓から対応するカテ
ゴリIDが入力されると、学習画像データ群の特徴抽出
を行い、得られた辞書特徴データ群を基に辞書代表ベク
トルおよび辞書主成分データを生成し、この辞書代表ベ
クトルおよび辞書主成分データをカテゴリIDによって
分類し、記憶部112によって構成される辞書格納部に
辞書データとして格納する。つぎに、他のカテゴリにつ
いて学習するかどうかを判断し、学習する場合には学習
画像データの入力から作業を繰り返す。作成が終了した
ら学習動作を終了する。
【0070】また、操作卓122より認識の指示があ
り、カメラ121から識別対象の画像データ群が入力さ
れると、特徴抽出を行い、得られた入力特徴データ群を
基に入力代表ベクトルおよび入力主成分データを生成す
る。つぎに、辞書格納部にカテゴリ毎に格納されている
辞書データを読み出し、入力代表ベクトルおよび入力主
成分データを用いて、辞書データとの距離値をカテゴリ
毎に計算する。そして、これらの中で最小の距離値を求
め、最小距離値が閾値よりも小さいかどうかを判断す
る。最小距離が閾値よりも小さいときは、最小距離とな
ったカテゴリを認識結果として表示装置123に表示
し、逆に最小距離が閾値以上であるときは、該当クラス
がない旨を表示装置123に表示し、認識動作を終了す
る。なお、演算処理部111が画像認識プログラムを実
行することにより、図11に示した顔画像検出部100
と、学習部102と、顔辞書格納部103と、照合部1
05とを実現させることもできる。
【0071】
【発明の効果】以上説明したように、本発明では、K個
の入力主成分ベクトル、入力代表ベクトル、L個の辞書
主成分ベクトルおよび辞書代表ベクトルを用いて入力部
分空間と辞書部分空間との距離値を算出し、算出された
距離値を照合に用いる。これにより、複数の入力特徴分
布が同じ入力部分空間内に存在する場合でも、各入力特
徴分布の配置が異なれば距離値も異なるので、入力画像
群を正しく判別することができる。また、本発明では、
複数の入力画像を用い、しかも複数の入力画像から得ら
れた多くのデータを有効に利用して距離値を算出し、こ
の距離値を照合に用いるので、1つの入力画像を用いて
認識を行なう場合と比較して、照合性能がはるかに高
く、高い認識率が得られる。したがって、同一物体の照
明による変動、向きによる変動、変形などを吸収し、頑
強な認識システムおよび方法を構築することが可能とな
る。
【0072】また、直交基底である主成分ベクトルを用
いて距離値の計算を行うことにより、直交基底でない場
合と比較して、短時間で高精度の照合結果を得ることが
でき、認識率を向上させることができる。また、辞書主
成分ベクトルおよび辞書代表ベクトルを生成する手段を
設けることにより、または、かかる処理を行うことによ
り、辞書データの内容を随時更新し、急激な内容変化に
対応することができる。また、入力される画像シーケン
スから顔画像データを選択する手段を設けることによ
り、または、かかる処理を行なうことにより、人間の顔
画像を用いて画像中の人物を同定するシステムを構築す
ることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態である画像認識シ
ステムの構成を示すブロック図である。
【図2】 図1に示す画像認識システムによる処理を概
念的に示す図である。
【図3】 辞書格納部の一構成例を示すブロック図であ
る。
【図4】 識別部の一構成例を示すブロック図である。
【図5】 距離算出部の一構成例を示すブロック図であ
る。
【図6】 距離算出部の動作を説明する概念図である。
【図7】 図1に示す画像認識システムの辞書データ学
習の動作の流れを示すフローチャートである。
【図8】 辞書学習に用いる学習画像の一例を示す図で
ある。
【図9】 図1に示す画像認識システムの認識動作の流
れを示すフローチャートである。
【図10】 認識対象の入力画像の一例を示す図であ
る。
【図11】 本発明の第2の実施の形態である顔画像認
識システムの構成を示すブロック図である。
【図12】 本発明の画像認識システムである第3の実
施の形態の構成を示すブロック図である。
【図13】 従来の画像認識システムの構成を示すブロ
ック図である。
【図14】 従来の画像認識システムで用いられる類似
度を示す概念図である。
【図15】 従来の画像認識システムの問題点を示す概
念図である。
【符号の説明】
1…学習画像群入力部、1A…学習画像データ1A、1
B…カテゴリID、2…学習部、3…辞書格納部、4…
識別対象画像群入力部、5…照合部、5A…認識結果、
21…学習画像特徴抽出部、21A…辞書特徴データ、
21B,21B′…辞書特徴分布、22…辞書代表ベク
トル生成部、22A…辞書代表ベクトル、23…辞書主
成分データ生成部、23A…辞書主成分ベクトル、23
B…重み値、31〜3C…レコード記憶部、51…入力
画像特徴抽出部、51A…入力特徴データ、51B…入
力特徴分布、52…入力代表ベクトル生成部、52A…
入力代表ベクトル、53…入力主成分データ生成部、5
3A…入力主成分ベクトル、53B…重み値、53C…
入力部分空間、54…距離算出部、54A…距離値、5
5…識別部、61…レコード番号、62…辞書代表ベク
トル、63…辞書主成分データ、63A…辞書主成分ベ
クトル、63C…辞書部分空間、64…カテゴリID、
71…最小値算出部、72…閾値処理部、81…入力投
影距離算出部、82…辞書投影距離算出部、83…統合
部、90…識別対象の入力画像データ、91〜93…学
習画像データ、100…顔画像検出部、102…学習
部、103…顔辞書格納部、105…照合部、110…
コンピュータ、111…演算処理部、112…記憶部、
113…インタフェース部、114…バス、121…カ
メラ、122…操作卓、123…表示装置、124…記
憶媒体、501…画像入力部、502…辞書記憶部、5
03…部分空間間の角度計算部、504…認識部、51
1,511A〜511C…入力特徴分布、512…入力
部分空間、521…辞書特徴分布、522…辞書部分空
間、D,d1,d2…距離値、O…座標系の原点、P…辞
書代表ベクトルの終点、Q…入力代表ベクトルの終点、
S1〜S6…学習動作のステップ、S11〜S19…認
識動作のステップ、V1…入力代表ベクトル、V2…辞書
代表ベクトル、Θ…角度。

Claims (31)

    【特許請求の範囲】
  1. 【請求項1】 同じ対象が撮影された複数の入力画像と
    予め登録された辞書データとを照合し認識結果を出力す
    る画像認識システムであって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間を生成する入力部分空間生成手段と、 前記入力部分空間に属する任意のベクトルである入力代
    表ベクトルを生成する入力代表ベクトル生成手段と、 前記辞書データから得られた辞書特徴データを含む辞書
    部分空間およびこの辞書部分空間に属する任意のベクト
    ルである辞書代表ベクトルを格納する辞書格納手段と、 前記入力部分空間と前記辞書代表ベクトルとの距離およ
    び前記辞書部分空間と前記入力代表ベクトルとの距離に
    基づいて前記認識結果を生成する照合手段とを備えたこ
    とを特徴とする画像認識システム。
  2. 【請求項2】 同じ対象が撮影された複数の入力画像と
    予め登録された辞書データとを照合し認識結果を出力す
    る画像認識システムであって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間に属する任意のベクトルである入力代表ベクトル
    を生成する入力代表ベクトル生成手段と、 任意のK個(Kは自然数)の入力特徴データのそれぞれ
    と前記入力代表ベクトルとの差を表すK個の入力主成分
    ベクトルを生成する入力主成分データ生成手段と、 前記辞書データから得られた辞書特徴データを含む辞書
    部分空間に属する任意のベクトルである辞書代表ベクト
    ルおよび任意のL個(Lは自然数)の辞書特徴データの
    それぞれと前記辞書代表ベクトルとの差を表すL個の辞
    書主成分ベクトルを格納する辞書格納手段と、 前記入力主成分ベクトル、前記入力代表ベクトル、前記
    辞書主成分ベクトルおよび前記辞書代表ベクトルから前
    記入力部分空間と前記辞書部分空間との距離値を算出す
    る距離算出手段と、 この距離算出手段により算出された前記距離値に基づい
    て前記認識結果を出力する識別手段とを備えたことを特
    徴とする画像認識システム。
  3. 【請求項3】 請求項2に記載された画像認識システム
    において、 前記入力主成分ベクトルおよび前記辞書主成分ベクトル
    は、直交基底であることを特徴とする画像認識システ
    ム。
  4. 【請求項4】 請求項2または3に記載された画像認識
    システムにおいて、 前記入力代表ベクトルは、前記入力特徴データの平均ベ
    クトルであり、 前記入力主成分ベクトルは、前記入力特徴データから前
    記入力代表ベクトルを減算した成分のうち、固有値が大
    きい方からK個の固有ベクトルであり、 前記辞書代表ベクトルは、前記辞書特徴データの平均ベ
    クトルであり、 前記辞書主成分ベクトルは、前記辞書特徴データから前
    記辞書代表ベクトルを減算した成分のうち、固有値が大
    きい方からL個の固有ベクトルであることを特徴とする
    画像認識システム。
  5. 【請求項5】 請求項2〜4のいずれかに記載された画
    像認識システムにおいて、 前記距離算出手段は、 前記L個の辞書主成分ベクトルで形成される空間と前記
    入力代表ベクトルとの第1の距離を算出する入力投影距
    離算出手段と、 前記K個の入力主成分ベクトルで形成される空間と前記
    辞書代表ベクトルとの第2の距離を算出する辞書投影距
    離算出手段と、 前記第1および第2の距離から前記入力部分空間と前記
    辞書部分空間との前記距離値を算出する統合手段とを備
    えたことを特徴とする画像認識システム。
  6. 【請求項6】 請求項5に記載された画像認識システム
    において、 前記入力代表ベクトルをV1、前記辞書代表ベクトルを
    2、前記入力主成分ベクトルをΨi(i=1,…,
    K)、前記辞書主成分ベクトルをΦj(j=1,…,
    L)とすると、 前記入力投影距離算出手段は、式(A)により前記第1
    の距離d1を算出し、 前記辞書投影距離算出手段は、式(B)により前記第2
    の距離d2を算出することを特徴とする画像認識システ
    ム。 【数1】
  7. 【請求項7】 請求項5に記載された画像認識システム
    において、 前記入力主成分データ生成手段は、さらに前記入力主成
    分ベクトルのそれぞれに対応するK個の重みを生成し、 前記辞書格納手段は、さらに前記辞書主成分ベクトルの
    それぞれに対応するL個の重みを格納することを特徴と
    する画像認識システム。
  8. 【請求項8】 請求項7に記載された画像認識システム
    において、 前記入力主成分ベクトルに対応する重みは、前記入力主
    成分ベクトルとなる前記固有ベクトルのK個の固有値で
    あり、 前記辞書主成分ベクトルに対応する重みは、前記辞書主
    成分ベクトルとなる前記固有ベクトルのL個の固有値で
    あることを特徴とする画像認識システム。
  9. 【請求項9】 請求項8に記載された画像認識システム
    において、 前記入力代表ベクトルをV1、前記辞書代表ベクトルを
    2、前記入力主成分ベクトルをΨi(i=1,…,
    K)、前記入力主成分ベクトルに対応する前記重みをμ
    i(i=1,…,K)、前記辞書主成分ベクトルをΦ
    j(j=1,…,L)、前記辞書主成分ベクトルに対応
    する前記重みをλj(j=1,…,L)とすると、 前記入力投影距離算出手段は、式(C)により前記第1
    の距離d1を算出し、 前記辞書投影距離算出手段は、式(D)により前記第2
    の距離d2を算出することを特徴とする画像認識システ
    ム。 【数2】 (ただし、σは任意の定数)
  10. 【請求項10】 請求項5、6および9のいずれかに記
    載された画像認識システムにおいて、 前記統合手段は、前記第1の距離d1および前記第2の
    距離d2から式(E)により前記入力部分空間と前記辞
    書部分空間との前記距離値Dを算出することを特徴とす
    る画像認識システム。 D=αd1+βd2 ・・・(E) (ただし、α,βは定数)
  11. 【請求項11】 請求項5、6および9のいずれかに記
    載された画像認識システムにおいて、 前記統合手段は、前記第1の距離d1および前記第2の
    距離d2から式(F)により前記入力部分空間と前記辞
    書部分空間との前記距離値Dを算出することを特徴とす
    る画像認識システム。 D=αd1・d2/(d1+d2) ・・・(F) (ただし、αは定数)
  12. 【請求項12】 請求項2〜11のいずれかに記載され
    た画像認識システムにおいて、 前記辞書主成分ベクトルを生成し前記辞書格納手段に出
    力する辞書主成分データ生成手段と、 前記辞書代表ベクトルを生成し前記辞書格納手段に出力
    する辞書代表ベクトル生成手段とをさらに備えたことを
    特徴とする画像認識システム。
  13. 【請求項13】 請求項2〜11のいずれかに記載され
    た画像認識システムにおいて、 入力される画像シーケンスから顔画像データを選択し前
    記入力画像として前記入力主成分データ生成手段および
    入力代表ベクトル生成手段に出力する顔画像検出手段を
    さらに備えたことを特徴とする画像認識システム。
  14. 【請求項14】 請求項12に記載された画像認識シス
    テムにおいて、 入力される画像シーケンスから顔画像データを選択し、
    認識動作の際には、選択された前記顔画像データを前記
    入力画像として前記入力主成分データ生成手段および入
    力代表ベクトル生成手段に出力し、辞書データ学習動作
    の際には、選択された前記顔画像データを前記辞書デー
    タとして前記辞書主成分データ生成手段および辞書代表
    ベクトル生成手段に出力する顔画像検出手段をさらに備
    えたことを特徴とする画像認識システム。
  15. 【請求項15】 同じ対象が撮影された複数の入力画像
    と予め登録された辞書データとを照合し認識結果を出力
    する画像認識方法であって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間およびこの入力部分空間に属する任意のベクトル
    である入力代表ベクトルを生成する第1のステップと、 前記辞書データから得られた辞書特徴データを含む辞書
    部分空間と前記入力代表ベクトルとの第1の距離および
    前記辞書部分空間に属する任意のベクトルである辞書代
    表ベクトルと前記入力部分空間との第2の距離を算出す
    る第2のステップと、 算出された前記第1および第2の距離に基づいて前記認
    識結果を出力する第3のステップとを備えたことを特徴
    とする画像認識方法。
  16. 【請求項16】 同じ対象が撮影された複数の入力画像
    と予め登録された辞書データとを照合し認識結果を出力
    する画像認識方法であって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間に属する任意のベクトルである入力代表ベクトル
    および任意のK個(Kは自然数)の入力特徴データのそ
    れぞれと前記入力代表ベクトルとの差を表すK個の入力
    主成分ベクトルを生成する第1のステップと、 前記入力代表ベクトル、前記入力主成分ベクトル、前記
    辞書データから得られた辞書特徴データを含む辞書部分
    空間に属する任意のベクトルである辞書代表ベクトルお
    よび任意のL個(Lは自然数)の辞書特徴データのそれ
    ぞれと前記辞書代表ベクトルとの差を表すL個の辞書主
    成分ベクトルから、前記入力部分空間と前記辞書部分空
    間との距離値を算出する第2のステップと、 算出された前記距離値に基づいて前記認識結果を出力す
    る第3のステップとを備えたことを特徴とする画像認識
    方法。
  17. 【請求項17】 請求項16に記載された画像認識方法
    において、 前記入力主成分ベクトルおよび前記辞書主成分ベクトル
    は、直交基底であることを特徴とする画像認識方法。
  18. 【請求項18】 同じ対象が撮影された複数の入力画像
    と予め登録された辞書データとを照合し認識結果を出力
    する処理をコンピュータに実行させるための画像認識プ
    ログラムであって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間を生成する入力部分空間生成処理と、 前記入力部分空間に属する任意のベクトルである入力代
    表ベクトルを生成する入力代表ベクトル生成処理と、 前記辞書データから得られた辞書特徴データを含む辞書
    部分空間と前記入力代表ベクトルとの距離および前記辞
    書部分空間に属する任意のベクトルである辞書代表ベク
    トルと前記入力部分空間との距離に基づいて前記認識結
    果を生成する照合処理とをコンピュータに実行させるた
    めの画像認識プログラム。
  19. 【請求項19】 同じ対象が撮影された複数の入力画像
    と予め登録された辞書データとを照合し認識結果を出力
    する処理をコンピュータに実行させるための画像認識プ
    ログラムであって、 前記入力画像から得られた入力特徴データを含む入力部
    分空間に属する任意のベクトルである入力代表ベクトル
    を生成する入力代表ベクトル生成処理と、 任意のK個(Kは自然数)の入力特徴データのそれぞれ
    と前記入力代表ベクトルとの差を表すK個の入力主成分
    ベクトルを生成する入力主成分データ生成処理と、 前記入力代表ベクトル、前記入力主成分ベクトル、前記
    辞書データから得られた辞書特徴データを含む辞書部分
    空間に属する任意のベクトルである辞書代表ベクトルお
    よび任意のL個(Lは自然数)の辞書特徴データのそれ
    ぞれと前記辞書代表ベクトルとの差を表すL個の辞書主
    成分ベクトルから、前記入力部分空間と前記辞書部分空
    間との距離値を算出する距離算出処理と、 算出された前記距離値に基づいて前記認識結果を出力す
    る識別処理とをコンピュータに実行させるための画像認
    識プログラム。
  20. 【請求項20】 請求項19に記載された画像認識プロ
    グラムにおいて、 前記入力主成分ベクトルおよび前記辞書主成分ベクトル
    は、直交基底である画像認識プログラム。
  21. 【請求項21】 請求項19または20に記載された画
    像認識プログラムにおいて、 前記入力代表ベクトルは、前記入力特徴データの平均ベ
    クトルであり、 前記入力主成分ベクトルは、前記入力特徴データから前
    記入力代表ベクトルを減算した成分のうち、固有値が大
    きい方からK個の固有ベクトルであり、 前記辞書代表ベクトルは、前記辞書特徴データの平均ベ
    クトルであり、 前記辞書主成分ベクトルは、前記辞書特徴データから前
    記辞書代表ベクトルを減算した成分のうち、固有値が大
    きい方からL個の固有ベクトルである画像認識プログラ
    ム。
  22. 【請求項22】 請求項19〜21のいずれかに記載さ
    れた画像認識プログラムにおいて、 前記距離算出処理として、 前記L個の辞書主成分ベクトルで形成される空間と前記
    入力代表ベクトルとの第1の距離を算出する入力投影距
    離算出処理と、 前記K個の入力主成分ベクトルで形成される空間と前記
    辞書代表ベクトルとの第2の距離を算出する辞書投影距
    離算出処理と、 前記第1および第2の距離から前記入力部分空間と前記
    辞書部分空間との前記距離値を算出する統合処理とをコ
    ンピュータに実行させるための画像認識プログラム。
  23. 【請求項23】 請求項22に記載された画像認識プロ
    グラムにおいて、 前記入力代表ベクトルをV1、前記辞書代表ベクトルを
    2、前記入力主成分ベクトルをΨi(i=1,…,
    K)、前記辞書主成分ベクトルをΦj(j=1,…,
    L)とすると、 前記入力投影距離算出処理は、式(G)により前記第1
    の距離d1を算出し、 前記辞書投影距離算出処理は、式(H)により前記第2
    の距離d2を算出する画像認識プログラム。 【数3】
  24. 【請求項24】 請求項22に記載された画像認識プロ
    グラムにおいて、 前記入力主成分データ生成処理は、さらに前記入力主成
    分ベクトルのそれぞれに対応するK個の重みを生成し、 前記距離算出処理は、さらに前記K個の重みおよび前記
    辞書主成分ベクトルのそれぞれに対応するL個の重みを
    用いて前記距離値を算出する画像認識プログラム。
  25. 【請求項25】 請求項24に記載された画像認識プロ
    グラムにおいて、 前記入力主成分ベクトルに対応する重みは、前記入力主
    成分ベクトルとなる前記固有ベクトルのK個の固有値で
    あり、 前記辞書主成分ベクトルに対応する重みは、前記辞書主
    成分ベクトルとなる前記固有ベクトルのL個の固有値で
    ある画像認識プログラム。
  26. 【請求項26】 請求項25に記載された画像認識プロ
    グラムにおいて、 前記入力代表ベクトルをV1、前記辞書代表ベクトルを
    2、前記入力主成分ベクトルをΨi(i=1,…,
    K)、前記入力主成分ベクトルに対応する前記重みをμ
    i(i=1,…,K)、前記辞書主成分ベクトルをΦ
    j(j=1,…,L)、前記辞書主成分ベクトルに対応
    する前記重みをλj(j=1,…,L)とすると、 前記入力投影距離算出処理は、式(I)により前記第1
    の距離d1を算出し、 前記辞書投影距離算出処理は、式(J)により前記第2
    の距離d2を算出する画像認識プログラム。 【数4】 (ただし、σは任意の定数)
  27. 【請求項27】 請求項22、23および26のいずれ
    かに記載された画像認識プログラムにおいて、 前記統合手段は、前記第1の距離d1および前記第2の
    距離d2から式(K)により前記入力部分空間と前記辞
    書部分空間との前記距離値Dを算出する画像認識プログ
    ラム。 D=αd1+βd2 ・・・(K) (ただし、α,βは定数)
  28. 【請求項28】 請求項22、23および26のいずれ
    かに記載された画像認識プログラムにおいて、 前記統合手段は、前記第1の距離d1および前記第2の
    距離d2から式(L)により前記入力部分空間と前記辞
    書部分空間との前記距離値Dを算出する画像認識プログ
    ラム。 D=αd1・d2/(d1+d2) ・・・(L) (ただし、αは定数)
  29. 【請求項29】 請求項19〜28のいずれかに記載さ
    れた画像認識プログラムにおいて、 前記辞書主成分ベクトルを生成し登録する辞書主成分デ
    ータ生成処理と、 前記辞書代表ベクトルを生成し登録する辞書代表ベクト
    ル生成処理とをさらにコンピュータに実行させるための
    画像認識プログラム。
  30. 【請求項30】 請求項19〜28のいずれかに記載さ
    れた画像認識プログラムにおいて、 入力される画像シーケンスから顔画像データを選択し前
    記入力画像として前記入力主成分データ生成処理および
    入力代表ベクトル生成処理で使用させる顔画像検出処理
    をさらにコンピュータに実行させるための画像認識プロ
    グラム。
  31. 【請求項31】 請求項29に記載された画像認識プロ
    グラムにおいて、 入力される画像シーケンスから顔画像データを選択し、
    認識動作の際には、選択された前記顔画像データを前記
    入力画像として前記入力主成分データ生成処理および入
    力代表ベクトル生成処理で使用させ、辞書データ学習動
    作の際には、選択された前記顔画像データを前記辞書デ
    ータとして前記辞書主成分データ生成処理および辞書代
    表ベクトル生成処理で使用させる顔画像検出処理をさら
    にコンピュータに実行させるための画像認識プログラ
    ム。
JP2001369557A 2001-12-04 2001-12-04 画像認識システム、画像認識方法および画像認識プログラム Expired - Lifetime JP4099981B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001369557A JP4099981B2 (ja) 2001-12-04 2001-12-04 画像認識システム、画像認識方法および画像認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001369557A JP4099981B2 (ja) 2001-12-04 2001-12-04 画像認識システム、画像認識方法および画像認識プログラム

Publications (2)

Publication Number Publication Date
JP2003168113A true JP2003168113A (ja) 2003-06-13
JP4099981B2 JP4099981B2 (ja) 2008-06-11

Family

ID=19178926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001369557A Expired - Lifetime JP4099981B2 (ja) 2001-12-04 2001-12-04 画像認識システム、画像認識方法および画像認識プログラム

Country Status (1)

Country Link
JP (1) JP4099981B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165311A (ja) * 2006-12-27 2008-07-17 Fujifilm Corp 辞書データ作成装置、所定領域検出装置および撮影装置
JP2015529354A (ja) * 2012-08-15 2015-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated 顔認識のための方法および装置
JP2015194927A (ja) * 2014-03-31 2015-11-05 セコム株式会社 対象識別装置
CN109784325A (zh) * 2017-11-10 2019-05-21 富士通株式会社 开集识别方法和设备及计算机可读存储介质
CN110110734A (zh) * 2018-02-01 2019-08-09 富士通株式会社 开集识别方法、信息处理设备以及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
JPH08123460A (ja) * 1994-10-26 1996-05-17 Sony Corp 探索方法および音声認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6057475A (ja) * 1983-09-07 1985-04-03 Toshiba Corp パタ−ン認識方式
JPH08123460A (ja) * 1994-10-26 1996-05-17 Sony Corp 探索方法および音声認識装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
坂野鋭 外1名: "核非線型相互部分空間法と顔認識への応用", 電子情報通信学会技術研究報告 VOL.99 NO.448 PRMU99−101〜132 パターン認識, vol. 第99巻 第448号, CSNG200100644016, 18 November 1999 (1999-11-18), JP, pages 111 - 116, ISSN: 0000860403 *
坂野鋭 外1名: "核非線型相互部分空間法と顔認識への応用", 電子情報通信学会技術研究報告 VOL.99 NO.448 PRMU99−101〜132 パターン認識, vol. 第99巻 第448号, JPN6008008873, 18 November 1999 (1999-11-18), JP, pages 111 - 116, ISSN: 0000987953 *
福井和広 外3名: "制約相互部分空間法を用いた環境変動にロバストな顔画像認識 照明変動の影響を抑える制約部分空間の学習", 電子情報通信学会論文誌 (J82−D−II) 第4号 情報・システムII−パターン処理, vol. 第J82-D-II巻 第4号, CSNG200001173005, 25 April 1999 (1999-04-25), JP, pages 613 - 620, ISSN: 0000860404 *
福井和広 外3名: "制約相互部分空間法を用いた環境変動にロバストな顔画像認識 照明変動の影響を抑える制約部分空間の学習", 電子情報通信学会論文誌 (J82−D−II) 第4号 情報・システムII−パターン処理, vol. 第J82-D-II巻 第4号, JPN6008008874, 25 April 1999 (1999-04-25), JP, pages 613 - 620, ISSN: 0000987954 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165311A (ja) * 2006-12-27 2008-07-17 Fujifilm Corp 辞書データ作成装置、所定領域検出装置および撮影装置
JP2015529354A (ja) * 2012-08-15 2015-10-05 クゥアルコム・インコーポレイテッドQualcomm Incorporated 顔認識のための方法および装置
JP2015194927A (ja) * 2014-03-31 2015-11-05 セコム株式会社 対象識別装置
CN109784325A (zh) * 2017-11-10 2019-05-21 富士通株式会社 开集识别方法和设备及计算机可读存储介质
JP2019091443A (ja) * 2017-11-10 2019-06-13 富士通株式会社 オープンセット認識方法と装置及びコンピュータ可読記憶媒体
US11455525B2 (en) 2017-11-10 2022-09-27 Fujitsu Limited Method and apparatus of open set recognition and a computer readable storage medium
CN110110734A (zh) * 2018-02-01 2019-08-09 富士通株式会社 开集识别方法、信息处理设备以及存储介质
CN110110734B (zh) * 2018-02-01 2023-04-07 富士通株式会社 开集识别方法、信息处理设备以及存储介质

Also Published As

Publication number Publication date
JP4099981B2 (ja) 2008-06-11

Similar Documents

Publication Publication Date Title
CN110909651B (zh) 视频主体人物的识别方法、装置、设备及可读存储介质
US6430307B1 (en) Feature extraction system and face image recognition system
JP5121506B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP3986583B2 (ja) 確率的固有空間解析を用いた複雑な対象物の検出、認識、及び符号化方法及び装置
US5901244A (en) Feature extraction system and face image recognition system
JP5202148B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US20030161504A1 (en) Image recognition system and recognition method thereof, and program
EP1460580A1 (en) Face meta-data creation and face similarity calculation
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
JP2004192603A (ja) パターン特徴抽出方法及びその装置
KR20060054540A (ko) 얼굴 인식 방법 및 장치
JP2005327076A (ja) パラメタ推定方法、パラメタ推定装置および照合方法
JP2007072620A (ja) 画像認識装置及びその方法
US20220237943A1 (en) Method and apparatus for adjusting cabin environment
US7224835B2 (en) Three-dimensional object recognizing apparatus, method and computer program product
JP4803214B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
JP2008102611A (ja) 画像処理装置
JP4708835B2 (ja) 顔検出装置、顔検出方法、及び顔検出プログラム
JP4099981B2 (ja) 画像認識システム、画像認識方法および画像認識プログラム
JP6202938B2 (ja) 画像認識装置および画像認識方法
JPH1185988A (ja) 顔画像認識システム
Geetha et al. 3D face recognition using Hadoop
JP2000090191A (ja) 顔認識装置及び方法
JP4228031B1 (ja) 画像解析装置、画像登録装置および画像検索装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070821

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070920

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080310

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4099981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140328

Year of fee payment: 6

EXPY Cancellation because of completion of term