JP2001005967A - 画像送信装置及びニューラルネットワーク - Google Patents
画像送信装置及びニューラルネットワークInfo
- Publication number
- JP2001005967A JP2001005967A JP11174568A JP17456899A JP2001005967A JP 2001005967 A JP2001005967 A JP 2001005967A JP 11174568 A JP11174568 A JP 11174568A JP 17456899 A JP17456899 A JP 17456899A JP 2001005967 A JP2001005967 A JP 2001005967A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- learning
- unit
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
(57)【要約】
【課題】 端末装置において、人物画像から顔画像を抽
出する処理とセンター装置へ送信する顔画像の特徴量の
符号化データを作成する処理とを共通化させる人物画像
認証システムを提供する。 【解決手段】 端末装置100の特徴量判別符号化部1
08は、ニューラルネットワークによって第1の特徴量
(人物画像の特徴量)を2進探索木に従ってベクトル量
子化することによって、人物画像の顔画像クラスに属す
る帰属度を判定するとともに、第2の特徴量(顔画像の
特徴量)をセンター装置101へ送信するため、ニュー
ラルネットワークによって第2の特徴量のブロックを2
進探索木に従ってベクトル量子化することによって、第
2の特徴量を符号化データに変換する。
出する処理とセンター装置へ送信する顔画像の特徴量の
符号化データを作成する処理とを共通化させる人物画像
認証システムを提供する。 【解決手段】 端末装置100の特徴量判別符号化部1
08は、ニューラルネットワークによって第1の特徴量
(人物画像の特徴量)を2進探索木に従ってベクトル量
子化することによって、人物画像の顔画像クラスに属す
る帰属度を判定するとともに、第2の特徴量(顔画像の
特徴量)をセンター装置101へ送信するため、ニュー
ラルネットワークによって第2の特徴量のブロックを2
進探索木に従ってベクトル量子化することによって、第
2の特徴量を符号化データに変換する。
Description
【0001】
【発明の属する技術分野】本発明は、画像送信装置及び
ニューラルネットワークに関し、特に画像認識に適した
画像送信装置及びニューラルネットワークを対象とす
る。
ニューラルネットワークに関し、特に画像認識に適した
画像送信装置及びニューラルネットワークを対象とす
る。
【0002】
【従来の技術】セキュリティ監視、電子通商取引などの
分野では、人物の顔画像により個人の認証、識別を行
い、入退室の許可や、サービスの提供を行う人物画像認
証システムが提供されている。このような人物画像認証
システムでは、通常、要所におかれた端末装置とセンタ
ー装置とを通信ネットワークで接続し、端末装置で撮影
した人物画像をセンター装置へ転送し、センター装置側
で一括して、人物画像の認証を行う構成をとっている。
分野では、人物の顔画像により個人の認証、識別を行
い、入退室の許可や、サービスの提供を行う人物画像認
証システムが提供されている。このような人物画像認証
システムでは、通常、要所におかれた端末装置とセンタ
ー装置とを通信ネットワークで接続し、端末装置で撮影
した人物画像をセンター装置へ転送し、センター装置側
で一括して、人物画像の認証を行う構成をとっている。
【0003】図56は、従来の人物画像認証システムの
構成を示す機能ブロック図である。従来の人物画像認証
システムは、端末装置5600とセンター装置5601
を通信ネットワーク5602で接続して構成される。端
末装置5600は、撮像部5603と、画像メモリ56
04と、画像サンプリング部5605と、画像直交変換
部5606と、画像符号化部5607と、通信部560
8より構成される。また、センター装置5601は、通
信部5609と、画像復号化部5610と、画像逆直交
変換部5611と、画像再生部5612と、画像メモリ
5613と、画像サンプリング部5614と、第1の特
徴量抽出部5615と、第1の特徴量判別部5616
と、第2の特徴量抽出部5618と、第2の特徴量判別
部5617より構成される。
構成を示す機能ブロック図である。従来の人物画像認証
システムは、端末装置5600とセンター装置5601
を通信ネットワーク5602で接続して構成される。端
末装置5600は、撮像部5603と、画像メモリ56
04と、画像サンプリング部5605と、画像直交変換
部5606と、画像符号化部5607と、通信部560
8より構成される。また、センター装置5601は、通
信部5609と、画像復号化部5610と、画像逆直交
変換部5611と、画像再生部5612と、画像メモリ
5613と、画像サンプリング部5614と、第1の特
徴量抽出部5615と、第1の特徴量判別部5616
と、第2の特徴量抽出部5618と、第2の特徴量判別
部5617より構成される。
【0004】端末装置5600の画像サンプリング部5
605は、画像メモリ5601中の人物画像をブロック
ごとにサンプリングしてブロック画像とし、これを画像
直交変換部5606に出力する。画像直交変換部560
6は、ブロック画像の画素信号を離散コサイン変換によ
り周波数変換し、データ量を圧縮するために低周波数成
分のみを画像符号化部5607に出力する。
605は、画像メモリ5601中の人物画像をブロック
ごとにサンプリングしてブロック画像とし、これを画像
直交変換部5606に出力する。画像直交変換部560
6は、ブロック画像の画素信号を離散コサイン変換によ
り周波数変換し、データ量を圧縮するために低周波数成
分のみを画像符号化部5607に出力する。
【0005】画像符号化部5607は、低周波成分の信
号をハフマン符号化して符号化データとする。通信部5
608は、センター装置5601の通信部5609へ符
号化データを転送する。画像復号化部5610は、符号
化データを復号化して低周波成分の信号にもどす。
号をハフマン符号化して符号化データとする。通信部5
608は、センター装置5601の通信部5609へ符
号化データを転送する。画像復号化部5610は、符号
化データを復号化して低周波成分の信号にもどす。
【0006】画像逆直交変換部5611は、低周波数成
分の信号を逆離散コサイン変換してもとの画像信号にも
どしてブロック画像とする。画像再生部5612は、ブ
ロック画像を再配列して人物画像を再生し、画像メモリ
5613に記憶する。センター装置5601の画像サン
プリング部5614は、画像メモリ5613中の人物画
像を所定の大きさにサンプリングして複数個の第1の部
分画像を生成する。
分の信号を逆離散コサイン変換してもとの画像信号にも
どしてブロック画像とする。画像再生部5612は、ブ
ロック画像を再配列して人物画像を再生し、画像メモリ
5613に記憶する。センター装置5601の画像サン
プリング部5614は、画像メモリ5613中の人物画
像を所定の大きさにサンプリングして複数個の第1の部
分画像を生成する。
【0007】第1の特徴量抽出部5615は、第1の部
分画像の画像信号より第1の特徴量を抽出する。第1の
特徴判別部5616は、第1の特徴量抽出部5615で
抽出した第1の特徴量を用いて、最も人物の顔画像の特
徴を示している第1の部分画像を特定する。
分画像の画像信号より第1の特徴量を抽出する。第1の
特徴判別部5616は、第1の特徴量抽出部5615で
抽出した第1の特徴量を用いて、最も人物の顔画像の特
徴を示している第1の部分画像を特定する。
【0008】そして、画像サンプリング部5614は、
人物画像より特定された第1の部分画像を含む領域をサ
ンプリングして第2の部分画像(顔画像)を生成し、第
2の特徴量抽出部5617に出力する。第2の特徴量抽
出部5617は、第2の部分画像(顔画像)の画像信号
より第2の特徴量を抽出する。
人物画像より特定された第1の部分画像を含む領域をサ
ンプリングして第2の部分画像(顔画像)を生成し、第
2の特徴量抽出部5617に出力する。第2の特徴量抽
出部5617は、第2の部分画像(顔画像)の画像信号
より第2の特徴量を抽出する。
【0009】第2の特徴量判別部5618は、第2の特
徴量抽出部5617で抽出した第2の特徴量より、その
人物が登録されている人物中のいずれであるかを特定す
る。ここで、第1の特徴量抽出部5615及び第2の特
徴量抽出部5617における特徴量抽出方法として、種
々のものがあるが、Karhunen−Loeve変換
が広く用いられている。
徴量抽出部5617で抽出した第2の特徴量より、その
人物が登録されている人物中のいずれであるかを特定す
る。ここで、第1の特徴量抽出部5615及び第2の特
徴量抽出部5617における特徴量抽出方法として、種
々のものがあるが、Karhunen−Loeve変換
が広く用いられている。
【0010】また、第1の特徴量判別部5616及び第
2の特徴量判別部5618における特徴量判別方法にも
種々あるが、ニューラルネットワークがその有効性よ
り、広く用いられている。例えば、バックプロパゲーシ
ョンニューラルネットワークにより顔の識別を行なった
ものとして、著者S.Lawrence,C.L.Giles,A.C.Tsoi,A.D.
Backが1997年1月 IEEE Transaction on Neural Ne
twork Volume8 No1 98-113頁の題名"FaceRecognition:
A Convolutional Neural Network Approach" が挙げら
れる。
2の特徴量判別部5618における特徴量判別方法にも
種々あるが、ニューラルネットワークがその有効性よ
り、広く用いられている。例えば、バックプロパゲーシ
ョンニューラルネットワークにより顔の識別を行なった
ものとして、著者S.Lawrence,C.L.Giles,A.C.Tsoi,A.D.
Backが1997年1月 IEEE Transaction on Neural Ne
twork Volume8 No1 98-113頁の題名"FaceRecognition:
A Convolutional Neural Network Approach" が挙げら
れる。
【0011】また、その他の顔の識別を行なうニューラ
ルネットワークとして、同巻114-132頁で著者S.H.Lin,
S.Y.Kung, L.J.Linによる題名"Face Recognition/Detec
tionby Probabilistic Decision-based Neural Networ
k"がある。この文献で用いられているニューラルネット
ワークは、一種の学習ベクトル量子化(Learing
Vector Quantization:LVQ)
ニューラルネットワークに属するものだが、LVQに変
形を加え、精度を向上させている。すなわち、入力パタ
ーンが生起する分布として正規分布を仮定して、任意の
入力パターンとその平均パターンとの距離の計算に分散
値を考慮した距離を用いている。
ルネットワークとして、同巻114-132頁で著者S.H.Lin,
S.Y.Kung, L.J.Linによる題名"Face Recognition/Detec
tionby Probabilistic Decision-based Neural Networ
k"がある。この文献で用いられているニューラルネット
ワークは、一種の学習ベクトル量子化(Learing
Vector Quantization:LVQ)
ニューラルネットワークに属するものだが、LVQに変
形を加え、精度を向上させている。すなわち、入力パタ
ーンが生起する分布として正規分布を仮定して、任意の
入力パターンとその平均パターンとの距離の計算に分散
値を考慮した距離を用いている。
【0012】以下、このニューラルネットワークをσL
VQ(分散値を考慮したLVQ)ニューラルネットワー
クと記すことにする。上記のバックプロパゲーションニ
ューラルネットワーク及びσLVQニューラルネットワ
ークでは、識別したい人物の顔画像を適切に学習するこ
とによって、未知の人物の顔画像に対して、学習ずみの
顔画像の中から最も類似する顔画像をもつ人物を特定す
ることができ、顔画像よりその人物の認証が行える。
VQ(分散値を考慮したLVQ)ニューラルネットワー
クと記すことにする。上記のバックプロパゲーションニ
ューラルネットワーク及びσLVQニューラルネットワ
ークでは、識別したい人物の顔画像を適切に学習するこ
とによって、未知の人物の顔画像に対して、学習ずみの
顔画像の中から最も類似する顔画像をもつ人物を特定す
ることができ、顔画像よりその人物の認証が行える。
【0013】以上のような人物認証システムによって、
人物の顔画像を用いた人物認証が可能である。
人物の顔画像を用いた人物認証が可能である。
【0014】
【発明が解決しようとする課題】しかしながら、上述の
人物認証システムでは、一応は人物の認証ができるもの
の、その効率性、認識精度の点で以下のような問題があ
る。まず、従来の人物画像認証システムでは、端末装置
5600から撮影した画像データをすべてをセンター装
置5601へ転送し、センター装置5601側で、認証
に必要な領域(顔領域)を切り出して、認証を行う構成
としていることである。このため、画像認証として用い
られる顔領域のデータ以外の膨大なデータをも通信ネッ
トワークを介して送信していることになり、無駄な通信
コストがかかる。また、一般に、人物画像から顔画像を
切り出す処理は時間を要するので、センター装置560
1が、遠隔多地点の端末装置5600から転送されてく
る人物画像から顔画像を切り出す処理を一括して行うシ
ステム構成では、センター装置5601の負荷が高くな
る。
人物認証システムでは、一応は人物の認証ができるもの
の、その効率性、認識精度の点で以下のような問題があ
る。まず、従来の人物画像認証システムでは、端末装置
5600から撮影した画像データをすべてをセンター装
置5601へ転送し、センター装置5601側で、認証
に必要な領域(顔領域)を切り出して、認証を行う構成
としていることである。このため、画像認証として用い
られる顔領域のデータ以外の膨大なデータをも通信ネッ
トワークを介して送信していることになり、無駄な通信
コストがかかる。また、一般に、人物画像から顔画像を
切り出す処理は時間を要するので、センター装置560
1が、遠隔多地点の端末装置5600から転送されてく
る人物画像から顔画像を切り出す処理を一括して行うシ
ステム構成では、センター装置5601の負荷が高くな
る。
【0015】この点については、端末装置5600にお
いて顔画像の切り出し処理を行うようなシステム構成を
とればよいと考えることもできる。つまり、端末装置5
600が第1の特徴量抽出部5615及び第1の特徴量
判別部5616を備えて、顔画像の切り出し処理を行わ
せるのである。これによって、端末装置5600では、
第1の特徴量抽出部5615及び第1の特徴量判別部5
616によって顔画像の切り出し処理が行われ、画像直
交変換部5606及び画像符号化部5607によって、
顔画像を符号化する処理が行われる。
いて顔画像の切り出し処理を行うようなシステム構成を
とればよいと考えることもできる。つまり、端末装置5
600が第1の特徴量抽出部5615及び第1の特徴量
判別部5616を備えて、顔画像の切り出し処理を行わ
せるのである。これによって、端末装置5600では、
第1の特徴量抽出部5615及び第1の特徴量判別部5
616によって顔画像の切り出し処理が行われ、画像直
交変換部5606及び画像符号化部5607によって、
顔画像を符号化する処理が行われる。
【0016】しかし、これらの切り出し処理と符号化処
理とは、それぞれ別個の方式に基づいているので、別個
のハードウエアが必要となり、端末装置5600のハー
ドウエアの規模が大きくなる。端末装置5600では、
経済性、メンテナンス等の点で、できるだけ簡易なハー
ドウエア構成が望ましいのに対して、これは極めて重要
な問題となる。
理とは、それぞれ別個の方式に基づいているので、別個
のハードウエアが必要となり、端末装置5600のハー
ドウエアの規模が大きくなる。端末装置5600では、
経済性、メンテナンス等の点で、できるだけ簡易なハー
ドウエア構成が望ましいのに対して、これは極めて重要
な問題となる。
【0017】また、第1の特徴量判別部5616及び第
2の特徴量判別部5618において用いられるニューラ
ルネットワークには次のような問題がある。σLVQ型
ニューラルネットワークでは、参照ベクトルのうちの代
表ベクトルの学習方法は公知のものを利用できるが、分
散ベクトルについての学習方法は未だ見出されておら
ず、そのため望ましい精度、及び学習時間が得られな
い。
2の特徴量判別部5618において用いられるニューラ
ルネットワークには次のような問題がある。σLVQ型
ニューラルネットワークでは、参照ベクトルのうちの代
表ベクトルの学習方法は公知のものを利用できるが、分
散ベクトルについての学習方法は未だ見出されておら
ず、そのため望ましい精度、及び学習時間が得られな
い。
【0018】また、σLVQ型ニューラルネットワーク
を含めニューラルネットワークは、一般に学習サンプル
数が少ない場合には、特徴量の構造を十分に学習できな
い。特に、σLVQ型ニューラルネットワーク固有の問
題として、学習サンプル数が少ない場合には、学習サン
プルから統計計算した分散ベクトルの信頼性が低く、そ
のため、識別精度が著しく劣化する。
を含めニューラルネットワークは、一般に学習サンプル
数が少ない場合には、特徴量の構造を十分に学習できな
い。特に、σLVQ型ニューラルネットワーク固有の問
題として、学習サンプル数が少ない場合には、学習サン
プルから統計計算した分散ベクトルの信頼性が低く、そ
のため、識別精度が著しく劣化する。
【0019】さらに、ニューラルネットワークによる人
物識別では、未登録の人物の顔画像に対しても、それと
最も類似する顔画像をもつ人物(登録人物)が特定され
るので、未登録人物を誤って登録人物のいずれかである
ものと識別してしまう。また、ニューラルネットワーク
では、入力パターン又は出力パターンの次元が増えると
ともに、ネットワークの構造が大規模、複雑になり、多
量の学習データと学習時間を要するとともに、識別精度
も悪くなる。
物識別では、未登録の人物の顔画像に対しても、それと
最も類似する顔画像をもつ人物(登録人物)が特定され
るので、未登録人物を誤って登録人物のいずれかである
ものと識別してしまう。また、ニューラルネットワーク
では、入力パターン又は出力パターンの次元が増えると
ともに、ネットワークの構造が大規模、複雑になり、多
量の学習データと学習時間を要するとともに、識別精度
も悪くなる。
【0020】さらに、顔画像の位置に依存した特徴量を
ニューラルネットワークの入力パターンとする場合、撮
像部に対する人物の位置が変わると、その識別精度は劣
化する。特に、σLVQ型ニューラルネットワークで
は、入力パターンの位置ずれに対して識別精度の劣化は
著しい。そこで、本発明はかかる問題点に鑑みてなされ
たものであり、端末装置のハードウエア構成が簡易とな
る人物認証システム、及び人物認証に適したニューラル
ネットワークを提供することを目的とする。
ニューラルネットワークの入力パターンとする場合、撮
像部に対する人物の位置が変わると、その識別精度は劣
化する。特に、σLVQ型ニューラルネットワークで
は、入力パターンの位置ずれに対して識別精度の劣化は
著しい。そこで、本発明はかかる問題点に鑑みてなされ
たものであり、端末装置のハードウエア構成が簡易とな
る人物認証システム、及び人物認証に適したニューラル
ネットワークを提供することを目的とする。
【0021】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、同一のクラスに属する複数の異なるオブ
ジェクトそれぞれを識別するための画像を送信する装置
であって、オブジェクトを撮像して得られる画像データ
を獲得する画像獲得手段と、獲得された画像データを用
いてオブジェクトの画像上の特徴を示す特徴量を作成す
る特徴量作成手段と、特徴量を構成する複数の特徴成分
それぞれに対応する座標軸からなる特徴空間を2分探索
が可能なように分割した分割境界面それぞれがノードに
対応づけられ、分割された最小単位の部分空間それぞれ
に末端の枝が対応づけられた2進探索木を予め記憶する
2進探索木記憶手段と、前記2進探索木の分割境界面に
従って、前記特徴量作成手段により作成された特徴量を
順次量子化していき、末端の枝を特定し、該末端の枝よ
り符号語を特定し、該符号語を特徴量の符号化データと
する符号化手段と、前記符号化データを送信する送信手
段とを備える。
に、本発明は、同一のクラスに属する複数の異なるオブ
ジェクトそれぞれを識別するための画像を送信する装置
であって、オブジェクトを撮像して得られる画像データ
を獲得する画像獲得手段と、獲得された画像データを用
いてオブジェクトの画像上の特徴を示す特徴量を作成す
る特徴量作成手段と、特徴量を構成する複数の特徴成分
それぞれに対応する座標軸からなる特徴空間を2分探索
が可能なように分割した分割境界面それぞれがノードに
対応づけられ、分割された最小単位の部分空間それぞれ
に末端の枝が対応づけられた2進探索木を予め記憶する
2進探索木記憶手段と、前記2進探索木の分割境界面に
従って、前記特徴量作成手段により作成された特徴量を
順次量子化していき、末端の枝を特定し、該末端の枝よ
り符号語を特定し、該符号語を特徴量の符号化データと
する符号化手段と、前記符号化データを送信する送信手
段とを備える。
【0022】また、本発明の画像獲得手段は、人間を撮
像した撮像画像から複数個の部分画像を作成する部分画
像作成部と、前記部分画像の画像データの特徴を示す特
徴量を作成する特徴量作成部と、特徴量を構成する複数
の特徴成分それぞれに対応する座標軸からなる特徴空間
を2分探索が可能なように分割した分割境界面それぞれ
が各ノードに対応づけられ、分割された最小単位の部分
空間それぞれを特定する顔の画像クラスへの帰属度が末
端の枝に対応づけられた2進探索木を予め記憶する2進
探索木記憶部と、前記2進探索木の分割境界面に従っ
て、前記特徴量作成部が作成した特徴量を順次量子化し
ていき、末端の枝より前記特徴量の顔の画像クラスへの
帰属度を判定する帰属度判定部と、前記顔画像クラスへ
の帰属度が最大となる部分画像を顔の画像データとする
画像データ選択部とを備える。
像した撮像画像から複数個の部分画像を作成する部分画
像作成部と、前記部分画像の画像データの特徴を示す特
徴量を作成する特徴量作成部と、特徴量を構成する複数
の特徴成分それぞれに対応する座標軸からなる特徴空間
を2分探索が可能なように分割した分割境界面それぞれ
が各ノードに対応づけられ、分割された最小単位の部分
空間それぞれを特定する顔の画像クラスへの帰属度が末
端の枝に対応づけられた2進探索木を予め記憶する2進
探索木記憶部と、前記2進探索木の分割境界面に従っ
て、前記特徴量作成部が作成した特徴量を順次量子化し
ていき、末端の枝より前記特徴量の顔の画像クラスへの
帰属度を判定する帰属度判定部と、前記顔画像クラスへ
の帰属度が最大となる部分画像を顔の画像データとする
画像データ選択部とを備える。
【0023】また、本発明は、学習により入力ベクトル
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数14]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数15]により代表ベクトルを更新し、[数16]
により分散ベクトルを更新し、カテゴリー判定が誤りで
あれば[数17]により代表ベクトルを更新し、[数1
8]により分散ベクトルを更新することにより学習する
学習手段とを備える。
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数14]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数15]により代表ベクトルを更新し、[数16]
により分散ベクトルを更新し、カテゴリー判定が誤りで
あれば[数17]により代表ベクトルを更新し、[数1
8]により分散ベクトルを更新することにより学習する
学習手段とを備える。
【0024】
【数14】
【0025】
【数15】
【0026】
【数16】
【0027】
【数17】
【0028】
【数18】
【0029】また、本発明は、出力パターンにより入力
パターンが登録カテゴリーのいずれに属するのか、ある
いは登録カテゴリーに属さないのかを識別するニューラ
ルネットワークであって、登録カテゴリーに属するサン
プルと、登録カテゴリーに属さないサンプルを入力パタ
ーンとし、登録カテゴリーに属するサンプルに対して
は、それが登録カテゴリーのいずれであるかを示す出力
パターンを教師信号とし、登録カテゴリーに属さないサ
ンプルに対しては、それが擬似登録カテゴリーに属する
ことを示す出力パターンを教師信号として学習サンプル
を作成する学習サンプル作成手段と、前記学習サンプル
を用いて学習をする学習手段と、任意の入力パターンに
対して擬似登録カテゴリーに属することを示す出力パタ
ーンが得られた時には、該入力パターンが登録カテゴリ
ーに属さないと判断する未登録カテゴリー識別手段とを
備える。
パターンが登録カテゴリーのいずれに属するのか、ある
いは登録カテゴリーに属さないのかを識別するニューラ
ルネットワークであって、登録カテゴリーに属するサン
プルと、登録カテゴリーに属さないサンプルを入力パタ
ーンとし、登録カテゴリーに属するサンプルに対して
は、それが登録カテゴリーのいずれであるかを示す出力
パターンを教師信号とし、登録カテゴリーに属さないサ
ンプルに対しては、それが擬似登録カテゴリーに属する
ことを示す出力パターンを教師信号として学習サンプル
を作成する学習サンプル作成手段と、前記学習サンプル
を用いて学習をする学習手段と、任意の入力パターンに
対して擬似登録カテゴリーに属することを示す出力パタ
ーンが得られた時には、該入力パターンが登録カテゴリ
ーに属さないと判断する未登録カテゴリー識別手段とを
備える。
【0030】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。 (実施の形態1)実施の形態1は、端末装置において、
同一の方式に基づいて顔画像の切り出し処理と符号化処
理を行う人物認証システムに関する。
て図面を用いて説明する。 (実施の形態1)実施の形態1は、端末装置において、
同一の方式に基づいて顔画像の切り出し処理と符号化処
理を行う人物認証システムに関する。
【0031】図1は、実施の形態1の人物画像認証シス
テムの構成を示す機能ブロック図である。人物画像認証
システムは、端末装置100とセンター装置101を通
信ネットワーク102で接続して構成される。端末装置
100は、人物を撮像して、撮像した画像から顔画像を
切り出し、顔画像の特徴量を符号化するもので、撮像部
103と、画像メモリ104と、画像サンプリング部1
05と、特徴量変換部106と、第1の特徴量識別参照
情報記憶部107と、特徴量判別符号化部108と、第
2の特徴量符号化参照情報記憶部109と、選択信号入
力部111と、制御部112と、通信部113と、デー
タ記憶部114と、データ符号復号化部115と、デー
タ提示部116より構成される。
テムの構成を示す機能ブロック図である。人物画像認証
システムは、端末装置100とセンター装置101を通
信ネットワーク102で接続して構成される。端末装置
100は、人物を撮像して、撮像した画像から顔画像を
切り出し、顔画像の特徴量を符号化するもので、撮像部
103と、画像メモリ104と、画像サンプリング部1
05と、特徴量変換部106と、第1の特徴量識別参照
情報記憶部107と、特徴量判別符号化部108と、第
2の特徴量符号化参照情報記憶部109と、選択信号入
力部111と、制御部112と、通信部113と、デー
タ記憶部114と、データ符号復号化部115と、デー
タ提示部116より構成される。
【0032】撮像部103は、人物画像を撮像する。画
像メモリ104は、撮像した人物画像を以下の処理のた
め記憶する。画像サンプリング部105は、人物画像よ
り所定の大きさの矩形領域内の部分画像を取り出し、濃
度値の補正を行なって第1の部分画像及び第2の部分画
像を抽出する。
像メモリ104は、撮像した人物画像を以下の処理のた
め記憶する。画像サンプリング部105は、人物画像よ
り所定の大きさの矩形領域内の部分画像を取り出し、濃
度値の補正を行なって第1の部分画像及び第2の部分画
像を抽出する。
【0033】第1の部分画像は、一定間隔で移動させる
第1の矩形領域に含まれる画像部分を切り出して、その
画素の濃度値を補正したものである。図2は、人物画像
中での第1の矩形領域及び第2の矩形領域を示す。図2
(a)は、第1の矩形領域を示す図である。第1の矩形
領域201は、所定の大きさを有し、人物画像200上
を水平、垂直方向に一定間隔で移動するものである。
第1の矩形領域に含まれる画像部分を切り出して、その
画素の濃度値を補正したものである。図2は、人物画像
中での第1の矩形領域及び第2の矩形領域を示す。図2
(a)は、第1の矩形領域を示す図である。第1の矩形
領域201は、所定の大きさを有し、人物画像200上
を水平、垂直方向に一定間隔で移動するものである。
【0034】第2の部分画像は、顔の領域であると判定
された第1の矩形領域を取り囲む第2の矩形領域に含ま
れる画像部分を切り出して、その画素の濃度値を補正し
たものである。図2(b)は、第2の矩形領域を示す図
である。第2の矩形領域203は、第1の矩形領域20
2よりも大きく、顔の領域と判定された第1の矩形領域
202を取り囲むように配置される。
された第1の矩形領域を取り囲む第2の矩形領域に含ま
れる画像部分を切り出して、その画素の濃度値を補正し
たものである。図2(b)は、第2の矩形領域を示す図
である。第2の矩形領域203は、第1の矩形領域20
2よりも大きく、顔の領域と判定された第1の矩形領域
202を取り囲むように配置される。
【0035】特徴量変換部106は、第1の部分画像の
画像データ及び第2の部分画像の画像データを、それぞ
れ、周波数による帯域2分割のサブバンド分解して、第
1の特徴量及び第2の特徴量を抽出する。第1の部分画
像より変換された第1の特徴量は、第1の部分画像が顔
領域であるのかを判定するために用いられる。
画像データ及び第2の部分画像の画像データを、それぞ
れ、周波数による帯域2分割のサブバンド分解して、第
1の特徴量及び第2の特徴量を抽出する。第1の部分画
像より変換された第1の特徴量は、第1の部分画像が顔
領域であるのかを判定するために用いられる。
【0036】第2の部分画像より変換された第2の特徴
量は、第2の部分画像がどの人物の顔画像であるかの特
定、すなわち人物認証のために用いられる。第1の特徴
量識別参照情報記憶部107は、第1の特徴量を構成す
る複数の特徴成分それぞれに対応する座標軸からなる特
徴空間を2分探索が可能なように2分割していくための
複数の分割境界面それぞれがノードに対応づけられ、分
割された最小単位の部分空間それぞれを特定する顔の画
像クラスへの帰属度が末端の枝に対応づけられた2進探
索木を記憶する。この2進探索木は、ニューラルネット
ワークによる学習により作成される。つまり、上記分割
境界面はニューラルネトワークの学習係数として記憶さ
れている。
量は、第2の部分画像がどの人物の顔画像であるかの特
定、すなわち人物認証のために用いられる。第1の特徴
量識別参照情報記憶部107は、第1の特徴量を構成す
る複数の特徴成分それぞれに対応する座標軸からなる特
徴空間を2分探索が可能なように2分割していくための
複数の分割境界面それぞれがノードに対応づけられ、分
割された最小単位の部分空間それぞれを特定する顔の画
像クラスへの帰属度が末端の枝に対応づけられた2進探
索木を記憶する。この2進探索木は、ニューラルネット
ワークによる学習により作成される。つまり、上記分割
境界面はニューラルネトワークの学習係数として記憶さ
れている。
【0037】第2の特徴量符号化参照情報記憶部109
は、第2の特徴量をブロック分割したブロック単位の特
徴量を構成する複数の特徴成分それぞれに対応する座標
軸からなる特徴空間を2分探索が可能なように2分割し
ていくための複数の分割境界面それぞれがノードに対応
づけられ、分割された最小単位の部分空間が末端の枝に
対応づけられた2進探索木を記憶する。この2進探索木
も、同様にニューラルネットワークによる学習により作
成される。
は、第2の特徴量をブロック分割したブロック単位の特
徴量を構成する複数の特徴成分それぞれに対応する座標
軸からなる特徴空間を2分探索が可能なように2分割し
ていくための複数の分割境界面それぞれがノードに対応
づけられ、分割された最小単位の部分空間が末端の枝に
対応づけられた2進探索木を記憶する。この2進探索木
も、同様にニューラルネットワークによる学習により作
成される。
【0038】特徴量判別符号化部108は、ニューラル
ネットワークによって、第1の特徴量を2進探索木に従
ってベクトル量子化することによって、第1の部分画像
の顔画像クラスに属する帰属度を判定する(第1の特徴
量の判別)とともに、第2の特徴量をセンター装置10
1へ送信するため、ニューラルネットワークによって、
第2の特徴量のブロックを2進探索木に従ってベクトル
量子化することによって、第2の特徴量を符号化する
(第2の特徴量の符号化)。このように、特徴量判別符
号化部108において、第2の特徴量を符号化する方法
と第1の特徴量を判別する方法とが同一であることが本
実施の形態の最も特徴的なところである。
ネットワークによって、第1の特徴量を2進探索木に従
ってベクトル量子化することによって、第1の部分画像
の顔画像クラスに属する帰属度を判定する(第1の特徴
量の判別)とともに、第2の特徴量をセンター装置10
1へ送信するため、ニューラルネットワークによって、
第2の特徴量のブロックを2進探索木に従ってベクトル
量子化することによって、第2の特徴量を符号化する
(第2の特徴量の符号化)。このように、特徴量判別符
号化部108において、第2の特徴量を符号化する方法
と第1の特徴量を判別する方法とが同一であることが本
実施の形態の最も特徴的なところである。
【0039】選択信号入力部111は、ユーザからの入
力、例えば、サービス利用者の認証番号(利用者ID番
号)の入力や、サービスの内容の選択や、サービスの開
始入力を受け付ける。制御部112は、選択信号入力部
111の入力に基づき、サービスを開始する場合、若し
くは認証結果に基づき、サービスを許可した場合に、撮
像部103に撮影を指示する。
力、例えば、サービス利用者の認証番号(利用者ID番
号)の入力や、サービスの内容の選択や、サービスの開
始入力を受け付ける。制御部112は、選択信号入力部
111の入力に基づき、サービスを開始する場合、若し
くは認証結果に基づき、サービスを許可した場合に、撮
像部103に撮影を指示する。
【0040】通信部113は、第2の特徴量を符号化し
たデータをセンター装置101へ送信するとともに、セ
ンター装置101との間でサービス情報の授受を行な
う。データ記憶部114は、サービス情報を一時的に記
憶する。データ符号復号化部115は、データ記憶部1
27へ書き込む情報の符号化、又はデータ記憶部127
から読み込んだ情報の復号化をする。符号化方式として
は、楕円暗号やRSA暗号等を用いる。
たデータをセンター装置101へ送信するとともに、セ
ンター装置101との間でサービス情報の授受を行な
う。データ記憶部114は、サービス情報を一時的に記
憶する。データ符号復号化部115は、データ記憶部1
27へ書き込む情報の符号化、又はデータ記憶部127
から読み込んだ情報の復号化をする。符号化方式として
は、楕円暗号やRSA暗号等を用いる。
【0041】データ提示部116は、データ記憶部12
7から読み込んだ情報を提示する。センター装置101
は、端末装置100から符号化データを受信し、符号化
データを復元した顔画像の特徴量より人物を識別するも
ので、通信部117と、第2の特徴量復号化参照情報記
憶部118と、第2の特徴量復号化部119と、第2の
特徴量識別参照情報記憶部120と、第2の特徴量判別
部121と、特徴量逆変換部122と、画像再生部12
3と、画像表示部124と、制御部126と、データ記
憶部127と、データ符号復号化部128より構成され
る。
7から読み込んだ情報を提示する。センター装置101
は、端末装置100から符号化データを受信し、符号化
データを復元した顔画像の特徴量より人物を識別するも
ので、通信部117と、第2の特徴量復号化参照情報記
憶部118と、第2の特徴量復号化部119と、第2の
特徴量識別参照情報記憶部120と、第2の特徴量判別
部121と、特徴量逆変換部122と、画像再生部12
3と、画像表示部124と、制御部126と、データ記
憶部127と、データ符号復号化部128より構成され
る。
【0042】通信部117は、第2の特徴量を符号化し
たデータを端末装置から受信するとともに、端末装置と
の間でサービス情報の授受を行なう。第2の特徴量復号
化参照情報記憶部118は、第2の特徴量のブロックを
符号化したデータと第2の特徴量の代表ベクトルとの対
応表を記憶する。第2の特徴量復号化部119は、符号
化されて送られてきた第2の特徴量のブロックを上記対
応表より、第2の特徴量のブロックの代表ベクトルに変
換する。
たデータを端末装置から受信するとともに、端末装置と
の間でサービス情報の授受を行なう。第2の特徴量復号
化参照情報記憶部118は、第2の特徴量のブロックを
符号化したデータと第2の特徴量の代表ベクトルとの対
応表を記憶する。第2の特徴量復号化部119は、符号
化されて送られてきた第2の特徴量のブロックを上記対
応表より、第2の特徴量のブロックの代表ベクトルに変
換する。
【0043】第2の特徴量判別部121は、第2の特徴
量をニューラルネットワークに入力して、第2の部分画
像が属する人物を特定する。第2の特徴量識別参照情報
記憶部120は、上記ニューラルネットワークの学習係
数を記憶する。特徴量逆変換部122は、第2の特徴量
のブロックを周波数による帯域2分割のサブバンド合成
して、第2の部分画像のブロックを復元する。
量をニューラルネットワークに入力して、第2の部分画
像が属する人物を特定する。第2の特徴量識別参照情報
記憶部120は、上記ニューラルネットワークの学習係
数を記憶する。特徴量逆変換部122は、第2の特徴量
のブロックを周波数による帯域2分割のサブバンド合成
して、第2の部分画像のブロックを復元する。
【0044】画像再生部123は、第2の部分画像のブ
ロックを配列して、第2の部分画像を再生する。画像表
示部124は、再生された第2の部分画像を提示する。
制御部126は、第2の特徴量判別部121において特
定した人物と転送されてきた顔の認証番号と比較して、
一致しているかどうかを判定し、判定した判定結果の信
号によって他の構成要素に指示を送る。
ロックを配列して、第2の部分画像を再生する。画像表
示部124は、再生された第2の部分画像を提示する。
制御部126は、第2の特徴量判別部121において特
定した人物と転送されてきた顔の認証番号と比較して、
一致しているかどうかを判定し、判定した判定結果の信
号によって他の構成要素に指示を送る。
【0045】データ記憶部127は、サービス情報を記
憶する。データ符号復号化部128は、データ記憶部1
27へ書き込む情報を復号化し、データ記憶部127か
ら読み込んだ情報を符号化する。図3は、実施の形態1
の人物画像認証システム全体の動作手順の概略を示すフ
ローチャートである。
憶する。データ符号復号化部128は、データ記憶部1
27へ書き込む情報を復号化し、データ記憶部127か
ら読み込んだ情報を符号化する。図3は、実施の形態1
の人物画像認証システム全体の動作手順の概略を示すフ
ローチャートである。
【0046】まず、撮像部103が人物画像を撮影し、
画像メモリ104に記憶する(ステップS300)。次
に、画像サンプリング部105は、画像メモリ104よ
り人物画像を取り出して、その大きさを縮少変換した縮
小画像を作成する(ステップS301)。そして、画像
サンプリング部105は、第1の矩形領域の位置を水
平、垂直に指定された画素間隔で移動させて、第1の矩
形領域内に含まれる画素の濃度値を補正して、第1の部
分画像を生成する(ステップS302)。
画像メモリ104に記憶する(ステップS300)。次
に、画像サンプリング部105は、画像メモリ104よ
り人物画像を取り出して、その大きさを縮少変換した縮
小画像を作成する(ステップS301)。そして、画像
サンプリング部105は、第1の矩形領域の位置を水
平、垂直に指定された画素間隔で移動させて、第1の矩
形領域内に含まれる画素の濃度値を補正して、第1の部
分画像を生成する(ステップS302)。
【0047】続いて、特徴量変換部106は、第1の部
分画像から第1の特徴量を抽出する(ステップS30
3)。次に、特徴量判別符号化部108は、抽出した第
1の特徴量を入力とし、第1の特徴量識別参照情報記憶
部107に記憶されている2進探索木に従って、ニュー
ラルネットワークにより、第1の部分画像の顔画像クラ
スに属する帰属度を判定する(ステップS304)。
分画像から第1の特徴量を抽出する(ステップS30
3)。次に、特徴量判別符号化部108は、抽出した第
1の特徴量を入力とし、第1の特徴量識別参照情報記憶
部107に記憶されている2進探索木に従って、ニュー
ラルネットワークにより、第1の部分画像の顔画像クラ
スに属する帰属度を判定する(ステップS304)。
【0048】第1の矩形領域の水平、垂直の位置がサン
プリングの最終の位置になるまで、ステップS303〜
S305を繰り返し、縮小画像のサイズが指定したサイ
ズ以下になるまで、ステップS302〜S306を繰り
返すことによって、帰属度が最大である最大値、第1の
矩形領域の位置、縮小画像の縮小率を求める(ステップ
S305、S306)。
プリングの最終の位置になるまで、ステップS303〜
S305を繰り返し、縮小画像のサイズが指定したサイ
ズ以下になるまで、ステップS302〜S306を繰り
返すことによって、帰属度が最大である最大値、第1の
矩形領域の位置、縮小画像の縮小率を求める(ステップ
S305、S306)。
【0049】次に、画像サンプリング部105は、ステ
ップS306までによって得られた帰属度が最大である
第1の矩形領域の位置、縮小画像の縮小率から、前記第
1の矩形領域を含むように、第2の矩形領域を生成す
る。そして、画像サンプリング部105は、第2の矩形
領域に含まれる画素の濃度値を補正して第2の部分画像
を生成する(ステップS307)。
ップS306までによって得られた帰属度が最大である
第1の矩形領域の位置、縮小画像の縮小率から、前記第
1の矩形領域を含むように、第2の矩形領域を生成す
る。そして、画像サンプリング部105は、第2の矩形
領域に含まれる画素の濃度値を補正して第2の部分画像
を生成する(ステップS307)。
【0050】そして、特徴量変換部106は、第2の部
分画像から第2の特徴量を抽出する(ステップS30
8)。続いて、特徴量判別符号化部108は、抽出した
第2の特徴量を入力とし、第2の特徴量符号化参照情報
記憶部109に記憶されている2進探索木に従って、ニ
ューラルネットワークにより、第2の特徴量を所定のブ
ロック単位で符号化する(ステップS309)。
分画像から第2の特徴量を抽出する(ステップS30
8)。続いて、特徴量判別符号化部108は、抽出した
第2の特徴量を入力とし、第2の特徴量符号化参照情報
記憶部109に記憶されている2進探索木に従って、ニ
ューラルネットワークにより、第2の特徴量を所定のブ
ロック単位で符号化する(ステップS309)。
【0051】次に、通信部113は、符号化された第2
の特徴量を通信ネットワーク102を介して、センター
装置101内の通信部117に転送する(ステップS3
10)。次に、第2の特徴量復号化部119は、第2の
特徴量復号化参照情報記憶部118に記憶されている符
号化データとその代表ベクトルとの対応表に基づいて符
号化データを復号化して、もとの第2の特徴量のブロッ
クにもどす(ステップS311)。
の特徴量を通信ネットワーク102を介して、センター
装置101内の通信部117に転送する(ステップS3
10)。次に、第2の特徴量復号化部119は、第2の
特徴量復号化参照情報記憶部118に記憶されている符
号化データとその代表ベクトルとの対応表に基づいて符
号化データを復号化して、もとの第2の特徴量のブロッ
クにもどす(ステップS311)。
【0052】次に、第2の特徴量逆変換部122は、第
2の特徴量を逆変換して、第2の部分画像のブロックを
復元する。そして、画像再生部123は、ブロックを配
列して第2の部分画像を再生し、画像表示部124は、
第2の部分画像を表示する(ステップS312)。そし
て、第2の特徴量判別部121は、第2の特徴量と第2
の特徴量識別参照情報記憶部120の第2の特徴量識別
参照情報とを比較して、第2の特徴量がどの人物の第2
の特徴量であるかを判定する。すなわち、撮像部が撮影
した人物画像より、人物の特定が行なわれることになる
(ステップS313)。
2の特徴量を逆変換して、第2の部分画像のブロックを
復元する。そして、画像再生部123は、ブロックを配
列して第2の部分画像を再生し、画像表示部124は、
第2の部分画像を表示する(ステップS312)。そし
て、第2の特徴量判別部121は、第2の特徴量と第2
の特徴量識別参照情報記憶部120の第2の特徴量識別
参照情報とを比較して、第2の特徴量がどの人物の第2
の特徴量であるかを判定する。すなわち、撮像部が撮影
した人物画像より、人物の特定が行なわれることになる
(ステップS313)。
【0053】このように、画像認証のための処理を端末
装置100とセンター装置101で分担することとした
ので、効率のよいシステム構成とすることができる。す
なわち、第1の特徴量の判別は、端末装置100で行な
うようにしたので、センター装置101では、複数の端
末装置100から同時に送信されてくる人物画像に対し
て顔画像を切り出す処理から、はじめる必要がなくセン
ター装置の負荷を削減できる。また、通信ネットワーク
には、認証のために必要な顔画像に関連するデータのみ
が流れることになるので、通信コストを軽減できる。
装置100とセンター装置101で分担することとした
ので、効率のよいシステム構成とすることができる。す
なわち、第1の特徴量の判別は、端末装置100で行な
うようにしたので、センター装置101では、複数の端
末装置100から同時に送信されてくる人物画像に対し
て顔画像を切り出す処理から、はじめる必要がなくセン
ター装置の負荷を削減できる。また、通信ネットワーク
には、認証のために必要な顔画像に関連するデータのみ
が流れることになるので、通信コストを軽減できる。
【0054】以下では、本実施の形態の人物画像認証シ
ステムの各構成要素についてより詳細に説明する。図4
は、実施の形態1の人物画像認証システムのデータ通信
の動作手順を示すフローチャ−トである。端末装置10
0とセンター装置101との間の通信を矢印で示してい
る。
ステムの各構成要素についてより詳細に説明する。図4
は、実施の形態1の人物画像認証システムのデータ通信
の動作手順を示すフローチャ−トである。端末装置10
0とセンター装置101との間の通信を矢印で示してい
る。
【0055】まず、端末装置100内の選択信号入力部
111は、サービス利用者の認証番号(利用者ID番
号)の入力を受け付ける。そして、制御部112は、撮
像部103に撮影を指示し、一連の処理を経て符号化さ
れた第2の特徴量が得られる(ステップS400)。次
に、端末装置100内の通信部113は、符号化された
第2の特徴量(顔の認証データ)と、認証番号を識別要
求信号とともにセンター装置101内の通信部117へ
転送する(ステップS401)。
111は、サービス利用者の認証番号(利用者ID番
号)の入力を受け付ける。そして、制御部112は、撮
像部103に撮影を指示し、一連の処理を経て符号化さ
れた第2の特徴量が得られる(ステップS400)。次
に、端末装置100内の通信部113は、符号化された
第2の特徴量(顔の認証データ)と、認証番号を識別要
求信号とともにセンター装置101内の通信部117へ
転送する(ステップS401)。
【0056】そして、センター装置101は、ステップ
S311、S313の処理を行って、転送されてきた符
号化された第2の特徴量が属するクラスの判定、すなわ
ち、その人物を特定し、制御部126に出力する。制御
部126は、特定した人物と転送されてきた顔の認証番
号と比較して、一致しているかどうかを判定する(ステ
ップS402)。
S311、S313の処理を行って、転送されてきた符
号化された第2の特徴量が属するクラスの判定、すなわ
ち、その人物を特定し、制御部126に出力する。制御
部126は、特定した人物と転送されてきた顔の認証番
号と比較して、一致しているかどうかを判定する(ステ
ップS402)。
【0057】制御部126が不一致であると判定した場
合には、通信部117は、認証番号、不一致応答信号を
端末装置100内の通信部113へ転送する(ステップ
S403)。そして、ステップS400〜S402と同
様にして、端末装置100からセンター装置101へ符
号化された第2の特徴量(顔の認証データ)と、認証番
号を識別要求信号とともに送り、センター装置101
で、転送されてきた符号化された第2の特徴量が属する
人物を特定し、特定した人物と転送されてきた顔の認証
番号と比較して、一致しているかどうかを判定する。
合には、通信部117は、認証番号、不一致応答信号を
端末装置100内の通信部113へ転送する(ステップ
S403)。そして、ステップS400〜S402と同
様にして、端末装置100からセンター装置101へ符
号化された第2の特徴量(顔の認証データ)と、認証番
号を識別要求信号とともに送り、センター装置101
で、転送されてきた符号化された第2の特徴量が属する
人物を特定し、特定した人物と転送されてきた顔の認証
番号と比較して、一致しているかどうかを判定する。
【0058】制御部126は、一致であると判定した場
合には、認証番号に応じて登録されたサービスの許可を
する(ステップS404〜S406)。そして、通信部
117は、認証番号、一致応答信号を端末装置100内
の通信部113へ転送する(ステップS407)。端末
装置100の制御部112は一致応答信号により、利用
者に認証番号に応じて登録されたサービスの選択を許可
する。利用者は、選択信号入力部111を通じて、許可
されたサービス内容を選択する。ここでは、サービス情
報の読み込み、例えば、預金残高の読み込みが選択され
たとする。
合には、認証番号に応じて登録されたサービスの許可を
する(ステップS404〜S406)。そして、通信部
117は、認証番号、一致応答信号を端末装置100内
の通信部113へ転送する(ステップS407)。端末
装置100の制御部112は一致応答信号により、利用
者に認証番号に応じて登録されたサービスの選択を許可
する。利用者は、選択信号入力部111を通じて、許可
されたサービス内容を選択する。ここでは、サービス情
報の読み込み、例えば、預金残高の読み込みが選択され
たとする。
【0059】制御部112は、認証番号、読み込み要求
信号を通信部113に出力する(ステップS408)。
そして、端末装置100の通信部113から、センター
装置101の通信部117へ認証番号と読み込み要求信
号が転送される(ステップS409)。センター装置1
01の制御部126は、読み込み要求信号の指定した読
み込み情報をデータ記憶部127から読み出し、データ
符号復号化部128により符号化して、認証番号と符号
化された読み込み情報とを通信部117に出力する(ス
テップS410)。
信号を通信部113に出力する(ステップS408)。
そして、端末装置100の通信部113から、センター
装置101の通信部117へ認証番号と読み込み要求信
号が転送される(ステップS409)。センター装置1
01の制御部126は、読み込み要求信号の指定した読
み込み情報をデータ記憶部127から読み出し、データ
符号復号化部128により符号化して、認証番号と符号
化された読み込み情報とを通信部117に出力する(ス
テップS410)。
【0060】次に、センター装置101の通信部117
から、端末装置100の通信部113へ認証番号と符号
化された読み込み情報が転送される(ステップS41
1)。そして、通信部113が受信した符号化された読
み込み情報は、データ符号復号化部115で復号化さ
れ、復号化された読み込み情報は、データ記憶部114
に記憶されるとともに、データ提示部116により提示
される(ステップS412)。
から、端末装置100の通信部113へ認証番号と符号
化された読み込み情報が転送される(ステップS41
1)。そして、通信部113が受信した符号化された読
み込み情報は、データ符号復号化部115で復号化さ
れ、復号化された読み込み情報は、データ記憶部114
に記憶されるとともに、データ提示部116により提示
される(ステップS412)。
【0061】次に、利用者は、選択信号入力部111を
通じて、サービス情報の書き込み、例えば、預金残高の
書き込み、すなわち預金の引き出しを選択したとする。
制御部112は、書き込み情報を一旦、データ記憶部1
14に記憶させ、書き込み情報をデータ符号復号化部1
15で符号化させて、認証番号と、符号化された書き込
み情報と、書き込み込み要求信号を通信部113に出力
する(ステップS413)。
通じて、サービス情報の書き込み、例えば、預金残高の
書き込み、すなわち預金の引き出しを選択したとする。
制御部112は、書き込み情報を一旦、データ記憶部1
14に記憶させ、書き込み情報をデータ符号復号化部1
15で符号化させて、認証番号と、符号化された書き込
み情報と、書き込み込み要求信号を通信部113に出力
する(ステップS413)。
【0062】そして、端末装置100の通信部113か
ら、センター装置101の通信部117へ認証番号と、
符号化された書き込み情報と、書き込み要求信号が転送
される(ステップS414)。センター装置101の制
御部126は、符号化された書き込み情報をデータ符号
復号化部128で復号化して、書き込み要求信号の指定
した情報をデータ記憶部127に書き込み、書き込みの
正常又は異常終了を示す書き込み応答信号を生成する
(ステップS415)。
ら、センター装置101の通信部117へ認証番号と、
符号化された書き込み情報と、書き込み要求信号が転送
される(ステップS414)。センター装置101の制
御部126は、符号化された書き込み情報をデータ符号
復号化部128で復号化して、書き込み要求信号の指定
した情報をデータ記憶部127に書き込み、書き込みの
正常又は異常終了を示す書き込み応答信号を生成する
(ステップS415)。
【0063】センター装置101の通信部117から、
端末装置100の通信部113へ認証番号と書き込み応
答信号が転送される(ステップS416)。制御部11
2は、書き込み応答信号が書き込み異常終了を示してい
る場合には、再度ステップS414を実行して再送す
る。また、選択信号入力部111を通じて、サービスの
終了が選択された場合には、制御部112はサービスの
許可を終了し、初期状態(人物識別モード)にもどすと
ともに、通信部113に、認証番号と、終了信号を出力
する(ステップS417)。
端末装置100の通信部113へ認証番号と書き込み応
答信号が転送される(ステップS416)。制御部11
2は、書き込み応答信号が書き込み異常終了を示してい
る場合には、再度ステップS414を実行して再送す
る。また、選択信号入力部111を通じて、サービスの
終了が選択された場合には、制御部112はサービスの
許可を終了し、初期状態(人物識別モード)にもどすと
ともに、通信部113に、認証番号と、終了信号を出力
する(ステップS417)。
【0064】そして、端末装置100の通信部113か
ら、センター装置101の通信部117へ認証番号と終
了信号が転送される(ステップS418)。最後に、セ
ンター装置101の制御部126は、認証番号に応じて
登録されたサービスの許可を終了する(ステップS41
9)。次に、画像サンプリング部105の動作について
説明する。
ら、センター装置101の通信部117へ認証番号と終
了信号が転送される(ステップS418)。最後に、セ
ンター装置101の制御部126は、認証番号に応じて
登録されたサービスの許可を終了する(ステップS41
9)。次に、画像サンプリング部105の動作について
説明する。
【0065】撮像部103から得られる人物画像の画素
値は、照明の変化などの撮影条件によって影響を受け変
化する。画像サンプリング部105は、濃度値を補正し
て、撮影条件に依存しない画像、すなわち正規化画像を
生成する。画像サンプリング部105は、ヒストグラム
平坦化により画素値を補正する。ヒストグラム平坦化と
は、すべての濃度値について、その濃度値をとる画素の
数を同じにするものである。
値は、照明の変化などの撮影条件によって影響を受け変
化する。画像サンプリング部105は、濃度値を補正し
て、撮影条件に依存しない画像、すなわち正規化画像を
生成する。画像サンプリング部105は、ヒストグラム
平坦化により画素値を補正する。ヒストグラム平坦化と
は、すべての濃度値について、その濃度値をとる画素の
数を同じにするものである。
【0066】図5は、画像サンプリング部105による
画素値(濃度値)補正の動作手順を示すフローチャート
である。まず、画像サンプリング部105は、第1又は
第2の矩形領域に含まれる画素の濃度ヒストグラムを作
成する。図6は、ヒストグラム平坦化におけるヒストグ
ラムを示す。図6(a)は、濃度ヒストグラム曲線p1
(z)を示す(ステップS500)。
画素値(濃度値)補正の動作手順を示すフローチャート
である。まず、画像サンプリング部105は、第1又は
第2の矩形領域に含まれる画素の濃度ヒストグラムを作
成する。図6は、ヒストグラム平坦化におけるヒストグ
ラムを示す。図6(a)は、濃度ヒストグラム曲線p1
(z)を示す(ステップS500)。
【0067】次に、画像サンプリング部105は、濃度
ヒストグラム曲線p1(z)より累積ヒストグラム曲線
P1(z1)を作成する。濃度ヒストグラム曲線p
1(z)と累積ヒストグラム曲線P1(z1)との間に
は、[数19]の関係が成立する。
ヒストグラム曲線p1(z)より累積ヒストグラム曲線
P1(z1)を作成する。濃度ヒストグラム曲線p
1(z)と累積ヒストグラム曲線P1(z1)との間に
は、[数19]の関係が成立する。
【0068】
【数19】
【0069】図6(b)は、累積ヒストグラム曲線を示
す(ステップS501)。次に、画像サンプリング部1
05は、濃度値の変換式を以下のようにして作成する。
図6(c)は平坦化されたヒストグラムを示す。第1又
は第2の矩形領域に含まれる総画素数をNとし、変換に
よって画素の階調数をMになるとする。平坦化されたヒ
ストグラムの頻度値は、一定値p2(z)=N/Mとな
る。変換前の濃度値z1と変換後の濃度値z2との間に
は、以下の関係が成り立つ。すなわち、p1(z)をz1
まで累積した値と、p2(z)をz2まで累積した値が等
しい。これは[数20]で表される。
す(ステップS501)。次に、画像サンプリング部1
05は、濃度値の変換式を以下のようにして作成する。
図6(c)は平坦化されたヒストグラムを示す。第1又
は第2の矩形領域に含まれる総画素数をNとし、変換に
よって画素の階調数をMになるとする。平坦化されたヒ
ストグラムの頻度値は、一定値p2(z)=N/Mとな
る。変換前の濃度値z1と変換後の濃度値z2との間に
は、以下の関係が成り立つ。すなわち、p1(z)をz1
まで累積した値と、p2(z)をz2まで累積した値が等
しい。これは[数20]で表される。
【0070】
【数20】
【0071】従って、濃度値の変換式は、z2=(M/
N)×P1(z1)となる(ステップS502)。そし
て、画像サンプリング部105は、第1又は第2の矩形
領域に含まれるすべての画素について、上式に従って、
その濃度値z1をz2に変換する(ステップS503)。
N)×P1(z1)となる(ステップS502)。そし
て、画像サンプリング部105は、第1又は第2の矩形
領域に含まれるすべての画素について、上式に従って、
その濃度値z1をz2に変換する(ステップS503)。
【0072】以上のような画像サンプリング部105に
よって、照明の変化による濃度値のゆらぎを取り除くこ
とができる。次に、特徴量変換部106の動作について
説明する。特徴量変換部106は、画像サンプリング部
105によって生成された第1の部分画像を第1の特徴
量に変換し、同じく生成された第2の部分画像を第2の
特徴量に変換する。これらの特徴量は、画像データを周
波数による帯域2分割のサブバンド分解することにより
得られる。
よって、照明の変化による濃度値のゆらぎを取り除くこ
とができる。次に、特徴量変換部106の動作について
説明する。特徴量変換部106は、画像サンプリング部
105によって生成された第1の部分画像を第1の特徴
量に変換し、同じく生成された第2の部分画像を第2の
特徴量に変換する。これらの特徴量は、画像データを周
波数による帯域2分割のサブバンド分解することにより
得られる。
【0073】図7は、特徴量変換部106が原画像から
特徴量を生成する過程を示す図である。図7(a)は、
1回目の水平方向と垂直方向の帯域2分割のサブバンド
分解がされる過程を示す。まず、第1の部分画像又は第
2の部分画像である原画像700は、水平方向の低域通
過フィルタLPX701と水平方向の高域通過フィルタ
HPX702によって帯域2分割のサブバンド分解され
た後、1/2のダウンサンプリング703によって、サ
ブバンド画像L704とサブバンド画像H705に変換
される。
特徴量を生成する過程を示す図である。図7(a)は、
1回目の水平方向と垂直方向の帯域2分割のサブバンド
分解がされる過程を示す。まず、第1の部分画像又は第
2の部分画像である原画像700は、水平方向の低域通
過フィルタLPX701と水平方向の高域通過フィルタ
HPX702によって帯域2分割のサブバンド分解され
た後、1/2のダウンサンプリング703によって、サ
ブバンド画像L704とサブバンド画像H705に変換
される。
【0074】さらに、サブバンド画像L704とサブバ
ンド画像H705のそれぞれは、垂直方向の低域通過フ
ィルタLPY706、垂直方向の高域通過フィルタHP
Y707によって、サブバンド分解された後、1/2に
ダウンサンプリング703されることによって、サブバ
ンド画像LL708と、サブバンド画像LH709と、
サブバンド画像HL709と、サブバンド画像HH71
0が得られる。
ンド画像H705のそれぞれは、垂直方向の低域通過フ
ィルタLPY706、垂直方向の高域通過フィルタHP
Y707によって、サブバンド分解された後、1/2に
ダウンサンプリング703されることによって、サブバ
ンド画像LL708と、サブバンド画像LH709と、
サブバンド画像HL709と、サブバンド画像HH71
0が得られる。
【0075】図7(b)は、2回目の水平方向と垂直方
向の帯域2分割のサブバンド分解がされる過程を示す。
サブバンド画像LL708に対して、もう一度上記処理
を繰返す。すなわち、図7(b)では、図7(a)の原
画像700に変えて、サブバンド画像LL708に対し
て、サブバンド分解、ダウンサンプリング処理を行な
う。そして、その結果、サブバンド画像LLLL71
4、LLLH715、LLHL716、LLHH717
とが得られることになる。
向の帯域2分割のサブバンド分解がされる過程を示す。
サブバンド画像LL708に対して、もう一度上記処理
を繰返す。すなわち、図7(b)では、図7(a)の原
画像700に変えて、サブバンド画像LL708に対し
て、サブバンド分解、ダウンサンプリング処理を行な
う。そして、その結果、サブバンド画像LLLL71
4、LLLH715、LLHL716、LLHH717
とが得られることになる。
【0076】図8は、第1の部分画像からサブバンド画
像が生成される過程を示す。32画素×32画素の第1
の部分画像800は、水平方向の帯域分割、ダウンサン
プリングによって、16画素×32画素のサブバンド画
像L801とH802に変換される。サブバンド画像L
801とH802は、それぞれ垂直方向の帯域分割、ダ
ウンサンプリングによって、16画素×16画素のサブ
バンド画像LL803、LH804、HL805、HH
806に変換される。サブバンド画像LL803は、水
平方向と垂直方向についての、帯域分割、ダウンサンプ
リングによって、8画素×8画素のサブバンド画像LL
LL807、LLLH808、LLHL809、LLH
H810に変換される。
像が生成される過程を示す。32画素×32画素の第1
の部分画像800は、水平方向の帯域分割、ダウンサン
プリングによって、16画素×32画素のサブバンド画
像L801とH802に変換される。サブバンド画像L
801とH802は、それぞれ垂直方向の帯域分割、ダ
ウンサンプリングによって、16画素×16画素のサブ
バンド画像LL803、LH804、HL805、HH
806に変換される。サブバンド画像LL803は、水
平方向と垂直方向についての、帯域分割、ダウンサンプ
リングによって、8画素×8画素のサブバンド画像LL
LL807、LLLH808、LLHL809、LLH
H810に変換される。
【0077】このような処理により、最終的に8画素×
8画素のLLLL、LLHL、LLLH、LLHHと、
16画素×16画素のLH、HL、HHとが生成される
ことになるのが、この中からサブバンド画像LLLLの
みを第1の特徴量とする。つまり、第1の特徴量は第2
の特徴量と異なり、顔の領域がどうかの識別のためにの
み用いられるものなので、原画像の特徴を最も表してい
る低周波成分であるLLLLとしたものである。
8画素のLLLL、LLHL、LLLH、LLHHと、
16画素×16画素のLH、HL、HHとが生成される
ことになるのが、この中からサブバンド画像LLLLの
みを第1の特徴量とする。つまり、第1の特徴量は第2
の特徴量と異なり、顔の領域がどうかの識別のためにの
み用いられるものなので、原画像の特徴を最も表してい
る低周波成分であるLLLLとしたものである。
【0078】また、第2の特徴量を抽出するためには、
画像をブロックに分割して、ブロック単位で、第1の特
徴量を抽出する処理と同様に、図7に示す処理を2回行
なう。このブロック単位ごとの第2の特徴量が後述の符
号化に用いられることになる。図9は、第2の部分画像
からサブバンド画像が生成される過程を示す。64画素
×64画素の第2の部分画像900は、256個(=1
6×16)の4画素×4画素のブロック画像901に分
割される。そして、ブロック画像901を単位として第
2の特徴量を求める。ブロック901は、水平方向の帯
域分割、ダウンサンプリングによって、2画素×4画素
のサブバンド画像L902とH903に変換される。サ
ブバンド画像L902とH903は、それぞれ垂直方向
の帯域分割、ダウンサンプリングによって、2画素×2
画素のサブバンド画像LL904、LH905、HL9
06、HH907に変換される。サブバンド画像LL9
04は、水平方向と垂直方向についての、帯域分割、ダ
ウンサンプリングによって、1画素のサブバンド画像L
LLL908、LLLH909、LLHL910、LL
HH911に変換される。
画像をブロックに分割して、ブロック単位で、第1の特
徴量を抽出する処理と同様に、図7に示す処理を2回行
なう。このブロック単位ごとの第2の特徴量が後述の符
号化に用いられることになる。図9は、第2の部分画像
からサブバンド画像が生成される過程を示す。64画素
×64画素の第2の部分画像900は、256個(=1
6×16)の4画素×4画素のブロック画像901に分
割される。そして、ブロック画像901を単位として第
2の特徴量を求める。ブロック901は、水平方向の帯
域分割、ダウンサンプリングによって、2画素×4画素
のサブバンド画像L902とH903に変換される。サ
ブバンド画像L902とH903は、それぞれ垂直方向
の帯域分割、ダウンサンプリングによって、2画素×2
画素のサブバンド画像LL904、LH905、HL9
06、HH907に変換される。サブバンド画像LL9
04は、水平方向と垂直方向についての、帯域分割、ダ
ウンサンプリングによって、1画素のサブバンド画像L
LLL908、LLLH909、LLHL910、LL
HH911に変換される。
【0079】このような処理により、ブロック画像90
1に対して、最終的に1画素のLLLL、LLHL、L
LLH、LLHHと、2画素×2画素のLH、HL、H
Hが生成されることになる。そして、ブロック画像の第
2の特徴量としてこれらのすべてを用いた4×4次元ベ
クトル920とする第1の特徴量は、画像中の最も特徴
的な成分であるLLLLを用いることとしたが、第2の
特徴量は、センター装置101において、原画像を復元
する必要があるから、このような目的を満たすだけの情
報量を含むものとしたものである。
1に対して、最終的に1画素のLLLL、LLHL、L
LLH、LLHHと、2画素×2画素のLH、HL、H
Hが生成されることになる。そして、ブロック画像の第
2の特徴量としてこれらのすべてを用いた4×4次元ベ
クトル920とする第1の特徴量は、画像中の最も特徴
的な成分であるLLLLを用いることとしたが、第2の
特徴量は、センター装置101において、原画像を復元
する必要があるから、このような目的を満たすだけの情
報量を含むものとしたものである。
【0080】次に、特徴量逆変換部122の動作につい
て説明する。特徴量逆変換部122は、特徴量変換部1
06と逆の動作を行なう。図10は、特徴量逆変換部1
22が第2の特徴量から第2の部分画像を生成する過程
を示す図である。図10(a)は、1回目の水平方向と
垂直方向の帯域2分割のサブバンド合成がされる過程を
示す。まず、サブバンド画像LLLL1000、LLL
H1001、LLHL1002、LLHH1003は、
それぞれアップサンプリング1004され、垂直方向の
低域通過逆フィルタILPY1005と垂直方向の高域
通過逆フィルタIHPY1006を通して足しあわせら
れ、サブバンド画像LLL1007とサブバンド画像L
LH1008が得られる。さらに、サブバンド画像LL
L1007とサブバンド画像LLH1008のそれぞれ
は、アップサンプリング1004され、水平方向の低域
通過逆フィルタILPX1011と水平方向の高域通過
逆フィルタIHPX1012を通して合成され、サブバ
ンド画像LL1009が得られる。
て説明する。特徴量逆変換部122は、特徴量変換部1
06と逆の動作を行なう。図10は、特徴量逆変換部1
22が第2の特徴量から第2の部分画像を生成する過程
を示す図である。図10(a)は、1回目の水平方向と
垂直方向の帯域2分割のサブバンド合成がされる過程を
示す。まず、サブバンド画像LLLL1000、LLL
H1001、LLHL1002、LLHH1003は、
それぞれアップサンプリング1004され、垂直方向の
低域通過逆フィルタILPY1005と垂直方向の高域
通過逆フィルタIHPY1006を通して足しあわせら
れ、サブバンド画像LLL1007とサブバンド画像L
LH1008が得られる。さらに、サブバンド画像LL
L1007とサブバンド画像LLH1008のそれぞれ
は、アップサンプリング1004され、水平方向の低域
通過逆フィルタILPX1011と水平方向の高域通過
逆フィルタIHPX1012を通して合成され、サブバ
ンド画像LL1009が得られる。
【0081】図10(b)は、2回目の水平方向と垂直
方向の帯域2分割のサブバンド合成がされる過程を示
す。得られたサブバンド画像LL1009と、LH10
10、HL1011、HH1012に対しても上記と同
様の処理を行なうことによって原画像1015が得られ
る。図11は、第2の特徴量から第2の部分画像が生成
される過程を示す。第2の特徴量の成分である1画素の
サブバンド画像LLLL910,LLLH911、LL
HL912、LLHH9131は、それぞれ、垂直方向
のアップサンプリング、帯域合成により、1画素×2画
素のサブバンド画像LLL908とLLH909に変換
される。サブバンド画像LLL908とLLH909
は、それぞれ、水平方向のアップサンプリング、帯域合
成により、2画素×2画素のサブバンド画像LLに変換
される。2画素×2画素のサブバンド画像LL904、
LH905、HL906、HH907は、それぞれ、垂
直方向のアップサンプリング、帯域合成により、2画素
×4画素のサブバンド画像L902とH903に変換さ
れる。サブバンド画像L902とH903は、それぞ
れ、水平方向のアップサンプリング、帯域合成により、
4画素×4画素のブロック901に変換される。
方向の帯域2分割のサブバンド合成がされる過程を示
す。得られたサブバンド画像LL1009と、LH10
10、HL1011、HH1012に対しても上記と同
様の処理を行なうことによって原画像1015が得られ
る。図11は、第2の特徴量から第2の部分画像が生成
される過程を示す。第2の特徴量の成分である1画素の
サブバンド画像LLLL910,LLLH911、LL
HL912、LLHH9131は、それぞれ、垂直方向
のアップサンプリング、帯域合成により、1画素×2画
素のサブバンド画像LLL908とLLH909に変換
される。サブバンド画像LLL908とLLH909
は、それぞれ、水平方向のアップサンプリング、帯域合
成により、2画素×2画素のサブバンド画像LLに変換
される。2画素×2画素のサブバンド画像LL904、
LH905、HL906、HH907は、それぞれ、垂
直方向のアップサンプリング、帯域合成により、2画素
×4画素のサブバンド画像L902とH903に変換さ
れる。サブバンド画像L902とH903は、それぞ
れ、水平方向のアップサンプリング、帯域合成により、
4画素×4画素のブロック901に変換される。
【0082】このような処理をすべてのブロック(16
×16=256個)について行うことにより、最終的に
64画素×64画素の第2の部分画像900が再生され
る。次に、上記抽出した第1の特徴量の判別及び第2の
特徴量の符号化について説明する。特徴量判別符号化部
108は、第1の特徴量識別参照情報記憶部107に記
憶された情報を用いて、第1の特徴量を判別し、第2の
特徴量符号化参照情報記憶部109に記憶された情報を
用いて、第2の特徴量を符号化する。
×16=256個)について行うことにより、最終的に
64画素×64画素の第2の部分画像900が再生され
る。次に、上記抽出した第1の特徴量の判別及び第2の
特徴量の符号化について説明する。特徴量判別符号化部
108は、第1の特徴量識別参照情報記憶部107に記
憶された情報を用いて、第1の特徴量を判別し、第2の
特徴量符号化参照情報記憶部109に記憶された情報を
用いて、第2の特徴量を符号化する。
【0083】第1の特徴量識別参照情報記憶部107に
記憶された情報及び第2の特徴量符号化参照情報記憶部
109に記憶された情報は、学習装置による学習によっ
て得られる。この学習装置について以下に説明する。図
12は、学習装置の構成を示す機能ブロック図である。
学習装置130は、撮像部103と、画像メモリ104
と、画像サンプリング部105と、特徴量変換部106
と、特徴量判別符号化学習部131と、第2の特徴量判
別学習部132とから構成される。
記憶された情報及び第2の特徴量符号化参照情報記憶部
109に記憶された情報は、学習装置による学習によっ
て得られる。この学習装置について以下に説明する。図
12は、学習装置の構成を示す機能ブロック図である。
学習装置130は、撮像部103と、画像メモリ104
と、画像サンプリング部105と、特徴量変換部106
と、特徴量判別符号化学習部131と、第2の特徴量判
別学習部132とから構成される。
【0084】撮像部103と、画像メモリ104と、画
像サンプリング部105と、特徴量変換部106は、図
1に示す端末装置100の構成要素と同一である。特徴
量判別符号化学習部131は、学習データにより第1の
特徴量を判別する学習をし、その結果は、ネットワーク
又は可搬性記憶媒体を介して端末装置100の第1の特
徴量識別参照情報記憶部107に記憶される。そして、
この学習結果は、図1に示す端末装置100の特徴量判
別符号化部108において、第1の特徴量を判別するた
めに利用される。
像サンプリング部105と、特徴量変換部106は、図
1に示す端末装置100の構成要素と同一である。特徴
量判別符号化学習部131は、学習データにより第1の
特徴量を判別する学習をし、その結果は、ネットワーク
又は可搬性記憶媒体を介して端末装置100の第1の特
徴量識別参照情報記憶部107に記憶される。そして、
この学習結果は、図1に示す端末装置100の特徴量判
別符号化部108において、第1の特徴量を判別するた
めに利用される。
【0085】また、特徴量判別符号化学習部131は、
学習データにより第2の特徴量を符号化する学習をし、
その結果は、ネットワーク又は可搬性記憶媒体を介して
端末装置100の第2の特徴量符号化参照情報記憶部1
09に記憶される。同様に、この学習結果は、端末装置
100の特徴量判別符号化部108において、第2の特
徴量を符号化するために利用される。
学習データにより第2の特徴量を符号化する学習をし、
その結果は、ネットワーク又は可搬性記憶媒体を介して
端末装置100の第2の特徴量符号化参照情報記憶部1
09に記憶される。同様に、この学習結果は、端末装置
100の特徴量判別符号化部108において、第2の特
徴量を符号化するために利用される。
【0086】図13は、特徴量判別符号化学習部131
において用いられる2進探索木を示す図である。S1〜
S7は2進探索木のノードを示し、T1R、T1L、T
2R、T2L、T3R、T3L、T4R、T4L、T5
R、T5L、T6R、T6L、T7R、T7Lは、は2
進探索木のノードS1〜S7から分岐した枝を示す。特
徴量判別符号化学習部131は、第1の特徴量の特徴量
空間を2進探索木の枝に対応させて、順次2分割してい
き、最終的に顔画像クラスとそれ以外のクラス(非顔画
像クラス)が分割された空間を形成する。そして、特徴
量判別符号化学習部131は、分割境界面をニューラル
ネットワークの学習係数という形式で学習させ、これを
第1の特徴量識別参照情報記憶部107に記憶する。
において用いられる2進探索木を示す図である。S1〜
S7は2進探索木のノードを示し、T1R、T1L、T
2R、T2L、T3R、T3L、T4R、T4L、T5
R、T5L、T6R、T6L、T7R、T7Lは、は2
進探索木のノードS1〜S7から分岐した枝を示す。特
徴量判別符号化学習部131は、第1の特徴量の特徴量
空間を2進探索木の枝に対応させて、順次2分割してい
き、最終的に顔画像クラスとそれ以外のクラス(非顔画
像クラス)が分割された空間を形成する。そして、特徴
量判別符号化学習部131は、分割境界面をニューラル
ネットワークの学習係数という形式で学習させ、これを
第1の特徴量識別参照情報記憶部107に記憶する。
【0087】特徴量判別符号化部108は、第1の特徴
量識別参照情報記憶部107に記憶されているニューラ
ルネットワークの学習係数を読込んで、任意の入力され
た第1の特徴量がどの分割空間に属するかを判定し、そ
の第1の特徴量の顔画像クラスへの帰属度を判別する。
また、特徴量判別符号化学習部131は、第2の特徴量
の特徴量空間を2進探索木の枝に対応させて、順次2分
割していき、最終的に1つの分割空間が1つの符号をも
つように分割された空間を形成する。そして、特徴量判
別符号化学習部131は、分割境界面をニューラルネッ
トワークの学習係数という形式で学習させ、これを第2
の特徴量識別参照情報記憶部109に記憶する。
量識別参照情報記憶部107に記憶されているニューラ
ルネットワークの学習係数を読込んで、任意の入力され
た第1の特徴量がどの分割空間に属するかを判定し、そ
の第1の特徴量の顔画像クラスへの帰属度を判別する。
また、特徴量判別符号化学習部131は、第2の特徴量
の特徴量空間を2進探索木の枝に対応させて、順次2分
割していき、最終的に1つの分割空間が1つの符号をも
つように分割された空間を形成する。そして、特徴量判
別符号化学習部131は、分割境界面をニューラルネッ
トワークの学習係数という形式で学習させ、これを第2
の特徴量識別参照情報記憶部109に記憶する。
【0088】特徴量判別符号化部108は、第2の特徴
量識別参照情報記憶部109に記憶されている学習係数
を読込んで、任意の入力された第2の特徴量がどの分割
空間に属するかを判定することによって、その第2の特
徴量に符号を割当てる。このように、特徴量判別符号化
部108は、2進探索木により、第1の特徴量の判別
(顔領域かどうかの判別)と、第2の特徴量符号化(顔
の領域画像の転送のために符号化)が両方できることに
なるので、端末装置のハードウエア構成を簡易にするこ
とができる。
量識別参照情報記憶部109に記憶されている学習係数
を読込んで、任意の入力された第2の特徴量がどの分割
空間に属するかを判定することによって、その第2の特
徴量に符号を割当てる。このように、特徴量判別符号化
部108は、2進探索木により、第1の特徴量の判別
(顔領域かどうかの判別)と、第2の特徴量符号化(顔
の領域画像の転送のために符号化)が両方できることに
なるので、端末装置のハードウエア構成を簡易にするこ
とができる。
【0089】第2の特徴量判別学習部132は、学習デ
ータにより第2の特徴量を判別する学習をし、その結果
は、ネットワーク又は可搬性記憶媒体を介してセンター
装置101の第2の特徴量識別参照情報記憶部120に
記憶される。そして、この学習結果は、センター装置1
01の第2の特徴量判別部121において、第2の特徴
量を判別するために利用される。
ータにより第2の特徴量を判別する学習をし、その結果
は、ネットワーク又は可搬性記憶媒体を介してセンター
装置101の第2の特徴量識別参照情報記憶部120に
記憶される。そして、この学習結果は、センター装置1
01の第2の特徴量判別部121において、第2の特徴
量を判別するために利用される。
【0090】それでは、学習装置130により第1の特
徴量を判別する学習の動作について説明する。図14
は、本実施の形態の学習装置が第1の特徴量の判別を学
習する動作手順を示すフローチャートである。まず、学
習装置130内の撮像部103と、画像メモリ104
と、画像サンプリング部105と、特徴量変換部106
は、顔画像クラスに属する第1の特徴量と顔画像クラス
に属さない第1の特徴量を有限個作成する。
徴量を判別する学習の動作について説明する。図14
は、本実施の形態の学習装置が第1の特徴量の判別を学
習する動作手順を示すフローチャートである。まず、学
習装置130内の撮像部103と、画像メモリ104
と、画像サンプリング部105と、特徴量変換部106
は、顔画像クラスに属する第1の特徴量と顔画像クラス
に属さない第1の特徴量を有限個作成する。
【0091】図15は、第1の特徴量の特徴量空間が順
次2分割されていく過程を示す図である。第1の特徴量
の特徴量空間は64次元のベクトル空間となるが、ここ
では説明のため2次元平面に投射して示している。図1
5(a)は、作成した第1の特徴量の特徴量空間での分
布を示す。ここでは、人物A〜Dのそれぞれに対して、
顔画像クラスに属する第1の特徴量(目と鼻と口を含む
部分画像より作成される)を6個、顔画像クラスに属さ
ない(非顔画像クラスに属する)第1の特徴量(顔の下
半分を含む部分画像等から作成される)を6個作成して
いる。顔画像クラスの特徴量と非顔画像クラスの特徴量
はそれぞれ、第1の特徴量の特徴量空間上でまとまって
分布するが、人物によってある程度ばらつきも発生する
ため、特定の一人の人物の顔画像と非顔画像のデータの
みを用いた学習によってでは、本システムで識別するす
べての人物について顔画像と非顔画像を区別できるよう
に、第1の特徴量空間をうまく分割しきれない。そこ
で、本実施の形態では、人物間のばらつきをも解消する
ため顔の特徴が異なる典型的な複数人(ここでは4人)
のデータを用いることとする(ステップS1400)。
次2分割されていく過程を示す図である。第1の特徴量
の特徴量空間は64次元のベクトル空間となるが、ここ
では説明のため2次元平面に投射して示している。図1
5(a)は、作成した第1の特徴量の特徴量空間での分
布を示す。ここでは、人物A〜Dのそれぞれに対して、
顔画像クラスに属する第1の特徴量(目と鼻と口を含む
部分画像より作成される)を6個、顔画像クラスに属さ
ない(非顔画像クラスに属する)第1の特徴量(顔の下
半分を含む部分画像等から作成される)を6個作成して
いる。顔画像クラスの特徴量と非顔画像クラスの特徴量
はそれぞれ、第1の特徴量の特徴量空間上でまとまって
分布するが、人物によってある程度ばらつきも発生する
ため、特定の一人の人物の顔画像と非顔画像のデータの
みを用いた学習によってでは、本システムで識別するす
べての人物について顔画像と非顔画像を区別できるよう
に、第1の特徴量空間をうまく分割しきれない。そこ
で、本実施の形態では、人物間のばらつきをも解消する
ため顔の特徴が異なる典型的な複数人(ここでは4人)
のデータを用いることとする(ステップS1400)。
【0092】次に、特徴量判別符号化学習部131は、
2進探索木の最初のノードにおいて、8個の集合(集合
1〜8)をそれぞれ4つの集合からなる2つのクラス
(T1L、T1R)に分類する。分類方法としては8C4
の組合わせの数だけあるが、そのうちの1つが後述の基
準で選択される(ステップS1401)。まず、特徴量
判別符号化学習部131は、上記各分類のそれぞれにつ
いて2つのクラスに分類する2分割境界面を以下のニュ
ーラルネットワークによる学習で作成する。
2進探索木の最初のノードにおいて、8個の集合(集合
1〜8)をそれぞれ4つの集合からなる2つのクラス
(T1L、T1R)に分類する。分類方法としては8C4
の組合わせの数だけあるが、そのうちの1つが後述の基
準で選択される(ステップS1401)。まず、特徴量
判別符号化学習部131は、上記各分類のそれぞれにつ
いて2つのクラスに分類する2分割境界面を以下のニュ
ーラルネットワークによる学習で作成する。
【0093】図16は、第1の特徴量の特徴量空間を2
分割する分割境界面を生成するニューラルネットワーク
の構成を示す。図16に示すニューラルネットワーク
は、入力ユニット1701と、出力ユニット1702と
から構成されるσLVQ型ニューラルネットワークであ
る。入力ユニット1701には、入力パターンQ
(q1、q2、…、qn)1702が入力される。入力パ
ターンQは前述のように、第1の特徴量で、8画素×8
画素からなるLLLLである。従って、この場合には、
n=64となる。
分割する分割境界面を生成するニューラルネットワーク
の構成を示す。図16に示すニューラルネットワーク
は、入力ユニット1701と、出力ユニット1702と
から構成されるσLVQ型ニューラルネットワークであ
る。入力ユニット1701には、入力パターンQ
(q1、q2、…、qn)1702が入力される。入力パ
ターンQは前述のように、第1の特徴量で、8画素×8
画素からなるLLLLである。従って、この場合には、
n=64となる。
【0094】出力ユニット1702は、学習係数である
代表ベクトルMと分散ベクトルVからなる参照ベクトル
Wを保持しており、入力パターンQと代表ベクトルMと
の距離を計算する。出力ユニットO1の参照ベクトルW
1(M1、V1)の初期値は、2進探索木の最初のノー
ドの左枝(クラスT1L)に属する第1の特徴量のサン
プルデータを統計計算した平均ベクトルと分散ベクトル
とする。
代表ベクトルMと分散ベクトルVからなる参照ベクトル
Wを保持しており、入力パターンQと代表ベクトルMと
の距離を計算する。出力ユニットO1の参照ベクトルW
1(M1、V1)の初期値は、2進探索木の最初のノー
ドの左枝(クラスT1L)に属する第1の特徴量のサン
プルデータを統計計算した平均ベクトルと分散ベクトル
とする。
【0095】同様に、出力ユニットO2の参照ベクトル
W2(M1、V1)の初期値は、2進探索木の最初のノ
ードの右枝(クラスT1R)に属する第1の特徴量のサ
ンプルデータを統計計算した平均ベクトルと分散ベクト
ルとする。出力ユニットO1において、参照ベクトルで
あるM1(m11、m12、…、m1n)、V1(σ11、
σ12、…、σ1n)を用いて、[数21]により入力パタ
ーンQと代表ベクトルM1との距離d1を計算する。
W2(M1、V1)の初期値は、2進探索木の最初のノ
ードの右枝(クラスT1R)に属する第1の特徴量のサ
ンプルデータを統計計算した平均ベクトルと分散ベクト
ルとする。出力ユニットO1において、参照ベクトルで
あるM1(m11、m12、…、m1n)、V1(σ11、
σ12、…、σ1n)を用いて、[数21]により入力パタ
ーンQと代表ベクトルM1との距離d1を計算する。
【0096】
【数21】
【0097】出力ユニットO2においても同様に、参照
ベクトルであるM2(m21、m22、…、m2n)、V2
(σ21、σ22、…、σ2n)を用いて、[数22]により
入力パターンQと代表ベクトルM2との距離d2を計算
する。
ベクトルであるM2(m21、m22、…、m2n)、V2
(σ21、σ22、…、σ2n)を用いて、[数22]により
入力パターンQと代表ベクトルM2との距離d2を計算
する。
【0098】
【数22】
【0099】出力ユニット1702は、上記計算した距
離を用いて[数23]に従って、出力信号1704を出
力する。
離を用いて[数23]に従って、出力信号1704を出
力する。
【0100】
【数23】
【0101】以上によって、入力パターンQを集合cに
分類したものとする。入力パターンの分類として望まし
い分類が教師信号1705によって、出力ユニット17
02に与えられる。教師信号は、入力パターンQがクラ
スT1Lに属する時には、Y1=1、Y2=0として与え
られ、クラスT1Rに属する時には、Y1=0、Y2=1
として与えられる。
分類したものとする。入力パターンの分類として望まし
い分類が教師信号1705によって、出力ユニット17
02に与えられる。教師信号は、入力パターンQがクラ
スT1Lに属する時には、Y1=1、Y2=0として与え
られ、クラスT1Rに属する時には、Y1=0、Y2=1
として与えられる。
【0102】分類が教師信号Y1、Y2として与えられる
望ましい分類に一致するように、以下の学習則を用い
て、参照ベクトルのうちの代表ベクトルを更新する。分
類が正しい時には、すなわち、yi=Yi(for 1≦
i≦n)には、[数24]に従って、参照ベクトルのう
ちの代表ベクトルを更新する。
望ましい分類に一致するように、以下の学習則を用い
て、参照ベクトルのうちの代表ベクトルを更新する。分
類が正しい時には、すなわち、yi=Yi(for 1≦
i≦n)には、[数24]に従って、参照ベクトルのう
ちの代表ベクトルを更新する。
【0103】
【数24】
【0104】分類が誤っている時には、[数25]に従
って、代表ベクトルを更新する。
って、代表ベクトルを更新する。
【0105】
【数25】
【0106】以上のような学習により、8つの集合をク
ラスT1Lに属する4つの集合とクラスT1Rに属する
4つの集合に分ける2分割境界面が参照ベクトルの形で
得られることになる(ステップS1402)。そして、
特徴量判別符号化学習部131は、学習により2分割境
界面が正しく作成されたかを調べるため、学習後の2分
割境界面(参照ベクトル)によって、各集合の要素が望
ましく分離されたかを調べる。つまり、ニューラルネッ
トワークに、学習後の参照ベクトルを用いて、学習に用
いた第1の特徴量を入力して分類結果を得る。
ラスT1Lに属する4つの集合とクラスT1Rに属する
4つの集合に分ける2分割境界面が参照ベクトルの形で
得られることになる(ステップS1402)。そして、
特徴量判別符号化学習部131は、学習により2分割境
界面が正しく作成されたかを調べるため、学習後の2分
割境界面(参照ベクトル)によって、各集合の要素が望
ましく分離されたかを調べる。つまり、ニューラルネッ
トワークに、学習後の参照ベクトルを用いて、学習に用
いた第1の特徴量を入力して分類結果を得る。
【0107】そして、特徴量判別符号化学習部131
は、分類結果の望ましさを示す指標として[数26]の
分離度を計算する。
は、分類結果の望ましさを示す指標として[数26]の
分離度を計算する。
【0108】
【数26】
【0109】図17は、分離度の違いによる第1の特徴
量の特徴量空間の分割を示す。図17(a)は、分離度
が大きな分割を示し、図17(b)は、分離度が小さな
分割を示す。図17(a)では、1つの集合に属する要
素はすべて、T1LかT1Rのどちらかに属するように
分けられており分離度が大きいのに対して、図17
(b)では、1つの集合に属するある要素はT1Lに属
し、他の要素はT1Rに属するようにばらばらに分けら
れており分離度が小さい。このように、分離度が小さい
と、2分割境界面によって、別のクラスに属するような
要素が増加することになる。
量の特徴量空間の分割を示す。図17(a)は、分離度
が大きな分割を示し、図17(b)は、分離度が小さな
分割を示す。図17(a)では、1つの集合に属する要
素はすべて、T1LかT1Rのどちらかに属するように
分けられており分離度が大きいのに対して、図17
(b)では、1つの集合に属するある要素はT1Lに属
し、他の要素はT1Rに属するようにばらばらに分けら
れており分離度が小さい。このように、分離度が小さい
と、2分割境界面によって、別のクラスに属するような
要素が増加することになる。
【0110】特徴量判別符号化学習部131は、8C4個
のすべての組み合せについて、このようなニューラルネ
ットワークの学習を行なって、分離度を計算する(ステ
ップS1403)。次に、特徴量判別符号化学習部13
1は、分離度が最大となる分類を選択する。つまり、特
徴量判別符号化学習部131は、ニューラルネットワー
クにより正しく分離することのできた分類を選択する。
のすべての組み合せについて、このようなニューラルネ
ットワークの学習を行なって、分離度を計算する(ステ
ップS1403)。次に、特徴量判別符号化学習部13
1は、分離度が最大となる分類を選択する。つまり、特
徴量判別符号化学習部131は、ニューラルネットワー
クにより正しく分離することのできた分類を選択する。
【0111】そして、特徴量判別符号化学習部131
は、選択された分類の2分割境界面を形成する参照ベク
トルを第1の特徴量識別参照情報記憶部107に記憶す
ることとする。図15(b)は、最初のノードにおける
第1の特徴量の特徴量空間の分割を示す(ステップS1
404)。
は、選択された分類の2分割境界面を形成する参照ベク
トルを第1の特徴量識別参照情報記憶部107に記憶す
ることとする。図15(b)は、最初のノードにおける
第1の特徴量の特徴量空間の分割を示す(ステップS1
404)。
【0112】次に、特徴量判別符号化学習部131は、
分離されたT1Lに属する4つの集合を2つの集合から
なる2つのクラスへ分類(T2L、T2R)、分離され
たT1Rに属する4つの集合を2つの集合からなる2つ
のクラスへの分類(T3L、T3R)を順次実行する
(ステップS1400〜ステップS1404)そして、
特徴量判別符号化学習部131は、最終的に所定の段
数、ここでは3段のすべてのノードの分岐が終了するま
でステップS1401〜S1404の処理を繰り返す
(ステップS1405)。
分離されたT1Lに属する4つの集合を2つの集合から
なる2つのクラスへ分類(T2L、T2R)、分離され
たT1Rに属する4つの集合を2つの集合からなる2つ
のクラスへの分類(T3L、T3R)を順次実行する
(ステップS1400〜ステップS1404)そして、
特徴量判別符号化学習部131は、最終的に所定の段
数、ここでは3段のすべてのノードの分岐が終了するま
でステップS1401〜S1404の処理を繰り返す
(ステップS1405)。
【0113】そして、特徴量判別符号化学習部131
は、最後の枝が顔画像クラスに属するか非顔画像クラス
に属するかの識別情報を第1の特徴量識別参照情報記憶
部107に書き込む(ステップS1406)。図15
(c)は、2段目のノードにおける第1の特徴量の特徴
量空間の分割を示す。図15(d)は、3段目のノード
における第1の特徴量の特徴量空間の最終的な分割を示
す。ここで、第1の特徴量の特徴量空間の2分割境界面
S1〜S7は、図13に示す2進探索木のノードS1〜
S7に対応している。また、分割空間T4L〜T7R
は、図13に示す2進探索木の末端の枝T4L〜T7R
に対応している。
は、最後の枝が顔画像クラスに属するか非顔画像クラス
に属するかの識別情報を第1の特徴量識別参照情報記憶
部107に書き込む(ステップS1406)。図15
(c)は、2段目のノードにおける第1の特徴量の特徴
量空間の分割を示す。図15(d)は、3段目のノード
における第1の特徴量の特徴量空間の最終的な分割を示
す。ここで、第1の特徴量の特徴量空間の2分割境界面
S1〜S7は、図13に示す2進探索木のノードS1〜
S7に対応している。また、分割空間T4L〜T7R
は、図13に示す2進探索木の末端の枝T4L〜T7R
に対応している。
【0114】図18は、特徴量判別符号化学習部131
が第1の特徴量識別参照情報記憶部107に書き込んだ
情報を示す。図18(a)は、各ノードごとの2分割境
界面を決める参照ベクトルを示し、図18(b)は末端
の枝が顔画像クラスに属するか非顔画像クラスに属する
かの識別情報を示す。
が第1の特徴量識別参照情報記憶部107に書き込んだ
情報を示す。図18(a)は、各ノードごとの2分割境
界面を決める参照ベクトルを示し、図18(b)は末端
の枝が顔画像クラスに属するか非顔画像クラスに属する
かの識別情報を示す。
【0115】次に、端末装置100の特徴量判別符号化
部108が、任意の入力された第1の特徴量を判別する
動作について説明する。特徴量判別符号化部108は、
2進探索木を辿っていくことにより、第1の特徴量が属
する枝を判定する。すなわち、まず、第1の特徴量が2
分割境界面S1のどちらにあるかが調べられる。特徴量
判別符号化部108は、図18(a)に示す第1の特徴
量識別参照情報記憶部107に記憶されている参照ベク
トルMa、Va、Mb、Vbを読込んで、ニューラルネ
ットワークにより、第1の特徴量が2分割境界面S1の
どちらに属するかを判別する。
部108が、任意の入力された第1の特徴量を判別する
動作について説明する。特徴量判別符号化部108は、
2進探索木を辿っていくことにより、第1の特徴量が属
する枝を判定する。すなわち、まず、第1の特徴量が2
分割境界面S1のどちらにあるかが調べられる。特徴量
判別符号化部108は、図18(a)に示す第1の特徴
量識別参照情報記憶部107に記憶されている参照ベク
トルMa、Va、Mb、Vbを読込んで、ニューラルネ
ットワークにより、第1の特徴量が2分割境界面S1の
どちらに属するかを判別する。
【0116】図19は、第1の特徴量が判別される過程
を示す。図19(a)は、入力された第1の特徴量の特
徴量空間での分布を示す。図19(b)は、2分割境界
面S1によって、第1の特徴量がT1Lに属すると判定
された状態を示す。次に、特徴量判別符号化部108
は、枝T1Lを辿り、図18(a)に示す第1の特徴量
識別参照情報記憶部107に記憶されている参照ベクト
ルMc、Vc、Md、Vdを読込んで、ニューラルネッ
トワークにより、第1の特徴量が2分割境界面S2のど
ちらに属するかを判別する。
を示す。図19(a)は、入力された第1の特徴量の特
徴量空間での分布を示す。図19(b)は、2分割境界
面S1によって、第1の特徴量がT1Lに属すると判定
された状態を示す。次に、特徴量判別符号化部108
は、枝T1Lを辿り、図18(a)に示す第1の特徴量
識別参照情報記憶部107に記憶されている参照ベクト
ルMc、Vc、Md、Vdを読込んで、ニューラルネッ
トワークにより、第1の特徴量が2分割境界面S2のど
ちらに属するかを判別する。
【0117】そして、特徴量判別符号化部108は、上
記と同様にして順次、2進探索木の枝を辿っていく。特
徴量判別符号化部108は、末端の枝に達した場合に、
図18(b)に示す第1の特徴量識別参照情報記憶部1
07に記憶されている識別情報を読込んで、その枝が顔
画像クラスに属するか、非顔画像クラスに属するかを判
定する。
記と同様にして順次、2進探索木の枝を辿っていく。特
徴量判別符号化部108は、末端の枝に達した場合に、
図18(b)に示す第1の特徴量識別参照情報記憶部1
07に記憶されている識別情報を読込んで、その枝が顔
画像クラスに属するか、非顔画像クラスに属するかを判
定する。
【0118】図19(c)は、第1の特徴量が分割空間
T4Rに属すると判定された状態を示す。ここでは、顔
画像クラスに対応する分割空間は、T4R、T6R、T
7L、T7Rなので、特徴量判別符号化部108は、そ
れらの枝に達した時には、第1の特徴量が顔画像クラス
に属すると判定し、それ以外の枝に達した場合には、第
1の特徴量が非顔画像クラスに属すると判定することに
なる。
T4Rに属すると判定された状態を示す。ここでは、顔
画像クラスに対応する分割空間は、T4R、T6R、T
7L、T7Rなので、特徴量判別符号化部108は、そ
れらの枝に達した時には、第1の特徴量が顔画像クラス
に属すると判定し、それ以外の枝に達した場合には、第
1の特徴量が非顔画像クラスに属すると判定することに
なる。
【0119】そして、末端で分岐した枝が顔画像クラス
に対応するものである場合に、その時の距離d1又はd
2は、入力パターンと顔画像クラスに属する集合の中心
との距離となる。そして、この距離が小さいほど、その
第1の特徴量は、より顔画像としての特徴を表してお
り、もととなる第1の部分画像は、顔画像として切出す
のに適しているといえる。そこで、末端の枝が顔画像ク
ラスに対応するものである場合に、その時の距離d1又
はd2の逆数を顔画像クラスへの帰属度とする。また、
末端の枝が非顔画像クラスに対応するものである場合に
帰属度は0としておく。
に対応するものである場合に、その時の距離d1又はd
2は、入力パターンと顔画像クラスに属する集合の中心
との距離となる。そして、この距離が小さいほど、その
第1の特徴量は、より顔画像としての特徴を表してお
り、もととなる第1の部分画像は、顔画像として切出す
のに適しているといえる。そこで、末端の枝が顔画像ク
ラスに対応するものである場合に、その時の距離d1又
はd2の逆数を顔画像クラスへの帰属度とする。また、
末端の枝が非顔画像クラスに対応するものである場合に
帰属度は0としておく。
【0120】特徴量判別符号化部108には、第1の矩
形領域の移動により得られた複数の第1の部分画像を変
換した複数の第1の特徴量が入力されるが、特徴量判別
符号化部108は、これら複数の第1の特徴量の中で顔
画像クラスへの帰属度が最大なものを選択する。そし
て、特徴量判別符号化部108は、選択した第1の特徴
量のもととなる第1の部分画像の位置及び大きさを画像
サンプリング部105に通知する。画像サンプリング部
は、通知された位置と大きさに基づいて顔画像(第2の
部分画像)として切り出す第2の矩形領域を設定する。
形領域の移動により得られた複数の第1の部分画像を変
換した複数の第1の特徴量が入力されるが、特徴量判別
符号化部108は、これら複数の第1の特徴量の中で顔
画像クラスへの帰属度が最大なものを選択する。そし
て、特徴量判別符号化部108は、選択した第1の特徴
量のもととなる第1の部分画像の位置及び大きさを画像
サンプリング部105に通知する。画像サンプリング部
は、通知された位置と大きさに基づいて顔画像(第2の
部分画像)として切り出す第2の矩形領域を設定する。
【0121】次に、特徴量判別符号化部108による第
2の特徴量の符号化方法について説明する。まず、学習
装置130により第2の特徴量を符号化する学習の動作
について説明する。図20は、学習装置が第2の特徴量
の符号化を学習する動作手順を示すフローチャートであ
る。まず、学習装置130内の撮像部103と、画像メ
モリー104と、画像サンプリング部105と、特徴量
変換部106は複数の第2の特徴量のサンプルを有限個
作成する(ステップS2000)。
2の特徴量の符号化方法について説明する。まず、学習
装置130により第2の特徴量を符号化する学習の動作
について説明する。図20は、学習装置が第2の特徴量
の符号化を学習する動作手順を示すフローチャートであ
る。まず、学習装置130内の撮像部103と、画像メ
モリー104と、画像サンプリング部105と、特徴量
変換部106は複数の第2の特徴量のサンプルを有限個
作成する(ステップS2000)。
【0122】特徴量判別符号化学習部131は、第2の
特徴量のサンプルを2つのクラスにクラスタリングす
る。第2の特徴量は、端末装置100で符号化されてセ
ンター装置101へ転送されるが、センター装置101
で復号化することによって、ほぼもとどうりの第2の特
徴量が復元できることが必要となる。第2の特徴量空間
の1つの分割空間に1つの符号が与えられるので、分割
空間内の特定の1点で、その分割空間内のすべての要素
の特徴を代表し得るように第2の特徴量空間は分割され
なけばならない。このような条件を満たすような特徴量
空間を分割するため、特徴量判別符号化学習部131
は、第2の特徴量の特徴量空間上でまとまりを形成する
サンプルが同じ分割空間に属するように、第2の特徴量
のサンプルをk平均アルゴリズムにより2つのクラスに
クラスタリングする。k平均クラスタリングの方法につ
いては後述する。
特徴量のサンプルを2つのクラスにクラスタリングす
る。第2の特徴量は、端末装置100で符号化されてセ
ンター装置101へ転送されるが、センター装置101
で復号化することによって、ほぼもとどうりの第2の特
徴量が復元できることが必要となる。第2の特徴量空間
の1つの分割空間に1つの符号が与えられるので、分割
空間内の特定の1点で、その分割空間内のすべての要素
の特徴を代表し得るように第2の特徴量空間は分割され
なけばならない。このような条件を満たすような特徴量
空間を分割するため、特徴量判別符号化学習部131
は、第2の特徴量の特徴量空間上でまとまりを形成する
サンプルが同じ分割空間に属するように、第2の特徴量
のサンプルをk平均アルゴリズムにより2つのクラスに
クラスタリングする。k平均クラスタリングの方法につ
いては後述する。
【0123】図21は、第2の特徴量のサンプルがクラ
スタリングされていく過程を示す。図21(a)は、第
2の特徴量のサンプルのクラスタリング前の特徴量空間
での分布を示す。図21(b)は、第2の特徴量のサン
プルが2つのクラスタに分類された状態を示す(ステッ
プS2001)。特徴量判別符号化学習部131は 第
1の特徴量の特徴量空間を2進探索木に対応させて順次
2分割したのと同様にして、第2の特徴量の特徴空間2
進探索木に対応させて分割する。すなわち、特徴量判別
符号化学習部131は、クラスタリングにより2つのク
ラスに分類された第2の特徴量のサンプルを第2の特徴
量の特徴量空間上で分割する2分割境界面を作成する。
スタリングされていく過程を示す。図21(a)は、第
2の特徴量のサンプルのクラスタリング前の特徴量空間
での分布を示す。図21(b)は、第2の特徴量のサン
プルが2つのクラスタに分類された状態を示す(ステッ
プS2001)。特徴量判別符号化学習部131は 第
1の特徴量の特徴量空間を2進探索木に対応させて順次
2分割したのと同様にして、第2の特徴量の特徴空間2
進探索木に対応させて分割する。すなわち、特徴量判別
符号化学習部131は、クラスタリングにより2つのク
ラスに分類された第2の特徴量のサンプルを第2の特徴
量の特徴量空間上で分割する2分割境界面を作成する。
【0124】まず、特徴量判別符号化学習部131は、
特徴量空間をクラスタリングによる2つのクラスに分類
する2分割境界面を以下のニューラルネットワークによ
る学習で作成する。図22は、第2の特徴量の特徴量空
間の2分割境界面を生成するニューラルネットワークの
構成を示す。このニューラルネットワークは、図16の
ニューラルネットワークと入力ユニット1800の個数
が相違するのみで、それ以外は同じ構成をとる。入力パ
ターン1803は、単位ブロックの第2の特徴量である
4画素×4画素からなる16次元ベクトルである。従っ
て、入力ユニット1800の個数は16個となる。
特徴量空間をクラスタリングによる2つのクラスに分類
する2分割境界面を以下のニューラルネットワークによ
る学習で作成する。図22は、第2の特徴量の特徴量空
間の2分割境界面を生成するニューラルネットワークの
構成を示す。このニューラルネットワークは、図16の
ニューラルネットワークと入力ユニット1800の個数
が相違するのみで、それ以外は同じ構成をとる。入力パ
ターン1803は、単位ブロックの第2の特徴量である
4画素×4画素からなる16次元ベクトルである。従っ
て、入力ユニット1800の個数は16個となる。
【0125】特徴量判別符号化学習部131は、2分割
境界面をニューラルネットワークの参照ベクトルという
形式で学習させ、学習後の参照ベクトルを第2の特徴量
符号化参照情報記憶部109に記憶する。図21(c)
は、第2の特徴量の2分割境界面S1が作成された状態
を示す(ステップS2002)。さらに、特徴量判別符
号化学習部131は、ステップS2001〜S2002
により、クラスタT1L、T1Rをそれぞれ、さらに2
つのクラスタに分割し、2分割境界面を生成する。図2
1(d)は、第2の特徴量のサンプルが4つのクラスタ
に分類された状態を示す。図21(e)は、第2の特徴
量の2分割境界面S2及びS3が作成された状態を示
す。
境界面をニューラルネットワークの参照ベクトルという
形式で学習させ、学習後の参照ベクトルを第2の特徴量
符号化参照情報記憶部109に記憶する。図21(c)
は、第2の特徴量の2分割境界面S1が作成された状態
を示す(ステップS2002)。さらに、特徴量判別符
号化学習部131は、ステップS2001〜S2002
により、クラスタT1L、T1Rをそれぞれ、さらに2
つのクラスタに分割し、2分割境界面を生成する。図2
1(d)は、第2の特徴量のサンプルが4つのクラスタ
に分類された状態を示す。図21(e)は、第2の特徴
量の2分割境界面S2及びS3が作成された状態を示
す。
【0126】特徴量判別符号化学習部131は、2進探
索木の所定の段数nに相当する分岐について上記処理を
繰り返すことによって、2nの分割空間を形成する(ス
テップS2003)。特徴量判別符号化学習部131
は、末端の枝に達したら、末端の枝に対応する符号化デ
ータと参照ベクトル中の代表ベクトルとの対応を、第2
の特徴量復号化参照情報記憶部118に記憶する(ステ
ップS2004)。
索木の所定の段数nに相当する分岐について上記処理を
繰り返すことによって、2nの分割空間を形成する(ス
テップS2003)。特徴量判別符号化学習部131
は、末端の枝に達したら、末端の枝に対応する符号化デ
ータと参照ベクトル中の代表ベクトルとの対応を、第2
の特徴量復号化参照情報記憶部118に記憶する(ステ
ップS2004)。
【0127】ここで、末端の枝に対する符号化データと
は、末端の枝に達するまでの枝を辿る過程により表され
るデータである。すなわち、末端の枝に達するまでに2
進探索木の各ノードで左の枝を辿ると0の符号が付さ
れ、右の枝を辿ると1の符号を付される。その結果、2
進探索木の末端の枝には、2進探索木の段数分の長さを
もった0又は1からなる符号化データ割当てられること
になる。例えば、T5Lの枝には、枝を左、右、左と辿
るので、010の符号が与えられることになる。
は、末端の枝に達するまでの枝を辿る過程により表され
るデータである。すなわち、末端の枝に達するまでに2
進探索木の各ノードで左の枝を辿ると0の符号が付さ
れ、右の枝を辿ると1の符号を付される。その結果、2
進探索木の末端の枝には、2進探索木の段数分の長さを
もった0又は1からなる符号化データ割当てられること
になる。例えば、T5Lの枝には、枝を左、右、左と辿
るので、010の符号が与えられることになる。
【0128】このようにして作成される符号化データの
長さは、2進探索木の段数と同一の固定値となる。従っ
て、JPEG、MPEG等の可変符号長化方式に比べて
ノイズの多い無線経路では、耐ビット誤り性能が高い効
果がある。図23は、特徴量判別符号化学習部131に
より第2の特徴量符号化参照情報記憶部109に書き込
まれた情報を示す。同図のように、第2の特徴量符号化
参照情報記憶部109は、各ノードごとの2分割境界面
を決める参照ベクトルを記憶している。
長さは、2進探索木の段数と同一の固定値となる。従っ
て、JPEG、MPEG等の可変符号長化方式に比べて
ノイズの多い無線経路では、耐ビット誤り性能が高い効
果がある。図23は、特徴量判別符号化学習部131に
より第2の特徴量符号化参照情報記憶部109に書き込
まれた情報を示す。同図のように、第2の特徴量符号化
参照情報記憶部109は、各ノードごとの2分割境界面
を決める参照ベクトルを記憶している。
【0129】図24は、特徴量判別符号化学習部131
により第2の特徴量復号化参照情報記憶部118に書き
込まれた情報を示す。同図のように、特徴量判別符号化
学習部131は、末端の枝の符号化データと代表ベクト
ルとの対応関係(いわゆるコードブック)を記憶してい
る。センター装置101では、この対応を用いて符号化
データを代表ベクトルに変換することで、受信した符号
化データを復号化する。
により第2の特徴量復号化参照情報記憶部118に書き
込まれた情報を示す。同図のように、特徴量判別符号化
学習部131は、末端の枝の符号化データと代表ベクト
ルとの対応関係(いわゆるコードブック)を記憶してい
る。センター装置101では、この対応を用いて符号化
データを代表ベクトルに変換することで、受信した符号
化データを復号化する。
【0130】さて、ステップS2001におけるK平均
アルゴリズムによるクラスタリングの手法について説明
する。図25は、第2の特徴サンプルを2つのクラスタ
に分類する手順を示すフローチャートである。まず、一
方のクラスタをT1R、T1Rとして、2つの初期クラ
スタ中心を適当に決める。これをM1L(1)、M
1R(1)とする(ステップS2500)。
アルゴリズムによるクラスタリングの手法について説明
する。図25は、第2の特徴サンプルを2つのクラスタ
に分類する手順を示すフローチャートである。まず、一
方のクラスタをT1R、T1Rとして、2つの初期クラ
スタ中心を適当に決める。これをM1L(1)、M
1R(1)とする(ステップS2500)。
【0131】そして、k回目の繰り返しステップにおい
て、第2の特徴量のサンプル{Q}を次の方法で、2つ
のクラスタに分類する。すなわち、|Q−M1L(k)|
≦|Q−M1R(k)|であれば、QはクラスタT1Lに
属するものとする。また、|Q−M1L(k)|>|Q−
M1R(k)|であれば、QはクラスタT1Rに属するも
のとする(ステップS2501)。
て、第2の特徴量のサンプル{Q}を次の方法で、2つ
のクラスタに分類する。すなわち、|Q−M1L(k)|
≦|Q−M1R(k)|であれば、QはクラスタT1Lに
属するものとする。また、|Q−M1L(k)|>|Q−
M1R(k)|であれば、QはクラスタT1Rに属するも
のとする(ステップS2501)。
【0132】次に、ステップS2501によって新しい
クラスタ中心を[数27]によって計算する(ステップ
S2502)。
クラスタ中心を[数27]によって計算する(ステップ
S2502)。
【0133】
【数27】
【0134】次に、アルゴリズムの収束を判定する。す
なわち、M1L(k+1)=M1L(k)、及びM1R(k+
1)=M1R(k)となれば、終了し、そうでなければ、
ステップS2501へもどる(ステップS2503)。
次に、特徴量判別符号化部108による第2の特徴量を
符号化する動作について説明する。特徴量判別符号化部
108は、2進探索木を辿っていくことにより、第2の
特徴量が属する枝を判定する。すなわち、特徴量判別符
号化部108は、図23に示す第2の特徴量符号化参照
情報記憶部109に記憶されている参照ベクトルMo、
Vo、Mp、Vpを読込んで、ニューラルネットワーク
により、第2の特徴量が2分割境界面S1のどちらに属
するかを判別し、順次、2進探索木の枝を辿っていく。
なわち、M1L(k+1)=M1L(k)、及びM1R(k+
1)=M1R(k)となれば、終了し、そうでなければ、
ステップS2501へもどる(ステップS2503)。
次に、特徴量判別符号化部108による第2の特徴量を
符号化する動作について説明する。特徴量判別符号化部
108は、2進探索木を辿っていくことにより、第2の
特徴量が属する枝を判定する。すなわち、特徴量判別符
号化部108は、図23に示す第2の特徴量符号化参照
情報記憶部109に記憶されている参照ベクトルMo、
Vo、Mp、Vpを読込んで、ニューラルネットワーク
により、第2の特徴量が2分割境界面S1のどちらに属
するかを判別し、順次、2進探索木の枝を辿っていく。
【0135】図26は、ニューラルネットワークにより
各ブロックの第2の特徴量が判別される過程を示す。図
26(a)は、ニューラルネットワークにより、第1ブ
ロックの第2の特徴量が分割空間のいずれに属するかが
判定される過程を示す。S1〜S7は、分割境界面を示
す。図26(a)では、入力パターンである第1ブロッ
クの第2の特徴量Qが、第1ブロックの第2の特徴量の
特徴量空間(以下、第1ブロック空間)のS1を分割す
るニューラルネットワークによりT1Rに属すると判定
され、次に、第1ブロック空間のS3を分割するニュー
ラルネットワークによりT3Rに属すると判定され、最
終的に第1ブロック空間のS7を分割するニューラルネ
ットワークによりT7Rに属すると判定されている。
各ブロックの第2の特徴量が判別される過程を示す。図
26(a)は、ニューラルネットワークにより、第1ブ
ロックの第2の特徴量が分割空間のいずれに属するかが
判定される過程を示す。S1〜S7は、分割境界面を示
す。図26(a)では、入力パターンである第1ブロッ
クの第2の特徴量Qが、第1ブロックの第2の特徴量の
特徴量空間(以下、第1ブロック空間)のS1を分割す
るニューラルネットワークによりT1Rに属すると判定
され、次に、第1ブロック空間のS3を分割するニュー
ラルネットワークによりT3Rに属すると判定され、最
終的に第1ブロック空間のS7を分割するニューラルネ
ットワークによりT7Rに属すると判定されている。
【0136】その結果、第1ブロックの第2の特徴量Q
は、T7Rに属することを示す符号化データ111で表
されることになる。そして、符号化データ111のみが
センター装置101に送られ、センター装置101で
は、図24に示す第2の特徴量復号化参照情報記憶部に
記憶されている符号化データと代表ベクトルの対応関係
を参照して、符号化データ111より代表ベクトルMβ
がもとの第1ブロックの第2の特徴量Qとして復元され
ることになる。
は、T7Rに属することを示す符号化データ111で表
されることになる。そして、符号化データ111のみが
センター装置101に送られ、センター装置101で
は、図24に示す第2の特徴量復号化参照情報記憶部に
記憶されている符号化データと代表ベクトルの対応関係
を参照して、符号化データ111より代表ベクトルMβ
がもとの第1ブロックの第2の特徴量Qとして復元され
ることになる。
【0137】図26(b)は、ニューラルネットワーク
により、第2ブロックの第2の特徴量が分割空間のいず
れに属するかが判定される過程を示す。図26(b)で
は、入力パターンである第2ブロックの第2の特徴量Q
が、第2ブロックの第2の特徴量の特徴量空間(以下、
第2ブロック空間)のS1を分割するニューラルネット
ワークによりT1Rに属すると判定され、次に、第2ブ
ロック空間のS3を分割するニューラルネットワークに
よりT3Rに属すると判定され、最終的に第2ブロック
空間のS7を分割するニューラルネットワークによりT
7Lに属すると判定されている。
により、第2ブロックの第2の特徴量が分割空間のいず
れに属するかが判定される過程を示す。図26(b)で
は、入力パターンである第2ブロックの第2の特徴量Q
が、第2ブロックの第2の特徴量の特徴量空間(以下、
第2ブロック空間)のS1を分割するニューラルネット
ワークによりT1Rに属すると判定され、次に、第2ブ
ロック空間のS3を分割するニューラルネットワークに
よりT3Rに属すると判定され、最終的に第2ブロック
空間のS7を分割するニューラルネットワークによりT
7Lに属すると判定されている。
【0138】その結果、第2ブロックの第2の特徴量Q
は、T7Lに属することを示す符号化データ110で表
されることになる。そして、符号化データ110のみが
センター装置101に送られ、センター装置101で
は、図24に示す第2の特徴量復号化参照情報記憶部に
記憶されている符号化データと代表ベクトルの対応関係
を参照して、符号化データ110より代表ベクトルMα
(2)がもとの第2ブロックの第2の特徴量Qとして復
元されることになる。
は、T7Lに属することを示す符号化データ110で表
されることになる。そして、符号化データ110のみが
センター装置101に送られ、センター装置101で
は、図24に示す第2の特徴量復号化参照情報記憶部に
記憶されている符号化データと代表ベクトルの対応関係
を参照して、符号化データ110より代表ベクトルMα
(2)がもとの第2ブロックの第2の特徴量Qとして復
元されることになる。
【0139】このように、特徴量判別符号化部108
は、256個あるすべてのブロックについて、上述のよ
うにしてブロック単位で第2の特徴量を符号化する。そ
して、符号化データがセンター装置101へ送られる。
センター装置101では、符号化データより、その分割
空間の代表ベクトルをもとのブロックの第2の特徴量Q
として復元することになる。
は、256個あるすべてのブロックについて、上述のよ
うにしてブロック単位で第2の特徴量を符号化する。そ
して、符号化データがセンター装置101へ送られる。
センター装置101では、符号化データより、その分割
空間の代表ベクトルをもとのブロックの第2の特徴量Q
として復元することになる。
【0140】次に、第2の特徴量復号化部119による
第2の特徴量の復号化方法について説明する。第2の特
徴量復号化参照情報記憶部118は、上述の2進探索木
の末端の枝を分割するニューラルネットワークが学習に
よって獲得した第2の特徴量の参照ベクトル中の代表ベ
クトルと、符号化データとの対応表を有している。第2
の特徴量復号化部119は、図24に示す第2の特徴量
復号化参照情報記憶部に記憶されている情報より、端末
装置100から送られてきた符号化データより代表ベク
トルを求める。この代表ベクトルは、もとの第2の特徴
量のブロックとして、人物画像の再生と人物の認証のた
めに用いられる。人物画像を再生するためには、まず、
図11に示したように、特徴量逆変換部122によっ
て、第2の特徴量のブロックは周波数による帯域2分割
のサブバンド合成されて、第2の部分画像のブロックが
復元される。そして、画像再生部123によって、第2
の部分画像のブロックが配列されて、第2の部分画像が
再生される。人物を認証するためには、後述するよう
に、第2の特徴量判別部120によって、第2の特徴量
のブロック中のLLLL成分が選択されて用いられる。
第2の特徴量の復号化方法について説明する。第2の特
徴量復号化参照情報記憶部118は、上述の2進探索木
の末端の枝を分割するニューラルネットワークが学習に
よって獲得した第2の特徴量の参照ベクトル中の代表ベ
クトルと、符号化データとの対応表を有している。第2
の特徴量復号化部119は、図24に示す第2の特徴量
復号化参照情報記憶部に記憶されている情報より、端末
装置100から送られてきた符号化データより代表ベク
トルを求める。この代表ベクトルは、もとの第2の特徴
量のブロックとして、人物画像の再生と人物の認証のた
めに用いられる。人物画像を再生するためには、まず、
図11に示したように、特徴量逆変換部122によっ
て、第2の特徴量のブロックは周波数による帯域2分割
のサブバンド合成されて、第2の部分画像のブロックが
復元される。そして、画像再生部123によって、第2
の部分画像のブロックが配列されて、第2の部分画像が
再生される。人物を認証するためには、後述するよう
に、第2の特徴量判別部120によって、第2の特徴量
のブロック中のLLLL成分が選択されて用いられる。
【0141】次に、第2の特徴量判別部121における
第2の特徴量の判別(人物の認証)の動作について説明
する。第2の特徴量判別部121は、第2の特徴量識別
参照情報記憶部120中の情報を用いて第2の特徴量を
判別する。まず、学習装置130による第2の特徴量を
判別する学習の動作について説明する。図27は、学習
装置が第2の特徴量の判別を学習する動作手順を示すフ
ローチャートである。
第2の特徴量の判別(人物の認証)の動作について説明
する。第2の特徴量判別部121は、第2の特徴量識別
参照情報記憶部120中の情報を用いて第2の特徴量を
判別する。まず、学習装置130による第2の特徴量を
判別する学習の動作について説明する。図27は、学習
装置が第2の特徴量の判別を学習する動作手順を示すフ
ローチャートである。
【0142】まず、学習装置130内の撮像部103
と、画像メモリー104と、画像サンプリング部105
と、特徴量変換部106は、システムに登録すべき人物
の第2の特徴量を複数個作成する(ステップS270
0)。次に、第2の特徴量判別学習部132は、ステッ
プS2700により得られたブロック単位の第2の特徴
量からLLLL成分を抽出して、判別に用いるニューラ
ルネットワークの入力パターンを作成する。
と、画像メモリー104と、画像サンプリング部105
と、特徴量変換部106は、システムに登録すべき人物
の第2の特徴量を複数個作成する(ステップS270
0)。次に、第2の特徴量判別学習部132は、ステッ
プS2700により得られたブロック単位の第2の特徴
量からLLLL成分を抽出して、判別に用いるニューラ
ルネットワークの入力パターンを作成する。
【0143】図28は、第2の特徴量のブロックと第2
の特徴量を判別するニューラルネットワークの入力パタ
ーンとの関係を示す。第2の特徴量のブロック2100
は、1画素のLLLL、LLHL、LLLH、LLHH
と、2画素×2画素のLH、HL、HHとからなる16
次元ベクトルである。第2の特徴量のブロック2100
中で、LLLL成分が画像の主要な特徴をもっともよく
表しており人物の判別に用いるのに適しているので、こ
のLLLL成分を各ブロックから抜き出すことにする。
ブロックの総数は16×16個あるので、すべてのブロ
ックよりLLLL成分を抜き出すことにより16×16
次元ベクトル2101が得られる。
の特徴量を判別するニューラルネットワークの入力パタ
ーンとの関係を示す。第2の特徴量のブロック2100
は、1画素のLLLL、LLHL、LLLH、LLHH
と、2画素×2画素のLH、HL、HHとからなる16
次元ベクトルである。第2の特徴量のブロック2100
中で、LLLL成分が画像の主要な特徴をもっともよく
表しており人物の判別に用いるのに適しているので、こ
のLLLL成分を各ブロックから抜き出すことにする。
ブロックの総数は16×16個あるので、すべてのブロ
ックよりLLLL成分を抜き出すことにより16×16
次元ベクトル2101が得られる。
【0144】第2の特徴量判別学習部132は、この1
6×16次元ベクトル2101を生成して、これを第2
の特徴量を判別するニューラルネットワークの入力パタ
ーンとする(ステップS2701)。第2の特徴量判別
学習部132は、ステップS2701で作成した入力パ
ターンを用いてニューラルネットワークにより第2の特
徴量の判別を学習する。
6×16次元ベクトル2101を生成して、これを第2
の特徴量を判別するニューラルネットワークの入力パタ
ーンとする(ステップS2701)。第2の特徴量判別
学習部132は、ステップS2701で作成した入力パ
ターンを用いてニューラルネットワークにより第2の特
徴量の判別を学習する。
【0145】図29は、第2の特徴量を判別するニュー
ラルネットワークの構成を示す。図29に示すニューラ
ルネットワークは、図16に示す第1の特徴量の特徴量
空間を2分割する分割境界面を生成するニューラルネッ
トワークと入力ユニット2201の数と出力ユニット2
202の数が異なるのみである。第2の特徴量の判別
は、第1の特徴量の判別や、第2の特徴量の符号化のよ
うに、順次、集合を2分割するのと異なり、ひとつのニ
ューラルネットワークで、入力パターンをすべての集合
のうちのどれに属するか、すなわち、特定の人物に分類
する。従って、出力ユニット2202の個数mは、集合
の数、すなわち、登録されている人物の数だけ必要とな
る。
ラルネットワークの構成を示す。図29に示すニューラ
ルネットワークは、図16に示す第1の特徴量の特徴量
空間を2分割する分割境界面を生成するニューラルネッ
トワークと入力ユニット2201の数と出力ユニット2
202の数が異なるのみである。第2の特徴量の判別
は、第1の特徴量の判別や、第2の特徴量の符号化のよ
うに、順次、集合を2分割するのと異なり、ひとつのニ
ューラルネットワークで、入力パターンをすべての集合
のうちのどれに属するか、すなわち、特定の人物に分類
する。従って、出力ユニット2202の個数mは、集合
の数、すなわち、登録されている人物の数だけ必要とな
る。
【0146】教師信号は、入力パターンQが人物kに属
する時には、Yk=1、Yi=0(for i≠k)とし
て与えられる。入力パターンは前述のように16×16
次元ベクトルであるので、入力ユニット2201の個数
は、256個となる。第2の特徴量判別学習部132
は、学習結果としての参照ベクトルを第2の特徴量識別
参照情報記憶部120に記憶する(ステップS270
2)。
する時には、Yk=1、Yi=0(for i≠k)とし
て与えられる。入力パターンは前述のように16×16
次元ベクトルであるので、入力ユニット2201の個数
は、256個となる。第2の特徴量判別学習部132
は、学習結果としての参照ベクトルを第2の特徴量識別
参照情報記憶部120に記憶する(ステップS270
2)。
【0147】図30は、第2の特徴量判別学習部132
が第2の特徴量識別参照情報記憶部120に書き込んだ
情報を示す。第2の特徴量識別参照情報記憶部120に
は、m個の出力ユニットごとの参照ベクトルが記憶され
ている(ステップS2902)。次に、センター装置1
01の第2の特徴量判別部121が、任意の第2の特徴
量を判別する動作について説明する。
が第2の特徴量識別参照情報記憶部120に書き込んだ
情報を示す。第2の特徴量識別参照情報記憶部120に
は、m個の出力ユニットごとの参照ベクトルが記憶され
ている(ステップS2902)。次に、センター装置1
01の第2の特徴量判別部121が、任意の第2の特徴
量を判別する動作について説明する。
【0148】第2の特徴量判別部120は、図30に示
す第2の特徴量識別参照情報記憶部120に記憶されて
いる学習結果である参照ベクトルを読込んで、任意の入
力された第2の特徴量をニューラルネットワークによっ
て分類する。すなわち、入力パターンとの距離が最小と
なる参照ベクトルをもつ出力ユニットに対応する人物
が、入力パターンを生成した人物画像の持ち主であると
特定される。
す第2の特徴量識別参照情報記憶部120に記憶されて
いる学習結果である参照ベクトルを読込んで、任意の入
力された第2の特徴量をニューラルネットワークによっ
て分類する。すなわち、入力パターンとの距離が最小と
なる参照ベクトルをもつ出力ユニットに対応する人物
が、入力パターンを生成した人物画像の持ち主であると
特定される。
【0149】これによって、端末装置100で撮像した
人物がセンター装置101に登録されている人物のうち
のいずれであるかが判別される。以上のように、本実施
の形態の人物画像認証システムによれば、端末装置10
0内の特徴量判別部108は、ニューラルネットワーク
を用いて第1の特徴量を順次2進探索木に従って量子化
することによって、人物画像から顔画像の切り出し位置
を決めるとともに、ニューラルネットワークを用いて第
2の特徴量を順次2進探索木に従って量子化することに
よってセンター装置101に送信する符号化データを作
成する。つまり、端末装置100の2つの機能、顔画像
の切り出しと符号化が同一の処理アルゴリズムに基づい
て行えるので、これらの機能を実現するハードウエア構
成要素を共通化でき、端末装置のハードウエア構成を軽
くすることができる。
人物がセンター装置101に登録されている人物のうち
のいずれであるかが判別される。以上のように、本実施
の形態の人物画像認証システムによれば、端末装置10
0内の特徴量判別部108は、ニューラルネットワーク
を用いて第1の特徴量を順次2進探索木に従って量子化
することによって、人物画像から顔画像の切り出し位置
を決めるとともに、ニューラルネットワークを用いて第
2の特徴量を順次2進探索木に従って量子化することに
よってセンター装置101に送信する符号化データを作
成する。つまり、端末装置100の2つの機能、顔画像
の切り出しと符号化が同一の処理アルゴリズムに基づい
て行えるので、これらの機能を実現するハードウエア構
成要素を共通化でき、端末装置のハードウエア構成を軽
くすることができる。
【0150】なお、本実施の形態では、第1の特徴量及
び第2の特徴量として画像データをサブバンド分解した
ものを用いたが、これに限定されるものではない。すな
わち、第2の特徴量としては、画像認識のための特徴量
として用いることができ、かつ可逆的に又はそれに近い
形でもとの画像データを再生できるような特徴量なら別
のもの、例えば、離散コサイン変換(DCT)により得
られるDCT係数などを用いてもよい。また、第1の特
徴量は、第2の特徴量のように可逆的にもとの画像デー
タを再生する必要はないので、第2の特徴量と同一のも
のでなくてもよく、画像認識に多用される特徴量でよ
い。例えば、画像データを複数方向に投影をとったデー
タなどを特徴量として用いてもよい。
び第2の特徴量として画像データをサブバンド分解した
ものを用いたが、これに限定されるものではない。すな
わち、第2の特徴量としては、画像認識のための特徴量
として用いることができ、かつ可逆的に又はそれに近い
形でもとの画像データを再生できるような特徴量なら別
のもの、例えば、離散コサイン変換(DCT)により得
られるDCT係数などを用いてもよい。また、第1の特
徴量は、第2の特徴量のように可逆的にもとの画像デー
タを再生する必要はないので、第2の特徴量と同一のも
のでなくてもよく、画像認識に多用される特徴量でよ
い。例えば、画像データを複数方向に投影をとったデー
タなどを特徴量として用いてもよい。
【0151】また、本実施の形態では、第1の特徴量の
判別及び第2の特徴量の判別にはLLLL成分を用いる
こととしたが、これに限定するものでなく、高域フィル
タ、低域フィルタの構成に基づいて適切な成分を選択し
て用いればよい。また、本実施の形態は、人物の顔画像
の識別以外の用途にも用いることができる。つまり、本
実施の形態は、人物の指紋画像の識別や、手書き文字の
識別のように、なんらかのクラスに属するオブジェクト
の識別にも用いることができる。 (実施の形態2)実施の形態2は、薄型メモリカードを
用いた人物画像認証システムに関する。
判別及び第2の特徴量の判別にはLLLL成分を用いる
こととしたが、これに限定するものでなく、高域フィル
タ、低域フィルタの構成に基づいて適切な成分を選択し
て用いればよい。また、本実施の形態は、人物の顔画像
の識別以外の用途にも用いることができる。つまり、本
実施の形態は、人物の指紋画像の識別や、手書き文字の
識別のように、なんらかのクラスに属するオブジェクト
の識別にも用いることができる。 (実施の形態2)実施の形態2は、薄型メモリカードを
用いた人物画像認証システムに関する。
【0152】図31は、実施の形態2の薄型メモリカー
ドを用いた人物画像認証システムの構成を示す機能ブロ
ック図である。本実施の形態は、実施の形態1の構成に
薄型メモリカード3100が追加され、端末装置100
に入出力部3105が追加された構成である。薄型メモ
リカード3100は、入出力部3101と、制御部31
02と、データ記憶部3103と、データ符号復号化部
3104とから構成される。
ドを用いた人物画像認証システムの構成を示す機能ブロ
ック図である。本実施の形態は、実施の形態1の構成に
薄型メモリカード3100が追加され、端末装置100
に入出力部3105が追加された構成である。薄型メモ
リカード3100は、入出力部3101と、制御部31
02と、データ記憶部3103と、データ符号復号化部
3104とから構成される。
【0153】入出力部3101は、端末装置100の入
出力部3105との間で電気、電磁波などの手段でデー
タの授受を行なう。制御部3102は、薄型メモリカー
ド3100の構成要素の動作を制御する。データ記憶部
3103は、サービス情報の記憶、サービスを受けるこ
とに対して支払われる全額データの残額を記憶する。
出力部3105との間で電気、電磁波などの手段でデー
タの授受を行なう。制御部3102は、薄型メモリカー
ド3100の構成要素の動作を制御する。データ記憶部
3103は、サービス情報の記憶、サービスを受けるこ
とに対して支払われる全額データの残額を記憶する。
【0154】データ符号復号化部3104は、端末装置
100から受信した符号化データを復号化し、端末装置
100へ送信するデータを符号化する。次に、本実施の
形態の薄型メモリカードを用いた人物画像認証システム
の動作について説明する。図32は、実施の形態2の薄
型メモリカードを用いた人物画像認証システムの動作手
順を示すフローチャートである。
100から受信した符号化データを復号化し、端末装置
100へ送信するデータを符号化する。次に、本実施の
形態の薄型メモリカードを用いた人物画像認証システム
の動作について説明する。図32は、実施の形態2の薄
型メモリカードを用いた人物画像認証システムの動作手
順を示すフローチャートである。
【0155】まず、端末装置100の制御部112は、
入出力部3105に認証番号要求信号の送信を指示する
(ステップS3200)。端末装置100の入出力部3
105は、薄型メモリカード3100の入出力部310
1へ認証番号要求信号を送信する(ステップS320
1)。薄型メモリカード3100の入出力部3101
は、受信した認証要求信号を制御部3102に転送す
る。薄型メモリカード3100の制御部3102は、デ
ータ記憶部3103から認証番号を読み出して、データ
符号復号化部3104に転送する。データ符号復号化部
3104で符号化された認証番号は入出力部3101よ
り、端末装置100の入出力部3105に送信される
(ステップS3202、S3203)。
入出力部3105に認証番号要求信号の送信を指示する
(ステップS3200)。端末装置100の入出力部3
105は、薄型メモリカード3100の入出力部310
1へ認証番号要求信号を送信する(ステップS320
1)。薄型メモリカード3100の入出力部3101
は、受信した認証要求信号を制御部3102に転送す
る。薄型メモリカード3100の制御部3102は、デ
ータ記憶部3103から認証番号を読み出して、データ
符号復号化部3104に転送する。データ符号復号化部
3104で符号化された認証番号は入出力部3101よ
り、端末装置100の入出力部3105に送信される
(ステップS3202、S3203)。
【0156】端末装置100の入出力部3105は、符
号化された認証番号を受信し、端末装置100の制御部
112は、撮像部103に人物画像の撮影を指示し、一
連の処理を経て符号化された第2の特徴量が得られる。
制御部112は、符号化された第2の特徴量(顔の認証
データ)、符号化された認証番号、識別要求信号を通信
部113に出力する(ステップS3204)。
号化された認証番号を受信し、端末装置100の制御部
112は、撮像部103に人物画像の撮影を指示し、一
連の処理を経て符号化された第2の特徴量が得られる。
制御部112は、符号化された第2の特徴量(顔の認証
データ)、符号化された認証番号、識別要求信号を通信
部113に出力する(ステップS3204)。
【0157】端末装置100の通信部113は、符号化
された第2の特徴量(顔の認証データ)、符号化された
認証番号、識別要求信号をセンター装置101の通信部
117へ転送する(ステップS3205)。センター装
置101は、ステップS311、S313の処理を行っ
て、転送されてきた符号化された第2の特徴量(顔の認
証データ)を復号化し、その第2の特徴量が属するクラ
スの判定、すなわち、その人物を特定し、制御部126
に出力する。また、データ符号復号化部128は、符号
化されている認証番号を復号化する。制御部126は、
特定した人物と認証番号と比較して、一致しているかど
うかを判定する(ステップS3206)。
された第2の特徴量(顔の認証データ)、符号化された
認証番号、識別要求信号をセンター装置101の通信部
117へ転送する(ステップS3205)。センター装
置101は、ステップS311、S313の処理を行っ
て、転送されてきた符号化された第2の特徴量(顔の認
証データ)を復号化し、その第2の特徴量が属するクラ
スの判定、すなわち、その人物を特定し、制御部126
に出力する。また、データ符号復号化部128は、符号
化されている認証番号を復号化する。制御部126は、
特定した人物と認証番号と比較して、一致しているかど
うかを判定する(ステップS3206)。
【0158】制御部126が不一致であると判定した場
合には、通信部117は、認証番号、不一致応答信号を
端末装置100内の通信部113へ転送する(ステップ
S3207)。ステップS3200〜S3206の手続
きを繰り返して、センター装置101へ符号化された第
2の特徴量(顔の認証データ)と、符号化された認証番
号と、識別要求信号が送られ、センター装置101で、
転送されてきた符号化された第2の特徴量を復号化し、
その第2の特徴量が属する人物を特定するとともに、認
証番号を復号化し、特定した人物と認証番号と比較し
て、一致しているかどうかを判定する。制御部126
は、一致であると判定した場合には、認証番号に応じて
登録されたサービスの許可をする(ステップS3208
〜S3214)。
合には、通信部117は、認証番号、不一致応答信号を
端末装置100内の通信部113へ転送する(ステップ
S3207)。ステップS3200〜S3206の手続
きを繰り返して、センター装置101へ符号化された第
2の特徴量(顔の認証データ)と、符号化された認証番
号と、識別要求信号が送られ、センター装置101で、
転送されてきた符号化された第2の特徴量を復号化し、
その第2の特徴量が属する人物を特定するとともに、認
証番号を復号化し、特定した人物と認証番号と比較し
て、一致しているかどうかを判定する。制御部126
は、一致であると判定した場合には、認証番号に応じて
登録されたサービスの許可をする(ステップS3208
〜S3214)。
【0159】そして、通信部117は、認証番号、一致
応答信号を端末装置100内の通信部113へ転送する
(ステップS3215)。端末装置100の制御部11
2は、受信した一致応答信号により、利用者に認証番号
に応じて登録されたサービスの選択を許可する。利用者
は、選択信号入力部111を通じて、許可されたサービ
ス内容を選択する。ここでは、センター装置101のデ
ータ記憶部127に記憶されている有償のサービス情報
を端末装置100を経由して薄型メモリカード3100
に入力するサービスを選択したとする。そして、サービ
スに対する課金は、薄型メモリカード3100のデータ
記憶部3103で記憶している金額データからサービス
料金を減算することによって行うものとする(ステップ
S3216)。
応答信号を端末装置100内の通信部113へ転送する
(ステップS3215)。端末装置100の制御部11
2は、受信した一致応答信号により、利用者に認証番号
に応じて登録されたサービスの選択を許可する。利用者
は、選択信号入力部111を通じて、許可されたサービ
ス内容を選択する。ここでは、センター装置101のデ
ータ記憶部127に記憶されている有償のサービス情報
を端末装置100を経由して薄型メモリカード3100
に入力するサービスを選択したとする。そして、サービ
スに対する課金は、薄型メモリカード3100のデータ
記憶部3103で記憶している金額データからサービス
料金を減算することによって行うものとする(ステップ
S3216)。
【0160】端末装置100の入出力部3105は、薄
型メモリカード3100の入出力部3101に認証番号
と金額データ要求信号を送信する(ステップS321
7)。薄型メモリカード3100の制御部3102は、
受信した認証番号が薄型メモリカード3100のデータ
記憶部3103に記憶している認証番号と一致している
ならば、金額データ要求信号で指定されたデータ記憶部
3103のアドレスから金額データを読み出す。そし
て、データ符号復号化部3104は、読み出された金額
データを符号化する(ステップS3218)。
型メモリカード3100の入出力部3101に認証番号
と金額データ要求信号を送信する(ステップS321
7)。薄型メモリカード3100の制御部3102は、
受信した認証番号が薄型メモリカード3100のデータ
記憶部3103に記憶している認証番号と一致している
ならば、金額データ要求信号で指定されたデータ記憶部
3103のアドレスから金額データを読み出す。そし
て、データ符号復号化部3104は、読み出された金額
データを符号化する(ステップS3218)。
【0161】入出力部3101は、認証番号と符号化さ
れた金額データを端末装置100の入出力部3105に
送信する(ステップS3219)。端末装置100の通
信部113は、認証番号、符号化された金額データに加
えて、サービス要求信号をセンター装置101の通信部
117に転送する(ステップS3220)。
れた金額データを端末装置100の入出力部3105に
送信する(ステップS3219)。端末装置100の通
信部113は、認証番号、符号化された金額データに加
えて、サービス要求信号をセンター装置101の通信部
117に転送する(ステップS3220)。
【0162】センター装置101の制御部126は、サ
ービス要求信号を解読してデータ記憶部127からサー
ビス情報を読み出し、データ符号復号化部128は、サ
ービス情報を符号化する。また、データ符号復号化部1
28は、金額データを復号化する。制御部126は、復
号化した金額データからサービス料金を減算し、金額デ
ータを更新し、データ符号復号化部128は、更新した
金額データを符号化する(ステップS3221)。
ービス要求信号を解読してデータ記憶部127からサー
ビス情報を読み出し、データ符号復号化部128は、サ
ービス情報を符号化する。また、データ符号復号化部1
28は、金額データを復号化する。制御部126は、復
号化した金額データからサービス料金を減算し、金額デ
ータを更新し、データ符号復号化部128は、更新した
金額データを符号化する(ステップS3221)。
【0163】センター装置101の通信部117は、端
末装置100の通信部113へ認証番号、符号化した更
新金額データ、符号化したサービス情報を転送する(ス
テップS3222)。端末装置100の入出力部310
5は、薄型メモリカード3100の入出力部3101へ
認証番号、符号化した更新金額データ、符号化したサー
ビス情報を転送する(ステップS3223)。
末装置100の通信部113へ認証番号、符号化した更
新金額データ、符号化したサービス情報を転送する(ス
テップS3222)。端末装置100の入出力部310
5は、薄型メモリカード3100の入出力部3101へ
認証番号、符号化した更新金額データ、符号化したサー
ビス情報を転送する(ステップS3223)。
【0164】薄型メモリカード3100のデータ符号復
号化部3104は、受信した符号化されている更新金額
データとサービス情報を復号化して、データ記憶部31
03に記憶する(ステップS3224)。そして、認証
番号とともに、データ記憶部3103への書き込み応答
が入出力部3101から端末装置100の入出力部31
05へ転送される(ステップS3225)。
号化部3104は、受信した符号化されている更新金額
データとサービス情報を復号化して、データ記憶部31
03に記憶する(ステップS3224)。そして、認証
番号とともに、データ記憶部3103への書き込み応答
が入出力部3101から端末装置100の入出力部31
05へ転送される(ステップS3225)。
【0165】端末装置100において、選択信号入力部
111を通じて、サービスの終了が選択された場合に
は、制御部112はサービスの許可を終了し、初期状態
(人物識別モード)にもどすとともに、通信部113
に、認証番号と、終了信号を出力する(ステップS32
26)。端末装置100の通信部113から、センター
装置101の通信部117へ認証番号と終了信号が転送
される(ステップS3227)。
111を通じて、サービスの終了が選択された場合に
は、制御部112はサービスの許可を終了し、初期状態
(人物識別モード)にもどすとともに、通信部113
に、認証番号と、終了信号を出力する(ステップS32
26)。端末装置100の通信部113から、センター
装置101の通信部117へ認証番号と終了信号が転送
される(ステップS3227)。
【0166】センター装置101の制御部126は、認
証番号に応じて登録されたサービスの許可を終了する
(ステップS3228)。以上のように、本実施の形態
の人物画像認証システムでは、現状広く普及している薄
型メモリカードを用いたサービスにおいて、薄型メモリ
カードに記憶されている認証番号だけで人物を認証する
のではなく、顔画像より人物を特定し、認証番号と一致
しているかどうかにより人物を認証するので、強固なセ
キュリティを確保した個人の認証が可能となる。 (実施の形態3)実施の形態3は、バックプロパゲーシ
ョンニューラルネットワークにより第1の特徴量の判
別、第2の特徴量の符号化、及び第2の特徴量の判別を
する人物画像認証システムに関する。
証番号に応じて登録されたサービスの許可を終了する
(ステップS3228)。以上のように、本実施の形態
の人物画像認証システムでは、現状広く普及している薄
型メモリカードを用いたサービスにおいて、薄型メモリ
カードに記憶されている認証番号だけで人物を認証する
のではなく、顔画像より人物を特定し、認証番号と一致
しているかどうかにより人物を認証するので、強固なセ
キュリティを確保した個人の認証が可能となる。 (実施の形態3)実施の形態3は、バックプロパゲーシ
ョンニューラルネットワークにより第1の特徴量の判
別、第2の特徴量の符号化、及び第2の特徴量の判別を
する人物画像認証システムに関する。
【0167】実施の形態1における特徴量判別符号化部
108、第2の特徴量判別部121、特徴量判別符号化
学習部131、第2の特徴量判別学習部132ではσL
VQ型ニューラルネットワークを用いていたが、本実施
の形態ではバックプロパゲーションニューラルネットワ
ークを用いる。図33は、第2の特徴量を判別するバッ
クプロパゲーションニューラルネットワークの構成を示
す。図33に示すバックプロパゲーションニューラルネ
ットワークは、入力ユニット3301と、中間ユニット
3303、出力ユニット3302とから構成される。
108、第2の特徴量判別部121、特徴量判別符号化
学習部131、第2の特徴量判別学習部132ではσL
VQ型ニューラルネットワークを用いていたが、本実施
の形態ではバックプロパゲーションニューラルネットワ
ークを用いる。図33は、第2の特徴量を判別するバッ
クプロパゲーションニューラルネットワークの構成を示
す。図33に示すバックプロパゲーションニューラルネ
ットワークは、入力ユニット3301と、中間ユニット
3303、出力ユニット3302とから構成される。
【0168】入力ユニット3301には、入力パターン
Q(q1、q2、…、qn)3304が入力される。入力
パターンQは前述のように16×16次元ベクトルであ
るので、入力ユニット3301の個数は256個とな
る。出力ユニット3302は、登録する人物の数だけ備
える。そして、出力ユニット3302から出力される出
力信号3305により人物の判定がなされる。すなわ
ち、入力パターンQ3304に対して、出力信号330
5が1に近い値をもつ出力ユニットが特定され、入力パ
ターン3304は、その出力ユニットに対応する人物の
ものであると判定される。教師信号3306の値は、入
力されている入力パターンQを生成した人物に対応する
出力ユニットに対しては1、それ以外の出力ユニットに
対しては0とする。この表現方法では、出力ユニットが
m個の時には、m人が識別できることになる。
Q(q1、q2、…、qn)3304が入力される。入力
パターンQは前述のように16×16次元ベクトルであ
るので、入力ユニット3301の個数は256個とな
る。出力ユニット3302は、登録する人物の数だけ備
える。そして、出力ユニット3302から出力される出
力信号3305により人物の判定がなされる。すなわ
ち、入力パターンQ3304に対して、出力信号330
5が1に近い値をもつ出力ユニットが特定され、入力パ
ターン3304は、その出力ユニットに対応する人物の
ものであると判定される。教師信号3306の値は、入
力されている入力パターンQを生成した人物に対応する
出力ユニットに対しては1、それ以外の出力ユニットに
対しては0とする。この表現方法では、出力ユニットが
m個の時には、m人が識別できることになる。
【0169】あるいは、別の表現方法として、例えば、
人物Aに対しては、出力ユニットO1とO2が1で、そ
れ以外の出力ユニットは0とするような表現も可能であ
る。この場合には、出力ユニットm個に対して2m人の
識別が可能である。中間ユニット3303は、ニューラ
ルネットワークの性能を向上させるために設けるもので
あり、その個数は実験的に決める。
人物Aに対しては、出力ユニットO1とO2が1で、そ
れ以外の出力ユニットは0とするような表現も可能であ
る。この場合には、出力ユニットm個に対して2m人の
識別が可能である。中間ユニット3303は、ニューラ
ルネットワークの性能を向上させるために設けるもので
あり、その個数は実験的に決める。
【0170】バックプロパゲーションニューラルネット
ワークでは、出力信号3305と教師信号3306との
誤差を最小化するように、各結合の重みを修正する誤差
逆伝播アルゴリズムを用いて学習を行なう。バックプロ
パゲーションニューラルネットワークは、周知であるの
で、ここでは、より詳しい説明は省略する。
ワークでは、出力信号3305と教師信号3306との
誤差を最小化するように、各結合の重みを修正する誤差
逆伝播アルゴリズムを用いて学習を行なう。バックプロ
パゲーションニューラルネットワークは、周知であるの
で、ここでは、より詳しい説明は省略する。
【0171】第1の特徴量の判別、第2の特徴量の符号
化をするバックプロパゲーションニューラルネットワー
クも、上述の第2の特徴量を判別するバックプロパゲー
ションニューラルネットワークと入力ユニット、中間ユ
ニット、出力ユニットの個数がそれぞれ異なるだけで、
その他は同様の構成である。以上のように、本実施の形
態の人物画像認証システムでは、実施の形態1で用いた
σLVQ型ニューラルネットワークの代わりにバックプ
ロパゲーションニューラルネットワークを用いて、実施
の形態1と同様の効果を達成することができる。 (実施の形態4)実施の形態4は、σLVQ型ニューラ
ルネットワークに新しい学習則を導入し、判別及び符号
化の精度を向上させた人物画像認証システムに関する。
化をするバックプロパゲーションニューラルネットワー
クも、上述の第2の特徴量を判別するバックプロパゲー
ションニューラルネットワークと入力ユニット、中間ユ
ニット、出力ユニットの個数がそれぞれ異なるだけで、
その他は同様の構成である。以上のように、本実施の形
態の人物画像認証システムでは、実施の形態1で用いた
σLVQ型ニューラルネットワークの代わりにバックプ
ロパゲーションニューラルネットワークを用いて、実施
の形態1と同様の効果を達成することができる。 (実施の形態4)実施の形態4は、σLVQ型ニューラ
ルネットワークに新しい学習則を導入し、判別及び符号
化の精度を向上させた人物画像認証システムに関する。
【0172】実施の形態1における特徴量判別符号化学
習部131、及び第2の特徴量判別学習部132のσL
VQ型ニューラルネットワークは、参照ベクトルのうち
代表ベクトルのみを学習して更新していたが、本実施の
形態では、代表ベクトルに加えて分散ベクトルも学習に
より更新する。分散ベクトルの学習方法は、カテゴリー
の判定結果と、入力パターンと平均ベクトルとの距離、
分散ベクトルの大きさに従う。
習部131、及び第2の特徴量判別学習部132のσL
VQ型ニューラルネットワークは、参照ベクトルのうち
代表ベクトルのみを学習して更新していたが、本実施の
形態では、代表ベクトルに加えて分散ベクトルも学習に
より更新する。分散ベクトルの学習方法は、カテゴリー
の判定結果と、入力パターンと平均ベクトルとの距離、
分散ベクトルの大きさに従う。
【0173】すなわち、カテゴリーの判定が正しく(入
力パターンがそのカテゴリーに含まれる。)、かつ、入
力パターンと平均ベクトルとの距離が分散ベクトルより
大きい場合には、現在用いている分散ベクトルの値が小
さいといえるので、分散ベクトルの値を大きくなる方向
に修正する。一方、カテゴリーの判定が誤りで(入力パ
ターンがそのカテゴリーに含まれない)、かつ、入力パ
ターンと平均ベクトルとの距離が分散ベクトルより小さ
い場合には、現在用いている分散ベクトルの値が大きい
といえるので、分散ベクトルの値を小さくなる方向に修
正する。
力パターンがそのカテゴリーに含まれる。)、かつ、入
力パターンと平均ベクトルとの距離が分散ベクトルより
大きい場合には、現在用いている分散ベクトルの値が小
さいといえるので、分散ベクトルの値を大きくなる方向
に修正する。一方、カテゴリーの判定が誤りで(入力パ
ターンがそのカテゴリーに含まれない)、かつ、入力パ
ターンと平均ベクトルとの距離が分散ベクトルより小さ
い場合には、現在用いている分散ベクトルの値が大きい
といえるので、分散ベクトルの値を小さくなる方向に修
正する。
【0174】上記以外の場合、すなわち、カテゴリーの
判定が正しく、かつ、入力パターンと平均ベクトルとの
距離が分散ベクトルより小さい場合、及びカテゴリーの
判定が誤りで、かつ、入力パターンと平均ベクトルとの
距離が分散ベクトルより大きい場合には、現在用いてい
る分散ベクトルの値は適当といえるので、分散ベクトル
の値は更新せずそのままとする。
判定が正しく、かつ、入力パターンと平均ベクトルとの
距離が分散ベクトルより小さい場合、及びカテゴリーの
判定が誤りで、かつ、入力パターンと平均ベクトルとの
距離が分散ベクトルより大きい場合には、現在用いてい
る分散ベクトルの値は適当といえるので、分散ベクトル
の値は更新せずそのままとする。
【0175】第1の特徴量の判別に用いるσLVQ型ニ
ューラルネットワークに分散ベクトルの学習則を用いた
場合について説明する。図34は、第1の特徴量の判別
に用いるσLVQ型ニューラルネットワークの学習の動
作手順を示すフローチャートである。ここでは、1つの
学習サンプルを学習する動作を示す。まず、σLVQ型
ニューラルネットワークに学習サンプルを入力して、各
出力ユニットにおける距離を[数28]、[数29]に
従って算出して、入力した学習サンプルを分類する(ス
テップS3400)。
ューラルネットワークに分散ベクトルの学習則を用いた
場合について説明する。図34は、第1の特徴量の判別
に用いるσLVQ型ニューラルネットワークの学習の動
作手順を示すフローチャートである。ここでは、1つの
学習サンプルを学習する動作を示す。まず、σLVQ型
ニューラルネットワークに学習サンプルを入力して、各
出力ユニットにおける距離を[数28]、[数29]に
従って算出して、入力した学習サンプルを分類する(ス
テップS3400)。
【0176】
【数28】
【0177】
【数29】
【0178】分類が教師信号Y1、Y2として与えられる
望ましい分類に一致するかどうかを調べる(ステップS
3401)。分類が正しい時には、すなわち、yi=Yi
(for 1≦i≦n)には、[数30]に従って、代
表ベクトルを更新する(ステップS3402)。
望ましい分類に一致するかどうかを調べる(ステップS
3401)。分類が正しい時には、すなわち、yi=Yi
(for 1≦i≦n)には、[数30]に従って、代
表ベクトルを更新する(ステップS3402)。
【0179】
【数30】
【0180】また、[数31]に従って、分散ベクトル
を更新する(ステップS3403)。
を更新する(ステップS3403)。
【0181】
【数31】
【0182】分類が誤っている時には、[数32]に従
って、代表ベクトルを更新する(ステップS340
4)。
って、代表ベクトルを更新する(ステップS340
4)。
【0183】
【数32】
【0184】また、[数33]に従って、分散ベクトル
を更新する(ステップS3405)。
を更新する(ステップS3405)。
【0185】
【数33】
【0186】図35は、分散ベクトルの成分である分散
値σcjの更新について示す。図35(a)は、分類が正
しく、かつ|qj(t)−mcj(t)|−σcj(t)
>0を満たす場合の入力パターンqj(t)の分布を示
す。図35(b)は、図35(a)の時のσcj(t)の
更新値σcj(t+1)を示す。図35(a)では、分類
が正しいので[数31]により分散値σcj(t)を更新
する。[数31]においてsgn(|qj(t)−mcj
(t)|−σcj(t))=1となるので、更新値σ
cj(t+1)は、σcj(t)×(1+γ1)となる。
値σcjの更新について示す。図35(a)は、分類が正
しく、かつ|qj(t)−mcj(t)|−σcj(t)
>0を満たす場合の入力パターンqj(t)の分布を示
す。図35(b)は、図35(a)の時のσcj(t)の
更新値σcj(t+1)を示す。図35(a)では、分類
が正しいので[数31]により分散値σcj(t)を更新
する。[数31]においてsgn(|qj(t)−mcj
(t)|−σcj(t))=1となるので、更新値σ
cj(t+1)は、σcj(t)×(1+γ1)となる。
【0187】図35(c)は、分類が正しく、かつ|q
j(t)−mcj(t)|−σcj(t) ≦0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(d)は、図35(c)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(c)では、分類が正しいの
で[数31]により分散値σcj(t)を更新する。[数
31]においてsgn(|qj(t)−mcj(t)|−
σcj(t))=0となるので、更新値σcj(t+1)
は、σcj(t)のままである。
j(t)−mcj(t)|−σcj(t) ≦0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(d)は、図35(c)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(c)では、分類が正しいの
で[数31]により分散値σcj(t)を更新する。[数
31]においてsgn(|qj(t)−mcj(t)|−
σcj(t))=0となるので、更新値σcj(t+1)
は、σcj(t)のままである。
【0188】図35(e)は、分類が誤りで、かつ|q
j(t)−mcj(t)|−σcj(t) ≧0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(f)は、図35(e)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(e)では、分類が誤りなの
で[数33]により分散値σcj(t)を更新する。[数
33]においてsgn(σcj(t)−|qj(t)−m
cj(t)|)=0となるので、更新値σcj(t+1)
は、σcj(t)のままである。
j(t)−mcj(t)|−σcj(t) ≧0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(f)は、図35(e)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(e)では、分類が誤りなの
で[数33]により分散値σcj(t)を更新する。[数
33]においてsgn(σcj(t)−|qj(t)−m
cj(t)|)=0となるので、更新値σcj(t+1)
は、σcj(t)のままである。
【0189】図35(g)は、分類が誤りで、かつ|q
j(t)−mcj(t)|−σcj(t) <0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(h)は、図35(g)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(g)では、分類が誤りなの
で[数33]により分散値σcj(t)を更新する。[数
33]においてsgn(σcj(t)−|qj(t)−m
cj(t)|)=1となるので、更新値σcj(t+1)
は、σcj(t)×(1−γ2)となる。
j(t)−mcj(t)|−σcj(t) <0を満たす場
合の入力パターンqj(t)の分布を示す。図35
(h)は、図35(g)の時のσcj(t)の更新値σcj
(t+1)を示す。図35(g)では、分類が誤りなの
で[数33]により分散値σcj(t)を更新する。[数
33]においてsgn(σcj(t)−|qj(t)−m
cj(t)|)=1となるので、更新値σcj(t+1)
は、σcj(t)×(1−γ2)となる。
【0190】第2の特徴量の符号化、及び第2の特徴量
の判別のためのσLVQ型ニューラルネットワークにつ
いても、上記と同様にして分散ベクトルの学習が可能で
ある。以上のように本実施の形態の人物画像認証システ
ムでは、代表ベクトルだけでなく分散ベクトルをも学習
により更新するので、カテゴリー判定のための距離の計
算がより精密にでき、学習の精度を向上することができ
るとともに、学習に要する時間も短縮できる。 (実施の形態5)実施の形態5は、学習に用いる人物画
像のサンプル数が少ない場合に、混合した特徴量によっ
てニューラルネットワークの学習をする人物画像認証シ
ステムに関する。
の判別のためのσLVQ型ニューラルネットワークにつ
いても、上記と同様にして分散ベクトルの学習が可能で
ある。以上のように本実施の形態の人物画像認証システ
ムでは、代表ベクトルだけでなく分散ベクトルをも学習
により更新するので、カテゴリー判定のための距離の計
算がより精密にでき、学習の精度を向上することができ
るとともに、学習に要する時間も短縮できる。 (実施の形態5)実施の形態5は、学習に用いる人物画
像のサンプル数が少ない場合に、混合した特徴量によっ
てニューラルネットワークの学習をする人物画像認証シ
ステムに関する。
【0191】本実施の形態の人物画像認証システムは、
実施の形態1の第2の特徴量判別学習部132におい
て、ニューラルネットワークの入力パターンを保有する
サンプルデータを用いて合成して人為的に作成し、これ
を用いて学習する機能が付加されたものである。図36
は、実施の形態5の混合した特徴量の作成及びこれを用
いた学習の動作手順を示すフローチャートである。
実施の形態1の第2の特徴量判別学習部132におい
て、ニューラルネットワークの入力パターンを保有する
サンプルデータを用いて合成して人為的に作成し、これ
を用いて学習する機能が付加されたものである。図36
は、実施の形態5の混合した特徴量の作成及びこれを用
いた学習の動作手順を示すフローチャートである。
【0192】まず、特定の人物sについて、他のすべて
の人物との間で[数34]で定義される距離dを計算す
る(ステップS3600)。
の人物との間で[数34]で定義される距離dを計算す
る(ステップS3600)。
【0193】
【数34】
【0194】次に、[数35]によって、距離dが最小
となる人物pを選択する(ステップS3601)。
となる人物pを選択する(ステップS3601)。
【0195】
【数35】
【0196】次に、人物sの第2の特徴量のサンプルの
中で平均ベクトルに近い値をもつ1つのサンプルを選択
し、人物pの第2の特徴量のサンプルの中で平均ベクト
ルに近い値をもつ1つのサンプルを選択し、これらを
[数36]に従って混合した混合特徴量を作成する(ス
テップS3602)。
中で平均ベクトルに近い値をもつ1つのサンプルを選択
し、人物pの第2の特徴量のサンプルの中で平均ベクト
ルに近い値をもつ1つのサンプルを選択し、これらを
[数36]に従って混合した混合特徴量を作成する(ス
テップS3602)。
【0197】
【数36】
【0198】次に、ステップS3602で作成した時間
変化する混合特徴量を入力パターンとして学習を行う。
従って、学習時には、人物sの第2の特徴量qsを繰り返
し入力するのではなく、人物sの第2の特徴量qsjと人
物pの第2の特徴量qpjを時間変化する混合比αのもと
で混合した特徴量をニューラルネットワークに入力して
学習させることとなる(ステップS3603)。
変化する混合特徴量を入力パターンとして学習を行う。
従って、学習時には、人物sの第2の特徴量qsを繰り返
し入力するのではなく、人物sの第2の特徴量qsjと人
物pの第2の特徴量qpjを時間変化する混合比αのもと
で混合した特徴量をニューラルネットワークに入力して
学習させることとなる(ステップS3603)。
【0199】図37は、入力パターンの時間変化を示
す。3701は、人物sの第2の特徴量の平均ベクトル
に近い値をもつサンプルであるqsjを示し、3702
は、人物pの第2の特徴量の平均ベクトルに近い値をも
つサンプルであるqpjを示す。3703は、qsjとqpjを
結ぶ線分の中点を示す。3704は人物sの学習におけ
るt=0での入力パターンqsj(α)を示す。ここでt=
0におけるαの値は[数36]よりα0であり、α0=
0.4とする。従って、t=0では、qsjとqpjとが
4:6で混合された特徴量が入力される。時間tの進行
に伴って、αの値は[数36]に従って減少し、十分に
時間を経過した時にはα=0となる。
す。3701は、人物sの第2の特徴量の平均ベクトル
に近い値をもつサンプルであるqsjを示し、3702
は、人物pの第2の特徴量の平均ベクトルに近い値をも
つサンプルであるqpjを示す。3703は、qsjとqpjを
結ぶ線分の中点を示す。3704は人物sの学習におけ
るt=0での入力パターンqsj(α)を示す。ここでt=
0におけるαの値は[数36]よりα0であり、α0=
0.4とする。従って、t=0では、qsjとqpjとが
4:6で混合された特徴量が入力される。時間tの進行
に伴って、αの値は[数36]に従って減少し、十分に
時間を経過した時にはα=0となる。
【0200】これは、人物sの学習において、合成して
作成した特徴量3704を含むように人物sと人物pと
の識別境界面が生成されるように明示的に示したことに
なる。これによって、学習サンプルが少ない場合に、人
物sと人物pの識別境界面が人物sのサンプルに近い場
所(混合特徴量3704を含まない場所)に偏って生成
されるのを防止している。
作成した特徴量3704を含むように人物sと人物pと
の識別境界面が生成されるように明示的に示したことに
なる。これによって、学習サンプルが少ない場合に、人
物sと人物pの識別境界面が人物sのサンプルに近い場
所(混合特徴量3704を含まない場所)に偏って生成
されるのを防止している。
【0201】また、ニューラルネットワークへの入力パ
ターンqsj(α)は、学習開始時には人物sと人物pとの
境界付近から始まって、学習の進行とともに徐々に人物
sの特徴量に近付けていくことで、人物sと人物pとを
区別する境界境界面が早期に精度よく形成できる、すな
わち収束性がよい学習が可能となる。図38は、入力パ
ターンの時間変化の例を画像形式で示す。実際には、ニ
ューラルネットワークには第2の特徴量が入力されるの
だが、ここでは、説明のため顔画像の形式で示す。図3
8(a)は、人物Aの顔画像3801と人物Bの顔画像
3802を示す。ここで、人物Aの顔画像に最も類似す
る顔画像として人物Bの顔画像が選ばれ、人物Bの顔画
像に最も類似する画像として人物Aの顔画像が選ばれた
ものとする。従って、人物Aの顔画像の学習と、人物B
の顔画像の学習のどちらにおいても、人物Aの顔画像と
人物Bの顔画像を合成した画像が用いられることにな
る。
ターンqsj(α)は、学習開始時には人物sと人物pとの
境界付近から始まって、学習の進行とともに徐々に人物
sの特徴量に近付けていくことで、人物sと人物pとを
区別する境界境界面が早期に精度よく形成できる、すな
わち収束性がよい学習が可能となる。図38は、入力パ
ターンの時間変化の例を画像形式で示す。実際には、ニ
ューラルネットワークには第2の特徴量が入力されるの
だが、ここでは、説明のため顔画像の形式で示す。図3
8(a)は、人物Aの顔画像3801と人物Bの顔画像
3802を示す。ここで、人物Aの顔画像に最も類似す
る顔画像として人物Bの顔画像が選ばれ、人物Bの顔画
像に最も類似する画像として人物Aの顔画像が選ばれた
ものとする。従って、人物Aの顔画像の学習と、人物B
の顔画像の学習のどちらにおいても、人物Aの顔画像と
人物Bの顔画像を合成した画像が用いられることにな
る。
【0202】図38(b)は、人物Aの学習における、
ニューラルネットワークの入力パターンを顔画像の形式
で示す。3803は学習開始時に入力する顔画像(比率
α=0.4)、3804は学習の中間時点で入力する顔
画像(比率α=0.2)、3805は十分時間を経た学
習終了時に入力する顔画像(比率α=0)を示す。図3
8(c)は、人物Bの学習において、ニューラルネット
ワークの入力パターンを顔画像の形式で示す。3806
は学習開始時に入力する顔画像(比率α=0.4)、3
807は学習の中間時点で入力する顔画像(比率α=
0.2)、3808は十分時間を経た学習終了時に入力
する顔画像(比率α=0)を示す。
ニューラルネットワークの入力パターンを顔画像の形式
で示す。3803は学習開始時に入力する顔画像(比率
α=0.4)、3804は学習の中間時点で入力する顔
画像(比率α=0.2)、3805は十分時間を経た学
習終了時に入力する顔画像(比率α=0)を示す。図3
8(c)は、人物Bの学習において、ニューラルネット
ワークの入力パターンを顔画像の形式で示す。3806
は学習開始時に入力する顔画像(比率α=0.4)、3
807は学習の中間時点で入力する顔画像(比率α=
0.2)、3808は十分時間を経た学習終了時に入力
する顔画像(比率α=0)を示す。
【0203】このように、Aを学習する場合には、最初
にBの混合比率が高い架空のAを用いて、AとBとの境
界付近を学習し、徐々に真のA(データとして実際に存
在する)を用いて、Aの中心点を学習していくことにな
る。他方、Bを学習する場合には、最初にAの混合比率
が高い架空のBを用いて、AとBとの境界付近を学習
し、徐々に真のB(データとして実際に存在する)を用
いて、Bの中心点を学習していくことになる。
にBの混合比率が高い架空のAを用いて、AとBとの境
界付近を学習し、徐々に真のA(データとして実際に存
在する)を用いて、Aの中心点を学習していくことにな
る。他方、Bを学習する場合には、最初にAの混合比率
が高い架空のBを用いて、AとBとの境界付近を学習
し、徐々に真のB(データとして実際に存在する)を用
いて、Bの中心点を学習していくことになる。
【0204】以下に、本実施の形態の認識実験結果を示
す。図39は、学習サンプル数と誤認識率の関係を示
す。40人の人物に対して、それぞれ10個の顔画像を
用意した。図39に示すグラフの横軸は、各人に対して
学習に用いた画像サンプル数を示す。グラフの縦軸は、
認識テスト用画像の誤認識率である。認識テスト用画像
とは、学習に用いなかった画像である。従って、学習に
x個の画像を用いる場合は、認識テスト用画像は、10
−x個となる。[数36]のパラメータは、α0=0.
5、η=200と設定した。図39には、本実施の形態
である混合した特徴量を用いた方法による誤認識率39
01と、特徴量を混合しない従来方法の誤認識率390
2を示す。本実施の形態による混合した特徴量を用いる
認識方法は、従来方法に比べて認識率が高いことが示さ
れた。
す。図39は、学習サンプル数と誤認識率の関係を示
す。40人の人物に対して、それぞれ10個の顔画像を
用意した。図39に示すグラフの横軸は、各人に対して
学習に用いた画像サンプル数を示す。グラフの縦軸は、
認識テスト用画像の誤認識率である。認識テスト用画像
とは、学習に用いなかった画像である。従って、学習に
x個の画像を用いる場合は、認識テスト用画像は、10
−x個となる。[数36]のパラメータは、α0=0.
5、η=200と設定した。図39には、本実施の形態
である混合した特徴量を用いた方法による誤認識率39
01と、特徴量を混合しない従来方法の誤認識率390
2を示す。本実施の形態による混合した特徴量を用いる
認識方法は、従来方法に比べて認識率が高いことが示さ
れた。
【0205】以上のように、本実施の形態の人物画像認
証システムでは、混合特徴量を用いて、類似した人物を
明確に区別できるように学習することができる。なお、
ここでは、人物sと人物pの特徴量サンプルから平均ベ
クトルに近い値をもつサンプルを1個ずつ抽出して、抽
出したサンプルから混合特徴量を作成して学習をするこ
ととしたが、これに限定するものでなく、人物sと人物
pの特徴量サンプルから任意個数のサンプルを抽出し
て、これらのサンプルより混合特徴量を作成して、学習
することとしてもよい。 (実施の形態6)実施の形態6は、学習に用いる人物画
像のサンプル数が少ない場合に、特徴量の分散ベクトル
の推定を向上させる手段を導入してσLVQ型ニューラ
ルネットワークの学習精度を向上させる人物画像認証シ
ステムに関する。
証システムでは、混合特徴量を用いて、類似した人物を
明確に区別できるように学習することができる。なお、
ここでは、人物sと人物pの特徴量サンプルから平均ベ
クトルに近い値をもつサンプルを1個ずつ抽出して、抽
出したサンプルから混合特徴量を作成して学習をするこ
ととしたが、これに限定するものでなく、人物sと人物
pの特徴量サンプルから任意個数のサンプルを抽出し
て、これらのサンプルより混合特徴量を作成して、学習
することとしてもよい。 (実施の形態6)実施の形態6は、学習に用いる人物画
像のサンプル数が少ない場合に、特徴量の分散ベクトル
の推定を向上させる手段を導入してσLVQ型ニューラ
ルネットワークの学習精度を向上させる人物画像認証シ
ステムに関する。
【0206】本実施の形態の人物画像認証システムで
は、実施の形態1の第2の特徴量判別学習部132にお
いて、σLVQ型ニューラルネットワークの参照ベクト
ル中の分散ベクトルは、その集合(人物)に属するサン
プルデータだけから計算するのでなく、その集合以外の
集合との混合集合を作成して、その混合集合のサンプル
データから計算するものとする。
は、実施の形態1の第2の特徴量判別学習部132にお
いて、σLVQ型ニューラルネットワークの参照ベクト
ル中の分散ベクトルは、その集合(人物)に属するサン
プルデータだけから計算するのでなく、その集合以外の
集合との混合集合を作成して、その混合集合のサンプル
データから計算するものとする。
【0207】学習サンプル数が少ない場合には、統計計
算により算出される分散ベクトルの信頼性が低い。特
に、信頼性が低い分散値が得られた場合には、[数2
1]等の距離の計算が分散値の2乗のオーダーできくた
め、認識率が極度に低下する場合がある。一方、人物の
顔画像についていえば、人物ごとに、その代表ベクトル
(平均値)は当然異なるが、分散ベクトル(カメラに対
する顔の向きや位置の変化に伴うちらばり)はそれほど
変らないと考えられる。
算により算出される分散ベクトルの信頼性が低い。特
に、信頼性が低い分散値が得られた場合には、[数2
1]等の距離の計算が分散値の2乗のオーダーできくた
め、認識率が極度に低下する場合がある。一方、人物の
顔画像についていえば、人物ごとに、その代表ベクトル
(平均値)は当然異なるが、分散ベクトル(カメラに対
する顔の向きや位置の変化に伴うちらばり)はそれほど
変らないと考えられる。
【0208】そこで、本実施の形態では、信頼性の低い
分散値が得られた場合に、MDL原理に基づいて、他の
人物のサンプル集合と混合した混合集合を用いて正しい
分散値を推定する。MDL(Minimum Desc
ription Length)原理とは、データ圧縮
の考えを基礎として、「与えられたデータの中で、モデ
ルの記述を含めて、最も短く記述できるモデルが最良の
モデルとする。」ものである。本実施の形態では、各集
合の分布として正規分布を仮定しているので、混合集合
のユニバーサル符号語長は、各集合の分散の自然対数の
和(対数分散和)に依存する。従って、対数分散和が小
さな(ユニバーサル符号語長が小さい)混合集合を選択
すればよいことになる。なお、ユニバーサル符号化、及
びMDL原理に関しては、韓、小林著「応用数学 情報
と符号化の数理」(岩波書店)に詳しく記述されてい
る。
分散値が得られた場合に、MDL原理に基づいて、他の
人物のサンプル集合と混合した混合集合を用いて正しい
分散値を推定する。MDL(Minimum Desc
ription Length)原理とは、データ圧縮
の考えを基礎として、「与えられたデータの中で、モデ
ルの記述を含めて、最も短く記述できるモデルが最良の
モデルとする。」ものである。本実施の形態では、各集
合の分布として正規分布を仮定しているので、混合集合
のユニバーサル符号語長は、各集合の分散の自然対数の
和(対数分散和)に依存する。従って、対数分散和が小
さな(ユニバーサル符号語長が小さい)混合集合を選択
すればよいことになる。なお、ユニバーサル符号化、及
びMDL原理に関しては、韓、小林著「応用数学 情報
と符号化の数理」(岩波書店)に詳しく記述されてい
る。
【0209】図40は、実施の形態6における混合集合
を作成して特徴量の分散値を推定する動作手順を示すフ
ローチャートである。また、図41は、人物Aの特徴量
の分散値σAが推定される過程を示す。図41(a)
は、人物A、B、C、Dの特徴量のサンプルの分布を示
す。それぞれの分散値をσA、σB、σC、σDとする。こ
こでは、集合Aのサンプルが少なく、サンプルの分散値
σAの信頼性が低いので、人物Aの特徴量の分散値σAを
推定するものとする。
を作成して特徴量の分散値を推定する動作手順を示すフ
ローチャートである。また、図41は、人物Aの特徴量
の分散値σAが推定される過程を示す。図41(a)
は、人物A、B、C、Dの特徴量のサンプルの分布を示
す。それぞれの分散値をσA、σB、σC、σDとする。こ
こでは、集合Aのサンプルが少なく、サンプルの分散値
σAの信頼性が低いので、人物Aの特徴量の分散値σAを
推定するものとする。
【0210】まず、人物Aと混合される人物の集合を決
めるために、[数37]に従って、人物Aの分散値σA
の自然対数と他の人物の分散との自然対数の和を求める
(ステップS4000)。
めるために、[数37]に従って、人物Aの分散値σA
の自然対数と他の人物の分散との自然対数の和を求める
(ステップS4000)。
【0211】
【数37】
【0212】次に、[数37]の対数分散和が最小値を
持つものを選択し、それが最初の対数分散値logσA
より小さければ、そのような対数分散和を与える集合を
選択し、混合するものとする。例えば、M(A、C)が
最小で、logσAσC<logσAの時には、集合Cと
混合する。混合の際には、集合Cの平均値が集合Aの平
均値と一致するように、集合Cのサンプルの値をシフト
させて混合する。そして、集合Aと集合Cの混合集合A
Cの分散値σACが集合Aの分散値とみなされる。図41
(b)は、最小の対数分散和を与える集合Cが選択さ
れ、混合集合ACが作成された状態を示す(ステップS
4001、S4002)。
持つものを選択し、それが最初の対数分散値logσA
より小さければ、そのような対数分散和を与える集合を
選択し、混合するものとする。例えば、M(A、C)が
最小で、logσAσC<logσAの時には、集合Cと
混合する。混合の際には、集合Cの平均値が集合Aの平
均値と一致するように、集合Cのサンプルの値をシフト
させて混合する。そして、集合Aと集合Cの混合集合A
Cの分散値σACが集合Aの分散値とみなされる。図41
(b)は、最小の対数分散和を与える集合Cが選択さ
れ、混合集合ACが作成された状態を示す(ステップS
4001、S4002)。
【0213】さらに、混合する集合を決めるために、
[数38]を計算する(ステップS4000)。
[数38]を計算する(ステップS4000)。
【0214】
【数38】
【0215】[数38]の対数分散和が最小値を持つも
のを選択し、それがもとの対数分散和logσAσCより
小さければ、そのような対数分散和を与える集合を選択
し、混合するものとする。例えば、M(AC、B)が最
小で、logσAσCσB<logσAσCの時には、集合
Bと混合する。混合の際には、集合Bの平均値が混合集
合ACの平均値と一致するように、集合Bのサンプルの
値をシフトさせて混合する。そして、集合Bと混合集合
ACの混合集合ACBの分散値σACBが集合Aの分散値
とみなされる。図41(c)は、最小の対数分散和を与
える集合Bが選択され、混合集合ACBが作成された状
態を示す(ステップS4001、S4002)。
のを選択し、それがもとの対数分散和logσAσCより
小さければ、そのような対数分散和を与える集合を選択
し、混合するものとする。例えば、M(AC、B)が最
小で、logσAσCσB<logσAσCの時には、集合
Bと混合する。混合の際には、集合Bの平均値が混合集
合ACの平均値と一致するように、集合Bのサンプルの
値をシフトさせて混合する。そして、集合Bと混合集合
ACの混合集合ACBの分散値σACBが集合Aの分散値
とみなされる。図41(c)は、最小の対数分散和を与
える集合Bが選択され、混合集合ACBが作成された状
態を示す(ステップS4001、S4002)。
【0216】以下、同様にして、順次、混合集合を作成
して行く(ステップS4000〜S4002)。そし
て、最終的な混合集合の分散値をもとの集合Aの分散値
と推定する。このような分散値の推定を分散ベクトルの
各成分ごとに行って分散ベクトルの推定をする。
して行く(ステップS4000〜S4002)。そし
て、最終的な混合集合の分散値をもとの集合Aの分散値
と推定する。このような分散値の推定を分散ベクトルの
各成分ごとに行って分散ベクトルの推定をする。
【0217】次に、本実施の形態による分散ベクトル推
定の実験結果を示す。図42は、混合する集合の数と対
数分散和との関係を示す。図42は、ある人物Aの集合
の分散値を推定するために、上述の方法で順次、混合集
合を作成した時の混合した集合の数と対数分散和を示し
ている。実験では、混合した集合の数が3の時に対数分
散和が最小となった。従って、この場合には、集合数3
で混合された時の混合集合における分散値でもって、人
物Aの集合の分散値を推定することとなる。
定の実験結果を示す。図42は、混合する集合の数と対
数分散和との関係を示す。図42は、ある人物Aの集合
の分散値を推定するために、上述の方法で順次、混合集
合を作成した時の混合した集合の数と対数分散和を示し
ている。実験では、混合した集合の数が3の時に対数分
散和が最小となった。従って、この場合には、集合数3
で混合された時の混合集合における分散値でもって、人
物Aの集合の分散値を推定することとなる。
【0218】図43は、混合する集合の数と認識誤り率
及び平均分散値との関係を示す。図43は、すべての人
物の集合の分散値を推定するために、上述の方法で順
次、混合集合を作成した時の混合した集合の数と、誤認
識率及び平均分散値を示す。実験では、混合した集合の
数が4の時に、認識誤り率及び平均分散値が最小値に収
束した。このように、信頼性が低い分散値が得られた場
合(通常は、撮影条件などによって真の値より大きな値
が得られる。)、混合集合を用いて分散値を推定するこ
とで、分散値を小さくでき、認識率を上昇させることが
可能となった。
及び平均分散値との関係を示す。図43は、すべての人
物の集合の分散値を推定するために、上述の方法で順
次、混合集合を作成した時の混合した集合の数と、誤認
識率及び平均分散値を示す。実験では、混合した集合の
数が4の時に、認識誤り率及び平均分散値が最小値に収
束した。このように、信頼性が低い分散値が得られた場
合(通常は、撮影条件などによって真の値より大きな値
が得られる。)、混合集合を用いて分散値を推定するこ
とで、分散値を小さくでき、認識率を上昇させることが
可能となった。
【0219】以上のように、本実施の形態の人物画像認
証システムでは、信頼性の高い分散ベクトルが得られな
い場合に、混合集合の分散値でもってその集合の分散値
とみなすことによって、少ない学習データ数でも認識率
を維持することが可能になる。なお、本実施の形態によ
る分散値の推定方法は、実施の形態4の第2の特徴量判
別部121におけるσLVQ型ニューラルネットワーク
の参照ベクトル中の分散ベクトルの分散値の初期値の決
定に用いてもよい。実施の形態4では、実施の形態1と
異なり分散ベクトルも更新し学習するが、分散ベクトル
の初期値はサンプルデータから統計計算する。サンプル
データ数が少ない場合には、上述と同様に統計計算され
た分散ベクトルの信頼性が低く、適切な初期値とならな
いからである。
証システムでは、信頼性の高い分散ベクトルが得られな
い場合に、混合集合の分散値でもってその集合の分散値
とみなすことによって、少ない学習データ数でも認識率
を維持することが可能になる。なお、本実施の形態によ
る分散値の推定方法は、実施の形態4の第2の特徴量判
別部121におけるσLVQ型ニューラルネットワーク
の参照ベクトル中の分散ベクトルの分散値の初期値の決
定に用いてもよい。実施の形態4では、実施の形態1と
異なり分散ベクトルも更新し学習するが、分散ベクトル
の初期値はサンプルデータから統計計算する。サンプル
データ数が少ない場合には、上述と同様に統計計算され
た分散ベクトルの信頼性が低く、適切な初期値とならな
いからである。
【0220】また、本実施の形態では、対数分散和の最
小値が最初の対数分散値logσAより大きければ混合
集合は作成されないこととなるが、別の実験によれば、
このような場合にでも、混合集合を作成する方が識別力
はよくなることが示されている。これは、ニューラルネ
ットワークの汎化能力に関連していると考えられる。従
って、対数分散和の最小値が最初の対数分散値logσ
Aより大きい場合にでも、必ず1個の集合とは混合集合
を作成するとしてもよい。すなわち、上述の具体例で
は、混合M(A、C)が最小で、logσAσC≧log
σAの時にも、集合Cと混合することとしてもよい。 (実施の形態7)実施の形態7は、システムに登録され
ていない人物を誤って、登録者の誰かであると判定する
のを防止することのできる人物画像認証システムに関す
る。
小値が最初の対数分散値logσAより大きければ混合
集合は作成されないこととなるが、別の実験によれば、
このような場合にでも、混合集合を作成する方が識別力
はよくなることが示されている。これは、ニューラルネ
ットワークの汎化能力に関連していると考えられる。従
って、対数分散和の最小値が最初の対数分散値logσ
Aより大きい場合にでも、必ず1個の集合とは混合集合
を作成するとしてもよい。すなわち、上述の具体例で
は、混合M(A、C)が最小で、logσAσC≧log
σAの時にも、集合Cと混合することとしてもよい。 (実施の形態7)実施の形態7は、システムに登録され
ていない人物を誤って、登録者の誰かであると判定する
のを防止することのできる人物画像認証システムに関す
る。
【0221】本実施の形態の人物画像認証システムは、
実施の形態1の第2の特徴量判別学習部132において
未登録者排除学習機能が付加され、第2の特徴量判別部
121において未登録者識別機能が付加されたものであ
る。ニューラルネットワークによる対象の識別では、入
力された対象は、学習した対象の中で最も類似する対象
であると識別される。従って、人物認証においては、登
録されていない人物がニューラルネットワークに入力さ
れた場合には、その人物は、登録された人物の中から最
も近い人物であると判定されることになる。これは、ニ
ューラルネットワークによって、特徴量空間が登録者ご
との空間に分割されるので、入力された特徴量は、いず
れかの登録者の空間に属することになるからである。こ
のように未登録者を登録者の誰かであると誤って認識す
ることは、セキュリティ上問題となる場合が多い。
実施の形態1の第2の特徴量判別学習部132において
未登録者排除学習機能が付加され、第2の特徴量判別部
121において未登録者識別機能が付加されたものであ
る。ニューラルネットワークによる対象の識別では、入
力された対象は、学習した対象の中で最も類似する対象
であると識別される。従って、人物認証においては、登
録されていない人物がニューラルネットワークに入力さ
れた場合には、その人物は、登録された人物の中から最
も近い人物であると判定されることになる。これは、ニ
ューラルネットワークによって、特徴量空間が登録者ご
との空間に分割されるので、入力された特徴量は、いず
れかの登録者の空間に属することになるからである。こ
のように未登録者を登録者の誰かであると誤って認識す
ることは、セキュリティ上問題となる場合が多い。
【0222】そこで、登録者以外に擬似登録者の空間を
特徴量空間中に別途設けることによって未登録者を登録
者であると誤って判定するのを抑制することができる。
ここで、擬似登録者とは、システムに関与しない人物で
ある。例えば、会社の営業部の人物を識別するためにシ
ステムを用いる場合に、社外の人物を営業部の誰かであ
ると判定しないようにするために、擬似登録者として、
その会社の人事部の人物を用いる。
特徴量空間中に別途設けることによって未登録者を登録
者であると誤って判定するのを抑制することができる。
ここで、擬似登録者とは、システムに関与しない人物で
ある。例えば、会社の営業部の人物を識別するためにシ
ステムを用いる場合に、社外の人物を営業部の誰かであ
ると判定しないようにするために、擬似登録者として、
その会社の人事部の人物を用いる。
【0223】図44は、実施の形態7の未登録者識別機
能の学習及び判別の動作手順を示すフローチャートであ
る。まず、登録者以外のシステムに関与しない複数の人
物を疑似登録者として、ニューラルネットワークに登録
者だけでなく疑似登録者も併せて並行し学習させる。
能の学習及び判別の動作手順を示すフローチャートであ
る。まず、登録者以外のシステムに関与しない複数の人
物を疑似登録者として、ニューラルネットワークに登録
者だけでなく疑似登録者も併せて並行し学習させる。
【0224】図45は、実施の形態7のニューラルネッ
トワークの構成を示す図である。このニューラルネット
ワークは、図29に示す第2の特徴量を判別するニュー
ラルネットワークの出力ユニットをm個の登録者のため
の出力ユニットO1〜Omだけでなく、n個の疑似登録者
のための出力ユニットOm+1〜Om+nを付加したところに
特徴がある。つまり、m人の登録者の学習は通常通り行
ない、n人の疑似登録者の学習は、疑似登録者n人に対
して、それぞれ対応する出力ユニットがカテゴリー学習
を行なう。上記学習によって登録者以外の疑似登録者の
空間が形成されることになる。
トワークの構成を示す図である。このニューラルネット
ワークは、図29に示す第2の特徴量を判別するニュー
ラルネットワークの出力ユニットをm個の登録者のため
の出力ユニットO1〜Omだけでなく、n個の疑似登録者
のための出力ユニットOm+1〜Om+nを付加したところに
特徴がある。つまり、m人の登録者の学習は通常通り行
ない、n人の疑似登録者の学習は、疑似登録者n人に対
して、それぞれ対応する出力ユニットがカテゴリー学習
を行なう。上記学習によって登録者以外の疑似登録者の
空間が形成されることになる。
【0225】図46は、学習後の第2の特徴量の特徴量
空間を示す。図46(a)は、疑似登録者を用いない場
合の第2の特徴量空間を示す。この場合、特徴量空間
は、登録者Aと登録者Bの空間に分割される。図46
(b)は、疑似登録者を用いた場合の第2の特徴量空間
を示す。この場合には、真の登録者A、B以外の疑似登
録者Cの空間が生成される。そして、登録者以外の未登
録者の入力があった場合、その特徴量が疑似登録者の空
間に属することができれば、登録者の誰かと誤って判定
しないようにすることができる(ステップS440
0)。
空間を示す。図46(a)は、疑似登録者を用いない場
合の第2の特徴量空間を示す。この場合、特徴量空間
は、登録者Aと登録者Bの空間に分割される。図46
(b)は、疑似登録者を用いた場合の第2の特徴量空間
を示す。この場合には、真の登録者A、B以外の疑似登
録者Cの空間が生成される。そして、登録者以外の未登
録者の入力があった場合、その特徴量が疑似登録者の空
間に属することができれば、登録者の誰かと誤って判定
しないようにすることができる(ステップS440
0)。
【0226】次に、未知の入力パターンをニューラルネ
ットワークに入力して、入力パターンのカテゴリーを判
定する(ステップS4401)。入力パターンが登録者
であるカテゴリー1〜mに分類されたかを調べる(ステ
ップS4402)。入力パターンがカテゴリー1〜mに
分類された場合には、分類されたカテゴリーより入力パ
ターンが登録者中のいずれであるかを特定する(ステッ
プS4403)。
ットワークに入力して、入力パターンのカテゴリーを判
定する(ステップS4401)。入力パターンが登録者
であるカテゴリー1〜mに分類されたかを調べる(ステ
ップS4402)。入力パターンがカテゴリー1〜mに
分類された場合には、分類されたカテゴリーより入力パ
ターンが登録者中のいずれであるかを特定する(ステッ
プS4403)。
【0227】また、入力パターンがカテゴリー1〜m以
外に分類された場合には、未知登録者であると判定する
図46(a)の疑似登録者を用いない場合には、未登録
者Cのサンプルは、登録者A、登録者Bのサンプルのど
ちらとも近くない(類似していない)が、未登録者Cは
登録者Aの分割空間に属している。従って、未登録者C
は登録者Aと判別されることになる。
外に分類された場合には、未知登録者であると判定する
図46(a)の疑似登録者を用いない場合には、未登録
者Cのサンプルは、登録者A、登録者Bのサンプルのど
ちらとも近くない(類似していない)が、未登録者Cは
登録者Aの分割空間に属している。従って、未登録者C
は登録者Aと判別されることになる。
【0228】図46(b)の疑似登録者を用いる場合に
は、未登録者Cのサンプルは、登録者A、Bのサンプル
よりも疑似登録者Cのサンプルに近く、疑似登録者Cの
分割空間に属する。従って、未登録者Cは未登録者と判
別されることになる。つまり、登録者の分割空間以外に
疑似登録者のための空間が加わったことにより、未知登
録者Cのサンプルは、登録者のサンプルに非類似である
にも係らず、登録者の誰かと誤って特定されるのを防止
できる(ステップS4404)。
は、未登録者Cのサンプルは、登録者A、Bのサンプル
よりも疑似登録者Cのサンプルに近く、疑似登録者Cの
分割空間に属する。従って、未登録者Cは未登録者と判
別されることになる。つまり、登録者の分割空間以外に
疑似登録者のための空間が加わったことにより、未知登
録者Cのサンプルは、登録者のサンプルに非類似である
にも係らず、登録者の誰かと誤って特定されるのを防止
できる(ステップS4404)。
【0229】図47は、実施の形態7による登録者及び
未登録者の識別率を示す。5人の真の登録者に対して、
疑似登録者を8人、16人、24人、32人、40人と
変化させた時、真の登録者の識別率と、未登録者の識別
率を調べた。真の登録者を真の登録者であると判別する
識別率は100%であった。未登録者を疑似登録者と判
別する、すなわち真の登録者でないと判別する認識率
は、疑似登録者の数とともに、87%、94%、97
%、98%、98%と上昇した。以上の結果より、擬似
登録する人物の数を増やすことによって、未登録者を排
除する機能が強化されていくことが示された。
未登録者の識別率を示す。5人の真の登録者に対して、
疑似登録者を8人、16人、24人、32人、40人と
変化させた時、真の登録者の識別率と、未登録者の識別
率を調べた。真の登録者を真の登録者であると判別する
識別率は100%であった。未登録者を疑似登録者と判
別する、すなわち真の登録者でないと判別する認識率
は、疑似登録者の数とともに、87%、94%、97
%、98%、98%と上昇した。以上の結果より、擬似
登録する人物の数を増やすことによって、未登録者を排
除する機能が強化されていくことが示された。
【0230】以上のように、本実施の形態の人物画像認
証システムでは、ニューラルネットワークに登録者以外
に擬似登録者の特徴量も学習させることによって、未登
録者を登録者の誰かであると誤って判定するのを抑制す
ることができる。なお、ここでは、各疑似登録者に対し
て、それぞれ1個の出力ユニットを設けることとした
が、これに限定するものでなく、数人の擬似登録者に対
して、それぞれ1個の出力ユニットを設けることとして
もよい。計算時間や学習精度を考慮してより望ましい構
成とすればよい。 (実施の形態8)実施の形態8は、疑似登録者の特徴量
として合成特徴量を用い、擬似登録者のサンプル数を増
やして、未登録者排除機能を強化することのできる人物
画像認証システムに関する。
証システムでは、ニューラルネットワークに登録者以外
に擬似登録者の特徴量も学習させることによって、未登
録者を登録者の誰かであると誤って判定するのを抑制す
ることができる。なお、ここでは、各疑似登録者に対し
て、それぞれ1個の出力ユニットを設けることとした
が、これに限定するものでなく、数人の擬似登録者に対
して、それぞれ1個の出力ユニットを設けることとして
もよい。計算時間や学習精度を考慮してより望ましい構
成とすればよい。 (実施の形態8)実施の形態8は、疑似登録者の特徴量
として合成特徴量を用い、擬似登録者のサンプル数を増
やして、未登録者排除機能を強化することのできる人物
画像認証システムに関する。
【0231】本実施の形態は、実施の形態7において擬
似登録者のサンプル数が少ない場合や、実施の形態7よ
りも登録者の特徴量の空間をさらに狭くして、未登録者
を登録者と誤って判定するのを抑制する機能を強化した
い場合に有効なものである。本実施の形態では、疑似登
録者の特徴量として合成特徴量を用いる。すなわち、疑
似登録者の第2の特徴量と真の登録者の第2の特徴量を
1:1の比率で混合した合成特徴量をも疑似登録者の特
徴量として用いる。
似登録者のサンプル数が少ない場合や、実施の形態7よ
りも登録者の特徴量の空間をさらに狭くして、未登録者
を登録者と誤って判定するのを抑制する機能を強化した
い場合に有効なものである。本実施の形態では、疑似登
録者の特徴量として合成特徴量を用いる。すなわち、疑
似登録者の第2の特徴量と真の登録者の第2の特徴量を
1:1の比率で混合した合成特徴量をも疑似登録者の特
徴量として用いる。
【0232】本実施の形態のニューラルネットワークの
形態は、図32に示す実施の形態7のニューラルネット
ワークの形態と同一である。図48は、実施の形態8に
よる登録者及び未登録者の識別率を示す。真の登録者の
数を変えて、真の登録者の識別率と、未登録者の識別率
を合成特徴量を用いない場合と用いる場合とで比較し
た。疑似登録者の数は20人である。図48(a)は、
合成特徴量を用いない場合の識別率を示す。合成特徴量
を用いない場合には、真の登録者を真の登録者であると
判別する識別率は98%であり、未登録者を疑似登録者
と判別する、すなわち真の登録者でないと判別する認識
率は、登録者の数とともに、96.0%、88.2%、8
1.7%と下降した。図48(b)は、合成特徴量を用
いた場合の識別率を示す。合成特徴量のサンプル数は、
真の登録者の数が1人の場合は20個、3人の場合は2
0×3=60個、5人の場合は20×5=100個とし
た。合成特徴量を用いる場合には、真の登録者を真の登
録者であると判別する識別率は97%であり、未登録者
を疑似登録者と判別する、すなわち真の登録者でないと
判別する認識率は、100%を示した。以上の実験によ
り、合成特徴量を用いることによって、未登録者を排除
する機能が強化されたことが示された。
形態は、図32に示す実施の形態7のニューラルネット
ワークの形態と同一である。図48は、実施の形態8に
よる登録者及び未登録者の識別率を示す。真の登録者の
数を変えて、真の登録者の識別率と、未登録者の識別率
を合成特徴量を用いない場合と用いる場合とで比較し
た。疑似登録者の数は20人である。図48(a)は、
合成特徴量を用いない場合の識別率を示す。合成特徴量
を用いない場合には、真の登録者を真の登録者であると
判別する識別率は98%であり、未登録者を疑似登録者
と判別する、すなわち真の登録者でないと判別する認識
率は、登録者の数とともに、96.0%、88.2%、8
1.7%と下降した。図48(b)は、合成特徴量を用
いた場合の識別率を示す。合成特徴量のサンプル数は、
真の登録者の数が1人の場合は20個、3人の場合は2
0×3=60個、5人の場合は20×5=100個とし
た。合成特徴量を用いる場合には、真の登録者を真の登
録者であると判別する識別率は97%であり、未登録者
を疑似登録者と判別する、すなわち真の登録者でないと
判別する認識率は、100%を示した。以上の実験によ
り、合成特徴量を用いることによって、未登録者を排除
する機能が強化されたことが示された。
【0233】以上のように、本実施の形態の人物画像認
証システムでは、擬似登録者の特徴量のサンプルとして
人為的に作成した(実際には存在しない)合成特徴量を
用いて、ニューラルネットワークに学習させることによ
って、未登録者を排除する機能を格段に強化することが
できる。 (実施の形態9)実施の形態9は、第2の特徴量を判別
するニューラルネットワークの入力パターンの次元を2
次元離散コサイン変換により削減する人物画像認証シス
テムに関する。
証システムでは、擬似登録者の特徴量のサンプルとして
人為的に作成した(実際には存在しない)合成特徴量を
用いて、ニューラルネットワークに学習させることによ
って、未登録者を排除する機能を格段に強化することが
できる。 (実施の形態9)実施の形態9は、第2の特徴量を判別
するニューラルネットワークの入力パターンの次元を2
次元離散コサイン変換により削減する人物画像認証シス
テムに関する。
【0234】本実施の形態の人物画像認証システムは、
実施の形態1の第2の特徴量判別部121及び第2の特
徴量判別学習部132において、ニューラルネットワー
クの入力パターンを2次元離散コサイン変換したものと
する機能が付加されたものである。図49は、実施の形
態9の学習及び判別の動作手順を示すフローチャートで
ある。
実施の形態1の第2の特徴量判別部121及び第2の特
徴量判別学習部132において、ニューラルネットワー
クの入力パターンを2次元離散コサイン変換したものと
する機能が付加されたものである。図49は、実施の形
態9の学習及び判別の動作手順を示すフローチャートで
ある。
【0235】第2の特徴量判別部121及び第2の特徴
量判別学習部132は、帯域分解変換した低周波成分1
6×16画素のf(x、y)を[数39]に従って、離
散コサイン変換してDCT係数Suvを得る(ステップS
4900)。
量判別学習部132は、帯域分解変換した低周波成分1
6×16画素のf(x、y)を[数39]に従って、離
散コサイン変換してDCT係数Suvを得る(ステップS
4900)。
【0236】
【数39】
【0237】第2の特徴量判別部121及び第2の特徴
量判別学習部132は、[数39]のDCT係数Suvの
うち[数40]を満たすような低周波成分のDCT係数
を選択する(ステップS4901)。
量判別学習部132は、[数39]のDCT係数Suvの
うち[数40]を満たすような低周波成分のDCT係数
を選択する(ステップS4901)。
【0238】
【数40】
【0239】第2の特徴量判別部121及び第2の特徴
量判別学習部132は、ステップS4701で選択した
DCT係数をニューラルネットワークの入力パターンと
して、それぞれ判別、学習を実施する(ステップS49
02)。以上のように、本実施の形態によれば、第2の
特徴量をDCT変換して、低周波成分のDCT係数を入
力パターンとすることで、入力パターンの次元数を減す
ことができるので、ニューラルネットワークの規模が巨
大となり、識別精度が劣化するのを防止することができ
る。 (実施の形態10)実施の形態10は、人物をグループ
に分類して、そのグループを判別する人物画像認証シス
テムに関する。
量判別学習部132は、ステップS4701で選択した
DCT係数をニューラルネットワークの入力パターンと
して、それぞれ判別、学習を実施する(ステップS49
02)。以上のように、本実施の形態によれば、第2の
特徴量をDCT変換して、低周波成分のDCT係数を入
力パターンとすることで、入力パターンの次元数を減す
ことができるので、ニューラルネットワークの規模が巨
大となり、識別精度が劣化するのを防止することができ
る。 (実施の形態10)実施の形態10は、人物をグループ
に分類して、そのグループを判別する人物画像認証シス
テムに関する。
【0240】本実施の形態の人物画像認証システムは、
実施の形態1の第2の特徴量判別部121及び第2の特
徴量判別学習部132において、人物をグループに分類
して、そのグループを判別する機能が付加されたもので
ある。実施の形態1では、第2の特徴量判別部121及
び第2の特徴量判別学習部132におけるニューラルネ
ットワークの出力ユニット数は識別する人物と同数と
し、個々の人物を識別する。従って、識別すべき人物の
数が増加すると出力ユニット数が大きくなり、ニューラ
ルネットワークの規模が大きくなり計算時間が長くなる
とともに、認識率が低下する場合がある。
実施の形態1の第2の特徴量判別部121及び第2の特
徴量判別学習部132において、人物をグループに分類
して、そのグループを判別する機能が付加されたもので
ある。実施の形態1では、第2の特徴量判別部121及
び第2の特徴量判別学習部132におけるニューラルネ
ットワークの出力ユニット数は識別する人物と同数と
し、個々の人物を識別する。従って、識別すべき人物の
数が増加すると出力ユニット数が大きくなり、ニューラ
ルネットワークの規模が大きくなり計算時間が長くなる
とともに、認識率が低下する場合がある。
【0241】しかし、各人物の識別までは不要で、なん
らかのグループに属することがわかればよい場合もあ
る。ここでいうグループは、会社の部や課など予め定め
られているものではないが、人物を任意にグループに分
類してグループ単位で管理するような用途の場合には有
効である。そこで、本実施の形態の人物画像認証システ
ムは、各人物の識別が認識率、計算時間の面で決められ
た条件を満たさない場合に、人物をいくつかのグループ
に分類して、ニューラルネットワークの出力ユニットを
各人物でなく、各グループに割当てて、グループを判別
することとしたものである。
らかのグループに属することがわかればよい場合もあ
る。ここでいうグループは、会社の部や課など予め定め
られているものではないが、人物を任意にグループに分
類してグループ単位で管理するような用途の場合には有
効である。そこで、本実施の形態の人物画像認証システ
ムは、各人物の識別が認識率、計算時間の面で決められ
た条件を満たさない場合に、人物をいくつかのグループ
に分類して、ニューラルネットワークの出力ユニットを
各人物でなく、各グループに割当てて、グループを判別
することとしたものである。
【0242】図50は、実施の形態10での人物のグル
ープを学習、判別する動作手順を示すフローチャートで
ある。まず、第2の特徴量判別学習部132は、各人物
を1つグループとする。人物数がm人とすると、m個の
グループが作成される(ステップS5000)。次に、
第2の特徴量判別学習部132は、m個のグループの2
つを混合した混合グループをmC2個作成する(ステップ
S5001)。
ープを学習、判別する動作手順を示すフローチャートで
ある。まず、第2の特徴量判別学習部132は、各人物
を1つグループとする。人物数がm人とすると、m個の
グループが作成される(ステップS5000)。次に、
第2の特徴量判別学習部132は、m個のグループの2
つを混合した混合グループをmC2個作成する(ステップ
S5001)。
【0243】次に、第2の特徴量判別学習部132は、
各混合グループに属するサンプルデータの分散ベクトル
を計算する(ステップS5002)。次に、第2の特徴
量判別学習部132は、最小の分散ベクトルが所定の分
散ベクトルVpより小さければ、その最小の分散ベクト
ルをもつ混合グループのグループを併合する。そして、
m=m−1としてステップS5001にもどる(ステッ
プS5003、S5004)。
各混合グループに属するサンプルデータの分散ベクトル
を計算する(ステップS5002)。次に、第2の特徴
量判別学習部132は、最小の分散ベクトルが所定の分
散ベクトルVpより小さければ、その最小の分散ベクト
ルをもつ混合グループのグループを併合する。そして、
m=m−1としてステップS5001にもどる(ステッ
プS5003、S5004)。
【0244】上記処理を繰り返して、グループが順次併
合されていく。図51は、人物のグループが作成される
過程を示す。図51(a)は、人物A〜Gの第2の特徴
量のサンプルデータの特徴空間での分布を示す。図51
(b)は、グループAとグループBとが併合された状態
を示す。図51(c)は、グループCとグループDとが
併合された状態を示す。図51(d)は、併合グループ
ABとグループGとが併合された状態を示す(ステップ
S5001〜S5004)。
合されていく。図51は、人物のグループが作成される
過程を示す。図51(a)は、人物A〜Gの第2の特徴
量のサンプルデータの特徴空間での分布を示す。図51
(b)は、グループAとグループBとが併合された状態
を示す。図51(c)は、グループCとグループDとが
併合された状態を示す。図51(d)は、併合グループ
ABとグループGとが併合された状態を示す(ステップ
S5001〜S5004)。
【0245】次に、第2の特徴量判別部121及び第2
の特徴量判別学習部132は、ステップS5004まで
で作成された各グループをそれぞれニューラルネットワ
ークの出力ユニットに割当てて、グループの学習、判別
を実施する(ステップS5005)。以上のように、本
実施の形態の人物画像認証システムでは、各人物の識別
でなく、各人物の属するグループを識別するので、人物
の数が多い場合でもニューラルネットワークの出力ユニ
ットの数を少なくすることができ、識別精度を維持する
ことができる。 (実施の形態11)実施の形態11は、人物画像の位置
等が変化した場合にでも正しく識別することのできる人
物画像認証システムに関する。
の特徴量判別学習部132は、ステップS5004まで
で作成された各グループをそれぞれニューラルネットワ
ークの出力ユニットに割当てて、グループの学習、判別
を実施する(ステップS5005)。以上のように、本
実施の形態の人物画像認証システムでは、各人物の識別
でなく、各人物の属するグループを識別するので、人物
の数が多い場合でもニューラルネットワークの出力ユニ
ットの数を少なくすることができ、識別精度を維持する
ことができる。 (実施の形態11)実施の形態11は、人物画像の位置
等が変化した場合にでも正しく識別することのできる人
物画像認証システムに関する。
【0246】まず、人物が回転、位置の変化等した場合
の問題点について説明する。人物が撮像部103に対し
て回転、位置の変化をした場合には、撮像した撮像画像
の中の特定の画素が表す顔画像中の位置が変化する。例
えば、ある時には、撮像画像中の眼の位置に対応してい
た画素が、別の時には、眉毛の位置に対応することがあ
る。これに伴なって、撮像画像から生成される第1の特
徴量及び第2の特徴量も位置ずれがおきる。図52は、
第2の特徴量の位置ずれの例を示す。このような位置ず
れがおこっている場合に、ニューラルネットワークによ
る特徴量の学習には以下の問題がある。
の問題点について説明する。人物が撮像部103に対し
て回転、位置の変化をした場合には、撮像した撮像画像
の中の特定の画素が表す顔画像中の位置が変化する。例
えば、ある時には、撮像画像中の眼の位置に対応してい
た画素が、別の時には、眉毛の位置に対応することがあ
る。これに伴なって、撮像画像から生成される第1の特
徴量及び第2の特徴量も位置ずれがおきる。図52は、
第2の特徴量の位置ずれの例を示す。このような位置ず
れがおこっている場合に、ニューラルネットワークによ
る特徴量の学習には以下の問題がある。
【0247】ニューラルネットワークの入力ユニットの
うちで、(x=5、y=5)の値を入力値とする入力ユ
ニットには、第2の特徴量サンプル4101を学習する
時には、濃度値50(4110)が入力され、第2の特
徴量サンプル4102を学習する時には、濃度値50
(4111)が入力され、第2の特徴量サンプル410
3を学習する時には、濃度値120(4112)が入力
される。
うちで、(x=5、y=5)の値を入力値とする入力ユ
ニットには、第2の特徴量サンプル4101を学習する
時には、濃度値50(4110)が入力され、第2の特
徴量サンプル4102を学習する時には、濃度値50
(4111)が入力され、第2の特徴量サンプル410
3を学習する時には、濃度値120(4112)が入力
される。
【0248】このように同一の入力ユニットに異なる特
徴が入力された場合、ニューラルネットワークはうまく
特徴を学習できるとは限らない。特に、σLVQ型ニュ
ーラルネットワークは、このような位置ずれをおこす対
象の判別には適していない。そこで、本実施の形態で
は、撮像部103に対する人物の位置の変化等を吸収す
るために、画像をブロックに分割して、ブロックごとの
頻度分布を作成し、頻度値をニューラルネットワークの
入力パターンとする。
徴が入力された場合、ニューラルネットワークはうまく
特徴を学習できるとは限らない。特に、σLVQ型ニュ
ーラルネットワークは、このような位置ずれをおこす対
象の判別には適していない。そこで、本実施の形態で
は、撮像部103に対する人物の位置の変化等を吸収す
るために、画像をブロックに分割して、ブロックごとの
頻度分布を作成し、頻度値をニューラルネットワークの
入力パターンとする。
【0249】本実施の形態における端末装置、センター
装置、学習装置の構成は、実施の形態1と概ね同じだ
が、本実施の形態では、サブバンド画像でなく頻度分布
を特徴量として学習、判別を行うため、以下の点で実施
の形態1と異なる。図12に示す学習装置130の特徴
量変換部106は、第1の特徴量又は第2の特徴量の判
別を学習する際には、それぞれ、第1の部分画像又は第
2の部分画像より頻度分布を作成し、これらの頻度値を
特徴量する。特徴量判別符号化学習部131及び第2の
特徴量判別学習部132は、これらの頻度値をニューラ
ルネットワークの入力パターンとして、第1の特徴量又
は第2の特徴量の判別の学習を行なう。これらの学習結
果が端末装置100の第1の特徴量識別参照情報記憶部
107及びセンター装置101の第2の特徴量識別参照
情報記憶部120に記憶される。なお、第2の特徴量を
符号化する際には、復号化によって、もとの画像を再現
する必要があるので、頻度分布を特徴量とせず、実施の
形態1と同様に、サブバンド画像を特徴量として用いる
こととする。
装置、学習装置の構成は、実施の形態1と概ね同じだ
が、本実施の形態では、サブバンド画像でなく頻度分布
を特徴量として学習、判別を行うため、以下の点で実施
の形態1と異なる。図12に示す学習装置130の特徴
量変換部106は、第1の特徴量又は第2の特徴量の判
別を学習する際には、それぞれ、第1の部分画像又は第
2の部分画像より頻度分布を作成し、これらの頻度値を
特徴量する。特徴量判別符号化学習部131及び第2の
特徴量判別学習部132は、これらの頻度値をニューラ
ルネットワークの入力パターンとして、第1の特徴量又
は第2の特徴量の判別の学習を行なう。これらの学習結
果が端末装置100の第1の特徴量識別参照情報記憶部
107及びセンター装置101の第2の特徴量識別参照
情報記憶部120に記憶される。なお、第2の特徴量を
符号化する際には、復号化によって、もとの画像を再現
する必要があるので、頻度分布を特徴量とせず、実施の
形態1と同様に、サブバンド画像を特徴量として用いる
こととする。
【0250】図1に示す端末装置100の特徴量変換部
106は、第1の特徴量を判別する際には、第1の部分
画像より頻度分布を作成して、第1の特徴量とする。特
徴量判別符号化部108は、この頻度値をニューラルネ
ットワークの入力パターンとして第1の特徴量の判別を
行う。また、センター装置101の第2の特徴量判別部
121は、第2の特徴量復号化部119で得られた第2
の部分画像より、頻度分布を作成し、この頻度値をニュ
ーラルネットワークの入力パターンとして第2の特徴量
の判別を行う。
106は、第1の特徴量を判別する際には、第1の部分
画像より頻度分布を作成して、第1の特徴量とする。特
徴量判別符号化部108は、この頻度値をニューラルネ
ットワークの入力パターンとして第1の特徴量の判別を
行う。また、センター装置101の第2の特徴量判別部
121は、第2の特徴量復号化部119で得られた第2
の部分画像より、頻度分布を作成し、この頻度値をニュ
ーラルネットワークの入力パターンとして第2の特徴量
の判別を行う。
【0251】次に、本実施の形態における人物認証シス
テムの動作について説明する。ここでは、第1の特徴量
の判別とその学習の動作を説明するが、第2の特徴量の
判別とその学習の動作も同様である。図53は、実施の
形態11の第1の特徴量の判別の学習及び判別の動作手
順を示すフローチャートである。
テムの動作について説明する。ここでは、第1の特徴量
の判別とその学習の動作を説明するが、第2の特徴量の
判別とその学習の動作も同様である。図53は、実施の
形態11の第1の特徴量の判別の学習及び判別の動作手
順を示すフローチャートである。
【0252】まず、学習段階について説明する。実施の
形態1と同様にして、撮像部103により撮影画像を取
得し、画像サンプリング105により第1の部分画像を
作成する(ステップS5300)。次に、特徴量変換部
106は、人物の位置の変化を吸収するために第1の部
分画像に対して、ブロックごとの頻度分布を作成する。
図54は、ブロックごとの画素の頻度分布の例を示す。
ここでは、32画素×32画素の第1の部分画像を8画
素×8画素のブロックに分割し(ブロック数は16個に
なる)、16個のブロックに対する8階調(0〜7)の
頻度分布が作成されている(ステップS5301)。
形態1と同様にして、撮像部103により撮影画像を取
得し、画像サンプリング105により第1の部分画像を
作成する(ステップS5300)。次に、特徴量変換部
106は、人物の位置の変化を吸収するために第1の部
分画像に対して、ブロックごとの頻度分布を作成する。
図54は、ブロックごとの画素の頻度分布の例を示す。
ここでは、32画素×32画素の第1の部分画像を8画
素×8画素のブロックに分割し(ブロック数は16個に
なる)、16個のブロックに対する8階調(0〜7)の
頻度分布が作成されている(ステップS5301)。
【0253】次に、特徴量判別符号化学習部131は、
これらの頻度をニューラルネットワークの入力パターン
として学習をする。図55は、第1の特徴量を判別する
ニューラルネットワークの構成を示す。入力ユニット5
501は、すべてのブロックについて頻度分布の階調数
だけ設け、その入力値をその階調の頻度とする。ここで
は、入力ユニットの総数は、16(ブロック数)×8
(階調数)=128個となる(ステップS5302)。
これらの頻度をニューラルネットワークの入力パターン
として学習をする。図55は、第1の特徴量を判別する
ニューラルネットワークの構成を示す。入力ユニット5
501は、すべてのブロックについて頻度分布の階調数
だけ設け、その入力値をその階調の頻度とする。ここで
は、入力ユニットの総数は、16(ブロック数)×8
(階調数)=128個となる(ステップS5302)。
【0254】次に、判別段階について説明する。実施の
形態1と同様にして、撮像部103により撮影画像を取
得し、画像サンプリング105により第1の部分画像を
作成する(ステップS5303)。次に、特徴量変換部
106は、ブロックごとの頻度分布を作成する(ステッ
プS5304)。
形態1と同様にして、撮像部103により撮影画像を取
得し、画像サンプリング105により第1の部分画像を
作成する(ステップS5303)。次に、特徴量変換部
106は、ブロックごとの頻度分布を作成する(ステッ
プS5304)。
【0255】そして、特徴量判別符号化部108は、ス
テップS5304で作成した頻度値を入力パターンと
し、ステップS5302の学習によって得られた学習係
数を読込んでニューラルネットワークにより判別を行な
う(ステップS5305)。以上のように、本実施の形
態の人物画像認証システムでは、第1の部分画像又は第
2の部分画像の頻度分布を、それぞれ第1の特徴量、第
2の特徴量として、ニューラルネットワークの入力パタ
ーンとすることで、人物の位置等が変化した場合でも、
識別精度を維持することができる。
テップS5304で作成した頻度値を入力パターンと
し、ステップS5302の学習によって得られた学習係
数を読込んでニューラルネットワークにより判別を行な
う(ステップS5305)。以上のように、本実施の形
態の人物画像認証システムでは、第1の部分画像又は第
2の部分画像の頻度分布を、それぞれ第1の特徴量、第
2の特徴量として、ニューラルネットワークの入力パタ
ーンとすることで、人物の位置等が変化した場合でも、
識別精度を維持することができる。
【0256】なお、上述のようにして作成したニューラ
ルネットワークの入力パターンについて、実施の形態9
と同様に、離散コサイン変換によって、その次元を減ら
すことも有効である。すなわち、各ブロックの階調ごと
(0〜7)の頻度を2次元座標(x、y:ブロック位
置)上の信号として2次元離散コサイン変換したり、階
調(0〜7)も次元として加えて3次元座標(x、y:
ブロック位置、z:階調)上の信号として3次元離散コ
サイン変換する。そして、変換後の低周波成分を示すD
CT係数のみをニューラルネットワークの入力パターン
とすることで、入力ユニット数を減らすことができる。
ルネットワークの入力パターンについて、実施の形態9
と同様に、離散コサイン変換によって、その次元を減ら
すことも有効である。すなわち、各ブロックの階調ごと
(0〜7)の頻度を2次元座標(x、y:ブロック位
置)上の信号として2次元離散コサイン変換したり、階
調(0〜7)も次元として加えて3次元座標(x、y:
ブロック位置、z:階調)上の信号として3次元離散コ
サイン変換する。そして、変換後の低周波成分を示すD
CT係数のみをニューラルネットワークの入力パターン
とすることで、入力ユニット数を減らすことができる。
【0257】
【発明の効果】以上の説明から明らかなように、本発明
は、同一のクラスに属する複数の異なるオブジェクトそ
れぞれを識別するための画像を送信する装置であって、
オブジェクトを撮像して得られる画像データを獲得する
画像獲得手段と、獲得された画像データを用いてオブジ
ェクトの画像上の特徴を示す特徴量を作成する特徴量作
成手段と、特徴量を構成する複数の特徴成分それぞれに
対応する座標軸からなる特徴空間を2分探索が可能なよ
うに分割した分割境界面それぞれがノードに対応づけら
れ、分割された最小単位の部分空間それぞれに末端の枝
が対応づけられた2進探索木を予め記憶する2進探索木
記憶手段と、前記2進探索木の分割境界面に従って、前
記特徴量作成手段により作成された特徴量を順次量子化
していき、末端の枝を特定し、該末端の枝より符号語を
特定し、該符号語を特徴量の符号化データとする符号化
手段と、前記符号化データを送信する送信手段とを備え
ることを特徴とする。
は、同一のクラスに属する複数の異なるオブジェクトそ
れぞれを識別するための画像を送信する装置であって、
オブジェクトを撮像して得られる画像データを獲得する
画像獲得手段と、獲得された画像データを用いてオブジ
ェクトの画像上の特徴を示す特徴量を作成する特徴量作
成手段と、特徴量を構成する複数の特徴成分それぞれに
対応する座標軸からなる特徴空間を2分探索が可能なよ
うに分割した分割境界面それぞれがノードに対応づけら
れ、分割された最小単位の部分空間それぞれに末端の枝
が対応づけられた2進探索木を予め記憶する2進探索木
記憶手段と、前記2進探索木の分割境界面に従って、前
記特徴量作成手段により作成された特徴量を順次量子化
していき、末端の枝を特定し、該末端の枝より符号語を
特定し、該符号語を特徴量の符号化データとする符号化
手段と、前記符号化データを送信する送信手段とを備え
ることを特徴とする。
【0258】これによって、特徴量が属する空間を2分
探索することによって符号語が決められるので、全空間
を探索する通常のベクトル量子化に比べて、符号化に要
する時間を短縮できる。また、通常の画像送信装置で
は、画像データを符号化して符号化データを画像認識装
置へ送るので、画像認識装置は符号化データを画像デー
タに復号化して、その後、画像データから特徴量を抽出
する処理が必要となるのに対して、本発明に係る画像送
信装置では、オブジェクトから抽出した特徴量を符号化
して画像認識装置へ送るので、画像認識装置では、符号
化データを特徴量に復号化すれば、その特徴量をそのま
まオブジェクト識別に用いることができ、画像認識装置
の負担を軽減することができる。
探索することによって符号語が決められるので、全空間
を探索する通常のベクトル量子化に比べて、符号化に要
する時間を短縮できる。また、通常の画像送信装置で
は、画像データを符号化して符号化データを画像認識装
置へ送るので、画像認識装置は符号化データを画像デー
タに復号化して、その後、画像データから特徴量を抽出
する処理が必要となるのに対して、本発明に係る画像送
信装置では、オブジェクトから抽出した特徴量を符号化
して画像認識装置へ送るので、画像認識装置では、符号
化データを特徴量に復号化すれば、その特徴量をそのま
まオブジェクト識別に用いることができ、画像認識装置
の負担を軽減することができる。
【0259】ここで、前記クラスは人間であり、前記オ
ブジェクトは、一人の人間であり、前記画像獲得手段
は、前記オブジェクトに係る顔の画像データを獲得し、
前記特徴量作成手段は、獲得された顔の画像データから
それを構成する各ブロックごとの特徴を作成することを
特徴とすることもできる。これによって、セキュリティ
監視や電子通商取り引き等の分野において、人物の顔の
画像データを用いて人物を識別するための画像送信装置
を得ることができる。
ブジェクトは、一人の人間であり、前記画像獲得手段
は、前記オブジェクトに係る顔の画像データを獲得し、
前記特徴量作成手段は、獲得された顔の画像データから
それを構成する各ブロックごとの特徴を作成することを
特徴とすることもできる。これによって、セキュリティ
監視や電子通商取り引き等の分野において、人物の顔の
画像データを用いて人物を識別するための画像送信装置
を得ることができる。
【0260】また、前記画像獲得手段は、人間を撮像し
た撮像画像から複数個の部分画像を作成する部分画像作
成部と、前記部分画像の画像データの特徴を示す特徴量
を作成する特徴量作成部と、特徴量を構成する複数の特
徴成分それぞれに対応する座標軸からなる特徴空間を2
分探索が可能なように分割した分割境界面それぞれが各
ノードに対応づけられ、分割された最小単位の部分空間
それぞれを特定する顔の画像クラスへの帰属度が末端の
枝に対応づけられた2進探索木を予め記憶する2進探索
木記憶部と、前記2進探索木の分割境界面に従って、前
記特徴量作成部が作成した特徴量を順次量子化してい
き、末端の枝より前記特徴量の顔の画像クラスへの帰属
度を判定する帰属度判定部と、前記顔画像クラスへの帰
属度が最大となる部分画像を顔の画像データとする画像
データ選択部とを備えることを特徴とすることもでき
る。
た撮像画像から複数個の部分画像を作成する部分画像作
成部と、前記部分画像の画像データの特徴を示す特徴量
を作成する特徴量作成部と、特徴量を構成する複数の特
徴成分それぞれに対応する座標軸からなる特徴空間を2
分探索が可能なように分割した分割境界面それぞれが各
ノードに対応づけられ、分割された最小単位の部分空間
それぞれを特定する顔の画像クラスへの帰属度が末端の
枝に対応づけられた2進探索木を予め記憶する2進探索
木記憶部と、前記2進探索木の分割境界面に従って、前
記特徴量作成部が作成した特徴量を順次量子化してい
き、末端の枝より前記特徴量の顔の画像クラスへの帰属
度を判定する帰属度判定部と、前記顔画像クラスへの帰
属度が最大となる部分画像を顔の画像データとする画像
データ選択部とを備えることを特徴とすることもでき
る。
【0261】これによって、特徴量符号化手段と、帰属
度判定部とは、どちらも2進探索木を用いて特徴量を量
子化するので、ハードウエアの構成要素を共有でき、画
像送信装置のハードウエア構成を簡易にすることができ
る。また、前記符号化手段は、2進探索木の分岐ごとに
0又は1のビットを付加して符号語とすることを特徴と
することもできる。
度判定部とは、どちらも2進探索木を用いて特徴量を量
子化するので、ハードウエアの構成要素を共有でき、画
像送信装置のハードウエア構成を簡易にすることができ
る。また、前記符号化手段は、2進探索木の分岐ごとに
0又は1のビットを付加して符号語とすることを特徴と
することもできる。
【0262】これによって、2進探索木の段数をnとす
ると、nビットの固定長の符号語である符号化データが
画像送信装置から画像認識装置へ送られるので、通信経
路でビットが損失した場合にでも、可変長の符号化デー
タに比べて誤りの伝播を抑制するのが容易となる。ま
た、前記特徴量生成手段は、画像データを周波数による
帯域2分割のサブバンド分解して得たデータを特徴量と
することを特徴とすることもできる。
ると、nビットの固定長の符号語である符号化データが
画像送信装置から画像認識装置へ送られるので、通信経
路でビットが損失した場合にでも、可変長の符号化デー
タに比べて誤りの伝播を抑制するのが容易となる。ま
た、前記特徴量生成手段は、画像データを周波数による
帯域2分割のサブバンド分解して得たデータを特徴量と
することを特徴とすることもできる。
【0263】これによって、いわゆるピラミッドアルゴ
リズムによる画像圧縮などが容易でブロックひずみが生
じない特性を有するサブバンド分解により得たデータを
符号化データのもととなる特徴量とすることができるの
で、符号化データを受信した装置側では、画像データを
もと通りの形で再生することが可能となる。また、前記
特徴量生成手段は、画像データを周波数による帯域2分
割のサブバンド分解して得たデータを特徴量とし、前記
特徴量生成部は、部分画像データを周波数による帯域2
分割のサブバンド分解して得たデータを特徴量とするこ
とを特徴とすることもできる。
リズムによる画像圧縮などが容易でブロックひずみが生
じない特性を有するサブバンド分解により得たデータを
符号化データのもととなる特徴量とすることができるの
で、符号化データを受信した装置側では、画像データを
もと通りの形で再生することが可能となる。また、前記
特徴量生成手段は、画像データを周波数による帯域2分
割のサブバンド分解して得たデータを特徴量とし、前記
特徴量生成部は、部分画像データを周波数による帯域2
分割のサブバンド分解して得たデータを特徴量とするこ
とを特徴とすることもできる。
【0264】これによって、特徴量作成手段及び特徴量
作成部は、共通の特徴量を作成し、ハードウエアの構成
要素を共有できるので、画像送信装置のハードウエア構
成を簡易にすることができる。また、本発明は、前記2
進探索木のノードで定められる分割境界面をニューラル
ネットワークによる学習により作成する学習装置であっ
て、前記ニューラルネットワークは、前記特徴量を入力
パターンとし、分岐する枝の別を出力パターンとして、
教師あり学習する手段を備え、前記ニューラルネットワ
ークの学習後の学習係数により分割境界面を定める分割
境界面設定手段とを備えることを特徴とする。
作成部は、共通の特徴量を作成し、ハードウエアの構成
要素を共有できるので、画像送信装置のハードウエア構
成を簡易にすることができる。また、本発明は、前記2
進探索木のノードで定められる分割境界面をニューラル
ネットワークによる学習により作成する学習装置であっ
て、前記ニューラルネットワークは、前記特徴量を入力
パターンとし、分岐する枝の別を出力パターンとして、
教師あり学習する手段を備え、前記ニューラルネットワ
ークの学習後の学習係数により分割境界面を定める分割
境界面設定手段とを備えることを特徴とする。
【0265】これによって、ニューラルネットワークの
高度な学習機能を利用することができるので、2進探索
木の各ノードで定められる分割境界面を高精度に、かつ
学習係数という簡易な形式で作成することができる。ま
た、前記符号化手段は、前記2進探索木記憶手段から前
記分割境界面を定めたニューラルネットワークの学習係
数を読み込んで、前記特徴量をニューラルネットワーク
の入力パターンとし、出力パターンにより前記特徴量を
量子化することを特徴とすることもできる。
高度な学習機能を利用することができるので、2進探索
木の各ノードで定められる分割境界面を高精度に、かつ
学習係数という簡易な形式で作成することができる。ま
た、前記符号化手段は、前記2進探索木記憶手段から前
記分割境界面を定めたニューラルネットワークの学習係
数を読み込んで、前記特徴量をニューラルネットワーク
の入力パターンとし、出力パターンにより前記特徴量を
量子化することを特徴とすることもできる。
【0266】これによって、ニューラルネットワークの
高度な学習機能を利用して作成された学習係数を用いた
ニューラルネットワークにより特徴量が量子化されるの
で、精度の高い特徴量の符号化が実現できる。また、前
記帰属度判定部は、前記2進探索木記憶部から前記分割
境界面を定めたニューラルネットワークの学習係数を読
み込んで、前記特徴量をニューラルネットワークの入力
パターンとし、出力パターンにより前記特徴量を量子化
するとともに顔画像クラスへの帰属度を判定することを
特徴とすることもできる。
高度な学習機能を利用して作成された学習係数を用いた
ニューラルネットワークにより特徴量が量子化されるの
で、精度の高い特徴量の符号化が実現できる。また、前
記帰属度判定部は、前記2進探索木記憶部から前記分割
境界面を定めたニューラルネットワークの学習係数を読
み込んで、前記特徴量をニューラルネットワークの入力
パターンとし、出力パターンにより前記特徴量を量子化
するとともに顔画像クラスへの帰属度を判定することを
特徴とすることもできる。
【0267】これによって、入力された特徴量が単に顔
画像クラスに属するかでなく、顔画像クラスへの帰属度
をニューラルネットワークの出力パターンにより表すこ
とができるので、より簡易に、顔画像クラスに最もふさ
わしい部分画像を顔画像として選択することができる。
また、本発明は、同一のクラスに属する複数の異なるオ
ブジェクトそれぞれを識別する画像認識装置であって、
オブジェクトの画像上の特徴を示す特徴量を符号化した
符号化データを受信する受信手段と、前記符号化データ
と特徴量との対応関係を定めた対応表を予め記憶する対
応表記憶手段と、前記符号化データより前記対応表を参
照して特徴量を復元する特徴量復号化手段と、特徴量を
構成する複数の特徴成分それぞれに対応する座標軸から
なる特徴空間をオブジェクトごとの部分空間に分割する
複数の分割境界面を予め記憶している分割境界面記憶手
段と、前記分割境界面により、前記特徴量の属する分割
空間を特定し、オブジェクトを識別するオブジェクト識
別手段とを備えることを特徴とする。
画像クラスに属するかでなく、顔画像クラスへの帰属度
をニューラルネットワークの出力パターンにより表すこ
とができるので、より簡易に、顔画像クラスに最もふさ
わしい部分画像を顔画像として選択することができる。
また、本発明は、同一のクラスに属する複数の異なるオ
ブジェクトそれぞれを識別する画像認識装置であって、
オブジェクトの画像上の特徴を示す特徴量を符号化した
符号化データを受信する受信手段と、前記符号化データ
と特徴量との対応関係を定めた対応表を予め記憶する対
応表記憶手段と、前記符号化データより前記対応表を参
照して特徴量を復元する特徴量復号化手段と、特徴量を
構成する複数の特徴成分それぞれに対応する座標軸から
なる特徴空間をオブジェクトごとの部分空間に分割する
複数の分割境界面を予め記憶している分割境界面記憶手
段と、前記分割境界面により、前記特徴量の属する分割
空間を特定し、オブジェクトを識別するオブジェクト識
別手段とを備えることを特徴とする。
【0268】これによって、画像認識装置は受信した符
号化データを復号化すればオブジェクト識別に利用でき
る特徴量が得られるので、画像認識装置は、識別ための
特徴量を一から新たに作成する必要がなく、画像認識装
置の負荷を削減できる。ここで、前記クラスは人間であ
り、前記オブジェクトは、一人の人間であり、前記特徴
量は、顔の画像データを構成する各ブロックごとの特徴
であることを特徴とすることもできる。
号化データを復号化すればオブジェクト識別に利用でき
る特徴量が得られるので、画像認識装置は、識別ための
特徴量を一から新たに作成する必要がなく、画像認識装
置の負荷を削減できる。ここで、前記クラスは人間であ
り、前記オブジェクトは、一人の人間であり、前記特徴
量は、顔の画像データを構成する各ブロックごとの特徴
であることを特徴とすることもできる。
【0269】これによって、画像認識装置は、受信した
符号化データを復号化して人物識別に利用できる特徴量
を得ることができるので、画像認識装置の負荷を抑えた
人物識別が可能となる。また、前記特徴量復号化手段
は、復元した特徴量をさらに離散コサイン変換したもの
を特徴量とすることを特徴とすることもできる。
符号化データを復号化して人物識別に利用できる特徴量
を得ることができるので、画像認識装置の負荷を抑えた
人物識別が可能となる。また、前記特徴量復号化手段
は、復元した特徴量をさらに離散コサイン変換したもの
を特徴量とすることを特徴とすることもできる。
【0270】これによって、離散コサイン変換によって
特定の周波数成分のみを抽出して特徴量とすることがで
きるので、ニューラルネットワークへの入力パターンの
次元を少なくできる、また、本発明は、前記分割境界面
をニューラルネットワークによる学習により作成する学
習装置であって、前記ニューラルネットワークは、前記
特徴量を入力パターンとし、各分割空間の別を出力パタ
ーンとして学習する手段を備え、前記ニューラルネット
ワークの学習後の学習係数により分割境界面を定める分
割境界面設定手段とを備えることを特徴とする。
特定の周波数成分のみを抽出して特徴量とすることがで
きるので、ニューラルネットワークへの入力パターンの
次元を少なくできる、また、本発明は、前記分割境界面
をニューラルネットワークによる学習により作成する学
習装置であって、前記ニューラルネットワークは、前記
特徴量を入力パターンとし、各分割空間の別を出力パタ
ーンとして学習する手段を備え、前記ニューラルネット
ワークの学習後の学習係数により分割境界面を定める分
割境界面設定手段とを備えることを特徴とする。
【0271】これによって、ニューラルネットワークの
高度な学習機能を利用することができるので、登録人物
ごとの分割空間を定める分割境界面を高精度に、かつ学
習係数という簡易な形式で作成することができる。ま
た、前記オブジェクト識別手段は、前記分割境界面記憶
手段から前記分割境界面を定めたニューラルネットワー
クの学習係数を読み込んで、前記特徴量をニューラルネ
ットワークの入力パターンとし、出力パターンにより前
記特徴量が属する分割空間を特定することを特徴とする
こともできる。
高度な学習機能を利用することができるので、登録人物
ごとの分割空間を定める分割境界面を高精度に、かつ学
習係数という簡易な形式で作成することができる。ま
た、前記オブジェクト識別手段は、前記分割境界面記憶
手段から前記分割境界面を定めたニューラルネットワー
クの学習係数を読み込んで、前記特徴量をニューラルネ
ットワークの入力パターンとし、出力パターンにより前
記特徴量が属する分割空間を特定することを特徴とする
こともできる。
【0272】これによって、ニューラルネットワークの
高度な学習機能を利用して作成された学習係数を用いた
ニューラルネットワークにより特徴量の属する分割空間
が特定されるので、精度の高い人物判定が実現できる。
また、前記画像認識装置は、さらに特徴量より画像デー
タを再生する画像再生手段を備えることを特徴とするこ
ともできる。
高度な学習機能を利用して作成された学習係数を用いた
ニューラルネットワークにより特徴量の属する分割空間
が特定されるので、精度の高い人物判定が実現できる。
また、前記画像認識装置は、さらに特徴量より画像デー
タを再生する画像再生手段を備えることを特徴とするこ
ともできる。
【0273】これによって、画像認識装置では、画像送
信装置で撮像した人物の顔画像を復元できるので、視覚
的に顔画像を表示させて監視員に確認させることによ
り、オブジェクト識別手段の人物判定結果を補完して信
頼性を向上させたセキュリティシステムの構築が可能と
なる。また、前記画像再生手段は、特徴量を周波数によ
る帯域2分割のサブバンド合成して得たデータを画像デ
ータとすることを特徴とすることもできる。
信装置で撮像した人物の顔画像を復元できるので、視覚
的に顔画像を表示させて監視員に確認させることによ
り、オブジェクト識別手段の人物判定結果を補完して信
頼性を向上させたセキュリティシステムの構築が可能と
なる。また、前記画像再生手段は、特徴量を周波数によ
る帯域2分割のサブバンド合成して得たデータを画像デ
ータとすることを特徴とすることもできる。
【0274】これによって、画像認識装置でサブバンド
分解して作成された特徴量をサブバンド合成して顔画像
を再生できるので、ブロックひずみの少ない顔画像を再
生するすることができる。また、本発明は、画像送信装
置と画像認識装置を通信ネットワークを介してなる画像
認識システムであって、前記画像送信装置は、オブジェ
クトを撮像して得られる画像データを獲得する画像獲得
手段と、獲得された画像データを用いてオブジェクトの
画像上の特徴を示す特徴量を作成する特徴量作成手段
と、特徴量を構成する複数の特徴成分それぞれに対応す
る座標軸からなる特徴空間を2分探索が可能なように分
割した分割境界面それぞれが各ノードに対応づけられ、
分割された最小単位の部分空間それぞれに末端の枝が対
応づけられた2進探索木を予め記憶する2進探索木記憶
手段と、前記2進探索木の分割境界面に従って、前記特
徴量作成手段により作成された特徴量を順次量子化して
いき、末端の枝を特定し、該末端の枝より符号語を特定
し、該符号語を特徴量の符号化データとする符号化手段
と、前記符号化データを送信する送信手段とを備え、前
記画像認識装置は、前記符号化データを受信する受信手
段と、前記符号化データと特徴量との対応関係を定めた
対応表を予め記憶する対応表記憶手段と、前記符号化デ
ータより前記対応表を参照して特徴量を復元する特徴量
復号化手段と、特徴量を構成する複数の特徴成分それぞ
れに対応する座標軸からなる特徴空間をオブジェクトご
との部分空間に分割する複数の分割境界面を予め記憶し
ている分割境界面記憶手段と、前記分割境界面により、
前記特徴量の属する分割空間を特定し、オブジェクトを
識別するオブジェクト識別手段とを備えることを特徴と
する。
分解して作成された特徴量をサブバンド合成して顔画像
を再生できるので、ブロックひずみの少ない顔画像を再
生するすることができる。また、本発明は、画像送信装
置と画像認識装置を通信ネットワークを介してなる画像
認識システムであって、前記画像送信装置は、オブジェ
クトを撮像して得られる画像データを獲得する画像獲得
手段と、獲得された画像データを用いてオブジェクトの
画像上の特徴を示す特徴量を作成する特徴量作成手段
と、特徴量を構成する複数の特徴成分それぞれに対応す
る座標軸からなる特徴空間を2分探索が可能なように分
割した分割境界面それぞれが各ノードに対応づけられ、
分割された最小単位の部分空間それぞれに末端の枝が対
応づけられた2進探索木を予め記憶する2進探索木記憶
手段と、前記2進探索木の分割境界面に従って、前記特
徴量作成手段により作成された特徴量を順次量子化して
いき、末端の枝を特定し、該末端の枝より符号語を特定
し、該符号語を特徴量の符号化データとする符号化手段
と、前記符号化データを送信する送信手段とを備え、前
記画像認識装置は、前記符号化データを受信する受信手
段と、前記符号化データと特徴量との対応関係を定めた
対応表を予め記憶する対応表記憶手段と、前記符号化デ
ータより前記対応表を参照して特徴量を復元する特徴量
復号化手段と、特徴量を構成する複数の特徴成分それぞ
れに対応する座標軸からなる特徴空間をオブジェクトご
との部分空間に分割する複数の分割境界面を予め記憶し
ている分割境界面記憶手段と、前記分割境界面により、
前記特徴量の属する分割空間を特定し、オブジェクトを
識別するオブジェクト識別手段とを備えることを特徴と
する。
【0275】これによって、画像送信装置から画像認識
装置へ人物画像全体に関するデータを送って、画像認識
装置で当該データから顔画像を切り出した後、その顔画
像により人物を認証するような従来のシステム構成と異
なり、画像送信装置では、顔画像の切り出し処理を行っ
て、顔画像のみに関するデータを画像認識装置へ送り、
画像認識装置で当該データにより人物を認証するような
システム構成とすることができるので、画像認識装置で
は、複数の画像送信装置から送られたデータをもとにし
て、一から認証のための処理をする必要がなく、通信コ
ストを軽減するとともに、画像認識装置の負荷を削減で
きる。
装置へ人物画像全体に関するデータを送って、画像認識
装置で当該データから顔画像を切り出した後、その顔画
像により人物を認証するような従来のシステム構成と異
なり、画像送信装置では、顔画像の切り出し処理を行っ
て、顔画像のみに関するデータを画像認識装置へ送り、
画像認識装置で当該データにより人物を認証するような
システム構成とすることができるので、画像認識装置で
は、複数の画像送信装置から送られたデータをもとにし
て、一から認証のための処理をする必要がなく、通信コ
ストを軽減するとともに、画像認識装置の負荷を削減で
きる。
【0276】ここで、前記画像送信装置は、さらに撮像
されたオブジェクトを特定する識別情報を入力する入力
手段を含み、前記送信手段は、前記符号化データととも
に、前記識別情報をも送信し、前記画像認識装置の前記
受信手段は、前記符号化データとともに、前記識別情報
をも受信し、前記画像認識装置は、オブジェクト識別手
段により識別されたオブジェクトと前記識別情報で特定
されるオブジェクトとが一致するかを判定する手段とを
含むことを特徴とすることもできる。
されたオブジェクトを特定する識別情報を入力する入力
手段を含み、前記送信手段は、前記符号化データととも
に、前記識別情報をも送信し、前記画像認識装置の前記
受信手段は、前記符号化データとともに、前記識別情報
をも受信し、前記画像認識装置は、オブジェクト識別手
段により識別されたオブジェクトと前記識別情報で特定
されるオブジェクトとが一致するかを判定する手段とを
含むことを特徴とすることもできる。
【0277】これによって、オブジェクト識別手段では
類似した顔画像をもつ人物の識別が困難な場合にでも、
人物の顔画像と薄型メモリカードに記録された認証番号
を併用して人物が特定されるので、信頼性の高い人物の
識別が可能となる。また、本発明は、学習により入力ベ
クトルが属するベクトル空間を複数の代表ベクトルそれ
ぞれに対応する部分空間に分割する量子化を行い、入力
ベクトルと各代表ベクトルとの距離を計算して、その距
離の最も近い代表ベクトルの属するカテゴリーに入力ベ
クトルが属すると判定する学習ベクトル量子化ニューラ
ルネットワークであって、代表ベクトルと分散ベクトル
とからなる参照ベクトルを記憶する記憶手段と、前記入
力ベクトルと前記各代表ベクトルとの距離を[数41]
により計算する距離計算手段と、前記距離の最も近い代
表ベクトルに属するカテゴリーに入力ベクトルが属する
と判定するカテゴリー判定手段と、カテゴリー判定が正
しければ[数42]により代表ベクトルを更新し、[数
43]により分散ベクトルを更新し、カテゴリー判定が
誤りであれば[数44]により代表ベクトルを更新し、
[数45]により分散ベクトルを更新することにより学
習する学習手段とを備えることを特徴とする。
類似した顔画像をもつ人物の識別が困難な場合にでも、
人物の顔画像と薄型メモリカードに記録された認証番号
を併用して人物が特定されるので、信頼性の高い人物の
識別が可能となる。また、本発明は、学習により入力ベ
クトルが属するベクトル空間を複数の代表ベクトルそれ
ぞれに対応する部分空間に分割する量子化を行い、入力
ベクトルと各代表ベクトルとの距離を計算して、その距
離の最も近い代表ベクトルの属するカテゴリーに入力ベ
クトルが属すると判定する学習ベクトル量子化ニューラ
ルネットワークであって、代表ベクトルと分散ベクトル
とからなる参照ベクトルを記憶する記憶手段と、前記入
力ベクトルと前記各代表ベクトルとの距離を[数41]
により計算する距離計算手段と、前記距離の最も近い代
表ベクトルに属するカテゴリーに入力ベクトルが属する
と判定するカテゴリー判定手段と、カテゴリー判定が正
しければ[数42]により代表ベクトルを更新し、[数
43]により分散ベクトルを更新し、カテゴリー判定が
誤りであれば[数44]により代表ベクトルを更新し、
[数45]により分散ベクトルを更新することにより学
習する学習手段とを備えることを特徴とする。
【0278】
【数41】
【0279】
【数42】
【0280】
【数43】
【0281】
【数44】
【0282】
【数45】
【0283】これによって、正しい出力を出すように代
表ベクトルだけでなく、分散ベクトルも更新するので、
より精度が高く、かつ短時間に学習することができる学
習ベクトル量子化ニューラルネットワークが得られる。
また、本発明は、出力パターンにより入力パターンのカ
テゴリーを識別するニューラルネットワークであって、
一のカテゴリーに属するサンプルの入力パターンと、一
のカテゴリーに類似する他のカテゴリーに属するサンプ
ルの入力パターンとを一のカテゴリーの混合比率が他の
カテゴリーの混合比率より大きい条件で混合した入力パ
ターンを一のカテゴリーの入力パターンとし、一のカテ
ゴリーに属することを示す出力パターンを教師信号とし
て学習サンプルを作成する学習サンプル作成手段と、前
記学習サンプルを用いて一のカテゴリーの識別を学習す
る学習手段とを備えることを特徴とする。
表ベクトルだけでなく、分散ベクトルも更新するので、
より精度が高く、かつ短時間に学習することができる学
習ベクトル量子化ニューラルネットワークが得られる。
また、本発明は、出力パターンにより入力パターンのカ
テゴリーを識別するニューラルネットワークであって、
一のカテゴリーに属するサンプルの入力パターンと、一
のカテゴリーに類似する他のカテゴリーに属するサンプ
ルの入力パターンとを一のカテゴリーの混合比率が他の
カテゴリーの混合比率より大きい条件で混合した入力パ
ターンを一のカテゴリーの入力パターンとし、一のカテ
ゴリーに属することを示す出力パターンを教師信号とし
て学習サンプルを作成する学習サンプル作成手段と、前
記学習サンプルを用いて一のカテゴリーの識別を学習す
る学習手段とを備えることを特徴とする。
【0284】これによって、学習サンプル数が少ない場
合にでも、一のカテゴリーと他のカテゴリーの識別境界
面を明示的に定めるように学習サンプルを人為的に生成
して、この学習サンプルを用いて学習するので、一のカ
テゴリーに属する入力パターンを誤って類似する他のカ
テゴリーに属するものと判定しないようにすることがで
きる。
合にでも、一のカテゴリーと他のカテゴリーの識別境界
面を明示的に定めるように学習サンプルを人為的に生成
して、この学習サンプルを用いて学習するので、一のカ
テゴリーに属する入力パターンを誤って類似する他のカ
テゴリーに属するものと判定しないようにすることがで
きる。
【0285】ここで、前記学習サンプル作成手段は、混
合比の異なる複数の入力パターンを作成し、前記学習手
段は、一のカテゴリーの混合比の小さな入力パターンを
有する学習サンプルから学習することを特徴とすること
もできる。これによって、一のカテゴリーの境界付近か
ら学習を開始するので、境界を区別する識別境界面が早
期に精度よく形成できるような学習が可能となる。
合比の異なる複数の入力パターンを作成し、前記学習手
段は、一のカテゴリーの混合比の小さな入力パターンを
有する学習サンプルから学習することを特徴とすること
もできる。これによって、一のカテゴリーの境界付近か
ら学習を開始するので、境界を区別する識別境界面が早
期に精度よく形成できるような学習が可能となる。
【0286】また、本発明は、学習により入力ベクトル
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数46]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数47]により代表ベクトルを更新し、カテゴリー
判定が誤りであれば[数48]により代表ベクトルを更
新することにより学習する学習手段と、一のカラゴリー
と他のカテゴリーとを平均ベクトルの成分(平均値)を
一致させて混合した混合カテゴリーに属する学習データ
の分散値を一のカテゴリーの分散ベクトルの成分(分散
値)の初期値とする分散ベクトル推定手段とを備えるこ
とを特徴とする。
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数46]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数47]により代表ベクトルを更新し、カテゴリー
判定が誤りであれば[数48]により代表ベクトルを更
新することにより学習する学習手段と、一のカラゴリー
と他のカテゴリーとを平均ベクトルの成分(平均値)を
一致させて混合した混合カテゴリーに属する学習データ
の分散値を一のカテゴリーの分散ベクトルの成分(分散
値)の初期値とする分散ベクトル推定手段とを備えるこ
とを特徴とする。
【0287】
【数46】
【0288】
【数47】
【0289】
【数48】
【0290】これによって、学習サンプル数が少なく、
少ない学習サンプルより計算した分散ベクトルの信頼性
が低い場合でも、他のカテゴリーに属するが、類似する
ばらつきをもつ学習サンプルをも用いて分散ベクトルを
推定するので、より信頼性の高い分散ベクトルが得ら
れ、[数46]の距離の計算を高精度に行うことができ
る。
少ない学習サンプルより計算した分散ベクトルの信頼性
が低い場合でも、他のカテゴリーに属するが、類似する
ばらつきをもつ学習サンプルをも用いて分散ベクトルを
推定するので、より信頼性の高い分散ベクトルが得ら
れ、[数46]の距離の計算を高精度に行うことができ
る。
【0291】また、本発明は、学習により入力ベクトル
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数49]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数50]により代表ベクトルを更新し、[数51]
により分散ベクトルを更新し、カテゴリー判定が誤りで
あれば[数52]により代表ベクトルを更新し、[数5
3]により分散ベクトルを更新することにより学習する
学習手段と、一のカラゴリーと他のカテゴリーとを平均
ベクトルの成分(平均値)を一致させて混合した混合カ
テゴリーに属する学習データの分散値を一のカテゴリー
の分散ベクトルの成分(分散値)の初期値とする分散ベ
クトル推定手段とを備えることを特徴とする。
が属するベクトル空間を複数の代表ベクトルそれぞれに
対応する部分空間に分割する量子化を行い、入力ベクト
ルと各代表ベクトルとの距離を計算して、その距離の最
も近い代表ベクトルの属するカテゴリーに入力ベクトル
が属すると判定する学習ベクトル量子化ニューラルネッ
トワークであって、代表ベクトルと分散ベクトルとから
なる参照ベクトルを記憶する記憶手段と、前記入力ベク
トルと前記各代表ベクトルとの距離を[数49]により
計算する距離計算手段と、前記距離の最も近い代表ベク
トルに属するカテゴリーに入力ベクトルが属すると判定
するカテゴリー判定手段と、カテゴリー判定が正しけれ
ば[数50]により代表ベクトルを更新し、[数51]
により分散ベクトルを更新し、カテゴリー判定が誤りで
あれば[数52]により代表ベクトルを更新し、[数5
3]により分散ベクトルを更新することにより学習する
学習手段と、一のカラゴリーと他のカテゴリーとを平均
ベクトルの成分(平均値)を一致させて混合した混合カ
テゴリーに属する学習データの分散値を一のカテゴリー
の分散ベクトルの成分(分散値)の初期値とする分散ベ
クトル推定手段とを備えることを特徴とする。
【0292】
【数49】
【0293】
【数50】
【0294】
【数51】
【0295】
【数52】
【0296】
【数53】
【0297】これによって、学習により分散ベクトルを
更新する場合にでも、分散ベクトルの初期値を前述のよ
うに、より信頼性の高いものとすることができる。ここ
で、前記分散ベクトル推定手段は、一のカテゴリーに属
する学習サンプルの分散値の自然対数と他のカテゴリー
に属する学習サンプルの分散値の自然対数との和である
対数分散和を計算する対数分散和算出部と、前記対数分
散和が最小となる他のカテゴリーを特定して、特定した
カテゴリーを一のカテゴリーと混合する他のカテゴリー
として決定するカテゴリー決定部とを備えることを特徴
とすることもできる。
更新する場合にでも、分散ベクトルの初期値を前述のよ
うに、より信頼性の高いものとすることができる。ここ
で、前記分散ベクトル推定手段は、一のカテゴリーに属
する学習サンプルの分散値の自然対数と他のカテゴリー
に属する学習サンプルの分散値の自然対数との和である
対数分散和を計算する対数分散和算出部と、前記対数分
散和が最小となる他のカテゴリーを特定して、特定した
カテゴリーを一のカテゴリーと混合する他のカテゴリー
として決定するカテゴリー決定部とを備えることを特徴
とすることもできる。
【0298】これによって、MDL原理に従って、混合
する他のカテゴリーを選択するので、分散ベクトルを正
確、かつ容易に推定できる。また、本発明は、出力パタ
ーンにより入力パターンが登録カテゴリーのいずれに属
するのか、あるいは登録カテゴリーに属さないのかを識
別するニューラルネットワークであって、登録カテゴリ
ーに属するサンプルと、登録カテゴリーに属さないサン
プルを入力パターンとし、登録カテゴリーに属するサン
プルに対しては、それが登録カテゴリーのいずれである
かを示す出力パターンを教師信号とし、登録カテゴリー
に属さないサンプルに対しては、それが擬似登録カテゴ
リーに属することを示す出力パターンを教師信号として
学習サンプルを作成する学習サンプル作成手段と、前記
学習サンプルを用いて学習をする学習手段と、任意の入
力パターンに対して擬似登録カテゴリーに属することを
示す出力パターンが得られた時には、該入力パターンが
登録カテゴリーに属さないと判断する未登録カテゴリー
識別手段とを備えることを特徴とする。
する他のカテゴリーを選択するので、分散ベクトルを正
確、かつ容易に推定できる。また、本発明は、出力パタ
ーンにより入力パターンが登録カテゴリーのいずれに属
するのか、あるいは登録カテゴリーに属さないのかを識
別するニューラルネットワークであって、登録カテゴリ
ーに属するサンプルと、登録カテゴリーに属さないサン
プルを入力パターンとし、登録カテゴリーに属するサン
プルに対しては、それが登録カテゴリーのいずれである
かを示す出力パターンを教師信号とし、登録カテゴリー
に属さないサンプルに対しては、それが擬似登録カテゴ
リーに属することを示す出力パターンを教師信号として
学習サンプルを作成する学習サンプル作成手段と、前記
学習サンプルを用いて学習をする学習手段と、任意の入
力パターンに対して擬似登録カテゴリーに属することを
示す出力パターンが得られた時には、該入力パターンが
登録カテゴリーに属さないと判断する未登録カテゴリー
識別手段とを備えることを特徴とする。
【0299】これによって、未登録のカテゴリーの入力
があった場合に、登録カテゴリーのうちのいずれかであ
ると、必ずしも決める必要がなくなり、擬似登録カテゴ
リーに属するとすることもできるので、未登録カテゴリ
ーを登録カテゴリーと誤って判定するのを抑制すること
ができる。このような未登録者排除機能は、特に、セキ
ュリティシステムを構築する上で有効な機能である。
があった場合に、登録カテゴリーのうちのいずれかであ
ると、必ずしも決める必要がなくなり、擬似登録カテゴ
リーに属するとすることもできるので、未登録カテゴリ
ーを登録カテゴリーと誤って判定するのを抑制すること
ができる。このような未登録者排除機能は、特に、セキ
ュリティシステムを構築する上で有効な機能である。
【0300】また、本発明は、出力パターンにより入力
パターンのカテゴリーを識別するニューラルネットワー
クであって、任意の2つのカテゴリーを混合した混合カ
テゴリーに属する学習データの分散ベクトルを計算する
分散ベクトル計算手段と、前記分散ベクトルが最小で、
かつ一定値以下となる混合カテゴリーに属するカテゴリ
ーを併合して1つの新たなカテゴリーとするカテゴリー
併合手段と、前記入力パターンが、前記カテゴリー併合
手段による併合結果である新たなカテゴリー分類のいず
れに属するかを示す識別情報を出力パターンとする出力
パターン生成手段とを備えることを特徴とする。
パターンのカテゴリーを識別するニューラルネットワー
クであって、任意の2つのカテゴリーを混合した混合カ
テゴリーに属する学習データの分散ベクトルを計算する
分散ベクトル計算手段と、前記分散ベクトルが最小で、
かつ一定値以下となる混合カテゴリーに属するカテゴリ
ーを併合して1つの新たなカテゴリーとするカテゴリー
併合手段と、前記入力パターンが、前記カテゴリー併合
手段による併合結果である新たなカテゴリー分類のいず
れに属するかを示す識別情報を出力パターンとする出力
パターン生成手段とを備えることを特徴とする。
【0301】これによって、学習データの総数に比べて
識別すべきカテゴリー数が多く、ニューラルネットワー
クのカテゴリーの識別精度が落ちる場合にカテゴリーを
併合することとして、その併合カテゴリーをニューラル
ネットワークにより識別するに際して、入力パターンの
分散ベクトルに基づいて類似するカテゴリーを併合する
ので、ニューラルネットワークの併合カテゴリーの識別
精度を高くすることができる。
識別すべきカテゴリー数が多く、ニューラルネットワー
クのカテゴリーの識別精度が落ちる場合にカテゴリーを
併合することとして、その併合カテゴリーをニューラル
ネットワークにより識別するに際して、入力パターンの
分散ベクトルに基づいて類似するカテゴリーを併合する
ので、ニューラルネットワークの併合カテゴリーの識別
精度を高くすることができる。
【0302】また、本発明は、出力パターンにより入力
パターンのカテゴリーを識別するニューラルネットワー
クであって、オブジェクトを撮像して得られる画像デー
タを獲得する画像獲得手段と、獲得された画像データを
所定サイズのブロックに分割し、各ブロックごとの画素
値の頻度分布を作成する頻度分布作成手段と、前記作成
した画素値の頻度値を入力パターンとする入力パターン
作成手段と備えることを特徴とする。
パターンのカテゴリーを識別するニューラルネットワー
クであって、オブジェクトを撮像して得られる画像デー
タを獲得する画像獲得手段と、獲得された画像データを
所定サイズのブロックに分割し、各ブロックごとの画素
値の頻度分布を作成する頻度分布作成手段と、前記作成
した画素値の頻度値を入力パターンとする入力パターン
作成手段と備えることを特徴とする。
【0303】これによって、識別物体を複数回撮像した
際にカメラや識別物体の移動によって、画像中の識別物
体の構成部分の画素の位置がそれぞれ異なるサンプルを
得た場合、通常のニューラルネットワークでこれらのサ
ンプルを学習させると、同一の入力ユニットに異なる構
成部分の画素値が入力されて相殺しあうが、本発明に係
るニューラルネットワークでは、撮像した画像をブロッ
クに分割し、ブロックごとの頻度分布を作成し、頻度値
をニューラルネットワークの入力値とするので、識別物
体の移動、回転に伴なう構成部分の位置のずれを解消す
ることができる。
際にカメラや識別物体の移動によって、画像中の識別物
体の構成部分の画素の位置がそれぞれ異なるサンプルを
得た場合、通常のニューラルネットワークでこれらのサ
ンプルを学習させると、同一の入力ユニットに異なる構
成部分の画素値が入力されて相殺しあうが、本発明に係
るニューラルネットワークでは、撮像した画像をブロッ
クに分割し、ブロックごとの頻度分布を作成し、頻度値
をニューラルネットワークの入力値とするので、識別物
体の移動、回転に伴なう構成部分の位置のずれを解消す
ることができる。
【図1】実施の形態1の人物画像認証システムの構成を
示す機能ブロック図である。
示す機能ブロック図である。
【図2】人物画像中での第1の矩形領域及び第2の矩形
領域を示す図である。図2(a)は、第1の矩形領域を
示す図である。図2(b)は、第2の矩形領域を示す図
である。
領域を示す図である。図2(a)は、第1の矩形領域を
示す図である。図2(b)は、第2の矩形領域を示す図
である。
【図3】実施の形態1の人物画像認証システム全体の動
作手順の概略を示すフローチャートである。
作手順の概略を示すフローチャートである。
【図4】実施の形態1の人物画像認証システムのデータ
通信の動作手順を示すフローチャ−トである。
通信の動作手順を示すフローチャ−トである。
【図5】画像サンプリング部105による画素値(濃度
値)補正の動作手順を示すフローチャートである。
値)補正の動作手順を示すフローチャートである。
【図6】ヒストグラム平坦化におけるヒストグラムであ
る。図6(a)は、濃度ヒストグラム曲線p1(z)で
ある。図6(b)は、累積ヒストグラム曲線である。図
6(c)は平坦化されたヒストグラムである。
る。図6(a)は、濃度ヒストグラム曲線p1(z)で
ある。図6(b)は、累積ヒストグラム曲線である。図
6(c)は平坦化されたヒストグラムである。
【図7】特徴量変換部106が原画像から特徴量を生成
する過程を示す図である。図7(a)は、1回目の水平
方向と垂直方向の帯域2分割のサブバンド分解がされる
過程を示す図である。図7(b)は、2回目の水平方向
と垂直方向の帯域2分割のサブバンド分解がされる過程
を示す図である。
する過程を示す図である。図7(a)は、1回目の水平
方向と垂直方向の帯域2分割のサブバンド分解がされる
過程を示す図である。図7(b)は、2回目の水平方向
と垂直方向の帯域2分割のサブバンド分解がされる過程
を示す図である。
【図8】第1の部分画像からサブバンド画像が生成され
る過程を示す図である。
る過程を示す図である。
【図9】第2の部分画像からサブバンド画像が生成され
る過程を示す図である。
る過程を示す図である。
【図10】特徴量逆変換部122が第2の特徴量から第
2の部分画像を生成する過程を示す図である。図10
(a)は、1回目の水平方向と垂直方向の帯域2分割の
サブバンド合成がされる過程を示す図である。図10
(b)は、2回目の水平方向と垂直方向の帯域2分割の
サブバンド合成がされる過程を示す図である。
2の部分画像を生成する過程を示す図である。図10
(a)は、1回目の水平方向と垂直方向の帯域2分割の
サブバンド合成がされる過程を示す図である。図10
(b)は、2回目の水平方向と垂直方向の帯域2分割の
サブバンド合成がされる過程を示す図である。
【図11】第2の特徴量から第2の部分画像が生成され
る過程を示す図である。
る過程を示す図である。
【図12】学習装置の構成を示す機能ブロック図であ
る。
る。
【図13】特徴量判別符号化学習部131において用い
られる2進探索木を示す図である。
られる2進探索木を示す図である。
【図14】学習装置が第1の特徴量の判別を学習する動
作手順を示すフローチャートである。
作手順を示すフローチャートである。
【図15】第1の特徴量の特徴量空間が順次2分割され
ていく過程を示す図である。図15(a)は、作成した
第1の特徴量の特徴量空間での分布を示す図である。図
15(b)は、最初のノードにおける第1の特徴量の特
徴量空間の分割を示す図である。図15(c)は、2段
目のノードにおける第1の特徴量の特徴量空間の分割を
示す図である。図15(d)は、3段目のノードにおけ
る第1の特徴量の特徴量空間の最終的な分割を示す図で
ある。
ていく過程を示す図である。図15(a)は、作成した
第1の特徴量の特徴量空間での分布を示す図である。図
15(b)は、最初のノードにおける第1の特徴量の特
徴量空間の分割を示す図である。図15(c)は、2段
目のノードにおける第1の特徴量の特徴量空間の分割を
示す図である。図15(d)は、3段目のノードにおけ
る第1の特徴量の特徴量空間の最終的な分割を示す図で
ある。
【図16】第1の特徴量の特徴量空間を2分割する分割
境界面を生成するニューラルネットワークの構成を示す
図である。
境界面を生成するニューラルネットワークの構成を示す
図である。
【図17】分離度の違いによる第1の特徴量の特徴量空
間の分割を示す図である。図17(a)は、分離度が大
きな分割を示す図である。図17(b)は、分離度が小
さな分割を示す図である。
間の分割を示す図である。図17(a)は、分離度が大
きな分割を示す図である。図17(b)は、分離度が小
さな分割を示す図である。
【図18】特徴量判別符号化学習部131が第1の特徴
量識別参照情報記憶部107に書き込んだ情報を示す図
である。図18(a)は、各ノードごとの2分割境界面
を決める参照ベクトルを示す図である。図18(b)は
末端の枝が顔画像クラスに属するか非顔画像クラスに属
するかの識別情報を示す図である。
量識別参照情報記憶部107に書き込んだ情報を示す図
である。図18(a)は、各ノードごとの2分割境界面
を決める参照ベクトルを示す図である。図18(b)は
末端の枝が顔画像クラスに属するか非顔画像クラスに属
するかの識別情報を示す図である。
【図19】第1の特徴量が判別される過程を示す図であ
る。図19(a)は、入力された第1の特徴量の特徴量
空間での分布を示す図である。図19(b)は、2分割
境界面S1によって、第1の特徴量がT1Lに属すると
判定された状態を示す図である。図19(c)は、第1
の特徴量が分割空間T4Rに属すると判定された状態を
示す図である。
る。図19(a)は、入力された第1の特徴量の特徴量
空間での分布を示す図である。図19(b)は、2分割
境界面S1によって、第1の特徴量がT1Lに属すると
判定された状態を示す図である。図19(c)は、第1
の特徴量が分割空間T4Rに属すると判定された状態を
示す図である。
【図20】学習装置が第2の特徴量の符号化を学習する
動作手順を示すフローチャートである。
動作手順を示すフローチャートである。
【図21】第2の特徴量のサンプルがクラスタリングさ
れていく過程を示す図である。図21(a)は、第2の
特徴量のサンプルのクラスタリング前の特徴量空間での
分布を示す図である。図21(b)は、第2の特徴量の
サンプルが2つのクラスタに分類された状態を示す図で
ある。図21(c)は、第2の特徴量の2分割境界面S
1が作成された状態を示す図である。図21(d)は、
第2の特徴量のサンプルが4つのクラスタに分類された
状態を示す図である。図21(e)は、第2の特徴量の
2分割境界面S2及びS3が作成された状態を示す図で
ある。
れていく過程を示す図である。図21(a)は、第2の
特徴量のサンプルのクラスタリング前の特徴量空間での
分布を示す図である。図21(b)は、第2の特徴量の
サンプルが2つのクラスタに分類された状態を示す図で
ある。図21(c)は、第2の特徴量の2分割境界面S
1が作成された状態を示す図である。図21(d)は、
第2の特徴量のサンプルが4つのクラスタに分類された
状態を示す図である。図21(e)は、第2の特徴量の
2分割境界面S2及びS3が作成された状態を示す図で
ある。
【図22】第2の特徴量の特徴量空間の2分割境界面を
生成するニューラルネットワークの構成を示す図であ
る。
生成するニューラルネットワークの構成を示す図であ
る。
【図23】特徴量判別符号化学習部131により第2の
特徴量符号化参照情報記憶部109に書き込まれた情報
を示す図である。
特徴量符号化参照情報記憶部109に書き込まれた情報
を示す図である。
【図24】特徴量判別符号化学習部131により第2の
特徴量復号化参照情報記憶部118に書き込まれた情報
を示す図である。
特徴量復号化参照情報記憶部118に書き込まれた情報
を示す図である。
【図25】第2の特徴サンプルを2つのクラスタに分類
する手順を示すフローチャートである。
する手順を示すフローチャートである。
【図26】ニューラルネットワークにより各ブロックの
第2の特徴量が判別される過程を示す図である。図26
(a)は、ニューラルネットワークにより、第1ブロッ
クの第2の特徴量が分割空間のいずれに属するかが判定
される過程を示す図である。図26(b)は、ニューラ
ルネットワークにより、第2ブロックの第2の特徴量が
分割空間のいずれに属するかが判定される過程を示す図
である。
第2の特徴量が判別される過程を示す図である。図26
(a)は、ニューラルネットワークにより、第1ブロッ
クの第2の特徴量が分割空間のいずれに属するかが判定
される過程を示す図である。図26(b)は、ニューラ
ルネットワークにより、第2ブロックの第2の特徴量が
分割空間のいずれに属するかが判定される過程を示す図
である。
【図27】学習装置が第2の特徴量の判別を学習する動
作手順を示すフローチャートである。
作手順を示すフローチャートである。
【図28】第2の特徴量のブロックと第2の特徴量を判
別するニューラルネットワークの入力パターンとの関係
を示す図である。
別するニューラルネットワークの入力パターンとの関係
を示す図である。
【図29】第2の特徴量を判別するニューラルネットワ
ークの構成を示す図である。
ークの構成を示す図である。
【図30】第2の特徴量判別学習部132が第2の特徴
量識別参照情報記憶部120に書き込んだ情報を示す図
である。
量識別参照情報記憶部120に書き込んだ情報を示す図
である。
【図31】実施の形態2の薄型メモリカードを用いた人
物画像認証システムの構成を示す機能ブロック図であ
る。
物画像認証システムの構成を示す機能ブロック図であ
る。
【図32】実施の形態2の薄型メモリカードを用いた人
物画像認証システムの動作手順を示すフローチャートで
ある。
物画像認証システムの動作手順を示すフローチャートで
ある。
【図33】第2の特徴量を判別するバックプロパゲーシ
ョンニューラルネットワークの構成を示す図である。
ョンニューラルネットワークの構成を示す図である。
【図34】実施の形態4のσLVQ型ニューラルネット
ワークの学習の動作手順を示すフローチャートである。
ワークの学習の動作手順を示すフローチャートである。
【図35】分散ベクトルの成分である分散値σcjの更新
について示す。図35(a)は、分類が正しく、かつ|
qj(t)−mcj(t)|−σcj(t) >0を満たす
場合の入力パターンqj(t)の分布を示す図である。
図35(b)は、図35(a)の時のσcj(t)の更新
値σcj(t+1)を示す図である。図35(c)は、分
類が正しく、かつ|qj(t)−mcj(t)|−σ
cj(t) ≦0を満たす場合の入力パターンqj(t)
の分布を示す図である。図35(d)は、図35(c)
の時のσcj(t)の更新値σcj(t+1)を示す図であ
る。図35(e)は、分類が誤りで、かつ|qj(t)
−mcj(t)|−σcj(t) ≧0を満たす場合の入力
パターンqj(t)の分布を示す図である。図35
(f)は、図35(e)の時のσcj(t)の更新値σcj
(t+1)を示す図である。図35(g)は、分類が誤
りで、かつ|qj(t)−mcj(t)|−σcj(t)
<0を満たす場合の入力パターンqj(t)の分布を示
す図である。図35(h)は、図35(g)の時のσcj
(t)の更新値σcj(t+1)を示す図である。
について示す。図35(a)は、分類が正しく、かつ|
qj(t)−mcj(t)|−σcj(t) >0を満たす
場合の入力パターンqj(t)の分布を示す図である。
図35(b)は、図35(a)の時のσcj(t)の更新
値σcj(t+1)を示す図である。図35(c)は、分
類が正しく、かつ|qj(t)−mcj(t)|−σ
cj(t) ≦0を満たす場合の入力パターンqj(t)
の分布を示す図である。図35(d)は、図35(c)
の時のσcj(t)の更新値σcj(t+1)を示す図であ
る。図35(e)は、分類が誤りで、かつ|qj(t)
−mcj(t)|−σcj(t) ≧0を満たす場合の入力
パターンqj(t)の分布を示す図である。図35
(f)は、図35(e)の時のσcj(t)の更新値σcj
(t+1)を示す図である。図35(g)は、分類が誤
りで、かつ|qj(t)−mcj(t)|−σcj(t)
<0を満たす場合の入力パターンqj(t)の分布を示
す図である。図35(h)は、図35(g)の時のσcj
(t)の更新値σcj(t+1)を示す図である。
【図36】実施の形態5の混合した特徴量の作成及びこ
れを用いた学習の動作手順を示すフローチャートであ
る。
れを用いた学習の動作手順を示すフローチャートであ
る。
【図37】入力パターンの時間変化を示す図である。
【図38】入力パターンの時間変化の例を画像形式で示
す図である。図38(a)は、人物Aの顔画像3801
と人物Bの顔画像3802を示す図である。図38
(b)は、人物Aの学習における、ニューラルネットワ
ークの入力パターンを顔画像の形式で示す図である。図
38(c)は、人物Bの学習において、ニューラルネッ
トワークの入力パターンを顔画像の形式で示す図であ
る。
す図である。図38(a)は、人物Aの顔画像3801
と人物Bの顔画像3802を示す図である。図38
(b)は、人物Aの学習における、ニューラルネットワ
ークの入力パターンを顔画像の形式で示す図である。図
38(c)は、人物Bの学習において、ニューラルネッ
トワークの入力パターンを顔画像の形式で示す図であ
る。
【図39】学習サンプル数と誤認識率の関係を示す図で
ある。
ある。
【図40】実施の形態6における混合集合を作成して特
徴量の分散値を推定する動作手順を示すフローチャート
である。
徴量の分散値を推定する動作手順を示すフローチャート
である。
【図41】人物Aの特徴量の分散値σAが推定される過
程を示す図である。図41(a)は、人物A、B、C、
Dの特徴量のサンプルの分布を示す図である。図41
(b)は、最小の対数分散和を与える集合Cが選択さ
れ、混合集合ACが作成された状態を示す図である。図
41(c)は、最小の対数分散和を与える集合Bが選択
され、混合集合ACBが作成された状態を示す図であ
る。
程を示す図である。図41(a)は、人物A、B、C、
Dの特徴量のサンプルの分布を示す図である。図41
(b)は、最小の対数分散和を与える集合Cが選択さ
れ、混合集合ACが作成された状態を示す図である。図
41(c)は、最小の対数分散和を与える集合Bが選択
され、混合集合ACBが作成された状態を示す図であ
る。
【図42】混合する集合の数と対数分散和との関係を示
す図である。
す図である。
【図43】混合する集合の数と平均分散値及び認識誤り
率との関係を示す図である。
率との関係を示す図である。
【図44】実施の形態7の未登録者識別機能の学習及び
判別の動作手順を示すフローチャートである。
判別の動作手順を示すフローチャートである。
【図45】実施の形態7のニューラルネットワークの構
成を示す図である。
成を示す図である。
【図46】学習後の第2の特徴量の特徴量空間を示す図
である。図46(a)は、疑似登録者を用いない場合の
第2の特徴量空間を示す図である。図46(b)は、疑
似登録者を用いた場合の第2の特徴量空間を示す図であ
る。
である。図46(a)は、疑似登録者を用いない場合の
第2の特徴量空間を示す図である。図46(b)は、疑
似登録者を用いた場合の第2の特徴量空間を示す図であ
る。
【図47】実施の形態7による登録者及び未登録者の識
別率を示す図である。
別率を示す図である。
【図48】実施の形態8による登録者及び未登録者の識
別率を示す図である。図48(a)は、合成特徴量を用
いない場合の識別率を示す。図48(b)は、合成特徴
量を用いた場合の識別率を示す。
別率を示す図である。図48(a)は、合成特徴量を用
いない場合の識別率を示す。図48(b)は、合成特徴
量を用いた場合の識別率を示す。
【図49】実施の形態9の学習及び判別の動作手順を示
すフローチャートである。
すフローチャートである。
【図50】実施の形態10人物のグループを学習、判別
する動作手順を示すフローチャートである。
する動作手順を示すフローチャートである。
【図51】人物のグループが作成される過程を示す図で
ある。図51(a)は、人物A〜Gの第2の特徴量のサ
ンプルデータの特徴空間での分布を示す図である。図5
1(b)は、グループAとグループBとが併合された状
態を示す図である。図51(c)は、グループCとグル
ープDとが併合された状態を示す図である。図51
(d)は、併合グループABとグループGとが併合され
た状態を示す図である。
ある。図51(a)は、人物A〜Gの第2の特徴量のサ
ンプルデータの特徴空間での分布を示す図である。図5
1(b)は、グループAとグループBとが併合された状
態を示す図である。図51(c)は、グループCとグル
ープDとが併合された状態を示す図である。図51
(d)は、併合グループABとグループGとが併合され
た状態を示す図である。
【図52】第2の特徴量の位置ずれの例を示す図であ
る。
る。
【図53】実施の形態11の第2の特徴量の学習及び判
別の動作手順を示すフローチャートである。
別の動作手順を示すフローチャートである。
【図54】ブロックごとの第2の特徴量の頻度分布の例
を示す図である。
を示す図である。
【図55】第1の特徴量を判別するニューラルネットワ
ークの構成を示す図である。
ークの構成を示す図である。
【図56】従来の人物画像認証システムの構成を示す機
能ブロック図である。
能ブロック図である。
100 端末装置 101 センター装置 102 通信ネットワーク 103 画像メモリ 103 撮像部 104 画像メモリ 105 画像サンプリング部 106 特徴量変換部 107 特徴量識別参照情報記憶部 108 特徴量判別符号化部 109 特徴量符号化参照情報記憶部 110 特徴量符号化部 111 選択信号入力部 112 制御部 113 通信部 114 データ記憶部 115 データ符号復号化部 116 データ提示部 117 通信部 118 特徴量復号化参照情報記憶部 119 第2の特徴量復号化部 120 特徴量識別参照情報記憶部 121 第2の特徴量判別部 122 特徴量逆変換部 123 画像再生部 124 画像表示部 126 制御部 127 データ情報記憶部 128 データ符号復号化部 130 学習装置 131 特徴量判別符号化学習部 132 第2の特徴量判別学習部 701 低域通過フィルタLPX 702 高域通過フィルタHPX 706 低域通過フィルタLPY 707 高域通過フィルタHPY 1005 低域通過逆フィルタILPY 1006 高域通過逆フィルタIHPY 1011 低域通過逆フィルタILPX 1012 高域通過逆フィルタIHPX 1701 入力ユニット 1702 出力ユニット 1704 出力信号 1705 教師信号 1800 入力ユニット 1803 入力パターン 3100 薄型メモリカード 3101 入出力部 3102 制御部 3103 データ記憶部 3104 データ符号復号化部 3105 入出力部 3301 入力ユニット 3302 出力ユニット 3303 中間ユニット 3304 入力パターン 3305 出力信号 3306 教師信号 5600 端末装置 5601 センター装置 5602 通信ネットワーク 5603 撮像部 5604 画像メモリ 5605 画像サンプリング部 5606 画像直交変換部 5607 画像符号化部 5608 通信部 5609 通信部 5610 画像復号化部 5611 画像逆直交変換部 5612 画像再生部 5613 画像メモリ 5614 画像サンプリング部 5615 特徴量抽出部 5616 特徴量判別部 5617 特徴量抽出部 5618 特徴量判別部
Claims (27)
- 【請求項1】 同一のクラスに属する複数の異なるオブ
ジェクトそれぞれを識別するための画像を送信する装置
であって、 オブジェクトを撮像して得られる画像データを獲得する
画像獲得手段と、 獲得された画像データを用いてオブジェクトの画像上の
特徴を示す特徴量を作成する特徴量作成手段と、 特徴量を構成する複数の特徴成分それぞれに対応する座
標軸からなる特徴空間を2分探索が可能なように分割し
た分割境界面それぞれがノードに対応づけられ、分割さ
れた最小単位の部分空間それぞれに末端の枝が対応づけ
られた2進探索木を予め記憶する2進探索木記憶手段
と、 前記2進探索木の分割境界面に従って、前記特徴量作成
手段により作成された特徴量を順次量子化していき、末
端の枝を特定し、該末端の枝より符号語を特定し、該符
号語を特徴量の符号化データとする符号化手段と、 前記符号化データを送信する送信手段とを備えたことを
特徴とする画像送信装置。 - 【請求項2】 前記クラスは人間であり、 前記オブジェクトは、一人の人間であり、 前記画像獲得手段は、前記オブジェクトに係る顔の画像
データを獲得し、 前記特徴量作成手段は、獲得された顔の画像データから
それを構成する各ブロックごとの特徴を作成することを
特徴とする請求項1記載の画像送信装置。 - 【請求項3】 前記画像獲得手段は、 人間を撮像した撮像画像から複数個の部分画像を作成す
る部分画像作成部と、 前記部分画像の画像データの特徴を示す特徴量を作成す
る特徴量作成部と、 特徴量を構成する複数の特徴成分それぞれに対応する座
標軸からなる特徴空間を2分探索が可能なように分割し
た分割境界面それぞれが各ノードに対応づけられ、分割
された最小単位の部分空間それぞれを特定する顔の画像
クラスへの帰属度が末端の枝に対応づけられた2進探索
木を予め記憶する2進探索木記憶部と、 前記2進探索木の分割境界面に従って、前記特徴量作成
部が作成した特徴量を順次量子化していき、末端の枝よ
り前記特徴量の顔の画像クラスへの帰属度を判定する帰
属度判定部と、 前記顔画像クラスへの帰属度が最大となる部分画像を顔
の画像データとする画像データ選択部とを備えたことを
特徴とする請求項2記載の画像送信装置。 - 【請求項4】 前記符号化手段は、2進探索木の分岐ご
とに0又は1のビットを付加して符号語とすることを特
徴とする請求項1〜3のいずれか1項に記載の画像送信
装置。 - 【請求項5】 前記特徴量生成手段は、画像データを周
波数による帯域2分割のサブバンド分解して得たデータ
を特徴量とすることを特徴とする請求項1〜3のいずれ
か1項に記載の画像送信装置。 - 【請求項6】 前記特徴量生成手段は、画像データを周
波数による帯域2分割のサブバンド分解して得たデータ
を特徴量とし、 前記特徴量生成部は、部分画像データを周波数による帯
域2分割のサブバンド分解して得たデータを特徴量とす
ることを特徴とする請求項3記載の画像送信装置。 - 【請求項7】 請求項1〜3のいずれか1項に記載の前
記2進探索木のノードで定められる分割境界面をニュー
ラルネットワークによる学習により作成する学習装置で
あって、 前記ニューラルネットワークは、 前記特徴量を入力パターンとし、分岐する枝の別を出力
パターンとして、教師あり学習する手段を備え、 前記ニューラルネットワークの学習後の学習係数により
分割境界面を定める分割境界面設定手段とを備えたこと
を特徴とする学習装置。 - 【請求項8】 前記符号化手段は、前記2進探索木記憶
手段から前記分割境界面を定めたニューラルネットワー
クの学習係数を読み込んで、前記特徴量をニューラルネ
ットワークの入力パターンとし、出力パターンにより前
記特徴量を量子化することを特徴とする請求項1〜3の
いずれか1項に記載の画像送信装置。 - 【請求項9】 前記帰属度判定部は、前記2進探索木記
憶部から前記分割境界面を定めたニューラルネットワー
クの学習係数を読み込んで、前記特徴量をニューラルネ
ットワークの入力パターンとし、出力パターンにより前
記特徴量を量子化するとともに顔画像クラスへの帰属度
を判定することを特徴とする請求項3記載の画像送信装
置。 - 【請求項10】 同一のクラスに属する複数の異なるオ
ブジェクトそれぞれを識別する画像認識装置であって、 オブジェクトの画像上の特徴を示す特徴量を符号化した
符号化データを受信する受信手段と、 前記符号化データと特徴量との対応関係を定めた対応表
を予め記憶する対応表記憶手段と、 前記符号化データより前記対応表を参照して特徴量を復
元する特徴量復号化手段と、 特徴量を構成する複数の特徴成分それぞれに対応する座
標軸からなる特徴空間をオブジェクトごとの部分空間に
分割する複数の分割境界面を予め記憶している分割境界
面記憶手段と、 前記分割境界面により、前記特徴量の属する分割空間を
特定し、オブジェクトを識別するオブジェクト識別手段
とを備えたことを特徴とする画像認識装置。 - 【請求項11】 前記クラスは人間であり、 前記オブジェクトは、一人の人間であり、 前記特徴量は、顔の画像データを構成する各ブロックご
との特徴であることを特徴とする請求項10記載の画像
認識装置。 - 【請求項12】 前記特徴量復号化手段は、復元した特
徴量をさらに離散コサイン変換したものを特徴量とする
ことを特徴とする請求項10又は11記載の画像認識装
置。 - 【請求項13】 請求項10又は11に記載の前記分割
境界面をニューラルネットワークによる学習により作成
する学習装置であって、 前記ニューラルネットワークは、 前記特徴量を入力パターンとし、各分割空間の別を出力
パターンとして学習する手段を備え、 前記ニューラルネットワークの学習後の学習係数により
分割境界面を定める分割境界面設定手段とを備えたこと
を特徴とする学習装置。 - 【請求項14】 前記オブジェクト識別手段は、前記分
割境界面記憶手段から前記分割境界面を定めたニューラ
ルネットワークの学習係数を読み込んで、前記特徴量を
ニューラルネットワークの入力パターンとし、出力パタ
ーンにより前記特徴量が属する分割空間を特定すること
を特徴とする請求項10又は11に記載の画像認識装
置。 - 【請求項15】 前記画像認識装置は、さらに特徴量よ
り画像データを再生する画像再生手段を備えることを特
徴とする請求項10又は11に記載の画像認識装置。 - 【請求項16】 前記画像再生手段は、特徴量を周波数
による帯域2分割のサブバンド合成して得たデータを画
像データとすることを特徴とする請求項15記載の画像
認識装置。 - 【請求項17】 画像送信装置と画像認識装置を通信ネ
ットワークを介してなる画像認識システムであって、 前記画像送信装置は、 オブジェクトを撮像して得られる画像データを獲得する
画像獲得手段と、 獲得された画像データを用いてオブジェクトの画像上の
特徴を示す特徴量を作成する特徴量作成手段と、 特徴量を構成する複数の特徴成分それぞれに対応する座
標軸からなる特徴空間を2分探索が可能なように分割し
た分割境界面それぞれが各ノードに対応づけられ、分割
された最小単位の部分空間それぞれに末端の枝が対応づ
けられた2進探索木を予め記憶する2進探索木記憶手段
と、 前記2進探索木の分割境界面に従って、前記特徴量作成
手段により作成された特徴量を順次量子化していき、末
端の枝を特定し、該末端の枝より符号語を特定し、該符
号語を特徴量の符号化データとする符号化手段と、 前記符号化データを送信する送信手段とを備え、 前記画像認識装置は、 前記符号化データを受信する受信手段と、 前記符号化データと特徴量との対応関係を定めた対応表
を予め記憶する対応表記憶手段と、 前記符号化データより前記対応表を参照して特徴量を復
元する特徴量復号化手段と、 特徴量を構成する複数の特徴成分それぞれに対応する座
標軸からなる特徴空間をオブジェクトごとの部分空間に
分割する複数の分割境界面を予め記憶している分割境界
面記憶手段と、 前記分割境界面により、前記特徴量の属する分割空間を
特定し、オブジェクトを識別するオブジェクト識別手段
とを備えたことを特徴とする画像認識システム。 - 【請求項18】 前記画像送信装置は、さらに撮像され
たオブジェクトを特定する識別情報を入力する入力手段
を含み、 前記送信手段は、前記符号化データとともに、前記識別
情報をも送信し、 前記画像認識装置の前記受信手段は、前記符号化データ
とともに、前記識別情報をも受信し、 前記画像認識装置は、オブジェクト識別手段により識別
されたオブジェクトと前記識別情報とで特定されるオブ
ジェクトとが一致するかを判定する手段とを含むことを
特徴とする請求項17記載の画像認識システム。 - 【請求項19】 学習により入力ベクトルが属するベク
トル空間を複数の代表ベクトルそれぞれに対応する部分
空間に分割する量子化を行い、入力ベクトルと各代表ベ
クトルとの距離を計算して、その距離の最も近い代表ベ
クトルの属するカテゴリーに入力ベクトルが属すると判
定する学習ベクトル量子化ニューラルネットワークであ
って、 代表ベクトルと分散ベクトルとからなる参照ベクトルを
記憶する記憶手段と、 前記入力ベクトルと前記各代表ベクトルとの距離を[数
1]により計算する距離計算手段と、 前記距離の最も近い代表ベクトルに属するカテゴリーに
入力ベクトルが属すると判定するカテゴリー判定手段
と、 カテゴリー判定が正しければ[数2]により代表ベクト
ルを更新し、[数3]により分散ベクトルを更新し、 カテゴリー判定が誤りであれば[数4]により代表ベク
トルを更新し、[数5]により分散ベクトルを更新する
ことにより学習する学習手段とを備えたことを特徴とす
る学習ベクトル量子化ニューラルネットワーク。 【数1】 【数2】 【数3】 【数4】 【数5】 - 【請求項20】 出力パターンにより入力パターンのカ
テゴリーを識別するニューラルネットワークであって、 一のカテゴリーに属するサンプルの入力パターンと、一
のカテゴリーに類似する他のカテゴリーに属するサンプ
ルの入力パターンとを一のカテゴリーの混合比率が他の
カテゴリーの混合比率より大きい条件で混合した入力パ
ターンを一のカテゴリーの入力パターンとし、 一のカテゴリーに属することを示す出力パターンを教師
信号として学習サンプルを作成する学習サンプル作成手
段と、 前記学習サンプルを用いて一のカテゴリーの識別を学習
する学習手段と、を備えたことを特徴とするニューラル
ネットワーク。 - 【請求項21】 前記学習サンプル作成手段は、混合比
の異なる複数の入力パターンを作成し、 前記学習手段は、一のカテゴリーの混合比の小さな入力
パターンを有する学習サンプルから学習することを特徴
とする請求項20記載のニューラルネットワーク。 - 【請求項22】 学習により入力ベクトルが属するベク
トル空間を複数の代表ベクトルそれぞれに対応する部分
空間に分割する量子化を行い、入力ベクトルと各代表ベ
クトルとの距離を計算して、その距離の最も近い代表ベ
クトルの属するカテゴリーに入力ベクトルが属すると判
定する学習ベクトル量子化ニューラルネットワークであ
って、 代表ベクトルと分散ベクトルとからなる参照ベクトルを
記憶する記憶手段と、 前記入力ベクトルと前記各代表ベクトルとの距離を[数
6]により計算する距離計算手段と、 前記距離の最も近い代表ベクトルに属するカテゴリーに
入力ベクトルが属すると判定するカテゴリー判定手段
と、 カテゴリー判定が正しければ[数7]により代表ベクト
ルを更新し、 カテゴリー判定が誤りであれば[数8]により代表ベク
トルを更新することにより学習する学習手段と、 一のカラゴリーと他のカテゴリーとを平均ベクトルの成
分(平均値)を一致させて混合した混合カテゴリーに属
する学習データの分散値を一のカテゴリーの分散ベクト
ルの成分(分散値)の初期値とする分散ベクトル推定手
段とを備えたことを特徴とする学習ベクトル量子化ニュ
ーラルネットワーク。 【数6】 【数7】 【数8】 - 【請求項23】 学習により入力ベクトルが属するベク
トル空間を複数の代表ベクトルそれぞれに対応する部分
空間に分割する量子化を行い、入力ベクトルと各代表ベ
クトルとの距離を計算して、その距離の最も近い代表ベ
クトルの属するカテゴリーに入力ベクトルが属すると判
定する学習ベクトル量子化ニューラルネットワークであ
って、 代表ベクトルと分散ベクトルとからなる参照ベクトルを
記憶する記憶手段と、前記入力ベクトルと前記各代表ベ
クトルとの距離を[数9]により計算する距離計算手段
と、 前記距離の最も近い代表ベクトルに属するカテゴリーに
入力ベクトルが属すると判定するカテゴリー判定手段
と、 カテゴリー判定が正しければ[数10]により代表ベク
トルを更新し、[数11]により分散ベクトルを更新
し、 カテゴリー判定が誤りであれば[数12]により代表ベ
クトルを更新し、[数13]により分散ベクトルを更新
することにより学習する学習手段と、 一のカラゴリーと他のカテゴリーとを平均ベクトルの成
分(平均値)を一致させて混合した混合カテゴリーに属
する学習データの分散値を一のカテゴリーの分散ベクト
ルの成分(分散値)の初期値とする分散ベクトル推定手
段とを備えたことを特徴とする学習ベクトル量子化ニュ
ーラルネットワーク。 【数9】 【数10】 【数11】 【数12】 【数13】 - 【請求項24】 前記分散ベクトル推定手段は、 一のカテゴリーに属する学習サンプルの分散値の自然対
数と他のカテゴリーに属する学習サンプルの分散値の自
然対数との和である対数分散和を計算する対数分散和算
出部と、 前記対数分散和が最小となる他のカテゴリーを特定し
て、特定したカテゴリーを一のカテゴリーと混合する他
のカテゴリーとして決定するカテゴリー決定部とを備え
たことを特徴とする請求項22又は23のいずれかに記
載のニューラルネットワーク。 - 【請求項25】 出力パターンにより入力パターンが登
録カテゴリーのいずれに属するのか、あるいは登録カテ
ゴリーに属さないのかを識別するニューラルネットワー
クであって、 登録カテゴリーに属するサンプルと、登録カテゴリーに
属さないサンプルを入力パターンとし、登録カテゴリー
に属するサンプルに対しては、それが登録カテゴリーの
いずれであるかを示す出力パターンを教師信号とし、登
録カテゴリーに属さないサンプルに対しては、それが擬
似登録カテゴリーに属することを示す出力パターンを教
師信号として学習サンプルを作成する学習サンプル作成
手段と、 前記学習サンプルを用いて学習をする学習手段と、 任意の入力パターンに対して擬似登録カテゴリーに属す
ることを示す出力パターンが得られた時には、該入力パ
ターンが登録カテゴリーに属さないと判断する未登録カ
テゴリー識別手段とを備えたことを特徴とするニューラ
ルネットワーク。 - 【請求項26】 出力パターンにより入力パターンのカ
テゴリーを識別するニューラルネットワークであって、 任意の2つのカテゴリーを混合した混合カテゴリーに属
する学習データの分散ベクトルを計算する分散ベクトル
計算手段と、 前記分散ベクトルが最小で、かつ一定値以下となる混合
カテゴリーに属するカテゴリーを併合して1つの新たな
カテゴリーとするカテゴリー併合手段と、 前記入力パターンが、前記カテゴリー併合手段による併
合結果である新たなカテゴリー分類のいずれに属するか
を示す識別情報を出力パターンとする出力パターン生成
手段とを備えたことを特徴とするニューラルネットワー
ク。 - 【請求項27】 出力パターンにより入力パターンのカ
テゴリーを識別するニューラルネットワークであって、 オブジェクトを撮像して得られる画像データを獲得する
画像獲得手段と、 獲得された画像データを所定サイズのブロックに分割
し、各ブロックごとの画素値の頻度分布を作成する頻度
分布作成手段と、 前記作成した画素値の頻度値を入力パターンとする入力
パターン作成手段とを備えたことを特徴とするニューラ
ルネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11174568A JP2001005967A (ja) | 1999-06-21 | 1999-06-21 | 画像送信装置及びニューラルネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11174568A JP2001005967A (ja) | 1999-06-21 | 1999-06-21 | 画像送信装置及びニューラルネットワーク |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001005967A true JP2001005967A (ja) | 2001-01-12 |
Family
ID=15980844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11174568A Pending JP2001005967A (ja) | 1999-06-21 | 1999-06-21 | 画像送信装置及びニューラルネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001005967A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099777A (ja) * | 2001-09-21 | 2003-04-04 | Victor Co Of Japan Ltd | 顔画像検索装置 |
JP2006505878A (ja) * | 2002-11-07 | 2006-02-16 | 本田技研工業株式会社 | 変化する照明条件下での物体の外観のクラスタリング |
JP2006244385A (ja) * | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | 顔判別装置およびプログラム並びに顔判別装置の学習方法 |
JP2006293644A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理装置、情報処理方法 |
JP2007048169A (ja) * | 2005-08-12 | 2007-02-22 | Fujifilm Corp | 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム |
WO2008059752A1 (fr) | 2006-11-14 | 2008-05-22 | Nippon Telegraph And Telephone Corporation | Procédé d'encodage et procédé de décodage de signal d'image, procédé d'encodage et procédé de décodage de source d'information, dispositifs pour ceux-ci, leurs programmes, et support de mémoire avec programme enregistré |
JP2008191743A (ja) * | 2007-02-01 | 2008-08-21 | Omron Corp | 顔認証装置 |
JP2010224837A (ja) * | 2009-03-23 | 2010-10-07 | Toshiba Corp | 顔認証を利用した情報処理方法および情報表示装置 |
WO2012157196A1 (ja) * | 2011-05-18 | 2012-11-22 | パナソニック株式会社 | 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム |
US8363933B2 (en) | 2008-08-13 | 2013-01-29 | Morpho, Inc. | Image identification method and imaging apparatus |
JP2013127673A (ja) * | 2011-12-16 | 2013-06-27 | Seiko Epson Corp | 識別装置、及び、識別方法 |
JP2013545186A (ja) * | 2010-10-28 | 2013-12-19 | クゥアルコム・インコーポレイテッド | ネットワークにおける視覚探索の実行 |
US8744142B2 (en) | 2009-05-25 | 2014-06-03 | Kabushiki Kaisha Toshiba | Presenting information based on whether a viewer corresponding to information is stored is present in an image |
US9036925B2 (en) | 2011-04-14 | 2015-05-19 | Qualcomm Incorporated | Robust feature matching for visual search |
WO2018235746A1 (ja) * | 2017-06-21 | 2018-12-27 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
JP2019139270A (ja) * | 2018-02-06 | 2019-08-22 | 公立大学法人会津大学 | 認証システム、認証方法及びコンピュータプログラム |
JP2020009381A (ja) * | 2018-07-12 | 2020-01-16 | 日産自動車株式会社 | 個人照合方法及び個人照合装置 |
JP2020503604A (ja) * | 2016-12-05 | 2020-01-30 | アビギロン コーポレイションAvigilon Corporation | 外観検索のシステムおよび方法 |
CN113490955A (zh) * | 2019-02-25 | 2021-10-08 | 谷歌有限责任公司 | 用于产生金字塔层的架构的系统和方法 |
WO2024009412A1 (ja) * | 2022-07-05 | 2024-01-11 | 日本電信電話株式会社 | 判定装置、判定方法、および、判定プログラム |
-
1999
- 1999-06-21 JP JP11174568A patent/JP2001005967A/ja active Pending
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099777A (ja) * | 2001-09-21 | 2003-04-04 | Victor Co Of Japan Ltd | 顔画像検索装置 |
JP2006505878A (ja) * | 2002-11-07 | 2006-02-16 | 本田技研工業株式会社 | 変化する照明条件下での物体の外観のクラスタリング |
JP2006244385A (ja) * | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | 顔判別装置およびプログラム並びに顔判別装置の学習方法 |
JP2006293644A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理装置、情報処理方法 |
JP4580307B2 (ja) * | 2005-08-12 | 2010-11-10 | 富士フイルム株式会社 | 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム |
JP2007048169A (ja) * | 2005-08-12 | 2007-02-22 | Fujifilm Corp | 検出画像領域決定装置および対象画像の特徴量算出装置ならびにそれらの制御方法およびそれらの制御プログラム |
WO2008059752A1 (fr) | 2006-11-14 | 2008-05-22 | Nippon Telegraph And Telephone Corporation | Procédé d'encodage et procédé de décodage de signal d'image, procédé d'encodage et procédé de décodage de source d'information, dispositifs pour ceux-ci, leurs programmes, et support de mémoire avec programme enregistré |
KR101010938B1 (ko) | 2006-11-14 | 2011-01-25 | 니폰덴신뎅와 가부시키가이샤 | 화상 신호 부호화 방법 및 복호 방법, 정보원 부호화 및 복호 방법, 이들의 장치 및 이들의 프로그램을 기록한 기억 매체 |
US8300966B2 (en) | 2006-11-14 | 2012-10-30 | Nippon Telegraph And Telephone Corporation | Image signal encoding method and decoding method, information source encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs to process gaussian integer signal |
JP2008191743A (ja) * | 2007-02-01 | 2008-08-21 | Omron Corp | 顔認証装置 |
US8363933B2 (en) | 2008-08-13 | 2013-01-29 | Morpho, Inc. | Image identification method and imaging apparatus |
JP2010224837A (ja) * | 2009-03-23 | 2010-10-07 | Toshiba Corp | 顔認証を利用した情報処理方法および情報表示装置 |
JP4686619B2 (ja) * | 2009-03-23 | 2011-05-25 | 株式会社東芝 | 顔認証を利用した情報処理方法および情報表示装置 |
US8401249B2 (en) | 2009-03-23 | 2013-03-19 | Kabushiki Kaisha Toshiba | Method and apparatus for information processing |
US8675927B2 (en) | 2009-03-23 | 2014-03-18 | Kabushiki Kaisha Toshiba | Method and apparatus for information processing |
US8744142B2 (en) | 2009-05-25 | 2014-06-03 | Kabushiki Kaisha Toshiba | Presenting information based on whether a viewer corresponding to information is stored is present in an image |
JP2013545186A (ja) * | 2010-10-28 | 2013-12-19 | クゥアルコム・インコーポレイテッド | ネットワークにおける視覚探索の実行 |
US9036925B2 (en) | 2011-04-14 | 2015-05-19 | Qualcomm Incorporated | Robust feature matching for visual search |
WO2012157196A1 (ja) * | 2011-05-18 | 2012-11-22 | パナソニック株式会社 | 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム |
US8978120B2 (en) | 2011-05-18 | 2015-03-10 | Panasonic Intellectual Property Management Co., Ltd. | Communication control system and method, and communication device and method |
JP2013127673A (ja) * | 2011-12-16 | 2013-06-27 | Seiko Epson Corp | 識別装置、及び、識別方法 |
JP2022023887A (ja) * | 2016-12-05 | 2022-02-08 | アビジロン コーポレイション | 外観検索のシステムおよび方法 |
JP2020503604A (ja) * | 2016-12-05 | 2020-01-30 | アビギロン コーポレイションAvigilon Corporation | 外観検索のシステムおよび方法 |
US11113587B2 (en) | 2016-12-05 | 2021-09-07 | Avigilon Corporation | System and method for appearance search |
JP7317919B2 (ja) | 2016-12-05 | 2023-07-31 | モトローラ ソリューションズ インコーポレイテッド | 外観検索のシステムおよび方法 |
JP2019008383A (ja) * | 2017-06-21 | 2019-01-17 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
CN110770784A (zh) * | 2017-06-21 | 2020-02-07 | 佳能株式会社 | 图像处理装置、成像装置、图像处理方法、程序、以及存储介质 |
WO2018235746A1 (ja) * | 2017-06-21 | 2018-12-27 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
US11354537B2 (en) | 2017-06-21 | 2022-06-07 | Canon Kabushiki Kaisha | Image processing apparatus, imaging apparatus, image processing method, and storage medium |
CN110770784B (zh) * | 2017-06-21 | 2023-09-01 | 佳能株式会社 | 图像处理装置、成像装置、图像处理方法、程序、以及存储介质 |
JP2019139270A (ja) * | 2018-02-06 | 2019-08-22 | 公立大学法人会津大学 | 認証システム、認証方法及びコンピュータプログラム |
JP2020009381A (ja) * | 2018-07-12 | 2020-01-16 | 日産自動車株式会社 | 個人照合方法及び個人照合装置 |
CN113490955A (zh) * | 2019-02-25 | 2021-10-08 | 谷歌有限责任公司 | 用于产生金字塔层的架构的系统和方法 |
WO2024009412A1 (ja) * | 2022-07-05 | 2024-01-11 | 日本電信電話株式会社 | 判定装置、判定方法、および、判定プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001005967A (ja) | 画像送信装置及びニューラルネットワーク | |
RU2697638C1 (ru) | Способ и устройство для автономной аутентификации личности | |
CN110310343B (zh) | 图像处理方法及装置 | |
CN110147710B (zh) | 人脸特征的处理方法、装置和存储介质 | |
JP2766200B2 (ja) | 磁気トランザクションカードの画像の圧縮、記憶及び取り出し方法とその装置 | |
JP2002269564A (ja) | ダゥベシス・ウェーブレット変換を用いたアイリス認識方法 | |
US6236749B1 (en) | Image recognition method | |
JP7197575B2 (ja) | 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 | |
US20020122573A1 (en) | Three dimensional face identification system | |
EP1411459A1 (en) | Method and apparatus for extracting feature vector used for face recognition and retrieval | |
JP2000508488A (ja) | ディジタル画像情報の多重解像度変換のシステム及び方法 | |
Lu et al. | Learning a deep vector quantization network for image compression | |
JP2001160062A (ja) | 画像データ検索装置 | |
EP2870568B1 (en) | Method for transforming an image descriptor based on a gradient histogram and relative image processing apparatus | |
CN111491167B (zh) | 图像编码方法、转码方法、装置、设备以及存储介质 | |
CN110312138B (zh) | 基于时序残差卷积建模的高嵌入容量视频隐写方法和系统 | |
Horvath et al. | Effects of jpeg xr compression settings on iris recognition systems | |
CN113379858A (zh) | 一种基于深度学习的图像压缩方法及装置 | |
KR100502980B1 (ko) | 주정차 단속 시스템 및 방법 | |
CN113128278A (zh) | 一种图像识别方法及装置 | |
Dhivya et al. | 2-level DWT based copy move forgery detection with SURF features | |
JP4891278B2 (ja) | 顔画像の特徴抽出方法及び識別信号作成方法 | |
CN114972925A (zh) | 一种语音和图像识别芯片及其识别算法 | |
Hämmerle-Uhl et al. | Evolutionary optimisation of JPEG2000 Part 2 wavelet packet structures for polar iris image compression | |
Perlmutter | Compression and classification of images using vector quantization and decision trees |