JP3307354B2 - 人物識別方法及び装置と人物識別プログラムを記録した記録媒体 - Google Patents

人物識別方法及び装置と人物識別プログラムを記録した記録媒体

Info

Publication number
JP3307354B2
JP3307354B2 JP02158399A JP2158399A JP3307354B2 JP 3307354 B2 JP3307354 B2 JP 3307354B2 JP 02158399 A JP02158399 A JP 02158399A JP 2158399 A JP2158399 A JP 2158399A JP 3307354 B2 JP3307354 B2 JP 3307354B2
Authority
JP
Japan
Prior art keywords
head
image
face
person
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02158399A
Other languages
English (en)
Other versions
JP2000222576A (ja
Inventor
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP02158399A priority Critical patent/JP3307354B2/ja
Publication of JP2000222576A publication Critical patent/JP2000222576A/ja
Application granted granted Critical
Publication of JP3307354B2 publication Critical patent/JP3307354B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、映像中の人物を識
別する技術に関し、特に、正面顔による人物識別装置と
方法並びに人物識別プログラムを記録した記録媒体に関
する。
【0002】
【従来の技術】顔の映像を用いて人物を識別する方式
は、従来よりいくつか提案されている。最近の顔検出、
識別技術の動向は、例えば文献(1)(赤松 茂、“コ
ンピュータによる顔の認識−サーベイ−”、電子情報通
信学会論文誌、Vol.J80-D-II,No.8,pp.2031-2046,Augus
t 1997)に記載されている。一般に、顔識別システム
は、画像中から顔を検出する処理と、顔パターンからの
特徴抽出処理と、特徴量を辞書データと比較する人物識
別処理と、を備えて構成されている。
【0003】顔画像の検出方式としては、文献(2)
(小杉 信、“個人識別のための多重ピラミッドを用い
たシーン中の顔の探索・位置決め”、電子情報通信学会
論文誌、Vol.J77-D-II,No.4,pp.672-681,April 1994)
に記載されているように濃淡パターンを用いたテンプレ
ートマッチングを行うものや、文献(3)(M.Turk, A.
Pentland, “Face Recognition on Using Eigenfac
es”, Proceedings ofIEEE,CVPR91)に記載されている
ような、顔画像の固有ベクトル投影距離方式が知られて
いる。
【0004】また、例えば特開平9−251534号公
報には、目、鼻、口といった造作を検出し、その位置関
係から正面顔濃淡パターンを切り出す方法も提案されて
いる。
【0005】顔検出の代表的な例として、M.Turkらによ
る固有ベクトル投影距離方式について説明する。
【0006】あらかじめ多くの正面顔データ(数百枚)
を用意する。それらの画素値を特徴ベクトルとして、固
有値と固有ベクトルを求める。固有値の大きい順にp個
の固有ベクトルVn(n=1,..p)を求める。
【0007】テスト画像tを固有ベクトルVnに投影す
ると、p個の投影値が得られる。これらの投影値と、固
有ベクトルVn から、テスト画像を再構成することによ
り、再構成テスト画像t’が得られる。
【0008】もしもtが顔パターンに近ければ、再構成
テスト画像t’も顔パターンに近い画像が得られる。そ
こで次式(1)で与えられる距離尺度Dtによって、顔
であるかどうかを判断する。
【0009】
【0010】顔識別の特徴量としては、目、鼻、口とい
った顔造作の幾何学的特徴を用いるものと、大局的な濃
淡パターンの照合によるものとの2種類があるが、シー
ン中の顔パターンは、顔の向きや表情が変化すると造作
の位置関係も変化するため、近時、後者の大局的な濃淡
パターンを用いる方法が現在主流となっている。
【0011】顔画像の識別、照合方法としては例えば、
上記文献(2)(小杉 信、“個人識別のための多重ピ
ラミッドを用いたシーン中の顔の探索・位置決め”、電
子情報通信学会論文誌、Vol.J77-D-II,No.4,pp.672-68
1,April 1994)では、濃淡パターンを特徴ベクトルと考
え、特徴ベクトル間の内積が大きいカテゴリを識別結果
としている。 また、上記文献(3)(M.Turk, A.Pentl
and, “Face Recognition on Using Eigenfaces”, Pro
ceedings of IEEE,CVPR91)では、顔画像の固有ベクト
ルへの投影値を特徴ベクトルとし、それらのユークリッ
ド距離の小さいカテゴリを識別結果としている。
【0012】また従来、画像認識機能を持ったロボット
装置としては、例えば特願平10−151591号に記
載された装置がある。このロボット装置は、画像中から
色情報を抽出し、色パターンに応じて動作を変化させる
ことができる。しかしながら、人物を認識する機能手段
は具備していない。
【0013】
【発明が解決しようとする課題】上記した従来のシステ
ムは下記記載の問題点を有している。
【0014】第一の問題点は、家庭環境のように照明条
件が一定でない環境では人物識別が出来ないということ
である。
【0015】その理由は、一般環境における顔の検出が
困難であるためである。例えばテンプレートマッチング
法は、画像中の顔パターンと辞書パターンとがほとんど
濃度値でない限り、検出することは困難であり、照明方
向が少しでもずれていたり、あるいは辞書の人物と異な
る人物の場合には、ほとんど検出不可能である。一方、
固有ベクトル投影距離方式は、テンプレートマッチング
に比べると、検出性能は高いものの、照明方向が違って
いたり、また複雑な背景を持つ画像では、同様に、検出
は失敗する。
【0016】また、照明条件が一定でない環境で人物識
別が出来ないもう一つの理由は、従来の特徴抽出方式と
識別方式が、照明変動による特徴量の変動を吸収できな
いためである。
【0017】したがって、本発明は、上記問題点に鑑み
てなされたものであって、その目的は、家庭環境のよう
な一般環境において、安定して人物を識別できる人物識
別システムを提供することにある。
【0018】また本発明の他の目的は、一般環境におい
て人物を識別できる人物識別方法と人物識別プログラム
を記録した記録媒体を提供することにある。
【0019】
【課題を解決するための手段】前記目的を達成する本発
明に係る人物識別方法は、入力画像から人間の頭部矩形
座標を検出する頭部検出ステップと、検出された頭部矩
形の中から正面顔を探索するステップと、探索された正
面顔画像から特徴量を抽出するステップと、線形判別辞
書を参照しながら抽出された特徴量と辞書に登録された
人物特徴との類似度を算出することによって人物を識別
するステップとを備えたことを特徴とする。そして、頭
部検出ステップにおいて、入力画像を取得する映像取得
装置の向いた方向に存在する物体との対面距離値取得ス
テップと、対面距離値と検出した頭部矩形座標を元に頭
部誤検出を排除するステップとを含むことを特徴とす
る。
【0020】また本発明に係る人物識別装置は、画像を
取得する映像取得手段と、画像中から人間の頭部を検出
する頭部検出追跡手段と、検出された頭部の部分画像中
から正面顔画像を取得する正面顔位置合わせ手段と、正
面顔画像を特徴量に変換する顔特徴抽出手段と、識別辞
書を用いて特徴量から人物を識別する顔識別手段と、識
別辞書を保存する識別辞書記憶手段とを備えたことを特
徴とする。そして頭部検出追跡手段において、1枚の画
像から頭部を検出する単眼視頭部矩形座標検出手段と、
対面距離値と頭部矩形座標値とから頭部の誤検出を取り
除く対面距離評価手段とを備えたことを特徴とする。そ
して顔識別手段において、線形判別辞書と特徴データか
ら登録されている人物への類似度を算出する積和演算手
段と、登録されている人物への類似度の最大値を求める
最大類似度人物判定手段と、最大類似度をしきい値処理
して他人かどうかを判定するしきい値処理手段とを備え
たことを特徴とする。
【0021】本発明に係るプログラムを記録した記録媒
は、(a)入力画像から人の頭部を検出する頭部検出
追跡処理、(b)前記検出された頭部の部分画像中から
正面顔画像を取得する正面顔位置合わせ処理、(c)前
記正面顔画像を特徴量に変換する顔特徴抽出処理、
(d)識別辞書を用いて前記特徴量から人物を識別する
顔識別処理、及び、(e)前記顔識別処理の結果を過去
Nフレーム分(Nは2以上の整数)加重平均する識別結
果補正処理、の前記(a)〜(e)の各処理をコンピュ
ータに実行させるためのプログラムを記録している。
下の説明でも明らかとされるように上記目的は、請求項
1〜56のいずれかに記載の本発明によって達成され
る。
【0022】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
【0023】図1は、本発明に係る人物識別装置の一実
施の形態の構成を示す図である。図1を参照すると、本
発明の一実施の形態をなす人物識別装置14は、映像取
得手段2と、対面距離センサ5と、人物検出識別手段1
と、人物検出識別管理部13と、辞書データ管理部12
と、を備えている。映像取得手段2は、右カメラ3と左
カメラ4とを備え、それぞれのカメラ映像情報を取得す
る。対面距離センサ5は、カメラの光軸と同じ方向に設
置されており、映像中の物体との対面距離を計測する。
対面距離センサ5の例として、超音波センサ、赤外線セ
ンサなどがある。人物検出識別管理部13は、人物検出
識別手段1に対する動作開始命令と動作終了命令の送信
と、辞書データ管理部12への特徴データ送信、辞書作
成命令の送信を行なう。
【0024】本発明の一実施の形態において用いられる
カメラとしては、例えばビデオカメラ、デジタルCCD
カメラ等を含み、動きのある情景を、静止画像の連続と
して出力することのできる撮影デバイスを総称してい
る。
【0025】人物検出追跡手段1は、頭部検出追跡手段
5と、正面顔位置合わせ手段7と、顔特徴抽出手段8
と、顔識別手段9と、識別辞書記憶手段10と、識別結
果補正手段11とを備えている。
【0026】人物検出追跡手段1は、人物検出識別管理
部13から動作開始命令を受けると、辞書データ管理部
12から識別辞書記憶手段10に識別用辞書をロードし
た後、動作を開始する。
【0027】図18は、本発明の一実施の形態における
人物検出識別手段1の処理を説明するための流れ図であ
る。図1及び図18を参照して、人物検出識別手段1の
動作を説明する。
【0028】はじめに、頭部検出追跡手段5は、映像取
得手段2からの画像情報と、対面距離センサ5の読み取
り値をもとに、現在のフレームにおける人物の頭部の数
と、頭部矩形座標を出力する(ステップS1)。
【0029】次に、検出した頭部数を評価する(ステッ
プS2)。検出した頭部数が0の場合には、次のフレー
ムの映像を入力して頭部検出を行い、検出数が1以上に
なるまで、ステップS1は継続される。
【0030】頭部検出数が1以上の時、正面顔位置合わ
せ手段7に検出結果が送信される。正面顔位置合わせ手
段7では、顔領域の探索処理を行い(ステップS3)、
正面顔領域が見つかったかどうかを判断する(ステップ
S4)。
【0031】正面顔が見つかると、顔中心部の矩形画像
である正面顔画像を出力する。ステップS3とステップ
S4の処理は、頭部の誤検出を排除し、さらに人物がカ
メラの正面を向いている映像のみを抽出して後段の処理
に送る事を目的としている。正面顔を発見できなかった
ときは、再びステップS1から処理を行う。
【0032】正面顔を発見した時は、次に顔特徴抽出手
段8において、正面顔画像を特徴量データに変換する
(ステップS5)。
【0033】顔特徴抽出手段8の一例は、図8に示すよ
うに、正面顔画像を左から右へ1ライン毎にスキャン
し、上から下へ1ライン終われば次のラインをスキャン
して1次元データを生成し(「ラスタスキャン」とい
う)、それを特徴データとして用いるものである。その
他、1次微分フィルタや2次微分フィルタを用いてフィ
ルタリングし、エッジ情報を抽出したものを、ラスタス
キャンして特徴データとする方法を用いてもよい。
【0034】次に、顔識別手段9において、識別辞書記
憶手段10の辞書データを参照して顔識別処理を行う
(ステップS6)。
【0035】次に、識別結果補正手段11において、過
去mフレーム分(mは2以上の整数)の識別結果との統
合処理を行い(ステップS7)、その結果を、人物検出
識別管理部13に出力する(ステップS8)。
【0036】この時、頭部検出追跡手段5(ステップS
1)において、複数の頭部矩形を検出し、それらを全て
処理していない時は(ステップS9のNo分岐)、もう
一度正面顔位置合わせ手段7による(ステップS3)か
ら処理を行なう。人物検出識別手段1は、人物識別管理
部13から終了指示を受けて終了する(ステップS1
0)。終了指示があるまでは再びステップS1から処理
を継続して行う。
【0037】図2は、図1の頭部検出追跡手段6の一実
施例をなす頭部検出追跡手段27の構成を示す図であ
る。図2を参照すると、頭部検出追跡手段27は、頭部
検出手段21と、頭部追跡手段22と、頭部矩形座標記
憶手段23とを備えている。頭部検出手段21は、頭部
矩形座標検出手段24と、左右画像照合手段25と、対
面距離統合手段31と、対面距離評価手段26とを備え
ている。
【0038】図19は、頭部検出追跡手段27の処理を
説明するための流れ図である。図2及び図19を参照し
て、本発明の一実施例をなす頭部検出追跡手段27の動
作を説明する。
【0039】右カメラの映像と左カメラの映像と、対面
距離センサの読み取り値が頭部検出手段21に入力され
る。頭部検出手段21は、入力された情報から人物頭部
の検出処理を行い、頭部矩形座標と頭部検出数を出力す
る(ステップS10)。
【0040】頭部検出数が1以上の場合には、頭部検出
数と頭部矩形座標を、頭部矩形座標記憶手段23に保存
した後に、出力する(ステップS18)。
【0041】頭部検出数が0の場合には、頭部追跡手段
22において、前のフレームにおける頭部矩形情報を、
頭部矩形記憶手段23から取り出し、頭部追跡処理を行
う(ステップS19)。
【0042】頭部追跡に成功した場合には、追跡に成功
した頭部数と頭部矩形座標を出力し、追跡に失敗した場
合には検出数0を出力する(ステップS20)。
【0043】次に、図19のステップ10の頭部検出手
段21の動作について詳細に説明する。頭部検出手段2
1では、まず左右どちらか一方の映像を頭部矩形座標検
出手段24に入力し、仮頭部検出数と仮頭部矩形座標を
得る(ステップS11)。
【0044】図2に示した頭部矩形座標検出手段24で
は右カメラ映像を用いている。次に、左右画像照合手段
25において、得られた頭部矩形座標と左右カメラの映
像を用いて、ステレオ視の原理をもとに対面距離値を算
出する(図19のステップS12)。
【0045】図6を参照して、図2の左右画像照合手段
25の動作を説明する。右カメラ画像において検出され
た頭部矩形を、頭部検出矩形51とする。そして頭部検
出矩形51内の画像データを用いて、左カメラ画像の同
じ検出座標位置の近傍を探索する。探索方法の一例はテ
ンプレートマッチングである。右カメラ画像の濃淡値を
FR(x,y)、左カメラ画像の濃淡値をFL(x,y)、矩形の
横サイズをTw、縦サイズをThとすると、テンプレー
トの左上始点位置が、左カメラ画像の(sx,sy)にある時
のマッチング距離Dtmは、次式(2)で表される。
【0046】
【0047】上式(2)は、右カメラと左カメラの部分
画像間のユークリッド距離を表している。Dtmが最も小
さい時の左カメラ画像上の座標を、探索結果52とす
る。探索結果52が求まると、次に左右の矩形座標値を
比較し、人物頭部への距離を算出する。
【0048】図32を参照して、対象物への距離算出方
法の一例を示す。図32は、左右のカメラを使って、あ
る一つの対象物体403を撮影している状況を、上から
見た図である。右カメラ401と左カメラ402が、間
隔Cを空けて平行に設置されている。カメラの画角はθ
で左右共に同じとする。カメラの撮像面の横方向の長さ
をeとする。この状態で、右カメラ画像には、対象物4
03が座標 Xr に写っており、左カメラ画像には座標
Xlに写っている。なお画像の最大横サイズはW画素で
ある。この時、カメラ撮像面から、対称物403までの
対面距離Zは、次式(3)で算出することができる。
【0049】ここで、eは通常1cm未満の小さい値で
あることから、0として近似計算することもできる。以
上のようにして、左右カメラ画像から対面距離を算出す
る。
【0050】そして、左右画像照合手段25において、
ステレオ視によって対面距離を算出した後、対面距離統
合手段31において、対面距離センサ30の出力値をも
とに、対面距離の統合処理を行う(図19のステップS
13)。実験的に、超音波センサ等の距離センサは、距
離が1m未満の場合には非常に精度が高い。一方、1m
以上の遠い距離では誤差が大きくなる傾向にある。
【0051】ステレオ視により算出された距離値は、カ
メラの画角にもよるが概ね3m程度まで有効であるが、
距離が近すぎると、かえって誤差が大きくなる傾向にあ
る。そこで、両者の距離値を統合する方法として、対面
距離センサ30の出力があるしきい値Tよりも小さい場
合には、対面距離センサの値を採用し、しきい値Tより
も大きい場合にはステレオ視による距離値を採用すると
いう方法が用いられる。
【0052】対面距離を統合した後、対面距離評価手段
26において、対面距離値と画像中の頭部矩形座標値か
ら、頭部の実際のサイズを算出する(図19のステップ
S14)。
【0053】算出結果が、人間の頭の大きさにほぼ一致
すれば、本当に頭部を検出したと判定する。算出結果が
実際の頭のサイズから著しくかけ離れる場合には、誤検
出であると判断する(図19ステップS15)。例え
ば、頭部の横サイズが12cmプラスマイナス2cm以
内で、かつ縦サイズが20cmプラスマイナス4cm以
内の場合は頭部と見做し、それ以外の場合は頭部ではな
い、と判断する。
【0054】実際のサイズに合っている場合には、検出
数を1増やす(図19ステップS16)。
【0055】評価していない仮頭部矩形座標が残ってい
る時は(図19のステップS17のNo分岐)、再びス
テップS12から処理を行う。頭部検出手段12は仮頭
部矩形座標を全て評価し終わった時点で(図19のステ
ップS19のYes分岐)、頭部検出数と頭部矩形座標
を出力する。
【0056】次に、図2に示した頭部矩形座標検出手段
24について説明する。図4は、頭部矩形座標検出手段
24の一実施例をなす頭部矩形座標検出手段41の構成
を示す図である。図4を参照すると、頭部矩形座標検出
手段41は、動き画素検出手段42と、ノイズ除去手段
47と、人物数評価手段43と、頭頂座標検出手段44
と、頭部下部座標検出手段45と、側頭座標検出手段4
6とを備えている。
【0057】図20は、頭部矩形座標検出手段41の処
理を説明するための流れ図である。図20、図4、及び
図5を参照して、頭部矩形座標検出手段41の動作につ
いて説明する。
【0058】まず動き画素検出手段42において、画面
内で動きのある画素群を検出する。入力画像データと、
それより1つ前に入力された画像データとの差分をと
り、差分画像gを生成する(ステップS21)。
【0059】さらに過去mフレーム分(mは2以上の整
数)の差分画像gを加算し平均をとる事によって、統合
差分画像Gを得る(ステップS22)。統合差分画像G
は、動きのない領域の画素値が0で、動きのある領域ほ
ど画素値が大きい値を取る。
【0060】統合差分画像Gは、ごま塩ノイズを多く含
むので、ノイズ除去手段47において、ノイズ除去処理
を行う(ステップS23)。ノイズ除去処理の例として
は、膨張収縮処理や、メジアンフィルタ処理などがあ
る。これらのノイズ除去処理は、画像処理の分野で一般
的であり、当業者にとってよく知られている処理が用い
られるので、その詳細な構成は省略する。
【0061】次に、図4の人物数評価手段43におい
て、画面内に何人の人間がいるのかを評価する。人物数
評価手段43の動作について説明する。図5は、統合差
分画像Gの取得の例を説明するための図である。
【0062】はじめに、人物1人だけを検出する方法に
ついて説明する。統合差分画像G48が得られたとする
と、まず動き領域があるかどうかを判定する(図20の
ステップS24)。ここで動き領域とは、動きのある画
素が占める領域を表わす。この動き領域がない、すなわ
ち統合差分画像Gが全て0の場合には、人物数は0と判
定する。それ以外の場合人物数は1とする。
【0063】次に、複数人物を検出する方法について説
明する。統合差分画像G49が得られたとすると、まず
動き領域の有無を調べる(図20のステップS24)。
動き領域がない場合は人物数0である。動き領域がある
場合、統合差分画像Gを参照して、何人いるのかを判定
する(図20のステップS25)。判定方法としては、
例えば統合差分画像上部領域50における動き領域幅の
最大値が、あるしきい値よりも小さいときは1人、大き
いときは2人、とする方法がある。人物数が2人のとき
は、人物が横に並んでいると仮定し、統合差分領域G
を、部分領域1と部分領域2に分割する。なお3人以上
検出の場合も、分割数を増やすことで対応できる。頭部
矩形を求める際には、部分領域1と部分領域2のそれぞ
れに対して、以下に述べる同じ処理(図20のステップ
S26からステップS29まで)を繰り返せばよい。
【0064】次に、統合差分画像Gから頭部矩形座標を
求める処理について説明する。各スキャンライン毎に動
き領域幅47を求める(図20のステップS26)。
【0065】動き領域幅47は、各スキャンラインにお
いて動き領域のx座標最大値と最小値の差分を表してい
る。
【0066】次に頭頂座標検出手段44によって頭頂の
Y座標を求める(図20のステップS27)。頭頂座標
の求め方としては、動き領域のY座標の最小値を頭頂と
する方法がある。
【0067】次に、頭部下部座標検出手段45によっ
て、頭部矩形の底辺のY座標を求める(図20のステッ
プS28)。頭部矩形の底辺座標を求め方としては、頭
頂から下方向(Y方向)に探索し、動き領域幅47が動
き領域幅の平均値dmよりも小さいラインを求め、その
ラインの中でY座標が最も大きいところを、頭部矩形の
底辺とする方法を用いてもよい。
【0068】次に側頭座標検出手段46によって、頭部
矩形の左右のx座標を求める(図20のステップS2
9)。左右のx座標の求め方としては、頭頂から頭部下
部までの範囲で最も動き領域幅47が大きなラインにお
ける動き領域の左右端の座標を求める方法を用いてもよ
い。
【0069】人物数が2つ以上の場合には、図20のス
テップS26からステップS29までの処理を部分領域
毎に繰り返す。
【0070】次に、図2の頭部追跡手段22の動作につ
いて、図7を参照して説明する。追跡処理は、頭部矩形
座標検出に用いたカメラ画像(図2では右カメラ画像)
に対して行なう。まず前フレームの頭部矩形座標53と
前フレームの頭部矩形画像55を、頭部矩形記憶手段2
3から読み出す。
【0071】次に、現フレームにおいて、前フレームの
頭部矩形座標53の近傍領域をテンプレートマッチング
によって探索し、最も距離値の小さい所を追跡結果とす
る。
【0072】図3は、図1の頭部検出追跡手段6の他の
実施例をなす頭部検出追跡手段32の構成を示す図であ
る。図3を参照すると、この頭部検出追跡手段32は、
頭部検出手段33と、頭部矩形記憶手段23と、頭部追
跡手段22とを備えている。図2に示した実施例との相
違点としては、頭部検出手段33が、頭部矩形座標検出
手段24と、対面距離評価手段26とを持ち、単眼のカ
メラ34と対面距離センサ30の出力を用いて検出を行
なっていることである。すなわち、左右のステレオ視に
よる対面距離は考慮せず、対面距離センサの読み取り値
のみを用いて頭部矩形の評価を行なうものである。
【0073】また、頭部検出追跡手段6のその他の実施
例として、対面距離センサを用いずに、左右カメラのみ
の情報から対面距離を求め、頭部矩形を評価するという
構成の頭部検出手段を用いてもよい。この構成の場合、
頭部検出手段21において、図2の対面距離統合手段3
1を除いた構成となる。
【0074】図9は、図1の正面顔位置合わせ手段7の
一実施例をなす正面顔位置合わせ手段61の構成を示す
図である。図9を参照すると、正面顔位置合わせ手段6
1は、頭部矩形切り取り手段62と、正面顔探索手段6
3と、標準顔辞書データ記憶手段64と、正面顔らしさ
判定手段65とを備えて構成されている。
【0075】正面顔らしさ判定手段65は、濃度分散判
定手段66と、しきい値処理手段67とを備えている。
【0076】図21は、正面顔位置合わせ手段61の処
理を説明するための流れ図である。図9及びと図21を
参照して、正面顔位置合わせ手段61の動作について説
明する。正面顔位置合わせ手段61は、画像データと頭
部矩形座標と対面距離が入力されると、正面顔有無フラ
グと正面顔画像データを出力する。入力された画像デー
タは、頭部矩形切り取り手段62において、頭部矩形に
よる部分画像に切り取られる(ステップS41)。この
部分画像を「頭部矩形画像」と呼ぶ。
【0077】次に正面顔探索手段65において、頭部矩
形画像の中から、正面顔領域を探索し、正面顔画像と標
準顔辞書とのパターン間距離又は類似度を出力する(ス
テップS42)。
【0078】次に、正面顔らしさ判定手段65におい
て、正面顔画像が本当に正面顔であるかどうかを判断す
る(ステップS43)。ここで正面顔であると判断され
れば、正面顔有無フラグは「有り」となり、正面顔画像
を出力する。正面顔ではないと判断すれば、正面顔有無
フラグは「無し」となり、正面顔画像は出力しない。
【0079】正面顔らしさ判定手段65は、濃度分散判
定手段66と、しきい値処理手段67とを備えている。
【0080】濃度分散判定手段66は、正面顔画像デー
タの濃淡値の分散を求め、あるしきい値以下の場合に
は、正面顔ではないと判断する(図21のステップS4
4)。
【0081】濃度分散判定手段66により、単調な壁の
ようなパターンを排除することができる。
【0082】しきい値手段67は、パターン間距離又は
類似度をしきい値処理することによって正面顔らしさを
判断する(図21のステップS45)。
【0083】パターン間距離値の場合には、しきい値以
上のときに正面顔ではないと判断する。類似度の場合
は、しきい値以下のときに、正面顔でないと判断する。
【0084】図12は、正面顔位置合わせ手段61の動
作を模式的に示す説明図である。頭部矩形151が検出
されているとすると、図21のステップS41によっ
て、頭部矩形画像152が生成される。
【0085】次に図21のステップS42の顔中心部探
索処理では、縮小頭部矩形画像153が生成された後に
正面顔画像155が得られる。
【0086】なお、正面顔画像とは、図12の正面顔画
像155に示すような、顔の中心部分の画像であり、横
方向は、両目を完全に含む程度で、縦方向は、眉毛から
口全体を含む程度の領域の画像を意味する。
【0087】図10は、正面顔探索手段63の一実施例
をなす正面顔探索手段71の構成を示す図である。図1
0を参照すると、この正面顔探索手段71は、頭部矩形
画像記憶手段89と、頭部中間サイズ算出手段88と、
画像縮小手段90と、中間サイズ記憶手段91と、正面
顔候補抽出手段72と、中間縮小画像記憶手段73と、
コントラスト補正手段74と、固有ベクトル投影距離算
出手段75と、標準顔辞書記憶手段76と、記憶手段7
7と、投影距離最小判定手段78と、探索範囲終了判定
手段79と、多重解像度処理終了判定手段92とを備え
て構成されている。
【0088】固有ベクトル投影距離算出手段75は、平
均差分手段82と、ベクトル投影値算出手段83と、再
構成演算手段84と、投影距離計算手段85とを備えて
構成されている。
【0089】標準顔辞書記憶手段76は、標準顔平均デ
ータ記憶手段80と、標準顔固有ベクトルデータ記憶手
段81とを備えて構成されている。
【0090】記憶手段77は、投影距離最小値記憶手段
86と、正面顔濃淡値記憶手段87とを備えて構成され
ている。
【0091】図22は、正面顔探索手段71の処理を説
明するための流れ図である。図10及び図22を参照し
て、正面顔探索手段71の動作について説明する。頭部
矩形画像データは、頭部矩形画像記憶手段89に保持さ
れている。はじめに頭部中間サイズ算出手段88におい
て、対面距離値と標準顔辞書データのサイズを参照し
て、頭部矩形画像の中間縮小サイズを計算する(ステッ
プS101)。
【0092】頭部中間サイズ算出手段88の処理例につ
いて説明する。中間縮小サイズは、図12の縮小頭部矩
形画像153の縦横サイズとして示されている。頭部矩
形画像152の横サイズをHw、縦サイズをHhとす
る。中間縮小サイズの横サイズをMw、縦サイズをMh
とする。また正面顔画像の横サイズをFw、縦サイズを
Fhとする。Fw,Fhは正面顔探索形状154の縦横
サイズと同一であり、標準顔辞書に対して一意に決定さ
れる。なお、Hh,Hw,Mh,Mw、Fh,Fwはす
べて画素単位のピクセルサイズである。
【0093】標準顔辞書は、図12の正面顔画像155
に示す正面顔領域の濃淡値を特徴値として生成されたパ
ターン認識用の辞書である。正面顔領域とは、横方向は
両目を完全に含む程度で、縦方向は眉毛から口全体を含
む程度の領域を意味する。正面顔領域は必ずしも矩形で
ある必要はなく、楕円形など、両目、鼻、口を含む任意
の連続領域で実現可能である。ただし、形状が矩形であ
れば処理が単純化されて高速化することができるので、
実装形態として有効である。よって、以下では、正面顔
領域を矩形であるものとして説明する。
【0094】正面顔領域の実際の縦横サイズを、RF
h、RFwとすると、男性の大人であれば、大体 RF
w=10cm、RFh=15cm程度で表わすことがで
きる。一方、頭部矩形画像の実際の縦横サイズRHh、
RHwは、対面距離Zが既知であるため、次式(4)に
よって、計算することができる。なお次式(4)の変数
は、図32に対応している。
【0095】
【0096】撮像面の幅eは小さいので通常は無視して
計算しても問題ない。
【0097】標準顔辞書を用いて頭部矩形画像を探索す
るためには、頭部矩形画像を標準顔辞書と同じ解像度に
変換する必要がある。その変換後のサイズが中間縮小サ
イズMw、Mhである。Mh、Mwは、次式(5)の関
係式から求めることができる。
【0098】
【0099】すなわち、頭部中間サイズ算出手段88に
おいて、RFw、RFhを1組指定することによって中
間縮小サイズMw、Mhを1組算出することができる。
しかし人間の正面顔の大きさは大人から子供、女性と男
性で異なっている。そこで、RFw、RFhを複数組用
意し、それぞれに対応する中間縮小サイズを算出するこ
とも可能となっている。あらかじめ複数算出することに
より、後段の正面顔探索処理を複数の中間縮小サイズで
処理することができる。また複数の中間縮小サイズで探
索処理することは、頭部矩形を複数の解像度で探索処理
する行為と同じであると解釈できる。
【0100】頭部中間サイズ算出手段88によって中間
サイズが算出されると、中間サイズ記憶手段91に中間
サイズの情報が記憶される。
【0101】次に最小パターン間距離値 Dmin を、通常
得られるパターン間距離値に比べ十分大きな値に初期化
する(図22のステップS102)。
【0102】中間縮小サイズ記憶手段91の情報を1つ
選択し、画像縮小手段90において、頭部矩形画像を選
択した中間縮小サイズに縮小し、縮小頭部矩形画像を得
る(図22のステップS103)。
【0103】次に正面顔探索位置SX,SYを0に初期
化する(図22のステップS104)。
【0104】次に正面顔候補抽出手段72において、探
索位置SX,SYにおける正面顔候補画像を抽出する
(図22のステップS105)。
【0105】次に正面顔候補画像を明暗の調子を補正す
るため、コントラスト補正手段74によってコントラス
トを補正する(図22のステップS106)。
【0106】コントラスト補正の具体的な方法の例につ
いて説明する。正面顔候補画像が、0からvmaxまでの
値をとるものとし、画素値の平均をμ、標準偏差をσと
すると、元画像Vからコントラスト補正画像V’への変
換式は、次式(6)で表わすことができる。
【0107】
【0108】再び図10及び図22を参照すると、次
に、固有ベクトル投影距離算出手段75において、正面
顔候補画像と標準顔パターンとの固有ベクトル投影距離
Dを求める(ステップS107)。
【0109】次に、投影距離最小判定手段78におい
て、DとDminとを比較する。このときDがDminよりも小さ
い値であれば、DminにDを代入して値を更新し、投影距
離最小値記憶手段86に記憶する。同時に正面顔候補画
像を、正面顔濃淡値記憶手段87に記憶する(ステップ
S108)。
【0110】次に、探索範囲終了判定手段79におい
て、探索位置SX、SYをインクリメントし(ステップ
S109)、頭部矩形を全て探索し終わったかどうかを
判断する(ステップS110)。まだ探索し終わってい
ないときは、再びステップ105より処理を繰り返す。
【0111】頭部矩形の探索範囲を全て探索し終わった
ら、多重解像度処理終了判定手段92において、すべて
の中間縮小サイズで探索したか否かを判断する(ステッ
プS111)。もし、探索していない中間縮小サイズが
あれば、異なる中間縮小サイズを用いて再びステップS
103から処理を開始する。すべての中間縮小サイズで
探索が終了した時点で正面顔探索手段71は終了する。
【0112】次に、図10の固有ベクトル投影距離算出
手段75の動作について説明する。
【0113】標準顔辞書記憶手段76には、標準顔平均
データと、標準顔固有ベクトルデータが記憶されてい
る。
【0114】図33に、特徴量の数がp個の時の、固有
ベクトル投影距離算出用辞書の一例を示す。固有ベクト
ル投影距離算出用辞書は、1からp番めまでのp次元の
固有ベクトルデータEと、p個の特徴量の平均値Aveと
からなる。特徴量がp個のとき、固有ベクトルはp番め
まで存在するが、投影距離算出時には1からm番めまで
を使用する。
【0115】正面顔候補画像の画素値を、図8に示すよ
うにラスタスキャンし、1次元の特徴データに変換す
る。このとき正面顔画像の縦横サイズの積Fw×Fh
は、辞書の特徴量と同じp個でなければならない。これ
をベクトルX:X1、X2,...Xpとする。
【0116】まず平均差分手段82において、ベクトル
Xから平均ベクトルAveを差分する。これをベクトルY
とする。
【0117】
【0118】次にベクトル投影値算出手段83におい
て、ベクトルYをm個の固有ベクトルに投影し、その投
影値R1..Rmを求める。投影値算出方法を、次式
(8)に示す。
【0119】
【0120】次に、再構成演算手段84(図10参照)
において、投影値R1...Rmと、m個の固有ベクト
ルとを用いて元の特徴量Yを再構成し、その再構成ベク
トルをY’とする。再構成の計算を次式(9)に示す。
【0121】
【0122】次に、投影距離計算手段85において、次
式(10)に従い、YとY‘とのユークリッド距離値を
求める。これによって、固有ベクトルEへの投影距離D
が算出される。
【0123】
【0124】図11は、図9の正面顔探索手段63の他
の実施例をなす正面顔探索手段101の構成を示す図で
ある。図11を参照すると、この正面顔探索手段101
は、頭部矩形画像記憶手段89と、頭部中間サイズ算出
手段88と、画像縮小手段90と、中間サイズ記憶手段
91と、正面顔候補抽出手段72と、中間縮小画像記憶
手段73と、コントラスト補正手段74と、積和演算手
段102と、標準顔辞書データ記憶手段104と、記憶
手段105と、類似度最大判定手段103と、探索範囲
終了判定手段79と、多重解像度処理終了判定手段92
とを備えて構成されている。
【0125】記憶手段105は、類似度最大値記憶手段
106と、正面顔濃淡値記憶手段107とを備えてい
る。
【0126】図23は、正面顔探索手段101の処理を
説明するための流れ図である。図11及び図23を参照
して、正面顔探索手段101の動作について説明する。
頭部矩形画像データは、頭部矩形画像記憶手段89に保
持されている。はじめに頭部中間サイズ算出手段88に
おいて、対面距離値と標準顔辞書データのサイズを参照
して、頭部矩形画像の中間縮小サイズを計算し、中間サ
イズ記憶手段91に記憶する(ステップS121)。
【0127】中間縮小サイズの計算方法は正面顔探索手
段71と同一である。次に最大類似度Smaxを0に初期化
する(ステップS122)。
【0128】中間サイズ記憶手段91の情報を1つ選択
し、画像縮小手段90において、頭部矩形画像を選択し
た中間縮小サイズに縮小し、縮小頭部矩形画像を得る
(ステップS123)。
【0129】次に正面顔探索位置SX、SYを0に初期
化する(ステップS124)。
【0130】次に正面顔候補抽出手段72において、探
索位置SX、SYにおける正面顔候補画像を抽出する
(ステップS125)。
【0131】次に正面顔候補画像を明暗の調子を補正す
るため、コントラスト補正手段74によってコントラス
トを補正する(ステップS126)。
【0132】次に積和演算手段102において、正面顔
候補画像と標準顔パターンとの類似度Sを求める(ステ
ップS127)。
【0133】次に類似度最大値判定手段103におい
て、SとSmaxとを比較する。このときSがSmaxよりも
大きい値であれば、SmaxにSを代入して値を更新し、
類似度最大値記憶手段106に記憶する。同時に正面顔
候補画像を正面顔濃淡値記憶手段107に記憶する(ス
テップS128)。
【0134】次に探索範囲終了判定手段79において、
探索位置SX、SYをインクリメントし(ステップS1
29)、頭部矩形を全て探索し終わったかどうかを判断
する(ステップS130)。まだ探索し終わっていない
ときは、再びステップ125より処理を繰り返す。
【0135】頭部矩形の探索範囲を全て探索し終わった
ら、多重解像度処理終了判定手段92において、すべて
の中間縮小サイズで探索したかどうかを判断する。もし
探索していない中間縮小サイズがあれば、異なる中間縮
小サイズを用いて再びステップS123から処理を開始
する。
【0136】すべての中間縮小サイズで探索が終了した
時点で正面顔探索手段101は終了する。
【0137】次に、図11に示した、標準顔パターンと
の類似度を算出する積和演算手段102の動作について
説明する。
【0138】積和演算手段102は、正面顔かそれ以外
かを判別する線形判別辞書を参照して類似度Sを算出す
る。図34に、線形判別辞書の一例を示す。図34に
は、q個のクラスを判別する辞書が示されているが、標
準顔辞書データ記憶手段104は、正面顔とそれ以外の
2つのクラスを判別する辞書であり、q=2の場合に相
当する。
【0139】正面顔候補画像の画素値を、図8に示すよ
うにラスタスキャンし、1次元の特徴データに変換す
る。このとき正面顔画像の縦横サイズの積Fw×Fh
は、辞書の特徴量と同じp個でなければならない。これ
をベクトルX:X1、X2,...Xpとする。
【0140】また標準顔辞書データとして、q=1のク
ラスが正面顔を、q=2のクラスがそれ以外を表わすも
のとして説明する。正面顔との類似度は、図34のq=
1の行、すなわちクラス1の識別係数422のみを用い
て、次式(11)によって計算することができる。
【0141】
【0142】積和演算手段95は、上式(11)を演算
することによって、類似度を算出する。
【0143】図13には、図1の顔識別手段9の一実施
例をなす顔識別手段111と、図1の識別辞書記憶手段
10の一実施例をなす識別辞書記憶手段112と、図1
の識別結果補正手段11の一実施例をなす識別結果補正
手段113とが示されている。図13を参照すると、顔
識別手段111は、特徴データ記憶手段115と、積和
演算手段116と、最大類似度人物判定手段118と、
しきい値処理手段117とを備えて構成されている。識
別辞書記憶手段112は、登録人物識別用辞書記憶手段
119を有する。識別結果補正手段113は、識別結果
加重平均算出手段114を有する。
【0144】図24は、顔識別手段111と識別結果補
正手段113の処理を説明するための流れ図である。図
13及び図24を参照して、顔識別手段111と識別結
果補正手段113の動作について説明する。
【0145】特徴データが入力され、特徴データ記憶手
段115に記憶される(ステップS51)。
【0146】次に、登録人物識別用辞書記憶手段119
のデータを参照し、積和演算手段116において、登録
された人物への類似度を、人物毎にそれぞれ算出する
(ステップS54)。
【0147】類似度の算出方法は、標準顔パターンとの
類似度を算出する積和演算手段102の動作と基本的に
同じである。ただし、識別するクラス数は登録されてい
る人物数となる。
【0148】辞書としてq人分のデータが登録されてい
る場合には、登録人物識別用辞書記憶手段119には、
図34に示す線形判別辞書と同じ数のデータが保持され
ることになる。そして積和演算手段116により、次式
(12)に示すように、q個の類似度Si:(i=
1,...q)が得られる。
【0149】
【0150】このように、図34に示す線形判別辞書に
よる積和演算処理で求められた類似度の大きさによって
パターンを識別する方法を、「線形判別辞書による類似
度識別」と呼ぶ。
【0151】再び図13及び図24を参照すると、次
に、最大類似度人物判定手段118において、算出され
たq個の類似度の中で最大値を求め、それに対応する人
物を求める(ステップS55)。すなわち、特徴データ
と最も似ていると判断される人物を求める。この時の類
似度を「最大類似度」と呼ぶ。
【0152】次に、しきい値処理手段117において、
最大類似度をあらかじめ定められたしきい値と比較する
(ステップS56)。
【0153】顔識別手段111は、最大類似度がしきい
値よりも高いときは、確かに人物を識別したと判断し、
そのID番号と最大類似度を出力する。最大類似度がし
きい値よりも低いときは、登録されている人物(本人)
ではない他人である可能性が高いので、「他人」という
情報を出力する。
【0154】識別結果補正手段113は、識別結果を受
け取った後、識別結果加重平均算出手段114によっ
て、過去Nフレームにおける識別結果を統合する(ステ
ップS57)。識別結果加重平均算出手段114の動作
の例として、過去Nフレームにおける識別人物IDと類
似度、あるいは他人判定結果を、以下のように加重平均
する方法がある。
【0155】ステップA1:過去Nフレームの中で、一
定割合のフレーム数が「他人」の時は、「他人」とす
る。他人でないと判定された場合にはステップA2へ進
む。
【0156】ステップA2:過去Nフレームの中で、人
物iという判定がNiフレームあるものとする(i=
1...q)。それぞれの人物の類似度加重平均値を次
式(13)で算出する。Siは人物iの類似度を表し、
SSiは人物iの類似度加重平均値を表す。SSiの最
も大きい人物IDを、識別結果として出力する。
【0157】
【0158】識別結果補正手段113は、上記のように
して統合された識別結果を出力する。
【0159】図15は、図1の顔識別手段9の他の実施
例をなす顔識別手段131の構成、図1の識別辞書記憶
手段10の他の実施例をなす識別辞書記憶手段132の
構成を示す図である。図15を参照すると、顔識別手段
131は、特徴データ記憶手段115と、固有ベクトル
他人判別手段133と、積和演算手段116と、最大類
似度人物判定手段118と、しきい値処理手段117と
を備えている。
【0160】識別辞書記憶手段132は、他人判別用辞
書記憶手段134と、登録人物識別用辞書記憶手段11
9とを備えている。
【0161】図24は、、顔識別手段131の処理を説
明するための流れ図である。図15及び図24を参照し
て、顔識別手段131の動作について説明する。特徴デ
ータが入力され、特徴データ記憶手段115に記憶され
る(ステップS51)。
【0162】次に、他人判別用辞書記憶手段134のデ
ータを参照しながら、固有ベクトル他人判別手段133
によって、登録されている人物群とのパターン間距離D
hを求め(ステップS52)、パターン間距離Dhがし
きい値よりも大きければ他人であると判定する(ステッ
プS53)。パターン間距離Dhは固有ベクトル投影距
離として算出する。すなわち、他人判別用辞書記憶手段
には、登録されている全員の特徴データによって作成さ
れた固有ベクトル辞書が記憶されている。
【0163】固有ベクトル辞書の例は図33に示されて
おり、また固有ベクトル投影距離の算出方法は、固有ベ
クトル投影距離算出手段75の動作の説明において述べ
られている。
【0164】入力された特徴データが、固有ベクトル他
人判別手段133において他人と判断されれば、顔識別
手段131は、積和演算手段116を経ることなく、直
ちに「他人」を出力する。
【0165】固有ベクトル他人判定手段133において
「他人」と判定されなかった場合には、次に、登録人物
識別用辞書記憶手段119のデータを参照し、積和演算
手段116において、登録された人物への類似度を、人
物毎にそれぞれ算出する(ステップS54)。q人の人
物が登録されていればq個の類似度Si:(i=
1,...q)を算出する。
【0166】次に、最大類似度人物判定手段118にお
いて、算出されたq個の類似度の中で最大値を求め、そ
れに対応する人物を求める(ステップS55)。すなわ
ち、特徴データと最も似ていると判断される人物を求め
る。この時の類似度を最大類似度と呼ぶ。次にしきい値
処理手段117において、最大類似度をあらかじめ定め
られたしきい値と比較する(ステップS56)。
【0167】顔識別手段131は、最大類似度がしきい
値よりも高いときは、確かに人物を識別したと判断し、
そのID番号と最大類似度を出力する。最大類似度がし
きい値よりも低いときは、登録されている人物ではない
他人である可能性が高いので、「他人」という情報を出
力する。
【0168】図14は、図1の辞書データ管理部12の
一実施例をなす辞書データ管理部121の構成を示す図
である。図14を参照すると、辞書データ管理部121
は、個人特徴データ記憶手段122と、識別辞書生成手
段123と、セレクタ124とを備えて構成されてい
る。
【0169】識別辞書生成手段123は、線形判別辞書
作成手段126と固有ベクトル辞書作成手段127とを
備えて構成されている。個人特徴データ記憶手段122
内には、人物別特徴データ領域125が、登録された人
数分存在する。
【0170】辞書データ管理部121は、特徴データと
人物ID番号とが入力されると、セレクタ124によっ
て人物ID毎に振り分けられ、個人特徴データ記憶手段
122内の人物ID番号に対応する領域に入力特徴デー
タを記憶する。また、新しい人物IDの追加命令があれ
ば、個人特徴データ記憶手段122内に、新しい人物別
特徴データ領域125を確保し、新しい人物ID番号を
割り当てる。また、既存の人物IDの削除命令があれ
ば、個人特徴データ記憶手段122内の該当するIDの
人物別特徴データ領域125を破棄する。
【0171】また辞書データ管理部121は、識別辞書
作成命令を受けると、識別辞書生成手段123は、個人
特徴データ記憶手段122のデータを用いて、線形判別
辞書である登録人物識別用識別辞書と固有ベクトル辞書
である他人判別用辞書を生成する。登録人物識別用識別
辞書は、線形判別辞書作成手段126において作成され
る。他人判別用辞書は、固有ベクトル辞書作成手段12
7で作成される。
【0172】なお、図1の顔識別手段9が、図13に示
した顔識別手段111の構成を持つ場合は、他人判別用
辞書は不要であるため、識別辞書生成手段123は固有
ベクトル辞書作成手段127を持たない構成としてもよ
い。
【0173】図15は、図1の辞書データ管理部12へ
の登録処理を説明するための流れ図である。図1、図1
4及び図25を参照して、辞書データ管理部121がカ
メラの前にいる新しい人物を登録する時の動作について
説明する。
【0174】人物検出識別管理部13は、新しい人物I
Dを指定して、辞書管理部121に新しい人物の登録を
指示する(ステップS61)。
【0175】辞書データ管理部121は、個人特徴デー
タ記憶手段122内に、指定されたIDに対応する人物
別特徴データ領域125を確保する(ステップS6
2)。
【0176】人物検出識別管理部13は、人物検出識別
手段1内の顔特徴抽出手段8から指定枚数分の特徴デー
タを取得し、辞書データ管理部121に送付する。
【0177】辞書データ管理部121は、新しいIDに
対応する人物別特徴データ領域125に、取得したデー
タを保存する(ステップS63)。
【0178】指定枚数分の取得が完了したら、人物検出
識別管理部13は、辞書データ管理部121に対して識
別辞書の作成を指示する(ステップS64)。
【0179】辞書データ管理部121は、作成指示を受
けると、識別辞書生成手段123の線形判別辞書作成手
段126によって、登録人物用識別辞書を作成する(ス
テップS65)。
【0180】次に、固有ベクトル辞書作成手段127に
よって、他人判別用辞書を作成する(ステップS6
6)。
【0181】そして、作成された辞書を人物検出識別部
の識別辞書記憶手段10に出力し記憶させる(ステップ
S67)。以上の処理により、新規人物の登録処理は終
了する。
【0182】図29は、図14の線形判別辞書作成手段
126の一実施例をなす線形判別辞書作成手段311の
構成を示す図である。図29を参照すると、線形判別辞
書作成手段311は、特徴量X記憶手段312と、分散
共分散行列Cxx算出手段313と、逆行列変換手段3
14と、行列乗算手段315と、目的変数Y記憶手段3
17と、目的変数Y生成手段318と、共分散行列Cx
y算出手段319と、係数記憶手段320と、定数項算
出手段316とを備えて構成されている。
【0183】図31及び図34を参照して、線形判別辞
書の作成方法について説明する。図31には、1人あた
りn枚で、人物1から人物qまでq人分の個人特徴デー
タX341が示されている。また、個人特徴データX3
41の特徴数はp個である。図31の1行が、1枚分の
特徴データを示している。個人特徴データX341は、
図14において個人特徴データ記憶手段122に記憶さ
れており、1人分の個人特徴データがそれぞれ人物別特
徴データ領域125に記憶されている。
【0184】目的変数Y342は、1つの特徴データに
ついて1つ作成され、識別する人物数分の要素を持つベ
クトルである。すなわち、図31において、人物IDは
1からqまでの値をとるので、目的変数YはY1からY
qまで存在する。目的変数Y342の値は、0か1の2
値であり、特徴データが属する人物のベクトル要素が1
で、その他は0である。すなわち人物2の特徴データで
あれば、Y2要素だけが1で他は0となる。
【0185】図34は、線形判別辞書の形式の一例を示
す図である。線形判別辞書は、定数項421と、乗算項
425の2種類の係数からなる。乗算項からなるマトリ
クスをAij(i=1,...p、j=1,....
q)、定数項からなるベクトルをA0j(j=
1,....q)とすると、マトリクスAijは、次式
(14)から求められる。
【0186】
【0187】上式(14)において、Cxxは個人特徴
データX341の全てのデータを用いたこの分散共分散
行列である。この分散共分散行列Cxxは、次式(1
5)で算出される。
【0188】個人特徴データXの要素を、xij:(i
=1....N、j=1,...p)で表わす。Nは全
データ数で、pは特徴数である。図31に示す例では、
1人につきn枚のデータがあることから、N=nqであ
る。x ̄は、xの平均値を表わす。
【0189】
【0190】Cxyは、個人特徴データXと目的変数Y
との共分散行列である。共分散行列Cxyは、次式(1
6)に従って算出される。x ̄、y ̄は、x、yの平均
値を表わす。
【0191】
【0192】また、定数項A0jは、次式(17)に従
って算出される。
【0193】
【0194】はじめにCxxを算出し、その逆行列を求
める。次にCxyを求める。最後にこれらの行列を乗算
して乗算項マトリクスAijを求め、最後に定数項A0
jを求める。
【0195】図29は、線形判別辞書作成手段311の
処理を説明するための図である。図29を参照して、線
形判別辞書作成手段311の動作を説明する。入力され
た個人特徴データ群は、特徴量X記憶手段312に記憶
される。
【0196】入力された個人特徴データ群と人物IDを
用いて、目的変数Y生成手段318によって目的変数Y
が生成される。生成した目的変数Yは、目的変数Y記憶
手段317に記憶される。
【0197】次に、分散共分散行列Cxx算出手段31
3において、分散共分散行列Cxxを算出する。
【0198】次に、逆行列変換手段314において、分
散共分散行列Cxxの逆行列を算出する。
【0199】次に、共分散行列Cxy算出手段319に
おいて、共分散行列Cxyを算出する。
【0200】次に、行列乗算手段315において、乗算
項Aijを算出し、係数記憶手段320に乗算項Aij
データを記憶する。
【0201】次に、定数項算出手段316において、定
数項A0jを算出し、係数記憶手段320に記憶する。
【0202】最後に、係数記憶手段320のデータを出
力して終了する。
【0203】なお、図31では、0と1の2値データを
示したが、線形判別辞書作成手段311においては、0
と100等の他の2値データを用いることも可能であ
る。
【0204】図30は、図14の固有ベクトル辞書作成
手段127の一実施例をなす固有ベクトル辞書作成手段
331を示す図である。固有ベクトル辞書作成手段33
1は、特徴量記憶手段332と、特徴量平均算出手段3
33と、分散共分散行列算出手段334と、固有ベクト
ル算出手段335と、係数記憶手段336と備えて構成
されている。
【0205】図31と図33とを参照して、固有ベクト
ル辞書の作成方法について説明する。個人特徴データX
の要素を、xij:(i=1....N、j=
1,...p)で表わす。
【0206】はじめにXの特徴量ごとの平均値を求め
る。次に、Xの分散共分散行列Cxxを、上式(15)
を用いて算出する。分散共分散行列Cxxの固有ベクト
ルを求める。固有ベクトルを求める方法は、当業者によ
って広く知られており、本発明とは直接関係しないこと
から、その詳細は省略する。
【0207】以上の操作により、図33に示すような形
式の固有ベクトル辞書が得られる。固有ベクトルは特徴
量の数(p個)だけ得られる。図33では、1行分が1
つの固有ベクトルを表わしている。
【0208】図30は、固有ベクトル辞書作成手段33
1の構成及び処理を説明するための図である。図30を
参照して、固有ベクトル辞書作成手段331の動作につ
いて説明する。
【0209】個人特徴データが入力されると、特徴量記
憶手段332に記憶される。
【0210】次に、特徴量平均算出手段333におい
て、特徴量の平均値が求め、係数記憶手段336に記憶
する。次に分散共分散行列算出手段334において、分
散共分散行列Cxxを算出する。
【0211】次に、固有ベクトル算出手段335におい
て、分散共分散行列Cxxの固有ベクトルを算出し、係
数記憶手段336に記憶する。最後に、係数記憶手段3
36のデータを出力して終了する。
【0212】図16は、参考例として、本発明の人物識
別装置を用いたロボット装置の構成を示す図である。図
16を参照すると、このロボット装置201は、CCD
カメラ202と、人物検出識別手段203と、辞書デー
タ管理部204と、人物検出識別管理部205と、全体
制御部206と、スピーカ207と、ロボット移動手段
208とを備えている。ロボット移動手段208は、モ
ータ209と、車輪210とを備えている。
【0213】人物検出識別手段203は、CCDカメラ
202からのステレオ映像を基に、人物検出と識別を行
なっている。人物検出識別管理部205は、人物検出識
別手段203との情報のやり取り、全体制御部205と
の情報のやり取り、辞書データ管理部204との情報の
やり取りを行なっている。スピーカ207は全体制御部
206に接続され、全体制御部206の指示で発話する
ことができる。また全体制御部206は、ロボット移動
手段208に移動指示を送る。ロボット移動手段208
はモータ209と複数の車輪210を持ち、ロボットを
自由な方向に移動させることができる。
【0214】図26は、参考例のロボット装置の処理を
説明するための図である。図16及び図26を参照し
て、このロボット装置201の動作について説明する。
ロボット装置201は、人物を検出すると、人物の方向
に移動して近づいていき、予め定められた所定の距離以
内に近づいたら人物識別を行なう。
【0215】人物検出識別管理部205は、人物検出識
別手段203内の頭部検出追跡手段から、検出した頭部
の矩形情報と、対面距離値を取得し、全体制御部206
に送信する(ステップS71)。
【0216】全体制御部206では対面距離値を参照
し、対面距離がしきい値よりも近いかどうかを判定する
(ステップS73)。距離がしきい値よりも遠いとき
は、ロボット移動手段208に指令して、人物の方向に
前進する(ステップS72)。
【0217】人物の存在する概略的な方向は、画像内の
頭部矩形座標から類推することができる。ステップS7
1からステップS73を繰り返し、対面距離がしきい値
よりも近くなったら、全体制御部206は、人物検出識
別管理部204から人物識別結果を取得する(ステップ
S74)。
【0218】次に、人物別の音声をスピーカ207から
発声し、人物識別したことを対話者に知らせる(ステッ
プS75)。
【0219】図17は、本発明の人物識別装置を利用し
ロボット装置の一例の構成を示す図である。図17を
参照すると、ロボット装置221は、CCDカメラ20
2と、対面距離センサ223と、タッチセンサ222
と、人物検出識別手段224と、辞書データ管理部20
4と、人物検出識別管理部205と、全体制御部227
と、マイク225と、音声認識手段226と、スピーカ
207と、ロボット移動手段208とを備えて構成され
ている。ロボット移動手段208は、モータ209と、
車輪210とを備えている。
【0220】人物検出識別手段224は、CCDカメラ
202からのステレオ映像と、対面距離センサ223と
の情報を元に、人物検出と識別を行なっている。人物検
出識別管理部205は、人物検出識別手段224との情
報のやり取り、全体制御部227との情報のやり取り、
辞書データ管理部204との情報のやり取りを行なって
いる。スピーカ207は全体制御部227に接続され、
全体制御部227の指示で発話することができる。また
全体制御部227は、ロボット移動手段208に移動指
示を送る。ロボット移動手段208はモータ209と複
数の車輪210を持ち、ロボットを自由な方向に移動さ
せることができる。タッチセンサ222は、全体制御部
227に接続されており、外部から物体の接触の有無
と、接触の強さを検出する。マイク225は音声認識手
段226に接続され、音声認識手段226は全体制御部
227に接続されている。音声認識手段226は、マイ
ク225からの音声データから、人の言葉を自動認識
し、認識結果を、全体制御部に送信する。
【0221】図27は、参考例のロボット装置の処理を
説明するための流れ図である。図17及び図27を参照
して、ロボット装置221の動作例について説明する。
【0222】ロボット装置221は、対面している人物
の検出識別を行ない、対話者の反応によって識別辞書を
更新することによって、人物画像の逐次学習を行なう。
【0223】全体制御部227は、人物検出識別管理部
205から人物識別結果を取得する(ステップS8
1)。
【0224】次に識別した人物毎に特定の動作を行なう
(ステップS82)。特定の動作とは、人の名前を発声
したり、人によって車輪を特定方向に動かしたりする行
為全体を差す。
【0225】次に、対話者の反応がセンスされるのを待
つ(ステップS83)。対話者の反応が得られたとき
は、次にその反応がポジティブなものかネガティブなも
のかを判定する(ステップS84)。ポジティブな反応
とは、「Yes」という意味であり、例えば音声認識
で,「はい」を認識した時などがある。
【0226】ネガティブな反応とは、「No」という意
味であり、例えば音声認識で,「いいえ」を認識した時
などがある。
【0227】また、例えば、あらかじめタッチセンサを
1度押下すると「はい」、2度押下すると「いいえ」と
いう規則を予め全体制御部で決めておくことで、タッチ
センサを用いて対話者の反応を取得することができる。
【0228】ステップS84がネガティブな反応の場合
は、もう一度ステップS81から動作を繰り返す。ポジ
ティブな反応の場合には、識別に使用した顔特徴データ
を辞書データ管理部204に入力する(ステップS8
5)。
【0229】そして識別辞書を作成し更新する(ステッ
プS86)。
【0230】終了指示があれば終了し、なければ、再び
ステップS81から動作を繰り返す(ステップS8
7)。
【0231】図28は、本発明の人物識別装置を用いた
ロボット装置の他のの処理を説明するための流れ図で
ある。図17及び図28を参照して、ロボット装置22
1の動作の例について説明する。ロボット装置221
は、対面している人物の検出識別を行ない、対話者の命
令によって新しい人物の画像を取得し、新しい人物辞書
を登録する。
【0232】全体制御部227は、人物検出識別管理部
205から人物識別結果を取得する(ステップS9
1)。
【0233】次に識別した人物毎に特定の動作を行なう
(ステップS92)。特定の動作とは、人の名前を発声
したり、人によって車輪を特定方向に動かしたりする行
為全体を差す。
【0234】次に、対話者の命令がセンスされるのを待
つ(ステップS93)。対話者の命令イベントが得られ
ると、次にその命令イベントが登録命令かどうかを判定
する(ステップS94)。登録命令イベントは、例えば
音声認識で「とうろく」を認識したというイベントがあ
る。また、あらかじめタッチセンサを1度たたくと登録
イベントである、という規則を予め全体制御部で決めて
おくことにより、タッチセンサを用いて登録命令イベン
トを発声させることができる。
【0235】登録命令が来たときは、登録処理を行い、
新しい人物の登録を行なう(ステップS95)。登録処
理ステップS95の一例は、図25に示されており、既
に説明済みである。
【0236】登録処理が終了すると、再びステップS9
1から処理を開始する。登録命令イベントが来なかった
場合は、終了判定を行なう(ステップS96)。
【0237】終了命令があれば終了し、終了命令がない
場合は、再びステップS91から処理を開始する。
【0238】図35は、本発明に係る人物検出識別シス
テムの一実施の形態の構成を示す図である。図35を参
照すると、本発明に係る人物検出識別システムは、映像
取得手段2と、対面距離センサ5と、人物検出識別手段
501と、辞書データ管理部12と、人物検出識別管理
部502と、記録媒体503とを備えている。記録媒体
503には、人物検出識別処理プログラムを記録してお
り、磁気ディスク、半導体メモリ、CD-ROMその他の記録
媒体であってよい。
【0239】人物検出識別処理プログラムは、記録媒体
503から人物検出識別手段501と、人物検出識別管
理部502に読み込まれ、図1を参照して説明した前記
した実施の形態における人物検出識別手段6および人物
検出識別管理部13による処理と同一の処理を実行す
る。
【0240】
【発明の効果】以上説明したように、本発明によれば、
次のような効果を奏する。
【0241】本発明の人物識別方法及び装置は、例えば
家庭環境のように、照明条件の変動が激しい環境下にお
いても、極めて高い識別率で人物を識別することができ
る、という効果を奏する。
【0242】その理由は以下の通りである。すなわち、
本発明においては、画像の濃淡値だけではなく、動きと
対面距離情報を用いて検出識別している、ためである。
また、本発明においては、顔位置合わせ手段により、精
度のよい正面顔を検出している、ためである。さらに、
本発明においては、顔識別手段において、線形判別辞書
による類似度識別を行なっている、ためである。
【0243】そして、本発明においては、人(利用者)
との対話を通じて、装置又はシステムが自ら学習するこ
とで、識別精度を上げる、ように構成したためである。
【0244】また、本発明を用いたロボット装置によれ
ば、ある場所で入力画像が不良で識別できなくても、そ
の後、装置自ら動作することにより、良好な画像を取得
する、ことができる。
【図面の簡単な説明】
【図1】本発明の人物識別装置の一実施の形態の構成を
示すブロック図である。
【図2】本発明の人物識別装置における頭部検出追跡手
段の一実施例の構成を示すブロック図である。
【図3】本発明の人物識別装置における頭部検出追跡手
段の別の実施例の構成を示すブロック図である。
【図4】本発明の人物識別装置における単眼視頭部矩形
座標検出手段の一実施例の構成を示すブロック図であ
る。
【図5】本発明の人物識別装置における頭部検出処理を
説明するための図である。
【図6】本発明の人物識別装置における左右画像照合処
理を説明するための図である。
【図7】本発明の人物識別装置における頭部追跡処理を
説明するための図である。
【図8】本発明の人物識別装置における正面顔画像を特
徴データに変換する際のラスタスキャンの説明図であ
る。
【図9】本発明の人物識別装置における正面顔位置合わ
せ手段の一実施例の構成を示すブロック図である。
【図10】本発明の人物識別装置における正面顔探索手
段の一実施例の構成を示すブロック図である。
【図11】本発明の人物識別装置における正面顔探索手
段の他の実施例の構成を示すブロック図である。
【図12】本発明の人物識別装置における頭部検出処理
と顔位置合わせ処理を説明するための図である。
【図13】本発明の人物識別装置における顔識別手段と
識別辞書記憶手段と識別結果補正手段の各実施例の構成
を示すブロック図である。
【図14】本発明の人物識別装置における辞書データ管
理部の一実施例の構成を示すブロック図である。
【図15】本発明の人物識別装置における顔識別手段と
識別辞書記憶手段と識別結果補正手段の各実施例の構成
を示すブロック図である。
【図16】ロボット装置の一例の構成を示す図である。
【図17】ロボット装置の他の実施例の構成を示す図で
ある。
【図18】本発明の人物識別装置における人物検出処理
と識別処理を説明するための流れ図である。
【図19】本発明の人物識別装置における頭部検出追跡
処理を説明するための流れ図である。
【図20】本発明の人物識別装置における頭部検出処理
を説明するための流れ図である。
【図21】本発明の人物識別装置における正面顔位置合
わせ処理を説明するための流れ図である。
【図22】本発明の人物識別装置における正面顔探索処
理を説明するための流れ図である。
【図23】本発明の人物識別装置における正面顔探索処
理を説明するための流れ図である。
【図24】本発明の人物識別装置における顔識別処理を
説明するための流れ図である。
【図25】本発明の人物識別装置における人物辞書登録
処理を説明するための流れ図である。
【図26】ロボット装置における行動制御を説明するた
めの流れ図である。
【図27】ロボット装置における行動制御を説明するた
めの流れ図である。
【図28】ロボット装置における行動制御を説明するた
めの流れ図である。
【図29】本発明の人物識別装置における線形判別辞書
作成手段の一実施例の構成を示すブロック図である。
【図30】本発明の人物識別装置における固有ベクトル
辞書作成手段の一実施例の構成を示すブロック図であ
る。
【図31】本発明の人物識別処理に用いる線形判別辞書
作成方法を説明するための図である。
【図32】本発明の人物識別処理に用いるステレオ視に
よる対面距離算出方法を説明するための図である。
【図33】本発明の人物識別処理に用いる固有ベクトル
投影距離辞書の説明図である。
【図34】本発明の人物識別処理に用いる線形判別辞書
の説明図である。
【図35】本発明の人物識別装置の他の実施例の構成を
示すブロック図である。
【符号の説明】
1 人物検出識別手段 2 映像取得手段 3 右カメラ 4 左カメラ 5 対面距離センサ 6 頭部検出追跡手段 7 正面顔位置合わせ手段 8 顔特徴量抽出手段 9 顔識別手段 10 識別辞書記憶手段 11 識別結果補正手段 12 辞書データ管理部 13 人物検出識別管理部 14 人物識別装置 21 頭部検出手段 22 頭部追跡手段 23 頭部矩形記憶手段 24 単眼視頭部矩形座標検出手段 25 左右画像照合手段 26 対面距離評価手段 27 頭部検出追跡手段 28 右カメラ 29 左カメラ 30 対面距離センサ 31 対面距離統合手段 32 頭部検出追跡手段 33 頭部検出手段 34 CCDカメラ 41 頭部矩形座標検出手段 42 動き画素検出手段 43 人物数評価手段 44 頭頂座標検出手段 45 頭部下部座標検出手段 46 側頭座標検出手段 47 動き領域幅 48 統合差分画像G 49 統合差分画像G 50 統合差分画像上部領域 51 頭部検出矩形 52 探索結果 53 前フレームの頭部矩形座標 54 サーチ軌跡 55 前フレームの頭部矩形画像 61 正面顔位置合わせ手段 62 頭部矩形切り取り手段 63 正面顔探索手段 65 正面顔らしさ判定手段 66 濃度分散判定手段 67 しきい値処理手段 71 正面顔探索手段 72 正面顔候補抽出手段 73 中間縮小画像記憶手段 74 コントラスト補正手段 75 固有ベクトル投影距離算出手段 76 標準顔辞書記憶手段 77 記憶手段 78 投影距離判定手段 79 探索範囲終了判定手段 80 標準顔平均データ記憶手段 81 標準顔固有ベクトルデータ記憶手段 82 平均差分手段 83 ベクトル投影値算出手段 84 再構成演算手段 85 投影距離計算手段 86 投影距離最小値記憶手段 87 正面顔濃淡値記憶手段 88 頭部中間サイズ算出手段 89 頭部矩形画像記憶手段 90 画像縮小手段 91 中間サイズ記憶手段 92 多重解像度処理終了判定手段 101 正面顔探索手段 102 積和演算手段 103 類似度最大判定手段 104 標準顔辞書データ記憶部 105 記憶手段 106 類似度最大値記憶手段 107 正面顔濃淡値記憶手段 111 顔識別手段 112 識別辞書記憶手段 113 識別結果補正手段 114 識別結果加重平均算出手段 115 特徴データ記憶手段 116 積和演算手段 117 しきい値処理手段 118 最大類似度人物判定手段 119 登録人物用識別辞書記憶手段 121 辞書データ管理部 122 個人特徴データ管理部 123 識別辞書生成手段 124 セレクタ 125 人物別特徴データ 126 線形判別辞書作成手段 127 固有ベクトル辞書作成手段 131 顔識別手段 132 識別辞書記憶手段 133 他人判別手段 134 他人判別用辞書記憶手段 151 頭部矩形 152 頭部矩形画像 153 縮小頭部矩形画像 154 正面顔探索形状 155 正面顔画像 201 ロボット装置 202 CCDカメラ 203 人物検出識別手段 204 辞書データ管理部 205 人物検出識別管理部 206 全体制御部 207 スピーカ 208 ロボット移動手段 209 モータ 210 車輪 221 ロボット装置 222 タッチセンサ 223 対面距離センサ 224 人物検出識別手段 225 マイク 226 音声認識手段 227 全体制御部 311 線形判別辞書作成手段 312 特徴量X記憶手段 313 分散共分散行列Cxx算出手段 314 逆行列変換手段 315 行列乗算手段 316 定数項算出手段 317 目的変数Y記憶手段 318 目的変数Y生成手段 319 共分散行列Cxy算出手段 320 係数記憶手段 331 固有ベクトル辞書作成手段 332 特徴量記憶手段 333 特徴量平均算出手段 334 分散共分散行列算出手段 335 固有ベクトル算出手段 336 係数記憶手段 341 個人特徴データX 342 目的変数Y 343 特徴データ平均値 344 目的変数平均値 401 右カメラ 402 左カメラ 403 対象物 411 1番目の固有ベクトル 412 2番目の固有ベクトル 413 P番目の固有ベクトル 414 平均値 421 定数項 422 クラス1の識別係数 423 クラス2の識別係数 424 クラスqの識別係数 425 乗算項 501 人物検出識別処理部 502 記憶手段 503 記録媒体
フロントページの続き (56)参考文献 特開 平5−166090(JP,A) 特開 平8−55133(JP,A) 特開 昭63−191282(JP,A) 特開 平9−322155(JP,A) 特開 平6−231252(JP,A) 特開 平8−161498(JP,A) 特開 平8−210847(JP,A) 特開 平7−225841(JP,A) 特開 平3−51996(JP,A) 特開 平9−91429(JP,A) 特開 平9−50528(JP,A) 特開 平4−256087(JP,A) 特開 平10−301917(JP,A) 特開 平5−34126(JP,A) 特開 平7−41118(JP,A) 特開 昭61−150483(JP,A) 特開 昭62−249298(JP,A) 特開 昭63−157593(JP,A) 特開 平6−150005(JP,A) 特開 平7−65149(JP,A) 特開 平5−297152(JP,A) 特開 平7−311833(JP,A) 特開 平8−153187(JP,A) 特開 平9−160534(JP,A) 特開 平4−246788(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 G08B 13/00 - 15/02 JICSTファイル(JOIS)

Claims (31)

    (57)【特許請求の範囲】
  1. 【請求項1】(a)入力画像から人の頭部を検出するス
    テップと、 (b)前記検出された頭部の部分画像中から正面顔画像
    を取得するステップと、 (c)前記正面顔画像を特徴量に変換する顔特徴抽出ス
    テップと、 (d)識別辞書を用いて前記特徴量から人物を識別する
    顔識別ステップと、 (e)前記顔識別ステップの処理結果を過去Nフレーム
    分(Nは2以上の整数)平均し、識別結果を補正するス
    テップと、 を含む、ことを特徴とする人物識別方法。
  2. 【請求項2】(a)入力画像から人の頭部矩形座標を検出
    するステップと、 (b)前記検出された頭部矩形の中から正面顔を探索する
    ステップと、 (c)前記探索された正面顔画像から特徴量を抽出するス
    テップと、 (d)人物を識別するための識別係数を有し、特徴量の数
    をp、判別するクラス数をqとしてp×qの要素の乗算
    項マトリクスとq次元の定数項ベクトルからなる線形判
    別辞書を参照して、前記抽出された特徴量と、前記線形
    判別辞書に登録された識別係数との演算から類似度を算
    出することにより人の識別を行うステップと、 を含み、 前記検出された頭部矩形の中から正面顔を探索するステ
    ップ(b)が、 (b-1)濃淡値を正規化することでコントラストを補正す
    るステップと、 (b-2)標準顔の特徴量の固有ベクトルデータと特徴量の
    平均値からなる固有ベクトル投影距離算出辞書を用い
    て、正面顔候補画像の特徴量Xと平均ベクトルの差分Y
    を複数の固有ベクトルに投影し該投影値からもとの特徴
    量を再構成したベクトルY′と前記ベクトルYとの距離
    (「固有ベクトル投影距離」という)を算出するステッ
    プと、 (b-3)正面顔探索に用いる正面顔辞書のサイズと、映像
    取得装置の向いた方向に存在する物体との間の対面距離
    に応じた頭部中間サイズを複数算出するステップと、 (b-4)前記頭部中間サイズに頭部矩形画像を複数回縮小
    するステップと、 (b-5)複数の縮小画像において前記固有ベクトル投影距
    離を算出するステップと、 を含むことを特徴とする人物識別方法。
  3. 【請求項3】(a)入力画像から人の頭部矩形座標を検出
    るステップと、 (e)前フレームにおいて検出された頭部矩形を現フレー
    ムで追跡処理するステップと、 (b)前記検出された頭部矩形の中から正面顔を探索する
    ステップと、 (c)前記探索された正面顔画像から特徴量を抽出するス
    テップと、 (d)人物を識別するための識別係数を有し、特徴量の数
    をp、判別するクラス数をqとしてp×qの要素の乗算
    項マトリクスとq次元の定数項ベクトルからなる線形判
    別辞書を参照して、前記抽出された特徴量と、前記線形
    判別辞書に登録された識別係数との演算から類似度を算
    出することにより人の識別を行うステップと、 を含み、 前記検出された頭部矩形の中から正面顔を探索するステ
    ップ(b)が、 (b-1)濃淡値を正規化することでコントラストを補正す
    るステップと、 (b-2)標準顔の特徴量の固有ベクトルデータと特徴量の
    平均値からなる固有ベクトル投影距離算出辞書を用い
    て、正面顔候補画像の特徴量Xと平均ベクトルの差分Y
    を複数の固有ベクトルに投影し該投影値からもとの特徴
    量を再構成したベクトルY′と前記ベクトルYとの距離
    (「固有ベクトル投影距離」という)を算出するステッ
    プと、 (b-3)正面顔探索に用いる正面顔辞書のサイズと、映像
    取得装置の向いた方向に存在する物体との間の対面距離
    に応じた頭部中間サイズを複数算出するステップと、 (b-4)前記頭部中間サイズに頭部矩形画像を複数回縮小
    するステップと、 (b-5)複数の縮小画像において前記固有ベクトル投影距
    離を算出するステップと、 を含むことを特徴とする人物識別方法。
  4. 【請求項4】前記入力画像から人の頭部矩形座標を検出
    するステップ(a)が、 (a-1)前記入力画像を取得する映像取得装置の向いた方
    向に存在する映像対象物体との対面距離値を算出するス
    テップと、 (a-2)算出された対面距離値と、検出された前記頭部矩
    形座標とを基に、頭部誤検出を排除するステップと、を
    含むことを特徴とする請求項2または3記載の人物識別
    方法。
  5. 【請求項5】前記入力画像から人の頭部矩形座標を検出
    するステップ(a)が、 (a-1)左右2つのカメラからの入力画像から映像取得装
    置の向いた方向に存在する映像対象物体との対面距離値
    を算出するステップと、 (a-2)前記算出された対面距離値と、検出された前記頭
    部矩形座標とを基に、頭部誤検出を排除するステップ
    と、を含むことを特徴とする請求項2または3記載の人
    物識別方法。
  6. 【請求項6】請求項2乃至5のいずれか一に記載の人物
    識別方法において、 前記入力画像から人の頭部矩形座標を検出するステップ
    (a)が、 (a-3)前フレームとの差分画像gを生成するステップ
    と、 (a-4)前記差分画像gを過去mフレーム分(但し、mは
    2以上の整数)積分し、統合差分画像Gを生成するステ
    ップと、 (a-5)前記統合差分画像Gからライン毎に動き領域幅を
    算出するステップと、 (a-6)前記動き領域幅から頭部矩形座標を取得するステ
    ップと、 を含むことを特徴とする人物識別方法。
  7. 【請求項7】前記人の識別を行うステップ(d)が、 (d−1)登録されている人物の特徴量の固有ベクトルデ
    ータと特徴量の平均値とを格納する他人判別用辞書を用
    いて、前記探索された正面顔画像の前記特徴量 と前記他
    人判別用辞書に格納された前記平均値との差分Y2を前
    記他人判別用辞書に格納された前記固有ベクトルに投影
    し、当該投影値からもとのY2を再構成したベクトルY
    2’と前記ベクトルY2との距離Dh(「他人判別距
    離」という)を算出し、当該算出した他人判別距離Dh
    を用いて、前記探索された正面顔画像の人が登録されて
    いる人物かどうかの判定を行うステップと、 記ステップ(d−1)登録されている人物であると判
    された場合に、(d−2)前 記線形判別辞書を参照して、抽出された特徴
    量と、前記線形判別辞書に登録された識別係数との演算
    から類似度を算出するステップと、(d−3) 前記類似度が最大である人物IDを求めるステ
    ップと、 を含むことを特徴とする請求項2乃至6のいずれか一に
    記載の人物識別方法。
  8. 【請求項8】請求項2から7いずれか一に記載の人物識
    別方法において、 (i)現フレームの人物識別結果を過去Nフレーム分(但
    し、Nは2以上の整数)平均を取るステップを含むこと
    を特徴とする人物識別方法。
  9. 【請求項9】請求項2から8いずれか一に記載の人物識
    別方法において、 前記頭部矩形座標を検出するステップ(a)において、1
    フレーム内から複数の人物の頭部を検出し、 前記正面顔を探索するステップ(b)において、複数の頭
    部から正面顔を探索し、 前記人物を識別するステップ(d)において、複数の正面
    顔について識別を行なうステップをそれぞれ含むことを
    特徴とする人物識別方法。
  10. 【請求項10】画像を取得する映像取得手段と、 前記取得された画像情報から人の頭部を検出する頭部検
    出追跡手段と、 前記検出された頭部の部分画像中から正面顔画像を取得
    する正面顔位置合わせ手段と、 正面顔画像を特徴量に変換する顔特徴抽出手段と、 識別辞書を用いて特徴量から人物を識別する顔識別手段
    と、 識別辞書を保存する識別辞書記憶手段と、 前記顔識別手段から出力される識別結果を過去Nフレー
    ム分(Nは2以上の整数)平均する識別結果補正手段
    と、 を備えたことを特徴とする人物識別装置。
  11. 【請求項11】(a)入力画像から人の頭部を検出する
    頭部検出追跡処理、 (b)前記検出された頭部の部分画像中から正面顔画像
    を取得する正面顔位置合わせ処理、 (c)前記正面顔画像を特徴量に変換する顔特徴抽出処
    理、 (d)識別辞書を用いて前記特徴量から人物を識別する
    顔識別処理、及び、 (e)前記顔識別処理の結果を過去Nフレーム分(Nは
    2以上の整数)平均する識別結果補正処理、 の前記(a)〜(e)の各処理をコンピュータに実行さ
    せるためのプログラムを記録した記録媒体。
  12. 【請求項12】請求項11記載の記録媒体において、 (f)人物識別に使用する識別辞書が、人物を識別する
    ための識別係数を有し、特徴量の数をp、判別するクラ
    ス数をqとしてp×qの要素の乗算項マトリクスとq次
    元の定数項ベクトルからなる線形判別辞書からなり、前
    記線形判別辞書を生成する処理をコンピュータに実行さ
    せるためのプログラムを記録した記録媒体。
  13. 【請求項13】請求項11又は12に記載の記録媒体に
    記録されたプログラムにおいて、 前記頭部検出追跡処理(a)が、 1フレームの画像から頭部矩形領域を検出する頭部検出
    処理と、 前フレームの頭部矩形画像を現フレームでマッチング処
    理する頭部追跡処理と、を備えたことを特徴とする記録
    媒体。
  14. 【請求項14】請求項13記載の記録媒体に記録された
    プログラムにおいて、 前記頭部検出追跡処理(a)における1フレームの画像
    から頭部矩形領域を検出する頭部検出処理が、 1枚の画像から頭部を検出する単眼視頭部矩形座標検出
    処理と、 左右2つのカメラからの画像を照合して対面距離値を算
    出する左右画像照合処理と、 前記対面距離値と前記頭部矩形領域の座標値とから、頭
    部の誤検出を取り除く対面距離評価処理とを備えたこと
    を特徴とする記録媒体。
  15. 【請求項15】請求項14記載の記録媒体に記録された
    プログラムにおいて、 前記頭部検出追跡処理の(a)における1フレームの画
    像から頭部矩形領域を検出する前記頭部検出処理が、 1枚の画像から頭部を検出する単眼視頭部矩形座標検出
    処理と、 前記対面距離値と前記頭部矩形領域の座標値とから、頭
    部の誤検出を取り除く対面距離評価処理とを備えたこと
    を特徴とする記録媒体。
  16. 【請求項16】請求項11又は12記載の記録媒体に記
    録されたプログラムにおいて、 前記頭部検出追跡処理(a)が、 前フレームとの差分画像gの生成処理と、 差分画像gを過去mフレーム(mは2以上の整数)積分
    し統合差分画像Gを生成する処理を行なう動き画素検出
    処理と、 を備えたことを特徴とする記録媒体。
  17. 【請求項17】請求項11又は12記載の記録媒体に記
    録されたプログラムにおいて、 前記頭部検出追跡処理(a)が、 前フレームとの差分画像gの生成処理と、 差分画像gを過去mフレーム(mは2以上の整数)積分
    し統合差分画像Gを生成する処理を行なう動き画素検出
    処理と、 前記統合差分画像Gから人物数を取得する人物数評価処
    理と、 頭頂のY座標を取得する頭頂座標検出処理と、 頭部下部のY座標を検出する頭部下部座標検出処理と、 側頭部のX座標を検出する側頭座標検出処理と、 を備えたことを特徴とする記録媒体。
  18. 【請求項18】請求項14または15に記載された記録
    媒体に記録されたプログラムにおいて、 正面顔位置合わせ処理(b)が、前記対面距離値と前記頭
    部矩形領域の画像を用いて、正面顔を探索する正面顔探
    索処理を備えたことを特徴とする記録媒体。
  19. 【請求項19】請求項18記載の記録媒体に記録された
    プログラムにおいて、 前記正面顔位置合わせ処理が、 前記正面顔探索処理で得られた正面顔画像の濃度分散を
    求め、濃度分散値によって正面顔の誤検出を排除する濃
    度分散判定処理と、 前記正面顔探索処理で得られたパターン間距離をあらか
    じめ定められたしきい値と比較する処理と、 を備えたことを特徴とする記録媒体。
  20. 【請求項20】請求項18又は19記載の記録媒体に記
    録されたプログラムにおいて、 前記正面顔探索処理が、 前記対面距離値から中間縮小サイズを算出する頭部中間
    サイズ算出処理と、 頭部画像を頭部中間サイズに縮小する画像縮小処理と、 濃度を正規化するコントラスト補正処理と、 固有ベクトル投影距離を算出する固有ベクトル投影距離
    算出処理と、 固有ベクトル投影距離の最小値を求める投影距離最小判
    定処理と、 を備え、 前記固有ベクトル投影距離算出処理が、 標準顔の特徴量の固有ベクトルデータと特徴量の平均値
    からなる固有ベクトル投影距離算出辞書を用いて、特徴
    量ベクトルXから平均値ベクトルを差分しベクトルYと
    する平均差分処理と、 前記ベクトルYを所定個数(m個)の前記固有ベクトル
    に投影し投影値を求めるベクトル投影値算出処理と、 前記投影値とm個の固有ベクトルから元の特徴量Y′を
    再構成する再構成演算処理と、 前記ベクトルYと前記ベクトルY′の距離(「固有ベク
    トル投影距離」という)を求める投影距離計算処理とを
    備えたことを特徴とする記録媒体。
  21. 【請求項21】請求項18又は19記載の記録媒体に記
    録されたプログラムにおいて、 前記正面顔探索処理が、 前記対面距離値から中間縮小サイズを算出する頭部中間
    サイズ算出処理と、 頭部画像を頭部中間サイズに縮小する画像縮小処理と、 濃度を正規化するコントラスト補正処理と、 人物を識別するための識別係数を有し、特徴量の数を
    p、判別するクラス数をqとしてp×qの要素の乗算項
    マトリクスとq次元の定数項ベクトルからなる線形判別
    辞書を用いて、特徴量とあるクラスの識別係数との積和
    演算により類似度を算出する積和演算処理と、 前記類似度の最大値を求める類似度最大判定処理と、 を備えたことを特徴とする記録媒体。
  22. 【請求項22】請求項12から21のいずれか一に記載
    の記録媒体に記録されたプログラムにおいて、 顔識別処理のための前記線形判別辞書を作成する線形判
    別辞書作成処理を備えたことを特徴とする記録媒体。
  23. 【請求項23】請求項12から21のいずれか一に記載
    の記録媒体に記録されたプログラムにおいて、 顔識別処理のための前記線形判別辞書を作成する線形判
    別辞書作成処理と、登録されている人物の特徴量の固有ベクトルデータと特
    徴量の平均とを格納する他人判別用辞書を作成する他人
    判別用辞書作成処理 とを備え 前記顔識別処理が、前記変換された正面顔画像の特徴量
    と前記他人判別用辞書に格納された前記平均値との差分
    Y2を前記他人判別用辞書に格納された前記固有ベクト
    ルに投影し、該投影値からもとのY2を再構成したベク
    トルY2’と前記ベクトルY2との距離Dh(「他人判
    別距離」という)を算出し、当該算出した他人判別距離
    Dhを用いて、前記探索された正面顔画像の人が登録さ
    れている人物かどうかの判定を行う処理を含む ことを特
    徴とする記録媒体。
  24. 【請求項24】請求項12から21のいずれか一に記載
    の記録媒体に記録されたプログラムにおいて、 人物を識別するための識別係数を有し、特徴量の数を
    p、判別するクラス数をqとしてp×qの要素の乗算項
    マトリクスとq次元の定数項ベクトルからなる顔識別処
    理のための前記線形判別辞書を作成する線形判別辞書作
    成処理が、 個人特徴データ記憶手段に記憶された特徴量の分散共分
    散行列Cxxを算出する分散共分散行列Cxx算出処理
    と、 前記分散共分散行列Cxxの逆行列を算出する逆行列算
    出処理と、 人物IDと特徴データから、1つの特徴データに対して
    1つ生成され、識別する人物分の要素をもつベクトルで
    ある目的変数Yを生成する処理と、 特徴量Xと目的変数Yの共分散行列Cxyを算出する分
    散共分散行列Cxy算出処理と、 前記Cxxの逆行列と前記共分散行列Cxyを乗算し前
    記線形判別辞書の乗算項マトリクスを算出する行列乗算
    処理と、 前記線形判別辞書の定数項ベクトルを算出する定数項算
    出処理と、 を備えたことを特徴とする記録媒体。
  25. 【請求項25】請求項23記載の記録媒体に記録された
    プログラムにおいて、 前記他人判別用辞書作成処理が、 前記特徴量Xの平均をとる特徴量平均算出処理と、 前記特徴量Xの分散共分散行列Cxxを算出する分散共
    分散行列算出処理と、 前記分散共分散行列Cxxの固有ベクトルを算出する固
    有ベクトル算出処理と、を備えたことを特徴とする記録
    媒体。
  26. 【請求項26】請求項5に記載の人物識別方法におい
    て、 同一物体の左カメラ画像上の座標Xlと、右カメラ画像
    上の座標Xrと、定数Kを用いて、Z=K/(Xl−X
    r)なる計算によって、対面距離Zを求める、ことを特
    徴とする人物識別方法。
  27. 【請求項27】請求項14または15に記載の記録媒体
    に記録されたプログラムにおいて、 同一物体の左カメラ画像上の座標Xlと、右カメラ画像
    上の座標Xrと、定数Kを用いて、Z=K/(Xl−X
    r)なる計算によって対面距離Zを求める処理を含む左
    右画像照合処理を有することを特徴とする記録媒体。
  28. 【請求項28】請求項5に記載の人物識別方法におい
    て、 前記頭部中間サイズを算出するステップが、次式 と(但し、Hw、Hnは頭部矩形画像の横サイズ、縦サ
    イズ、RHw、RHnは正面顔領域の横サイズ、縦サイ
    ズ、Zは対面距離値、eは撮像面の幅、Wは画像サイ
    ズ、θはカメラの画角である) と、を用いて、中間サイズMw、Mhを求めることを特
    徴とする人物識別方法。
  29. 【請求項29】請求項14に記載の記録媒体に記録され
    たプログラムにおいて、次式、 と、(但し、Hw、Hnは頭部矩形画像の横サイズ、縦
    サイズ、RHw、RHnは正面顔領域の横サイズ、縦サ
    イズ、Zは対面距離値、eは撮像面の幅、Wは画像サイ
    ズ、θはカメラの画角である) を用いて中間サイズMw,Mhを求める処理を含む左右
    画像照合処理を有することを特徴とする記録媒体。
  30. 【請求項30】請求項2から9のいずれか一に記載の人
    物識別方法において、 前記正面顔を探索するステップが、次式、 (但し、Vは元画像、μは画素値の平均、σは標準偏
    差、Vmaxは画素値の最大値)を用いてコントラスト
    補正を行なうことを特徴とする人物識別方法。
  31. 【請求項31】請求項18から21のいずれか一に記載
    の記録媒体に記録されたプログラムにおいて、 前記正面顔探索処理が、次式、 (但し、Vは元画像、μは画素値の平均、σは標準偏
    差、Vmaxは画素値の最大値)を用いてコントラスト
    補正を行なうことを特徴とする記録媒体。
JP02158399A 1999-01-29 1999-01-29 人物識別方法及び装置と人物識別プログラムを記録した記録媒体 Expired - Fee Related JP3307354B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02158399A JP3307354B2 (ja) 1999-01-29 1999-01-29 人物識別方法及び装置と人物識別プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02158399A JP3307354B2 (ja) 1999-01-29 1999-01-29 人物識別方法及び装置と人物識別プログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001158402A Division JP3823760B2 (ja) 2001-05-28 2001-05-28 ロボット装置

Publications (2)

Publication Number Publication Date
JP2000222576A JP2000222576A (ja) 2000-08-11
JP3307354B2 true JP3307354B2 (ja) 2002-07-24

Family

ID=12059069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02158399A Expired - Fee Related JP3307354B2 (ja) 1999-01-29 1999-01-29 人物識別方法及び装置と人物識別プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3307354B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010016048A (ko) * 2000-10-16 2001-03-05 장기영 다기능 홈 퍼스널 로봇
JP4143305B2 (ja) 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
JP2002342759A (ja) 2001-01-30 2002-11-29 Nec Corp 情報提供システム、情報提供方法、およびそのプログラム
JP4675492B2 (ja) * 2001-03-22 2011-04-20 本田技研工業株式会社 顔画像を使用した個人認証装置
JP2002298142A (ja) * 2001-03-29 2002-10-11 Minolta Co Ltd 人物画像検出方法、この方法を実行するためのプログラムを記録した記録媒体、人物画像検出装置及びこの装置を備えた撮影装置
KR20020088880A (ko) * 2001-05-22 2002-11-29 안현기 다기능 로봇 및 그 제어 방법
JP2002352248A (ja) * 2001-05-25 2002-12-06 Nhk Engineering Services Inc 映像オブジェクト抽出支援装置
DE60216411T2 (de) * 2001-08-23 2007-10-04 Sony Corp. Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung
JP2003296711A (ja) 2002-03-29 2003-10-17 Nec Corp 顔画像識別方法、装置およびプログラム
JP2006344100A (ja) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc 認証装置、画像出力装置
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP4860289B2 (ja) * 2006-02-13 2012-01-25 日本電気株式会社 ロボット装置
JP5253102B2 (ja) * 2008-11-13 2013-07-31 将文 萩原 物体判別方法および物体判別装置
JP5721617B2 (ja) 2011-12-28 2015-05-20 キヤノン株式会社 画像処理装置及びその制御方法
JP5900052B2 (ja) 2012-03-15 2016-04-06 オムロン株式会社 登録判定装置、その制御方法および制御プログラム、並びに電子機器
CN103984315A (zh) * 2014-05-15 2014-08-13 成都百威讯科技有限责任公司 一种家用多功能智能机器人
JP6500355B2 (ja) 2014-06-20 2019-04-17 富士通株式会社 表示装置、表示プログラム、および表示方法
JP6429823B2 (ja) * 2016-03-31 2018-11-28 セコム株式会社 特徴量抽出装置
CN106094861B (zh) * 2016-06-02 2024-01-12 零度智控(北京)智能科技有限公司 无人机、无人机控制方法及装置
JP7069667B2 (ja) * 2017-11-30 2022-05-18 富士通株式会社 推定プログラム、推定システム、及び推定方法
KR102111762B1 (ko) * 2018-06-04 2020-05-15 에스케이텔레콤 주식회사 음성 수집 장치 및 방법
CN111652018B (zh) * 2019-03-30 2023-07-11 上海铼锶信息技术有限公司 一种人脸注册方法和认证方法
CN111158486B (zh) * 2019-12-31 2023-12-05 恒信东方文化股份有限公司 一种识别唱跳节目动作的方法及识别系统
CN111209867A (zh) * 2020-01-08 2020-05-29 上海商汤临港智能科技有限公司 一种表情识别方法及装置
CN114299944B (zh) * 2021-12-08 2023-03-24 天翼爱音乐文化科技有限公司 视频处理方法、系统、装置及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2000222576A (ja) 2000-08-11

Similar Documents

Publication Publication Date Title
JP3307354B2 (ja) 人物識別方法及び装置と人物識別プログラムを記録した記録媒体
JP4860289B2 (ja) ロボット装置
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US5642431A (en) Network-based system and method for detection of faces and the like
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
US8942436B2 (en) Image processing device, imaging device, image processing method
JP3823760B2 (ja) ロボット装置
McKenna et al. Tracking faces
US20100296706A1 (en) Image recognition apparatus for identifying facial expression or individual, and method for the same
US20070242856A1 (en) Object Recognition Method and Apparatus Therefor
JP2004133889A (ja) 画像のオブジェクトを認識する方法及びシステム
WO2005114556A2 (en) Sign based human-machine interaction
JP2007213378A (ja) 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
Ratan et al. Object detection and localization by dynamic template warping
Baltzakis et al. Visual tracking of hands, faces and facial features of multiple persons
JP4021873B2 (ja) 顔画像監視システム
CN112784712A (zh) 一种基于实时监控的失踪儿童预警实现方法、装置
JPH07302327A (ja) 物体画像検出方法及び検出装置
Youssef Hull convexity defect features for human action recognition
Zhang et al. Pedestrian detection in binocular stereo sequence based on appearance consistency
Tassone et al. Temporal PDMs for gait classification
JP4789526B2 (ja) 画像処理装置、画像処理方法
CN114581875A (zh) 一种封闭场景下slam自主导航识别方法
Pramadihanto et al. Integrated person identification and expression recognition from facial images
JP3841482B2 (ja) 顔画像認識装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20011009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090517

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100517

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110517

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110517

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120517

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120517

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130517

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140517

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees