JP4021873B2 - 顔画像監視システム - Google Patents

顔画像監視システム Download PDF

Info

Publication number
JP4021873B2
JP4021873B2 JP2004166077A JP2004166077A JP4021873B2 JP 4021873 B2 JP4021873 B2 JP 4021873B2 JP 2004166077 A JP2004166077 A JP 2004166077A JP 2004166077 A JP2004166077 A JP 2004166077A JP 4021873 B2 JP4021873 B2 JP 4021873B2
Authority
JP
Japan
Prior art keywords
image
image information
face area
face
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004166077A
Other languages
English (en)
Other versions
JP2004272933A (ja
Inventor
謙太朗 横井
彰夫 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004166077A priority Critical patent/JP4021873B2/ja
Publication of JP2004272933A publication Critical patent/JP2004272933A/ja
Application granted granted Critical
Publication of JP4021873B2 publication Critical patent/JP4021873B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、画像処理装置であって、特にカメラ等からの画像情報を用いる顔画像監視システムに関するものである。
最近、例えばコンビニエンスストア等の店舗においては、店内に設置されたITVカメラ等からの監視映像に基づく監視システムが非常に普及している。この監視システムには色々な形態があり、例えば以下の3種類が代表的に挙げられる。
一つは、店内に設置されたITVカメラが撮影した監視映像を監視センタに伝送し、監視員がモニタできるようにする監視システムがある。
又、同様にITVカメラが撮影した監視映像を、タイムラプスVTRに一定間隔ごとに録画する監視システムがある。このシステムでは、監視員が常にモニタしている必要はなく、後に必要に応じて録画された画像を参照することができる。
更に、同様にITVカメラが撮影した監視映像から画像の変化に基づいて人物を検出し、VTRへの録画やディスクへの保存を行なう監視システムがある。このシステムでは、監視の対象となるべき画像変化があったときのみ画像を保存するので、少ない記憶容量でより効率的な監視画像の収集を行うことができる。
しかしながら上記した各々の監視システムでは、以下のようにそれぞれ問題を有している。
つまり、第1の監視システムでは、監視員が常時この監視画像をモニタしていなければならならず、人件費がシステムのコストとして非常に負担となるという問題がある。
第2の監視システムでは、一定時間ごとに録画されるだけなので、人物のいない無意味な画像が多く記録されるため、記憶容量の不足や、必要画像の検索の困難性などが問題としてある。
又更に第3の監視システムでは、人物のいる画像のみが得られるが、それが必ずしも後からの監視画像の確認に適切な画像だけではないという問題がある。
本発明は、カメラ等からの撮影画像から監視に最適な画像だけを抽出することで、より効率的な監視処理を実現する顔画像監視システムを提供することを目的とする。
本発明は、監視対象の複数の画像情報を外部から連続的に受け、前記画像情報中の移動物体を検出する移動物体検出手段と、前記移動物体検出手段が前記移動物体を検出したとき、そのN枚の移動物体画像情報から顔領域を検出する顔領域検出手段と、前記顔領域検出手段が顔領域を検出したとき、前記顔領域を目の開閉状態、及び口の開閉状態に基づいて評価した評価値を出力する顔領域評価手段と、前記顔領域評価手段により出力された評価値に基づいて、前記移動物体が含まれる前記N枚の画像情報から評価値の高いものを選択優先度を大きくし、選択優先度の大きい順番に所定枚数Pの画像情報を選択し出力する画像情報選択手段とを有することを特徴とする顔画像監視システムである。
又本発明は、監視対象の複数の画像情報を外部から連続的に受取る画像受取手段と、前記画像受取手段が受取った画像情報から顔領域を検出する顔領域検出手段と、前記顔領域検出手段が顔領域を検出したとき、そのN枚の画像情報の前記顔領域を目の開閉状態、及び口の開閉状態に基づいて評価した評価値を出力する顔領域評価手段と、前記顔領域評価手段により出力された評価値に基づいて、前記顔領域が含まれる前記N枚の画像情報から評価値の高いものを選択優先度を大きくし、選択優先度の大きい順番に所定枚数Pの画像情報を選択し出力する画像情報選択手段と、前記画像情報選択手段が選択した画像情報を記憶する画像情報記憶手段とを有することを特徴とする顔画像監視システムである。
この発明によれば、監視画像の人物の移動・顔の向きなど認識することで、より監視画像として適切な画像のみを選択することができ、監視に最適な画像だけを抽出することで、より効率的な監視処理を実現する顔画像監視システムを提供することが可能となる。
この発明の各々の実施形態について、図面を参照して以下に詳細に説明する。
(第1実施形態)
まず初めに第1実施形態について、図面を用いて説明する。図1は、第1乃至第4実施形態の全体構成を示すブロックダイアグラムである。
図1において、この監視システムの全体は、画像入力部1、A/D変換部2、画像バッファ(画像メモリ)3、画像処理部4(処理プロセッサ)からなる。
画像入力部1によって撮像された画像はA/D変換部2によってディジタル信号に変換され、画像メモリ3に格納される。処理プロセッサ4はその画像データを読み込んでディジタル画像処理を行なう。画像入力部1は例えば通常のCCDカメラであってよい。
以下に、処理プロセッサ4での処理内容について詳細に説明する。図2は、第1実施形態の処理プロセッサ部の処理の流れを示すフローチャートである。
図2において、処理プロセッサ4で行なわれる処理の流れを示す。処理手順は、同一人物が存在するN枚の連続画像系列を切り出す処理(S5)と、選択画像枚数Pを決定する処理(S6)と、N枚の画像系列からP枚を選択する処理(S7)からなる。
図3は、シーン抽出の様子を示す説明図であり、上記したN枚の連続画像系列の切り出し処理(S5)は、画像メモリ3から読み出された画像と、基準となる背景画像とを比較し、それらの違いから侵入した人物候補領域を検出し、人物が検出されている連続画像系列をシーンとして抽出するものである。
人物領域検出は、例えば、連続する画像に対して差分処理を行ない、ノイズの影響を抑えるために平滑化処理を行なった後ある一定しきい値で2値化し、4連結または8連結の意味で空間的に連結する領域として統合・ラベリングを行ない、その領域の大きさ・形状から人物としての尤度の高いものを選択すればよい。このとき、2値化のしきい値は、あらかじめ与えた値であってもよいし、頻度分布の分散比を最大化する値とする手法[1]で決定してもよい。
別手法として、事後確率にもとづく手法[2]を用いてもよい。事象θ0を背景、事象θ1を人物として、ある画像内の画素の輝度を観測する前のθ0,θ1の事前確率をそれぞれw0,w1(ただし、w0+w1=1)とし、事象θkのもとでの画像輝度Iの条件付き確率をP(I|θk)とすれば、ベイズの定理により、Iが観測された後の事後確率w1′は
w1′=w1* P(I|θ1)/{w0* P(I|θ0)+w1* P(I|θ0)}で求められる。このw1′があるしきい値よりも大きい画素を人物に属する画素とし、この領域がある一定のものを人物として検出すればよい。
次に、同一人物が検出されている連続画像系列を一つのシーンとして切り出すための手順の一例を説明する。最初の画像(第1フレーム)の決定は、例えば監視画面の一方の端に初めて人物候補領域が検出された時(人物侵入時)とする。また、最後の画像(最終フレーム)の決定は、例えば監視画面の一方の端に人物候補領域が検出された後に人物候補領域が検出されなくなった時(人物退出時)とする。この結果、切り出された画像枚数をNとする。
同一人物が含まれる連続画像の切り出しは、上記に限定されるものではなく、例えば、画面内検知位置によってあらかじめ定めておいたゾーンごとに分割して切り出してもよい。また、その位置・大きさ・移動速度・色情報の類似度などにより画像間で人物の対応づけを行ないながら追跡処理を行なうことにより、人物の動きとみなされない場合は、その人物候補領域を候補より除くなどの処理を行ない、人物判定の信頼性を高めることも可能である。
また、人物は一人に限定されるものではなく、複数人物が含まれる場合でもこれらの追跡を行なうことにより各自が存在する連続画像をそれぞれ切り出すことが可能である(この場合、画像は重複して切り出される)。あるいは、複数人物が存在している連続画像を一まとまりとして切り出してもよい。
最後に、選択画像枚数Pの決定方法を説明する。
ここでは、選択画像枚数Pを、選択率αをもとにP=[α* Nを越えない最大整数]とする。選択率αはあらかじめユーザが与えておいたものでもよいし、画像伝送部5:の混雑具合いにしたがって動的に変更してもよい。そして、N枚の中から均等に間引いてP枚を選択するものとする。
以上の第1実施形態として示した手順により、従来のように移動物体が示された画像の全て(N枚)を選択出力するのではなく、これを一定の手法で選択することにより代表となるP枚を選択するものである。こうすることにより、画像の保存をする際にも非常に記憶容量の節約を行うことができ、更に後に照合検索等を行う場合も効率的な処理を行うことができる。
(第2実施形態)
次に本発明の第2実施形態について図面を用いて説明する。本発明の実施形態の全体構成は、図1に示した第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に説明する。
図4は、第2実施形態の処理プロセッサ部の処理の流れを示すフローチャートであり、処理プロセッサ4で行なわれる処理を示す。図4において処理手順は、N枚の連続画像系列をバッファリングする処理(S8)と、その連続画像系列の各画像に対して顔認識を行なって選択優先度を計算する処理(S9)と、その選択優先度に基づいて画像を選択する処理(S10)とからなる。
処理S8は、単純に一定時間ごとにN枚をバッファリングしてもよいし、第1実施形態と同様に動き検知を行ない、人物が存在するN枚の連続画像を切り出してもよい。パラメータPの値は、あらかじめ固定値として与えておいてもよいし(PがN以上の時は、選択を行なわない)、第1実施形態のように選択率αをもとにP=[α* Nを越えない最大整数]としても良い。次に、与えられた連続画像系列の各画像に対して顔認識を行なって選択優先度を計算する方法について図5を用いて具体的に説明する。図5は、画像選択部における処理の具体例を示す説明図である。
2−1.人物の顔方向評価値
例えば、人物の顔が正面向きで写っている画像は、より人物検証に適した画像であると考えられる。そこでユーザの求める顔方向(例えば正面顔)に近い画像に高い評価値を与え、優先的に選択する。
人物の顔方向は、例えば正準判別分析[3]により求めることができる。これは、正面顔、左向き顔、右向き顔などのクラスに分類された学習用顔画像を用意して、以下のような正準判別分析による識別を行なうことで実現できる。
(a)A×Bドットの顔領域の画素値をA×B次元のベクトルと考え、クラス内分散Sb、クラス間分散Swを計算する。
(b)inv(Sw)Sb v=λvなる固有値問題を解く(inv(Sw)はSwの逆行列)。
(c)V=固有ベクトルviを列ベクトルとする射影行列を求める。
(d)各クラス画像の平均ベクトルをVに射影し、各クラスの平均射影ベクトルを計算する。
(e)認識時に入力画像領域をVに射影し、その結果を(d)における平均射影ベクトルと比較し、最も距離の近いクラスが入力画像の属するクラスであるとする。
この識別処理を、N枚の画像選択処理で検出された人物候補領域に対して行なうことで、顔の検知と顔方向の識別を行なうことができる。
図6は、顔方向識別処理の概念を示す説明図であり、上記の説明を補うものである。
この手法の他に、目・鼻・口などの標準パターンを用意し、そのパターンと人物領域とのマッチングをとり、パターンの位置関係から顔の向きを認識してもよい。
このようにして得られた顔方向に対して、ユーザが与えた評価値
{正面顔=100、左斜め顔=70、右斜め顔=70、
右顔=40、左顔=40、後ろ側=10、…}
を適用することで、人物の顔方向評価値E1が決定できる。
2−2.人物の顔面積評価値
人物の顔が大きく写っている画像は、より人物検証に適した画像であると考えられる。そこで人物の顔面積が大きい画像に高い評価値を与え、優先的に選択する。顔領域の面積Sは、例えば連結した肌色領域の面積を求めることで得ることができる。よって、この値を人物の顔面積評価値とすればよい。
E2=S
2−3.人物の顔コントラスト評価値
顔のコントラストが高い画像は、より人物検証に適した画像であると考えられる。そこでこのコントラストが高い画像に高い評価値を与え、優先的に選択する。顔コントラストは、顔領域の輝度の分散値μをもとに計算できる。分散が大きいほど輝度の違いが大きくコントラストが高いといえるので、これを評価値とすればよい。よって、
E3=μ
とすることができる。
2−4.人物の肌色鮮明度評価値
肌色の鮮明度が高い画像は、より人物検証に適した画像であると考えられる。そこでこの鮮明度が高い画像に評価値を与え、優先的に選択する。肌色鮮明度は、RGB画像をHSV(Hue,Saturation,Value)空間に変換する式[3]にもとづいて、顔領域の平均彩度(Saturation)をみることで評価することができる。
例えば彩度Sは、
S=(I−i)/I
ただしI=max(R、G,B),i=min(R,G,B)
または
S={(B−R)+(R−G)+(G−B)}/3
で求めることができる。よって肌色鮮明度評価値は、
E4=S
とすることができる。
2−5.人物の顔表情評価値
顔の表情がニュートラル(目つぶりなどをしていない)な画像は、より人物検証に適した画像であると考えられる。そこでこの表情に優先度を与えて評価値を計算する。顔表情評価値は、例えば、普通の表情、目つぶり顔、口開き顔などのクラスに分類された学習用顔画像を用意して、前述した顔方向識別と同様の正準判別分析による識別を行ない、各クラスにユーザが与えた評価値
{普通の表情=100、目つぶり顔=70、口開き顔=60、…}
をもとにE5を決定すればよい。
また他の方法として、開いた目、閉じた目、開いた口、閉じた口などの標準パターンを用意し、そのパターンと顔領域とのマッチングをとり、パターンの組合せから表情を識別する方法で行なってもよい。
実施形態は、上記に限定されるものではなく、シーン中に複数の人物が存在する場合は、例えば各人物に対する評価値を加算するなどすればよい。また、上記は、別々の独立した評価値としたが、これらを組み合わせて一つの評価値としてもよい。例えば、複数の評価値E1,E2,…,Ex(xは5以下)に対して重み付け係数w1,w2,…,wxをあらかじめ定義しておき、重み付け加算すればよい。
E6=w1* E1+w2* E2+…+wx* Ex
また、評価尺度自身に優先順を定義し、E1で優先度順位をつけて同位の場合はE2で優先度順位をつけ、E2でも同位の場合はE3で優先度順位をつけていくという処理を行なってもよい。
次に、その選択優先度に基づいて画像を選択する処理について説明する。ここでは、N枚の画像系列から、選択優先度の大きい順番にP枚の画像を選択する(PはN以下の整数で、適当にシステムより与えられるものとする)。選択された画像は、ネットワーク画像伝送したり、磁気ディスクやVTRなどの適当な画像記憶装置に保存する目的に使用することができ、選択された適切な画像のみを伝送・保存すればよいので伝送容量と保存容量が少なくて済む。
処理形態については、ここではN枚からP枚を選択するとしているが、画像が1枚入力されるごとにその優先度Eiを計算し、優先度があるしきい値以上の時に選択画像とするような逐次処理であってもよい。
以上第2実施形態に示す方法で移動画像を選別し出力することで、様々な顔画像の諸条件に応じて、より効率的な顔画像の監視処理を実現することが可能となる。
(第3実施形態)
次に本発明の第3実施形態について図面を用いて説明する。本発明の実施形態の全体構成は、図1で示した第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に説明する。
図7は、第3実施形態の処理プロセッサ部の処理の流れを示すフローチャートであり、処理プロセッサ4で行なわれる処理の流れを示す。処理手順は、N枚の連続画像系列をバッファリングする処理(S11)と、その連続画像系列の各画像に対して人物の全身認識を行なって選択優先度を計算する処理(S12)と、その選択優先度に基づいて画像を選択する処理(S13)とからなる。処理(S11)に関しては、第2実施形態と同様であってよい。
次に、与えられた連続画像系列の各画像に対して人物の全体認識を行なって選択優先度を計算する方法(処理S12)について具体的に説明する。図8は、人物の計数、移動、全身性の認識処理を示す説明図であり、第3実施形態を説明するものである。
3−1.人物の人数評価値
人物数が多い画像は、監視領域の様子をよりよくとらえているとして、これらを適切な画像として選択することが考えられる。逆に、人物数が少ないシーンは、監視領域での不正行為が行なわれている可能性が高いとして、これらを適切な画像として選択することも考えられる。よって、画像中の人物数にもとづいて優先度の評価値を求めることができる。最初に第1実施形態と同様な方法で人物領域を抽出し、それらの領域数から画面中に含まれている人物数Nhを求める。よって人数評価値は、
E7= Nh (人数が多いものを優先する場合)
または
E7=1/Nh(人数が少ないものを優先する場合)
とすることができる。
3−2.人物の全身性評価値
人物の全体像をとらえている画像は、身長の高さ・服の色柄などが分かるため後からの人物検証に役立つので、このような画像に高い評価値を与え、優先的に選択する。最初に、第1実施形態と同様な方法で各画像ごとの人物領域の面積を計算する、次に、第2実施形態と同様な方法で顔領域面積を計算する。すなわち、人物領域の面積をS0、顔領域の面積をS1とすると、
E8=S0/S1
は全体像をどれだけとらえているかの評価値となる。例えば人物面積S0に対して顔面積S1が小さいということは、体部分までの全体像をよくとらえているということを意味し、その時S0/S1は大きな値をもつ。
実施形態は、上記に限定されるものではなく、シーン中に複数の人物が存在する場合は、例えば各人物に対する評価値を加算するなどすればよい。また、上記は、別々の独立した評価値としたが、これらを組み合わせて一つの評価値としてもよい。例えば、複数の評価値E7,E8に対して重み付け係数w7,w8をあらかじめ定義しておき、重み付け加算すればよい。
E9=w7* E7+w8* E8
また、評価尺度自身に優先順を定義し、E7で優先度順位をつけて同位の場合はE8で優先度順位をつけるという階層的な処理を行なってもよい。
次に、その選択優先度に基づいて画像を選択する処理(S13)について説明する。ここでは、第2実施形態と同様に、N枚の画像系列から、選択優先度の大きい順番にP枚の画像を選択する(PはN以下の整数で、適当にシステムより与えられるものとする)。選択された画像は、ネットワーク画像伝送したり、磁気ディスクやVTRなどの適当な画像記憶装置に保存する目的に使用することができ、選択された適切な画像のみを伝送・保存すればよいので伝送容量と保存容量が少なくて済む。
処理形態については、ここではN枚からP枚を選択するとしているが、画像が1枚入力されるごとにその優先度Eiを計算し、優先度があるしきい値以上の時に選択画像とするような逐次処理であってもよい。
第3実施形態においても、人物の人数、人物の全身性等の条件を設けることで、より効率的な人物の監視処理を実現することができる。
(第4実施形態)
本発明の実施形態の全体構成は、図1に示す第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に説明する。図9は、第4実施形態の処理プロセッサ部の処理の流れを示すフローチャートであり、処理プロセッサ4で行なわれる処理の流れを示す。処理手順は、N枚の連続画像系列をバッファリングする処理(S14)と、与えられたN枚の連続画像系列のある画像Iに対し、I自身と過去のk枚の画像の情報をもとに選択優先度を求める関数E(f)=f(Ii−k,Ii−k+1,…,I)を定義し(Ii−kは、「i−k番目の画像I」を表す)、この関数にもとづいて選択優先度を計算する処理(S15)と、その選択優先度に基づいて画像を選択する処理(S16)とからなる。処理(S14)については、第2実施形態と同様でよい。
次に、関数にもとづいて、選択優先度を計算する処理(S15)について説明する。図8は、人物の計数、移動、全身性の認識処理を示す説明図である。
4−1.人物の移動速度評価値
移動速度が小さいシーンは人物が安定して静止しており、より人物検証のしやすい適切な画像であると考えられる。よって、より移動速度が小さいシーンに高い評価値を与え、優先的に選択する。
画像Ii−1とIに含まれる人物領域の情報に対して、位置・大きさ・色の類似性などをもとに人物領域の対応関係を求め(人物追跡)、それらの位置の変化から移動ベクトル(移動速度)Vが求まる。よって人物の移動速度評価値は
E10=1/(c+V) (cは、V=0の時にゼロ除算を避けるための定数)
とすることができる。
4−2.人物の非定常性評価値
人物が通常とは異なる動作を行なったシーンは、なんらかの特殊なイベントが発生している可能性が高く、検証において重要である。よってこれらの非定常性に対して高い評価値を与え、優先的に選択する。
あらかじめ、定常的な動作・非定常的な動作に対する人物領域の特徴量(例えば移動ベクトル、位置、大きさ、形状)の変化系列の標準パターンを学習しておく。入力画像系列Ii−k,Ii−k+1,…,Iに対しても同様に人物領域の特徴量の変化系列を求め、これらをDPマッチングやHMMモデルによるマッチングなどを行なって標準パターンとのマッチングを行なう。
このときの定常的な動作としては、例えばコンビニエンスストア内での監視システムであれば、一般の客が立ち入るはずのないレジカウンタ内への侵入等が考えられる。画像内のレジカウンタ領域を設定しておくことで、移動物体がこの画像領域に侵入することを特殊イベントと判断する場合などである。
ここで、入力画像系列に対して、定常動作の特徴量変化パターン群ではAmと最もマッチングスコアScore(Am)が高く、非定常動作の特徴量変化パターン群ではBnと最もマッチングスコアScore(Bn)が高かったとすれば、非定常性を表す評価値は
EE=(非定常との類似度)−(定常との類似度)=Score(Bn)−Score(Am)
で求めることができる。複数の特徴量系列に対する評価値EE1,EE2,…,EExを用いる場合は、重み付け係数ww1,ww2,…,wwxにより重み付け加算すればよい。
E11=ww1* EE1+ww2* EE2+…+wwx* EEx
上記は、別々の独立した評価値としたが、これらを組み合わせて一つの評価値としてもよい。例えば、複数の評価値E10,E11に対して重み付け係数w10,w11をあらかじめ定義しておき、重み付け加算すればよい。
E12=w10* E10+w11* E11
また、評価尺度自身に優先順を定義し、E10で優先度順位をつけて同位の場合はE11で優先度順位をつけるという階層的な処理を行なってもよい。
次に、その選択優先度に基づいて画像を選択する処理(S11)について説明する。ここでは、第2実施形態と同様に、N枚の画像系列から、選択優先度の大きい順番にP枚の画像を選択する(PはN以下の整数で、適当にシステムより与えられるものとする)。選択された画像は、ネットワーク画像伝送したり、磁気ディスクやVTRなどの適当な画像記憶装置に保存する目的に使用することができ、選択された適切な画像のみを伝送・保存すればよいので伝送容量と保存容量が少なくて済む。
処理形態については、ここではN枚からP枚を選択するとしているが、画像が1枚入力されるごとにその優先度Eiを計算し、優先度があるしきい値以上の時に選択画像とするような逐次処理であってもよい。
第4実施形態においても、人物の移動速度や、所定領域内への侵入の検出等を参考にして画像を選別することで、より効率的な画像監視処理を実現することができる。
(第5実施形態)
本発明の実施形態の全体構成は、図1に示された第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に説明する。
図10は、第5実施形態の処理プロセッサ部の処理の流れを示すフローチャートであり、処理プロセッサ4で行なわれる処理の流れを示す。処理手順は、N枚の連続画像系列をバッファリングする処理(S17)と、シーンに含まれる全画像N枚(IからI)からP枚を選ぶ「組み合せ」nCp通りに対して評価関数g( )を定義し、この関数にもとづいて選択優先度を計算する処理(S18)と、その選択優先度に基づいて画像を選択する処理(S19)とからなる。処理(S17)については、第2実施形態と同様でよい。
次に、関数に基づいて選択優先度を計算する処理14について図11を参照して説明する。図11は、P枚の組み合わせに基づく画像選択部における処理の具体例を示す説明図である。
5−1.人物位置の多様性
ある人物が侵入してから退出するまでに移動した軌跡をできるだけ等間隔にサンプルする画像を選択すれば、それは人物の行動の全体をより適切に要約していると考えられる。よってこのような画像をP枚選択する。(画像枚数にもとづいた単純な等間隔サンプリングでは、立ち止まり状態ばかりが選択されてしまう場合がある)
画像Iにおける人物の座標(X(I),Y(I))は、N枚の画像系列の選択部8:において人物候補領域として求まっている。またIからIへの移動ベクトルは、Iにおける座標とIにおける座標の差として求められる。よって、N枚の画像からP枚を選び出した{I′,…,I′}の画像の組(nCp通り)に対して、移動ベクトルの平均Vaveと移動ベクトルの分散Vdispを求め、Vaveが最大、Vdispが最小となるようなP枚の組を選択すればよい。つまり、Vaveが大きいということは画像間での移動が大きくなるよう適切に選択されていることを示しており、またVdispが小さいということはより等間隔に近いサンプリングが行なえていることを示している。図12は、人物位置の多様性に基づく選択の例を示す図である。
5−2.人物顔の多様性
ある人物がより様々な方向を向いた画像を選択すれば、それは人物の特徴をより多くとらえており、検証に役立つと考えられる。よってこのような画像をP枚選択する。まず顔の方向とその尤度は、前述した正準判別分析による顔方向識別によって求められる。この時にシーンに含まれる顔方向クラスの種類数をCとする。より多様な顔方向の画像を得るには、N枚からP枚選ぶ組み合せの中から、顔方向の分散の大きい組を選択すればよい。例えば、顔方向クラスに1,2,…,Cのクラス番号をつけ、P枚の画像のクラス番号値の分散が最大になるように選択する。(どのクラスもまんべんなく選択されると、クラス番号値の分散は大きくなる)またこのとき、各画像の顔尤度の高さを重み付けしてもよい。以上の処理により、より様々な方向を向いた顔画像を選択することができる。
上記の第1実施形態から第5実施形態は、リアルタイムで行なってもよいし、いったん画像を蓄積しておいて、後でバッチ型で処理してもよい。
以上第5実施形態においても、人物位置の多様性や人物顔の多様性を考慮した画像が選択出力されることにより、効率的な監視処理を実現できるものである。
(第6実施形態)
最後に本発明の実施形態の全体構成を図13に示す。
図13において、この画像監視システムは、画像入力部20と、A/D変換部21と、画像バッファ(画像メモリ)22と、画像処理部23(処理プロセッサ)と、画像蓄積部24とからなる。
画像入力部20によって撮像された画像はA/D変換部21によってディジタル信号に変換され、画像メモリ22に格納される。処理プロセッサ23はその画像データを読み込んでディジタル画像処理を行なう。画像入力部20は例えば通常のCCDカメラであってよく、画像蓄積部24は通常の磁気ディスクであってよい。
以下に、処理プロセッサ23での処理内容について詳細に説明する。
図14に、処理プロセッサ23で行なわれる処理の流を示す。処理手順は、同一人物が存在するN枚の連続画像系列を切り出す処理(S25)と、各画像に対して人物及び顔画像認識を行なってN枚の画像系列からP枚を選択する処理(S26)と、P枚の画像を画像蓄積部に登録する処理(S27)と、画像蓄積部から画像を検索表示する処理(S28)とからなる。
同一人物が存在するN枚の連続画像系列を切り出す処理(S25)は、第1実施形態と同じである。また、各画像に対して人物及び顔画像認識を行なってN枚の画像系列からP枚を選択する処理(S26)は、第2乃至第5実施形態と同様である。P枚の画像を画像蓄積部に登録する処理に関しては、その画像が撮影されたカメラID、時刻などの画像に関する付属情報とともにデータベース登録を行なう。データベースのデータ構造に関する定義はあらかじめ、例えば、リレーショナルテーブル形式により行なっておくものとする。ここでは、画像を検索表示する方法を具体的に説明する。図15は、本発明に係る画像検索、照合の概念を示す説明図である。
画像選択された画像をサムネイル表示(代表画像表示)することで、ユーザが容易に監視画像を検証することができる。さらに、ユーザが提示した顔写真(例えば指名手配犯)を、これらの画像と自動的に照合を行なって類似度の高い顔画像または画像系列を表示させることが可能である。また、ユーザが指定するのは画像ではなく画像系列であってもよい。
人物の照合は、指定された人物の画像/画像系列とその他の人物の顔画像群をもとに、主成分分析や正準判別分析により、指定された人物と類似したパターンを検索する[4][5]。また検索には、色情報の類似度を用いたり、第4実施形態で示したような特徴量系列の類似度を用いたりしてもよい。これらにより、監視画像系列から、例えばある人物を検索したり、ある挙動(例えばレジへの侵入)のみを取り出したりといったことが可能になる。
以上第6実施形態によって、監視システムに画像蓄積部を設けたことにより、所定条件に応じて選択出力された画像を自動的に順次格納することが可能となる。更にこれらの格納画像について、一定条件に応じた代表画像をサムネイル表示させることにより、より直感的な監視状況の把握を可能とするものである。
なお、参考文献を以下に列記する。
[1]大津:“判別および最小二乗基準に基づく自動しきい値選定法”,信学論,Vol.J63-D, No.4, pp.349-356,1980.
[2]中井:“事後確率を用いた移動物体検出手法”,情処研報,94-CV-90, pp.1-8,1994.
[3]高木,下田:“画像解析ハンドブック”,東京大学出版会,1991.
[4] W Zhao, R.Chellappa他:“Discriminant Analysis of Principal Components for Face Recognition”,International Conference on Automatic Face & Gesture Recognition, Nara, Japan, April 1998.
[5]B.Moghaddam, A.Pentland他:“Beyond Eigenfaces: Probabilistic Matching for Face Recognition”,International Conference on Automatic Face & Gesture Recognition, Nara, Japan, April 1998.
図1は、第1乃至第4実施形態の全体構成を示すブロックダイアグラム。 図2は、第1実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図3は、シーン抽出の様子を示す説明図。 図4は、第2実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図5は、画像選択部における処理の具体例を示す説明図。 図6は、顔方向識別処理の概念を示す説明図。 図7は、第3実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図8は、人物の計数、移動、全身性の認識処理を示す説明図。 図9は、第4実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図10は、第5実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図11は、P枚の組み合わせに基づく画像選択部における処理の具体例を示す説明図。 図12は、人物位置の多様性に基づく選択の例を示す図。 図13は、第6実施形態の全体構成を示すブロックダイアグラム。 図14は、第6実施形態の処理プロセッサ部の処理の流れを示すフローチャート。 図15は、本発明に係る画像検索、照合の概念を示す説明図。
符号の説明
1 … 画像入力部
2 … A/D変換部
3 … 画像メモリ
4 … 処理プロセッサ
24 … 画像蓄積部

Claims (2)

  1. 監視対象の複数の画像情報を外部から連続的に受け、前記画像情報中の移動物体を検出する移動物体検出手段と、
    前記移動物体検出手段が前記移動物体を検出したとき、そのN枚の移動物体画像情報から顔領域を検出する顔領域検出手段と、
    前記顔領域検出手段が顔領域を検出したとき、前記顔領域を目の開閉状態、及び口の開閉状態に基づいて評価した評価値を出力する顔領域評価手段と、
    前記顔領域評価手段により出力された評価値に基づいて、前記移動物体が含まれる前記N枚の画像情報から評価値の高いものを選択優先度を大きくし、選択優先度の大きい順番に所定枚数Pの画像情報を選択し出力する画像情報選択手段と、を有することを特徴とする顔画像監視システム。
  2. 監視対象の複数の画像情報を外部から連続的に受取る画像受取手段と、
    前記画像受取手段が受取った画像情報から顔領域を検出する顔領域検出手段と、
    前記顔領域検出手段が顔領域を検出したとき、そのN枚の画像情報の前記顔領域を目の開閉状態、及び口の開閉状態に基づいて評価した評価値を出力する顔領域評価手段と、
    前記顔領域評価手段により出力された評価値に基づいて、前記顔領域が含まれる前記N枚の画像情報から評価値の高いものを選択優先度を大きくし、選択優先度の大きい順番に所定枚数Pの画像情報を選択し出力する画像情報選択手段と、
    前記画像情報選択手段が選択した画像情報を記憶する画像情報記憶手段と、
    を有することを特徴とする顔画像監視システム。
JP2004166077A 2004-06-03 2004-06-03 顔画像監視システム Expired - Lifetime JP4021873B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004166077A JP4021873B2 (ja) 2004-06-03 2004-06-03 顔画像監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004166077A JP4021873B2 (ja) 2004-06-03 2004-06-03 顔画像監視システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP03105799A Division JP3727798B2 (ja) 1999-02-09 1999-02-09 画像監視システム

Publications (2)

Publication Number Publication Date
JP2004272933A JP2004272933A (ja) 2004-09-30
JP4021873B2 true JP4021873B2 (ja) 2007-12-12

Family

ID=33128726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166077A Expired - Lifetime JP4021873B2 (ja) 2004-06-03 2004-06-03 顔画像監視システム

Country Status (1)

Country Link
JP (1) JP4021873B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842409B2 (en) 2012-07-19 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Image transmission device, image transmission method, image transmission program, image recognition and authentication system, and image reception device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331271A (ja) * 2005-05-30 2006-12-07 Nippon Hoso Kyokai <Nhk> 代表画像抽出装置及び代表画像抽出プログラム
JP4738914B2 (ja) * 2005-06-29 2011-08-03 富士フイルム株式会社 監視システム、監視方法、及び監視プログラム
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
JP4764172B2 (ja) * 2006-01-13 2011-08-31 財団法人電力中央研究所 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP4752520B2 (ja) * 2006-01-24 2011-08-17 株式会社デンソー 車両用盗難防止システム
JP4899552B2 (ja) * 2006-03-15 2012-03-21 オムロン株式会社 認証装置、認証方法、認証プログラム、これを記録したコンピュータ読み取り可能な記録媒体
JP4714053B2 (ja) * 2006-03-16 2011-06-29 オリンパスイメージング株式会社 カメラ
WO2007108056A1 (ja) * 2006-03-16 2007-09-27 Fujitsu Limited 画像認識システムおよび画像認識プログラム
JP5239126B2 (ja) 2006-04-11 2013-07-17 株式会社ニコン 電子カメラ
US8306280B2 (en) 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
JP4984728B2 (ja) * 2006-08-07 2012-07-25 パナソニック株式会社 被写体照合装置および被写体照合方法
JP4914398B2 (ja) * 2008-04-09 2012-04-11 キヤノン株式会社 表情認識装置、撮像装置、方法及びプログラム
US9774779B2 (en) * 2014-05-21 2017-09-26 Google Technology Holdings LLC Enhanced image capture
US10250799B2 (en) 2014-05-21 2019-04-02 Google Technology Holdings LLC Enhanced image capture

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2816241B2 (ja) * 1990-06-20 1998-10-27 株式会社日立製作所 画像情報検索装置
JP3025133B2 (ja) * 1993-08-27 2000-03-27 シャープ株式会社 人物認識装置
JP3088880B2 (ja) * 1993-09-07 2000-09-18 シャープ株式会社 人物認識装置
JP2937030B2 (ja) * 1994-09-14 1999-08-23 三菱電機株式会社 画像処理装置及び人物状態判定装置
JPH08251562A (ja) * 1995-03-14 1996-09-27 Matsushita Electric Ind Co Ltd 映像対話システム
JPH09149391A (ja) * 1995-11-17 1997-06-06 Kyocera Corp テレビ電話装置
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
JPH09224237A (ja) * 1996-02-16 1997-08-26 Hitachi Ltd 画像監視システム
JP3835771B2 (ja) * 1996-03-15 2006-10-18 株式会社東芝 コミュニケーション装置及びコミュニケーション方法
JPH1051755A (ja) * 1996-05-30 1998-02-20 Fujitsu Ltd テレビ会議端末の画面表示制御装置
JP3436473B2 (ja) * 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842409B2 (en) 2012-07-19 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Image transmission device, image transmission method, image transmission program, image recognition and authentication system, and image reception device

Also Published As

Publication number Publication date
JP2004272933A (ja) 2004-09-30

Similar Documents

Publication Publication Date Title
JP3727798B2 (ja) 画像監視システム
JP4208450B2 (ja) 顔画像監視システム
JP4021873B2 (ja) 顔画像監視システム
JP5390322B2 (ja) 画像処理装置、及び画像処理方法
US8866931B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
JP6013241B2 (ja) 人物認識装置、及び方法
CN102902959B (zh) 基于二代身份证存储证件照的人脸识别方法及系统
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP5517858B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP5649425B2 (ja) 映像検索装置
US8526742B2 (en) Image processing apparatus, method, and program that classifies data of images
Rekik et al. A new visual speech recognition approach for RGB-D cameras
CN101027678B (zh) 基于单个图像的多生物统计系统及方法
JP5740210B2 (ja) 顔画像検索システム、及び顔画像検索方法
CN101673346B (zh) 对图像进行处理的方法、设备和系统
US20120230545A1 (en) Face Recognition Apparatus and Methods
JP3307354B2 (ja) 人物識別方法及び装置と人物識別プログラムを記録した記録媒体
JP6532190B2 (ja) 画像検索装置、画像検索方法
WO2005008593A1 (ja) 画像処理装置、撮像装置、画像処理方法
WO2007105768A1 (ja) 顔画像登録装置、顔画像登録方法、顔画像登録プログラム、および記録媒体
JP2001216515A (ja) 人物の顔の検出方法およびその装置
Luo et al. Human action detection via boosted local motion histograms
US20070253598A1 (en) Image monitoring apparatus
KR100545559B1 (ko) 하 라이크 피춰/선형 판별 분석을 이용한 얼굴 인식 장치및 방법
Mohammed et al. Face Recognition Based on Viola-Jones Face Detection Method and Principle Component Analysis (PCA)

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6

EXPY Cancellation because of completion of term