JP2009059073A - 撮影装置、撮影方法、人物認識装置および人物認識方法 - Google Patents
撮影装置、撮影方法、人物認識装置および人物認識方法 Download PDFInfo
- Publication number
- JP2009059073A JP2009059073A JP2007224339A JP2007224339A JP2009059073A JP 2009059073 A JP2009059073 A JP 2009059073A JP 2007224339 A JP2007224339 A JP 2007224339A JP 2007224339 A JP2007224339 A JP 2007224339A JP 2009059073 A JP2009059073 A JP 2009059073A
- Authority
- JP
- Japan
- Prior art keywords
- person
- area
- detected
- moving object
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims description 51
- 238000001514 detection method Methods 0.000 claims abstract description 102
- 230000002123 temporal effect Effects 0.000 claims abstract description 14
- 238000009826 distribution Methods 0.000 claims description 58
- 238000000605 extraction Methods 0.000 claims description 18
- 230000000694 effects Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
Abstract
【課題】外光による影響で撮影対象物体と背景領域の明るさが変化していたり、逆光のように明るさが極端に異なるような条件でも、撮影手段の入力画像調整要素の適切な制御が行なえるとともに、撮影対象物体が移動しているような場合であっても撮影対象物を適切な明るさで撮影することが可能となる撮影装置を提供する。
【解決手段】カメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から撮影対象領域内に存在する人物の顔領域を検出する撮影装置において、入力画像から所定時間を通して人物の顔領域を検出した位置情報の時間的な変化をマップとして管理しておき、時間によって人物の顔領域が検出できている位置で検出し難いあるいは検出できない状態が発生した場合にその検出し難いあるいは検出できない位置での検出ができるように、適切な撮影条件となるようカメラの入力画像調整要素を制御する。
【選択図】 図1
【解決手段】カメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から撮影対象領域内に存在する人物の顔領域を検出する撮影装置において、入力画像から所定時間を通して人物の顔領域を検出した位置情報の時間的な変化をマップとして管理しておき、時間によって人物の顔領域が検出できている位置で検出し難いあるいは検出できない状態が発生した場合にその検出し難いあるいは検出できない位置での検出ができるように、適切な撮影条件となるようカメラの入力画像調整要素を制御する。
【選択図】 図1
Description
本発明は、たとえば、撮影手段としてのITVカメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から前記撮影対象領域内に存在する移動物体としての移動する人物の領域を検出する撮影装置および撮影方法、および、当該撮影装置および撮影方法を用いて前記撮影対象領域内に存在する人物を認識する人物認識装置および人物認識方法に関する。
従来、この種の撮影装置(および当該撮影装置を用いた人物認識装置)にあっては、撮影対象となる人物やその人物の顔領域を検出し、その領域を測光領域としてカメラの制御を行なうことによって、撮影対象となる人物やその顔の画像を適切な撮影条件で撮影する技術が多数提案されている(たとえば、特許文献1参照)。
しかし、上記特許文献1の技術では、太陽光などの外光による影響などで背景領域が極端に明るさ変動(照明変動)を生じている場合や、逆光のように極端に明るい、あるいは、暗い場合などでは、撮影対象となる人物領域あるいは人物の顔領域の検出自体が困難であることが多く、適切なカメラの入力画像調整要素の制御(以降、単にカメラ制御ともいう)を行なうことができなくなる。
また、撮影対象となる人物自体が歩行(移動)をしている場合などでは、時刻とともにかわる撮影対象領域の位置や明るさの変化にあわせた適切なカメラ制御が難しいといった問題がある。
これらの問題に対する対策としては、全く顔検出できない場合への対応として、事前に照明変動に対するパラメータを学習させておくことでカメラ制御を適切に行なうという技術が公知である(たとえば、特許文献2参照)。
しかし、上記特許文献2の技術では、照明条件や撮影対象人物のカメラからの位置関係のバリエーションは膨大であり、事前に充分なバリエーションを学習させることは困難であるといった問題がある。
しかし、上記特許文献2の技術では、照明条件や撮影対象人物のカメラからの位置関係のバリエーションは膨大であり、事前に充分なバリエーションを学習させることは困難であるといった問題がある。
また、撮影対象物体が検出できない場合には、検出ができるようになるまでカメラの制御パラメータを大きい値からから小さい値まで変化させ、検出できた段階で顔領域が適切な輝度となるように調整するといった技術も公知である(たとえば、特許文献3参照)。
しかし、上記特許文献3の技術では、撮影対象物体が動いている場合には追従することができないといった問題がある。
特許第3502978号公報
特開2006−209277号公報
特開2005−347873号公報
しかし、上記特許文献3の技術では、撮影対象物体が動いている場合には追従することができないといった問題がある。
そこで、本発明は、外光による影響で撮影対象物体と背景領域の明るさが変化していたり、逆光のように明るさが極端に異なるような条件でも、撮影手段の入力画像調整要素の適切な制御が行なえるとともに、撮影対象物体が移動しているような場合であっても撮影対象物を適切な明るさで撮影することが可能となる撮影装置、撮影方法、人物認識装置および人物認識方法を提供することを目的とする。
本発明の撮影装置は、入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段と、この撮影手段により入力された画像から前記撮影対象領域内に存在する少なくとも1つの移動物体の領域を検出する移動物体領域検出手段と、この移動物体領域検出手段により移動物体領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理手段と、この移動物体検出位置管理手段により管理されている情報に基づき、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での移動物体領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御手段と、少なくとも前記撮影手段により入力された画像を外部機器へ出力する出力手段とを具備している。
また、本発明の撮影方法は、入力画像を調整する調整要素を少なくとも1つ以上備えた撮影手段により撮影対象領域の画像を撮影して入力する画像入力工程と、この画像入力工程により入力された画像から前記撮影対象領域内に存在する少なくとも1つの移動物体の領域を検出する移動物体領域検出工程と、この移動物体領域検出工程により移動物体領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理工程と、この移動物体検出位置管理工程により管理されている情報に基づき、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での移動物体領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御工程と、少なくとも前記画像入力工程により入力された画像を外部機器へ出力する出力工程とを具備している。
また、本発明の人物認識装置は、入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段と、この撮影手段により入力された画像から前記撮影対象領域内に存在する少なくとも1つの人物の領域を検出する人物領域検出手段と、この人物領域検出手段により人物領域が検出された位置情報の時間的な変化をマップとして管理する人物検出位置管理手段と、この人物検出位置管理手段により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御手段と、前記人物領域検出手段により検出された人物領域から当該人物の特徴情報を抽出する特徴情報抽出手段と、この特徴情報抽出手段により抽出された人物の特徴情報とあらかじめ登録された人物の特徴情報とを照合することにより前記撮影対象領域内に存在する人物を認識する認識手段とを具備している。
また、本発明の人物認識方法は、入力画像を調整する調整要素を少なくとも1つ以上備えた撮影手段により撮影対象領域の画像を撮影して入力する画像入力工程と、この画像入力工程により入力された画像から前記撮影対象領域内に存在する少なくとも1つの人物の領域を検出する人物領域検出工程と、この人物領域検出工程により人物領域が検出された位置情報の時間的な変化をマップとして管理する人物検出位置管理工程と、この人物検出位置管理工程により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御工程と、前記人物領域検出工程により検出された人物領域から当該人物の特徴情報を抽出する特徴情報抽出工程と、この特徴情報抽出工程により抽出された人物の特徴情報とあらかじめ登録された人物の特徴情報とを照合することにより前記撮影対象領域内に存在する人物を認識する認識工程とを具備している。
本発明によれば、外光による影響で撮影対象物体と背景領域の明るさが変化していたり、逆光のように明るさが極端に異なるような条件でも、撮影手段の入力画像調整要素の適切な制御が行なえるとともに、撮影対象物体が移動しているような場合であっても撮影対象物を適切な明るさで撮影することが可能となる撮影装置、撮影方法、人物認識装置および人物認識方法を提供できる。
以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
なお、以下の説明では、たとえば、撮影手段としてのITVカメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から前記撮影対象領域内に存在する移動物体としての移動する人物の領域を検出する撮影装置を例として述べるが、本発明は撮影対象が移動する人物に限らず、たとえば、道路を走行する車両等の移動物体であっても同様に適用可能である。
まず、第1の実施の形態について説明する。
なお、以下の説明では、たとえば、撮影手段としてのITVカメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から前記撮影対象領域内に存在する移動物体としての移動する人物の領域を検出する撮影装置を例として述べるが、本発明は撮影対象が移動する人物に限らず、たとえば、道路を走行する車両等の移動物体であっても同様に適用可能である。
また、本発明が適用される対象としては、たとえば、移動する人物や走行する車両等の移動物体を監視する監視装置や人物の顔領域を利用して特定人物を認識する人物認識装置といったアプリケーションが想定される。
図1は、第1の実施の形態に係る撮影装置の構成を概略的に示すものである。この撮影装置は、入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段としてのITVカメラ(以降、単にカメラと略称する)101、カメラ101により撮影された画像を受入れ、受入れた画像をA/D変換してデジタル化するなどの画像処理を行なう画像入力部102、画像入力部102により入力された画像から撮影対象領域内に存在する移動する人物(歩行者)Mの顔領域を検出する移動物体領域検出手段としての人物領域検出部103、人物領域検出部103により人物領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理手段としての人物検出位置管理部104、人物検出位置管理部104により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるようにカメラ101の入力画像を調整する調整要素を制御する入力制御手段としての入力制御部105、および、画像入力部102により入力された画像等を外部機器へ出力する出力手段としての出力部106を有して構成されている。
以下、各構成要素について詳細に説明する。
カメラ101は、撮影対象領域(監視対象領域等)の画像を撮影するものであり、たとえば、CCDセンサなどの撮像素子を用いたITVカメラから構成されている。また、カメラ101は、入力画像を調整する調整要素を備えているものとし、たとえば、ゲイン値、絞り値、シャッタ速度、ホワイトバランスなどがあげられる。
カメラ101は、撮影対象領域(監視対象領域等)の画像を撮影するものであり、たとえば、CCDセンサなどの撮像素子を用いたITVカメラから構成されている。また、カメラ101は、入力画像を調整する調整要素を備えているものとし、たとえば、ゲイン値、絞り値、シャッタ速度、ホワイトバランスなどがあげられる。
画像入力部102は、カメラ101により撮影された画像を受入れ、受入れた画像をA/D変換してデジタル化するなどの画像処理を行なった後、人物領域検出部103および明るさ変動領域検出部104へ送る。
人物領域検出部103は、たとえば、画像入力部102からの入力画像内において、あらかじめ用意されたテンプレートを移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などでも実現可能である。
また、検出された顔領域の部分の中から目、鼻といった顔部位の位置を検出することにより高精度に顔領域を検出することができ、具体的には、たとえば、文献[1](福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年))に開示されている方法などで実現可能である。
また、上記目、鼻の検出の他に口領域の検出を行なってもよく、具体的には、たとえば、文献[2](湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004))に開示されている技術を利用することで容易に実現が可能である。
さらに、これらの処理は1枚の画像の中から1つの顔領域だけを抽出するには全画像に対してテンプレートとの相関値を求め、最大となる位置とサイズを出力すればよいし、複数の顔領域を抽出するには画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込み、最後は連続して入力された過去の画像との関係性(時間的な推移)も考慮して最終的に複数の顔領域を同時に見つけることも可能となる。
なお、本実施の形態では、人物領域検出部103での人物領域の検出として人物の顔領域を検出することを例にあげて述べているが、顔領域の代りに人物の全身領域を検出してもよく、具体的には、たとえば、文献[3](松日楽信人、小川秀樹、吉見卓:「人と共存する生活支援ロボット」東芝レビューVol.60 No.7,pp112−115(2005))に開示されている技術を利用することで容易に実現が可能である。
人物検出位置管理部104は、画像入力部102からの入力画像を局所領域に分割し、それぞれの局所領域内であらかじめ定められた所定時間を通して人物領域検出部103で顔領域が検出された位置情報の頻度分布を確率分布として求め管理する。
本実施の形態では、入力画像をM×N画素の局所領域に分割し、それぞれの局所領域内で以下の2つの時間の間で顔領域の検出頻度がどの程度であったかどうかの確率分布を求め管理する。
第1の確率分布=所定時間△T1(太陽光等の外光による明るさ変動条件を網羅するよう24時間程度に設定)での確率分布
第2の確率分布=所定時間△T2(△T1よりも短く設定し、明るさ変動が発生する1時間程度とする)での確率分布
を求め管理する。
第1の確率分布=所定時間△T1(太陽光等の外光による明るさ変動条件を網羅するよう24時間程度に設定)での確率分布
第2の確率分布=所定時間△T2(△T1よりも短く設定し、明るさ変動が発生する1時間程度とする)での確率分布
を求め管理する。
図2を参照して人物検出位置管理部104について更に詳細に説明する。
図2(a),(b)に示すように、長い方の時間△T1での顔領域検出位置情報をプロットし、各局所領域内に顔領域が存在した頻度を時間の長さで正規化した「顔領域の存在確率」を各局所領域ごとに管理する。
図2(a),(b)に示すように、長い方の時間△T1での顔領域検出位置情報をプロットし、各局所領域内に顔領域が存在した頻度を時間の長さで正規化した「顔領域の存在確率」を各局所領域ごとに管理する。
図2(a)は、撮影対象領域E0内に背景に太陽光等の外光が入るドア(斜線部)Dがあり、そこから通行してくる人物Mを撮影している例における人物Mの顔領域検出位置情報P1の頻度分布を示している。
図2(b)は、図2(a)の頻度分布に対する長い方の時間△T1での第1の確率分布を示しており、局所領域が黒に近い領域はほとんど顔領域が検出されない領域を示し、白に近づくほど顔領域が多く検出された領域を示していて、図の例では、非斜線で示す局所領域E1は検出頻度が高い領域を、斜線で示す局所領域E2は検出頻度が中程度の領域を、交差斜線で示す局所領域E3は検出頻度が低い領域を、それぞれ示している。
第1の確率分布では、たとえば、1日を通しての顔検出位置が管理されていることから、明るさ変動条件などは網羅された状態となっており、照明条件等を整えれば顔が存在する領域がわかっており、照明条件によらず顔が存在する可能性がある領域が管理されたものとなる。
また、図2(c),(d)に示すように、上述した時間△T1時と同様に、短い方の時間△T2での顔領域検出位置情報をプロットし、各局所領域内に顔領域が存在した頻度を時間の長さで正規化した「顔領域の存在確率」を各局所領域ごとに管理する。
図2(c)は、図2(a)で示したドアDが開放されたために、本来は検出できているが(長い方の時間△T1での第1の確率分布では検出できているが)、当該時間ではその領域E4において顔領域が検出できていない場合(短い方の時間△T2での第2の確率分布では検出できていない場合)を示している。
図2(d)は、図2(c)の頻度分布に対する短い方の時間△T2での第2の確率分布を示しており、図2(a)と同様に示している。図2(d)において、破線で囲んだ領域E5は顔領域が検出できていない領域を示していて、図2(c)の領域E4に対応している。
すなわち、短い方の時間△T2の中では、その明るさ条件において顔領域が検出できた頻度分布を示す第2の確率分布となり、その時間特有の明るさ条件により場所によっては普段検出できているが当該時間では検出できなくなる領域E4が発生する。このように、照明条件等によって明るさ変動している結果を反映させた第2の確率分布も同時に作成するものである。
これらの第1の確率分布および第2の確率分布の各情報は、後述する入力制御部105へ送られる。
これらの第1の確率分布および第2の確率分布の各情報は、後述する入力制御部105へ送られる。
入力制御部105は、図3に示すように、人物検出位置管理部104から送られた第1の確率分布(図3(a)参照、図2(b)に対応)と第2の確率分布(図3(b)参照、図2(d)に対応)との差分を求めることで、図3(c)に示すように、当該撮影対象領域内において現在の明るさ条件で顔領域の検出がし難いあるいは検出できない領域E6を抽出して測光範囲とし、その測光範囲内の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づきカメラ101の入力画像を調整する調整要素を制御する。
すなわち、顔領域が存在するはずの領域で顔領域が検出できるようにするため、領域E6で顔領域が検出できるようにカメラ101の入力画像を調整する調整要素を制御する。たとえば、領域E6の輝度が明るい方向で飽和している場合には、その領域E6が飽和しないように制御するといったことや、その領域E6の輝度変動をみて「人物が通過したとき」のように短時間で輝度が変化するときがあれば、その変化したときの輝度情報を基に輝度を変更するといったことが可能である。
たとえば、逆光状態で人物が歩行をした場合、普段は白飛びをして明るい値で輝度が飽和した状態であるが、人物が通行するときは逆光を遮るために輝度が低下する。その低下したときの輝度情報が適切な輝度となるように変更をするといったことも可能である。
たとえば、逆光状態で人物が歩行をした場合、普段は白飛びをして明るい値で輝度が飽和した状態であるが、人物が通行するときは逆光を遮るために輝度が低下する。その低下したときの輝度情報が適切な輝度となるように変更をするといったことも可能である。
なお、領域E6のみに特化して制御をしてしまうと最も顔領域が検出できなくなってしまう可能性もあるため、領域E6で求めた制御パラメータと第1の確率分布を基に定めた制御パラメータに対し重み付けして最終の制御パラメータを求めることで、明るさ条件の変動を精度よく観測することが可能となり、明るくなった場合、暗くなった場合にあわせてカメラ101のゲイン値、シャッタ速度、アイリスといった入力画像調整要素を制御することができる。
また、明るさ変動が存在しないような条件では、第1の確率分布と第2の確率分布はほぼ同じ条件で撮影をすることが可能であることから、当該処理を行なっても安定した入力画像調整要素で撮影を継続することが可能であることは明らかである。
出力部106は、たとえば、画像入力部102からの入力画像、人物領域検出部103で検出した顔領域の画像、および、当該顔領域の座標情報のうち少なくとも1つを外部機器に出力する。たとえば、想定するアプリケーションである監視装置の場合では、入力された画像全体を記録媒体に記録保存するほか、検出した人物領域の概説矩形を表示することによって、より監視対象人物の存在がわかりやすくなるほか、人物領域検出部103の検出結果を利用することで、人物検出時のみ入力画像を記録するといったことも可能である。また、たとえば、人物が特定人物であるかどうかを認識する人物認識装置の前段として利用することにより、明るさ変動の影響を軽減させて精度の高い認識処理を行なうことが可能となる。
次に、このような構成において全体的な処理の流れを図4に示すフローチャートを参照して説明する。
カメラ101は、たとえば、図2に示した撮影対象領域E0の画像を撮影しているものとする。カメラ101で撮影された画象は画像入力部102へ送られ、ここでデジタル化された後、人物領域検出部103および明るさ変動領域検出部104へそれぞれ送られる(ステップS1)。
カメラ101は、たとえば、図2に示した撮影対象領域E0の画像を撮影しているものとする。カメラ101で撮影された画象は画像入力部102へ送られ、ここでデジタル化された後、人物領域検出部103および明るさ変動領域検出部104へそれぞれ送られる(ステップS1)。
人物領域検出部103は、画像入力部102により入力された画像から撮影対象領域E0内に存在する移動する人物Mの顔領域を検出し、その検出結果を人物検出位置管理部104および入力制御部105へ送る(ステップS2)。
人物検出位置管理部104は、前述したように、画像入力部102により入力された画像を局所領域に分割し、それぞれの局所領域内で2つの時間△T1、△T2を通して人物領域検出部103で顔領域が検出された位置情報の頻度分布を第1、第2の確率分布として求め管理する(ステップS3)。ここに、上記位置情報の頻度分布は、たとえば、人物領域検出部103で顔領域が検出されるごとにその位置情報を更新することで求められる。
入力制御部105は、人物検出位置管理部104から送られた第1の確率分布と第2の確率分布との差分を求めることで(ステップS4)、当該撮影対象領域内において現在の明るさ条件で顔領域の検出がし難いあるいは検出できない領域E6(図3(c)参照)が存在するか否かを判定する(ステップS5)。
この判定の結果、顔領域の検出がし難いあるいは検出できない領域E6が存在する場合、入力制御部105は、当該領域E6が検出されたのは、あらかじめ定められたX回目(この例では例えば3回とするが、少なくとも1回以上であればよい)であるか否かを判定する(ステップS6)。
この判定の結果、当該領域E6が検出されたのがX回目である場合、入力制御部105は、当該領域E6を測光範囲とし、その測光範囲内全体の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づきカメラ101の入力画像を調整する調整要素を制御する(ステップS7)。
次に、出力部106は、たとえば、入力画像を調整する調整要素が制御された後にカメラ101から得られる画像を画像入力部102を介して受取り、当該入力画像や人物領域検出部103で検出した顔領域の画像、および、当該顔領域の座標情報のうち少なくとも1つを外部機器に出力し(ステップS8)、その後、ステップS1に戻り、上記同様な動作を繰り返す。
ステップS5における判定の結果、顔領域の検出がし難いあるいは検出できない領域E6が存在しない場合、あるいは、ステップS6における判定の結果、当該領域E6が検出されたのがX回目でない場合、入力制御部105は、ステップS8に進み、上述した出力部106による出力処理を行なった後、ステップS1に戻り、上記同様な動作を繰り返す。
以上説明したように、第1の実施の形態によれば、入力画像から所定時間を通して人物の顔領域を検出した位置情報の時間的な変化をマップとして管理しておき、時間によって人物の顔領域が検出できている位置で検出し難いあるいは検出できない状態が発生した場合にその検出し難いあるいは検出できない位置での検出ができるように、適切な撮影条件となるようカメラの入力画像調整要素を制御することで、撮影対象領域内で照るさ明変動によって顔領域の検出がしにくい領域が発生するような環境であっても適切な撮影条件で対象人物を撮影することが可能となる。
次に、第2の実施の形態について説明する。
なお、以下の説明では、たとえば、撮影手段としてのITVカメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から前記撮影対象領域内に存在する人物の顔領域を検出して、当該人物はあらかじめ登録された人物であるか否かを認識する人物認識装置を例として述べる。
なお、以下の説明では、たとえば、撮影手段としてのITVカメラにより当該カメラの入力画像調整要素を適切に制御しながら撮影対象領域の画像を撮影して入力し、その入力画像から前記撮影対象領域内に存在する人物の顔領域を検出して、当該人物はあらかじめ登録された人物であるか否かを認識する人物認識装置を例として述べる。
また、本発明が適用される対象としては、たとえば、移動する人物を監視する監視装置や、人物の顔を利用して人物認識を行なうことで、ビルディングや企業の建物のエントランスを出入りする通行者を管理する入退場管理システム、あるいは、商用施設や娯楽施設や交通機関など、通行者が多く出入りする場所での通行者認識といったアプリケーションが想定される。
図5は、第2の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段としてのカメラ201、カメラ201により撮影された画像を受入れ、受入れた画像をA/D変換してデジタル化するなどの画像処理を行なう画像入力部202、画像入力部202により入力された画像から撮影対象領域内に存在する移動する人物Mの顔領域を検出する人物領域検出手段としての人物領域検出部203、人物領域検出部203により人物領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理手段としての人物検出位置管理部204、人物検出位置管理部204により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるようにカメラ201の入力画像を調整する調整要素を制御する入力制御手段としての入力制御部205、人物領域検出部203により検出された顔領域から当該人物の顔の特徴情報を抽出する特徴情報抽出手段としての人物特徴抽出部206、認識対象とする人物の顔の特徴情報をあらかじめ登録しておく人物特徴情報管理部207、人物特徴抽出部206により抽出された人物の顔の特徴情報と人物特徴情報管理部207にあらかじめ登録された人物の顔の特徴情報とを照合することにより撮影対象領域内に存在する人物を認識する認識手段としての認識部208、および、認識部208の認識結果に応じて外部機器への制御信号(ゲート装置へのゲート制御信号等)や音声や画像を出力する出力手段としての出力部209を有して構成されている。
以下、各構成要素について詳細に説明するが、カメラ201、画像入力部202、人物領域検出部203、人物検出位置管理部204、および、入力制御部205は、前述した第1の実施の形態におけるそれと同様であるので説明は省略し、第1の実施の形態と異なる部分についだけ説明する。
人物特徴抽出部206は、人物領域検出部203で検出された顔の部品の位置をもとに、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。これらは単純類似度法という手法によりベクトルとベクトルの長さをそれぞれ「1」とするように正規化を行ない、内積を計算することで特徴ベクトル間の類似性を示す類似度が求められる。
1枚の画像で認識結果を出すような処理であれば、これで特徴抽出は完了するが、連続した複数の画像を利用した動画像による計算をすることで、より精度の高い認識処理が行なえるため、本実施の形態ではこちらの手法を例にとって説明を行なう。カメラ201から連続して得られた画像から、m×nピクセルの画像を切り出し、これらの画像から特徴ベクトルの相関行列を求め、周知のK−L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。
部分空間の計算法は、特徴ベクトルの相関行列(または、共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトルの集合を用いて表現する。本実施の形態では、相関行列Cdを特徴ベクトルから求め、相関行列
と対角化して、固有ベクトルの行列Φを求める。この情報が現在認識対象としている人物の顔の特徴を示す部分空間となる。複数の顔領域が検出された場合には、それぞれの人物に対して同様の処理を繰り返して部分空間を計算すればよい。
人物特徴情報管理部207は、人物を同定するためにカメラ201から入力される顔特徴情報と同一の顔特徴情報を保存し管理する。本実施の形態では、カメラ201から得られる顔特徴情報と同一の特徴抽出をした後のm×nの特徴ベクトルとするが、特徴抽出をする前の顔画像であってもよいし、利用する部分空間やK−L展開を行なう直前の相関行列でも構わない。これらは個人識別番号をキーとして登録する。ここで登録する顔特徴情報は1名当たり1つでもよいし、状況によって切換え、同時に認識に利用できるように複数の顔特徴情報を登録していても構わない。
認識部208は、人物特徴抽出部206で得られた入力部分空間と人物特徴情報管理部207にあらかじめ登録された1つまたは複数の部分空間との類似度を求めることにより、あらかじめ登録された人物が現在の画像中にいるかどうかを判定する。複数の人物が存在した場合には、この処理を検出された人数分繰り返すことで画面内に存在する人物全員の認識が可能となる。
部分空間同士の類似度を求める計算方法は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での計算方法は、たとえば、文献[4](前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345〜352(1985年))に開示されている相互部分空間法を用いる。この方法では、あらかじめ蓄えられた登録情報の中の認識データも入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、
と対角化し、固有ベクトルΦinを求める。2つのΦin,Φdで表される部分空間の部分空間間類似度(0.0〜1.0)を求め、これを認識するための類似度とする。
入力画像内に複数の顔が存在する場合には、それぞれ順番に人物特徴情報管理部207に保存された顔画像(辞書)との類似度計算を総当りで計算すれば、全ての人物に対する結果を得ることができる。たとえば、X名の人物が歩いてきた場合に、Y名の辞書が存在すれば、X*Y回の類似度演算を行なうことで、X名全員の結果が出力できる。
また、m枚の画像が入力された計算結果で認識結果が出力できない場合(登録者の誰とも判定されず、次のフレーム画像を取得して計算する場合)には、上記部分空間に入力される相関行列をそのフレームの1つ分を過去の複数のフレームで作成された相関行列の和に追加し、再度固有ベクトルの計算、部分空間の作成を行なって入力側の部分空間の更新が可能となる。つまり、歩行する人物の顔画像を連続して撮影して照合を行なう場合、画像を1枚ずつ取得して部分空間を更新しながら照合計算をしていくことで、徐々に精度の高くなる計算も可能となる。
出力部209は、たとえば、画像入力部202からの入力画像、人物領域検出部203で検出した顔領域の画像や特徴情報を外部機器に対して出力するとともに、認識部208の認識結果に応じて外部機器への制御信号(ゲート装置へのゲート制御信号等)を出力する。
次に、このような構成において全体的な処理の流れを図6に示すフローチャートを参照して説明する。
カメラ201は、たとえば、図2に示した撮影対象領域E0の画像を撮影しているものとする。カメラ201で撮影された画象は画像入力部202へ送られ、ここでデジタル化された後、人物領域検出部203および明るさ変動領域検出部204へそれぞれ送られる(ステップS11)。
カメラ201は、たとえば、図2に示した撮影対象領域E0の画像を撮影しているものとする。カメラ201で撮影された画象は画像入力部202へ送られ、ここでデジタル化された後、人物領域検出部203および明るさ変動領域検出部204へそれぞれ送られる(ステップS11)。
人物領域検出部203は、画像入力部202により入力された画像から撮影対象領域E0内に存在する移動する人物Mの顔領域を検出し、その検出結果を入力制御部205へ送る(ステップS12)。
人物検出位置管理部204は、前述したように、画像入力部202により入力された画像を局所領域に分割し、それぞれの局所領域内で2つの時間△T1、△T2を通して人物領域検出部203で顔領域が検出された位置情報の頻度分布を第1、第2の確率分布として求め管理する(ステップS13)。ここに、上記位置情報の頻度分布は、たとえば、人物領域検出部203で顔領域が検出されるごとにその位置情報を更新することで求められる。
入力制御部205は、人物検出位置管理部204から送られた第1の確率分布と第2の確率分布との差分を求めることで(ステップS14)、当該撮影対象領域内において現在の明るさ条件で顔領域の検出がしにくくなっている領域E6(図3(c)参照)が存在するか否かを判定する(ステップS15)。
この判定の結果、顔領域の検出がし難いあるいは検出できない領域E6が存在する場合、入力制御部205は、当該領域E6が検出されたのは、あらかじめ定められたX回目(この例では例えば3回とするが、少なくとも1回以上であればよい)であるか否かを判定する(ステップS16)。
この判定の結果、当該領域E6が検出されたのがX回目である場合、入力制御部205は、当該領域E6を測光範囲とし、その測光範囲内全体の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づきカメラ201の入力画像を調整する調整要素を制御する(ステップS17)。
次に、人物特徴抽出部206は、入力画像を調整する調整要素が制御された後にカメラ201から得られた画像に対し人物領域検出部203で検出された顔領域から当該人物の顔の特徴情報を抽出する(ステップS18)。
ステップS15における判定の結果、顔領域の検出がし難いあるいは検出できない領域E6が存在しない場合、あるいは、ステップS16における判定の結果、当該領域E6が検出されたのがX回目でない場合、ステップS18に進み、上記同様な顔の特徴情報抽出処理を行なう。
次に、認識部208は、顔登録処理であるか否かを判定し(ステップS19)、顔登録処理である場合、ステップS18で抽出された顔の特徴情報を人物特徴情報管理部207に登録する顔登録処理を行ない(ステップS20)、その後、ステップS11に戻り、上記同様な動作を繰り返す。
認識部208は、ステップS19における判定の結果、顔登録処理でなければ、顔認識処理であるので、ステップS18で抽出された顔の特徴情報と人物特徴情報管理部207にあらかじめ登録された人物の顔の特徴情報とを照合することにより、撮影対象領域内に存在する人物はあらかじめ登録された人物であるか否かを判定する(ステップS21)。
次に、出力部209は、たとえば、入力画像を調整する調整要素が制御された後にカメラ201から得られる画像を画像入力部202を介して受取り、当該入力画像や人物領域検出部203で検出した顔領域の画像や特徴情報を外部機器に対して出力するとともに、認識部208の認識結果に応じて外部機器への制御信号(ゲート装置へのゲート制御信号等)を出力し(ステップS22)、その後、ステップS11に戻り、上記同様な動作を繰り返す。
以上説明したように、第2の実施の形態によれば、入力画像から所定時間を通して人物の顔領域を検出した位置情報の時間的な変化をマップとして管理しておき、時間によって人物の顔領域が検出できている位置で検出し難いあるいは検出できない状態が発生した場合にその検出し難いあるいは検出できない位置での検出ができるように、適切な撮影条件となるようカメラの入力画像調整要素を制御することで、撮影対象領域内で照るさ明変動によって顔領域の検出がしにくい領域が発生するような環境であっても適切な撮影条件で対象人物を撮影することが可能となり、これにより精度よく人物の識別を行なうことが可能となる。
M…人物(移動物体)、101,201…カメラ(撮影手段)、102,202…画像入力部、103,203…人物領域検出部(移動物体領域検出手段)、104,204…人物検出位置管理部(人物検出位置管理手段)、105,205…入力制御部(入力制御手段)、106,209…出力部(出力手段)、206…人物特徴抽出部(特徴情報抽出手段)、207…人物特徴情報管理部、208…認識部(認識手段)。
Claims (10)
- 入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段と、
この撮影手段により入力された画像から前記撮影対象領域内に存在する少なくとも1つの移動物体の領域を検出する移動物体領域検出手段と、
この移動物体領域検出手段により移動物体領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理手段と、
この移動物体検出位置管理手段により管理されている情報に基づき、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での移動物体領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御手段と、
少なくとも前記撮影手段により入力された画像を外部機器へ出力する出力手段と、
を具備したことを特徴とする撮影装置。 - 前記移動物体検出位置管理手段は、前記撮影手段により入力された画像を局所領域に分割し、それぞれの局所領域において、あらかじめ定められた第1の所定時間の間で前記移動物体領域検出手段で移動物体領域が検出された位置情報の頻度分布を第1の確率分布として求め管理するとともに、あらかじめ定められた前記第1の所定時間よりも短い第2の所定時間の間で前記移動物体領域検出手段で移動物体領域が検出された位置情報の頻度分布を第2の確率分布として求め管理し、
前記入力制御手段は、前記移動物体検出位置管理手段で管理されている第1の確率分布と第2の確率分布との差分を求めることで、前記撮影対象領域内の現在の明るさ条件で移動物体領域が検出し難いあるいは検出できない局所領域が存在するか否かを判定し、存在する場合は当該局所領域を測光範囲とし、その測光範囲内の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づき前記撮影手段の入力画像を調整する調整要素を制御することを特徴とする請求項1記載の撮影装置。 - 前記移動物体領域検出手段が検出する移動物体の領域とは、移動する人物の顔領域あるいは移動する人物の全身領域あるいは走行する車両の領域であることを特徴とする請求項1記載の撮影装置。
- 入力画像を調整する調整要素を少なくとも1つ以上備えた撮影手段により撮影対象領域の画像を撮影して入力する画像入力工程と、
この画像入力工程により入力された画像から前記撮影対象領域内に存在する少なくとも1つの移動物体の領域を検出する移動物体領域検出工程と、
この移動物体領域検出工程により移動物体領域が検出された位置情報の時間的な変化をマップとして管理する移動物体検出位置管理工程と、
この移動物体検出位置管理工程により管理されている情報に基づき、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって移動物体領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での移動物体領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御工程と、
少なくとも前記画像入力工程により入力された画像を外部機器へ出力する出力工程と、
を具備したことを特徴とする撮影方法。 - 前記移動物体検出位置管理工程は、前記画像入力工程により入力された画像を局所領域に分割し、それぞれの局所領域において、あらかじめ定められた第1の所定時間の間で前記移動物体領域検出工程で移動物体領域が検出された位置情報の頻度分布を第1の確率分布として求め管理するとともに、あらかじめ定められた前記第1の所定時間よりも短い第2の所定時間の間で前記移動物体領域検出工程で移動物体領域が検出された位置情報の頻度分布を第2の確率分布として求め管理し、
前記入力制御工程は、前記移動物体検出位置管理工程で管理されている第1の確率分布と第2の確率分布との差分を求めることで、前記撮影対象領域内の現在の明るさ条件で移動物体領域が検出し難いあるいは検出できない局所領域が存在するか否かを判定し、存在する場合は当該局所領域を測光範囲とし、その測光範囲内の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づき前記撮影手段の入力画像を調整する調整要素を制御することを特徴とする請求項4記載の撮影方法。 - 入力画像を調整する調整要素を少なくとも1つ以上備え、撮影対象領域の画像を撮影して入力する撮影手段と、
この撮影手段により入力された画像から前記撮影対象領域内に存在する少なくとも1つの人物の領域を検出する人物領域検出手段と、
この人物領域検出手段により人物領域が検出された位置情報の時間的な変化をマップとして管理する人物検出位置管理手段と、
この人物検出位置管理手段により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御手段と、
前記人物領域検出手段により検出された人物領域から当該人物の特徴情報を抽出する特徴情報抽出手段と、
この特徴情報抽出手段により抽出された人物の特徴情報とあらかじめ登録された人物の特徴情報とを照合することにより前記撮影対象領域内に存在する人物を認識する認識手段と、
を具備したことを特徴とする人物認識装置。 - 前記人物検出位置管理手段は、前記撮影手段により入力された画像を局所領域に分割し、それぞれの局所領域において、あらかじめ定められた第1の所定時間の間で前記人物領域検出手段で人物領域が検出された位置情報の頻度分布を第1の確率分布として求め管理するとともに、あらかじめ定められた前記第1の所定時間よりも短い第2の所定時間の間で前記人物領域検出手段で人物領域が検出された位置情報の頻度分布を第2の確率分布として求め管理し、
前記入力制御手段は、前記人物検出位置管理手段で管理されている第1の確率分布と第2の確率分布との差分を求めることで、前記撮影対象領域内の現在の明るさ条件で人物領域が検出し難いあるいは検出できない局所領域が存在するか否かを判定し、存在する場合は当該局所領域を測光範囲とし、その測光範囲内の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づき前記撮影手段の入力画像を調整する調整要素を制御することを特徴とする請求項6記載の人物認識装置。 - 前記人物領域検出手段が検出する人物の領域とは、移動する人物の顔領域あるいは移動する人物の全身領域であることを特徴とする請求項7記載の人物認識装置。
- 入力画像を調整する調整要素を少なくとも1つ以上備えた撮影手段により撮影対象領域の画像を撮影して入力する画像入力工程と、
この画像入力工程により入力された画像から前記撮影対象領域内に存在する少なくとも1つの人物の領域を検出する人物領域検出工程と、
この人物領域検出工程により人物領域が検出された位置情報の時間的な変化をマップとして管理する人物検出位置管理工程と、
この人物検出位置管理工程により管理されている情報に基づき、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生したか否かを判定し、時間によって人物領域が検出できている位置で検出し難いあるいは検出できない状態が少なくとも1回以上発生した場合、当該検出し難いあるいは検出できない位置での人物領域の検出ができるように前記撮影手段の入力画像を調整する調整要素を制御する入力制御工程と、
前記人物領域検出工程により検出された人物領域から当該人物の特徴情報を抽出する特徴情報抽出工程と、
この特徴情報抽出工程により抽出された人物の特徴情報とあらかじめ登録された人物の特徴情報とを照合することにより前記撮影対象領域内に存在する人物を認識する認識工程と、
を具備したことを特徴とする人物認識方法。 - 前記人物検出位置管理工程は、前記画像入力工程により入力された画像を局所領域に分割し、それぞれの局所領域において、あらかじめ定められた第1の所定時間の間で前記人物領域検出工程で人物領域が検出された位置情報の頻度分布を第1の確率分布として求め管理するとともに、あらかじめ定められた前記第1の所定時間よりも短い第2の所定時間の間で前記人物領域検出工程で人物領域が検出された位置情報の頻度分布を第2の確率分布として求め管理し、
前記入力制御工程は、前記人物検出位置管理工程で管理されている第1の確率分布と第2の確率分布との差分を求めることで、前記撮影対象領域内の現在の明るさ条件で人物領域が検出し難いあるいは検出できない局所領域が存在するか否かを判定し、存在する場合は当該局所領域を測光範囲とし、その測光範囲内の明るさ情報に基づき制御パラメータを推定し、この推定した制御パラメータに基づき前記撮影手段の入力画像を調整する調整要素を制御することを特徴とする請求項9記載の人物認識方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224339A JP2009059073A (ja) | 2007-08-30 | 2007-08-30 | 撮影装置、撮影方法、人物認識装置および人物認識方法 |
KR1020080084455A KR20090023218A (ko) | 2007-08-30 | 2008-08-28 | 촬영 장치 및 촬영 방법 |
EP08015325A EP2031865A3 (en) | 2007-08-30 | 2008-08-29 | Image input apparatus, and image input method |
US12/201,151 US20090060292A1 (en) | 2007-08-30 | 2008-08-29 | Image input apparatus, and image input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224339A JP2009059073A (ja) | 2007-08-30 | 2007-08-30 | 撮影装置、撮影方法、人物認識装置および人物認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009059073A true JP2009059073A (ja) | 2009-03-19 |
Family
ID=40192935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007224339A Pending JP2009059073A (ja) | 2007-08-30 | 2007-08-30 | 撮影装置、撮影方法、人物認識装置および人物認識方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20090060292A1 (ja) |
EP (1) | EP2031865A3 (ja) |
JP (1) | JP2009059073A (ja) |
KR (1) | KR20090023218A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010087598A (ja) * | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム |
JP2013031167A (ja) * | 2011-07-19 | 2013-02-07 | Axis Ab | 画像調整パラメータを決定するための方法およびカメラ |
JP2020072391A (ja) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101673032B1 (ko) * | 2010-01-25 | 2016-11-04 | 엘지전자 주식회사 | 화상 통신 방법 및 그를 이용한 디지털 tv |
JP2012238965A (ja) * | 2011-05-10 | 2012-12-06 | Canon Inc | 通信装置、通信装置の制御方法およびプログラム。 |
JP2013080413A (ja) * | 2011-10-05 | 2013-05-02 | Sony Corp | 入力装置、入力認識方法 |
JP5971089B2 (ja) * | 2012-11-14 | 2016-08-17 | 富士通株式会社 | 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム |
US10697779B2 (en) * | 2017-04-21 | 2020-06-30 | X Development Llc | Landmark placement for localization |
CN110602405A (zh) * | 2019-09-26 | 2019-12-20 | 上海盛付通电子支付服务有限公司 | 拍摄方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3502978B2 (ja) | 1992-01-13 | 2004-03-02 | 三菱電機株式会社 | 映像信号処理装置 |
JP4143305B2 (ja) * | 2001-01-30 | 2008-09-03 | 日本電気株式会社 | ロボット装置、照合環境判定方法、及び照合環境判定プログラム |
US7305108B2 (en) * | 2001-11-08 | 2007-12-04 | Pelco | Security identification system |
JP2005202731A (ja) * | 2004-01-16 | 2005-07-28 | Toshiba Corp | 顔認識装置、顔認識方法および通行制御装置 |
JP4572583B2 (ja) | 2004-05-31 | 2010-11-04 | パナソニック電工株式会社 | 撮像装置 |
JP4586548B2 (ja) | 2005-01-26 | 2010-11-24 | ソニー株式会社 | 物体検出装置および物体検出方法 |
US7602944B2 (en) * | 2005-04-06 | 2009-10-13 | March Networks Corporation | Method and system for counting moving objects in a digital video stream |
JP2007148988A (ja) * | 2005-11-30 | 2007-06-14 | Toshiba Corp | 顔認証装置、顔認証方法および入退場管理装置 |
-
2007
- 2007-08-30 JP JP2007224339A patent/JP2009059073A/ja active Pending
-
2008
- 2008-08-28 KR KR1020080084455A patent/KR20090023218A/ko not_active Application Discontinuation
- 2008-08-29 EP EP08015325A patent/EP2031865A3/en not_active Withdrawn
- 2008-08-29 US US12/201,151 patent/US20090060292A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010087598A (ja) * | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム |
JP2013031167A (ja) * | 2011-07-19 | 2013-02-07 | Axis Ab | 画像調整パラメータを決定するための方法およびカメラ |
JP2020072391A (ja) * | 2018-10-31 | 2020-05-07 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
JP7242247B2 (ja) | 2018-10-31 | 2023-03-20 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2031865A3 (en) | 2009-08-05 |
US20090060292A1 (en) | 2009-03-05 |
EP2031865A2 (en) | 2009-03-04 |
KR20090023218A (ko) | 2009-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5567853B2 (ja) | 画像認識装置および方法 | |
JP4479478B2 (ja) | パターン認識方法および装置 | |
JP2009059073A (ja) | 撮影装置、撮影方法、人物認識装置および人物認識方法 | |
US8254691B2 (en) | Facial expression recognition apparatus and method, and image capturing apparatus | |
US8314854B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
KR101337060B1 (ko) | 화상 처리 장치 및 화상 처리 방법 | |
US7127086B2 (en) | Image processing apparatus and method | |
US7995807B2 (en) | Automatic trimming method, apparatus and program | |
JP2009087232A (ja) | 人物認証装置および人物認証方法 | |
US20070116364A1 (en) | Apparatus and method for feature recognition | |
MX2012010602A (es) | Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. | |
JP2007334623A (ja) | 顔認証装置、顔認証方法、および入退場管理装置 | |
GB2343945A (en) | Photographing or recognising a face | |
JP2007148988A (ja) | 顔認証装置、顔認証方法および入退場管理装置 | |
KR20190093799A (ko) | Cctv를 통한 실시간 실종자 얼굴 인식 시스템 및 그 방법 | |
JP5963525B2 (ja) | 認識装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
KR100347058B1 (ko) | 얼굴 촬영/인식방법 | |
JP5147670B2 (ja) | 画像処理装置及び画像処理方法、撮像装置 | |
JPWO2008035411A1 (ja) | 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム | |
JP2011076316A (ja) | 群衆監視装置および方法ならびにプログラム | |
JP2009044526A (ja) | 撮影装置、撮影方法、人物認識装置および人物認識方法 | |
JP5539565B2 (ja) | 撮像装置及び被写体追跡方法 | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
JP2008234619A (ja) | 顔認証装置および顔認証方法 |