JP2011234314A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2011234314A
JP2011234314A JP2010105672A JP2010105672A JP2011234314A JP 2011234314 A JP2011234314 A JP 2011234314A JP 2010105672 A JP2010105672 A JP 2010105672A JP 2010105672 A JP2010105672 A JP 2010105672A JP 2011234314 A JP2011234314 A JP 2011234314A
Authority
JP
Japan
Prior art keywords
face
input image
subject
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010105672A
Other languages
English (en)
Other versions
JP5484184B2 (ja
Inventor
Naotada Sagawa
直嗣 佐川
Kazuyo Ikeda
和世 池田
Yuji Kaneda
雄司 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010105672A priority Critical patent/JP5484184B2/ja
Priority to US13/093,741 priority patent/US9001219B2/en
Publication of JP2011234314A publication Critical patent/JP2011234314A/ja
Application granted granted Critical
Publication of JP5484184B2 publication Critical patent/JP5484184B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00681Detecting the presence, position or size of a sheet or correcting its position before scanning
    • H04N1/00684Object of the detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像上での複数の被写体領域の移動量が大きく異なる場合にも適切に移動情報を算出し、注目する被写体領域の位置を推定することを目的とする。
【解決手段】時系列で並ぶ複数の入力画像を取得する画像取得手段と、画像取得手段で取得された入力画像から複数の被写体領域を検出する検出手段と、検出手段で一の入力画像から第一の被写体領域を検出できない場合に、複数の入力画像のうち、第一の被写体領域を検出することができた第一の入力画像より過去の入力画像と一の入力画像とで検出された複数の被写体領域に基づき、第一の被写体領域の位置を推定する推定手段と、を有し、推定手段は、過去の入力画像と一の入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と第一の被写体領域の大きさとに基づき、一の入力画像における第一の被写体領域の位置を推定する。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
デジタルカメラ等の撮像装置により得られた画像から顔領域を検出する技術が実用化されている。この顔検出技術が搭載される撮像装置では、検出した顔領域を中心に見栄えのよい画像を撮影するために、顔領域を重点的に明るくしたり、顔領域に焦点を合わせたりする機能を有している。このような機能をユーザが利用する際、撮像装置内の顔検出処理により顔が検出されている状態か否かを、撮像装置が有するモニタで確認することとなる。一般的には、撮像装置が検出した顔領域を囲うように矩形の枠を顔の周りに表示することで、ユーザは容易に顔が検出されている状態か否かを確認することができる。
ところで、現在実用化されている顔検出技術では、正面向きや若干の顔向き変化には対応することができるが、真横を向いたり、上下に顔を大きく傾けた場合には検出が失敗してしまうことがある。また、現在実用化されている顔検出技術では、手ブレ等により画像内の顔領域部分がボケてしまった場合にも検出が失敗してしまうことがある。
このため、時間的に連続する画像に対する顔検出結果をそのままユーザに表示した場合、顔検出枠が表示・消滅を繰り返し、見栄えのよくない表示状態になってしまう問題がある。
この問題に対し、ある画像で顔検出を失敗した場合には、それより過去の検出結果を利用して顔が存在する位置を推定することで、継続的な検出枠の表示を実現する方法がある。特許文献1では、過去の画像における顔領域とその周辺領域の画像特徴を記憶しておき、顔検出ができない画像に対しては、記憶した画像特徴に類似する領域を探索し、該当領域を顔の位置として推定するという方法を説明している。しかしながら特許文献1では、カメラの位置や方向が変更できる可動カメラ映像を対象とした場合、画像上での顔の移動方向や移動量が分からないため、顔とその周辺領域の画像特徴を探索する際、探索範囲を広く設定しなくてはならない。このため、複数の顔を対象とした場合に正しく顔の位置を推定することができない。
そこでこの問題に対しては、特許文献2等で説明される手法によりカメラが動いた方向と量とを算出し、これらの情報に基づいて画像上で顔が移動する方向と量を推定し、正しい顔の位置を推定するという方法も提案されている。以下、カメラが動いた方向と量とをカメラ動き情報と呼ぶ。
特開2009−17194号公報 特開平9−212648号公報
特許文献2で説明されるように、カメラの動き情報を算出する一般的な方法では、画像内を複数のブロック領域に分割し、各ブロックが過去の画像と現在の画像でどの位置に移動したかを調べるというものであり、処理量が多く、時間がかかることが知られている。また、それぞれ特徴の異なるオブジェクトにより画像が構成される場合には、各ブロックの移動情報を正しく算出できるが、特徴が類似するオブジェクトばかりで画像が構成される場合については移動情報を正しく算出することができない。例えば複数の顔が撮影された画像の場合等では、各ブロックの移動情報を正しく算出することができない。
また別の問題として、複数の顔を対象とする撮影において、カメラを動かして撮影した場合、画像の手前の顔と画像の奥の顔とでは、画像内における移動量に差が生じる。一般的に、手前の顔より奥の顔の方が移動量が大きくなる。このため、仮に前述の方法によりカメラ動き情報を算出できたとしても、手前の顔と奥の顔との双方に適切な顔の移動量を決定することができない。
本発明はこのような問題点に鑑みなされたもので、画像上での複数の被写体領域の移動量が大きく異なる場合にも適切に移動情報を算出し、注目する被写体領域の位置を推定することを目的とする。
そこで、本発明の画像処理装置は、時系列で並ぶ複数の入力画像を取得する画像取得手段と、前記画像取得手段で取得された入力画像から複数の被写体領域を検出する検出手段と、前記検出手段で前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定手段と、を有し、前記推定手段は、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定する。
本発明によれば、画像上での複数の被写体領域の移動量が大きく異なる場合にも適切に移動情報を算出し、注目する被写体領域の位置を推定することができる。
デジタルカメラの概略構成ブロック図である。 第一の実施形態の処理の流れを示すフローチャートである。 前フレームImg_pと現フレームImg_inとにおける顔IDを示した図である。 前フレームImg_pと現フレームImg_inとにおける顔検出結果の顔の中心座標を示した図である。 前フレームと現フレームとにおける顔の対応付けを示した図である。 仮対応付けを行った結果の一例を示す図である。 ステップS204の処理の詳細な流れを示すフローチャートである。 顔fpnと顔finとが対応付けられた場合の移動状況を示す図である。 顔・角度ヒストグラムの一例を示す図である。 累積移動量・角度ヒストグラムの一例を示す図(その1)である。 累積移動量・角度ヒストグラムの一例を示す図(その2)である。 第一の実施形態のステップS208の処理の詳細な流れを示すフローチャートである。 顔fp1〜fp6までの顔サイズと移動量とを示す図である。 顔サイズ・移動量対応グラフの一例を示す図である。 顔サイズ・移動量対応グラフに近似直線を追加したグラフの一例を示す図である。 デジタルカメラの表示部に検出枠を表示した場合の一例を示す図である。 前フレームImg_pと現フレームImg_inとの画像の一例を示す図である。 第二の実施形態でステップS207までの処理により生成される前フレームと現フレームとにおける顔の仮対応付の一例を示す図である。 第二の実施形態のステップS208の処理の詳細な流れを示すフローチャートである。 前フレーム顔中心画像等の一例を示す図である。 水平位置で顔をグルーピングした結果の一例を示す図である。 グルーピング結果を画像で示した一例を示す図である。 第三の実施形態の処理の流れを示すフローチャートである。 矩形領域と、肌色探索領域との関係の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<第一の実施形態>
以下、添付図面を参照して本発明の好適な実施形態を説明する。
図1は、本実施形態をデジタルカメラ等の画像撮像装置で実現する場合の概略構成ブロック図である。
画像撮像部101は、CCD(Charge Coupled Devices)やCMOS(Complemetary Metal Oxide Semiconductor)等のイメージセンサや光学系、絞り等を制御する制御部から成る。
主制御部102は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から成る。主制御部102は、画像撮像部101で得た画像信号をデジタル信号に変換したり、各種画像処理を制御したり、表示部107の画像表示やUIを制御したりする機能を有する。主制御部102は、画像撮像部101から時系列で並ぶ複数の入力画像を取得する。
内部メモリ103は、SDRAM(Synchronous Dynamic Random Access Memory)等から成り、主制御部で生成される各種データを一時的に記憶する。
記憶媒体104は、SD(Secure Digital)メモリカード等、不揮発性メモリから成る。
顔検出部105は、画像撮像部101で得た画像の中から顔領域を検出する。
顔追尾処理部106は、過去の顔検出結果の情報に基づいて現在の顔の位置を推定する。
表示部107は、液晶ディスプレイ等から成り、画像撮像部101で得られた画像や顔検出部105による検出結果等を表示する。
なお、顔検出部105及び顔追尾処理部106は、ハードウェアであってもよいし、主制御部102がプログラムを実行することにより実現されるソフトウェアであってもよい。ソフトウェアの場合、前記プログラムは、例えば、内部メモリ103等に記憶される。
また、後述するように、画像撮像装置は、操作部を有していていもよい。なお、画像撮像装置は、画像処理装置(コンピュータ)の一例である。
次に本実施形態の動作を説明する。
第一の実施形態の処理の流れを図2のフローチャートで説明する。
ステップS201において、主制御部102は、画像撮像部101より入力画像Img_inを画像取得する。
ステップS202において、顔検出部105は、入力画像Img_inに対して顔検出処理を実行する。
顔検出処理は公知の手法として、顔のテンプレートマッチングを用いる方法や、予め機械学習した特徴抽出フィルターを検出器として用いる方法等がある。本実施形態においてはこれら公知の顔検出処理を用いればよく、特定の顔検出方式に限定されるものではない。
顔検出部105が、入力画像Img_inに対して顔検出を実行した結果の例を図3の画像Bに示す。図3の画像Bでは、顔検出が成功した顔領域を矩形の枠で囲って表示されている。即ち、この例では、顔fi1〜fi6に対しては顔検出を成功したが、顔fi7については顔検出を失敗した場合を示している。なお、以下の説明では、この検出結果を用いて説明を行うものとする。
ステップS203において、顔追尾処理部106は、ステップS202における顔検出結果と、1つ前のフレームImg_pにおける顔検出結果との対応付けを行う。ここでの対応付けは、ステップS204においてカメラの動き情報を算出するためのもので、簡易な対応付けであり、ステップS207における本対応付けに対して仮対応付けと呼ぶ。
なお、以下の説明では、1つ前のフレームImg_pを前フレームImg_p、これに対し現在のフレームである入力画像Img_inを現フレームImg_inと呼ぶことにする。
図3の画像Aに前フレームImg_pにおける顔検出結果を示す。前フレームImg_pにおける顔検出は、顔fp1〜顔fp8までの全ての顔を検出できているものとする。また、図3では、前フレームImg_pに対しカメラを右方向に動かした状態のものとして現フレームImg_inを示している。即ち、各顔は、画像上で左方向に移動していることになる。
顔追尾処理部106は、現フレームImg_inと前フレームImg_pとにおける顔の仮対応付けを、顔検出結果から得られる顔の中心座標を用いて行う。図4にそれぞれの顔の中心座標を示す。顔追尾処理部106は、前フレームImg_pにおける中心座標に対し、現フレームImg_inにおける中心座標で最も距離が近い顔を同一の顔であるとして仮対応付けを行う。
例えば、顔追尾処理部106は、前フレームImg_pにおける顔fp1が現フレームImg_inのどの顔に対応するかを、以下の式(1)を用いて決定する。
Figure 2011234314
式(1)において、pf1X、pf1Yは、それぞれ前フレームImg_pにおける顔fp1の中心座標である。ifnX、ifnYは、現フレームImg_inにおける顔finの中心座標を示す。また、Nifは、現フレームImg_inで検出した顔の総数である。即ち、Lは現フレームImg_inで検出された顔の中で、前フレームImg_pにおける顔fp1と距離が一番近い顔との距離となる。
以上の方法により顔追尾処理部106が、前フレームImg_pにおける全ての顔について対応付けを行った結果を図5に示す。
次に、顔追尾処理部106は、フレーム前後の顔のサイズの変化率に基づき、明らかに対応関係として相応しくないものを削除する。この判定には、顔追尾処理部106は、以下の式(2)を用いる。
なお、本実施形態における顔のサイズについては、顔検出結果として得られる顔を囲う正方形の一辺の長さとする。
Figure 2011234314
式(2)のS_fpnは、式(1)で対応関係にあるとされた顔の前フレームImg_pにおける顔のサイズである。S_finは、現フレームImg_inにおける顔のサイズである。また、thS_minとthS_maxとは、フレーム前後の顔サイズの変化率に対する閾値の最大と最小とである。
顔追尾処理部106は、フレーム前後の顔サイズの変化率が式(2)を満たす場合、顔のサイズの変化が大きくないため対応関係にあるとし、そうでない場合には対応関係にないと判断する。
本実施形態では、顔fp8が式(1)ではfi3と対応関係にあると判断されるが、式(2)により対応関係にないとされ、最終的に対応する顔のないものとして判定される。
以上のように顔追尾処理部106が、仮対応付けを行った結果を図6に示す。なお、以降の処理で用いるため、顔追尾処理部106は、顔検出結果から得られる顔の中心座標と顔のサイズとを図6の対応表に追加する。
ステップS204において、顔追尾処理部106は、ステップS203で行われた顔の仮対応付けに基づき、カメラのパン・チルト等のカメラ動き情報を算出する。なお、仮対応付けの時点で前フレームImg_pと現フレームImg_inとにおいて1対1に対応付けされていない顔は、顔追尾処理部106は、以下の処理では処理対象外の顔とする。図6における対象外の顔は、fp6、fp7、fp8となる。fp6、fp7は、どちらもfi6に対応付けられており、fp8については対応する顔がないと判定されたものである。
ステップS204の処理の詳細な流れを、図7を用いて説明する。
ステップS301において、顔追尾処理部106は、ステップ203で仮対応付けが行われた顔の移動角度と顔の個数とに基づいて顔・角度ヒストグラムを生成する。
図8に、顔fpnと顔finとが対応付けられた場合の移動状況を示す。dx,dyがX方向、Y方向の移動量である。θが移動角度となる。この場合、顔追尾処理部106は、以下の式(3)により移動角度θを算出することができる。なお、顔追尾処理部106は、dx,dyを、ステップS203で生成した図6に示す対応表にある前フレームと現フレームとの顔中心座標から容易に算出することができる。
Figure 2011234314
以上のようにして顔追尾処理部106が、移動角度θを算出し、角度毎に顔の個数をカウントした顔・角度ヒストグラムを図9に示す。本実施形態では、角度を0°から360°までとし、顔追尾処理部106は、これを12個のビンにわけて度数をカウントしている。
なお、以降の処理で必要となるため、顔追尾処理部106は、同じ移動角度に分類される顔の移動量を累積した累積移動量についても、角度毎にカウントして累積移動量・角度ヒストグラムを生成する。
なお、各顔の移動量をLとすると、顔追尾処理部106は、移動量Lを以下の式(4)で算出することができる。
Figure 2011234314
累積移動量・角度ヒストグラムを図10に示す。
ステップS302において、顔追尾処理部106は、ステップS301で生成した顔・角度ヒストグラムから主方向を決定する。主方向は、顔・角度ヒストグラムにおいて最も頻度の高い角度とする。本実施形態では、0°〜30°が主方向となる。
ステップS303において、顔追尾処理部106は、ステップS302で決定した主方向に対する移動量(以下、主方向移動量と呼ぶ)を算出する。
顔追尾処理部106は、主方向移動量を、ステップS302で算出した累積移動量の平均値とする。即ち、主方向の角度に分布する累積移動量の値を、主方向の角度に分布する顔の個数で割った値が主方向移動量move_mとなる。
ステップS304において、顔追尾処理部106は、ステップS302で決定した主方向とステップS303で算出した主方向移動量とに基づき、カメラの動き情報を算出する。
本実施形態では、顔追尾処理部106は、カメラの動きに関する状態として、「a.静止状態」,「b.パン又はチルト」,「c.それ以外」の3つの状態を判断する。なお、「c.それ以外」とは、パンとズームを同時に行うような複雑なカメラ操作でありカメラ動き情報を正確に算出することが困難な状況のことである。
まず、主方向移動量move_mの値が所定の閾値th_dirより小さい場合には、顔追尾処理部106は、a.静止状態と判断する。主方向移動量move_mの値が所定の閾値th_dir以上の場合には、顔追尾処理部106は、顔・角度ヒストグラムの分布状況を分析し、bかcどちらの状態であるかを判定する。
顔・角度ヒストグラムの分布が特定の角度に山をもつような場合には、カメラがその角度に動いていると分かるため、顔追尾処理部106は、bの状態であると判断する。それ以外の場合、例えば図11の累積移動量・角度ヒストグラムAに示すようにどの角度にも度数が分布する場合や、累積移動量・角度ヒストグラBに示すように複数の角度に山が分布する場合には、複雑なカメラ操作が行われた場合とし、顔追尾処理部106は、cの状態と判断する。
なお、顔・角度ヒストグラムの分布がbであるか否かの判定方法としては、顔追尾処理部106は、平均度数以上の度数をもつ角度の分散を調べる。そして、顔追尾処理部106は、散値が所定の閾値より低い場合、即ち度数の高い角度が特定の角度に集中している場合には、bの状態であるとすればよい。
以上の方法によりカメラの状態を判断した結果、bであると判断された場合には、顔追尾処理部106は、X方向の移動量vec_xとY方向の移動量vec_yを算出する。顔追尾処理部106は、これらの移動量を、ステップS302で決定した主方向の角度θとS303で算出した主方向移動量move_mとに基づいて以下の式(5)で算出することができる。
Figure 2011234314
図2のフローチャートのステップS205の説明に戻る。
ステップS205において、顔追尾処理部106は、ステップS204の結果よりカメラの状態がcであるか否かの判定を行う。カメラの状態がcである場合には、カメラ動き情報を用いた顔の位置推定を行うのは困難なため、顔追尾処理部106は、位置推定処理は行わずにステップS211に処理を進める。ステップS211では、主制御部102は、ステップS202の顔検出処理により検出された顔に対してだけ、結果枠を表示する。
カメラの状態がcでない場合には、顔追尾処理部106は、ステップS206に処理を進める。
ステップS206において、顔追尾処理部106は、ステップS204の結果よりカメラの状態がaであるか否かの判定を行う。カメラの状態がaである場合には、カメラが静止状態であり顔の位置に変動がないため、主制御部102は、ステップS212に処理を進め、前のフレームの検出結果枠をそのまま表示する。
ステップS207において、顔追尾処理部106は、ステップS204で算出されたカメラ動き情報に基づき、ステップS203で行った仮対応付けに誤りがないか判定する。誤りがあった場合には、顔追尾処理部106は、正しく対応付けを行う。これにより、前フレームで検出されたが現フレームでは検出に失敗した未検出顔が特定される。
まず、顔追尾処理部106は、ステップS203で行った仮対応付けに誤りがないか判定する。
判定方法としては、顔追尾処理部106は、ステップS203で仮対応付けされた顔の前フレームImg_pと現フレームImg_inとにおける顔中心座標から、顔の移動角度と移動量とを算出する。そして、顔追尾処理部106は、前記顔の移動角度と、ステップS204で算出したカメラ動き情報の主方向と、を比較すると共に、前記顔の移動量とを、ステップS204で算出したカメラ動き情報の主方向移動量と、を比較する。顔追尾処理部106は、移動角度と主方向との差、移動量と主方向移動量との差、どちらか一方でも所定の範囲を超えた場合には、対応付けに誤りがあったと判定する。
本実施形態では、顔fp7と顔fi6とが対応付けられていたが、移動量が所定の範囲を超えるため、顔追尾処理部106は、対応付けに誤りがあったと判定する。
この時点で、顔fp7は、現フレームにおいて未検出状態の顔か、或いはフレームアウトした顔であるといえる。そこで、顔追尾処理部106は、どちらの状態であるかの判定を行う。この判定を、顔追尾処理部106は、前フレームにおける顔中心座標、カメラ動き情報のうちX方向の移動量vec_x、Y方向の移動量vec_yを用いて以下の式(6)により行う。なお、本実施形態における画像サイズは、幅640画素、高さ480画素であるとする。
Figure 2011234314
上記式(6)を満たす場合には、顔fp7が現フレーム内に位置するはずであるため、顔追尾処理部106は、現フレームにおいて顔検出が失敗した未検出顔であると判定する。逆に、上記式(6)を満たさない場合には、顔fp7が現フレームの外に位置するはずであるため、顔追尾処理部106は、フレームアウトした顔であると判定する。
ステップS208において、顔追尾処理部106は、顔移動ベクトルを算出する。ここで、顔移動ベクトルとは、前フレームから現フレームまでにカメラが移動した場合に、画像内で顔が動く方向と量のことである。
ここで、図3に示した前フレームImg_pと現フレームImg_inとのようにカメラが動いて画像内の顔が移動した場合、画像の手前に写る人物と奥に写る人物では、画像内の移動量が異なる。一般的に、人物がある程度静止している状態であれば、画像の奥に写る人物ほど画像内の移動量は大きくなる。このため、このような状況で画像に対し顔の移動量を一意に決めたのでは、全ての顔に対して適切な移動量を決定することができない。そこで、本実施形態では、顔のサイズに応じて移動量を決定することにより上記問題を解決する。
ステップS208の詳細な処理の流れを図12のフローチャートに示す。
ステップS401において、顔追尾処理部106は、顔のサイズに対する顔の移動量をプロットして顔サイズ・移動量対応グラフを生成する。顔fp1〜fp6までの顔サイズと移動量とを図13に示す値とした場合、顔サイズ・移動量対応グラフは、図14に示す通りとなる。
ステップS402において、顔追尾処理部106は、ステップS401で生成した対応グラフに対し、線形回帰分析により、顔サイズと移動量の近似直線を算出する。例えば、図13の対応表に示す値を用いて顔追尾処理部106が代表的な線形回帰分析の手法である最小2乗法を用いて算出した近似直線は以下の式(7)で表される。式(7)におけるxは顔サイズを表す変数であり、yは移動量を示す変数である。
Figure 2011234314
図15は、顔サイズ・移動量対応グラフに近似直線を追加したグラフである。
ステップS403において、顔追尾処理部106は、未検出顔のサイズを取得する。未検出顔のサイズは、図6の対応表における前フレームの顔サイズを参照する。
ステップS404において、顔追尾処理部106は、ステップS402で算出した式(7)に、ステップS403で取得した未検出顔のサイズを代入し、未検出顔の移動量L_ffを算出する。
ステップS405において、顔追尾処理部106は、未検出顔の移動方向θ_ffを決定する。
未検出顔の移動方向θ_ffは、ステップS302で決定した主方向の角度とする。
以上より、未検出顔の顔移動ベクトル(vec_ff_x,vec_ff_y)は、以下の式(8)により算出される。
Figure 2011234314
図2のフローチャートに戻る。
ステップS209において、顔追尾処理部106は、未検出顔の位置とサイズを算出する。
まず、顔追尾処理部106は、未検出顔の位置として、顔の中心座標を算出する。
顔追尾処理部106は、未検出顔の中心座標(Cx,Cy)を、未検出顔の前フレームにおける顔中心座標(pfnX,pfnY)と、未検出顔の顔移動ベクトル(vec_ff_x,vec_ff_y)と、を用いて、以下の式(9)により算出する。但し、未検出顔の顔IDがfpnの場合である。
Figure 2011234314
次に、未検出顔のサイズを算出する。
顔追尾処理部106は、未検出顔のサイズS_ffを、前フレームと現フレームで対応関係にある顔サイズの変化率の平均値ave_frを算出し、この平均値ave_frを未検出顔の前フレームにおける顔サイズにかけることで算出する。
本実施形態における未検出顔fp7の前フレームにおける顔サイズは、図6よりS_fp7のため、現フレームにおける未検出顔fp7の顔サイズは、S_fp7×ave_frとなる。
なお、顔追尾処理部106は、変化率の平均値の算出において、ステップS207において本対応付けにより対応付けられた顔のみを用いて行うものとする。
ステップS210において、主制御部102は、最終的な検出結果を表示部107に表示する。
図16は、デジタルカメラの表示部に検出枠を表示した場合の一例を示す図である。図16における1601は、表示部(表示部107)であり、1602は撮影、画像再生、データ削除等の操作を行う操作部である。
以上、第一の実施形態では、前フレームImg_pと現フレームImg_inとで共に検出されている顔の位置とサイズを利用して顔の移動ベクトルを算出する。そして、現フレームImg_inにおいて顔検出が失敗してしまう顔の位置とサイズとを推定する方法について説明した。本実施形態によれば、顔のサイズに応じて移動ベクトルを算出し、未検出顔の位置を推定するため、画像内で顔の移動量に差が出てしまうような場合においても、画像内の全ての顔に対して適切な移動量を算出することができる。
<第二の実施形態>
第二の実施形態における前フレームImg_pと現フレームImg_inとの画像例を図17に示す。
女性や子供等顔のサイズが小さい場合、図17の顔fp8に示すように画像の手前に写っていても画像の奥の顔と同程度のサイズに見えることがある。このような場合、顔のサイズが同じであっても、画像における移動量が異なってしまう。即ち、この例では顔fi8よりも顔fi6の移動量の方が大きくなる。そこで、これらの顔を同一グループとして移動量を決定すると、精度が低下してしまう。
第二の実施形態では、このような状況に対しても、精度を落とすことなく未検出顔の移動量を決定する方法を説明する。第一の実施形態のおけるステップS303において、顔サイズ毎の移動ベクトルを算出する際に、算出に利用する顔に対して画像上の水平方向の位置による制限を加えることで、精度低下要因となる顔を除外する。つまり、顔追尾処理部106は、画像を水平方向に分割した際、同一の領域にある大きさの類似する被写体領域を用いて、被写体領域の大きさ毎の移動情報を算出する。このため、カメラに対して水平方向に複数の列を成した集団がカメラに顔を向けて近づいてくるような状況において、特に大きな効果を確認できる。なお、ここで、「大きさの類似する」とは、例えば、大きさの誤差が所定の範囲内のもの等のことである。
なお、第二の実施形態では、第一の実施形態のステップS208の処理の一部を変更する。このため、それ以外の処理であるステップS201〜S207,ステップS209,S210については第一の実施形態と同一の処理となるため、以下では説明を省略する。
また、本実施形態でステップS207までの処理により生成される前フレームと現フレームとにおける顔の対応表を図18に示す。本実施形態では、顔fp7が未検出顔であり、それ以外の顔はステップS207の本対応付けで対応付けられているものとする。
第二の実施形態におけるステップS208の処理の流れを図19に示す。
ステップS1801において、顔追尾処理部106は、ステップS207で本対応付けされた顔についてその位置座標を取得する。位置座標は、図18に示す対応表より取得する。
ステップS1802において、顔追尾処理部106は、ステップS1801で取得した位置座標に基づき水平位置でのグルーピングを行う。
グルーピングの一例として、例えば、顔追尾処理部106は、前フレームImg_pにおける顔のY座標の最大値f_maxと最小値f_minとを取得し、以下の式(10)を満たすサイズの範囲を1つのグループとしてグルーピングすればよい。
Figure 2011234314
式(10)におけるMは、グループの個数であり予め定めておけばよい。本実施形態では、M=3とし、各顔の顔中心座標については図20に示す値を用いる。
この場合、式(10)を用いて顔追尾処理部106が、水平位置でグルーピングした結果を図21の表に示す。
またグルーピング結果を画像で示されたたものが図22となる。
ステップS1803において、顔追尾処理部106は、ステップS1802でグルーピングした各グループにおいて、他の顔と極端にサイズの異なる顔がある場合には、その顔をステップS401における処理対象の顔から除外する。処理対象外の顔を決定する方法としては、顔追尾処理部106は、グループ内の顔サイズの平均値を算出し、この平均値と大きく乖離するサイズをもつ顔がグループ内にあるか否かを判定する。もし大きく乖離する顔がある場合には、顔追尾処理部106は、その顔を処理対象外の顔として決定する。
本実施形態では、グループ3における顔fi8が処理対象外の顔と決定されるものとする。
ステップS401の処理では、顔追尾処理部106は、ステップ1803で対象外とした顔以外の顔を用いて、第一の実施形態と同様の処理を実施する。
図19におけるステップS401〜S405までの処理は、第一の実施形態と同一の処理となるため、同じ番号を付与して説明を省略する。
以上、第二の実施形態によれば、顔の移動量を算出する際、同じ水平位置において顔サイズが明らかに異なるものは対象から外す。これにより、カメラから同じ距離にあっても他の顔とサイズが明らかに異なる顔を除外して顔の移動量を算出することができる。このため、多数の大人の顔に混じって、女性や子供等、平均的な大人の顔よりサイズの小さい顔を含むような画像に対しても、精度よく未検出顔の位置を推定することができる。
<第三の実施形態>
第一の実施形態と第二の実施形態とにおいて、現フレームImg_inで未検出となる顔について本提案手法を用いて前記顔の位置を推定する例を説明したが、特定の状況では本提案手法によっても正しく位置を推定することができない場合がある。
例えば、人物が急に走り出した場合には、前フレームImg_pと現フレームImg_inとの顔の移動量が極端に大きくなるため、推定した位置に顔が含まれなくなってしまう。
また、人物は静止していたとしても、カメラが急にパン・チルトを逆方向に移動した場合等には、推定した位置とは逆の方向に実際の顔が存在することになり、この場合も同様に推定した位置に顔が含まれなくなってしまう。
このような状況において、推定した位置を素直にユーザに表示した場合、顔が存在しない位置に検出結果枠が表示されてしまい、見栄えがよくない。特に後述した状況では、画像内の多くの顔について誤った検出結果が表示されてしまうことになる。
第三の実施形態では、主制御部102が、第一の実施形態或いは第二の実施形態で推定した未検出顔の位置付近の肌色情報を代表色の一例として取得する。主制御部102が、この肌色情報に基づき、推定した位置に実際に顔領域があるか否かを調べ、顔領域がある場合にのみ検出結果を表示することで上記問題を解決する。
図23は、第三の実施形態の処理フローを示す図である。ステップS201〜ステップS209は、第一の実施形態と同一の処理となるため、同じ番号を付与して説明を省略する。
ステップS2301において、主制御部102は、ステップS209で算出された未検出顔の位置付近における肌色画素をカウントする。なお、ステップS209で算出された未検出顔の中心座標とサイズとからなる矩形領域は、正面を向いた顔に対し顔領域に隣接する程度の大きさで設定される場合が多い。このため、斜め方向を向いた顔の場合、矩形領域の端には背景領域や髪の領域が含まれてしまい、肌色領域だけを抽出することができない。そこで、主制御部102は、肌色画素をカウントする際の肌色探索領域として、ステップS209で算出された未検出顔のサイズを小さくした領域を設定する。
ステップS209で算出された未検出顔の中心座標とサイズとから設定される矩形領域と、実際に設定する肌色探索領域との関係を図24に示す。ステップS209で算出された未検出顔の中心座標とサイズとから設定される矩形領域(推定顔領域)が2401であり、肌色探索領域(探索領域)が2402となる。つまり、探索領域は、推定顔領域の中心位置から所定範囲内の領域となる。
肌色画素の検出方法については特に限定さるものではなく、公知の技術を用いればよい。例えば特開平09−107551で示されるように、RGBやYcbCrといった一般的な色空間上において、予め測定した肌色画素の値をプロットし、当該色空間上で肌色画素の範囲を決定する方法等がある。なお、より高精度に肌色画素を検出する場合には、主制御部102は、前のフレームにおける肌色領域の範囲を保持しておき、その範囲から現在のフレームにおける範囲を決定するようにすればよい。
ステップS2302において、肌色探索領域にある肌色画素が肌色探索領域内の全画素に対して所定の比率以上存在するか否かを調べることにより、主制御部102は、前記肌色探索領域に顔領域が存在するか否かを判定する。この判定は、ステップS2301でカウントした肌色画素数をHi、肌色探索領域の全画素数をPi、予め定めた比率をthPとした場合に以下の式(11)で示される。
Figure 2011234314
ステップS2302において、主制御部102は、式(11)を満たす場合には推定した位置に顔領域があると判断してステップS210に処理を進める。そして、主制御部102は、ステップS202で検出された顔の位置と、ステップS203〜ステップS209までで推定された未検出顔の位置と、を最終的な検出結果の枠として表示する。
ステップS2302において、式(11)を満たさない場合には、主制御部102は、ステップS203〜ステップS209までの処理で推定された未検出顔の位置に、実際には顔領域が存在しなかったと判断する。この場合、主制御部102は、ステップS211に処理を進め、ステップS202の顔検出処理により検出された顔についてのみ最終的な検出結果として表示する。
なお、より高精度に肌色領域判定を実施するには、主制御部102は、前フレームImg_pと現フレームImg_inとにおける肌色画素数の変化率Rpiが所定の範囲に収まるか否か式(12)により判定し、式(11)と合せて判断すればよい。但しこの場合、前フレームImg_pにおける肌色画素数を保持することが必要となる。また、式(12)のthR_minとthR_maxとは変化率に対する範囲の最小値と最大値である。
Figure 2011234314
本実施形態では、推定した未検出顔の位置付近に対し、肌色画素をカウントすることで実際に顔領域があるか否かを判定する例を説明した。しかし、主制御部102は、前のフレームにおける顔領域の色ヒストグラムを保持し、ヒストグラムのマッチングにより判定を行うようにしてもよい。また、主制御部102は、前のフレームにおける顔領域をテンプレート画像として用い、推定した未検出顔の位置付近でテンプレートマッチングを行うようにしてもよい。
また、本実施形態では、顔が人間の顔であるとし、主制御部102は、ステップS2301で肌色画素をカウント、判定するようにしている。しかしながら、犬や猫等他の動物を検出対象として実施する場合には、主制御部102は、これら動物の顔領域付近の代表色抽出と領域判定を行えばよい。
また、本実施形態では、特に顔領域に対して未検出した場合の位置を推定する方法を説明したが、歩行者等の人体領域を検出対象とすることもできる。
第三の実施形態では、主制御部102が、第一、第二の実施形態により推定した未検出顔の位置に対し、肌色領域の判定を行うことで実際に顔領域があるか否かを調べ、肌色判定で顔領域があるとされた場合のみ、推定した未検出顔の位置を正しいと判断する。このため、急に人物が動き出した場合やカメラの画角が変わった場合等においても、顔が存在しない領域を誤って顔領域として推定してしまうことを防ぐことができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、画像上での複数の被写体領域の移動量が大きく異なる場合にも適切に移動情報を算出し、注目する被写体領域の位置を推定することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
102 主制御部、105 顔検出部、106 顔追尾処理部

Claims (9)

  1. 時系列で並ぶ複数の入力画像を取得する画像取得手段と、
    前記画像取得手段で取得された入力画像から複数の被写体領域を検出する検出手段と、
    前記検出手段で前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定手段と、
    を有し、
    前記推定手段は、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定する画像処理装置。
  2. 前記推定手段は、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域のうち、前記過去の入力画像と前記入力画像とを水平方向に分割した際、同一の領域にある大きさの類似する被写体領域を用いて、被写体領域の大きさ毎の移動情報を算出する請求項1記載の画像処理装置。
  3. 前記推定手段により推定された領域における代表色を抽出する代表色抽出手段と、
    前記代表色抽出手段により抽出された代表色に基づき、前記推定手段により推定された領域に被写体領域があるか否かを判定する領域判定手段と、
    を更に有する請求項1又は2記載の画像処理装置。
  4. 前記代表色抽出手段は、推定手段により推定された領域の中心位置から所定範囲内の画素を用いて代表色を抽出する請求項3記載の画像処理装置。
  5. 前記移動情報とは、前記過去の入力画像における被写体領域が、前記入力画像においてどの位置に移動したかを表す情報であり、移動方向、移動量の少なくともどちらか一方である請求項1乃至4何れか1項記載の画像処理装置。
  6. 前記被写体領域とは、人物或いは動物の顔領域、又は人体領域である請求項1乃至5何れか1項記載の画像処理装置。
  7. 前記被写体領域が人物の顔領域である場合、前記代表色は肌色である請求項3又は4記載の画像処理装置。
  8. 画像処理装置が実行する画像処理方法であって、
    時系列で並ぶ複数の入力画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された入力画像から複数の被写体領域を検出する検出ステップと、
    前記検出ステップで前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定ステップと、
    を含み、
    前記推定ステップでは、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定する画像処理方法。
  9. コンピュータに、
    時系列で並ぶ複数の入力画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された入力画像から複数の被写体領域を検出する検出ステップと、
    前記検出ステップで前記入力画像から一の被写体領域を検出できない場合に、前記複数の入力画像のうち、前記一の被写体領域を検出することができた前記入力画像より過去の入力画像と前記入力画像とで検出された複数の被写体領域に基づき、前記一の被写体領域の位置を推定する推定ステップと、
    を実行させ、
    前記推定ステップでは、前記過去の入力画像と前記入力画像とで検出された複数の被写体領域の移動情報を、被写体領域の大きさ毎に算出し、算出した被写体領域の移動情報と前記一の被写体領域の大きさとに基づき、前記入力画像における前記一の被写体領域の位置を推定するプログラム。
JP2010105672A 2010-04-30 2010-04-30 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5484184B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010105672A JP5484184B2 (ja) 2010-04-30 2010-04-30 画像処理装置、画像処理方法及びプログラム
US13/093,741 US9001219B2 (en) 2010-04-30 2011-04-25 Image processing apparatus configured to detect object included in image and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010105672A JP5484184B2 (ja) 2010-04-30 2010-04-30 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011234314A true JP2011234314A (ja) 2011-11-17
JP5484184B2 JP5484184B2 (ja) 2014-05-07

Family

ID=44857969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010105672A Expired - Fee Related JP5484184B2 (ja) 2010-04-30 2010-04-30 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9001219B2 (ja)
JP (1) JP5484184B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179438A (ja) * 2014-03-19 2015-10-08 オムロン株式会社 画像処理装置、移動速度判定方法、および移動速度判定プログラム
WO2017094504A1 (ja) * 2015-11-30 2017-06-08 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、及び、プログラム
JP2018005881A (ja) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット
JP2019124864A (ja) * 2018-01-18 2019-07-25 株式会社インテック 撮像支援システムと撮像支援方法及び撮像支援プログラム
CN111144406A (zh) * 2019-12-22 2020-05-12 复旦大学 一种太阳能面板清扫机器人自适应目标roi定位方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5959923B2 (ja) * 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US10496874B2 (en) * 2015-10-14 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Facial detection device, facial detection system provided with same, and facial detection method
JP6879296B2 (ja) * 2016-03-31 2021-06-02 日本電気株式会社 画像検出装置、画像検出方法、及びプログラム
KR102623989B1 (ko) * 2016-08-01 2024-01-11 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
JP6897082B2 (ja) * 2016-12-13 2021-06-30 富士通株式会社 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法
CN109063574B (zh) * 2018-07-05 2021-04-23 顺丰科技有限公司 一种基于深度神经网络检测的包络框的预测方法、系统及设备
KR102389066B1 (ko) * 2019-11-15 2022-04-22 주식회사 에버정보기술 얼굴 인식을 위한 얼굴영상 생성 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508461A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド 顔検出及び顔追跡
JP2007219603A (ja) * 2006-02-14 2007-08-30 Matsushita Electric Ind Co Ltd 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2008288868A (ja) * 2007-05-17 2008-11-27 Casio Comput Co Ltd 撮像装置及びプログラム
JP2010183291A (ja) * 2009-02-04 2010-08-19 Olympus Imaging Corp 追尾装置および追尾方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107551A (ja) 1995-10-11 1997-04-22 Canon Inc 画像入力装置
JPH09212648A (ja) 1996-01-31 1997-08-15 Toshiba Corp 動画像処理方法
EP3358501B1 (en) * 2003-07-18 2020-01-01 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP4274233B2 (ja) * 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
TWI355615B (en) * 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
JP2009017194A (ja) * 2007-07-04 2009-01-22 Sanyo Electric Co Ltd 物体検出装置及び方法並びに撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508461A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド 顔検出及び顔追跡
JP2007219603A (ja) * 2006-02-14 2007-08-30 Matsushita Electric Ind Co Ltd 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2008288868A (ja) * 2007-05-17 2008-11-27 Casio Comput Co Ltd 撮像装置及びプログラム
JP2010183291A (ja) * 2009-02-04 2010-08-19 Olympus Imaging Corp 追尾装置および追尾方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179438A (ja) * 2014-03-19 2015-10-08 オムロン株式会社 画像処理装置、移動速度判定方法、および移動速度判定プログラム
WO2017094504A1 (ja) * 2015-11-30 2017-06-08 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、及び、プログラム
JP2018005881A (ja) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット
JP2019124864A (ja) * 2018-01-18 2019-07-25 株式会社インテック 撮像支援システムと撮像支援方法及び撮像支援プログラム
CN111144406A (zh) * 2019-12-22 2020-05-12 复旦大学 一种太阳能面板清扫机器人自适应目标roi定位方法
CN111144406B (zh) * 2019-12-22 2023-05-02 复旦大学 一种太阳能面板清扫机器人自适应目标roi定位方法

Also Published As

Publication number Publication date
US20110267489A1 (en) 2011-11-03
US9001219B2 (en) 2015-04-07
JP5484184B2 (ja) 2014-05-07

Similar Documents

Publication Publication Date Title
JP5484184B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN107438173B (zh) 视频处理装置、视频处理方法和存储介质
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
KR101071352B1 (ko) 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP6356266B2 (ja) 群集監視システム
US9001222B2 (en) Image processing device, image processing method, and program for image processing for correcting displacement between pictures obtained by temporally-continuous capturing
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP6077655B2 (ja) 撮影システム
CN106603968B (zh) 信息处理装置及信息处理方法
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP6638723B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2006226965A (ja) 画像処理装置、コンピュータプログラム、及び画像処理方法
JP2008035301A (ja) 移動体追跡装置
US9706121B2 (en) Image processing apparatus and image processing method
JP5173549B2 (ja) 画像処理装置及び撮像装置
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
CN106454066B (zh) 图像处理设备及其控制方法
JP7338174B2 (ja) 物体検出装置および物体検出方法
JP2019192155A (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140218

R151 Written notification of patent or utility model registration

Ref document number: 5484184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees