JP2009026146A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2009026146A
JP2009026146A JP2007189954A JP2007189954A JP2009026146A JP 2009026146 A JP2009026146 A JP 2009026146A JP 2007189954 A JP2007189954 A JP 2007189954A JP 2007189954 A JP2007189954 A JP 2007189954A JP 2009026146 A JP2009026146 A JP 2009026146A
Authority
JP
Japan
Prior art keywords
search area
subject
person
identification
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007189954A
Other languages
English (en)
Other versions
JP4968929B2 (ja
Inventor
Masami Kato
政美 加藤
Takahisa Yamamoto
貴久 山本
Yoshinori Ito
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007189954A priority Critical patent/JP4968929B2/ja
Publication of JP2009026146A publication Critical patent/JP2009026146A/ja
Application granted granted Critical
Publication of JP4968929B2 publication Critical patent/JP4968929B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】最適な探索領域をシーンに応じて設定できるようにする。
【解決手段】人物の顔を検出する処理(S103)を行い、人物の顔を検出した場合は、人物の顔の向きを判定する(S105)。そして、正面顔が検出された場合は、探索領域の水平方向の中心を顔中心に一致させる。また、右向き顔が検出された場合は、探索領域の水平方向中心位置を右側にずらす。さらに、左向き顔が検出された場合は、探索領域の水平方向中心位置を左側にずらすようにして、最適な探索領域をシーンに応じて設定する(S108)。
【選択図】図1

Description

本発明は画像処理装置、画像処理方法、プログラム及び記録媒体に関し、特に、ディジタルカメラ、ビデオカメラ、監視カメラシステム、見守りシステム、行動記録システム、産業用マシンビジョンシステム等に用いて好適な技術に関する。
カメラの被写体検出や監視カメラシステム等へ応用することを目的として、映像データから特定の物体を検出し、追尾する手法が提案されている。例えば、特許文献1では、カメラの自動焦点機構のために、画像中に検出領域を設定し、当該領域を移動させながら人物領域を追跡するカメラが提案されている。
図2は、特定の探索領域を設けて人物を追跡する従来例を説明する図である。201a〜201cは撮影領域を示し、202a〜202cは探索領域を示す。また、203は時刻tにおける人物の検出結果を示し、204は時刻t+α(α:所定の検出単位)における人物の検出結果を示す。さらに、205はα時間に対象人物が移動した移動ベクトルを示す。
一般的に、時刻t+αに人物が検出された場合、人物が中心となる様な探索領域202bを設定して次のフレームの検出処理を開始する。一方、より高性能な追尾を目的として、移動ベクトル205から探索領域202aの移動方向を予測して探索領域202cを設定する手法も提案されている。例えば、特許文献2では、単位時間内の移動量を元に、顔部位の探索領域を設定する手法が提案されている。
このように、対象物の移動方向を正確に予測して探索領域を狭領域化することができれば、より高速な物体追尾を実現することが可能になる。逆に、追尾時間が問題にならない場合は、探索領域の狭領域化により、同じ処理時間でより複雑な検出方式を適用し、検出性能を向上させることができる。また、物体検出システム等において、システムの消費電力を抑える最も有効な手段は、検出領域を限定して検出処理回数を減少させることにある。このため、より的確な予測に基づく探索領域の狭領域化が望ましい。
特開昭61−28914号公報 特開2004−258907号公報 特開2004−318632号公報 H. Schneiderman, T. Kanade. "A Statistical Method for 3D Object Detection Applied to Faces and Cars". IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2000) 赤松 茂"コンピュータによる顔の認識の研究動向."電子情報通信学会誌 80,3,1997,p.257−266.
近年の半導体技術の進歩に伴い、人物の状態や属性或いは個人の識別等を行う高次の認知技術が開発されて実用に供されている。これらの高次の認知技術にも、前処理として対象物体の追尾検出技術が必要な場合が多い。しかしながら、前述した従来例に示すように、移動ベクトルだけによる予測では、例えば、検出対象が停止状態にある場合等においては、移動ベクトルを検出できないか、もしくは検出することが難しい場合もある。このような場合では、最適な探索領域をシーンに応じて設定できないという問題点があった。
本発明は前述の問題点に鑑み、最適な探索領域をシーンに応じて設定できるようにすることを目的としている。
本発明の画像処理装置は、映像データを入力する映像入力手段と、前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、前記探索領域設定手段によって設定された探索領域から被写体を検出する被写体検出手段と、前記被写体検出手段によって検出された被写体の状況を識別する状況識別手段とを有し、前記探索領域設定手段は、前記状況識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
また、本発明の画像処理装置の他の特徴とするところは、映像データを入力する映像入力手段と、前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、前記探索領域設定手段によって設定された探索領域から被写体を検出する被写体検出手段と、前記被写体検出手段によって検出された被写体の属性を識別する属性識別手段とを有し、前記探索領域設定手段は、前記属性識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
本発明の画像処理方法は、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、前記被写体検出工程において検出した被写体の状況を識別する状況識別工程とを有し、前記探索領域設定工程においては、前記状況識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
また、本発明の画像処理方法の他の特徴とするところは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、前記被写体検出工程において検出した被写体の属性を識別する属性識別工程とを有し、前記探索領域設定工程においては、前記属性識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする。
本発明のプログラムは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、前記被写体検出工程において検出した被写体の状況を識別する状況識別工程とをコンピュータに実行させ、前記探索領域設定工程においては、前記状況識別工程における識別の結果に基づいて、次のフレームの探索領域を設定するようにコンピュータに実行させることを特徴とする。
また、本発明のプログラムの他の特徴とするところは、映像データを入力する映像入力工程と、前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、前記被写体検出工程において検出した被写体の属性を識別する属性識別工程とをコンピュータに実行させ、前記探索領域設定工程においては、前記属性識別工程における識別の結果に基づいて、次のフレームの探索領域を設定するようにコンピュータに実行させることを特徴とする。
本発明の記録媒体は、前記の何れかに記載のプログラムを記録したことを特徴とする。
本発明によれば、被写体の状況を識別し、その識別の結果に従って次のフレームの探索領域を設定するようにしたので、被写体が停止している場合等であっても、最適な探索領域をシーンに応じて設定することができる。これにより、被写体の追尾性能を向上させることができる。
(第1の実施形態)
以下、図面を参照しながら本発明に係る第1の実施形態の追尾処理に関して詳細に説明する。
図1は、本実施形態における追尾処理の手順の一例を示すフローチャートである。また、図3は、本実施形態に係る追尾処理を、マイクロプロセッサを用いて実現する場合の画像処理装置の構成例を示すブロック図である。以下、図1及び図3を参照しながら本実施形態の動作を説明する。
まず、本実施形態に係る画像処理装置300を監視カメラ装置に応用した場合の例について説明する。図3において、301はCPU(Central Processing Unit)であり、本実施形態に関わる画像処理の全てをソフトウェアにより実現する。CPU301はDSP(Digital Signal Processor)やメディアプロセッサ或いは特定の画像処理機能に特化したプロセッサ等からなる。
302はブリッジであり、高速なCPUバス303と低速なシステムバス304とをブリッジする機能を有する。また、ブリッジ302は、メモリコントロール機能を内蔵し、ブリッジ302に接続されたRAM(Random Access Memory)305へアクセスする制御を行う機能を有する。さらにブリッジ302は、システムバス304につながっているデバイスとRAM305との間のデータ転送を司るDMAC(Direct Memory Access Controller)機能を内蔵する。
RAM305はCPU301の動作に必要なメモリであり、SDRAM(Synchronous DRAM)/DDR(Double Data Rate SDRAM)/RDRAM(Rambus DRAM)等の大容量高速メモリにより構成されている。また、RAM305は画像データバッファ等としても利用される。
EEPROM(Electrically Erasable Programmable Read-Only Memory)306は、CPU301の動作に必要なインストラクションデータ及び各種設定データを格納するためのメモリである。なお、システムを初期化する時は、EEPROM306に格納したブートローダプログラムによりインストラクションデータはRAM305に転送される。以降、CPU301はRAM305上のインストラクションデータに従って処理を行う。
307はRTC(Real Time Clock)ICであり、時間管理/カレンダ管理を行う専用デバイスである。通信インターフェース部308は、宅内の回線接続装置(各種モデムやルーター)と本装置とを接続するために必要な処理部である。通信インターフェース部308は、例えば、無線LAN(IEEE802.11b/IEEE802.11a/IEEE802.11g等)の物理層及び下位レイヤプロトコルを処理する。
310は映像入力部であり、CCD(Charge-Coupled Devices)/CMOS(Complimentary Metal Oxide Semiconductor)センサー等の光電変換デバイスを含む。また、光電変換デバイスを制御するドライバー回路・各種画像補正を司る信号処理回路も含む。
311は映像入力インターフェース部であり、映像入力部310から同期信号とともに出力されるラスタ画像データをディジタルデータに変換する。そして、フレームバッファ(映像入力インターフェース部311が具備する図示しないメモリ)にバッファリングする。映像入力インターフェース部311にバッファリングされたディジタル画像データは、ブリッジ302に内蔵されたDMACを利用して、RAM305上の所定のアドレスに転送される。
CPU301は、ブリッジ302が生成するDMA転送終了割り込み信号を元に、RAM305に保持されたディジタル画像データに対して各種処理を開始する。なお、画像処理装置300は図示しない電源部も有する。電源部は、例えば充電可能な2次電池により給電される。また、通信インターフェース部308が有線LANの場合は、Power Over Ethernet(登録商標)等により給電される。
図1は、本実施形態における追尾処理の手順の一例を示すフローチャートである。なお、図1のフローチャートに示す各処理は、EEPROM306などからRAM305にロードされたプログラムをCPU301が実行することによって実現される。
電源が投入されると処理を開始する。まず、ステップS101において、各種初期化処理を実行する。初期化処理では、EEPROM306からRAM305へインストラクションデータのロード、各種ハードウェアの初期化処理、ネットワーク接続のための処理等を実行する。さらに、初期化処理では、CPU301が探索領域設定手段として機能し、人物を検出するための初期探索領域を設定する。
図4(a)は、初期探索領域の設定例を示す図である。401は入力画像(フレーム)を示し、402は人物を検出するためのフレーム内の初期の探索領域を示す。探索領域402は矩形領域で表され、入力画像401上の開始位置座標403、探索領域水平幅404及び探索領域垂直高さ405の3つのパラメータを有する。そして、CPU301により当該パラメータをRAM305上の所定の領域に保持するようにする。
なお、初期の探索領域402は、目的に応じて任意の位置・大きさに設定することができる。例えば、特定の領域に侵入した人物を追尾する様なアプリケーションでは、入力画像401中の該当する領域を初期の探索領域402に設定する。以降、後述するステップS102〜ステップS108において、人物の追尾処理を繰り返す。
次に、ステップS102において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵されたDMACを利用する。
DMACによる画像データの転送が終了すると、ステップS103において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS104において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS106に進む。一方、ステップS104の判断の結果、人物の顔を検出した場合は、次のステップS105において、CPU301が状況識別手段として機能し、被写体の状況の検出を行う。具体的には、顔の向きの検出を行う。
本実施形態では、人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の初期の探索領域402に対して検出処理を行う。本実施形態の顔検出処理は従来提案されている手法を利用する。例えば、非特許文献1には、統計的な手法を用いて画像から人物の顔とその向きを検出する方式が開示されている。
一般的に、向き(姿勢)の異なる人物を高精度に認識する場合は、図5に示すように、検出対象画像に対して向きに応じて、右向き顔検出器501、正面向き顔検出器502、及び左向き顔検出器503を用意する。そして、当該検出器の出力値を統合処理部504で統合判定することにより、顔の存在有無の結果505と顔の向きの結果506とを出力する。
統合処理部504は、例えば、右向き顔検出器501、正面向き顔検出器502、及び左向き顔検出器503からの出力結果を比較することによって顔の向きを決定する。なお、出力値に応じた中間角度を顔の向きの結果506として出力する等の方法を用いてもよい。図5に示すような方法を用いる場合は、統合処理部504により、図1のステップS105に相当する処理が行われる。
次に、ステップS106において、ステップS103、S105で得られた顔の存在有無及び顔の向きに関する情報を出力する。具体的には、ステップS102で得られた画像データを人物の検知情報とともにMotion-JPEG(Joint Photographic Experts Group)等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。圧縮処理及び通信に関するプロトコル処理等は全てCPU301の制御により行われる。
次に、ステップS107において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS107においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS107の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS108に進む。
次に、ステップS108において、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS104の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS101の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS104の判断の結果、人物の顔が検出された場合、ステップS105の顔向き判定処理の結果に従って所定の探索領域を設定する。
図4(b)は顔向きと探索領域の設定との関係を示す図である。406a〜406cは入力画像の領域を示す。408bは正面顔の位置であり、407bは正面顔が検出された場合に設定する次フレーム内の探索領域を示す。正面顔が検出された場合は、探索領域402の水平方向の中心を顔中心に一致させる。408aは右向き顔の位置であり、407aは右向き顔が検出された場合に設定する次フレーム内の探索領域を示す。右向き顔が検出された場合は、探索領域402の水平方向中心位置を右側にずらす。また、408cは左向き顔の位置であり、407cは左向き顔が検出された場合に設定する次フレーム内の探索領域を示す。左向き顔が検出された場合は、探索領域402の水平方向中心位置を左側にずらす。
例えば、予め定める比率α(%)とすると、現在の顔向きの検出結果に応じて以下の式により探索領域402の水平方向開始位置(以下のX start)を決定する。
X start = X face −(1+顔向き×α)×探索領域幅/2
(X face:顔中心水平位置、X start:探索領域開始水平位置、顔向き:右向き=−1/左向き=1/正面顔=0)
以上の式により、顔の向きと同じ方向に所定の割合で探索領域402をずらす。
以上、ステップS107では顔向き検出結果を利用して探索領域402の水平方向開始位置を補正する。ここで決定した探索領域を示す座標データはRAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS103)及び顔向き判定処理(ステップS105)の処理領域として利用される。
以上のようにステップS101〜ステップS108を繰り返すことにより、映像中の人物を追跡し、その映像及び情報を遠隔地のユーザに通知する。なお、本実施形態では顔の向き(正面或いは横)に応じて探索領域を一定の比率でずらしたが、より正確な顔の角度が得られる場合は、当該角度に応じて探索領域をずらすように比率を変更してもよい。
また、顔の向きに応じた探索領域をテーブルデータとしてRAM305に予め保持し、顔向きの判定結果に従ってテーブルを参照する様な構成でもよい。さらに、顔の上下方向の向きも考慮して探索領域を決定してもよい。その場合、探索領域の垂直方向の位置も顔向き判定結果に従ってずらすことになる。
以上のように本実施形態によれば、人物の顔の向きに基づいて当該人物の移動方向を予測し、この予測に基づいて探索領域を設定するようにしたので、人物が停止している場合等であっても、最適な探索領域を設定することが可能になる。これにより、追跡性能を向上させることが可能になる。
(第2の実施形態)
以下、図面を参照しながら本発明に係る第2の実施形態の追尾処理に関して詳細に説明する。
図6は、本実施形態における追尾処理の手順の一例を示すフローチャートである。本実施形態は、人物の属性情報を識別する機能を有する行動パターン記録システムや監視システム等に応用した場合の例である。なお、機能構成については、第1の実施形態の図3に示した画像処理装置300と同様であるため、説明は省略する。また、図6のフローチャートに示す各処理は、RAM305にロードされたプログラムを用いて、CPU301によって制御される。
電源が投入されると処理を開始する。まず、ステップS601において、各種初期化処理を実行する。なお、ステップS601の初期化処理は第1の実施形態のステップS101と同じであるため説明を省略する。以降、後述するステップS602〜ステップS608で人物の追尾処理を繰り返す。
次に、ステップS602において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵されたDMACを利用する。
DMACによる転送が終了すると、ステップS603において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS604において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS606に進む。一方、ステップS604の判断の結果、人物の顔を検出した場合は、次のステップS605に進む。本実施形態においても第1の実施形態と同様に人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の探索領域に対して検出処理を行う。なお、ステップS603の顔検出処理は、第1の実施形態と同様でよい。
次に、ステップS605において、CPU301が属性識別手段として機能し、人物の属性を判定する。本実施形態では、第1の実施形態とは異なり、人物の年齢を判定する。本実施形態における年齢の判定に関しては、従来提案されている手法を利用する。例えば、特許文献3には、顔画像データを用いて人物の年齢を推定する手法が開示されている。
次に、ステップS606において、ステップS603、S605で得られた顔の存在有無及び人物の年齢に関する情報を出力する。具体的には、ステップS602で得られた画像データを人物の検知情報とともにMotion-JPEG等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。
次に、ステップS607において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS607においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS607の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS608に進む。
次に、ステップS608において、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS604の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS601の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS604の判断の結果、人物の顔が検出された場合は、ステップS605の属性判定処理の結果に従って所定の探索領域を設定する。
図7は、人物の年齢と探索領域の設定との関係を示す図である。701a、701bは入力画像の領域を示す。702aはステップS605で子供の年齢と判定された場合に設定する次フレームの探索領域を示し、703aは検出された顔の位置を示す。また、702bはステップS605で高齢者の年齢と判定された場合に設定する次フレームの探索領域を示し、703bは検出された顔の位置を示す。ここでは、子供の場合は、よく動き回るので探索範囲を大きくとり、高齢者の場合は探索範囲を小さくしている。
本実施形態では、検出された人物の年齢に応じて次フレームで設定する探索領域の幅及び高さを補正する。例えば、予め定める比率α(%)とすると、年齢の検出結果に応じて以下の式により探索領域水平幅404及び探索領域垂直高さ405を決定する。なお、探索領域の中心位置は顔位置の中心とする。
W horizontal=(1+年齢パラメータ×α)×標準探索領域幅
W vertical=(1+年齢パラメータ×α)×標準探索領域高さ
(ここで、W horizontal:探索領域水平幅、W vertical:探索領域垂直高さ、年齢パラメータ:高齢者=−1/子供=1/一般成人=0)
以上の式により、ステップS608においては、年齢の検出結果を利用して探索領域の水平方向の幅及び垂直方向の高さを補正する。ここで決定した探索領域を示す座標データはRAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS603)及び属性判定処理(ステップS605)の処理領域として利用される。なお、探索領域の決定は前述した式に限定するわけではない。例えば、年齢に応じた探索領域をテーブルデータとしてRAM305に予め保持し、年齢判定結果に従ってテーブルを参照する様な構成でもよい。
以上のように本実施形態によれば、人物の年齢を認識する機能を有する行動パターン記録装置や監視システム等において、人物の年齢に基づいて当該人物の移動範囲を予測するようにした。これにより、人物が停止している場合等でも、最適な探索領域を予測することが可能になる。したがって、検出・追跡に関わる処理負荷を低減することが可能になる。
(第3の実施形態)
以下、図面を参照しながら本発明に係る第3の実施形態の追尾処理に関して詳細に説明する。
図8は、本実施形態における追尾処理の手順の一例を示すフローチャートである。本実施形態は、人物の認証機能を有するホームセキュリティシステムや監視システム等に応用した場合の例である。なお、機能構成については、第1の実施形態の図3に示した画像処理装置300と同様であるため、説明は省略する。また、図8のフローチャートに示す各処理は、RAM305にロードされたプログラムを用いて、CPU301によって制御される。
電源が投入されると処理を開始する。まず、ステップS801において、各種初期化処理を実行する。なお、ステップS801の初期化処理は第1の実施形態のステップS101と同じであるため説明を省略する。以降、後述するステップS802〜ステップS808で人物の追尾処理を繰り返す。
次に、ステップS802において、映像入力インターフェース部311のフレームバッファに格納された1フレームの画像データをRAM305に転送する。画像データを転送する際には、ブリッジ302に内蔵するDMACを利用する。
DMACによる転送が終了すると、ステップS803において、CPU301が被写体検出手段として機能し、人物(被写体)の顔検出処理を開始する。そして、ステップS804において、人物の顔を検出したか否かを判断する。この判断の結果、人物の顔を検出しなかった場合は、ステップS806に進む。一方、ステップS804の判断の結果、人物の顔を検出した場合は、次のステップS805に進む。本実施形態においても、第1及び第2の実施形態と同様に、人物の顔を検出することによって当該人物の追尾を行う。顔検出処理は、RAM305に記録された画像データ内の探索領域に対して検出処理を行う。なお、ステップS803の顔検出処理は第1の実施形態と同様の方法で行う。
次に、ステップS805において、CPU301が属性識別手段として機能し、画像データ内で検出された人物から個人を特定する。本実施形態の画像データを利用した個人の特定(識別)に関しては、従来提案されている手法を利用する。例えば、非特許文献2等に、様々な手法が開示されている。
次に、ステップS806において、ステップS803、S805で得られた顔の存在有無及び個人識別結果に関する情報を出力する。具体的には、ステップS802で得られた画像データを個人の検知情報とともにMotion-JPEG等の圧縮方式で圧縮する。そして、通信インターフェース部308を介して遠隔地のユーザに伝送する。
次に、ステップS807において、人物の追尾処理が終了したか否かを判断する。1フレームの処理が終了すると次のフレームの処理を開始する。したがって、ステップS807においては、最終フレームまで人物の追尾処理が終了したか否かを判断する。この判断の結果、最終フレームまで人物の追尾処理が終了した場合は、処理を終了する。一方、ステップS807の判断の結果、最終フレームまで人物の追尾処理が終了していない場合は、ステップS808に進む。
次に、ステップS808においては、CPU301が探索領域設定手段として機能し、探索領域を再設定する。ステップS804の判断の結果、人物の顔が検出されなかった場合は、当該処理ステップでは、ステップS801の初期化処理で設定した領域と同じ領域をRAM305に設定する。また、ステップS803の判断の結果、人物の顔が検出された場合は、ステップS805の個人識別処理の結果に従って、所定の探索領域を設定する。
ステップS808における探索領域を再設定する処理は、特定の人物についての個人情報とその人物に対応する探索領域とが関連付けされたテーブルを用いて行われる。ステップS805の個人識別処理の結果からこのテーブルを検索し、探索領域に関する情報を取得する。なお、このテーブルはRAM305に予め格納されている。
特定の個人と探索領域との関係について図7を参照しながら説明する。704aは探索領域がテーブルに登録されている第1の人物である。また、704bは探索領域がテーブルに登録されている第2の人物である。第1の人物704aの顔を検出した場合は、探索領域702aを広く設定し、第2の人物704bの顔を検出した場合は、探索領域702bを狭く設定する。なお、第1の人物703a及び第2の人物703bに対応する探索領域に関する情報(探索領域水平幅404と探索領域垂直高さ405)は、ステップS801の初期化処理時にRAM305にテーブルとしてロードされているものとする。
一方、ステップS805の個人識別処理において、登録された人物以外の人物を認識した場合は、非登録者としてテーブルに保持されている探索領域情報を使用する。例えば、ホームセキュリティシステム等に適用する場合、非登録者は侵入者の可能性が高いため、広い探索領域で確実に追跡可能な設定とする。
このように、本実施形態では検出された人物に応じて探索領域を決定する。このステップS808で決定した探索領域を示す座標データは、RAM305の所定の領域に格納され、次のフレームの顔検出処理(ステップS803)及び個人識別処理(ステップS805)の処理対象領域として利用される。
本実施形態では、RAM305に予め格納した固定テーブルを参照して探索領域を決定する例について説明したが、対象者の追尾状況を記録して、テーブルに修正を加えるようにしてもよい。例えば、過去に追尾した際の移動速度の平均値等の追尾結果を利用して、CPU301がテーブル更新手段として機能することにより、ステップS807で探索領域を決定するために用いられるテーブルを修正する。具体的には、テーブル上の個人の探索領域水平幅(W horizontal)を下記の式を用いて修正(更新)する。
W horizontal=(1+α×(個人平均移動速度−標準移動速度)/標準移動速度)×標準探索領域幅
(α:係数、ここで、「標準移動速度」、「標準探索領域幅」及び「α」は予め定める値である。)
この場合、当該装置を設置した時は、標準的な探索領域情報が設定され、検出状況に合わせて特定の人物に対する探索領域情報をテーブルに学習させていくことができ、利便性が向上する。
以上のように本実施形態によれば、特定人物を認識する機能を有する見守りシステムや監視システム等において、人物識別結果を移動方向の予測に利用するようにしたので、より最適に探索領域を予測することが可能になる。これにより、検出・追跡に関わる処理負荷を低減することが可能になる。
(本発明に係る他の実施形態)
第1の実施形態では、人物の顔の向きに従って探索領域を設定する例について説明したが、本実施形態では、人物のさまざまな状況に従って適切な探索領域を設定することにより、より最適な探索領域の予測が可能になる。例えば、「座っている」/「立っている」/「運動をしている」等といった対象人物の状況を認識し、当該結果に従って探索領域を設定するようにしてもよい。
具体的には、座っている姿勢の場合等、移動する可能性が低いと判断される状況では探索領域を狭く設定し、立っている姿勢の場合等、移動する可能性が高いと判断される状況では、探索領域を広く設定する。さらには、「車椅子に乗っている」/「自転車に乗っている」等、人物の移動速度が予測される特定の状況を認識して探索領域を設定するようにしてもよい。この場合、例えば、車椅子の場合は移動速度が遅いと判断できるため、探索領域を狭くする。
第1〜第3の実施形態では、人物の顔を検出する例について説明したが、これに限るわけではなく、人物のシルエットを検出する等の他の手法を用いてもよい。また、人物の向き、年齢及び個人の特定についても、人物の顔を利用した方法に限るわけではなく、シルエット全体の様子や動作から認識する手法を用いてもよい。
また、第1〜第3の実施形態では、人物の追尾に関して説明したが、本発明はこれに限るわけでなく、さまざまな物体(被写体)の追尾に適用可能である。例えば、犬や猫などの動物を追尾する場合、前述した第1〜第3の実施形態で人物に適用した手法と同様の手法を利用して、その状態や属性に応じた追尾を実現することができる。
さらに、動物だけでなく様々な移動物体の追跡に応用することも可能である。例えば、車両等の移動物体の追尾に適用した場合、車両の向きを検出し、進行方向を予測することにより探索領域を最適化することができる。また、固有の動きパターンを有する複数の物体を追跡するような場合、その動きパターンに応じた探索領域をテーブル情報として用意し、物体識別結果に従ってテーブルを参照する手法で探索領域を最適化できる。
また、ロボット等の様にその種類や動作プログラムに応じて動作パターンが限定される場合、その種類等の識別結果に応じて探索領域を決定してもよい。これにより、ロボットを対象にしたより高性能なモニタリングシステムを構築することが可能である。
さらに、第1〜第3の実施形態では、物体の状況や属性を画像データから認識する例について説明したが、他の方法でもよい。例えば、ICタグ等を利用して物体の属性を判定する手法と組み合わせてもよい。また、赤外線センサー・音声センサー等他のセンシング結果を利用して物体の状況や属性を判断する手法を組み合わせてもよい。
また、第1〜第3の実施形態では、探索領域が矩形領域である例について説明したが、他の形状でもよい。さらに、第1〜第3の実施形態では、物体の状況識別結果や属性識別結果のみから探索領域を設定する例について説明したが、もちろん、従来技術である物体の移動ベクトルによる探索領域設定手法を本発明と組み合わせて利用してもよい。その場合、移動ベクトルのみで探索領域を決定する場合に比べて、性能がより向上する。
また、第1〜第3の実施形態では、映像画面中の物体を追尾する例について説明したが、撮像方向を機械的に制御可能な駆動部を有するカメラシステムに適用して、物体を追尾する装置に適用してもよい。さらに、本発明による手法を監視カメラ装置や行動記録システム、ホームセキュリティシステム等に応用した場合について説明したが、これに限るわけではない。また、第1〜第3の実施形態ではマイクロプロセッサを用いて本発明を実施する場合について説明したが、全て或いはその一部をハードウェアで実現してもよい。
前述した本発明の実施形態における画像処理装置を構成する各手段、並びに画像処理方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図1、6、8に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記録媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。
本発明の第1の実施形態における追尾処理の手順の一例を示すフローチャートである。 従来の追尾方法を説明する図である。 本発明の第1の実施形態における画像処理装置のハードウェア構成例を示すブロック図である。 本発明の第1の実施形態において、設定する探索領域の一例を示す図である。 本発明の第1の実施形態において、顔向き判定処理を行うための構成例を示すブロック図である。 本発明の第2の実施形態における追尾処理の手順の一例を示すフローチャートである。 本発明の第2の実施形態において、設定する探索領域の一例を示す図である。 本発明の第3の実施形態における追尾処理の手順の一例を示すフローチャートである。
符号の説明
300 画像処理装置
301 CPU
302 ブリッジ
303 CPUバス
304 システムバス
305 RAM
306 EEPROM
307 RTC
308 通信インターフェース部
310 映像入力部
311 映像入力インターフェース部

Claims (18)

  1. 映像データを入力する映像入力手段と、
    前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、
    前記探索領域設定手段によって設定された探索領域から被写体を検出する被写体検出手段と、
    前記被写体検出手段によって検出された被写体の状況を識別する状況識別手段とを有し、
    前記探索領域設定手段は、前記状況識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理装置。
  2. 前記被写体の状況は、前記被写体の姿勢であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記被写体の状況は、前記被写体の向きであることを特徴とする請求項1に記載の画像処理装置。
  4. 前記被写体の状況は、前記被写体の動作であることを特徴とする請求項1に記載の画像処理装置。
  5. 前記被写体が人物であり、前記探索領域が前記人物の顔を含む領域であることを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記探索領域設定手段が、現在の探索領域を前記被写体の向いている方向へ移動した位置に、次のフレームの探索領域を設定することを特徴とする請求項3に記載の画像処理装置。
  7. 前記状況識別手段による識別の結果と探索領域とを関連付けたテーブルと、前記被写体検出手段によって検出された被写体を過去に追尾した結果に従って前記テーブルを更新するテーブル更新手段とを有し、前記探索領域設定手段が前記テーブルを参照して次のフレームの探索領域を設定することを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 映像データを入力する映像入力手段と、
    前記映像入力手段によって入力された映像データを構成するフレーム内の探索領域を設定する探索領域設定手段と、
    前記探索領域設定手段によって設定された探索領域から被写体を検出する被写体検出手段と、
    前記被写体検出手段によって検出された被写体の属性を識別する属性識別手段とを有し、
    前記探索領域設定手段は、前記属性識別手段による識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理装置。
  9. 前記被写体が人物であり、前記被写体の属性が前記人物の年齢であることを特徴とする請求項8に記載の画像処理装置。
  10. 前記被写体の属性は、特定の被写体についての情報であることを特徴とする請求項8に記載の画像処理装置。
  11. 前記被写体が人物であり、前記特定の被写体についての情報が個人情報であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記被写体が人物であり、前記探索領域が前記人物の顔を含む領域であることを特徴とする請求項8〜11の何れか1項に記載の画像処理装置。
  13. 前記属性識別手段による識別の結果と探索領域とを関連付けたテーブルと、過去の追尾結果に従って前記テーブルを更新するテーブル更新手段とを有し、前記探索領域設定手段が前記テーブルを参照して次のフレームの探索領域を設定することを特徴とする請求項8〜12の何れか1項に記載の画像処理装置。
  14. 映像データを入力する映像入力工程と、
    前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
    前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、
    前記被写体検出工程において検出した被写体の状況を識別する状況識別工程とを有し、
    前記探索領域設定工程においては、前記状況識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理方法。
  15. 映像データを入力する映像入力工程と、
    前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
    前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、
    前記被写体検出工程において検出した被写体の属性を識別する属性識別工程とを有し、
    前記探索領域設定工程においては、前記属性識別工程における識別の結果に基づいて、次のフレームの探索領域を設定することを特徴とする画像処理方法。
  16. 映像データを入力する映像入力工程と、
    前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
    前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、
    前記被写体検出工程において検出した被写体の状況を識別する状況識別工程とをコンピュータに実行させ、
    前記探索領域設定工程においては、前記状況識別工程における識別の結果に基づいて、次のフレームの探索領域を設定するようにコンピュータに実行させることを特徴とするプログラム。
  17. 映像データを入力する映像入力工程と、
    前記映像入力工程において入力した映像データを構成するフレーム内の探索領域を設定する探索領域設定工程と、
    前記探索領域設定工程において設定した探索領域から被写体を検出する被写体検出工程と、
    前記被写体検出工程において検出した被写体の属性を識別する属性識別工程とをコンピュータに実行させ、
    前記探索領域設定工程においては、前記属性識別工程における識別の結果に基づいて、次のフレームの探索領域を設定するようにコンピュータに実行させることを特徴とするプログラム。
  18. 請求項16または17に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2007189954A 2007-07-20 2007-07-20 画像処理装置及び画像処理方法 Expired - Fee Related JP4968929B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007189954A JP4968929B2 (ja) 2007-07-20 2007-07-20 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007189954A JP4968929B2 (ja) 2007-07-20 2007-07-20 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2009026146A true JP2009026146A (ja) 2009-02-05
JP4968929B2 JP4968929B2 (ja) 2012-07-04

Family

ID=40397881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007189954A Expired - Fee Related JP4968929B2 (ja) 2007-07-20 2007-07-20 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4968929B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147605A (ja) * 2007-12-13 2009-07-02 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2012060529A (ja) * 2010-09-10 2012-03-22 Toshiba Corp 画像処理装置及び画像処理方法
JP2012074828A (ja) * 2010-09-28 2012-04-12 Casio Comput Co Ltd 撮像装置及びプログラム
US20120114268A1 (en) * 2007-05-08 2012-05-10 Canon Kabushiki Kaisha Device for searching print target image adapted for printable area
JP2013197669A (ja) * 2012-03-16 2013-09-30 Nikon Corp 撮像装置および撮像装置の制御プログラム
WO2015133159A1 (ja) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP2017143431A (ja) * 2016-02-10 2017-08-17 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
WO2018163515A1 (ja) * 2017-03-07 2018-09-13 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム
WO2018230294A1 (ja) * 2017-06-15 2018-12-20 シャープ株式会社 動画像処理装置、表示装置、動画像処理方法、および制御プログラム
US10375296B2 (en) 2015-11-27 2019-08-06 Xiaomi Inc. Methods apparatuses, and storage mediums for adjusting camera shooting angle
WO2020022096A1 (en) 2018-07-26 2020-01-30 Sony Corporation Information processing apparatus, information processing method, and program
WO2021005702A1 (ja) * 2019-07-09 2021-01-14 三菱電機株式会社 顔検出処理装置および顔検出処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045383A (ja) * 2003-07-24 2005-02-17 Hitachi Kokusai Electric Inc 物体追跡装置
JP2008288684A (ja) * 2007-05-15 2008-11-27 Toyota Central R&D Labs Inc 人物検出装置及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045383A (ja) * 2003-07-24 2005-02-17 Hitachi Kokusai Electric Inc 物体追跡装置
JP2008288684A (ja) * 2007-05-15 2008-11-27 Toyota Central R&D Labs Inc 人物検出装置及びプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120114268A1 (en) * 2007-05-08 2012-05-10 Canon Kabushiki Kaisha Device for searching print target image adapted for printable area
US8587823B2 (en) * 2007-05-08 2013-11-19 Canon Kabushiki Kaisha Device for searching print target image adapted for printable area
JP2009147605A (ja) * 2007-12-13 2009-07-02 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2012060529A (ja) * 2010-09-10 2012-03-22 Toshiba Corp 画像処理装置及び画像処理方法
JP2012074828A (ja) * 2010-09-28 2012-04-12 Casio Comput Co Ltd 撮像装置及びプログラム
JP2013197669A (ja) * 2012-03-16 2013-09-30 Nikon Corp 撮像装置および撮像装置の制御プログラム
US10445566B2 (en) 2014-03-05 2019-10-15 Konica Minolta, Inc. Image processing apparatus, image processing method, and non-transitory recording medium storing computer readable program
WO2015133159A1 (ja) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
US10375296B2 (en) 2015-11-27 2019-08-06 Xiaomi Inc. Methods apparatuses, and storage mediums for adjusting camera shooting angle
JP2017143431A (ja) * 2016-02-10 2017-08-17 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
WO2018163515A1 (ja) * 2017-03-07 2018-09-13 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム
JP2018147311A (ja) * 2017-03-07 2018-09-20 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム
WO2018230294A1 (ja) * 2017-06-15 2018-12-20 シャープ株式会社 動画像処理装置、表示装置、動画像処理方法、および制御プログラム
WO2020022096A1 (en) 2018-07-26 2020-01-30 Sony Corporation Information processing apparatus, information processing method, and program
US11574504B2 (en) 2018-07-26 2023-02-07 Sony Corporation Information processing apparatus, information processing method, and program
WO2021005702A1 (ja) * 2019-07-09 2021-01-14 三菱電機株式会社 顔検出処理装置および顔検出処理方法
JPWO2021005702A1 (ja) * 2019-07-09 2021-10-14 三菱電機株式会社 顔検出処理装置および顔検出処理方法
JP7051014B2 (ja) 2019-07-09 2022-04-08 三菱電機株式会社 顔検出処理装置および顔検出処理方法

Also Published As

Publication number Publication date
JP4968929B2 (ja) 2012-07-04

Similar Documents

Publication Publication Date Title
JP4968929B2 (ja) 画像処理装置及び画像処理方法
CN107438173B (zh) 视频处理装置、视频处理方法和存储介质
TWI438719B (zh) 檢測用資訊登錄裝置、電子機器、檢測用資訊登錄裝置的控制方法、電子機器的控制方法、檢測用資訊登錄裝置控制程式、電子機器的控制程式
JP7525990B2 (ja) 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム
US20160300100A1 (en) Image capturing apparatus and method
JP2019536187A (ja) マッチムーブ用のハイブリッド追跡器のシステム及び方法
US20150350523A1 (en) Image processing device, image processing method, and program
JP2007028120A (ja) 動体追跡制御装置、動体追跡システム、動体追跡制御方法及びプログラム
JP2004513442A (ja) 外観及び幾何学的配置特質に基づき統計モデルを活用する画像処理システムでの人物の札付け
JP4553384B2 (ja) 撮像装置及びその制御方法、コンピュータプログラム、記憶媒体
WO2021026804A1 (zh) 基于云台的目标跟随方法、装置、云台和计算机存储介质
JP2014128002A (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP5247569B2 (ja) 人物追跡装置、人物追跡方法及びプログラム
CN110378183B (zh) 图像解析装置、图像解析方法及记录介质
JP5839796B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP4537143B2 (ja) 画像処理装置及びその方法、撮像装置、プログラム
JP2005242759A (ja) 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2021199234A1 (ja) 認証制御装置、認証システム、認証制御方法及び記録媒体
JP2007067559A (ja) 画像処理方法、画像処理装置、及び撮像装置の制御方法
JP2010136095A (ja) 追尾撮像装置、追尾撮像方法、及びコンピュータプログラム
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP5329940B2 (ja) 画像処理装置、その制御方法、及び撮像装置
JP2000268161A (ja) 実時間表情検出装置
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4968929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees