JP6768537B2 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP6768537B2
JP6768537B2 JP2017007529A JP2017007529A JP6768537B2 JP 6768537 B2 JP6768537 B2 JP 6768537B2 JP 2017007529 A JP2017007529 A JP 2017007529A JP 2017007529 A JP2017007529 A JP 2017007529A JP 6768537 B2 JP6768537 B2 JP 6768537B2
Authority
JP
Japan
Prior art keywords
threshold value
subject area
face
recognition
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017007529A
Other languages
English (en)
Other versions
JP2018117280A5 (ja
JP2018117280A (ja
Inventor
誠 横関
誠 横関
和憲 石井
和憲 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017007529A priority Critical patent/JP6768537B2/ja
Priority to US15/873,801 priority patent/US10579864B2/en
Priority to DE102018101034.6A priority patent/DE102018101034B4/de
Priority to CN201810053654.9A priority patent/CN108337429B/zh
Publication of JP2018117280A publication Critical patent/JP2018117280A/ja
Publication of JP2018117280A5 publication Critical patent/JP2018117280A5/ja
Application granted granted Critical
Publication of JP6768537B2 publication Critical patent/JP6768537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の認識処理を行う画像処理装置、画像処理方法、及びプログラムに関する。
近年、ビデオカメラ等の撮像装置には、撮像素子により被写体像を光電変換して得られた映像信号中より周期的に被写体領域(例えば顔領域)を検出し、予め用意された顔の特徴情報と比較して、特定の人物の顔かどうかを判断する個人認識技術が搭載されている。個人認識技術により、特定の人物の顔に対してオートフォーカス(AF)制御や自動露出(AE)制御を実行することができるため、よりユーザの意図を反映した撮影が可能となっている。
しかしながら、検出した顔が個人認識をする上で最適な顔の状態となっているとは限らない。例えば、表情、顔の向きなどの変動により顔の特徴情報が影響を受け、予め保持している顔の特徴情報と異なる特徴情報となってしまうことにより、信頼度の高い個人認識結果が得られない可能性がある。
また、特許文献1には、複数の人物の顔画像が登録され、所定枚数の監視画像で検出した顔領域の中で、認識候補人物と特定された顔領域の割合を登録人物の検出率として算出し、検出率に応じて登録人物か否か判定する閾値を変更する方法が開示されている。具体的には、検出率が高い場合には閾値が低く設定され、検出率が低い場合には閾値が高く設定される。この方法により、表情や顔の向きなどの変動によって、登録している顔画像との類似度が低くても、登録人物以外を誤って登録人物として誤認識する可能性を抑えつつ、登録人物であることを判定することができるようになる。
特開2013−101551号公報
しかしながら、特許文献1に記載の方法の場合、類似度が低くなるような状況で登録人物であることを判定するためには、より多くの監視画像で認識候補人物であると判定される必要があり、認識候補人物であると判定されるまでに時間がかかる可能性がある。したがって、例えば、登録人物を認識できている状態から登録人物を見失い、再度検出するようなシーンにおいて、再度検出した人物が登録人物であると判定されるまでの間、別の顔や別の被写体に対してAF制御やAE制御などを実行してしまう。
そこで、本発明は、顔等の被写体領域をより早く認識可能にすることを目的とする。
本発明の画像処理装置は、映像信号から所定の被写体領域を検出する検出手段と、前記検出された被写体領域から抽出した特徴情報と登録されている特徴情報との類似度と、所定の閾値との比較に基づいて、前記被写体領域に対する認識処理を行う認識手段と、前記認識手段により認識された認識済み被写体領域を追尾する追尾手段と、前記追尾手段が前記追尾している前記認識済み被写体領域の情報を保持する保持手段と、前記所定の閾値を設定する設定手段と、を有し、前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持していないときには、前記所定の閾値として第一の閾値を設定し、前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持しているときには、前記所定の閾値として前記第一の閾値よりも低い第二の閾値を設定することを特徴とする。
本発明によれば、顔等の被写体領域をより早く認識可能となる。
ビデオカメラの概略構成例を示すブロック図である。 個人認識動作の流れを示すフローチャートである。 第二の認識閾値算出処理の流れを示すフローチャートである。 顔データテーブルの一例を示す図である。 第二の認識閾値テーブルの一例を示す図である。 第二の認識閾値設定の動作に関する概念を説明するための図である。 第二の認識閾値設定の画面の位置に応じた設定例を示す図である。 第二の認識閾値設定の時間的変化に応じた設定例を示す図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
本実施形態の画像処理装置は、デジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどの各種撮像装置に適用可能である。本実施形態では、撮像画像から所定の被写体領域として人物の顔領域を検出して、その検出した顔領域を用いて個人認識を行う個人認識機能を有するビデオカメラを例に挙げて説明する。なお、本実施形態では、ビデオカメラを例に挙げているが、デジタルスチルカメラ等の他の撮像装置であってもよい。
図1は、本実施形態の画像処理装置の一適用例であるビデオカメラ10の概略構成を示す図である。
図1のビデオカメラ10は、撮像光学系として、第1固定レンズ101、ズームレンズ102、絞り103、第2固定レンズ104、フォーカスレンズ105を有する。ズームレンズ102は、光軸方向に移動して変倍を行う変倍レンズである。このズームレンズ102を光軸方向へ移動させること、すなわちいわゆるテレ方向やワイド方向等へ移動させることにより、ズーム倍率の変更が可能となる。フォーカスレンズ105は、いわゆるフォーカシング機能だけでなく、変倍に伴う焦点面の移動を補正する機能をも兼ね備えた、撮像光学系の焦点調節のためのレンズ(フォーカスコンペンセータレンズや焦点調節部材とも呼ばれる。)である。
ズーミング駆動源115は、ズームレンズ102を光軸方向へ移動させるためのアクチュエータ及びその駆動回路を含む。フォーカシング駆動源116は、フォーカスレンズ105を光軸方向へ移動させるためのアクチュエータ及びその駆動回路を含む。ズーミング駆動源115及びフォーカシング駆動源116は、ステッピングモータ、DCモータ、振動型モータ、又はボイスコイルモータ等のアクチュエータにより構成される。
撮像素子106は、CCDセンサやCMOSセンサにより構成される光電変換素子である。コンバータ107は、撮像素子106の出力をサンプリング、ゲイン調整、デジタル化するCDS/AGC/ADコンバータである。カメラ信号処理部108は、コンバータ107からの出力信号に対して各種の画像処理を施し、映像信号を生成する。表示装置109は、カメラ信号処理部108からの映像信号に基づく映像を表示する。記録装置110は、カメラ信号処理部108からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。
AFゲート111は、コンバータ107からの全画素の出力信号のうち焦点検出に用いられる領域、具体的には後述するカメラマイコン114で設定された領域(オートフォーカス枠:AF枠)の信号のみを通して、焦点信号生成部112へ出力する。焦点信号生成部112は、AFゲート111を通過した信号から焦点信号を生成する。焦点信号は、撮像素子106からの出力信号に基づいて生成される映像の鮮鋭度(コントラスト状態)を表す値でもよいし、焦点検出用の画像信号の位相差に基づく被写体までの距離またはデフォーカス量を表す値でもよい。
顔検出部113は、カメラ信号処理部108から供給された映像信号に対して公知の顔検出処理を行い、撮影画面内における人物の顔領域の位置及び大きさ、角度(ロール、ピッチ、ヨー)を検出する。顔検出処理としては、例えば、撮像画像の各画素の階調色を基に肌色領域を抽出し、その肌色領域の輪郭と、予め用意された顔の輪郭プレートとのマッチング度を算出して、そのマッチング度を基に顔を検出する方法を用いることができる。その他にも、顔検出処理としては、撮像画像から抽出した目、鼻、口等の顔の特徴点からパターン認識を行う方法等を用いることができる。顔検出部113は、映像信号のフレーム毎に行った顔検出処理の結果を、後述するカメラマイコン114及び後述する個人認識部117に送る。
個人認識部117は、カメラマイコン114内の不図示のRAMに記憶されている認識対象の人物の顔画像(登録人物の登録顔画像とする。)と、顔検出部113で検出された顔画像とを比較し、登録人物と類似した人物が撮影画面内に存在するか否かを判定する。具体的には、個人認識部117は、先ず、顔検出部113により検出された顔画像と、カメラマイコン114内のRAMに記憶されている登録顔画像との類似度を算出する。次に、個人認識部117は、算出した類似度が所定の認識閾値を超えているか否かを判定し、認識閾値を超えている場合は顔検出部113にて検出された顔画像が、登録人物の顔の画像であると判断(つまり認識できたと判断)する。類似度の算出方法としては、例えば、顔画像の大きさ、角度、輝度などを正規化した後、フーリエスペクトルのKL展開法により算出された成分を顔画像の特徴情報とし、その顔画像の特徴情報と登録顔画像の特徴情報との一致度を求めるような方法がある。その他にも、類似度の算出方法としては、検出された顔画像のデータを顔の大きさで正規化した情報を特徴情報とし、その顔画像の特徴情報と登録顔画像の特徴情報とのマッチング度を求めるような方法がある。なお、本実施形態の説明において、カメラマイコン114内のRAMに記憶されている登録顔画像は、圧縮されて保存されている顔画像データそのものであってもよいし、目、鼻、口、眉毛など、顔に関する特徴量を示す情報であってもよい。
カメラマイコン114は、顔検出部113による顔検出結果及び個人認識部117による個人認識結果に基づき、撮影画面内の被写体人物の顔に対応した位置にAF枠を設定するようにAFゲート111を制御する。そして、カメラマイコン114は、AFゲート111の出力信号から焦点信号生成部112が生成した焦点信号に基づいて、フォーカシング駆動源116を制御してフォーカスレンズ105を駆動することによりAF制御を行う。なお、カメラマイコン114は、ズームレンズ102の駆動による変倍に伴う焦点面の移動がある場合には、その変倍に伴う焦点面の移動を補正するようにフォーカシング駆動源116を制御してフォーカスレンズ105を駆動させることも行う。
また、カメラマイコン114は、前述したように、ズーミング駆動源115の制御を通じてズームレンズ102を駆動している。このため、カメラマイコン114は、例えば、ズーム動作の開始検知、ズーム動作におけるズーム量の検知、ズーム動作がテレ方向であることを検知するテレ検知、ズーム動作がワイド方向であることを検知するワイド検知などを行える。
また、カメラマイコン114は、ビデオカメラ10におけるパンニング動作やチルティング動作を検知するような、パンチルト動作検知処理も可能となされている。パンチルト動作検知処理には、例えば、パンニング動作やチルティング動作が開始されたことの検知、パンニング方向やチルティング方向の検知、パンニング量やチルティング量の検知が含まれる。これらのパンチルト動作検知処理は、一例として、カメラ信号処理部108からの映像信号の動きベクトルに基づく検出処理、図示しない方位センサや傾きセンサ等の出力に基づく検出処理など、公知の技術を用いて行うことができる。
カメラマイコン114は、前述したようなAF枠の設定処理、ズーム動作の検知処理、パンチルト動作検知処理等を、所定のタイミング毎(例えば映像信号の垂直同期信号の発生周期)に繰り返し実行している。このような垂直同期信号の発生周期はV周期、タイミングはVタイミングとも呼ばれている。その他にも、カメラマイコン114は、記録装置110へ画像記録命令を出力することなども行っている。
さらに、カメラマイコン114は、前述した処理だけでなく、顔検出部113による顔検出結果及び個人認識部117による個人認識結果に基づいて、撮影画面内で主となる被写体人物の顔領域(主顔領域)を追尾(追従)するような追尾処理をも行う。顔領域に対する具体的な追尾処理自体については公知の技術を使用できるが、詳細については後述する。また詳細は後述するが、カメラマイコン114は、顔領域に対する追尾処理の際には、前述したズーム動作の検知処理に係る情報、パンチルト動作検知処理に係る情報をも用いることができる。
<顔検出処理、個人認識処理、及び追尾処理>
次に、図2と図3(a)〜図3(d)のフローチャートを参照し、顔検出部113、個人認識部117、カメラマイコン114により行われる、本実施形態にかかる顔検出処理、個人認識処理及び追尾処理について説明する。これらのフローチャートの処理は、ハードウェア構成により実行されてもよいし、CPU等がプログラムを実行することにより実現されてもよい。また、以下のフローチャートのステップS201〜ステップS220、ステップS301〜ステップS306は、それぞれS201〜S220、S301〜S306と略記する。図3(a)〜図3(d)は図2のS215の第二の認識閾値算出処理の詳細を示すフローチャートである。
図2のフローチャートの個人認識処理が開始されると、先ず、S201において、顔検出部113は、カメラ信号処理部108から映像信号を取得する。次に、S202において、顔検出部113は、S201で取得した映像信号から顔領域を抽出する顔検出処理を実行する。そして、顔検出部113は、顔領域が抽出できた場合にはカメラマイコン114に対して顔領域の数、及び、それぞれの顔領域の位置、大きさ、角度に関する顔情報を出力する。これにより、カメラマイコン114は顔情報を取得する。
次に、S203において、カメラマイコン114は、S202にて取得した顔情報に基づいて顔データテーブルを更新する。
ここで、顔データテーブルの例について図4を用いて詳しく説明する。
図4に示す顔データテーブル401は、カメラマイコン114が識別している人物一人について一つの系列データを管理するテーブルとなされている。系列データは、顔データテーブル401の各行に表されるデータの組であり、顔ID402、顔位置403、顔サイズ404、顔角度405、更新フラグ406、認識フラグ407からなる。カメラマイコン114は、この顔データテーブル401を管理し、また、内部の図示しないRAMに保持している。顔ID402は、カメラマイコン114が識別している人物をそれぞれ区別するための識別番号であり、カメラマイコン114によって所定の人物に対する追尾処理が行われている間、同一の識別番号が割り当て続けられる。
カメラマイコン114は、例えば、S202にて取得した顔情報を各系列データの顔位置403及び顔サイズ404と比較し、位置及びサイズの差分が所定範囲以内である場合は人物(顔)を追尾していると判断する。また、カメラマイコン114は、追尾していると判断した人物の系列データについて、顔位置403、顔サイズ404、顔角度405を、S202にて取得した顔情報で更新し、さらに更新フラグ406を「更新」に変更する。また、カメラマイコン114は、追尾しているか否かの判断の際、S202にて取得した顔情報の中に系列データに該当する顔情報がない場合でも、各顔の色情報や輝度情報に基づいて推定した顔領域を顔情報として比較してもよい。
顔位置403、顔サイズ404、顔角度405は、それぞれ、映像信号から抽出した顔領域の位置座標情報、サイズ情報、角度情報を示している。なお、図4に示した例の場合、顔サイズ404は、大/中/小の3段階で示されているが、映像信号のピクセル数を記録するなど別の形式により顔サイズが示されてもよい。また、図4に示した例の場合、顔角度405は、0°/45°/90°の3段階で示されているが、例えば1°刻みの情報を−180°から+180°の情報で記録するなど別の形式により顔角度が示されてもよい。
更新フラグ406は、顔位置403、顔サイズ404、顔角度405が、S202で取得した最新の顔情報で更新されたかどうかを表すフラグである。カメラマイコン114は、S202で取得した顔情報を顔データテーブル401の各系列データと比較し、同一人物であると判断できたか否かに応じて、更新フラグ406を「更新」にするかどうかを決定する。したがって、顔データテーブル401の各系列データから同一人物であると判断できた顔情報がない場合、更新フラグ406は「未更新」のままとなる。カメラマイコン114は、顔データテーブル401の更新フラグが所定の期間「未更新」となり続けている場合は、その更新フラグに対応した系列データの人物が撮像画面内から外れてしまったと判断して、顔データテーブル401から系列データを削除する。また、顔データテーブル401内の更新フラグ406は、S203の処理を開始する前には全て「未更新」に変更(初期化)される。
認識フラグ407は、後述するS210〜S212及びS218〜S220において個人認識部117により個人認識処理が実行された結果、個人認識が成功したと判断した場合に「ON」に設定されるフラグである。認識フラグ407が一度ONとなされた顔は、カメラマイコン114が追尾していると判断している間は認識済みの顔であると判断することができるため、その後認識処理を実施しなくても認識フラグは「ON」のままとなされる。したがって、認識済みの顔が横を向くなどして登録顔画像との類似度が低くなったとしても、その認識済みの状態が継続されることになる。
図2のフローチャートの説明に戻る。S203の後、カメラマイコン114は、S204に処理を進める。
S204において、カメラマイコン114は、S203で更新済みの顔データテーブル401に系列データが一つ以上存在するかどうかを判定する。カメラマイコン114は、S204において系列データが存在すると判定した場合(YES)にはS205に処理を進め、系列データが存在しないと判定した場合(NO)には映像内の顔(人物)が全ていなくなったと判断してS221に処理を進める。
S205に進むと、カメラマイコン114は、S203による更新済みの顔データテーブル401に認識フラグ407が「ON」となっている系列データが存在するかどうかを判定する。カメラマイコン114は、S205において、認識フラグ407が「ON」となっている系列データが存在すると判定した場合(YES)にはS206に処理を進める。一方、カメラマイコン114は、S205において、認識フラグ407が「ON」となっている系列データが存在しないと判定した場合(NO)にはS216に処理を進める。
S206に進むと、カメラマイコン114は、顔データテーブル401のうち、認識フラグ407が「ON」となっている系列データに対応する認識済みの顔を、ロストした(つまり追尾できなくなって見失った)かどうかを判断する。つまり、カメラマイコン114は、認識済みの顔に関する系列データの更新フラグ406が「未更新」になっているか否かを判断する。カメラマイコン114は、S206において、ロストしていると判断した場合(YES)はS207に処理を進め、ロストしていないと判断した場合(NO)にはS214に処理を進める。
S207に進むと、カメラマイコン114は、内部のRAMに確保されているロストカウンタ値をカウントアップする。ロストカウンタ値は、後述するS208にて第二の認識閾値を設定するときに、時間に基づいて第二の認識閾値を変化させる場合に使用される。
次に、S208において、カメラマイコン114は、後述する第二の認識閾値を設定する。第二の認識閾値は後述するS215の第二の認識閾値算出処理により求められる値であり、第二の認識閾値算出処理の詳細は後述する。本実施形態の場合、第二の認識閾値は、後述する第一の認識閾値よりも低い値となされている。また、S208において、カメラマイコン114は、前述したロストカウンタ値に基づいて、第二の認識閾値を変更する処理を行う。第二の認識閾値を変更する処理の詳細については、図8を用いて後述する。
次に、S209において、カメラマイコン114は、更新フラグ406が「更新」となっている系列データに対応する顔のうち、個人認識部117による個人認識処理が実行されていない顔に対応する系列データがあるかどうかを確認する。S209において、カメラマイコン114は、個人認識処理を実行していない顔に対応する系列データがあると判定した場合(YES)にはS210に処理を進める。S210の処理は、個人認識部117にて行われる。一方、カメラマイコン114は、S209において、個人認識処理を実行していない顔に対応する系列データがないと判定した場合(NO)、図2のフローチャートの処理を終了する。なお、個人認識処理を実行していない顔に対応する系列データがない場合とは、つまり、更新フラグ406が「更新」となっている全ての系列データに対応する顔の個人認識処理が実行済みになっている場合である。
S210に進んだ場合、個人認識部117は、カメラマイコン114から、個人認識処理を実行していない系列データに対応する顔の個人認識処理を実行する旨の指示が入力されるのを待つ状態となる。個人認識部117は、個人認識処理の実行指示を受けると、顔検出部113により検出された顔領域のうち、カメラマイコン114から指定された系列データに対応する顔領域と、カメラマイコン114のRAMに記憶されている登録顔画像との類似度を算出する。そして、個人認識部117は、算出した類似度をカメラマイコン114に通知した後、S211に処理を進める。S211の処理は、カメラマイコン114にて行われる。
S211に進んだ場合、カメラマイコン114は、S210で算出された類似度とS208で設定された第二の認識閾値とを比較し、第二の認識閾値よりも類似度の方が大きいか否か判定する。そして、カメラマイコンは、S211において、類似度の方が大きいと判定した場合(YES)にはS212に処理を進め、一方、類似度が第二の認識閾値以下であると判定した場合(NO)にはS209に処理を戻す。
ここで、S211において、類似度が第二の認識閾値よりも大きいと判定された場合、ロストしていた認識済みの顔が再度見つかったと判断できる。つまり、S210で個人認識処理の対象となった系列データは、本来、認識フラグ407が「ON」となっている系列データであるべきデータであったと判断できる。したがって、S212に進んだ場合、カメラマイコン114は、その認識フラグ407が「ON」となっている系列データに対して、S210で個人認識処理の対象となった系列データの顔情報(顔位置403、顔サイズ404、顔角度405)を上書きする。さらに、カメラマイコン114は、更新フラグ406を「更新」に変更し、認識処理の対象となった元の系列データを削除する。
その後、S213において、カメラマイコン114は、ロストカウンタ値をクリアした後、図2のフローチャートの処理を終了する。
また、S214に進んだ場合、カメラマイコン114は、類似度と比較するための閾値として第一の認識閾値を設定する。すなわち、S214の処理は、認識フラグ407が「ON」になっている顔データテーブル401中の系列データに対応する顔がロストしていない場合の処理であり、この場合、類似度と比較するための閾値として第一の認識閾値が設定される。詳細は後述するが、第一の認識閾値は、第二の認識閾値よりも高い値となされている。S214の後、カメラマイコン114は、S215に処理を進める。
S215に進むと、カメラマイコン114は、認識済みの顔がロストしてしまった時に使用する第二の認識閾値を算出する処理を実行した後、S213に処理を進める。S215における第二の認識閾値算出処理の詳細については後述する。
また、S216に進んだ場合、カメラマイコン114は、認識閾値として第一の認識閾値を設定する。すなわち、S216の処理は、顔データテーブル401中に認識フラグ407が「ON」になっている系列データが存在しない場合の処理である。ここで、顔データテーブル401中に認識フラグ407が「ON」の系列データが存在しない場合とは、未だ一度も登録人物と同じ人物の顔が出現していないか、その人物が一度いなくなった後に所定期間以上継続して出現しなかった場合であると考えられる。なお、登録人物がいなくなった後に所定期間継続して出現しない場合には、認識できる顔がなかった場合も含まれる。そして、このような状態になるのは、例えば、撮影者が撮影している近くに登録人物がいないか、撮影者が主被写体を切り替えてしまったためであると考えられる。したがって、この場合、カメラマイコン114は、認識閾値を第一の認識閾値に設定することにより、別の被写体を誤認識してしまうことを防ぐ。S216の後、カメラマイコン114は、S217に処理を進める。
S217において、カメラマイコン114は、S209の処理と同様に、更新フラグ406が「更新」となっている系列データに対応する顔のうち、個人認識処理を実行していない顔に対応する系列データがあるかどうかを確認する。カメラマイコン114は、S127において、個人認識処理を実行していない顔に対応する系列データがあると判定した場合(YES)にはS218に処理を進める。S218の処理は、個人認識部117にて行われる。一方、カメラマイコン114は、S217にて個人認識処理未実施の顔に対する系列データがないと判定した場合(NO)、つまり、更新フラグ406が「更新」となっている全系列データに対応する個人認識処理が実行済みの場合にはS213に処理を進める。
S218に進んだ場合、個人認識部117は、S210と同様に、カメラマイコン114から個人認識処理を実行していない系列データに対応する顔に対する個人認識処理を実行する旨の指示が入力されるのを待つ。個人認識部117は、個人認識処理の実行指示を受けると、顔検出部113にて検出された顔領域のうち、カメラマイコン114から指定された系列データに対応する顔領域と、カメラマイコン114のRAMに記憶されている登録顔画像との類似度を算出する。そして、個人認識部117は、算出した類似度をカメラマイコン114に通知した後、S219に処理を進める。S219の処理は、カメラマイコン114にて行われる。
S219に進んだ場合、カメラマイコン114は、S218で算出された類似度とS216で設定された第一の認識閾値とを比較して、第一の認識閾値よりも類似度の方が大きいか否か判定する。そして、カメラマイコン114は、第一の認識閾値より類似度の方が大きいと判定した場合(YES)にはS220に処理を進め、一方、類似度が第一の認識閾値以下の場合(NO)にはS217に処理を戻す。
ここで、S219において、類似度が第一の認識閾値よりも大きいと判定された場合、登録人物と同じ人物の顔が初めて出現したか、一度いなくなった後に所定期間以上継続して登録人物が出現しなかった後に、再度登録人物が出現したと判断できる。したがって、S220に進むと、カメラマイコン114は、S218で個人認識を実行した顔に対応する系列データの認識フラグ407を「ON」にした後、S213に処理を進める。
S221に進んだ場合の処理は、S204で顔データテーブル401にデータがない場合の処理なので、カメラマイコン114は、個人認識閾値を第一の認識閾値に設定した後、S213に処理を進める。
<第二の認識閾値算出処理の説明>
次に、図3(a)〜図3(d)、図5及び図6を用いて、前述したS215において行われる第二の認識閾値算出処理について説明する。
図3(a)〜図3(d)は、図2のS215で行われる四つのパターン(第一のパターン〜第四のパターン)の第二の認識閾値算出処理のフローチャートである。図3(a)が第一のパターン、図3(b)が第二のパターン、図3(c)が第三のパターン、図3(d)が第四のパターンの、第二の認識閾値算出処理のフローチャートである。また、図5は、図3(d)で後述する第二の認識閾値テーブルを示す図である。また、図6(a)〜図6(d)は、図3(a)〜図3(d)に示した各フローチャートの第二の認識閾値算出処理を実行した時のそれぞれの動作例を示した図である。図6(a)〜図6(d)の縦軸は前述した類似度を「0」〜「10」の11段階で示しており、類似度が高い場合には大きい値、類似度が小さい場合には小さい値となされている。また、図6(a)〜図6(d)の横軸は、或る時刻を0としたときの当該時刻0からの時間を表している。図6(a)〜図6(d)の横軸において、時刻0〜tlostまでの期間は登録人物を認識できている期間であり、時刻tlostは認識していた顔を見失った時刻(追尾できなくなってロストした時刻)、時刻tfindは人物の顔が再度検出された時刻とする。但し、時刻tfindでは、未だ登録人物であることを認識できていないとする。さらに、時刻trecogは、時刻tlostでロストした登録人物を再度認識できたタイミングとする。なお、図6(a)では、時刻tfind=時刻trecogとしているが、これは時刻tfindで再度検出された人物が直ぐに登録人物であると再度認識できた場合の例である。また、本実施形態では、第一の認識閾値は「9」に設定していると定義するが、この数値は本実施形態の説明をするための便宜的な設定値であり、この数値に限定されるものではない。また、図6(a)〜図6(d)において、同じ値やグラフを表しているものについては同じ参照番号を付してそれらの説明は省略する。
先ず、図3(a)及び図6(a)を用い、第二の認識閾値として、予め決められた固定値を設定する第一のパターンについて説明する。
前述したS215における第二の認識閾値算出処理が開始されると、図3(a)のS301において、カメラマイコン114は、内部のRAMに保持してある固定値を読み出して第二の認識閾値に設定し、図3(a)の処理を終了する。固定値は、第一の認識閾値よりも小さい値となされ、誤認識を所定の割合に抑制するような値が既存の知見に基づいて設定されてもよいし、予備実験結果に基づいて経験的に求められた値でもよい。
図6(a)は、第一のパターンにおいて、前述の固定値を「5」に設定した場合の動作例について説明する図である。
図6(a)の例において、時刻0のタイミングでは、顔検出部113にて検出されている顔領域が、個人認識部117により登録人物の顔であると認識されているとする。ここでは、既に認識済みの顔があったとしてもよいし、時刻0で図2のS218〜S220の処理によって算出した類似度が第一の認識閾値601の「9」を超えて、初めて顔が認識できたタイミングとしてもよい。
時刻0〜tlostの間は、認識済みの顔を追尾している状態であり、図2のS214〜S215のシーケンスが実行される期間である。図6(a)の曲線602は、時刻0〜tlostの間の類似度の変化をグラフに表した線である。但し、曲線602は、連続的に算出された類似度の変化ではなく、個人認識部117が所定のタイミング毎に算出した離散的な類似度を仮想的に繋いだ類似度の変化を表している。このことは後述する他の曲線604、607についても同様とする。前述したように、認識済みの顔は、カメラマイコン114が追尾していると判断している間には個人認識処理が実施されていなくても認識済みの顔であると判断されるとする。
そして、時刻tlostにおいてカメラマイコン114が認識済みの顔を見失った(ロストした)時には、図2のS207〜S212のシーケンスが実行される。すなわちこの場合、S208において、カメラマイコン114は、S301で設定した第二の認識閾値を、類似度に対する比較用の認識閾値として設定する。図6(a)の例では、時刻tlostのタイミングで認識閾値603として「5」の値が設定される。
時刻tlost〜tfindの期間は、前述したように、時刻tlostで認識済みの顔がロストした後の経過時間である。すなわち、図6(a)の例において、時刻tlost〜tfindの期間は、ロストした認識済みの顔が撮像画面内で検出されていない(個人認識部117が認識できていない)期間である。したがって、時刻tlost以降の時間に例えば新規に顔が検出された場合、その新規に検出された顔に対しては、図2のS209〜S211の処理が実行されることになる。
そして、時刻tfindのタイミングで人物が再度検出されると、S210において、個人認識部117は認識処理を実行する。但し、このとき検出された人物の顔は、登録人物と異なる顔、若しくは、登場人物の顔であったとしても、登録人物の顔が横を向いていたり、顔のサイズが小さくなっていたりするなど、類似度が低くなるような状態である可能性がある。すなわち、このときの類似度は、第二の認識閾値を下回る可能性が高いと考えられる。一方で、時刻tlostのタイミングでは認識閾値が第一の認識閾値601(「9」)よりも低い第二の認識閾値603(「5」)に設定されているため、類似度が「5」以上であれば、ロストしていた認識済みの顔と同一人物であると判断できる。したがって、時刻tfindにおいて類似度が「5」以上であった場合には、時刻tfind=時刻trecogとなり、ロストしていた登録人物が再度認識される。これにより、カメラマイコン114は、登録人物の被写体に対してピントや明るさを合わせる処理を直ちに実行可能となる。なお、時刻trecogで認識された後、カメラマイコン114は、認識閾値を第一の認識閾値に戻してもよく、その後、再度ロストしたり消失したりしたときまで第一の認識閾値を維持してもよい。
次に、図3(b)及び図6(b)を用い、時刻0〜tlostの間で所定のタイミング毎に類似度算出処理を行い、時刻tlostで登録人物をロストする直前の最後のタイミングで算出した類似度を、第二の認識閾値に設定する第二のパターンについて説明する。
S215の第二の認識閾値算出処理が開始されると、カメラマイコン114は、図3(b)のS302として、個人認識部117に対し類似度を算出させる。このときの個人認識部117は、顔データテーブル401内で認識フラグが「ON」の系列データに対応する認識済みの顔に対し、登録顔画像を用いた認識処理を実行して類似度を算出する。このときの類似度の算出処理は前述した所定のタイミング毎に実行される。
次に、S303において、カメラマイコン114は、S302において所定のタイミング毎に算出された類似度の値を第二の認識閾値として設定(代入)する。ここで、本実施形態の場合、第二の認識閾値は第一の認識閾値よりも小さい値として設定されるため、カメラマイコン114は、S302で算出された類似度が第一の認識閾値よりも高い値である場合には、算出された類似度を第二の認識閾値に代入しない。なお、カメラマイコン114は、S302で算出された類似度が、第一の認識閾値に対して所定の値以下の値である場合にのみ第二の認識閾値に代入するようにしてもよい。また、第二の認識閾値の代入処理についても類似度の算出処理の場合と同様に、所定のタイミング毎に実行される。そして、図3(b)の処理は、図2のS206においてロストしたと判定された場合には行われないため、登場人物をロストした場合、登録人物のロスト直前の最後のタイミングで算出された類似度の値が、第二の認識閾値として設定されることになる。
図6(b)は、時刻0〜tlostまでで所定のタイミング毎(t1,t2,・・・,tn-1,tn)に算出された類似度のうち、時刻tlost直前の最後のタイミングで算出された類似度(時刻tnにおける類似度)が「5.5」の場合の動作例の図である。なお、時刻0のタイミングにおける処理は、図6(a)の場合と同様であるため説明を省略する。
図6(b)の例において、時刻0〜tlostの間は認識済みの顔が追尾されている期間であり、当該期間では所定のタイミング毎に第二の認識閾値算出処理が実行される。すなわち、図6(b)に示した所定のタイミング(t1〜tn)のような固定の時間間隔毎に実行される類似度算出処理で得られた最新の類似度が、第二の認識閾値算出処理により第二の認識閾値として設定される。なお、時刻tlostのタイミングにおける処理は図6(a)の場合と同等であるため説明を省略する。時刻tlost〜tfindの期間についても、図6(a)の場合と同等であるため説明を省略する。
そして、時刻tlostで登場人物をロストした後、時刻tfindのタイミングで人物を再度検出した場合、S210において、個人認識部117による認識処理が実行される。但し、このとき検出された人物の顔は、登録人物と異なる顔、又は、登場人物の顔であったとしても顔が横を向いていたり、顔サイズが小さくなっていたりするなど、類似度が低くなるような状態である可能性がある。しかしながら、第二のパターンにおける第二の認識閾値算出処理の場合、前述の時刻tlostの直前の最後のタイミングで算出された類似度(図6(b)の例では「5.5」の値)が、第二の認識閾値605として設定されている。したがって、時刻tfindのタイミングで実行した認識処理により得られた類似度が第二の認識閾値605(「5.5」)より大きければ、検出された顔はロストしていた認識済みの顔と同一人物の顔であると判断できる。
ここで例えば、時刻tlostと時刻tfindとの間が比較的短い期間である場合には、ロストした時の顔の状態(顔の向きや大きさ等)と似たような状態で出現する可能性が高い。したがって、時刻tlostの直前の時刻tnで実行した個人認識処理により算出された類似度を第二の認識閾値605として設定しておいた場合、再度検出した顔を認識し易くなるとともに、登録人物以外の顔が誤認識されてしまうことを抑制できると考えられる。
前述したように、第二のパターンによる第二の認識閾値算出処理によれば、時刻tfindと略々同じ時刻trecogでロストしていた登録人物の再度認識が可能となる。これにより、カメラマイコン114は、登録人物の被写体に対してピントや明るさを合わせる処理を直ちに実行可能となる。なお、時刻trecogで認識された後、カメラマイコン114は、認識閾値を第一の認識閾値に戻してもよく、その後、再度ロストしたり消失したりしたときまで第一の認識閾値を維持してもよい。
次に、図3(c)及び図6(c)を用い、時刻0〜tlostまでの間で所定のタイミング毎に類似度算出処理を実行し、認識済みの顔を追尾中に実行された認識処理で算出された類似度のうち、最小の値を第二の認識閾値に設定する第三のパターンを説明する。図3(c)のフローチャートでは、図3(b)のフローチャートと異なる部分についてのみ説明する。
図3(c)のS304において、カメラマイコン114は、S302で実行した個人認識処理により算出された類似度と現在の第二の認識閾値として設定されている値とを比較し、現在の第二の認識閾値よりも、今回算出した類似度が小さいか否か判定する。S304の比較の結果、カメラマイコン114は、今回算出した類似度の方が現在の第二の認識閾値よりも小さいと判定(YES)した場合には、S303に処理を進め、今回算出した類似度を第二の認識閾値に代入する。一方、カメラマイコン114は、S304において、現在の第二の認識閾値が、今回算出した類似度以下であると判定(NO)した場合には、今回算出した類似度を第二の認識閾値に代入せずに、図3(c)の処理を終了する。但し、カメラマイコン114は、第二の認識閾値は第一の認識閾値よりも小さい値を設定するため、今回算出した類似度が第一の認識閾値(「9」)よりも大きい場合には、その類似度を第二の認識閾値に代入しない。また、第三のパターンの場合も前述の第二のパターンの場合と同様に、類似度の算出処理と第二の認識閾値の代入処理は所定のタイミング毎に実行される。
図6(c)は、時刻0〜tlostまでで所定のタイミング毎(t1,t2,・・・,tn-1,tn)に算出された類似度のうち、最小の値の類似度が時刻tn-1のタイミングで算出され、その類似度が「4」だった場合の動作例について説明する図である。なお、時刻0のタイミングにおける処理は、図6(a)の場合と同様であるため説明を省略する。また、時刻0〜tlostの間は図6(b)の場合と同様であるため説明を省略する。さらに、時刻tlostにおける処理は図6(a)及び図6(b)の場合と同等であるためその説明も省略する。時刻tlost〜tfindの期間についても、図6(a)及び図6(b)の場合と同等であるためその説明も省略する。
図6(c)の例において、時刻tfindのタイミングで人物が再度検出された時、S210において、個人認識部117による認識処理が実行される。但し、このとき検出された人物の顔は、前述同様に、登録人物と異なる顔、又は、登場人物の顔であっても顔が横を向いていたり、顔サイズが小さくなっていたりして類似度が低くなる状態である可能性がある。しかしながら、第三のパターンにおける第二の認識閾値算出処理の場合、時刻0〜tlostまでに算出された類似度のうち、最小の値の類似度(「4」)が第二の認識閾値606として設定されている。したがって、時刻tfindのタイミングで実行した認識処理により得られた類似度が第二の認識閾値606(「4」)より大きければ、検出された顔はロストしていた認識済みの顔と同一人物の顔であると判断できる。
ここで、ロストした顔は、顔の向きや大きさ等の状態によっては、追尾中に算出された最小の類似度まで下がる可能性があることが、時刻t1〜tn-1までに実行された認識処理によって分かっている。したがって、時刻t1〜tn-1までに実行された個人認識処理で算出された類似度のうち最小の値を第二の認識閾値に設定しておくことで、再度検出した顔の状態(顔の向きや大きさ等)が、ロストした時よりも良くない場合であっても認識し易くなると考えられる。
前述したようなことから、第三のパターンによる第二の認識閾値算出処理によれば、時刻tfindと略々同じ時刻trecogでロストしていた登録人物の再度認識が可能となる。これにより、カメラマイコン114は、登録人物の被写体に対してピントや明るさを合わせる処理を直ちに実行可能となる。なお、時刻trecogで認識された後、カメラマイコン114は、認識閾値を第一の認識閾値に戻してもよく、その後、再度ロストしたり消失したりしたときまで第一の認識閾値を維持してもよい。
次に、図3(d)、図6(d)を用い、時刻0〜tlostまでの間で所定のタイミングにて認識処理を実行し、認識済みの顔を追尾中に実行した認識処理で得られた類似度をテーブルデータとして記憶し、第二の認識閾値に設定する第四のパターンを説明する。
図3(d)のS305において、カメラマイコン114は、顔検出部113が出力する顔情報のうち、顔のサイズ情報及び角度情報が前回出力した顔情報から変化があるか否かを判別する。本実施形態では、例えば、顔サイズが「大」/「中」/「小」の状態から変化したかどうか、または、顔の角度が「0°」/「45°」/「90°」から変化したかどうかにより、顔情報の変化があるか否かの判定が行われる。カメラマイコン114は、図5に示したように、顔のサイズと顔の角度の組み合わせに対応した類似度のテーブルデータを、第二の認識閾値のテーブルデータとして作成して内部のRAMに記憶する。変化があるかどうかの判定の基準となるサイズ情報や角度情報は、上述した各サイズや各角度に限らず、個人認識の類似度が大きく変化するサイズや角度でもよく、それらを予備検討にて抽出して設定しておいてもよい。そして、カメラマイコン114は、S305において、顔情報が前回の顔情報から変化したと判定(YES)した場合にはS302に処理を進め、一方、変化していないと判定(NO)した場合には図3(d)の処理を終了する。なお、S302は図3(b)での処理と同様であるため、その説明は省略する。図3(d)の場合、S302の後には後述するS306の処理に進む。
ここで、S305の処理は、前述した所定のタイミング毎(固定の時間間隔)で第二の認識閾値算出処理を実行する処理でもよいが、第四のパターンでは、顔情報に変化があったタイミングでのみ処理を実行するようことにより、処理負荷の軽減を可能にしている。したがって、後述する図6(d)を用いた説明では、顔情報に変化があった場合にのみ処理を実行するような場合を例として説明する。
S306に進むと、カメラマイコン114は、S305の処理で取得された顔のサイズ情報と顔の角度情報の組み合わせについて、図5の第二の認識閾値テーブルの該当するセルの第二の認識閾値をS302の認識処理で算出された類似度により更新する。そして、S306の後、カメラマイコン114は、図3(d)の処理を終了する。但し、カメラマイコン114は、第二の認識閾値として第一の認識閾値よりも小さい値を設定するため、算出された類似度が第一の認識閾値よりも大きい場合には、算出した類似度で第二の認識閾値を更新しない。なお、カメラマイコン114は、算出された類似度が、第一の認識閾値に対して所定の値以下の値である場合にのみ第二の認識閾値を更新するようにしてもよい。また、カメラマイコン114は、図5の第二の認識閾値テーブルに関し、認識処理が実行されなかったサイズと角度の組み合わせのセルに該当する閾値については、予備検討により予め固定の値を設定してもよい。この場合、認識処理が実行された顔のサイズと角度の組み合わせに係るセルの値のみが、算出された類似度により更新される。また、カメラマイコン114は、予め各セル同士のオフセット値のみを持っていて、認識処理にて算出された類似度とオフセット値とに基づいて随時値を更新してもよい。
図6(d)は、顔情報が変化したタイミングで認識処理が実行されて得られた類似度が、第二の認識閾値テーブルとして設定される、第四のパターンの動作例について説明する図である。時刻0のタイミングにおける処理は図6(a)の場合と同様であるため説明を省略する。
図6(d)において、時刻0〜tlostの間は認識済みの顔を追尾している状態であるが、当該期間では顔検出部113からの顔情報に変化があったタイミングで第二の認識閾値算出処理が実行される。図6(d)の例の場合、時刻t4〜t7のタイミングで顔情報に変化が検出され、それらのタイミングで第二の認識閾値算出処理が実行され、それぞれ得られた類似度が第二の認識閾値として図5に示す認識閾値テーブルに代入される。
以下、図5の認識閾値テーブルの状態が時刻tlostのタイミングでのテーブルの状態であると仮定して、図6(d)の時刻t4〜t7のタイミングにおける動作を説明する。
ここで、時刻0では顔サイズが「中」、顔角度が「0°」であったとする。また、図6(d)に示すように、顔サイズが「中」で、顔角度が「0°」となっている時刻0における顔の類似度は例えば「10」であったとする。このときの類似度「10」は、前述した第一の認識閾値601の「9」を上回っているため、認識閾値テーブルの該当セルの値は更新されない。
次に、時刻t4において、顔サイズは「中」のまま変わらず、一方、顔角度が「0°」から「45°」に変化したとする。この場合、顔情報が変化したため、個人認識部117は、その顔に対して認識処理を実行し、さらに類似度「7」を算出してカメラマイコン114に通知する。これにより、カメラマイコン114は、認識閾値テーブルの中の該当するセル(顔サイズ「中」で顔角度「45°」のセル)に対し、取得した類似度「7」を第二の認識閾値として代入する。
次に、時刻t5において、顔サイズが「中」から「大」に変化し、顔角度は「45°」から変化していないとする。この場合、顔情報が変化したため、個人認識部117は、その顔に対して認識処理を実行し、さらに類似度を算出してカメラマイコン114に通知する。次に、カメラマイコン114は、認識閾値テーブルの中の該当するセル(顔サイズ「大」で顔角度「45°」のセル)に対し、取得した類似度「8」を第二の認識閾値として代入する。
次に、時刻t6において、顔サイズは「大」のまま変わらず、顔角度が「45°」から「90°」に変化したとする。この場合、顔情報が変化したため、個人認識部117は、その顔に対して認識処理を実行し、さらに類似度「5」を算出してカメラマイコン114に通知する。これにより、カメラマイコン114は、認識閾値テーブルの中の該当するセル(顔サイズ「大」で顔角度「90°」のセル)に対し、取得した類似度「5」を第二の認識閾値として代入する。
次に、時刻t7において、顔サイズが「大」から「中」に変化し、顔角度は「90°」から変化がなかったとする。この場合、顔情報が変化したため、個人認識部117は、その顔に対して認識処理を実行し、さらに類似度「4」を算出してカメラマイコン114に通知する。これにより、カメラマイコン114は、認識閾値テーブルの中の該当するセル(顔サイズ「中」で顔角度「90°」のセル)に対し、取得した類似度「4」を第二の認識閾値として代入する。
以上が、時刻0〜tlostまでに実行する第二の認識閾値算出処理である。なお、前述したように、上記の動作例で更新されなかったセルの値は予め所定の値が代入されているものとする。
次に、時刻tlost及び時刻tlost〜tfindの期間は、ロストした認識済みの顔が撮像画面内に出現していない期間であるが、この期間に新規に検出された顔に対する処理は、後述する時刻tfind以降の処理と同等であるためその説明は省略する。
次に、時刻tfindのタイミングで人物が再度検出されたとき、S210において、個人認識部117は認識処理を実行して類似度を算出する。なお、このとき検出された人物の顔は、前述同様に、登録人物と異なる顔、又は、登場人物の顔であっても顔が横を向いていたり、顔サイズが小さくなっていたりして類似度が低くなる状態である可能性がある。ここで、第四のパターンの場合、カメラマイコン114は、新規に検出された顔の顔情報(顔のサイズと角度)に基づいて、前述した認識閾値テーブルから、その顔情報に該当するセルに設定されている第二の認識閾値を取得する。そして、カメラマイコン114は、個人認識部117で算出された類似度と、認識閾値テーブルの該当セルから取得した第二の認識閾値とを比較する。
図6(d)の時刻tfindにおいて取得された顔情報は、顔サイズが「大」、顔角度が「90°」であったとする。この場合、カメラマイコン114は、認識閾値テーブルから顔サイズが「大」、顔角度が「90°」の組み合わせのセルに設定されている値「5」を第二の認識閾値608として設定する。但し、図6(d)の場合、例えば時刻tfindでは顔サイズ及び顔角以外の顔の状態がよくないなどの理由で、算出された類似度が第二の認識閾値「5」を下回っているとする。なお、顔の状態がよくない理由としては、例えば、顔の明るさや表情が著しく違った場合などが想定される。このため、図6(d)の場合、時刻tfindにおいて、カメラマイコン114は、ロストしていた顔が再度出現したと判断できなかったとする。
次に、時刻tfind以降の類似度が、例えば図6(d)の曲線607に示すような類似度変化であったとする。なお、カメラマイコン114は、曲線607が第二の認識閾値608を下回っている状態ではロストしていた顔が再度出現したと判断できない。
ここで、時刻tfrontにおいて、顔サイズが「大」から「中」へ変化し、顔角度が「90°」から「45°」に変化し、その顔情報が個人認識部117からカメラマイコン114に入力されたとする。このときのカメラマイコン114は、認識閾値テーブルから顔サイズが「中」、顔角度が「45°」の組み合わせのセルに設定されている値「7」を第二の認識閾値609として設定する。さらに、カメラマイコン114は、時刻tfrontからtrecogまでの期間も、個人認識部117に対して、認識できていない顔に対して認識処理を実行する指示を通知する。
そして時刻trecogのタイミングで個人認識部117の認識処理による類似度が第二の認識閾値609の「7」を超えると、カメラマイコン114は、時刻trecogの認識処理で類似度が算出された顔を、ロストした認識済みの人物の顔と判断する。
前述したように、第四のパターンによる第二の認識閾値算出処理によれば、顔情報が変化した時刻t4〜t7のタイミングで実行した個人認識処理により算出された類似度が第二の認識閾値として認識閾値テーブルに保持されている。そして、認識処理時には、認識閾値テーブルから、顔情報に応じた第二の認識閾値が設定される。これにより、第四のパターンの第二の認識閾値算出処理によれば、再度検出した顔を認識し易くなるとともに、登録人物以外の顔を誤認識してしまうことを抑制できる。したがって、カメラマイコン114は、登録人物の被写体に対してピントや明るさを合わせる処理を直ちに実行可能となる。なお、時刻trecogで認識された後、カメラマイコン114は、認識閾値を第一の認識閾値に戻してもよく、その後、再度ロストしたり消失したりしたときまで第一の認識閾値を維持してもよい。
<第二の認識閾値設定の例示(位置に応じて変更する場合)>
次に、前述した時刻tlost〜trecogの期間で設定される第二の認識閾値に関して、撮影画面内の各位置における閾値設定の例について図7(a)〜図7(d)を用いて説明する。
図7(a)〜図7(d)の横軸では、軸の中央を画面の中央部と定義し、軸の左端を画面左端、軸の右端を画面右端と定義する。また、図7(a)〜図7(d)の縦軸は、前述した第二の認識閾値を示し、図7(a)〜図7(d)の例では図6(a)で説明した固定値「5」を設定する第一のパターンを前提として説明する。図7(a)〜図7(d)中の一点鎖線の折れ線で示される値が、本実施形態で説明する画面の位置に応じて設定した第二の認識閾値を示している。なお、図7(a)〜図7(d)の説明では、画面の水平方向の例を示しているが、画面の垂直方向やその他の方向についても適用することが可能である。
図7(a)は、カメラマイコン114が画面左方向へのパンニング動作(撮影者がビデオカメラ10を水平方向に振る動作)を検知しているときの第二の認識閾値設定の例を示した図である。図7(a)では、第二の認識閾値として、画面左から位置ppan1までは固定値「5」が設定され、位置ppan1からppan2にかけては固定値「5」から第一の認識閾値相当の値「9」までを線形に結ぶ値が設定される。さらに、位置ppan2から画面右までは、第二の認識閾値として、第一の認識閾値相当の値「9」が設定される。図7(a)の例では、パンニングによりビデオカメラ10が振られている場合、折れ線710で示すように、パンニング方向の位置では低く、一方、パンニング方向の反対方向の位置では高い値に、第二の認識閾値が設定される。
ここで、撮影者(ユーザ)がビデオカメラ10をパンニングさせている場合、パンニング方向に主被写体がいる可能性が高く、パンニング方向から主被写体つまり、ロストしていた認識済みの顔が検出される可能性が高いと考えられる。一方で、パンニング方向の反対方向である画面右から検出された被写体は撮影者が探している主被写体ではない可能性が高いと考えられる。このため、図7(a)の例では、パンニング方向で検出された顔に対しては第二の認識閾値を低く設定し、パンニング方向の反対方向で検出された顔に対しては第二の認識閾値を高く設定している。したがって、図7(a)の例の場合、時刻tlostで見失った登録被写体を再度検出した時に、認識するタイミング(時刻trecog)を早めることができる。また、登録被写体以外を検出した場合には誤認識してしまうことを防ぐことができる。
また、図7(a)の例において、画面左端の第二の認識閾値を固定値「5」とし、一方、第二の認識閾値が固定値「5」から変更される位置ppan1を、画面左から所定距離だけ離れている位置としたのは、以下の第一、第二の理由のためである。
第一の理由は、検出する顔領域の大きさを考慮し、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置になると考えられるためである。したがって、カメラマイコン114は、検出された顔領域のサイズが大きくなることに応じて、位置ppan1を、より画面右側に設定するようにしてもよい。
第二の理由は、パンニング量が大きくなった場合、顔領域が検出される位置が、より中心方向にずれるようになると考えられるためである。したがって、カメラマイコン114は、検出されたパンニング量が大きくなることに応じて、位置ppan1を、より画面右側に設定するようにしてもよい。
さらに、図7(a)の例の場合、位置ppan1〜ppan2の間の位置では第二の認識閾値を線形に連続的に変化させるようにしているが、第二の認識閾値を単調に増加させるのであれば非線形であってもよいし、離散的であってもよい。
図7(a)では、パンニング方向の位置に応じた第二の認識閾値設定例を説明したが、撮影者がビデオカメラ10を垂直方向に振る動作であるチルティング動作についても前述同様の考えに基づいて第二の認識閾値設定を行ってもよい。また、第二の認識閾値設定は、これらパンニングとチルティングの何れか一方に基づいて行ってもよいし、それら両方に基づいて行われてもよい。
図7(b)は、ズームレンズ102がワイド方向に駆動されていることをカメラマイコン114が検知したワイド検知時における第二の閾値設定の例を示した図である。図7(b)では、第二の認識閾値として、画面左から位置pwide1までは固定値「5」が設定され、位置pwide1からpwide2にかけては固定値「5」から第一の認識閾値相当の値「9」までを線形に結ぶ値が設定される。さらに、位置pwide2からpwide3にかけては第一の認識閾値相当の値「9」が、位置pwide3からpwide4にかけては第一の認識閾値相当の値「9」から固定値「5」までを線形に結ぶ値が、第二の認識閾値として設定される。さらに、位置pwide4から画面右までは固定値「5」が、第二の認識閾値として設定される。図7(b)の例では、ズームレンズ102がワイド方向に駆動されている場合、折れ線702で示すように、画面端部付近の位置では低く、画面中央部付近の位置では高い値に、第二の認識閾値が設定される。
ここで、撮影者がビデオカメラ10のズームレンズ102をワイド方向に操作している場合には、画面の外周部から主被写体が検出される可能性が高いと考えられる。一方で、ズームレンズ102をワイド方向に操作している場合において、画面の中心付近で検出された被写体は撮影者が探している主被写体ではない可能性が高いと考えられる。このため、図7(b)の例では、ズームレンズ102がワイド方向に操作されている場合、画面の外周部で検出された顔には第二の認識閾値を低く設定し、画面の中央部付近に検出された顔には第二の認識閾値を高く設定する。これにより、時刻tlostで見失った登録被写体を再度検出した時に、認識するタイミング(時刻trecog)を早めることができる。また、登録被写体以外を検出した場合には誤認識してしまうことを防ぐことができる。
また、図7(b)において、画面両端の第二の認識閾値を固定値「5」とし、一方、第二の認識閾値が固定値「5」から変更される位置pwide1やpwide4を、画面端から各々所定距離だけ離れた位置としたのは、以下の第三、第四の理由のためである。
第三の理由は、図7(a)と同様に、検出する顔領域の大きさを考慮し、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置になるためである。したがって、カメラマイコン114は、検出された顔領域のサイズが大きくなることに応じて、位置pwide1やpwide4をより画面右側に設定するようにしてもよい。
第四の理由は、ズーミング駆動源115によるズーム駆動速度が大きくなることによって、検出され位置が、より中心方向にずれるためである。したがって、カメラマイコン114は、ズーム駆動速度が大きくなることに応じて、位置pwide1やpwide4をより画面中央部に設定するようにしてもよい。
さらに、図7(b)の例の場合、位置pwide1〜pwide2及び位置pwide3〜pwide4の間では、第二の認識閾値を線形に連続的に変化させているが、第二の認識閾値を単調で増加させるのであれば非線形でもよいし、離散的でもよい。
図7(c)は、認識済みの顔をロストした位置が、位置plost3であった場合の第二の閾値設定の例を示した図であり、図中の折れ線703上の値が、顔のロスト位置に応じて設定される第二の認識閾値を表している。図7(c)では、第二の認識閾値として、画面左から位置plost1までは第一の認識閾値相当の値「9」が設定され、位置plost1からplost2にかけては第一の認識閾値相当の値「9」から固定値「5」までを線形に結ぶ値が設定される。また、位置plost2からplost4にかけては固定値「5」が、位置plost4からplost5にかけては固定値「5」から第一の認識閾値相当の値「9」までを線形に結ぶ値が、第二の認識閾値として設定される。さらに、位置plost5から画面右までは第一の認識閾値相当の値「9」が第二の認識閾値として設定される。図7(c)の例では、折れ線703で示すように、認識済みの顔をロストした位置が位置plost3であった場合、その位置plost3の近傍の位置では低く、一方、位置plost3から離れた位置では高い値に、第二の認識閾値が設定される。
ここで、撮影者がビデオカメラ10のパンニングやズーミングを行っていない場合、主被写体、つまりロストした認識済みの顔の人物は見失った付近に未だ居る可能性が高く、そのロスト位置に、認識していた人物の顔が再度出現する可能性が高いと考えられる。一方で、認識済みの顔をロストした位置から離れた位置で検出された被写体は、認識済みの顔ではない可能性が高いと考えられる。このため、図7(c)では、認識済みの顔をロストした位置付近で検出された顔には第二の認識閾値を低く設定し、認識済みの顔をロストした位置から遠い位置で検出された顔には第二の認識閾値を高く設定する。これにより、時刻tlostでロストした認識済みの顔を再度検出した時に、認識するタイミング(時刻trecog)を早めることができる。また、登録人物以外を検出した場合には誤認識してしまうことを防ぐことができる。
また、図7(c)において、位置plost2やplost4が位置plost3から所定距離だけ離れた位置となされているのは、以下の第五、第六の理由のためである。
第五の理由は、図7(a)及び図7(b)と同様に、検出する顔領域の大きさを考慮しており、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置であるためである。したがって、検出された顔領域のサイズが大きくなることに応じて、位置plost2や位置plost4を、より位置plost3から離したところに設定するようにしてもよい。
第6の理由は、認識済みの顔をロストする直前の人物の動き量が大きくなることによって、検出する位置が位置plost3から移動していた方向にずれる可能性があるためである。したがって、ロストする直前の顔の人物の動き量が大きくなることに応じて、位置plost2や位置plost4を、よりロスト直前の顔の人物の動き方向に設定するようにしてもよい。つまり、位置plost1〜plost4は位置plost3に対して必ずしも対称でなくてもよい。さらに、位置plost1〜plost2及び位置plost4〜plost5の間の位置では、第二の認識閾値を線形に連続的に変化させるようにしているが、第二の認識閾値を単調で増加させるのであれば非線形でもあってもよいし、離散的であってもよい。
図7(d)は、ズームレンズ102がテレ方向に駆動されていることをカメラマイコン114が検知したテレ検知時における第二の閾値設定の例を示した図である。図7(d)では、第二の認識閾値として、画面左から位置ptele1までは第一の認識閾値相当の値「9」が設定され、位置ptele1からptele2にかけては第一の認識閾値相当の値「9」から固定値「5」までを線形に結ぶ値が設定される。また、位置ptele2からptele3にかけては固定値「5」が設定され、位置ptele3からptele4にかけては固定値「5」から第一の認識閾値相当の値「9」までを線形に結ぶ値が、第二の認識閾値として設定される。さらに、位置ptele4から画面右までは第一の認識閾値相当の値「9」が第二の認識閾値として設定される。図7(d)の例では、ズームレンズ102がテレ方向に駆動されている場合、折れ線704で示すように、画面中央部付近の位置では低く、画面端部付近の位置では高い値に、第二の認識閾値が設定される。
ここで、撮影者がビデオカメラ10のズームレンズ102をテレ方向に操作している場合、画面中央部において主被写体、つまり認識済みの顔が検出される可能性が高いと考えられる。一方で、画面の外周部で検出された被写体はテレ方向へのズーミングにより画面外に抜けて行くため、撮影者が探している主被写体ではない可能性が高いと考えられる。したがって、図7(d)に示すように、画面中央部付近で検出された顔には認識閾値を低く設定し、画面の外周部で検出された顔には認識閾値を高く設定する。これにより、時刻tlostで見失った認識済みの顔を再度検出した時に、認識するタイミング(時刻trecog)を早めることができる。また、登録被写体以外を検出した場合には誤認識してしまうことを防ぐことができる。
また、図7(d)において、画面の外周部付近の第二の認識閾値が第一の認識閾値相当の値「9」から変更される位置ptele1やptele4を、画面端から各々所定距離だけ離れた位置としたのは、以下の第七、第八の理由のためである。
第七の理由は、図7(a)、図7(b)及び図7(c)と同様に、検出する顔領域の大きさを考慮しており、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置であるためである。したがって、認識済みの顔をロストしたときの大きさとズーム倍率を基準(1倍)としたときに、例えばズーム倍率2倍だった場合には、ロストしたときの顔サイズに対して2倍した値をptele2〜ptele3の位置としてもよい。
第八の理由は、ビデオカメラ10のズーム駆動速度が大きくなることによって、画面外周部にある顔が画面の外に抜ける速さが増すためである。したがって、ズーム駆動速度が大きくなることに応じて、位置ptele1〜ptele4をより画面中央部に設定するようにしてもよい。
また、位置ptele1〜ptele2及び位置ptele3〜ptele4の間の位置では、第二の認識閾値を線形に連続的に変化させるようにしているが、第二の認識閾値を単調で増加させるのであれば非線形でもあってもよいし、離散的であってもよい。
<第二の認識閾値設定の例示(時間に応じて変更する場合)>
次に、前述した時刻tlost〜trecogの期間で設定される第二の認識閾値の時間的な変化の例について図8(a)〜図8(d)を用いて説明する。
図8(a)〜図8(d)は認識済みの顔をロストした時刻tlostから再度認識が出来る時刻trecogの前までの期間における第二の認識閾値変化の例を示した図である。図8(a)〜図8(d)の横軸は、時間を示しており、認識していた被写体(顔)を見失った時刻tlostを原点とする。また、図8(a)〜図8(d)の縦軸は、前述した第二の認識閾値を示しており、図8(a)〜図8(d)の例では図6(a)で説明した固定値「5」を設定する第一のパターンを前提として説明する。図8(a)〜図8(d)中の一点鎖線801〜804上の値は、本実施形態で説明する時間に応じて設定した第二の認識閾値を示している。
図8(a)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻taのタイミングで第一の認識閾値相当の値「9」に設定される例を示した図である。図8(a)中の一点鎖線801が第二の認識閾値を表している。
図8(b)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻tb1のタイミングで値「6」に設定し、以降、時刻tbnのタイミングで第一の認識閾値相当の値「9」になるように段階的に第二の認識閾値を設定する例を示した図である。図8(b)中の一点鎖線802上の値が時刻に応じて設定される第二の認識閾値を表している。なお、図8(b)では第二の認識閾値が4段階に変化する例を示しているが、何段階の変化であってもよい。
図8(c)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻tc1から時刻tc2にかけて、第二の認識閾値を線形に増加させる例を示した図である。図8(c)中の一点鎖線803上の値が時刻に応じて設定される第二の認識閾値を表している。
図8(d)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻td1から時刻td2にかけて、第二の認識閾値を非線形に増加させて設定する例を示した図である。図8(d)中の一点鎖線804上の値が時刻に応じて設定される第二の認識閾値を表している。
なお、上述した各時刻ta、tb1〜tbn、tc1、tc2、td1、td2は、前述したロストカウンタ値で表される経過時間と比較される値(時刻)である。
また、本実施形態において、前述した図7(a)〜図7(d)に示す位置に応じた閾値設定と、図8(a)〜図8(d)に示す時間に応じた閾値設定とを合わせて、第二の認識閾値設定が行われてもよい。
一例として、図7(a)と図8(c)で説明した第二の認識閾値設定を合わせて実施した場合について説明する。この例の場合、図7(a)の画面左から位置ppan2の間の各位置の第二の認識閾値は時刻tc1から単調増加を開始し、時刻tc2で単調増加を終了して第一の認識閾値相当の値「9」に設定してもよい。この例では、時刻tlostの時点で設定した閾値が低い位置ほど単位時間当たりの閾値の増加量が大きくなるようにしているが、単位時間当たりの閾値の増加量が画面の位置によらず一定となるようにしてもよい。
以上説明した画面の位置に応じた認識閾値は、顔検出部113で検出した顔の中心位置に基づいて決めてもよいし、顔の中心位置と顔のサイズに基づいて、顔領域内に最も多く占める認識閾値として、また顔領域内に設定されている認識閾値の平均値としてもよい。
以上説明したように、本実施形態では、個人認識制御において、個人認識処理の結果、ビデオカメラに登録されている人物と同一人物であるか否かを判定する閾値を撮影状況に応じて変更することで、登録人物であると判定するまでの時間を短縮化可能としている。すなわち、本実施形態によれば、表情、顔の向きの変動等により所望の人物を認識し難い状況であっても、より早いタイミングで登録人物であると認識することができる。したがって、本実施形態によれば、所望の人物に対するAF制御やAE制御が早いタイミングで実行できるため、よりユーザの意図を反映した映像を撮影することが可能になる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
105‥フォーカスレンズ、106‥撮像素子、111‥AFゲート、112‥焦点信号生成部、113‥顔検出部、114‥カメラマイコン、117‥個人認識部

Claims (20)

  1. 映像信号から所定の被写体領域を検出する検出手段と、
    前記検出された被写体領域から抽出した特徴情報と登録されている特徴情報との類似度と、所定の閾値との比較に基づいて、前記被写体領域に対する認識処理を行う認識手段と、
    前記認識手段により認識された認識済み被写体領域を追尾する追尾手段と、
    前記追尾手段が前記追尾している前記認識済み被写体領域の情報を保持する保持手段と、
    前記所定の閾値を設定する設定手段と、を有し、
    前記設定手段は、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持していないときには、前記所定の閾値として第一の閾値を設定し、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持しているときには、前記所定の閾値として前記第一の閾値よりも低い第二の閾値を設定する
    ことを特徴とする画像処理装置。
  2. 前記認識手段は、
    前記検出された被写体領域から抽出した特徴情報と、前記登録されている特徴情報との間の類似度を算出する算出手段を有し、
    前記類似度が前記所定の閾値より大きい場合に、前記所定の被写体領域を認識できたと判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記追尾手段が前記認識済み被写体領域を追尾できなくなってから、前記認識済み被写体領域を再度認識できない期間が所定期間以上継続した場合に、前記保持手段は、前記認識済み被写体領域の情報を削除することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから経過した時間に応じて、前記所定の閾値を前記第二の閾値よりも大きい値に設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  5. 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過したときに、前記所定の閾値を前記第二の閾値から前記第一の閾値に切り替えることを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
  6. 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から段階的に増加させることを特徴とする請求項4に記載の画像処理装置。
  7. 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から線形に増加させることを特徴とする請求項4に記載の画像処理装置。
  8. 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から非線形に増加させることを特徴とする請求項4に記載の画像処理装置。
  9. 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
    前記設定手段は、前記所定のタイミング毎の類似度のうち、最後のタイミングで求められた類似度の値を前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。
  10. 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
    前記設定手段は、前記所定のタイミング毎の類似度のうち、最も低い類似度の値を前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。
  11. 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
    前記検出手段は、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報を検出し、
    前記保持手段は、前記所定のタイミング毎の類似度を、前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報に結び付けて記憶するテーブルを保持し、
    前記設定手段は、前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報に基づいて前記テーブルから読み出された類似度の値を、前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。
  12. 前記保持手段は、前記所定のタイミング毎に、最新の前記類似度および前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方を用いて前記テーブルを更新することを特徴とする請求項11に記載の画像処理装置。
  13. 前記検出手段は、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方が変化したか否かを判定し、
    前記所定のタイミングは、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方が変化したと判断したタイミングであることを特徴とする請求項9から12の何れか1項に記載の画像処理装置。
  14. 前記設定手段は、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持されている場合、
    パンニング動作とチルティング動作の少なくとも何れかの動作をした方向で、前記検出された前記被写体領域に対しては、前記第二の閾値を設定し、
    前記パンニング動作とチルティング動作の少なくとも何れかの動作をした方向とは反対方向で、前記検出された前記被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  15. 前記設定手段は、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持され、ズームがワイド方向になされた場合、
    前記映像信号の画像の外周部で、前記検出された被写体領域に対しては、前記第二の閾値を設定し、
    前記映像信号の画像の中央部で、前記検出された被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  16. 前記設定手段は、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持され、ズームがテレ方向になされた場合、
    前記映像信号の画像の中央部で、前記検出された被写体領域に対しては、前記第二の閾値を設定し、
    前記映像信号の画像の外周部で、前記検出された被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  17. 前記設定手段は、
    前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持されている場合、
    前記追尾手段が前記認識済み被写体領域を追尾できなくなった前記映像信号の画面内の位置で、前記検出された前記被写体領域に対しては、前記第二の閾値を設定し、
    別の位置で前記検出された前記被写体領域に対しては、前記追尾できなくなった際の前記位置からの距離に応じて前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  18. 前記検出手段は、前記所定の被写体領域として前記映像信号から人物の顔領域を検出することを特徴とする請求項1から17の何れか1項に記載の画像処理装置。
  19. 映像信号から所定の被写体領域を検出する検出工程と、
    前記所定の閾値を設定する設定工程と、
    前記検出された被写体領域から抽出した特徴情報と登録されている特徴情報との類似度と、所定の閾値との比較に基づいて、前記被写体領域に対する認識処理を行う認識工程と、
    前記認識工程により認識された認識済み被写体領域を追尾する追尾工程と、
    前記追尾工程にて前記追尾している前記認識済み被写体領域の情報を保持する保持工程と、を有し、
    前記設定工程では、
    前記追尾工程にて前記認識済み被写体領域を追尾しておらず、かつ、前記保持工程で前記認識済み被写体領域の情報を保持していないときには、前記所定の閾値として第一の閾値を設定し、
    前記追尾工程にて前記認識済み被写体領域を追尾しておらず、かつ、前記保持工程で前記認識済み被写体領域の情報を保持しているときには、前記所定の閾値として前記第一の閾値よりも低い第二の閾値を設定する
    ことを特徴とする画像処理装置の画像処理方法。
  20. コンピュータを、請求項1から18の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017007529A 2017-01-19 2017-01-19 画像処理装置、画像処理方法、プログラム Active JP6768537B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017007529A JP6768537B2 (ja) 2017-01-19 2017-01-19 画像処理装置、画像処理方法、プログラム
US15/873,801 US10579864B2 (en) 2017-01-19 2018-01-17 Image processing apparatus, image processing method, and storage medium
DE102018101034.6A DE102018101034B4 (de) 2017-01-19 2018-01-18 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
CN201810053654.9A CN108337429B (zh) 2017-01-19 2018-01-19 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017007529A JP6768537B2 (ja) 2017-01-19 2017-01-19 画像処理装置、画像処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2018117280A JP2018117280A (ja) 2018-07-26
JP2018117280A5 JP2018117280A5 (ja) 2020-02-13
JP6768537B2 true JP6768537B2 (ja) 2020-10-14

Family

ID=62716468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017007529A Active JP6768537B2 (ja) 2017-01-19 2017-01-19 画像処理装置、画像処理方法、プログラム

Country Status (4)

Country Link
US (1) US10579864B2 (ja)
JP (1) JP6768537B2 (ja)
CN (1) CN108337429B (ja)
DE (1) DE102018101034B4 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204313B2 (ja) * 2017-03-03 2023-01-16 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
CN110020581B (zh) * 2018-12-03 2020-06-09 阿里巴巴集团控股有限公司 一种基于多帧脸部图像的比对方法、装置和电子设备
JP6733765B1 (ja) * 2019-03-27 2020-08-05 日本電気株式会社 処理装置、処理方法及びプログラム
JP7348754B2 (ja) * 2019-06-03 2023-09-21 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
US11688199B2 (en) 2019-11-13 2023-06-27 Samsung Electronics Co., Ltd. Method and apparatus for face detection using adaptive threshold
CN111242939B (zh) * 2020-01-17 2023-09-19 广东驰行电力设备有限公司 压板状态的识别方法
JPWO2022201810A1 (ja) * 2021-03-24 2022-09-29
CN112907636B (zh) * 2021-03-30 2023-01-31 深圳市优必选科技股份有限公司 多目标跟踪方法、装置、电子设备及可读存储介质
CN113438420A (zh) * 2021-06-29 2021-09-24 维沃软件技术有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4154308B2 (ja) * 2003-10-06 2008-09-24 キヤノン株式会社 帳票認識装置、帳票認識方法、プログラムおよび記憶媒体
JP4969291B2 (ja) * 2007-03-30 2012-07-04 セコム株式会社 移動物体追跡装置
CN101339608B (zh) * 2008-08-15 2011-10-12 北京中星微电子有限公司 一种基于检测的目标跟踪方法及系统
JP5362001B2 (ja) * 2009-06-11 2013-12-11 株式会社東芝 画像処理装置、方法及びプログラム
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2011159030A (ja) * 2010-01-29 2011-08-18 Canon Inc 被写体認証装置、被写体認証方法及びプログラム
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
JP5713821B2 (ja) * 2011-06-30 2015-05-07 キヤノン株式会社 画像処理装置及び方法、並びに画像処理装置を有するカメラ
JP5766096B2 (ja) 2011-11-09 2015-08-19 セコム株式会社 顔画像認証装置
CN102496009B (zh) * 2011-12-09 2013-09-18 北京汉邦高科数字技术股份有限公司 智能银行视频监控中的多人脸跟踪方法
JP5766625B2 (ja) * 2012-01-16 2015-08-19 株式会社東芝 カメラ装置
CN102622604B (zh) * 2012-02-14 2014-01-15 西安电子科技大学 一种基于可变形部件加权的多角度人脸检测方法
CN102663777A (zh) * 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
JP2014017114A (ja) * 2012-07-09 2014-01-30 Panasonic Corp 照明システム
JP2014036429A (ja) * 2012-08-10 2014-02-24 Nikon Corp 被写体追尾装置、およびカメラ
CN103679125B (zh) * 2012-09-24 2016-12-21 致伸科技股份有限公司 人脸追踪的方法
US9424461B1 (en) * 2013-06-27 2016-08-23 Amazon Technologies, Inc. Object recognition for three-dimensional bodies
CN203552273U (zh) * 2013-08-26 2014-04-16 昆明学院 一种多视角取像人脸识别装置
JP2015104016A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
CN104123562A (zh) * 2014-07-10 2014-10-29 华东师范大学 一种基于双目视觉的人体面部表情识别方法及其装置
IL236114A (en) 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
US9734587B2 (en) * 2015-09-30 2017-08-15 Apple Inc. Long term object tracker
CN105447474B (zh) * 2015-12-15 2019-08-06 3M创新有限公司 人像识别方法和人像识别装置
CN105825524B (zh) * 2016-03-10 2018-07-24 浙江生辉照明有限公司 目标跟踪方法和装置
US10163212B2 (en) * 2016-08-19 2018-12-25 Sony Corporation Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames

Also Published As

Publication number Publication date
JP2018117280A (ja) 2018-07-26
DE102018101034A1 (de) 2018-07-19
US10579864B2 (en) 2020-03-03
CN108337429B (zh) 2020-11-03
US20180204053A1 (en) 2018-07-19
CN108337429A (zh) 2018-07-27
DE102018101034B4 (de) 2024-06-20

Similar Documents

Publication Publication Date Title
JP6768537B2 (ja) 画像処理装置、画像処理方法、プログラム
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
US7860387B2 (en) Imaging apparatus and control method therefor
JP5049899B2 (ja) 撮像装置及びその制御方法
JP5991755B2 (ja) 自動焦点検出装置およびその制御方法
EP2168005B1 (en) Focus control apparatus, image sensing apparatus, and control method therefor
US9253395B2 (en) Automatic focus detection apparatus, control method for the same, and image pickup apparatus
JP6184189B2 (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
JP6157288B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP2017173480A (ja) フォーカス制御装置、撮像装置及びフォーカス制御方法
JP5335408B2 (ja) 焦点調節装置及び方法
JP2004171490A (ja) 画像検出装置及び画像検出方法
JP5127692B2 (ja) 撮像装置及びその追尾方法
JP5075110B2 (ja) 焦点調節装置及び方法
JP4991899B2 (ja) 撮像装置及びその制御方法
JP2014106411A (ja) 自動焦点調節装置及び自動焦点調節方法
JP4981758B2 (ja) 焦点調節装置及び方法
JP5449448B2 (ja) 撮像装置及びその制御方法
JP6039184B2 (ja) 自動焦点調節装置、撮像装置及び自動焦点調節方法
JP2010044210A (ja) 焦点調節装置及び焦点調節方法
JP5017195B2 (ja) 焦点調節装置及び方法
JP2020072356A (ja) 顔認証装置、その制御方法、プログラム及び記憶媒体
JP2024078297A (ja) 撮像装置及びその制御方法
JP2014013986A (ja) 撮像装置
JP5451869B2 (ja) 焦点調節装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R151 Written notification of patent or utility model registration

Ref document number: 6768537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151