JP6768537B2 - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- JP6768537B2 JP6768537B2 JP2017007529A JP2017007529A JP6768537B2 JP 6768537 B2 JP6768537 B2 JP 6768537B2 JP 2017007529 A JP2017007529 A JP 2017007529A JP 2017007529 A JP2017007529 A JP 2017007529A JP 6768537 B2 JP6768537 B2 JP 6768537B2
- Authority
- JP
- Japan
- Prior art keywords
- threshold value
- subject area
- face
- recognition
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本実施形態の画像処理装置は、デジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどの各種撮像装置に適用可能である。本実施形態では、撮像画像から所定の被写体領域として人物の顔領域を検出して、その検出した顔領域を用いて個人認識を行う個人認識機能を有するビデオカメラを例に挙げて説明する。なお、本実施形態では、ビデオカメラを例に挙げているが、デジタルスチルカメラ等の他の撮像装置であってもよい。
図1のビデオカメラ10は、撮像光学系として、第1固定レンズ101、ズームレンズ102、絞り103、第2固定レンズ104、フォーカスレンズ105を有する。ズームレンズ102は、光軸方向に移動して変倍を行う変倍レンズである。このズームレンズ102を光軸方向へ移動させること、すなわちいわゆるテレ方向やワイド方向等へ移動させることにより、ズーム倍率の変更が可能となる。フォーカスレンズ105は、いわゆるフォーカシング機能だけでなく、変倍に伴う焦点面の移動を補正する機能をも兼ね備えた、撮像光学系の焦点調節のためのレンズ(フォーカスコンペンセータレンズや焦点調節部材とも呼ばれる。)である。
次に、図2と図3(a)〜図3(d)のフローチャートを参照し、顔検出部113、個人認識部117、カメラマイコン114により行われる、本実施形態にかかる顔検出処理、個人認識処理及び追尾処理について説明する。これらのフローチャートの処理は、ハードウェア構成により実行されてもよいし、CPU等がプログラムを実行することにより実現されてもよい。また、以下のフローチャートのステップS201〜ステップS220、ステップS301〜ステップS306は、それぞれS201〜S220、S301〜S306と略記する。図3(a)〜図3(d)は図2のS215の第二の認識閾値算出処理の詳細を示すフローチャートである。
ここで、顔データテーブルの例について図4を用いて詳しく説明する。
図4に示す顔データテーブル401は、カメラマイコン114が識別している人物一人について一つの系列データを管理するテーブルとなされている。系列データは、顔データテーブル401の各行に表されるデータの組であり、顔ID402、顔位置403、顔サイズ404、顔角度405、更新フラグ406、認識フラグ407からなる。カメラマイコン114は、この顔データテーブル401を管理し、また、内部の図示しないRAMに保持している。顔ID402は、カメラマイコン114が識別している人物をそれぞれ区別するための識別番号であり、カメラマイコン114によって所定の人物に対する追尾処理が行われている間、同一の識別番号が割り当て続けられる。
S204において、カメラマイコン114は、S203で更新済みの顔データテーブル401に系列データが一つ以上存在するかどうかを判定する。カメラマイコン114は、S204において系列データが存在すると判定した場合(YES)にはS205に処理を進め、系列データが存在しないと判定した場合(NO)には映像内の顔(人物)が全ていなくなったと判断してS221に処理を進める。
その後、S213において、カメラマイコン114は、ロストカウンタ値をクリアした後、図2のフローチャートの処理を終了する。
次に、図3(a)〜図3(d)、図5及び図6を用いて、前述したS215において行われる第二の認識閾値算出処理について説明する。
図3(a)〜図3(d)は、図2のS215で行われる四つのパターン(第一のパターン〜第四のパターン)の第二の認識閾値算出処理のフローチャートである。図3(a)が第一のパターン、図3(b)が第二のパターン、図3(c)が第三のパターン、図3(d)が第四のパターンの、第二の認識閾値算出処理のフローチャートである。また、図5は、図3(d)で後述する第二の認識閾値テーブルを示す図である。また、図6(a)〜図6(d)は、図3(a)〜図3(d)に示した各フローチャートの第二の認識閾値算出処理を実行した時のそれぞれの動作例を示した図である。図6(a)〜図6(d)の縦軸は前述した類似度を「0」〜「10」の11段階で示しており、類似度が高い場合には大きい値、類似度が小さい場合には小さい値となされている。また、図6(a)〜図6(d)の横軸は、或る時刻を0としたときの当該時刻0からの時間を表している。図6(a)〜図6(d)の横軸において、時刻0〜tlostまでの期間は登録人物を認識できている期間であり、時刻tlostは認識していた顔を見失った時刻(追尾できなくなってロストした時刻)、時刻tfindは人物の顔が再度検出された時刻とする。但し、時刻tfindでは、未だ登録人物であることを認識できていないとする。さらに、時刻trecogは、時刻tlostでロストした登録人物を再度認識できたタイミングとする。なお、図6(a)では、時刻tfind=時刻trecogとしているが、これは時刻tfindで再度検出された人物が直ぐに登録人物であると再度認識できた場合の例である。また、本実施形態では、第一の認識閾値は「9」に設定していると定義するが、この数値は本実施形態の説明をするための便宜的な設定値であり、この数値に限定されるものではない。また、図6(a)〜図6(d)において、同じ値やグラフを表しているものについては同じ参照番号を付してそれらの説明は省略する。
前述したS215における第二の認識閾値算出処理が開始されると、図3(a)のS301において、カメラマイコン114は、内部のRAMに保持してある固定値を読み出して第二の認識閾値に設定し、図3(a)の処理を終了する。固定値は、第一の認識閾値よりも小さい値となされ、誤認識を所定の割合に抑制するような値が既存の知見に基づいて設定されてもよいし、予備実験結果に基づいて経験的に求められた値でもよい。
図6(a)の例において、時刻0のタイミングでは、顔検出部113にて検出されている顔領域が、個人認識部117により登録人物の顔であると認識されているとする。ここでは、既に認識済みの顔があったとしてもよいし、時刻0で図2のS218〜S220の処理によって算出した類似度が第一の認識閾値601の「9」を超えて、初めて顔が認識できたタイミングとしてもよい。
S215の第二の認識閾値算出処理が開始されると、カメラマイコン114は、図3(b)のS302として、個人認識部117に対し類似度を算出させる。このときの個人認識部117は、顔データテーブル401内で認識フラグが「ON」の系列データに対応する認識済みの顔に対し、登録顔画像を用いた認識処理を実行して類似度を算出する。このときの類似度の算出処理は前述した所定のタイミング毎に実行される。
図6(d)において、時刻0〜tlostの間は認識済みの顔を追尾している状態であるが、当該期間では顔検出部113からの顔情報に変化があったタイミングで第二の認識閾値算出処理が実行される。図6(d)の例の場合、時刻t4〜t7のタイミングで顔情報に変化が検出され、それらのタイミングで第二の認識閾値算出処理が実行され、それぞれ得られた類似度が第二の認識閾値として図5に示す認識閾値テーブルに代入される。
ここで、時刻0では顔サイズが「中」、顔角度が「0°」であったとする。また、図6(d)に示すように、顔サイズが「中」で、顔角度が「0°」となっている時刻0における顔の類似度は例えば「10」であったとする。このときの類似度「10」は、前述した第一の認識閾値601の「9」を上回っているため、認識閾値テーブルの該当セルの値は更新されない。
次に、時刻tlost及び時刻tlost〜tfindの期間は、ロストした認識済みの顔が撮像画面内に出現していない期間であるが、この期間に新規に検出された顔に対する処理は、後述する時刻tfind以降の処理と同等であるためその説明は省略する。
次に、前述した時刻tlost〜trecogの期間で設定される第二の認識閾値に関して、撮影画面内の各位置における閾値設定の例について図7(a)〜図7(d)を用いて説明する。
図7(a)〜図7(d)の横軸では、軸の中央を画面の中央部と定義し、軸の左端を画面左端、軸の右端を画面右端と定義する。また、図7(a)〜図7(d)の縦軸は、前述した第二の認識閾値を示し、図7(a)〜図7(d)の例では図6(a)で説明した固定値「5」を設定する第一のパターンを前提として説明する。図7(a)〜図7(d)中の一点鎖線の折れ線で示される値が、本実施形態で説明する画面の位置に応じて設定した第二の認識閾値を示している。なお、図7(a)〜図7(d)の説明では、画面の水平方向の例を示しているが、画面の垂直方向やその他の方向についても適用することが可能である。
第一の理由は、検出する顔領域の大きさを考慮し、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置になると考えられるためである。したがって、カメラマイコン114は、検出された顔領域のサイズが大きくなることに応じて、位置ppan1を、より画面右側に設定するようにしてもよい。
第二の理由は、パンニング量が大きくなった場合、顔領域が検出される位置が、より中心方向にずれるようになると考えられるためである。したがって、カメラマイコン114は、検出されたパンニング量が大きくなることに応じて、位置ppan1を、より画面右側に設定するようにしてもよい。
図7(a)では、パンニング方向の位置に応じた第二の認識閾値設定例を説明したが、撮影者がビデオカメラ10を垂直方向に振る動作であるチルティング動作についても前述同様の考えに基づいて第二の認識閾値設定を行ってもよい。また、第二の認識閾値設定は、これらパンニングとチルティングの何れか一方に基づいて行ってもよいし、それら両方に基づいて行われてもよい。
第三の理由は、図7(a)と同様に、検出する顔領域の大きさを考慮し、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置になるためである。したがって、カメラマイコン114は、検出された顔領域のサイズが大きくなることに応じて、位置pwide1やpwide4をより画面右側に設定するようにしてもよい。
第四の理由は、ズーミング駆動源115によるズーム駆動速度が大きくなることによって、検出され位置が、より中心方向にずれるためである。したがって、カメラマイコン114は、ズーム駆動速度が大きくなることに応じて、位置pwide1やpwide4をより画面中央部に設定するようにしてもよい。
第五の理由は、図7(a)及び図7(b)と同様に、検出する顔領域の大きさを考慮しており、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置であるためである。したがって、検出された顔領域のサイズが大きくなることに応じて、位置plost2や位置plost4を、より位置plost3から離したところに設定するようにしてもよい。
第6の理由は、認識済みの顔をロストする直前の人物の動き量が大きくなることによって、検出する位置が位置plost3から移動していた方向にずれる可能性があるためである。したがって、ロストする直前の顔の人物の動き量が大きくなることに応じて、位置plost2や位置plost4を、よりロスト直前の顔の人物の動き方向に設定するようにしてもよい。つまり、位置plost1〜plost4は位置plost3に対して必ずしも対称でなくてもよい。さらに、位置plost1〜plost2及び位置plost4〜plost5の間の位置では、第二の認識閾値を線形に連続的に変化させるようにしているが、第二の認識閾値を単調で増加させるのであれば非線形でもあってもよいし、離散的であってもよい。
第七の理由は、図7(a)、図7(b)及び図7(c)と同様に、検出する顔領域の大きさを考慮しており、顔領域の中心位置は必ず顔領域の水平サイズの半分の位置であるためである。したがって、認識済みの顔をロストしたときの大きさとズーム倍率を基準(1倍)としたときに、例えばズーム倍率2倍だった場合には、ロストしたときの顔サイズに対して2倍した値をptele2〜ptele3の位置としてもよい。
第八の理由は、ビデオカメラ10のズーム駆動速度が大きくなることによって、画面外周部にある顔が画面の外に抜ける速さが増すためである。したがって、ズーム駆動速度が大きくなることに応じて、位置ptele1〜ptele4をより画面中央部に設定するようにしてもよい。
次に、前述した時刻tlost〜trecogの期間で設定される第二の認識閾値の時間的な変化の例について図8(a)〜図8(d)を用いて説明する。
図8(a)〜図8(d)は認識済みの顔をロストした時刻tlostから再度認識が出来る時刻trecogの前までの期間における第二の認識閾値変化の例を示した図である。図8(a)〜図8(d)の横軸は、時間を示しており、認識していた被写体(顔)を見失った時刻tlostを原点とする。また、図8(a)〜図8(d)の縦軸は、前述した第二の認識閾値を示しており、図8(a)〜図8(d)の例では図6(a)で説明した固定値「5」を設定する第一のパターンを前提として説明する。図8(a)〜図8(d)中の一点鎖線801〜804上の値は、本実施形態で説明する時間に応じて設定した第二の認識閾値を示している。
図8(b)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻tb1のタイミングで値「6」に設定し、以降、時刻tbnのタイミングで第一の認識閾値相当の値「9」になるように段階的に第二の認識閾値を設定する例を示した図である。図8(b)中の一点鎖線802上の値が時刻に応じて設定される第二の認識閾値を表している。なお、図8(b)では第二の認識閾値が4段階に変化する例を示しているが、何段階の変化であってもよい。
図8(c)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻tc1から時刻tc2にかけて、第二の認識閾値を線形に増加させる例を示した図である。図8(c)中の一点鎖線803上の値が時刻に応じて設定される第二の認識閾値を表している。
図8(d)は、時刻tlostで第二の認識閾値を固定値「5」に設定した後、時刻td1から時刻td2にかけて、第二の認識閾値を非線形に増加させて設定する例を示した図である。図8(d)中の一点鎖線804上の値が時刻に応じて設定される第二の認識閾値を表している。
なお、上述した各時刻ta、tb1〜tbn、tc1、tc2、td1、td2は、前述したロストカウンタ値で表される経過時間と比較される値(時刻)である。
一例として、図7(a)と図8(c)で説明した第二の認識閾値設定を合わせて実施した場合について説明する。この例の場合、図7(a)の画面左から位置ppan2の間の各位置の第二の認識閾値は時刻tc1から単調増加を開始し、時刻tc2で単調増加を終了して第一の認識閾値相当の値「9」に設定してもよい。この例では、時刻tlostの時点で設定した閾値が低い位置ほど単位時間当たりの閾値の増加量が大きくなるようにしているが、単位時間当たりの閾値の増加量が画面の位置によらず一定となるようにしてもよい。
Claims (20)
- 映像信号から所定の被写体領域を検出する検出手段と、
前記検出された被写体領域から抽出した特徴情報と登録されている特徴情報との類似度と、所定の閾値との比較に基づいて、前記被写体領域に対する認識処理を行う認識手段と、
前記認識手段により認識された認識済み被写体領域を追尾する追尾手段と、
前記追尾手段が前記追尾している前記認識済み被写体領域の情報を保持する保持手段と、
前記所定の閾値を設定する設定手段と、を有し、
前記設定手段は、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持していないときには、前記所定の閾値として第一の閾値を設定し、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段が前記認識済み被写体領域の情報を保持しているときには、前記所定の閾値として前記第一の閾値よりも低い第二の閾値を設定する
ことを特徴とする画像処理装置。 - 前記認識手段は、
前記検出された被写体領域から抽出した特徴情報と、前記登録されている特徴情報との間の類似度を算出する算出手段を有し、
前記類似度が前記所定の閾値より大きい場合に、前記所定の被写体領域を認識できたと判定することを特徴とする請求項1に記載の画像処理装置。 - 前記追尾手段が前記認識済み被写体領域を追尾できなくなってから、前記認識済み被写体領域を再度認識できない期間が所定期間以上継続した場合に、前記保持手段は、前記認識済み被写体領域の情報を削除することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから経過した時間に応じて、前記所定の閾値を前記第二の閾値よりも大きい値に設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
- 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過したときに、前記所定の閾値を前記第二の閾値から前記第一の閾値に切り替えることを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
- 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から段階的に増加させることを特徴とする請求項4に記載の画像処理装置。
- 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から線形に増加させることを特徴とする請求項4に記載の画像処理装置。
- 前記設定手段は、前記追尾手段が前記認識済み被写体領域を追尾できなくなってから所定の時間が経過するまでの間で、前記所定の閾値を前記第二の閾値から非線形に増加させることを特徴とする請求項4に記載の画像処理装置。
- 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
前記設定手段は、前記所定のタイミング毎の類似度のうち、最後のタイミングで求められた類似度の値を前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。 - 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
前記設定手段は、前記所定のタイミング毎の類似度のうち、最も低い類似度の値を前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。 - 前記認識手段は、前記追尾手段が前記認識済み被写体領域を追尾している場合には、前記類似度を所定のタイミング毎に求め、
前記検出手段は、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報を検出し、
前記保持手段は、前記所定のタイミング毎の類似度を、前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報に結び付けて記憶するテーブルを保持し、
前記設定手段は、前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方の情報に基づいて前記テーブルから読み出された類似度の値を、前記第二の閾値として設定することを特徴とする請求項1から8の何れか1項に記載の画像処理装置。 - 前記保持手段は、前記所定のタイミング毎に、最新の前記類似度および前記検出された被写体領域の大きさ及び角度に関する情報の少なくとも一方を用いて前記テーブルを更新することを特徴とする請求項11に記載の画像処理装置。
- 前記検出手段は、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方が変化したか否かを判定し、
前記所定のタイミングは、前記検出した被写体領域の大きさ及び角度に関する情報の少なくとも一方が変化したと判断したタイミングであることを特徴とする請求項9から12の何れか1項に記載の画像処理装置。 - 前記設定手段は、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持されている場合、
パンニング動作とチルティング動作の少なくとも何れかの動作をした方向で、前記検出された前記被写体領域に対しては、前記第二の閾値を設定し、
前記パンニング動作とチルティング動作の少なくとも何れかの動作をした方向とは反対方向で、前記検出された前記被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。 - 前記設定手段は、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持され、ズームがワイド方向になされた場合、
前記映像信号の画像の外周部で、前記検出された被写体領域に対しては、前記第二の閾値を設定し、
前記映像信号の画像の中央部で、前記検出された被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。 - 前記設定手段は、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持され、ズームがテレ方向になされた場合、
前記映像信号の画像の中央部で、前記検出された被写体領域に対しては、前記第二の閾値を設定し、
前記映像信号の画像の外周部で、前記検出された被写体領域に対しては、前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。 - 前記設定手段は、
前記追尾手段が前記認識済み被写体領域を追尾しておらず、かつ、前記保持手段に前記認識済み被写体領域の情報が保持されている場合、
前記追尾手段が前記認識済み被写体領域を追尾できなくなった前記映像信号の画面内の位置で、前記検出された前記被写体領域に対しては、前記第二の閾値を設定し、
別の位置で前記検出された前記被写体領域に対しては、前記追尾できなくなった際の前記位置からの距離に応じて前記第二の閾値よりも大きい閾値を設定することを特徴とする請求項1から3の何れか1項に記載の画像処理装置。 - 前記検出手段は、前記所定の被写体領域として前記映像信号から人物の顔領域を検出することを特徴とする請求項1から17の何れか1項に記載の画像処理装置。
- 映像信号から所定の被写体領域を検出する検出工程と、
前記所定の閾値を設定する設定工程と、
前記検出された被写体領域から抽出した特徴情報と登録されている特徴情報との類似度と、所定の閾値との比較に基づいて、前記被写体領域に対する認識処理を行う認識工程と、
前記認識工程により認識された認識済み被写体領域を追尾する追尾工程と、
前記追尾工程にて前記追尾している前記認識済み被写体領域の情報を保持する保持工程と、を有し、
前記設定工程では、
前記追尾工程にて前記認識済み被写体領域を追尾しておらず、かつ、前記保持工程で前記認識済み被写体領域の情報を保持していないときには、前記所定の閾値として第一の閾値を設定し、
前記追尾工程にて前記認識済み被写体領域を追尾しておらず、かつ、前記保持工程で前記認識済み被写体領域の情報を保持しているときには、前記所定の閾値として前記第一の閾値よりも低い第二の閾値を設定する
ことを特徴とする画像処理装置の画像処理方法。 - コンピュータを、請求項1から18の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017007529A JP6768537B2 (ja) | 2017-01-19 | 2017-01-19 | 画像処理装置、画像処理方法、プログラム |
US15/873,801 US10579864B2 (en) | 2017-01-19 | 2018-01-17 | Image processing apparatus, image processing method, and storage medium |
DE102018101034.6A DE102018101034B4 (de) | 2017-01-19 | 2018-01-18 | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren |
CN201810053654.9A CN108337429B (zh) | 2017-01-19 | 2018-01-19 | 图像处理设备和图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017007529A JP6768537B2 (ja) | 2017-01-19 | 2017-01-19 | 画像処理装置、画像処理方法、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018117280A JP2018117280A (ja) | 2018-07-26 |
JP2018117280A5 JP2018117280A5 (ja) | 2020-02-13 |
JP6768537B2 true JP6768537B2 (ja) | 2020-10-14 |
Family
ID=62716468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017007529A Active JP6768537B2 (ja) | 2017-01-19 | 2017-01-19 | 画像処理装置、画像処理方法、プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10579864B2 (ja) |
JP (1) | JP6768537B2 (ja) |
CN (1) | CN108337429B (ja) |
DE (1) | DE102018101034B4 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7204313B2 (ja) * | 2017-03-03 | 2023-01-16 | 日本電気株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN110020581B (zh) * | 2018-12-03 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 一种基于多帧脸部图像的比对方法、装置和电子设备 |
JP6733765B1 (ja) * | 2019-03-27 | 2020-08-05 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
JP7348754B2 (ja) * | 2019-06-03 | 2023-09-21 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム、記憶媒体 |
US11688199B2 (en) | 2019-11-13 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and apparatus for face detection using adaptive threshold |
CN111242939B (zh) * | 2020-01-17 | 2023-09-19 | 广东驰行电力设备有限公司 | 压板状态的识别方法 |
JPWO2022201810A1 (ja) * | 2021-03-24 | 2022-09-29 | ||
CN112907636B (zh) * | 2021-03-30 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 多目标跟踪方法、装置、电子设备及可读存储介质 |
CN113438420A (zh) * | 2021-06-29 | 2021-09-24 | 维沃软件技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4154308B2 (ja) * | 2003-10-06 | 2008-09-24 | キヤノン株式会社 | 帳票認識装置、帳票認識方法、プログラムおよび記憶媒体 |
JP4969291B2 (ja) * | 2007-03-30 | 2012-07-04 | セコム株式会社 | 移動物体追跡装置 |
CN101339608B (zh) * | 2008-08-15 | 2011-10-12 | 北京中星微电子有限公司 | 一种基于检测的目标跟踪方法及系统 |
JP5362001B2 (ja) * | 2009-06-11 | 2013-12-11 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
US8509482B2 (en) * | 2009-12-21 | 2013-08-13 | Canon Kabushiki Kaisha | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
JP2011159030A (ja) * | 2010-01-29 | 2011-08-18 | Canon Inc | 被写体認証装置、被写体認証方法及びプログラム |
US8705813B2 (en) * | 2010-06-21 | 2014-04-22 | Canon Kabushiki Kaisha | Identification device, identification method, and storage medium |
JP5713821B2 (ja) * | 2011-06-30 | 2015-05-07 | キヤノン株式会社 | 画像処理装置及び方法、並びに画像処理装置を有するカメラ |
JP5766096B2 (ja) | 2011-11-09 | 2015-08-19 | セコム株式会社 | 顔画像認証装置 |
CN102496009B (zh) * | 2011-12-09 | 2013-09-18 | 北京汉邦高科数字技术股份有限公司 | 智能银行视频监控中的多人脸跟踪方法 |
JP5766625B2 (ja) * | 2012-01-16 | 2015-08-19 | 株式会社東芝 | カメラ装置 |
CN102622604B (zh) * | 2012-02-14 | 2014-01-15 | 西安电子科技大学 | 一种基于可变形部件加权的多角度人脸检测方法 |
CN102663777A (zh) * | 2012-04-26 | 2012-09-12 | 安科智慧城市技术(中国)有限公司 | 基于多视点视频的目标跟踪方法及系统 |
JP2014017114A (ja) * | 2012-07-09 | 2014-01-30 | Panasonic Corp | 照明システム |
JP2014036429A (ja) * | 2012-08-10 | 2014-02-24 | Nikon Corp | 被写体追尾装置、およびカメラ |
CN103679125B (zh) * | 2012-09-24 | 2016-12-21 | 致伸科技股份有限公司 | 人脸追踪的方法 |
US9424461B1 (en) * | 2013-06-27 | 2016-08-23 | Amazon Technologies, Inc. | Object recognition for three-dimensional bodies |
CN203552273U (zh) * | 2013-08-26 | 2014-04-16 | 昆明学院 | 一种多视角取像人脸识别装置 |
JP2015104016A (ja) * | 2013-11-26 | 2015-06-04 | キヤノン株式会社 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
CN104123562A (zh) * | 2014-07-10 | 2014-10-29 | 华东师范大学 | 一种基于双目视觉的人体面部表情识别方法及其装置 |
IL236114A (en) | 2014-12-07 | 2016-04-21 | Yoav Grauer | Improved object recognition in the reimbursement-based imaging unit |
US9734587B2 (en) * | 2015-09-30 | 2017-08-15 | Apple Inc. | Long term object tracker |
CN105447474B (zh) * | 2015-12-15 | 2019-08-06 | 3M创新有限公司 | 人像识别方法和人像识别装置 |
CN105825524B (zh) * | 2016-03-10 | 2018-07-24 | 浙江生辉照明有限公司 | 目标跟踪方法和装置 |
US10163212B2 (en) * | 2016-08-19 | 2018-12-25 | Sony Corporation | Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames |
-
2017
- 2017-01-19 JP JP2017007529A patent/JP6768537B2/ja active Active
-
2018
- 2018-01-17 US US15/873,801 patent/US10579864B2/en active Active
- 2018-01-18 DE DE102018101034.6A patent/DE102018101034B4/de active Active
- 2018-01-19 CN CN201810053654.9A patent/CN108337429B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018117280A (ja) | 2018-07-26 |
DE102018101034A1 (de) | 2018-07-19 |
US10579864B2 (en) | 2020-03-03 |
CN108337429B (zh) | 2020-11-03 |
US20180204053A1 (en) | 2018-07-19 |
CN108337429A (zh) | 2018-07-27 |
DE102018101034B4 (de) | 2024-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6768537B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US9823331B2 (en) | Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium | |
US7860387B2 (en) | Imaging apparatus and control method therefor | |
JP5049899B2 (ja) | 撮像装置及びその制御方法 | |
JP5991755B2 (ja) | 自動焦点検出装置およびその制御方法 | |
EP2168005B1 (en) | Focus control apparatus, image sensing apparatus, and control method therefor | |
US9253395B2 (en) | Automatic focus detection apparatus, control method for the same, and image pickup apparatus | |
JP6184189B2 (ja) | 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体 | |
JP6157288B2 (ja) | 画像処理装置およびその制御方法、撮像装置 | |
JP2017173480A (ja) | フォーカス制御装置、撮像装置及びフォーカス制御方法 | |
JP5335408B2 (ja) | 焦点調節装置及び方法 | |
JP2004171490A (ja) | 画像検出装置及び画像検出方法 | |
JP5127692B2 (ja) | 撮像装置及びその追尾方法 | |
JP5075110B2 (ja) | 焦点調節装置及び方法 | |
JP4991899B2 (ja) | 撮像装置及びその制御方法 | |
JP2014106411A (ja) | 自動焦点調節装置及び自動焦点調節方法 | |
JP4981758B2 (ja) | 焦点調節装置及び方法 | |
JP5449448B2 (ja) | 撮像装置及びその制御方法 | |
JP6039184B2 (ja) | 自動焦点調節装置、撮像装置及び自動焦点調節方法 | |
JP2010044210A (ja) | 焦点調節装置及び焦点調節方法 | |
JP5017195B2 (ja) | 焦点調節装置及び方法 | |
JP2020072356A (ja) | 顔認証装置、その制御方法、プログラム及び記憶媒体 | |
JP2024078297A (ja) | 撮像装置及びその制御方法 | |
JP2014013986A (ja) | 撮像装置 | |
JP5451869B2 (ja) | 焦点調節装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200923 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6768537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |