JP2015104016A - 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 - Google Patents
被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 Download PDFInfo
- Publication number
- JP2015104016A JP2015104016A JP2013244244A JP2013244244A JP2015104016A JP 2015104016 A JP2015104016 A JP 2015104016A JP 2013244244 A JP2013244244 A JP 2013244244A JP 2013244244 A JP2013244244 A JP 2013244244A JP 2015104016 A JP2015104016 A JP 2015104016A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- area
- predetermined
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 ひずみの大きい画像から被写体検出を行う場合でも、誤検出を抑制しつつ安定して被写体を検出する。
【解決手段】 被写体検出装置は、画像から所定の被写体の領域を検出する検出手段と、検出手段により検出された領域についての評価値を算出する算出手段と、評価値が所定の基準を満たす場合、所定の被写体であると判別する制御手段とを有する。所定の基準は、表示手段に表示される画像のゆがみの大きさに応じて設定される。
【選択図】 図7
【解決手段】 被写体検出装置は、画像から所定の被写体の領域を検出する検出手段と、検出手段により検出された領域についての評価値を算出する算出手段と、評価値が所定の基準を満たす場合、所定の被写体であると判別する制御手段とを有する。所定の基準は、表示手段に表示される画像のゆがみの大きさに応じて設定される。
【選択図】 図7
Description
本発明は、画像から特定の被写体を検出する被写体検出装置等に関する。
画像から特定の被写体(人物、動物、特定の物体など)を検出する画像処理技術が知られている。例えば、被写体として人間の顔を検出する画像処理技術は、テレビ会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮など多くの分野で使用することができる。
デジタルカメラやデジタルビデオカメラでは、撮影画像から例えば人物の顔を検出し、顔検出結果に基づく露出制御や焦点検出制御を実現させている。このように画像中から特定の被写体を検出するための画像処理技術としては、様々な手法が提案されているが、その大半はパターンマッチングに基づく手法である。例えば、画像上の複数の異なる位置で部分画像を切り出し、その部分画像が顔領域の画像であるか否かを判別して、画像上の顔領域を検出する方法が挙げられる。部分画像が顔領域であるか否かは、テンプレートマッチングによる手法や、ニューラル・ネットワークなどの学習手法により顔の特徴を学習させた識別器を用いた手法により判別できる。
いずれの手法においても、部分画像の画像パターンに基づいて、その部分画像が被写体領域の画像である確からしさを示す信頼度を算出し、信頼度が所定の閾値を超えた部分画像を被写体領域の画像として検出するのが一般的である。特許文献1では、検出した領域の信頼度の履歴を記憶し、信頼度のレベルに基づいて被写体を検出したと判断するまでの検出回数や検出時間を変更する方法を開示している。
しかしながら、ひずみの大きい画像に対して被写体検出を行う場合に、ひずみの大きい領域に検出すべき被写体が存在すると、被写体が大きく歪んでしまう。そのため、上記特許文献1に記載の方法では、ひずみの大きい領域において被写体の信頼度が低下し、検出の判断ができなくなってしまう可能性がある。
本発明は上述した課題に鑑みてなされたものであり、ひずみの大きい画像から被写体検出を行う場合でも、誤検出を抑制しつつ安定して被写体を検出するのを可能にすることを目的とする。
上記目的に鑑みて、第1の本発明は、画像から所定の被写体の領域を検出する検出手段と、前記検出手段により検出された領域についての評価値を算出する算出手段と、前記評価値が所定の基準を満たす場合、前記所定の被写体であると判別する制御手段とを有する被写体検出装置であって、前記所定の基準は、表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする。
第2の本発明は、画像から所定の被写体の領域を検出する検出手段と、前記検出手段により検出された領域についての評価値を算出する算出手段と、表示手段における画像の表示を制御する制御手段とを有する被写体検出装置であって、前記評価値が所定の基準を満たす場合、前記制御手段は、当該検出された領域に対応する前記表示手段の領域に対して、前記所定の被写体であることを示す表示を行うよう制御し、前記所定の基準は、前記表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする。
本発明によれば、ひずみの大きい画像から被写体検出を行う場合でも、誤検出を抑制しつつ安定して被写体を検出することができる。
以下、本発明の実施の形態について図面を参照して説明する。なお、以下の実施例は発明の好ましい形態を示すものであり、発明の範囲を限定するものではない。
図1は、本実施例における被写体検出装置を備えた撮像装置の構成を示すブロック図である。図1において、第1固定レンズ101、変倍レンズ102、絞り103、第2固定レンズ104、及びフォーカスコンペンセータレンズ(フォーカスレンズ)105により、被写体から入射した光を結像するための撮像光学系が構成される。変倍レンズ102は、光軸方向に移動することにより、変倍を行う。フォーカスレンズ105は、光軸方向に移動することにより、変倍に伴う焦点面の移動の補正とフォーカシングを行う。なお、本実施例の撮像光学系は、大きな歪曲収差を有する超広角ズームレンズ(所謂魚眼ズームレンズ)として構成される。
撮像素子106は、CCDセンサやCMOSセンサを用いて構成される光電変換素子である。撮像素子106は、被写体像を光電変換して撮像信号を生成する。CDS/AGC回路107は、撮像素子106から出力される撮像信号をサンプリングし、ゲイン調整する。画像生成手段としてのカメラ信号処理回路108は、CDS/AGC回路107から出力される信号に対して各種の画像処理を施し、映像信号を生成する。モニタ109は、LCD等により構成され、カメラ信号処理回路108で生成された映像信号を表示する。記録部115は、カメラ信号処理回路108で生成された映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。
ズーム駆動源110は、撮影制御部114の指示に基づいて変倍レンズ102を移動させる。フォーカシング駆動源111は、撮影制御部114の指示に基づいてフォーカスレンズ105を移動させる。ズーム駆動源110及びフォーカシング駆動源111は、夫々、ステッピングモータ、DCモータ、振動型モータ、及びボイスコイルモータ等のアクチュエータを用いて構成される。
AFゲート112は、CDS/AGC回路107から出力される全画素の信号のうち焦点検出に用いられる領域(焦点検出領域)の信号のみを通す。AF信号処理回路113は、AFゲート112を通過した信号から高周波成分を抽出してAF評価値(焦点信号)を生成する。AF評価値は、制御手段である撮影制御部114に出力される。AF評価値は、撮像信号に基づいて生成される映像の鮮鋭度(コントラスト状態)を表すものであるが、鮮鋭度は撮像光学系の焦点状態(合焦の程度)によって変化するので、結果的に撮像光学系の焦点状態を表す信号となる。制御手段としての撮影制御部114は、撮像装置全体の動作の制御を司るとともに、AF評価値に基づいてフォーカシング駆動源111を制御することでフォーカスレンズ105を駆動し、焦点調節制御を行う。
本実施例の撮像装置は、モニタ109に映像信号を表示した状態で撮影(ライブビュー撮影または動画撮影)するモードとして、ワイドモード(第1のモード)とアップモード(第2のモード)を有する。本実施例では、魚眼レンズを介した被写体像を撮像素子106において撮像することで、周辺部ほど大きく歪んだ画像が出力される。ワイドモードにおいては、歪んだ画像のままモニタ109に表示され、記録される。一方、アップモードにおいては、出力された歪んだ画像のうち、中央領域を切り出した画像がモニタ109に表示され、記録される。したがって、アップモードで表示される画像の画角は、ワイドモードで表示される画像の画角より望遠側となる。また、本実施例のアップモードでは、歪んだ画像から中央領域を切り出し、さらにカメラ信号処理回路108でひずみ(歪曲収差)を補正する処理を行った画像を表示、記録する。
本実施例の被写体検出部116は、顔検出や人体検出などの検出系のブロックであり、CDS/AGC回路107から出力された撮像信号に対して公知の検出処理を施し、撮影画面内の特定の被写体領域を検出する。すなわち、被写体検出部116は、撮像信号から予め定められた被写体を検出する被写体検出手段を構成する。その検出結果は、被写体特定部119、被写体判定部120を介して撮影制御部114に送信される。撮影制御部114は、上記検出結果に基づき、撮影画面内の被写体領域を含む位置に焦点検出領域を設定するようにAFゲート112へ情報を送信する。
特定の被写体領域の検出処理として、本実施例では顔検出処理を例に説明する。顔検出処理としては、画像データで表される各画素の階調色から肌色領域を抽出し、予め用意する顔の輪郭プレートとのマッチング度で顔を検出する方法や、周知のパターン認識技術を用いて、目、鼻、口等の顔の特徴点を抽出することで顔検出を行う方法等がある。なお、本実施例では、顔検出処理を毎フレーム行う場合について説明するが、複数フレーム毎に行うようにしてもよい。
また、特定の被写体領域の検出処理として、顔検出処理以外に例えば人体検出処理を行ってもよい。人体検出処理では、目的とする被写体領域を人体の上半身領域(顔及び胴体を含む領域)として画像中から検出する。画像中に複数の人物が存在する場合は、その人数分の領域が検出される。人体の検出方法として、特開2009−211311号公報により記述されている方法を例として挙げる。本例では、局所的な上半身の輪郭のエッジ強度を局所特徴量として検出する。画像から特徴量を抽出する方法としては、Sobelフィルタ、Prewittフィルタ、Haarフィルタなど様々な方法がある。抽出された局所特徴量について、人物判別器で上半身と非上半身を判別する。人物判別器における判別は、AdaBoost学習などの機械学習に基づき実施される。
また、人体検出結果から、顔検出領域に相当する部分領域が撮影制御部114によって推定される。すなわち、人体の上半身領域(以下、人体領域)を検出した結果に基づいて顔領域が推定される。この推定方法としては、例えば、顔領域と人体領域との関係に基づき、線形変換により推定されるものとする。言い換えると、人体領域のうち、所定の位置又は(及び)大きさによって定義された領域を顔領域と推定するものとする。
被写体検出部116が検出結果として出力する被写体領域の情報としては、検出した人数分の被写体領域の位置、大きさ、向き(Roll/Pitch/Yaw)、信頼度などが挙げられる。ここで、信頼度とは被写体の検出結果の確からしさを表す値であり、検出の処理過程で決定される。
信頼度の算出にはさまざまな方法がある。例えば、予め記憶された被写体画像の特徴と、被写体検出部116により検出した被写体領域の画像の特徴とを比較して、検出した被写体領域の画像が被写体の画像である確率を求め、この確率から信頼度を算出する方法がある。また、予め記憶された被写体画像の特徴と、被写体検出部116によって検出した被写体領域の画像の特徴との差を算出し、その差の大きさから信頼度を算出する方法もある。いずれの算出方法においても、信頼度が高ければ誤検出の可能性が低く、信頼度が低ければ誤検出の可能性が高いことを示す。
次に、被写体の決定手段について説明する。被写体検出部116の検出結果である被写体領域の情報は被写体特定部119に送られる。被写体特定部119は、時系列的に連続した被写体検出結果から同一の被写体を特定し、被写体情報を被写体判定部120に送るとともに、被写体リスト121に記憶する。被写体判定部120は、被写体リスト121に記憶されている過去に検出した被写体の情報に基づいて、信頼性が高い被写体領域を被写体と判定する。被写体として判定された検出結果の情報(撮像画像中の被写体領域の位置、大きさなど)は、AFゲート112及びカメラ信号処理回路108に供給される。そして、検出結果の情報は、被写体領域の情報を用いた自動焦点検出制御や自動露出制御といった、撮像条件の制御に用いることができる。被写体の特定処理および判定処理の詳細については後述する。
なお、以下の説明では、検出対象として人物の顔のみを例示するが、検出対象となる被写体は人物の顔に限らず、人物の体、動物の顔や他の任意の被写体であってよい。
絞り駆動源117は、絞り103を駆動させるためのアクチュエータ及びそのドライバを含む。輝度情報検出・演算回路118は、CDS/AGC回路107によって読み出された信号から画面内の測光枠の輝度値(測光値)を取得し、演算により正規化する。撮影制御部114は、輝度情報検出・演算回路118で取得され正規化された測光値と適正な露出が得られるように設定された目標値との差分を算出する。そして、撮影制御部114は、算出した差分から絞りの補正駆動量を算出し、絞り駆動源117の駆動を制御する。
(被写体特定処理)
被写体特定部119には、被写体検出部116から顔検出結果として顔領域の情報(撮像画像中の位置や大きさ、信頼度など)が供給される。被写体検出部116では、過去の顔検出結果を保持したり、利用したりせずに顔検出処理を行う。一方、被写体特定部119は、被写体検出部116の顔検出結果を時系列的に保持し、時系列的な顔検出結果に基づいて、同一被写体の顔領域を特定する。これにより、被写体追尾が可能になる。
被写体特定部119には、被写体検出部116から顔検出結果として顔領域の情報(撮像画像中の位置や大きさ、信頼度など)が供給される。被写体検出部116では、過去の顔検出結果を保持したり、利用したりせずに顔検出処理を行う。一方、被写体特定部119は、被写体検出部116の顔検出結果を時系列的に保持し、時系列的な顔検出結果に基づいて、同一被写体の顔領域を特定する。これにより、被写体追尾が可能になる。
顔領域の位置と大きさを用いて同一被写体を特定する処理について、図2を参照して説明する。図2は逐次撮像される時系列的に連続する2フレームを示しており、(b)が時刻tの撮像画像、(a)が(b)より1フレーム前の時刻t−1の画像を示している。なお、ここでは1フレーム毎に顔検出を行うものとしているが、数フレームおきに顔検出を行ってもよい。被写体検出部116によって各フレームで検出された顔領域は、それぞれ枠201、202、203によって図中に示されている。
図2(a)に示すフレームで検出された顔領域について、画像中の座標を用いて、位置を(xt−1(i),yt−1(i))、大きさをst−1(i)と表す。なお、顔領域の位置については、例えば顔領域の中心位置の座標とする。また、図2(b)に示すフレームで新たに検出された顔領域については、位置を(xt(j),yt(j))、大きさをst(j)と表す。ここで、i、jの値は1からnの値を取る整数であり、同一フレーム内で検出された顔領域ごとに値が割り振られる。nは検出された顔領域の総数を示す。
被写体特定部119は、時系列的に連続する顔検出結果において、検出された顔領域の位置と大きさに基づいて、比較対象となっている顔領域が同一被写体か否かを判定する。判定方法の一例を挙げると、比較対象となっている顔領域の大きさが同一の場合、時刻t−1のフレームにおいて検出された顔領域の周囲に当該顔領域と等しい大きさの領域が隣接する範囲を設定する。この隣接範囲に時刻tのフレームで検出された顔領域が含まれれば、両者を同一被写体の顔領域と判定する。また、比較対象となっている顔領域の大きさが異なる場合、2つの顔領域のx座標とy座標それぞれの差分が、比較対象のうち小さい方の顔を基準として設定した隣接範囲に含まれれば、同一被写体の顔領域と判定する。
すなわち、本実施例においては、以下の式1の値が0以上となる顔領域を同一被写体として判定する。
Min(st(i),st−1(j))−abs(xt(i)−xt−1(j))−abs(yt(i)−yt−1(j)) (式1)
Min(st(i),st−1(j))−abs(xt(i)−xt−1(j))−abs(yt(i)−yt−1(j)) (式1)
時刻tのフレームで検出された顔領域を基準として、時刻t−1のフレームで式1の値が0以上となる顔領域が複数検出されていた場合は、式1の値が最も小さい顔が同一被写体の領域として判定される。また、時刻tのフレームの顔検出結果を基準として、時刻t−1のフレームで式1の値が0以上となる顔検出結果が得られなければ、時刻tのフレームの当該顔検出結果に対応する被写体は新規の被写体としてみなされる。例えば、図2において、フレームt−1における枠201の領域とフレームtにおける枠202の領域は同一の被写体として判定され、フレームtにおける枠203の領域は新規に出現した被写体と判定される。
なお、ここで説明した被写体特定方法は一例であり、他の方法を用いて同一の被写体を特定してもよい。例えば、被写体検出部116から顔の傾きや向きに関する情報を取得して、それらを被写体特定部119での被写体特定の条件として利用しても良い。また、ズーム倍率(焦点距離)、撮像装置の移動量、手ぶれ補正のON/OFFといった撮像装置の情報を取得し、それらを被写体特定の条件として利用しても良い。
被写体特定部119は、図3に示すような被写体リスト121を保持し、被写体検出部116から検出結果を受け取るごとに被写体リスト121を更新する。被写体リスト121の詳細については後述するが、個々の顔領域について、顔領域の位置座標及び大きさ、顔の角度の情報、信頼度レベルの履歴などが記憶される。
(被写体判定処理)
被写体判定部120は、被写体検出部116により出力された顔検出結果に基づいて、撮影制御部114で有効に利用できる情報を判定し、撮影制御部114へ供給する。つまり、被写体判定部120は、被写体検出部116により出力される顔検出結果の中から、信頼性の高い検出結果を抽出し、撮影制御部114へ供給する。具体的には、被写体判定部120は、後述する信頼度レベルの閾値と、検出回数又は継続検出時間の判定基準値を顔検出結果の有効判定情報として予め保持しておく。そして、被写体判定部120は、被写体特定部119が前回検出された顔領域と同一被写体と判定した顔領域について、有効判定情報に基づいて、最終的に顔としての信頼性の高い顔領域か否かを判定する。本実施例では、被写体判定部120は、顔領域の信頼度レベルが閾値以上で検出された回数又は継続時間が上述の判定基準値に達した顔領域を、信頼性の高い顔領域と判定する。
被写体判定部120は、被写体検出部116により出力された顔検出結果に基づいて、撮影制御部114で有効に利用できる情報を判定し、撮影制御部114へ供給する。つまり、被写体判定部120は、被写体検出部116により出力される顔検出結果の中から、信頼性の高い検出結果を抽出し、撮影制御部114へ供給する。具体的には、被写体判定部120は、後述する信頼度レベルの閾値と、検出回数又は継続検出時間の判定基準値を顔検出結果の有効判定情報として予め保持しておく。そして、被写体判定部120は、被写体特定部119が前回検出された顔領域と同一被写体と判定した顔領域について、有効判定情報に基づいて、最終的に顔としての信頼性の高い顔領域か否かを判定する。本実施例では、被写体判定部120は、顔領域の信頼度レベルが閾値以上で検出された回数又は継続時間が上述の判定基準値に達した顔領域を、信頼性の高い顔領域と判定する。
ここで、信頼度レベルは、被写体検出部116から供給される信頼度の値そのものであっても、被写体検出部116から得られる信頼度に対して正規化処理など所定の処理を施した値であってもよい。本実施例において、被写体判定部120は、図3で示したように被写体特定部119が保持および管理する被写体リスト121を参照し、信頼度レベルの履歴から上述の判定基準を満たす顔領域を顔と判定する。そして、被写体判定部120は、顔と判定した顔領域の位置や大きさの情報を被写体リスト121から読み出して、撮影制御部114へ供給する。
次に、本実施例に係る撮像装置の動作について説明する。本実施例に係る撮像装置では、図1の第1固定レンズ101からフォーカスレンズ105までを含むレンズ群として、超広角レンズである魚眼レンズが備えられている。魚眼レンズを用いて図4(a)に示すような格子状の図柄を撮影すると、図4(b)に示すように、画面の中央部が拡大され、周辺部が縮小された画像データが撮像素子106から出力される。この場合、図4(a)において斜線で示した領域401と、図4(b)において斜線で示した領域402は、対応する領域となる。
図4(b)で示される画角は、上述した本実施例のワイドモードで撮影され、表示・記録される画像の画角である。一方、上述したアップモードにおいては、領域403で示されるように、ワイドモードで撮影される画像の中心領域を切り出した画像が表示・記録される。
本実施例のワイドモードのようにひずみの大きいレンズを用いて撮影された画像データから被写体検出を行う場合、周辺部では被写体が大きく歪んでしまい、検出の信頼性が低下してしまう。この問題と解決手段について、図5および図6を用いて以下に説明する。
図5では、被写体検出部116により検出された顔領域と対応する信頼度レベルの例を示している。ここでは、信頼度レベルは1から10の10段階あり、10が最も顔らしさの信頼性が高いものとする。図5(a)乃至(c)では、連続する3つのフレームを示しているが、顔検出処理は数フレーム毎に行ってもよい。
図5に示した例では、顔を正しく検出している顔領域(領域501、502、505、506、509、510)は信頼度レベルの高いものが多く、顔以外を誤検出した領域(領域503、504、507、508、511)は信頼度レベルの低いものが多い。しかしながら、正しく検出されている顔領域でも信頼度レベルの低いもの(領域509)や、誤検出された領域でも信頼度レベルの高いもの(領域503、508)が含まれている。
そこで、被写体特定部119が同一被写体の検出領域についての信頼度レベルを経時的に追跡し、検出された個々の領域が所定の判定基準を満たすかどうか、すなわち真の顔領域であるかどうかを被写体判定部120が判定する。図5では、画面内の全域で共通の判定基準を用いて被写体判定部120により顔の判定を行っている。枠が実線で示されている領域は被写体判定部120により顔と判定されていることを、枠が点線で示されている領域は被写体判定部120により顔と判定されていないことを示すとする。仮に、信頼度レベルの閾値を8として、8以上の信頼度レベルが2回連続で検出されたら顔と判定し、それ以外の場合は顔と判定しないという判定基準が設定されているものとする。また、一旦顔であると判定された場合、次のフレームで同一被写体と判定された領域については、閾値4以上の信頼度レベルが得られれば引き続き顔であると判定することとする。すなわち、顔であることが検出された領域については、顔検出および顔枠表示の安定性を考慮して、信頼度レベルの閾値を下げることで判定基準を緩和する。
まず、フレームt−2(図5(a))で顔検出を開始したとする。図5(a)で示されるように、領域501と領域502では顔が正しく検出されており、領域503と領域504では誤検出されている。しかしながら、この段階では2回連続で閾値以上の信頼度レベルが得られた領域は存在しないため、上記の判定基準を満たしていない。したがって、領域501〜504は、いずれも顔と判定されない。
次のフレームt−1(図5(b))では、領域505がフレームt−2の領域501と同一被写体と判定されている。ここで、領域505は、フレームt−2の領域501から継続して信頼度レベル10が得られているため、顔と判定される。一方、誤検出された領域507は、フレームt−2の領域503と同一被写体と判定されている。領域503は信頼度レベル9であったが、フレームt−1で領域507の信頼度レベルが1に下がったため、領域507は顔と判定されない。また、領域506は、フレームt−2の領域502と同一被写体と判定されている。領域502および506は実際には正しく顔検出された領域であるが、領域502の信頼度レベルが7であったため、フレームt−1の時点では顔と判定されない。また、誤検出された領域508は、フレームt−2の領域504と同一被写体と判定されている。領域508は信頼度レベル8であったが、領域504の信頼度レベルが2に下がったため、顔と判定されない。
さらに次のフレームt(図5(c))では、領域509がフレームt−1の領域505と同一被写体と判定されている。領域509の信頼度レベルが4に低下したが、既に顔と判定されているため、この時点では依然として顔と判定される。一方、誤検出された領域511は、フレームt−1の領域507と同一被写体と判定されている。領域511は、信頼度レベルが4であるため、依然として顔と判定されない。また、領域510は、フレームt−1の領域506と同一被写体と判定されている。領域506が信頼度レベル9であったが、現フレームでは信頼度レベル7に下がったため、顔と判定されない。フレームt−2とフレームt−1で誤検出された領域504及び領域508については、フレームtにおいて同一被写体と判別される領域が存在しない。
上述したように、図5では、誤検出されている領域503、504、507、508、511については、顔と判定することなく誤検出を抑制することができる。特に、領域503や領域508のように、誤検出であるが高い信頼度レベルが得られた場合であっても、間違った顔判定や顔枠表示を抑制することができている。しかし一方で、本来顔領域と判定するべき領域506、510については、画面周辺部のゆがみの影響により、高い信頼度レベルの検出結果が出力されにくく、顔と判定されにくい問題がある。
そこで、本実施例では、上記の判定基準を画面内における検出領域の位置に応じて変えることにより、ひずみの影響で信頼性の高い顔検出結果が得られにくい場合でも、より確実な顔判定を可能にする。具体的には、ワイドモードにおいて、画面中心からの距離に応じて判定基準を設定する。判定基準の例としては、以下の(1)乃至(3)のいずれか、またはそれらの組み合わせが想定される。
(1)画面中心であるほど顔と判定する信頼度レベルの閾値を高く設定し、画面の周辺部であるほど顔と判定する信頼度レベルの閾値を低く設定する。(2)検出された顔の角度(Roll/Pitch/Yaw)が所定の角度範囲内であれば顔と判定する。画面中心に近いほど顔と判定する角度範囲を狭く設定し、画面の周辺部であるほど顔と判定する角度範囲を広く設定する。(3)上述した(1)の基準に加え、閾値以上の信頼度レベルが検出された回数や継続して検出された時間を用いて、検出回数閾値(または検出時間閾値)を設定する。具体的には、画面中心であるほど検出回数閾値を小さな値に(短く)設定し、画面の周辺部であるほど検出回数閾値を大きな値に(長く)設定する。なお、顔領域ごとの信頼度レベルの追跡および記録は被写体特定部119が行い、判定基準に基づく判定は被写体判定部120が行う。
まず、図7で示した判定基準について説明する。図7では、映像信号を横11×縦8のエリアに分割し、分割したエリアごとに判定基準を設定している。図7(a)では、各エリアに対して検出した顔領域の信頼度レベルの閾値を設定している。例えば、ゆがみの小さい中心部エリアでは、被写体判定部120は、被写体検出部116が出力した領域の信頼度レベルが9以上のときに検出回数をインクリメントして被写体リスト121に記録する。一方でゆがみの大きい周辺部エリア(例えば左上)では、被写体判定部120は、被写体検出部116が出力した顔領域のうち信頼度レベルが6以上のときに顔領域の検出回数をインクリメントして被写体リスト121に記録する。
上述した(1)の判定基準を用いる場合、図7(a)で示したように、ゆがみの大きさに応じて設定された信頼度レベルの閾値に基づいて、被写体検出部116が出力した領域についての顔判定を行う。この場合、画面周辺部に位置する顔の検出率が向上するという効果があるが、一方で誤検出の確率も高くなる。
そこで、さらに誤検出を抑制するため、上述した(3)の判定基準を用いる場合について説明する。(3)の判定基準を用いる場合、図7(a)の信頼度レベルの閾値に加えて、図7(b)の検出回数閾値を用いて顔判定を行う。
図7(b)では、各エリアに対して図7(a)で設定した閾値以上の信頼度レベルが検出される回数の閾値(検出回数閾値)を設定している。すなわち、判定対象の領域が存在するエリアにおいて、図7(a)で示される値以上の信頼度レベルが検出される回数が図7(b)で示される回数に達すると、被写体判定部120により顔と判定される。例えば、判定対象の領域が画像の中心部に存在する場合、9以上の信頼度レベルが1回検出されれば顔と判定される。一方、判定対象の領域が画像の周辺部(例えば左上)に存在する場合、6以上の信頼度レベルが4回検出されれば顔と判定される。
次に、図7(a)および(b)で示した閾値を適用した場合、すなわち上述した(3)の判定基準を適用した場合の例を、図6を用いて説明する。図6(a)乃至(c)では、図5と同様に連続する3つのフレームを示している。また、図6においても、枠が実線で示されている領域は被写体判定部120により顔と判定されていることを、枠が点線で示されている領域は被写体判定部120により顔と判定されていないことを示すとする。なお、顔と判定された領域に対して、ユーザに視認させるために顔であることを示す表示(例えば顔枠)を行うことが好ましいが、顔と判定されない領域に対しては、顔と判定された領域と異なる表示を行うか、表示を行わないようにしてもよい。
さらに、図6においても、図5と同様に、一旦顔であると判定された場合、次のフレームで同一被写体と判定された領域については、信頼度レベルの閾値を下げることで顔検出の安定性を向上させる。例えば、図7(a)において、信頼度レベルの閾値が9、8、7、6の領域については、次のフレームでそれぞれ5、4、3、2以上の信頼度レベルが得られれば顔と判定することとする。
まず、フレームt−2(図6(a))で顔検出を開始したとする。この段階では、信頼度レベル9の領域601が検出されている。ここで、領域601の図7における判定基準は、「9以上の信頼度レベルが1回検出される」に対応する。したがって、領域601は判定基準を満たしており、顔と判定される。一方、領域602及び領域604の判定基準は、「7以上の信頼度レベルが3回検出される」に対応し、領域603の判定基準は、「8以上の信頼度レベルが2回検出される」に対応する。したがって、領域602乃至604はいずれも判定基準を満たしていないため、顔と判定されない。
次のフレームt−1(図6(b))では、領域605がフレームt−2の領域601と同一の被写体と判定されているとする。領域601が既に顔と判定され、領域605においても信頼度レベル10が得られているため、領域605も依然として顔と判定される。また、領域606がフレームt−2の領域602と同一の被写体と判定されているとする。領域602の信頼度レベルが7であり、領域606の信頼度レベルが9であることから、閾値7以上の検出回数が2回になる。この時点では、検出回数の閾値である3回を上回っていないため、顔と判定されない。一方、領域607がフレームt−2の領域603と同一の被写体と判定されているとする。領域603の信頼度レベルが9であったため、閾値8以上の検出回数が1回となっていたが、現フレームでは信頼度レベルが1に下がっているため、検出回数に加算されない。また、領域608がフレームt−2の領域604と同一の被写体と判定されているとする。領域608の信頼度レベルは8であるが、前フレームで対応する領域604の信頼度レベルが2であったため、閾値7以上の検出回数が現フレームで1回となり、この時点では顔と判定されない。
さらに次のフレームt(図6(c))では、領域609がフレームt−1の領域605と同一被写体と判定されているとする。領域609の信頼度レベルが4に低下したが、領域605が既に顔と判定されているため、この時点では依然として顔と判定される。また、領域611がフレームt−1の領域607と同一被写体と判定されているとする。領域611の信頼度レベルが4であり、領域607も顔と判定されていなかったため、依然として顔と判定されない。一方、領域610がフレームt−1の領域608と同一被写体と判定されているとする。領域610は、前フレームでまでの閾値以上の信頼度レベルの検出回数が2回であり、かつ現フレームでの信頼度レベルが閾値の7以上であることから、閾値以上の信頼度レベルの検出回数が3回となる。したがって、領域610は、現フレームにおいて顔と判定される。フレームt−2とフレームt−1で検出された領域604及び608は、フレームtにおいて同一被写体と判別される領域が存在しないため、顔と判定されない。なお、前フレームで検出された領域と同一被写体と判別される領域が存在しない場合は、その時点で被写体リストから削除するようにしてもよい。
以上説明したように、本実施例によれば、所定の被写体(例えば顔)を検出する際に、被写体検出部116により検出された領域が所定の被写体であるか否かを判定する場合、画像のゆがみの大きさに応じて判定の閾値を変更する。ここで、魚眼レンズを用いて撮影する場合、ゆがみの大きさは画像中心からの距離に対応するため、画像中心からの距離に応じて判定の閾値を変更すると換言することができる。より具体的には、所定の被写体の信頼度レベルの閾値を、ゆがみの大きい画像周辺ほど低く設定する。このように信頼度レベルの閾値を変更することにより、画像周辺でも所定の被写体をより安定して検出することが可能になる。また、閾値以上の信頼度レベルが検出される回数についての閾値を設け、信頼度レベルの閾値の低い領域、つまりゆがみの大きい領域ほど回数の閾値を高くすることで、ゆがみの大きい領域における所定の被写体の検出精度を高めることができる。
なお、上述した(2)の判定基準を用いる場合、図7(a)で示した信頼度レベルの閾値が所定の被写体(例えば顔)の角度(Roll/Pitch/Yaw)の閾値(検出角度閾値)に置き換えられる。具体的には、画面中心に近いほど所定の被写体と判定する角度範囲を狭く、画面の周辺部であるほど所定の被写体と判定する角度範囲を広くするように検出角度閾値を設定する。この場合も、画像周辺に位置する所定の被写体をより安定して検出することが可能になる。
次に、本実施例の撮像装置における顔検出判定処理について、図8および図9のフローチャートを用いてさらに説明する。図8は処理全体の流れを示すフローチャートである。ステップS800は処理の開始を示している。ステップS801において、上述したワイドモードに設定されているか否かを判定する。ワイドモードに設定されている場合はステップS803へ、ワイドモードに設定されていない場合(本実施例ではアップモードに設定されている場合)はステップS802へそれぞれ処理を進める。
ステップS802へ進んだ場合、従来の顔検出判定処理を行う。この場合、顔判定の信頼度レベル閾値や検出回数閾値は、検出領域の画像内における位置に依らず、共通の値に設定される。
一方、ステップS803へ進んだ場合、ワイドモード用顔検出判定処理1を実行する。ワイドモード用顔検出判定処理1の詳細について、図9のフローチャートを用いて説明する。
まず、ステップS900は処理の開始を示している。ステップS901において、被写体検出部116は画像中から人物の顔を検出し、検出した領域の各々について、画像中における位置(座標)、大きさ、信頼度、角度(Roll/Pitch/Yaw)などを求める。本実施例では、時系列的に連続して得られる画像ごとに被写体検出部116で顔検出を行うものとする。
次に、ステップS902において、ステップS901で検出された領域の1つについて、被写体特定部119は、上述した被写体特定法により現フレームの検出結果を前フレームの検出結果と比較し、前フレームの検出結果と同一被写体か否かを判定する。前フレームの検出結果と同一被写体と判定すればステップS903に進み、同一被写体と判定しなければステップS904に進む。
ステップS903において、被写体特定部119は、現フレームで検出された領域のうち、前フレームで検出された領域と同一被写体のものと判定される領域について、被写体リスト121に登録済みのデータを更新する。被写体特定部119は、被写体リスト121に登録されるデータのうち、顔領域の位置、大きさ、角度については、現フレームでの検出結果に書き換えて更新する。
信頼度レベルの検出回数の更新について、図3で示した被写体リスト121を例に説明する。図3の被写体リスト121では、現フレームで検出された信頼度レベルと、それより低い信頼度レベルの検出回数をカウントアップし、現フレームで検出された信頼度レベルより高い信頼度レベルの検出回数を全て0とする。例えば、現フレームで検出された信頼度レベルが10の場合、全ての信頼度レベルの検出回数をカウントアップする。一方、現フレームで検出された信頼度レベルが6の場合、信頼度レベル1〜6の検出回数をカウントアップし、信頼度レベル7〜10の検出回数を0とする。このような更新方法により、継続して検出されている信頼度レベルの回数を記録することができ、閾値以上の信頼度レベルの継続検出回数が検出回数閾値に達したかを判断することができる。
なお、上述した閾値以上の信頼度レベルの検出回数をカウントする方法およびデータの更新方法は一例であり、これに限定されるものではない。また、閾値以上の信頼度レベルが継続して検出されることが顔判定の正確性の観点から好ましいが、継続して検出されることを必須にしなくてもよい。例えば、図7(A)において、同じ閾値エリア内で閾値以上の信頼度レベルが検出されたら検出回数をカウントアップし、閾値未満であれば検出回数を変更しないようにしてもよい。
一方、ステップS904において、被写体特定部119は、現フレームで検出された領域のうち、前フレームで検出された領域と異なる被写体と判定した領域については、新たな被写体IDを付与し、被写体リスト121に新規の被写体データとして登録する。
以上説明したステップS903またはS904において、被写体特定部119は、被写体検出部116から供給される顔領域の位置、大きさ、角度、信頼度レベルの情報と、被写体特定結果とに基づいて、図3の被写体リスト121のデータを更新または登録する。被写体リスト121には、被写体(顔領域)を識別するための被写体IDごとに、顔領域の位置、大きさ、角度、信頼度レベルごとの検出回数、顔と判定されたか否かを示す顔判定フラグ、現フレームで登録または更新されたことを示す更新フラグが関連付けられる。更新フラグはフレーム毎に0にクリアされ、ステップS903の更新もしくはステップS904の登録により、更新フラグは1になる。
初期フレームにおける処理時は、被写体リスト121のデータがないため、被写体特定部119は、検出された顔領域の情報を全て新規の被写体データとして被写体リスト121に登録する。次のフレーム以降、被写体特定部119は、被写体リスト121中の被写体データと、現フレームの検出結果の情報を用いて、被写体判定処理を行う。
被写体判定部120では、被写体リスト121に記録された各被写体の顔領域の信頼度レベルの履歴、具体的には信頼度レベルに応じた検出回数または継続検出時間に基づいて、各被写体の領域のうち、顔領域(顔である可能性の高い領域)を判定する。
また、被写体判定部120で顔として判定された被写体については、以降で同一被写体と特定される領域が検出されれば、信頼度レベルとは無関係に顔であると判定してもよい。または、上述したように、被写体判定部120で顔として判定された被写体については、以降の検出結果における信頼度レベルの閾値を、図7(a)の信頼度閾値よりも下げて検出してもよい。例えば、被写体判定部120で顔として判定されるまでは図7(a)に示す閾値を用いて判定し、顔と判定された後は、閾値が9、8、7、6だったエリアはそれぞれ次回の閾値を5、4、3、2にするというように閾値を下げてもよい。
ステップS905において、被写体判定部120は、現フレームで検出された領域が、既に顔と判定されたものかどうかを判定する。被写体判定部120は、図3に示した被写体リスト121中の顔判定フラグが1であれば、既に顔と判定されているとして、ステップS908に進む。一方、顔判定フラグが0であれば、顔と判定されていないとしてステップS906に進む。なお、被写体データの登録時における顔判定フラグの値は0とする。
そして、ステップS906において、被写体判定部120は、顔判定フラグが0である領域に関して、被写体リスト121の信頼度レベルの履歴と検出回数を参照し、予め定めた判定基準を満たすか否かを判定する。すなわち、被写体が位置するエリアにおいて閾値以上の信頼度レベルが得られた回数が、現在位置するエリアにおける検出回数閾値f(L)以上であるか否かを判定する。閾値以上の信頼度レベルの検出回数が、現在位置の検出回数閾値f(L)以上である場合、処理をステップS907に進め、現在位置の検出回数閾値f(L)未満の場合は処理をステップS908に進める。
本実施例においては上記判定基準(3)を設定する場合を例に挙げた。判定基準(1)を設定する場合は、ステップS906において、検出領域の信頼度レベルが該当エリアの閾値以上である場合は処理をステップS907に進め、閾値未満である場合は処理をステップS908に進める。また、判定基準(2)を設定する場合は、ステップS906において、検出領域の顔検出角度が該当エリアの検出角度閾値よりも狭い角度である場合、処理をステップS907に進め、検出角度閾値よりも広い角度である場合、処理をステップS908に進める。
本実施例においては、上述した図7(a)及び図7(b)に示されているように、エリア毎の信頼度閾値と検出回数閾値が判定基準として定められており、この判定基準を満たすか否かで顔を判定するものとする。また、本実施例においては、現フレームで顔領域を検出したエリアに基づいて閾値を設定する。さらに、エリアの選択については、現フレームで検出した領域の中心座標を基準にしても良いし、検出した領域の位置とサイズから閾値を平均化して設定しても良い。
加えて、本実施例においては、画面中心からの距離に対する信頼度レベルの閾値と検出回数閾値が略線形に変化(画面周辺ほど信頼度レベルの閾値が低くなり、検出回数閾値が高くなる)しているが、非線形関係であっても良い。
被写体判定部120は、ステップS907において、図3に示した被写体リスト121に含まれる顔領域のうち、信頼度レベルが上記の条件を満たすものを顔として判定し、被写体リスト121中の顔判定フラグの値を1にする。そして、被写体判定部120は、顔と判定した領域の情報を被写体リスト121から読み出して撮影制御部114に供給する。
一方、被写体判定部120は、継続検出回数が基準値を満たしていない顔領域については顔とは判定せず、顔判定フラグは0のままとする。そして、被写体判定部120は、顔と判定しなかった顔領域の情報は、撮影制御部114に供給しない。
上述したステップS902からステップS907までの処理を、ステップS901における顔検出により検出された各領域に対して行う。そのため、ステップS908において、被写体判定部120は、現フレームで検出された全ての領域に対して処理を行ったか否かを判定する。そして、被写体判定部120は、未処理の検出領域が残っている場合、その1つを処理対象としてステップS902に処理を戻す。一方、現フレームで検出された全ての領域について処理した場合には、被写体判定部120は処理をステップS909に移す。
そして、ステップS909において、被写体判定部120は、被写体リスト121中の被写体データに未更新のデータがあれば、前フレームでは検出されたが現フレームでは検出されなかった被写体のデータであるため、被写体リスト121から削除する。
このように、本実施例によればひずみが大きい画像に対して特定の被写体検出を行う場合に、特定の被写体を判定するための信頼度レベルの閾値をひずみの大きさに応じて設定することで、簡便な方法で検出率を高めることができる。また、さらに信頼度レベルの履歴に基づいて、閾値以上の信頼度が検出された回数や時間による判定を行うことにより、簡便な方法で検出精度を高めることができる。
なお、本実施例では画面を横11×縦8のエリアに分割したが、分割エリア数や縦横の分割比は任意に決めることができる。また、正方形や長方形のような矩形領域に限らず、歪曲収差の特性に応じて曲線を含んだ領域に分割することも考えられる。また、信頼度レベルの閾値と検出回数閾値のエリアや閾値の変化量は必ずしも一致している必要はなく、エリアの形状や大きさ、閾値の変化量を異ならせてもよい。
実施例1では、ひずみが大きい画像から所定の被写体を検出する場合に、ひずみの大きさに応じて閾値を変更する方法を示したが、撮像装置が追従している被写体に対してのみ実施例1における処理を行うようにしてもよい。具体的には、撮像装置が被写体を追従していない場合は、従来のように画像全体に対して信頼度レベル閾値と検出回数閾値を一律に設け、被写体を追従している場合は追従している被写体周辺の判定基準を変更する。
以下で、実施例2における処理について説明する。図10は本実施例の処理全体を示すフローチャートである。
ステップS1000は処理の開始を示している。まず、ステップS1001において、上述したワイドモードに設定されているか否かを判定する。ワイドモードに設定されている場合はステップS1003へ、ワイドモードに設定されていない場合(本実施例ではアップモードに設定されている場合)はステップS1002へそれぞれ処理を進める。
ステップS1002へ進んだ場合、従来の顔検出判定処理を行う。この場合、顔判定の信頼度レベル閾値や検出回数閾値は、検出領域の画像内における位置に依らず、共通の値に設定される。
ステップS1003では、すでに顔と判定されているか否かを判定する。顔と判定されている領域がある場合はステップS1004に処理を進め、顔と判定されている領域がない場合はステップS1002に処理を進める。
次に、ステップS1004において、現在顔と判定されている領域に関して、ユーザからの指定によって主被写体(主顔)が選択されているか、または、個人認識されているか否かを判定する。個人認識とは、撮像装置内の記憶領域に主要な被写体のテンプレートが記憶されており、公知の方法により記憶領域内に記憶されている被写体であると認識することにより行われる。主被写体が選択されている、または、個人認識されていると判定した場合、撮影制御部114は主被写体を追従していると判断して、処理をステップS1007に進める。主被写体が選択されていない、かつ、個人認識されていない場合は処理をステップS1005に進める。
ステップS1005では、撮影制御部114がパンニング動作を検出しているか、または、撮像装置が雲台に装着されてユーザからの指示で駆動されているかを判定する。パンニング動作が検出されているか、または雲台駆動されている場合は、ステップS1006に処理を進める。一方、パンニング検出も雲台駆動もされていない場合は、被写体を追従していないとして、ステップS1002に処理を進め、従来通りの顔判定基準を用いて顔を判定する。
ステップS1006では、撮影制御部114がパンニング動作を検出している場合、現フレームにおいて顔と判定されている検出領域の中から、検知したパンニング方向と同じ方向に移動している検出領域を主顔として選択する。または、撮像装置が雲台に装着されており、ユーザからの指示で方向を変更する場合、現フレームにおいて顔と判断している検出領域の中から、ユーザからの指示で指定された方向と同じ方向に移動している検出領域を主顔として選択する。そして、主顔として選択された顔領域を追従対象として決定し、処理をステップS1007に進める。
ステップS1007では、ワイドモード用顔検出判定処理2を実行する。ワイドモード用顔検出判定処理2の詳細について、図11のフローチャートを用いて説明する。ただし、図9のフローチャートと同じ処理については、同じ番号を付して説明を省略する。
まず、パンニングにより追従していると判断する方法について説明する。被写体特定部119は、現フレームと前フレームとで同一被写体と判断される領域が検出された場合、ステップS1101において、同一被写体と判断された領域の位置の差から、被写体の移動方向w(i)と移動量m(i)を算出する。なお、連続する2フレーム間の移動量ではなく、ある一定期間に含まれる複数のフレームについて移動量を加算した累積値を求め、連続して取得された累積値の差分を移動量としてもよい。累積値とすることで、例えば同一被写体の誤判定によって一時的に被写体の移動量が増加したとしても、判定基準が大きく変動してしまうのを抑制することができる。
ステップS903に進み、被写体特定部119は、移動方向w(i)と移動量m(i)を含む、被写体リスト121中の対応する被写体データを更新する。
一方で、現フレームにおいて前フレームで検出されていない被写体の領域が検出された場合、ステップS904において、被写体特定部119は、検出領域についての情報を新規の被写体データとして被写体リストに登録する。新規に登録する際には、移動方向は無しに、移動量は0にする。
図12では、本実施例で用いる被写体リスト121を示す。本実施例における被写体リスト121は、図3の被写体リスト121の情報に加え、移動方向w(i)と移動量m(i)の情報を含むものである。
また、本実施例の撮像装置は、不図示の加速度センサを備え、撮影制御部114は、加速度センサの出力値から撮像装置の移動方向を判定することができる。撮影制御部114は、加速度センサの出力値(移動方向情報)に基づいて、図12の被写体リストから検知したパンニングの方向と同じ方向に移動した検出領域を選択する。次に、現フレームにおける移動量の差が最も0に近い検出領域を、追従している被写体であると判断する。ただし、上述したように、現フレームと前フレームのみにおける移動量の差ではなく、一定期間の移動量の累計値が最も小さい被写体としてもよい。累計値とすることで、同一被写体の誤判定や手振れの影響を抑制することができる。
次に、雲台駆動により追従していると判断する方法について説明する。この場合も、移動方向と移動量が記録されている図12の被写体リスト121を用いる。
本実施例における撮像装置は、不図示の雲台に撮像装置を装着可能にするための構成を備え、ユーザからの指示により雲台が左右上下に可動することができる。雲台は、撮像装置を支持するとともに撮像装置の光軸方向を変更する支持部と、支持部の駆動を制御する駆動制御部と、支持部に対して駆動命令を送信する命令送信部とを備えて構成される。
撮影制御部114は、図12の被写体リストから、ユーザからの指示情報と同じ方向に移動した検出領域を選択する。次に、現フレームにおける移動量が最も0に近い検出領域を、追従している被写体であると判断する。ただし、上述したように、現フレームと前フレームのみにおける移動量の差ではなく、一定期間の移動量の累計値が最も小さい被写体としてもよい。累計値とすることで、同一被写体の誤判定の影響を抑制することができる。
以上説明したように、本実施例によれば、追従していると判定した被写体のみに対して、ひずみの大きさに応じた閾値設定を行うことにより、誤検出をさらに抑えつつ、被写体の追従精度を高めることができる。
以上説明した実施形態においては、歪曲収差が大きい光学系を備えた撮像装置が2つの撮影モード(ワイドモードとアップモード)を備える場合を示したが、ひずみの大きい画像から特定の被写体検出を行う場合であれば、本発明を適用することができる。例えば、ズーム動作が可能な撮像装置において、所定のズーム倍率より広角側か望遠側かに応じて、ひずみに応じた閾値設定を行うか否かを切り替えてもよい。また、交換レンズ式の撮像装置において、歪曲収差が大きいレンズが装着された場合に、ひずみに応じた閾値設定を行うようにしてもよい。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記憶した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行する。この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
本発明の目的は以下のようにしても達成できる。すなわち、前述した実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記憶した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行する。この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。
また、本発明はデジタルカメラのような撮影を主目的とした機器に限定されず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
106 撮像素子
107 CDS/AGC回路
108 カメラ信号処理回路
109 モニタ装置
114 撮影制御部
116 被写体検出部
119 被写体特定部
120 被写体判定部
121 被写体リスト
107 CDS/AGC回路
108 カメラ信号処理回路
109 モニタ装置
114 撮影制御部
116 被写体検出部
119 被写体特定部
120 被写体判定部
121 被写体リスト
Claims (27)
- 画像から所定の被写体の領域を検出する検出手段と、
前記検出手段により検出された領域についての評価値を算出する算出手段と、
前記評価値が所定の基準を満たす場合、前記所定の被写体であると判別する制御手段とを有し、
前記所定の基準は、表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする被写体検出装置。 - 前記表示手段に表示される画像のゆがみの大きさに応じて前記所定の基準を変更する第1のモードと、前記所定の基準を変更しない第2のモードとを有し、
前記第2のモードは、前記第1のモードよりゆがみの小さい画像を前記表示手段に表示する場合に設定されることを特徴とする請求項1に記載の被写体検出装置。 - 前記評価値は、前記所定の被写体の信頼度を示す値であることを特徴とする請求項1又は2に記載の被写体検出装置。
- 前記所定の基準を満たす条件は、第1の閾値以上の前記信頼度が検出されることを含むことを特徴とする請求項3に記載の被写体検出装置。
- 画像内においてゆがみが大きい領域ほど、前記第1の閾値が低く設定されることを特徴とする請求項4に記載の被写体検出装置。
- 画像の周辺部に設定される前記第1の閾値は、画像の中心部に設定される前記第1の閾値より低い値であることを特徴とする請求項4又は5に記載の被写体検出装置。
- 前記所定の基準を満たす条件は、前記第1の閾値以上の前記信頼度が検出される回数が第2の閾値に達することを含むことを特徴とする請求項4乃至6のいずれか1項に記載の被写体検出装置。
- 画像内においてゆがみが大きい領域ほど、前記第2の閾値が高く設定されることを特徴とする請求項7に記載の被写体検出装置。
- 画像の周辺部に設定される前記第2の閾値は、画像の中心部に設定される前記第2の閾値より高い値であることを特徴とする請求項7又は8に記載の被写体検出装置。
- 前記評価値は、前記所定の被写体の角度を示す値であって、
前記所定の基準を満たす条件は、前記所定の被写体の角度が所定の範囲内であることを含むことを特徴とする請求項1乃至9のいずれか1項に記載の被写体検出装置。 - 画像内においてゆがみが大きい領域ほど、前記所定の範囲が広く設定されることを特徴とする請求項10に記載の被写体検出装置。
- 画像の周辺部に設定される前記所定の範囲は、画像の中心部に設定される前記所定の範囲より広いことを特徴とする請求項10又は11に記載の被写体検出装置。
- 前記評価値が前記所定の基準を満たす場合、前記制御手段は、前記検出手段により検出された領域が前記所定の被写体に対応することを判定し、次回の検出で当該所定の被写体と対応する被写体の領域が検出された場合に前記所定の基準を緩和することを特徴とする請求項1乃至12のいずれか1項に記載の被写体検出装置。
- 主被写体を判定する判定手段をさらに有し、
前記制御手段は、主被写体を追従していると判定した場合、画像のゆがみの大きさに応じて前記所定の基準を変更することを特徴とする請求項1乃至13のいずれか1項に記載の被写体検出装置。 - 前記制御手段は、主被写体の移動方向と対応する方向のパンニング動作を検出することにより、当該主被写体を追従していると判定することを特徴とする請求項14に記載の被写体検出装置。
- 前記被写体検出装置を支持するとともに、当該被写体検出装置の光軸方向を変更する支持部と、前記支持部の駆動制御を行う駆動制御部と、前記支持部に対して駆動命令を送信する送信部とを有する雲台に装着可能であって、
前記制御手段は、前記送信部から前記駆動制御部に対して主被写体の移動方向と対応する駆動命令が送信されている場合に、当該主被写体を追従していると判定することを特徴とする請求項14又は15に記載の被写体検出装置。 - 画像から得られる前記所定の被写体の特徴を当該所定の被写体に関連付けて記録する記録手段をさらに有し、
前記判定手段は、前記検出手段により検出された領域に対応する前記所定の被写体が前記記録手段に記録されている被写体であることを判定した場合、当該被写体を主被写体と判定することを特徴とする請求項14乃至16のいずれか1項に記載の被写体検出装置。 - 前記制御手段は、前記評価値が前記所定の基準を満たす場合、当該検出された領域に対応する前記表示手段の領域に対して、前記所定の被写体であることを示す表示を行うよう制御することを特徴とする請求項1乃至17のいずれか1項に記載の被写体検出装置。
- 前記所定の被写体は、人物の顔領域であることを特徴とする請求項1乃至18のいずれか1項に記載の被写体検出装置。
- 請求項1乃至19のいずれか1項に記載の被写体検出装置を備え、
撮像光学系を介して入射される被写体像を光電変換して撮像信号を生成する撮像手段と、
前記撮像信号に基づいて、前記表示手段に表示される画像を生成する画像生成手段とを有することを特徴とする撮像装置。 - 前記画像生成手段により画像のひずみを補正する処理を行う場合、前記制御手段は、当該画像のゆがみの大きさに応じて前記所定の基準を変更しないことを特徴とする請求項20に記載の撮像装置。
- 前記撮像光学系を備えた交換レンズを装着可能であって、
装着された交換レンズの歪曲収差の大きさに基づいて、前記制御手段は、画像のゆがみの大きさに応じて前記所定の基準を変更するか否かを判定することを特徴とする請求項20又は21に記載の撮像装置。 - 画像から所定の被写体の領域を検出する検出手段と、
前記検出手段により検出された領域についての評価値を算出する算出手段と、
表示手段における画像の表示を制御する制御手段とを有し、
前記評価値が所定の基準を満たす場合、前記制御手段は、当該検出された領域に対応する前記表示手段の領域に対して、前記所定の被写体であることを示す表示を行うよう制御し、
前記所定の基準は、前記表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする被写体検出装置。 - 被写体検出装置の制御方法であって、
画像から所定の被写体の領域を検出する検出ステップと、
前記検出ステップにより検出された領域についての評価値を算出する算出ステップと、
前記評価値が所定の基準を満たす場合、前記所定の被写体であると判別する制御ステップとを有し、
前記所定の基準は、表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする被写体検出装置の制御方法。 - 被写体検出装置の制御方法であって、
画像から所定の被写体の領域を検出する検出ステップと、
前記検出手段により検出された領域についての評価値を算出する算出ステップと、
表示手段における画像の表示を制御する制御ステップとを有し、
前記評価値が所定の基準を満たす場合、前記制御ステップにおいて、当該検出された領域に対応する前記表示手段の領域に対して、前記所定の被写体であることを示す表示を行うよう制御し、
前記所定の基準は、前記表示手段に表示される画像のゆがみの大きさに応じて設定されることを特徴とする被写体検出装置の制御方法。 - 請求項24又は25に記載の被写体検出装置の制御方法をコンピュータに実行させるように構成されていることを特徴とする被写体検出装置の制御プログラム。
- 請求項26に記載の被写体検出装置の制御プログラムを記憶していることを特徴とする記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244244A JP2015104016A (ja) | 2013-11-26 | 2013-11-26 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
US14/549,436 US9823331B2 (en) | 2013-11-26 | 2014-11-20 | Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244244A JP2015104016A (ja) | 2013-11-26 | 2013-11-26 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015104016A true JP2015104016A (ja) | 2015-06-04 |
Family
ID=53182340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013244244A Pending JP2015104016A (ja) | 2013-11-26 | 2013-11-26 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9823331B2 (ja) |
JP (1) | JP2015104016A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018117280A (ja) * | 2017-01-19 | 2018-07-26 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
WO2019044608A1 (ja) * | 2017-08-29 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
JP2020086491A (ja) * | 2018-11-15 | 2020-06-04 | 株式会社リコー | 情報処理装置、情報処理システム及び情報処理方法 |
US10949946B2 (en) | 2018-03-13 | 2021-03-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
US11107231B2 (en) * | 2017-03-22 | 2021-08-31 | Nec Corporation | Object detection device, object detection method, and object detection program |
JP2022075745A (ja) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | 物体検出システム、プログラム及び物体検出方法 |
JP2023506219A (ja) * | 2019-12-13 | 2023-02-15 | Hoya株式会社 | 機械学習モデルの出力を使用して視覚的証拠に基づいて映像信号内の被写体を検出するための装置、方法、およびコンピュータ可読記憶媒体 |
JP7431093B2 (ja) | 2020-04-08 | 2024-02-14 | 株式会社Jr西日本テクシア | 検出装置及び検知システム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160353012A1 (en) * | 2015-05-25 | 2016-12-01 | Htc Corporation | Zooming control method for camera and electronic apparatus with camera |
US10582125B1 (en) * | 2015-06-01 | 2020-03-03 | Amazon Technologies, Inc. | Panoramic image generation from video |
CN107645632B (zh) * | 2016-07-21 | 2020-06-16 | 佳能株式会社 | 焦点调节设备、焦点调节方法、摄像设备和存储介质 |
WO2018179119A1 (ja) * | 2017-03-29 | 2018-10-04 | 日本電気株式会社 | 映像解析装置、映像解析方法および記録媒体 |
CN108307126B (zh) * | 2018-01-18 | 2020-06-30 | 毕昇云(武汉)信息技术有限公司 | 一种具有自动对焦功能的防畸变的智能型人脸识别装置 |
JP6777701B2 (ja) * | 2018-09-19 | 2020-10-28 | ファナック株式会社 | 測距装置を有する物体監視システム |
JP7255173B2 (ja) * | 2018-12-26 | 2023-04-11 | オムロン株式会社 | 人検出装置および人検出方法 |
JP7188067B2 (ja) * | 2018-12-27 | 2022-12-13 | オムロン株式会社 | 人検出装置および人検出方法 |
US11036995B2 (en) * | 2019-01-25 | 2021-06-15 | Gracenote, Inc. | Methods and systems for scoreboard region detection |
US11010627B2 (en) | 2019-01-25 | 2021-05-18 | Gracenote, Inc. | Methods and systems for scoreboard text region detection |
JP7271316B2 (ja) * | 2019-05-31 | 2023-05-11 | キヤノン株式会社 | 撮像装置及びその制御方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1173296C (zh) * | 1997-12-05 | 2004-10-27 | 动力数字深度研究有限公司 | 改进的图像转换和编码技术 |
JPH11219446A (ja) * | 1998-02-03 | 1999-08-10 | Matsushita Electric Ind Co Ltd | 映像音響再生システム |
US6288974B1 (en) * | 1999-03-30 | 2001-09-11 | The United States Of Americas As Represented By The Secretary Of The Navy | System and method for enhancing detection of objects through an obscuring medium |
US7650058B1 (en) * | 2001-11-08 | 2010-01-19 | Cernium Corporation | Object selective video recording |
WO2005074249A1 (ja) * | 2004-02-02 | 2005-08-11 | Nippon Telegraph And Telephone Corporation | 電子透かし埋め込み装置、電子透かし検出装置、及びそれらの方法、並びにプログラム |
US7680312B2 (en) * | 2005-07-13 | 2010-03-16 | Siemens Medical Solutions Usa, Inc. | Method for knowledge based image segmentation using shape models |
CN100562063C (zh) * | 2007-05-22 | 2009-11-18 | 鸿富锦精密工业(深圳)有限公司 | 图像信号校正方法 |
JP2009211311A (ja) | 2008-03-03 | 2009-09-17 | Canon Inc | 画像処理装置及び方法 |
JP5147670B2 (ja) | 2008-12-15 | 2013-02-20 | キヤノン株式会社 | 画像処理装置及び画像処理方法、撮像装置 |
US8253801B2 (en) * | 2008-12-17 | 2012-08-28 | Sony Computer Entertainment Inc. | Correcting angle error in a tracking system |
JP5182229B2 (ja) * | 2009-06-02 | 2013-04-17 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2012151670A (ja) * | 2011-01-19 | 2012-08-09 | Renesas Electronics Corp | 画像投影システム及び半導体集積回路 |
JP5678324B2 (ja) * | 2011-02-10 | 2015-03-04 | パナソニックIpマネジメント株式会社 | 表示装置、コンピュータプログラム、及び表示方法 |
KR101694689B1 (ko) * | 2011-03-25 | 2017-01-12 | 삼성전자주식회사 | 동영상 데이터 생성 방법 및 이를 적용한 영상 촬영 장치 |
KR20130136065A (ko) * | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | 변형 가능한 디스플레이를 이용한 화면 표시 장치 및 방법 |
EP2950526B1 (en) * | 2013-01-22 | 2019-01-30 | Sony Corporation | Projection type image display device, image processing device and image processing method, and computer program |
US9013286B2 (en) * | 2013-09-23 | 2015-04-21 | Volkswagen Ag | Driver assistance system for displaying surroundings of a vehicle |
-
2013
- 2013-11-26 JP JP2013244244A patent/JP2015104016A/ja active Pending
-
2014
- 2014-11-20 US US14/549,436 patent/US9823331B2/en active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018117280A (ja) * | 2017-01-19 | 2018-07-26 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
US11107231B2 (en) * | 2017-03-22 | 2021-08-31 | Nec Corporation | Object detection device, object detection method, and object detection program |
WO2019044608A1 (ja) * | 2017-08-29 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
JPWO2019044608A1 (ja) * | 2017-08-29 | 2020-07-16 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
US11055834B2 (en) | 2017-08-29 | 2021-07-06 | Nec Corporation | Information processing device, information processing method, and recording medium for processing synthesized images |
JP2022075745A (ja) * | 2017-08-29 | 2022-05-18 | パナソニックIpマネジメント株式会社 | 物体検出システム、プログラム及び物体検出方法 |
JP7308419B2 (ja) | 2017-08-29 | 2023-07-14 | パナソニックIpマネジメント株式会社 | 物体検出システム、プログラム及び物体検出方法 |
US10949946B2 (en) | 2018-03-13 | 2021-03-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP2020086491A (ja) * | 2018-11-15 | 2020-06-04 | 株式会社リコー | 情報処理装置、情報処理システム及び情報処理方法 |
JP2023506219A (ja) * | 2019-12-13 | 2023-02-15 | Hoya株式会社 | 機械学習モデルの出力を使用して視覚的証拠に基づいて映像信号内の被写体を検出するための装置、方法、およびコンピュータ可読記憶媒体 |
JP7431093B2 (ja) | 2020-04-08 | 2024-02-14 | 株式会社Jr西日本テクシア | 検出装置及び検知システム |
Also Published As
Publication number | Publication date |
---|---|
US20150146010A1 (en) | 2015-05-28 |
US9823331B2 (en) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015104016A (ja) | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 | |
CN108496350B (zh) | 一种对焦处理方法及设备 | |
JP5144487B2 (ja) | 主顔選択装置、その制御方法、撮像装置及びプログラム | |
US8682040B2 (en) | Image processing apparatus, image processing method, and image capturing apparatus | |
JP6768537B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US8787629B2 (en) | Image processing based on line-of-sight of a person | |
US9160922B2 (en) | Subject detection device and control method for the same, imaging apparatus, and storage medium | |
EP2168005B1 (en) | Focus control apparatus, image sensing apparatus, and control method therefor | |
WO2009098894A1 (ja) | 電子カメラおよび画像処理方法 | |
JP2006211139A (ja) | 撮像装置 | |
US8531547B2 (en) | Image processing apparatus and image processing method | |
JP5147670B2 (ja) | 画像処理装置及び画像処理方法、撮像装置 | |
US9165364B1 (en) | Automatic tracking image pickup system | |
JP2008259161A (ja) | 目標追尾装置 | |
US20210256713A1 (en) | Image processing apparatus and image processing method | |
JP2010156851A (ja) | 焦点調節装置及び方法 | |
JP2014106411A (ja) | 自動焦点調節装置及び自動焦点調節方法 | |
JP5539565B2 (ja) | 撮像装置及び被写体追跡方法 | |
US11812144B2 (en) | Focus adjustment apparatus and method, and image capturing apparatus | |
US11394877B2 (en) | Control apparatus, image pickup apparatus, and control method | |
JP4981758B2 (ja) | 焦点調節装置及び方法 | |
JP5247419B2 (ja) | 撮像装置および被写体追跡方法 | |
US20240070877A1 (en) | Image processing apparatus, method for controlling the same, imaging apparatus, and storage medium | |
US20230237758A1 (en) | Image processing apparatus, control method therefor, image capturing apparatus, and storage medium | |
JP2014013986A (ja) | 撮像装置 |