JP2010161577A - Imaging apparatus, control method thereof, and program - Google Patents
Imaging apparatus, control method thereof, and program Download PDFInfo
- Publication number
- JP2010161577A JP2010161577A JP2009001854A JP2009001854A JP2010161577A JP 2010161577 A JP2010161577 A JP 2010161577A JP 2009001854 A JP2009001854 A JP 2009001854A JP 2009001854 A JP2009001854 A JP 2009001854A JP 2010161577 A JP2010161577 A JP 2010161577A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- extraction
- optical axis
- subject image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像素子に基づいて得られる画像信号から顔などの特定の被写体像を検出する検出技術に関する。 The present invention relates to a detection technique for detecting a specific subject image such as a face from an image signal obtained based on an image sensor.
デジタルカメラ、デジタルビデオカメラなどで人物を撮影する場合、主被写体である人物の顔に焦点を合わせ、人物の顔に最適な露出で撮影を行うことが求められる。この要請に対し、画像信号の中から人物の顔に相当する領域を検出する機能を有するカメラが提案されている。このカメラでは、画像処理により人物の顔に相当する領域を検出すると、その顔の画像信号における位置を算出し、人物の顔に対して最適な焦点、最適な露出で撮影を行うことが可能となる。 When a person is photographed with a digital camera, a digital video camera, or the like, it is required to focus on the face of the person as the main subject and shoot with an optimal exposure on the person's face. In response to this request, a camera having a function of detecting a region corresponding to a human face from an image signal has been proposed. In this camera, when an area corresponding to a human face is detected by image processing, the position of the face in the image signal can be calculated, and shooting can be performed with the optimal focus and optimal exposure for the human face. Become.
また、画像の中から人物の顔に相当する領域を検出する方法として、下記の特許文献1の手法が提案されている。この特許文献1では、まず、肌色に着目して、画像信号の中から人物の顔に相当すると推測される顔候補領域を検出する。そして、検出した顔候補領域の画像信号と予め用意された顔テンプレート(形状データ)とのマッチング度により、顔候補領域が人物の顔に相当する領域であるか否かを判断する。
In addition, as a method for detecting an area corresponding to a human face from an image, the method of
しかしながら、特許文献1に係る方法では、カメラを縦に構えた場合(縦構え)と横に構えた場合(横構え)とで、画像信号における顔の向き(傾斜方向)が異なるため、顔候補領域の検出処理を、向きを変えて複数回行う必要がある。
However, in the method according to
この問題を解決するため、カメラ姿勢センサにより、縦構え、横構えの何れであるかを検出し、その検出結果に応じて顔領域の検出処理の向きを限定し、検出処理を高速化する技術が実現されている(特許文献2)。この特許文献2では、図12のように、画像信号における顔の向きが縦構えの場合と横構えの場合とで異なっていても、カメラ姿勢センサの検出結果に応じて顔検知時のパターンマッチングの方向を限定することで、検出処理を高速化することができる。
In order to solve this problem, the camera posture sensor detects whether the posture is vertical or horizontal, limits the direction of face area detection processing according to the detection result, and speeds up the detection processing Is realized (Patent Document 2). In this
しかしながら、特許文献2に係る顔検出方法は、カメラの光軸方向が常に水平方向であることを前提としている。このため、例えば、床に寝転がっている子供を撮影する場合、図4、図5のようにカメラの縦構え又は横構え対する顔の方向は不定となるので、特許文献2では、顔(顔領域)を確実に検出することができず、所望の向きの顔を撮影できない場合がある。
However, the face detection method according to
このため、撮影者は、所望の向きの顔を撮影するためには、顔が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要があり、不便である。 Therefore, in order to photograph a face in a desired direction, the photographer needs to take an unreasonable posture to change his / her orientation so that the face can be detected reliably or to change the way the camera is held. Is inconvenient.
本発明は、このような技術的な背景の下になされたもので、その目的は、カメラの光軸方向が水平でない場合に、不定な向きの被写体を無理な体勢等を取らずに確実、且つ迅速に撮影できるようにすることにある。 The present invention has been made under such a technical background, and its purpose is to ensure that a subject in an undefined direction is not forced to take an unnatural posture when the optical axis direction of the camera is not horizontal. In addition, the purpose is to enable quick shooting.
上記目的を達成するため、本発明は、撮像素子を有する撮像する撮像装置において、前記撮像素子に基づいて得られた画像信号を記憶する記憶手段と、前記記憶手段により記憶された画像信号から特定の被写体像を抽出する抽出手段と、水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知手段と、少なくとも前記検知手段により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出手段を制御する制御手段と、を有することを特徴とする。 In order to achieve the above object, according to the present invention, in an imaging apparatus having an imaging device, a storage unit that stores an image signal obtained based on the imaging device and an image signal stored by the storage unit are specified. Extraction means for extracting the subject image, detection means for detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction, and based on at least the inclination of the optical axis detected by the detection means Control means for controlling the extraction means so as to change the extraction form of the subject image.
本発明では、水平方向に対する撮像装置(カメラ)の光軸の傾斜度に基づいて、顔などの特定の被写体像の抽出形態を変更している。 In the present invention, the extraction form of a specific subject image such as a face is changed based on the inclination of the optical axis of the imaging device (camera) with respect to the horizontal direction.
これにより、本発明によれば、カメラの光軸方向が水平でない場合に、不定な向きの被写体を確実に撮影することが可能となる。この場合、撮影者は、所望の被写体が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要はなく、所望の被写体を迅速に撮影することができ、利便性が向上する。 Thus, according to the present invention, it is possible to reliably shoot a subject in an indefinite direction when the optical axis direction of the camera is not horizontal. In this case, it is not necessary for the photographer to change his / her orientation so that the desired subject is reliably detected, or to take an uncomfortable posture to change the way the camera is held, and quickly shoots the desired subject. Can improve convenience.
以下、本発明を実施するための最良の形態を図面に基づいて説明する。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
[第1の実施の形態]
第1の実施の形態は、カメラの光軸が下向きの場合に好適な実施の形態である。
[First Embodiment]
The first embodiment is a preferred embodiment when the optical axis of the camera is downward.
図1は、本発明の第1、第2の実施の形態に係る撮像装置(デジタルカメラ)の回路ブロック図である。図1に示したデジタルカメラ100は、顔検出機能、及びデジタルカメラ100の姿勢検出機能を有している。
FIG. 1 is a circuit block diagram of an imaging apparatus (digital camera) according to first and second embodiments of the present invention. The
図1において、デジタルカメラ100は、CPU101により全体的な制御が行われる。CPU101は、バス116を介して、ROM102、RAM103、メモリスロット105、操作部106、レンズドライバ108、絞りドライバ110、撮像素子111と接続されている。また、CPU101は、画像処理部112、表示部113、カメラ姿勢センサ114、及び顔検出部115と接続されている。
In FIG. 1, the overall control of the
ROM102には、後述する図2、図7のフローチャートに係るアプリケーションプログラム等の各種のプログラムが格納されている。また、ROM102には、後述する非顔条件フィルタ、各種の基準パターン信号も格納されている。RAM103は、CPU101がプログラムを実行する際のワークエリアとして利用され、例えば、画像信号の一時記憶領域、後述するフィルタ処理で得られる高周波信号の記憶領域として用いられる。
The
メモリカード104は、メモリスロットに105に着脱され、画像信号(画像データ)等を保存するための記憶媒体として利用される。操作部106は、シャッタボタン等の各種の操作ボタン、及び表示パネル(図示省略)を備えている。
The
光学レンズ群107は、ズームレンズ、フォーカスレンズ等の複数の光学レンズを有し、レンズドライバ108によりズームレンズ、フォーカスレンズが駆動されることで、変倍、合焦の各動作が行われる。絞り109の絞り駆動は、絞りドライバ110により行われる。
The
光学レンズ群107、絞り109を介してカメラ内に取込まれた被写体光像は、CCD、CMOS等のイメージセンサで構成された撮像素子111に入射されて、光電変換される。撮像素子111は、光電変換して得られた信号電荷をデジタル信号に変換して、デジタルの画像信号(画像データ)として出力する。
A subject light image taken into the camera via the
画像処理部112は、上記の画像信号に対して、ガンマ補正等の各種の補正処理、圧縮/伸張処理等の各種の画像処理を施す。表示部113は、撮像画像、各種の処理メニュー等を表示する。画像処理部112により圧縮された画像信号は、メモリスロット105を介してメモリカード104に保存することができる。
The
カメラ姿勢センサ114は、デジタルカメラ100の姿勢を検出するためのセンサであり、第1,2の実施の形態では、重力センサを用いている。重力センサは、例えば、複数の圧電素子で囲まれた空間の中に、その空間よりも小さな金属球を配置することによって構成することができる(例えば、特開平11−196397号公報を参照)。複数の圧電素子のうち、どの圧電素子に金属球の重みがかかっているかを判別することによって、水平方向に対するカメラ光軸の傾斜度θを検知する。カメラ姿勢センサ114は、図12に示した横撮り(横構え)、縦撮り(縦構え)の状態を検知すると共に、図3、図8に示した水平方向に対するカメラ光軸の傾斜度θも検知する。
The
顔検出部115は、画像処理部112から出力された画像信号の中から、人物の顔の領域を検出する。顔検出部115は、画像信号に対するフィルタ処理、フィルタ処理で得られた高周波信号(エッジ情報:輪郭情報)と予め記憶された基準パターン信号(輪郭パターン信号)とのマッチング処理を行うことで、顔の領域を検出する。すなわち、顔検出部115は、画像信号から特定の被写体像を抽出する抽出手段として機能する。
The
また、顔検出部115は、顔に相当する領域を検出する場合、後述するように、RAM103からの画像信号の読出し方向、フィルタ処理におけるバンドパスのフィルタリング方向を変化させることができる。換言すれば、顔検出部115は、CPU101の制御の下に、画像信号から特定の被写体像を抽出する際の抽出形態を変更することができる。
Further, when detecting a region corresponding to a face, the
次に、第1の実施の形態における撮像処理を図2のフローチャートに基づいて説明する。 Next, imaging processing in the first embodiment will be described based on the flowchart of FIG.
CPUI01は、シャッタボタンが半押しされていることを検出すると(ステップS201)、第1の露出条件(絞り値、露出時間)及び合焦位置を満足するように光学レンズ群107及び絞り109を制御し、第1の画像信号を取得する(ステップS202)。上記の第1の露出条件及び合焦位置、特定領域は、予めデフォルトで設定されているものである。
When the CPU I01 detects that the shutter button is half-pressed (step S201), the CPU I01 controls the
次に、CPU101は、第1の画像信号の特定領域の画像信号に基づいて、第2の露出条件及び合焦位置を決定する(ステップS203)。そして、CPU101は、第2の露出条件、合焦位置を満足するように光学レンズ群107及び絞り109を制御し、第2の画像信号を取得する(ステップS204)。
Next, the
なお、CPU101は、取得した第1の画像信号をRAM103に一時記憶し、第2の画像信号は、第1の画像信号に上書きする形でRAM103に格納する。このように、ステップS201〜S204において、予め簡易な露出制御及び合焦制御を行うことで、画像信号中の被写体像を鮮明にし、顔検出処理の精度を向上させることができる。
Note that the
次に、CPU101は、カメラ姿勢センサ114により検知されたデジタルカメラ100の姿勢に基づいて、第2の画像信号を取得した際の水平方向に対するカメラ光軸の傾きを判定する(ステップS205)。具体的には、CPU101は、図3に示すように、水平方向に対するカメラ光軸の下向きの傾き角θ(傾斜度)が規定角θd以上(規定値以上)であるか否かを判定する。
Next, the
CPU101は、カメラ光軸の下向きの傾き角θが規定角θdより小さい場合は、更に、カメラ姿勢センサ114により検知されたカメラ姿勢が、図12(a)の横構え、図12(b)の縦構え1、図12(c)の縦構え2の何れであるかを判定する(ステップS206)。
When the downward tilt angle θ of the camera optical axis is smaller than the specified angle θd, the
そして、顔検出部115は、CPU101により横構え(横撮り)と判定された場合は、RAM103から第2の画像信号を垂直方向に1ライン単位で読出し、垂直方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた垂直方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS207)。
If the
顔検出部115は、CPU101により縦構え1(縦撮り1)と判定された場合は、RAM103から第2の画像信号を水平方向に1ライン単位で読出し、水平方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた水平方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS208)。
When the
顔検出部115は、CPU101により縦構え2(縦撮り2)と判定された場合は、RAM103から第2の画像信号を水平方向に1ライン単位で読出し、水平方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた水平方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS209)。
When the
なお、ここで言う垂直方向、水平方向とは、デジタルカメラ100で撮像した矩形画像の長辺を水平、短辺を垂直方向と定義した場合における方向である。横構え(横撮り)では図12(a)のような形態で顔画像が得られるので、ステップS207では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。また、縦構え1(縦撮り1)で撮影した画像は、図12(b)のようになるため、ステップS208では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。縦構え2(縦撮り2)で撮影した画像は、図12(c)のようになるため、ステップS209では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。
Here, the vertical direction and the horizontal direction are directions when a long side of a rectangular image captured by the
図12(a)に示す矩形画像では、縦長の顔画像(顔全体では縦方向を長軸とする楕円形)となり、図12(b),(c)に示す矩形画像では、横長の顔画像(顔全体では横方向を長軸とする楕円形)となっている。 In the rectangular image shown in FIG. 12A, a vertically long face image (an ellipse having the longitudinal direction as the major axis in the entire face) is formed. In the rectangular images shown in FIGS. 12B and 12C, a horizontally long face image is formed. (The entire face has an elliptical shape with the horizontal axis as the major axis).
このような顔画像に対して、同様の形態で矩形画像の短辺と平行な方向にエッジ検出処理を行った場合、図12(a)の縦長の顔画像に対するエッジ検出結果と、図12(b)、(c)の横長の顔画像に対するエッジ検出結果とは大きく異なってしまう。そこで、第1の実施の形態では、図12(a)の場合と図12(b)、(c)の場合とで同様のエッジ検出結果を得るべく、カメラ姿勢センサ114の検出結果に応じてエッジ検出を行う方向、すなわち、特定の被写体像の抽出形態を変更している。
When edge detection processing is performed on such a face image in a direction parallel to the short side of the rectangular image in the same manner, the edge detection result for the vertically long face image of FIG. The edge detection results for the horizontally long face images of b) and (c) are greatly different. Therefore, in the first embodiment, in order to obtain the same edge detection result in the case of FIG. 12A and the case of FIGS. 12B and 12C, according to the detection result of the
ステップS207〜S209の何れかのエッジ検出処理が完了すると、顔検出部115は、パターンマッチング処理を行う(ステップS210)。このパターンマッチング処理では、顔検出部115は、RAM103に記録した高周波信号(輪郭情報)と予めROM102に格納された基準パターン信号(目の輪郭パターン信号)とを比較して、人間の目の候補群を検出する。また、同時に、顔検出部115は、鼻や口、耳などの人間の特徴的な顔の各パーツについても、当該各パーツの基準の輪郭パターン信号を用いて、当該各パーツの候補群を検出する。
When the edge detection process in any of steps S207 to S209 is completed, the
この場合、デジタルカメラ100の姿勢(カメラ光軸方向)が判明しているので、該当する方向の候補群の範囲内で顔認識処理を行うことで、パターンマッチング処理を簡略化させることが可能となる。 In this case, since the attitude of the digital camera 100 (camera optical axis direction) is known, it is possible to simplify the pattern matching process by performing the face recognition process within the range of candidate groups in the corresponding direction. Become.
CPU101は、ステップS205にて、カメラ光軸の下向きの傾き角θが規定角θd以上(規定値以上)であると判定した場合は、ステップS211に進む。この場合は、カメラ光軸の下向きの傾き角θがある程度大きな値であり、撮影者から見て被写体が下に存在することになる。この撮影例としては、床に寝転がっている人物を撮影する場合が考えられる。
If the
この場合、図4に示すように、デジタルカメラ100の光軸が下向きになった状態で、子供等の顔を撮影することになる。図4の状態の子供を撮影した場合、撮像画像は図5に示す状態となり、カメラ光軸を下向きにしたデジタルカメラ100では、顔検知方向Aと顔検知方向Bの両方でエッジ検出処理を行わなければ、顔を確実に検出することができない。
In this case, as shown in FIG. 4, the face of a child or the like is photographed with the optical axis of the
そこで、顔検出部115は、ステップS211では、ステップS207〜S209でそれぞれ行った垂直方向フィルタ処理と2つの水平方向フィルタ処理の3つのフィルタ処理を第2の画像信号に対して行う。
Therefore, in step S211, the
次に、顔検出部115は、上記の3つのフィルタ処理で検出された顔候補領域の画像信号について、それぞれ、対応する基準パターン信号とのマッチング処理を行う(ステップS212)。この場合、顔検出部115は、複数の顔サイズに対応する複数の基準パターン信号のうち、一定以上の顔サイズに係る基準パターン信号とのみマッチング処理を行う。このように限定した基準パターンだけを用いてマッチング処理を行うことで、フィルタ処理の方向を3つに増やしたことによる処理量の増大化を緩和し、顔検出処理の全体的な処理の低速化を抑制することができる。
Next, the
以上のように、3つのフィルタ処理、及びパターンマッチング処理を行うことで、顔の方向が図12(a),(b),(c)の何れの方向であっても適正に顔を検出することが可能となる。 As described above, by performing the three filter processes and the pattern matching process, the face is properly detected regardless of the face direction of FIGS. 12 (a), 12 (b), and 12 (c). It becomes possible.
パターンマッチング処理が終了すると、顔検出部115は、人物の目(両目)の候補を検出することができたか否かを判別し(ステップS213)、目の候補を検出することができた場合には、ステップS214の処理を行う。
When the pattern matching process is completed, the
ステップS214では、顔検出部115は、検出された目の候補群のうち、対となる目の候補を対応づけることで、目の候補を絞り込む。次に、顔検出部115は、絞り込んだ目の候補と、その他のパーツ(鼻、口、耳)の候補に基づいて、予めROM102に登録された複数の非顔条件フィルタの中から1つを選択し、選択した非顔条件フィルタにより、第2の画像信号をフィルタ処理する。なお、非顔条件フィルタは、例えば、目の横に鼻が位置している等、通常の人間の顔として不自然なパーツに係る候補を削除していく機能を有するものである。
In step S214, the
そこで、顔検出部115は、非顔条件フィルタを通過した画像信号を目、鼻、口など顔のパーツを含む「顔」の画像信号と認定し、当該画像信号上での「目(両目)」及び「顔」と判定された領域のサイズと位置を算出し、CPU101に通知する(ステップS215)。
Therefore, the
CPU101は、通知された顔領域を重点的に測光するように測光領域に重み付けをし、両目を中心とした領域を焦点調節領域として設定する(ステップS216)。
The
一方、顔検出部115により目の候補を検出することができなかった場合は、CPU101は、デフォルトの測光領域、焦点調節領域を設定する(ステップS217)。CPU101は、ステップS216又はS217での測光領域、焦点調節領域の設定処理が終了すると、シャッタボタンが全押しされているか否かを判別し(ステップS218)、半押し状態であればステップS203に戻り、上記処理を繰返す。
On the other hand, if the face candidate cannot be detected by the
一方、シャッタボタンが全押し状態であれば、CPU101は、設定に係る測光領域が最適な輝度となるように絞り109を制御し、当該設定に係る焦点調節領域で合焦するように光学レンズ群107を駆動して本撮像を行う(ステップS219)。この場合、実際の絞り109の駆動制御、光学レンズ群107の駆動制御は、それぞれ、絞りドライバ110、レンズドライバ108がCPU101の制御の下に行う。また、CPU101は、本撮影で得られた画像信号を画像処理部112で画像処理させ、圧縮符号化させて、メモリカード104に書込む。
On the other hand, if the shutter button is fully pressed, the
以上説明したように、第1の実施の形態では、水平方向に対するデジタルカメラ100の光軸の下向きの傾斜度が規定値以上の場合に、規定値未満の場合に比較して、顔、すなわち被写体像の特徴量を多方向から抽出している。
As described above, in the first embodiment, when the downward inclination of the optical axis of the
従って、床に寝転がっている子供を撮影するような場合、図4のようにカメラの縦構え又は横構え対する顔の方向が不定となったとしても、顔(顔領域)を確実に検出して撮影することができる。 Therefore, when photographing a child lying on the floor, the face (face area) is reliably detected even if the orientation of the face with respect to the vertical or horizontal orientation of the camera is indefinite as shown in FIG. You can shoot.
すなわち、カメラの光軸方向が水平でない場合に、顔が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要はなく、不定な向きの被写体を確実、且つ迅速に撮影することが可能となり、利便性が向上する。また、検出した顔に適したAF(自動露出)制御、AE(自動合焦)制御を行う、すなわち当該顔に適した撮影条件で撮影することで、所望の被写体である顔を精度良く撮影することが可能となる。 In other words, when the optical axis direction of the camera is not horizontal, it is not necessary to change its orientation so that the face can be detected reliably, or to change the posture of the camera, and it is not necessary to change the orientation. The subject can be photographed reliably and quickly, and convenience is improved. In addition, AF (automatic exposure) control and AE (automatic focus) control suitable for the detected face are performed, that is, a face that is a desired subject is accurately photographed by photographing under photographing conditions suitable for the face. It becomes possible.
なお、上記の図2のフローチャートでは、カメラ光軸が下向きに規定値以上傾斜した場合に、図12に示した3方向で顔検出処理を実行していた。これに対し、図6に示した(2)、(4)、(6)、(8)など、更に多方向で顔検出処理を行うことで、顔検出の確実性をより一層向上させるようにしてもよい。 In the flowchart of FIG. 2, the face detection process is executed in the three directions shown in FIG. 12 when the camera optical axis is tilted downward by a predetermined value or more. On the other hand, the face detection processing is further improved by performing face detection processing in more directions such as (2), (4), (6), (8) shown in FIG. May be.
[第2の実施の形態]
第1の実施の形態では、カメラ光軸が下向きの場合を想定していたが、第2の実施の形態は、カメラ光軸が上向きの場合を想定している。
[Second Embodiment]
In the first embodiment, the case where the camera optical axis is downward is assumed. However, in the second embodiment, the case where the camera optical axis is upward is assumed.
図7は、第2の実施の形態における撮影処理を示すフローチャートである。図7のステップS701〜S708は、図2のステップS201〜S209の処理とほぼ同様である。ただし、図2ではカメラ光軸の傾きを判定した後で(ステップS205)、姿勢判定等を行っているのに対し(ステップS206)、図7では、姿勢判定等を行った後で(ステップS705)、カメラ光軸の傾きを判定している(ステップS709)点で相違する。 FIG. 7 is a flowchart showing the photographing process in the second embodiment. Steps S701 to S708 in FIG. 7 are substantially the same as the processes in steps S201 to S209 in FIG. However, in FIG. 2, after determining the tilt of the camera optical axis (step S205), posture determination is performed (step S206), whereas in FIG. 7, after posture determination is performed (step S705). ), The camera optical axis inclination is determined (step S709).
すなわち、顔検出部115によるステップS706〜S708の何れかのフィルタ処理が終了すると、CPU101は、ステップS709の処理を行う。このステップS709では、CPU101は、カメラ姿勢センサ114により検知されたカメラの姿勢、すなわち、水平方向に対するカメラ光軸の傾斜度に基づいて、第2の画像信号を取得した際の水平方向に対するカメラ光軸の傾きを判定する。具体的には、CPU101は、図8に示すように、水平方向に対するカメラ光軸の上向きの傾き角θが規定角θd以上であるか否かを判定する。
That is, when the filter processing in any of steps S706 to S708 by the
CPU101は、カメラ光軸の上向きの傾き角θが規定角θdより小さい場合は、ステップS710の処理に移行し、移り、カメラ光軸の上向きの傾き角θが規定角θd以上の場合は、ステップS711の処理に移行する。
When the upward tilt angle θ of the camera optical axis is smaller than the specified angle θd, the
ステップS710の処理は、第1の施例の形態に係る図2のステップS210の処理と全く同様である。ステップS711に移行した場合、カメラ光軸の上向きの傾き角θはある程度大きな値であり、撮影者から見て被写体が上に存在することになる。この撮影例としては、例えば図9に示すように、地上から建物の2階以上の階のベランダに居る人物を撮影する場合などが考えられる。この場合に撮像される顔画像は、図10に示したようになる可能性が高い。 The process of step S710 is exactly the same as the process of step S210 of FIG. 2 according to the first embodiment. When the process proceeds to step S711, the upward tilt angle θ of the camera optical axis is a large value to some extent, and the subject is present as viewed from the photographer. As an example of this photographing, for example, as shown in FIG. 9, it is conceivable to photograph a person on the veranda on the second floor or higher of the building from the ground. The face image captured in this case is highly likely to be as shown in FIG.
すなわち、図11(c)に示したように、あおり状態、又はあおり状態に近い顔画像が検出される可能性が高く、図11(b)に示したように、俯瞰状態の顔画像が検出される可能性は低いと考えられる。 That is, as shown in FIG. 11C, there is a high possibility that a face image in a tilted state or a face image close to the tilted state is detected, and a face image in a bird's-eye view state is detected as shown in FIG. It is considered unlikely that this will be done.
そこで、顔検出部115は、ステップS711におけるパターンマッチング処理において、予め保持されている複数の基準パターン信号のうち、図11(a)に示したような「−:マイナス」の角度に対応する顔パターンのみとマッチング処理を行う。換言すれば、顔検出部115は、「+:プラス」の角度に対応する顔パターンとのマッチング処理は行わないようにする。これにより、短時間でパターンマッチング処理を行うことができ、顔検出処理の時間を短縮化することが可能となる。ステップS712以降の処理は、図2のS213以降の処理と全く同様である。
Therefore, the
なお、本発明は、上記の第1,第2の実施の形態に限定されることなく、例えば、前述のように、先ず人物の目の位置を検出し、これに基づいて他の顔のパーツを検出することで顔に相当する領域を検出するという処理形態に限定されることはない。この場合、例えば、目だけを検出することで顔に相当する領域を検出することが考えられる。 The present invention is not limited to the first and second embodiments described above. For example, as described above, the position of the eyes of a person is first detected, and other facial parts are detected based on the position. However, the present invention is not limited to the processing mode of detecting a region corresponding to a face by detecting. In this case, for example, it is conceivable to detect an area corresponding to a face by detecting only eyes.
また、カメラ姿勢センサは、重力センサに限られるものではない。例えば、撮像装置内でレンズ駆動などに使用しているVCM(ボイスコイル・モータ)等のアクチュエータのフィードバック制御における制御信号の積分項の値に基づいて、カメラ光軸の傾斜度を検知してもよい。 Further, the camera posture sensor is not limited to the gravity sensor. For example, even if the inclination of the camera optical axis is detected based on the value of the integral term of the control signal in the feedback control of an actuator such as a VCM (voice coil motor) used for driving the lens in the imaging apparatus. Good.
また、一定以上の顔サイズの基準パターン信号のみとマッチングを行うという限定事項を除外することも可能である。さらに、顔以外の被写体像を所望の被写体像として撮影する場合にも第1,第2の実施の形態に係る技術思想を適用し得ることは言うまでもない。また、撮像素子(イメージセンサ)を用いて撮影を行う撮像装置であれば、デジタルカメラ以外のデジタルビデオカメラ、カメラ付き携帯電話などにも、第1,第2の実施の形態に係る技術思想を適用することができる。 It is also possible to exclude the limitation that matching is performed only with a reference pattern signal having a face size of a certain size or more. Furthermore, it goes without saying that the technical ideas according to the first and second embodiments can also be applied when shooting a subject image other than a face as a desired subject image. In addition, if the imaging device performs imaging using an imaging device (image sensor), the technical ideas according to the first and second embodiments are applied to a digital video camera other than a digital camera, a mobile phone with a camera, and the like. Can be applied.
さらに、本発明の目的は、前述した各実施の形態の機能を実現するようにプログラミングされたソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給することによっても達成される。この場合、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出し実行することとなる。 Furthermore, the object of the present invention can also be achieved by supplying a storage medium storing software program codes programmed to realize the functions of the above-described embodiments to a system or apparatus. In this case, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した各実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention. .
また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。さらに、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW等の光ディスクも、プログラムコードを供給するための記憶媒体として用いることができる。または、プログラムコードをネットワークを介してダウンロードしてもよい。 Further, as a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a magnetic tape, a nonvolatile memory card, A ROM or the like can be used. Furthermore, optical disks such as DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, etc. can also be used as a storage medium for supplying program codes. Alternatively, the program code may be downloaded via a network.
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれる。 Further, based on the instruction of the program code read by the computer, an OS (operating system) or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are achieved by the processing. The case where it is realized is also included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた場合も含まれる。また、そのプログラムコードの指示に基づき、その拡張機能を拡張ボードや拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれる。 Furthermore, the case where the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer is also included. Further, based on the instruction of the program code, the CPU or the like provided with the extension function in the extension board or the extension unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Cases are also included.
100…デジタルカメラ
101…CPU
102…ROM
103…RAM
108…レンズドライバ
110…絞りドライバ
114…カメラ姿勢センサ
115…顔検出部
100 ...
102 ... ROM
103 ... RAM
108 ...
Claims (11)
前記撮像素子に基づいて得られた画像信号を記憶する記憶手段と、
前記記憶手段により記憶された画像信号から特定の被写体像を抽出する抽出手段と、
水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知手段と、
少なくとも前記検知手段により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出手段を制御する制御手段と、
を有することを特徴とする撮像装置。 In an imaging apparatus having an imaging element,
Storage means for storing an image signal obtained based on the image sensor;
Extraction means for extracting a specific subject image from the image signal stored by the storage means;
Detecting means for detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction;
Control means for controlling the extraction means so as to change the extraction form of the specific subject image based on at least the inclination of the optical axis detected by the detection means;
An imaging device comprising:
前記撮像素子に基づいて得られた画像信号を記憶する記憶工程と、
前記記憶工程により記憶された画像信号から特定の被写体像を抽出する抽出工程と、
水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知工程と、
少なくとも前記検知工程により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出工程を制御する制御工程と、
を有することを特徴とする撮像装置の制御方法。 In a control method of an imaging apparatus having an imaging element,
A storage step of storing an image signal obtained based on the image sensor;
An extraction step of extracting a specific subject image from the image signal stored by the storage step;
A detection step of detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction;
A control step of controlling the extraction step so as to change the extraction form of the specific subject image based on at least the inclination of the optical axis detected by the detection step;
A method for controlling an imaging apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001854A JP5264516B2 (en) | 2009-01-07 | 2009-01-07 | Imaging device, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001854A JP5264516B2 (en) | 2009-01-07 | 2009-01-07 | Imaging device, control method thereof, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010161577A true JP2010161577A (en) | 2010-07-22 |
JP2010161577A5 JP2010161577A5 (en) | 2012-02-23 |
JP5264516B2 JP5264516B2 (en) | 2013-08-14 |
Family
ID=42578418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009001854A Expired - Fee Related JP5264516B2 (en) | 2009-01-07 | 2009-01-07 | Imaging device, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5264516B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002224981A (en) * | 2001-01-30 | 2002-08-13 | Nec Corp | Human attitude recognizing robot |
JP2005130468A (en) * | 2003-09-29 | 2005-05-19 | Canon Inc | Imaging apparatus and its control method |
JP2010088093A (en) * | 2008-09-05 | 2010-04-15 | Ricoh Co Ltd | Imaging device, imaging method, program, and recording medium |
-
2009
- 2009-01-07 JP JP2009001854A patent/JP5264516B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002224981A (en) * | 2001-01-30 | 2002-08-13 | Nec Corp | Human attitude recognizing robot |
JP2005130468A (en) * | 2003-09-29 | 2005-05-19 | Canon Inc | Imaging apparatus and its control method |
JP2010088093A (en) * | 2008-09-05 | 2010-04-15 | Ricoh Co Ltd | Imaging device, imaging method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5264516B2 (en) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4290100B2 (en) | Imaging apparatus and control method thereof | |
JP5087856B2 (en) | Electronic camera | |
US20110116720A1 (en) | Method and apparatus for image processing | |
JP2010177894A (en) | Imaging apparatus, image management apparatus, image management method, and computer program | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
KR101710626B1 (en) | Digital photographing apparatus and control method thereof | |
JP2001215403A (en) | Image pickup device and automatic focus detection method | |
JP2008054295A (en) | System for and method of photographing, and computer program | |
US8988545B2 (en) | Digital photographing apparatus and method of controlling the same | |
KR20130017629A (en) | Apparatus and method for processing image, and computer-readable storage medium | |
JP5293139B2 (en) | Imaging apparatus, imaging method, program, and recording medium | |
JP4890370B2 (en) | Imaging device | |
JP2008219449A (en) | Imaging device and control method thereof | |
JP2009094574A (en) | Imaging apparatus, exchange method of image data, and program | |
KR20120025341A (en) | Digital photographing apparatus and control method thereof | |
JP4360369B2 (en) | Electronic camera | |
JP2007011200A (en) | Imaging apparatus | |
JP2007150604A (en) | Electronic camera | |
JP4328606B2 (en) | Digital camera | |
JP2008219450A (en) | Imaging device and control method thereof | |
JP2003289468A (en) | Imaging apparatus | |
JP5264516B2 (en) | Imaging device, control method thereof, and program | |
JP2008219451A (en) | Imaging device and control method thereof | |
JP2011139498A (en) | Imaging device and control method thereof | |
JP5423851B2 (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120106 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130430 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5264516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |