JP2010161577A - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2010161577A
JP2010161577A JP2009001854A JP2009001854A JP2010161577A JP 2010161577 A JP2010161577 A JP 2010161577A JP 2009001854 A JP2009001854 A JP 2009001854A JP 2009001854 A JP2009001854 A JP 2009001854A JP 2010161577 A JP2010161577 A JP 2010161577A
Authority
JP
Japan
Prior art keywords
image
face
extraction
optical axis
subject image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009001854A
Other languages
Japanese (ja)
Other versions
JP2010161577A5 (en
JP5264516B2 (en
Inventor
Yoshihiro Mizuo
佳弘 水尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009001854A priority Critical patent/JP5264516B2/en
Publication of JP2010161577A publication Critical patent/JP2010161577A/en
Publication of JP2010161577A5 publication Critical patent/JP2010161577A5/ja
Application granted granted Critical
Publication of JP5264516B2 publication Critical patent/JP5264516B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely and quickly photograph an object in an unfixed direction without taking an impossible posture or the like when the optical axis direction of a camera is not horizontal. <P>SOLUTION: When the degree of inclination of the optical axis of the camera with respect to a horizontal direction is a prescribed value or more, a feature amount of a specific object image, such as a face is extracted from a multilateral direction. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像素子に基づいて得られる画像信号から顔などの特定の被写体像を検出する検出技術に関する。   The present invention relates to a detection technique for detecting a specific subject image such as a face from an image signal obtained based on an image sensor.

デジタルカメラ、デジタルビデオカメラなどで人物を撮影する場合、主被写体である人物の顔に焦点を合わせ、人物の顔に最適な露出で撮影を行うことが求められる。この要請に対し、画像信号の中から人物の顔に相当する領域を検出する機能を有するカメラが提案されている。このカメラでは、画像処理により人物の顔に相当する領域を検出すると、その顔の画像信号における位置を算出し、人物の顔に対して最適な焦点、最適な露出で撮影を行うことが可能となる。   When a person is photographed with a digital camera, a digital video camera, or the like, it is required to focus on the face of the person as the main subject and shoot with an optimal exposure on the person's face. In response to this request, a camera having a function of detecting a region corresponding to a human face from an image signal has been proposed. In this camera, when an area corresponding to a human face is detected by image processing, the position of the face in the image signal can be calculated, and shooting can be performed with the optimal focus and optimal exposure for the human face. Become.

また、画像の中から人物の顔に相当する領域を検出する方法として、下記の特許文献1の手法が提案されている。この特許文献1では、まず、肌色に着目して、画像信号の中から人物の顔に相当すると推測される顔候補領域を検出する。そして、検出した顔候補領域の画像信号と予め用意された顔テンプレート(形状データ)とのマッチング度により、顔候補領域が人物の顔に相当する領域であるか否かを判断する。   In addition, as a method for detecting an area corresponding to a human face from an image, the method of Patent Document 1 below has been proposed. In this Patent Document 1, first, focusing on the skin color, a face candidate region presumed to correspond to a human face is detected from an image signal. Then, it is determined whether or not the face candidate area is an area corresponding to a human face, based on the degree of matching between the detected image signal of the face candidate area and a face template (shape data) prepared in advance.

しかしながら、特許文献1に係る方法では、カメラを縦に構えた場合(縦構え)と横に構えた場合(横構え)とで、画像信号における顔の向き(傾斜方向)が異なるため、顔候補領域の検出処理を、向きを変えて複数回行う必要がある。   However, in the method according to Patent Document 1, since the face direction (tilt direction) in the image signal differs between when the camera is held vertically (vertical position) and when it is held horizontally (horizontal position), face candidates It is necessary to perform the region detection processing a plurality of times while changing the direction.

この問題を解決するため、カメラ姿勢センサにより、縦構え、横構えの何れであるかを検出し、その検出結果に応じて顔領域の検出処理の向きを限定し、検出処理を高速化する技術が実現されている(特許文献2)。この特許文献2では、図12のように、画像信号における顔の向きが縦構えの場合と横構えの場合とで異なっていても、カメラ姿勢センサの検出結果に応じて顔検知時のパターンマッチングの方向を限定することで、検出処理を高速化することができる。   In order to solve this problem, the camera posture sensor detects whether the posture is vertical or horizontal, limits the direction of face area detection processing according to the detection result, and speeds up the detection processing Is realized (Patent Document 2). In this patent document 2, as shown in FIG. 12, even when the face orientation in the image signal is different between the vertical orientation and the horizontal orientation, pattern matching at the time of face detection is performed according to the detection result of the camera posture sensor. By limiting the direction, the detection process can be speeded up.

特開平8−63597号公報JP-A-8-63597 特開2005−130468号公報JP 2005-130468 A

しかしながら、特許文献2に係る顔検出方法は、カメラの光軸方向が常に水平方向であることを前提としている。このため、例えば、床に寝転がっている子供を撮影する場合、図4、図5のようにカメラの縦構え又は横構え対する顔の方向は不定となるので、特許文献2では、顔(顔領域)を確実に検出することができず、所望の向きの顔を撮影できない場合がある。   However, the face detection method according to Patent Document 2 is based on the premise that the optical axis direction of the camera is always in the horizontal direction. For this reason, for example, when photographing a child lying on the floor, the face orientation with respect to the vertical or horizontal orientation of the camera is indefinite as shown in FIGS. 4 and 5. ) Cannot be reliably detected, and a face in a desired direction may not be photographed.

このため、撮影者は、所望の向きの顔を撮影するためには、顔が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要があり、不便である。   Therefore, in order to photograph a face in a desired direction, the photographer needs to take an unreasonable posture to change his / her orientation so that the face can be detected reliably or to change the way the camera is held. Is inconvenient.

本発明は、このような技術的な背景の下になされたもので、その目的は、カメラの光軸方向が水平でない場合に、不定な向きの被写体を無理な体勢等を取らずに確実、且つ迅速に撮影できるようにすることにある。   The present invention has been made under such a technical background, and its purpose is to ensure that a subject in an undefined direction is not forced to take an unnatural posture when the optical axis direction of the camera is not horizontal. In addition, the purpose is to enable quick shooting.

上記目的を達成するため、本発明は、撮像素子を有する撮像する撮像装置において、前記撮像素子に基づいて得られた画像信号を記憶する記憶手段と、前記記憶手段により記憶された画像信号から特定の被写体像を抽出する抽出手段と、水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知手段と、少なくとも前記検知手段により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出手段を制御する制御手段と、を有することを特徴とする。   In order to achieve the above object, according to the present invention, in an imaging apparatus having an imaging device, a storage unit that stores an image signal obtained based on the imaging device and an image signal stored by the storage unit are specified. Extraction means for extracting the subject image, detection means for detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction, and based on at least the inclination of the optical axis detected by the detection means Control means for controlling the extraction means so as to change the extraction form of the subject image.

本発明では、水平方向に対する撮像装置(カメラ)の光軸の傾斜度に基づいて、顔などの特定の被写体像の抽出形態を変更している。   In the present invention, the extraction form of a specific subject image such as a face is changed based on the inclination of the optical axis of the imaging device (camera) with respect to the horizontal direction.

これにより、本発明によれば、カメラの光軸方向が水平でない場合に、不定な向きの被写体を確実に撮影することが可能となる。この場合、撮影者は、所望の被写体が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要はなく、所望の被写体を迅速に撮影することができ、利便性が向上する。   Thus, according to the present invention, it is possible to reliably shoot a subject in an indefinite direction when the optical axis direction of the camera is not horizontal. In this case, it is not necessary for the photographer to change his / her orientation so that the desired subject is reliably detected, or to take an uncomfortable posture to change the way the camera is held, and quickly shoots the desired subject. Can improve convenience.

本発明の第1,第2の実施の形態に係る撮像装置(デジタルカメラ)の回路ブロック図である。1 is a circuit block diagram of an imaging apparatus (digital camera) according to first and second embodiments of the present invention. 本発明の第1の実施の形態における撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process in the 1st Embodiment of this invention. 水平方向に対するデジタルカメラの下向きの傾斜角θを示す図である。It is a figure which shows downward inclination-angle (theta) of a digital camera with respect to a horizontal direction. デジタルカメラを下向きに構えた場合の被写体の向きの多様性を示す図である。It is a figure which shows the diversity of the direction of a to-be-photographed object when holding a digital camera downward. 図5に対応する撮影画像を示す図である。It is a figure which shows the picked-up image corresponding to FIG. 第1の実施の形態における顔検知方向を示す図である。It is a figure which shows the face detection direction in 1st Embodiment. 本発明の第2の実施の形態における撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process in the 2nd Embodiment of this invention. 水平方向に対するデジタルカメラの上向きの傾斜角θを示す図である。It is a figure which shows the upward inclination angle (theta) of a digital camera with respect to a horizontal direction. デジタルカメラを上向きに構えた場合の被写体を例示した図である。It is the figure which illustrated the subject at the time of holding a digital camera upwards. 図9に対応する顔画像を示す図である。It is a figure which shows the face image corresponding to FIG. デジタルカメラを上向きに構えた場合に撮影される可能性のある顔の状態を説明するための図である。It is a figure for demonstrating the state of the face which may be image | photographed when holding a digital camera upwards. カメラの横構え、縦構えに係る顔検出方向を示す図である(課題説明用)。It is a figure which shows the face detection direction which concerns on the horizontal posture of a camera, and a vertical posture (for problem description). カメラを下向きに構えた状態を示す図である(課題説明用)。It is a figure which shows the state which held the camera downward (for problem description).

以下、本発明を実施するための最良の形態を図面に基づいて説明する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.

[第1の実施の形態]
第1の実施の形態は、カメラの光軸が下向きの場合に好適な実施の形態である。
[First Embodiment]
The first embodiment is a preferred embodiment when the optical axis of the camera is downward.

図1は、本発明の第1、第2の実施の形態に係る撮像装置(デジタルカメラ)の回路ブロック図である。図1に示したデジタルカメラ100は、顔検出機能、及びデジタルカメラ100の姿勢検出機能を有している。   FIG. 1 is a circuit block diagram of an imaging apparatus (digital camera) according to first and second embodiments of the present invention. The digital camera 100 shown in FIG. 1 has a face detection function and a posture detection function of the digital camera 100.

図1において、デジタルカメラ100は、CPU101により全体的な制御が行われる。CPU101は、バス116を介して、ROM102、RAM103、メモリスロット105、操作部106、レンズドライバ108、絞りドライバ110、撮像素子111と接続されている。また、CPU101は、画像処理部112、表示部113、カメラ姿勢センサ114、及び顔検出部115と接続されている。   In FIG. 1, the overall control of the digital camera 100 is performed by a CPU 101. The CPU 101 is connected to the ROM 102, RAM 103, memory slot 105, operation unit 106, lens driver 108, aperture driver 110, and image sensor 111 via the bus 116. The CPU 101 is connected to the image processing unit 112, the display unit 113, the camera posture sensor 114, and the face detection unit 115.

ROM102には、後述する図2、図7のフローチャートに係るアプリケーションプログラム等の各種のプログラムが格納されている。また、ROM102には、後述する非顔条件フィルタ、各種の基準パターン信号も格納されている。RAM103は、CPU101がプログラムを実行する際のワークエリアとして利用され、例えば、画像信号の一時記憶領域、後述するフィルタ処理で得られる高周波信号の記憶領域として用いられる。   The ROM 102 stores various programs such as application programs according to flowcharts shown in FIGS. The ROM 102 also stores a non-face condition filter (to be described later) and various reference pattern signals. The RAM 103 is used as a work area when the CPU 101 executes a program. For example, the RAM 103 is used as a temporary storage area for image signals and as a storage area for high-frequency signals obtained by filter processing described later.

メモリカード104は、メモリスロットに105に着脱され、画像信号(画像データ)等を保存するための記憶媒体として利用される。操作部106は、シャッタボタン等の各種の操作ボタン、及び表示パネル(図示省略)を備えている。   The memory card 104 is attached to and detached from the memory slot 105, and is used as a storage medium for storing image signals (image data) and the like. The operation unit 106 includes various operation buttons such as a shutter button and a display panel (not shown).

光学レンズ群107は、ズームレンズ、フォーカスレンズ等の複数の光学レンズを有し、レンズドライバ108によりズームレンズ、フォーカスレンズが駆動されることで、変倍、合焦の各動作が行われる。絞り109の絞り駆動は、絞りドライバ110により行われる。   The optical lens group 107 includes a plurality of optical lenses such as a zoom lens and a focus lens. When the zoom lens and the focus lens are driven by the lens driver 108, each operation of zooming and focusing is performed. The aperture drive of the aperture 109 is performed by the aperture driver 110.

光学レンズ群107、絞り109を介してカメラ内に取込まれた被写体光像は、CCD、CMOS等のイメージセンサで構成された撮像素子111に入射されて、光電変換される。撮像素子111は、光電変換して得られた信号電荷をデジタル信号に変換して、デジタルの画像信号(画像データ)として出力する。   A subject light image taken into the camera via the optical lens group 107 and the diaphragm 109 is incident on an image sensor 111 constituted by an image sensor such as a CCD or CMOS, and is subjected to photoelectric conversion. The image sensor 111 converts a signal charge obtained by photoelectric conversion into a digital signal and outputs it as a digital image signal (image data).

画像処理部112は、上記の画像信号に対して、ガンマ補正等の各種の補正処理、圧縮/伸張処理等の各種の画像処理を施す。表示部113は、撮像画像、各種の処理メニュー等を表示する。画像処理部112により圧縮された画像信号は、メモリスロット105を介してメモリカード104に保存することができる。   The image processing unit 112 performs various correction processes such as gamma correction and various image processes such as compression / decompression processes on the image signal. The display unit 113 displays captured images, various processing menus, and the like. The image signal compressed by the image processing unit 112 can be stored in the memory card 104 via the memory slot 105.

カメラ姿勢センサ114は、デジタルカメラ100の姿勢を検出するためのセンサであり、第1,2の実施の形態では、重力センサを用いている。重力センサは、例えば、複数の圧電素子で囲まれた空間の中に、その空間よりも小さな金属球を配置することによって構成することができる(例えば、特開平11−196397号公報を参照)。複数の圧電素子のうち、どの圧電素子に金属球の重みがかかっているかを判別することによって、水平方向に対するカメラ光軸の傾斜度θを検知する。カメラ姿勢センサ114は、図12に示した横撮り(横構え)、縦撮り(縦構え)の状態を検知すると共に、図3、図8に示した水平方向に対するカメラ光軸の傾斜度θも検知する。   The camera posture sensor 114 is a sensor for detecting the posture of the digital camera 100. In the first and second embodiments, a gravity sensor is used. The gravity sensor can be configured, for example, by disposing a metal sphere smaller than the space in a space surrounded by a plurality of piezoelectric elements (see, for example, Japanese Patent Application Laid-Open No. 11-196395). By determining which of the plurality of piezoelectric elements is weighted by the metal sphere, the inclination θ of the camera optical axis with respect to the horizontal direction is detected. The camera attitude sensor 114 detects the horizontal shooting (horizontal posture) and vertical shooting (vertical posture) states shown in FIG. 12, and the inclination θ of the camera optical axis with respect to the horizontal direction shown in FIGS. Detect.

顔検出部115は、画像処理部112から出力された画像信号の中から、人物の顔の領域を検出する。顔検出部115は、画像信号に対するフィルタ処理、フィルタ処理で得られた高周波信号(エッジ情報:輪郭情報)と予め記憶された基準パターン信号(輪郭パターン信号)とのマッチング処理を行うことで、顔の領域を検出する。すなわち、顔検出部115は、画像信号から特定の被写体像を抽出する抽出手段として機能する。   The face detection unit 115 detects a human face region from the image signal output from the image processing unit 112. The face detection unit 115 performs a filtering process on the image signal, and a matching process between a high-frequency signal (edge information: contour information) obtained by the filtering process and a pre-stored reference pattern signal (contour pattern signal). Detect the area. That is, the face detection unit 115 functions as an extraction unit that extracts a specific subject image from the image signal.

また、顔検出部115は、顔に相当する領域を検出する場合、後述するように、RAM103からの画像信号の読出し方向、フィルタ処理におけるバンドパスのフィルタリング方向を変化させることができる。換言すれば、顔検出部115は、CPU101の制御の下に、画像信号から特定の被写体像を抽出する際の抽出形態を変更することができる。   Further, when detecting a region corresponding to a face, the face detection unit 115 can change the reading direction of the image signal from the RAM 103 and the bandpass filtering direction in the filtering process, as will be described later. In other words, the face detection unit 115 can change the extraction form when extracting a specific subject image from the image signal under the control of the CPU 101.

次に、第1の実施の形態における撮像処理を図2のフローチャートに基づいて説明する。   Next, imaging processing in the first embodiment will be described based on the flowchart of FIG.

CPUI01は、シャッタボタンが半押しされていることを検出すると(ステップS201)、第1の露出条件(絞り値、露出時間)及び合焦位置を満足するように光学レンズ群107及び絞り109を制御し、第1の画像信号を取得する(ステップS202)。上記の第1の露出条件及び合焦位置、特定領域は、予めデフォルトで設定されているものである。   When the CPU I01 detects that the shutter button is half-pressed (step S201), the CPU I01 controls the optical lens group 107 and the aperture 109 so as to satisfy the first exposure condition (aperture value, exposure time) and the in-focus position. Then, the first image signal is acquired (step S202). The first exposure condition, the focus position, and the specific area are set in advance by default.

次に、CPU101は、第1の画像信号の特定領域の画像信号に基づいて、第2の露出条件及び合焦位置を決定する(ステップS203)。そして、CPU101は、第2の露出条件、合焦位置を満足するように光学レンズ群107及び絞り109を制御し、第2の画像信号を取得する(ステップS204)。   Next, the CPU 101 determines the second exposure condition and the in-focus position based on the image signal in the specific area of the first image signal (step S203). Then, the CPU 101 controls the optical lens group 107 and the diaphragm 109 so as to satisfy the second exposure condition and the in-focus position, and acquires a second image signal (step S204).

なお、CPU101は、取得した第1の画像信号をRAM103に一時記憶し、第2の画像信号は、第1の画像信号に上書きする形でRAM103に格納する。このように、ステップS201〜S204において、予め簡易な露出制御及び合焦制御を行うことで、画像信号中の被写体像を鮮明にし、顔検出処理の精度を向上させることができる。   Note that the CPU 101 temporarily stores the acquired first image signal in the RAM 103, and stores the second image signal in the RAM 103 so as to overwrite the first image signal. As described above, by performing simple exposure control and focus control in advance in steps S201 to S204, the subject image in the image signal can be sharpened and the accuracy of the face detection process can be improved.

次に、CPU101は、カメラ姿勢センサ114により検知されたデジタルカメラ100の姿勢に基づいて、第2の画像信号を取得した際の水平方向に対するカメラ光軸の傾きを判定する(ステップS205)。具体的には、CPU101は、図3に示すように、水平方向に対するカメラ光軸の下向きの傾き角θ(傾斜度)が規定角θd以上(規定値以上)であるか否かを判定する。   Next, the CPU 101 determines the inclination of the camera optical axis with respect to the horizontal direction when the second image signal is acquired based on the attitude of the digital camera 100 detected by the camera attitude sensor 114 (step S205). Specifically, as illustrated in FIG. 3, the CPU 101 determines whether or not the downward tilt angle θ (degree of tilt) of the camera optical axis with respect to the horizontal direction is equal to or greater than a specified angle θd (a specified value or greater).

CPU101は、カメラ光軸の下向きの傾き角θが規定角θdより小さい場合は、更に、カメラ姿勢センサ114により検知されたカメラ姿勢が、図12(a)の横構え、図12(b)の縦構え1、図12(c)の縦構え2の何れであるかを判定する(ステップS206)。   When the downward tilt angle θ of the camera optical axis is smaller than the specified angle θd, the CPU 101 further sets the camera posture detected by the camera posture sensor 114 as shown in FIG. 12A and in FIG. It is determined whether the position is the vertical position 1 or the vertical position 2 in FIG. 12C (step S206).

そして、顔検出部115は、CPU101により横構え(横撮り)と判定された場合は、RAM103から第2の画像信号を垂直方向に1ライン単位で読出し、垂直方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた垂直方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS207)。   If the CPU 101 determines that the camera is in the horizontal orientation (horizontal shooting), the face detection unit 115 reads the second image signal from the RAM 103 in units of one line in the vertical direction and applies a band-pass filter in the vertical direction. Then, the face detection unit 115 records the high-frequency signal (edge information: contour information) in the vertical direction obtained by this filtering process in the RAM 103 (step S207).

顔検出部115は、CPU101により縦構え1(縦撮り1)と判定された場合は、RAM103から第2の画像信号を水平方向に1ライン単位で読出し、水平方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた水平方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS208)。   When the CPU 101 determines that the vertical posture is 1 (vertical shooting 1), the face detection unit 115 reads the second image signal from the RAM 103 in units of one line in the horizontal direction and applies a band-pass filter in the horizontal direction. Then, the face detection unit 115 records the horizontal high-frequency signal (edge information: contour information) obtained by this filtering process in the RAM 103 (step S208).

顔検出部115は、CPU101により縦構え2(縦撮り2)と判定された場合は、RAM103から第2の画像信号を水平方向に1ライン単位で読出し、水平方向にバンドパスフィルタをかける。そして、顔検出部115は、このフィルタ処理で得られた水平方向の高周波信号(エッジ情報:輪郭情報)をRAM103に記録する(ステップS209)。   When the CPU 101 determines that the portrait is 2 (vertical shooting 2), the face detection unit 115 reads the second image signal from the RAM 103 in units of one line in the horizontal direction and applies a bandpass filter in the horizontal direction. Then, the face detection unit 115 records the high-frequency signal (edge information: contour information) in the horizontal direction obtained by this filtering process in the RAM 103 (step S209).

なお、ここで言う垂直方向、水平方向とは、デジタルカメラ100で撮像した矩形画像の長辺を水平、短辺を垂直方向と定義した場合における方向である。横構え(横撮り)では図12(a)のような形態で顔画像が得られるので、ステップS207では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。また、縦構え1(縦撮り1)で撮影した画像は、図12(b)のようになるため、ステップS208では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。縦構え2(縦撮り2)で撮影した画像は、図12(c)のようになるため、ステップS209では同図の矢印方向に沿ったフィルタ処理(エッジ検出処理)が行われる。   Here, the vertical direction and the horizontal direction are directions when a long side of a rectangular image captured by the digital camera 100 is defined as horizontal and a short side is defined as a vertical direction. In the horizontal posture (horizontal shooting), a face image is obtained in the form as shown in FIG. 12A. Therefore, in step S207, filter processing (edge detection processing) along the arrow direction in FIG. In addition, since the image captured in the vertical posture 1 (vertical shooting 1) is as shown in FIG. 12B, in step S208, filter processing (edge detection processing) along the arrow direction in FIG. Since the image shot in the vertical posture 2 (vertical shooting 2) is as shown in FIG. 12C, a filtering process (edge detection process) along the arrow direction in FIG. 12 is performed in step S209.

図12(a)に示す矩形画像では、縦長の顔画像(顔全体では縦方向を長軸とする楕円形)となり、図12(b),(c)に示す矩形画像では、横長の顔画像(顔全体では横方向を長軸とする楕円形)となっている。   In the rectangular image shown in FIG. 12A, a vertically long face image (an ellipse having the longitudinal direction as the major axis in the entire face) is formed. In the rectangular images shown in FIGS. 12B and 12C, a horizontally long face image is formed. (The entire face has an elliptical shape with the horizontal axis as the major axis).

このような顔画像に対して、同様の形態で矩形画像の短辺と平行な方向にエッジ検出処理を行った場合、図12(a)の縦長の顔画像に対するエッジ検出結果と、図12(b)、(c)の横長の顔画像に対するエッジ検出結果とは大きく異なってしまう。そこで、第1の実施の形態では、図12(a)の場合と図12(b)、(c)の場合とで同様のエッジ検出結果を得るべく、カメラ姿勢センサ114の検出結果に応じてエッジ検出を行う方向、すなわち、特定の被写体像の抽出形態を変更している。   When edge detection processing is performed on such a face image in a direction parallel to the short side of the rectangular image in the same manner, the edge detection result for the vertically long face image of FIG. The edge detection results for the horizontally long face images of b) and (c) are greatly different. Therefore, in the first embodiment, in order to obtain the same edge detection result in the case of FIG. 12A and the case of FIGS. 12B and 12C, according to the detection result of the camera attitude sensor 114. The direction of edge detection, that is, the extraction form of a specific subject image is changed.

ステップS207〜S209の何れかのエッジ検出処理が完了すると、顔検出部115は、パターンマッチング処理を行う(ステップS210)。このパターンマッチング処理では、顔検出部115は、RAM103に記録した高周波信号(輪郭情報)と予めROM102に格納された基準パターン信号(目の輪郭パターン信号)とを比較して、人間の目の候補群を検出する。また、同時に、顔検出部115は、鼻や口、耳などの人間の特徴的な顔の各パーツについても、当該各パーツの基準の輪郭パターン信号を用いて、当該各パーツの候補群を検出する。   When the edge detection process in any of steps S207 to S209 is completed, the face detection unit 115 performs a pattern matching process (step S210). In this pattern matching process, the face detection unit 115 compares the high-frequency signal (contour information) recorded in the RAM 103 with the reference pattern signal (eye contour pattern signal) stored in the ROM 102 in advance, so that a human eye candidate can be obtained. Detect groups. At the same time, the face detection unit 115 detects a candidate group of each part of each part of a human characteristic face such as a nose, a mouth, and an ear using a reference contour pattern signal of each part. To do.

この場合、デジタルカメラ100の姿勢(カメラ光軸方向)が判明しているので、該当する方向の候補群の範囲内で顔認識処理を行うことで、パターンマッチング処理を簡略化させることが可能となる。   In this case, since the attitude of the digital camera 100 (camera optical axis direction) is known, it is possible to simplify the pattern matching process by performing the face recognition process within the range of candidate groups in the corresponding direction. Become.

CPU101は、ステップS205にて、カメラ光軸の下向きの傾き角θが規定角θd以上(規定値以上)であると判定した場合は、ステップS211に進む。この場合は、カメラ光軸の下向きの傾き角θがある程度大きな値であり、撮影者から見て被写体が下に存在することになる。この撮影例としては、床に寝転がっている人物を撮影する場合が考えられる。   If the CPU 101 determines in step S205 that the downward tilt angle θ of the camera optical axis is greater than or equal to the specified angle θd (more than the specified value), the process proceeds to step S211. In this case, the downward tilt angle θ of the camera optical axis is a certain large value, and the subject exists below as viewed from the photographer. As an example of this photographing, a case where a person lying on the floor is photographed can be considered.

この場合、図4に示すように、デジタルカメラ100の光軸が下向きになった状態で、子供等の顔を撮影することになる。図4の状態の子供を撮影した場合、撮像画像は図5に示す状態となり、カメラ光軸を下向きにしたデジタルカメラ100では、顔検知方向Aと顔検知方向Bの両方でエッジ検出処理を行わなければ、顔を確実に検出することができない。   In this case, as shown in FIG. 4, the face of a child or the like is photographed with the optical axis of the digital camera 100 facing downward. When the child in the state of FIG. 4 is photographed, the captured image is in the state shown in FIG. 5, and the digital camera 100 with the camera optical axis facing downward performs edge detection processing in both the face detection direction A and the face detection direction B. Without it, the face cannot be detected reliably.

そこで、顔検出部115は、ステップS211では、ステップS207〜S209でそれぞれ行った垂直方向フィルタ処理と2つの水平方向フィルタ処理の3つのフィルタ処理を第2の画像信号に対して行う。   Therefore, in step S211, the face detection unit 115 performs three filter processes, that is, the vertical filter process and the two horizontal filter processes performed in steps S207 to S209, respectively, on the second image signal.

次に、顔検出部115は、上記の3つのフィルタ処理で検出された顔候補領域の画像信号について、それぞれ、対応する基準パターン信号とのマッチング処理を行う(ステップS212)。この場合、顔検出部115は、複数の顔サイズに対応する複数の基準パターン信号のうち、一定以上の顔サイズに係る基準パターン信号とのみマッチング処理を行う。このように限定した基準パターンだけを用いてマッチング処理を行うことで、フィルタ処理の方向を3つに増やしたことによる処理量の増大化を緩和し、顔検出処理の全体的な処理の低速化を抑制することができる。   Next, the face detection unit 115 performs matching processing with the corresponding reference pattern signal on the image signals of the face candidate areas detected by the above three filter processes (step S212). In this case, the face detection unit 115 performs a matching process only with a reference pattern signal related to a face size greater than a certain value among a plurality of reference pattern signals corresponding to a plurality of face sizes. By performing the matching process using only the limited reference pattern in this way, the increase in the processing amount due to the increase in the direction of the filter process is reduced to three, and the overall processing speed of the face detection process is reduced. Can be suppressed.

以上のように、3つのフィルタ処理、及びパターンマッチング処理を行うことで、顔の方向が図12(a),(b),(c)の何れの方向であっても適正に顔を検出することが可能となる。   As described above, by performing the three filter processes and the pattern matching process, the face is properly detected regardless of the face direction of FIGS. 12 (a), 12 (b), and 12 (c). It becomes possible.

パターンマッチング処理が終了すると、顔検出部115は、人物の目(両目)の候補を検出することができたか否かを判別し(ステップS213)、目の候補を検出することができた場合には、ステップS214の処理を行う。   When the pattern matching process is completed, the face detection unit 115 determines whether or not a candidate for human eyes (both eyes) can be detected (step S213), and when the candidate for eyes can be detected. Performs the process of step S214.

ステップS214では、顔検出部115は、検出された目の候補群のうち、対となる目の候補を対応づけることで、目の候補を絞り込む。次に、顔検出部115は、絞り込んだ目の候補と、その他のパーツ(鼻、口、耳)の候補に基づいて、予めROM102に登録された複数の非顔条件フィルタの中から1つを選択し、選択した非顔条件フィルタにより、第2の画像信号をフィルタ処理する。なお、非顔条件フィルタは、例えば、目の横に鼻が位置している等、通常の人間の顔として不自然なパーツに係る候補を削除していく機能を有するものである。   In step S214, the face detection unit 115 narrows down eye candidates by associating paired eye candidates in the detected eye candidate group. Next, the face detection unit 115 selects one of a plurality of non-face condition filters registered in advance in the ROM 102 based on the narrowed eye candidates and other part (nose, mouth, ear) candidates. The second image signal is filtered by the selected non-face condition filter. Note that the non-face condition filter has a function of deleting a candidate related to an unnatural part as a normal human face, for example, a nose is positioned beside the eyes.

そこで、顔検出部115は、非顔条件フィルタを通過した画像信号を目、鼻、口など顔のパーツを含む「顔」の画像信号と認定し、当該画像信号上での「目(両目)」及び「顔」と判定された領域のサイズと位置を算出し、CPU101に通知する(ステップS215)。   Therefore, the face detection unit 115 recognizes the image signal that has passed through the non-face condition filter as an image signal of “face” including facial parts such as eyes, nose, and mouth, and “eye (both eyes)” on the image signal. ”And“ face ”are calculated and notified to the CPU 101 (step S215).

CPU101は、通知された顔領域を重点的に測光するように測光領域に重み付けをし、両目を中心とした領域を焦点調節領域として設定する(ステップS216)。   The CPU 101 weights the photometry area so that the notified face area is photometrically focused, and sets the area centered on both eyes as the focus adjustment area (step S216).

一方、顔検出部115により目の候補を検出することができなかった場合は、CPU101は、デフォルトの測光領域、焦点調節領域を設定する(ステップS217)。CPU101は、ステップS216又はS217での測光領域、焦点調節領域の設定処理が終了すると、シャッタボタンが全押しされているか否かを判別し(ステップS218)、半押し状態であればステップS203に戻り、上記処理を繰返す。   On the other hand, if the face candidate cannot be detected by the face detection unit 115, the CPU 101 sets a default photometry area and focus adjustment area (step S217). When the CPU 101 completes the photometric area and focus adjustment area setting processing in step S216 or S217, the CPU 101 determines whether or not the shutter button is fully pressed (step S218). The above processing is repeated.

一方、シャッタボタンが全押し状態であれば、CPU101は、設定に係る測光領域が最適な輝度となるように絞り109を制御し、当該設定に係る焦点調節領域で合焦するように光学レンズ群107を駆動して本撮像を行う(ステップS219)。この場合、実際の絞り109の駆動制御、光学レンズ群107の駆動制御は、それぞれ、絞りドライバ110、レンズドライバ108がCPU101の制御の下に行う。また、CPU101は、本撮影で得られた画像信号を画像処理部112で画像処理させ、圧縮符号化させて、メモリカード104に書込む。   On the other hand, if the shutter button is fully pressed, the CPU 101 controls the aperture 109 so that the photometric area related to the setting has an optimum luminance, and the optical lens group is focused in the focus adjustment area related to the setting. 107 is driven to perform main imaging (step S219). In this case, the actual drive control of the aperture 109 and the drive control of the optical lens group 107 are performed by the aperture driver 110 and the lens driver 108 under the control of the CPU 101, respectively. In addition, the CPU 101 causes the image processing unit 112 to perform image processing on the image signal obtained by the actual shooting, compression-encodes the image signal, and writes the image signal into the memory card 104.

以上説明したように、第1の実施の形態では、水平方向に対するデジタルカメラ100の光軸の下向きの傾斜度が規定値以上の場合に、規定値未満の場合に比較して、顔、すなわち被写体像の特徴量を多方向から抽出している。   As described above, in the first embodiment, when the downward inclination of the optical axis of the digital camera 100 with respect to the horizontal direction is equal to or greater than a specified value, the face, that is, the subject, is compared with a case where the inclination is less than the specified value. Image features are extracted from multiple directions.

従って、床に寝転がっている子供を撮影するような場合、図4のようにカメラの縦構え又は横構え対する顔の方向が不定となったとしても、顔(顔領域)を確実に検出して撮影することができる。   Therefore, when photographing a child lying on the floor, the face (face area) is reliably detected even if the orientation of the face with respect to the vertical or horizontal orientation of the camera is indefinite as shown in FIG. You can shoot.

すなわち、カメラの光軸方向が水平でない場合に、顔が確実に検出されるように自分自身が向きを変える、或はカメラの構え方を変えるべく無理な体勢を取る必要はなく、不定な向きの被写体を確実、且つ迅速に撮影することが可能となり、利便性が向上する。また、検出した顔に適したAF(自動露出)制御、AE(自動合焦)制御を行う、すなわち当該顔に適した撮影条件で撮影することで、所望の被写体である顔を精度良く撮影することが可能となる。   In other words, when the optical axis direction of the camera is not horizontal, it is not necessary to change its orientation so that the face can be detected reliably, or to change the posture of the camera, and it is not necessary to change the orientation. The subject can be photographed reliably and quickly, and convenience is improved. In addition, AF (automatic exposure) control and AE (automatic focus) control suitable for the detected face are performed, that is, a face that is a desired subject is accurately photographed by photographing under photographing conditions suitable for the face. It becomes possible.

なお、上記の図2のフローチャートでは、カメラ光軸が下向きに規定値以上傾斜した場合に、図12に示した3方向で顔検出処理を実行していた。これに対し、図6に示した(2)、(4)、(6)、(8)など、更に多方向で顔検出処理を行うことで、顔検出の確実性をより一層向上させるようにしてもよい。   In the flowchart of FIG. 2, the face detection process is executed in the three directions shown in FIG. 12 when the camera optical axis is tilted downward by a predetermined value or more. On the other hand, the face detection processing is further improved by performing face detection processing in more directions such as (2), (4), (6), (8) shown in FIG. May be.

[第2の実施の形態]
第1の実施の形態では、カメラ光軸が下向きの場合を想定していたが、第2の実施の形態は、カメラ光軸が上向きの場合を想定している。
[Second Embodiment]
In the first embodiment, the case where the camera optical axis is downward is assumed. However, in the second embodiment, the case where the camera optical axis is upward is assumed.

図7は、第2の実施の形態における撮影処理を示すフローチャートである。図7のステップS701〜S708は、図2のステップS201〜S209の処理とほぼ同様である。ただし、図2ではカメラ光軸の傾きを判定した後で(ステップS205)、姿勢判定等を行っているのに対し(ステップS206)、図7では、姿勢判定等を行った後で(ステップS705)、カメラ光軸の傾きを判定している(ステップS709)点で相違する。   FIG. 7 is a flowchart showing the photographing process in the second embodiment. Steps S701 to S708 in FIG. 7 are substantially the same as the processes in steps S201 to S209 in FIG. However, in FIG. 2, after determining the tilt of the camera optical axis (step S205), posture determination is performed (step S206), whereas in FIG. 7, after posture determination is performed (step S705). ), The camera optical axis inclination is determined (step S709).

すなわち、顔検出部115によるステップS706〜S708の何れかのフィルタ処理が終了すると、CPU101は、ステップS709の処理を行う。このステップS709では、CPU101は、カメラ姿勢センサ114により検知されたカメラの姿勢、すなわち、水平方向に対するカメラ光軸の傾斜度に基づいて、第2の画像信号を取得した際の水平方向に対するカメラ光軸の傾きを判定する。具体的には、CPU101は、図8に示すように、水平方向に対するカメラ光軸の上向きの傾き角θが規定角θd以上であるか否かを判定する。   That is, when the filter processing in any of steps S706 to S708 by the face detection unit 115 is completed, the CPU 101 performs the processing in step S709. In step S709, the CPU 101 determines the camera light in the horizontal direction when the second image signal is acquired based on the camera attitude detected by the camera attitude sensor 114, that is, the inclination of the camera optical axis with respect to the horizontal direction. Determine the tilt of the axis. Specifically, as shown in FIG. 8, the CPU 101 determines whether or not the upward tilt angle θ of the camera optical axis with respect to the horizontal direction is equal to or greater than a specified angle θd.

CPU101は、カメラ光軸の上向きの傾き角θが規定角θdより小さい場合は、ステップS710の処理に移行し、移り、カメラ光軸の上向きの傾き角θが規定角θd以上の場合は、ステップS711の処理に移行する。   When the upward tilt angle θ of the camera optical axis is smaller than the specified angle θd, the CPU 101 proceeds to the processing of step S710, and when the upward tilt angle θ of the camera optical axis is equal to or larger than the specified angle θd, the CPU 101 proceeds to step S710. The process proceeds to S711.

ステップS710の処理は、第1の施例の形態に係る図2のステップS210の処理と全く同様である。ステップS711に移行した場合、カメラ光軸の上向きの傾き角θはある程度大きな値であり、撮影者から見て被写体が上に存在することになる。この撮影例としては、例えば図9に示すように、地上から建物の2階以上の階のベランダに居る人物を撮影する場合などが考えられる。この場合に撮像される顔画像は、図10に示したようになる可能性が高い。   The process of step S710 is exactly the same as the process of step S210 of FIG. 2 according to the first embodiment. When the process proceeds to step S711, the upward tilt angle θ of the camera optical axis is a large value to some extent, and the subject is present as viewed from the photographer. As an example of this photographing, for example, as shown in FIG. 9, it is conceivable to photograph a person on the veranda on the second floor or higher of the building from the ground. The face image captured in this case is highly likely to be as shown in FIG.

すなわち、図11(c)に示したように、あおり状態、又はあおり状態に近い顔画像が検出される可能性が高く、図11(b)に示したように、俯瞰状態の顔画像が検出される可能性は低いと考えられる。   That is, as shown in FIG. 11C, there is a high possibility that a face image in a tilted state or a face image close to the tilted state is detected, and a face image in a bird's-eye view state is detected as shown in FIG. It is considered unlikely that this will be done.

そこで、顔検出部115は、ステップS711におけるパターンマッチング処理において、予め保持されている複数の基準パターン信号のうち、図11(a)に示したような「−:マイナス」の角度に対応する顔パターンのみとマッチング処理を行う。換言すれば、顔検出部115は、「+:プラス」の角度に対応する顔パターンとのマッチング処理は行わないようにする。これにより、短時間でパターンマッチング処理を行うことができ、顔検出処理の時間を短縮化することが可能となる。ステップS712以降の処理は、図2のS213以降の処理と全く同様である。   Therefore, the face detection unit 115 corresponds to the face corresponding to the “−: minus” angle as shown in FIG. 11A among a plurality of reference pattern signals held in advance in the pattern matching processing in step S711. Matches only with the pattern. In other words, the face detection unit 115 does not perform the matching process with the face pattern corresponding to the angle “+: plus”. Thereby, the pattern matching process can be performed in a short time, and the time for the face detection process can be shortened. The processing after step S712 is exactly the same as the processing after S213 in FIG.

なお、本発明は、上記の第1,第2の実施の形態に限定されることなく、例えば、前述のように、先ず人物の目の位置を検出し、これに基づいて他の顔のパーツを検出することで顔に相当する領域を検出するという処理形態に限定されることはない。この場合、例えば、目だけを検出することで顔に相当する領域を検出することが考えられる。   The present invention is not limited to the first and second embodiments described above. For example, as described above, the position of the eyes of a person is first detected, and other facial parts are detected based on the position. However, the present invention is not limited to the processing mode of detecting a region corresponding to a face by detecting. In this case, for example, it is conceivable to detect an area corresponding to a face by detecting only eyes.

また、カメラ姿勢センサは、重力センサに限られるものではない。例えば、撮像装置内でレンズ駆動などに使用しているVCM(ボイスコイル・モータ)等のアクチュエータのフィードバック制御における制御信号の積分項の値に基づいて、カメラ光軸の傾斜度を検知してもよい。   Further, the camera posture sensor is not limited to the gravity sensor. For example, even if the inclination of the camera optical axis is detected based on the value of the integral term of the control signal in the feedback control of an actuator such as a VCM (voice coil motor) used for driving the lens in the imaging apparatus. Good.

また、一定以上の顔サイズの基準パターン信号のみとマッチングを行うという限定事項を除外することも可能である。さらに、顔以外の被写体像を所望の被写体像として撮影する場合にも第1,第2の実施の形態に係る技術思想を適用し得ることは言うまでもない。また、撮像素子(イメージセンサ)を用いて撮影を行う撮像装置であれば、デジタルカメラ以外のデジタルビデオカメラ、カメラ付き携帯電話などにも、第1,第2の実施の形態に係る技術思想を適用することができる。   It is also possible to exclude the limitation that matching is performed only with a reference pattern signal having a face size of a certain size or more. Furthermore, it goes without saying that the technical ideas according to the first and second embodiments can also be applied when shooting a subject image other than a face as a desired subject image. In addition, if the imaging device performs imaging using an imaging device (image sensor), the technical ideas according to the first and second embodiments are applied to a digital video camera other than a digital camera, a mobile phone with a camera, and the like. Can be applied.

さらに、本発明の目的は、前述した各実施の形態の機能を実現するようにプログラミングされたソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給することによっても達成される。この場合、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出し実行することとなる。   Furthermore, the object of the present invention can also be achieved by supplying a storage medium storing software program codes programmed to realize the functions of the above-described embodiments to a system or apparatus. In this case, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した各実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention. .

また、プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。さらに、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW等の光ディスクも、プログラムコードを供給するための記憶媒体として用いることができる。または、プログラムコードをネットワークを介してダウンロードしてもよい。   Further, as a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a magnetic tape, a nonvolatile memory card, A ROM or the like can be used. Furthermore, optical disks such as DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, etc. can also be used as a storage medium for supplying program codes. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれる。   Further, based on the instruction of the program code read by the computer, an OS (operating system) or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are achieved by the processing. The case where it is realized is also included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた場合も含まれる。また、そのプログラムコードの指示に基づき、その拡張機能を拡張ボードや拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれる。   Furthermore, the case where the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer is also included. Further, based on the instruction of the program code, the CPU or the like provided with the extension function in the extension board or the extension unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Cases are also included.

100…デジタルカメラ
101…CPU
102…ROM
103…RAM
108…レンズドライバ
110…絞りドライバ
114…カメラ姿勢センサ
115…顔検出部
100 ... Digital camera 101 ... CPU
102 ... ROM
103 ... RAM
108 ... Lens driver 110 ... Aperture driver 114 ... Camera posture sensor 115 ... Face detection unit

Claims (11)

撮像素子を有する撮像装置において、
前記撮像素子に基づいて得られた画像信号を記憶する記憶手段と、
前記記憶手段により記憶された画像信号から特定の被写体像を抽出する抽出手段と、
水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知手段と、
少なくとも前記検知手段により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出手段を制御する制御手段と、
を有することを特徴とする撮像装置。
In an imaging apparatus having an imaging element,
Storage means for storing an image signal obtained based on the image sensor;
Extraction means for extracting a specific subject image from the image signal stored by the storage means;
Detecting means for detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction;
Control means for controlling the extraction means so as to change the extraction form of the specific subject image based on at least the inclination of the optical axis detected by the detection means;
An imaging device comprising:
前記制御手段は、前記検知手段により検知された前記傾斜度が規定値以上の場合に、前記特定の被写体像の抽出形態を変更するように前記抽出手段を制御することを特徴とする請求項1に記載の撮像装置。   2. The control unit according to claim 1, wherein when the inclination detected by the detection unit is equal to or greater than a predetermined value, the control unit controls the extraction unit to change an extraction form of the specific subject image. The imaging device described in 1. 前記抽出手段は、前記記憶手段に記憶された画像信号から被写体像の特徴量を抽出することにより、前記特定の被写体像を抽出することを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the extraction unit extracts the specific subject image by extracting a feature amount of the subject image from an image signal stored in the storage unit. 前記制御手段は、前記検知手段により検知された前記傾斜度が規定値以上の場合に、前記特徴量を多く方向から抽出するように前記抽出手段を制御することを特徴とする請求項3に記載の撮像装置。   The said control means controls the said extraction means to extract the said feature-value from many directions, when the said inclination detected by the said detection means is more than a regulation value. Imaging device. 前記制御手段は、前記記憶手段により記憶された画像信号の読出し方向、及び読出しに係る画像信号から前記特定の被写体像の輪郭を抽出するフィルタ処理の方向を変更することにより、前記特徴量を多く方向から抽出するように前記抽出手段を制御することを特徴とする請求項4に記載の撮像装置。   The control means increases the feature amount by changing the reading direction of the image signal stored by the storage means and the direction of the filtering process for extracting the contour of the specific subject image from the image signal related to the reading. The imaging apparatus according to claim 4, wherein the extraction unit is controlled to extract from a direction. 前記抽出手段は、前記フィルタ処理により得られた前記被写体像の輪郭と、予め保持された輪郭パターンとのマッチング処理を行うことにより、前記特定の被写体像を抽出することを特徴とする請求項5に記載の撮像装置。   6. The extraction unit extracts the specific subject image by performing a matching process between a contour of the subject image obtained by the filter processing and a contour pattern held in advance. The imaging device described in 1. 前記制御手段は、予め保持された多方向の輪郭パターンを前記抽出手段に供給することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the control unit supplies a multi-directional contour pattern held in advance to the extraction unit. 前記検知手段は、光軸方向にレンズ駆動を行うアクチュエータの制御信号に基づいて前記光軸の傾斜度を検知することを特徴とする請求項1〜7の何れか1項に記載の撮像装置。   The imaging device according to any one of claims 1 to 7, wherein the detection unit detects an inclination of the optical axis based on a control signal of an actuator that drives a lens in the optical axis direction. 前記制御手段は、更に、前記抽出手段により抽出された前記特定の被写体像に適した撮影条件に変更する変更手段を有することを特徴とする請求項1〜8の何れか1項に記載の撮像装置。   9. The imaging according to claim 1, wherein the control unit further includes a changing unit configured to change to a shooting condition suitable for the specific subject image extracted by the extraction unit. apparatus. 撮像素子を有する撮像装置の制御方法において、
前記撮像素子に基づいて得られた画像信号を記憶する記憶工程と、
前記記憶工程により記憶された画像信号から特定の被写体像を抽出する抽出工程と、
水平方向に対する前記撮像装置の光軸の傾斜度を検知する検知工程と、
少なくとも前記検知工程により検知された前記光軸の傾斜度に基づいて、前記特定の被写体像の抽出形態を変更するように前記抽出工程を制御する制御工程と、
を有することを特徴とする撮像装置の制御方法。
In a control method of an imaging apparatus having an imaging element,
A storage step of storing an image signal obtained based on the image sensor;
An extraction step of extracting a specific subject image from the image signal stored by the storage step;
A detection step of detecting the inclination of the optical axis of the imaging device with respect to the horizontal direction;
A control step of controlling the extraction step so as to change the extraction form of the specific subject image based on at least the inclination of the optical axis detected by the detection step;
A method for controlling an imaging apparatus, comprising:
請求項10に記載の撮像装置の制御方法をコンピュータが実行できるようにプログラミングされてなるプログラム。   A program that is programmed so that a computer can execute the control method of the imaging apparatus according to claim 10.
JP2009001854A 2009-01-07 2009-01-07 Imaging device, control method thereof, and program Expired - Fee Related JP5264516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009001854A JP5264516B2 (en) 2009-01-07 2009-01-07 Imaging device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009001854A JP5264516B2 (en) 2009-01-07 2009-01-07 Imaging device, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2010161577A true JP2010161577A (en) 2010-07-22
JP2010161577A5 JP2010161577A5 (en) 2012-02-23
JP5264516B2 JP5264516B2 (en) 2013-08-14

Family

ID=42578418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009001854A Expired - Fee Related JP5264516B2 (en) 2009-01-07 2009-01-07 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5264516B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224981A (en) * 2001-01-30 2002-08-13 Nec Corp Human attitude recognizing robot
JP2005130468A (en) * 2003-09-29 2005-05-19 Canon Inc Imaging apparatus and its control method
JP2010088093A (en) * 2008-09-05 2010-04-15 Ricoh Co Ltd Imaging device, imaging method, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224981A (en) * 2001-01-30 2002-08-13 Nec Corp Human attitude recognizing robot
JP2005130468A (en) * 2003-09-29 2005-05-19 Canon Inc Imaging apparatus and its control method
JP2010088093A (en) * 2008-09-05 2010-04-15 Ricoh Co Ltd Imaging device, imaging method, program, and recording medium

Also Published As

Publication number Publication date
JP5264516B2 (en) 2013-08-14

Similar Documents

Publication Publication Date Title
JP4290100B2 (en) Imaging apparatus and control method thereof
JP5087856B2 (en) Electronic camera
US20110116720A1 (en) Method and apparatus for image processing
JP2010177894A (en) Imaging apparatus, image management apparatus, image management method, and computer program
US8411159B2 (en) Method of detecting specific object region and digital camera
KR101710626B1 (en) Digital photographing apparatus and control method thereof
JP2001215403A (en) Image pickup device and automatic focus detection method
JP2008054295A (en) System for and method of photographing, and computer program
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
KR20130017629A (en) Apparatus and method for processing image, and computer-readable storage medium
JP5293139B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP4890370B2 (en) Imaging device
JP2008219449A (en) Imaging device and control method thereof
JP2009094574A (en) Imaging apparatus, exchange method of image data, and program
KR20120025341A (en) Digital photographing apparatus and control method thereof
JP4360369B2 (en) Electronic camera
JP2007011200A (en) Imaging apparatus
JP2007150604A (en) Electronic camera
JP4328606B2 (en) Digital camera
JP2008219450A (en) Imaging device and control method thereof
JP2003289468A (en) Imaging apparatus
JP5264516B2 (en) Imaging device, control method thereof, and program
JP2008219451A (en) Imaging device and control method thereof
JP2011139498A (en) Imaging device and control method thereof
JP5423851B2 (en) Electronic camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130430

R151 Written notification of patent or utility model registration

Ref document number: 5264516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees