JP5256847B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5256847B2
JP5256847B2 JP2008131953A JP2008131953A JP5256847B2 JP 5256847 B2 JP5256847 B2 JP 5256847B2 JP 2008131953 A JP2008131953 A JP 2008131953A JP 2008131953 A JP2008131953 A JP 2008131953A JP 5256847 B2 JP5256847 B2 JP 5256847B2
Authority
JP
Japan
Prior art keywords
image information
image
imaging
focus adjustment
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008131953A
Other languages
Japanese (ja)
Other versions
JP2009284071A (en
Inventor
一磨 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008131953A priority Critical patent/JP5256847B2/en
Publication of JP2009284071A publication Critical patent/JP2009284071A/en
Application granted granted Critical
Publication of JP5256847B2 publication Critical patent/JP5256847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、撮像装置に関するものである。 The present invention relates to an imaging device.

画像の輝度分布に基づいて背景である可能性が高い領域を抽出し、この領域の色域を決定することで画像の中から背景領域を抽出する画像処理装置が知られている(特許文献1)。   An image processing apparatus is known that extracts a background region from an image by extracting a region that is highly likely to be a background based on the luminance distribution of the image and determining the color gamut of this region (Patent Document 1). ).

特開2002−368982号公報JP 2002-368882 A

しかしながら、画像の輝度分布を用いて画像解析すると光学系の特性によっては画像の周辺部に対して正確な輝度が得られず、正確な画像解析が行えないという問題があった。 However, when image analysis is performed using the luminance distribution of the image, there is a problem that accurate luminance cannot be obtained for the peripheral portion of the image depending on the characteristics of the optical system, and accurate image analysis cannot be performed.

この発明が解決しようとする課題は、正確な画像解析を行うことができる撮像装置を提供することである。 The problem to be Solved by the Invention is to provide a imaging device that can perform accurate image analysis.

この発明は、以下の解決手段によって上記課題を解決する。なお、発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In addition, although the code | symbol corresponding to drawing which shows embodiment of this invention is attached | subjected and demonstrated, this code | symbol is only for making an understanding of invention easy, and is not the meaning which limits invention.

本発明に係る撮像装置は、結像光学系による像を撮像する第1撮像手段と、第1画像情報及び第2画像情報を取得する前記第1撮像手段とは異なる第2撮像手段と、前記第1画像情報に対して輝度の補正を行い、前記第2画像情報に対して輝度の補正を行わない補正手段と、前記補正手段に補正された前記第1画像情報に基づいて背景に相当する領域を抽出する第1処理手段と、前記第1処理手段による抽出結果を用いて、前記第2画像情報に含まれる色情報から顔に相当する領域を抽出する第2処理手段と、前記第2処理手段により抽出された前記顔に相当する領域を追尾することにより焦点調節状態を検出するエリアを決定し、前記結像光学系の焦点調節状態を制御する焦点調節制御手段と、を備えることを特徴とする。 An imaging apparatus according to the present invention includes: a first imaging unit that captures an image by an imaging optical system; a second imaging unit that is different from the first imaging unit that acquires first image information and second image information; Corresponding to the background based on the first image information corrected by the correction means and the correction means for correcting the luminance for the first image information and not correcting the luminance for the second image information First processing means for extracting an area, second processing means for extracting an area corresponding to a face from color information included in the second image information, using the extraction result of the first processing means, and the second A focus adjustment control means for determining an area for detecting a focus adjustment state by tracking an area corresponding to the face extracted by a processing means, and controlling a focus adjustment state of the imaging optical system. Features.

上記発明において、前記焦点調節制御手段は、前記第2処理手段により抽出された領域の画像を基準画像に設定し、前記基準画像を含みこれより広い周辺の所定領域を設定し、前記第2撮像手段により取得された、前記第2画像情報より所定時間経過後の第3画像情報と前記基準画像とを前記色情報及び前記輝度に基づいて比較し、前記第3画像情報中に前記基準画像に一致する画像情報が存在する場合はその一致する画像情報の位置情報を求めるように構成することができる。 In the above invention, the focus adjustment control unit sets an image of the region extracted by the second processing unit as a reference image, sets a predetermined peripheral region including the reference image and wider than the reference image, and the second imaging The third image information obtained by the means after a predetermined time from the second image information and the reference image are compared based on the color information and the luminance, and the reference image is included in the third image information. When there is matching image information, the position information of the matching image information can be obtained.

また上記発明において、前記焦点調節制御手段は、前記焦点検出手段により求められた位置情報に基づいて焦点検出エリアを決定し、当該決定された焦点検出エリアの焦点調節状態に基づいて前記結像光学系のデフォーカス量を求め、前記デフォーカス量に基づいて、前記結像光学系を合焦位置に移動させるように構成することができる。 In the above invention, the focus adjustment control unit determines a focus detection area based on the position information obtained by the focus detection unit, and the imaging optics based on the determined focus adjustment state of the focus detection area. A defocus amount of the system can be obtained, and the imaging optical system can be moved to a focus position based on the defocus amount.

本発明に係る撮像装置は、結像光学系による像を撮像することにより第1画像情報及び第2画像情報を取得する撮像手段と、前記第1画像情報に対して輝度の補正を行い、前記第2画像情報に対して輝度の補正を行わない補正手段と、前記補正手段に補正された前記第1画像情報に基づいて背景に相当する領域を抽出する第1処理手段と、前記第1処理手段による抽出結果を用いて、前記第2画像情報から顔に相当する領域を抽出する第2処理手段と、前記第2処理手段による抽出結果を用いて、前記結像光学系の焦点調節状態を制御する焦点調節制御手段と、を備えることを特徴とする。 An imaging apparatus according to the present invention corrects luminance for the first image information, imaging means for acquiring first image information and second image information by capturing an image by an imaging optical system, Correction means that does not correct the luminance of the second image information, first processing means that extracts a region corresponding to a background based on the first image information corrected by the correction means, and the first processing A second processing unit that extracts a region corresponding to a face from the second image information using the extraction result of the unit; and a focus adjustment state of the imaging optical system using the extraction result of the second processing unit. And a focus adjustment control means for controlling.

上記発明において、前記焦点調節制御手段は、前記撮像手段により第1画像情報が取得された後、かつ、前記撮像手段により第2画像情報が取得される前に前記結像光学系の焦点調節状態を制御するように構成することができる。In the above invention, the focus adjustment control unit is configured to adjust the focus adjustment state of the imaging optical system after the first image information is acquired by the imaging unit and before the second image information is acquired by the imaging unit. Can be configured to control.

また上記発明において、前記焦点調節制御手段は、前記第2処理手段により抽出された前記顔に相当する領域を追尾することにより、焦点調節状態を検出するエリアを決定するように構成することができる。 Further, in the above invention, the focus adjustment control means can be configured to determine an area for detecting a focus adjustment state by tracking an area corresponding to the face extracted by the second processing means. .

上記発明によれば、画像解析の精度を向上させることができる。   According to the above invention, the accuracy of image analysis can be improved.

以下においては、上記発明を一眼レフデジタルカメラに適用した実施形態を図面に基づいて説明する。ただし上記発明は、銀塩フィルムカメラやコンパクトカメラその他の撮像装置にも適用することができる。 In the following, an embodiment in which the above invention is applied to a single-lens reflex digital camera will be described with reference to the drawings. However, the above-described invention can also be applied to a silver salt film camera, a compact camera, and other imaging devices.

図1は、本実施形態に係る一眼レフデジタルカメラ1を示すブロック図であり、上記発明の画像解析装置および撮像装置に関する構成以外のカメラの一般的構成については、その図示と説明を一部省略する。 FIG. 1 is a block diagram showing a single-lens reflex digital camera 1 according to the present embodiment. The illustration and description of a general configuration of the camera other than the configuration related to the image analysis apparatus and the imaging apparatus of the invention are partially omitted. To do.

本実施形態の一眼レフデジタルカメラ1(以下、単にカメラ1という。)は、カメラボディ100とレンズ鏡筒200とを備え、カメラボディ100とレンズ鏡筒200は着脱可能に結合されている。 The single-lens reflex digital camera 1 of this embodiment (hereinafter simply referred to as the camera 1) includes a camera body 100 and a lens barrel 200, and the camera body 100 and the lens barrel 200 are detachably coupled.

レンズ鏡筒200には、フォーカスレンズ211やズームレンズ212を含むレンズ群210や絞り装置220などからなる撮影光学系が内蔵されている。 The lens barrel 200 incorporates a photographing optical system including a lens group 210 including a focus lens 211 and a zoom lens 212, an aperture device 220, and the like.

フォーカスレンズ211は、その光軸L1に沿って移動可能に設けられ、フォーカスレンズエンコーダ260によってその位置が検出されつつフォーカスレンズ駆動モータ230によってその位置が調節される。そして、フォーカスレンズエンコーダ260で検出されたフォーカスレンズ211の位置情報は、レンズ制御部250を介して後述するレンズ駆動制御部165へ送信される。また、フォーカスレンズ駆動モータ230は、後述する焦点検出結果に基づいて演算された駆動量や駆動速度に応じて、レンズ駆動制御部165からレンズ制御部250を介して送信される駆動信号により駆動する。さらに、フォーカスレンズ駆動モータ230は、後述するズームレンズ212の焦点距離と関係に応じた位置に、レンズ制御部250から送信される駆動信号により駆動する。 The focus lens 211 is provided so as to be movable along the optical axis L <b> 1, and its position is adjusted by the focus lens driving motor 230 while its position is detected by the focus lens encoder 260. Then, the position information of the focus lens 211 detected by the focus lens encoder 260 is transmitted to the lens drive control unit 165 described later via the lens control unit 250. The focus lens drive motor 230 is driven by a drive signal transmitted from the lens drive control unit 165 via the lens control unit 250 in accordance with a drive amount and a drive speed calculated based on a focus detection result to be described later. . Further, the focus lens drive motor 230 is driven by a drive signal transmitted from the lens control unit 250 at a position corresponding to the focal length of the zoom lens 212 described later.

ズームレンズ212は、その光軸L1に沿って移動可能に設けられ、ズームレンズエンコーダ280によってその位置が検出されつつズームレンズ駆動モータ270によってその位置が調節される。ズームレンズ212の位置は、操作部150に設けられたズームボタンを操作することにより調節される。そして、ズームレンズエンコーダ280で検出されたズームレンズ212の位置情報は、レンズ制御部250へ送信される。   The zoom lens 212 is provided so as to be movable along the optical axis L <b> 1, and its position is adjusted by the zoom lens driving motor 270 while its position is detected by the zoom lens encoder 280. The position of the zoom lens 212 is adjusted by operating a zoom button provided on the operation unit 150. Then, the position information of the zoom lens 212 detected by the zoom lens encoder 280 is transmitted to the lens control unit 250.

絞り装置220は、上記撮影光学系を通過して撮像素子110に至る光束の光量を制限するために、光軸L1を中心にした開口径が調節可能とされている。絞り装置220による開口径の調節は、たとえば自動露出モードにおいて演算された絞り値に応じた信号が、カメラ制御部170からレンズ制御部250を介して絞り駆動部240へ送信されることにより行われる。また、開口径の調節は、カメラボディ100に設けられた操作部150によるマニュアル操作により、設定された絞り値に応じた信号がカメラ制御部170からレンズ制御部250を介して絞り駆動部240へ送信されることによっても行われる。 The aperture device 220 is adjustable in its aperture diameter around the optical axis L1 in order to limit the amount of light beam that passes through the photographing optical system and reaches the image sensor 110. The aperture diameter is adjusted by the aperture device 220 by, for example, transmitting a signal corresponding to the aperture value calculated in the automatic exposure mode from the camera control unit 170 to the aperture drive unit 240 via the lens control unit 250. . The aperture diameter is adjusted by a manual operation by the operation unit 150 provided in the camera body 100, and a signal corresponding to the set aperture value is transmitted from the camera control unit 170 to the aperture drive unit 240 via the lens control unit 250. This is also done by sending it.

レンズ鏡筒200にはレンズ制御部250が設けられている。レンズ制御部250はマイクロプロセッサとメモリなどの周辺部品から構成され、カメラ制御部170と電気的に接続され、このカメラ制御部170からデフォーカス量や絞り制御信号などの情報を受信するとともに、カメラ制御部170へレンズ情報を送信する。 The lens barrel 200 is provided with a lens control unit 250. The lens control unit 250 includes a microprocessor and peripheral components such as a memory, and is electrically connected to the camera control unit 170. The lens control unit 250 receives information such as a defocus amount and an aperture control signal from the camera control unit 170, and a camera. The lens information is transmitted to the controller 170.

一方、カメラボディ100は、被写体からの光束を撮像素子110、ファインダ135、測光センサ137及び焦点検出モジュール161へ導くためのミラー系120を備える。このミラー系120は、回転軸123を中心にして被写体の観察位置と撮影位置との間で所定角度だけ回転するクイックリターンミラー121と、このクイックリターンミラー121に軸支されてクイックリターンミラー121の回動に合わせて回転するサブミラー122とを備える。図1においては、ミラー系120が被写体の観察位置にある状態を実線で示し、被写体の撮影位置にある状態を二点鎖線で示す。 On the other hand, the camera body 100 includes a mirror system 120 for guiding the light flux from the subject to the image sensor 110, the finder 135, the photometric sensor 137, and the focus detection module 161. The mirror system 120 includes a quick return mirror 121 that rotates by a predetermined angle between the observation position and the photographing position of the subject around the rotation axis 123, and the quick return mirror 121 that is pivotally supported by the quick return mirror 121. And a sub mirror 122 that rotates in accordance with the rotation. In FIG. 1, a state where the mirror system 120 is at the observation position of the subject is indicated by a solid line, and a state where the mirror system 120 is at the photographing position of the subject is indicated by a two-dot chain line.

ミラー系120は、被写体の観察位置にある状態では光軸L1の光路上に挿入される一方で、被写体の撮影位置にある状態では光軸L1の光路から退避するように回転する。 The mirror system 120 is inserted on the optical path of the optical axis L1 in the state where the subject is in the observation position, while rotating so as to retract from the optical path of the optical axis L1 in the state where the subject is in the photographing position.

クイックリターンミラー121はハーフミラーで構成され、被写体の観察位置にある状態では、被写体からの光束(光軸L1)の一部の光束(光軸L2,L3)を当該クイックリターンミラー121で反射してファインダ135および測光センサ137へ導き、一部の光束(光軸L4)を透過させてサブミラー122へ導く。これに対して、サブミラー122は全反射ミラーで構成され、クイックリターンミラー121を透過した光束(光軸L4)を焦点検出モジュール161へ導く。 The quick return mirror 121 is composed of a half mirror, and in a state where the subject is at the observation position, the quick return mirror 121 reflects a part of the light flux (optical axes L2 and L3) from the subject (optical axis L1). Then, the light is guided to the finder 135 and the photometric sensor 137, and a part of the light beam (optical axis L4) is transmitted and guided to the sub mirror 122. On the other hand, the sub mirror 122 is configured by a total reflection mirror, and guides the light beam (optical axis L4) transmitted through the quick return mirror 121 to the focus detection module 161.

したがって、ミラー系120が観察位置にある場合は、被写体からの光束(光軸L1)はファインダ135、測光センサ137および焦点検出モジュール161へ導かれ、撮影者により被写体が観察されるとともに、露出演算やフォーカスレンズ211の焦点調節状態の検出が実行される。そして、撮影者がレリーズボタンを全押しするとミラー系120が撮影位置に回動し、被写体からの光束(光軸L1)は全て撮像素子110へ導かれ、撮影した画像データを図示しないメモリに保存する。 Therefore, when the mirror system 120 is at the observation position, the light flux (optical axis L1) from the subject is guided to the finder 135, the photometric sensor 137, and the focus detection module 161, and the subject is observed by the photographer and exposure calculation is performed. And the focus adjustment state of the focus lens 211 is detected. Then, when the photographer fully presses the release button, the mirror system 120 rotates to the photographing position, and all the luminous flux (optical axis L1) from the subject is guided to the image sensor 110, and the photographed image data is stored in a memory (not shown). To do.

焦点検出モジュール161は、被写体光を用いた位相差検出方式による自動合焦制御を実行するための焦点検出素子であり、サブミラー122で反射した光束(光軸L4)の、撮像素子110の撮像面と光学的に等価な位置に固定されている。   The focus detection module 161 is a focus detection element for executing automatic focusing control by a phase difference detection method using subject light, and the imaging surface of the imaging element 110 of the light beam (optical axis L4) reflected by the sub-mirror 122. It is fixed at an optically equivalent position.

図2は、図1に示す焦点検出モジュール161の構成例を示す図である。 FIG. 2 is a diagram illustrating a configuration example of the focus detection module 161 illustrated in FIG.

本例の焦点検出モジュール161は、コンデンサレンズ161a、一対の開口が形成された絞りマスク161b、一対の再結像レンズ161cおよび一対のラインセンサ161dを有し、フォーカスレンズ211の射出瞳の異なる一対の領域を通る一対の光束をラインセンサ161dで受光して得られる一対の像信号の位相ずれを周知の相関演算によって求めることにより焦点調節状態を検出する。 The focus detection module 161 of this example includes a condenser lens 161a, a diaphragm mask 161b having a pair of apertures, a pair of re-imaging lenses 161c, and a pair of line sensors 161d. The focus adjustment state is detected by obtaining a phase shift of a pair of image signals obtained by receiving a pair of light fluxes passing through the region by a line sensor 161d by a known correlation calculation.

そして、図2に示すように被写体Pが撮像素子110の等価面(予定結像面)161eで結像すると合焦状態となるが、フォーカスレンズ211が光軸L1方向に移動することで、結像点が等価面161eより被写体側にずれたり(前ピンと称される)、カメラボディ100側にずれたりすると(後ピンと称される)、ピントずれの状態となる。 As shown in FIG. 2, when the subject P is imaged on the equivalent surface (scheduled imaging surface) 161e of the image sensor 110, the focused state is obtained. However, the focus lens 211 moves in the direction of the optical axis L1, and the result is as follows. If the image point shifts from the equivalent surface 161e toward the subject (referred to as a front pin) or shifts toward the camera body 100 (referred to as a rear pin), a focus shift state occurs.

なお、被写体Pの結像点が等価面161eより被写体側にずれると、一対のラインセンサ161dで検出される一対の像信号の間隔Wが、合焦状態の間隔Wに比べて短くなり、逆に被写体像Pの結像点がカメラボディ100側にずれると、一対のラインセンサ161dで検出される一対の像信号の間隔Wが、合焦状態の間隔Wに比べて長くなる。 When the imaging point of the subject P is shifted from the equivalent surface 161e toward the subject, the interval W between the pair of image signals detected by the pair of line sensors 161d becomes shorter than the interval W in the focused state, and vice versa. If the imaging point of the subject image P is shifted to the camera body 100 side, the interval W between the pair of image signals detected by the pair of line sensors 161d becomes longer than the interval W in the focused state.

すなわち、合焦状態では一対のラインセンサ161dで検出される像信号がラインセンサの中心に対して重なるが、非合焦状態ではラインセンサの中心に対して各像信号がずれる、すなわち位相差が生じるので、この位相差(ずれ量)に応じた量だけフォーカスレンズ211を移動させることでピントを合わせる。 That is, in the in-focus state, the image signals detected by the pair of line sensors 161d overlap with the center of the line sensor, but in the out-of-focus state, each image signal is shifted from the center of the line sensor, that is, the phase difference is increased. Therefore, focusing is performed by moving the focus lens 211 by an amount corresponding to the phase difference (deviation amount).

図1に戻り、AF−CCD制御部162は、オートフォーカスモードにおいて、焦点検出モジュール161のラインセンサ161dのゲインや蓄積時間を制御するもので、焦点検出位置として選択された焦点検出エリアに関する情報をカメラ制御部170から受け、この焦点検出エリアに相当する一対のラインセンサ161dにて検出された一対の像信号を読み出し、デフォーカス演算部163へ出力する。 Returning to FIG. 1, the AF-CCD control unit 162 controls the gain and accumulation time of the line sensor 161 d of the focus detection module 161 in the autofocus mode, and stores information on the focus detection area selected as the focus detection position. A pair of image signals received from the camera control unit 170 and detected by the pair of line sensors 161 d corresponding to the focus detection area are read and output to the defocus calculation unit 163.

デフォーカス演算部163は、AF−CCD制御部162から送られてきた一対の像信号のずれ量をデフォーカス量ΔWに変換し、これをレンズ駆動量演算部164へ出力する。 The defocus calculation unit 163 converts the shift amount of the pair of image signals sent from the AF-CCD control unit 162 into a defocus amount ΔW, and outputs this to the lens drive amount calculation unit 164.

レンズ駆動量演算部164は、デフォーカス演算部163から送られてきたデフォーカス量ΔWに基づいて、当該デフォーカス量ΔWに応じたレンズ駆動量Δdを演算し、これをレンズ駆動制御部165へ出力する。 The lens drive amount calculation unit 164 calculates a lens drive amount Δd corresponding to the defocus amount ΔW based on the defocus amount ΔW sent from the defocus calculation unit 163, and supplies this to the lens drive control unit 165. Output.

レンズ駆動制御部165は、レンズ駆動量演算部164から送られてきたレンズ駆動量Δdに基づいてレンズ駆動モータ230へ駆動指令を送出し、レンズ駆動量Δdだけフォーカスレンズ211を移動させる。 The lens drive control unit 165 sends a drive command to the lens drive motor 230 based on the lens drive amount Δd sent from the lens drive amount calculation unit 164, and moves the focus lens 211 by the lens drive amount Δd.

撮像素子110は、カメラボディ100の、被写体からの光束の光軸L1上であって、レンズ群210を含む撮影光学系の予定焦点面となる位置に設けられ、その前面にシャッター111が設けられている。撮像素子110は、複数の光電変換素子が二次元に配列されたものであって、二次元CCDイメージセンサ、MOSセンサまたはCIDなどで構成することができる。この撮像素子110で光電変換された電気画像信号は、カメラ制御部170で画像処理されたのち図示しないメモリに保存される。なお、撮影画像を格納するメモリは内蔵型メモリやカード型メモリなどで構成することができる。 The image sensor 110 is provided on the camera body 100 on the optical axis L1 of the light beam from the subject and at a position that is a planned focal plane of the photographing optical system including the lens group 210, and a shutter 111 is provided on the front surface thereof. ing. The imaging element 110 is a two-dimensional array of a plurality of photoelectric conversion elements, and can be configured by a two-dimensional CCD image sensor, a MOS sensor, a CID, or the like. The electrical image signal photoelectrically converted by the image sensor 110 is subjected to image processing by the camera control unit 170 and then stored in a memory (not shown). Note that the memory for storing the photographed image can be constituted by a built-in memory or a card-type memory.

一方、クイックリターンミラー121で反射した被写体からの光束は、撮像素子110と光学的に等価な面に配置された焦点板131に結像し、ペンタプリズム133と接眼レンズ134とを介して撮影者の眼球に導かれる。このとき、透過型液晶表示器132は、焦点板131上の被写体像に焦点検出エリアマークなどを重畳して表示するとともに、被写体像外のエリアにシャッター速度、絞り値、撮影枚数などの撮影に関する情報を表示する。これにより、撮影準備状態において、ファインダ135を通して被写体およびその背景ならびに撮影関連情報などを観察することができる。 On the other hand, the light flux from the subject reflected by the quick return mirror 121 forms an image on a focusing screen 131 disposed on a surface optically equivalent to the image sensor 110, and the photographer passes through the pentaprism 133 and the eyepiece 134. Led to the eyeball. At this time, the transmissive liquid crystal display 132 superimposes and displays a focus detection area mark on the subject image on the focusing screen 131 and relates to shooting such as the shutter speed, aperture value, and number of shots in an area outside the subject image. Display information. Thereby, in the shooting preparation state, the subject, its background, shooting related information, and the like can be observed through the finder 135.

操作部150は、シャッターレリーズボタン、ズームボタン、および撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、自動露出モード/マニュアル露出モード、オートフォーカスモード/マニュアルフォーカスモードの切換や、オートフォーカスモードの中でも、ワンショットモード/コンティニュアスモードの切換が行えるようになっている。 The operation unit 150 is a shutter release button, a zoom button, and an input switch for the photographer to set various operation modes of the camera 1, and switches between automatic exposure mode / manual exposure mode, auto focus mode / manual focus mode, Even in the auto focus mode, switching between the one-shot mode / continuous mode can be performed.

また、シャッターレリーズボタンは全押ししたときにシャッターがONされるが、これ以外にも、オートフォーカスモードにおいて当該ボタンを半押しするとフォーカスレンズの合焦動作がONとなり、ボタンを離すとOFFになる。また、単写/連写設定ボタンも含まれ、連写モードでレリーズボタンを全押しすると1秒間に所定枚数の画像を撮影することができる。 In addition, the shutter release button is turned on when the shutter release button is fully pressed, but in addition to this, when the button is pressed halfway in the auto focus mode, the focusing operation of the focus lens is turned on, and when the button is released, it is turned off. . A single / continuous shooting setting button is also included, and a predetermined number of images can be taken per second when the release button is fully pressed in the continuous shooting mode.

また、ズームボタンは、広角側にズーミングするWボタンと、望遠側にズーミングするTボタンとを備え、Wボタンを押すとズームレンズ212の焦点距離を短くするようにズームレンズ駆動モータ270が駆動し、Tボタンを押すとズームレンズ212の焦点距離を長くするようにズームレンズ駆動モータ270が駆動する。これらの操作部150により設定された各種モードはカメラ制御部170へ送信される。 The zoom button also includes a W button that zooms to the wide-angle side and a T button that zooms to the telephoto side. When the W button is pressed, the zoom lens drive motor 270 is driven to shorten the focal length of the zoom lens 212. When the T button is pressed, the zoom lens driving motor 270 is driven so as to increase the focal length of the zoom lens 212. Various modes set by the operation unit 150 are transmitted to the camera control unit 170.

カメラボディ100にはカメラ制御部170が設けられている。カメラ制御部170はマイクロプロセッサとメモリなどの周辺部品から構成され、レンズ制御部250と電気的に接続され、このレンズ制御部250からレンズ情報を受信するとともに、レンズ制御部250へデフォーカス量や絞り制御信号などの情報を送信する。また、カメラ制御部170は、上述したように撮像素子110から画像情報を読み出すとともに、必要に応じて所定の情報処理を施し、図示しないメモリに出力する。また、カメラ制御部170は、撮影画像情報の補正やレンズ鏡筒200の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。 The camera body 100 is provided with a camera control unit 170. The camera control unit 170 includes a microprocessor and peripheral components such as a memory, and is electrically connected to the lens control unit 250. The camera control unit 170 receives lens information from the lens control unit 250. Information such as an aperture control signal is transmitted. The camera control unit 170 reads out image information from the image sensor 110 as described above, performs predetermined information processing as necessary, and outputs the information to a memory (not shown). The camera control unit 170 controls the entire camera 1 such as correction of captured image information and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 200.

接眼レンズ134の近傍には、測光用レンズ136と測光センサ137が設けられ、焦点板131に結像した被写体光の一部を受光する。 In the vicinity of the eyepiece lens 134, a photometric lens 136 and a photometric sensor 137 are provided to receive part of the subject light imaged on the focusing screen 131.

本例の測光センサ137は、二次元カラーCCDイメージセンサなどで構成され、受光した光束の輝度に応じた測光信号を所定の画素群ごとにカメラ制御部170へ出力し、撮影の際の撮像素子110の露出値を演算する。また、測光センサ137による画素ごと又は所定の画素群ごとの測光信号は、カメラ制御部170へ出力されて、撮影シーンの解析や認識にも用いられ、輝度や色彩に基づいて焦点調節対象の位置を解析または認識したり、人物撮影や風景撮影などの撮影モードの選択をしたり、各種画像解析処理に用いられる。以下、本例のカメラ1の画像解析処理について説明する。 The photometric sensor 137 of this example is composed of a two-dimensional color CCD image sensor or the like, and outputs a photometric signal corresponding to the luminance of the received light flux to the camera control unit 170 for each predetermined pixel group, and an image sensor for photographing. An exposure value of 110 is calculated. A photometric signal for each pixel or predetermined pixel group by the photometric sensor 137 is output to the camera control unit 170 and used for analysis and recognition of a shooting scene, and the position of a focus adjustment target based on luminance and color. Is used for various image analysis processes. Hereinafter, the image analysis processing of the camera 1 of this example will be described.

図3A〜図3Eは、測光センサ137を示す正面図であって本例のカメラ1の画像解析例を説明するための図である。本例の測光センサ137は、横方向にi行、縦方向にj列のi×j個の受光部(画素)137aを有する二次元カラーCCDイメージセンサであり、左上の受光部137aを[1][1]としたときのi行j列の受光部137aを受光部[i][j]と称する。   3A to 3E are front views showing the photometric sensor 137 and are diagrams for explaining an image analysis example of the camera 1 of this example. The photometric sensor 137 of this example is a two-dimensional color CCD image sensor having i × j light receiving portions (pixels) 137a with i rows in the horizontal direction and j columns in the vertical direction. ] [1], the light receiving part 137a of i rows and j columns is referred to as a light receiving part [i] [j].

図4Aは本例のカメラ1の動作例を示すフローチャート、図4Bは図4AのステップS7のサブルーチンを示すフローチャートである。   FIG. 4A is a flowchart showing an operation example of the camera 1 of this example, and FIG. 4B is a flowchart showing a subroutine of step S7 in FIG. 4A.

本例のカメラ1では、測光センサ137で撮像された画像情報から被写体の背景領域を抽出する処理と、同じく測光センサ137で撮像された画像情報から被写体(人物)の顔領域を抽出する処理を実行する。以下、図3Aに示すように、向かって中央左側に人物137A、中央右側に木137B、手前に道路137Cがある被写界を撮影した場合を例に挙げて説明する。   In the camera 1 of this example, a process of extracting the background area of the subject from the image information captured by the photometric sensor 137 and a process of extracting the face area of the subject (person) from the image information captured by the photometric sensor 137 are performed. Run. Hereinafter, as shown in FIG. 3A, a case where a scene with a person 137 </ b> A on the center left side, a tree 137 </ b> B on the center right side, and a road 137 </ b> C in front is taken as an example.

まず、カメラ1の主電源をONすると、測光センサ137を用いて撮影光学系210による画像を所定間隔で取得する(ステップS1)。   First, when the main power supply of the camera 1 is turned on, images by the photographing optical system 210 are acquired at predetermined intervals using the photometric sensor 137 (step S1).

ステップS1で取得された画像の輝度情報はカメラ制御部170へ送出され、カメラ制御部170において輝度情報に基づいて撮影光学系210の光学特性等による光量の補正処理を実行する(ステップS2)。 The luminance information of the image acquired in step S1 is sent to the camera control unit 170, and the camera control unit 170 executes light amount correction processing based on the optical characteristics of the photographing optical system 210 based on the luminance information (step S2).

ここで、ステップS1で取得された画像の受光部[i][j]の輝度出力をVy[i][j]、受光部[i][j]のRGB各色の出力をそれぞれVr[i][j],Vg[i][j],Vb[i][j]、各受光部のRGB各色の出力を合成して輝度値を算出するための定数をそれぞれRmix,Gmix,Bmixとすると、補正処理前の輝度出力Vy[i][j]は、下記式1で表わされる。   Here, the luminance output of the light receiving unit [i] [j] of the image acquired in step S1 is Vy [i] [j], and the output of each RGB color of the light receiving unit [i] [j] is Vr [i]. [J], Vg [i] [j], Vb [i] [j], and the constants for calculating the luminance value by synthesizing the RGB outputs of each light receiving unit are Rmix, Gmix, and Bmix, respectively. The luminance output Vy [i] [j] before the correction process is expressed by the following formula 1.

《式1》
Vy[i][j]=
Rmix×Vr[i][j]+Gmix×Vg[i][j]+Bmix×Vb[i][j]
ステップS2の光量補正処理では、上記式1の輝度出力Vy[i][j]を下記式2に基づいて補正する。これにより、周辺部の光量低下が生じることがある広角レンズなどについて光量補正がされ、続くステップS3における背景領域の抽出精度が向上することになる。
<< Formula 1 >>
Vy [i] [j] =
Rmix × Vr [i] [j] + Gmix × Vg [i] [j] + Bmix × Vb [i] [j]
In the light amount correction process of step S2, the luminance output Vy [i] [j] of the above equation 1 is corrected based on the following equation 2. As a result, the light amount is corrected for a wide-angle lens or the like that may cause a decrease in the light amount in the peripheral portion, and the background area extraction accuracy in the subsequent step S3 is improved.

なお、式2において、VyZ[i][j]は補正後の輝度出力、Kadj[i][j]は各受光部137aに光量補正を施すための係数である。補正後の輝度出力VyZ[i][j]を図3Bに示す。 In Equation 2, VyZ [i] [j] is a luminance output after correction, and Kadj [i] [j] is a coefficient for performing light amount correction on each light receiving unit 137a. The corrected luminance output VyZ [i] [j] is shown in FIG. 3B.

《式2》
VyZ[i][j]=Vy[i][j]×Kadj[i][j]
ステップS2において各受光部137aの輝度出力が補正されると、補正後の輝度出力VyZ[i][j]の各列に対し(図3B)、下記式3および式4に基づいて背景領域の判定を行なう。
<< Formula 2 >>
VyZ [i] [j] = Vy [i] [j] × Kadj [i] [j]
When the luminance output of each light receiving unit 137a is corrected in step S2, for each column of the corrected luminance output VyZ [i] [j] (FIG. 3B), the background region is calculated based on the following equations 3 and 4. Make a decision.

《式3》
|log(VyZ[i][j])−log(VyZ[i][1])|<B
《式4》
M1[i][j−1]≠0
上記式3において、Bは予め実験等で求めた判定閾値、log(VyZ[i][j])は2を底数とする輝度出力VyZ[i][j]の対数、log(VyZ[i][1])は2を底数とする輝度出力VyZ[i][1]の対数であり、単位は全てAPEX(Additive System of Photographic Exposure)演算などで用いられる段(ステップ)である。
<< Formula 3 >>
| Log 2 (VyZ [i] [j]) − log 2 (VyZ [i] [1]) | <B
<< Formula 4 >>
M1 [i] [j-1] ≠ 0
In Equation 3 above, B is a determination threshold obtained in advance by experiments, log 2 (VyZ [i] [j]) is the logarithm of the luminance output VyZ [i] [j] with 2 as the base, and log 2 (VyZ [ i] [1]) is a logarithm of the luminance output VyZ [i] [1] with 2 as the base, and all units are steps used in an APEX (Additive System of Photographic Exposure) operation or the like.

また、上記式4において、M1は背景領域か否かの判定フラグであり、M1[i][1]の初期値は1、j≠1を満たすM1[i][j]の初期値は0である。 In Equation 4, M1 is a flag for determining whether or not it is a background region. The initial value of M1 [i] [1] is 1, and the initial value of M1 [i] [j] that satisfies j ≠ 1 is 0. It is.

ここで、測光センサ137の最上列[i][1]の受光部137aに相当する被写界領域は背景領域である可能性が高いと言えるので、この最上列[i][1]の受光部137aの輝度出力VyZ[i][1]に対し、判定閾値Bの範囲内にある輝度域を背景領域の輝度域に設定する。そして、j=2,3,4…のようにjが小さい方から順に輝度出力VyZ[i][j]のjに代入したときに上記式3を満たす受光部137aの判定フラグM1[i][j]を初期値0から1に置換する。   Here, it can be said that there is a high possibility that the object field area corresponding to the light receiving unit 137a in the uppermost row [i] [1] of the photometric sensor 137 is the background region, and thus the light receiving in the uppermost row [i] [1]. For the luminance output VyZ [i] [1] of the unit 137a, the luminance region within the determination threshold B is set as the luminance region of the background region. Then, the determination flag M1 [i] of the light receiving unit 137a that satisfies the above expression 3 when j is assigned to j of the luminance output VyZ [i] [j] in order from the smallest j as j = 2, 3, 4,. [J] is replaced with an initial value 0 to 1.

測光センサ137の最下列まで上記演算を終了すると、M1[i][j]=1となった受光部137aを抽出する。抽出された背景領域137Dを図3Cに示す。このようにして抽出された背景領域137Dの情報は、たとえば焦点検出エリアの選択や露出制御を決める情報として利用することができる。   When the calculation is completed up to the lowest row of the photometric sensor 137, the light receiving unit 137a having M1 [i] [j] = 1 is extracted. The extracted background region 137D is shown in FIG. 3C. The information of the background region 137D extracted in this way can be used as information that determines, for example, selection of a focus detection area and exposure control.

次に、被写界の撮像画像から人物137Aの顔領域を抽出する。すなわち、ステップS4において、上記ステップS1と同様に測光センサ137を用いて撮影光学系210による画像を所定間隔で取得する。   Next, the face area of the person 137A is extracted from the captured image of the scene. That is, in step S4, images by the photographing optical system 210 are acquired at predetermined intervals using the photometric sensor 137 as in step S1.

また、ステップS5では所定の焦点検出エリアにおける焦点調節状態を焦点検出モジュール161により検出し、デフォーカス演算部163、レンズ駆動量演算部164、レンズ駆動制御部165、レンズ制御部250およびフォーカスレンズ駆動モータ230を介して上述した手順でフォーカスレンズ211を合焦位置へ駆動し、その位置をフォーカスレンズエンコーダ260で検出することにより撮影距離を検出する。 In step S5, the focus adjustment state in the predetermined focus detection area is detected by the focus detection module 161, and the defocus calculation unit 163, the lens drive amount calculation unit 164, the lens drive control unit 165, the lens control unit 250, and the focus lens drive. The focus lens 211 is driven to the in-focus position by the procedure described above via the motor 230, and the shooting distance is detected by detecting the position by the focus lens encoder 260.

ステップS6では顔領域を抽出する。ここでは、ステップS3で抽出された背景領域(図3C参照)以外の領域に人物137Aの顔領域が存在することを前提にして顔領域を抽出するが、ステップS4にて取得した画像全体に対して以下の処理を実行することもできる。   In step S6, a face area is extracted. Here, the face area is extracted on the assumption that the face area of the person 137A exists in an area other than the background area (see FIG. 3C) extracted in step S3, but the entire image acquired in step S4 is extracted. The following processing can also be executed.

まず、ステップS3にて抽出された背景領域137Dを除く領域の画像に対し、色相Hを算出する。この色相Hは、測光センサ137の各受光部137aの各RGBの出力をR,G,B、その最大値をMAX、最小値をMINとしたときに、MAXがR(赤)の出力である場合は、色相H=60×(G−B)/(MAX−MIN)であり、同様にしてMAXがG(緑)の出力である場合は、色相H=120+60×(B−R)/(MAX−MIN)であり、MAXがB(青)の出力である場合は、色相H=240+60×(R−G)/(MAX−MIN)である。   First, the hue H is calculated for the image of the region excluding the background region 137D extracted in step S3. The hue H is an output of R (red) when the RGB output of each light receiving unit 137a of the photometric sensor 137 is R, G, B, the maximum value is MAX, and the minimum value is MIN. In this case, hue H = 60 × (GB) / (MAX−MIN). Similarly, when MAX is an output of G (green), hue H = 120 + 60 × (BR) / ( MAX−MIN), and when MAX is an output of B (blue), hue H = 240 + 60 × (RG) / (MAX−MIN).

次いで、受光部[i][j]の色相をH[i][j]、人肌の色相範囲を設定するための定数をHloconst,Hhiconst(Hloconst,Hhiconstはたとえば0〜30°)としたときに、下記式5を満たす受光部[i][j]を抽出する。図3Dに式5を満たす顔領域候補として抽出された領域137F1,137F2を示す。   Next, when the hue of the light receiving unit [i] [j] is H [i] [j] and the constant for setting the hue range of the human skin is Hloconst, Hhiconst (Hloconst, Hhiconst is 0 to 30 °, for example) Then, the light receiving part [i] [j] satisfying the following formula 5 is extracted. FIG. 3D shows regions 137F1 and 137F2 extracted as face region candidates satisfying Expression 5.

≪式5≫
Hloconst<H[i][j]<Hhiconst
次いで、カメラ制御部170は、顔幅に相当する測光センサ137の受光部137aの数Fwidth(画素数)を下記式6により求める。式6において、Ftypは実際の人物の顔の幅に相当する定数、fは撮影光学系210の焦点距離、DはステップS5にて検出された所定の焦点検出エリアにおける撮影距離、pは測光センサ130の受光部137aのピッチである。
<< Formula 5 >>
Hloconst <H [i] [j] <Hhiconst
Next, the camera control unit 170 obtains the number Fwidth (number of pixels) of the light receiving units 137a of the photometric sensor 137 corresponding to the face width by the following formula 6. In Equation 6, Ftyp is a constant corresponding to the actual human face width, f is the focal length of the photographing optical system 210, D is the photographing distance in the predetermined focus detection area detected in step S5, and p is a photometric sensor. The pitch of 130 light receiving portions 137a.

≪式6≫
Fwidth=(Ftyp×f)/(D×p)
なお、上記式6はクイックリターンミラー121から測光用レンズ136を光束が通過する間に像倍率の変更はないものとした関係式であるが、像倍率が変更される光学系においてもその倍率を考慮した関係式(たとえばピッチpを適宜の値にする)にすることで受光部数Fwidthを求めることができる。
≪Formula 6≫
Fwidth = (Ftyp × f) / (D × p)
The above formula 6 is a relational expression in which the image magnification is not changed while the light beam passes from the quick return mirror 121 through the photometric lens 136, but the magnification is also used in an optical system in which the image magnification is changed. The number of light receiving portions Fwidth can be obtained by taking into consideration a relational expression (for example, the pitch p is set to an appropriate value).

次いで、上記式6で求められた受光部数Fwidthと、上記式5で抽出された顔領域候補137F1,137F2の受光部数とを比較し、一致する場合はその領域を顔領域と判断する。図3Dに示す2つの顔領域候補137F1,137F2については、一方の顔領域候補137F1のみが受光部数Fwidthと一致するので、図3Eに示すように、この領域137F1を顔領域の検出結果とする。 Next, the number of light receiving portions Fwidth obtained by the above equation 6 is compared with the number of light receiving portions of the face area candidates 137F1 and 137F2 extracted by the above equation 5, and if they match, the region is determined as a face region. As for the two face area candidates 137F1 and 137F2 shown in FIG. 3D, only one face area candidate 137F1 matches the number of light receiving portions Fwidth, so that this area 137F1 is set as a face area detection result as shown in FIG. 3E.

以上のようにして顔領域137F1が抽出されるが、この画像解析処理では輝度より色相が重要であることから、ステップS2で行った光量補正は行わない。したがって、そのぶんの演算負荷が軽減されることになる。   As described above, the face region 137F1 is extracted. However, since the hue is more important than the luminance in the image analysis process, the light amount correction performed in step S2 is not performed. Therefore, the calculation load is reduced.

ステップS6で抽出された顔領域137F1の情報は、たとえば次のステップS7における焦点検出に利用される。ここでは、抽出された顔領域137の位置を追尾しながらその領域に合焦させる処理を実行するものとする。   The information on the face area 137F1 extracted in step S6 is used for focus detection in the next step S7, for example. Here, it is assumed that a process of focusing on the extracted face area 137 while tracking the position of the face area 137 is executed.

すなわち、まず図4AのステップS71にて設定された被写体エリア、たとえばステップS6で抽出された顔領域137F1の画像を抽出し、テンプレート画像を生成する。次いで、ステップS72にて、顔領域137F1を含みこれより広い周辺の所定エリアを設定し、所定時間経過後の周辺エリアに相当する画像情報を測光センサ137の出力信号に基づいて生成し、先に生成したテンプレート画像と比較する。この比較の際に用いられる画像情報は、測光センサ137により検出される色情報及び輝度値であり、テンプレート画像と周辺画像との一致の度合いを類似度として評価するとともに、周辺エリアに他に一致するエリアが存在したかどうかといった可能性の有無を信頼度として評価する。   That is, first, the subject area set in step S71 of FIG. 4A, for example, the image of the face area 137F1 extracted in step S6 is extracted to generate a template image. Next, in step S72, a predetermined area around the face area 137F1 that is wider than this is set, and image information corresponding to the peripheral area after a predetermined time has elapsed is generated based on the output signal of the photometric sensor 137. Compare with the generated template image. The image information used in this comparison is the color information and the luminance value detected by the photometric sensor 137, and the degree of matching between the template image and the surrounding image is evaluated as the similarity and the other matches the surrounding area. Whether or not there is an area to be evaluated is evaluated as reliability.

そして、ステップS73にて、周辺エリアの画像とテンプレート画像とのマッチング処理を実行し、マッチングする場合はステップS74へ進み、周辺エリアの画像のうちマッチングするエリアの二次元座標を演算して求める。なお、マッチングしない場合はステップS71へ戻り、以上の処理を繰り返す。 In step S73, matching processing between the image of the peripheral area and the template image is executed. When matching is performed, the process proceeds to step S74, and the two-dimensional coordinates of the matching area among the images of the peripheral area are calculated and obtained. If there is no matching, the process returns to step S71 and the above processing is repeated.

テンプレート画像とマッチングし、そのエリアの二次元座標が求められたら、カメラ制御部170にてマッチングした旨と座標情報を保持する。さらに、マッチング処理した結果、テンプレート画像と周辺画像との類似度及び信頼度についてもカメラ制御部170にて保持する。   When matching with the template image and the two-dimensional coordinates of the area are obtained, the camera control unit 170 holds the matching information and the coordinate information. Further, as a result of the matching processing, the camera control unit 170 also holds the similarity and reliability between the template image and the peripheral image.

次いで、ステップS75にてマッチングしたエリアの二次元座標に基づいて焦点検出する焦点検出エリアを決定し、この焦点検出エリアにおける焦点調節状態を焦点検出モジュール161により検出する。そして、ステップS76にて、デフォーカス演算部163、レンズ駆動量演算部164、レンズ駆動制御部165、レンズ制御部250およびフォーカスレンズ駆動モータ230を介して上述した手順でフォーカスレンズ211を合焦位置へ駆動する。   Next, a focus detection area for focus detection is determined based on the two-dimensional coordinates of the matched areas in step S75, and the focus adjustment state in this focus detection area is detected by the focus detection module 161. In step S76, the focus lens 211 is moved to the in-focus position by the above-described procedure via the defocus calculation unit 163, the lens drive amount calculation unit 164, the lens drive control unit 165, the lens control unit 250, and the focus lens drive motor 230. Drive to.

ステップS77では合焦状態を判定し、所定の閾値内である場合は図4Aのステップ8へ進み、合焦状態が所定の閾値外である場合はステップS71へ戻って以上の処理を繰り返す。   In step S77, the in-focus state is determined. If the in-focus state is within the predetermined threshold, the process proceeds to step 8 in FIG. 4A. If the in-focus state is out of the predetermined threshold, the process returns to step S71 and the above processing is repeated.

図4Aに戻り、ステップS8にてレリーズボタンが押されるとクイックリターンミラー121が退避位置に回動するとともにシャッター111が開き、撮像素子110により撮影光学系210を通過した被写体像を撮像する(ステップS9)。以上の処理は主電源がOFFされるまで継続する(ステップS10)。   Returning to FIG. 4A, when the release button is pressed in step S8, the quick return mirror 121 is rotated to the retracted position and the shutter 111 is opened, and the image of the subject that has passed through the photographing optical system 210 is captured by the image sensor 110 (step). S9). The above processing continues until the main power is turned off (step S10).

以上のように、本実施形態のカメラ1によれば、主として輝度情報に基づいて背景領域を抽出する画像解析処理においては光量の補正処理を実行するのに対し、主として色情報に基づいて顔領域を抽出する画像解析処理においては光量の補正処理を実行しないので、演算負荷を低減することができる。   As described above, according to the camera 1 of the present embodiment, the light amount correction process is executed in the image analysis process that extracts the background area mainly based on the luminance information, whereas the face area is mainly based on the color information. In the image analysis process for extracting the light amount, the light amount correction process is not executed, so that the calculation load can be reduced.

発明の実施形態に係るカメラを示すブロック図である。It is a block diagram which shows the camera which concerns on embodiment of invention. 図1の焦点検出モジュールを示す図である。It is a figure which shows the focus detection module of FIG. 図1のカメラの画像解析例を説明するための図(その1)である。FIG. 3 is a diagram (part 1) for explaining an image analysis example of the camera of FIG. 1; 図1のカメラの画像解析例を説明するための図(その2)である。FIG. 3 is a second diagram for explaining an image analysis example of the camera of FIG. 1; 図1のカメラの画像解析例を説明するための図(その3)である。FIG. 4 is a third diagram illustrating an image analysis example of the camera in FIG. 1. 図1のカメラの画像解析例を説明するための図(その4)である。FIG. 4 is a diagram (part 4) for explaining an image analysis example of the camera of FIG. 1; 図1のカメラの画像解析例を説明するための図(その5)である。FIG. 6 is a diagram (No. 5) for describing an image analysis example of the camera of FIG. 1; 図1のカメラの動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the camera of FIG. 1. 図4AのステップS7のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of FIG.4A step S7.

符号の説明Explanation of symbols

1…一眼レフデジタルカメラ
100…カメラボディ
110…撮像素子
136…測光用レンズ
137…測光センサ
161…焦点検出モジュール
170…カメラ制御部
200…レンズ鏡筒
210…レンズ群
211…フォーカスレンズ
212…ズームレンズ
220…絞り装置
230…フォーカスレンズ駆動モータ
240…絞り駆動装置
250…レンズ制御部
260…フォーカスレンズエンコーダ
DESCRIPTION OF SYMBOLS 1 ... Single-lens reflex digital camera 100 ... Camera body 110 ... Image pick-up element 136 ... Photometry lens 137 ... Photometry sensor 161 ... Focus detection module 170 ... Camera control part 200 ... Lens barrel 210 ... Lens group 211 ... Focus lens 212 ... Zoom lens 220 ... Aperture device 230 ... Focus lens drive motor 240 ... Aperture drive device 250 ... Lens control unit 260 ... Focus lens encoder

Claims (7)

結像光学系による像を撮像する第1撮像手段と、
第1画像情報及び第2画像情報を取得する、前記第1撮像手段とは異なる第2撮像手段と、
前記第1画像情報に対して輝度の補正を行い、前記第2画像情報に対して輝度の補正を行わない補正手段と、
前記補正手段に補正された前記第1画像情報に基づいて背景に相当する領域を抽出する第1処理手段と、
前記第1処理手段による抽出結果を用いて、前記第2画像情報に含まれる色情報から顔に相当する領域を抽出する第2処理手段と、
前記第2処理手段により抽出された前記顔に相当する領域を追尾することにより焦点調節状態を検出するエリアを決定し、前記結像光学系の焦点調節状態を制御する焦点調節制御手段と、を備えることを特徴とする撮像装置
First imaging means for capturing an image by the imaging optical system;
A second imaging means different from the first imaging means for obtaining the first image information and the second image information;
Correction means for correcting the luminance of the first image information and not correcting the luminance of the second image information;
First processing means for extracting a region corresponding to a background based on the first image information corrected by the correction means;
Second processing means for extracting a region corresponding to a face from color information included in the second image information using an extraction result obtained by the first processing means;
A focus adjustment control means for determining an area for detecting a focus adjustment state by tracking an area corresponding to the face extracted by the second processing means, and for controlling a focus adjustment state of the imaging optical system; An imaging apparatus comprising:
前記焦点調節制御手段は、The focus adjustment control means includes:
前記第2処理手段により抽出された領域の画像を基準画像に設定し、An image of the region extracted by the second processing means is set as a reference image;
前記基準画像を含みこれより広い周辺の所定領域を設定し、Set a predetermined peripheral area including the reference image and wider than this,
前記第2撮像手段により取得された、前記第2画像情報より所定時間経過後の第3画像情報と前記基準画像とを前記色情報及び前記輝度に基づいて比較し、Comparing the third image information acquired by the second imaging means after a predetermined time from the second image information and the reference image based on the color information and the luminance;
前記第3画像情報中に前記基準画像に一致する画像情報が存在する場合はその一致する画像情報の位置情報を求める請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein when there is image information that matches the reference image in the third image information, position information of the matching image information is obtained.
前記焦点調節制御手段は、The focus adjustment control means includes:
前記焦点検出手段により求められた位置情報に基づいて焦点検出エリアを決定し、当該決定された焦点検出エリアの焦点調節状態に基づいて前記結像光学系のデフォーカス量を求め、Determine a focus detection area based on the position information obtained by the focus detection means, obtain a defocus amount of the imaging optical system based on the focus adjustment state of the determined focus detection area,
前記デフォーカス量に基づいて、前記結像光学系を合焦位置に移動させる請求項1又は2に記載の撮像装置。The imaging apparatus according to claim 1, wherein the imaging optical system is moved to a focus position based on the defocus amount.
結像光学系による像を撮像することにより第1画像情報及び第2画像情報を取得する撮像手段と、Imaging means for acquiring first image information and second image information by capturing an image by an imaging optical system;
前記第1画像情報に対して輝度の補正を行い、前記第2画像情報に対して輝度の補正を行わない補正手段と、Correction means for correcting the luminance of the first image information and not correcting the luminance of the second image information;
前記補正手段に補正された前記第1画像情報に基づいて背景に相当する領域を抽出する第1処理手段と、First processing means for extracting a region corresponding to a background based on the first image information corrected by the correction means;
前記第1処理手段による抽出結果を用いて、前記第2画像情報から顔に相当する領域を抽出する第2処理手段と、Second processing means for extracting a region corresponding to a face from the second image information using the extraction result obtained by the first processing means;
前記第2処理手段による抽出結果を用いて、前記結像光学系の焦点調節状態を制御する焦点調節制御手段と、を備えることを特徴とする撮像装置。An imaging apparatus comprising: a focus adjustment control unit that controls a focus adjustment state of the imaging optical system using an extraction result obtained by the second processing unit.
前記焦点調節制御手段は、前記撮像手段により第1画像情報が取得された後、かつ、前記撮像手段により第2画像情報が取得される前に前記結像光学系の焦点調節状態を制御する請求項4に記載の撮像装置。The focus adjustment control unit controls a focus adjustment state of the imaging optical system after the first image information is acquired by the imaging unit and before the second image information is acquired by the imaging unit. Item 5. The imaging device according to Item 4. 前記焦点調節制御手段は、前記第2処理手段により抽出された前記顔に相当する領域を追尾することにより、焦点調節状態を検出するエリアを決定する請求項5に記載の撮像装置。The imaging apparatus according to claim 5, wherein the focus adjustment control unit determines an area for detecting a focus adjustment state by tracking a region corresponding to the face extracted by the second processing unit. 前記補正手段は、前記第1画像情報に対して画像の周辺部の光量低下を補正し、前記第2画像情報に対して画像の周辺部の光量低下を補正しない請求項4〜6のいずれか一項に記載の撮像装置。7. The correction unit according to claim 4, wherein the correction unit corrects a light amount decrease in a peripheral portion of the image with respect to the first image information and does not correct a light amount decrease in a peripheral portion of the image with respect to the second image information. The imaging device according to one item.
JP2008131953A 2008-05-20 2008-05-20 Imaging device Active JP5256847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008131953A JP5256847B2 (en) 2008-05-20 2008-05-20 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008131953A JP5256847B2 (en) 2008-05-20 2008-05-20 Imaging device

Publications (2)

Publication Number Publication Date
JP2009284071A JP2009284071A (en) 2009-12-03
JP5256847B2 true JP5256847B2 (en) 2013-08-07

Family

ID=41454085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008131953A Active JP5256847B2 (en) 2008-05-20 2008-05-20 Imaging device

Country Status (1)

Country Link
JP (1) JP5256847B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769489B2 (en) * 2011-04-28 2015-08-26 キヤノン株式会社 Image processing apparatus and control method thereof
JP5950664B2 (en) * 2012-04-10 2016-07-13 キヤノン株式会社 Imaging apparatus and control method thereof
CN106303250A (en) * 2016-08-26 2017-01-04 维沃移动通信有限公司 A kind of image processing method and mobile terminal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506958B2 (en) * 1998-09-10 2004-03-15 富士写真フイルム株式会社 Image processing method, image processing apparatus, and recording medium
JP2001103304A (en) * 1999-07-29 2001-04-13 Fuji Photo Film Co Ltd Method and system for extracting specific object
US8154605B2 (en) * 2006-08-30 2012-04-10 Nikon Corporation Image tracking apparatus, image tracking method and camera for improved recognition of a target object

Also Published As

Publication number Publication date
JP2009284071A (en) 2009-12-03

Similar Documents

Publication Publication Date Title
JP5157256B2 (en) Image tracking device and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5003529B2 (en) Imaging apparatus and object detection method
JP2009109714A (en) Image recognizing device, focus adjusting device, and imaging device
JP2009033238A (en) Imaging apparatus
JP2009192774A (en) Focus adjustment device and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP5056168B2 (en) Focus adjustment device and imaging device
JP5056136B2 (en) Image tracking device
JP5403111B2 (en) Image tracking device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP5256847B2 (en) Imaging device
JP5966299B2 (en) FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME
JP5776191B2 (en) Focus detection apparatus and imaging apparatus
JP5359150B2 (en) Imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP2009063689A (en) Focus detecting device and imaging apparatus
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5391587B2 (en) Imaging device
JP6699679B2 (en) Imaging device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010054586A (en) Focusing device and imaging apparatus
JP5176845B2 (en) Image tracking device and imaging device
JP2012093775A (en) Focus detector and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5256847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250