JP4732303B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4732303B2
JP4732303B2 JP2006299385A JP2006299385A JP4732303B2 JP 4732303 B2 JP4732303 B2 JP 4732303B2 JP 2006299385 A JP2006299385 A JP 2006299385A JP 2006299385 A JP2006299385 A JP 2006299385A JP 4732303 B2 JP4732303 B2 JP 4732303B2
Authority
JP
Japan
Prior art keywords
focus
area
distortion
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006299385A
Other languages
Japanese (ja)
Other versions
JP2008118387A (en
JP2008118387A5 (en
Inventor
義浩 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006299385A priority Critical patent/JP4732303B2/en
Publication of JP2008118387A publication Critical patent/JP2008118387A/en
Publication of JP2008118387A5 publication Critical patent/JP2008118387A5/ja
Application granted granted Critical
Publication of JP4732303B2 publication Critical patent/JP4732303B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置に関し、特に光学系で生じる被写体像の歪みが合焦制御へ与える影響を抑制した撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that suppresses the influence of distortion of a subject image generated in an optical system on focusing control.

従来、デジタルカメラなどの撮像装置においては、オートフォーカス機構が広く用いられている。オートフォーカス機構における合焦位置の検出方法には様々なものが提案されている。代表的な方法としては、例えば、特許文献1に開示されるように、画像信号に含まれる周波数成分(直流成分を除く)が合焦位置で最大になることを利用し、画像信号に含まれる周波数成分の量を評価値として合焦状態を検出する方法が知られている。   Conventionally, an autofocus mechanism has been widely used in an imaging apparatus such as a digital camera. Various methods for detecting the focus position in the autofocus mechanism have been proposed. As a typical method, for example, as disclosed in Patent Document 1, the frequency component (excluding the DC component) included in the image signal is maximized at the in-focus position and is included in the image signal. A method of detecting a focused state using the amount of frequency components as an evaluation value is known.

なお、このような合焦位置の検出は、通常、撮像画像の部分領域に対して実行される。そして、特許文献2では、合焦位置を検出する領域を決定する方法として、撮像画像に含まれる人物の眼を検出し、検出された眼を含む領域で合焦位置を検出するようにすることが開示されている。   Such detection of the in-focus position is usually performed on a partial region of the captured image. And in patent document 2, as a method of determining the area | region which detects a focus position, it detects a person's eyes contained in a captured image, and detects a focus position in the area | region containing the detected eyes. Is disclosed.

一方、特許文献3及び特許文献4では、撮像画像を複数の領域に分割し、領域の位置に応じて重み付けをして合焦制御を行う場合に、光学系の特性による像の歪みを考慮した重み付け値を用いることが提案されている。   On the other hand, in Patent Document 3 and Patent Document 4, when the captured image is divided into a plurality of areas and weighting is performed according to the position of the areas to perform focus control, image distortion due to the characteristics of the optical system is considered. It has been proposed to use weight values.

更に、特許文献5では、光学系による像の歪みが生じている場合に、被写体の状態、フォーカシングおよびフレーミングを的確に把握するために、像の歪みを補正した画像を表示する方法が提案されている。   Furthermore, Patent Document 5 proposes a method of displaying an image with corrected image distortion in order to accurately grasp the state of the subject, focusing, and framing when the image is distorted by an optical system. Yes.

特開平3−1668号公報Japanese Patent Laid-Open No. 3-1668 特開2005−128156号公報JP 2005-128156 A 特開平5−257893号JP-A-5-257893 特開平6−237413号公報JP-A-6-237413 特開平11−088732号公報JP 11-088732 A 特開平9−251534号公報JP-A-9-251534 M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. Of IEEE Conf. On Computer Vision and Pattern Recognition, pp.586-591, 1991.

撮像装置において、例えば、ビューファインダーに表示するために逐次撮影している画像から被写体の顔領域を検出し、顔領域に対して合焦制御を行う場合を考える。この場合、撮像装置の光学系での歪みが殆どない場合には、撮像画像に歪み補正することなく表示画像として用いることができる。   In the imaging apparatus, for example, consider a case in which a face area of a subject is detected from images that are sequentially captured for display on a viewfinder, and focus control is performed on the face area. In this case, when there is almost no distortion in the optical system of the imaging apparatus, the captured image can be used as a display image without distortion correction.

従って、撮像画像から検出された顔領域を示す枠の位置と、表示画像中の顔領域との対応は適正である。なお、合焦制御を行う領域をユーザに報知するために表示される枠をフォーカス枠、実際の合焦制御に用いられる、フォーカス枠に対応した撮像画像中の領域を合焦制御領域(画像信号の領域)と呼ぶ。   Therefore, the correspondence between the position of the frame indicating the face area detected from the captured image and the face area in the display image is appropriate. Note that the frame displayed to notify the user of the area where focus control is performed is the focus frame, and the area in the captured image corresponding to the focus frame used for actual focus control is the focus control area (image signal). Area).

図6は、光学系の歪みが無視できる程度である場合の表示画像とフォーカス枠との例を示す図である。なお、図面において、図6のように画像中に示されるグリッドは、画像の歪みの程度を視覚的に掴みやすくするために付加されたものであり、実際には表示されない。図6では、グリッドで表される正方形に歪みがなく、光学系の歪みが無視できる程度(つまり、歪み補正の必要がない程度)であることを示している。   FIG. 6 is a diagram illustrating an example of a display image and a focus frame when the distortion of the optical system is negligible. In the drawing, the grid shown in the image as shown in FIG. 6 is added to make it easy to visually grasp the degree of distortion of the image, and is not actually displayed. FIG. 6 shows that there is no distortion in the square represented by the grid, and the distortion of the optical system is negligible (that is, the distortion correction is not necessary).

このような場合、フォーカス枠111及び112は、表示画像中の顔領域と対応した位置に表示されることはもちろん、表示画像の元となっている撮像画像中の顔領域ともよく対応している。これは、撮像画像から表示画像を生成する際に歪み補正を行っていないことから当然の結果である。   In such a case, the focus frames 111 and 112 are not only displayed at positions corresponding to the face area in the display image, but also correspond well to the face area in the captured image that is the source of the display image. . This is a natural result because distortion correction is not performed when a display image is generated from a captured image.

フォーカス枠111及び112と撮像画像の顔領域との対応が適正であるため、合焦制御領域内の合焦制御では、被写体の顔の位置における合焦評価値が最も高くなる。図8(a)が、この状態を表しているものとする。   Since the correspondence between the focus frames 111 and 112 and the face area of the captured image is appropriate, the focus evaluation value at the face position of the subject is the highest in the focus control in the focus control area. FIG. 8A represents this state.

一方、図7に示すように、光学系の特性により、撮像画像に歪みが生じたとする。図7では、グリッドの変形からたる型歪みが生じていることが分かる。このように一見して判別できるような歪みを有する画像を表示することは好ましくないため、表示画像の生成時に歪み補正が行われる。そして、歪み補正された表示画像に基づいて顔検出処理が行われる。その結果、撮像画像に歪みが生じた場合も、図6と同等の表示がなされ、見かけ上は区別が付かない。しかし、見かけ上フォーカス枠111及び112が示す領域と、合焦制御領域との関係は、撮像画像に歪みがない場合と異なったものとなる。   On the other hand, as shown in FIG. 7, it is assumed that the captured image is distorted due to the characteristics of the optical system. In FIG. 7, it can be seen that a barrel distortion has occurred due to the deformation of the grid. Since it is not preferable to display an image having distortion that can be discriminated at a glance in this manner, distortion correction is performed when a display image is generated. Then, face detection processing is performed based on the display image whose distortion has been corrected. As a result, even when the captured image is distorted, the same display as that in FIG. 6 is displayed, and it is apparently indistinguishable. However, apparently the relationship between the areas indicated by the focus frames 111 and 112 and the focus control area is different from the case where the captured image is not distorted.

つまり、歪み補正後の表示画像における顔領域に対応したフォーカス枠111及び112の位置は、歪みを有する撮像画像における顔領域に対応したフォーカス枠113及び114の位置から、歪みに応じた量だけずれることになる。   That is, the positions of the focus frames 111 and 112 corresponding to the face area in the display image after distortion correction are shifted from the positions of the focus frames 113 and 114 corresponding to the face area in the captured image having distortion by an amount corresponding to the distortion. It will be.

この結果、フォーカス枠111及び112に対応した撮像画像中の領域を用いて合焦制御の評価値を求めると、顔とは異なる被写体に合焦するように制御してしまう場合がある。例えば、図7に示す例では、撮像画像中の、フォーカス枠111及び112に対応する領域内に、背景の家のように高コントラストの被写体が含まれる。そのため、顔領域ではなく、家に焦点が合うように制御してしまう。図8(b)は、焦点制御領域中に含まれる顔以外の画像の影響によって顔とは異なる距離の評価値が高くなった合焦評価値の例を示す。   As a result, when the evaluation value of the focus control is obtained using the area in the captured image corresponding to the focus frames 111 and 112, the control may be performed so that the subject different from the face is focused. For example, in the example illustrated in FIG. 7, a high-contrast subject such as a background house is included in the area corresponding to the focus frames 111 and 112 in the captured image. Therefore, control is performed so that the focus is on the house, not the face area. FIG. 8B shows an example of a focus evaluation value in which the evaluation value at a different distance from the face is increased due to the influence of an image other than the face included in the focus control region.

このように、従来技術では、表示用の画像から検出した顔領域の情報を、そのまま撮像画像に当てはめて焦点制御領域を決定していた。そのため、撮像画像の歪みが無視できる程度で、表示用画像が歪み補正されない場合には問題ないが、歪みが無視できず、表示用画像が歪み補正される場合には、顔領域でない部分に合焦してしまう虞があった。   As described above, in the related art, the focus control area is determined by applying the face area information detected from the display image to the captured image as it is. For this reason, there is no problem if the distortion of the captured image is negligible and the display image is not corrected for distortion.However, if the distortion cannot be ignored and the display image is corrected for distortion, it fits into a non-face area. There was a risk of getting burned.

また、被写体像の歪みが合焦制御の精度に影響を与えるという点に関しては、顔領域を合焦制御領域とする場合に限定されない。例えば、ユーザが表示画面中で合焦制御領域を指定する場合であっても、表示用画像で指定された領域と、合焦制御に用いられる画像データの領域とにずれが生じることになり、同様の問題が生じる。   Further, the point that the distortion of the subject image affects the accuracy of the focus control is not limited to the case where the face area is set as the focus control area. For example, even when the user designates the focus control area on the display screen, a shift occurs between the area designated in the display image and the area of the image data used for the focus control. Similar problems arise.

本発明はこのような従来技術の問題点を解決するためになされたものであり、撮像画像に歪みが生じた場合であっても、精度良く合焦可能な撮像装置を提供することを目的とする。   The present invention has been made to solve such problems of the prior art, and an object of the present invention is to provide an imaging apparatus capable of focusing accurately even when a captured image is distorted. To do.

上述の目的は、光学系により結像された被写体像を画像信号に変換する撮像手段と、画像信号に反映された光学系による光学歪みを補正し、補正画像データを出力する歪み補正手段と、補正画像データに基づいて光学系の合焦状態を検出するためのフォーカス枠を設定する設定手段と、設定手段により設定されたフォーカス枠に応じて撮像手段により出力された画像信号の領域を指定する指定手段と、指定手段により指定された領域の画像信号に基づいて光学系の合焦状態を検出する焦点検出手段とを有し、指定手段は、フォーカス枠に対応する補正画像データの領域に歪み補正手段による補正と逆の処理を適用して歪み補正前の画像信号におけるフォーカス枠に対応する領域を求め、当領域を指定することを特徴とする本発明の撮像装置によって達成される。 The above-described objects are: an imaging unit that converts a subject image formed by an optical system into an image signal; a distortion correction unit that corrects optical distortion caused by the optical system reflected in the image signal and outputs corrected image data; based on the corrected image data, and setting means for setting a focus frame to detect the focus state of the optical system, depending on the focus frame set by the setting means, the area of the image signal output by the imaging means A designating unit for designating, and a focus detecting unit for detecting a focus state of the optical system based on an image signal of the region designated by the designating unit, wherein the designating unit is an area of the corrected image data corresponding to the focus frame. to determine the area corresponding to the focus frame in the distortion correcting unit image signal prior to application to distortion correction correction reverse processing by the imaging instrumentation of the present invention characterized by specifying the person area It is achieved by.

このような構成により、本発明によれば、撮像画像に歪みが生じた場合であっても精度良く合焦可能な撮像装置が実現できる。   With such a configuration, according to the present invention, it is possible to realize an imaging device capable of focusing with high accuracy even when the captured image is distorted.

<第1の実施形態>
以下、添付図面を参照して本発明の好適な実施形態について説明する。
図1は、本発明の第1の実施形態に係る撮像装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。
<First Embodiment>
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to the first embodiment of the present invention.

図1において、光学系2は1枚又は複数枚のレンズで構成され、被写体像を結像する。光学系2は、自動焦点制御に用いるフォーカスレンズも備えている。被写体像の光学歪みは、被写体からの光線が光学系2を通過する過程で、光学系2を構成するレンズの収差によって生じる。光学系2はレンズ情報として画角や絞り等の情報を他の構成要素からの要求に応じて供給可能である。   In FIG. 1, an optical system 2 is composed of one or a plurality of lenses and forms a subject image. The optical system 2 also includes a focus lens used for automatic focus control. The optical distortion of the subject image is caused by the aberration of the lens constituting the optical system 2 in the process in which the light beam from the subject passes through the optical system 2. The optical system 2 can supply information such as an angle of view and a diaphragm as lens information in response to a request from another component.

モータ4は光学系2のフォーカスレンズを移動させる。撮像素子10は例えば数百万画素程度の画素数を有する光電変換素子であり、CCDセンサーやCMOSセンサーなどが一般に用いられる。光学系2が結像した被写体像を撮像素子10により画素単位の電気信号(画像信号)に変換する。なお、撮像素子10には通常カラーフィルターや光学ローパスフィルタ等の周辺部品が設けられるが、本発明とは直接関係ないため説明を省略する。   The motor 4 moves the focus lens of the optical system 2. The imaging element 10 is a photoelectric conversion element having a number of pixels of about several million pixels, for example, and a CCD sensor or a CMOS sensor is generally used. A subject image formed by the optical system 2 is converted into an electrical signal (image signal) in units of pixels by the image sensor 10. Although the image sensor 10 is usually provided with peripheral components such as a color filter and an optical low-pass filter, the description thereof is omitted because it is not directly related to the present invention.

撮像素子10から読み出されたアナログ画像信号は、A/D変換器12によりデジタル画像データに変換される。   The analog image signal read from the image sensor 10 is converted into digital image data by the A / D converter 12.

フレームバッファ14は、DRAMやDRAMの読み書きを制御するメモリコントローラなどで構成される。フレームバッファ14は、A/D変換器12からの画像データや、後述する現像処理部16からの現像済み画像データを一時的に蓄えるために用いられる。   The frame buffer 14 includes a DRAM or a memory controller that controls reading and writing of the DRAM. The frame buffer 14 is used to temporarily store image data from the A / D converter 12 and developed image data from the development processing unit 16 described later.

現像処理部16は、A/D変換器12からのデジタル画像データやフレームバッファ14で保持されたデジタル画像データに対して現像処理を行う。具体的には、例えばデジタルカメラで一般的に用いられるJPEG形式の画像データファイルを生成する前段階のYUVデータを生成する。処理結果は撮像画像データとしてフレームバッファ14に記憶する。   The development processing unit 16 performs development processing on the digital image data from the A / D converter 12 and the digital image data held in the frame buffer 14. Specifically, for example, YUV data in the previous stage for generating an image data file in JPEG format generally used in a digital camera is generated. The processing result is stored in the frame buffer 14 as captured image data.

歪み補正部18は、光学系2を構成するレンズの収差によって被写体像及び撮像画像データに生じる光学歪み、例えば糸巻き型やたる型の歪みを補正し、歪みの無い被写体像を表す画像データ(補正画像データ)を出力する。本実施形態において、歪み補正部18は、フレームバッファ14に記憶された画像データに対し、読み出し方法を調整することにより画像データに反映された光学歪みを補正する。   The distortion correction unit 18 corrects optical distortion generated in the subject image and the captured image data due to aberration of the lenses constituting the optical system 2, for example, pincushion type or barrel type distortion, and image data (correction) representing the subject image without distortion. Image data). In the present embodiment, the distortion correction unit 18 corrects the optical distortion reflected in the image data by adjusting the reading method for the image data stored in the frame buffer 14.

顔検出部20は、歪み補正部18が出力する補正画像データに対して顔検出処理を行い、被写体中に含まれる人間の顔の領域(顔領域)を検出する。顔検出部20における顔検出結果は、顔領域情報(例えば顔領域の位置情報)として表示制御部22及び逆歪み補正部26へ供給される。表示制御部22は、顔検出部20からの顔領域情報に基づき、補正画像データにおける顔領域を示すフォーカス枠を決定し、フォーカス枠の表示データを生成する。フォーカス枠は、例えば顔領域に外接する方形状の枠である。そして、表示制御部22は、表示部23に対し、フレームバッファ14からの画像データもしくは歪み補正部18からの補正画像データと、フォーカス枠との合成画像データを表示させる。なお、本実施形態においては説明及び理解を容易にするため、常に補正画像データを表示するものとする。   The face detection unit 20 performs face detection processing on the corrected image data output from the distortion correction unit 18 to detect a human face region (face region) included in the subject. The face detection result in the face detection unit 20 is supplied to the display control unit 22 and the inverse distortion correction unit 26 as face area information (for example, position information of the face area). The display control unit 22 determines a focus frame indicating the face region in the corrected image data based on the face region information from the face detection unit 20, and generates display data of the focus frame. The focus frame is, for example, a rectangular frame that circumscribes the face area. The display control unit 22 causes the display unit 23 to display the image data from the frame buffer 14 or the corrected image data from the distortion correction unit 18 and the composite image data of the focus frame. In the present embodiment, corrected image data is always displayed for ease of explanation and understanding.

なお、顔検出部20が検出する顔領域は必ずしも顔全体を含む必要はなく、顔の一部領域であっても良い。なお、一部領域である場合には、少なくとも眼の領域を含むことが好ましい。   Note that the face area detected by the face detection unit 20 does not necessarily include the entire face, and may be a partial area of the face. In addition, when it is a partial area | region, it is preferable that an eye area | region is included at least.

表示部23は、例えばLCDであり、デジタルカメラ100の各種設定を行うためのユーザインタフェースを表示したり、撮影した画像を再生表示したり、電子ビューファインダーとして機能したりする。なお、表示部23はテレビジョン受像機やディスプレイモニタの様な外部装置であっても良い。   The display unit 23 is, for example, an LCD, and displays a user interface for performing various settings of the digital camera 100, reproduces and displays captured images, and functions as an electronic viewfinder. The display unit 23 may be an external device such as a television receiver or a display monitor.

逆歪み補正部26は、顔検出部20からの顔検出領域に基づき、補正画像データにおける顔領域に対応する、歪み補正前の撮像画像データ中の顔領域を求める。求めた顔領域の情報は、測距領域指定部28へ出力する。具体的には逆歪み補正部26は、顔検出部20が検出した顔領域に対し、歪み補正部18と逆の処理を適用することで、歪み補正前の撮像画像データ中の対応領域を求める。   Based on the face detection area from the face detection unit 20, the inverse distortion correction unit 26 obtains a face area in the captured image data before distortion correction corresponding to the face area in the corrected image data. The obtained face area information is output to the distance measurement area designating unit 28. Specifically, the inverse distortion correction unit 26 applies a process opposite to that of the distortion correction unit 18 to the face area detected by the face detection unit 20 to obtain a corresponding area in the captured image data before distortion correction. .

測距領域指定部28は、逆歪み補正部26からの顔領域情報に基づき、撮像画像データ中の、合焦制御に用いる合焦制御領域を決定する。具体的には、測距領域指定部28は、現像処理部16が出力するYUV形式の画像データに対し、逆歪み補正部26からの顔領域情報が示す顔領域に対応する領域(例えば顔領域に外接する方形状領域)を合焦制御領域として指定する。そして、測距領域指定部28は、指定した合焦制御領域に関する情報(例えば、合焦制御領域の位置と大きさを表す情報)をフォーカス用評価値取得部30へ出力する。   The distance measurement area designating unit 28 determines a focus control area used for focus control in the captured image data based on the face area information from the inverse distortion correction unit 26. Specifically, the distance measurement area designating unit 28 corresponds to the face area indicated by the face area information from the inverse distortion correction unit 26 (for example, the face area) with respect to the YUV format image data output from the development processing unit 16. Is specified as the focus control area. Then, the distance measurement area designation unit 28 outputs information on the designated focus control area (for example, information indicating the position and size of the focus control area) to the focus evaluation value acquisition unit 30.

フォーカス用評価値取得部30は、測距領域指定部28から供給される合焦制御領域に関する情報に基づいて、現像処理部16から合焦制御領域に対応する輝度(Y)成分データを取得し、この輝度成分データから光学系の合焦状態を示すフォーカス用評価値を算出する。フォーカス用評価値は、合焦制御部32へ供給される。フォーカス用評価値取得部30と合焦制御部32をあわせて焦点検出部と称する。   The focus evaluation value acquisition unit 30 acquires luminance (Y) component data corresponding to the focus control area from the development processing unit 16 based on the information regarding the focus control area supplied from the distance measurement area specifying unit 28. Then, a focus evaluation value indicating the in-focus state of the optical system is calculated from the luminance component data. The focus evaluation value is supplied to the focus control unit 32. The focus evaluation value acquisition unit 30 and the focus control unit 32 are collectively referred to as a focus detection unit.

合焦制御部32は、フォーカス用評価値取得部30からの評価値を受けて、フォーカスモータ駆動部34を制御し、評価値が最大となる位置を探索する。フォーカスモータ駆動部34は、合焦制御部32からの指示によってモータ4を制御し、光学系2に含まれるフォーカスレンズをを移動させる。   The focus control unit 32 receives the evaluation value from the focus evaluation value acquisition unit 30, controls the focus motor drive unit 34, and searches for a position where the evaluation value is maximized. The focus motor drive unit 34 controls the motor 4 according to an instruction from the focus control unit 32 to move the focus lens included in the optical system 2.

次に、本実施形態における歪み補正部18の動作についてさらに説明する。
光学レンズには収差があるため、光学レンズを介して結像される被写体像には光学歪みが発生する。撮像素子は光学系2が結像する被写体像をそのまま画像信号に変換するため、画像信号も被写体像が有する光学歪みの影響を受ける。代表的な光学歪みには、図2(a)に示すような「糸まき型歪み」や図2(b)に示すような「たる型歪み」がある。図2は、点線で示した範囲の被写体の像が、光学歪みにより実線の形状で結像されていることを示す。
Next, the operation of the distortion correction unit 18 in this embodiment will be further described.
Since the optical lens has aberration, optical distortion occurs in the subject image formed through the optical lens. Since the imaging device converts the subject image formed by the optical system 2 into an image signal as it is, the image signal is also affected by the optical distortion of the subject image. Typical optical distortion includes “thread-wound distortion” as shown in FIG. 2A and “barrel distortion” as shown in FIG. FIG. 2 shows that the image of the subject in the range indicated by the dotted line is formed in a solid line shape due to optical distortion.

被写体像の光学歪みは、例えば、被写体像をデジタルデータ化し、歪みに応じて画素データを再配置することで補正することが可能である。
例えば、図3のように、たる型歪みが生じた画像を補正する場合を考える。図3においては、A〜D点が歪みによりa〜d点に結像した状態を示している。この場合、実線で示される歪んだ被写体像は、A/D変換器12によりデジタル画像データに変換され、フレームバッファ14に一時記憶される。
The optical distortion of the subject image can be corrected by, for example, converting the subject image into digital data and rearranging the pixel data according to the distortion.
For example, consider the case of correcting an image in which a barrel distortion occurs as shown in FIG. FIG. 3 shows a state where points A to D are imaged at points a to d due to distortion. In this case, the distorted subject image indicated by the solid line is converted into digital image data by the A / D converter 12 and temporarily stored in the frame buffer 14.

歪み補正部18は、補正後の画像を生成する際、A点の画素としてa点の画素を、B点の画素としてb点の画素を、C点の画素としてc点の画素を、D点の画素としてd点の画素をそれぞれ読み出すことにより、歪みを補正した画像を生成することができる。なお、歪みによりA−B間の画素数と実際のa−b間の画素数とが異なる場合、補間や間引きなどにより画素数を合わせることができる。光学歪みを補正する方法については、従来からさまざまな提案がされており、また本発明においてはどのような補正方法も理論上使用可能であるため、これ以上の説明は行わない。   When generating the corrected image, the distortion correction unit 18 uses the pixel a as the pixel A, the pixel b as the pixel B, the pixel c as the pixel C, and the pixel D. By reading out each of the d-point pixels as the pixels, a distortion-corrected image can be generated. When the number of pixels between A and B is different from the actual number of pixels between a and b due to distortion, the number of pixels can be matched by interpolation or thinning. Various methods for correcting optical distortion have been proposed in the past, and any correction method can be used theoretically in the present invention, so no further explanation will be given.

次に、顔検出部20の動作について説明する。
本実施形態において、人物の顔領域の検出には、公知の顔検出技術を利用できる。
具体的には、非特許文献1に記載されるような、主成分分析による固有顔(eigenface)を用いた方法や、特許文献6に記載されるような、目、鼻、口等の特徴点を利用した方法を利用可能である。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング結果に基づき、入力画像中に人物の顔が含まれているかどうかを判定するものである。
Next, the operation of the face detection unit 20 will be described.
In the present embodiment, a known face detection technique can be used to detect a human face area.
Specifically, as described in Non-Patent Document 1, a method using an eigenface by principal component analysis, or feature points such as eyes, nose, and mouth as described in Patent Document 6 The method using can be used. These methods determine whether a human face is included in the input image based on the pattern matching result between the input image and a plurality of standard patterns.

本実施形態では、顔検出部20に予め人物の顔の標準パターンを保持させておく。そして、顔検出部20は、フレームバッファ14のDRAMに保存されている撮像画像データ又は、歪み補正部18が出力する補正画像データと、標準パターンとの間でパターンマッチングを行い、人物の顔が含まれるか否かを判定する。人物の顔と判定される領域(顔領域)が検出された場合、顔検出部20は個々の顔領域についての情報を表示制御部22及び測距領域指定部28へ出力する。この、顔領域についての情報は、表示制御部22及び測距領域指定部28が顔領域を特定可能な任意の情報であってよいが、例えば顔領域に外接する最小の方形を規定する座標値などであってよい。   In the present embodiment, the face detection unit 20 holds a standard pattern of a person's face in advance. The face detection unit 20 performs pattern matching between the captured image data stored in the DRAM of the frame buffer 14 or the corrected image data output from the distortion correction unit 18 and the standard pattern, so that the human face is detected. It is determined whether or not it is included. When an area (face area) determined to be a human face is detected, the face detection unit 20 outputs information about each face area to the display control unit 22 and the distance measurement area designating unit 28. The information about the face area may be any information that allows the display control unit 22 and the distance measurement area designating unit 28 to specify the face area. For example, the coordinate value that defines the minimum rectangle circumscribing the face area And so on.

次に、逆歪み補正部26の動作について説明する。
逆歪み補正部26は、歪み補正部18で行う光学系2の歪み補正と逆の処理を行う。例えば、図3における点線が歪み補正後の画像とすると、実線で示される歪み補正前の画像への変換(逆変換)を行う処理に相当する。従って、A〜D点はそれぞれa〜d点に変換される。
Next, the operation of the inverse distortion correction unit 26 will be described.
The inverse distortion correction unit 26 performs a process opposite to the distortion correction of the optical system 2 performed by the distortion correction unit 18. For example, if the dotted line in FIG. 3 is an image after distortion correction, it corresponds to a process of performing conversion (inverse conversion) to an image before distortion correction indicated by a solid line. Therefore, the points A to D are converted into points a to d, respectively.

ただし、歪み補正部18が原則として撮像画像データ全体に対して補正処理を行うのに対し、逆歪み補正部26は、補正画像データのうち顔検出部20からの顔領域情報に対応する領域のみに対して補正処理を行えばよい点で異なる。また、逆補正後の領域を囲む画素の座標が求まれば領域を特定することができるので、領域内の全画素に対する処理を行う必要もない。従って、処理負荷は小さく、複数の顔領域があっても短時間で補正処理を行うことができる。   However, while the distortion correction unit 18 performs correction processing on the entire captured image data in principle, the inverse distortion correction unit 26 only includes an area corresponding to the face area information from the face detection unit 20 in the corrected image data. However, it is different in that correction processing is performed. Further, since the area can be specified if the coordinates of the pixels surrounding the area after reverse correction are obtained, it is not necessary to perform processing for all the pixels in the area. Therefore, the processing load is small, and correction processing can be performed in a short time even if there are a plurality of face regions.

逆歪み補正部26は、歪み補正部18がどのような補正を行ったかの情報を記憶しておき、その情報を用いて逆変換を行ってもよいし、光学系2の歪み特性を予め記憶しておき、撮影条件に対応する歪み特性を用いてもよい。歪み補正部18と同様、逆歪み補正部26も公知の手法を適用することにより実現できるため詳細な説明は省略する。   The inverse distortion correction unit 26 stores information on what correction the distortion correction unit 18 has performed, and may perform inverse conversion using the information, or may store the distortion characteristics of the optical system 2 in advance. In addition, distortion characteristics corresponding to shooting conditions may be used. Similar to the distortion correction unit 18, the inverse distortion correction unit 26 can be realized by applying a known method, and thus detailed description thereof is omitted.

このようにして逆歪み補正部26は、補正前の撮像画像データにおける、顔検出部20からの顔領域情報が示す領域に対応する領域を合焦制御用の顔領域として求め、その位置や大きさを特定可能な顔領域情報を測距領域指定部28へ出力する。   In this way, the inverse distortion correction unit 26 obtains an area corresponding to the area indicated by the face area information from the face detection unit 20 in the captured image data before correction as a focus control face area, and the position and size thereof. The face area information capable of specifying the height is output to the distance measurement area designating unit 28.

次に、本実施形態のデジタルカメラ100におけるオートフォーカス動作について説明する。
一般に、被写体に人物が含まれる場合、その人物に合焦した撮影が望まれることが多いが、特に人物が撮影範囲の中央にいない場合など、背景に合焦してしまうことがある。そのため、顔検出技術を用い、被写体中の人物の顔に合焦するような合焦制御を行うことで、ユーザの意図に沿った撮影結果を提供できる可能性が高くなると考えられる。
Next, the autofocus operation in the digital camera 100 of this embodiment will be described.
In general, when a subject includes a person, it is often desired to take a picture focused on the person, but the subject may be focused on the background, particularly when the person is not in the center of the shooting range. For this reason, it is considered that by using the face detection technique and performing focus control so as to focus on the face of a person in the subject, it is possible to increase the possibility of providing a photographing result according to the user's intention.

しかし、従来技術の課題として説明したように、従来は表示用画像に対して顔検出を行った結果をそのまま用いて合焦制御領域を指定していた。そのため、表示用画像が歪み補正されている場合には、表示用画像で検出される顔領域と、合焦制御に用いる撮像画像中の顔領域とにずれが生じ、期待される合焦制御結果が得られない場合があった。   However, as described as the problem of the prior art, conventionally, the focus control area is designated using the result of face detection for the display image as it is. Therefore, when the display image is corrected for distortion, a shift occurs between the face area detected in the display image and the face area in the captured image used for focus control, and an expected focus control result. May not be obtained.

このずれを解消するには、合焦制御にも歪み補正後の画像データを使用することが考えられるが、以下の点から望ましくない。1つは、歪み補正を行うと、合焦制御の評価値を求める上で重要な高周波数成分が失われ、合焦精度が低下することである。   In order to eliminate this shift, it is conceivable to use image data after distortion correction for focusing control, but this is not desirable from the following points. One is that when distortion correction is performed, high-frequency components that are important in obtaining an evaluation value for focusing control are lost, and focusing accuracy is reduced.

そのため、本実施形態では、歪み補正後の画像データに対して行う顔検出処理の結果に対して歪み補正処理と逆の処理を行うことで、歪み補正前の画像データにおける顔領域を求める。そして、この顔領域に基づいて決定した合焦制御領域で合焦制御を行うことで、顔検出処理の負荷を増加させることなく、精度の良い合焦制御を実現する。   Therefore, in this embodiment, the face area in the image data before distortion correction is obtained by performing a process opposite to the distortion correction process on the result of the face detection process performed on the image data after distortion correction. Then, by performing focus control in the focus control area determined based on the face area, accurate focus control is realized without increasing the load of face detection processing.

図4は、デジタルカメラ100の各部の動作タイミングを説明するためのタイミングチャートである。
図4(a)は、A/D変換器12が出力するデジタル画像データであり、表示部23を電子ビューファインダーとして機能させるため、30fps(約33mSec間隔)のフレームレートを有する。図4(b)は、A/D変換器12の出力するデジタル画像データを現像処理部16で現像した結果(撮像画像データ)が出力されるタイミングを示す。撮像画像データは、現像処理に要する時間だけデジタル画像データよりも遅れて出力されている。上述のように、撮像画像データはフレームバッファ14へ一時記憶される。
FIG. 4 is a timing chart for explaining the operation timing of each part of the digital camera 100.
FIG. 4A shows digital image data output from the A / D converter 12 and has a frame rate of 30 fps (approximately 33 mSec interval) in order to cause the display unit 23 to function as an electronic viewfinder. FIG. 4B shows a timing at which a result (captured image data) obtained by developing the digital image data output from the A / D converter 12 by the development processing unit 16 is output. The captured image data is output later than the digital image data by the time required for the development process. As described above, the captured image data is temporarily stored in the frame buffer 14.

図4(c)は、撮像画像データをフレームバッファ14に蓄えてから、歪み補正部18による歪み補正処理が行われるタイミングを示す。図4(c)に示すように、撮像画像データは、フレームバッファ14にある程度(ここでは画像の約半分程度)蓄積された時点から歪み補正部18が読み出しを開始し、歪み補正データを生成する。   FIG. 4C shows the timing at which distortion correction processing by the distortion correction unit 18 is performed after the captured image data is stored in the frame buffer 14. As shown in FIG. 4C, the distortion correction unit 18 starts reading the captured image data from the time when it is accumulated to some extent (about half of the image in this case) in the frame buffer 14 to generate distortion correction data. .

図4(d)は、歪み補正部18の出力、すなわち顔検出部20の入力タイミングを示す。歪み補正処理自体は処理負荷が大きく、補正完了までの時間はかかるが、入力から出力開始までの時間差はほとんど無い。
図4(e)は、顔検出部20の出力タイミングを、図4(f)は、逆歪み補正部26の出力タイミングをそれぞれ示す。
FIG. 4D shows the output of the distortion correction unit 18, that is, the input timing of the face detection unit 20. The distortion correction process itself has a large processing load and takes time to complete correction, but there is almost no time difference from input to start of output.
4E shows the output timing of the face detection unit 20, and FIG. 4F shows the output timing of the inverse distortion correction unit 26.

図4に示すように、1フレーム目の画像データに対する逆歪み補正部26の出力が完了するのは、3フレーム目の画像データが出力され始める程度のタイミングである。フォーカス用評価値取得部30では、測距領域指定部28から供給される合焦制御領域の元となった逆歪み補正部26の出力タイミングにあった画像データを用いて評価値取得を行う。従って、図4の例では、フレームバッファ14は少なくも3フレーム分の画像データを一時記憶する容量を有する必要がある。   As shown in FIG. 4, the output of the inverse distortion correction unit 26 for the image data of the first frame is completed at a timing at which the image data of the third frame starts to be output. The focus evaluation value acquisition unit 30 acquires an evaluation value using image data that matches the output timing of the inverse distortion correction unit 26 that is the source of the focus control region supplied from the distance measurement region specification unit 28. Therefore, in the example of FIG. 4, the frame buffer 14 needs to have a capacity for temporarily storing image data for at least three frames.

このように、合焦制御用の評価値を取得開始する前に数フレームの遅延が生じるが、各フレームの画像に対して合焦制御領域を指定することが可能であり、動きの大きい被写体であっても十分追従して合焦制御することが可能である。   As described above, there is a delay of several frames before the acquisition of the evaluation value for focus control occurs. However, it is possible to specify a focus control area for the image of each frame, and for a subject with large movement. Even in such a case, it is possible to perform focusing control with sufficient follow-up.

以上説明したように、本実施形態によれば、顔領域に対して合焦制御を行うことの可能な撮像装置において、合焦制御に用いる顔領域を、歪み補正後の画像データから検出した顔領域に逆歪み補正して求める。これにより、被写体像に光学歪みがある場合であっても、正しく顔領域に対して合焦制御を行うことができ、精度良い合焦制御が実現される。   As described above, according to the present embodiment, in an imaging apparatus capable of performing focus control on a face area, the face area used for focus control is detected from the image data after distortion correction. Obtained by correcting the reverse distortion in the area. Thereby, even when the subject image has optical distortion, the focus control can be correctly performed on the face region, and the focus control with high accuracy is realized.

歪み補正後の画像データに対する顔検出処理は、フォーカス枠を表示するために行われる処理であるため、顔検出処理の負荷は増加しない。また、逆歪み補正は顔領域のみに対して行えばよいため、処理負荷は小さく、高速な処理が可能であり、顔領域の動きが大きくても十分な追従性をもって合焦制御を行うことができる。   Since the face detection process for image data after distortion correction is a process performed to display the focus frame, the load of the face detection process does not increase. In addition, since inverse distortion correction only needs to be performed on the face area, the processing load is small, high-speed processing is possible, and focus control can be performed with sufficient follow-up even when the movement of the face area is large. it can.

<第2の実施形態>
図5は、本発明の第2の実施形態に係る撮像装置の一例としてのデジタルカメラ110の機能構成例を示すブロック図である。
<Second Embodiment>
FIG. 5 is a block diagram illustrating a functional configuration example of a digital camera 110 as an example of an imaging apparatus according to the second embodiment of the present invention.

図5において、図1と同じ構成には同じ参照数字を付してその説明を省略する。本実施形態のデジタルカメラ110は、図1の顔検出部20の変わりに合焦領域指定部21が、また新たに操作部35が設けられている。   5, the same components as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. The digital camera 110 of the present embodiment is provided with a focusing area designating unit 21 and a new operation unit 35 instead of the face detecting unit 20 of FIG.

第1の実施形態におけるデジタルカメラ100は、フォーカス枠を顔領域に基づいてカメラ側が自動で設定するものであった。これに対し、本実施形態のデジタルカメラ110は、フォーカス枠をユーザが指定可能である点で異なる。   In the digital camera 100 according to the first embodiment, the camera side automatically sets the focus frame based on the face area. On the other hand, the digital camera 110 of the present embodiment is different in that the user can specify a focus frame.

上述のように、光学歪みにより、表示されるフォーカス枠が示す領域と合焦制御に用いられる画像データ中の領域とのずれが生じる問題は、顔領域に基づいてフォーカス枠を決定する場合に限らず存在する。そして、本発明は、ユーザがフォーカス枠を指定するデジタルカメラに対しても適用可能である。   As described above, the problem that the optical distortion causes a shift between the area indicated by the displayed focus frame and the area in the image data used for focusing control is limited to the case where the focus frame is determined based on the face area. Exist. The present invention can also be applied to a digital camera in which a user designates a focus frame.

本実施形態のデジタルカメラ110において、操作部35はユーザがデジタルカメラ110に指示を入力するために設けられ、スイッチ、ボタン、ダイヤル、タッチパネル、ジョイスティック等の入力デバイスを備える。図9は、本実施形態のデジタルカメラ110におけるフォーカス枠の設定動作を説明する図である。   In the digital camera 110 of the present embodiment, the operation unit 35 is provided for a user to input an instruction to the digital camera 110 and includes an input device such as a switch, a button, a dial, a touch panel, and a joystick. FIG. 9 is a diagram for explaining a focus frame setting operation in the digital camera 110 of the present embodiment.

方向キー72及び設定ボタン73は、操作部35に含まれる。ユーザは、表示画面中のフォーカス枠71を方向キー72を操作することで所望の位置に移動させ、設定ボタン73を押下することで、フォーカス枠71の位置を指定可能である。なお、ここではフォーカス枠71の大きさが固定である場合を例として説明したが、フォーカス枠71の大きさについてもある程度の範囲内で設定可能としてもよい。   Direction keys 72 and setting buttons 73 are included in the operation unit 35. The user can designate the position of the focus frame 71 by moving the focus frame 71 in the display screen to a desired position by operating the direction key 72 and pressing the setting button 73. Here, the case where the size of the focus frame 71 is fixed has been described as an example, but the size of the focus frame 71 may be set within a certain range.

操作部35の操作は合焦領域指定部21へ入力され、設定ボタン73が押下された時点におけるフォーカス枠の位置及び大きさのうち、少なくとも位置に関する情報が逆歪み補正部26へ入力される。   The operation of the operation unit 35 is input to the in-focus area specifying unit 21, and at least information regarding the position of the focus frame position and size at the time when the setting button 73 is pressed is input to the inverse distortion correction unit 26.

逆歪み補正部26は、第1の実施形態と同様にして、歪み補正前の撮像画像データにおける、フォーカス枠71の対応領域を求め、対応領域の情報を測距領域指定部28へ与える。その後も、第1の実施形態と同様に処理が行われ、合焦制御領域に対して合焦制御が行われる。   In the same manner as in the first embodiment, the inverse distortion correction unit 26 obtains a corresponding area of the focus frame 71 in the captured image data before distortion correction, and provides the corresponding area information to the distance measurement area designation unit 28. Thereafter, processing is performed as in the first embodiment, and focus control is performed on the focus control area.

このように、本実施形態によれば、光学歪みの有無にかかわらず、操作部を通じてユーザが補正画像データに対して指定したフォーカス枠に従って、精度良い合焦制御を行うことが可能である。   As described above, according to the present embodiment, it is possible to perform precise focusing control according to the focus frame designated by the user for the corrected image data through the operation unit regardless of the presence or absence of optical distortion.

<他の実施形態>
なお、光学歪みの大きい場所で顔領域が検出された場合(第1の実施形態)や、フォーカス枠が指定された場合(第2の実施形態)、最終的に逆歪み補正部26で逆補正して求まる撮像画像データにおける対応領域は大きく歪むことになる。そして、歪みの大きな領域での合焦制御の精度は、歪みの少ない領域での合焦制御の精度よりも低くなる。そのため、例えば複数の顔領域が検出されたり、複数のフォーカス枠が指定されたりして複数の合焦制御領域に対して合焦制御を行う場合、歪みの大きな合焦制御領域は優先度を低下させたり、場合によっては使用しないようにすることも可能である。逆にいうと、歪みが小さい合焦制御領域ほど優先度を上げて使用するようにする。
<Other embodiments>
When a face area is detected in a place where optical distortion is large (first embodiment) or when a focus frame is specified (second embodiment), the reverse distortion correction unit 26 finally performs reverse correction. Thus, the corresponding area in the captured image data obtained is greatly distorted. Then, the accuracy of focus control in a region with a large distortion is lower than the accuracy of focus control in a region with a small distortion. Therefore, for example, when focus control is performed on a plurality of focus control areas when a plurality of face areas are detected or a plurality of focus frames are specified, the priority of the focus control areas with large distortion decreases. It is possible to make it not be used in some cases. In other words, the focus control area having a smaller distortion is used with a higher priority.

光学歪みは画角が大きいほど(広角であるほど)大きく、また、像の周辺に近いほど大きくなることが知られている。従って、例えば光学系2の画角が所定の画角以上であり、かつ顔領域の検出位置(或いは指定されたフォーカス枠の位置)が予め定めた範囲よりも周縁であれば、その顔領域は歪みが大きいと判断することができる。   It is known that the optical distortion increases as the angle of view increases (the wider the angle), and increases as it approaches the periphery of the image. Therefore, for example, if the angle of view of the optical system 2 is equal to or larger than a predetermined angle of view, and the detection position of the face area (or the position of the designated focus frame) is more peripheral than a predetermined range, the face area is It can be determined that the distortion is large.

具体的には、例えば逆歪み補正部26が光学系2の画角をレンズ情報として取得する。そして、判定手段としての逆歪み補正部26は、画角の大きさと、顔検出部20からの顔領域情報(第1の実施形態)や合焦領域指定部21からのフォーカス枠の位置情報(第2の実施形態)により、これら領域が光学歪みの大きな領域にあるか否かを判定する。そして、歪みが大きい領域にあると判定される場合には、逆補正処理自体を行わないことも可能である。あるいは、得られた領域情報に対し、歪みが大きいことを示すフラグ等を付与して測距領域指定部28へ出力する。測距領域指定部28は、歪みが大きい領域に対しては合焦制御領域として指定しなかったり、歪みが小さい領域よりも低い優先度又は重み付けを付与する。フォーカス用評価値取得部30は、合焦制御領域の各々について評価値を求め、重み付けをして合焦制御部32へ出力する。   Specifically, for example, the inverse distortion correction unit 26 acquires the angle of view of the optical system 2 as lens information. Then, the inverse distortion correction unit 26 serving as a determination unit includes the size of the angle of view, the face area information from the face detection unit 20 (first embodiment), and the focus frame position information from the in-focus area designation unit 21 ( According to the second embodiment, it is determined whether or not these regions are in a region having a large optical distortion. And when it determines with it being in an area | region where distortion is large, it is also possible not to perform reverse correction processing itself. Alternatively, a flag indicating that the distortion is large is added to the obtained area information and output to the distance measurement area designating unit 28. The distance measurement area designating unit 28 does not designate an area with large distortion as a focus control area, or assigns a lower priority or weight than an area with small distortion. The focus evaluation value acquisition unit 30 obtains evaluation values for each of the focus control areas, weights them, and outputs them to the focus control unit 32.

歪みの少ない合焦制御領域に重み付けして合焦制御を行うことで、合焦精度を向上させることができる。また、歪みの大きな合焦制御領域を用いない場合には、合焦制御の処理負荷を軽減することもできる。   By performing the focusing control by weighting the focusing control area with less distortion, the focusing accuracy can be improved. In addition, when a focus control region having a large distortion is not used, the processing load of focus control can be reduced.

本発明の第1の実施形態に係る撮像装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to a first embodiment of the present invention. 光学歪みの代表例である糸巻き型歪みとたる型歪みを示す図である。It is a figure which shows the pincushion type | mold distortion which is a typical example of an optical distortion, and the type | mold distortion. たる型歪みの補正方法の一例を説明する図である。It is a figure explaining an example of the correction method of barrel distortion. 本発明の第1の実施形態のデジタルカメラ100の各部の動作タイミングを説明するためのタイミングチャートである。It is a timing chart for demonstrating the operation timing of each part of the digital camera 100 of the 1st Embodiment of this invention. 本発明の第2の実施形態に係る撮像装置の一例としてのデジタルカメラ110の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the digital camera 110 as an example of the imaging device which concerns on the 2nd Embodiment of this invention. 光学系の歪みが無視できる程度である場合の表示画像とフォーカス枠との例を示す図である。It is a figure which shows the example of a display image and a focus frame in case the distortion of an optical system is a grade which can be disregarded. 光学系の歪みが無視できない程度である場合の撮像画像中の顔領域と、表示用画像の顔領域とのずれを説明する図である。It is a figure explaining the shift | offset | difference of the face area | region in the captured image when the distortion of an optical system is not negligible, and the face area | region of the image for a display. 図6及び図7の状態における合焦評価値の違いを説明する図である。It is a figure explaining the difference in the focus evaluation value in the state of FIG.6 and FIG.7. 本発明の第2の実施形態のデジタルカメラ110におけるフォーカス枠の設定動作を説明する図である。It is a figure explaining the setting operation | movement of the focus frame in the digital camera 110 of the 2nd Embodiment of this invention.

Claims (4)

光学系により結像された被写体像を画像信号に変換する撮像手段と、
前記画像信号に反映された前記光学系による光学歪みを補正し、補正画像データを出力する歪み補正手段と、
前記補正画像データに基づいて前記光学系の合焦状態を検出するためのフォーカス枠を設定する設定手段と、
前記設定手段により設定されたフォーカス枠に応じて前記撮像手段により出力された画像信号の領域を指定する指定手段と、
前記指定手段により指定された領域の画像信号に基づいて前記光学系の合焦状態を検出する焦点検出手段とを有し、
前記指定手段は、前記フォーカス枠に対応する前記補正画像データの領域に前記歪み補正手段による補正と逆の処理を適用して歪み補正前の前記画像信号における前記フォーカス枠に対応する領域を求め、当該領域を指定することを特徴とする撮像装置。
Imaging means for converting a subject image formed by the optical system into an image signal;
Distortion correcting means for correcting optical distortion caused by the optical system reflected in the image signal and outputting corrected image data;
Based on the corrected image data, and setting means for setting a focus frame to detect the focus state of said optical system,
Depending on the focus frame set by the setting means, designating means for designating an area of the image signal output by the imaging means,
A focus detection unit that detects a focused state of the optical system based on an image signal of an area designated by the designation unit;
The designation unit obtains a region corresponding to the focus frame in the image signal before distortion correction by applying a process reverse to the correction by the distortion correction unit to the region of the corrected image data corresponding to the focus frame. imaging apparatus characterized by specifying the area.
前記補正画像データに対して顔検出処理を行い、検出された顔領域を表す顔領域情報を出力する顔検出手段をさらに有し、
前記設定手段は、前記顔領域情報に基づいて前記フォーカス枠を設定することを特徴とする請求項1記載の撮像装置。
Face detection means for performing face detection processing on the corrected image data and outputting face area information representing the detected face area;
The imaging apparatus according to claim 1, wherein the setting unit sets the focus frame based on the face area information.
ユーザが前記撮像装置に指示を入力するための操作手段をさらに有し、
前記設定手段は、前記操作手段に入力された指示に基づいて前記フォーカス枠を設定することを特徴とする請求項1または2記載の撮像装置。
An operation unit for a user to input an instruction to the imaging apparatus;
The setting means, the imaging apparatus according to claim 1 or 2, wherein the setting the focus frame on the basis of an instruction input to the operation unit.
前記焦点検出手段は、前記フォーカス枠が複数設定された場合、当該複数のフォーカス枠のうち前記光学系による光学歪みが小さい位置に設定されたフォーカス枠に対応する領域の画像信号を優先して用いて前記光学系の合焦状態を検出することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 When a plurality of the focus frames are set , the focus detection unit preferentially uses an image signal in an area corresponding to the focus frame set at a position where the optical distortion due to the optical system is small among the plurality of focus frames. the imaging apparatus according to any one of claims 1 to 3, characterized in that to detect the focus state of the optical system Te.
JP2006299385A 2006-11-02 2006-11-02 Imaging device Expired - Fee Related JP4732303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006299385A JP4732303B2 (en) 2006-11-02 2006-11-02 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006299385A JP4732303B2 (en) 2006-11-02 2006-11-02 Imaging device

Publications (3)

Publication Number Publication Date
JP2008118387A JP2008118387A (en) 2008-05-22
JP2008118387A5 JP2008118387A5 (en) 2009-12-17
JP4732303B2 true JP4732303B2 (en) 2011-07-27

Family

ID=39503962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006299385A Expired - Fee Related JP4732303B2 (en) 2006-11-02 2006-11-02 Imaging device

Country Status (1)

Country Link
JP (1) JP4732303B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568521B2 (en) 2019-05-31 2023-01-31 Canon Kabushiki Kaisha Apparatus, method thereof, and recording medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101599885B1 (en) * 2009-09-29 2016-03-04 삼성전자주식회사 Digital photographing apparatus and method
JP5938842B2 (en) * 2010-01-26 2016-06-22 カシオ計算機株式会社 Imaging apparatus, AF evaluation value calculation method, and program
JP5872171B2 (en) * 2011-02-17 2016-03-01 クラリオン株式会社 Camera system
JP6196772B2 (en) * 2012-12-21 2017-09-13 キヤノン株式会社 FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD AND PROGRAM, AND IMAGING DEVICE
JP6016622B2 (en) * 2012-12-26 2016-10-26 キヤノン株式会社 Imaging apparatus, control method therefor, and program
US10277796B2 (en) 2014-05-26 2019-04-30 Sony Corporation Imaging control apparatus, imaging apparatus, and imaging control method
JP2016134686A (en) * 2015-01-16 2016-07-25 オリンパス株式会社 Imaging apparatus and imaging method
CN105812653B (en) * 2015-01-16 2019-05-10 奥林巴斯株式会社 Photographic device and image capture method
JP2017009815A (en) * 2015-06-23 2017-01-12 オリンパス株式会社 Focus detection device, focus detection method, and camera system
JP6971589B2 (en) * 2017-02-28 2021-11-24 キヤノン株式会社 Imaging device, imaging system, its control method and program
KR102263540B1 (en) * 2019-09-27 2021-06-14 (주)베이다스 Method and apparatus for setting gt region on distored image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3260929B2 (en) * 1993-10-15 2002-02-25 オリンパス光学工業株式会社 Video processing device
JP3683392B2 (en) * 1997-09-08 2005-08-17 株式会社リコー Solid-state imaging camera
JP4553346B2 (en) * 2003-10-22 2010-09-29 キヤノン株式会社 Focus adjustment device and focus adjustment method
JP4185468B2 (en) * 2004-03-29 2008-11-26 富士フイルム株式会社 Exposure apparatus and method for correcting captured image
JP2006094202A (en) * 2004-09-24 2006-04-06 Casio Comput Co Ltd Imaging apparatus, focusing processing method, and program
JP4639837B2 (en) * 2005-02-15 2011-02-23 株式会社ニコン Electronic camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568521B2 (en) 2019-05-31 2023-01-31 Canon Kabushiki Kaisha Apparatus, method thereof, and recording medium

Also Published As

Publication number Publication date
JP2008118387A (en) 2008-05-22

Similar Documents

Publication Publication Date Title
JP4732303B2 (en) Imaging device
JP4154400B2 (en) Imaging apparatus, control method thereof, and program
JP4645685B2 (en) Camera, camera control program, and photographing method
JP4999268B2 (en) Electronic camera and program
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
CN101076997B (en) Image processing and image processing method used therein
JP4784678B2 (en) Imaging apparatus, imaging method, and program
JP5623915B2 (en) Imaging device
US8350918B2 (en) Image capturing apparatus and control method therefor
JP2008109336A (en) Image processor and imaging apparatus
JP6652039B2 (en) Imaging device, imaging method, and program
JP2005348181A (en) Photography system, its control method and program for control
JP2014090420A (en) Imaging apparatus, imaging method and program
JP4953770B2 (en) Imaging device
JP2009089220A (en) Imaging apparatus
JP4632417B2 (en) Imaging apparatus and control method thereof
JP5170217B2 (en) Camera, camera control program, and photographing method
JP6862225B2 (en) Imaging device, control method of imaging device, and program
JP2010016693A (en) Electronic camera
JP5332668B2 (en) Imaging apparatus and subject detection program
JP5417920B2 (en) Image processing apparatus, image processing method, electronic camera, and image processing program
EP2091233B1 (en) Imaging apparatus
JP4687619B2 (en) Image processing apparatus, image processing method, and program
JP7271316B2 (en) Imaging device and its control method
US11743601B2 (en) Image processing device, image processing method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110420

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees