JP6260213B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP6260213B2
JP6260213B2 JP2013234351A JP2013234351A JP6260213B2 JP 6260213 B2 JP6260213 B2 JP 6260213B2 JP 2013234351 A JP2013234351 A JP 2013234351A JP 2013234351 A JP2013234351 A JP 2013234351A JP 6260213 B2 JP6260213 B2 JP 6260213B2
Authority
JP
Japan
Prior art keywords
image
image data
preparation
captured image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013234351A
Other languages
Japanese (ja)
Other versions
JP2015095775A (en
Inventor
智彦 古川
智彦 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2013234351A priority Critical patent/JP6260213B2/en
Publication of JP2015095775A publication Critical patent/JP2015095775A/en
Application granted granted Critical
Publication of JP6260213B2 publication Critical patent/JP6260213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Studio Devices (AREA)

Description

本発明は、測光センサにより得られる情報を用いて画像処理をする撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method that perform image processing using information obtained by a photometric sensor.

従来、ファインダ内に測光センサを設けたカメラが知られている。測光センサはファインダの接眼光学系の光軸からはずれた位置に設けられるため、測光センサに結像する光は撮影レンズの光軸に対して傾斜角を有しており、測光センサと撮像素子の間には視差がある。   Conventionally, a camera in which a photometric sensor is provided in a finder is known. Since the photometric sensor is provided at a position deviated from the optical axis of the eyepiece optical system of the finder, the light imaged on the photometric sensor has an inclination angle with respect to the optical axis of the photographing lens. There is parallax between them.

この視差を補正することができるカメラとして特許文献1に開示されたものが知られている。このカメラでは、ファインダから見た被写体像と撮像画像との間の視差を補正するために、被写体距離に応じて撮像素子を移動させる機構が設けられる。   As a camera capable of correcting this parallax, a camera disclosed in Patent Document 1 is known. In this camera, a mechanism for moving the image sensor according to the subject distance is provided in order to correct the parallax between the subject image and the captured image viewed from the viewfinder.

特開2004−354439号公報JP 2004-354439 A

このようにファインダから見た被写体像と撮像画像との間の視差をなくすためには、構造が複雑化したり所定の制御が必要となる。一方、画素数の大きな測光センサが最近開発されている。すなわち、測光センサで得られる画像は撮像素子で得られる画像ほど高精細ではないが所定のレベルで被写体を識別できる。発明者は、撮影前に測光センサによって検出される画像を利用して、撮像画像に対する画像処理の精度を向上させることを着想した。   Thus, in order to eliminate the parallax between the subject image and the captured image viewed from the viewfinder, the structure is complicated or predetermined control is required. On the other hand, photometric sensors having a large number of pixels have been recently developed. That is, the image obtained by the photometric sensor is not as high-definition as the image obtained by the image sensor, but the subject can be identified at a predetermined level. The inventor has conceived of improving the accuracy of image processing on a captured image by using an image detected by a photometric sensor before photographing.

本発明は、測光センサが設けられるカメラであって、カメラの構造を複雑にすることなく、測光センサで得られた撮影前の画像を利用して、撮像画像に対する画像処理の精度を向上させる撮像装置および撮像方法を提供することを目的としている。   The present invention is a camera provided with a photometric sensor, and uses an unphotographed image obtained by the photometric sensor to improve the accuracy of image processing on a captured image without complicating the structure of the camera. An object is to provide an apparatus and an imaging method.

本発明に係る撮影装置は、被写体の撮像画像データを取得する第1の撮像素子と、被写体の画像に対して光軸に垂直な面の方向にずれた画像である準備画像データを取得する第2の撮像素子と、撮像画像データと準備画像データを一時記憶する画像データ一時記憶手段と、撮像画像データに対して画像処理を行う画像処理手段と、撮像画像データと準備画像データから特定領域を抽出する領域抽出手段とを備え、領域抽出手段は、撮影動作の実行時に、準備画像データから特定領域を抽出して第1の抽出画像として画像データ一時記憶手段に記憶し、撮像画像データから第1の抽出画像に対応する第1の対応領域を検出し、画像処理手段は、第1の対応領域の撮像画像データに基づいて画像処理を実行することを特徴としている。   The image capturing apparatus according to the present invention acquires a first image sensor that acquires captured image data of a subject, and first image data that is an image shifted in a direction perpendicular to the optical axis with respect to the image of the subject. 2, an image data temporary storage unit that temporarily stores captured image data and preparation image data, an image processing unit that performs image processing on the captured image data, and a specific area from the captured image data and the preparation image data. A region extracting unit that extracts a specific region from the preparatory image data and stores it as a first extracted image in the image data temporary storage unit when performing a shooting operation; A first corresponding area corresponding to one extracted image is detected, and the image processing means executes image processing based on captured image data of the first corresponding area.

好ましくは、画像処理が、ホワイトバランス(WB)処理である。また、好ましくは、画像処理手段は、第1の対応領域については、第1の対応領域の撮像画像データに基づいて画像処理を実行し、他の領域については他の領域の撮像画像データに基づいて画像処理を実行する。また、好ましくは、画像データ一時記憶手段は、撮像画像データのRAWデータと共に、RAWデータから生成される縮小画像データも併せて記憶し、領域抽出手段は、第1の抽出画像を縮小画像と比較して、第1の対応領域を検出する。   Preferably, the image processing is white balance (WB) processing. Preferably, the image processing unit executes image processing based on captured image data of the first corresponding region for the first corresponding region, and based on captured image data of the other region for the other region. To execute image processing. Preferably, the image data temporary storage means also stores reduced image data generated from the RAW data together with the RAW data of the captured image data, and the area extraction means compares the first extracted image with the reduced image. Thus, the first corresponding area is detected.

また、好ましくは、準備画像データに基づいて撮像画像取得時の露出値を求める露出制御手段をさらに備え、撮影動作の実行時に、露出制御手段により決定された露出値に基づいて撮像画像データを取得する。また、好ましくは、被写体を撮影する前に被写体に対して発光を行うプリ発光手段をさらに備え、領域抽出手段は、プリ発光手段を実行させて取得した準備画像データから第1の抽出画像を抽出する。また、好ましくは、領域抽出手段は、準備画像データから第1の抽出画像を抽出する際に、人物または動物の顔の領域を第1の抽出画像として抽出する。   Preferably, the image processing apparatus further includes an exposure control unit that obtains an exposure value at the time of acquiring a captured image based on the prepared image data, and acquires the captured image data based on the exposure value determined by the exposure control unit at the time of performing the photographing operation. To do. Preferably, the apparatus further includes a pre-light emitting unit that emits light to the subject before photographing the subject, and the region extracting unit extracts the first extracted image from the preparation image data acquired by executing the pre-light emitting unit. To do. Preferably, the area extracting unit extracts a face area of a person or an animal as the first extracted image when extracting the first extracted image from the preparation image data.

また、好ましくは、準備画像データに対して光軸に垂直な面の方向にずれた画像である補助準備画像データを取得する測距センサと、準備画像データと補助準備画像データを合成した合成準備画像データを生成する画像合成手段とをさらに備え、領域抽出手段は、撮影動作の実行前に、補助準備画像データから部分領域毎の露出量である部分露出量が所定の閾値以上の領域を抽出して第2の抽出画像として画像データ一時記憶手段に記憶し、準備画像データから第2の抽出画像に対応する第2の対応領域を検出し、画像合成手段は、第2の対応領域を第2の抽出画像により置換することにより合成準備画像を生成し、領域抽出手段は、撮影動作の実行時に、合成準備画像データから特定領域を抽出して第1の抽出画像とする。   Preferably, a distance measuring sensor that acquires auxiliary preparation image data that is an image shifted in a direction perpendicular to the optical axis with respect to the preparation image data, and a composite preparation that combines the preparation image data and the auxiliary preparation image data Image synthesizing means for generating image data, and the area extracting means extracts an area where the partial exposure amount, which is the exposure amount for each partial area, is greater than or equal to a predetermined threshold value from the auxiliary preparation image data before executing the photographing operation The second extracted image is stored in the image data temporary storage means, the second corresponding area corresponding to the second extracted image is detected from the prepared image data, and the image synthesizing means detects the second corresponding area as the second extracted area. The area preparation means generates a first extraction image by extracting a specific area from the synthesis preparation image data when the photographing operation is executed.

また、好ましくは、補助準備画像データに基づいて撮像画像取得時の合焦制御を行う測距センサをさらに備え、撮影動作の実行時に、測距センサにより決定された合焦制御と、測距センサにより取得された露出値に基づいて撮像画像データを取得する。また、好ましくは、可動ミラーが撮影光学系から撮像素子までの光路に配置され、可動ミラーが光路に配置された状態では、被写体像がファインダスクリーンに結像し、可動ミラーが光路から退避する状態では、被写体像が撮像素子に結像し、撮像画像データが取得され得る一眼レフの構成をさらに備え、第2の撮像素子は、ファインダスクリーンに結像した被写体像から準備画像データを取得する。   Preferably, the image sensor further includes a distance measuring sensor that performs focus control at the time of acquiring a captured image based on the auxiliary preparation image data, and the focus control determined by the distance sensor at the time of performing the photographing operation; Captured image data is acquired based on the exposure value acquired by the above. Preferably, when the movable mirror is disposed in the optical path from the imaging optical system to the image sensor and the movable mirror is disposed in the optical path, the subject image is formed on the finder screen, and the movable mirror is retracted from the optical path. Then, the image pickup device further includes a single-lens reflex configuration capable of forming the subject image on the image pickup device and acquiring the picked-up image data, and the second image pickup device acquires the preparation image data from the subject image formed on the viewfinder screen.

また、好ましくは、第1の撮像素子は、撮影光学系を介した被写体像が結像して撮像画像データの取得が可能であり、第2の撮像素子は、撮影光学系とは異なる測光光学系を介した被写体像により準備画像データを取得する位置に配置されている。   Preferably, the first image sensor is capable of acquiring captured image data by forming a subject image via the photographing optical system, and the second image sensor is a photometric optical device different from the photographing optical system. It is arranged at a position where the preparation image data is acquired from the subject image via the system.

本発明に係る撮影方法は、被写体の撮像画像データを取得する撮像画像データ取得方法と、撮像画像データに対して光軸に垂直な面の方向にずれた画像である準備画像データを取得する準備画像データ取得方法と、撮像画像データと準備画像データを一時記憶する画像データ一時記憶方法と、撮像画像データに対して画像処理を行う画像処理方法と、撮像画像データと準備画像データから特定領域を抽出する領域抽出方法とを含み、撮影動作の実行時に、準備画像データから特定領域を抽出して第1の抽出画像として画像データ一時記憶手段に記憶し、撮像画像データから第1の抽出画像に対応する第1の対応領域を検出し、第1の対応領域の撮像画像データに基づいて画像処理を実行することを特徴としている。   The imaging method according to the present invention includes a captured image data acquisition method for acquiring captured image data of a subject, and a preparation for acquiring preparation image data that is an image shifted in a direction perpendicular to the optical axis with respect to the captured image data. An image data acquisition method, an image data temporary storage method for temporarily storing captured image data and preparation image data, an image processing method for performing image processing on captured image data, and a specific region from the captured image data and the preparation image data And extracting a specific area from the preparatory image data and storing it as a first extracted image in the image data temporary storage means, and from the captured image data to the first extracted image. A corresponding first corresponding area is detected, and image processing is executed based on captured image data of the first corresponding area.

本発明によれば、測光センサが設けられるカメラであって、カメラの構造を複雑にすることなく、測光センサで得られた撮影前の画像を利用して、撮像画像に対する画像処理の精度を向上させることが可能となる。   According to the present invention, a camera provided with a photometric sensor improves the accuracy of image processing on a captured image by using a pre-photographed image obtained by the photometric sensor without complicating the structure of the camera. It becomes possible to make it.

本発明の第1または第2の実施形態を適用したデジタルカメラの断面図である。It is sectional drawing of the digital camera to which the 1st or 2nd embodiment of this invention is applied. 撮像素子と測光センサにそれぞれ結像した被写体像の位置ずれを示す図である。It is a figure which shows the position shift of the to-be-photographed image formed in the image pick-up element and the photometry sensor, respectively. デジタルカメラのシステム構成図である。1 is a system configuration diagram of a digital camera. 図3のCPUにおけるホワイトバランス処理を示す概念図である。It is a conceptual diagram which shows the white balance process in CPU of FIG. フラッシュ撮影制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of flash imaging | photography control. ホワイトバランス処理を示す図である。It is a figure which shows a white balance process. パターンマッチングをしない場合のホワイトバランス処理を示す図である。It is a figure which shows the white balance process when not performing pattern matching. 本発明の第2の実施形態に係るCPUにおける画像合成処理を示す概念図である。It is a conceptual diagram which shows the image composition process in CPU which concerns on the 2nd Embodiment of this invention. 画像合成の処理を示すフローチャートである。It is a flowchart which shows the process of image composition. 画像合成を示す図である。It is a figure which shows image composition. パターンマッチングをしない場合の画像合成を示す図である。It is a figure which shows the image composition when not performing pattern matching.

以下、第1の実施形態を図面を参照して説明する。図1は一眼レフのデジタルカメラ10すなわち撮像装置の断面図である。デジタルカメラ10のカメラボディには、撮影光学系11が設けられる。カメラボディ内において撮影光学系11の光軸上には、撮像素子(第1の撮像素子)13が設けられる。撮像素子13は例えばCMOSである。撮影光学系11を通った光が撮像素子13の受光面に結像することにより、被写体の撮像画像(被写体の画像)データが得られる。撮像画像データは例えば2400万画素のデータである。   Hereinafter, a first embodiment will be described with reference to the drawings. FIG. 1 is a cross-sectional view of a single-lens reflex digital camera 10, that is, an imaging apparatus. The camera body of the digital camera 10 is provided with a photographing optical system 11. An image sensor (first image sensor) 13 is provided on the optical axis of the photographing optical system 11 in the camera body. The image sensor 13 is, for example, a CMOS. The light that has passed through the photographing optical system 11 forms an image on the light receiving surface of the image sensor 13, whereby captured image data of the subject (subject image) is obtained. The captured image data is, for example, data of 24 million pixels.

撮影光学系11の光軸上で、撮影光学系11と撮像素子13の間にはハーフミラーであるメインミラー(可動ミラー)15が設けられる。図1に示すように、撮影待機状態においてメインミラー15は撮影光学系11の光軸に対して傾斜しており、撮影時には水平状態に定められる。撮影光学系11を通った光はメインミラー15により反射し、これによりファインダスクリーン19に被写体像が結像する。メインミラー15の反射面に対する裏面には、サブミラー17が撮影光学系11の光軸に対して傾斜状態に定められる。メインミラー15を透過した光は、サブミラー17において反射し、その下方に設けられた測距センサ21に結像する。測距センサ21は例えばCCDである。   On the optical axis of the photographic optical system 11, a main mirror (movable mirror) 15 that is a half mirror is provided between the photographic optical system 11 and the image sensor 13. As shown in FIG. 1, the main mirror 15 is inclined with respect to the optical axis of the photographing optical system 11 in the photographing standby state, and is set in a horizontal state during photographing. The light that has passed through the photographing optical system 11 is reflected by the main mirror 15, thereby forming a subject image on the finder screen 19. On the back surface of the main mirror 15 with respect to the reflecting surface, the sub mirror 17 is set in an inclined state with respect to the optical axis of the photographing optical system 11. The light transmitted through the main mirror 15 is reflected by the sub mirror 17 and forms an image on the distance measuring sensor 21 provided below the sub mirror 17. The distance measuring sensor 21 is, for example, a CCD.

メインミラー15において反射した光はペンタプリズム23により接眼光学系25に導かれる。測光センサ(第2の撮像素子)27は接眼光学系25よりも上方に設けられる。メインミラー15において反射した光は測光センサ27にも導かれ、測光センサ27に結像する。測光センサ27は例えばCCDであるが撮像素子13よりも画素数は少なく、例えば8万6千画素である。なお、本明細書において、撮像素子13、測距センサ21および測光センサ27はともに画像を検出するための光電変換素子だが、説明の便宜のために各素子の従来の機能を示す名称で表記する。   The light reflected by the main mirror 15 is guided to the eyepiece optical system 25 by the pentaprism 23. The photometric sensor (second image sensor) 27 is provided above the eyepiece optical system 25. The light reflected by the main mirror 15 is guided to the photometric sensor 27 and forms an image on the photometric sensor 27. The photometric sensor 27 is, for example, a CCD, but has a smaller number of pixels than the image sensor 13, for example, 86,000 pixels. In this specification, the image sensor 13, the distance measuring sensor 21, and the photometric sensor 27 are all photoelectric conversion elements for detecting an image, but for convenience of explanation, they are represented by names indicating conventional functions of the elements. .

測光センサ27により得られる準備画像は、測光センサが接眼光学系の光軸からずれているため、撮像素子13により得られる撮像画像に対して位置ずれがある。すなわち、測光センサ27は撮像画像データに対して光軸に垂直な面の方向にずれた画像である準備画像データを検出する。例えば図2に示すように、撮像画像A1と準備画像A2では人物に合焦しているが、準備画像A2は撮像画像A1に対して位置ずれが生じるため、人物の足の先端が画像からはずれ、木の上方である空の画像領域が大きくなる。   The prepared image obtained by the photometric sensor 27 is misaligned with respect to the captured image obtained by the imaging element 13 because the photometric sensor is displaced from the optical axis of the eyepiece optical system. That is, the photometric sensor 27 detects preparation image data that is an image shifted in the direction of a plane perpendicular to the optical axis with respect to the captured image data. For example, as shown in FIG. 2, the captured image A1 and the prepared image A2 are focused on a person, but the prepared image A2 is displaced with respect to the captured image A1, so that the tip of the person's foot is displaced from the image. The empty image area above the tree becomes larger.

準備画像A2と撮像画像A1との位置ずれ量は撮影光学系の条件や被写体距離によって変化する。例えばカメラに対して近くに位置する被写体である人物と遠くに位置する被写体である木とでは、準備画像A2と撮像画像A1における位置ずれ量は異なる。このように準備画像A2と撮像画像A1とでは全体的に位置ずれがあるが、この位置ずれの大きさは部分ごとに異なる。したがって準備画像A2と撮像画像A1との全体的な位置ずれを単純な演算によっては補正することができず、通常準備画像A2を撮像画像A1に利用することができない。本実施形態では準備画像が高精細であるため準備画像の一部を撮像画像の画像処理に利用している。   The amount of positional deviation between the preparation image A2 and the captured image A1 varies depending on the conditions of the photographing optical system and the subject distance. For example, the amount of positional deviation between the prepared image A2 and the captured image A1 differs between a person who is a subject located near the camera and a tree which is a subject located far away. As described above, the prepared image A2 and the captured image A1 are entirely misaligned, but the size of the misalignment varies from part to part. Therefore, the overall positional deviation between the prepared image A2 and the captured image A1 cannot be corrected by a simple calculation, and the normal prepared image A2 cannot be used for the captured image A1. In the present embodiment, since the prepared image is high definition, a part of the prepared image is used for image processing of the captured image.

従来、測光センサは被写体の明るさを測定するために用いられ、被写体領域を例えば77分割の領域に分割して測定していた。これに対して本実施形態に係る測光センサ27は、被写体の明るさを測定するためだけでなく、ストロボ光が当たる被写体の画像領域を検出するためにも用いられる。すなわち測光センサ27で検出される準備画像は、上述したように8万6千画素であり撮像画像よりは粗いが、従来のものに比べて多いので被写体像を検出することができる。   Conventionally, a photometric sensor is used to measure the brightness of a subject, and the subject region is measured by dividing the subject region into, for example, 77 divided regions. On the other hand, the photometric sensor 27 according to the present embodiment is used not only for measuring the brightness of the subject but also for detecting the image area of the subject that is exposed to the strobe light. That is, the preparatory image detected by the photometric sensor 27 is 86,000 pixels as described above, which is coarser than the captured image, but is larger than the conventional one, so that the subject image can be detected.

図3はデジタルカメラのシステム構成図を示す。撮像素子13と測距センサ21と測光センサ27は信号処理部57に設けられたメモリコントローラ51に接続される。信号処理部57にはCPU55が設けられ、メモリコントローラ51はCPU55に接続される。メモリコントローラ51はSDRAM53に接続され、CPU55はフラッシュ(プリ発光手段)59に接続される。信号処理部57には、LCDディスプレイ61と操作部63とモータドライバ65が接続され、また、メモリカード67が着脱可能に取り付けられる。   FIG. 3 shows a system configuration diagram of the digital camera. The image sensor 13, the distance measuring sensor 21, and the photometric sensor 27 are connected to a memory controller 51 provided in the signal processing unit 57. The signal processor 57 is provided with a CPU 55, and the memory controller 51 is connected to the CPU 55. The memory controller 51 is connected to the SDRAM 53 and the CPU 55 is connected to a flash (pre-light emitting means) 59. An LCD display 61, an operation unit 63, and a motor driver 65 are connected to the signal processing unit 57, and a memory card 67 is detachably attached.

撮像素子13により得られる撮像画像データと測光センサ27により得られる準備画像データは、メモリコントローラ51に送られ、SDRAM53にRAW形式で一時的に保存される。LCDディスプレイ61は信号処理部57から出力される撮像画像データに基づいて撮像画像を表示する。メモリカード67は信号処理部57から出力される画像データを保存する。   Captured image data obtained by the image sensor 13 and preparation image data obtained by the photometric sensor 27 are sent to the memory controller 51 and temporarily stored in the SDRAM 53 in the RAW format. The LCD display 61 displays a captured image based on the captured image data output from the signal processing unit 57. The memory card 67 stores image data output from the signal processing unit 57.

モータドライバ65はCPU55からの駆動信号を入力して撮影光学系11(図1)、メカシャッタ(図示せず)等を駆動する。操作部63は、カメラボディに設けられるレリーズボタン、撮影モード切替ダイアル等である。操作部63を操作することにより発生する動作指示信号がCPU55に入力される。信号処理部57はSDRAM53に一時的に保存されたRAW形式の撮像画像データをJPEG形式等の画像データに圧縮することができる。また信号処理部57はメモリカード67との間で撮像画像データの書き込みまたは読み出しを行う。CPU55はフラッシュ59を制御する。   The motor driver 65 inputs a drive signal from the CPU 55 and drives the photographing optical system 11 (FIG. 1), a mechanical shutter (not shown), and the like. The operation unit 63 includes a release button provided on the camera body, a shooting mode switching dial, and the like. An operation instruction signal generated by operating the operation unit 63 is input to the CPU 55. The signal processing unit 57 can compress the captured image data in the RAW format temporarily stored in the SDRAM 53 into image data in the JPEG format or the like. The signal processing unit 57 writes or reads captured image data with the memory card 67. The CPU 55 controls the flash 59.

信号処理部57は撮影前に測光センサ27で得られた準備画像データに基づき撮像時の露出値を求める。撮影動作の実行時に、決定された露出値に基づいてモータドライバ65、撮影光学系11、シャッタ(不図示)が制御される。   The signal processing unit 57 obtains an exposure value at the time of imaging based on the preparation image data obtained by the photometric sensor 27 before photographing. When the photographing operation is executed, the motor driver 65, the photographing optical system 11, and the shutter (not shown) are controlled based on the determined exposure value.

図4はCPU55におけるホワイトバランス処理を示す概念図である。この例において撮影はフラッシュ59(図3参照)を発光させて行われる。測光センサ用画像処理部(領域抽出手段)101は撮影時にプリ発光することにより得られた準備画像データの中からプリ発光による受光量が相対的に多い領域を抽出する。また、測光センサ用画像処理部101は抽出した領域の画像である第1の抽出画像を生成する。第1の抽出画像はパターンマッチング部103に入力される。縮小画像生成部105は本発光により得られた撮像画像データのデータ量を小さくした縮小画像データを生成する。縮小画像データはパターンマッチング部103に入力される。パターンマッチング部103は縮小画像と第1の抽出画像との間でパターンマッチングを行い、縮小画像から第1の抽出画像に対応する第1の対応領域を検出する。第1の対応領域の情報は画像処理部107に入力される。なお第1の対応領域の情報には、第1の対応領域を有効に特定できたか否かも含まれる。画像処理部107は、撮像画像データ、縮小画像データおよび第1の対応領域の情報に基づいて撮像画像にホワイトバランス処理を行う。   FIG. 4 is a conceptual diagram showing white balance processing in the CPU 55. In this example, photographing is performed by causing the flash 59 (see FIG. 3) to emit light. A photometric sensor image processing unit (region extracting means) 101 extracts a region having a relatively large amount of light received by pre-emission from the preparatory image data obtained by pre-emission during photographing. Further, the photometric sensor image processing unit 101 generates a first extracted image that is an image of the extracted region. The first extracted image is input to the pattern matching unit 103. The reduced image generation unit 105 generates reduced image data in which the amount of captured image data obtained by the main light emission is reduced. The reduced image data is input to the pattern matching unit 103. The pattern matching unit 103 performs pattern matching between the reduced image and the first extracted image, and detects a first corresponding region corresponding to the first extracted image from the reduced image. Information on the first corresponding area is input to the image processing unit 107. Note that the information on the first corresponding area includes whether or not the first corresponding area has been effectively identified. The image processing unit 107 performs white balance processing on the captured image based on the captured image data, the reduced image data, and the information on the first corresponding area.

図5を用いてフラッシュ撮影制御について説明する。ステップS1において被写体に対してプリ発光が行われる。ステップS2において測光センサは外光のみの場合における準備画像と、プリ発光時における準備画像を取得し、取得された2つの準備画像の各領域の部分露出量を比較する。部分露出量は各領域における露出量(輝度値)である。ステップS3において測光センサ用画像処理部101(図4参照)がステップS2における比較結果からプリ発光が相対的に強く当たる領域を抽出する。ステップS4において測光センサ用画像処理部101は抽出した領域の画像を第1の抽出画像として保存する。   The flash photographing control will be described with reference to FIG. In step S1, pre-flash is performed on the subject. In step S <b> 2, the photometric sensor acquires a preparation image in the case of only external light and a preparation image at the time of pre-emission, and compares partial exposure amounts of respective areas of the two acquired preparation images. The partial exposure amount is an exposure amount (luminance value) in each region. In step S <b> 3, the photometric sensor image processing unit 101 (see FIG. 4) extracts a region where the pre-emission is relatively strong from the comparison result in step S <b> 2. In step S4, the photometric sensor image processing unit 101 stores the extracted image of the region as the first extracted image.

ステップS5においてCPUはプリ発光時に得られた準備画像に基づき本発光の光量を決定する。決定された光量に基づいてステップS6において本発光を行い、撮影動作が行われる。撮像動作により得られた撮像画像はステップS7においてSDRAM53(図3参照)に保存される。ステップS8において縮小画像生成部105(図4参照)は保存された撮像画像を読み出しデータ量の小さい縮小画像を生成する。縮小画像を生成するのはパターンマッチングを行う際に小さいデータ量の画像データの方が処理負担が軽減されるからである。ステップS9においてパターンマッチング部103(図4参照)は縮小画像と第1の抽出画像との間でパターンマッチングを行う。パターンマッチングは、第1の抽出画像を縮小画像上で移動させるとともに、必要に応じて第1の抽出画像を拡大、縮小させることにより行われる。これにより縮小画像から第1の抽出画像に対応する第1の対応領域が検出される。   In step S5, the CPU determines the light amount of the main light emission based on the preparation image obtained at the time of the pre-light emission. Based on the determined light quantity, the main light emission is performed in step S6, and a photographing operation is performed. The captured image obtained by the imaging operation is stored in the SDRAM 53 (see FIG. 3) in step S7. In step S8, the reduced image generation unit 105 (see FIG. 4) reads the stored captured image and generates a reduced image with a small data amount. The reduced image is generated because the processing load is reduced for image data with a small data amount when performing pattern matching. In step S9, the pattern matching unit 103 (see FIG. 4) performs pattern matching between the reduced image and the first extracted image. Pattern matching is performed by moving the first extracted image on the reduced image and enlarging or reducing the first extracted image as necessary. As a result, a first corresponding region corresponding to the first extracted image is detected from the reduced image.

ステップS10において画像処理部107(図4参照)がパターンマッチング部103から取得した第1の対応領域の情報に基づいて、第1の対応領域を有効に検出できたか否かを判断する。検出が有効である場合、ステップS11において画像処理部107は、第1の対応領域については第1の対応領域の撮像画像データに基づいて、本発光が相対的に強く当たったものとしてホワイトバランス演算を行うとともに、他の領域については通常のホワイトバランス演算を行う。一方、検出が有効でない場合、ステップS12において画像処理部107はすべての領域について通常のホワイトバランス演算を行う。ステップS13において画像処理部はホワイトバランス演算の結果に基づいてホワイトバランス処理を実行する。   In step S <b> 10, the image processing unit 107 (see FIG. 4) determines whether the first corresponding region has been detected effectively based on the information on the first corresponding region acquired from the pattern matching unit 103. If the detection is valid, in step S11, the image processing unit 107 determines that the main emission is relatively strong for the first corresponding area based on the captured image data of the first corresponding area. In addition, normal white balance calculation is performed for other areas. On the other hand, if the detection is not valid, in step S12, the image processing unit 107 performs normal white balance calculation for all regions. In step S13, the image processing unit executes white balance processing based on the result of the white balance calculation.

上述したフラッシュ撮影制御を図6を参照して、より具体的に説明する。第1の抽出画像A11は、プリ発光の前と後に測光センサにより取得された準備画像データにより得られる。プリ発光時の準備画像A12において破線枠A13の位置に第1の抽出画像A11がある。本発光が行われると、撮像素子により撮像画像が取得され、一時的にSDRAMに保存される。撮像画像が読み出されデータ量の小さい縮小画像A14が生成され、縮小画像A14と第1の抽出画像A11との間でパターンマッチングが行われる。これにより破線枠A15により示される位置、すなわち縮小画像A14における人物の位置が第1の対応領域として検出される。また第1の対応領域に本発光が相対的に強く当たったものと仮定して第1の対応領域についてホワイトバランス演算を行うとともに、その他の領域については通常のホワイトバランス演算が行われる。これにより領域毎にホワイトバランス係数が決定される。このホワイトバランス係数に基づいて撮像画像A16にホワイトバランス処理が実行される。   The above-described flash photographing control will be described more specifically with reference to FIG. The first extracted image A11 is obtained from the preparation image data acquired by the photometric sensor before and after the pre-emission. In the preparatory image A12 at the time of pre-emission, there is a first extracted image A11 at the position of the broken line frame A13. When the main light emission is performed, a captured image is acquired by the image sensor and temporarily stored in the SDRAM. The captured image is read to generate a reduced image A14 with a small amount of data, and pattern matching is performed between the reduced image A14 and the first extracted image A11. Accordingly, the position indicated by the broken line frame A15, that is, the position of the person in the reduced image A14 is detected as the first corresponding area. Further, assuming that the main emission is relatively strongly applied to the first corresponding area, white balance calculation is performed for the first corresponding area, and normal white balance calculation is performed for the other areas. Thereby, the white balance coefficient is determined for each region. Based on this white balance coefficient, a white balance process is performed on the captured image A16.

このように本実施形態では、準備画像により抽出された第1の抽出画像に対応する撮像画像における領域をパターンマッチングにより検出し、この領域を第1の対応領域とする。すなわち、準備画像により取得された特定の領域に関する情報を撮像画像のホワイトバランス処理に利用できる。例えば、フラッシュのプリ発光が届かない領域には通常のホワイトバランス処理を施し、フラッシュ光のプリ発光が届く特定領域にはフラッシュの本発光が当たったものとしてホワイトバランス処理を施すことが可能となる。   As described above, in this embodiment, a region in the captured image corresponding to the first extracted image extracted from the preparation image is detected by pattern matching, and this region is set as the first corresponding region. That is, information regarding a specific area acquired from the preparation image can be used for white balance processing of the captured image. For example, a normal white balance process can be applied to an area where the flash pre-flash does not reach, and a white balance process can be applied to a specific area where the flash pre-flash reaches the main flash. .

これに対して、パターンマッチングを行わない場合について図7を用いて説明する。なお図6と同じ符号は同じものを示すため説明を省略する。撮像画像のデータ量を小さくした縮小画像A21と準備画像A12とでは位置ずれがあるため、破線枠A13の位置に人物が存在するという情報を縮小画像A21にそのまま適用すると破線枠A22の位置に人物が存在することになる。破線枠A22は人物の位置から下方にずれている。この誤った情報に基づきホワイトバランス処理を行うと撮像画像A23の斜線部A24で示されるように、顔の領域と手足の先端近傍においてホワイトバランス処理の精度が低下する。   On the other hand, the case where pattern matching is not performed will be described with reference to FIG. Note that the same reference numerals as those in FIG. Since there is a positional shift between the reduced image A21 in which the data amount of the captured image is reduced and the preparation image A12, if the information that the person exists at the position of the broken line frame A13 is applied to the reduced image A21 as it is, the person at the position of the broken line frame A22 is displayed. Will exist. The broken line frame A22 is shifted downward from the position of the person. When white balance processing is performed based on this erroneous information, the accuracy of white balance processing decreases in the vicinity of the face region and the tip of the limb, as indicated by the shaded area A24 in the captured image A23.

図8は第2の実施形態に係るCPU201における画像合成処理を示す概念図である。測距センサ用画像処理部(領域抽出手段)203には測距センサ21(図3参照)で取得された補助準備画像データが入力される。測距センサ21は例えばCCDであり、その画素数は測光センサ27(図3参照)と同様に例えば8万6千画素である。補助準備画像は、準備画像に対して光軸に垂直な面の方向にずれた画像である。また、測光センサ27が取得した準備画像に白飛びがある場合に、その画像の領域が白飛びのない補助準備画像に置換される。これは通常測距センサ21の方が測光センサ27よりもダイナミックレンジが広いことを利用している。   FIG. 8 is a conceptual diagram showing image composition processing in the CPU 201 according to the second embodiment. The auxiliary preparation image data acquired by the distance sensor 21 (see FIG. 3) is input to the distance sensor image processing unit (area extracting means) 203. The distance measuring sensor 21 is, for example, a CCD, and the number of pixels is, for example, 86,000 pixels, similarly to the photometric sensor 27 (see FIG. 3). The auxiliary preparation image is an image shifted from the preparation image in a direction perpendicular to the optical axis. Further, when there is whiteout in the preparation image acquired by the photometric sensor 27, the area of the image is replaced with an auxiliary preparation image without whiteout. This utilizes the fact that the normal distance measuring sensor 21 has a wider dynamic range than the photometric sensor 27.

測距センサ用画像処理部203は補助準備画像データの中で、部分露出量が閾値Yth以上の画像領域がある場合、その画像領域を第2の抽出画像として抽出する。抽出された第2の抽出画像の情報はパターンマッチング部205に入力される。パターンマッチング部205はSDRAMに一時的に保存された準備画像データを読み出し、準備画像と第2の抽出画像との間でパターンマッチングを行い、準備画像から第2の抽出画像に対応する第2の対応領域を検出する。第2の対応領域の情報は画像合成部(画像合成手段)207に入力される。画像合成部207は、準備画像における第2の対応領域を第2の抽出画像により置換することで準備画像と補助準備画像との画像合成処理を行う。   If there is an image area having a partial exposure amount equal to or greater than the threshold Yth in the auxiliary preparation image data, the distance sensor image processing unit 203 extracts the image area as a second extracted image. Information of the extracted second extracted image is input to the pattern matching unit 205. The pattern matching unit 205 reads the preparatory image data temporarily stored in the SDRAM, performs pattern matching between the preparatory image and the second extracted image, and performs second matching corresponding to the second extracted image from the preparatory image. Detect the corresponding area. Information on the second corresponding area is input to the image composition unit (image composition unit) 207. The image composition unit 207 performs image composition processing of the preparation image and the auxiliary preparation image by replacing the second corresponding region in the preparation image with the second extracted image.

図9を用いて合成準備画像生成処理について説明する。ステップS101において測距センサは補助準備画像を取得する。ステップS102において、測距センサ用画像処理部203(図8参照)は補助準備画像の中から、部分露出量が閾値Yth(例えばYth=12Ev)以上の画像領域を抽出する。ステップS103において、測距センサ用画像処理部203は抽出した領域の画像を第2の抽出画像として保存する。   The composite preparation image generation process will be described with reference to FIG. In step S101, the distance measuring sensor acquires an auxiliary preparation image. In step S102, the ranging sensor image processing unit 203 (see FIG. 8) extracts an image region having a partial exposure amount equal to or greater than a threshold Yth (for example, Yth = 12Ev) from the auxiliary preparation image. In step S103, the distance measurement sensor image processing unit 203 stores the extracted image of the region as a second extracted image.

ステップS104においてパターンマッチング部205(図8参照)は準備画像と第2の抽出画像との間でパターンマッチングを行う。パターンマッチングは、第2の抽出画像を準備画像上で移動させるとともに、必要に応じて第2の抽出画像を拡大、縮小させることにより行われる。これにより準備画像から第2の抽出画像に対応する第2の対応領域が検出される。   In step S104, the pattern matching unit 205 (see FIG. 8) performs pattern matching between the prepared image and the second extracted image. Pattern matching is performed by moving the second extracted image on the preparation image and enlarging or reducing the second extracted image as necessary. As a result, a second corresponding region corresponding to the second extracted image is detected from the prepared image.

ステップS105において、画像合成部207(図8参照)はパターンマッチング部205から取得した第2の対応領域の情報に基づいて、第2の対応領域を有効に検出できたか否かを判断する。検出が有効である場合、ステップS106において、画像合成部207は準備画像における第2の対応領域を第2の抽出画像で置換するように画像合成処理を行う。一方、検出が有効でない場合、ステップS107において画像合成部207は後述する通常の画像合成処理を行う。   In step S <b> 105, the image composition unit 207 (see FIG. 8) determines whether the second corresponding area has been detected effectively based on the information on the second corresponding area acquired from the pattern matching unit 205. If the detection is valid, in step S106, the image composition unit 207 performs image composition processing so as to replace the second corresponding region in the preparation image with the second extracted image. On the other hand, if the detection is not valid, in step S107, the image composition unit 207 performs normal image composition processing to be described later.

上述した画像合成処理を図10を参照して、より具体的に説明する。測距センサにより取得された補助準備画像A31には、部分露出量が相対的に低い領域(人物と木の領域)A32と、部分露出量が相対的に高い領域(空と雲と地面の領域)A33とがある。領域A33の部分露出量が閾値Yth以上の場合、領域A33が第2の抽出画像として抽出され、測距センサ用画像処理部203(図8参照)に保存される。一方、補助準備画像A31と同時に測光センサにより取得される準備画像A34にも、部分露出量が相対的に低い領域(人物と木の領域)A35と部分露出量が相対的に高い領域(空と地面の領域)A36がある。しかし領域A36には、補助準備画像A31における領域A33のように本来雲が写っているはずであるが、白飛びしているために雲が写っていない。白飛びしている領域を検出するために、準備画像A34と第2の抽出画像との間でパターンマッチングが行われる。これにより準備画像A34における領域A36が第2の対応領域として検出される。次に、第2の対応領域において白飛びしたものと仮定して、第2の対応領域を第2の抽出画像により置換するように準備画像と補助準備画像を合成する。これにより合成準備画像A37が生成される。   The above-described image composition processing will be described more specifically with reference to FIG. The auxiliary preparation image A31 acquired by the distance measuring sensor includes an area A32 in which the partial exposure amount is relatively low (area of person and tree) A32 and an area in which the partial exposure amount is relatively high (area of sky, clouds, and ground) ) A33. When the partial exposure amount of the area A33 is equal to or greater than the threshold Yth, the area A33 is extracted as the second extracted image and stored in the distance measurement sensor image processing unit 203 (see FIG. 8). On the other hand, the preparation image A34 acquired by the photometric sensor at the same time as the auxiliary preparation image A31 also has a relatively low area (person and tree area) A35 and a relatively high area (sky and area). There is a ground area A36. However, in the area A36, a cloud should be originally reflected as in the area A33 in the auxiliary preparation image A31, but the cloud is not reflected because it is whiteout. In order to detect a whiteout region, pattern matching is performed between the preparation image A34 and the second extracted image. Thereby, the area A36 in the preparation image A34 is detected as the second corresponding area. Next, on the assumption that the second corresponding region is over-exposed, the preparation image and the auxiliary preparation image are synthesized so that the second corresponding region is replaced with the second extracted image. As a result, a composite preparation image A37 is generated.

一方、露出値を変化させて複数の撮像画像を取得し、それらの複数の撮像画像を合成してダイナミックレンジの広い合成撮像画像を取得する技術がある。本実施形態では、これらの複数回の撮影時における露出値を決定するために、準備画像データに基づいて算出される露出値と補助準備画像データに基づいて算出される露出値を用いる。例えば、図10の準備画像A34に基づいて露出値がEv=10と算出され、補助準備画像A31に基づいて露出値がEv=5と算出される。この場合、露出値をEv=5とした場合とEv=10とした場合の2回の撮影を行い、撮影により取得された2つの撮像画像が合成される。   On the other hand, there is a technique for acquiring a plurality of captured images by changing an exposure value, and combining the plurality of captured images to acquire a combined captured image having a wide dynamic range. In this embodiment, in order to determine the exposure value at the time of these multiple times of photographing, the exposure value calculated based on the preparation image data and the exposure value calculated based on the auxiliary preparation image data are used. For example, the exposure value is calculated as Ev = 10 based on the preparation image A34 of FIG. 10, and the exposure value is calculated as Ev = 5 based on the auxiliary preparation image A31. In this case, shooting is performed twice when the exposure value is Ev = 5 and when Ev = 10, and two captured images obtained by the shooting are combined.

このように本実施形態では、補助準備画像により抽出された第2の抽出画像に対応する準備画像における領域をパターンマッチングにより検出し、この領域を第2の対応領域とする。これにより、白飛び等の異常が発生した第2の対応領域を異常のない第2の抽出画像により置換するように合成準備画像生成処理を行うことができる。例えば、準備画像において空の領域に白飛びが発生した場合に、補助準備画像における白飛びの発生していない部分画像により準備画像における空の画像領域を置換することにより、白飛びが発生していない合成準備画像が得られる。よって、準備画像よりもダイナミックレンジの広い合成準備画像が撮影前に得られる。   As described above, in this embodiment, an area in the preparation image corresponding to the second extracted image extracted from the auxiliary preparation image is detected by pattern matching, and this area is set as the second corresponding area. As a result, the composite preparation image generation process can be performed so that the second corresponding area in which an abnormality such as whiteout has occurred is replaced with the second extracted image having no abnormality. For example, when whiteout occurs in an empty area in the preparation image, whiteout occurs by replacing the empty image area in the preparation image with a partial image in which no whiteout occurs in the auxiliary preparation image. No composite ready image is obtained. Therefore, a composite preparation image having a wider dynamic range than the preparation image is obtained before photographing.

また、撮影前に取得された合成準備画像を、第1の実施形態における準備画像として用いることができる。これは露出値を変化させて複数の撮像画像を取得し、取得された複数の撮像画像を合成した合成撮像画像を生成する場合に特に有効である。すなわち、ダイナミックレンジの異なる2つのセンサにより得られた2つの露出値を用いて2回の撮影が行われるため、撮影前に得られた合成準備画像と撮影後に得られた合成撮像画像のダイナミックレンジが同等である。これにより第1の実施形態における第1の対応領域をパターンマッチングにより検出することが容易になる。   Moreover, the composite preparation image acquired before imaging | photography can be used as a preparation image in 1st Embodiment. This is particularly effective when a plurality of captured images are acquired by changing the exposure value and a composite captured image is generated by combining the acquired plurality of captured images. That is, since two shootings are performed using two exposure values obtained by two sensors having different dynamic ranges, the dynamic range of the composite preparatory image obtained before photographing and the composite captured image obtained after photographing is obtained. Are equivalent. Thereby, it becomes easy to detect the first corresponding region in the first embodiment by pattern matching.

一方、補助準備画像と準備画像との間でパターンマッチングを行わない場合について図11を用いて説明する。なお図10と同じ符号は同じものを示すため説明を省略する。準備画像A34における領域A36において部分露出量が閾値Yth以上である場合、領域A36に対応する位置である領域A41の画像データで置換することになる。しかし、準備画像A34と補助準備画像A31とでは位置ずれがあるため、準備画像A34と補助準備画像A31とを合成した合成準備画像A42では、斜線部A43で示されるように、空の領域における木に隣接する部分や雲の上方の領域において画像合成の精度が低下する。   On the other hand, a case where pattern matching is not performed between the auxiliary preparation image and the preparation image will be described with reference to FIG. Note that the same reference numerals as those in FIG. When the partial exposure amount is greater than or equal to the threshold value Yth in the area A36 in the preparation image A34, the image data of the area A41 that is the position corresponding to the area A36 is replaced. However, since there is a positional shift between the preparation image A34 and the auxiliary preparation image A31, in the composite preparation image A42 obtained by combining the preparation image A34 and the auxiliary preparation image A31, as shown by the hatched portion A43, the tree in the empty region The accuracy of the image composition is reduced in a portion adjacent to the region and the region above the cloud.

以上が本発明の実施形態の説明である。なお、第1の実施形態においてホワイトバランス処理について説明したが、他の画像処理にも本発明を適用できる。本発明を適用できる他の画像処理は例えば、白飛びや黒潰れを軽減する諧調補正処理や、ホワイトバランスを変えずに色再現を修正する場合の処理等である。また、第1の実施形態ではプリ発光により特定領域が抽出されたが、人物または動物の顔の領域を第1の抽出画像として抽出してもよい。顔の領域を抽出することは、撮像素子でも取得が可能であるが、撮影前に測光センサで顔の領域を抽出することにより、撮影後のデータ処理を迅速に行うことが可能となる。   The above is the description of the embodiment of the present invention. Although the white balance processing has been described in the first embodiment, the present invention can also be applied to other image processing. Other image processing to which the present invention can be applied are, for example, gradation correction processing for reducing overexposure and blackout, processing for correcting color reproduction without changing white balance, and the like. In the first embodiment, the specific area is extracted by the pre-emission, but the face area of a person or an animal may be extracted as the first extracted image. Extraction of the face area can also be obtained by the image sensor, but by extracting the face area with the photometric sensor before shooting, it is possible to quickly perform data processing after shooting.

また、図1に示されるように、第1の実施形態では測光センサ27が接眼光学系25よりも上方に設けられたが、測光センサ27が接眼光学系25の側方に設けられる場合もある。この場合、測光センサにより取得される準備画像と撮像素子により取得される撮像画像との間の位置ずれが左右方向に生じる。   As shown in FIG. 1, the photometric sensor 27 is provided above the eyepiece optical system 25 in the first embodiment, but the photometric sensor 27 may be provided on the side of the eyepiece optical system 25 in some cases. . In this case, a positional deviation between the preparation image acquired by the photometric sensor and the captured image acquired by the image sensor occurs in the left-right direction.

また、図2の説明において、被写体距離によって位置ずれ量が変化することを説明したが、例えば人物に合焦する場合と木に合焦する場合との間でも、準備画像A2と撮像画像A2における画像全体の位置ずれの大きさは異なる。なお通常、準備画像の画角は撮像画像の画角の8割程度であり、撮像画像における周囲部分の被写体像は測光センサには結像しない。また通常、補助準備画像の画角は撮像画像の画角の6、7割程度である。また本明細書に添付した図面では説明の便宜上画角を考慮していない。   Further, in the description of FIG. 2, it has been described that the amount of displacement varies depending on the subject distance. However, in the preparation image A2 and the captured image A2 between when focusing on a person and when focusing on a tree, for example. The size of the position shift of the entire image is different. Normally, the angle of view of the prepared image is about 80% of the angle of view of the captured image, and the subject image in the surrounding portion of the captured image is not formed on the photometric sensor. Usually, the angle of view of the auxiliary preparation image is about 60 to 70% of the angle of view of the captured image. In the drawings attached to this specification, the angle of view is not considered for convenience of explanation.

また、第2の実施形態において、測距センサは、補助準備画像における多点、すなわち面領域あるいは面方向の多点で合焦のための画像取得が可能である。また、閾値は、白飛びのみならず黒潰れを考慮して、閾値Yth1以上または閾値Yth2以下と設定してもよい。   In the second embodiment, the distance measuring sensor can acquire an image for focusing at multiple points in the auxiliary preparation image, that is, at multiple points in the surface region or the surface direction. Further, the threshold value may be set to be not less than the threshold value Yth1 or not more than the threshold value Yth2 in consideration of not only whiteout but also blackout.

また本明細書では一眼レフカメラについて説明したが、コンパクトデジタルカメラにも本発明は適用できる。この場合、撮像素子は、撮影光学系を介した被写体像が結像することにより撮像画像データの取得が可能であり、測光センサは、撮影光学系とは異なる測光光学系を介した被写体像により準備画像データを取得する位置に配置されている。   In this specification, a single-lens reflex camera has been described. However, the present invention can also be applied to a compact digital camera. In this case, the imaging element can acquire captured image data by forming a subject image via the photographing optical system, and the photometric sensor can capture the subject image via a photometric optical system different from the photographing optical system. It is arranged at a position to acquire the preparation image data.

10 デジタルカメラ
11 撮影光学系
13 撮像素子(第1の撮像素子)
19 ファインダスクリーン
21 測距センサ
25 接眼光学系
27 測光センサ(第2の撮像素子)
53 SDRAM
55、201 CPU
57 信号処理部
59 フラッシュ
63 操作部
101 測光センサ用画像処理部
103、205 パターンマッチング部
105 縮小画像生成部
107 画像処理部
203 測距センサ用画像処理部
207 画像合成部
A1、A16、A23 撮像画像
A2、A12、A34 準備画像
A11 第1の抽出画像
A14、A21 縮小画像
A31 補助準備画像
A37、A42 合成準備画像
DESCRIPTION OF SYMBOLS 10 Digital camera 11 Imaging optical system 13 Image sensor (1st image sensor)
19 Finder screen 21 Ranging sensor 25 Eyepiece optical system 27 Photometric sensor (second image sensor)
53 SDRAM
55, 201 CPU
57 Signal processing unit 59 Flash 63 Operation unit 101 Photometric sensor image processing unit 103, 205 Pattern matching unit 105 Reduced image generation unit 107 Image processing unit 203 Distance sensor image processing unit 207 Image composition unit A1, A16, A23 Captured image A2, A12, A34 Preparation image A11 First extracted image A14, A21 Reduced image A31 Auxiliary preparation image A37, A42 Composition preparation image

Claims (11)

被写体の撮像画像データを取得する第1の撮像素子と、
前記第1の撮像素子と異なる準備画像データを取得する第2の撮像素子と、
前記撮像画像データと前記準備画像データを一時記憶する画像データ一時記憶手段と、
前記撮像画像データに対して画像処理を行う画像処理手段と、
前記撮像画像データと前記準備画像データから特定領域を抽出する領域抽出手段とを備え、
前記領域抽出手段は、前記準備画像データから受光量が相対的に多い特定領域を抽出して第1の抽出画像とし前記撮像画像データから前記第1の抽出画像に対応する第1の対応領域を検出し、
前記画像処理手段は、前記第1の対応領域については、前記第1の対応領域の撮像画像データに基づいて画像処理を実行し、他の領域については前記他の領域の撮像画像データに基づいて画像処理を実行することを特徴とする撮像装置。
A first image sensor for acquiring captured image data of a subject;
A second imaging device for obtaining preparation image data different from the first imaging device;
Image data temporary storage means for temporarily storing the captured image data and the preparation image data;
Image processing means for performing image processing on the captured image data;
Area extraction means for extracting a specific area from the captured image data and the preparation image data;
Area extraction means, before Symbol prepared image data by extracting a specific area received light amount is relatively large as the first extracted image, a first corresponding corresponding to said first extracted image from the captured image data Detect the area,
The image processing means executes image processing based on the captured image data of the first corresponding area for the first corresponding area , and based on the captured image data of the other area for the other areas. An image pickup apparatus that performs image processing .
前記画像処理が、ホワイトバランス(WB)処理であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing is white balance (WB) processing. 前記画像データ一時記憶手段は、前記撮像画像データのRAWデータと共に、前記RAWデータから生成される縮小画像データも併せて記憶し、
前記領域抽出手段は、前記第1の抽出画像を前記縮小画像と比較して、前記第1の対応領域を検出することを特徴とする請求項1または請求項に記載の撮像装置。
The image data temporary storage means stores the reduced image data generated from the RAW data together with the RAW data of the captured image data,
Area extraction means, wherein the first extracted image as compared to the reduced image, the imaging apparatus according to claim 1 or claim 2, characterized in that detecting the first corresponding region.
前記準備画像データに基づいて前記撮像画像取得時の露出値を求める露出制御手段をさらに備え、
影時に、前記露出制御手段により決定された露出値に基づいて前記撮像画像データを取得することを特徴とする請求項1から請求項のいずれかに記載の撮像装置。
Exposure control means for obtaining an exposure value at the time of acquiring the captured image based on the preparation image data;
The shooting Kageji, imaging device according to any one of claims 1 to 3, characterized in that to obtain the captured image data on the basis of the exposure value determined by the exposure control means.
被写体を撮影する前に被写体に対して発光を行うプリ発光手段をさらに備え、
前記領域抽出手段は、前記プリ発光手段を実行させて取得した前記準備画像データから前記第1の抽出画像を抽出することを特徴とする請求項1から請求項のいずれかに記載の撮像装置。
Pre-flash means for emitting light to the subject before photographing the subject,
Area extraction means, the imaging device according to any one of claims 1 to 4, characterized in that extracting the first extract the image from the preparatory image data obtained by executing the pre-emission means .
前記準備画像データに対して光軸に垂直な面の方向にずれた画像である補助準備画像データを取得する測距センサと、
前記準備画像データと前記補助準備画像データを合成した合成準備画像データを生成する画像合成手段とをさらに備え、
前記領域抽出手段は、撮影前に、前記補助準備画像データから部分領域毎の露出量である部分露出量が所定の閾値以上の領域を抽出して第2の抽出画像として前記画像データ一時記憶手段に記憶し、前記準備画像データから前記第2の抽出画像に対応する第2の対応領域を検出し、
前記画像合成手段は、前記第2の対応領域を前記第2の抽出画像により置換することにより前記合成準備画像を生成し、
前記領域抽出手段は、撮影動作の実行時に、前記合成準備画像データから特定領域を抽出して前記第1の抽出画像とすることを特徴とする請求項1からのいずれかに記載の撮像装置。
A distance measuring sensor that acquires auxiliary preparation image data that is an image shifted in a direction perpendicular to the optical axis with respect to the preparation image data;
Image synthesis means for generating synthesis preparation image data obtained by synthesizing the preparation image data and the auxiliary preparation image data;
Area extraction means, Ta before shadow, wherein the image data temporary memory as second extracted image portion exposure amount is an exposed amount of the supplementary preparation image data from each of the partial areas by extracting or more regions a predetermined threshold value Means for detecting a second corresponding region corresponding to the second extracted image from the preparation image data,
The image synthesizing unit generates the synthesis preparation image by replacing the second corresponding region with the second extracted image;
Area extraction means, during the execution of the photographing operation, the image pickup apparatus according to any of claims 1 through 3 by extracting a specific area from the combining preparatory image data, characterized in that said first extracting image .
前記補助準備画像データに基づいて前記撮像画像取得時の合焦制御を行う測距センサをさらに備え、
撮影動作の実行時に、前記測距センサにより決定された合焦制御と、前記測距センサにより取得された露出値に基づいて前記撮像画像データを取得することを特徴とする請求項に記載の撮像装置。
A distance measuring sensor for performing focusing control at the time of acquiring the captured image based on the auxiliary preparation image data;
At run time of the shooting operation, and a focus control which is determined by the distance measuring sensor, according to claim 6, characterized in that to obtain the captured image data on the basis of the exposure value obtained by the distance measuring sensor Imaging device.
前記可動ミラーが撮影光学系から前記撮像素子までの光路に配置され、前記可動ミラーが前記光路に配置された状態では、被写体像がファインダスクリーンに結像し、前記可動ミラーが前記光路から退避する状態では、被写体像が前記撮像素子に結像し、前記撮像画像データが取得され得る一眼レフの構成をさらに備え、
前記第2の撮像素子は、前記ファインダスクリーンに結像した被写体像から前記準備画像データを取得することを特徴とする請求項1から請求項のいずれかに記載の撮像装置。
When the movable mirror is disposed in the optical path from the imaging optical system to the image sensor, and the movable mirror is disposed in the optical path, a subject image is formed on the finder screen, and the movable mirror is retracted from the optical path. In a state, a subject image is formed on the image sensor, and further includes a single-lens reflex configuration capable of acquiring the captured image data,
The second imaging device, the imaging device according to any one of claims 1 to 7, characterized in that obtaining the preparatory image data from the subject image formed on the viewfinder screen.
前記第1の撮像素子は、撮影光学系を介した被写体像が結像して前記撮像画像データの取得が可能であり、
前記第2の撮像素子は、前記撮影光学系とは異なる測光光学系を介した被写体像により前記準備画像データを取得する位置に配置されていることを特徴とする請求項1から請求項のいずれかに記載の撮像装置。
The first image sensor is capable of acquiring the captured image data by forming a subject image via a photographing optical system,
The second imaging device, of claims 1 to 7, characterized in that it is arranged in a position to get the ready image data by the subject image through the different photometric optical system and the imaging optical system The imaging device according to any one of the above.
被写体の撮像画像データを取得する撮像画像データ取得方法と、
前記撮像画像データと異なる画像である準備画像データを取得する準備画像データ取得方法と、
記撮像画像データに対して画像処理を行う画像処理方法と、
前記撮像画像データと前記準備画像データから特定領域を抽出する領域抽出方法とを含み、
前記領域抽出方法は、影時に、前記準備画像データから受光量が相対的に多い特定領域を抽出して第1の抽出画像とし前記撮像画像データから前記第1の抽出画像に対応する第1の対応領域を検出し、
前記画像処理方法は、前記第1の対応領域については、前記第1の対応領域の撮像画像データに基づいて画像処理を実行し、他の領域については前記他の領域の撮像画像データに基づいて画像処理を実行することを特徴とする撮像方法。
A captured image data acquisition method for acquiring captured image data of a subject;
A preparation image data acquisition method for acquiring preparation image data which is an image different from the captured image data;
And an image processing method for performing image processing for the previous SL captured image data,
A region extraction method for extracting a specific region from the captured image data and the preparation image data,
Area extraction method, the shooting Kageji, the amount received from the preparatory image data is a first extraction image by extracting a relatively high specific area, corresponds from the captured image data into the first extraction image Detecting a first corresponding region;
The image processing method executes image processing based on captured image data of the first corresponding region for the first corresponding region , and based on captured image data of the other region for other regions. An imaging method characterized by executing image processing .
前記領域抽出手段は、前記準備画像データから前記第1の抽出画像を抽出する際に、人物または動物の顔の領域を第1の抽出画像として抽出することを特徴とする請求項1から請求項のいずれかに記載の撮像装置。
The region extraction unit extracts a region of a human or animal face as a first extracted image when extracting the first extracted image from the preparation image data. The imaging apparatus according to any one of 9 .
JP2013234351A 2013-11-12 2013-11-12 Imaging apparatus and imaging method Active JP6260213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013234351A JP6260213B2 (en) 2013-11-12 2013-11-12 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013234351A JP6260213B2 (en) 2013-11-12 2013-11-12 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2015095775A JP2015095775A (en) 2015-05-18
JP6260213B2 true JP6260213B2 (en) 2018-01-17

Family

ID=53197904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013234351A Active JP6260213B2 (en) 2013-11-12 2013-11-12 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6260213B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069884A (en) * 2001-08-28 2003-03-07 Fuji Photo Film Co Ltd Automatic subject following device for photographing camera
JP4412109B2 (en) * 2004-08-16 2010-02-10 株式会社ニコン Electronic camera having color balance adjustment function and program
JP2007249526A (en) * 2006-03-15 2007-09-27 Fujifilm Corp Imaging device, and face area extraction method
JP2009152725A (en) * 2007-12-19 2009-07-09 Fujifilm Corp Automatic tracing apparatus and method
JP5197083B2 (en) * 2008-03-21 2013-05-15 キヤノン株式会社 Imaging apparatus and control method thereof
JP2010107862A (en) * 2008-10-31 2010-05-13 Hoya Corp Af-bracket photographic method and device
JP5532621B2 (en) * 2009-02-17 2014-06-25 株式会社ニコン Electronic camera and image processing program

Also Published As

Publication number Publication date
JP2015095775A (en) 2015-05-18

Similar Documents

Publication Publication Date Title
US9473698B2 (en) Imaging device and imaging method
US7403710B2 (en) Image processing apparatus and image processing method
TWI399977B (en) Image capture apparatus and program
US10205878B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US9716824B2 (en) Focus detection apparatus and focus detection method
JP2013515442A (en) Generation of high dynamic range image using still image and preview image
JP2014044345A (en) Imaging apparatus
JP2007074163A (en) Imaging device and imaging method
JP2009258610A (en) Focal length detecting device, imaging apparatus, imaging method, camera, focusing device, and focusing method
US9894339B2 (en) Image processing apparatus, image processing method and program
JP2010072619A (en) Exposure operation device and camera
JP2001264622A (en) Automatic focusing device, digital camera, portable information input device, focusing position detecting method and computer readable recording medium
JP2013141105A (en) Image processing device, electronic camera, and image processing program
JP4747673B2 (en) Electronic camera and image processing program
JP5023750B2 (en) Ranging device and imaging device
JP6260213B2 (en) Imaging apparatus and imaging method
JP2005086271A (en) Electronic camera
JP2012063664A (en) Photometric device and electronic camera
JP2006217249A (en) Electronic camera, electronic camera system and program
JP6573382B2 (en) Imaging apparatus and photometric method
JP5747595B2 (en) Exposure control device and camera
KR20110074417A (en) Image taking device and method and program for taking image therewith
JP5423140B2 (en) Photometric device and imaging device
JP2006140797A (en) Image processor and image processing method
JP5625711B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20150327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6260213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250