JP5526733B2 - Image composition device, image reproduction device, and imaging device - Google Patents

Image composition device, image reproduction device, and imaging device Download PDF

Info

Publication number
JP5526733B2
JP5526733B2 JP2009267292A JP2009267292A JP5526733B2 JP 5526733 B2 JP5526733 B2 JP 5526733B2 JP 2009267292 A JP2009267292 A JP 2009267292A JP 2009267292 A JP2009267292 A JP 2009267292A JP 5526733 B2 JP5526733 B2 JP 5526733B2
Authority
JP
Japan
Prior art keywords
image
evaluation value
signal
subject
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009267292A
Other languages
Japanese (ja)
Other versions
JP2011113174A (en
Inventor
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009267292A priority Critical patent/JP5526733B2/en
Publication of JP2011113174A publication Critical patent/JP2011113174A/en
Application granted granted Critical
Publication of JP5526733B2 publication Critical patent/JP5526733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像合成装置、画像再生装置、および撮像装置に関するものである。   The present invention relates to an image composition device, an image reproduction device, and an imaging device.

従来より、撮像素子の撮像面に結像した被写体像を撮像信号として出力する撮像装置が知られている。このような撮像装置において、1回の撮影で得られた撮像信号に基づいて、光学系の任意の像面に焦点の合った画像を合成する技術が開示されている(特許文献1)。   2. Description of the Related Art Conventionally, an imaging apparatus that outputs a subject image formed on an imaging surface of an imaging element as an imaging signal is known. In such an imaging apparatus, a technique for synthesizing an image focused on an arbitrary image plane of an optical system based on an imaging signal obtained by one imaging is disclosed (Patent Document 1).

特開2007−4471号公報JP 2007-4471 A

しかしながら、従来技術では、特定の被写体について焦点の合った画像を取得するための像面をいかにして決定するかについては何ら提案されていなかった。   However, in the prior art, no proposal has been made on how to determine an image plane for acquiring a focused image for a specific subject.

本発明が解決しようとする課題は、撮影画像中の特定の被写体について焦点の合った画像を適切に得ることができる画像合成装置を提供することである。   The problem to be solved by the present invention is to provide an image synthesizing apparatus that can appropriately obtain a focused image of a specific subject in a captured image.

この発明は、以下の解決手段によって上記課題を解決する。なお、発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In addition, although the code | symbol corresponding to drawing which shows embodiment of this invention is attached | subjected and demonstrated, this code | symbol is only for making an understanding of invention easy, and is not the meaning which limits invention.

[1]本発明に係る画像合成装置は、1回の露光動作において光束を受光して得られた受光信号を入力する入力手段(101)と、前記受光信号に基づく画像内から部分領域を選択するための領域選択手段(104)と、前記部分領域に対応する前記受光信号に基づいて前記部分領域の第1の像面位置における第1画像信号と、前記第1の像面位置とは異なる、前記部分領域の第2の像面位置における第2画像信号とを生成するとともに、前記第1画像信号のコントラストに関する評価値と、前記第2画像信号のコントラストに関する評価値とに基づいて、前記評価値が最大値近傍の値となる像面位置に対応する画像信号を生成する画像信号を生成する画像生成手段(104)と、を備えることを特徴とする。
[1] image synthesizing apparatus according to the present invention includes an input means for inputting a light receiving signal obtained by receiving the light beam in a single exposure operation (101), a partial area from the image based on the received light signal an area selecting means for selecting (104), on the basis of the light reception signal corresponding to the partial region, a first image signal in a first image plane position of the partial region, said first image plane position different, the generates the second image signal in the second image plane position of the partial region, an evaluation value relating to the contrast of the first image signal, on the basis of the evaluation value about the contrast of the second image signal And image generation means (104) for generating an image signal for generating an image signal corresponding to an image plane position where the evaluation value is a value in the vicinity of the maximum value .

[2]上記画像合成装置に係る発明において、前記画像生成手段(104)は、少なくとも3つの画像信号の評価値に基づいて、前記評価値が最大となる像面位置に対応する画像信号を生成するように構成することができる。
[2] In the invention relating to the image composition device, the image generation means (104) generates an image signal corresponding to an image plane position where the evaluation value is maximum based on evaluation values of at least three image signals . Can be configured to.

]上記画像合成装置に係る発明において、前記領域選択手段(104)は、前記受光信号に基づく画像のシーンを認識する認識手段(104)を備え、前記画像生成手段(104)は、前記認識手段により認識されたシーンに応じて、前記部分領域を決定するように構成することができる。
[ 3 ] In the invention relating to the image composition device, the area selection means (104) includes a recognition means (104) for recognizing an image scene based on the light reception signal, and the image generation means (104) The partial area may be determined according to the scene recognized by the recognition means.

]本発明に係る画像再生装置は、上記画像合成装置と、前記画像信号に基づく画像を表示する表示部(102)と、を備えることを特徴とする。
[ 4 ] An image reproduction device according to the present invention is characterized by including the above-described image composition device and a display unit (102) for displaying an image based on the image signal.

]本発明に係る撮像装置は、上記画像合成装置と、複数のマイクロレンズ(212a)を二次元状に配列したマイクロレンズアレイ(212)、および前記複数のマイクロレンズに対して設けられた複数の光電変換素子(213a)を有し、前記マイクロレンズアレイを介して光学系からの光束を受光して得られた前記受光信号を、前記入力手段(101)に入力する撮像素子(211)と、を備えることを特徴とする。

[ 5 ] An imaging device according to the present invention is provided for the above-described image composition device, a microlens array (212) in which a plurality of microlenses (212a) are two-dimensionally arranged, and the plurality of microlenses. An image sensor (211) having a plurality of photoelectric conversion elements (213a) and inputting the received light signal obtained by receiving a light beam from an optical system via the microlens array to the input means (101). And.

本発明によれば、撮影画像中の特定の被写体について焦点の合った画像を適切に得ることができる。   According to the present invention, it is possible to appropriately obtain an image focused on a specific subject in a captured image.

図1は、本実施形態に係るパソコン100の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a personal computer 100 according to the present embodiment. 図2は、本実施形態に係るカメラ200の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the camera 200 according to the present embodiment. 図3は、表示部102のディスプレイに表示される画像の一例である。FIG. 3 is an example of an image displayed on the display of the display unit 102. 図4は、撮像素子211の撮像面の部分拡大図である。FIG. 4 is a partial enlarged view of the imaging surface of the imaging device 211. 図5は、撮像素子211の構成を説明するための図である。FIG. 5 is a diagram for explaining the configuration of the image sensor 211. 図6は、本実施形態に係る画像合成システムの動作例を示すフローチャートである。FIG. 6 is a flowchart illustrating an operation example of the image composition system according to the present embodiment. 図7は、マイクロレンズ212aを介して、光電変換素子アレイ213を構成する複数の光電変換素子213aのうち、特定の光電変換素子cに入射する光束の一例を示す図である。7, through the micro lens 212a, among the plurality of photoelectric conversion elements 213a constituting the photoelectric conversion element array 213 is a diagram showing an example of a light beam incident on a particular photoelectric conversion element c 1. 図8は、被写体の存在位置に対応する像面が、特定の面(Z=0)であるときの画像合成方法の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of an image composition method when the image plane corresponding to the position where the subject exists is a specific plane (Z = 0). 図9は、被写体の存在位置に対応する像面が、特定の面(Z=h)であるときの画像合成方法の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of an image composition method when the image plane corresponding to the position where the subject exists is a specific plane (Z = h 1 ). 図10は、被写体の存在位置に対応する像面が、特定の面(Z=h)であるときの画像合成方法の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of an image composition method when the image plane corresponding to the position where the subject exists is a specific plane (Z = h 2 ).

以下、本発明の実施形態を図面に基づいて説明する。本実施形態の画像合成システムは、図1に示すパーソナルコンピュータ(パソコン)100と図2示すカメラ200とから構成される。また、本実施形態の画像合成システムは、カメラ200により撮影された撮影画像の画像データをパソコン100に取り込み、パソコン100において、取り込まれた撮影画像の画像データに基づいて、画像合成処理を行うシステムである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The image composition system according to this embodiment includes a personal computer (personal computer) 100 shown in FIG. 1 and a camera 200 shown in FIG. In addition, the image composition system of the present embodiment captures image data of a captured image captured by the camera 200 into the personal computer 100, and the personal computer 100 performs image composition processing based on the captured image data of the captured image. It is.

図1は、本実施形態に係るパソコン100の構成を示すブロック図である。図1に示すように、パソコン100は、入力部101と、表示部102と、操作部103と、制御部104とを備えている。   FIG. 1 is a block diagram showing a configuration of a personal computer 100 according to the present embodiment. As shown in FIG. 1, the personal computer 100 includes an input unit 101, a display unit 102, an operation unit 103, and a control unit 104.

入力部101は、カメラ200で撮影された撮影画像の画像データを取得して、パソコン100に取り込み、取り込んだ撮影画像の画像データを、制御部104に送信する。ここで、入力部101としては、例えば、USBケーブルを介して外部機器を接続するためのUSBインターフェースを用いることができる。この場合、入力部101に、SDカードなどのメモリカードにデータを入出力するためのメモリカードリーダーを接続し、カメラ200で撮影された撮影画像の画像データを保存したメモリカードを、接続したメモリカードリーダーに挿入することで、入力部101は、カメラ200で撮影された撮影画像の画像データを取得することができる。なお、入力部101は、上述のUSBインターフェースに限定されず、例えば、メモリカードを直接挿入可能なインターフェースであってもよいし、有線または無線の通信回線(不図示)を介して、カメラ200から撮影画像の画像データを受信可能なインターフェースであってもよいし、あるいは所定のケーブルを介してカメラ200と直接接続することが可能なインターフェースであってもよい。   The input unit 101 acquires image data of a captured image captured by the camera 200, captures the image data in the personal computer 100, and transmits the captured image data of the captured image to the control unit 104. Here, as the input unit 101, for example, a USB interface for connecting an external device via a USB cable can be used. In this case, a memory card reader for inputting / outputting data to / from a memory card such as an SD card is connected to the input unit 101, and a memory card storing image data of a photographed image taken by the camera 200 is connected to the memory. By inserting the card in the card reader, the input unit 101 can acquire image data of a photographed image photographed by the camera 200. Note that the input unit 101 is not limited to the USB interface described above, and may be, for example, an interface into which a memory card can be directly inserted, or from the camera 200 via a wired or wireless communication line (not shown). An interface that can receive image data of a captured image may be used, or an interface that can be directly connected to the camera 200 via a predetermined cable.

表示部102は、カメラ200で撮影された撮影画像の画像データに基づく画像を、表示部102が備えるディスプレイに表示する。なお、図3に、表示部102により表示される画像の一例を示す。   The display unit 102 displays an image based on image data of a captured image captured by the camera 200 on a display included in the display unit 102. FIG. 3 shows an example of an image displayed by the display unit 102.

操作部103は、使用者が焦点を合わせたい被写体を選択する操作などの各種操作を行うために、使用者によって用いられるキーボード、マウス、およびタッチパネルなどの各種操作装置で構成される。例えば、操作部103を介して、使用者により、表示部102のディスプレイ上に表示される撮影画像中の被写体のうち、焦点を合わせたい被写体が選択された場合、選択された被写体に対応する撮影画像中の領域の情報が制御部104に送信され、後述する被写体領域として設定される。   The operation unit 103 includes various operation devices such as a keyboard, a mouse, and a touch panel used by the user in order to perform various operations such as an operation of selecting a subject to be focused by the user. For example, when a subject to be focused is selected from subjects in a photographed image displayed on the display of the display unit 102 by the user via the operation unit 103, photographing corresponding to the selected subject is performed. Information on the area in the image is transmitted to the control unit 104 and set as a subject area described later.

制御部104は、メモリ、CPUその他の周辺部品から構成され、カメラ200で撮影された撮影画像の画像データを入力部101から取得し、取得した画像データに基づき、コントラストに関する焦点評価値の算出および評価を行う。さらに、制御部104は、焦点評価値の評価の結果に基づき、焦点評価値が最大となる像面位置に対応する画像の合成を行い、合成画像を得る。   The control unit 104 includes a memory, a CPU, and other peripheral components, acquires image data of a captured image captured by the camera 200 from the input unit 101, calculates a focus evaluation value related to contrast based on the acquired image data, and Evaluate. Further, the control unit 104 synthesizes an image corresponding to the image plane position where the focus evaluation value is maximized based on the evaluation result of the focus evaluation value, and obtains a composite image.

また、制御部104は、操作部103を介して、使用者により、表示部102のディスプレイに表示された撮影画像中の被写体のうち焦点を合わせたい被写体が選択された場合には、撮影者により選択された被写体に対応する撮影画像中の領域を、被写体領域として設定する。例えば、図3に示す例において、使用者により焦点を合わせたい被写体として、表示部102のディスプレイに表示された街灯(ランプ)が選択された場合、制御部104は、図3に示すように、撮影画像中の街灯(ランプ)に対応する領域を、被写体領域として設定する。   In addition, when the user selects the subject to be focused from among the subjects in the captured image displayed on the display of the display unit 102 via the operation unit 103, the control unit 104 selects the subject. An area in the captured image corresponding to the selected subject is set as the subject area. For example, in the example shown in FIG. 3, when a streetlight (lamp) displayed on the display of the display unit 102 is selected as a subject to be focused by the user, the control unit 104, as shown in FIG. An area corresponding to a street lamp (lamp) in the captured image is set as a subject area.

次に、パソコン100において合成画像の合成に用いられる撮影画像を撮影するカメラ200について説明する。図2は、カメラ200の構成を示すブロック図である。図2に示すように、カメラ200は、カメラボディ210とレンズ鏡筒220とを備えている。   Next, a description will be given of the camera 200 that captures a captured image that is used to synthesize a composite image in the personal computer 100. FIG. 2 is a block diagram illustrating the configuration of the camera 200. As shown in FIG. 2, the camera 200 includes a camera body 210 and a lens barrel 220.

レンズ鏡筒220には、レンズ221,222,223、および絞り224を含む撮影光学系が内蔵されている。   The lens barrel 220 incorporates a photographing optical system including lenses 221, 222, 223 and a diaphragm 224.

フォーカスレンズ222は、レンズ鏡筒220の光軸L1に沿って移動可能に設けられ、カメラボディ210側の端部(至近端ともいう)から被写体側の端部(無限端ともいう)までの間を光軸L1方向に移動することができる。ちなみに、このフォーカスレンズ222の移動は、レンズ制御部227からの指令に基づいて制御され、レンズ駆動モータ226によりその位置が調節される。   The focus lens 222 is provided so as to be movable along the optical axis L1 of the lens barrel 220, and extends from an end on the camera body 210 side (also referred to as the closest end) to an end on the subject side (also referred to as an infinite end). It is possible to move in the direction of the optical axis L1. Incidentally, the movement of the focus lens 222 is controlled based on a command from the lens control unit 227, and its position is adjusted by the lens driving motor 226.

絞り224は、上記撮影光学系を通過して、カメラボディ210に備えられた撮像素子211に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り224による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、レンズ制御部227を介して、カメラ制御部215から絞り駆動部225へ送信されることにより行われる。   The aperture 224 has an aperture diameter centered on the optical axis L1 in order to limit the amount of light flux that passes through the imaging optical system and reaches the image sensor 211 provided in the camera body 210 and adjusts the amount of blur. It is configured to be adjustable. Adjustment of the aperture diameter by the aperture 224 is performed by transmitting an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 215 to the aperture drive unit 225 via the lens control unit 227, for example.

一方、カメラボディ210には、被写体からの光束を受光する撮像素子211が、光軸L1上であって、撮影光学系の予定焦点面に設けられている。撮像素子211は二次元CCDイメージセンサ、MOSセンサまたはCIDなどのデバイスから構成され、受光した光信号を受光信号に変換する。ここで、図4は、撮像素子211の撮像面の部分拡大図である。図4に示すように、撮像素子211は、複数のマイクロレンズ212aを二次元状に稠密に配列したマイクロレンズアレイ212を備えている。また、撮像素子211は、各マイクロレンズ212aに対して、複数の光電変換素子213aから構成される各光電変換素子アレイ213を有している。なお、図4において、光電変換素子アレイ213を構成する光電変換素子213aの数(画素密度)は、縦方向および横方向ともに5個となっているが、これらの数は、特に限定されるものではない。   On the other hand, in the camera body 210, an image sensor 211 that receives a light beam from a subject is provided on the planned focal plane of the photographing optical system on the optical axis L1. The image sensor 211 is composed of a device such as a two-dimensional CCD image sensor, a MOS sensor, or a CID, and converts a received optical signal into a received light signal. Here, FIG. 4 is a partially enlarged view of the imaging surface of the imaging device 211. As shown in FIG. 4, the imaging device 211 includes a microlens array 212 in which a plurality of microlenses 212a are densely arranged in a two-dimensional manner. In addition, the imaging element 211 has each photoelectric conversion element array 213 configured with a plurality of photoelectric conversion elements 213a with respect to each microlens 212a. In FIG. 4, the number (pixel density) of the photoelectric conversion elements 213a constituting the photoelectric conversion element array 213 is five in both the vertical direction and the horizontal direction, but these numbers are particularly limited. is not.

さらに、図5は、撮像素子211の構成を説明するための図であり、図4と同様に、撮像素子211の撮像面を拡大した斜視図である。図5に示すように、光電変換素子アレイ213は、マイクロレンズアレイ212の後方に配置されおり、マイクロレンズアレイ212と光電変換素子アレイ213との間には、マイクロレンズ212aの焦点距離に対応する間隔が設けられている。そして、被写体からの光束(光軸L1)は、まずマイクロレンズ212aへと入射され、マイクロレンズ212aを通過して光電変換素子213aで受光される。各光電変換素子213aは受光した光の強度に応じた受光信号を出力し、出力された受光信号は、カメラ制御部215に送信される。   Further, FIG. 5 is a diagram for explaining the configuration of the image sensor 211, and is an enlarged perspective view of the image pickup surface of the image sensor 211 as in FIG. As shown in FIG. 5, the photoelectric conversion element array 213 is arranged behind the microlens array 212, and corresponds to the focal length of the microlens 212 a between the microlens array 212 and the photoelectric conversion element array 213. An interval is provided. A light beam (optical axis L1) from the subject is first incident on the microlens 212a, passes through the microlens 212a, and is received by the photoelectric conversion element 213a. Each photoelectric conversion element 213a outputs a light reception signal corresponding to the intensity of the received light, and the output light reception signal is transmitted to the camera control unit 215.

カメラ操作部214は、例えば、シャッターレリーズボタン、カメラ1の各種動作モードを設定するためのモード設定スイッチなどを備えており、カメラ操作部214により、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。   The camera operation unit 214 includes, for example, a shutter release button, a mode setting switch for setting various operation modes of the camera 1, and the camera operation unit 214 can switch between an autofocus mode and a manual focus mode. It has become.

カメラ制御部215は、撮像素子211から得た受光信号について、A/D変換などの各種処理を施し、画像データとしてメモリ216に記憶させる他、撮像素子211から得た受光信号に基づいて、フォーカスレンズ212の駆動量を算出し、算出したフォーカスレンズ212の駆動量をレンズ制御部227に送信することにより、フォーカスレンズ212の駆動制御を行うなどカメラ1全体の動作の制御を行う。   The camera control unit 215 performs various processes such as A / D conversion on the light reception signal obtained from the image sensor 211 and stores it in the memory 216 as image data. In addition, the camera control unit 215 performs focusing based on the light reception signal obtained from the image sensor 211. By calculating the driving amount of the lens 212 and transmitting the calculated driving amount of the focus lens 212 to the lens control unit 227, the operation of the entire camera 1 is controlled such as driving control of the focus lens 212.

次に、本実施形態に係る画像合成システムの動作例を説明する。図6は、本実施形態に係る画像合成システムの動作例を示すフローチャートである。なお、以下においては、カメラ200で撮影された撮影画像の画像データが、パソコン100に取り込まれているものとして説明する。また、以下に説明する処理は、画像合成システムを構成するパソコン100により行われる。   Next, an operation example of the image composition system according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an operation example of the image composition system according to the present embodiment. In the following description, it is assumed that image data of a photographed image photographed by the camera 200 is captured in the personal computer 100. The processing described below is performed by the personal computer 100 constituting the image composition system.

まず、ステップS101では、カメラ200で撮影された撮影画像が表示部102のディスプレイ上に表示される。例えば、操作部103を介して、使用者により、パソコン100に取り込まれた複数の撮影画像のうち、いずれかの撮影画像が選択された場合、選択された撮影画像が表示部102のディスプレイ上に表示される。なお、ここで用いられる画像データは、上述したように、図5に示すカメラ200の撮像素子211のマイクロレンズ212aを通過した光束を、各光電変換素子213aで受光することにより得られた受光信号に基づくものである。   First, in step S <b> 101, a photographed image photographed by the camera 200 is displayed on the display unit 102. For example, when a user selects one of a plurality of captured images captured in the personal computer 100 via the operation unit 103, the selected captured image is displayed on the display of the display unit 102. Is displayed. Note that, as described above, the image data used here is a light reception signal obtained by receiving the light beam that has passed through the microlens 212a of the imaging element 211 of the camera 200 shown in FIG. 5 by each photoelectric conversion element 213a. It is based on.

続いて、ステップS102では、制御部104により、操作部103を介して、焦点を合わせたい被写体が選択されたか否かの判断が行われる。使用者により被写体が選択された場合はステップS103に進み、選択された被写体に対応する撮影画像中の領域が、被写体領域として設定される。このように被写体領域を設定することで、撮影画像中の全体の領域ではなく、使用者に選択された被写体に対応する被写体領域、すなわち、撮影画像中の一部の領域に対応する画像データに基づいて、後述する画像合成処理が行われることになる。例えば、図3に示す例において、使用者により、焦点を合わせたい被写体として撮影画像中の街灯(ランプ)が選択された場合、ステップS103に進み、図3に示すように、撮影画像中の街灯(ランプ)に対応する領域が、被写体領域として設定される。一方、使用者により被写体が選択されていない場合は、ステップS101に戻り、使用者により被写体が選択されるまで、待機する。   Subsequently, in step S <b> 102, the control unit 104 determines whether or not a subject to be focused is selected via the operation unit 103. When the subject is selected by the user, the process proceeds to step S103, and an area in the captured image corresponding to the selected subject is set as the subject area. By setting the subject area in this way, the subject area corresponding to the subject selected by the user, that is, the image data corresponding to a part of the photographed image, not the entire area in the photographed image. Based on this, an image composition process to be described later is performed. For example, in the example shown in FIG. 3, when the user selects a streetlight (lamp) in the captured image as a subject to be focused, the process proceeds to step S103, and as shown in FIG. 3, the streetlight in the captured image is displayed. An area corresponding to (lamp) is set as a subject area. On the other hand, if the subject has not been selected by the user, the process returns to step S101 and waits until the subject is selected by the user.

ステップS104では、制御部104により、撮影画像の画像データに基づいて、画像合成範囲(合成画像信号を合成可能な範囲。詳細は後述する。)内の複数の像面位置に対応する像面の異なる複数の画像信号が、それぞれ合成画像信号として合成される。   In step S104, based on the image data of the photographed image, the control unit 104 determines image planes corresponding to a plurality of image plane positions within an image synthesis range (a range in which a synthesized image signal can be synthesized; details will be described later). A plurality of different image signals are combined as combined image signals.

ここで、本実施形態で合成される複数の合成画像信号は、後述するステップS105における焦点評価値の算出、および、ステップS106の焦点評価値におけるピークの検出に用いられる。本実施形態においては、画像合成範囲内において合成される合成画像信号の数は、特に限定されないが、焦点評価値のピークを検出できる数であればよく、通常、3点以上である。   Here, the plurality of synthesized image signals synthesized in the present embodiment are used for calculation of a focus evaluation value in step S105 described later and detection of a peak in the focus evaluation value in step S106. In the present embodiment, the number of synthesized image signals to be synthesized within the image synthesis range is not particularly limited, but may be any number that can detect the peak of the focus evaluation value, and is usually three or more.

また、本実施形態において、合成画像信号は、撮影画像中の全ての領域ではなく、撮影画像中の全ての領域のうちステップS103で設定された被写体領域、すなわち、撮影画像中の一部の領域に対応する画像データに基づいて合成される。例えば、図3に示す例において、ステップS103で、図3に示す街灯(ランプ)に対応する撮影画像中の領域が被写体領域として設定された場合、ステップS104では、撮影画像中の全ての領域に対応する画像データではなく、画像データのうち、図3に示す被写体領域に対応するデータに基づいて、合成画像信号が合成される。   In the present embodiment, the composite image signal is not the entire region in the captured image, but the subject region set in step S103 among all the regions in the captured image, that is, a partial region in the captured image. Are synthesized based on the image data corresponding to. For example, in the example shown in FIG. 3, when an area in the captured image corresponding to the street lamp (lamp) shown in FIG. 3 is set as the subject area in step S103, all areas in the captured image are set in step S104. The synthesized image signal is synthesized based on the data corresponding to the subject region shown in FIG. 3 in the image data, not the corresponding image data.

さらに、本実施形態においては、それぞれ異なる複数の像面位置に対応する(像面位置に焦点の合った)複数の合成画像信号が、撮影画像の画像データに基づいて合成されるが、合成画像信号が合成される像面の範囲は、以下に説明する画像合成範囲となる。図7は、合成画像信号を合成可能な範囲である画像合成範囲について説明するための図であり、光電変換素子アレイ213を構成する複数の光電変換素子213aのうちの特定の光電変換素子cに対してマイクロレンズ212aを介して入射する光束を示す図である。なお、図7においては、光電変換素子アレイ213を構成する各光電変換素子213aをa,b,c,d,eで示した。本実施形態に係る撮像装置によって得られる像の分解能は、画素の単位であるマイクロレンズ1つ分に相当する。そのため、分解能を保ったまま像を合成できる像面の範囲は、図7に示すように、光電変換素子213aのマイクロレンズ212aによる逆投影像の大きさが、マイクロレンズ212aの有効径Dとほぼ同じになるマイクロレンズ212aからの距離Lとすることができる。すなわち、マイクロレンズ212aの有効径D(配列ピッチP>D)と同じ大きさの範囲からの光がマイクロレンズ212aを通過して1つの光電変換素子cに入射すれば、画素の単位であるマイクロレンズの大きさに相当する分解能を得ることができる。よって、この距離Lを画像合成範囲となり、この画像合成範囲内の像面位置であれば、異なる複数の像面位置について、合成画像信号を合成することが可能となる。そのため、ステップS104においては、制御部104により、上述した画像合成範囲内において、複数の像面位置に対応する像面の異なる複数の合成画像信号が、以下に説明する画像合成方法に従って合成される。 Furthermore, in this embodiment, a plurality of synthesized image signals corresponding to a plurality of different image plane positions (focused on the image plane positions) are synthesized based on the image data of the captured image. The range of the image plane in which the signals are combined is an image combining range described below. FIG. 7 is a diagram for explaining an image composition range, which is a range in which a composite image signal can be synthesized, and a specific photoelectric conversion element c 1 among a plurality of photoelectric conversion elements 213 a constituting the photoelectric conversion element array 213. It is a figure which shows the light beam which injects with respect to through the micro lens 212a. In FIG. 7, the photoelectric conversion elements 213 a constituting the photoelectric conversion element array 213 are indicated by a 1 , b 1 , c 1 , d 1 , and e 1 . The resolution of an image obtained by the imaging apparatus according to the present embodiment corresponds to one microlens that is a unit of pixel. Therefore, as shown in FIG. 7, the range of the image plane in which the image can be synthesized while maintaining the resolution is such that the size of the back-projected image by the microlens 212a of the photoelectric conversion element 213a is substantially equal to the effective diameter D of the microlens 212a. The distance L from the micro lens 212a can be the same. That is, if light from a range having the same size as the effective diameter D (array pitch P> D) of the microlens 212a passes through the microlens 212a and enters one photoelectric conversion element c1, it is a unit of a pixel. A resolution corresponding to the size of the microlens can be obtained. Therefore, this distance L becomes an image composition range, and if it is an image plane position within this image composition range, it is possible to synthesize a composite image signal for a plurality of different image plane positions. Therefore, in step S104, a plurality of synthesized image signals having different image planes corresponding to a plurality of image plane positions are synthesized by the control unit 104 in accordance with the image synthesizing method described below within the image synthesis range described above. .

図8〜図10は、本実施形態における画像合成方法の一例を説明するための図である。図8に示す場面例では、マイクロレンズアレイ212からの像面の高さ(マイクロレンズアレイ212から距離)をZとした場合に、像面の高さZ=0である位置に画像合成の対象となる被写体が存在する場合である。図8においては、撮像素子211の各光電変換素子アレイ213について、各光電変換素子アレイ213を構成する光電変換素子213aのうち、5つの光電変換素子213aに入射する各光線(マイクロレンズアレイ212を構成するマイクロレンズ212aの中心を通る主光線のみ)を示した。また、図8中においては、各光電変換素子213aを識別するために、それぞれの光電変換素子213aを、a〜e、a〜e、a〜e、a〜e、a〜eで示すとともに、像面の高さZ=0における各座標X、X、X、X、Xのうち、Xからの射出光束(光線r、r、r、r、r)を実線で示し、それ以外のX、X、X、Xからの射出光束を点線で示した(以下、図9、図10においても同様。)。 8 to 10 are diagrams for explaining an example of the image composition method according to the present embodiment. In the example of the scene shown in FIG. 8, when the height of the image plane from the microlens array 212 (distance from the microlens array 212) is Z, the image synthesis target is positioned at a position where the height of the image plane Z = 0. This is a case where there is a subject to be. In FIG. 8, for each photoelectric conversion element array 213 of the image sensor 211, each light beam (microlens array 212 is incident on five photoelectric conversion elements 213 a among the photoelectric conversion elements 213 a constituting each photoelectric conversion element array 213. Only the chief ray passing through the center of the microlens 212a to be configured) is shown. Further, in the figure 8, in order to identify the respective photoelectric conversion elements 213a, each of the photoelectric conversion element 213a, a 1 ~e 1, a 2 ~e 2, a 3 ~e 3, a 4 ~e 4 , A 5 to e 5 and out of the coordinates X 1 , X 2 , X 3 , X 4 , X 5 at the height Z = 0 of the image plane, the emitted light beam from X 3 (light rays r 1 , r 2 , r 3 , r 4 , r 5 ) are indicated by solid lines, and other light beams emitted from X 1 , X 2 , X 4 , X 5 are indicated by dotted lines (hereinafter the same applies to FIGS. 9 and 10). .)

図8に示すように、像面の高さZ=0における座標Xからの射出光束(光線r、r、r、r、r)は、各光電変換素子a、b、c、d、e、にそれぞれ入射する。そのため、像面の高さZ=0における座標Xにおける画素値L(Z=0、X)は、これら光電変換素子a、b、c、d、eにおける出力を合成することにより求めることができる(下記式(1)参照)。
L(Z=0、X)=Out(a)+Out(b)+Out(c)+Out(d)+Out(e) …(1)
As shown in FIG. 8, the emitted light beams (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the height Z = 0 of the image plane are respectively converted into photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , and e 3 , respectively. Therefore, the pixel value L (Z = 0, X 3 ) at the coordinate X 3 at the height Z = 0 of the image plane combines the outputs at these photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , e 3 . (See the following formula (1)).
L (Z = 0, X 3 ) = Out (a 3 ) + Out (b 3 ) + Out (c 3 ) + Out (d 3 ) + Out (e 3 ) (1)

また、同様に、座標Xに隣接する座標Xにおける画素値L(Z=0、X)は、下記式(2)に従って求めることができる。
L(Z=0、X)=Out(a)+Out(b)+Out(c)+Out(d)+Out(e) …(2)
Similarly, the pixel value L (Z = 0, X 4 ) at the coordinate X 4 adjacent to the coordinate X 3 can be obtained according to the following equation (2).
L (Z = 0, X 4 ) = Out (a 4 ) + Out (b 4 ) + Out (c 4 ) + Out (d 4 ) + Out (e 4 ) (2)

したがって、座標Xにおける画素値L(Z=0、X)は、下記式(3)に従って、それぞれ求めることができる。
L(Z=0、X)=Out(a)+Out(b)+Out(c)+Out(d)+Out(e) …(3)
Therefore, the pixel value L (Z = 0, X i ) at the coordinate X i can be obtained according to the following equation (3).
L (Z = 0, X i ) = Out (a i ) + Out (b i ) + Out (c i ) + Out (d i ) + Out (e i ) (3)

なお、上記式(3)は、使用者による指定絞り値が開放(開口サイズ最大)であったときに採用される式である。そのため、仮に、使用者による指定絞り値が最大(開口サイズ最小)であったときには、光線r、r、r、r、rからなる光束を、光線rのみからなる光束に制限すればよいので、上記式(3)に代えて下記式(4)を採用すればよい(後述する図9、図10に示す場合においても同様。)。
L(Z=0、X)=Out(c) …(4)
In addition, the said Formula (3) is a formula employ | adopted when the designated aperture value by a user is open | released (opening size maximum). Therefore, if the aperture value designated by the user is the maximum (minimum aperture size), the light beam composed of the light beams r 1 , r 2 , r 3 , r 4 , r 5 is changed to the light beam composed only of the light beam r 3. Therefore, the following formula (4) may be adopted instead of the above formula (3) (the same applies to the cases shown in FIGS. 9 and 10 described later).
L (Z = 0, X i ) = Out (c i ) (4)

また、絞り値が中間値(開口サイズ中間)であったときには、光線r、r、r、r、rからなる光束を、光線r、r、rのみからなる光束に制限すればよいので、上記式(3)に代えて下記式(5)を採用すればよい(後述する図9、図10に示す場合においても同様。)。
L(Z=0、X)=Out(b)+Out(c)+Out(d) …(5)
When the aperture value is an intermediate value (intermediate aperture size), a light beam composed of the light beams r 1 , r 2 , r 3 , r 4 , and r 5 is converted into a light beam composed of only the light beams r 2 , r 3 , and r 4. Therefore, the following equation (5) may be adopted instead of the above equation (3) (the same applies to the cases shown in FIGS. 9 and 10 described later).
L (Z = 0, X i ) = Out (b i ) + Out (c i ) + Out (d i ) (5)

なお、上記説明においては、或る1方向に並ぶ5つの光電変換素子a、b、c、d、eのみに着目し、それら5つの光電変換素子の出力値の和をとったが、実際は、2方向に並ぶ25個の光電変換素子の出力値の和をとる必要がある(後述する図9、図10に示す場合においても同様。)。 In the above description, only the five photoelectric conversion elements a 3 , b 3 , c 3 , d 3 , and e 3 arranged in a certain direction are focused on, and the sum of the output values of these five photoelectric conversion elements is taken. However, actually, it is necessary to take the sum of the output values of 25 photoelectric conversion elements arranged in two directions (the same applies to the cases shown in FIGS. 9 and 10 described later).

次いで、図9に示すように、像面の高さZ=hである位置に画像合成の対象となる被写体が存在する場合について説明する。図9に示すように、像面の高さZ=hにおける座標Xからの射出光束(光線r、r、r、r、r)は、図8の場合と異なり、各光電変換素子a、b、c、d、eにそれぞれ入射する。そのため、像面の高さZ=hにおける座標Xにおける画素値L(Z=h、X)は、これら光電変換素子a、b、c、d、eにおける出力を合成することにより求めることができる(下記式(6)参照)。
L(Z=h、X)=Out(a)+Out(b)+Out(c)+Out(d)+Out(e) …(6)
Next, as shown in FIG. 9, a case will be described in which a subject to be image-combined exists at a position where the image plane height Z = h 1 . As shown in FIG. 9, the emitted light beam (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the image plane height Z = h 1 is different from the case of FIG. The light enters the photoelectric conversion elements a 1 , b 2 , c 3 , d 4 , and e 5 . Therefore, the pixel value L (Z = h 1 , X 3 ) at the coordinate X 3 at the height Z = h 1 of the image plane is the output from the photoelectric conversion elements a 1 , b 2 , c 3 , d 4 , e 5 . Can be obtained by synthesizing (see the following formula (6)).
L (Z = h 1 , X 3 ) = Out (a 1 ) + Out (b 2 ) + Out (c 3 ) + Out (d 4 ) + Out (e 5 ) (6)

さらに、図10に示すように、像面の高さZ=hである位置に合成対象となる被写体が存在する場合について説明する。図10に示すように、像面の高さZ=hにおける座標Xからの射出光束(光線r、r、r、r、r)は、図8、図9の場合と異なり、複数の光電変換素子にまたがって入射することとなる。具体的には、図10に示すように、光線rは光電変換素子a、bに、光線rは光電変換素子b、cに、光線rは光電変換素子c、dに、光線rは光電変換素子d、eに、それぞれまたがって入射する。なお、光線rは、図10に示すように光電変換素子cにのみ入射する。そのため、光線rに着目すると、光線rの光量は、光電変換素子aの出力値Out(a)と、光電変換素子bの出力値Out(b)との重み付け和によって求めることができる(下記式(7)参照)。ここで、下記式(7)において、w11、w12は、重み係数であり、マイクロレンズアレイ212からの像面の高さZに応じて決まる係数である。
Out(a)×w11+Out(b)×w12 …(7)
Further, as shown in FIG. 10, a case where a subject to be synthesized exists at a position where the height Z of the image plane is Z = h 2 will be described. As shown in FIG. 10, the emitted light beam (rays r 1 , r 2 , r 3 , r 4 , r 5 ) from the coordinate X 3 at the height Z = h 2 of the image plane is the case of FIGS. Unlike the case, the light enters across a plurality of photoelectric conversion elements. Specifically, as shown in FIG. 10, the light beam r 1 is converted into photoelectric conversion elements a 1 and b 1 , the light beam r 2 is converted into photoelectric conversion elements b 2 and c 2 , and the light beam r 4 is converted into a photoelectric conversion element c 4 , The light beam r 5 enters the photoelectric conversion elements d 5 and e 5 across d 4 and d 4 , respectively. The light beam r 3 is incident only on the photoelectric conversion element c 3 as shown in FIG. Therefore, when focusing on the light r 1, the light quantity of the light rays r 1 is determined by the weighted sum of the output value of the photoelectric conversion elements a 1 Out (a 1), the output value of the photoelectric conversion elements b 1 Out (b 1) (See the following formula (7)). Here, in the following formula (7), w 11 and w 12 are weighting coefficients, which are determined according to the height Z of the image plane from the microlens array 212.
Out (a 1 ) × w 11 + Out (b 1 ) × w 12 (7)

そして、光線r、光線r、光線rの光量も、同様に重み付け和によって求めることができるため、像面の高さZ=hにおける座標Xにおける画素値L(Z=h、X)は、下記式(8)に従って求めることができる。なお、下記式(8)において、W21、W22、W41、W42、W51、W52は、重み係数であり、マイクロレンズアレイ212からの像面の高さZに応じて決まる係数である。
L(Z=h、X)=〔Out(a)×w11+Out(b)×w12〕+〔Out(b)×W21+Out(c)×w22〕+Out(c)+〔Out(c)×W41+Out(d)×W42〕+〔Out(d)×W51+Out(e)×W52〕 …(8)
Since the light amounts of the light beam r 2 , the light beam r 4 , and the light beam r 5 can be similarly obtained by weighted sum, the pixel value L (Z = h 2) at the coordinate X 3 at the height Z = h 2 of the image plane. , X 3 ) can be determined according to the following formula (8). In the following equation (8), W 21 , W 22 , W 41 , W 42 , W 51 , W 52 are weighting factors, and are determined according to the height Z of the image plane from the microlens array 212. It is.
L (Z = h 2 , X 3 ) = [Out (a 1 ) × w 11 + Out (b 1 ) × w 12 ] + [Out (b 2 ) × W 21 + Out (c 2 ) × w 22 ] + Out ( c 3 ) + [Out (c 4 ) × W 41 + Out (d 4 ) × W 42 ] + [Out (d 5 ) × W 51 + Out (e 5 ) × W 52 ] (8)

このように、画像合成の対象となる被写体が存在する像面位置Zに応じて、被写体からの光束の入射する光電変換素子213a、および画像合成に必要な重み付け係数の値が決まってくることとなる。なお、各像面位置Zに対応する、被写体からの光束の入射する光電変換素子112a、および画像合成に必要な重み付け係数の値は、たとえば、制御部104の備えるメモリなどに予め記憶させておき、これを利用するような構成とすればよい。   As described above, the photoelectric conversion element 213a on which the light flux from the subject is incident and the value of the weighting coefficient necessary for the image composition are determined according to the image plane position Z where the subject to be image-synthesized exists. Become. Note that the photoelectric conversion element 112a on which the light beam from the subject is incident and the value of the weighting coefficient necessary for image composition corresponding to each image plane position Z are stored in advance in, for example, a memory provided in the control unit 104. The configuration may be such that this is used.

以上のように、制御部104は、複数の光電変換素子112aから得られた受光信号に基づく画像データを用いて、所定の像面位置Zに対応する合成画像信号を合成することができる。そのため、ステップS104においては、制御部104により、上述した画像合成方法に従い、画像合成範囲内の複数の像面に位置対応する像面の異なる複数の合成画像信号の合成が行われる。   As described above, the control unit 104 can synthesize the composite image signal corresponding to the predetermined image plane position Z using the image data based on the light reception signals obtained from the plurality of photoelectric conversion elements 112a. Therefore, in step S104, the control unit 104 synthesizes a plurality of synthesized image signals having different image planes corresponding to the plurality of image planes in the image synthesis range according to the above-described image synthesis method.

次に、ステップS105では、制御部104により、ステップS104で合成された複数の合成画像信号のそれぞれについて、合成画像信号のコントラストに関する焦点評価値が算出される。焦点評価値は、例えば、合成した合成画像信号の空間周波数から高周波成分を、高周波透過フィルタを用いて抽出し、抽出された高周波成分の絶対値を積算することで求められる。また、焦点評価値は、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、抽出された高周波成分の絶対値のそれぞれを積算することで求めてもよい。   Next, in step S105, the control unit 104 calculates a focus evaluation value related to the contrast of the combined image signal for each of the plurality of combined image signals combined in step S104. The focus evaluation value is obtained, for example, by extracting a high-frequency component from the spatial frequency of the synthesized composite image signal using a high-frequency transmission filter and integrating the absolute values of the extracted high-frequency component. Further, the focus evaluation value may be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating each of the absolute values of the extracted high-frequency components.

ステップS106では、制御部104により、画像合成範囲内において焦点評価値のピークの検出が行われ、画像合成範囲内において焦点評価値のピークが検出されたか否か判断される。具体的には、ステップS106において、制御部104は、ステップS105で算出した少なくても3つの焦点評価値に基づいて、3点内挿法により、焦点評価値のピークの検出を行う。そして、画像合成範囲内において焦点評価値のピークを検出できた場合は、画像合成範囲内に被写体に対応する像面位置が存在すると判断し、ステップS107に進み、一方、焦点評価値のピークを検出できない場合は、画像合成範囲内に被写体に対応する像面位置が存在しないと判断し、ステップS110に進む。   In step S106, the control unit 104 detects the peak of the focus evaluation value within the image composition range, and determines whether or not the peak of the focus evaluation value is detected within the image composition range. Specifically, in step S106, the control unit 104 detects a peak of the focus evaluation value by a three-point interpolation method based on at least three focus evaluation values calculated in step S105. If the focus evaluation value peak can be detected within the image composition range, it is determined that the image plane position corresponding to the subject exists within the image composition range, and the process proceeds to step S107. If it cannot be detected, it is determined that the image plane position corresponding to the subject does not exist within the image composition range, and the process proceeds to step S110.

ステップS107では、制御部104により、焦点評価値のピークに基づいて、焦点評価値が最大となる像面位置の検出が行われる。具体的には、まず、制御部104により、撮影画像の画像データに基づき、複数の合成画像信号(被写体領域に対応する合成画像信号)が合成される。ここで、ステップS107では、焦点評価値が最大となる像面位置を得るため、通常、ステップS104で合成した合成画像信号よりも多くの像面位置に対応する合成画像信号が合成される。そして、合成された合成画像信号の焦点評価値に基づいて、焦点評価値が最大となる像面位置の検出が行われる。また、ステップS107では、使用者により選択された被写体に焦点の合った画像を得るため、使用者により選択された被写体に対応する被写体領域について、焦点評価値が最大となる像面位置の検出が行われる。   In step S107, the control unit 104 detects the image plane position where the focus evaluation value is maximized based on the peak of the focus evaluation value. Specifically, first, the control unit 104 synthesizes a plurality of synthesized image signals (synthesized image signals corresponding to the subject area) based on the image data of the captured image. Here, in step S107, in order to obtain an image plane position where the focus evaluation value is maximized, usually, a composite image signal corresponding to more image plane positions than the composite image signal combined in step S104 is combined. Then, based on the focus evaluation value of the synthesized composite image signal, the image plane position where the focus evaluation value is maximized is detected. In step S107, in order to obtain an image focused on the subject selected by the user, the image plane position where the focus evaluation value is maximum is detected for the subject region corresponding to the subject selected by the user. Done.

そして、ステップS108では、ステップS107で検出された焦点評価値が最大となる像面位置に対応する画像が合成画像として合成され、続くステップS109では、ステップS108で合成された合成画像が、表示部102のディスプレイに表示される。これにより、使用者は、選択した被写体について焦点の合った画像を得ることができる。   In step S108, an image corresponding to the image plane position with the maximum focus evaluation value detected in step S107 is combined as a combined image. In subsequent step S109, the combined image combined in step S108 is displayed on the display unit. 102 is displayed on the display. As a result, the user can obtain a focused image of the selected subject.

一方、ステップS106で焦点評価値のピークを検出できない場合はステップS110に進む。ステップS110では、制御部104により、焦点評価値のピークの探索を終了するか否か判断される。例えば、画像合成範囲の全ての範囲において焦点評価値のピークを検出できない場合は、焦点評価値のピークの探索を終了すると判断し(ステップS110=YES)、ステップS112に進み、焦点評価値のピークの検出を終了し、使用者が選択した被写体に焦点を合わせることができない旨のエラーを、表示部102のディスプレイに表示する。これに対して、画像合成範囲の全ての範囲において焦点評価値のピークの検出が行われていない場合は、焦点評価値のピークの探索を続行すると判断し(ステップS110=NO)、ステップS111に進む。例えば、画像合成範囲のうちの一部の範囲において焦点評価値のピークを検出できなかった場合であり、かつ、画像合成範囲において焦点検出のピークの検出が行われていない範囲がある場合には、画像合成範囲のうち焦点評価値のピークの検出が行なわれていない残りの範囲について、焦点評価値のピークの検出を行うため、焦点評価値のピークの探索を続行すると判断し(ステップS110=NO)、ステップS111に進む。   On the other hand, if the focus evaluation value peak cannot be detected in step S106, the process proceeds to step S110. In step S110, the control unit 104 determines whether or not to end the search for the peak of the focus evaluation value. For example, if the focus evaluation value peak cannot be detected in the entire range of the image synthesis range, it is determined that the search for the focus evaluation value peak is terminated (step S110 = YES), and the process proceeds to step S112. Is displayed, and an error message indicating that the subject selected by the user cannot be focused is displayed on the display of the display unit 102. On the other hand, when the focus evaluation value peak is not detected in the entire range of the image synthesis range, it is determined that the search for the focus evaluation value peak is continued (step S110 = NO), and the process proceeds to step S111. move on. For example, when the focus evaluation value peak cannot be detected in a part of the image composition range, and there is a range in which the focus detection peak is not detected in the image composition range. Therefore, it is determined that the search for the peak of the focus evaluation value is continued in order to detect the peak of the focus evaluation value for the remaining range in which the detection of the peak of the focus evaluation value is not performed in the image synthesis range (step S110 = NO), the process proceeds to step S111.

ステップS111では、画像合成範囲のうち既に合成された合成画像信号の像面位置とは異なる新たな像面位置についての合成画像信号の合成が行われる。そして、新たな像面位置に対応する合成画像信号について焦点評価値が算出され(ステップS105)、新たな像面位置に対応する合成画像信号の焦点評価値を用いて、焦点評価値のピークの検出が行われる(ステップS106)。このように、本実施形態では、焦点評価値のピークが検出されるまで、画像合成範囲内の異なる像面位置に対応する合成画像信号の合成(ステップS111)と、焦点評価値のピークの検出(ステップS106)とが、繰り返し行われる。そして、焦点評価値のピークが検出された場合(ステップS106=YES)は、焦点評価値のピークに基づいて、焦点評価値が最大となる像面位置が検出され(ステップS107)、焦点評価値が最大となる像面位置に対応する合成画像の合成および表示が行われる(ステップS108、S109)。一方、画像合成範囲の全ての範囲において焦点評価値のピークが検出されなかった場合(ステップS110=YES)は、その旨のエラーが表示部102のディスプレイに表示される(ステップS112)。   In step S111, the synthesized image signal is synthesized for a new image plane position that is different from the image plane position of the synthesized image signal that has already been synthesized in the image synthesis range. Then, a focus evaluation value is calculated for the composite image signal corresponding to the new image plane position (step S105), and the focus evaluation value peak of the focus evaluation value is calculated using the focus evaluation value of the composite image signal corresponding to the new image plane position. Detection is performed (step S106). As described above, in this embodiment, until a focus evaluation value peak is detected, synthesis of synthesized image signals corresponding to different image plane positions in the image synthesis range (step S111) and detection of the focus evaluation value peak are performed. (Step S106) is repeated. If the peak of the focus evaluation value is detected (step S106 = YES), the image plane position where the focus evaluation value is maximized is detected based on the peak of the focus evaluation value (step S107). The composite image corresponding to the image plane position where the maximum is is synthesized and displayed (steps S108 and S109). On the other hand, when the focus evaluation value peak is not detected in the entire range of the image synthesis range (step S110 = YES), an error to that effect is displayed on the display of the display unit 102 (step S112).

以上のように、本実施形態では、カメラ200において撮影された撮影画像の画像データをパソコン100に取り込み、パソコン100において、取り込んだ撮影画像の画像データに基づいて、複数の像面位置に対応する像面の異なる複数の合成画像信号を合成し、合成した合成画像信号の焦点評価値に基づいて、画像合成範囲内において焦点評価値が最大となる像面位置の検出を行い、焦点評価値が最大となる像面位置に対応する合成画像を合成する。このように、本実施形態では、撮影画像の画像データに基づいて、複数の像面位置に対応する像面の異なる複数の合成画像信号を合成し、合成画像信号の焦点評価値に基づく焦点検出を行うことで、撮影画像中の被写体に焦点の合う像面位置を検出することができ、撮影画像中の被写体に焦点の合った画像を適切に合成することができる。   As described above, in the present embodiment, image data of a captured image captured by the camera 200 is captured in the personal computer 100, and the personal computer 100 corresponds to a plurality of image plane positions based on the captured image data of the captured image. A plurality of composite image signals having different image planes are combined, and based on the focus evaluation value of the combined composite image signal, the image plane position where the focus evaluation value is maximum within the image combination range is detected, and the focus evaluation value is A synthesized image corresponding to the maximum image plane position is synthesized. As described above, in the present embodiment, based on the image data of the captured image, a plurality of synthesized image signals having different image planes corresponding to the plurality of image plane positions are synthesized, and focus detection based on the focus evaluation value of the synthesized image signal is performed. By performing the above, it is possible to detect the position of the image plane focused on the subject in the captured image, and it is possible to appropriately synthesize the image focused on the subject in the captured image.

特に、本実施形態では、使用者により選択された被写体に対応する撮影画像中の領域を、被写体領域として設定し、この被写体領域に対応する画像データに基づいて、合成画像信号を合成する。そして、この被写体領域において合成画像信号の焦点評価値が最大となる像面位置を検出し、被写体領域において焦点評価値が最大となる像面位置に対応する合成画像を合成する。これにより、本実施形態では、使用者により選択された特定の被写体について焦点の合った画像を得ることができる。さらに、撮影画像中の領域のうち被写体領域について合成画像信号を合成することで、撮影画像中の全ての領域について合成画像信号を合成する場合と比べて、処理負担を軽減し、使用者により選択された特定の被写体について焦点が合った画像を迅速に合成することができる。   In particular, in the present embodiment, an area in the captured image corresponding to the subject selected by the user is set as the subject area, and a composite image signal is synthesized based on the image data corresponding to the subject area. Then, an image plane position at which the focus evaluation value of the composite image signal is maximum in this subject area is detected, and a composite image corresponding to the image plane position at which the focus evaluation value is maximum in the subject area is synthesized. Thereby, in this embodiment, the focused image can be obtained about the specific subject selected by the user. Furthermore, by combining the composite image signal for the subject area among the areas in the captured image, the processing burden is reduced compared with the case of combining the composite image signal for all the areas in the captured image, and the user selects It is possible to quickly synthesize an image focused on a specific subject.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、本実施形態では、操作部103を介して、使用者により選択された画像内の所定の領域を被写体領域として設定しているが、被写体領域を設定する方法は特に限定されず、例えば、制御部104が、撮影画像の画像データに基づいてシーンを認識し、認識したシーンに応じた画像内の所定の領域を被写体領域として設定してもよい。具体的には、制御部104が、撮影画像の画像データに基づいて、人物を撮像しているシーンと認識した場合、テンプレートマッチングなどにより、その人物の顔部分を認識し、認識した顔部分を被写体領域として設定することができる。また、操作部103を介して使用者がシーンを選択可能な場合は、使用者により選択されたシーンに応じて、被写体領域を設定してもよい。なお、シーンを認識する際に、撮影画像の画像データに基づいて、焦点深度の深いパンフォーカスの画像信号を合成し、このパンフォーカスの画像信号に基づいて、シーン認識を行ってもよい。これにより、シーンをより適切に認識することができる。   For example, in the present embodiment, a predetermined area in the image selected by the user is set as the subject area via the operation unit 103, but the method for setting the subject area is not particularly limited. The control unit 104 may recognize a scene based on image data of a captured image, and set a predetermined area in the image corresponding to the recognized scene as a subject area. Specifically, when the control unit 104 recognizes a scene capturing a person based on the image data of the captured image, the controller 104 recognizes the face part of the person by template matching or the like, and determines the recognized face part. It can be set as a subject area. If the user can select a scene via the operation unit 103, the subject area may be set according to the scene selected by the user. When a scene is recognized, a pan-focus image signal with a deep focal depth may be synthesized based on the image data of the captured image, and scene recognition may be performed based on the pan-focus image signal. Thereby, a scene can be recognized more appropriately.

また、本実施形態では、単一の画像データを用いて、図6に示す画像合成処理を行う例を示したが、カメラ1の動作はこれに限定されるものではなく、例えば、同じ構図を異なるフォーカスレンズ位置で連続して撮影して得られた複数の撮影画像の画像データが、互いに関連付けられた状態で、パソコン100に取り込まれている場合には、これら複数の画像データを用いて画像合成処理を行う構成としてもよい。この場合、あるフォーカスレンズ位置において得られた画像データに基づく画像合成範囲内において、焦点評価値のピークを検出することができない場合でも、焦点評価値のピークの探索を終了すると判断する(ステップS110=YES)ことなく、関連付けられた他の画像データ(異なるフォーカスレンズ位置で得られた別の画像データ)を用いて、焦点評価値のピークの検出を行う構成とすることができる。これにより、使用者は、撮影画像中の被写体に焦点の合った画像をより適切に得ることができる。   Further, in the present embodiment, an example in which the image composition processing shown in FIG. 6 is performed using a single image data is shown, but the operation of the camera 1 is not limited to this, and for example, the same composition is used. When image data of a plurality of captured images obtained by continuously capturing images at different focus lens positions are captured in the personal computer 100 in a state of being associated with each other, an image is generated using the plurality of image data. It is good also as composition which performs composition processing. In this case, it is determined that the search for the peak of the focus evaluation value is finished even if the peak of the focus evaluation value cannot be detected within the image composition range based on the image data obtained at a certain focus lens position (step S110). (= YES), the peak of the focus evaluation value can be detected using other associated image data (other image data obtained at different focus lens positions). Thereby, the user can more appropriately obtain an image focused on the subject in the captured image.

さらに、上述した実施形態のステップS105〜ステップS111において、偽合焦を防止するための処理やフィルタ処理などの焦点評価値を用いた焦点検出処理において行われる公知の処理を、適宜行ってもよい。   Furthermore, in step S105 to step S111 of the above-described embodiment, a known process performed in a focus detection process using a focus evaluation value such as a process for preventing false focusing or a filter process may be appropriately performed. .

なお、本実施形態では、パソコン100において、撮影画像に基づいて、所定の被写体に焦点の合った画像を合成しているが、このような処理を行う装置はパソコン100に限られず、例えば、上述した方法により、所定の被写体に焦点の合った画像を合成可能なカメラ、またはプリンタ(画像出力装置)などであってもよい。   In the present embodiment, the personal computer 100 synthesizes an image focused on a predetermined subject based on the photographed image. However, the apparatus that performs such processing is not limited to the personal computer 100, for example, In this way, a camera or a printer (image output device) that can synthesize an image focused on a predetermined subject may be used.

また、本実施形態のカメラ200も特に限定されず、例えば、一眼レフデジタルカメラ、レンズ一体型のデジタルカメラ、デジタルビデオカメラ、携帯電話用のカメラなどのその他の光学機器に本発明を適用してもよい。   Also, the camera 200 of the present embodiment is not particularly limited. For example, the present invention is applied to other optical devices such as a single-lens reflex digital camera, a lens-integrated digital camera, a digital video camera, and a mobile phone camera. Also good.

100…パーソナルコンピュータ(パソコン)
101…入力部
102…表示部
103…操作部
104…制御部
200…カメラ
210…カメラボディ
211…撮像素子
212…マイクロレンズアレイ
212a…マイクロレンズ
213…光電変換素子アレイ
213a…光電変換素子
214…カメラ操作部
215…カメラ制御部
216…メモリ
220…鏡筒
222…フォーカスレンズ
224…絞り
225…絞り駆動部
226…レンズ駆動モータ
227…レンズ制御部
100 ... Personal computer (PC)
DESCRIPTION OF SYMBOLS 101 ... Input part 102 ... Display part 103 ... Operation part 104 ... Control part 200 ... Camera 210 ... Camera body 211 ... Image pick-up element 212 ... Micro lens array 212a ... Micro lens 213 ... Photoelectric conversion element array
213a ... Photoelectric conversion element 214 ... Camera operation unit 215 ... Camera control unit 216 ... Memory 220 ... Tube 222 ... Focus lens 224 ... Aperture 225 ... Aperture drive unit 226 ... Lens drive motor 227 ... Lens control unit

Claims (5)

1回の露光動作において光束を受光して得られた受光信号を入力する入力手段と、
前記受光信号に基づく画像内から部分領域を選択するための領域選択手段と、
前記部分領域に対応する前記受光信号に基づいて前記部分領域の第1の像面位置における第1画像信号と、前記第1の像面位置とは異なる、前記部分領域の第2の像面位置における第2画像信号とを生成するとともに、
前記第1画像信号のコントラストに関する評価値と、前記第2画像信号のコントラストに関する評価値とに基づいて、前記評価値が最大値近傍の値となる像面位置に対応する画像信号を生成する画像生成手段と、を備えることを特徴とする画像合成装置。
Input means for inputting a light receiving signal obtained by receiving the light beam in one exposure operation,
A region selecting means for selecting a partial region from within the image based on the received light signal;
Based on the light receiving signal corresponding to the partial region, a first image signal in a first image plane position of the partial region, different from said first image plane position, the second image plane of the partial region to generate a second image signal at the position,
An image for generating an image signal corresponding to an image plane position where the evaluation value is a value near the maximum value based on the evaluation value related to the contrast of the first image signal and the evaluation value related to the contrast of the second image signal. And an image synthesizing apparatus.
請求項1に記載の画像合成装置において、
前記画像生成手段は、少なくとも3つの画像信号の評価値に基づいて、前記評価値が最大となる像面位置に対応する画像信号を生成することを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
The image generating unit on the basis of the evaluation values of at least three image signals, an image synthesizing apparatus, wherein the evaluation value to generate an image signal corresponding to the image plane position with the maximum.
請求項1または2に記載の画像合成装置において、
前記領域選択手段は、前記受光信号に基づく画像のシーンを認識する認識手段を備え、
前記画像生成手段は、前記認識手段により認識されたシーンに応じて、前記部分領域を決定することを特徴とする画像合成装置。
The image composition device according to claim 1 or 2 ,
The region selection means includes a recognition means for recognizing an image scene based on the light reception signal,
The image synthesizing apparatus according to claim 1, wherein the image generating unit determines the partial area according to a scene recognized by the recognizing unit.
請求項1〜のいずれかに記載の画像合成装置と、
前記画像信号に基づく画像を表示する表示部と、を備えることを特徴とする画像再生装置。
The image composition device according to any one of claims 1 to 3 ,
And a display unit that displays an image based on the image signal.
請求項1〜のいずれかに記載の画像合成装置と、
複数のマイクロレンズを二次元状に配列したマイクロレンズアレイ、および前記複数のマイクロレンズに対して設けられた複数の光電変換素子を有し、前記マイクロレンズアレイを介して光学系からの光束を受光して得られた前記受光信号を、前記入力手段に入力する撮像素子と、を備えることを特徴とする撮像装置。
The image composition device according to any one of claims 1 to 3 ,
A microlens array in which a plurality of microlenses are arranged two-dimensionally, and a plurality of photoelectric conversion elements provided for the plurality of microlenses, and receives a light beam from an optical system via the microlens array An image pickup device comprising: an image pickup device that inputs the received light signal obtained as described above to the input means.
JP2009267292A 2009-11-25 2009-11-25 Image composition device, image reproduction device, and imaging device Active JP5526733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267292A JP5526733B2 (en) 2009-11-25 2009-11-25 Image composition device, image reproduction device, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267292A JP5526733B2 (en) 2009-11-25 2009-11-25 Image composition device, image reproduction device, and imaging device

Publications (2)

Publication Number Publication Date
JP2011113174A JP2011113174A (en) 2011-06-09
JP5526733B2 true JP5526733B2 (en) 2014-06-18

Family

ID=44235480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267292A Active JP5526733B2 (en) 2009-11-25 2009-11-25 Image composition device, image reproduction device, and imaging device

Country Status (1)

Country Link
JP (1) JP5526733B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5968081B2 (en) * 2012-05-28 2016-08-10 キヤノン株式会社 Imaging apparatus and control method thereof
JP6053329B2 (en) * 2012-05-28 2016-12-27 キヤノン株式会社 Imaging apparatus and control method thereof
JP6116277B2 (en) 2012-06-07 2017-04-19 キヤノン株式会社 Imaging apparatus and control method thereof
JP6039958B2 (en) * 2012-07-31 2016-12-07 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, and program
JP5963606B2 (en) 2012-08-10 2016-08-03 キヤノン株式会社 Imaging apparatus and control method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135029A (en) * 2002-10-10 2004-04-30 Fuji Photo Film Co Ltd Digital camera
JP4826152B2 (en) * 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus
JP5239280B2 (en) * 2007-09-28 2013-07-17 カシオ計算機株式会社 Imaging apparatus, imaging control program, and imaging method
JP2009103912A (en) * 2007-10-23 2009-05-14 Olympus Corp Image pickup apparatus

Also Published As

Publication number Publication date
JP2011113174A (en) 2011-06-09

Similar Documents

Publication Publication Date Title
JP5657343B2 (en) Electronics
JP5178553B2 (en) Imaging device
JP5725975B2 (en) Imaging apparatus and imaging method
JP5681329B2 (en) Imaging apparatus and image display method
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2010093422A (en) Imaging apparatus
US9681042B2 (en) Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
JP2009115893A (en) Image-pickup apparatus
JP2007043637A (en) Image pick-up apparatus, image pick-up program, and image processing program
JP5273033B2 (en) Imaging apparatus and image reproduction apparatus
JP5750551B2 (en) Apparatus and method for measuring distance of multiple subjects
JP5434503B2 (en) Image composition device and imaging device
WO2017077906A1 (en) Information processing device, information processing method, and program
JP2016024489A (en) Image processing apparatus, imaging device, image processing method, and program
JP5526733B2 (en) Image composition device, image reproduction device, and imaging device
US10412321B2 (en) Imaging apparatus and image synthesis method
JP2016219991A (en) Image processor and control method thereof and program
JP4661269B2 (en) Imaging apparatus and program
JP6534455B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6534456B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2020193820A (en) Measurement device, imaging device, control method, and program
JP6494059B2 (en) Information processing apparatus, information processing method, and program
JP2018010245A (en) Signal processor and control method therefor
JP6534457B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP5207893B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R150 Certificate of patent or registration of utility model

Ref document number: 5526733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250