JP5263310B2 - Image generation apparatus, imaging apparatus, and image generation method - Google Patents

Image generation apparatus, imaging apparatus, and image generation method Download PDF

Info

Publication number
JP5263310B2
JP5263310B2 JP2011017772A JP2011017772A JP5263310B2 JP 5263310 B2 JP5263310 B2 JP 5263310B2 JP 2011017772 A JP2011017772 A JP 2011017772A JP 2011017772 A JP2011017772 A JP 2011017772A JP 5263310 B2 JP5263310 B2 JP 5263310B2
Authority
JP
Japan
Prior art keywords
image
optical system
image plane
light receiving
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011017772A
Other languages
Japanese (ja)
Other versions
JP2011097645A (en
JP2011097645A5 (en
Inventor
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011017772A priority Critical patent/JP5263310B2/en
Publication of JP2011097645A publication Critical patent/JP2011097645A/en
Publication of JP2011097645A5 publication Critical patent/JP2011097645A5/ja
Application granted granted Critical
Publication of JP5263310B2 publication Critical patent/JP5263310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To speedily set an image plane as an object of image synthesizing when an image of the image plane focused on a subject at an arbitrary distance is composed of photographic data after photography. <P>SOLUTION: An image synthesizing apparatus includes a microlens array 7 in which a plurality of microlenses are arrayed, a light receiving element array 6 having a plurality of light receiving elements for the plurality of microlenses, and receiving luminous flux from an optical system 1 through the microlenses to output a plurality of received light signals, a detecting unit 11 of detecting a deviation amount of an image plane by the optical system 1 when the received light signals are received, and an image generating unit 17 of selecting some of the plurality of received light signals on the basis of the deviation amount detected by the detecting unit 11 and generating an image signal on the basis of the selected some of the received light signals. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、画像生成装置、撮像装置および画像生成方法に関する。
The present invention relates to an image generation device, an imaging device, and an image generation method.

一回の撮影で得られたデータから撮影後に任意の距離にある被写体にピントの合った像面の画像を合成する画像合成方法が本願出願人によって出願されている(特許文献1参照)。   The applicant of the present application has applied for an image composition method for compositing an image of a focused image plane onto a subject at an arbitrary distance after photographing from data obtained by one photographing (see Patent Document 1).

特開2007−4471号公報JP 2007-4471 A

上記の画像合成方法では、画像合成の対象とする像面をいかに設定するかについては提案されていなかった。   In the image composition method described above, no proposal has been made as to how to set the image plane to be subjected to image composition.

本発明による画像生成装置は、複数のマイクロレンズを配列したマイクロレンズアレイと、前記複数のマイクロレンズに対して複数の受光素子を有し、光学系からの光束を前記マイクロレンズを介して受光して複数の受光信号を出力する受光素子アレイと、前記受光信号を用いて前記光学系による像面のずれ量を検出する検出手段と、前記検出手段によって検出された前記像面のずれ量を用いて、前記光学系による結像面からの距離を決定する決定手段と、前記決定手段により決定された前記距離に対応する前記受光信号を用いて、前記決定手段により決定された前記距離にピントが合った画像信号を生成する画像生成手段とを備えることを特徴とする。
本発明による撮像装置は、上記の画像生成装置備えることを特徴とする。
本発明による画像生成方法は、光学系からの光束を、複数のマイクロレンズに対して配置された複数の受光素子によって受光することにより複数の受光信号を得て、前記受光信号を得た際の前記光学系による像面のずれ量を検出し、前記検出された前記像面のずれ量を用いて、前記光学系による結像面からの距離を決定し、前記決定された前記距離に対応する前記受光信号を用いて、前記決定された前記距離にピントが合った画像信号を生成することを特徴とする。
An image generation apparatus according to the present invention includes a microlens array in which a plurality of microlenses are arranged, and a plurality of light receiving elements for the plurality of microlenses, and receives a light beam from an optical system via the microlenses. a light receiving element array for outputting a plurality of received light signals, and detecting means for detecting a shift amount of the image plane due to the optical system using the light reception signal, a deviation amount of the image plane detected by the detecting means using Te And determining the distance from the imaging plane by the optical system, and using the received light signal corresponding to the distance determined by the determining means, the distance determined by the determining means is in focus. image generating means for generating a match image signals, characterized in that it comprises a.
Imaging device according to the invention is characterized in that it comprises the above-described image generating apparatus.
In the image generation method according to the present invention, a light beam from an optical system is received by a plurality of light receiving elements arranged with respect to a plurality of microlenses to obtain a plurality of light reception signals, and when the light reception signal is obtained. The amount of deviation of the image plane by the optical system is detected, the distance from the image plane by the optical system is determined using the detected amount of deviation of the image plane, and the distance corresponding to the determined distance is determined. An image signal focused on the determined distance is generated using the received light signal.

本発明によれば、撮影データから撮影後に任意の距離にある被写体にピントの合った像面の画像を合成する際に、画像合成の対象とする像面を迅速に設定することができる。   According to the present invention, when an image of an image plane focused on a subject at an arbitrary distance after shooting is combined from shooting data, an image plane that is an object of image combining can be quickly set.

本発明の一実施形態によるデジタルカメラの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the digital camera by one Embodiment of this invention. 撮像素子と焦点検出光学系の正面図である。It is a front view of an image sensor and a focus detection optical system. 図2の一部分を拡大した図である。It is the figure which expanded a part of FIG. 2列の画素列を焦点検出領域に対応する画素として選択した例を示す図である。It is a figure which shows the example which selected 2 pixel columns as a pixel corresponding to a focus detection area. 1列の画素列を焦点検出領域に対応する画素として選択した例を示す図である。It is a figure which shows the example which selected the pixel row of 1 row as a pixel corresponding to a focus detection area. 撮像画像の合成方法を説明するための図である。It is a figure for demonstrating the synthetic | combination method of a captured image. 焦点検出領域の設定方法を説明するための図である。It is a figure for demonstrating the setting method of a focus detection area. 撮影処理のフローチャートである。It is a flowchart of an imaging process. 画像合成処理のフローチャートである。It is a flowchart of an image composition process. パーソナルコンピュータを画像合成装置として使用する例を示す図である。It is a figure which shows the example which uses a personal computer as an image composition apparatus.

本発明による画像合成装置および撮像装置の一実施形態である一眼レフ方式のデジタルカメラ(以下、単にカメラという)について、以下に説明する。図1は、カメラの要部構成を示すブロック図である。カメラは、カメラボディとレンズ鏡筒を有しており、カメラボディにレンズ鏡筒が交換可能に装着されている。レンズ鏡筒内には、レンズ光学系1と、レンズ駆動用モータ14が設けられている。レンズ光学系1は、被写体像を結像面に結像させるための光学系であり、焦点調節レンズを含む複数のレンズによって構成される。焦点調節レンズは、レンズ駆動用モータ14の動作により光軸方向に移動可能である。   A single-lens reflex digital camera (hereinafter simply referred to as a camera), which is an embodiment of an image composition device and an imaging device according to the present invention, will be described below. FIG. 1 is a block diagram showing a main configuration of the camera. The camera has a camera body and a lens barrel, and the lens barrel is replaceably attached to the camera body. In the lens barrel, a lens optical system 1 and a lens driving motor 14 are provided. The lens optical system 1 is an optical system for forming a subject image on an imaging surface, and includes a plurality of lenses including a focus adjustment lens. The focus adjustment lens is movable in the optical axis direction by the operation of the lens driving motor 14.

カメラボディの内部には、クイックリターンミラー2、ファインダースクリーン3、ペンタプリズム4、接眼レンズ5、撮像素子6、焦点検出光学系7、センサ制御部8、被写体認識部9、焦点検出領域設定部10、焦点検出演算部11、レンズ駆動量演算部12、レンズ駆動制御部13、測光用レンズ15、測光センサ16、画像生成部17および制御装置18が設けられている。また、カメラボディの背面には、表示部19が設けられている。なお、センサ制御部8、被写体認識部9、焦点検出領域設定部10、焦点検出演算部11、レンズ駆動量演算部12、レンズ駆動制御部13および画像生成部17は、制御装置18の機能により実現されるものである。   Inside the camera body are a quick return mirror 2, a viewfinder screen 3, a pentaprism 4, an eyepiece lens 5, an image sensor 6, a focus detection optical system 7, a sensor control unit 8, a subject recognition unit 9, and a focus detection region setting unit 10. A focus detection calculation unit 11, a lens drive amount calculation unit 12, a lens drive control unit 13, a photometric lens 15, a photometric sensor 16, an image generation unit 17, and a control device 18 are provided. A display unit 19 is provided on the back of the camera body. The sensor control unit 8, the subject recognition unit 9, the focus detection area setting unit 10, the focus detection calculation unit 11, the lens drive amount calculation unit 12, the lens drive control unit 13, and the image generation unit 17 are controlled by the function of the control device 18. It is realized.

撮像素子6は、複数の受光素子(光電変換素子)を有する受光素子アレイである。撮像素子6には、赤(R)、緑(G)および青(B)の受光素子が所定の配列パターンで配列されている。撮像素子6は、レンズ光学系1を介した光束を各受光素子において受光することで、レンズ光学系1によって結像される結像面の画像を撮像し、各受光素子の色情報や輝度情報に応じた受光信号を出力する。撮像素子6から出力された受光信号は、制御装置18の制御によって画像データに変換される。これにより、カメラにおいて撮像画像が取得される。撮像素子6には、たとえばCCDやCMOS等が使用される。なお、撮像素子6の撮像面の前には、赤外光をカットするための赤外カットフィルタや、画像の折り返しノイズを防止するための光学ローパスフィルタなどが配置されている。   The imaging element 6 is a light receiving element array having a plurality of light receiving elements (photoelectric conversion elements). In the image sensor 6, red (R), green (G), and blue (B) light receiving elements are arranged in a predetermined arrangement pattern. The image sensor 6 receives the light beam that has passed through the lens optical system 1 at each light receiving element, thereby capturing an image of the image plane formed by the lens optical system 1, and color information and luminance information of each light receiving element. The light reception signal corresponding to the is output. The light reception signal output from the image sensor 6 is converted into image data under the control of the control device 18. Thereby, a captured image is acquired in the camera. For example, a CCD or a CMOS is used for the image sensor 6. An infrared cut filter for cutting infrared light, an optical low-pass filter for preventing image aliasing noise, and the like are disposed in front of the imaging surface of the image sensor 6.

焦点検出光学系7は、レンズ光学系1を介した光束を撮像素子6の各画素上に結像するための複数のマイクロレンズを二次元状に配列して構成されたマイクロレンズアレイであり、撮像素子6の前方に配置されている。図2は、撮像素子6と焦点検出光学系7の正面図である。図2に示すように、撮像素子6の有効画素範囲に対して、焦点検出光学系7の複数のマイクロレンズ71が二次元状に配列されている。図3は、図2の一部分を拡大した図である。図3に示すように、1つのマイクロレンズ71に対して複数の受光素子61が設けられている。この1つのマイクロレンズ71に対応する複数の受光素子61により、撮像素子6において1つの画素が構成される。このような構成により、撮像素子6は、レンズ光学系1からの光束をマイクロレンズ71を介して受光して、各受光素子61に対応する複数の受光信号を出力することができる。この受光信号に基づいて、撮像画像情報が取得されると共に、後述するようなデフォーカス量の演算が行われる。なお、図3では縦5個、横5個の合計25個の受光素子61で1つの画素を構成しているが、1つの画素を構成する受光素子61の数はこれに限定されない。   The focus detection optical system 7 is a microlens array configured by two-dimensionally arranging a plurality of microlenses for forming an image of a light beam that has passed through the lens optical system 1 on each pixel of the image sensor 6. It is arranged in front of the image sensor 6. FIG. 2 is a front view of the image sensor 6 and the focus detection optical system 7. As shown in FIG. 2, the plurality of microlenses 71 of the focus detection optical system 7 are two-dimensionally arranged with respect to the effective pixel range of the image sensor 6. FIG. 3 is an enlarged view of a part of FIG. As shown in FIG. 3, a plurality of light receiving elements 61 are provided for one microlens 71. A plurality of light receiving elements 61 corresponding to the one microlens 71 constitute one pixel in the image sensor 6. With such a configuration, the imaging device 6 can receive the light flux from the lens optical system 1 via the microlens 71 and output a plurality of light reception signals corresponding to each light receiving device 61. Based on this received light signal, captured image information is acquired, and a defocus amount calculation as described later is performed. In FIG. 3, a total of 25 light receiving elements 61 (5 in the vertical direction and 5 in the horizontal direction) form one pixel, but the number of the light receiving elements 61 constituting one pixel is not limited to this.

レンズ光学系1と焦点検出光学系7との間には、レンズ光学系1を通過した被写体からの入射光束をファインダー光学系へと反射するクイックリターンミラー2が配設されている。入射光束の一部はクイックリターンミラー2の半透過領域を透過し、焦点検出光学系7を介して撮像素子6へ導かれる。クイックリターンミラー2の半透過領域を透過しなかった入射光束は、クイックリターンミラー2によって反射される。   A quick return mirror 2 is disposed between the lens optical system 1 and the focus detection optical system 7 to reflect the incident light beam from the subject that has passed through the lens optical system 1 to the viewfinder optical system. Part of the incident light beam passes through the semi-transmissive region of the quick return mirror 2 and is guided to the image sensor 6 via the focus detection optical system 7. The incident light beam that has not passed through the semi-transmissive region of the quick return mirror 2 is reflected by the quick return mirror 2.

クイックリターンミラー2で反射された入射光束は、撮像素子6と光学的に等価な位置に設けられたファインダースクリーン3上に被写体像を結像する。ファインダースクリーン3上に結像された被写体像は、ペンタプリズム4および接眼レンズ5を通って撮影者の目へと導かれ、撮影者によって視認される。   The incident light beam reflected by the quick return mirror 2 forms a subject image on the finder screen 3 provided at a position optically equivalent to the image sensor 6. The subject image formed on the finder screen 3 is guided to the photographer's eyes through the pentaprism 4 and the eyepiece 5 and is visually recognized by the photographer.

ファインダースクリーン3上に結像された被写体像はまた、ペンタプリズム4および測光用レンズ15を通って測光センサ16へと導かれる。測光センサ16は、撮像素子6と同様に、赤(R)、緑(G)および青(B)の各受光素子が所定の配列パターンで配列されており、レンズ光学系1により結像される結像面の画像情報を撮像する。そして、各画素に対応する色情報や輝度情報に応じた測光信号を制御装置18へ出力する。制御装置18は、この測光センサ16からの測光信号に基づいて、結像面の明るさを検出することができる。   The subject image formed on the finder screen 3 is also guided to the photometric sensor 16 through the pentaprism 4 and the photometric lens 15. As with the image sensor 6, the photometric sensor 16 has red (R), green (G), and blue (B) light receiving elements arranged in a predetermined arrangement pattern, and is imaged by the lens optical system 1. Image information on the imaging plane is captured. Then, a photometric signal corresponding to the color information and luminance information corresponding to each pixel is output to the control device 18. The control device 18 can detect the brightness of the image plane based on the photometric signal from the photometric sensor 16.

カメラが撮影を行う際には、クイックリターンミラー2が光路上から光路外へと移動され、レンズ光学系1を介した入射光束により撮像素子6上に被写体像が結像される。この被写体像を撮像素子6により撮像することで撮像画像情報が取得される。取得された撮像画像情報は、不図示のメモリーカードに記録される。こうしたクイックリターンミラー2の動作は、制御回路18により制御される。   When the camera performs shooting, the quick return mirror 2 is moved from the optical path to the outside of the optical path, and a subject image is formed on the image sensor 6 by the incident light beam through the lens optical system 1. Captured image information is acquired by capturing the subject image with the image sensor 6. The acquired captured image information is recorded in a memory card (not shown). The operation of the quick return mirror 2 is controlled by the control circuit 18.

なお、本実施形態のカメラでは、撮像素子6において1つの画素を構成する縦5個、横5個の合計25個の受光素子61(図3参照)にそれぞれ対応する色情報や輝度情報を、1画素分の撮像画像情報として記録する。すなわち、本実施形態のカメラにより取得される撮像画像情報は、1画素当たり複数の受光素子の情報を有している。この撮像画像情報に基づいて後述するような画像合成処理が行われることにより、任意の距離の像面にピントの合った撮像画像を合成することができる。   In the camera of the present embodiment, color information and luminance information respectively corresponding to a total of 25 light receiving elements 61 (refer to FIG. 3) of 5 vertical and 5 horizontal constituting one pixel in the image sensor 6 are obtained. Recorded as captured image information for one pixel. That is, the captured image information acquired by the camera of the present embodiment includes information on a plurality of light receiving elements per pixel. Based on this captured image information, an image composition process, which will be described later, is performed, so that a captured image in focus on an image plane at an arbitrary distance can be synthesized.

センサ制御部8は、カメラの動作状況に応じて撮像素子6のゲイン量や蓄積時間を制御し、撮像素子6の各受光素子から出力される受光信号を読み出す。センサ制御部8によって読み出された受光信号は、アナログデジタル変換処理によりデジタル信号に変換される。デジタル変換後の受光信号は、撮影前は被写体認識部9および焦点検出演算部11へ出力され、撮影時は所定の信号処理が施された後、撮像画像情報としてメモリーカードに記録される。   The sensor control unit 8 controls the gain amount and accumulation time of the image sensor 6 in accordance with the operation status of the camera, and reads out light reception signals output from the light receiving elements of the image sensor 6. The received light signal read by the sensor control unit 8 is converted into a digital signal by analog-digital conversion processing. The received light signal after digital conversion is output to the subject recognition unit 9 and the focus detection calculation unit 11 before photographing, and is subjected to predetermined signal processing at the time of photographing and then recorded on the memory card as captured image information.

被写体認識部9は、センサ制御部8においてデジタル信号に変換された撮影前の撮像素子6からの受光信号に基づいて、レンズ光学系1による像のうちの特定の像を被写体として認識し、認識した被写体の位置、数、大きさなどを特定する。さらに、認識した被写体の中からいずれかを主要被写体として特定する。カメラが撮影を行うと、これらの被写体認識結果は、撮影時の被写体の様子を表す被写体情報の一部として、前述の撮像画像情報と対応付けてメモリーカードに記録される。被写体の認識には、予め登録されたテンプレート画像との類似度を算出し、類似度が所定値以上である画像領域を被写体の位置として検出するテンプレートマッチング等の手法を用いることができる。   The subject recognizing unit 9 recognizes and recognizes a specific image among the images by the lens optical system 1 as a subject based on the light reception signal from the imaging element 6 before photographing converted into a digital signal by the sensor control unit 8. The position, number, size, etc. of the selected subject are specified. Further, one of the recognized subjects is identified as the main subject. When the camera shoots, these subject recognition results are recorded on the memory card in association with the captured image information described above as part of subject information representing the state of the subject at the time of shooting. For the recognition of the subject, a technique such as template matching that calculates a similarity with a template image registered in advance and detects an image region having a similarity equal to or higher than a predetermined value as the position of the subject can be used.

焦点検出領域設定部10は、被写体認識部9による被写体の認識結果に基づいて、焦点検出演算部11によるデフォーカス量の検出対象とする焦点検出領域(焦点検出位置)を像面内に設定する。この焦点検出領域は、像面内の任意の位置に、任意の大きさで、任意の数だけ設定することができる。焦点検出領域設定部10による焦点検出領域の具体的な設定方法については、後で説明する。   The focus detection area setting unit 10 sets, in the image plane, a focus detection area (focus detection position) that is a detection target of the defocus amount by the focus detection calculation unit 11 based on the recognition result of the subject by the subject recognition unit 9. . This focus detection area can be set in an arbitrary size and an arbitrary number at an arbitrary position in the image plane. A specific method for setting the focus detection area by the focus detection area setting unit 10 will be described later.

焦点検出演算部11は、撮像素子6からセンサ制御部8を経由して出力された受光信号
のうち、焦点検出領域設定部10により設定された焦点検出領域に対応する画素に属する受光素子からの受光信号に基づいて、レンズ光学系1の焦点調節状態(レンズ光学系1による像面のずれ量)を示すデフォーカス量を検出する。このデフォーカス量の検出は、周知の瞳分割型位相差検出方式により、以下に説明するようにして行われる。
The focus detection calculation unit 11 outputs light received from light receiving elements belonging to pixels corresponding to the focus detection area set by the focus detection area setting unit 10 among the light reception signals output from the image sensor 6 via the sensor control unit 8. Based on the received light signal, a defocus amount indicating a focus adjustment state of the lens optical system 1 (an image plane shift amount by the lens optical system 1) is detected. The detection of the defocus amount is performed as described below by a known pupil division type phase difference detection method.

焦点検出演算部11によるデフォーカス量の検出方法を図4、5により説明する。図4は、焦点検出領域設定部10により設定された焦点検出領域に対応する画素を拡大した図である。像ずれ検出方向である焦点検出領域の長手方向の長さは、適宜決定する。図4は2列の画素列を焦点検出領域に対応する画素として選択した例を示すが、図5に示すように1列の画素列を焦点検出領域に対応する画素として選択してもよい。あるいは、3列以上の画素列を焦点検出領域に対応する画素として選択してもよい。焦点検出領域内のマイクロレンズに対応する複数の受光素子からの受光信号に基づいて、レンズ光学系1の異なる瞳領域を通過した対の光束による像のずれ量を示す焦点検出信号、すなわち対の焦点検出用信号列を生成する。   A method of detecting the defocus amount by the focus detection calculation unit 11 will be described with reference to FIGS. FIG. 4 is an enlarged view of pixels corresponding to the focus detection area set by the focus detection area setting unit 10. The length in the longitudinal direction of the focus detection area, which is the image shift detection direction, is appropriately determined. FIG. 4 shows an example in which two pixel columns are selected as pixels corresponding to the focus detection region, but one pixel column may be selected as pixels corresponding to the focus detection region as shown in FIG. Alternatively, three or more pixel columns may be selected as pixels corresponding to the focus detection area. Based on the light reception signals from the plurality of light receiving elements corresponding to the microlenses in the focus detection region, focus detection signals indicating the amount of image shift due to the pair of light beams that have passed through different pupil regions of the lens optical system 1, that is, the pair of signals A focus detection signal sequence is generated.

図4および図5において、焦点検出演算部11は、マイクロレンズ下の黒塗りした受光素子の出力を、焦点検出用の一対の信号列である第1信号列{a(i)}と第2信号列{b(i)}(i=1,2,3,・・)として抽出する。
第1信号列{a(i)}=a(1)、a(2)、a(3)、・・・、
第2信号列{b(i)}=b(1)、b(2)、b(3)、・・・ ・・・(1)
なお、図4に示す例では、各マイクロレンズ下の3個の受光素子出力を加算するとともに、2列の焦点検出画素列の上下2個の画素出力を加算して信号列を生成する。また、斜め45度方向に焦点検出領域を設定する場合には、図5に示すように焦点検出用画素を決定して信号列を生成する。
4 and 5, the focus detection calculation unit 11 outputs the output of the black light receiving element below the microlens as a first signal sequence {a (i)} and a second signal sequence as a pair of focus detection signals. Extracted as a signal sequence {b (i)} (i = 1, 2, 3,...).
First signal sequence {a (i)} = a (1), a (2), a (3),.
Second signal sequence {b (i)} = b (1), b (2), b (3), ... (1)
In the example shown in FIG. 4, the output of the three light receiving elements under each microlens is added, and the signal output is generated by adding the upper and lower two pixel outputs of the two focus detection pixel columns. Further, when the focus detection area is set in a 45-degree direction, a focus detection pixel is determined and a signal sequence is generated as shown in FIG.

焦点検出演算部11は、第1信号列{a(i)}と第2信号列{b(i)}を用いて周知の像ずれ演算を行い、デフォーカス量を算出する。まず、第1信号列{a(i)}と第2信号列{b(i)}から一対の像(信号列)の相関量C(N)を次式により求める。
C(N)=Σ|a(i)−b(j)| ・・・(2)
(2)式において、j−i=N(シフト数)、Σは上底がqL、下底がpLの総和演算を表す。
The focus detection calculation unit 11 calculates a defocus amount by performing a known image shift calculation using the first signal sequence {a (i)} and the second signal sequence {b (i)}. First, a correlation amount C (N) of a pair of images (signal sequences) is obtained from the first signal sequence {a (i)} and the second signal sequence {b (i)} by the following equation.
C (N) = Σ | a (i) −b (j) | (2)
In the equation (2), j−i = N (the number of shifts), Σ represents a summation operation in which the upper base is qL and the lower base is pL.

(2)式により得られた離散的な相関量C(N)からシフト量を求める。C(N)の中でシフト量Nのときに極小値を与える相関量をCoとし、シフト量(N−1)における相関量をCr、シフト量(N+1)における相関量をCfとする。これらの3個の相関量Cr、Co、Cfの並びから精密なシフト量Laを次式により求める。
DL=0.5×(Cr−Cf)、
E=max{Cf−Co、Cr−Co}、
Na=N+DL/E ・・・(3)
これに焦点検出面の位置に応じた補正量(定数const)を加え、焦点検出面上での像ずれ
量Δnを算出する。
Δn=Na+const ・・・(4)
The shift amount is obtained from the discrete correlation amount C (N) obtained by the equation (2). Let C be the correlation amount that gives the minimum value when the shift amount is N in C (N), Cr be the correlation amount at the shift amount (N−1), and Cf be the correlation amount at the shift amount (N + 1). A precise shift amount La is obtained from the arrangement of these three correlation amounts Cr, Co, Cf by the following equation.
DL = 0.5 × (Cr−Cf),
E = max {Cf-Co, Cr-Co},
Na = N + DL / E (3)
A correction amount (constant const) corresponding to the position of the focus detection surface is added to this to calculate an image shift amount Δn on the focus detection surface.
Δn = Na + const (4)

次に焦点検出演算部11は、検出開角に依存する定数Kfを用いて次式により像ずれ量Δnからデフォーカス量Dfを算出する。
Df=Kf×Δn ・・・(5)
こうしてデフォーカス量Dfを算出することにより、焦点検出演算部11によるデフォーカス量の検出が行われる。カメラが撮影を行うと、各焦点検出領域に対して検出されたデフォーカス量と、対応する焦点検出領域の位置とが、前述の被写体情報の一部としてメモリーカードに記録される。
Next, the focus detection calculation unit 11 calculates the defocus amount Df from the image shift amount Δn by the following equation using the constant Kf that depends on the detection opening angle.
Df = Kf × Δn (5)
By calculating the defocus amount Df in this manner, the focus detection calculation unit 11 detects the defocus amount. When the camera takes a picture, the defocus amount detected for each focus detection area and the position of the corresponding focus detection area are recorded on the memory card as a part of the subject information.

レンズ駆動量演算部12は、デフォーカス演算部10によって算出されたデフォーカス量に基づいて、レンズ光学系1が有する焦点調節レンズの駆動量を演算する。ここでは、焦点調節レンズの駆動位置の目標となるレンズ目標位置を演算することにより、レンズ駆動量の演算を行う。なお、レンズ目標位置は、当該デフォーカス量が0となる焦点調節レンズの位置に相当する。   The lens drive amount calculation unit 12 calculates the drive amount of the focus adjustment lens included in the lens optical system 1 based on the defocus amount calculated by the defocus calculation unit 10. Here, the lens drive amount is calculated by calculating the lens target position which is the target of the drive position of the focus adjustment lens. The lens target position corresponds to the position of the focus adjustment lens where the defocus amount is zero.

レンズ駆動制御部13は、レンズ駆動量演算部12によって演算されたレンズ駆動量、すなわち焦点調節レンズに対するレンズ目標位置に基づいて、レンズ駆動用モータ14へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ14が焦点調節レンズを駆動してレンズ目標位置へ移動させることにより、レンズ光学系1の焦点調節が行われる。   The lens drive control unit 13 outputs a drive control signal to the lens drive motor 14 based on the lens drive amount calculated by the lens drive amount calculation unit 12, that is, the lens target position with respect to the focus adjustment lens. In response to the drive control signal, the lens driving motor 14 drives the focus adjustment lens and moves it to the lens target position, thereby adjusting the focus of the lens optical system 1.

画像生成部17は、撮像素子6により取得されて不図示のメモリーカードに記録された撮像画像情報に基づいて、任意の距離の像面にピントの合った撮像画像を合成する。画像生成部17によって合成された撮像画像は表示部19に表示される。表示部19は、液晶ディスプレイ等の表示装置によって構成されており、制御装置18が行う表示制御に応じて、上記の合成撮像画像を含む様々な画像や映像を表示する。   The image generation unit 17 synthesizes a captured image focused on an image plane at an arbitrary distance based on captured image information acquired by the image sensor 6 and recorded on a memory card (not shown). The captured image synthesized by the image generation unit 17 is displayed on the display unit 19. The display unit 19 is configured by a display device such as a liquid crystal display, and displays various images and videos including the composite captured image according to display control performed by the control device 18.

画像生成部17による撮像画像の合成方法を図6により説明する。図6(a)は、レンズ光学系1による結像面からの距離(像面のずれ量)がhである像面paにピントが合った撮像画像を合成する方法を説明する図である。図6(a)において、像面paの符号20に示す像位置に対応するレンズ光学系1からの入射光束21〜25は、焦点検出光学系7(マイクロレンズ71)を通過した後、画素61a〜61eの受光素子a1,b2,c3,d4,e5においてそれぞれ受光される。したがって、メモリーカードに記録された撮像画像情報が表す各受光信号のうち、受光素子a1,b2,c3,d4およびe5の受光信号を選択し、それらの受光信号を合成することで、像面paの像位置20に対応する画素61cの画像信号を生成することができる。他の像位置についても同様にして受光信号を合成し、対応する画素の画像信号を生成することで、像面paにピントが合った撮像画像を合成することができる。   A method for synthesizing captured images by the image generation unit 17 will be described with reference to FIG. FIG. 6A is a diagram for explaining a method of synthesizing a captured image focused on an image plane pa whose distance (image plane deviation amount) from the imaging plane by the lens optical system 1 is h. In FIG. 6A, incident light beams 21 to 25 from the lens optical system 1 corresponding to the image position indicated by reference numeral 20 on the image plane pa pass through the focus detection optical system 7 (microlens 71), and then the pixel 61a. Are received by the light receiving elements a1, b2, c3, d4, and e5. Therefore, by selecting the light receiving signals of the light receiving elements a1, b2, c3, d4 and e5 from the respective light receiving signals represented by the captured image information recorded on the memory card, and synthesizing these light receiving signals, the image plane pa is obtained. An image signal of the pixel 61c corresponding to the image position 20 can be generated. By synthesizing the received light signals for other image positions in the same manner and generating image signals for the corresponding pixels, it is possible to synthesize a captured image in focus on the image plane pa.

図6(b)は、レンズ光学系1による結像面からの距離(像面のずれ量)が0である像面pbにピントが合った撮像画像、すなわち結像面の撮像画像を合成する方法を説明する図である。図6(b)において、像面pbの符号30に示す像位置に対応するレンズ光学系1からの入射光束31〜35は、焦点検出光学系7(マイクロレンズ71)を通過した後、画素61cの受光素子c1,c2,c3,c4,c5においてそれぞれ受光される。したがって、メモリーカードに記録された撮像画像情報が表す各受光信号のうち、受光素子c1,c2,c3,c4およびc5の受光信号を選択し、それらの受光信号を合成することで、像面pbの像位置30に対応する画素61cの画像信号を生成することができる。他の像位置についても同様にして受光信号を合成し、対応する画素の画像信号を生成することで、像面pbにピントが合った撮像画像を合成することができる。   FIG. 6B synthesizes a captured image focused on the image plane pb whose distance from the imaging plane (image plane deviation) by the lens optical system 1 is 0, that is, a captured image of the imaging plane. It is a figure explaining a method. In FIG. 6B, incident light beams 31 to 35 from the lens optical system 1 corresponding to the image position indicated by reference numeral 30 on the image plane pb pass through the focus detection optical system 7 (microlens 71), and then the pixel 61c. Of the light receiving elements c1, c2, c3, c4, and c5. Therefore, by selecting the light receiving signals of the light receiving elements c1, c2, c3, c4 and c5 from the respective light receiving signals represented by the captured image information recorded on the memory card, and synthesizing these light receiving signals, the image plane pb An image signal of the pixel 61c corresponding to the image position 30 can be generated. Similarly, the received light signals are synthesized for other image positions, and an image signal of the corresponding pixel is generated, so that a captured image in focus on the image plane pb can be synthesized.

以上説明したように、結像面からの距離(像面のずれ量)に応じて受光信号を適宜選択して合成し、各画素の画像信号を生成することで、任意の距離の像面にピントの合った撮像画像が合成される。   As described above, the light reception signals are appropriately selected and synthesized in accordance with the distance from the image plane (image plane deviation amount), and the image signal of each pixel is generated. A focused image that is in focus is synthesized.

さらに、受光信号の選択対象とする受光素子の数を変更することで、像面の位置が同じであって絞りの大きさが異なる複数種類の撮像画像を合成することもできる。たとえば図6(a)、(b)の例において、各画素の中心にある1つの受光素子(画素61cでは、受光素子c3)の受光信号のみを選択すれば、絞り値が最小のときの撮像画像を合成する
ことができる。このとき合成される撮像画像は、全被写体にピントが合っているパンフォーカス画像である。ここから受光信号の選択対象とする受光素子の範囲を拡大してその数を増やすほど、絞り値が大きいときの撮像画像が合成される。
Furthermore, by changing the number of light receiving elements to be selected as light receiving signals, a plurality of types of captured images having the same image plane position and different aperture sizes can be combined. For example, in the examples of FIGS. 6A and 6B, if only the light reception signal of one light receiving element (in the pixel 61c, the light receiving element c3) at the center of each pixel is selected, the image is picked up when the aperture value is minimum. Images can be combined. The captured image combined at this time is a pan focus image in which all subjects are in focus. From this point, as the range of light receiving elements to be selected for the received light signal is expanded and the number thereof is increased, the captured image with a larger aperture value is synthesized.

なお、上記の結像面からの距離(像面のずれ量)は、当該像面においてピントが合う被写体領域の焦点検出領域に対して焦点検出演算部11が検出するデフォーカス量に対応している。すなわち、前述のように撮影時に焦点検出演算部11によって検出され、被写体情報の一部として記録されるデフォーカス量は、撮像素子6からの受光信号をセンサ制御部8が得た際のレンズ光学系1による像面のずれ量を表している。   The distance from the image plane (image plane deviation amount) corresponds to the defocus amount detected by the focus detection calculation unit 11 with respect to the focus detection area of the subject area in focus on the image plane. Yes. That is, as described above, the defocus amount detected by the focus detection calculation unit 11 at the time of shooting and recorded as part of the subject information is the lens optical when the sensor control unit 8 obtains the light reception signal from the image sensor 6. The amount of image plane displacement due to the system 1 is shown.

なお、図6(a),(b)では、画像合成対象とする像面の位置が結像面よりも前側(レンズ光学系1に近い位置)にある場合の撮像画像の合成方法を説明したが、画像合成対象とする像面の位置を結像面よりも後側(レンズ光学系1から遠い位置)とした場合にも、同様にして撮像画像を合成することができる。   In FIGS. 6A and 6B, the method for synthesizing the captured image when the position of the image plane to be image-combined is on the front side (position close to the lens optical system 1) from the imaging plane has been described. However, even when the position of the image plane that is the object of image synthesis is set behind the imaging plane (position far from the lens optical system 1), the captured image can be synthesized in the same manner.

制御装置18は、マイコンやメモリ等によって構成されており、上記のセンサ制御部8、被写体認識部9、焦点検出領域設定部10、焦点検出演算部11、レンズ駆動量演算部12、レンズ駆動制御部13および画像生成部17の各機能を実現するための処理を実行したり、カメラの動作制御を行ったりする。また、これらの処理や制御において必要な情報を一時的に記憶する。   The control device 18 is configured by a microcomputer, a memory, and the like, and includes the sensor control unit 8, the subject recognition unit 9, the focus detection area setting unit 10, the focus detection calculation unit 11, the lens drive amount calculation unit 12, and the lens drive control. Processing for realizing the functions of the unit 13 and the image generation unit 17 is executed, and camera operation control is performed. Further, information necessary for these processes and controls is temporarily stored.

本実施形態のカメラにおいて制御装置18により実行される処理のフローチャートを図8および9に示す。図8は、撮影時に実行される撮影処理のフローチャートであり、図9は、任意の距離の像面にピントの合った撮像画像を合成して表示する際に実行される画像合成処理のフローチャートである。   8 and 9 show flowcharts of processing executed by the control device 18 in the camera of the present embodiment. FIG. 8 is a flowchart of the photographing process executed at the time of photographing, and FIG. 9 is a flowchart of the image synthesizing process executed when the captured image focused on the image plane at an arbitrary distance is synthesized and displayed. is there.

図8の撮影処理のフローチャートについて説明する。ステップS10において、制御装置18は、カメラに設けられた不図示のレリーズボタンがユーザによって半押し操作されたか否かを判定する。レリーズボタンの半押し操作がされると、制御装置18は次のステップS20へ進む。   A flowchart of the photographing process in FIG. 8 will be described. In step S10, the control device 18 determines whether or not a release button (not shown) provided on the camera has been half-pressed by the user. When the release button is half-pressed, the control device 18 proceeds to the next step S20.

ステップS20において、制御装置18は、カメラの撮影条件を設定する。ここでは、測光センサ16から出力される測光信号に基づいて検出された結像面の明るさや、予め設定された撮影モードの種類などに基づいて、撮影時のISO感度、シャッタースピードおよび絞り値を設定することにより、撮影条件の設定を行う。   In step S20, the control device 18 sets camera shooting conditions. Here, the ISO sensitivity, shutter speed, and aperture value at the time of shooting are determined based on the brightness of the imaging surface detected based on the photometric signal output from the photometric sensor 16 and the type of shooting mode set in advance. By setting, shooting conditions are set.

ステップS30において、制御装置18は、被写体認識部9により被写体を認識する。ここでは前述のように、テンプレートマッチング等の手法を用いて、撮像素子6からの受光信号が表すレンズ光学系1による像のうち特定の像を被写体として認識し、その被写体の位置、数、大きさ、主要被写体などを特定する。   In step S <b> 30, the control device 18 recognizes the subject by the subject recognition unit 9. Here, as described above, using a method such as template matching, a specific image is recognized as a subject among the images of the lens optical system 1 represented by the light reception signal from the image sensor 6, and the position, number, and size of the subject are recognized. The main subject is identified.

ステップS40において、制御装置18は、焦点検出領域設定部10により、ステップS30における被写体の認識結果に基づいて、レンズ光学系1による像面内に焦点検出領域を設定する。ここでは、以下に説明するように焦点検出領域の設定を行う。   In step S <b> 40, the control device 18 causes the focus detection area setting unit 10 to set a focus detection area in the image plane by the lens optical system 1 based on the recognition result of the subject in step S <b> 30. Here, the focus detection area is set as described below.

図7は、ステップS40における焦点検出領域の設定方法を説明するための図である。図7(a)は、撮像素子6からの受光信号が表す像の例を示している。このような像に対して被写体認識部9がステップS30で行う被写体認識により、たとえば図7(b)の符号41〜45に示す複数の被写体領域に像面が区分される。被写体領域41は、図7(a)の像において主要被写体と認識された像面中央付近に位置する車両に対応する領域であ
る。なお、どの被写体を主要被写体とするかは、各被写体の位置関係や大きさ等に基づいて決定することができる。また、被写体領域42は背景に、被写体領域43は主要被写体車両の右側を走行している他の車両に、被写体領域44は主要被写体車両の周辺の路面に、被写体領域45は主要被写体車両の前方の路面にそれぞれ対応している。
FIG. 7 is a diagram for explaining a method of setting the focus detection area in step S40. FIG. 7A shows an example of an image represented by a light reception signal from the image sensor 6. By subject recognition performed by the subject recognition unit 9 in step S30 on such an image, for example, the image plane is divided into a plurality of subject areas indicated by reference numerals 41 to 45 in FIG. The subject area 41 is an area corresponding to a vehicle located near the center of the image plane recognized as the main subject in the image of FIG. Note that which subject is the main subject can be determined based on the positional relationship and size of each subject. In addition, the subject area 42 is in the background, the subject area 43 is in the other vehicle running on the right side of the main subject vehicle, the subject area 44 is in the road surface around the main subject vehicle, and the subject area 45 is in front of the main subject vehicle. Correspond to each road surface.

焦点検出領域設定部10はステップS40において、被写体領域41〜45に対して、その大きさに応じた数の焦点検出領域を図7(c)に示すようにそれぞれ設定する。すなわち、比較的小さな被写体領域41、43および44には、焦点検出領域41a、43aおよび44aをそれぞれ1つずつ設定する。また、これらの被写体領域よりも大きな被写体領域42には、2つの焦点検出領域42a,42bを設定し、さらに大きな被写体領域45には、3つの焦点検出領域45a,45bおよび45cを設定する。なお、これらの焦点検出領域の設定位置は、当該被写体領域内でなるべくバランスの取れた位置とするのが好ましい。たとえば、焦点検出領域41a、43aおよび44aは、被写体領域41、43および44の重心位置にそれぞれ設定する。また、焦点検出領域42a,42bは、被写体領域42を二等分した各領域の重心位置にそれぞれ設定し、焦点検出領域45a,45bおよび45cは、被写体領域45を三等分した各領域の重心位置にそれぞれ設定する。   In step S40, the focus detection area setting unit 10 sets the number of focus detection areas corresponding to the sizes of the subject areas 41 to 45 as shown in FIG. 7C. That is, one focus detection area 41a, 43a, and 44a is set for each of the relatively small subject areas 41, 43, and 44. In addition, two focus detection areas 42a and 42b are set for a subject area 42 larger than these subject areas, and three focus detection areas 45a, 45b and 45c are set for a larger subject area 45. It should be noted that the setting positions of these focus detection areas are preferably as balanced as possible within the subject area. For example, the focus detection areas 41a, 43a, and 44a are set to the gravity center positions of the subject areas 41, 43, and 44, respectively. Further, the focus detection areas 42a and 42b are set at the barycentric positions of the respective areas obtained by dividing the subject area 42 into two, and the focus detection areas 45a, 45b and 45c are set as the barycenters of the respective areas obtained by dividing the subject area 45 into three equal parts. Set to each position.

以上説明したように、焦点検出領域設定部10は、被写体認識部9によって区分された各被写体領域の大きさに応じて、各被写体領域に設定する焦点検出領域の数を変更する。なお、焦点検出領域の設定数を変更するか否かは、被写体領域の大きさが像面に占める割合に応じて決定することができる。たとえば、被写体領域の大きさが像面に対して15%未満であれば、焦点検出領域の設定数を1とする。また、15%以上30%未満であれば焦点検出領域の設定数を2とし、30%以上であれば焦点検出領域の設定数を3とする。ここで挙げた被写体領域の大きさの割合と焦点検出領域の設定数との関係はあくまで一例であり、本発明はこれに限定されるものではない。   As described above, the focus detection area setting unit 10 changes the number of focus detection areas set in each subject area according to the size of each subject area divided by the subject recognition unit 9. Note that whether or not to change the set number of focus detection areas can be determined according to the ratio of the size of the subject area to the image plane. For example, if the size of the subject area is less than 15% with respect to the image plane, the number of focus detection areas set is 1. Further, if the ratio is 15% or more and less than 30%, the setting number of focus detection areas is 2, and if it is 30% or more, the setting number of focus detection areas is 3. The relationship between the ratio of the size of the subject area and the number of focus detection areas set here is merely an example, and the present invention is not limited to this.

あるいは、各被写体領域に対応する像のコントラストに基づいて焦点検出領域の設定位置および設定数を決定してもよい。たとえば、各被写体領域で所定値以上のコントラストを有する像の位置に対して、焦点検出領域をそれぞれ設定する。このとき、被写体領域の大きさに関わらず、コントラストが所定値以上である全ての位置に対して焦点検出領域を設定してもよいし、被写体領域の大きさに応じて設定可能な焦点検出領域の上限数を決めてもよい。このようにすれば、設定された焦点検出領域に対して信頼性の高いデフォーカス量を検出することができる。   Alternatively, the set position and number of focus detection areas may be determined based on the contrast of the image corresponding to each subject area. For example, a focus detection area is set for each position of an image having a contrast of a predetermined value or more in each subject area. At this time, regardless of the size of the subject area, the focus detection area may be set for all positions where the contrast is equal to or greater than a predetermined value, or a focus detection area that can be set according to the size of the subject area. You may decide the upper limit number. In this way, it is possible to detect a highly reliable defocus amount for the set focus detection region.

ここで、上記説明では被写体認識部9によって区分された被写体領域41〜45の全てに対して焦点検出領域を設定する例を挙げたが、所定の設定条件を満たさない被写体領域には焦点検出領域を設定しないこととしてもよい。たとえば、像のコントラストが上記の所定値未満である被写体領域や、大きさが所定値未満である被写体領域などを、焦点検出領域の設定対象から除外することができる。このようにすれば、正しいデフォーカス量が検出できないおそれがある被写体領域に対しては焦点検出領域が設定されないため、デフォーカス量の検出精度の低下を防ぐことができる。   Here, in the above description, the example in which the focus detection area is set for all of the subject areas 41 to 45 divided by the subject recognition unit 9 has been described, but the focus detection area is set for a subject area that does not satisfy the predetermined setting condition. May not be set. For example, a subject area whose image contrast is less than the predetermined value or a subject area whose size is less than a predetermined value can be excluded from the focus detection area setting targets. In this way, since the focus detection area is not set for the subject area where the correct defocus amount cannot be detected, it is possible to prevent the defocus amount detection accuracy from being lowered.

ステップS50において、制御装置18は、焦点検出演算部11により、ステップS40で設定した各焦点検出領域に対するデフォーカス量をそれぞれ検出する。このデフォーカス量の検出は、前述のように撮像素子6からの受光信号のうち、設定した焦点検出領域に対応する画素に属する受光素子からの受光信号に基づいて行われる。なお、ここで検出されるデフォーカス量は、当該焦点検出領域に対応する被写体に対するレンズ光学系1の焦点調節状態を示すものである。すなわち、当該焦点検出領域に対応する被写体にピントが合った像面の、レンズ光学系1による結像面に対するずれ量を表している。   In step S50, the control device 18 detects the defocus amount for each focus detection area set in step S40 by the focus detection calculation unit 11. The detection of the defocus amount is performed based on the light reception signal from the light reception element belonging to the pixel corresponding to the set focus detection area among the light reception signals from the imaging element 6 as described above. The defocus amount detected here indicates the focus adjustment state of the lens optical system 1 with respect to the subject corresponding to the focus detection area. That is, it represents the amount of deviation of the image plane focused on the subject corresponding to the focus detection area with respect to the image plane formed by the lens optical system 1.

ステップS60において、制御装置18は、ステップS50で検出したデフォーカス量に基づいて、レンズ駆動量演算部12によりレンズ光学系1の焦点調節を行う。ここでは、検出したデフォーカス量のうち主要被写体に対応する焦点検出領域のデフォーカス量に基づいて、その主要被写体にピントが合うようにレンズ駆動量が演算される。そして、レンズ駆動量演算部12からレンズ駆動用モータ14へ駆動制御信号を出力し、レンズ駆動用モータ14が焦点調節レンズを駆動することにより、レンズ光学系1の焦点調節が行われる。   In step S60, the control device 18 adjusts the focus of the lens optical system 1 by the lens driving amount calculation unit 12 based on the defocus amount detected in step S50. Here, based on the defocus amount of the focus detection area corresponding to the main subject among the detected defocus amounts, the lens drive amount is calculated so that the main subject is in focus. Then, a driving control signal is output from the lens driving amount calculation unit 12 to the lens driving motor 14, and the lens driving motor 14 drives the focus adjusting lens, thereby adjusting the focus of the lens optical system 1.

ステップS70において、制御装置18は、カメラに設けられた不図示のレリーズボタンがユーザによって全押し操作されたか否かを判定する。レリーズボタンの全押し操作が行われていなければステップS10へ戻り、前述したような処理を繰り返す。レリーズボタンの全押し操作が行われると、制御装置18は次のステップS80へ進む。   In step S70, the control device 18 determines whether or not a release button (not shown) provided on the camera has been fully pressed by the user. If the release button has not been fully pressed, the process returns to step S10 to repeat the processing as described above. When the release button is fully pressed, the control device 18 proceeds to the next step S80.

ステップS80において、制御装置18は撮影を行う。このとき前述のように、クイックリターンミラー2を光路上から光路外へと移動して、レンズ光学系1を介した入射光束により結像される被写体像を撮像素子6により撮像し、1画素当たり複数の受光素子の情報を有する撮像画像情報を取得する。   In step S80, the control device 18 performs shooting. At this time, as described above, the quick return mirror 2 is moved from the optical path to the outside of the optical path, and the subject image formed by the incident light beam through the lens optical system 1 is imaged by the imaging element 6, and per pixel. Captured image information having information of a plurality of light receiving elements is acquired.

ステップS90において、制御装置18は被写体情報を取得する。ここでは、ステップS70でレリーズボタンの全押し操作が検出される直前のステップS30〜S50の実行結果に基づいて、前述のような被写体情報を取得する。この被写体情報には、撮影時の被写体認識結果、焦点検出領域およびデフォーカス量の各情報が含まれる。   In step S90, the control device 18 acquires subject information. Here, the subject information as described above is acquired based on the execution results of steps S30 to S50 immediately before the release button full-press operation is detected in step S70. This subject information includes information on a subject recognition result at the time of shooting, a focus detection area, and a defocus amount.

ステップS100において、制御装置18は、ステップS80で取得した撮像画像情報と、ステップS90で取得した被写体情報とを、互いに関連付けて不図示のメモリーカードに記録する。ステップS100を実行したら、制御装置18は図8のフローチャートを終了する。以上説明したようにして撮影処理が行われる。   In step S100, the control device 18 records the captured image information acquired in step S80 and the subject information acquired in step S90 on a memory card (not shown) in association with each other. If step S100 is performed, the control apparatus 18 will complete | finish the flowchart of FIG. The photographing process is performed as described above.

次に、図9の画像合成処理のフローチャートについて説明する。画像合成処理は、カメラに設けられた不図示の操作ボタンの操作により、ユーザが画像の合成をカメラに対して指示したときに行われる。ステップS110において、制御装置18は、図8のステップS100でメモリーカードに記録された撮像画像情報を読み出して、その撮像画像情報に基づく初期画像を表示部19に再生表示する。ここでは、読み出した撮像画像情報の中から、撮像素子6の各画素の中心にある受光素子による受光信号の情報を選択し、その受光信号情報が表す画像を初期画像として表示する。この初期画像は前述のように、全被写体にピントが合っているパンフォーカス画像である。あるいは、図6(b)で説明したようにして受光信号を選択し、その受光信号情報が表す画像を初期画像として表示してもよい。この場合の初期画像は、図8のステップS60において主要被写体にピントが合うように焦点調節されたレンズ光学系1による結像面に対応する撮像画像、すなわち像面のずれ量が0の撮像画像である。   Next, a flowchart of the image composition process in FIG. 9 will be described. The image composition process is performed when the user instructs the camera to compose an image by operating an operation button (not shown) provided on the camera. In step S110, the control device 18 reads the captured image information recorded in the memory card in step S100 of FIG. 8, and reproduces and displays an initial image based on the captured image information on the display unit 19. Here, the information of the received light signal by the light receiving element at the center of each pixel of the image sensor 6 is selected from the read captured image information, and the image represented by the received light signal information is displayed as the initial image. As described above, this initial image is a pan focus image in which all subjects are in focus. Alternatively, a light reception signal may be selected as described with reference to FIG. 6B, and an image represented by the light reception signal information may be displayed as an initial image. The initial image in this case is a captured image corresponding to the imaging surface by the lens optical system 1 that has been adjusted so that the main subject is focused in step S60 of FIG. 8, that is, a captured image in which the image plane deviation amount is zero. It is.

ステップS120において、制御装置18は、撮像画像の合成を行う際のピント合わせ位置をステップS110で表示した初期画像において設定する。ここでは、たとえばカメラに設けられた不図示の操作ボタンの操作によりユーザが初期画像上の任意の位置を指定すると、その位置をピント合わせ位置に設定する。あるいは、初期画像上のいずれの位置をカメラが自動的に選択し、ピント合わせ位置に設定してもよい。   In step S120, the control device 18 sets the focus position for combining the captured images in the initial image displayed in step S110. Here, for example, when the user designates an arbitrary position on the initial image by operating an operation button (not shown) provided on the camera, the position is set as a focus position. Alternatively, any position on the initial image may be automatically selected by the camera and set as the focus position.

ステップS130において、制御装置18は、ステップS110で読み出された撮像画像情報と関連付けてメモリーカードに記録された被写体情報の中から、ステップS120
で設定したピント合わせ位置に対応する被写体情報を抽出する。すなわち、設定されたピント合わせ位置に対して、対応する被写体領域の位置、数、大きさなどの情報を抽出する。さらに、その被写体領域に対して設定された焦点検出領域と、その焦点検出領域に対して検出されたデフォーカス量の情報を抽出する。
In step S130, the control device 18 performs step S120 from the subject information recorded on the memory card in association with the captured image information read in step S110.
The subject information corresponding to the focus position set in is extracted. That is, information such as the position, number, and size of the corresponding subject area is extracted with respect to the set focus position. Further, information on the focus detection area set for the subject area and the defocus amount detected for the focus detection area is extracted.

ステップS140において、制御装置18は、ステップS130で抽出した被写体情報が示すデフォーカス量に基づいて、撮像画像を合成する像面の位置を決定する。なお、複数のデフォーカス量の情報が被写体情報として抽出された場合は、それらの平均値、最小値、最大値などを代表デフォーカス量として算出し、撮像画像を合成する像面の位置を決定してもよい。   In step S140, the control device 18 determines the position of the image plane where the captured images are combined based on the defocus amount indicated by the subject information extracted in step S130. When multiple defocus amount information is extracted as subject information, the average value, minimum value, maximum value, etc. are calculated as representative defocus amounts, and the position of the image plane where the captured images are combined is determined. May be.

ステップS150において、制御装置18は、撮像画像を合成する際の絞りを設定する。この絞りの設定は、たとえばカメラに設けられた不図示の操作ボタンをユーザが操作することによって行われる。あるいは、カメラが自動的に絞りを設定してもよい。   In step S150, the control device 18 sets an aperture for combining captured images. The aperture setting is performed, for example, when the user operates an operation button (not shown) provided on the camera. Alternatively, the camera may automatically set the aperture.

ステップS160において、制御装置18は、画像生成部17により、ステップS140で決定した像面位置に対応する撮像画像を表示するための画像信号を生成する。ここでは、決定した像面位置における像面のずれ量に対応する、ステップS130で抽出した被写体情報が示すデフォーカス量に基づいて、図6で説明したような方法により、撮像画像情報が表す各画素の受光素子による受光信号のうちの一部を選択する。このとき、ステップS150で設定した絞りに応じて、受光信号の選択対象とする受光素子の数を決定する。こうして選択した受光信号に基づいて画像信号を生成することにより、ピント合わせ位置に設定された被写体にピントの合った撮像画像が合成される。   In step S160, the control device 18 causes the image generation unit 17 to generate an image signal for displaying a captured image corresponding to the image plane position determined in step S140. Here, based on the defocus amount indicated by the subject information extracted in step S130 corresponding to the image plane shift amount at the determined image plane position, each of the captured image information represented by the method described in FIG. 6 is used. A part of the light reception signal by the light receiving element of the pixel is selected. At this time, the number of light receiving elements to be selected for the received light signal is determined according to the diaphragm set in step S150. By generating an image signal based on the received light signal thus selected, a captured image focused on the subject set at the focus position is synthesized.

ステップS170において、制御装置18は、ステップS160で生成された画像信号に基づく撮像画像を表示部19に再生表示する。ステップS170を実行したら、制御装置18は図9のフローチャートを終了する。以上説明したようにして画像合成処理が行われる。   In step S170, the control device 18 reproduces and displays the captured image based on the image signal generated in step S160 on the display unit 19. If step S170 is performed, the control apparatus 18 will complete | finish the flowchart of FIG. The image composition process is performed as described above.

以上説明した実施の形態によれば、次の作用効果を奏することができる。   According to the embodiment described above, the following operational effects can be achieved.

(1)制御装置18は、図8の撮影処理において、撮像素子6からの受光信号を得た際のレンズ光学系1による像面のずれ量を示すデフォーカス量を検出する(ステップS50)。また、図9の画像合成処理において、ピント合わせ位置に対応する被写体情報を抽出し(ステップS130)、抽出した被写体情報におけるデフォーカス量に基づいて、撮像画像情報としてメモリーカードに記録された撮像素子6の各受光素子からの複数の受光信号の一部を図6に示すようにして選択し、選択した該一部の受光信号に基づいて画像信号を生成する(ステップS160)。こうして画像信号を生成することで撮像画像の合成を行うようにしたので、撮影データから撮影後に任意の距離にある被写体にピントの合った像面の画像を合成する際に、画像合成の対象とする像面を迅速に設定することができる。 (1) In the photographing process of FIG. 8, the control device 18 detects a defocus amount indicating the amount of deviation of the image plane by the lens optical system 1 when the received light signal is obtained from the image sensor 6 (step S50). Further, in the image composition process of FIG. 9, subject information corresponding to the focus position is extracted (step S130), and the image sensor recorded on the memory card as captured image information based on the defocus amount in the extracted subject information. A part of the plurality of light receiving signals from each of the six light receiving elements is selected as shown in FIG. 6, and an image signal is generated based on the selected part of the light receiving signals (step S160). Since the captured image is synthesized by generating the image signal in this way, when compositing the image of the image plane in focus on the subject at an arbitrary distance after photographing from the photographing data, The image plane to be performed can be set quickly.

(2)制御装置18は、レンズ光学系1による像面内に焦点検出領域を設定することで、ステップS50でデフォーカス量を検出する対象とする像面内の位置を特定する(ステップS40)。ステップS160では、こうして焦点検出領域として特定された像面内の位置に対するデフォーカス量に基づいて、複数の受光信号の一部を選択する。このようにしたので、像面内の適切な位置に対してデフォーカス量を検出し、撮像画像の合成を行うことができる。 (2) The control device 18 sets a focus detection area in the image plane by the lens optical system 1, thereby specifying a position in the image plane that is a target for detecting the defocus amount in step S50 (step S40). . In step S160, a part of the plurality of received light signals is selected based on the defocus amount with respect to the position in the image plane thus specified as the focus detection area. Since it did in this way, a defocus amount can be detected with respect to the appropriate position in an image surface, and a captured image can be synthesize | combined.

(3)制御装置18は、レンズ光学系1による像のうちの特定の像を被写体として認識する(ステップS30)。こうして認識された被写体の位置に対してステップS40で設定
された焦点検出領域のデフォーカス量を、ステップS50において検出する。したがって、像面内の被写体に対するデフォーカス量を自動的に検出することができる。
(3) The control device 18 recognizes a specific image among the images obtained by the lens optical system 1 as a subject (step S30). In step S50, the defocus amount of the focus detection area set in step S40 with respect to the position of the subject thus recognized is detected. Therefore, it is possible to automatically detect the defocus amount with respect to the subject in the image plane.

(4)制御装置18は、ステップS30において、認識した被写体に基づいてレンズ光学系1による像面を複数の被写体領域に区分する。こうして区分された各被写体領域に対してステップS40で設定された焦点検出領域のデフォーカス量を、ステップS50において検出する。このようにしたので、複数の被写体が像面内にある場合に、それぞれの被写体に対するデフォーカス量を確実に検出することができる。 (4) In step S30, the control device 18 divides the image plane by the lens optical system 1 into a plurality of subject areas based on the recognized subject. In step S50, the defocus amount of the focus detection area set in step S40 for each of the subject areas thus divided is detected. Since it did in this way, when a several subject exists in an image surface, the defocus amount with respect to each subject can be detected reliably.

(5)制御装置18は、ステップS30で区分された被写体領域の大きさが像面の所定割合以上である場合に、その被写体領域に対してステップS40で設定された複数の焦点検出領域にそれぞれ対応する複数のデフォーカス量を、ステップS50において検出する。したがって、像面内に占める領域の割合に応じて適切な数のデフォーカス量を検出することができる。 (5) When the size of the subject area divided in step S30 is equal to or larger than a predetermined ratio of the image plane, the control device 18 respectively sets a plurality of focus detection areas set in step S40 for the subject area. A plurality of corresponding defocus amounts are detected in step S50. Therefore, an appropriate number of defocus amounts can be detected in accordance with the ratio of the area in the image plane.

(6)制御装置18はまた、撮像素子6からの受光信号に基づくレンズ光学系1の像のうち所定値以上のコントラストを有する像の位置に対して、ステップS40において焦点検出領域を設定し、ステップS50においてデフォーカス量を検出してもよい。このようにすれば、信頼性の高いデフォーカス量を検出することができる。 (6) The control device 18 also sets a focus detection area in step S40 for the position of an image having a contrast equal to or higher than a predetermined value among the images of the lens optical system 1 based on the light reception signal from the image sensor 6; In step S50, the defocus amount may be detected. In this way, a highly reliable defocus amount can be detected.

(7)制御装置18は、ステップS50で検出されたデフォーカス量に基づいてレンズ光学系1の焦点調節を行う(ステップS60)。こうして焦点調節が行われたレンズ光学系1からの光束を受光した撮像素子6により出力され、撮像画像情報として記録された受光信号に基づいて、ステップS160において画像信号を生成する。このようにしたので、撮影時にレンズ光学系1の焦点調節を適切に行うことができる。 (7) The control device 18 adjusts the focus of the lens optical system 1 based on the defocus amount detected in step S50 (step S60). In step S160, an image signal is generated based on the received light signal output by the image sensor 6 that has received the light beam from the lens optical system 1 that has been subjected to focus adjustment in this manner and recorded as captured image information. Since it did in this way, the focus adjustment of the lens optical system 1 can be performed appropriately at the time of imaging | photography.

なお、上記実施の形態では、ステップS30において撮像素子6から出力される受光信号に基づいて被写体を認識しているが、測光センサ16から出力される測光信号に基づいて被写体を認識してもよい。あるいは、撮像素子6や測光センサ16とは別に被写体認識用の撮像素子をカメラ内に設け、これを用いて撮像した画像情報に基づいて被写体を認識してもよい。   In the above embodiment, the subject is recognized based on the light reception signal output from the image sensor 6 in step S30. However, the subject may be recognized based on the photometry signal output from the photometry sensor 16. . Alternatively, an image sensor for subject recognition may be provided in the camera separately from the image sensor 6 and the photometric sensor 16, and the subject may be recognized based on image information captured using the image sensor.

また、図9のフローチャートに示す画像合成処理を上記実施の形態で説明したカメラ以外の画像合成装置において行うようにしてもよい。この場合、画像合成処理を実行するためのプログラムは、CD−ROMなどの記録媒体やインターネットなどの電気通信回線を通じて画像合成装置に提供することができる。図10は、パーソナルコンピュータを画像合成装置として使用する例を示している。パーソナルコンピュータ100は、CD−ROM101を介してプログラムの提供を受ける。あるいは、パーソナルコンピュータ100は通信回線104との接続機能を有し、サーバ103から上記のプログラムを提供されることとしてもよい。通信回線104は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。サーバ103は、通信回線104を介してプログラムをパーソナルコンピュータ100に送信する。すなわち、プログラムを搬送波上のデータ信号に変換して、通信回線101を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。   Further, the image composition processing shown in the flowchart of FIG. 9 may be performed by an image composition device other than the camera described in the above embodiment. In this case, a program for executing the image composition process can be provided to the image composition apparatus through a recording medium such as a CD-ROM or an electric communication line such as the Internet. FIG. 10 shows an example in which a personal computer is used as an image composition device. The personal computer 100 is provided with a program via the CD-ROM 101. Alternatively, the personal computer 100 may have a connection function with the communication line 104 and be provided with the above program from the server 103. The communication line 104 is a communication line such as the Internet or personal computer communication, or a dedicated communication line. The server 103 transmits the program to the personal computer 100 via the communication line 104. That is, the program is converted into a data signal on a carrier wave and transmitted via the communication line 101. Thus, the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a carrier wave.

上記のパーソナルコンピュータ100には、図8の撮影処理をカメラの制御装置18が実行することによって撮像画像情報および被写体情報が記録された記録媒体102が装填される。パーソナルコンピュータ100は、CD−ROM101またはサーバ103から提供されたプログラムを実行することにより、撮像画像情報および被写体情報を記録媒体
102から読み出し、読み出された撮像画像情報および被写体情報に基づいて図9の画像合成処理を実行することで、任意の像面位置にピントの合った撮像画像を合成してディスプレイに表示する。
The above-described personal computer 100 is loaded with a recording medium 102 on which captured image information and subject information are recorded by the camera control device 18 executing the shooting process of FIG. The personal computer 100 executes the program provided from the CD-ROM 101 or the server 103 to read the captured image information and the subject information from the recording medium 102, and based on the read captured image information and the subject information, FIG. By executing this image composition processing, a captured image focused on an arbitrary image plane position is synthesized and displayed on the display.

以上説明した実施の形態および各種の変形例は、あくまで本発明の実施の形態の一例である。したがって、発明を解釈する際、上記の記載事項と特許請求の範囲の記載事項の対応関係には何ら限定も拘束もされない。また、発明の特徴が損なわれない限り、本発明は上記の記載内容に限定されるものでもない。   The embodiment and various modifications described above are merely examples of the embodiment of the present invention. Therefore, when interpreting the invention, the correspondence between the above described items and the items described in the claims is not limited or restricted. In addition, the present invention is not limited to the above description unless the features of the invention are impaired.

1 レンズ光学系
6 撮像素子
7 焦点検出光学系
9 被写体認識部
10 焦点検出領域設定部
11 焦点検出演算部
12 レンズ駆動量演算部
13 レンズ駆動制御部
17 画像生成部
18 制御装置
DESCRIPTION OF SYMBOLS 1 Lens optical system 6 Image pick-up element 7 Focus detection optical system 9 Subject recognition part 10 Focus detection area setting part 11 Focus detection calculating part 12 Lens drive amount calculating part 13 Lens drive control part 17 Image generation part 18 Control apparatus

Claims (13)

複数のマイクロレンズを配列したマイクロレンズアレイと、
前記複数のマイクロレンズに対して複数の受光素子を有し、光学系からの光束を前記マイクロレンズを介して受光して複数の受光信号を出力する受光素子アレイと、
前記受光信号を用いて前記光学系による像面のずれ量を検出する検出手段と、
前記検出手段によって検出された前記像面のずれ量を用いて、前記光学系による結像面からの距離を決定する決定手段と、
前記決定手段により決定された前記距離に対応する前記受光信号を用いて、前記決定手段により決定された前記距離にピントが合った画像信号を生成する画像生成手段とを備えることを特徴とする画像生成装置。
A microlens array in which a plurality of microlenses are arranged; and
A light receiving element array having a plurality of light receiving elements for the plurality of micro lenses, receiving a light beam from an optical system via the micro lens, and outputting a plurality of light receiving signals;
Detecting means for detecting a shift amount of the image plane by the optical system using the received light signal;
Determining means for determining a distance from the image plane by the optical system, using a deviation amount of the image plane detected by the detecting means;
Using the light receiving signal corresponding to the distance determined by said determining means, characterized in that it comprises an image generating means for generating an image signal in focus on the distance that is determined by said determining means Image generation device.
請求項1に記載の画像生成装置において、
ユーザが撮影画像上の所定位置を選択するための選択手段を有し、
前記決定手段は、前記検出手段により検出された前記像面のずれ量のうち、前記選択手段により選択された前記所定位置に対応する像面のずれ量を用いて前記光学系による結像面からの距離を決定することを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The user has a selection means for selecting a predetermined position on the captured image,
The determining means uses a deviation amount of the image plane corresponding to the predetermined position selected by the selection means, out of the deviation amounts of the image plane detected by the detection means, from the image plane formed by the optical system. An image generation apparatus characterized by determining a distance of the image.
請求項2に記載の画像生成装置において、
特定被写体を認識する認識手段を有し、
前記決定手段は、前記検出手段により検出された前記像面のずれ量のうち、前記選択手段により選択された前記所定位置にある前記特定被写体に対応する前記像面のずれ量を用いて前記光学系による結像面からの距離を決定することを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
Having a recognition means for recognizing a specific subject,
The determination means uses the deviation amount of the image plane corresponding to the specific subject at the predetermined position selected by the selection means among the deviation amounts of the image plane detected by the detection means. An image generation apparatus characterized by determining a distance from an image plane by a system.
請求項1に記載の画像生成装置において、
前記受光素子アレイから出力された前記複数の受光信号に関連付けて、前記検出手段によって検出された前記像面のずれ量を記憶する記憶手段と、を有することを特徴とする画像生成装置。
The image generation apparatus according to claim 1 ,
An image generating apparatus , comprising: a storage unit that stores a shift amount of the image plane detected by the detection unit in association with the plurality of light reception signals output from the light receiving element array .
請求項4に記載の画像生成装置において、
特定被写体を認識する認識手段を有し、
前記記憶手段は、前記受光素子アレイから出力された前記複数の受光信号に関連付けて、前記認識手段によって認識された前記特定被写体に関する情報を記憶することを特徴とする画像生成装置。
The image generation apparatus according to claim 4,
Having a recognition means for recognizing a specific subject,
The image generation apparatus , wherein the storage unit stores information on the specific subject recognized by the recognition unit in association with the plurality of light reception signals output from the light receiving element array .
請求項4又は請求項5に記載の画像生成装置において、
ユーザが撮影画像上の所定位置を選択するための選択手段を有し、
前記検出手段は、前記光学系による像面上の複数のエリアのそれぞれに対応する複数のずれ量を検出し、
前記記憶手段は、前記受光素子アレイから出力された前記複数の受光信号に関連付けて、前記検出手段によって検出された前記複数のずれ量を記憶し、
前記決定手段は、前記記憶手段に記憶された前記複数のずれ量のうち、前記選択手段により選択された前記所定位置に対応するずれ量を用いて前記光学系による結像面からの距離を決定することを特徴とする画像生成装置。
In the image generation device according to claim 4 or 5 ,
The user has a selection means for selecting a predetermined position on the captured image,
The detecting means detects a plurality of shift amounts corresponding to a plurality of areas on the image plane by the optical system;
The storage means stores the plurality of shift amounts detected by the detection means in association with the plurality of light reception signals output from the light receiving element array,
The determining unit determines a distance from the imaging plane by the optical system using a shift amount corresponding to the predetermined position selected by the selection unit among the plurality of shift amounts stored in the storage unit. An image generation apparatus characterized by:
請求項5に記載の画像生成装置において、
前記認識手段は、認識した前記特定の像に基づいて前記光学系による像面を複数領域に区分し、
前記検出手段は、前記認識手段によって区分された前記領域に対する前記像面のずれ量を検出することを特徴とする画像生成装置。
The image generation apparatus according to claim 5 ,
The recognizing unit divides the image plane by the optical system into a plurality of regions based on the recognized specific image,
The image generation apparatus according to claim 1, wherein the detection unit detects a deviation amount of the image plane with respect to the region divided by the recognition unit.
請求項7に記載の画像生成装置において、
前記検出手段は、前記認識手段によって区分された前記領域の大きさが前記像面の所定割合以上である場合に、前記領域に対して複数の前記像面のずれ量を検出することを特徴とする画像生成装置。
The image generation apparatus according to claim 7 .
The detection means detects a plurality of shift amounts of the image plane with respect to the area when the size of the area divided by the recognition means is equal to or larger than a predetermined ratio of the image plane. An image generating device.
請求項1〜8のいずれか一項に記載の画像生成装置を備えることを特徴とする撮像装置。An imaging apparatus comprising the image generation apparatus according to claim 1. 請求項9に記載の撮像装置において、The imaging device according to claim 9,
前記検出手段により検出された前記像面のずれ量に基づいて前記光学系の焦点調節制御を行う焦点調節制御手段を備え、Focus adjustment control means for performing focus adjustment control of the optical system based on the amount of deviation of the image plane detected by the detection means,
前記受光素子アレイは、前記焦点調節制御手段により焦点調節制御がされた状態で、前記光学系からの光束を受光して前記受光信号を出力することを特徴とする撮像装置。The imaging device, wherein the light receiving element array receives a light beam from the optical system and outputs the light reception signal in a state where focus adjustment control is performed by the focus adjustment control unit.
複数のマイクロレンズを配列したマイクロレンズアレイと、
前記複数のマイクロレンズに対して複数の受光素子を有し、光学系からの光束を前記マイクロレンズを介して受光して複数の受光信号を出力する受光素子アレイと、
前記光学系による像面内のずれ量を検出する対象とする位置を特定する特定手段と、
前記特定手段によって特定された前記位置に対する前記像面のずれ量を検出する検出手段と、
前記検出手段によって検出されたずれ量に基づいて前記複数の受光信号の一部を選択し、選択した該一部の受光信号に基づいて画像信号を生成する画像生成手段と、を備えることを特徴とする画像生成装置。
A microlens array in which a plurality of microlenses are arranged; and
A light receiving element array having a plurality of light receiving elements for the plurality of micro lenses, receiving a light beam from an optical system via the micro lens, and outputting a plurality of light receiving signals;
A specifying means for specifying a target position for detecting a shift amount in an image plane by the optical system;
Detecting means for detecting a shift amount of the image plane with respect to the position specified by the specifying means;
Image generating means for selecting a part of the plurality of received light signals based on the amount of deviation detected by the detecting means and generating an image signal based on the selected received light signals. An image generating apparatus.
光学系からの光束を、複数のマイクロレンズに対して配置された複数の受光素子によって受光することにより複数の受光信号を得て、A plurality of light receiving signals are obtained by receiving a light beam from the optical system by a plurality of light receiving elements arranged for a plurality of microlenses,
前記受光信号を得た際の前記光学系による像面のずれ量を検出し、前記検出された前記像面のずれ量を用いて、前記光学系による結像面からの距離を決定し、Detecting the amount of deviation of the image plane by the optical system when obtaining the received light signal, using the detected amount of deviation of the image plane, determining the distance from the imaging plane by the optical system,
前記決定された前記距離に対応する前記受光信号を用いて、前記決定された前記距離にピントが合った画像信号を生成することを特徴とする画像生成方法。An image generation method, wherein an image signal focused on the determined distance is generated using the received light signal corresponding to the determined distance.
請求項12に記載の画像生成方法において、The image generation method according to claim 12,
前記光学系による像のうちの特定の像を認識することにより、前記像面のずれ量を検出する対象とする位置を特定し、By recognizing a specific image among the images by the optical system, the position to be detected is determined as a target for detecting the shift amount of the image plane,
前記特定された位置に対する前記像面のずれ量に基づいて前記複数の受光信号の一部を選択し、該一部の受光信号に基づいて画像信号を生成する画像生成方法。An image generation method of selecting a part of the plurality of light reception signals based on the amount of deviation of the image plane with respect to the specified position and generating an image signal based on the part of the light reception signals.
JP2011017772A 2011-01-31 2011-01-31 Image generation apparatus, imaging apparatus, and image generation method Active JP5263310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011017772A JP5263310B2 (en) 2011-01-31 2011-01-31 Image generation apparatus, imaging apparatus, and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011017772A JP5263310B2 (en) 2011-01-31 2011-01-31 Image generation apparatus, imaging apparatus, and image generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009016481A Division JP4710983B2 (en) 2009-01-28 2009-01-28 Image composition device, imaging device, and image composition method

Publications (3)

Publication Number Publication Date
JP2011097645A JP2011097645A (en) 2011-05-12
JP2011097645A5 JP2011097645A5 (en) 2012-01-19
JP5263310B2 true JP5263310B2 (en) 2013-08-14

Family

ID=44113976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011017772A Active JP5263310B2 (en) 2011-01-31 2011-01-31 Image generation apparatus, imaging apparatus, and image generation method

Country Status (1)

Country Link
JP (1) JP5263310B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5898501B2 (en) 2012-01-13 2016-04-06 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, program, and recording medium
CN104285173B (en) 2012-05-07 2018-05-25 株式会社尼康 Focus detection device
JP2013235047A (en) * 2012-05-07 2013-11-21 Nikon Corp Focus detection device
JP6003198B2 (en) * 2012-05-07 2016-10-05 株式会社ニコン Focus detection device
JP6071333B2 (en) * 2012-08-27 2017-02-01 キヤノン株式会社 Image processing apparatus, method and program, and imaging apparatus having image processing apparatus
JP6305053B2 (en) * 2013-01-15 2018-04-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP6170725B2 (en) * 2013-05-15 2017-07-26 日本放送協会 Image processing apparatus and program
JP6237858B2 (en) * 2016-10-25 2017-11-29 株式会社ニコン Focus detection apparatus and imaging apparatus
JP6780537B2 (en) 2017-02-22 2020-11-04 オムロン株式会社 Optical sensors, learning devices, and image processing systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3571831B2 (en) * 1995-10-27 2004-09-29 キヤノン株式会社 Optical device
JP2001330882A (en) * 2000-05-24 2001-11-30 Canon Inc Camera with subject recognizing function
JP3859131B2 (en) * 2002-01-11 2006-12-20 富士フイルムホールディングス株式会社 Digital camera
JP4826152B2 (en) * 2005-06-23 2011-11-30 株式会社ニコン Image composition method and imaging apparatus
JP5157128B2 (en) * 2006-11-02 2013-03-06 株式会社ニコン Focus detection apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP2011097645A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
JP4692654B2 (en) Imaging apparatus and image processing program
US8570427B2 (en) Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
US9258545B2 (en) Stereoscopic imaging apparatus
JP6062656B2 (en) Imaging apparatus, control method, and program
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5753371B2 (en) Imaging apparatus and control method thereof
JP2012124555A (en) Imaging apparatus
JP4710983B2 (en) Image composition device, imaging device, and image composition method
US20040252223A1 (en) Image pickup device, image pickup system and image pickup method
JP2001223932A (en) Image pickup device and digital camera
JP5641771B2 (en) Focus detection device
JP5446311B2 (en) Imaging device
JP2007133301A (en) Autofocus camera
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2010109923A (en) Imaging apparatus
JP5217942B2 (en) Focus adjustment device and imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5541396B2 (en) Image tracking device
WO2023106118A1 (en) Information processing device, information processing method, and program
JP5176845B2 (en) Image tracking device and imaging device
JP2010183353A (en) Photographing device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP6891470B2 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Ref document number: 5263310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250