JP2010109921A - Image synthesizing apparatus - Google Patents

Image synthesizing apparatus Download PDF

Info

Publication number
JP2010109921A
JP2010109921A JP2008282295A JP2008282295A JP2010109921A JP 2010109921 A JP2010109921 A JP 2010109921A JP 2008282295 A JP2008282295 A JP 2008282295A JP 2008282295 A JP2008282295 A JP 2008282295A JP 2010109921 A JP2010109921 A JP 2010109921A
Authority
JP
Japan
Prior art keywords
image
photoelectric conversion
subject
microlens
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008282295A
Other languages
Japanese (ja)
Inventor
Toru Iwane
透 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008282295A priority Critical patent/JP2010109921A/en
Publication of JP2010109921A publication Critical patent/JP2010109921A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To synthesize an image focused at a desired position to be focused from one captured image. <P>SOLUTION: An image synthesizing apparatus includes: a photographing optical system 3; a micro lens array 4a which includes a plurality of micro lenses arrayed in a two-dimensional manner and is disposed at the back of the photographing optical system 3; a photoelectric conversion device 4b which is disposed at the back of the micro lens array 4a and in which a plurality of photoelectric conversion area is assigned to each of the plurality of micro lenses; subject specifying means 5a, 5b, 5c for specifying an object to be focused; and an image creating means 5d for synthesizing an image focusing the object specified by the subject specifying means 5a, 5b, 5c on the basis of output of the photoelectric conversion device. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像合成装置に関する。   The present invention relates to an image composition apparatus.

複数のマイクロレンズを二次元状に配列したマイクロレンズアレイと、光電変換素子を二次元状に配列した光電変換素子アレイとを撮影光学系の背後に順次配置し、任意の奥行き位置(撮影光学系の光軸方向)に焦点の合った画像を合成するようにした画像合成カメラが知られている(例えば、非特許文献1参照)。
特開2007−004471号公報
A microlens array in which a plurality of microlenses are arranged two-dimensionally and a photoelectric conversion element array in which photoelectric conversion elements are arranged two-dimensionally are sequentially arranged behind the imaging optical system, and an arbitrary depth position (imaging optical system) There is known an image synthesis camera that synthesizes an image focused in the direction of the optical axis (see, for example, Non-Patent Document 1).
JP 2007-004471 A

しかしながら、上述した従来の画像合成カメラは、撮像画像の任意の奥行き位置に焦点の合った画像を合成するもので、どのような画像を合成するかについては何も触れていない。    However, the above-described conventional image synthesizing camera synthesizes an image focused on an arbitrary depth position of a captured image, and does not touch on what kind of image is to be synthesized.

(1) 請求項1の発明は、撮影光学系と、二次元状に配列した複数のマイクロレンズを有し、撮影光学系の背後に配置されたマイクロレンズアレイと、マイクロレンズアレイの背後に配置され、複数のマイクロレンズごとに複数の光電変換領域が割り当てられた光電変換装置と、焦点を合わせる被写体を特定する被写体特定手段と、被写体特定手段により特定された被写体に焦点のあった画像を光電変換装置の出力に基づき合成する画像作成手段とを有する。
(2) 請求項2の発明は、請求項1に記載の画像合成装置において、被写体特定手段は焦点検出手段を有し、画像作成手段は焦点検出手段による焦点検出に先立ち予め取得した光電変換装置の出力に基づき、焦点検出手段が焦点検出した被写体に焦点の合った画像を作成する。
(3) 請求項3の発明は、請求項2に記載の画像合成装置において、光電変換装置の光電変換領域は撮影光学系の射出瞳と共役であり、焦点検出手段はマイクロレンズごとに割り当てられた複数の光電変換領域のうちの一対の光電変換領域の出力に基づき被写体までの焦点外れ量を検出する。
(4) 請求項4の発明は、請求項1に記載の画像合成装置において、被写体特定手段は、被写体の予め指定された特徴を識別し、この特徴部分に焦点検出手段により焦点検出を行い、焦点検出対象となった被写体に焦点の合った画像を合成するよう画像作成手段に指示する指示手段を有する。
(5) 請求項5の発明は、請求項1に記載の画像合成装置において、画像合成手段は、撮像素子の出力に基づき焦点深度の深い画像を作成し表示する表示手段を有し、被写体特定手段は、表示手段の表示に基づき、焦点を合わせたい被写体を設定する設定手段を有し、設定手段にて設定された被写体に焦点のあった画像を得る。
(6) 請求項6の発明は、請求項1〜5のいずれか一項に記載の画像合成装置において、被写体特定手段は、撮影光学系の光軸方向へ異なる位置の被写体を特定し、画像作成手段は特定した複数の被写体に焦点の合った一つの画像を作成する。
(1) The invention of claim 1 has a photographing optical system, a plurality of microlenses arranged two-dimensionally, a microlens array disposed behind the photographing optical system, and disposed behind the microlens array. A photoelectric conversion device in which a plurality of photoelectric conversion regions are assigned to each of a plurality of microlenses, a subject specifying unit for specifying a subject to be focused, and an image focused on the subject specified by the subject specifying unit. And image creating means for synthesizing based on the output of the conversion device.
(2) The invention of claim 2 is the image synthesizing apparatus according to claim 1, wherein the subject specifying means has a focus detecting means, and the image creating means is a photoelectric conversion apparatus previously acquired prior to focus detection by the focus detecting means. Based on the output, an image focused on the subject whose focus is detected by the focus detection means is created.
(3) The invention of claim 3 is the image composition apparatus according to claim 2, wherein the photoelectric conversion area of the photoelectric conversion device is conjugate with the exit pupil of the photographing optical system, and the focus detection means is assigned to each microlens. The amount of defocus to the subject is detected based on the outputs of the pair of photoelectric conversion regions among the plurality of photoelectric conversion regions.
(4) According to a fourth aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the subject specifying means identifies a predesignated feature of the subject and performs focus detection on the feature portion by the focus detection means, Instructing means for instructing the image creating means to synthesize an image focused on the subject that is the focus detection target.
(5) The invention of claim 5 is the image composition apparatus according to claim 1, wherein the image composition means includes display means for creating and displaying an image with a deep focal depth based on the output of the image sensor, The means has setting means for setting a subject to be focused on based on the display on the display means, and obtains an image focused on the subject set by the setting means.
(6) The invention according to claim 6 is the image composition device according to any one of claims 1 to 5, wherein the subject specifying means specifies subjects at different positions in the optical axis direction of the photographing optical system, and The creating means creates one image focused on the plurality of identified subjects.

本発明によれば、1枚の撮像画像から焦点を合わせたい位置で焦点の合った画像を合成することができる。   According to the present invention, a focused image can be synthesized from a single captured image at a position where focus is desired.

本発明の画像合成装置をデジタルカメラに適用した一実施の形態を説明する。図1は一実施の形態のデジタルカメラの構成を示す図であり、この図により一実施の形態の構成について説明する。なお、図1では本発明に直接関係のあるカメラの装置および機器のみを図示する。   An embodiment in which the image composition apparatus of the present invention is applied to a digital camera will be described. FIG. 1 is a diagram showing the configuration of a digital camera according to an embodiment. The configuration of the embodiment will be described with reference to FIG. FIG. 1 shows only camera devices and devices that are directly related to the present invention.

一実施の形態のデジタルカメラ1には、カメラボディ2に撮影レンズ3が装着されている。カメラボディ2は撮像素子4、駆動制御装置5、メモリ6などを備えている。撮像素子4は、微小なマイクロレンズを平面上に稠密に配列したマイクロレンズアレイ4aと、微小な光電変換素子を平面上に稠密に配列した光電変換素子アレイ4bとから構成される。   In a digital camera 1 according to an embodiment, a photographing lens 3 is attached to a camera body 2. The camera body 2 includes an image sensor 4, a drive control device 5, a memory 6, and the like. The imaging device 4 includes a microlens array 4a in which minute microlenses are densely arranged on a plane, and a photoelectric conversion element array 4b in which minute photoelectric conversion elements are densely arranged on a plane.

光電変換素子アレイ4bの受光面はマイクロレンズの焦点距離の位置に配置されている。そして、マイクロレンズアレイ4aと光電変換素子アレイ4bとは、光電変換素子アレイ4bの受光面が撮影レンズ3の射出瞳面と共役になる位置に配置される。   The light receiving surface of the photoelectric conversion element array 4b is arranged at the position of the focal length of the microlens. The microlens array 4 a and the photoelectric conversion element array 4 b are arranged at a position where the light receiving surface of the photoelectric conversion element array 4 b is conjugated with the exit pupil plane of the photographing lens 3.

撮影レンズ3による被写体像は、被写体の奥行き方向の位置関係(撮影レンズ3の光軸方向の位置)によって決まり、マイクロレンズ頂点面の前側(撮影レンズ3側)で焦点を結ぶ被写体、後側で焦点を結ぶ被写体、あるいはマイクロレンズ頂点面で焦点を結ぶ被写体が存在する。   The subject image by the photographic lens 3 is determined by the positional relationship of the subject in the depth direction (the position of the photographic lens 3 in the optical axis direction), and the subject focused on the front side of the microlens apex surface (the photographic lens 3 side) and the rear side. There is a subject to be focused or a subject to be focused at the apex surface of the microlens.

図2は、一実施の形態のマイクロレンズアレイ4aを撮影レンズ3側から見た図である。この一実施の形態では微小なマイクロレンズを千鳥状に稠密に配列した例を示し、奇数列(または奇数行)と偶数列(または偶数行)とが互い違い配置されている。なお、マイクロレンズの配列は千鳥状配列に限定されず、例えば正方配列でもよいし、あるいはハニカム状配列(六方稠密配列)でもよい。   FIG. 2 is a diagram of the microlens array 4a according to the embodiment as viewed from the photographing lens 3 side. In this embodiment, an example in which minute microlenses are densely arranged in a zigzag manner is shown, and odd columns (or odd rows) and even columns (or even rows) are alternately arranged. Note that the arrangement of the microlenses is not limited to the staggered arrangement, and may be, for example, a square arrangement or a honeycomb arrangement (hexagonal close arrangement).

図3は、マイクロレンズアレイ4aの一つのマイクロレンズの外径を光電変換素子アレイ4b上に投影した図である(光電変換素子アレイ4bの光電変換素子は説明に必要なマイクロレンズの外径に含まれるもののみを示した)。光電変換素子アレイ4bは、微小な光電変換素子がマイクロレンズの焦点距離の位置にある受光面に正方格子状に配列されている。図3から明らかなように、マイクロレンズアレイ4aの各マイクロレンズは、光電変換素子アレイ4bの複数の光電変換素子を被覆している。   FIG. 3 is a diagram in which the outer diameter of one microlens of the microlens array 4a is projected onto the photoelectric conversion element array 4b (the photoelectric conversion element of the photoelectric conversion element array 4b has an outer diameter of the microlens necessary for explanation). Only included). In the photoelectric conversion element array 4b, minute photoelectric conversion elements are arranged in a square lattice pattern on the light receiving surface at the focal length of the microlens. As is clear from FIG. 3, each microlens of the microlens array 4a covers the plurality of photoelectric conversion elements of the photoelectric conversion element array 4b.

図1において、駆動制御装置5は、図示しないマイクロコンピューターとメモリ、A/Dコンバーター、駆動回路などの周辺部品から構成され、カメラ1の種々の演算制御やシーケンス制御を実行する。駆動制御装置5には、マイクロコンピューターのソフトウエア形態により瞳データ抽出部5a、データ列形成部5b、焦点演算部5c、画像合成部5dなどが構成されている。これらの各部5a〜5dの詳細については後述する。   In FIG. 1, the drive control device 5 includes a microcomputer (not shown) and peripheral components such as a memory, an A / D converter, and a drive circuit, and executes various arithmetic controls and sequence controls of the camera 1. The drive control device 5 includes a pupil data extraction unit 5a, a data string formation unit 5b, a focus calculation unit 5c, an image composition unit 5d, and the like according to the software form of the microcomputer. Details of these parts 5a to 5d will be described later.

メモリ6は種々のデータや画像を記憶する。画像メモリ6aは撮像素子4により撮像された画像を記憶する。光軸データメモリ6bは、マイクロレンズアレイ4aを構成する各マイクロレンズの光軸の、光電変換素子アレイ4b上における位置データを記憶するメモリである。このマイクロレンズの光軸位置データは、光電変換素子アレイ4bの光電変換素子位置の座標を小数レベルまで展開したものである。つまり、光電変換素子1個を1とした単位よりも小さい値、例えば光電変換素子0.5個を0.5というように光軸位置を正確に表したものである。   The memory 6 stores various data and images. The image memory 6 a stores an image captured by the image sensor 4. The optical axis data memory 6b is a memory for storing position data on the photoelectric conversion element array 4b of the optical axis of each microlens constituting the microlens array 4a. This optical lens position data of the microlens is obtained by developing the coordinates of the photoelectric conversion element position of the photoelectric conversion element array 4b to a decimal level. That is, the optical axis position is accurately expressed as a value smaller than a unit in which one photoelectric conversion element is 1, for example, 0.5 photoelectric conversion element is 0.5.

駆動制御装置5の瞳データ抽出部5aは、光電変換素子4bから出力され画像メモリ6aに記憶されている光電変換素子ごとの光電変換データの中から、光軸データメモリ6bに記憶されている各マイクロレンズの光軸位置を中心とする左右対象位置の光電変換素子(通常は複数)の光電変換データを抽出する。この一実施の形態では、図3に示すように、マイクロレンズ光軸位置を中心とする左右対象位置にあるそれぞれ3個の光電変換素子の光電変換データをそれぞれ積算し、右瞳データおよび左瞳データとする。瞳データ抽出部5aは、各マイクロレンズごとに左右一対の瞳データを抽出して画像データメモリ6aに一時的に記憶する。   The pupil data extraction unit 5a of the drive control device 5 outputs each photoelectric conversion data stored in the optical axis data memory 6b from the photoelectric conversion data for each photoelectric conversion element output from the photoelectric conversion element 4b and stored in the image memory 6a. Photoelectric conversion data of photoelectric conversion elements (usually a plurality) at the left and right target positions with the optical axis position of the microlens as the center is extracted. In this embodiment, as shown in FIG. 3, the photoelectric conversion data of each of the three photoelectric conversion elements at the left and right target positions centered on the microlens optical axis position are respectively integrated, and the right pupil data and the left pupil Data. The pupil data extraction unit 5a extracts a pair of left and right pupil data for each microlens and temporarily stores it in the image data memory 6a.

図3において、マイクロレンズ光軸位置を中心とする左右対象位置にあるそれぞれ3個の光電変換素子は、対応するマイクロレンズにより撮影レンズ3の射出瞳上に投影され、射出瞳上に一対の投影領域を形成する。撮影レンズ3の射出瞳上のこの一対の投影領域を通過する一対の光束は、撮影レンズ3およびマイクロレンズを介してマイクロレンズ光軸位置を中心とする左右対象位置にあるそれぞれ3個の光電変換素子へ導かれ、それぞれ3個の光電変換素子上に一対の像が結像される。この一対の像の位相差すなわち像ずれ量は撮影レンズ3の焦点調節状態に応じて変化するため、それぞれ3個の光電変換素子から出力される一対の像に対応する一対の画像データに基づいて像ずれ量を演算すれば、いわゆる瞳分割位相差検出方式により撮影レンズ3の焦点調節状態、つまりマイクロレンズ頂点面からの焦点の外れ量を検出することができる。各マイクロレンズの背後にある光電変換素子による右瞳、左瞳の焦点はずれ量は、各マイクロレンズの頂点位置に対応する被写体像の焦点外れ量を示すことになる(特開2007−11314号公報などを参照)。   In FIG. 3, each of the three photoelectric conversion elements at the left and right target positions centered on the optical axis position of the microlens is projected onto the exit pupil of the photographing lens 3 by the corresponding microlens, and a pair of projections on the exit pupil. Form a region. A pair of light fluxes passing through the pair of projection areas on the exit pupil of the photographing lens 3 is converted into three photoelectric conversions at right and left target positions centered on the optical axis position of the microlens via the photographing lens 3 and the microlens. A pair of images is formed on each of the three photoelectric conversion elements. Since the phase difference of the pair of images, that is, the amount of image shift, changes in accordance with the focus adjustment state of the photographing lens 3, each of the pair of images is based on a pair of image data corresponding to the pair of images output from three photoelectric conversion elements. If the image shift amount is calculated, the focus adjustment state of the photographing lens 3, that is, the defocus amount from the top surface of the microlens can be detected by a so-called pupil division phase difference detection method. The defocus amount of the right pupil and the left pupil due to the photoelectric conversion element behind each microlens indicates the defocus amount of the subject image corresponding to the apex position of each microlens (Japanese Patent Laid-Open No. 2007-11314). Etc.)

なお、左右一対の瞳データを抽出する光電変換素子の位置および個数は、図3に示す一実施の形態の位置および個数に限定されない。   Note that the position and number of photoelectric conversion elements that extract the pair of left and right pupil data are not limited to the position and number of the embodiment shown in FIG.

駆動制御装置5のデータ列形成部5bは、左右方向に配列されている所定数のマイクロレンズに対応する左右一対の瞳データを、右瞳データと左瞳データに分けてマイクロレンズの順に並べ、右瞳データ列と左瞳データ列を構成する。   The data string forming unit 5b of the drive control device 5 divides a pair of left and right pupil data corresponding to a predetermined number of microlenses arranged in the left-right direction into right pupil data and left pupil data and arranges them in the order of microlenses. A right pupil data string and a left pupil data string are formed.

図4は、左右の瞳データ列を抽出するためにマイクロレンズアレイ4aから11個のマイクロレンズを選択した例を示す。マイクロレンズアレイ4aはマイクロレンズが千鳥格子状に配列されているので、図中に黒丸を繋げて示すように、偶数列のマイクロレンズと奇数列のマイクロレンズとを交互に選択して13個の焦点検出用のマイクロレンズ配列とする。この例では左から7番目のマイクロレンズが焦点検出用マイクロレンズ配列の中心になり、この位置を焦点検出位置と決める。   FIG. 4 shows an example in which eleven microlenses are selected from the microlens array 4a in order to extract left and right pupil data strings. Since the microlenses are arranged in a staggered pattern in the microlens array 4a, as shown by connecting the black circles in the figure, the even-numbered microlenses and the odd-numbered microlenses are alternately selected to be 13 pieces. A microlens array for detecting the focus of the lens. In this example, the seventh microlens from the left is the center of the focus detection microlens array, and this position is determined as the focus detection position.

駆動制御装置5の焦点演算部5cは、画像メモリ6aから左右一対の瞳データ列を読み出し、上述した瞳分割位相差検出方式により焦点検出演算(相関演算)を行い、撮影レンズ3の焦点調節状態を検出する。   The focus calculation unit 5c of the drive control device 5 reads a pair of left and right pupil data strings from the image memory 6a, performs focus detection calculation (correlation calculation) by the above-described pupil division phase difference detection method, and adjusts the focus adjustment state of the photographing lens 3 Is detected.

一対のデータ列に基づく焦点検出演算については周知であるが、ここでその概要を説明する。上述した左右一対の瞳データ列をA{ai}、B{bi}とし、データの個数をそれぞれN個(i=1,2,・・,N)とする。一対のデータ列A、Bのずらし量をkとしたとき、データ列AとBの差分Dは次式で表される。
Dk=Σ|ai+k−bi| ・・・(1)
(1)式により差分Dが最も小さくなるずらし量kを求める。一対のデータ列A、Bは離散的な数列であるから、マイクロレンズの間隔以上の分解能で差分Dが最小値となる真のずらし量kを得ることはできない。
The focus detection calculation based on a pair of data strings is well known, but the outline thereof will be described here. The above-described pair of left and right pupil data strings is A {ai} and B {bi}, and the number of data is N (i = 1, 2,..., N), respectively. When the shift amount between the pair of data strings A and B is k, the difference D between the data strings A and B is expressed by the following equation.
Dk = Σ | ai + k−bi | (1)
The shift amount k that minimizes the difference D is obtained from the equation (1). Since the pair of data strings A and B are discrete numbers, it is not possible to obtain a true shift amount k at which the difference D becomes the minimum value with a resolution equal to or higher than the microlens interval.

ここで、一対のデータ列A、Bは正弦波の合成とみなすことができるので、その内のある空間周波数ωを持つ正弦波信号に注目すると、(1)式は次式(2)とみなすことができる。
D(θ)=K∫|sin(ωx+θ)−sinωx|dx ・・・(2)
さらに(2)式を変形すると次式が得られる。
D(θ)=K’|sin(θ/2)・sin(ωx+φ)| ・・・(3)
(3)式は他の空間周波数にも適用でき、これらもすべてθに関する項が独立に乗ぜられていることから、差分式は正弦波の絶対値で変化することがわかる。また、θが0付近では正弦波は線形であるから、図5に示すように左右同じ傾きの直線に挟まれた、谷間の底が最小値であると見なせる。
Here, since the pair of data strings A and B can be regarded as a combination of sine waves, when attention is paid to a sine wave signal having a certain spatial frequency ω, the expression (1) is regarded as the following expression (2). be able to.
D (θ) = K∫ | sin (ωx + θ) −sinωx | dx (2)
Furthermore, the following equation is obtained by modifying equation (2).
D (θ) = K ′ | sin (θ / 2) · sin (ωx + φ) | (3)
Equation (3) can also be applied to other spatial frequencies, all of which are independently multiplied by a term relating to θ, and it can be seen that the difference equation changes with the absolute value of the sine wave. Further, since the sine wave is linear when θ is near 0, it can be considered that the bottom of the valley between the straight lines having the same slope as shown in FIG. 5 is the minimum value.

以下の三点内挿演算により差分Dが最小となる真のずらし量kを求める。まず、(1)式により差分Dの最小値Diとその時のずらし量kを求める。次に、最小値Diを与えるずらし量kに隣接するずらし量(k−1)と(k+1)の内、差分Dが大きい方Di-1を選び、二点(k,Di)と(k−1,Di-1)を結ぶ直線を引く。そして、この直線の傾きをaとすると、二番目に小さい差分Di+1を与えるずらし量k+1の点(k+1,Di+1)を通る傾き(−a)の直線を引き、2本の直線の交点を差分Dの真の最小値Dminとし、その真の最小差分Dminを与えるずらし量kを真のずらし量kminとする。   A true shift amount k that minimizes the difference D is obtained by the following three-point interpolation calculation. First, the minimum value Di of the difference D and the shift amount k at that time are obtained by the equation (1). Next, of the shift amounts (k-1) and (k + 1) adjacent to the shift amount k that gives the minimum value Di, the one Di-1 having the larger difference D is selected, and two points (k, Di) and (k- Draw a straight line connecting 1, Di-1). If the slope of this straight line is a, a straight line with a slope (-a) passing through the point (k + 1, Di + 1) of the shift amount k + 1 that gives the second smallest difference Di + 1 is drawn. Let the intersection be the true minimum value Dmin of the difference D, and the shift amount k that gives the true minimum difference Dmin be the true shift amount kmin.

この真のずらし量kminに所定の変換係数mを乗じ、撮影レンズ3による被写体像面のマイクロレンズ頂点面からの焦点外れ量、すなわちデフォーカス量DEFを求める。
DEF=m・kmin ・・・(4)
The true shift amount kmin is multiplied by a predetermined conversion coefficient m to determine the defocus amount DEF from the microlens apex surface of the subject image plane by the photographing lens 3, that is, the defocus amount DEF.
DEF = m · kmin (4)

以上の方法により、図4に示す焦点検出用マイクロレンズ配列の中心のマイクロレンズ位置において、撮影レンズ3の焦点調節状態を検出することができる。   With the above method, the focus adjustment state of the photographing lens 3 can be detected at the center microlens position of the focus detection microlens array shown in FIG.

駆動制御装置5の瞳データ抽出部5a、データ列形成部5bおよび焦点演算部5cは、以上の焦点検出処理を撮像素子4の撮影画面内のすべてのマイクロレンズに対して行う。なお、図1に破線で囲む駆動制御装置5の瞳データ抽出部5a、データ列形成部5bおよび焦点演算部5cは上述した被写体特定手段を構成する。撮影画面内のすべてのマイクロレンズに対し水平方向位置を表す添え字pと垂直方向位置を表す添え字qを付して表すと、撮影画面内の各マイクロレンズ位置のデフォーカス量はDEFpqで表される。   The pupil data extraction unit 5a, the data string formation unit 5b, and the focus calculation unit 5c of the drive control device 5 perform the above-described focus detection processing on all the microlenses in the imaging screen of the image sensor 4. Note that the pupil data extraction unit 5a, the data string formation unit 5b, and the focus calculation unit 5c of the drive control device 5 surrounded by a broken line in FIG. 1 constitute the subject specifying means described above. If all the microlenses in the shooting screen are represented with a subscript p indicating the horizontal position and a subscript q indicating the vertical position, the defocus amount at each microlens position in the shooting screen is represented by DEFpq. Is done.

ただし、撮影画面内の焦点検出が可能な範囲は、撮影画面の縦および横の長さよりも焦点検出用マイクロレンズ配列の長さ分だけ狭い範囲になるが、検出できない部分については検出可能な範囲の検出結果に基づいて推定するか、あるいは焦点検出用マイクロレンズ配列の長さを短くして撮影画面の全範囲、もしくはそれに近い範囲において焦点検出を行う。   However, the focus detection range within the shooting screen is narrower by the length of the focus detection microlens array than the vertical and horizontal lengths of the shooting screen, but the areas that cannot be detected can be detected. The focus detection is performed in the entire range of the photographing screen or a range close to it by shortening the length of the focus detection microlens array.

なお、撮影画面内のコントラスト変化が少ない部分では、焦点検出が不能、もしくは検出結果の信頼性が低くなる。このような場合にはその周辺の信頼性が高い焦点検出結果が得られた範囲の検出値を用いて補間により求める。補間方法は単なる線形補間でもよいし、スプライン曲線補間でもよい。これにより、撮影画面の全範囲における焦点情報あるいは焦点曲面を得ることができる。   It should be noted that focus detection is impossible or the reliability of the detection result is low at a portion where the contrast change in the shooting screen is small. In such a case, it is obtained by interpolation using the detection values in the range where the focus detection result with high reliability in the vicinity is obtained. The interpolation method may be simple linear interpolation or spline curve interpolation. Thereby, it is possible to obtain the focus information or the focal curved surface in the entire range of the photographing screen.

また、この一実施の形態では、撮影画面の左右方向の焦点検出を例に挙げて説明するが、撮影画面の上下方向や斜め方向についても上記左右方向の焦点検出手法と同様な手法で焦点検出を行うことができる。   In this embodiment, the focus detection in the left-right direction of the shooting screen will be described as an example, but focus detection is performed in the same way as the focus detection method in the left-right direction in the vertical direction and the diagonal direction of the shooting screen. It can be performed.

駆動制御装置5の画像合成部5dは、焦点演算部5cにより検出された撮影画面内のすべてのマイクロレンズ位置の焦点情報を用いて、撮像素子4から出力される光電変換データから任意の位置あるいはすべての位置に焦点の合った画像を合成する。図6および図7を参照して画像合成部5dによる画像合成方法を説明する。   The image composition unit 5d of the drive control device 5 uses the focus information of all the microlens positions in the shooting screen detected by the focus calculation unit 5c, from the photoelectric conversion data output from the image sensor 4 or the arbitrary position or Combine images that are in focus at all positions. An image composition method by the image composition unit 5d will be described with reference to FIGS.

図6は、撮影画面内の注目するマイクロレンズ(焦点検出位置)m0の焦点検出結果が、マイクロレンズ頂点面S0に焦点があるとされた場合の、該マイクロレンズm0位置の画像合成方法を説明する図である。この焦点面S0を通る光束は、撮影レンズ3の開口径とマイクロレンズの開口径とが同一、ないしは撮影レンズ3の開口径の方が小さくなるように設定されているので、マイクロレンズm0に対応した光電変換素子へ導かれる。したがって、マイクロレンズm0に被覆される光電変換素子(図中に黒く塗りつぶした光電変換素子)の出力を積算すれば、マイクロレンズ頂点面(予定焦点面)に焦点を持つマイクロレンズm0に対応する部分の画素出力(画像)が得られる。   FIG. 6 illustrates a method for synthesizing an image at the position of the micro lens m0 when the focus detection result of the micro lens (focus detection position) m0 of interest in the shooting screen is focused on the micro lens apex surface S0. It is a figure to do. The luminous flux passing through the focal plane S0 corresponds to the microlens m0 because the aperture diameter of the photographic lens 3 and the aperture diameter of the microlens are set to be the same or the aperture diameter of the photographic lens 3 is smaller. To the photoelectric conversion element. Therefore, if the outputs of the photoelectric conversion elements (photoelectric conversion elements blacked out in the figure) covered by the microlens m0 are integrated, the portion corresponding to the microlens m0 having a focus on the microlens apex surface (planned focal plane) Pixel output (image) is obtained.

図7は、撮影画面内の注目するマイクロレンズ(焦点検出位置)m1の焦点検出結果が、マイクロレンズ頂点面からyの距離にある面S1に焦点があるとされた場合の、撮影画面内のマイクロレンズm1位置の画像合成方法を説明する図である。図6および図7において、マイクロレンズアレイ4aのマイクロレンズ間隔をdとし、マイクロレンズ頂点面から光電変換素子アレイ4bの受光面までの距離、つまりマイクロレンズの焦点距離をfとする。また、注目するマイクロレンズm1の光軸と焦点面S1との交点P1を通り、マイクロレンズm1に隣接するマイクロレンズm2を介して光電変換素子アレイ4bの受光面へ光束が到達する位置と、マイクロレンズm2の光軸との間の距離をxとすると、図7から明らかなように次の関係が成立する。
y/d=f/x ・・・(5)
FIG. 7 shows a case where the focus detection result of the target microlens (focus detection position) m1 in the shooting screen is focused on the surface S1 at a distance y from the microlens apex surface. It is a figure explaining the image composition method of the micro lens m1 position. 6 and 7, the distance between the microlenses of the microlens array 4a is d, and the distance from the apex surface of the microlens to the light receiving surface of the photoelectric conversion element array 4b, that is, the focal length of the microlens is f. Further, a position where the light beam reaches the light receiving surface of the photoelectric conversion element array 4b through the micro lens m2 adjacent to the micro lens m1 through the intersection P1 between the optical axis of the micro lens m1 of interest and the focal plane S1, and the micro Assuming that the distance from the optical axis of the lens m2 is x, the following relationship is established as is apparent from FIG.
y / d = f / x (5)

焦点面S1の点P1を通る光束は、注目するマイクロレンズm1の光軸上にある光電変換素子e1へ到達するとともに、注目マイクロレンズm1に隣接するマイクロレンズm2の光軸から距離xだけ遠ざかる位置にある光電変換素子e2へ到達する。同様に、注目マイクロレンズm1の反対側に隣接するマイクロレンズm6では、マイクロレンズm6の光軸から距離xだけ遠ざかる位置にある光電変換素子e6へ到達する。   The light beam passing through the point P1 on the focal plane S1 reaches the photoelectric conversion element e1 on the optical axis of the target microlens m1, and is away from the optical axis of the microlens m2 adjacent to the target microlens m1 by a distance x. To the photoelectric conversion element e2. Similarly, the microlens m6 adjacent to the opposite side of the target microlens m1 reaches the photoelectric conversion element e6 at a position away from the optical axis of the microlens m6 by the distance x.

さらに、注目するマイクロレンズm1から距離n・d(n=2、3、・・)の位置にある周辺のマイクロレンズm3、m4、・・に対しても(5)式の関係が成立する。nとxにマイクロレンズの二次元位置を表す添え字“ij”を付け、(5)式を注目するマイクロレンズm1の周辺のマイクロレンズm3、m4、・・に拡張する。
y/(nij・d)=f/xij ・・・(6)
そして、注目するマイクロレンズm1に対する焦点面S1までの距離yを固定し、距離xを周辺のマイクロレンズm3、m4、・・に被覆される光電変換素子の範囲内で動かすと、焦点面S1の点P1を通る光束が注目するマイクロレンズm1の周辺のマイクロレンズm3、m4、・・のどの光電変換素子へ到達するかを知ることができる。
Furthermore, the relationship of the formula (5) is also established for peripheral microlenses m3, m4,... Located at a distance n · d (n = 2, 3,...) From the microlens m1 of interest. Subscript “ij” representing the two-dimensional position of the microlens is attached to n and x, and the expression (5) is expanded to the microlenses m3, m4,.
y / (nij · d) = f / xij (6)
When the distance y to the focal plane S1 with respect to the microlens m1 of interest is fixed and the distance x is moved within the range of the photoelectric conversion elements covered by the surrounding microlenses m3, m4,. It is possible to know which photoelectric conversion element of the microlenses m3, m4,... Around the microlens m1 to which the focused light beam passes the point P1.

図7に示す例では、焦点面S1の点P1を通る光束が、注目マイクロレンズm1から距離2dにあるマイクロレンズm3およびm7の光電変換素子e3およびe7へ到達する。注目マイクロレンズm1の周辺のすべてのマイクロレンズm2、m3、・・に対して(6)式により光電変換素子を特定し、それらの光電変換素子の出力を積算すれば、マイクロレンズ頂点面から距離yの位置に焦点面S1を持つ注目マイクロレンズm1に対応する画素出力(画像)が得られる。   In the example shown in FIG. 7, the light beam passing through the point P1 on the focal plane S1 reaches the photoelectric conversion elements e3 and e7 of the microlenses m3 and m7 located at the distance 2d from the target microlens m1. If the photoelectric conversion elements are specified by the equation (6) for all the microlenses m2, m3,... Around the target microlens m1, and the outputs of these photoelectric conversion elements are integrated, the distance from the apex surface of the microlens A pixel output (image) corresponding to the target microlens m1 having the focal plane S1 at the position y is obtained.

図6に示す例では、予定焦点面に焦点を持つマイクロレンズm0部分の画素出力(画像)が得られ、図7に示す例では、予定焦点面から距離yの位置に焦点を持つマイクロレンズm1部分の画素出力(画像)が得られる。これらの部分画素出力つまり画像はそれぞれピントが合った画像である。   In the example shown in FIG. 6, the pixel output (image) of the microlens m0 portion having a focal point on the planned focal plane is obtained. In the example shown in FIG. 7, the microlens m1 having a focal point at a distance y from the planned focal plane. A partial pixel output (image) is obtained. These partial pixel outputs, that is, images, are images in focus.

なお、それぞれのマイクロレンズに対応する画素出力は、複数の光電変換素子の出力を積算して求められるが、積算値を積算した光電変換素子数で正規化する。撮影画面の端にあるマイクロレンズでは、そのマイクロレンズの360度全周に亘って周辺のマイクロレンズが存在しないために積算値が小さくなるが、上記の正規化処理により画面端のマイクロレンズの画像も画面中央のマイクロレンズの画像と同じ明るさにすることができる。また、撮影レンズ3の絞り開口が小さくなると、積算する光電変換素子数が撮影画面内で均等にならず、同様な問題を生じるが、積算値を積算数で正規化することによって解決できる。   The pixel output corresponding to each microlens is obtained by integrating the outputs of a plurality of photoelectric conversion elements, and is normalized by the number of photoelectric conversion elements obtained by integrating the integrated values. In the microlens at the end of the shooting screen, the integrated value becomes small because there is no peripheral microlens over the entire 360 ° circumference of the microlens, but the image of the microlens at the end of the screen is obtained by the above normalization process. Can also be as bright as the microlens image in the center of the screen. Further, when the aperture of the photographing lens 3 is reduced, the number of photoelectric conversion elements to be integrated is not uniform within the photographing screen, and a similar problem occurs. However, it can be solved by normalizing the integrated value with the integrated number.

上述したように、焦点演算部5cにより撮影画面内のすべてのマイクロレンズ位置におけるデフォーカス量DEFpqが求められているので、画像合成部5dによる上記手法を撮影画面内のすべてのマイクロレンズのデフォーカス量DEFpqに応じて画像合成処理を行えば、マイクロレンズと同じ数の画素出力すなわち画像が得られ、これらを二次元平面上のマイクロレンズ位置に応じて展開すれば、それぞれのマイクロレンズに対応するピントのあった画像が展開される。このようにして一度光電変換素子アレイ4bの信号を取り込むことにより、撮影画面内のどの位置にもピントの合った画像を合成することができる。   As described above, since the defocus amount DEFpq is obtained at all the microlens positions in the shooting screen by the focus calculation unit 5c, the above-described method by the image combining unit 5d is used to defocus all the microlenses in the shooting screen. If the image composition processing is performed according to the amount DEFpq, the same number of pixel outputs as the microlenses, that is, images are obtained. If these are developed according to the microlens positions on the two-dimensional plane, they correspond to the respective microlenses. The focused image is developed. In this way, once the signal of the photoelectric conversion element array 4b is captured, an image in focus at any position in the shooting screen can be synthesized.

なお、一部のマイクロレンズ位置の焦点を意図的に外すようにしたり、指定された範囲にのみ、焦点の合った画像を合成することもできる。例えば、撮影画像を処理して画像内から人物の顔を検出し、人物の顔部分に対応するマイクロレンズに対して上述した画像合成処理を行えば、すべての顔部分に焦点の合った画像を合成することもできる。   Note that it is possible to intentionally defocus some microlens positions, or to synthesize an in-focus image only within a specified range. For example, if a photographed image is processed to detect a person's face from the image, and the above-described image composition processing is performed on the microlens corresponding to the person's face, an image in which all the faces are in focus is obtained. It can also be synthesized.

上述した実施の形態とその変形例によれば以下のような作用効果を奏することができる。まず、複数のマイクロレンズを平面上に配列したマイクロレンズアレイ4aを撮影レンズ3の予定焦点面近傍に配置するとともに、複数の光電変換素子を平面上に配列した光電変換素子アレイ4をマイクロレンズアレイ4aの背後のマイクロレンズの焦点位置に配置し、撮影レンズ3により予定焦点面に結像された被写体像を撮像する撮像素子4と、マイクロレンズが被覆する複数の光電変換素子の内の一対の光電変換素子の出力に基づいて、撮影レンズ3の射出瞳を通過した一対の光束による一対の像のズレ量を検出し、被写体像の中のマイクロレンズに対応する位置の撮影レンズ3の焦点外れ量を検出する瞳データ抽出部5a、データ列形成部5bおよび焦点演算部5cと、被写体像の中のマイクロレンズに対応する位置の焦点はずれ量に応じて、該マイクロレンズとその周辺のマイクロレンズにそれぞれ被覆される光電変換素子の出力を積算し、被写体像の中の該マイクロレンズに対応する位置に焦点の合った画像を合成する画像合成部5dとを備える。これにより、1枚の撮像画像から焦点を合わせたい位置で焦点の合った画像を合成することができる。   According to the above-described embodiment and its modifications, the following operational effects can be achieved. First, a microlens array 4a in which a plurality of microlenses are arranged on a plane is arranged in the vicinity of a planned focal plane of the photographing lens 3, and a photoelectric conversion element array 4 in which a plurality of photoelectric conversion elements are arranged on a plane is arranged as a microlens array. An image sensor 4 that is arranged at the focal position of the microlens behind 4a and images the subject image formed on the planned focal plane by the photographing lens 3, and a pair of photoelectric conversion elements covered by the microlens. Based on the output of the photoelectric conversion element, the amount of deviation of the pair of images due to the pair of light beams that have passed through the exit pupil of the photographing lens 3 is detected, and the photographing lens 3 at a position corresponding to the microlens in the subject image is defocused. The pupil data extraction unit 5a, the data string formation unit 5b, and the focus calculation unit 5c for detecting the amount, and the defocus amount at the position corresponding to the microlens in the subject image Accordingly, the image synthesizing unit that integrates the outputs of the photoelectric conversion elements respectively coated on the microlens and the surrounding microlenses and synthesizes an image focused on a position corresponding to the microlens in the subject image. 5d. As a result, it is possible to synthesize a focused image at a position where the focus is desired from one captured image.

次に、被写体像を処理して人物の顔部分を検出し、人物の顔部分を焦点を合わせたい位置に設定し、設定位置の焦点外れ量に応じて被写体像の中の設定位置に焦点のあった画像を合成するようにしたので、1枚の撮像画像から人物の顔部分に焦点の合った画像を合成することができる。この場合、背景は適当にボケた画像を用いることができる。   Next, the subject image is processed to detect a person's face, and the person's face is set to a position to be focused, and the focus is set to the set position in the subject image according to the defocus amount of the set position. Since the existing images are synthesized, it is possible to synthesize an image focused on a person's face from one captured image. In this case, an appropriately blurred image can be used as the background.

なお、上述した被写体特定手段により被写体像のすべての位置を特定することによって、被写体像のすべての位置においてピントの合った画像を合成することができる。また、上述した焦点検出方法によれば画面内のあらゆる位置における焦点調節状態を検出することができるので、全画面または任意の位置に焦点の合った画像を合成することができる。   In addition, by specifying all positions of the subject image by the subject specifying means described above, it is possible to synthesize an image that is in focus at all positions of the subject image. Further, according to the focus detection method described above, the focus adjustment state at any position in the screen can be detected, so that an image focused on the entire screen or an arbitrary position can be synthesized.

一実施の形態のデジタルカメラの構成を示す図The figure which shows the structure of the digital camera of one embodiment マイクロレンズアレイを撮影レンズ側から見た図View of the microlens array from the photographic lens side 一つのマイクロレンズの外径を光電変換素子アレイ上に投影した図Figure of the outside diameter of one microlens projected onto the photoelectric conversion element array 焦点検出用のマイクロレンズ配列の一例を示す図The figure which shows an example of the micro lens arrangement | sequence for focus detection 三点内挿方法を説明するための図Diagram for explaining the three-point interpolation method 撮影画面内の注目するマイクロレンズ(焦点検出位置)m0の焦点検出結果が、マイクロレンズ頂点面(撮影レンズの予定焦点面)S0に焦点があるとされた場合の、該マイクロレンズm0位置の画像合成方法を説明する図An image at the position of the micro lens m0 when the focus detection result of the micro lens (focus detection position) m0 of interest in the photographing screen is focused on the micro lens apex surface (scheduled focal plane of the photographing lens) S0. Diagram explaining the synthesis method 撮影画面内の注目するマイクロレンズ(焦点検出位置)m1の焦点検出結果が、マイクロレンズ頂点面(撮影レンズの予定焦点面)からyの距離にある面S1に焦点があるとされた場合の、撮影画面内のマイクロレンズm1位置の画像合成方法を説明する図When the focus detection result of the micro lens (focus detection position) m1 of interest in the shooting screen is determined to be focused on the surface S1 at a distance y from the micro lens apex surface (scheduled focal plane of the shooting lens), The figure explaining the image composition method of the micro lens m1 position in an imaging | photography screen

符号の説明Explanation of symbols

1;カメラ、2;カメラボディ、3;撮影レンズ、4;撮像素子、4a;マイクロレンズアレイ、4b;光電変換素子アレイ、5;駆動制御装置、5a;瞳データ抽出部、5b;データ列形成部、5c;焦点演算部、5d;画像合成部 DESCRIPTION OF SYMBOLS 1; Camera, 2; Camera body, 3; Shooting lens, 4; Image pick-up element, 4a; Micro lens array, 4b; Photoelectric conversion element array, 5: Drive control apparatus, 5a; Pupil data extraction part, 5b; Part, 5c; focus calculation part, 5d; image composition part

Claims (6)

撮影光学系と、
二次元状に配列した複数のマイクロレンズを有し、前記撮影光学系の背後に配置されたマイクロレンズアレイと、
前記マイクロレンズアレイの背後に配置され、前記複数のマイクロレンズごとに複数の光電変換領域が割り当てられた光電変換装置と、
焦点を合わせる被写体を特定する被写体特定手段と、
前記被写体特定手段により特定された被写体に焦点のあった画像を前記光電変換装置の出力に基づき合成する画像作成手段とを有することを特徴とする画像合成装置。
Photographic optics,
A plurality of microlenses arranged two-dimensionally, and a microlens array disposed behind the imaging optical system;
A photoelectric conversion device disposed behind the microlens array and assigned a plurality of photoelectric conversion regions for each of the plurality of microlenses;
Subject identification means for identifying the subject to be focused;
An image synthesizing apparatus comprising: an image creating unit configured to synthesize an image focused on the subject specified by the subject specifying unit based on an output of the photoelectric conversion device.
請求項1に記載の画像合成装置において、
前記被写体特定手段は焦点検出手段を有し、
前記画像作成手段は前記焦点検出手段による焦点検出に先立ち予め取得した前記光電変換装置の出力に基づき、前記焦点検出手段が焦点検出した被写体に焦点の合った画像を作成することを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
The subject specifying means has focus detection means,
The image creating means creates an image focused on the subject focus-detected by the focus detecting means based on the output of the photoelectric conversion device acquired in advance prior to focus detection by the focus detecting means. Synthesizer.
請求項2に記載の画像合成装置において、
前記光電変換装置の前記光電変換領域は前記撮影光学系の射出瞳と共役であり、前記焦点検出手段は前記マイクロレンズごとに割り当てられた複数の光電変換領域のうちの一対の光電変換領域の出力に基づき被写体までの焦点外れ量を検出することを特徴とする画像合成装置。
The image composition device according to claim 2,
The photoelectric conversion region of the photoelectric conversion device is conjugate with an exit pupil of the photographing optical system, and the focus detection unit outputs outputs of a pair of photoelectric conversion regions among a plurality of photoelectric conversion regions assigned to the microlenses. An image synthesizing apparatus for detecting a defocus amount to a subject based on the above.
請求項1に記載の画像合成装置において、
前記被写体特定手段は、被写体の予め指定された特徴を識別し、この特徴部分に前記焦点検出手段により焦点検出を行い、焦点検出対象となった被写体に焦点の合った画像を合成するよう前記画像作成手段に指示する指示手段を有することを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
The subject specifying means identifies a pre-designated feature of the subject, performs focus detection on the feature portion by the focus detection means, and synthesizes an image focused on the subject that is a focus detection target. An image synthesizing apparatus comprising instruction means for instructing a creation means.
請求項1に記載の画像合成装置において、
前記画像合成手段は、前記撮像素子の出力に基づき焦点深度の深い画像を作成し表示する表示手段を有し、
前記被写体特定手段は、前記表示手段の表示に基づき、焦点を合わせたい被写体を設定する設定手段を有し、
前記設定手段にて設定された被写体に焦点のあった画像を得ることを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
The image synthesizing means has display means for creating and displaying an image having a deep focal depth based on the output of the image sensor,
The subject specifying means has setting means for setting a subject to be focused based on the display of the display means,
An image synthesizing apparatus for obtaining an image focused on a subject set by the setting means.
請求項1〜5のいずれか一項に記載の画像合成装置において、
前記被写体特定手段は、前記撮影光学系の光軸方向へ異なる位置の被写体を特定し、前記画像作成手段は前記特定した複数の被写体に焦点の合った一つの画像を作成することを特徴とする画像合成装置。
In the image composition device according to any one of claims 1 to 5,
The subject specifying means specifies subjects at different positions in the optical axis direction of the photographing optical system, and the image creating means creates one image focused on the plurality of identified subjects. Image composition device.
JP2008282295A 2008-10-31 2008-10-31 Image synthesizing apparatus Pending JP2010109921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008282295A JP2010109921A (en) 2008-10-31 2008-10-31 Image synthesizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008282295A JP2010109921A (en) 2008-10-31 2008-10-31 Image synthesizing apparatus

Publications (1)

Publication Number Publication Date
JP2010109921A true JP2010109921A (en) 2010-05-13

Family

ID=42298870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008282295A Pending JP2010109921A (en) 2008-10-31 2008-10-31 Image synthesizing apparatus

Country Status (1)

Country Link
JP (1) JP2010109921A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259218A (en) * 2010-06-09 2011-12-22 Nikon Corp Imaging apparatus
JP2013178684A (en) * 2012-02-28 2013-09-09 Casio Comput Co Ltd Depth estimation apparatus, reconfigured image generation device, depth estimation method, reconfigured image generation method and program
KR101567668B1 (en) 2014-01-28 2015-11-20 조선대학교산학협력단 Smartphones camera apparatus for generating video signal by multi-focus and method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03158812A (en) * 1989-11-17 1991-07-08 Konica Corp Automatic focusing device
JP2001045356A (en) * 1999-07-28 2001-02-16 Matsushita Electric Ind Co Ltd Video camera
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2007279188A (en) * 2006-04-04 2007-10-25 Nikon Corp Camera
JP2008197286A (en) * 2007-02-09 2008-08-28 Canon Inc Automatic focusing device and its control method, and imaging apparatus
JP2008209762A (en) * 2007-02-27 2008-09-11 Nikon Corp Photoelectric detector of image forming optical system, focus detector, and imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03158812A (en) * 1989-11-17 1991-07-08 Konica Corp Automatic focusing device
JP2001045356A (en) * 1999-07-28 2001-02-16 Matsushita Electric Ind Co Ltd Video camera
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2007279188A (en) * 2006-04-04 2007-10-25 Nikon Corp Camera
JP2008197286A (en) * 2007-02-09 2008-08-28 Canon Inc Automatic focusing device and its control method, and imaging apparatus
JP2008209762A (en) * 2007-02-27 2008-09-11 Nikon Corp Photoelectric detector of image forming optical system, focus detector, and imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259218A (en) * 2010-06-09 2011-12-22 Nikon Corp Imaging apparatus
JP2013178684A (en) * 2012-02-28 2013-09-09 Casio Comput Co Ltd Depth estimation apparatus, reconfigured image generation device, depth estimation method, reconfigured image generation method and program
KR101567668B1 (en) 2014-01-28 2015-11-20 조선대학교산학협력단 Smartphones camera apparatus for generating video signal by multi-focus and method thereof

Similar Documents

Publication Publication Date Title
JP5187145B2 (en) Image composition apparatus and method
JP5375010B2 (en) Imaging device
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
TWI577171B (en) Systems and methods for obtaining image depth information
JP2017016103A (en) Adaptive autofocusing system
JP5245716B2 (en) Camera lens adapter and camera system
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2013145979A (en) Image generating method, imaging device, display device, program, and storage medium
JP5256933B2 (en) Focus information detector
JP5380857B2 (en) Focus detection apparatus and imaging apparatus
JP2011182237A (en) Compound-eye imaging device, and image processing method in the same
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP2010109921A (en) Image synthesizing apparatus
JP7307592B2 (en) Measuring device, imaging device, control method and program
JP2011113174A (en) Image synthesizer, image reproduction device and imaging device
JP2009151154A (en) Photodetector, focus detector and imaging apparatus
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP2017207695A (en) Optical device
JP5488221B2 (en) Imaging device
JP5338119B2 (en) Correlation calculation device, focus detection device, and imaging device
JP6625184B2 (en) Focus detection device, imaging device, focus detection method, and focus detection program
JP2019200348A (en) Imaging device and control method for imaging device
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP6387149B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP7187185B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130205