JP6728005B2 - Imaging device, imaging method, and program - Google Patents

Imaging device, imaging method, and program Download PDF

Info

Publication number
JP6728005B2
JP6728005B2 JP2016183798A JP2016183798A JP6728005B2 JP 6728005 B2 JP6728005 B2 JP 6728005B2 JP 2016183798 A JP2016183798 A JP 2016183798A JP 2016183798 A JP2016183798 A JP 2016183798A JP 6728005 B2 JP6728005 B2 JP 6728005B2
Authority
JP
Japan
Prior art keywords
focus position
image
refocusing
unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016183798A
Other languages
Japanese (ja)
Other versions
JP2018050147A (en
JP2018050147A5 (en
Inventor
陽一 高橋
陽一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016183798A priority Critical patent/JP6728005B2/en
Priority to CN201710805640.3A priority patent/CN107864315B/en
Priority to US15/709,241 priority patent/US10530994B2/en
Publication of JP2018050147A publication Critical patent/JP2018050147A/en
Publication of JP2018050147A5 publication Critical patent/JP2018050147A5/ja
Application granted granted Critical
Publication of JP6728005B2 publication Critical patent/JP6728005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像合成を行う撮像装置に関するものである。 The present invention relates to an image pickup apparatus that performs image synthesis.

カメラからの距離が異なる複数の被写体を撮像する場合、あるいは、奥行き方向に長い被写体を撮像する場合に、撮像光学系における被写界深度が足りないために、被写体の一部にしかピントを合わせられない場合がある。そこで、ピント位置を変化させて複数の画像を撮像し、各画像から合焦している領域のみを抽出して1枚の画像を合成して撮像領域全体に合焦している合成画像を生成する技術(以下、深度合成という)が知られている(特許文献1を参照)。この深度合成の技術を用いることで、意図する被写体の全体に対してピントを合わせた画像を得ることができる。 When shooting multiple subjects at different distances from the camera, or when shooting a subject that is long in the depth direction, the depth of field in the imaging optical system is insufficient, so only part of the subject is focused. You may not be able to. Therefore, the focus position is changed, a plurality of images are captured, only the in-focus area is extracted from each image, and one image is combined to generate a combined image in which the entire imaging area is in focus. A technique (hereinafter, referred to as depth synthesis) is known (see Patent Document 1). By using this depth stacking technique, an image in which the entire intended subject is in focus can be obtained.

特開2015−216480号公報JP, 2005-216480, A

しかしながら、深度合成の技術を用いて撮像する場合、手振れなどが発生すると、以下の課題が生じることがある。 However, when an image is captured using the depth stacking technique, the following problems may occur if camera shake or the like occurs.

図11は、深度合成における手振れを説明するための図である。図11(a)は理想的な深度合成を用いる撮像を説明するための図である。図11(a)では、ユーザがデジタルカメラを1101に置き、所定の距離1102ずつピント位置を移動させながら複数回撮像を行う。 FIG. 11 is a diagram for explaining camera shake in depth stacking. FIG. 11A is a diagram for explaining imaging using ideal depth stacking. In FIG. 11A, the user puts the digital camera on 1101 and takes a plurality of images while moving the focus position by a predetermined distance 1102.

図11(b)は図11(a)での撮像において、3枚目の画像を撮像するとき、手振れが発生してしまった場合を示す。撮像位置1101が光軸方向で後方にずれたことで、本来撮像されるべき距離よりも近い位置にピント位置が来る。さらに、図11(c)のように、4枚目の画像を撮像するとき、図11(b)の手振れの方向と反対する方向へ手振れが発生してしまった場合を示す。この場合4枚目の画像は本来撮像されるべきピント位置よりも遠くなっている。図11(c)で撮像された複数の画像を用いて合成処理を行うと、領域1103において合焦している画像が存在せず、合成画像にはぼけた部分が残ってしまう。 FIG. 11B shows a case where a camera shake occurs when the third image is captured in the image capturing of FIG. 11A. Since the image pickup position 1101 is shifted rearward in the optical axis direction, the focus position comes to a position closer than the distance to be originally imaged. Further, as shown in FIG. 11C, when the fourth image is captured, a case where a camera shake occurs in a direction opposite to the camera shake direction of FIG. 11B is shown. In this case, the fourth image is farther than the focus position that should be originally captured. When the combining process is performed using the plurality of images captured in FIG. 11C, there is no focused image in the area 1103, and a blurred portion remains in the combined image.

本発明は、以上の課題を鑑みてなされたもので、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、画像のピント位置を補正し、手振れなどによるぼけを低減させる合成画像を生成できる撮像装置を提供することが目的とする。 The present invention has been made in view of the above problems, and when combining using a plurality of images captured while changing the focus position, a composite image that corrects the focus position of the images and reduces blurring due to camera shake, etc. It is an object of the present invention to provide an imaging device capable of generating

本発明は、光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成手段と、前記光学系のピント位置を設定するピント位置の設定手段と、前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置を提供するものである。 According to the present invention, a synthesizing unit that synthesizes a plurality of images captured while changing a focus position of an optical system to generate a synthetic image, a focus position setting unit that sets a focus position of the optical system, and Refocusing means for reconstructing an image in which the focus position of the captured image is changed, and the refocusing means is configured to detect the difference between the set focus position and the focus position when capturing the image. Based on the above, an image pickup apparatus is provided which is configured to reconstruct an image with a different focus position.

本発明によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、手振れなどによるぼけを低減させる合成画像を生成できる。 According to the present invention, when a plurality of images captured by changing the focus position are used for composition, it is possible to generate a composite image that reduces blurring due to camera shake or the like.

本発明の実施形態におけるデジタルカメラの構造を示すブロック図である。It is a block diagram which shows the structure of the digital camera in embodiment of this invention. 本発明の実施形態における撮像部を構成するセンサのアレイを説明するための図である。It is a figure for demonstrating the array of the sensor which comprises the imaging part in embodiment of this invention. 本発明の実施形態において、光信号の画素への入射を説明するための図である。FIG. 6 is a diagram for explaining how an optical signal enters a pixel in the embodiment of the present invention. (a)は撮像レンズの開口を光軸方向から見た図であり、(b)は1つのマイクロレンズとその後方に配置された画素配列を光軸方向から見た図である。(A) is a view of the aperture of the imaging lens as viewed from the optical axis direction, and (b) is a view of one microlens and a pixel array arranged behind it as viewed from the optical axis direction. 本発明の実施形態におけるリフォーカス面の計算を説明するための図である。It is a figure for demonstrating calculation of the refocus surface in embodiment of this invention. 本発明の実施形態におけるリフォーカス範囲を説明するための図である。It is a figure for demonstrating the refocus range in embodiment of this invention. 本発明の実施形態を説明するためのフローチャートである。It is a flow chart for explaining the embodiment of the present invention. 本発明の実施形態におけるリフォーカス画像の生成を説明するための図である。FIG. 6 is a diagram for explaining generation of a refocus image in the embodiment of the present invention. 本発明の実施形態においてリフォーカスが可能と判断した場合のリフォーカス処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of refocus processing when it is determined that refocus is possible in the embodiment of the present invention. 本発明の実施形態においてリフォーカスが可能でないと判断した場合のピント位置の再設定とその後のリフォーカス処理との一例を説明するための図である。FIG. 6 is a diagram for explaining an example of resetting of a focus position and a subsequent refocusing process when it is determined that refocusing is not possible in the embodiment of the present invention. 深度合成における手振れを説明するための図である。It is a figure for explaining camera shake in depth composition.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下の説明では、デジタルカメラを例にあげて説明を行うが、デジタルカメラに限定されるわけでなく、ピント位置の情報の取り入れ、および撮像した画像のピント位置の補正ができる撮像装置を用いれば、本発明を適用することができる。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a digital camera will be described as an example, but the present invention is not limited to a digital camera, and an imaging device capable of incorporating focus position information and correcting the focus position of a captured image is described. If used, the present invention can be applied.

(本発明の実施形態の一例)
図1は本実施形態に係るデジタルカメラの構造を示すブロック図である。デジタルカメラ100は、静止画を撮像することができ、かつ、合焦位置の情報を記録し、コントラスト値の算出および画像の合成が可能なものである。さらに、デジタルカメラ100は、撮像して保存した画像、または、外部から入力した画像に対して、拡大処理または縮小処理を行うことができる。
(One Example of Embodiment of the Present Invention)
FIG. 1 is a block diagram showing the structure of a digital camera according to this embodiment. The digital camera 100 is capable of capturing a still image, recording information on a focus position, calculating a contrast value, and combining images. Further, the digital camera 100 can perform enlargement processing or reduction processing on an image captured and stored or an image input from the outside.

制御部101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。 The control unit 101 is, for example, a signal processor such as a CPU or MPU, and controls each unit of the digital camera 100 while reading a program stored in a ROM 105 described later in advance. For example, as will be described later, the control unit 101 issues a command to the image capturing unit 104, which will be described later, to start and end image capturing. Alternatively, an image processing command is issued to an image processing unit 107, which will be described later, based on a program stored in the ROM 105. The command from the user is input to the digital camera 100 by the operation unit 110 described later, and reaches each part of the digital camera 100 through the control unit 101.

駆動部102は、モーターなどによって構成され、制御部101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御部101の指令に基づいて、駆動部102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103のピント位置を調整する。 The drive unit 102 is configured by a motor or the like, and mechanically operates an optical system 103 described later under the command of the control unit 101. For example, based on a command from the control unit 101, the driving unit 102 moves the position of the focus lens included in the optical system 103 to adjust the focus position of the optical system 103.

光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。レンズの位置を変えることによって、合焦位置を変えることができる。 The optical system 103 includes a zoom lens, a focus lens, a diaphragm, and the like. The diaphragm is a mechanism for adjusting the amount of transmitted light. The focus position can be changed by changing the position of the lens.

撮像部104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像部104に、CCDやCMOSセンサなどを適用することができる。撮像部104は、動画撮像モードを設け、時間的に連続する複数の画像を動画の各々のフレームとして、撮像することができる。 The image pickup unit 104 is a photoelectric conversion element, and performs photoelectric conversion for converting an incident optical signal into an electric signal. For example, a CCD, a CMOS sensor, or the like can be applied to the image pickup unit 104. The image capturing unit 104 is provided with a moving image capturing mode and can capture a plurality of temporally consecutive images as each frame of a moving image.

図2は、本実施形態における撮像部104を構成するセンサのアレイを説明するための図である。複数の光電変換部201に対して1つのマイクロレンズ21が対応するように配置されている。1つのマイクロレンズ後方にある複数の光電変換部201をまとめて画素配列20と定義する。なお、図2では画素配列20には、光電変換部201が5行5列の計25個あるが、これに限られるわけではない。 FIG. 2 is a diagram for explaining an array of sensors that constitute the image pickup unit 104 in this embodiment. One microlens 21 is arranged so as to correspond to the plurality of photoelectric conversion units 201. A plurality of photoelectric conversion units 201 behind one microlens are collectively defined as a pixel array 20. In FIG. 2, the pixel array 20 has a total of 25 photoelectric conversion units 201 in 5 rows and 5 columns, but the number is not limited to this.

図3は、本実施形態において、光信号の画素への入射を説明するための図である。 FIG. 3 is a diagram for explaining the incidence of an optical signal on a pixel in the present embodiment.

図3は、撮像レンズ31から出射された光が1つのマイクロレンズ21を通過して撮像素子32で受光される様子を光軸に対して垂直方向から観察した図である。撮像レンズ31の各瞳領域a1〜a5から出射され、マイクロレンズ21を通過した光は、後方の対応する光電変換部p1〜p5でそれぞれ結像する。 FIG. 3 is a diagram in which light emitted from the image pickup lens 31 passes through one microlens 21 and is received by the image pickup element 32, as observed from a direction perpendicular to the optical axis. The light emitted from each of the pupil regions a1 to a5 of the imaging lens 31 and passing through the microlens 21 forms an image in the corresponding photoelectric conversion units p1 to p5 in the rear.

図2で示したような撮像部を用いて、1つのマイクロレンズに対応する複数の光電変換部で取得した光信号を用いて、被写体距離の情報を取得することができる。 Using the image pickup unit as shown in FIG. 2, it is possible to obtain the information on the subject distance by using the optical signals obtained by the plurality of photoelectric conversion units corresponding to one microlens.

ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。 The ROM 105 is a read-only non-volatile memory as a recording medium, and stores, in addition to the operation program of each block included in the digital camera 100, parameters necessary for the operation of each block. The RAM 106 is a rewritable volatile memory and is used as a temporary storage area of data output in the operation of each block included in the digital camera 100.

画像処理部107は、撮像部104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像部104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。 The image processing unit 107 performs various image processing such as white balance adjustment, color interpolation, and filtering on the image output from the image capturing unit 104 or the image signal data recorded in the internal memory 109 described later. .. Further, the image signal data captured by the image capturing unit 104 is compressed according to a standard such as JPEG.

画像処理部107を、図2で示したような、1つのマイクロレンズに複数の光電変換部が対応する構造を有する撮像部と併用すると、一定の範囲内のピント位置にピントを合わせた画像を撮像した後に再構成(リフォーカス)することができる。ここでいう「一定の範囲」はリフォーカス範囲といい、詳細は後述する。 When the image processing unit 107 is used in combination with the imaging unit having a structure in which a plurality of photoelectric conversion units correspond to one microlens as shown in FIG. 2, an image focused at a focus position within a certain range is obtained. After imaging, it can be reconstructed (refocused). The “certain range” here is called a refocus range, and the details will be described later.

画像処理部107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM105から読み出したプログラムに従って処理することで、制御部101が画像処理部107の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部107の全ての機能を兼用する場合には、画像処理部107をハードウェアとして有する必要はなくなる。 The image processing unit 107 is composed of an integrated circuit (ASIC) that is a collection of circuits that perform specific processing. Alternatively, the control unit 101 may perform some or all of the functions of the image processing unit 107 by processing according to the program read from the ROM 105. When the control unit 101 has all the functions of the image processing unit 107, it is not necessary to have the image processing unit 107 as hardware.

表示部108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。 The display unit 108 is an image temporarily stored in the RAM 106, an image stored in a built-in memory 109 described later, or a liquid crystal display or an organic EL display for displaying a setting screen of the digital camera 100 or the like. is there.

内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。 The built-in memory 109 is a place for recording an image captured by the image capturing unit 104, an image processed by the image processing unit 107, information on a focus position at the time of capturing an image, and the like. A memory card or the like may be used instead of the built-in memory.

操作部110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、表示部108に兼用されるタッチパネルなどである。ユーザによる指令は、操作部110を経由して、制御部101に達する。 The operation unit 110 is, for example, a button or switch attached to the digital camera 100, a key, a mode dial, or the like, or a touch panel also used as the display unit 108. The command from the user reaches the control unit 101 via the operation unit 110.

装置動き検出部111はジャイロセンサによって構成され、デジタルカメラ100の動きを検出するデバイスであり、デジタルカメラ100の単位時間当たりの角度変化、すなわち角速度に基づいてヨー方向とピッチ方向の動きを検出する。 The device motion detection unit 111 is a device that is configured by a gyro sensor and that detects the motion of the digital camera 100. The device motion detection unit 111 detects the motion of the digital camera 100 in the yaw direction and the pitch direction based on the angular change per unit time, that is, the angular velocity. ..

<リフォーカスの方法>
ここで、一定の範囲内の被写体に対応したピント位置(リフォーカス面)を算出する方法について説明する。
<Refocus method>
Here, a method of calculating the focus position (refocus surface) corresponding to the subject within a certain range will be described.

図4(a)は撮像レンズ31の開口を光軸方向から見た図である。図4(b)は1つのマイクロレンズ21とその後方に配置された画素配列20を光軸方向から見た図である。図4(a)に示すように撮像レンズ31の瞳領域を1つのマイクロレンズ後方にある光電変換部と同数の領域に分割した場合、1つの光電変換部には撮像レンズ31の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮像レンズ31とマイクロレンズ21に示したナンバーがほぼ一致しているものとする。 FIG. 4A is a view of the opening of the imaging lens 31 as seen from the optical axis direction. FIG. 4B is a diagram of one microlens 21 and the pixel array 20 arranged behind the microlens 21, as viewed from the optical axis direction. As shown in FIG. 4A, when the pupil area of the imaging lens 31 is divided into the same number of areas as the photoelectric conversion sections behind one microlens, one pupil division of the imaging lens 31 is divided into one photoelectric conversion section. The light emitted from the area is imaged. However, here, it is assumed that the numbers shown on the imaging lens 31 and the microlens 21 are substantially the same.

図4(a)に示す撮像レンズ31の瞳分割領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮像レンズ31の瞳分割領域a11から出射した光はマイクロレンズ後方にある画素配列20のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のマイクロレンズ21を通過する光も、そのマイクロレンズ後方にある画素配列20の中の画素p11に結像する。 The correspondence between the pupil division areas a11 to a55 of the imaging lens 31 shown in FIG. 4A and the pixels p11 to p55 shown in FIG. 4B is point symmetric when viewed from the optical axis Z direction. Therefore, the light emitted from the pupil division area a11 of the imaging lens 31 forms an image on the pixel p11 in the pixel array 20 behind the microlenses. Similarly, light emitted from the pupil division area a11 and passing through another microlens 21 is also imaged on the pixel p11 in the pixel array 20 behind the microlens.

画素配列20の各光電変換部は、撮像レンズ31に対して互いに異なる瞳領域を通過した光を受光している。これらの分割信号から複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。 Each photoelectric conversion unit of the pixel array 20 receives light that has passed through different pupil regions with respect to the imaging lens 31. By combining a plurality of pixel signals from these divided signals, a pair of signals that are pupil-divided in the horizontal direction are generated.

Figure 0006728005
Figure 0006728005

Figure 0006728005

式(1)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の左側領域(瞳領域a11〜a52)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をA像とする。また、式(2)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の右側領域(瞳領域a14〜a55)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をB像とする。A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮像レンズ31の焦点位置と光学系から決まる変換係数を乗じることで、画面内の被写体に対応したピント位置を算出することができる。
Figure 0006728005

Expression (1) is an integration of the light that has passed through the left side region (pupil regions a11 to a52) of the exit pupil of the imaging lens 31 for each photoelectric conversion unit of a certain pixel array 20. This is applied to a plurality of pixel arrays 20 arranged in the horizontal direction, and a subject image composed of these output signal groups is taken as A image. Further, Expression (2) is an integration of the light that has passed through the right side region (pupil regions a14 to a55) of the exit pupil of the imaging lens 31 for each photoelectric conversion unit of a certain pixel array 20. This is applied to a plurality of pixel arrays 20 arranged in the horizontal direction, and a subject image composed of these output signal groups is taken as a B image. Correlation calculation is performed on the A image and the B image to detect the image shift amount (pupil division phase difference). Further, the focus position corresponding to the subject in the screen can be calculated by multiplying the image shift amount by the conversion coefficient determined by the focal position of the imaging lens 31 and the optical system.

次に、撮像部104によって取得された撮像データに対して、設定したピント位置であるリフォーカス面での画像の再構成処理について説明する。 Next, with respect to the imaging data acquired by the imaging unit 104, an image reconstructing process on the refocus plane which is the set focus position will be described.

図5は、リフォーカス面の計算を説明するための図である。図5では、設定したリフォーカス面上のある画素を通過する光が、撮像レンズのどの瞳分割領域から出射され、どのマイクロレンズへ入射するかを光軸Zに対して垂直方向から見る。図5において、撮像レンズ31の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x,y)、マイクロレンズアレイ上のマイクロレンズの位置を座標(x’,y’)とする。また、撮像レンズからマイクロレンズアレイまでの距離をF、撮像レンズからリフォーカス面までの距離をαFとする。αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザが設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。図5に示すように、座標(u,v)と座標(x,y)を通過した光は、マイクロレンズアレイ上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。 FIG. 5 is a diagram for explaining the calculation of the refocus surface. In FIG. 5, it is seen from a direction perpendicular to the optical axis Z from which pupil division area of the image pickup lens the light passing through a certain pixel on the set refocusing surface is emitted and into which microlens. In FIG. 5, the position of the pupil division area of the imaging lens 31 is the coordinate (u, v), the pixel position on the refocusing surface is the coordinate (x, y), and the position of the microlens on the microlens array is the coordinate (x′). , Y'). Further, the distance from the imaging lens to the microlens array is F, and the distance from the imaging lens to the refocus surface is αF. α is a refocus coefficient for determining the position of the refocus surface and can be set by the user. In FIG. 5, only u, x, and x'directions are shown, and v, y, and y'are omitted. As shown in FIG. 5, the light passing through the coordinates (u, v) and the coordinates (x, y) reaches the coordinates (x', y') on the microlens array. The coordinates (x', y') can be expressed as in equation (3).

Figure 0006728005

そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮像レンズの瞳領域に関して積分したものとなるため、式(4)のようになる。
Figure 0006728005

If the output of the pixel that receives this light is L(x', y', u, v), the output E(x, y) obtained at the coordinates (x, y) on the refocus plane is L. Since (x', y', u, v) is integrated with respect to the pupil area of the imaging lens, it becomes as shown in Expression (4).

Figure 0006728005

式(4)において、リフォーカス係数αはユーザによって決定されるため、(x,y)、(u,v)を与えれば、光の入射するマイクロレンズの位置(x’,y’)がわかる。そして、そのマイクロレンズに対応する画素配列20から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)が算出できる。なお、(u,v)を撮像レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。
Figure 0006728005

In the formula (4), the refocusing coefficient α is determined by the user, and therefore, if (x, y) and (u, v) are given, the position (x′, y′) of the microlens on which the light enters can be known. .. Then, from the pixel array 20 corresponding to the microlens, the pixel corresponding to the position (u, v) can be known. The output of this pixel is L(x', y', u, v). This is performed for all pupil division areas, and E(x, y) can be calculated by integrating the obtained pixel output. If (u, v) is the representative coordinate of the pupil division area of the imaging lens, the integral of the equation (4) can be calculated by simple addition.

以上では、リフォーカスの方法について説明した。しかしながら、上述したリフォーカス面を、元の画像の撮像時のピント位置からリフォーカス範囲のピント位置に設定しないと、正しいリフォーカス画像が生成できない。その理由は、撮像レンズおよび絞りによる開口系や撮像部における撮像素子の画素ピッチなどにより撮像素子に入射する光線の角度分布、すなわち視差画像の視差量が制限されるためなどである。次に、リフォーカス範囲の算出方法について説明する。 The method of refocusing has been described above. However, a correct refocus image cannot be generated unless the refocus surface described above is set from the focus position at the time of capturing the original image to the focus position in the refocus range. The reason is that the angular distribution of light rays incident on the image pickup element, that is, the parallax amount of the parallax image is limited by the aperture system of the image pickup lens and the diaphragm, the pixel pitch of the image pickup element in the image pickup unit, and the like. Next, a method of calculating the refocus range will be described.

<リフォーカス範囲の算出方法>
ここで、光の2次元強度分布をライトフィールドの空間成分と呼ぶ。このとき、リフォーカス範囲は、空間成分のサンプリングピッチΔyおよび角度成分のサンプリングピッチΔuにより決定され、その係数α±は以下の式(5)のように与えられる。
<Calculation method of refocus range>
Here, the two-dimensional intensity distribution of light is called a light field spatial component. At this time, the refocus range is determined by the sampling pitch Δy of the spatial component and the sampling pitch Δu of the angle component, and its coefficient α± is given by the following equation (5).

Figure 0006728005

図6は、リフォーカス範囲を説明するための図である。式(1)を用いて表される像側のリフォーカス範囲(α+)・s2〜(α−)・s2と、結像光学系61に対して共役な範囲が、物体側のリフォーカス範囲となる。ここでs2は、結像光学系61の像側主平面と被写体面62に対する結像光学系61の像側共役面との間の距離である。
Figure 0006728005

FIG. 6 is a diagram for explaining the refocus range. The image-side refocus range (α+)·s2 to (α−)·s2 expressed using the equation (1) and the range conjugate to the imaging optical system 61 are the object-side refocus range. Become. Here, s2 is the distance between the image-side principal plane of the imaging optical system 61 and the image-side conjugate plane of the imaging optical system 61 with respect to the subject plane 62.

図6に示される構成例では、被写体面62上の同一の位置を撮像している画素の1次元的な周期が3画素となっているため、空間成分のサンプリングピッチΔyは、撮像素子の画素ピッチの3倍となる。角度成分のサンプリングピッチΔuは、結像光学系61の射出瞳が3分割(2次元では9分割)されているため、射出瞳径の1/3となる。式(5)で表されるリフォーカス範囲を超えると、取得したライトフィールドでは情報が不足し、正しいリフォーカス画像を生成することができない。式(5)は、撮像素子の画素ピッチΔが結像光学系61の瞳距離Pに対して十分小さいことから、次の式(6)のように近似できる。 In the configuration example shown in FIG. 6, the one-dimensional cycle of pixels that image the same position on the subject surface 62 is three pixels, so the sampling pitch Δy of the spatial component is the pixel of the image sensor. 3 times the pitch. The sampling pitch Δu of the angle component is ⅓ of the exit pupil diameter because the exit pupil of the imaging optical system 61 is divided into three (two-dimensionally divided into nine). If the refocus range represented by the equation (5) is exceeded, the acquired light field lacks information, and a correct refocus image cannot be generated. Since the pixel pitch Δ of the image sensor is sufficiently smaller than the pupil distance P of the imaging optical system 61, the equation (5) can be approximated as the following equation (6).

Figure 0006728005

ここで、結像光学系61の瞳距離Pとは、結像光学系61の射出瞳面と被写体面62に対する結像光学系61の像側共役面との間の距離である。また、Nは結像光学系61の瞳の1次元分割数、Fは結像光学系61のF値、ΔLAは画素配列20のピッチである。
Figure 0006728005

Here, the pupil distance P of the imaging optical system 61 is the distance between the exit pupil plane of the imaging optical system 61 and the image-side conjugate plane of the imaging optical system 61 with respect to the object plane 62. N is the number of one-dimensional divisions of the pupil of the imaging optical system 61, F is the F value of the imaging optical system 61, and ΔLA is the pitch of the pixel array 20.

以上は、リフォーカス範囲の算出方法についての説明であった。なお、以下では、特に説明がなければ、「リフォーカス範囲」は、物体側のリフォーカス範囲を指す。 The above is the description of the method of calculating the refocus range. In the following, the "refocus range" refers to the refocus range on the object side unless otherwise specified.

<本実施形態のフローチャート>
図7は、本実施形態を説明するためのフローチャートである。
<Flowchart of this embodiment>
FIG. 7 is a flowchart for explaining this embodiment.

ステップS701では、撮像部104は、被写体の距離情報を取得する。ステップS702で、制御部101は、被写体の距離情報、および、ユーザの設定に基づいて、ピント位置を設定する。一例としては、ユーザが最初にタッチパネルなどを使って、合焦をしようとする領域を指定し、撮像部104が該領域に対して距離情報を取得し、制御部101は、ユーザが指定した領域に基づいて、各画像のピント位置を設定する。 In step S701, the imaging unit 104 acquires distance information of the subject. In step S702, the control unit 101 sets the focus position based on the subject distance information and the user setting. As an example, the user first uses a touch panel or the like to specify a region to be in focus, the imaging unit 104 acquires distance information for the region, and the control unit 101 sets the region specified by the user. Based on, the focus position of each image is set.

ステップS703では、光学系103がピント位置を変えながら、撮像部104は、設定した各々のピント位置で撮像するとともに、撮像した各々の画像の距離情報を取得する。 In step S703, while the optical system 103 changes the focus position, the image capturing unit 104 captures an image at each set focus position and acquires distance information of each captured image.

ステップS704では、制御部101は、ステップS703での撮像の時、光軸方向への動きを含む手振れが生じていたかどうかを判断する。具体的に、撮像部104がステップS704で取得した距離情報に基づいて、撮像時のピント位置を算出する。算出した撮像時のピント位置と設定したピント位置と比較し、手振れしていたかどうかを判断する。一例としては、ピント位置の差の閾値を決め、算出した撮像時のピント位置と設定したピント位置とのが閾値以上であるとき、手振れしていたと判断する。または、装置動き検出部111が、撮像中の装置の動き動作を検出し、動きの幅が予め定められた閾値以上になると、手振れをしていたと判断する。装置動き検出部111が検出した装置の動き動作で手振れを判断する場合、ステップS704で、撮像時のピント位置を算出しなくてもよく、かわりに、ステップS705のリフォーカス画像の生成で撮像時のピント位置を算出する。 In step S704, the control unit 101 determines whether or not camera shake including movement in the optical axis direction has occurred during the image capturing in step S703. Specifically, the image capturing unit 104 calculates the focus position at the time of image capturing based on the distance information acquired in step S704. The calculated focus position at the time of image capturing is compared with the set focus position to determine whether the camera shake has occurred. As an example, a threshold for the difference between the focus positions is determined, and when the calculated focus position at the time of imaging and the set focus position is equal to or greater than the threshold, it is determined that the camera shake has occurred. Alternatively, the device motion detection unit 111 detects a motion motion of the device during imaging, and when the width of the motion is equal to or greater than a predetermined threshold value, it is determined that the camera shake has been performed. When the camera movement is determined by the movement of the device detected by the device movement detection unit 111, the focus position at the time of image capturing does not have to be calculated at step S704, but instead at the time of image capturing at the generation of the refocus image at step S705. The focus position of is calculated.

また、ここで、制御部101は、固定検知を行い、デジタルカメラが三脚などの固定部に固定されていると検知した場合、手振れしていないと判断するようにしてもよい。 Further, here, the control unit 101 may perform fixation detection, and when it is detected that the digital camera is fixed to a fixation unit such as a tripod, the control unit 101 may determine that there is no camera shake.

手振れしていたと判断した場合、ステップS705に進み、リフォーカス画像の生成を行う。手振れしていないと判断した場合、リフォーカス処理を省き、処理時間を短縮するために、直接ステップS706に進み、画像合成を行う。ステップS706での画像合成では、公知の方法を用いてよく、一例としては、以下に述べる。まず、位置合わせのため、2つの画像の相対位置をずらしながら、これら複数の画像の画素の出力の差の絶対値総和(SAD:Sum Of Absolute Difference)を求める。この絶対値総和の値が最も小さくなるときの、2つの画像の相対的な移動量と移動方向を求める。そして、求めた移動量と移動方向に応じたアフィン変換もしくは射影変換の変換係数を算出した後、変換係数による移動量と絶対値総和から算出した移動量との誤差が最小となるように、最小二乗法を用いて変換係数を最適化する。その最適化された変換係数に基づいて、位置合わせの対象となる画像に対して、変形処理を行う。画像処理部107は、ステップS703で撮像部104が撮像したすべての画像に対して上述した位置合わせと変形処理とを行った後、各画像の各々の領域に対して、合成比率を与える。一例としては、画像処理部107は、同一領域に対応する複数の画像のうち、合焦している領域を有する画像の該当領域に含まれる画素に100%の合成比率を与え、ほかの画像の該当領域に含まれる画素に0%の合成比率を与える。あるいは、各領域の画像間の合焦の度合いに応じて、各画像の該当領域に合成比率を割り振るようにしてもよい。なお、合成境界での不自然さを防ぐため、画像処理部107は隣接画素間で合成比率が段階的に変化するようにする。最後に、各々の画素の合成比率に基づいて、合成画像を生成する。 If it is determined that the camera shake has occurred, the process advances to step S705 to generate a refocus image. If it is determined that the camera shake has not occurred, in order to omit the refocus processing and reduce the processing time, the process directly proceeds to step S706 and image combination is performed. A known method may be used for the image combination in step S706, and an example will be described below. First, for alignment, while shifting the relative positions of the two images, the absolute value sum (SAD: Sum Of Absolute Difference) of the output differences of the pixels of the plurality of images is obtained. The relative movement amount and movement direction of the two images when the value of the sum of absolute values becomes the smallest are obtained. Then, after calculating the conversion coefficient of the affine transformation or projective conversion according to the calculated movement amount and the movement direction, the error is minimized so that the error between the movement amount by the conversion coefficient and the movement amount calculated from the sum of absolute values is minimized. Optimize the transform coefficients using the square method. Based on the optimized conversion coefficient, the deformation process is performed on the image to be aligned. The image processing unit 107 performs the above-described alignment and deformation processing on all the images captured by the image capturing unit 104 in step S703, and then gives a synthesis ratio to each area of each image. As an example, the image processing unit 107 gives a combination ratio of 100% to pixels included in a corresponding area of an image having an in-focus area among a plurality of images corresponding to the same area, and other images A synthesis ratio of 0% is given to the pixels included in the corresponding area. Alternatively, the composition ratio may be assigned to the corresponding area of each image according to the degree of focusing between the images of each area. In addition, in order to prevent unnaturalness at the composition boundary, the image processing unit 107 causes the composition ratio to change stepwise between adjacent pixels. Finally, a composite image is generated based on the composite ratio of each pixel.

次に、ステップS705のリフォーカス画像の生成について詳しく説明する。 Next, the generation of the refocus image in step S705 will be described in detail.

図8は、リフォーカス画像の生成を説明するための図である。ステップS801で、前述したように、制御部101は、リフォーカス範囲を算出する。次に、制御部101は、設定したピント位置と撮像時のピント位置との差に基づいて、リフォーカス補正量を算出する。ステップS803で、制御部101は、リフォーカス範囲とリフォーカス補正量とを比較し、リフォーカスが可能かどうかを判断する。リフォーカス補正量がリフォーカス範囲に超えると、リフォーカスが可能でないと判断し、ステップS804に進む。リフォーカス補正量がリフォーカス範囲以内であると、リフォーカスが可能であると判断し、直接、ステップS806に進み、画像処理部107が、リフォーカス処理を行う。 FIG. 8 is a diagram for explaining generation of a refocus image. In step S801, as described above, the control unit 101 calculates the refocus range. Next, the control unit 101 calculates the refocus correction amount based on the difference between the set focus position and the focus position at the time of image capturing. In step S803, the control unit 101 compares the refocus range with the refocus correction amount, and determines whether refocus is possible. When the refocus correction amount exceeds the refocus range, it is determined that refocus is not possible, and the process proceeds to step S804. If the refocus correction amount is within the refocus range, it is determined that refocus is possible, and the process directly proceeds to step S806, where the image processing unit 107 performs the refocus processing.

図9は、ステップS803でリフォーカスが可能と判断した場合のリフォーカス処理の一例を説明するための図である。図9(a)は、ステップS702で制御部101が設定したピント位置を示す。範囲91は、被写体に焦点が合っていない部分が発生しない範囲であり、焦点距離と撮像素子の許容錯乱円径から決められる。図9(a)では、範囲91ごとに、ピント位置を設定している。図9(b)は、撮像部104が実際撮像した時のピント位置を示す。1番のピント位置以外、全部設定したピント位置からずれていることを示している。2番と3番などでは、その前に撮像した画像との間のピント位置の距離が範囲91を超えてしまうことが発生し、このまま合成画像を生成すると、ぼけた部分が出てしまう恐れがある。そのため、リフォーカスを行う。図9(c)は、リフォーカス処理後のピント位置を示す。図9(c)のピント位置に書いてある番号は、図9(b)のどの番号のピント位置から得られたのかを意味し、番号2番のピント位置が2回リフォーカス処理を行われていることを示す。補正量92は、リフォーカス補正量を示す。前述したように、リフォーカス補正量が、リフォーカス範囲以内でないと、フォーカス補正ができない。ここで、複数の撮像時のピント位置のリフォーカス範囲内に、設定したピント位置がある場合、補正量の少ない撮像時のピント位置を用いてリフォーカスを行う。たとえば、設定した4番のピント位置は、3番と4番との撮像時のピント位置のどちらかのリフォーカス範囲にも入るとすると、より補正量の少ない番号3番の撮像時のピント位置を用いてリフォーカスを行うことが好ましい。 FIG. 9 is a diagram for explaining an example of the refocusing process when it is determined that refocusing is possible in step S803. FIG. 9A shows the focus position set by the control unit 101 in step S702. The range 91 is a range in which a part where the subject is out of focus does not occur, and is determined from the focal length and the permissible circle of confusion of the image sensor. In FIG. 9A, the focus position is set for each range 91. FIG. 9B shows the focus position when the image capturing unit 104 actually captures an image. It shows that all but the first focus position deviates from the set focus positions. In the case of No. 2 and No. 3, the distance of the focus position from the image captured before that may exceed the range 91, and if the composite image is generated as it is, there is a possibility that a blurred portion may appear. is there. Therefore, refocus is performed. FIG. 9C shows the focus position after the refocus processing. The number written in the focus position of FIG. 9C means from which focus position of FIG. 9B the focus position was obtained, and the focus position of the number 2 is refocused twice. Indicates that The correction amount 92 indicates the refocus correction amount. As described above, focus correction cannot be performed unless the refocus correction amount is within the refocus range. Here, if the set focus position is within the refocus range of a plurality of focus positions at the time of imaging, refocusing is performed using the focus position at the time of imaging with a small correction amount. For example, if the set focus position of No. 4 falls within the refocus range of either the focus position at the time of imaging of No. 3 or No. 4, the focus position at the time of imaging of No. 3 with a smaller correction amount. It is preferable to perform refocusing using.

ステップS803で、制御部101は、リフォーカスが可能でないと判断した場合、ステップS804に進み、設定したピント位置の再設定を行う。次に、ステップS805で、再設定したピント位置に基づいて、リフォーカス補正量を変更する。最後に、ステップS806に進み、リフォーカス処理を行う。 When it is determined in step S803 that refocusing is not possible, the control unit 101 proceeds to step S804 and resets the set focus position. Next, in step S805, the refocus correction amount is changed based on the reset focus position. Finally, in step S806, refocus processing is performed.

図10は、ステップS803でリフォーカスが可能でないと判断した場合のピント位置の再設定とその後のリフォーカス処理との一例を説明するための図である。図10(a)は、ステップS702で制御部101が設定したピント位置を示す。図10(b)は、撮像部104が実際撮像した時のピント位置を示す。図10(c)は、リフォーカス処理後のピント位置を示す。ここの処理では、番号2番と3番のピント位置をリフォーカス範囲の限度にピント位置を再設定し、再設定したピント位置に基づいて、等間隔になるように、ほかのピント位置を再設定する。 FIG. 10 is a diagram for explaining an example of resetting of the focus position when it is determined that refocusing is not possible in step S803 and subsequent refocusing processing. FIG. 10A shows the focus position set by the control unit 101 in step S702. FIG. 10B shows the focus position when the image capturing unit 104 actually captures an image. FIG. 10C shows the focus position after the refocus processing. In this process, the focus positions of Nos. 2 and 3 are reset to the limits of the refocus range, and other focus positions are reset so that they are evenly spaced based on the reset focus positions. Set.

図10のように、制御部101が、初めに設定したピント位置までリフォーカスできないと判断した場合、リフォーカスできる範囲でピント位置の再設定を行う。 As shown in FIG. 10, when the control unit 101 determines that the focus position that was initially set cannot be refocused, the focus position is reset within the refocusable range.

本実施形態によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、ピント位置のリフォーカスにより、手振れなどによる影響を低減し、より高画質の合成画像を得ることができる。 According to the present embodiment, when synthesizing using a plurality of images captured by changing the focus position, refocusing the focus position can reduce the influence of camera shake or the like and obtain a higher quality composite image. it can.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
The above embodiment has been described based on the implementation in the digital camera, but is not limited to the digital camera. For example, it may be implemented by a mobile device or the like having a built-in image sensor, or may be a network camera or the like capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus provide the program. Can also be realized by a process of reading out and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
101 制御部
102 駆動部
103 光学系
104 撮像部
105 ROM
106 RAM
107 画像処理部
108 表示部
109 内蔵メモリ
110 操作部
111 装置動き検出部
100 Digital Camera 101 Control Unit 102 Drive Unit 103 Optical System 104 Imaging Unit 105 ROM
106 RAM
107 image processing unit 108 display unit 109 built-in memory 110 operation unit 111 device motion detection unit

Claims (16)

光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成手段と、
前記光学系のピント位置を設定するピント位置の設定手段と、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、
前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置。
A synthesizing unit that synthesizes a plurality of images captured while changing the focus position of the optical system to generate a synthesized image,
Focus position setting means for setting the focus position of the optical system,
Refocusing means for reconstructing an image in which the focus position of the captured image is different,
The image pickup apparatus, wherein the refocusing unit reconstructs an image with a different focus position based on a difference between the set focus position and a focus position when the image is captured.
前記画像を撮像する撮像部を有し、
前記撮像部は、1つのマイクロレンズに対して、複数の光電変換部を有することを特徴とする請求項1に記載の撮像装置。
An image pickup unit for picking up the image,
The imaging device according to claim 1, wherein the imaging unit has a plurality of photoelectric conversion units for one microlens.
前記リフォーカス手段は、前記撮像した画像のピント位置の少なくとも一部を、前記設定したピント位置のいずれかになるように、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする請求項1または2に記載の撮像装置。 The refocusing means reconstructs an image in which the focus position is different so that at least a part of the focus position of the captured image is one of the set focus positions. The image pickup apparatus according to claim 1. 前記リフォーカス手段は、前記設定したピント位置と最も近いピント位置をもつ撮像した画像を用いて、前記設定したピント位置になるように、前記画像のピント位置を異ならせた画像の再構成を行うことを特徴とする請求項3に記載の撮像装置。 The refocusing means reconstructs an image in which the focus position of the image is changed so that the set focus position is obtained, by using the imaged image having the closest focus position to the set focus position. The imaging device according to claim 3, wherein 撮像時の手振れ情報を取得する手振れ情報の取得手段を有し、
前記リフォーカス手段は、前記手振れ情報に基づいて、前記ピント位置を異ならせた画像の再構成を行うかどうかを決めることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
It has a camera shake information acquisition unit that acquires camera shake information at the time of imaging,
The imaging device according to claim 1, wherein the refocusing unit determines whether to reconstruct an image with a different focus position, based on the camera shake information. ..
前記リフォーカス手段は、前記設定したピント位置と前記撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うかどうかを決めることを特徴とする請求項5に記載の撮像装置。 The refocusing unit determines whether to reconstruct an image with a different focus position based on a difference between the set focus position and the focus position when the image is captured. The imaging device according to 5. 前記リフォーカス手段は、前記設定したピント位置と前記撮像するときのピント位置との違いが、予め定められた閾値以上であるとき、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする請求項6に記載の撮像装置。 The refocusing means reconstructs an image in which the focus position is different when the difference between the set focus position and the focus position at the time of imaging is equal to or more than a predetermined threshold value. The imaging device according to claim 6. 前記撮像装置が撮像するとき、固定部に固定されているかどうかを検知する固定検知手段を有し、
前記リフォーカス手段は、前記撮像装置が前記固定部に固定されているうち撮像した画像に対して、前記ピント位置を異ならせた画像の再構成を行わないことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
When the image pickup device picks up an image, it has a fixing detection means for detecting whether or not it is fixed to a fixed portion,
8. The refocusing unit does not reconstruct an image with a different focus position with respect to an image captured while the image pickup device is fixed to the fixing unit. The imaging device according to any one of 1.
前記固定部は三脚であることを特徴とする請求項8に記載の撮像装置。 The imaging device according to claim 8, wherein the fixed portion is a tripod. リフォーカス範囲を算出するリフォーカス範囲の算出手段を有し、
前記リフォーカス手段は、前記リフォーカス範囲の範囲内で、前記画像のピント位置を異ならせた画像の再構成を行うことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
A refocus range calculation means for calculating the refocus range,
10. The image pickup apparatus according to claim 1, wherein the refocusing unit reconstructs an image with a different focus position of the image within the refocusing range. ..
前記画像のピント位置を再設定するピント位置の再設定手段を有し、
前記ピント位置の設定手段が設定したピント位置は、前記撮像した画像のいずれかのピント位置のリフォーカス範囲にないとき、
前記ピント位置の再設定手段は、前記設定したピント位置を再設定することを特徴とする請求項10に記載の撮像装置。
Having a focus position resetting means for resetting the focus position of the image,
When the focus position set by the focus position setting unit is not within the refocus range of any focus position of the captured image,
The imaging apparatus according to claim 10, wherein the focus position resetting unit resets the set focus position.
前記ピント位置の再設定手段は、前記撮像した画像のピント位置のリフォーカス範囲の限度にあたる位置で、前記設定したピント位置を再設定することを特徴とする請求項11に記載の撮像装置。 The image pickup apparatus according to claim 11, wherein the focus position resetting unit resets the set focus position at a position within a refocus range limit of the focus position of the captured image. 前記ピント位置の再設定手段は、少なくとも一部の再設定した後のピント位置が、等間隔になるように、前記再設定を行うことを特徴とする請求項11または12に記載の撮像装置。 13. The image pickup apparatus according to claim 11, wherein the focus position resetting unit performs the resetting so that the focus positions after at least a part of the resetting are at equal intervals. 前記設定したピント位置は、複数の前記撮像した画像のピント位置の前記リフォーカス範囲にあるとき、
前記複数の前記撮像した画像のうち、リフォーカス補正量の最も少ないものに対して、前記設定したピント位置になるようにリフォーカスを行うことを特徴とする請求項10乃至13のいずれか1項に記載の撮像装置。
When the set focus position is in the refocus range of the focus positions of the plurality of captured images,
14. The refocusing is performed on the image having the smallest refocus correction amount out of the plurality of captured images so that the set focus position is reached. The imaging device according to.
光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成ステップと、
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を有し、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像方法。
A combining step of combining a plurality of images captured while changing the focus position of the optical system to generate a combined image,
A focus position setting step for setting the focus position of the optical system,
A refocusing step of reconstructing an image in which the focus position of the captured image is different,
In the refocusing step, an image is reconstructed in which the focus position is changed based on a difference between the set focus position and a focus position when the image is taken.
撮像装置のコンピュータに動作させるプログラムであって、
前記コンピュータに、
光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成ステップと、
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を行わせ、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とするコンピュータのプログラム。
A program that causes a computer of an imaging device to operate,
On the computer,
A combining step of combining a plurality of images captured while changing the focus position of the optical system to generate a combined image,
A focus position setting step for setting the focus position of the optical system,
A refocus step of reconstructing an image in which the focus position of the captured image is changed,
A computer program characterized in that, in the refocusing step, an image with a different focus position is reconstructed based on a difference between the set focus position and a focus position when the image is captured.
JP2016183798A 2016-09-21 2016-09-21 Imaging device, imaging method, and program Active JP6728005B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016183798A JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program
CN201710805640.3A CN107864315B (en) 2016-09-21 2017-09-08 Image pickup apparatus, control method of image pickup apparatus, and recording medium
US15/709,241 US10530994B2 (en) 2016-09-21 2017-09-19 Image capture apparatus, control method for image capture apparatus and non-transitory recording medium for combining image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183798A JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2018050147A JP2018050147A (en) 2018-03-29
JP2018050147A5 JP2018050147A5 (en) 2019-09-12
JP6728005B2 true JP6728005B2 (en) 2020-07-22

Family

ID=61767848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183798A Active JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program

Country Status (1)

Country Link
JP (1) JP6728005B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6941816B2 (en) 2018-03-16 2021-09-29 パナソニックIpマネジメント株式会社 Rotating device and head-up display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338901A (en) * 2004-05-24 2005-12-08 Matsushita Electric Ind Co Ltd Imaging device and imaging method
JP2013161065A (en) * 2012-02-09 2013-08-19 Canon Inc Imaging device
JP6055332B2 (en) * 2013-02-12 2016-12-27 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method, and program

Also Published As

Publication number Publication date
JP2018050147A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5791349B2 (en) Imaging apparatus and control method thereof
CN107864315B (en) Image pickup apparatus, control method of image pickup apparatus, and recording medium
JP6047025B2 (en) Imaging apparatus and control method thereof
US9681037B2 (en) Imaging apparatus and its control method and program
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP2005252626A (en) Image pickup device and image processing method
TWI467313B (en) Image processing device, image processing method and recording medium
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2016161884A (en) Imaging device and control method of the same
JP2015169722A (en) Imaging apparatus
JP6752685B2 (en) Imaging equipment, imaging methods and programs
JP6728005B2 (en) Imaging device, imaging method, and program
JP6678505B2 (en) Imaging device, control method therefor, program, and storage medium
JP6478587B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP4682010B2 (en) Imaging device
JP6566800B2 (en) Imaging apparatus and imaging method
JP2019047145A (en) Image processing system, imaging apparatus, control method and program of image processing system
JP7159486B2 (en) Imaging device
JP7187185B2 (en) Imaging device and its control method
JP2012147087A (en) Apparatus and method for generating image
JP2018026768A (en) Imaging apparatus, control method of the same, and program
JP2012134826A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6728005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151