JP2018050147A - Imaging apparatus, imaging method and program - Google Patents

Imaging apparatus, imaging method and program Download PDF

Info

Publication number
JP2018050147A
JP2018050147A JP2016183798A JP2016183798A JP2018050147A JP 2018050147 A JP2018050147 A JP 2018050147A JP 2016183798 A JP2016183798 A JP 2016183798A JP 2016183798 A JP2016183798 A JP 2016183798A JP 2018050147 A JP2018050147 A JP 2018050147A
Authority
JP
Japan
Prior art keywords
focus position
image
imaging
refocusing
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016183798A
Other languages
Japanese (ja)
Other versions
JP6728005B2 (en
JP2018050147A5 (en
Inventor
陽一 高橋
Yoichi Takahashi
陽一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016183798A priority Critical patent/JP6728005B2/en
Priority to CN201710805640.3A priority patent/CN107864315B/en
Priority to US15/709,241 priority patent/US10530994B2/en
Publication of JP2018050147A publication Critical patent/JP2018050147A/en
Publication of JP2018050147A5 publication Critical patent/JP2018050147A5/ja
Application granted granted Critical
Publication of JP6728005B2 publication Critical patent/JP6728005B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of generating a composite image reducing blur due to camera shake, etc., when synthesizing multiple images captured by changing the focus position.SOLUTION: An imaging apparatus has synthesis means for generating a composite image by synthesizing multiple images captured while changing the focus position of an optical system, focus position setting means for setting the focus position of the optical system, and refocus means performing reconstitution of an image where the focus position of the captured image was differentiated. The refocus means performs reconstitution of an image where the focus position was differentiated, based on the difference of the set focus position and the focus position when capturing the image.SELECTED DRAWING: Figure 9

Description

本発明は、画像合成を行う撮像装置に関するものである。   The present invention relates to an imaging apparatus that performs image composition.

カメラからの距離が異なる複数の被写体を撮像する場合、あるいは、奥行き方向に長い被写体を撮像する場合に、撮像光学系における被写界深度が足りないために、被写体の一部にしかピントを合わせられない場合がある。そこで、ピント位置を変化させて複数の画像を撮像し、各画像から合焦している領域のみを抽出して1枚の画像を合成して撮像領域全体に合焦している合成画像を生成する技術(以下、深度合成という)が知られている(特許文献1を参照)。この深度合成の技術を用いることで、意図する被写体の全体に対してピントを合わせた画像を得ることができる。   When shooting multiple subjects with different distances from the camera, or when shooting subjects that are long in the depth direction, the depth of field in the imaging optical system is insufficient. It may not be possible. Therefore, a plurality of images are picked up by changing the focus position, only a focused area is extracted from each image, and a single image is synthesized to generate a composite image focused on the entire imaging area. Technology (hereinafter referred to as depth synthesis) is known (see Patent Document 1). By using this depth synthesis technique, it is possible to obtain an image in which the entire intended subject is in focus.

特開2015−216480号公報JP2015-216480A

しかしながら、深度合成の技術を用いて撮像する場合、手振れなどが発生すると、以下の課題が生じることがある。   However, when imaging is performed using the technique of depth synthesis, the following problems may occur when camera shake or the like occurs.

図11は、深度合成における手振れを説明するための図である。図11(a)は理想的な深度合成を用いる撮像を説明するための図である。図11(a)では、ユーザがデジタルカメラを1101に置き、所定の距離1102ずつピント位置を移動させながら複数回撮像を行う。   FIG. 11 is a diagram for explaining camera shake in depth synthesis. FIG. 11A is a diagram for explaining imaging using ideal depth synthesis. In FIG. 11A, the user places the digital camera on 1101 and performs imaging a plurality of times while moving the focus position by a predetermined distance 1102.

図11(b)は図11(a)での撮像において、3枚目の画像を撮像するとき、手振れが発生してしまった場合を示す。撮像位置1101が光軸方向で後方にずれたことで、本来撮像されるべき距離よりも近い位置にピント位置が来る。さらに、図11(c)のように、4枚目の画像を撮像するとき、図11(b)の手振れの方向と反対する方向へ手振れが発生してしまった場合を示す。この場合4枚目の画像は本来撮像されるべきピント位置よりも遠くなっている。図11(c)で撮像された複数の画像を用いて合成処理を行うと、領域1103において合焦している画像が存在せず、合成画像にはぼけた部分が残ってしまう。   FIG. 11B shows a case where camera shake has occurred when the third image is captured in the imaging in FIG. Since the imaging position 1101 is shifted rearward in the optical axis direction, the focus position comes closer to the position that should be originally captured. Furthermore, as shown in FIG. 11C, when a fourth image is captured, a case where camera shake occurs in a direction opposite to the direction of camera shake in FIG. In this case, the fourth image is farther from the focus position that should be captured. When combining processing is performed using a plurality of images captured in FIG. 11C, there is no focused image in the area 1103, and a blurred portion remains in the combined image.

本発明は、以上の課題を鑑みてなされたもので、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、画像のピント位置を補正し、手振れなどによるぼけを低減させる合成画像を生成できる撮像装置を提供することが目的とする。   The present invention has been made in view of the above problems, and when combining using a plurality of images picked up by changing the focus position, a composite image that corrects the focus position of the image and reduces blur due to camera shake or the like. It is an object to provide an imaging device capable of generating

本発明は、光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成手段と、前記光学系のピント位置を設定するピント位置の設定手段と、前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置を提供するものである。   The present invention combines a plurality of images captured while changing the focus position of the optical system, generates a composite image, a focus position setting means for setting the focus position of the optical system, Refocusing means for reconstructing an image with a different focus position of the captured image, and the refocusing means is different from the set focus position and the focus position when capturing the image. The present invention provides an image pickup apparatus that reconstructs an image with a different focus position.

本発明によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、手振れなどによるぼけを低減させる合成画像を生成できる。   According to the present invention, when combining using a plurality of images picked up by changing the focus position, it is possible to generate a combined image that reduces blur due to camera shake or the like.

本発明の実施形態におけるデジタルカメラの構造を示すブロック図である。It is a block diagram which shows the structure of the digital camera in embodiment of this invention. 本発明の実施形態における撮像部を構成するセンサのアレイを説明するための図である。It is a figure for demonstrating the array of the sensor which comprises the imaging part in embodiment of this invention. 本発明の実施形態において、光信号の画素への入射を説明するための図である。In embodiment of this invention, it is a figure for demonstrating incidence | injection to the pixel of an optical signal. (a)は撮像レンズの開口を光軸方向から見た図であり、(b)は1つのマイクロレンズとその後方に配置された画素配列を光軸方向から見た図である。(A) is the figure which looked at the opening of the imaging lens from the optical axis direction, (b) is the figure which looked at one micro lens and the pixel arrangement | positioning arrange | positioned behind it from the optical axis direction. 本発明の実施形態におけるリフォーカス面の計算を説明するための図である。It is a figure for demonstrating the calculation of the refocus surface in embodiment of this invention. 本発明の実施形態におけるリフォーカス範囲を説明するための図である。It is a figure for demonstrating the refocus range in embodiment of this invention. 本発明の実施形態を説明するためのフローチャートである。It is a flowchart for demonstrating embodiment of this invention. 本発明の実施形態におけるリフォーカス画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of the refocus image in embodiment of this invention. 本発明の実施形態においてリフォーカスが可能と判断した場合のリフォーカス処理の一例を説明するための図である。It is a figure for demonstrating an example of the refocus process when it is judged that refocusing is possible in embodiment of this invention. 本発明の実施形態においてリフォーカスが可能でないと判断した場合のピント位置の再設定とその後のリフォーカス処理との一例を説明するための図である。It is a figure for demonstrating an example of reset of a focus position when it is judged that refocusing is not possible in the embodiment of the present invention, and subsequent refocus processing. 深度合成における手振れを説明するための図である。It is a figure for demonstrating the camera shake in depth composition.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下の説明では、デジタルカメラを例にあげて説明を行うが、デジタルカメラに限定されるわけでなく、ピント位置の情報の取り入れ、および撮像した画像のピント位置の補正ができる撮像装置を用いれば、本発明を適用することができる。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a digital camera will be described as an example. However, the present invention is not limited to a digital camera, and an imaging apparatus capable of taking in focus position information and correcting the focus position of a captured image is described. If used, the present invention can be applied.

(本発明の実施形態の一例)
図1は本実施形態に係るデジタルカメラの構造を示すブロック図である。デジタルカメラ100は、静止画を撮像することができ、かつ、合焦位置の情報を記録し、コントラスト値の算出および画像の合成が可能なものである。さらに、デジタルカメラ100は、撮像して保存した画像、または、外部から入力した画像に対して、拡大処理または縮小処理を行うことができる。
(Example of embodiment of the present invention)
FIG. 1 is a block diagram showing the structure of a digital camera according to this embodiment. The digital camera 100 can capture a still image, records information on the in-focus position, and can calculate a contrast value and synthesize an image. Furthermore, the digital camera 100 can perform an enlargement process or a reduction process on an image captured and stored or an image input from the outside.

制御部101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。   The control unit 101 is a signal processor such as a CPU or an MPU, for example, and controls each part of the digital camera 100 while reading a program built in the ROM 105 described later. For example, as will be described later, the control unit 101 instructs the imaging unit 104 described later to start and end imaging. Alternatively, an image processing command is issued to an image processing unit 107 described later based on a program built in the ROM 105. A user command is input to the digital camera 100 by an operation unit 110 described later, and reaches each part of the digital camera 100 through the control unit 101.

駆動部102は、モーターなどによって構成され、制御部101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御部101の指令に基づいて、駆動部102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103のピント位置を調整する。   The drive unit 102 is configured by a motor or the like, and mechanically operates an optical system 103 to be described later under a command from the control unit 101. For example, based on a command from the control unit 101, the drive unit 102 moves the position of the focus lens included in the optical system 103 and adjusts the focus position of the optical system 103.

光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。レンズの位置を変えることによって、合焦位置を変えることができる。   The optical system 103 includes a zoom lens, a focus lens, a diaphragm, and the like. The diaphragm is a mechanism that adjusts the amount of transmitted light. The focus position can be changed by changing the position of the lens.

撮像部104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像部104に、CCDやCMOSセンサなどを適用することができる。撮像部104は、動画撮像モードを設け、時間的に連続する複数の画像を動画の各々のフレームとして、撮像することができる。   The imaging unit 104 is a photoelectric conversion element, and performs photoelectric conversion that converts an incident optical signal into an electrical signal. For example, a CCD or a CMOS sensor can be applied to the imaging unit 104. The imaging unit 104 is provided with a moving image capturing mode, and can capture a plurality of temporally continuous images as each frame of the moving image.

図2は、本実施形態における撮像部104を構成するセンサのアレイを説明するための図である。複数の光電変換部201に対して1つのマイクロレンズ21が対応するように配置されている。1つのマイクロレンズ後方にある複数の光電変換部201をまとめて画素配列20と定義する。なお、図2では画素配列20には、光電変換部201が5行5列の計25個あるが、これに限られるわけではない。   FIG. 2 is a diagram for explaining an array of sensors constituting the imaging unit 104 in the present embodiment. One microlens 21 is arranged to correspond to the plurality of photoelectric conversion units 201. A plurality of photoelectric conversion units 201 behind one microlens are collectively defined as a pixel array 20. In FIG. 2, the pixel array 20 includes a total of 25 photoelectric conversion units 201 of 5 rows and 5 columns, but is not limited thereto.

図3は、本実施形態において、光信号の画素への入射を説明するための図である。   FIG. 3 is a diagram for explaining the incidence of an optical signal on a pixel in the present embodiment.

図3は、撮像レンズ31から出射された光が1つのマイクロレンズ21を通過して撮像素子32で受光される様子を光軸に対して垂直方向から観察した図である。撮像レンズ31の各瞳領域a1〜a5から出射され、マイクロレンズ21を通過した光は、後方の対応する光電変換部p1〜p5でそれぞれ結像する。   FIG. 3 is a diagram in which a state in which light emitted from the imaging lens 31 passes through one microlens 21 and is received by the imaging element 32 is observed from a direction perpendicular to the optical axis. Light emitted from the pupil regions a1 to a5 of the imaging lens 31 and passed through the microlens 21 is imaged by the corresponding photoelectric conversion units p1 to p5 at the rear.

図2で示したような撮像部を用いて、1つのマイクロレンズに対応する複数の光電変換部で取得した光信号を用いて、被写体距離の情報を取得することができる。   Using the imaging unit as illustrated in FIG. 2, it is possible to acquire subject distance information using optical signals acquired by a plurality of photoelectric conversion units corresponding to one microlens.

ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。   The ROM 105 is a read-only nonvolatile memory as a recording medium, and stores parameters and the like necessary for the operation of each block in addition to the operation program for each block provided in the digital camera 100. The RAM 106 is a rewritable volatile memory, and is used as a temporary storage area for data output in the operation of each block included in the digital camera 100.

画像処理部107は、撮像部104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像部104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。   The image processing unit 107 performs various image processing, such as white balance adjustment, color interpolation, and filtering, on the image output from the imaging unit 104 or image signal data recorded in the internal memory 109 described later. . Further, compression processing is performed on the data of the image signal captured by the imaging unit 104 in accordance with a standard such as JPEG.

画像処理部107を、図2で示したような、1つのマイクロレンズに複数の光電変換部が対応する構造を有する撮像部と併用すると、一定の範囲内のピント位置にピントを合わせた画像を撮像した後に再構成(リフォーカス)することができる。ここでいう「一定の範囲」はリフォーカス範囲といい、詳細は後述する。   When the image processing unit 107 is used in combination with an imaging unit having a structure in which a plurality of photoelectric conversion units correspond to one microlens as shown in FIG. 2, an image focused on a focus position within a certain range is obtained. It is possible to reconstruct (refocus) after imaging. The “certain range” here is called a refocus range, and details will be described later.

画像処理部107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM105から読み出したプログラムに従って処理することで、制御部101が画像処理部107の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部107の全ての機能を兼用する場合には、画像処理部107をハードウェアとして有する必要はなくなる。   The image processing unit 107 includes an integrated circuit (ASIC) that collects circuits for performing specific processing. Alternatively, the control unit 101 may perform some or all of the functions of the image processing unit 107 by performing processing according to a program read from the ROM 105. When the control unit 101 has all the functions of the image processing unit 107, it is not necessary to have the image processing unit 107 as hardware.

表示部108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。   The display unit 108 is an image temporarily stored in the RAM 106, an image stored in an internal memory 109, which will be described later, or a liquid crystal display or an organic EL display for displaying a setting screen of the digital camera 100. is there.

内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。   The built-in memory 109 is a place for recording an image captured by the image capturing unit 104, an image obtained by the processing of the image processing unit 107, information on a focus position at the time of image capturing, and the like. A memory card or the like may be used instead of the built-in memory.

操作部110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、表示部108に兼用されるタッチパネルなどである。ユーザによる指令は、操作部110を経由して、制御部101に達する。   The operation unit 110 is, for example, a button, switch, key, or mode dial attached to the digital camera 100, or a touch panel that is also used as the display unit 108. A command from the user reaches the control unit 101 via the operation unit 110.

装置動き検出部111はジャイロセンサによって構成され、デジタルカメラ100の動きを検出するデバイスであり、デジタルカメラ100の単位時間当たりの角度変化、すなわち角速度に基づいてヨー方向とピッチ方向の動きを検出する。   The apparatus motion detection unit 111 is configured by a gyro sensor and is a device that detects the motion of the digital camera 100, and detects the motion of the digital camera 100 in the yaw direction and the pitch direction based on an angular change per unit time, that is, an angular velocity. .

<リフォーカスの方法>
ここで、一定の範囲内の被写体に対応したピント位置(リフォーカス面)を算出する方法について説明する。
<How to refocus>
Here, a method for calculating a focus position (refocus plane) corresponding to a subject within a certain range will be described.

図4(a)は撮像レンズ31の開口を光軸方向から見た図である。図4(b)は1つのマイクロレンズ21とその後方に配置された画素配列20を光軸方向から見た図である。図4(a)に示すように撮像レンズ31の瞳領域を1つのマイクロレンズ後方にある光電変換部と同数の領域に分割した場合、1つの光電変換部には撮像レンズ31の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮像レンズ31とマイクロレンズ21に示したナンバーがほぼ一致しているものとする。   FIG. 4A is a view of the aperture of the imaging lens 31 as viewed from the optical axis direction. FIG. 4B is a view of one microlens 21 and the pixel array 20 disposed behind the microlens 21 as viewed from the optical axis direction. As shown in FIG. 4A, when the pupil region of the imaging lens 31 is divided into the same number of regions as the photoelectric conversion units behind one micro lens, one pupil division of the imaging lens 31 is included in one photoelectric conversion unit. Light emitted from the region is imaged. However, here, it is assumed that the numbers shown on the imaging lens 31 and the microlens 21 are substantially the same.

図4(a)に示す撮像レンズ31の瞳分割領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮像レンズ31の瞳分割領域a11から出射した光はマイクロレンズ後方にある画素配列20のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のマイクロレンズ21を通過する光も、そのマイクロレンズ後方にある画素配列20の中の画素p11に結像する。   The correspondence between the pupil division regions a11 to a55 of the imaging lens 31 shown in FIG. 4A and the pixels p11 to p55 shown in FIG. 4B is point-symmetric when viewed from the optical axis Z direction. Therefore, the light emitted from the pupil division area a11 of the imaging lens 31 forms an image on the pixel p11 in the pixel array 20 behind the microlens. Similarly, light emitted from the pupil division area a11 and passing through another microlens 21 forms an image on the pixel p11 in the pixel array 20 behind the microlens.

画素配列20の各光電変換部は、撮像レンズ31に対して互いに異なる瞳領域を通過した光を受光している。これらの分割信号から複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。   Each photoelectric conversion unit of the pixel array 20 receives light that has passed through different pupil regions with respect to the imaging lens 31. By combining a plurality of pixel signals from these divided signals, a pair of signals divided into pupils in the horizontal direction is generated.

Figure 2018050147
Figure 2018050147

Figure 2018050147

式(1)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の左側領域(瞳領域a11〜a52)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をA像とする。また、式(2)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の右側領域(瞳領域a14〜a55)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をB像とする。A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮像レンズ31の焦点位置と光学系から決まる変換係数を乗じることで、画面内の被写体に対応したピント位置を算出することができる。
Figure 2018050147

Expression (1) is obtained by integrating the light passing through the left area (pupil areas a11 to a52) of the exit pupil of the imaging lens 31 for each photoelectric conversion unit of a certain pixel array 20. This is applied to a plurality of pixel arrays 20 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as an A image. Expression (2) is obtained by integrating light passing through the right region (pupil regions a14 to a55) of the exit pupil of the imaging lens 31 for each photoelectric conversion unit of a certain pixel array 20. This is applied to a plurality of pixel arrays 20 arranged in the horizontal direction, and a subject image constituted by these output signal groups is defined as a B image. A correlation operation is performed on the A image and the B image, and an image shift amount (pupil division phase difference) is detected. Furthermore, the focus position corresponding to the subject in the screen can be calculated by multiplying the image shift amount by a conversion coefficient determined by the focal position of the imaging lens 31 and the optical system.

次に、撮像部104によって取得された撮像データに対して、設定したピント位置であるリフォーカス面での画像の再構成処理について説明する。   Next, an image reconstruction process on the refocus plane that is the set focus position with respect to the imaging data acquired by the imaging unit 104 will be described.

図5は、リフォーカス面の計算を説明するための図である。図5では、設定したリフォーカス面上のある画素を通過する光が、撮像レンズのどの瞳分割領域から出射され、どのマイクロレンズへ入射するかを光軸Zに対して垂直方向から見る。図5において、撮像レンズ31の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x,y)、マイクロレンズアレイ上のマイクロレンズの位置を座標(x’,y’)とする。また、撮像レンズからマイクロレンズアレイまでの距離をF、撮像レンズからリフォーカス面までの距離をαFとする。αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザが設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。図5に示すように、座標(u,v)と座標(x,y)を通過した光は、マイクロレンズアレイ上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。   FIG. 5 is a diagram for explaining the calculation of the refocus plane. In FIG. 5, the light passing through a certain pixel on the set refocus plane is emitted from which pupil division region of the imaging lens and to which microlens is viewed from the direction perpendicular to the optical axis Z. In FIG. 5, the position of the pupil division area of the imaging lens 31 is the coordinates (u, v), the pixel position on the refocus plane is the coordinates (x, y), and the position of the microlens on the microlens array is the coordinate (x ′ , Y ′). The distance from the imaging lens to the microlens array is F, and the distance from the imaging lens to the refocus plane is αF. α is a refocus coefficient for determining the position of the refocus plane and can be set by the user. In FIG. 5, only the directions of u, x, and x ′ are shown, and v, y, and y ′ are omitted. As shown in FIG. 5, the light passing through the coordinates (u, v) and the coordinates (x, y) reaches the coordinates (x ′, y ′) on the microlens array. The coordinates (x ′, y ′) can be expressed as in Equation (3).

Figure 2018050147

そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮像レンズの瞳領域に関して積分したものとなるため、式(4)のようになる。
Figure 2018050147

When the output of the pixel receiving this light is L (x ′, y ′, u, v), the output E (x, y) obtained with the coordinates (x, y) on the refocus plane is L Since (x ′, y ′, u, v) is integrated with respect to the pupil region of the imaging lens, Equation (4) is obtained.

Figure 2018050147

式(4)において、リフォーカス係数αはユーザによって決定されるため、(x,y)、(u,v)を与えれば、光の入射するマイクロレンズの位置(x’,y’)がわかる。そして、そのマイクロレンズに対応する画素配列20から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)が算出できる。なお、(u,v)を撮像レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。
Figure 2018050147

In equation (4), since the refocus coefficient α is determined by the user, if (x, y) and (u, v) are given, the position (x ′, y ′) of the microlens where the light enters can be known. . Then, the pixel corresponding to the position (u, v) is known from the pixel array 20 corresponding to the microlens. The output of this pixel is L (x ′, y ′, u, v). E (x, y) can be calculated by performing this operation for all pupil division regions and integrating the obtained pixel outputs. If (u, v) is a representative coordinate of the pupil division area of the imaging lens, the integral of equation (4) can be calculated by simple addition.

以上では、リフォーカスの方法について説明した。しかしながら、上述したリフォーカス面を、元の画像の撮像時のピント位置からリフォーカス範囲のピント位置に設定しないと、正しいリフォーカス画像が生成できない。その理由は、撮像レンズおよび絞りによる開口系や撮像部における撮像素子の画素ピッチなどにより撮像素子に入射する光線の角度分布、すなわち視差画像の視差量が制限されるためなどである。次に、リフォーカス範囲の算出方法について説明する。   The refocusing method has been described above. However, a correct refocus image cannot be generated unless the refocus plane described above is set from the focus position at the time of capturing the original image to the focus position in the refocus range. The reason is that the angular distribution of light rays incident on the image sensor, that is, the parallax amount of the parallax image is limited by the aperture system using the imaging lens and the diaphragm, the pixel pitch of the image sensor in the imaging unit, and the like. Next, a method for calculating the refocus range will be described.

<リフォーカス範囲の算出方法>
ここで、光の2次元強度分布をライトフィールドの空間成分と呼ぶ。このとき、リフォーカス範囲は、空間成分のサンプリングピッチΔyおよび角度成分のサンプリングピッチΔuにより決定され、その係数α±は以下の式(5)のように与えられる。
<Calculation method of refocus range>
Here, the two-dimensional intensity distribution of light is called a light field spatial component. At this time, the refocus range is determined by the sampling pitch Δy of the spatial component and the sampling pitch Δu of the angular component, and the coefficient α ± is given by the following equation (5).

Figure 2018050147

図6は、リフォーカス範囲を説明するための図である。式(1)を用いて表される像側のリフォーカス範囲(α+)・s2〜(α−)・s2と、結像光学系61に対して共役な範囲が、物体側のリフォーカス範囲となる。ここでs2は、結像光学系61の像側主平面と被写体面62に対する結像光学系61の像側共役面との間の距離である。
Figure 2018050147

FIG. 6 is a diagram for explaining the refocus range. The refocus range (α +) · s2 to (α−) · s2 on the image side represented by the expression (1) and the range conjugate to the imaging optical system 61 are the refocus range on the object side. Become. Here, s2 is the distance between the image-side main plane of the imaging optical system 61 and the image-side conjugate plane of the imaging optical system 61 with respect to the subject surface 62.

図6に示される構成例では、被写体面62上の同一の位置を撮像している画素の1次元的な周期が3画素となっているため、空間成分のサンプリングピッチΔyは、撮像素子の画素ピッチの3倍となる。角度成分のサンプリングピッチΔuは、結像光学系61の射出瞳が3分割(2次元では9分割)されているため、射出瞳径の1/3となる。式(5)で表されるリフォーカス範囲を超えると、取得したライトフィールドでは情報が不足し、正しいリフォーカス画像を生成することができない。式(5)は、撮像素子の画素ピッチΔが結像光学系61の瞳距離Pに対して十分小さいことから、次の式(6)のように近似できる。   In the configuration example shown in FIG. 6, since the one-dimensional period of the pixels capturing the same position on the subject surface 62 is three pixels, the sampling pitch Δy of the spatial component is the pixel of the image sensor. 3 times the pitch. The sampling pitch Δu of the angle component is 1/3 of the exit pupil diameter since the exit pupil of the imaging optical system 61 is divided into three (9 in two dimensions). If the refocus range represented by Expression (5) is exceeded, the acquired light field lacks information, and a correct refocus image cannot be generated. Expression (5) can be approximated as the following expression (6) because the pixel pitch Δ of the image sensor is sufficiently small with respect to the pupil distance P of the imaging optical system 61.

Figure 2018050147

ここで、結像光学系61の瞳距離Pとは、結像光学系61の射出瞳面と被写体面62に対する結像光学系61の像側共役面との間の距離である。また、Nは結像光学系61の瞳の1次元分割数、Fは結像光学系61のF値、ΔLAは画素配列20のピッチである。
Figure 2018050147

Here, the pupil distance P of the imaging optical system 61 is a distance between the exit pupil plane of the imaging optical system 61 and the image side conjugate plane of the imaging optical system 61 with respect to the subject surface 62. N is the one-dimensional division number of the pupil of the imaging optical system 61, F is the F value of the imaging optical system 61, and ΔLA is the pitch of the pixel array 20.

以上は、リフォーカス範囲の算出方法についての説明であった。なお、以下では、特に説明がなければ、「リフォーカス範囲」は、物体側のリフォーカス範囲を指す。   The above is the description of the refocus range calculation method. In the following description, “refocus range” refers to a refocus range on the object side unless otherwise specified.

<本実施形態のフローチャート>
図7は、本実施形態を説明するためのフローチャートである。
<Flowchart of this embodiment>
FIG. 7 is a flowchart for explaining the present embodiment.

ステップS701では、撮像部104は、被写体の距離情報を取得する。ステップS702で、制御部101は、被写体の距離情報、および、ユーザの設定に基づいて、ピント位置を設定する。一例としては、ユーザが最初にタッチパネルなどを使って、合焦をしようとする領域を指定し、撮像部104が該領域に対して距離情報を取得し、制御部101は、ユーザが指定した領域に基づいて、各画像のピント位置を設定する。   In step S701, the imaging unit 104 acquires distance information of the subject. In step S <b> 702, the control unit 101 sets a focus position based on subject distance information and user settings. As an example, the user first designates an area to be focused using a touch panel or the like, the imaging unit 104 acquires distance information for the area, and the control unit 101 designates an area designated by the user. Based on the above, the focus position of each image is set.

ステップS703では、光学系103がピント位置を変えながら、撮像部104は、設定した各々のピント位置で撮像するとともに、撮像した各々の画像の距離情報を取得する。   In step S703, while the optical system 103 changes the focus position, the imaging unit 104 captures images at each set focus position, and acquires distance information of each captured image.

ステップS704では、制御部101は、ステップS703での撮像の時、光軸方向への動きを含む手振れが生じていたかどうかを判断する。具体的に、撮像部104がステップS704で取得した距離情報に基づいて、撮像時のピント位置を算出する。算出した撮像時のピント位置と設定したピント位置と比較し、手振れしていたかどうかを判断する。一例としては、ピント位置の差の閾値を決め、算出した撮像時のピント位置と設定したピント位置とのが閾値以上であるとき、手振れしていたと判断する。または、装置動き検出部111が、撮像中の装置の動き動作を検出し、動きの幅が予め定められた閾値以上になると、手振れをしていたと判断する。装置動き検出部111が検出した装置の動き動作で手振れを判断する場合、ステップS704で、撮像時のピント位置を算出しなくてもよく、かわりに、ステップS705のリフォーカス画像の生成で撮像時のピント位置を算出する。   In step S704, the control unit 101 determines whether camera shake including movement in the optical axis direction has occurred during the imaging in step S703. Specifically, the focus position at the time of imaging is calculated based on the distance information acquired by the imaging unit 104 in step S704. The calculated focus position at the time of imaging is compared with the set focus position to determine whether or not the camera shake has occurred. As an example, a threshold value of a focus position difference is determined, and it is determined that camera shake has occurred when the calculated focus position and the set focus position are equal to or greater than the threshold value. Alternatively, the device motion detection unit 111 detects the motion motion of the device being imaged, and determines that the camera shake has occurred when the width of the motion exceeds a predetermined threshold value. When hand movement is determined based on the movement motion of the device detected by the device motion detection unit 111, it is not necessary to calculate the focus position at the time of imaging in step S704. Instead, at the time of imaging by generating the refocus image in step S705. The focus position of is calculated.

また、ここで、制御部101は、固定検知を行い、デジタルカメラが三脚などの固定部に固定されていると検知した場合、手振れしていないと判断するようにしてもよい。   Here, the control unit 101 may perform fixing detection, and may determine that there is no camera shake when detecting that the digital camera is fixed to a fixing unit such as a tripod.

手振れしていたと判断した場合、ステップS705に進み、リフォーカス画像の生成を行う。手振れしていないと判断した場合、リフォーカス処理を省き、処理時間を短縮するために、直接ステップS706に進み、画像合成を行う。ステップS706での画像合成では、公知の方法を用いてよく、一例としては、以下に述べる。まず、位置合わせのため、2つの画像の相対位置をずらしながら、これら複数の画像の画素の出力の差の絶対値総和(SAD:Sum Of Absolute Difference)を求める。この絶対値総和の値が最も小さくなるときの、2つの画像の相対的な移動量と移動方向を求める。そして、求めた移動量と移動方向に応じたアフィン変換もしくは射影変換の変換係数を算出した後、変換係数による移動量と絶対値総和から算出した移動量との誤差が最小となるように、最小二乗法を用いて変換係数を最適化する。その最適化された変換係数に基づいて、位置合わせの対象となる画像に対して、変形処理を行う。画像処理部107は、ステップS703で撮像部104が撮像したすべての画像に対して上述した位置合わせと変形処理とを行った後、各画像の各々の領域に対して、合成比率を与える。一例としては、画像処理部107は、同一領域に対応する複数の画像のうち、合焦している領域を有する画像の該当領域に含まれる画素に100%の合成比率を与え、ほかの画像の該当領域に含まれる画素に0%の合成比率を与える。あるいは、各領域の画像間の合焦の度合いに応じて、各画像の該当領域に合成比率を割り振るようにしてもよい。なお、合成境界での不自然さを防ぐため、画像処理部107は隣接画素間で合成比率が段階的に変化するようにする。最後に、各々の画素の合成比率に基づいて、合成画像を生成する。   If it is determined that camera shake has occurred, the process advances to step S705 to generate a refocus image. If it is determined that there is no camera shake, in order to omit the refocus process and shorten the processing time, the process directly proceeds to step S706 to perform image composition. In the image composition in step S706, a known method may be used, and an example will be described below. First, for alignment, the absolute value sum (SAD: Sum Of Absolute Difference) of the output differences of the pixels of the plurality of images is obtained while shifting the relative positions of the two images. The relative moving amount and moving direction of the two images when the absolute value sum is the smallest are obtained. Then, after calculating the conversion coefficient of the affine transformation or projective transformation according to the obtained movement amount and the movement direction, minimize the error between the movement amount by the conversion coefficient and the movement amount calculated from the absolute value sum. Optimize transform coefficients using the square method. Based on the optimized conversion coefficient, a deformation process is performed on the image to be aligned. The image processing unit 107 performs the above-described alignment and deformation processing on all the images captured by the imaging unit 104 in step S703, and then gives a composition ratio to each region of each image. As an example, the image processing unit 107 gives a 100% composition ratio to pixels included in a corresponding region of an image having a focused region among a plurality of images corresponding to the same region, A synthesis ratio of 0% is given to the pixels included in the corresponding area. Alternatively, the composition ratio may be assigned to the corresponding area of each image in accordance with the degree of focusing between the images in each area. In order to prevent unnaturalness at the synthesis boundary, the image processing unit 107 causes the synthesis ratio to change stepwise between adjacent pixels. Finally, a composite image is generated based on the composite ratio of each pixel.

次に、ステップS705のリフォーカス画像の生成について詳しく説明する。   Next, the generation of the refocus image in step S705 will be described in detail.

図8は、リフォーカス画像の生成を説明するための図である。ステップS801で、前述したように、制御部101は、リフォーカス範囲を算出する。次に、制御部101は、設定したピント位置と撮像時のピント位置との差に基づいて、リフォーカス補正量を算出する。ステップS803で、制御部101は、リフォーカス範囲とリフォーカス補正量とを比較し、リフォーカスが可能かどうかを判断する。リフォーカス補正量がリフォーカス範囲に超えると、リフォーカスが可能でないと判断し、ステップS804に進む。リフォーカス補正量がリフォーカス範囲以内であると、リフォーカスが可能であると判断し、直接、ステップS806に進み、画像処理部107が、リフォーカス処理を行う。   FIG. 8 is a diagram for explaining generation of a refocus image. In step S801, as described above, the control unit 101 calculates a refocus range. Next, the control unit 101 calculates a refocus correction amount based on the difference between the set focus position and the focus position at the time of imaging. In step S803, the control unit 101 compares the refocus range and the refocus correction amount, and determines whether refocusing is possible. If the refocus correction amount exceeds the refocus range, it is determined that refocus is not possible, and the process proceeds to step S804. If the refocus correction amount is within the refocus range, it is determined that refocusing is possible, and the process directly proceeds to step S806, where the image processing unit 107 performs refocus processing.

図9は、ステップS803でリフォーカスが可能と判断した場合のリフォーカス処理の一例を説明するための図である。図9(a)は、ステップS702で制御部101が設定したピント位置を示す。範囲91は、被写体に焦点が合っていない部分が発生しない範囲であり、焦点距離と撮像素子の許容錯乱円径から決められる。図9(a)では、範囲91ごとに、ピント位置を設定している。図9(b)は、撮像部104が実際撮像した時のピント位置を示す。1番のピント位置以外、全部設定したピント位置からずれていることを示している。2番と3番などでは、その前に撮像した画像との間のピント位置の距離が範囲91を超えてしまうことが発生し、このまま合成画像を生成すると、ぼけた部分が出てしまう恐れがある。そのため、リフォーカスを行う。図9(c)は、リフォーカス処理後のピント位置を示す。図9(c)のピント位置に書いてある番号は、図9(b)のどの番号のピント位置から得られたのかを意味し、番号2番のピント位置が2回リフォーカス処理を行われていることを示す。補正量92は、リフォーカス補正量を示す。前述したように、リフォーカス補正量が、リフォーカス範囲以内でないと、フォーカス補正ができない。ここで、複数の撮像時のピント位置のリフォーカス範囲内に、設定したピント位置がある場合、補正量の少ない撮像時のピント位置を用いてリフォーカスを行う。たとえば、設定した4番のピント位置は、3番と4番との撮像時のピント位置のどちらかのリフォーカス範囲にも入るとすると、より補正量の少ない番号3番の撮像時のピント位置を用いてリフォーカスを行うことが好ましい。   FIG. 9 is a diagram for explaining an example of the refocus process when it is determined in step S803 that refocus is possible. FIG. 9A shows the focus position set by the control unit 101 in step S702. The range 91 is a range in which a portion where the subject is not in focus does not occur, and is determined from the focal length and the allowable confusion circle diameter of the image sensor. In FIG. 9A, the focus position is set for each range 91. FIG. 9B shows a focus position when the imaging unit 104 actually captures an image. This indicates that all the focus positions other than the first focus position are deviated. In the case of No. 2 and No. 3, etc., the distance of the focus position between the images picked up before that may exceed the range 91, and if a composite image is generated as it is, there is a possibility that a blurred portion will appear. is there. Therefore, refocusing is performed. FIG. 9C shows the focus position after the refocus processing. The number written at the focus position in FIG. 9C means the number from which the focus position is obtained in FIG. 9B, and the refocus processing is performed twice for the focus position with the number 2. Indicates that A correction amount 92 indicates a refocus correction amount. As described above, focus correction cannot be performed unless the refocus correction amount is within the refocus range. Here, when the set focus position is within the refocus range of the focus position at the time of imaging, refocusing is performed using the focus position at the time of imaging with a small correction amount. For example, if the set focus position No. 4 falls within one of the refocus ranges of the focus positions for No. 3 and No. 4 imaging, the No. 3 focus position for No. 3 imaging with a smaller correction amount. It is preferable to perform refocusing using.

ステップS803で、制御部101は、リフォーカスが可能でないと判断した場合、ステップS804に進み、設定したピント位置の再設定を行う。次に、ステップS805で、再設定したピント位置に基づいて、リフォーカス補正量を変更する。最後に、ステップS806に進み、リフォーカス処理を行う。   If the control unit 101 determines in step S803 that refocusing is not possible, the control unit 101 proceeds to step S804 and resets the set focus position. In step S805, the refocus correction amount is changed based on the reset focus position. Finally, the process proceeds to step S806, and refocus processing is performed.

図10は、ステップS803でリフォーカスが可能でないと判断した場合のピント位置の再設定とその後のリフォーカス処理との一例を説明するための図である。図10(a)は、ステップS702で制御部101が設定したピント位置を示す。図10(b)は、撮像部104が実際撮像した時のピント位置を示す。図10(c)は、リフォーカス処理後のピント位置を示す。ここの処理では、番号2番と3番のピント位置をリフォーカス範囲の限度にピント位置を再設定し、再設定したピント位置に基づいて、等間隔になるように、ほかのピント位置を再設定する。   FIG. 10 is a diagram for explaining an example of resetting the focus position and subsequent refocus processing when it is determined in step S803 that refocusing is not possible. FIG. 10A shows the focus position set by the control unit 101 in step S702. FIG. 10B shows a focus position when the imaging unit 104 actually captures an image. FIG. 10C shows the focus position after the refocus processing. In this process, the focus position is re-set with the number 2 and 3 focus positions being the limits of the refocus range, and the other focus positions are reset so that they are equally spaced based on the re-set focus position. Set.

図10のように、制御部101が、初めに設定したピント位置までリフォーカスできないと判断した場合、リフォーカスできる範囲でピント位置の再設定を行う。   As illustrated in FIG. 10, when the control unit 101 determines that refocusing cannot be performed up to the initially set focus position, the focus position is reset within a refocusable range.

本実施形態によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、ピント位置のリフォーカスにより、手振れなどによる影響を低減し、より高画質の合成画像を得ることができる。   According to the present embodiment, when combining using a plurality of images picked up by changing the focus position, it is possible to reduce the influence of camera shake or the like by refocusing the focus position and obtain a higher-quality composite image. it can.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
The above embodiment has been described based on the implementation with a digital camera, but is not limited to a digital camera. For example, it may be implemented by a portable device with a built-in image sensor or a network camera capable of capturing an image.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Note that the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
101 制御部
102 駆動部
103 光学系
104 撮像部
105 ROM
106 RAM
107 画像処理部
108 表示部
109 内蔵メモリ
110 操作部
111 装置動き検出部
DESCRIPTION OF SYMBOLS 100 Digital camera 101 Control part 102 Drive part 103 Optical system 104 Imaging part 105 ROM
106 RAM
107 Image processing unit 108 Display unit 109 Built-in memory 110 Operation unit 111 Device motion detection unit

Claims (16)

光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成手段と、
前記光学系のピント位置を設定するピント位置の設定手段と、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、
前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置。
Combining means for combining a plurality of images taken while changing the focus position of the optical system, and generating a combined image;
A focus position setting means for setting a focus position of the optical system;
Refocusing means for reconstructing an image with different focus positions of the captured image,
The imaging apparatus according to claim 1, wherein the refocusing unit reconstructs an image with a different focus position based on a difference between the set focus position and a focus position when the image is captured.
前記画像を撮像する撮像部を有し、
前記撮像部は、1つのマイクロレンズに対して、複数の光電変換部を有することを特徴とする請求項1に記載の撮像装置。
An imaging unit that captures the image;
The imaging apparatus according to claim 1, wherein the imaging unit includes a plurality of photoelectric conversion units for one microlens.
前記リフォーカス手段は、前記撮像した画像のピント位置の少なくとも一部を、前記設定したピント位置のいずれかになるように、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする請求項1または2に記載の撮像装置。   The refocusing unit reconstructs an image with a different focus position so that at least a part of the focus position of the captured image becomes one of the set focus positions. The imaging device according to claim 1 or 2. 前記リフォーカス手段は、前記設定したピント位置と最も近いピント位置をもつ撮像した画像を用いて、前記設定したピント位置になるように、前記画像のピント位置を異ならせた画像の再構成を行うことを特徴とする請求項3に記載の撮像装置。   The refocusing unit reconstructs an image in which the focus position of the image is changed so as to be the set focus position, using a captured image having a focus position closest to the set focus position. The imaging apparatus according to claim 3. 撮像時の手振れ情報を取得する手振れ情報の取得手段を有し、
前記リフォーカス手段は、前記手振れ情報に基づいて、前記ピント位置を異ならせた画像の再構成を行うかどうかを決めることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
It has a camera shake information acquisition means for acquiring camera shake information at the time of imaging,
5. The imaging apparatus according to claim 1, wherein the refocusing unit determines whether to reconstruct an image with a different focus position based on the camera shake information. .
前記手振れ情報の取得手段は、前記設定したピント位置と前記撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うかどうかを決めることを特徴とする請求項5に記載の撮像装置。   The camera shake information acquisition means determines whether to reconstruct an image with a different focus position based on a difference between the set focus position and the focus position at the time of imaging. The imaging device according to claim 5. 前記手振れ情報の取得手段は、前記設定したピント位置と前記撮像するときのピント位置との違いが、予め定められた閾値以上であるとき、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする請求項6に記載の撮像装置。   The camera shake information acquisition means reconstructs an image with a different focus position when a difference between the set focus position and the focus position at the time of imaging is equal to or greater than a predetermined threshold. The imaging apparatus according to claim 6. 前記撮像装置が撮像するとき、固定部に固定されているかどうかを検知する固定検知手段を有し、
前記リフォーカス手段は、前記撮像装置が前記固定部に固定されているうち撮像した画像に対して、前記ピント位置を異ならせた画像の再構成を行わないことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
When the image pickup apparatus picks up an image, the image pickup apparatus has a fixed detection means for detecting whether or not the image pickup apparatus is fixed to a fixed portion,
8. The refocusing unit according to claim 1, wherein the refocusing unit does not reconstruct an image obtained by changing the focus position with respect to an image captured while the imaging device is fixed to the fixing unit. The imaging device according to any one of the above.
前記固定部は三脚であることを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the fixing unit is a tripod. リフォーカス範囲を算出するリフォーカス範囲の算出手段を有し、
前記リフォーカス手段は、前記リフォーカス範囲の範囲内で、前記画像のピント位置を異ならせた画像の再構成を行うことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
Having a refocus range calculation means for calculating the refocus range;
10. The imaging apparatus according to claim 1, wherein the refocusing unit reconstructs an image with a different focus position of the image within the refocusing range. .
前記画像のピント位置を再設定するピント位置の再設定手段を有し、
前記ピント位置の設定手段が設定したピント位置は、前記撮像した画像のいずれかのピント位置のリフォーカス範囲にないとき、
前記ピント位置の再設定手段は、前記設定したピント位置を再設定することを特徴とする請求項10に記載の撮像装置。
A focus position resetting unit for resetting the focus position of the image;
When the focus position set by the focus position setting means is not within the refocus range of any focus position of the captured image,
The imaging apparatus according to claim 10, wherein the focus position resetting unit resets the set focus position.
前記ピント位置の再設定手段は、前記撮像した画像のピント位置のリフォーカス範囲の限度にあたる位置で、前記設定したピント位置を再設定することを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the focus position resetting unit resets the set focus position at a position corresponding to a limit of a refocus range of a focus position of the captured image. 前記ピント位置の再設定手段は、少なくとも一部の再設定した後のピント位置が、等間隔になるように、前記再設定を行うことを特徴とする請求項11または12に記載の撮像装置。   The imaging apparatus according to claim 11 or 12, wherein the focus position resetting unit performs the resetting so that at least a part of the focus positions after resetting are at equal intervals. 前記設定したピント位置は、複数の前記撮像した画像のピント位置の前記リフォーカス範囲にあるとき、
前記複数の前記撮像した画像のうち、リフォーカス補正量の最も少ないものに対して、前記設定したピント位置になるようにリフォーカスを行うことを特徴とする請求項10乃至13のいずれか1項に記載の撮像装置。
When the set focus position is within the refocus range of the focus positions of the plurality of captured images,
14. The refocusing is performed on the image having the smallest amount of refocus correction among the plurality of the captured images so that the set focus position is obtained. The imaging device described in 1.
光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成ステップと、
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を有し、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像方法。
Combining a plurality of images captured while changing the focus position of the optical system and generating a combined image;
A focus position setting step for setting a focus position of the optical system;
A refocusing step for reconstructing an image with a different focus position of the captured image,
In the refocusing step, an image is reconstructed based on a difference between the set focus position and a focus position when the image is captured, and the focus position is changed.
撮像装置のコンピュータに動作させるプログラムであって、
前記コンピュータに、
光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成ステップと、
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を行わせ、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とするコンピュータのプログラム。
A program for causing a computer of an imaging apparatus to operate,
In the computer,
Combining a plurality of images captured while changing the focus position of the optical system and generating a combined image;
A focus position setting step for setting a focus position of the optical system;
A refocusing step for reconstructing an image with a different focus position of the captured image, and
A computer program characterized in that in the refocusing step, an image with a different focus position is reconstructed based on a difference between the set focus position and a focus position when the image is captured.
JP2016183798A 2016-09-21 2016-09-21 Imaging device, imaging method, and program Active JP6728005B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016183798A JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program
CN201710805640.3A CN107864315B (en) 2016-09-21 2017-09-08 Image pickup apparatus, control method of image pickup apparatus, and recording medium
US15/709,241 US10530994B2 (en) 2016-09-21 2017-09-19 Image capture apparatus, control method for image capture apparatus and non-transitory recording medium for combining image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183798A JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2018050147A true JP2018050147A (en) 2018-03-29
JP2018050147A5 JP2018050147A5 (en) 2019-09-12
JP6728005B2 JP6728005B2 (en) 2020-07-22

Family

ID=61767848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183798A Active JP6728005B2 (en) 2016-09-21 2016-09-21 Imaging device, imaging method, and program

Country Status (1)

Country Link
JP (1) JP6728005B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106744A1 (en) 2018-03-16 2019-09-19 Panasonic Intellectual Property Management Co., Ltd. Rotary device for rotating a Rotationsobjeks and head-up display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338901A (en) * 2004-05-24 2005-12-08 Matsushita Electric Ind Co Ltd Imaging device and imaging method
JP2013161065A (en) * 2012-02-09 2013-08-19 Canon Inc Imaging device
JP2014155121A (en) * 2013-02-12 2014-08-25 Canon Inc Image processing system, imaging apparatus, control method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338901A (en) * 2004-05-24 2005-12-08 Matsushita Electric Ind Co Ltd Imaging device and imaging method
JP2013161065A (en) * 2012-02-09 2013-08-19 Canon Inc Imaging device
JP2014155121A (en) * 2013-02-12 2014-08-25 Canon Inc Image processing system, imaging apparatus, control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019106744A1 (en) 2018-03-16 2019-09-19 Panasonic Intellectual Property Management Co., Ltd. Rotary device for rotating a Rotationsobjeks and head-up display device

Also Published As

Publication number Publication date
JP6728005B2 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN107864315B (en) Image pickup apparatus, control method of image pickup apparatus, and recording medium
JP6047025B2 (en) Imaging apparatus and control method thereof
US9681037B2 (en) Imaging apparatus and its control method and program
JP5938281B2 (en) Imaging apparatus, control method therefor, and program
JP2002112099A (en) Apparatus and method for repairing image
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP6752685B2 (en) Imaging equipment, imaging methods and programs
JP6162971B2 (en) Image processing apparatus, image processing method, imaging apparatus, and control method thereof
US10681260B2 (en) Focus detection device and focus detection method
JP6728005B2 (en) Imaging device, imaging method, and program
JP2010272957A (en) Image correction apparatus and program thereof
JP6678505B2 (en) Imaging device, control method therefor, program, and storage medium
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6478587B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP4682010B2 (en) Imaging device
JP6566800B2 (en) Imaging apparatus and imaging method
JP7187185B2 (en) Imaging device and its control method
JP2012147087A (en) Apparatus and method for generating image
JP2019047145A (en) Image processing system, imaging apparatus, control method and program of image processing system
JP6590561B2 (en) Image processing apparatus, imaging apparatus, and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6728005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151