JP2018050147A - Imaging apparatus, imaging method and program - Google Patents
Imaging apparatus, imaging method and program Download PDFInfo
- Publication number
- JP2018050147A JP2018050147A JP2016183798A JP2016183798A JP2018050147A JP 2018050147 A JP2018050147 A JP 2018050147A JP 2016183798 A JP2016183798 A JP 2016183798A JP 2016183798 A JP2016183798 A JP 2016183798A JP 2018050147 A JP2018050147 A JP 2018050147A
- Authority
- JP
- Japan
- Prior art keywords
- focus position
- image
- imaging
- refocusing
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像合成を行う撮像装置に関するものである。 The present invention relates to an imaging apparatus that performs image composition.
カメラからの距離が異なる複数の被写体を撮像する場合、あるいは、奥行き方向に長い被写体を撮像する場合に、撮像光学系における被写界深度が足りないために、被写体の一部にしかピントを合わせられない場合がある。そこで、ピント位置を変化させて複数の画像を撮像し、各画像から合焦している領域のみを抽出して1枚の画像を合成して撮像領域全体に合焦している合成画像を生成する技術(以下、深度合成という)が知られている(特許文献1を参照)。この深度合成の技術を用いることで、意図する被写体の全体に対してピントを合わせた画像を得ることができる。 When shooting multiple subjects with different distances from the camera, or when shooting subjects that are long in the depth direction, the depth of field in the imaging optical system is insufficient. It may not be possible. Therefore, a plurality of images are picked up by changing the focus position, only a focused area is extracted from each image, and a single image is synthesized to generate a composite image focused on the entire imaging area. Technology (hereinafter referred to as depth synthesis) is known (see Patent Document 1). By using this depth synthesis technique, it is possible to obtain an image in which the entire intended subject is in focus.
しかしながら、深度合成の技術を用いて撮像する場合、手振れなどが発生すると、以下の課題が生じることがある。 However, when imaging is performed using the technique of depth synthesis, the following problems may occur when camera shake or the like occurs.
図11は、深度合成における手振れを説明するための図である。図11(a)は理想的な深度合成を用いる撮像を説明するための図である。図11(a)では、ユーザがデジタルカメラを1101に置き、所定の距離1102ずつピント位置を移動させながら複数回撮像を行う。
FIG. 11 is a diagram for explaining camera shake in depth synthesis. FIG. 11A is a diagram for explaining imaging using ideal depth synthesis. In FIG. 11A, the user places the digital camera on 1101 and performs imaging a plurality of times while moving the focus position by a
図11(b)は図11(a)での撮像において、3枚目の画像を撮像するとき、手振れが発生してしまった場合を示す。撮像位置1101が光軸方向で後方にずれたことで、本来撮像されるべき距離よりも近い位置にピント位置が来る。さらに、図11(c)のように、4枚目の画像を撮像するとき、図11(b)の手振れの方向と反対する方向へ手振れが発生してしまった場合を示す。この場合4枚目の画像は本来撮像されるべきピント位置よりも遠くなっている。図11(c)で撮像された複数の画像を用いて合成処理を行うと、領域1103において合焦している画像が存在せず、合成画像にはぼけた部分が残ってしまう。
FIG. 11B shows a case where camera shake has occurred when the third image is captured in the imaging in FIG. Since the
本発明は、以上の課題を鑑みてなされたもので、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、画像のピント位置を補正し、手振れなどによるぼけを低減させる合成画像を生成できる撮像装置を提供することが目的とする。 The present invention has been made in view of the above problems, and when combining using a plurality of images picked up by changing the focus position, a composite image that corrects the focus position of the image and reduces blur due to camera shake or the like. It is an object to provide an imaging device capable of generating
本発明は、光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成手段と、前記光学系のピント位置を設定するピント位置の設定手段と、前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置を提供するものである。 The present invention combines a plurality of images captured while changing the focus position of the optical system, generates a composite image, a focus position setting means for setting the focus position of the optical system, Refocusing means for reconstructing an image with a different focus position of the captured image, and the refocusing means is different from the set focus position and the focus position when capturing the image. The present invention provides an image pickup apparatus that reconstructs an image with a different focus position.
本発明によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、手振れなどによるぼけを低減させる合成画像を生成できる。 According to the present invention, when combining using a plurality of images picked up by changing the focus position, it is possible to generate a combined image that reduces blur due to camera shake or the like.
以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下の説明では、デジタルカメラを例にあげて説明を行うが、デジタルカメラに限定されるわけでなく、ピント位置の情報の取り入れ、および撮像した画像のピント位置の補正ができる撮像装置を用いれば、本発明を適用することができる。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a digital camera will be described as an example. However, the present invention is not limited to a digital camera, and an imaging apparatus capable of taking in focus position information and correcting the focus position of a captured image is described. If used, the present invention can be applied.
(本発明の実施形態の一例)
図1は本実施形態に係るデジタルカメラの構造を示すブロック図である。デジタルカメラ100は、静止画を撮像することができ、かつ、合焦位置の情報を記録し、コントラスト値の算出および画像の合成が可能なものである。さらに、デジタルカメラ100は、撮像して保存した画像、または、外部から入力した画像に対して、拡大処理または縮小処理を行うことができる。
(Example of embodiment of the present invention)
FIG. 1 is a block diagram showing the structure of a digital camera according to this embodiment. The
制御部101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。
The
駆動部102は、モーターなどによって構成され、制御部101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御部101の指令に基づいて、駆動部102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103のピント位置を調整する。
The drive unit 102 is configured by a motor or the like, and mechanically operates an
光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。レンズの位置を変えることによって、合焦位置を変えることができる。
The
撮像部104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像部104に、CCDやCMOSセンサなどを適用することができる。撮像部104は、動画撮像モードを設け、時間的に連続する複数の画像を動画の各々のフレームとして、撮像することができる。 The imaging unit 104 is a photoelectric conversion element, and performs photoelectric conversion that converts an incident optical signal into an electrical signal. For example, a CCD or a CMOS sensor can be applied to the imaging unit 104. The imaging unit 104 is provided with a moving image capturing mode, and can capture a plurality of temporally continuous images as each frame of the moving image.
図2は、本実施形態における撮像部104を構成するセンサのアレイを説明するための図である。複数の光電変換部201に対して1つのマイクロレンズ21が対応するように配置されている。1つのマイクロレンズ後方にある複数の光電変換部201をまとめて画素配列20と定義する。なお、図2では画素配列20には、光電変換部201が5行5列の計25個あるが、これに限られるわけではない。
FIG. 2 is a diagram for explaining an array of sensors constituting the imaging unit 104 in the present embodiment. One
図3は、本実施形態において、光信号の画素への入射を説明するための図である。 FIG. 3 is a diagram for explaining the incidence of an optical signal on a pixel in the present embodiment.
図3は、撮像レンズ31から出射された光が1つのマイクロレンズ21を通過して撮像素子32で受光される様子を光軸に対して垂直方向から観察した図である。撮像レンズ31の各瞳領域a1〜a5から出射され、マイクロレンズ21を通過した光は、後方の対応する光電変換部p1〜p5でそれぞれ結像する。
FIG. 3 is a diagram in which a state in which light emitted from the
図2で示したような撮像部を用いて、1つのマイクロレンズに対応する複数の光電変換部で取得した光信号を用いて、被写体距離の情報を取得することができる。 Using the imaging unit as illustrated in FIG. 2, it is possible to acquire subject distance information using optical signals acquired by a plurality of photoelectric conversion units corresponding to one microlens.
ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
The
画像処理部107は、撮像部104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像部104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。
The
画像処理部107を、図2で示したような、1つのマイクロレンズに複数の光電変換部が対応する構造を有する撮像部と併用すると、一定の範囲内のピント位置にピントを合わせた画像を撮像した後に再構成(リフォーカス)することができる。ここでいう「一定の範囲」はリフォーカス範囲といい、詳細は後述する。
When the
画像処理部107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM105から読み出したプログラムに従って処理することで、制御部101が画像処理部107の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部107の全ての機能を兼用する場合には、画像処理部107をハードウェアとして有する必要はなくなる。
The
表示部108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。
The display unit 108 is an image temporarily stored in the
内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。
The built-in
操作部110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、表示部108に兼用されるタッチパネルなどである。ユーザによる指令は、操作部110を経由して、制御部101に達する。
The
装置動き検出部111はジャイロセンサによって構成され、デジタルカメラ100の動きを検出するデバイスであり、デジタルカメラ100の単位時間当たりの角度変化、すなわち角速度に基づいてヨー方向とピッチ方向の動きを検出する。
The apparatus
<リフォーカスの方法>
ここで、一定の範囲内の被写体に対応したピント位置(リフォーカス面)を算出する方法について説明する。
<How to refocus>
Here, a method for calculating a focus position (refocus plane) corresponding to a subject within a certain range will be described.
図4(a)は撮像レンズ31の開口を光軸方向から見た図である。図4(b)は1つのマイクロレンズ21とその後方に配置された画素配列20を光軸方向から見た図である。図4(a)に示すように撮像レンズ31の瞳領域を1つのマイクロレンズ後方にある光電変換部と同数の領域に分割した場合、1つの光電変換部には撮像レンズ31の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮像レンズ31とマイクロレンズ21に示したナンバーがほぼ一致しているものとする。
FIG. 4A is a view of the aperture of the
図4(a)に示す撮像レンズ31の瞳分割領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮像レンズ31の瞳分割領域a11から出射した光はマイクロレンズ後方にある画素配列20のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のマイクロレンズ21を通過する光も、そのマイクロレンズ後方にある画素配列20の中の画素p11に結像する。
The correspondence between the pupil division regions a11 to a55 of the
画素配列20の各光電変換部は、撮像レンズ31に対して互いに異なる瞳領域を通過した光を受光している。これらの分割信号から複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。
Each photoelectric conversion unit of the
式(1)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の左側領域(瞳領域a11〜a52)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をA像とする。また、式(2)は、ある画素配列20の各光電変換部について、撮像レンズ31の射出瞳の右側領域(瞳領域a14〜a55)を通過した光を積分したものである。これを水平方向に並ぶ複数の画素配列20に適用し、これらの出力信号群で構成した被写体像をB像とする。A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮像レンズ31の焦点位置と光学系から決まる変換係数を乗じることで、画面内の被写体に対応したピント位置を算出することができる。
Expression (1) is obtained by integrating the light passing through the left area (pupil areas a11 to a52) of the exit pupil of the
次に、撮像部104によって取得された撮像データに対して、設定したピント位置であるリフォーカス面での画像の再構成処理について説明する。 Next, an image reconstruction process on the refocus plane that is the set focus position with respect to the imaging data acquired by the imaging unit 104 will be described.
図5は、リフォーカス面の計算を説明するための図である。図5では、設定したリフォーカス面上のある画素を通過する光が、撮像レンズのどの瞳分割領域から出射され、どのマイクロレンズへ入射するかを光軸Zに対して垂直方向から見る。図5において、撮像レンズ31の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x,y)、マイクロレンズアレイ上のマイクロレンズの位置を座標(x’,y’)とする。また、撮像レンズからマイクロレンズアレイまでの距離をF、撮像レンズからリフォーカス面までの距離をαFとする。αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザが設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。図5に示すように、座標(u,v)と座標(x,y)を通過した光は、マイクロレンズアレイ上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。
FIG. 5 is a diagram for explaining the calculation of the refocus plane. In FIG. 5, the light passing through a certain pixel on the set refocus plane is emitted from which pupil division region of the imaging lens and to which microlens is viewed from the direction perpendicular to the optical axis Z. In FIG. 5, the position of the pupil division area of the
そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮像レンズの瞳領域に関して積分したものとなるため、式(4)のようになる。
When the output of the pixel receiving this light is L (x ′, y ′, u, v), the output E (x, y) obtained with the coordinates (x, y) on the refocus plane is L Since (x ′, y ′, u, v) is integrated with respect to the pupil region of the imaging lens, Equation (4) is obtained.
式(4)において、リフォーカス係数αはユーザによって決定されるため、(x,y)、(u,v)を与えれば、光の入射するマイクロレンズの位置(x’,y’)がわかる。そして、そのマイクロレンズに対応する画素配列20から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)が算出できる。なお、(u,v)を撮像レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。
In equation (4), since the refocus coefficient α is determined by the user, if (x, y) and (u, v) are given, the position (x ′, y ′) of the microlens where the light enters can be known. . Then, the pixel corresponding to the position (u, v) is known from the
以上では、リフォーカスの方法について説明した。しかしながら、上述したリフォーカス面を、元の画像の撮像時のピント位置からリフォーカス範囲のピント位置に設定しないと、正しいリフォーカス画像が生成できない。その理由は、撮像レンズおよび絞りによる開口系や撮像部における撮像素子の画素ピッチなどにより撮像素子に入射する光線の角度分布、すなわち視差画像の視差量が制限されるためなどである。次に、リフォーカス範囲の算出方法について説明する。 The refocusing method has been described above. However, a correct refocus image cannot be generated unless the refocus plane described above is set from the focus position at the time of capturing the original image to the focus position in the refocus range. The reason is that the angular distribution of light rays incident on the image sensor, that is, the parallax amount of the parallax image is limited by the aperture system using the imaging lens and the diaphragm, the pixel pitch of the image sensor in the imaging unit, and the like. Next, a method for calculating the refocus range will be described.
<リフォーカス範囲の算出方法>
ここで、光の2次元強度分布をライトフィールドの空間成分と呼ぶ。このとき、リフォーカス範囲は、空間成分のサンプリングピッチΔyおよび角度成分のサンプリングピッチΔuにより決定され、その係数α±は以下の式(5)のように与えられる。
<Calculation method of refocus range>
Here, the two-dimensional intensity distribution of light is called a light field spatial component. At this time, the refocus range is determined by the sampling pitch Δy of the spatial component and the sampling pitch Δu of the angular component, and the coefficient α ± is given by the following equation (5).
図6は、リフォーカス範囲を説明するための図である。式(1)を用いて表される像側のリフォーカス範囲(α+)・s2〜(α−)・s2と、結像光学系61に対して共役な範囲が、物体側のリフォーカス範囲となる。ここでs2は、結像光学系61の像側主平面と被写体面62に対する結像光学系61の像側共役面との間の距離である。
FIG. 6 is a diagram for explaining the refocus range. The refocus range (α +) · s2 to (α−) · s2 on the image side represented by the expression (1) and the range conjugate to the imaging
図6に示される構成例では、被写体面62上の同一の位置を撮像している画素の1次元的な周期が3画素となっているため、空間成分のサンプリングピッチΔyは、撮像素子の画素ピッチの3倍となる。角度成分のサンプリングピッチΔuは、結像光学系61の射出瞳が3分割(2次元では9分割)されているため、射出瞳径の1/3となる。式(5)で表されるリフォーカス範囲を超えると、取得したライトフィールドでは情報が不足し、正しいリフォーカス画像を生成することができない。式(5)は、撮像素子の画素ピッチΔが結像光学系61の瞳距離Pに対して十分小さいことから、次の式(6)のように近似できる。
In the configuration example shown in FIG. 6, since the one-dimensional period of the pixels capturing the same position on the subject surface 62 is three pixels, the sampling pitch Δy of the spatial component is the pixel of the image sensor. 3 times the pitch. The sampling pitch Δu of the angle component is 1/3 of the exit pupil diameter since the exit pupil of the imaging
ここで、結像光学系61の瞳距離Pとは、結像光学系61の射出瞳面と被写体面62に対する結像光学系61の像側共役面との間の距離である。また、Nは結像光学系61の瞳の1次元分割数、Fは結像光学系61のF値、ΔLAは画素配列20のピッチである。
Here, the pupil distance P of the imaging
以上は、リフォーカス範囲の算出方法についての説明であった。なお、以下では、特に説明がなければ、「リフォーカス範囲」は、物体側のリフォーカス範囲を指す。 The above is the description of the refocus range calculation method. In the following description, “refocus range” refers to a refocus range on the object side unless otherwise specified.
<本実施形態のフローチャート>
図7は、本実施形態を説明するためのフローチャートである。
<Flowchart of this embodiment>
FIG. 7 is a flowchart for explaining the present embodiment.
ステップS701では、撮像部104は、被写体の距離情報を取得する。ステップS702で、制御部101は、被写体の距離情報、および、ユーザの設定に基づいて、ピント位置を設定する。一例としては、ユーザが最初にタッチパネルなどを使って、合焦をしようとする領域を指定し、撮像部104が該領域に対して距離情報を取得し、制御部101は、ユーザが指定した領域に基づいて、各画像のピント位置を設定する。
In step S701, the imaging unit 104 acquires distance information of the subject. In step S <b> 702, the
ステップS703では、光学系103がピント位置を変えながら、撮像部104は、設定した各々のピント位置で撮像するとともに、撮像した各々の画像の距離情報を取得する。
In step S703, while the
ステップS704では、制御部101は、ステップS703での撮像の時、光軸方向への動きを含む手振れが生じていたかどうかを判断する。具体的に、撮像部104がステップS704で取得した距離情報に基づいて、撮像時のピント位置を算出する。算出した撮像時のピント位置と設定したピント位置と比較し、手振れしていたかどうかを判断する。一例としては、ピント位置の差の閾値を決め、算出した撮像時のピント位置と設定したピント位置とのが閾値以上であるとき、手振れしていたと判断する。または、装置動き検出部111が、撮像中の装置の動き動作を検出し、動きの幅が予め定められた閾値以上になると、手振れをしていたと判断する。装置動き検出部111が検出した装置の動き動作で手振れを判断する場合、ステップS704で、撮像時のピント位置を算出しなくてもよく、かわりに、ステップS705のリフォーカス画像の生成で撮像時のピント位置を算出する。
In step S704, the
また、ここで、制御部101は、固定検知を行い、デジタルカメラが三脚などの固定部に固定されていると検知した場合、手振れしていないと判断するようにしてもよい。
Here, the
手振れしていたと判断した場合、ステップS705に進み、リフォーカス画像の生成を行う。手振れしていないと判断した場合、リフォーカス処理を省き、処理時間を短縮するために、直接ステップS706に進み、画像合成を行う。ステップS706での画像合成では、公知の方法を用いてよく、一例としては、以下に述べる。まず、位置合わせのため、2つの画像の相対位置をずらしながら、これら複数の画像の画素の出力の差の絶対値総和(SAD:Sum Of Absolute Difference)を求める。この絶対値総和の値が最も小さくなるときの、2つの画像の相対的な移動量と移動方向を求める。そして、求めた移動量と移動方向に応じたアフィン変換もしくは射影変換の変換係数を算出した後、変換係数による移動量と絶対値総和から算出した移動量との誤差が最小となるように、最小二乗法を用いて変換係数を最適化する。その最適化された変換係数に基づいて、位置合わせの対象となる画像に対して、変形処理を行う。画像処理部107は、ステップS703で撮像部104が撮像したすべての画像に対して上述した位置合わせと変形処理とを行った後、各画像の各々の領域に対して、合成比率を与える。一例としては、画像処理部107は、同一領域に対応する複数の画像のうち、合焦している領域を有する画像の該当領域に含まれる画素に100%の合成比率を与え、ほかの画像の該当領域に含まれる画素に0%の合成比率を与える。あるいは、各領域の画像間の合焦の度合いに応じて、各画像の該当領域に合成比率を割り振るようにしてもよい。なお、合成境界での不自然さを防ぐため、画像処理部107は隣接画素間で合成比率が段階的に変化するようにする。最後に、各々の画素の合成比率に基づいて、合成画像を生成する。
If it is determined that camera shake has occurred, the process advances to step S705 to generate a refocus image. If it is determined that there is no camera shake, in order to omit the refocus process and shorten the processing time, the process directly proceeds to step S706 to perform image composition. In the image composition in step S706, a known method may be used, and an example will be described below. First, for alignment, the absolute value sum (SAD: Sum Of Absolute Difference) of the output differences of the pixels of the plurality of images is obtained while shifting the relative positions of the two images. The relative moving amount and moving direction of the two images when the absolute value sum is the smallest are obtained. Then, after calculating the conversion coefficient of the affine transformation or projective transformation according to the obtained movement amount and the movement direction, minimize the error between the movement amount by the conversion coefficient and the movement amount calculated from the absolute value sum. Optimize transform coefficients using the square method. Based on the optimized conversion coefficient, a deformation process is performed on the image to be aligned. The
次に、ステップS705のリフォーカス画像の生成について詳しく説明する。 Next, the generation of the refocus image in step S705 will be described in detail.
図8は、リフォーカス画像の生成を説明するための図である。ステップS801で、前述したように、制御部101は、リフォーカス範囲を算出する。次に、制御部101は、設定したピント位置と撮像時のピント位置との差に基づいて、リフォーカス補正量を算出する。ステップS803で、制御部101は、リフォーカス範囲とリフォーカス補正量とを比較し、リフォーカスが可能かどうかを判断する。リフォーカス補正量がリフォーカス範囲に超えると、リフォーカスが可能でないと判断し、ステップS804に進む。リフォーカス補正量がリフォーカス範囲以内であると、リフォーカスが可能であると判断し、直接、ステップS806に進み、画像処理部107が、リフォーカス処理を行う。
FIG. 8 is a diagram for explaining generation of a refocus image. In step S801, as described above, the
図9は、ステップS803でリフォーカスが可能と判断した場合のリフォーカス処理の一例を説明するための図である。図9(a)は、ステップS702で制御部101が設定したピント位置を示す。範囲91は、被写体に焦点が合っていない部分が発生しない範囲であり、焦点距離と撮像素子の許容錯乱円径から決められる。図9(a)では、範囲91ごとに、ピント位置を設定している。図9(b)は、撮像部104が実際撮像した時のピント位置を示す。1番のピント位置以外、全部設定したピント位置からずれていることを示している。2番と3番などでは、その前に撮像した画像との間のピント位置の距離が範囲91を超えてしまうことが発生し、このまま合成画像を生成すると、ぼけた部分が出てしまう恐れがある。そのため、リフォーカスを行う。図9(c)は、リフォーカス処理後のピント位置を示す。図9(c)のピント位置に書いてある番号は、図9(b)のどの番号のピント位置から得られたのかを意味し、番号2番のピント位置が2回リフォーカス処理を行われていることを示す。補正量92は、リフォーカス補正量を示す。前述したように、リフォーカス補正量が、リフォーカス範囲以内でないと、フォーカス補正ができない。ここで、複数の撮像時のピント位置のリフォーカス範囲内に、設定したピント位置がある場合、補正量の少ない撮像時のピント位置を用いてリフォーカスを行う。たとえば、設定した4番のピント位置は、3番と4番との撮像時のピント位置のどちらかのリフォーカス範囲にも入るとすると、より補正量の少ない番号3番の撮像時のピント位置を用いてリフォーカスを行うことが好ましい。
FIG. 9 is a diagram for explaining an example of the refocus process when it is determined in step S803 that refocus is possible. FIG. 9A shows the focus position set by the
ステップS803で、制御部101は、リフォーカスが可能でないと判断した場合、ステップS804に進み、設定したピント位置の再設定を行う。次に、ステップS805で、再設定したピント位置に基づいて、リフォーカス補正量を変更する。最後に、ステップS806に進み、リフォーカス処理を行う。
If the
図10は、ステップS803でリフォーカスが可能でないと判断した場合のピント位置の再設定とその後のリフォーカス処理との一例を説明するための図である。図10(a)は、ステップS702で制御部101が設定したピント位置を示す。図10(b)は、撮像部104が実際撮像した時のピント位置を示す。図10(c)は、リフォーカス処理後のピント位置を示す。ここの処理では、番号2番と3番のピント位置をリフォーカス範囲の限度にピント位置を再設定し、再設定したピント位置に基づいて、等間隔になるように、ほかのピント位置を再設定する。
FIG. 10 is a diagram for explaining an example of resetting the focus position and subsequent refocus processing when it is determined in step S803 that refocusing is not possible. FIG. 10A shows the focus position set by the
図10のように、制御部101が、初めに設定したピント位置までリフォーカスできないと判断した場合、リフォーカスできる範囲でピント位置の再設定を行う。
As illustrated in FIG. 10, when the
本実施形態によれば、ピント位置を変化させて撮像した複数の画像を用いて合成するとき、ピント位置のリフォーカスにより、手振れなどによる影響を低減し、より高画質の合成画像を得ることができる。 According to the present embodiment, when combining using a plurality of images picked up by changing the focus position, it is possible to reduce the influence of camera shake or the like by refocusing the focus position and obtain a higher-quality composite image. it can.
(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
(Other embodiments)
The above embodiment has been described based on the implementation with a digital camera, but is not limited to a digital camera. For example, it may be implemented by a portable device with a built-in image sensor or a network camera capable of capturing an image.
なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Note that the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 デジタルカメラ
101 制御部
102 駆動部
103 光学系
104 撮像部
105 ROM
106 RAM
107 画像処理部
108 表示部
109 内蔵メモリ
110 操作部
111 装置動き検出部
DESCRIPTION OF
106 RAM
107 Image processing unit 108
Claims (16)
前記光学系のピント位置を設定するピント位置の設定手段と、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカス手段と、を有し、
前記リフォーカス手段は、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像装置。 Combining means for combining a plurality of images taken while changing the focus position of the optical system, and generating a combined image;
A focus position setting means for setting a focus position of the optical system;
Refocusing means for reconstructing an image with different focus positions of the captured image,
The imaging apparatus according to claim 1, wherein the refocusing unit reconstructs an image with a different focus position based on a difference between the set focus position and a focus position when the image is captured.
前記撮像部は、1つのマイクロレンズに対して、複数の光電変換部を有することを特徴とする請求項1に記載の撮像装置。 An imaging unit that captures the image;
The imaging apparatus according to claim 1, wherein the imaging unit includes a plurality of photoelectric conversion units for one microlens.
前記リフォーカス手段は、前記手振れ情報に基づいて、前記ピント位置を異ならせた画像の再構成を行うかどうかを決めることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 It has a camera shake information acquisition means for acquiring camera shake information at the time of imaging,
5. The imaging apparatus according to claim 1, wherein the refocusing unit determines whether to reconstruct an image with a different focus position based on the camera shake information. .
前記リフォーカス手段は、前記撮像装置が前記固定部に固定されているうち撮像した画像に対して、前記ピント位置を異ならせた画像の再構成を行わないことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。 When the image pickup apparatus picks up an image, the image pickup apparatus has a fixed detection means for detecting whether or not the image pickup apparatus is fixed to a fixed portion,
8. The refocusing unit according to claim 1, wherein the refocusing unit does not reconstruct an image obtained by changing the focus position with respect to an image captured while the imaging device is fixed to the fixing unit. The imaging device according to any one of the above.
前記リフォーカス手段は、前記リフォーカス範囲の範囲内で、前記画像のピント位置を異ならせた画像の再構成を行うことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。 Having a refocus range calculation means for calculating the refocus range;
10. The imaging apparatus according to claim 1, wherein the refocusing unit reconstructs an image with a different focus position of the image within the refocusing range. .
前記ピント位置の設定手段が設定したピント位置は、前記撮像した画像のいずれかのピント位置のリフォーカス範囲にないとき、
前記ピント位置の再設定手段は、前記設定したピント位置を再設定することを特徴とする請求項10に記載の撮像装置。 A focus position resetting unit for resetting the focus position of the image;
When the focus position set by the focus position setting means is not within the refocus range of any focus position of the captured image,
The imaging apparatus according to claim 10, wherein the focus position resetting unit resets the set focus position.
前記複数の前記撮像した画像のうち、リフォーカス補正量の最も少ないものに対して、前記設定したピント位置になるようにリフォーカスを行うことを特徴とする請求項10乃至13のいずれか1項に記載の撮像装置。 When the set focus position is within the refocus range of the focus positions of the plurality of captured images,
14. The refocusing is performed on the image having the smallest amount of refocus correction among the plurality of the captured images so that the set focus position is obtained. The imaging device described in 1.
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を有し、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とする撮像方法。 Combining a plurality of images captured while changing the focus position of the optical system and generating a combined image;
A focus position setting step for setting a focus position of the optical system;
A refocusing step for reconstructing an image with a different focus position of the captured image,
In the refocusing step, an image is reconstructed based on a difference between the set focus position and a focus position when the image is captured, and the focus position is changed.
前記コンピュータに、
光学系のピント位置を変えながら撮像した複数の画像に対して合成を行い、合成画像を生成する合成ステップと、
前記光学系のピント位置を設定するピント位置の設定ステップと、
前記撮像した画像のピント位置を異ならせた画像の再構成を行うリフォーカスステップと、を行わせ、
前記リフォーカスステップにおいて、前記設定したピント位置と前記画像を撮像するときのピント位置との違いに基づいて、前記ピント位置を異ならせた画像の再構成を行うことを特徴とするコンピュータのプログラム。 A program for causing a computer of an imaging apparatus to operate,
In the computer,
Combining a plurality of images captured while changing the focus position of the optical system and generating a combined image;
A focus position setting step for setting a focus position of the optical system;
A refocusing step for reconstructing an image with a different focus position of the captured image, and
A computer program characterized in that in the refocusing step, an image with a different focus position is reconstructed based on a difference between the set focus position and a focus position when the image is captured.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016183798A JP6728005B2 (en) | 2016-09-21 | 2016-09-21 | Imaging device, imaging method, and program |
CN201710805640.3A CN107864315B (en) | 2016-09-21 | 2017-09-08 | Image pickup apparatus, control method of image pickup apparatus, and recording medium |
US15/709,241 US10530994B2 (en) | 2016-09-21 | 2017-09-19 | Image capture apparatus, control method for image capture apparatus and non-transitory recording medium for combining image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016183798A JP6728005B2 (en) | 2016-09-21 | 2016-09-21 | Imaging device, imaging method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018050147A true JP2018050147A (en) | 2018-03-29 |
JP2018050147A5 JP2018050147A5 (en) | 2019-09-12 |
JP6728005B2 JP6728005B2 (en) | 2020-07-22 |
Family
ID=61767848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016183798A Active JP6728005B2 (en) | 2016-09-21 | 2016-09-21 | Imaging device, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6728005B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019106744A1 (en) | 2018-03-16 | 2019-09-19 | Panasonic Intellectual Property Management Co., Ltd. | Rotary device for rotating a Rotationsobjeks and head-up display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338901A (en) * | 2004-05-24 | 2005-12-08 | Matsushita Electric Ind Co Ltd | Imaging device and imaging method |
JP2013161065A (en) * | 2012-02-09 | 2013-08-19 | Canon Inc | Imaging device |
JP2014155121A (en) * | 2013-02-12 | 2014-08-25 | Canon Inc | Image processing system, imaging apparatus, control method, and program |
-
2016
- 2016-09-21 JP JP2016183798A patent/JP6728005B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338901A (en) * | 2004-05-24 | 2005-12-08 | Matsushita Electric Ind Co Ltd | Imaging device and imaging method |
JP2013161065A (en) * | 2012-02-09 | 2013-08-19 | Canon Inc | Imaging device |
JP2014155121A (en) * | 2013-02-12 | 2014-08-25 | Canon Inc | Image processing system, imaging apparatus, control method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019106744A1 (en) | 2018-03-16 | 2019-09-19 | Panasonic Intellectual Property Management Co., Ltd. | Rotary device for rotating a Rotationsobjeks and head-up display device |
Also Published As
Publication number | Publication date |
---|---|
JP6728005B2 (en) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5988790B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
US9681037B2 (en) | Imaging apparatus and its control method and program | |
CN107864315B (en) | Image pickup apparatus, control method of image pickup apparatus, and recording medium | |
JP6047025B2 (en) | Imaging apparatus and control method thereof | |
JP5938281B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2002112099A (en) | Apparatus and method for repairing image | |
US8947585B2 (en) | Image capturing apparatus, image processing method, and storage medium | |
JP2018174502A (en) | Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program | |
JP2018107526A (en) | Image processing device, imaging apparatus, image processing method and computer program | |
JP6752685B2 (en) | Imaging equipment, imaging methods and programs | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP6162971B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and control method thereof | |
US10681260B2 (en) | Focus detection device and focus detection method | |
JP6478587B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6728005B2 (en) | Imaging device, imaging method, and program | |
JP2010272957A (en) | Image correction apparatus and program thereof | |
JP6678505B2 (en) | Imaging device, control method therefor, program, and storage medium | |
JP6210836B2 (en) | IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
JP2019047145A (en) | Image processing system, imaging apparatus, control method and program of image processing system | |
JP2018074362A (en) | Image processing apparatus, image processing method, and program | |
JP4682010B2 (en) | Imaging device | |
JP6566800B2 (en) | Imaging apparatus and imaging method | |
JP2012134826A (en) | Imaging apparatus | |
JP7187185B2 (en) | Imaging device and its control method | |
US20170208316A1 (en) | Image processing apparatus, image capturing apparatus, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200701 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6728005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |