JP2017139576A - Imaging device, and control method and program therefor - Google Patents
Imaging device, and control method and program therefor Download PDFInfo
- Publication number
- JP2017139576A JP2017139576A JP2016018243A JP2016018243A JP2017139576A JP 2017139576 A JP2017139576 A JP 2017139576A JP 2016018243 A JP2016018243 A JP 2016018243A JP 2016018243 A JP2016018243 A JP 2016018243A JP 2017139576 A JP2017139576 A JP 2017139576A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- subject
- image
- focus
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置およびその制御方法ならびにプログラムに関する。 The present invention relates to an imaging apparatus, a control method thereof, and a program.
マイクロレンズアレイを通過した光線を分割して記録することにより、被写体からの光線の角度情報を維持して画像信号を取得することができるライトフィールドカメラ(LFカメラともいう)が提案されている(非特許文献1)。LFカメラによって記録された画像信号を用いれば、撮影後に視点を変化させた画像やフォーカス状態を変更した画像を再構成する(リフォーカス処理ともいう)ことができる。 There has been proposed a light field camera (also referred to as an LF camera) that can acquire the image signal while maintaining the angle information of the light beam from the subject by dividing and recording the light beam that has passed through the microlens array ( Non-patent document 1). By using the image signal recorded by the LF camera, it is possible to reconstruct an image in which the viewpoint is changed after shooting or an image in which the focus state is changed (also referred to as a refocus process).
LFカメラは、マイクロレンズアレイのような光学的な構成部材を必要とし、組み付け精度に応じて歪みが発生する場合があるため、その調整が必要となる。これに対して、特許文献1には、撮影光学系とマイクロレンズアレイを備えた撮像装置であって、装置を構成する構成部材の歪みを検出し、この歪みの検出結果と予め定められた構成部材の歪み特性とに基づいて、撮影画像の歪みを補正するものが開示されている。 The LF camera requires an optical component such as a microlens array, and distortion may occur depending on the assembly accuracy, so adjustment thereof is necessary. On the other hand, Patent Document 1 is an image pickup apparatus including a photographing optical system and a microlens array, and detects distortion of components constituting the apparatus, and a detection result of the distortion and a predetermined configuration. A device that corrects the distortion of a captured image based on the distortion characteristics of the member is disclosed.
ところで、光学的な構成部材の組み付け精度が向上した場合であっても、LFカメラに用いられる撮像素子が、例えばCMOSイメージセンサである場合、撮影画像に撮像素子固有の歪みが生じる場合がある。例えばローリングシャッター歪みは、撮像素子上の画素の読み出しタイミングがその位置によって異なる、撮像素子の読み出し方式に起因して生じる。このような読み出し方式を採用した撮像素子を用いる場合、高速で移動する被写体(動体ともいう)に歪みが生じる。特に、静止した主要被写体に合焦させて撮影する際にぼけた動体が存在する場合、この動体には、ぼけによる広がりが加わってより大きな歪みが生じる。したがって、LFカメラによって撮影した後にこの動体に合焦させるリフォーカス処理を行うと、当該動体の歪みがより大きく現われることになる。 By the way, even when the assembly accuracy of the optical components is improved, when the image sensor used in the LF camera is, for example, a CMOS image sensor, distortion inherent to the image sensor may occur in the captured image. For example, rolling shutter distortion is caused by an image sensor reading method in which pixel readout timing on the image sensor varies depending on the position. When an image sensor that employs such a readout method is used, distortion occurs in a subject (also referred to as a moving object) that moves at high speed. In particular, when there is a moving object that is blurred when shooting while focusing on a stationary main subject, the moving object is further distorted due to the spread due to the blur. Therefore, if the refocusing process for focusing on this moving object is performed after shooting with the LF camera, the distortion of the moving object appears more greatly.
本発明は、上述の従来技術の問題点に鑑みてなされたものであり、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能な撮像装置およびその制御方法ならびにプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, and is capable of reducing the influence of rolling shutter distortion and improving the accuracy of refocus processing, and a control method and program therefor The purpose is to provide.
この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、2次元状に配列された複数の画素を有し、入射する光線の角度情報を含む画像信号を取得可能な撮像素子と、被写体に撮影光学系の焦点を合わせるための焦点調節手段と、撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し手段と、読み出し手段が、画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、撮影光学系の焦点を動体に合わせるように焦点調節手段を制御する制御手段と、を備えることを特徴とする。 In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, an imaging device having a plurality of pixels arranged two-dimensionally and capable of acquiring an image signal including angle information of incident light rays, and a focus adjusting unit for focusing the photographing optical system on a subject, This is a case where the readout means that can read out the pixel signal of the image sensor at different timings according to the position of the pixel, and the readout means read out the pixel signal at different timings according to the position of the pixel. And a control means for controlling the focus adjustment means so that the focus of the photographing optical system is adjusted to the moving object when the moving object is present in the subject to be imaged.
本発明によれば、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能になる。 According to the present invention, it is possible to reduce the influence of rolling shutter distortion and improve the accuracy of refocus processing.
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、マイクロレンズアレイとフォーカシングレンズを備えた任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、マイクロレンズアレイとフォーカシングレンズを備えた任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、医療機器などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an arbitrary digital camera including a microlens array and a focusing lens will be described as an example of an imaging apparatus. However, the present invention is not limited to a digital camera, and can be applied to any device including a microlens array and a focusing lens. These devices may include, for example, mobile phones, game machines, tablet terminals, personal computers, clock-type or glasses-type information terminals, medical devices, and the like.
(ライトフィールドカメラの概要)
まず、ライトフィールドカメラ(単にLFカメラともいう)ではない、一般的なデジタルカメラのフォーカス状態について説明した上で、LFカメラの原理について説明する。
(Outline of light field camera)
First, after explaining the focus state of a general digital camera that is not a light field camera (also simply referred to as an LF camera), the principle of the LF camera will be described.
一般的なデジタルカメラのフォーカス状態は、撮影時に、フォーカシングレンズの位置が撮影者によって手動で、又は自動焦点調節(オートフォーカス)機能によって自動で調整される。撮影された画像信号は、デジタル画像処理によるシャープネスの調節等により、被写体の鮮鋭度を変更することができるが、例えば既に光学的にぼけてしまった情報を回復することはできない。これは、光学的な情報が奥行を含む三次元の情報であるのに対して、この光学的な情報が当該デジタルカメラの固体撮像素子の撮像面に結像する際に、二次元の情報に変換されるためである。すなわち、一般的なデジタルカメラでは、入射する光線が固体撮像素子の撮像面に正対する被写体平面のどこから到達した光かを記録するものであり、入射する光がどのような角度分布を持つかは記録されない。更に換言すれば、一般的なデジタルカメラは、被写体のある点から生じた光線を、撮影光学系の絞り口径に相当する角度範囲で積分したうえで記録する。具体的に、撮影光学系の絞り面の二次元座標を(u,v)とすると、固体撮像素子等の記録面の二次元座標(s,t)に記録される情報Eb(s,t)は、 In the focus state of a general digital camera, the position of a focusing lens is adjusted manually by a photographer or automatically by an automatic focus adjustment (autofocus) function at the time of shooting. Although the captured image signal can change the sharpness of the subject by adjusting the sharpness by digital image processing, for example, information that has already been optically blurred cannot be recovered. This is because the optical information is three-dimensional information including the depth, but when this optical information forms an image on the imaging surface of the solid-state image sensor of the digital camera, the information is converted into two-dimensional information. This is because it is converted. In other words, in a general digital camera, the incident light beam is recorded from where on the object plane facing the imaging surface of the solid-state image sensor, and what angle distribution of the incident light has? Not recorded. In other words, a general digital camera records a light beam generated from a certain point of an object after integrating it in an angle range corresponding to the aperture diameter of the photographing optical system. Specifically, when the two-dimensional coordinates of the diaphragm surface of the photographing optical system are (u, v), the information Eb (s, t) recorded on the two-dimensional coordinates (s, t) of the recording surface of the solid-state imaging device or the like. Is
で表される量である。ここで、bは撮影光学系の後側主点から撮像面までの結像距離を表し、Lb(s,t,u,v)は撮影光学系の結像距離bの下で、被写体からの光線のうち絞り面の座標(u,v)を通過して撮像面の座標(s,t)に到達する光線を表す。この結像距離bは、撮影光学系のフォーカシングレンズ駆動により一意に決定され、結像距離bの下で撮像面の座標(s,t)に到達する光線も、後述の結像公式により一意に決定される。このため、Lb(s,t,u,v)は撮影光学系のフォーカシングレンズ駆動の条件下で絞り面の座標(u,v)を通過する被写体からの光線を表す。 It is the quantity represented by. Here, b represents the imaging distance from the rear principal point of the photographic optical system to the imaging surface, and Lb (s, t, u, v) represents the distance from the subject under the imaging distance b of the photographic optical system. Of the light rays, the light rays that pass through the coordinates (u, v) of the diaphragm surface and reach the coordinates (s, t) of the imaging surface are represented. The imaging distance b is uniquely determined by driving the focusing lens of the photographing optical system, and rays reaching the coordinates (s, t) of the imaging surface under the imaging distance b are also uniquely determined by an imaging formula described later. It is determined. For this reason, Lb (s, t, u, v) represents a light beam from the subject that passes through the coordinates (u, v) of the aperture plane under the condition of driving the focusing lens of the photographing optical system.
一方、LFカメラは、ライトフィールドフォトグラフィと呼ばれる技術により、被写体からの光線の角度情報を維持して光線を記録することができる。LFカメラは、例えば、所定のピッチでマイクロレンズが配列されたマイクロレンズアレイに主として被写体像を結像させ、マイクロレンズアレイの後方に配置された、よりピッチの細かい固体撮像素子により入射した光線を記録する。なお、このような光線の角度情報を含む画像信号は光線空間情報ともいわれる。 On the other hand, the LF camera can record the light beam while maintaining the angle information of the light beam from the subject by a technique called light field photography. The LF camera, for example, forms a subject image mainly on a microlens array in which microlenses are arranged at a predetermined pitch, and receives light rays incident by a solid-state imaging device with a finer pitch arranged behind the microlens array. Record. Note that an image signal including such light angle information is also referred to as light space information.
マイクロレンズアレイのピッチよりも細かなピッチの固体撮像素子の各画素に記録される光線は、マイクロレンズアレイへの結像状態において撮影光学系の絞りの一部領域を通過した光である。ここで、絞りの一部領域を通過する光線は、被写体のある点から生じた光線のうち特定の角度で出射された光線である。したがって、マイクロレンズアレイよりも細かいピッチで画素を備えることにより、ピッチが細かい分だけ多数の光線を角度で分割して記録することができる。複数の光線を分割して記録することができるため、視点を変化させた画像を取得することや撮影後にフォーカス状態を変更するリフォーカス処理が可能になる。 The light beam recorded in each pixel of the solid-state imaging device having a finer pitch than the pitch of the microlens array is light that has passed through a partial area of the stop of the photographing optical system in the image formation state on the microlens array. Here, the light beam that passes through a partial area of the stop is a light beam emitted from a certain point of the subject and emitted at a specific angle. Therefore, by providing pixels with a finer pitch than the microlens array, it is possible to divide and record a large number of light beams by an angle corresponding to the finer pitch. Since a plurality of light beams can be divided and recorded, an image with a changed viewpoint can be acquired, and refocus processing for changing the focus state after shooting can be performed.
(ローリングシャッター歪みの発生原理)
ローリングシャッター歪みの発生原理は、CMOSイメージセンサの構造上発生する歪みとして知られている。CMOSイメージセンサでは、水平および垂直に二次元状に配列された画素に対して、第1にこれらの画素を露光し、第2にこれらの画素の電荷を順次読み出す、という大きく2つのステップを実行する。露光にメカニカルシャッターを併用できる場合、画素の順次読み出し中は遮光することができるため、ローリングシャッター歪みは回避することができる。一方、メカニカルシャッターを併用することができない場合、画素の電荷の順次読み出し(すなわち蓄積終了を以て露光完了とする)と、1つ前のフレームにおける画素の電荷の順次読み出し(すなわち蓄積開始を以て露光開始とする)とが行われる。画素の電荷の順次読み出しには、XYアドレス型や垂直順次走査型などが挙げられるが、いずれの方法も、固体撮像素子上のある座標に存在する画素は、別の垂直行に存在する画素とは蓄積開始および蓄積終了の時刻が異なる。蓄積開始と蓄積終了との時間差(すなわち蓄積時間)は全ての画素にとって一定値に保たれるものの、その読み出しの時刻差により、画面内を高速で移動する被写体や、比較的低速で移動する被写体であっても画角に占める割合の大きな被写体に歪みが生じる。この歪みは、例えば第1行目を読み出した際に水平座標x1〜x2に存在していた被写体が水平速度vhで移動すると、第100行目を読み出した時には水平座標x1+100vh〜x2+100vhに移動しているために生じる。
(Principles of rolling shutter distortion)
The principle of generation of rolling shutter distortion is known as distortion generated in the structure of a CMOS image sensor. In the CMOS image sensor, two steps are executed: first, these pixels are exposed to pixels arranged in two dimensions horizontally and vertically, and secondly, the charges of these pixels are sequentially read out. To do. When a mechanical shutter can be used together with exposure, light can be shielded during sequential readout of pixels, so that rolling shutter distortion can be avoided. On the other hand, when the mechanical shutter cannot be used in combination, sequential readout of the pixel charges (ie, the exposure is completed when the accumulation is completed) and sequential readout of the pixel charges in the previous frame (ie, the start of the exposure when the accumulation starts) Is done). The sequential readout of the charge of the pixel includes an XY address type and a vertical sequential scanning type. In either method, the pixel existing at a certain coordinate on the solid-state image sensor is the same as the pixel existing in another vertical row. Have different accumulation start and accumulation end times. Although the time difference between the accumulation start and accumulation end (that is, the accumulation time) is kept constant for all pixels, the subject moving at a high speed on the screen or the subject moving at a relatively low speed due to the time difference of reading. Even so, distortion occurs in a subject having a large proportion of the angle of view. For example, when the subject existing in the horizontal coordinates x1 to x2 moves at the horizontal speed vh when the first row is read, the distortion moves to the horizontal coordinates x1 + 100 vh to x2 + 100 vh when the 100th row is read. It occurs because of being.
(LFカメラにおけるローリングシャッター歪み)
更に、このようなローリングシャッター歪みの発生するCMOSイメージセンサを、LFカメラに適用した場合について、図1を参照して説明する。図1において、撮影光学系1は、絞りを含み、その焦点距離はfである。また、マイクロレンズアレイ2は、マイクロレンズを2次元状に配置し、固体撮像素子3と撮影光学系1の間に配置されている。また、撮影対象である被写体A1と被写体A2とが異なる被写体距離に存在している。図1の例では、撮影光学系1により焦点を合わせた被写体距離a1の被写体A1がマイクロレンズアレイ2の頂点に結像されている。すなわち、撮影光学系1の結像公式に従えば、撮影光学系1の後側主点からマイクロレンズアレイ2の頂点の距離b1は、
b1=(a1−f)/f・a1 (式2)
で表される。
(Rolling shutter distortion in LF camera)
Furthermore, a case where such a CMOS image sensor in which rolling shutter distortion occurs is applied to an LF camera will be described with reference to FIG. In FIG. 1, a photographing optical system 1 includes a stop, and its focal length is f. The
b1 = (a1−f) / f · a1 (Formula 2)
It is represented by
また、被写体A2は、その被写体距離a2がa2<a1の関係を満たす被写体である。被写体距離a1の被写体A1にフォーカスが合っているため、同時に撮影される被写体A2の結像距離b2は、
b2=(a2−f)/f・a2 (式3)
となる(但し、b2>b1)。すなわち、被写体A2からの光線は、被写体A1からの光線よりも撮影光学系1の後側主点から見て遠い側で結像する。固体撮像素子3がb1とb2の間に存在するため、光線は、(撮影光学系1の絞りによる制限を受けた角度範囲において)その全てが式3を満たす結像点で交差する前に、投影面積の広がった状態で固体撮像素子3に記録される。このため、固体撮像素子3に投影される光学像のぼけが大きいほど、被写体A2が投影される座標間の距離が大きくなって読み出し時刻の差も大きくなる。つまり、光学像が広がる場合、固体撮像素子3のローリングシャッター歪みの影響を大きく受けることになる。
The subject A2 is a subject whose subject distance a2 satisfies the relationship of a2 <a1. Since the subject A1 at the subject distance a1 is in focus, the imaging distance b2 of the subject A2 photographed at the same time is
b2 = (a2−f) / f · a2 (Formula 3)
(Where b2> b1). That is, the light beam from the subject A2 forms an image on the side farther from the rear principal point of the photographing optical system 1 than the light beam from the subject A1. Since the solid-state imaging device 3 exists between b1 and b2, the light rays (in the angular range limited by the stop of the photographing optical system 1) all intersect at an imaging point that satisfies Equation 3 before Recording is performed on the solid-state imaging device 3 in a state where the projection area is widened. For this reason, the greater the blur of the optical image projected onto the solid-state imaging device 3, the greater the distance between the coordinates on which the subject A2 is projected, and the greater the difference in readout time. That is, when the optical image spreads, it is greatly affected by the rolling shutter distortion of the solid-state imaging device 3.
上述した一般的なデジタルカメラでは、撮影時にぼけた被写体A2はぼけたまま表示されるため、ぼけた被写体に対するローリングシャッター歪みの影響は認識し難い。しかし、LFカメラでは、リフォーカス処理により撮影後に任意の被写体に合焦した画像を生成可能であるため、ぼけによってローリングシャッター歪みの影響が大きくなるほど、リフォーカスした際の被写体の歪みが認識され易い状態で現れる。 In the general digital camera described above, the subject A2 blurred at the time of shooting is displayed as blurred, so it is difficult to recognize the effect of rolling shutter distortion on the blurred subject. However, since the LF camera can generate an image focused on an arbitrary subject after shooting by refocus processing, the greater the influence of rolling shutter distortion due to blur, the more easily the distortion of the subject when refocusing is recognized. Appears in state.
反対に、ローリングシャッター歪みが発生する動体に合焦させて撮影することにより、ぼけによるローリングシャッター歪みの増大を抑制することができる。 On the contrary, an increase in rolling shutter distortion due to blur can be suppressed by focusing on a moving object that generates rolling shutter distortion.
(デジタルカメラ100の構成)
図2は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図を示している。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 2 is a block diagram illustrating a functional configuration example of the
撮影光学系1は、焦点調節を行うフォーカシングレンズや画角を変更するズームレンズ等のレンズ群と、絞りとを含む。マイクロレンズアレイ2は、水平および垂直に所定のピッチで2次元状に配列された複数のマイクロレンズにより構成される。撮影光学系1のフォーカシングレンズによって合焦した被写体像がマイクロレンズの頂点に結像される。
The photographing optical system 1 includes a lens group such as a focusing lens for adjusting a focus and a zoom lens for changing a field angle, and a diaphragm. The
固体撮像素子3は、2次元状に配列された複数の画素を有し、撮影光学系1によって結像された被写体像を光電変換する光電変換機能と、光電変換された電気信号を画像信号として転送する信号転送機能とを有する。固体撮像素子3は、マイクロレンズアレイ2の1つのマイクロレンズに対して複数の画素が対応するように構成される。固体撮像素子3がCMOSイメージセンサである場合、各画素からの信号は、例えばいわゆるローリング走査により行ごとに順次転送される。A/D変換部4は、サンプリングされたアナログ画像信号をデジタル画像信号に変換する回路又はモジュールを含む。デジタル化された画像信号は、画像メモリ8に記憶される。
The solid-state imaging device 3 has a plurality of pixels arranged in a two-dimensional form, and has a photoelectric conversion function for photoelectrically converting a subject image formed by the photographing optical system 1 and a photoelectrically converted electric signal as an image signal. And a signal transfer function for transfer. The solid-state imaging device 3 is configured such that a plurality of pixels correspond to one microlens of the
信号処理部7は、画像メモリ8に記憶された画像信号に対してホワイトバランス補正やガンマ補正等の所定の画像処理を施す回路又はモジュールを含む。信号処理部7は、当該画像信号に対して後述するリフォーカス処理を行う。信号処理部7から出力された画像信号は、例えばメモリカード等の不揮発性の記録媒体10に記録される。記録制御部9は、記録媒体10とのインターフェイス回路を含み、記録媒体10への画像信号の書き込みや記録媒体10からの画像信号の読み出しを制御する。
The signal processing unit 7 includes a circuit or a module that performs predetermined image processing such as white balance correction and gamma correction on the image signal stored in the
タイミング発生部5は、固体撮像素子3などの撮像系を駆動する。さらに、撮像系の駆動ひいては固体撮像素子3の出力信号に同期してA/D変換部4を駆動制御する。フォーカシングレンズ駆動部6は、撮影光学系1に含まれるフォーカシングレンズを駆動する。なお、フォーカシングレンズは、ライトフィールドフォトグラフィに依らない一般に知られたデジタルカメラにおいて被写体に合焦させるために用いられるものと同様であってよい。フォーカシングレンズ駆動部6は、自動焦点検出(AF)機能などによってシステム制御部13から制御信号を受信して、撮影光学系1の結像距離を決定する。
The
表示制御部11は、表示装置12に表示する画像を制御する回路又はモジュールを含む。表示装置12は、例えば液晶ディスプレイなどの表示デバイスを含み、各種信号処理の施された画像信号を、表示制御部11を介して表示する。表示装置12は、これから撮像しようとする画面を連続的にライブで表示するライブビュー表示、記録した動画の再生表示、操作のためのメニュー表示等を実現する。
The
システム制御部13は、例えばCPUあるいはMPUを含み、不揮発メモリであるROM15に記憶されたプログラムを、揮発性メモリであるRAM14に展開し実行することによりデジタルカメラ100の各部を制御する。
The
動体検出部16は、時系列に並んだ動画フレームの中から特に移動している被写体(動体)を検出するとともに、検出した被写体の速度を検出する。被写体検出部17は、画像内の主要な被写体(単に主要被写体ともいう)を検出する。主要被写体は、例えば人物として認識されたことや、更には認識された人物が画像の中心付近に位置すること等を加重して得られる評価値に基づいて決定することができる。
The moving
リフォーカス距離設定部18は、LFカメラにおいてリフォーカス処理を実行するためのパラメータであるリフォーカス距離を設定する。なお、リフォーカス距離については後述する。
The refocus
(本実施形態の撮影処理に係る一連の動作)
次に、図3を参照して、撮影処理に係る一連の動作を説明する。この撮影処理では、動体を検出して当該動体に優先的に合焦させて撮影するとともに、別途検出した主要被写体に合焦させるリフォーカス処理を行う。なお、本一連の動作は、例えば不図示の操作部に対するユーザからの操作が検出された場合に開始される。また、本一連の動作は、システム制御部13がROM15に記憶されたプログラムをRAM14の作業用領域に展開し、実行することにより実現される。
(A series of operations related to the shooting process of the present embodiment)
Next, a series of operations related to the photographing process will be described with reference to FIG. In this photographing process, a moving object is detected, and the moving object is preferentially focused and photographed, and a refocus process for focusing on a separately detected main subject is performed. Note that this series of operations is started when, for example, an operation from a user on an operation unit (not shown) is detected. Further, this series of operations is realized by the
S301において、システム制御部13は、図2に不図示の操作スイッチによりメイン電源がオンされたことに応じて起動して、デジタルカメラ100の各部を初期化やデジタルカメラ100の動作に必要な所定のデータをROM15から読み込む。
In step S <b> 301, the
S302において、システム制御部13は、固体撮像素子3に対する駆動設定を行う。システム制御部13は、例えばライブの画像を表示装置12に連続的に映し出すライブビューモードに設定するための駆動設定信号を送信して、固体撮像素子3の駆動モードを設定する。
In step S <b> 302, the
S303において、システム制御部13はいわゆる自動露出調整動作(AE)を行う。例えば、信号処理部7は、システム制御部13の指示に応じて、固体撮像素子3から連続的に取得される画像信号を用いて測光し、測光結果をシステム制御部13に出力する。システム制御部13は、当該測光結果に応じて次のフレームの撮影に使用する露出を制御する。より具体的には、信号処理部7は、例えば画像信号から抽出した輝度情報を画面のエリア別に重み付け演算して、現状よりも何段明るくすればよいか(暗くすればよいか)を演算する。固体撮像素子3が電子シャッター機能を備える場合、同時に電子シャッターのシャッター速度を変更してもよい。
In S303, the
S304において、システム制御部13はいわゆるオートフォーカス(AF)を行う。AFは、所定の被写体に合焦させるようにフォーカシングレンズによる焦点位置を変更する自動焦点調節である。例えば、まず、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを複数ステップ駆動して複数枚の画像を得る。複数枚の画像にいわゆるコントラスト検出処理を施して、評価値が最大となるフォーカシングレンズの位置を決定する。なお、本ステップ〜S308に用いる画像には、1つのマイクロレンズに対応する複数の画素のうちの1つ画素(例えば5×5の画素のうちの中心の画素)の出力のみを用いた画像を用いればよい。また、本ステップのAFの方式には、コントラスト検出を用いるものの他に専用の距離計測センサを用いた方式を適用してもよい。
In S304, the
S305において、システム制御部13は、動体検出部16を用いて、画像内の動体を検出する。動体検出の方法は、連続するフレーム間で動きベクトルを算出する方法など公知の方法を用いることができ、本実施形態では画像内の動体と当該動体のフレーム内の移動速度が検出できればどのような方法であってもよい。システム制御部13は、フレーム内において検出した動体の個数と各動体の移動速度とをRAM14に一時的に記憶させる。
In step S <b> 305, the
S306において、システム制御部13は、画像内における最速の動体の検出を完了したかを判定する。システム制御部13は、例えば画像内で検出された、動きベクトルの所定の特徴を示す領域ごとに順次動体の検出を行う場合であれば、全ての領域について動体の検出を完了した場合、最速の動体の検出を完了したと判定して処理をS307に進める。一方、全ての領域について動体の検出を行っていない場合、処理を再びS305に処理を戻す。なお、システム制御部13は、S305において記憶させた動体の各速度のうち最も速い動体を最速の動体として検出する。
In step S306, the
S307において、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを駆動する。例えば、システム制御部13は、上述のコントラスト検出結果と動体の検出結果とを照合して、最速の動体に合焦するようにフォーカシングレンズを駆動する。このように制御することにより、動体に合焦した状態で撮影された画像信号、すなわち動体がマイクロレンズアレイ2の頂点に結像された状態で撮影された画像信号が得られる。この画像信号は、動体の固体撮像素子3への投影面積が小さいため、ローリングシャッター歪みの影響が低減された画像信号となる。
In step S <b> 307, the
S308において、システム制御部13は、被写体検出部17を用いて画像内の主要被写体を検出する(主要被写体検出処理)。被写体検出部17は、例えば画像の中心付近に主要被写体が存在することを仮定して評価値に重み付けする中央重点方式や、人物と判断した被写体の評価値を重視する被写体認識の方式を用いることができる。
In S308, the
なお、S307の処理によって動体を優先してフォーカシングレンズを駆動しているため、当該フォーカシングレンズの位置が主要被写体に合焦する位置であるとは限らない。ユーザが注目する被写体は、動体よりもむしろ主要被写体であることが想定されるため、動体に合焦させて得られる画像信号に基づいて、主要被写体に合焦させた画像をリフォーカス可能である必要がある。 Note that since the focusing lens is driven with priority given to the moving object by the processing of S307, the position of the focusing lens is not necessarily the position at which the main subject is focused. Since the subject that the user is interested in is assumed to be the main subject rather than the moving object, it is possible to refocus the image focused on the main subject based on the image signal obtained by focusing on the moving object. There is a need.
そこで、システム制御部13は、主要被写体に合焦させるリフォーカス処理が可能であるかを判定する。リフォーカス処理の可能な結像距離範囲は、フォーカシングレンズの実際の位置±dmaxで表される範囲に制限される。このため、主要被写体に合焦させるリフォーカス処理が可能であり、かつ、動体のぼけが最小になるような位置にフォーカシングレンズを制御する必要がある。なお、dmaxは式4で与えられる。
Therefore, the
ここで、Δθは光線の角度分解能、Nはマイクロレンズアレイ2の1つのマイクロレンズに対応する固体撮像素子3の画素分割数、Δxは固体撮像素子3の画素ピッチである。
Here, Δθ is the angular resolution of the light beam, N is the number of pixel divisions of the solid-state imaging device 3 corresponding to one microlens of the
システム制御部13は、例えば、専用の距離計測センサ(不図示)を用いて、S308において検出された主要被写体までの距離情報を取得する。そして、システム制御部13は、取得した結像距離が、S307で決定したフォーカシングレンズ駆動位置±dmaxの範囲内であるか否か(すなわち主要被写体に合焦させるリフォーカス処理が可能か否か)を判定する。
For example, the
システム制御部13は、結像距離が上記範囲の範囲外であると判定した場合、処理をS307に戻してフォーカシングレンズ駆動にフィードバックをかけ、主要被写体がリフォーカス範囲に収まるようにフォーカシングレンズを再度駆動する。例えば、フォーカシングレンズを現在の位置から所定の距離だけ移動させて、再度、主要被写体に合焦させるリフォーカス処理が可能か否かを判定する処理を繰り返す。一方、システム制御部13は、結像距離が上記範囲の範囲内であると判定した場合、S310に処理を進める。
If the
S310において、システム制御部13は、信号処理部7及びリフォーカス距離設定部18を制御して、S307において設定されたフォーカシングレンズの位置で得られた画像信号を用いてリフォーカス処理を行う。リフォーカス処理の詳細については後述する。そして、S311において、システム制御部13はリフォーカス処理によって生成された画像を記録し、本処理に係る一連の動作を終了する。
In S310, the
(リフォーカス処理の詳細)
リフォーカス処理は、光線の角度情報を考慮して画素の情報を再構成及び再配置する処理である。まず、図4は、上述した処理によって動体である被写体A2がマイクロレンズアレイ2の頂点上に結像された状態を示している。図1で示した例と異なり、この時点では主要被写体A1には合焦していない。被写体A1の1点から出射した光線は、撮影光学系1の絞り領域p1〜p4の分割数(便宜上4つの出射角度範囲とする)に分割されて、固体撮像素子3で光電変換される。すなわち、合焦していない被写体A1から出射した光線は、固体撮像素子3の画素上で符号p11〜p14を付した広い領域で受光される。
(Details of refocus processing)
The refocusing process is a process for reconstructing and rearranging pixel information in consideration of the angle information of light rays. First, FIG. 4 shows a state in which the subject A2 which is a moving object is imaged on the apex of the
結像距離b2の位置の状態で受光した信号を用いて、結像距離b1の位置の画像情報にリフォーカスする処理とは、上述した式1において符号p11〜p14の画素値を平均化して結像距離b1における画素値を再構成することである。すなわち、結像距離b2で受光した4つの光線の情報から結像距離b1上にある光線の交差点を1つの点として再現することに相当する。換言すれば、被写体A1の焦点ぼけを取り除くことに対応する。 The process of refocusing to the image information at the position of the imaging distance b1 using the signal received at the position of the imaging distance b2 is the result of averaging the pixel values of the signs p11 to p14 in the above-described equation 1. Reconstructing the pixel value at the image distance b1. That is, it corresponds to reproducing the intersection of light rays on the imaging distance b1 as one point from the information of the four light rays received at the imaging distance b2. In other words, this corresponds to removing the defocus of the subject A1.
一方、動体であるために合焦するように結像された被写体A2の1点から出射した光線は、被写体A1と同様4つの出射角度範囲に分割されて、固体撮像素子3の画素p21〜p24で光電変換される。被写体A2から出射した光線は、マイクロレンズアレイ2のあるマイクロレンズの頂点に結像され、当該マイクロレンズの直下に存在する狭い領域で受光される。このため、固体撮像素子3の画素上で被写体A2の像は、合焦していない状態で撮影された場合と比較して小さなローリングシャッター歪みで走査することができる。
On the other hand, a light beam emitted from one point of the subject A2 formed to be focused because it is a moving body is divided into four emission angle ranges like the subject A1, and the pixels p21 to p24 of the solid-state image sensor 3 are divided. Is photoelectrically converted. The light beam emitted from the subject A2 is imaged at the apex of a microlens with the
被写体A2について、結像距離b2の位置の状態で受光した信号を用いて、結像距離b1の位置の画像情報にリフォーカスする処理とは、符号p21〜p24の画素順を逆転して再配置することである。すなわち、符号p21〜p24に対応する光線が結像距離b1を通過した平面を再現することに相当する。換言すれば、被写体A2の焦点ぼけ像を作り上げることに対応する。なお、焦点ぼけ像を得るうえで、マイクロレンズアレイ2のピッチよりも細かなピッチを持つ固体撮像素子3が必要であることは、以上の説明でも理解される。
With respect to the subject A2, using the signal received at the imaging distance b2, the refocusing to the image information at the imaging distance b1 is performed by reversing the pixel order of reference numerals p21 to p24. It is to be. That is, this corresponds to reproducing a plane in which the light beams corresponding to the symbols p21 to p24 have passed the imaging distance b1. In other words, this corresponds to creating a defocused image of the subject A2. It should be understood that the solid-state imaging device 3 having a finer pitch than the pitch of the
結像距離b2から仮想の結像距離b1=αb2へのリフォーカスを行う場合において、いかなる量でこれらの画素を再構成するか、に関する一般式は式5で与えられる。すなわち、撮影光学系1の絞り面の2次元座標を(u,v)とすると、仮想的な結像面αb2の2次元座標(s,t)に記録される情報Eαb2(s,t)は、
In the case of performing refocusing from the imaging distance b2 to the virtual imaging distance b1 = αb2, a general expression relating to how much these pixels are reconstructed is given by
と規定される。なお、αをリフォーカス係数と呼ぶ場合がある。
It is prescribed. Α may be referred to as a refocus coefficient.
式5は、図5を参照して説明することができる。図5は、絞り領域の座標uを通過した光線のうち、仮想のリフォーカス距離b1を含む平面上で座標sを構成する光線が、結像距離b2のどこに存在するか、を示している。三角形の相似原理により、結像距離b2を含む平面上において対応する座標は、u+(s−u)/αであるため、式1のsをこの値で置き換え、同様にtもv+(t−v)/αで置き換えればよい。従って、式5は、式1の変換式で説明される。
(本実施形態に係る撮影処理の効果)
図6及び図7を参照して、上述した撮影処理の効果について説明する。図6(a)は撮影時のフォーカシングレンズの位置で得られる(すなわちリフォーカス処理前の)撮影画像を、図6(b)はリフォーカス処理後の生成画像を、それぞれ模式的に示している。リフォーカス処理前に動体である被写体A2に合焦させているため、動体である被写体A2に対するぼけによるローリングシャッター歪みを抑制することができている。
(Effect of shooting processing according to this embodiment)
With reference to FIG. 6 and FIG. 7, the effect of the above-described photographing process will be described. FIG. 6A schematically shows a photographed image obtained at the position of the focusing lens at the time of photographing (that is, before refocus processing), and FIG. 6B schematically shows a generated image after refocus processing. . Since the subject A2 that is a moving object is focused before the refocus processing, it is possible to suppress rolling shutter distortion due to blurring on the subject A2 that is a moving object.
一方、リフォーカス処理後は、主要被写体である被写体A1に合焦させているため、動体である被写体A2は焦点ぼけ状態となっているが、リフォーカス処理前のローリングシャッター歪みが抑制された状態で再生することができる。 On the other hand, since the subject A1, which is the main subject, is focused after the refocus processing, the moving subject A2 is in a defocused state, but the rolling shutter distortion before the refocus processing is suppressed. Can be played.
なお、上述した本実施形態に係る撮影処理を適用しない場合の例を図7に模式的に示している。図7(a)は図1で上述した主要被写体A1に合焦させた状態で得られる撮影画像を、図7(b)は仮に動体である被写体A2にリフォーカスした場合の生成画像をそれぞれ模式的に示している。 FIG. 7 schematically shows an example in which the photographing process according to the present embodiment described above is not applied. FIG. 7A schematically shows a photographed image obtained by focusing on the main subject A1 described above with reference to FIG. 1, and FIG. 7B schematically shows a generated image when the subject is refocused on a moving subject A2. Is shown.
式5において想定するリフォーカス処理は、絞り形状を反映し円や正多角形などの等方的な範囲から画素を再構成するものである。このため、例えばリフォーカス後の点X(s0,t0)の再構成に用いる画素の範囲はリフォーカス処理前のXcir(s0,t0)の領域である。したがって、Xcir(s0,t0)に含まれる被写体A2の水平方向に伸びる輪郭は、光学的な焦点ぼけによる影響しか受けていないため、リフォーカス処理後において水平線として再構成される。
The refocusing process assumed in
一方、Xcir(s0,t0)に含まれる本来の垂直線は、光学的な焦点ぼけにローリングシャッター歪みを加えた被写体の移動方向への傾きを持って記録されている。このため、本来の垂直線を構成する画素の一部がXcir(s0,t0)から外れて明確でない輪郭として再構成される。すなわち、ローリングシャッター歪みの影響が大きくなれば、あたかも垂直方向と水平方向とでぼけの解消効果が異なっているかのようになる。 On the other hand, the original vertical line included in Xcir (s0, t0) is recorded with an inclination in the moving direction of the subject obtained by adding rolling shutter distortion to optical defocusing. For this reason, a part of the pixels constituting the original vertical line departs from Xcir (s0, t0) and is reconstructed as an unclear contour. That is, if the influence of rolling shutter distortion increases, it seems as if the effect of eliminating blur differs between the vertical direction and the horizontal direction.
このように、被写体A2に合焦させた画像を得たい場合、図6(a)の撮影画像を使用すれば、図7(b)と比べて垂直および水平ともに輪郭のぼけの低減した動体が得られることが分かる。 Thus, when it is desired to obtain an image focused on the subject A2, if the captured image of FIG. 6 (a) is used, a moving object with reduced outline blur both vertically and horizontally compared to FIG. 7 (b). You can see that
なお、上述した本実施形態では、LFカメラの撮影動作全体として図3に示した一連の動作を説明した。しかし、上記一連の動作はLFカメラの1つのモードとして存在するものであってもよい。例えばメカニカルシャッターを併用することが可能なシステムにおいても、時間当たりのコマ数が多い動画モード等では当該メカニカルシャッターの動作速度上の制約から全てのコマに対して使用することが困難である。このため、CMOSイメージセンサ特有のローリングシャッター歪みを原理的に回避することができない。そこで、メカニカルシャッターを併用しない動画等を、LFカメラにおける上記1つのモードとして本実施形態に係る処理を適用すれば、動体の歪みを抑制した、常に主要被写体にリフォーカスした動画を再生し、違和感の少ない画像を提示することができる。 In the above-described embodiment, the series of operations illustrated in FIG. 3 has been described as the entire photographing operation of the LF camera. However, the above series of operations may exist as one mode of the LF camera. For example, even in a system in which a mechanical shutter can be used in combination, it is difficult to use all frames in a moving image mode having a large number of frames per hour due to restrictions on the operation speed of the mechanical shutter. For this reason, the rolling shutter distortion peculiar to a CMOS image sensor cannot be avoided in principle. Therefore, if the processing according to the present embodiment is applied to a moving image that does not use a mechanical shutter as the above-described one mode in the LF camera, a moving image in which a moving object is suppressed and the refocusing to the main subject is always reproduced, and the user feels uncomfortable. It is possible to present an image with little.
また、動体を優先して記録した画像信号に、フォーカシングレンズを駆動して撮影したこと(動体に合焦した状態で撮影されたこと)を示すフラグを付して記録することができる。このようにすれば、処理時間等の制約から撮像装置内におけるリフォーカス処理が困難なシステムで撮影する場合であっても、撮影された画像信号を読み込んだ外部装置が主要被写体に合焦させるリフォーカス処理が必要であることを把握できる。すなわち、撮影された画像信号を外部装置が再生する場合にも、デフォルトとして主要被写体に合焦させたリフォーカス画像を再生して、違和感のない画像を提示することができる。 In addition, an image signal recorded with priority given to a moving object can be recorded with a flag indicating that the image has been taken by driving a focusing lens (taken in a state where the moving object is in focus). In this way, even when shooting with a system in which refocus processing in the imaging device is difficult due to restrictions on processing time or the like, the external device that has read the captured image signal will focus on the main subject. It can be understood that the focus processing is necessary. That is, even when an external device reproduces a captured image signal, it is possible to reproduce a refocused image focused on the main subject as a default and present an image without a sense of incongruity.
また、本実施形態では最速の動体に応じてフォーカシングレンズを制御する例について説明した。しかし、動体の速度以外に、動体のローリングシャッター歪みが大きくなる他の状況(例えば動体が撮影画角に占める面積が大きい場合)を考慮して、当該他の状況を満たす動体にフォーカシングレンズを制御してもよい。また、移動速度が同じ動体が存在する場合、動体の移動方向ベクトルによって歪みの大きさが変化する態様を判定し、よりローリングシャッター歪みの影響が大きくなる動体にフォーカシングレンズを制御するようにしてもよい。この場合、例えばS306において動体の速度を求める際に、固体撮像素子3の副走査方向と平行な移動ベクトルに重み付けして重視するなどの方法が考えられる。 In the present embodiment, the example in which the focusing lens is controlled according to the fastest moving body has been described. However, in addition to the speed of the moving object, taking into account other situations where the rolling shutter distortion of the moving object increases (for example, when the moving object occupies a large area in the shooting angle of view), the focusing lens is controlled to a moving object that satisfies the other conditions. May be. In addition, when there are moving objects having the same moving speed, it is possible to determine a mode in which the magnitude of distortion changes depending on the moving direction vector of the moving object, and to control the focusing lens to a moving object that is more affected by rolling shutter distortion. Good. In this case, for example, when obtaining the speed of the moving body in S306, a method of giving importance to the movement vector parallel to the sub-scanning direction of the solid-state image sensor 3 can be considered.
上述した実施形態では、S308において主要被写体を検出する構成を例に説明した。しかし、例えば、ユーザが不図示のタッチパネル等の操作部を介して被写体を特定した場合に、システム制御部13は指定された主要被写体に対してS309以降の処理を行ってもよい。このようにすれば、より容易にユーザの所望の被写体に合焦させた画像を生成することができる。
In the above-described embodiment, the configuration in which the main subject is detected in S308 has been described as an example. However, for example, when the user specifies a subject via an operation unit such as a touch panel (not shown), the
以上説明したように、本実施形態では、入射する光線の角度情報を取得可能なLFカメラにおいて、動体を検出し、焦点を検出した動体に合わせるようにフォーカシングレンズを制御するようにした。また、動体に焦点を合わせて撮影した画像信号を用いてリフォーカス処理を行って、別途検出した主要被写体に合焦させた画像を出力するようにした。このようにすることで、動体に発生するローリングシャッター歪みを低減し、当該動体に合焦させるリフォーカス処理を行った際の歪みを低減することができる。換言すれば、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能になる。 As described above, in the present embodiment, in the LF camera that can acquire the angle information of the incident light beam, the moving object is detected, and the focusing lens is controlled so as to match the focus with the detected moving object. In addition, refocus processing is performed using an image signal captured with a moving object in focus, and an image focused on a separately detected main subject is output. By doing in this way, the rolling shutter distortion which generate | occur | produces in a moving body can be reduced, and the distortion at the time of performing the refocus process which focuses on the said moving body can be reduced. In other words, it is possible to reduce the influence of rolling shutter distortion and improve the accuracy of refocus processing.
(実施形態2)
次に実施形態2について説明する。実施形態1では、最速の動体を検出した場合に当該動体に合焦するようにフォーカシングレンズを駆動させた。実施形態2では、動体の速度と検出された動体の画角に占めるサイズとを複合的に考慮して、ローリングシャッター歪みが顕著になると想定される動体に優先的にフォーカシングレンズを駆動する点が異なる。本実施形態のデジタルカメラ100は、実施形態1と実質的に同一構成であり、撮影処理における上述した点のみが異なる。このため、同一の構成及びステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next,
(本実施形態の撮像処理に係る一連の動作)
図8を参照して、本実施形態の撮像処理に係る一連の動作について説明する。なお、本一連の動作は、実施形態1と同様、例えば不図示の操作部に対するユーザからの操作が検出された場合に開始される。また、システム制御部13がROM15に記憶されたプログラムをRAM14の作業用領域に展開し、実行することにより実現される。
(A series of operations related to the imaging processing of the present embodiment)
With reference to FIG. 8, a series of operations related to the imaging process of the present embodiment will be described. Note that this series of operations is started, for example, when a user operation on an operation unit (not shown) is detected, as in the first embodiment. Further, this is realized by the
はじめに、システム制御部13は、実施形態1と同様にS301〜S306の処理を行う。
First, the
S801において、システム制御部13は、S305において検出された最速の動体について、当該動体の画角に占めるサイズが、ローリングシャッター歪みが顕著に現われるサイズであるかを判定する。例えば、システム制御部13は、処理対象の動体のサイズが所定の閾値(例えば画面垂直サイズの1/4等)を超えた場合、当該動体のサイズが、ローリングシャッター歪みが顕著に現われるサイズであると判定して、処理をS307に進める。一方、処理対象の動体のサイズが上記閾値以下である場合、ローリングシャッター歪みが顕著に現われるサイズでないと判定して、S802に処理を進める。
In step S <b> 801, the
S802において、システム制御部13は、S801において判定された動体の次に高速な動体があるかを判定する。例えば、システム制御部13は、S305においてRAM14に記憶させた各動体の移動速度を参照して、次に高速な動体がある場合、処理を再び処理をS801に戻して次に高速な動体のサイズを判定する。すなわち、高速な動体であってローリングシャッター歪みが顕著となるようなサイズの動体を特定するように処理を繰り返す。一方、次に高速な動体がない場合、処理をS803に進める。なお、条件に適合する動体がない場合には、上述のサイズの閾値を下げてS801とS802の処理を繰り返してもよい。S803において、システム制御部13は、上述のサイズの閾値を超える動体が無いことを示すフラグ(例えば2値)を設定する。
In step S802, the
S804において、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを駆動する。例えば、システム制御部13は、S803においてフラグが設定されていない場合(すなわち、サイズの閾値を超える動体がある)、ローリングシャッター歪みが顕著となるサイズの被写体に合焦するように、フォーカシングレンズを駆動する。このように制御することにより、ローリングシャッター歪みの影響が大きくなる動体に合焦させて撮影された画像信号を得ることができる。すなわち、ローリングシャッター歪みの影響を低減した画像信号を得ることができる。一方、フラグが設定されている場合(サイズの閾値を超える動体がない)、サイズは小さいものの最速である動体に合焦するように、フォーカシングレンズを駆動する。
In step S <b> 804, the
さらに、システム制御部13は実施形態1と同様にS308〜S311の処理を行って、本処理に係る一連の動作を終了する。
Further, the
以上説明したように、本実施形態では、動体の速度と検出された動体の画角に占めるサイズとを複合的に考慮して、ローリングシャッター歪みが顕著になると想定される動体に優先的にフォーカシングレンズを駆動するようにした。また、この動体に合焦させて撮影した画像信号を用いてリフォーカス処理を行って、別途検出した主要被写体に合焦させた画像を出力するようにした。このようにすることで、ローリングシャッター歪みによる影響が大きくなる動体から優先的にリフォーカス処理を行った際の歪みを低減することができる。 As described above, in the present embodiment, focusing is preferentially applied to a moving object in which rolling shutter distortion is assumed to be significant by considering the speed of the moving object and the size of the detected moving object in the angle of view. The lens was driven. Further, refocus processing is performed using an image signal photographed while focusing on this moving object, and an image focused on a separately detected main subject is output. By doing so, it is possible to reduce the distortion when the refocus processing is preferentially performed from the moving object that is greatly affected by the rolling shutter distortion.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1…撮影光学系、2…マイクロレンズアレイ、3…固体撮像素子、6…フォーカシングレンズ駆動部、13…システム制御部、 DESCRIPTION OF SYMBOLS 1 ... Imaging optical system, 2 ... Micro lens array, 3 ... Solid-state image sensor, 6 ... Focusing lens drive part, 13 ... System control part,
Claims (12)
被写体に撮影光学系の焦点を合わせるための焦点調節手段と、
前記撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し手段と、
前記読み出し手段が、前記画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、前記撮影光学系の焦点を前記動体に合わせるように前記焦点調節手段を制御する制御手段と、
を備えることを特徴とする撮像装置。 An imaging device having a plurality of pixels arranged in a two-dimensional shape and capable of acquiring an image signal including angle information of incident light rays;
Focus adjusting means for focusing the photographing optical system on the subject;
Reading means capable of reading out signals of pixels of the image sensor at different timings depending on the positions of the pixels;
When the readout means reads out the signal of the pixel at a different timing depending on the position of the pixel and there is a moving object in the subject to be photographed, the focus of the photographing optical system is Control means for controlling the focus adjusting means so as to match the moving body;
An imaging apparatus comprising:
ことを特徴とする請求項1に記載の撮像装置。 Refocusing means for generating a refocus image in which a subject different from the moving object is focused based on the image signal photographed with the focus of the photographing optical system aligned with the moving object;
The imaging apparatus according to claim 1.
ことを特徴とする請求項2に記載の撮像装置。 A moving object detecting means for detecting the moving object based on an image signal obtained from the image sensor;
The imaging apparatus according to claim 2.
ことを特徴とする請求項3に記載の撮像装置。 The moving object detection means detects the moving object in preference to a fast moving subject.
The imaging apparatus according to claim 3.
ことを特徴とする請求項4に記載の撮像装置。 The moving object detection means detects the moving object based further on whether the size of the moving subject in the angle of view exceeds a predetermined threshold;
The imaging apparatus according to claim 4.
前記リフォーカス手段は、検出された前記主要被写体に合焦するように、前記リフォーカス画像を生成する、
ことを特徴とする請求項2から5のいずれか1項に記載の撮像装置。 A main subject detection means for detecting a main subject that is a main subject that is different from the moving object among the subjects;
The refocusing unit generates the refocused image so as to focus on the detected main subject;
The image pickup apparatus according to claim 2, wherein the image pickup apparatus is an image pickup apparatus.
前記焦点調節手段は、前記判定手段が前記動体と異なる被写体に合焦させたリフォーカス画像を生成可能でないと判定した場合、前記撮影光学系の焦点を前記動体に合わせた位置から変更する、
ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。 A determination means for determining whether a refocus image focused on a subject different from the moving object can be generated when the photographing optical system is focused on the moving object;
The focus adjusting unit changes the focus of the photographing optical system from a position aligned with the moving body when the determining unit determines that a refocus image focused on a subject different from the moving body cannot be generated.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
ことを特徴とする請求項7に記載の撮像装置。 The focus adjusting unit changes a focus of the photographing optical system so that blur of the moving object is reduced within a range in which a refocus image focused on a subject different from the moving object can be generated;
The imaging apparatus according to claim 7.
ことを特徴とする請求項1から8のいずれか1項に記載の撮像装置。 The image sensor is a CMOS image sensor.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
ことを特徴とする請求項1から9のいずれか1項に記載の撮像装置。 The imaging device includes a microlens array, and each microlens is configured to correspond to the plurality of pixels.
The imaging apparatus according to any one of claims 1 to 9, wherein
被写体に撮影光学系の焦点を合わせるための焦点調節工程と、
前記撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し工程と、
前記読み出し工程において、前記画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、前記撮影光学系の焦点を前記動体に合わせるように焦点調節手段を制御する制御工程と、
を備えることを特徴とする撮像装置の制御方法。 A control method of an imaging apparatus having a plurality of pixels arranged two-dimensionally and having an imaging element capable of acquiring an image signal including angle information of incident light rays,
A focus adjustment process for focusing the photographing optical system on the subject;
A readout step capable of reading out signals of pixels of the image sensor at different timings according to the positions of the pixels;
In the readout step, when the pixel signal is read out at different timings depending on the position of the pixel, and there is a moving object in the subject to be imaged, the focus of the imaging optical system is A control step of controlling the focus adjustment means to match the moving body;
An image pickup apparatus control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018243A JP2017139576A (en) | 2016-02-02 | 2016-02-02 | Imaging device, and control method and program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016018243A JP2017139576A (en) | 2016-02-02 | 2016-02-02 | Imaging device, and control method and program therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017139576A true JP2017139576A (en) | 2017-08-10 |
Family
ID=59565201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018243A Pending JP2017139576A (en) | 2016-02-02 | 2016-02-02 | Imaging device, and control method and program therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017139576A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11030724B2 (en) | 2018-09-13 | 2021-06-08 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
-
2016
- 2016-02-02 JP JP2016018243A patent/JP2017139576A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11030724B2 (en) | 2018-09-13 | 2021-06-08 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
US11663699B2 (en) | 2018-09-13 | 2023-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055332B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5226600B2 (en) | Image deformation apparatus and operation control method thereof | |
JP5938281B2 (en) | Imaging apparatus, control method therefor, and program | |
JP6838994B2 (en) | Imaging device, control method and program of imaging device | |
JP5237978B2 (en) | Imaging apparatus and imaging method, and image processing method for the imaging apparatus | |
US9208569B2 (en) | Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data | |
US8947585B2 (en) | Image capturing apparatus, image processing method, and storage medium | |
JP2014057181A (en) | Image processor, imaging apparatus, image processing method and image processing program | |
JP2014057141A (en) | Image processing device, method and program, and imaging apparatus including image processing device | |
JP6518452B2 (en) | Imaging apparatus and imaging method | |
JP2016219987A (en) | Image processing apparatus, imaging device, image processing method and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
US20220244849A1 (en) | Image processing apparatus, image capturing apparatus, and control method of image processing apparatus | |
JP6360338B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6608194B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2020017807A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
US11330179B2 (en) | Imaging device and control method thereof | |
JP2017139576A (en) | Imaging device, and control method and program therefor | |
JP2016100868A (en) | Image processing apparatus, image processing method, and program, and imaging apparatus | |
JP6226536B2 (en) | Imaging apparatus and control method thereof | |
JP6210836B2 (en) | IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
JP2017163412A (en) | Image processing system, its control method, imaging apparatus, and program | |
JP6728005B2 (en) | Imaging device, imaging method, and program | |
JP6566800B2 (en) | Imaging apparatus and imaging method |