JP2017139576A - Imaging device, and control method and program therefor - Google Patents

Imaging device, and control method and program therefor Download PDF

Info

Publication number
JP2017139576A
JP2017139576A JP2016018243A JP2016018243A JP2017139576A JP 2017139576 A JP2017139576 A JP 2017139576A JP 2016018243 A JP2016018243 A JP 2016018243A JP 2016018243 A JP2016018243 A JP 2016018243A JP 2017139576 A JP2017139576 A JP 2017139576A
Authority
JP
Japan
Prior art keywords
moving object
subject
image
focus
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016018243A
Other languages
Japanese (ja)
Inventor
小林 寛和
Hirokazu Kobayashi
寛和 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016018243A priority Critical patent/JP2017139576A/en
Publication of JP2017139576A publication Critical patent/JP2017139576A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of improving the accuracy of refocus processing, by reducing the impact of rolling shutter distortion.SOLUTION: An imaging device includes: an image pick-up device having multiple pixels arranged two-dimensionally, and capable of acquiring an image signal containing angle information of an incident light beam; focus adjustment means for focusing an imaging optical system on a subject; reading means capable of reading a signal of a pixel of the image pick-up device, at a different timing depending on the position of the pixel; and control means for controlling the focus adjustment means so as to focus the imaging optical system on a moving body, when the reading means reads a signal of a pixel at a different timing depending on the position of the pixel, and when the moving body exists in the subject, i.e., the shooting object.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置およびその制御方法ならびにプログラムに関する。   The present invention relates to an imaging apparatus, a control method thereof, and a program.

マイクロレンズアレイを通過した光線を分割して記録することにより、被写体からの光線の角度情報を維持して画像信号を取得することができるライトフィールドカメラ(LFカメラともいう)が提案されている(非特許文献1)。LFカメラによって記録された画像信号を用いれば、撮影後に視点を変化させた画像やフォーカス状態を変更した画像を再構成する(リフォーカス処理ともいう)ことができる。   There has been proposed a light field camera (also referred to as an LF camera) that can acquire the image signal while maintaining the angle information of the light beam from the subject by dividing and recording the light beam that has passed through the microlens array ( Non-patent document 1). By using the image signal recorded by the LF camera, it is possible to reconstruct an image in which the viewpoint is changed after shooting or an image in which the focus state is changed (also referred to as a refocus process).

LFカメラは、マイクロレンズアレイのような光学的な構成部材を必要とし、組み付け精度に応じて歪みが発生する場合があるため、その調整が必要となる。これに対して、特許文献1には、撮影光学系とマイクロレンズアレイを備えた撮像装置であって、装置を構成する構成部材の歪みを検出し、この歪みの検出結果と予め定められた構成部材の歪み特性とに基づいて、撮影画像の歪みを補正するものが開示されている。   The LF camera requires an optical component such as a microlens array, and distortion may occur depending on the assembly accuracy, so adjustment thereof is necessary. On the other hand, Patent Document 1 is an image pickup apparatus including a photographing optical system and a microlens array, and detects distortion of components constituting the apparatus, and a detection result of the distortion and a predetermined configuration. A device that corrects the distortion of a captured image based on the distortion characteristics of the member is disclosed.

Ren.Ng、外7名,「Light Field Photography with a Hand−Held Plenoptic Camera」,Stanford Tech Report CTSR 2005−02Ren. Ng, 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

特開2011−19088号公報JP 2011-19088 A

ところで、光学的な構成部材の組み付け精度が向上した場合であっても、LFカメラに用いられる撮像素子が、例えばCMOSイメージセンサである場合、撮影画像に撮像素子固有の歪みが生じる場合がある。例えばローリングシャッター歪みは、撮像素子上の画素の読み出しタイミングがその位置によって異なる、撮像素子の読み出し方式に起因して生じる。このような読み出し方式を採用した撮像素子を用いる場合、高速で移動する被写体(動体ともいう)に歪みが生じる。特に、静止した主要被写体に合焦させて撮影する際にぼけた動体が存在する場合、この動体には、ぼけによる広がりが加わってより大きな歪みが生じる。したがって、LFカメラによって撮影した後にこの動体に合焦させるリフォーカス処理を行うと、当該動体の歪みがより大きく現われることになる。   By the way, even when the assembly accuracy of the optical components is improved, when the image sensor used in the LF camera is, for example, a CMOS image sensor, distortion inherent to the image sensor may occur in the captured image. For example, rolling shutter distortion is caused by an image sensor reading method in which pixel readout timing on the image sensor varies depending on the position. When an image sensor that employs such a readout method is used, distortion occurs in a subject (also referred to as a moving object) that moves at high speed. In particular, when there is a moving object that is blurred when shooting while focusing on a stationary main subject, the moving object is further distorted due to the spread due to the blur. Therefore, if the refocusing process for focusing on this moving object is performed after shooting with the LF camera, the distortion of the moving object appears more greatly.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能な撮像装置およびその制御方法ならびにプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and is capable of reducing the influence of rolling shutter distortion and improving the accuracy of refocus processing, and a control method and program therefor The purpose is to provide.

この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、2次元状に配列された複数の画素を有し、入射する光線の角度情報を含む画像信号を取得可能な撮像素子と、被写体に撮影光学系の焦点を合わせるための焦点調節手段と、撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し手段と、読み出し手段が、画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、撮影光学系の焦点を動体に合わせるように焦点調節手段を制御する制御手段と、を備えることを特徴とする。   In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, an imaging device having a plurality of pixels arranged two-dimensionally and capable of acquiring an image signal including angle information of incident light rays, and a focus adjusting unit for focusing the photographing optical system on a subject, This is a case where the readout means that can read out the pixel signal of the image sensor at different timings according to the position of the pixel, and the readout means read out the pixel signal at different timings according to the position of the pixel. And a control means for controlling the focus adjustment means so that the focus of the photographing optical system is adjusted to the moving object when the moving object is present in the subject to be imaged.

本発明によれば、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能になる。   According to the present invention, it is possible to reduce the influence of rolling shutter distortion and improve the accuracy of refocus processing.

本発明の実施形態で考慮するローリングシャッター歪みの影響を説明する図The figure explaining the influence of rolling shutter distortion considered in the embodiment of the present invention 実施形態1に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera as an example of an imaging apparatus according to Embodiment 1. FIG. 実施形態1に係る撮影処理の一連の動作を示すフローチャート6 is a flowchart showing a series of operations of imaging processing according to the first embodiment. 実施形態1に係る撮影処理の原理を説明する図FIG. 5 is a diagram for explaining the principle of imaging processing according to the first embodiment. 実施形態1に係るリフォーカス処理を模式的に説明する図FIG. 6 is a diagram schematically illustrating refocus processing according to the first embodiment. 実施形態1に係る撮影処理による効果を模式的に説明する図FIG. 6 is a diagram schematically illustrating an effect of shooting processing according to the first embodiment. 実施形態1に係る撮影処理を適用しない場合を模式的に説明する図The figure which illustrates typically the case where the imaging | photography process which concerns on Embodiment 1 is not applied. 実施形態2に係る撮影処理の一連の動作を示すフローチャート8 is a flowchart showing a series of operations of shooting processing according to the second embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、マイクロレンズアレイとフォーカシングレンズを備えた任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、マイクロレンズアレイとフォーカシングレンズを備えた任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、医療機器などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an arbitrary digital camera including a microlens array and a focusing lens will be described as an example of an imaging apparatus. However, the present invention is not limited to a digital camera, and can be applied to any device including a microlens array and a focusing lens. These devices may include, for example, mobile phones, game machines, tablet terminals, personal computers, clock-type or glasses-type information terminals, medical devices, and the like.

(ライトフィールドカメラの概要)
まず、ライトフィールドカメラ(単にLFカメラともいう)ではない、一般的なデジタルカメラのフォーカス状態について説明した上で、LFカメラの原理について説明する。
(Outline of light field camera)
First, after explaining the focus state of a general digital camera that is not a light field camera (also simply referred to as an LF camera), the principle of the LF camera will be described.

一般的なデジタルカメラのフォーカス状態は、撮影時に、フォーカシングレンズの位置が撮影者によって手動で、又は自動焦点調節(オートフォーカス)機能によって自動で調整される。撮影された画像信号は、デジタル画像処理によるシャープネスの調節等により、被写体の鮮鋭度を変更することができるが、例えば既に光学的にぼけてしまった情報を回復することはできない。これは、光学的な情報が奥行を含む三次元の情報であるのに対して、この光学的な情報が当該デジタルカメラの固体撮像素子の撮像面に結像する際に、二次元の情報に変換されるためである。すなわち、一般的なデジタルカメラでは、入射する光線が固体撮像素子の撮像面に正対する被写体平面のどこから到達した光かを記録するものであり、入射する光がどのような角度分布を持つかは記録されない。更に換言すれば、一般的なデジタルカメラは、被写体のある点から生じた光線を、撮影光学系の絞り口径に相当する角度範囲で積分したうえで記録する。具体的に、撮影光学系の絞り面の二次元座標を(u,v)とすると、固体撮像素子等の記録面の二次元座標(s,t)に記録される情報Eb(s,t)は、   In the focus state of a general digital camera, the position of a focusing lens is adjusted manually by a photographer or automatically by an automatic focus adjustment (autofocus) function at the time of shooting. Although the captured image signal can change the sharpness of the subject by adjusting the sharpness by digital image processing, for example, information that has already been optically blurred cannot be recovered. This is because the optical information is three-dimensional information including the depth, but when this optical information forms an image on the imaging surface of the solid-state image sensor of the digital camera, the information is converted into two-dimensional information. This is because it is converted. In other words, in a general digital camera, the incident light beam is recorded from where on the object plane facing the imaging surface of the solid-state image sensor, and what angle distribution of the incident light has? Not recorded. In other words, a general digital camera records a light beam generated from a certain point of an object after integrating it in an angle range corresponding to the aperture diameter of the photographing optical system. Specifically, when the two-dimensional coordinates of the diaphragm surface of the photographing optical system are (u, v), the information Eb (s, t) recorded on the two-dimensional coordinates (s, t) of the recording surface of the solid-state imaging device or the like. Is

Figure 2017139576
Figure 2017139576

で表される量である。ここで、bは撮影光学系の後側主点から撮像面までの結像距離を表し、Lb(s,t,u,v)は撮影光学系の結像距離bの下で、被写体からの光線のうち絞り面の座標(u,v)を通過して撮像面の座標(s,t)に到達する光線を表す。この結像距離bは、撮影光学系のフォーカシングレンズ駆動により一意に決定され、結像距離bの下で撮像面の座標(s,t)に到達する光線も、後述の結像公式により一意に決定される。このため、Lb(s,t,u,v)は撮影光学系のフォーカシングレンズ駆動の条件下で絞り面の座標(u,v)を通過する被写体からの光線を表す。 It is the quantity represented by. Here, b represents the imaging distance from the rear principal point of the photographic optical system to the imaging surface, and Lb (s, t, u, v) represents the distance from the subject under the imaging distance b of the photographic optical system. Of the light rays, the light rays that pass through the coordinates (u, v) of the diaphragm surface and reach the coordinates (s, t) of the imaging surface are represented. The imaging distance b is uniquely determined by driving the focusing lens of the photographing optical system, and rays reaching the coordinates (s, t) of the imaging surface under the imaging distance b are also uniquely determined by an imaging formula described later. It is determined. For this reason, Lb (s, t, u, v) represents a light beam from the subject that passes through the coordinates (u, v) of the aperture plane under the condition of driving the focusing lens of the photographing optical system.

一方、LFカメラは、ライトフィールドフォトグラフィと呼ばれる技術により、被写体からの光線の角度情報を維持して光線を記録することができる。LFカメラは、例えば、所定のピッチでマイクロレンズが配列されたマイクロレンズアレイに主として被写体像を結像させ、マイクロレンズアレイの後方に配置された、よりピッチの細かい固体撮像素子により入射した光線を記録する。なお、このような光線の角度情報を含む画像信号は光線空間情報ともいわれる。   On the other hand, the LF camera can record the light beam while maintaining the angle information of the light beam from the subject by a technique called light field photography. The LF camera, for example, forms a subject image mainly on a microlens array in which microlenses are arranged at a predetermined pitch, and receives light rays incident by a solid-state imaging device with a finer pitch arranged behind the microlens array. Record. Note that an image signal including such light angle information is also referred to as light space information.

マイクロレンズアレイのピッチよりも細かなピッチの固体撮像素子の各画素に記録される光線は、マイクロレンズアレイへの結像状態において撮影光学系の絞りの一部領域を通過した光である。ここで、絞りの一部領域を通過する光線は、被写体のある点から生じた光線のうち特定の角度で出射された光線である。したがって、マイクロレンズアレイよりも細かいピッチで画素を備えることにより、ピッチが細かい分だけ多数の光線を角度で分割して記録することができる。複数の光線を分割して記録することができるため、視点を変化させた画像を取得することや撮影後にフォーカス状態を変更するリフォーカス処理が可能になる。   The light beam recorded in each pixel of the solid-state imaging device having a finer pitch than the pitch of the microlens array is light that has passed through a partial area of the stop of the photographing optical system in the image formation state on the microlens array. Here, the light beam that passes through a partial area of the stop is a light beam emitted from a certain point of the subject and emitted at a specific angle. Therefore, by providing pixels with a finer pitch than the microlens array, it is possible to divide and record a large number of light beams by an angle corresponding to the finer pitch. Since a plurality of light beams can be divided and recorded, an image with a changed viewpoint can be acquired, and refocus processing for changing the focus state after shooting can be performed.

(ローリングシャッター歪みの発生原理)
ローリングシャッター歪みの発生原理は、CMOSイメージセンサの構造上発生する歪みとして知られている。CMOSイメージセンサでは、水平および垂直に二次元状に配列された画素に対して、第1にこれらの画素を露光し、第2にこれらの画素の電荷を順次読み出す、という大きく2つのステップを実行する。露光にメカニカルシャッターを併用できる場合、画素の順次読み出し中は遮光することができるため、ローリングシャッター歪みは回避することができる。一方、メカニカルシャッターを併用することができない場合、画素の電荷の順次読み出し(すなわち蓄積終了を以て露光完了とする)と、1つ前のフレームにおける画素の電荷の順次読み出し(すなわち蓄積開始を以て露光開始とする)とが行われる。画素の電荷の順次読み出しには、XYアドレス型や垂直順次走査型などが挙げられるが、いずれの方法も、固体撮像素子上のある座標に存在する画素は、別の垂直行に存在する画素とは蓄積開始および蓄積終了の時刻が異なる。蓄積開始と蓄積終了との時間差(すなわち蓄積時間)は全ての画素にとって一定値に保たれるものの、その読み出しの時刻差により、画面内を高速で移動する被写体や、比較的低速で移動する被写体であっても画角に占める割合の大きな被写体に歪みが生じる。この歪みは、例えば第1行目を読み出した際に水平座標x1〜x2に存在していた被写体が水平速度vhで移動すると、第100行目を読み出した時には水平座標x1+100vh〜x2+100vhに移動しているために生じる。
(Principles of rolling shutter distortion)
The principle of generation of rolling shutter distortion is known as distortion generated in the structure of a CMOS image sensor. In the CMOS image sensor, two steps are executed: first, these pixels are exposed to pixels arranged in two dimensions horizontally and vertically, and secondly, the charges of these pixels are sequentially read out. To do. When a mechanical shutter can be used together with exposure, light can be shielded during sequential readout of pixels, so that rolling shutter distortion can be avoided. On the other hand, when the mechanical shutter cannot be used in combination, sequential readout of the pixel charges (ie, the exposure is completed when the accumulation is completed) and sequential readout of the pixel charges in the previous frame (ie, the start of the exposure when the accumulation starts) Is done). The sequential readout of the charge of the pixel includes an XY address type and a vertical sequential scanning type. In either method, the pixel existing at a certain coordinate on the solid-state image sensor is the same as the pixel existing in another vertical row. Have different accumulation start and accumulation end times. Although the time difference between the accumulation start and accumulation end (that is, the accumulation time) is kept constant for all pixels, the subject moving at a high speed on the screen or the subject moving at a relatively low speed due to the time difference of reading. Even so, distortion occurs in a subject having a large proportion of the angle of view. For example, when the subject existing in the horizontal coordinates x1 to x2 moves at the horizontal speed vh when the first row is read, the distortion moves to the horizontal coordinates x1 + 100 vh to x2 + 100 vh when the 100th row is read. It occurs because of being.

(LFカメラにおけるローリングシャッター歪み)
更に、このようなローリングシャッター歪みの発生するCMOSイメージセンサを、LFカメラに適用した場合について、図1を参照して説明する。図1において、撮影光学系1は、絞りを含み、その焦点距離はfである。また、マイクロレンズアレイ2は、マイクロレンズを2次元状に配置し、固体撮像素子3と撮影光学系1の間に配置されている。また、撮影対象である被写体A1と被写体A2とが異なる被写体距離に存在している。図1の例では、撮影光学系1により焦点を合わせた被写体距離a1の被写体A1がマイクロレンズアレイ2の頂点に結像されている。すなわち、撮影光学系1の結像公式に従えば、撮影光学系1の後側主点からマイクロレンズアレイ2の頂点の距離b1は、
b1=(a1−f)/f・a1 (式2)
で表される。
(Rolling shutter distortion in LF camera)
Furthermore, a case where such a CMOS image sensor in which rolling shutter distortion occurs is applied to an LF camera will be described with reference to FIG. In FIG. 1, a photographing optical system 1 includes a stop, and its focal length is f. The microlens array 2 has microlenses arranged two-dimensionally and is disposed between the solid-state imaging device 3 and the photographing optical system 1. In addition, the subject A1 and the subject A2 that are the photographing targets exist at different subject distances. In the example of FIG. 1, a subject A1 at a subject distance a1 focused by the photographing optical system 1 is imaged at the apex of the microlens array 2. That is, according to the imaging formula of the photographing optical system 1, the distance b1 from the rear principal point of the photographing optical system 1 to the apex of the microlens array 2 is
b1 = (a1−f) / f · a1 (Formula 2)
It is represented by

また、被写体A2は、その被写体距離a2がa2<a1の関係を満たす被写体である。被写体距離a1の被写体A1にフォーカスが合っているため、同時に撮影される被写体A2の結像距離b2は、
b2=(a2−f)/f・a2 (式3)
となる(但し、b2>b1)。すなわち、被写体A2からの光線は、被写体A1からの光線よりも撮影光学系1の後側主点から見て遠い側で結像する。固体撮像素子3がb1とb2の間に存在するため、光線は、(撮影光学系1の絞りによる制限を受けた角度範囲において)その全てが式3を満たす結像点で交差する前に、投影面積の広がった状態で固体撮像素子3に記録される。このため、固体撮像素子3に投影される光学像のぼけが大きいほど、被写体A2が投影される座標間の距離が大きくなって読み出し時刻の差も大きくなる。つまり、光学像が広がる場合、固体撮像素子3のローリングシャッター歪みの影響を大きく受けることになる。
The subject A2 is a subject whose subject distance a2 satisfies the relationship of a2 <a1. Since the subject A1 at the subject distance a1 is in focus, the imaging distance b2 of the subject A2 photographed at the same time is
b2 = (a2−f) / f · a2 (Formula 3)
(Where b2> b1). That is, the light beam from the subject A2 forms an image on the side farther from the rear principal point of the photographing optical system 1 than the light beam from the subject A1. Since the solid-state imaging device 3 exists between b1 and b2, the light rays (in the angular range limited by the stop of the photographing optical system 1) all intersect at an imaging point that satisfies Equation 3 before Recording is performed on the solid-state imaging device 3 in a state where the projection area is widened. For this reason, the greater the blur of the optical image projected onto the solid-state imaging device 3, the greater the distance between the coordinates on which the subject A2 is projected, and the greater the difference in readout time. That is, when the optical image spreads, it is greatly affected by the rolling shutter distortion of the solid-state imaging device 3.

上述した一般的なデジタルカメラでは、撮影時にぼけた被写体A2はぼけたまま表示されるため、ぼけた被写体に対するローリングシャッター歪みの影響は認識し難い。しかし、LFカメラでは、リフォーカス処理により撮影後に任意の被写体に合焦した画像を生成可能であるため、ぼけによってローリングシャッター歪みの影響が大きくなるほど、リフォーカスした際の被写体の歪みが認識され易い状態で現れる。   In the general digital camera described above, the subject A2 blurred at the time of shooting is displayed as blurred, so it is difficult to recognize the effect of rolling shutter distortion on the blurred subject. However, since the LF camera can generate an image focused on an arbitrary subject after shooting by refocus processing, the greater the influence of rolling shutter distortion due to blur, the more easily the distortion of the subject when refocusing is recognized. Appears in state.

反対に、ローリングシャッター歪みが発生する動体に合焦させて撮影することにより、ぼけによるローリングシャッター歪みの増大を抑制することができる。   On the contrary, an increase in rolling shutter distortion due to blur can be suppressed by focusing on a moving object that generates rolling shutter distortion.

(デジタルカメラ100の構成)
図2は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図を示している。なお、図2に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 2 is a block diagram illustrating a functional configuration example of the digital camera 100 as an example of the imaging apparatus of the present embodiment. Note that one or more of the functional blocks shown in FIG. 2 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or by executing software by a programmable processor such as a CPU or MPU. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

撮影光学系1は、焦点調節を行うフォーカシングレンズや画角を変更するズームレンズ等のレンズ群と、絞りとを含む。マイクロレンズアレイ2は、水平および垂直に所定のピッチで2次元状に配列された複数のマイクロレンズにより構成される。撮影光学系1のフォーカシングレンズによって合焦した被写体像がマイクロレンズの頂点に結像される。   The photographing optical system 1 includes a lens group such as a focusing lens for adjusting a focus and a zoom lens for changing a field angle, and a diaphragm. The microlens array 2 is composed of a plurality of microlenses arranged two-dimensionally at a predetermined pitch horizontally and vertically. A subject image focused by the focusing lens of the photographing optical system 1 is formed on the apex of the microlens.

固体撮像素子3は、2次元状に配列された複数の画素を有し、撮影光学系1によって結像された被写体像を光電変換する光電変換機能と、光電変換された電気信号を画像信号として転送する信号転送機能とを有する。固体撮像素子3は、マイクロレンズアレイ2の1つのマイクロレンズに対して複数の画素が対応するように構成される。固体撮像素子3がCMOSイメージセンサである場合、各画素からの信号は、例えばいわゆるローリング走査により行ごとに順次転送される。A/D変換部4は、サンプリングされたアナログ画像信号をデジタル画像信号に変換する回路又はモジュールを含む。デジタル化された画像信号は、画像メモリ8に記憶される。   The solid-state imaging device 3 has a plurality of pixels arranged in a two-dimensional form, and has a photoelectric conversion function for photoelectrically converting a subject image formed by the photographing optical system 1 and a photoelectrically converted electric signal as an image signal. And a signal transfer function for transfer. The solid-state imaging device 3 is configured such that a plurality of pixels correspond to one microlens of the microlens array 2. When the solid-state imaging device 3 is a CMOS image sensor, signals from each pixel are sequentially transferred for each row by so-called rolling scanning, for example. The A / D conversion unit 4 includes a circuit or a module that converts the sampled analog image signal into a digital image signal. The digitized image signal is stored in the image memory 8.

信号処理部7は、画像メモリ8に記憶された画像信号に対してホワイトバランス補正やガンマ補正等の所定の画像処理を施す回路又はモジュールを含む。信号処理部7は、当該画像信号に対して後述するリフォーカス処理を行う。信号処理部7から出力された画像信号は、例えばメモリカード等の不揮発性の記録媒体10に記録される。記録制御部9は、記録媒体10とのインターフェイス回路を含み、記録媒体10への画像信号の書き込みや記録媒体10からの画像信号の読み出しを制御する。   The signal processing unit 7 includes a circuit or a module that performs predetermined image processing such as white balance correction and gamma correction on the image signal stored in the image memory 8. The signal processing unit 7 performs refocus processing described later on the image signal. The image signal output from the signal processing unit 7 is recorded on a nonvolatile recording medium 10 such as a memory card. The recording control unit 9 includes an interface circuit with the recording medium 10 and controls writing of an image signal to the recording medium 10 and reading of an image signal from the recording medium 10.

タイミング発生部5は、固体撮像素子3などの撮像系を駆動する。さらに、撮像系の駆動ひいては固体撮像素子3の出力信号に同期してA/D変換部4を駆動制御する。フォーカシングレンズ駆動部6は、撮影光学系1に含まれるフォーカシングレンズを駆動する。なお、フォーカシングレンズは、ライトフィールドフォトグラフィに依らない一般に知られたデジタルカメラにおいて被写体に合焦させるために用いられるものと同様であってよい。フォーカシングレンズ駆動部6は、自動焦点検出(AF)機能などによってシステム制御部13から制御信号を受信して、撮影光学系1の結像距離を決定する。   The timing generator 5 drives an imaging system such as the solid-state imaging device 3. Further, the A / D converter 4 is driven and controlled in synchronization with the drive of the imaging system and, in turn, the output signal of the solid-state imaging device 3. The focusing lens driving unit 6 drives a focusing lens included in the photographing optical system 1. The focusing lens may be the same as that used for focusing on a subject in a generally known digital camera that does not rely on light field photography. The focusing lens driving unit 6 receives a control signal from the system control unit 13 by an automatic focus detection (AF) function or the like, and determines the imaging distance of the photographing optical system 1.

表示制御部11は、表示装置12に表示する画像を制御する回路又はモジュールを含む。表示装置12は、例えば液晶ディスプレイなどの表示デバイスを含み、各種信号処理の施された画像信号を、表示制御部11を介して表示する。表示装置12は、これから撮像しようとする画面を連続的にライブで表示するライブビュー表示、記録した動画の再生表示、操作のためのメニュー表示等を実現する。   The display control unit 11 includes a circuit or a module that controls an image displayed on the display device 12. The display device 12 includes a display device such as a liquid crystal display, for example, and displays an image signal subjected to various signal processing via the display control unit 11. The display device 12 realizes a live view display that continuously displays a screen to be imaged live, a playback display of a recorded moving image, a menu display for operation, and the like.

システム制御部13は、例えばCPUあるいはMPUを含み、不揮発メモリであるROM15に記憶されたプログラムを、揮発性メモリであるRAM14に展開し実行することによりデジタルカメラ100の各部を制御する。   The system control unit 13 includes, for example, a CPU or MPU, and controls each unit of the digital camera 100 by developing and executing a program stored in a ROM 15 that is a nonvolatile memory in a RAM 14 that is a volatile memory.

動体検出部16は、時系列に並んだ動画フレームの中から特に移動している被写体(動体)を検出するとともに、検出した被写体の速度を検出する。被写体検出部17は、画像内の主要な被写体(単に主要被写体ともいう)を検出する。主要被写体は、例えば人物として認識されたことや、更には認識された人物が画像の中心付近に位置すること等を加重して得られる評価値に基づいて決定することができる。   The moving object detection unit 16 detects a moving object (moving object) particularly from moving image frames arranged in time series, and detects the speed of the detected object. The subject detection unit 17 detects a main subject (also simply referred to as a main subject) in the image. The main subject can be determined based on an evaluation value obtained by weighting, for example, that the person is recognized as a person, or that the recognized person is located near the center of the image.

リフォーカス距離設定部18は、LFカメラにおいてリフォーカス処理を実行するためのパラメータであるリフォーカス距離を設定する。なお、リフォーカス距離については後述する。   The refocus distance setting unit 18 sets a refocus distance that is a parameter for executing refocus processing in the LF camera. The refocus distance will be described later.

(本実施形態の撮影処理に係る一連の動作)
次に、図3を参照して、撮影処理に係る一連の動作を説明する。この撮影処理では、動体を検出して当該動体に優先的に合焦させて撮影するとともに、別途検出した主要被写体に合焦させるリフォーカス処理を行う。なお、本一連の動作は、例えば不図示の操作部に対するユーザからの操作が検出された場合に開始される。また、本一連の動作は、システム制御部13がROM15に記憶されたプログラムをRAM14の作業用領域に展開し、実行することにより実現される。
(A series of operations related to the shooting process of the present embodiment)
Next, a series of operations related to the photographing process will be described with reference to FIG. In this photographing process, a moving object is detected, and the moving object is preferentially focused and photographed, and a refocus process for focusing on a separately detected main subject is performed. Note that this series of operations is started when, for example, an operation from a user on an operation unit (not shown) is detected. Further, this series of operations is realized by the system control unit 13 expanding and executing the program stored in the ROM 15 in the work area of the RAM 14.

S301において、システム制御部13は、図2に不図示の操作スイッチによりメイン電源がオンされたことに応じて起動して、デジタルカメラ100の各部を初期化やデジタルカメラ100の動作に必要な所定のデータをROM15から読み込む。   In step S <b> 301, the system control unit 13 is activated in response to the main power being turned on by an operation switch (not illustrated in FIG. 2), and initializes each unit of the digital camera 100 and predetermined operations necessary for the operation of the digital camera 100. Are read from the ROM 15.

S302において、システム制御部13は、固体撮像素子3に対する駆動設定を行う。システム制御部13は、例えばライブの画像を表示装置12に連続的に映し出すライブビューモードに設定するための駆動設定信号を送信して、固体撮像素子3の駆動モードを設定する。   In step S <b> 302, the system control unit 13 performs drive settings for the solid-state image sensor 3. For example, the system control unit 13 sets a drive mode of the solid-state imaging device 3 by transmitting a drive setting signal for setting a live view mode in which live images are continuously displayed on the display device 12.

S303において、システム制御部13はいわゆる自動露出調整動作(AE)を行う。例えば、信号処理部7は、システム制御部13の指示に応じて、固体撮像素子3から連続的に取得される画像信号を用いて測光し、測光結果をシステム制御部13に出力する。システム制御部13は、当該測光結果に応じて次のフレームの撮影に使用する露出を制御する。より具体的には、信号処理部7は、例えば画像信号から抽出した輝度情報を画面のエリア別に重み付け演算して、現状よりも何段明るくすればよいか(暗くすればよいか)を演算する。固体撮像素子3が電子シャッター機能を備える場合、同時に電子シャッターのシャッター速度を変更してもよい。   In S303, the system control unit 13 performs a so-called automatic exposure adjustment operation (AE). For example, the signal processing unit 7 performs photometry using image signals continuously acquired from the solid-state imaging device 3 in accordance with instructions from the system control unit 13, and outputs the photometry results to the system control unit 13. The system control unit 13 controls the exposure used for photographing the next frame according to the photometric result. More specifically, for example, the signal processing unit 7 performs weighting calculation on luminance information extracted from the image signal for each area of the screen, and calculates how much brighter it should be (to make it darker). . When the solid-state imaging device 3 has an electronic shutter function, the shutter speed of the electronic shutter may be changed at the same time.

S304において、システム制御部13はいわゆるオートフォーカス(AF)を行う。AFは、所定の被写体に合焦させるようにフォーカシングレンズによる焦点位置を変更する自動焦点調節である。例えば、まず、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを複数ステップ駆動して複数枚の画像を得る。複数枚の画像にいわゆるコントラスト検出処理を施して、評価値が最大となるフォーカシングレンズの位置を決定する。なお、本ステップ〜S308に用いる画像には、1つのマイクロレンズに対応する複数の画素のうちの1つ画素(例えば5×5の画素のうちの中心の画素)の出力のみを用いた画像を用いればよい。また、本ステップのAFの方式には、コントラスト検出を用いるものの他に専用の距離計測センサを用いた方式を適用してもよい。   In S304, the system control unit 13 performs so-called autofocus (AF). AF is automatic focus adjustment that changes the focus position by a focusing lens so that a predetermined subject is focused. For example, first, the system control unit 13 drives the focusing lens of the photographing optical system 1 through the focusing lens driving unit 6 in a plurality of steps to obtain a plurality of images. A so-called contrast detection process is performed on a plurality of images to determine the position of the focusing lens that maximizes the evaluation value. Note that the image used in this step to S308 is an image using only the output of one pixel (for example, the center pixel of 5 × 5 pixels) among a plurality of pixels corresponding to one microlens. Use it. In addition to the method using contrast detection, a method using a dedicated distance measuring sensor may be applied to the AF method in this step.

S305において、システム制御部13は、動体検出部16を用いて、画像内の動体を検出する。動体検出の方法は、連続するフレーム間で動きベクトルを算出する方法など公知の方法を用いることができ、本実施形態では画像内の動体と当該動体のフレーム内の移動速度が検出できればどのような方法であってもよい。システム制御部13は、フレーム内において検出した動体の個数と各動体の移動速度とをRAM14に一時的に記憶させる。   In step S <b> 305, the system control unit 13 uses the moving object detection unit 16 to detect a moving object in the image. As a method of detecting a moving object, a known method such as a method of calculating a motion vector between consecutive frames can be used. In this embodiment, any moving object in an image and a moving speed of the moving object in the frame can be detected. It may be a method. The system control unit 13 temporarily stores the number of moving objects detected in the frame and the moving speed of each moving object in the RAM 14.

S306において、システム制御部13は、画像内における最速の動体の検出を完了したかを判定する。システム制御部13は、例えば画像内で検出された、動きベクトルの所定の特徴を示す領域ごとに順次動体の検出を行う場合であれば、全ての領域について動体の検出を完了した場合、最速の動体の検出を完了したと判定して処理をS307に進める。一方、全ての領域について動体の検出を行っていない場合、処理を再びS305に処理を戻す。なお、システム制御部13は、S305において記憶させた動体の各速度のうち最も速い動体を最速の動体として検出する。   In step S306, the system control unit 13 determines whether the detection of the fastest moving object in the image is completed. For example, if the system control unit 13 sequentially detects moving objects for each region indicating a predetermined feature of the motion vector detected in the image, the system control unit 13 completes the detection of the moving object for all the regions. It is determined that the detection of the moving object has been completed, and the process proceeds to S307. On the other hand, if the moving object is not detected for all the regions, the process returns to S305 again. The system control unit 13 detects the fastest moving body among the speeds of the moving bodies stored in S305 as the fastest moving body.

S307において、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを駆動する。例えば、システム制御部13は、上述のコントラスト検出結果と動体の検出結果とを照合して、最速の動体に合焦するようにフォーカシングレンズを駆動する。このように制御することにより、動体に合焦した状態で撮影された画像信号、すなわち動体がマイクロレンズアレイ2の頂点に結像された状態で撮影された画像信号が得られる。この画像信号は、動体の固体撮像素子3への投影面積が小さいため、ローリングシャッター歪みの影響が低減された画像信号となる。   In step S <b> 307, the system control unit 13 drives the focusing lens of the photographing optical system 1 via the focusing lens driving unit 6. For example, the system control unit 13 collates the above-described contrast detection result with the moving object detection result, and drives the focusing lens so as to focus on the fastest moving object. By controlling in this way, an image signal photographed in a state where the moving object is focused, that is, an image signal photographed in a state where the moving object is focused on the apex of the microlens array 2 is obtained. This image signal is an image signal in which the influence of rolling shutter distortion is reduced because the projected area of the moving object onto the solid-state imaging device 3 is small.

S308において、システム制御部13は、被写体検出部17を用いて画像内の主要被写体を検出する(主要被写体検出処理)。被写体検出部17は、例えば画像の中心付近に主要被写体が存在することを仮定して評価値に重み付けする中央重点方式や、人物と判断した被写体の評価値を重視する被写体認識の方式を用いることができる。   In S308, the system control unit 13 detects the main subject in the image using the subject detection unit 17 (main subject detection processing). The subject detection unit 17 uses, for example, a center-weighted method that weights evaluation values on the assumption that a main subject exists near the center of the image, or a subject recognition method that places importance on the evaluation value of a subject that is determined to be a person. Can do.

なお、S307の処理によって動体を優先してフォーカシングレンズを駆動しているため、当該フォーカシングレンズの位置が主要被写体に合焦する位置であるとは限らない。ユーザが注目する被写体は、動体よりもむしろ主要被写体であることが想定されるため、動体に合焦させて得られる画像信号に基づいて、主要被写体に合焦させた画像をリフォーカス可能である必要がある。   Note that since the focusing lens is driven with priority given to the moving object by the processing of S307, the position of the focusing lens is not necessarily the position at which the main subject is focused. Since the subject that the user is interested in is assumed to be the main subject rather than the moving object, it is possible to refocus the image focused on the main subject based on the image signal obtained by focusing on the moving object. There is a need.

そこで、システム制御部13は、主要被写体に合焦させるリフォーカス処理が可能であるかを判定する。リフォーカス処理の可能な結像距離範囲は、フォーカシングレンズの実際の位置±dmaxで表される範囲に制限される。このため、主要被写体に合焦させるリフォーカス処理が可能であり、かつ、動体のぼけが最小になるような位置にフォーカシングレンズを制御する必要がある。なお、dmaxは式4で与えられる。   Therefore, the system control unit 13 determines whether refocus processing for focusing on the main subject is possible. The imaging distance range in which the refocus processing is possible is limited to the range represented by the actual position ± dmax of the focusing lens. Therefore, it is necessary to control the focusing lens at a position where refocus processing for focusing on the main subject is possible and the blur of the moving object is minimized. Dmax is given by Equation 4.

Figure 2017139576

ここで、Δθは光線の角度分解能、Nはマイクロレンズアレイ2の1つのマイクロレンズに対応する固体撮像素子3の画素分割数、Δxは固体撮像素子3の画素ピッチである。
Figure 2017139576

Here, Δθ is the angular resolution of the light beam, N is the number of pixel divisions of the solid-state imaging device 3 corresponding to one microlens of the microlens array 2, and Δx is the pixel pitch of the solid-state imaging device 3.

システム制御部13は、例えば、専用の距離計測センサ(不図示)を用いて、S308において検出された主要被写体までの距離情報を取得する。そして、システム制御部13は、取得した結像距離が、S307で決定したフォーカシングレンズ駆動位置±dmaxの範囲内であるか否か(すなわち主要被写体に合焦させるリフォーカス処理が可能か否か)を判定する。   For example, the system control unit 13 acquires distance information to the main subject detected in S308 using a dedicated distance measurement sensor (not shown). Then, the system control unit 13 determines whether or not the acquired imaging distance is within the range of the focusing lens driving position ± dmax determined in S307 (that is, whether or not refocus processing for focusing on the main subject is possible). Determine.

システム制御部13は、結像距離が上記範囲の範囲外であると判定した場合、処理をS307に戻してフォーカシングレンズ駆動にフィードバックをかけ、主要被写体がリフォーカス範囲に収まるようにフォーカシングレンズを再度駆動する。例えば、フォーカシングレンズを現在の位置から所定の距離だけ移動させて、再度、主要被写体に合焦させるリフォーカス処理が可能か否かを判定する処理を繰り返す。一方、システム制御部13は、結像距離が上記範囲の範囲内であると判定した場合、S310に処理を進める。   If the system control unit 13 determines that the imaging distance is out of the above range, the process returns to S307 to provide feedback to the focusing lens drive, and the focusing lens is moved again so that the main subject is within the refocus range. To drive. For example, the process of determining whether or not the refocus process for moving the focusing lens by a predetermined distance from the current position and refocusing the main subject is possible is repeated. On the other hand, if the system control unit 13 determines that the imaging distance is within the range, the process proceeds to S310.

S310において、システム制御部13は、信号処理部7及びリフォーカス距離設定部18を制御して、S307において設定されたフォーカシングレンズの位置で得られた画像信号を用いてリフォーカス処理を行う。リフォーカス処理の詳細については後述する。そして、S311において、システム制御部13はリフォーカス処理によって生成された画像を記録し、本処理に係る一連の動作を終了する。   In S310, the system control unit 13 controls the signal processing unit 7 and the refocus distance setting unit 18, and performs refocus processing using the image signal obtained at the position of the focusing lens set in S307. Details of the refocus processing will be described later. In step S311, the system control unit 13 records the image generated by the refocus process, and ends a series of operations related to the process.

(リフォーカス処理の詳細)
リフォーカス処理は、光線の角度情報を考慮して画素の情報を再構成及び再配置する処理である。まず、図4は、上述した処理によって動体である被写体A2がマイクロレンズアレイ2の頂点上に結像された状態を示している。図1で示した例と異なり、この時点では主要被写体A1には合焦していない。被写体A1の1点から出射した光線は、撮影光学系1の絞り領域p1〜p4の分割数(便宜上4つの出射角度範囲とする)に分割されて、固体撮像素子3で光電変換される。すなわち、合焦していない被写体A1から出射した光線は、固体撮像素子3の画素上で符号p11〜p14を付した広い領域で受光される。
(Details of refocus processing)
The refocusing process is a process for reconstructing and rearranging pixel information in consideration of the angle information of light rays. First, FIG. 4 shows a state in which the subject A2 which is a moving object is imaged on the apex of the microlens array 2 by the above-described processing. Unlike the example shown in FIG. 1, the main subject A1 is not focused at this time. A light beam emitted from one point of the subject A1 is divided into the number of divisions (four emission angle ranges for convenience) of the aperture regions p1 to p4 of the photographing optical system 1 and is photoelectrically converted by the solid-state imaging device 3. That is, the light beam emitted from the subject A1 that is not in focus is received in a wide area denoted by reference signs p11 to p14 on the pixels of the solid-state imaging device 3.

結像距離b2の位置の状態で受光した信号を用いて、結像距離b1の位置の画像情報にリフォーカスする処理とは、上述した式1において符号p11〜p14の画素値を平均化して結像距離b1における画素値を再構成することである。すなわち、結像距離b2で受光した4つの光線の情報から結像距離b1上にある光線の交差点を1つの点として再現することに相当する。換言すれば、被写体A1の焦点ぼけを取り除くことに対応する。   The process of refocusing to the image information at the position of the imaging distance b1 using the signal received at the position of the imaging distance b2 is the result of averaging the pixel values of the signs p11 to p14 in the above-described equation 1. Reconstructing the pixel value at the image distance b1. That is, it corresponds to reproducing the intersection of light rays on the imaging distance b1 as one point from the information of the four light rays received at the imaging distance b2. In other words, this corresponds to removing the defocus of the subject A1.

一方、動体であるために合焦するように結像された被写体A2の1点から出射した光線は、被写体A1と同様4つの出射角度範囲に分割されて、固体撮像素子3の画素p21〜p24で光電変換される。被写体A2から出射した光線は、マイクロレンズアレイ2のあるマイクロレンズの頂点に結像され、当該マイクロレンズの直下に存在する狭い領域で受光される。このため、固体撮像素子3の画素上で被写体A2の像は、合焦していない状態で撮影された場合と比較して小さなローリングシャッター歪みで走査することができる。   On the other hand, a light beam emitted from one point of the subject A2 formed to be focused because it is a moving body is divided into four emission angle ranges like the subject A1, and the pixels p21 to p24 of the solid-state image sensor 3 are divided. Is photoelectrically converted. The light beam emitted from the subject A2 is imaged at the apex of a microlens with the microlens array 2, and is received in a narrow region existing directly below the microlens. For this reason, the image of the subject A2 on the pixels of the solid-state imaging device 3 can be scanned with a small rolling shutter distortion as compared with a case where the image is taken out of focus.

被写体A2について、結像距離b2の位置の状態で受光した信号を用いて、結像距離b1の位置の画像情報にリフォーカスする処理とは、符号p21〜p24の画素順を逆転して再配置することである。すなわち、符号p21〜p24に対応する光線が結像距離b1を通過した平面を再現することに相当する。換言すれば、被写体A2の焦点ぼけ像を作り上げることに対応する。なお、焦点ぼけ像を得るうえで、マイクロレンズアレイ2のピッチよりも細かなピッチを持つ固体撮像素子3が必要であることは、以上の説明でも理解される。   With respect to the subject A2, using the signal received at the imaging distance b2, the refocusing to the image information at the imaging distance b1 is performed by reversing the pixel order of reference numerals p21 to p24. It is to be. That is, this corresponds to reproducing a plane in which the light beams corresponding to the symbols p21 to p24 have passed the imaging distance b1. In other words, this corresponds to creating a defocused image of the subject A2. It should be understood that the solid-state imaging device 3 having a finer pitch than the pitch of the microlens array 2 is necessary to obtain a defocused image.

結像距離b2から仮想の結像距離b1=αb2へのリフォーカスを行う場合において、いかなる量でこれらの画素を再構成するか、に関する一般式は式5で与えられる。すなわち、撮影光学系1の絞り面の2次元座標を(u,v)とすると、仮想的な結像面αb2の2次元座標(s,t)に記録される情報Eαb2(s,t)は、   In the case of performing refocusing from the imaging distance b2 to the virtual imaging distance b1 = αb2, a general expression relating to how much these pixels are reconstructed is given by Equation 5. That is, if the two-dimensional coordinates of the diaphragm surface of the photographing optical system 1 are (u, v), the information Eαb2 (s, t) recorded in the two-dimensional coordinates (s, t) of the virtual imaging surface αb2 is ,

Figure 2017139576

と規定される。なお、αをリフォーカス係数と呼ぶ場合がある。
Figure 2017139576

It is prescribed. Α may be referred to as a refocus coefficient.

式5は、図5を参照して説明することができる。図5は、絞り領域の座標uを通過した光線のうち、仮想のリフォーカス距離b1を含む平面上で座標sを構成する光線が、結像距離b2のどこに存在するか、を示している。三角形の相似原理により、結像距離b2を含む平面上において対応する座標は、u+(s−u)/αであるため、式1のsをこの値で置き換え、同様にtもv+(t−v)/αで置き換えればよい。従って、式5は、式1の変換式で説明される。   Equation 5 can be described with reference to FIG. FIG. 5 shows where in the imaging distance b2 the light ray that constitutes the coordinate s on the plane including the virtual refocus distance b1 among the light rays that have passed through the coordinate u of the aperture region. According to the similarity principle of the triangle, the corresponding coordinate on the plane including the imaging distance b2 is u + (su) / α, so s in Equation 1 is replaced with this value, and t is also v + (t− v) It may be replaced with / α. Therefore, Formula 5 is explained by the conversion formula of Formula 1.

(本実施形態に係る撮影処理の効果)
図6及び図7を参照して、上述した撮影処理の効果について説明する。図6(a)は撮影時のフォーカシングレンズの位置で得られる(すなわちリフォーカス処理前の)撮影画像を、図6(b)はリフォーカス処理後の生成画像を、それぞれ模式的に示している。リフォーカス処理前に動体である被写体A2に合焦させているため、動体である被写体A2に対するぼけによるローリングシャッター歪みを抑制することができている。
(Effect of shooting processing according to this embodiment)
With reference to FIG. 6 and FIG. 7, the effect of the above-described photographing process will be described. FIG. 6A schematically shows a photographed image obtained at the position of the focusing lens at the time of photographing (that is, before refocus processing), and FIG. 6B schematically shows a generated image after refocus processing. . Since the subject A2 that is a moving object is focused before the refocus processing, it is possible to suppress rolling shutter distortion due to blurring on the subject A2 that is a moving object.

一方、リフォーカス処理後は、主要被写体である被写体A1に合焦させているため、動体である被写体A2は焦点ぼけ状態となっているが、リフォーカス処理前のローリングシャッター歪みが抑制された状態で再生することができる。   On the other hand, since the subject A1, which is the main subject, is focused after the refocus processing, the moving subject A2 is in a defocused state, but the rolling shutter distortion before the refocus processing is suppressed. Can be played.

なお、上述した本実施形態に係る撮影処理を適用しない場合の例を図7に模式的に示している。図7(a)は図1で上述した主要被写体A1に合焦させた状態で得られる撮影画像を、図7(b)は仮に動体である被写体A2にリフォーカスした場合の生成画像をそれぞれ模式的に示している。   FIG. 7 schematically shows an example in which the photographing process according to the present embodiment described above is not applied. FIG. 7A schematically shows a photographed image obtained by focusing on the main subject A1 described above with reference to FIG. 1, and FIG. 7B schematically shows a generated image when the subject is refocused on a moving subject A2. Is shown.

式5において想定するリフォーカス処理は、絞り形状を反映し円や正多角形などの等方的な範囲から画素を再構成するものである。このため、例えばリフォーカス後の点X(s0,t0)の再構成に用いる画素の範囲はリフォーカス処理前のXcir(s0,t0)の領域である。したがって、Xcir(s0,t0)に含まれる被写体A2の水平方向に伸びる輪郭は、光学的な焦点ぼけによる影響しか受けていないため、リフォーカス処理後において水平線として再構成される。   The refocusing process assumed in Equation 5 is to reconstruct pixels from an isotropic range such as a circle or regular polygon reflecting the aperture shape. For this reason, for example, the range of pixels used for the reconstruction of the point X (s0, t0) after the refocus is the area of Xcir (s0, t0) before the refocus processing. Therefore, the contour extending in the horizontal direction of the subject A2 included in Xcir (s0, t0) is only affected by optical defocusing, and is thus reconstructed as a horizontal line after the refocus processing.

一方、Xcir(s0,t0)に含まれる本来の垂直線は、光学的な焦点ぼけにローリングシャッター歪みを加えた被写体の移動方向への傾きを持って記録されている。このため、本来の垂直線を構成する画素の一部がXcir(s0,t0)から外れて明確でない輪郭として再構成される。すなわち、ローリングシャッター歪みの影響が大きくなれば、あたかも垂直方向と水平方向とでぼけの解消効果が異なっているかのようになる。   On the other hand, the original vertical line included in Xcir (s0, t0) is recorded with an inclination in the moving direction of the subject obtained by adding rolling shutter distortion to optical defocusing. For this reason, a part of the pixels constituting the original vertical line departs from Xcir (s0, t0) and is reconstructed as an unclear contour. That is, if the influence of rolling shutter distortion increases, it seems as if the effect of eliminating blur differs between the vertical direction and the horizontal direction.

このように、被写体A2に合焦させた画像を得たい場合、図6(a)の撮影画像を使用すれば、図7(b)と比べて垂直および水平ともに輪郭のぼけの低減した動体が得られることが分かる。   Thus, when it is desired to obtain an image focused on the subject A2, if the captured image of FIG. 6 (a) is used, a moving object with reduced outline blur both vertically and horizontally compared to FIG. 7 (b). You can see that

なお、上述した本実施形態では、LFカメラの撮影動作全体として図3に示した一連の動作を説明した。しかし、上記一連の動作はLFカメラの1つのモードとして存在するものであってもよい。例えばメカニカルシャッターを併用することが可能なシステムにおいても、時間当たりのコマ数が多い動画モード等では当該メカニカルシャッターの動作速度上の制約から全てのコマに対して使用することが困難である。このため、CMOSイメージセンサ特有のローリングシャッター歪みを原理的に回避することができない。そこで、メカニカルシャッターを併用しない動画等を、LFカメラにおける上記1つのモードとして本実施形態に係る処理を適用すれば、動体の歪みを抑制した、常に主要被写体にリフォーカスした動画を再生し、違和感の少ない画像を提示することができる。   In the above-described embodiment, the series of operations illustrated in FIG. 3 has been described as the entire photographing operation of the LF camera. However, the above series of operations may exist as one mode of the LF camera. For example, even in a system in which a mechanical shutter can be used in combination, it is difficult to use all frames in a moving image mode having a large number of frames per hour due to restrictions on the operation speed of the mechanical shutter. For this reason, the rolling shutter distortion peculiar to a CMOS image sensor cannot be avoided in principle. Therefore, if the processing according to the present embodiment is applied to a moving image that does not use a mechanical shutter as the above-described one mode in the LF camera, a moving image in which a moving object is suppressed and the refocusing to the main subject is always reproduced, and the user feels uncomfortable. It is possible to present an image with little.

また、動体を優先して記録した画像信号に、フォーカシングレンズを駆動して撮影したこと(動体に合焦した状態で撮影されたこと)を示すフラグを付して記録することができる。このようにすれば、処理時間等の制約から撮像装置内におけるリフォーカス処理が困難なシステムで撮影する場合であっても、撮影された画像信号を読み込んだ外部装置が主要被写体に合焦させるリフォーカス処理が必要であることを把握できる。すなわち、撮影された画像信号を外部装置が再生する場合にも、デフォルトとして主要被写体に合焦させたリフォーカス画像を再生して、違和感のない画像を提示することができる。   In addition, an image signal recorded with priority given to a moving object can be recorded with a flag indicating that the image has been taken by driving a focusing lens (taken in a state where the moving object is in focus). In this way, even when shooting with a system in which refocus processing in the imaging device is difficult due to restrictions on processing time or the like, the external device that has read the captured image signal will focus on the main subject. It can be understood that the focus processing is necessary. That is, even when an external device reproduces a captured image signal, it is possible to reproduce a refocused image focused on the main subject as a default and present an image without a sense of incongruity.

また、本実施形態では最速の動体に応じてフォーカシングレンズを制御する例について説明した。しかし、動体の速度以外に、動体のローリングシャッター歪みが大きくなる他の状況(例えば動体が撮影画角に占める面積が大きい場合)を考慮して、当該他の状況を満たす動体にフォーカシングレンズを制御してもよい。また、移動速度が同じ動体が存在する場合、動体の移動方向ベクトルによって歪みの大きさが変化する態様を判定し、よりローリングシャッター歪みの影響が大きくなる動体にフォーカシングレンズを制御するようにしてもよい。この場合、例えばS306において動体の速度を求める際に、固体撮像素子3の副走査方向と平行な移動ベクトルに重み付けして重視するなどの方法が考えられる。   In the present embodiment, the example in which the focusing lens is controlled according to the fastest moving body has been described. However, in addition to the speed of the moving object, taking into account other situations where the rolling shutter distortion of the moving object increases (for example, when the moving object occupies a large area in the shooting angle of view), the focusing lens is controlled to a moving object that satisfies the other conditions. May be. In addition, when there are moving objects having the same moving speed, it is possible to determine a mode in which the magnitude of distortion changes depending on the moving direction vector of the moving object, and to control the focusing lens to a moving object that is more affected by rolling shutter distortion. Good. In this case, for example, when obtaining the speed of the moving body in S306, a method of giving importance to the movement vector parallel to the sub-scanning direction of the solid-state image sensor 3 can be considered.

上述した実施形態では、S308において主要被写体を検出する構成を例に説明した。しかし、例えば、ユーザが不図示のタッチパネル等の操作部を介して被写体を特定した場合に、システム制御部13は指定された主要被写体に対してS309以降の処理を行ってもよい。このようにすれば、より容易にユーザの所望の被写体に合焦させた画像を生成することができる。   In the above-described embodiment, the configuration in which the main subject is detected in S308 has been described as an example. However, for example, when the user specifies a subject via an operation unit such as a touch panel (not shown), the system control unit 13 may perform the processing from S309 on the designated main subject. In this way, an image focused on the user's desired subject can be generated more easily.

以上説明したように、本実施形態では、入射する光線の角度情報を取得可能なLFカメラにおいて、動体を検出し、焦点を検出した動体に合わせるようにフォーカシングレンズを制御するようにした。また、動体に焦点を合わせて撮影した画像信号を用いてリフォーカス処理を行って、別途検出した主要被写体に合焦させた画像を出力するようにした。このようにすることで、動体に発生するローリングシャッター歪みを低減し、当該動体に合焦させるリフォーカス処理を行った際の歪みを低減することができる。換言すれば、ローリングシャッター歪みの影響を低減して、リフォーカス処理の精度を向上させることが可能になる。   As described above, in the present embodiment, in the LF camera that can acquire the angle information of the incident light beam, the moving object is detected, and the focusing lens is controlled so as to match the focus with the detected moving object. In addition, refocus processing is performed using an image signal captured with a moving object in focus, and an image focused on a separately detected main subject is output. By doing in this way, the rolling shutter distortion which generate | occur | produces in a moving body can be reduced, and the distortion at the time of performing the refocus process which focuses on the said moving body can be reduced. In other words, it is possible to reduce the influence of rolling shutter distortion and improve the accuracy of refocus processing.

(実施形態2)
次に実施形態2について説明する。実施形態1では、最速の動体を検出した場合に当該動体に合焦するようにフォーカシングレンズを駆動させた。実施形態2では、動体の速度と検出された動体の画角に占めるサイズとを複合的に考慮して、ローリングシャッター歪みが顕著になると想定される動体に優先的にフォーカシングレンズを駆動する点が異なる。本実施形態のデジタルカメラ100は、実施形態1と実質的に同一構成であり、撮影処理における上述した点のみが異なる。このため、同一の構成及びステップについては同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, when the fastest moving object is detected, the focusing lens is driven to focus on the moving object. In the second embodiment, the focusing lens is preferentially driven to a moving object that is assumed to have significant rolling shutter distortion, considering the speed of the moving object and the size of the detected moving object in the angle of view. Different. The digital camera 100 of the present embodiment has substantially the same configuration as that of the first embodiment, and only the points described above in the shooting process are different. For this reason, the same configurations and steps are denoted by the same reference numerals, and redundant description will be omitted, and differences will be mainly described.

(本実施形態の撮像処理に係る一連の動作)
図8を参照して、本実施形態の撮像処理に係る一連の動作について説明する。なお、本一連の動作は、実施形態1と同様、例えば不図示の操作部に対するユーザからの操作が検出された場合に開始される。また、システム制御部13がROM15に記憶されたプログラムをRAM14の作業用領域に展開し、実行することにより実現される。
(A series of operations related to the imaging processing of the present embodiment)
With reference to FIG. 8, a series of operations related to the imaging process of the present embodiment will be described. Note that this series of operations is started, for example, when a user operation on an operation unit (not shown) is detected, as in the first embodiment. Further, this is realized by the system control unit 13 expanding and executing the program stored in the ROM 15 in the work area of the RAM 14.

はじめに、システム制御部13は、実施形態1と同様にS301〜S306の処理を行う。   First, the system control unit 13 performs the processes of S301 to S306 as in the first embodiment.

S801において、システム制御部13は、S305において検出された最速の動体について、当該動体の画角に占めるサイズが、ローリングシャッター歪みが顕著に現われるサイズであるかを判定する。例えば、システム制御部13は、処理対象の動体のサイズが所定の閾値(例えば画面垂直サイズの1/4等)を超えた場合、当該動体のサイズが、ローリングシャッター歪みが顕著に現われるサイズであると判定して、処理をS307に進める。一方、処理対象の動体のサイズが上記閾値以下である場合、ローリングシャッター歪みが顕著に現われるサイズでないと判定して、S802に処理を進める。   In step S <b> 801, the system control unit 13 determines whether the size of the fastest moving object detected in step S <b> 305 occupies the angle of view of the moving object is a size in which rolling shutter distortion appears significantly. For example, when the size of the moving object to be processed exceeds a predetermined threshold (for example, ¼ of the screen vertical size), the system control unit 13 is a size at which rolling shutter distortion appears remarkably. And the process proceeds to S307. On the other hand, when the size of the moving object to be processed is equal to or smaller than the threshold value, it is determined that the rolling shutter distortion does not appear remarkably, and the process proceeds to S802.

S802において、システム制御部13は、S801において判定された動体の次に高速な動体があるかを判定する。例えば、システム制御部13は、S305においてRAM14に記憶させた各動体の移動速度を参照して、次に高速な動体がある場合、処理を再び処理をS801に戻して次に高速な動体のサイズを判定する。すなわち、高速な動体であってローリングシャッター歪みが顕著となるようなサイズの動体を特定するように処理を繰り返す。一方、次に高速な動体がない場合、処理をS803に進める。なお、条件に適合する動体がない場合には、上述のサイズの閾値を下げてS801とS802の処理を繰り返してもよい。S803において、システム制御部13は、上述のサイズの閾値を超える動体が無いことを示すフラグ(例えば2値)を設定する。   In step S802, the system control unit 13 determines whether there is a high-speed moving object next to the moving object determined in step S801. For example, the system control unit 13 refers to the moving speed of each moving object stored in the RAM 14 in S305, and if there is the next fastest moving object, the process returns to S801 again and the size of the next fastest moving object is determined. Determine. In other words, the processing is repeated so as to identify a moving object having a size that is a high-speed moving object and the rolling shutter distortion becomes remarkable. On the other hand, if there is no next high-speed moving object, the process proceeds to S803. If there is no moving object that meets the conditions, the process of S801 and S802 may be repeated by lowering the threshold value of the size described above. In step S <b> 803, the system control unit 13 sets a flag (e.g., binary) indicating that there is no moving object exceeding the above-described size threshold.

S804において、システム制御部13は、フォーカシングレンズ駆動部6を介して撮影光学系1のフォーカシングレンズを駆動する。例えば、システム制御部13は、S803においてフラグが設定されていない場合(すなわち、サイズの閾値を超える動体がある)、ローリングシャッター歪みが顕著となるサイズの被写体に合焦するように、フォーカシングレンズを駆動する。このように制御することにより、ローリングシャッター歪みの影響が大きくなる動体に合焦させて撮影された画像信号を得ることができる。すなわち、ローリングシャッター歪みの影響を低減した画像信号を得ることができる。一方、フラグが設定されている場合(サイズの閾値を超える動体がない)、サイズは小さいものの最速である動体に合焦するように、フォーカシングレンズを駆動する。   In step S <b> 804, the system control unit 13 drives the focusing lens of the photographing optical system 1 via the focusing lens driving unit 6. For example, when the flag is not set in S803 (that is, there is a moving object exceeding the size threshold), the system control unit 13 sets the focusing lens so as to focus on a subject with a size that causes significant rolling shutter distortion. To drive. By controlling in this way, it is possible to obtain an image signal photographed while focusing on a moving object that is greatly affected by rolling shutter distortion. That is, it is possible to obtain an image signal in which the influence of rolling shutter distortion is reduced. On the other hand, when the flag is set (there is no moving object exceeding the size threshold), the focusing lens is driven so as to focus on the moving object that is the fastest but small in size.

さらに、システム制御部13は実施形態1と同様にS308〜S311の処理を行って、本処理に係る一連の動作を終了する。   Further, the system control unit 13 performs the processing of S308 to S311 as in the first embodiment, and ends a series of operations related to this processing.

以上説明したように、本実施形態では、動体の速度と検出された動体の画角に占めるサイズとを複合的に考慮して、ローリングシャッター歪みが顕著になると想定される動体に優先的にフォーカシングレンズを駆動するようにした。また、この動体に合焦させて撮影した画像信号を用いてリフォーカス処理を行って、別途検出した主要被写体に合焦させた画像を出力するようにした。このようにすることで、ローリングシャッター歪みによる影響が大きくなる動体から優先的にリフォーカス処理を行った際の歪みを低減することができる。   As described above, in the present embodiment, focusing is preferentially applied to a moving object in which rolling shutter distortion is assumed to be significant by considering the speed of the moving object and the size of the detected moving object in the angle of view. The lens was driven. Further, refocus processing is performed using an image signal photographed while focusing on this moving object, and an image focused on a separately detected main subject is output. By doing so, it is possible to reduce the distortion when the refocus processing is preferentially performed from the moving object that is greatly affected by the rolling shutter distortion.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1…撮影光学系、2…マイクロレンズアレイ、3…固体撮像素子、6…フォーカシングレンズ駆動部、13…システム制御部、 DESCRIPTION OF SYMBOLS 1 ... Imaging optical system, 2 ... Micro lens array, 3 ... Solid-state image sensor, 6 ... Focusing lens drive part, 13 ... System control part,

Claims (12)

2次元状に配列された複数の画素を有し、入射する光線の角度情報を含む画像信号を取得可能な撮像素子と、
被写体に撮影光学系の焦点を合わせるための焦点調節手段と、
前記撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し手段と、
前記読み出し手段が、前記画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、前記撮影光学系の焦点を前記動体に合わせるように前記焦点調節手段を制御する制御手段と、
を備えることを特徴とする撮像装置。
An imaging device having a plurality of pixels arranged in a two-dimensional shape and capable of acquiring an image signal including angle information of incident light rays;
Focus adjusting means for focusing the photographing optical system on the subject;
Reading means capable of reading out signals of pixels of the image sensor at different timings depending on the positions of the pixels;
When the readout means reads out the signal of the pixel at a different timing depending on the position of the pixel and there is a moving object in the subject to be photographed, the focus of the photographing optical system is Control means for controlling the focus adjusting means so as to match the moving body;
An imaging apparatus comprising:
前記撮影光学系の焦点を前記動体に合わせて撮影した前記画像信号に基づいて、前記動体と異なる被写体に合焦させたリフォーカス画像を生成するリフォーカス手段を更に備える、
ことを特徴とする請求項1に記載の撮像装置。
Refocusing means for generating a refocus image in which a subject different from the moving object is focused based on the image signal photographed with the focus of the photographing optical system aligned with the moving object;
The imaging apparatus according to claim 1.
前記撮像素子から得られる画像信号に基づいて、前記動体を検出する動体検出手段を更に備える、
ことを特徴とする請求項2に記載の撮像装置。
A moving object detecting means for detecting the moving object based on an image signal obtained from the image sensor;
The imaging apparatus according to claim 2.
前記動体検出手段は、移動する速度の速い被写体を優先して前記動体を検出する、
ことを特徴とする請求項3に記載の撮像装置。
The moving object detection means detects the moving object in preference to a fast moving subject.
The imaging apparatus according to claim 3.
前記動体検出手段は、移動する被写体の画角に占める大きさが所定の閾値を越えるかに更に基づいて、前記動体を検出する、
ことを特徴とする請求項4に記載の撮像装置。
The moving object detection means detects the moving object based further on whether the size of the moving subject in the angle of view exceeds a predetermined threshold;
The imaging apparatus according to claim 4.
被写体のうち、前記動体と異なる被写体であって主要な被写体である主要被写体を検出する主要被写体検出手段を更に備え、
前記リフォーカス手段は、検出された前記主要被写体に合焦するように、前記リフォーカス画像を生成する、
ことを特徴とする請求項2から5のいずれか1項に記載の撮像装置。
A main subject detection means for detecting a main subject that is a main subject that is different from the moving object among the subjects;
The refocusing unit generates the refocused image so as to focus on the detected main subject;
The image pickup apparatus according to claim 2, wherein the image pickup apparatus is an image pickup apparatus.
前記撮影光学系の焦点を前記動体に合わせた場合に、前記動体と異なる被写体に合焦させたリフォーカス画像を生成可能であるかを判定する判定手段を更に有し、
前記焦点調節手段は、前記判定手段が前記動体と異なる被写体に合焦させたリフォーカス画像を生成可能でないと判定した場合、前記撮影光学系の焦点を前記動体に合わせた位置から変更する、
ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
A determination means for determining whether a refocus image focused on a subject different from the moving object can be generated when the photographing optical system is focused on the moving object;
The focus adjusting unit changes the focus of the photographing optical system from a position aligned with the moving body when the determining unit determines that a refocus image focused on a subject different from the moving body cannot be generated.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記焦点調節手段は、前記動体と異なる被写体に合焦させたリフォーカス画像を生成可能な範囲で前記動体のぼけが小さくなるように、前記撮影光学系の焦点を変更する、
ことを特徴とする請求項7に記載の撮像装置。
The focus adjusting unit changes a focus of the photographing optical system so that blur of the moving object is reduced within a range in which a refocus image focused on a subject different from the moving object can be generated;
The imaging apparatus according to claim 7.
前記撮像素子は、CMOSイメージセンサである、
ことを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
The image sensor is a CMOS image sensor.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記撮像素子は、マイクロレンズアレイを備え、それぞれのマイクロレンズが複数の前記画素に対応するように構成される、
ことを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
The imaging device includes a microlens array, and each microlens is configured to correspond to the plurality of pixels.
The imaging apparatus according to any one of claims 1 to 9, wherein
2次元状に配列された複数の画素を有し、入射する光線の角度情報を含む画像信号を取得可能な撮像素子を備える撮像装置の制御方法であって、
被写体に撮影光学系の焦点を合わせるための焦点調節工程と、
前記撮像素子の画素の信号を、その画素の位置に応じて異なるタイミングで読み出すことが可能な読み出し工程と、
前記読み出し工程において、前記画素の信号を、その画素の位置に応じて異なるタイミングで読み出す場合であって、且つ撮影対象である被写体に動体が存在する場合には、前記撮影光学系の焦点を前記動体に合わせるように焦点調節手段を制御する制御工程と、
を備えることを特徴とする撮像装置の制御方法。
A control method of an imaging apparatus having a plurality of pixels arranged two-dimensionally and having an imaging element capable of acquiring an image signal including angle information of incident light rays,
A focus adjustment process for focusing the photographing optical system on the subject;
A readout step capable of reading out signals of pixels of the image sensor at different timings according to the positions of the pixels;
In the readout step, when the pixel signal is read out at different timings depending on the position of the pixel, and there is a moving object in the subject to be imaged, the focus of the imaging optical system is A control step of controlling the focus adjustment means to match the moving body;
An image pickup apparatus control method comprising:
コンピュータに、請求項11に記載の撮像装置の制御方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the control method of the imaging device of Claim 11.
JP2016018243A 2016-02-02 2016-02-02 Imaging device, and control method and program therefor Pending JP2017139576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016018243A JP2017139576A (en) 2016-02-02 2016-02-02 Imaging device, and control method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018243A JP2017139576A (en) 2016-02-02 2016-02-02 Imaging device, and control method and program therefor

Publications (1)

Publication Number Publication Date
JP2017139576A true JP2017139576A (en) 2017-08-10

Family

ID=59565201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018243A Pending JP2017139576A (en) 2016-02-02 2016-02-02 Imaging device, and control method and program therefor

Country Status (1)

Country Link
JP (1) JP2017139576A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US11663699B2 (en) 2018-09-13 2023-05-30 Samsung Electronics Co., Ltd. Method and apparatus for restoring image

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
JP5938281B2 (en) Imaging apparatus, control method therefor, and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP2014057181A (en) Image processor, imaging apparatus, image processing method and image processing program
JP2014057141A (en) Image processing device, method and program, and imaging apparatus including image processing device
JP6518452B2 (en) Imaging apparatus and imaging method
JP2016219987A (en) Image processing apparatus, imaging device, image processing method and program
JP6095266B2 (en) Image processing apparatus and control method thereof
US20220244849A1 (en) Image processing apparatus, image capturing apparatus, and control method of image processing apparatus
JP6360338B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP6645711B2 (en) Image processing apparatus, image processing method, and program
US11330179B2 (en) Imaging device and control method thereof
JP2017139576A (en) Imaging device, and control method and program therefor
JP2016100868A (en) Image processing apparatus, image processing method, and program, and imaging apparatus
JP6226536B2 (en) Imaging apparatus and control method thereof
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2017163412A (en) Image processing system, its control method, imaging apparatus, and program
JP6728005B2 (en) Imaging device, imaging method, and program
JP6566800B2 (en) Imaging apparatus and imaging method