JP2019110365A - Imaging system, lens device, and image processing tool - Google Patents

Imaging system, lens device, and image processing tool Download PDF

Info

Publication number
JP2019110365A
JP2019110365A JP2017240199A JP2017240199A JP2019110365A JP 2019110365 A JP2019110365 A JP 2019110365A JP 2017240199 A JP2017240199 A JP 2017240199A JP 2017240199 A JP2017240199 A JP 2017240199A JP 2019110365 A JP2019110365 A JP 2019110365A
Authority
JP
Japan
Prior art keywords
image
optical filter
information
optical system
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017240199A
Other languages
Japanese (ja)
Inventor
茂宣 杉田
Shigenobu Sugita
茂宣 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017240199A priority Critical patent/JP2019110365A/en
Publication of JP2019110365A publication Critical patent/JP2019110365A/en
Pending legal-status Critical Current

Links

Abstract

To provide an imaging system capable of performing depth control with a small amount of data, a lens device, and an image processing tool.SOLUTION: An imaging system includes: means for detecting a defocus state of a plurality of points during photographing; means for storing information of the curvature radius, surface separation and reflective index of an optical system; means for calculating and generating an optical filter required for depth control on the basis of the information; and means for processing a photographed image from the optical filter.SELECTED DRAWING: Figure 2A

Description

本発明は、光学補正が可能な撮像システム、レンズ装置、および画像処理ツールに関し、特に、交換レンズ式撮像装置システムや、ビデオなどの映像機器に好適なものである。   The present invention relates to an imaging system capable of optical correction, a lens apparatus, and an image processing tool, and is particularly suitable for an interchangeable lens imaging system and an imaging apparatus such as a video.

従来、撮像装置において、光学的な結像劣化をその光学系固有の補正情報を用いて補正し、良好な画像を得る手段、及びその処理方法が種々報告されている。特許文献1には、球面収差やコマ収差等の光学的画像劣化を回復する画像回復処理が報告されている。また、特許文献2には、デフォーカス検知と、デフォーカスに応じた点像強度分布関数(PSF)により、深度拡大を行う方法が紹介されている。   2. Description of the Related Art Conventionally, various means for obtaining a good image and various processing methods have been reported in an imaging apparatus by correcting optical imaging deterioration using correction information specific to the optical system. Patent Document 1 reports an image restoration process for restoring optical image deterioration such as spherical aberration and coma aberration. Further, Patent Document 2 introduces a method of performing depth expansion by defocus detection and a point spread function (PSF) according to defocus.

一方で、撮像装置において、被写体を光学系で結像させる撮像面に、光学系の瞳の状態を検知しそれを処理して光学系のデフォーカス状態を得ることが可能な、撮像面位相差方式のデフォーカス検知手段を有する撮像装置が知られている。特許文献3には、撮像面位相差方式のデフォーカス検知手段とその演算処理方法が記されている。   On the other hand, in the imaging apparatus, an imaging surface phase difference which can detect the state of the pupil of the optical system and process it to obtain a defocused state of the optical system on the imaging surface on which the object is imaged by the optical system There is known an imaging device having a defocus detection means of the type. Patent Document 3 describes an imaging surface phase difference type defocus detection means and an arithmetic processing method thereof.

また、特許文献4には、特許文献1乃至3の技術を結集し、ピントが合っていない画像のピント位置を微調整する、リフォーカス技術が紹介されている。このリフォーカス技術によれば、ピントがずれた写真を画像処理により、被写体にピントが合った違和感ない画像にすることができる。   Further, Patent Document 4 introduces a refocusing technology in which the techniques of Patent Documents 1 to 3 are combined to finely adjust the focus position of an out-of-focus image. According to this refocusing technique, it is possible to make an out-of-focus photograph into an image that does not have a sense of discomfort in which the subject is in focus by image processing.

特開2011−217087号公報JP, 2011-217087, A 特開2012−065114号公報JP, 2012-065114, A 特開2010−025997号公報Unexamined-Japanese-Patent No. 2010-025997 特開2014−153890号公報JP, 2014-153890, A

撮像装置には、高速かつ高精度に被写体に合焦させることが望まれている。それを実現するために、位相差方式のデフォーカス検知手段の精度を高めることや、光学系のフォーカシングスピードを速めることで、高速高精度化を図ってきた。それでもまだ、非常に高速に動く被写体に制御が追い付かなかったり、撮影者の操作が追い付かなかったり等の理由からピントずれが生じ、所望の写真が得られないことは、少なくない。そこで、特許文献4のようなリフォーカス技術や、特許文献2のように奥行にボケを付加することも含め、深度コントロール技術が要望されている。   It is desirable for an imaging device to focus an object at high speed and with high accuracy. In order to realize this, high-speed and high-precision has been achieved by enhancing the accuracy of the phase difference type defocus detection means and increasing the focusing speed of the optical system. Even so, it is not uncommon for a camera to move out of focus due to a lack of control due to a subject moving at a very high speed or a photographer's operation failing to catch up, etc. Therefore, there is a demand for a depth control technique including refocusing technique as in Patent Document 4 and addition of blur to the depth as in Patent Document 2.

しかしながら、これらの深度コントロール技術には、莫大なデータ量を有することが課題となっている。特にこれらの処理は、画像をPC等に移動しての処理ではなく、撮像装置上で撮影後すぐに行えることがより好ましく、その場合、データの軽量化は必須となってくる。   However, in these depth control techniques, it is an issue to have a huge amount of data. In particular, it is more preferable that the processing is performed not immediately after moving the image to a PC or the like, but immediately after shooting on the imaging device, in which case weight reduction of data becomes essential.

本発明の目的は、少ないデータ量で、深度コントロールを行うことができる撮像システム、レンズ装置、および画像処理ツールを提供することである。   An object of the present invention is to provide an imaging system, a lens apparatus, and an image processing tool capable of performing depth control with a small amount of data.

上記目的を達成するために、本発明に係る撮像システムは、複数のポイントのデフォーカス状態を撮影時に検知する手段と、光学系の曲率半径、面間隔、屈折率の情報を記憶する手段と、前記情報を基に、深度コントロールに必要な光学フィルタを演算生成する手段と、前記光学フィルタから撮影画像を処理する手段と、を有することを特徴とする。   In order to achieve the above object, an imaging system according to the present invention comprises: means for detecting defocusing states of a plurality of points at the time of shooting; and means for storing information of curvature radius, surface distance, and refractive index of optical system; It is characterized by having a means for computing and generating an optical filter necessary for depth control based on the information, and a means for processing a photographed image from the optical filter.

また、本発明に係るレンズ装置は、複数のポイントのデフォーカス状態を撮影時に検知する手段と、光学系の曲率半径、面間隔、屈折率の情報を基に、深度コントロールに必要な光学フィルタを演算生成する手段と、前記光学フィルタから撮影画像を処理する手段と、を有する撮像装置に着脱可能であり、前記情報を記憶する手段を有することを特徴とする。   Further, the lens apparatus according to the present invention comprises means for detecting the defocus state of a plurality of points at the time of photographing, and an optical filter necessary for depth control based on information of the radius of curvature, surface distance and refractive index of the optical system. The image processing apparatus is characterized in that it is detachable from an imaging apparatus having means for generating operations and means for processing a photographed image from the optical filter, and means for storing the information.

また、本発明に係る画像処理ツールは、複数のポイントのデフォーカス状態を撮影時に検知する手段と、光学系の曲率半径、面間隔、屈折率の情報を記憶する手段と、前記情報を撮影画像に書き込む手段を有する撮像装置で得られた撮影画像から、深度コントロールに必要な光学フィルタを演算生成する手段と、前記光学フィルタから撮影画像を処理する手段と、を有することを特徴とする。   In addition, the image processing tool according to the present invention comprises: means for detecting defocusing states of a plurality of points at the time of shooting; means for storing information of curvature radius, surface distance, and refractive index of optical system; The image processing apparatus is characterized by comprising: means for computing and generating an optical filter necessary for depth control from a photographed image obtained by an imaging device having means for writing in; and means for processing the photographed image from the optical filter.

本発明によれば、少ないデータ量で、深度コントロールを行うことができる。   According to the present invention, depth control can be performed with a small amount of data.

奥行のある被写体と撮影光学系を示す図Figure showing subject with depth and shooting optics 平面射影被写体を示す図A diagram showing a planar projection object 奥行のある被写体の撮影画像を示す図A picture showing a photographed image of a subject with depth 奥行を撮像面位相差測距で測定するフローチャート図Flowchart for measuring depth by imaging surface phase difference ranging 奥行をフォーカシング駆動しながらコントラスト演算をすることで測定するフローチャート図Flowchart for measuring by performing contrast operation while focusing drive the depth 撮影画像とデフォーカス情報(深度マップ)から、RDNデータを基にピント調整を行うフローチャート図Flow chart for performing focus adjustment based on RDN data from captured image and defocus information (depth map) 撮像面位相差測距で得られる深度マップを示す図A diagram showing a depth map obtained by imaging surface phase difference ranging コントラストオートフォーカスから深度マップを得る際の過程を示す図Diagram showing the process of obtaining a depth map from contrast autofocus

以下、本発明を実施するための形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

撮像光学系においては、物体側の原画像をf(x、y)、光学系の性能を表す点像分布関数(PSF)をh(x,y)、光学系を通した後の像面側の劣化画像をg(x,y)とすると、次式の関係が成立する。ここで、*はコンボリューション(畳み込み)であり、(x,y)は画像上の座標である。   In the imaging optical system, the original image on the object side is f (x, y), the point spread function (PSF) representing the performance of the optical system is h (x, y), and the image plane side after passing through the optical system Assuming that the degraded image of is g (x, y), the following relationship is established. Here, * is convolution (convolution), and (x, y) are coordinates on the image.

g(x,y)=h(x、y)*f(x、y) ・・・(数式1)
次に、この関係式を基に、画像回復処理を行う方法について説明する。数式1をフーリエ変換すると、次式のように周波数ごとの積の形式になる。ここで、HはOTFであり、(u,v)は2次元周波数面での座標、即ち周波数である。
g (x, y) = h (x, y) * f (x, y) ... (Equation 1)
Next, a method of performing image restoration processing based on this relational expression will be described. The Fourier transform of Equation 1 results in the form of a product for each frequency as follows: Here, H is OTF, and (u, v) are coordinates in a two-dimensional frequency plane, that is, frequency.

G(u,v)=H(u,v)×F(u,v) ・・・(数式2)
数式2の両辺をHで除算してF(u,v)を逆フーリエ変換して実面に戻すことによって、原画像f(x,y)が、回復像として得られる。
G (u, v) = H (u, v) × F (u, v) (Equation 2)
The original image f (x, y) is obtained as a restored image by dividing both sides of Equation 2 by H and performing inverse Fourier transform on F (u, v) to return to the real surface.

ここで、H−1を逆フーリエ変換したものをRとすると次式が成立する。   Here, if the inverse Fourier transform of H-1 is R, the following equation holds.

f(x,y)=g(x,y)*R(x、y) ・・・(数式3)
R(x、y)は、画像回復フィルタであり、レンズの光学情報を元に作成できるため、実面での画像に対するコンボリューションを行うことで同様に原画像を得ることができる。以上の方法が、画像回復の基本的な考え方である。
f (x, y) = g (x, y) * R (x, y) ... (Equation 3)
R (x, y) is an image restoration filter and can be created based on optical information of the lens, so an original image can be similarly obtained by performing convolution on the image on the real side. The above method is the basic idea of image restoration.

ところがこの考え方は、光学系において結像関係にある、像面と物体面どうしの関係に限ったものである。実際の撮像装置において、像面に対応する撮像面については平面であるが、物体面に対応する被写体は、必ずしも平面ではないため、物体面から奥行方向(z方向)に逸脱する被写体も多い。   However, this concept is limited to the relationship between the image plane and the object plane, which is in an imaging relationship in the optical system. In an actual imaging apparatus, although an imaging plane corresponding to an image plane is a plane, a subject corresponding to an object plane is not necessarily a plane, so many subjects deviate in a depth direction (z direction) from the object plane.

このとき、物体面から奥行方向に逸脱した被写体は、撮像面においてもz方向に逸脱した位置に像を結ぶため、撮像面上では、ボケた像となる。即ち、光学系の物体面から逸脱した被写体が、本来合焦させたい被写体で合った場合、その像はボケてしまうため、撮影者はピントずれと認識する。このことを点像分布関数で表現する。   At this time, a subject deviating in the depth direction from the object plane forms an image at a position deviating in the z direction also in the imaging plane, and thus becomes a blurred image on the imaging plane. That is, when an object deviated from the object plane of the optical system is matched with an object which is originally intended to be in focus, the image is blurred, and the photographer recognizes that the image is out of focus. This is expressed by a point spread function.

撮像面から見ると、被写体の奥行方向に応じて像が結ぶ位置がボケたり、鮮鋭になったりするため、前記点像分布関数のh(x、y)は、3次元のh(x、y、z)で表現される。   The point spread function h (x, y) is a three-dimensional h (x, y) because the image is blurred or sharpened depending on the depth direction of the subject when viewed from the imaging plane. , Z).

即ち、立体の被写体を撮影する時は、下記のように数式化される。   That is, when photographing a three-dimensional object, it is mathematically expressed as follows.

g’(x,y)=f’(x、y)*h(x、y、z) ・・・(数式4)
ここで、f’(x,y)は、立体物である被写体f(x、y、z)を任意の平面に射影した、平面射影原画像である。
g '(x, y) = f' (x, y) * h (x, y, z) ... (Equation 4)
Here, f ′ (x, y) is a plane projection original image obtained by projecting a subject f (x, y, z) that is a three-dimensional object onto an arbitrary plane.

図1を用いて、平面射影原画像の説明をする。図1Aには、奥行のある被写体と撮影光学系を表す図である。撮像光学系の主点Hから各被写体ABCに向かって放射状に線を引いたとき、それらが像面と平行な任意の平面と公差する点が、被写体の物体面への射影点である。   The planar projection original image will be described with reference to FIG. FIG. 1A is a diagram showing a subject with depth and a photographing optical system. When a line is drawn radially from the principal point H of the imaging optical system toward each subject ABC, the point at which they are in tolerance with an arbitrary plane parallel to the image plane is the projection point of the subject onto the object plane.

これらを全ての被写体で行ったものが、平面射影原画像であり、図1Bのようになる。被写体ABCの大きさは、実際は同じであるが、主点からの距離が近いほど拡大された像になっていることが分かる。この平面射影原画像f’(x、y)に、それぞれの座標、及びアウトフォーカス状態の点像強度関数h(x、y、z)を掛けて得られる画像が、g’(x,y)である。   What performed these for all the subjects is a plane projection original image, which is as shown in FIG. 1B. Although the size of the subject ABC is actually the same, it can be seen that the closer the distance from the main point, the more the image is enlarged. An image obtained by multiplying this plane projection original image f ′ (x, y) by the respective coordinates and the point spread function h (x, y, z) in the out-focus state is g ′ (x, y) It is.

被写体Aや被写体Cは、物体面から逸脱しているため、ボケた点像強度関数が掛かり、比較的物体面に近い被写体Bには、鮮鋭な点像強度関数が掛かり、その結果得られるg’(x、y)は、図1Cのようになる。   Since the subject A and the subject C deviate from the object plane, the blurred point image intensity function is applied, and the subject B relatively close to the object plane is subjected to the sharp point image intensity function, and the resultant g is obtained '(X, y) becomes like FIG. 1C.

次に、このようにして得られた劣化画像g’(x、y)から、物体面射影原画像f’(x、y)を得る方法について考える。数式1と数式3の関係から、劣化画像にR(x、y、z)なる、z方向の関数も持つ画像回復フィルタを掛けた、以下の数式ように表現できることは自明である
f’(x、y)=g’(x,y)*R(x、y、z) ・・・(数式5)
ここで問題となるのは、劣化画像g’(x,y)は平面情報のため、zの情報が抜け落ちており、R(x、y、z)のzの項が特定できず、劣化画像からだけでは、平面射影原画像への回復処理を行うことが出来ないことである。
Next, a method of obtaining an object plane projection original image f ′ (x, y) from the deteriorated image g ′ (x, y) obtained in this manner will be considered. From the relationship between Equation 1 and Equation 3, it is obvious that the degraded image can be expressed as the following equation by applying an image restoration filter with R (x, y, z) and also a function in the z direction f '(x , Y) = g '(x, y) * R (x, y, z) (5)
Here, the problem is that the degraded image g '(x, y) is plane information, so the information of z is missing, and the z term of R (x, y, z) can not be identified, and the degraded image It is impossible to perform recovery processing to a plane projection original image only from the point.

そこで、本実施形態では、撮影時にセンサー面の座標に応じて、デフォーカス状態を得て、その情報からzを特定した。具体的には、撮像面位相差方式でデフォーカス量を得る方法や、フォーカシングをしながらコントラスト値を読み、それにより得るコントラスト波形よりデフォーカス量を計算する方法を用いる。それにより各(x、y)の座標点毎にzが特定できるため、R(x、y、z)が定まり、物体面射影原画像f’(x、y)が得られることを見出した。   Therefore, in the present embodiment, the defocus state is obtained according to the coordinates of the sensor surface at the time of shooting, and z is specified from the information. Specifically, a method of obtaining the defocus amount by the imaging surface phase difference method or a method of reading the contrast value while focusing and calculating the defocus amount from the contrast waveform obtained thereby is used. As a result, since z can be specified for each (x, y) coordinate point, R (x, y, z) is determined, and it has been found that an object surface projection original image f '(x, y) can be obtained.

次に、所望のデフォーカス量だけピントをずらした画像を得る方法について考える。図1Aにおいて、物体面は被写体Bの位置にあるため、被写体Bが鮮鋭であり、被写体Aと被写体Cはボケた状態にあるが、本来は被写体Cに合焦した状態を得たかったとする。このときのピントずらし量をΔzとする。   Next, a method of obtaining an image out of focus by a desired defocus amount will be considered. In FIG. 1A, since the object plane is at the position of the subject B, the subject B is sharp, and the subjects A and C are in a blurred state. The focus shift amount at this time is Δz.

まず、数式5により、平面射影原画像f’(x、y)を得る。平面射影原画像が得られたら、後は本来合焦させたかった状態の点像強度分布関数を光学データより再現し、掛ければ、所望の画像が得られる。   First, a plane projection original image f '(x, y) is obtained by Expression 5. After the plane projection original image is obtained, the point image intensity distribution function in a state to be originally focused is reproduced from the optical data, and a desired image can be obtained by multiplication.

ここで、光学データより再現する点像強度分布関数を、実レンズの点像強度分布関数hと区別するために、kと定義する。   Here, the point image intensity distribution function reproduced from the optical data is defined as k in order to distinguish it from the point image intensity distribution function h of the real lens.

また、点像強度分布関数と画像回復フィルタについて、もう少し詳細に表現してみる。画像回復フィルタRと、点像強度分布関数kは、光学系のズームポジションz、フォーカスポジションfo、F値fno、像高(x、y)、デフォーカス状態zに応じて変化する、多次元関数R(z、fo、fno、x、y、z)、k(z、fo、fno、x、y、z)である。   In addition, the point spread function and the image restoration filter will be expressed in more detail. Image restoration filter R and point spread function k change according to zoom position z, focus position fo, f-number fno, image height (x, y) and defocus state z of optical system R (z, fo, fno, x, y, z) and k (z, fo, fno, x, y, z).

今、被写体Bに合焦した状態の点像強度分布関数が、k(z、fo、fno、x、y、z)だったとすると、被写体BからΔzだけデフォーカスした被写体Cに合焦した状態の点像強度分布関数は、k(z、fo+Δfo、fno、x、y、z+Δz)となる。   Now, assuming that the point spread function with focus on subject B is k (z, fo, fno, x, y, z), then focus on subject C defocused from subject B by Δz The point spread function of is k (z, fo + Δfo, fno, x, y, z + Δz).

ここで、Δfoは、Δzだけデフォーカスさせるためのフォーカス繰り出し量を与えれば、算出可能であるため、Δzのみから、k(z、fo+Δfo、fno、x、y、z+Δz)を得ることが出来る。よって、Δzとkの光学情報から、以下の数式のように表わすことができる。     Here, Δfo can be calculated by giving a focus advancing amount for defocusing by Δz, and hence k (z, fo + Δfo, fno, x, y, z + Δz) can be obtained from only Δz. Therefore, the optical information of Δz and k can be expressed as the following equation.

gd(x,y)=f’(x、y)*k(z、fo+Δfo、fno、x、y、z+Δz)
・・・(数式6)
gd(x、y)は、被写体Cが合焦状態で、被写体BはΔzだけボケて、被写体Aは更にボケた状態の、所望の画像になる。
gd (x, y) = f '(x, y) * k (z, fo + Δfo, fno, x, y, z + Δz)
... (Equation 6)
gd (x, y) is a desired image in which the subject C is in focus, the subject B is blurred by Δz, and the subject A is further out of focus.

また、数式5と数式6から、以下の数式となる。   Further, from Equation 5 and Equation 6, the following equation is obtained.

gd(x,y)=g’(x,y)*R(z、fo、fno、x、y、z)*k(z、fo+Δfo、fno、x、y、z+Δz) ・・・(数式7)
そして、以下の数式に示すように、Rk(z、fo、fno、x、y、z、Δfo、Δz)がピントずらしフィルタであり、撮影画像の各座標位置でのピント位置zと、所望のピントずらし量Δzを与えることで、原画像から所望の量のピント調整をすることができることになる。
gd (x, y) = g '(x, y) * R (z, fo, fno, x, y) * k (z, fo +? fo, fno, x, y, z +? z) ... (Equation 7) )
Then, as shown in the following formula, Rk (z, fo, fno, x, y, z, Δfo, Δz) is a focus shift filter, and a desired focus position z at each coordinate position of the captured image and By providing the focus shift amount Δz, it is possible to perform focus adjustment of a desired amount from the original image.

gd(x,y)=g’(x,y)*Rk(z、fo、fno、x、y、z、Δfo、Δz)
・・・(数式8)
しかしながら、ここで問題となるのは、深度コントロールに必要な画像回復フィルタRと、点像強度分布関数kが、2次元マップ情報であり、それがさらにズーム、フォーカス、像高、F値、更には深度方向を含む多次元関数となっていることである。そのデータ量は莫大になってくるため、交換レンズや撮像装置がデータを保持して、撮像装置上で処理を行うことは勿論、画像をPCに移動して処理をする場合すら、その莫大な情報の保持は、課題となってくる。
gd (x, y) = g '(x, y) * Rk (z, fo, fno, x, y, z, Δfo, Δz)
... (Equation 8)
However, the problem here is that the image restoration filter R necessary for depth control and the point spread function k are two-dimensional map information, which further zoom, focus, image height, f-number, and more. Is a multi-dimensional function including the depth direction. Because the amount of data becomes enormous, interchangeable lenses and imaging devices hold data and perform processing on the imaging device, as well as moving images to a PC for processing Holding information is an issue.

そこで本発明者は、全撮影パターンに対処できる前記データを保持する位なら、各撮影画像に対して必要なデータをその都度演算生成する方が、圧倒的にシステム負荷が小さくなるという発想の転換に至った。   Therefore, the present inventor has changed the idea that if the data required to cope with all the shooting patterns is held, it is overwhelmingly less system load to calculate the necessary data for each shot image each time. It came to

具体的には、光学系のRDN情報のみを保持し、そこに、F値と撮像装置で取得した深度情報を付加し、点像強度分布関数kと画像回復フィルタRを演算生成することである。   Specifically, only the RDN information of the optical system is held, the F value and the depth information acquired by the imaging device are added thereto, and the point spread function k and the image restoration filter R are calculated and generated. .

点像強度分布関数は、物点からの放射状の光を1本1本、光学系の1面1面をスネルの法則に従い、像面上に結像させた結果の強度分布を表すものであるため、比較的単純計算のループで、可能である。   The point image intensity distribution function represents the intensity distribution as a result of imaging each surface of an optical system on a single image according to Snell's law, one light from each of the object points. Because of the relatively simple calculation loop, it is possible.

画像回復フィルタも、点像強度分布関数をフーリエ変換したものであるから、これも演算生成可能である。   Since the image restoration filter is also a Fourier transform of the point spread function, it can also be calculated.

それにより、ごく軽量なデータで、深度コントロールが可能になることを見出した。   It has been found that depth control is possible with very light data.

以下に、本発明を具体的に実施する具体的な構成について説明する。図2Aには、zを撮像面位相差測距で測定する方法を示す。図2Bには、zをフォーカシングしながらコントラスト値を読むことで、デフォーカス位置を測定する方法を示す。図2Cには、図2A、図2Bのようにして得た撮影画像とデフォーカス情報(深度マップ)から、RDNデータを基にピント調整を行う例を示す。図2Cは、図2A、図2Bを行った撮像装置上で行っても良いし、外部のソフトで行っても良い。   Hereinafter, specific configurations for specifically implementing the present invention will be described. FIG. 2A shows a method of measuring z by imaging surface phase difference ranging. FIG. 2B shows a method of measuring the defocus position by reading the contrast value while focusing z. FIG. 2C shows an example in which focus adjustment is performed based on RDN data from the photographed image and defocus information (depth map) obtained as shown in FIGS. 2A and 2B. FIG. 2C may be performed on the imaging device which has performed FIGS. 2A and 2B, or may be performed by external software.

図3Aには、撮像面位相差測距で得られる深度マップを示す。図3Bには、フォーカシングをしながらコントラスト値を読むことで、オートフォーカスを行い、かつ深度マップを得る際の過程を示す。   FIG. 3A shows a depth map obtained by imaging surface phase difference ranging. FIG. 3B shows a process of performing autofocus and obtaining a depth map by reading a contrast value while focusing.

まず、図2Aを参照しながら、zを撮像面位相差測距で測定する方法を説明する。ステップ101で撮影実行命令が下ったら、ステップ102の測距点位相差情報取得に移行する。予めユーザーが選択した、ピントを合わせたい測距点において、デフォーカス状態を測定する。ミラーを用いてオートフォーカス光学系に入射させて瞳を分離する、所謂外測位相差測距でも良いし、撮像面に配置した撮像面位相差測距でも良い。   First, a method of measuring z by imaging surface phase difference ranging will be described with reference to FIG. 2A. When a photographing execution instruction is given in step 101, the process moves to distance measurement point phase difference information acquisition in step 102. The defocus state is measured at a focus detection point selected by the user in advance and desired to be in focus. It may be so-called external phase difference ranging in which the pupil is separated by entering the autofocusing optical system using a mirror, or imaging plane phase difference ranging disposed on the imaging surface.

次に、ステップ103の光学系のパラメータ取得を行う。具体的には、光学系のズーム位置、フォーカス位置等を読み取る。   Next, parameter acquisition of the optical system in step 103 is performed. Specifically, the zoom position, focus position, etc. of the optical system are read.

ステップ104では、それらの光学位置特有の光学情報を使用し、光学系を合焦させるために必要なフォーカス駆動量を決定し、駆動を行う。ステップ105では、駆動後の測距を再度行う。   In step 104, optical information specific to the optical position is used to determine the amount of focus drive necessary to focus the optical system and drive is performed. In step 105, distance measurement after driving is performed again.

ステップ106では、ステップ105の測距結果が合焦状態か否かの判定を行い、非合焦の場合は、再び103の光学系のパラメータ取得に戻り、合焦状態への追い込みループに入る。   In step 106, it is judged whether or not the distance measurement result in step 105 is the in-focus state, and in the case of out-of-focus, the process returns to acquiring the parameters of the optical system 103 again and enters the focusing loop.

合焦判定の場合は、ステップ109で深度マップを作成するための撮像面位相差情報の取得(ステップ107)を行う。   In the case of focus determination, acquisition of imaging surface phase difference information for creating a depth map is performed in step 109 (step 107).

次に、ステップ110で撮影画像を作成するための像信号取得(ステップ108)を行う。   Next, in step 110, image signal acquisition (step 108) for creating a photographed image is performed.

また、ステップ109で、光学系のRDNを取得する。   Also, in step 109, the RDN of the optical system is acquired.

得られた深度マップと撮影画像とRDN情報をステップ112で保存する。   The obtained depth map, photographed image and RDN information are stored at step 112.

ここで、ステップ107の撮像面位相差情報取得から、ステップ109の深度マップ作成までの流れを、図3Aを参照しながら説明する。図3Aに示す、無数の矩形が撮像面測距を行うポイントである。実際は、矩形領域の中心に位置する画素に、瞳分離手段が配置されているが、詳しい説明は、参考文献3に示す通りである。   Here, a flow from acquisition of imaging surface phase difference information in step 107 to creation of a depth map in step 109 will be described with reference to FIG. 3A. Innumerable rectangles shown in FIG. 3A are points at which imaging surface distance measurement is performed. In practice, the pupil separation means is disposed at the pixel located at the center of the rectangular area, but the detailed description is as shown in Reference 3.

それぞれから得られたデフォーカス量を図3Bのようにマップ化したものが、深度マップである。今、合焦状態にある被写体Bのデフォーカスが0であり、前ピン状態の被写体Aが、マイナスのデフォーカス量、後ピン状態の被写体Cが、プラスのデフォーカス量、被写体Cよりも奥にある背景Dが、更に大きいプラスのデフォーカス量となる。この深度マップにより、(x、y、z)の情報が得られたことになり、ピント調整フィルタの作成が可能になる。   The depth map is obtained by mapping the defocus amount obtained from each as shown in FIG. 3B. Now, the defocus of subject B in the in-focus state is 0, and the subject A in the front pin state is a negative defocus amount, and the subject C in the back pin state is deeper than the positive defocus amount and subject C The background D in the image is an even larger positive defocus amount. With this depth map, information of (x, y, z) is obtained, and it is possible to create a focus adjustment filter.

次に、深度マップをフォーカシング駆動しながらコントラスト値を読むことで、得る方法について、図2Bと図3Bを参照しながら説明する。現在のフォーカス位置は、図3Bで言うと、sの位置であり、合焦させたい被写体は、被写体Bであるとする。   Next, a method of obtaining the contrast map by reading the contrast value while focusing driving the depth map will be described with reference to FIGS. 2B and 3B. The current focus position is the position of s in FIG. 3B, and the subject to be focused is the subject B.

ステップ201の撮影命令が下り次第、ステップ202のコントラスト値取得が開始する。具体的には、被写体のエッジ部分の鮮鋭度を演算する。   As soon as the photographing command in step 201 is lowered, acquisition of the contrast value in step 202 is started. Specifically, the sharpness of the edge portion of the subject is calculated.

ステップ203の初期フォーカス駆動では、フォーカス駆動を無限側または至近側、任意の方向に動かし、ステップ204の駆動方向判別に移行する。   In the initial focus drive of step 203, the focus drive is moved to an infinite side or close side in an arbitrary direction, and the process proceeds to the drive direction determination of step 204.

ステップ204で、コントラスト値が上がれば、初期駆動方向が正しい駆動方向であり、コントラスト値が下がれば、駆動方向が反対なので、反転する必要がある。図3Bで言うと、初期駆動方向がマイナスの場合は、被写体Bのコントラスト値が下がるため、プラス方向に反転させる。   If the contrast value goes up in step 204, the initial drive direction is the correct drive direction, and if the contrast value goes down, the drive direction is opposite, so it needs to be reversed. In FIG. 3B, when the initial driving direction is negative, the contrast value of the subject B is lowered, so that the image is reversed in the positive direction.

ステップ205では、ステップ204で決定した方向に、フォーカス駆動を行う。図3Bで言うと、sからプラス方向に駆動する。   In step 205, focus drive is performed in the direction determined in step 204. In FIG. 3B, drive in the positive direction from s.

次に、ステップ206で、オーバーラン判定を行う。   Next, in step 206, overrun determination is performed.

図3Bで、被写体Bのコントラストピーク位置uを通り過ぎて、明らかにコントラストが下がったと判定した位置tにおいて、ピークを通り過ぎたと判断する。   In FIG. 3B, it is determined that the peak is passed at a position t where the contrast peak position u of the subject B is passed and it is determined that the contrast is clearly lowered.

次に、ステップ207で、オーバーランした分を戻す駆動量を決定する。具体的には、u‐tの駆動量となる。   Next, at step 207, a drive amount for returning the overrun is determined. Specifically, the drive amount of ut is obtained.

次に、ステップ208で、反転駆動を行い停止させる。ここでコントラスト値の取得を終了する(ステップ209)。   Next, in step 208, reverse drive is performed to stop. Here, the acquisition of the contrast value is ended (step 209).

次に、ステップ212で撮影画像を作成するための像信号取得(ステップ210)を行う。   Next, in step 212, image signal acquisition (step 210) for creating a captured image is performed.

次に、ステップ211の光学系のパラメータ取得を行う。具体的には、光学系のズーム位置、フォーカス位置等を読み取る。   Next, parameter acquisition of the optical system in step 211 is performed. Specifically, the zoom position, focus position, etc. of the optical system are read.

次に、ステップ213で、コントラスト値とステップ211の光学系のパラメータを基に、深度マップを作成する。   Next, in step 213, based on the contrast value and the parameters of the optical system in step 211, a depth map is created.

また、ステップ214で、光学系のRDNを取得する。最後に、得られた深度マップと撮影画像とRDNをステップ215で保存する。   Further, in step 214, the RDN of the optical system is acquired. Finally, the obtained depth map, photographed image and RDN are saved in step 215.

ここで、ステップ213での深度マップ作成方法を具体的に説明する。ステップ205のオーバーランを開始してから、ステップ206のオーバーラン検知の間まで、図3Bで言うとsからtまで、各被写体でのコントラストを取得している。そのため、例えば被写体Aや被写体Cは、sからtの間にコントラストピークがそれぞれ存在するため、コントラストピーク位置をそれぞれw,vと決定できる。   Here, the depth map generation method in step 213 will be specifically described. After starting the overrun in step 205, the contrast in each subject is acquired from s to t in FIG. Therefore, for example, in the subject A and the subject C, since the contrast peaks exist between s and t, the contrast peak positions can be determined as w and v, respectively.

ステップ211の光学系の位置から、フォーカスパルスあたりの像面移動量Sを得ることができ、各被写体のデフォーカス量を算出することが可能になる。被写体AであればS×(w−u)、被写体CであればS×(v−u)となる。それにより、撮像面位相差測距と同じように、撮影面全体で深度マップを作成することが出来る。   From the position of the optical system in step 211, the image plane movement amount S per focus pulse can be obtained, and the defocus amount of each subject can be calculated. In the case of the subject A, S × (w−u), and in the case of the subject C, S × (v−u). Thus, as in the case of imaging surface phase difference ranging, a depth map can be created for the entire imaging surface.

次に、撮像面位相差測距または、フォーカシングしながらコントラスト値を取得する方法により得た、深度マップと撮影画像から、ピント調整を行うフローについて図2Cを参照しながら説明する。この処理を行うのは、撮影機器でも良いし、外部の演算ソフトであっても良いが、先に得た画像と深度マップを読み取れ、かつ撮影光学系の点像強度分布関数k(z、fo、fno、x、y、z)及び画像回復フィルタR(z、fo、fno、x、y、z)を保持している必要がある。   Next, a flow of performing focus adjustment from the depth map and the photographed image obtained by the imaging surface phase difference distance measurement or the method of acquiring the contrast value while focusing will be described with reference to FIG. 2C. Although this processing may be performed by a photographing device or external calculation software, it is possible to read the previously obtained image and depth map, and the point spread function k (z, fo of the photographing optical system) , Fno, x, y, z) and the image restoration filter R (z, fo, fno, x, y, z).

まず、ステップ301でユーザーより撮影画像の表示命令がされた場合、ステップ302で画像の表示を行う。ここで、ステップ303でユーザーより被写体のピントがずれていると判断された場合は、ステップ304の調整値入力に移行する。ユーザーより調整値が入力されたら、ステップ305でピント調整フィルタを作成し、ステップ306でピント調整処理を行う。ステップ307でピント調整結果を表示し、ステップ303に戻る。   First, when a display instruction of a photographed image is given by the user in step 301, the image is displayed in step 302. Here, if it is determined that the subject is out of focus by the user in step 303, the process proceeds to adjustment value input in step 304. When an adjustment value is input from the user, a focus adjustment filter is created in step 305, and focus adjustment processing is performed in step 306. At step 307, the focus adjustment result is displayed, and the process returns to step 303.

ステップ303でピント調整不要と判断された場合、ステップ308で終了となる。   If it is determined in step 303 that focus adjustment is unnecessary, the process ends in step 308.

次に、本実施形態において、より良好な画像が得られるための方法について説明する。数式5において、平面射影原画像を得た際、回復フィルタR(z、fo、fno、x、y、z)により、光学系の収差が良好に補正された画像が得られる。   Next, a method for obtaining a better image in the present embodiment will be described. In Expression 5, when the plane projection original image is obtained, an image in which the aberration of the optical system is satisfactorily corrected is obtained by the recovery filter R (z, fo, fno, x, y, z).

数式7で、フォーカスポジションとデフォーカスをずらした状態の光学系の点像強度分布関数k(z、fo+Δfo、fno、x、y、z+Δz)を与えている。   In equation 7, the point spread function k (z, fo + Δfo, fno, x, y, z + Δz) of the optical system in a state in which the focus position and the defocus are shifted is given.

このとき、Δz調整後のベストピント位置においても、再び光学系の収差が与えられ、多少の画像劣化が発生してしまう。   At this time, even at the best focus position after Δz adjustment, the aberration of the optical system is given again, and some image deterioration occurs.

そこで本実施形態では、Δz調整後のベストピント付近においては、点像強度分布関数を与えず、平面射影原画像そのものとすることで、ベストピント付近が鮮鋭なピント調整画像を得ることに成功した。   Therefore, in the present embodiment, a point projection intensity distribution function is not given in the vicinity of the best focus after the Δz adjustment, and the plane projection original image itself is obtained, so that the focus adjustment image in which the vicinity of the best focus is sharp succeeds. .

また、本実施形態では、ピントずらしだけでなく、光学系のFナンバーもユーザーから与えることが可能であり、それにより深度を調整することもできる。数式7において、画像回復フィルタR(z、fo、fno、x、y、z)のfnoには、撮影時の光学系のF値を与え、光学系の点像強度分布関数k(z、fo+Δfo、fno、x、y、z+Δz)のfnoには、深度調整したい所望のF値を与える。   Further, in the present embodiment, not only the focus shift but also the f-number of the optical system can be given from the user, whereby the depth can be adjusted. In Equation 7, the f-number of the optical system at the time of shooting is given to fno of the image restoration filter R (z, fo, fno, x, y, z), and the point spread function k (z, fo + Δfo) of the optical system , Fno, x, y, z + Δz) give the desired F-number to which depth adjustment is desired.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

A、B、C・・奥行のある被写体 A, B, C, ... A subject with depth

Claims (12)

複数のポイントのデフォーカス状態を撮影時に検知する手段と、
光学系の曲率半径、面間隔、屈折率の情報を記憶する手段と、
前記情報を基に、深度コントロールに必要な光学フィルタを演算生成する手段と、
前記光学フィルタから撮影画像を処理する手段と、
を有することを特徴とする撮像システム。
A means for detecting the defocus state of a plurality of points at the time of shooting;
A means for storing information on the radius of curvature, surface spacing, and refractive index of the optical system;
A unit for calculating and generating an optical filter necessary for depth control based on the information;
Means for processing a captured image from the optical filter;
An imaging system comprising:
前記光学フィルタは、外部入力されたピントずらし量に基づいて生成されることを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the optical filter is generated based on an externally input focus shift amount. 前記光学フィルタは、外部入力されたぼかし量に基づいて生成されることを特徴とする、請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the optical filter is generated based on an externally input blur amount. 前記光学系の有効径情報も記憶することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。   The imaging system according to any one of claims 1 to 3, wherein effective diameter information of the optical system is also stored. 複数のポイントのデフォーカス状態を撮影時に検知する手段と、
光学系の曲率半径、面間隔、屈折率の情報を基に、深度コントロールに必要な光学フィルタを演算生成する手段と、
前記光学フィルタから撮影画像を処理する手段と、
を有する撮像装置に着脱可能であり、
前記情報を記憶する手段を有することを特徴とするレンズ装置。
A means for detecting the defocus state of a plurality of points at the time of shooting;
A means for computing and generating an optical filter necessary for depth control based on information on the radius of curvature, surface spacing, and refractive index of the optical system;
Means for processing a captured image from the optical filter;
Removable to an imaging device having
A lens apparatus characterized by comprising means for storing the information.
前記光学フィルタは、外部入力されたピントずらし量に基づいて生成されることを特徴とする請求項5に記載のレンズ装置。   The lens apparatus according to claim 5, wherein the optical filter is generated based on an externally input focus shift amount. 前記光学フィルタは、外部入力されたぼかし量に基づいて生成されることを特徴とする、請求項5に記載のレンズ装置。   The lens apparatus according to claim 5, wherein the optical filter is generated based on an externally input blur amount. 前記光学系の有効径情報も記憶することを特徴とする請求項5乃至7のいずれか1項に記載のレンズ装置。   The lens apparatus according to any one of claims 5 to 7, wherein effective diameter information of the optical system is also stored. 複数のポイントのデフォーカス状態を撮影時に検知する手段と、
光学系の曲率半径、面間隔、屈折率の情報を記憶する手段と、
前記情報を撮影画像に書き込む手段を有する撮像装置で得られた撮影画像から、深度コントロールに必要な光学フィルタを演算生成する手段と、
前記光学フィルタから撮影画像を処理する手段と、
を有することを特徴とする画像処理ツール。
A means for detecting the defocus state of a plurality of points at the time of shooting;
A means for storing information on the radius of curvature, surface spacing, and refractive index of the optical system;
A unit for computing and generating an optical filter necessary for depth control from a captured image obtained by an imaging apparatus having a unit for writing the information in the captured image;
Means for processing a captured image from the optical filter;
An image processing tool characterized by having.
前記光学フィルタは、外部入力されたピントずらし量に基づいて生成されることを特徴とする請求項9に記載の画像処理ツール。   The image processing tool according to claim 9, wherein the optical filter is generated based on an externally input focus shift amount. 前記光学フィルタは、外部入力されたぼかし量に基づいて生成されることを特徴とする、請求項9に記載の画像処理ツール。   The image processing tool according to claim 9, wherein the optical filter is generated based on an externally input blur amount. 前記光学系の有効径情報も記憶することを特徴とする請求項9乃至11のいずれか1項に記載の画像処理ツール。   The image processing tool according to any one of claims 9 to 11, wherein the effective diameter information of the optical system is also stored.
JP2017240199A 2017-12-15 2017-12-15 Imaging system, lens device, and image processing tool Pending JP2019110365A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017240199A JP2019110365A (en) 2017-12-15 2017-12-15 Imaging system, lens device, and image processing tool

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017240199A JP2019110365A (en) 2017-12-15 2017-12-15 Imaging system, lens device, and image processing tool

Publications (1)

Publication Number Publication Date
JP2019110365A true JP2019110365A (en) 2019-07-04

Family

ID=67180202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017240199A Pending JP2019110365A (en) 2017-12-15 2017-12-15 Imaging system, lens device, and image processing tool

Country Status (1)

Country Link
JP (1) JP2019110365A (en)

Similar Documents

Publication Publication Date Title
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US10101572B2 (en) Variable focal length lens system with multi-level extended depth of field image processing
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
CN102369722B (en) Camera head and image capture method and the image processing method for described camera head
JP2013211827A (en) Image processing method, device and program
JPWO2011158515A1 (en) Distance estimation device, distance estimation method, integrated circuit, computer program
JP2019191429A (en) Control device, imaging device, control method and program
WO2019104670A1 (en) Method and apparatus for determining depth value
JP6432038B2 (en) Imaging device
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JPH0887600A (en) Edge detection device
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2018148383A (en) Imaging apparatus and imaging unit
JP2019110365A (en) Imaging system, lens device, and image processing tool
JP2020008785A (en) Imaging apparatus
JP2016192621A (en) Imaging apparatus, image processing operation apparatus, and image processing method
JP6623419B2 (en) Display control device, imaging device, smartphone, display control method, and program
JP4091455B2 (en) Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium
JP2016010080A (en) Image processing apparatus, image processing method and program
JP2019520897A (en) Intraoral imaging device with extended depth of field
JP2016192620A (en) Imaging apparatus, image processing arithmetic unit, and image processing program
JP2016019017A (en) Image processing apparatus, imaging device, image processing method, image processing program, and storage medium
JP2016192003A (en) Imaging apparatus, image processing arithmetic unit, and method for image processing
WO2021065065A1 (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125