JP2022173069A - Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium - Google Patents
Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium Download PDFInfo
- Publication number
- JP2022173069A JP2022173069A JP2022052478A JP2022052478A JP2022173069A JP 2022173069 A JP2022173069 A JP 2022173069A JP 2022052478 A JP2022052478 A JP 2022052478A JP 2022052478 A JP2022052478 A JP 2022052478A JP 2022173069 A JP2022173069 A JP 2022173069A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- images
- parallax
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体に関し、特に、撮像装置から得られた画像から距離画像を生成する技術に関するものである。 The present invention relates to an image processing apparatus and method, an imaging apparatus and its control method, a program, and a storage medium, and more particularly to technology for generating a distance image from an image obtained from an imaging apparatus.
従来、瞳分割された一対の像を用いて、当該像に含まれる各被写体までの距離を示す距離画像を得る技術が知られている(特許文献1)。この技術では、静止している被写体(以下、「静止被写体」と呼ぶ。)に加えて、多くの撮影シーンで主被写体となる動いている被写体(以下、「動被写体」と呼ぶ。)を含んだシーンの距離画像を、1回の撮影で得られるという利点がある。 2. Description of the Related Art Conventionally, there is known a technique of using a pair of pupil-divided images to obtain a distance image indicating the distance to each subject included in the images (Patent Document 1). In this technology, in addition to a stationary subject (hereinafter referred to as a "still subject"), a moving subject (hereinafter referred to as a "moving subject"), which is the main subject in many shooting scenes, is included. There is an advantage that a depth image of a scene can be obtained in one shot.
また、測距用のカメラとして、複眼ステレオカメラが古くから用いられている。複眼ステレオカメラはカメラ同士の位置関係が既知である複数のカメラを用いて、共通に写っている被写体の視差とカメラ間の基線長とから、被写体までの距離を算出する。しかしながら、基線長の短い複眼カメラでは、遠距離の被写体に対する像の視差が小さいため、測距精度が低くなってしまう。 Compound-eye stereo cameras have long been used as distance-measuring cameras. A compound-eye stereo camera uses a plurality of cameras whose positional relationships are known, and calculates the distance to an object from the parallax of a commonly captured object and the baseline length between the cameras. However, in a compound eye camera with a short base line length, the parallax of an image with respect to a subject at a long distance is small, so the distance measurement accuracy is low.
これに対し、単眼ステレオカメラでは、1台のカメラで位置及び姿勢を変えて複数枚の画像を撮影し、それらの画像に写った同一被写体の像の視差から被写体までの相対距離を算出する。単眼ステレオカメラでは基線長を大きく取れるため、遠距離の被写体に対しても精度よく相対距離を算出することができ、数十枚~数百枚という大量の画像を用いることにより測距精度を高めることができる。 On the other hand, in a monocular stereo camera, a single camera takes a plurality of images with different positions and postures, and calculates the relative distance to the subject from the parallax of the same subject imaged in those images. A monocular stereo camera can take a large baseline length, so it can accurately calculate the relative distance even for a distant subject, and using a large number of images from tens to hundreds increases the accuracy of distance measurement. be able to.
しかし、単眼ステレオカメラでは、被写体までの距離とカメラの位置及び姿勢を同時に推定するため、測距値が一意に定まらず、得られる測距値は絶対距離値ではなく相対距離値となる。 However, since the monocular stereo camera estimates the distance to the object and the position and orientation of the camera at the same time, the distance measurement value is not uniquely determined, and the obtained distance measurement value is a relative distance value rather than an absolute distance value.
ここで、相対距離値とは無次元量であり、例えば特定の被写体までの距離を1としたときの注目する被写体までの距離比などとして定義される。これに対して、絶対距離値とは長さの次元を持っており、例えば3[m]などの値である。 Here, the relative distance value is a dimensionless quantity, and is defined, for example, as a ratio of the distance to a subject of interest when the distance to a specific subject is set to 1. On the other hand, the absolute distance value has a dimension of length, and is a value such as 3 [m].
そこで、単眼ステレオカメラと複眼ステレオカメラの両方を備えた測距装置において、複眼ステレオカメラで得られる情報を用いて単眼ステレオカメラで取得される相対距離値を絶対距離値に変換する技術が知られている。例えば、特許文献2では、複眼ステレオカメラによってある被写体の絶対距離値を取得し、そこからカメラの絶対位置及び姿勢を計算し、それを用いて全被写体の絶対距離値を取得している。 Therefore, in a distance measuring device equipped with both a monocular stereo camera and a compound eye stereo camera, there is known a technique for converting relative distance values obtained by the monocular stereo camera into absolute distance values using information obtained by the compound eye stereo camera. ing. For example, in Patent Document 2, the absolute distance value of a subject is obtained by a compound eye stereo camera, the absolute position and orientation of the camera are calculated therefrom, and the absolute distance values of all subjects are obtained.
しかしながら、特許文献1に開示された上述した従来技術においては、以下のような問題があった。即ち、瞳分割された一対の像を取得するための主画素と副画素との間の基線長が短いため、像内の被写体の内、撮像装置から近距離に無く、且つ、合焦距離から所定距離範囲外にある被写体までの距離を精度良く算出することができない。一方、特許文献1の構成で少しでも精度良く被写体までの距離を測定するために瞳を広げて基線長を長くすると、被写界深度が浅くなってしまい、今度は距離を算出することができる範囲が狭まってしまう。このように、撮影シーンの奥行範囲が広い場合、精度の良い距離画像を得ることが難しい。 However, the above-described conventional technology disclosed in Patent Document 1 has the following problems. That is, since the base line length between the main pixel and the sub-pixel for acquiring a pair of pupil-divided images is short, among the subjects in the image, there is no object at a short distance from the imaging device and from the in-focus distance. It is not possible to accurately calculate the distance to a subject outside the predetermined distance range. On the other hand, if the pupil is widened and the baseline length is lengthened in order to measure the distance to the subject with the configuration of Patent Document 1 with even a little accuracy, the depth of field becomes shallow, and the distance can be calculated this time. It narrows the range. Thus, when the depth range of the shooting scene is wide, it is difficult to obtain an accurate range image.
また、特許文献2に記載の方法によると、複眼ステレオカメラで取得する被写体の絶対距離が不正確であった場合には、正確なカメラの絶対位置及び姿勢を算出することができない。その結果として全被写体の絶対距離値も不正確になってしまうという課題がある。 Further, according to the method described in Patent Document 2, when the absolute distance of the subject acquired by the compound-eye stereo camera is inaccurate, the absolute position and orientation of the camera cannot be calculated accurately. As a result, there is a problem that the absolute distance values of all subjects also become inaccurate.
本発明は上記問題点を鑑みてなされたものであり、動いている被写体を含むシーン全体の距離画像を精度良く取得することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to accurately acquire a range image of an entire scene including a moving subject.
また、単眼カメラで取得した相対距離値を正確に絶対距離値に変換することを別の目的とする。 Another object of the present invention is to accurately convert a relative distance value obtained by a monocular camera into an absolute distance value.
上記目的を達成するために、本発明の画像処理装置は、同じシーンを異なる位置から撮影した複数の異視点画像と、瞳分割により視差を有する少なくとも一対の視差画像対と、を取得する取得手段と、前記視差画像対から、第1の距離画像を生成する第1の生成手段と、前記複数の異視点画像から、第2の距離画像を生成する第2の生成手段と、前記第1の距離画像と前記第2の距離画像とを統合し、統合距離画像を生成する統合手段とを有することを特徴とする画像処理装置。 To achieve the above object, the image processing apparatus of the present invention includes acquisition means for acquiring a plurality of different viewpoint images of the same scene photographed from different positions, and at least a pair of parallax images having parallax due to pupil division. a first generation means for generating a first distance image from the pair of parallax images; a second generation means for generating a second distance image from the plurality of different viewpoint images; An image processing apparatus, comprising integration means for integrating the distance image and the second distance image to generate an integrated distance image.
本発明によれば、動いている被写体を含む撮影シーン全体の距離画像を精度良く取得することができる。 According to the present invention, it is possible to accurately acquire a range image of an entire shooting scene including a moving subject.
また、単眼カメラで取得した相対距離値を正確に絶対距離値に変換することができる。 Also, it is possible to accurately convert the relative distance value acquired by the monocular camera into the absolute distance value.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.
<第1の実施形態>
図1は、本発明の第1の実施形態における撮像装置100の概略構成を示すブロック図であり、本発明の説明に必要な構成要素のみを示している。撮像装置100は、光学系1011及び撮像素子1012を含む撮像部101、メモリ102、鑑賞画像生成部103、単写距離画像生成部104、マルチビュー距離画像生成部105、距離画像統合部106を有する。
<First embodiment>
FIG. 1 is a block diagram showing the schematic configuration of an
図2は、撮像部101を説明するための図である。
図2(a)において、光学系1011は、複数枚のレンズ及びミラー等から構成され、被写体10からの反射光を撮像素子1012の受光面に結像させる。なお、図2(a)では、光学系1011を1枚のレンズにより表している。202は、光学系1011の光軸である。撮像素子1012は、光学系1011により結像された被写体10の光学像を受光し、電気信号に変換して出力する。
FIG. 2 is a diagram for explaining the
In FIG. 2A, an
撮像素子1012には、図2(b)に示すように、xy平面上に配列された、後述する赤(R)、緑(G)、青(B)のいわゆるベイヤー配列のカラーフィルタ222により覆われた多数の画素210が並置されている。これにより、撮像素子1012の各画素には、カラーフィルタ222が透過する波長帯域に応じた分光特性が与えられ、それぞれ、主として赤、緑、青の光に対する信号を出力する。
As shown in FIG. 2B, the
図2(c)は、各画素の構成を示す断面図であり、マイクロレンズ211、カラーフィルタ222、光電変換部210a,210b、及び導波路213を含んで構成される。基板224は、カラーフィルタ222が透過する波長帯域の光を吸収を有する材料、例えばシリコン(Si)で形成され、イオン打ち込み等で、内部の少なくとも一部の領域に光電変換部210a,210bが形成される。また、各画素は、不図示の配線を備えている。
FIG. 2C is a cross-sectional view showing the configuration of each pixel, which includes a
光電変換部210a,210bには、それぞれ、光学系1011の射出瞳230の異なる瞳領域である第1の瞳領域231aを通過した光束232aと、第2の瞳領域231bを通過した光束232bとが入射する。これにより、各画素210から、瞳分割された第1の信号及び第2の信号を得ることができる。なお、各画素210からは、光電変換部210a,210bそれぞれの信号である第1の信号及び第2の信号を独立に読み出してもよい。または、第1の信号の読み出し後、第1の信号と第2の信号とを加算した信号を読み出し、加算した信号から第1の信号を差し引くことにより第2の信号を得てもよい。
In the
図2(d)は、撮像素子1012上の各マイクロレンズ211に対応する光電変換部210a,210bを、光軸の入射方向から見た配置を示した図であり、水平または垂直方向に分割される場合の一例である。なお、本発明はこれに限られるものでは無く、水平方向に分割された画素と、垂直方向に分割された画素とが混在するように配置してもよい。そのように配置することで、輝度の分布が水平方向に変化する被写体だけではなく、垂直方向に変化する被写体についても、後述するデフォーカス量を精度よく得ることが可能となる。また、各マイクロレンズ211に対して3つ以上の光電変換部を構成しても良く、図2 (e)はその一例として、1つの画素が水平及び垂直方向に分割された4つの光電変換部210c~210fを有するように構成した場合を示している。
FIG. 2D is a diagram showing the arrangement of the
光電変換部210a,210bから得られた第1の信号及び第2の信号は、撮像部101に含まれる演算処理部204に送られて電子情報化される。演算処理部204は、光電変換して取得された信号がアナログの場合、相関二重サンプリング(CDS)によるノイズ除去、オートゲインコントロール(AGC)でのゲインアップによる露出制御、黒レベル補正、A/D変換等の基礎的な処理を行い、デジタル信号に変換した画像信号を得る。アナログ信号に対する前処理が主であるため、一般的にこれらの演算処理は、AFE(アナログフロントエンド)処理とも呼ばれる。また、デジタル出力センサと対で使われる場合には、DFE(デジタルフロントエンド)処理と呼ばれることがある。
The first signal and the second signal obtained from the
そして、撮像素子1012の複数の画素210から出力された第1の信号を集めたA像と、複数の画素210から出力された第2の信号を集めたB像とを生成する。A像とB像とは互いに視差を有する画像であるため、以下、それぞれを「視差画像」、また、A像とB像をまとめて「視差画像対」と呼ぶ。
Then, an A image that collects the first signals output from the plurality of
演算処理部204は、撮像素子1012がカラーセンサーの場合には、ベイヤー配列補間等も実施する。また、視差画像としての質、及び、視差画像対と共に出力される後述する鑑賞用の画像の質を向上するために、ローパス、ハイパス等のフィルタリング処理や鮮鋭化処理を実施してもよい。更に、HDR(ハイダイナミックレンジ)処理等のダイナミックレンジ拡大を含む諧調補正、WB(ホワイトバランス)補正等の色調補正等の諸々の処理を実施してもよい。なお、演算処理部204の処理は、撮像素子1012とチップレベルまたはユニットレベルで統合される傾向にあるため、図1では不図示としている。
The
このように、撮像素子1012の受光面上に形成された複数のマイクロレンズ211それぞれの下に複数の光電変換部を形成することにより、複数の光電変換部が、それぞれ光学系1011の異なる瞳領域を通過した被写体光束を受光する。これにより、光学系1011の開口が1つであっても、視差画像対を1回の撮影で得ることが可能となる。
生成された視差画像対は、一旦メモリ102に格納される。
In this way, by forming a plurality of photoelectric conversion units under each of the plurality of
The generated parallax image pair is temporarily stored in the
図1に戻り、鑑賞画像生成部103には、メモリ102に格納された1回の撮影で得られた視差画像対が伝送され、各画素ごとに第1の信号と第2の信号が加算されて1枚の画像が生成される。つまり光学系1011の全瞳領域を通過した光束により形成された像に対する、鑑賞用の画像(以下、「鑑賞画像」と呼ぶ。)が生成される。
Returning to FIG. 1, the viewing
なお、視差画像を用いた焦点状態の検出や距離画像の生成を行わない場合、鑑賞画像の生成を、撮像素子1012とチップレベルで統合された演算処理部204で行ったり、各画素内で第1の信号と第2の信号とを加算してから読み出すことにより行ってもよい。その場合には、伝送帯域の節約や読み出しに係る時間の短縮に貢献することができる。また、最終的に距離画像と対になる鑑賞画像を必要としない場合には、鑑賞画像生成部103が明示的には存在せず、マルチビュー距離画像生成部105に含まれることもある。
Note that when the detection of the focus state using the parallax image and the generation of the distance image are not performed, the viewing image is generated by the
単写距離画像生成部104には、メモリ102に格納された1回の撮影で得られた視差画像対が伝送される。その際に、輝度画像への変換を行ってもよい。そして入力した視差画像対の視差画像間の対応付けを行い、光学系1011のズーム状態から規定される焦点距離や絞り値等のカメラパラメータ、撮像素子1012の画素ピッチ等の撮像素子情報が含まれる撮像情報を基に、距離画像を生成する。以下、単写距離画像生成部104で生成された距離画像を、「単写距離画像」と呼ぶ。
A pair of parallax images obtained by one shooting stored in the
マルチビュー距離画像生成部105では、同じシーンを異なる位置から複数回の連続撮影、すなわちマルチショットで取得された複数の視差画像対を、鑑賞画像生成部103で各ショットあたり1枚の画像に変換された鑑賞画像を入力として、複数の鑑賞画像(異視点画像)を用いて距離画像を生成する。以下、マルチビュー距離画像生成部105で生成された距離画像を、「マルチビュー距離画像」と呼ぶ。撮像装置が移動するカメラの場合、時系列で得たマルチショットを行って得た鑑賞画像間に視差が生じるため、撮像装置100の移動や姿勢の変化が既知ならば、鑑賞画像間(異視点画像間)の視差から、マルチビュー距離画像を算出可能である。
In the multi-view range
距離画像統合部106では、単写距離画像とマルチビュー距離画像とを統合し、統合距離画像を生成する。
A distance
次に、図3のフロチャートを参照して、本実施形態における撮影及び統合距離画像生成の手順について説明する。
S101において、単写距離画像生成用の撮影(単写)と、マルチビュー距離画像生成用の撮影(連写)を行う。なお、撮影順に関しては、図9を参照して後述する。
Next, with reference to the flowchart of FIG. 3, the procedure of photographing and integrated range image generation in this embodiment will be described.
In S101, shooting for single-view distance image generation (single shooting) and shooting for multi-view distance image generation (continuous shooting) are performed. Note that the shooting order will be described later with reference to FIG.
S102では、単写により得られた視差画像対を用いて測距処理を行って、単写距離画像を算出する。図4は、S102で行われる単写距離画像生成処理のフローチャートである。図4のS201では、視差画像間の相対的な位置ズレ量である像ズレ量の算出を行う。像ズレ量の算出は公知の手法を用いることができる。例えば、次の式(1)を用いて、A像とB像の信号データA(i)及びB(i)から相関値を算出する。
式(1)において、S(r)は像シフト量rにおける2つの像の間の相関度を示す相関値、iは画素番号、rは2つの像の相対的な像シフト量である。p及びqは、相関値S(r)の算出に用いる対象画素範囲を示している。相関値S(r)の極小値を与える像シフト量rを求めることで像ズレ量を算出することができる。
In S102, distance measurement processing is performed using the pair of parallax images obtained by single shooting, and a single shooting distance image is calculated. FIG. 4 is a flow chart of the single-shot distance image generation processing performed in S102. In S201 of FIG. 4, an image displacement amount, which is a relative positional displacement amount between parallax images, is calculated. A known method can be used to calculate the amount of image shift. For example, using the following equation (1), the correlation value is calculated from the signal data A(i) and B(i) of the A image and the B image.
In equation (1), S(r) is a correlation value indicating the degree of correlation between two images at the image shift amount r, i is the pixel number, and r is the relative image shift amount of the two images. p and q indicate the target pixel range used to calculate the correlation value S(r). The image shift amount can be calculated by obtaining the image shift amount r that gives the minimum value of the correlation value S(r).
なお、像ズレ量の算出方法は、上述した方法に限定されるものではなく、他の公知の手法を用いてもよい。 Note that the method for calculating the image shift amount is not limited to the method described above, and other known methods may be used.
次に、S202では、S201で算出した像ズレ量から、デフォーカス量を算出する。被写体10の像は、光学系1011を介して撮像素子1012に結像される。なお、上述した図2(a)に示す例では、射出瞳230を通過した光束が結像面207で焦点を結んだ、デフォーカス状態を示している。このデフォーカス状態とは、結像面207と、撮像素子1012の撮像面(受光面)とが一致せず、光軸202方向にズレた状態のことであり、デフォーカス量は、撮像素子1012の撮像面と結像面207との間の距離を示す。
Next, in S202, a defocus amount is calculated from the image shift amount calculated in S201. An image of the subject 10 is formed on the
ここで、図5に示す簡略化した撮像装置の光学配置図を用いて、デフォーカス量から距離値への変換方法の一例を説明する。 Here, an example of a conversion method from a defocus amount to a distance value will be described using the simplified optical layout diagram of the imaging apparatus shown in FIG.
図5は、被写体10の像が撮像素子1012に対してデフォーカスした状態の光線232を示し、202は光軸、208は開口絞り、205は前側主点、206は後側主点、207は結像面を示す。また、dは像ズレ量、Wは基線長、Dは撮像素子1012と射出瞳230間の距離、Zは光学系1011の前側主点205と被写体10間の距離、Lは撮像素子1012の撮像面と後側主点206の距離、ΔLはデフォーカス量である。
FIG. 5 shows
本実施形態の撮像装置では、デフォーカス量ΔLに基づいて被写体10の距離が検出される。各画素210の光電変換部210aから取得した第1の信号に依拠するA像と、光電変換部210bから取得した第2の信号に依拠するB像との相対的位置ズレを示す像ズレ量dと、デフォーカス量ΔLとは、式(2)に示す関係を有している。
式(2)は、比例係数Kを用いて、式(3)のように簡略化して書くことができる。
In the imaging apparatus of this embodiment, the distance of the subject 10 is detected based on the defocus amount ΔL. An image shift amount d representing a relative position shift between an A image based on the first signal obtained from the
Equation (2) can be simplified using a proportionality factor K to be written as Equation (3).
ΔL≒K・d …(3)
像ズレ量をデフォーカス量に変換する係数を以下「換算係数」と呼ぶ。換算係数は、例えば、式(3)に示す比例係数Kあるいは基線長Wのことを言う。以降、基線長Wの補正は換算係数の補正と等価である。なお、デフォーカス量の算出方法は、本実施形態の方法に限定されるものではなく、他の公知の手法を用いてもよい。
ΔL≈K・d (3)
A coefficient for converting an image shift amount into a defocus amount is hereinafter referred to as a “conversion coefficient”. The conversion factor is, for example, the proportionality factor K or the baseline length W shown in Equation (3). Henceforth, the correction of the base length W is equivalent to the correction of the conversion factor. Note that the method of calculating the defocus amount is not limited to the method of this embodiment, and other known methods may be used.
さらにデフォーカス量から被写体距離への変換は、光学系1011と撮像素子1012の結像関係を示す以下の式(4)を用いて行えばよい。あるいは像ズレ量から変換係数を用いて直接被写体距離に変換しても良い。なお、式(4)においてfは焦点距離である。
入力した複数の視差画像間、例えばA像とB像間の例えば全ての画素についてデフォーカス量を求めることで、デフォーカスマップを算出することができる。デフォーカスマップを式(4)の関係を用いて変換することで、対応する単写距離画像を算出することができる。
Furthermore, the conversion from the defocus amount to the subject distance may be performed using the following formula (4) showing the image forming relationship between the
A defocus map can be calculated by obtaining the defocus amount for all pixels, for example, between a plurality of input parallax images, for example, between the A image and the B image. By converting the defocus map using the relationship of Expression (4), the corresponding single-shot distance image can be calculated.
以上説明したような距離算出処理の手順により、瞳分割撮像系においては、1回の撮影で得られる視差画像対から単写距離画像を算出することができる。 According to the procedure of distance calculation processing as described above, in a split-pupil imaging system, a single-shot distance image can be calculated from a pair of parallax images obtained in one shot.
図3に戻り、次のS103では、鑑賞画像生成部103において、連写の各ショット毎に得られる視差画像対から生成された、全瞳領域を通過した光に相当する鑑賞画像を入力として、複数枚の鑑賞画像からマルチビュー距離画像を生成する。なお、撮影は手持ち等により移動しながら行っていることを前提とし、視野が重複する複数の鑑賞画像からシーンの三次元を再構成し、その過程で各ショットの距離画像を生成する。
Returning to FIG. 3, in the next step S103, the viewing
連写時の撮像装置100のショット間の相対的な位置姿勢は、撮像装置100に近年標準的に取り付けられているジャイロセンサ、加速度センサ、傾斜センサ等の姿勢センサや、撮像装置に関して近年の標準機能である防振機能における振れ検知や画像ベクトル等を併用した公知のカメラ姿勢推定等により求めることができる。なお、位置姿勢の求め方は既知であるため、ここでは説明を省略する。
The relative position and orientation between shots of the
連写におけるショット間の撮像装置100の位置や姿勢の変化が既知である場合、図6(a)に示すようにエピポーラ幾何制約により画像に写る被写体の距離の推定は単純な一次元探索の問題に置き換えることができる。また、複数フレームに亘って複数の鑑賞画像間で同じ空間上の被写体の点を追跡できた場合、このエピポーラ探索を複数の異なる鑑賞用画像の組の間で同一の距離を求めるマルチベースライン探索へと置き換えることができる。これを利用して、精度良く距離を求めることが可能となる。例えば図6(b)のようにショットを1つ増やすだけで1ショット目の基準視点C1に対する距離画像推定が視点C2でのショットとの間だけでなく、視点C3とのショットとの間でも可能となる。
If changes in the position and orientation of the
このようにして関係するショットを増やすことにより、基準画像に設定したショットの画像内の各点の奥行値について複数の探索が可能となる。これにより、ロバストで精度の高い距離値の推定が可能となる。一方、動被写体については、各ショット間の対応付けの間でエピポーラ幾何が成立しなくなるため、マルチビュー距離画像では未算出となる。 By increasing the number of related shots in this way, it becomes possible to perform multiple searches for the depth value of each point in the image of the shot set as the reference image. This enables robust and highly accurate distance value estimation. On the other hand, the moving subject is not calculated in the multi-view range image because the epipolar geometry is not established between the correspondences between shots.
ショット間の対応付けには、既知の様々なものがある。例えば、PMVS等と呼ばれるパッチベースで対応付けを行い、法線方向も考慮して距離値を算出する方法(非特許文献1)や、プレーンスウィープという呼ばれる仮想的な奥行面を設定して各ショットからの逆投影により対応付けをしていく手法等を含む。マルチビュー距離画像の生成は、マルチビューステレオ法等とも呼ばれる。以上説明した手法により、連写撮影された全瞳領域からの光像の集約像である鑑賞画像群から、基準画像として選択したショットの鑑賞画像に対応したマルチビュー距離画像を得ることができる。 There are various known correspondences between shots. For example, a method called PMVS, etc., in which a patch-based correspondence is performed and a distance value is calculated in consideration of the normal direction (Non-Patent Document 1), or a virtual depth plane called plane sweep is set for each shot. It includes a method of matching by back projection from . Generating a multi-view range image is also called a multi-view stereo method or the like. With the above-described method, a multi-view range image corresponding to the viewing image of the shot selected as the reference image can be obtained from the viewing image group, which is an aggregated image of the light images from all the pupil areas continuously photographed.
S104では、単写距離画像とマルチビュー距離画像とを統合して、シーンの奥行方向全体に対して精度の高い統合距離画像を生成する。 In S104, the single-view range image and the multi-view range image are integrated to generate a highly accurate integrated range image for the entire depth direction of the scene.
以上説明したように、単写距離画像には静止被写体領域及び動被写体領域の距離情報が含まれるが、マルチビュー距離画像には静止被写体領域の距離情報のみ含まれる。これは、マルチビュー距離画像を生成する際に、動被写体領域の対応付けがエピポーラ幾何を満足しないためである。そこで、本実施形態の距離画像の統合においては、動被写体領域の距離値のみ単写距離画像のものを利用し、重複する静止被写体領域の距離情報はマルチビュー距離画像から取得して統合する。 As described above, the single-view distance image includes distance information on the still subject area and the moving subject area, but the multi-view distance image includes only distance information on the still subject area. This is because the matching of the moving subject areas does not satisfy the epipolar geometry when generating the multi-view range image. Therefore, in integrating distance images according to the present embodiment, only the distance values of the moving subject area from the single-shot distance image are used, and the distance information of overlapping still subject areas is acquired from the multi-view distance image and integrated.
単写距離画像とマルチビュー距離画像を重ね合わせたときに、共に距離情報が存在する領域が静止被写体領域、単写距離画像のみ距離情報が存在し、マルチビュー距離画像において未算出領域もしくは距離情報があっても信頼度の低い領域は動被写体領域とみなすことができる。従って、静止被写体領域の距離情報をマルチビュー距離画像から、動被写体領域の距離情報を単写距離画像から取得して統合することで、距離情報の精度の高い統合距離画像を得る。 When the single-shot distance image and the multi-view distance image are superimposed, the area where both distance information exists is the static subject area, the distance information exists only in the single-shot distance image, and the uncalculated area or distance information exists in the multi-view distance image. A region with a low reliability even if there is a , can be regarded as a moving subject region. Therefore, by obtaining and integrating the distance information of the still subject area from the multi-view distance image and the distance information of the moving subject area from the single-shot distance image, an integrated distance image with high accuracy of distance information is obtained.
図7に、単写距離画像とマルチビュー距離画像の統合例を示す。図7(a)は単写距離画像に対応した鑑賞画像、図7(b)は単写距離画像、図7(c)は対応するマルチビュー距離画像、(d)は統合距離画像である。図7(b)の単写距離画像においては、動被写体である人物領域の距離情報が存在するが、図7(c)のマルチビュー距離画像においては、動被写体である人物領域の距離情報が存在しないため白で表わされている。そこで、動被写体領域の距離情報は図7(b)の単写距離画像から、重複する静止被写体領域の距離情報は図7(c)のマルチビュー距離画像から取得して、図7(d)の統合距離画像を生成する。 FIG. 7 shows an example of integrating a single-view distance image and a multi-view distance image. 7A is a viewing image corresponding to a single-shot range image, FIG. 7B is a single-shot range image, FIG. 7C is a corresponding multi-view range image, and FIG. 7D is an integrated range image. In the single-shot distance image of FIG. 7(b), there is distance information of the human area, which is a moving subject, but in the multi-view distance image of FIG. It is white because it does not exist. Therefore, the distance information of the moving subject area is obtained from the single-shot distance image of FIG. 7B, and the distance information of the overlapping still subject area is obtained from the multi-view distance image of FIG. to generate an integrated range image of
また、上述したように、瞳分割撮像系ならではの特性として、撮像装置から近距離に無く、且つ、合焦距離から所定距離範囲外にある被写体までの距離は、瞳分割光学系の基線長が短いため精度良く算出できないという問題がある。この問題に対し、単写距離画像の距離情報を元に、動被写体領域及び、静止被写体領域のうち、近傍領域及び合焦距離の所定距離範囲内の領域の距離情報を単写距離画像から取得し、それ以外の静止被写体領域の距離情報をマルチビュー距離画像から取得して、統合距離画像を生成しても良い。 Further, as described above, as a characteristic of the pupil division imaging system, the distance to an object that is not at a short distance from the imaging device and is outside the predetermined distance range from the in-focus distance is determined by the baseline length of the pupil division optical system. Since it is short, there is a problem that it cannot be calculated accurately. To solve this problem, based on the distance information of the single-shooting distance image, the distance information of the neighboring area and the area within the predetermined distance range of the in-focus distance among the moving subject area and the still subject area is acquired from the single-shooting distance image. However, the integrated range image may be generated by acquiring the range information of other still subject areas from the multi-view range image.
図8は、単写距離画像の距離値に基づいて、統合距離画像の距離値をいずれから取得するかを決定する例を示す。u0は合焦距離、v1及びv2は合焦距離u0からの所定距離範囲を示し、v1は前ピン側、v2が後ピン側である。また、u1は、撮像装置100から近傍領域を示す距離(閾値)とする。uを距離画像中の各位置の距離値とすると、
u≦u1 …(5)
-v1≦u-u0≦v2 …(6)
の式(5)及び式(6)の少なくともいずれかを満たす領域は単写距離画像から、それ以外の領域はマルチビュー距離画像から、距離値(距離情報)を取得する。これにより、単写距離画像のみよりもシーンの奥行方向全体に対して精度の高い距離画像を取得することができる。
FIG. 8 shows an example of determining from where to obtain the distance value of the integrated distance image based on the distance value of the single shot distance image. u0 is the focus distance, v1 and v2 are predetermined distance ranges from the focus distance u0, v1 is the front focus side, and v2 is the rear focus side. Also, u1 is a distance (threshold value) indicating a neighboring area from the
u≦u1 (5)
-v1≤u-u0≤v2 (6)
The distance value (distance information) is obtained from the single-view range image for the area that satisfies at least one of the formulas (5) and (6), and from the multi-view range image for the other areas. As a result, it is possible to acquire a range image with higher precision for the entire scene in the depth direction than only the single-shot range image.
また、マルチビュー距離画像では、動被写体領域の距離情報が未算出領域として抜け、それ以外の静止被写体領域の距離情報は単写距離画像の同一領域と重複して存在するが、距離画像では、動被写体領域と静止被写体領域との境界はぼやけたものになり易い。そこで、各距離画像からの距離情報の抽出に用いる領域境界には、鑑賞画像を入力とした動被写体領域検出を併用しても良い。例えば顔や人体を検出してその領域を切り出したり、学習等により事前知識も活用して動被写体領域の切り出し精度を高めたCNNネットワークを活用しても良い。 Also, in the multi-view distance image, the distance information of the moving subject area is omitted as an uncalculated area, and the distance information of the still object area other than that is overlapped with the same area of the single-shot distance image, but in the distance image, The boundary between the moving subject area and the still subject area tends to be blurred. Therefore, moving subject area detection using a viewing image as an input may be used together with area boundaries used to extract distance information from each distance image. For example, a CNN network may be used in which a face or a human body is detected and its area is cut out, or prior knowledge is also used to improve the accuracy of cutting out a moving subject area through learning or the like.
なお、距離画像を構成する距離情報(画素)は必ずしも被写体距離(距離値)に限られるものでは無く、被写体距離に変換する前の像ズレ量や、デフォーカス量であっても良い。さらに、距離画像を構成する距離情報(画素)として被写体距離の逆数(逆距離値)を用いてもよい。 Note that the distance information (pixels) forming the distance image is not necessarily limited to the subject distance (distance value), and may be an image shift amount or defocus amount before conversion to the subject distance. Furthermore, the reciprocal of the subject distance (reverse distance value) may be used as the distance information (pixels) forming the distance image.
また、S101における単写及び連写撮影では、単写撮影及び連写撮影を様々なバリエーションで行うことができる。すなわち、単写距離画像を得るための撮影を、連写撮影のワンショットとして行っても良いし、単写撮影として行っても良い。また、連写撮影を、単写距離画像を得るための撮影となる単写撮影前に行っても良いし、後に行っても良い。また、連写時の撮像装置100の移動量が小さく、基線長が稼げていない場合等には、時間をおいて後から撮影しても良い。
Also, in the single-shot and continuous-shot shooting in S101, single-shot shooting and continuous-shot shooting can be performed in various variations. That is, the shooting for obtaining the single-shot distance image may be performed as one shot of continuous shooting, or may be performed as single-shot shooting. Also, the continuous shooting may be performed before or after the single shooting for obtaining the single shooting range image. Further, when the amount of movement of the
図9に撮影タイミングのバリエーション例を示す。図9(a)は、先にプリ撮影として連写撮影を行って複数の画像を取得し、その後、単写距離画像を得るための単写撮影を行う例を示している。なお、図9において、SW1は撮像装置100のシャッタが半押しされた状態、SW2はシャッタが全押しされた状態を表す。プリ撮影とは循環バッファを活用した撮影法で、カメラ等の撮像専用の装置だけでなく、スマホのカメラ機能等でも標準搭載される一般的な機能となっている。
FIG. 9 shows an example of variation of shooting timing. FIG. 9A shows an example in which continuous shooting is first performed as pre-shooting to acquire a plurality of images, and then single shooting is performed to obtain a single shooting distance image. In FIG. 9, SW1 represents a state in which the shutter of the
この撮影法では、シャッタ全押しSW2の前の画像を予め一時記憶しておき、シャッタ全押しSW2時に真のベストショットを決めるためにユーザーに選択させたり、後処理用に一定時間分の連写数を保存しておく。このプリ撮影画像をマルチビュー距離画像の生成のための入力として取得する。この際、プリ撮影画像はマルチビュー距離画像の生成にしか用いないため、撮影時に光電変換部210a,210bの信号を画素毎に加算し、鑑賞画像として画像データの容量を減らして保存しても良い。また、シャッタ全押しSW2時に得られる画像は視差画像対として保存しておき、単写距離画像の生成に用いるが、画素毎に加算して鑑賞画像を生成し、マルチビュー距離画像の生成に用いても良い。その場合、マルチビュー距離画像はこの画像を基準として生成する。
In this photographing method, an image before the shutter full-press SW2 is temporarily stored in advance, and when the shutter full-press SW2 is pressed, the user is allowed to select a true best shot, or continuous shooting for a certain period of time is performed for post-processing. save the number. This pre-captured image is obtained as an input for generating a multi-view range image. At this time, since the pre-photographed image is used only for generating the multi-view distance image, the signals of the
図9(b) は、連写撮影を、単写距離画像を得るための撮影後に行う例を示している。撮像装置100のシャッタ全押しSW2後にも一定時間分の連写を行って画像を保存しておく撮影方法である。シャッタの全押しSW2時に動被写体のベストショットを撮影する。そしてシャッタを離した後も撮影を続けて行い、マルチビュー距離画像の生成用の画像を得る。シャッタ解放後のポスト撮影分の画像はマルチビュー距離画像の生成にしか用いないため、プリ撮影の場合と同様に撮影時に画素毎に加算し、鑑賞画像として保存容量を減らして保存しても良い。ただし、シャッタの全押しSW2時に得られる画像は視差画像対として保存して単写距離画像生成に用いる。なお、加算してこのショットもマルチビュー距離画像の生成に用いても良い。その場合、マルチビュー距離画像はこの画像を基準として生成する。
FIG. 9(b) shows an example in which continuous shooting is performed after shooting for obtaining a single shooting distance image. This is a photographing method in which continuous photographing is performed for a certain period of time even after the shutter switch SW2 of the
図9(c)は、シャッタの全押しSW2時の前後にプリ撮影及びポスト撮影を行う場合を示している。シャッタの全押しSW2時以外で得られる画像は循環バッファから取得する。これらの画像はマルチビュー距離画像の生成にしか用いないため、撮影時に画素毎に加算して鑑賞画像として保存容量を減らして保存しても良い。また、シャッタの全押しSW2時に得られる画像は視差画像対として保存して単写距離画像の生成に用いるが、画素毎に加算して鑑賞画像を生成し、マルチビュー距離画像の生成に用いても良い。その場合、マルチビュー距離画像はこの画像を基準として生成する。 FIG. 9C shows a case where pre-photographing and post-photographing are performed before and after the shutter is fully depressed SW2. Images obtained when the shutter is not fully pressed SW2 are obtained from the circular buffer. Since these images are used only for generating a multi-view distance image, they may be added for each pixel at the time of shooting and stored as a viewing image with reduced storage capacity. An image obtained when the shutter is fully pressed SW2 is stored as a pair of parallax images and used to generate a single-shot distance image. Also good. In that case, a multi-view range image is generated using this image as a reference.
また、撮像装置のシャッタ操作等で鑑賞画像と距離画像をセットとして得たいベストショットを撮影者が予め距離画像生成の前に意図的に選択する場合は、撮像条件を単写距離画像生成用と、マルチビュー距離画像生成用で明示的に切り替えても良い。例えば、図10に示すようにマルチビュー距離画像生成用の連写撮影ではAv(絞り)値を大きく取り、絞りを絞ってパンフォーカスでシーンの奥行方向全体で特徴点がとりやすいように撮影する。一方、シャッタ全押SW2時のみAv値を小さくするように変化させ、瞳を開いて単写撮影での測距が合焦距離近傍で精度良く行えるようにすること等が考えられる。Av値に追従させてTv値やISO値はプログラムテーブル等に従い適切に設定する。 In addition, when the photographer intentionally selects in advance the best shot that he/she wants to obtain as a set of the viewing image and the distance image by operating the shutter of the imaging device, etc., before the distance image is generated, the imaging condition is set for single-shot distance image generation. , and may be explicitly switched for multi-view range image generation. For example, as shown in FIG. 10, in continuous shooting for multi-view range image generation, the Av (aperture) value is set large, the aperture is narrowed down, and pan-focusing is performed so that feature points can be easily captured in the entire depth direction of the scene. . On the other hand, it is conceivable to change the Av value so as to be smaller only when the shutter is fully pressed SW2 so that the pupil is opened and the distance measurement in the single-shot photographing can be accurately performed near the in-focus distance. Following the Av value, the Tv value and the ISO value are appropriately set according to a program table or the like.
また更に、実際は最終的に統合するのが距離値のみであるため、Av値及びTv値、ISOの合算値であるEv(露出)値を揃える必要はない。従って、図10(b)に示すように単写距離画像生成用とマルチビュー距離画像生成用の撮像間で、撮影条件のEv値を大きく変えても良い。図10(b)は、単写距離画像生成用とマルチビュー距離画像生成用の撮像間で異なるEv値を採用した例である。例えば暗所での撮影でこのような撮影条件を採用すると、本発明の技術を利用できる場面が広がる。 Furthermore, since only the distance value is actually integrated finally, there is no need to align the Ev (exposure) value, which is the total value of the Av value, Tv value, and ISO. Therefore, as shown in FIG. 10B, the Ev value of the photographing conditions may be greatly changed between imaging for single-view distance image generation and multi-view distance image generation. FIG. 10(b) is an example in which different Ev values are used for single-view range image generation and multi-view range image generation. For example, if such photographing conditions are adopted for photographing in a dark place, the scenes in which the technique of the present invention can be used are expanded.
例えば、連写撮影はパンフォーカスで撮影したいが、動きブレも抑制したいため、光量不足でもEv値を下げて撮影条件を設定し、例えばAv値及びTv値、ISO合算を11とする。一方、単写撮影ではAv値を大きくする分Ev値を大きくできるが、Ev値を無理に連写撮影時と整合させようとすると光量を減らしてノイズを増加させることになるため、敢えて不整合とする。このように撮影しても、撮影した画像自体を統合するわけではないので問題が生じにくい。また、単写撮影で得られた画像をマルチビュー距離画像の生成に利用する場合には、Ev値の差分の画像の画素値の諧調のスケール補正を行い、調整する。この場合も、最終結果の統合距離画像には間接的にしか関係しないため、影響が生じにくい。 For example, in continuous shooting, it is desired to perform pan-focus shooting, but also to suppress motion blur. On the other hand, in single-shot shooting, the Ev value can be increased by increasing the Av value. and Even if the images are captured in this way, the captured images themselves are not integrated, so problems are less likely to occur. When an image obtained by single-shot shooting is used to generate a multi-view distance image, the gradation scale of the pixel value of the Ev value difference image is corrected and adjusted. Again, this is less likely to affect the final integrated range image because it is only indirectly related.
上記の通り本第1の実施形態によれば、単写距離画像とマルチビュー距離画像とをそれぞれの欠点を補完するように統合することで、動いている被写体を含む撮影シーン全体の距離画像を精度良く取得することができる。 As described above, according to the first embodiment, by integrating the single-shot distance image and the multi-view distance image so as to compensate for their shortcomings, the distance image of the entire shooting scene including the moving subject can be obtained. It can be obtained with high accuracy.
なお、統合距離「画像」と記載したが、出力情報の形式は画像でなくても良い。例えば距離画像を距離値に応じて3次元空間に射影した2.5次元の立体像、保存形式の異なるポイントクラウドやボリュームデータ、メッシュ情報に変換した立体データでもよい。 Although the integrated distance is described as "image", the format of the output information may not be an image. For example, a 2.5-dimensional stereoscopic image obtained by projecting a distance image onto a three-dimensional space according to the distance value, point clouds or volume data in different storage formats, or stereoscopic data converted into mesh information may be used.
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。図11は、第2の実施形態における画像処理装置200を示すブロック図である。
<Second embodiment>
Next, a second embodiment of the invention will be described. FIG. 11 is a block diagram showing an
画像入力部201は、不図示の外部撮像装置で撮影した視差画像対、及び、撮像装置内で視差画像対を画素毎に加算して変換した鑑賞画像が得られている場合には、鑑賞画像を入力し、入力された視差画像対及び鑑賞画像をメモリ102に記憶する。そして、入力した視差画像対及び鑑賞画像を第1の実施形態で説明したように処理して、統合距離画像を得る。なお、画像入力部201以外の構成は図1に示すものと同様であるため、同じ参照番号を付して、ここでは説明を省略する。
When the
図12(a)に示すように、全てのショットそれぞれの視差画像対が入力した場合には、単写距離画像の生成に用いる視差画像対と、マルチビュー距離画像生成時の基準となる鑑賞画像とを選択することが可能である。従って、連写により得られた複数の視差画像対から、事後または予め決めたアルゴリズムにより、単写距離画像の生成に用いる視差画像対と、基準となる鑑賞画像とを選択する。例えば全ショットの最後のショットで得られる視差画像対を選択するように事前に設定しておいても良い。このようなケースは特に動画撮影の場合が想定されるため、動画撮影中は常に各フレームに対応するショット、または数フレームおきのショットで得られる画像を、視差画像対として取得しておく。 As shown in FIG. 12A, when parallax image pairs for all shots are input, a parallax image pair used for generating a single-view distance image and a viewing image serving as a reference when generating a multi-view distance image and can be selected. Therefore, from a plurality of parallax image pairs obtained by continuous shooting, a parallax image pair to be used for generating a single shot distance image and a reference viewing image are selected after the fact or by a predetermined algorithm. For example, it may be set in advance so that the parallax image pair obtained in the last shot of all shots is selected. Since such a case is assumed to occur particularly in video shooting, images obtained from shots corresponding to each frame or shots at intervals of several frames are always acquired as parallax image pairs during video shooting.
また、図12(b)に示すように、選択する視差画像対を順次移動して、単写距離画像とマルチビュー距離画像とを生成してもよい。このようにすることで、全ての視差画像対に対して、単写距離画像とマルチビュー距離画像とを統合した、広い奥行のシーンに対しても精度の高いシーン全体の統合距離画像を得ることができる。 Alternatively, as shown in FIG. 12B, the single-view distance image and the multi-view distance image may be generated by sequentially moving the parallax image pair to be selected. By doing so, it is possible to obtain an integrated range image of the entire scene with high accuracy even for a wide-depth scene by integrating the single-view range image and the multi-view range image for all pairs of parallax images. can be done.
上記の通り第2の実施形態によれば、画像処理装置において、撮影装置から得られた視差画像対を用いて、精度の高い距離画像を得ることができる。 As described above, according to the second embodiment, an image processing apparatus can obtain a highly accurate range image using a parallax image pair obtained from an imaging apparatus.
<変形例>
上述した第1及び第2の実施形態の説明においては、単写距離画像生成用の視差画像対の撮影を典型的な単写撮影であるものとして説明した。しかしながら被写体がゆっくり移動するような場合には複数の視差画像対を撮影し、単写距離画像生成部104において、それぞれ単写距離画像を生成し、統合して単写距離画像の質を高めた後、マルチビュー距離画像と統合しても良い。
<Modification>
In the description of the first and second embodiments above, it is assumed that the shooting of the parallax image pair for generating the single-shot distance image is a typical single-shot shooting. However, when the subject moves slowly, a plurality of pairs of parallax images are captured, and the single-shot distance
図13を参照して、複数の視差画像対からそれぞれ単写距離画像を生成して統合し、単写距離画像の質を高めてからマルチビュー距離画像と統合する流れを説明する。例えばショット間で撮像装置の位置や姿勢に変化があった場合は、単写距離画像を三次元的に視点変化して、基準となるショット時の座標に合致した単写距離画像に変換して統合する。 With reference to FIG. 13, a flow of generating single-shot distance images from a plurality of pairs of parallax images, integrating them, enhancing the quality of the single-shot distance images, and then integrating them with the multi-view distance image will be described. For example, if the position or posture of the imaging device changes between shots, the viewpoint of the single-shot distance image is changed three-dimensionally, and the single-shot distance image is converted to a single-shot distance image that matches the coordinates at the time of the reference shot. Integrate.
例えば、図13では、3つの視差画像対のうち、中央の視差画像対を基準として設定し、残りの視差画像対から得られる単写距離画像を、その視差画像対の撮影時の撮影位置や姿勢に合わせて視点変換する。そして、視点変換した2つの単写距離画像と基準の単写距離画像とを統合し、統合した単写距離画像をマルチビュー距離画像と統合して、最終的な統合距離画像を得る。 For example, in FIG. 13, of the three parallax image pairs, the central parallax image pair is set as a reference, and the single shooting distance images obtained from the remaining parallax image pairs are used as the shooting position or the shooting position of the parallax image pair. Change the viewpoint according to the posture. Then, the two single-shot distance images after viewpoint conversion and the reference single-shot distance image are integrated, and the integrated single-shot distance image is integrated with the multi-view distance image to obtain a final integrated distance image.
上記の通り変形例によれば、より精度の高い距離画像を得ることができる。 As described above, according to the modified example, it is possible to obtain a more accurate distance image.
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
上述した第1の実施形態及び第2の実施形態では、瞳分割撮像系で1回の撮影で得られる視差画像対から生成した単写距離画像と、時系列でマルチショットを行って得た複数の鑑賞画像から生成したマルチビュー距離画像とを統合して、統合距離画像を生成する場合について説明した。しかしながら、瞳分割撮像系で撮影した視差画像対を入力として単写距離画像を精度良く得ようとすると、瞳を広げて基線長を長くする必要がある。一方、瞳を広げると今度は被写界深度が浅くなるため、合焦位置から所定距離範囲外にある被写体はボケてしまい、鑑賞画像間の対応付けが難しくなる。そのため、鑑賞画像を用いて合焦位置の所定距離範囲外にある被写体までの距離を精度よく算出することができなくなってしまう。
<Third Embodiment>
Next, a third embodiment of the invention will be described.
In the above-described first and second embodiments, the single shooting distance image generated from the pair of parallax images obtained in one shot with the split-pupil imaging system and the multiple distance images obtained by performing multi-shots in time series. A case of generating an integrated range image by integrating the multi-view range image generated from the viewing image has been described. However, if a pair of parallax images captured by a split-pupil imaging system is used as an input and a single shooting range image is to be accurately obtained, it is necessary to widen the pupil and lengthen the baseline length. On the other hand, when the pupil is widened, the depth of field becomes shallower, and subjects outside the predetermined distance range from the in-focus position become blurred, making it difficult to associate the viewing images. Therefore, it becomes impossible to accurately calculate the distance to the subject outside the predetermined distance range of the in-focus position using the viewing image.
このように、原理的に、精度の良い単写距離画像とマルチビュー距離画像とを共に得ることができる撮影シーンや撮影条件には制限がある。例えば、暗所等の環境下では、選択可能な撮影条件が更に厳しくなり、単写距離画像とマルチビュー距離画像とを共に精度良く得ることがより難しくなる。これは、暗所では、動きブレを防ぐためシャッタースピードを短時間に保つ必要があるが、光量が足りなくなるため光学系の瞳を開き、F値を小さくして光量を稼ぐ必要があるためである。上述したように、光学系の瞳を開くと被写界深度が浅くなってしまうため、マルチビュー距離画像を精度よく生成可能な奥行範囲が狭まってしまう。 Thus, in principle, there is a limit to the shooting scenes and shooting conditions under which both highly accurate single-view distance images and multi-view distance images can be obtained. For example, under dark environments, selectable shooting conditions become more severe, and it becomes more difficult to accurately obtain both single-shot range images and multi-view range images. This is because in dark places, it is necessary to keep the shutter speed short in order to prevent motion blur, but since the amount of light is insufficient, it is necessary to open the pupil of the optical system and decrease the F-number to increase the amount of light. be. As described above, when the pupil of the optical system is opened, the depth of field becomes shallow, so the depth range in which the multi-view distance image can be generated with high accuracy is narrowed.
そこで、第3の実施形態では、瞳分割撮像系により視差画像対を取得していた本撮影以外のマルチショット撮影においても、視差画像対を取得できるように撮影を実施する。そして、各ショットの視差画像対を用いて、合焦位置から所定距離範囲外にある画像領域の焦点ボケを回復して被写界深度を拡大した鑑賞画像を生成し、マルチショット撮影で得た複数の鑑賞画像間での対応付けを焦点ボケのない状態で行う。その上で、単写距離画像とマルチビュー距離画像とを統合して統合距離画像を生成することで、合焦位置から所定距離範囲外にある被写体までの距離も含めたシーン全体において、より精度の高い統合距離画像を得る。 Therefore, in the third embodiment, even in multi-shot shooting other than the main shooting in which the parallax image pair is acquired by the pupil division imaging system, the shooting is performed so that the parallax image pair can be acquired. Then, using the parallax image pair of each shot, the defocusing of the image area outside the predetermined distance range from the in-focus position is restored to generate a viewing image with an expanded depth of field, which is obtained by multi-shot photography. To associate a plurality of viewing images with no defocus. In addition, by integrating the single-shooting distance image and the multi-view distance image to generate an integrated distance image, the accuracy of the entire scene, including the distance from the in-focus position to the subject outside the predetermined distance range, can be improved. to obtain a high integrated range image of .
図14は、第3の実施形態における画像処理装置300を示すブロック図である。なお、図14において、第2の実施形態で図11を参照して説明した画像処理装置200と同様の構成には同じ参照番号を付し、説明を省略する。
FIG. 14 is a block diagram showing an
第3の実施形態における鑑賞画像生成部303は、鑑賞画像生成部103と同様に入力した視差画像対からそのまま鑑賞画像を生成する処理と、入力した視差画像対に対して焦点ボケの回復処理を実施してから鑑賞画像を生成する処理とを行うことができる。つまり、マルチビュー距離画像生成部105に入力する複数の鑑賞画像全てについて焦点ボケ回復を適用しても良いし、一部だけに適用しても良い。そのため、鑑賞画像生成部303への入力はされる画像は、全て視差画像対であっても良いし、視差画像対と、画素毎に第1の信号と第2の信号を加算してから出力された鑑賞画像とを混在させても良い。
The viewing
次に、図15のフローチャートを参照して、第3の実施形態における撮影及び統合距離画像生成の手順について説明する。 Next, the procedure of photographing and integrated range image generation in the third embodiment will be described with reference to the flowchart of FIG. 15 .
S301では、単写距離画像の生成及び焦点ボケ回復に用いられる視差画像対を、複数回連続して撮影する(マルチショット)。マルチショットを行って得た全ての画像について単写距離画像の生成及び焦点ボケ回復を実施する場合には、すべてのショットをマイクロレンズ211下の視点数分の複数枚からなる視差画像のセット(視差画像対)として取得する。マルチショットを行って得た一部の画像について単写距離画像の生成及び焦点ボケ回復を実施しない場合には、生成済みの鑑賞画像を混在させても良い。マルチショットの代わりに動画撮影により複数の画像を取得する場合には、すべてのフレームにおいて視差画像対を取得する方が制御が単純である。 In S301, a pair of parallax images used for generating a single shooting range image and recovering out-of-focus blur is continuously photographed a plurality of times (multi-shot). When generating a single shooting distance image and recovering the out-of-focus blur for all images obtained by performing multi-shots, a set of parallax images ( obtained as a parallax image pair). If the generation of single-shot distance images and recovery of defocus blur are not performed for some images obtained by performing multi-shot, the generated viewing images may be mixed. If a plurality of images are to be captured by video shooting instead of multi-shot, the control is simpler to acquire parallax image pairs in every frame.
S302では、統合距離画像を生成する基準とするショットを、マルチショットを行って得た複数の画像の中から選択する。静止画の連写の場合には、撮影時に撮像装置のGUIで予め選択しておいても良い。また画像処理装置300の不図示のGUIにより基準とするショットを選択しても良い。動画撮影の場合は、統合距離画像を生成する基準となるフレームを順次時間方向に移動する。
In S302, a shot used as a reference for generating an integrated range image is selected from a plurality of images obtained by performing multi-shot. In the case of continuous shooting of still images, selection may be made in advance using the GUI of the imaging device at the time of shooting. Alternatively, a reference shot may be selected using a GUI (not shown) of the
S303では、各ショットで撮影されたマイクロレンズ211下の視点数分の複数枚もしくはその一部からなる視差画像対を入力として、焦点ボケ回復を実施した1枚の鑑賞画像を生成する。
In S303, a pair of parallax images corresponding to the number of viewpoints under the
各ショットの視差画像対に対する焦点ボケ回復処理は、ブラインドや距離画像を算出して焦点ボケカーネルを推定して行うデコンボリューション処理やMAP推定処理により実現しても良い。もしくはそれを代替するディープラーニング処理により実現しても良い。ディープラーニング処理により、各ショットの視差画像対に対して焦点ボケ回復処理を実現する場合、エンコーダ-デコーダ構造を用いたエンドトゥエンド処理による実現がまず考えられる。あるいは、従来のノンブラインドな距離画像あるいは焦点ボケカーネルを推定して行うデコンボリューション処理に対応するネットワークを構築して実現する。以下、それぞれの処理について説明する。 Defocus recovery processing for the parallax image pair of each shot may be realized by deconvolution processing or MAP estimation processing performed by calculating blinds or range images and estimating a defocus kernel. Alternatively, it may be realized by a deep learning process that replaces it. When implementing defocus blur recovery processing for a parallax image pair of each shot by deep learning processing, implementation by end-to-end processing using an encoder-decoder structure is first considered. Alternatively, a network corresponding to deconvolution processing performed by estimating a conventional non-blind range image or focus blur kernel is constructed and realized. Each process will be described below.
まず、エンコーダ-デコーダ構造を用いたエンドトゥエンド処理による実現方法を説明する。図16は、焦点ボケ回復処理に用いるネットワークの入出力関係を表した図である。図16(a)は、焦点ボケ回復をエンドトゥエンドで行うネットワークの入出力例である。本アプローチについては、非特許文献2のような形で複数のネットワークの実現系が提案されている。なお、各ショットの視差画像対(A像、B像)を入力とし、焦点ボケ回復画像が得られれば、どのようなアプローチの手法でも構わない。エンコーダ-デコーダ構造のネットワークに対し、撮像装置の絞りを絞って撮影した全焦点画像を教師データとしてネットワークを学習する。出力画像とグラウンドトゥルースの全焦点画像との差分を損失としてネットワークを学習する。学習が完了すると、各ショットの視差画像対を入力として、焦点ボケ回復を実施した1枚の鑑賞画像が得られる。 First, an implementation method by end-to-end processing using an encoder-decoder structure will be described. FIG. 16 is a diagram showing the input/output relationship of the network used for the defocus recovery process. FIG. 16(a) is an input/output example of a network that performs end-to-end defocus recovery. Regarding this approach, a system for realizing a plurality of networks has been proposed in the form of Non-Patent Document 2. Note that any approach may be used as long as a parallax image pair (A image, B image) of each shot is input and a defocus recovery image is obtained. For the encoder-decoder structure network, the network is learned using all-in-focus images taken with the aperture of the imaging device narrowed down as training data. The network is trained using the difference between the output image and the ground truth all-in-focus image as the loss. When the learning is completed, the pair of parallax images of each shot is used as an input, and a single viewing image that has undergone defocus recovery is obtained.
次に、距離画像あるいは焦点ボケカーネルを推定して行うデコンボリューション処理に対応するネットワークを構築する実現方法の一例について説明する。図16(b)にネットワークの例を示す。ネットワークは、各ショットの視差画像対を入力とし、仮距離画像もしくは距離値dを1/dとした仮逆深度画像を算出するネットワークと、視差画像対とこの仮距離画像もしくは仮逆深度画像を入力として焦点ボケ回復画像及びリファインされた距離画像もしくは逆深度画像を出力するネットワークから構成される。仮距離画像もしくは仮逆深度画像は、焦点ボケカーネルを表すパラメータのマップもしくはそれを画像化したもので良い。なお、図16(b)は、各ショットの視差画像が2枚(A像、B像)の場合で例示している。距離算出ネットワーク及び焦点ボケ回復ネットワークはそれぞれ独立して学習が可能である。視差画像対に対応する距離値の正解画像、撮像装置の絞りを絞って撮影した全焦点画像を教師データとしてネットワークを学習する。この学習は、距離値の誤差や画素値の誤差、エッジの鮮明度等を誤差関数として逆伝播を実施することにより行う。このようなネットワークとしては、非特許文献3に開示されたものが提案されている。ネットワークの詳細や学習データの詳細、誤差関数の例等は、非特許文献3を参照して利用することで実現が可能である。 Next, an example of an implementation method for constructing a network corresponding to deconvolution processing performed by estimating a range image or a focus blur kernel will be described. FIG. 16(b) shows an example of a network. A network receives a parallax image pair of each shot as an input and calculates a temporary distance image or a temporary inverse depth image with the distance value d set to 1/d, and a parallax image pair and this temporary distance image or temporary inverse depth image. It consists of a network that outputs a defocused image and a refined range image or an inverse depth image as input. The provisional distance image or the provisional inverse depth image may be a map of parameters representing a focus blur kernel or an image thereof. Note that FIG. 16B illustrates a case where there are two parallax images (A image and B image) for each shot. The distance calculation network and the defocus recovery network can be learned independently. The network is learned by using the correct image of the distance value corresponding to the parallax image pair and the omnifocal image captured by narrowing down the aperture of the imaging device as training data. This learning is performed by performing backpropagation using distance value error, pixel value error, edge definition, etc. as an error function. As such a network, the one disclosed in Non-Patent Document 3 has been proposed. Details of the network, details of learning data, examples of error functions, etc. can be realized by referring to Non-Patent Document 3.
なお、非特許文献3のネットワーク形態を参考にして、距離算出ネットワーク及び焦点ボケ回復ネットワークを例示したが、本発明はそれぞれ例示した特定のネットワーク形態に限られるものではない。それぞれ他のディープラーニングネットワークや古典手法に置き換えることが可能である。例えば、距離算出ネットワークを、図16(c)に示すような、非特許文献4に開示された焦点ボケカーネルのモデルパラメータを推定するディープラーニングネットワークとしてもよい。また焦点ボケ回復ネットワークは古典処理のシフトバリアント型のデコンボリューション処理に置き換え可能である。 Although the distance calculation network and the defocus recovery network were illustrated with reference to the network configuration of Non-Patent Document 3, the present invention is not limited to the specific network configurations illustrated. Each can be replaced by other deep learning networks or classical methods. For example, the distance calculation network may be a deep learning network for estimating the model parameters of the focus blur kernel disclosed in Non-Patent Document 4, as shown in FIG. 16(c). Also, the defocus recovery network can replace the shift-variant deconvolution process of the classical process.
非特許文献4は、焦点ボケカーネルのモデルを想定し、入力した各ショットの視差画像対に対する画角毎の焦点ボケカーネルのパラメータを求めて視差マップを作成し、距離画像の代替として出力するネットワークである。 Non-Patent Document 4 assumes a model of a focus blur kernel, finds the parameters of the focus blur kernel for each angle of view for the input parallax image pair of each shot, creates a parallax map, and outputs it as a substitute for the distance image. is.
S304では、単写距離画像を生成するが、この処理は第1の実施形態の図3のS102における処理と同様であるため、説明を省略する。 In S304, a single-shot distance image is generated, but since this process is the same as the process in S102 of FIG. 3 of the first embodiment, description thereof will be omitted.
S305では、S303で焦点ボケを回復した鑑賞画像もしくは焦点ボケ回復を行わない鑑賞画像も混在した、マルチショットにより取得した複数の鑑賞画像を用いて、マルチビュー距離画像を生成する。なお、マルチビュー距離画像の生成方法については、第1の実施形態で説明したS103における処理と同様であるため、説明を省略する。 In S305, a multi-view distance image is generated using a plurality of viewing images acquired by multi-shot, which include viewing images with or without defocus recovery in S303. Note that the method of generating the multi-view range image is the same as the process in S103 described in the first embodiment, so description thereof will be omitted.
S306では、単写距離画像とマルチビュー距離画像とを統合して、シーンの奥行方向全体に対して精度の高い統合距離画像を生成する。なお、統合距離画像の生成方法については、第1の実施形態で説明したS104における処理と同様であるため、説明を省略する。 In S306, the single-view range image and the multi-view range image are integrated to generate a highly accurate integrated range image for the entire depth direction of the scene. Note that the method of generating the integrated range image is the same as the processing in S104 described in the first embodiment, so description thereof will be omitted.
次に、図17を参照して、上述した撮影から統合距離画像生成までの手順について概説する。なお、マルチショットで全ての画像を視差画像対として取得する場合について説明する。例えば撮影にスチルカメラを用いた場合を想定すると、S301では、撮影者がシャッタを全押しし、意図的に撮影する場合が考えられる。その後、S302では、マルチショットを行って取得した複数の視差画像対の中から、基準となる視差画像対(基準ショット)を選択する。なお、選択する視差画像対は、単写距離画像の生成に用いるショットの視差画像対と同じであっても良い。S303では、マルチビュー距離画像の生成に用いる鑑賞用画像を生成するための視差画像対に対して、焦点ボケ回復処理を実施する。 Next, with reference to FIG. 17, the procedure from photographing to integrated range image generation will be outlined. A case of acquiring all images as a pair of parallax images in multi-shot will be described. For example, assuming that a still camera is used for photographing, in S301, the photographer may fully depress the shutter to intentionally photograph. After that, in S302, a reference parallax image pair (reference shot) is selected from a plurality of parallax image pairs obtained by performing multi-shot. Note that the parallax image pair to be selected may be the same as the parallax image pair of the shot used to generate the single-shot distance image. In S303, defocus blur recovery processing is performed on the parallax image pair for generating the viewing image used to generate the multi-view range image.
S304では、選択した視差画像対を用いて、単写距離画像を生成する。また、S305では、焦点ボケ回復処理を実施して得られた複数の鑑賞画像から、マルチビュー距離画像を生成する。S306にて、単写距離画像とマルチビュー距離画像とを統合して、統合距離画像を得る。得られた統合距離画像は、合焦位置から所定距離範囲外にある領域も含んだシーン全体について、単写距離画像よりも距離精度を高めた距離画像となる。また、マルチビュー距離画像と異なり、動体を含んでいても距離値を得ることができる。 In S304, the selected parallax image pair is used to generate a single-shot distance image. Also, in S305, a multi-view range image is generated from a plurality of viewing images obtained by performing defocus recovery processing. In S306, the single-shot range image and the multi-view range image are integrated to obtain an integrated range image. The obtained integrated distance image is a distance image with higher distance accuracy than the single-shooting distance image for the entire scene including the area outside the predetermined distance range from the in-focus position. Also, unlike the multi-view range image, a range value can be obtained even if a moving object is included.
図18は、マルチショットにより得られたすべてのショットについて統合距離画像を生成したい場合や、動画像撮影においてすべてのフレームに対応する統合距離画像を生成したい場合の説明図である。この場合、S302における基準ショットの選択を順次変更することで、すべてのショットに対応する統合距離画像を生成する。 FIG. 18 is an explanatory diagram for a case where it is desired to generate an integrated range image for all shots obtained by multi-shots, or for a case where an integrated range image for all frames in moving image shooting is desired to be generated. In this case, by sequentially changing the selection of the reference shots in S302, integrated range images corresponding to all shots are generated.
上記の通り第3の実施形態によれば、様々な撮影シーンにおいて、精度の高い距離画像を得ることができる。 As described above, according to the third embodiment, it is possible to obtain highly accurate range images in various shooting scenes.
<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
図19Aは、本発明の撮像装置の第4の実施形態の構成を示すブロック図である。図19Aにおいて、撮像装置400は、撮像部401、撮像部402、演算部403、記憶部404、シャッターボタン405、操作部406、表示部407、制御部408とを備える。
<Fourth Embodiment>
Next, a fourth embodiment of the invention will be described.
FIG. 19A is a block diagram showing the configuration of the imaging device according to the fourth embodiment of the present invention. In FIG. 19A ,
図19Bは、本実施形態の撮像装置400の外観正面図である。撮像装置400は、撮像部401と撮像部402の2つの撮像部を有する。撮像部401は、レンズ401aと撮像素子401bとを備える。撮像部402は、レンズ402aと撮像素子402bとを備える。レンズ401a,402aは、被写体で反射された光を集光し、撮像素子401b,402b上に光学像を形成する。撮像素子401b,402bは、光学像を電気信号に変換して映像データを出力する。
FIG. 19B is an external front view of the
撮像部401と撮像部402は、共通の被写体を撮影して互いに視差のある画像を取得できるように配置されている。撮像装置400の使用者がシャッターボタン405を押下することにより、撮像部401と撮像部402が複眼ステレオ撮影を行う。なお、撮像部401の光軸と撮像部402の光軸の間隔Dは、既知であるものとする。
The
図19Cは、本実施形態の撮像装置400の外観背面図である。操作部406は、撮影条件の設定や、距離計測モードの開始や終了などの指示を行うときに押下する。表示部407は、例えば液晶ディスプレイなどであり、撮影時の構図を表示したり、様々な設定項目を表示したりする。また、表示部407がタッチパネルとなっている場合には、シャッターボタン405や操作部406を兼用することができ、使用者が表示部407にタッチすることで、撮影や設定を行うことができる。この場合にはシャッターボタン405や操作部406などのハードウェアパーツを装備する必要がなく、使用者が操作しやすくできるとともに、大きい表示部407を設置して見やすくすることができる。
FIG. 19C is an external rear view of the
制御部408は、撮像部401や撮像部402で撮影を行う場合の撮影条件を制御する。例えば、光学系の絞りの開口径、シャッタースピード、ISO感度などを制御する。演算部403は、撮像部401や撮像部402が撮影した画像に対して現像処理を行ったり、被写体距離を算出したりする。
The
図20は、本実施形態の撮像装置400における測距処理の動作を示すフローチャートである。S401で使用者が距離計測モードの開始を指示すると、このフローチャートの動作が開始される。
FIG. 20 is a flowchart showing the operation of distance measurement processing in the
図21(a)Aは、S401での詳しい処理を示すフローチャートである。S401は、S4011とS4012の処理からなる。 FIG. 21(a)A is a flowchart showing detailed processing in S401. S401 consists of the processing of S4011 and S4012.
S4011では、使用者が距離計測モードを選択する。図22に距離計測モード選択時の表示部407の状態を示す。使用者は操作部406を操作することにより、表示部407に表示501を表示させる。表示501は、撮影モードの項目を示しており、使用者は操作部406を操作して距離計測モードを選択する。S4012では、撮像装置400の制御部408は、連続撮影を開始する。
In S4011, the user selects the distance measurement mode. FIG. 22 shows the state of the
図20に戻り、S402では、単眼ステレオカメラによる相対距離の取得を行う。単眼ステレオカメラによる撮影は、撮像部401または撮像部402のどちらか一方を用いればよい。本実施形態では、撮像部401を用いて撮影するものとして説明する。連続撮影は、動画撮影のようにフレーム間隔が密なものでもよいし、静止画の連射撮影のようにフレーム間隔が疎なものでもよい。
Returning to FIG. 20, in S402, the relative distance is acquired by the monocular stereo camera. Either the
図21(b)は、S402での詳しい処理を示すフローチャートである。S402は、S4021~S4027の処理からなる。 FIG. 21B is a flowchart showing detailed processing in S402. S402 consists of the processing of S4021 to S4027.
S4021は、単眼ステレオカメラによる撮影フレームのループである。単眼ステレオカメラによる相対距離の取得は、まず被写体の3次元相対位置を取得し、それを用いて使用者が絶対距離値を取得したい位置からの相対距離値に変換する。被写体の3次元相対位置の取得には、SfM(Structure from Motion)やSLAM(Simultaneous Localization And Mapping)などの手法を用いることができる。または、SfMやSLAMで撮像装置400の位置姿勢を算出した後、その位置姿勢を使って密な3次元相対位置を取得するMVS(Multi View Stereo)という手法を用いることもできる。以下では、SfMやSLAMのように、撮像装置400の位置姿勢と被写体の3次元相対位置を同時に取得する手法を用いるものとして説明する。
S4021 is a loop of frames captured by the monocular stereo camera. Acquisition of the relative distance by the monocular stereo camera first acquires the three-dimensional relative position of the object, and uses it to convert the relative distance value from the position where the user wants to acquire the absolute distance value. Techniques such as SfM (Structure from Motion) and SLAM (Simultaneous Localization And Mapping) can be used to acquire the three-dimensional relative position of the subject. Alternatively, after calculating the position and orientation of the
図23は、相対距離の計測中における表示部407の状態を示す図である。表示601は相対距離の計測対象となる被写体をリアルタイムで表示している。使用者がこの映像を見ながら撮影することにより、距離計測を行いたい被写体を含んだ相対距離計測を行うことができる。通知602は、単眼ステレオ撮影による相対距離計測を行っていることを使用者に通知する表示であり、表示601に重畳して表示される。通知602は、警報音や音声ガイドなどで行うことも可能であり、その場合には、表示601を欠損なく表示することができる。
FIG. 23 is a diagram showing the state of the
S4022では、制御部408は、現在の撮影フレームの画像から特徴点を抽出する。特徴点の抽出方法は、代表的なものではSIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、FAST(Features from Accelerated Segment Test)などが挙げられるが他の手法でも構わない。
In S4022, the
S4023では、制御部408は、現在のフレームが第1フレームか否かを判定し、第1フレームであれば以降の処理を行わずに第2フレームに進み、そうでなければS4024に進む。
In S4023, the
S4024では、制御部408は、直前のフレームにおいてS4022で抽出した特徴点と、現在のフレームにおいてS4022で抽出した特徴点とを対応付ける。フレーム間隔が疎な場合には、異なるフレーム間の画像において距離計測対象となる被写体の共通部分が、十分に写っている必要がある。共通部分が少ないと、特徴点の対応付けができなくなり相対距離取得の計算が停止してしまうからである。
In S4024, the
図24は、単眼ステレオカメラによる相対距離計測中の特徴点の対応付けの様子を示す図である。位置701と位置702は、撮像装置400の異なる時刻での位置を示す。画像703と画像704は、それぞれ位置701と位置702で撮像部401が撮影した画像を示す。特徴点705は、画像703中で抽出した特徴点であり、画像704中では、特徴点706として正しく対応付けられている。これに対して、特徴点707は画像704では正しい位置で抽出されていないため、画像704中では、特徴点708として誤った対応付けがなされている。
FIG. 24 is a diagram showing how feature points are associated during relative distance measurement by a monocular stereo camera. A
いま、単眼ステレオカメラによる相対距離値の信頼度を特徴点のマッチング精度であると定義すると、特徴点707はマッチング精度が悪い特徴点であり、相対距離値の信頼度が相対的に低い。このような信頼度の低下の原因としては、被写体のテクスチャが少ないことや、特徴点707に対応する画像704中の位置で像がボケてしまっていることなどが挙げられる。
Now, if the reliability of the relative distance value by the monocular stereo camera is defined as the matching accuracy of the feature point, the
S4025では、制御部408は、撮像装置400の位置姿勢と被写体の3次元相対位置を算出する。
In S4025, the
S4026では、制御部408は、相対距離値の信頼度を算出する。S4024で対応付けされた特徴点のマッチング精度を算出して、マッチング精度が高い点ほど信頼度が高いとする。マッチング精度の算出についはRANSAC(Random Sample Consensus)などのアルゴリズムを用いることができる。RANSACでは、撮像装置400の位置姿勢と画像上の多数の特徴点の動きの平均値から注目する特徴点の動きがどれだけずれているかを計算し、特徴点のマッチング精度を判定している。
In S4026, the
S4027では、制御部408は、使用者が複眼ステレオカメラ撮影の指示をしたか否かを判定する。使用者が指示をしていないなら引き続き次のフレームに進み、指示をしたなら、このフローの処理を終了し、図20のS403に進む。ここで、複眼ステレオカメラ撮影の指示とは、使用者がシャッターボタン405を半押しするなどして、絶対距離値算出のための撮影動作に入る指示のことである。
In S4027, the
S403では、制御部408は、複眼ステレオカメラ、すなわち撮像部401と撮像部402の双方で撮影し、絶対距離値を取得する。
In S403, the
図25(a)は、S403についての詳しい処理を示すフローチャートである。S403は、S4031~S4039の処理からなる。 FIG. 25(a) is a flowchart showing detailed processing of S403. S403 consists of the processing of S4031 to S4039.
S4031では、制御部408は、特定の被写体にフォーカスする(焦点を合わせる)。特定の被写体とは、例えば使用者が特に距離を計測したいもの等である。フォーカスの方法としては、例えば、使用者がシャッターボタン405を半押しすることで動作するオートフォーカス機能によってピントを合わせる方法がある。フォーカスは手動であっても構わない。また、撮像部401と撮像部402の双方が同じ被写体に対してピントを合わせる。
In S4031, the
S4032では、複眼ステレオカメラによる絶対距離とその信頼度を算出する。複眼ステレオカメラによる絶対距離算出では、撮像部401と撮像部402がそれぞれ撮影した画像に対してステレオマッチング等の手法を用いる。
In S4032, the absolute distance and its reliability by the compound-eye stereo camera are calculated. In absolute distance calculation by a compound eye stereo camera, a technique such as stereo matching is used for images captured by the
図26は、複眼ステレオカメラによる絶対距離計測中のステレオマッチングの様子を示す図である。位置801で使用者がS4031で焦点合わせをしたときに、撮像部401と撮像部402が撮影した画像をそれぞれ画像802、画像803とする。画像802を基準画像、画像803を参照画像とし、画像802と画像803内にそれぞれウィンドウ(領域)804とウィンドウ805を設定する。ウィンドウ804は固定し、ウィンドウ805を移動させて、ウィンドウ内の画像に対して相関演算を行うことにより、最も相関値が高かったウィンドウ805の位置をウィンドウ804の対応位置とする。対応位置の画像上のズレ量を視差として、視差の値と、撮像部401の光軸と撮像部402の光軸の間隔Dに基づく基線長とからウィンドウ804に写った被写体までの絶対距離を算出する。このときに、算出した絶対距離に対する信頼度を計算する。例えば、ウィンドウ804の位置をいろいろ変更して、それぞれに対してウィンドウマッチング計算で得た相関値の最高値が相対的に高いものを信頼度が高いとすればよい。また、後述するように信頼度を被写体に対するデフォーカス量で表してもよい。ここでは、ウィンドウマッチングの手法を説明したが、これに限らず単眼ステレオカメラによる相対距離算出のように特徴点を抽出して、対応付けを行ってもよい。
FIG. 26 is a diagram showing how stereo matching is performed during absolute distance measurement by a compound-eye stereo camera. Assume that the images captured by the
S4033では、制御部408は、単眼ステレオカメラで取得した相対距離値と、複眼ステレオカメラで取得した絶対距離値の双方で信頼度が高い略同一な被写体があるかを判定する。信頼度が高い略同一な被写体がある場合にはS4037へ進み、ない場合にはS4034に進む。
In S4033, the
S4034では、フォーカス位置付近の特徴点を用いて、単眼ステレオカメラで取得した相対距離を絶対距離に変換する。相対距離算出と絶対距離算出における信頼度算出で、ピント付近に双方の信頼度が高い被写体があるとは限らないが、ここでは被写界深度の概算値を取得できる程度に信頼度が高ければよい。 In S4034, the feature point near the focus position is used to convert the relative distance acquired by the monocular stereo camera into an absolute distance. When calculating the reliability of relative distance calculation and absolute distance calculation, it is not always the case that there is a subject near the focus with high reliability for both. good.
次に、複眼ステレオカメラで取得される絶対距離の信頼度をデフォーカス量を用いて定義する。例えば、信頼度をデフォーカス量の大きさの逆数等として、デフォーカス量が小さいほど信頼度が高くなるように決める。これによって、ウィンドウ804をいろいろな位置に設定して、信頼度が高い位置を決定することができる。単眼ステレオカメラで取得した特徴点のうち、特徴点Xとなりうる候補点を含むウィンドウ804を設定すれば、それに対してもデフォーカス量から信頼度が分かる。複眼ステレオカメラによる撮影において、デフォーカス量が被写界深度内に入っている被写体の絶対距離値を信頼度が高いとすれば、ウィンドウ804に含まれる被写体が被写界深度内に入っていれば特徴点Xの候補点となる。
Next, the reliability of the absolute distance acquired by the compound-eye stereo camera is defined using the defocus amount. For example, the reciprocal of the magnitude of the defocus amount is used as the reliability, and the smaller the defocus amount, the higher the reliability. This allows the
S4035では、制御部408は、特徴点Xの候補点が被写界深度内に入るように絞りを小さく設定する。この処理によって、特徴点Xの候補点をボケることなく撮影することができ、高精度に絶対距離値を取得することができる。S4034で相対距離値を絶対距離値に変換する際に、信頼度の高い特徴点を利用しているとは限らないので、被写界深度内に入る絞りの大きさよりも小さめの絞りを設定するとよい。ここで、設定するのは絞りの大きさである必要はなく、絞りの大きさは不変のまま、特徴点Xの候補点が被写界深度内に入る位置にピントを合わせ直してもよい。こうすることで、撮影シーンが暗すぎて絞りを小さくできない場合でも特徴点Xの候補点をボケることなく撮影することができる。
In S4035, the
S4036では、制御部408は、特徴点Xの候補点に対して絶対距離値の信頼度を算出する。
In S4036, the
S4037では、特徴点Xの候補点から特徴点Xを決定する。決定の方法は、例えば単眼ステレオカメラで算出した信頼度と、複眼ステレオカメラで取得した信頼度の総合順位が最も高かった位置等とする。 In S4037, the feature point X is determined from the candidate points of the feature point X. FIG. The determination method is, for example, the position where the total ranking of the reliability calculated by the monocular stereo camera and the reliability obtained by the compound eye stereo camera is highest.
S4038では、使用者がシャッターボタン405を押して撮影する。
In S4038, the user presses the
S4039では、撮影した複眼ステレオカメラの2枚の画像から特徴点Xの絶対距離値を取得する。絶対距離値の取得方法は前述と同じであるが、ウィンドウマッチングによって計算する場合には、特徴点Xを含んでいてできるだけ小さいウィンドウを設定すればよい。特徴点マッチングにより計算する場合には、そのまま特徴点Xを2枚の画像でマッチングすればよい。S4039から、図20のS404に戻る。 In S4039, the absolute distance value of the feature point X is obtained from the two images taken by the compound-eye stereo camera. The method of obtaining the absolute distance value is the same as described above, but when calculating by window matching, a window containing the feature point X and as small as possible should be set. In the case of calculation by feature point matching, the feature points X may be matched between two images as they are. From S4039, the process returns to S404 in FIG.
S404では、単眼ステレオカメラで取得した相対距離値を絶対距離値に変換する。図25(b)は、S404についての詳しい処理を示すフローチャートである。S404は、S4041~S4042の処理からなる。 In S404, the relative distance value acquired by the monocular stereo camera is converted into an absolute distance value. FIG. 25(b) is a flowchart showing detailed processing of S404. S404 consists of the processing of S4041 and S4042.
S4041では、特徴点Xに対する相対距離値と絶対距離値を用いて、全被写体に対して相対距離値を絶対距離値に変換する変換式(変換関係)を算出する。例えば、特徴点Xの相対距離値がzrで、絶対距離値がZa[m]である場合には、Z=(Za/zr)×zとすればよい。ここで、zはある被写体の相対距離値であり、Zはそれに対する絶対距離値である。 In S4041, using the relative distance value and the absolute distance value for the feature point X, a conversion formula (conversion relation) for converting the relative distance value to the absolute distance value for all subjects is calculated. For example, when the relative distance value of the feature point X is zr and the absolute distance value is Za[m], Z=(Za/zr)×z. where z is the relative distance value of an object and Z is the absolute distance value relative to it.
S4042では、変換式を用いて単眼ステレオカメラで取得した相対距離値を絶対距離値に変換する。ここで、変換する範囲をS4038で撮影した構図の範囲に限定するなどすれば、使用者の取得したい構図の絶対距離値が高精度に得られる。 In S4042, the relative distance value obtained by the monocular stereo camera is converted into an absolute distance value using a conversion formula. Here, if the conversion range is limited to the range of the composition photographed in S4038, the absolute distance value of the composition desired by the user can be obtained with high accuracy.
本実施形態の方法を用いることにより、相対距離値の信頼度が高く、かつ絶対距離値の信頼度が高い像の位置で、相対距離値から絶対距離値への変換式を決定することができる。そして、その変換式を用いて他の像に対しても変換を行うことで、全被写体に対して高精度な絶対距離値を得ることができる。 By using the method of this embodiment, it is possible to determine the conversion formula from the relative distance value to the absolute distance value at the position of the image where the reliability of the relative distance value is high and the reliability of the absolute distance value is high. . Then, by converting other images using the conversion formula, highly accurate absolute distance values can be obtained for all subjects.
<第5の実施形態>
次に、本発明の第5の実施形態について説明する。
上述の第4の実施形態では、撮像装置を2眼ステレオカメラの構成としたが、撮像素子を瞳分割型にして、撮像部は撮像部401または撮像部402の一方だけにすると、撮像部が1つになって構成が単純化される。
<Fifth Embodiment>
Next, a fifth embodiment of the invention will be described.
In the above-described fourth embodiment, the imaging device is configured as a twin-lens stereo camera. Combining them into one simplifies the configuration.
図27は、瞳分割型の撮像素子の構造と距離算出の原理を示す図である。図27(a)は、被写体にピントが合っている状態を示し、図27(b)は、被写体がピント位置より手前に位置する状態を示している。 FIG. 27 is a diagram showing the structure of a split-pupil imaging device and the principle of distance calculation. FIG. 27(a) shows a state in which the subject is in focus, and FIG. 27(b) shows a state in which the subject is located in front of the focus position.
撮像素子901は、瞳分割型の構造を有しており、画素903の内部は2つのサブ画素904とサブ画素905に分かれている。被写体で反射された光のうち、一方の光束は結像光学系902の端部を通過してサブ画素904に受光され、他方の光束は結像光学系902の逆の端部を通過してサブ画素905に受光される。画像906と画像908は、サブ画素904によって受光された光から生成された画像であり、画像907と画像909は、サブ画素905によって受光された光から生成された画像である。
The
図27(a)に示すように、ピント位置にある被写体からの光は、同一画素内のサブ画素904とサブ画素905に受光されるため、画像906と画像907に写った被写体には視差がない。これに対して、図27(b)に示すように、ピント位置からずれた被写体からの光は、異なる画素のサブ画素904とサブ画素905に受光されるため、画像908と画像909に写った被写体には視差が生じる。この視差から絶対距離を算出することができる。
As shown in FIG. 27A, the light from the subject at the focus position is received by the sub-pixels 904 and 905 in the same pixel, so there is a parallax between the subjects in the
瞳分割型の撮像素子を用いた場合には、レンズを共有した複眼となるため、絞りの大きさにより複眼ステレオカメラの基線長が決まる。このため、特徴点Xの候補となる点を被写界深度内に収めようとして絞りを小さくすると、基線長が短くなってしまい高精度な絶対距離値を取得することができない。この場合には、瞳分割型撮像素子によって取得される絶対距離値の信頼度を、デフォーカスの大きさと基線長の両方を考慮したものとすればよい。また、先の説明のように、絞りは固定したまま、特徴点Xの候補となる点の信頼度が高くなるような位置にピントを設定しなおしてもよい。 When a split-pupil imaging device is used, the compound eyes share a lens, so the size of the aperture determines the base length of the compound eye stereo camera. For this reason, if the aperture is reduced in order to keep the candidate point of the feature point X within the depth of field, the base line length will be shortened, making it impossible to obtain a highly accurate absolute distance value. In this case, the reliability of the absolute distance value obtained by the split-pupil imaging device may be determined by considering both the magnitude of the defocus and the baseline length. Further, as described above, the aperture may be fixed and the focus may be reset to a position where the reliability of the candidate for the feature point X increases.
以上の説明では、単眼ステレオカメラで取得した相対距離値を複眼ステレオカメラで取得した絶対距離値に合わせて、高精度な絶対距離値を算出する方法について説明したが、さらに両者の距離値を組み合わせてもよい。 In the above explanation, we explained how to calculate a highly accurate absolute distance value by matching the relative distance value obtained with the monocular stereo camera with the absolute distance value obtained with the compound eye stereo camera. may
例えば、動的な被写体を含むシーンの絶対距離値を取得したい場合には、単眼ステレオカメラでは動的被写体の相対距離値を取得することができない。この場合には、動的被写体の絶対距離値は複眼ステレオカメラで取得したものをそのまま用いるとよい。 For example, when it is desired to obtain an absolute distance value of a scene including a dynamic subject, a monocular stereo camera cannot obtain a relative distance value of the dynamic subject. In this case, the absolute distance value of the dynamic object obtained by the compound-eye stereo camera may be used as it is.
単眼ステレオカメラでは撮影時刻の異なるフレーム間の画像を用いて像の対応点を算出しているため、動的被写体を含んだ画像の場合には対応点が見つからない場合がある。また、動的被写体の動きとカメラの位置姿勢変化の区別ができないこともある。これに対して、複眼ステレオカメラでは撮影時刻を一致させることができるので、2画像間で動的被写体を静止被写体と同様に扱うことができ、絶対距離値を算出することができる。これを用いて、濃淡で表した絶対距離画像を作る場合には、静止被写体に対しては単眼ステレオカメラで取得した相対距離値を静止被写体から抽出した特徴点Xで絶対距離値に変換した距離像を用いる。そして、動的被写体に対しては複眼ステレオカメラで取得した絶対距離値を用いる。動的被写体か否かの判別は、機械学習などを用いて判別してもよいし、単眼ステレオカメラで取得した相対距離画像にはなくて、複眼ステレオカメラで取得した絶対距離画像にある被写体を動的被写体としてもよく、両者を組み合わせてもよい。 Since the monocular stereo camera calculates the corresponding points of the image using the images between the frames taken at different times, it may not be possible to find the corresponding points in the case of the image including a dynamic subject. Also, it may not be possible to distinguish between the movement of the dynamic subject and the change in the camera's position and orientation. On the other hand, since the compound-eye stereo camera can match the photographing times, it is possible to treat a dynamic subject between two images in the same manner as a static subject, and to calculate an absolute distance value. Using this, when creating an absolute distance image represented by gradation, the distance obtained by converting the relative distance value obtained by the monocular stereo camera to the absolute distance value with the feature point X extracted from the stationary object use an image. Then, the absolute distance value obtained by the compound-eye stereo camera is used for the dynamic subject. Determination of whether or not the subject is dynamic may be performed using machine learning or the like, and the subject is not in the relative distance image obtained by the monocular stereo camera, but in the absolute distance image obtained by the compound eye stereo camera. A dynamic subject may be used, or both may be combined.
<他の実施形態>
なお、本発明は、複数の機器から構成されるシステムに適用しても、一つの機器からなる装置に適用してもよい。
<Other embodiments>
The present invention may be applied to a system composed of a plurality of devices or to an apparatus composed of a single device.
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device executes the program. It can also be realized by a process of reading and executing. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.
100:撮像装置、101:撮像部、102:メモリ、103,303:鑑賞画像生成部、104:単写距離画像生成部、105:マルチビュー距離画像生成部、106:距離画像統合部、1011:光学系、1012:撮像素子、204:演算処理部、400:撮像装置、401,402:撮像部、403:演算部、404:記憶部、405:シャッターボタン、406:操作部、407:表示部、408:制御部
100: imaging device, 101: imaging unit, 102: memory, 103, 303: viewing image generation unit, 104: single-shot distance image generation unit, 105: multi-view distance image generation unit, 106: distance image integration unit, 1011: Optical system 1012: Imaging device 204: Arithmetic processing unit 400:
Claims (37)
前記視差画像対から、第1の距離画像を生成する第1の生成手段と、
前記複数の異視点画像から、第2の距離画像を生成する第2の生成手段と、
前記第1の距離画像と前記第2の距離画像とを統合し、統合距離画像を生成する統合手段と
を有することを特徴とする画像処理装置。 acquisition means for acquiring a plurality of different viewpoint images of the same scene photographed from different positions and at least a pair of parallax image pairs having parallax due to pupil division;
a first generation means for generating a first distance image from the pair of parallax images;
a second generation means for generating a second distance image from the plurality of different-viewpoint images;
Integrating means for integrating the first range image and the second range image to generate an integrated range image.
前記複数の視差画像対から前記複数の異視点画像を生成する第3の生成手段を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 the acquisition means inputs a plurality of parallax image pairs obtained by photographing the same scene from different positions;
6. The image processing apparatus according to any one of claims 1 to 5, further comprising third generating means for generating said plurality of different-viewpoint images from said plurality of parallax image pairs.
前記統合手段は、順次ずらされた前記基準の視差画像対から生成された第1の距離画像と対応する前記複数の異視点画像から生成された第2の距離画像とを統合し、複数の前記統合距離画像を生成する
ことを特徴とする請求項7または8に記載の画像処理装置。 The third generating means generates a plurality of different-viewpoint images while sequentially changing the reference parallax image pair among the plurality of parallax image pairs,
The integration means integrates a first distance image generated from the reference parallax image pair sequentially shifted and a second distance image generated from the corresponding plurality of different viewpoint images, and a plurality of the The image processing device according to claim 7 or 8, wherein an integrated range image is generated.
前記第1の生成手段は、前記複数の視差画像対の内、予め決められた複数の視差画像対についてそれぞれ前記第1の距離画像を生成し、生成した複数の前記第1の距離画像の内の1つを基準の第1の距離画像として、他の前記第1の距離画像を視点変換して統合し、
前記統合手段は、前記統合された第1の距離画像と、前記第2の距離画像とを統合することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 the acquisition means inputs a plurality of parallax image pairs obtained by photographing the same scene from different positions;
The first generating means generates the first distance images for each of a plurality of predetermined parallax image pairs among the plurality of parallax image pairs, and generates the first distance images among the plurality of generated first distance images. Using one of the first distance images as a reference, the other first distance images are integrated by viewpoint conversion,
6. The image processing apparatus according to claim 1, wherein said integrating means integrates said integrated first distance image and said second distance image.
前記少なくとも一対の視差画像対を撮影する撮像手段を、前記取得手段の少なくとも一部として
を有することを特徴とする撮像装置。 An image processing device according to any one of claims 1 to 12;
An imaging apparatus, comprising: imaging means for imaging the at least one pair of parallax images as at least a part of the acquisition means.
第1の生成手段が、前記視差画像対から、第1の距離画像を生成する第1の生成工程と、
第2の生成手段が、前記複数の異視点画像から、第2の距離画像を生成する第2の生成工程と、
統合手段が、前記第1の距離画像と前記第2の距離画像とを統合し、統合距離画像を生成する統合工程と
を有することを特徴とする画像処理方法。 an obtaining step in which the obtaining means obtains a plurality of different viewpoint images of the same scene photographed from different positions and at least one pair of parallax images having parallax due to pupil division;
a first generating step in which a first generating means generates a first distance image from the pair of parallax images;
a second generating step in which a second generating means generates a second distance image from the plurality of different-viewpoint images;
An image processing method, comprising: an integrating step of integrating the first range image and the second range image to generate an integrated range image.
前記撮像部を用いてほぼ同じ時刻に撮影された互いに視差を有する複数の第1の画像に基づいて、被写体までの複数の絶対距離値とその信頼度を算出するとともに、前記撮像部を用いて異なる時刻に撮影された互いに視差を有する複数の第2の画像に基づいて、被写体までの複数の相対距離値とその信頼度を算出する算出手段と、を備え、
前記算出手段は、前記複数の絶対距離値と前記複数の相対距離値のうちで、前記信頼度が相対的に高く且つ被写体のほぼ同一の領域に対応する絶対距離値と相対距離値とを用いて、絶対距離値と相対距離値の変換関係を求めることを特徴とする撮像装置。 at least two imaging units with a known distance between the optical axes;
Based on a plurality of first images having parallax with each other taken at approximately the same time using the imaging unit, a plurality of absolute distance values to the subject and their reliability are calculated, and the imaging unit is used to calculate calculating means for calculating a plurality of relative distance values to the subject and their reliability based on a plurality of second images having parallax with each other taken at different times;
The calculating means uses, of the plurality of absolute distance values and the plurality of relative distance values, an absolute distance value and a relative distance value that have a relatively high degree of reliability and that correspond to substantially the same region of the subject. , and obtains a conversion relationship between an absolute distance value and a relative distance value.
前記撮像部を用いてほぼ同じ時刻に撮影された互いに視差を有する複数の第1の画像に基づいて、被写体までの複数の絶対距離値とその信頼度を算出するとともに、前記撮像部を用いて異なる時刻に撮影された互いに視差を有する複数の第2の画像に基づいて、被写体までの複数の相対距離値とその信頼度を算出する算出工程を有し、
前記算出工程では、前記複数の絶対距離値と前記複数の相対距離値のうちで、前記信頼度が相対的に高く且つ被写体のほぼ同一の領域に対応する絶対距離値と相対距離値とを用いて、絶対距離値と相対距離値の変換関係を求めることを特徴とする撮像装置の制御方法。 A method of controlling an imaging device comprising at least two imaging units with a known distance between the optical axes, comprising:
Based on a plurality of first images having parallax with each other taken at approximately the same time using the imaging unit, a plurality of absolute distance values to the subject and their reliability are calculated, and the imaging unit is used to calculate a calculating step of calculating a plurality of relative distance values to the subject and their reliability based on a plurality of second images having parallax with each other taken at different times;
In the calculating step, of the plurality of absolute distance values and the plurality of relative distance values, an absolute distance value and a relative distance value having a relatively high degree of reliability and corresponding to substantially the same region of the subject are used. A control method for an imaging device, comprising: obtaining a conversion relationship between an absolute distance value and a relative distance value.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB2206275.6A GB2608496B (en) | 2021-05-07 | 2022-04-29 | Image processing apparatus and method, and image capturing apparatus and control method thereof, program, and storage medium |
US17/736,155 US20220358667A1 (en) | 2021-05-07 | 2022-05-04 | Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium |
DE102022111119.9A DE102022111119A1 (en) | 2021-05-07 | 2022-05-05 | Image processing device and method, image capturing device and control method therefor, program and storage medium |
CN202210487575.5A CN115314697A (en) | 2021-05-07 | 2022-05-06 | Image processing apparatus and method, image pickup apparatus, control method therefor, and storage medium |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079246 | 2021-05-07 | ||
JP2021079246 | 2021-05-07 | ||
JP2021082597 | 2021-05-14 | ||
JP2021082597 | 2021-05-14 | ||
JP2021154713 | 2021-09-22 | ||
JP2021154713 | 2021-09-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022173069A true JP2022173069A (en) | 2022-11-17 |
Family
ID=84045840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022052478A Pending JP2022173069A (en) | 2021-05-07 | 2022-03-28 | Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022173069A (en) |
-
2022
- 2022-03-28 JP JP2022052478A patent/JP2022173069A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4852591B2 (en) | Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus | |
US8885026B2 (en) | Imaging device and imaging method | |
US8854528B2 (en) | Imaging apparatus | |
CN102362487B (en) | 3d-image capturing device | |
US8823778B2 (en) | Imaging device and imaging method | |
JP2011029905A (en) | Imaging device, method and program | |
JP2008015754A (en) | Image pickup device, image processor and image processing method | |
JP2015073185A (en) | Image processing device, image processing method and program | |
JP2020174331A (en) | Image capturing apparatus, image processing apparatus, control method, and program | |
JP5348258B2 (en) | Imaging device | |
JP2017005689A (en) | Image processing system and image processing method | |
JP2019208170A (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP2014026051A (en) | Image capturing device and image processing device | |
JP5611469B2 (en) | Stereoscopic imaging apparatus and method | |
JP4693709B2 (en) | Image processing apparatus and image processing method | |
JP2019152807A (en) | Focus detection device and focus detection method | |
WO2013005477A1 (en) | Imaging device, three-dimensional image capturing method and program | |
JP6648916B2 (en) | Imaging device | |
JP2022173069A (en) | Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium | |
US20220358667A1 (en) | Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium | |
JP2012124650A (en) | Imaging apparatus, and imaging method | |
JP2020136697A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2016134886A (en) | Imaging apparatus and control method thereof | |
JP2014131188A (en) | Imaging apparatus, control method of the same, and control program | |
JP6071748B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |