WO2022259457A1 - Shape estimation device, shape estimation method, and program - Google Patents
Shape estimation device, shape estimation method, and program Download PDFInfo
- Publication number
- WO2022259457A1 WO2022259457A1 PCT/JP2021/022095 JP2021022095W WO2022259457A1 WO 2022259457 A1 WO2022259457 A1 WO 2022259457A1 JP 2021022095 W JP2021022095 W JP 2021022095W WO 2022259457 A1 WO2022259457 A1 WO 2022259457A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- polarization
- refraction
- shape
- feature
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000010287 polarization Effects 0.000 claims abstract description 68
- 239000013598 vector Substances 0.000 claims abstract description 61
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
This shape estimation device comprises: a polarization camera 10 for capturing a first image of a subject with no transparent refractive layer interposed between the camera 10 and the subject and a second image of the subject with a refractive layer interposed between the camera 10 and the subject; a feature value acquisition unit 20 for applying a feature point tracking method to the first image and second image and thereby acquiring a distortion vector Δg that is a feature value representing variation in geometric appearance resulting from refraction; a first estimation unit 30 for acquiring, from the second image, brightness value pairs respectively corresponding to at least three different polarization angles and estimating polarization feature values Imax, Imin, Ψ; a second estimation unit 40 for estimating two (ni
+, ni
-) candidates for normal vectors ni of the refractive layer to be estimated using the polarization feature values; and a refractive surface generation unit 50 for using the distortion vector Δg to select one normal vector candidate from among the normal vector candidates ni
+, ni
- and generating three-dimensional refractive surface shape information representing the surface shape of the refractive layer.
Description
本発明は、水面、空気ゆらぎ等の透明な屈折層の3次元形状を画像から推定する形状推定装置、形状推定方法、及びプログラムに関する。
The present invention relates to a shape estimation device, a shape estimation method, and a program for estimating the three-dimensional shape of transparent refraction layers such as water surfaces and air fluctuations from images.
画像中に映る物体の3次元形状を推定する技術は、ロボットビジョン、拡張現実、自動運転等の分野において特に重要である。
Technology for estimating the 3D shape of an object in an image is particularly important in fields such as robot vision, augmented reality, and autonomous driving.
一般的な3次元形状推定では、カメラを複数台用意し、カメラの設置位置の違いに基づく見え方の違いから3次元形状を推定する。この従来の方法は、推定対象が不透明かつ拡散反射面であることを前提にしている。よって、水面のような透明な屈折面の形状を推定することはできない。
In general 3D shape estimation, multiple cameras are prepared and the 3D shape is estimated from the difference in appearance based on the difference in camera installation position. This conventional method assumes that the object to be estimated is an opaque and diffusely reflective surface. Therefore, it is not possible to estimate the shape of a transparent refracting surface such as a water surface.
このような屈折面を対象にした3次元形状を推定するには、カメラ→屈折面→屈折面の背後にある被写体までの光の伝搬をモデル化する必要がある。しかし、一般に屈折面とその背後にある被写体の双方の3次元形状が未知である。また、屈折のモデルが複雑であるため、見通しの良い最適化問題として定式化することが困難である。
In order to estimate the three-dimensional shape of such a refracting surface, it is necessary to model the propagation of light from the camera to the refracting surface to the subject behind the refracting surface. However, the three-dimensional shape of both the refracting surface and the object behind it are generally unknown. Also, the complexity of the refraction model makes it difficult to formulate as a transparent optimization problem.
そこで、非特許文献1は、1回の屈折が発生する場面の3次元形状の推定に最低2台のカメラが必要であることを理論的・実験的に開示している。また、非特許文献2は、屈折の有無による背景の見え方の違いを考慮することで1台のカメラで屈折面の3次元形状の推定が可能であることを開示している。また、非特許文献3は、偏光情報を用いた透明な面の3次元形状を推定する方法を開示している。
Therefore, Non-Patent Document 1 theoretically and experimentally discloses that at least two cameras are required to estimate the three-dimensional shape of a scene in which one refraction occurs. In addition, Non-Patent Document 2 discloses that it is possible to estimate the three-dimensional shape of a refracting surface with a single camera by taking into account the difference in appearance of the background due to the presence or absence of refraction. Non-Patent Document 3 discloses a method of estimating the three-dimensional shape of a transparent surface using polarization information.
しかしながら、非特許文献1の方法では、カメラが最低2台必要であり、カメラ間の位置合わせ、時刻同期が必要である。また、非特許文献2では、最適化問題として定式化されるモデルが複雑であり、形状推定に長時間を要し大きな計算コストが必要である。また、非特許文献3では、予め推定対象の大まかな3次元形状が分かっている必要がある。
However, the method of Non-Patent Document 1 requires at least two cameras, and requires alignment and time synchronization between the cameras. In addition, in Non-Patent Document 2, the model formulated as the optimization problem is complicated, and shape estimation takes a long time, requiring a large calculation cost. Also, in Non-Patent Document 3, it is necessary to know a rough three-dimensional shape of an estimation target in advance.
このように従来の技術は、複数のカメラ、大きな計算コスト、3次元形状が既知である等が必要であり、3次元形状を推定する技術として好適なものが無いという課題がある。
In this way, the conventional technology requires multiple cameras, a large calculation cost, and the 3D shape is known, etc., and there is a problem that there is no suitable technology for estimating the 3D shape.
本発明は、この課題に鑑みてなされたものであり、単一カメラ、低計算量、事前学習データなしで、透明な屈折面の3次元形状の推定が可能な形状推定装置、形状推定方法、及びプログラムを提供することを目的とする。
The present invention has been made in view of this problem. and to provide programs.
本発明の一態様に係る形状推定装置は、透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラと、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する特徴量取得部と、前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する第1推定部と、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定する第2推定部と、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部とを備えることを要旨とする。
A shape estimating device according to an aspect of the present invention includes a polarizing camera that captures a first image of a subject when no transparent refractive layer is interposed and a second image of the subject when the refractive layer is interposed; a feature acquisition unit that acquires a distortion vector, which is a feature representing a change in geometric appearance due to refraction, by applying a feature point tracking method between the first image and the second image; and the second image. a first estimating unit that acquires sets of luminance values respectively corresponding to at least three different polarization angles from the a second estimating unit that estimates two candidates; and a refractive surface that selects one of the candidates for the normal vector using the distortion vector and generates refractive surface three-dimensional shape information representing the surface shape of the refractive layer. and a generator.
また、本発明の一態様に係る屈折面3次元形状推定方法は、上記の屈折面3次元形状推定装置が行う屈折面3次元形状推定方法であって、偏光カメラは、透明な屈折層が介在しない場合の被写体の画像である第1画像と、前記屈折層が介在する場合の前記被写体の画像である第2画像を撮影し、特徴量取得部は、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得し、第1推定部は、前記第2画像から少なくとも3つの異なる角度と輝度値の組を取得して偏光の特徴量を推定し、第2推定部は、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定し、屈折面生成部は、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成することを要旨とする。
Further, a method for estimating a three-dimensional shape of a refraction surface according to an aspect of the present invention is a method for estimating a three-dimensional shape of a refraction surface, which is performed by the three-dimensional shape estimation device for a refraction surface, wherein the polarization camera has a transparent refraction layer interposed therebetween. A first image, which is an image of the subject when the refractive layer is not present, and a second image, which is an image of the subject when the refraction layer is present, are captured, and the feature amount acquisition unit obtains the first image and the second image. A distortion vector, which is a feature quantity representing a change in geometric appearance due to refraction, is obtained by applying a feature point tracking method between the two images, and a first estimating unit obtains at least three different angles and brightness from the second image. A second estimating unit estimates two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization by obtaining a set of values, and a refraction surface generating unit selects one of the candidates for the normal vector using the distortion vector, and generates refractive surface three-dimensional shape information representing the surface shape of the refractive layer.
また、本発明の一態様に係るプログラムは、上記の屈折面3次元形状推定装置としてコンピュータを機能させるためのプログラムであることを要旨とする。
Also, a program according to one aspect of the present invention is summarized as a program for causing a computer to function as the above-described refractive surface three-dimensional shape estimation device.
本発明によれば、単一カメラ、低計算量、事前学習データなしで、透明な屈折面の3次元形状の推定が可能である。
According to the present invention, it is possible to estimate the three-dimensional shape of a transparent refractive surface with a single camera, low computational complexity, and no pre-learning data.
以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same items in multiple drawings, and the description will not be repeated.
図1は、本発明の実施形態に係る形状推定装置の機能構成例を示すブロック図である。図1に示す形状推定装置100は、被写体との間に介在する透明な屈折層の3次元形状を推定する装置である。
FIG. 1 is a block diagram showing a functional configuration example of a shape estimation device according to an embodiment of the present invention. A shape estimation device 100 shown in FIG. 1 is a device for estimating the three-dimensional shape of a transparent refraction layer interposed between a subject.
形状推定装置100は、偏光カメラ10、特徴量取得部20、第1推定部30、第2推定部40、及び屈折面生成部50を備える。偏光カメラ10を除く各機能構成部は、例えばROM、RAM、CPU等からなるコンピュータで実現することができる。その場合、その処理内容はプログラムによって記述される。
The shape estimation device 100 includes a polarization camera 10 , a feature quantity acquisition unit 20 , a first estimation unit 30 , a second estimation unit 40 , and a refractive surface generation unit 50 . Each functional component except for the polarization camera 10 can be realized by a computer including ROM, RAM, CPU, and the like. In that case, the content of the processing is described by the program.
偏光カメラ10は一般的な偏光カメラである。偏光カメラ10は、例えば異なる4つの偏光角度の偏光子(偏光フィルタ)が組み込まれている。
The polarization camera 10 is a general polarization camera. The polarization camera 10 incorporates, for example, polarizers (polarization filters) with four different polarization angles.
偏光カメラ10は、透明な屈折層が介在しない場合の被写体の画像である第1画像と、屈折層が介在する場合の被写体の画像である第2画像を撮影する。透明な屈折層は、水面、空気のゆらぎ層等のことである。
The polarization camera 10 captures a first image that is an image of the subject without a transparent refractive layer and a second image that is an image of the subject with a refractive layer interposed. A transparent refraction layer is a surface of water, a fluctuation layer of air, or the like.
特徴量取得部20は、偏光カメラ10で撮影した第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する。特徴点追跡手法は、例えばオプティカルフローである。
The feature quantity acquisition unit 20 applies a feature point tracking method between the first image and the second image captured by the polarizing camera 10 to obtain a distortion vector, which is a feature quantity representing a geometric change in appearance due to refraction. get. The feature point tracking method is, for example, optical flow.
第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する。偏光の特徴量は、偏光度(Degree of Polarization)である。詳しくは後述する。
The first estimating unit 30 acquires sets of luminance values respectively corresponding to at least three different polarization angles from the second image and estimates the polarization feature amount. The characteristic quantity of polarization is the degree of polarization. Details will be described later.
第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルの候補を2つ推定する。つまり、偏光の変化の法線ベクトルの候補を2つに絞り込む。
The second estimation unit 40 estimates two candidates for the normal vector of the refraction layer to be estimated using the polarization feature amount. In other words, the candidates for the normal vector of the change in polarization are narrowed down to two.
屈折面生成部50は、歪みベクトルを用いて法線ベクトルの候補から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。法線ベクトルは、第2画像の画素の接線に直交するベクトルである。第2画像の屈折層が映った画素の法線ベクトルから屈折層の表面形状を表す屈折面3次元形状情報を生成することができる。
The refraction surface generation unit 50 selects one of the normal vector candidates using the distortion vector, and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer. A normal vector is a vector orthogonal to a tangent to a pixel in the second image. Refraction surface three-dimensional shape information representing the surface shape of the refraction layer can be generated from the normal vectors of the pixels in which the refraction layer is reflected in the second image.
図2は、形状推定装置100と、被写体(背景)と、透明な屈折層(推定したい屈折面)との関係を模式的に示す図である。図2は、偏光カメラ10を構成するイメージセンサと偏光フィルタのみを示す。
FIG. 2 is a diagram schematically showing the relationship between the shape estimation device 100, the subject (background), and the transparent refraction layer (refraction surface to be estimated). FIG. 2 shows only an image sensor and a polarizing filter that constitute the polarizing camera 10 .
図2に示す短冊形状のイメージセンサは、例えば数百万画素を備えるCMOSイメージセンサである。画像平面上の画素iは、背景から屈折層を通過して来た光を偏光フィルタ越しに受光する。
The strip-shaped image sensor shown in FIG. 2 is, for example, a CMOS image sensor with millions of pixels. Pixel i on the image plane receives light through the polarizing filter from the background through the refractive layer.
偏光フィルタは、異なる4つの偏光角度を備えイメージセンサの前に配置される。4つの偏光角度を備えるのは一般的である。
A polarizing filter with four different polarization angles is placed in front of the image sensor. It is common to have four polarization angles.
形状推定装置100は、入射光の方向を光軸Zcとした場合に、画素iの接線に直交するベクトルである法線ベクトルniの方位角φと仰角θを画素i毎に推定して屈折層の表面形状を推定する。以降、形状推定装置100の各機能構成部について説明する。
The shape estimating apparatus 100 estimates the azimuth angle φ and the elevation angle θ of the normal vector n i , which is a vector orthogonal to the tangent line of the pixel i, for each pixel i when the direction of the incident light is the optical axis Zc. Estimate the surface shape of the refractive layer. Hereinafter, each functional component of the shape estimation device 100 will be described.
なお、画像平面と偏光フィルタの平面が平行である場合、法線ベクトルniの方位角φと、偏光角度は幾何学的に同じ意味をもつため、以降、方位角と偏光角度を同じ変数φとして説明する。
When the image plane and the plane of the polarizing filter are parallel, the azimuth angle φ of the normal vector n i and the polarization angle have the same meaning geometrically. described as.
(第1推定部)
第1推定部30は、屈折層が介在する場合の被写体の第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する。 (First estimation unit)
Thefirst estimating unit 30 obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image of the subject in the case where the refraction layer is interposed, and estimates the polarization feature amount.
第1推定部30は、屈折層が介在する場合の被写体の第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する。 (First estimation unit)
The
偏光角度と輝度値の間に次式に示す関係が成立する。
The relationship shown in the following formula holds between the polarization angle and the luminance value.
ここで偏光の特徴量はImax,Imin,Ψである。偏光の特徴量は、3つ以上の異なる偏光角度と輝度値の組から推定することができる。
Here, the polarization features are I max , I min , and Ψ. A polarization feature can be estimated from three or more different sets of polarization angles and luminance values.
偏光の特徴量Imax,Imin,Ψを用いることで、偏光状態を表すストークスベクトルsは次式で表せる。
By using the polarization feature quantities I max , I min , and Ψ, the Stokes vector s representing the polarization state can be expressed by the following equation.
ストークスベクトルsの変化は、変化前のストークスベクトルにミュラー行列Mをかけることで表すことができる。つまり、変化前のストークスベクトルをsin、変化後のストークスベクトルをsoutとするとき、sout=M・sinとなる。
A change in the Stokes vector s can be represented by multiplying the Stokes vector before change by the Mueller matrix M. That is, s out =M·s in , where sin is the Stokes vector before change and s out is the Stokes vector after change.
ここでTsはフレネルの透過係数(入射面に水平な成分)、Ttはフレネル透過係数(入射面に垂直な成分)である。
Here, Ts is the Fresnel transmission coefficient (component horizontal to the plane of incidence), and Tt is the Fresnel transmission coefficient (component perpendicular to the plane of incidence).
偏光の変化の度合いを表す偏光度ρ(Degree of Polarization)は次式で表せる。
The degree of polarization ρ (Degree of Polarization), which indicates the degree of change in polarization, can be expressed by the following formula.
特にsinが非偏光の場合は次式で表せる。
In particular, when sin is non-polarized, it can be expressed by the following equation.
式(7)は、一見複雑であるが、単調増加関数であり凸最適化問題として定式化が可能である。よって、法線ベクトルniの仰角θは、偏光度の観測値から一意に推定できる。
Equation (7) is seemingly complicated, but it is a monotonically increasing function and can be formulated as a convex optimization problem. Therefore, the elevation angle θ of the normal vector n i can be uniquely estimated from the observed value of the degree of polarization.
図3は、偏光の変化のモデル化を模式的に示す図であり、(a)は法線ベクトルniと屈折層で反射される光を示す、(b)は天頂角と偏光度の関係を示す図である。
FIG. 3 is a diagram schematically showing the modeling of the change in polarization, (a) showing the normal vector n i and the light reflected by the refracting layer, and (b) the relationship between the zenith angle and the degree of polarization. It is a figure which shows.
図3(a)において、sinは屈折面(屈折層の表面)に入射する光、soutは偏光カメラ10が撮影する光を表す。
In FIG. 3A, s in represents light incident on the refractive surface (surface of the refractive layer), and s out represents light captured by the polarization camera 10 .
図3(b)の横軸は天頂角、縦軸は偏光度を表す、図3(b)に示すように仰角θが分かれば偏光度ρは一意に求まる。
In FIG. 3(b), the horizontal axis represents the zenith angle and the vertical axis represents the degree of polarization. As shown in FIG. 3(b), if the elevation angle θ is known, the degree of polarization ρ can be uniquely determined.
(第2推定部)
第2推定部40は、偏光の特徴量を用いて推定したい屈折層(屈折面(屈折層の表面))の法線ベクトルniの候補を2つ推定する。 (Second estimation unit)
Thesecond estimator 40 estimates two candidates for the normal vector n i of the refraction layer (refraction surface (surface of the refraction layer)) to be estimated using the polarization feature amount.
第2推定部40は、偏光の特徴量を用いて推定したい屈折層(屈折面(屈折層の表面))の法線ベクトルniの候補を2つ推定する。 (Second estimation unit)
The
画像平面と偏光フィルタの平面が平行である場合、法線ベクトルniの方位角φは偏光角Ψ(輝度値が最大になる偏光角度)と一致する。なお、偏光フィルタを1回転する場合、輝度値が最大に成る角度は2つあるため、180°の曖昧性が残る。
When the image plane and the plane of the polarizing filter are parallel, the azimuth angle φ of the normal vector n i coincides with the polarization angle Ψ (polarization angle at which the luminance value is maximized). When the polarizing filter is rotated once, the ambiguity of 180° remains because there are two angles at which the luminance value is maximized.
図4は、方位角φと輝度値の関係を模式的に示す図である。図4の横軸は方位角φ、縦軸は画像の明るさI(φ)を示す。図4に示すように輝度値I(φ)は、2つの最大値を持つ。
FIG. 4 is a diagram schematically showing the relationship between the azimuth angle φ and the luminance value. The horizontal axis of FIG. 4 indicates the azimuth angle φ, and the vertical axis indicates the image brightness I(φ). As shown in FIG. 4, the luminance value I(φ) has two maximum values.
よって、法線ベクトルniの候補は次の2つに絞られる。
Therefore, the candidates for the normal vector n i are narrowed down to the following two.
(特徴量取得部)
透明な屈折層が介在しない場合の被写体の第1画像と屈折層が介在する場合の被写体の第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する。 (Feature quantity acquisition unit)
A feature point tracking technique is applied between a first image of an object without a transparent refractive layer and a second image of the object with a refractive layer to represent the geometric change in appearance due to refraction. Acquire a distortion vector, which is a feature quantity.
透明な屈折層が介在しない場合の被写体の第1画像と屈折層が介在する場合の被写体の第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する。 (Feature quantity acquisition unit)
A feature point tracking technique is applied between a first image of an object without a transparent refractive layer and a second image of the object with a refractive layer to represent the geometric change in appearance due to refraction. Acquire a distortion vector, which is a feature quantity.
図5は、幾何学的変化のモデル化を模式的に示す図である。図5に示すvfは、偏光カメラ10側の光線空間を表す。μは相対屈折率である。また、vrは屈折光の方向ベクトルである。
FIG. 5 is a diagram schematically showing modeling of geometric changes. v f shown in FIG. 5 represents the ray space on the polarization camera 10 side. μ is the relative refractive index. Also, vr is the direction vector of the refracted light.
屈折光の方向ベクトルvrは次式で表せる。
The direction vector v r of the refracted light can be expressed by the following equation.
屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔgは次式で表せる。
A distortion vector Δg , which is a feature quantity representing a change in geometric appearance due to refraction, can be expressed by the following equation.
(屈曲面生成部)
屈折面生成部50は、歪みベクトルΔgを用いて法線ベクトルniの候補ni +,ni -から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。 (Bending surface generator)
Therefraction surface generator 50 selects one of the candidates n i + and n i − for the normal vector n i using the strain vector Δ g and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer. do.
屈折面生成部50は、歪みベクトルΔgを用いて法線ベクトルniの候補ni +,ni -から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。 (Bending surface generator)
The
屈折面生成部50は、偏光の制約から絞り込んだ法線ベクトルniの候補ni
+,ni
-より、次式の最適解を解くことで屈折面3次元形状情報を生成する。
The refractive surface generation unit 50 generates refractive surface three-dimensional shape information by solving the optimum solution of the following equation from the candidates n i + and n i − of the normal vector n i narrowed down from the polarization constraint.
式(12)の最適解を解く計算は全ての画素iについて行う。
The calculation for solving the optimum solution of Equation (12) is performed for all pixels i.
図6は、屈折面3次元形状情報の例を模式的に示す図である。図6に示すように3次元形状情報を生成することができる。
FIG. 6 is a diagram schematically showing an example of refracting surface three-dimensional shape information. Three-dimensional shape information can be generated as shown in FIG.
(形状推定方法)
図7は、形状推定装置100が行う形状推定方法の処理手順を示すフローチャートである。 (Shape estimation method)
FIG. 7 is a flow chart showing the processing procedure of the shape estimation method performed by theshape estimation device 100. As shown in FIG.
図7は、形状推定装置100が行う形状推定方法の処理手順を示すフローチャートである。 (Shape estimation method)
FIG. 7 is a flow chart showing the processing procedure of the shape estimation method performed by the
先ず偏光カメラ10は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の被写体の第2画像を撮影する(ステップS1)。
First, the polarization camera 10 captures a first image of the subject without a transparent refraction layer and a second image of the subject with a refraction layer (step S1).
次に、第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定する(ステップS2)。
Next, the first estimator 30 acquires sets of luminance values respectively corresponding to at least three different polarization angles from the second image, and estimates polarization feature quantities I max , I min , and Ψ (step S2). .
次に、第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルniの候補を2つ(ni
+,ni
-)推定する(ステップS3)。
Next, the second estimating unit 40 estimates two (n i + , n i − ) candidates for the normal vector n i of the refraction layer to be estimated using the polarization feature amount (step S3).
次に、特徴量取得部20は、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔgを取得する(ステップS4)。
Next, the feature amount acquisition unit 20 applies a feature point tracking method between the first image and the second image to acquire a distortion vector Δg , which is a feature amount representing a geometric change in appearance due to refraction. (step S4).
次に、屈折面生成部50は、歪みベクトルΔgを用いて法線ベクトルniの候補ni
+,ni
-から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する(ステップS5)。ステップS2~S5の処理は全ての画素iについて終了するまで繰り返される(ステップS6のNO)。
Next, the refractive surface generator 50 selects one of the candidates n i + and n i − for the normal vector n i using the strain vector Δ g , Information is generated (step S5). The processing of steps S2 to S5 is repeated until all pixels i are completed (NO in step S6).
ステップS2~S5の処理は、各画素に独立に処理されるため並列化が容易である。並列化することでより高速な3次元形状の推定が可能になる。
The processing of steps S2 to S5 can be easily parallelized because each pixel is processed independently. Parallelization enables faster 3D shape estimation.
以上説明したように、本実施形態に係る形状推定装置100は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラ10と、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔgを取得する特徴量取得部20と、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定する第1推定部30と、偏光の特徴量を用いて推定したい屈折層の法線ベクトルniの候補を2つ(ni
+,ni
-)推定する第2推定部40と、歪みベクトルΔgを用いて法線ベクトルniの候補ni
+,ni
-から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部50とを備える。
As described above, the shape estimating apparatus 100 according to the present embodiment captures a first image of a subject without a transparent refraction layer and a second image of the subject with a refraction layer. A camera 10, and a feature acquisition unit 20 that acquires a distortion vector Δg , which is a feature representing a geometric change in appearance due to refraction, by applying a feature point tracking method between the first image and the second image. and a first estimating unit 30 that obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image to estimate the polarization feature amounts I max , I min , and Ψ; A second estimator 40 that estimates two (n i + , n i − ) candidates for the normal vector n i of the refraction layer to be estimated using the distortion vector Δ g , and a candidate n for the normal vector n i using the distortion vector Δ g a refraction surface generator 50 that selects one from i + and n i − and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer.
また、本実施形態に係る形状推定方法は、形状推定装置100が行う形状推定方法であって、偏光カメラ10は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の被写体の第2画像を撮影し、特徴量取得部20は、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔgを取得し、第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定し、第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルniの候補を2つ(ni
+,ni
-)推定し、屈折面生成部50は、歪みベクトルΔgを用いて法線ベクトルniの候補ni
+,ni
-から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。
Further, the shape estimation method according to the present embodiment is a shape estimation method performed by the shape estimation device 100, and the polarization camera 10 obtains the first image of the subject when no transparent refraction layer is interposed and the refraction layer is interposed. A second image of the subject is photographed in the case where the feature amount acquisition unit 20 applies a feature point tracking method between the first image and the second image to obtain a feature representing a change in geometric appearance due to refraction. The first estimating unit 30 obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image, and obtains the polarization feature quantities I max , I min , and Ψ is estimated, and the second estimating unit 40 estimates two (n i + , n i − ) candidates for the normal vector n i of the refraction layer to be estimated using the polarization feature amount, and the refraction surface generation unit 50 selects one of normal vector n i candidates n i + and n i − using the distortion vector Δ g to generate refractive surface three-dimensional shape information representing the surface shape of the refractive layer.
なお、形状推定装置100は、図8に示す汎用的なコンピュータシステムで実現することができる。例えば、CPU90、メモリ91、ストレージ92、通信部93、入力部94、及び出力部95を備える汎用的なコンピュータシテムにおいて、CPU90がメモリ91上にロードされた所定のプログラムを実行することにより、形状推定装置100の各機能が実現される。所定のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。
Note that the shape estimation device 100 can be realized by a general-purpose computer system shown in FIG. For example, in a general-purpose computer system including a CPU 90, a memory 91, a storage 92, a communication unit 93, an input unit 94, and an output unit 95, the CPU 90 executes a predetermined program loaded on the memory 91 to obtain a shape. Each function of the estimation device 100 is realized. The prescribed program can be recorded on computer-readable recording media such as HDD, SSD, USB memory, CD-ROM, DVD-ROM, MO, etc., or can be distributed via a network.
以上説明したように、本実施形態に係る形状推定装置100と形状推定方法は、従来実現できなかった、単一カメラ、低計算量、形状に関する事前知識なし(事前学習データなし)で、透明な屈折面の3次元形状の推定を可能にする。つまり、アプローチとして屈折による光の伝搬経路の幾何学的変化だけでなく、光学的な変化(偏光)を考慮した、モデルを構築することで、単一カメラのみで得られる情報から、屈折面形状の3次元形状に必要な制約を得ることができる。また、凸最適化問題として定式化が可能で、且つ解の探索範囲が狭くなることから、従来技術よりも低計算量で3次元形状の推定が可能になる。
As described above, the shape estimating apparatus 100 and the shape estimating method according to the present embodiment use a single camera, low computational complexity, no prior knowledge of shape (no prior learning data), and transparent Allows estimation of the three-dimensional shape of the refractive surface. In other words, as an approach, by constructing a model that takes into account not only the geometrical changes in the propagation path of light due to refraction, but also the optical changes (polarization), the shape of the refraction surface can be obtained from the information obtained with only a single camera. We can obtain the necessary constraints for the three-dimensional shape of In addition, since it can be formulated as a convex optimization problem and the search range for the solution is narrowed, it is possible to estimate a three-dimensional shape with a lower amount of calculation than in the prior art.
なお、本発明は、ここでは記載していない様々な実施形態等を含む。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
It should be noted that the present invention includes various embodiments and the like that are not described here. Therefore, the technical scope of the present invention is defined only by the matters specifying the invention according to the valid scope of claims based on the above description.
10:偏光カメラ
20:特徴量取得部
30:第1推定部
40:第2推定部
50:屈折面生成部
100:形状推定装置 10: Polarization camera 20: Feature amount acquisition unit 30: First estimation unit 40: Second estimation unit 50: Refraction surface generation unit 100: Shape estimation device
20:特徴量取得部
30:第1推定部
40:第2推定部
50:屈折面生成部
100:形状推定装置 10: Polarization camera 20: Feature amount acquisition unit 30: First estimation unit 40: Second estimation unit 50: Refraction surface generation unit 100: Shape estimation device
Claims (3)
- 透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラと、
前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する特徴量取得部と、
前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する第1推定部と、
偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定する第2推定部と、
前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部と
を備える形状推定装置。 a polarizing camera that captures a first image of an object without an intervening transparent refractive layer and a second image of the object with an intervening transparent refractive layer;
a feature acquisition unit that acquires a distortion vector, which is a feature representing a change in geometric appearance due to refraction, by applying a feature point tracking method between the first image and the second image;
a first estimating unit that obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image and estimates a polarization feature amount;
a second estimating unit that estimates two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization;
a refraction surface generation unit that selects one of the candidates for the normal vector using the distortion vector and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer. - 形状推定装置が行う形状推定方法であって、
偏光カメラは、透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影し、
特徴量取得部は、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得し、
第1推定部は、前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定し、
第2推定部は、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定し、
屈折面生成部は、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する
形状推定方法。 A shape estimation method performed by a shape estimation device,
a polarization camera capturing a first image of an object without an intervening transparent refractive layer and a second image of the object with an intervening transparent refractive layer;
A feature amount acquisition unit applies a feature point tracking method between the first image and the second image to acquire a distortion vector, which is a feature amount representing a change in geometric appearance due to refraction,
a first estimating unit obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image to estimate a polarization feature amount;
a second estimating unit estimating two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization;
A shape estimation method, wherein a refractive surface generation unit selects one of the candidates for the normal vector using the distortion vector, and generates refractive surface three-dimensional shape information representing a surface shape of the refractive layer. - 請求項1に記載の形状推定装置としてコンピュータを機能させるためのプログラム。
A program for causing a computer to function as the shape estimation device according to claim 1 .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023526751A JPWO2022259457A1 (en) | 2021-06-10 | 2021-06-10 | |
PCT/JP2021/022095 WO2022259457A1 (en) | 2021-06-10 | 2021-06-10 | Shape estimation device, shape estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/022095 WO2022259457A1 (en) | 2021-06-10 | 2021-06-10 | Shape estimation device, shape estimation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022259457A1 true WO2022259457A1 (en) | 2022-12-15 |
Family
ID=84426025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/022095 WO2022259457A1 (en) | 2021-06-10 | 2021-06-10 | Shape estimation device, shape estimation method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2022259457A1 (en) |
WO (1) | WO2022259457A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099589A1 (en) * | 2007-02-13 | 2008-08-21 | Panasonic Corporation | Image processing system, method, device and image format |
JP2010279044A (en) * | 2008-12-25 | 2010-12-09 | Panasonic Corp | Image processor and pseudo-stereoscopic image creation device |
-
2021
- 2021-06-10 JP JP2023526751A patent/JPWO2022259457A1/ja active Pending
- 2021-06-10 WO PCT/JP2021/022095 patent/WO2022259457A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008099589A1 (en) * | 2007-02-13 | 2008-08-21 | Panasonic Corporation | Image processing system, method, device and image format |
JP2010279044A (en) * | 2008-12-25 | 2010-12-09 | Panasonic Corp | Image processor and pseudo-stereoscopic image creation device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022259457A1 (en) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | Robust radiometric calibration and vignetting correction | |
US10260866B2 (en) | Methods and apparatus for enhancing depth maps with polarization cues | |
US10410397B2 (en) | Picture presentation method and apparatus | |
CN101673395B (en) | Image mosaic method and image mosaic device | |
US7948514B2 (en) | Image processing apparatus, method and computer program for generating normal information, and viewpoint-converted image generating apparatus | |
Hughes et al. | Equidistant fish-eye calibration and rectification by vanishing point extraction | |
Lee et al. | Automatic upright adjustment of photographs with robust camera calibration | |
WO2018068719A1 (en) | Image stitching method and apparatus | |
US20150170400A1 (en) | Depth map generation using bokeh detection | |
JP2016133396A (en) | Normal information generation device, image-capturing device, normal information generation method, and normal information generation program | |
US20090214107A1 (en) | Image processing apparatus, method, and program | |
TWI529661B (en) | Method of quickly building up depth map and image processing device | |
CN111080669B (en) | Image reflection separation method and device | |
Tingdahl et al. | A public system for image based 3d model generation | |
US8749652B2 (en) | Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof | |
Taamazyan et al. | Shape from mixed polarization | |
Ying et al. | Self-calibration of catadioptric camera with two planar mirrors from silhouettes | |
JP6580761B1 (en) | Depth acquisition apparatus and method using polarization stereo camera | |
WO2022259457A1 (en) | Shape estimation device, shape estimation method, and program | |
CN109325912A (en) | Reflective separation method and calibration split system based on polarised light light field | |
Lyu et al. | Physics-guided reflection separation from a pair of unpolarized and polarized images | |
JP6550102B2 (en) | Light source direction estimation device | |
Illgner et al. | Lightfield imaging for industrial applications | |
JP5086120B2 (en) | Depth information acquisition method, depth information acquisition device, program, and recording medium | |
US11651475B2 (en) | Image restoration method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21945133 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023526751 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |