WO2022259457A1 - Shape estimation device, shape estimation method, and program - Google Patents

Shape estimation device, shape estimation method, and program Download PDF

Info

Publication number
WO2022259457A1
WO2022259457A1 PCT/JP2021/022095 JP2021022095W WO2022259457A1 WO 2022259457 A1 WO2022259457 A1 WO 2022259457A1 JP 2021022095 W JP2021022095 W JP 2021022095W WO 2022259457 A1 WO2022259457 A1 WO 2022259457A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
polarization
refraction
shape
feature
Prior art date
Application number
PCT/JP2021/022095
Other languages
French (fr)
Japanese (ja)
Inventor
裕之 石原
孝之 仲地
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2023526751A priority Critical patent/JPWO2022259457A1/ja
Priority to PCT/JP2021/022095 priority patent/WO2022259457A1/en
Publication of WO2022259457A1 publication Critical patent/WO2022259457A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

This shape estimation device comprises: a polarization camera 10 for capturing a first image of a subject with no transparent refractive layer interposed between the camera 10 and the subject and a second image of the subject with a refractive layer interposed between the camera 10 and the subject; a feature value acquisition unit 20 for applying a feature point tracking method to the first image and second image and thereby acquiring a distortion vector Δg that is a feature value representing variation in geometric appearance resulting from refraction; a first estimation unit 30 for acquiring, from the second image, brightness value pairs respectively corresponding to at least three different polarization angles and estimating polarization feature values Imax, Imin, Ψ; a second estimation unit 40 for estimating two (ni +, ni -) candidates for normal vectors ni of the refractive layer to be estimated using the polarization feature values; and a refractive surface generation unit 50 for using the distortion vector Δg to select one normal vector candidate from among the normal vector candidates ni +, ni - and generating three-dimensional refractive surface shape information representing the surface shape of the refractive layer.

Description

形状推定装置、形状推定方法、及びプログラムShape estimation device, shape estimation method, and program
 本発明は、水面、空気ゆらぎ等の透明な屈折層の3次元形状を画像から推定する形状推定装置、形状推定方法、及びプログラムに関する。 The present invention relates to a shape estimation device, a shape estimation method, and a program for estimating the three-dimensional shape of transparent refraction layers such as water surfaces and air fluctuations from images.
 画像中に映る物体の3次元形状を推定する技術は、ロボットビジョン、拡張現実、自動運転等の分野において特に重要である。  Technology for estimating the 3D shape of an object in an image is particularly important in fields such as robot vision, augmented reality, and autonomous driving.
 一般的な3次元形状推定では、カメラを複数台用意し、カメラの設置位置の違いに基づく見え方の違いから3次元形状を推定する。この従来の方法は、推定対象が不透明かつ拡散反射面であることを前提にしている。よって、水面のような透明な屈折面の形状を推定することはできない。 In general 3D shape estimation, multiple cameras are prepared and the 3D shape is estimated from the difference in appearance based on the difference in camera installation position. This conventional method assumes that the object to be estimated is an opaque and diffusely reflective surface. Therefore, it is not possible to estimate the shape of a transparent refracting surface such as a water surface.
 このような屈折面を対象にした3次元形状を推定するには、カメラ→屈折面→屈折面の背後にある被写体までの光の伝搬をモデル化する必要がある。しかし、一般に屈折面とその背後にある被写体の双方の3次元形状が未知である。また、屈折のモデルが複雑であるため、見通しの良い最適化問題として定式化することが困難である。 In order to estimate the three-dimensional shape of such a refracting surface, it is necessary to model the propagation of light from the camera to the refracting surface to the subject behind the refracting surface. However, the three-dimensional shape of both the refracting surface and the object behind it are generally unknown. Also, the complexity of the refraction model makes it difficult to formulate as a transparent optimization problem.
 そこで、非特許文献1は、1回の屈折が発生する場面の3次元形状の推定に最低2台のカメラが必要であることを理論的・実験的に開示している。また、非特許文献2は、屈折の有無による背景の見え方の違いを考慮することで1台のカメラで屈折面の3次元形状の推定が可能であることを開示している。また、非特許文献3は、偏光情報を用いた透明な面の3次元形状を推定する方法を開示している。 Therefore, Non-Patent Document 1 theoretically and experimentally discloses that at least two cameras are required to estimate the three-dimensional shape of a scene in which one refraction occurs. In addition, Non-Patent Document 2 discloses that it is possible to estimate the three-dimensional shape of a refracting surface with a single camera by taking into account the difference in appearance of the background due to the presence or absence of refraction. Non-Patent Document 3 discloses a method of estimating the three-dimensional shape of a transparent surface using polarization information.
 しかしながら、非特許文献1の方法では、カメラが最低2台必要であり、カメラ間の位置合わせ、時刻同期が必要である。また、非特許文献2では、最適化問題として定式化されるモデルが複雑であり、形状推定に長時間を要し大きな計算コストが必要である。また、非特許文献3では、予め推定対象の大まかな3次元形状が分かっている必要がある。 However, the method of Non-Patent Document 1 requires at least two cameras, and requires alignment and time synchronization between the cameras. In addition, in Non-Patent Document 2, the model formulated as the optimization problem is complicated, and shape estimation takes a long time, requiring a large calculation cost. Also, in Non-Patent Document 3, it is necessary to know a rough three-dimensional shape of an estimation target in advance.
 このように従来の技術は、複数のカメラ、大きな計算コスト、3次元形状が既知である等が必要であり、3次元形状を推定する技術として好適なものが無いという課題がある。 In this way, the conventional technology requires multiple cameras, a large calculation cost, and the 3D shape is known, etc., and there is a problem that there is no suitable technology for estimating the 3D shape.
 本発明は、この課題に鑑みてなされたものであり、単一カメラ、低計算量、事前学習データなしで、透明な屈折面の3次元形状の推定が可能な形状推定装置、形状推定方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of this problem. and to provide programs.
 本発明の一態様に係る形状推定装置は、透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラと、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する特徴量取得部と、前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する第1推定部と、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定する第2推定部と、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部とを備えることを要旨とする。 A shape estimating device according to an aspect of the present invention includes a polarizing camera that captures a first image of a subject when no transparent refractive layer is interposed and a second image of the subject when the refractive layer is interposed; a feature acquisition unit that acquires a distortion vector, which is a feature representing a change in geometric appearance due to refraction, by applying a feature point tracking method between the first image and the second image; and the second image. a first estimating unit that acquires sets of luminance values respectively corresponding to at least three different polarization angles from the a second estimating unit that estimates two candidates; and a refractive surface that selects one of the candidates for the normal vector using the distortion vector and generates refractive surface three-dimensional shape information representing the surface shape of the refractive layer. and a generator.
 また、本発明の一態様に係る屈折面3次元形状推定方法は、上記の屈折面3次元形状推定装置が行う屈折面3次元形状推定方法であって、偏光カメラは、透明な屈折層が介在しない場合の被写体の画像である第1画像と、前記屈折層が介在する場合の前記被写体の画像である第2画像を撮影し、特徴量取得部は、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得し、第1推定部は、前記第2画像から少なくとも3つの異なる角度と輝度値の組を取得して偏光の特徴量を推定し、第2推定部は、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定し、屈折面生成部は、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成することを要旨とする。 Further, a method for estimating a three-dimensional shape of a refraction surface according to an aspect of the present invention is a method for estimating a three-dimensional shape of a refraction surface, which is performed by the three-dimensional shape estimation device for a refraction surface, wherein the polarization camera has a transparent refraction layer interposed therebetween. A first image, which is an image of the subject when the refractive layer is not present, and a second image, which is an image of the subject when the refraction layer is present, are captured, and the feature amount acquisition unit obtains the first image and the second image. A distortion vector, which is a feature quantity representing a change in geometric appearance due to refraction, is obtained by applying a feature point tracking method between the two images, and a first estimating unit obtains at least three different angles and brightness from the second image. A second estimating unit estimates two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization by obtaining a set of values, and a refraction surface generating unit selects one of the candidates for the normal vector using the distortion vector, and generates refractive surface three-dimensional shape information representing the surface shape of the refractive layer.
 また、本発明の一態様に係るプログラムは、上記の屈折面3次元形状推定装置としてコンピュータを機能させるためのプログラムであることを要旨とする。 Also, a program according to one aspect of the present invention is summarized as a program for causing a computer to function as the above-described refractive surface three-dimensional shape estimation device.
 本発明によれば、単一カメラ、低計算量、事前学習データなしで、透明な屈折面の3次元形状の推定が可能である。 According to the present invention, it is possible to estimate the three-dimensional shape of a transparent refractive surface with a single camera, low computational complexity, and no pre-learning data.
本発明の実施形態に係る形状推定装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a shape estimating device concerning an embodiment of the present invention. 図1に示す形状推定装置と、被写体と、透明な屈折層との関係を模式的に示す図である。2 is a diagram schematically showing the relationship between the shape estimation device shown in FIG. 1, a subject, and a transparent refractive layer; FIG. 偏光の変化のモデル化を模式的に示す図であり、(a)は法線ベクトルと屈折層で反射される光を示す、(b)は天頂角と偏光度の関係を示す図である。FIG. 4 is a diagram schematically showing modeling of changes in polarization, where (a) shows the normal vector and light reflected by the refraction layer, and (b) shows the relationship between the zenith angle and the degree of polarization. 方位角と画像の明るさの関係を模式的に示す図である。FIG. 4 is a diagram schematically showing the relationship between the azimuth angle and the brightness of an image; 幾何学的変化のモデル化を模式的に示す図である。FIG. 4 schematically illustrates modeling of geometrical changes; 屈折面3次元形状情報の例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of refracting surface three-dimensional shape information; 図1に示す形状推定装置が行う形状推定方法の処理手順を示すフローチャートである。1. It is a flowchart which shows the processing procedure of the shape estimation method which the shape estimation apparatus shown in FIG. 1 performs. 汎用的なコンピュータシステムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a general-purpose computer system; FIG.
 以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same items in multiple drawings, and the description will not be repeated.
 図1は、本発明の実施形態に係る形状推定装置の機能構成例を示すブロック図である。図1に示す形状推定装置100は、被写体との間に介在する透明な屈折層の3次元形状を推定する装置である。 FIG. 1 is a block diagram showing a functional configuration example of a shape estimation device according to an embodiment of the present invention. A shape estimation device 100 shown in FIG. 1 is a device for estimating the three-dimensional shape of a transparent refraction layer interposed between a subject.
 形状推定装置100は、偏光カメラ10、特徴量取得部20、第1推定部30、第2推定部40、及び屈折面生成部50を備える。偏光カメラ10を除く各機能構成部は、例えばROM、RAM、CPU等からなるコンピュータで実現することができる。その場合、その処理内容はプログラムによって記述される。 The shape estimation device 100 includes a polarization camera 10 , a feature quantity acquisition unit 20 , a first estimation unit 30 , a second estimation unit 40 , and a refractive surface generation unit 50 . Each functional component except for the polarization camera 10 can be realized by a computer including ROM, RAM, CPU, and the like. In that case, the content of the processing is described by the program.
 偏光カメラ10は一般的な偏光カメラである。偏光カメラ10は、例えば異なる4つの偏光角度の偏光子(偏光フィルタ)が組み込まれている。 The polarization camera 10 is a general polarization camera. The polarization camera 10 incorporates, for example, polarizers (polarization filters) with four different polarization angles.
 偏光カメラ10は、透明な屈折層が介在しない場合の被写体の画像である第1画像と、屈折層が介在する場合の被写体の画像である第2画像を撮影する。透明な屈折層は、水面、空気のゆらぎ層等のことである。 The polarization camera 10 captures a first image that is an image of the subject without a transparent refractive layer and a second image that is an image of the subject with a refractive layer interposed. A transparent refraction layer is a surface of water, a fluctuation layer of air, or the like.
 特徴量取得部20は、偏光カメラ10で撮影した第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する。特徴点追跡手法は、例えばオプティカルフローである。 The feature quantity acquisition unit 20 applies a feature point tracking method between the first image and the second image captured by the polarizing camera 10 to obtain a distortion vector, which is a feature quantity representing a geometric change in appearance due to refraction. get. The feature point tracking method is, for example, optical flow.
 第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する。偏光の特徴量は、偏光度(Degree of Polarization)である。詳しくは後述する。 The first estimating unit 30 acquires sets of luminance values respectively corresponding to at least three different polarization angles from the second image and estimates the polarization feature amount. The characteristic quantity of polarization is the degree of polarization. Details will be described later.
 第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルの候補を2つ推定する。つまり、偏光の変化の法線ベクトルの候補を2つに絞り込む。 The second estimation unit 40 estimates two candidates for the normal vector of the refraction layer to be estimated using the polarization feature amount. In other words, the candidates for the normal vector of the change in polarization are narrowed down to two.
 屈折面生成部50は、歪みベクトルを用いて法線ベクトルの候補から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。法線ベクトルは、第2画像の画素の接線に直交するベクトルである。第2画像の屈折層が映った画素の法線ベクトルから屈折層の表面形状を表す屈折面3次元形状情報を生成することができる。 The refraction surface generation unit 50 selects one of the normal vector candidates using the distortion vector, and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer. A normal vector is a vector orthogonal to a tangent to a pixel in the second image. Refraction surface three-dimensional shape information representing the surface shape of the refraction layer can be generated from the normal vectors of the pixels in which the refraction layer is reflected in the second image.
 図2は、形状推定装置100と、被写体(背景)と、透明な屈折層(推定したい屈折面)との関係を模式的に示す図である。図2は、偏光カメラ10を構成するイメージセンサと偏光フィルタのみを示す。 FIG. 2 is a diagram schematically showing the relationship between the shape estimation device 100, the subject (background), and the transparent refraction layer (refraction surface to be estimated). FIG. 2 shows only an image sensor and a polarizing filter that constitute the polarizing camera 10 .
 図2に示す短冊形状のイメージセンサは、例えば数百万画素を備えるCMOSイメージセンサである。画像平面上の画素iは、背景から屈折層を通過して来た光を偏光フィルタ越しに受光する。 The strip-shaped image sensor shown in FIG. 2 is, for example, a CMOS image sensor with millions of pixels. Pixel i on the image plane receives light through the polarizing filter from the background through the refractive layer.
 偏光フィルタは、異なる4つの偏光角度を備えイメージセンサの前に配置される。4つの偏光角度を備えるのは一般的である。 A polarizing filter with four different polarization angles is placed in front of the image sensor. It is common to have four polarization angles.
 形状推定装置100は、入射光の方向を光軸Zとした場合に、画素iの接線に直交するベクトルである法線ベクトルnの方位角φと仰角θを画素i毎に推定して屈折層の表面形状を推定する。以降、形状推定装置100の各機能構成部について説明する。 The shape estimating apparatus 100 estimates the azimuth angle φ and the elevation angle θ of the normal vector n i , which is a vector orthogonal to the tangent line of the pixel i, for each pixel i when the direction of the incident light is the optical axis Zc. Estimate the surface shape of the refractive layer. Hereinafter, each functional component of the shape estimation device 100 will be described.
 なお、画像平面と偏光フィルタの平面が平行である場合、法線ベクトルnの方位角φと、偏光角度は幾何学的に同じ意味をもつため、以降、方位角と偏光角度を同じ変数φとして説明する。 When the image plane and the plane of the polarizing filter are parallel, the azimuth angle φ of the normal vector n i and the polarization angle have the same meaning geometrically. described as.
 (第1推定部)
 第1推定部30は、屈折層が介在する場合の被写体の第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する。
(First estimation unit)
The first estimating unit 30 obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image of the subject in the case where the refraction layer is interposed, and estimates the polarization feature amount.
 偏光角度と輝度値の間に次式に示す関係が成立する。 The relationship shown in the following formula holds between the polarization angle and the luminance value.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 ここで偏光の特徴量はImax,Imin,Ψである。偏光の特徴量は、3つ以上の異なる偏光角度と輝度値の組から推定することができる。 Here, the polarization features are I max , I min , and Ψ. A polarization feature can be estimated from three or more different sets of polarization angles and luminance values.
 偏光の特徴量Imax,Imin,Ψを用いることで、偏光状態を表すストークスベクトルsは次式で表せる。 By using the polarization feature quantities I max , I min , and Ψ, the Stokes vector s representing the polarization state can be expressed by the following equation.
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002
 ストークスベクトルsの変化は、変化前のストークスベクトルにミュラー行列Mをかけることで表すことができる。つまり、変化前のストークスベクトルをsin、変化後のストークスベクトルをsoutとするとき、sout=M・sinとなる。 A change in the Stokes vector s can be represented by multiplying the Stokes vector before change by the Mueller matrix M. That is, s out =M·s in , where sin is the Stokes vector before change and s out is the Stokes vector after change.
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003
 ここでTsはフレネルの透過係数(入射面に水平な成分)、Ttはフレネル透過係数(入射面に垂直な成分)である。 Here, Ts is the Fresnel transmission coefficient (component horizontal to the plane of incidence), and Tt is the Fresnel transmission coefficient (component perpendicular to the plane of incidence).
 偏光の変化の度合いを表す偏光度ρ(Degree of Polarization)は次式で表せる。 The degree of polarization ρ (Degree of Polarization), which indicates the degree of change in polarization, can be expressed by the following formula.
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000004
 特にsinが非偏光の場合は次式で表せる。 In particular, when sin is non-polarized, it can be expressed by the following equation.
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005
 式(7)は、一見複雑であるが、単調増加関数であり凸最適化問題として定式化が可能である。よって、法線ベクトルnの仰角θは、偏光度の観測値から一意に推定できる。 Equation (7) is seemingly complicated, but it is a monotonically increasing function and can be formulated as a convex optimization problem. Therefore, the elevation angle θ of the normal vector n i can be uniquely estimated from the observed value of the degree of polarization.
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006
 図3は、偏光の変化のモデル化を模式的に示す図であり、(a)は法線ベクトルnと屈折層で反射される光を示す、(b)は天頂角と偏光度の関係を示す図である。 FIG. 3 is a diagram schematically showing the modeling of the change in polarization, (a) showing the normal vector n i and the light reflected by the refracting layer, and (b) the relationship between the zenith angle and the degree of polarization. It is a figure which shows.
 図3(a)において、sinは屈折面(屈折層の表面)に入射する光、soutは偏光カメラ10が撮影する光を表す。 In FIG. 3A, s in represents light incident on the refractive surface (surface of the refractive layer), and s out represents light captured by the polarization camera 10 .
 図3(b)の横軸は天頂角、縦軸は偏光度を表す、図3(b)に示すように仰角θが分かれば偏光度ρは一意に求まる。 In FIG. 3(b), the horizontal axis represents the zenith angle and the vertical axis represents the degree of polarization. As shown in FIG. 3(b), if the elevation angle θ is known, the degree of polarization ρ can be uniquely determined.
 (第2推定部)
 第2推定部40は、偏光の特徴量を用いて推定したい屈折層(屈折面(屈折層の表面))の法線ベクトルnの候補を2つ推定する。
(Second estimation unit)
The second estimator 40 estimates two candidates for the normal vector n i of the refraction layer (refraction surface (surface of the refraction layer)) to be estimated using the polarization feature amount.
 画像平面と偏光フィルタの平面が平行である場合、法線ベクトルnの方位角φは偏光角Ψ(輝度値が最大になる偏光角度)と一致する。なお、偏光フィルタを1回転する場合、輝度値が最大に成る角度は2つあるため、180°の曖昧性が残る。 When the image plane and the plane of the polarizing filter are parallel, the azimuth angle φ of the normal vector n i coincides with the polarization angle Ψ (polarization angle at which the luminance value is maximized). When the polarizing filter is rotated once, the ambiguity of 180° remains because there are two angles at which the luminance value is maximized.
 図4は、方位角φと輝度値の関係を模式的に示す図である。図4の横軸は方位角φ、縦軸は画像の明るさI(φ)を示す。図4に示すように輝度値I(φ)は、2つの最大値を持つ。 FIG. 4 is a diagram schematically showing the relationship between the azimuth angle φ and the luminance value. The horizontal axis of FIG. 4 indicates the azimuth angle φ, and the vertical axis indicates the image brightness I(φ). As shown in FIG. 4, the luminance value I(φ) has two maximum values.
 よって、法線ベクトルnの候補は次の2つに絞られる。 Therefore, the candidates for the normal vector n i are narrowed down to the following two.
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000007
 (特徴量取得部)
 透明な屈折層が介在しない場合の被写体の第1画像と屈折層が介在する場合の被写体の第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する。
(Feature quantity acquisition unit)
A feature point tracking technique is applied between a first image of an object without a transparent refractive layer and a second image of the object with a refractive layer to represent the geometric change in appearance due to refraction. Acquire a distortion vector, which is a feature quantity.
 図5は、幾何学的変化のモデル化を模式的に示す図である。図5に示すvは、偏光カメラ10側の光線空間を表す。μは相対屈折率である。また、vは屈折光の方向ベクトルである。 FIG. 5 is a diagram schematically showing modeling of geometric changes. v f shown in FIG. 5 represents the ray space on the polarization camera 10 side. μ is the relative refractive index. Also, vr is the direction vector of the refracted light.
 屈折光の方向ベクトルvは次式で表せる。 The direction vector v r of the refracted light can be expressed by the following equation.
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008
 屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔは次式で表せる。 A distortion vector Δg , which is a feature quantity representing a change in geometric appearance due to refraction, can be expressed by the following equation.
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000009
 (屈曲面生成部)
 屈折面生成部50は、歪みベクトルΔを用いて法線ベクトルnの候補n ,n から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。
(Bending surface generator)
The refraction surface generator 50 selects one of the candidates n i + and n i for the normal vector n i using the strain vector Δ g and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer. do.
 屈折面生成部50は、偏光の制約から絞り込んだ法線ベクトルnの候補n ,n より、次式の最適解を解くことで屈折面3次元形状情報を生成する。 The refractive surface generation unit 50 generates refractive surface three-dimensional shape information by solving the optimum solution of the following equation from the candidates n i + and n i of the normal vector n i narrowed down from the polarization constraint.
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000010
 式(12)の最適解を解く計算は全ての画素iについて行う。 The calculation for solving the optimum solution of Equation (12) is performed for all pixels i.
 図6は、屈折面3次元形状情報の例を模式的に示す図である。図6に示すように3次元形状情報を生成することができる。 FIG. 6 is a diagram schematically showing an example of refracting surface three-dimensional shape information. Three-dimensional shape information can be generated as shown in FIG.
 (形状推定方法)
 図7は、形状推定装置100が行う形状推定方法の処理手順を示すフローチャートである。
(Shape estimation method)
FIG. 7 is a flow chart showing the processing procedure of the shape estimation method performed by the shape estimation device 100. As shown in FIG.
 先ず偏光カメラ10は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の被写体の第2画像を撮影する(ステップS1)。 First, the polarization camera 10 captures a first image of the subject without a transparent refraction layer and a second image of the subject with a refraction layer (step S1).
 次に、第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定する(ステップS2)。 Next, the first estimator 30 acquires sets of luminance values respectively corresponding to at least three different polarization angles from the second image, and estimates polarization feature quantities I max , I min , and Ψ (step S2). .
 次に、第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルnの候補を2つ(n ,n )推定する(ステップS3)。 Next, the second estimating unit 40 estimates two (n i + , n i ) candidates for the normal vector n i of the refraction layer to be estimated using the polarization feature amount (step S3).
 次に、特徴量取得部20は、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔを取得する(ステップS4)。 Next, the feature amount acquisition unit 20 applies a feature point tracking method between the first image and the second image to acquire a distortion vector Δg , which is a feature amount representing a geometric change in appearance due to refraction. (step S4).
 次に、屈折面生成部50は、歪みベクトルΔを用いて法線ベクトルnの候補n ,n から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する(ステップS5)。ステップS2~S5の処理は全ての画素iについて終了するまで繰り返される(ステップS6のNO)。 Next, the refractive surface generator 50 selects one of the candidates n i + and n i for the normal vector n i using the strain vector Δ g , Information is generated (step S5). The processing of steps S2 to S5 is repeated until all pixels i are completed (NO in step S6).
 ステップS2~S5の処理は、各画素に独立に処理されるため並列化が容易である。並列化することでより高速な3次元形状の推定が可能になる。 The processing of steps S2 to S5 can be easily parallelized because each pixel is processed independently. Parallelization enables faster 3D shape estimation.
 以上説明したように、本実施形態に係る形状推定装置100は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラ10と、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔを取得する特徴量取得部20と、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定する第1推定部30と、偏光の特徴量を用いて推定したい屈折層の法線ベクトルnの候補を2つ(n ,n )推定する第2推定部40と、歪みベクトルΔを用いて法線ベクトルnの候補n ,n から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部50とを備える。 As described above, the shape estimating apparatus 100 according to the present embodiment captures a first image of a subject without a transparent refraction layer and a second image of the subject with a refraction layer. A camera 10, and a feature acquisition unit 20 that acquires a distortion vector Δg , which is a feature representing a geometric change in appearance due to refraction, by applying a feature point tracking method between the first image and the second image. and a first estimating unit 30 that obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image to estimate the polarization feature amounts I max , I min , and Ψ; A second estimator 40 that estimates two (n i + , n i ) candidates for the normal vector n i of the refraction layer to be estimated using the distortion vector Δ g , and a candidate n for the normal vector n i using the distortion vector Δ g a refraction surface generator 50 that selects one from i + and n i and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer.
 また、本実施形態に係る形状推定方法は、形状推定装置100が行う形状推定方法であって、偏光カメラ10は、透明な屈折層が介在しない場合の被写体の第1画像と、屈折層が介在する場合の被写体の第2画像を撮影し、特徴量取得部20は、第1画像と第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルΔを取得し、第1推定部30は、第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量Imax,Imin,Ψを推定し、第2推定部40は、偏光の特徴量を用いて推定したい屈折層の法線ベクトルnの候補を2つ(n ,n )推定し、屈折面生成部50は、歪みベクトルΔを用いて法線ベクトルnの候補n ,n から1つを選択し、屈折層の表面形状を表す屈折面3次元形状情報を生成する。 Further, the shape estimation method according to the present embodiment is a shape estimation method performed by the shape estimation device 100, and the polarization camera 10 obtains the first image of the subject when no transparent refraction layer is interposed and the refraction layer is interposed. A second image of the subject is photographed in the case where the feature amount acquisition unit 20 applies a feature point tracking method between the first image and the second image to obtain a feature representing a change in geometric appearance due to refraction. The first estimating unit 30 obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image, and obtains the polarization feature quantities I max , I min , and Ψ is estimated, and the second estimating unit 40 estimates two (n i + , n i ) candidates for the normal vector n i of the refraction layer to be estimated using the polarization feature amount, and the refraction surface generation unit 50 selects one of normal vector n i candidates n i + and n i using the distortion vector Δ g to generate refractive surface three-dimensional shape information representing the surface shape of the refractive layer.
 なお、形状推定装置100は、図8に示す汎用的なコンピュータシステムで実現することができる。例えば、CPU90、メモリ91、ストレージ92、通信部93、入力部94、及び出力部95を備える汎用的なコンピュータシテムにおいて、CPU90がメモリ91上にロードされた所定のプログラムを実行することにより、形状推定装置100の各機能が実現される。所定のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。 Note that the shape estimation device 100 can be realized by a general-purpose computer system shown in FIG. For example, in a general-purpose computer system including a CPU 90, a memory 91, a storage 92, a communication unit 93, an input unit 94, and an output unit 95, the CPU 90 executes a predetermined program loaded on the memory 91 to obtain a shape. Each function of the estimation device 100 is realized. The prescribed program can be recorded on computer-readable recording media such as HDD, SSD, USB memory, CD-ROM, DVD-ROM, MO, etc., or can be distributed via a network.
 以上説明したように、本実施形態に係る形状推定装置100と形状推定方法は、従来実現できなかった、単一カメラ、低計算量、形状に関する事前知識なし(事前学習データなし)で、透明な屈折面の3次元形状の推定を可能にする。つまり、アプローチとして屈折による光の伝搬経路の幾何学的変化だけでなく、光学的な変化(偏光)を考慮した、モデルを構築することで、単一カメラのみで得られる情報から、屈折面形状の3次元形状に必要な制約を得ることができる。また、凸最適化問題として定式化が可能で、且つ解の探索範囲が狭くなることから、従来技術よりも低計算量で3次元形状の推定が可能になる。 As described above, the shape estimating apparatus 100 and the shape estimating method according to the present embodiment use a single camera, low computational complexity, no prior knowledge of shape (no prior learning data), and transparent Allows estimation of the three-dimensional shape of the refractive surface. In other words, as an approach, by constructing a model that takes into account not only the geometrical changes in the propagation path of light due to refraction, but also the optical changes (polarization), the shape of the refraction surface can be obtained from the information obtained with only a single camera. We can obtain the necessary constraints for the three-dimensional shape of In addition, since it can be formulated as a convex optimization problem and the search range for the solution is narrowed, it is possible to estimate a three-dimensional shape with a lower amount of calculation than in the prior art.
 なお、本発明は、ここでは記載していない様々な実施形態等を含む。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 It should be noted that the present invention includes various embodiments and the like that are not described here. Therefore, the technical scope of the present invention is defined only by the matters specifying the invention according to the valid scope of claims based on the above description.
10:偏光カメラ
20:特徴量取得部
30:第1推定部
40:第2推定部
50:屈折面生成部
100:形状推定装置
10: Polarization camera 20: Feature amount acquisition unit 30: First estimation unit 40: Second estimation unit 50: Refraction surface generation unit 100: Shape estimation device

Claims (3)

  1.  透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影する偏光カメラと、
     前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得する特徴量取得部と、
     前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定する第1推定部と、
     偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定する第2推定部と、
     前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する屈折面生成部と
     を備える形状推定装置。
    a polarizing camera that captures a first image of an object without an intervening transparent refractive layer and a second image of the object with an intervening transparent refractive layer;
    a feature acquisition unit that acquires a distortion vector, which is a feature representing a change in geometric appearance due to refraction, by applying a feature point tracking method between the first image and the second image;
    a first estimating unit that obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image and estimates a polarization feature amount;
    a second estimating unit that estimates two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization;
    a refraction surface generation unit that selects one of the candidates for the normal vector using the distortion vector and generates refraction surface three-dimensional shape information representing the surface shape of the refraction layer.
  2.  形状推定装置が行う形状推定方法であって、
     偏光カメラは、透明な屈折層が介在しない場合の被写体の第1画像と、前記屈折層が介在する場合の前記被写体の第2画像を撮影し、
     特徴量取得部は、前記第1画像と前記第2画像の間に特徴点追跡手法を適用して屈折による幾何学的な見え方の変化を表す特徴量である歪みベクトルを取得し、
     第1推定部は、前記第2画像から少なくとも3つの異なる偏光角度にそれぞれ対応する輝度値の組を取得して偏光の特徴量を推定し、
     第2推定部は、偏光の前記特徴量を用いて推定したい前記屈折層の法線ベクトルの候補を2つ推定し、
     屈折面生成部は、前記歪みベクトルを用いて法線ベクトルの前記候補から1つを選択し、前記屈折層の表面形状を表す屈折面3次元形状情報を生成する
     形状推定方法。
    A shape estimation method performed by a shape estimation device,
    a polarization camera capturing a first image of an object without an intervening transparent refractive layer and a second image of the object with an intervening transparent refractive layer;
    A feature amount acquisition unit applies a feature point tracking method between the first image and the second image to acquire a distortion vector, which is a feature amount representing a change in geometric appearance due to refraction,
    a first estimating unit obtains sets of luminance values respectively corresponding to at least three different polarization angles from the second image to estimate a polarization feature amount;
    a second estimating unit estimating two candidates for the normal vector of the refraction layer to be estimated using the characteristic amount of polarization;
    A shape estimation method, wherein a refractive surface generation unit selects one of the candidates for the normal vector using the distortion vector, and generates refractive surface three-dimensional shape information representing a surface shape of the refractive layer.
  3.  請求項1に記載の形状推定装置としてコンピュータを機能させるためのプログラム。
     
    A program for causing a computer to function as the shape estimation device according to claim 1 .
PCT/JP2021/022095 2021-06-10 2021-06-10 Shape estimation device, shape estimation method, and program WO2022259457A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023526751A JPWO2022259457A1 (en) 2021-06-10 2021-06-10
PCT/JP2021/022095 WO2022259457A1 (en) 2021-06-10 2021-06-10 Shape estimation device, shape estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022095 WO2022259457A1 (en) 2021-06-10 2021-06-10 Shape estimation device, shape estimation method, and program

Publications (1)

Publication Number Publication Date
WO2022259457A1 true WO2022259457A1 (en) 2022-12-15

Family

ID=84426025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022095 WO2022259457A1 (en) 2021-06-10 2021-06-10 Shape estimation device, shape estimation method, and program

Country Status (2)

Country Link
JP (1) JPWO2022259457A1 (en)
WO (1) WO2022259457A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099589A1 (en) * 2007-02-13 2008-08-21 Panasonic Corporation Image processing system, method, device and image format
JP2010279044A (en) * 2008-12-25 2010-12-09 Panasonic Corp Image processor and pseudo-stereoscopic image creation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099589A1 (en) * 2007-02-13 2008-08-21 Panasonic Corporation Image processing system, method, device and image format
JP2010279044A (en) * 2008-12-25 2010-12-09 Panasonic Corp Image processor and pseudo-stereoscopic image creation device

Also Published As

Publication number Publication date
JPWO2022259457A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
Kim et al. Robust radiometric calibration and vignetting correction
US10260866B2 (en) Methods and apparatus for enhancing depth maps with polarization cues
US10410397B2 (en) Picture presentation method and apparatus
CN101673395B (en) Image mosaic method and image mosaic device
US7948514B2 (en) Image processing apparatus, method and computer program for generating normal information, and viewpoint-converted image generating apparatus
Hughes et al. Equidistant fish-eye calibration and rectification by vanishing point extraction
Lee et al. Automatic upright adjustment of photographs with robust camera calibration
WO2018068719A1 (en) Image stitching method and apparatus
US20150170400A1 (en) Depth map generation using bokeh detection
JP2016133396A (en) Normal information generation device, image-capturing device, normal information generation method, and normal information generation program
US20090214107A1 (en) Image processing apparatus, method, and program
TWI529661B (en) Method of quickly building up depth map and image processing device
CN111080669B (en) Image reflection separation method and device
Tingdahl et al. A public system for image based 3d model generation
US8749652B2 (en) Imaging module having plural optical units in which each of at least two optical units include a polarization filter and at least one optical unit includes no polarization filter and image processing method and apparatus thereof
Taamazyan et al. Shape from mixed polarization
Ying et al. Self-calibration of catadioptric camera with two planar mirrors from silhouettes
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
WO2022259457A1 (en) Shape estimation device, shape estimation method, and program
CN109325912A (en) Reflective separation method and calibration split system based on polarised light light field
Lyu et al. Physics-guided reflection separation from a pair of unpolarized and polarized images
JP6550102B2 (en) Light source direction estimation device
Illgner et al. Lightfield imaging for industrial applications
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
US11651475B2 (en) Image restoration method and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21945133

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023526751

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE