JP6989153B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP6989153B2 JP6989153B2 JP2019545589A JP2019545589A JP6989153B2 JP 6989153 B2 JP6989153 B2 JP 6989153B2 JP 2019545589 A JP2019545589 A JP 2019545589A JP 2019545589 A JP2019545589 A JP 2019545589A JP 6989153 B2 JP6989153 B2 JP 6989153B2
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- combination
- specified
- points
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Description
本発明は、複数の画像からの三次元形状の構築を可能にするための、画像処理装置、及び画像処理方法に関し、更には、これらを実現させるためのプログラムに関する。 The present invention relates to an image processing apparatus and an image processing method for enabling the construction of a three-dimensional shape from a plurality of images, and further relates to a program for realizing these.
近年、画像に写っている対象の三次元形状を構築する技術が注目されている。このような技術の代表例としては、SfM(Structure from Motion)が知られている。SfMでは、特定の対象をカメラの視点を変えながら複数回撮影し、得られた複数枚の画像から、特定の対象の三次元形状が復元される。 In recent years, attention has been paid to a technique for constructing a three-dimensional shape of an object shown in an image. SfM (Structure from Motion) is known as a typical example of such a technique. In SfM, a specific object is photographed a plurality of times while changing the viewpoint of the camera, and the three-dimensional shape of the specific object is restored from the obtained plurality of images.
具体的には、まず、SfMでは、画像毎に、その特徴量(例えば、SIFT特徴量、SURF特徴量)が計算され、画像の拡大縮小、回転、及び照度変化に強いロバストネスな特徴点が抽出される。次に、画像間で、抽出した特徴点のマッチングが実行され、一致する特徴点のペアが抽出される。次に、例えば、ロバスト推定(Robust Estimation)によって、特徴点ペアの幾何学的な関係が計算され、誤った特徴点ペアが除外される。 Specifically, first, in SfM, the feature amount (for example, SIFT feature amount, SURF feature amount) is calculated for each image, and robustness feature points that are resistant to image enlargement / reduction, rotation, and illuminance change are extracted. Will be done. Next, matching of the extracted feature points is executed between the images, and a pair of matching feature points is extracted. Robust estimation, for example, then calculates the geometric relationships of the feature point pairs and excludes the erroneous feature point pairs.
その後、幾つかの特徴点ペア毎に、これらの幾何学的な関係に基づいて、Fundamental行列が算出され、算出された各Fundamental行列間での差が最も少なくなるように、特徴点ペア毎の幾何学的な関係が調整される。そして、調整後の幾何学的な関係に基づいて、三次元形状(点群)が再構築される。なお、この時の誤差の調整方法としては、Bundle Adjustmentと呼ばれる処理手法が挙げられる。 Then, for each of several feature point pairs, a Fundamental matrix is calculated based on these geometric relationships, and for each feature point pair so that the difference between each calculated Fundamental matrix is the smallest. Geometric relationships are adjusted. Then, the three-dimensional shape (point cloud) is reconstructed based on the adjusted geometrical relationship. As a method of adjusting the error at this time, a processing method called Bundle Adjustment can be mentioned.
ところで、上述のSfMでは、マッチングに間違いが発生する場合があり、この場合、異なる特徴点間でペアが抽出されてしまい、復元される三次元形状の精度が低下してしまう。また、抽出された特徴点のペアが少なかったり、マッチングがうまく行かなかったりして、特徴点ペアが少ない領域が発生する場合がある。この場合も、復元される三次元形状の精度が低下してしまう。 By the way, in the above-mentioned SfM, an error may occur in matching, and in this case, a pair is extracted between different feature points, and the accuracy of the restored three-dimensional shape is lowered. In addition, there may be a region where the number of extracted feature point pairs is small or the matching is not successful, resulting in a small number of feature point pairs. In this case as well, the accuracy of the restored three-dimensional shape is reduced.
これに対して、特許文献1は、対応する特徴点の位置を補正するシステムを開示している。具体的には、特許文献1に開示されたシステムは、まず、2枚の画像をそれぞれのエピポーラ線が走査線に平行となるよう配置し、走査線毎に、各画像から対応する特徴点を抽出する。
On the other hand,
次に、このシステムは、ユーザーによる各画像上への対応する箇所を指定する線分の入力を受け付ける。そして、システムは、走査線上の対応する各特徴点が、この走査線と入力された線分との交点に一致しているかどうかを判定し、一致していない場合は、各特徴点の位置を交点の位置に補正する。その後、システムは、位置が補正された特徴点を用いて、三次元形状の再構築を実行する。 The system then accepts a user input of a line segment that specifies a corresponding location on each image. The system then determines whether each corresponding feature point on the scan line coincides with the intersection of this scan line with the input line segment, and if not, determines the position of each feature point. Correct to the position of the intersection. The system then performs a 3D shape reconstruction using the position-corrected feature points.
このように、特許文献1に開示されたシステムによれば、間違った特徴点ペアが抽出されてしまうという問題、及び特徴点ペアが少ない領域が発生するという問題が解消されるので、復元される三次元形状の精度が低下するという問題が解消される。
As described above, according to the system disclosed in
しかしながら、特許文献1に開示されたシステムでは、特徴点の位置の補正は、2枚の画像のエピポーラ線に沿った走査線上でしか行われないので、同一の走査線上にない間違った特徴点ペアについて補正されることはない。このため、特許文献1に開示されたシステムでは、間違った特徴点ペアの修正が不十分であり、復元される三次元形状の精度の低下を抑制することが困難となる。
However, in the system disclosed in
本発明の目的の一例は、上記問題を解消し、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制しうる、画像処理装置、画像処理方法、及びプログラムを提供することにある。 An example of an object of the present invention is an image processing apparatus, an image processing method, which can solve the above problem and suppress extraction of an erroneous combination of feature points when extracting a combination of corresponding feature points from a plurality of images. And to provide the program.
上記目的を達成するため、本発明の一側面における画像処理装置は、複数の画像から三次元形状を構築するための装置であって、
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備えている、ことを特徴とする。In order to achieve the above object, the image processing apparatus according to one aspect of the present invention is an apparatus for constructing a three-dimensional shape from a plurality of images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
When two or more line segments or two or more points corresponding to each other are specified on at least two of the plurality of images, the geometrical relationship between the two or more line segments corresponding to each other, or each other. A matrix calculation unit that identifies a geometric relationship between two or more corresponding points and calculates a numerical matrix that expresses the specified geometric relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における画像処理方法は、複数の画像から三次元形状を構築するための方法であって、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有する、ことを特徴とする。Further, in order to achieve the above object, the image processing method in one aspect of the present invention is a method for constructing a three-dimensional shape from a plurality of images.
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
It is characterized by having.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、複数の画像から三次元形状を構築するためのプログラムであって、
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to an aspect of the present invention, by a computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Allowed to run and wherein the Turkey.
以上のように、本発明によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制することができる。 As described above, according to the present invention, when extracting the combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points.
(実施の形態)
以下、本発明の実施の形態における、画像処理装置、画像処理方法、及びプログラムについて、図1〜図7を参照しながら説明する。(Embodiment)
Hereinafter, the image processing apparatus, the image processing method, and the program according to the embodiment of the present invention will be described with reference to FIGS. 1 to 7.
[装置構成]
最初に、図1を用いて、本実施の形態における画像処理装置の概略構成について説明する。図1は、本発明の実施の形態における画像処理装置の概略構成を示すブロック図である。[Device configuration]
First, the schematic configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.
図1に示すように、本実施の形態における画像処理装置10は、複数の画像から三次元形状を構築する装置である。画像処理装置10には、処理対象となる複数枚の画像の画像データが入力される。
As shown in FIG. 1, the
また、図1に示すように、画像処理装置10は、特徴点抽出部11と、行列算出部12と、形状構築部13とを備えている。このうち、特徴点抽出部11は、複数の画像それぞれから、対応する特徴点の組合せを抽出する。
Further, as shown in FIG. 1, the
行列算出部12は、複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定する。そして、行列算出部12は、特定した幾何学的関係を表現する数値行列を算出する。
When the
形状構築部13は、行列算出部12によって算出された数値行列を用いて、抽出された特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する特徴点の組合せを特定する。そして、形状構築部13は、特定した特徴点の組合せ以外の特徴点の組合せを用いて、三次元形状を構築する。
The
このように、本実施の形態では、指定された2以上の線分又は点から特定された幾何学的関係から、間違った特徴点の組合せが特定されるので、同一の走査線上にない間違った特徴点の組合せも排除できる。本実施の形態によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制でき、復元される三次元形状の精度を向上させることができる。 Thus, in the present embodiment, since the wrong combination of feature points is specified from the geometric relationship specified from the specified two or more line segments or points, the wrong combination that is not on the same scanning line is wrong. The combination of feature points can also be excluded. According to the present embodiment, when extracting a combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of a combination of wrong feature points and improve the accuracy of the restored three-dimensional shape.
続いて、図2〜図5を用いて、本実施の形態における画像処理装置10の構成についてより具体的に説明する。図2は、本発明の実施の形態における画像処理装置の具体的構成を示すブロック図である。
Subsequently, the configuration of the
図2に示すように、画像処理装置10は、本実施の形態では、特徴点抽出部11、行列算出部12、及び形状構築部13に加えて、画像取得部14と、フィルタリング部15と、入力受付部16と、表示部17とを更に備えている。
As shown in FIG. 2, in the present embodiment, the
画像取得部14は、外部の装置、例えば、撮像装置、端末装置、画像データを保持している記憶装置等から、三次元形状の構築対象が写った複数の画像それぞれの画像データを取得する。図3は、本実施の形態で処理対象となる複数の画像の一例を示す図である。図3の例では、ペア画像が例示されているが、本実施の形態において対象となる画像の枚数は特に限定されるものではない。
The
特徴点抽出部11は、本実施の形態では、画像毎に、例えば、SIFT特徴量、又はSURF特徴量を計算して特徴点を特定し、更に、画像間で対応する特徴点同士を、対応する特徴点の組合せとして抽出する。なお、図3の例では、画像が2枚であるため、特徴点の組合せは、特徴点ペアである。また、図3において、丸で囲まれた部分が特徴点の一つである。
In the present embodiment, the feature
フィルタリング部15は、特徴点の組合せ毎に、特徴点間の幾何学的な関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した特徴点の組合せを排除する。フィルタリング部15によるフィルタリング処理は、従来と同様に、ロバスト推定を用いて行われる。本実施の形態では、後述する形状構築部13によるフィルタリングに加えて、フィルタリング部15によるフィルタリングも行われるので、より確実に間違った特徴点の組合せが排除される。
The
入力受付部16は、処理対象となる各画像上において互いに対応する線分又は点が指定されると、指定された線分又は点の入力を受け付ける。また、入力受付部16は、各画像上で互いに対応する線分の入力を受け付けた場合は各線分の情報(始点及び終点の座標)を、互いに対応する点の入力を受け付けた場合は各点の情報(座標)を、行列算出部12に通知する。なお、線分又は点の指定は、画像処理装置10のユーザーによって行われても良いし、別の計算機によって行われても良い。
When the line segment or point corresponding to each other is designated on each image to be processed, the
行列算出部12は、入力受付部16から各画像上の線分又は点の情報が通知されると、通知された情報に基づいて、線分間又は点間の幾何学的関係を特定し、特定した幾何学的関係を表現する数値行列を算出し、この数値行列を絶対的数値行列として定義する。行列算出部12は、入力受付部16から通知された各画像上の線分又は点の情報から数値行列が算出出来ない、または画像によっては線分又は点の情報が存在しない場合には、特徴点抽出部11で抽出されフィルタリング部15で残った誤差の少ない特徴点の組み合わせから数値行列を算出することも出来る。ただし、この場合算出される数値行列は従来と同様の数値行列であり、絶対的数値行列ではない。
When the
ここで、図4を用いて、行列算出部12における処理についてより具体的に説明する。図4は、本発明の実施の形態における行列算出部による処理を説明する図である。図4において、Eはエピポーラ面を示し、Oiは一方の画像のカメラの中心位置を示し、O’iは他方の画像のカメラの中心位置を示している。また、図4において、左右に示された並行四辺形はそれぞれ画像のフレームを示している。Here, the process in the
また、図4の例では、一方の画像において線分Lが指定され、他方の画像において線分L’が指定されており、両線分は対応している。この場合において、線分Lにおいて、その始点と交わるエピポーラ線lnと、終点で交わるエピポーラ線ln+mとを絶対的エピポーラ線として定義し、線分L‘においても、その始点と交わるエピポーラ線l’nと、終点で交わるエピポーラ線l’n+mとを絶対的エピポーラ線として定義する。Further, in the example of FIG. 4, a line segment L is designated in one image and a line segment L'is designated in the other image, and both line segments correspond to each other. In this case, in the line segment L, the epipolar line l n intersecting the start point and the epipolar line l n + m intersecting at the end point are defined as absolute epipolar lines, and in the line segment L', the epipolar line l intersecting the start point is also defined. ' N and the epipolar line l'n + m that intersects at the end point are defined as an absolute epipolar line.
更に、線分Lと絶対的エピポーラ線lnとの交点xiと、線分Lと絶対的エピポーラ線l’nとの交点x’iとは、絶対的な特徴点の組合せとして定義する。また、線分Lと絶対的エピポーラ線ln+mとの交点xjと、線分L’と絶対的エピポーラ線l’n+mとの交点x’jも、絶対的な特徴点の組合せとして定義する。Furthermore, the intersection x i between the line segment L and the absolute epipolar line l n, the i 'intersection x of the n' segment L and absolute epipolar line l, defined as a combination of absolute feature points. Further, the intersection x j of the line segment L and the absolute epipolar line l n + m, also the intersection x 'j' and absolute epipolar line l 'segment L and n + m, is defined as a combination of absolute feature points.
なお、図4に示すように、エピポーラ線lnとエピポーラ線ln+mとの間に、任意のエピポーラ線ln+1及びln+2が設定されていても良い。この場合、同様に、エピポーラ線l’nとエピポーラ線l’n+mとの間にも、任意のエピポーラ線l’n+1及びl’n+2が設定される。また、この場合、線分Lと新たに設定されたエピポーラ線ln+1及びln+2それぞれとの交点は、線分L’と新たに設定されたエピポーラ線l’n+1及びl’n+2それぞれとの交点との間で、絶対的な特徴点の組合せとなる。なお、エピポーラ線間の間隔は任意の値に設定される。As shown in FIG. 4, arbitrary epipolar lines l n + 1 and l n + 2 may be set between the epipolar lines l n and the epipolar lines l n + m. In this case, similarly, arbitrary epipolar lines l' n + 1 and l' n + 2 are set between the epipolar line l'n and the epipolar line l' n + m. Further, in this case, the intersection of the line segment L and the newly set epipolar lines l n + 1 and l n + 2 is the intersection of the line segment L'and the newly set epipolar lines l' n + 1 and l' n + 2, respectively. It is a combination of absolute feature points. The interval between epipolar lines is set to an arbitrary value.
従って、図4の例においては、行列算出部12は、線分間の幾何学的関係として、絶対的な特徴点の組合せを求め、求めた特徴点の組合せを用いて、下記の数1の関係式から、絶対的数値行列として、Fundamental行列(参照文献)を算出する。なお、下記の数1において、「x」は、三次元空間における点Xを一方の画像上に射影することによって得られた二次元上の点である。「x’」は、三次元空間における点Xを他方の画像上に射影することによって得られた二次元上の点である。Tは転置行列である。また、FはFundamental行列である。また、本実施の形態において数値行列は、Fundamental行列に限定されるものではなく、幾何学的関係を表現できる行列であれば良い。
Therefore, in the example of FIG. 4, the
(数1)
x’TFx=0(Number 1)
x 'T Fx = 0
参照文献:Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”,Cambridge University Press, March 2004. References: Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”, Cambridge University Press, March 2004.
形状構築部13は、本実施の形態では、まず、行列算出部12によって算出された数値行列(Fundamental行列)を用いて、特徴点抽出部11で抽出された特徴点の組合せ(フィルタリング部15で除外されたものを除く)から、幾何学的関係が矛盾する特徴点の組合せを排除する。その後、形状構築部13は、幾何学的関係が矛盾する特徴点の組合せが排除された特徴点の組合せを用いて、三次元形状を構築するが、その際、入力受付部16によって受け付けられた、対応する点、又は対応する線分上の点も、特徴点の組合せとして用いることができる。
In the present embodiment, the
また、形状構築部13は、特徴点抽出部11で抽出された特徴点の組合せ(フィルタリング部15で除外されたものを除く)の中から、指定された線分又は点に重なる特徴点を特定し、特定した特徴点を含む特徴点の組合せも排除することができる。これは、一方の線分又は点に重なる特徴点に対応する特徴点が、他方の線分又は点の上にないときは、この特徴点の組合せは間違っている可能性が高いからである。その後、形状構築部13は、残った特徴点の組合せを用いて、三次元形状を構築する。
Further, the
ここで、図5を用いて、形状構築部13における処理についてより具体的に説明する。図5は、本発明の実施の形態における形状構築部による処理を説明する図である。図5において、図4示された符号が付されたものは、図4で同じ記号が付与されたものを示している。そして、図5においては、特徴点piと特徴点p’iとの組合せが間違っているかどうかの判断対象であるとする。Here, the process in the
図5の例において、形状構築部13は、エピポーラ線についての下記の数2に示す関係を用いて、特徴点piが存在しているエピポーラ線l1に対応するエピポーラ線l’1を算出する。In the example of FIG. 5, the
(数2)
l’=Fx(Number 2)
l'= Fx
そして、形状構築部13は、算出したエピポーラ線l’1と特徴点p’iとの距離dが、閾値以上となっているかどうかを判定し、距離dが閾値以上となっている場合は、特徴点piと特徴点p’iとの組合せは間違っていると判定する。この場合、形状構築部13は、特徴点piと特徴点p’iとの組合せを排除して、三次元形状を構築する。The
また、本実施の形態においては、形状構築部13は、フィルタリング部15によるフィルタリングが済んだ特徴点の組合せを用いて、一旦、仮の三次元形状を構築しても良い。この場合は、ユーザーは、仮の三次元形状に基づいて、三次元形状の復元が不十分な箇所を特定できるので、適切な線分又は点を指定することが可能となる。その後、形状構築部13は、三次元形状を再構築する。
Further, in the present embodiment, the
また、表示部17は、形状構築部13によって構築された三次元形状を、表示装置20の画面上に表示させる。具体的には、表示部17は、構築された三次元形状を二次元画面上に表示するための画像データを作成し、作成した画像データを表示装置20に出力する。更に、表示部17は、形状構築部13が仮の三次元形状を構築した場合も、この仮の三次元形状を表示装置20の画面上に表示させる。
Further, the
[装置動作]
次に、本発明の実施の形態における画像処理装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における画像処理装置動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態では、画像処理装置10を動作させることによって、画像処理方法が実施される。よって、本実施の形態における画像処理方法の説明は、以下の画像処理装置10の動作説明に代える。[Device operation]
Next, the operation of the
図6に示すように、最初に、画像取得部14は、外部の装置から、三次元形状の構築対象が写った複数の画像それぞれの画像データを取得する(ステップA1)
As shown in FIG. 6, first, the
次に、特徴点抽出部11は、ステップA1で取得された画像データの画像毎に、特徴量を計算して特徴点を特定し、画像間で対応する特徴点同士を、対応する特徴点の組合せとして抽出する(ステップA2)。
Next, the feature
次に、フィルタリング部15は、ステップA2で抽出された特徴点の組合せ毎に、特徴点間の幾何学的な関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した特徴点の組合せを排除する(ステップA3)。
Next, the
次に、形状構築部13は、ステップA3によるフィルタリング処理が行われた後の特徴点の組合せを用いて、仮の三次元形状を構築する(ステップA4)。また、ステップA4が実行されると、表示部17は、ステップA4で構築された仮の三次元形状を表示装置20の画面上に表示させる。
Next, the
ステップA4が実行され、仮の三次元形状が表示装置20の画面上に表示されると、ユーザーは、入力装置(図2において図示せず)を介して、各画像上において互いに対応する線分又は点を指定する。これにより、入力受付部16は、指定された線分又は点の入力を受け付ける(ステップA5)。また、入力受付部16は、指定された各線分の情報又は各点の情報を、行列算出部12に通知する。
When step A4 is executed and the tentative three-dimensional shape is displayed on the screen of the
次に、行列算出部12は、ステップA5が実行されると、各線分の情報又は各点の情報に基づいて、線分間又は点間の幾何学的関係を特定し、特定した幾何学的関係を表現する数値行列を算出する(ステップA6)。
Next, when step A5 is executed, the
次に、形状構築部13は、ステップA6で算出された数値行列を用いて、ステップA3の処理の適用後の特徴点の組合せから、幾何学的関係が矛盾する特徴点の組合せを排除する(ステップA7)。
Next, the
次に、形状構築部13は、残った特徴点の組合せを用いて、再度、三次元形状を構築する(ステップA8)。その後、表示部17は、ステップA8で構築された三次元形状を表示装置20の画面上に表示させる(ステップA9)。
Next, the
[実施の形態の効果]
以上のように本実施の形態によれば、同一の走査線上にない間違った特徴点の組合せも排除して、三次元形状を構築することができる。このため、本実施の形態によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制できる。また、その結果、復元される三次元形状の精度が向上することになる。[Effect of embodiment]
As described above, according to the present embodiment, it is possible to construct a three-dimensional shape by eliminating a combination of wrong feature points that are not on the same scanning line. Therefore, according to the present embodiment, when extracting the corresponding combination of feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points. As a result, the accuracy of the restored three-dimensional shape is improved.
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1〜A9を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における画像処理装置10と画像処理方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点抽出部11、行列算出部12、形状構築部13、画像取得部14、フィルタリング部15、入力受付部16、及び表示部17として機能し、処理を行なう。[program]
The program in the present embodiment may be any program as long as it causes a computer to execute steps A1 to A9 shown in FIG. By installing and executing this program on a computer, the
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点抽出部11、行列算出部12、形状構築部13、画像取得部14、フィルタリング部15、入力受付部16、及び表示部17のいずれかとして機能しても良い。
Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may be used as one of a feature
ここで、本実施の形態におけるプログラムを実行することによって、画像処理装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
Here, a computer that realizes the
図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
As shown in FIG. 7, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における画像処理装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、画像処理装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
The
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 12), but the present invention is not limited to the following description.
(付記1)
複数の画像から三次元形状を構築するための装置であって、
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備えている、ことを特徴とする画像処理装置。(Appendix 1)
A device for constructing a three-dimensional shape from multiple images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
When two or more line segments or two or more points corresponding to each other are specified on at least two of the plurality of images, the geometrical relationship between the two or more line segments corresponding to each other, or each other. A matrix calculation unit that identifies a geometric relationship between two or more corresponding points and calculates a numerical matrix that expresses the specified geometric relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
An image processing device characterized by being equipped with.
(付記2)
前記形状構築部が、抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記1に記載の画像処理装置。(Appendix 2)
Among the feature points constituting the combination of the extracted feature points, the shape building unit identifies and identifies the feature points that overlap with two or more designated line segments or two or more points corresponding to each other. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing apparatus according to
(付記3)
前記形状構築部によって構築された前記三次元形状を画面上に表示する、表示部を更に備えている、
付記1または2に記載の画像処理装置。(Appendix 3)
It further includes a display unit that displays the three-dimensional shape constructed by the shape construction unit on the screen.
The image processing apparatus according to
(付記4)
前記形状構築部が、前記特徴点抽出部によって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築し、
前記表示部が、更に、前記仮の三次元形状を画面上に表示する、
付記3に記載の画像処理装置。(Appendix 4)
The shape building unit constructs a temporary three-dimensional shape by using the combination of the feature points extracted by the feature point extracting unit.
The display unit further displays the temporary three-dimensional shape on the screen.
The image processing apparatus according to Appendix 3.
(付記5)
複数の画像から三次元形状を構築するための方法であって、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有する、ことを特徴とする画像処理方法。(Appendix 5)
A method for constructing a 3D shape from multiple images,
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
An image processing method comprising.
(付記6)
前記(c)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記5に記載の画像処理方法。(Appendix 6)
In step (c) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing method according to Appendix 5.
(付記7)
(d)前記(c)のステップによって構築された前記三次元形状を画面上に表示する、ステップを更に有する、
付記5または6に記載の画像処理方法。(Appendix 7)
(D) Further having a step of displaying the three-dimensional shape constructed by the step of (c) on the screen.
The image processing method according to Appendix 5 or 6.
(付記8)
(e)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(f)前記(e)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を更に有する付記7に記載の画像処理方法。(Appendix 8)
(E) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(F) A step for displaying the temporary three-dimensional shape constructed in the step (e) on the screen, and
The image processing method according to Appendix 7, further comprising.
(付記9)
コンピュータによって、複数の画像から三次元形状を構築するためのプログラムであって、
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を実行させる命令を含むプログラム。
(Appendix 9)
The computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Including Mpu Rogura-time instructions to the execution.
(付記10)
前記(c)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記9に記載のプログラム。
(Appendix 10)
In step (c) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The program described in Appendix 9.
(付記11)
前記プログラムが、前記コンピュータに、
(d)前記(c)のステップによって構築された前記三次元形状を画面上に表示する、ステップを実行させる命令を更に含む、
付記9または10に記載のプログラム。
(Appendix 11)
The program is on the computer
(D) Further including an instruction to execute the step, displaying the three-dimensional shape constructed by the step (c) on the screen.
The program according to
(付記12)
前記プログラムが、前記コンピュータに、
(e)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(f)前記(e)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を実行させる命令を更に含む、
付記11に記載のプログラム。
(Appendix 12)
The program is on the computer
(E) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(F) A step for displaying the temporary three-dimensional shape constructed in the step (e) on the screen, and
Including further instructions to execute,
The program described in
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiments, the invention of the present application is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention.
この出願は、2017年9月29日に出願された日本出願特願2017−190377を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2017-190377 filed on September 29, 2017 and incorporates all of its disclosures herein.
以上のように、本発明によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制することができる。本発明は、SfMといった複数の画像から三次元形状を構築する技術に有用である。 As described above, according to the present invention, when extracting the combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points. The present invention is useful in a technique for constructing a three-dimensional shape from a plurality of images such as SfM.
10 画像処理装置
11 特徴点抽出部
12 行列算出部
13 形状構築部
14 画像取得部
15 フィルタリング部
16 入力受付部
17 表示部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス10
112
Claims (12)
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、フィルタリング部と、
前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備え、
前記行列算出部は、更に、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記フィルタリング部の処理により残った誤差の少ない特徴点の組み合わせから数値行列を算出する、
ことを特徴とする画像処理装置。 A device for constructing a three-dimensional shape from multiple images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, the wrong feature point combination is specified based on the calculation result, and the specified wrong feature point combination is specified. Exclude, filtering part,
When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, two or more points corresponding to each other are specified. A matrix calculation unit that specifies the geometrical relationship between the line segments of the above, or the geometrical relationship between two or more points corresponding to each other, and calculates a numerical matrix expressing the specified geometrical relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
Equipped with
Further, even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, the matrix calculation unit is independent from the feature points and has two or more line segments or two or more points corresponding to each other. By specifying, a numerical matrix is calculated from the combination of feature points with few errors remaining by the processing of the filtering unit.
An image processing device characterized by this.
請求項1に記載の画像処理装置。 Among the feature points constituting the combination of the extracted feature points, the shape building unit identifies and identifies the feature points that overlap with two or more designated line segments or two or more points corresponding to each other. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 It further includes a display unit that displays the three-dimensional shape constructed by the shape construction unit on the screen.
The image processing apparatus according to claim 1 or 2.
前記表示部が、更に、前記仮の三次元形状を画面上に表示する、
請求項3に記載の画像処理装置。 The shape building unit constructs a temporary three-dimensional shape by using the combination of the feature points extracted by the feature point extracting unit.
The display unit further displays the temporary three-dimensional shape on the screen.
The image processing apparatus according to claim 3.
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、ステップと、
(c)前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(d)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有し、
さらに、(c)のステップにおいて、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記(b)のステップにより残った誤差の少ない特徴点の組み合わせから数値行列を算出する、ステップと、
ことを特徴とする画像処理方法。 A method for constructing a 3D shape from multiple images,
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, and based on the calculation result, the wrong combination of the feature points is specified, and the specified wrong feature point is specified. Eliminate the combination of steps and
(C) When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, they correspond to each other. A step of identifying a geometric relationship between two or more line segments, or a geometric relationship between two or more points corresponding to each other, and calculating a numerical matrix expressing the specified geometric relationship.
(D) Among the extracted combinations of the feature points, the combination of the feature points whose geometrical relationship between the feature points is inconsistent is specified by using the numerical matrix, and the combination of the feature points other than the specified combination of the feature points is specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Have a,
Further, in the step (c), even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, two or more independent line segments different from the feature points or two or more corresponding to each other or two or more. By designating the points, the numerical matrix is calculated from the combination of the feature points with less error left by the step (b) .
An image processing method characterized by that.
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
請求項5に記載の画像処理方法。 In step (d) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing method according to claim 5.
請求項5または6に記載の画像処理方法。 (E) Further having a step of displaying the three-dimensional shape constructed by the step (d) on the screen.
The image processing method according to claim 5 or 6.
(g)前記(f)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を更に有する請求項7に記載の画像処理方法。 (F) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(G) A step for displaying the temporary three-dimensional shape constructed in the step (f) on the screen, and
The image processing method according to claim 7, further comprising.
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、ステップと、
(c)前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(d)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有し、
さらに、(c)のステップにおいて、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記(b)のステップにより残った誤差の少ない特徴点の組み合わせから数値行列を算出する、ステップと、
を実行させる命令を含むプログラム。 The computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, and based on the calculation result, the wrong combination of the feature points is specified, and the specified wrong feature point is specified. Eliminate the combination of steps and
(C) When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, they correspond to each other. A step of identifying a geometric relationship between two or more line segments, or a geometric relationship between two or more points corresponding to each other, and calculating a numerical matrix expressing the specified geometric relationship.
(D) Among the extracted combinations of the feature points, the combination of the feature points whose geometrical relationship between the feature points is inconsistent is specified by using the numerical matrix, and the combination of the feature points other than the specified combination of the feature points is specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Have a,
Further, in the step (c), even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, two or more independent line segments different from the feature points or two or more corresponding to each other or two or more. By designating the points, the numerical matrix is calculated from the combination of the feature points with less error left by the step (b) .
A program that contains instructions to execute.
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
請求項9に記載のプログラム。 In step (d) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The program according to claim 9.
(e)前記(d)のステップによって構築された前記三次元形状を画面上に表示する、ステップを実行させる命令を更に含む、
請求項9または10に記載のプログラム。 The program is on the computer
(E) Further including an instruction to execute the step, displaying the three-dimensional shape constructed by the step (d) on the screen.
The program according to claim 9 or 10.
(f)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(g)前記(f)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を実行させる命令を更に含む、
請求項11に記載のプログラム。 The program is on the computer
(F) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(G) A step for displaying the temporary three-dimensional shape constructed in the step (f) on the screen, and
Including further instructions to execute,
The program according to claim 11.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017190377 | 2017-09-29 | ||
JP2017190377 | 2017-09-29 | ||
PCT/JP2018/035805 WO2019065784A1 (en) | 2017-09-29 | 2018-09-26 | Image processing device, image processing method, and computer-readable recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019065784A1 JPWO2019065784A1 (en) | 2020-08-06 |
JP6989153B2 true JP6989153B2 (en) | 2022-01-05 |
Family
ID=65901927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019545589A Active JP6989153B2 (en) | 2017-09-29 | 2018-09-26 | Image processing equipment, image processing methods, and programs |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP6989153B2 (en) |
CN (1) | CN111133474B (en) |
SG (1) | SG11202001487XA (en) |
WO (1) | WO2019065784A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7294702B2 (en) * | 2019-10-16 | 2023-06-20 | Necソリューションイノベータ株式会社 | Image processing device, image processing method, and program |
WO2021166574A1 (en) * | 2020-02-17 | 2021-08-26 | Necソリューションイノベータ株式会社 | Image processing device, image processing method, and computer-readable recording medium |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4136044B2 (en) * | 1997-12-24 | 2008-08-20 | オリンパス株式会社 | Image processing apparatus and image processing method therefor |
JP5074622B2 (en) * | 2005-11-01 | 2012-11-14 | 株式会社日立ソリューションズ | Geographic image processing system |
JP4908867B2 (en) * | 2005-11-01 | 2012-04-04 | 株式会社日立ソリューションズ | Geographic image processing system |
EP1959391A1 (en) * | 2007-02-13 | 2008-08-20 | BrainLAB AG | Determination of the three dimensional contour path of an anatomical structure |
JP2008199658A (en) * | 2008-04-04 | 2008-08-28 | Olympus Corp | Image processor and image processing method thereof |
JP6331517B2 (en) * | 2014-03-13 | 2018-05-30 | オムロン株式会社 | Image processing apparatus, system, image processing method, and image processing program |
WO2015185968A1 (en) * | 2014-06-06 | 2015-12-10 | Tata Consultancy Services Limited | Constructing a 3d structure |
US10198865B2 (en) * | 2014-07-10 | 2019-02-05 | Seiko Epson Corporation | HMD calibration with direct geometric modeling |
JP6435750B2 (en) * | 2014-09-26 | 2018-12-12 | 富士通株式会社 | Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and three-dimensional coordinate calculation program |
JP6426968B2 (en) * | 2014-10-08 | 2018-11-21 | キヤノン株式会社 | INFORMATION PROCESSING APPARATUS AND METHOD THEREOF |
CN104992441B (en) * | 2015-07-08 | 2017-11-17 | 华中科技大学 | A kind of real human body three-dimensional modeling method towards individualized virtual fitting |
CN105844696B (en) * | 2015-12-31 | 2019-02-05 | 清华大学 | Image position method and device based on ray model three-dimensionalreconstruction |
JP6482130B2 (en) * | 2016-02-25 | 2019-03-13 | Kddi株式会社 | Geometric verification apparatus, program and method |
JP6558803B2 (en) * | 2016-03-23 | 2019-08-14 | Kddi株式会社 | Geometric verification apparatus and program |
CN105894574B (en) * | 2016-03-30 | 2018-09-25 | 清华大学深圳研究生院 | A kind of binocular three-dimensional reconstruction method |
CN106023307B (en) * | 2016-07-12 | 2018-08-14 | 深圳市海达唯赢科技有限公司 | Quick reconstruction model method based on site environment and system |
CN106815824B (en) * | 2016-12-08 | 2019-07-05 | 华中科技大学 | A kind of image neighbour's optimization method improving extensive three-dimensional reconstruction efficiency |
-
2018
- 2018-09-26 WO PCT/JP2018/035805 patent/WO2019065784A1/en active Application Filing
- 2018-09-26 JP JP2019545589A patent/JP6989153B2/en active Active
- 2018-09-26 SG SG11202001487XA patent/SG11202001487XA/en unknown
- 2018-09-26 CN CN201880062269.9A patent/CN111133474B/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2019065784A1 (en) | 2020-08-06 |
CN111133474B (en) | 2023-09-19 |
WO2019065784A1 (en) | 2019-04-04 |
SG11202001487XA (en) | 2020-03-30 |
CN111133474A (en) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102385256B1 (en) | Smoothing and gpu-enabled rendering of digital ink | |
CN109509198B (en) | Apparatus and method for correcting damage | |
JP6570296B2 (en) | Image processing apparatus, image processing method, and program | |
KR20160064953A (en) | Image processing device, image processing method and program | |
JP2022092004A (en) | Calculation device, processing method, program and storage medium | |
JP6989153B2 (en) | Image processing equipment, image processing methods, and programs | |
US10586099B2 (en) | Information processing apparatus for tracking processing | |
US10643095B2 (en) | Information processing apparatus, program, and information processing method | |
WO2022093283A1 (en) | Motion-based pixel propagation for video inpainting | |
EP2536123A1 (en) | Image processing method and image processing apparatus | |
JPWO2018159467A1 (en) | Moving object detecting device, moving object detecting method, and program | |
JP6937782B2 (en) | Image processing method and device | |
JP4686624B2 (en) | Information processing apparatus, image processing method, and program | |
JP2022064506A (en) | Image processing device, image processing method, and program | |
WO2021075314A1 (en) | Image processing device, image processing method, and computer-readable recording medium | |
JP7276978B2 (en) | Image processing device, image processing method, and program | |
JP6962450B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2017120455A (en) | Information processing device, program and control method | |
JP2010263441A (en) | Image processing apparatus, image processing method and program | |
CN113167568A (en) | Coordinate calculation device, coordinate calculation method, and computer-readable recording medium | |
WO2019171635A1 (en) | Operation input device, operation input method, anc computer-readable recording medium | |
US9454801B2 (en) | Image processing apparatus, method for processing image, and program | |
JPWO2017090705A1 (en) | Image processing apparatus, image processing method, and program | |
JP7443965B2 (en) | Information processing device, correction method, program | |
JP2023104399A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6989153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |