JP6989153B2 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JP6989153B2
JP6989153B2 JP2019545589A JP2019545589A JP6989153B2 JP 6989153 B2 JP6989153 B2 JP 6989153B2 JP 2019545589 A JP2019545589 A JP 2019545589A JP 2019545589 A JP2019545589 A JP 2019545589A JP 6989153 B2 JP6989153 B2 JP 6989153B2
Authority
JP
Japan
Prior art keywords
feature points
combination
specified
points
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019545589A
Other languages
Japanese (ja)
Other versions
JPWO2019065784A1 (en
Inventor
喜宏 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2019065784A1 publication Critical patent/JPWO2019065784A1/en
Application granted granted Critical
Publication of JP6989153B2 publication Critical patent/JP6989153B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Description

本発明は、複数の画像からの三次元形状の構築を可能にするための、画像処理装置、及び画像処理方法に関し、更には、これらを実現させるためのプログラムに関する。 The present invention relates to an image processing apparatus and an image processing method for enabling the construction of a three-dimensional shape from a plurality of images, and further relates to a program for realizing these.

近年、画像に写っている対象の三次元形状を構築する技術が注目されている。このような技術の代表例としては、SfM(Structure from Motion)が知られている。SfMでは、特定の対象をカメラの視点を変えながら複数回撮影し、得られた複数枚の画像から、特定の対象の三次元形状が復元される。 In recent years, attention has been paid to a technique for constructing a three-dimensional shape of an object shown in an image. SfM (Structure from Motion) is known as a typical example of such a technique. In SfM, a specific object is photographed a plurality of times while changing the viewpoint of the camera, and the three-dimensional shape of the specific object is restored from the obtained plurality of images.

具体的には、まず、SfMでは、画像毎に、その特徴量(例えば、SIFT特徴量、SURF特徴量)が計算され、画像の拡大縮小、回転、及び照度変化に強いロバストネスな特徴点が抽出される。次に、画像間で、抽出した特徴点のマッチングが実行され、一致する特徴点のペアが抽出される。次に、例えば、ロバスト推定(Robust Estimation)によって、特徴点ペアの幾何学的な関係が計算され、誤った特徴点ペアが除外される。 Specifically, first, in SfM, the feature amount (for example, SIFT feature amount, SURF feature amount) is calculated for each image, and robustness feature points that are resistant to image enlargement / reduction, rotation, and illuminance change are extracted. Will be done. Next, matching of the extracted feature points is executed between the images, and a pair of matching feature points is extracted. Robust estimation, for example, then calculates the geometric relationships of the feature point pairs and excludes the erroneous feature point pairs.

その後、幾つかの特徴点ペア毎に、これらの幾何学的な関係に基づいて、Fundamental行列が算出され、算出された各Fundamental行列間での差が最も少なくなるように、特徴点ペア毎の幾何学的な関係が調整される。そして、調整後の幾何学的な関係に基づいて、三次元形状(点群)が再構築される。なお、この時の誤差の調整方法としては、Bundle Adjustmentと呼ばれる処理手法が挙げられる。 Then, for each of several feature point pairs, a Fundamental matrix is calculated based on these geometric relationships, and for each feature point pair so that the difference between each calculated Fundamental matrix is the smallest. Geometric relationships are adjusted. Then, the three-dimensional shape (point cloud) is reconstructed based on the adjusted geometrical relationship. As a method of adjusting the error at this time, a processing method called Bundle Adjustment can be mentioned.

ところで、上述のSfMでは、マッチングに間違いが発生する場合があり、この場合、異なる特徴点間でペアが抽出されてしまい、復元される三次元形状の精度が低下してしまう。また、抽出された特徴点のペアが少なかったり、マッチングがうまく行かなかったりして、特徴点ペアが少ない領域が発生する場合がある。この場合も、復元される三次元形状の精度が低下してしまう。 By the way, in the above-mentioned SfM, an error may occur in matching, and in this case, a pair is extracted between different feature points, and the accuracy of the restored three-dimensional shape is lowered. In addition, there may be a region where the number of extracted feature point pairs is small or the matching is not successful, resulting in a small number of feature point pairs. In this case as well, the accuracy of the restored three-dimensional shape is reduced.

これに対して、特許文献1は、対応する特徴点の位置を補正するシステムを開示している。具体的には、特許文献1に開示されたシステムは、まず、2枚の画像をそれぞれのエピポーラ線が走査線に平行となるよう配置し、走査線毎に、各画像から対応する特徴点を抽出する。 On the other hand, Patent Document 1 discloses a system for correcting the positions of corresponding feature points. Specifically, in the system disclosed in Patent Document 1, first, two images are arranged so that their epipolar lines are parallel to the scanning line, and the corresponding feature points from each image are set for each scanning line. Extract.

次に、このシステムは、ユーザーによる各画像上への対応する箇所を指定する線分の入力を受け付ける。そして、システムは、走査線上の対応する各特徴点が、この走査線と入力された線分との交点に一致しているかどうかを判定し、一致していない場合は、各特徴点の位置を交点の位置に補正する。その後、システムは、位置が補正された特徴点を用いて、三次元形状の再構築を実行する。 The system then accepts a user input of a line segment that specifies a corresponding location on each image. The system then determines whether each corresponding feature point on the scan line coincides with the intersection of this scan line with the input line segment, and if not, determines the position of each feature point. Correct to the position of the intersection. The system then performs a 3D shape reconstruction using the position-corrected feature points.

このように、特許文献1に開示されたシステムによれば、間違った特徴点ペアが抽出されてしまうという問題、及び特徴点ペアが少ない領域が発生するという問題が解消されるので、復元される三次元形状の精度が低下するという問題が解消される。 As described above, according to the system disclosed in Patent Document 1, the problem that an erroneous feature point pair is extracted and the problem that a region with a small number of feature point pairs is generated are solved, so that the system is restored. The problem that the accuracy of the three-dimensional shape is reduced is solved.

特許第5311465号公報Japanese Patent No. 531465

しかしながら、特許文献1に開示されたシステムでは、特徴点の位置の補正は、2枚の画像のエピポーラ線に沿った走査線上でしか行われないので、同一の走査線上にない間違った特徴点ペアについて補正されることはない。このため、特許文献1に開示されたシステムでは、間違った特徴点ペアの修正が不十分であり、復元される三次元形状の精度の低下を抑制することが困難となる。 However, in the system disclosed in Patent Document 1, the correction of the position of the feature point is performed only on the scan line along the epipolar line of the two images, so that the wrong feature point pair that is not on the same scan line is performed. Will not be corrected for. Therefore, in the system disclosed in Patent Document 1, the correction of the wrong feature point pair is insufficient, and it becomes difficult to suppress the deterioration of the accuracy of the restored three-dimensional shape.

本発明の目的の一例は、上記問題を解消し、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制しうる、画像処理装置、画像処理方法、及びプログラムを提供することにある。 An example of an object of the present invention is an image processing apparatus, an image processing method, which can solve the above problem and suppress extraction of an erroneous combination of feature points when extracting a combination of corresponding feature points from a plurality of images. And to provide the program.

上記目的を達成するため、本発明の一側面における画像処理装置は、複数の画像から三次元形状を構築するための装置であって、
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備えている、ことを特徴とする。
In order to achieve the above object, the image processing apparatus according to one aspect of the present invention is an apparatus for constructing a three-dimensional shape from a plurality of images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
When two or more line segments or two or more points corresponding to each other are specified on at least two of the plurality of images, the geometrical relationship between the two or more line segments corresponding to each other, or each other. A matrix calculation unit that identifies a geometric relationship between two or more corresponding points and calculates a numerical matrix that expresses the specified geometric relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における画像処理方法は、複数の画像から三次元形状を構築するための方法であって、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有する、ことを特徴とする。
Further, in order to achieve the above object, the image processing method in one aspect of the present invention is a method for constructing a three-dimensional shape from a plurality of images.
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、複数の画像から三次元形状を構築するためのプログラムであって、
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を実行させることを特徴とする。
Furthermore, in order to achieve the above object, a program according to an aspect of the present invention, by a computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Allowed to run and wherein the Turkey.

以上のように、本発明によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制することができる。 As described above, according to the present invention, when extracting the combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points.

図1は、本発明の実施の形態における画像処理装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施の形態における画像処理装置の具体的構成を示すブロック図である。FIG. 2 is a block diagram showing a specific configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本実施の形態で処理対象となる複数の画像の一例を示す図である。FIG. 3 is a diagram showing an example of a plurality of images to be processed in the present embodiment. 図4は、本発明の実施の形態における行列算出部による処理を説明する図である。FIG. 4 is a diagram illustrating processing by the matrix calculation unit according to the embodiment of the present invention. 図5は、本発明の実施の形態における形状構築部による処理を説明する図である。FIG. 5 is a diagram illustrating processing by the shape building unit according to the embodiment of the present invention. 図6は、本発明の実施の形態における画像処理装置動作を示すフロー図である。FIG. 6 is a flow chart showing the operation of the image processing device according to the embodiment of the present invention. 図7は、本発明の実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram showing an example of a computer that realizes the image processing apparatus according to the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における、画像処理装置、画像処理方法、及びプログラムについて、図1〜図7を参照しながら説明する。
(Embodiment)
Hereinafter, the image processing apparatus, the image processing method, and the program according to the embodiment of the present invention will be described with reference to FIGS. 1 to 7.

[装置構成]
最初に、図1を用いて、本実施の形態における画像処理装置の概略構成について説明する。図1は、本発明の実施の形態における画像処理装置の概略構成を示すブロック図である。
[Device configuration]
First, the schematic configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.

図1に示すように、本実施の形態における画像処理装置10は、複数の画像から三次元形状を構築する装置である。画像処理装置10には、処理対象となる複数枚の画像の画像データが入力される。 As shown in FIG. 1, the image processing device 10 in the present embodiment is a device for constructing a three-dimensional shape from a plurality of images. Image data of a plurality of images to be processed is input to the image processing device 10.

また、図1に示すように、画像処理装置10は、特徴点抽出部11と、行列算出部12と、形状構築部13とを備えている。このうち、特徴点抽出部11は、複数の画像それぞれから、対応する特徴点の組合せを抽出する。 Further, as shown in FIG. 1, the image processing apparatus 10 includes a feature point extraction unit 11, a matrix calculation unit 12, and a shape construction unit 13. Of these, the feature point extraction unit 11 extracts a combination of corresponding feature points from each of the plurality of images.

行列算出部12は、複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定する。そして、行列算出部12は、特定した幾何学的関係を表現する数値行列を算出する。 When the matrix calculation unit 12 specifies two or more line segments or two or more points corresponding to each other on at least two images out of a plurality of images, the geometry of the two or more line segments corresponding to each other is specified. Identify the relationship, or the geometric relationship between two or more points that correspond to each other. Then, the matrix calculation unit 12 calculates a numerical matrix expressing the specified geometric relationship.

形状構築部13は、行列算出部12によって算出された数値行列を用いて、抽出された特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する特徴点の組合せを特定する。そして、形状構築部13は、特定した特徴点の組合せ以外の特徴点の組合せを用いて、三次元形状を構築する。 The shape construction unit 13 uses the numerical matrix calculated by the matrix calculation unit 12 to specify a combination of feature points whose geometric relationships between the feature points are inconsistent among the combinations of the extracted feature points. Then, the shape building unit 13 constructs a three-dimensional shape by using a combination of feature points other than the specified combination of feature points.

このように、本実施の形態では、指定された2以上の線分又は点から特定された幾何学的関係から、間違った特徴点の組合せが特定されるので、同一の走査線上にない間違った特徴点の組合せも排除できる。本実施の形態によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制でき、復元される三次元形状の精度を向上させることができる。 Thus, in the present embodiment, since the wrong combination of feature points is specified from the geometric relationship specified from the specified two or more line segments or points, the wrong combination that is not on the same scanning line is wrong. The combination of feature points can also be excluded. According to the present embodiment, when extracting a combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of a combination of wrong feature points and improve the accuracy of the restored three-dimensional shape.

続いて、図2〜図5を用いて、本実施の形態における画像処理装置10の構成についてより具体的に説明する。図2は、本発明の実施の形態における画像処理装置の具体的構成を示すブロック図である。 Subsequently, the configuration of the image processing apparatus 10 in the present embodiment will be described more specifically with reference to FIGS. 2 to 5. FIG. 2 is a block diagram showing a specific configuration of the image processing apparatus according to the embodiment of the present invention.

図2に示すように、画像処理装置10は、本実施の形態では、特徴点抽出部11、行列算出部12、及び形状構築部13に加えて、画像取得部14と、フィルタリング部15と、入力受付部16と、表示部17とを更に備えている。 As shown in FIG. 2, in the present embodiment, the image processing apparatus 10 includes an image acquisition unit 14 and a filtering unit 15 in addition to the feature point extraction unit 11, the matrix calculation unit 12, and the shape construction unit 13. It further includes an input receiving unit 16 and a display unit 17.

画像取得部14は、外部の装置、例えば、撮像装置、端末装置、画像データを保持している記憶装置等から、三次元形状の構築対象が写った複数の画像それぞれの画像データを取得する。図3は、本実施の形態で処理対象となる複数の画像の一例を示す図である。図3の例では、ペア画像が例示されているが、本実施の形態において対象となる画像の枚数は特に限定されるものではない。 The image acquisition unit 14 acquires image data of each of a plurality of images showing a three-dimensional shape construction target from an external device, for example, an image pickup device, a terminal device, a storage device holding image data, and the like. FIG. 3 is a diagram showing an example of a plurality of images to be processed in the present embodiment. In the example of FIG. 3, a pair image is exemplified, but the number of target images in the present embodiment is not particularly limited.

特徴点抽出部11は、本実施の形態では、画像毎に、例えば、SIFT特徴量、又はSURF特徴量を計算して特徴点を特定し、更に、画像間で対応する特徴点同士を、対応する特徴点の組合せとして抽出する。なお、図3の例では、画像が2枚であるため、特徴点の組合せは、特徴点ペアである。また、図3において、丸で囲まれた部分が特徴点の一つである。 In the present embodiment, the feature point extraction unit 11 calculates, for example, a SIFT feature amount or a SURF feature amount for each image to specify the feature points, and further, the feature points corresponding to each other are supported between the images. Extract as a combination of feature points. In the example of FIG. 3, since there are two images, the combination of feature points is a feature point pair. Further, in FIG. 3, the portion circled is one of the feature points.

フィルタリング部15は、特徴点の組合せ毎に、特徴点間の幾何学的な関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した特徴点の組合せを排除する。フィルタリング部15によるフィルタリング処理は、従来と同様に、ロバスト推定を用いて行われる。本実施の形態では、後述する形状構築部13によるフィルタリングに加えて、フィルタリング部15によるフィルタリングも行われるので、より確実に間違った特徴点の組合せが排除される。 The filtering unit 15 calculates the geometrical relationship between the feature points for each combination of the feature points, identifies an erroneous feature point combination based on the calculation result, and eliminates the specified feature point combination. .. The filtering process by the filtering unit 15 is performed by using robust estimation as in the conventional case. In the present embodiment, in addition to the filtering by the shape building unit 13 described later, the filtering by the filtering unit 15 is also performed, so that the wrong combination of feature points is more reliably eliminated.

入力受付部16は、処理対象となる各画像上において互いに対応する線分又は点が指定されると、指定された線分又は点の入力を受け付ける。また、入力受付部16は、各画像上で互いに対応する線分の入力を受け付けた場合は各線分の情報(始点及び終点の座標)を、互いに対応する点の入力を受け付けた場合は各点の情報(座標)を、行列算出部12に通知する。なお、線分又は点の指定は、画像処理装置10のユーザーによって行われても良いし、別の計算機によって行われても良い。 When the line segment or point corresponding to each other is designated on each image to be processed, the input receiving unit 16 accepts the input of the designated line segment or point. Further, the input receiving unit 16 receives the information of each line segment (coordinates of the start point and the end point) when the input of the line segments corresponding to each other is received on each image, and each point when the input of the points corresponding to each other is received. Information (coordinates) of the above is notified to the matrix calculation unit 12. The line segment or the point may be designated by the user of the image processing apparatus 10 or by another computer.

行列算出部12は、入力受付部16から各画像上の線分又は点の情報が通知されると、通知された情報に基づいて、線分間又は点間の幾何学的関係を特定し、特定した幾何学的関係を表現する数値行列を算出し、この数値行列を絶対的数値行列として定義する。行列算出部12は、入力受付部16から通知された各画像上の線分又は点の情報から数値行列が算出出来ない、または画像によっては線分又は点の情報が存在しない場合には、特徴点抽出部11で抽出されフィルタリング部15で残った誤差の少ない特徴点の組み合わせから数値行列を算出することも出来る。ただし、この場合算出される数値行列は従来と同様の数値行列であり、絶対的数値行列ではない。 When the matrix calculation unit 12 is notified of the information of the line segment or point on each image from the input reception unit 16, the matrix calculation unit 12 identifies and specifies the geometrical relationship between the line segment or the point based on the notified information. A numerical matrix that expresses the geometrical relationship is calculated, and this numerical matrix is defined as an absolute numerical matrix. The matrix calculation unit 12 is characterized when a numerical matrix cannot be calculated from the line segment or point information on each image notified from the input reception unit 16, or when the line segment or point information does not exist depending on the image. It is also possible to calculate a numerical matrix from a combination of feature points with little error that are extracted by the point extraction unit 11 and remain in the filtering unit 15. However, the numerical matrix calculated in this case is a numerical matrix similar to the conventional one, and is not an absolute numerical matrix.

ここで、図4を用いて、行列算出部12における処理についてより具体的に説明する。図4は、本発明の実施の形態における行列算出部による処理を説明する図である。図4において、Eはエピポーラ面を示し、Oは一方の画像のカメラの中心位置を示し、O’は他方の画像のカメラの中心位置を示している。また、図4において、左右に示された並行四辺形はそれぞれ画像のフレームを示している。Here, the process in the matrix calculation unit 12 will be described more specifically with reference to FIG. FIG. 4 is a diagram illustrating processing by the matrix calculation unit according to the embodiment of the present invention. In FIG. 4, E represents a epipolar plane, O i denotes the camera center position of one image, O 'i denotes the center position of the camera of the other image. Further, in FIG. 4, the parallelograms shown on the left and right indicate the frame of the image, respectively.

また、図4の例では、一方の画像において線分Lが指定され、他方の画像において線分L’が指定されており、両線分は対応している。この場合において、線分Lにおいて、その始点と交わるエピポーラ線lと、終点で交わるエピポーラ線ln+mとを絶対的エピポーラ線として定義し、線分L‘においても、その始点と交わるエピポーラ線l’と、終点で交わるエピポーラ線l’n+mとを絶対的エピポーラ線として定義する。Further, in the example of FIG. 4, a line segment L is designated in one image and a line segment L'is designated in the other image, and both line segments correspond to each other. In this case, in the line segment L, the epipolar line l n intersecting the start point and the epipolar line l n + m intersecting at the end point are defined as absolute epipolar lines, and in the line segment L', the epipolar line l intersecting the start point is also defined. ' N and the epipolar line l'n + m that intersects at the end point are defined as an absolute epipolar line.

更に、線分Lと絶対的エピポーラ線lとの交点xと、線分Lと絶対的エピポーラ線l’との交点x’とは、絶対的な特徴点の組合せとして定義する。また、線分Lと絶対的エピポーラ線ln+mとの交点xと、線分L’と絶対的エピポーラ線l’n+mとの交点x’も、絶対的な特徴点の組合せとして定義する。Furthermore, the intersection x i between the line segment L and the absolute epipolar line l n, the i 'intersection x of the n' segment L and absolute epipolar line l, defined as a combination of absolute feature points. Further, the intersection x j of the line segment L and the absolute epipolar line l n + m, also the intersection x 'j' and absolute epipolar line l 'segment L and n + m, is defined as a combination of absolute feature points.

なお、図4に示すように、エピポーラ線lとエピポーラ線ln+mとの間に、任意のエピポーラ線ln+1及びln+2が設定されていても良い。この場合、同様に、エピポーラ線l’とエピポーラ線l’n+mとの間にも、任意のエピポーラ線l’n+1及びl’n+2が設定される。また、この場合、線分Lと新たに設定されたエピポーラ線ln+1及びln+2それぞれとの交点は、線分L’と新たに設定されたエピポーラ線l’n+1及びl’n+2それぞれとの交点との間で、絶対的な特徴点の組合せとなる。なお、エピポーラ線間の間隔は任意の値に設定される。As shown in FIG. 4, arbitrary epipolar lines l n + 1 and l n + 2 may be set between the epipolar lines l n and the epipolar lines l n + m. In this case, similarly, arbitrary epipolar lines l' n + 1 and l' n + 2 are set between the epipolar line l'n and the epipolar line l' n + m. Further, in this case, the intersection of the line segment L and the newly set epipolar lines l n + 1 and l n + 2 is the intersection of the line segment L'and the newly set epipolar lines l' n + 1 and l' n + 2, respectively. It is a combination of absolute feature points. The interval between epipolar lines is set to an arbitrary value.

従って、図4の例においては、行列算出部12は、線分間の幾何学的関係として、絶対的な特徴点の組合せを求め、求めた特徴点の組合せを用いて、下記の数1の関係式から、絶対的数値行列として、Fundamental行列(参照文献)を算出する。なお、下記の数1において、「x」は、三次元空間における点Xを一方の画像上に射影することによって得られた二次元上の点である。「x’」は、三次元空間における点Xを他方の画像上に射影することによって得られた二次元上の点である。Tは転置行列である。また、FはFundamental行列である。また、本実施の形態において数値行列は、Fundamental行列に限定されるものではなく、幾何学的関係を表現できる行列であれば良い。 Therefore, in the example of FIG. 4, the matrix calculation unit 12 obtains an absolute combination of feature points as the geometrical relationship between the lines, and uses the obtained combination of feature points to form the relationship of the following number 1. From the equation, a Fundamental matrix (reference) is calculated as an absolute numerical matrix. In the following equation 1, "x" is a two-dimensional point obtained by projecting a point X in a three-dimensional space onto one of the images. "X'" is a two-dimensional point obtained by projecting a point X in a three-dimensional space onto the other image. T is a transposed matrix. Also, F is a Fundamental matrix. Further, in the present embodiment, the numerical matrix is not limited to the Fundamental matrix, and may be any matrix that can express a geometric relationship.

(数1)
x’Fx=0
(Number 1)
x 'T Fx = 0

参照文献:Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”,Cambridge University Press, March 2004. References: Richard Hartley and Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”, Cambridge University Press, March 2004.

形状構築部13は、本実施の形態では、まず、行列算出部12によって算出された数値行列(Fundamental行列)を用いて、特徴点抽出部11で抽出された特徴点の組合せ(フィルタリング部15で除外されたものを除く)から、幾何学的関係が矛盾する特徴点の組合せを排除する。その後、形状構築部13は、幾何学的関係が矛盾する特徴点の組合せが排除された特徴点の組合せを用いて、三次元形状を構築するが、その際、入力受付部16によって受け付けられた、対応する点、又は対応する線分上の点も、特徴点の組合せとして用いることができる。 In the present embodiment, the shape building unit 13 first uses a numerical matrix (Fundamental matrix) calculated by the matrix calculation unit 12 to combine feature points extracted by the feature point extraction unit 11 (in the filtering unit 15). Exclude combinations of feature points with inconsistent geometric relationships from (excluding those excluded). After that, the shape building unit 13 constructs a three-dimensional shape using a combination of feature points from which the combination of feature points having inconsistent geometric relationships is excluded, and at that time, the input receiving unit 16 accepts the combination. , Corresponding points, or points on the corresponding line segments can also be used as a combination of feature points.

また、形状構築部13は、特徴点抽出部11で抽出された特徴点の組合せ(フィルタリング部15で除外されたものを除く)の中から、指定された線分又は点に重なる特徴点を特定し、特定した特徴点を含む特徴点の組合せも排除することができる。これは、一方の線分又は点に重なる特徴点に対応する特徴点が、他方の線分又は点の上にないときは、この特徴点の組合せは間違っている可能性が高いからである。その後、形状構築部13は、残った特徴点の組合せを用いて、三次元形状を構築する。 Further, the shape building unit 13 identifies a feature point that overlaps with a designated line segment or a point from a combination of feature points extracted by the feature point extraction unit 11 (excluding those excluded by the filtering unit 15). However, the combination of feature points including the specified feature points can also be excluded. This is because when the feature point corresponding to the feature point overlapping the one line segment or point is not on the other line segment or point, the combination of the feature points is likely to be incorrect. After that, the shape building unit 13 builds a three-dimensional shape by using the combination of the remaining feature points.

ここで、図5を用いて、形状構築部13における処理についてより具体的に説明する。図5は、本発明の実施の形態における形状構築部による処理を説明する図である。図5において、図4示された符号が付されたものは、図4で同じ記号が付与されたものを示している。そして、図5においては、特徴点pと特徴点p’との組合せが間違っているかどうかの判断対象であるとする。Here, the process in the shape building unit 13 will be described more specifically with reference to FIG. FIG. 5 is a diagram illustrating processing by the shape building unit according to the embodiment of the present invention. In FIG. 5, those with the reference numerals shown in FIG. 4 indicate those with the same symbols in FIG. Then, in FIG. 5, and whether it is whether a determination target is wrong combination of feature points p i and the feature point p 'i.

図5の例において、形状構築部13は、エピポーラ線についての下記の数2に示す関係を用いて、特徴点pが存在しているエピポーラ線lに対応するエピポーラ線l’を算出する。In the example of FIG. 5, the shape construction unit 13 calculates the epipolar line l '1 by using the relationships shown in Formula 2 below, corresponding to the epipolar lines l 1 to the feature point p i are present on the epipolar line do.

(数2)
l’=Fx
(Number 2)
l'= Fx

そして、形状構築部13は、算出したエピポーラ線l’と特徴点p’との距離dが、閾値以上となっているかどうかを判定し、距離dが閾値以上となっている場合は、特徴点pと特徴点p’との組合せは間違っていると判定する。この場合、形状構築部13は、特徴点pと特徴点p’との組合せを排除して、三次元形状を構築する。The shape building unit 13, when the calculated epipolar line l '1 and the feature point p' the distance d between the i may determine whether a threshold value or more, the distance d is equal to or greater than the threshold value, combination of feature point p i and the feature point p 'i is judged to be wrong. In this case, the shape construction unit 13, with the exclusion of combination of the feature point p i and the feature point p 'i, constructing a three-dimensional shape.

また、本実施の形態においては、形状構築部13は、フィルタリング部15によるフィルタリングが済んだ特徴点の組合せを用いて、一旦、仮の三次元形状を構築しても良い。この場合は、ユーザーは、仮の三次元形状に基づいて、三次元形状の復元が不十分な箇所を特定できるので、適切な線分又は点を指定することが可能となる。その後、形状構築部13は、三次元形状を再構築する。 Further, in the present embodiment, the shape building unit 13 may temporarily construct a temporary three-dimensional shape by using a combination of feature points that have been filtered by the filtering unit 15. In this case, the user can identify a place where the restoration of the three-dimensional shape is insufficient based on the temporary three-dimensional shape, so that an appropriate line segment or point can be specified. After that, the shape building unit 13 reconstructs the three-dimensional shape.

また、表示部17は、形状構築部13によって構築された三次元形状を、表示装置20の画面上に表示させる。具体的には、表示部17は、構築された三次元形状を二次元画面上に表示するための画像データを作成し、作成した画像データを表示装置20に出力する。更に、表示部17は、形状構築部13が仮の三次元形状を構築した場合も、この仮の三次元形状を表示装置20の画面上に表示させる。 Further, the display unit 17 displays the three-dimensional shape constructed by the shape construction unit 13 on the screen of the display device 20. Specifically, the display unit 17 creates image data for displaying the constructed three-dimensional shape on a two-dimensional screen, and outputs the created image data to the display device 20. Further, the display unit 17 displays the temporary three-dimensional shape on the screen of the display device 20 even when the shape construction unit 13 constructs the temporary three-dimensional shape.

[装置動作]
次に、本発明の実施の形態における画像処理装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における画像処理装置動作を示すフロー図である。以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態では、画像処理装置10を動作させることによって、画像処理方法が実施される。よって、本実施の形態における画像処理方法の説明は、以下の画像処理装置10の動作説明に代える。
[Device operation]
Next, the operation of the image processing apparatus 10 according to the embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flow chart showing the operation of the image processing device according to the embodiment of the present invention. In the following description, FIGS. 1 to 5 will be referred to as appropriate. Further, in the present embodiment, the image processing method is implemented by operating the image processing device 10. Therefore, the description of the image processing method in the present embodiment is replaced with the following description of the operation of the image processing device 10.

図6に示すように、最初に、画像取得部14は、外部の装置から、三次元形状の構築対象が写った複数の画像それぞれの画像データを取得する(ステップA1) As shown in FIG. 6, first, the image acquisition unit 14 acquires image data of each of a plurality of images showing a three-dimensional shape construction target from an external device (step A1).

次に、特徴点抽出部11は、ステップA1で取得された画像データの画像毎に、特徴量を計算して特徴点を特定し、画像間で対応する特徴点同士を、対応する特徴点の組合せとして抽出する(ステップA2)。 Next, the feature point extraction unit 11 calculates the feature amount for each image of the image data acquired in step A1, identifies the feature points, and sets the corresponding feature points between the images to each other. Extract as a combination (step A2).

次に、フィルタリング部15は、ステップA2で抽出された特徴点の組合せ毎に、特徴点間の幾何学的な関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した特徴点の組合せを排除する(ステップA3)。 Next, the filtering unit 15 calculates the geometrical relationship between the feature points for each combination of the feature points extracted in step A2, and identifies an erroneous feature point combination based on the calculation result. The combination of the specified feature points is excluded (step A3).

次に、形状構築部13は、ステップA3によるフィルタリング処理が行われた後の特徴点の組合せを用いて、仮の三次元形状を構築する(ステップA4)。また、ステップA4が実行されると、表示部17は、ステップA4で構築された仮の三次元形状を表示装置20の画面上に表示させる。 Next, the shape building unit 13 builds a temporary three-dimensional shape by using the combination of the feature points after the filtering process in step A3 is performed (step A4). Further, when step A4 is executed, the display unit 17 displays the temporary three-dimensional shape constructed in step A4 on the screen of the display device 20.

ステップA4が実行され、仮の三次元形状が表示装置20の画面上に表示されると、ユーザーは、入力装置(図2において図示せず)を介して、各画像上において互いに対応する線分又は点を指定する。これにより、入力受付部16は、指定された線分又は点の入力を受け付ける(ステップA5)。また、入力受付部16は、指定された各線分の情報又は各点の情報を、行列算出部12に通知する。 When step A4 is executed and the tentative three-dimensional shape is displayed on the screen of the display device 20, the user can use a line segment corresponding to each other on each image via an input device (not shown in FIG. 2). Or specify a point. As a result, the input receiving unit 16 receives the input of the designated line segment or point (step A5). Further, the input receiving unit 16 notifies the matrix calculation unit 12 of the information of each designated line segment or the information of each point.

次に、行列算出部12は、ステップA5が実行されると、各線分の情報又は各点の情報に基づいて、線分間又は点間の幾何学的関係を特定し、特定した幾何学的関係を表現する数値行列を算出する(ステップA6)。 Next, when step A5 is executed, the matrix calculation unit 12 identifies the geometric relationship between the line segment or the point based on the information of each line segment or the information of each point, and the specified geometric relationship. Is calculated (step A6).

次に、形状構築部13は、ステップA6で算出された数値行列を用いて、ステップA3の処理の適用後の特徴点の組合せから、幾何学的関係が矛盾する特徴点の組合せを排除する(ステップA7)。 Next, the shape building unit 13 uses the numerical matrix calculated in step A6 to exclude the combination of feature points having inconsistent geometric relationships from the combination of feature points after the application of the process of step A3 (). Step A7).

次に、形状構築部13は、残った特徴点の組合せを用いて、再度、三次元形状を構築する(ステップA8)。その後、表示部17は、ステップA8で構築された三次元形状を表示装置20の画面上に表示させる(ステップA9)。 Next, the shape building unit 13 again builds the three-dimensional shape using the combination of the remaining feature points (step A8). After that, the display unit 17 displays the three-dimensional shape constructed in step A8 on the screen of the display device 20 (step A9).

[実施の形態の効果]
以上のように本実施の形態によれば、同一の走査線上にない間違った特徴点の組合せも排除して、三次元形状を構築することができる。このため、本実施の形態によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制できる。また、その結果、復元される三次元形状の精度が向上することになる。
[Effect of embodiment]
As described above, according to the present embodiment, it is possible to construct a three-dimensional shape by eliminating a combination of wrong feature points that are not on the same scanning line. Therefore, according to the present embodiment, when extracting the corresponding combination of feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points. As a result, the accuracy of the restored three-dimensional shape is improved.

[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1〜A9を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における画像処理装置10と画像処理方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点抽出部11、行列算出部12、形状構築部13、画像取得部14、フィルタリング部15、入力受付部16、及び表示部17として機能し、処理を行なう。
[program]
The program in the present embodiment may be any program as long as it causes a computer to execute steps A1 to A9 shown in FIG. By installing and executing this program on a computer, the image processing device 10 and the image processing method according to the present embodiment can be realized. In this case, the computer processor functions as a feature point extraction unit 11, a matrix calculation unit 12, a shape construction unit 13, an image acquisition unit 14, a filtering unit 15, an input reception unit 16, and a display unit 17 to perform processing.

また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点抽出部11、行列算出部12、形状構築部13、画像取得部14、フィルタリング部15、入力受付部16、及び表示部17のいずれかとして機能しても良い。 Further, the program in the present embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may be used as one of a feature point extraction unit 11, a matrix calculation unit 12, a shape construction unit 13, an image acquisition unit 14, a filtering unit 15, an input reception unit 16, and a display unit 17, respectively. It may work.

ここで、本実施の形態におけるプログラムを実行することによって、画像処理装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。 Here, a computer that realizes the image processing apparatus 10 by executing the program according to the present embodiment will be described with reference to FIG. 7. FIG. 7 is a block diagram showing an example of a computer that realizes the image processing apparatus according to the embodiment of the present invention.

図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。 As shown in FIG. 7, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication. The computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。 The CPU 111 expands the programs (codes) of the present embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various operations. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. The program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, specific examples of the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader / writer 116 mediates the data transmission between the CPU 111 and the recording medium 120, reads the program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-. Examples include optical recording media such as ROM (Compact Disk Read Only Memory).

なお、本実施の形態における画像処理装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、画像処理装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The image processing device 10 in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the image processing apparatus 10 may be partially realized by a program and the rest may be realized by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 12), but the present invention is not limited to the following description.

(付記1)
複数の画像から三次元形状を構築するための装置であって、
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備えている、ことを特徴とする画像処理装置。
(Appendix 1)
A device for constructing a three-dimensional shape from multiple images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
When two or more line segments or two or more points corresponding to each other are specified on at least two of the plurality of images, the geometrical relationship between the two or more line segments corresponding to each other, or each other. A matrix calculation unit that identifies a geometric relationship between two or more corresponding points and calculates a numerical matrix that expresses the specified geometric relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
An image processing device characterized by being equipped with.

(付記2)
前記形状構築部が、抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記1に記載の画像処理装置。
(Appendix 2)
Among the feature points constituting the combination of the extracted feature points, the shape building unit identifies and identifies the feature points that overlap with two or more designated line segments or two or more points corresponding to each other. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing apparatus according to Appendix 1.

(付記3)
前記形状構築部によって構築された前記三次元形状を画面上に表示する、表示部を更に備えている、
付記1または2に記載の画像処理装置。
(Appendix 3)
It further includes a display unit that displays the three-dimensional shape constructed by the shape construction unit on the screen.
The image processing apparatus according to Appendix 1 or 2.

(付記4)
前記形状構築部が、前記特徴点抽出部によって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築し、
前記表示部が、更に、前記仮の三次元形状を画面上に表示する、
付記3に記載の画像処理装置。
(Appendix 4)
The shape building unit constructs a temporary three-dimensional shape by using the combination of the feature points extracted by the feature point extracting unit.
The display unit further displays the temporary three-dimensional shape on the screen.
The image processing apparatus according to Appendix 3.

(付記5)
複数の画像から三次元形状を構築するための方法であって、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有する、ことを特徴とする画像処理方法。
(Appendix 5)
A method for constructing a 3D shape from multiple images,
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
An image processing method comprising.

(付記6)
前記(c)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記5に記載の画像処理方法。
(Appendix 6)
In step (c) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing method according to Appendix 5.

(付記7)
(d)前記(c)のステップによって構築された前記三次元形状を画面上に表示する、ステップを更に有する、
付記5または6に記載の画像処理方法。
(Appendix 7)
(D) Further having a step of displaying the three-dimensional shape constructed by the step of (c) on the screen.
The image processing method according to Appendix 5 or 6.

(付記8)
(e)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(f)前記(e)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を更に有する付記7に記載の画像処理方法。
(Appendix 8)
(E) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(F) A step for displaying the temporary three-dimensional shape constructed in the step (e) on the screen, and
The image processing method according to Appendix 7, further comprising.

(付記9)
コンピュータによって、複数の画像から三次元形状を構築するためのプログラムであって、
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)前記複数の画像のうちの少なくとも2つの画像上に、互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(c)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を実行させる命令を含むプログラム。
(Appendix 9)
The computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) When two or more line segments or two or more points corresponding to each other are designated on at least two of the plurality of images, the geometric relationship between the two or more line segments corresponding to each other is specified. , Or a step that identifies a geometric relationship between two or more points that correspond to each other and calculates a numerical matrix that expresses the identified geometric relationship.
(C) Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the combinations of the feature points other than the specified combinations are specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Including Mpu Rogura-time instructions to the execution.

(付記10)
前記(c)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
付記9に記載のプログラム
(Appendix 10)
In step (c) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The program described in Appendix 9.

(付記11)
前記プログラムが、前記コンピュータに、
(d)前記(c)のステップによって構築された前記三次元形状を画面上に表示する、ステップを実行させる命令を更に含む、
付記9または10に記載のプログラム
(Appendix 11)
The program is on the computer
(D) Further including an instruction to execute the step, displaying the three-dimensional shape constructed by the step (c) on the screen.
The program according to Appendix 9 or 10.

(付記12)
前記プログラムが、前記コンピュータに、
(e)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(f)前記(e)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を実行させる命令を更に含む、
付記11に記載のプログラム
(Appendix 12)
The program is on the computer
(E) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(F) A step for displaying the temporary three-dimensional shape constructed in the step (e) on the screen, and
Including further instructions to execute,
The program described in Appendix 11.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiments, the invention of the present application is not limited to the above-described embodiments. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention.

この出願は、2017年9月29日に出願された日本出願特願2017−190377を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2017-190377 filed on September 29, 2017 and incorporates all of its disclosures herein.

以上のように、本発明によれば、複数の画像から対応する特徴点の組合せを抽出するに際して、間違った特徴点の組合せの抽出を抑制することができる。本発明は、SfMといった複数の画像から三次元形状を構築する技術に有用である。 As described above, according to the present invention, when extracting the combination of corresponding feature points from a plurality of images, it is possible to suppress the extraction of the wrong combination of feature points. The present invention is useful in a technique for constructing a three-dimensional shape from a plurality of images such as SfM.

10 画像処理装置
11 特徴点抽出部
12 行列算出部
13 形状構築部
14 画像取得部
15 フィルタリング部
16 入力受付部
17 表示部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Image processing device 11 Feature point extraction unit 12 Matrix calculation unit 13 Shape construction unit 14 Image acquisition unit 15 Filtering unit 16 Input reception unit 17 Display unit 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Input interface 115 Display controller 116 Data reader / writer 117 Communication interface 118 Input device 119 Display device 120 Recording medium 121 Bus

Claims (12)

複数の画像から三次元形状を構築するための装置であって、
前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、フィルタリング部と、
前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、行列算出部と、
前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、形状構築部と、
を備え、
前記行列算出部は、更に、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記フィルタリング部の処理により残った誤差の少ない特徴点の組み合わせから数値行列を算出する、
ことを特徴とする画像処理装置。
A device for constructing a three-dimensional shape from multiple images.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images,
For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, the wrong feature point combination is specified based on the calculation result, and the specified wrong feature point combination is specified. Exclude, filtering part,
When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, two or more points corresponding to each other are specified. A matrix calculation unit that specifies the geometrical relationship between the line segments of the above, or the geometrical relationship between two or more points corresponding to each other, and calculates a numerical matrix expressing the specified geometrical relationship.
Using the numerical matrix, among the extracted combinations of the feature points, the combinations of the feature points in which the geometrical relationships between the feature points are inconsistent are specified, and the feature points other than the specified combinations of the feature points are specified. The shape building unit that builds the three-dimensional shape using the combination of
Equipped with
Further, even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, the matrix calculation unit is independent from the feature points and has two or more line segments or two or more points corresponding to each other. By specifying, a numerical matrix is calculated from the combination of feature points with few errors remaining by the processing of the filtering unit.
An image processing device characterized by this.
前記形状構築部が、抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
請求項1に記載の画像処理装置。
Among the feature points constituting the combination of the extracted feature points, the shape building unit identifies and identifies the feature points that overlap with two or more designated line segments or two or more points corresponding to each other. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing apparatus according to claim 1.
前記形状構築部によって構築された前記三次元形状を画面上に表示する、表示部を更に備えている、
請求項1または2に記載の画像処理装置。
It further includes a display unit that displays the three-dimensional shape constructed by the shape construction unit on the screen.
The image processing apparatus according to claim 1 or 2.
前記形状構築部が、前記特徴点抽出部によって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築し、
前記表示部が、更に、前記仮の三次元形状を画面上に表示する、
請求項3に記載の画像処理装置。
The shape building unit constructs a temporary three-dimensional shape by using the combination of the feature points extracted by the feature point extracting unit.
The display unit further displays the temporary three-dimensional shape on the screen.
The image processing apparatus according to claim 3.
複数の画像から三次元形状を構築するための方法であって、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、ステップと、
(c)前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(d)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有し、
さらに、(c)のステップにおいて、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記(b)のステップにより残った誤差の少ない特徴点の組み合わせから数値行列を算出する、ステップと、
ことを特徴とする画像処理方法。
A method for constructing a 3D shape from multiple images,
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, and based on the calculation result, the wrong combination of the feature points is specified, and the specified wrong feature point is specified. Eliminate the combination of steps and
(C) When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, they correspond to each other. A step of identifying a geometric relationship between two or more line segments, or a geometric relationship between two or more points corresponding to each other, and calculating a numerical matrix expressing the specified geometric relationship.
(D) Among the extracted combinations of the feature points, the combination of the feature points whose geometrical relationship between the feature points is inconsistent is specified by using the numerical matrix, and the combination of the feature points other than the specified combination of the feature points is specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Have a,
Further, in the step (c), even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, two or more independent line segments different from the feature points or two or more corresponding to each other or two or more. By designating the points, the numerical matrix is calculated from the combination of the feature points with less error left by the step (b) .
An image processing method characterized by that.
前記(d)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
請求項5に記載の画像処理方法。
In step (d) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The image processing method according to claim 5.
(e)前記(d)のステップによって構築された前記三次元形状を画面上に表示する、ステップを更に有する、
請求項5または6に記載の画像処理方法。
(E) Further having a step of displaying the three-dimensional shape constructed by the step (d) on the screen.
The image processing method according to claim 5 or 6.
(f)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(g)前記(f)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を更に有する請求項7に記載の画像処理方法。
(F) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(G) A step for displaying the temporary three-dimensional shape constructed in the step (f) on the screen, and
The image processing method according to claim 7, further comprising.
コンピュータによって、複数の画像から三次元形状を構築するためのプログラムであって、
前記コンピュータに、
(a)前記複数の画像それぞれから、対応する特徴点の組合せを抽出する、ステップと、
(b)抽出された前記特徴点の組合せごとに、前記特徴点間の幾何学的関係を計算し、計算結果に基づいて、誤った特徴点の組合せを特定し、特定した前記誤った特徴点の組合せを排除する、ステップと、
(c)前記複数の画像のうちの少なくとも2つの画像上に、抽出された前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点が指定された場合に、互いに対応する2以上の線分間の幾何学的関係、又は互いに対応する2以上の点間の幾何学的関係を特定し、特定した前記幾何学的関係を表現する数値行列を算出する、ステップと、
(d)前記数値行列を用いて、抽出された前記特徴点の組合せのうち、特徴点間の幾何学的関係が矛盾する前記特徴点の組合せを特定し、特定した前記特徴点の組合せ以外の前記特徴点の組合せを用いて、前記三次元形状を構築する、ステップと、
を有し、
さらに、(c)のステップにおいて、前記特徴点の組合せの数が不足して前記数値行列が算出できない場合においても、前記特徴点とは異なる独立した互いに対応する2以上の線分又は2以上の点を指定することで、前記(b)のステップにより残った誤差の少ない特徴点の組み合わせから数値行列を算出する、ステップと、
を実行させる命令を含むプログラム。
The computer, a program for constructing a three-dimensional shape from a plurality of images,
To the computer
(A) A step of extracting a combination of corresponding feature points from each of the plurality of images.
(B) For each combination of the extracted feature points, the geometric relationship between the feature points is calculated, and based on the calculation result, the wrong combination of the feature points is specified, and the specified wrong feature point is specified. Eliminate the combination of steps and
(C) When two or more independent line segments or two or more points different from the extracted feature points are designated on at least two of the plurality of images, they correspond to each other. A step of identifying a geometric relationship between two or more line segments, or a geometric relationship between two or more points corresponding to each other, and calculating a numerical matrix expressing the specified geometric relationship.
(D) Among the extracted combinations of the feature points, the combination of the feature points whose geometrical relationship between the feature points is inconsistent is specified by using the numerical matrix, and the combination of the feature points other than the specified combination of the feature points is specified. A step of constructing the three-dimensional shape using the combination of the feature points, and
Have a,
Further, in the step (c), even when the number of combinations of the feature points is insufficient and the numerical matrix cannot be calculated, two or more independent line segments different from the feature points or two or more corresponding to each other or two or more. By designating the points, the numerical matrix is calculated from the combination of the feature points with less error left by the step (b) .
A program that contains instructions to execute.
前記(d)のステップにおいて、
前記ステップ(a)で抽出された前記特徴点の組合せを構成している特徴点のうち、指定された、互いに対応する2以上の線分又は2以上の点に重なる特徴点を特定し、特定した特徴点を含む前記特徴点の組合せを排除して、前記三次元形状を構築する、
請求項9に記載のプログラム。
In step (d) above,
Among the feature points constituting the combination of the feature points extracted in the step (a), the feature points overlapping the designated two or more line segments or two or more points corresponding to each other are specified and specified. The three-dimensional shape is constructed by eliminating the combination of the feature points including the feature points.
The program according to claim 9.
前記プログラムが、前記コンピュータに、
(e)前記(d)のステップによって構築された前記三次元形状を画面上に表示する、ステップを実行させる命令を更に含む、
請求項9または10に記載のプログラム。
The program is on the computer
(E) Further including an instruction to execute the step, displaying the three-dimensional shape constructed by the step (d) on the screen.
The program according to claim 9 or 10.
前記プログラムが、前記コンピュータに、
(f)前記(a)のステップによって抽出された前記特徴点の組合せを用いて、仮の三次元形状を構築する、ステップと、
(g)前記(f)のステップで構築された前記仮の三次元形状を画面上に表示する、ステップと、
を実行させる命令を更に含む、
請求項11に記載のプログラム。
The program is on the computer
(F) A step of constructing a temporary three-dimensional shape using the combination of the feature points extracted by the step (a), and
(G) A step for displaying the temporary three-dimensional shape constructed in the step (f) on the screen, and
Including further instructions to execute,
The program according to claim 11.
JP2019545589A 2017-09-29 2018-09-26 Image processing equipment, image processing methods, and programs Active JP6989153B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017190377 2017-09-29
JP2017190377 2017-09-29
PCT/JP2018/035805 WO2019065784A1 (en) 2017-09-29 2018-09-26 Image processing device, image processing method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JPWO2019065784A1 JPWO2019065784A1 (en) 2020-08-06
JP6989153B2 true JP6989153B2 (en) 2022-01-05

Family

ID=65901927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019545589A Active JP6989153B2 (en) 2017-09-29 2018-09-26 Image processing equipment, image processing methods, and programs

Country Status (4)

Country Link
JP (1) JP6989153B2 (en)
CN (1) CN111133474B (en)
SG (1) SG11202001487XA (en)
WO (1) WO2019065784A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294702B2 (en) * 2019-10-16 2023-06-20 Necソリューションイノベータ株式会社 Image processing device, image processing method, and program
WO2021166574A1 (en) * 2020-02-17 2021-08-26 Necソリューションイノベータ株式会社 Image processing device, image processing method, and computer-readable recording medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4136044B2 (en) * 1997-12-24 2008-08-20 オリンパス株式会社 Image processing apparatus and image processing method therefor
JP5074622B2 (en) * 2005-11-01 2012-11-14 株式会社日立ソリューションズ Geographic image processing system
JP4908867B2 (en) * 2005-11-01 2012-04-04 株式会社日立ソリューションズ Geographic image processing system
EP1959391A1 (en) * 2007-02-13 2008-08-20 BrainLAB AG Determination of the three dimensional contour path of an anatomical structure
JP2008199658A (en) * 2008-04-04 2008-08-28 Olympus Corp Image processor and image processing method thereof
JP6331517B2 (en) * 2014-03-13 2018-05-30 オムロン株式会社 Image processing apparatus, system, image processing method, and image processing program
WO2015185968A1 (en) * 2014-06-06 2015-12-10 Tata Consultancy Services Limited Constructing a 3d structure
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP6435750B2 (en) * 2014-09-26 2018-12-12 富士通株式会社 Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and three-dimensional coordinate calculation program
JP6426968B2 (en) * 2014-10-08 2018-11-21 キヤノン株式会社 INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
CN104992441B (en) * 2015-07-08 2017-11-17 华中科技大学 A kind of real human body three-dimensional modeling method towards individualized virtual fitting
CN105844696B (en) * 2015-12-31 2019-02-05 清华大学 Image position method and device based on ray model three-dimensionalreconstruction
JP6482130B2 (en) * 2016-02-25 2019-03-13 Kddi株式会社 Geometric verification apparatus, program and method
JP6558803B2 (en) * 2016-03-23 2019-08-14 Kddi株式会社 Geometric verification apparatus and program
CN105894574B (en) * 2016-03-30 2018-09-25 清华大学深圳研究生院 A kind of binocular three-dimensional reconstruction method
CN106023307B (en) * 2016-07-12 2018-08-14 深圳市海达唯赢科技有限公司 Quick reconstruction model method based on site environment and system
CN106815824B (en) * 2016-12-08 2019-07-05 华中科技大学 A kind of image neighbour's optimization method improving extensive three-dimensional reconstruction efficiency

Also Published As

Publication number Publication date
JPWO2019065784A1 (en) 2020-08-06
CN111133474B (en) 2023-09-19
WO2019065784A1 (en) 2019-04-04
SG11202001487XA (en) 2020-03-30
CN111133474A (en) 2020-05-08

Similar Documents

Publication Publication Date Title
KR102385256B1 (en) Smoothing and gpu-enabled rendering of digital ink
CN109509198B (en) Apparatus and method for correcting damage
JP6570296B2 (en) Image processing apparatus, image processing method, and program
KR20160064953A (en) Image processing device, image processing method and program
JP2022092004A (en) Calculation device, processing method, program and storage medium
JP6989153B2 (en) Image processing equipment, image processing methods, and programs
US10586099B2 (en) Information processing apparatus for tracking processing
US10643095B2 (en) Information processing apparatus, program, and information processing method
WO2022093283A1 (en) Motion-based pixel propagation for video inpainting
EP2536123A1 (en) Image processing method and image processing apparatus
JPWO2018159467A1 (en) Moving object detecting device, moving object detecting method, and program
JP6937782B2 (en) Image processing method and device
JP4686624B2 (en) Information processing apparatus, image processing method, and program
JP2022064506A (en) Image processing device, image processing method, and program
WO2021075314A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP7276978B2 (en) Image processing device, image processing method, and program
JP6962450B2 (en) Image processing equipment, image processing methods, and programs
JP2017120455A (en) Information processing device, program and control method
JP2010263441A (en) Image processing apparatus, image processing method and program
CN113167568A (en) Coordinate calculation device, coordinate calculation method, and computer-readable recording medium
WO2019171635A1 (en) Operation input device, operation input method, anc computer-readable recording medium
US9454801B2 (en) Image processing apparatus, method for processing image, and program
JPWO2017090705A1 (en) Image processing apparatus, image processing method, and program
JP7443965B2 (en) Information processing device, correction method, program
JP2023104399A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6989153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150