JP2000088554A - Search method for feature point of object, and memory media with record of process program thereof and search device for feature point - Google Patents

Search method for feature point of object, and memory media with record of process program thereof and search device for feature point

Info

Publication number
JP2000088554A
JP2000088554A JP10253734A JP25373498A JP2000088554A JP 2000088554 A JP2000088554 A JP 2000088554A JP 10253734 A JP10253734 A JP 10253734A JP 25373498 A JP25373498 A JP 25373498A JP 2000088554 A JP2000088554 A JP 2000088554A
Authority
JP
Japan
Prior art keywords
feature point
information
image
scene
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10253734A
Other languages
Japanese (ja)
Inventor
Norio Nakamura
典生 中村
Shigeru Nagai
茂 長井
Toshiaki Sugimura
利明 杉村
Isao Miyagawa
勲 宮川
Naoko Uemoto
尚子 植本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10253734A priority Critical patent/JP2000088554A/en
Publication of JP2000088554A publication Critical patent/JP2000088554A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable enhancing accuracy of data of a shape feature point and a shape model by respectively searching each image when images from a plurality of view points are given. SOLUTION: A shape model S101, which describes data of a face surrounded with sides including a scene (an attention area) from an image being shot the scene with a camera, is made, and three-dimensional point (S102) of a top of an object constituting the scene from the shape model made is measured. A search area (S104) is determined from the three dimensional data of the object top measured and a position and attitude data of the camera. A search (S107) of a feature point from the nearest image with the area (S105) and the scene image (S106) is done and a candidate (S108) of the feature point is extracted. A side or face adjacent to the feature point from the shape model is searched (S109), and side or face data is extracted (S110). A side or face of the image (S111) extracted from side or face data (S110) and the candidate of the feature point is searched, thereby obtains, the most reliable feature point.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体のコンピュー
タによる特徴点探索方法及びその処理プログラムを記録
した記録媒体ならびに物体の特徴点探索装置に関し、特
に、シーン(注目領域)を構成する3次元点に対応する
形状的特徴点をシーン画像(注目領域の画像)から探索
する技術に適用して有効な技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of searching for a feature point of an object by a computer, a recording medium storing a processing program for the method, and a device for searching for a feature point of an object. The present invention relates to a technology that is effective when applied to a technology for searching for a geometric feature point corresponding to a scene image from a scene image (image of a region of interest).

【0002】[0002]

【従来の技術】シーン画像を理解するために、シーンを
構成する物体の頂点の3次元座標値と点同士の接続関係
を表す辺と辺に囲まれた面の情報を持つ形状モデル(多
角形モデル)が用いられる。
2. Description of the Related Art In order to understand a scene image, a shape model (polygon) having information on three-dimensional coordinate values of vertices of an object constituting a scene and sides indicating a connection relationship between points and a surface surrounded by the sides is known. Model) is used.

【0003】シーンの形状モデルとカメラの位置及び姿
勢が正確に与えられる場合には、形状モデルの任意の3
次元点に対応する画像の点を幾何学的に算出することが
できる。この点に最も近い画像特徴点を形状的特徴点と
する。
If the shape model of the scene and the position and orientation of the camera are given accurately, any three
The points of the image corresponding to the dimension points can be calculated geometrically. An image feature point closest to this point is defined as a shape feature point.

【0004】例えば、従来の形状的特徴の探索方法は、
図10に示すように、カメラでシーンを撮影した画像か
らシーンを含む辺と辺に囲まれた面の情報を記述する形
状モデルを作成し(S101)、この形状モデルからシ
ーンを構成する物体の頂点の3次元点を計測する(S1
02)。前記カメラの位置及び姿勢を計測する(S10
3)。この計測された物体の頂点の3次元点情報と、カ
メラの位置及び姿勢情報から探索領域の決定する(S1
04)。この決定された探索領域(S105)とシーン
画像(S106)により最も近い画像からの特徴点探索
を行い(S107)、最も確からしい特徴点を獲得する
(S108)。
[0004] For example, a conventional method for searching for a geometric feature is as follows.
As shown in FIG. 10, a shape model that describes information on a side including a scene and a surface surrounded by the side is created from an image obtained by capturing a scene with a camera (S101). Measure the three-dimensional point of the vertex (S1
02). The position and orientation of the camera are measured (S10
3). A search area is determined from the measured three-dimensional point information of the vertex of the object and the position and orientation information of the camera (S1).
04). A feature point search is performed from an image closest to the determined search area (S105) and the scene image (S106) (S107), and a most probable feature point is obtained (S108).

【0005】複数の画像で対応する形状的特徴点を探索
するために、ある画像の特徴点の座標とカメラの位置及
び姿勢の高精度な変分から別の画像の一部分(エピ極線
上)を探索することを繰り返している。
In order to search for a corresponding geometric feature point in a plurality of images, a part of another image (on an epipolar line) is searched from the coordinates of the feature point of one image and the highly accurate variation of the position and orientation of the camera. Repeat to do.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記従
来の方法では、中心射影した点に最も近い画像特徴点を
形状的特徴点としているため、高精度の形状モデルを獲
得するには、例えば、屋外景観などの計測が困難であ
り、特に、広域である場合には困難である。また、形状
モデルとカメラの位置及び姿勢センサに誤差がある場合
は、特徴点探索は困難であった。
However, in the above-mentioned conventional method, the image feature point closest to the center projected point is used as the shape feature point. It is difficult to measure the landscape and the like, especially in a wide area. Further, when there is an error between the shape model and the position and orientation sensors of the camera, it has been difficult to search for a feature point.

【0007】本発明の目的は、多角形の座標値に誤差が
含まれる形状モデルと誤差の含まれるカメラの位置及び
姿勢と画像が与えられる場合でも、画像中から形状モデ
ルの3次元点に対応する形状的特徴点を探索することが
可能な技術を提供することにある。
[0007] An object of the present invention is to provide an image processing apparatus which is capable of matching three-dimensional points of a shape model from an image even when a shape model having an error in the coordinate values of a polygon and a camera position and orientation and an image having the error are given. It is an object of the present invention to provide a technique capable of searching for a shape feature point to be changed.

【0008】本発明の他の目的は、複数の視点からの画
像が与えられるとき、それぞれから探索することにより
形状的特徴点の精度や形状モデルの精度を高めることが
可能な技術を提供することにある。本発明の前記ならび
にその他の目的及び新規な特徴は、本明細書の記述及び
添付図面によって明らかにする。
Another object of the present invention is to provide a technique capable of improving the accuracy of a geometric feature point and the accuracy of a shape model by searching from each of images given from a plurality of viewpoints. It is in. The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0009】[0009]

【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば、以
下のとおりである。 (1)カメラでシーンを撮影した画像から辺と辺に囲ま
れたシーン(注目領域)を含む面の情報を記述する形状
モデルを作成し、該形状モデルからシーンを構成する物
体の頂点の3次元点を計測し、前記カメラの位置及び姿
勢を計測し、前記計測された物体の頂点の3次元点情報
と、前記カメラの位置情報及び姿勢情報から探索領域を
決定し、該決定された探索領域とシーン画像により最も
近い画像からの特徴点を探索して特徴点の候補を抽出
し、前記形状モデルから特徴点に隣接する辺または面を
探索して辺情報または面情報を抽出し、該抽出された辺
情報または面情報と前記特徴点の候補から画像の辺また
は面を探索して最も確からしい特徴点を獲得する物体の
特徴点探索方法である。
The outline of a typical invention among the inventions disclosed in the present application will be briefly described as follows. (1) A shape model that describes information of a surface including a side and a scene (attention area) surrounded by the side is created from an image obtained by capturing a scene with a camera, and three vertexes of an object constituting the scene are created from the shape model. Measuring a dimensional point, measuring the position and orientation of the camera, determining a search area from the three-dimensional point information of the measured vertices of the object and the position information and orientation information of the camera, and determining the determined search. A feature point from an image closest to the region and the scene image is searched to extract feature point candidates, and a side or surface adjacent to the feature point is searched from the shape model to extract side information or surface information. This is a feature point search method for an object that searches for a side or face of an image from the extracted edge information or surface information and the feature point candidates to obtain the most probable feature point.

【0010】(2)前記(1)の物体の特徴点探索方法
によって探索された特徴点を、異なる位置及び姿勢で撮
影した複数の画像で対応付けて特徴点の探索精度を高め
る。 (3)前記(1)の物体の特徴点探索方法の処理手順
を、コンピュータに実行させるための物体の特徴点探索
プログラムを記録した記録媒体である。
(2) The feature points searched by the object feature point search method of (1) are associated with a plurality of images photographed at different positions and postures to enhance the search accuracy of the feature points. (3) A recording medium which records a feature point search program of an object for causing a computer to execute the processing procedure of the feature point search method of the object (1).

【0011】(4)前記(1)の特徴点探索方法の処理
手順と、該処理手順によって探索された特徴点を、異な
る位置及び姿勢で撮影した複数の画像で対応付けて特徴
点の探索精度を高める手順を、コンピュータに実行させ
るための物体の特徴点探索プログラムを記録した記録媒
体である。
(4) The processing procedure of the feature point searching method of the above (1) and the feature points searched by the processing procedure are associated with a plurality of images photographed at different positions and postures, and the search accuracy of the feature points is determined. Is a recording medium that records a feature point search program for an object for causing a computer to execute a procedure for increasing the feature point.

【0012】(5)シーンを撮影するカメラと、該撮影
されたシーンを含む画像から辺と辺に囲まれたシーンを
含む面の情報を記述する形状モデルを作成する手段と、
該形状モデルからシーンを構成する物体の頂点の3次元
点を計測する手段と、前記カメラの位置及び姿勢を計測
する手段と、前記計測された物体の頂点の3次元点情報
と、前記カメラの位置情報及び姿勢情報から探索領域を
決定する手段と、該決定された探索領域とシーン画像に
より最も近い画像からの特徴点を探索して特徴点の候補
を抽出する手段と、前記形状モデルから特徴点に隣接す
る辺または面を探索して辺情報または面情報を抽出する
手段と、該抽出された辺情報または面情報と前記特徴点
の候補から画像の辺または面を探索して最も確からしい
特徴点を獲得する手段を備えた物体の特徴点探索装置で
ある。
(5) A camera for photographing a scene, and means for creating a shape model for describing information on a side including a side and a scene surrounded by the side from an image including the photographed scene;
Means for measuring three-dimensional points of vertices of an object constituting a scene from the shape model; means for measuring the position and orientation of the camera; three-dimensional point information of the measured vertices of the object; Means for determining a search area from position information and orientation information; means for searching for a feature point from an image closest to the determined search area and the scene image to extract feature point candidates; Means for searching for a side or a surface adjacent to a point to extract side information or surface information, and searching for a side or a surface of an image from the extracted side information or surface information and the feature point candidate to be most likely. An object feature point search device provided with a feature point acquiring unit.

【0013】(6)前記(5)の物体の特徴点探索装置
によって探索された特徴点を、異なる位置及び姿勢で撮
影した複数の画像で対応付けて特徴点の探索精度を高め
る手段を備えた物体の特徴点探索装置である。
(6) There is provided means for increasing the accuracy of searching for the feature points by associating the feature points searched by the object feature point searching device of (5) with a plurality of images photographed at different positions and postures. It is an object feature point search device.

【0014】発明の特徴と従来の技術との差異すなわ
ち、本発明は、誤差の含まれている形状モデルと画像セ
ンサの位置及び姿勢情報によって形状モデルから得られ
る3次元点を画像面上に中心射影し、その周辺の画像特
徴点を形状的特徴点の候補として扱い、形状モデルを参
照して以下のように候補を絞り込む。
Differences between the features of the present invention and the prior art, that is, the present invention centers on the image plane a three-dimensional point obtained from the shape model based on the shape model containing the error and the position and orientation information of the image sensor. Projection is performed, and the image feature points in the vicinity are treated as candidates for geometric feature points, and the candidates are narrowed down with reference to the shape model as follows.

【0015】・特徴点に隣接する辺及び面の画像特徴 ・特徴点に隣接する辺に隣接する特徴点の画像特徴 ・複数の画像における形状的特徴点周辺の画像特徴Image features of sides and faces adjacent to feature points image features of feature points adjacent to sides adjacent to feature points image features around geometric feature points in a plurality of images

【0016】[0016]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態(実施例)を詳細に説明する。なお、全図に
おいて、同一機能を有するものは同一符号を付け、繰り
返しの説明は省略する。
Embodiments of the present invention will be described below in detail with reference to the drawings. In all the drawings, components having the same function are denoted by the same reference numerals, and repeated description will be omitted.

【0017】(実施形態1)図2は本発明の実施形態1
の物体の特徴点探索装置の概略構成を示すブロック構成
図である。
(Embodiment 1) FIG. 2 shows Embodiment 1 of the present invention.
1 is a block diagram showing a schematic configuration of an object feature point search device.

【0018】本実施形態1の物体の特徴点探索装置は、
図2に示すように、コンピュータ100と、カメラ、ビ
デオカメラ等の画像入力手段(以下、単にカメラと称す
る)200と、カメラ200の位置及び姿勢を計測する
カメラ位置・姿勢計測手段300と、表示装置等の出力
装置400とからなっている。コンピュータ100は中
央演算処理装置(CPU)101と、中央演算処理装置
(CPU)101の外部に設けられている外部記憶装置
(外部メモリ)102を有している。
The object feature point searching apparatus according to the first embodiment includes:
As shown in FIG. 2, a computer 100, an image input unit (hereinafter simply referred to as a camera) 200 such as a camera or a video camera, a camera position / posture measuring unit 300 for measuring the position and orientation of the camera 200, and a display And an output device 400 such as a device. The computer 100 has a central processing unit (CPU) 101 and an external storage device (external memory) 102 provided outside the central processing unit (CPU) 101.

【0019】ここで、本発明の特徴点探索処理の原理を
屋外の都市景観を対象とした例で説明する。高精度の形
状モデルを獲得するには、屋外景観などの計測が困難で
あり、特に、広域である場合は困難である。従来、形状
モデルと位置及び姿勢センサに誤差がある場合は、特徴
点探索は困難であったが、本発明では、誤差があること
を前提に形状的特徴点を画像から領域探索することによ
り、屋外景観等にも適用できるようにする。
Here, the principle of the feature point search processing of the present invention will be described by taking an example of an outdoor cityscape. In order to obtain a high-precision shape model, it is difficult to measure an outdoor landscape or the like, especially in a wide area. Conventionally, when there is an error between the shape model and the position and orientation sensor, it is difficult to search for a feature point.In the present invention, however, a region search is performed on an image for a shape feature point on the assumption that there is an error. Make it applicable to outdoor scenery, etc.

【0020】スキャン型のレーザレンジファインダによ
りシーンの概形を獲得し、さらにレンジデータの幾何学
的特徴(頂点・辺・面等)を曲率の変化の観測によって
抽出して、ポリゴンで近似することにより形状モデルを
作成する。レンジデータの水平方向の精度が不足する場
合は、入手可能なデジタル地図を用いてデータの補正を
行う。
Obtaining an outline of a scene with a scan type laser range finder, and extracting geometric features (vertex, side, surface, etc.) of the range data by observing a change in curvature, and approximating with polygons. To create a shape model. When the horizontal accuracy of the range data is insufficient, the data is corrected using an available digital map.

【0021】例えば、景観を撮影するカメラ(画像入力
手段200)に、GPS(GlobalPositioning Syste
m:世界的位置決定システム)あるいはD-GPSによる
位置センサとジャイロ等による姿勢センサ(カメラ位置
・姿勢計測手段300)を取り付け、画像の撮影と同時
刻に出力されるトリガー信号によりカメラの位置情報及
び姿勢情報を獲得する。
For example, a GPS (global positioning system) is provided to a camera (image input means 200) for photographing a landscape.
m: Global position determination system) or a position sensor using D-GPS and a posture sensor (camera position / posture measuring means 300) using a gyro or the like, and camera position information based on a trigger signal output at the same time as image capturing. And posture information.

【0022】前記の形状モデルの1点を、前記で得られ
たカメラの位置情報及び姿勢情報によりカメラの画像面
上に中心射影する。一般には、前記センサの誤差や形状
モデルの持つ誤差のために、中心射影した点は、画像の
本来対応すべき点とは一致せず、ある領域の中に対応す
べき点がある(図3参照:形状モデルとカメラ位置及び
姿勢に内在する誤差により、3次元点を画像面に中心射
影した点と画像特徴点が一致しないことを図示してい
る)。
One point of the above shape model is centrally projected on the image plane of the camera based on the position information and attitude information of the camera obtained above. Generally, due to the error of the sensor and the error of the shape model, the center projected point does not coincide with the originally corresponding point of the image, and there is a corresponding point in a certain area (FIG. 3). (See: The point where the three-dimensional point is centrally projected on the image plane does not match the image feature point due to errors inherent in the shape model and the camera position and orientation.)

【0023】中心射影した点を中心に前記の誤差の推定
値に応じた近傍として、一定の半径を持つ円を取り、近
傍円内の画像をエッジ検出処理により抽出した画像特徴
点を、形状モデルの3次元点に対応する形状的特徴点の
候補とする(図4参照:図3における探索領域には3つ
の画像特徴点が存在することを説明している)。
A circle having a constant radius is taken as a neighborhood corresponding to the estimated value of the error centered on the center-projected point, and an image feature point obtained by extracting an image in the neighborhood circle by edge detection processing is taken as a shape model. (See FIG. 4: it explains that there are three image feature points in the search area in FIG. 3).

【0024】形状モデルを参照し、注目している点に隣
接する辺に相当する画像特徴(画像から検出したエッ
ジ)が存在するか調べる。また、形状モデルと太陽高度
から算出される日陰部分と、点に隣接する面に相当する
部分の画像の明度変化の相関を調べる。以上の判定によ
り、形状的特徴点の候補から最も確からしいものを選択
する(図5参照:図5は形状モデルから得る特徴点候補
の絞り込みのための情報を示す図である。着目する3次
元点に隣接する辺の数は3つであり、方向は左・右上・
下であり、隣接する面についての陰影は右下の面が暗い
ことを示している)。
Referring to the shape model, it is checked whether an image feature (edge detected from the image) corresponding to a side adjacent to the point of interest exists. Further, the correlation between the shade portion calculated from the shape model and the sun altitude and the brightness change of the image of the portion corresponding to the surface adjacent to the point is examined. By the above determination, the most probable shape feature point candidate is selected (see FIG. 5: FIG. 5 is a diagram showing information for narrowing down feature point candidates obtained from the shape model. The number of sides adjacent to the point is three, and the directions are left, upper right,
Below and the shading for the adjacent plane indicates that the lower right plane is darker).

【0025】前記で得られた形状的特徴点により、形状
モデルの面に対応する画像を、シーン画像から切り出し
て、形状モデルにテクスチャマッピングすることが可能
となる。
With the obtained geometric feature points, an image corresponding to the surface of the shape model can be cut out from the scene image and texture-mapped to the shape model.

【0026】図1は本発明の実施形態1の物体の特徴点
探索装置による画像領域からの特徴点探索処理手順を示
すフロー図である。
FIG. 1 is a flowchart showing a procedure for searching for a feature point from an image area by the apparatus for searching for a feature point of an object according to the first embodiment of the present invention.

【0027】本実施形態1の物体の特徴点探索装置によ
る画像領域からの特徴点探索処理について図1を用いて
説明する。
A feature point search process from an image area by the object feature point search apparatus according to the first embodiment will be described with reference to FIG.

【0028】カメラでシーンを撮影した画像からシーン
(注目領域)を含む辺と辺に囲まれた面の情報(デー
タ)を記述する形状モデル(S101)を作成し(S1
01)、この作成された形状モデルからシーンを構成す
る物体の頂点の3次元点を計測する(S102)。前記
カメラの位置及び姿勢(方向)を計測する(S10
3)。この計測された物体の頂点の3次元点情報と、カ
メラの位置及び姿勢情報から探索領域の決定する(S1
04)。この決定された探索領域(S105)とシーン
画像(S106)により最も近い画像からの特徴点探索
を行いて(S107)、特徴点の候補を抽出する(S1
08)。
A shape model (S101) describing information (data) of a side including a scene (region of interest) and a surface surrounded by the side is created from an image obtained by capturing a scene with a camera (S1).
01), three-dimensional points of vertices of objects constituting a scene are measured from the created shape model (S102). The position and orientation (direction) of the camera are measured (S10
3). A search area is determined from the measured three-dimensional point information of the vertex of the object and the position and orientation information of the camera (S1).
04). A feature point search is performed from an image closest to the determined search area (S105) and the scene image (S106) (S107), and feature point candidates are extracted (S1).
08).

【0029】前記形状モデルから特徴点に隣接する辺ま
たは面を探索して辺情報(データ)または面情報(デー
タ)を探索して抽出し(S109)、該抽出された辺情
報または面情報(S110)と、特徴点の候補から画像
の辺または面を探索して(S111)、最も確からしい
特徴点を獲得する(S112)。
A side or a surface adjacent to the feature point is searched from the shape model to search and extract side information (data) or surface information (data) (S109), and the extracted side information or surface information (data) is searched. (S110), the side or the surface of the image is searched from the feature point candidates (S111), and the most probable feature point is obtained (S112).

【0030】(形状モデルを作成するアルゴリズム)前
記形状モデルを作成する方法は、いくつか知られている
が、スキャン型レーザレンジファインダによる距離デー
タを基に作成する方法について説明する。曲面の曲率に
より特徴的な点を決定するアルゴリズムは公知である。
(Algorithm for Creating Shape Model) There are several known methods for creating the shape model. A method for creating the shape model based on distance data by a scanning laser range finder will be described. Algorithms for determining characteristic points based on the curvature of a curved surface are known.

【0031】本実施形態1に示した屋外都市景観に適用
する場合は、形状が主に平面によって形成されており、
形状モデルを平面近似できるような概形を得るために
は、形状モデルの(1)尾根または頂点、(2)谷また
は凹点を検出するのが良い。この目的には平均曲率を用
いるのが適当である。
When applied to the outdoor cityscape shown in the first embodiment, the shape is mainly formed by a flat surface.
In order to obtain a general shape that can approximate the shape model in a plane, it is preferable to detect (1) a ridge or a vertex, and (2) a valley or a concave point of the shape model. It is appropriate to use the mean curvature for this purpose.

【0032】(3次元点の選択方法)形状モデルは3次
元で表現された点/辺/面で構成されるが、シーン画像
に撮影されていると思われる3次元点のうち面により隠
される点を除いて全て選択する。
(Method of selecting three-dimensional point) The shape model is composed of points / sides / surfaces expressed in three dimensions, but is hidden by the surface among the three-dimensional points considered to be photographed in the scene image. Select all except points.

【0033】(シーン画像撮影時のカメラ位置及び姿勢
の獲得方法)シーンを撮影した時のカメラ位置と姿勢を
知る方法は、いくつか知られている。実施形態1に示し
た屋外都市景観に適用する場合は、GPSを用いた位置
測量が適当である。カメラの姿勢は、各種ジャイロによ
る慣性航法装置か、ジャイロのような相対測定でないG
PSを用いる姿勢測量が適当である。
(Method of Obtaining Camera Position and Orientation at the Time of Shooting Scene Image) There are several methods for knowing the camera position and attitude at the time of shooting a scene. When applied to the outdoor cityscape described in the first embodiment, position measurement using GPS is appropriate. The posture of the camera can be either an inertial navigation system using various gyros or a G that is not a relative measurement like a gyro.
Posture survey using PS is appropriate.

【0034】(探索領域の決定方法)形状モデルをカメ
ラ位置及び姿勢を表す座標系に変換する必要がある。実
施形態1では、国土地理院の定める国家座標系のような
ボ所的な直交座標系が適当である。
(Method of Determining Search Area) It is necessary to convert a shape model into a coordinate system representing a camera position and a posture. In the first embodiment, a rectangular coordinate system such as a national coordinate system defined by the Geographical Survey Institute is appropriate.

【0035】カメラの内部パラメータ(焦点距離、画素
サイズ、歪み補正係数)とカメラの位置及び姿勢を用い
て、撮影されたシーン画像に重畳する形状モダルを鳥橄
する手段は公知である。3次元点をシーン画像に射影し
た点の半径rの近傍を特徴点探索領域とする。rは与え
られるパラメータで、モデルの精度ならびにカメラ位置
及び姿勢の精度により変化する。
There is a known means for using a camera's internal parameters (focal length, pixel size, distortion correction coefficient) and the position and orientation of the camera to create a shape modal to be superimposed on a captured scene image. The vicinity of the radius r of the point at which the three-dimensional point is projected on the scene image is defined as a feature point search area. r is a given parameter, which varies depending on the accuracy of the model and the accuracy of the camera position and attitude.

【0036】(画像からの特徴点探索)シーン画像の探
索領域の内部から、公知であるエッジ抽出アルゴリズル
等を用いてエッジ画像を求める。エッジは頂点/頂点を
結ぶ辺/その他の画像明暗が発生した部分に発生すると
考えられる。エッジ画像をモルフォロジー処理/細線化
処理することにより、交点/角度/端点/中間点に分類
して特徴点の候補とする。
(Feature Point Search from Image) An edge image is obtained from a search area of a scene image by using a well-known edge extraction algorithm or the like. It is considered that an edge is generated at a vertex / side connecting the vertex / other portion where image brightness is generated. By performing morphology processing / thinning processing on the edge image, it is classified into intersection points / angles / end points / intermediate points to be feature point candidates.

【0037】(形状モデルから辺/面データを作成する
アゴリズム)3次元点とそれに隣接する辺/面をカメラ
位置及び姿勢、カメラ内部パラメータを用いてシーン画
像上に射影する。射影されたものと元の形状情報は関連
づけておくことにより、3次元点につながる辺が射影さ
れた点の集合を得る手段を用意しておく。
(Agorithm for Creating Side / Surface Data from Shape Model) A three-dimensional point and its neighboring sides / faces are projected onto a scene image using the camera position and orientation and camera internal parameters. By associating the projected shape with the original shape information, a means for obtaining a set of points on which the side connected to the three-dimensional point is projected is prepared.

【0038】(画像からの辺/面探索のアルゴリズム)
画像からの辺/面探索は、図6に示すように、特徴点候
補のうち交点または角点と分類されているものと、3次
元点の射影された点との対応を、3つの尺度で評価す
る。 (1)交点または角点と対応する3次元点が射影された
点までの距離による評価図7に示すように、評価C1は
点同士の直線距離Lで評価する(C1=L)。 (2)ある交点または角点につながる中間点と、対応す
る3次元点につながる辺が射影された線との一致度によ
る評価図8に示すように、評価C2は中間点と辺が射影
された線との画像面上での距離Diの総和DTを中間点
の数Pで割ったもので評価する(C2=DT/P)。 (3)交点または角点と3次元点の組み合わせによる位
置の逆転/重複/対応なしのペナルティ 位置のの逆転の評価方法はいろいろ考えられるが、例え
ば、点のx軸座標値の大小を比較して正/逆を判断でき
る。逆転した点同士の直線距離Lrで評価する。
(Algorithm for edge / surface search from image)
As shown in FIG. 6, in the edge / plane search from the image, correspondence between a feature point candidate classified as an intersection or a corner point and a projected point of a three-dimensional point is represented by three scales. evaluate. (1) Evaluation Based on Distance to Intersection or Corner Point Corresponding to Projected Three-Dimensional Point As shown in FIG. 7, evaluation C1 is evaluated based on a linear distance L between points (C1 = L). (2) Evaluation based on the degree of coincidence between an intermediate point connected to a certain intersection or a corner point and a line on which a side connected to the corresponding three-dimensional point is projected. As shown in FIG. The evaluation is made by dividing the total sum DT of the distances Di on the image plane from the line by the number P of the intermediate points (C2 = DT / P). (3) Inversion / overlap / penalty of no correspondence due to the combination of intersections or corner points and three-dimensional points There are various methods for evaluating the inversion of the position. For example, the magnitudes of the x-axis coordinate values of the points are compared. To determine the forward / reverse. Evaluation is made based on the linear distance Lr between the inverted points.

【0039】また、交点または角点の検出に失敗した
り、過剰に検出することがあるため、交点または角点と
3次元点は、同じ数でない可能性がある。重複箇所数W
と対応なし数Nにより評価する(数1)。
Further, since the intersection or corner point may fail to be detected or may be excessively detected, the number of intersection points or corner points and the number of three-dimensional points may not be the same. Number of overlapping points W
And the number N without correspondence (Equation 1).

【0040】[0040]

【数1】 (Equation 1)

【0041】全体の評価関数Cは、以下の数2の式のよ
うに計算する。この結果を図に表わすと、図9のように
なる。
The overall evaluation function C is calculated as in the following equation (2). The result is shown in FIG.

【0042】[0042]

【数2】 (Equation 2)

【0043】数2の式において、P1、P2、P3、P
31、P32は重み付け係数である。
In the equation (2), P1, P2, P3, P
31 and P32 are weighting coefficients.

【0044】画像単位で全ての交点または角点と3次元
点の組み合わせに対して前記の評価関数Cを計算し、最
小となる組み合わせによって得られる交点または角点を
最も確からしい特徴点とする。
The above evaluation function C is calculated for all combinations of intersection points or corner points and three-dimensional points in image units, and the intersection points or corner points obtained by the smallest combination are regarded as the most probable feature points.

【0045】(実施形態2)本発明の実施形態2は、前
記実施形態1において、視点の異なる位置及び姿勢で撮
影した複数の画像が与えられた場合に形状的特徴点の探
索精度を高める方法である。
(Embodiment 2) The embodiment 2 of the present invention is a method according to the embodiment 1, in which a plurality of images taken at different positions and postures at different viewpoints are given to improve the accuracy of searching for geometric feature points. It is.

【0046】形状モデルのある3次元点に対応するそれ
ぞれの画像の形状的特徴点を求める際に、特徴点候補か
ら最も適切なものを1つに限定せずに、それぞれの候補
に確度をつけて出力する。時系列画像のように短時間の
間に画像を撮影しているとすると、同一点周辺の画像は
高い相関を持つはずである。候補点周辺の画像の相関に
より候補点をクラスタ化し、クラスタに含まれる候補点
の確度の和を算出する。和が最大となるクラスタに含ま
れる候補点を形状的特徴点とすることにより精度を高め
ることができる。つまり、複数の視点からの画像が与え
られるとき、それぞれから探索することにより形状的特
徴点の精度や形状モデルの精度を、さらに、高めること
ができる。
When obtaining the geometric feature points of each image corresponding to a certain three-dimensional point of the shape model, the most appropriate one from the feature point candidates is not limited to one, but the accuracy is given to each candidate. Output. If an image is captured in a short time like a time-series image, images around the same point should have high correlation. The candidate points are clustered based on the correlation between the images around the candidate points, and the sum of the accuracy of the candidate points included in the cluster is calculated. Accuracy can be improved by setting candidate points included in the cluster having the largest sum as the geometric feature points. That is, when images from a plurality of viewpoints are given, the accuracy of the geometric feature point and the accuracy of the shape model can be further increased by searching from each of them.

【0047】精度を高めた形状的特徴点の集合から、
「動きからの形状推定(Shape from motion)」技術を
用いて、3次元点座標を逆に推定し、形状モデルを補正
することができる。
From the set of geometric feature points with improved accuracy,
Using the “Shape from motion” technique, the three-dimensional point coordinates can be estimated in reverse, and the shape model can be corrected.

【0048】以上、本発明を実施形態(実施例)によっ
て具体的に説明したが、本発明は前記実施形態(実施
例)に限定されるものではなく、その要旨を逸脱しない
範囲において種々変更し得ることはいうまでもない。
Although the present invention has been described in detail with reference to the embodiments (examples), the present invention is not limited to the above-described embodiments (examples), and various modifications may be made without departing from the scope of the invention. It goes without saying that you get it.

【0049】[0049]

【発明の効果】以上説明したように、本発明によれば、
画像から形状的特徴点の高精度な探索を行うことによ
り、形状的特徴点で切り取った画像のテクスチャを形状
モデルに対応させたり、与えられる形状の多角形モデル
やカメラ位置及び姿勢の精度を高めることができる。ま
た、複数の視点からの画像が与えられるとき、それぞれ
から探索することにより形状的特徴点の精度や形状モデ
ルの精度を、さらに、高めることができる。
As described above, according to the present invention,
By performing a high-precision search for geometric feature points from an image, the texture of the image cut by the geometric feature points can be made to correspond to the shape model, or the accuracy of the given polygon model or camera position and orientation can be increased. be able to. Further, when images from a plurality of viewpoints are given, the accuracy of the geometric feature point and the accuracy of the shape model can be further increased by searching from each of them.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1の物体の特徴点探索装置に
よる画像領域からの特徴点探索する処理手順を示すフロ
ー図である。
FIG. 1 is a flowchart showing a processing procedure for searching for a feature point from an image area by an object feature point search device according to a first embodiment of the present invention.

【図2】本実施形態1の物体の特徴点探索装置の概略構
成を示すブロック構成図である。
FIG. 2 is a block diagram showing a schematic configuration of an object feature point searching device according to the first embodiment.

【図3】本実施形態1の形状モデルとカメラ位置及び姿
勢に内在する誤差により、3次元点を画像面に中心射影
した点と画像特徴点が一致しないことをす示す図であ
る。示している。
FIG. 3 is a diagram showing that a point at which a three-dimensional point is centrally projected on an image plane does not match an image feature point due to an error inherent in the shape model and the camera position and orientation according to the first embodiment. Is shown.

【図4】図3における探索領域には3つの画像特徴点が
存在することを説明するための図である。
FIG. 4 is a diagram for explaining that three image feature points exist in a search area in FIG. 3;

【図5】本実施形態1の形状モデルから得る特徴点候補
の絞り込みのための情報を示す図である。
FIG. 5 is a diagram showing information for narrowing down feature point candidates obtained from the shape model according to the first embodiment.

【図6】本実施形態1の画像からの辺/面探索のアルゴ
リズムにおける評価尺度を説明するための図である。
FIG. 6 is a diagram for explaining an evaluation scale in an algorithm for searching for an edge / plane from an image according to the first embodiment.

【図7】本実施形態1の交点または角点と対応する3次
元点が射影された点までの距離による評価を説明するた
めの図である。
FIG. 7 is a diagram for explaining evaluation based on a distance to a point where a three-dimensional point corresponding to an intersection or a corner point according to the first embodiment is projected.

【図8】本実施形態1のある交点または角点につながる
中間点と、対応する3次元点につながる辺が射影された
線との一致度による評価を説明するための図である。
FIG. 8 is a diagram for describing evaluation based on the degree of coincidence between an intermediate point connected to a certain intersection or a corner point and a line on which a side connected to a corresponding three-dimensional point is projected according to the first embodiment.

【図9】本実施形態1の全体の評価関数Cを計算した結
果を表わした図である。
FIG. 9 is a diagram illustrating a result of calculating an overall evaluation function C of the first embodiment.

【図10】従来の形状的特徴点を探索する方法を説明す
るための図である。
FIG. 10 is a diagram for explaining a conventional method of searching for a geometric feature point.

【符号の説明】[Explanation of symbols]

100…コンピュータ100、101…中央演算処理装
置(CPU)、102…外部メモリ(外部記憶装置)、
200…画像入力手段、300…カメラ位置・姿勢計測
手段、400…出力装置。
100 computer 100, 101 central processing unit (CPU), 102 external memory (external storage device)
200: image input means, 300: camera position / posture measuring means, 400: output device.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 杉村 利明 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 宮川 勲 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 植本 尚子 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 2F065 AA04 AA11 AA12 BB05 CC00 EE00 FF04 FF09 FF21 FF63 FF65 FF67 JJ03 JJ19 JJ26 QQ13 QQ21 QQ27 QQ31 QQ32 QQ38 QQ41 SS02 SS13 5B057 CF01 DA07 DB03 DC05 DC07 DC16  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Toshiaki Sugimura 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Isao Miyagawa 3- 192-1 Nishi-Shinjuku, Shinjuku-ku, Tokyo No. Nippon Telegraph and Telephone Corporation (72) Inventor Naoko Uemoto 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo F-term (reference) 2F065 AA04 AA11 AA12 BB05 CC00 EE00 FF04 FF09 FF21 FF63 FF65 FF67 JJ03 JJ19 JJ26 QQ13 QQ21 QQ27 QQ31 QQ32 QQ38 QQ41 SS02 SS13 5B057 CF01 DA07 DB03 DC05 DC07 DC16

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 カメラでシーンを撮影した画像から辺と
辺に囲まれたシーンを含む面の情報を記述する形状モデ
ルを作成し、該形状モデルからシーンを構成する物体の
頂点の3次元点を計測し、前記カメラの位置及び姿勢を
計測し、前記計測された物体の頂点の3次元点情報と、
前記カメラの位置情報及び姿勢情報から探索領域を決定
し、該決定された探索領域とシーン画像により最も近い
画像からの特徴点を探索して特徴点の候補を抽出し、前
記形状モデルから特徴点に隣接する辺または面を探索し
て辺情報または面情報を抽出し、該抽出された辺情報ま
たは面情報と前記特徴点の候補から画像の辺または面を
探索して最も確からしい特徴点を獲得することを特徴と
する物体の特徴点探索方法。
1. A shape model describing information on a side including a side and a scene surrounded by the side is created from an image obtained by capturing a scene with a camera, and three-dimensional points of vertices of an object constituting the scene are created from the shape model. Is measured, the position and orientation of the camera are measured, and the measured three-dimensional point information of the vertex of the object;
A search area is determined from the position information and the posture information of the camera, a feature point is searched from an image closest to the determined search area and the scene image to extract feature point candidates, and a feature point is extracted from the shape model. A side or a surface adjacent to is searched to extract side information or surface information, and a side or a surface of an image is searched from the extracted side information or surface information and the candidate for the feature point to find a most probable feature point. An object feature point search method characterized by acquiring.
【請求項2】 請求項1の物体の特徴点探索方法によっ
て探索された特徴点を、異なる位置及び姿勢で撮影した
複数の画像で対応付けて特徴点の探索精度を高めること
を特徴とする物体の特徴点探索方法。
2. An object characterized in that the feature points searched by the object feature point search method according to claim 1 are associated with a plurality of images photographed at different positions and postures to improve the feature point search accuracy. Feature point search method.
【請求項3】 カメラでシーンを撮影した画像から辺と
辺に囲まれたシーンを含む面の情報を記述する形状モデ
ルを作成する手順と、該形状モデルからシーンを構成す
る物体の頂点の3次元点を計測する手順と、前記カメラ
の位置及び姿勢を計測する手順と、前記計測された物体
の頂点の3次元点情報と、前記カメラの位置情報及び姿
勢情報から探索領域を決定する手順と、該決定された探
索領域とシーン画像により最も近い画像からの特徴点を
探索して特徴点の候補を抽出する手順と、前記形状モデ
ルから特徴点に隣接する辺または面を探索して辺情報ま
たは面情報を抽出する手順と、該抽出された辺情報また
は面情報と前記特徴点の候補から画像の辺または面を探
索して最も確からしい特徴点を獲得する手順を、コンピ
ュータに実行させるための物体の特徴点探索プログラム
を記録した記録媒体。
3. A procedure for creating a shape model that describes information of a side including a side and a scene surrounded by the side from an image obtained by capturing a scene with a camera, and a step of determining a vertex of an object constituting the scene from the shape model. A procedure for measuring a dimension point, a procedure for measuring the position and orientation of the camera, a procedure for determining a search area from the three-dimensional point information of the measured vertices of the object, and the location information and orientation information of the camera. Searching for a feature point from an image closest to the determined search area and the scene image to extract feature point candidates; and searching for a side or face adjacent to the feature point from the shape model to obtain side information. Alternatively, the computer is caused to execute a procedure of extracting surface information, and a procedure of searching for an edge or a surface of an image from the extracted side information or surface information and the feature point candidate to obtain a most probable feature point. Recording medium storing a feature point search program for an object.
【請求項4】 請求項1の特徴点探索方法の処理手順
と、該処理手順によって探索された特徴点を、異なる位
置及び姿勢で撮影した複数の画像で対応付けて特徴点の
探索精度を高める手順を、コンピュータに実行させるた
めの物体の特徴点探索プログラムを記録した記録媒体。
4. A feature point search method according to claim 1, wherein the feature points searched by the process steps are associated with a plurality of images photographed at different positions and postures to improve feature point search accuracy. A recording medium storing a feature point search program for an object for causing a computer to execute the procedure.
【請求項5】 シーンを撮影するカメラと、該撮影され
たシーンを含む画像から辺と辺に囲まれたシーンを含む
面の情報を記述する形状モデルを作成する手段と、該形
状モデルからシーンを構成する物体の頂点の3次元点を
計測する手段と、前記カメラの位置及び姿勢を計測する
手段と、前記計測された物体の頂点の3次元点情報と、
前記カメラの位置情報及び姿勢情報から探索領域を決定
する手段と、該決定された探索領域とシーン画像により
最も近い画像からの特徴点を探索して特徴点の候補を抽
出する手段と、前記形状モデルから特徴点に隣接する辺
または面を探索して辺情報または面情報を抽出する手段
と、該抽出された辺情報または面情報と前記特徴点の候
補から画像の辺または面を探索して最も確からしい特徴
点を獲得する手段を備えたことを特徴とする物体の特徴
点探索装置。
5. A camera for photographing a scene, means for creating a shape model describing information on a side including a side and a scene surrounded by sides from an image including the shot scene, and a scene from the shape model Means for measuring the three-dimensional point of the vertex of the object, means for measuring the position and orientation of the camera, three-dimensional point information of the measured vertex of the object,
Means for determining a search area from the position information and attitude information of the camera; means for searching for a feature point from an image closest to the determined search area and the scene image to extract feature point candidates; Means for searching for a side or a face adjacent to a feature point from a model to extract side information or face information; and searching for a side or a face of an image from the extracted side information or face information and the feature point candidate. An object feature point search device comprising means for acquiring a most probable feature point.
【請求項6】 請求項5の物体の特徴点探索装置によっ
て探索された特徴点を、異なる位置及び姿勢で撮影した
複数の画像で対応付けて特徴点の探索精度を高める手段
を備えたことを特徴とする物体の特徴点探索装置。
6. A means for improving feature point search accuracy by associating feature points searched by the object feature point search device with a plurality of images photographed at different positions and orientations. A feature point search device for an object to be a feature.
JP10253734A 1998-09-08 1998-09-08 Search method for feature point of object, and memory media with record of process program thereof and search device for feature point Pending JP2000088554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10253734A JP2000088554A (en) 1998-09-08 1998-09-08 Search method for feature point of object, and memory media with record of process program thereof and search device for feature point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10253734A JP2000088554A (en) 1998-09-08 1998-09-08 Search method for feature point of object, and memory media with record of process program thereof and search device for feature point

Publications (1)

Publication Number Publication Date
JP2000088554A true JP2000088554A (en) 2000-03-31

Family

ID=17255407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10253734A Pending JP2000088554A (en) 1998-09-08 1998-09-08 Search method for feature point of object, and memory media with record of process program thereof and search device for feature point

Country Status (1)

Country Link
JP (1) JP2000088554A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422370B1 (en) * 2000-12-27 2004-03-18 한국전자통신연구원 An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor
JP2008275391A (en) * 2007-04-26 2008-11-13 Canon Inc Position attitude measurement device and method
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
JP2008309631A (en) * 2007-06-14 2008-12-25 Canon Inc Information processing method and information processor
WO2016149944A1 (en) * 2015-03-26 2016-09-29 北京旷视科技有限公司 Face recognition method and system, and computer program product
US9652861B2 (en) 2014-10-29 2017-05-16 Fujitsu Limited Estimating device and estimation method
CN109781068A (en) * 2018-12-11 2019-05-21 北京空间飞行器总体设计部 The vision measurement system ground simulation assessment system and method for space-oriented application

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422370B1 (en) * 2000-12-27 2004-03-18 한국전자통신연구원 An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor
JP2008275391A (en) * 2007-04-26 2008-11-13 Canon Inc Position attitude measurement device and method
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
JP2008309631A (en) * 2007-06-14 2008-12-25 Canon Inc Information processing method and information processor
US9652861B2 (en) 2014-10-29 2017-05-16 Fujitsu Limited Estimating device and estimation method
WO2016149944A1 (en) * 2015-03-26 2016-09-29 北京旷视科技有限公司 Face recognition method and system, and computer program product
US10262190B2 (en) 2015-03-26 2019-04-16 Beijing Kuangshi Technology Co., Ltd. Method, system, and computer program product for recognizing face
CN109781068A (en) * 2018-12-11 2019-05-21 北京空间飞行器总体设计部 The vision measurement system ground simulation assessment system and method for space-oriented application
CN109781068B (en) * 2018-12-11 2021-05-28 北京空间飞行器总体设计部 Visual measurement system ground simulation evaluation system and method for space application

Similar Documents

Publication Publication Date Title
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US10636168B2 (en) Image processing apparatus, method, and program
US6995762B1 (en) Measurement of dimensions of solid objects from two-dimensional image(s)
JP5745178B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
US7376262B2 (en) Method of three dimensional positioning using feature matching
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
CN112785702A (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
US9679384B2 (en) Method of detecting and describing features from an intensity image
US20030035098A1 (en) Pose estimation method and apparatus
JP2011174879A (en) Apparatus and method of estimating position and orientation
US8467612B2 (en) System and methods for navigation using corresponding line features
EP2751742A1 (en) Method of matching image features with reference features
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP2012118666A (en) Three-dimensional map automatic generation device
CN111915678B (en) Underwater monocular vision target depth positioning fusion estimation method based on depth learning
JP2002024807A (en) Object movement tracking technique and recording medium
CN107560603A (en) A kind of unmanned plane oblique photograph measuring system and measuring method
CN114396875B (en) Rectangular package volume measurement method based on vertical shooting of depth camera
JP2881193B1 (en) Three-dimensional object recognition apparatus and method
JP2018173882A (en) Information processing device, method, and program
JP2000088554A (en) Search method for feature point of object, and memory media with record of process program thereof and search device for feature point
US6766270B2 (en) Gravity-reference vision system
KR101996226B1 (en) Apparatus for measuring three-dimensional position of subject and method thereof
US11669988B1 (en) System and method for three-dimensional box segmentation and measurement