JPH10206135A - Decision method for positional posture of three-dimensional object - Google Patents

Decision method for positional posture of three-dimensional object

Info

Publication number
JPH10206135A
JPH10206135A JP9008749A JP874997A JPH10206135A JP H10206135 A JPH10206135 A JP H10206135A JP 9008749 A JP9008749 A JP 9008749A JP 874997 A JP874997 A JP 874997A JP H10206135 A JPH10206135 A JP H10206135A
Authority
JP
Japan
Prior art keywords
free
form surface
model
range data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9008749A
Other languages
Japanese (ja)
Other versions
JP2920513B2 (en
Inventor
Yasushi Sumi
保志 角
Yoshihiro Kawai
良浩 河井
Fumiaki Tomita
文明 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP9008749A priority Critical patent/JP2920513B2/en
Publication of JPH10206135A publication Critical patent/JPH10206135A/en
Application granted granted Critical
Publication of JP2920513B2 publication Critical patent/JP2920513B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a decision method in which the positional posture of a free-form surface body is decided on the basis of an input stereoimage. SOLUTION: The stereoimage of an object which is imaged from all observation directions is input (S1), the edge of the object is extracted on the basis of the stereo image (S2), and the edge is divided into segments according to its local feature (S3). A data vertex and a data arc as local geometrical features are added to the segments (S4), the local geometrical features of the segments are collated initially with a local geometrical feature as a free-form surface model which is created in advance, a corresponding candidate is detected (S5), a small plane patch on the free-form surface body corresponding to the apparent contour line of a free-form surface body is selected on the basis of the positional posture and the observation direction of the candidate (S6), respective corresponding candidates are adjusted fine by using it (S7), and the positional posture of the free-form surface body is detected on the basis of the initial collation and the fine adjustment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自由曲面体の入力
画像を自由曲面体モデルと照合して、自由曲面体の位置
姿勢を決定するための手法と、そのために必要な自由曲
面体モデルの生成法とを含む3次元物体位置姿勢決定方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining the position and orientation of a free-form body by comparing an input image of the free-form body with a free-form body model, and a method for determining the position and orientation of the free-form body. The present invention relates to a three-dimensional object position / posture determination method including a generation method.

【0002】[0002]

【従来の技術】物体の入力画像からその物体の位置姿勢
を決定する場合、物体表面上の固定エッジが重要な手が
かりとなる。ここで、固定エッジとは、物体表面形状の
不連続、または物体表面反射率の不連続を意味する。こ
の固定エッジから3次元的な幾何特徴を抽出し、これを
物体の固定エッジをモデル化した物体モデルと照合する
ことにより、物体の位置姿勢を決定している。
2. Description of the Related Art When determining the position and orientation of an object from an input image of the object, a fixed edge on the surface of the object is an important clue. Here, the fixed edge means discontinuity of the object surface shape or discontinuity of the object surface reflectance. The position and orientation of the object are determined by extracting a three-dimensional geometric feature from the fixed edge and comparing it with an object model that models the fixed edge of the object.

【0003】[0003]

【発明が解決しようとする課題】入力されたステレオ画
像から物体の位置姿勢を決定する従来の手法は、固定エ
ッジを持たない自由曲面体を扱うことは困難であった。
In the conventional method for determining the position and orientation of an object from an input stereo image, it has been difficult to handle a free-form object having no fixed edge.

【0004】自由曲面体をITVカメラなどで撮影した
場合、その輪郭線は、曲面の遮蔽輪郭線(物体が背景を
遮ることによって生じる輪郭線)のみが見かけの輪郭線
として観測される。この見かけの輪郭線の自由曲面体表
面上における物理的な位置は、自由曲面体を観測する方
向によって様々に変化する。このため、ステレオ画像と
の照合に利用できるよう、自由曲面体をモデル化するこ
とは困難であった。
When an image of a free-form surface is photographed by an ITV camera or the like, only the contour of the curved surface (a contour generated by an object blocking the background) is observed as an apparent contour. The physical position of the apparent contour on the surface of the free-form body changes variously depending on the direction in which the free-form body is observed. For this reason, it has been difficult to model a free-form body so that it can be used for comparison with a stereo image.

【0005】本発明は、上記のような問題点に着目して
なされたもので、ステレオ画像と自由曲面体モデルとの
照合によって自由曲面体の位置姿勢を決定するととも
に、そのために必要な自由曲面体のモデル化を可能とす
る3次元物体位置姿勢決定方法を提供することを目的と
している。
The present invention has been made in view of the above-described problems, and determines the position and orientation of a free-form body by collating a stereo image with a free-form body model. It is an object of the present invention to provide a three-dimensional object position / posture determination method that enables modeling of a body.

【0006】[0006]

【課題を解決するための手段】本発明にかかる3次元物
体位置姿勢決定方法は、あらかじめ物体を計測して得ら
れる全周囲レンジデータからなる自由曲面体モデルと3
次元物体である自由曲面体の入力画像とを照合して前記
自由曲面体の位置姿勢を決定する3次元物体位置姿勢決
定方法であって、前記自由曲面体をある観測方向から観
測したステレオ画像を入力し、このステレオ画像から該
物体のエッジを抽出して、その局所的形状によりセグメ
ントに分割し、これらのセグメントに局所的幾何特徴を
付加し、この局所的幾何特徴を前記自由曲面体モデルの
局所的幾何特徴モデルと初期照合を行うことにより対応
する候補を検出するとともに、この候補の位置姿勢およ
び前記観測方向より、自由曲面体の見かけの輪郭線に対
応する自由曲面体モデルの小平面パッチを選び、この小
平面パッチを用いて各対応する候補を微調整し、この初
期照合と微調整の認識処理により前記自由曲面体の位置
姿勢を検出するようにしたものである。
A three-dimensional object position / posture determination method according to the present invention is a method for determining a three-dimensional object position and orientation by using a free-form surface model comprising omnidirectional range data obtained by measuring an object in advance.
A three-dimensional object position and orientation determination method for determining the position and orientation of the free-form body by comparing the input image of the free-form body as a three-dimensional object, comprising the steps of: Input, extract the edge of the object from the stereo image, divide it into segments according to its local shape, add local geometric features to these segments, and apply the local geometric features to the free-form surface model. By performing initial matching with the local geometric feature model, a corresponding candidate is detected. From the position and orientation of the candidate and the observation direction, a small-plane patch of the free-form surface model corresponding to the apparent contour of the free-form body is obtained. And fine-tune each corresponding candidate using this small plane patch, and detect the position and orientation of the free-form body by this initial collation and fine-tuning recognition processing. It is obtained by the.

【0007】また、自由曲面体モデルは、表面が自由曲
面形状である物体を計測して得られる全周囲レンジデー
タをサンプリングして得られる小平面パッチと、前記全
周囲レンジデータの重心を原点とする単位球上に設定し
たサンプリング方向からその全周囲レンジデータを観測
したときに推定される輪郭線から生成される局所的幾何
特徴モデルからなり、自由曲面体の観測方向が未知であ
っても前記局所的幾何特徴モデルと入力画像との初期照
合を可能にしたものである
[0007] The free-form surface model includes a small plane patch obtained by sampling the entire range data obtained by measuring an object having a free-form surface, and a center of gravity of the entire range data as an origin. It consists of a local geometric feature model generated from the contour estimated when observing the entire surrounding range data from the sampling direction set on the unit sphere to be set, even if the observation direction of the free-form body is unknown. It enables initial matching between the local geometric feature model and the input image

【0008】[0008]

【発明の実施の形態】図1は、本発明による3次元物体
位置姿勢決定方法を実現するためのシステム構成を示す
ブロック図である。同図中1はシステム全体を制御する
コンピュータで、データバス2を通じて各部と接続され
ている。
FIG. 1 is a block diagram showing a system configuration for realizing a three-dimensional object position / posture determination method according to the present invention. In FIG. 1, reference numeral 1 denotes a computer for controlling the entire system, which is connected to each unit through a data bus 2.

【0009】3a,3bはテレビカメラで、そのアナロ
グ出力はA/D変換器4a,4bによりデジタル信号に
変換されてデータバス2に送出される。
Reference numerals 3a and 3b denote television cameras whose analog outputs are converted into digital signals by A / D converters 4a and 4b and sent to the data bus 2.

【0010】5は全周囲レンジファインダで、その出力
である物体の全周囲レンジデータがデータバス2に送出
される。ここで、全周囲レンジデータとは、物体の全て
の面のデータを含んでいるレンジデータである。その獲
得については、基本的にはレーザ光源(および観測装
置)を移動させる方法と、物体を移動させる方法の2種
類があるが、その詳細は省略する。
Reference numeral 5 denotes an omnidirectional range finder, which outputs the omnidirectional range data of the object, which is the output of the finder, to the data bus 2. Here, the entire surrounding range data is range data including data of all surfaces of the object. Basically, there are two types of methods for moving the laser light source (and the observation device) and a method for moving the object, but the details are omitted.

【0011】6はテレビカメラ3a,3bで撮像した物
体の画像を格納する画像メモリ、7は画像を表示するデ
ィスプレイ装置、8はプリンタ、9は画像データ,全周
囲レンジデータおよび自由曲面体モデルを保存するため
のデータを格納するハードディスク、10はキーボード
ターミナルである。このシステムは、更に外部のホスト
コンピュータ100と接続されている。
Reference numeral 6 denotes an image memory for storing an image of an object picked up by the television cameras 3a and 3b, 7 a display device for displaying the image, 8 a printer, 9 an image data, omni-directional range data and a free-form surface model. A hard disk 10 for storing data to be stored is a keyboard terminal. This system is further connected to an external host computer 100.

【0012】図2は、図1のシステムにおいて、本発明
の3次元物体位置姿勢決定方法の処理のために用いる、
自由曲面体モデルを生成するための処理の流れを示すフ
ローチャートであり、実際の自由曲面体を計測して得ら
れる自由曲面体の全周囲レンジデータから3次元物体位
置姿勢決定に必要な特徴を抽出するための処理の流れを
示している。なお、(Sm1),(Sm2−1),・・
・は各ステップを示す。
FIG. 2 shows a system used in the system shown in FIG. 1 for the processing of the three-dimensional object position / posture determination method of the present invention.
5 is a flowchart showing a flow of a process for generating a free-form surface model, in which features necessary for determining a three-dimensional object position and orientation are extracted from the entire circumference range data of the free-form surface obtained by measuring the actual free-form surface 3 shows a flow of processing for performing the processing. (Sm1), (Sm2-1),...
* Indicates each step.

【0013】まず、自由曲面体の全周囲レンジデータを
入力し(Sm1)、この全周囲レンジデータをサンプリ
ングして(Sm2−1)、小平面パッチを生成する(S
m2−2)。一方、全周囲レンジデータの重心を原点と
する単位球上にサンプリング方向を設定し(Sm3−
1)、各方向からレンジデータを観測したときに推定さ
れる輪郭線を生成し(Sm3−2)、それらの輪郭線を
局所的形状によりセグメントに分割する(Sm3−
3)。それぞれのセグメントから局所的幾何特徴を抽出
し(Sm3−4)、局所的幾何特徴モデルであるモデル
頂点・モデル円弧を生成する(Sm3−5)。こうして
生成された小平面パッチと局所的幾何特徴モデルとを統
合して(Sm4)生成した自由曲面体モデルをハードデ
ィスクに登録しておく(Sm5)。
First, omnidirectional range data of a free-form surface is input (Sm1), and the omnidirectional range data is sampled (Sm2-1) to generate a small plane patch (Sm1).
m2-2). On the other hand, the sampling direction is set on a unit sphere whose origin is the center of gravity of the all-around range data (Sm3-
1) Generate contour lines estimated when range data is observed from each direction (Sm3-2), and divide the contour lines into segments by local shapes (Sm3-
3). A local geometric feature is extracted from each segment (Sm3-4), and a model vertex / model arc as a local geometric feature model is generated (Sm3-5). The generated free-form surface model is integrated in the hard disk (Sm5) by integrating the small plane patch thus generated and the local geometric feature model (Sm4).

【0014】次に、図3〜図7を参照してさらに上記の
自由曲面体モデルの生成処理を詳細に説明する。
Next, the processing for generating the above-mentioned free-form surface model will be described in detail with reference to FIGS.

【0015】図3は、自由曲面体モデルが、小平面パッ
チ21と、局所的幾何特徴モデルであるモデル頂点・モ
デル円弧24からなり、自由曲面体の全周囲レンジデー
タ20をもとに、生成されることを示している。22は
単位球を、サンプリング方向を表す多面体として示して
いる。この多面体を測地ドームとも言う。23は輪郭線
を示す。
FIG. 3 shows that a free-form surface model is composed of a small plane patch 21 and a model vertex / model arc 24 which is a local geometric feature model. It is shown that it is done. Reference numeral 22 denotes a unit sphere as a polyhedron representing a sampling direction. This polyhedron is also called a geodetic dome. 23 indicates a contour line.

【0016】小平面パッチ21は、自由曲面体の表面形
状を代表するデータであり、全周囲レンジデータ20を
サンプリングして生成する。ここで、小平面パッチ21
の大きさは、サンプリングの間隔に等しい。サンプリン
グの間隔は、対象とする物体の形状とサイズに依存す
る。
The small plane patch 21 is data representative of the surface shape of a free-form surface, and is generated by sampling the omni-directional range data 20. Here, the small plane patch 21
Is equal to the sampling interval. The sampling interval depends on the shape and size of the target object.

【0017】小周囲パッチの作成には、以下の手順をふ
む。 (a)レンジデータをサンプリングする。サンプリング
間隔は対象物体の大きさと認識システムの設定に依存す
る(バナナ程度の物体であれば3mm間隔程度)。 (b)サンプリングしたデータ(以下、サンプル点)近
傍のレンジデータを使って、そのサンプル点における表
面法線を計算する。この法線が「小平面パッチの法線」
である。 (c)サンプル点の3次元座標とその表面法線ベクトル
によって決まる平面の、サンプル点座標を中心とする近
傍領域を小平面パッチとする。したがって、小平面パッ
チの重心=サンプル点である。近傍の大きさは、サンプ
ル点間隔に依存する(サンプル点間隔が3mmであれ
ば、小平面パッチの巾も3mm)。
The following procedure is used to create a small surrounding patch. (A) Sampling range data. The sampling interval depends on the size of the target object and the setting of the recognition system (for a banana-sized object, the interval is about 3 mm). (B) Using the range data near the sampled data (hereinafter, sample point), calculate the surface normal at the sample point. This normal is the “normal of the small plane patch”
It is. (C) An area near the sample point coordinates on a plane determined by the three-dimensional coordinates of the sample points and its surface normal vector is defined as a small plane patch. Therefore, the center of gravity of the small plane patch = sample point. The size of the neighborhood depends on the sample point interval (if the sample point interval is 3 mm, the width of the small plane patch is also 3 mm).

【0018】図4には、ある自由曲面体(バナナの模
型)を例としたモデルの小平面パッチ21aを、面の重
心と法線方向を示すニードル(needle)によって表示し
た。また、小平面パッチ21の数は全周囲レンジデータ
20のサンプリング数による。
FIG. 4 shows a small flat patch 21a of a model taking a free-form surface (a banana model) as an example, using a needle indicating the center of gravity and the normal direction of the surface. The number of the small plane patches 21 depends on the number of samplings of the entire surrounding range data 20.

【0019】図4は、バナナの表面に栗のいがのように
針が生えている状態の(コンピュータのモニタ映像を印
刷出力した)写真である。それぞれの針を拡大すると、
点と細い線からなっている。点が小平面パッチの重心
を、線が法線方向を示している。
FIG. 4 is a photograph (printed out a monitor image of a computer) in a state where needles are growing like a chestnut on the surface of a banana. When you expand each needle,
It consists of dots and thin lines. Points indicate the center of gravity of the small plane patch, and lines indicate the normal direction.

【0020】モデル頂点・モデル円弧24は、自由曲面
体の見かけの輪郭線の形状に関する特徴を反映したデー
タ構造である。
The model vertex / model arc 24 has a data structure reflecting characteristics relating to the shape of the apparent contour of the free-form surface.

【0021】自由曲面体の見かけの輪郭線である遮蔽輪
郭線は、観測方向によって異なる。このため、理想的に
は、任意の方向から観測されるすべての輪郭線23を考
慮することが必要となるが、実用的なシステムとしてイ
ンプリメントすることは困難である。そこで、本実施形
態では、図3に示すような全周囲レンジデータ20の重
心を原点とする単位球22上の離散的な点として観測方
向をサンプリングし、各サンプリング方向から観測され
る輪郭線23のみを考慮する。
The shielding contour, which is the apparent contour of the free-form body, differs depending on the observation direction. For this reason, ideally, it is necessary to consider all the contour lines 23 observed from arbitrary directions, but it is difficult to implement it as a practical system. Therefore, in the present embodiment, the observation direction is sampled as discrete points on the unit sphere 22 having the center of gravity of the entire perimeter range data 20 as the origin as shown in FIG. 3, and the contour line 23 observed from each sampling direction is sampled. Only consider.

【0022】なお、任意の方向から観測される輪郭線は
無限に存在し、これをモデル化することは困難なので、
有限の観測方向を離散的にサンプリングする。これをサ
ンプリング方向と表現している。観測方向は、単位球上
の点として表現できるので、単位球上に離散的に点をと
ることによってサンプリング方向を設定することができ
る。
Note that contour lines observed from arbitrary directions exist infinitely, and it is difficult to model them.
Discrete sampling of finite observation directions. This is expressed as a sampling direction. Since the observation direction can be expressed as a point on the unit sphere, the sampling direction can be set by taking discrete points on the unit sphere.

【0023】サンプリング方向の密度は、物体形状の複
雑さと使用する計算機の能力に依存する。サンプリング
方向の設定が密であればあるほど認識の精度は向上する
が、計算量も増える。
The density in the sampling direction depends on the complexity of the object shape and the capabilities of the computer used. The higher the setting of the sampling direction, the higher the recognition accuracy, but the more calculation amount.

【0024】図5に示すように、観測方向Gからの自由
曲面体の見かけの輪郭線23は、物体表面上の点の法線
方向Nについて、
As shown in FIG. 5, the apparent contour line 23 of the free-form body from the observation direction G is defined by the normal direction N of a point on the object surface.

【0025】[0025]

【数1】N・G=0 を満たす点の集合である。しかし、実際の全周囲レンジ
データ20は、量子化誤差などの影響により、滑らかな
輪郭線23としてこれらの点を抽出することは困難であ
る。そこで、
## EQU1 ## A set of points satisfying NG = 0. However, it is difficult to extract these points as a smooth contour line 23 from the actual omnidirectional range data 20 due to the effects of quantization errors and the like. Therefore,

【0026】[0026]

【数2】 であるような、図中斜線で示した領域が見かけの輪郭線
23を形成すると見なす。この領域を細線化すること
で、観測方向Gからの見かけの輪郭線23に対応する物
体表面上の点の集合を得ることができる。
(Equation 2) It is considered that the shaded area in the drawing forms the apparent contour line 23. By thinning this area, a set of points on the object surface corresponding to the apparent contour line 23 from the observation direction G can be obtained.

【0027】各点の world座標(x,y,z)t を、観
測方向Gからみた画像座標(col,row)t に変換
して得られた画像座標における輪郭線23を、特徴点
(分岐点,変曲点,屈曲点,遷移点)でセグメントに分
割する。
The outline 23 in the image coordinates obtained by converting the world coordinates (x, y, z) t of each point into the image coordinates (col, row) t viewed from the observation direction G is converted into a feature point (branch). Points, inflection points, inflection points, transition points).

【0028】局所的幾何特徴モデルであるモデル頂点・
モデル円弧24は、セグメントに円弧または直線をあて
はめることによって生成する。図6に示すように、隣接
するセグメントにあてはめられた円弧または直線からモ
デル頂点が、また、セグメントに円弧があてはめられた
場合はモデル円弧が、それぞれ生成される。図に示すよ
うに、モデル頂点は、セグメント端点、すなわち輪郭線
23の特徴点の3次元座標と2つの方向ベクトルを、モ
デル円弧についてはさらに半径を情報として持つ。
Model vertices that are local geometric feature models
The model arc 24 is generated by fitting an arc or a straight line to the segment. As shown in FIG. 6, a model vertex is generated from an arc or a straight line applied to an adjacent segment, and a model arc is generated when an arc is applied to a segment. As shown in the figure, the model vertex has three-dimensional coordinates and two direction vectors of the segment end points, that is, the feature points of the contour line 23, and further has the radius of the model arc as information.

【0029】ところで、自由曲面体の見かけの輪郭線2
3は、一般に3次元空間における自由曲線を構成するた
め、単独の円弧または直線をセグメントにあてはめた場
合、誤差が無視できないほど大きくなることが多い。こ
のため、セグメントへの直線または円のあてはめ誤差が
大きい場合は、図7に示すように、セグメントを分割し
て再帰的にあてはめを行うこととした。モデル頂点・モ
デル円弧24の生成には、セグメント端点を含む直線・
円弧のみを使用する。
By the way, the apparent contour line 2 of the free-form surface body
3 generally constitutes a free curve in a three-dimensional space, so that when a single arc or straight line is applied to a segment, the error often becomes too large to be ignored. Therefore, when the error of fitting a straight line or a circle to a segment is large, the segment is divided and the fitting is performed recursively as shown in FIG. To generate the model vertex / model arc 24, a straight line including the segment end point
Use only arcs.

【0030】このようにして算出した各サンプリング方
向からのモデル頂点・モデル円弧24と前記小平面パッ
チ21を統合し、自由曲面体モデルとする。生成された
自由曲面体モデルは、システムのハードディスク9に登
録される。
The thus calculated model vertices / model arcs 24 from each sampling direction and the small plane patch 21 are integrated into a free-form surface model. The generated free-form surface model is registered in the hard disk 9 of the system.

【0031】図8は、図1のシステムにおいて、本発明
の3次元物体位置姿勢決定方法の基本的な処理の流れを
示すフローチャートであり、入力画像を自由曲面体モデ
ルと照合して自由曲面体の位置姿勢を決定するための処
理の流れを示している。なお、(S1)〜(S8)は各
ステップを示す。
FIG. 8 is a flowchart showing the basic processing flow of the method for determining the position and orientation of a three-dimensional object according to the present invention in the system shown in FIG. 3 shows a flow of a process for determining the position and orientation of the image. (S1) to (S8) indicate each step.

【0032】まず、ある観測方向から撮像した3次元物
体のステレオ画像を入力し(S1)、このステレオ画像
から該物体のエッジを抽出して(S2)、その局所的特
徴によりセグメントに分割する(S3)。そして、この
セグメントに局所的幾何特徴であるデータ頂点・データ
円弧を付加し(S4)、次いで、このセグメントの局所
的幾何特徴を上記自由曲面体モデルの局所的幾何特徴モ
デルと初期照合することにより対応する候補を検出する
とともに(S5)、この候補の位置姿勢および前記観測
方向より、自由曲面体の見かけの輪郭線に対応する自由
曲面体モデルの小平面パッチを選び(S6)、この小平
面パッチを用いて各対応する候補を微調整し(S7)、
この初期照合と微調整により上記自由曲面体の位置姿勢
を検出する(S8)ものである。
First, a stereo image of a three-dimensional object taken from a certain observation direction is input (S1), edges of the object are extracted from the stereo image (S2), and the object is divided into segments by its local features (S1). S3). Then, data vertices and data arcs, which are local geometric features, are added to this segment (S4), and then the local geometric features of this segment are initially compared with the local geometric feature model of the free-form surface model by performing initial matching. A corresponding candidate is detected (S5), and a small-surface patch of the free-form body model corresponding to the apparent contour of the free-form body is selected from the position and orientation of the candidate and the observation direction (S6). Fine-tune each corresponding candidate using the patch (S7),
The position and orientation of the free-form body are detected by the initial collation and the fine adjustment (S8).

【0033】次に、図9〜図14を参照してさらに上記
の3次元物体位置姿勢決定の処理を詳細に説明する。
Next, the above-described three-dimensional object position / posture determination processing will be described in detail with reference to FIGS.

【0034】図9(a)に入力ステレオ画像の例(640
×480 pixels,256 gray-levels)を示す。同図(b)
は、(a)のステレオ画像から、セグメントベーストス
テレオによって復元された3次元情報を、正面および平
面図によって表している。なお、3次元情報を持つ点を
データ点と呼ぶことにする。
FIG. 9A shows an example of an input stereo image (640
× 480 pixels, 256 gray-levels). FIG.
Shows three-dimensional information reconstructed by segment-based stereo from the stereo image of (a) in front and plan views. Note that points having three-dimensional information are referred to as data points.

【0035】認識のための幾何特徴は、画像の境界表現
(B−REP)のセグメントに円弧または直線をあては
めることによって生成する。これには前述の図6により
説明したモデル頂点・モデル円弧24の生成と同様に、
隣接するセグメントにあてはめられた円弧または直線か
らデータ頂点が、また、セグメントに円弧があてはめら
れた場合はデータ円弧が、それぞれ生成される。図に示
すように、データ頂点・データ円弧は、セグメント端
点、すなわち輪郭線の特徴点の3次元座標と2つの方向
ベクトルを、データ円弧についてはさらに半径を情報と
して持つ。
The geometric features for recognition are generated by fitting arcs or straight lines to segments of the image boundary representation (B-REP). For this, similarly to the generation of the model vertex / model arc 24 described with reference to FIG.
Data vertices are generated from arcs or straight lines applied to adjacent segments, and data arcs are generated when arcs are applied to segments. As shown in the figure, a data vertex / data arc has segment end points, that is, three-dimensional coordinates and two direction vectors of feature points of a contour line, and a data arc has a radius as information.

【0036】ところで、自由曲面体の見かけの輪郭線
は、一般に3次元空間における自由曲線を構成するた
め、単独の円弧または直線をセグメントにあてはめた場
合、誤差が無視できないほど大きくなることが多い。こ
のため、セグメントへの直線または円のあてはめ誤差が
大きい場合は、図7に示すように、セグメントを分割し
て再帰的にあてはめを行うこととした。データ頂点・円
弧の生成には、セグメント端点を含む直線・円弧のみを
使用する。
By the way, since the apparent contour of a free-form body generally forms a free curve in a three-dimensional space, when a single arc or straight line is applied to a segment, an error often becomes so large that it cannot be ignored. Therefore, when the error of fitting a straight line or a circle to a segment is large, the segment is divided and the fitting is performed recursively as shown in FIG. For generating data vertices and arcs, only straight lines and arcs including segment end points are used.

【0037】物体の位置姿勢は、モデルを認識データ中
の対応する場所に移動させる3×3回転行列Rと平行移
動ベクトルtで表現できる。本発明で提案する自由曲面
体の位置姿勢検出アルゴリズムは、“初期照合”および
“微調整”の2段階の処理からなる。
The position and orientation of the object can be represented by a 3 × 3 rotation matrix R for moving the model to a corresponding place in the recognition data and a translation vector t. The algorithm for detecting the position and orientation of a free-form body proposed in the present invention includes two-stage processing of "initial collation" and "fine adjustment".

【0038】初期照合は、局所的な幾何特徴であるデー
タ頂点・データ円弧とモデル頂点・モデル円弧を照合
し、自由曲面体のおよその位置姿勢を算出する処理であ
る。
The initial collation is a process of collating data vertices / data arcs, which are local geometric features, with model vertices / model arcs, and calculating an approximate position and orientation of a free-form body.

【0039】図10に示すように、モデル頂点・モデル
円弧の点Pm とベクトルVm1,Vm2を、対応するデータ
頂点・データ円弧の点Pd とベクトルVd1,Vd2の位置
に移動させることを考える。このとき、回転行列R′と
平行移動ベクトルt′は、
As shown in FIG. 10, moves the points of the arc model vertex model P m and the vector V m1, V m @ 2, the position of the point P d of the corresponding data vertex data arc and the vector V d1, V d2 Think about it. At this time, the rotation matrix R ′ and the translation vector t ′ are

【0040】[0040]

【数3】t′=Pd −Pm , Vd1=R′Vm1, Vd2=R′Vm2 より算出することができる。Equation 3] t '= P d -P m, can be calculated from V d1 = R'V m1, V d2 = R'V m2.

【0041】しかしながら、データ頂点・円弧とモデル
頂点・円弧の正しい組み合わせを前もって知ることはで
きないので、頂点については角度を、円弧については半
径をそれぞれ比較し、その差がしきい値以下である全て
の組み合わせを物体の位置姿勢に関する仮説とする。
However, since the correct combination of the data vertex / arc and the model vertex / arc cannot be known in advance, the angle of the vertex and the radius of the arc are compared. Is a hypothesis regarding the position and orientation of the object.

【0042】微調整は、初期照合で得られた仮説を検証
するとともに、認識精度を向上させる処理である。
The fine adjustment is a process for verifying the hypothesis obtained in the initial collation and improving the recognition accuracy.

【0043】R′,t′によってモデルを移動させる。
ここで、移動後の小平面パッチの重心をS,法線をNと
すると、
The model is moved by R 'and t'.
Here, assuming that the center of gravity of the moved small plane patch is S and the normal is N,

【0044】[0044]

【数4】 を満足する小平面は、観測位置oから観測可能である。
したがって、式(1)を満足する小平面パッチ領域の境
界が、自由曲面体の輪郭線に対応するとみなすことがで
きる。
(Equation 4) Is observable from the observation position o.
Therefore, it can be considered that the boundary of the small plane patch region satisfying the expression (1) corresponds to the contour of the free-form surface body.

【0045】こうして選んだ小平面の近傍にデータ点が
存在するとき、その小平面とデータ点をそれぞれM
,Di (i=1,・・・,n)と表す。ここで、n
は小平面とデータ点の組の数である。このとき、図11
に示すように、データ点位置PD から小平面に降ろした
垂線の足をPM とすると、PM をPD に一致するように
移動させる最適なR″,t″を、
When a data point is present in the vicinity of the selected small plane, the small plane and the data point are set to M
i , D i (i = 1,..., n). Where n
Is the number of pairs of facets and data points. At this time, FIG.
Assuming that a perpendicular foot lowered from the data point position P D to the facet is P M , the optimum R ″, t ″ for moving P M to coincide with P D is

【0046】[0046]

【数5】 を最小にする最小自乗法によって算出する。ここで、(Equation 5) Is calculated by the least squares method that minimizes here,

【0047】[0047]

【数6】R=R″R′ t=t″+t′ が微調整後の物体位置を表す。精度が十分でない場合
は、
R = R ″ R ′ t = t ″ + t ′ represents the object position after the fine adjustment. If the accuracy is not enough,

【0048】[0048]

【数7】R′=R t′=t として処理を繰り返す。十分な繰り返し処理の後も認識
精度が収束しない場合は、初期照合が誤りであったとみ
なす。
## EQU7 ## The process is repeated with R '= Rt' = t. If the recognition accuracy does not converge even after sufficient repetition processing, it is considered that the initial collation was incorrect.

【0049】初期照合で得られたすべての仮説について
上記の処理を行い、最大のnが得られた仮説を最終的な
認識結果とする。
The above processing is performed for all the hypotheses obtained in the initial collation, and the hypothesis with the maximum n is determined as the final recognition result.

【0050】図12に、微調整の過程を(col,ro
w)t 座標に変換して示した。図中、・はデータ点、○
は近傍にデータ点が存在する小平面パッチを、●はデー
タ点が近傍にない小平面パッチを表す。図に示すよう
に、まず初期照合に使ったモデル頂点・円弧近傍の小平
面パッチのみにより微調整(1)を行い、その後すべて
の小平面パッチを用いた微調整(2)を行うことで、処
理効率を高めている。
FIG. 12 shows the fine adjustment process (col, ro).
w) Converted to t coordinates and shown. In the figure, · is a data point, ○
Represents a small plane patch having a data point in the vicinity, and ● represents a small plane patch having no data point in the vicinity. As shown in the figure, first, fine adjustment (1) is performed using only the small plane patches near the model vertices and arcs used for the initial matching, and then fine adjustment (2) is performed using all the small plane patches. Increases processing efficiency.

【0051】実験では、図12,13,14の自由曲面
体モデルの構築には、ステレオレンジファインダによっ
て計測した720 ×480 点の全周囲レンジデータを用い
た。モデル頂点・モデル円弧の算出には、一例として4
6点のサンプリング方向を用いた。また、小平面パッチ
の大きさは、3mm×3mmとした。
In the experiment, 720 × 480 points of the entire surrounding range data measured by a stereo range finder were used for constructing the free-form surface model shown in FIGS. To calculate the model vertex / model arc, for example, 4
Six sampling directions were used. The size of the small flat patch was 3 mm × 3 mm.

【0052】認識結果の例を、図13に示す。回転行列
R,平行移動ベクトルtによってモデルを移動させ、輪
郭線に対応する小平面パッチの重心を連結した折れ線を
図9のステレオ画像(左)上に投影して作成した。
FIG. 13 shows an example of the recognition result. The model was moved by the rotation matrix R and the translation vector t, and a polygonal line connecting the centers of gravity of the small plane patches corresponding to the contour was projected on the stereo image (left) in FIG.

【0053】図14には、異なる4つの観測方向からの
認識結果を示した。
FIG. 14 shows recognition results from four different observation directions.

【0054】[0054]

【発明の効果】以上のように、本発明は、あらかじめ物
体を計測して得られる全周囲レンジデータからなる自由
曲面体モデルと3次元物体である自由曲面体の入力画像
とを照合して前記自由曲面体の位置姿勢を決定する3次
元物体位置姿勢決定方法であって、前記自由曲面体をあ
る観測方向から観測したステレオ画像を入力し、このス
テレオ画像から該物体のエッジを抽出して、その局所的
形状によりセグメントに分割し、これらのセグメントに
局所的幾何特徴を付加し、この局所的幾何特徴を前記自
由曲面体モデルの局所的幾何特徴モデルと初期照合を行
うことにより対応する候補を検出するとともに、この候
補の位置姿勢および前記観測方向より、自由曲面体の見
かけの輪郭線に対応する自由曲面体モデルの小平面パッ
チを選び、この小平面パッチを用いて各対応する候補を
微調整し、この初期照合と微調整の認識処理により前記
自由曲面体の位置姿勢を検出するようにしたので、ステ
レオ画像と自由曲面体モデルの照合によって自由曲面体
の位置姿勢を決定することが可能になる。
As described above, according to the present invention, the free-form body model composed of the entire surrounding range data obtained by measuring the object in advance is compared with the input image of the free-form body which is a three-dimensional object. A three-dimensional object position / posture determination method for determining a position / posture of a free-form surface object, wherein a stereo image obtained by observing the free-form surface object from a certain observation direction is input, and an edge of the object is extracted from the stereo image. The local shape is divided into segments, local geometric features are added to these segments, and the local geometric features are subjected to initial matching with the local geometric feature model of the free-form surface model to obtain corresponding candidates. Detecting and selecting a small-plane patch of the free-form body model corresponding to the apparent contour of the free-form body from the position and orientation of the candidate and the observation direction. Each corresponding candidate is fine-tuned using a surface patch, and the position and orientation of the free-form body are detected by this initial matching and fine-tuning recognition processing. The position and orientation of the curved body can be determined.

【0055】また、自由曲面体モデルは、表面が自由曲
面形状である物体を計測して得られる全周囲レンジデー
タをサンプリングして得られる小平面パッチと、前記全
周囲レンジデータの重心を原点とする単位球上に設定し
たサンプリング方向からその全周囲レンジデータを観測
したときに推定される輪郭線から生成される局所的幾何
特徴モデルからなるので、自由曲面体の観測方向が未知
であっても、入力画像と局所的幾何特徴モデルとの初期
照合が可能となる。
The free-form surface model includes a small plane patch obtained by sampling the entire circumference range data obtained by measuring an object having a free-form surface, and a center of gravity of the entire circumference range data as an origin. It consists of a local geometric feature model generated from the contour line estimated when observing the surrounding range data from the sampling direction set on the unit sphere, so even if the observation direction of the free-form body is unknown , The initial matching between the input image and the local geometric feature model becomes possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実施するためのシステム構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a system configuration for implementing the present invention.

【図2】本発明の自由曲面体モデル生成の基本的な処理
の流れを示すフローチャートである。
FIG. 2 is a flowchart showing a basic process flow of generating a free-form surface model according to the present invention.

【図3】自由曲面体モデルの構成ともとになる全周囲レ
ンジデータを示した図である。
FIG. 3 is a diagram showing omnidirectional range data that is the basis of the configuration of a free-form surface model.

【図4】自由曲面体モデルの小平面パッチをニードル表
現で示した図である。
FIG. 4 is a diagram showing a small plane patch of a free-form surface model in a needle expression.

【図5】自由曲面体の全周囲レンジデータの見かけの輪
郭線についての説明図である。
FIG. 5 is an explanatory diagram of an apparent contour line of omnidirectional range data of a free-form body.

【図6】局所的幾何特徴の生成の説明図である。FIG. 6 is an explanatory diagram of generation of a local geometric feature.

【図7】自由曲線セグメントへの直線・円あてはめの図
である。
FIG. 7 is a diagram of fitting a straight line / circle to a free curve segment.

【図8】本発明の3次元物体の位置姿勢決定の基本的な
処理を示すフローチャートである。
FIG. 8 is a flowchart showing a basic process of determining the position and orientation of a three-dimensional object according to the present invention.

【図9】ステレオ画像と復元された3次元情報を示す図
である。
FIG. 9 is a diagram showing a stereo image and restored three-dimensional information.

【図10】局所的幾何特徴による初期照合の説明図であ
る。
FIG. 10 is an explanatory diagram of initial collation based on local geometric features.

【図11】微調整における小平面パッチ近傍のデータ点
を説明する図である。
FIG. 11 is a diagram illustrating data points near a small plane patch in fine adjustment.

【図12】微調整の過程と結果を示した図である。FIG. 12 is a diagram showing a process and a result of fine adjustment.

【図13】認識結果を示す図である。FIG. 13 is a diagram showing a recognition result.

【図14】様々な観測方向からの認識結果を示す図であ
る。
FIG. 14 is a diagram showing recognition results from various observation directions.

【符号の説明】[Explanation of symbols]

1 コンピュータ 2 データバス 3a,3b ITV 4a,4b A/D 5 全周囲レンジファインダ 6 画像メモリ 7 ディスプレイ 8 プリンタ 9 ハードディスク 10 キーボードターミナル 20 全周囲レンジデータ 21,21a 小平面パッチ 22 単位球 23 輪郭線 24 モデル頂点・モデル円弧 100 ホストコンピュータ DESCRIPTION OF SYMBOLS 1 Computer 2 Data bus 3a, 3b ITV 4a, 4b A / D 5 All around range finder 6 Image memory 7 Display 8 Printer 9 Hard disk 10 Keyboard terminal 20 All around range data 21, 21a Small plane patch 22 Unit sphere 23 Contour line 24 Model vertex / model arc 100 Host computer

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成9年5月2日[Submission date] May 2, 1997

【手続補正1】[Procedure amendment 1]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図9[Correction target item name] Fig. 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図9】 FIG. 9

【手続補正2】[Procedure amendment 2]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図13[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図13】 FIG. 13

【手続補正3】[Procedure amendment 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図14[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図14】 FIG. 14

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 あらかじめ物体を計測して得られる全周
囲レンジデータからなる自由曲面体モデルと3次元物体
である自由曲面体の入力画像とを照合して前記自由曲面
体の位置姿勢を決定する3次元物体位置姿勢決定方法で
あって、前記自由曲面体をある観測方向から観測したス
テレオ画像を入力し、このステレオ画像から該物体のエ
ッジを抽出して、その局所的形状によりセグメントに分
割し、これらのセグメントに局所的幾何特徴を付加し、
この局所的幾何特徴を前記自由曲面体モデルの局所的幾
何特徴モデルと初期照合を行うことにより対応する候補
を検出するとともに、この候補の位置姿勢および前記観
測方向より、自由曲面体の見かけの輪郭線に対応する自
由曲面体モデルの小平面パッチを選び、この小平面パッ
チを用いて各対応する候補を微調整し、この初期照合と
微調整の認識処理により前記自由曲面体の位置姿勢を検
出することを特徴とする3次元物体位置姿勢決定方法。
1. A position / posture of a free-form surface object is determined by collating a free-form surface model consisting of omnidirectional range data obtained by measuring an object in advance with an input image of a free-form surface object as a three-dimensional object. A three-dimensional object position / posture determination method, comprising inputting a stereo image obtained by observing the free-form surface from a certain observation direction, extracting an edge of the object from the stereo image, and dividing the object into segments according to its local shape. , Add local geometric features to these segments,
By performing initial matching of the local geometric feature with the local geometric feature model of the free-form surface model, a corresponding candidate is detected. Based on the position and orientation of the candidate and the observation direction, an apparent contour of the free-form surface body is obtained. Select a small-surface patch of the free-form surface model corresponding to the line, fine-tune each corresponding candidate using the small-plane patch, and detect the position and orientation of the free-form surface body by the initial matching and the recognition process of the fine adjustment. A three-dimensional object position and orientation determination method.
【請求項2】 自由曲面体モデルは、表面が自由曲面形
状である物体を計測して得られる全周囲レンジデータを
サンプリングして得られる小平面パッチと、前記全周囲
レンジデータの重心を原点とする単位球上に設定したサ
ンプリング方向からその全周囲レンジデータを観測した
ときに推定される輪郭線から生成される局所的幾何特徴
モデルからなり、自由曲面体の観測方向が未知であって
も前記局所的幾何特徴モデルと入力画像との初期照合を
可能にしたものであることを特徴とする請求項1記載の
3次元物体位置姿勢決定方法。
2. A free-form surface model includes a small plane patch obtained by sampling omni-directional range data obtained by measuring an object having a free-form surface, and a center of gravity of the omni-directional range data as an origin. It consists of a local geometric feature model generated from the contour estimated when observing the entire surrounding range data from the sampling direction set on the unit sphere to be set, even if the observation direction of the free-form body is unknown. 2. The method according to claim 1, wherein initial matching between the local geometric feature model and the input image is enabled.
JP9008749A 1997-01-21 1997-01-21 3D object position and orientation determination method Expired - Lifetime JP2920513B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9008749A JP2920513B2 (en) 1997-01-21 1997-01-21 3D object position and orientation determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9008749A JP2920513B2 (en) 1997-01-21 1997-01-21 3D object position and orientation determination method

Publications (2)

Publication Number Publication Date
JPH10206135A true JPH10206135A (en) 1998-08-07
JP2920513B2 JP2920513B2 (en) 1999-07-19

Family

ID=11701591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9008749A Expired - Lifetime JP2920513B2 (en) 1997-01-21 1997-01-21 3D object position and orientation determination method

Country Status (1)

Country Link
JP (1) JP2920513B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2010060494A (en) * 2008-09-05 2010-03-18 Fujitsu Ltd Posture measurement device
JP2011198330A (en) * 2010-03-24 2011-10-06 National Institute Of Advanced Industrial Science & Technology Method and program for collation in three-dimensional registration
JP2012514252A (en) * 2008-12-29 2012-06-21 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
WO2014024579A1 (en) * 2012-08-09 2014-02-13 株式会社トプコン Optical data processing device, optical data processing system, optical data processing method, and optical data processing-use program
JP2016161569A (en) * 2015-02-26 2016-09-05 三菱電機株式会社 Method and system for obtaining 3d pose of object and 3d location of landmark point of object
CN113566737A (en) * 2021-07-28 2021-10-29 赤湾集装箱码头有限公司 Shore crane hull gap monitoring method and shore crane thereof
CN114296397A (en) * 2021-12-01 2022-04-08 浙江大学 Part model geometric feature extraction method for neural network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5046133B2 (en) * 2009-07-09 2012-10-10 独立行政法人産業技術総合研究所 3D curved surface recognition method and manipulation system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
DE10080012B4 (en) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Three-dimensional method of detecting objects and system for picking up an object from a container using the method
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2010060494A (en) * 2008-09-05 2010-03-18 Fujitsu Ltd Posture measurement device
JP2017004533A (en) * 2008-12-29 2017-01-05 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
JP2012514252A (en) * 2008-12-29 2012-06-21 コグネックス・コーポレイション System and method for three-dimensional alignment of objects using machine vision
JP2015079518A (en) * 2008-12-29 2015-04-23 コグネックス・コーポレイション System and method for three-dimensional alignment of object using machine vision
JP2011198330A (en) * 2010-03-24 2011-10-06 National Institute Of Advanced Industrial Science & Technology Method and program for collation in three-dimensional registration
WO2014024579A1 (en) * 2012-08-09 2014-02-13 株式会社トプコン Optical data processing device, optical data processing system, optical data processing method, and optical data processing-use program
JP2014035702A (en) * 2012-08-09 2014-02-24 Topcon Corp Optical data processing device, optical data processing system, optical data processing method, and program for processing optical data
US20150206023A1 (en) * 2012-08-09 2015-07-23 Kabushiki Kaisha Topcon Optical data processing device, optical data processing system, optical data processing method, and optical data processing program
US9977983B2 (en) 2012-08-09 2018-05-22 Kabushiki Kaisha Topcon Optical data processing device, optical data processing system, optical data processing method, and optical data processing program
JP2016161569A (en) * 2015-02-26 2016-09-05 三菱電機株式会社 Method and system for obtaining 3d pose of object and 3d location of landmark point of object
CN113566737A (en) * 2021-07-28 2021-10-29 赤湾集装箱码头有限公司 Shore crane hull gap monitoring method and shore crane thereof
CN114296397A (en) * 2021-12-01 2022-04-08 浙江大学 Part model geometric feature extraction method for neural network
CN114296397B (en) * 2021-12-01 2023-07-21 浙江大学 Part model geometric feature extraction method for neural network

Also Published As

Publication number Publication date
JP2920513B2 (en) 1999-07-19

Similar Documents

Publication Publication Date Title
CN105741346B (en) Method for calibrating a depth camera
Yamany et al. Free-form surface registration using surface signatures
US7711180B2 (en) Three-dimensional image measuring apparatus and method
US6587601B1 (en) Method and apparatus for performing geo-spatial registration using a Euclidean representation
EP2026279B1 (en) Method and system for aligning three-dimensional surfaces
JP2016161569A (en) Method and system for obtaining 3d pose of object and 3d location of landmark point of object
WO2005038716A1 (en) Image collation system and image collation method
JP2920513B2 (en) 3D object position and orientation determination method
WO1994023390A1 (en) Apparatus for identifying person
JP2000227309A (en) Three-dimensional position posture sensing device
Ecabert et al. Adaptive Hough transform for the detection of natural shapes under weak affine transformations
JP2007128374A (en) Object recognition method, program for object recognition and storage medium therefor, and object recognition device
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
Habib et al. Linear features in photogrammetry
CN111400830B (en) Machining calibration method and device for three-dimensional blank workpiece
JP3926059B2 (en) Image collation device, image collation method thereof, and recording medium recording control program thereof
EP3499464B1 (en) Three-dimensional data matching device and method
JP2000099760A (en) Method for forming three-dimensional model and computer-readable recording medium recording three- dimensional model forming program
JP3054682B2 (en) Image processing method
JP5030183B2 (en) 3D object position and orientation measurement method
JP4389663B2 (en) Image processing method and image processing apparatus
JPH0921610A (en) Image-processing apparatus and image-processing method
JPH07146121A (en) Recognition method and device for three dimensional position and attitude based on vision
JPH1055446A (en) Object recognizing device
CN113034673B (en) 3D point cloud modeling system and computer readable storage medium

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term