JPH04124779A - Three-dimensional shaped symmetry plane extracting device - Google Patents

Three-dimensional shaped symmetry plane extracting device

Info

Publication number
JPH04124779A
JPH04124779A JP2245374A JP24537490A JPH04124779A JP H04124779 A JPH04124779 A JP H04124779A JP 2245374 A JP2245374 A JP 2245374A JP 24537490 A JP24537490 A JP 24537490A JP H04124779 A JPH04124779 A JP H04124779A
Authority
JP
Japan
Prior art keywords
parameter
symmetry plane
symmetry
plane
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2245374A
Other languages
Japanese (ja)
Inventor
Yoshinobu Sato
嘉伸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2245374A priority Critical patent/JPH04124779A/en
Publication of JPH04124779A publication Critical patent/JPH04124779A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To input both shape information and a shape as a whole by detecting a cell with a peak value with the aid of a symmetry plane parameter which is determined by two points and performing the application of the symmetry plane while taking the parameter value as an initial value. CONSTITUTION:In an input picture storage part 101, one eye of binocular vision is replaced by a slit light projector, and the depth in the direction of line of sight is measured. From a local symmetrical parameter extraction part 102, a symmetrical point, a symmetry plane normal, and a distance from an origin to a plane are outputted. In a symmetry plane parameter space storage part 103, the regular division of a unit spherical surface is performed to obtain parameter space regularly divided into cells with the same space and shape against the unit normal direction. In a symmetry plane parameter voting part 104, the symmetry plane normal and the distance from the origin obtained in the extraction part 102 are voted to the parameter space of the storage part 103. A symmetry plane parameter accurate measuring estimation part 106 performs accurate parameter estimation by repeating M estimation method, and all the symmetry plane parameter in the distance picture can be accurately extracted from the distance picture of one view point.

Description

【発明の詳細な説明】 [産業上の利用分野〕 この発明は、距離画像からの3次元物体認識。[Detailed description of the invention] [Industrial application field] This invention recognizes three-dimensional objects from distance images.

あるいは、距離画像からの3次元形状モデル獲得におい
て、3次元物体の姿勢決定、あるいは、距離画像の特徴
記述に用いられる対称面を抽出する3次元形状の対称面
抽出装置に関する。
Alternatively, the present invention relates to a three-dimensional shape symmetry plane extraction device that extracts a symmetry plane used for determining the posture of a three-dimensional object or describing the characteristics of a distance image in acquiring a three-dimensional shape model from a distance image.

〔従来の技術〕[Conventional technology]

対称性の抽出に関しての記載は、 1984年、 Th
e+nternational journal of
 robotics research。
A description of symmetry extraction is given in 1984, Th
e+international journal of
robotics research.

νo1.3. No、3. pp、36−60の’Sm
oothed localsymmetries an
d their jmp1ementaL’ron J
等多くあるが、それらは、2次元形状に関するものであ
った。また、3次元形状の対称面を抽出する方法は、 
1989年、電子情報通信学会5パターン認識と理解研
究会研究報告、PRU89−81の「On ident
ifying symmetry of a thre
e−di++ensionalobject from
 its octree」で記載されているが。
νo1.3. No, 3. pp, 36-60'Sm
oothed local symmetries
d their jmp1ementaL'ron J
There are many others, but they are related to two-dimensional shapes. In addition, the method for extracting the symmetry plane of a three-dimensional shape is
1989, IEICE 5 Pattern Recognition and Understanding Study Group Research Report, PRU89-81 “On ident
making symmetry of a thre
e-di++ technical object from
It is written in ``its octree''.

(1)1視点の距M画像からの抽出は行えず、対象とす
る3次元形状の全データ(オクトツリー表現)を必要と
する。(2)対称SJfMのセグメンテーションが仮定
している。という問題があった。
(1) Extraction from a distance M image of one viewpoint cannot be performed, and all data (octree representation) of the target three-dimensional shape is required. (2) A symmetric SJfM segmentation is assumed. There was a problem.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

通常の距離画像(3次元形状)入力装置では1視点から
の形状情報のみしか獲得できず、また制御された環境下
で複数の視点からの距離画像を統合する場合においても
、3次元形状が凹部を含んでいる場合には、形状全体を
完全ムこ入力することは難しい。さらに、物体認識を行
う場合ムこは複数の3次元物体が重なり合っているシー
ンを対象と廿ねばならない状況も多い。このようムこ5
C】)と(2)との仮定をおいた手法では、適用範囲は
大幅に限定される。
Ordinary distance image (3D shape) input devices can only acquire shape information from one viewpoint, and even when integrating distance images from multiple viewpoints in a controlled environment, the 3D shape is , it is difficult to input the entire shape completely. Furthermore, when performing object recognition, there are many situations in which the operator must deal with scenes in which multiple three-dimensional objects overlap. This kind of muko 5
The scope of application of the method based on assumptions (C]) and (2) is significantly limited.

この発明の目的は9以上のような制限を受けることなく
、(+’)入力データとして1視点の距離画像(と濃淡
画像)を仮定する1(2°)対称領域のセグメンテーシ
ヨンを仮定しない、の2つの仮定のもとて有効に働く、
3次元形状の対称面抽出装置を提供することにある。
The purpose of this invention is to avoid the limitations of 9 or more, assume a distance image (and gray scale image) of one viewpoint as input data (+'), and do not assume segmentation of a 1 (2°) symmetric area. It works very effectively under the following two assumptions:
An object of the present invention is to provide an apparatus for extracting a plane of symmetry of a three-dimensional shape.

[課題を解決するための手段] この発明に係わる3次元形状の対称面抽出装置では、ハ
フ変換の考え方に基づき、対称面パラメータがとりうる
範囲を表す、はぼ等形状のセルに規則的分割(tess
elate) したパラメータ空間を用意する。まず1
画像中のあらゆる2点に対してそれら2点間の対称性を
調べ、対称条件が成立する場合、それら2点から定まる
対称面パラメータをパラメータ空間の該当するセルに投
票する。次に、パラメータ空間中において投票数がピー
ク値(極太値)を持つセルを検出し、そのセルが表すパ
ラメータ値を初期値として1M推定法による対称面の当
てはめを行う。これを、検出されたあらゆるピーク値t
こ関して行う。
[Means for Solving the Problems] In the symmetry plane extraction device for a three-dimensional shape according to the present invention, based on the idea of Hough transform, the symmetry plane is regularly divided into cells of approximately uniform shape representing the range that the symmetry plane parameters can take. (tess
(elate) Prepare a parameter space. First 1
The symmetry between any two points in the image is checked, and if the symmetry condition is satisfied, the symmetry plane parameters determined from those two points are voted into the corresponding cell in the parameter space. Next, a cell in which the number of votes has a peak value (extreme value) is detected in the parameter space, and a plane of symmetry is fitted using the 1M estimation method using the parameter value represented by that cell as an initial value. This is defined as every detected peak value t
I will do this regarding this.

S作用つ この発明ムこおいては6あらゆる2点から仮定される対
称面パラメータ値の中で1w4著な対称面を表す対称面
パラメータ値が、パラメータ空間においてクラスタを形
成するという事実を利用し、対称面を表すパラメータ空
間でのピーク値を対称面パラメータの候補地とする。こ
れは通常よく用いられるハフ変換の原理である。しかし
、ハフ変換では、パラメータ空間のセルの大きさの決定
法が確立しておらず、高精度の達成と偽のピークの抑制
とを両立することは困難である。すなわち、セルを大き
くすると精度が悪くなり、セルを小さくすると偽のピー
クが発生しやすいという問題点がある。そこで、そのよ
うな不確定性を前提としてパラメータ空間中のあらゆる
ピーク値を初期値として1M推定法による対称面当ては
めを行う。M推定法は1重み付き最小2乗法を繰り返し
実行することにより、山登り的に最良なパラメータの推
定値に収束させる手法である。結果として、同一の対称
面に起因する複数のピーク値が、同一のパラメータ値に
収束し、かつ、収束したバラメーク値は、非常に精密な
ものとなる。また1以上で用いているハフ変換とM推定
法とはともに、対象とするデータ以外のデータが存在す
る場合、あるいは、データ自体が不完全な場合でも有効
に働く手法であるので、結果として複数物体が存在する
場合、および、1視点のみの距[直像しか得られない場
合でも有効に動作する。
In this invention, we utilize the fact that among the symmetry plane parameter values assumed from any two points, the symmetry plane parameter values representing the most prominent symmetry plane form clusters in the parameter space. , the peak value in the parameter space representing the symmetry plane is taken as a candidate location for the symmetry plane parameter. This is the commonly used principle of Hough transform. However, in the Hough transform, a method for determining the cell size in the parameter space has not been established, and it is difficult to achieve both high accuracy and suppression of false peaks. That is, there is a problem that as the cells become larger, the accuracy deteriorates, and as the cells become smaller, false peaks are more likely to occur. Therefore, assuming such uncertainty, symmetry plane fitting is performed using the 1M estimation method using all peak values in the parameter space as initial values. The M estimation method is a method that converges to the best parameter estimate in a hill-climbing manner by repeatedly executing the 1-weighted least squares method. As a result, a plurality of peak values originating from the same plane of symmetry converge to the same parameter value, and the converged variable make value becomes extremely precise. In addition, both the Hough transform and M estimation method used in 1 and above are methods that work effectively even when there is data other than the target data, or when the data itself is incomplete, so as a result, multiple It works effectively even when an object exists and when only a direct image can be obtained from one viewpoint.

〔実施例〕〔Example〕

第1図は本発明の一実施例構成図を示したものである。 FIG. 1 shows a configuration diagram of an embodiment of the present invention.

第1図の符号101は1人力画像蓄積部であり、入力直
像である距離画像、投影2値画像。
Reference numeral 101 in FIG. 1 is a manual image storage unit, which inputs a distance image, which is a direct image, and a projected binary image.

および1法線画像が蓄積されている部分である。and one normal image is stored.

102は9局所対称パラメータ抽出部であり、任意の2
点に基づく局所対称面パラメータを推定する部分である
。103は、対称面バラメーク空間蓄積部であり、はぼ
等形状のセルに規則的分割した対称面パラメータ空間を
蓄積する。各セルは対称面パラメータの1M1O値を代
表し、その対称面パラメータに対する投票数を表すカウ
ンタが備わっている。104は、対称面パラメータ投票
部であり2局所対称パラメータ抽出部102で抽出され
た各局所対称面バラメー々に対′−5で、対称面パラメ
ータ空間蓄積部103の該当するセルのカウンタを1増
加させる。105は、ピーク値検出部であり、対称面パ
ラメータ空間茫積部103の各セルのカウンタのうち、
その値が極大値をとるセルを検出し、そのセルが代表す
るパラメータ値を出力する。106は、対称面ベラメー
々精密推定部であり1 ピーク値検出部105で検出さ
れた対称面バラt−5値を初期値とンで1局所対称パラ
メータ抽出部102で抽出されたY−夕↓こ月!てN1
推定法↓こより対称面を精密に当てはめる部ノ)ヘ−て
あり、この出りが置針出力となる。
102 is a 9-local symmetric parameter extractor, which extracts any 2
This is the part that estimates local symmetry plane parameters based on points. Reference numeral 103 denotes a symmetry plane parameter space storage unit, which stores a symmetry plane parameter space regularly divided into cells having a uniform shape. Each cell represents 1M1O values of a symmetry plane parameter and is provided with a counter representing the number of votes for that symmetry plane parameter. 104 is a symmetry plane parameter voting unit which increases the counter of the corresponding cell in the symmetry plane parameter space storage unit 103 by 1 for each local symmetry plane parameter extracted by the two local symmetry parameter extraction unit 102 by '-5. let 105 is a peak value detection unit, and among the counters of each cell of the symmetry plane parameter space square product unit 103,
A cell whose value takes the maximum value is detected, and the parameter value represented by that cell is output. Reference numeral 106 is a symmetrical plane precision estimating unit which calculates the symmetrical plane variation t-5 value detected by the peak value detecting unit 105 as an initial value and the Y-t value extracted by the local symmetrical parameter extracting unit 102. This moon! Te N1
Estimation method ↓ There is a part that precisely fits the plane of symmetry, and this output becomes the positioning needle output.

第1図のべ力画像蓄積部101:ま、3種類Oべり画像
を蓄積する。
The force image storage unit 101 in FIG. 1: Well, three types of force images are accumulated.

まず、ある視点かろ撮られた距離画像が格納さ1、た2
次元配列が川音されているとする。距離画像は、対応す
る視線方向;二対する3次元座標値が各画素に割り当て
られた画像であり、 1987年Proc、 of 1
nternational cOnfercnce o
n Computervision、 pp、657−
661.7RanF、e imaging syste
mutiliziB nematic 1iquid 
crystal mask Jに記載されている装置等
で獲得できる。この装置では両眼立体視の片眼をスリッ
ト光プロジェクタに置き換え、3角測量の原理で視線方
向の奥行きを計測する。
First, distance images taken from a certain viewpoint are stored.
Suppose that the dimensional array is scaled. A distance image is an image in which each pixel is assigned a three-dimensional coordinate value corresponding to the viewing direction; 1987 Proc, of 1
international conference o
nComputervision, pp, 657-
661.7RanF, e imaging system
mutiliziB nematic 1iquid
It can be obtained using the device described in Crystal Mask J. In this device, one eye in binocular stereoscopic vision is replaced with a slit light projector, and the depth in the viewing direction is measured using the principle of triangulation.

第2図は、ある画素に対する視線方向とその画素に割り
当てられた3次元座標とを示しまた図である。201は
画像座標系のU軸、202:まV軸203は3次元空間
座標系のX軸、204はy軸205はZ軸、206は句
点距離である。207:ま画素208に対する視線であ
り1画素208二こ格納される3次元座標は、視線20
7と3次元空間中の表面209との交点である。
FIG. 2 is a diagram showing the viewing direction for a certain pixel and the three-dimensional coordinates assigned to that pixel. 201 is the U-axis of the image coordinate system, 202: V-axis 203 is the X-axis of the three-dimensional space coordinate system, 204 is the y-axis 205 is the Z-axis, and 206 is the punctuation distance. 207: This is the line of sight for the pixel 208, and the three-dimensional coordinates stored in one pixel 208 are the line of sight 20
7 and the surface 209 in three-dimensional space.

次に、同一視点から撮られた3次元物体の2(矢元投影
の24M画像(物体tこ1.背景にOか割り当て、しれ
ている)が格納された2次元配列が用意さオlていると
する。この2(I!両画像2距離画像人力装置において
、距離画像と同時に獲得されるf:&淡画像をしきい値
処理を施す等し7て獲得できる。また、2値画像に対し
で、共同システム開発株式会社7画像処理サブルーチン
バノテージrsPIDER,中のサブルーチン名BDF
I、2で折倒されている方法等を用いて、投影像の輪針
を追跡し各輪郭点に対し2て1画像座標系における2次
元座標、および、2次元法線を求めることができる。
Next, a 2-dimensional array is prepared in which 2 (24M images of arrow projection (object 1. O is assigned to the background) of 3-dimensional objects taken from the same viewpoint are stored. 2 (I! Both images 2 distance images In a human-powered device, the f: & pale image, which is acquired simultaneously with the distance image, can be acquired by applying threshold processing, etc.). On the other hand, Kyodo System Development Co., Ltd. 7 image processing subroutine rsPIDER, subroutine name BDF
Using the method described in I, 2, etc., it is possible to trace the circular needle of the projected image and find the 2-dimensional coordinates and 2-dimensional normal in the 1-image coordinate system for each contour point. .

BDFL2では、2値画像の0画素に隣接する1画素の
8連結系列を逐次追跡り、填界線系列とする。
In BDFL2, an 8-connected series of 1 pixel adjacent to 0 pixel of a binary image is sequentially traced and used as a boundary line series.

さらに、法線画像が格納された2次元配列が川音さ狽て
いる古する。法線画像は、対応する視線方向に対する3
次元表面の法線方向が各画素に割iツ当てられた画像で
あり、距離画像の各画素↓こ対しで、そ(″′1画素を
中心とする局所忘を設定し、その局所窓内の3次元点に
対しで、表面を当てはめること↓こより、各画素に対応
する法線方向を得ることができる。
Furthermore, the two-dimensional array in which the normal images are stored is outdated. The normal image is 3 for the corresponding viewing direction.
This is an image in which the normal direction of the dimensional surface is assigned to each pixel, and for each pixel of the distance image, a local window centered at 1 pixel is set, and the The normal direction corresponding to each pixel can be obtained by fitting the surface to the three-dimensional point.

第1図の局所対称パラメータ抽出部102について説明
する。投影2値画像の輪郭点の2次元座標を(u、V)
、2次元法線を(nu 、nv ) 。
The locally symmetric parameter extraction unit 102 in FIG. 1 will be explained. The two-dimensional coordinates of the contour point of the projected binary image are (u, V)
, the two-dimensional normal (nu, nv).

撮影時の忙点距離をfとすると1輪郭点の3次元座標X
、は X、= (ru、rv、 −rf) 3次元法線n1は ”+=(fn、/m+ fnv/m+ (unu’、ν
nv)/m)となる。ここで、rは、レンズ中心から3
次元座標までの距離 m = *’f”+u”n、2+v”nv”である。3
次元座標は視線方向の1自由度rが存在するが、3次元
法線に関しては自由度は存在Q゛ず一意に定まる。
If the busy point distance at the time of photographing is f, the three-dimensional coordinate of one contour point is
, is
nv)/m). Here, r is 3 from the center of the lens.
The distance to the dimensional coordinates m = *'f''+u''n, 2+v''nv''. 3
In the dimensional coordinates, there is one degree of freedom r in the line of sight direction, but with respect to the three-dimensional normal, the degree of freedom is uniquely determined without existence Q.

ri郭点の3次元座標X1,3次元法線n1に対して、
距離画像、および、法線画像中の1点の3次元座標をN
2.3次元法線をn2とすると これら2点が対称であ
るための条件は次式で表される。
For the 3-dimensional coordinates X1 and 3-dimensional normal n1 of the ri point,
The three-dimensional coordinates of one point in the distance image and normal image are N
2. If the three-dimensional normal is n2, the condition for these two points to be symmetrical is expressed by the following equation.

(n を半nz)  ・ (x、−xz)= O(1,
)(ru、”nz)  −λ (x 、 −x 、 )
         (2)第(1)弐から、rを決定す
ることができ、第(2)式から対称性の有無を判定する
ことができる。第(2)式の条件はしきい値をδとしで
1次式で判定される。
(n half nz) ・ (x, -xz) = O(1,
)(ru,”nz) −λ (x, −x, )
(2) From the second equation (1), r can be determined, and the presence or absence of symmetry can be determined from the equation (2). The condition of equation (2) is determined by a linear equation with the threshold value set to δ.

これら2点により定まる対称点X。Symmetry point X determined by these two points.

作画法WAn@は1次式で表される。The drawing method WAn@ is expressed by a linear equation.

および 対 2点間の対称性が存在する場合、さらに、その2点とレ
ンズ中心(3次元空間座標の原点)(こよって定まる平
面により距離画像を切断することによって得られる断面
形状の対称性を卿1定する。
If there is symmetry between the pair of two points, then the symmetry of the cross-sectional shape obtained by cutting the range image by the plane determined by the two points and the center of the lens (the origin of three-dimensional spatial coordinates). Sir 1 is determined.

2点の画像上での2D位置をul、ul 、2D(装置
Uにおける3D位置をx(u)、3D(ffl置装、の
画像投影〔即ち、2D位置)をP(xJ として断面形
状の対称性からのずれdiffを次式で定義する。
The 2D position on the image of the two points is ul, ul is the 3D position in the 2D (device U), the image projection (i.e., 2D position) of the 3D (ffl device) is P(xJ), and the cross-sectional shape is The deviation from symmetry, diff, is defined by the following equation.

ここで、5=(xs−x(tu、+(1−t)uz))
・nsである。
Here, 5=(xs-x(tu,+(1-t)uz))
・NS.

上式の積分を離散近似することにより計算される値があ
るしきい値以内の場合、2点間の断面形状に対称性が存
在すると判定する。
If the value calculated by discretely approximating the integral in the above equation is within a certain threshold value, it is determined that symmetry exists in the cross-sectional shape between the two points.

対称点X、をとおり、法線n、により決定する平面の方
程式は、第2図で示されるような座標系の設定を仮定し
、レンズ中心を原点とすると2次式で表される。
The equation of the plane passing through the point of symmetry X and determined by the normal n is expressed by a quadratic equation assuming that the coordinate system is set as shown in FIG. 2 and the center of the lens is the origin.

n X X + n y y+ n E Z =ρ(7
)ここで、 rhs= (nx、  ny、  nx)
である。
n X X + ny y+ n E Z = ρ(7
) where rhs= (nx, ny, nx)
It is.

また、ρ−n、・xsであり、原点から平面までの距離
を表す。
Also, ρ-n, xs represents the distance from the origin to the plane.

局所対称パラメータ抽出部102からは、対称点XS、
対称面法線n、、、および、原点から平面までの距離ρ
が出力される。
From the local symmetry parameter extraction unit 102, the symmetry point XS,
Symmetry plane normal n, , and distance ρ from the origin to the plane
is output.

第1図の対称面パラメータ空間蓄積部103について説
明する。対称面は、第(7)弐で示されるように、単位
法線ヘクトルn、と原点からの距離ρとにより表すこと
ができる。対称面の単位法線nSと原点からの距離ρと
を表すパラメータ空間は以下のように構成できる。
The symmetry plane parameter space storage unit 103 shown in FIG. 1 will be explained. The plane of symmetry can be expressed by a unit normal hector n and a distance ρ from the origin, as shown in (7) 2. A parameter space representing the unit normal nS of the plane of symmetry and the distance ρ from the origin can be constructed as follows.

単位ベクトルの始点を単位法の中心に一致させると、単
位ベクトルの終点は単位球面上に来るので、単位ベクト
ルは単位球面に1対1対応する。
When the starting point of the unit vector coincides with the center of the unit method, the ending point of the unit vector will be on the unit sphere, so the unit vector has a one-to-one correspondence with the unit sphere.

Prentice−)fall、 INC,rcomp
uter visiorl pp、492493に記載
されているように、測地ドームを構成する手法に従うと
、単位球面の規則的分割(tesselation)を
行うことができ、単位法線方向に対して はぼ等間隔、
かつ1等形状のセルに規則的分割したパラメータ空間を
用意することができる。
Prentice-)fall, INC, rcomp
As described in Uter Visiorl pp, 492493, by following the method of configuring a geodesic dome, it is possible to perform regular tessellation of the unit sphere, with approximately equal intervals in the unit normal direction,
In addition, a parameter space regularly divided into uniformly shaped cells can be prepared.

第3図にその例を示す、符号301は1つのセル(面)
であり1点302における法線ベクトルがそのセルを代
表する法線ベクトルとなる。すなわち1セル301内の
法線方向がすべて点302の方向をもつ法線ヘクトルで
代表される。さらに。
An example is shown in Fig. 3, where 301 is one cell (surface).
The normal vector at one point 302 becomes the normal vector representing that cell. That is, all normal directions within one cell 301 are represented by normal hectors having the direction of point 302. moreover.

測地ドームの各セルに対して、対称面の原点からの距離
ρを表す1次元配列を用意する。これによって1対称面
パラメータに対して、はぼ等形状のセルをもつ規則的分
割したパラメータ空間を用意することができる。各セル
には、そのセルを代表する平面パラメータに対する投票
数を表すカウンタが備わっている。
A one-dimensional array representing the distance ρ from the origin of the plane of symmetry is prepared for each cell of the geodesic dome. As a result, for one symmetry plane parameter, a regularly divided parameter space having cells of approximately uniform shape can be prepared. Each cell is equipped with a counter representing the number of votes for the plane parameter representing that cell.

第1図の対称面パラメータ投票部104について説明す
る。第1図の局所対称バラノータ抽出部102において
得られる対称面法線nsと原点からの距離ρとを対称面
パラメータ空間蓄積部103のパラメータ空間に投票す
る。対称面パラメータ投票部104においては1局所対
称パラメータ抽出部102で抽出された各パラメータ値
に対して、パラメータ空間中のセルのうち、その代表値
がもっとも近いセルのカウンタを1増加させる。
The symmetry plane parameter voting section 104 shown in FIG. 1 will be explained. The symmetry plane normal ns and the distance ρ from the origin obtained in the local symmetry baranota extraction unit 102 in FIG. The symmetry plane parameter voting section 104 increments by one the counter of the cell whose representative value is closest among the cells in the parameter space for each parameter value extracted by the one-local symmetry parameter extraction section 102.

第1図のピーク値検出部)05について説明する。この
部分では、パラメータ空間の各セルのカウンタの値が、
極大値となるセルのパラメータ値をすべて取り出す。極
大値の判定は、隣合うセルのカウンタ値を比較し、どの
隣合うセルのカウンタ値よりも小さくない場合、極大値
と判定する。
The peak value detection section) 05 in FIG. 1 will be explained. In this part, the counter value of each cell in the parameter space is
Extract all parameter values of cells that have local maximum values. To determine the local maximum value, the counter values of adjacent cells are compared, and if the counter value is not smaller than the counter value of any adjacent cell, the local maximum value is determined.

例えば、「隣合うコの定義は以下のようにすることがで
きる。測地ドームに基づく規則的分割ムこおいて辺を共
有するセルであり、かつ、原点からの距離ρを表す1次
元配列の代表値が同じであるセル、あるいは、測地ドー
ムに基づく規則的分割において同一のセルに属し、かつ
、対称面のレンズ中心からの距離ρを表す1次元配列に
おいて隈合うセル、であるとする。
For example, the definition of ``adjacent cells'' can be as follows. Cells that share a side in a regularly divided cell based on a geodesic dome, and are one-dimensional arrays representing the distance ρ from the origin. It is assumed that the cells have the same representative value, or the cells belong to the same cell in regular division based on the geodesic dome, and are interlocked in a one-dimensional array representing the distance ρ from the lens center of the plane of symmetry.

第1図の対称面パラメータ精密推定部106について説
明する。対称面パラメータ精密推定部106はM推定法
によって、対称面パラメータの精密推定を行う部分であ
る。
The symmetry plane parameter precise estimator 106 shown in FIG. 1 will be explained. The symmetry plane parameter precision estimating unit 106 is a part that performs precise estimation of symmetry plane parameters using the M estimation method.

ます1M推定法について簡単に説明する。詳しくは1例
えば、東京大学出版会「最小二乗法による実験データ解
析J pp、163−176等に記載されている。通常
の最小2乗法による当てはめでは、すべてのデータが、
ただ1つのモデルに起因し、その誤差が正規分布である
と仮定する。しかし、あるデータの集合が2つ以上のモ
デルに起因する場合、その仮定は成立しない。対称面の
検出処理においては、データ中に2つ以上の対称面が存
在する場合に相当する。一般に2画像中には多数の対称
性が存在するので4通常の最小2乗法の利用は適当でな
い0M推定法では、このような場合において、当てはめ
を行う方法である。複数のパラメタを含むモデルを考え
1いま、それらのパラメータのある推定価が与えられて
いるとする。ここで、与えられた各データに対する重め
を、残差に依存して決定する。即ち、残差の大きなデー
タに関しては、当てはめようとしているモデルに起因し
ないデータであると考え、その影響を小さくするため重
みを小さくする。また、残差の小さなデータに関しては
重みを大きくする。この重みWを決定する関数は、例え
ば、残差を2としてガウス関数を用いて、 w=g (
z ;σ)と表すことができる。ここで、g(x;σ)
は標準偏差σのガウス関数である。すべてのデータに対
してこのような重みづけを行って1重みつき最小2乗法
を実行し、新しいパラメータの推定値を得る。次↓こ、
新しいパラメータの推定値をもとに各データに対して、
再び上記の手順で重みを決定し1最小2乗法を実行する
。M推定法は、この処理を反復することにより精密なパ
ラメータ推定を行う方法である。
The 1M estimation method will be briefly explained. Details are described in 1, for example, University of Tokyo Press, "Experimental Data Analysis by Least Squares Method J pp, 163-176. In ordinary least squares fitting, all data are
Assume that it is due to only one model and that its errors are normally distributed. However, if a certain data set is attributed to more than one model, that assumption does not hold. In the symmetry plane detection process, this corresponds to the case where two or more symmetry planes exist in the data. In general, there are many symmetries in two images, so it is not appropriate to use the ordinary least squares method.The 0M estimation method performs fitting in such cases. Consider a model that includes multiple parameters.1 Now, assume that certain estimated values of those parameters are given. Here, the weight for each given data is determined depending on the residual. That is, data with a large residual error is considered to be data that does not originate from the model to which it is applied, and its weight is reduced in order to reduce its influence. Furthermore, the weight is increased for data with small residuals. The function that determines this weight W is, for example, a Gaussian function with a residual of 2, w=g (
z ; σ). Here, g(x;σ)
is a Gaussian function with standard deviation σ. All data are weighted in this manner and a one-weighted least squares method is performed to obtain new parameter estimates. Next↓ko,
For each data based on the new parameter estimates,
The weights are determined again using the above procedure and the one least squares method is executed. The M estimation method is a method of performing precise parameter estimation by repeating this process.

このとき、パラメータの推定値の初期値の適切な設定法
が必要となるが1本発明では、ハフ変換によってパラメ
ータ推定値の初期値を得る。
At this time, an appropriate method for setting the initial value of the parameter estimate is required, and in the present invention, the initial value of the parameter estimate is obtained by Hough transform.

第1図の対称面パラメータ精密推定部106ではピーク
値検出部105から出力される各パラメータ値を初期値
として1局所対称パラメータ抽出部102より出力され
る対称点と法線の&[1(xnl、X !、n !、 
”’ 、  X a、 n n lをデータとして1M
推定法による対称面パラメータの精密推定を行う。
In the symmetry plane parameter precision estimating unit 106 in FIG. ,X!,n!,
”', X a, n n l as data 1M
Accurately estimate symmetry plane parameters using an estimation method.

ピーク値検出部105からは、投票数が極大値をもつセ
ルの法線”5−(nx−ny、nx)、および、原点か
らの距離ρが対称面パラメータの推定値の初期値として
出力される。この対称面は次式%式% ここで、初期値の法線方向に2軸方向が一致するように
1局所対称パラメータ抽出部102より出力される対称
点と法線の組の座標変換を行う、これは、対称面パラメ
ータを推定する際に、法線のデータの利用を可能にする
ためである。座標変換後の初期対称面は次式で表される
The peak value detection unit 105 outputs the normal "5-(nx-ny, nx) of the cell with the maximum number of votes and the distance ρ from the origin as the initial value of the estimated value of the symmetry plane parameter. This plane of symmetry is expressed by the following formula % Formula % Here, the coordinate transformation of the pair of symmetry point and normal line output from the 1-local symmetry parameter extraction unit 102 is performed so that the two axis directions coincide with the initial value normal direction. This is to enable the use of normal data when estimating symmetry plane parameters.The initial symmetry plane after coordinate transformation is expressed by the following equation.

2−ρ             (9)また、データ
を当てはめることによって推定される対称面を次式で表
す。
2-ρ (9) Also, the plane of symmetry estimated by fitting the data is expressed by the following equation.

z=ax→−b y 十c       Qffla、
b、cが推定されるべきパラメータである。
z=ax→−b y 1c Qffla,
b and c are parameters to be estimated.

座標変換後の対称点と法線の組のうち、法線データを第
00弐の表現法に合わせて、  (AJ、B、、1)と
して表す。次式の較小2乗当てほめを繰り返し行うこと
により、最適な対称面の当てほめを行う。
Among the pairs of symmetric points and normals after coordinate transformation, the normal data is expressed as (AJ, B,, 1) in accordance with the 00th expression method. The optimal symmetry plane is estimated by repeatedly performing the comparison of the following formula.

ΣWi、J(w+(Z、  a、X、−blYJ−c7
)2千wz((ai  Aj”+(b、−B J)2)
)→min   00ここで、第(9)式より、パラメ
ータの推定値の初期値は、ao ””0.bo =O,
Co −Dであり。
ΣWi, J(w+(Z, a, X, -blYJ-c7
) 2,000wz ((ai Aj”+(b, -B J)2)
)→min 00 Here, from equation (9), the initial value of the parameter estimate is ao ""0. bo=O,
It is Co-D.

(X、、Y、、ZJ)、  (A、、Bj、1)は、3
番目の各対称面素の3次元位置と法線方向+”l とW
(X,,Y,,ZJ), (A,,Bj,1) is 3
The three-dimensional position and normal direction of each symmetry plane element +”l and W
.

は3次元位置と法線方向に対する重みパラメータlは繰
り返し回数を表し、  (a、、b、、c、)は。
The weight parameter l for the three-dimensional position and normal direction represents the number of repetitions, and (a,,b,,c,).

i回目の対称面パラメータの推定値を示す。また、各デ
ータ(対称点と法線の&ll)に対する重みWi+jは
9次式で決定する。
The estimated values of the i-th symmetry plane parameters are shown. Further, the weight Wi+j for each data (symmetrical point and normal line &ll) is determined by a 9th order equation.

Wl、 J=     g (errorl、 =) 
     (IZ1ffJ ここで、g(x)はガウス関数、 d+ffJは各対称
面素の対称性からのずれであり、  errori、j
は次式で計算される。
Wl, J= g (errorl, =)
(IZ1ffJ Here, g(x) is a Gaussian function, d+ffJ is the deviation from symmetry of each symmetry plane element, and error, j
is calculated using the following formula.

errorI+j”=lI’+(Zj  at−+Xj
−bi−+Yj  C1−1)t+11g((at−+
  J)2+(bH−+  J)”)   OE上記の
繰り返しを(a;、br−Ct)が収束するあるいは2
繰り返し回数iがある一定回数に到達するまで行う。最
後に、推定された値に対して。
errorI+j"=lI'+(Zj at-+Xj
-bi-+Yj C1-1)t+11g((at-+
J) 2+(bH-+ J)”) OE The above iteration is converged by (a;, br-Ct) or 2
This is repeated until the number of repetitions i reaches a certain number of times. Finally, for the estimated value.

推定前に施した座標変換の逆変換が施される。An inverse transformation of the coordinate transformation performed before estimation is performed.

以上の処理を、ピーク値検出部から出力されるすべての
対称面パラメータの初期値に対して行う。
The above processing is performed for all initial values of symmetry plane parameters output from the peak value detection section.

〔発明の効果〕〔Effect of the invention〕

以上説明したように2本発明によれば、距離画像に基づ
いて2対称面を抽出する処理において。
As explained above, according to the present invention, two planes of symmetry are extracted based on a distance image.

まず1画像中の2点から仮定されるあらゆる局所対称パ
ラメータを可能な対称面を表す、はぼ等形状のセルに規
則的分割したパラメータ空間に投票し、投票数が極大値
となる対称面パラメータ値を取り出し、それを初期値と
してM推定法によって対称面の当てはめを行う、そして
、これをすべての極大値に対して行う、これらの処理に
よって。
First, all local symmetry parameters assumed from two points in one image are voted on in a parameter space that is regularly divided into roughly uniform cells representing possible symmetry planes, and the symmetry plane parameter that has the maximum number of votes is determined. By extracting a value, using it as an initial value, and fitting a plane of symmetry using the M-estimation method, and then doing this to all local maximum values.

1視点の距離画像からでも、また、複数の物体が重なり
合っている場合でも、距離画像中に存在するすべての対
称面パラメータを精密に抽出できるという効果がある。
This method has the advantage that all symmetry plane parameters present in a distance image can be precisely extracted even from a distance image from a single viewpoint or even when multiple objects overlap.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例構成図、第2図および第3図
は実施例を説明するだめの図である。 101は入力画像蓄積部、102は局所対称パラメータ
抽出部、103は対称面パラメータ空間蓄積部、104
は対称面パラメータ投票部105はピーク値検出部、1
06は対称面パラメータ精密推定部である。
FIG. 1 is a block diagram of one embodiment of the present invention, and FIGS. 2 and 3 are diagrams for explaining the embodiment. 101 is an input image storage unit, 102 is a local symmetry parameter extraction unit, 103 is a symmetry plane parameter space storage unit, 104
The symmetry plane parameter voting section 105 is a peak value detection section, 1
06 is a symmetry plane parameter precision estimator.

Claims (1)

【特許請求の範囲】 各画素に、対応する視線に沿った表面の3次元座標値が
格納されている距離画像に対して、対称面を抽出する処
理において、 画像中のあらゆる2点から仮定される対称面パラメータ
を、平面を表すパラメータ空間に投票し、投票数が極大
値をもつパラメータ値を取り出すという処理により推定
した対称面パラメータの推定値を初期値として、パラメ
ータの推定値の変化に応じて有効重みを調整する重みつ
き最小2乗法を繰り返し行う方法によって対称面パラメ
ータの精密推定を行う ことを特徴とする3次元形状の対称面抽出装置。
[Claims] In the process of extracting a plane of symmetry from a distance image in which each pixel stores the three-dimensional coordinate value of the surface along the corresponding line of sight, The parameters of the plane of symmetry are voted on in the parameter space representing the plane, and the parameter value with the maximum number of votes is taken out as the initial value. 1. A symmetry plane extraction device for a three-dimensional shape, characterized in that a symmetry plane parameter is precisely estimated by a method of repeatedly performing a weighted least squares method in which effective weights are adjusted using a weighted least squares method.
JP2245374A 1990-09-14 1990-09-14 Three-dimensional shaped symmetry plane extracting device Pending JPH04124779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2245374A JPH04124779A (en) 1990-09-14 1990-09-14 Three-dimensional shaped symmetry plane extracting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2245374A JPH04124779A (en) 1990-09-14 1990-09-14 Three-dimensional shaped symmetry plane extracting device

Publications (1)

Publication Number Publication Date
JPH04124779A true JPH04124779A (en) 1992-04-24

Family

ID=17132712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2245374A Pending JPH04124779A (en) 1990-09-14 1990-09-14 Three-dimensional shaped symmetry plane extracting device

Country Status (1)

Country Link
JP (1) JPH04124779A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524085A (en) * 2003-12-11 2007-08-23 ストライダー ラブス,インコーポレイテッド A technique for predicting the surface of a shielded part by calculating symmetry.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524085A (en) * 2003-12-11 2007-08-23 ストライダー ラブス,インコーポレイテッド A technique for predicting the surface of a shielded part by calculating symmetry.
US7961934B2 (en) 2003-12-11 2011-06-14 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry

Similar Documents

Publication Publication Date Title
Zhang Camera calibration with one-dimensional objects
Zhang et al. 3D dynamic scene analysis: a stereo based approach
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
EP3285232B1 (en) Method for matching feature points of planar array of four-phase unit and measurement method on basis thereof
Kroemer et al. Point cloud completion using extrusions
CN110889873A (en) Target positioning method and device, electronic equipment and storage medium
WO2018207032A1 (en) Method and system for calibrating a velocimetry system
CN104794718A (en) Single-image CT (computed tomography) machine room camera calibration method
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
Palmér et al. Calibration, positioning and tracking in a refractive and reflective scene
Devy et al. Camera calibration from multiple views of a 2D object, using a global nonlinear minimization method
Faugueras et al. The calibration problem for stereoscopic vision
CN110300991A (en) Surfacial pattern determines method and apparatus
JPH04124779A (en) Three-dimensional shaped symmetry plane extracting device
Morinaga et al. Underwater active oneshot scan with static wave pattern and bundle adjustment
An et al. On the camera position dithering in visual 3D reconstruction
CN113808273A (en) Disordered incremental sparse point cloud reconstruction method for ship traveling wave numerical simulation
Kyöstilä et al. Merging overlapping depth maps into a nonredundant point cloud
CN113793379A (en) Camera pose solving method, system, equipment and computer readable storage medium
Cui et al. Epipolar geometry for prism-based single-lens stereovision
Hu It's all done with mirrors: Calibration-and-correspondence-free 3D reconstruction
JPH04264207A (en) Measurement of multi-view point stereoscopic image