JP2012160063A - Sphere detection method - Google Patents

Sphere detection method Download PDF

Info

Publication number
JP2012160063A
JP2012160063A JP2011019793A JP2011019793A JP2012160063A JP 2012160063 A JP2012160063 A JP 2012160063A JP 2011019793 A JP2011019793 A JP 2011019793A JP 2011019793 A JP2011019793 A JP 2011019793A JP 2012160063 A JP2012160063 A JP 2012160063A
Authority
JP
Japan
Prior art keywords
sphere
measurement point
measurement
coordinate space
dense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011019793A
Other languages
Japanese (ja)
Other versions
JP5656018B2 (en
Inventor
Toshihiro Hayashi
俊寛 林
Nobuya Kowashi
宜也 小鷲
Harutaka Imoto
治孝 井本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011019793A priority Critical patent/JP5656018B2/en
Publication of JP2012160063A publication Critical patent/JP2012160063A/en
Application granted granted Critical
Publication of JP5656018B2 publication Critical patent/JP5656018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a sphere detection method capable of detecting a sphere at a much higher speed on the basis of shape data in the case of measuring a sphere as a three-dimensional point group.SOLUTION: The sphere detection method includes: a shape data acquisition step (S1) of acquiring shape data on a sphere as a measurement point group by three-dimension measurement means; a normal vector calculation step (S2) of calculating a normal vector of each measurement point in a virtual coordinate space; a measurement point movement step (S32) of moving the measurement points for the radius of the sphere to a direction opposite to the normal vector; a projection step (S34) of projecting the moved measurement points to a projection surface which is vertical to an optical axis of the three-dimension measurement means; a dense area search step (S44) of searching a dense area where the projected moved measurement points are dense from the projection surface; and a spherical center estimation step (S45) of, from the moved measurement point group in the virtual coordinate space corresponding to the searched dense area, estimating the center of the sphere in the virtual coordinate space.

Description

本発明は、球体の検出方法に係り、詳しくは球体を計測または撮像することで得た球体の形状データに基づき、仮想空間座標にて球体を検出する球体の検出方法に関する。   The present invention relates to a sphere detection method, and more particularly, to a sphere detection method for detecting a sphere using virtual space coordinates based on sphere shape data obtained by measuring or imaging a sphere.

従来、対象体を検出する方法として、対象体の撮像または計測点から対象体までの距離を計測することにより、対象体の形状データを取得する方法がある。当該形状データに基づいて、2次元または3次元の仮想空間座標における対象体が占める対象体領域を生成することにより、対象体の形状を仮想座標空間で表現する。
しかしながら、2次元または3次元の仮想座標空間では、計測時や撮像時等におけるノイズ等により、上述のように生成された対象体領域の境界付近に不明瞭な形状部分が生じるという問題がある。
そこで、3次元画像において、物体境界画素に対し球体を逐次当てはめていき、物体と球体との重なる割合により、その着目画素を抽出するかどうかを判定する方法が知られている(特許文献1参照)。
Conventionally, as a method of detecting a target object, there is a method of acquiring shape data of the target object by measuring the distance from the target object to imaging or a measurement point to the target object. Based on the shape data, the object area occupied by the object in the two-dimensional or three-dimensional virtual space coordinates is generated, thereby expressing the shape of the object in the virtual coordinate space.
However, in the two-dimensional or three-dimensional virtual coordinate space, there is a problem that an unclear shape portion is generated in the vicinity of the boundary of the object region generated as described above due to noise or the like during measurement or imaging.
Therefore, a method is known in which a sphere is sequentially applied to an object boundary pixel in a three-dimensional image, and whether or not the pixel of interest is extracted is determined based on the overlapping ratio of the object and the sphere (see Patent Document 1). ).

特許第3888975号Japanese Patent No. 3888975

ところで、対象体を3次元の点群として計測する場合でも、計測した形状データにおける球体の境界付近を補正する必要がある。これは対象体が球体の場合も同様である。
この点、上記特許文献1に開示された従来技術は、コンピュータ断層撮影装置(CT装置)の3次元画像を構成するボクセルデータに対して画素の抽出処理を行うものであり、対象体を3次元の点群として計測した場合には、当該点群に対して従来技術を適用できないという問題がある。
By the way, even when the object is measured as a three-dimensional point group, it is necessary to correct the vicinity of the boundary of the sphere in the measured shape data. This is the same when the object is a sphere.
In this regard, the conventional technique disclosed in Patent Document 1 performs pixel extraction processing on voxel data that constitutes a three-dimensional image of a computed tomography apparatus (CT apparatus). When measuring as a point cloud, there is a problem that the conventional technique cannot be applied to the point cloud.

また、別の補正方法として最小自乗法やハフ変換を用いる方法等が知られているが、最小自乗法では、3次元の点群を構成する計測点にノイズ等の外れ点が存在する場合、球体の検出精度が低下してしまうため好ましくない。
さらに、ハフ変換を使用する場合、特徴点を保存するために多くのメモリを必要とし、また計算量が大きくなるために球体の検出に多くの時間を要するので、好ましくない。
本発明は、上述した課題を解決すべくなされたものであり、その目的とするところは、球体を3次元の点群として計測した場合の形状データに基づいて、より高速に球体を検出することの可能な球体の検出方法を提供することにある。
Further, as another correction method, a method using a least square method or a Hough transform is known, but in the least square method, when an outlier such as noise exists at measurement points constituting a three-dimensional point group, Since the detection accuracy of a sphere falls, it is not preferable.
Further, when the Hough transform is used, a large amount of memory is required to store the feature points, and since a large amount of calculation requires a long time for detecting a sphere, it is not preferable.
The present invention has been made to solve the above-described problems, and an object of the present invention is to detect a sphere at a higher speed based on shape data when the sphere is measured as a three-dimensional point cloud. It is an object of the present invention to provide a method for detecting a sphere that is possible.

上記の目的を達成するべく、請求項1の球体の検出方法は、対象体である球体の形状を仮想座標空間において表現する球体の検出方法であって、3次元計測手段により計測点群として球体の形状データを取得する形状データ取得ステップと、仮想座標空間で、前記形状データを構成する前記計測点群の各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、前記法線ベクトルと反対方向に、前記各計測点を前記球体の半径分移動する計測点移動ステップと、前記計測点移動ステップにより移動した移動後の計測点を前記3次元計測手段の光軸に垂直な投影面に投影する投影ステップと、前記投影ステップにより投影された前記移動後の計測点が密集する密集領域を前記投影面より探索する密集領域探索ステップと、前記密集領域探索ステップから探索された前記密集領域に対応する投影前の仮想座標空間における前記移動後の計測点群から、仮想座標空間での前記球体の中心を推定する球中心推定ステップとを備えたことを特徴とする。   In order to achieve the above object, a method for detecting a sphere according to claim 1 is a method for detecting a sphere that represents a shape of a sphere as a target object in a virtual coordinate space, and the sphere as a measurement point group by a three-dimensional measuring unit. A shape data acquisition step of acquiring the shape data of the measurement data, a normal vector calculation step of calculating a normal vector of each measurement point of the measurement point group constituting the shape data in the virtual coordinate space, and the normal vector, In the opposite direction, the measurement point moving step for moving each measurement point by the radius of the sphere, and the moved measurement point moved by the measurement point moving step on the projection plane perpendicular to the optical axis of the three-dimensional measurement means A projection step for projecting; a dense region search step for searching from the projection surface for a dense region where the measurement points after movement projected by the projection step are dense; and the dense region search step. A spherical center estimation step of estimating the center of the sphere in the virtual coordinate space from the measurement point group after the movement in the virtual coordinate space before the projection corresponding to the dense area searched from the step. And

請求項2の球体の検出方法では、請求項1において、前記密集領域探索ステップは、前記投影面が格子状に区画された投影領域を生成し、前記各投影領域から前記密集領域を探索することを特徴とする。
請求項3の球体の検出方法では、請求項1または2において、前記球中心推定ステップは、前記密集領域における前記移動後の計測点群の座標値の平均を求めることにより推定を行うことを特徴とする。
The sphere detection method according to claim 2, wherein the dense region search step generates a projection region in which the projection plane is partitioned in a lattice shape, and searches the dense region from each projection region. It is characterized by.
The sphere detection method according to claim 3, wherein in the sphere center estimation step, the estimation is performed by obtaining an average of coordinate values of the measurement point group after the movement in the dense area. And

請求項4の球体の検出方法では、請求項1または2において、前記球中心推定ステップは、仮想座標空間の前記密集領域に含まれる前記移動後の計測点群に対して最小自乗法により推定を行う高精度化ステップを含むことを特徴とする。   According to a sphere detection method of claim 4, in the sphere center estimation step according to claim 1 or 2, the sphere center estimation step performs estimation by a least square method on the moved measurement point group included in the dense area of a virtual coordinate space. It includes a step of improving accuracy.

本発明の球体の検出方法によれば、仮想座標空間において、3次元計測手段により取得された計測点群からなる形状データを構成する各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、法線ベクトルとは反対方向に計測点を球体の半径分移動する計測点移動ステップと、移動後の計測点を3次元計測手段の光軸と垂直な投影面に投影する投影ステップと、投影された移動後の計測点が密集する密集領域を探索する密集領域探索ステップと、探索された密集領域に対応する投影前の仮想座標空間での移動後の計測点から球体の中心を推定する球中心推定ステップとを備えている。
これにより、球体の中心の推定に要する計算量は計測点の数に比例することになり、計算量をより少なくすることができるので、より高速に推定することができる。
According to the sphere detection method of the present invention, in the virtual coordinate space, a normal vector calculation step of calculating a normal vector of each measurement point constituting the shape data composed of the measurement point group acquired by the three-dimensional measurement means; A measuring point moving step for moving the measuring point by the radius of the sphere in the direction opposite to the normal vector, a projecting step for projecting the moved measuring point onto a projection plane perpendicular to the optical axis of the three-dimensional measuring means, and a projection A dense area search step for searching for a dense area where the measured points after movement are dense, and a sphere for estimating the center of the sphere from the measured points in the virtual coordinate space before projection corresponding to the searched dense area A center estimation step.
As a result, the amount of calculation required for estimating the center of the sphere is proportional to the number of measurement points, and the amount of calculation can be further reduced, so that the estimation can be performed at a higher speed.

本発明の実施形態に供試される対象体認識装置の概略構成図である。It is a schematic block diagram of the target object recognition apparatus used for embodiment of this invention. 本発明に係る対象体検出方法のフローチャートである。It is a flowchart of the target object detection method which concerns on this invention. (A)は3次元計測手段で取得した計測点群を示す図、(B)は(A)に示す計測点群から隣り合う任意の4点を抽出した図、(C)は(B)の4点から生成される三角形メッシュを示す図である。(A) is a diagram showing a measurement point group acquired by a three-dimensional measurement means, (B) is a diagram extracting any four adjacent points from the measurement point group shown in (A), and (C) is a diagram of (B). It is a figure which shows the triangular mesh produced | generated from four points. 図2に示す投影処理の概略図である。It is the schematic of the projection process shown in FIG. 図2に示す対象体検出方法で行われる投影処理ルーチンを示すフローチャートである。It is a flowchart which shows the projection processing routine performed with the target object detection method shown in FIG. (A)は図2に示す投影処理において、3次元の仮想座標空間から投影面に投影する概略図を示す図、(B)は(A)にて投影面に投影された移動後の計測点群を示す図である。(A) is a diagram showing a schematic diagram of projection from the three-dimensional virtual coordinate space onto the projection plane in the projection processing shown in FIG. 2, and (B) is a measurement point after movement projected onto the projection plane in (A). It is a figure which shows a group. 図2に示す対象体検出方法で行われる球中心の推定ルーチンを示すフローチャートである。3 is a flowchart illustrating a spherical center estimation routine performed by the object detection method illustrated in FIG. 2. (A)は図6(B)の投影面を格子状に区画する概略図、(B)は投影面にある移動後の計測点から仮想座標空間における球中心の推定を示す概略図である。(A) is the schematic which divides the projection surface of FIG. 6 (B) in a grid | lattice form, (B) is the schematic which shows estimation of the spherical center in virtual coordinate space from the measurement point after the movement in a projection surface.

以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本発明の実施形態に供試される対象体認識装置1の概略構成図である。
図1に示すように、対象体認識装置1は対象体である球体2の形状を仮想座標空間において表現する装置であり、支持体3に支えられた球体2の形状データを取得する3次元計測手段4と、3次元計測手段4にて取得された形状データから仮想座標空間で球体2を算出する演算手段6と、演算手段6にて算出された結果等を記憶するメモリ装置8と、算出された結果を出力する外部出力手段10とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram of an object recognition device 1 used in an embodiment of the present invention.
As shown in FIG. 1, the object recognition apparatus 1 is an apparatus that expresses the shape of a sphere 2 that is an object in a virtual coordinate space, and obtains shape data of the sphere 2 supported by a support 3. Means 4, calculation means 6 for calculating the sphere 2 in the virtual coordinate space from the shape data acquired by the three-dimensional measurement means 4, a memory device 8 for storing the results calculated by the calculation means 6, and the like External output means 10 for outputting the result.

ここで、3次元計測手段4は、球体2上の測定点までの距離を計測することにより、球体2の形状データを取得する。
演算手段6とメモリ装置8とは、図示しないがコンピュータに備えられている。演算手段6は当該コンピュータの中央演算処理装置(以下、CPUと略す)により構成され、メモリ装置8はRAM、ROM等を含んで構成されている。
外部出力手段10は、シリアル通信、LANのネットワーク通信、画面出力、外部メモリ書き込み、またはファイル出力等により算出した結果を出力する。
Here, the three-dimensional measuring means 4 acquires the shape data of the sphere 2 by measuring the distance to the measurement point on the sphere 2.
The computing means 6 and the memory device 8 are provided in a computer (not shown). The computing means 6 is constituted by a central processing unit (hereinafter abbreviated as CPU) of the computer, and the memory device 8 is constituted by including RAM, ROM and the like.
The external output means 10 outputs a result calculated by serial communication, LAN network communication, screen output, external memory writing, file output, or the like.

以下、このように構成された本発明に係る対象体認識装置1の球体検出方法について説明する。
図2は、対象体検出方法のフローチャートを示している。以下に述べるステップS2以降の各処理は、メモリ装置8に格納されている各プログラムを演算手段6にて実行することにより行われる。なお、球体2の半径は予めメモリ装置8に格納されているものとする。
Hereinafter, the sphere detection method of the target object recognition apparatus 1 according to the present invention configured as described above will be described.
FIG. 2 shows a flowchart of the object detection method. Each process after step S2 described below is performed by executing each program stored in the memory device 8 by the calculation means 6. It is assumed that the radius of the sphere 2 is stored in the memory device 8 in advance.

ステップS1では、3次元計測手段4から球体2の形状データを計測点群として取得する(形状データ取得ステップ)。3次元計測手段4は、例えばレーザ距離計やステレオカメラ、ToF(Time−of−Flight)方式カメラ等を使用するものである。
3次元計測手段4がレーザ距離計である場合、レーザ光の射出とその反射レーザの受光とにより3次元計測手段4の位置から球体2上の各計測点までの距離をレーザ計測し、計測した各距離データを3次元の計測点群として形状データを取得する。
さらに、3次元計測手段4がToF方式カメラである場合、球体2を撮影することで、球体2を3次元の距離画像として取得する。
また、3次元計測手段4がステレオカメラである場合、球体2を撮像することで、画像データに含まれる球体2を3次元の計測点群として取得する。ここで、ステレオカメラは模様の存在しない対象物の計測は難しいが、パターン光の投影を組み合わせることによりデータ取得が可能となる。
In step S1, the shape data of the sphere 2 is acquired as a measurement point group from the three-dimensional measurement means 4 (shape data acquisition step). The three-dimensional measuring means 4 uses, for example, a laser distance meter, a stereo camera, a ToF (Time-of-Flight) system camera, or the like.
When the three-dimensional measuring unit 4 is a laser distance meter, the distance from the position of the three-dimensional measuring unit 4 to each measurement point on the sphere 2 is measured by laser emission and measurement of the reflected laser. Shape data is acquired using each distance data as a three-dimensional measurement point group.
Further, when the three-dimensional measuring unit 4 is a ToF camera, the sphere 2 is acquired as a three-dimensional distance image by photographing the sphere 2.
When the three-dimensional measuring unit 4 is a stereo camera, the sphere 2 included in the image data is acquired as a three-dimensional measurement point group by capturing the sphere 2. Here, it is difficult for a stereo camera to measure an object having no pattern, but data can be acquired by combining projection of pattern light.

ステップS2では、上記ステップS1で取得された仮想座標空間における各計測点の法線ベクトルを算出する(法線ベクトル算出ステップ)。
詳しくは、図3に3次元計測手段4にて取得した計測点群から三角形メッシュを生成する過程が示されており、同図から以下に説明する。
In step S2, a normal vector of each measurement point in the virtual coordinate space acquired in step S1 is calculated (normal vector calculation step).
Specifically, FIG. 3 shows a process of generating a triangular mesh from the measurement point group acquired by the three-dimensional measuring means 4, and will be described below with reference to FIG.

例えば、(A)に示すように計測点Pと、計測点Pと隣り合う計測点P〜Pとを選択し、(B)のように選択した4点から(C)に示すような三角形メッシュを生成する。
三角形メッシュの生成を全ての計測点に対して実施した後、各計測点の法線ベクトルを算出する。ここで、計測点Pを頂点とする三角形の集合をF、三角形fの法線ベクトルをnとすると、頂点Pの法線ベクトルnpiは以下に示す数1式から算出される。
For example, a measurement point P 1 (A), the select and measurement point P 2 to P 4 adjacent to the measurement point P 1, shown in (C) from the selected four points as (B) Such a triangular mesh is generated.
After generating the triangular mesh for all measurement points, the normal vector of each measurement point is calculated. Here, assuming that a set of triangles having the measurement point P i as a vertex is F and a normal vector of the triangle f is n f , the normal vector n pi of the vertex P i is calculated from the following equation (1).

Figure 2012160063
Figure 2012160063

なお、関数N(a)は、aの単位ベクトル化を表すものである。
また、計測データにノイズが含まれる場合には、法線ベクトルに誤差が含まれるため、上述した数1式より算出された法線ベクトルのスムージングを行う。ここで、計測点Pを頂点とする三角形の集合をF、三角形fの頂点kの法線ベクトルをnf_kとすると、スムージング後の頂点Pの法線ベクトルnPiは以下に示す数2式から算出される。
The function N (a) represents unit vectorization of a.
Further, when noise is included in the measurement data, since the normal vector includes an error, smoothing of the normal vector calculated from the above equation 1 is performed. Here, assuming that a set of triangles having the measurement point P i as a vertex is F and a normal vector of the vertex k of the triangle f is n f_k , the normal vector n Pi of the smoothed vertex P i is expressed by the following equation 2. Calculated from the formula.

Figure 2012160063
Figure 2012160063

数2式により、法線ベクトルに含まれるノイズを減少させることができる。
続くステップS3では投影処理を行う。
図4に投影処理の概略図を示すように、3次元計測手段4の光軸に垂直であり、3次元計測手段4の視点を中心とした仮想的な2次元座標である投影面Spを使用して、投影処理を行う。
The noise contained in the normal vector can be reduced by the equation (2).
In the subsequent step S3, projection processing is performed.
As shown in a schematic diagram of the projection processing in FIG. 4, a projection plane Sp that is perpendicular to the optical axis of the three-dimensional measuring unit 4 and is a virtual two-dimensional coordinate centered on the viewpoint of the three-dimensional measuring unit 4 is used. Then, a projection process is performed.

詳しくは、図5に示す投影処理ルーチンを示すフローチャートに基づいて以下に説明する。
ステップS31では、全ての計測点の中から1つの計測点を選択する。ここで選択される計測点は、まだ選択されていない計測点の中から選択される。
In detail, it demonstrates below based on the flowchart which shows the projection processing routine shown in FIG.
In step S31, one measurement point is selected from all measurement points. The measurement point selected here is selected from the measurement points not yet selected.

ステップS32では、選択した計測点の法線ベクトルの方向とは反対方向に、計測点を検出する球体2の半径分移動する(計測点移動ステップ)。ここで、球体の球面を構成する各計測点は移動後に球体の中心となる1点にほぼ密集するのに対し、ノイズや球体でない部分の計測点は半径の長さ分だけ移動するだけである。   In step S32, the sphere 2 that detects the measurement point moves in the direction opposite to the direction of the normal vector of the selected measurement point (measurement point moving step). Here, each measurement point constituting the spherical surface of the sphere is almost concentrated at one point which becomes the center of the sphere after the movement, whereas the measurement points of the noise and the non-spherical portion only move by the length of the radius. .

ステップS33では、仮想座標空間における全ての計測点を選択したか否かを判定する。当該判定結果が真(Yes)の場合にはステップS34へ進み、偽(No)の場合にはステップS31へ戻る。
ステップS34では、移動後の計測点群を3次元計測手段4の光軸に垂直な投影面に投影する(投影ステップ)。
In step S33, it is determined whether all measurement points in the virtual coordinate space have been selected. If the determination result is true (Yes), the process proceeds to step S34. If the determination result is false (No), the process returns to step S31.
In step S34, the moved measurement point group is projected onto a projection plane perpendicular to the optical axis of the three-dimensional measurement means 4 (projection step).

上記ステップS31〜S34は、例えば図6(A)に示すように、計測点Pを当該計測点Pの法線ベクトルnP1の方向と反対方向に、球体の半径rの距離分計測点Pを移動させ、移動後の計測点Aとする。そして、全ての計測点を移動させた後、図6(B)に示すように移動後の計測点群を投影面Spへ投影する。 Step S31~S34, for example, as shown in FIG. 6 (A), the measurement point P 1 in the direction opposite to the direction of the normal vector n P1 of the measurement points P 1, the distance worth measuring point radius r of the sphere P 1 is moved to be a measurement point A 1 after the movement. Then, after all the measurement points are moved, the moved measurement point group is projected onto the projection plane Sp as shown in FIG.

図2へ戻り、ステップS4では球中心の推定を行う。
詳しくは、図7に示す球中心の推定ルーチンを示すフローチャートに基づいて以下に説明する。
ステップS41では、投影面を格子状に区画する。ここで、区画後の各投影面の面積が略等しくなるように区画される。
ステップS42では、上記ステップS41で区画した投影面の1つの格子領域にある超点数をカウントする。
Returning to FIG. 2, the sphere center is estimated in step S4.
In detail, it demonstrates below based on the flowchart which shows the estimation routine of the spherical center shown in FIG.
In step S41, the projection plane is partitioned in a grid pattern. Here, the areas are divided so that the areas of the projection planes after the division are substantially equal.
In step S42, the number of super-points in one lattice area on the projection plane divided in step S41 is counted.

上記ステップS41、S42は、例えば図8(A)に示すように投影面Spを格子状に区画し、各格子領域Sgに含まれる移動後の計測点数をカウントする処理である。
ステップS43では、上記ステップS41で区画した全ての格子領域を選択したか否かを判定する。当該判定結果が真(Yes)の場合にはステップS44へ進み、偽(No)と判定された場合にはステップS42へ戻る。
Steps S41 and S42 are processes for dividing the projection plane Sp in a grid pattern as shown in FIG. 8A, for example, and counting the number of measurement points after movement included in each grid area Sg.
In step S43, it is determined whether or not all the lattice areas defined in step S41 have been selected. If the determination result is true (Yes), the process proceeds to step S44. If the determination result is false (No), the process returns to step S42.

ステップS44では、各格子領域の中から移動後の計測点数が一定値以上の格子領域(密集領域)を探索する(密集領域探索ステップ)。上述したように、球体の球面を構成する各計測点の移動後の計測点は球体の中心となる1点にほぼ密集するので、格子領域に含まれる移動後の計測点数が一定値以上の格子領域が球体の中心を含む格子領域となる。   In step S44, a grid area (dense area) having a fixed number of measurement points or more after movement is searched from each grid area (dense area search step). As described above, the measurement points after the movement of each measurement point constituting the spherical surface of the sphere are almost concentrated at one point that is the center of the sphere, so that the number of measurement points after movement included in the lattice area is a certain value or more. The region becomes a lattice region including the center of the sphere.

ステップS45では、図8(B)に示すように、上記ステップS44で探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群から、球体の中心を推定する(球中心推定ステップ)。
当該ステップでは、格子領域に含まれる移動後の計測点の集合をS、格子領域に含まれる移動後の計測点の数をm、移動後の計測点の座標値をxとするとき、球体2の中心cは以下に示す数3式から求められる。
In step S45, as shown in FIG. 8B, measurement after movement in a three-dimensional virtual coordinate space before projection corresponding to the measurement point group after movement included in the lattice area searched in step S44. The center of the sphere is estimated from the point group (sphere center estimation step).
In this step, when the set of measurement points after movement included in the lattice area is S i , the number of measurement points after movement included in the lattice area is m i , and the coordinate value of the measurement point after movement is x i. , the center c i of the sphere 2 is determined from equation 3 below.

Figure 2012160063
Figure 2012160063

即ち、球体2の中心cは、移動後の計測点の座標値xの平均値となる。
そして、球体の中心が推定されると、球体の中心と半径情報から仮想座標空間における球体が検出され、検出した球体の情報を、外部出力手段10を介して出力する。
That is, the center c i of the sphere 2 is the average value of the coordinate values x i of the measurement points after movement.
When the center of the sphere is estimated, the sphere in the virtual coordinate space is detected from the sphere center and radius information, and the detected sphere information is output via the external output means 10.

このように、本発明に係る球体の検出方法によれば、3次元計測手段4にて計測点群として取得された球体2の形状データから各計測点の法線ベクトルを算出し、各計測点を法線ベクトルの方向と反対方向に球体2の半径分移動させ、移動後の計測点を投影面に投影して移動後の計測点が一定値以上の格子領域を探索し、探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群の各座標値を平均して球体の中心を求めて球体を検出する。   Thus, according to the sphere detection method according to the present invention, the normal vector of each measurement point is calculated from the shape data of the sphere 2 acquired as a measurement point group by the three-dimensional measurement means 4, and each measurement point is calculated. Is moved by the radius of the sphere 2 in the direction opposite to the direction of the normal vector, the moved measurement points are projected onto the projection plane, the lattice points where the measurement points after the movement are greater than a certain value are searched for, The coordinates of the measurement point group after movement in the three-dimensional virtual coordinate space before projection corresponding to the measurement point group after movement included in the region are averaged to obtain the center of the sphere to detect the sphere.

これにより、球体の検出で行われる計算量は3次元計測手段4で取得した計測点数に比例するので、計算量をより少なくすることができ、より高速に球体を検出することができる。
また、投影面を格子状に区画することにより、区画した各格子領域に含まれる移動後の計測点数をカウントすることで、移動後の計測点が密集する格子領域を容易に探索することができるので、より高速に球体を検出することができる。
Thereby, since the calculation amount performed by the detection of the sphere is proportional to the number of measurement points acquired by the three-dimensional measuring means 4, the calculation amount can be reduced and the sphere can be detected at a higher speed.
In addition, by dividing the projection plane in a lattice shape, the number of measurement points after movement included in each of the partitioned lattice areas is counted, so that a lattice region where the measurement points after movement are dense can be easily searched. Therefore, the sphere can be detected at a higher speed.

次に、上記実施形態の変形例について以下に説明する。
この変形例では、図7に示す球中心の推定ルーチンにおけるステップS45での球中心推定を最小自乗法により行う。
Next, modifications of the above embodiment will be described below.
In this modification, the sphere center estimation in step S45 in the sphere center estimation routine shown in FIG. 7 is performed by the method of least squares.

詳しくは、上述したステップS44で探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群から任意の1つの移動後の計測点を選択し、当該移動後の計測点に対して最小自乗法を行って仮想座標空間における球体の中心を推定する(高精度化ステップ)。
上述した変形例の場合には、球体の中心を最小自乗法により算出することにより、移動後の計測点群から球体の中心をより精度よく推定することができるので、球体の検出精度をより向上させることができる。
Specifically, after one movement from the measurement point group after movement in the three-dimensional virtual coordinate space before projection corresponding to the measurement point group after movement included in the lattice area searched in step S44 described above. A measurement point is selected, and the center of the sphere in the virtual coordinate space is estimated by performing the least square method on the measurement point after the movement (high accuracy step).
In the case of the above-described modification, by calculating the center of the sphere by the method of least squares, the center of the sphere can be estimated more accurately from the measurement point group after movement, so the detection accuracy of the sphere is further improved. Can be made.

以上で実施形態の説明を終えるが、本発明は上述した実施形態に限定されるものではない。
例えば、上記実施形態では、投影面を格子状に区画して各格子領域に含まれる移動後の計測点数をカウントしたが、投影面の領域の区画する形状は格子状に限られない。
Although the description of the embodiment is finished as described above, the present invention is not limited to the above-described embodiment.
For example, in the above-described embodiment, the projection plane is partitioned in a grid pattern, and the number of measurement points after movement included in each grid area is counted. However, the shape of the projection plane area is not limited to the grid pattern.

また、上記実施形態では、球体2の半径情報が予めメモリ装置8に格納されているが、球体2の半径がメモリ装置8に格納されていない場合でも、上記球中心推定ルーチンを行ってよい。メモリ装置8に半径情報が格納されていない場合には、想定される最大の球体の大きさから半径を算出し、当該半径を推定精度や要求される球体の検出精度等によって決められる所定幅変化させながら最大の移動後の計測点数を有する格子領域を抽出し、抽出された各最大の格子領域の中から移動後の計測点数が最も多い格子領域を抽出して球体の中心を推定し、球体を検出するようにしてもよい。   In the above embodiment, the radius information of the sphere 2 is stored in the memory device 8 in advance. However, even when the radius of the sphere 2 is not stored in the memory device 8, the sphere center estimation routine may be performed. When the radius information is not stored in the memory device 8, the radius is calculated from the assumed maximum sphere size, and the predetermined width change determined by the estimation accuracy, the required sphere detection accuracy, etc. The grid area with the maximum number of measurement points after movement is extracted, and the grid area with the largest number of measurement points after movement is extracted from each extracted maximum grid area to estimate the center of the sphere. May be detected.

1 対象体認識装置
2 球体
4 3次元計測手段
6 演算手段
8 メモリ装置
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 2 Sphere 4 Three-dimensional measurement means 6 Calculation means 8 Memory device

Claims (4)

対象体である球体の形状を仮想座標空間において表現する球体の検出方法であって、
3次元計測手段により計測点群として球体の形状データを取得する形状データ取得ステップと、
仮想座標空間で、前記形状データを構成する前記計測点群の各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、
前記法線ベクトルと反対方向に、前記各計測点を前記球体の半径分移動する計測点移動ステップと、
前記計測点移動ステップにより移動した移動後の計測点を前記3次元計測手段の光軸に垂直な投影面に投影する投影ステップと、
前記投影ステップにより投影された前記移動後の計測点が密集する密集領域を前記投影面より探索する密集領域探索ステップと、
前記密集領域探索ステップから探索された前記密集領域に対応する投影前の仮想座標空間における前記移動後の計測点群から、仮想座標空間での前記球体の中心を推定する球中心推定ステップと、
を備えたことを特徴とする球体の検出方法。
A method for detecting a sphere that represents a shape of a sphere as a target in a virtual coordinate space,
A shape data acquisition step of acquiring spherical shape data as a measurement point group by a three-dimensional measurement means;
A normal vector calculation step of calculating a normal vector of each measurement point of the measurement point group constituting the shape data in a virtual coordinate space;
A measurement point moving step of moving each measurement point by the radius of the sphere in a direction opposite to the normal vector;
A projecting step of projecting the moved measurement point moved by the measurement point moving step onto a projection plane perpendicular to the optical axis of the three-dimensional measuring means;
A dense area search step for searching a dense area where the measurement points after movement projected by the projecting step are dense from the projection plane;
A spherical center estimation step for estimating the center of the sphere in the virtual coordinate space from the measurement point group after the movement in the virtual coordinate space before projection corresponding to the dense region searched from the dense region search step;
A method for detecting a sphere, comprising:
前記密集領域探索ステップは、前記投影面が格子状に区画された投影領域を生成し、前記各投影領域から前記密集領域を探索することを特徴とする、請求項1に記載の球体の検出方法。   The method for detecting a sphere according to claim 1, wherein the dense area search step generates a projection area in which the projection plane is partitioned in a lattice pattern, and searches the dense area from each of the projection areas. . 前記球中心推定ステップは、前記密集領域に含まれる前記移動後の計測点群の座標値の平均を求めることにより推定を行うことを特徴とする、請求項1または2に記載の球体の検出方法。   The method of detecting a sphere according to claim 1, wherein the spherical center estimation step performs estimation by obtaining an average of coordinate values of the measurement point group after movement included in the dense area. . 前記球中心推定ステップは、仮想座標空間の前記密集領域に含まれる前記移動後の計測点群に対して最小自乗法により推定を行う高精度化ステップを含むことを特徴とする、請求項1または2に記載の球体の検出方法。   The sphere center estimation step includes a high-accuracy step of performing estimation by a least square method on the measurement point group after movement included in the dense area of a virtual coordinate space. 3. The method for detecting a sphere according to 2.
JP2011019793A 2011-02-01 2011-02-01 Sphere detection method Active JP5656018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011019793A JP5656018B2 (en) 2011-02-01 2011-02-01 Sphere detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011019793A JP5656018B2 (en) 2011-02-01 2011-02-01 Sphere detection method

Publications (2)

Publication Number Publication Date
JP2012160063A true JP2012160063A (en) 2012-08-23
JP5656018B2 JP5656018B2 (en) 2015-01-21

Family

ID=46840533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011019793A Active JP5656018B2 (en) 2011-02-01 2011-02-01 Sphere detection method

Country Status (1)

Country Link
JP (1) JP5656018B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107121061A (en) * 2017-03-15 2017-09-01 大连理工大学 A kind of drilling point law vector method for solving constrained based on elliptic cone
JP2017201493A (en) * 2016-05-06 2017-11-09 村田機械株式会社 Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle
JP2018054530A (en) * 2016-09-30 2018-04-05 株式会社トプコン Measurement device and measurement method
CN117057152A (en) * 2023-08-25 2023-11-14 西南科技大学 Sphere simulation polishing uniformity evaluation method based on Adams and Matlab

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009539A (en) * 2007-05-29 2009-01-15 Tokyo Univ Of Marine Science & Technology Circular shape detector

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009539A (en) * 2007-05-29 2009-01-15 Tokyo Univ Of Marine Science & Technology Circular shape detector

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199900319005; 寺田賢治,他3名: 'ファイバグレイティングを用いた三次元物体の高速認識システム' 電気学会論文誌C Vol.113-C No.4 第113-C巻, 1993, p275-283, 社団法人電気学会 *
JPN6014045095; 寺田賢治,他3名: 'ファイバグレイティングを用いた三次元物体の高速認識システム' 電気学会論文誌C Vol.113-C No.4 第113-C巻, 1993, p275-283, 社団法人電気学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201493A (en) * 2016-05-06 2017-11-09 村田機械株式会社 Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle
JP2018054530A (en) * 2016-09-30 2018-04-05 株式会社トプコン Measurement device and measurement method
CN107121061A (en) * 2017-03-15 2017-09-01 大连理工大学 A kind of drilling point law vector method for solving constrained based on elliptic cone
CN117057152A (en) * 2023-08-25 2023-11-14 西南科技大学 Sphere simulation polishing uniformity evaluation method based on Adams and Matlab
CN117057152B (en) * 2023-08-25 2024-02-23 西南科技大学 Sphere simulation polishing uniformity evaluation method based on Adams and Matlab

Also Published As

Publication number Publication date
JP5656018B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
US10643347B2 (en) Device for measuring position and orientation of imaging apparatus and method therefor
EP3754295B1 (en) Three-dimensional measuring system and three-dimensional measuring method
KR102345886B1 (en) Method for the three-dimensional measuring of moving objects during known movement
JP6760957B2 (en) 3D modeling method and equipment
KR102424135B1 (en) Structured light matching of a set of curves from two cameras
US20100328308A1 (en) Three Dimensional Mesh Modeling
JP2013178656A (en) Image processing device, image processing method, and image processing program
JP2011242183A (en) Image processing device, image processing method, and program
JP4701848B2 (en) Image matching apparatus, image matching method, and image matching program
JP5761750B2 (en) Image processing method and apparatus
CN113008195B (en) Three-dimensional curved surface distance measuring method and system based on space point cloud
JP5656018B2 (en) Sphere detection method
JP2011237296A (en) Three dimensional shape measuring method, three dimensional shape measuring device, and program
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP6388806B2 (en) Projection image generation apparatus, projection image generation program, and projection image generation method
JP2010009236A (en) Plane area estimation device and program
JP2017045124A (en) Parallax detection device
CN112258635B (en) Three-dimensional reconstruction method and device based on improved binocular matching SAD algorithm
CN110751731B (en) 3D reconstruction method and system for structured light
JP2012181063A (en) Calculation device, calculation method and calculation program
JP6061631B2 (en) Measuring device, information processing device, measuring method, information processing method, and program
JP2017199285A (en) Information processor, information processing method, program
KR101907057B1 (en) Device and Method for Depth Information Compensation by Sphere Surface Modeling
JP6570321B2 (en) Information processing apparatus, information processing method, and program
Bräuer-Burchardt et al. Phase unwrapping in fringe projection systems using epipolar geometry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141111

R151 Written notification of patent or utility model registration

Ref document number: 5656018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250