JP2012160063A - Sphere detection method - Google Patents
Sphere detection method Download PDFInfo
- Publication number
- JP2012160063A JP2012160063A JP2011019793A JP2011019793A JP2012160063A JP 2012160063 A JP2012160063 A JP 2012160063A JP 2011019793 A JP2011019793 A JP 2011019793A JP 2011019793 A JP2011019793 A JP 2011019793A JP 2012160063 A JP2012160063 A JP 2012160063A
- Authority
- JP
- Japan
- Prior art keywords
- sphere
- measurement point
- measurement
- coordinate space
- dense
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、球体の検出方法に係り、詳しくは球体を計測または撮像することで得た球体の形状データに基づき、仮想空間座標にて球体を検出する球体の検出方法に関する。 The present invention relates to a sphere detection method, and more particularly, to a sphere detection method for detecting a sphere using virtual space coordinates based on sphere shape data obtained by measuring or imaging a sphere.
従来、対象体を検出する方法として、対象体の撮像または計測点から対象体までの距離を計測することにより、対象体の形状データを取得する方法がある。当該形状データに基づいて、2次元または3次元の仮想空間座標における対象体が占める対象体領域を生成することにより、対象体の形状を仮想座標空間で表現する。
しかしながら、2次元または3次元の仮想座標空間では、計測時や撮像時等におけるノイズ等により、上述のように生成された対象体領域の境界付近に不明瞭な形状部分が生じるという問題がある。
そこで、3次元画像において、物体境界画素に対し球体を逐次当てはめていき、物体と球体との重なる割合により、その着目画素を抽出するかどうかを判定する方法が知られている(特許文献1参照)。
Conventionally, as a method of detecting a target object, there is a method of acquiring shape data of the target object by measuring the distance from the target object to imaging or a measurement point to the target object. Based on the shape data, the object area occupied by the object in the two-dimensional or three-dimensional virtual space coordinates is generated, thereby expressing the shape of the object in the virtual coordinate space.
However, in the two-dimensional or three-dimensional virtual coordinate space, there is a problem that an unclear shape portion is generated in the vicinity of the boundary of the object region generated as described above due to noise or the like during measurement or imaging.
Therefore, a method is known in which a sphere is sequentially applied to an object boundary pixel in a three-dimensional image, and whether or not the pixel of interest is extracted is determined based on the overlapping ratio of the object and the sphere (see Patent Document 1). ).
ところで、対象体を3次元の点群として計測する場合でも、計測した形状データにおける球体の境界付近を補正する必要がある。これは対象体が球体の場合も同様である。
この点、上記特許文献1に開示された従来技術は、コンピュータ断層撮影装置(CT装置)の3次元画像を構成するボクセルデータに対して画素の抽出処理を行うものであり、対象体を3次元の点群として計測した場合には、当該点群に対して従来技術を適用できないという問題がある。
By the way, even when the object is measured as a three-dimensional point group, it is necessary to correct the vicinity of the boundary of the sphere in the measured shape data. This is the same when the object is a sphere.
In this regard, the conventional technique disclosed in
また、別の補正方法として最小自乗法やハフ変換を用いる方法等が知られているが、最小自乗法では、3次元の点群を構成する計測点にノイズ等の外れ点が存在する場合、球体の検出精度が低下してしまうため好ましくない。
さらに、ハフ変換を使用する場合、特徴点を保存するために多くのメモリを必要とし、また計算量が大きくなるために球体の検出に多くの時間を要するので、好ましくない。
本発明は、上述した課題を解決すべくなされたものであり、その目的とするところは、球体を3次元の点群として計測した場合の形状データに基づいて、より高速に球体を検出することの可能な球体の検出方法を提供することにある。
Further, as another correction method, a method using a least square method or a Hough transform is known, but in the least square method, when an outlier such as noise exists at measurement points constituting a three-dimensional point group, Since the detection accuracy of a sphere falls, it is not preferable.
Further, when the Hough transform is used, a large amount of memory is required to store the feature points, and since a large amount of calculation requires a long time for detecting a sphere, it is not preferable.
The present invention has been made to solve the above-described problems, and an object of the present invention is to detect a sphere at a higher speed based on shape data when the sphere is measured as a three-dimensional point cloud. It is an object of the present invention to provide a method for detecting a sphere that is possible.
上記の目的を達成するべく、請求項1の球体の検出方法は、対象体である球体の形状を仮想座標空間において表現する球体の検出方法であって、3次元計測手段により計測点群として球体の形状データを取得する形状データ取得ステップと、仮想座標空間で、前記形状データを構成する前記計測点群の各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、前記法線ベクトルと反対方向に、前記各計測点を前記球体の半径分移動する計測点移動ステップと、前記計測点移動ステップにより移動した移動後の計測点を前記3次元計測手段の光軸に垂直な投影面に投影する投影ステップと、前記投影ステップにより投影された前記移動後の計測点が密集する密集領域を前記投影面より探索する密集領域探索ステップと、前記密集領域探索ステップから探索された前記密集領域に対応する投影前の仮想座標空間における前記移動後の計測点群から、仮想座標空間での前記球体の中心を推定する球中心推定ステップとを備えたことを特徴とする。
In order to achieve the above object, a method for detecting a sphere according to
請求項2の球体の検出方法では、請求項1において、前記密集領域探索ステップは、前記投影面が格子状に区画された投影領域を生成し、前記各投影領域から前記密集領域を探索することを特徴とする。
請求項3の球体の検出方法では、請求項1または2において、前記球中心推定ステップは、前記密集領域における前記移動後の計測点群の座標値の平均を求めることにより推定を行うことを特徴とする。
The sphere detection method according to
The sphere detection method according to claim 3, wherein in the sphere center estimation step, the estimation is performed by obtaining an average of coordinate values of the measurement point group after the movement in the dense area. And
請求項4の球体の検出方法では、請求項1または2において、前記球中心推定ステップは、仮想座標空間の前記密集領域に含まれる前記移動後の計測点群に対して最小自乗法により推定を行う高精度化ステップを含むことを特徴とする。
According to a sphere detection method of
本発明の球体の検出方法によれば、仮想座標空間において、3次元計測手段により取得された計測点群からなる形状データを構成する各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、法線ベクトルとは反対方向に計測点を球体の半径分移動する計測点移動ステップと、移動後の計測点を3次元計測手段の光軸と垂直な投影面に投影する投影ステップと、投影された移動後の計測点が密集する密集領域を探索する密集領域探索ステップと、探索された密集領域に対応する投影前の仮想座標空間での移動後の計測点から球体の中心を推定する球中心推定ステップとを備えている。
これにより、球体の中心の推定に要する計算量は計測点の数に比例することになり、計算量をより少なくすることができるので、より高速に推定することができる。
According to the sphere detection method of the present invention, in the virtual coordinate space, a normal vector calculation step of calculating a normal vector of each measurement point constituting the shape data composed of the measurement point group acquired by the three-dimensional measurement means; A measuring point moving step for moving the measuring point by the radius of the sphere in the direction opposite to the normal vector, a projecting step for projecting the moved measuring point onto a projection plane perpendicular to the optical axis of the three-dimensional measuring means, and a projection A dense area search step for searching for a dense area where the measured points after movement are dense, and a sphere for estimating the center of the sphere from the measured points in the virtual coordinate space before projection corresponding to the searched dense area A center estimation step.
As a result, the amount of calculation required for estimating the center of the sphere is proportional to the number of measurement points, and the amount of calculation can be further reduced, so that the estimation can be performed at a higher speed.
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本発明の実施形態に供試される対象体認識装置1の概略構成図である。
図1に示すように、対象体認識装置1は対象体である球体2の形状を仮想座標空間において表現する装置であり、支持体3に支えられた球体2の形状データを取得する3次元計測手段4と、3次元計測手段4にて取得された形状データから仮想座標空間で球体2を算出する演算手段6と、演算手段6にて算出された結果等を記憶するメモリ装置8と、算出された結果を出力する外部出力手段10とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram of an
As shown in FIG. 1, the
ここで、3次元計測手段4は、球体2上の測定点までの距離を計測することにより、球体2の形状データを取得する。
演算手段6とメモリ装置8とは、図示しないがコンピュータに備えられている。演算手段6は当該コンピュータの中央演算処理装置(以下、CPUと略す)により構成され、メモリ装置8はRAM、ROM等を含んで構成されている。
外部出力手段10は、シリアル通信、LANのネットワーク通信、画面出力、外部メモリ書き込み、またはファイル出力等により算出した結果を出力する。
Here, the three-dimensional measuring means 4 acquires the shape data of the
The computing means 6 and the memory device 8 are provided in a computer (not shown). The computing means 6 is constituted by a central processing unit (hereinafter abbreviated as CPU) of the computer, and the memory device 8 is constituted by including RAM, ROM and the like.
The external output means 10 outputs a result calculated by serial communication, LAN network communication, screen output, external memory writing, file output, or the like.
以下、このように構成された本発明に係る対象体認識装置1の球体検出方法について説明する。
図2は、対象体検出方法のフローチャートを示している。以下に述べるステップS2以降の各処理は、メモリ装置8に格納されている各プログラムを演算手段6にて実行することにより行われる。なお、球体2の半径は予めメモリ装置8に格納されているものとする。
Hereinafter, the sphere detection method of the target
FIG. 2 shows a flowchart of the object detection method. Each process after step S2 described below is performed by executing each program stored in the memory device 8 by the calculation means 6. It is assumed that the radius of the
ステップS1では、3次元計測手段4から球体2の形状データを計測点群として取得する(形状データ取得ステップ)。3次元計測手段4は、例えばレーザ距離計やステレオカメラ、ToF(Time−of−Flight)方式カメラ等を使用するものである。
3次元計測手段4がレーザ距離計である場合、レーザ光の射出とその反射レーザの受光とにより3次元計測手段4の位置から球体2上の各計測点までの距離をレーザ計測し、計測した各距離データを3次元の計測点群として形状データを取得する。
さらに、3次元計測手段4がToF方式カメラである場合、球体2を撮影することで、球体2を3次元の距離画像として取得する。
また、3次元計測手段4がステレオカメラである場合、球体2を撮像することで、画像データに含まれる球体2を3次元の計測点群として取得する。ここで、ステレオカメラは模様の存在しない対象物の計測は難しいが、パターン光の投影を組み合わせることによりデータ取得が可能となる。
In step S1, the shape data of the
When the three-
Further, when the three-
When the three-
ステップS2では、上記ステップS1で取得された仮想座標空間における各計測点の法線ベクトルを算出する(法線ベクトル算出ステップ)。
詳しくは、図3に3次元計測手段4にて取得した計測点群から三角形メッシュを生成する過程が示されており、同図から以下に説明する。
In step S2, a normal vector of each measurement point in the virtual coordinate space acquired in step S1 is calculated (normal vector calculation step).
Specifically, FIG. 3 shows a process of generating a triangular mesh from the measurement point group acquired by the three-
例えば、(A)に示すように計測点P1と、計測点P1と隣り合う計測点P2〜P4とを選択し、(B)のように選択した4点から(C)に示すような三角形メッシュを生成する。
三角形メッシュの生成を全ての計測点に対して実施した後、各計測点の法線ベクトルを算出する。ここで、計測点Piを頂点とする三角形の集合をF、三角形fの法線ベクトルをnfとすると、頂点Piの法線ベクトルnpiは以下に示す数1式から算出される。
For example, a measurement point P 1 (A), the select and
After generating the triangular mesh for all measurement points, the normal vector of each measurement point is calculated. Here, assuming that a set of triangles having the measurement point P i as a vertex is F and a normal vector of the triangle f is n f , the normal vector n pi of the vertex P i is calculated from the following equation (1).
なお、関数N(a)は、aの単位ベクトル化を表すものである。
また、計測データにノイズが含まれる場合には、法線ベクトルに誤差が含まれるため、上述した数1式より算出された法線ベクトルのスムージングを行う。ここで、計測点Piを頂点とする三角形の集合をF、三角形fの頂点kの法線ベクトルをnf_kとすると、スムージング後の頂点Piの法線ベクトルnPiは以下に示す数2式から算出される。
The function N (a) represents unit vectorization of a.
Further, when noise is included in the measurement data, since the normal vector includes an error, smoothing of the normal vector calculated from the
数2式により、法線ベクトルに含まれるノイズを減少させることができる。
続くステップS3では投影処理を行う。
図4に投影処理の概略図を示すように、3次元計測手段4の光軸に垂直であり、3次元計測手段4の視点を中心とした仮想的な2次元座標である投影面Spを使用して、投影処理を行う。
The noise contained in the normal vector can be reduced by the equation (2).
In the subsequent step S3, projection processing is performed.
As shown in a schematic diagram of the projection processing in FIG. 4, a projection plane Sp that is perpendicular to the optical axis of the three-
詳しくは、図5に示す投影処理ルーチンを示すフローチャートに基づいて以下に説明する。
ステップS31では、全ての計測点の中から1つの計測点を選択する。ここで選択される計測点は、まだ選択されていない計測点の中から選択される。
In detail, it demonstrates below based on the flowchart which shows the projection processing routine shown in FIG.
In step S31, one measurement point is selected from all measurement points. The measurement point selected here is selected from the measurement points not yet selected.
ステップS32では、選択した計測点の法線ベクトルの方向とは反対方向に、計測点を検出する球体2の半径分移動する(計測点移動ステップ)。ここで、球体の球面を構成する各計測点は移動後に球体の中心となる1点にほぼ密集するのに対し、ノイズや球体でない部分の計測点は半径の長さ分だけ移動するだけである。
In step S32, the
ステップS33では、仮想座標空間における全ての計測点を選択したか否かを判定する。当該判定結果が真(Yes)の場合にはステップS34へ進み、偽(No)の場合にはステップS31へ戻る。
ステップS34では、移動後の計測点群を3次元計測手段4の光軸に垂直な投影面に投影する(投影ステップ)。
In step S33, it is determined whether all measurement points in the virtual coordinate space have been selected. If the determination result is true (Yes), the process proceeds to step S34. If the determination result is false (No), the process returns to step S31.
In step S34, the moved measurement point group is projected onto a projection plane perpendicular to the optical axis of the three-dimensional measurement means 4 (projection step).
上記ステップS31〜S34は、例えば図6(A)に示すように、計測点P1を当該計測点P1の法線ベクトルnP1の方向と反対方向に、球体の半径rの距離分計測点P1を移動させ、移動後の計測点A1とする。そして、全ての計測点を移動させた後、図6(B)に示すように移動後の計測点群を投影面Spへ投影する。 Step S31~S34, for example, as shown in FIG. 6 (A), the measurement point P 1 in the direction opposite to the direction of the normal vector n P1 of the measurement points P 1, the distance worth measuring point radius r of the sphere P 1 is moved to be a measurement point A 1 after the movement. Then, after all the measurement points are moved, the moved measurement point group is projected onto the projection plane Sp as shown in FIG.
図2へ戻り、ステップS4では球中心の推定を行う。
詳しくは、図7に示す球中心の推定ルーチンを示すフローチャートに基づいて以下に説明する。
ステップS41では、投影面を格子状に区画する。ここで、区画後の各投影面の面積が略等しくなるように区画される。
ステップS42では、上記ステップS41で区画した投影面の1つの格子領域にある超点数をカウントする。
Returning to FIG. 2, the sphere center is estimated in step S4.
In detail, it demonstrates below based on the flowchart which shows the estimation routine of the spherical center shown in FIG.
In step S41, the projection plane is partitioned in a grid pattern. Here, the areas are divided so that the areas of the projection planes after the division are substantially equal.
In step S42, the number of super-points in one lattice area on the projection plane divided in step S41 is counted.
上記ステップS41、S42は、例えば図8(A)に示すように投影面Spを格子状に区画し、各格子領域Sgに含まれる移動後の計測点数をカウントする処理である。
ステップS43では、上記ステップS41で区画した全ての格子領域を選択したか否かを判定する。当該判定結果が真(Yes)の場合にはステップS44へ進み、偽(No)と判定された場合にはステップS42へ戻る。
Steps S41 and S42 are processes for dividing the projection plane Sp in a grid pattern as shown in FIG. 8A, for example, and counting the number of measurement points after movement included in each grid area Sg.
In step S43, it is determined whether or not all the lattice areas defined in step S41 have been selected. If the determination result is true (Yes), the process proceeds to step S44. If the determination result is false (No), the process returns to step S42.
ステップS44では、各格子領域の中から移動後の計測点数が一定値以上の格子領域(密集領域)を探索する(密集領域探索ステップ)。上述したように、球体の球面を構成する各計測点の移動後の計測点は球体の中心となる1点にほぼ密集するので、格子領域に含まれる移動後の計測点数が一定値以上の格子領域が球体の中心を含む格子領域となる。 In step S44, a grid area (dense area) having a fixed number of measurement points or more after movement is searched from each grid area (dense area search step). As described above, the measurement points after the movement of each measurement point constituting the spherical surface of the sphere are almost concentrated at one point that is the center of the sphere, so that the number of measurement points after movement included in the lattice area is a certain value or more. The region becomes a lattice region including the center of the sphere.
ステップS45では、図8(B)に示すように、上記ステップS44で探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群から、球体の中心を推定する(球中心推定ステップ)。
当該ステップでは、格子領域に含まれる移動後の計測点の集合をSi、格子領域に含まれる移動後の計測点の数をmi、移動後の計測点の座標値をxiとするとき、球体2の中心ciは以下に示す数3式から求められる。
In step S45, as shown in FIG. 8B, measurement after movement in a three-dimensional virtual coordinate space before projection corresponding to the measurement point group after movement included in the lattice area searched in step S44. The center of the sphere is estimated from the point group (sphere center estimation step).
In this step, when the set of measurement points after movement included in the lattice area is S i , the number of measurement points after movement included in the lattice area is m i , and the coordinate value of the measurement point after movement is x i. , the center c i of the
即ち、球体2の中心ciは、移動後の計測点の座標値xiの平均値となる。
そして、球体の中心が推定されると、球体の中心と半径情報から仮想座標空間における球体が検出され、検出した球体の情報を、外部出力手段10を介して出力する。
That is, the center c i of the sphere 2 is the average value of the coordinate values x i of the measurement points after movement.
When the center of the sphere is estimated, the sphere in the virtual coordinate space is detected from the sphere center and radius information, and the detected sphere information is output via the external output means 10.
このように、本発明に係る球体の検出方法によれば、3次元計測手段4にて計測点群として取得された球体2の形状データから各計測点の法線ベクトルを算出し、各計測点を法線ベクトルの方向と反対方向に球体2の半径分移動させ、移動後の計測点を投影面に投影して移動後の計測点が一定値以上の格子領域を探索し、探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群の各座標値を平均して球体の中心を求めて球体を検出する。
Thus, according to the sphere detection method according to the present invention, the normal vector of each measurement point is calculated from the shape data of the
これにより、球体の検出で行われる計算量は3次元計測手段4で取得した計測点数に比例するので、計算量をより少なくすることができ、より高速に球体を検出することができる。
また、投影面を格子状に区画することにより、区画した各格子領域に含まれる移動後の計測点数をカウントすることで、移動後の計測点が密集する格子領域を容易に探索することができるので、より高速に球体を検出することができる。
Thereby, since the calculation amount performed by the detection of the sphere is proportional to the number of measurement points acquired by the three-dimensional measuring means 4, the calculation amount can be reduced and the sphere can be detected at a higher speed.
In addition, by dividing the projection plane in a lattice shape, the number of measurement points after movement included in each of the partitioned lattice areas is counted, so that a lattice region where the measurement points after movement are dense can be easily searched. Therefore, the sphere can be detected at a higher speed.
次に、上記実施形態の変形例について以下に説明する。
この変形例では、図7に示す球中心の推定ルーチンにおけるステップS45での球中心推定を最小自乗法により行う。
Next, modifications of the above embodiment will be described below.
In this modification, the sphere center estimation in step S45 in the sphere center estimation routine shown in FIG. 7 is performed by the method of least squares.
詳しくは、上述したステップS44で探索された格子領域に含まれる移動後の計測点群に対応する、投影前の3次元の仮想座標空間における移動後の計測点群から任意の1つの移動後の計測点を選択し、当該移動後の計測点に対して最小自乗法を行って仮想座標空間における球体の中心を推定する(高精度化ステップ)。
上述した変形例の場合には、球体の中心を最小自乗法により算出することにより、移動後の計測点群から球体の中心をより精度よく推定することができるので、球体の検出精度をより向上させることができる。
Specifically, after one movement from the measurement point group after movement in the three-dimensional virtual coordinate space before projection corresponding to the measurement point group after movement included in the lattice area searched in step S44 described above. A measurement point is selected, and the center of the sphere in the virtual coordinate space is estimated by performing the least square method on the measurement point after the movement (high accuracy step).
In the case of the above-described modification, by calculating the center of the sphere by the method of least squares, the center of the sphere can be estimated more accurately from the measurement point group after movement, so the detection accuracy of the sphere is further improved. Can be made.
以上で実施形態の説明を終えるが、本発明は上述した実施形態に限定されるものではない。
例えば、上記実施形態では、投影面を格子状に区画して各格子領域に含まれる移動後の計測点数をカウントしたが、投影面の領域の区画する形状は格子状に限られない。
Although the description of the embodiment is finished as described above, the present invention is not limited to the above-described embodiment.
For example, in the above-described embodiment, the projection plane is partitioned in a grid pattern, and the number of measurement points after movement included in each grid area is counted. However, the shape of the projection plane area is not limited to the grid pattern.
また、上記実施形態では、球体2の半径情報が予めメモリ装置8に格納されているが、球体2の半径がメモリ装置8に格納されていない場合でも、上記球中心推定ルーチンを行ってよい。メモリ装置8に半径情報が格納されていない場合には、想定される最大の球体の大きさから半径を算出し、当該半径を推定精度や要求される球体の検出精度等によって決められる所定幅変化させながら最大の移動後の計測点数を有する格子領域を抽出し、抽出された各最大の格子領域の中から移動後の計測点数が最も多い格子領域を抽出して球体の中心を推定し、球体を検出するようにしてもよい。
In the above embodiment, the radius information of the
1 対象体認識装置
2 球体
4 3次元計測手段
6 演算手段
8 メモリ装置
DESCRIPTION OF
Claims (4)
3次元計測手段により計測点群として球体の形状データを取得する形状データ取得ステップと、
仮想座標空間で、前記形状データを構成する前記計測点群の各計測点の法線ベクトルを算出する法線ベクトル算出ステップと、
前記法線ベクトルと反対方向に、前記各計測点を前記球体の半径分移動する計測点移動ステップと、
前記計測点移動ステップにより移動した移動後の計測点を前記3次元計測手段の光軸に垂直な投影面に投影する投影ステップと、
前記投影ステップにより投影された前記移動後の計測点が密集する密集領域を前記投影面より探索する密集領域探索ステップと、
前記密集領域探索ステップから探索された前記密集領域に対応する投影前の仮想座標空間における前記移動後の計測点群から、仮想座標空間での前記球体の中心を推定する球中心推定ステップと、
を備えたことを特徴とする球体の検出方法。 A method for detecting a sphere that represents a shape of a sphere as a target in a virtual coordinate space,
A shape data acquisition step of acquiring spherical shape data as a measurement point group by a three-dimensional measurement means;
A normal vector calculation step of calculating a normal vector of each measurement point of the measurement point group constituting the shape data in a virtual coordinate space;
A measurement point moving step of moving each measurement point by the radius of the sphere in a direction opposite to the normal vector;
A projecting step of projecting the moved measurement point moved by the measurement point moving step onto a projection plane perpendicular to the optical axis of the three-dimensional measuring means;
A dense area search step for searching a dense area where the measurement points after movement projected by the projecting step are dense from the projection plane;
A spherical center estimation step for estimating the center of the sphere in the virtual coordinate space from the measurement point group after the movement in the virtual coordinate space before projection corresponding to the dense region searched from the dense region search step;
A method for detecting a sphere, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011019793A JP5656018B2 (en) | 2011-02-01 | 2011-02-01 | Sphere detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011019793A JP5656018B2 (en) | 2011-02-01 | 2011-02-01 | Sphere detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012160063A true JP2012160063A (en) | 2012-08-23 |
JP5656018B2 JP5656018B2 (en) | 2015-01-21 |
Family
ID=46840533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011019793A Active JP5656018B2 (en) | 2011-02-01 | 2011-02-01 | Sphere detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5656018B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107121061A (en) * | 2017-03-15 | 2017-09-01 | 大连理工大学 | A kind of drilling point law vector method for solving constrained based on elliptic cone |
JP2017201493A (en) * | 2016-05-06 | 2017-11-09 | 村田機械株式会社 | Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle |
JP2018054530A (en) * | 2016-09-30 | 2018-04-05 | 株式会社トプコン | Measurement device and measurement method |
CN117057152A (en) * | 2023-08-25 | 2023-11-14 | 西南科技大学 | Sphere simulation polishing uniformity evaluation method based on Adams and Matlab |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009009539A (en) * | 2007-05-29 | 2009-01-15 | Tokyo Univ Of Marine Science & Technology | Circular shape detector |
-
2011
- 2011-02-01 JP JP2011019793A patent/JP5656018B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009009539A (en) * | 2007-05-29 | 2009-01-15 | Tokyo Univ Of Marine Science & Technology | Circular shape detector |
Non-Patent Citations (2)
Title |
---|
CSNG199900319005; 寺田賢治,他3名: 'ファイバグレイティングを用いた三次元物体の高速認識システム' 電気学会論文誌C Vol.113-C No.4 第113-C巻, 1993, p275-283, 社団法人電気学会 * |
JPN6014045095; 寺田賢治,他3名: 'ファイバグレイティングを用いた三次元物体の高速認識システム' 電気学会論文誌C Vol.113-C No.4 第113-C巻, 1993, p275-283, 社団法人電気学会 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201493A (en) * | 2016-05-06 | 2017-11-09 | 村田機械株式会社 | Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle |
JP2018054530A (en) * | 2016-09-30 | 2018-04-05 | 株式会社トプコン | Measurement device and measurement method |
CN107121061A (en) * | 2017-03-15 | 2017-09-01 | 大连理工大学 | A kind of drilling point law vector method for solving constrained based on elliptic cone |
CN117057152A (en) * | 2023-08-25 | 2023-11-14 | 西南科技大学 | Sphere simulation polishing uniformity evaluation method based on Adams and Matlab |
CN117057152B (en) * | 2023-08-25 | 2024-02-23 | 西南科技大学 | Sphere simulation polishing uniformity evaluation method based on Adams and Matlab |
Also Published As
Publication number | Publication date |
---|---|
JP5656018B2 (en) | 2015-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643347B2 (en) | Device for measuring position and orientation of imaging apparatus and method therefor | |
EP3754295B1 (en) | Three-dimensional measuring system and three-dimensional measuring method | |
KR102345886B1 (en) | Method for the three-dimensional measuring of moving objects during known movement | |
JP6760957B2 (en) | 3D modeling method and equipment | |
KR102424135B1 (en) | Structured light matching of a set of curves from two cameras | |
US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
JP2013178656A (en) | Image processing device, image processing method, and image processing program | |
JP2011242183A (en) | Image processing device, image processing method, and program | |
JP4701848B2 (en) | Image matching apparatus, image matching method, and image matching program | |
JP5761750B2 (en) | Image processing method and apparatus | |
CN113008195B (en) | Three-dimensional curved surface distance measuring method and system based on space point cloud | |
JP5656018B2 (en) | Sphere detection method | |
JP2011237296A (en) | Three dimensional shape measuring method, three dimensional shape measuring device, and program | |
JP6456084B2 (en) | Image processing apparatus, image processing method, and program | |
JP6388806B2 (en) | Projection image generation apparatus, projection image generation program, and projection image generation method | |
JP2010009236A (en) | Plane area estimation device and program | |
JP2017045124A (en) | Parallax detection device | |
CN112258635B (en) | Three-dimensional reconstruction method and device based on improved binocular matching SAD algorithm | |
CN110751731B (en) | 3D reconstruction method and system for structured light | |
JP2012181063A (en) | Calculation device, calculation method and calculation program | |
JP6061631B2 (en) | Measuring device, information processing device, measuring method, information processing method, and program | |
JP2017199285A (en) | Information processor, information processing method, program | |
KR101907057B1 (en) | Device and Method for Depth Information Compensation by Sphere Surface Modeling | |
JP6570321B2 (en) | Information processing apparatus, information processing method, and program | |
Bräuer-Burchardt et al. | Phase unwrapping in fringe projection systems using epipolar geometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141111 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5656018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |