JP6944891B2 - How to identify the position in 3D space - Google Patents
How to identify the position in 3D space Download PDFInfo
- Publication number
- JP6944891B2 JP6944891B2 JP2018024687A JP2018024687A JP6944891B2 JP 6944891 B2 JP6944891 B2 JP 6944891B2 JP 2018024687 A JP2018024687 A JP 2018024687A JP 2018024687 A JP2018024687 A JP 2018024687A JP 6944891 B2 JP6944891 B2 JP 6944891B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- specifying
- dimensional space
- edge
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 54
- 238000003384 imaging method Methods 0.000 claims description 35
- 230000010365 information processing Effects 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 15
- 230000001678 irradiating effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 3
- 238000007665 sagging Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は3次元空間の位置の特定方法に関する。 The present invention relates to a method for specifying a position in a three-dimensional space.
対象物の表面に設けられる特徴部の三次元空間位置を確認する方法として光切断法が知られている。特許文献1には、孔を特徴部として光切断法を用いて、孔の外周とレーザ光との交点を抽出する抽出工程を経て、孔の三次元空間の位置を得る方法が開示されている。そして、この抽出工程でさらに正確に孔の外周を抽出するために、孔に照明を当てて孔、及び孔の周囲をカメラ撮影し、その画像から孔のエッジを抽出する技術が知られている。このエッジとレーザ光との交点を抽出することでより正確にエッジとレーザ光との交点の3次元座標点を求めることができ、この交点に基づいて算出することで、より正確に孔の3次元空間の位置を得ることができる。
The optical cutting method is known as a method for confirming the three-dimensional spatial position of a feature portion provided on the surface of an object.
しかし、孔を形成する際にパンチ加工等によって孔の外周の形状がダレた場合、孔に照明を当ててカメラ撮影すると、ダレの向きや角度によって、照明の光がダレを介して直接カメラに反射して、孔の一部が正確にカメラ撮影できないおそれがある。この場合、カメラ撮影した画像から孔のエッジを抽出する際に、孔の一部について正確にエッジを抽出できないおそれがある。
また、切削加工で孔を加工すると孔の周辺にバリが生じ得る。バリが生じた状態で孔、及び孔の周囲をカメラ撮影すると、カメラ撮影した画像からエッジを抽出する際に、バリが孔の一部であると誤認識して孔のエッジが抽出されるおそれがあり、孔の一部について正確にエッジが抽出できないおそれがある。そして、エッジが正確に抽出できていない部分とレーザ光との交点を抽出した場合、交点に基づいて算出された孔の三次元位置が正確に得られなくなる。この点を改善するには、孔とレーザ光との交点をなるべく多く抽出することが考えられるが、多くの交点を抽出するためにはスリット状のレーザ光を照射する位置を変更し、その度に画像を取り込んで演算する必要があるため、処理時間が大幅に増加することになる。
However, when the shape of the outer circumference of the hole is sagging due to punching when forming the hole, when the hole is illuminated and photographed by the camera, the light of the illumination directly reaches the camera through the sagging depending on the direction and angle of the sagging. There is a risk that some of the holes will not be accurately photographed by the camera due to reflection. In this case, when extracting the edge of the hole from the image taken by the camera, there is a possibility that the edge cannot be accurately extracted for a part of the hole.
Further, when a hole is machined by cutting, burrs may occur around the hole. If the hole and the surroundings of the hole are photographed with a camera in a state where burrs are generated, when extracting an edge from the image taken by the camera, the edge of the hole may be extracted by erroneously recognizing that the burr is a part of the hole. There is a risk that edges cannot be extracted accurately for some of the holes. Then, when the intersection of the laser beam and the portion where the edge cannot be accurately extracted is extracted, the three-dimensional position of the hole calculated based on the intersection cannot be accurately obtained. In order to improve this point, it is conceivable to extract as many intersections as possible between the holes and the laser beam, but in order to extract as many intersections as possible, the position of irradiating the slit-shaped laser beam is changed each time. Since it is necessary to capture the image and perform the calculation, the processing time will be significantly increased.
本発明は、上記従来の実情に鑑みてなされたものであって、処理時間の大幅な増加なしに対象物の表面に設けられた特徴部の3次元空間の位置を正確に特定する3次元空間の位置の特定方法を提供することを目的とする。 The present invention has been made in view of the above-mentioned conventional circumstances, and is a three-dimensional space that accurately specifies the position of the three-dimensional space of the feature portion provided on the surface of the object without significantly increasing the processing time. It is an object of the present invention to provide a method of identifying the position of.
第1発明の3次元空間の位置の特定方法は、光源、撮像部、及び情報処理部を用いて実行される。光源は対象物の表面に照射光を照射する。撮像部は対象物の様子を撮像して画像データを得る。情報処理部は画像データに基づいて演算する。
また、本発明の3次元空間の位置の特定方法は、第1撮像工程、表面特定工程、第2撮像工程、エッジ抽出工程、及び位置特定工程を備えている。
第1撮像工程は、光源から対象物の表面に向けて照射光を照射して、表面に照射光が照射された様子を撮像部で撮像して第1画像データを得る。
表面特定工程は、第1画像データにおける照射光の位置に基づいて対象物の表面の3次元空間の位置を情報処理部で演算して特定する。
第2撮像工程は、対象物の表面に設けられた所定の特徴部を撮像部で撮像して第2画像データを得る。
エッジ抽出工程は、第2画像データの所定の特徴部の外周からエッジを情報処理部で抽出する。
位置特定工程は、表面特定工程で特定した対象物の表面の3次元空間の位置におけるエッジの位置を情報処理部で演算して特定する。
表面特定工程は、第1画像データにおける所定の特徴部の周囲から離れた位置であって、所定の特徴部の外周縁から離れる方向に所定の寸法まで広がる領域内の前記照射光を用いる。
The method of specifying the position of the three-dimensional space of the first invention is executed by using the light source, the imaging unit, and the information processing unit. The light source irradiates the surface of the object with irradiation light. The image pickup unit captures the state of the object and obtains image data. The information processing unit calculates based on the image data.
Further, the method for specifying the position in the three-dimensional space of the present invention includes a first imaging step, a surface specifying step, a second imaging step, an edge extraction step, and a position specifying step.
In the first imaging step, the irradiation light is irradiated from the light source toward the surface of the object, and the state in which the irradiation light is irradiated on the surface is imaged by the imaging unit to obtain the first image data.
In the surface identification step, the information processing unit calculates and specifies the position of the surface of the object in the three-dimensional space based on the position of the irradiation light in the first image data.
In the second imaging step, a predetermined feature portion provided on the surface of the object is imaged by the imaging unit to obtain second image data.
In the edge extraction step, the information processing unit extracts an edge from the outer circumference of a predetermined feature portion of the second image data.
In the position specifying step, the information processing unit calculates and specifies the position of the edge in the three-dimensional space position of the surface of the object specified in the surface specifying step.
The surface identification step uses the irradiation light in a region that is located away from the periphery of the predetermined feature portion in the first image data and extends to a predetermined dimension in a direction away from the outer peripheral edge of the predetermined feature portion.
この3次元空間の位置の特定方法は、表面特定工程において、第1画像データに基づいて対象物の表面の3次元面を特定した後、位置特定工程において、第2画像データに基づいて表面特定工程で特定した対象物の表面の3次元面の位置における、特徴部から抽出したエッジの位置を求めることができる。つまり、この3次元空間の位置の特定方法は、予め所定の特徴部が設けられた対象物の表面の3次元面を先に演算して特定する。そして、所定の特徴部におけるエッジが、3次元面の位置のいずれかに位置するかを特定する。つまり、この3次元空間の位置の特定方法は、対象物の表面に設けられた所定の特徴部のエッジと照射光との交点を複数取得するための複数の画像データを得る手間が掛からない。また、所定の特徴部の外縁部が加工等によって変形していても、この変形の影響を受けることなく正確に対象物の表面の3次元空間の位置を特定することができる。 In this method of specifying the position of the three-dimensional space, in the surface specifying step, after specifying the three-dimensional surface of the surface of the object based on the first image data, in the position specifying step, the surface is specified based on the second image data. It is possible to obtain the position of the edge extracted from the feature portion at the position of the three-dimensional surface of the surface of the object specified in the step. That is, in this method of specifying the position of the three-dimensional space, the three-dimensional surface of the surface of the object provided with the predetermined feature portion in advance is calculated and specified first. Then, it is specified whether the edge in the predetermined feature portion is located at any of the positions of the three-dimensional plane. That is, this method of specifying the position in the three-dimensional space does not require the trouble of obtaining a plurality of image data for acquiring a plurality of intersections between the edge of a predetermined feature portion provided on the surface of the object and the irradiation light. Further, even if the outer edge portion of the predetermined feature portion is deformed by processing or the like, the position of the surface of the object in the three-dimensional space can be accurately specified without being affected by this deformation.
したがって、本発明の3次元空間の位置の特定方法は、処理時間の大幅な増加なしに対象物の表面に設けられた特徴部の3次元空間の位置を正確に特定することができる。 Therefore, the method for specifying the position of the three-dimensional space of the present invention can accurately specify the position of the feature portion provided on the surface of the object without significantly increasing the processing time.
第2発明の3次元空間の位置の特定方法は、光源、撮像部、及び情報処理部を用いて実行される。光源は対象物の表面に照射光を照射する。撮像部は対象物の様子を撮像して画像データを得る。情報処理部は画像データに基づいて演算する。
また、本発明の3次元空間の位置の特定方法は、第1撮像工程、表面特定工程、第2撮像工程、エッジ抽出工程、位置特定工程、及び特徴量抽出工程を備えている。
第1撮像工程は、光源から対象物の表面に向けて照射光を照射して、表面に照射光が照射された様子を撮像部で撮像して第1画像データを得る。
表面特定工程は、第1画像データにおける照射光の位置に基づいて対象物の表面の3次元空間の位置を情報処理部で演算して特定する。
第2撮像工程は、対象物の表面に設けられた所定の特徴部を撮像部で撮像して第2画像データを得る。
エッジ抽出工程は、第2画像データの所定の特徴部の外周からエッジを情報処理部で抽出する。
位置特定工程は、表面特定工程で特定した対象物の表面の3次元空間の位置におけるエッジの位置を情報処理部で演算して特定する。
特徴量抽出工程は、位置特定工程において位置が特定されたエッジに基づいて、所定の特徴部の特徴量を抽出する。
この3次元空間の位置の特定方法は、表面特定工程において、第1画像データに基づいて対象物の表面の3次元面を特定した後、位置特定工程において、第2画像データに基づいて表面特定工程で特定した対象物の表面の3次元面の位置における、特徴部から抽出したエッジの位置を求めることができる。つまり、この3次元空間の位置の特定方法は、予め所定の特徴部が設けられた対象物の表面の3次元面を先に演算して特定する。そして、所定の特徴部におけるエッジが、3次元面の位置のいずれかに位置するかを特定する。つまり、この3次元空間の位置の特定方法は、対象物の表面に設けられた所定の特徴部のエッジと照射光との交点を複数取得するための複数の画像データを得る手間が掛からない。また、例えば所定の特徴部の外形が円形である場合、特徴量として直径や、中心の座標を求めることができる。
The method of specifying the position of the three-dimensional space of the second invention is executed by using the light source, the imaging unit, and the information processing unit. The light source irradiates the surface of the object with irradiation light. The image pickup unit captures the state of the object and obtains image data. The information processing unit calculates based on the image data.
Further, the method for specifying the position in the three-dimensional space of the present invention includes a first imaging step, a surface specifying step, a second imaging step, an edge extraction step, a position specifying step, and a feature amount extraction step.
In the first imaging step, the irradiation light is irradiated from the light source toward the surface of the object, and the state in which the irradiation light is irradiated on the surface is imaged by the imaging unit to obtain the first image data.
In the surface identification step, the information processing unit calculates and specifies the position of the surface of the object in the three-dimensional space based on the position of the irradiation light in the first image data.
In the second imaging step, a predetermined feature portion provided on the surface of the object is imaged by the imaging unit to obtain second image data.
In the edge extraction step, the information processing unit extracts an edge from the outer circumference of a predetermined feature portion of the second image data.
In the position specifying step, the information processing unit calculates and specifies the position of the edge in the three-dimensional space position of the surface of the object specified in the surface specifying step.
Feature amount extraction step, on the basis of the edge position specified in the position specifying step, extracts a feature value of the predetermined feature.
In this method of specifying the position of the three-dimensional space, in the surface specifying step, after specifying the three-dimensional surface of the surface of the object based on the first image data, in the position specifying step, the surface is specified based on the second image data. It is possible to obtain the position of the edge extracted from the feature portion at the position of the three-dimensional surface of the surface of the object specified in the step. That is, in this method of specifying the position of the three-dimensional space, the three-dimensional surface of the surface of the object provided with the predetermined feature portion in advance is calculated and specified first. Then, it is specified whether the edge in the predetermined feature portion is located at any of the positions of the three-dimensional plane. That is, this method of specifying the position in the three-dimensional space does not require the trouble of obtaining a plurality of image data for acquiring a plurality of intersections between the edge of a predetermined feature portion provided on the surface of the object and the irradiation light. Further, for example, when the outer shape of a predetermined feature portion is circular, the diameter and the coordinates of the center can be obtained as the feature amount.
本発明の3次元空間の位置の特定方法を具体化した実施形態について、図面を参照しつつ説明する。 An embodiment embodying a method for specifying a position in a three-dimensional space of the present invention will be described with reference to the drawings.
<実施形態>
先ず、本発明の3次元空間の位置の特定方法を実行する装置1について、図1、2を参照しつつ説明する。装置1は公知の光切断法を実行することができる。装置1は、図1に示すように、光源L、撮像部であるカメラC、及び情報処理部12を備えている。また、光源Lは、情報処理部12によって動作が制御されるサーボモータMによって所定の一方向に移動自在に構成されている。装置1では、対象物であるワークWの表面に設けられた特徴部のワークWの表面における位置を特定することができる。ここで、ワークWの表面に形成された所定の特徴部とは、例えば、孔、突起、溝、リブ、及び塗装や印刷による文字や模様の形状等である。本実施形態ではワークWの表面に形成された所定の特徴部として孔Sを例示して説明する。また、3次元面を特定する方法として、公知の「光レーダ法」等の他の方法も挙げられるが、本実施形態において光切断法を例示して説明する。
<Embodiment>
First, the
光源Lは、図2に示すように、例えば、照射口L1から面状に拡がるレーザL2をワークW等に照射する構成となっている。つまり、光源Lで発生した面状に拡がるレーザL2はワークWに照射されると照射光であるスリット状の光L3(以降、スリット光L3という)になる。つまり、光源LはワークWの表面にスリット光L3を照射する。また、光源Lは、情報処理部12によって動作が制御されるサーボモータMによって、所定の方向L4に往復移動自在に構成されている。所定の方向L4は、例えば、ワークWの表面に照射されたスリット光L3が、スリット光L3が伸びる方向に対して直角方向に移動する方向である。これによって、ワークWの表面に照射されたスリット光L3のワークWの表面に対する位置を変更することができる。
As shown in FIG. 2, the light source L is configured to irradiate the work W or the like with a laser L2 that spreads in a plane from the irradiation port L1, for example. That is, when the work W is irradiated with the laser L2 that spreads in a plane generated by the light source L, it becomes a slit-shaped light L3 (hereinafter, referred to as a slit light L3) that is irradiation light. That is, the light source L irradiates the surface of the work W with the slit light L3. Further, the light source L is configured to be reciprocally movable in a predetermined direction L4 by a servomotor M whose operation is controlled by the
カメラCは、例えば、CCD等で構成された撮像素子C1、及びレンズC2等を有している。カメラCはワークW等の様子を、レンズC2を介して撮像素子C1の表面に結像し、この結像を撮像素子C1によって撮像して画像データを得ることができる。つまり、カメラCはワークWの様子を撮像して画像データを得る。 The camera C has, for example, an image sensor C1 composed of a CCD or the like, a lens C2, or the like. The camera C can image the state of the work W or the like on the surface of the image sensor C1 via the lens C2, and image the image by the image sensor C1 to obtain image data. That is, the camera C captures the state of the work W and obtains image data.
ここで、光源L、カメラC、撮像素子C1、及びレンズC2の位置関係について説明する。光源Lは所定の方向L4に往復移動自在である。このため、光源LとカメラCのレンズC2との間の寸法Dは光源Lの往復移動に伴い変化する。ここで寸法Dは、カメラCのレンズC2の中心Ccと光源Lの照射口L1の中心との間の寸法である。また、レンズC2の中心Ccと光源Lの照射口L1の中心とを通る架空の直線Aと、レーザL2を照射する方向とが成す角度は、予め所定の角度θLに調整されている。光源Lが移動する所定の方向L4は架空の直線Aが伸びる方向と同じである。
また、レンズC2の中心Ccと撮像素子C1との間の寸法Fも予め所定の大きさに調整されている。具体的には、撮像素子C1のレンズC2に対向する側の面(以降、撮像素子C1の表面という)に対して直角で撮像素子C1の中心を通る撮像素子C1の軸線とレンズC2の中心軸とが互いに架空の直線Bに位置している。寸法Fは架空の直線Bにおける、レンズC2の中心Ccと撮像素子C1の表面の中心との間の寸法である。また、架空の直線Bと架空の直線Aとが成す角度は予め所定の角度θcに調整されている。
Here, the positional relationship between the light source L, the camera C, the image sensor C1, and the lens C2 will be described. The light source L can reciprocate in a predetermined direction L4. Therefore, the dimension D between the light source L and the lens C2 of the camera C changes with the reciprocating movement of the light source L. Here, the dimension D is the dimension between the center Cc of the lens C2 of the camera C and the center of the irradiation port L1 of the light source L. Further, the angle formed by the fictitious straight line A passing through the center Cc of the lens C2 and the center of the irradiation port L1 of the light source L and the direction of irradiating the laser L2 is adjusted to a predetermined angle θL in advance. The predetermined direction L4 in which the light source L moves is the same as the direction in which the fictitious straight line A extends.
Further, the dimension F between the center Cc of the lens C2 and the image sensor C1 is also adjusted to a predetermined size in advance. Specifically, the axis of the image sensor C1 and the central axis of the lens C2 passing through the center of the image sensor C1 at right angles to the surface of the image sensor C1 facing the lens C2 (hereinafter referred to as the surface of the image sensor C1). Are located on a fictitious straight line B with each other. The dimension F is the dimension between the center Cc of the lens C2 and the center of the surface of the image sensor C1 in the fictitious straight line B. Further, the angle formed by the fictitious straight line B and the fictitious straight line A is adjusted in advance to a predetermined angle θc.
情報処理部12は本発明の3次元空間の位置の特定方法を実行することができる。具体的には、情報処理部12はROM(リードオンリメモリ)、CPU(中央演算処理装置)、及びRAM(ランダムアクセスメモリ)等を有している(図示せず。)。ROMはCPUで実行される制御プログラム等を予め記憶する。CPUはROMに格納されたプログラム等を実行する。RAMはCPUによって実行されたプログラムにしたがって動作する。情報処理部12はカメラCの撮像素子C1で撮像された画像データに基づいてワークWの表面の3次元空間の位置や、ワークWの表面の3次元空間の位置における所定の特徴部の位置を演算して特定することができる。つまり、情報処理部12は画像データに基づいて演算する。
The
次に、この装置1を用いてワークWの表面の3次元面における所定の特徴部の位置を特定する3次元空間の位置の特定方法について図2〜5を参照しつつ説明する。
Next, a method of specifying the position of a predetermined feature portion on the three-dimensional surface of the surface of the work W using this
先ず、表面に孔Sが形成されたワークWを装置1の所定の位置に配置する。
具体的には、ワークWの表面に形成された孔S(以降、孔Sという)、及びこの孔Sの周囲にスリット光L3が照射される向きで、且つカメラCのレンズC2に孔Sを対向させてワークWを装置1の所定の位置に配置する。つまり、孔S、及びこの孔Sの周囲にスリット光L3が照射された状態がカメラCで撮像できる向きにしてワークWを装置1の所定の位置に配置する。
First, the work W having the holes S formed on the surface thereof is placed at a predetermined position of the
Specifically, the hole S formed on the surface of the work W (hereinafter referred to as the hole S) and the direction in which the slit light L3 is irradiated around the hole S, and the hole S is formed in the lens C2 of the camera C. The work W is arranged at a predetermined position of the
次に、光源LからワークWの表面に設けられた孔Sに向けてスリット光L3を照射して、孔Sにスリット光L3が照射された様子をカメラCで撮像して第1画像データを得る第1撮像工程を実行する(ステップS1)。
具体的には、ステップS1では、光源LからワークWの表面にスリット光L3を照射する。このとき、図3(A)、(B)に示すように、ワークWの表面に照射されたスリット光L3は、孔S、及びこの孔Sの周囲に照射される。そして、カメラCの撮像素子C1でスリット光L3が照射された状態の孔S、及びこの孔Sの周囲を撮像して第1画像データである画像データ10Aを得る。そして、光源Lを所定の方向L4に移動させて寸法Dを変更する(図2参照。)。そして、再び光源LからワークWの表面にスリット光L3を照射して、カメラCの撮像素子C1で孔S、及びこの孔Sの周囲を撮像して第1画像データである画像データ10Bを得る。画像データ10A,10Bにはスリット光L3の形状に対応した像N(以降、像Nという)、及び孔Sの形状に対応した像T(以降、像Tという)が含まれている。
Next, the slit light L3 is irradiated from the light source L toward the hole S provided on the surface of the work W, and the state in which the slit light L3 is irradiated to the hole S is imaged by the camera C to obtain the first image data. The first imaging step of obtaining is executed (step S1).
Specifically, in step S1, the slit light L3 is irradiated from the light source L to the surface of the work W. At this time, as shown in FIGS. 3A and 3B, the slit light L3 irradiated on the surface of the work W is irradiated on the hole S and the periphery of the hole S. Then, the image sensor C1 of the camera C images the hole S in the state where the slit light L3 is irradiated and the periphery of the hole S to obtain
次に、画像データ10A,10Bにおける像Nの位置に基づいてワークWの表面の3次元面の位置を情報処理部12で演算して特定する表面特定工程を実行する(ステップS2)。
具体的には、ステップS2では、図3(A)、(B)に示すように、情報処理部12によって、画像データ10A又は10Bにおける像Tの領域R1を把握する。そして、像Tの周囲であり、且つ内径が像Tの外周より僅かに大きい円環状の領域R2を決定する。領域R2は像Tの外形形状に基づいており、像Tを囲み、像Tの周囲から所定の距離を設けている。また、領域R2の外周縁は像Tの外周縁から離れる方向に所定の寸法まで広がった領域内に位置するように決定される。所定の寸法はワークWの表面における実際の大きさにおいておよそ30mmである。
Next, the surface identification step of calculating and specifying the position of the three-dimensional surface of the surface of the work W by the
Specifically, in step S2, as shown in FIGS. 3A and 3B, the
次に、像Nの中心線E1,E2を求める。具体的には、画像データ10A又は10Bの像Nの幅方向における中心位置を求める。中心位置を求める方法として、例えば、像Nの幅方向の中心を中心位置とする方法や、像Nの幅方向において最も明るい位置を中心位置とする方法等がある。こうして得られた像Nの中心線E1,E2は1列に並んだ複数の点Pの集合である。これら点Pのそれぞれは画像データ10A又は10Bにおける1ピクセルに対応している。また、1ピクセルの大きさはワークWの表面おける実際の大きさにおいて、およそ0.1mm〜0.2mmに対応している。
Next, the center lines E1 and E2 of the image N are obtained. Specifically, the center position of the image N of the
次に、領域R2内に位置する中心線E1,E2の点Pを把握する。具体的には、図3(A)、(B)に示すように、中心線E1,E2を構成する複数の点Pの内、領域R2内に位置する任意の点Pxを把握する。ここで、xは任意の正の整数であり、点Pxが領域R2内に位置する点Pの内の任意の1点であることを示す。つまり、表面特定工程は画像データ10A,10Bにおける孔Sの周囲から所定の距離離れた位置のスリット光L3の形状に対応した像Nを用いる。
Next, the points P of the center lines E1 and E2 located in the region R2 are grasped. Specifically, as shown in FIGS. 3A and 3B, any point Px located in the region R2 among the plurality of points P constituting the center lines E1 and E2 is grasped. Here, x is an arbitrary positive integer, indicating that the point Px is any one of the points P located in the region R2. That is, in the surface specifying step, the image N corresponding to the shape of the slit light L3 at a position separated from the periphery of the hole S in the
次に、点Pxのそれぞれの3次元空間の位置の座標を求める。ここで、3次元空間の位置を表す座標系の基準(原点)はカメラCのレンズC2の中心Ccである。つまり、この座標系におけるカメラCのレンズC2の中心Ccの座標は(0,0,0)である。 Next, the coordinates of the position of each point Px in the three-dimensional space are obtained. Here, the reference (origin) of the coordinate system representing the position in the three-dimensional space is the center Cc of the lens C2 of the camera C. That is, the coordinates of the center Cc of the lens C2 of the camera C in this coordinate system are (0,0,0).
ここで、領域R2内に位置する任意の点Pxの3次元空間の位置の座標を求める方法について図2、3を参照しつつ説明する。先ず、レンズC2の中心Ccに対する点Pxの位置を把握する。点Pxは撮像素子C1の表面のいずれかに位置している。具体的には、点Pxは撮像素子C1の表面の中心から撮像素子C1の表面に沿う方向であるU方向、及びV方向にそれぞれpu,pv離れた場所に位置している。つまり、撮像素子C1の表面の中心が撮像素子C1の表面の座標系の基準(原点)であり、この座標系における点Pxの座標は(pu,pv)である。
また、レンズC2の中心Ccと撮像素子C1の表面の中心との間の寸法はFである。つまり、レンズC2の中心Ccに対する点Pxの位置、すなわち、点Pxの3次元空間の位置の座標は(pu,pv,F)である。
ここで、レンズC2の中心Ccと光源Lの照射口L1の中心との間の寸法はDである。また、レンズC2の中心Ccと光源Lの照射口L1とを通る架空の直線Aと、光源Lからスリット光L3を照射する方向とが成す角度はθLである。また、撮像素子C1の中心線とレンズC2の中心軸とが互いに位置する架空の直線Bと、架空の直線Aとが成す角度は予め所定の角度θcである。こうして得られた点Pxの座標(pu,pv,F)、寸法D、角度θL、及び角度θcを用いて公知の3角測量法を実行することによって、点Pxの3次元空間の位置の座標Kx(Kxx,Kxy,Kxz)を求めることができる。
こうして、領域R2内に位置する任意の点Pxのそれぞれについて上記の方法を実行して、各点Pxのそれぞれの3次元空間の位置の座標Kxを求めることができる。
Here, a method of obtaining the coordinates of the position of an arbitrary point Px located in the region R2 in the three-dimensional space will be described with reference to FIGS. 2 and 3. First, the position of the point Px with respect to the center Cc of the lens C2 is grasped. The point Px is located on any surface of the image sensor C1. Specifically, the points Px are located at locations pu and pv apart from the center of the surface of the image sensor C1 in the U direction and the V direction, which are directions along the surface of the image sensor C1. That is, the center of the surface of the image sensor C1 is the reference (origin) of the coordinate system of the surface of the image sensor C1, and the coordinates of the point Px in this coordinate system are (pu, pv).
Further, the dimension between the center Cc of the lens C2 and the center of the surface of the image sensor C1 is F. That is, the position of the point Px with respect to the center Cc of the lens C2, that is, the coordinates of the position of the point Px in the three-dimensional space are (pu, pv, F).
Here, the dimension between the center Cc of the lens C2 and the center of the irradiation port L1 of the light source L is D. Further, the angle formed by the fictitious straight line A passing through the center Cc of the lens C2 and the irradiation port L1 of the light source L and the direction of irradiating the slit light L3 from the light source L is θL. Further, the angle formed by the fictitious straight line B in which the center line of the image sensor C1 and the central axis of the lens C2 are located at each other and the fictitious straight line A is a predetermined angle θc in advance. By executing a known trigonal survey method using the coordinates (pu, pv, F) of the point Px thus obtained, the dimensions D, the angle θL, and the angle θc, the coordinates of the position of the point Px in the three-dimensional space. Kx (Kxx, Kxy, Kxz) can be obtained.
In this way, the above method can be executed for each of the arbitrary points Px located in the region R2, and the coordinates Kx of the position of each point Px in the three-dimensional space can be obtained.
次に、座標KxからワークWの表面を近似する関数Gpを求める。ここで、孔Sが設けられたワークWの表面は平面である場合について説明する。平面は互いに1つの直線上に位置しない任意の3点で特定できる。このため、座標Kxの内の互いに1つの直線上に位置しない任意の少なくとも3つの座標を選ぶ。
具体的には、図3(A)、(B)に示すように、領域R2内に位置する任意の点Pxから、3つの点P1、P2、P3のそれぞれに対応する座標K1(K1x,K1y,K1z)、K2(K2x,K2y,K2z)、K3(K3x,K3y,K3z)を選ぶ。なお、3つの点P1、P2、P3は、互いの間の距離がより離れているほうが、ワークWの表面をより正確に近似する関数Gpを求めることができる。このため、3つの座標K1、K2、K3は、領域R2と像Nの中心線E1,E2とが交差する部分において、孔Sの一方側、及び他方側から1つずつ選ぶことが好ましい。こうして選んだ座標Kxの内の任意の3つの座標K1、K2、K3を用いて孔Sが形成されたワークWの表面を近似する平面の関数Gpを求めることができる。また、図4に示すように、スリット光L3が領域R2にのみ照射されている場合でも平面の関数Gpを求めることができる。そして、このとき、領域R2内に位置する任意の点Pxから3つの点P1、P2、P3を選ぶ場合、互いの点の間の距離がより離れているほうが、ワークWの表面をより正確に近似する関数Gpを求めることができる。
また、座標Kxの内の任意の他の少なくとも3つの座標(すなわち、K1、K2、K3でない任意の少なくとも3つの座標)を改めて選び、ワークWの表面を近似する関数Gpを求める工程を所定の回数繰り返す。そして、関数Gpが同じ、又は近い値の結果が出現する度合いを判別することによって、より正確にワークWの表面を近似する関数Gpを求めることができる。
Next, the function Gp that approximates the surface of the work W is obtained from the coordinates Kx. Here, a case where the surface of the work W provided with the holes S is a flat surface will be described. Planes can be specified at any three points that are not located on one straight line with each other. Therefore, at least three arbitrary coordinates within the coordinates Kx that are not located on one straight line with each other are selected.
Specifically, as shown in FIGS. 3A and 3B, the coordinates K1 (K1x, K1y) corresponding to each of the three points P1, P2, and P3 from an arbitrary point Px located in the region R2. , K1z), K2 (K2x, K2y, K2z), K3 (K3x, K3y, K3z). It should be noted that the more distant the three points P1, P2, and P3 are from each other, the more accurately the function Gp that approximates the surface of the work W can be obtained. Therefore, it is preferable that the three coordinates K1, K2, and K3 are selected one by one from one side and the other side of the hole S at the portion where the region R2 and the center lines E1 and E2 of the image N intersect. Using any three coordinates K1, K2, and K3 among the coordinates Kx selected in this way, it is possible to obtain a function Gp of a plane that approximates the surface of the work W in which the hole S is formed. Further, as shown in FIG. 4, even when the slit light L3 is irradiated only on the region R2, the plane function Gp can be obtained. At this time, when three points P1, P2, and P3 are selected from an arbitrary point Px located in the region R2, the more the distance between the points is, the more accurately the surface of the work W is. The function Gp to be approximated can be obtained.
Further, a step of reselecting any other at least three coordinates (that is, any at least three coordinates other than K1, K2, and K3) within the coordinates Kx and obtaining a function Gp that approximates the surface of the work W is predetermined. Repeat the number of times. Then, the function Gp that more accurately approximates the surface of the work W can be obtained by determining the degree to which the results having the same or similar values of the function Gp appear.
次に、孔SをカメラCで撮像して第2画像データを得る第2撮像工程を実行する(ステップS3)。
具体的には、ステップS3では、カメラCの撮像素子C1でスリット光L3が照射されていない状態の孔S、及びこの孔Sの周囲を撮像して第2画像データである画像データ10Cを得る(図3(C)参照。)。画像データ10Cには孔Sの形状に対応した像Tが含まれている。
そして、公知の方法を用いて像Tのエッジ(すなわち、所定の特徴部の外周である孔Sから抽出したエッジ)であるエッジTe(縁)を情報処理部12で抽出するエッジ抽出工程を実行する(ステップS4)。エッジTeは像Tの周縁に沿って並んだ複数の点Qの集合である。エッジTeである複数の点Qのそれぞれは画像データ10Cにおける1ピクセルに対応している。1ピクセルの大きさはワークWの表面おける実際の大きさにおいて、およそ0.1mm〜0.2mmに対応している。
Next, the second imaging step of acquiring the second image data by imaging the hole S with the camera C is executed (step S3).
Specifically, in step S3, the image sensor C1 of the camera C images the hole S in a state where the slit light L3 is not irradiated, and the periphery of the hole S to obtain
Then, using a known method, the
次に、表面特定工程で特定したワークWの表面の3次面の位置における画像データ10Cの像TのエッジTeの位置を情報処理部12で演算して特定する位置特定工程を実行する(ステップS5)。
具体的には、ステップS5では、複数の点Qのそれぞれの3次元空間の位置の座標を求める。この座標系の基準(原点)はカメラCのレンズC2の中心Ccである。この座標系におけるカメラCのレンズC2の中心Ccの座標は(0,0,0)である。
ここで、画像データ10CのエッジTeである複数の点Qの内の任意の点Qxの3次元空間の位置の座標を求める方法について図2、3を参照しつつ説明する。先ず、レンズC2の中心Ccに対する点Qxの位置を把握する。点Qxは撮像素子C1の表面のいずれかに位置している。具体的には、点Qxは撮像素子C1の表面の中心から撮像素子C1の表面に沿う方向であるU方向、及びV方向にそれぞれqu,qv離れた場所に位置している。つまり、撮像素子C1の表面の中心が撮像素子C1の表面の座標系の基準(原点)であり、撮像素子C1の表面の座標系における点Qxの座標は(qu,qv)である。
また、レンズC2の中心Ccと撮像素子C1の表面の中心との間の寸法はFである。つまり、レンズC2の中心Ccに対する点Qxの位置、すなわち、点Qxの3次元空間の位置の座標は(qu,qv,F)である。
次に、点Qx及びレンズC2の中心Ccを通る直線を表す関数Gsを求める。具体的には、直線の関数Gsは任意の2点を用いて求めることができる。つまり、点Qxの座標(qu,qv,F)、及びレンズC2の中心Ccの座標(0,0,0)を用いることによって点QxとレンズC2の中心Ccを通る直線を表す関数Gsを求めることができる。
そして、直線を表す関数Gsと、ワークWの表面を近似する関数Gpとが交差する点である座標Ex(Exx,Exy,Exz)を求める。
こうして、エッジTeを構成するQxのそれぞれについて上記の方法を実行して、各点Qxのそれぞれの3次元空間の位置の座標Exを求めることができる。
Next, the
Specifically, in step S5, the coordinates of the positions of the plurality of points Q in the three-dimensional space are obtained. The reference (origin) of this coordinate system is the center Cc of the lens C2 of the camera C. The coordinates of the center Cc of the lens C2 of the camera C in this coordinate system are (0,0,0).
Here, a method of obtaining the coordinates of the position of an arbitrary point Qx in the three-dimensional space among the plurality of points Q which are the edges Te of the
Further, the dimension between the center Cc of the lens C2 and the center of the surface of the image sensor C1 is F. That is, the position of the point Qx with respect to the center Cc of the lens C2, that is, the coordinates of the position of the point Qx in the three-dimensional space are (qu, qv, F).
Next, the function Gs representing the straight line passing through the point Qx and the center Cc of the lens C2 is obtained. Specifically, the linear function Gs can be obtained by using any two points. That is, by using the coordinates of the point Qx (qu, qv, F) and the coordinates of the center Cc of the lens C2 (0, 0, 0), the function Gs representing the straight line passing through the point Qx and the center Cc of the lens C2 is obtained. be able to.
Then, the coordinates Ex (Exx, Exy, Exz), which are the points where the function Gs representing the straight line and the function Gp that approximates the surface of the work W intersect, are obtained.
In this way, the above method can be executed for each of the Qxs constituting the edge Te, and the coordinate Ex of the position of each point Qx in the three-dimensional space can be obtained.
次に、孔Sの特徴量を計算して抽出する特徴量抽出工程を実行する(ステップS6)。ここで、特徴量とは特徴部の特徴を示す代表的な数値をいう。本実施例のように特徴部が円形の孔である場合、代表的な数値はこの孔の中心の座標や直径等である。本実施例では、座標Exの内の任意の少なくとも3つの座標を用いて、孔Sの直径や、孔Sの中心の座標等を求める。つまり、特徴量は位置特定工程において位置が特定されたエッジTeに基づいて抽出される。
また、座標Exの内の任意の他の少なくとも3つの座標を改めて選び、孔Sの直径や、孔Sの中心の座標等を求める工程を所定の回数繰り返す。所定の回数は任意に設定される。そして、孔Sの直径や、孔Sの中心の座標等が同じ、又は近い値の結果が出現する度合いを判別することによって、より正確に孔Sの直径や、孔Sの中心の座標等を求めることができる。
Next, a feature amount extraction step of calculating and extracting the feature amount of the hole S is executed (step S6). Here, the feature amount means a typical numerical value indicating the feature of the feature portion. When the feature portion is a circular hole as in this embodiment, typical numerical values are the coordinates and diameter of the center of the hole. In this embodiment, the diameter of the hole S, the coordinates of the center of the hole S, and the like are obtained by using at least three arbitrary coordinates in the coordinates Ex. That is, the feature amount is extracted based on the edge Te whose position is specified in the position specifying step.
Further, at least three arbitrary coordinates in the coordinates Ex are selected again, and the process of obtaining the diameter of the hole S, the coordinates of the center of the hole S, and the like is repeated a predetermined number of times. The predetermined number of times is arbitrarily set. Then, by determining the degree to which the results of the same or similar values of the diameter of the hole S and the coordinates of the center of the hole S appear, the diameter of the hole S and the coordinates of the center of the hole S can be obtained more accurately. You can ask.
このように、この3次元空間の位置の特定方法は、表面特定工程において、画像データ10A又は10Bに基づいてワークWの表面の3次元面を特定した後、位置特定工程において、画像データ10Cに基づいて表面特定工程で特定したワークWの表面の3次元面の位置における、像TのエッジTeの位置を求めることができる。つまり、この3次元空間の位置の特定方法は、予め孔Sが設けられたワークWの表面の3次元面を先に演算して特定する。そして、孔Sに対応した像TにおけるエッジTeが、特定したワークWの表面の3次元面の位置のいずれかに位置するかを特定する。つまり、この3次元空間の位置の特定方法は、ワークWの表面に設けられた孔Sに対応した像TにおけるエッジTeを構成する点Q毎に、画像データを得て演算する手間が掛からない。
As described above, in this method of specifying the position in the three-dimensional space, after the three-dimensional surface of the surface of the work W is specified based on the
したがって、本発明の3次元空間の位置の特定方法は、処理時間の大幅な増加なしにワークWの表面に設けられた孔SのワークWの表面における位置を正確に特定することができる。 Therefore, the method for specifying the position of the three-dimensional space of the present invention can accurately specify the position of the hole S provided on the surface of the work W on the surface of the work W without significantly increasing the processing time.
また、この表面特定工程は、画像データ10A又は10Bにおける像Tの周囲から所定の距離離れた位置の像Nを用いる。このため、この3次元空間の位置の特定方法は、孔Sの外縁部が加工等によって変形していても、この変形の影響を受けることなく正確にワークWの表面の3次元空間の位置を特定することができる。
Further, in this surface identification step, an image N at a position separated from the periphery of the image T in the
また、この3次元空間の位置の特定方法は、位置特定工程において位置が特定されたエッジTeに基づいて、像Tの特徴量を抽出する特徴量抽出工程とを備えている。これにより、外形が円形である像Tの特徴量である直径や、中心の座標を求めることができる。 Further, the method of specifying the position in the three-dimensional space includes a feature amount extraction step of extracting the feature amount of the image T based on the edge Te whose position is specified in the position specifying step. As a result, it is possible to obtain the diameter, which is a feature amount of the image T having a circular outer shape, and the coordinates of the center.
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。
(1)実施形態では、光源がレーザを発生するが、電球やLED等を用いてスリット光を照射しても良い。この場合、スリットが設けられた板を介することによってワークの表面にスリット光が照射される。
(2)実施形態では、光源を所定の方向に移動させて、ワークにスリット光が照射される位置を変更して、複数の画像データを撮像しているが、ワークの表面に対して照射される位置が異なる複数のスリット光を同時にワークの表面に照射しても良い。
(3)実施形態では、スリット光が照射されていない状態のワークの孔、及びこの孔の周囲を撮像した画像データを用いてエッジを抽出しているが、スリット光が照射されている状態のワークの孔、及びこの孔の周囲を撮像した画像データを用いてエッジを抽出しても良い。
(4)実施形態では、ワークの表面が平面であるが、関数で近似できれば良く、曲面等の他の面であっても良い。
(5)実施形態では、撮像素子がCCDで構成されているが、CMOS等の他のデバイスで撮像素子を構成しても良い。
(6)実施形態では、第1画像データを2つ撮像しているが、3つ以上であってもよい。
(7)実施形態では、3次元面の特定に光切断法を用いているが、「光レーダ法」「アクティブスレテオ法」「モアレ法」「干渉法」「ステレオ法」等の公知の方法を用いてもよい。
(8)実施形態の第1撮像工程では、スリット光が孔に重なった状態で照射されているが、スリット光が孔に重なっていない状態で照射されてもよい。
The present invention is not limited to the embodiments described in the above description and drawings, and for example, the following embodiments are also included in the technical scope of the present invention.
(1) In the embodiment, the light source generates a laser, but a light bulb, an LED, or the like may be used to irradiate the slit light. In this case, the slit light is irradiated to the surface of the work through the plate provided with the slit.
(2) In the embodiment, the light source is moved in a predetermined direction, the position where the slit light is irradiated to the work is changed, and a plurality of image data are imaged, but the surface of the work is irradiated. The surface of the work may be irradiated with a plurality of slit lights having different positions at the same time.
(3) In the embodiment, the edge is extracted using the hole of the work in the state where the slit light is not irradiated and the image data obtained by imaging the periphery of the hole, but the edge is extracted in the state where the slit light is irradiated. Edges may be extracted using image data obtained by capturing the holes in the work and the surroundings of the holes.
(4) In the embodiment, the surface of the work is flat, but it may be another surface such as a curved surface as long as it can be approximated by a function.
(5) In the embodiment, the image sensor is composed of a CCD, but the image sensor may be composed of another device such as CMOS.
(6) In the embodiment, two first image data are captured, but three or more may be captured.
(7) In the embodiment, the optical cutting method is used to identify the three-dimensional surface, but known methods such as "optical radar method", "active threadeo method", "moire method", "interferometry", and "stereo method" are used. You may use it.
(8) In the first imaging step of the embodiment, the slit light is irradiated in a state of overlapping the holes, but the slit light may be irradiated in a state of not overlapping the holes.
C…カメラ(撮像部)、L…光源、S…孔(所定の特徴部)、Te…エッジ、W…ワーク(対象物)、10A,10B…画像データ(第1画像データ)、10C…画像データ(第2画像データ)、12…情報処理部 C ... camera (imaging unit), L ... light source, S ... hole (predetermined feature unit), Te ... edge, W ... work (object), 10A, 10B ... image data (first image data), 10C ... image Data (second image data), 12 ... Information processing department
Claims (2)
前記対象物の様子を撮像して画像データを得る撮像部と、
前記画像データに基づいて演算する情報処理部と、
を用いた3次元空間の位置の特定方法であって、
前記光源から前記対象物の表面に向けて前記照射光を照射して、前記表面に前記照射光が照射された様子を前記撮像部で撮像して第1画像データを得る第1撮像工程と、
前記第1画像データにおける前記照射光の位置に基づいて前記対象物の表面の3次元空間の位置を前記情報処理部で演算して特定する表面特定工程と、
前記対象物の表面に設けられた所定の特徴部を前記撮像部で撮像して第2画像データを得る第2撮像工程と、
前記第2画像データの前記所定の特徴部の外周からエッジを前記情報処理部で抽出するエッジ抽出工程と、
前記表面特定工程で特定した前記対象物の表面の3次元空間の位置における前記エッジの位置を前記情報処理部で演算して特定する位置特定工程と、
を備え、
前記表面特定工程は、前記第1画像データにおける前記所定の特徴部の周囲から離れた位置であって、前記所定の特徴部の外周縁から離れる方向に所定の寸法まで広がる領域内の前記照射光を用いることを特徴とする3次元空間の位置の特定方法。 A light source that irradiates the surface of an object with irradiation light,
An imaging unit that captures the state of the object and obtains image data,
An information processing unit that calculates based on the image data,
It is a method of specifying the position of the three-dimensional space using
A first imaging step of irradiating the surface of the object from the light source with the irradiation light and imaging the surface of the surface with the irradiation light by the imaging unit to obtain first image data.
A surface identification step of calculating and specifying a position in a three-dimensional space on the surface of the object based on the position of the irradiation light in the first image data by the information processing unit.
A second imaging step of obtaining a second image data by imaging a predetermined feature portion provided on the surface of the object with the imaging unit.
An edge extraction step of extracting an edge from the outer circumference of the predetermined feature portion of the second image data by the information processing unit, and
A position specifying step of calculating and specifying the position of the edge in the position of the surface of the object in the three-dimensional space specified in the surface specifying step by the information processing unit, and a position specifying step of specifying the position.
Equipped with a,
The surface identification step is a position away from the periphery of the predetermined feature portion in the first image data, and the irradiation light in a region extending to a predetermined dimension in a direction away from the outer peripheral edge of the predetermined feature portion. how to locate the three-dimensional space, characterized in that there use a.
前記対象物の様子を撮像して画像データを得る撮像部と、
前記画像データに基づいて演算する情報処理部と、
を用いた3次元空間の位置の特定方法であって、
前記光源から前記対象物の表面に向けて前記照射光を照射して、前記表面に前記照射光が照射された様子を前記撮像部で撮像して第1画像データを得る第1撮像工程と、
前記第1画像データにおける前記照射光の位置に基づいて前記対象物の表面の3次元空間の位置を前記情報処理部で演算して特定する表面特定工程と、
前記対象物の表面に設けられた所定の特徴部を前記撮像部で撮像して第2画像データを得る第2撮像工程と、
前記第2画像データの前記所定の特徴部の外周からエッジを前記情報処理部で抽出するエッジ抽出工程と、
前記表面特定工程で特定した前記対象物の表面の3次元空間の位置における前記エッジの位置を前記情報処理部で演算して特定する位置特定工程と、
前記位置特定工程において位置が特定された前記エッジに基づいて、前記所定の特徴部の特徴量を抽出する特徴量抽出工程と、
を備えることを特徴とする3次元空間の位置の特定方法。 A light source that irradiates the surface of an object with irradiation light,
An imaging unit that captures the state of the object and obtains image data,
An information processing unit that calculates based on the image data,
It is a method of specifying the position of the three-dimensional space using
A first imaging step of irradiating the surface of the object from the light source with the irradiation light and imaging the surface of the surface with the irradiation light by the imaging unit to obtain first image data.
A surface identification step of calculating and specifying a position in a three-dimensional space on the surface of the object based on the position of the irradiation light in the first image data by the information processing unit.
A second imaging step of obtaining a second image data by imaging a predetermined feature portion provided on the surface of the object with the imaging unit.
An edge extraction step of extracting an edge from the outer circumference of the predetermined feature portion of the second image data by the information processing unit, and
A position specifying step of calculating and specifying the position of the edge in the position of the surface of the object in the three-dimensional space specified in the surface specifying step by the information processing unit, and a position specifying step of specifying the position.
A feature amount extraction step of extracting a feature amount of the predetermined feature portion based on the edge whose position is specified in the position specifying step, and a feature amount extraction step.
How to locate the three dimensional space you comprising: a.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018024687A JP6944891B2 (en) | 2018-02-15 | 2018-02-15 | How to identify the position in 3D space |
PCT/JP2018/043430 WO2019159479A1 (en) | 2018-02-15 | 2018-11-26 | Method for identifying position in three-dimensional space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018024687A JP6944891B2 (en) | 2018-02-15 | 2018-02-15 | How to identify the position in 3D space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019138859A JP2019138859A (en) | 2019-08-22 |
JP6944891B2 true JP6944891B2 (en) | 2021-10-06 |
Family
ID=67618567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018024687A Active JP6944891B2 (en) | 2018-02-15 | 2018-02-15 | How to identify the position in 3D space |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6944891B2 (en) |
WO (1) | WO2019159479A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021020405A1 (en) | 2019-07-29 | 2021-02-04 | 住友建機株式会社 | Excavator |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010286355A (en) * | 2009-06-11 | 2010-12-24 | Suzuki Motor Corp | Through-hole measurement apparatus and workpiece shape quality determination apparatus |
JP6659098B2 (en) * | 2015-07-29 | 2020-03-04 | キヤノン株式会社 | Image processing method, image processing apparatus, program, and recording medium |
-
2018
- 2018-02-15 JP JP2018024687A patent/JP6944891B2/en active Active
- 2018-11-26 WO PCT/JP2018/043430 patent/WO2019159479A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2019138859A (en) | 2019-08-22 |
WO2019159479A1 (en) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109751973B (en) | Three-dimensional measuring device, three-dimensional measuring method, and storage medium | |
EP3168812B1 (en) | System and method for scoring clutter for use in 3d point cloud matching in a vision system | |
KR102296236B1 (en) | System and method for improved scoring of 3d poses and spurious point removal in 3d image data | |
EP3503033B1 (en) | Optical tracking system and optical tracking method | |
US20110001799A1 (en) | 3d sensor | |
JP2021192064A (en) | Three-dimensional measuring system and three-dimensional measuring method | |
EP1580693A2 (en) | System and method for excluding extraneous features from image inspection operations | |
JP2011185872A (en) | Information processor, and processing method and program of the same | |
CN107680125B (en) | System and method for automatically selecting three-dimensional alignment algorithm in vision system | |
KR102102291B1 (en) | Optical tracking system and optical tracking method | |
JP2020047049A (en) | Image processing device and image processing method | |
CN113290313B (en) | Laser processing control method and device and laser processing equipment | |
JP6621351B2 (en) | Image processing apparatus and image processing method for laser processing | |
KR102235999B1 (en) | Deformation processing support system and deformation processing support method | |
JP6944891B2 (en) | How to identify the position in 3D space | |
JP6797638B2 (en) | Image measuring device | |
US10228239B2 (en) | Measuring apparatus, measuring method, and article manufacturing method | |
CN110836647B (en) | Three-dimensional scanning system | |
CN112102473A (en) | Operation scene modeling method and system for distribution network live working robot | |
US11717970B2 (en) | Controller, control method using controller, and control system | |
CN114599476B (en) | Metal plate processing system, laser processing machine, metal plate processing method, and storage medium | |
CN114049304A (en) | 3D grating detection method and device, computer equipment and readable storage medium | |
JP4935606B2 (en) | Imaging system | |
CN110769221B (en) | Method for detecting corner of projected image in photographed image and projector | |
CN117830392B (en) | Environmental object identification method and imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6944891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |