JP7415856B2 - Object recognition device, object recognition method and program - Google Patents

Object recognition device, object recognition method and program Download PDF

Info

Publication number
JP7415856B2
JP7415856B2 JP2020147324A JP2020147324A JP7415856B2 JP 7415856 B2 JP7415856 B2 JP 7415856B2 JP 2020147324 A JP2020147324 A JP 2020147324A JP 2020147324 A JP2020147324 A JP 2020147324A JP 7415856 B2 JP7415856 B2 JP 7415856B2
Authority
JP
Japan
Prior art keywords
data
point
dimensional
target object
point data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020147324A
Other languages
Japanese (ja)
Other versions
JP2022042103A (en
Inventor
正士 桂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2020147324A priority Critical patent/JP7415856B2/en
Publication of JP2022042103A publication Critical patent/JP2022042103A/en
Application granted granted Critical
Publication of JP7415856B2 publication Critical patent/JP7415856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象物体の位置及び姿勢を認識する物体認識装置、物体認識方法及びプログラムに関するものである。 The present invention relates to an object recognition device, an object recognition method, and a program for recognizing the position and orientation of a target object.

従来、三次元センサにて計測した対象物体の位置及び姿勢を認識する物体認識に関する技術として、例えば、下記特許文献1に開示されるロボットシステムが知られている。このロボットシステムでは、三次元センサによって対象物体の表面形状を表すシーン点群データが取得されて、このシーン点群データから選択されたポイントペアの幾何学的関係を規定するポイントペア特徴量(PPF)が各ポイントペアについて計算されると、これらのポイントペア特徴量と予め用意されたモデル点群データから計算されたポイントペア特徴量とに基づいて、三次元シーンにおける対象物体の姿勢が認識される。これにより、箱の中に乱雑に積まれた複数の物体の中から把持すべき特定の物体の姿勢を把握でき、その物体を適切に把持することができる。 BACKGROUND ART Conventionally, as a technology related to object recognition that recognizes the position and orientation of a target object measured by a three-dimensional sensor, for example, a robot system disclosed in Patent Document 1 below is known. In this robot system, a three-dimensional sensor acquires scene point cloud data representing the surface shape of a target object, and a point pair feature value (PPF) that defines the geometric relationship of point pairs selected from this scene point cloud data is used. ) is calculated for each point pair, the pose of the target object in the 3D scene is recognized based on these point pair features and point pair features calculated from model point cloud data prepared in advance. Ru. This makes it possible to grasp the orientation of a specific object to be grasped from among the plurality of objects piled up randomly in the box, and to appropriately grasp the object.

特開2018-189510号公報Japanese Patent Application Publication No. 2018-189510

ところで、計測対象となる物体の色や材質等によっては、対象物体からの反射光が不安定になるため、計測結果にノイズが含まれる場合がある。例えば、表面が黒色の部材や鏡面反射が生じやすい金属部材、半透明の樹脂部材などでは、対象物体からの反射光が不安定になりやすく、計測結果にノイズが含まれやすくなる。このように発生したノイズの影響により、対象物体の位置及び姿勢に関して認識誤差が生じると、ロボットによる対象物体のピッキングミス等が発生しやすくなるという問題がある。 By the way, depending on the color, material, etc. of the object to be measured, the reflected light from the object becomes unstable, so that the measurement results may contain noise. For example, in the case of a member with a black surface, a metal member that is prone to specular reflection, a translucent resin member, etc., the reflected light from the target object is likely to be unstable, and the measurement results are likely to contain noise. If a recognition error occurs regarding the position and orientation of the target object due to the influence of the generated noise, there is a problem in that the robot is more likely to make a picking error of the target object.

このため、例えば、高性能なセンサを導入すると、センサ導入コストが高くなるだけでなくセンサ自体が大型化するために、ロボットアームに搭載できない等、用途が限られてしまう場合がある。また、計測回数を増やすことで計測精度を高めることができるが、計測時間が長くなることからレスポンスが悪化するという問題がある。 For this reason, for example, if a high-performance sensor is introduced, not only will the cost of introducing the sensor increase, but the sensor itself will also be large, which may limit its use, such as making it impossible to mount it on a robot arm. Furthermore, although measurement accuracy can be improved by increasing the number of measurements, there is a problem that the response deteriorates because the measurement time becomes longer.

本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、対象物体の位置及び姿勢の認識に関してノイズの影響を抑制し得る構成を提供することにある。 The present invention has been made to solve the above-mentioned problems, and its purpose is to provide a configuration that can suppress the influence of noise on recognition of the position and orientation of a target object.

上記目的を達成するため、特許請求の範囲の請求項1に記載の発明は、
対象物体(W)の三次元形状を表す点群データからなる三次元モデルデータを取得する取得部(11,16)と、
前記取得部により取得された前記三次元モデルデータから一対の点データを複数組選択する第1選択部(11)と、
前記第1選択部により選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第1特徴量算出部(11)と、
所定の計測範囲における前記対象物体の表面の形状を表す点群データからなる三次元計測データを計測する三次元センサ(12)と、
前記三次元センサにより計測された前記三次元計測データから一対の点データを複数組選択する第2選択部(11)と、
前記第2選択部により選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第2特徴量算出部(11)と、
前記第1特徴量算出部による算出結果と前記第2特徴量算出部による算出結果とに基づいて、前記三次元センサにより計測された前記対象物体の位置及び姿勢を認識する認識部(11)と、
を備え、
前記三次元センサにて計測される前記点データには、当該三次元センサから前記対象物体に向かう方向をZ軸とするXYZ三次元座標データが含まれ、
前記第2選択部は、前記三次元計測データから、基準点として選択された1つの点データと、前記基準点を基準とする座標系であって当該基準点との距離が前記Z軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において前記基準点との距離が最も小さくなる点データとを、前記一対の点データとして選択することを特徴とする。
なお、上記各括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
In order to achieve the above object, the invention described in claim 1 of the claims is as follows:
an acquisition unit (11, 16) that acquires three-dimensional model data consisting of point cloud data representing the three-dimensional shape of the target object (W);
a first selection unit (11) that selects a plurality of pairs of point data from the three-dimensional model data acquired by the acquisition unit;
a first feature amount calculation unit (11) that calculates a feature amount for each of the plurality of sets of the pair of point data selected by the first selection unit;
a three-dimensional sensor (12) that measures three-dimensional measurement data consisting of point cloud data representing the shape of the surface of the target object in a predetermined measurement range;
a second selection unit (11) that selects a plurality of pairs of point data from the three-dimensional measurement data measured by the three-dimensional sensor;
a second feature amount calculation unit (11) that calculates feature amounts for each of the plurality of sets of the pair of point data selected by the second selection unit;
a recognition unit (11) that recognizes the position and orientation of the target object measured by the three-dimensional sensor based on the calculation result by the first feature calculation unit and the calculation result by the second feature calculation unit; ,
Equipped with
The point data measured by the three-dimensional sensor includes XYZ three-dimensional coordinate data whose Z axis is a direction from the three-dimensional sensor toward the target object,
The second selection unit includes one point data selected as a reference point from the three-dimensional measurement data and a coordinate system based on the reference point, in which the distance to the reference point is X with respect to the Z axis. The method is characterized in that point data having the smallest distance from the reference point in a predetermined coordinate system whose coordinates have been transformed to be larger than the axis and the Y-axis are selected as the pair of point data.
Note that the reference numerals in parentheses above indicate correspondence with specific means described in the embodiments described later.

請求項1の発明では、三次元モデルデータから第1選択部により選択された複数組の一対の点データについてそれぞれ特徴量を算出する第1特徴量算出部の算出結果と、三次元センサにより計測された三次元計測データから第2選択部により選択された複数組の一対の点データについてそれぞれ特徴量を算出する第2特徴量算出部の算出結果とに基づいて、三次元センサにより計測された対象物体の位置及び姿勢が認識部により認識される。三次元センサにて計測される点データには、当該三次元センサから対象物体に向かう方向をZ軸とするXYZ三次元座標データが含まれ、第2選択部では、三次元計測データから、基準点として選択された1つの点データと、基準点を基準とする座標系であって当該基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において基準点との距離が最も小さくなる点データとが、一対の点データとして選択される。 In the invention of claim 1, the calculation result of the first feature amount calculation unit that calculates the feature amount for each of the plurality of pairs of point data selected by the first selection unit from the three-dimensional model data, and the measurement result by the three-dimensional sensor. 3D measurement data measured by the 3D sensor. The position and orientation of the target object are recognized by the recognition unit. The point data measured by the three-dimensional sensor includes XYZ three-dimensional coordinate data whose Z axis is the direction from the three-dimensional sensor toward the target object, and the second selection section selects a reference from the three-dimensional measurement data. One point data selected as a point and a predetermined coordinate system that is a coordinate system based on a reference point and whose coordinates are transformed so that the distance from the reference point is larger than the X and Y axes with respect to the Z axis. Point data having the smallest distance from the reference point are selected as a pair of point data.

対象物体からの反射光が不安定になるために生じるノイズは、対象物体に向かう方向で大きくなりやすい。すなわち、上述した変換の前の実座標系での点データのXYZ三次元座標データは、Z座標値がX座標値及びY座標値に対してノイズの影響を受けやすい。そうすると、最も距離が小さくなる一対の点データを複数組選択してそれぞれ特徴量を算出する場合に、Z座標値に関してノイズの影響を受けた点データが誤って選択されてしまったために、正確な特徴量が算出できなくなる。 Noise caused by unstable reflected light from a target object tends to increase in the direction toward the target object. That is, in the XYZ three-dimensional coordinate data of the point data in the real coordinate system before the above-described conversion, the Z coordinate value is more susceptible to noise than the X coordinate value and the Y coordinate value. Then, when selecting multiple pairs of point data with the smallest distance and calculating the feature values for each, point data affected by noise regarding the Z coordinate value was incorrectly selected, resulting in accurate Feature values cannot be calculated.

このため、第2選択部では、上述のように基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において基準点との距離が最も小さくなる点データが選択される。このように選択された点データは、X座標値及びY座標値を、ノイズの影響を受けやすいZ座標値よりも重視するように選択されたものとなるからである。これにより、特徴量を算出するための一対の点データに関してノイズの可能性が高い点データが選択され難くなるので、対象物体の位置及び姿勢の認識に関してノイズの影響を抑制することができる。 Therefore, in the second selection section, the distance to the reference point is the smallest in the predetermined coordinate system in which the coordinates are transformed so that the distance to the reference point is larger with respect to the Z axis than the X and Y axes as described above. Point data is selected. This is because the point data selected in this way is selected so that the X-coordinate value and the Y-coordinate value are given more importance than the Z-coordinate value, which is more susceptible to noise. This makes it difficult to select point data that is likely to be noise among a pair of point data for calculating a feature amount, so it is possible to suppress the influence of noise on recognition of the position and orientation of the target object.

請求項2の発明では、請求項1と同様の効果を奏する物体認識方法を実現できる。
請求項3の発明では、請求項1と同様の効果を奏するプログラムを実現できる。
According to the second aspect of the invention, it is possible to realize an object recognition method that has the same effects as the first aspect.
According to the third aspect of the invention, it is possible to realize a program that has the same effects as the first aspect.

第1実施形態に係る物体認識装置を概略的に例示するブロック図である。FIG. 1 is a block diagram schematically illustrating an object recognition device according to a first embodiment. 一対の点データからPPFによって算出される特徴量を説明する説明図である。FIG. 3 is an explanatory diagram illustrating feature amounts calculated by PPF from a pair of point data. 物体認識装置の制御部にてなされる物体認識処理の流れを例示するフローチャートである。3 is a flowchart illustrating the flow of object recognition processing performed by the control unit of the object recognition device. 第1実施形態において仮想座標系と実座標系との関係を説明する説明図である。FIG. 3 is an explanatory diagram illustrating the relationship between a virtual coordinate system and a real coordinate system in the first embodiment. 仮想座標距離の算出例を説明する説明図である。FIG. 3 is an explanatory diagram illustrating an example of calculating a virtual coordinate distance. Z精度とX精度及びY精度との計測精度比を例示する説明図である。FIG. 3 is an explanatory diagram illustrating a measurement accuracy ratio of Z accuracy, X accuracy, and Y accuracy; 第1実施形態の第1変形例において仮想座標系と実座標系との関係を説明する説明図である。FIG. 7 is an explanatory diagram illustrating the relationship between a virtual coordinate system and a real coordinate system in a first modified example of the first embodiment. 第1実施形態の第2変形例においてθ≧θ’となる場合の仮想座標系と実座標系との関係を説明する説明図である。FIG. 7 is an explanatory diagram illustrating the relationship between the virtual coordinate system and the real coordinate system when θ≧θ′ in the second modification of the first embodiment. 第1実施形態の第2変形例においてθ<θ’となる場合の仮想座標系と実座標系との関係を説明する説明図である。FIG. 7 is an explanatory diagram illustrating the relationship between the virtual coordinate system and the real coordinate system when θ<θ' in the second modification of the first embodiment.

[第1実施形態]
以下、本第1実施形態に係る物体認識装置、物体認識方法及びプログラムについて、図面を参照して説明する。
図1に示す物体認識装置10は、三次元センサにより計測された対象物体の位置及び姿勢を認識する装置である。より具体的には、物体認識装置10は、対象物体となるワークWを把持して移動させるロボットアーム(図示略)に搭載されており、予め取得して記憶部に記憶したワークWの三次元モデルデータを利用して、ロボットアームの制御部に対して、把持すべきワークWの位置及び姿勢等に関する情報を出力するように構成されている。なお、ワークWの三次元モデルデータは、当該ワークWの三次元形状を表す点群データによって構成されるもので、各点群データにはそれぞれ三次元座標データ及び法線ベクトルが含まれている。
[First embodiment]
The object recognition device, object recognition method, and program according to the first embodiment will be described below with reference to the drawings.
The object recognition device 10 shown in FIG. 1 is a device that recognizes the position and orientation of a target object measured by a three-dimensional sensor. More specifically, the object recognition device 10 is mounted on a robot arm (not shown) that grasps and moves a workpiece W, which is a target object, and uses three-dimensional data of the workpiece W acquired in advance and stored in a storage unit. The robot arm is configured to use the model data to output information regarding the position, orientation, etc. of the workpiece W to be gripped to the control unit of the robot arm. Note that the three-dimensional model data of the workpiece W is composed of point cloud data representing the three-dimensional shape of the workpiece W, and each point cloud data includes three-dimensional coordinate data and a normal vector. .

物体認識装置10は、CPU等からなる制御部11や三次元センサ12、半導体メモリ等からなる記憶部13に加えて、操作部14及び表示部15やロボットアーム等の外部機器と通信するための通信部16などを備えている。 The object recognition device 10 includes a control section 11 made up of a CPU, etc., a three-dimensional sensor 12, a storage section 13 made up of a semiconductor memory, etc., as well as an operation section 14, a display section 15, and a device for communicating with external devices such as a robot arm. It includes a communication section 16 and the like.

三次元センサ12は、所定の計測範囲におけるワークWなどの対象物体からの反射光を受光することで、その対象物体の表面の三次元形状を表す点群データからなる三次元計測データを計測するように機能する。点群データを構成する多数の点データには、それぞれ、三次元センサ12から対象物体に向かう方向をZ軸とするXYZ三次元座標データ及び法線ベクトルが含まれている。 The three-dimensional sensor 12 measures three-dimensional measurement data consisting of point cloud data representing the three-dimensional shape of the surface of the target object by receiving reflected light from a target object such as the workpiece W in a predetermined measurement range. It works like this. A large number of point data constituting the point group data each include XYZ three-dimensional coordinate data and a normal vector whose Z axis is the direction from the three-dimensional sensor 12 toward the target object.

このように構成される物体認識装置10では、当該物体認識装置10を制御するコンピュータとして機能する制御部11にて実行される所定のプログラム(以下、物体認識プログラムともいう)によって実現される物体認識処理により、ワークWの位置及び姿勢が認識される。この物体認識処理では、三次元センサ12の三次元計測データから算出される特徴量の算出結果と予め取得したワークWの三次元モデルデータから算出される特徴量の算出結果とに基づいて、三次元センサ12により計測されたワークWの位置及び姿勢が認識されて、その認識結果がロボットアームの制御部に出力される。 In the object recognition device 10 configured as described above, object recognition is realized by a predetermined program (hereinafter also referred to as an object recognition program) executed by the control unit 11 that functions as a computer that controls the object recognition device 10. Through the process, the position and orientation of the workpiece W are recognized. In this object recognition process, the three-dimensional The position and orientation of the workpiece W measured by the original sensor 12 are recognized, and the recognition results are output to the control section of the robot arm.

より具体的には、点群データから一対の点データを複数組選択して、図2に例示するように、距離dだけ離れた一対の点データのXYZ三次元座標データ(m1,m2)及び法線ベクトル(n1,n2)からPoint Pair Feature(PPF)と呼ばれる算出方法を用いて特徴量(F1~F4)が算出される。このように算出される特徴量は、2点間の変位ベクトルとその2点における法線ベクトルとの幾何学的関係を表す4次元量に相当するもので、全ての一対の点データごとに特徴量が計算される。このような特徴量の算出が三次元センサ12を利用して計測されたワークWの三次元計測データと予め取得したワークWの三次元モデルデータとについてそれぞれなされ、それぞれ算出された特徴量のマッチングに応じてワークWの位置及び姿勢が認識される。 More specifically, multiple pairs of point data are selected from the point cloud data, and as illustrated in FIG. 2, XYZ three-dimensional coordinate data (m1, m2) and Feature quantities (F1 to F4) are calculated from the normal vectors (n1, n2) using a calculation method called Point Pair Feature (PPF). The feature quantity calculated in this way corresponds to a four-dimensional quantity that expresses the geometric relationship between the displacement vector between two points and the normal vector at those two points, and the feature quantity is calculated for each pair of point data. The amount is calculated. Calculations of such feature quantities are performed for each of the three-dimensional measurement data of the workpiece W measured using the three-dimensional sensor 12 and the three-dimensional model data of the workpiece W acquired in advance, and the respective calculated feature quantities are matched. The position and orientation of the workpiece W are recognized according to the .

特に、本実施形態では、三次元計測データにおける特徴量の算出に関して、基準点として選択された1つの点データと、この基準点を基準とする座標系であって当該基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系(以下、仮想座標系ともいう)において上記基準点との距離が最も小さくなる点データとを、一対の点データとして選択する。 In particular, in this embodiment, regarding the calculation of feature amounts in three-dimensional measurement data, one point data selected as a reference point and a coordinate system based on this reference point, and the distance to the reference point is Z. In a predetermined coordinate system (hereinafter also referred to as a virtual coordinate system) whose coordinates have been transformed so that the axes are larger than the X-axis and Y-axis, the point data whose distance from the above reference point is the smallest is set as a pair of point data. select.

以下、このように、Z軸に関して基準点との距離が大きくなるように座標変換した仮想座標系において基準点との距離が最も小さくなる点データを選択する理由について説明する。 The reason why point data having the smallest distance from the reference point in the virtual coordinate system in which the coordinates have been transformed so that the distance from the reference point to the reference point becomes larger with respect to the Z axis is selected will be explained below.

計測対象となる物体の色や材質等によっては、対象物体からの反射光が不安定になるために計測結果にノイズが含まれる場合がある。例えば、その表面が黒色の部材や鏡面反射が生じやすい金属部材、半透明の樹脂部材などからなるワークWを計測対象とする場合、ワークWからの反射光が不安定になりやすく、計測結果にノイズが含まれやすくなる。このように発生したノイズの影響により、ワークWの位置及び姿勢に関して認識誤差が生じると、ロボットによるワークWのピッキングミス等が発生しやすくなるという問題がある。 Depending on the color, material, etc. of the object to be measured, the reflected light from the object may become unstable, so that the measurement results may contain noise. For example, when measuring a workpiece W made of a member with a black surface, a metal member that is prone to specular reflection, a semitransparent resin member, etc., the reflected light from the workpiece W is likely to be unstable, and the measurement results may be affected. Noise is likely to be included. If a recognition error occurs regarding the position and orientation of the workpiece W due to the influence of the generated noise, there is a problem in that the robot is more likely to make a picking error of the workpiece W.

上述のように対象物体からの反射光が不安定になるために生じるノイズは、対象物体に向かう方向で大きくなりやすい。すなわち、対象物体に向かう方向をZ軸とするとき、上述した変換の前の実座標系での点データのXYZ三次元座標データは、Z座標値がX座標値及びY座標値に対してノイズの影響を受けやすい。そうすると、実座標系において最も距離が小さくなる一対の点データを複数組選択してそれぞれ特徴量を算出する場合に、Z座標値に関してノイズの影響を受けた点データが誤って選択されてしまったために、正確な特徴量が算出できなくなる場合がある。 As described above, the noise generated because the reflected light from the target object becomes unstable tends to increase in the direction toward the target object. In other words, when the direction toward the target object is taken as the Z axis, the XYZ three-dimensional coordinate data of the point data in the real coordinate system before the above-mentioned transformation is such that the Z coordinate value is noise compared to the X and Y coordinate values. susceptible to. Then, when selecting multiple pairs of point data with the smallest distance in the real coordinate system and calculating the feature values for each, point data affected by noise regarding the Z coordinate value was incorrectly selected. In some cases, it may become impossible to calculate accurate feature quantities.

そこで、本実施形態において制御部11にてなされる物体認識処理では、上述のように基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した仮想座標系において基準点との距離が最も小さくなる点データと、その基準点とを、一対の点データとして選択する。このように選択された点データは、X座標値及びY座標値を、ノイズの影響を受けやすいZ座標値よりも重視するように選択されたものとなるからである。これにより、特徴量を算出するための一対の点データに関してノイズの可能性が高い点データが選択され難くなるので、対象物体の位置及び姿勢の認識に関してノイズの影響を抑制することができる。 Therefore, in the object recognition process performed by the control unit 11 in this embodiment, the reference point is set in a virtual coordinate system in which the coordinates are transformed so that the distance from the reference point is larger on the Z axis than on the X and Y axes, as described above. The point data whose distance to the point is the smallest and its reference point are selected as a pair of point data. This is because the point data selected in this way is selected so that the X-coordinate value and the Y-coordinate value are given more importance than the Z-coordinate value, which is more susceptible to noise. This makes it difficult to select point data that is likely to be noise among a pair of point data for calculating a feature amount, so it is possible to suppress the influence of noise on recognition of the position and orientation of the target object.

以下、制御部11にてなされる物体認識処理について、図3に示すフローチャートを参照して詳述する。
操作部14に対する所定の操作等に応じて制御部11により物体認識処理が開始されると、まず、ステップS101に示す三次元モデルデータ取得処理がなされる。この処理では、計測対象となるワークWの三次元モデルデータが、通信部16を介して外部機器等から取得されて、記憶部13に記憶される。なお、制御部11及び通信部16は、「取得部」の一例に相当し得る。
The object recognition process performed by the control unit 11 will be described in detail below with reference to the flowchart shown in FIG.
When the object recognition process is started by the control unit 11 in response to a predetermined operation on the operation unit 14, first, a three-dimensional model data acquisition process shown in step S101 is performed. In this process, three-dimensional model data of the workpiece W to be measured is acquired from an external device or the like via the communication unit 16 and stored in the storage unit 13. Note that the control unit 11 and the communication unit 16 may correspond to an example of an “acquisition unit”.

次に、ステップS103に示す点データ選択処理がなされ、取得された三次元モデルデータから一対の点データが上述のように複数組選択される。続いて、ステップS105に示す三次元モデル特徴量算出処理がなされ、選択された全ての一対の点データごとに、上述したPPFを利用した特徴量(以下、三次元モデル特徴量ともいう)が算出される。なお、ステップS103の点データ選択処理は、「第1選択ステップ」の一例に相当し、この点データ選択処理を実行する制御部11は、「第1選択部」の一例に相当し得る。また、ステップS105の三次元モデル特徴量算出処理は、「第1特徴量算出ステップ」の一例に相当し、この三次元モデル特徴量算出処理を実行する制御部11は、「第1特徴量算出部」の一例に相当し得る。 Next, point data selection processing shown in step S103 is performed, and a plurality of pairs of point data are selected from the acquired three-dimensional model data as described above. Subsequently, a three-dimensional model feature calculation process shown in step S105 is performed, and feature quantities (hereinafter also referred to as three-dimensional model feature quantities) using the above-mentioned PPF are calculated for each pair of selected point data. be done. Note that the point data selection process in step S103 may correspond to an example of a "first selection step," and the control unit 11 that executes this point data selection process may correspond to an example of a "first selection unit." Further, the three-dimensional model feature calculation process in step S105 corresponds to an example of a "first feature calculation step", and the control unit 11 that executes this three-dimensional model feature calculation process performs a "first feature calculation step". This may correspond to an example of "part".

このように、三次元モデル特徴量が算出されると、ステップS107に示す三次元計測データ計測処理がなされ、三次元センサ12により、所定の計測範囲におけるワークWの表面の形状を表す点群データからなる三次元計測データが計測される。 When the three-dimensional model feature quantity is calculated in this way, the three-dimensional measurement data measurement process shown in step S107 is performed, and the three-dimensional sensor 12 collects point cloud data representing the shape of the surface of the workpiece W in a predetermined measurement range. Three-dimensional measurement data consisting of is measured.

次に、ステップS109に示す点データ選択処理がなされ、計測された三次元計測データから一対の点データが上述した座標変換を利用して複数組選択される。なお、ステップS109の点データ選択処理は、「第2選択ステップ」の一例に相当し、この点データ選択処理を実行する制御部11は、「第2選択部」の一例に相当し得る。 Next, point data selection processing shown in step S109 is performed, and a plurality of pairs of point data are selected from the measured three-dimensional measurement data using the coordinate transformation described above. Note that the point data selection process in step S109 may correspond to an example of a "second selection step," and the control unit 11 that executes this point data selection process may correspond to an example of a "second selection unit."

具体的には、本実施形態では、図4に示すように、実座標系における正円C1が楕円C2に変換される仮想座標系において、基準点Poに対して選択候補となる点(以下、ペア候補点Pcともいう)と基準点Poとの距離(以下、仮想座標距離ともいう)を算出して、この仮想座標距離が最も短くなるペア候補点Pcを選択する。図4のa,bは、楕円C2の縦横比率パラメータであり、長軸aに対して短軸bを小さくするほど、仮想座標距離に関して、Z座標値の影響がX座標値及びY座標値に対して小さくなる。 Specifically, in this embodiment, as shown in FIG. 4, in a virtual coordinate system in which a perfect circle C1 in a real coordinate system is transformed into an ellipse C2, points (hereinafter referred to as The distance between the pair candidate point Pc) and the reference point Po (hereinafter also referred to as virtual coordinate distance) is calculated, and the pair candidate point Pc with the shortest virtual coordinate distance is selected. A and b in FIG. 4 are the aspect ratio parameters of the ellipse C2, and the smaller the short axis b is with respect to the long axis a, the more the Z coordinate value affects the X and Y coordinate values with respect to the virtual coordinate distance. It becomes smaller.

このため、図4の正円C1上に位置するペア候補点Pcと基準点Poとの実座標距離をD1、このペア候補点Pcと基準点Poとを繋ぐ直線と図4の楕円C2との交点までの実座標距離をD2とするとき、実座標系から仮想座標系に変換する変換係数r2は、D2/D1に基づいて、ペア候補点Pcの図4での角度θを利用して、図4の式(1)が成立する。なお、角度θは、基準点Poの座標を(0,0,0)、ペア候補点Pcの座標を(x,y,z)とするとき、図4の式(2)によって表される。 Therefore, the actual coordinate distance between the pair candidate point Pc located on the perfect circle C1 in FIG. 4 and the reference point Po is D1, and the distance between the straight line connecting this pair candidate point Pc and the reference point Po and the ellipse C2 in FIG. When the real coordinate distance to the intersection is D2, the conversion coefficient r2 for converting from the real coordinate system to the virtual coordinate system is based on D2/D1 and using the angle θ of the pair candidate point Pc in FIG. Equation (1) in FIG. 4 holds true. Note that the angle θ is expressed by equation (2) in FIG. 4 when the coordinates of the reference point Po are (0, 0, 0) and the coordinates of the pair candidate point Pc are (x, y, z).

このため、楕円C2の縦横比率パラメータa,bと角度θとから求めた変換係数r2に基づいて、仮想座標距離を、D1/r2として求め、この仮想座標距離が最も短くなるペア候補点Pcを、その基準点とのペアとして選択する。例えば、変換係数r2が0.7として算出された場合に、実座標距離D1が1mmとして計測されていると、仮想座標距離は、1.43mmとして算出される。 Therefore, based on the conversion coefficient r2 obtained from the aspect ratio parameters a and b of the ellipse C2 and the angle θ, the virtual coordinate distance is obtained as D1/r2, and the pair candidate point Pc at which this virtual coordinate distance is the shortest is found. , and select it as a pair with that reference point. For example, when the conversion coefficient r2 is calculated as 0.7 and the actual coordinate distance D1 is measured as 1 mm, the virtual coordinate distance is calculated as 1.43 mm.

このように、仮想座標系での仮想座標距離が最も短くなるペア候補点Pcを選択することで、ノイズが生じやすいZ座標値の影響をX座標値及びY座標値に対して小さくすることができる。 In this way, by selecting the pair candidate point Pc for which the virtual coordinate distance in the virtual coordinate system is the shortest, it is possible to reduce the influence of the Z coordinate value, which tends to cause noise, on the X and Y coordinate values. can.

例えば、図5に例示するように、長軸a:短軸bが1:0.5となる楕円C2に実座標系における正円C1が変換される仮想座標系において、基準点Po(0,0,0)に関して、ペア候補点Pc1(1,1,0)とペア候補点Pc2(1,0,1)とで仮想座標距離を算出する場合を想定する。ペア候補点Pc1(1,1,0)は、θ=0°、r2=1となることから、仮想座標距離は1.41として算出される。一方、ペア候補点Pc2(1,0,1)は、θ=45°、r2=0.63となることから、仮想座標距離は2.24として算出される。このため、仮想座標距離が短くなるペア候補点Pc1(1,1,0)が選択される。 For example, as illustrated in FIG. 5, in a virtual coordinate system in which a perfect circle C1 in the real coordinate system is transformed into an ellipse C2 with a ratio of major axis a to minor axis b of 1:0.5, the reference point Po(0, 0, 0), a case is assumed in which a virtual coordinate distance is calculated between a pair candidate point Pc1 (1, 1, 0) and a pair candidate point Pc2 (1, 0, 1). Since the pair candidate point Pc1 (1, 1, 0) has θ=0° and r2=1, the virtual coordinate distance is calculated as 1.41. On the other hand, since θ=45° and r2=0.63 for the pair candidate point Pc2 (1,0,1), the virtual coordinate distance is calculated as 2.24. Therefore, the pair candidate point Pc1 (1, 1, 0) whose virtual coordinate distance is short is selected.

上述のように仮想座標系を考慮しない場合には、基準点Poからペア候補点Pc1までの実座標距離と基準点Poからペア候補点Pc2までの実座標距離とは同じになるため、上述のような仮想座標系を考慮することで、Z座標値の影響をX座標値及びY座標値に対して小さくできていることがわかる。 If the virtual coordinate system is not considered as described above, the actual coordinate distance from the reference point Po to the pair candidate point Pc1 is the same as the actual coordinate distance from the reference point Po to the pair candidate point Pc2, so the above-mentioned It can be seen that by considering such a virtual coordinate system, the influence of the Z coordinate value can be reduced on the X and Y coordinate values.

上述のようにステップS109の点データ選択処理にて三次元計測データから複数組の一対の点データが複数組選択されると、ステップS111に示す三次元計測特徴量算出処理がなされ、選択された全ての一対の点データごとに、上述したPPFを利用した特徴量(以下、三次元計測特徴量ともいう)が算出される。なお、ステップS111の三次元計測特徴量算出処理は、「第2特徴量算出ステップ」の一例に相当し、この三次元計測特徴量算出処理を実行する制御部11は、「第2特徴量算出部」の一例に相当し得る。 As described above, when a plurality of pairs of point data are selected from the three-dimensional measurement data in the point data selection process in step S109, the three-dimensional measurement feature calculation process shown in step S111 is performed to select the selected points. A feature amount (hereinafter also referred to as a three-dimensional measurement feature amount) using the above-mentioned PPF is calculated for each pair of point data. Note that the three-dimensional measurement feature calculation process in step S111 corresponds to an example of a "second feature calculation step", and the control unit 11 that executes this three-dimensional measurement feature calculation process performs a "second feature calculation step". This may correspond to an example of "part".

続いて、ステップS113に示す認識処理がなされ、算出された各三次元モデル特徴量と各三次元計測特徴量とのマッチングに基づいて、三次元センサ12により計測されたワークWの位置及び姿勢が認識される。そして、ステップS115に示す出力処理がなされ、上述のようにワークWに関して認識された認識結果等に関する情報が、通信部16を介してロボットアームの制御部に出力される。なお、ステップS113の認識処理を実行する制御部11は、「認識部」の一例に相当し得る。 Next, the recognition process shown in step S113 is performed, and the position and orientation of the workpiece W measured by the three-dimensional sensor 12 are determined based on the matching between each calculated three-dimensional model feature and each three-dimensional measurement feature. Recognized. Then, the output process shown in step S115 is performed, and information regarding the recognition result etc. of the workpiece W as described above is outputted to the control unit of the robot arm via the communication unit 16. Note that the control unit 11 that executes the recognition process in step S113 may correspond to an example of a “recognition unit”.

このように、ロボットアームの制御部では、把持すべきワークWの位置及び姿勢を物体認識装置10から取得できるので、そのワークWを正確に把持することができる。 In this way, the control unit of the robot arm can acquire the position and orientation of the workpiece W to be gripped from the object recognition device 10, so that the workpiece W can be gripped accurately.

以上説明したように、本実施形態に係る物体認識装置10では、三次元モデルデータからステップS103の点データ選択処理により選択された複数組の一対の点データについてそれぞれ特徴量を算出するステップS105の三次元モデル特徴量算出処理の算出結果と、三次元センサ12により計測された三次元計測データからステップS109の点データ選択処理により選択された複数組の一対の点データについてそれぞれ特徴量を算出するステップS111の三次元計測特徴量算出処理の算出結果とに基づいて、三次元センサ12により計測されたワークWの位置及び姿勢がステップS113の認識処理により認識される。三次元センサ12にて計測される点データには、当該三次元センサ12からワークWに向かう方向をZ軸とするXYZ三次元座標データが含まれ、ステップS109の点データ選択処理では、三次元計測データから、基準点として選択された1つの点データと、基準点を基準とする座標系であって当該基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において基準点との距離が最も小さくなる点データとが、一対の点データとして選択される。 As explained above, in the object recognition device 10 according to the present embodiment, the feature amount is calculated in step S105 for each of the plurality of pairs of point data selected from the three-dimensional model data in the point data selection process in step S103. From the calculation results of the three-dimensional model feature amount calculation process and the three-dimensional measurement data measured by the three-dimensional sensor 12, feature amounts are calculated for each of the plurality of pairs of point data selected in the point data selection process of step S109. Based on the calculation result of the three-dimensional measurement feature amount calculation process of step S111, the position and orientation of the workpiece W measured by the three-dimensional sensor 12 are recognized by the recognition process of step S113. The point data measured by the three-dimensional sensor 12 includes XYZ three-dimensional coordinate data whose Z axis is the direction from the three-dimensional sensor 12 toward the workpiece W. In the point data selection process in step S109, three-dimensional From the measurement data, coordinate transformation is performed using one point data selected as a reference point and a coordinate system based on the reference point such that the distance to the reference point is larger on the Z axis than on the X and Y axes. Point data having the smallest distance from the reference point in the predetermined coordinate system are selected as a pair of point data.

このように、ステップS109の点データ選択処理では、基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において基準点との距離が最も小さくなる点データが選択される。このように選択された点データは、X座標値及びY座標値を、ノイズの影響を受けやすいZ座標値よりも重視するように選択されたものとなるからである。これにより、特徴量を算出するための一対の点データに関してノイズの可能性が高い点データが選択され難くなるので、対象物体の位置及び姿勢の認識に関してノイズの影響を抑制することができる。 In this way, in the point data selection process in step S109, the distance to the reference point is the smallest in the predetermined coordinate system in which the coordinates are transformed so that the distance to the reference point is larger on the Z axis than on the X and Y axes. Point data is selected. This is because the point data selected in this way is selected so that the X-coordinate value and the Y-coordinate value are given more importance than the Z-coordinate value, which is more susceptible to noise. This makes it difficult to select point data that is likely to be noise among a pair of point data for calculating a feature amount, so it is possible to suppress the influence of noise on recognition of the position and orientation of the target object.

なお、上記ステップS109に示す点データ選択処理にて利用される座標変換では、長軸a:短軸bが1:0.5となる楕円C2に実座標系における正円C1が変換される処理が採用されることに限らず、対象物体等に応じて、他の楕円比率にて変換される処理が採用されてもよい。例えば、図6に示すような計測精度比の対象物体に対して物体認識処理を行う場合には、Z精度がX精度やY精度に対して約100倍となっていることから、長軸a:短軸bが1:0.01となる楕円に実座標系における正円が変換される処理を採用してもよい。 Note that in the coordinate transformation used in the point data selection process shown in step S109 above, a perfect circle C1 in the real coordinate system is transformed into an ellipse C2 with a ratio of major axis a to minor axis b of 1:0.5. is not limited to this, but a process of converting at another ellipse ratio may be employed depending on the target object or the like. For example, when performing object recognition processing on a target object with a measurement accuracy ratio as shown in Fig. 6, since the Z accuracy is approximately 100 times the X accuracy and Y accuracy, : Processing may be adopted in which a perfect circle in the real coordinate system is transformed into an ellipse with the short axis b of 1:0.01.

また、上記ステップS109に示す点データ選択処理にて利用される座標変換は、上述した実座標系における正円が楕円に変換される仮想座標系が採用されることに限らず、基準点との距離がZ軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系であればよい。 Furthermore, the coordinate transformation used in the point data selection process shown in step S109 is not limited to the virtual coordinate system in which a perfect circle in the real coordinate system is transformed into an ellipse as described above; Any predetermined coordinate system may be used as long as the coordinates are transformed so that the distance is larger on the Z axis than on the X and Y axes.

例えば、本実施形態の第1変形例として、図7に例示するように、実座標系における正円C1が菱形C3(長軸a,短軸b)に変換される仮想座標系が採用されてもよい。この仮想座標系では、図7の正円C1上に位置するペア候補点Pcと基準点Poとの実座標距離をD1、このペア候補点Pcと基準点Poとを繋ぐ直線と図7の菱形C3との交点までの実座標距離をD3とするとき、実座標系から仮想座標系に変換する変換係数r3は、D3/D1に基づいて、ペア候補点Pcの図7での角度θを利用して、図7の式(3)が成立する。なお、角度θは、基準点Poの座標を(0,0,0)、ペア候補点Pcの座標を(x,y,z)とするとき、図7の式(4)によって表される。 For example, as a first modification of the present embodiment, as illustrated in FIG. 7, a virtual coordinate system is adopted in which a perfect circle C1 in the real coordinate system is transformed into a rhombus C3 (major axis a, minor axis b). Good too. In this virtual coordinate system, the actual coordinate distance between the pair candidate point Pc located on the perfect circle C1 in FIG. 7 and the reference point Po is D1, and the straight line connecting this pair candidate point Pc and the reference point Po is the diamond in FIG. When the real coordinate distance to the intersection with C3 is D3, the conversion coefficient r3 for converting from the real coordinate system to the virtual coordinate system uses the angle θ of the pair candidate point Pc in FIG. 7 based on D3/D1. Therefore, equation (3) in FIG. 7 is established. Note that the angle θ is expressed by equation (4) in FIG. 7 when the coordinates of the reference point Po are (0, 0, 0) and the coordinates of the pair candidate point Pc are (x, y, z).

図7に示すような仮想座標系を採用することで、楕円を利用した仮想座標系に対して、よりシビアに基準点とペア候補点の選択が行われるため、低精度な認識による誤動作が許容されず、高精度な認識結果を保証することが要求される用途に適用することができる。具体的には、例えば、高精度な三次元センサとロボットを組み合わせたシステムによる、精密部品のピッキングや組付けなどに採用することができる。 By adopting a virtual coordinate system as shown in Figure 7, the selection of reference points and pair candidate points is performed more rigorously for the virtual coordinate system using an ellipse, so malfunctions due to low-accuracy recognition are tolerated. It can be applied to applications where it is required to guarantee highly accurate recognition results. Specifically, for example, a system that combines a high-precision three-dimensional sensor and a robot can be used for picking and assembling precision parts.

また、例えば、本実施形態の第2変形例として、図8及び図9に例示するように、実座標系における正円C1が長方形C4(長軸a,短軸b)に変換される仮想座標系が採用されてもよい。この仮想座標系では、図8及び図9に示すように、正円C1上に位置するペア候補点Pcと基準点Poとの実座標距離をD1、このペア候補点Pcと基準点Poとを繋ぐ直線と長方形C4との交点までの実座標距離をD4とするとき、実座標系から仮想座標系に変換する変換係数r4は、D4/D1に基づいて、ペア候補点Pcの角度θを利用して、図8の式(5)又は図9の式(6)が成立する。なお、θ≧θ’となる場合に図8の式(5)が成立し、θ<θ’となる場合に図9の式(6)が成立する。また、角度θは、基準点Poの座標を(0,0,0)、ペア候補点Pcの座標を(x,y,z)とするとき、図8及び図9の式(7)によって表され、角度θ’は、図8及び図9の式(8)によって表される。 For example, as a second modification of the present embodiment, as illustrated in FIGS. 8 and 9, a virtual coordinate system in which a perfect circle C1 in the real coordinate system is transformed into a rectangle C4 (long axis a, short axis b) system may be adopted. In this virtual coordinate system, as shown in FIGS. 8 and 9, the actual coordinate distance between the pair candidate point Pc located on the perfect circle C1 and the reference point Po is D1, and the pair candidate point Pc and the reference point Po are When the real coordinate distance to the intersection of the connecting straight line and the rectangle C4 is D4, the conversion coefficient r4 for converting from the real coordinate system to the virtual coordinate system uses the angle θ of the pair candidate point Pc based on D4/D1. Therefore, equation (5) in FIG. 8 or equation (6) in FIG. 9 is established. Note that equation (5) in FIG. 8 holds true when θ≧θ', and equation (6) in FIG. 9 holds true when θ<θ'. In addition, the angle θ is expressed by equation (7) in FIGS. 8 and 9 when the coordinates of the reference point Po are (0, 0, 0) and the coordinates of the pair candidate point Pc are (x, y, z). The angle θ' is expressed by equation (8) in FIGS. 8 and 9.

図8及び図9に示すような仮想座標系を採用することで、よりルーズに基準点とペア候補点の選択が行われるため、低精度な認識が許容されるような用途に適用することができる。具体的には、例えば、低精度な三次元センサとロボットを組み合わせたシステムで、大型のパレット搬送などに採用することができる。 By adopting a virtual coordinate system as shown in Figures 8 and 9, reference points and pair candidate points are selected more loosely, so it can be applied to applications where low-accuracy recognition is acceptable. can. Specifically, for example, it is a system that combines a low-precision three-dimensional sensor and a robot, and can be used to transport large pallets.

[他の実施形態]
なお、本発明は上記実施形態及び変形例等に限定されるものではなく、例えば、以下のように具体化してもよい。
(1)三次元モデルデータの特徴量は、上述した物体認識処理におけるステップS101,S103,S105の処理のように通信部16を介して取得した三次元モデルデータから算出されることに限らず、予め算出された三次元モデルデータの特徴量が外部機器等から通信部16を介して物体認識装置10に入力されてもよい。この場合、三次元モデルデータの特徴量を算出した外部機器等を物体認識装置10に含めることができる。
[Other embodiments]
Note that the present invention is not limited to the above-described embodiments and modifications, and may be embodied as follows, for example.
(1) The feature amount of the three-dimensional model data is not limited to being calculated from the three-dimensional model data acquired via the communication unit 16 as in steps S101, S103, and S105 in the object recognition process described above. Feature amounts of three-dimensional model data calculated in advance may be input to the object recognition device 10 via the communication unit 16 from an external device or the like. In this case, the object recognition device 10 may include an external device that calculates the feature amount of the three-dimensional model data.

(2)物体認識処理では、前回と同じ形状の対象物体の位置及び姿勢を認識する場合には、前回得た三次元モデル特徴量を利用することで、ステップS101,S103,S105の処理を省略してもよい。 (2) In object recognition processing, when recognizing the position and orientation of a target object that has the same shape as the previous time, the processing of steps S101, S103, and S105 is omitted by using the 3D model feature obtained last time. You may.

(3)本発明は、PPFを用いて特徴量を算出する物体認識処理に採用されることに限らず、例えば、Fast Point Feature Histograms(FPFH)など、点群データから一対の点データを複数組選択して特徴点を算出する物体認識処理に採用することができる。 (3) The present invention is not limited to being applied to object recognition processing that calculates feature quantities using PPF, but is also applicable to multiple sets of point data from point cloud data, such as Fast Point Feature Histograms (FPFH). It can be employed in object recognition processing that selects and calculates feature points.

(4)本発明に係る物体認識装置10は、対象物体となるワークWを把持して移動させるロボットアームに搭載されるように構成されることに限らず、他の対象物体を認識する装置、例えば、侵入者有無判断する外周監視用の物体認識装置等として構成されてもよい。 (4) The object recognition device 10 according to the present invention is not limited to being configured to be mounted on a robot arm that grasps and moves a workpiece W as a target object, but is also a device for recognizing other target objects, For example, it may be configured as an object recognition device for monitoring the outer periphery to determine the presence or absence of an intruder.

10…物体認識装置
11…制御部(取得部,第1選択部,第1特徴量算出部,第2選択部,第2特徴量算出部,認識部)
12…三次元センサ
16…通信部(取得部)
W…ワーク(対象物体)
10...Object recognition device 11...Control unit (acquisition unit, first selection unit, first feature calculation unit, second selection unit, second feature calculation unit, recognition unit)
12...Three-dimensional sensor 16...Communication section (acquisition section)
W...Work (target object)

Claims (3)

対象物体の三次元形状を表す点群データからなる三次元モデルデータを取得する取得部と、
前記取得部により取得された前記三次元モデルデータから一対の点データを複数組選択する第1選択部と、
前記第1選択部により選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第1特徴量算出部と、
所定の計測範囲における前記対象物体の表面の形状を表す点群データからなる三次元計測データを計測する三次元センサと、
前記三次元センサにより計測された前記三次元計測データから一対の点データを複数組選択する第2選択部と、
前記第2選択部により選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第2特徴量算出部と、
前記第1特徴量算出部による算出結果と前記第2特徴量算出部による算出結果とに基づいて、前記三次元センサにより計測された前記対象物体の位置及び姿勢を認識する認識部と、
を備え、
前記三次元センサにて計測される前記点データには、当該三次元センサから前記対象物体に向かう方向をZ軸とするXYZ三次元座標データが含まれ、
前記第2選択部は、前記三次元計測データから、基準点として選択された1つの点データと、前記基準点を基準とする座標系であって当該基準点との距離が前記Z軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において前記基準点との距離が最も小さくなる点データとを、前記一対の点データとして選択することを特徴とする物体認識装置。
an acquisition unit that acquires three-dimensional model data consisting of point cloud data representing the three-dimensional shape of the target object;
a first selection unit that selects a plurality of pairs of point data from the three-dimensional model data acquired by the acquisition unit;
a first feature amount calculation unit that calculates a feature amount for each of the plurality of sets of the pair of point data selected by the first selection unit;
a three-dimensional sensor that measures three-dimensional measurement data consisting of point cloud data representing the shape of the surface of the target object in a predetermined measurement range;
a second selection unit that selects a plurality of pairs of point data from the three-dimensional measurement data measured by the three-dimensional sensor;
a second feature amount calculation unit that calculates feature amounts for each of the plurality of sets of the pair of point data selected by the second selection unit;
a recognition unit that recognizes the position and orientation of the target object measured by the three-dimensional sensor based on the calculation result by the first feature calculation unit and the calculation result by the second feature calculation unit;
Equipped with
The point data measured by the three-dimensional sensor includes XYZ three-dimensional coordinate data whose Z axis is a direction from the three-dimensional sensor toward the target object,
The second selection unit includes one point data selected as a reference point from the three-dimensional measurement data and a coordinate system based on the reference point, in which the distance to the reference point is X with respect to the Z axis. An object recognition device characterized in that point data having the smallest distance from the reference point in a predetermined coordinate system whose coordinates have been transformed so as to be larger than an axis and a Y axis are selected as the pair of point data.
三次元センサにより計測された対象物体の位置及び姿勢を認識する物体認識方法であって、
前記対象物体の三次元形状を表す点群データからなる三次元モデルデータを取得するステップと、
前記三次元モデルデータから一対の点データを複数組選択する第1選択ステップと、
前記第1選択ステップにより選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第1特徴量算出ステップと、
前記三次元センサによって所定の計測範囲における前記対象物体の表面の形状を表す点群データからなる三次元計測データを計測するステップと、
前記三次元計測データから一対の点データを複数組選択する第2選択ステップと、
前記第2選択ステップにより選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第2特徴量算出ステップと、
前記第1特徴量算出ステップによる算出結果と前記第2特徴量算出ステップによる算出結果とに基づいて、前記三次元センサにより計測された前記対象物体の位置及び姿勢を認識するステップと、
を備え、
前記三次元センサにて計測される前記点データには、当該三次元センサから前記対象物体に向かう方向をZ軸とするXYZ三次元座標データが含まれ、
前記第2選択ステップでは、前記三次元計測データから、基準点として選択された1つの点データと、前記基準点を基準とする座標系であって当該基準点との距離が前記Z軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において前記基準点との距離が最も小さくなる点データとが、前記一対の点データとして選択されることを特徴とする物体認識方法。
An object recognition method for recognizing the position and orientation of a target object measured by a three-dimensional sensor,
acquiring three-dimensional model data consisting of point cloud data representing the three-dimensional shape of the target object;
a first selection step of selecting a plurality of pairs of point data from the three-dimensional model data;
a first feature amount calculation step of calculating feature amounts for each of the plurality of sets of the pair of point data selected in the first selection step;
measuring three-dimensional measurement data consisting of point cloud data representing the shape of the surface of the target object in a predetermined measurement range using the three-dimensional sensor;
a second selection step of selecting a plurality of pairs of point data from the three-dimensional measurement data;
a second feature amount calculation step of calculating feature amounts for each of the plurality of sets of the pair of point data selected in the second selection step;
a step of recognizing the position and orientation of the target object measured by the three-dimensional sensor based on the calculation result of the first feature amount calculation step and the calculation result of the second feature amount calculation step;
Equipped with
The point data measured by the three-dimensional sensor includes XYZ three-dimensional coordinate data whose Z axis is a direction from the three-dimensional sensor toward the target object,
In the second selection step, one point data selected as a reference point from the three-dimensional measurement data and a coordinate system based on the reference point, the distance from which is X with respect to the Z axis. An object recognition method characterized in that point data having the smallest distance from the reference point in a predetermined coordinate system whose coordinates have been transformed so as to be larger than the axis and the Y axis are selected as the pair of point data. .
三次元センサにより計測された対象物体の位置及び姿勢を認識する物体認識装置を制御するコンピュータにより実行されるプログラムであって、
前記対象物体の三次元形状を表す点群データからなる三次元モデルデータを取得するステップと、
前記三次元モデルデータから一対の点データを複数組選択する第1選択ステップと、
前記第1選択ステップにより選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第1特徴量算出ステップと、
前記三次元センサによって所定の計測範囲における前記対象物体の表面の形状を表す点群データからなる三次元計測データを計測するステップと、
前記三次元計測データから一対の点データを複数組選択する第2選択ステップと、
前記第2選択ステップにより選択された複数組の前記一対の点データについてそれぞれ特徴量を算出する第2特徴量算出ステップと、
前記第1特徴量算出ステップによる算出結果と前記第2特徴量算出ステップによる算出結果とに基づいて、前記三次元センサにより計測された前記対象物体の位置及び姿勢を認識するステップと、
を前記コンピュータに実行させ、
前記三次元センサにて計測される前記点データには、当該三次元センサから前記対象物体に向かう方向をZ軸とするXYZ三次元座標データが含まれ、
前記第2選択ステップでは、前記三次元計測データから、基準点として選択された1つの点データと、前記基準点を基準とする座標系であって当該基準点との距離が前記Z軸に関してX軸及びY軸よりも大きくなるように座標変換した所定の座標系において前記基準点との距離が最も小さくなる点データとが、前記一対の点データとして選択されることを特徴とするプログラム。
A program executed by a computer that controls an object recognition device that recognizes the position and orientation of a target object measured by a three-dimensional sensor,
acquiring three-dimensional model data consisting of point cloud data representing the three-dimensional shape of the target object;
a first selection step of selecting a plurality of pairs of point data from the three-dimensional model data;
a first feature amount calculation step of calculating feature amounts for each of the plurality of sets of the pair of point data selected in the first selection step;
measuring three-dimensional measurement data consisting of point cloud data representing the shape of the surface of the target object in a predetermined measurement range using the three-dimensional sensor;
a second selection step of selecting a plurality of pairs of point data from the three-dimensional measurement data;
a second feature amount calculation step of calculating feature amounts for each of the plurality of sets of the pair of point data selected in the second selection step;
a step of recognizing the position and orientation of the target object measured by the three-dimensional sensor based on the calculation result of the first feature amount calculation step and the calculation result of the second feature amount calculation step;
cause the computer to execute
The point data measured by the three-dimensional sensor includes XYZ three-dimensional coordinate data whose Z axis is a direction from the three-dimensional sensor toward the target object,
In the second selection step, one point data selected as a reference point from the three-dimensional measurement data and a coordinate system based on the reference point, the distance from which is X with respect to the Z axis. A program characterized in that point data having the smallest distance from the reference point in a predetermined coordinate system whose coordinates have been transformed so as to be larger than an axis and a Y-axis are selected as the pair of point data.
JP2020147324A 2020-09-02 2020-09-02 Object recognition device, object recognition method and program Active JP7415856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020147324A JP7415856B2 (en) 2020-09-02 2020-09-02 Object recognition device, object recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020147324A JP7415856B2 (en) 2020-09-02 2020-09-02 Object recognition device, object recognition method and program

Publications (2)

Publication Number Publication Date
JP2022042103A JP2022042103A (en) 2022-03-14
JP7415856B2 true JP7415856B2 (en) 2024-01-17

Family

ID=80629387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147324A Active JP7415856B2 (en) 2020-09-02 2020-09-02 Object recognition device, object recognition method and program

Country Status (1)

Country Link
JP (1) JP7415856B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099793A (en) 2002-07-29 2003-04-04 Fujitsu Ltd Graphics editing method and graphics editing device
WO2010038774A1 (en) 2008-10-01 2010-04-08 株式会社 日立メディコ Biological light measurement device and position display method for displaying light irradiation position and light detection position, or measurement channel
JP2018189510A (en) 2017-05-08 2018-11-29 株式会社マイクロ・テクニカ Method and device for estimating position and posture of three-dimensional object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099793A (en) 2002-07-29 2003-04-04 Fujitsu Ltd Graphics editing method and graphics editing device
WO2010038774A1 (en) 2008-10-01 2010-04-08 株式会社 日立メディコ Biological light measurement device and position display method for displaying light irradiation position and light detection position, or measurement channel
JP2018189510A (en) 2017-05-08 2018-11-29 株式会社マイクロ・テクニカ Method and device for estimating position and posture of three-dimensional object

Also Published As

Publication number Publication date
JP2022042103A (en) 2022-03-14

Similar Documents

Publication Publication Date Title
JP6937995B2 (en) Object recognition processing device and method, and object picking device and method
US9182221B2 (en) Information processing apparatus and information processing method
JP5839971B2 (en) Information processing apparatus, information processing method, and program
JP6348097B2 (en) Work position and orientation calculation device and handling system
JP2016109630A (en) Information processing apparatus, information processing method, and program
JP2014169990A (en) Position/posture measuring apparatus and method
de Araujo et al. Computer vision system for workpiece referencing in three-axis machining centers
JP2012026895A (en) Position attitude measurement device, position attitude measurement method, and program
US20110246130A1 (en) Localization in Industrial Robotics Using Rao-Blackwellized Particle Filtering
CN105509671A (en) Method for calibrating central point of robot tool through employing plane calibration plate
KR101842286B1 (en) Method for Automatic Calibration of Robot
US11454498B2 (en) Coordinate measuring system
Boby Kinematic identification of industrial robot using end-effector mounted monocular camera bypassing measurement of 3-D pose
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
JP2020027439A (en) Information processing device and information processing method
JP7415856B2 (en) Object recognition device, object recognition method and program
US11713965B2 (en) Method and apparatus for determining a chamfer property of a workpiece chamfer and computer program
Bauer et al. Free-form surface analysis and linking strategies for high registration accuracy in quality assurance applications
JP7401682B2 (en) robot system
JP2011174891A (en) Device and method for measuring position and attitude, and program
CN111402342B (en) Multi-feature-point-based 3D point cloud processing method for industrial robot calibration
JP6628170B1 (en) Measurement system and measurement method
CN115082550A (en) Apparatus and method for locating position of object from camera image of object
CN110514149B (en) Non-contact type curved surface normal measuring device, system and method and electronic equipment
JP6766229B2 (en) Position and posture measuring device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150