JP7502641B2 - Recognition System - Google Patents

Recognition System Download PDF

Info

Publication number
JP7502641B2
JP7502641B2 JP2020191217A JP2020191217A JP7502641B2 JP 7502641 B2 JP7502641 B2 JP 7502641B2 JP 2020191217 A JP2020191217 A JP 2020191217A JP 2020191217 A JP2020191217 A JP 2020191217A JP 7502641 B2 JP7502641 B2 JP 7502641B2
Authority
JP
Japan
Prior art keywords
measurement
plane data
data
unit
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020191217A
Other languages
Japanese (ja)
Other versions
JP2022080188A (en
Inventor
正士 桂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2020191217A priority Critical patent/JP7502641B2/en
Publication of JP2022080188A publication Critical patent/JP2022080188A/en
Application granted granted Critical
Publication of JP7502641B2 publication Critical patent/JP7502641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

この明細書における開示は、認識システムに関する。 The disclosure in this specification relates to a recognition system.

特許文献1は、撮像手段から計測対象物までの距離と三次元形状モデルとに基づいて計測対象物の位置および姿勢を算出する三次元計測装置を開示している。先行技術文献の記載内容は、この明細書における技術的要素の説明として、参照により援用される。 Patent Document 1 discloses a three-dimensional measuring device that calculates the position and orientation of a measurement object based on the distance from an imaging means to the measurement object and a three-dimensional shape model. The contents of the prior art documents are incorporated by reference as explanations of the technical elements in this specification.

特開2011-27724号公報JP 2011-27724 A

計測対象物のエッジ部分は光の反射が安定しない。このため、計測対象物の全体に光を照射して三次元形状を計測する場合、計測対象物のエッジ部分周辺での輝度がばらついてしまい、計測したデータの誤差が大きくなりやすい。先行技術文献の構成では、画面全体ではなく、マスク処理により決定された距離計測用の領域のみに照明パターンを照射し、三次元情報を算出している。また、距離計測用の領域は、撮像される画像内において濃淡変化が小さく、エッジが検出されにくい領域であることが開示されている。しかしながら、照明パターンを局所的に照射する必要があるため、三次元計測装置のハードウェア構成が複雑化しやすい。上述の観点において、または言及されていない他の観点において、認識システムにはさらなる改良が求められている。 The reflection of light is not stable at the edge of the object to be measured. Therefore, when the entire object to be measured is irradiated with light to measure the three-dimensional shape, the brightness around the edge of the object to be measured varies, and the measured data is likely to have large errors. In the configuration of the prior art document, the illumination pattern is irradiated only to the area for distance measurement determined by mask processing, rather than the entire screen, and three-dimensional information is calculated. It is also disclosed that the area for distance measurement is an area in the captured image where the change in shading is small and the edge is difficult to detect. However, since the illumination pattern needs to be irradiated locally, the hardware configuration of the three-dimensional measuring device is likely to become complicated. In the above-mentioned viewpoints, or in other viewpoints not mentioned, further improvements are required in the recognition system.

開示される1つの目的は、精度の高い位置姿勢認識が可能な認識システムを提供することにある。 One disclosed objective is to provide a recognition system capable of highly accurate position and orientation recognition.

ここに開示された第1の認識システムは、計測対象物(41、241)の形状を計測して計測対象物の位置姿勢を認識するための位置姿勢認識を行う認識システムであって、
計測対象物の表面画像を撮像し、表面画像と対応する三次元点群を算出する計測ユニット(20)と、
計測対象物の三次元形状を示すモデルデータから平面部分のデータを抽出したモデル平面データを取得するモデル平面データ取得部(72)と、
計測ユニットが撮像した表面画像および計測ユニットが算出した三次元点群を含む計測データを取得する計測データ取得部(73)と、
計測データ取得部が取得した表面画像に基づいて、三次元点群の中から平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部(74)と、
モデル平面データと計測平面データとをマッチングして計測対象物の位置姿勢を認識するマッチング部(79)と
表面画像から特徴点としてエッジ部分を抽出する特徴点抽出部(75)と、
エッジ部分から離れる方向にオフセットした位置であるオフセット位置を設定するオフセット位置設定部(77)とを備え
計測平面データ抽出部は、三次元点群の中からオフセット位置に対応する位置の三次元座標を計測平面データとして抽出する。
ここに開示された第2の認識システムは、計測対象物(41、241)の形状を計測して計測対象物の位置姿勢を認識するための位置姿勢認識を行う認識システムであって、
計測対象物の表面画像を撮像し、表面画像と対応する三次元点群を算出する計測ユニット(20)と、
計測対象物の三次元形状を示すモデルデータから平面部分のデータを抽出したモデル平面データを取得するモデル平面データ取得部(72)と、
計測ユニットが撮像した表面画像および計測ユニットが算出した三次元点群を含む計測データを取得する計測データ取得部(73)と、
計測データ取得部が取得した表面画像に基づいて、三次元点群の中から平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部(74)と、
モデル平面データと計測平面データとをマッチングして計測対象物の位置姿勢を認識するマッチング部(79)と、
表面画像から特徴点としてエッジ部分を抽出する特徴点抽出部(75)と、
エッジ部分を含む周囲の領域をマスク範囲として抽出するマスク範囲設定部(278)とを備え、
計測平面データ抽出部は、三次元点群の中からマスク範囲を除外した位置の三次元座標を計測平面データとして抽出する。
The first recognition system disclosed herein is a recognition system that performs position and orientation recognition for measuring a shape of a measurement object (41, 241) and recognizing the position and orientation of the measurement object,
A measurement unit (20) that captures a surface image of a measurement object and calculates a three-dimensional point cloud corresponding to the surface image;
a model plane data acquisition unit (72) for acquiring model plane data obtained by extracting data of a plane portion from model data indicating a three-dimensional shape of a measurement object;
a measurement data acquisition unit (73) that acquires measurement data including a surface image captured by the measurement unit and a three-dimensional point cloud calculated by the measurement unit;
a measurement plane data extraction unit (74) that extracts three-dimensional coordinates in a plane portion from the three-dimensional point cloud as measurement plane data based on the surface image acquired by the measurement data acquisition unit;
a matching unit (79) for matching the model plane data with the measurement plane data to recognize the position and orientation of the measurement object ;
a feature point extraction unit (75) for extracting edge portions as feature points from the surface image;
an offset position setting unit (77) that sets an offset position that is a position offset in a direction away from the edge portion ,
The measurement plane data extraction unit extracts, from the three-dimensional point cloud, three-dimensional coordinates of a position corresponding to the offset position as measurement plane data .
The second recognition system disclosed herein is a recognition system that performs position and orientation recognition for measuring a shape of a measurement object (41, 241) and recognizing the position and orientation of the measurement object,
A measurement unit (20) that captures a surface image of a measurement object and calculates a three-dimensional point cloud corresponding to the surface image;
a model plane data acquisition unit (72) for acquiring model plane data obtained by extracting data of a plane portion from model data indicating a three-dimensional shape of a measurement object;
a measurement data acquisition unit (73) that acquires measurement data including a surface image captured by the measurement unit and a three-dimensional point cloud calculated by the measurement unit;
a measurement plane data extraction unit (74) that extracts three-dimensional coordinates in a plane portion from the three-dimensional point cloud as measurement plane data based on the surface image acquired by the measurement data acquisition unit;
a matching unit (79) for matching the model plane data with the measurement plane data to recognize the position and orientation of the measurement object;
a feature point extraction unit (75) for extracting edge portions as feature points from the surface image;
a mask range setting unit (278) for extracting a surrounding area including an edge portion as a mask range;
The measurement plane data extraction unit extracts, as measurement plane data, three-dimensional coordinates of positions excluding the mask range from the three-dimensional point cloud.

開示された認識システムによると、計測データ取得部が取得した表面画像に基づいて、三次元点群の中から計測対象物の平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部と、モデル平面データと計測平面データとをマッチングして計測対象物の位置姿勢を認識するマッチング部とを備えている。このため、エッジ部分に比べて計測精度の高い部分である平面部分における三次元座標をマッチングに使用できる。したがって、精度の高い位置姿勢認識が可能な認識システムを提供できる。 The disclosed recognition system includes a measurement plane data extraction unit that extracts three-dimensional coordinates of the planar portion of the measurement object from the three-dimensional point cloud as measurement plane data based on the surface image acquired by the measurement data acquisition unit, and a matching unit that matches the model plane data with the measurement plane data to recognize the position and orientation of the measurement object. Therefore, the three-dimensional coordinates of the planar portion, which has a higher measurement accuracy than the edge portion, can be used for matching. Therefore, a recognition system capable of highly accurate position and orientation recognition can be provided.

この明細書における開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。請求の範囲およびこの項に記載した括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。この明細書に開示される目的、特徴、および効果は、後続の詳細な説明、および添付の図面を参照することによってより明確になる。 The various aspects disclosed in this specification employ different technical means to achieve their respective objectives. The claims and the reference characters in parentheses in this section are illustrative of the corresponding relationships with the embodiments described below, and are not intended to limit the technical scope. The objectives, features, and advantages disclosed in this specification will become clearer with reference to the detailed description that follows and the accompanying drawings.

認識システムとロボットの概略構成を示す構成図である。FIG. 1 is a configuration diagram showing a schematic configuration of a recognition system and a robot. 認識システムの制御に関するブロック図である。FIG. 2 is a block diagram relating to control of the recognition system. 認識システムの制御に関するフローチャートである。11 is a flowchart relating to control of the recognition system. オフセット位置の設定方法を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining a method for setting an offset position. 第2実施形態における認識システムとロボットの概略構成を示す構成図である。FIG. 13 is a configuration diagram showing a schematic configuration of a recognition system and a robot according to a second embodiment. 第2実施形態における認識システムの制御に関するブロック図である。FIG. 11 is a block diagram relating to control of a recognition system in a second embodiment. 第2実施形態における認識システムの制御に関するフローチャートである。10 is a flowchart relating to control of a recognition system in a second embodiment. マスク範囲の設定方法を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining a method for setting a mask range. 計測平面データの抽出方法を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining a method of extracting measurement plane data. 第3実施形態における認識システムの制御に関するブロック図である。FIG. 13 is a block diagram relating to control of the recognition system in the third embodiment. 第3実施形態における認識システムの制御に関するフローチャートである。13 is a flowchart relating to control of a recognition system in a third embodiment.

図面を参照しながら、複数の実施形態を説明する。複数の実施形態において、機能的におよび/または構造的に対応する部分および/または関連付けられる部分には同一の参照符号、または百以上の位が異なる参照符号が付される場合がある。対応する部分および/または関連付けられる部分については、他の実施形態の説明を参照することができる。以下において、互いに直交する3つの方向をX方向、Y方向、Z方向とする。また、Z方向を上下方向と対応させて説明する場合がある。 Several embodiments will be described with reference to the drawings. In several embodiments, functionally and/or structurally corresponding and/or associated parts may be given the same reference symbol or reference symbols differing in the hundredth or higher digit. For corresponding and/or associated parts, the descriptions of other embodiments may be referred to. In the following, the three mutually orthogonal directions are referred to as the X direction, Y direction, and Z direction. In addition, the Z direction may be described as corresponding to the up and down direction.

第1実施形態
図1において、認識システム1は、ロボット10を用いた様々な作業に利用可能である。ロボット10を用いた作業の例としては、部品を特定の箇所に組み付ける組み付け作業、部品をピッキングするピッキング作業、部品に傷や欠けがないかを検査する外観検査、部品を把持する把持作業が挙げられる。ただし、ロボット10を用いることのない作業に認識システム1を用いてもよい。
1, the recognition system 1 can be used for various tasks using a robot 10. Examples of tasks using the robot 10 include an assembly task for assembling a part in a specific location, a picking task for picking a part, an appearance inspection for inspecting whether the part is scratched or chipped, and a gripping task for gripping a part. However, the recognition system 1 may also be used for tasks that do not use the robot 10.

ロボット10は、ベース11とロボットアーム15とロボットハンド16とを備えている。ロボット10は、垂直多関節型ロボットである。ただし、ロボット10として水平多関節型ロボット等を採用してもよい。ベース11は、ロボット10が設置されている設置面にボルト等を用いて固定されている。 The robot 10 comprises a base 11, a robot arm 15, and a robot hand 16. The robot 10 is a vertical articulated robot. However, a horizontal articulated robot or the like may also be used as the robot 10. The base 11 is fixed to the installation surface on which the robot 10 is installed using bolts or the like.

ロボットアーム15は、複数の軸部品を関節部品によって連結して構成されている。関節部品には、モータが含まれており、モータを制御することで関節部品の角度を自在に制御することができる。複数の軸部品は、関節部品を介して互いに相対回転可能に連結されている。ロボットアーム15は、ベース11に連結されている。 The robot arm 15 is composed of multiple shaft parts connected by joint parts. The joint parts include motors, and the angles of the joint parts can be freely controlled by controlling the motors. The multiple shaft parts are connected to each other via the joint parts so that they can rotate relative to each other. The robot arm 15 is connected to the base 11.

ロボットハンド16は、ロボットアーム15の先端部に取り付けられている。ロボットハンド16には、モータが含まれている。ロボットハンド16は、モータを制御することでロボットアーム15が備えている軸部品の軸周りに相対回転可能に構成されている。 The robot hand 16 is attached to the tip of the robot arm 15. The robot hand 16 includes a motor. The robot hand 16 is configured to be able to rotate relatively around the axis of the shaft part provided on the robot arm 15 by controlling the motor.

ロボットハンド16は、爪部を備えている。この爪部は、ロボットハンド16の回転軸を回転中心として回転する。ロボットハンド16は、爪部同士の間隔を拡大および縮小する開閉動作を行うことで、作業台31に載置された計測対象物41を把持可能に構成されている。また、ロボット10は、ロボットハンド16が計測対象物41を把持した状態でロボットアーム15やロボットハンド16を動かすことができる。これにより、計測対象物41の位置や姿勢を変えることができる。ただし、計測対象物41を把持するためには、計測対象物41の位置姿勢を正確に認識する必要がある。計測対象物41の位置姿勢は、計測対象物41の位置および計測対象物41の姿勢を意味する。この位置姿勢の認識には、後述する計測ユニット20を用いた形状計測結果を用いる。 The robot hand 16 has a claw portion. This claw portion rotates around the rotation axis of the robot hand 16. The robot hand 16 is configured to be able to grasp a measurement object 41 placed on the work table 31 by performing an opening and closing operation to expand and reduce the distance between the claw portions. The robot 10 can also move the robot arm 15 and the robot hand 16 while the robot hand 16 is grasping the measurement object 41. This allows the position and orientation of the measurement object 41 to be changed. However, in order to grasp the measurement object 41, it is necessary to accurately recognize the position and orientation of the measurement object 41. The position and orientation of the measurement object 41 refer to the position and orientation of the measurement object 41. The position and orientation of the measurement object 41 are recognized using the shape measurement results using the measurement unit 20 described later.

以下では、作業台31に載置された計測対象物41の位置姿勢を認識する作業に認識システム1を適用した場合を例に説明する。作業台31は、四角形状の板部材である。ただし、作業台31の種類や形状は、上述の例に限られない。作業台31として箱型形状の部品箱を採用してもよい。また、作業台31としてベルトコンベア等の可動する装置を採用してもよい。作業台31に載置された計測対象物41の数は、1つに限られない。例えば、複数の計測対象物41が互いに重なった状態で作業台31に載置されていてもよい。計測対象物41は、作業台31の略中央に設定されている標準位置に位置している。標準位置とは、計測対象物41の載置される標準的な位置のことである。標準位置は、認識システム1において事前に設定されている。 In the following, an example will be described in which the recognition system 1 is applied to a task of recognizing the position and orientation of a measurement object 41 placed on a work table 31. The work table 31 is a rectangular plate member. However, the type and shape of the work table 31 are not limited to the above example. A box-shaped parts box may be used as the work table 31. A movable device such as a belt conveyor may also be used as the work table 31. The number of measurement objects 41 placed on the work table 31 is not limited to one. For example, multiple measurement objects 41 may be placed on the work table 31 in a state where they overlap each other. The measurement object 41 is located at a standard position set approximately in the center of the work table 31. The standard position is a standard position where the measurement object 41 is placed. The standard position is set in advance in the recognition system 1.

計測対象物41は、任意の形状の物体を採用可能であるが、一例として、直径の異なる2つの円盤を同軸上に隣り合って並べた形状の物体を採用している。計測対象物41は、直径の小さな円盤部分が上側に位置するように作業台31に載置されている。計測対象物41の位置姿勢を認識することで、ロボット10は、必要に応じて計測対象物41を作業台31から持ち上げて移動させることができる。 The measurement object 41 can be an object of any shape, but as an example, an object having a shape of two disks of different diameters arranged side by side on the same axis is used. The measurement object 41 is placed on the work table 31 so that the disk part with the smaller diameter is located on the upper side. By recognizing the position and orientation of the measurement object 41, the robot 10 can lift and move the measurement object 41 from the work table 31 as necessary.

計測ユニット20は、計測対象物41の形状を計測するためのシステムである。計測ユニット20としては、計測対象物41の表面画像を撮像する機能と、計測対象物41の三次元点群を算出する機能とを備えている。三次元点群とは、計測対象物41の計測点における三次元座標を複数の計測点について算出したデータのことである。言い換えると、計測点は計測対象物41の座標を表現する各点である。三次元座標は、X座標とY座標とZ座標とを座標成分として有している。三次元点群は、一例は、各計測点の輝度データである。計測ユニット20としては、例えば距離画像センサを採用可能である。計測ユニット20は、計測対象物41とZ方向に並んでいる。言い換えると、計測ユニット20と計測対象物41との並び方向は、Z方向に沿う方向であり、上下方向に沿う方向であるともいえる。 The measurement unit 20 is a system for measuring the shape of the measurement object 41. The measurement unit 20 has a function of capturing a surface image of the measurement object 41 and a function of calculating a three-dimensional point cloud of the measurement object 41. The three-dimensional point cloud is data obtained by calculating the three-dimensional coordinates of a plurality of measurement points of the measurement object 41. In other words, the measurement points are each point that expresses the coordinates of the measurement object 41. The three-dimensional coordinates have X coordinates, Y coordinates, and Z coordinates as coordinate components. An example of the three-dimensional point cloud is the brightness data of each measurement point. For example, a distance image sensor can be used as the measurement unit 20. The measurement unit 20 is aligned with the measurement object 41 in the Z direction. In other words, the alignment direction of the measurement unit 20 and the measurement object 41 is along the Z direction, and can also be said to be along the up-down direction.

計測ユニット20は、計測対象物41の上面における表面画像を撮像する。計測対象物41の表面で反射する反射光の量は、計測対象物41の形状によって変化する。このため、計測対象物41の形状に応じて、表面画像における輝度が変化する。より詳細には、エッジ部分では、表面画像において輝度が周囲の輝度に比べて大きく変化する。また、平面部分では、表面画像において輝度が周囲の輝度と比べてほとんど変化しない。エッジ部分の一例は、計測対象物41の外縁部分である。エッジ部分の一例は、リブや開口等の段差部分である。計測ユニット20で計測した表面画像は、エッジ部分と平面部分との推定に利用可能なデータである。エッジ部分と平面部分との推定においては、表面画像における輝度の変化の大きさを利用する。ただし、表面画像から平面部分を推定せず、エッジ部分のみを推定してもよい。 The measurement unit 20 captures a surface image of the upper surface of the measurement object 41. The amount of light reflected from the surface of the measurement object 41 varies depending on the shape of the measurement object 41. Therefore, the brightness in the surface image varies depending on the shape of the measurement object 41. More specifically, in the edge portion, the brightness in the surface image varies more significantly than the surrounding brightness. In addition, in the flat portion, the brightness in the surface image varies very little compared to the surrounding brightness. An example of an edge portion is the outer edge portion of the measurement object 41. An example of an edge portion is a step portion such as a rib or an opening. The surface image measured by the measurement unit 20 is data that can be used to estimate the edge portion and the flat portion. In estimating the edge portion and the flat portion, the magnitude of the change in brightness in the surface image is used. However, it is also possible to estimate only the edge portion without estimating the flat portion from the surface image.

計測ユニット20は、計測対象物41における三次元点群を算出する。計測対象物41の三次元点群は、位相シフト法やステレオカメラを用いた方法等で取得することができる。位相シフト法を採用する場合、計測ユニット20は、計測対象物41にパターン光を投光する投光装置と、計測対象物41で反射したパターン光を受光する受光装置とを備えることとなる。ステレオカメラを用いた方法を採用する場合、計測ユニット20は、計測対象物41を互いに異なる位置から撮像する複数のカメラを備えることとなる。計測ユニット20は、計測対象物41の上面全体における三次元座標を算出して三次元点群とする。このため、計測対象物41のエッジ部分と平面部分とを含む複数の計測点について三次元座標を算出することとなる。 The measurement unit 20 calculates a three-dimensional point cloud on the measurement object 41. The three-dimensional point cloud on the measurement object 41 can be obtained by a phase shift method, a method using a stereo camera, or the like. When the phase shift method is adopted, the measurement unit 20 is provided with a light projecting device that projects a pattern light onto the measurement object 41, and a light receiving device that receives the pattern light reflected by the measurement object 41. When the method using a stereo camera is adopted, the measurement unit 20 is provided with multiple cameras that capture images of the measurement object 41 from different positions. The measurement unit 20 calculates the three-dimensional coordinates of the entire top surface of the measurement object 41 to obtain a three-dimensional point cloud. Therefore, the three-dimensional coordinates are calculated for multiple measurement points including the edge portions and flat portions of the measurement object 41.

計測ユニット20の計測方法として位相シフト法を採用した場合、計測対象物41の表面で反射したパターン光を受光する。このため、反射したパターン光を正確に受光できない場合には、正確に三次元座標を算出できず、誤差が発生してしまう。反射したパターン光を正確に受光できない場合の一例は、投光したパターン光が計測対象物41のエッジ部分で散乱されてしまう場合が挙げられる。言い換えると、計測対象物41の平面部分においては、光が散乱されにくく、三次元座標を精度よく算出することができる。 When the phase shift method is adopted as the measurement method of the measurement unit 20, the pattern light reflected from the surface of the measurement object 41 is received. Therefore, if the reflected pattern light cannot be received accurately, the three-dimensional coordinates cannot be calculated accurately, resulting in errors. One example of a case in which the reflected pattern light cannot be received accurately is when the projected pattern light is scattered by the edge of the measurement object 41. In other words, light is less likely to be scattered on the flat surface of the measurement object 41, and the three-dimensional coordinates can be calculated with high accuracy.

計測ユニット20の計測方法としてステレオカメラを用いた方法を採用した場合、計測対象物41の表面を複数のカメラで同時に撮像する。このため、計測対象物41の表面形状が撮像する表面画像に反映されにくい場合には、正確に三次元座標を算出できず、誤差が発生してしまう。計測対象物41の表面形状が表面画像に反映されにくい場合の一例は、表面のエッジ部分が潰れて凹凸が確認できない場合が挙げられる。言い換えると、計測対象物41の凹凸のない平面部分においては、三次元座標を高い精度で算出することができる。 When a method using a stereo camera is adopted as the measurement method of the measurement unit 20, the surface of the measurement object 41 is simultaneously imaged by multiple cameras. Therefore, if the surface shape of the measurement object 41 is not easily reflected in the captured surface image, the three-dimensional coordinates cannot be calculated accurately, resulting in errors. One example of a case in which the surface shape of the measurement object 41 is not easily reflected in the surface image is when the edges of the surface are crushed and no unevenness can be confirmed. In other words, in flat parts of the measurement object 41 that are free of unevenness, the three-dimensional coordinates can be calculated with high precision.

まとめると、位相シフト法とステレオカメラを用いた方法のどちらの方法を採用した場合であっても、エッジ部分に比べて平面部分の方が、三次元座標を精度よく算出しやすい。言い換えると、三次元座標の算出にエッジ部分が含まれることで、三次元形状計測の精度が低下しやすい。 In summary, whether the phase shift method or the stereo camera method is used, it is easier to calculate three-dimensional coordinates with high accuracy for flat areas compared to edge areas. In other words, the accuracy of three-dimensional shape measurement is likely to decrease when edge areas are included in the calculation of three-dimensional coordinates.

計測ユニット20で撮像した表面画像と算出した三次元座標とは、ピクセル単位の座標系で対応づけられている。このため、表面画像からエッジ部分であると推定した位置について、対応する位置の三次元座標を選択して抽出することができる。 The surface image captured by the measurement unit 20 and the calculated three-dimensional coordinates are associated in a pixel-by-pixel coordinate system. Therefore, for a position estimated to be an edge portion from the surface image, the three-dimensional coordinates of the corresponding position can be selected and extracted.

図2において、認識システム1の制御を行う制御部70は、計測ユニット20に接続している。制御部70は、計測ユニット20を制御して計測対象物41の形状計測を行う。制御部70は、計測ユニット20で計測した計測データを取得する。 In FIG. 2, a control unit 70 that controls the recognition system 1 is connected to a measurement unit 20. The control unit 70 controls the measurement unit 20 to measure the shape of the measurement object 41. The control unit 70 acquires the measurement data measured by the measurement unit 20.

制御部70は、モデル平面データ取得部72と計測データ取得部73と計測平面データ抽出部74とマッチング部79とを備えている。 The control unit 70 includes a model plane data acquisition unit 72, a measurement data acquisition unit 73, a measurement plane data extraction unit 74, and a matching unit 79.

モデル平面データ取得部72は、計測対象物41のモデルデータから平面部分のみを抽出したデータであるモデル平面データを取得する。ここで、モデルデータとは、計測対象物41の三次元の設計図面をなすデータである。モデル平面データ取得部72は、認識システム1の外部でモデルデータからあらかじめ抽出したモデル平面データを取得する構成に限られない。例えば、モデルデータを取得するモデルデータ取得部と、モデルデータからモデル平面データを抽出するモデル平面データ抽出部とを備える構成としてもよい。 The model plane data acquisition unit 72 acquires model plane data, which is data obtained by extracting only the planar portion from the model data of the measurement object 41. Here, the model data is data forming a three-dimensional design drawing of the measurement object 41. The model plane data acquisition unit 72 is not limited to a configuration in which it acquires model plane data extracted in advance from the model data outside the recognition system 1. For example, it may be configured to include a model data acquisition unit that acquires model data, and a model plane data extraction unit that extracts model plane data from the model data.

計測データ取得部73は、計測ユニット20で計測した計測データを取得する。取得する計測データには、表面画像のデータと三次元点群のデータとが含まれている。 The measurement data acquisition unit 73 acquires the measurement data measured by the measurement unit 20. The acquired measurement data includes surface image data and three-dimensional point cloud data.

計測平面データ抽出部74は、表面画像から決定したエッジ部分をもとに、エッジ部分から離れた平面部分と推定できる部分の三次元座標を三次元点群の中から計測平面データとして抽出する。エッジ部分から離れた平面部分は、表面画像の輝度変化の大きさから推定可能である。計測平面データの抽出方法は、後に詳述する。計測平面データ抽出部74は、特徴点抽出部75と中心点抽出部76とオフセット位置設定部77とを備えている。 The measurement plane data extraction unit 74 extracts, from the three-dimensional point cloud, the three-dimensional coordinates of a portion that can be estimated as a planar portion away from the edge portion based on the edge portion determined from the surface image, as measurement plane data. The planar portion away from the edge portion can be estimated from the magnitude of the brightness change in the surface image. The method of extracting the measurement plane data will be described in detail later. The measurement plane data extraction unit 74 includes a feature point extraction unit 75, a center point extraction unit 76, and an offset position setting unit 77.

特徴点抽出部75は、計測データから特徴点を抽出する。ここで、特徴点とは、計測対象物41の形状の特徴を示す点のことである。特徴点は、例えば計測対象物41の端部すなわちエッジ部分である。 The feature point extraction unit 75 extracts feature points from the measurement data. Here, a feature point is a point that indicates a feature of the shape of the measurement object 41. A feature point is, for example, an end portion, i.e., an edge portion, of the measurement object 41.

中心点抽出部76は、計測対象物41の中心点を抽出する。オフセット位置設定部77は、オフセット位置を設定する。ここで、オフセット位置とは、計測対象物41における平面部分と推定できる部分のことである。オフセット位置は、例えば計測対象物41のエッジ部分から離れた位置すなわちオフセットされた位置に設定される。オフセット位置は、全てのエッジ部分に対して対応する位置を設定する必要はない。例えば、エッジ部分の一部のみを対象にオフセット位置を設定してもよい。 The center point extraction unit 76 extracts the center point of the measurement object 41. The offset position setting unit 77 sets the offset position. Here, the offset position refers to a portion of the measurement object 41 that can be estimated as a flat portion. The offset position is set, for example, at a position away from the edge portion of the measurement object 41, i.e., an offset position. It is not necessary to set an offset position corresponding to all edge portions. For example, the offset position may be set for only a portion of the edge portion.

マッチング部79は、モデル平面データと計測平面データとを比較して、モデル平面データが計測平面データに略一致する際の位置姿勢を取得する。マッチング部79がマッチングを行うことで計測対象物41の位置姿勢を認識することができる。 The matching unit 79 compares the model plane data with the measurement plane data to obtain the position and orientation when the model plane data approximately matches the measurement plane data. By performing matching, the matching unit 79 can recognize the position and orientation of the measurement object 41.

認識システム1を用いて計測対象物41の位置姿勢を認識する作業である位置姿勢認識の流れについて、以下に説明する。ただし、位置姿勢認識の開始前に、認識システム1の計測ユニット20のキャリブレーションを完了させておく。これにより、計測対象物41の正確な計測データを算出することができるようになる。キャリブレーションは、ロボット10を設置した最初に実行すればよいが、必要に応じて定期的にキャリブレーションを繰り返し実行してもよい。 The flow of position and orientation recognition, which is the task of recognizing the position and orientation of the measurement object 41 using the recognition system 1, is described below. However, before position and orientation recognition begins, calibration of the measurement unit 20 of the recognition system 1 is completed. This makes it possible to calculate accurate measurement data of the measurement object 41. Calibration can be performed initially after the robot 10 is installed, but calibration can also be performed repeatedly at regular intervals as necessary.

図3において、位置姿勢認識に関する制御を開始すると、ステップS101でモデル平面データ取得部72がモデル平面データを取得する。モデル平面データは、計測対象物41の三次元の設計図面をなすモデルデータから平面部分のみを抽出したデータである。モデルデータには、計測対象物41の平面部分とエッジ部分とが含まれている。一方、モデル平面データには、計測対象物41の平面部分のみが含まれ、エッジ部分は含まれていない。このため、モデル平面データは、モデルデータよりもデータサイズが小さいデータである。モデル平面データは、計測対象物41の全ての平面部分を含んでいる必要はなく、平面部分の一部を含んでいればよい。モデル平面データは、後述する計測平面データに対応する平面部分のデータを含んでいる。 In FIG. 3, when control related to position and orientation recognition is started, the model plane data acquisition unit 72 acquires model plane data in step S101. The model plane data is data obtained by extracting only the planar portions from the model data forming the three-dimensional design drawing of the measurement object 41. The model data includes the planar portions and edge portions of the measurement object 41. On the other hand, the model plane data includes only the planar portions of the measurement object 41, and does not include the edge portions. Therefore, the model plane data has a smaller data size than the model data. The model plane data does not need to include all the planar portions of the measurement object 41, but only needs to include some of the planar portions. The model plane data includes data on the planar portions that correspond to the measurement plane data described later.

モデル平面データは、認識システム1の外部でモデルデータからあらかじめ抽出しておく。このため、認識システム1自身がモデルデータからモデル平面データを抽出する処理を行う必要がない。したがって、認識システム1における位置姿勢認識に関する処理を簡略化できる。モデル平面データを取得した後、ステップS111に進む。 The model plane data is extracted in advance from the model data outside the recognition system 1. Therefore, the recognition system 1 itself does not need to perform processing to extract the model plane data from the model data. This simplifies the processing related to position and orientation recognition in the recognition system 1. After obtaining the model plane data, proceed to step S111.

ステップS111では、制御部70が計測ユニット20を用いて計測対象物41の形状を計測する。計測ユニット20による形状計測では、計測対象物41の上面を撮像した表面画像を撮像する。さらに、計測ユニット20による形状計測では、計測対象物41の上面における各計測点について三次元座標を計測し、三次元点群を算出する。計測対象物41を計測した後、ステップS112に進む。 In step S111, the control unit 70 uses the measurement unit 20 to measure the shape of the measurement object 41. In shape measurement by the measurement unit 20, a surface image of the top surface of the measurement object 41 is captured. Furthermore, in shape measurement by the measurement unit 20, three-dimensional coordinates are measured for each measurement point on the top surface of the measurement object 41, and a three-dimensional point cloud is calculated. After measuring the measurement object 41, the process proceeds to step S112.

ステップS112では、計測データ取得部73が計測データを取得する。計測データには、計測対象物41の上面を撮像した表面画像のデータが含まれている。計測データには、計測対象物41の上面における三次元点群が含まれている。このため、計測データ取得部73は、計測データとして表面画像と三次元点群とを取得することとなる。計測データを取得した後、ステップS121に進む。 In step S112, the measurement data acquisition unit 73 acquires measurement data. The measurement data includes surface image data obtained by capturing an image of the top surface of the measurement object 41. The measurement data includes a three-dimensional point cloud on the top surface of the measurement object 41. Therefore, the measurement data acquisition unit 73 acquires the surface image and the three-dimensional point cloud as the measurement data. After acquiring the measurement data, the process proceeds to step S121.

ステップS121では、特徴点抽出部75が表面画像から特徴点としてエッジ部分を抽出する。エッジ部分は、表面画像における輝度の変化から抽出することができる。より詳細には、周囲に比べて輝度の変化が大きい部分をエッジ部分とみなして抽出することとなる。エッジ部分を抽出した後、ステップS122に進む。 In step S121, the feature point extraction unit 75 extracts edge portions as feature points from the surface image. Edge portions can be extracted from changes in luminance in the surface image. More specifically, portions where the luminance change is greater than the surrounding area are regarded as edge portions and are extracted. After the edge portions are extracted, the process proceeds to step S122.

ステップS122では、中心点抽出部76が表面画像から中心点を抽出する。計測対象物41のエッジ部分の一部である外縁部分から計測対象物41の外形を推定し、中心点はその外形から抽出することができる。表面画像は、計測対象物41を上方向から撮像した画像であるため、計測対象物41のXY平面における中心点を抽出することとなる。中心点を抽出した後、ステップS131に進む。 In step S122, the center point extraction unit 76 extracts a center point from the surface image. The outline of the measurement object 41 is estimated from the outer periphery, which is part of the edge of the measurement object 41, and the center point can be extracted from that outline. Since the surface image is an image of the measurement object 41 captured from above, the center point in the XY plane of the measurement object 41 is extracted. After the center point is extracted, proceed to step S131.

ステップS131では、オフセット位置設定部77がオフセット情報を取得する。オフセット情報とは、エッジ部分から中心点に近づく方向にオフセットした位置であるオフセット位置を設定するための情報である。オフセット情報の一例は、エッジ部分から平面部分と推定できる部分までの距離を示すオフセット量である。オフセット情報の一例は、エッジ部分から平面部分と推定できる部分までの倍率を示すオフセット倍率である。オフセット量やオフセット倍率は、モデルデータあるいはモデル平面データから決めることができる。オフセット情報に基づくオフセット位置の設定方法については、後に詳述する。オフセット情報を取得した後、ステップS132に進む。 In step S131, the offset position setting unit 77 acquires offset information. The offset information is information for setting an offset position that is a position offset from the edge portion in a direction approaching the center point. An example of the offset information is an offset amount indicating the distance from the edge portion to a portion that can be estimated as a flat portion. An example of the offset information is an offset magnification indicating the magnification from the edge portion to a portion that can be estimated as a flat portion. The offset amount and offset magnification can be determined from the model data or the model flat data. A method for setting the offset position based on the offset information will be described in detail later. After acquiring the offset information, proceed to step S132.

ステップS132では、オフセット位置設定部77がオフセット位置を設定する。オフセット位置は、エッジ部分から離れた位置であるため、平面部分である可能性の高い位置である。オフセット位置を設定する処理は、計測対象物41における平面部分を選択する処理ともいえる。 In step S132, the offset position setting unit 77 sets the offset position. The offset position is a position away from the edge portion, and is therefore a position that is likely to be a flat portion. The process of setting the offset position can also be considered as a process of selecting a flat portion in the measurement object 41.

オフセット情報としてオフセット量を取得している場合には、中心点に近づく向きに所定のオフセット量だけエッジ部分から近づくようにオフセットする。これにより、XY平面の画像である表面画像において、オフセット位置の座標がエッジ部分の座標に比べて、中心点に近づくこととなる。仮に、エッジ部分から中心点までの距離がオフセット量よりも短い場合には、中心点を越えてオフセットするのではなく、中心点をオフセット位置とする。オフセット量は、エッジ部分の座標によらず常に一定である。ここで、外側エッジ部分から中心点に向かって離れる方向にオフセットすると、計測対象物41の外側にオフセット位置が設定されてしまう。言い換えると、平面部分をオフセット位置に設定できないこととなる。このため、エッジ部分から中心点に向かって近づく方向にオフセットすることが好ましい。 When an offset amount is acquired as offset information, the edge portion is offset by a predetermined offset amount in a direction approaching the center point. As a result, in the surface image, which is an image of the XY plane, the coordinates of the offset position are closer to the center point than the coordinates of the edge portion. If the distance from the edge portion to the center point is shorter than the offset amount, the center point is set as the offset position rather than offsetting beyond the center point. The offset amount is always constant regardless of the coordinates of the edge portion. Here, if the offset is made in a direction away from the outer edge portion toward the center point, the offset position is set outside the measurement object 41. In other words, the plane portion cannot be set as the offset position. For this reason, it is preferable to offset in a direction approaching the center point from the edge portion.

図4において、中心点をCP、オフセット量をLOとしてそれぞれ示している。計測対象物41の下側の円盤部分におけるエッジ部分が外側エッジ部分である。また、計測対象物41の上側の円盤部分におけるエッジ部分が内側エッジ部分である。図において、外側エッジ部分をOE、内側エッジ部分をIEとしてそれぞれ示している。外側エッジ部分と内側エッジ部分とは、ともに円形である。内側エッジ部分は、外側エッジ部分よりも直径が小さい円形をなしている。 In Figure 4, the center point is indicated as CP and the offset amount is indicated as LO. The edge portion of the lower disc portion of the measurement object 41 is the outer edge portion. The edge portion of the upper disc portion of the measurement object 41 is the inner edge portion. In the figure, the outer edge portion is indicated as OE and the inner edge portion is indicated as IE. Both the outer edge portion and the inner edge portion are circular. The inner edge portion is circular with a smaller diameter than the outer edge portion.

外側エッジ部分から中心点に向かってオフセット量だけ近づいた位置が外縁オフセット位置である。また、内側エッジ部分から中心点に向かってオフセット量だけ近づいた位置が内縁オフセット位置である。図において、外縁オフセット位置をOP、内縁オフセット位置をIPとしてそれぞれ一点鎖線で示している。外縁オフセット位置と内縁オフセット位置とは、ともに円形である。内縁オフセット位置は、外縁オフセット位置よりも直径が小さい円形をなしている。外側エッジ部分、外縁オフセット位置、内側エッジ部分、内縁オフセット位置の順に直径が小さくなっている。計測対象物41のオフセット位置は、外縁オフセット位置と内縁オフセット位置とによって構成されている。 The position approaching the center point from the outer edge portion by the offset amount is the outer edge offset position. The position approaching the center point from the inner edge portion by the offset amount is the inner edge offset position. In the figure, the outer edge offset position is indicated by an alternate long and short dash line as OP and the inner edge offset position is indicated by an alternate long and short dash line as IP. Both the outer edge offset position and the inner edge offset position are circular. The inner edge offset position is circular with a smaller diameter than the outer edge offset position. The diameters decrease in the order of the outer edge portion, the outer edge offset position, the inner edge portion, and the inner edge offset position. The offset positions of the measurement object 41 are made up of the outer edge offset position and the inner edge offset position.

外縁オフセット位置が含まれる平面部分は、内縁オフセット位置が含まれる平面部分とは、互いに異なる平面部分である。より詳細には、外縁オフセット位置が含まれる平面部分と内縁オフセット位置が含まれる平面部分とは、内側エッジ部分によって互いに離れた平面部分として区画されている。また、外縁オフセット位置が含まれる平面部分と内縁オフセット位置が含まれる平面部分とは、互いにZ座標の異なる平面部分である。 The planar portion including the outer edge offset position is a different planar portion from the planar portion including the inner edge offset position. More specifically, the planar portion including the outer edge offset position and the planar portion including the inner edge offset position are partitioned as planar portions separated from each other by the inner edge portion. In addition, the planar portion including the outer edge offset position and the planar portion including the inner edge offset position are planar portions having different Z coordinates.

オフセット情報としてオフセット倍率を取得している場合には、中心点に近づく向きに所定のオフセット倍率でエッジ部分から縮小するようにオフセットする。これにより、XY平面の画像である表面画像において、オフセット位置の座標がエッジ部分の座標に比べて、中心点の座標に近づくことになる。エッジ部分が中心点から離れているほど、エッジ部分からオフセット位置までの移動量が大きくなる。オフセット倍率は、エッジ部分の座標によらず常に一定である。 If an offset magnification has been acquired as offset information, the edge portion is offset by a specified offset magnification in a direction approaching the center point so as to shrink. As a result, in the surface image, which is an image of the XY plane, the coordinates of the offset position are closer to the coordinates of the center point than the coordinates of the edge portion. The farther the edge portion is from the center point, the greater the amount of movement from the edge portion to the offset position. The offset magnification is always constant, regardless of the coordinates of the edge portion.

オフセット位置の設定方法は、オフセット量を用いた方法や、オフセット倍率を用いた方法に限られず、様々な方法を採用可能である。オフセット位置を設定した後、ステップS141に進む。 The method for setting the offset position is not limited to using an offset amount or an offset magnification, and various methods can be used. After setting the offset position, proceed to step S141.

ステップS141では、計測平面データ抽出部74がオフセット位置の三次元座標を抽出する。より詳細には、表面画像に基づいて決定したオフセット位置に対応する位置の三次元座標を抽出して計測平面データとする。ここで、表面画像と三次元点群はピクセル単位の座標系で対応づけられている。このため、三次元点群の中から表面画像におけるオフセット位置に対応する三次元座標を抽出することができる。 In step S141, the measurement plane data extraction unit 74 extracts the three-dimensional coordinates of the offset position. More specifically, the three-dimensional coordinates of the position corresponding to the offset position determined based on the surface image are extracted and used as the measurement plane data. Here, the surface image and the three-dimensional point cloud correspond to each other in a pixel-by-pixel coordinate system. Therefore, it is possible to extract the three-dimensional coordinates corresponding to the offset position in the surface image from the three-dimensional point cloud.

表面画像に基づいて設定するオフセット位置には、外縁オフセット位置と内縁オフセット位置が含まれている。このため、計測平面データにも、外縁オフセット位置に対応する外縁オフセット点群と、内縁オフセット位置に対応する内縁オフセット点群とが含まれることとなる。外縁オフセット点群を構成する各点の座標は、互いにZ座標が略等しい。また、内縁オフセット点群を構成する各点の座標は、互いにZ座標が略等しい。ただし、外縁オフセット位置と内縁オフセット位置とは、Z方向における位置が異なる。このため、内縁オフセット点群のZ座標は、外縁オフセット点群のZ座標とは異なる値となる。オフセット位置に対応する三次元座標を計測平面データとして抽出した後、ステップS151に進む。 The offset positions set based on the surface image include outer edge offset positions and inner edge offset positions. Therefore, the measurement plane data also includes an outer edge offset point group corresponding to the outer edge offset positions, and an inner edge offset point group corresponding to the inner edge offset positions. The coordinates of each point that makes up the outer edge offset point group are approximately equal to each other in Z coordinates. Furthermore, the coordinates of each point that makes up the inner edge offset point group are approximately equal to each other in Z coordinates. However, the outer edge offset positions and the inner edge offset positions are different in position in the Z direction. Therefore, the Z coordinate of the inner edge offset point group is a different value from the Z coordinate of the outer edge offset point group. After extracting the three-dimensional coordinates corresponding to the offset positions as measurement plane data, proceed to step S151.

ステップS151では、マッチング部79がモデル平面データと計測平面データとのマッチングを実行する。モデル平面データと計測平面データとは、ともに三次元座標のデータである。マッチングにおいては、計測平面データに含まれる複数の計測点の三次元座標と、モデル平面データに含まれる複数の点の三次元座標のデータとを一致させる。例えば、特定の1点の座標を一致させた後、その点に隣接する点の座標を一致させる処理を繰り返すことで、全ての点について座標を一致させる。ただし、計測平面データには、多少の誤差が含まれているため、各点の座標を完全に一致させる必要はない。例えば、モデル平面データと計測平面データとの対応する点同士の距離の総和が最小となる位置姿勢をマッチング結果としてもよい。 In step S151, the matching unit 79 performs matching between the model plane data and the measurement plane data. Both the model plane data and the measurement plane data are three-dimensional coordinate data. In matching, the three-dimensional coordinates of multiple measurement points included in the measurement plane data are matched with the three-dimensional coordinate data of multiple points included in the model plane data. For example, after matching the coordinates of one specific point, the process of matching the coordinates of points adjacent to that point is repeated to match the coordinates of all points. However, since the measurement plane data contains some errors, it is not necessary to match the coordinates of each point perfectly. For example, the matching result may be the position and orientation that minimizes the sum of the distances between corresponding points in the model plane data and the measurement plane data.

計測対象物41の形状に依存するが、計測平面データには、Z座標が互いに異なる外縁オフセット点群と内縁オフセット点群とが含まれている場合がある。この場合には、外縁オフセット点群と内縁オフセット点群とのそれぞれがモデル平面データとマッチングする際に、X座標とY座標の一致に加えて、Z座標の一致が必要となる。したがって、各点のZ座標が一定であることで、実質的にX座標とY座標との2つの座標でマッチングをする場合に比べて、マッチングに使用する情報量が多くなる。マッチングを実行することで位置姿勢の認識が完了したことで、位置姿勢認識に関する制御を終了する。位置姿勢認識の終了後、ロボット10を用いた組み付け制御等の所望の制御に移行する。 Depending on the shape of the measurement object 41, the measurement plane data may contain an outer edge offset point cloud and an inner edge offset point cloud whose Z coordinates are different from each other. In this case, when matching the outer edge offset point cloud and the inner edge offset point cloud with the model plane data, in addition to matching the X and Y coordinates, the Z coordinates must also match. Therefore, since the Z coordinate of each point is constant, a larger amount of information is used for matching compared to matching using only two coordinates, the X and Y coordinates. By performing matching, position and orientation recognition is completed, and control related to position and orientation recognition is terminated. After position and orientation recognition is completed, the process transitions to the desired control, such as assembly control using the robot 10.

以下、上述した実施形態による効果を説明する。上述した実施形態によると、認識システム1は、表面画像に基づいて、計測対象物41の平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部74を備えている。さらに、認識システム1は、モデル平面データと計測平面データとをマッチングして計測対象物41の位置姿勢を認識するマッチング部79を備えている。このため、平面部分に比べて計測精度の低いエッジ部分の三次元座標を含まないデータである計測平面データを用いてマッチングを行うことができる。したがって、マッチングにおいて、計測精度の低い三次元座標が多く含まれてしまい、位置姿勢認識の精度が低下してしまうことを抑制できる。よって、精度の高い位置姿勢認識が可能な認識システム1を提供できる。 The effects of the above-described embodiment will be described below. According to the above-described embodiment, the recognition system 1 includes a measurement plane data extraction unit 74 that extracts three-dimensional coordinates in the planar portion of the measurement object 41 as measurement plane data based on the surface image. Furthermore, the recognition system 1 includes a matching unit 79 that matches the model plane data with the measurement plane data to recognize the position and orientation of the measurement object 41. For this reason, matching can be performed using the measurement plane data, which is data that does not include three-dimensional coordinates of edge portions, which have lower measurement accuracy compared to the planar portion. Therefore, it is possible to prevent the matching from including many three-dimensional coordinates with low measurement accuracy, which would result in a decrease in the accuracy of position and orientation recognition. Therefore, it is possible to provide a recognition system 1 that is capable of highly accurate position and orientation recognition.

計測対象物41の表面に段差が多く形成されているほど計測データにおけるエッジ部分の割合が多くなる。このため、エッジ部分を含む計測データを用いた位置姿勢認識の精度が低下しやすい。したがって、平面部分の三次元座標を抽出した計測平面データを用いて位置姿勢認識を行う構成は、計測対象物41の表面に段差が多く形成されている場合に、特に有用である。 The more steps there are on the surface of the measurement object 41, the greater the proportion of edge portions in the measurement data. For this reason, the accuracy of position and orientation recognition using measurement data that includes edge portions is likely to decrease. Therefore, a configuration that performs position and orientation recognition using measurement plane data in which the three-dimensional coordinates of the plane portion are extracted is particularly useful when there are many steps on the surface of the measurement object 41.

マッチング部79は、モデル平面データと計測平面データとをマッチングして計測対象物41の位置姿勢を認識する。このため、モデルデータと計測データとをマッチングする場合に比べて、マッチングすべき三次元座標の数が少ない。言い換えると、マッチングに必要なデータのデータサイズが小さい。したがって、マッチングに要する処理を低減し、マッチングを高速に完了させることができる。 The matching unit 79 recognizes the position and orientation of the measurement object 41 by matching the model plane data with the measurement plane data. Therefore, the number of three-dimensional coordinates to be matched is smaller than when matching model data with measurement data. In other words, the data size of the data required for matching is small. Therefore, the processing required for matching can be reduced, and matching can be completed quickly.

計測平面データ抽出部74は、計測データから計測平面データを抽出している。このため、計測領域に最初からエッジ部分を含まないようにする目的で、計測すべき領域を制限する必要がない。したがって、計測ユニット20に投光領域を計測対象物41の形状に合わせて制御するための構成を別途備える必要がなく、計測ユニット20の構成をシンプルにしやすい。さらに、計測対象物41の形状に合わせて計測領域を制限する構成に比べて、素早く計測を開始しやすい。さらに、計測平面データのデータ数が少なく、マッチングが適切にできない場合に、計測データから別の計測平面データを抽出することができる。別の計測平面データとは、例えば、エッジ部分からのオフセット量の異なる位置における三次元座標のデータのことである。このため、適切にマッチングができない場合に、改めて計測対象物41の計測を行う必要がない。 The measurement plane data extraction unit 74 extracts the measurement plane data from the measurement data. Therefore, there is no need to limit the area to be measured in order to prevent the edge portion from being included in the measurement area from the beginning. Therefore, there is no need to provide the measurement unit 20 with a separate configuration for controlling the light projection area to match the shape of the measurement object 41, making it easier to simplify the configuration of the measurement unit 20. Furthermore, it is easier to start measurement quickly compared to a configuration that limits the measurement area to match the shape of the measurement object 41. Furthermore, when the number of data points in the measurement plane data is small and matching cannot be performed appropriately, it is possible to extract other measurement plane data from the measurement data. The other measurement plane data is, for example, three-dimensional coordinate data at a position with a different offset amount from the edge portion. Therefore, when matching cannot be performed appropriately, there is no need to measure the measurement object 41 again.

オフセット位置設定部77は、エッジ部分から離れる方向にオフセットした位置であるオフセット位置を設定する。さらに、計測平面データ抽出部74は、三次元点群の中からオフセット位置に対応する位置の三次元座標を計測平面データとして抽出する。このため、エッジ部分から離れた位置の三次元座標をマッチングに使用できる。 The offset position setting unit 77 sets an offset position that is an offset position in a direction away from the edge portion. Furthermore, the measurement plane data extraction unit 74 extracts the three-dimensional coordinates of a position corresponding to the offset position from the three-dimensional point cloud as measurement plane data. Therefore, the three-dimensional coordinates of a position away from the edge portion can be used for matching.

オフセット位置設定部77は、エッジ部分から中心点に向かって近づく方向にオフセットした位置であるオフセット位置を設定する。このため、少なくとも、外側エッジ部分よりも外側にオフセット位置が設定されることがない。したがって、平面部分をオフセット位置として設定しやすい。 The offset position setting unit 77 sets an offset position that is offset from the edge portion toward the center point. Therefore, at least the offset position is not set outside the outer edge portion. Therefore, it is easy to set the flat portion as the offset position.

オフセット位置設定部77は、中心点に近づく向きに所定のオフセット量だけエッジ部分から近づいた位置をオフセット位置として設定する。このため、エッジ部分からオフセット位置までの移動量が小さく、エッジ部分に近い位置の計測精度の低い三次元座標が計測平面データに含まれてしまうことを抑制しやすい。 The offset position setting unit 77 sets a position that is a predetermined offset amount away from the edge portion in a direction toward the center point as the offset position. Therefore, the amount of movement from the edge portion to the offset position is small, making it easier to prevent three-dimensional coordinates with low measurement accuracy at positions close to the edge portion from being included in the measurement plane data.

オフセット位置設定部77は、中心点に近づく向きに所定のオフセット倍率でエッジ部分から縮小した位置をオフセット位置として設定する。このため、中心点に近いエッジ部分に対するオフセット位置が中心点を越えてしまうことを抑制できる。 The offset position setting unit 77 sets a position that is reduced from the edge portion by a predetermined offset magnification in a direction toward the center point as the offset position. This makes it possible to prevent the offset position for the edge portion close to the center point from exceeding the center point.

特徴点抽出部75は、表面画像の輝度の変化に基づいて特徴点であるエッジ部分の位置を抽出する。このため、三次元点群から特徴点であるエッジ部分の位置を抽出する場合に比べて、精度よくエッジ部分の位置を抽出できる。 The feature point extraction unit 75 extracts the positions of edge parts, which are feature points, based on changes in luminance of the surface image. This allows the positions of edge parts to be extracted with greater accuracy than when the positions of edge parts, which are feature points, are extracted from a three-dimensional point cloud.

マッチング部79は、計測ユニット20と計測対象物41との並び方向であるZ方向における座標成分を含む三次元座標の各座標成分についてマッチングを行う。ここで、計測平面データにZ座標の異なる平面部分のデータが含まれている場合を想定する。Z座標の異なる平面部分の例としては、外縁オフセット点群と内縁オフセット点群とのZ座標が異なる場合である。あるいは、外縁オフセット位置における平面部分がZ方向に傾斜しており、外縁オフセット点群の中でZ座標が異なる場合である。あるいは、内縁オフセット位置における平面部分がZ方向に傾斜しており、内縁オフセット点群の中でZ座標が異なる場合である。この場合、マッチング部79は、X座標とY座標とZ座標との各座標成分についてモデル平面データと計測平面データとが一致するようにマッチングを行うこととなる。したがって、実質的にX座標とY座標との2つの座標成分のみを用いてマッチングを行う場合に比べて、多くの座標成分を用いてマッチングすることができる。よって、誤認識を抑制して位置姿勢認識の精度を高めやすい。 The matching unit 79 performs matching for each coordinate component of the three-dimensional coordinates including the coordinate component in the Z direction, which is the alignment direction of the measurement unit 20 and the measurement target object 41. Here, it is assumed that the measurement plane data includes data of plane parts with different Z coordinates. An example of a plane part with different Z coordinates is a case where the Z coordinates of the outer edge offset point group and the inner edge offset point group are different. Alternatively, a case where the plane part at the outer edge offset position is inclined in the Z direction, and the Z coordinates are different in the outer edge offset point group. Alternatively, a case where the plane part at the inner edge offset position is inclined in the Z direction, and the Z coordinates are different in the inner edge offset point group. In this case, the matching unit 79 performs matching so that the model plane data and the measurement plane data match for each coordinate component of the X coordinate, Y coordinate, and Z coordinate. Therefore, it is possible to perform matching using many coordinate components compared to a case where matching is performed using only two coordinate components, the X coordinate and the Y coordinate. Therefore, it is easy to suppress erroneous recognition and improve the accuracy of position and orientation recognition.

計測平面データは、外縁オフセット位置が含まれる平面部分の三次元座標と内縁オフセット位置が含まれる平面部分の三次元座標を含んでいる。言い換えると、計測平面データ抽出部74は、モデル平面データにおいてZ座標の異なる平面部分を含むように計測平面データを抽出している。このため、Z座標の異なる平面部分のデータをマッチングに用いて、誤認識を抑制しやすい。 The measurement plane data includes three-dimensional coordinates of a plane portion that includes the outer edge offset position and three-dimensional coordinates of a plane portion that includes the inner edge offset position. In other words, the measurement plane data extraction unit 74 extracts the measurement plane data so as to include plane portions with different Z coordinates in the model plane data. For this reason, data of plane portions with different Z coordinates can be used for matching, making it easier to suppress erroneous recognition.

また、計測平面データは、外縁オフセット位置が含まれる平面部分の三次元座標と内縁オフセット位置が含まれる平面部分の三次元座標を含んでいる。言い換えると、計測平面データ抽出部74は、互いに離れている複数の平面部分を含むように計測平面データを抽出している。このため、複数の平面部分のデータをマッチングに用いて、誤認識を抑制しやすい。 The measurement plane data also includes three-dimensional coordinates of a plane portion that includes the outer edge offset position and three-dimensional coordinates of a plane portion that includes the inner edge offset position. In other words, the measurement plane data extraction unit 74 extracts the measurement plane data so as to include multiple plane portions that are separated from each other. Therefore, it is easy to suppress erroneous recognition by using data of multiple plane portions for matching.

オフセット位置をエッジ部分から中心点に近づく方向に設定する場合を例に説明を行ったが、オフセットする方向は、上述の例に限られない。例えば、オフセット方向を中心点から離れる方向に設定してもよい。あるいは、オフセット方向を中心点に基づかない方向に設定してもよい。中心点に基づかない方向の一例としては、X方向あるいは、Y方向への平行移動である。ただし、オフセット方向を中心点から離れる方向や、X方向に設定した場合、外側エッジ部分からオフセットした位置の少なくとも一部は、平面部分ではない部分が含まれてしまう。このため、エッジ部分からオフセットされる位置のうち、平面部分に位置する位置のみをオフセット位置とし、平面部分に位置しない位置はオフセット位置としないこととなる。 Although the above description takes as an example a case where the offset position is set in a direction approaching the center point from the edge portion, the offset direction is not limited to the above example. For example, the offset direction may be set in a direction away from the center point. Alternatively, the offset direction may be set in a direction that is not based on the center point. An example of a direction that is not based on the center point is parallel movement in the X direction or Y direction. However, if the offset direction is set in a direction away from the center point or in the X direction, at least a portion of the position offset from the outer edge portion will include a portion that is not a flat surface. For this reason, of the positions offset from the edge portion, only positions that are located on flat surfaces will be set as offset positions, and positions that are not located on flat surfaces will not be set as offset positions.

第2実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。この実施形態では、表面画像に基づいてマスク範囲を設定して、三次元点群から計測平面データを抽出している。また、マスク範囲を設定可能な操作パネル239を備えている。
Second embodiment This embodiment is a modified example based on the preceding embodiment. In this embodiment, a mask range is set based on a surface image, and measurement plane data is extracted from a three-dimensional point cloud. In addition, an operation panel 239 is provided that allows the mask range to be set.

図5において、計測対象物241は、任意の形状の物体を採用可能であるが、一例として楕円形の円盤部分の上に直径の小さな2つの円盤が設けられた形状を採用している。計測対象物241に設けられている小さな2つの円盤は、互いに離間してX方向に並んでいる。計測対象物241は、小さな2つの円盤部分が上側に位置するように作業台31に載置されている。 In FIG. 5, the measurement object 241 can be an object of any shape, but as an example, an elliptical disk portion is used with two small diameter disks on top. The two small disks on the measurement object 241 are spaced apart from each other and lined up in the X direction. The measurement object 241 is placed on the workbench 31 so that the two small disk portions are located on the upper side.

図6において、認識システム1の制御を行う制御部70は、操作パネル239に接続している。操作パネル239は、ユーザによる入力制御を受け付けるための装置である。ユーザは、操作パネル239を用いて認識システム1の位置姿勢認識における設定をユーザが入力可能である。認識システム1における設定の一例は、後述するマスク半径の情報である。認識システム1における設定の一例は、オフセット情報である。制御部70は、操作パネル239で操作された設定を取得する。 In FIG. 6, the control unit 70 that controls the recognition system 1 is connected to an operation panel 239. The operation panel 239 is a device for accepting input control by a user. The user can input settings for position and orientation recognition of the recognition system 1 using the operation panel 239. An example of a setting in the recognition system 1 is mask radius information, which will be described later. An example of a setting in the recognition system 1 is offset information. The control unit 70 acquires the settings operated on the operation panel 239.

計測平面データ抽出部74は、特徴点抽出部75とマスク範囲設定部278とを備えている。マスク範囲設定部278は、特徴点の情報に基づいて後述するマスク範囲を設定する。計測平面データ抽出部74は、マスク範囲設定部278で設定したマスク範囲に対応する位置の三次元点群を除外して計測平面データを抽出することとなる。 The measurement plane data extraction unit 74 includes a feature point extraction unit 75 and a mask range setting unit 278. The mask range setting unit 278 sets a mask range, which will be described later, based on the information on the feature points. The measurement plane data extraction unit 74 extracts measurement plane data by excluding the three-dimensional point cloud at the position corresponding to the mask range set by the mask range setting unit 278.

図7において、位置姿勢認識に関する制御を開始すると、ステップS101でモデル平面データ取得部72がモデル平面データを取得する。その後、ステップS111に進み、計測対象物241を計測する。その後、ステップS112に進み、計測データを取得する。その後、ステップS121に進み、表面画像から特徴点としてエッジ部分を抽出する。その後、ステップS231に進む。 In FIG. 7, when control related to position and orientation recognition is started, the model plane data acquisition unit 72 acquires model plane data in step S101. Then, the process proceeds to step S111, where the measurement target object 241 is measured. Then, the process proceeds to step S112, where measurement data is acquired. Then, the process proceeds to step S121, where edge portions are extracted as feature points from the surface image. Then, the process proceeds to step S231.

ステップS231では、マスク範囲設定部278がマスク半径を取得する。マスク半径とは、エッジ部分を中心として設定されるマスク範囲の半径のことである。マスク範囲については、後述する。マスク半径が大きいほど、マスク範囲が大きくなり、エッジ部分から遠い位置までがマスク範囲となる。マスク半径は、ユーザが操作パネル239を操作することで変更可能である。マスク半径を取得した後、ステップS232に進む。 In step S231, the mask range setting unit 278 acquires the mask radius. The mask radius is the radius of the mask range that is set with the edge part as the center. The mask range will be described later. The larger the mask radius, the larger the mask range will be, and the mask range will extend to positions farther from the edge part. The mask radius can be changed by the user operating the operation panel 239. After acquiring the mask radius, the process proceeds to step S232.

ステップS232では、マスク範囲設定部278がマスク範囲を設定する。マスク範囲とは、計測平面データとしてマッチングに使用すべきではない範囲を示している。マスク範囲は、エッジ部分を含む範囲として設定される。マスク範囲は、エッジ部分を中心とした所定のマスク半径の内側の範囲である。 In step S232, the mask range setting unit 278 sets a mask range. The mask range indicates a range that should not be used for matching as measurement plane data. The mask range is set as a range that includes the edge portion. The mask range is a range inside a specified mask radius centered on the edge portion.

図8において、計測対象物241の下側の円盤部分におけるエッジ部分が外側エッジ部分である。また、計測対象物241の上側の2つの円盤部分におけるエッジ部分が内側エッジ部分である。図において、外側エッジ部分をOE、内側エッジ部分をIEとしてそれぞれ示している。 In FIG. 8, the edge portion of the lower disk portion of the measurement object 241 is the outer edge portion. Also, the edge portions of the two upper disk portions of the measurement object 241 are the inner edge portions. In the figure, the outer edge portion is indicated as OE, and the inner edge portion is indicated as IE.

図において、マスク半径をMR、マスク範囲をMAとしてそれぞれ示している。図において、マスク範囲は、二点鎖線で囲まれた範囲であり、ドットで示された範囲である。マスク範囲には、外側エッジ部分を中心に所定のマスク半径で囲まれる円環状の範囲が含まれている。また、内側エッジ部分を中心に所定のマスク半径で囲まれる円環状の範囲が含まれている。まとめると、マスク範囲には、外側エッジ部に対応する円環状の範囲と、2つの内側エッジ部に対応する2つの円環状の範囲との3つの範囲が含まれている。外側エッジ部分に対応するマスク範囲と内側エッジ部分に対応するマスク範囲とは、重なっていてもよい。この場合、マスク範囲が互いに離れた3つの範囲ではなく、連続する1つの範囲となる。 In the figure, the mask radius is shown as MR and the mask range as MA. In the figure, the mask range is the range surrounded by a two-dot chain line and indicated by dots. The mask range includes an annular range surrounded by a specified mask radius around the outer edge portion. It also includes an annular range surrounded by a specified mask radius around the inner edge portion. In summary, the mask range includes three ranges: an annular range corresponding to the outer edge portion and two annular ranges corresponding to the two inner edge portions. The mask range corresponding to the outer edge portion and the mask range corresponding to the inner edge portion may overlap. In this case, the mask range is not three separate ranges, but one continuous range.

マスク範囲は、マスク半径が大きいほど大きくなる。マスク範囲は、エッジ部分が多いほど大きくなる。エッジ部分同士が離れているほど、マスク範囲同士が重なる面積が小さくなる。このため、マスク範囲は、エッジ部分同士が離れているほど、マスク範囲が大きくなりやすい。このように、マスク範囲は、マスク半径とエッジ部分の形状によって決まる。このため、計測対象物241にエッジ部分が多い場合には、マスク範囲が広くなりやすいため、マスク半径を小さく設定することが好ましい。また、計測対象物241にエッジ部分が少ない場合には、マスク範囲が狭くなりやすいため、マスク半径を大きく設定することが好ましい。マスク範囲を設定した後、ステップS241に進む。 The larger the mask radius, the larger the mask range. The more edge parts there are, the larger the mask range. The further apart the edge parts are, the smaller the area where the mask ranges overlap. For this reason, the further apart the edge parts are, the larger the mask range is likely to be. In this way, the mask range is determined by the mask radius and the shape of the edge parts. For this reason, if the measurement object 241 has many edge parts, the mask range is likely to be wide, so it is preferable to set the mask radius small. Also, if the measurement object 241 has few edge parts, the mask range is likely to be narrow, so it is preferable to set the mask radius large. After setting the mask range, proceed to step S241.

ステップS241では、計測平面データ抽出部74がマスク範囲を除いた位置に対応する三次元座標を計測平面データとして抽出する。マスク範囲を除いた位置は、計測平面データの抽出位置を示す抽出範囲である。計測平面データ抽出部74は、抽出範囲に対応する位置の三次元座標を抽出することとなる。 In step S241, the measurement plane data extraction unit 74 extracts three-dimensional coordinates corresponding to the position excluding the mask range as measurement plane data. The position excluding the mask range is the extraction range that indicates the extraction position of the measurement plane data. The measurement plane data extraction unit 74 extracts the three-dimensional coordinates of the position corresponding to the extraction range.

図9において、抽出範囲をEAとして示している。抽出範囲は、二点鎖線で囲まれた範囲であり、ドットで示された範囲を示している。抽出範囲は、エッジ部分から離れた範囲に設定されている。言い換えると、抽出範囲は、平面部分に設定されている。 In Figure 9, the extraction range is shown as EA. The extraction range is the area surrounded by a two-dot chain line and indicated by dots. The extraction range is set in a range away from the edge portion. In other words, the extraction range is set in the flat portion.

マスク範囲が大きいほど、抽出範囲が小さくなり、計測平面データのデータサイズが小さくなる。このため、計測平面データのデータサイズを小さくしたい場合には、マスク半径を大きく設定することとなる。一方、計測平面データのデータサイズを大きくしたい場合には、マスク半径を小さく設定することとなる。マスク半径の設定は、ユーザが操作パネル239を操作することで変更可能である。ただし、計測平面データのデータサイズが適切なデータサイズとなるように、自動でマスク半径を変更してもよい。マスク範囲を除いた位置に対応する三次元座標を計測平面データとして抽出した後、ステップS151に進み、マッチングを行う。 The larger the mask range, the smaller the extraction range and the smaller the data size of the measurement plane data. Therefore, if you want to reduce the data size of the measurement plane data, you will set the mask radius to be large. On the other hand, if you want to increase the data size of the measurement plane data, you will set the mask radius to be small. The mask radius setting can be changed by the user operating the operation panel 239. However, the mask radius may be changed automatically so that the data size of the measurement plane data becomes appropriate. After extracting the three-dimensional coordinates corresponding to the position excluding the mask range as measurement plane data, proceed to step S151 and perform matching.

計測平面データのデータサイズが小さいほどマッチングの処理を高速に完了させることができる。しかし、計測平面データのデータサイズが大きいほどマッチングの処理で正確に位置姿勢を認識しやすい。したがって、位置姿勢認識における処理速度と精度とのバランスを考慮して計測平面データのデータサイズを調整することが好ましい。計測平面データのデータサイズは、位置姿勢認識の精度が著しく低下することを防ぐため、計測データの三次元点群のデータサイズの半分以上であることが好ましい。 The smaller the data size of the measurement plane data, the faster the matching process can be completed. However, the larger the data size of the measurement plane data, the easier it is to accurately recognize the position and orientation in the matching process. Therefore, it is preferable to adjust the data size of the measurement plane data while considering the balance between processing speed and accuracy in position and orientation recognition. In order to prevent a significant decrease in the accuracy of position and orientation recognition, it is preferable that the data size of the measurement plane data is at least half the data size of the three-dimensional point cloud of the measurement data.

以下、上述した実施形態による効果を説明する。上述した実施形態によると、計測平面データ抽出部74は、三次元点群の中からマスク範囲を除外した位置の三次元座標を計測平面データとして抽出する。このため、エッジ部分とエッジ部分の周辺部分を含まない位置の三次元座標を計測平面データとすることができる。したがって、平面部分に比べて計測精度の低いエッジ部分の三次元座標を含まないデータである計測平面データを用いてマッチングを行うことができる。よって、マッチングにおいて、計測精度の低い三次元座標が多く含まれてしまい、位置姿勢認識の精度が低下してしまうことを抑制できる。 The effects of the above-described embodiment will be described below. According to the above-described embodiment, the measurement plane data extraction unit 74 extracts the three-dimensional coordinates of a position excluding the mask range from the three-dimensional point cloud as measurement plane data. Therefore, the three-dimensional coordinates of a position that does not include edge portions and their peripheral portions can be used as measurement plane data. Therefore, matching can be performed using measurement plane data that is data that does not include the three-dimensional coordinates of edge portions, which have lower measurement accuracy compared to plane portions. This prevents the matching from including many three-dimensional coordinates with low measurement accuracy, which would result in a decrease in the accuracy of position and orientation recognition.

操作パネル239を操作することでマスク半径をユーザが設定可能である。言い換えると、操作パネル239を操作することでマスク範囲の大きさをユーザが設定可能である。例えば、計測対象物241にエッジ部分が多い場合に、マスク半径を小さく設定することで、マスク範囲を小さくできる。あるいは、計測対象物241にエッジ部分が少ない場合に、マスク半径を大きく設定することで、マスク範囲を大きくできる。このため、計測対象物241の形状に合わせてマスク半径を適切に設定することで、計測平面データのデータサイズを適切なサイズとすることができる。 The user can set the mask radius by operating the operation panel 239. In other words, the user can set the size of the mask range by operating the operation panel 239. For example, if the measurement object 241 has many edge portions, the mask range can be made small by setting the mask radius small. Alternatively, if the measurement object 241 has few edge portions, the mask range can be made large by setting the mask radius large. Therefore, by appropriately setting the mask radius to match the shape of the measurement object 241, the data size of the measurement plane data can be made appropriate.

第3実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。この実施形態では、表面画像から平面部分を抽出して、平面部分に対応する位置の三次元座標を計測平面データとしている。
Third Embodiment This embodiment is a modification of the preceding embodiment as a basic form. In this embodiment, a planar portion is extracted from a surface image, and the three-dimensional coordinates of a position corresponding to the planar portion are used as measurement plane data.

図10において、計測平面データ抽出部74は、特徴点抽出部375を備えている。特徴点抽出部375は、計測データから特徴点を抽出する。特徴点は、例えば計測対象物41の平面部分である。 In FIG. 10, the measurement plane data extraction unit 74 includes a feature point extraction unit 375. The feature point extraction unit 375 extracts feature points from the measurement data. The feature points are, for example, planar portions of the measurement object 41.

図11において、位置姿勢認識に関する制御を開始すると、ステップS101でモデル平面データ取得部72がモデル平面データを取得する。その後、ステップS111に進み、計測対象物41を計測する。その後、ステップS112に進み、計測データを取得する。その後、ステップS321に進む。 In FIG. 11, when control related to position and orientation recognition is started, the model plane data acquisition unit 72 acquires model plane data in step S101. Then, the process proceeds to step S111, where the measurement target object 41 is measured. Then, the process proceeds to step S112, where measurement data is acquired. Then, the process proceeds to step S321.

ステップS321では、特徴点抽出部375が表面画像から特徴点として平面部分を抽出する。平面部分は、表面画像における輝度の変化から抽出することができる。より詳細には、周囲に比べて輝度の変化が小さい部分を平面部分とみなして抽出することとなる。平面部分を抽出した後、ステップS341に進む。 In step S321, the feature point extraction unit 375 extracts planar parts from the surface image as feature points. Planar parts can be extracted from changes in luminance in the surface image. More specifically, parts with smaller changes in luminance compared to the surrounding area are regarded as planar parts and extracted. After extracting the planar parts, the process proceeds to step S341.

ステップS341では、計測平面データ抽出部74が平面部分の三次元座標を抽出する。より詳細には、表面画像に基づいて決定した平面部分に対応する位置の三次元座標を抽出して計測平面データとする。平面部分として抽出した位置全体に対応する位置の三次元座標を計測平面データとして抽出する。ただし、平面部分として抽出した位置の一部を抜粋して対応する位置の三次元座標を計測平面データとして抽出してもよい。三次元座標を抽出した後、ステップS151に進み、マッチングを行う。 In step S341, the measurement plane data extraction unit 74 extracts the three-dimensional coordinates of the planar portion. More specifically, the three-dimensional coordinates of the positions corresponding to the planar portion determined based on the surface image are extracted and used as the measurement plane data. The three-dimensional coordinates of the positions corresponding to the entire positions extracted as the planar portion are extracted as the measurement plane data. However, it is also possible to extract a portion of the positions extracted as the planar portion and extract the three-dimensional coordinates of the corresponding positions as the measurement plane data. After extracting the three-dimensional coordinates, the process proceeds to step S151, where matching is performed.

以下、上述した実施形態による効果を説明する。上述した実施形態によると、計測平面データ抽出部74は、三次元点群の中から特徴点抽出部375で抽出した平面部分に対応する位置の三次元座標を計測平面データとして抽出する。このため、エッジ部分を抽出してからエッジ部分を含まないように三次元座標を抽出する場合に比べて、計測平面データの抽出に要する処理を低減しやすい。したがって、位置姿勢認識の制御における処理負荷を低減して、マッチングを高速に完了させることができる。 The effects of the above-described embodiment will be described below. According to the above-described embodiment, the measurement plane data extraction unit 74 extracts, as measurement plane data, the three-dimensional coordinates of the position corresponding to the plane portion extracted by the feature point extraction unit 375 from the three-dimensional point cloud. This makes it easier to reduce the processing required to extract the measurement plane data compared to the case where the edge portion is extracted and then the three-dimensional coordinates are extracted so as not to include the edge portion. This reduces the processing load in controlling position and orientation recognition, and allows matching to be completed quickly.

他の実施形態
この明細書および図面等における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、1つの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、請求の範囲の記載によって示され、さらに請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものと解されるべきである。
Other embodiments The disclosure in this specification and drawings, etc. is not limited to the exemplified embodiments. The disclosure includes the exemplified embodiments and modifications by those skilled in the art based thereon. For example, the disclosure is not limited to the combination of parts and/or elements shown in the embodiments. The disclosure can be implemented by various combinations. The disclosure can have additional parts that can be added to the embodiments. The disclosure includes the omission of parts and/or elements of the embodiments. The disclosure includes the substitution or combination of parts and/or elements between one embodiment and another embodiment. The disclosed technical scope is not limited to the description of the embodiments. Some disclosed technical scopes are indicated by the description of the claims, and should be interpreted as including all modifications within the meaning and scope equivalent to the description of the claims.

明細書および図面等における開示は、請求の範囲の記載によって限定されない。明細書および図面等における開示は、請求の範囲に記載された技術的思想を包含し、さらに請求の範囲に記載された技術的思想より多様で広範な技術的思想に及んでいる。よって、請求の範囲の記載に拘束されることなく、明細書および図面等の開示から、多様な技術的思想を抽出することができる。 The disclosure in the specification and drawings, etc. is not limited by the claims. The disclosure in the specification and drawings, etc. encompasses the technical ideas described in the claims, and extends to more diverse and extensive technical ideas than the technical ideas described in the claims. Therefore, various technical ideas can be extracted from the disclosure in the specification and drawings, etc., without being bound by the claims.

本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された1つないしは複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置およびその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置およびその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and the method described in the present disclosure may be realized by a dedicated computer having a processor programmed to execute one or more functions embodied in a computer program. Alternatively, the device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit. Alternatively, the device and the method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits. In addition, the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.

1 認識システム、 10 ロボット、 11 ベース、 15 ロボットアーム、 16 ロボットハンド、 20 計測ユニット、 31 作業台、 41 計測対象物、 70 制御部、 72 モデル平面データ取得部、 73 計測データ取得部、 74 計測平面データ抽出部、 75 特徴点抽出部、 76 中心点抽出部、 77 オフセット位置設定部、 79 マッチング部、 239 操作パネル、 241 計測対象物、 278 マスク範囲設定部、 375 特徴点抽出部 1 Recognition system, 10 Robot, 11 Base, 15 Robot arm, 16 Robot hand, 20 Measurement unit, 31 Work table, 41 Measurement object, 70 Control unit, 72 Model plane data acquisition unit, 73 Measurement data acquisition unit, 74 Measurement plane data extraction unit, 75 Feature point extraction unit, 76 Center point extraction unit, 77 Offset position setting unit, 79 Matching unit, 239 Operation panel, 241 Measurement object, 278 Mask range setting unit, 375 Feature point extraction unit

Claims (9)

計測対象物(41、241)の形状を計測して前記計測対象物の位置姿勢を認識するための位置姿勢認識を行う認識システムであって、
前記計測対象物の表面画像を撮像し、前記表面画像と対応する三次元点群を算出する計測ユニット(20)と、
前記計測対象物の三次元形状を示すモデルデータから平面部分のデータを抽出したモデル平面データを取得するモデル平面データ取得部(72)と、
前記計測ユニットが撮像した前記表面画像および前記計測ユニットが算出した前記三次元点群を含む計測データを取得する計測データ取得部(73)と、
前記計測データ取得部が取得した前記表面画像に基づいて、前記三次元点群の中から前記平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部(74)と、
前記モデル平面データと前記計測平面データとをマッチングして前記計測対象物の前記位置姿勢を認識するマッチング部(79)と
前記表面画像から特徴点としてエッジ部分を抽出する特徴点抽出部(75)と、
前記エッジ部分から離れる方向にオフセットした位置であるオフセット位置を設定するオフセット位置設定部(77)とを備え
前記計測平面データ抽出部は、前記三次元点群の中から前記オフセット位置に対応する位置の前記三次元座標を前記計測平面データとして抽出する認識システム。
A recognition system for performing position and orientation recognition for measuring a shape of a measurement object (41, 241) and recognizing a position and orientation of the measurement object, comprising:
A measurement unit (20) that captures a surface image of the measurement object and calculates a three-dimensional point cloud corresponding to the surface image;
a model plane data acquisition unit (72) for acquiring model plane data obtained by extracting data of a plane portion from model data indicating a three-dimensional shape of the measurement object;
a measurement data acquisition unit (73) that acquires measurement data including the surface image captured by the measurement unit and the three-dimensional point cloud calculated by the measurement unit;
a measurement plane data extraction unit (74) that extracts, as measurement plane data, three-dimensional coordinates in the plane portion from the three-dimensional point cloud based on the surface image acquired by the measurement data acquisition unit;
a matching unit (79) that matches the model plane data with the measurement plane data to recognize the position and orientation of the measurement object ;
a feature point extraction unit (75) for extracting edge portions as feature points from the surface image;
an offset position setting unit (77) that sets an offset position that is a position offset in a direction away from the edge portion ,
The measurement plane data extraction unit is a recognition system that extracts, from the three-dimensional point cloud, the three-dimensional coordinates of a position corresponding to the offset position as the measurement plane data .
前記表面画像から中心点を抽出する中心点抽出部(76)と、
前記オフセット位置設定部は、前記エッジ部分から前記中心点に向かって近づく方向にオフセットした位置をオフセット位置として設定する請求項に記載の認識システム。
a center point extraction unit (76) for extracting a center point from the surface image;
The recognition system according to claim 1 , wherein the offset position setting unit sets a position offset from the edge portion in a direction approaching the center point as the offset position.
前記オフセット位置設定部は、前記エッジ部分から前記中心点に近づく向きにオフセット量だけ前記エッジ部分から近づいた位置を前記オフセット位置として設定する請求項に記載の認識システム。 The recognition system according to claim 2 , wherein the offset position setting unit sets, as the offset position, a position that is closer to the center point from the edge portion by an offset amount in a direction from the edge portion to the center point. 前記オフセット位置設定部は、前記エッジ部分から前記中心点に近づく向きにオフセット倍率で前記エッジ部分から縮小した位置を前記オフセット位置として設定する請求項に記載の認識システム。 The recognition system according to claim 2 , wherein the offset position setting unit sets, as the offset position, a position reduced from the edge portion by an offset magnification in a direction from the edge portion toward the center point. 計測対象物(41、241)の形状を計測して前記計測対象物の位置姿勢を認識するための位置姿勢認識を行う認識システムであって、
前記計測対象物の表面画像を撮像し、前記表面画像と対応する三次元点群を算出する計測ユニット(20)と、
前記計測対象物の三次元形状を示すモデルデータから平面部分のデータを抽出したモデル平面データを取得するモデル平面データ取得部(72)と、
前記計測ユニットが撮像した前記表面画像および前記計測ユニットが算出した前記三次元点群を含む計測データを取得する計測データ取得部(73)と、
前記計測データ取得部が取得した前記表面画像に基づいて、前記三次元点群の中から前記平面部分における三次元座標を計測平面データとして抽出する計測平面データ抽出部(74)と、
前記モデル平面データと前記計測平面データとをマッチングして前記計測対象物の前記位置姿勢を認識するマッチング部(79)と
前記表面画像から特徴点としてエッジ部分を抽出する特徴点抽出部(75)と、
前記エッジ部分を含む周囲の領域をマスク範囲として抽出するマスク範囲設定部(278)とを備え
前記計測平面データ抽出部は、前記三次元点群の中から前記マスク範囲を除外した位置の前記三次元座標を前記計測平面データとして抽出する認識システム。
A recognition system for performing position and orientation recognition for measuring a shape of a measurement object (41, 241) and recognizing a position and orientation of the measurement object, comprising:
A measurement unit (20) that captures a surface image of the measurement object and calculates a three-dimensional point cloud corresponding to the surface image;
a model plane data acquisition unit (72) for acquiring model plane data obtained by extracting data of a plane portion from model data indicating a three-dimensional shape of the measurement object;
a measurement data acquisition unit (73) that acquires measurement data including the surface image captured by the measurement unit and the three-dimensional point cloud calculated by the measurement unit;
a measurement plane data extraction unit (74) that extracts, as measurement plane data, three-dimensional coordinates in the plane portion from the three-dimensional point cloud based on the surface image acquired by the measurement data acquisition unit;
a matching unit (79) that matches the model plane data with the measurement plane data to recognize the position and orientation of the measurement object ;
a feature point extraction unit (75) for extracting edge portions as feature points from the surface image;
a mask range setting unit (278) for extracting a surrounding area including the edge portion as a mask range ,
The measurement plane data extraction unit is a recognition system that extracts, as the measurement plane data, the three-dimensional coordinates of a position excluding the mask range from the three-dimensional point cloud .
前記位置姿勢認識における設定をユーザが入力可能な操作パネル(239)を備え、
前記操作パネルを操作することで前記マスク範囲の大きさを前記ユーザが設定可能である請求項5に記載の認識システム。
an operation panel (239) through which a user can input settings for the position and orientation recognition;
The recognition system according to claim 5 , wherein the user can set the size of the mask range by operating the operation panel.
前記特徴点抽出部は、前記表面画像の輝度の変化に基づいて前記特徴点の位置を抽出する請求項から請求項のいずれかに記載の認識システム。 7. The recognition system according to claim 1 , wherein the feature point extraction unit extracts the positions of the feature points based on a change in luminance of the surface image. 前記計測平面データ抽出部は、前記モデル平面データにおいて前記計測ユニットと前記計測対象物との並び方向における座標成分の異なる前記平面部分が存在する場合に、前記並び方向における座標成分の異なる前記平面部分に対応する位置の前記三次元座標を含むように前記計測平面データを抽出する請求項1から請求項のいずれかに記載の認識システム。 8. The recognition system according to claim 1, wherein, when a planar portion having different coordinate components in an arrangement direction of the measurement unit and the measurement object exists in the model planar data, the measurement planar data extraction unit extracts the measurement planar data so as to include three-dimensional coordinates of a position corresponding to the planar portion having different coordinate components in the arrangement direction. 前記計測平面データ抽出部は、前記モデル平面データにおいて前記平面部分が互いに離れて複数存在する場合に、互いに離れている複数の前記平面部分に対応する位置の前記三次元座標を含むように前記計測平面データを抽出する請求項1から請求項のいずれかに記載の認識システム。 9. A recognition system according to claim 1, wherein the measurement plane data extraction unit extracts the measurement plane data so as to include three-dimensional coordinates of positions corresponding to the plurality of planar portions that are separated from each other when the plurality of planar portions are present in the model plane data and are separated from each other.
JP2020191217A 2020-11-17 2020-11-17 Recognition System Active JP7502641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020191217A JP7502641B2 (en) 2020-11-17 2020-11-17 Recognition System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020191217A JP7502641B2 (en) 2020-11-17 2020-11-17 Recognition System

Publications (2)

Publication Number Publication Date
JP2022080188A JP2022080188A (en) 2022-05-27
JP7502641B2 true JP7502641B2 (en) 2024-06-19

Family

ID=81731671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020191217A Active JP7502641B2 (en) 2020-11-17 2020-11-17 Recognition System

Country Status (1)

Country Link
JP (1) JP7502641B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056464A (en) 2012-09-13 2014-03-27 Univ Of Tokyo Object recognition device, object recognition method and object recognition program
JP2016170050A (en) 2015-03-12 2016-09-23 キヤノン株式会社 Position attitude measurement device, position attitude measurement method and computer program
JP2018097889A (en) 2018-01-17 2018-06-21 セイコーエプソン株式会社 Object recognition device, object recognition method, object recognition program, robot system, and robot
JP2020180914A (en) 2019-04-26 2020-11-05 オムロン株式会社 Device, method, and program for detecting position attitude of object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056464A (en) 2012-09-13 2014-03-27 Univ Of Tokyo Object recognition device, object recognition method and object recognition program
JP2016170050A (en) 2015-03-12 2016-09-23 キヤノン株式会社 Position attitude measurement device, position attitude measurement method and computer program
JP2018097889A (en) 2018-01-17 2018-06-21 セイコーエプソン株式会社 Object recognition device, object recognition method, object recognition program, robot system, and robot
JP2020180914A (en) 2019-04-26 2020-11-05 オムロン株式会社 Device, method, and program for detecting position attitude of object

Also Published As

Publication number Publication date
JP2022080188A (en) 2022-05-27

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
US9621793B2 (en) Information processing apparatus, method therefor, and measurement apparatus
US9390324B1 (en) Image processing device and method of image processing
JP6749034B1 (en) Post-detection refinement based on edges and multidimensional corners
JP6703812B2 (en) 3D object inspection device
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
US10664939B2 (en) Position control system, position detection device, and non-transitory recording medium
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
WO2013061976A1 (en) Shape inspection method and device
US10708479B2 (en) Optical measurement of object location in three dimensions
JP6973444B2 (en) Control system, information processing device and control method
JP5913903B2 (en) Shape inspection method and apparatus
JP5093591B2 (en) 3D position and orientation measurement method and apparatus
JP7502641B2 (en) Recognition System
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
CN111199533B (en) Image processing apparatus and method
JPH1055446A (en) Object recognizing device
JP2009186404A (en) Image information creating device and image information creating method
JP4097255B2 (en) Pattern matching apparatus, pattern matching method and program
JP2015210690A (en) Image recognition device
CN111742349B (en) Information processing apparatus, information processing method, and information processing storage medium
JP7153514B2 (en) 3D shape inspection device, 3D shape inspection method, 3D shape inspection program, computer
JP2018077168A (en) Simulator, simulation method and simulation program
JP7502343B2 (en) Image Processing System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520

R150 Certificate of patent or registration of utility model

Ref document number: 7502641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150