JP2021085781A - Information processing device, information processing method, measuring device, program, system, and article manufacturing method - Google Patents
Information processing device, information processing method, measuring device, program, system, and article manufacturing method Download PDFInfo
- Publication number
- JP2021085781A JP2021085781A JP2019215655A JP2019215655A JP2021085781A JP 2021085781 A JP2021085781 A JP 2021085781A JP 2019215655 A JP2019215655 A JP 2019215655A JP 2019215655 A JP2019215655 A JP 2019215655A JP 2021085781 A JP2021085781 A JP 2021085781A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- information
- posture
- axis
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、計測装置、プログラム、システム及び物品の製造方法に関する。 The present invention relates to an information processing device, an information processing method, a measuring device, a program, a system, and a method for manufacturing an article.
工場などの生産ラインにおいて、山積みされた物体(対象物体、ワーク)の中から1個体を、ビジョンシステムを用いて特定し、3次元位置姿勢を計測することで、ロボットに取り付けたハンドにより把持を行う技術が近年開発されている。 In a production line such as a factory, one individual is identified from a pile of objects (objects, workpieces) using a vision system, and by measuring the three-dimensional position and posture, it can be grasped by a hand attached to the robot. The technology to do has been developed in recent years.
物体の3次元位置姿勢を計測する方法として、対象物体の撮影画像から1個体のおおよその位置姿勢を検出し、その位置姿勢を初期値として、画像データに対して物体の3次元形状モデルをあてはめる(モデルフィッティング)方法がある。この方法では物体の形状によっては、後段のモデルフィッティングを行っても正しい位置姿勢を算出できない場合がある。 As a method of measuring the three-dimensional position and orientation of an object, the approximate position and orientation of one individual is detected from the captured image of the target object, and the three-dimensional shape model of the object is applied to the image data with the position and orientation as the initial value. There is a (model fitting) method. With this method, depending on the shape of the object, it may not be possible to calculate the correct position and orientation even if the model fitting in the subsequent stage is performed.
たとえば、表と裏で互いに形状が類似する物体の場合には、表側が観測されているにも関わらず、検出処理において裏側の位置姿勢を誤検出したとする。このとき、その位置姿勢を初期値としてモデルフィッティングを行っても誤った解に収束してしまい、正しい位置姿勢を算出できない。 For example, in the case of an object having similar shapes on the front and back sides, it is assumed that the position and orientation of the back side are erroneously detected in the detection process even though the front side is observed. At this time, even if the model fitting is performed with the position / orientation as the initial value, the solution converges to an erroneous solution, and the correct position / orientation cannot be calculated.
これに対して特許文献1では、互いに誤りやすい関係にある、対称的に配置した2つの姿勢からフィッティングを行い、両者の結果を比較することで、誤認識の抑制を行う方法が記載されている。具体的には、3次元形状モデルと画像とのフィッティングを行い、その際に姿勢収束に大きく寄与する(姿勢収束がしやすい)軸を求める。そして、フィッティングして算出した位置姿勢に対して、求めた軸の向きが反転するように対象物体を回転させた位置姿勢を新たな初期値として作成し、そこから別途フィッティングを行う。そしてこれらのフィッティング結果を比較し、最良のものを選択することで誤認識の抑制を行っている。 On the other hand, Patent Document 1 describes a method of suppressing erroneous recognition by performing fitting from two symmetrically arranged postures, which are easily error-prone to each other, and comparing the results of the two postures. .. Specifically, the three-dimensional shape model is fitted to the image, and at that time, the axis that greatly contributes to the posture convergence (the posture convergence is easy) is obtained. Then, a position / orientation in which the target object is rotated so that the direction of the obtained axis is reversed with respect to the position / orientation calculated by fitting is created as a new initial value, and fitting is performed separately from there. Then, by comparing these fitting results and selecting the best one, false recognition is suppressed.
また、ある軸まわりに略回転対称性がある物体の場合には、検出処理において回転軸まわりに類似の位置姿勢を誤検出する場合があり、正しい位置姿勢を算出できない。これに対して特許文献2では、まず回転軸を特定し、次に回転軸まわりに姿勢を特徴づける部位に注目して、撮影画像において回転軸まわりに特徴部位をサーチすることにより、略回転対称性がある物体の回転軸回りの誤認識の抑制を行っている。 Further, in the case of an object having substantially rotational symmetry around a certain axis, a similar position / orientation around the rotation axis may be erroneously detected in the detection process, and the correct position / orientation cannot be calculated. On the other hand, in Patent Document 2, the rotation axis is first specified, then the portion that characterizes the posture around the rotation axis is focused on, and the feature portion is searched around the rotation axis in the captured image, thereby substantially rotationally symmetric. It suppresses erroneous recognition around the rotation axis of a property.
しかしながら、特許文献1および特許文献2に記載の方法では、ある軸まわりに略回転対称性(第1の対称性)をもち、また、それとは異なる第2の対称性をもつような物体に対しては、正しい姿勢を求めることができない場合がある。第2の対称性をもつような物体とは、例えば図2に示すようなz軸まわりに略回転対称性をもち、x軸まわりに略反転対称である物体を指す。 However, in the methods described in Patent Document 1 and Patent Document 2, for an object having substantially rotational symmetry (first symmetry) around a certain axis and having a second symmetry different from that. In some cases, it may not be possible to obtain the correct posture. The object having the second symmetry refers to an object having substantially rotational symmetry around the z-axis and substantially inversion symmetry around the x-axis as shown in FIG. 2, for example.
この物体に対して特許文献1の方法を適用すると、物体の長手方向の軸の向きを入れ替えたような姿勢を候補として作成することになる。そのため、x軸まわりの略反転対称性に対しては正しく姿勢を推定することができるが、z軸まわりの略回転対称性に関して姿勢を特定する手段がないため、特許文献1の方法を適用して物体の正しい姿勢を算出することは困難である。 When the method of Patent Document 1 is applied to this object, a posture in which the directions of the axes in the longitudinal direction of the object are exchanged is created as a candidate. Therefore, the posture can be correctly estimated for the substantially inversion symmetry around the x-axis, but since there is no means for specifying the posture for the substantially rotational symmetry around the z-axis, the method of Patent Document 1 is applied. It is difficult to calculate the correct posture of an object.
また、この物体に対して特許文献2の方法を適用すると、z軸まわりの略回転対称性に対しては正しく姿勢を推定することができる。しかし、x軸まわりの略反転対称性に関して姿勢を特定する手段がないため、特許文献2の方法を適用して物体の正しい姿勢を算出することは困難である。 Further, when the method of Patent Document 2 is applied to this object, the posture can be correctly estimated with respect to the substantially rotational symmetry around the z-axis. However, since there is no means for specifying the posture with respect to the substantially inversion symmetry around the x-axis, it is difficult to calculate the correct posture of the object by applying the method of Patent Document 2.
本発明は、以上の課題を鑑みてなされたものであり、対象物体の姿勢を精度よく算出する情報処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device that accurately calculates the posture of a target object.
その目的を達成するために、本発明は、対象物体の姿勢を算出する情報処理装置であって、対象物体の画像を取得して、対象物体の3次元情報を取得する画像取得手段と、対象物体のモデルから、対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、対象物体について第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得手段と、取得手段により取得した第1の特定部位の情報と第2の特定部位の情報とに基づいて、第1軸まわりにモデルを回転させてモデルと3次元情報とのフィッティングを行い、第2軸まわりにモデルを回転させてモデルと3次元情報とのフィッティングを行うことにより、対象物体の姿勢を算出する算出手段と、を備えることを特徴とする。 In order to achieve the object, the present invention is an information processing apparatus for calculating the posture of a target object, which is an image acquisition means for acquiring an image of the target object and acquiring three-dimensional information of the target object, and an object. To identify the information of the first specific part, which is a part for specifying the posture around the first axis of the target object, and the posture of the target object around the second axis, which is different from the first axis. Based on the acquisition means for acquiring the information of the second specific part, which is the part of, and the information of the first specific part and the information of the second specific part acquired by the acquisition means, a model is formed around the first axis. It is provided with a calculation means for calculating the posture of the target object by rotating the model to fit the three-dimensional information and rotating the model around the second axis to fit the model and the three-dimensional information. It is characterized by that.
本発明によれば、例えば、対象物体の姿勢を精度よく算出する情報処理装置を提供することができる。 According to the present invention, for example, it is possible to provide an information processing device that accurately calculates the posture of a target object.
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings with reference to examples. In each figure, the same members or elements are given the same reference numbers, and duplicate explanations are omitted or simplified.
〔実施例1〕
本実施例においては、山積みされた対象物体(ワーク、対象物)の位置姿勢を正確に求め、求められた位置姿勢に基づいて、ロボットハンドにより対象物体を把持する際に本発明を適用した場合について説明する。なお、本実施例において、位置姿勢は位置または姿勢の情報を含む。
[Example 1]
In the present embodiment, when the position and orientation of the piled object objects (workpieces, objects) are accurately obtained and the present invention is applied when the object object is gripped by the robot hand based on the obtained position and orientation. Will be described. In this embodiment, the position / posture includes position or posture information.
図1は、本実施例における情報処理装置100のハードウェア構成図である。図1において、CPU1030は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1030は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施例に係る各処理プログラム、デバイスドライバ等はROM1020に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1030によって適宜実行される。また、入力I/F1040は、外部の装置(撮像装置や操作装置など)から情報処理装置100で処理可能な形式で入力信号として入力する。また、出力I/F1050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。また、出力I/F1050は、外部接続したロボットコントローラに対して対象物体の位置姿勢情報を出力する。
FIG. 1 is a hardware configuration diagram of the
図2は、本実施例での対象物体を示す図である。本実施例における情報処理装置100の構成を説明するのに先立ち、本実施例における対象物体について図2を基に以下に説明する。本実施例で対象とする対象物体は、例えば、所定の軸(z軸)に対して回転させた場合に誤認識しやすい物体である。また、それとは異なる軸(x軸)に対して180度回転させた場合に誤認識しやすい物体である。図2における、対象物体は、z軸まわりに略回転対称を有し、x軸まわりに略反転対称を有している。さらに、図2における201の部位がz軸まわりの位置姿勢を一意に決める(姿勢を一意に特定する)特徴的な部位(第1の特定部位)である。202の部位は略反転位置姿勢を一意に決める(姿勢を一意に特定する)特徴的な部位(第2の特定部位)である。
FIG. 2 is a diagram showing a target object in this embodiment. Prior to explaining the configuration of the
図3は、本実施例にかかる情報処理装置100の構成を示す図である。ここで、図3を用いて情報処理装置100の構成について以下に説明する。
FIG. 3 is a diagram showing a configuration of an
情報処理装置100は、認識対象情報取得部30、3次元形状モデル保持部31、特定部位取得部32、概略位置姿勢認識部33、位置姿勢算出部34によって構成される。そして、撮像装置35、表示装置36、操作装置37、ロボットコントローラ38に接続されている。本実施例では、このように、情報処理装置100の外部に撮像装置35、表示装置36、操作装置37、ロボットコントローラ38を接続している。本実施例ではさらに、撮像装置35、表示装置36、操作装置37、ロボットコントローラ38を含めて一体の情報処理装置として構成しても良い。以下、情報処理装置100を構成する各部について説明する。
The
認識対象情報取得部(画像取得部)30は、撮像装置35から画像(濃淡画像、距離画像)を取得し、それを基に画像処理を行い、対象物体の3次元情報である計測情報(対象物体のエッジ情報、距離点群情報)を取得し、保持する。
The recognition target information acquisition unit (image acquisition unit) 30 acquires an image (shade image, distance image) from the
3次元形状モデル保持部31は、山積みピッキングの対象とする対象物体の3次元形状モデルを保持する。3次元形状モデルには、たとえば、対象物体の3次元形状を複数ポリゴンの組み合わせにより近似表現したポリゴンモデルを用いることができる。各ポリゴンは、対象物体表面上の点の位置(3次元座標)と、面を近似するポリゴンを構成するための各点の連結情報によって構成される。なお、ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。その他、表面点の3次元座標とその連結情報により物体形状を近似表現できるポリゴンモデルであればいかなるものであってもよい。あるいは、3次元形状モデルとして、CADデータのように、B−Rep(Boundary−Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルであってもよい。その他、物体の3次元形状を表現可能なモデルであればいかなるものであってもかまわない。3次元形状モデルは、位置姿勢算出部34により対象物体の位置姿勢計測を行う際にも用いられる。なお、モデルにはあらかじめ対象物体表面上の点の座標などを表す基準となる座標系(モデル座標系)が設定されているものとする。3次元形状モデル保持部31は、メモリやハードディスクなどで構成されるが、記憶媒体等から3次元形状モデルを取得してもかまわない。
The three-dimensional shape
特定部位取得部32は、対象物体の3次元形状モデルから、第1軸まわりにおける第1の対称性(略回転対称性)に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)を特定(抽出)する。さらに、第1軸とは異なる第2の軸まわりにおける第2の対称性(略反転対称性)に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)を特定(抽出)する。その後、これら第1の対称性と第2の対称性における特定部位の3次元形状モデル情報を取得し保持する。前述したように、図2に示す対象物体の場合は、z軸まわり(第1軸まわり)に略回転対称である。そして、201の部位がz軸まわりの位置姿勢を一意に決めるため、201を第1の対称性に関して姿勢を一意に特定する特定部位(特徴的な部位)として該当部位の3次元形状モデル情報を取得し保持する。また、図2の対象物体は、x軸まわり(第2軸まわり)に略反転対称である。そして202の部位が略反転位置姿勢を一意に決めるため、202を第2の対称性に関して姿勢を一意に特定する特定部位(特徴的な部位)として該当部位の3次元形状モデル情報を取得し保持する。
The specific
概略位置姿勢認識部33は、3次元形状モデル保持部31から対象物体の3次元形状モデルを取得する。また、認識対象情報取得部30から計測情報(対象物体のエッジ情報、距離点群情報)を取得する。本実施例では、画像は山積みされた対象物体を含んでいるとする。そして、概略位置姿勢認識部33は、3次元形状モデル画像に含まれる山積みされた対象物体の中から1個体を検出し、後述する撮像装置35に対する対象物体の位置及び姿勢の概略値を算出することにより、1個体の概略位置姿勢を認識する。なお、撮像装置35には、位置及び姿勢計測の基準となる3次元の座標系(基準座標系)が規定されているものとする。
The approximate position /
本実施例では、撮像装置35に使用するセンサの中心を原点とし、取得される画像の水平方向をx軸、垂直方向をy軸、センサの光軸をz軸とした座標系を基準座標系とする。撮像装置35に対する対象物体の位置姿勢とは、基準座標系における対称物体の位置姿勢を表す。本実施例では、センサで取得した距離画像および濃淡画像に対して、複数の視点から観測した画像をテンプレートとしてパターンマッチングを行うことによりその1個体のおおまかな位置姿勢を算出する。ただし、概略位置姿勢の認識方法は他の方法であってもかまわない。その他、山積みの中から1個体を発見し、その3次元位置姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であってもかまわない。本実施例では、対象物体を所定の軸に対して回転させた場合に、誤認識しやすい物体を対象にしているため、ここで取得した概略位置姿勢は誤認識されている可能性が高い。概略位置姿勢認識部33で算出した位置姿勢は、概略位置姿勢として後述する位置姿勢算出部34に入力される。
In this embodiment, the center of the sensor used in the
位置姿勢算出部34は、3次元形状モデル保持部31から、対象物体の3次元形状モデルを取得する。また、位置姿勢算出部34は、特定部位取得部32から、対称性に関して姿勢を一意に特定する特徴的な部位の3次元形状モデル情報を取得する。また、位置姿勢算出部34は、概略位置姿勢認識部33から概略位置姿勢を取得する。また、位置姿勢算出部34は、認識対象情報取得部30から計測情報を取得する。そして、取得したそれらの情報から、対象物体の位置姿勢を算出する。なお、本実施例では、位置姿勢算出部34は位置と姿勢の両方を算出しているが、姿勢だけを算出しても良い。
The position /
具体的には、まず、取得した概略位置姿勢に基づき、計測対象物体における計測点(計測情報)と3次元形状モデルとの位置合わせを行い、凡そ重ね合わせた点を最初の基準とする。計測点と3次元形状モデル上の点との誤差が最小になるように3次元形状モデルの位置と姿勢を変更していく。位置と姿勢を変更する方法としてはICP(Iterative Closest Point)アルゴリズムと呼ばれる手法が知られている。ICPアルゴリズムは、計測点と3次元形状モデル上の最近傍点との対応づけと、計測点と3次元形状モデル上の点との誤差を最小化する姿勢変換の算出という2つのステップに分かれる。この2つのステップを繰り返し実施することで、計測点とモデルデータMD上の点との誤差が段々と小さくなり、誤差が一定値未満になったら繰り返し処理を打ち切り、最終結果とする。ただし、位置と姿勢を変更する方法は、ICP以外の方法であってもかまわない。その後、軸まわりの対称性を判別し、対象物体の正しい位置姿勢を算出する。 Specifically, first, based on the acquired approximate position and orientation, the measurement points (measurement information) in the measurement target object and the three-dimensional shape model are aligned, and the approximately overlapped points are used as the first reference. The position and orientation of the 3D shape model are changed so that the error between the measurement point and the point on the 3D shape model is minimized. As a method of changing the position and the posture, a method called an ICP (Iterative Closet Point) algorithm is known. The ICP algorithm is divided into two steps: associating the measurement point with the nearest neighbor point on the 3D shape model, and calculating the attitude conversion that minimizes the error between the measurement point and the point on the 3D shape model. By repeating these two steps, the error between the measurement point and the point on the model data MD becomes smaller and smaller, and when the error becomes less than a certain value, the iterative process is terminated and the final result is obtained. However, the method of changing the position and the posture may be a method other than ICP. After that, the symmetry around the axis is determined, and the correct position and orientation of the target object are calculated.
撮像装置(撮像部)35は、対象物体の位置姿勢を認識するために必要な計測情報を取得するセンサである。たとえば、2次元画像を撮影するカメラでもよいし、各画素が奥行きの情報を持つ距離画像を撮影する距離センサでもよいし、これらを併用してもよい。距離センサとしては、対象に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測する方式のほか、光の飛行時間を利用するTime−of−flight方式がある。また、ステレオカメラで撮影する画像から三角測量により距離を計算する方式も利用できる。その他、物体の3次元位置姿勢を認識するのに必要な情報を取得できればいかなるセンサであってもよい。 The image pickup device (imaging unit) 35 is a sensor that acquires measurement information necessary for recognizing the position and orientation of the target object. For example, a camera that captures a two-dimensional image may be used, a distance sensor that captures a distance image in which each pixel has depth information, or a combination of these may be used. As the distance sensor, there is a method of measuring the distance by triangulation by photographing the reflected light of the laser light or the slit light irradiating the target with a camera, and a Time-of-light method using the flight time of the light. In addition, a method of calculating the distance by triangulation from an image taken by a stereo camera can also be used. In addition, any sensor may be used as long as it can acquire the information necessary for recognizing the three-dimensional position and orientation of the object.
撮像装置35は、対象物体に対して上方または横方などに固定されていてもよいし、また、ロボットハンドなどに備えつけられていてもよい。本実施例では、距離画像および濃淡画像をともに取得可能なセンサを利用するものとする。上述したように、撮像装置35が取得した計測情報は認識対象情報取得部30に入力される。なお、撮像装置35に設定された座標系を以後、センサ座標系と呼ぶことにする。
The
表示装置36は、3次元形状モデル保持部31から3次元形状モデルを取得し、表示する。また、撮像装置35から取得した画像や、位置姿勢算出部34によって算出される位置姿勢を表示し、ユーザに確認させるようにしてもよい。表示装置36は例えば液晶ディスプレイやCRTディスプレイ等が用いられる。操作装置37は、キーボードやマウスであり、ユーザからの指示を入力するのに用いられ、特にマウスはGUIを操作するのに用いられる。ロボットコントローラ38は、情報処理装置100が算出した対象物体の位置姿勢情報を取得し、それを基にロボットに対して対象物体の把持位置姿勢を指示する。
The
図4は、情報処理装置100を、対象物体を撮像する撮像装置35と組み合わせて計測装置として用いて、対象物体の位置姿勢を算出する処理手順を示すフローチャートである。ここで、図4を用いて情報処理装置100の位置姿勢算出部34において対象物体の位置姿勢を算出する方法について詳細に説明する。
FIG. 4 is a flowchart showing a processing procedure for calculating the position and orientation of the target object by using the
まず、ステップS401において、位置姿勢算出部34は、3次元形状モデル保持部31から、対象物体の3次元形状モデルを取得する。次に、ステップS402において、認識対象情報取得部30は、撮像装置35により、撮像された対象物体の距離画像および濃淡画像についてインタフェースを介して取得して、画像より対象物体の計測特徴を取得する。なお、本ステップ(工程)において、撮像装置35は、対象物体の画像を撮像する撮像手段としても機能する。さらに、認識対象情報取得部30は、対象物体の画像を取得し、さらに対象物体の3次元情報である計測特徴を取得する処理を実施する取得手段としても機能する。次に、ステップS403において、特定部位取得部32は対象物体の3次元形状モデルから第1の対称性に関して姿勢を一意に特定する特徴的な部位(特定部位)の情報を抽出して取得する。さらに、第2の対称性に関して姿勢を一意に特定する特徴的な部位(特定部位)の情報を抽出して取得する。なお、本ステップにおいて、特定部位取得部32は、対象物体の第1軸回りの姿勢を一意に特定するための部位である第1の特定部位の情報を取得する。さらに対象物体の第2軸回りの姿勢を一意に特定するための部位である第2の特定部位の情報も取得する処理を実施する取得手段としても機能する。
First, in step S401, the position /
図5は、第1の対称性を特徴づける部位の抽出方法を説明する図である。ここで、図5を用いて、第1の特定部位の抽出方法について詳細に説明する。まず、着目視点において、対象物体の3次元形状モデルを撮像装置35の画像座標系に投影した画像(基準画像)を生成する。画像はモデルが投影された画素には、例えば1、それ以外の画素には0が格納されているとする。次に、対象物体の第1の対称性を示す回転軸(第1軸)まわりに対象物体の3次元形状モデルを所定の角度間隔で360度回転し、同様に撮像装置35の画像座標系に投影した画像である回転画像を生成する。ここで、回転画像の生成に際し、回転軸周りに、所定の角度間隔(360/N度)毎に回転させた複数の回転画像が生成される。このとき生成される回転画像の数は、計N個である。回転画像の生成数はユーザが指定してもよい。したがって、回転画像の生成は1つ以上の画像が生成されることになる。なお、所定の角度間隔は一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。次に、基準画像と各回転画像の差分を抽出した差分画像を生成する。最後に、全ての差分画像を比較して、AND画像を生成し、値が0でない領域に対応する対象物体の3次元モデル点を抽出し、これを第1の特定部位の情報として取得する。ここで、取得した第1の特定部位の情報を差分データ1として保持する。
FIG. 5 is a diagram illustrating a method of extracting a portion that characterizes the first symmetry. Here, the extraction method of the first specific portion will be described in detail with reference to FIG. First, from the viewpoint of interest, an image (reference image) obtained by projecting a three-dimensional shape model of the target object onto the image coordinate system of the
図6は、第2の対称性を特徴づける部位の抽出方法を説明する図である。続いて、この図6を用いて、第2の特定部位の抽出方法について詳細に説明する。着目視点において、対象物体の3次元形状モデルを撮像装置35の画像座標系に投影した画像(基準画像)を生成する。例えば、画像はモデルが投影された画素には1、それ以外の画素には0が格納されているとする。次に、対象物体の3次元形状モデルを第1軸に直交する第2軸まわりに180度反転(回転)した画像である反転画像を生成する。そして、この反転した姿勢を初期姿勢として、対象物体の3次元形状モデルを第1軸まわりに所定の角度間隔で360度回転し、各姿勢で撮像装置35の画像座標系に投影した画像である回転画像を生成する。ここで、回転画像の生成に際し、第1軸周りに、所定の角度間隔(360/N度)毎に回転させた複数の回転画像が生成される。このとき生成される回転画像の数は、計N個である。回転画像の生成数はユーザが指定してもよい。したがって、回転画像の生成は1つ以上の画像が生成されることになる。なお、所定の角度間隔は一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。
FIG. 6 is a diagram illustrating a method of extracting a portion that characterizes the second symmetry. Subsequently, with reference to FIG. 6, a method for extracting the second specific site will be described in detail. From the viewpoint of interest, an image (reference image) obtained by projecting a three-dimensional shape model of the target object onto the image coordinate system of the
次に、反転前の基準姿勢で生成した基準画像と、反転かつ回転軸まわりに回転した姿勢で生成した各回転画像との差分を抽出した差分画像を生成する。最後に、全ての差分画像を比較して、AND画像を生成し、値が0でない領域に対応する対象物体の3次元モデル点を抽出し、これを第2の特定部位の情報として取得する。ここで取得した第2の特定部位の情報を差分データ2として保持する。 Next, a difference image is generated by extracting the difference between the reference image generated in the reference posture before inversion and each rotation image generated in the inversion and rotation around the rotation axis. Finally, all the difference images are compared to generate an AND image, a three-dimensional model point of the target object corresponding to the region whose value is not 0 is extracted, and this is acquired as information of the second specific part. The information of the second specific part acquired here is held as the difference data 2.
ここで、差分データ1は、第1の対称性に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)の情報を含む。差分データ2は、第2の対称性に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)の情報を含む。なお、差分データ2は、第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報と、第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報の両方を含んでいても良い。 Here, the difference data 1 includes information on a characteristic portion (first specific portion) that uniquely specifies the posture with respect to the first symmetry. The difference data 2 includes information on a characteristic portion (second specific portion) that uniquely identifies the posture with respect to the second symmetry. The difference data 2 includes both information on a characteristic part that uniquely identifies the posture with respect to the first symmetry and information on a characteristic part that uniquely specifies the posture with respect to the second symmetry. You can stay.
さらに、位置姿勢算出部34は、差分データ2に属する各点について、第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報であるか、第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報であるかを分類する分類手段としても機能する。分類に際し、例えば、差分データ2に属する点から見て最近傍にある差分データ1の点との距離が所定の閾値以内であれば、その点は第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報に分類する。それ以外の点は第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報に分類する。所定の閾値は、例えば、予めユーザによって設定しておけばよい。
Further, the position /
図4に戻り、次に、ステップS404において、概略位置姿勢認識部33は、撮影画像中に存在する山積みされた多数の対象物体の中から1個体の検出を行い、センサ座標系における対象物体の概略位置姿勢を表す6つのパラメータを算出して記録する。ここで算出した6つのパラメータに基づくモデル座標系からセンサ座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRSM、位置を表す3つのパラメータで表現される3列の並進ベクトルをTSMとする。このとき、モデル座標系XM=[XM,YM,ZM]Tからセンサ座標系XS=[XS,YS,ZS]Tへの変換は、4×4行列T0’を用いて、以下の次式(1)のように表すことができる。
XS’=T0’XM’ (1)
上記式(1)において、XS’=[XS,YS,ZS,1]Tであり、XM’=[XM,YM,ZM,1]Tである。ここで、T0’は概略位置姿勢である。
Returning to FIG. 4, next, in step S404, the approximate position /
XS'= T0'XM' (1)
In the above formula (1), XS'= [XS, YS, ZS, 1] T and XM'= [XM, YM, ZM, 1] T. Here, T0'is the approximate position and posture.
次に、ステップS405において、位置姿勢算出部34は、概略位置姿勢T0’を初期値として対象物体の3次元形状モデルと画像中の対象物体とのモデルフィッティングを行うことで、対象物体の位置姿勢を算出する。具体的には、3次元形状モデルを撮像装置35のパラメータと概略位置姿勢に基づいて撮影画像に投影する。そして、投影された3次元形状モデルの特徴である特定部位の情報と画像中の対象物体の特徴である計測特徴を対応付け(フィッティング)をする。つまり、第1軸まわりにおいて取得した第1の特定部位の情報である差分データ1と計測情報とのフィッティングを行い、第2軸まわりにおいて取得した第2の特定部位の情報である差分データ2と計測情報とのフィッティングを行う。そして、その残差を小さくすることにより、対象物体の位置姿勢を算出する。これにより、対象物体の高精度な位置姿勢を算出することができる。ここで算出した位置姿勢の6パラメータにより表現可能な、モデル座標系からセンサ座標系への座標変換を行う4×4の回転行列T0は、位置姿勢算出部34により算出した位置姿勢T0とする。なお、本ステップにおいて、位置姿勢算出部34は、前述した算出方法を用いて、対象部位の位置姿勢を算出する処理を実施する算出手段として機能する。
Next, in step S405, the position /
次に、ステップS406において、位置姿勢算出部34は、算出した位置姿勢T0に対して、所定の値(スコア)を算出し、所定の閾値と比較を行うことで位置姿勢の正誤を判定し、再度、正しい位置姿勢を算出する処理を実施するか否かの判定を行う。所定の閾値として、例えば、フィッティング後の位置姿勢におけるモデル表面上の特徴的な部分である幾何特徴と、画像中の幾何特徴との3次元的な距離を残差として、ずれ量の取得を行う。そして、全幾何特徴の残差の平均値Eをスコアとして用いることができる。なお、本ステップにおいて、位置姿勢算出部34は、対象物体の位置姿勢の正誤を判定し、再度、正しい位置姿勢を算出する処理を実施するか否かの判定を行う判定手段としても機能する。
Next, in step S406, the position /
算出した残差の平均値Eが所定の閾値(たとえば0.1mm)よりも小さい場合は、正しい位置姿勢が算出できたと判定して処理を終了する。一方、残差の平均値Eが閾値よりも大きい場合は、誤った位置姿勢が求まったものと判定して、ステップS407へ進む。所定の閾値は、例えば、予めユーザによって設定しておけばよい。また、位置姿勢の正誤判定方法はこれに限るものではない。例えば、算出された位置姿勢T0に基づき、モデルを投影してレンダリングした画像と、撮影画像とでの、物体領域内の輝度の正規化相互相関係数Rを求め、この値を利用してもよい。この場合、正規化相互相関係数Rが所定の値(例えば、0.9)よりも大きい場合は正しい位置姿勢が算出できたと判定して処理を終了する。一方、小さい場合はステップS407へ進む。このほか、算出された位置姿勢の正誤を峻別可能な方法であればいかなる方法であっても構わない。 When the average value E of the calculated residuals is smaller than a predetermined threshold value (for example, 0.1 mm), it is determined that the correct position and orientation can be calculated, and the process is terminated. On the other hand, when the average value E of the residuals is larger than the threshold value, it is determined that the wrong position and orientation have been obtained, and the process proceeds to step S407. The predetermined threshold value may be set in advance by the user, for example. Further, the method of determining the correctness of the position / posture is not limited to this. For example, based on the calculated position / orientation T0, the normalized intercorrelation coefficient R of the brightness in the object region between the image rendered by projecting the model and the captured image can be obtained, and this value can be used. Good. In this case, if the normalized intercorrelation coefficient R is larger than a predetermined value (for example, 0.9), it is determined that the correct position / orientation has been calculated, and the process ends. On the other hand, if it is small, the process proceeds to step S407. In addition, any method may be used as long as it can distinguish the calculated correctness of the position and posture.
次に、ステップS407において、位置姿勢算出部34は、対象物体の第1の対称性と第2の対称性を考慮して対象物体の正しい位置姿勢を算出する。S403で抽出した第1の対称性を特徴づける部位のモデル点の数をN1、第2の対称性を特徴づけるモデル点の数をN2とする。また、第1の対称性判別を実施する閾値をσ1、第2の対称性判別を実施する閾値をσ2とする。本ステップでは、対称性を特徴づける部位のモデル点の数に応じて以下のように処理を切り替えることにより、処理の冗長性を排除し高速に処理できる。
Next, in step S407, the position /
N1<σ1、N2<σ2の場合は、対称性を特徴づける部位が十分に小さいため、対称性判別は実施せず追加の処理は行わない。 In the case of N1 <σ1 and N2 <σ2, since the part that characterizes the symmetry is sufficiently small, the symmetry discrimination is not performed and no additional processing is performed.
N1>σ1、N2<σ2の場合は、第1の対称性を特徴づける部位が大きく、第1の回転軸まわり(第1軸まわり)の対称性を誤っている可能性がある。この場合、ステップS405で算出した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。そして、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1 and N2 <σ2, the part that characterizes the first symmetry is large, and there is a possibility that the symmetry around the first rotation axis (around the first axis) is incorrect. In this case, the score is recalculated at each of the rotated positions and postures by rotating 360 degrees around the first rotation axis with respect to the position and posture calculated in step S405. Then, the position / posture with the highest score is set as the correct position / posture.
N1<σ1、N2>σ2の場合は、第2の対称性を特徴づける部位が大きく、第2の回転軸まわり(第2軸まわり)の対称性を誤っている可能性がある。この場合、ステップS405で算出した位置姿勢に対して、第2の回転軸まわりに180度回転し、回転した前後の位置姿勢でスコアを再算出する。そして、最もスコアの高い方の位置姿勢を正しい位置姿勢とする。 In the case of N1 <σ1, N2> σ2, the part that characterizes the second symmetry is large, and there is a possibility that the symmetry around the second rotation axis (around the second axis) is incorrect. In this case, the score is recalculated based on the position / posture calculated in step S405 by rotating 180 degrees around the second rotation axis and the position / posture before and after the rotation. Then, the position / posture with the highest score is set as the correct position / posture.
N1>σ1、N2>σ2、かつ0<N1<N2の場合は、第1の対称性に比べ、第2の対称性による姿勢誤りの影響が大きい。この場合、まず、ステップS405で算出した位置姿勢に対して、第2の回転軸まわりに180度回転し、回転した前後の位置姿勢でスコアを再算出し、スコアの高い方の位置姿勢を仮の正しい位置姿勢とする。次に仮の正しい位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。そして、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1, N2> σ2, and 0 <N1 <N2, the influence of the posture error due to the second symmetry is larger than that of the first symmetry. In this case, first, with respect to the position / posture calculated in step S405, the position / posture is rotated 180 degrees around the second rotation axis, the score is recalculated based on the position / posture before and after the rotation, and the position / posture with the higher score is provisionally set. The correct position and posture of. Next, the score is recalculated at each of the rotated positions and postures by rotating 360 degrees around the first rotation axis at predetermined angular intervals with respect to the tentative correct position and posture. Then, the position / posture with the highest score is set as the correct position / posture.
N1>σ1、N2>σ2、かつ0<N2<N1の場合は、第2の対称性に比べ、第1の対称性による姿勢誤りの影響が大きい。この場合、まず、ステップS405で算出した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。最もスコアの高い位置姿勢を正しい位置姿勢候補として保存する。次に、ステップS405で算出した位置姿勢に対して第2の回転軸まわりに180度回転した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。最もスコアの高い位置姿勢を正しい位置姿勢候補として保存する。最後に、正しい位置姿勢の候補のうち、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1, N2> σ2, and 0 <N2 <N1, the influence of the posture error due to the first symmetry is larger than that of the second symmetry. In this case, first, with respect to the position / posture calculated in step S405, the score is recalculated at each of the rotated positions / postures by rotating 360 degrees around the first rotation axis at predetermined angular intervals. The position / posture with the highest score is saved as the correct position / posture candidate. Next, with respect to the position / orientation calculated in step S405 by 180 degrees around the second rotation axis, each rotation is rotated 360 degrees around the first rotation axis at predetermined angular intervals. Recalculate the score based on the position and posture. The position / posture with the highest score is saved as the correct position / posture candidate. Finally, among the candidates for the correct position and orientation, the position and orientation with the highest score is set as the correct position and orientation.
第1または第2の特定部位の再算出における360度を回転させる上での、所定の間隔(360/N度)は、前述したように一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。なお、本実施例では対称性を特徴づける部位のモデル点の数を基に対称性を判別したが、対称性を特徴づける部位の大きさに基づく情報であれば、他の指標でもよい。例えば、基準画像上における対称性を特徴づける部位である特定部位の箇所の(占める)面積を基に同様に判別してもよい。さらに、本実施例はフローチャートで実施しているが、ディスクリート回路等で実施しても良い。 The predetermined interval (360 / N degrees) for rotating 360 degrees in the recalculation of the first or second specific part may be set to a constant angular interval as described above, or An angular interval with a certain regularity may be set. In this embodiment, the symmetry is determined based on the number of model points of the parts that characterize the symmetry, but other indexes may be used as long as the information is based on the size of the parts that characterize the symmetry. For example, the same determination may be made based on the (occupied) area of a specific portion, which is a portion that characterizes symmetry on the reference image. Further, although this embodiment is carried out by the flowchart, it may be carried out by a discrete circuit or the like.
以上の方法により、第1軸まわりに第1の対称性をもち、また、それとは第1軸とは異なる第2軸まわりに第2の対称性をもつ対象物体に対しても誤認識することなく、対象物の正しい位置姿勢を精度よく算出することができる。また、ステップS407において、第1の対称性および第2の対称性を考慮して対象物体の正しい位置姿勢を判別する際に、それぞれの対称性を特徴づける部位の大きさを基に処理を切り替えるようにした。これにより、冗長な処理を無くし、第1の対称性および第2の対称性を網羅的に判別する場合に比べて高速に処理することができる。 By the above method, it is possible to erroneously recognize an object having a first symmetry around the first axis and a second symmetry around the second axis different from the first axis. It is possible to accurately calculate the correct position and orientation of the object. Further, in step S407, when determining the correct position and orientation of the target object in consideration of the first symmetry and the second symmetry, the processing is switched based on the size of the portion that characterizes each symmetry. I did. As a result, redundant processing can be eliminated, and processing can be performed at a higher speed than in the case of comprehensively discriminating the first symmetry and the second symmetry.
〔実施例2〕
実施例1では、第2の対称性として表と裏を誤りやすい対象物体に対して、誤認識なく正しく位置姿勢を算出する方法について述べた。本実施例では、第2の対称性として軸周りに所定の角度として90度ごとの略回転対称性をもつ対象物体に対して実施例1の処理を適用した場合について述べる。また、軸周りに90度を有している対象物体に限らず、軸まわりに所定の対称性を有していればよく、第1の軸まわりに第1の対称性、第2の軸まわりに第2の対称性を有している対象物体であれば如何なるものでもよい。所定の対称性を有する対象物体は、一例として、ある一定の角度間隔を有する対象物体や、ある規則性を持たせた角度間隔を有する対象物体ある。なお、本実施例における情報処理装置100の構成は、実施例1で示した図3の情報処理装置100と同様の構成のため、説明は省略する。また、本実施例における処理手順は実施例1で示した図4の処理手順と同様であるため、説明は省略する。
[Example 2]
In the first embodiment, as the second symmetry, a method of correctly calculating the position and orientation of an object whose front and back are liable to be mistaken without erroneous recognition has been described. In this embodiment, the case where the process of Example 1 is applied to a target object having substantially rotational symmetry of every 90 degrees as a predetermined angle around the axis as the second symmetry will be described. Further, the object is not limited to an object having 90 degrees around the axis, as long as it has a predetermined symmetry around the axis, and the first symmetry around the first axis and the second axis around the axis. Any object may have any second symmetry. An object having a predetermined symmetry is, for example, an object having a certain angular interval or an object having an angular interval having a certain regularity. Since the configuration of the
図7は、本実施例で対象とする対象物体を示す図である。図7(A)は対象物体の正しい位置姿勢を表し、図7(B)、(C)は、誤認識した場合の対象物体の位置姿勢を表す。本実施例の対象物体は、図7のz軸まわりに90度毎に略回転対称性(第1の対称性)をもち、また、図7のx軸まわりに90度毎に略回転対称性(第2の対称性)をもつ。図7で示している701は第1の対称性に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)である。さらに、図7で示している702は第2の対称性に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)である。本実施例においても、対象物体は第1及び第2の対称性を有しているため、実施例1で述べた方法により対称性を特徴づける部位を抽出する。それを基に第1及び第2の特定部位毎に回転画像を生成して、生成をした第1及び第2の特定部位毎の回転画像と基準画像とを、実施例1と同様の方法で比較して対称性を判別することにより誤認識することなく正しい位置姿勢を算出することができる。
FIG. 7 is a diagram showing a target object as a target in this embodiment. FIG. 7A shows the correct position and orientation of the target object, and FIGS. 7B and 7C show the position and orientation of the target object in the case of erroneous recognition. The target object of this embodiment has substantially rotational symmetry (first symmetry) every 90 degrees around the z-axis of FIG. 7, and substantially rotational symmetry every 90 degrees around the x-axis of FIG. Has (second symmetry).
以上の方法により、実施例1で示したような360度の回転対称性を有していなくても、軸まわりに第1の対称性をもち、またそれとは異なる第2の対称性をもつ対象物体に対して誤認識することなく対象物体の正しい位置姿勢を精度よく算出することができる。 By the above method, even if the object does not have the rotational symmetry of 360 degrees as shown in the first embodiment, the object has the first symmetry around the axis and the second symmetry different from the first symmetry. The correct position and orientation of the target object can be calculated accurately without erroneously recognizing the object.
〔物品製造方法に係る実施例〕
上述の情報処理装置100は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図8のようにロボットアーム800(把持装置)に備え付けられて使用される制御システムについて説明する。図8では図示していないが、情報処理装置100は撮像装置35を用いる計測装置として構成されており、支持台Tに置かれた物体Wにパターン光を投影して撮像し、画像を取得する。そして、情報処理装置100の制御部が、又は、情報処理装置100の制御部から出力された画像を取得したアーム制御部810が、物体Wの位置や姿勢を決定する。アーム制御部810は、その位置や姿勢の情報(計測結果)に基づいて、ロボットアーム800に駆動指令を送ってロボットアーム800を制御する。ロボットアーム800は先端のロボットハンド(把持部)などで物体Wを保持して、並進や回転などの移動をさせる。さらに、ロボットアーム800によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された所定の物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部810は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。なお、ロボットを制御する制御部をアーム制御部810の外部に設けても良い。また、情報処理装置100により計測された計測データや得られた画像をディスプレイなどの表示部820に表示しても良い。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしても良い。なお、物体Wは図2で示している対象物体と同様の構成である。さらに、計測装置はロボットアーム800を含むように構成してもよい。
[Examples relating to the article manufacturing method]
The
〔その他の実施例〕
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
[Other Examples]
Although the present invention has been described in detail based on the preferred examples thereof, the present invention is not limited to the above examples, and various modifications can be made based on the gist of the present invention. It is not excluded from the scope of the invention.
また、上述した各実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して情報処理装置100や計測装置等に供給するようにしてもよい。そしてその情報処理装置100や計測装置におけるコンピュータ(又はCPUやMPU等)が記録媒体よりコンピュータプログラムを読み出して実行するようにしてもよい。その場合、そのコンピュータプログラム、及びそのコンピュータプログラムを記憶した記憶媒体は本発明を構成することとなる。なお、記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。さらに、記憶媒体から読み出しされたコンピュータプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのコンピュータプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
Further, a computer program that realizes a part or all of the control in each of the above-described embodiments may be supplied to the
100 情報処理装置
30 認識対象情報取得部
31 3次元形状モデル保持部
32 特定部位取得部
33 概略位置姿勢認識部
34 位置姿勢算出部
35 撮像装置
36 表示装置
37 操作装置
100
Claims (13)
前記対象物体の画像を取得して、前記対象物体の3次元情報を取得する画像取得手段と、
前記対象物体のモデルから、前記対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、前記対象物体について前記第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得手段と、
前記取得手段により取得した前記第1の特定部位の情報と前記第2の特定部位の情報とに基づいて、前記第1軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行い、前記第2軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行うことにより、前記対象物体の姿勢を算出する算出手段と、
を備えることを特徴とする情報処理装置。 An information processing device that calculates the posture of an object.
An image acquisition means for acquiring an image of the target object and acquiring three-dimensional information of the target object,
From the model of the target object, information on the first specific part, which is a part for specifying the posture around the first axis of the target object, and information on the target object around the second axis different from the first axis. An acquisition means for acquiring information on a second specific part, which is a part for specifying a posture, and
Based on the information of the first specific part and the information of the second specific part acquired by the acquisition means, the model is rotated around the first axis to fit the model and the three-dimensional information. And a calculation means for calculating the posture of the target object by rotating the model around the second axis and fitting the model and the three-dimensional information.
An information processing device characterized by being equipped with.
前記対象物体の画像を取得して、前記対象物体の3次元情報を取得する画像取得工程と、
前記対象物体のモデルから、前記対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、前記対象物体について前記第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得工程と、
前記取得工程により取得した前記第1の特定部位の情報と前記第2の特定部位の情報とに基づいて、前記第1軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行い、前記第2軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行うことにより、前記対象物体の姿勢を算出する算出工程と、
を有することを特徴とする情報処理方法。 An information processing method that calculates the posture of an object.
An image acquisition step of acquiring an image of the target object and acquiring three-dimensional information of the target object, and
From the model of the target object, information on the first specific part, which is a part for specifying the posture around the first axis of the target object, and information on the target object around the second axis different from the first axis. The acquisition process of acquiring information on the second specific part, which is the part for specifying the posture,
Based on the information of the first specific part and the information of the second specific part acquired in the acquisition step, the model is rotated around the first axis to fit the model and the three-dimensional information. And the calculation step of calculating the posture of the target object by rotating the model around the second axis and fitting the model and the three-dimensional information.
An information processing method characterized by having.
請求項1〜8のうちいずれか1項に記載の情報処理装置と、
を備えることを特徴とする計測装置。 An imaging means that captures an image of a target object,
The information processing device according to any one of claims 1 to 8 and
A measuring device characterized by being provided with.
前記情報処理装置により算出された前記対象物体の姿勢に基づいて、前記対象物体を把持して移動させるロボットと、を有することを特徴とするシステム。 The information processing device according to any one of claims 1 to 8 and
A system characterized by having a robot that grips and moves the target object based on the posture of the target object calculated by the information processing device.
算出された、前記対象物体の位置姿勢に基づいて、前記対象物体を把持し、前記対象物体の組立処理を行うことで、所定の物品を製造する工程を有することを特徴とする物品の製造方法。
A calculation step of calculating the posture of the target object by the information processing apparatus according to any one of claims 1 to 8.
A method for manufacturing an article, which comprises a step of manufacturing a predetermined article by grasping the target object and performing an assembly process of the target object based on the calculated position and orientation of the target object. ..
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215655A JP2021085781A (en) | 2019-11-28 | 2019-11-28 | Information processing device, information processing method, measuring device, program, system, and article manufacturing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215655A JP2021085781A (en) | 2019-11-28 | 2019-11-28 | Information processing device, information processing method, measuring device, program, system, and article manufacturing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021085781A true JP2021085781A (en) | 2021-06-03 |
Family
ID=76087350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019215655A Pending JP2021085781A (en) | 2019-11-28 | 2019-11-28 | Information processing device, information processing method, measuring device, program, system, and article manufacturing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021085781A (en) |
-
2019
- 2019-11-28 JP JP2019215655A patent/JP2021085781A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11511421B2 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
JP5328979B2 (en) | Object recognition method, object recognition device, autonomous mobile robot | |
JP6323993B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP6632208B2 (en) | Information processing apparatus, information processing method, and program | |
CN110926330B (en) | Image processing apparatus, image processing method, and program | |
US8116519B2 (en) | 3D beverage container localizer | |
JP2015194478A (en) | Information processing device, information processing method, and program | |
JP2011133273A (en) | Estimation apparatus and control method thereof, and program | |
JP2018091656A (en) | Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method | |
JP2018136896A (en) | Information processor, system, information processing method, and manufacturing method of article | |
JP2014029664A (en) | Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program | |
JP2020027439A (en) | Information processing device and information processing method | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
JP5762099B2 (en) | Posture recognition apparatus, work robot, posture recognition method, program, and recording medium | |
JPH07103715A (en) | Method and apparatus for recognizing three-dimensional position and attitude based on visual sense | |
JP2920513B2 (en) | 3D object position and orientation determination method | |
JP7066671B2 (en) | Interference determination device, interference determination method, program and system | |
CN116901054A (en) | Method, system and storage medium for recognizing position and posture | |
Kotake et al. | A fast initialization method for edge-based registration using an inclination constraint | |
JP2021085781A (en) | Information processing device, information processing method, measuring device, program, system, and article manufacturing method | |
JP6890422B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP3516668B2 (en) | Three-dimensional shape recognition method, apparatus and program | |
JP2021071420A (en) | Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method | |
CN115194751A (en) | Robot system, control method, image processing apparatus and method, and product manufacturing method | |
JP2021086448A (en) | Information processing device, information processing method, program, measuring device, system, and article manufacturing method |