JP2021085781A - Information processing device, information processing method, measuring device, program, system, and article manufacturing method - Google Patents

Information processing device, information processing method, measuring device, program, system, and article manufacturing method Download PDF

Info

Publication number
JP2021085781A
JP2021085781A JP2019215655A JP2019215655A JP2021085781A JP 2021085781 A JP2021085781 A JP 2021085781A JP 2019215655 A JP2019215655 A JP 2019215655A JP 2019215655 A JP2019215655 A JP 2019215655A JP 2021085781 A JP2021085781 A JP 2021085781A
Authority
JP
Japan
Prior art keywords
target object
information
posture
axis
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019215655A
Other languages
Japanese (ja)
Inventor
貴正 佐々木
Takamasa Sasaki
貴正 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019215655A priority Critical patent/JP2021085781A/en
Publication of JP2021085781A publication Critical patent/JP2021085781A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device that accurately calculates the attitude of a target object.SOLUTION: Provided is an information processing device that calculates the attitude of a target object. The information processing device comprises: image acquisition means for acquiring an image of the target object and acquiring three-dimensional information of the target object; acquisition means for acquiring, from a model of the target object, information of a first specific portion that is a portion for specifying an attitude around a first axis with regard to the target object and information of a second specific portion that is a portion for specifying an attitude around a second axis, different from the first axis, with regard to the target object; and calculation means for rotating the model around the first axis and performing fitting of the model to the three-dimensional information on the basis of information of the first and second specific portions acquired by the acquisition means, and rotating the model around the second axis and performing fitting of the model to the three-dimensional information, thereby calculating the attitude of the target object.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法、計測装置、プログラム、システム及び物品の製造方法に関する。 The present invention relates to an information processing device, an information processing method, a measuring device, a program, a system, and a method for manufacturing an article.

工場などの生産ラインにおいて、山積みされた物体(対象物体、ワーク)の中から1個体を、ビジョンシステムを用いて特定し、3次元位置姿勢を計測することで、ロボットに取り付けたハンドにより把持を行う技術が近年開発されている。 In a production line such as a factory, one individual is identified from a pile of objects (objects, workpieces) using a vision system, and by measuring the three-dimensional position and posture, it can be grasped by a hand attached to the robot. The technology to do has been developed in recent years.

物体の3次元位置姿勢を計測する方法として、対象物体の撮影画像から1個体のおおよその位置姿勢を検出し、その位置姿勢を初期値として、画像データに対して物体の3次元形状モデルをあてはめる(モデルフィッティング)方法がある。この方法では物体の形状によっては、後段のモデルフィッティングを行っても正しい位置姿勢を算出できない場合がある。 As a method of measuring the three-dimensional position and orientation of an object, the approximate position and orientation of one individual is detected from the captured image of the target object, and the three-dimensional shape model of the object is applied to the image data with the position and orientation as the initial value. There is a (model fitting) method. With this method, depending on the shape of the object, it may not be possible to calculate the correct position and orientation even if the model fitting in the subsequent stage is performed.

たとえば、表と裏で互いに形状が類似する物体の場合には、表側が観測されているにも関わらず、検出処理において裏側の位置姿勢を誤検出したとする。このとき、その位置姿勢を初期値としてモデルフィッティングを行っても誤った解に収束してしまい、正しい位置姿勢を算出できない。 For example, in the case of an object having similar shapes on the front and back sides, it is assumed that the position and orientation of the back side are erroneously detected in the detection process even though the front side is observed. At this time, even if the model fitting is performed with the position / orientation as the initial value, the solution converges to an erroneous solution, and the correct position / orientation cannot be calculated.

これに対して特許文献1では、互いに誤りやすい関係にある、対称的に配置した2つの姿勢からフィッティングを行い、両者の結果を比較することで、誤認識の抑制を行う方法が記載されている。具体的には、3次元形状モデルと画像とのフィッティングを行い、その際に姿勢収束に大きく寄与する(姿勢収束がしやすい)軸を求める。そして、フィッティングして算出した位置姿勢に対して、求めた軸の向きが反転するように対象物体を回転させた位置姿勢を新たな初期値として作成し、そこから別途フィッティングを行う。そしてこれらのフィッティング結果を比較し、最良のものを選択することで誤認識の抑制を行っている。 On the other hand, Patent Document 1 describes a method of suppressing erroneous recognition by performing fitting from two symmetrically arranged postures, which are easily error-prone to each other, and comparing the results of the two postures. .. Specifically, the three-dimensional shape model is fitted to the image, and at that time, the axis that greatly contributes to the posture convergence (the posture convergence is easy) is obtained. Then, a position / orientation in which the target object is rotated so that the direction of the obtained axis is reversed with respect to the position / orientation calculated by fitting is created as a new initial value, and fitting is performed separately from there. Then, by comparing these fitting results and selecting the best one, false recognition is suppressed.

また、ある軸まわりに略回転対称性がある物体の場合には、検出処理において回転軸まわりに類似の位置姿勢を誤検出する場合があり、正しい位置姿勢を算出できない。これに対して特許文献2では、まず回転軸を特定し、次に回転軸まわりに姿勢を特徴づける部位に注目して、撮影画像において回転軸まわりに特徴部位をサーチすることにより、略回転対称性がある物体の回転軸回りの誤認識の抑制を行っている。 Further, in the case of an object having substantially rotational symmetry around a certain axis, a similar position / orientation around the rotation axis may be erroneously detected in the detection process, and the correct position / orientation cannot be calculated. On the other hand, in Patent Document 2, the rotation axis is first specified, then the portion that characterizes the posture around the rotation axis is focused on, and the feature portion is searched around the rotation axis in the captured image, thereby substantially rotationally symmetric. It suppresses erroneous recognition around the rotation axis of a property.

特開2012−163450号公報Japanese Unexamined Patent Publication No. 2012-163450 特開2017−96749号公報JP-A-2017-967479

しかしながら、特許文献1および特許文献2に記載の方法では、ある軸まわりに略回転対称性(第1の対称性)をもち、また、それとは異なる第2の対称性をもつような物体に対しては、正しい姿勢を求めることができない場合がある。第2の対称性をもつような物体とは、例えば図2に示すようなz軸まわりに略回転対称性をもち、x軸まわりに略反転対称である物体を指す。 However, in the methods described in Patent Document 1 and Patent Document 2, for an object having substantially rotational symmetry (first symmetry) around a certain axis and having a second symmetry different from that. In some cases, it may not be possible to obtain the correct posture. The object having the second symmetry refers to an object having substantially rotational symmetry around the z-axis and substantially inversion symmetry around the x-axis as shown in FIG. 2, for example.

この物体に対して特許文献1の方法を適用すると、物体の長手方向の軸の向きを入れ替えたような姿勢を候補として作成することになる。そのため、x軸まわりの略反転対称性に対しては正しく姿勢を推定することができるが、z軸まわりの略回転対称性に関して姿勢を特定する手段がないため、特許文献1の方法を適用して物体の正しい姿勢を算出することは困難である。 When the method of Patent Document 1 is applied to this object, a posture in which the directions of the axes in the longitudinal direction of the object are exchanged is created as a candidate. Therefore, the posture can be correctly estimated for the substantially inversion symmetry around the x-axis, but since there is no means for specifying the posture for the substantially rotational symmetry around the z-axis, the method of Patent Document 1 is applied. It is difficult to calculate the correct posture of an object.

また、この物体に対して特許文献2の方法を適用すると、z軸まわりの略回転対称性に対しては正しく姿勢を推定することができる。しかし、x軸まわりの略反転対称性に関して姿勢を特定する手段がないため、特許文献2の方法を適用して物体の正しい姿勢を算出することは困難である。 Further, when the method of Patent Document 2 is applied to this object, the posture can be correctly estimated with respect to the substantially rotational symmetry around the z-axis. However, since there is no means for specifying the posture with respect to the substantially inversion symmetry around the x-axis, it is difficult to calculate the correct posture of the object by applying the method of Patent Document 2.

本発明は、以上の課題を鑑みてなされたものであり、対象物体の姿勢を精度よく算出する情報処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device that accurately calculates the posture of a target object.

その目的を達成するために、本発明は、対象物体の姿勢を算出する情報処理装置であって、対象物体の画像を取得して、対象物体の3次元情報を取得する画像取得手段と、対象物体のモデルから、対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、対象物体について第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得手段と、取得手段により取得した第1の特定部位の情報と第2の特定部位の情報とに基づいて、第1軸まわりにモデルを回転させてモデルと3次元情報とのフィッティングを行い、第2軸まわりにモデルを回転させてモデルと3次元情報とのフィッティングを行うことにより、対象物体の姿勢を算出する算出手段と、を備えることを特徴とする。 In order to achieve the object, the present invention is an information processing apparatus for calculating the posture of a target object, which is an image acquisition means for acquiring an image of the target object and acquiring three-dimensional information of the target object, and an object. To identify the information of the first specific part, which is a part for specifying the posture around the first axis of the target object, and the posture of the target object around the second axis, which is different from the first axis. Based on the acquisition means for acquiring the information of the second specific part, which is the part of, and the information of the first specific part and the information of the second specific part acquired by the acquisition means, a model is formed around the first axis. It is provided with a calculation means for calculating the posture of the target object by rotating the model to fit the three-dimensional information and rotating the model around the second axis to fit the model and the three-dimensional information. It is characterized by that.

本発明によれば、例えば、対象物体の姿勢を精度よく算出する情報処理装置を提供することができる。 According to the present invention, for example, it is possible to provide an information processing device that accurately calculates the posture of a target object.

情報処理装置のハードウェアの構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of an information processing apparatus. 対象物体の一例を示す図である。It is a figure which shows an example of the target object. 情報処理装置の構成の一例を示す図であるIt is a figure which shows an example of the structure of an information processing apparatus. 位置姿勢算出部において対象物体の位置姿勢を算出する処理手順を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the processing procedure which calculates the position | position | position | position | position | posture of the target object in the position / posture calculation part. 第1の対称性を特徴づける部位の抽出方法を説明する図である。It is a figure explaining the extraction method of the part which characterizes the 1st symmetry. 第2の対称性を特徴づける部位の抽出方法を説明する図である。It is a figure explaining the extraction method of the part which characterizes the second symmetry. 実施例2における対象物体の一例を示す図である。It is a figure which shows an example of the target object in Example 2. FIG. 情報処理装置が備え付けられた把持装置を含む制御システムの例を示した図である。It is a figure which showed the example of the control system which includes the gripping apparatus equipped with the information processing apparatus.

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings with reference to examples. In each figure, the same members or elements are given the same reference numbers, and duplicate explanations are omitted or simplified.

〔実施例1〕
本実施例においては、山積みされた対象物体(ワーク、対象物)の位置姿勢を正確に求め、求められた位置姿勢に基づいて、ロボットハンドにより対象物体を把持する際に本発明を適用した場合について説明する。なお、本実施例において、位置姿勢は位置または姿勢の情報を含む。
[Example 1]
In the present embodiment, when the position and orientation of the piled object objects (workpieces, objects) are accurately obtained and the present invention is applied when the object object is gripped by the robot hand based on the obtained position and orientation. Will be described. In this embodiment, the position / posture includes position or posture information.

図1は、本実施例における情報処理装置100のハードウェア構成図である。図1において、CPU1030は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1030は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施例に係る各処理プログラム、デバイスドライバ等はROM1020に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1030によって適宜実行される。また、入力I/F1040は、外部の装置(撮像装置や操作装置など)から情報処理装置100で処理可能な形式で入力信号として入力する。また、出力I/F1050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。また、出力I/F1050は、外部接続したロボットコントローラに対して対象物体の位置姿勢情報を出力する。 FIG. 1 is a hardware configuration diagram of the information processing device 100 in this embodiment. In FIG. 1, the CPU 1030 comprehensively controls each device connected via the bus 1000. The CPU 1030 reads and executes the processing steps and programs stored in the read-only memory (ROM) 1020. The operating system (OS), each processing program, device driver, etc. according to this embodiment are stored in the ROM 1020, temporarily stored in the random access memory (RAM) 1030, and appropriately executed by the CPU 1030. Further, the input I / F 1040 is input as an input signal from an external device (imaging device, operating device, etc.) in a format that can be processed by the information processing device 100. Further, the output I / F 1050 is output as an output signal to an external device (display device) in a format that can be processed by the display device. Further, the output I / F 1050 outputs the position / orientation information of the target object to the externally connected robot controller.

図2は、本実施例での対象物体を示す図である。本実施例における情報処理装置100の構成を説明するのに先立ち、本実施例における対象物体について図2を基に以下に説明する。本実施例で対象とする対象物体は、例えば、所定の軸(z軸)に対して回転させた場合に誤認識しやすい物体である。また、それとは異なる軸(x軸)に対して180度回転させた場合に誤認識しやすい物体である。図2における、対象物体は、z軸まわりに略回転対称を有し、x軸まわりに略反転対称を有している。さらに、図2における201の部位がz軸まわりの位置姿勢を一意に決める(姿勢を一意に特定する)特徴的な部位(第1の特定部位)である。202の部位は略反転位置姿勢を一意に決める(姿勢を一意に特定する)特徴的な部位(第2の特定部位)である。 FIG. 2 is a diagram showing a target object in this embodiment. Prior to explaining the configuration of the information processing apparatus 100 in this embodiment, the target object in this embodiment will be described below with reference to FIG. The target object targeted in this embodiment is, for example, an object that is easily erroneously recognized when rotated with respect to a predetermined axis (z-axis). Further, it is an object that is easily erroneously recognized when rotated by 180 degrees with respect to an axis (x-axis) different from that. The target object in FIG. 2 has substantially rotational symmetry around the z-axis and substantially inversion symmetry around the x-axis. Further, the portion 201 in FIG. 2 is a characteristic portion (first specific portion) that uniquely determines the position / orientation around the z-axis (uniquely specifies the posture). The portion 202 is a characteristic portion (second specific portion) that uniquely determines the substantially inverted position posture (uniquely specifies the posture).

図3は、本実施例にかかる情報処理装置100の構成を示す図である。ここで、図3を用いて情報処理装置100の構成について以下に説明する。 FIG. 3 is a diagram showing a configuration of an information processing device 100 according to this embodiment. Here, the configuration of the information processing apparatus 100 will be described below with reference to FIG.

情報処理装置100は、認識対象情報取得部30、3次元形状モデル保持部31、特定部位取得部32、概略位置姿勢認識部33、位置姿勢算出部34によって構成される。そして、撮像装置35、表示装置36、操作装置37、ロボットコントローラ38に接続されている。本実施例では、このように、情報処理装置100の外部に撮像装置35、表示装置36、操作装置37、ロボットコントローラ38を接続している。本実施例ではさらに、撮像装置35、表示装置36、操作装置37、ロボットコントローラ38を含めて一体の情報処理装置として構成しても良い。以下、情報処理装置100を構成する各部について説明する。 The information processing device 100 is composed of a recognition target information acquisition unit 30, a three-dimensional shape model holding unit 31, a specific part acquisition unit 32, a rough position / orientation recognition unit 33, and a position / orientation calculation unit 34. Then, it is connected to the image pickup device 35, the display device 36, the operation device 37, and the robot controller 38. In this embodiment, the image pickup device 35, the display device 36, the operation device 37, and the robot controller 38 are connected to the outside of the information processing device 100 in this way. In this embodiment, the image pickup device 35, the display device 36, the operation device 37, and the robot controller 38 may be further configured as an integrated information processing device. Hereinafter, each part constituting the information processing apparatus 100 will be described.

認識対象情報取得部(画像取得部)30は、撮像装置35から画像(濃淡画像、距離画像)を取得し、それを基に画像処理を行い、対象物体の3次元情報である計測情報(対象物体のエッジ情報、距離点群情報)を取得し、保持する。 The recognition target information acquisition unit (image acquisition unit) 30 acquires an image (shade image, distance image) from the image pickup device 35, performs image processing based on the image, and performs measurement information (target) which is three-dimensional information of the target object. Acquires and holds edge information and distance point group information of an object.

3次元形状モデル保持部31は、山積みピッキングの対象とする対象物体の3次元形状モデルを保持する。3次元形状モデルには、たとえば、対象物体の3次元形状を複数ポリゴンの組み合わせにより近似表現したポリゴンモデルを用いることができる。各ポリゴンは、対象物体表面上の点の位置(3次元座標)と、面を近似するポリゴンを構成するための各点の連結情報によって構成される。なお、ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。その他、表面点の3次元座標とその連結情報により物体形状を近似表現できるポリゴンモデルであればいかなるものであってもよい。あるいは、3次元形状モデルとして、CADデータのように、B−Rep(Boundary−Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルであってもよい。その他、物体の3次元形状を表現可能なモデルであればいかなるものであってもかまわない。3次元形状モデルは、位置姿勢算出部34により対象物体の位置姿勢計測を行う際にも用いられる。なお、モデルにはあらかじめ対象物体表面上の点の座標などを表す基準となる座標系(モデル座標系)が設定されているものとする。3次元形状モデル保持部31は、メモリやハードディスクなどで構成されるが、記憶媒体等から3次元形状モデルを取得してもかまわない。 The three-dimensional shape model holding unit 31 holds a three-dimensional shape model of the target object to be picked in piles. As the three-dimensional shape model, for example, a polygon model in which the three-dimensional shape of the target object is approximately represented by a combination of a plurality of polygons can be used. Each polygon is composed of the position of a point (three-dimensional coordinates) on the surface of the target object and the connection information of each point for forming a polygon that approximates the surface. The polygon is generally composed of a triangle, but may be a quadrangle or a pentagon. In addition, any polygon model that can approximate the shape of the object by the three-dimensional coordinates of the surface points and the connection information thereof may be used. Alternatively, as the three-dimensional shape model, a model such as CAD data may be used in which the shape is represented by a set of divided parameter curved surfaces called a B-Rep (Boundary-Representation) representation. In addition, any model that can express the three-dimensional shape of the object may be used. The three-dimensional shape model is also used when the position / orientation calculation unit 34 measures the position / orientation of the target object. It is assumed that a reference coordinate system (model coordinate system) for representing the coordinates of points on the surface of the target object is set in the model in advance. The three-dimensional shape model holding unit 31 is composed of a memory, a hard disk, or the like, but a three-dimensional shape model may be acquired from a storage medium or the like.

特定部位取得部32は、対象物体の3次元形状モデルから、第1軸まわりにおける第1の対称性(略回転対称性)に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)を特定(抽出)する。さらに、第1軸とは異なる第2の軸まわりにおける第2の対称性(略反転対称性)に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)を特定(抽出)する。その後、これら第1の対称性と第2の対称性における特定部位の3次元形状モデル情報を取得し保持する。前述したように、図2に示す対象物体の場合は、z軸まわり(第1軸まわり)に略回転対称である。そして、201の部位がz軸まわりの位置姿勢を一意に決めるため、201を第1の対称性に関して姿勢を一意に特定する特定部位(特徴的な部位)として該当部位の3次元形状モデル情報を取得し保持する。また、図2の対象物体は、x軸まわり(第2軸まわり)に略反転対称である。そして202の部位が略反転位置姿勢を一意に決めるため、202を第2の対称性に関して姿勢を一意に特定する特定部位(特徴的な部位)として該当部位の3次元形状モデル情報を取得し保持する。 The specific part acquisition unit 32 is a characteristic part (first specific part) that uniquely identifies the posture with respect to the first symmetry (approximately rotational symmetry) around the first axis from the three-dimensional shape model of the target object. Is specified (extracted). Further, a characteristic portion (second specific portion) that uniquely specifies the posture with respect to the second symmetry (substantially inverted symmetry) around the second axis different from the first axis is specified (extracted). After that, the three-dimensional shape model information of the specific part in the first symmetry and the second symmetry is acquired and held. As described above, in the case of the target object shown in FIG. 2, it is substantially rotationally symmetric around the z-axis (around the first axis). Then, in order to uniquely determine the position and orientation of the 201 part around the z-axis, the three-dimensional shape model information of the corresponding part is used as a specific part (characteristic part) that uniquely specifies the posture with respect to the first symmetry. Get and hold. Further, the target object in FIG. 2 is substantially inverted symmetric around the x-axis (around the second axis). Then, since the 202 part uniquely determines the substantially inverted position posture, the three-dimensional shape model information of the corresponding part is acquired and held as a specific part (characteristic part) that uniquely specifies the posture with respect to the second symmetry. To do.

概略位置姿勢認識部33は、3次元形状モデル保持部31から対象物体の3次元形状モデルを取得する。また、認識対象情報取得部30から計測情報(対象物体のエッジ情報、距離点群情報)を取得する。本実施例では、画像は山積みされた対象物体を含んでいるとする。そして、概略位置姿勢認識部33は、3次元形状モデル画像に含まれる山積みされた対象物体の中から1個体を検出し、後述する撮像装置35に対する対象物体の位置及び姿勢の概略値を算出することにより、1個体の概略位置姿勢を認識する。なお、撮像装置35には、位置及び姿勢計測の基準となる3次元の座標系(基準座標系)が規定されているものとする。 The approximate position / orientation recognition unit 33 acquires a three-dimensional shape model of the target object from the three-dimensional shape model holding unit 31. In addition, measurement information (edge information of the target object, distance point cloud information) is acquired from the recognition target information acquisition unit 30. In this embodiment, it is assumed that the image includes a pile of target objects. Then, the approximate position / orientation recognition unit 33 detects one individual from the piled up target objects included in the three-dimensional shape model image, and calculates approximate values of the position and orientation of the target object with respect to the imaging device 35 described later. As a result, the approximate position and posture of one individual is recognized. It is assumed that the image pickup apparatus 35 is defined with a three-dimensional coordinate system (reference coordinate system) that serves as a reference for position and attitude measurement.

本実施例では、撮像装置35に使用するセンサの中心を原点とし、取得される画像の水平方向をx軸、垂直方向をy軸、センサの光軸をz軸とした座標系を基準座標系とする。撮像装置35に対する対象物体の位置姿勢とは、基準座標系における対称物体の位置姿勢を表す。本実施例では、センサで取得した距離画像および濃淡画像に対して、複数の視点から観測した画像をテンプレートとしてパターンマッチングを行うことによりその1個体のおおまかな位置姿勢を算出する。ただし、概略位置姿勢の認識方法は他の方法であってもかまわない。その他、山積みの中から1個体を発見し、その3次元位置姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であってもかまわない。本実施例では、対象物体を所定の軸に対して回転させた場合に、誤認識しやすい物体を対象にしているため、ここで取得した概略位置姿勢は誤認識されている可能性が高い。概略位置姿勢認識部33で算出した位置姿勢は、概略位置姿勢として後述する位置姿勢算出部34に入力される。 In this embodiment, the center of the sensor used in the image pickup apparatus 35 is the origin, and the coordinate system with the horizontal direction of the acquired image as the x-axis, the vertical direction as the y-axis, and the optical axis of the sensor as the z-axis is the reference coordinate system. And. The position / orientation of the target object with respect to the image pickup apparatus 35 represents the position / orientation of the symmetrical object in the reference coordinate system. In this embodiment, the rough position and orientation of one individual is calculated by performing pattern matching on the distance image and the shading image acquired by the sensor using images observed from a plurality of viewpoints as templates. However, the method of recognizing the approximate position / posture may be another method. In addition, any method other than those described here may be used as long as one individual can be found in the pile and the three-dimensional position and orientation can be calculated. In this embodiment, since the target object is an object that is easily erroneously recognized when the target object is rotated with respect to a predetermined axis, there is a high possibility that the approximate position and orientation acquired here are erroneously recognized. The position / orientation calculated by the approximate position / posture recognition unit 33 is input to the position / orientation calculation unit 34, which will be described later, as the approximate position / posture.

位置姿勢算出部34は、3次元形状モデル保持部31から、対象物体の3次元形状モデルを取得する。また、位置姿勢算出部34は、特定部位取得部32から、対称性に関して姿勢を一意に特定する特徴的な部位の3次元形状モデル情報を取得する。また、位置姿勢算出部34は、概略位置姿勢認識部33から概略位置姿勢を取得する。また、位置姿勢算出部34は、認識対象情報取得部30から計測情報を取得する。そして、取得したそれらの情報から、対象物体の位置姿勢を算出する。なお、本実施例では、位置姿勢算出部34は位置と姿勢の両方を算出しているが、姿勢だけを算出しても良い。 The position / orientation calculation unit 34 acquires a three-dimensional shape model of the target object from the three-dimensional shape model holding unit 31. Further, the position / orientation calculation unit 34 acquires the three-dimensional shape model information of the characteristic portion that uniquely specifies the posture with respect to the symmetry from the specific portion acquisition unit 32. Further, the position / posture calculation unit 34 acquires the approximate position / posture from the approximate position / posture recognition unit 33. Further, the position / orientation calculation unit 34 acquires measurement information from the recognition target information acquisition unit 30. Then, the position and orientation of the target object are calculated from the acquired information. In this embodiment, the position / posture calculation unit 34 calculates both the position and the posture, but only the posture may be calculated.

具体的には、まず、取得した概略位置姿勢に基づき、計測対象物体における計測点(計測情報)と3次元形状モデルとの位置合わせを行い、凡そ重ね合わせた点を最初の基準とする。計測点と3次元形状モデル上の点との誤差が最小になるように3次元形状モデルの位置と姿勢を変更していく。位置と姿勢を変更する方法としてはICP(Iterative Closest Point)アルゴリズムと呼ばれる手法が知られている。ICPアルゴリズムは、計測点と3次元形状モデル上の最近傍点との対応づけと、計測点と3次元形状モデル上の点との誤差を最小化する姿勢変換の算出という2つのステップに分かれる。この2つのステップを繰り返し実施することで、計測点とモデルデータMD上の点との誤差が段々と小さくなり、誤差が一定値未満になったら繰り返し処理を打ち切り、最終結果とする。ただし、位置と姿勢を変更する方法は、ICP以外の方法であってもかまわない。その後、軸まわりの対称性を判別し、対象物体の正しい位置姿勢を算出する。 Specifically, first, based on the acquired approximate position and orientation, the measurement points (measurement information) in the measurement target object and the three-dimensional shape model are aligned, and the approximately overlapped points are used as the first reference. The position and orientation of the 3D shape model are changed so that the error between the measurement point and the point on the 3D shape model is minimized. As a method of changing the position and the posture, a method called an ICP (Iterative Closet Point) algorithm is known. The ICP algorithm is divided into two steps: associating the measurement point with the nearest neighbor point on the 3D shape model, and calculating the attitude conversion that minimizes the error between the measurement point and the point on the 3D shape model. By repeating these two steps, the error between the measurement point and the point on the model data MD becomes smaller and smaller, and when the error becomes less than a certain value, the iterative process is terminated and the final result is obtained. However, the method of changing the position and the posture may be a method other than ICP. After that, the symmetry around the axis is determined, and the correct position and orientation of the target object are calculated.

撮像装置(撮像部)35は、対象物体の位置姿勢を認識するために必要な計測情報を取得するセンサである。たとえば、2次元画像を撮影するカメラでもよいし、各画素が奥行きの情報を持つ距離画像を撮影する距離センサでもよいし、これらを併用してもよい。距離センサとしては、対象に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測する方式のほか、光の飛行時間を利用するTime−of−flight方式がある。また、ステレオカメラで撮影する画像から三角測量により距離を計算する方式も利用できる。その他、物体の3次元位置姿勢を認識するのに必要な情報を取得できればいかなるセンサであってもよい。 The image pickup device (imaging unit) 35 is a sensor that acquires measurement information necessary for recognizing the position and orientation of the target object. For example, a camera that captures a two-dimensional image may be used, a distance sensor that captures a distance image in which each pixel has depth information, or a combination of these may be used. As the distance sensor, there is a method of measuring the distance by triangulation by photographing the reflected light of the laser light or the slit light irradiating the target with a camera, and a Time-of-light method using the flight time of the light. In addition, a method of calculating the distance by triangulation from an image taken by a stereo camera can also be used. In addition, any sensor may be used as long as it can acquire the information necessary for recognizing the three-dimensional position and orientation of the object.

撮像装置35は、対象物体に対して上方または横方などに固定されていてもよいし、また、ロボットハンドなどに備えつけられていてもよい。本実施例では、距離画像および濃淡画像をともに取得可能なセンサを利用するものとする。上述したように、撮像装置35が取得した計測情報は認識対象情報取得部30に入力される。なお、撮像装置35に設定された座標系を以後、センサ座標系と呼ぶことにする。 The image pickup device 35 may be fixed upward or sideways with respect to the target object, or may be provided on a robot hand or the like. In this embodiment, it is assumed that a sensor capable of acquiring both a distance image and a shade image is used. As described above, the measurement information acquired by the imaging device 35 is input to the recognition target information acquisition unit 30. The coordinate system set in the image pickup apparatus 35 will be referred to as a sensor coordinate system hereafter.

表示装置36は、3次元形状モデル保持部31から3次元形状モデルを取得し、表示する。また、撮像装置35から取得した画像や、位置姿勢算出部34によって算出される位置姿勢を表示し、ユーザに確認させるようにしてもよい。表示装置36は例えば液晶ディスプレイやCRTディスプレイ等が用いられる。操作装置37は、キーボードやマウスであり、ユーザからの指示を入力するのに用いられ、特にマウスはGUIを操作するのに用いられる。ロボットコントローラ38は、情報処理装置100が算出した対象物体の位置姿勢情報を取得し、それを基にロボットに対して対象物体の把持位置姿勢を指示する。 The display device 36 acquires the three-dimensional shape model from the three-dimensional shape model holding unit 31 and displays it. Further, the image acquired from the image pickup apparatus 35 and the position / orientation calculated by the position / orientation calculation unit 34 may be displayed so that the user can confirm the position / orientation. As the display device 36, for example, a liquid crystal display, a CRT display, or the like is used. The operation device 37 is a keyboard or a mouse, and is used for inputting an instruction from the user. In particular, the mouse is used for operating the GUI. The robot controller 38 acquires the position / posture information of the target object calculated by the information processing device 100, and instructs the robot on the gripping position / posture of the target object based on the acquired position / posture information.

図4は、情報処理装置100を、対象物体を撮像する撮像装置35と組み合わせて計測装置として用いて、対象物体の位置姿勢を算出する処理手順を示すフローチャートである。ここで、図4を用いて情報処理装置100の位置姿勢算出部34において対象物体の位置姿勢を算出する方法について詳細に説明する。 FIG. 4 is a flowchart showing a processing procedure for calculating the position and orientation of the target object by using the information processing device 100 as a measuring device in combination with the imaging device 35 that images the target object. Here, a method of calculating the position and orientation of the target object in the position and orientation calculation unit 34 of the information processing apparatus 100 will be described in detail with reference to FIG.

まず、ステップS401において、位置姿勢算出部34は、3次元形状モデル保持部31から、対象物体の3次元形状モデルを取得する。次に、ステップS402において、認識対象情報取得部30は、撮像装置35により、撮像された対象物体の距離画像および濃淡画像についてインタフェースを介して取得して、画像より対象物体の計測特徴を取得する。なお、本ステップ(工程)において、撮像装置35は、対象物体の画像を撮像する撮像手段としても機能する。さらに、認識対象情報取得部30は、対象物体の画像を取得し、さらに対象物体の3次元情報である計測特徴を取得する処理を実施する取得手段としても機能する。次に、ステップS403において、特定部位取得部32は対象物体の3次元形状モデルから第1の対称性に関して姿勢を一意に特定する特徴的な部位(特定部位)の情報を抽出して取得する。さらに、第2の対称性に関して姿勢を一意に特定する特徴的な部位(特定部位)の情報を抽出して取得する。なお、本ステップにおいて、特定部位取得部32は、対象物体の第1軸回りの姿勢を一意に特定するための部位である第1の特定部位の情報を取得する。さらに対象物体の第2軸回りの姿勢を一意に特定するための部位である第2の特定部位の情報も取得する処理を実施する取得手段としても機能する。 First, in step S401, the position / orientation calculation unit 34 acquires the three-dimensional shape model of the target object from the three-dimensional shape model holding unit 31. Next, in step S402, the recognition target information acquisition unit 30 acquires the distance image and the shading image of the captured target object through the interface by the image pickup device 35, and acquires the measurement feature of the target object from the image. .. In this step, the imaging device 35 also functions as an imaging means for capturing an image of the target object. Further, the recognition target information acquisition unit 30 also functions as an acquisition means for acquiring an image of the target object and further performing a process of acquiring measurement features which are three-dimensional information of the target object. Next, in step S403, the specific part acquisition unit 32 extracts and acquires information on a characteristic part (specific part) that uniquely specifies the posture with respect to the first symmetry from the three-dimensional shape model of the target object. Further, the information of the characteristic part (specific part) that uniquely specifies the posture with respect to the second symmetry is extracted and acquired. In this step, the specific part acquisition unit 32 acquires information on the first specific part, which is a part for uniquely specifying the posture around the first axis of the target object. Further, it also functions as an acquisition means for performing a process of acquiring information on a second specific part, which is a part for uniquely specifying the posture of the target object around the second axis.

図5は、第1の対称性を特徴づける部位の抽出方法を説明する図である。ここで、図5を用いて、第1の特定部位の抽出方法について詳細に説明する。まず、着目視点において、対象物体の3次元形状モデルを撮像装置35の画像座標系に投影した画像(基準画像)を生成する。画像はモデルが投影された画素には、例えば1、それ以外の画素には0が格納されているとする。次に、対象物体の第1の対称性を示す回転軸(第1軸)まわりに対象物体の3次元形状モデルを所定の角度間隔で360度回転し、同様に撮像装置35の画像座標系に投影した画像である回転画像を生成する。ここで、回転画像の生成に際し、回転軸周りに、所定の角度間隔(360/N度)毎に回転させた複数の回転画像が生成される。このとき生成される回転画像の数は、計N個である。回転画像の生成数はユーザが指定してもよい。したがって、回転画像の生成は1つ以上の画像が生成されることになる。なお、所定の角度間隔は一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。次に、基準画像と各回転画像の差分を抽出した差分画像を生成する。最後に、全ての差分画像を比較して、AND画像を生成し、値が0でない領域に対応する対象物体の3次元モデル点を抽出し、これを第1の特定部位の情報として取得する。ここで、取得した第1の特定部位の情報を差分データ1として保持する。 FIG. 5 is a diagram illustrating a method of extracting a portion that characterizes the first symmetry. Here, the extraction method of the first specific portion will be described in detail with reference to FIG. First, from the viewpoint of interest, an image (reference image) obtained by projecting a three-dimensional shape model of the target object onto the image coordinate system of the image pickup apparatus 35 is generated. As for the image, it is assumed that 1 is stored in the pixel on which the model is projected, and 0 is stored in the other pixels. Next, the three-dimensional shape model of the target object is rotated 360 degrees around the rotation axis (first axis) showing the first symmetry of the target object at predetermined angular intervals, and similarly to the image coordinate system of the image pickup device 35. Generate a rotated image, which is a projected image. Here, when generating the rotated image, a plurality of rotated images rotated at predetermined angular intervals (360 / N degrees) are generated around the rotation axis. The total number of rotated images generated at this time is N. The number of rotated images generated may be specified by the user. Therefore, the generation of the rotated image will generate one or more images. The predetermined angle interval may be set to a constant angle interval, or an angle interval having a certain regularity may be set. Next, a difference image obtained by extracting the difference between the reference image and each rotated image is generated. Finally, all the difference images are compared to generate an AND image, a three-dimensional model point of the target object corresponding to the region whose value is not 0 is extracted, and this is acquired as information of the first specific part. Here, the acquired information of the first specific part is held as the difference data 1.

図6は、第2の対称性を特徴づける部位の抽出方法を説明する図である。続いて、この図6を用いて、第2の特定部位の抽出方法について詳細に説明する。着目視点において、対象物体の3次元形状モデルを撮像装置35の画像座標系に投影した画像(基準画像)を生成する。例えば、画像はモデルが投影された画素には1、それ以外の画素には0が格納されているとする。次に、対象物体の3次元形状モデルを第1軸に直交する第2軸まわりに180度反転(回転)した画像である反転画像を生成する。そして、この反転した姿勢を初期姿勢として、対象物体の3次元形状モデルを第1軸まわりに所定の角度間隔で360度回転し、各姿勢で撮像装置35の画像座標系に投影した画像である回転画像を生成する。ここで、回転画像の生成に際し、第1軸周りに、所定の角度間隔(360/N度)毎に回転させた複数の回転画像が生成される。このとき生成される回転画像の数は、計N個である。回転画像の生成数はユーザが指定してもよい。したがって、回転画像の生成は1つ以上の画像が生成されることになる。なお、所定の角度間隔は一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。 FIG. 6 is a diagram illustrating a method of extracting a portion that characterizes the second symmetry. Subsequently, with reference to FIG. 6, a method for extracting the second specific site will be described in detail. From the viewpoint of interest, an image (reference image) obtained by projecting a three-dimensional shape model of the target object onto the image coordinate system of the image pickup device 35 is generated. For example, it is assumed that the image stores 1 in the pixel on which the model is projected and 0 in the other pixels. Next, a inverted image is generated, which is an image in which the three-dimensional shape model of the target object is inverted (rotated) by 180 degrees around the second axis orthogonal to the first axis. Then, with this inverted posture as the initial posture, the three-dimensional shape model of the target object is rotated 360 degrees around the first axis at predetermined angular intervals, and each posture is projected onto the image coordinate system of the image pickup apparatus 35. Generate a rotated image. Here, when generating the rotated image, a plurality of rotated images rotated at predetermined angular intervals (360 / N degrees) are generated around the first axis. The total number of rotated images generated at this time is N. The number of rotated images generated may be specified by the user. Therefore, the generation of the rotated image will generate one or more images. The predetermined angle interval may be set to a constant angle interval, or an angle interval having a certain regularity may be set.

次に、反転前の基準姿勢で生成した基準画像と、反転かつ回転軸まわりに回転した姿勢で生成した各回転画像との差分を抽出した差分画像を生成する。最後に、全ての差分画像を比較して、AND画像を生成し、値が0でない領域に対応する対象物体の3次元モデル点を抽出し、これを第2の特定部位の情報として取得する。ここで取得した第2の特定部位の情報を差分データ2として保持する。 Next, a difference image is generated by extracting the difference between the reference image generated in the reference posture before inversion and each rotation image generated in the inversion and rotation around the rotation axis. Finally, all the difference images are compared to generate an AND image, a three-dimensional model point of the target object corresponding to the region whose value is not 0 is extracted, and this is acquired as information of the second specific part. The information of the second specific part acquired here is held as the difference data 2.

ここで、差分データ1は、第1の対称性に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)の情報を含む。差分データ2は、第2の対称性に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)の情報を含む。なお、差分データ2は、第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報と、第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報の両方を含んでいても良い。 Here, the difference data 1 includes information on a characteristic portion (first specific portion) that uniquely specifies the posture with respect to the first symmetry. The difference data 2 includes information on a characteristic portion (second specific portion) that uniquely identifies the posture with respect to the second symmetry. The difference data 2 includes both information on a characteristic part that uniquely identifies the posture with respect to the first symmetry and information on a characteristic part that uniquely specifies the posture with respect to the second symmetry. You can stay.

さらに、位置姿勢算出部34は、差分データ2に属する各点について、第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報であるか、第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報であるかを分類する分類手段としても機能する。分類に際し、例えば、差分データ2に属する点から見て最近傍にある差分データ1の点との距離が所定の閾値以内であれば、その点は第1の対称性に関して姿勢を一意に特定する特徴的な部位の情報に分類する。それ以外の点は第2の対称性に関して姿勢を一意に特定する特徴的な部位の情報に分類する。所定の閾値は、例えば、予めユーザによって設定しておけばよい。 Further, the position / orientation calculation unit 34 is information on a characteristic portion that uniquely identifies the posture with respect to the first symmetry for each point belonging to the difference data 2, or the posture is uniquely specified with respect to the second symmetry. It also functions as a classification means for classifying whether the information is characteristic parts to be specified. In the classification, for example, if the distance from the point of the difference data 1 which is the closest to the point belonging to the difference data 2 is within a predetermined threshold value, the point uniquely identifies the posture with respect to the first symmetry. Classify into information on characteristic parts. The other points are classified into the information of the characteristic part that uniquely identifies the posture with respect to the second symmetry. The predetermined threshold value may be set in advance by the user, for example.

図4に戻り、次に、ステップS404において、概略位置姿勢認識部33は、撮影画像中に存在する山積みされた多数の対象物体の中から1個体の検出を行い、センサ座標系における対象物体の概略位置姿勢を表す6つのパラメータを算出して記録する。ここで算出した6つのパラメータに基づくモデル座標系からセンサ座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRSM、位置を表す3つのパラメータで表現される3列の並進ベクトルをTSMとする。このとき、モデル座標系XM=[XM,YM,ZM]Tからセンサ座標系XS=[XS,YS,ZS]Tへの変換は、4×4行列T0’を用いて、以下の次式(1)のように表すことができる。
XS’=T0’XM’ (1)
上記式(1)において、XS’=[XS,YS,ZS,1]Tであり、XM’=[XM,YM,ZM,1]Tである。ここで、T0’は概略位置姿勢である。
Returning to FIG. 4, next, in step S404, the approximate position / orientation recognition unit 33 detects one of a large number of piled up target objects existing in the captured image, and detects the target object in the sensor coordinate system. Six parameters representing the approximate position and orientation are calculated and recorded. In the coordinate transformation from the model coordinate system to the sensor coordinate system based on the six parameters calculated here, the 3 × 3 rotation matrix represented by the three parameters representing the posture is represented by RSM and the three parameters representing the position. Let TSM be the translation vector of the three columns. At this time, the conversion from the model coordinate system XM = [XM, YM, ZM] T to the sensor coordinate system XS = [XS, YS, ZS] T is performed by using the following equation (4 × 4 matrix T0'). It can be expressed as 1).
XS'= T0'XM' (1)
In the above formula (1), XS'= [XS, YS, ZS, 1] T and XM'= [XM, YM, ZM, 1] T. Here, T0'is the approximate position and posture.

次に、ステップS405において、位置姿勢算出部34は、概略位置姿勢T0’を初期値として対象物体の3次元形状モデルと画像中の対象物体とのモデルフィッティングを行うことで、対象物体の位置姿勢を算出する。具体的には、3次元形状モデルを撮像装置35のパラメータと概略位置姿勢に基づいて撮影画像に投影する。そして、投影された3次元形状モデルの特徴である特定部位の情報と画像中の対象物体の特徴である計測特徴を対応付け(フィッティング)をする。つまり、第1軸まわりにおいて取得した第1の特定部位の情報である差分データ1と計測情報とのフィッティングを行い、第2軸まわりにおいて取得した第2の特定部位の情報である差分データ2と計測情報とのフィッティングを行う。そして、その残差を小さくすることにより、対象物体の位置姿勢を算出する。これにより、対象物体の高精度な位置姿勢を算出することができる。ここで算出した位置姿勢の6パラメータにより表現可能な、モデル座標系からセンサ座標系への座標変換を行う4×4の回転行列T0は、位置姿勢算出部34により算出した位置姿勢T0とする。なお、本ステップにおいて、位置姿勢算出部34は、前述した算出方法を用いて、対象部位の位置姿勢を算出する処理を実施する算出手段として機能する。 Next, in step S405, the position / posture calculation unit 34 performs model fitting between the three-dimensional shape model of the target object and the target object in the image with the approximate position / posture T0'as the initial value, thereby performing the position / posture of the target object. Is calculated. Specifically, the three-dimensional shape model is projected onto the captured image based on the parameters of the image pickup apparatus 35 and the approximate position and orientation. Then, the information of the specific part which is the feature of the projected three-dimensional shape model is associated (fitting) with the measurement feature which is the feature of the target object in the image. That is, the difference data 1 which is the information of the first specific part acquired around the first axis and the measurement information are fitted, and the difference data 2 which is the information of the second specific part acquired around the second axis is combined with. Fit with measurement information. Then, the position and orientation of the target object are calculated by reducing the residual. This makes it possible to calculate the highly accurate position and orientation of the target object. The 4 × 4 rotation matrix T0 that performs coordinate conversion from the model coordinate system to the sensor coordinate system, which can be expressed by the six parameters of the position / orientation calculated here, is the position / orientation T0 calculated by the position / orientation calculation unit 34. In this step, the position / posture calculation unit 34 functions as a calculation means for performing a process of calculating the position / posture of the target portion by using the calculation method described above.

次に、ステップS406において、位置姿勢算出部34は、算出した位置姿勢T0に対して、所定の値(スコア)を算出し、所定の閾値と比較を行うことで位置姿勢の正誤を判定し、再度、正しい位置姿勢を算出する処理を実施するか否かの判定を行う。所定の閾値として、例えば、フィッティング後の位置姿勢におけるモデル表面上の特徴的な部分である幾何特徴と、画像中の幾何特徴との3次元的な距離を残差として、ずれ量の取得を行う。そして、全幾何特徴の残差の平均値Eをスコアとして用いることができる。なお、本ステップにおいて、位置姿勢算出部34は、対象物体の位置姿勢の正誤を判定し、再度、正しい位置姿勢を算出する処理を実施するか否かの判定を行う判定手段としても機能する。 Next, in step S406, the position / posture calculation unit 34 calculates a predetermined value (score) for the calculated position / posture T0, compares it with a predetermined threshold value, and determines whether the position / posture is correct or incorrect. It is determined again whether or not to perform the process of calculating the correct position / orientation. As a predetermined threshold value, for example, the amount of deviation is acquired by using the three-dimensional distance between the geometric feature, which is a characteristic part on the model surface in the position and orientation after fitting, and the geometric feature in the image as a residual. .. Then, the average value E of the residuals of all geometric features can be used as the score. In this step, the position / orientation calculation unit 34 also functions as a determination means for determining whether or not the position / orientation of the target object is correct and whether or not to perform the process of calculating the correct position / orientation again.

算出した残差の平均値Eが所定の閾値(たとえば0.1mm)よりも小さい場合は、正しい位置姿勢が算出できたと判定して処理を終了する。一方、残差の平均値Eが閾値よりも大きい場合は、誤った位置姿勢が求まったものと判定して、ステップS407へ進む。所定の閾値は、例えば、予めユーザによって設定しておけばよい。また、位置姿勢の正誤判定方法はこれに限るものではない。例えば、算出された位置姿勢T0に基づき、モデルを投影してレンダリングした画像と、撮影画像とでの、物体領域内の輝度の正規化相互相関係数Rを求め、この値を利用してもよい。この場合、正規化相互相関係数Rが所定の値(例えば、0.9)よりも大きい場合は正しい位置姿勢が算出できたと判定して処理を終了する。一方、小さい場合はステップS407へ進む。このほか、算出された位置姿勢の正誤を峻別可能な方法であればいかなる方法であっても構わない。 When the average value E of the calculated residuals is smaller than a predetermined threshold value (for example, 0.1 mm), it is determined that the correct position and orientation can be calculated, and the process is terminated. On the other hand, when the average value E of the residuals is larger than the threshold value, it is determined that the wrong position and orientation have been obtained, and the process proceeds to step S407. The predetermined threshold value may be set in advance by the user, for example. Further, the method of determining the correctness of the position / posture is not limited to this. For example, based on the calculated position / orientation T0, the normalized intercorrelation coefficient R of the brightness in the object region between the image rendered by projecting the model and the captured image can be obtained, and this value can be used. Good. In this case, if the normalized intercorrelation coefficient R is larger than a predetermined value (for example, 0.9), it is determined that the correct position / orientation has been calculated, and the process ends. On the other hand, if it is small, the process proceeds to step S407. In addition, any method may be used as long as it can distinguish the calculated correctness of the position and posture.

次に、ステップS407において、位置姿勢算出部34は、対象物体の第1の対称性と第2の対称性を考慮して対象物体の正しい位置姿勢を算出する。S403で抽出した第1の対称性を特徴づける部位のモデル点の数をN1、第2の対称性を特徴づけるモデル点の数をN2とする。また、第1の対称性判別を実施する閾値をσ1、第2の対称性判別を実施する閾値をσ2とする。本ステップでは、対称性を特徴づける部位のモデル点の数に応じて以下のように処理を切り替えることにより、処理の冗長性を排除し高速に処理できる。 Next, in step S407, the position / orientation calculation unit 34 calculates the correct position / orientation of the target object in consideration of the first symmetry and the second symmetry of the target object. Let N1 be the number of model points of the part that characterizes the first symmetry and N2 be the number of model points that characterize the second symmetry extracted in S403. Further, the threshold value for performing the first symmetry determination is σ1, and the threshold value for performing the second symmetry determination is σ2. In this step, by switching the processing as follows according to the number of model points of the part that characterizes the symmetry, the redundancy of the processing can be eliminated and the processing can be performed at high speed.

N1<σ1、N2<σ2の場合は、対称性を特徴づける部位が十分に小さいため、対称性判別は実施せず追加の処理は行わない。 In the case of N1 <σ1 and N2 <σ2, since the part that characterizes the symmetry is sufficiently small, the symmetry discrimination is not performed and no additional processing is performed.

N1>σ1、N2<σ2の場合は、第1の対称性を特徴づける部位が大きく、第1の回転軸まわり(第1軸まわり)の対称性を誤っている可能性がある。この場合、ステップS405で算出した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。そして、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1 and N2 <σ2, the part that characterizes the first symmetry is large, and there is a possibility that the symmetry around the first rotation axis (around the first axis) is incorrect. In this case, the score is recalculated at each of the rotated positions and postures by rotating 360 degrees around the first rotation axis with respect to the position and posture calculated in step S405. Then, the position / posture with the highest score is set as the correct position / posture.

N1<σ1、N2>σ2の場合は、第2の対称性を特徴づける部位が大きく、第2の回転軸まわり(第2軸まわり)の対称性を誤っている可能性がある。この場合、ステップS405で算出した位置姿勢に対して、第2の回転軸まわりに180度回転し、回転した前後の位置姿勢でスコアを再算出する。そして、最もスコアの高い方の位置姿勢を正しい位置姿勢とする。 In the case of N1 <σ1, N2> σ2, the part that characterizes the second symmetry is large, and there is a possibility that the symmetry around the second rotation axis (around the second axis) is incorrect. In this case, the score is recalculated based on the position / posture calculated in step S405 by rotating 180 degrees around the second rotation axis and the position / posture before and after the rotation. Then, the position / posture with the highest score is set as the correct position / posture.

N1>σ1、N2>σ2、かつ0<N1<N2の場合は、第1の対称性に比べ、第2の対称性による姿勢誤りの影響が大きい。この場合、まず、ステップS405で算出した位置姿勢に対して、第2の回転軸まわりに180度回転し、回転した前後の位置姿勢でスコアを再算出し、スコアの高い方の位置姿勢を仮の正しい位置姿勢とする。次に仮の正しい位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。そして、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1, N2> σ2, and 0 <N1 <N2, the influence of the posture error due to the second symmetry is larger than that of the first symmetry. In this case, first, with respect to the position / posture calculated in step S405, the position / posture is rotated 180 degrees around the second rotation axis, the score is recalculated based on the position / posture before and after the rotation, and the position / posture with the higher score is provisionally set. The correct position and posture of. Next, the score is recalculated at each of the rotated positions and postures by rotating 360 degrees around the first rotation axis at predetermined angular intervals with respect to the tentative correct position and posture. Then, the position / posture with the highest score is set as the correct position / posture.

N1>σ1、N2>σ2、かつ0<N2<N1の場合は、第2の対称性に比べ、第1の対称性による姿勢誤りの影響が大きい。この場合、まず、ステップS405で算出した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。最もスコアの高い位置姿勢を正しい位置姿勢候補として保存する。次に、ステップS405で算出した位置姿勢に対して第2の回転軸まわりに180度回転した位置姿勢に対して、第1の回転軸まわりに所定の角度間隔で360度回転し、回転した各位置姿勢でスコアを再算出する。最もスコアの高い位置姿勢を正しい位置姿勢候補として保存する。最後に、正しい位置姿勢の候補のうち、最もスコアの高い位置姿勢を正しい位置姿勢とする。 When N1> σ1, N2> σ2, and 0 <N2 <N1, the influence of the posture error due to the first symmetry is larger than that of the second symmetry. In this case, first, with respect to the position / posture calculated in step S405, the score is recalculated at each of the rotated positions / postures by rotating 360 degrees around the first rotation axis at predetermined angular intervals. The position / posture with the highest score is saved as the correct position / posture candidate. Next, with respect to the position / orientation calculated in step S405 by 180 degrees around the second rotation axis, each rotation is rotated 360 degrees around the first rotation axis at predetermined angular intervals. Recalculate the score based on the position and posture. The position / posture with the highest score is saved as the correct position / posture candidate. Finally, among the candidates for the correct position and orientation, the position and orientation with the highest score is set as the correct position and orientation.

第1または第2の特定部位の再算出における360度を回転させる上での、所定の間隔(360/N度)は、前述したように一定の角度間隔を設定しても良いし、または、ある規則性を持たせた角度間隔を設定しても良い。なお、本実施例では対称性を特徴づける部位のモデル点の数を基に対称性を判別したが、対称性を特徴づける部位の大きさに基づく情報であれば、他の指標でもよい。例えば、基準画像上における対称性を特徴づける部位である特定部位の箇所の(占める)面積を基に同様に判別してもよい。さらに、本実施例はフローチャートで実施しているが、ディスクリート回路等で実施しても良い。 The predetermined interval (360 / N degrees) for rotating 360 degrees in the recalculation of the first or second specific part may be set to a constant angular interval as described above, or An angular interval with a certain regularity may be set. In this embodiment, the symmetry is determined based on the number of model points of the parts that characterize the symmetry, but other indexes may be used as long as the information is based on the size of the parts that characterize the symmetry. For example, the same determination may be made based on the (occupied) area of a specific portion, which is a portion that characterizes symmetry on the reference image. Further, although this embodiment is carried out by the flowchart, it may be carried out by a discrete circuit or the like.

以上の方法により、第1軸まわりに第1の対称性をもち、また、それとは第1軸とは異なる第2軸まわりに第2の対称性をもつ対象物体に対しても誤認識することなく、対象物の正しい位置姿勢を精度よく算出することができる。また、ステップS407において、第1の対称性および第2の対称性を考慮して対象物体の正しい位置姿勢を判別する際に、それぞれの対称性を特徴づける部位の大きさを基に処理を切り替えるようにした。これにより、冗長な処理を無くし、第1の対称性および第2の対称性を網羅的に判別する場合に比べて高速に処理することができる。 By the above method, it is possible to erroneously recognize an object having a first symmetry around the first axis and a second symmetry around the second axis different from the first axis. It is possible to accurately calculate the correct position and orientation of the object. Further, in step S407, when determining the correct position and orientation of the target object in consideration of the first symmetry and the second symmetry, the processing is switched based on the size of the portion that characterizes each symmetry. I did. As a result, redundant processing can be eliminated, and processing can be performed at a higher speed than in the case of comprehensively discriminating the first symmetry and the second symmetry.

〔実施例2〕
実施例1では、第2の対称性として表と裏を誤りやすい対象物体に対して、誤認識なく正しく位置姿勢を算出する方法について述べた。本実施例では、第2の対称性として軸周りに所定の角度として90度ごとの略回転対称性をもつ対象物体に対して実施例1の処理を適用した場合について述べる。また、軸周りに90度を有している対象物体に限らず、軸まわりに所定の対称性を有していればよく、第1の軸まわりに第1の対称性、第2の軸まわりに第2の対称性を有している対象物体であれば如何なるものでもよい。所定の対称性を有する対象物体は、一例として、ある一定の角度間隔を有する対象物体や、ある規則性を持たせた角度間隔を有する対象物体ある。なお、本実施例における情報処理装置100の構成は、実施例1で示した図3の情報処理装置100と同様の構成のため、説明は省略する。また、本実施例における処理手順は実施例1で示した図4の処理手順と同様であるため、説明は省略する。
[Example 2]
In the first embodiment, as the second symmetry, a method of correctly calculating the position and orientation of an object whose front and back are liable to be mistaken without erroneous recognition has been described. In this embodiment, the case where the process of Example 1 is applied to a target object having substantially rotational symmetry of every 90 degrees as a predetermined angle around the axis as the second symmetry will be described. Further, the object is not limited to an object having 90 degrees around the axis, as long as it has a predetermined symmetry around the axis, and the first symmetry around the first axis and the second axis around the axis. Any object may have any second symmetry. An object having a predetermined symmetry is, for example, an object having a certain angular interval or an object having an angular interval having a certain regularity. Since the configuration of the information processing device 100 in this embodiment is the same as that of the information processing device 100 of FIG. 3 shown in the first embodiment, the description thereof will be omitted. Further, since the processing procedure in this embodiment is the same as the processing procedure of FIG. 4 shown in the first embodiment, the description thereof will be omitted.

図7は、本実施例で対象とする対象物体を示す図である。図7(A)は対象物体の正しい位置姿勢を表し、図7(B)、(C)は、誤認識した場合の対象物体の位置姿勢を表す。本実施例の対象物体は、図7のz軸まわりに90度毎に略回転対称性(第1の対称性)をもち、また、図7のx軸まわりに90度毎に略回転対称性(第2の対称性)をもつ。図7で示している701は第1の対称性に関して姿勢を一意に特定する特徴的な部位(第1の特定部位)である。さらに、図7で示している702は第2の対称性に関して姿勢を一意に特定する特徴的な部位(第2の特定部位)である。本実施例においても、対象物体は第1及び第2の対称性を有しているため、実施例1で述べた方法により対称性を特徴づける部位を抽出する。それを基に第1及び第2の特定部位毎に回転画像を生成して、生成をした第1及び第2の特定部位毎の回転画像と基準画像とを、実施例1と同様の方法で比較して対称性を判別することにより誤認識することなく正しい位置姿勢を算出することができる。 FIG. 7 is a diagram showing a target object as a target in this embodiment. FIG. 7A shows the correct position and orientation of the target object, and FIGS. 7B and 7C show the position and orientation of the target object in the case of erroneous recognition. The target object of this embodiment has substantially rotational symmetry (first symmetry) every 90 degrees around the z-axis of FIG. 7, and substantially rotational symmetry every 90 degrees around the x-axis of FIG. Has (second symmetry). Reference numeral 701 shown in FIG. 7 is a characteristic portion (first specific portion) that uniquely specifies the posture with respect to the first symmetry. Further, reference numeral 702 shown in FIG. 7 is a characteristic portion (second specific portion) that uniquely specifies the posture with respect to the second symmetry. In this embodiment as well, since the target object has the first and second symmetry, the portion that characterizes the symmetry is extracted by the method described in the first embodiment. Based on this, rotation images are generated for each of the first and second specific parts, and the generated rotation images and reference images for each of the first and second specific parts are produced by the same method as in Example 1. By comparing and discriminating the symmetry, the correct position and orientation can be calculated without erroneous recognition.

以上の方法により、実施例1で示したような360度の回転対称性を有していなくても、軸まわりに第1の対称性をもち、またそれとは異なる第2の対称性をもつ対象物体に対して誤認識することなく対象物体の正しい位置姿勢を精度よく算出することができる。 By the above method, even if the object does not have the rotational symmetry of 360 degrees as shown in the first embodiment, the object has the first symmetry around the axis and the second symmetry different from the first symmetry. The correct position and orientation of the target object can be calculated accurately without erroneously recognizing the object.

〔物品製造方法に係る実施例〕
上述の情報処理装置100は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図8のようにロボットアーム800(把持装置)に備え付けられて使用される制御システムについて説明する。図8では図示していないが、情報処理装置100は撮像装置35を用いる計測装置として構成されており、支持台Tに置かれた物体Wにパターン光を投影して撮像し、画像を取得する。そして、情報処理装置100の制御部が、又は、情報処理装置100の制御部から出力された画像を取得したアーム制御部810が、物体Wの位置や姿勢を決定する。アーム制御部810は、その位置や姿勢の情報(計測結果)に基づいて、ロボットアーム800に駆動指令を送ってロボットアーム800を制御する。ロボットアーム800は先端のロボットハンド(把持部)などで物体Wを保持して、並進や回転などの移動をさせる。さらに、ロボットアーム800によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された所定の物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部810は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。なお、ロボットを制御する制御部をアーム制御部810の外部に設けても良い。また、情報処理装置100により計測された計測データや得られた画像をディスプレイなどの表示部820に表示しても良い。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしても良い。なお、物体Wは図2で示している対象物体と同様の構成である。さらに、計測装置はロボットアーム800を含むように構成してもよい。
[Examples relating to the article manufacturing method]
The information processing device 100 described above can be used in a state of being supported by a certain support member. In this embodiment, as an example, a control system attached to and used in the robot arm 800 (grip device) as shown in FIG. 8 will be described. Although not shown in FIG. 8, the information processing device 100 is configured as a measuring device using the image pickup device 35, and the pattern light is projected onto the object W placed on the support base T to take an image and acquire an image. .. Then, the control unit of the information processing device 100 or the arm control unit 810 that has acquired the image output from the control unit of the information processing device 100 determines the position and posture of the object W. The arm control unit 810 controls the robot arm 800 by sending a drive command to the robot arm 800 based on the position and posture information (measurement result). The robot arm 800 holds the object W with a robot hand (grip portion) at the tip and moves the object W in translation or rotation. Further, by assembling (assembling) the object W to other parts by the robot arm 800, it is possible to manufacture a predetermined article composed of a plurality of parts, for example, an electronic circuit board or a machine. In addition, an article can be manufactured by processing (processing) the moved object W. The arm control unit 810 has an arithmetic unit such as a CPU as a computer and a storage device such as a memory for storing a computer program. A control unit that controls the robot may be provided outside the arm control unit 810. Further, the measurement data measured by the information processing apparatus 100 and the obtained image may be displayed on a display unit 820 such as a display. Further, the object W may be gripped and moved in order to align the object W with respect to other parts. The object W has the same configuration as the target object shown in FIG. Further, the measuring device may be configured to include the robot arm 800.

〔その他の実施例〕
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
[Other Examples]
Although the present invention has been described in detail based on the preferred examples thereof, the present invention is not limited to the above examples, and various modifications can be made based on the gist of the present invention. It is not excluded from the scope of the invention.

また、上述した各実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して情報処理装置100や計測装置等に供給するようにしてもよい。そしてその情報処理装置100や計測装置におけるコンピュータ(又はCPUやMPU等)が記録媒体よりコンピュータプログラムを読み出して実行するようにしてもよい。その場合、そのコンピュータプログラム、及びそのコンピュータプログラムを記憶した記憶媒体は本発明を構成することとなる。なお、記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。さらに、記憶媒体から読み出しされたコンピュータプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのコンピュータプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。 Further, a computer program that realizes a part or all of the control in each of the above-described embodiments may be supplied to the information processing device 100, the measuring device, or the like via a network or various storage media. Good. Then, the computer (or CPU, MPU, etc.) in the information processing device 100 or the measuring device may read the computer program from the recording medium and execute it. In that case, the computer program and the storage medium that stores the computer program constitute the present invention. As the recording medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used. Further, the computer program read from the storage medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer. After that, based on the instruction of the computer program, the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the actual processing, and the processing includes the case where the function of the above-described embodiment is realized. Is done.

100 情報処理装置
30 認識対象情報取得部
31 3次元形状モデル保持部
32 特定部位取得部
33 概略位置姿勢認識部
34 位置姿勢算出部
35 撮像装置
36 表示装置
37 操作装置

100 Information processing device 30 Recognition target information acquisition unit 31 Three-dimensional shape model holding unit 32 Specific part acquisition unit 33 Approximate position / orientation recognition unit 34 Position / orientation calculation unit 35 Imaging device 36 Display device 37 Operation device

Claims (13)

対象物体の姿勢を算出する情報処理装置であって、
前記対象物体の画像を取得して、前記対象物体の3次元情報を取得する画像取得手段と、
前記対象物体のモデルから、前記対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、前記対象物体について前記第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得手段と、
前記取得手段により取得した前記第1の特定部位の情報と前記第2の特定部位の情報とに基づいて、前記第1軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行い、前記第2軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行うことにより、前記対象物体の姿勢を算出する算出手段と、
を備えることを特徴とする情報処理装置。
An information processing device that calculates the posture of an object.
An image acquisition means for acquiring an image of the target object and acquiring three-dimensional information of the target object,
From the model of the target object, information on the first specific part, which is a part for specifying the posture around the first axis of the target object, and information on the target object around the second axis different from the first axis. An acquisition means for acquiring information on a second specific part, which is a part for specifying a posture, and
Based on the information of the first specific part and the information of the second specific part acquired by the acquisition means, the model is rotated around the first axis to fit the model and the three-dimensional information. And a calculation means for calculating the posture of the target object by rotating the model around the second axis and fitting the model and the three-dimensional information.
An information processing device characterized by being equipped with.
前記取得手段は、前記対象物体の前記モデルの基準となる視点の画像である基準画像と、前記対象物体の前記第1軸を中心として所定の間隔で前記モデルを回転させて生成した複数の回転画像とを比較することにより前記第1の特定部位の情報を取得することを特徴とした請求項1に記載の情報処理装置。 The acquisition means includes a reference image which is an image of a viewpoint which is a reference of the model of the target object, and a plurality of rotations generated by rotating the model at predetermined intervals about the first axis of the target object. The information processing apparatus according to claim 1, wherein information on the first specific portion is acquired by comparing with an image. 前記取得手段は、前記対象物体の前記モデルの基準となる視点の画像である基準画像と、前記対象物体の前記第2軸を中心として前記モデルを180度反転させた反転画像を前記対象物体の前記第1軸を中心として所定の間隔で回転させて生成した複数の回転画像とを比較することにより前記第2の特定部位の情報を取得することを特徴とした請求項1に記載の情報処理装置。 The acquisition means obtains a reference image which is an image of a viewpoint which is a reference of the model of the target object and an inverted image obtained by reversing the model by 180 degrees about the second axis of the target object. The information processing according to claim 1, wherein information on the second specific portion is acquired by comparing with a plurality of rotated images generated by rotating the first axis at predetermined intervals. apparatus. 前記算出手段は、前記対象物体の概略位置姿勢と3次元形状モデル情報に基づいて、前記第1及び第2の特定部位の情報と前記3次元情報との位置合わせを行うことを特徴とする請求項1に記載の情報処理装置。 The calculation means is characterized in that the information of the first and second specific parts and the three-dimensional information are aligned based on the approximate position and orientation of the target object and the three-dimensional shape model information. Item 1. The information processing apparatus according to item 1. 前記算出手段は、前記対象物体の姿勢を算出した後、前記算出の結果を所定の閾値と比較することで前記対象物体の姿勢を再算出するか否かの判定を行うことを特徴とする請求項4に記載の情報処理装置。 The claim is characterized in that after calculating the posture of the target object, the calculation means determines whether or not to recalculate the posture of the target object by comparing the calculation result with a predetermined threshold value. Item 4. The information processing apparatus according to item 4. 前記第1の特定部位の情報及び前記第2の特定部位の情報は、前記対象物体の3次元形状モデル情報の点に関する情報または前記基準画像上における特定部位の箇所の面積に関する情報の少なくとも何れかを含むことを特徴とする請求項2または3に記載の情報処理装置。 The information of the first specific part and the information of the second specific part are at least one of the information about the point of the three-dimensional shape model information of the target object or the information about the area of the part of the specific part on the reference image. The information processing apparatus according to claim 2 or 3, wherein the information processing apparatus includes. 前記第1及び第2軸まわりに特定部位を備える前記対象物体において、前記第1及び第2軸まわりに所定の間隔で回転させて生成した回転画像を前記第1及び第2軸まわりの前記特定部位毎に生成して、生成をした前記第1及び第2軸まわりの特定部位毎の回転画像と前記基準画像とをそれぞれ比較することを特徴する請求項1に記載の情報処理装置。 In the target object having specific parts around the first and second axes, a rotation image generated by rotating the target object around the first and second axes at predetermined intervals is displayed around the first and second axes. The information processing apparatus according to claim 1, wherein a rotation image for each specific part around the first and second axes generated for each part is compared with the reference image, respectively. 前記算出手段は前記対象物体の位置の情報も算出することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the calculation means also calculates information on the position of the target object. 対象物体の姿勢を算出する情報処理方法であって、
前記対象物体の画像を取得して、前記対象物体の3次元情報を取得する画像取得工程と、
前記対象物体のモデルから、前記対象物体について第1軸まわりの姿勢を特定するための部位である第1の特定部位の情報と、前記対象物体について前記第1軸とは異なる第2軸まわりの姿勢を特定するための部位である第2の特定部位の情報を取得する取得工程と、
前記取得工程により取得した前記第1の特定部位の情報と前記第2の特定部位の情報とに基づいて、前記第1軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行い、前記第2軸まわりに前記モデルを回転させて前記モデルと前記3次元情報とのフィッティングを行うことにより、前記対象物体の姿勢を算出する算出工程と、
を有することを特徴とする情報処理方法。
An information processing method that calculates the posture of an object.
An image acquisition step of acquiring an image of the target object and acquiring three-dimensional information of the target object, and
From the model of the target object, information on the first specific part, which is a part for specifying the posture around the first axis of the target object, and information on the target object around the second axis different from the first axis. The acquisition process of acquiring information on the second specific part, which is the part for specifying the posture,
Based on the information of the first specific part and the information of the second specific part acquired in the acquisition step, the model is rotated around the first axis to fit the model and the three-dimensional information. And the calculation step of calculating the posture of the target object by rotating the model around the second axis and fitting the model and the three-dimensional information.
An information processing method characterized by having.
対象物体の画像を撮像する撮像手段と、
請求項1〜8のうちいずれか1項に記載の情報処理装置と、
を備えることを特徴とする計測装置。
An imaging means that captures an image of a target object,
The information processing device according to any one of claims 1 to 8 and
A measuring device characterized by being provided with.
コンピュータを、請求項1〜8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 8. 請求項1〜8のうちいずれか1項に記載の情報処理装置と、
前記情報処理装置により算出された前記対象物体の姿勢に基づいて、前記対象物体を把持して移動させるロボットと、を有することを特徴とするシステム。
The information processing device according to any one of claims 1 to 8 and
A system characterized by having a robot that grips and moves the target object based on the posture of the target object calculated by the information processing device.
請求項1〜8のうちいずれか1項に記載の情報処理装置により前記対象物体の姿勢を算出する算出工程と、
算出された、前記対象物体の位置姿勢に基づいて、前記対象物体を把持し、前記対象物体の組立処理を行うことで、所定の物品を製造する工程を有することを特徴とする物品の製造方法。

A calculation step of calculating the posture of the target object by the information processing apparatus according to any one of claims 1 to 8.
A method for manufacturing an article, which comprises a step of manufacturing a predetermined article by grasping the target object and performing an assembly process of the target object based on the calculated position and orientation of the target object. ..

JP2019215655A 2019-11-28 2019-11-28 Information processing device, information processing method, measuring device, program, system, and article manufacturing method Pending JP2021085781A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215655A JP2021085781A (en) 2019-11-28 2019-11-28 Information processing device, information processing method, measuring device, program, system, and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215655A JP2021085781A (en) 2019-11-28 2019-11-28 Information processing device, information processing method, measuring device, program, system, and article manufacturing method

Publications (1)

Publication Number Publication Date
JP2021085781A true JP2021085781A (en) 2021-06-03

Family

ID=76087350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215655A Pending JP2021085781A (en) 2019-11-28 2019-11-28 Information processing device, information processing method, measuring device, program, system, and article manufacturing method

Country Status (1)

Country Link
JP (1) JP2021085781A (en)

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5328979B2 (en) Object recognition method, object recognition device, autonomous mobile robot
JP6323993B2 (en) Information processing apparatus, information processing method, and computer program
JP6632208B2 (en) Information processing apparatus, information processing method, and program
CN110926330B (en) Image processing apparatus, image processing method, and program
US8116519B2 (en) 3D beverage container localizer
JP2015194478A (en) Information processing device, information processing method, and program
JP2011133273A (en) Estimation apparatus and control method thereof, and program
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2018136896A (en) Information processor, system, information processing method, and manufacturing method of article
JP2014029664A (en) Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program
JP2020027439A (en) Information processing device and information processing method
JP6922348B2 (en) Information processing equipment, methods, and programs
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2920513B2 (en) 3D object position and orientation determination method
JP7066671B2 (en) Interference determination device, interference determination method, program and system
CN116901054A (en) Method, system and storage medium for recognizing position and posture
Kotake et al. A fast initialization method for edge-based registration using an inclination constraint
JP2021085781A (en) Information processing device, information processing method, measuring device, program, system, and article manufacturing method
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JP2021071420A (en) Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method
CN115194751A (en) Robot system, control method, image processing apparatus and method, and product manufacturing method
JP2021086448A (en) Information processing device, information processing method, program, measuring device, system, and article manufacturing method