JP2021071420A - Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method - Google Patents

Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method Download PDF

Info

Publication number
JP2021071420A
JP2021071420A JP2019199165A JP2019199165A JP2021071420A JP 2021071420 A JP2021071420 A JP 2021071420A JP 2019199165 A JP2019199165 A JP 2019199165A JP 2019199165 A JP2019199165 A JP 2019199165A JP 2021071420 A JP2021071420 A JP 2021071420A
Authority
JP
Japan
Prior art keywords
posture
measurement data
sensor
information processing
specific portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019199165A
Other languages
Japanese (ja)
Inventor
大輔 渡邊
Daisuke Watanabe
大輔 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199165A priority Critical patent/JP2021071420A/en
Publication of JP2021071420A publication Critical patent/JP2021071420A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing apparatus for efficiently specifying an attitude of an object.SOLUTION: An information processing apparatus includes: a first calculation unit for calculating a first posture of a target object based on first measurement data obtained by measuring the target object by a sensor; and a determination unit for determining whether or not the measurement data concerning a specific part for specifying the posture of the target object is sufficiently obtained for specifying the posture based on the first measurement data; and a second calculation unit which calculates a second posture of the target object on the basis of second measurement data obtained by measuring a specific part of the target object by changing a relative position of the target object and the sensor in which the first posture is calculated when it is determined that measurement data concerning the specific part is not sufficiently obtained, and which does not calculate the second posture based on the second measurement data when it is determined that the measurement data concerning the specific part is sufficiently obtained for specifying a posture by the determination unit.SELECTED DRAWING: Figure 7

Description

本発明は、情報処理装置、情報処理方法、プログラム、システム、物品の製造方法、計測装置及び計測方法に関する。 The present invention relates to an information processing device, an information processing method, a program, a system, a method for manufacturing an article, a measuring device, and a measuring method.

収容箱にバラ積みされた工業部品の3次元位置および姿勢(位置姿勢)をビジョンシステムにより特定し、ロボットアームに取り付けたハンドで把持し、次工程へと供給する技術が近年工場などの生産ラインにおいて利用されている。工業部品には、大きな対称構造の中に突起や切欠き、溝といった、姿勢や位相を特定するための手がかりとなる部位(特定部位)を持つものが多く存在する。こういった部品のバラ積み状態をカメラなどの画像センサで計測した場合、特定部位の観測状況により、姿勢が一意に定まるケースとそうでないケースとがある。計測データにおいて特定部位が十分に観測できれば姿勢を一意に特定可能だが、特定部位が観測視点から陰になってしまい観測できなければ姿勢が一意に定まらない、といったことが起こる。 In recent years, production lines such as factories have developed a technology that identifies the three-dimensional position and posture (positional posture) of industrial parts stacked separately in a storage box by a vision system, grips them with a hand attached to a robot arm, and supplies them to the next process. It is used in. Many industrial parts have large symmetrical structures with parts (specific parts) such as protrusions, notches, and grooves that can be used as clues for specifying the posture and phase. When the state of stacking such parts is measured by an image sensor such as a camera, there are cases where the posture is uniquely determined and cases where the posture is not determined depending on the observation condition of a specific part. If a specific part can be sufficiently observed in the measurement data, the posture can be uniquely specified, but if the specific part is hidden from the observation viewpoint and cannot be observed, the posture cannot be uniquely determined.

ビジョンシステムおよびロボットを用いたバラ積み部品の供給装置において、センサにより2段階の計測を行って位置姿勢を特定する技術がある。この技術では、バラ積み状態を計測した距離画像から部品の局所的な部位を認識した後、いったん部品を摘み出して仮置き台に転がし、さらに仮置き台の部品の2次元画像を計測して最終的な位置姿勢の特定を行う。(特許文献1) In a vision system and a robot-based supply device for loosely stacked parts, there is a technique for identifying a position or orientation by performing two-step measurement with a sensor. In this technology, after recognizing the local part of the part from the distance image that measures the stacking state, the part is once picked out and rolled on the temporary stand, and then the two-dimensional image of the part of the temporary stand is measured. Identify the final position and orientation. (Patent Document 1)

特許5837065号公報Japanese Patent No. 5837065

特許文献1に記載の方法において、1段階目の計測ではあくまでもハンドで把持するための局所的な形状の検出しか行わず、検出した形状が対象物(ワーク)のどの部位に該当するのかわからない。したがって、1段階目の計測を終えた時点で対象物の姿勢を一意に特定することはできない。したがって、前述した特定部位の観測状況にかかわらず、常に2段階目の計測を行う必要がある。 In the method described in Patent Document 1, in the first stage measurement, only the local shape for gripping by the hand is detected, and it is not known which part of the object (work) the detected shape corresponds to. Therefore, it is not possible to uniquely identify the posture of the object when the first stage measurement is completed. Therefore, it is necessary to always perform the second stage measurement regardless of the observation status of the specific part described above.

そこで、本発明は、例えば、対象物の姿勢を効率よく特定する情報処理装置を提供することを目的とする。 Therefore, an object of the present invention is, for example, to provide an information processing device that efficiently identifies the posture of an object.

その目的を達成するために、本発明は、対象物の姿勢を算出する情報処理装置であって、センサにより対象物を計測して得られる第1の計測データに基づいて対象物の第1の姿勢を算出する第1の算出部と、第1の計測データに基づいて、対象物のうち姿勢を特定するための特定部位に関する計測データが姿勢を特定するために十分得られたか否かを判定する判定部と、特定部位に関する計測データが姿勢を特定するために十分得られていないと判定部が判定した場合に、第1の姿勢が算出された対象物とセンサの相対位置を変更して対象物の特定部位を計測して得られる対象物の第2の計測データに基づいて対象物の第2の姿勢を算出し、特定部位に関する計測データが姿勢を特定するために十分得られたと判定部が判定した場合に第2の計測データに基づく第2の姿勢の算出を行わない第2の算出部を備えていることを特徴とする。 In order to achieve that object, the present invention is an information processing device that calculates the posture of an object, and the first object is based on the first measurement data obtained by measuring the object with a sensor. Based on the first calculation unit that calculates the posture and the first measurement data, it is determined whether or not sufficient measurement data for a specific part of the object for specifying the posture has been obtained to specify the posture. When the judgment unit determines that the measurement data for the specific part is not sufficiently obtained to specify the posture, the relative position between the object and the sensor for which the first posture is calculated is changed. The second posture of the object is calculated based on the second measurement data of the object obtained by measuring the specific part of the object, and it is determined that the measurement data for the specific part is sufficiently obtained to specify the posture. It is characterized by including a second calculation unit that does not calculate the second posture based on the second measurement data when the unit determines.

本発明によれば、例えば、対象物の姿勢を効率よく特定する情報処理装置を提供することができる。 According to the present invention, for example, it is possible to provide an information processing device that efficiently identifies the posture of an object.

実施例1に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on Example 1. FIG. 実施例1で取り扱う対象物の形状を示す図である。It is a figure which shows the shape of the object to handle in Example 1. FIG. 実施例1を用いた部品供給システムを示す図である。It is a figure which shows the parts supply system using Example 1. FIG. 撮影画像において姿勢の区別がつかない事例を示す図である。It is a figure which shows the case where the posture is indistinguishable in the photographed image. 実施例1における処理フローを示す図である。It is a figure which shows the processing flow in Example 1. FIG. 実施例1において特定部位の指定を行うGUIの例である。This is an example of a GUI that specifies a specific part in the first embodiment. 対象物と第2のセンサとの配置方法を示す図である。It is a figure which shows the arrangement method of an object and a 2nd sensor. 実施例1を適用可能な対象物の一例である。It is an example of an object to which Example 1 can be applied. 実施例1を適用可能な対象物の一例である。It is an example of an object to which Example 1 can be applied. 実施例2で取り扱う対象物の形状を示す図である。It is a figure which shows the shape of the object to handle in Example 2. FIG. 第2のセンサに対する対象物配置の設定方法を説明する図である。It is a figure explaining the setting method of the object arrangement with respect to the 2nd sensor. 情報処理装置が備え付けられた把持装置を含む制御システムの例を示した図である。It is a figure which showed the example of the control system which includes the gripping apparatus equipped with the information processing apparatus.

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings with reference to examples. In each figure, the same member or element is given the same reference number, and duplicate explanations are omitted or simplified.

〔実施例1〕
本実施例では、対象物(ワーク)の所定の部位である特定部位(特徴部位)が自分自身の陰になったり、視点とは逆の方向を向いて見えなかったりする、いわゆる自己遮蔽で観測できず、対象物の姿勢が一意に特定できないケースを一例として以下に説明をする。
[Example 1]
In this embodiment, the observation is performed by so-called self-shielding, in which a specific part (characteristic part), which is a predetermined part of the object (work), is behind oneself or cannot be seen in the direction opposite to the viewpoint. An example of a case where the posture of the object cannot be uniquely specified will be described below.

図1は、本実施例に係る情報処理装置1の構成を示している。情報処理装置1は、第1の算出部10と、判定部20と、第2の算出部30とから成る。以下、情報処理装置1を構成する各部について説明する。 FIG. 1 shows the configuration of the information processing device 1 according to the present embodiment. The information processing device 1 includes a first calculation unit 10, a determination unit 20, and a second calculation unit 30. Hereinafter, each part constituting the information processing apparatus 1 will be described.

第1の算出部10は、センサを用いて収容箱にバラ積みされた多数の対象物の計測データを取得し、その中から1個体を検出してその姿勢(位置姿勢)を算出する。本実施例において、第1の算出部10で取得した計測データは第1の計測データとし、第1の計測データによって算出された姿勢を第1の姿勢(第1の位置姿勢)とする。さらに、第1の算出部10で用いるセンサを第1のセンサとする。そして、第1の姿勢では、特定部位の観測状況によって対象物の姿勢を一意に特定できていない場合がある。なお本実施例では、第1の計測データを取得する際の計測を第1の計測とする。 The first calculation unit 10 acquires measurement data of a large number of objects stacked separately in the storage box using a sensor, detects one individual from the measurement data, and calculates its posture (positional posture). In this embodiment, the measurement data acquired by the first calculation unit 10 is the first measurement data, and the posture calculated by the first measurement data is the first posture (first position posture). Further, the sensor used in the first calculation unit 10 is referred to as the first sensor. Then, in the first posture, the posture of the object may not be uniquely specified depending on the observation status of the specific part. In this embodiment, the measurement when acquiring the first measurement data is defined as the first measurement.

判定部20は、第1の算出部10で算出をした第1の計測データに基づいて、対象物の姿勢を一意に特定するための部位である特定部位に関する計測データが十分に得られているか否か(一意に特定できるか否か)を判定する。すなわち、後述する第2の算出部30により対象物の姿勢を特定するための処理が新たに必要か否かを判定(検証)する。 Based on the first measurement data calculated by the first calculation unit 10, the determination unit 20 has sufficiently obtained measurement data regarding a specific part which is a part for uniquely specifying the posture of the object. Whether or not (whether or not it can be uniquely specified) is determined. That is, the second calculation unit 30, which will be described later, determines (verifies) whether or not a process for specifying the posture of the object is newly required.

第2の算出部30は、判定部20によって特定部位に関する計測データが姿勢を特定するために十分得られていないために対象物の姿勢を特定するための処理が必要と判定された場合に、第1の姿勢に基づいてハンドで対象物をピッキング(把持)する。なお、ハンドはロボットアームに取り付けている。この時、第2の算出部30は、対象物を把持するための制御信号を生成する。その後、対象物の特定部位が観測できるよう、つまり、特定部位の姿勢を特定しやすいようにセンサと対象物の配置関係を調整すべく、相対位置を変更する。この時、判定部20は、センサと対象物の相対位置を変更するための制御信号を生成する。そして、新たに、センサで対象物の特定部位を計測して得られる対象物の計測データを取得して、対象物の姿勢を特定して最終的な姿勢(位置姿勢)を算出する。なお本実施例では、第2の計測データを取得する際の計測を第2の計測とする。 The second calculation unit 30 determines that processing for specifying the posture of the object is necessary because the measurement data for the specific part is not sufficiently obtained by the determination unit 20 to specify the posture. The object is picked (grasped) by the hand based on the first posture. The hand is attached to the robot arm. At this time, the second calculation unit 30 generates a control signal for gripping the object. After that, the relative position is changed so that the specific part of the object can be observed, that is, the arrangement relationship between the sensor and the object is adjusted so that the posture of the specific part can be easily specified. At this time, the determination unit 20 generates a control signal for changing the relative position between the sensor and the object. Then, a new measurement data of the object obtained by measuring a specific part of the object with a sensor is acquired, the posture of the object is specified, and the final posture (positional posture) is calculated. In this embodiment, the measurement when acquiring the second measurement data is referred to as the second measurement.

第2の算出部30は、判定部20によって特定部位に関する計測データが姿勢を特定するために十分得られていると判断した場合には、前述したような、新たに対象物の計測データを取得して、対象物の姿勢を特定して最終的な姿勢を算出することは行わない。この時、判定部20は、対象物を把持するための制御信号を生成し、次工程へ供給するため対象物を移動させるための制御信号を生成する。 When the second calculation unit 30 determines that the determination unit 20 has sufficiently obtained the measurement data for the specific part to specify the posture, the second calculation unit 30 newly acquires the measurement data of the object as described above. Therefore, the posture of the object is not specified and the final posture is not calculated. At this time, the determination unit 20 generates a control signal for gripping the object, and generates a control signal for moving the object to supply to the next process.

本実施例において、第2の算出部30で取得した計測データは第2の計測データとし、算出された姿勢を第2の姿勢(第2の位置姿勢)とする。さらに、第2の算出部で用いるセンサを第2のセンサとする。また、第2の算出部30は対象物を把持する動作を行わず、対象物の特定部位を計測して得られる対象物の計測データを取得しても良い。その場合、対象物に対して第2のセンサの配置関係を調整、つまり、第2のセンサと対象物の相対位置のみを変更して、対象物の特定部位を計測する。そして、計測したデータにより対象物の姿勢を特定して、最終的な姿勢を算出しても良い。 In this embodiment, the measurement data acquired by the second calculation unit 30 is the second measurement data, and the calculated posture is the second posture (second position posture). Further, the sensor used in the second calculation unit is referred to as a second sensor. Further, the second calculation unit 30 may acquire the measurement data of the object obtained by measuring the specific portion of the object without performing the operation of gripping the object. In that case, the arrangement relationship of the second sensor with respect to the object is adjusted, that is, only the relative position between the second sensor and the object is changed, and the specific part of the object is measured. Then, the posture of the object may be specified from the measured data, and the final posture may be calculated.

次に、本実施例で取り扱う対象物の形状を図2に示す。図2において実線部は、紙面手前側から観測した時に表側に位置し、観測可能な輪郭、点線部は裏側に位置し、本来観測されない輪郭を示している。また、本実施例の対象物にはあらかじめ固有の座標系が設定されているものとする。この座標系を対象物座標系と呼ぶ。この対象物は直方体の1面に、例えば、矩形上の溝を特定部位として有している。矩形上の溝とは、図2に網掛けで示された領域を示す。したがって、バラ積み状態で取得した第1の計測データにおいてこの溝が十分に観測できれば姿勢を一意に特定することができ姿勢の取得も可能となる。 Next, the shape of the object handled in this embodiment is shown in FIG. In FIG. 2, the solid line portion is located on the front side when observed from the front side of the paper surface, and the observable contour and the dotted line portion are located on the back side, showing contours that are not originally observed. Further, it is assumed that a unique coordinate system is set in advance for the object of this embodiment. This coordinate system is called the object coordinate system. This object has, for example, a rectangular groove as a specific portion on one surface of a rectangular parallelepiped. The groove on the rectangle indicates a shaded area in FIG. Therefore, if this groove can be sufficiently observed in the first measurement data acquired in the loosely stacked state, the posture can be uniquely specified and the posture can be acquired.

図3に本実施例に関わる部品供給システムの一例を示す。収容箱にバラ積みされた状態の対象物の上方に設置された第1のセンサで第1の計測データを取得して、その中から一個体の姿勢を算出してロボットアームに取り付けたハンド(ロボットハンド、把持部)でピッキング(把持)を行い、次工程へと供給する。なお、ロボットハンドは把持手段としても機能する。ただし、第1のセンサで取得した第1の計測データでは対象物の特定部位が観測できず(特定部位に関する計測データが十分に得られておらず)、対象物の姿勢を一意に特定できない場合が発生する。本実施例において、第1の計測データは第1のセンサによって撮影された画像である。 FIG. 3 shows an example of the parts supply system related to this embodiment. A hand attached to the robot arm by acquiring the first measurement data with the first sensor installed above the objects stacked in the containment box, calculating the posture of one individual from the first measurement data, and attaching it to the robot arm. Picking (grasping) is performed with the robot hand (grasping part) and supplied to the next process. The robot hand also functions as a gripping means. However, when the specific part of the object cannot be observed with the first measurement data acquired by the first sensor (the measurement data for the specific part is not sufficiently obtained) and the posture of the object cannot be uniquely specified. Occurs. In this embodiment, the first measurement data is an image taken by the first sensor.

図4を用いてより詳細に説明する。図4(A)〜(H)は、異なる8つの姿勢で対象物を撮影した画像(第1の計測データ)の一例である。ここでは、説明簡略化のため、バラ積み状態ではなく、1つの対象物のみ配置している。図2と同様、実線部は撮影画像で観測可能な輪郭、点線部は部品裏側に位置し、本来観測されない輪郭を示している。また、姿勢の区別を明確に示すため、対象物座標系を合わせて示している。ここで、図4(A)、(B)、(C)、(D)の4つは、特定部位である溝が観測できるため、撮影した画像から姿勢を特定することが可能である。一方、図4(E)、(F)、(G)、(H)の4つは、特定部位が裏側に位置して撮影した画像上で観測できないため、見た目が完全に一致し、互いに区別がつかない。この場合、算出した姿勢はこれら4つのいずれかであることまではわかるが、特定部位による姿勢の特定ができないため、次工程に正しく対象物の供給が行えない。 This will be described in more detail with reference to FIG. FIGS. 4A to 4H are examples of images (first measurement data) obtained by photographing an object in eight different postures. Here, for the sake of simplification of the explanation, only one object is arranged instead of being stacked separately. Similar to FIG. 2, the solid line portion is a contour that can be observed in the photographed image, and the dotted line portion is located on the back side of the component, and shows a contour that is not originally observed. In addition, in order to clearly show the distinction between postures, the object coordinate system is also shown. Here, in FIGS. 4 (A), (B), (C), and (D), since the groove which is a specific portion can be observed, the posture can be specified from the captured image. On the other hand, in FIGS. 4 (E), (F), (G), and (H), since the specific part is located on the back side and cannot be observed on the captured image, the appearances are completely matched and distinguished from each other. I can't get it. In this case, it is known that the calculated posture is one of these four, but since the posture cannot be specified by the specific part, the object cannot be correctly supplied to the next process.

そこで、第1のセンサの撮影画像を用いた算出結果に対して、対象物の姿勢を一意に特定できたか否かを判定する。算出結果が特定部位を十分観測できるような姿勢であれば、その算出結果は曖昧性を持つことなく姿勢が特定できていると判断して、ロボットによるピッキング後、そのまま次工程へと供給を行う。一方、特定部位が十分観測できていない場合には姿勢の特定ができていないと判断していったん対象物をピッキングする。その後、第1のセンサの近くに設置された第2のセンサで特定部位が観測できるようにロボットアームを制御して新たに対象物の第2の計測データを取得し、姿勢の特定を行う。なお、第1のセンサと第2のセンサとは、それぞれ異なる角度で設置することが好ましい。異なる角度で設置することにより、第1のセンサで対象物の姿勢を一意に特定できない場合に、より確実に第2のセンサで対象物の姿勢を一意に特定することができる。 Therefore, it is determined whether or not the posture of the object can be uniquely specified with respect to the calculation result using the captured image of the first sensor. If the calculation result is a posture that allows sufficient observation of a specific part, it is judged that the posture can be specified without ambiguity in the calculation result, and after picking by the robot, it is supplied to the next process as it is. .. On the other hand, if the specific part cannot be observed sufficiently, it is judged that the posture cannot be specified and the object is picked once. After that, the robot arm is controlled so that the specific part can be observed by the second sensor installed near the first sensor, the second measurement data of the object is newly acquired, and the posture is specified. It is preferable that the first sensor and the second sensor are installed at different angles. By installing at different angles, when the posture of the object cannot be uniquely specified by the first sensor, the posture of the object can be uniquely specified by the second sensor more reliably.

図5は、本実施例において、情報処理装置1を、対象物を計測するセンサと組み合わせて計測装置として用いてバラ積み状態の対象物の姿勢を特定して、ロボットにより次工程へと対象物を供給する処理手順を示すフローチャートである。以下、各ステップについて説明する。 In FIG. 5, in the present embodiment, the information processing device 1 is used as a measuring device in combination with a sensor for measuring the object, the posture of the objects in a loosely stacked state is specified, and the robot moves to the next process. It is a flowchart which shows the processing procedure which supplies. Hereinafter, each step will be described.

まず、ステップS100では、判定部20は、対象物の3次元形状モデルを取得する。三次元形状モデルには、たとえば物体形状を複数の三角形の面(ポリゴン)で近似表現したポリゴンモデルを用いることができる。各ポリゴンは、物体表面上の点の3次元座標と、それらの点の連結情報によって構成される。ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。ほかにも、3次元形状モデルには、CADデータのようにB―Rep(Boundary―Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルを用いてもよい。その他、物体の三次元形状を表現可能なモデルであればいかなるものであってもかまわない。なお、本実施例において、ステップS100で取得した3次元形状モデルは、特定部位の観測状況の判定(検証)に使用する。 First, in step S100, the determination unit 20 acquires a three-dimensional shape model of the object. As the three-dimensional shape model, for example, a polygon model in which an object shape is approximately represented by a plurality of triangular faces (polygons) can be used. Each polygon is composed of three-dimensional coordinates of points on the surface of an object and connection information of those points. Polygons are generally composed of triangles, but may be quadrangles or pentagons. In addition, as the three-dimensional shape model, a model in which the shape is expressed by a set of divided parameter curved surfaces, which is called a B-Rep (Boundary-Representation) expression like CAD data, may be used. In addition, any model that can express the three-dimensional shape of the object may be used. In this embodiment, the three-dimensional shape model acquired in step S100 is used for determining (verifying) the observation status of a specific part.

次に、ステップS110では、判定部20は、取得した3次元形状モデルから特定部位を抽出する。ここでは、対象物の3次元形状モデルを画面上に表示し、ユーザーがGUIで指定することにより、特定部位の抽出を行うものとする。図6にGUI(Graphical User Interface)の例を示す。図6に示す通り、ユーザーは画面上に表示された3次元形状モデルを、特定部位が観測されるような姿勢に変更したのち、特定部位をマウスカーソルでクリックすることで指定する。判定部20は、クリックされた位置に該当する面を特定部位として抽出する。これにより、図2において網かけ表示されたような特定部位の抽出を行う。なお、特定部位の抽出にはこのほかのさまざまな方法を利用可能である。たとえば、マウスドラッグで指定した2次元領域に含まれる観測面を特定部位として抽出してもよい。あるいは、特定部位を包含するような、矩形の枠線で構成されるバウンディングボックスあるいは球などの3次元領域を数値入力により指定し、指定領域に含まれる部位を特定部位として抽出してもよい。そして、ここで抽出した3次元形状モデルの特定部位を記憶部(不図示)に記録しておく。なお、ステップS110の特定部位の情報を抽出する際には判定部20は抽出手段としても機能する。ステップS100〜ステップS110の処理はオンラインで行っても良いが、オフラインで事前に実施しておくのが望ましい。 Next, in step S110, the determination unit 20 extracts a specific portion from the acquired three-dimensional shape model. Here, it is assumed that the three-dimensional shape model of the object is displayed on the screen and the specific part is extracted by the user specifying it with the GUI. FIG. 6 shows an example of GUI (Graphical User Interface). As shown in FIG. 6, the user changes the three-dimensional shape model displayed on the screen to a posture in which a specific part is observed, and then specifies the specific part by clicking the specific part with the mouse cursor. The determination unit 20 extracts the surface corresponding to the clicked position as a specific portion. As a result, the specific portion as shown in the shaded area in FIG. 2 is extracted. Various other methods can be used to extract a specific site. For example, the observation surface included in the two-dimensional region specified by dragging the mouse may be extracted as a specific part. Alternatively, a three-dimensional region such as a bounding box or a sphere composed of a rectangular frame line that includes a specific portion may be designated by numerical input, and the portion included in the designated region may be extracted as the specific portion. Then, the specific part of the three-dimensional shape model extracted here is recorded in a storage unit (not shown). When extracting the information of the specific portion in step S110, the determination unit 20 also functions as an extraction means. The processes of steps S100 to S110 may be performed online, but it is desirable to perform the processes offline in advance.

次に、ステップS120では、第1の算出部10は、まず、第1のセンサで、第1の計測データを取得する。本実施例では、第1のセンサに距離画像および濃淡画像を同時に撮影可能な画像センサを用いて、第1の計測データとして距離画像および濃淡画像を取得する。第1のセンサは、計測範囲および収容箱の大きさを考慮して収容箱全体を一度に計測できる作業空間内に設置するのが望ましい。図3に示すように、第1のセンサにはあらかじめ固有の座標系が設定されている。本実施例では、この座標系を第1のセンサ座標系と呼ぶことにする。 Next, in step S120, the first calculation unit 10 first acquires the first measurement data with the first sensor. In this embodiment, a distance image and a shade image are acquired as the first measurement data by using an image sensor capable of simultaneously capturing a distance image and a shade image as the first sensor. It is desirable to install the first sensor in a work space where the entire storage box can be measured at one time in consideration of the measurement range and the size of the storage box. As shown in FIG. 3, a unique coordinate system is set in advance in the first sensor. In this embodiment, this coordinate system will be referred to as a first sensor coordinate system.

第1の算出部10は、第1の計測データを用いてバラ積み対象物の中から一個体を検出し、センサ座標系と対象物座標系との相対姿勢(相対位置姿勢)を第1の姿勢(位置姿勢)として算出する。具体的には、まず、取得した両画像(距離画像、濃淡画像)に対して事前学習した分類木を用いた投票を行うことでバラ積み中から一個体の検出およびおおまかな姿勢を算出する。その後、対象物の3次元形状モデル上及び取得した両画像から特徴量(幾何特徴)を抽出し、抽出した3次元形状モデル上の特徴量と、取得した両画像から抽出した特徴量とがフィットするように位置姿勢を補正することで第1の姿勢を算出する。なお、特徴量(幾何特徴)は例えば画像または三次元形状モデル上から抽出したエッジ、輪郭、点等である。これに限らず、ユーザーがあらかじめ特徴となる情報を設定しておいても良い。 The first calculation unit 10 detects one individual from the objects to be stacked separately using the first measurement data, and determines the relative posture (relative position posture) between the sensor coordinate system and the object coordinate system. Calculated as posture (positional posture). Specifically, first, by voting using the pre-learned classification tree for both acquired images (distance image, shading image), one individual is detected from the piled up and the rough posture is calculated. After that, the feature amount (geometric feature) is extracted from both the acquired 3D shape model and the acquired image, and the feature amount on the extracted 3D shape model and the feature amount extracted from both acquired images are fitted. The first posture is calculated by correcting the position and posture so as to do so. The feature amount (geometric feature) is, for example, an edge, a contour, a point, or the like extracted from an image or a three-dimensional shape model. Not limited to this, the user may set characteristic information in advance.

なお、取得する計測データおよび対象物の算出方法はこれに限らず、さまざまな方法を組み合わせることができる。たとえば、第1のセンサには、濃淡画像のみ取得可能なカメラを用いてもよい。あるいは、距離画像のみ取得可能なセンサを用いてもよい。距離画像を取得可能なセンサとしては、対象に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測するもの、光の飛行時間を利用するTime−of−flight方式のものが利用できる。あるいは、ステレオカメラの撮影画像から三角測量により距離を計算するもの、などが利用できる。また、対象物の算出方法についても、たとえば、一個体の検出において、分類木を用いた投票ではなく、多数の姿勢から観測した画像とのパターンマッチングを行ってもよい。あるいは、対象物の3次元形状モデルからあらかじめ抽出した特徴量と、第1の計測データから検出した特徴量とで類似度の高い対応関係を特定し、そこから直接第1の姿勢を算出してもよい。その他、バラ積み中から把持対象となる一個体を発見して、第1の姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であってもかまわない。 The measurement data to be acquired and the calculation method of the object are not limited to this, and various methods can be combined. For example, a camera capable of acquiring only a grayscale image may be used as the first sensor. Alternatively, a sensor capable of acquiring only a distance image may be used. Sensors that can acquire distance images include those that measure the distance by triangulation by capturing the reflected light of the laser light or slit light that irradiates the target with a camera, and the Time-of-light method that uses the flight time of the light. Is available. Alternatively, one that calculates the distance by triangulation from the image taken by the stereo camera can be used. Further, as for the calculation method of the object, for example, in the detection of one individual, pattern matching with images observed from a large number of postures may be performed instead of voting using a classification tree. Alternatively, a correspondence relationship with a high degree of similarity is specified between the feature amount extracted in advance from the three-dimensional shape model of the object and the feature amount detected from the first measurement data, and the first posture is calculated directly from the feature amount. May be good. In addition, any method other than that described here may be used as long as it is possible to find an individual to be gripped from being piled up in bulk and calculate the first posture.

次に、ステップS130では、判定部20は、第2の算出部30により姿勢の特定が必要か否か判定する。すなわち、第1の算出部10で算出された姿勢である第1の計測データに基づいて、対象物の姿勢を一意に特定するための部位である特定部位に関する計測データが十分に得られている場合には、十分得られていると判定する。そして、特定部位に関する計測データが十分に得られていない場合には、十分得られていないと判定する。さらに、特定部位に関する計測データを有していなく、対象物の姿勢が特定できない場合にも十分得られていないと判定する。本実施例では、対象物の3次元形状モデルを第1の姿勢に基づいて、仮想カメラで観測した仮想計測データから仮想画像を生成し、仮想画像における特定部位を抽出する。その後、特定部位の大きさを算出して、これを判定基準として利用する。仮想カメラには第1のセンサと同様の座標系を設定しておく。また、仮想カメラの内部パラメータはユーザーが任意に設定しても良いが、第1のセンサと合わせるのが望ましい。判定部20は、仮想カメラと対象物の3次元形状モデルとが第1の姿勢になるように配置し、仮想カメラの観測画像平面上に対象物の3次元形状モデルをレンダリングする。 Next, in step S130, the determination unit 20 determines whether or not the posture needs to be specified by the second calculation unit 30. That is, based on the first measurement data which is the posture calculated by the first calculation unit 10, the measurement data regarding the specific part which is the part for uniquely specifying the posture of the object is sufficiently obtained. In that case, it is determined that sufficient results have been obtained. Then, when the measurement data for the specific part is not sufficiently obtained, it is determined that the measurement data is not sufficiently obtained. Further, it is determined that sufficient measurement data is not obtained even when the posture of the object cannot be specified because the measurement data for the specific part is not possessed. In this embodiment, a virtual image is generated from the virtual measurement data observed by the virtual camera based on the first posture of the three-dimensional shape model of the object, and a specific part in the virtual image is extracted. After that, the size of the specific part is calculated and used as a criterion. A coordinate system similar to that of the first sensor is set in the virtual camera. Further, the internal parameters of the virtual camera may be arbitrarily set by the user, but it is desirable to match the internal parameters with the first sensor. The determination unit 20 arranges the virtual camera and the three-dimensional shape model of the object in the first posture, and renders the three-dimensional shape model of the object on the observation image plane of the virtual camera.

このとき、視点から陰になり、仮想画像上で本来、不可視となる面を描画しないように隠面処理を行い、かつ、対象物の特定部位が判別できるようにする。隠面処理には、たとえばデプスバッファ法やBSP法(Binary Space Partitioning)などが利用できる。なお、処理時間や利用する3次元形状モデルの性質を考慮して、その他の方法を利用しても構わない。加えて、対象物の特定部位に該当する領域が仮想画像上で特定できるよう、特定部位に固有の輝度値を割り当てて描画を行う。 At this time, a hidden surface process is performed so as not to draw a surface that is shaded from the viewpoint and is originally invisible on the virtual image, and a specific part of the object can be identified. For the hidden surface processing, for example, a depth buffer method or a BSP method (Binary Space Partitioning) can be used. In addition, other methods may be used in consideration of the processing time and the nature of the three-dimensional shape model to be used. In addition, a unique brightness value is assigned to the specific part and drawing is performed so that the area corresponding to the specific part of the object can be specified on the virtual image.

次に、判定部20は、生成された仮想画像上で、特定部位に割り当てられた輝度値を持つ画素の数(画素数)をカウントする。この画素数を対象物の特定部位の大きさとし、画素数が所定の閾値以上であった場合には、判定部20は後述するステップS140における第2の計測データに基づく第2の姿勢の算出は行わない。即ち、特定部位に関する計測データが姿勢を特定するために十分得られ(観測され)、姿勢が特定できたものと判定し、第2の計測をしない。あるいは第2の計測データを算出しない。あるいは、例えば、別の手段等を用いて第2の計測データを取得していた場合であっても、姿勢が特定できたものと判定しているため、第2の計測データに基づく第2の姿勢の算出を行わない。そして、ロボットハンドは第1の姿勢に基づいて対象物のピッキングを行い、次工程へと供給する。一方、画素数が所定値未満であった場合には、特定部位に関する計測データが姿勢を特定するために十分得られていない状態である。すなわち、第1の姿勢で姿勢が特定できていないものと判定し、ステップS140へ進む。閾値には、第2の算出部30の性能を考慮して、姿勢を特定するのに最低限必要な画素数、一例としては50程度を指定するのがよい。なお、本実施例では特定部位に該当する領域の画素数をそのまま特定部位の大きさとして利用した。しかし、第2の算出部30に用いる方法に合わせてほかの指標で判定してもよい。たとえば、第2の姿勢の算出に、画像から抽出した特徴量(エッジ、輪郭、点)を利用するのであれば、特定部位に該当する領域から抽出できる特徴量の数をもって判定してもよい。 Next, the determination unit 20 counts the number of pixels (number of pixels) having the brightness value assigned to the specific portion on the generated virtual image. When this number of pixels is defined as the size of a specific portion of the object and the number of pixels is equal to or greater than a predetermined threshold value, the determination unit 20 calculates the second posture based on the second measurement data in step S140 described later. Not performed. That is, it is determined that the measurement data relating to the specific part is sufficiently obtained (observed) to specify the posture, and the posture can be specified, and the second measurement is not performed. Alternatively, the second measurement data is not calculated. Alternatively, for example, even when the second measurement data is acquired by using another means or the like, since it is determined that the posture can be specified, the second measurement data based on the second measurement data is determined. Posture is not calculated. Then, the robot hand picks the object based on the first posture and supplies it to the next process. On the other hand, when the number of pixels is less than a predetermined value, the measurement data relating to the specific portion is not sufficiently obtained to specify the posture. That is, it is determined that the posture cannot be specified in the first posture, and the process proceeds to step S140. In consideration of the performance of the second calculation unit 30, it is preferable to specify the minimum number of pixels required to specify the posture, for example, about 50 as the threshold value. In this embodiment, the number of pixels in the region corresponding to the specific region is used as it is as the size of the specific region. However, it may be determined by another index according to the method used for the second calculation unit 30. For example, if the feature amounts (edges, contours, points) extracted from the image are used for the calculation of the second posture, the determination may be made based on the number of feature amounts that can be extracted from the region corresponding to the specific portion.

次に、ステップS140にでは、第2の算出部30は、第1の姿勢に基づき、ロボットハンドにより対象物のピッキングを行う。その後、対象物の特定部位の姿勢を特定しやすいようにセンサと対象物の配置関係を調整すべく、相対位置を変更するようにロボットアームを制御する。この処理について、図7を用いて説明する。第1のセンサで取得した第1の計測データを用いて、実線で示した対象物の姿勢を算出し、第1の姿勢が得られたとする。さらに、ステップS130により第1の姿勢では特定部位に関する計測データが姿勢を特定するために十分得られておらず、姿勢が特定できていないと判定されたものとする。このとき、第1のセンサとは対向する方向または異なる角度から対象物を観測し直すことで、特定部位が観測される可能性が高い。そこで、第1のセンサ側に位置する面を対象物の表面、反対側を裏面として、裏面が第2のセンサに正対し、かつ第2のセンサの計測範囲の中央に対象物が位置するようにロボットアームを制御する。 Next, in step S140, the second calculation unit 30 picks the object with the robot hand based on the first posture. After that, the robot arm is controlled to change the relative position in order to adjust the arrangement relationship between the sensor and the object so that the posture of the specific part of the object can be easily specified. This process will be described with reference to FIG. It is assumed that the posture of the object shown by the solid line is calculated using the first measurement data acquired by the first sensor, and the first posture is obtained. Further, it is assumed that in step S130, it is determined that the measurement data relating to the specific portion is not sufficiently obtained to specify the posture in the first posture, and the posture cannot be specified. At this time, there is a high possibility that a specific part will be observed by re-observing the object from a direction facing the first sensor or from a different angle. Therefore, the surface located on the first sensor side is the front surface of the object, the opposite side is the back surface, the back surface faces the second sensor, and the object is located in the center of the measurement range of the second sensor. Control the robot arm.

なお、第2のセンサに対して対象物を配置する際には、第2のセンサで計測したい対象物の面をロボットハンドで遮蔽しないようにすることが重要である。そこで、対象物をバラ積み状態からピッキングする際に、その後の第2のセンサに対する対象物の相対位置関係を考慮して配置をする。利用するハンドあるいはピッキングする部位といったピッキング方法を決定するのが良い。例えば、ピッキングした時のロボットハンドと対象物との相対位置関係を変えずに上述の方法で対象物の配置を行った時に、ハンドによる遮蔽領域が極力少なくなるようにピッキングの際の姿勢を設定する。ほかにも、図3および図7では開閉式の多指ハンドを用いているが、第2の算出部30で処理を行う場合に、例えば、マグネットあるいは吸着パッドの押し当てにより把持を行うようなハンドに切り替え利用しても良く、これらを組み合わせたものでも良い。さらに、多数の関節を備え、フレキシブルに駆動しながら対象物に巻き付ける形で対象物を把持するハンドを利用しても良い。これら、上述したハンドの切り替えは第1の算出部10で処理をする際に用いて、第2の認算出部で処理をする際に、開閉式の多指ハンドに切り替えるようにしても良い。 When arranging the object with respect to the second sensor, it is important that the surface of the object to be measured by the second sensor is not shielded by the robot hand. Therefore, when picking the objects from the loosely stacked state, the objects are arranged in consideration of the relative positional relationship of the objects with respect to the second sensor thereafter. It is good to decide the picking method such as the hand to be used or the part to be picked. For example, when the object is placed by the above method without changing the relative positional relationship between the robot hand and the object when picking, the posture at the time of picking is set so that the shielded area by the hand is as small as possible. To do. In addition, although the opening / closing type multi-finger hand is used in FIGS. 3 and 7, when the processing is performed by the second calculation unit 30, for example, the grip is performed by pressing a magnet or a suction pad. It may be used by switching to a hand, or a combination of these may be used. Further, a hand having a large number of joints and gripping the object in a form of being wound around the object while being flexibly driven may be used. These hand switching described above may be used when processing is performed by the first calculation unit 10, and may be switched to an openable and closable multi-finger hand when processing is performed by the second recognition calculation unit.

本実施例において、第1の姿勢で姿勢が特定できなかった場合、第1のセンサ側に位置する面である対象物の表面には特定部位が存在しなかったことを意味する。そのため、その面にハンドを押し当ててピッキングを行えば、ピッキングの時点でハンドの接触により特定部位を隠してしまうリスクを無くすことができる。 In the present embodiment, when the posture cannot be specified in the first posture, it means that the specific portion does not exist on the surface of the object which is the surface located on the first sensor side. Therefore, if the hand is pressed against the surface for picking, the risk of hiding a specific part due to the contact of the hand at the time of picking can be eliminated.

次に、ステップS150では、第2の算出部30は、第1の姿勢に基づき、ロボットハンドで対象物の把持を行う。さらに、第2のセンサの計測範囲に対象物が収まるよう対象物と第2のセンサの相対位置を第1の計測データを取得(第1の計測時)した位置から変更するようにロボットを制御した後、第2のセンサにより、対象物の第2の計測データを取得する。そして、取得した第2の計測データに基づいて対象物の第2の姿勢を算出する。図7に示す例では、ステップS140による対象物の配置関係を調整すべく、相対位置を変更して配置を行うことで、第2の計測データは4通りの画像のうちのいずれかになる。つまり、これら4通りの画像ではいずれも特定部位が観測されるため、第2の算出部30により、再度姿勢を算出し直すことで、姿勢を一意に特定することが可能である。本実施例では、第2の算出部30に、第1の算出部10と同様の構成を利用するものとし、詳細な説明は省略する。ただし、ステップS120と同様、取得する計測データおよび対象物の認識方法はこれに限らず、さまざまな方法を利用することができる。たとえば、ステップS140で、第2のセンサにおける対象物の姿勢が数パターンに限定されるように相対位置を変更して配置可能とする。その場合には、それらの姿勢で、観測した画像とのパターンマッチングを用いることで対象物の姿勢を算出する処理をより簡便化することもできる。 Next, in step S150, the second calculation unit 30 grips the object with the robot hand based on the first posture. Further, the robot is controlled to change the relative position between the object and the second sensor from the position where the first measurement data is acquired (at the time of the first measurement) so that the object fits within the measurement range of the second sensor. After that, the second measurement data of the object is acquired by the second sensor. Then, the second posture of the object is calculated based on the acquired second measurement data. In the example shown in FIG. 7, the second measurement data is one of the four types of images by changing the relative position and arranging the objects in order to adjust the arrangement relationship of the objects in step S140. That is, since a specific portion is observed in each of these four types of images, the posture can be uniquely specified by recalculating the posture by the second calculation unit 30. In this embodiment, the second calculation unit 30 uses the same configuration as that of the first calculation unit 10, and detailed description thereof will be omitted. However, as in step S120, the measurement data to be acquired and the method of recognizing the object are not limited to this, and various methods can be used. For example, in step S140, the relative position of the object in the second sensor can be changed and arranged so as to be limited to a few patterns. In that case, it is possible to simplify the process of calculating the posture of the object by using pattern matching with the observed image in those postures.

その他、第2の計測データに含まれる特定部位から対象物の姿勢を一意に特定できれば、ここで述べた以外のいかなる方法であってもかまわない。ここで算出した第2の姿勢に基づき、ロボットハンドは対象物を次工程へと供給する。 In addition, any method other than that described here may be used as long as the posture of the object can be uniquely specified from the specific part included in the second measurement data. Based on the second posture calculated here, the robot hand supplies the object to the next process.

以上、実施例1では、対象物の特定部位が視点から陰になって観測できず、姿勢が一意に特定できないケースを判定し、特定部位が観測できるように計測データを新たに取得して姿勢を特定する方法について述べた。これにより、バラ積み状態の対象物の認識結果から2段階目の計測データの必要性の判定や計測方法を検証する処理を実施することで、対象物の姿勢を効率よく特定することができる。 As described above, in the first embodiment, it is determined that the specific part of the object is hidden from the viewpoint and cannot be observed, and the posture cannot be uniquely specified. Described how to identify. As a result, the posture of the object can be efficiently specified by performing the process of determining the necessity of the measurement data in the second stage and verifying the measurement method from the recognition result of the objects in the loosely stacked state.

なお、第1の計測データ、第2の計測データ、いずれの計測データにおいても特定部位が観測できないケースも発生しうる。たとえば、バラ積みの中に、図2の面Aが第1のセンサに正対するような姿勢で対象物が存在していたとする。この場合、第1の計測データでは特定部位が視点から陰になってしまい姿勢が特定できないため、第2のセンサにより計測データの再取得が行われる。しかし、ステップS140に示した方法により、面Aの裏側、すなわち、面Bが正対するように対象物を配置してもやはり特定部位は観測できず、姿勢が特定できない。これと同様に、面Cが第1のセンサに正対するような姿勢の対象物についても、第2のセンサでは面Dの観測を行うこととなり、やはり姿勢が特定できない。このようなケースを考慮して、ステップS150で第2の算出部30は、第2の姿勢を算出後、再度、第2の姿勢に基づき、ステップS130と同様の処理を実施して姿勢が特定できたか否かを判定部20によって判定してもよい。この結果、もし姿勢が特定できていないと判定された場合には、第2の算出部30は第2のセンサに対する対象物の姿勢を更新して新たに計測データを取得し、第2の姿勢を算出し直す。この処理を姿勢が一意に特定できるまで繰り返す。 In addition, there may be a case where a specific part cannot be observed in any of the first measurement data and the second measurement data. For example, it is assumed that an object exists in a stack in a posture in which the surface A of FIG. 2 faces the first sensor. In this case, since the specific portion is shaded from the viewpoint in the first measurement data and the posture cannot be specified, the measurement data is reacquired by the second sensor. However, by the method shown in step S140, even if the object is arranged so that the back side of the surface A, that is, the surface B faces, the specific part cannot be observed and the posture cannot be specified. Similarly, for an object having a posture in which the surface C faces the first sensor, the second sensor observes the surface D, and the posture cannot be specified. In consideration of such a case, the second calculation unit 30 calculates the second posture in step S150, and then again performs the same processing as in step S130 based on the second posture to specify the posture. The determination unit 20 may determine whether or not it has been completed. As a result, if it is determined that the posture cannot be specified, the second calculation unit 30 updates the posture of the object with respect to the second sensor, acquires new measurement data, and obtains the second posture. Is recalculated. This process is repeated until the posture can be uniquely identified.

ここで、対象物の姿勢を更新する際には、第1のセンサおよび第2のセンサとは大きく異なる姿勢で対象物を観測できるようにするのが望ましい。たとえば、ステップS140の方法によれば、第1のセンサおよび第2のセンサは、それぞれ対象物を対向する2方向から観測していることになる。そこで、対象物を基準とした第1のセンサおよび第2のセンサの観測視点を結ぶ直線に対して、直交する方向から対象物を観測できるように対象物の姿勢を変更するのがよい。このように、対象物に対してすでに観測された面と、更新後の姿勢によって観測される面との重複領域が少なくなるように対象物の姿勢を逐次変更することで、特定部位の観測確率を高めることができる。これにより、計測データの取得回数を抑制し、効率よく姿勢を特定することが可能となる。また、第2のセンサに対する対象物の配置方法として、上述した以外の方法を採用してもよい。 Here, when updating the posture of the object, it is desirable to be able to observe the object in a posture significantly different from that of the first sensor and the second sensor. For example, according to the method of step S140, the first sensor and the second sensor are observing the object from two opposite directions, respectively. Therefore, it is preferable to change the posture of the object so that the object can be observed from a direction orthogonal to the straight line connecting the observation viewpoints of the first sensor and the second sensor with respect to the object. In this way, by sequentially changing the posture of the object so that the overlapping region between the surface already observed with respect to the object and the surface observed by the updated posture is reduced, the observation probability of the specific part is reduced. Can be enhanced. This makes it possible to suppress the number of acquisitions of measurement data and efficiently identify the posture. Further, as a method of arranging the object with respect to the second sensor, a method other than the above may be adopted.

なお、本実施例では、第1のセンサおよび第2のセンサを作業空間内に固定設置した例について述べたが、センサの設置方法は特にこれに限定されない。たとえば、ハンドと合わせて、対象物のピッキングに用いるロボットアームに第1のセンサを取り付けてもよい。また、ハンドが取り付けられたロボットアームとは別にロボットアームをもう一台用意し、そこに第2のセンサを取り付けてもよい。この場合にはロボットアームを2台用いることでハンドによりピッキングされた対象物だけでなく、第2のセンサの位置姿勢も制御可能になる。したがって、特定部位を観測できるように相対位置を変更して、両者を配置する際に、ロボットアームの可動範囲の制限をより受けにくくすることができる。ほかにも、第1のセンサと第2のセンサをバラ積み上方に設置した1つのセンサで兼ねてもよい。この場合には利用するセンサを減らすとともに、作業スペースをコンパクトにすることができる。 In this embodiment, an example in which the first sensor and the second sensor are fixedly installed in the work space has been described, but the method of installing the sensors is not particularly limited to this. For example, the first sensor may be attached to the robot arm used for picking an object together with the hand. Further, another robot arm may be prepared separately from the robot arm to which the hand is attached, and the second sensor may be attached to the other robot arm. In this case, by using two robot arms, not only the object picked by the hand but also the position and orientation of the second sensor can be controlled. Therefore, when the relative positions are changed so that a specific part can be observed and both are arranged, it is possible to make it more difficult to be restricted by the movable range of the robot arm. In addition, one sensor in which the first sensor and the second sensor are stacked separately and installed above may be combined. In this case, the number of sensors used can be reduced and the work space can be made compact.

ここで取り上げた対象物以外に、同様の方法が適用可能な対象物の例を図8および図9に示す。図8(A)(B)、図9(A)(B)はいずれもバラ積み中に存在するある1つの対象物に対する第1の計測データを模式的に表している。実線部は観測可能な輪郭、点線部は本来観測されない輪郭を示している。このとき、図8(A)および図9(A)はいずれも特定部位が観測可能なため、姿勢を一意に特定することが可能である。一方、図8(B)および図9(B)はいずれも特定部位が陰になって観測できない。このような対象物に対して本実施例で述べた方法を用いることで、2段階目の計測データの必要性を判定し、効率よく対象物の姿勢を特定することが可能である。 In addition to the objects mentioned here, examples of objects to which the same method can be applied are shown in FIGS. 8 and 9. 8 (A) (B) and 9 (A) (B) both schematically represent the first measurement data for one object existing in the bulk stacking. The solid line part shows the observable contour, and the dotted line part shows the contour that is not originally observed. At this time, since the specific portion can be observed in both FIGS. 8 (A) and 9 (A), the posture can be uniquely specified. On the other hand, in both FIGS. 8 (B) and 9 (B), the specific portion is shaded and cannot be observed. By using the method described in this embodiment for such an object, it is possible to determine the necessity of the measurement data in the second stage and efficiently identify the posture of the object.

〔実施例2〕
実施例1では、バラ積み状態の計測データから算出した結果を利用して、仮想画像で対象物の特定部位が観測される大きさを算出することで姿勢が一意に特定できたか否かを判定した。これに対して、バラ積み状態で認識した結果に対して、見分けがつかない姿勢がほかに存在するか否かをもって姿勢が特定できたか判定してもよい。本実施例の情報処理装置1の構成は、実施例1と同様であるため、説明を省略する。なお、本実施例の処理手順では特定部位の抽出を必要としない。よって、実施例1におけるステップS110は不要であるため説明を省略する。その代わりに実施例1で示したステップS130の処理を次のように変更する。さらに、ステップS120、S140、S150は実施例1と同様の処理であるため、説明を省略する。
[Example 2]
In the first embodiment, it is determined whether or not the posture can be uniquely specified by calculating the size at which the specific part of the object is observed in the virtual image by using the result calculated from the measurement data of the piled-up state. did. On the other hand, it may be determined whether or not the posture can be specified by whether or not there is another posture that cannot be distinguished from the result recognized in the loosely stacked state. Since the configuration of the information processing device 1 of this embodiment is the same as that of the first embodiment, the description thereof will be omitted. The processing procedure of this embodiment does not require extraction of a specific part. Therefore, since step S110 in the first embodiment is unnecessary, the description thereof will be omitted. Instead, the process of step S130 shown in the first embodiment is changed as follows. Further, since steps S120, S140, and S150 are the same processes as in the first embodiment, the description thereof will be omitted.

ステップS130において、判定部20は、対象物の3次元形状モデルを第1の姿勢から仮想カメラで観測した仮想計測データから仮想画像を生成し、この仮想画像を基準画像として生成する。さらに、判定部20は、対象物の3次元形状モデルに対して、第1の姿勢とは異なるほかの姿勢である参照姿勢(参照位置姿勢)に仮想カメラを配置する。判定部20は、参照姿勢から対象物の3次元形状モデルを観測したときの仮想計測データから仮想画像を参照画像として生成する。そして、基準画像と参照画像とを比較した結果、もし両者が一致すれば、第1の姿勢は参照姿勢との見分けがつかないことを意味する。そこで、本実施例では、第1の姿勢で姿勢の特定ができたか否かの判定基準として、参照画像と基準画像との差分量を利用する。判定部20は、さまざまな参照姿勢に対して基準画像との差分量を算出し、もし、差分量が所定の閾値未満となるものが1つでも見つかった場合には、仮想計測データが十分得られておらず、姿勢を一意に特定できていないものと判定し、ステップS140へ進む。一方、1つも見つからなければ、仮想計測データが十分得られ、姿勢が特定できたものと判定し、第1の姿勢に基づいてロボットハンドで対象物の把持を行い、次工程へと供給する。 In step S130, the determination unit 20 generates a virtual image from the virtual measurement data obtained by observing the three-dimensional shape model of the object from the first posture with the virtual camera, and generates this virtual image as a reference image. Further, the determination unit 20 arranges the virtual camera in a reference posture (reference position posture) which is a posture different from the first posture with respect to the three-dimensional shape model of the object. The determination unit 20 generates a virtual image as a reference image from the virtual measurement data when the three-dimensional shape model of the object is observed from the reference posture. Then, as a result of comparing the reference image and the reference image, if they match, it means that the first posture is indistinguishable from the reference posture. Therefore, in this embodiment, the difference amount between the reference image and the reference image is used as a criterion for determining whether or not the posture can be specified in the first posture. The determination unit 20 calculates the amount of difference from the reference image for various reference postures, and if even one item whose difference amount is less than a predetermined threshold value is found, sufficient virtual measurement data is obtained. It is determined that the posture has not been uniquely specified and the posture cannot be uniquely specified, and the process proceeds to step S140. On the other hand, if no one is found, it is determined that sufficient virtual measurement data has been obtained and the posture has been identified, the object is grasped by the robot hand based on the first posture, and the object is supplied to the next process.

ここで、差分量には、たとえば両画像の濃度値を用いた差分の絶対値和などが利用できる。なお、濃度値の代わりにデプスバッファから取得した各画素の奥行き値を利用してもよい。あるいは、各画素の差分絶対値を算出し、差分絶対値がある閾値以上となる画素数を差分量としてもよい。また、差分量ではなく、基準画像と差分画像との正規化相互相関を類似度として算出し、これを利用してもよい。この場合、類似度が所定の閾値以上となる参照姿勢が1つでも見つかれば第1の姿勢は姿勢を一意に特定できていないものと判定し、逆に、1つも見つからなければ、姿勢が特定できたものと判定する。このほかにも、基準画像と参照画像との一致度合いを検証できればこのほかのいかなる指標を利用してももちろん構わない。 Here, for the difference amount, for example, the absolute value sum of the differences using the density values of both images can be used. The depth value of each pixel acquired from the depth buffer may be used instead of the density value. Alternatively, the absolute difference value of each pixel may be calculated, and the number of pixels whose absolute difference value is equal to or greater than a certain threshold value may be used as the difference amount. Further, instead of the difference amount, the normalized cross-correlation between the reference image and the difference image may be calculated as the degree of similarity and used. In this case, if even one reference posture having a similarity equal to or higher than a predetermined threshold value is found, it is determined that the first posture cannot uniquely identify the posture, and conversely, if no one is found, the posture is specified. Judge that it was completed. In addition to this, of course, any other index may be used as long as the degree of agreement between the reference image and the reference image can be verified.

なお、ステップS140における第2のセンサに対する対象物配置方法として、参照姿勢の情報を利用してもよい。なお、この場合は、実施例1と同様に、対象物の3次元形状モデルに対して特定部位の抽出を行っておく。たとえば、第1の姿勢が図4(E)であったとし、これに対して、例えば、図4(F)、(G)、(H)の3つの姿勢が見分けのつかない参照姿勢として見つかったとする。ここで、第1の姿勢と、残りの3つの参照姿勢との相対関係を類似姿勢として記録しておく。ここでは、図4(F)に対応する相対姿勢を類似姿勢1とし、(G)に対応する相対姿勢を類似姿勢2とし、図4(H)に対応する相対姿勢を類似姿勢3とする。これら類似姿勢1〜3と、対象物の特定部位の情報から、第2のセンサと対象物との相対位置を変更し配置関係を決定する。 The reference posture information may be used as the object placement method for the second sensor in step S140. In this case, as in the first embodiment, the specific part is extracted from the three-dimensional shape model of the object. For example, assuming that the first posture is FIG. 4 (E), for example, the three postures of FIGS. 4 (F), (G), and (H) are found as indistinguishable reference postures. Suppose. Here, the relative relationship between the first posture and the remaining three reference postures is recorded as a similar posture. Here, the relative posture corresponding to FIG. 4 (F) is referred to as the similar posture 1, the relative posture corresponding to (G) is referred to as the similar posture 2, and the relative posture corresponding to FIG. 4 (H) is referred to as the similar posture 3. From these similar postures 1 to 3 and the information on the specific part of the object, the relative position between the second sensor and the object is changed to determine the arrangement relationship.

図11は、第2のセンサに対する対象物配置の設定方法を説明する図である。この図11を用いて、第2のセンサに対する対象物配置の設定方法を説明する。図11では、対象物を取り囲むようなさまざまな観測視点を候補視点として設定する。設定した候補視点から対象物を観測した時の仮想画像を生成する。この画像を類似姿勢0の画像とし、類似画像0で観測される特定部位の大きさを算出する。これには実施例1で述べたような方法を利用すればよい。さらに、同様の方法を用いて、同一視点から、記録しておいた類似姿勢に基づく姿勢変換を施して対象物を観測した時の仮想画像を生成する。この画像を類似姿勢1〜3の画像とし、各類似画像における特定部位の大きさを算出する。 FIG. 11 is a diagram illustrating a method of setting an object arrangement with respect to the second sensor. The method of setting the object arrangement with respect to the second sensor will be described with reference to FIG. In FIG. 11, various observation viewpoints surrounding the object are set as candidate viewpoints. Generates a virtual image when observing an object from the set candidate viewpoint. This image is taken as an image of the similar posture 0, and the size of the specific portion observed in the similar image 0 is calculated. For this, the method described in the first embodiment may be used. Further, using the same method, a virtual image is generated when the object is observed by performing posture conversion based on the recorded similar posture from the same viewpoint. This image is used as an image of similar postures 1 to 3, and the size of a specific portion in each similar image is calculated.

そして、候補視点ごとに観測される特定部位の大きさの総和を算出する。この値が大きい程、候補視点から観測した時に特定部位が大きく見え、類似姿勢の区別がつきやすいといえる。そこで、設定した各候補視点に対してそれぞれ処理を実施して最も値が大きい視点を、第2のセンサと対象物との配置方法として設定する。あるいは、候補視点ごとに、生成された類似姿勢の画像の中から特定部位の大きさの最大値を算出しておき、これらを比較して、もっとも値が大きい視点を設定してもよい。この場合、図11の例では、候補視点2から観測した場合、いずれの画像でも特定部位が観測できないのに対して、候補視点1から観測すれば、特定部位が真正面から観測できるため、候補視点1が設定されることになる。 Then, the sum of the sizes of the specific parts observed for each candidate viewpoint is calculated. It can be said that the larger this value is, the larger the specific part looks when observed from the candidate viewpoint, and it is easier to distinguish similar postures. Therefore, processing is performed for each of the set candidate viewpoints, and the viewpoint having the largest value is set as a method of arranging the second sensor and the object. Alternatively, for each candidate viewpoint, the maximum value of the size of a specific portion may be calculated from the generated images of similar postures, and these may be compared to set the viewpoint having the largest value. In this case, in the example of FIG. 11, when observing from the candidate viewpoint 2, the specific part cannot be observed in any of the images, whereas when observing from the candidate viewpoint 1, the specific part can be observed from the front, so that the candidate viewpoint cannot be observed. 1 will be set.

以上、実施例2では、バラ積み状態で認識した結果に対して、見分けがつかない姿勢がほかに存在するか否かをもって姿勢が特定できたか判定する方法を述べた。これにより、2段階目の計測データの必要性の判定や計測方法を検証する処理を実施することで、対象物の姿勢を効率よく特定することができる。そして、本実施例を用いれば、3次元形状モデルに対する特定部位の抽出を行うことなく、対象物の姿勢が特定できたか判定することができる。 As described above, in the second embodiment, a method of determining whether or not the posture can be specified by whether or not there is another posture that cannot be distinguished from the result recognized in the loosely stacked state has been described. As a result, the posture of the object can be efficiently specified by performing the process of determining the necessity of the measurement data in the second stage and verifying the measurement method. Then, by using this embodiment, it is possible to determine whether or not the posture of the object can be specified without extracting a specific part from the three-dimensional shape model.

〔実施例3〕
実施例1では、第1の姿勢において観測される特定部位の大きさを、隠面処理を施した仮想画像によって判定(検証)した。しかし、もし、特定部位とそうでない部位(特定部位以外の部位)とが対象物の実物上で別の色を有しており、計測データ上で色によって両者を区別可能であれば、その情報を利用してもよい。本実施例の情報処理装置1の構成は、実施例1と同様であるため、説明を省略する。そして、この場合は、実施例2と同様に、ステップS110は不要であるため説明は省略する。その代わりに、第1のセンサにカラー画像を取得可能なカメラを利用し、ステップS130の処理のみ、以下のように変更する。なお、ステップS120、S140、S150は実施例1と同様の処理であるため、説明を省略する。
[Example 3]
In Example 1, the size of the specific portion observed in the first posture was determined (verified) by a virtual image subjected to the hidden surface treatment. However, if the specific part and the non-specific part (parts other than the specific part) have different colors on the actual object and the two can be distinguished by the color on the measurement data, that information. May be used. Since the configuration of the information processing device 1 of this embodiment is the same as that of the first embodiment, the description thereof will be omitted. In this case, as in the second embodiment, step S110 is unnecessary, so the description thereof will be omitted. Instead, a camera capable of acquiring a color image is used as the first sensor, and only the processing in step S130 is changed as follows. Since steps S120, S140, and S150 are the same processes as in the first embodiment, the description thereof will be omitted.

ステップS130は、判定部20は、仮想カメラと対象物の3次元形状モデルとが第1の姿勢になるように配置し、仮想カメラの観測画像平面上に対象物の3次元形状モデルをレンダリングする。本実施例におい仮想画像の生成は、ステップS120で認識した対象物の投影領域を第1の計測データ上で特定するのが目的である。そのため、隠面処理は行わなくてもよいし、特定部位に固有の輝度値を割り当てるような処理は不要である。判定部20は、レンダリングした画像における対象物の投影領域を特定し、さらに、第1の計測データから同一領域のデータを参照する。ここで参照される領域内に、特定部位の色に近い輝度値をもつ画素が存在すれば、その画素は特定部位を計測できているものとみなす。 In step S130, the determination unit 20 arranges the virtual camera and the three-dimensional shape model of the object in the first posture, and renders the three-dimensional shape model of the object on the observation image plane of the virtual camera. .. The purpose of generating the virtual image in this embodiment is to specify the projection region of the object recognized in step S120 on the first measurement data. Therefore, it is not necessary to perform the hidden surface treatment, and it is not necessary to perform the treatment of assigning a unique luminance value to a specific portion. The determination unit 20 identifies the projection region of the object in the rendered image, and further refers to the data in the same region from the first measurement data. If a pixel having a brightness value close to the color of a specific part exists in the region referred to here, it is considered that the pixel can measure the specific part.

そこで、対象物の特定部位に固有の色とみなせるような輝度範囲をあらかじめ設定しておき、それを特定部位特に関する計測データとする。そして、参照した領域内で、設定された輝度値範囲内の色を持つ画素を検出して、その数をカウントする。この画素数を対象物の特定部位の大きさとして、画素数が所定の閾値以上であった場合には、特定部位特に関する計測データが十分に得られ、姿勢が特定できたものと判定する。このとき、ロボットハンドは第1の姿勢に基づいて対象物のピッキングを行い、次工程へと供給する。一方、画素数が所定値未満であった場合には、特定部位に関する計測データが十分に得られていない、すなわち、第1の姿勢で姿勢が特定できていないものと判定し、ステップS140へ進む。 Therefore, a luminance range that can be regarded as a color peculiar to a specific part of the object is set in advance, and that is used as measurement data related to the specific part characteristic. Then, in the referenced area, pixels having a color within the set luminance value range are detected, and the number is counted. With this number of pixels as the size of the specific part of the object, when the number of pixels is equal to or greater than a predetermined threshold value, it is determined that sufficient measurement data regarding the specific part feature can be obtained and the posture can be specified. At this time, the robot hand picks the object based on the first posture and supplies it to the next process. On the other hand, if the number of pixels is less than a predetermined value, it is determined that sufficient measurement data regarding the specific part has not been obtained, that is, the posture cannot be specified in the first posture, and the process proceeds to step S140. ..

以上、実施例3では、特定部位と特定部位以外の部位とが対象物の実物上で別の色を有している場合で、色によって姿勢が特定できたか判定する方法を述べた。これよりに、2段階目の計測データの必要性の判定や計測方法を検証する処理を実施することで、対象物の姿勢を効率よく特定することができる。本実施例を用いれば、3次元形状モデルに対する特定部位の抽出を行うことなく、実施例2と同様に対象物の姿勢が特定できたか判定することができる。 As described above, in Example 3, a method of determining whether or not the posture can be specified by the color when the specific part and the part other than the specific part have different colors on the actual object has been described. From this, the posture of the object can be efficiently specified by performing the process of determining the necessity of the measurement data in the second stage and verifying the measurement method. By using this embodiment, it is possible to determine whether or not the posture of the object can be specified as in the second embodiment without extracting a specific part from the three-dimensional shape model.

〔実施例4〕
本実施例では、対象物の特定部位を計測するセンサの解像度が不足して特定部位が十分大きく観測できず、姿勢が一意に特定できないケースについて述べる。本実施例で取り扱う対象物の一例の形状を図10に示す。
[Example 4]
In this embodiment, a case will be described in which the resolution of the sensor that measures a specific part of the object is insufficient and the specific part cannot be observed sufficiently large, and the posture cannot be uniquely specified. FIG. 10 shows an example of the shape of the object to be handled in this embodiment.

図10(A)に示す一例のように、この対象物は主平面を貫くように2つの小さな穴を特定部位として有している。なお、2つの小さな孔は図10(A)の網掛け表示されている箇所を示す。この特定部位が主平面の表裏、および面内回転姿勢を特定する手がかりとなる。この対象物のバラ積み状態を収容箱の上方に設置した第1のセンサで計測した場合、収容箱の上層に比べ、下層の対象物は相対的に小さく観測される。そのため、図10(B)に示すように、特定部位が観測できず姿勢が一意に特定できない可能性がある。本実施例では、このようなケースを判定して、第2のセンサで計測を行うことにより、姿勢を特定する方法について述べる。 As shown in the example shown in FIG. 10 (A), this object has two small holes as specific parts so as to penetrate the main plane. The two small holes indicate the shaded areas in FIG. 10 (A). This specific part serves as a clue to specify the front and back sides of the main plane and the in-plane rotation posture. When the loosely stacked state of the objects is measured by the first sensor installed above the storage box, the objects in the lower layer are observed to be relatively smaller than those in the upper layer of the storage box. Therefore, as shown in FIG. 10B, there is a possibility that the specific part cannot be observed and the posture cannot be uniquely specified. In this embodiment, a method of identifying such a case and specifying the posture by measuring with the second sensor will be described.

本実施例の情報処理装置1の構成は、実施例1と同様のため、説明を省略する。次に、本実施例における処理フローについて説明する。基本的な処理フローは実施例1と同様であるため、ここでは、処理の異なるステップS130、ステップS140についてのみ説明して、ステップS110、ステップS120、ステップS150は説明を省略する。 Since the configuration of the information processing device 1 of this embodiment is the same as that of the first embodiment, the description thereof will be omitted. Next, the processing flow in this embodiment will be described. Since the basic processing flow is the same as that of the first embodiment, only step S130 and step S140 having different processes will be described here, and the description of step S110, step S120, and step S150 will be omitted.

ステップS130では、判定部20は、仮想カメラと対象物の3次元形状モデルとが第1の姿勢になるように配置し、仮想カメラの観測画像平面上に対象物の特定部位に該当する部分をレンダリングする。ここで、実施例1と異なるのは、対象物の3次元形状モデル全体ではなく、特定部位のみをレンダリングする点である。これにより、特定部位が一切遮蔽されることなく観測されたとしてどの程度の大きさで観測されるのかを判定(検証)する。なお、特定部位のみをレンダリングするため、隠面処理は行わなくてもよい。もし、第1の姿勢において、センサと対象物との距離が小さければ、仮想画像上で特定部位がレンダリングされる領域は大きくなる。逆に距離が大きければ、領域は小さくなる。 In step S130, the determination unit 20 arranges the virtual camera and the three-dimensional shape model of the object in the first posture, and places a portion corresponding to the specific part of the object on the observation image plane of the virtual camera. Render. Here, the difference from the first embodiment is that only a specific part is rendered, not the entire three-dimensional shape model of the object. In this way, it is determined (verified) how large the specific part is observed, assuming that it is observed without being shielded at all. Since only a specific part is rendered, it is not necessary to perform the hidden surface processing. If the distance between the sensor and the object is small in the first posture, the area where the specific part is rendered on the virtual image becomes large. Conversely, the larger the distance, the smaller the area.

そこで、特定部位がレンダリングされた画素を特定してその数をカウントする。特定部位の特定は、たとえば背景と特定部位との区別がつくようにレンダリングすることで行ってもよいし、各画像の奥行き値から、背景と特定部位とを区別することで行ってもよい。もちろんこのほかの方法でも構わない。ここでカウントした特定部位の画素数を用いて、画素数が所定の閾値以上であれば、特定部位特に関する計測データが十分に得られ、姿勢が特定できたものと判定する。この場合、第1の姿勢に基づいてロボットハンドで次工程へと供給する。一方、画素数が所定値未満であった場合には、特定部位に関する計測データが十分に得られていない。すなわち、第1の姿勢で姿勢が特定できていないものと判定し、ステップS140へ進む。実施例1と同様、閾値には、第2の算出部30の性能を考慮して、姿勢の特定に最低限必要な画素数、一例としては50程度を指定するのがよい。 Therefore, the pixel in which the specific part is rendered is specified and the number is counted. The specific part may be specified, for example, by rendering so that the background and the specific part can be distinguished, or by distinguishing the background and the specific part from the depth value of each image. Of course, other methods may be used. Using the number of pixels of the specific part counted here, if the number of pixels is equal to or greater than a predetermined threshold value, it is determined that sufficient measurement data regarding the specific part feature can be obtained and the posture can be specified. In this case, the robot hand supplies the robot to the next process based on the first posture. On the other hand, when the number of pixels is less than a predetermined value, sufficient measurement data regarding a specific portion is not obtained. That is, it is determined that the posture cannot be specified in the first posture, and the process proceeds to step S140. Similar to the first embodiment, the threshold value is preferably specified as the minimum number of pixels required for specifying the posture, for example, about 50 in consideration of the performance of the second calculation unit 30.

ステップS140では、第2の算出部30は、第1の姿勢に基づき、ロボットハンドにより対象物のピッキングを行ったのち、ロボットアームを制御し、第2のセンサで特定部位が十分大きく観測できるよう、ピッキングされた対象物を移動させる。本実施例では、第1のセンサで観測された面はそのまま第2のセンサに正対するようにし、第2のセンサに対する対象物との距離を適切に設定して配置する。通常、距離を半分にして物体を観測すれば、観測面積は4倍になる。そこで、第1の姿勢に基づき、第1のセンサと対象物との距離を算出し、この距離と、ステップS130で算出した特定部位の画素数、および、姿勢特定に必要な画素数とに基づいて、第2のセンサと対象物との距離を算出する。 In step S140, the second calculation unit 30 picks the object with the robot hand based on the first posture, and then controls the robot arm so that the specific part can be observed sufficiently large by the second sensor. , Move the picked object. In this embodiment, the surface observed by the first sensor faces the second sensor as it is, and the distance to the object with respect to the second sensor is appropriately set and arranged. Normally, if an object is observed by halving the distance, the observed area will be quadrupled. Therefore, based on the first posture, the distance between the first sensor and the object is calculated, and based on this distance, the number of pixels of the specific part calculated in step S130, and the number of pixels required for posture identification. Then, the distance between the second sensor and the object is calculated.

なお、説明簡略化のため、本実施例では第2のセンサと第1のセンサは同じ解像度を持つものとする。たとえば、ステップS130で特定部位の画素数が20であったとする。また、第2のセンサで取得した計測データから姿勢を特定するには50画素程度の大きさで特定部位が観測される必要があるとする。このとき、第1のセンサと対象物の距離をDとすると、第2のセンサと対象物との距離D’は、以下の次式(1)によって示される。
D’=D×√(50/20)≒D/1.6 (1)
ここで算出した距離D’よりも近くに対象物を配置することで、第2のセンサにより、姿勢特定に必要な大きさで画像特徴の計測データを取得することが期待できる。なお、第1のセンサと第2の計測センサの解像度が異なる場合には、両者の解像度も考慮してD’を算出すればよい。なお、実施例1と同様、上述の対象物配置を行った時に、ハンドによる遮蔽を極力発生させないようにピッキング位置姿勢を設定して対象物をピッキングするのがよい。
For the sake of simplicity, it is assumed that the second sensor and the first sensor have the same resolution in this embodiment. For example, it is assumed that the number of pixels of the specific portion is 20 in step S130. Further, it is assumed that a specific part needs to be observed with a size of about 50 pixels in order to specify the posture from the measurement data acquired by the second sensor. At this time, assuming that the distance between the first sensor and the object is D, the distance D'between the second sensor and the object is expressed by the following equation (1).
D'= D × √ (50/20) ≒ D / 1.6 (1)
By arranging the object closer than the distance D'calculated here, it can be expected that the second sensor will acquire the measurement data of the image feature with the size required for the posture identification. When the resolutions of the first sensor and the second measurement sensor are different, D'may be calculated in consideration of the resolutions of both. As in the case of the first embodiment, it is preferable to pick the object by setting the picking position / posture so as not to generate the shielding by the hand as much as possible when the above-mentioned object is arranged.

以上、実施例4では、センサの解像度が不足して特定部位が十分大きく観測できず、特定部位に関する計測データが十分に得られず、姿勢が一意に特定できないケースを判定して、再度計測データを取得して、対象物の姿勢を算出する方法について述べた。これにより、2段階目の計測データの必要性の判定や計測方法を検証する処理を実施することで、対象物の姿勢を効率よく特定することができる。なお、本実施例で述べた方法は、実施例1〜3に記載された方法と組み合わせて利用することも可能である。 As described above, in the fourth embodiment, the case where the resolution of the sensor is insufficient and the specific part cannot be observed sufficiently large, the measurement data for the specific part cannot be sufficiently obtained, and the posture cannot be uniquely specified is determined, and the measurement data is measured again. Was obtained, and the method of calculating the posture of the object was described. As a result, the posture of the object can be efficiently specified by performing the process of determining the necessity of the measurement data in the second stage and verifying the measurement method. The method described in this example can also be used in combination with the methods described in Examples 1 to 3.

〔実施例5〕
本実施例では、第1のセンサで取得した計測データにおける、特定部位に該当する領域のデータの信頼度に基づき、姿勢が一意に特定できたか否かを判定し、必要に応じて再度計測データを取得して対象物の姿勢を算出する方法について述べる。
[Example 5]
In this embodiment, it is determined whether or not the posture can be uniquely specified based on the reliability of the data in the area corresponding to the specific part in the measurement data acquired by the first sensor, and the measurement data is measured again if necessary. Will be described to describe the method of calculating the posture of the object.

バラ積み状態で算出した姿勢が一意に姿勢を特定できた結果であったとしても、特定部位に該当する計測データにサチリあるいは欠損が発生しているような場合には、算出した結果が疑わしい。そこで本実施例では、特定部位に該当する計測データの信頼性が著しく低い場合には、再度計測データを取得し直して姿勢を算出し直す。本実施例の情報処理装置1の構成は、実施例1と同様のため、説明を省略する。 Even if the posture calculated in the loosely stacked state is the result of uniquely identifying the posture, the calculated result is doubtful if the measurement data corresponding to the specific part has a click or a defect. Therefore, in this embodiment, when the reliability of the measurement data corresponding to the specific part is extremely low, the measurement data is acquired again and the posture is recalculated. Since the configuration of the information processing device 1 of this embodiment is the same as that of the first embodiment, the description thereof will be omitted.

次に、本実施例における処理フローについて説明する。基本的な処理フローは実施例1と同様であるため、ここでは、処理の異なるステップS130、ステップS140についてのみ説明して、ステップS110、ステップS120、ステップS150説明を省略する。 Next, the processing flow in this embodiment will be described. Since the basic processing flow is the same as that of the first embodiment, only step S130 and step S140 having different processing will be described here, and the description of step S110, step S120, and step S150 will be omitted.

判定部20は、仮想カメラと対象物の3次元形状モデルとが第1の姿勢になるように配置し、仮想カメラの観測画像平面上に対象物の3次元形状モデルをレンダリングする。このとき、視点から陰になり、仮想画像上で本来、不可視となる面を描画しないように隠面処理を行い、かつ、対象物の特定部位が判別できるようにする。ここまでの処理は、実施例1と同様である。次に、判定部20は、仮想画像上で特定部位に該当する画素を抽出し、第1の計測データから、抽出した画素と同一位置にあたるデータを参照する。ここで参照されるデータが、第1の計測データで特定部位に該当することになる。 The determination unit 20 arranges the virtual camera and the three-dimensional shape model of the object in the first posture, and renders the three-dimensional shape model of the object on the observation image plane of the virtual camera. At this time, a hidden surface process is performed so as not to draw a surface that is shaded from the viewpoint and is originally invisible on the virtual image, and a specific part of the object can be identified. The processing up to this point is the same as in the first embodiment. Next, the determination unit 20 extracts pixels corresponding to a specific portion on the virtual image, and refers to data corresponding to the same position as the extracted pixels from the first measurement data. The data referred to here corresponds to a specific part in the first measurement data.

そこで、該当画素の計測データの信頼度が高いか否かを判定する。ここでは、第1の計測データにおいて濃淡画像のサチリあるいは距離画像の欠損があった場合、その画素のデータは信頼度が低いと判定し、そうでなければ信頼度が高いと判定する。そして、信頼度が低いと判定された画素数をカウントとし、画素数が所定の閾値未満であった場合には、特定部位に関する計測データが十分に得られており第1の算出結果は正しい。すなわち姿勢が特定できたものと判定し、第1の姿勢に基づいてロボットハンドで次工程へと供給する。一方、信頼度の低い画素数が所定の閾値以上であった場合には、特定部位に関する計測データが十分に得られておらず、第1の姿勢は疑わしい、すなわち、姿勢が特定できていないと判定し、ステップS140へ進む。あるいは、特定部位に該当する全データのうち、信頼度が低いデータが所定の割合以上であった場合には、姿勢が特定できていないと判定してもよい。また、第1の計測データにおいて、各画素のデータがそれぞれ個別の信頼度を持つような場合には、その値を利用して判定してもよい。 Therefore, it is determined whether or not the reliability of the measurement data of the corresponding pixel is high. Here, if there is a gap in the shading image or a defect in the distance image in the first measurement data, it is determined that the data of the pixel has low reliability, and if not, it is determined that the reliability is high. Then, the number of pixels determined to have low reliability is counted, and when the number of pixels is less than a predetermined threshold value, sufficient measurement data regarding a specific portion is obtained, and the first calculation result is correct. That is, it is determined that the posture can be specified, and the robot hand supplies the robot hand to the next process based on the first posture. On the other hand, when the number of pixels with low reliability is equal to or higher than a predetermined threshold value, sufficient measurement data for a specific part is not obtained, and the first posture is suspicious, that is, the posture cannot be specified. The determination is made, and the process proceeds to step S140. Alternatively, if the data with low reliability is equal to or more than a predetermined ratio among all the data corresponding to the specific portion, it may be determined that the posture cannot be specified. Further, in the first measurement data, when the data of each pixel has individual reliability, the value may be used for determination.

このほか、計測データが姿勢特定を行うために十分信頼できるものか否かを判定できれば、いかなる指標や判定方法を用いても構わない。ほかにも、第1の計測データから、特定部位に該当する領域を特定し、領域内の計測データに関して、第1の姿勢に基づいて配置した対象物の3次元形状モデルとの一致度を算出し、一致度が低い場合には姿勢が正しく特定できていないと判定してもよい。 In addition, any index or determination method may be used as long as it can be determined whether or not the measurement data is sufficiently reliable for identifying the posture. In addition, the area corresponding to the specific part is specified from the first measurement data, and the degree of agreement with the three-dimensional shape model of the object arranged based on the first posture is calculated for the measurement data in the area. However, if the degree of coincidence is low, it may be determined that the posture cannot be specified correctly.

第2の算出部30は、第1の姿勢に基づき、ロボットハンドにより対象物のピッキングを行ったのち、ロボットアームを制御し、第2のセンサで特定部位が適切に観測できるよう、ピッキングされた対象物を移動させる。第1の計測データにおいて特定部位に該当するデータにサチリあるいは欠損が発生する要因として、収容箱あるいは周辺の対象物による反射の影響などが考えられる。この場合、対象物の観測姿勢を変えなくても、周囲の物体による影響を受けないように1つの対象物だけ計測し直すことで、特定部位のデータを正しく計測して姿勢が特定できる場合がある。そこで、本実施例では、第1のセンサに対するセンサと対象物との相対関係が、そのまま第2のセンサと対象物との相対関係になるように配置する。あるいは、第1のセンサと第2のセンサとで、光軸に対する対象物の観測面の傾きを少し変更させる、光軸回りに対象物を回転させる、などを行ってもよい。このほか、第2の計測データにおいて、特定部位に該当する領域の欠損やサチリを減らし、品質を高めるようにできれば、いかなる配置方法であってもよい。なお、実施例1と同様、上述の対象物の配置を行った時に、ハンドによる遮蔽を極力発生させないようにピッキング姿勢を設定して対象物をピッキングするのがよい。 The second calculation unit 30 picks the object with the robot hand based on the first posture, then controls the robot arm, and is picked so that the specific part can be appropriately observed by the second sensor. Move the object. In the first measurement data, the influence of reflection by the storage box or surrounding objects can be considered as a factor that causes the data corresponding to the specific part to be chipped or missing. In this case, even if the observation posture of the object is not changed, the posture can be specified by correctly measuring the data of a specific part by re-measuring only one object so as not to be affected by surrounding objects. is there. Therefore, in this embodiment, the relative relationship between the sensor and the object with respect to the first sensor is arranged so as to be the relative relationship between the second sensor and the object as it is. Alternatively, the first sensor and the second sensor may slightly change the inclination of the observation surface of the object with respect to the optical axis, rotate the object around the optical axis, and the like. In addition, in the second measurement data, any arrangement method may be used as long as it is possible to reduce defects and scratches in the region corresponding to the specific portion and improve the quality. As in the case of the first embodiment, when the above-mentioned object is arranged, it is preferable to set the picking posture so as not to generate the shielding by the hand as much as possible to pick the object.

以上、実施例5では、第2のセンサで取得した計測データにおいて、特定部位に該当する領域のデータの信頼度に基づき、姿勢が一意に特定できたか否かを判定し、必要に応じて再度計測データを取得して対象物の姿勢を算出する方法について述べた。これにより、2段階目の計測データの必要性の判定や計測方法を検証する処理を実施することで、対象物の姿勢を効率よく特定することができる。なお、本実施例で述べた方法は、実施例1〜4に記載された方法と組み合わせて利用することも可能である。 As described above, in the fifth embodiment, it is determined whether or not the posture can be uniquely specified based on the reliability of the data in the area corresponding to the specific part in the measurement data acquired by the second sensor, and if necessary, again. The method of acquiring the measurement data and calculating the posture of the object was described. As a result, the posture of the object can be efficiently specified by performing the process of determining the necessity of the measurement data in the second stage and verifying the measurement method. The method described in this example can also be used in combination with the methods described in Examples 1 to 4.

〔物品製造方法に係る実施例〕
上述の情報処理装置1は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図12のようにロボットアーム400(把持装置)に備え付けられて使用される制御システムについて説明する。図12では図示していないが、情報処理装置1は、図3に示したような第1のセンサ、第2のセンサを用いる計測装置として構成されており、支持台Tに置かれた物体Wにパターン光を投影して撮像し、画像を取得する。そして、情報処理装置1の制御部が、又は、情報処理装置1の制御部から出力された画像データを取得したアーム制御部310が、物体Wの位置や姿勢を決定する。アーム制御部310は、その位置や姿勢の情報(計測結果)に基づいて、ロボットアーム400に駆動指令を送ってロボットアーム400を制御する。ロボットアーム400は先端のロボットハンドなど(把持部)で物体Wを保持して、並進や回転などの移動をさせる。さらに、ロボットアーム400によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部310は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。なお、ロボットを制御する制御部をアーム制御部310の外部に設けても良い。また、情報処理装置により計測された計測データや得られた画像をディスプレイなどの表示部320に表示しても良い。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしても良い。なお物体Wは図2等の対象物と同様のものであり、ロボットアーム400に図3のロボットアームと同様の構成である。なお、前記計測装置はロボットアーム400を含むように構成してもよい。
[Examples relating to the article manufacturing method]
The information processing device 1 described above can be used in a state of being supported by a certain support member. In this embodiment, as an example, a control system attached to and used in the robot arm 400 (grip device) as shown in FIG. 12 will be described. Although not shown in FIG. 12, the information processing device 1 is configured as a measuring device using the first sensor and the second sensor as shown in FIG. 3, and the object W placed on the support base T. The pattern light is projected onto the image to be imaged, and an image is acquired. Then, the control unit of the information processing device 1 or the arm control unit 310 that has acquired the image data output from the control unit of the information processing device 1 determines the position and posture of the object W. The arm control unit 310 controls the robot arm 400 by sending a drive command to the robot arm 400 based on the position and posture information (measurement result). The robot arm 400 holds the object W with a robot hand or the like (grip portion) at the tip, and moves the object W in translation or rotation. Further, by assembling (assembling) the object W to other parts by the robot arm 400, it is possible to manufacture an article composed of a plurality of parts, for example, an electronic circuit board or a machine. In addition, an article can be manufactured by processing (processing) the moved object W. The arm control unit 310 includes an arithmetic unit such as a CPU as a computer and a storage device such as a memory for storing a computer program. A control unit that controls the robot may be provided outside the arm control unit 310. Further, the measurement data measured by the information processing apparatus and the obtained image may be displayed on a display unit 320 such as a display. Further, the object W may be gripped and moved in order to align the object W with respect to other parts. The object W has the same structure as the object of FIG. 2 and the like, and the robot arm 400 has the same configuration as the robot arm of FIG. The measuring device may be configured to include the robot arm 400.

〔その他の実施例〕
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
[Other Examples]
Although the present invention has been described in detail based on the preferred examples thereof, the present invention is not limited to the above examples, and various modifications can be made based on the gist of the present invention. It is not excluded from the scope of the invention.

また、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して情報処理装置等に供給するようにしてもよい。そしてその情報処理装置や計測装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。なお、記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 Further, a computer program that realizes a part or all of the control in this embodiment may be supplied to an information processing apparatus or the like via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the information processing device or the measuring device may read and execute the program. In that case, the program and the storage medium that stores the program constitute the present invention. As the recording medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.

情報処理装置 1
第1の算出部 10
判定部 20
第2の算出部 30

Information processing device 1
First calculation unit 10
Judgment unit 20
Second calculation unit 30

Claims (17)

対象物の姿勢を算出する情報処理装置であって、
センサにより前記対象物を計測して得られる第1の計測データに基づいて前記対象物の第1の姿勢を算出する第1の算出部と、
前記第1の計測データに基づいて、前記対象物のうち姿勢を特定するための特定部位に関する計測データが姿勢を特定するために十分得られたか否かを判定する判定部と、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られていないと前記判定部が判定した場合に、前記第1の姿勢が算出された前記対象物と前記センサの相対位置を変更して前記対象物の前記特定部位を計測して得られる第2の計測データに基づいて前記対象物の第2の姿勢を算出し、前記特定部位に関する前記計測データが姿勢を特定するために十分得られたと前記判定部が判定した場合に前記第2の計測データに基づく前記第2の姿勢の算出を行わない第2の算出部を備えていることを特徴とする情報処理装置。
An information processing device that calculates the posture of an object.
A first calculation unit that calculates the first posture of the object based on the first measurement data obtained by measuring the object with a sensor, and
Based on the first measurement data, a determination unit for determining whether or not measurement data for a specific part of the object for specifying a posture has been sufficiently obtained for specifying a posture, and a determination unit.
When the determination unit determines that the measurement data for the specific portion is not sufficiently obtained to specify the posture, the relative position between the object and the sensor from which the first posture is calculated is changed. The second posture of the object is calculated based on the second measurement data obtained by measuring the specific portion of the object, and the measurement data regarding the specific portion is sufficiently obtained to specify the posture. An information processing device including a second calculation unit that does not calculate the second posture based on the second measurement data when the determination unit determines that the data has been obtained.
前記判定部は、前記特定部位に対応する画素の数が所定の閾値以上ある場合に、前記計測データが姿勢を特定するために十分得られていると判定することを特徴とする請求項1に記載の情報処理装置。 The first aspect of the present invention is characterized in that, when the number of pixels corresponding to the specific portion is equal to or greater than a predetermined threshold value, the determination unit determines that the measurement data is sufficiently obtained to specify the posture. The information processing device described. 前記判定部は、前記第1の姿勢における前記対象物の仮想計測データと、前記第1の姿勢とは異なる参照姿勢における前記対象物の仮想計測データとを比較することにより、前記計測データが姿勢を特定するために十分得られているか判定することを特徴とする請求項1に記載の情報処理装置。 The determination unit compares the virtual measurement data of the object in the first posture with the virtual measurement data of the object in a reference posture different from the first posture, so that the measurement data is in the posture. The information processing apparatus according to claim 1, wherein it is determined whether or not sufficient data is obtained to specify. 前記判定部は、前記特定部位の色に対応する輝度値に基づいて、前記色に対応する輝度値が所定の閾値以上ある場合に、前記計測データが姿勢を特定するために十分得られていると判定することを特徴とする請求項1に記載の情報処理装置。 Based on the brightness value corresponding to the color of the specific portion, the determination unit has sufficiently obtained the measurement data to specify the posture when the brightness value corresponding to the color is equal to or more than a predetermined threshold value. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined to be. 前記判定部は、前記特定部位における前記計測データの画素の数を信頼度として、前記信頼度が所定の閾値以上ある場合に、前記計測データが姿勢を特定するために十分得られていると判定することを特徴とする請求項1に記載の情報処理装置。 The determination unit determines that the measurement data is sufficiently obtained to specify the posture when the reliability is equal to or higher than a predetermined threshold value, using the number of pixels of the measurement data in the specific portion as the reliability. The information processing apparatus according to claim 1, wherein the information processing apparatus is used. 前記判定部は、前記第1の姿勢における前記対象物の仮想計測データの特定部位をレンダリングした結果に基づき、前記仮想計測データの特定部位の画素の数をカウントした上で、前記画素の数が所定の閾値以上である場合に、前記計測データが十分得られていると判定することを特徴とする請求項1に記載の情報処理装置。 The determination unit counts the number of pixels of the specific portion of the virtual measurement data based on the result of rendering the specific portion of the virtual measurement data of the object in the first posture, and then the number of the pixels is calculated. The information processing apparatus according to claim 1, wherein it is determined that the measurement data is sufficiently obtained when the value is equal to or higher than a predetermined threshold value. 前記判定部は、前記第1の計測データが前記特定部位に関する前記計測データを有しないために、前記対象物の姿勢が特定されていない場合、前記特定部位に関する前記計測データが姿勢を特定するために十分得られていないと判定することを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。 In the determination unit, when the posture of the object is not specified because the first measurement data does not have the measurement data for the specific part, the measurement data for the specific part specifies the posture. The information processing apparatus according to any one of claims 1 to 6, wherein it is determined that the data is not sufficiently obtained. 前記判定部は、前記特定部位に関する前記計測データが姿勢を特定するために、十分得られていないと判定した場合に、前記第1の姿勢として算出された前記対象物と前記センサの相対位置を変更するための制御信号を生成することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 When the determination unit determines that the measurement data for the specific portion is not sufficiently obtained to specify the posture, the determination unit determines the relative position between the object and the sensor calculated as the first posture. The information processing apparatus according to any one of claims 1 to 7, wherein a control signal for changing is generated. 前記センサは、前記対象物の前記第1の計測データを取得するための第1のセンサと、前記対象物の姿勢を算出するための前記第2の計測データを取得するための第2のセンサを有する請求項1〜8のいずれか1項に記載の情報処理装置。 The sensors are a first sensor for acquiring the first measurement data of the object and a second sensor for acquiring the second measurement data for calculating the posture of the object. The information processing apparatus according to any one of claims 1 to 8. 前記第1のセンサと前記第2のセンサは、前記対象物に対してそれぞれ異なる角度で設置されていることを特徴とする請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the first sensor and the second sensor are installed at different angles with respect to the object. 対象物の姿勢を算出する情報処理方法であって、
センサにより前記対象物を計測して得られる第1の計測データに基づいて前記対象物の第1の姿勢を算出する第1の算出工程と、
前記第1の計測データに基づいて、前記対象物のうち姿勢を特定するための特定部位に関する計測データが姿勢を特定するために十分得られたか否かを判定する判定工程と、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られていないと前記判定工程において判定された場合に、前記第1の姿勢が算出された前記対象物と前記センサの相対位置を変更して前記対象物の前記特定部位を計測して得られる第2の計測データに基づいて前記対象物の第2の姿勢を算出し、前記特定部位に関する前記計測データが姿勢を特定するために十分得られたと前記判定工程において判定された場合に前記第2の計測データに基づく前記第2の姿勢の算出を行わない第2の算出工程を有することを特徴とする情報処理方法。
An information processing method that calculates the posture of an object.
A first calculation step of calculating the first posture of the object based on the first measurement data obtained by measuring the object with a sensor, and
Based on the first measurement data, a determination step of determining whether or not measurement data relating to a specific part of the object for specifying a posture has been sufficiently obtained to specify the posture, and a determination step.
When it is determined in the determination step that the measurement data for the specific portion is not sufficiently obtained to specify the posture, the relative position between the object and the sensor from which the first posture is calculated is changed. Then, the second posture of the object is calculated based on the second measurement data obtained by measuring the specific portion of the object, and the measurement data regarding the specific portion is sufficient to specify the posture. An information processing method comprising a second calculation step in which the calculation of the second posture based on the second measurement data is not performed when it is determined in the determination step that the data has been obtained.
コンピュータを、請求項1〜10のいずれか1項に記載の情報処理装置の各部として機能させるためのプログラム。 A program for causing a computer to function as each part of the information processing apparatus according to any one of claims 1 to 10. 請求項1〜10のうちいずれか1項に記載の情報処理装置と、
前記情報処理装置により算出された前記対象物の姿勢に基づき前記対象物を把持して移動させるロボットと、を有することを特徴とするシステム。
The information processing device according to any one of claims 1 to 10.
A system characterized by having a robot that grips and moves the object based on the posture of the object calculated by the information processing device.
前記対象物を把持する把持手段を有し、前記把持手段は、前記第1の姿勢に基づいて前記対象物を把持した後、前記センサに対して前記対象物の前記特定部位の姿勢を取得しやすいように前記相対位置を変更することを特徴とする請求項13に記載のシステム。 It has a gripping means for gripping the object, and the gripping means acquires the posture of the specific portion of the object with respect to the sensor after gripping the object based on the first posture. The system according to claim 13, wherein the relative position is changed for ease of use. 請求項1〜10のうちいずれか1項に記載の情報処理装置により前記対象物の姿勢を算出する算出工程と、
算出された、前記対象物の姿勢に基づいて、前記対象物を把持し、前記対象物の組立処理を行うことで、所定の物品を製造する工程を有することを特徴とする物品の製造方法。
A calculation step of calculating the posture of the object by the information processing apparatus according to any one of claims 1 to 10.
A method for manufacturing an article, which comprises a step of manufacturing a predetermined article by grasping the object and performing an assembly process of the object based on the calculated posture of the object.
対象物の姿勢を計測する計測装置であって、
前記対象物を計測するセンサと、
前記センサにより前記対象物を計測する第1の計測により得られる第1の計測データに基づいて前記対象物の第1の姿勢を算出する第1の算出部と、
前記第1の計測データに基づいて、前記対象物のうち姿勢を特定するための特定部位に関する計測データが姿勢を特定するために十分得られたか否かを判定する判定部と、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られていないと前記判定部が判定した場合に、前記第1の姿勢が算出された前記対象物と前記センサの相対位置を変更して前記対象物の前記特定部位を計測する第2の計測により得られる第2の計測データに基づいて前記対象物の第2の姿勢を算出する第2の算出部と、を有し、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られたと前記判定部が判定した場合に前記第2の計測を行わないことを特徴とする計測装置。
A measuring device that measures the posture of an object
A sensor that measures the object and
A first calculation unit that calculates the first posture of the object based on the first measurement data obtained by the first measurement of measuring the object by the sensor.
Based on the first measurement data, a determination unit for determining whether or not measurement data for a specific part of the object for specifying a posture has been sufficiently obtained for specifying a posture, and a determination unit.
When the determination unit determines that the measurement data for the specific portion is not sufficiently obtained to specify the posture, the relative position between the object and the sensor for which the first posture is calculated is changed. It also has a second calculation unit that calculates the second posture of the object based on the second measurement data obtained by the second measurement that measures the specific portion of the object.
A measuring device characterized in that the second measurement is not performed when the determination unit determines that the measurement data relating to the specific portion has been sufficiently obtained to specify the posture.
対象物の姿勢を計測する計測方法であって、
センサにより前記対象物を計測する第1の計測により得られる第1の計測データに基づいて前記対象物の第1の姿勢を算出する第1の算出工程と、
前記第1の計測データに基づいて、前記対象物のうち姿勢を特定するための特定部位に関する計測データが姿勢を特定するために十分得られたか否かを判定する判定工程と、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られていないと前記判定工程において判定された場合に、前記第1の姿勢が算出された前記対象物と前記センサの相対位置を前記第1の計測時の前記相対位置から変更して前記対象物の前記特定部位を計測する第2の計測を行い、前記第2の計測により得られる第2の計測データに基づいて前記対象物の第2の姿勢を算出する第2の算出工程と、を有し、
前記特定部位に関する前記計測データが姿勢を特定するために十分得られたと前記判定工程において判定された場合に前記第2の計測を行わないことを特徴とする計測方法。

It is a measurement method that measures the posture of an object.
The first calculation step of calculating the first posture of the object based on the first measurement data obtained by the first measurement of measuring the object by the sensor, and
Based on the first measurement data, a determination step of determining whether or not measurement data relating to a specific part of the object for specifying a posture has been sufficiently obtained to specify the posture, and a determination step.
When it is determined in the determination step that the measurement data relating to the specific portion is not sufficiently obtained to specify the posture, the relative position between the object and the sensor from which the first posture is calculated is determined. A second measurement is performed to measure the specific portion of the object by changing from the relative position at the time of the first measurement, and the object is based on the second measurement data obtained by the second measurement. It has a second calculation step of calculating the second posture, and has.
A measurement method characterized in that the second measurement is not performed when it is determined in the determination step that the measurement data relating to the specific portion is sufficiently obtained to specify the posture.

JP2019199165A 2019-10-31 2019-10-31 Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method Pending JP2021071420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199165A JP2021071420A (en) 2019-10-31 2019-10-31 Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199165A JP2021071420A (en) 2019-10-31 2019-10-31 Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method

Publications (1)

Publication Number Publication Date
JP2021071420A true JP2021071420A (en) 2021-05-06

Family

ID=75712895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199165A Pending JP2021071420A (en) 2019-10-31 2019-10-31 Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method

Country Status (1)

Country Link
JP (1) JP2021071420A (en)

Similar Documents

Publication Publication Date Title
US11724400B2 (en) Information processing apparatus for determining interference between object and grasping unit, information processing method, and storage medium
US9478035B2 (en) 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9436987B2 (en) Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
JP5812599B2 (en) Information processing method and apparatus
CN102834845B (en) The method and apparatus calibrated for many camera heads
JP6955783B2 (en) Information processing methods, equipment, cloud processing devices and computer program products
JP2008537190A (en) Generation of three-dimensional image of object by irradiating with infrared pattern
Pretto et al. Flexible 3D localization of planar objects for industrial bin-picking with monocamera vision system
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
US20190073796A1 (en) Method and Image Processing System for Determining Parameters of a Camera
JP6632656B2 (en) Interference determination device, interference determination method, and computer program
Agrawal et al. Vision-guided robot system for picking objects by casting shadows
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2019192022A (en) Image processing apparatus, image processing method, and program
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
Berger et al. Vision guided bin picking and mounting in a flexible assembly cell
JP2018195070A (en) Information processing apparatus, information processing method, and program
JP7178803B2 (en) Information processing device, information processing device control method and program
JP2018146347A (en) Image processing device, image processing method, and computer program
Cociaş et al. Multiple-superquadrics based object surface estimation for grasping in service robotics
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
Kotake et al. A fast initialization method for edge-based registration using an inclination constraint
JP2021071420A (en) Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method
WO2021145304A1 (en) Image processing system
JP7066671B2 (en) Interference determination device, interference determination method, program and system