JP2016099257A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2016099257A
JP2016099257A JP2014237195A JP2014237195A JP2016099257A JP 2016099257 A JP2016099257 A JP 2016099257A JP 2014237195 A JP2014237195 A JP 2014237195A JP 2014237195 A JP2014237195 A JP 2014237195A JP 2016099257 A JP2016099257 A JP 2016099257A
Authority
JP
Japan
Prior art keywords
orientation
target object
information processing
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014237195A
Other languages
Japanese (ja)
Inventor
大澤 弘幸
Hiroyuki Osawa
弘幸 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014237195A priority Critical patent/JP2016099257A/en
Publication of JP2016099257A publication Critical patent/JP2016099257A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure the position attitude of a target object with high accuracy by taking the influence of a shade (occlusion) generated by a lighting device or the like into consideration.SOLUTION: An information processing device includes: sensor means for acquiring two-dimensional information or three-dimensional information about a target object in a first position attitude; calculation means for respectively calculating hidden areas where the target object is shielded when the target object is looked at from a plurality of view points on the basis of the two-dimensional information or the three-dimensional information acquired by the sensor means in the first position attitude; and determination means for determining a second position attitude different from the first position attitude as a position attitude of the sensor means which can acquire three-dimensional information for measuring the position attitude of the target object on the basis of the hidden areas calculated by the calculation means.SELECTED DRAWING: Figure 1

Description

本発明は、対象物体の三次元位置姿勢を求める情報処理装置及び情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method for obtaining a three-dimensional position and orientation of a target object.

近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピッキングして組立を行う。従来、ピッキングするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、パレット(箱)に部品を様々な姿勢で山積みしたりすることによって行われている。   Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by picking parts with an end effector such as a hand. Conventionally, parts for picking are supplied by using a device called a parts feeder for supplying parts one by one, or by stacking parts in various positions on a pallet (box). It has been broken.

パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピッキングは比較的容易に行われる。しかしながら、パーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならない。一方、部品を山積みにして供給する場合は、パレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
このような動向の中、二次元カメラや三次元計測装置と部品認識との組み合わせによるピッキング作業システムの開発が行われている。
When using the parts feeder, since the position and orientation of each part is supplied in a predetermined state, picking by the robot is relatively easy. However, the cost for preparing the parts feeder device is excessive. Also, different parts feeders must be prepared according to the shape of the parts. On the other hand, when supplying parts in piles, it is only necessary to place the parts on a pallet, so that an increase in cost can be avoided. Furthermore, in response to the recent trend of low-volume, high-mix production, attention has been focused on the supply of piles that can quickly respond to various parts.
Under these trends, picking work systems are being developed by combining two-dimensional cameras and three-dimensional measuring devices with component recognition.

対象物体の位置姿勢を認識するための認識装置として、特許文献1に記載の技術がある。ここでは、先ず、パレットの上方に設置されたカメラにより複数の対象物体全体を撮影し、撮影した画像上での二次元位置を求める。次に、カメラから1つの対象物体までの直線を求め、ロボットの手先部に搭載したセンサがその直線上に来るようにロボットを動かす。そして当該センサによって対象物体の位置姿勢を計測する。このように全体を撮影するカメラと、計測範囲は狭いが精度よく位置姿勢を検出することができるセンサとを組み合わせて段階的に処理することで、対象物体を高精度かつ高速に計測するようにしている。   As a recognition device for recognizing the position and orientation of a target object, there is a technique described in Patent Document 1. Here, first, the entire plurality of target objects are photographed by a camera installed above the pallet, and a two-dimensional position on the photographed image is obtained. Next, a straight line from the camera to one target object is obtained, and the robot is moved so that the sensor mounted on the hand of the robot is on the straight line. Then, the position and orientation of the target object are measured by the sensor. In this way, the target object can be measured with high accuracy and high speed by combining the camera that shoots the entire image and the sensor that can detect the position and orientation with a narrow measurement range but with high accuracy. ing.

特許第3556589号公報Japanese Patent No. 3556589

上記特許文献1に記載の認識装置では、必ずパレットの上方に設置されたカメラと対象物体とを結ぶ直線上で、ロボットの手先部に搭載したセンサによる三次元計測を行う。そのため、対象物体が向いている方向によっては、必ずしも計測しやすい状態にはならない。例えば、対象物体に計測用の照明光を当てる場合、対象物体が向いている方向によっては照明光によって発生する影がカメラに映り込む。また、上記の影以外にも、手前にある障害物が背後にある対象物体を隠して見えないようにしてしまう状態が発生し得る。このようなオクルージョンが発生すると、画像処理を行う際の妨げになるため位置姿勢の計測が困難になる。
そこで、本発明は、オクルージョンが発生し得る状況下においても、当該オクルージョンの影響を考慮し、高精度に対象物体の位置姿勢を計測することを目的とする。
In the recognition apparatus described in Patent Document 1, three-dimensional measurement is always performed by a sensor mounted on the hand portion of the robot on a straight line connecting the camera and the target object installed above the pallet. Therefore, depending on the direction in which the target object is facing, it is not always easy to measure. For example, when measuring illumination light is applied to a target object, a shadow generated by the illumination light is reflected on the camera depending on the direction in which the target object is directed. In addition to the above-mentioned shadow, there may occur a state in which an obstacle in the foreground hides a target object behind and prevents it from being seen. When such occlusion occurs, it becomes a hindrance when performing image processing, and thus it becomes difficult to measure the position and orientation.
Therefore, an object of the present invention is to measure the position and orientation of a target object with high accuracy in consideration of the influence of the occlusion even in a situation where occlusion may occur.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、第一の位置姿勢で、対象物体に関する二次元情報もしくは三次元情報を取得するセンサ手段と、前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出する算出手段と、前記算出手段で算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定する決定手段と、を備えることを特徴とする。   In order to solve the above-described problem, an aspect of the information processing apparatus according to the present invention includes a sensor unit that acquires two-dimensional information or three-dimensional information about a target object in a first position and orientation, and the first position and orientation. Calculating means for calculating a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints based on the two-dimensional information or the three-dimensional information acquired by the sensor means; A second position and orientation different from the first position and orientation as the position and orientation of the sensor means capable of acquiring three-dimensional information for measuring the position and orientation of the target object based on the hidden area calculated by the calculating means Determining means for determining.

本発明によれば、オクルージョンが発生し得る状況下においても、当該オクルージョンの影響を考慮し、高精度に対象物体の位置姿勢を計測することができる。   According to the present invention, it is possible to measure the position and orientation of a target object with high accuracy in consideration of the influence of the occlusion even in a situation where occlusion may occur.

第一の実施形態の情報処理装置を備えるロボットシステムの一例を示す構成図である。It is a lineblock diagram showing an example of a robot system provided with an information processor of a first embodiment. センサ部の構成例を示す図である。It is a figure which shows the structural example of a sensor part. プロジェクタから投射するパターン光の一例である。It is an example of the pattern light projected from a projector. 三次元形状モデル(頂点)を説明する図である。It is a figure explaining a three-dimensional shape model (vertex). 三次元形状モデル(頂点)を説明する図である。It is a figure explaining a three-dimensional shape model (vertex). 三次元形状モデル(辺)を説明する図である。It is a figure explaining a three-dimensional shape model (side). 三次元形状モデル(辺)を説明する図である。It is a figure explaining a three-dimensional shape model (side). 三次元形状モデル(面)を説明する図である。It is a figure explaining a three-dimensional shape model (surface). 三次元形状モデル(面)を説明する図である。It is a figure explaining a three-dimensional shape model (surface). オクルージョンの発生状況の一例を示す図である。It is a figure which shows an example of the generation | occurrence | production state of occlusion. 画像処理部で実行する三次元位置計測処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the three-dimensional position measurement process procedure performed with an image process part. 第二の位置姿勢決定処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the 2nd position and orientation determination processing procedure. 候補位置姿勢の設定方法について説明する図である。It is a figure explaining the setting method of a candidate position and orientation. 候補位置姿勢の設定方法について説明する図である。It is a figure explaining the setting method of a candidate position and orientation. 第一の計測位置での撮影状態を示す図である。It is a figure which shows the imaging | photography state in a 1st measurement position. 第二の計測位置での撮影状態を示す図である。It is a figure which shows the imaging | photography state in a 2nd measurement position. 第二の実施形態における対象物体の把持状態を示す図である。It is a figure which shows the holding state of the target object in 2nd embodiment. 対象物体の特徴部分における隠れ領域を示す図である。It is a figure which shows the hidden area | region in the characteristic part of a target object. 第三の実施形態における情報処理装置を備えるロボットシステムの一例を示す構成図である。It is a block diagram which shows an example of the robot system provided with the information processing apparatus in 3rd embodiment. 第四の実施形態における情報処理装置を備えるロボットシステムの一例を示す構成図である。It is a block diagram which shows an example of the robot system provided with the information processing apparatus in 4th embodiment. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of information processing apparatus.

以下、添付図面を参照して、本発明を実施するための好適な形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

(第一の実施形態)
図1は、第一の実施形態における情報処理装置を備えるロボットシステム100の構成例を示す図である。
ロボットシステム100は、ロボット10と、情報処理部20と、を備える。
ロボット10は、例えば多関節ロボットであり、アームの先端部(手先部)には、センサ部11が姿勢を変更可能に取り付けられている。センサ部11は、ロボット10の手先部付近にある物体を撮影し、画像データを情報処理部20に出力する。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of a robot system 100 including an information processing apparatus according to the first embodiment.
The robot system 100 includes a robot 10 and an information processing unit 20.
The robot 10 is, for example, an articulated robot, and a sensor unit 11 is attached to the tip portion (hand portion) of the arm so that the posture can be changed. The sensor unit 11 captures an object near the tip of the robot 10 and outputs image data to the information processing unit 20.

また、ロボット10は、センサ部11の位置姿勢、すなわち、ロボット10の手先部の位置及びセンサ部11の姿勢を変更可能な位置姿勢変更機構12を備える。位置姿勢変更機構12は、ロボット10の各関節の角度を変更することで当該ロボット10の手先部の位置やセンサ部11の姿勢を変更する。ここで、位置姿勢変更機構12は、電動モータによって駆動されてもよいし、油圧や空気圧等の流体圧で作動するアクチュエータによって駆動されてもよい。この位置姿勢変更機構12は、情報処理部20が備える後述するロボットコントローラ部220からの制御指令を受けて駆動される。   The robot 10 also includes a position and orientation change mechanism 12 that can change the position and orientation of the sensor unit 11, that is, the position of the hand portion of the robot 10 and the orientation of the sensor unit 11. The position and orientation change mechanism 12 changes the position of the hand portion of the robot 10 and the orientation of the sensor unit 11 by changing the angle of each joint of the robot 10. Here, the position / orientation changing mechanism 12 may be driven by an electric motor, or may be driven by an actuator that operates with fluid pressure such as hydraulic pressure or air pressure. The position / orientation changing mechanism 12 is driven in response to a control command from a robot controller 220 (described later) included in the information processing unit 20.

さらに、ロボット10の手先部には、エンドエフェクタ13が取り付けられている。エンドエフェクタ13は、ロボット10のワークの種類に応じた作業を実現するためのツールであり、例えばロボットハンド等である。当該ロボットハンドとしては、モータ駆動可能なチャック機構を有し物体を把持可能なハンドや、空気圧で物体を吸着する吸着パッドを用いたハンド等を用いることができる。なお、エンドエフェクタ13は、アームに対して着脱可能に取り付けられており、ワークの種類に応じて交換可能である。
なお、センサ部11の位置姿勢、ロボット10やハンド13の位置や軌道、ロボット10のアームとセンサ部11との相対位置姿勢のキャリブレーション作業は、予め所定の手法により行われているものとする。
Further, an end effector 13 is attached to the hand portion of the robot 10. The end effector 13 is a tool for realizing work according to the type of work of the robot 10, and is, for example, a robot hand. As the robot hand, a hand that has a chuck mechanism that can be driven by a motor and can grip an object, a hand that uses a suction pad that sucks an object by air pressure, and the like can be used. The end effector 13 is detachably attached to the arm and can be exchanged according to the type of workpiece.
Note that the calibration work of the position and orientation of the sensor unit 11, the position and trajectory of the robot 10 and the hand 13, and the relative position and orientation of the arm of the robot 10 and the sensor unit 11 is performed in advance by a predetermined method. .

また、ロボット10は、多関節ロボットに限定されるものではなく、数値制御(Numerical Control:NC)可能な可動式の機械であってもよい。
情報処理装置20は、センサ部11で撮影された被計測対象物30の二次元画像を入力し、その画像データをもとに所定の画像処理を実行して位置姿勢変更機構12及びハンド13を駆動制御する。
被計測対象物30は、複数の対象物体31が様々な姿勢でパレット32に山積みされたものである。対象物体31は、例えば、工業製品を構成する部品である。この対象物体31の素材は、プラスチック、金属、ビニールなど、いずれの素材であってもよい。
The robot 10 is not limited to an articulated robot, and may be a movable machine capable of numerical control (NC).
The information processing apparatus 20 inputs a two-dimensional image of the measurement object 30 photographed by the sensor unit 11, executes predetermined image processing based on the image data, and moves the position / orientation changing mechanism 12 and the hand 13. Drive control.
The measurement target object 30 is obtained by stacking a plurality of target objects 31 on a pallet 32 in various postures. The target object 31 is, for example, a part that constitutes an industrial product. The material of the target object 31 may be any material such as plastic, metal, or vinyl.

パレット32は、対象物体31を収容する箱であり、素材や形状には特に制約はない。但し、作りやすさの観点からは、例えば、素材はプラスチックや紙、形状は立方体や直方体にすることが好ましい。また、パレット32の大きさにも制約はないが、センサ部11による撮影可能範囲内に収まる大きさであることが好ましい。
情報処理装置20は、センサ部11で撮影された二次元画像をもとに対象物体31の三次元位置姿勢を計測し、その計測結果に基づいて、ロボット10を駆動制御し、当該ロボット10による対象物体31のピッキング作業を行う。
The pallet 32 is a box that accommodates the target object 31, and there are no particular restrictions on the material and shape. However, from the viewpoint of ease of production, for example, the material is preferably plastic or paper, and the shape is preferably a cube or a rectangular parallelepiped. Further, the size of the pallet 32 is not limited, but it is preferable that the size of the pallet 32 be within a range where the sensor unit 11 can shoot.
The information processing apparatus 20 measures the three-dimensional position and orientation of the target object 31 based on the two-dimensional image photographed by the sensor unit 11 and drives and controls the robot 10 based on the measurement result. Picking operation of the target object 31 is performed.

次に、センサ部11の構成について具体的に説明する。
センサ部11は、図2に示すように、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを備え、三角測量の原理を用いて対象物体31に関する三次元情報(距離画像や三次元点群データ)を取得する。
プロジェクタ111は、対象物体31に対してパターン光を投射し、カメラ112は、当該パターン光が投射された対象物体31の二次元画像を撮影する。センサ部11は、カメラ112で撮影した画像データを情報処理部20に出力する。パターン光としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどを利用することができる。
Next, the configuration of the sensor unit 11 will be specifically described.
As shown in FIG. 2, the sensor unit 11 includes a projector (projection unit) 111 and a camera (imaging unit) 112, and uses three-dimensional information (distance images and three-dimensional points) about the target object 31 using the principle of triangulation. Group data).
The projector 111 projects pattern light onto the target object 31, and the camera 112 captures a two-dimensional image of the target object 31 on which the pattern light is projected. The sensor unit 11 outputs image data captured by the camera 112 to the information processing unit 20. As the pattern light, it is possible to use a plurality of striped patterns, a plurality of line patterns, and the like having different widths in the spatial encoding method.

図3は、プロジェクタ111から投射するパターン光の一例である。
図3に示すパターン光201〜203は、明暗のスリットを交互に配した縞パターンを有するパターン光である。なお、ここでは、3bitのグレイコードによる縞パターンを示しているが、3bitに限定されるものではない。Nbitの空間符号化を行う場合には、スリット光パターンはN枚となる。
ここで、光パターン202は、光パターン201に対して空間解像度が2倍になっている縞パターン光である。同様に、光パターン203は、光パターン202に対して空間解像度が2倍になっている縞パターン光である。情報処理部20は、センサ部11から入力された画像データをもとに撮像範囲を8分割し、対象物体131を認識する。
なお、パターン光は、二次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部11は、回折格子と照明とカメラとから構成されていてもよい。この場合は、回折格子と照明とにより対象物体にパターン光を投射し、カメラによりパターンを撮影すればよい。
FIG. 3 is an example of pattern light projected from the projector 111.
Pattern lights 201 to 203 shown in FIG. 3 are pattern lights having a stripe pattern in which bright and dark slits are alternately arranged. Here, a stripe pattern using a 3-bit gray code is shown, but it is not limited to 3 bits. When performing Nbit spatial encoding, the number of slit light patterns is N.
Here, the light pattern 202 is stripe pattern light having a spatial resolution twice that of the light pattern 201. Similarly, the light pattern 203 is a stripe pattern light whose spatial resolution is twice that of the light pattern 202. The information processing unit 20 recognizes the target object 131 by dividing the imaging range into eight parts based on the image data input from the sensor unit 11.
The pattern light may be a two-dimensional pattern or a pattern such as a random dot. Moreover, the sensor part 11 may be comprised from the diffraction grating, illumination, and the camera. In this case, pattern light may be projected onto the target object using the diffraction grating and illumination, and the pattern may be captured by the camera.

プロジェクタ111とカメラ112との配置は、アクティブステレオ法等による三次元計測が可能な配置とする。すなわち、アクティブステレオ法等による三次元計測が可能とするためには、計測用のパターン光の計測線の方向に対して垂直な方向に視差を取る必要がある。そのため、プロジェクタ111とカメラ112との位置は、視差の影響により必ず視線方向のずれが生じる。カメラ112の視野とプロジェクタ111の投影範囲とが重なった領域内に対象物体31が入ることで三次元計測が可能となる。   The projector 111 and the camera 112 are arranged such that three-dimensional measurement by an active stereo method or the like is possible. That is, in order to enable three-dimensional measurement by the active stereo method or the like, it is necessary to take a parallax in a direction perpendicular to the direction of the measurement line of the pattern light for measurement. Therefore, the position of the projector 111 and the camera 112 always shifts in the line of sight due to the influence of parallax. When the target object 31 enters the area where the field of view of the camera 112 and the projection range of the projector 111 overlap, three-dimensional measurement is possible.

次に、情報処理部20の構成について具体的に説明する。
情報処理部20は、例えばパーソナルコンピューター(PC)に搭載されており、図1に示すように、画像処理部210と、ロボットコントローラ部210と、を備える。
画像処理部210は、第一の位置姿勢を有するセンサ部11が取得した対象物体31の三次元情報を取得し、当該三次元情報をもとに対象物体31の位置姿勢を計測する。次に、画像処理部210は、対象物体31の位置姿勢情報をもとにセンサ部11の第二の位置姿勢を決定し、ロボットコントローラ部220はセンサ部11を第二の位置姿勢に移動する。そして、画像処理部210は、第二の位置姿勢を有するセンサ部11が取得した対象物体31の三次元情報を取得し、当該三次元情報をもとに対象物体31の位置姿勢を計測する。その後は、既定の条件を満足するまで、第二の位置姿勢を第一の位置姿勢として設定し直し、上記の処理を繰り返してもよい。
Next, the configuration of the information processing unit 20 will be specifically described.
The information processing unit 20 is mounted on, for example, a personal computer (PC), and includes an image processing unit 210 and a robot controller unit 210 as shown in FIG.
The image processing unit 210 acquires the three-dimensional information of the target object 31 acquired by the sensor unit 11 having the first position and orientation, and measures the position and orientation of the target object 31 based on the three-dimensional information. Next, the image processing unit 210 determines the second position and orientation of the sensor unit 11 based on the position and orientation information of the target object 31, and the robot controller unit 220 moves the sensor unit 11 to the second position and orientation. . The image processing unit 210 acquires the three-dimensional information of the target object 31 acquired by the sensor unit 11 having the second position and orientation, and measures the position and orientation of the target object 31 based on the three-dimensional information. Thereafter, the second position and orientation may be reset as the first position and orientation until the predetermined condition is satisfied, and the above processing may be repeated.

このように、本ロボットシステム100では、対象物体31の三次元位置姿勢計測を複数回行う。このとき、画像処理部210は、センサ部11の第二の位置姿勢を、対象物体31の三次元位置姿勢計測を効率良く行うことができる位置姿勢に設定する。これにより、三次元情報を取得する回数を繰り返す毎に、対象物体31に対する詳細な三次元位置姿勢計測結果を得るようにする。   Thus, in the robot system 100, the three-dimensional position / orientation measurement of the target object 31 is performed a plurality of times. At this time, the image processing unit 210 sets the second position / posture of the sensor unit 11 to a position / posture at which the three-dimensional position / posture measurement of the target object 31 can be efficiently performed. Thereby, every time the number of times of acquiring the three-dimensional information is repeated, a detailed three-dimensional position and orientation measurement result for the target object 31 is obtained.

以下、画像処理部210及びロボットコントローラ部210を構成する各部について詳細に説明する。
画像処理部210は、センサ情報取得部211と、モデル情報保持部212と、三次元位置姿勢計測部213と、オクルージョン推定部214と、センサ位置姿勢決定部215と、を備える。また、ロボットコントローラ部210は、ロボット作業指示部221と、ロボット制御部222と、を備える。
センサ情報取得部211は、センサ部11が出力する二次元画像を取得し、取得した二次元画像を三次元位置姿勢計測部213に出力する。
モデル情報保持部212は、後述する三次元位置姿勢計測部213で対象物体31の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報としては、三次元CADに基づく三次元幾何モデルや、実際の対象物体31もしくは対象物体31を模した三次元幾何モデルを予め定められた複数の視点から見た参照画像モデル等が挙げられる。
Hereinafter, each part which comprises the image process part 210 and the robot controller part 210 is demonstrated in detail.
The image processing unit 210 includes a sensor information acquisition unit 211, a model information holding unit 212, a three-dimensional position / orientation measurement unit 213, an occlusion estimation unit 214, and a sensor position / orientation determination unit 215. The robot controller unit 210 includes a robot work instruction unit 221 and a robot control unit 222.
The sensor information acquisition unit 211 acquires the two-dimensional image output from the sensor unit 11 and outputs the acquired two-dimensional image to the three-dimensional position / orientation measurement unit 213.
The model information holding unit 212 holds model information used for measuring the position and orientation of the target object 31 by a three-dimensional position and orientation measurement unit 213 described later. The model information includes a three-dimensional geometric model based on three-dimensional CAD, a reference image model obtained by viewing an actual target object 31 or a three-dimensional geometric model imitating the target object 31 from a plurality of predetermined viewpoints, and the like. .

上記三次元幾何モデルは、三次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは三次元CADモデルをコンピュータグラフィックス分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素を利用した場合について説明する。
三次元幾何モデルは、図4〜図9に示すように、点、線、面といった構成要素からなる。ここで、図4〜図9は、いずれも同じ三次元幾何モデルを示している。図4及び図5は三次元幾何モデルの各頂点を示し、図6及び図7は三次元幾何モデルの各辺となる線を示し、図8及び図9は三次元幾何モデルの各面を示す。三次元幾何モデルには、図9に示すように、三次元幾何モデルを構成する面の法線データが含まれている。
The three-dimensional geometric model is a CAD model itself that can be handled by three-dimensional CAD software, or a three-dimensional CAD model converted into a plurality of polygon elements used in the computer graphics field. In the present embodiment, a case where a polygon element is used will be described.
As shown in FIGS. 4 to 9, the three-dimensional geometric model includes components such as points, lines, and surfaces. Here, FIGS. 4 to 9 show the same three-dimensional geometric model. 4 and 5 show the vertices of the 3D geometric model, FIGS. 6 and 7 show the lines that form the sides of the 3D geometric model, and FIGS. 8 and 9 show the faces of the 3D geometric model. . As shown in FIG. 9, the three-dimensional geometric model includes normal data of surfaces constituting the three-dimensional geometric model.

上記参照画像モデルは、複数の二次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体31を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。このように、様々な方法で撮影を行ってもよいが、撮影したときのカメラと対象物体31との相対位置姿勢を求め、撮影画像と併せて記憶しておくものとする。当該相対位置姿勢は、やぐらに複数のカメラを配置したときは、やぐらの形状から求めることができる。また、人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着して求めることができる。さらに、ロボットに装着したカメラで撮影するときは、ロボットの制御情報を利用して求めることができる。   The reference image model is data composed of a plurality of two-dimensional images. The reference image model based on the photographed image is created from images obtained by photographing with a camera from various directions around the target object 31. To shoot, you can assemble a tower and place multiple cameras, or you can shoot with a camera by hand, or you can shoot while moving the robot with a camera attached to the robot. . As described above, the photographing may be performed by various methods. However, the relative position and orientation between the camera and the target object 31 at the time of photographing are obtained and stored together with the photographed image. The relative position and orientation can be obtained from the shape of the tower when a plurality of cameras are arranged in the tower. Further, when a person has a camera by hand, it can be obtained by attaching a position and orientation sensor to the camera. Furthermore, when shooting with a camera attached to the robot, it can be obtained using the control information of the robot.

対象物体31を模した三次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から、頂点が等しい距離になるジオデシック・ドーム(Geodesic Dome)を設定し、ジオデシック・ドームの頂点からCADモデルの中心を向いてみたときの画像を用いる。ジオデシック・ドームの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかを画像と共に記憶しておく。ここでは、ジオデシック・ドームの各頂点から中心を観察したときの画像を参照画像モデルとする。なお、参照画像モデルは輝度画像でもよいし距離画像でもよい。   The reference image model based on the three-dimensional geometric model imitating the target object 31 sets a geodesic dome (Geodesic Dome) whose vertices are at equal distances from the center of the CAD model, and the center of the CAD model from the vertex of the geodesic dome. Use the image when looking at the camera. The geodesic dome has multiple vertices, and each adjacent vertex has the same distance. A certain vertex is used as a reference position, and from which direction the image is viewed based on a relative relationship with another vertex is stored together with the image. Here, an image when the center is observed from each vertex of the geodesic dome is used as a reference image model. Note that the reference image model may be a luminance image or a distance image.

また、対象物体31が1種類と予め分かっている場合は、その種類のモデル情報だけ保存する。一方、複数種類の対象物体31を扱う場合は、複数のモデル情報を保存しておき、利用時に切り替える。
三次元位置姿勢計測部213は、センサ情報取得部211から出力された二次元画像を解析したデータと、モデル情報保持部212が保持しているモデル情報とを利用し、対象物体31の位置姿勢を求める。このとき、三次元位置姿勢計測部213は、複数の対象物体31の位置姿勢情報と、複数の対象物体31のうちロボット10による把持対象となる1つの対象物体31(計測対象物体311)の位置姿勢情報とを算出する。そして、三次元位置姿勢計測部213は、求めた位置姿勢情報をオクルージョン推定部213に出力する。
If the target object 31 is known in advance as one type, only that type of model information is stored. On the other hand, when dealing with a plurality of types of target objects 31, a plurality of model information is stored and switched at the time of use.
The three-dimensional position / orientation measurement unit 213 uses the data obtained by analyzing the two-dimensional image output from the sensor information acquisition unit 211 and the model information held by the model information holding unit 212 to determine the position and posture of the target object 31. Ask for. At this time, the three-dimensional position / orientation measurement unit 213 determines the position / orientation information of the plurality of target objects 31 and the position of one target object 31 (measurement target object 311) to be gripped by the robot 10 among the plurality of target objects 31. Attitude information is calculated. Then, the three-dimensional position / orientation measurement unit 213 outputs the obtained position / orientation information to the occlusion estimation unit 213.

上記モデル情報として三次元幾何モデルを利用する場合は、三次元幾何モデルから抽出した表面の点群データと、センサ情報取得部211から出力された二次元のパターン画像から抽出した距離点群との対応付けを行うことで対象物体31の位置姿勢を求める。
パターン画像から距離点群を求めるには、空間符号化法、光切断法などの技術を用いればよい。求めた距離点群とモデル情報とを利用して対象物体31の位置姿勢を求めるために、本実施形態では、例えばICP(Iterative Closest Point)法を用い、対象物体31の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体31の位置姿勢を求めるための手法はICP法に限定されるものではない。
When a 3D geometric model is used as the model information, the surface point cloud data extracted from the 3D geometric model and the distance point cloud extracted from the 2D pattern image output from the sensor information acquisition unit 211 By performing the association, the position and orientation of the target object 31 are obtained.
In order to obtain the distance point group from the pattern image, a technique such as a spatial encoding method or a light cutting method may be used. In this embodiment, in order to obtain the position and orientation of the target object 31 using the obtained distance point group and model information, for example, the ICP (Iterative Closest Point) method is used in this embodiment, and the position and orientation of the target object 31 are obtained by iterative calculation. Correct it repeatedly. Note that the method for obtaining the position and orientation of the target object 31 is not limited to the ICP method.

モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体31との位置姿勢情報に基づいて対象物体31の位置姿勢を求める。
オクルージョン推定部214は、三次元位置姿勢計測部213で得られた複数の対象物体31の位置姿勢情報を用い、パレット32内の計測対象物体311を更に詳細に撮影するためのセンサ部11の位置姿勢(第二の位置姿勢)を決定する。このとき、複数の候補位置姿勢を作成し、各候補位置姿勢で撮影したときのオクルージョンの発生状況をシミュレーションする。そして、そのシミュレーション結果をもとに、最適な第二の位置姿勢を決定する。
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target is determined based on position and orientation information with the target object 31 associated with the reference image. The position and orientation of the object 31 are obtained.
The occlusion estimation unit 214 uses the position / orientation information of the plurality of target objects 31 obtained by the three-dimensional position / orientation measurement unit 213, and the position of the sensor unit 11 for photographing the measurement target object 311 in the pallet 32 in more detail. The posture (second position / posture) is determined. At this time, a plurality of candidate position / postures are created, and the occurrence state of occlusion when photographing at each candidate position / posture is simulated. Based on the simulation result, the optimum second position and orientation are determined.

ここで、オクルージョンとは、例えばステレオ法を用いた距離計測手法を行う際に、カメラ112とプロジェクタ111との視差と計測対象物体の配置との関係により、計測対象物体がプロジェクタ111によって捉えることができなくなる状態のことをいう。プロジェクタ111から投射したパターン投影光の影が計測対象物体に掛かる場合などがこれに該当する。また、このオクルージョンの発生により、プロジェクタ111によって捉えることができなくなった領域(計測対象物体が遮蔽された領域)のことを、隠れ領域(オクルージョン領域)という。   Here, the occlusion means that when the distance measurement method using, for example, the stereo method is performed, the measurement target object is captured by the projector 111 based on the relationship between the parallax between the camera 112 and the projector 111 and the arrangement of the measurement target object. It means a state where it cannot be done. This is the case when the shadow of the pattern projection light projected from the projector 111 is applied to the measurement target object. In addition, an area that cannot be captured by the projector 111 due to the occurrence of occlusion (an area where the measurement target object is shielded) is referred to as a hidden area (occlusion area).

図10は、オクルージョンの発生状況の一例を示す図である。
センサ部11を、プロジェクタ111及びカメラ112が図10に示す位置姿勢となるように配置し、プロジェクタ111から計測対象物体311へ向けて投射したパターン光をカメラ112によって撮影する場合について説明する。この場合、プロジェクタ111から投射したパターン光は、計測対象物体311近傍に配置された障害物312によって影となり、計測対象物体311に照射されない。そのため、カメラ112は、プロジェクタ111のパターン投影光を撮影することはできない。このとき発生する影の領域301が隠れ領域である。
ここで、障害物312は、例えば、計測対象物体311以外の対象物体31である。この図10では、障害物312は計測対象物体311と同一形状であるが、垂直に立った状態で配置されていたものとしている。
FIG. 10 is a diagram illustrating an example of an occurrence state of occlusion.
A case will be described in which the sensor unit 11 is arranged so that the projector 111 and the camera 112 have the position and orientation shown in FIG. 10, and the pattern light projected from the projector 111 toward the measurement target object 311 is captured by the camera 112. In this case, the pattern light projected from the projector 111 becomes a shadow by the obstacle 312 disposed in the vicinity of the measurement target object 311 and is not irradiated to the measurement target object 311. Therefore, the camera 112 cannot capture the pattern projection light of the projector 111. A shadow area 301 generated at this time is a hidden area.
Here, the obstacle 312 is, for example, the target object 31 other than the measurement target object 311. In FIG. 10, the obstacle 312 has the same shape as the measurement target object 311, but is arranged in a vertically standing state.

隠れ領域301の量は、オクルージョン量302として観測される。図10では平面図であるため、オクルージョン量302の直線の長さが隠れ領域301の量に相当する。但し、実際には、オクルージョン量302は、三次元モデルでのレンダリング法により面積として観測されるため、総面積量によってオクルージョン量302が算出される。
オクルージョンの発生は、対象物体31の位置姿勢とセンサ部11の位置姿勢によって決まる。そのため、既存のコンピュータグラフィックス技術を用いることで、センサ部11が任意の位置姿勢を取った場合の撮影画像の状態の予測を行うことができる。
そこで、オクルージョン推定部214は、複数の対象物体31の位置姿勢情報、パレット32の位置姿勢情報、光源(プロジェクタ111)の情報、及びセンサ部11の位置姿勢情報を用いてレンダリングを行う。レンダリング技法には、レイトレーシング法などを用いることができる。
The amount of the hidden area 301 is observed as an occlusion amount 302. Since FIG. 10 is a plan view, the length of the straight line of the occlusion amount 302 corresponds to the amount of the hidden area 301. However, in practice, the occlusion amount 302 is observed as an area by a rendering method using a three-dimensional model, and thus the occlusion amount 302 is calculated from the total area amount.
Occlusion occurs depending on the position and orientation of the target object 31 and the position and orientation of the sensor unit 11. Therefore, by using the existing computer graphics technology, it is possible to predict the state of the captured image when the sensor unit 11 takes an arbitrary position and orientation.
Therefore, the occlusion estimation unit 214 performs rendering using the position and orientation information of the plurality of target objects 31, the position and orientation information of the pallet 32, the information of the light source (projector 111), and the position and orientation information of the sensor unit 11. As the rendering technique, a ray tracing method or the like can be used.

オクルージョン推定部214は、複数の視点からそれぞれ計測対象物体311を見たときの、当該計測対象物体311が遮蔽される隠れ領域をそれぞれ算出する。すなわち、オクルージョン推定部214は、センサ部11の位置姿勢の候補を複数設定し、それぞれの位置姿勢のときのオクルージョン量を推定する。
センサ位置姿勢決定部215は、オクルージョン推定部214で推定した各候補位置姿勢でのオクルージョン量に基づいて、センサ部11の第二の位置姿勢を決定する。本実施形態では、オクルージョン量が最小となる候補位置姿勢を、第二の位置姿勢として決定する。そして、センサ位置姿勢決定部215は、決定したセンサ部11の位置姿勢情報をロボットコントローラ部220のロボット作業指示部221へ出力する。
The occlusion estimation unit 214 calculates a hidden area where the measurement target object 311 is shielded when the measurement target object 311 is viewed from a plurality of viewpoints. That is, the occlusion estimation unit 214 sets a plurality of position and orientation candidates of the sensor unit 11 and estimates the occlusion amount at each position and orientation.
The sensor position / posture determination unit 215 determines the second position / posture of the sensor unit 11 based on the occlusion amount at each candidate position / posture estimated by the occlusion estimation unit 214. In the present embodiment, the candidate position / posture with the smallest occlusion amount is determined as the second position / posture. Then, the sensor position / orientation determination unit 215 outputs the determined position / orientation information of the sensor unit 11 to the robot work instruction unit 221 of the robot controller unit 220.

ロボット作業指示部221は、三次元位置姿勢計測部213や、センサ位置姿勢決定部215の計測結果に基づいて、ロボット10に対する作業を指示する情報(作業指示情報)を設定する。例えば、ロボット作業指示部221は、センサ部11を所定の位置まで移動するような作業指示情報や、センサ部11を所定の姿勢とするような作業指示情報を設定する。また、ロボット作業指示部221は、対象物体31を把持または吸着できる位置にハンド13を移動させ、把持または吸着作業を実行するような作業指示情報を設定する。なお、ロボット10の作業は移動、把持、吸着に限られるものではなく、対象物体31の外観検査など、他の作業も含むことは言うまでもない。
ロボット制御部222は、ロボット作業指示部221で設定した作業指示情報を受けて、ロボット10の制御を行う。
The robot work instruction unit 221 sets information (work instruction information) for instructing work on the robot 10 based on the measurement results of the three-dimensional position / orientation measurement unit 213 and the sensor position / orientation determination unit 215. For example, the robot work instruction unit 221 sets work instruction information for moving the sensor unit 11 to a predetermined position and work instruction information for setting the sensor unit 11 to a predetermined posture. In addition, the robot work instruction unit 221 sets work instruction information for moving the hand 13 to a position where the target object 31 can be gripped or sucked and executing the gripping or sucking work. Needless to say, the operation of the robot 10 is not limited to movement, gripping, and suction, and includes other operations such as an appearance inspection of the target object 31.
The robot control unit 222 receives the work instruction information set by the robot work instruction unit 221 and controls the robot 10.

次に、情報処理部20で実行する情報処理手順について詳細に説明する。
図11は、情報処理部20で実行する情報処理手順を示すフローチャートである。
先ずステップS1で、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、予め設定された第一の位置姿勢にセンサ部11を移動する。ここで、第一の位置姿勢は、山積みされた対象物体31をパレット32の上方から撮影でき、且つパレット32の全体を撮影できる位置姿勢とする。なお、センサ部11の位置姿勢とロボット10の座標系との相対的な位置関係は、予めキャリブレーション作業を実施して求まっているものとする。
Next, an information processing procedure executed by the information processing unit 20 will be described in detail.
FIG. 11 is a flowchart illustrating an information processing procedure executed by the information processing unit 20.
First, in step S1, the information processing unit 20 controls the driving of the robot 10 by the robot control unit 222, and moves the sensor unit 11 to a preset first position and orientation. Here, the first position / posture is a position / posture in which the stacked target objects 31 can be photographed from above the pallet 32 and the entire pallet 32 can be photographed. It is assumed that the relative positional relationship between the position and orientation of the sensor unit 11 and the coordinate system of the robot 10 is obtained in advance by performing a calibration operation.

次にステップS2では、情報処理部20は、第一の位置姿勢でカメラ112が対象物体31を撮影した二次元画像を、センサ情報取得部211によって取得し、ステップS3に移行する。
ステップS3では、情報処理部20は、ステップS2で取得した二次元画像をもとに、三次元位置姿勢計測部213で対象物体31の三次元位置姿勢を計測する。そして、情報処理部20は、複数ある対象物体31のうちの1つをピッキング作業の把持候補として選択する。選出する基準は、部品のCADモデルのフィッティング時の誤差の推定値等から決定することができる。
Next, in step S2, the information processing unit 20 acquires, by the sensor information acquisition unit 211, a two-dimensional image in which the camera 112 captures the target object 31 at the first position and orientation, and proceeds to step S3.
In step S3, the information processing unit 20 measures the three-dimensional position and orientation of the target object 31 with the three-dimensional position and orientation measurement unit 213 based on the two-dimensional image acquired in step S2. Then, the information processing unit 20 selects one of the plurality of target objects 31 as a gripping candidate for picking work. The criterion to be selected can be determined from an estimated value of an error when fitting a CAD model of a part.

以下、フィッティングアルゴリズムについて説明する。
対象物体31の位置姿勢を求めるために、モデル情報保持部212が保持しているモデル情報を参照し、対象物体31の画像と当該モデル情報とのマッチングを行う。
モデル情報として三次元幾何モデルを利用する場合は、上述したように、三次元幾何モデルの表面の点群と、センサ情報取得部211から出力されたパターン画像から求めた距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの技術を用いればよい。三次元幾何モデルの点群と距離画像点群との対応付けを行うために、ここではICP法を用いる。
Hereinafter, the fitting algorithm will be described.
In order to obtain the position and orientation of the target object 31, the model information held by the model information holding unit 212 is referred to, and the image of the target object 31 and the model information are matched.
When a 3D geometric model is used as model information, as described above, the correspondence between the point group on the surface of the 3D geometric model and the distance image point group obtained from the pattern image output from the sensor information acquisition unit 211 The position and orientation of the target object are obtained by performing the pasting. In order to obtain the distance point group from the pattern image, a technique such as a spatial encoding method or a light cutting method may be used. Here, the ICP method is used in order to associate the point group of the three-dimensional geometric model with the distance image point group.

先ず、3次元幾何モデルの表面点群をPとする。
P={p1,2,Np} ………(1)
また、距離画像点群をAとする。
A={a1,2,Na} ………(2)
三次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点Piに距離が最も近い点群Aの点をbi∈Aとしたとき、下記(3)式の誤差関数を定義できる。ここで、Rとtは、それぞれ姿勢パラメータと移動ベクトルである。
First, let P be the surface point group of the three-dimensional geometric model.
P = {p 1, p 2, ... , P Np } (1)
Also, let the distance image point group be A.
A = {a 1, a 2, ... , A Na } (2)
The surface point group P of the three-dimensional geometric model is converted and aligned with the distance point group A. When a point of point group A that is closest to each point P i of point group P is b i εA, an error function of the following equation (3) can be defined. Here, R and t are a posture parameter and a movement vector, respectively.

Figure 2016099257
Figure 2016099257

誤差関数Eを小さくするRとtを求め、下記(4)式による補正を行う。
P←RP+t ………(4)
Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出できる。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体との位置姿勢情報を元に対象物体の位置姿勢を求める。参照画像の距離値をG(i,j)、パターン画像から求めた距離画像の距離値をD(i,j)として、参照画像をm×n画素の画像としたとき、一致度Uは下記(5)式で求めることができる。
R and t for reducing the error function E are obtained, and correction is performed by the following equation (4).
P ← RP + t (4)
The convergence judgment of P is performed. If it has converged, the process ends. If not, the correction calculation is repeated. In the convergence determination, it is determined that P has converged when P hardly changes. The position and orientation can be calculated by repeating until convergence.
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target object is based on position and orientation information with the target object associated with the reference image. Find the position and orientation of When the distance value of the reference image is G (i, j), the distance value of the distance image obtained from the pattern image is D (i, j), and the reference image is an image of m × n pixels, the matching degree U is as follows: (5) It can obtain | require by Formula.

Figure 2016099257
Figure 2016099257

以上により、複数の対象物体31の位置姿勢と、ピッキング候補である対象物体31の位置姿勢とを求める。
次にステップS4では、情報処理部20は、ピッキング候補である対象物体31に対するフィッティング誤差が予め設定した一定値以下であるか否かを判定する。ここでは、上記(5)式で求められる一致度Uが閾値以下であるか否かを判定する。
そして、一致度Uが閾値を超えている場合には、フィッティング誤差量が大きいため、対象物体31の三次元計測のための再撮影が必要であると判断してステップS5に移行する。一方、一致度Uが閾値以下である場合には、フィッティングが問題なく成功しており、対象物体31の再撮影は必要ないと判断して後述するステップS12に移行する。
ステップS5では、情報処理部20は、第一の位置姿勢での三次元計測結果をもとに、対象物体31をより詳細に撮影するためのセンサ部11(カメラ112)の位置である第二の計測位置を決定する。
As described above, the position and orientation of the plurality of target objects 31 and the position and orientation of the target object 31 that is a picking candidate are obtained.
Next, in step S4, the information processing unit 20 determines whether or not the fitting error for the target object 31 that is a picking candidate is equal to or less than a predetermined value set in advance. Here, it is determined whether or not the degree of matching U obtained by the above equation (5) is equal to or less than a threshold value.
If the degree of coincidence U exceeds the threshold, the amount of fitting error is large, so it is determined that re-photographing for three-dimensional measurement of the target object 31 is necessary, and the process proceeds to step S5. On the other hand, if the degree of coincidence U is less than or equal to the threshold, it is determined that the fitting has succeeded without any problem and it is not necessary to re-photograph the target object 31, and the process proceeds to step S12 described later.
In step S5, the information processing unit 20 is the second position that is the position of the sensor unit 11 (camera 112) for photographing the target object 31 in more detail based on the three-dimensional measurement result at the first position and orientation. Determine the measurement position.

例えば、センサ部11を、カメラ112の光軸とプロジェクタ111の光軸とを含む面内で、対象物体31を中心に第一の位置姿勢から所定角度回転させた位置を、第二の計測位置とする。例えば、カメラ112で撮影した画像中の対象物体31部分に白とびが発生しない位置を、第二の計測位置として決定してもよい。また、カメラ112の光軸方向とプロジェクタ111の光軸方向とがなす角の二等分方向と、対象物体31の面の法線方向とが所定の角度以上(例えば10度以上)ずれている位置を、第二の計測位置として決定してもよい。さらに、三次元幾何モデルや参照画像モデルに予め計測するのに適切なセンサ部11の位置姿勢を登録しておき、これを第二の計測位置として決定してもよい。   For example, a position obtained by rotating the sensor unit 11 by a predetermined angle from the first position and orientation around the target object 31 in a plane including the optical axis of the camera 112 and the optical axis of the projector 111 is set as the second measurement position. And For example, a position where overexposure does not occur in the target object 31 in the image captured by the camera 112 may be determined as the second measurement position. Further, the bisection direction of the angle formed by the optical axis direction of the camera 112 and the optical axis direction of the projector 111 and the normal direction of the surface of the target object 31 are shifted by a predetermined angle or more (for example, 10 degrees or more). The position may be determined as the second measurement position. Furthermore, the position and orientation of the sensor unit 11 suitable for measurement in advance may be registered in the three-dimensional geometric model or the reference image model, and this may be determined as the second measurement position.

次にステップS6では、情報処理部20は、図12に示す第二の位置姿勢決定処理を実施により、第二の計測位置でのセンサ部11の姿勢である第二の位置姿勢を決定する。ここで、第二の位置姿勢は、第二の計測位置でオクルージョン量の総量が最小となる姿勢とする。以下、第二の位置姿勢決定処理について具体的に説明する。
図12に示すように、先ずステップS61で、情報処理部20は、上記のステップS2で求めた複数の対象物体31の位置姿勢情報と、ピッキング候補の対象物体31の位置姿勢情報とを取得する。また、情報処理部20は、モデル情報保持部212が保持しているモデル情報を取得する。さらに、情報処理部20は、センサ部11のパレット32に対する位置姿勢情報やセンサ部11のキャリブレーション情報を取得する。
Next, in step S <b> 6, the information processing unit 20 determines the second position and orientation, which is the orientation of the sensor unit 11 at the second measurement position, by performing the second position and orientation determination process shown in FIG. 12. Here, the second position / posture is a posture in which the total amount of occlusion is the minimum at the second measurement position. Hereinafter, the second position and orientation determination process will be specifically described.
As shown in FIG. 12, first, in step S61, the information processing unit 20 acquires the position and orientation information of the plurality of target objects 31 obtained in step S2 and the position and orientation information of the target objects 31 that are picking candidates. . In addition, the information processing unit 20 acquires model information held by the model information holding unit 212. Further, the information processing unit 20 acquires position and orientation information with respect to the pallet 32 of the sensor unit 11 and calibration information of the sensor unit 11.

次にステップS62で、情報処理部20は、第二の位置姿勢の候補である姿勢候補を複数作成する。ここでは、図13に示すように、例えばカメラ112のレンズの中心を通りレンズ面と直交する方向を撮影視線方向Zと定義し、当該撮影視線方向Zを軸として、カメラ112を中心にプロジェクタ111を回転させた位置を姿勢候補とする。より具体的には、図14に示すように、カメラ112を中心にプロジェクタ111を2π/n[rad]ずつ回転させた位置を、それぞれ姿勢候補とする。ここで、上記nは、処理量と精度とから任意の値を決めるものとする。このように、ステップS62では、n個の姿勢候補を作成する。   Next, in step S62, the information processing unit 20 creates a plurality of posture candidates that are candidates for the second position and posture. Here, as shown in FIG. 13, for example, a direction passing through the center of the lens of the camera 112 and orthogonal to the lens surface is defined as a shooting gaze direction Z, and the projector 111 is centered on the camera 112 with the shooting gaze direction Z as an axis. The position obtained by rotating is used as a posture candidate. More specifically, as shown in FIG. 14, positions obtained by rotating the projector 111 about the camera 112 by 2π / n [rad] are set as posture candidates. Here, n is an arbitrary value determined from the processing amount and accuracy. Thus, in step S62, n posture candidates are created.

次にステップS63では、情報処理部20は、ステップS62で作成したn個の姿勢候補につき、上述したオクルージョン量評価手法を用いて、それぞれのオクルージョン量を算出する。
次にステップS64では、情報処理部20は、各姿勢候補のオクルージョン量を比較し、オクルージョン量が最小となる姿勢候補を第二の位置姿勢として選択する。
図11に戻って、ステップS7では、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、上記のステップS6で決定した第二の位置姿勢にセンサ部11を移動する。
Next, in step S63, the information processing unit 20 calculates the respective occlusion amounts for the n posture candidates created in step S62, using the above-described occlusion amount evaluation method.
Next, in step S64, the information processing unit 20 compares the occlusion amounts of the respective posture candidates, and selects the posture candidate having the smallest occlusion amount as the second position / posture.
Returning to FIG. 11, in step S7, the information processing unit 20 controls the driving of the robot 10 by the robot control unit 222, and moves the sensor unit 11 to the second position and orientation determined in step S6.

次にステップS8では、情報処理部20は、第二の位置姿勢でカメラ112が対象物体31を撮影した二次元画像を、センサ情報取得部211によって取得し、ステップS9に移行する。
ステップS9では、情報処理部20は、ステップS8で取得した二次元画像をもとに、上述したステップS3と同様の処理により、三次元位置姿勢計測部213で対象物体31の三次元位置姿勢を計測する。なお、第二の位置姿勢は、周辺の障害物の配置状態を考慮した配置であるため、このステップS9では、オクルージョン量が少ない三次元計測が可能となる。そのため、ピッキング候補の対象物体31の位置姿勢を比較的精度良く求めることができる。
Next, in step S8, the information processing unit 20 acquires, by the sensor information acquisition unit 211, a two-dimensional image obtained by the camera 112 capturing the target object 31 at the second position and orientation, and proceeds to step S9.
In step S9, the information processing unit 20 determines the three-dimensional position / orientation of the target object 31 in the three-dimensional position / orientation measurement unit 213 based on the two-dimensional image acquired in step S8 by the same process as in step S3 described above. measure. Since the second position and orientation is an arrangement that considers the arrangement state of the surrounding obstacles, in this step S9, three-dimensional measurement with a small occlusion amount is possible. Therefore, the position and orientation of the picking candidate target object 31 can be obtained with relatively high accuracy.

次にステップS10では、情報処理部20は、三次元位置姿勢計測を繰り返すか否かを判定する。ここでは、例えば、ステップS9の計測結果をもとに、ピッキング候補である対象物体31に対するフィッティング誤差が予め設定した一定値以下であるか否かを判定する。すなわち、上記(5)式で求められる一致度Uが閾値以下であるか否かを判定する。そして、フィッティング誤差が一定値を上回っている場合には、対象物体31のピッキングが困難であり、再度、対象物体31の三次元位置姿勢計測を繰り返す必要がある(繰り返し計測が必要である)と判断し、ステップS11に移行する。
ステップS11では、情報処理部20は、上記ステップS6で決定した第二の位置姿勢を第一の位置姿勢として再設定し、上記ステップS5に戻る。すなわち、上記ステップS6で決定した第二の位置姿勢での計測結果をもとに、新たな第二の位置姿勢を決定し、新たな第二の位置姿勢で三次元位置姿勢計測を実施する。
Next, in step S10, the information processing unit 20 determines whether or not to repeat the three-dimensional position and orientation measurement. Here, for example, based on the measurement result of step S9, it is determined whether or not the fitting error for the target object 31 that is a picking candidate is equal to or smaller than a predetermined value. That is, it is determined whether or not the degree of coincidence U obtained by the equation (5) is equal to or less than a threshold value. When the fitting error exceeds a certain value, it is difficult to pick the target object 31, and it is necessary to repeat the three-dimensional position / orientation measurement of the target object 31 (repeated measurement is required). Determination is made, and the process proceeds to step S11.
In step S11, the information processing section 20 resets the second position and orientation determined in step S6 as the first position and orientation, and returns to step S5. That is, based on the measurement result at the second position and orientation determined in step S6, a new second position and orientation is determined, and three-dimensional position and orientation measurement is performed with the new second position and orientation.

一方、上記ステップS10で、フィッティング誤差が一定値以下であると判断した場合には、対象物体31のピッキングが可能であると判断してステップS12に移行する。
なお、ステップS10では、繰り返し計測の終了判定として、フィッティング誤差が一定値以下であるか否かを判定する場合について説明したが、例えば、第二の位置姿勢でのオクルージョン量(隠れ領域の大きさ)が閾値以下である場合や、第一の位置姿勢と第二の位置姿勢との差である位置姿勢変化量(センサ部11の移動量)が閾値以下である場合に、繰り返し計測を終了すると判断してもよい。
On the other hand, if it is determined in step S10 that the fitting error is equal to or less than a certain value, it is determined that the target object 31 can be picked, and the process proceeds to step S12.
In step S10, the case where it is determined whether or not the fitting error is equal to or less than a certain value has been described as the end determination of the repeated measurement. For example, the occlusion amount (the size of the hidden area) in the second position and orientation is described. ) Is less than or equal to the threshold, or when the position and orientation change amount (movement amount of the sensor unit 11), which is the difference between the first position and orientation, is less than or equal to the threshold, You may judge.

ステップS12では、情報処理部20は、ロボット制御部222によりロボット10を駆動制御し、ピッキング候補の対象物体31に対する作業を指示する。すなわち、ロボット10が対象物体31を把持するハンド13を有する場合には、ロボット制御部222がロボット10に対して対象物体31を把持するよう指示する。また、ロボット10が対象物体31を吸着するハンド13を有する場合には、ロボット制御部222がロボット10に対して対象物体31を吸着するよう指示する。   In step S <b> 12, the information processing unit 20 controls the driving of the robot 10 by the robot control unit 222 and instructs the target object 31 as a picking candidate. That is, when the robot 10 has the hand 13 that holds the target object 31, the robot control unit 222 instructs the robot 10 to hold the target object 31. When the robot 10 has the hand 13 that sucks the target object 31, the robot control unit 222 instructs the robot 10 to suck the target object 31.

次にステップS13では、情報処理部20は、ロボット10による作業を終了するか否かを判定する。ここでは、例えば、オペレータからの終了指示があったか否かを判定する。そして、終了指示がなければ上記ステップS1に戻り、終了指示があれば処理を終了する。
なお、図11に示す処理は、例えばオペレータが図示しない緊急停止ボタンを押すことにより強制的に終了することもできる。
なお、図1において、センサ部11はセンサ手段の一例に相当し、位置姿勢変更機構12は移動手段の一例に相当する。また、三次元位置姿勢計測部213は計測手段の一例に相当し、オクルージョン推定部214は算出手段の一例に相当し、センサ位置姿勢決定部215は決定手段の一例に相当する。さらに、ロボットコントローラ部220は制御手段の一例に相当する。また、図11において、ステップS10は繰り返し手段の一例に相当する。
Next, in step S <b> 13, the information processing unit 20 determines whether or not to finish the work by the robot 10. Here, for example, it is determined whether or not there is an end instruction from the operator. If there is no end instruction, the process returns to step S1, and if there is an end instruction, the process ends.
Note that the processing shown in FIG. 11 can be forcibly terminated by, for example, pressing an emergency stop button (not shown) by the operator.
In FIG. 1, the sensor unit 11 corresponds to an example of a sensor unit, and the position / orientation change mechanism 12 corresponds to an example of a moving unit. The three-dimensional position / orientation measurement unit 213 corresponds to an example of a measurement unit, the occlusion estimation unit 214 corresponds to an example of a calculation unit, and the sensor position / orientation determination unit 215 corresponds to an example of a determination unit. Further, the robot controller unit 220 corresponds to an example of a control unit. In FIG. 11, step S10 corresponds to an example of a repeating unit.

以上のように、本実施形態では、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを備えるセンサ部11を用いて、対象物体31の三次元位置姿勢計測を複数回行う。その際、先ず、図15に示すように、第一の位置姿勢P1で複数の対象物体31に関する三次元情報を取得し、複数の対象物体31のうちピッキング候補となる対象物体(計測対象物体)311やその周辺の障害物312の三次元位置姿勢計測を行う。そして、その三次元位置姿勢計測結果に基づいて、第二の計測位置を決定する。この第二の計測位置は、センサ部11を、対象物体311を中心にプロジェクタ111の光軸とカメラ112の光軸とを含む面内で所定角度回転させた位置であり、例えば図10に示す位置に決定されたものとする。   As described above, in this embodiment, the three-dimensional position and orientation measurement of the target object 31 is performed a plurality of times using the sensor unit 11 including the projector (projection unit) 111 and the camera (imaging unit) 112. In this case, first, as shown in FIG. 15, three-dimensional information related to a plurality of target objects 31 is acquired at the first position and orientation P1, and a target object (measurement target object) that becomes a picking candidate among the plurality of target objects 31. 3D position and orientation measurement of 311 and its surrounding obstacle 312 is performed. Then, based on the three-dimensional position and orientation measurement result, the second measurement position is determined. The second measurement position is a position obtained by rotating the sensor unit 11 by a predetermined angle around a target object 311 within a plane including the optical axis of the projector 111 and the optical axis of the camera 112. For example, as shown in FIG. Assume that the position is determined.

しかしながら、図10に示す状態では、プロジェクタ111から対象物体311を観察した場合、当該対象物体311は障害物312の後ろに隠れる。つまり、プロジェクタ111のパターン投影光は、障害物312によって遮蔽され、対象物体311に照射されない。このように、図10に示す位置姿勢ではオクルージョンが発生し、カメラ112はプロジェクタ111のパターン投影光を撮影することができない。
このように、センサ部11と対象物体311との相対的な姿勢関係によって、プロジェクタ111のパターン照明光による想定外のオクルージョンが発生すると、その領域では三次元位置姿勢計測が不可能になる。
However, in the state illustrated in FIG. 10, when the target object 311 is observed from the projector 111, the target object 311 is hidden behind the obstacle 312. That is, the pattern projection light of the projector 111 is shielded by the obstacle 312 and is not irradiated to the target object 311. Thus, occlusion occurs in the position and orientation shown in FIG. 10, and the camera 112 cannot capture the pattern projection light of the projector 111.
As described above, when unexpected occlusion occurs due to the pattern illumination light of the projector 111 due to the relative posture relationship between the sensor unit 11 and the target object 311, three-dimensional position and posture measurement is impossible in that region.

そこで、本実施形態では、複数の視点からプロジェクタ111によって対象物体311を見たときの、当該対象物体311が遮蔽される隠れ領域をそれぞれ算出する。そして、算出した隠れ領域の大きさ(オクルージョン量)に基づいて、三次元計測に適したセンサ部11の第二の位置姿勢を決定し、当該第二の位置姿勢にて対象物体311の三次元計測を行うようにする。
このように、対象物体311に対する隠れ領域を考慮してセンサ部11の第二の位置姿勢を決定するので、第二の位置姿勢を有するセンサ部11によって対象物体311に関する適切な三次元情報を取得することができる。そのため、オクルージョンの発生により対象物体311の位置姿勢(三次元形状)の計測精度が低下するのを抑制し、適切な三次元計測が可能となる。
Therefore, in the present embodiment, a hidden region where the target object 311 is shielded when the target object 311 is viewed by the projector 111 from a plurality of viewpoints is calculated. Then, based on the calculated size (occlusion amount) of the hidden area, the second position / posture of the sensor unit 11 suitable for three-dimensional measurement is determined, and the three-dimensional shape of the target object 311 is determined based on the second position / posture. Make measurements.
Thus, since the second position and orientation of the sensor unit 11 is determined in consideration of the hidden area with respect to the target object 311, appropriate three-dimensional information related to the target object 311 is acquired by the sensor unit 11 having the second position and orientation. can do. Therefore, it is possible to suppress a decrease in measurement accuracy of the position and orientation (three-dimensional shape) of the target object 311 due to the occurrence of occlusion, and appropriate three-dimensional measurement is possible.

このとき、第二の計測位置において、カメラ112の視線方向を軸とし、カメラ112を中心にプロジェクタ111を回転させて第二の位置姿勢を決定してもよい。具体的には、カメラ112を中心にプロジェクタ111を2π/n[rad]ずつ回転させたn個の姿勢候補について、それぞれオクルージョン量を推定し、第二の位置姿勢を決定することができる。これにより、比較的簡易に第二の位置姿勢の候補を作成することができ、容易にオクルージョンの発生状況をシミュレーションすることができる。   At this time, the second position and orientation may be determined by rotating the projector 111 around the camera 112 with the line-of-sight direction of the camera 112 as the axis at the second measurement position. Specifically, the second position and orientation can be determined by estimating the occlusion amount for each of n posture candidates obtained by rotating the projector 111 by 2π / n [rad] around the camera 112. As a result, the second position / posture candidate can be created relatively easily, and the occurrence state of the occlusion can be easily simulated.

図16に示すように、カメラ112の座標(位置)が図10と同じであっても、プロジェクタ111の配置(姿勢)が適切であると、障害物312によって発生する隠れ領域301が対象物体311に掛かることはない。そのため、この図16に示す位置姿勢では、対象物体311に投影されるプロジェクタ111のパターン投影光はオクルージョンの影響を受けることなくすべてカメラ112で観測することができる。
したがって、各姿勢候補のオクルージョン量が最小となる位置姿勢を検索する評価処理を行い、オクルージョン量が最小となる姿勢をセンサ部11の位置姿勢の最適値である第二の位置姿勢として決定することが好ましい。そして、その第二の位置姿勢で対象物体311の三次元情報を取得し、三次元位置姿勢計測を行う。
このように、障害物312とセンサ部11との幾何的配置によって発生する隠れ領域301のオクルージョン量302が最小になるようにセンサ部11の第二の位置姿勢を決定するので、対象物体311の三次元位置姿勢計測を精度良く行うことができる。
As shown in FIG. 16, even if the coordinates (position) of the camera 112 are the same as those in FIG. 10, the hidden area 301 generated by the obstacle 312 becomes the target object 311 if the arrangement (posture) of the projector 111 is appropriate. It won't take on. Therefore, in the position and orientation shown in FIG. 16, all the pattern projection light of the projector 111 projected onto the target object 311 can be observed by the camera 112 without being affected by occlusion.
Therefore, an evaluation process for searching for a position and orientation that minimizes the occlusion amount of each orientation candidate is performed, and an orientation that minimizes the occlusion amount is determined as the second position and orientation that is the optimum value of the position and orientation of the sensor unit 11. Is preferred. Then, the 3D information of the target object 311 is acquired with the second position and orientation, and the 3D position and orientation is measured.
As described above, the second position and orientation of the sensor unit 11 is determined so that the occlusion amount 302 of the hidden area 301 generated by the geometric arrangement of the obstacle 312 and the sensor unit 11 is minimized. Three-dimensional position and orientation measurement can be performed with high accuracy.

また、この三次元位置姿勢計測は、規定の条件を満足するまで繰り返し実行することが好ましい。このとき、オクルージョン量が閾値以下となったり、第一の位置姿勢と第二の位置姿勢との差(センサ部11の移動量)が閾値以下となったりした場合に、三次元位置姿勢計測の繰り返しを終了する。これにより、三次元情報を取得する回数を繰り返す毎に、対象物体に対する詳細な三次元位置姿勢計測結果を得ることができる。
そして、上記のように高精度に計測した対象物体311の位置姿勢に基づいて、ロボット10の対象物体311への作業(例えば、把持や吸着)を制御するので、ロボット10による上記作業の失敗を抑制し、効率的な作業を実現することができる。
Further, it is preferable that this three-dimensional position / orientation measurement is repeatedly executed until a prescribed condition is satisfied. At this time, when the occlusion amount is equal to or smaller than the threshold value, or the difference between the first position and posture (the movement amount of the sensor unit 11) is equal to or smaller than the threshold value, the three-dimensional position and posture measurement is performed. End the iteration. Thereby, every time the number of times of acquiring the three-dimensional information is repeated, a detailed three-dimensional position and orientation measurement result for the target object can be obtained.
Since the operation (for example, gripping or suctioning) of the robot 10 on the target object 311 is controlled based on the position and orientation of the target object 311 measured with high accuracy as described above, the robot 10 can prevent the above-described operation failure. Suppressing and realizing efficient work.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
この第二の実施形態は、対象物体31内の形状に起因する微小オクルージョンを考慮して最適な位置姿勢を特定することで、第二の位置姿勢を決定するようにしたものである。
図17は、第二の実施形態における対象物体31の形状を示す図である。この図17に示すように、対象物体31は、ロボット10のハンド13によって把持される把持部31aを備える。この把持部31aは、対象物体31の特徴部分である。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the second embodiment, the second position and orientation are determined by specifying the optimum position and orientation in consideration of minute occlusion due to the shape in the target object 31.
FIG. 17 is a diagram illustrating the shape of the target object 31 in the second embodiment. As shown in FIG. 17, the target object 31 includes a grip portion 31 a that is gripped by the hand 13 of the robot 10. The grip portion 31 a is a characteristic part of the target object 31.

対象物体31が図17に示すように把持部31aを有する形状であると、把持部31aの接続部周辺にオクルージョンが発生する可能性がある。その例を図18に示す。
センサ部11の位置姿勢が図18に示す状態にあり、カメラ112によってピッキング候補である対象物体311を撮影する場合、障害物312によるオクルージョンは発生しないものの、把持部311aによって発生するオクルージョンが対象物体311上に発生する。このように、把持部311a周辺にオクルージョンが発生すると、ロボット10が把持を行うときの場所の特定精度が低下してしまう。
If the target object 31 has a shape having a grip portion 31a as shown in FIG. 17, there is a possibility that occlusion occurs around the connection portion of the grip portion 31a. An example is shown in FIG.
When the position and orientation of the sensor unit 11 is in the state shown in FIG. 18 and the target object 311 that is a picking candidate is photographed by the camera 112, the occlusion caused by the grasping unit 311a is not detected although the occlusion due to the obstacle 312 does not occur. Occurs on 311. As described above, when the occlusion occurs around the grip portion 311a, the location specifying accuracy when the robot 10 grips is lowered.

そこで、本実施形態では、上述した第一の実施形態において実施した障害物312による隠れ領域を最小化するセンサ部11の位置姿勢決定手法を、特徴部分である把持部311a周辺の隠れ領域301に適用する。すなわち、特徴部分である把持部311aに関する隠れ領域301の大きさ(オクルージョン量)が最小となる位置姿勢を、第二の位置姿勢として決定する。
なお、第一の実施形態で示される障害物312による隠れ領域のオクルージョン量最小化のためのセンサ部11の位置姿勢最適化手法と、第二の実施形態で示される把持部311a周辺の隠れ領域のオクルージョン量最小化のためのセンサ部11の位置姿勢最適化手法とは、順次行ってもよいし、可能であれば同時に行ってもよい。
Therefore, in this embodiment, the position and orientation determination method of the sensor unit 11 that minimizes the hidden region due to the obstacle 312 performed in the first embodiment described above is applied to the hidden region 301 around the grip unit 311a that is a characteristic part. Apply. That is, the position and orientation at which the size (occlusion amount) of the hidden area 301 related to the grip portion 311a that is the characteristic portion is minimized is determined as the second position and orientation.
In addition, the position and orientation optimization method of the sensor unit 11 for minimizing the occlusion amount of the hidden area due to the obstacle 312 shown in the first embodiment, and the hidden area around the grip part 311a shown in the second embodiment The method for optimizing the position and orientation of the sensor unit 11 for minimizing the occlusion amount may be performed sequentially or simultaneously if possible.

以上により、対象物体31の形状に起因する微小オクルージョンに関して最適な位置姿勢を特定することができる。したがって、センサ部11の第二の位置姿勢を適切に決定し、撮影精度を向上することが可能となる。このように、対象物体31内の形状に起因する微小オクルージョン量を少なくすると、特徴部分である把持部311a周辺のオクルージョン量を低減させることが可能となり、ロボット10が把持を行うときの場所の特定の精度が高まる。
また、把持部311aのような局所的な形状は、画像処理(SIFT法、Harris法、Canny法など)において特徴量を持つ場合が多い。そのため、これらの画像特徴量が高くなる個所周辺のオクルージョン量が低減することは、モデルフィッティング等の処理においても精度向上が期待できる。
As described above, the optimum position and orientation with respect to the minute occlusion caused by the shape of the target object 31 can be specified. Therefore, it is possible to appropriately determine the second position and orientation of the sensor unit 11 and improve the photographing accuracy. Thus, if the amount of minute occlusion caused by the shape in the target object 31 is reduced, it becomes possible to reduce the amount of occlusion around the grip portion 311a, which is a characteristic part, and specify the location when the robot 10 performs gripping. Increased accuracy.
In addition, a local shape such as the grip portion 311a often has a feature amount in image processing (SIFT method, Harris method, Canny method, etc.). Therefore, a reduction in the amount of occlusion around the location where these image feature amounts increase can be expected to improve accuracy in processing such as model fitting.

(第二の実施形態の変形例)
上記第二の実施形態においては、ロボット10による作業として把持や吸着の例を挙げたが、把持を行う場合は、対象物体を把持する箇所(N本指のハンドであればN箇所のスペース)の位置姿勢を特に精度良く求めるようにしてもよい。また、吸着を行う場合は、対象物体を吸着する箇所(安定的な面)の位置姿勢を特に精度良く求めるようにしてもよい。この場合、把持する箇所、吸着する箇所の周囲に存在する特徴的な箇所を利用して上記第二の実施形態で述べた方法を利用する。
(Modification of the second embodiment)
In the second embodiment, examples of gripping and sucking are given as work by the robot 10, but when gripping, a location where the target object is gripped (N spaces for an N-finger hand) The position and orientation may be obtained with particularly high accuracy. In the case of performing suction, the position and orientation of a portion (stable surface) that sucks the target object may be obtained particularly accurately. In this case, the method described in the second embodiment is used by using the characteristic parts existing around the gripping part and the suctioning part.

(第三の実施形態)
次に、本発明の第三の実施形態について説明する。
この第三の実施形態は、上述した第一及び第二の実施形態において、1台のセンサ部11を第一の位置姿勢と第二の位置姿勢とに移動して対象物体31の三次元情報を取得しているのに対し、センサ部を2台設置するようにしたものである。
図19は、第三の実施形態におけるロボットシステム100の構成例を示す図である。
本実施形態におけるロボットシステム100は、図1に示すロボットシステム100にセンサ部14を追加したことを除いては、図1のロボットシステム100と同様の構成を有する。したがって、ここでは構成の異なる部分を中心に説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
In the third embodiment, in the first and second embodiments described above, the one sensor unit 11 is moved to the first position and orientation and the three-dimensional information of the target object 31. In contrast to this, two sensor units are installed.
FIG. 19 is a diagram illustrating a configuration example of the robot system 100 according to the third embodiment.
The robot system 100 in this embodiment has the same configuration as the robot system 100 of FIG. 1 except that the sensor unit 14 is added to the robot system 100 shown in FIG. Therefore, here, the description will focus on the different parts.

センサ部14は、センサ部11と同様にプロジェクタとカメラとを備え、対象物体31に関する3次元情報を取得し、取得した3次元情報を画像処理部210のセンサ情報取得部211に出力する。センサ部14は、上述した第一及び第二の実施形態における第一の位置姿勢で配置されている。
画像処理部20は、第一の位置姿勢にあるセンサ部14で取得した二次元画像に基づいて、対象物体31の三次元位置姿勢計測を行う。そして、画像処理部210は、その三次元位置姿勢計測結果に基づいて、オクルージョン量の算出等を行い、その結果を用いてセンサ11の最適な位置姿勢(第二の位置姿勢)を決定する。
Similar to the sensor unit 11, the sensor unit 14 includes a projector and a camera, acquires three-dimensional information about the target object 31, and outputs the acquired three-dimensional information to the sensor information acquisition unit 211 of the image processing unit 210. The sensor unit 14 is arranged in the first position and orientation in the first and second embodiments described above.
The image processing unit 20 measures the three-dimensional position and orientation of the target object 31 based on the two-dimensional image acquired by the sensor unit 14 in the first position and orientation. Then, the image processing unit 210 calculates the occlusion amount based on the three-dimensional position / orientation measurement result, and determines the optimum position / orientation (second position / orientation) of the sensor 11 using the result.

このように、第一の位置姿勢で三次元情報を取得するセンサ部を、第二の位置姿勢で三次元情報を取得するセンサ部とは異なるセンサ部とする。センサ部14とセンサ部11の2台を用いて対象物体31の三次元位置姿勢計測を行うことで、効率良く三次元情報を取得することができる。
なお、センサ部14は、距離の算出や推定が可能な構成であれば、カメラのみを備え二次元情報を取得するセンサ部であってもよい。すなわち、第一の位置姿勢で取得する対象物体31に関する情報は二次元情報であってもよい。この場合にも、センサ部14で取得した二次元画像を解析したデータと、モデル情報保持部212が保持しているモデル情報とを利用して対象物体31の位置姿勢を求めることができる。
As described above, the sensor unit that acquires the three-dimensional information with the first position and orientation is different from the sensor unit that acquires the three-dimensional information with the second position and orientation. By performing three-dimensional position and orientation measurement of the target object 31 using the two sensor units 14 and 11, three-dimensional information can be efficiently acquired.
The sensor unit 14 may be a sensor unit that includes only a camera and acquires two-dimensional information as long as the distance can be calculated and estimated. That is, the information regarding the target object 31 acquired at the first position and orientation may be two-dimensional information. Also in this case, the position and orientation of the target object 31 can be obtained by using the data obtained by analyzing the two-dimensional image acquired by the sensor unit 14 and the model information held by the model information holding unit 212.

その際、モデル情報として三次元幾何モデルを利用する場合は、三次元幾何モデルの辺である線と、上記に次元画像から抽出したエッジ成分との対応付けを行うことにより対象物体31の位置姿勢を求めればよい。例えば、二次元画像に三次元幾何モデルが当てはまるように、対象物体31の位置姿勢の概略値を反復演算によって繰り返し補正する。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体31の位置姿勢情報に基づいて対象物体31の位置姿勢を求めればよい。
At this time, when a 3D geometric model is used as model information, the position and orientation of the target object 31 are obtained by associating a line that is a side of the 3D geometric model with the edge component extracted from the dimensional image. You can ask for. For example, the approximate value of the position and orientation of the target object 31 is repeatedly corrected by iterative calculation so that a three-dimensional geometric model is applied to the two-dimensional image.
When a reference image model is used as model information, a reference image that most closely matches is obtained by template matching using the reference image model as a template, and the target object is based on the position and orientation information of the target object 31 associated with the reference image. What is necessary is just to obtain the position and orientation of 31.

(第四の実施形態)
次に、本発明の第四の実施形態について説明する。
この第四の実施形態は、対象物体に対してオクルージョンを発生させている障害物を特定し、隠れ領域を低減するようにしたものである。
図20は、第四の実施形態におけるロボットシステム100の構成例を示す図である。
本実施形態におけるロボットシステム100は、図1に示すロボットシステム100に障害物認識部216を追加した構成を有する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment, an obstacle causing occlusion to a target object is specified, and a hidden area is reduced.
FIG. 20 is a diagram illustrating a configuration example of the robot system 100 according to the fourth embodiment.
The robot system 100 according to this embodiment has a configuration in which an obstacle recognition unit 216 is added to the robot system 100 shown in FIG.

障害物認識部216は、オクルージョン推定部214で推定したn個の姿勢候補でのオクルージョン量に基づいて、ピッキング候補を変更するか否かを判断する。具体的には、n姿勢分のオクルージョン量が、いずれも予め設定した閾値以上である場合に、ピッキング候補を変更すると判断する。この場合、複数の対象物体31の位置姿勢情報に基づいて、オクルージョン発生の原因(障害物)となっている対象物体31を特定し、特定対象物体31を新たなピッキング候補として設定する。
したがって、その後は、新たなピッキング候補(障害物)の三次元位置姿勢計測を行い、当該障害物のピッキングを行うことになる。
The obstacle recognition unit 216 determines whether or not to change the picking candidate based on the occlusion amount of the n posture candidates estimated by the occlusion estimation unit 214. Specifically, it is determined that the picking candidate is changed when the amount of occlusion for n postures is equal to or greater than a preset threshold value. In this case, the target object 31 that is the cause (obstacle) of the occurrence of occlusion is specified based on the position and orientation information of the plurality of target objects 31, and the specific target object 31 is set as a new picking candidate.
Therefore, after that, three-dimensional position and orientation measurement of a new picking candidate (obstacle) is performed, and the obstacle is picked.

このように、本実施形態では、オクルージョンを発生させている障害物を特定し、当初ピッキング候補として選択していた対象物体をピックアップする前に、障害物を取り除く処理を行う。これにより、当初ピッキング候補として選択していた対象物体における隠れ領域を低減することができ、当該対象物体の三次元位置姿勢計測を精度良く行うことができる。
なお、ここでは、対象物体に対してオクルージョンを発生させている障害物を取り除く場合について説明したが、当該障害物を、対象物体に関する隠れ領域が小さくなる位置に移動させてもよい。図20における障害物認識部216は特定手段の一例に相当する。
As described above, in the present embodiment, the obstacle that causes the occlusion is specified, and the process of removing the obstacle is performed before picking up the target object that was initially selected as the picking candidate. Thereby, the hidden area in the target object initially selected as the picking candidate can be reduced, and the three-dimensional position and orientation of the target object can be accurately measured.
Here, the case where the obstacle causing the occlusion to the target object is removed has been described, but the obstacle may be moved to a position where the hidden area related to the target object becomes small. The obstacle recognition unit 216 in FIG. 20 corresponds to an example of an identification unit.

(情報処理部20のハードウェア構成)
図21は、情報処理部20のハードウェア構成の一例である。
情報処理部20は、CPU21と、ROM22と、RAM23と、外部メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、情報処理部20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。
ROM22は、CPU21が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
(Hardware configuration of information processing unit 20)
FIG. 21 is an example of a hardware configuration of the information processing unit 20.
The information processing unit 20 includes a CPU 21, a ROM 22, a RAM 23, an external memory 24, an input unit 25, a display unit 26, a communication I / F 27, and a system bus 28.
The CPU 21 controls the operation of the information processing unit 20 in an integrated manner, and controls each component (22 to 27) via the system bus 28.
The ROM 22 is a non-volatile memory that stores a control program necessary for the CPU 21 to execute processing. The program may be stored in the external memory 24 or a removable storage medium (not shown).

RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。この外部メモリ14は、上記のモデル情報保持部212を備える。
The RAM 23 functions as a main memory and work area for the CPU 21. That is, the CPU 21 implements various functional operations by loading a program or the like necessary from the ROM 22 into the RAM 23 when executing the processing, and executing the program or the like.
The external memory 24 stores, for example, various data and various information necessary for the CPU 21 to perform processing using a program. Further, the external memory 24 stores, for example, various data and various information obtained by the CPU 21 performing processing using a program or the like. The external memory 14 includes the model information holding unit 212 described above.

入力部25は、例えばキーボードやマウス等により構成され、オペレータが入力部25を介して当該情報処理部20に指示を与えることができるようになっている。
表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。
通信I/F27は、外部装置と通信するためのインターフェースである。
システムバス28は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
上述した第一から第四の実施形態における情報処理部20の各部の機能は、CPU21がROM22もしくは外部メモリ24に記憶されたプログラムを実行することで実現される。
The input unit 25 includes, for example, a keyboard, a mouse, and the like, and an operator can give an instruction to the information processing unit 20 via the input unit 25.
The display unit 26 includes a monitor such as a liquid crystal display (LCD).
The communication I / F 27 is an interface for communicating with an external device.
The system bus 28 connects the CPU 21, ROM 22, RAM 23, external memory 24, input unit 25, display unit 26, and communication I / F 27 so that they can communicate with each other.
The function of each unit of the information processing unit 20 in the first to fourth embodiments described above is realized by the CPU 21 executing a program stored in the ROM 22 or the external memory 24.

(変形例)
上記各実施形態においては、センサ部11を、プロジェクタ(投影手段)111とカメラ(撮像手段)112とを有するセンサとする場合について説明したが、三角測量の原理を用いて対象物体31に関する三次元情報を取得可能な構成であればよく、例えば、視野の少なくとも一部が重複する複数のカメラ(撮像手段)を有するセンサ部であってもよい。この場合にも、複数のカメラの視差の影響により発生するオクルージョンを考慮してセンサ部の位置姿勢を決定することで、適切な三次元計測が可能となる。
(Modification)
In each of the above embodiments, the case where the sensor unit 11 is a sensor having the projector (projection unit) 111 and the camera (imaging unit) 112 has been described. However, the three-dimensional relationship regarding the target object 31 using the principle of triangulation is described. Any configuration may be used as long as the information can be acquired. For example, the sensor unit may include a plurality of cameras (imaging units) in which at least part of the field of view overlaps. Also in this case, it is possible to perform appropriate three-dimensional measurement by determining the position and orientation of the sensor unit in consideration of the occlusion that occurs due to the parallax of a plurality of cameras.

また、上記各実施形態においては、センサ部11の位置姿勢を変更する手段としてロボット10を用いる場合について説明したが、位置姿勢変更手段はロボット10に限らない。例えば、直動ステージと回転ステージとを組み合わせた機構部にセンサ部11を搭載し、ステージの制御によって位置姿勢を変更してもよい。このように、対象物体に対して作業を行うロボット10とは別に,位置姿勢変更手段を設けてもよい。
さらに、上記各実施形態においては、センサ部11で撮影した画像を画像処理部210で処理する場合について説明したが、センサ部11内に画像処理機構を持たせて画像処理した結果を出力するようにしてもよい。
In each of the above embodiments, the case where the robot 10 is used as the means for changing the position and orientation of the sensor unit 11 has been described. However, the position and orientation change means is not limited to the robot 10. For example, the sensor unit 11 may be mounted on a mechanism unit that combines a linear motion stage and a rotary stage, and the position and orientation may be changed by controlling the stage. In this manner, position and orientation changing means may be provided separately from the robot 10 that performs work on the target object.
Further, in each of the embodiments described above, the case where the image captured by the sensor unit 11 is processed by the image processing unit 210 has been described. However, the image processing mechanism is provided in the sensor unit 11 and the result of image processing is output. It may be.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…ロボット、11…センサ部、111…プロジェクタ、112…カメラ、12…位置姿勢変更機構、13…ハンド、20…情報処理部、210…画像処理部、211…センサ情報取得部、212…モデル情報保持部、213…三次元位置姿勢計測部、214…オクルージョン推定部、215…センサ位置姿勢決定部、216…障害物認識部、220…ロボットコントローラ部、221…ロボット作業指示部、222…ロボット制御部、30…被計測対象物、31…対象物体、32…パレット   DESCRIPTION OF SYMBOLS 10 ... Robot, 11 ... Sensor part, 111 ... Projector, 112 ... Camera, 12 ... Position and orientation change mechanism, 13 ... Hand, 20 ... Information processing part, 210 ... Image processing part, 211 ... Sensor information acquisition part, 212 ... Model Information holding unit, 213 ... three-dimensional position / orientation measurement unit, 214 ... occlusion estimation unit, 215 ... sensor position / orientation determination unit, 216 ... obstacle recognition unit, 220 ... robot controller unit, 221 ... robot work instruction unit, 222 ... robot Control unit, 30 ... object to be measured, 31 ... target object, 32 ... pallet

Claims (16)

第一の位置姿勢で、対象物体に関する二次元情報もしくは三次元情報を取得するセンサ手段と、
前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出する算出手段と、
前記算出手段で算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定する決定手段と、を備えることを特徴とする情報処理装置。
Sensor means for acquiring two-dimensional information or three-dimensional information about the target object in the first position and orientation;
Based on two-dimensional information or three-dimensional information acquired by the sensor means at the first position and orientation, a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints is calculated. Calculating means for
A second position different from the first position and orientation as the position and orientation of the sensor means capable of acquiring three-dimensional information for measuring the position and orientation of the target object based on the hidden area calculated by the calculation means An information processing apparatus comprising: a determination unit that determines a posture.
前記決定手段は、
前記算出手段で算出した隠れ領域が最小となる前記視点の位置情報に基づいて、前記センサ手段の第二の位置姿勢を決定することを特徴とする請求項1に記載の情報処理装置。
The determining means includes
The information processing apparatus according to claim 1, wherein the second position and orientation of the sensor unit is determined based on the position information of the viewpoint that minimizes the hidden area calculated by the calculation unit.
前記決定手段は、
前記算出手段で算出した前記対象物体の特徴部分に関する隠れ領域が最小となる前記視点の位置情報に基づいて、前記センサ手段の第二の位置姿勢を決定することを特徴とする請求項1または2に記載の情報処理装置。
The determining means includes
3. The second position and orientation of the sensor means is determined based on the position information of the viewpoint at which the hidden area relating to the characteristic part of the target object calculated by the calculation means is minimized. The information processing apparatus described in 1.
前記決定手段で決定した第二の位置姿勢まで前記センサ手段を移動する移動手段と、
前記第二の位置姿勢を有する前記センサ手段で取得した三次元情報を、前記算出手段による隠れ領域の算出に用い、前記決定手段による前記第二の位置姿勢の再決定を行う処理を、既定の条件を満足するまで繰り返す繰り返し手段と、をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
Moving means for moving the sensor means to the second position and orientation determined by the determining means;
Using the three-dimensional information acquired by the sensor means having the second position and orientation for the calculation of the hidden area by the calculation means, a process for re-determining the second position and orientation by the determination means The information processing apparatus according to claim 1, further comprising: a repeating unit that repeats until the condition is satisfied.
前記既定の条件は、前記算出手段で算出した隠れ領域の大きさが閾値以下となることであることを特徴とする請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the predetermined condition is that a size of the hidden area calculated by the calculation unit is equal to or less than a threshold value. 前記既定の条件は、前記移動手段による前記センサ手段の移動量が閾値以下となることであることを特徴とする請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the predetermined condition is that a moving amount of the sensor unit by the moving unit is equal to or less than a threshold value. 前記センサ手段で取得した前記二次元情報もしくは三次元情報に基づいて、前記対象物体に対して隠れ領域を発生させている障害物を特定する特定手段と、
前記算出手段で算出した隠れ領域の大きさが閾値を上回っているとき、前記特定手段で特定した障害物を、前記隠れ領域の大きさが小さくなる位置に移動する第二の移動手段と、を備えることを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
Based on the two-dimensional information or three-dimensional information acquired by the sensor means, a specifying means for specifying an obstacle causing a hidden area with respect to the target object;
A second moving means for moving the obstacle specified by the specifying means to a position where the size of the hidden area is reduced when the size of the hidden area calculated by the calculating means exceeds a threshold; The information processing apparatus according to claim 1, further comprising: an information processing apparatus according to claim 1.
前記センサ手段は、
パターンを投影する投影手段と、
前記投影手段が投影したパターンを異なる視点から撮像する撮像手段と、を備え、
三角測量の原理で前記対象物体に関する三次元情報を取得することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
The sensor means includes
Projection means for projecting a pattern;
Imaging means for imaging the pattern projected by the projection means from different viewpoints,
The information processing apparatus according to claim 1, wherein three-dimensional information related to the target object is acquired based on a triangulation principle.
前記センサ手段は、
視野の少なくとも一部が重複する複数の撮像手段を備え、
三角測量の原理で前記対象物体に関する三次元情報を取得することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
The sensor means includes
Comprising a plurality of imaging means overlapping at least part of the field of view;
The information processing apparatus according to claim 1, wherein three-dimensional information related to the target object is acquired based on a triangulation principle.
前記第一の位置姿勢で二次元情報もしくは三次元情報を取得する前記センサ手段は、前記第二の位置姿勢で三次元情報を取得する前記センサ手段と同一のセンサ手段であることを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。   The sensor means for acquiring two-dimensional information or three-dimensional information with the first position and orientation is the same sensor means as the sensor means for acquiring three-dimensional information with the second position and orientation. The information processing apparatus according to claim 1. 前記第一の位置姿勢で二次元情報もしくは三次元情報を取得する前記センサ手段は、前記第二の位置姿勢で三次元情報を取得する前記センサ手段とは異なるセンサ手段であることを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。   The sensor means for acquiring two-dimensional information or three-dimensional information with the first position and orientation is a sensor means different from the sensor means for acquiring three-dimensional information with the second position and orientation. The information processing apparatus according to claim 1. 前記センサ手段は、前記対象物体に対して作業を実行するロボットに装着されていることを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the sensor unit is attached to a robot that performs work on the target object. 前記第二の位置姿勢を有するセンサ手段で取得した三次元情報に基づいて、前記対象物体の位置姿勢を計測する計測手段と、
前記計測手段で計測した前記対象物体の位置姿勢に基づいて、前記ロボットの前記対象物体に対する作業を制御する制御手段と、をさらに備えることを特徴とする請求項1〜12のいずれか1項に記載の情報処理装置。
Measuring means for measuring the position and orientation of the target object based on the three-dimensional information acquired by the sensor means having the second position and orientation;
The control unit according to any one of claims 1 to 12, further comprising: a control unit that controls an operation of the robot on the target object based on the position and orientation of the target object measured by the measurement unit. The information processing apparatus described.
第一の位置姿勢で、センサ手段により対象物体に関する二次元情報もしくは三次元情報を取得するステップと、
前記第一の位置姿勢で前記センサ手段により取得された二次元情報もしくは三次元情報に基づいて、複数の視点から前記対象物体を見たときの、当該対象物体が遮蔽される隠れ領域をそれぞれ算出するステップと、
算出した隠れ領域に基づいて、前記対象物体の位置姿勢を計測するための三次元情報を取得可能なセンサ手段の位置姿勢として、前記第一の位置姿勢とは異なる第二の位置姿勢を決定するステップと、を含むことを特徴とする情報処理方法。
Acquiring two-dimensional information or three-dimensional information about the target object by the sensor means at the first position and orientation;
Based on two-dimensional information or three-dimensional information acquired by the sensor means at the first position and orientation, a hidden area where the target object is shielded when the target object is viewed from a plurality of viewpoints is calculated. And steps to
Based on the calculated hidden area, a second position / posture different from the first position / posture is determined as the position / posture of the sensor means capable of acquiring three-dimensional information for measuring the position / posture of the target object. And an information processing method comprising: steps.
対象物体に対して作業を実行するロボットと、
前記請求項1〜13のいずれか1項に記載の情報処理装置と、を備えることを特徴とするロボットシステム。
A robot that performs work on the target object;
A robot system comprising: the information processing apparatus according to any one of claims 1 to 13.
コンピュータを、前記請求項1〜13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
The program for functioning a computer as each means of the information processing apparatus of any one of the said Claims 1-13.
JP2014237195A 2014-11-21 2014-11-21 Information processing device and information processing method Pending JP2016099257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014237195A JP2016099257A (en) 2014-11-21 2014-11-21 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014237195A JP2016099257A (en) 2014-11-21 2014-11-21 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2016099257A true JP2016099257A (en) 2016-05-30

Family

ID=56076890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014237195A Pending JP2016099257A (en) 2014-11-21 2014-11-21 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2016099257A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034251A1 (en) * 2016-08-14 2018-02-22 ライフロボティクス株式会社 Dishwashing system, and robot device
JP2018081048A (en) * 2016-11-18 2018-05-24 オムロン株式会社 Three-dimensional shape measurement device
JP2018144155A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device
EP3392002A1 (en) 2017-04-10 2018-10-24 Canon Kabushiki Kaisha Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP2019089157A (en) * 2017-11-14 2019-06-13 オムロン株式会社 Holding method, holding system, and program
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
JP2019185664A (en) * 2018-04-17 2019-10-24 トヨタ自動車株式会社 Control device, object detection system, object detection method, and program
WO2019230320A1 (en) 2018-05-29 2019-12-05 オムロン株式会社 Vision sensor system, control method, and program
JP2020069572A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Robot system
CN111177869A (en) * 2020-01-02 2020-05-19 北京百度网讯科技有限公司 Method, device and equipment for determining sensor layout scheme
JP6723628B1 (en) * 2020-02-13 2020-07-15 株式会社Mujin Method and system for determining occlusion in the field of view of a camera
US10778902B2 (en) 2018-06-06 2020-09-15 Toyota Jidosha Kabushiki Kaisha Sensor control device, object search system, object search method, and program
JP2020146823A (en) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ Component picking system of robot
JP2020146805A (en) * 2019-03-14 2020-09-17 上銀科技股▲分▼有限公司 System for removing a plurality of objects stacked at random
WO2022014171A1 (en) * 2020-07-13 2022-01-20 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2022080036A1 (en) * 2020-10-16 2022-04-21 オムロン株式会社 Control device, robot, control method, and program
KR20220089463A (en) * 2020-12-21 2022-06-28 주식회사 노비텍 Vision analysis apparatus for picking robot
US11393063B2 (en) 2019-03-28 2022-07-19 Seiko Epson Corporation Object detecting method, object detecting device, and robot system
CN114901441A (en) * 2020-01-23 2022-08-12 欧姆龙株式会社 Robot system control device, robot system control method, computer control program, and robot system
JP2023522179A (en) * 2020-04-14 2023-05-29 リアルタイム ロボティクス, インコーポレーテッド Configuring the robot operating environment, including sensor placement
WO2023170814A1 (en) * 2022-03-09 2023-09-14 ヤマハ発動機株式会社 Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement
JP7448884B2 (en) 2019-05-15 2024-03-13 オムロン株式会社 Measurement system, measurement device, measurement method, and measurement program
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018034251A1 (en) * 2016-08-14 2019-06-20 ライフロボティクス株式会社 Dishwashing system and robot device
US10905307B2 (en) 2016-08-14 2021-02-02 Life Robotics Inc. Dishwashing system and robot device
WO2018034251A1 (en) * 2016-08-14 2018-02-22 ライフロボティクス株式会社 Dishwashing system, and robot device
JP2018081048A (en) * 2016-11-18 2018-05-24 オムロン株式会社 Three-dimensional shape measurement device
JP2018144155A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device
EP3392002A1 (en) 2017-04-10 2018-10-24 Canon Kabushiki Kaisha Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US10894324B2 (en) 2017-04-10 2021-01-19 Canon Kabushiki Kaisha Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
JP2019089157A (en) * 2017-11-14 2019-06-13 オムロン株式会社 Holding method, holding system, and program
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
JP2019185664A (en) * 2018-04-17 2019-10-24 トヨタ自動車株式会社 Control device, object detection system, object detection method, and program
CN110390692A (en) * 2018-04-17 2019-10-29 丰田自动车株式会社 Control device, object detecting system, object detecting method and computer-readable medium
US10957067B2 (en) 2018-04-17 2021-03-23 Toyota Jidosha Kabushiki Kaisha Control apparatus, object detection system, object detection method and program
WO2019230320A1 (en) 2018-05-29 2019-12-05 オムロン株式会社 Vision sensor system, control method, and program
US11745352B2 (en) 2018-05-29 2023-09-05 Omron Corporation Vision sensor system, control method, and non-transitory computer readable storage medium
EP3805695A4 (en) * 2018-05-29 2022-03-02 OMRON Corporation Vision sensor system, control method, and program
US10778902B2 (en) 2018-06-06 2020-09-15 Toyota Jidosha Kabushiki Kaisha Sensor control device, object search system, object search method, and program
JP2020069572A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Robot system
US11126859B2 (en) 2018-10-31 2021-09-21 Fanuc Corporation Robot system
JP2020146805A (en) * 2019-03-14 2020-09-17 上銀科技股▲分▼有限公司 System for removing a plurality of objects stacked at random
JP2020146823A (en) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ Component picking system of robot
JP7275688B2 (en) 2019-03-15 2023-05-18 株式会社デンソーウェーブ Robot parts picking system
US11393063B2 (en) 2019-03-28 2022-07-19 Seiko Epson Corporation Object detecting method, object detecting device, and robot system
JP7448884B2 (en) 2019-05-15 2024-03-13 オムロン株式会社 Measurement system, measurement device, measurement method, and measurement program
CN111177869A (en) * 2020-01-02 2020-05-19 北京百度网讯科技有限公司 Method, device and equipment for determining sensor layout scheme
CN111177869B (en) * 2020-01-02 2023-09-01 北京百度网讯科技有限公司 Method, device and equipment for determining sensor layout scheme
CN114901441A (en) * 2020-01-23 2022-08-12 欧姆龙株式会社 Robot system control device, robot system control method, computer control program, and robot system
US11924559B2 (en) 2020-02-13 2024-03-05 Mujin, Inc. Method and system for determining occlusion within a camera field of view
JP2021126761A (en) * 2020-02-13 2021-09-02 株式会社Mujin Method and system for determining occlusion within camera field of view
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
JP6723628B1 (en) * 2020-02-13 2020-07-15 株式会社Mujin Method and system for determining occlusion in the field of view of a camera
JP2023522179A (en) * 2020-04-14 2023-05-29 リアルタイム ロボティクス, インコーポレーテッド Configuring the robot operating environment, including sensor placement
JP7450297B2 (en) 2020-04-14 2024-03-15 リアルタイム ロボティクス, インコーポレーテッド Configuration of robot operating environment including sensor placement
WO2022014171A1 (en) * 2020-07-13 2022-01-20 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2022080036A1 (en) * 2020-10-16 2022-04-21 オムロン株式会社 Control device, robot, control method, and program
KR102432370B1 (en) * 2020-12-21 2022-08-16 주식회사 노비텍 Vision analysis apparatus for picking robot
KR20220089463A (en) * 2020-12-21 2022-06-28 주식회사 노비텍 Vision analysis apparatus for picking robot
WO2023170814A1 (en) * 2022-03-09 2023-09-14 ヤマハ発動機株式会社 Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement

Similar Documents

Publication Publication Date Title
JP2016099257A (en) Information processing device and information processing method
CN111482959B (en) Automatic hand-eye calibration system and method of robot motion vision system
JP5854815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6021533B2 (en) Information processing system, apparatus, method, and program
JP6000579B2 (en) Information processing apparatus and information processing method
JP5975685B2 (en) Information processing apparatus and information processing method
JP5977544B2 (en) Information processing apparatus and information processing method
JP5778311B1 (en) Picking apparatus and picking method
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
JP6180087B2 (en) Information processing apparatus and information processing method
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
US11446822B2 (en) Simulation device that simulates operation of robot
JP2016000442A (en) Robot, robotic system, and control device
US20210283782A1 (en) Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
KR20110095700A (en) Industrial robot control method for workpiece object pickup
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP7180783B2 (en) CALIBRATION METHOD FOR COMPUTER VISION SYSTEM AND 3D REFERENCE OBJECT USED FOR CALIBRATION METHOD
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
JP7450857B2 (en) Measurement parameter optimization method and device, and computer control program