JP2015104796A - Gripping method, transportation method and robot - Google Patents

Gripping method, transportation method and robot Download PDF

Info

Publication number
JP2015104796A
JP2015104796A JP2013249355A JP2013249355A JP2015104796A JP 2015104796 A JP2015104796 A JP 2015104796A JP 2013249355 A JP2013249355 A JP 2013249355A JP 2013249355 A JP2013249355 A JP 2013249355A JP 2015104796 A JP2015104796 A JP 2015104796A
Authority
JP
Japan
Prior art keywords
gripping
recognized
area
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013249355A
Other languages
Japanese (ja)
Other versions
JP6176091B2 (en
Inventor
将慶 土永
Shokei Tsuchinaga
将慶 土永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013249355A priority Critical patent/JP6176091B2/en
Publication of JP2015104796A publication Critical patent/JP2015104796A/en
Application granted granted Critical
Publication of JP6176091B2 publication Critical patent/JP6176091B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a gripping method capable of precisely gripping a body as an object to be gripped without moving an obstacle even when a part of the body as the object to be gripped is hidden from sight.SOLUTION: A gripping method recognizes and grips an object to be gripped by means of a gripping device even when a part of the object to be gripped is hidden from sight by an obstacle. The gripping method includes a step of gaining environmental information of the surrounding which contains the object to be gripped, a step of recognizing the object to be gripped from the surrounding environment by means of the gained environmental information, a step of determining that, when a part of the object to be gripped is recognized, the recognized part is the object to be gripped and a step of gripping the determined gripping region. The step of determining the gripping region determines the region recognized as one part of the object to be gripped in the step of recognizing the object to be gripped, as the gripping region.

Description

本発明は、把持方法、運搬方法及びロボットに関し、特に、物体を認識して把持する技術に関する。   The present invention relates to a gripping method, a transporting method, and a robot, and more particularly to a technique for recognizing and gripping an object.

特許文献1には、把持対象となる目標物が障害物に隠れている場合であっても、目標物を画像認識して把持することができるロボットが開示されている。このロボットは、カメラにより撮影された画像に基づいて障害物が存在すると判定した場合には、障害物をロボットアームによって移動させ、目標物の再認識処理を行う。そして、ロボットは、目標物を認識した場合に、その目標物を把持する動作を実行する。   Patent Document 1 discloses a robot that can recognize and grasp a target by image recognition even when the target to be grasped is hidden behind an obstacle. When it is determined that an obstacle is present based on an image photographed by the camera, the robot moves the obstacle with the robot arm and performs a target re-recognition process. When the robot recognizes the target, the robot performs an operation of gripping the target.

特開2007−290056号公報JP 2007-290056 A

しかしながら、特許文献1に開示のロボットは、障害物をわざわざ移動してからでないと目標物を把持することができず、効率が良くないという問題がある。また、障害物となる物体の位置を勝手に変更することが望まれない場合もあり得る。   However, the robot disclosed in Patent Document 1 has a problem in that it cannot grasp the target object without moving the obstacle and is not efficient. In addition, there may be a case where it is not desired to arbitrarily change the position of an obstacle.

本発明は、上述のような問題を解決するためになされたものであり、把持対象となる物体の一部が障害物で隠れている場合であっても、障害物を移動させることなく、把持対象となる物体を適確に把持することができる把持方法、運搬方法及びロボットを提供することを目的とする。   The present invention has been made to solve the above-described problems. Even when a part of an object to be grasped is hidden by an obstacle, the object can be grasped without moving the obstacle. It is an object of the present invention to provide a gripping method, a transporting method, and a robot that can accurately grip a target object.

本発明の第1の態様に係る把持方法は、把持装置が取得した3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を把持装置により認識して把持する把持方法であって、前記把持対象物を含む周辺の環境情報を取得するステップと、取得された環境情報により、周辺の環境から前記把持対象物を認識するステップと、前記把持対象物の一部分が認識された場合に、把持対象物であると決定するステップと、前記把持対象物であると決定された物体の把持領域を決定するステップと、決定された把持領域を把持するステップとを備え、前記把持領域を決定するステップは、前記把持対象物を認識するステップにおいて前記把持対象物の一部分として認識された領域を、前記把持領域として決定するものである。   The gripping method according to the first aspect of the present invention acquires environment information that is three-dimensional information acquired by a gripping device, recognizes a gripping object from the acquired environment information, and recognizes the recognized gripping object. A gripping method for recognizing and gripping the gripping object by a gripping device even when part of the object is hidden by an obstacle, and acquiring surrounding environment information including the gripping object; A step of recognizing the gripping object from the surrounding environment based on the acquired environment information; a step of determining a gripping object when a part of the gripping object is recognized; and Determining the gripping area of the object determined to be, and gripping the determined gripping area, wherein the step of determining the gripping area is performed before the step of recognizing the gripping object. The recognized region as part of a grasped object is to determine as the gripping region.

本発明の第2の態様に係る運搬方法は、上述の態様に係る把持方法によって把持した把持対象物を運搬先に運搬する運搬方法であって、前記把持対象物の全体を認識するステップによって認識された把持対象物の全体が障害物を回避する軌道を決定し、その軌道で前記把持対象物を運搬するステップを備えるものである。   A transport method according to a second aspect of the present invention is a transport method for transporting a gripping object gripped by the gripping method according to the above-described aspect to a transport destination, and is recognized by the step of recognizing the entire gripping target object. The entire gripping object is provided with a step of determining a trajectory that avoids the obstacle and transporting the gripping object in the trajectory.

本発明の第3の態様に係るロボットは、3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を認識してロボットアームによって把持するロボットであって、前記把持対象物を含む周辺の環境情報を取得する環境情報取得部と、取得された環境情報により、周辺の環境から前記把持対象物の一部分が認識された場合に、把持対象物であると決定する物体認識部と、前記把持対象物であると決定された物体の把持領域を決定する把持領域決定部と、を備え、前記把持領域決定部は、前記把持対象物の一部分として認識された領域を、前記把持領域として決定することを特徴とするものである。   The robot according to the third aspect of the present invention acquires environment information that is three-dimensional information, recognizes a gripping object from the acquired environment information, and a part of the recognized gripping object is an obstacle. An environment information acquisition unit that recognizes the object to be grasped and grasps it with a robot arm even if it is hidden, and obtains surrounding environment information including the object to be grasped, and the obtained environment Based on the information, when a part of the gripping object is recognized from the surrounding environment, an object recognition unit that determines that the object is a gripping object and a gripping area of the object that is determined to be the gripping object are determined. A gripping region determining unit, wherein the gripping region determining unit determines a region recognized as a part of the gripping object as the gripping region.

物体の一部が障害物によって隠れている場合には、障害物によって隠れていない部分が認識されることになる。したがって、上述した本発明の各態様のように、把持対象物の一部分として認識された領域を把持領域として決定することで、障害物で隠れていない領域を把持することができるため、把持対象となる物体を把持する際における把持装置(ロボット)と障害物との接触を回避することができる。   When a part of the object is hidden by the obstacle, the part that is not hidden by the obstacle is recognized. Therefore, as in each aspect of the present invention described above, by determining an area that is recognized as a part of the object to be grasped as a grasping area, it is possible to grasp an area that is not hidden by an obstacle. It is possible to avoid contact between the gripping device (robot) and the obstacle when gripping an object.

上述した本発明の各態様によれば、把持対象となる物体の一部が障害物で隠れている場合であっても、障害物を移動させることなく、把持対象となる物体を適確に把持することができる把持方法、運搬方法及びロボットを提供することができる。   According to each aspect of the present invention described above, even when a part of an object to be grasped is hidden by an obstacle, the object to be grasped is accurately grasped without moving the obstacle. A gripping method, a transporting method, and a robot can be provided.

実施の形態1に係るロボットの外部構成図である。2 is an external configuration diagram of the robot according to Embodiment 1. FIG. 実施の形態1に係るロボットの内部構成図である。2 is an internal configuration diagram of a robot according to Embodiment 1. FIG. 実施の形態1に係るロボットの処理ブロック図である。FIG. 3 is a process block diagram of the robot according to the first embodiment. 実施の形態1に係るロボットの処理を示すフローチャートである。3 is a flowchart showing processing of the robot according to the first embodiment. 把持対象となる物体の一例を示す図である。It is a figure which shows an example of the object used as the holding object. 実施の形態2に係るロボットの処理ブロック図である。FIG. 10 is a process block diagram of the robot according to the second embodiment. 実施の形態2に係るロボットの処理を示すフローチャートである。6 is a flowchart showing processing of the robot according to the second embodiment. 障害物回避の一例を示す図である。It is a figure which shows an example of an obstacle avoidance. 実施の形態3に係るロボットの処理ブロック図である。FIG. 10 is a process block diagram of the robot according to the third embodiment. 実施の形態3に係るロボットの処理を示すフローチャートである。10 is a flowchart illustrating processing of the robot according to the third embodiment. 物体の目標地点への配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning to the target point of an object.

以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Specific numerical values and the like shown in the following embodiments are merely examples for facilitating understanding of the invention, and are not limited thereto unless otherwise specified. In the following description and drawings, matters obvious to those skilled in the art are omitted or simplified as appropriate for the sake of clarity.

<発明の実施の形態1>
本実施の形態1に係るロボット1について説明する。まず、図1を参照して、本実施の形態1に係るロボット1の外部構成について説明する。図1は、本実施の形態1に係るロボット1の外部構成図である。
<Embodiment 1 of the Invention>
The robot 1 according to the first embodiment will be described. First, the external configuration of the robot 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is an external configuration diagram of the robot 1 according to the first embodiment.

ロボット1は、ロボット本体10、移動台車20、把持部30、及び頭部40を有している。ロボット1は、例えば、工場において人が行う荷物(物体)を運搬する作業を代行する産業ロボットとして利用することができる。また、ロボット1は、家庭内において物(物体)を人に拾い届ける作業を実行するサービスロボットとしても利用することができる。   The robot 1 includes a robot main body 10, a moving carriage 20, a gripping unit 30, and a head 40. The robot 1 can be used, for example, as an industrial robot acting on behalf of a work of carrying a load (object) performed by a person in a factory. The robot 1 can also be used as a service robot that performs an operation of picking up an object (object) to a person at home.

移動台車20は、その上方でロボット本体10を支持するように、その上部がロボット本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。   The upper part of the movable carriage 20 is connected to the lower part of the robot body 10 so as to support the robot body 10 above it. The movable carriage 20 moves the robot 1 by driving wheels (not shown) provided in the lower part thereof.

把持部30は、ロボット本体10の前方に突出するように、ロボット本体10の前部に接続されている。把持部30は、多関節のアーム(ロボットアーム)である。把持部30は、その先端部に、任意の物体を把持できるハンド60を含む。これにより、ロボット1は、把持部30の各関節の角度を調整することで、ハンド60を所望の位置に移動させ、その位置に存在する物体を把持することができる。   The grip portion 30 is connected to the front portion of the robot body 10 so as to protrude forward of the robot body 10. The gripping unit 30 is an articulated arm (robot arm). The grip part 30 includes a hand 60 that can grip an arbitrary object at the tip part. Thereby, the robot 1 can move the hand 60 to a desired position by adjusting the angle of each joint of the gripping unit 30, and can grip an object existing at that position.

頭部40は、ロボット本体10の上方でロボット本体10に支持されるように、ロボット本体10の上部に連結されている。頭部40は、その前方を撮像部50によって観測可能となるように、その前部に撮像部50が取り付けられている。撮像部50は、ロボット1の周辺の環境を観測し、観測した環境を示す環境情報を生成(取得)する。撮像部50は、環境情報取得部として機能する。   The head 40 is connected to the upper part of the robot body 10 so as to be supported by the robot body 10 above the robot body 10. The imaging unit 50 is attached to the front of the head 40 so that the front of the head 40 can be observed by the imaging unit 50. The imaging unit 50 observes the environment around the robot 1 and generates (acquires) environment information indicating the observed environment. The imaging unit 50 functions as an environment information acquisition unit.

撮像部50は、所定の角度範囲(画角)を測定可能となっている。一方、頭部40とロボット本体10との連結部は、頭部40を動作可能となるように多自由度の関節構造となっている。例えば、関節構造として少なくとも2自由度以上を有するようにすることで、頭部40は、少なくとも上下左右に動作させることが可能とされている。これにより、撮像部50の測定可能な角度範囲が限られていても、頭部40を動作させることで広範囲を観測することを可能としている。   The imaging unit 50 can measure a predetermined angle range (view angle). On the other hand, the connecting portion between the head 40 and the robot body 10 has a multi-degree-of-freedom joint structure so that the head 40 can be operated. For example, by having at least two degrees of freedom as the joint structure, the head 40 can be moved up and down and left and right. Thereby, even if the angle range in which the imaging unit 50 can be measured is limited, it is possible to observe a wide range by operating the head 40.

ここで、撮像部50は、具体的には周辺の環境を撮像するカメラとなる。よって、撮像部50は、ロボット1の周辺を撮像して、ロボット1の周辺の画像を示す画像情報を環境情報として生成する。カメラは、単眼カメラ及びステレオカメラ等の各種カメラのうち、任意のカメラを使用するようにしてよい。   Here, the imaging unit 50 is specifically a camera that images the surrounding environment. Therefore, the imaging unit 50 images the periphery of the robot 1 and generates image information indicating an image of the periphery of the robot 1 as environment information. The camera may be an arbitrary camera among various cameras such as a monocular camera and a stereo camera.

上述した構成により、ロボット1は、撮像部50によって取得した画像情報が示す画像に基づいて周辺の環境に含まれる物体を認識する。そして、ロボット1は、認識した物体を把持部30によって把持して、その物体の運搬先となる目標地点へ移動台車20の車輪を駆動することで運搬する。   With the configuration described above, the robot 1 recognizes an object included in the surrounding environment based on the image indicated by the image information acquired by the imaging unit 50. Then, the robot 1 grips the recognized object by the grip portion 30 and transports the object by driving the wheels of the moving carriage 20 to the target point that is the transport destination of the object.

続いて、図2を参照して、本実施の形態1に係るロボット1の内部構成について説明する。図2は、本実施の形態1に係るロボット1の内部構成図である。   Next, the internal configuration of the robot 1 according to the first embodiment will be described with reference to FIG. FIG. 2 is an internal configuration diagram of the robot 1 according to the first embodiment.

ロボット1は、制御部11、記憶部12、アクチュエータ21a、21b、車輪22a、22b、及びアクチュエータ31a、31bを有する。制御部11及び記憶部12は、ロボット本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31bは、把持部30に含まれる。   The robot 1 includes a control unit 11, a storage unit 12, actuators 21a and 21b, wheels 22a and 22b, and actuators 31a and 31b. The control unit 11 and the storage unit 12 are included in the robot body 10. The actuators 21 a and 21 b and the wheels 22 a and 22 b are included in the moving carriage 20. The actuators 31 a and 31 b are included in the grip portion 30.

制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)を有しており、そのCPUが記憶部12に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各種処理を実行させるためのコードを含んでいる。   The control unit 11 comprehensively controls the robot 1. The control unit 11 has a CPU (Central Processing Unit), and the CPU executes various programs as the control unit 11 by executing a program stored in the storage unit 12. That is, this program includes code for causing the CPU of the control unit 11 to execute various processes as the control unit 11.

記憶部12は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部12は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。   The storage unit 12 stores the program and various information used by the other control unit 11. The memory | storage part 12 contains at least 1 of the memory | storage device which can store the said program and various information. For example, at least one of a memory and a hard disk may be arbitrarily used as the storage device.

アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。   The actuators 21 a and 21 b drive the wheels 22 a and 22 b of the robot 1. Actuator 21a is driven by control from control part 11, and rotates wheel 22a. Actuator 21b is driven by control from control part 11, and rotates wheel 22b.

車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部11は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット1を移動させる。   The wheel 22a and the wheel 22b correspond to the wheel attached to the lower part of the moving carriage 20 described above. That is, the control unit 11 controls the actuators 21a and 21b to move the robot 1 by rotating the wheels 22a and 22b.

アクチュエータ31a、31bは、ロボット1の把持部30を駆動する。アクチュエータ31a、31bは、制御部11からの制御によって駆動され、把持部30を動作させるアクチュエータ31a、31bのそれぞれは、把持部30の関節として設けられている。なお、ここでは、把持部30が、アクチュエータ31aとアクチュエータ31bとの2つの関節を有する例について説明するが、把持部30の関節数は、これに限られない。   The actuators 31 a and 31 b drive the grip unit 30 of the robot 1. The actuators 31 a and 31 b are driven by control from the control unit 11, and each of the actuators 31 a and 31 b that operate the grip unit 30 is provided as a joint of the grip unit 30. Here, an example in which the gripping unit 30 has two joints of the actuator 31a and the actuator 31b will be described, but the number of joints of the gripping unit 30 is not limited to this.

ハンド60は、制御部11からの制御によって駆動され、物体を把持もしくは解放する。制御部11は、ハンド60によって把持対象の物体を把持する場合、各アクチュエータ31a、31b、21a、21bの少なくとも1つを駆動し、撮像部50から出力された画像情報が示す画像に基づいて認識した物体までハンド60を導く。   The hand 60 is driven by the control from the control unit 11 and grips or releases the object. When gripping an object to be gripped by the hand 60, the control unit 11 drives at least one of the actuators 31a, 31b, 21a, and 21b, and recognizes based on the image indicated by the image information output from the imaging unit 50. The hand 60 is guided to the finished object.

続いて、図3を参照して、本実施の形態1に係るロボット1の処理ブロックについて説明する。図3は、本実施の形態1に係るロボット1の処理ブロック図である。   Next, processing blocks of the robot 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a processing block diagram of the robot 1 according to the first embodiment.

制御部11は、特徴抽出部111、特徴間対応付け部112、物体認識部113、及び把持可能部検出部114として機能する。   The control unit 11 functions as a feature extraction unit 111, an inter-feature association unit 112, an object recognition unit 113, and a grippable unit detection unit 114.

また、記憶部12は、物体情報格納部121として機能する。物体情報格納部121には、ロボット1が動作する環境に存在する複数の物体のそれぞれについて、物体認識用特徴情報、物体3Dモデル情報(物体形状情報)、特徴点位置情報、及び物体IDが格納されている。物体認識用特徴情報、物体3Dモデル情報、特徴点位置情報、及び物体IDは、同一の物体について相互に対応付けられている。これらの情報は、物体の種類毎に用意するようにしてもよい。   The storage unit 12 functions as the object information storage unit 121. The object information storage unit 121 stores object recognition feature information, object 3D model information (object shape information), feature point position information, and an object ID for each of a plurality of objects existing in the environment in which the robot 1 operates. Has been. The object recognition feature information, the object 3D model information, the feature point position information, and the object ID are associated with each other for the same object. Such information may be prepared for each type of object.

物体認識用特徴情報は、物体のモデルを特徴点(特徴点群)によって示す情報である。物体3Dモデル情報は、物体の3Dモデル(モデルとなる三次元形状)を示す情報である。特徴点位置情報は、物体3Dモデル情報が示す物体の3Dモデルに対する、物体認識用特徴情報が示す各特徴点の位置関係を示す情報である。物体IDは、各物体を一意に示す情報である。   The feature information for object recognition is information indicating an object model by feature points (feature point group). The object 3D model information is information indicating a 3D model (three-dimensional shape as a model) of the object. The feature point position information is information indicating the positional relationship of each feature point indicated by the object recognition feature information with respect to the 3D model of the object indicated by the object 3D model information. The object ID is information that uniquely indicates each object.

特徴抽出部111は、撮像部50から出力された画像情報が示す画像において特徴点(特徴点群)を抽出する。なお、特徴点を抽出するために利用する画像特徴として、SURF特徴、エッジ特徴、及びHOG(Histogram of Oriented Gradient)特徴等の特徴のうち、任意の特徴を利用するようにしてよい。   The feature extraction unit 111 extracts feature points (feature point group) in the image indicated by the image information output from the imaging unit 50. It should be noted that as the image feature used for extracting the feature point, an arbitrary feature among the features such as the SURF feature, the edge feature, and the HOG (Histogram of Oriented Gradient) feature may be used.

特徴点対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体認識用特徴情報が示す物体のモデルの特徴点との対応付けを行う。すなわち、特徴点対応付け部112は、抽出された特徴点と、物体のモデルの特徴点とを照合(マッチング)することで、抽出された特徴点の中から物体のモデルの特徴点と一致する特徴点を特定し、相互に対応付ける。すなわち、これにより、画像の特徴点の中から、物体の特徴点が認識される。言い換えると、物体のモデルによって、画像中の物体が認識される。   The feature point association unit 112 associates the feature points extracted by the feature extraction unit 111 with the feature points of the object model indicated by the feature recognition feature information. That is, the feature point association unit 112 matches (matches) the extracted feature points with the feature points of the object model, thereby matching the feature points of the object model from the extracted feature points. Identify feature points and associate them with each other. That is, the feature point of the object is recognized from the feature points of the image. In other words, the object in the image is recognized by the object model.

物体認識部113は、特徴点対応付け部112によって特定された特徴点の対応関係に基づいて、物体の位置・姿勢を認識する。特徴認識部113は、物体の一部でも認識された場合には、その位置に物体が存在すると決定する。例えば、物体認識部113は、抽出された特徴点と物体のモデルの特徴点との間で対応付けられた(一致した)特徴点が、物体のモデルの全ての特徴点に対して所定の割合を超えている場合に、その位置にその物体が存在するものと認識してもよい。また、物体認識部113は、特徴点位置情報が示す物体の3Dモデルと物体の特徴点との位置関係に基づいて、抽出された物体の特徴点から、物体の姿勢(傾き)を特定する。なお、物体の位置には、ロボット1から物体までの距離も含まれる。ここで、ロボット1から物体までの距離は、撮像部50が単眼カメラであれば、特徴点間の距離に基づいて推定するようにすればよく、2つの以上の画像を撮像するステレオカメラであれば、2つの画像間の同一地点のズレ量(例えば同一特徴点のズレ量等)に基づいて算出するようにすればよい。   The object recognition unit 113 recognizes the position / orientation of the object based on the feature point correspondence specified by the feature point association unit 112. The feature recognizing unit 113 determines that an object exists at the position when a part of the object is also recognized. For example, the object recognition unit 113 has a predetermined ratio of the feature points associated (matched) between the extracted feature points and the feature points of the object model with respect to all the feature points of the object model. May be recognized as being present at that position. In addition, the object recognition unit 113 identifies the posture (tilt) of the object from the extracted feature points of the object based on the positional relationship between the 3D model of the object indicated by the feature point position information and the feature points of the object. Note that the position of the object includes the distance from the robot 1 to the object. Here, if the imaging unit 50 is a monocular camera, the distance from the robot 1 to the object may be estimated based on the distance between the feature points, and may be a stereo camera that captures two or more images. For example, the calculation may be performed based on the shift amount of the same point between two images (for example, the shift amount of the same feature point).

把持可能部検出部114は、物体の認識結果に基づいて、把持部30によって把持可能な部分を検出する。具体的には、把持可能部検出部114は、物体の一部として認識できている領域を、把持部30によって把持可能な領域として決定する。すなわち、把持可能部検出部114は、物体のうち、抽出された物体の特徴点と、物体のモデルの特徴点とが一致している領域を、把持部30によって把持可能な領域として決定する。そして、把持可能部検出部114は、その領域のいずれかの部分を、把持部30によって把持可能な部分(把持する部分)として決定する。例えば、物体において、抽出された物体の特徴点のうち、物体のモデルの特徴点群と一致する特徴点の重心となる部分を把持可能な部分として決定する。物体認識部113及び把持可能部検出部114は、認識部として機能する。   The grippable portion detection unit 114 detects a portion that can be gripped by the gripping unit 30 based on the recognition result of the object. Specifically, the grippable part detection unit 114 determines an area that can be recognized as a part of the object as an area that can be gripped by the gripper 30. That is, the grippable part detection unit 114 determines an area where the extracted feature point of the object matches the feature point of the model of the object as an area that can be gripped by the gripping unit 30. Then, the grippable part detection unit 114 determines any part of the region as a part that can be gripped by the gripping part 30 (a part to be gripped). For example, among the extracted feature points of the object, a portion that is the center of gravity of the feature point that matches the feature point group of the object model is determined as a grippable portion. The object recognition unit 113 and the grippable part detection unit 114 function as a recognition unit.

ここで、物体が障害物で隠れている領域では障害物の特徴点が抽出されるため、抽出された物体の特徴点と、物体のモデルの特徴点は一致しない。一方、物体が障害物で隠れていない領域では物体の特徴点が抽出されるため、抽出された物体の特徴点と、物体のモデルの特徴点が一致する。よって、上述のように、抽出された物体の特徴点と、物体のモデルの特徴点とが一致する領域で、物体を把持する部分を決定するようにすることで、障害物に隠れていない部分を、物体を把持する部分として決定することができる。   Here, since the feature point of the obstacle is extracted in the region where the object is hidden by the obstacle, the feature point of the extracted object does not match the feature point of the object model. On the other hand, since the feature point of the object is extracted in the region where the object is not obstructed by the obstacle, the feature point of the extracted object matches the feature point of the object model. Therefore, as described above, the part that is not hidden by the obstacle is determined by determining the part that grips the object in the region where the extracted feature point of the object matches the feature point of the object model. Can be determined as the part that holds the object.

そして、把持可能部検出部114は、決定した部分を把持するように把持部30を駆動して、物体を把持する。具体的には、把持可能部検出部114は、アクチュエータ31a、31bを駆動することで、把持すると決定した部分に、把持部30のハンド60の中心をアプローチする。そして、把持可能部検出部114は、ハンド60を駆動することで、物体を把持する。   Then, the grippable portion detection unit 114 drives the gripping unit 30 so as to grip the determined portion and grips the object. Specifically, the grippable portion detection unit 114 drives the actuators 31a and 31b to approach the center of the hand 60 of the gripping unit 30 to the portion determined to be gripped. Then, the grippable part detection unit 114 grips the object by driving the hand 60.

ここで、各物体について複数の把持パターンを予め生成しておき、その複数の把持パターンのうち、把持すると決定した部分を把持する把持パターンを選択して、選択した把持パターンで物体を把持するようにしてもよい。把持パターンとは、ハンド60のサイズ及び形状等を考慮して、物体を把持することができる把持の仕方を定義したものである。例えば、物体において把持する部分、及び、物体に対するハンド60の傾き等が定義される。例えば、この把持パターンを示す情報を記憶部12に予め格納しておき、把持可能部検出部114がその情報に基づいてアクチュエータ31a、31bを駆動することで実現するようにすればよい。   Here, a plurality of grip patterns are generated in advance for each object, and a grip pattern that grips a portion determined to be gripped is selected from the plurality of grip patterns, and the object is gripped with the selected grip pattern. It may be. The gripping pattern defines a gripping method that can grip an object in consideration of the size and shape of the hand 60. For example, a portion to be gripped in the object, a tilt of the hand 60 with respect to the object, and the like are defined. For example, information indicating the grip pattern may be stored in the storage unit 12 in advance, and the grippable portion detection unit 114 may be realized by driving the actuators 31a and 31b based on the information.

以上に説明した処理によれば、物体の一部に未観測領域(障害物に隠れている領域)が存在する場合であっても、物体を把持する部分として観測領域(障害物に隠れていない領域)が決定される。よって、物体を把持する際に把持部30が障害物と接触しない適確な把持をすることができる。   According to the processing described above, even if an unobserved region (region hidden by an obstacle) exists in a part of an object, the observation region (not hidden by the obstacle) Area) is determined. Therefore, when gripping an object, the grip portion 30 can be accurately gripped so as not to contact an obstacle.

続いて、図4及び図5を参照して、本実施の形態1に係るロボット1の処理について説明する。図4は、本実施の形態1に係るロボット1の処理を示すフローチャートである。ここでは、図5に示すように、把持対象とする物体の一部が障害物に隠れている場合について説明する。   Subsequently, processing of the robot 1 according to the first embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing processing of the robot 1 according to the first embodiment. Here, as shown in FIG. 5, a case where a part of an object to be grasped is hidden behind an obstacle will be described.

撮像部50は、その画角内で周辺の環境を撮像し、撮像した環境の画像(カメラ画像)を示す画像情報を生成して特徴抽出部111に出力する(S1)。特徴抽出部111は、撮像部50から出力された画像情報が示す画像について特徴点を抽出する(S2)。   The imaging unit 50 images the surrounding environment within the angle of view, generates image information indicating an image (camera image) of the captured environment, and outputs the image information to the feature extraction unit 111 (S1). The feature extraction unit 111 extracts feature points from the image indicated by the image information output from the imaging unit 50 (S2).

特徴間対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体情報格納部121に格納された物体認識用特徴情報が示す物体のモデルの特徴点とをマッチングし、相互に一致する特徴点を特定する(S3)。   The feature correlation unit 112 matches the feature points extracted by the feature extraction unit 111 with the feature points of the model of the object indicated by the feature information for object recognition stored in the object information storage unit 121 and matches each other. The feature point to be identified is specified (S3).

物体認識部113は、特徴間対応付け部112によって特定された特徴点の対応関係に基づいて、マッチングの取れた特徴点から物体の位置・姿勢を導出する(S4)。具体的には、図5に示すように、障害物に隠れてない物体の特徴点から物体の位置・姿勢を認識する。すなわち、物体のモデルの特徴点に対して、一部でも特徴点の一致が見られるのであれば、その一致する特徴点を基準として物体のモデルの特徴点を当てはめた場合に、その物体のモデルの位置に物体が存在すると推定することができる。また、一致する特徴点を基準として当てはめられた物体のモデルの特徴点から、特徴点位置情報が示す物体の3Dモデルと物体の特徴点との位置関係に基づいて物体が存在する領域(物体全体の領域)も特定することができる。よって、例えば、その当てはめられた物体のモデルの特徴点における各特徴点の重心、又は、物体が存在する領域の重心等として、物体の位置を認識することができる。   The object recognizing unit 113 derives the position / orientation of the object from the matched feature points based on the feature point correspondence specified by the feature association unit 112 (S4). Specifically, as shown in FIG. 5, the position / posture of the object is recognized from the feature points of the object not hidden behind the obstacle. In other words, if at least part of the feature point matches the feature point of the object model, the feature model of the object model is applied when the feature point of the object model is applied based on the matching feature point. It can be estimated that an object exists at the position of. Further, from the feature points of the model of the object applied with the matching feature points as a reference, the region where the object exists (the entire object) based on the positional relationship between the object 3D model indicated by the feature point position information and the feature points of the object Can also be specified. Therefore, for example, the position of the object can be recognized as the center of gravity of each feature point in the feature point of the model of the applied object or the center of gravity of the region where the object exists.

また、物体の姿勢(傾き)は、一致する特徴点について、物体の特徴点のモデルにおける特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして特定することができる。この傾きは、例えば、物体の特徴点のモデルにおいて、物体が傾きなく水平面に置かれた状態における方向を定義しておくことで特定するようにすればよい。これによれば、特徴点位置情報に基づいて、物体のモデルの特徴点における特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして、物体の姿勢を特定することができる。   Further, the posture (inclination) of the object can be specified as the inclination of the distribution of the feature point of the extracted object with respect to the distribution of the feature point in the model of the feature point of the object with respect to the matching feature point. For example, this inclination may be specified by defining a direction in a state where the object is placed on a horizontal plane without inclination in a model of a feature point of the object. According to this, based on the feature point position information, the posture of the object can be specified as the inclination of the distribution of the feature point of the extracted object with respect to the distribution of the feature point at the feature point of the model of the object.

把持可能部検出部114は、物体認識部113によって認識された物体の位置・姿勢に応じて、物体を把持できるハンド60の位置・傾きを導出し、ハンド60がその位置・傾きとなるような把持部30の軌道を導出する。   The grippable part detecting unit 114 derives the position / tilt of the hand 60 that can grip the object according to the position / posture of the object recognized by the object recognizing unit 113, so that the hand 60 becomes the position / tilt. The trajectory of the grip part 30 is derived.

この際に、把持可能部検出部114は、障害物との接触を避けるために、マッチングの取れた特徴点から把持可能部分(把持可能場所)を特定し、その把持可能部分を把持する軌道を導出する(S5)。具体的には、把持可能部検出部114は、上述したように、物体のうち、抽出された物体の特徴点と、物体のモデルの特徴点とが一致している領域を、把持部30によって把持可能部分として決定する。すなわち、例えば、抽出された物体の特徴点のうち、物体のモデルの特徴点群と一致する特徴点の重心となる部分を把持可能部分として決定する。   At this time, in order to avoid contact with an obstacle, the grippable part detection unit 114 specifies a grippable part (gripable place) from the matched feature points, and sets a trajectory for gripping the grippable part. Derived (S5). Specifically, as described above, the grippable portion detection unit 114 uses the gripping unit 30 to detect an area in which the feature point of the extracted object and the feature point of the object model match among the objects. Determine as grippable part. That is, for example, among the extracted feature points of the object, a portion serving as the center of gravity of the feature point that matches the feature point group of the object model is determined as a grippable portion.

そして、把持可能部検出部114は、決定した把持可能部分を把持する(S6)。すなわち、把持可能部検出部114は、アクチュエータ31a、31b、ハンド60を駆動することで、導出した軌道で把持部30を動作させ、物体を把持する。   Then, the grippable part detection unit 114 grips the determined grippable part (S6). In other words, the grippable portion detection unit 114 drives the actuators 31a and 31b and the hand 60 to operate the gripping unit 30 in the derived trajectory and grip the object.

以上に説明したように、本実施の形態1では、把持対象物の一部分として認識された領域を、把持領域として決定するようにしている。ここで、物体の一部が障害物によって隠れている場合には、障害物によって隠れていない部分が認識されることになる。したがって、把持対象物の一部分から物体を認識した場合であっても、その物体全体のうち、把持対象物の一部分として認識された領域を把持領域として決定することで、障害物で隠れていない領域を把持することができる。そのため、把持対象となる物体を把持する際における把持装置(ロボット)と障害物との接触を回避することができる。   As described above, in the first embodiment, the area recognized as a part of the grasped object is determined as the grasping area. Here, when a part of the object is hidden by the obstacle, the part that is not hidden by the obstacle is recognized. Therefore, even when an object is recognized from a part of the gripping object, an area that is recognized as a part of the gripping object among the entire object is determined as the gripping area, so that the area that is not hidden by the obstacle Can be gripped. Therefore, it is possible to avoid contact between the gripping device (robot) and the obstacle when gripping an object to be gripped.

<発明の実施の形態2>
続いて、実施の形態2に係るロボット1について説明する。本実施の形態2に係るロボット1の外部構成及び内部構成については、図1及び図2と同様であるため説明を省略する。図6を参照して、本実施の形態2に係るロボット1の処理ブロックについて説明する。図6は、本実施の形態2に係るロボット1の処理ブロック図である。
<Embodiment 2 of the Invention>
Next, the robot 1 according to the second embodiment will be described. Since the external configuration and internal configuration of the robot 1 according to the second embodiment are the same as those in FIGS. 1 and 2, the description thereof is omitted. A processing block of the robot 1 according to the second embodiment will be described with reference to FIG. FIG. 6 is a processing block diagram of the robot 1 according to the second embodiment.

本実施の形態2に係る制御部11は、実施の形態1に係る制御部11と比較して、さらに、未観測領域導出部115及び移動方向算出部116として機能する。   Compared with the control unit 11 according to the first embodiment, the control unit 11 according to the second embodiment further functions as an unobserved region deriving unit 115 and a moving direction calculation unit 116.

未観測領域導出部115は、物体3Dモデル情報が示す物体の3Dモデルに基づいて、物体の未観測領域(障害物に隠された領域)を導出する。具体的には、未観測領域導出部115は、上述したように物体認識部13によって特定される物体全体の領域から、特徴間対応付け部112によって特徴点が一致すると特定された領域(観測領域)を除いた領域を、物体の未確認領域として導出する。   The unobserved area deriving unit 115 derives an unobserved area of the object (area hidden by the obstacle) based on the 3D model of the object indicated by the object 3D model information. Specifically, the unobserved region deriving unit 115 determines a region (observation region) identified as a feature point by the feature association unit 112 from the entire object region identified by the object recognition unit 13 as described above. ) Is derived as an unconfirmed region of the object.

移動方向算出部116は、未観測領域導出部115によって導出された未観測領域がなくなるように、把持部30で把持した物体の移動方向を算出する。具体的には、移動方向算出部116は、未観測領域導出部115によって特定された物体の未観測領域から、物体の観測領域に向かう方向を、物体の移動方向として算出する。   The movement direction calculation unit 116 calculates the movement direction of the object grasped by the grasping unit 30 so that the unobserved region derived by the unobserved region deriving unit 115 disappears. Specifically, the movement direction calculation unit 116 calculates a direction from the unobserved region of the object specified by the unobserved region deriving unit 115 toward the observation region of the object as the moving direction of the object.

ここで、物体の移動方向は、物体の未観測領域から物体の観測領域に向かう方向となるのであれば、任意の方法により決定するようにしてよい。例えば、未観測領域の重心から、観測領域の重心に向かう方向としてもよい。ここで、未観測領域の重心は、未観測領域に物体のモデルの特徴点を当てはめた場合における、その未観測領域の特徴点の重心としてもよい。また、観測領域の重心は、観測領域における特徴点(一致する特徴点)の重心としてもよい。   Here, the moving direction of the object may be determined by an arbitrary method as long as it is a direction from the unobserved area of the object to the observed area of the object. For example, the direction may be a direction from the center of gravity of the unobserved area toward the center of gravity of the observed area. Here, the centroid of the unobserved region may be the centroid of the feature point of the unobserved region when the feature point of the object model is applied to the unobserved region. Further, the center of gravity of the observation region may be the center of gravity of the feature points (matching feature points) in the observation region.

そして、移動方向算出部116は、算出した移動方向に、把持した物体を移動させる。具体的には、把持可能部検出部114は、アクチュエータ31a、31bを駆動することで、算出した移動方向に把持部30を動作させ、物体を移動する。これにより、物体の未観測領域が障害物に隠れていない状態にして、物体のより多くの部分を認識することができる。そのため、この後に物体を運搬する場合であっても、より確実に障害物を回避可能な軌道を導出することが可能となる。   Then, the movement direction calculation unit 116 moves the grasped object in the calculated movement direction. Specifically, the grippable portion detection unit 114 drives the actuators 31a and 31b to operate the gripping unit 30 in the calculated movement direction and move the object. Accordingly, it is possible to recognize more parts of the object in a state where the unobserved area of the object is not hidden by the obstacle. Therefore, even when an object is transported after this, it is possible to derive a trajectory that can avoid an obstacle more reliably.

続いて、図7及び図8を参照して、本実施の形態2に係るロボット1の処理について説明する。図7は、本実施の形態2に係るロボット1の処理を示すフローチャートである。ここでは、実施の形態1において説明した処理の続きについて説明する。すなわち、ステップS1〜S6については、実施の形態1の説明と同様であるため、説明を省略する。図8に示すように、把持した物体を障害物を回避するように移動させる場合について説明する。   Subsequently, processing of the robot 1 according to the second embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a flowchart showing processing of the robot 1 according to the second embodiment. Here, the continuation of the processing described in the first embodiment will be described. That is, since steps S1 to S6 are the same as those described in the first embodiment, the description thereof is omitted. As shown in FIG. 8, a case where the grasped object is moved so as to avoid the obstacle will be described.

未観測領域導出部115は、物体の未観測領域(障害物に隠された領域)を導出する。移動方向算出部116は、未観測領域導出部115によって導出された未観測領域が少なくなる方向を物体の移動方向として決定する。すなわち、上述したように、移動方向算出部116は、未観測領域導出部115によって特定された物体の未観測領域から、物体の観測領域に向かう方向を、物体の移動方向として算出する。この移動方向の算出は、例えば、図5に示すような把持前の状態において行われる。移動方向算出部116は、アクチュエータ31a、31bを駆動することで、決定した方向に物体を移動させる(S7)。これにより、図8に示すように、物体の未観測領域が少なくなる方向に、物体が移動される。   The unobserved region deriving unit 115 derives an unobserved region of the object (region hidden by the obstacle). The moving direction calculation unit 116 determines the direction in which the unobserved area derived by the unobserved area deriving unit 115 decreases as the moving direction of the object. That is, as described above, the movement direction calculation unit 116 calculates the direction from the unobserved area of the object specified by the unobserved area deriving unit 115 to the observation area of the object as the movement direction of the object. The calculation of the moving direction is performed, for example, in a state before gripping as shown in FIG. The movement direction calculation unit 116 moves the object in the determined direction by driving the actuators 31a and 31b (S7). As a result, as shown in FIG. 8, the object is moved in a direction in which the unobserved area of the object decreases.

一方で、移動方向算出部116は、物体の移動中に、定期的に、障害物によって隠れている特徴点の数が、所定の閾値以下となったか否かを判定する(S8)。すなわち、撮像部50、特徴抽出部111、特徴間対応付け部112、及び物体認識部113も、定期的に動作して物体の認識内容を更新することになる。ここで、具体的には、移動方向算出部116は、障害物によって隠れている特徴点の数として、物体のモデルの特徴点の数から、特徴間対応付け部112によって対応付けられた特徴点の数を減算した数を算出することになる。   On the other hand, the movement direction calculation unit 116 periodically determines whether or not the number of feature points hidden by the obstacle is equal to or less than a predetermined threshold during the movement of the object (S8). That is, the imaging unit 50, the feature extraction unit 111, the inter-feature association unit 112, and the object recognition unit 113 also periodically operate to update the recognition content of the object. Specifically, the movement direction calculation unit 116 calculates the feature points associated by the feature association unit 112 based on the number of feature points of the object model as the number of feature points hidden by the obstacle. The number obtained by subtracting the number of is calculated.

障害物によって隠れている特徴点の数が、所定の閾値以下となっていないと判定した場合(S8:No)、移動方向算出部116は、未観測領域が少なくなる方向への物体の移動を継続する(S7)。   When it is determined that the number of feature points hidden by the obstacle is not equal to or less than the predetermined threshold (S8: No), the movement direction calculation unit 116 moves the object in a direction in which the unobserved area decreases. Continue (S7).

障害物によって隠れている特徴点の数が、所定の閾値以下となったと判定した場合(S8:No)、移動方向算出部116は、未観測領域が少なくなる方向への物体の移動を停止し、物体の運搬先となる目標地点への物体の移動を開始する(S9)。   When it is determined that the number of feature points hidden by the obstacle is equal to or less than the predetermined threshold (S8: No), the movement direction calculation unit 116 stops moving the object in the direction in which the unobserved area decreases. Then, the movement of the object to the target point as the object transport destination is started (S9).

ここで、理論上は、物体の全体が認識できた場合には、障害物によって隠れている特徴点の数は0となる。しかしながら、実際上は、物体の認識状況によっては、物体の全体を認識したとしても、必ずしも、抽出された物体の特徴点の数と、物体のモデルの特徴点の数とが一致するとは限らない場合もある。また、図8に示すように、物体を把持した場合にはハンド60によって隠れてしまう特徴点も存在し得る。そのため、上述したように、障害物によって隠れている特徴点の数が0よりも大きい閾値以下となったことをもって、物体の全体が認識されたものとして、算出した移動方向への動作を停止するとよい。   Here, theoretically, when the whole object can be recognized, the number of feature points hidden by the obstacle is zero. However, in practice, depending on the recognition status of the object, even if the entire object is recognized, the number of feature points of the extracted object does not necessarily match the number of feature points of the object model. In some cases. Further, as shown in FIG. 8, there may be a feature point that is hidden by the hand 60 when an object is gripped. Therefore, as described above, when the number of feature points hidden by the obstacle is equal to or less than a threshold value greater than 0, it is assumed that the entire object has been recognized and the movement in the calculated movement direction is stopped. Good.

また、物体の全体が認識されたとの判定は、上述の閾値による判定のみに限られない。例えば、移動方向算出部116は、未観測領域導出部115によって導出された未観測領域から物体全体が認識される移動量を推定し、推定した移動量だけ物体を移動するようにしてもよい。   Further, the determination that the entire object has been recognized is not limited to the determination based on the above-described threshold value. For example, the movement direction calculation unit 116 may estimate the movement amount by which the entire object is recognized from the unobserved area derived by the unobserved area deriving unit 115, and move the object by the estimated movement amount.

以上に説明したように、本実施の形態2では、把持対象物の一部分として認識されていない領域から把持対象物の一部分として認識された領域に向かう方向に移動させ、把持対象物のより多くの部分を認識するようにしている。これによれば、物体の未観測領域が障害物に隠れていない状態にして、物体のより多くの部分を認識することができる。そのため、この後に物体を運搬する場合であっても、より確実に障害物を回避可能な軌道を導出することが可能となる。   As described above, in the second embodiment, the gripping object is moved in the direction from the region not recognized as a part of the gripping object toward the region recognized as a part of the gripping object, and more of the gripping object is detected. The part is recognized. According to this, it is possible to recognize more parts of the object in a state where the unobserved region of the object is not hidden by the obstacle. Therefore, even when an object is transported after this, it is possible to derive a trajectory that can avoid an obstacle more reliably.

よって、例えば、物体の移動前に、特徴間対応付け部112によって対応付けられる物体のモデルが誤っている場合に、物体の移動後に正しい物体のモデルに対応付けられることになる。したがって、物体認識部113によって正しい物体の位置・姿勢を認識することができ、その後に物体を運搬する際に、より確実に障害物を回避可能な軌道を導出することが可能となる。   Therefore, for example, when the object model associated by the feature association unit 112 is incorrect before the object is moved, the object is associated with the correct object model after the object is moved. Therefore, it is possible to recognize the correct position / posture of the object by the object recognition unit 113, and it is possible to derive a trajectory that can avoid the obstacle more reliably when the object is subsequently transported.

<発明の実施の形態3>
続いて、実施の形態3に係るロボット1について説明する。本実施の形態3に係るロボット1の外部構成及び内部構成については、図1及び図2と同様であるため説明を省略する。図9を参照して、本実施の形態3に係るロボット1の処理ブロックについて説明する。図9は、本実施の形態3に係るロボット1の処理ブロック図である。
<Third Embodiment of the Invention>
Next, the robot 1 according to Embodiment 3 will be described. Since the external configuration and internal configuration of the robot 1 according to the third embodiment are the same as those in FIGS. 1 and 2, the description thereof is omitted. With reference to FIG. 9, a processing block of the robot 1 according to the third embodiment will be described. FIG. 9 is a processing block diagram of the robot 1 according to the third embodiment.

本実施の形態2に係る制御部11は、実施の形態2に係る制御部11と比較して、さらに、姿勢補正量算出部117として機能する。   The control unit 11 according to the second embodiment further functions as a posture correction amount calculation unit 117 as compared with the control unit 11 according to the second embodiment.

姿勢補正量算出部117は、物体認識部113が認識した物体の姿勢が目標地点の設置面に対して傾いている場合に、その傾きがより少なくなるように物体の姿勢を補正する。なお、好ましくは、物体認識部113が認識した物体の姿勢と物体の3Dモデルに基づいて物体の底面の傾きを算出し、物体の底面と設置面とが平行となる補正量を算出するとよい。   When the posture of the object recognized by the object recognition unit 113 is tilted with respect to the installation surface of the target point, the posture correction amount calculation unit 117 corrects the posture of the object so that the tilt becomes smaller. Preferably, the inclination of the bottom surface of the object is calculated based on the posture of the object recognized by the object recognition unit 113 and the 3D model of the object, and a correction amount that makes the bottom surface of the object parallel to the installation surface is calculated.

続いて、図10及び図11を参照して、本実施の形態3に係るロボット1の処理について説明する。図11は、本実施の形態3に係るロボット1の処理を示すフローチャートである。ここでは、実施の形態2において説明した処理の続きについて説明する。すなわち、ステップS1〜S9については、実施の形態2の説明と同様であるため、説明を省略する。図11に示すように、目標地点への物体の移動が概ね完了し、目標地点に物体を置く場合について説明する。   Subsequently, processing of the robot 1 according to the third embodiment will be described with reference to FIGS. 10 and 11. FIG. 11 is a flowchart showing processing of the robot 1 according to the third embodiment. Here, the continuation of the processing described in the second embodiment will be described. That is, steps S1 to S9 are the same as those described in the second embodiment, and thus the description thereof is omitted. As shown in FIG. 11, the case where the movement of the object to the target point is almost completed and the object is placed at the target point will be described.

物体認識部113は、物体を目標地点に置く場合、把持部30で隠れていない特徴点から物体の位置・姿勢を認識する(S10)。上述したように、障害物によって物体が隠れている場合と同様に、特徴点対応付け部112によって物体が認識され、物体認識部113によってその位置・姿勢も認識することができる。   The object recognizing unit 113 recognizes the position / orientation of the object from the feature points not hidden by the grasping unit 30 when placing the object at the target point (S10). As described above, similarly to the case where an object is hidden by an obstacle, the object is recognized by the feature point associating unit 112, and the position / posture thereof can also be recognized by the object recognizing unit 113.

姿勢補正量算出部117は、物体認識部113が認識した物体の姿勢に基づいて、物体の姿勢が目標地点の設置面に対して傾いている場合に、その傾きがより少なくなるように物体の姿勢を補正した後、物体を目標地点に置く(S11)。   Based on the posture of the object recognized by the object recognition unit 113, the posture correction amount calculation unit 117 is configured to reduce the inclination of the object when the posture of the object is inclined with respect to the installation surface of the target point. After correcting the posture, the object is placed at the target point (S11).

以上に説明したように、把持部30(把持装置)により隠されていない把持対象物の認識可能部分から把持対象物の姿勢を特定し、特定した把持対象物の姿勢の前記運搬先の設置面に対する傾きが、より少なくなるように前記把持対象物の姿勢を補正するようにしている。これによれば、物体を倒れることなく安定して置くことができる。   As described above, the posture of the gripping object is identified from the recognizable portion of the gripping object that is not hidden by the gripping unit 30 (gripping device), and the installation surface of the transport destination with the identified posture of the gripping object The posture of the grasped object is corrected so that the inclination with respect to is smaller. According to this, the object can be stably placed without falling down.

<本発明の他の実施の形態>
上述の実施の形態では、撮像部50として、画像情報を生成するカメラを利用する場合について説明したが、これに限られない。撮像部50として、周辺の環境の各点までの距離(3次元点群)を示す距離情報を生成するセンサを利用するようにしてもよい。センサとして、例えば、レーザレンジファインダ及び距離画像センサ等のセンサのうち、任意のセンサを利用するようにしてよい。この場合、特徴抽出部111は、距離情報が示す3次元点群から特徴点を抽出する。なお、特徴点を抽出するために利用する特徴として、Point Pair Feature等の特徴のうち、任意の特徴を利用するようにしてよい。
<Other embodiments of the present invention>
In the above-described embodiment, the case where a camera that generates image information is used as the imaging unit 50 has been described. However, the present invention is not limited to this. As the imaging unit 50, a sensor that generates distance information indicating the distance (three-dimensional point group) to each point in the surrounding environment may be used. As the sensor, for example, an arbitrary sensor among sensors such as a laser range finder and a distance image sensor may be used. In this case, the feature extraction unit 111 extracts feature points from the three-dimensional point group indicated by the distance information. It should be noted that as a feature used for extracting feature points, an arbitrary feature may be used among features such as Point Pair Feature.

なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention.

1 ロボット
10 ロボット本体
20 移動台車
30 把持部
40 頭部
50 撮像部
60 ハンド
11 制御部
12 記憶部
21a、21b アクチュエータ
22a、22b 車輪
31a、31b アクチュエータ
111 特徴抽出部
112 特徴間対応付け部
113 物体認識部
114 把持可能部検出部
115 未観測領域導出部
116 移動方向算出部
117 姿勢補正量算出部
121 物体情報格納部
DESCRIPTION OF SYMBOLS 1 Robot 10 Robot main body 20 Moving cart 30 Grasping part 40 Head 50 Imaging part 60 Hand 11 Control part 12 Storage part 21a, 21b Actuator 22a, 22b Wheel 31a, 31b Actuator 111 Feature extraction part 112 Feature correlation part 113 Object recognition Unit 114 grippable unit detection unit 115 unobserved region deriving unit 116 moving direction calculation unit 117 posture correction amount calculation unit 121 object information storage unit

Claims (9)

把持装置が取得した3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を把持装置により認識して把持する把持方法であって、
前記把持対象物を含む周辺の環境情報を取得するステップと、
取得された環境情報により、周辺の環境から前記把持対象物を認識するステップと、
前記把持対象物の一部分が認識された場合に、把持対象物であると決定するステップと、
前記把持対象物であると決定された物体の把持領域を決定するステップと、
決定された把持領域を把持するステップとを備え、
前記把持領域を決定するステップは、
前記把持対象物を認識するステップにおいて前記把持対象物の一部分として認識された領域を、前記把持領域として決定する
把持方法。
This is a case where environmental information that is three-dimensional information acquired by the gripping device is acquired, a gripping object is recognized from the acquired environmental information, and a part of the recognized gripping object is hidden by an obstacle. However, it is a gripping method for recognizing and gripping the gripping object by a gripping device,
Obtaining surrounding environmental information including the gripping object;
Recognizing the grasped object from the surrounding environment based on the acquired environment information;
Determining a gripping object when a portion of the gripping object is recognized;
Determining a gripping area of an object determined to be the gripping object;
Gripping the determined gripping area, and
The step of determining the gripping area includes
A gripping method in which an area recognized as a part of the gripping object in the step of recognizing the gripping object is determined as the gripping area.
前記把持対象物を認識するステップは、前記環境情報から特徴点を抽出し、抽出された特徴点と、前記把持対象物の特徴点として予め記憶されたモデルの特徴点とのマッチング処理を実行することにより、前記把持対象物を認識し、
前記把持領域を決定するステップは、前記把持対象物のうち、前記モデルの特徴点が前記把持対象物の特徴点と一致する領域を前記把持領域として決定する、
ことを特徴とする請求項1に記載の把持方法。
The step of recognizing the gripping object extracts a feature point from the environment information, and executes a matching process between the extracted feature point and a feature point of a model stored in advance as a feature point of the gripping object. By recognizing the gripping object,
The step of determining the gripping area determines, as the gripping area, an area where the feature point of the model matches the feature point of the gripping object among the gripping object.
The gripping method according to claim 1, wherein:
前記把持領域を決定するステップは、前記把持対象物のうち、前記モデルの特徴点と一致する複数の特徴点の重心を前記把持領域として決定する、
ことを特徴とする請求項2に記載の把持方法。
The step of determining the gripping region determines, as the gripping region, centroids of a plurality of feature points that match feature points of the model among the gripping objects.
The gripping method according to claim 2, wherein:
前記把持方法は、さらに、前記把持対象物において、前記把持対象物の一部分として認識されていない未観測領域から前記把持対象物の一部分として認識された観測領域に向かう方向に移動させ、前記把持対象物のより多くの部分を認識するステップを備える
ことを特徴とする請求項2又は3に記載の把持方法。
The gripping method further includes moving the gripping object in a direction from an unobserved area that is not recognized as a part of the gripping object toward an observation area that is recognized as a part of the gripping object. The grasping method according to claim 2, further comprising a step of recognizing a larger part of the object.
前記把持対象物のより多くの部分を認識するステップは、
定期的に、周辺の環境情報を取得し、取得された環境情報により、前記把持対象物の特徴点を抽出し、
前記把持対象物の特徴点と前記モデルの特徴点との間で一致しない特徴点の数が所定の閾値以下となるまで、前記把持対象物を移動させる、
ことを特徴とする請求項4に記載の把持方法。
Recognizing more parts of the grasped object,
Periodically, the surrounding environment information is acquired, and the feature points of the gripping object are extracted based on the acquired environment information,
Moving the gripping object until the number of feature points that do not match between the feature points of the gripping object and the feature points of the model is equal to or less than a predetermined threshold;
The gripping method according to claim 4.
前記把持対象物のより多くの部分を認識するステップは、前記未観測領域の重心、又は、前記未観測領域に前記モデルの特徴点を当てはめた場合における当該未観測領域の特徴点の重心から、前記観測領域の重心、又は、前記観測領域の特徴点の重心に向かう方向に、前記把持対象物を移動させる、
ことを特徴とする請求項4又は5に記載の把持方法。
The step of recognizing more parts of the grasped object is the center of gravity of the unobserved region, or the center of gravity of the feature point of the unobserved region when the feature point of the model is applied to the unobserved region, Moving the gripping object in a direction toward the center of gravity of the observation region or the center of the feature point of the observation region;
6. The gripping method according to claim 4 or 5, wherein:
請求項4乃至6のいずれか1項に記載の把持方法によって把持した把持対象物を運搬先に運搬する運搬方法であって、
前記把持対象物のより多くの部分を認識するステップによって認識された把持対象物のより多くの部分が障害物を回避する軌道を決定し、その軌道で前記把持対象物を運搬するステップ
を備えることを特徴とする運搬方法。
A transportation method for transporting a gripping object gripped by the gripping method according to any one of claims 4 to 6 to a transport destination,
Determining a trajectory in which a larger part of the grasped object recognized by the step of recognizing a larger part of the grasped object avoids an obstacle, and transporting the grasped object in the trajectory. A transportation method characterized by
前記把持対象物を運搬するステップは、
周辺の環境情報を取得し、取得された環境情報により、前記把持装置が把持した状態において当該把持装置により隠されていない前記把持対象物の認識可能部分から前記把持対象物の姿勢を特定し、
特定した把持対象物の姿勢の前記運搬先の設置面に対する傾きが、より少なくなるように前記把持対象物の姿勢を補正する、
ことを特徴とする請求項7項に記載の運搬方法。
The step of transporting the gripping object includes:
Acquire surrounding environment information, identify the posture of the gripping object from the recognizable portion of the gripping object that is not hidden by the gripping device in the state gripped by the gripping device, based on the acquired environment information,
Correct the posture of the gripping object so that the inclination of the posture of the identified gripping object with respect to the installation surface of the transport destination is less;
The transportation method according to claim 7, wherein:
3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を認識してロボットアームによって把持するロボットであって、
前記把持対象物を含む周辺の環境情報を取得する環境情報取得部と、
取得された環境情報により、周辺の環境から前記把持対象物の一部分が認識された場合に、把持対象物であると決定する認識部と、
前記把持対象物であると決定された物体の把持領域を決定する把持領域決定部と、を備え、
前記把持領域決定部は、前記把持対象物の一部分として認識された領域を、前記把持領域として決定する
ことを特徴とするロボット。
Even if the gripping object is recognized from the acquired environment information and a part of the recognized gripping object is hidden by an obstacle, the gripping target is acquired. A robot that recognizes an object and grips it with a robot arm,
An environmental information acquisition unit that acquires environmental information around the gripping object;
A recognition unit that determines a gripping object when a part of the gripping object is recognized from the surrounding environment based on the acquired environment information;
A gripping area determination unit that determines a gripping area of an object determined to be the gripping object,
The robot according to claim 1, wherein the gripping area determination unit determines an area recognized as a part of the gripping object as the gripping area.
JP2013249355A 2013-12-02 2013-12-02 Grasping method, carrying method and robot Active JP6176091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013249355A JP6176091B2 (en) 2013-12-02 2013-12-02 Grasping method, carrying method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013249355A JP6176091B2 (en) 2013-12-02 2013-12-02 Grasping method, carrying method and robot

Publications (2)

Publication Number Publication Date
JP2015104796A true JP2015104796A (en) 2015-06-08
JP6176091B2 JP6176091B2 (en) 2017-08-09

Family

ID=53435238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013249355A Active JP6176091B2 (en) 2013-12-02 2013-12-02 Grasping method, carrying method and robot

Country Status (1)

Country Link
JP (1) JP6176091B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110065067A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Motion profile generating device
CN115268638A (en) * 2022-07-11 2022-11-01 江西泰豪动漫职业学院 Tool operation method, system, storage medium and equipment based on virtual scene

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127722A (en) * 1991-10-30 1993-05-25 Nippondenso Co Ltd High-speed picking device for stacked component
US5446835A (en) * 1991-10-30 1995-08-29 Nippondenso Co., Ltd. High-speed picking system for stacked parts
JP2005305613A (en) * 2004-04-23 2005-11-04 Fanuc Ltd Article taking-out device
JP2007290056A (en) * 2006-04-24 2007-11-08 Yaskawa Electric Corp Robot, and its object gripping method
JP2010089238A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Method for taking out workpiece
US20100272547A1 (en) * 2007-06-12 2010-10-28 Norbert Cottone Method And System For Depalletizing Tires Using a Robot
US20120059517A1 (en) * 2010-09-07 2012-03-08 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
US20130085604A1 (en) * 2011-10-04 2013-04-04 Kabushiki Kaisha Yaskawa Denki Robot apparatus, robot system, and method for producing a to-be-processed material

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127722A (en) * 1991-10-30 1993-05-25 Nippondenso Co Ltd High-speed picking device for stacked component
US5446835A (en) * 1991-10-30 1995-08-29 Nippondenso Co., Ltd. High-speed picking system for stacked parts
JP2005305613A (en) * 2004-04-23 2005-11-04 Fanuc Ltd Article taking-out device
US20060104788A1 (en) * 2004-04-23 2006-05-18 Fanuc Ltd. Object picking system
JP2007290056A (en) * 2006-04-24 2007-11-08 Yaskawa Electric Corp Robot, and its object gripping method
US20100272547A1 (en) * 2007-06-12 2010-10-28 Norbert Cottone Method And System For Depalletizing Tires Using a Robot
JP2010089238A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Method for taking out workpiece
US20110251717A1 (en) * 2008-10-10 2011-10-13 Honda Motor Co., Ltd. Method for picking up work pieces
US20120059517A1 (en) * 2010-09-07 2012-03-08 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system
US20130085604A1 (en) * 2011-10-04 2013-04-04 Kabushiki Kaisha Yaskawa Denki Robot apparatus, robot system, and method for producing a to-be-processed material
JP2013078825A (en) * 2011-10-04 2013-05-02 Yaskawa Electric Corp Robot apparatus, robot system, and method for manufacturing workpiece

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110065067A (en) * 2018-01-23 2019-07-30 丰田自动车株式会社 Motion profile generating device
JP2019126866A (en) * 2018-01-23 2019-08-01 トヨタ自動車株式会社 Motion trajectory generation apparatus
CN110065067B (en) * 2018-01-23 2021-12-28 丰田自动车株式会社 Motion trajectory generation device
CN115268638A (en) * 2022-07-11 2022-11-01 江西泰豪动漫职业学院 Tool operation method, system, storage medium and equipment based on virtual scene
CN115268638B (en) * 2022-07-11 2024-04-19 江西泰豪动漫职业学院 Tool operation method, system, storage medium and device based on virtual scene

Also Published As

Publication number Publication date
JP6176091B2 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
KR102650492B1 (en) A robotic system with automated package registration mechanism and methods of operating the same
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP6180087B2 (en) Information processing apparatus and information processing method
EP1905548B1 (en) Workpiece picking apparatus
US8630737B2 (en) Taking out device having function for correcting posture of an article
JP2019063984A5 (en) Information processing device and information processing method
US10434652B2 (en) Workpiece picking system
WO2020022302A1 (en) Grasping device
JP2019181622A (en) Hand control device and hand control system
US10909720B2 (en) Control device for robot, robot, robot system, and method of confirming abnormality of robot
WO2020158060A1 (en) Object grasping system
JP2010071743A (en) Method of detecting object, object detection device and robot system
JP2016196077A (en) Information processor, information processing method, and program
CN110303474B (en) Robot system for correcting teaching of robot using image processing
JP5609760B2 (en) Robot, robot operation method, and program
JP6176091B2 (en) Grasping method, carrying method and robot
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6067547B2 (en) Object recognition device, robot, and object recognition method
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2015182212A (en) Robot system, robot, control device, and control method
Fan et al. An automatic robot unstacking system based on binocular stereo vision
CN117794704A (en) Robot control device, robot control system, and robot control method
JP2020075340A (en) Operation system, control device and program
JP2010236893A (en) Method for detecting relative movement between a plurality of objects
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6176091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151