JP6838833B2 - Gripping device, gripping method, and program - Google Patents

Gripping device, gripping method, and program Download PDF

Info

Publication number
JP6838833B2
JP6838833B2 JP2016172816A JP2016172816A JP6838833B2 JP 6838833 B2 JP6838833 B2 JP 6838833B2 JP 2016172816 A JP2016172816 A JP 2016172816A JP 2016172816 A JP2016172816 A JP 2016172816A JP 6838833 B2 JP6838833 B2 JP 6838833B2
Authority
JP
Japan
Prior art keywords
gripping
failure
success
image information
completion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016172816A
Other languages
Japanese (ja)
Other versions
JP2018039059A (en
Inventor
公俊 山崎
公俊 山崎
佳佑 竹下
佳佑 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinshu University NUC
Toyota Motor Corp
Original Assignee
Shinshu University NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinshu University NUC, Toyota Motor Corp filed Critical Shinshu University NUC
Priority to JP2016172816A priority Critical patent/JP6838833B2/en
Publication of JP2018039059A publication Critical patent/JP2018039059A/en
Application granted granted Critical
Publication of JP6838833B2 publication Critical patent/JP6838833B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、対象物の把持成否の判定を行う把持装置、把持方法、及びプログラムに関する。 The present invention relates to a gripping device, a gripping method, and a program for determining the success or failure of gripping an object.

対象物を把持するエンドエフェクタのセンサからの出力に基づいて、対象物の把持の成功及び失敗を判定し、把持を行う把持装置が知られている(例えば、特許文献1参照)。 A gripping device that determines success or failure of gripping an object based on an output from a sensor of an end effector that grips the object and grips the object is known (see, for example, Patent Document 1).

特開2013−010155号公報Japanese Unexamined Patent Publication No. 2013-010155

ところで、対象物が、例えば、布製品や紙製品などの、把持手段による把持前後において形状変化し易い物体であることが想定される。この場合、把持手段が対象物を把持できない場合は把持失敗と判定されるが、一方で、把持手段が対象物を把持できたが、このとき対象物が大きく変形した場合も把持失敗と考えられる。しかしながら、上記把持装置において、このような対象物が把持手段によって把持前後で形状変化する場合が想定されていない。このため、把持手段が対象物を把持できたが、対象物が大きく変形した場合を把持成功として誤判定される虞がある。 By the way, it is assumed that the object is an object whose shape is likely to change before and after being gripped by the gripping means, such as a cloth product or a paper product. In this case, if the gripping means cannot grip the object, it is determined that the grip has failed. On the other hand, if the gripping means can grip the object, but the object is significantly deformed at this time, it is also considered to be a grip failure. .. However, in the gripping device, it is not assumed that such an object changes its shape before and after gripping by the gripping means. Therefore, although the gripping means can grip the object, if the object is significantly deformed, it may be erroneously determined as a successful grip.

本発明は、かかる課題を解決するためになされたものであり、対象物を把持できたが対象物が大きく変形した場合を把持失敗として正確に判定できる把持装置、把持方法、及びプログラムを提供することを主たる目的とする。 The present invention has been made to solve such a problem, and provides a gripping device, a gripping method, and a program capable of accurately determining a gripping failure when an object can be gripped but the object is significantly deformed. The main purpose is that.

上記目的を達成するための本発明の一態様は、対象物を把持する把持手段と、判定対象の対象物の画像情報を取得する画像取得手段と、前記画像取得手段により取得された判定対象の対象物の画像情報の特徴量を算出する特徴量算出手段と、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された、前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶する記憶手段と、前記記憶手段に記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記特徴量算出手段により算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する成否判定手段と、を備える、ことを特徴とする把持装置である。
この一態様において、前記成否判定手段により前記把持成功の把持成否パターンであると判定されたとき、前記把持手段が次のタスクを実行するように、該把持手段を制御し、前記成否判定手段により前記第1の把持失敗の把持成否パターンであると判定されたとき、前記把持手段の動作を停止する制御を行う制御手段を更にを備えていてもよい。
この一態様において、前記記憶手段は、更に、前記把持手段が対象物を移動させることができ、かつ該対象物の変形量が所定量未満で小さい移動成功、前記把持手段が対象物を移動させることができ、かつ該対象物の変形量が所定量以上で大きい第1の移動失敗、および、前記把持手段が対象物を移動させることができない第2の移動失敗、を含む移動成否パターンのそれぞれについて、予め取得された前記把持手段による対象物の把持完了から、該把持完了後、前記把持手段による対象物の移動が完了する移動完了までの画像情報の特徴量の時系列データを記憶しており、前記成否判定手段は、前記記憶手段に記憶された前記把持手段による対象物の把持完了から移動完了までの画像情報の特徴量の時系列データのそれぞれと、前記特徴量算出手段により算出された把持手段による判定対象の対象物の把持完了から移動完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた移動成否パターンと判定してもよい。
この一態様において、前記成否判定手段により前記第1の把持失敗の把持成否パターンであると判定されたとき、該第1の把持失敗の内容を報知する報知手段を更に備えていてもよい。
上記目的を達成するための本発明の一態様は、対象物を把持する把持手段と、前記対象物の画像情報を取得する画像取得手段と、前記画像取得手段により取得された対象物の画像情報の特徴量を算出する特徴量算出手段と、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンの判定を行う成否判定手段と、を備える把持装置であって、前記成否判定手段は、前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していると判定し、かつ、前記特徴量算出手段により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量未満であると判定したとき、前記把持成功の把持成否パターンであると判定し、前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していないと判定し、かつ、前記特徴量算出手段により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量以上であると判定したとき、前記第1の把持失敗の把持成否パターンであると判定し、前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していないと判定したとき、前記第2の把持失敗の把持成否パターンであると判定する、ことを特徴とする把持装置であってもよい。
上記目的を達成するための本発明の一態様は、判定対象の対象物の画像情報を取得するステップと、前記取得された判定対象の対象物の画像情報の特徴量を算出するステップと、把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶するステップと、前記記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定するステップと、を含む、ことを特徴とする把持方法であってもよい。
上記目的を達成するための本発明の一態様は、判定対象の対象物の画像情報を取得する処理と、前記取得された判定対象の対象物の画像情報の特徴量を算出する処理と、把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶する処理と、前記記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する処理と、をコンピュータに実行させる、ことを特徴とするプログラムであってもよい。
One aspect of the present invention for achieving the above object is a gripping means for gripping an object, an image acquisition means for acquiring image information of the object to be determined, and a determination target acquired by the image acquisition means. The feature amount calculation means for calculating the feature amount of the image information of the object, the gripping means can grip the object, and the deformation amount of the object is less than a predetermined amount and the gripping success is small, and the gripping means is the target. Each of the gripping success / failure patterns including the first gripping failure in which the object can be gripped and the deformation amount of the object is large by a predetermined amount or more, and the second gripping failure in which the gripping means cannot grip the object. A storage means for storing previously acquired time-series data of feature amounts of image information from the start of gripping the object to the completion of gripping by the gripping means, and a storage means stored in the storage means for the object by the gripping means. Each of the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping, and the feature amount of the image information from the start of gripping to the completion of gripping the object to be determined by the gripping means calculated by the feature amount calculating means. The success / failure determination means for calculating the correlation with the time-series data of the above and determining that the gripping success / failure pattern of the object to be determined is the gripping success / failure pattern associated with the time-series data of the feature amount having the highest correlation. The gripping device is characterized by the above.
In this aspect, when the success / failure determination means determines that the gripping success / failure pattern is successful, the gripping means is controlled so that the gripping means executes the next task, and the success / failure determination means controls the gripping means. When it is determined that the gripping success / failure pattern of the first gripping failure is determined, the control means for controlling to stop the operation of the gripping means may be further provided.
In this aspect, in the storage means, the gripping means can move the object, and the deformation amount of the object is less than a predetermined amount and the movement is successful, and the gripping means moves the object. Each of the movement success / failure patterns including the first movement failure in which the object can be deformed by a predetermined amount or more and the deformation amount of the object is large, and the second movement failure in which the gripping means cannot move the object. The time-series data of the feature amount of the image information from the completion of gripping the object by the gripping means acquired in advance to the completion of the movement of the object by the gripping means after the gripping is completed is stored. The success / failure determination means is calculated by each of the time-series data of the feature amount of the image information from the completion of gripping the object to the completion of movement by the gripping means stored in the storage means and the feature amount calculation means. The correlation between the time-series data of the feature amount of the image information from the completion of gripping the object to be determined by the gripping means to the completion of movement is calculated, and the gripping success / failure pattern of the object to be determined has the highest correlation. It may be determined that the movement success / failure pattern is associated with the time-series data of the feature quantity.
In this aspect, when the success / failure determination means determines that the grip success / failure pattern of the first grip failure is determined, the notification means for notifying the content of the first grip failure may be further provided.
One aspect of the present invention for achieving the above object is a gripping means for gripping an object, an image acquisition means for acquiring image information of the object, and image information of the object acquired by the image acquisition means. The feature amount calculating means for calculating the feature amount of the above, and the gripping means can grip the object, and the deformation amount of the object is less than a predetermined amount and the gripping success is small, and the gripping means can grip the object. A success / failure determination means for determining a gripping success / failure pattern including a first gripping failure in which the deformation amount of the object is large by a predetermined amount or more and a second gripping failure in which the gripping means cannot grip the object. The success / failure determination means grips the object, and the gripping means grips the object when the grip is completed, based on the image information of the gripping means when the grip is completed, which is acquired by the image acquisition means. It is determined that the amount of change in the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object calculated by the feature amount calculation means is less than the first predetermined change amount. When the gripping is completed, it is determined that the gripping success / failure pattern is successful, and the gripping means grips the object when the gripping is completed, based on the image information of the gripping means at the time of completing the gripping acquired by the image acquisition means. It is determined that the image information has not been changed, and the amount of change in the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object calculated by the feature amount calculation means is equal to or greater than the first predetermined change amount. When it is determined, it is determined that it is the gripping success / failure pattern of the first gripping failure, and based on the image information of the gripping means at the time of completion of gripping acquired by the image acquisition means, the gripping means is said to be said when the gripping is completed. The gripping device may be characterized in that when it is determined that the object is not gripped, it is determined that it is the gripping success / failure pattern of the second gripping failure.
One aspect of the present invention for achieving the above object is a step of acquiring image information of an object to be determined, a step of calculating a feature amount of the acquired image information of the object to be determined, and grasping. The means can grip the object and the deformation amount of the object is small less than a predetermined amount, and the gripping means succeeds in gripping the object. The gripping means can grip the object and the deformation amount of the object is large by a predetermined amount or more. Images from the start to the completion of gripping the object by the gripping means acquired in advance for each of the gripping success / failure patterns including the gripping failure of 1 and the second gripping failure in which the gripping means cannot grip the object. The step of storing the time-series data of the feature amount of the information, the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the stored gripping means, and the calculated time-series data. The correlation between the time-series data of the feature amount of the image information from the start of gripping the object to be determined by the gripping means to the completion of gripping is calculated, and the gripping success / failure pattern of the object to be determined has the highest correlation. The gripping method may include a step of determining a gripping success / failure pattern associated with the time series data of the quantity.
One aspect of the present invention for achieving the above object is a process of acquiring image information of an object to be determined, a process of calculating a feature amount of the acquired image information of the object to be determined, and grasping. The means can grip the object and the deformation amount of the object is small less than a predetermined amount, and the gripping means succeeds in gripping the object. The gripping means can grip the object and the deformation amount of the object is large by a predetermined amount or more. An image from the start of gripping the object to the completion of gripping by the gripping means acquired in advance for each of the gripping success / failure patterns including the gripping failure of 1 and the second gripping failure in which the gripping means cannot grip the object. The process of storing the time-series data of the feature amount of the information, the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the stored gripping means, and the calculated time-series data. The correlation between the time-series data of the feature amount of the image information from the start of gripping the object to be determined by the gripping means to the completion of gripping is calculated, and the gripping success / failure pattern of the object to be determined has the highest correlation. The program may be characterized in that a computer is made to execute a process of determining a gripping success / failure pattern associated with a quantity of time-series data.

本発明によれば、対象物を把持できたが対象物が大きく変形した場合を把持失敗として正確に判定できる把持装置、把持方法、及びプログラムを提供することができる。 According to the present invention, it is possible to provide a gripping device, a gripping method, and a program that can accurately determine a gripping failure when an object can be gripped but the object is significantly deformed.

本発明の実施形態1に係る把持装置の概略的なシステム構成を示すブロック図である。It is a block diagram which shows the schematic system structure of the gripping apparatus which concerns on Embodiment 1 of this invention. ロボットアームの概略的構成を示すブロック図である。It is a block diagram which shows the schematic structure of a robot arm. 本発明の実施形態1に係る把持方法の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the gripping method which concerns on Embodiment 1 of this invention.

実施形態1
以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の実施形態1に係る把持装置の概略的なシステム構成を示すブロック図である。本実施形態1に係る把持装置1は、例えば、布製品や紙製品などの形状変化し易い対象物の把持を行い、その把持の成否を判定する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic system configuration of a gripping device according to a first embodiment of the present invention. The gripping device 1 according to the first embodiment grips an object whose shape is likely to change, such as a cloth product or a paper product, and determines the success or failure of the gripping.

把持装置1は、まず、[1]対象物の画像情報の学習データを生成し記憶部5に記憶させる学習処理と、学習処理後に、[2]把持開始から把持完了までの対象物の画像情報に基づいて、その把持動作の成否を判定する判定処理と、を実行する。 The gripping device 1 first has [1] a learning process of generating learning data of image information of an object and storing it in a storage unit 5, and [2] image information of the object from the start of gripping to the completion of gripping after the learning process. Based on the above, a determination process for determining the success or failure of the gripping operation is executed.

把持装置1は、例えば、制御処理、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム、制御プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心にして、それぞれ、ハードウェア構成されている。CPU、メモリ、及びインターフェイス部は、データバスなどを介して相互に接続されている。 The gripping device 1 includes, for example, a CPU (Central Processing Unit) that performs control processing, arithmetic processing, etc., a ROM (Read Only Memory) or RAM (Random Access Memory) that stores arithmetic programs, control programs, etc. executed by the CPU. Each hardware is configured around a microcomputer consisting of a memory composed of a memory, an interface unit (I / F) for inputting / outputting signals to / from the outside, and the like. The CPU, memory, and interface unit are connected to each other via a data bus or the like.

把持装置1は、対象物の画像を取得する画像取得部2と、ロボットアーム3の把持動作を実行する把持実行部4と、対象物を把持するロボットアーム3と、学習データを記憶する記憶部5と、対象物の把持位置を設定する把持位置設定部6と、対象物の把持の成否を判定する成否判定部7と、画像情報の特徴量を算出する特徴量算出部8と、ユーザに対して報知を行う報知部9と、を備えている。 The gripping device 1 includes an image acquisition unit 2 that acquires an image of an object, a gripping execution unit 4 that executes a gripping operation of the robot arm 3, a robot arm 3 that grips the object, and a storage unit that stores learning data. 5, a gripping position setting unit 6 for setting a gripping position of an object, a success / failure determination unit 7 for determining the success or failure of gripping an object, a feature amount calculation unit 8 for calculating a feature amount of image information, and a user It is provided with a notification unit 9 that notifies the user.

画像取得部2は、画像取得手段の一具体例である。画像取得部2は、例えば、距離画像センサを用いて、対象物の画像情報を取得する。なお、画像情報は、距離情報を含んでいてもよい。例えば、画像情報は、センサ(計測点)から計測対象を撮像した画像情報とセンサから計測対象までの距離情報とを含んでおり、1画素につき、“RGBD(カラー+距離)”または“グレースケール(輝度値)+距離“を含んでいる。距離画像センサは、例えば、ステレオカメラ(3次元カメラ)、LRF(レーザレンジファインダ)+カメラ、Microsoft Kinect(登録商標)などで構成される。 The image acquisition unit 2 is a specific example of the image acquisition means. The image acquisition unit 2 acquires image information of an object by using, for example, a distance image sensor. The image information may include distance information. For example, the image information includes image information obtained by imaging the measurement target from the sensor (measurement point) and distance information from the sensor to the measurement target, and per pixel is "RGBD (color + distance)" or "gray scale". (Brightness value) + distance "is included. The range image sensor is composed of, for example, a stereo camera (three-dimensional camera), an LRF (laser range finder) + camera, a Microsoft Kinect (registered trademark), and the like.

把持実行部4は、制御手段の一具体例である。把持実行部4は、ロボットアーム3の駆動を制御することで、対象物の把持を実行する。 The gripping execution unit 4 is a specific example of the control means. The gripping execution unit 4 executes gripping of an object by controlling the drive of the robot arm 3.

ロボットアーム3は、把持手段の一具体例である。ロボットアーム3は、例えば、複数のリンク31と、各リンク31を回動可能に連結する関節部(手首関節、肘関節、肩関節など)32と、その先端に設けられ対象物を把持するエンドエフェクタ33と、を有する(図2)。 The robot arm 3 is a specific example of the gripping means. The robot arm 3 is, for example, a plurality of links 31, joints (wrist joints, elbow joints, shoulder joints, etc.) 32 that rotatably connect each link 31, and an end provided at the tip thereof to grip an object. It has an effector 33 (FIG. 2).

各関節部32には、各関節部32の回転情報を検出するエンコーダなどの回転センサ34と、各関節部32を駆動するサーボモータなどのアクチュエータ35と、各関節部32の操作力を検出する力センサ36と、が設けれている。力センサ36は、例えば、各関節部32のトルクを検出するトルクセンサなどである。各関節部32には、減速機構が設けられている。エンドエフェクタ33は、例えば、複数の指部などで構成され、指部で挟み込むことで対象物を把持することができる。エンドエフェクタ33には、エンドエフェクタ33を駆動するアクチュエータ37と、エンドエフェクタ33の操作力を検出する力センサ38と、が設けられている。 Each joint 32 detects a rotation sensor 34 such as an encoder that detects rotation information of each joint 32, an actuator 35 such as a servomotor that drives each joint 32, and an operating force of each joint 32. A force sensor 36 is provided. The force sensor 36 is, for example, a torque sensor that detects the torque of each joint portion 32. Each joint portion 32 is provided with a deceleration mechanism. The end effector 33 is composed of, for example, a plurality of finger portions, and the object can be gripped by sandwiching the end effector 33 between the finger portions. The end effector 33 is provided with an actuator 37 for driving the end effector 33 and a force sensor 38 for detecting the operating force of the end effector 33.

把持実行部4は、制御手段の一具体例である。把持実行部4は、例えば、各関節部32の回転センサ34からの回転情報(回転角など)と、力センサ36からの操作力と、に基づいて、各関節部32及びエンドエフェクタ33のアクチュエータ35、37を制御することで、ロボットアーム3をフィードバック制御する。これにより、ロボットアーム3は、対象物を把持し、移動させることができる。 The gripping execution unit 4 is a specific example of the control means. The gripping execution unit 4 is, for example, based on the rotation information (rotation angle, etc.) from the rotation sensor 34 of each joint portion 32 and the operating force from the force sensor 36, and the actuator of each joint portion 32 and the end effector 33. By controlling 35 and 37, the robot arm 3 is feedback-controlled. As a result, the robot arm 3 can grasp and move the object.

特徴量算出部8は、特徴量算出手段の一具体例である。特徴量算出部8は、画像取得部2により取得された画像情報に基づいて、その画像情報の特徴量を算出する。特徴量算出部8は、対象物形状(エッジ)の変化を捉えるのに好適な、例えば、HOG(Histograms of Oriented Gradients)特徴量を算出するのが好ましい。これにより、後述の形状変化する対象物のエッジの特徴を良好に捉え、より高精度のその把持成否判定を行うことができる。なお、特徴量算出部8は、SURF(Speeded Up Robust Features)特徴量やSIFT(Scale-Invariant Feature Transform)特徴量などの特徴量を算出してもよく、任意の特徴量を算出してもよい。 The feature amount calculation unit 8 is a specific example of the feature amount calculation means. The feature amount calculation unit 8 calculates the feature amount of the image information based on the image information acquired by the image acquisition unit 2. The feature amount calculation unit 8 is suitable for capturing a change in the shape (edge) of an object, for example, it is preferable to calculate a HOG (Histograms of Oriented Gradients) feature amount. As a result, it is possible to better capture the characteristics of the edge of the object whose shape changes, which will be described later, and to perform the gripping success / failure judgment with higher accuracy. The feature amount calculation unit 8 may calculate a feature amount such as a SURF (Speeded Up Robust Features) feature amount or a SIFT (Scale-Invariant Feature Transform) feature amount, or may calculate an arbitrary feature amount. ..

記憶部5は、記憶手段の一具体例である。記憶部5は、対象物の画像情報、その特徴量などの学習データを、予め記憶する。記憶部5は、例えば、上記メモリなどで構成されている。 The storage unit 5 is a specific example of the storage means. The storage unit 5 stores in advance learning data such as image information of an object and its feature amount. The storage unit 5 is composed of, for example, the above-mentioned memory.

学習データは、例えば、以下のように対応付けられている。
(1)ロボットアーム3による把持前の対象物の画像情報と、その対象物を把持するのに最適な対象物の把持位置(把持姿勢)と、が複数組、対応付けられている。
The learning data are associated with each other as follows, for example.
(1) A plurality of sets of image information of the object before being gripped by the robot arm 3 and a gripping position (grasping posture) of the object optimal for gripping the object are associated with each other.

(2)ロボットアーム3が対象物の把持を開始(把持開始)してから、その把持が完了(把持完了)するまでの、対象物の画像情報の特徴量の時系列データと、以下の把持成否パターン(a)〜(c)のいずれかと、が、複数組対応付けられている。 (2) Time-series data of the feature amount of the image information of the object from the start of the robot arm 3 gripping the object (start of gripping) to the completion of the gripping (grasping completed), and the following gripping A plurality of sets of success / failure patterns (a) to (c) are associated with each other.

上記把持成否パターンは、(a)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、(b)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および(c)ロボットアーム3が対象物を把持できない第2の把持失敗、を含む。 The gripping success / failure pattern is as follows: (a) the robot arm 3 can grip the object and the deformation amount of the object is less than a predetermined amount and the grip is small, and (b) the robot arm 3 can grip the object. This includes a first grip failure in which the amount of deformation of the object is larger than a predetermined amount, and (c) a second grip failure in which the robot arm 3 cannot grip the object.

なお、上記ロボットアーム3が対象物を把持できるとは、例えば、ロボットアーム3のエンドエフェクタ33の指部が対象物を挟み込み把持(保持)できた状態を指す。一方、ロボットアーム3が対象物を把持できないとは、例えば、ロボットアーム3のエンドエフェクタ33の指部が対象物から外れ把持(保持)できていない状態を指す。 Note that the robot arm 3 can grip the object means, for example, a state in which the finger portion of the end effector 33 of the robot arm 3 can pinch and hold the object. On the other hand, the fact that the robot arm 3 cannot grip the object means, for example, a state in which the finger portion of the end effector 33 of the robot arm 3 is detached from the object and cannot be gripped (held).

上記把持成否パターン(c)の第2の把持失敗は、(c−1)ロボットアーム3が対象物に接触できないため対象物を把持できず、対象物の形状変化がない把持失敗と、(c−2)ロボットアーム3が対象物を把持しようとしたが、対象物が形状変化し把持できなかった把持失敗と、を含んでいる。対象物の変形量とは、例えば、対象物が直方体である場合、縦方向、横方向、あるいは高さ方向の対象物の寸法変化量であり、対象物が球形である場合、その直径の寸法変化量である。また、所定量は、対象物の性質等を考慮して適宜設定される。 The second gripping failure of the gripping success / failure pattern (c) includes (c-1) a gripping failure in which the robot arm 3 cannot touch the object and therefore cannot grip the object and the shape of the object does not change, and (c-1). -2) The robot arm 3 tried to grip the object, but the shape of the object changed and the robot arm 3 failed to grip the object. The amount of deformation of an object is, for example, the amount of dimensional change of the object in the vertical, horizontal, or height direction when the object is a rectangular parallelepiped, and when the object is spherical, the dimension of its diameter. The amount of change. In addition, the predetermined amount is appropriately set in consideration of the properties of the object and the like.

把持位置設定部6は、記憶部5に記憶された学習データである把持前の対象物の画像情報と、画像取得部2により取得された対象物の画像情報と、に基づいて、対象物の把持位置を設定する。例えば、把持位置設定部6は、記憶部5に記憶された学習データである把持前の対象物の画像情報と、画像取得部2により取得された対象物の画像情報とのマッチングを行う。把持位置設定部6は、マッチングの結果、画像取得部2により取得された対象物の画像情報と最も尤度が高い、記憶部5の学習データの対象物の画像情報を選択する。そして、把持位置設定部6はその選択した対象物の画像情報に対応付けられた把持位置を、対象物の把持位置として設定する。把持実行部4は、把持位置設定部6により設定された対象物の把持位置に基づいて、逆運動力学を用いて、ロボットアーム3の各関節の回転角を算出し、算出した回転角に基づいて、ロボットアーム3を制御し、該対象物の把持を開始する。 The gripping position setting unit 6 is based on the image information of the object before gripping, which is the learning data stored in the storage unit 5, and the image information of the object acquired by the image acquisition unit 2. Set the gripping position. For example, the gripping position setting unit 6 matches the image information of the object before gripping, which is the learning data stored in the storage unit 5, with the image information of the object acquired by the image acquisition unit 2. As a result of matching, the gripping position setting unit 6 selects the image information of the object acquired by the image acquisition unit 2 and the image information of the object of the learning data of the storage unit 5, which has the highest likelihood. Then, the gripping position setting unit 6 sets the gripping position associated with the image information of the selected object as the gripping position of the object. The gripping execution unit 4 calculates the rotation angle of each joint of the robot arm 3 using reverse kinematics based on the gripping position of the object set by the gripping position setting unit 6, and is based on the calculated rotation angle. Then, the robot arm 3 is controlled to start grasping the object.

成否判定部7は、成否判定手段の一具体例である。成否判定部7は、記憶部5に記憶された学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データに基づいて、特徴量算出部8により算出された、判定データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データが、把持成否パターン(a)〜(c)のいずれに該当するかを判定する。 The success / failure determination unit 7 is a specific example of the success / failure determination means. The success / failure determination unit 7 was calculated by the feature amount calculation unit 8 based on the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object, which is the learning data stored in the storage unit 5. It is determined which of the gripping success / failure patterns (a) to (c) corresponds to the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping the object, which is the determination data.

[学習処理]
上述したように、本実施形態1に係る把持装置1は、まず、対象物の画像情報の学習データを生成し記憶部5に記憶させる処理を行う。
[Learning process]
As described above, the gripping device 1 according to the first embodiment first performs a process of generating learning data of image information of an object and storing it in a storage unit 5.

画像取得部2は、ロボットアーム3による把持前の対象物の画像情報を取得する。把持実行部4は、上述したロボットアーム3を制御して、対象物を把持する。このとき、画像取得部2は、対象物の把持開始から把持完了までの画像情報の時系列データを取得する。特徴量算出部8は、画像取得部2により取得されたロボットアーム3の把持開始から把持完了までの画像情報の時系列データに基づいて、その画像情報の特徴量の時系列データを夫々算出する。上記処理は複数回繰り返される。 The image acquisition unit 2 acquires image information of the object before being gripped by the robot arm 3. The gripping execution unit 4 controls the robot arm 3 described above to grip the object. At this time, the image acquisition unit 2 acquires time-series data of image information from the start of gripping the object to the completion of gripping. The feature amount calculation unit 8 calculates the feature amount time-series data of the image information based on the time-series data of the image information from the start of gripping to the completion of gripping of the robot arm 3 acquired by the image acquisition unit 2. .. The above process is repeated a plurality of times.

記憶部5は、上述のように、画像取得部2に取得された把持前の対象物の画像情報と、その対象物を把持するのに最適な対象物の把持位置と、を複数組、対応付けて、学習データとして記憶する。記憶部5は、上述のように、画像取得部2に取得された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、把持成否パターン(a)〜(c)のいずれかと、を、複数組対応付けて、学習データとして記憶する。
上記対応付けの学習には、例えば、SVM(support vector machine)又はランダムフォレスト(Random Forest)などが用いられている。
As described above, the storage unit 5 corresponds to a plurality of sets of the image information of the object before gripping acquired by the image acquisition unit 2 and the optimum gripping position of the object for gripping the object. Attach and store as learning data. As described above, the storage unit 5 contains time-series data of the feature amount of the image information acquired by the image acquisition unit 2 from the start of gripping to the completion of gripping, and the gripping success / failure patterns (a) to (c). One of them is associated with a plurality of sets and stored as training data.
For example, an SVM (support vector machine) or a random forest (Random Forest) is used for learning the association.

[判定処理]
続いて、本実施形態1に係る把持装置1は、上記[学習処理]を行った後、把持開始から把持完了までの対象物の画像情報に基づいて、その把持動作の成否を判定する判定処理を行う。
[Determination process]
Subsequently, the gripping device 1 according to the first embodiment performs the above-mentioned [learning process], and then determines the success or failure of the gripping operation based on the image information of the object from the start of gripping to the completion of gripping. I do.

把持実行部4は、ロボットアーム3の駆動を制御することで、対象物の把持を行う。
画像取得部2は、判定データとなる対象物の把持開始から把持完了までの画像情報の時系列データを取得する。そして、特徴量算出部8は、画像取得部2により取得されたロボットアーム3の把持開始から把持完了までの画像情報の時系列データに基づいて、その画像情報の特徴量の時系列データを算出する。
The gripping execution unit 4 grips the object by controlling the drive of the robot arm 3.
The image acquisition unit 2 acquires time-series data of image information from the start of gripping the object to the completion of gripping, which is the determination data. Then, the feature amount calculation unit 8 calculates the time-series data of the feature amount of the image information based on the time-series data of the image information from the start of gripping to the completion of gripping of the robot arm 3 acquired by the image acquisition unit 2. To do.

成否判定部7は、記憶部5に記憶された学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された判定データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の比較を行う。 The success / failure determination unit 7 is based on the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping the object, which is the learning data stored in the storage unit 5, and the determination data calculated by the feature amount calculation unit 8. A comparison is made with the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping an object.

例えば、成否判定部7は、記憶部5の学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された判定データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関値をそれぞれ算出する。そして、成否判定部7は、記憶部5の学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの中から、算出した相関値が最も大きい特徴量の時系列データを選択し、該選択した特徴量の時系列データに対応付けられた把持成否パターン(a)〜(c)であると判定する。なお、成否判定部7は、上記相関値として、例えば、ピアソンの積率相関係数を算出する。 For example, the success / failure determination unit 7 is time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object, which is the learning data of the storage unit 5, and the determination data calculated by the feature amount calculation unit 8. Correlation values are calculated with the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping. Then, when the success / failure determination unit 7 has the largest feature amount calculated from the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object, which is the learning data of the storage unit 5. The series data is selected, and it is determined that the gripping success / failure patterns (a) to (c) are associated with the time series data of the selected feature amount. The success / failure determination unit 7 calculates, for example, Pearson's product-moment correlation coefficient as the correlation value.

ところで、対象物が、例えば、布製品や紙製品などの、ロボットアームによる把持前後において形状変化し易い物体であることが想定される。この場合、ロボットアームが対象物を把持できない場合は把持失敗と判定されるが、一方で、ロボットアームが対象物を把持できたが、このとき対象物が大きく変形した場合も把持失敗と考えられる。しかしながら、従来の把持装置において、このような対象物がロボットアームによって把持前後で形状変化し易い場合が想定されていない。このため、ロボットアームが対象物を把持できたが、このとき対象物が大きく変形した場合を把持成功として誤判定される虞がある。 By the way, it is assumed that the object is an object whose shape is likely to change before and after being gripped by the robot arm, such as a cloth product or a paper product. In this case, if the robot arm cannot grip the object, it is determined that the grip has failed. On the other hand, if the robot arm can grip the object, but the object is significantly deformed at this time, it is also considered to be a grip failure. .. However, in the conventional gripping device, it is not assumed that such an object is likely to change its shape before and after gripping by the robot arm. Therefore, the robot arm was able to grip the object, but if the object is significantly deformed at this time, it may be erroneously determined as a successful grip.

これに対し、本実施形態に係る把持装置1においては、上述の如く、[学習処理]において、記憶部5は、(a)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、(b)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および(c)ロボットアーム3が対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された、ロボットアーム3による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを記憶する。 On the other hand, in the gripping device 1 according to the present embodiment, as described above, in the [learning process], the storage unit 5 can (a) the robot arm 3 can grip the object and the amount of deformation of the object. Is less than a predetermined amount and the grip is small, (b) the robot arm 3 can grip the object, and the deformation amount of the object is larger than the predetermined amount, the first grip failure, and (c) the robot arm 3 is the target. The time-series data of the feature amount of the image information from the start of gripping the object by the robot arm 3 to the completion of gripping, which is acquired in advance for each of the gripping success / failure patterns including the second gripping failure in which the object cannot be gripped, is stored.

そして、[判定処理]において、成否判定部7は、記憶部5に記憶されたロボットアーム3による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、特徴量算出部8により算出された、判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関値を算出する。そして、成否判定部7は、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する。 Then, in the [determination process], the success / failure determination unit 7 includes each of the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the robot arm 3 stored in the storage unit 5, and the feature amount. A correlation value is calculated with the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping the object to be determined, which is calculated by the calculation unit 8. Then, the success / failure determination unit 7 determines that the gripping success / failure pattern of the object to be determined is the gripping success / failure pattern associated with the time-series data of the feature amount having the highest correlation.

これにより、把持成否パターンに、上記(a)把持成功および、特に(c)第2の把持失敗と、明確に区別して、(b)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量以上である第1の把持失敗、を含めることができる。したがって、対象物を把持できたが対象物が所定量以上で大きく変形した場合を把持失敗として正確に判定できる。 As a result, the robot arm 3 can grip the object, and the robot arm 3 can grip the object, clearly distinguishing the above-mentioned (a) successful grip and particularly (c) second grip failure in the gripping success / failure pattern. A first gripping failure, in which the amount of deformation is equal to or greater than a predetermined amount, can be included. Therefore, when the object can be gripped but the object is greatly deformed by a predetermined amount or more, it can be accurately determined as a grip failure.

続いて、上記把持成否パターン(a)〜(c)の判定後の処理について説明する。
成否判定部7が把持成功(把持成否パターン(a)の把持成功)と判定したとき、把持実行部4は、ロボットアーム3が次のタスクを実行するように、ロボットアーム3を制御する。この場合、ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が小さいため、ロボットアーム3は次のタスクをそのまま実行できる。
Subsequently, the post-determination processing of the gripping success / failure patterns (a) to (c) will be described.
When the success / failure determination unit 7 determines that the grip is successful (the grip success / failure pattern (a) is successfully gripped), the grip execution unit 4 controls the robot arm 3 so that the robot arm 3 executes the next task. In this case, since the robot arm 3 can grip the object and the amount of deformation of the object is small, the robot arm 3 can execute the next task as it is.

一方、成否判定部7が把持成否パターン(b)の第1の把持失敗であると判定する場合、ロボットアーム3が対象物を把持できているが、対象物の変形量が所定量以上で大きい。この場合、例えば、ロボットアーム3が、その後、対象物を移動するなどの次のタスクを行うと、対象物の変形量が更に大きくなり、さらには把持している対象物を落とすなどの、その後の動作失敗に繋がる可能性が高い。このため、把持実行部4は、一旦、ロボットアーム3の動作を停止する制御を行う。 On the other hand, when the success / failure determination unit 7 determines that the first gripping failure of the gripping success / failure pattern (b) is performed, the robot arm 3 is able to grip the object, but the deformation amount of the object is large at a predetermined amount or more. .. In this case, for example, when the robot arm 3 subsequently performs the next task such as moving the object, the amount of deformation of the object becomes larger, and the object being held is dropped. There is a high possibility that it will lead to the operation failure of. Therefore, the gripping execution unit 4 temporarily controls to stop the operation of the robot arm 3.

このとき、例えば、ユーザは自らの手で、あるいはロボットアーム3などを用いて、対象物を、元の形状に戻すあるいは近付ける修正を行ってもよい。この場合、把持位置設定部6は、再度学習データのマッチングを行い、対象物の把持位置の再設定を行う。具体的には、把持位置設定部6は、前回選択した対象物の画像情報を除いて、画像取得部2により取得された対象物の画像情報と最も尤度が高い、記憶部5の学習データの対象物の画像情報を選択する。そして、把持位置設定部6はその選択した対象物の画像情報に対応付けられた把持位置を、対象物の把持位置として再設定する。把持実行部4は、把持位置設定部6により再設定された対象物の把持位置に基づいて、ロボットアーム3を制御し、該対象物の把持を再度開始する。
以上のようにして、ロボットアーム3に把持された対象物の変形量が大きい場合に、ロボットアーム3のその後の動作を確実に停止できる。さらに、対象物の形状が修正等された場合は、ロボットアーム3はその対象物を再把持できる。
なお、成否判定部7は、(b)ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量以上である第1の把持失敗の把持成否パターンと判定したとき、その旨をユーザに報知してもよい。成否判定部7は、例えば、スピーカ、表示装置、などの報知部9を用いて、ユーザに対して報知を行う。これにより、対象物を把持できたが、対象物が大きく変形したために把持失敗であることをユーザに明確に報知できる。
At this time, for example, the user may modify the object to return to its original shape or bring it closer to the original shape by his / her own hand or by using the robot arm 3 or the like. In this case, the gripping position setting unit 6 matches the learning data again and resets the gripping position of the object. Specifically, the gripping position setting unit 6 has the highest likelihood of learning data of the storage unit 5 with the image information of the object acquired by the image acquisition unit 2, excluding the image information of the object selected last time. Select the image information of the object of. Then, the gripping position setting unit 6 resets the gripping position associated with the image information of the selected object as the gripping position of the object. The gripping execution unit 4 controls the robot arm 3 based on the gripping position of the object reset by the gripping position setting unit 6, and restarts the gripping of the object.
As described above, when the amount of deformation of the object gripped by the robot arm 3 is large, the subsequent operation of the robot arm 3 can be reliably stopped. Further, when the shape of the object is modified or the like, the robot arm 3 can re-grasp the object.
When the success / failure determination unit 7 determines that (b) the robot arm 3 can grip the object and the deformation amount of the object is equal to or greater than a predetermined amount, it determines that the first grip failure pattern is a grip success / failure pattern. May be notified to the user. The success / failure determination unit 7 notifies the user by using, for example, a notification unit 9 such as a speaker or a display device. As a result, the object can be gripped, but the user can be clearly notified that the object has been deformed so much that the grip has failed.

成否判定部7が把持成否パターン(c)の第2の把持失敗であると判定すると、把持位置設定部6は、再度学習データのマッチングを行い、対象物の把持位置の再設定を行う。
ここで、把持成否パターン(c)の第2の把持失敗は、上述の如く、(c−1)ロボットアーム3が対象物に接触できないため対象物を把持できず、対象物の形状変化がない場合と、(c−2)ロボットアーム3が対象物を把持しようとしたが対象物が形状変化し把持できなかった場合と、を含んでいる。
When the success / failure determination unit 7 determines that the second gripping failure of the gripping success / failure pattern (c) is performed, the gripping position setting unit 6 matches the learning data again and resets the gripping position of the object.
Here, in the second gripping failure of the gripping success / failure pattern (c), as described above, (c-1) the robot arm 3 cannot touch the object, so that the object cannot be gripped and the shape of the object does not change. This includes a case where (c-2) the robot arm 3 tries to grip the object but the shape of the object changes and the robot arm 3 cannot grip the object.

この場合、記憶部5は、例えば、ロボットアーム3による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、(c−1)ロボットアーム3が対象物に接触できないため対象物を把持できず、対象物の形状変化がない把持失敗と、(c−2)ロボットアーム3が対象物を把持しようとしたが対象物が形状変化し把持できなかった把持失敗と、を対応付けて更に記憶していてもよい。 In this case, for example, the storage unit 5 cannot contact the time-series data of the feature amount of the image information from the start of gripping the object by the robot arm 3 to the completion of gripping, and (c-1) the robot arm 3 cannot contact the object. A gripping failure in which the object could not be gripped and the shape of the object did not change, and (c-2) a gripping failure in which the robot arm 3 tried to grip the object but the shape of the object changed and could not be gripped. It may be associated and further stored.

成否判定部7は、記憶部5の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関値をそれぞれ算出する。そして、成否判定部7は、記憶部5の学習データである把持開始から把持完了までの画像情報の特徴量の時系列データの中から、算出した相関値が最も大きい特徴量の時系列データを選択し、該選択した特徴量の時系列データに対応付けられた(c−1)又は(c−2)の第2の把持失敗であると判定する。 The success / failure determination unit 7 includes time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping of the object in the storage unit 5, and the time series data of the feature amount calculated by the feature amount calculation unit 8 from the start of gripping the object to the completion of gripping. The correlation value with the time-series data of the feature amount of the image information is calculated. Then, the success / failure determination unit 7 selects the time-series data of the feature amount having the largest calculated correlation value from the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping, which is the learning data of the storage unit 5. It is selected and determined to be the second grasp failure of (c-1) or (c-2) associated with the time series data of the selected feature amount.

成否判定部7が、(c−1)の第2の把持失敗であると判定を行ったとき、対象物は形状変化していない。このため、把持実行部4は、次のように対象物の再把持を実行する。
例えば、把持位置設定部6は、前回選択した対象物の画像情報を除いて、画像取得部2により取得された対象物の画像情報と最も尤度が高い、記憶部5の学習データの対象物の画像情報を選択する。そして、把持位置設定部6はその選択した対象物の画像情報に対応付けられた把持位置を、対象物の把持位置として再設定する。把持実行部4は、把持位置設定部6により再設定された対象物の把持位置に基づいて、ロボットアーム3を制御し、該対象物の把持を再度開始する。
When the success / failure determination unit 7 determines that the second gripping failure of (c-1) has occurred, the shape of the object has not changed. Therefore, the gripping execution unit 4 re-grasps the object as follows.
For example, the gripping position setting unit 6 has the highest probability of the image information of the object acquired by the image acquisition unit 2 except for the image information of the object selected last time, and is the object of the learning data of the storage unit 5. Select the image information of. Then, the gripping position setting unit 6 resets the gripping position associated with the image information of the selected object as the gripping position of the object. The gripping execution unit 4 controls the robot arm 3 based on the gripping position of the object reset by the gripping position setting unit 6, and restarts the gripping of the object.

一方、成否判定部7が、把持成否パターン(c−2)の第2の把持失敗であると判定を行ったとき、対象物は大きく形状変化している。このため、ロボットアーム3が、その形状変化した対象物の把持を行った場合、再度、把持失敗となる可能性が高い。したがって、把持実行部4は、一旦、ロボットアーム3の動作を停止する制御を行う。 On the other hand, when the success / failure determination unit 7 determines that the second gripping failure of the gripping success / failure pattern (c-2) has occurred, the shape of the object has changed significantly. Therefore, when the robot arm 3 grips the object whose shape has changed, there is a high possibility that the gripping will fail again. Therefore, the gripping execution unit 4 once controls to stop the operation of the robot arm 3.

その後、例えば、ユーザは自らの手で、あるいはロボットアーム3などを用いて、対象物を元の形状に戻すあるいは近付ける修正を行ってもよい。この場合、上記把持成否パターン(c−1)と同様に、把持位置設定部6は、再度学習データのマッチングを行い、対象物の把持位置の再設定を行う。例えば、把持位置設定部6は、前回選択した対象物の画像情報を除いて、画像取得部2により取得された対象物の画像情報と最も尤度が高い、記憶部5の学習データの対象物の画像情報を選択する。そして、把持位置設定部6はその選択した対象物の画像情報に対応付けられた把持位置を、対象物の把持位置として再設定する。把持実行部4は、把持位置設定部6により再設定された対象物の把持位置に基づいて、ロボットアーム3を制御し、該対象物の把持を再度開始する。
以上のようにして、ロボットアーム3が対象物を把持できなかった場合でも、その対象物を再把持できる。
After that, for example, the user may make a modification to return or bring the object back to its original shape by his / her own hand or by using the robot arm 3 or the like. In this case, similarly to the gripping success / failure pattern (c-1), the gripping position setting unit 6 matches the learning data again and resets the gripping position of the object. For example, the gripping position setting unit 6 has the highest probability of the image information of the object acquired by the image acquisition unit 2 except for the image information of the object selected last time, and is the object of the learning data of the storage unit 5. Select the image information of. Then, the gripping position setting unit 6 resets the gripping position associated with the image information of the selected object as the gripping position of the object. The gripping execution unit 4 controls the robot arm 3 based on the gripping position of the object reset by the gripping position setting unit 6, and restarts the gripping of the object.
As described above, even if the robot arm 3 cannot grasp the object, the object can be re-grasped.

図3は、本実施形態1に係る把持方法の処理フローの一例を示すフローチャートである。
把持位置設定部6は、マッチングを行い、画像取得部2により取得された対象物の画像情報と最も尤度が高い、記憶部5の学習データの対象物の画像情報を選択する。そして、把持位置設定部6はその選択した対象物の画像情報に対応付けられた把持位置を、対象物の把持位置として設定する(ステップS101)。
FIG. 3 is a flowchart showing an example of the processing flow of the gripping method according to the first embodiment.
The gripping position setting unit 6 performs matching and selects the image information of the object of the learning data of the storage unit 5, which has the highest likelihood with the image information of the object acquired by the image acquisition unit 2. Then, the gripping position setting unit 6 sets the gripping position associated with the image information of the selected object as the gripping position of the object (step S101).

把持実行部4は、把持位置設定部6により設定された対象物の把持位置に基づいて、ロボットアーム3を制御し、該対象物の把持を開始する(ステップS102)。
画像取得部2は、判定データとなる対象物の把持開始から把持完了までの対象物の画像情報の時系列データを取得する(ステップS103)。
The gripping execution unit 4 controls the robot arm 3 based on the gripping position of the object set by the gripping position setting unit 6, and starts gripping the object (step S102).
The image acquisition unit 2 acquires time-series data of the image information of the object from the start of gripping the object to the completion of gripping, which is the determination data (step S103).

特徴量算出部8は、画像取得部2により取得された対象物の時系列の画像情報に基づいて、判定データである画像情報の特徴量を算出する(ステップS104)。 The feature amount calculation unit 8 calculates the feature amount of the image information which is the determination data based on the time-series image information of the object acquired by the image acquisition unit 2 (step S104).

成否判定部7は、記憶部5の学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された判定データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関値をそれぞれ算出する。そして、成否判定部7は、記憶部5の学習データである対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの中から、算出した相関値が最も大きい特徴量の時系列データを選択し、該選択した特徴量の時系列データに対応付けられた把持成否パターン(a)〜(c)であると判定する(ステップS105)。 The success / failure determination unit 7 is a time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object, which is the learning data of the storage unit 5, and the object object, which is the determination data calculated by the feature amount calculation unit 8. Correlation values are calculated with the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping. Then, when the success / failure determination unit 7 has the largest feature amount calculated from the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object, which is the learning data of the storage unit 5. The series data is selected, and it is determined that the gripping success / failure patterns (a) to (c) are associated with the time series data of the selected feature amount (step S105).

把持実行部4は、成否判定部7により判定された把持成否パターン(a)〜(c)に基づいて、ロボットアーム3の動作を制御する(ステップS106)。 The gripping execution unit 4 controls the operation of the robot arm 3 based on the gripping success / failure patterns (a) to (c) determined by the success / failure determination unit 7 (step S106).

以上、本実施形態1に係る把持装置1において、記憶部5は、ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、ロボットアーム3が対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、ロボットアーム3が対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された、ロボットアーム3による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを記憶する。成否判定部7は、記憶部5に記憶されたロボットアーム3による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、特徴量算出部8により算出された、判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関値を算出する。そして、成否判定部7は、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する。
これにより、把持成功、第1の把持失敗、及び第2の把持失敗を明確に区別して判定できる。したがって、対象物を把持できたが対象物が所定量以上で大きく変形した場合を把持失敗として正確に判定できる。
As described above, in the gripping device 1 according to the first embodiment, in the storage unit 5, the robot arm 3 can grip the object, and the deformation amount of the object is less than a predetermined amount and the gripping is successful, and the robot arm 3 is the object. Each of the gripping success / failure patterns including the first gripping failure in which the object can be gripped and the deformation amount of the object is larger than a predetermined amount and the second gripping failure in which the robot arm 3 cannot grip the object is acquired in advance. The time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the robot arm 3 is stored. The success / failure determination unit 7 is calculated by the feature amount calculation unit 8 and each of the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the robot arm 3 stored in the storage unit 5. The correlation value with the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping the object to be determined is calculated. Then, the success / failure determination unit 7 determines that the gripping success / failure pattern of the object to be determined is the gripping success / failure pattern associated with the time-series data of the feature amount having the highest correlation.
Thereby, the gripping success, the first gripping failure, and the second gripping failure can be clearly distinguished and determined. Therefore, when the object can be gripped but the object is greatly deformed by a predetermined amount or more, it can be accurately determined as a grip failure.

実施形態2
本発明の実施形態2において、成否判定部7は、ロボットアーム3が対象物の把持を完了(把持完了)してから、その対象物の移動(持上げ、持下げ、水平方向にスライド、など)を完了(移動完了)するまでの、移動動作の成否を判定する。これにより、把持完了後の移動動作についても、対象物を移動できたが対象物が所定量以上で大きく変形した場合を移動失敗として正確に判定できる。
Embodiment 2
In the second embodiment of the present invention, the success / failure determination unit 7 moves the object (lifting, lifting, sliding in the horizontal direction, etc.) after the robot arm 3 completes gripping the object (grasping is completed). Judges the success or failure of the movement operation until the completion (movement completion). As a result, even in the moving motion after the gripping is completed, if the object can be moved but the object is greatly deformed by a predetermined amount or more, it can be accurately determined as a movement failure.

画像取得部2は、学習データとなる、対象物の把持完了から移動完了までの、その対象物の画像情報の時系列データを複数取得する。特徴量算出部8は、画像取得部2により取得されたロボットアーム3の把持完了から移動完了までの画像情報の時系列データに基づいて、その画像情報の特徴量の時系列データを夫々算出する。 The image acquisition unit 2 acquires a plurality of time-series data of the image information of the object from the completion of grasping the object to the completion of movement, which is the learning data. The feature amount calculation unit 8 calculates the time-series data of the feature amount of the image information based on the time-series data of the image information from the completion of grasping to the completion of movement of the robot arm 3 acquired by the image acquisition unit 2. ..

記憶部5は、上記算出された、対象物の把持完了から移動完了までの画像特徴量の時系列データと、以下の移動成否パターン(d)〜(f)のいずれかと、を対応付けて学習データとして記憶している。上記移動成否パターンは、(d)ロボットアーム3が対象物を移動させることができ、かつ該対象物の変形量が所定量未満で小さい移動成功、(e)ロボットアーム3が対象物を移動させることができ、かつ該対象物の変形量が所定量以上で大きい第1の移動失敗、および(f)ロボットアーム3が対象物を移動させることができない第2の移動失敗、を含む。なお、上記(f)の第2の移動失敗は、例えば、ロボットアーム3のエンドエフェクタ33が、移動中に把持している対象物を落とした場合などが含まれる。 The storage unit 5 learns by associating the calculated time-series data of the image feature amount from the completion of grasping the object to the completion of movement with any of the following movement success / failure patterns (d) to (f). It is stored as data. In the above movement success / failure pattern, (d) the robot arm 3 can move the object, and the deformation amount of the object is less than a predetermined amount and the movement is small, and (e) the robot arm 3 moves the object. This includes a first movement failure in which the object can be deformed by a predetermined amount or more and a large amount of deformation, and (f) a second movement failure in which the robot arm 3 cannot move the object. The second movement failure in (f) above includes, for example, a case where the end effector 33 of the robot arm 3 drops an object being gripped during movement.

把持実行部4は、ロボットアーム3の駆動を制御することで、対象物を把持完了の状態から移動させる。
画像取得部2は、判定データとなる、対象物の把持完了から移動完了までの、その対象物の画像情報の時系列データを取得する。特徴量算出部8は、画像取得部2により取得されたロボットアーム3の把持完了から移動完了までの画像情報の時系列データに基づいて、その画像情報の特徴量の時系列データを算出する。
The gripping execution unit 4 controls the drive of the robot arm 3 to move the object from the gripped state.
The image acquisition unit 2 acquires time-series data of the image information of the object from the completion of grasping the object to the completion of movement, which is the determination data. The feature amount calculation unit 8 calculates the feature amount time-series data of the image information based on the time-series data of the image information from the completion of gripping to the completion of movement of the robot arm 3 acquired by the image acquisition unit 2.

成否判定部7は、記憶部5に記憶された学習データである対象物の把持完了から移動完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された判定データである対象物の把持完了から移動完了までの画像情報の特徴量の時系列データと、の比較を行う。例えば、成否判定部7は、記憶部5の学習データである把持完了から移動完了までの画像情報の特徴量の時系列データと、特徴量算出部8により算出された判定データである対象物の把持完了から移動完了までの画像情報の特徴量の時系列データと、の相関値をそれぞれ算出する。そして、成否判定部7は、記憶部5の学習データである把持完了から移動完了までの画像情報の特徴量の時系列データの中から、算出した相関値が最も大きい特徴量の時系列データを選択し、該選択した特徴量の時系列データに対応付けられた移動成否パターン(d)〜(f)であると判定する。 The success / failure determination unit 7 is based on the time-series data of the feature amount of the image information from the completion of grasping the object to the completion of the movement, which is the learning data stored in the storage unit 5, and the determination data calculated by the feature amount calculation unit 8. A comparison is made with the time-series data of the feature amount of the image information from the completion of grasping to the completion of movement of a certain object. For example, the success / failure determination unit 7 is a time-series data of the feature amount of the image information from the completion of grasping to the completion of movement, which is the learning data of the storage unit 5, and the object which is the determination data calculated by the feature amount calculation unit 8. Correlation values with the time-series data of the feature amount of the image information from the completion of gripping to the completion of movement are calculated. Then, the success / failure determination unit 7 selects the time-series data of the feature amount having the largest calculated correlation value from the time-series data of the feature amount of the image information from the completion of grasping to the completion of movement, which is the learning data of the storage unit 5. It is selected, and it is determined that the movement success / failure patterns (d) to (f) are associated with the time series data of the selected feature amount.

把持実行部4は、例えば、成否判定部7により把持成功(把持成否パターン(a)の把持成功)と判定されたとき、ロボットアーム3が移動動作を行うように、ロボットアーム3を制御する。その後、成否判定部7は、対象物の把持完了から移動完了までの移動動作の成否を判定する。 The gripping execution unit 4 controls the robot arm 3 so that the robot arm 3 performs a moving operation when, for example, the success / failure determination unit 7 determines that the gripping is successful (the gripping success / failure pattern (a) is successfully gripped). After that, the success / failure determination unit 7 determines the success / failure of the movement operation from the completion of gripping the object to the completion of the movement.

把持実行部4は、成否判定部7により移動成否パターン(d)の移動成功と判定されると、ロボットアーム3が次のタスクを実行するように、ロボットアーム3を制御する。この場合、ロボットアーム3が対象物を移動でき、かつ該対象物の変形量が小さいため、ロボットアーム3は次のタスクをそのまま実行できる。 When the success / failure determination unit 7 determines that the movement success / failure pattern (d) has been successfully moved, the gripping execution unit 4 controls the robot arm 3 so that the robot arm 3 executes the next task. In this case, since the robot arm 3 can move the object and the amount of deformation of the object is small, the robot arm 3 can execute the next task as it is.

一方で、成否判定部7が移動成否パターン(e)及び(f)の第1及び第2の移動失敗であると判定すると、例えば、把持実行部4は、ロボットアーム3が次のタスクを停止するように、ロボットアーム3を制御する。この場合、対象物は大きく形状変化しているため、把持実行部4は、一旦、ロボットアーム3の動作を停止する制御を行う。 On the other hand, when the success / failure determination unit 7 determines that the first and second movement failures of the movement success / failure patterns (e) and (f) are determined, for example, in the grip execution unit 4, the robot arm 3 stops the next task. The robot arm 3 is controlled so as to do so. In this case, since the shape of the object has changed significantly, the gripping execution unit 4 temporarily controls to stop the operation of the robot arm 3.

以上のように、ロボットアーム3が対象物を把持でき、かつ該対象物の変形が小さい把持成功であることを確認した上で、その後の対象物の移動を行い、さらに、対象物の形状変化を考慮してその移動動作の成否を判定する。これにより、対象物の把持開始から把持完了までだけでなく、対象物の把持完了から移動完了までについても、対象物が所定量以上で大きく変形した場合を失敗として正確に判定でき、ロボットアーム3の動作を確実に停止できる。
なお、本実施形態2において、他の構成は上記実施形態1と略同一であるため、同一部分には同一符号を付して詳細な説明は省略する。
As described above, after confirming that the robot arm 3 can grip the object and that the deformation of the object is small, the robot arm 3 is subsequently moved, and the shape of the object is changed. Is taken into consideration to determine the success or failure of the movement operation. As a result, not only from the start of gripping the object to the completion of gripping but also from the completion of gripping the object to the completion of movement can be accurately determined as a failure when the object is significantly deformed by a predetermined amount or more, and the robot arm 3 The operation of can be stopped reliably.
In the second embodiment, since the other configurations are substantially the same as those in the first embodiment, the same parts are designated by the same reference numerals and detailed description thereof will be omitted.

実施形態3
本発明の実施形態3において、成否判定部7は、特徴量算出部8により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量と、把持完了時のロボットアーム3による対象物の把持の有無と、に基づいて、把持成否パターン(a)〜(c)を判定してもよい。
Embodiment 3
In the third embodiment of the present invention, the success / failure determination unit 7 changes the time-series data of the feature amount of the image information calculated by the feature amount calculation unit 8 from the start of gripping to the completion of gripping, and when the gripping is completed. The gripping success / failure patterns (a) to (c) may be determined based on the presence / absence of gripping the object by the robot arm 3 of the above.

例えば、把持成否パターン(a)の把持成功の場合、対象物の把持開始から把持完了まで、対象物の変形量は小さく、対象物の形状は略維持された状態である。このため、把持開始から把持完了まで、時系列の画像情報の特徴量の変化は小さい。さらに、把持完了時において、ロボットアーム3のエンドエフェクタ33は、対象物を把持している。 For example, in the case of successful gripping of the gripping success / failure pattern (a), the amount of deformation of the object is small from the start of gripping the object to the completion of gripping, and the shape of the object is substantially maintained. Therefore, the change in the feature amount of the image information in the time series is small from the start of gripping to the completion of gripping. Further, when the gripping is completed, the end effector 33 of the robot arm 3 grips the object.

把持成否パターン(b)の第1の把持失敗の場合、把持開始から把持完了まで、対象物の変形量は、所定量以上で大きい。このため、把持開始から把持完了まで、時系列の画像情報の特徴量の変化は大きい。さらに、把持完了時において、ロボットアーム3のエンドエフェクタ33は、対象物を把持している。 In the case of the first grip failure of the gripping success / failure pattern (b), the amount of deformation of the object is large at a predetermined amount or more from the start of gripping to the completion of gripping. Therefore, the change in the feature amount of the image information in the time series is large from the start of gripping to the completion of gripping. Further, when the gripping is completed, the end effector 33 of the robot arm 3 grips the object.

把持成否パターン(c)の第2の把持失敗の場合、把持完了時において、ロボットアーム3のエンドエフェクタ33は、対象物を把持していない。 In the case of the second gripping failure of the gripping success / failure pattern (c), the end effector 33 of the robot arm 3 does not grip the object when the gripping is completed.

上述した、把持開始から把持完了までの画像情報の特徴量の時系列データの変化量と、把持完了時のロボットアーム3による対象物の把持の有無と、に着目して、次のように、把持成否パターン(a)〜(c)の判定を行う。 Focusing on the amount of change in the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping and the presence / absence of gripping the object by the robot arm 3 at the completion of gripping, as follows. The gripping success / failure patterns (a) to (c) are determined.

成否判定部7は、画像取得部2により取得された把持完了時のロボットアーム3のエンドエフェクタ33の画像情報に基づいて、把持完了時にロボットアーム3のエンドエフェクタ33が対象物を把持していると判定し、かつ、特徴量算出部8により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量未満で小さいと判定したとき、把持成否パターン(a)の把持成功であると判定する。なお、第1所定変化量は、例えば、対象物の性質などに基づいて記憶部5などに予め設定されている。 The success / failure determination unit 7 grips the object by the end effector 33 of the robot arm 3 when the grip is completed, based on the image information of the end effector 33 of the robot arm 3 when the grip is completed acquired by the image acquisition unit 2. When it is determined that the amount of change in the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object calculated by the feature amount calculation unit 8 is less than the first predetermined change amount and is small. , It is determined that the gripping success / failure pattern (a) is successfully gripped. The first predetermined change amount is set in advance in the storage unit 5 or the like based on, for example, the properties of the object.

成否判定部7は、画像取得部2により取得された把持完了時のロボットアーム3のエンドエフェクタ33の画像情報に基づいて、把持完了時にロボットアーム3のエンドエフェクタ33が対象物を把持していると判定し、かつ、特徴量算出部8により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量以上で大きいと判定したとき、把持成否パターン(b)の第1の把持失敗であると判定する。 The success / failure determination unit 7 grips the object by the end effector 33 of the robot arm 3 when the grip is completed, based on the image information of the end effector 33 of the robot arm 3 when the grip is completed acquired by the image acquisition unit 2. When it is determined that the amount of change in the time-series data of the feature amount of the image information from the start of gripping to the completion of gripping of the object calculated by the feature amount calculation unit 8 is larger than the first predetermined change amount. , It is determined that the first gripping failure of the gripping success / failure pattern (b).

成否判定部7は、画像取得部2により取得された把持完了時のロボットアーム3のエンドエフェクタ33の画像情報に基づいて、把持完了時にロボットアーム3のエンドエフェクタ33が対象物を把持していないと判定したとき、把持成否パターン(c)の第2の把持失敗であると判定する。 The success / failure determination unit 7 does not grip the object by the end effector 33 of the robot arm 3 when the grip is completed, based on the image information of the end effector 33 of the robot arm 3 when the grip is completed acquired by the image acquisition unit 2. When it is determined, it is determined that the second gripping failure of the gripping success / failure pattern (c) is performed.

なお、記憶部5は、ロボットアーム3のエンドエフェクタ33が対象物を把持しているときと、対象物を把持していないとき、のエンドエフェクタ33の画像情報を予め記憶していてもよい。成否判定部7は、記憶部5に記憶されたこれら画像情報と、画像取得部2により取得された把持完了時のエンドエフェクタ33の画像情報と、を比較することで、把持完了時にロボットアーム3のエンドエフェクタ33が対象物を把持していかるか否かを判定できる。
本実施形態3によれば、対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量と、把持完了時のロボットアーム3による対象物の把持の有無と、に基づいて、対象物を把持できたが対象物が所定量以上で大きく変形した場合を把持失敗として正確に判定できる。
なお、本実施形態3において、他の構成は上記実施形態1と略同一であるため、同一部分には同一符号を付して詳細な説明は省略する。
The storage unit 5 may store in advance the image information of the end effector 33 when the end effector 33 of the robot arm 3 is holding the object and when the end effector 33 is not holding the object. The success / failure determination unit 7 compares these image information stored in the storage unit 5 with the image information of the end effector 33 at the time of completion of gripping acquired by the image acquisition unit 2, so that the robot arm 3 at the time of completion of gripping It is possible to determine whether or not the end effector 33 of the above grips the object.
According to the third embodiment, it is based on the amount of change in the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping, and the presence or absence of gripping the object by the robot arm 3 when the gripping is completed. Therefore, when the object can be gripped but the object is greatly deformed by a predetermined amount or more, it can be accurately determined as a grip failure.
In the third embodiment, since the other configurations are substantially the same as those in the first embodiment, the same parts are designated by the same reference numerals and detailed description thereof will be omitted.

本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit.

本発明は、例えば、図3に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。 The present invention can also be realized, for example, by causing the CPU to execute a computer program for the process shown in FIG.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。 Programs can be stored and supplied to a computer using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (random access memory)).

プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program may be supplied to the computer by various types of transient computer readable media. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 把持装置、2 画像取得部、3 ロボットアーム、4 把持実行部、5 記憶部、6 把持位置設定部、7 成否判定部、8 特徴量算出部、9 報知部 1 Gripping device, 2 Image acquisition unit, 3 Robot arm, 4 Gripping execution unit, 5 Storage unit, 6 Grip position setting unit, 7 Success / failure judgment unit, 8 Feature amount calculation unit, 9 Notification unit

Claims (7)

対象物を把持する把持手段と、
判定対象の対象物の画像情報を取得する画像取得手段と、
前記画像取得手段により取得された判定対象の対象物の画像情報の特徴量を算出する特徴量算出手段と、
前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された、前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶する記憶手段と、
前記記憶手段に記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記特徴量算出手段により算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する成否判定手段と、
を備える、ことを特徴とする把持装置。
A gripping means for gripping an object,
An image acquisition means for acquiring image information of an object to be determined, and
A feature amount calculation means for calculating a feature amount of image information of an object to be determined acquired by the image acquisition means, and a feature amount calculation means.
When the gripping means can grip the object and the deformation amount of the object is less than a predetermined amount and the grip is small, the gripping means can grip the object and the deformation amount of the object is a predetermined amount or more. Gripping is completed from the start of gripping the object by the gripping means acquired in advance for each of the gripping success / failure patterns including the large first gripping failure and the second gripping failure in which the gripping means cannot grip the object. A storage means for storing time-series data of feature quantities of image information up to
Each of the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping by the gripping means stored in the storage means, and the object to be determined by the gripping means calculated by the feature amount calculation means. The correlation between the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping is calculated, and the gripping success / failure pattern of the object to be determined corresponds to the time-series data of the feature amount having the highest correlation. A success / failure determination means for determining the attached gripping success / failure pattern,
A gripping device comprising.
請求項1記載の把持装置であって、
前記成否判定手段により前記把持成功の把持成否パターンであると判定されたとき、前記把持手段が次のタスクを実行するように、該把持手段を制御し、前記成否判定手段により前記第1の把持失敗の把持成否パターンであると判定されたとき、前記把持手段の動作を停止する制御を行う制御手段を更にを備える、
ことを特徴とする把持装置。
The gripping device according to claim 1.
When the success / failure determination means determines that the gripping success / failure pattern is successful, the gripping means is controlled so that the gripping means executes the next task, and the success / failure determination means performs the first gripping. Further provided with a control means for controlling to stop the operation of the gripping means when it is determined that the gripping success / failure pattern is a failure.
A gripping device characterized in that.
請求項1又は2記載の把持装置であって、
前記記憶手段は、更に、
前記把持手段が対象物を移動させることができ、かつ該対象物の変形量が所定量未満で小さい移動成功、前記把持手段が対象物を移動させることができ、かつ該対象物の変形量が所定量以上で大きい第1の移動失敗、および、前記把持手段が対象物を移動させることができない第2の移動失敗、を含む移動成否パターンのそれぞれについて、予め取得された前記把持手段による対象物の把持完了から、該把持完了後、前記把持手段による対象物の移動が完了する移動完了までの画像情報の特徴量の時系列データを記憶しており、
前記成否判定手段は、
前記記憶手段に記憶された前記把持手段による対象物の把持完了から移動完了までの画像情報の特徴量の時系列データのそれぞれと、前記特徴量算出手段により算出された把持手段による判定対象の対象物の把持完了から移動完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた移動成否パターンと判定する、
ことを特徴とする把持装置。
The gripping device according to claim 1 or 2.
The storage means further
The gripping means can move the object, and the deformation amount of the object is less than a predetermined amount and the movement is small. The gripping means can move the object, and the deformation amount of the object is small. For each of the movement success / failure patterns including the first movement failure that is larger than a predetermined amount and the second movement failure that the gripping means cannot move the object, the object by the gripping means acquired in advance. The time-series data of the feature amount of the image information from the completion of gripping to the completion of movement of the object by the gripping means after the completion of gripping is stored.
The success / failure determination means
Each of the time-series data of the feature amount of the image information from the completion of gripping the object to the completion of movement by the gripping means stored in the storage means and the object to be determined by the gripping means calculated by the feature amount calculation means. The correlation between the time-series data of the feature amount of the image information from the completion of gripping the object to the completion of movement is calculated, and the gripping success / failure pattern of the object to be determined corresponds to the time-series data of the feature amount having the highest correlation. Judge as the attached movement success / failure pattern,
A gripping device characterized in that.
請求項1乃至3のうちのいずれか1項記載の把持装置であって、
前記成否判定手段により前記第1の把持失敗の把持成否パターンであると判定されたとき、該第1の把持失敗の内容を報知する報知手段を更に備える、
ことを特徴とする把持装置。
The gripping device according to any one of claims 1 to 3.
When the success / failure determination means determines that the grip success / failure pattern of the first grip failure is determined, the notification means for notifying the content of the first grip failure is further provided.
A gripping device characterized in that.
対象物を把持する把持手段と、
前記対象物の画像情報を取得する画像取得手段と、
前記画像取得手段により取得された対象物の画像情報の特徴量を算出する特徴量算出手段と、
前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンの判定を行う成否判定手段と、
を備える把持装置であって、
前記成否判定手段は、
前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していると判定し、かつ、前記特徴量算出手段により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量未満であると判定したとき、前記把持成功の把持成否パターンであると判定し、
前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していると判定し、かつ、前記特徴量算出手段により算出された対象物の把持開始から把持完了までの画像情報の特徴量の時系列データの変化量が第1所定変化量以上であると判定したとき、前記第1の把持失敗の把持成否パターンであると判定し、
前記画像取得手段により取得された把持完了時の把持手段の画像情報に基づいて、前記把持完了時に前記把持手段が前記対象物を把持していないと判定したとき、前記第2の把持失敗の把持成否パターンであると判定する、
ことを特徴とする把持装置。
A gripping means for gripping an object,
An image acquisition means for acquiring image information of the object and
A feature amount calculation means for calculating a feature amount of image information of an object acquired by the image acquisition means, and a feature amount calculation means.
When the gripping means can grip the object and the deformation amount of the object is less than a predetermined amount and the grip is small, the gripping means can grip the object and the deformation amount of the object is a predetermined amount or more. A success / failure determination means for determining a grip success / failure pattern including a large first grip failure and a second grip failure in which the grip means cannot grip the object.
It is a gripping device equipped with
The success / failure determination means
Based on the image information of the gripping means at the time of completion of gripping acquired by the image acquisition means, it is determined that the gripping means is gripping the object at the time of completion of gripping, and the feature amount calculation means calculates. When it is determined that the amount of change in the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping is less than the first predetermined change amount, it is determined that the gripping success / failure pattern of the gripping success is achieved. ,
Based on the image information of the gripping means at the time of completion of gripping acquired by the image acquisition means, it is determined that the gripping means is gripping the object at the time of completion of gripping, and the feature amount calculation means calculates. When it is determined that the amount of change in the time-series data of the feature amount of the image information from the start of gripping the object to the completion of gripping is equal to or greater than the first predetermined change amount, it is the gripping success / failure pattern of the first gripping failure. Judging that
When it is determined that the gripping means is not gripping the object at the time of the completion of gripping based on the image information of the gripping means at the time of completion of gripping acquired by the image acquisition means, the gripping of the second gripping failure Judge as a success / failure pattern,
A gripping device characterized in that.
判定対象の対象物の画像情報を取得するステップと、
前記取得された判定対象の対象物の画像情報の特徴量を算出するステップと、
把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶するステップと、
前記記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定するステップと、
を含む、ことを特徴とする把持方法。
Steps to acquire image information of the object to be judged, and
The step of calculating the feature amount of the image information of the acquired object to be determined, and
The gripping means can grip the object and the deformation amount of the object is small less than a predetermined amount, and the gripping means succeeds in gripping the object. The gripping means can grip the object and the deformation amount of the object is large when the deformation amount is more than a predetermined amount. From the start to the completion of gripping the object by the gripping means acquired in advance for each of the gripping success / failure patterns including the first gripping failure and the second gripping failure in which the gripping means cannot grip the object. Steps to store time-series data of feature quantities of image information,
Each of the time-series data of the feature amount of the image information from the start of gripping the object by the gripping means to the completion of gripping, and from the start of gripping of the object to be determined by the calculated gripping means to the completion of gripping The correlation with the time-series data of the feature amount of the image information of is calculated, and the gripping success / failure pattern of the object to be determined is determined to be the gripping success / failure pattern associated with the time-series data of the feature amount having the highest correlation. Steps to do and
A gripping method comprising.
判定対象の対象物の画像情報を取得する処理と、
前記取得された判定対象の対象物の画像情報の特徴量を算出する処理と、
把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量未満で小さい把持成功、前記把持手段が前記対象物を把持でき、かつ該対象物の変形量が所定量以上で大きい第1の把持失敗、および、前記把持手段が前記対象物を把持できない第2の把持失敗、を含む把持成否パターンのそれぞれについて予め取得された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データを、記憶する処理と、
前記記憶された前記把持手段による対象物の把持開始から把持完了までの画像情報の特徴量の時系列データのそれぞれと、前記算出された把持手段による判定対象の対象物の把持開始から把持完了までの画像情報の特徴量の時系列データと、の相関を算出し、前記判定対象の対象物の把持成否パターンが、最も相関の高い特徴量の時系列データに対応付けられた把持成否パターンと判定する処理と、
をコンピュータに実行させる、ことを特徴とするプログラム。
The process of acquiring the image information of the object to be judged and
The process of calculating the feature amount of the image information of the acquired object to be determined, and
The gripping means can grip the object and the deformation amount of the object is small less than a predetermined amount, and the gripping means succeeds in gripping the object. The gripping means can grip the object and the deformation amount of the object is large when the deformation amount is more than a predetermined amount. From the start to the completion of gripping the object by the gripping means acquired in advance for each of the gripping success / failure patterns including the first gripping failure and the second gripping failure in which the gripping means cannot grip the object. Processing to store time-series data of feature quantities of image information,
Each of the time-series data of the feature amount of the image information from the start of gripping the object by the gripping means to the completion of gripping, and from the start of gripping of the object to be determined by the calculated gripping means to the completion of gripping The correlation with the time-series data of the feature amount of the image information of is calculated, and the gripping success / failure pattern of the object to be determined is determined to be the gripping success / failure pattern associated with the time-series data of the feature amount having the highest correlation. Processing to do and
A program characterized by having a computer execute.
JP2016172816A 2016-09-05 2016-09-05 Gripping device, gripping method, and program Active JP6838833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172816A JP6838833B2 (en) 2016-09-05 2016-09-05 Gripping device, gripping method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172816A JP6838833B2 (en) 2016-09-05 2016-09-05 Gripping device, gripping method, and program

Publications (2)

Publication Number Publication Date
JP2018039059A JP2018039059A (en) 2018-03-15
JP6838833B2 true JP6838833B2 (en) 2021-03-03

Family

ID=61624752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172816A Active JP6838833B2 (en) 2016-09-05 2016-09-05 Gripping device, gripping method, and program

Country Status (1)

Country Link
JP (1) JP6838833B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP2021154392A (en) 2018-05-22 2021-10-07 ソニーグループ株式会社 Robot control apparatus and robot control method
DE112018007729B4 (en) 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Machine learning device and robotic system equipped with same
JP6840402B2 (en) * 2019-03-25 2021-03-10 公立大学法人岩手県立大学 Control system, control method, program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5382359B2 (en) * 2010-04-28 2014-01-08 株式会社安川電機 Robot system
JP5623358B2 (en) * 2011-09-06 2014-11-12 三菱電機株式会社 Work picking device
JP5975685B2 (en) * 2012-03-09 2016-08-23 キヤノン株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2018039059A (en) 2018-03-15

Similar Documents

Publication Publication Date Title
EP3869464B1 (en) Learning apparatus and learning method
JP6711591B2 (en) Robot controller and robot control method
JP6838833B2 (en) Gripping device, gripping method, and program
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP2018161692A5 (en)
JP7191569B2 (en) gripping device
US20150283704A1 (en) Information processing apparatus and information processing method
US20140018957A1 (en) Robot system, robot, robot control device, robot control method, and robot control program
US11358290B2 (en) Control apparatus, robot system, method for operating control apparatus, and storage medium
JP7044047B2 (en) robot
JP2016196077A (en) Information processor, information processing method, and program
US20220111533A1 (en) End effector control system and end effector control method
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP2020508888A5 (en)
CN110363811B (en) Control method and device for grabbing equipment, storage medium and electronic equipment
JP2015074061A (en) Robot control device, robot system, robot, robot control method and robot control program
US20230330858A1 (en) Fine-grained industrial robotic assemblies
Yang et al. Predict robot grasp outcomes based on multi-modal information
JP2019077026A (en) Control device, robot system, and control device operating method and program
JP7372076B2 (en) image processing system
WO2021010016A1 (en) Control system for hand and control method for hand
JP2015145050A (en) Robot system, robot control device, robot control method and robot control program
JP2021071878A (en) Annotation device
US20230415349A1 (en) Method for controlling a robot for manipulating, in particular picking up, an object
JP2023148859A (en) Control method, control system and holding control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210211

R150 Certificate of patent or registration of utility model

Ref document number: 6838833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250