JP2024005599A - Data collection device and control device - Google Patents
Data collection device and control device Download PDFInfo
- Publication number
- JP2024005599A JP2024005599A JP2022105850A JP2022105850A JP2024005599A JP 2024005599 A JP2024005599 A JP 2024005599A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2024005599 A JP2024005599 A JP 2024005599A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- robot arm
- data
- unit
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013480 data collection Methods 0.000 title claims abstract description 31
- 238000010801 machine learning Methods 0.000 abstract description 10
- 238000004364 calculation method Methods 0.000 description 29
- 230000036544 posture Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、AI(artificial intelligence)学習用のデータセットを収集するデータ収集装置および制御装置に関する。 The present invention relates to a data collection device and a control device that collect data sets for AI (artificial intelligence) learning.
近年のロボット技術の進歩により、工場や物流倉庫におけるロボットシステムによる自動化が進んでいる。このようなロボットシステムを一般消費者が多く存在する店舗などの現場に適用させるためには、ロボットシステムが環境に対してロバストである必要がある。一方、特に画像認識に関しては、変化する環境に対するロバスト性を担保することが困難である。環境に対するロバストな画像認識を実現するためには、AIによる画像認識技術が必要となる。AIの画像認識によって対象物の種類、位置および姿勢などを認識することで、ロボットがその対象物を把持したり操作したりすることが可能となる。 Due to recent advances in robot technology, automation using robot systems in factories and distribution warehouses is progressing. In order to apply such a robot system to a store or other workplace where many general consumers are present, the robot system needs to be robust against the environment. On the other hand, especially regarding image recognition, it is difficult to ensure robustness against changing environments. In order to realize image recognition that is robust to the environment, image recognition technology using AI is required. By recognizing the type, position, and posture of an object using AI image recognition, a robot can grasp and manipulate the object.
しかし、AIによる画像認識には膨大な量の学習用のデータセットが必要となる。膨大な量の学習用のデータセットを収集するためにはコストがかかるため、収集コストを削減することには大きな価値がある。また、対象物の位置と姿勢を認識するためには、対象物を撮影するだけでなく、撮影した画像に対して対象物の位置情報および姿勢情報をラベリングすることが重要である。そこで、対象物の画像と対象物周辺の既知の位置に置かれたマーカーを認識し、マーカーからの相対位置情報および姿勢情報に基づいて対象物の位置および姿勢を推定する方法が開示されている(特許文献1)。 However, image recognition using AI requires a huge amount of training data sets. Collecting huge amounts of training datasets is expensive, so there is great value in reducing collection costs. Furthermore, in order to recognize the position and orientation of an object, it is important not only to photograph the object, but also to label the photographed image with position information and orientation information of the object. Therefore, a method has been disclosed that recognizes an image of the target object and markers placed at known positions around the target object, and estimates the position and orientation of the target based on relative position information and orientation information from the markers. (Patent Document 1).
しかし、上記従来の方法では、剛体物からなる対象物については、画像に対して対象物の位置および姿勢をラベリングすることが可能であるが、柔軟物からなる対象物に対しては常に同一の変形状態で撮影を行うことになる。このため、柔軟物の様々な変形状態をデータセットに加えることができないおそれがある。また、柔軟物からなる対象物がデータセット収集時と異なる変形状態となった場合に、対象物の正しい位置および姿勢を推定することができないおそれもある。 However, with the conventional method described above, it is possible to label the position and orientation of an object in an image for a rigid object, but it is always possible to label the same position and orientation for an object that is a flexible object. Photographs will be taken in the deformed state. For this reason, there is a possibility that various deformation states of the flexible object cannot be added to the data set. Further, when a flexible object becomes deformed in a state different from that at the time of data set collection, there is a possibility that the correct position and orientation of the object cannot be estimated.
本開示は、機械学習用のデータセットを効率的に収集するデータ収集装置および制御装置を提供することを目的とする。 The present disclosure aims to provide a data collection device and a control device that efficiently collect data sets for machine learning.
本開示のデータ収集装置は、ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、対象物の変形量に基づいて、対象物が柔軟物であるか否かを判定する判定部と、ロボットアームの制御に用いるために対象物の画像データを判定部の判定結果と対応付けて保存する記憶部と、を備える。 The data collection device of the present disclosure includes an acquisition unit that acquires image data of an object deformed by a robot arm, and determines whether the object is a flexible object based on the amount of deformation of the object. It includes a determination section and a storage section that stores image data of the object in association with the determination result of the determination section for use in controlling the robot arm.
本開示の制御装置は、ロボットアームで変形させた対象物を撮影した画像データに対して、対象物の変形量に基づいて対象物が柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する記憶部と、記憶部に記憶された制御モデルに基づいて、ロボットアームを制御する制御部と、を備える。 The control device of the present disclosure associates image data obtained by photographing an object deformed by a robot arm with a determination result of determining whether the object is a flexible object based on the amount of deformation of the object. The robot arm includes a storage unit that stores a control model trained using the data obtained as teacher data, and a control unit that controls the robot arm based on the control model stored in the storage unit.
本開示に依れば、機械学習用のデータセットを効率的に収集することができる。 According to the present disclosure, data sets for machine learning can be efficiently collected.
以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
本開示のデータ収集装置は、様々な変形状態をとる柔軟物からなる対象物の位置および姿勢を正確に推定するために、ロボットアームと回転テーブルを動作させることでカメラと対象物の相対位置と対象物の姿勢を変更する。そして、データ収集装置は、ロボットハンドを用いて対象物に変形を加えながら、カメラによって対象物を撮影し、ロボットアームの幾何関係(幾何学的情報)から算出される、カメラに対する対象物の位置と対象物の姿勢とを画像データにラベリングする。
(Embodiment 1)
The data collection device of the present disclosure operates a robot arm and a rotary table to accurately estimate the position and orientation of a flexible object that takes various deformed states. Change the pose of the object. Then, the data collection device photographs the object with a camera while deforming the object using the robot hand, and calculates the position of the object with respect to the camera from the geometric relationship (geometric information) of the robot arm. and the posture of the object in the image data.
まず、本開示に係るデータ収集装置21を備えるロボットアーム装置100の構成について説明する。図1に、本実施の形態1におけるロボットアーム装置100の全体の構成を示す。
First, the configuration of the
ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置8と、データ収集装置21とを含む。制御装置8とデータ収集装置21は、互いに電気的に接続されている。また、制御装置8とデータ収集装置21は、それぞれ、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。
ロボットアーム7は、隣接するリンク同士を複数の関節で接続した垂直多関節型ロボット2と、手先として機能するロボットハンド3とを含む。垂直多関節型ロボット2は、延在形状を有し、基端部が固定用土台1に固定される。この固定用土台1は、ロボットアーム7と回転テーブル5を固定するためのもので、例えば床に固定されている。ロボットハンド3は、回転テーブル5に載置された対象物Tを把持するもので、垂直多関節型ロボット2の先端部に取り付けられる。
The
カメラ4は、回転テーブル5に載置された対象物Tを撮影するもので、垂直多関節型ロボット2の先端部に取り付けられる。
The
回転テーブル5は、カメラ4に対する対象物Tの姿勢(撮影角度)を変更するもので、固定用土台1に固定される。回転テーブル5は、サーボモータによって回転し、例えば鉛直方向に延びる回転軸の周方向6に回転してもよい。なお、本実施の形態では、回転テーブル5を使用したが、対象物Tの撮影角度を変更できればよく、これに限られるものではない。例えば、回転テーブル5を使用する代わりに複数台のカメラを配置してもよい。これにより、効率的に撮影を行うことが可能となる。
The rotary table 5 changes the attitude (photographing angle) of the object T with respect to the
データ収集装置21は、取得部22と、判定部23と、記憶部24とを有する。
The
取得部22は、ロボットアーム7のロボットハンド3で変形された対象物Tがカメラ4で撮影されると、判定部23で対象物Tの柔軟性を判定するために、対象物Tを撮影した画像データをカメラ4から取得するものである。また、取得部22は、位置・姿勢算出部22aと、面積算出部22bとを有する。
When the object T deformed by the
面積算出部22bは、ロボットハンド3による変形前の対象物Tの画像データと変形後の対象物Tの画像データとを取得し、それぞれの画像データおける対象物Tの領域面積を算出する。例えば、面積算出部22bは、対象物Tが存在していない状態で回転テーブル5を撮影した背景画像データをカメラ4から予め取得し、その背景画像データに基づいて、対象物Tを撮影した画像データから背景部分を差分することにより、対象物Tの存在する領域である対象物領域を抽出してもよい。そして、面積算出部22bは、抽出された対象物領域に基づいて、対象物Tの領域面積を算出する。この領域面積は、対象物Tの変形量に応じて変化するため、対象物Tの柔軟性を示す指標となり得るものである。
The
位置・姿勢算出部22aは、例えばロボットアーム7の幾何情報に基づいて、画像データの撮影位置に対する対象物Tの位置および姿勢を算出する。例えば、位置・姿勢算出部22aは、判定部23で柔軟物か否かを判定された対象物Tについて様々な位置および姿勢に変化させ、その画像データの撮影位置に対する対象物Tの位置および姿勢を順次算出してもよい。
The position/
このとき、ロボットアーム7とカメラ4と回転テーブル5は、それぞれ固定用土台1を介して幾何的に拘束されている。また、位置・姿勢算出部22aには、カメラ4の位置および姿勢を示すカメラ座標系12、ロボットアーム7の基端部の位置および姿勢を示すベース座標系13および回転テーブル5の位置および回転方向を示す対象物座標系14が予め設定されている。ここで、カメラ座標系12は、例えば図1に示すように、互いに直交するx,y,z方向の単位ベクトル(ex,ey,ez)から構成され、カメラ4と共に位置および姿勢が変更するように設定してもよい。同様に、ベース座標系13および対象物座標系14は、それぞれ、互いに直交するx,y,z方向の単位ベクトル(ex,ey,ez)から構成され、ロボットアーム7の基端部および回転テーブル5と共に位置および姿勢が変更するように設定してもよい。なお、回転テーブル5の位置および回転方向に応じて対象物Tの位置および姿勢が変化するため、対象物座標系14は、対象物Tの位置および姿勢を示すものとなる。そこで、位置・姿勢算出部22aは、ロボットアーム7の各関節角度と回転テーブル5の回転角度に基づいて、これらの座標系の変化を算出し、算出された座標系の変化に基づいてカメラ4に対する対象物Tの位置および姿勢を算出してもよい。
At this time, the
具体的には、位置・姿勢算出部22aは、ロボットアーム7の各関節角度に基づいて、カメラ座標系12に対するロボットアーム7のベース座標系13の位置および姿勢を算出する。また、位置・姿勢算出部22aは、回転テーブル5の回転角度に基づいて、ロボットアーム7のベース座標系13に対する対象物Tの対象物座標系14の位置および姿勢を算出する。これにより、ロボットアーム7のベース座標系13を介して、カメラ座標系12と対象物座標系14とが関連付けられることになる。そこで、位置・姿勢算出部22aは、カメラ座標系12に対するベース座標系13の位置および姿勢と、ベース座標系13に対する対象物座標系14の位置および姿勢とに基づいて、カメラ座標系12に対する対象物座標系14の位置および姿勢を算出してもよい。例えば、ベース座標系13に対するカメラ座標系12の位置(x、y、z)が(-2,-2,-1)で、ベース座標系13に対する対象物座標系14の位置が(-2,-2,0)である場合に、カメラ座標系12に対する対象物座標系14の位置は(0,0,1)と算出されることになる。同様に、カメラ座標系12に対する対象物座標系14の姿勢の変化は、例えば、ベース座標系13の単位ベクトルに対するカメラ座標系12の単位ベクトルの方向と、ベース座標系13の単位ベクトルに対する対象物座標系14の単位ベクトルの方向とに基づいて算出されてもよい。
Specifically, the position/
判定部23は、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定する。例えば、判定部23は、面積算出部22bで算出された対象物Tの領域面積に基づいて、対象物Tが柔軟物であるか否かを判定してもよい。
The determining
記憶部24は、ロボットアーム7の制御に用いるために、対象物Tの画像データを判定部23の判定結果、すなわち、「柔軟物である」か、又は、「柔軟物でない」と対応付けたデータセットを保存する。また、記憶部24は、位置・姿勢算出部22aで算出された撮影位置に対する対象物Tの位置および姿勢を、画像データとさらに対応付けて保存してもよい。
The
例えば、図2に示すように、記憶部24は、対象物Tを撮影した画像データDに対して、判定結果と、撮影位置に対する対象物Tの位置および姿勢とをラベリングして保存してもよい。このように、画像データDに対する、判定結果と、対象物Tの位置および姿勢とのラベリングにより一組とされたデータは、後述するように機械学習モデルの訓練に利用することができる。
For example, as shown in FIG. 2, the
なお、判定部23は、対象物Tが剛体物であるか否かを判定してもよい。例えば、判定部23は、柔軟物以外の対象物Tを剛体物と判定してもよい。この場合、記憶部24は、柔軟物からなる対象物Tだけでなく、剛体物からなる対象物Tの画像データを記憶してもよい。このとき、対象物Tが柔軟物である場合と剛体物である場合とで、記憶部24に記憶される画像データDの撮影方法が異なってもよい。例えば、対象物Tが柔軟物である場合、ロボットハンド3で外力を付加した後に対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。これにより、様々な形状に変形された対象物Tの画像データDを取得することができる。一方、対象物Tが剛体物である場合、外力を付加することなく対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。
Note that the
制御装置8は、対象物Tを撮影した画像データDを含む機械学習用のデータセットをデータ収集装置21に収集するために、ロボットアーム装置100の各部を制御する。
The
次に、判定部23が対象物Tを判定する一例について説明する。
Next, an example in which the
まず、制御装置8が、カメラ座標系12、ベース座標系13および対象物座標系14に基づいてロボットアーム7の各関節を動作させ、カメラ4が配置されたロボットアーム7の先端部を予め設定された初期位置および初期姿勢に移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に対象物Tの全体が含まれるように予め設定されてもよい。
First, the
制御装置8は、ロボットアーム7を初期位置および初期姿勢とすると、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、面積算出部22bが、カメラ4で撮影された画像データDから、対象物Tに対応する対象物領域を抽出する。
The
続いて、制御装置8は、ロボットハンド3を制御して、対象物Tを予め設定された基準把持力で把持させ、その把持状態から数秒経過後に対象物Tを解放させる。その後、ロボットアーム7が初期位置および初期姿勢に戻されて、対象物Tがカメラ4で再度撮影される。そして、面積算出部22bが、カメラ4で撮影された画像データDから対象物領域を抽出する。面積算出部22bは、抽出した対象物領域に基づいて画像データDにおける対象物領域の面積を算出し、把持前の対象物領域の面積に対する把持後の対象物領域の面積の減少率を下記式1によって算出する。
Subsequently, the
判定部23は、対象物領域の面積の減少率が基準値以上である場合、対象物Tが柔軟物であると判定する。一方、判定部23は、対象物領域の面積の減少率が基準値未満である場合、対象物Tが剛体物であると判定する。
The
続いて、取得部22は、判定部23で柔軟物と判定された対象物Tについて様々な変形状態を撮影した画像データDを収集する。このとき、制御装置8は、対象物Tを変形させるために、対象物Tを把持して外力を加えるようにロボットハンド3を制御してもよい。
Subsequently, the
次に、画像データDの収集のために対象物Tをロボットハンド3で変形させる一例について説明する。
Next, an example in which the object T is deformed by the
ロボットハンド3は、対象物Tを挟み込むことで、柔軟物である対象物Tを変形させる。このとき、対象物Tの変形パターン画像を効率的に収集するためには、対象物Tを短時間で様々な変形状態に変えることが求められ、それを実現するためにはロボットハンド3の把持力と把持位置を速やかに決定することが必要となる。
The
そこで、図3に示すように、面積算出部22bは、変形していない状態(ロボットハンド3で力を加えない状態)で対象物Tを撮影した画像データDから対象物領域Rを抽出する。続いて、面積算出部22bは、抽出された対象物領域Rの輪郭に基づいて、回転テーブル5に平行な幅方向D1の輪郭幅Wを複数の高さ位置(回転テーブル5に直交する高さ方向D2の位置)について算出する。そして、制御装置8は、輪郭幅Wが最も大きい位置を把持位置P1およびP2として選択し、その把持位置P1およびP2を把持するようにロボットハンド3を制御する。
Therefore, as shown in FIG. 3, the
これにより、判定部23において対象物Tが柔軟物であると判定された場合、記憶部24には、位置P1およびP2を把持して対象物Tを変形させた画像データDが保存されることになる。すなわち、記憶部24は、変形していない状態の対象物Tにおいて所定の幅方向D1における輪郭幅Wが最長となる位置P1およびP2をロボットアーム7で変形させた対象物Tの画像データDを判定部23の判定結果と対応付けて保存する。このように、ロボットハンド3が、対象物Tの中で輪郭幅Wが最長となる位置P1およびP2を把持することで、対象物Tをより大きく変形させることができ、効率的な変形パターン画像を収集することができる。
As a result, when the
このとき、ロボットハンド3の把持力は、把持位置P1およびP2の輪郭幅W(把持輪郭幅)の大きさに応じて設定してもよい。例えば、制御装置8は、予め設定された基準輪郭幅に対する把持輪郭幅Wの大きさに応じてロボットハンド3の把持力を決定してもよい。これにより、対象物Tの中で最も幅が大きい(膨らみが大きい)位置を、その幅の大きさに応じた把持力で把持することができる。ロボットハンド3の把持力を求める計算式を下記式2に示す。
At this time, the gripping force of the
制御装置8は、把持輪郭幅Wが基準輪郭幅と同じである場合は、予め設定された基準把持力で把持するようにロボットハンド3を制御する。また、制御装置8は、把持輪郭幅Wが基準輪郭幅よりも大きい場合は、基準輪郭幅に対する把持輪郭幅Wの増加量に応じて、基準把持力より大きな把持力で把持するようにロボットハンド3を制御する。このとき、制御装置8は、予め設定された最大把持力を超える場合は、その最大把持力で把持するようにロボットハンド3を制御する。これにより、様々な対象物Tに対してほぼ同じ変形量を加えた画像データDを収集することができる。
When the grip contour width W is the same as the reference contour width, the
上記の実施の形態1では、対象物Tを変形させるために、ロボットハンド3で対象物Tを挟み込むことで対象物Tに外力を加えている。この挟み込みによる外力付加方法は、対象物Tの両側部(把持位置P1およびP2)から内側に向かって同一の外力を加えるため、対象物Tが回転テーブル5上で大きく移動することなく、対象物Tに外力を加えることが可能である。 In the first embodiment described above, in order to deform the object T, an external force is applied to the object T by holding the object T between the robot hands 3. This method of applying external force by pinching applies the same external force inward from both sides (gripping positions P1 and P2) of the object T, so that the object T does not move significantly on the rotary table 5. It is possible to apply an external force to T.
図4に、データ収集装置21のハードウェア構成を示す。
FIG. 4 shows the hardware configuration of the
データ収集装置21は、バスBを介して相互接続される記憶部24と、プロセッサ25と、ユーザインタフェース(UI)26とを有する。
The
なお、データ収集装置21における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、CD-ROM(Compact Disk-Read Only Memory)、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
Note that programs or instructions for realizing various functions and processes to be described later in the
記憶部24は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。
The
プロセッサ25は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ25は、記憶部24に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される制御装置8の各種機能及び処理を実行する。
The
UI26は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと制御装置8との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、制御装置8を操作してもよい。
The
なお、上述したハードウェア構成は単なる一例であり、本開示による制御装置8は、他の何れか適切なハードウェア構成により実現されてもよい。
Note that the hardware configuration described above is merely an example, and the
次に、図5に示すフローチャートを参照して本実施の形態のデータ収集動作について説明する。 Next, the data collection operation of this embodiment will be explained with reference to the flowchart shown in FIG.
初めに、制御装置8が、ステップS1で、予め設定されている初期位置および初期姿勢になるようにロボットアーム7を移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に、回転テーブル5に載置された対象物Tの全体が含まれるように設定されてもよい。制御装置8は、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、ロボットアーム7の先端部が初期位置および初期姿勢となるようにロボットアーム7の各関節を駆動させる。
First, in step S1, the
続いて、制御装置8は、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、図6に示すように、面積算出部22bが、ステップS2で、画像データDから対象物Tに対応する対象物領域Rを抽出し、その対象物領域Rの面積を算出する。
Subsequently, the
このようにして、対象物Tが撮影されると、制御装置8は、ステップS3で、対象物Tの所定の位置Pa1およびPa2を基準把持力で把持するようにロボットアーム7を制御する。このとき、所定の位置Pa1およびPa2は、例えば、高さ方向D2において対象物領域Rの中央部Cに対応する側部を撮影方向から把持するようにロボットアーム7を制御してもよい。すなわち、制御装置8は、高さ方向D2における対象物領域Rの中央部Cを通り且つ幅方向D1に延びる直線が対象物領域Rの輪郭と交差する2点Pa1およびPa2を把持するようにロボットアーム7を制御する。
When the object T is photographed in this manner, the
その後、制御装置8は、ステップS4で、ロボットアームを初期位置および初期姿勢に再度移動させる。また、制御装置8は、対象物Tを撮影するようにカメラ4を制御し、撮影された画像データDがカメラ4から取得部22に出力される。そして、取得部22の面積算出部22bが、ステップS5で、画像データDから対象物領域Rを抽出して、対象物領域Rの面積を算出する。
After that, the
続いて、判定部23が、ステップS6で、把持前の対象物領域Rに対する把持後の対象物領域Rの面積の減少率に基づいて、対象物Tが柔軟物であるか否かを判定する。
Subsequently, in step S6, the
対象物Tが柔軟物でないと判定、すなわち剛体物であると判定された場合、制御装置8は、ステップS7で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。
When it is determined that the object T is not a flexible object, that is, it is determined that it is a rigid object, the
回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS8で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「剛体物」との判定結果と対応付けて保存する。また、記憶部24は、対象物領域に関連する情報を剛体物の画像データDにさらに対応付けて保存してもよい。
When the rotary table 5 rotates once, the
このように、データ収集装置21は、剛体物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された剛体物の画像データDを収集することができる。
In this way, the
このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、画像データDの撮影位置に対する対象物Tの位置および姿勢を算出してもよい。そして、記憶部24が、様々な位置および角度で撮影された対象物Tの画像データDに対して、撮影位置に対する対象物Tの位置および姿勢を対応付けて保存する。
At this time, the position/
これにより、剛体物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。
Thereby, it is possible to efficiently collect teacher data in which the image data D of the rigid body is labeled with the position and orientation relationship between the
また、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS10で、ロボットアーム7の各関節角度を変更した後、ステップS7に戻って、対象物Tを撮影するようにカメラ4を制御する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS7、ステップS8、ステップS9およびステップS10を繰り返す。そして、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。
Further, in step S9, the
一方、ステップS6において対象物Tが柔軟物であると判定された場合、ステップS11に進んで、面積算出部22bが、画像データDから対象物領域Rを抽出する。図3に示すように、制御装置8は、抽出された対象物領域Rの輪郭幅Wの大きさに基づいて、ロボットハンド3の把持位置P1およびP2と把持力を決定する。次に、制御装置8は、ステップS12で、決定された把持位置P1およびP2と把持力により対象物Tに外力を加えるようにロボットハンド3を制御する。
On the other hand, if it is determined in step S6 that the object T is a flexible object, the process proceeds to step S11, where the
制御装置8は、ステップS13で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。
The
回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS14で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「柔軟物」との判定結果と対応付けて保存する。これにより、記憶部24には、「柔軟物」または「剛体」との判定結果と対応付けて対象物Tの画像データDがそれぞれ保存されることになる。このとき、記憶部24は、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果を対応付けて保存してもよい。また、記憶部24は、対象物領域Rに関連する情報を柔軟物の画像データDにさらに対応付けて保存してもよい。
When the rotary table 5 rotates once, the
このように、データ収集装置21は、柔軟物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された柔軟物の画像データDを収集することができる。
In this way, the
このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報に基づいて、画像データDの撮影位置に対する対象物Tの位置と対象物Tの姿勢とを算出してもよい。そして、記憶部24が、様々な位置および姿勢で撮影された対象物Tの画像データDに対して、対象物Tの位置および姿勢を対応付けて保存する。
At this time, the position/
これにより、柔軟物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。このようにして、記憶部24には、画像データDに対して、柔軟物または剛体物との判定結果と、撮影位置に対する対象物Tの位置と、撮影姿勢に対する対象物Tの姿勢とがそれぞれラベリングされた教師データが収集されることになる。
Thereby, it is possible to efficiently collect teacher data in which the image data D of the flexible object is labeled with the position and posture relationship between the
また、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS16で、ロボットアーム7の各関節角度を変更した後、ステップS11に戻って、新たに抽出された対象物領域Rに基づいてロボットハンド3の把持位置P1およびP2と把持力を決定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS11、ステップS12、ステップS13、ステップS14、ステップS15およびステップS16を繰り返す。そして、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。
Further, in step S15, the
本実施の形態によれば、ロボットアーム7で変形させた対象物Tを撮影した画像データDを取得し、その対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定部23で判定する。そして、ロボットアーム7の制御に用いるために対象物Tの画像データDを判定部23の判定結果に対応付けて記憶部24に保存する。これにより、機械学習用のデータセットを効率的に収集することができる。
According to the present embodiment, the image data D obtained by photographing the object T deformed by the
(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 2)
実施の形態2は、実施の形態1で収集されたデータセットを教師データとして、ロボットアーム7の制御モデルを構築するものである。
In the second embodiment, a control model for the
例えば、図7に示すように、実施の形態1のデータ収集装置21に学習装置31を接続してもよい。学習装置31は、学習部32と、制御モデル記憶部33とを有する。
For example, as shown in FIG. 7, a
学習部32は、データ収集装置21で収集されたデータセットを教師データとして機械学習を行い、ロボットアーム7の制御に用いる制御モデルを構築する。すなわち、制御モデルは、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練される。このとき、制御モデルは、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tの判定結果が対応付けられたデータを教師データとして訓練してもよい。これにより、制御モデルは、対象物Tの画像データDを入力とし、対象物Tが柔軟物であるか否かを出力するように構築される。また、制御モデルは、画像データDと、判定結果と、対象物Tの位置および姿勢とのデータセットを教師データに用いて訓練されてもよい。これにより、制御モデルは、対象物Tの画像データDの入力に対して、対象物Tの位置および姿勢をさらに出力するように構築される。
The
制御モデル記憶部33は、学習部32で構築された制御モデルを記憶する。
The control
なお、学習装置31のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。
Note that the hardware configuration of the
本実施の形態によれば、学習部32が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを構築する。このように、効率的に収集された機械学習用のデータセットを用いるため、制御モデルを容易に構築することができる。
According to the present embodiment, the
(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 3)
実施の形態3は、実施の形態2で構築された制御モデルを用いて、ロボットアーム7を制御するものである。
In the third embodiment, the
図8に、本開示に係る制御装置41を備えるロボットアーム装置100の構成を示す。ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置41とを有する。制御装置41は、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。
FIG. 8 shows a configuration of a
制御装置41は、制御部42と、記憶部43とを有する。
The
記憶部43は、実施の形態2の学習部32で構築された制御モデルを記憶する。すなわち、記憶部43は、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する。例えば、記憶部43は、画像データDに対して、判定結果と、対象物Tの位置および姿勢とが対応付けられたデータを教師データとして訓練した制御モデルを記憶してもよい。
The
制御部42は、記憶部43に記憶された制御モデルに基づいて、ロボットアーム装置100の各部を制御する。例えば、制御部42は、画像データDの入力に対して、対象物Tが柔軟物であるとの情報と対象物Tの位置および姿勢とが制御モデルから出力された場合、これらの情報に基づいて、適正な把持力で所定の位置を把持するようにロボットアーム7を制御してもよい。
The
なお、制御装置41のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。
Note that the hardware configuration of the
次に、本実施の形態のロボットアームを制御する動作について説明する。 Next, the operation for controlling the robot arm of this embodiment will be explained.
まず、制御部42が、対象物Tを把持して回転テーブル5上に載置するようにロボットアーム7を制御する。そして、制御部42は、ロボットアーム7で把持していない状態の対象物T、すなわち変形前の対象物Tを撮影するようにカメラ4を制御する。続いて、制御部42は、回転テーブル5に載置された対象物Tを把持して変形させるようにロボットアーム7を制御する。例えば、制御部42は、予め設定された基準把持力で対象物Tを把持するようにロボットアーム7を制御してもよい。そして、制御部42は、再度、回転テーブル5上に載置された対象物Tを撮影するようにカメラ4を制御する。
First, the
このようにして、変形前後の対象物Tが撮影されると、制御部42は、変形前後の2つの画像データDを記憶部43に記憶された制御モデルに入力する。これにより、対象物Tが柔軟物であるか否かが制御モデルから出力される。制御部42は、対象物Tが柔軟物である場合には、柔軟物に応じて予め設定された柔軟物用把持力で対象物Tを把持し、店舗作業などの所定の作業を行うようにロボットアーム7を制御する。一方、対象物Tが柔軟物でない場合には、例えば柔軟物用把持力より大きな把持力で対象物Tを把持するようにロボットアーム7を制御する。
When the object T before and after deformation is photographed in this way, the
一般的に、店舗では、様々な柔軟性を有する商品が扱われている。このため、店舗作業を行うロボットアーム7は、商品の柔軟性に応じた把持力で商品を把持することが求められる。そこで、本開示では、制御部42が、上記の制御モデルに基づいて、対象物Tの柔軟性に応じた把持力で対象物Tを把持するようにロボットアーム7を制御する。これにより、対象物Tの作業を適切に実施することができる。
Generally, stores carry products with various flexibility. For this reason, the
また、制御部42は、制御モデルから対象物Tの位置および姿勢がさらに出力された場合には、その出力された対象物Tの位置および姿勢に基づいて、対象物Tを把持するようにロボットアーム7を制御する。これにより、ロボットアーム7は、対象物Tの適切な位置を把持して作業を実施することができる。
Further, when the position and orientation of the target object T are further output from the control model, the
本実施の形態によれば、制御部42が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対応して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルに基づいて、ロボットアーム7を制御する。これにより、制御部42は、対象物Tが柔軟物であるか否かに基づいて、対象物Tを適切な把持力で把持するようにロボットアーム7を制御することができる。
According to the present embodiment, the
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present disclosure have been described in detail above, these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes to the specific examples illustrated above.
本発明のデータ収集装置および制御装置は、様々な対象物を操作する自動化ロボットにおいてAI学習を効率的に行うことができる。 The data collection device and control device of the present invention can efficiently perform AI learning in automated robots that operate various objects.
1 固定用土台
2 垂直多関節型ロボット
3 ロボットハンド
4 カメラ
5 回転テーブル
6 周方向
7 ロボットアーム
8 制御装置
12 カメラ座標系
13 ベース座標系
14 対象物座標系
21 データ収集装置
22 取得部
22a 位置・姿勢算出部
22b 面積算出部
23 判定部
24 記憶部
25 プロセッサ
26 ユーザインタフェース
31 学習装置
32 学習部
33 制御モデル記憶部
41 制御装置
42 制御部
43 記憶部
100 ロボットアーム装置
C 中央部
D1 幅方向
D2 高さ方向
P1,P2,Pa1,Pa2 把持位置
R 対象物領域
T 対象物
W 輪郭幅
1
Claims (5)
前記対象物の変形量に基づいて、前記対象物が柔軟物であるか否かを判定する判定部と、
前記ロボットアームの制御に用いるために前記対象物の画像データを前記判定部の判定結果と対応付けて保存する記憶部と、を備える、
データ収集装置。 an acquisition unit that acquires image data of an object transformed by the robot arm;
a determination unit that determines whether the object is a flexible object based on the amount of deformation of the object;
a storage unit that stores image data of the object in association with the determination result of the determination unit for use in controlling the robot arm;
Data collection equipment.
前記記憶部は、前記対象物の位置および姿勢を、前記画像データと対応づけて保存する、
請求項1に記載のデータ収集装置。 The acquisition unit calculates a position and orientation of the object with respect to a shooting position of the image data based on geometric information of the robot arm,
the storage unit stores the position and orientation of the object in association with the image data;
The data collection device according to claim 1.
前記判定部は、前記対象物の領域面積に基づいて前記対象物が柔軟物であるか否かを判定する、
請求項1に記載のデータ収集装置。 The acquisition unit acquires image data of the object before deformation and image data of the object after deformation, and calculates a region area of the object in each image data,
The determination unit determines whether the target object is a flexible object based on a region area of the target object.
The data collection device according to claim 1.
請求項3に記載のデータ収集装置。 When it is determined that the object is a flexible object, the storage section stores the object that has been deformed by the robot arm at a position where the outline width in a predetermined width direction is the longest in the undeformed object. storing image data of the object in association with the determination result of the determination unit;
The data collection device according to claim 3.
前記記憶部に記憶された前記制御モデルに基づいて、前記ロボットアームを制御する制御部と、を備える、
制御装置。 A teacher uses data in which a judgment result of determining whether or not the object is a flexible object based on the amount of deformation of the object is associated with image data taken of an object deformed by a robot arm. a storage unit that stores the trained control model as data;
a control unit that controls the robot arm based on the control model stored in the storage unit;
Control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022105850A JP2024005599A (en) | 2022-06-30 | 2022-06-30 | Data collection device and control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022105850A JP2024005599A (en) | 2022-06-30 | 2022-06-30 | Data collection device and control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024005599A true JP2024005599A (en) | 2024-01-17 |
Family
ID=89540802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022105850A Pending JP2024005599A (en) | 2022-06-30 | 2022-06-30 | Data collection device and control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024005599A (en) |
-
2022
- 2022-06-30 JP JP2022105850A patent/JP2024005599A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6546618B2 (en) | Learning apparatus, learning method, learning model, detection apparatus and gripping system | |
CN107571260B (en) | Method and device for controlling robot to grab object | |
Sanchez et al. | Robotic manipulation and sensing of deformable objects in domestic and industrial applications: a survey | |
US9089971B2 (en) | Information processing apparatus, control method thereof and storage medium | |
JP2011110621A (en) | Method of producing teaching data of robot and robot teaching system | |
JP2015071206A (en) | Control device, robot, teaching data generation method, and program | |
US10875189B2 (en) | System and method for manipulating deformable objects | |
Gu et al. | Automated assembly skill acquisition and implementation through human demonstration | |
Suzuki et al. | Grasping of unknown objects on a planar surface using a single depth image | |
Lin et al. | Peg-in-hole assembly under uncertain pose estimation | |
Namiki et al. | Origami folding by multifingered hands with motion primitives | |
Borum et al. | State estimation and tracking of deforming planar elastic rods | |
Budiharto | Robust vision-based detection and grasping object for manipulator using SIFT keypoint detector | |
JP7051751B2 (en) | Learning device, learning method, learning model, detection device and gripping system | |
JP2024005599A (en) | Data collection device and control device | |
JP6455869B2 (en) | Robot, robot system, control device, and control method | |
JP7349423B2 (en) | Learning device, learning method, learning model, detection device and grasping system | |
JP2015145050A (en) | Robot system, robot control device, robot control method and robot control program | |
Gu et al. | Automated assembly skill acquisition through human demonstration | |
Infantino et al. | Visual control of a robotic hand | |
Al-Shanoon et al. | Deepnet-based 3d visual servoing robotic manipulation | |
JP2004005361A (en) | Garment condition estimation method and program | |
Zhu | Vision-based robotic manipulation of deformable linear objects | |
Sueishi et al. | Paper state estimation using physical model and trajectory planning of multi-fingered robot hand | |
TWI782709B (en) | Surgical robotic arm control system and surgical robotic arm control method |