JP2024005599A - Data collection device and control device - Google Patents

Data collection device and control device Download PDF

Info

Publication number
JP2024005599A
JP2024005599A JP2022105850A JP2022105850A JP2024005599A JP 2024005599 A JP2024005599 A JP 2024005599A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2024005599 A JP2024005599 A JP 2024005599A
Authority
JP
Japan
Prior art keywords
image data
robot arm
data
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022105850A
Other languages
Japanese (ja)
Inventor
達大 若山
Tatsuhiro Wakayama
宏樹 池内
Hiroki Ikeuchi
秀和 荒木
Hidekazu Araki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022105850A priority Critical patent/JP2024005599A/en
Publication of JP2024005599A publication Critical patent/JP2024005599A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data collection device and control device, which enable efficient collection of datasets for machine learning.
SOLUTION: A data collection device is provided, comprising an acquisition unit for acquiring captured image data of an object deformed by a robot arm, a determination unit configured to determine whether the object is flexible or not based on the amount of deformation of the object, and a storage unit configured to store the image data of the object in association with a determination result of the determination unit in order to use the data for controlling the robot arm.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、AI(artificial intelligence)学習用のデータセットを収集するデータ収集装置および制御装置に関する。 The present invention relates to a data collection device and a control device that collect data sets for AI (artificial intelligence) learning.

近年のロボット技術の進歩により、工場や物流倉庫におけるロボットシステムによる自動化が進んでいる。このようなロボットシステムを一般消費者が多く存在する店舗などの現場に適用させるためには、ロボットシステムが環境に対してロバストである必要がある。一方、特に画像認識に関しては、変化する環境に対するロバスト性を担保することが困難である。環境に対するロバストな画像認識を実現するためには、AIによる画像認識技術が必要となる。AIの画像認識によって対象物の種類、位置および姿勢などを認識することで、ロボットがその対象物を把持したり操作したりすることが可能となる。 Due to recent advances in robot technology, automation using robot systems in factories and distribution warehouses is progressing. In order to apply such a robot system to a store or other workplace where many general consumers are present, the robot system needs to be robust against the environment. On the other hand, especially regarding image recognition, it is difficult to ensure robustness against changing environments. In order to realize image recognition that is robust to the environment, image recognition technology using AI is required. By recognizing the type, position, and posture of an object using AI image recognition, a robot can grasp and manipulate the object.

しかし、AIによる画像認識には膨大な量の学習用のデータセットが必要となる。膨大な量の学習用のデータセットを収集するためにはコストがかかるため、収集コストを削減することには大きな価値がある。また、対象物の位置と姿勢を認識するためには、対象物を撮影するだけでなく、撮影した画像に対して対象物の位置情報および姿勢情報をラベリングすることが重要である。そこで、対象物の画像と対象物周辺の既知の位置に置かれたマーカーを認識し、マーカーからの相対位置情報および姿勢情報に基づいて対象物の位置および姿勢を推定する方法が開示されている(特許文献1)。 However, image recognition using AI requires a huge amount of training data sets. Collecting huge amounts of training datasets is expensive, so there is great value in reducing collection costs. Furthermore, in order to recognize the position and orientation of an object, it is important not only to photograph the object, but also to label the photographed image with position information and orientation information of the object. Therefore, a method has been disclosed that recognizes an image of the target object and markers placed at known positions around the target object, and estimates the position and orientation of the target based on relative position information and orientation information from the markers. (Patent Document 1).

国際公開第2019/189661号International Publication No. 2019/189661

しかし、上記従来の方法では、剛体物からなる対象物については、画像に対して対象物の位置および姿勢をラベリングすることが可能であるが、柔軟物からなる対象物に対しては常に同一の変形状態で撮影を行うことになる。このため、柔軟物の様々な変形状態をデータセットに加えることができないおそれがある。また、柔軟物からなる対象物がデータセット収集時と異なる変形状態となった場合に、対象物の正しい位置および姿勢を推定することができないおそれもある。 However, with the conventional method described above, it is possible to label the position and orientation of an object in an image for a rigid object, but it is always possible to label the same position and orientation for an object that is a flexible object. Photographs will be taken in the deformed state. For this reason, there is a possibility that various deformation states of the flexible object cannot be added to the data set. Further, when a flexible object becomes deformed in a state different from that at the time of data set collection, there is a possibility that the correct position and orientation of the object cannot be estimated.

本開示は、機械学習用のデータセットを効率的に収集するデータ収集装置および制御装置を提供することを目的とする。 The present disclosure aims to provide a data collection device and a control device that efficiently collect data sets for machine learning.

本開示のデータ収集装置は、ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、対象物の変形量に基づいて、対象物が柔軟物であるか否かを判定する判定部と、ロボットアームの制御に用いるために対象物の画像データを判定部の判定結果と対応付けて保存する記憶部と、を備える。 The data collection device of the present disclosure includes an acquisition unit that acquires image data of an object deformed by a robot arm, and determines whether the object is a flexible object based on the amount of deformation of the object. It includes a determination section and a storage section that stores image data of the object in association with the determination result of the determination section for use in controlling the robot arm.

本開示の制御装置は、ロボットアームで変形させた対象物を撮影した画像データに対して、対象物の変形量に基づいて対象物が柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する記憶部と、記憶部に記憶された制御モデルに基づいて、ロボットアームを制御する制御部と、を備える。 The control device of the present disclosure associates image data obtained by photographing an object deformed by a robot arm with a determination result of determining whether the object is a flexible object based on the amount of deformation of the object. The robot arm includes a storage unit that stores a control model trained using the data obtained as teacher data, and a control unit that controls the robot arm based on the control model stored in the storage unit.

本開示に依れば、機械学習用のデータセットを効率的に収集することができる。 According to the present disclosure, data sets for machine learning can be efficiently collected.

実施の形態1に係るデータ収集装置を備えるロボットアーム装置の構成を示す図である。1 is a diagram showing the configuration of a robot arm device including a data collection device according to Embodiment 1. FIG. 画像データに対して、判定結果と、撮影位置に対する対象物の位置および姿勢とをラベリングした様子を示す図である。FIG. 6 is a diagram illustrating how image data is labeled with determination results and the position and orientation of a target object with respect to a photographing position. ロボットアームの把持位置を算出する様子を示す図である。FIG. 3 is a diagram showing how the gripping position of the robot arm is calculated. 実施の形態1に係るデータ収集装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a data collection device according to Embodiment 1. FIG. 実施の形態1の動作を示すフローチャートである。7 is a flowchart showing the operation of the first embodiment. ロボットアームの把持位置を算出する様子を示す図である。FIG. 3 is a diagram showing how the gripping position of the robot arm is calculated. 実施の形態2に係る学習装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a learning device according to Embodiment 2. FIG. 実施の形態3に係る制御装置を備えるロボットアーム装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of a robot arm device including a control device according to a third embodiment.

以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
本開示のデータ収集装置は、様々な変形状態をとる柔軟物からなる対象物の位置および姿勢を正確に推定するために、ロボットアームと回転テーブルを動作させることでカメラと対象物の相対位置と対象物の姿勢を変更する。そして、データ収集装置は、ロボットハンドを用いて対象物に変形を加えながら、カメラによって対象物を撮影し、ロボットアームの幾何関係(幾何学的情報)から算出される、カメラに対する対象物の位置と対象物の姿勢とを画像データにラベリングする。
(Embodiment 1)
The data collection device of the present disclosure operates a robot arm and a rotary table to accurately estimate the position and orientation of a flexible object that takes various deformed states. Change the pose of the object. Then, the data collection device photographs the object with a camera while deforming the object using the robot hand, and calculates the position of the object with respect to the camera from the geometric relationship (geometric information) of the robot arm. and the posture of the object in the image data.

まず、本開示に係るデータ収集装置21を備えるロボットアーム装置100の構成について説明する。図1に、本実施の形態1におけるロボットアーム装置100の全体の構成を示す。 First, the configuration of the robot arm device 100 including the data collection device 21 according to the present disclosure will be described. FIG. 1 shows the overall configuration of a robot arm device 100 according to the first embodiment.

ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置8と、データ収集装置21とを含む。制御装置8とデータ収集装置21は、互いに電気的に接続されている。また、制御装置8とデータ収集装置21は、それぞれ、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。 Robot arm device 100 includes a robot arm 7 , a camera 4 , a rotary table 5 , a control device 8 , and a data collection device 21 . The control device 8 and the data collection device 21 are electrically connected to each other. Further, the control device 8 and the data collection device 21 are electrically connected to the robot arm 7, camera 4, and rotary table 5, respectively.

ロボットアーム7は、隣接するリンク同士を複数の関節で接続した垂直多関節型ロボット2と、手先として機能するロボットハンド3とを含む。垂直多関節型ロボット2は、延在形状を有し、基端部が固定用土台1に固定される。この固定用土台1は、ロボットアーム7と回転テーブル5を固定するためのもので、例えば床に固定されている。ロボットハンド3は、回転テーブル5に載置された対象物Tを把持するもので、垂直多関節型ロボット2の先端部に取り付けられる。 The robot arm 7 includes a vertical multi-joint robot 2 in which adjacent links are connected to each other through a plurality of joints, and a robot hand 3 that functions as a hand. The vertical articulated robot 2 has an elongated shape, and its base end is fixed to the fixing base 1. This fixing base 1 is for fixing the robot arm 7 and the rotary table 5, and is fixed to the floor, for example. The robot hand 3 grips an object T placed on a rotary table 5 and is attached to the tip of the vertically articulated robot 2 .

カメラ4は、回転テーブル5に載置された対象物Tを撮影するもので、垂直多関節型ロボット2の先端部に取り付けられる。 The camera 4 is used to photograph the object T placed on the rotary table 5, and is attached to the tip of the vertically articulated robot 2.

回転テーブル5は、カメラ4に対する対象物Tの姿勢(撮影角度)を変更するもので、固定用土台1に固定される。回転テーブル5は、サーボモータによって回転し、例えば鉛直方向に延びる回転軸の周方向6に回転してもよい。なお、本実施の形態では、回転テーブル5を使用したが、対象物Tの撮影角度を変更できればよく、これに限られるものではない。例えば、回転テーブル5を使用する代わりに複数台のカメラを配置してもよい。これにより、効率的に撮影を行うことが可能となる。 The rotary table 5 changes the attitude (photographing angle) of the object T with respect to the camera 4, and is fixed to the fixing base 1. The rotary table 5 is rotated by a servo motor, and may be rotated, for example, in the circumferential direction 6 of a rotating shaft extending in the vertical direction. Note that in this embodiment, the rotary table 5 is used, but the present invention is not limited to this as long as the photographing angle of the object T can be changed. For example, instead of using the rotary table 5, a plurality of cameras may be arranged. This allows efficient photographing.

データ収集装置21は、取得部22と、判定部23と、記憶部24とを有する。 The data collection device 21 includes an acquisition section 22, a determination section 23, and a storage section 24.

取得部22は、ロボットアーム7のロボットハンド3で変形された対象物Tがカメラ4で撮影されると、判定部23で対象物Tの柔軟性を判定するために、対象物Tを撮影した画像データをカメラ4から取得するものである。また、取得部22は、位置・姿勢算出部22aと、面積算出部22bとを有する。 When the object T deformed by the robot hand 3 of the robot arm 7 is photographed by the camera 4, the acquisition section 22 photographs the object T in order to determine the flexibility of the object T at the determination section 23. Image data is acquired from the camera 4. Further, the acquisition unit 22 includes a position/orientation calculation unit 22a and an area calculation unit 22b.

面積算出部22bは、ロボットハンド3による変形前の対象物Tの画像データと変形後の対象物Tの画像データとを取得し、それぞれの画像データおける対象物Tの領域面積を算出する。例えば、面積算出部22bは、対象物Tが存在していない状態で回転テーブル5を撮影した背景画像データをカメラ4から予め取得し、その背景画像データに基づいて、対象物Tを撮影した画像データから背景部分を差分することにより、対象物Tの存在する領域である対象物領域を抽出してもよい。そして、面積算出部22bは、抽出された対象物領域に基づいて、対象物Tの領域面積を算出する。この領域面積は、対象物Tの変形量に応じて変化するため、対象物Tの柔軟性を示す指標となり得るものである。 The area calculation unit 22b acquires image data of the object T before transformation by the robot hand 3 and image data of the object T after transformation, and calculates the area of the area of the object T in each image data. For example, the area calculation unit 22b obtains in advance background image data of the rotary table 5 in a state where the target object T is not present from the camera 4, and based on the background image data, the area calculation unit 22b generates an image of the target object T. By subtracting the background portion from the data, the object region, which is the region where the object T exists, may be extracted. Then, the area calculation unit 22b calculates the area of the target object T based on the extracted target object area. This region area changes depending on the amount of deformation of the object T, and therefore can serve as an index indicating the flexibility of the object T.

位置・姿勢算出部22aは、例えばロボットアーム7の幾何情報に基づいて、画像データの撮影位置に対する対象物Tの位置および姿勢を算出する。例えば、位置・姿勢算出部22aは、判定部23で柔軟物か否かを判定された対象物Tについて様々な位置および姿勢に変化させ、その画像データの撮影位置に対する対象物Tの位置および姿勢を順次算出してもよい。 The position/orientation calculation unit 22a calculates the position and orientation of the object T with respect to the photographing position of the image data, for example, based on the geometric information of the robot arm 7. For example, the position/orientation calculation unit 22a changes the object T, whose determination is made as to whether it is a flexible object by the determination unit 23, to various positions and orientations, and changes the position and orientation of the object T relative to the photographing position of the image data. may be calculated sequentially.

このとき、ロボットアーム7とカメラ4と回転テーブル5は、それぞれ固定用土台1を介して幾何的に拘束されている。また、位置・姿勢算出部22aには、カメラ4の位置および姿勢を示すカメラ座標系12、ロボットアーム7の基端部の位置および姿勢を示すベース座標系13および回転テーブル5の位置および回転方向を示す対象物座標系14が予め設定されている。ここで、カメラ座標系12は、例えば図1に示すように、互いに直交するx,y,z方向の単位ベクトル(e,e,e)から構成され、カメラ4と共に位置および姿勢が変更するように設定してもよい。同様に、ベース座標系13および対象物座標系14は、それぞれ、互いに直交するx,y,z方向の単位ベクトル(e,e,e)から構成され、ロボットアーム7の基端部および回転テーブル5と共に位置および姿勢が変更するように設定してもよい。なお、回転テーブル5の位置および回転方向に応じて対象物Tの位置および姿勢が変化するため、対象物座標系14は、対象物Tの位置および姿勢を示すものとなる。そこで、位置・姿勢算出部22aは、ロボットアーム7の各関節角度と回転テーブル5の回転角度に基づいて、これらの座標系の変化を算出し、算出された座標系の変化に基づいてカメラ4に対する対象物Tの位置および姿勢を算出してもよい。 At this time, the robot arm 7, camera 4, and rotary table 5 are each geometrically restrained via the fixing base 1. The position/orientation calculation unit 22a also includes a camera coordinate system 12 indicating the position and attitude of the camera 4, a base coordinate system 13 indicating the position and attitude of the base end of the robot arm 7, and the position and rotation direction of the rotary table 5. An object coordinate system 14 is set in advance. Here , as shown in FIG. 1 , for example, the camera coordinate system 12 is composed of unit vectors ( e You may also set it to change. Similarly, the base coordinate system 13 and the object coordinate system 14 are each composed of unit vectors (e x , e y , e z ) in mutually orthogonal x, y, and z directions. The position and orientation may be changed together with the rotary table 5. Note that since the position and orientation of the object T change depending on the position and rotation direction of the rotary table 5, the object coordinate system 14 indicates the position and orientation of the object T. Therefore, the position/orientation calculation unit 22a calculates changes in these coordinate systems based on each joint angle of the robot arm 7 and the rotation angle of the rotary table 5, and changes the camera 4 based on the calculated changes in the coordinate system. The position and orientation of the target object T relative to the target object T may be calculated.

具体的には、位置・姿勢算出部22aは、ロボットアーム7の各関節角度に基づいて、カメラ座標系12に対するロボットアーム7のベース座標系13の位置および姿勢を算出する。また、位置・姿勢算出部22aは、回転テーブル5の回転角度に基づいて、ロボットアーム7のベース座標系13に対する対象物Tの対象物座標系14の位置および姿勢を算出する。これにより、ロボットアーム7のベース座標系13を介して、カメラ座標系12と対象物座標系14とが関連付けられることになる。そこで、位置・姿勢算出部22aは、カメラ座標系12に対するベース座標系13の位置および姿勢と、ベース座標系13に対する対象物座標系14の位置および姿勢とに基づいて、カメラ座標系12に対する対象物座標系14の位置および姿勢を算出してもよい。例えば、ベース座標系13に対するカメラ座標系12の位置(x、y、z)が(-2,-2,-1)で、ベース座標系13に対する対象物座標系14の位置が(-2,-2,0)である場合に、カメラ座標系12に対する対象物座標系14の位置は(0,0,1)と算出されることになる。同様に、カメラ座標系12に対する対象物座標系14の姿勢の変化は、例えば、ベース座標系13の単位ベクトルに対するカメラ座標系12の単位ベクトルの方向と、ベース座標系13の単位ベクトルに対する対象物座標系14の単位ベクトルの方向とに基づいて算出されてもよい。 Specifically, the position/orientation calculation unit 22 a calculates the position and orientation of the base coordinate system 13 of the robot arm 7 with respect to the camera coordinate system 12 based on the joint angles of the robot arm 7 . Further, the position/orientation calculation unit 22a calculates the position and orientation of the object T in the object coordinate system 14 with respect to the base coordinate system 13 of the robot arm 7 based on the rotation angle of the rotary table 5. As a result, the camera coordinate system 12 and the object coordinate system 14 are associated with each other via the base coordinate system 13 of the robot arm 7 . Therefore, the position/orientation calculation unit 22a calculates the object relative to the camera coordinate system 12 based on the position and orientation of the base coordinate system 13 relative to the camera coordinate system 12 and the position and orientation of the object coordinate system 14 relative to the base coordinate system 13. The position and orientation of the object coordinate system 14 may be calculated. For example, the position (x, y, z) of the camera coordinate system 12 with respect to the base coordinate system 13 is (-2, -2, -1), and the position of the object coordinate system 14 with respect to the base coordinate system 13 is (-2, -2,0), the position of the object coordinate system 14 with respect to the camera coordinate system 12 will be calculated as (0,0,1). Similarly, changes in the orientation of the object coordinate system 14 with respect to the camera coordinate system 12 are determined by, for example, the direction of the unit vector of the camera coordinate system 12 with respect to the unit vector of the base coordinate system 13, and the direction of the object coordinate system 14 with respect to the unit vector of the base coordinate system 13. It may be calculated based on the direction of the unit vector of the coordinate system 14.

判定部23は、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定する。例えば、判定部23は、面積算出部22bで算出された対象物Tの領域面積に基づいて、対象物Tが柔軟物であるか否かを判定してもよい。 The determining unit 23 determines whether the object T is a flexible object based on the amount of deformation of the object T. For example, the determining unit 23 may determine whether the target object T is a flexible object based on the area area of the target object T calculated by the area calculating unit 22b.

記憶部24は、ロボットアーム7の制御に用いるために、対象物Tの画像データを判定部23の判定結果、すなわち、「柔軟物である」か、又は、「柔軟物でない」と対応付けたデータセットを保存する。また、記憶部24は、位置・姿勢算出部22aで算出された撮影位置に対する対象物Tの位置および姿勢を、画像データとさらに対応付けて保存してもよい。 The storage unit 24 associates the image data of the object T with the determination result of the determination unit 23, that is, “it is a flexible object” or “it is not a flexible object” in order to use it for controlling the robot arm 7. Save the dataset. Furthermore, the storage unit 24 may store the position and orientation of the object T relative to the photographing position calculated by the position/orientation calculation unit 22a in association with the image data.

例えば、図2に示すように、記憶部24は、対象物Tを撮影した画像データDに対して、判定結果と、撮影位置に対する対象物Tの位置および姿勢とをラベリングして保存してもよい。このように、画像データDに対する、判定結果と、対象物Tの位置および姿勢とのラベリングにより一組とされたデータは、後述するように機械学習モデルの訓練に利用することができる。 For example, as shown in FIG. 2, the storage unit 24 may label and save the image data D obtained by photographing the object T with the determination result and the position and orientation of the object T with respect to the photographing position. good. In this way, the data that is made into a set by labeling the determination result and the position and orientation of the target object T for the image data D can be used for training a machine learning model as described later.

なお、判定部23は、対象物Tが剛体物であるか否かを判定してもよい。例えば、判定部23は、柔軟物以外の対象物Tを剛体物と判定してもよい。この場合、記憶部24は、柔軟物からなる対象物Tだけでなく、剛体物からなる対象物Tの画像データを記憶してもよい。このとき、対象物Tが柔軟物である場合と剛体物である場合とで、記憶部24に記憶される画像データDの撮影方法が異なってもよい。例えば、対象物Tが柔軟物である場合、ロボットハンド3で外力を付加した後に対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。これにより、様々な形状に変形された対象物Tの画像データDを取得することができる。一方、対象物Tが剛体物である場合、外力を付加することなく対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。 Note that the determination unit 23 may determine whether the target object T is a rigid object. For example, the determination unit 23 may determine that the object T other than the flexible object is a rigid object. In this case, the storage unit 24 may store image data of not only the object T made of a flexible object but also the object T made of a rigid object. At this time, the method of photographing the image data D stored in the storage unit 24 may be different depending on whether the object T is a flexible object or a rigid object. For example, when the object T is a flexible object, the object T may be photographed after applying an external force with the robot hand 3, and the image data D may be stored in the storage unit 24. Thereby, image data D of the object T transformed into various shapes can be obtained. On the other hand, when the object T is a rigid object, the object T may be photographed without applying any external force, and the image data D may be stored in the storage unit 24.

制御装置8は、対象物Tを撮影した画像データDを含む機械学習用のデータセットをデータ収集装置21に収集するために、ロボットアーム装置100の各部を制御する。 The control device 8 controls each part of the robot arm device 100 in order to collect a data set for machine learning including image data D obtained by photographing the object T into the data collection device 21 .

次に、判定部23が対象物Tを判定する一例について説明する。 Next, an example in which the determination unit 23 determines the target object T will be described.

まず、制御装置8が、カメラ座標系12、ベース座標系13および対象物座標系14に基づいてロボットアーム7の各関節を動作させ、カメラ4が配置されたロボットアーム7の先端部を予め設定された初期位置および初期姿勢に移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に対象物Tの全体が含まれるように予め設定されてもよい。 First, the control device 8 operates each joint of the robot arm 7 based on the camera coordinate system 12, the base coordinate system 13, and the object coordinate system 14, and presets the tip of the robot arm 7 where the camera 4 is placed. the initial position and attitude. The initial position and initial posture may be set in advance so that the entire object T is included near the center of the photographing area of the camera 4, for example.

制御装置8は、ロボットアーム7を初期位置および初期姿勢とすると、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、面積算出部22bが、カメラ4で撮影された画像データDから、対象物Tに対応する対象物領域を抽出する。 The control device 8 controls the camera 4 to photograph the object T when the robot arm 7 is in the initial position and initial posture. The camera 4 outputs the captured image data D to the area calculation section 22b of the acquisition section 22. Then, the area calculation unit 22b extracts the object area corresponding to the object T from the image data D captured by the camera 4.

続いて、制御装置8は、ロボットハンド3を制御して、対象物Tを予め設定された基準把持力で把持させ、その把持状態から数秒経過後に対象物Tを解放させる。その後、ロボットアーム7が初期位置および初期姿勢に戻されて、対象物Tがカメラ4で再度撮影される。そして、面積算出部22bが、カメラ4で撮影された画像データDから対象物領域を抽出する。面積算出部22bは、抽出した対象物領域に基づいて画像データDにおける対象物領域の面積を算出し、把持前の対象物領域の面積に対する把持後の対象物領域の面積の減少率を下記式1によって算出する。 Subsequently, the control device 8 controls the robot hand 3 to grip the object T with a preset standard gripping force, and releases the object T after several seconds have elapsed from the gripping state. Thereafter, the robot arm 7 is returned to the initial position and initial posture, and the object T is photographed again by the camera 4. Then, the area calculation unit 22b extracts the object area from the image data D captured by the camera 4. The area calculation unit 22b calculates the area of the object region in the image data D based on the extracted object region, and calculates the reduction rate of the area of the object region after gripping with respect to the area of the object region before gripping using the following formula. Calculated by 1.

Figure 2024005599000002
Figure 2024005599000002

判定部23は、対象物領域の面積の減少率が基準値以上である場合、対象物Tが柔軟物であると判定する。一方、判定部23は、対象物領域の面積の減少率が基準値未満である場合、対象物Tが剛体物であると判定する。 The determination unit 23 determines that the object T is a flexible object when the rate of decrease in the area of the object region is equal to or greater than the reference value. On the other hand, the determination unit 23 determines that the target object T is a rigid object when the reduction rate of the area of the target object region is less than the reference value.

続いて、取得部22は、判定部23で柔軟物と判定された対象物Tについて様々な変形状態を撮影した画像データDを収集する。このとき、制御装置8は、対象物Tを変形させるために、対象物Tを把持して外力を加えるようにロボットハンド3を制御してもよい。 Subsequently, the acquisition unit 22 acquires image data D obtained by photographing various deformed states of the object T determined by the determination unit 23 to be a flexible object. At this time, the control device 8 may control the robot hand 3 to grip the object T and apply an external force in order to deform the object T.

次に、画像データDの収集のために対象物Tをロボットハンド3で変形させる一例について説明する。 Next, an example in which the object T is deformed by the robot hand 3 in order to collect the image data D will be described.

ロボットハンド3は、対象物Tを挟み込むことで、柔軟物である対象物Tを変形させる。このとき、対象物Tの変形パターン画像を効率的に収集するためには、対象物Tを短時間で様々な変形状態に変えることが求められ、それを実現するためにはロボットハンド3の把持力と把持位置を速やかに決定することが必要となる。 The robot hand 3 deforms the flexible object T by pinching the object T. At this time, in order to efficiently collect deformation pattern images of the object T, it is required to change the object T into various deformed states in a short time. It is necessary to quickly determine the force and gripping position.

そこで、図3に示すように、面積算出部22bは、変形していない状態(ロボットハンド3で力を加えない状態)で対象物Tを撮影した画像データDから対象物領域Rを抽出する。続いて、面積算出部22bは、抽出された対象物領域Rの輪郭に基づいて、回転テーブル5に平行な幅方向D1の輪郭幅Wを複数の高さ位置(回転テーブル5に直交する高さ方向D2の位置)について算出する。そして、制御装置8は、輪郭幅Wが最も大きい位置を把持位置P1およびP2として選択し、その把持位置P1およびP2を把持するようにロボットハンド3を制御する。 Therefore, as shown in FIG. 3, the area calculation unit 22b extracts the object region R from the image data D obtained by photographing the object T in an undeformed state (no force is applied by the robot hand 3). Next, the area calculation unit 22b calculates the contour width W in the width direction D1 parallel to the rotary table 5 at a plurality of height positions (height perpendicular to the rotary table 5) based on the contour of the extracted object region R. position in direction D2). Then, the control device 8 selects the positions where the contour width W is the largest as the gripping positions P1 and P2, and controls the robot hand 3 to grip the gripping positions P1 and P2.

これにより、判定部23において対象物Tが柔軟物であると判定された場合、記憶部24には、位置P1およびP2を把持して対象物Tを変形させた画像データDが保存されることになる。すなわち、記憶部24は、変形していない状態の対象物Tにおいて所定の幅方向D1における輪郭幅Wが最長となる位置P1およびP2をロボットアーム7で変形させた対象物Tの画像データDを判定部23の判定結果と対応付けて保存する。このように、ロボットハンド3が、対象物Tの中で輪郭幅Wが最長となる位置P1およびP2を把持することで、対象物Tをより大きく変形させることができ、効率的な変形パターン画像を収集することができる。 As a result, when the determination unit 23 determines that the object T is a flexible object, the storage unit 24 stores image data D in which the object T is deformed by grasping the positions P1 and P2. become. That is, the storage unit 24 stores image data D of the object T that has been deformed by the robot arm 7 at positions P1 and P2 where the contour width W in the predetermined width direction D1 is the longest in the undeformed object T. It is stored in association with the determination result of the determination unit 23. In this way, the robot hand 3 can deform the object T to a larger extent by grasping the positions P1 and P2 where the contour width W is the longest in the object T, thereby creating an efficient deformation pattern image. can be collected.

このとき、ロボットハンド3の把持力は、把持位置P1およびP2の輪郭幅W(把持輪郭幅)の大きさに応じて設定してもよい。例えば、制御装置8は、予め設定された基準輪郭幅に対する把持輪郭幅Wの大きさに応じてロボットハンド3の把持力を決定してもよい。これにより、対象物Tの中で最も幅が大きい(膨らみが大きい)位置を、その幅の大きさに応じた把持力で把持することができる。ロボットハンド3の把持力を求める計算式を下記式2に示す。 At this time, the gripping force of the robot hand 3 may be set according to the size of the contour width W (gripping contour width) of the gripping positions P1 and P2. For example, the control device 8 may determine the gripping force of the robot hand 3 according to the size of the gripping contour width W with respect to a preset reference contour width. Thereby, it is possible to grip the position of the object T with the largest width (largest bulge) with a gripping force corresponding to the width. A calculation formula for determining the gripping force of the robot hand 3 is shown in Formula 2 below.

Figure 2024005599000003
Figure 2024005599000003

制御装置8は、把持輪郭幅Wが基準輪郭幅と同じである場合は、予め設定された基準把持力で把持するようにロボットハンド3を制御する。また、制御装置8は、把持輪郭幅Wが基準輪郭幅よりも大きい場合は、基準輪郭幅に対する把持輪郭幅Wの増加量に応じて、基準把持力より大きな把持力で把持するようにロボットハンド3を制御する。このとき、制御装置8は、予め設定された最大把持力を超える場合は、その最大把持力で把持するようにロボットハンド3を制御する。これにより、様々な対象物Tに対してほぼ同じ変形量を加えた画像データDを収集することができる。 When the grip contour width W is the same as the reference contour width, the control device 8 controls the robot hand 3 to grip with a preset reference grip force. Furthermore, when the gripping contour width W is larger than the reference contour width, the control device 8 controls the robot hand to grip the robot hand with a gripping force greater than the standard gripping force in accordance with the amount of increase in the gripping contour width W with respect to the standard contour width. Control 3. At this time, if the preset maximum gripping force is exceeded, the control device 8 controls the robot hand 3 to grip with the maximum gripping force. As a result, image data D obtained by applying substantially the same amount of deformation to various objects T can be collected.

上記の実施の形態1では、対象物Tを変形させるために、ロボットハンド3で対象物Tを挟み込むことで対象物Tに外力を加えている。この挟み込みによる外力付加方法は、対象物Tの両側部(把持位置P1およびP2)から内側に向かって同一の外力を加えるため、対象物Tが回転テーブル5上で大きく移動することなく、対象物Tに外力を加えることが可能である。 In the first embodiment described above, in order to deform the object T, an external force is applied to the object T by holding the object T between the robot hands 3. This method of applying external force by pinching applies the same external force inward from both sides (gripping positions P1 and P2) of the object T, so that the object T does not move significantly on the rotary table 5. It is possible to apply an external force to T.

図4に、データ収集装置21のハードウェア構成を示す。 FIG. 4 shows the hardware configuration of the data collection device 21.

データ収集装置21は、バスBを介して相互接続される記憶部24と、プロセッサ25と、ユーザインタフェース(UI)26とを有する。 The data collection device 21 includes a storage unit 24, a processor 25, and a user interface (UI) 26 that are interconnected via a bus B.

なお、データ収集装置21における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、CD-ROM(Compact Disk-Read Only Memory)、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。 Note that programs or instructions for realizing various functions and processes to be described later in the data collection device 21 may be downloaded from any external device via a network or the like, or may be stored in a CD-ROM (Compact Disk-Read Only Memory). , may be provided from a removable storage medium such as a flash memory.

記憶部24は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。 The storage unit 24 is implemented by one or more non-transitory storage media, such as random access memory, flash memory, hard disk drive, etc., and stores the programs or instructions as well as the installed programs or instructions. Stores files, data, etc. used for execution.

プロセッサ25は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ25は、記憶部24に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される制御装置8の各種機能及び処理を実行する。 The processor 25 may be realized by one or more CPUs (Central Processing Units), GPUs (Graphics Processing Units), processing circuits, etc. that may be configured from one or more processor cores. The processor 25 executes various functions and processes of the control device 8, which will be described later, in accordance with programs, instructions, and data such as parameters necessary to execute the programs or instructions stored in the storage unit 24.

UI26は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと制御装置8との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、制御装置8を操作してもよい。 The UI 26 may be composed of input devices such as a keyboard, mouse, camera, microphone, etc., output devices such as a display, speaker, headset, printer, etc., and input/output devices such as a touch panel. Realize the interface. For example, the user may operate the control device 8 by operating a GUI (Graphical User Interface) displayed on a display or touch panel using a keyboard, a mouse, or the like.

なお、上述したハードウェア構成は単なる一例であり、本開示による制御装置8は、他の何れか適切なハードウェア構成により実現されてもよい。 Note that the hardware configuration described above is merely an example, and the control device 8 according to the present disclosure may be realized by any other suitable hardware configuration.

次に、図5に示すフローチャートを参照して本実施の形態のデータ収集動作について説明する。 Next, the data collection operation of this embodiment will be explained with reference to the flowchart shown in FIG.

初めに、制御装置8が、ステップS1で、予め設定されている初期位置および初期姿勢になるようにロボットアーム7を移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に、回転テーブル5に載置された対象物Tの全体が含まれるように設定されてもよい。制御装置8は、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、ロボットアーム7の先端部が初期位置および初期姿勢となるようにロボットアーム7の各関節を駆動させる。 First, in step S1, the control device 8 moves the robot arm 7 to a preset initial position and initial posture. The initial position and initial posture may be set, for example, so that the entire object T placed on the rotary table 5 is included near the center of the imaging area of the camera 4. The control device 8 controls the robot arm 7 based on geometric information of the robot arm 7, such as a camera coordinate system 12, a base coordinate system 13, and an object coordinate system 14, so that the tip of the robot arm 7 is at an initial position and an initial posture. 7 joints are driven.

続いて、制御装置8は、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、図6に示すように、面積算出部22bが、ステップS2で、画像データDから対象物Tに対応する対象物領域Rを抽出し、その対象物領域Rの面積を算出する。 Subsequently, the control device 8 controls the camera 4 to photograph the object T. The camera 4 outputs the captured image data D to the area calculation section 22b of the acquisition section 22. Then, as shown in FIG. 6, the area calculation unit 22b extracts the object region R corresponding to the object T from the image data D and calculates the area of the object region R in step S2.

このようにして、対象物Tが撮影されると、制御装置8は、ステップS3で、対象物Tの所定の位置Pa1およびPa2を基準把持力で把持するようにロボットアーム7を制御する。このとき、所定の位置Pa1およびPa2は、例えば、高さ方向D2において対象物領域Rの中央部Cに対応する側部を撮影方向から把持するようにロボットアーム7を制御してもよい。すなわち、制御装置8は、高さ方向D2における対象物領域Rの中央部Cを通り且つ幅方向D1に延びる直線が対象物領域Rの輪郭と交差する2点Pa1およびPa2を把持するようにロボットアーム7を制御する。 When the object T is photographed in this manner, the control device 8 controls the robot arm 7 to grip the predetermined positions Pa1 and Pa2 of the object T with a standard gripping force in step S3. At this time, the predetermined positions Pa1 and Pa2 may control the robot arm 7 to, for example, grip a side portion corresponding to the center portion C of the object region R in the height direction D2 from the photographing direction. That is, the control device 8 causes the robot to grip two points Pa1 and Pa2 where a straight line passing through the center C of the object region R in the height direction D2 and extending in the width direction D1 intersects the outline of the object region R. Controls arm 7.

その後、制御装置8は、ステップS4で、ロボットアームを初期位置および初期姿勢に再度移動させる。また、制御装置8は、対象物Tを撮影するようにカメラ4を制御し、撮影された画像データDがカメラ4から取得部22に出力される。そして、取得部22の面積算出部22bが、ステップS5で、画像データDから対象物領域Rを抽出して、対象物領域Rの面積を算出する。 After that, the control device 8 moves the robot arm to the initial position and initial posture again in step S4. Further, the control device 8 controls the camera 4 to photograph the object T, and the photographed image data D is output from the camera 4 to the acquisition unit 22. Then, the area calculation unit 22b of the acquisition unit 22 extracts the object region R from the image data D and calculates the area of the object region R in step S5.

続いて、判定部23が、ステップS6で、把持前の対象物領域Rに対する把持後の対象物領域Rの面積の減少率に基づいて、対象物Tが柔軟物であるか否かを判定する。 Subsequently, in step S6, the determination unit 23 determines whether or not the object T is a flexible object based on the rate of decrease in the area of the object region R after gripping relative to the object region R before gripping. .

対象物Tが柔軟物でないと判定、すなわち剛体物であると判定された場合、制御装置8は、ステップS7で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。 When it is determined that the object T is not a flexible object, that is, it is determined that it is a rigid object, the control device 8 rotates the rotary table 5 by a certain angle and then controls the camera to photograph the object T in step S7. Control 4. Subsequently, the control device 8 controls the camera 4 to photograph the object T after further rotating the rotary table 5 by the same fixed angle as before. In this way, the control device 8 repeatedly photographs the object T from different angles until the rotary table 5 rotates once.

回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS8で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「剛体物」との判定結果と対応付けて保存する。また、記憶部24は、対象物領域に関連する情報を剛体物の画像データDにさらに対応付けて保存してもよい。 When the rotary table 5 rotates once, the control device 8 changes each joint angle of the robot arm 7, that is, changes the position (for example, height position) of the object T with respect to the imaging position, and again rotates the rotary table 5 at a constant angle. The camera 4 is controlled to photograph the object T while rotating it. The control device 8 repeats photographing the object T from different angles until the rotary table 5 rotates once. In this way, the object T is photographed at various positions and postures. Then, in step S8, the storage unit 24 stores the image data D of the object T photographed at various positions and postures in association with the determination result that the object T is a “rigid object” determined by the determination unit 23. do. Furthermore, the storage unit 24 may store information related to the object region in association with the image data D of the rigid object.

このように、データ収集装置21は、剛体物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された剛体物の画像データDを収集することができる。 In this way, the data collection device 21 can efficiently collect a data set for machine learning including the image data D of a rigid object. Furthermore, by changing the angle of each joint of the robot arm 7, it is possible to photograph the object T at different angles of view, and it is possible to collect image data D of the rigid body photographed at various positions and postures. .

このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、画像データDの撮影位置に対する対象物Tの位置および姿勢を算出してもよい。そして、記憶部24が、様々な位置および角度で撮影された対象物Tの画像データDに対して、撮影位置に対する対象物Tの位置および姿勢を対応付けて保存する。 At this time, the position/orientation calculation unit 22a calculates the position of the object T relative to the photographing position of the image data D based on the geometric information of the robot arm 7, for example, the camera coordinate system 12, the base coordinate system 13, and the object coordinate system 14. and the posture may be calculated. Then, the storage unit 24 stores image data D of the object T photographed at various positions and angles in association with the position and orientation of the object T with respect to the photographing position.

これにより、剛体物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。 Thereby, it is possible to efficiently collect teacher data in which the image data D of the rigid body is labeled with the position and orientation relationship between the camera 4 and the target object T.

また、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS10で、ロボットアーム7の各関節角度を変更した後、ステップS7に戻って、対象物Tを撮影するようにカメラ4を制御する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS7、ステップS8、ステップS9およびステップS10を繰り返す。そして、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。 Further, in step S9, the control device 8 determines whether each joint angle of the robot arm 7 has been changed a predetermined number of times or more. If each joint angle of the robot arm 7 has not been changed more than the specified number of times, the control device 8 changes each joint angle of the robot arm 7 in step S10, and then returns to step S7 to photograph the object T. The camera 4 is controlled as follows. The control device 8 repeats steps S7, S8, S9, and S10 until it is determined that each joint angle of the robot arm 7 has been changed a specified number of times or more. Then, in step S9, when the control device 8 changes each joint angle of the robot arm 7 a specified number of times or more, it ends the collection of the image data D.

一方、ステップS6において対象物Tが柔軟物であると判定された場合、ステップS11に進んで、面積算出部22bが、画像データDから対象物領域Rを抽出する。図3に示すように、制御装置8は、抽出された対象物領域Rの輪郭幅Wの大きさに基づいて、ロボットハンド3の把持位置P1およびP2と把持力を決定する。次に、制御装置8は、ステップS12で、決定された把持位置P1およびP2と把持力により対象物Tに外力を加えるようにロボットハンド3を制御する。 On the other hand, if it is determined in step S6 that the object T is a flexible object, the process proceeds to step S11, where the area calculation unit 22b extracts the object region R from the image data D. As shown in FIG. 3, the control device 8 determines the gripping positions P1 and P2 of the robot hand 3 and the gripping force based on the size of the contour width W of the extracted object region R. Next, in step S12, the control device 8 controls the robot hand 3 to apply an external force to the object T using the determined gripping positions P1 and P2 and the gripping force.

制御装置8は、ステップS13で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。 The control device 8 controls the camera 4 to photograph the object T after rotating the rotary table 5 by a certain angle in step S13. Subsequently, the control device 8 controls the camera 4 to photograph the object T after further rotating the rotary table 5 by the same fixed angle as before. In this way, the control device 8 repeatedly photographs the object T from different angles until the rotary table 5 rotates once.

回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS14で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「柔軟物」との判定結果と対応付けて保存する。これにより、記憶部24には、「柔軟物」または「剛体」との判定結果と対応付けて対象物Tの画像データDがそれぞれ保存されることになる。このとき、記憶部24は、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果を対応付けて保存してもよい。また、記憶部24は、対象物領域Rに関連する情報を柔軟物の画像データDにさらに対応付けて保存してもよい。 When the rotary table 5 rotates once, the control device 8 changes each joint angle of the robot arm 7, that is, changes the position (for example, height position) of the object T with respect to the imaging position, and again rotates the rotary table 5 at a constant angle. The camera 4 is controlled to photograph the object T while rotating it. The control device 8 repeats photographing the object T from different angles until the rotary table 5 rotates once. In this way, the object T is photographed at various positions and postures. Then, in step S14, the storage unit 24 stores the image data D of the object T photographed at various positions and postures in association with the determination result that the object T is a “flexible object” determined by the determination unit 23. do. As a result, the image data D of the object T is stored in the storage unit 24 in association with the determination result that it is a "flexible object" or a "rigid object." At this time, the storage unit 24 determines whether or not the object T is a flexible object with respect to two image data D obtained by photographing the object T before and after deformation by the robot arm 7 (before and after grasping). The determined results may be stored in association with each other. Furthermore, the storage unit 24 may store information related to the object region R in association with the image data D of the flexible object.

このように、データ収集装置21は、柔軟物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された柔軟物の画像データDを収集することができる。 In this way, the data collection device 21 can efficiently collect a data set for machine learning including the image data D of the flexible object. Furthermore, by changing the angle of each joint of the robot arm 7, the object T can be photographed at different angles of view, and image data D of the flexible object photographed at various positions and postures can be collected. .

このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報に基づいて、画像データDの撮影位置に対する対象物Tの位置と対象物Tの姿勢とを算出してもよい。そして、記憶部24が、様々な位置および姿勢で撮影された対象物Tの画像データDに対して、対象物Tの位置および姿勢を対応付けて保存する。 At this time, the position/orientation calculation unit 22a may calculate the position and orientation of the object T with respect to the photographing position of the image data D based on the geometric information of the robot arm 7. Then, the storage unit 24 stores the image data D of the object T photographed at various positions and postures in association with the position and posture of the object T.

これにより、柔軟物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。このようにして、記憶部24には、画像データDに対して、柔軟物または剛体物との判定結果と、撮影位置に対する対象物Tの位置と、撮影姿勢に対する対象物Tの姿勢とがそれぞれラベリングされた教師データが収集されることになる。 Thereby, it is possible to efficiently collect teacher data in which the image data D of the flexible object is labeled with the position and posture relationship between the camera 4 and the target object T. In this way, the storage unit 24 stores the determination result of whether the image data D is a flexible object or a rigid object, the position of the object T with respect to the photographing position, and the posture of the object T with respect to the photographing posture. Labeled teacher data will be collected.

また、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS16で、ロボットアーム7の各関節角度を変更した後、ステップS11に戻って、新たに抽出された対象物領域Rに基づいてロボットハンド3の把持位置P1およびP2と把持力を決定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS11、ステップS12、ステップS13、ステップS14、ステップS15およびステップS16を繰り返す。そして、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。 Further, in step S15, the control device 8 determines whether each joint angle of the robot arm 7 has been changed a predetermined number of times or more. If each joint angle of the robot arm 7 has not been changed more than the specified number of times, the control device 8 changes each joint angle of the robot arm 7 in step S16, and then returns to step S11 to change the newly extracted target. Based on the object area R, the gripping positions P1 and P2 of the robot hand 3 and the gripping force are determined. The control device 8 repeats step S11, step S12, step S13, step S14, step S15, and step S16 until it is determined that each joint angle of the robot arm 7 has been changed a specified number of times or more. Then, in step S15, when the control device 8 changes each joint angle of the robot arm 7 a specified number of times or more, it ends the collection of the image data D.

本実施の形態によれば、ロボットアーム7で変形させた対象物Tを撮影した画像データDを取得し、その対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定部23で判定する。そして、ロボットアーム7の制御に用いるために対象物Tの画像データDを判定部23の判定結果に対応付けて記憶部24に保存する。これにより、機械学習用のデータセットを効率的に収集することができる。 According to the present embodiment, the image data D obtained by photographing the object T deformed by the robot arm 7 is obtained, and based on the amount of deformation of the object T, it is determined whether the object T is a flexible object or not. The determination unit 23 makes a determination. Then, the image data D of the object T is stored in the storage unit 24 in association with the determination result of the determination unit 23 for use in controlling the robot arm 7 . This makes it possible to efficiently collect data sets for machine learning.

(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 2)
Embodiment 2 of the present disclosure will be described below. Here, differences from the first embodiment described above will be mainly explained, and common points with the first embodiment described above will be denoted by common reference numerals, and detailed explanation thereof will be omitted.

実施の形態2は、実施の形態1で収集されたデータセットを教師データとして、ロボットアーム7の制御モデルを構築するものである。 In the second embodiment, a control model for the robot arm 7 is constructed using the data set collected in the first embodiment as training data.

例えば、図7に示すように、実施の形態1のデータ収集装置21に学習装置31を接続してもよい。学習装置31は、学習部32と、制御モデル記憶部33とを有する。 For example, as shown in FIG. 7, a learning device 31 may be connected to the data collection device 21 of the first embodiment. The learning device 31 includes a learning section 32 and a control model storage section 33.

学習部32は、データ収集装置21で収集されたデータセットを教師データとして機械学習を行い、ロボットアーム7の制御に用いる制御モデルを構築する。すなわち、制御モデルは、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練される。このとき、制御モデルは、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tの判定結果が対応付けられたデータを教師データとして訓練してもよい。これにより、制御モデルは、対象物Tの画像データDを入力とし、対象物Tが柔軟物であるか否かを出力するように構築される。また、制御モデルは、画像データDと、判定結果と、対象物Tの位置および姿勢とのデータセットを教師データに用いて訓練されてもよい。これにより、制御モデルは、対象物Tの画像データDの入力に対して、対象物Tの位置および姿勢をさらに出力するように構築される。 The learning unit 32 performs machine learning using the data set collected by the data collection device 21 as teacher data, and constructs a control model used to control the robot arm 7. That is, the control model associates image data D obtained by photographing the object T deformed by the robot arm 7 with the determination result of whether or not the object T is flexible. Trained as teacher data. At this time, the control model generates data in which the determination results of the object T are associated with two image data D obtained by photographing the object T before and after deformation by the robot arm 7 (before and after grasping). It may also be trained as training data. Thereby, the control model is constructed so as to input the image data D of the object T and output whether or not the object T is flexible. Further, the control model may be trained using a data set of the image data D, the determination result, and the position and orientation of the target object T as teacher data. Thereby, the control model is constructed so as to further output the position and orientation of the object T in response to the input of the image data D of the object T.

制御モデル記憶部33は、学習部32で構築された制御モデルを記憶する。 The control model storage unit 33 stores the control model constructed by the learning unit 32.

なお、学習装置31のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。 Note that the hardware configuration of the learning device 31 is the same as that of the data collection device 21 of Embodiment 1, so a description thereof will be omitted.

本実施の形態によれば、学習部32が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを構築する。このように、効率的に収集された機械学習用のデータセットを用いるため、制御モデルを容易に構築することができる。 According to the present embodiment, the learning unit 32 determines that the object T is a flexible object based on the amount of deformation of the object T with respect to the image data D obtained by photographing the object T deformed by the robot arm 7. A control model is constructed by training the data associated with the determination results as teacher data. In this way, since the efficiently collected data set for machine learning is used, a control model can be easily constructed.

(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
(Embodiment 3)
Embodiment 3 of the present disclosure will be described below. Here, we will mainly explain the differences from the above embodiments 1 and 2, and common points with the above embodiments 1 and 2 will be described in detail using common reference numerals. Omitted.

実施の形態3は、実施の形態2で構築された制御モデルを用いて、ロボットアーム7を制御するものである。 In the third embodiment, the robot arm 7 is controlled using the control model constructed in the second embodiment.

図8に、本開示に係る制御装置41を備えるロボットアーム装置100の構成を示す。ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置41とを有する。制御装置41は、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。 FIG. 8 shows a configuration of a robot arm device 100 including a control device 41 according to the present disclosure. The robot arm device 100 includes a robot arm 7, a camera 4, a rotary table 5, and a control device 41. Control device 41 is electrically connected to robot arm 7, camera 4, and rotary table 5.

制御装置41は、制御部42と、記憶部43とを有する。 The control device 41 includes a control section 42 and a storage section 43.

記憶部43は、実施の形態2の学習部32で構築された制御モデルを記憶する。すなわち、記憶部43は、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する。例えば、記憶部43は、画像データDに対して、判定結果と、対象物Tの位置および姿勢とが対応付けられたデータを教師データとして訓練した制御モデルを記憶してもよい。 The storage unit 43 stores the control model constructed by the learning unit 32 of the second embodiment. That is, the storage unit 43 determines whether or not the object T is a flexible object based on the amount of deformation of the object T with respect to the image data D obtained by photographing the object T deformed by the robot arm 7. A control model trained using data associated with determination results as teacher data is stored. For example, the storage unit 43 may store a control model trained on the image data D using data in which the determination result is associated with the position and orientation of the target object T as teacher data.

制御部42は、記憶部43に記憶された制御モデルに基づいて、ロボットアーム装置100の各部を制御する。例えば、制御部42は、画像データDの入力に対して、対象物Tが柔軟物であるとの情報と対象物Tの位置および姿勢とが制御モデルから出力された場合、これらの情報に基づいて、適正な把持力で所定の位置を把持するようにロボットアーム7を制御してもよい。 The control unit 42 controls each part of the robot arm device 100 based on the control model stored in the storage unit 43. For example, when information indicating that the object T is a flexible object and the position and orientation of the object T are output from the control model in response to input of the image data D, the control unit 42 uses the information based on these information. The robot arm 7 may be controlled to grip a predetermined position with an appropriate gripping force.

なお、制御装置41のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。 Note that the hardware configuration of the control device 41 is the same as that of the data collection device 21 of Embodiment 1, so a description thereof will be omitted.

次に、本実施の形態のロボットアームを制御する動作について説明する。 Next, the operation for controlling the robot arm of this embodiment will be explained.

まず、制御部42が、対象物Tを把持して回転テーブル5上に載置するようにロボットアーム7を制御する。そして、制御部42は、ロボットアーム7で把持していない状態の対象物T、すなわち変形前の対象物Tを撮影するようにカメラ4を制御する。続いて、制御部42は、回転テーブル5に載置された対象物Tを把持して変形させるようにロボットアーム7を制御する。例えば、制御部42は、予め設定された基準把持力で対象物Tを把持するようにロボットアーム7を制御してもよい。そして、制御部42は、再度、回転テーブル5上に載置された対象物Tを撮影するようにカメラ4を制御する。 First, the control unit 42 controls the robot arm 7 to grip the object T and place it on the rotary table 5. Then, the control unit 42 controls the camera 4 to photograph the object T that is not gripped by the robot arm 7, that is, the object T before deformation. Subsequently, the control unit 42 controls the robot arm 7 to grasp and deform the object T placed on the rotary table 5. For example, the control unit 42 may control the robot arm 7 to grip the object T with a preset standard gripping force. Then, the control unit 42 controls the camera 4 again to photograph the object T placed on the rotary table 5.

このようにして、変形前後の対象物Tが撮影されると、制御部42は、変形前後の2つの画像データDを記憶部43に記憶された制御モデルに入力する。これにより、対象物Tが柔軟物であるか否かが制御モデルから出力される。制御部42は、対象物Tが柔軟物である場合には、柔軟物に応じて予め設定された柔軟物用把持力で対象物Tを把持し、店舗作業などの所定の作業を行うようにロボットアーム7を制御する。一方、対象物Tが柔軟物でない場合には、例えば柔軟物用把持力より大きな把持力で対象物Tを把持するようにロボットアーム7を制御する。 When the object T before and after deformation is photographed in this way, the control unit 42 inputs the two image data D before and after the deformation into the control model stored in the storage unit 43. Thereby, the control model outputs whether or not the target object T is a flexible object. When the object T is a flexible object, the control unit 42 grips the object T with a gripping force for a flexible object that is preset according to the flexible object, and performs a predetermined work such as store work. Controls the robot arm 7. On the other hand, if the object T is not a flexible object, the robot arm 7 is controlled to grip the object T with a gripping force greater than the gripping force for flexible objects, for example.

一般的に、店舗では、様々な柔軟性を有する商品が扱われている。このため、店舗作業を行うロボットアーム7は、商品の柔軟性に応じた把持力で商品を把持することが求められる。そこで、本開示では、制御部42が、上記の制御モデルに基づいて、対象物Tの柔軟性に応じた把持力で対象物Tを把持するようにロボットアーム7を制御する。これにより、対象物Tの作業を適切に実施することができる。 Generally, stores carry products with various flexibility. For this reason, the robot arm 7 that performs store work is required to grip the product with a gripping force that corresponds to the flexibility of the product. Therefore, in the present disclosure, the control unit 42 controls the robot arm 7 to grip the object T with a gripping force that corresponds to the flexibility of the object T, based on the above control model. Thereby, work on the target object T can be carried out appropriately.

また、制御部42は、制御モデルから対象物Tの位置および姿勢がさらに出力された場合には、その出力された対象物Tの位置および姿勢に基づいて、対象物Tを把持するようにロボットアーム7を制御する。これにより、ロボットアーム7は、対象物Tの適切な位置を把持して作業を実施することができる。 Further, when the position and orientation of the target object T are further output from the control model, the control unit 42 controls the robot to grasp the target object T based on the output position and orientation of the target object T. Controls arm 7. Thereby, the robot arm 7 can grasp the object T at an appropriate position and perform the work.

本実施の形態によれば、制御部42が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対応して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルに基づいて、ロボットアーム7を制御する。これにより、制御部42は、対象物Tが柔軟物であるか否かに基づいて、対象物Tを適切な把持力で把持するようにロボットアーム7を制御することができる。 According to the present embodiment, the control unit 42 determines whether the object T is a flexible object based on the amount of deformation of the object T, in response to the image data D obtained by photographing the object T deformed by the robot arm 7. The robot arm 7 is controlled based on a control model trained using data associated with the determination result of determining whether the robot exists or not as teacher data. Thereby, the control unit 42 can control the robot arm 7 to grip the object T with an appropriate gripping force based on whether or not the object T is a flexible object.

以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present disclosure have been described in detail above, these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes to the specific examples illustrated above.

本発明のデータ収集装置および制御装置は、様々な対象物を操作する自動化ロボットにおいてAI学習を効率的に行うことができる。 The data collection device and control device of the present invention can efficiently perform AI learning in automated robots that operate various objects.

1 固定用土台
2 垂直多関節型ロボット
3 ロボットハンド
4 カメラ
5 回転テーブル
6 周方向
7 ロボットアーム
8 制御装置
12 カメラ座標系
13 ベース座標系
14 対象物座標系
21 データ収集装置
22 取得部
22a 位置・姿勢算出部
22b 面積算出部
23 判定部
24 記憶部
25 プロセッサ
26 ユーザインタフェース
31 学習装置
32 学習部
33 制御モデル記憶部
41 制御装置
42 制御部
43 記憶部
100 ロボットアーム装置
C 中央部
D1 幅方向
D2 高さ方向
P1,P2,Pa1,Pa2 把持位置
R 対象物領域
T 対象物
W 輪郭幅
1 Fixation base 2 Vertical articulated robot 3 Robot hand 4 Camera 5 Rotary table 6 Circumferential direction 7 Robot arm 8 Control device 12 Camera coordinate system 13 Base coordinate system 14 Object coordinate system 21 Data acquisition device 22 Acquisition unit 22a Position/ Attitude calculation unit 22b Area calculation unit 23 Judgment unit 24 Storage unit 25 Processor 26 User interface 31 Learning device 32 Learning unit 33 Control model storage unit 41 Control device 42 Control unit 43 Storage unit 100 Robot arm device C Central portion D1 Width direction D2 Height Horizontal direction P1, P2, Pa1, Pa2 Gripping position R Object area T Object W Contour width

Claims (5)

ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、
前記対象物の変形量に基づいて、前記対象物が柔軟物であるか否かを判定する判定部と、
前記ロボットアームの制御に用いるために前記対象物の画像データを前記判定部の判定結果と対応付けて保存する記憶部と、を備える、
データ収集装置。
an acquisition unit that acquires image data of an object transformed by the robot arm;
a determination unit that determines whether the object is a flexible object based on the amount of deformation of the object;
a storage unit that stores image data of the object in association with the determination result of the determination unit for use in controlling the robot arm;
Data collection equipment.
前記取得部は、前記ロボットアームの幾何情報に基づいて、前記画像データの撮影位置に対する前記対象物の位置および姿勢を算出し、
前記記憶部は、前記対象物の位置および姿勢を、前記画像データと対応づけて保存する、
請求項1に記載のデータ収集装置。
The acquisition unit calculates a position and orientation of the object with respect to a shooting position of the image data based on geometric information of the robot arm,
the storage unit stores the position and orientation of the object in association with the image data;
The data collection device according to claim 1.
前記取得部は、変形前の前記対象物の画像データと変形後の前記対象物の画像データとを取得して、それぞれの画像データにおける前記対象物の領域面積を算出し、
前記判定部は、前記対象物の領域面積に基づいて前記対象物が柔軟物であるか否かを判定する、
請求項1に記載のデータ収集装置。
The acquisition unit acquires image data of the object before deformation and image data of the object after deformation, and calculates a region area of the object in each image data,
The determination unit determines whether the target object is a flexible object based on a region area of the target object.
The data collection device according to claim 1.
前記記憶部は、前記対象物が柔軟物であると判定された場合、変形していない状態の前記対象物において所定の幅方向における輪郭幅が最長となる位置を前記ロボットアームで変形させた前記対象物の画像データを前記判定部の判定結果と対応付けて保存する、
請求項3に記載のデータ収集装置。
When it is determined that the object is a flexible object, the storage section stores the object that has been deformed by the robot arm at a position where the outline width in a predetermined width direction is the longest in the undeformed object. storing image data of the object in association with the determination result of the determination unit;
The data collection device according to claim 3.
ロボットアームで変形させた対象物を撮影した画像データに対して、前記対象物の変形量に基づいて前記対象物が柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する記憶部と、
前記記憶部に記憶された前記制御モデルに基づいて、前記ロボットアームを制御する制御部と、を備える、
制御装置。
A teacher uses data in which a judgment result of determining whether or not the object is a flexible object based on the amount of deformation of the object is associated with image data taken of an object deformed by a robot arm. a storage unit that stores the trained control model as data;
a control unit that controls the robot arm based on the control model stored in the storage unit;
Control device.
JP2022105850A 2022-06-30 2022-06-30 Data collection device and control device Pending JP2024005599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022105850A JP2024005599A (en) 2022-06-30 2022-06-30 Data collection device and control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022105850A JP2024005599A (en) 2022-06-30 2022-06-30 Data collection device and control device

Publications (1)

Publication Number Publication Date
JP2024005599A true JP2024005599A (en) 2024-01-17

Family

ID=89540802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022105850A Pending JP2024005599A (en) 2022-06-30 2022-06-30 Data collection device and control device

Country Status (1)

Country Link
JP (1) JP2024005599A (en)

Similar Documents

Publication Publication Date Title
JP6546618B2 (en) Learning apparatus, learning method, learning model, detection apparatus and gripping system
CN107571260B (en) Method and device for controlling robot to grab object
Sanchez et al. Robotic manipulation and sensing of deformable objects in domestic and industrial applications: a survey
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
JP2011110621A (en) Method of producing teaching data of robot and robot teaching system
JP2015071206A (en) Control device, robot, teaching data generation method, and program
US10875189B2 (en) System and method for manipulating deformable objects
Gu et al. Automated assembly skill acquisition and implementation through human demonstration
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
Lin et al. Peg-in-hole assembly under uncertain pose estimation
Namiki et al. Origami folding by multifingered hands with motion primitives
Borum et al. State estimation and tracking of deforming planar elastic rods
Budiharto Robust vision-based detection and grasping object for manipulator using SIFT keypoint detector
JP7051751B2 (en) Learning device, learning method, learning model, detection device and gripping system
JP2024005599A (en) Data collection device and control device
JP6455869B2 (en) Robot, robot system, control device, and control method
JP7349423B2 (en) Learning device, learning method, learning model, detection device and grasping system
JP2015145050A (en) Robot system, robot control device, robot control method and robot control program
Gu et al. Automated assembly skill acquisition through human demonstration
Infantino et al. Visual control of a robotic hand
Al-Shanoon et al. Deepnet-based 3d visual servoing robotic manipulation
JP2004005361A (en) Garment condition estimation method and program
Zhu Vision-based robotic manipulation of deformable linear objects
Sueishi et al. Paper state estimation using physical model and trajectory planning of multi-fingered robot hand
TWI782709B (en) Surgical robotic arm control system and surgical robotic arm control method