JP2021091067A - Information processing device, method and program - Google Patents
Information processing device, method and program Download PDFInfo
- Publication number
- JP2021091067A JP2021091067A JP2019224624A JP2019224624A JP2021091067A JP 2021091067 A JP2021091067 A JP 2021091067A JP 2019224624 A JP2019224624 A JP 2019224624A JP 2019224624 A JP2019224624 A JP 2019224624A JP 2021091067 A JP2021091067 A JP 2021091067A
- Authority
- JP
- Japan
- Prior art keywords
- robot arm
- information
- trajectory
- camera
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims abstract description 106
- 239000012636 effector Substances 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010422 painting Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Abstract
Description
本発明は、ロボットアームを制御する情報処理装置、方法及びプログラムに関する。 The present invention relates to an information processing device, a method and a program for controlling a robot arm.
物品の把持又は塗装等の対象物に対する各種の処理動作を行うロボットアームが知られている。このようなロボットアームの制御として、ロボットアームを対象物の近くまで移動させる制御や、対象物に対するロボットアームの処理動作の制御が行われている。また、ロボットアームの移動に係る軌道の生成を機械学習により行う技術が研究されている。例えば非特許文献1には、ロボットアームの軌道を機械学習により生成するためのMPNet(Motion Planning Networks)と呼ばれるアルゴリズムが開示されている。MPNetでは、ロボットアームの作業空間をカメラで撮影した画像を用いて、ロボットアームの軌道が生成される。 Robot arms that perform various processing operations on an object such as gripping an article or painting are known. As the control of such a robot arm, the control of moving the robot arm to the vicinity of the object and the control of the processing operation of the robot arm with respect to the object are performed. In addition, a technique for generating a trajectory related to the movement of a robot arm by machine learning is being researched. For example, Non-Patent Document 1 discloses an algorithm called MPNet (Motion Planning Networks) for generating a trajectory of a robot arm by machine learning. In MPNet, the trajectory of the robot arm is generated using an image of the working space of the robot arm taken by a camera.
特許文献1に記載の技術では、ロボットアームが現在位置から目標位置まで移動するまでの軌道を計算することができるものの、対象物に対するロボットアームの処理動作(物品の把持、塗装等)の精度を向上させることは困難であった。 Although the technique described in Patent Document 1 can calculate the trajectory of the robot arm from the current position to the target position, the accuracy of the processing operation of the robot arm with respect to the object (grasping an article, painting, etc.) can be obtained. It was difficult to improve.
本発明の一態様は、ロボットアームがトレースすべき軌道の生成の精度、及びロボットアームの対象物に対する処理動作の生成の精度の両方を向上させることができる情報処理装置、方法及びプログラムを実現することを目的とする。 One aspect of the present invention realizes an information processing apparatus, method and program capable of improving both the accuracy of generating a trajectory to be traced by the robot arm and the accuracy of generating a processing motion with respect to an object of the robot arm. The purpose is.
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成する軌道生成部と、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、を備える。 In order to solve the above problems, the information processing apparatus according to one aspect of the present invention uses the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model. Using the orbit generation unit that generates orbit information indicating the orbit to be traced by the robot arm, the second image data generated by the second camera, the state information, and the second trained model, the robot It includes a processing operation generation unit that generates processing operation information indicating the processing operation to be performed by the arm.
本発明の一態様によれば、ロボットアームがトレースすべき軌道の生成の精度、及びロボットアームの対象物に対する処理動作の生成の精度の両方を向上させることができる。 According to one aspect of the present invention, both the accuracy of generating the trajectory to be traced by the robot arm and the accuracy of generating the processing motion with respect to the object of the robot arm can be improved.
〔実施形態1〕
図1は、本発明の一実施形態に係る制御システム1の概略構成を示すブロック図である。制御システム1は、ロボットアーム10を制御するためのシステムである。制御システム1は、ロボットアーム10、第1カメラ20、第2カメラ30、及び情報処理装置40を備える。ロボットアーム10は、対象物に関する処理動作を行う装置である。対象物に関する処理動作は例えば、物品の把持、塗装、研磨、切削、穴あけ、又は組み付けである。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a control system 1 according to an embodiment of the present invention. The control system 1 is a system for controlling the
第1カメラ20及び第2カメラ30は、ロボットアーム10の作業空間を撮影するカメラである。
第1カメラ20は、ロボットアーム10がトレースすべき軌道を示す情報(以下「軌道情報」という)の生成に適した画像を撮影可能なように、例えば、ロボットアーム10及びロボットアーム10の作業空間が撮影範囲に含まれる位置に固定される。第1カメラ20は撮影した画像を表す第1画像データを出力する。
The
The
第2カメラ30は、ロボットアーム10が行うべき処理動作を示す情報(以下「処理動作情報」という)の生成に適した画像を撮影可能なように、例えば、ロボットアーム10の周囲の少なくとも一部(例えば、前方)が撮影範囲に含まれる位置に固定される。第2カメラ30は撮影した画像を表す第2画像データを出力する。
The
情報処理装置40は、軌道生成部41、処理動作生成部42、第1学習済モデル43、及び第2学習済モデル44を備える。
The
軌道生成部41は、第1カメラ20により生成された第1画像データ、ロボットアーム10の状態に関する情報(以下「状態情報」という)、及び第1学習済モデル43を用いて、軌道情報を生成する。状態情報は、ロボットアーム10の状態に関する任意の情報である。状態情報は、関節12及びエンドエフェクタ11のジョイント角度、及びエンドエフェクタ11を含むロボットアーム10の各部の座標を示す情報を含むが、これに限られない。軌道情報は、ロボットアーム10が現在位置(軌道の始点)から目標位置(軌道の終点)に移動するまでの、ロボットアーム10の各部がトレースする軌道(状態の変化)を示す情報である。軌道情報は、現在位置から目標位置までのロボットアーム10の状態情報の時系列データであり得る。
The trajectory generation unit 41 generates trajectory information using the first image data generated by the
また、以下の説明において、ロボットアーム10の現在位置は、各処理時点におけるロボットアーム10の位置及びロボットアーム10の状態をいう。目標位置は、ロボットアーム10が処理動作の対象である対象物の周囲まで移動したときのロボットアーム10の状態をいう。目標位置は例えば、ロボットアーム10が処理動作を開始可能な位置まで移動したときのロボットアーム10の状態である。
Further, in the following description, the current position of the
処理動作生成部42は、第2カメラ30により生成された第2画像データ、ロボットアーム10の状態情報、及び第2学習済モデルを用いて、処理動作情報を生成する。
The processing motion generation unit 42 generates processing motion information using the second image data generated by the
第1学習済モデル43は、現在位置及び目標位置におけるロボットアーム10の状態情報及びロボットアーム10の作業空間に関する情報(以下「空間情報」という)と軌道情報との相関関係を機械学習させた学習済モデルである。この実施形態において、空間情報は例えば、ロボットアーム10の作業空間に含まれる障害物の座標、ロボットアーム10の処理対象である対象物の座標を示す情報を含む。空間情報は例えば、ロボットアーム10の作業空間を撮影した撮影画像から特定される。第1学習済モデル43は、例えば、MPNetであるが、これに限られない。第1学習済モデル43は、状態情報及び空間情報に基づいて軌道情報を生成可能な任意の機械学習モデルであり得る。例えば、第1学習済モデル43は、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、DNN(Deep Neural Network)、又はこれらの組み合わせで実現可能である。
The first trained
第2学習済モデル44は、第1学習済モデル43とは異なるモデルであり、第2画像データ及び状態情報と処理動作情報との相関関係を機械学習させた学習済モデルである。第2学習済モデル44は、第2画像データ及び状態情報から処理動作情報を生成可能な任意の機械学習モデルであり得る。例えば、第2学習済モデル44は、CNN、RNN、LSTM、DNN、又はこれらの組み合わせで実現可能である。
The second trained model 44 is a model different from the first trained
以上のように構成された情報処理装置40は、第1学習済モデル43を用いてロボットアーム10の軌道情報を生成するとともに、第2学習済モデル44を用いてロボットアーム10の処理動作情報を生成する。このように軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した学習済モデルを用いることで、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。また、この実施形態では、軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した撮影画像を用いることで、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。
The
〔実施形態2〕
(構成)
図2は、本発明の一実施形態に係る制御システム1の外観を模式的に示す図である。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
(Constitution)
FIG. 2 is a diagram schematically showing the appearance of the control system 1 according to the embodiment of the present invention. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the first embodiment, and the description will not be repeated.
制御システム1は、ロボットアーム10を対象物50の付近に移動させて対象物50を把持する一連の動作を制御するシステムである。本実施形態において、ロボットアーム10の端部にはエンドエフェクタ11が設けられている。エンドエフェクタ11は、例えば多指ハンド、又はグリッパである。この実施形態において、エンドエフェクタ11は、物品を把持する機構を有する。なお、ロボットアーム10が行う処理動作は、物品の把持に限定されず、エンドエフェクタ11を交換することによって他の処理動作が可能になるように構成されていてもよい。
The control system 1 is a system that controls a series of operations in which the
ロボットアーム10は、1以上の関節12を備えており、各関節12が駆動されることによって動作する。関節12は、アームの関節であってもよいし、エンドエフェクタ11(例えば、多指ハンド)の関節であってもよい。ロボットアーム10はまた、1以上のセンサ13(図1参照)を備える。各センサ13には、例えば、各関節12のジョイント角度を検知する角度センサ、ロボットアーム10の特定の箇所における力覚を検知する力覚センサなどが含まれ得る。各センサ13の検知結果は情報処理装置40に出力される。
The
第1カメラ20は、ロボットアーム10の作業空間を撮影し、撮影画像を表す撮影データ(第1画像データ)を生成する。第1カメラ20は、ロボットアーム10及びロボットアーム10の作業空間が撮影範囲に含まれる位置に固定される。本実施形態において、第1カメラ20は、深度センサを備え、RGB色空間により表される撮影画像(以下「RGB画像」という)及びピクセルごとの距離データを有する深度画像を表す撮影データを出力する。なお、撮影画像は、カラー画像に限らず、モノクロ画像であってもよい。図2には1台の第1カメラ20が図示されているが、ロボットアーム10の作業空間を撮影する第1カメラ20として、複数のカメラが設けられてもよい。
The
第2カメラ30は、ロボットアーム10に固定されたカメラであり、撮影画像を表す撮影データ(第2画像データ)を出力する。第2カメラ30は、エンドエフェクタ11の少なくとも一部及びエンドエフェクタ11の周囲が撮影範囲に含まれる位置(例えば、ロボットアーム10の第5軸)に設けられている。第2カメラ30は例えば、ロボットアーム10の第5軸の軸方向と撮影方向とが平行になる向きで固定される。なお、第2カメラ30は、深度センサを備えていてもよい。この場合、第2カメラ30が出力する撮影データは、深度画像を表すデータを含んでもよい。また、図2には1台の第2カメラ30が図示されているが、第2カメラ30として、複数のカメラが設けられていてもよい。また、第2カメラ30は、ロボットアーム10の第4軸又は第6軸に固定されてもよい。
The
対象物50は、ロボットアーム10が行う処理動作の目的物であり、例えばロボットアーム10が把持する物品である。障害物61、62は、ロボットアーム10の作業空間に存在する、対象物50以外の任意のものである。障害物61、62は、ロボットアーム10の移動又はロボットアームの処理動作において障害となり得る。障害物61、62は、例えば物品である。なお、図2の例では、2つの障害物61、62が図示されているが、ロボットアーム10の作業空間に含まれる障害物の数は2に限定されず、これより多くても少なくてもよい。
The
情報処理装置40は、軌道生成部41、処理動作生成部42、第1学習済モデル43、第2学習済モデル44、ロボット制御部45、及び軌道記憶部46を備える。
The
軌道生成部41は、第1画像データ、状態情報、及び第1学習済モデル43を用いて、ロボットアーム10の現在位置から目標位置までの軌道を示す軌道情報を生成する。作業空間に障害物がある場合、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで、障害物61、62を避けながら移動する経路を示す軌道情報を生成する。また、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで移動するまでの期間に亘って、軌道情報の生成処理を繰り返し実行する。生成した軌道情報は軌道記憶部46に記憶される。
The trajectory generation unit 41 uses the first image data, the state information, and the first trained
処理動作生成部42は、第2画像データ、状態情報、及び第2学習済モデル44を用いて、処理動作情報を生成する。処理動作情報は例えば、ロボットアーム10の状態情報の時系列データであり得る。この実施形態において、処理動作生成部42が生成する処理動作情報は、軌道生成部41が生成した軌道に沿ってロボットアーム10が目標位置まで移動した後に、ロボットアーム10が行うべき処理動作を示す情報である。
The processing operation generation unit 42 generates processing operation information using the second image data, the state information, and the second trained model 44. The processing operation information can be, for example, time-series data of the state information of the
第1学習済モデル43は、現在位置及び目標位置におけるロボットアーム10の状態情報及び空間情報と軌道情報との相関関係を機械学習させた学習済モデルである。この実施形態において、空間情報は、障害物の座標情報、及び対象物の座標情報を含む。なお、第1学習済モデル43の入力情報は、状態情報及び空間情報に限られず、他の情報を含んでいてもよい。例えば、入力情報は、第1画像データを含んでいてもよい。第1学習済モデル43は、情報処理装置40又は他の装置により予め生成される。情報処理装置40又は他の装置は、状態情報及び空間情報と軌道情報との組を用いて、状態情報及び空間情報と軌道情報との相関関係を機械学習させた第1学習済モデル43を生成する。
The first trained
第2学習済モデル44は、情報処理装置40又は他の装置により予め生成される。この実施形態において、第2学習済モデル44は、エンドエフェクタ11が対象物50を把持する処理動作を行ったときの第2画像データ及び状態情報と処理動作情報との相関関係が機械学習された学習済モデルである。情報処理装置40又は他の装置は、第2画像データ及び状態情報と処理動作情報との組を用いて、第2画像データ及び状態情報と処理動作情報との相関関係を、例えば強化学習により機械学習させた第2学習済モデル44を生成する。
The second trained model 44 is pre-generated by the
ロボット制御部45は、軌道生成部41が生成した軌道情報、及び処理動作生成部42が生成した処理動作情報を用いてロボットアーム10を制御する。すなわち、ロボット制御部45は、軌道情報を用いてロボットアーム10の状態を変化させ、ロボットアーム10の状態を軌道情報の示す状態に近づけるようにロボットアーム10を制御する。また、ロボット制御部45は、処理動作情報を用いて、ロボットアーム10の状態を変化させる。
The
軌道記憶部46には、軌道生成部41が生成した軌道情報が記憶される。この実施形態では、軌道記憶部46には、軌道情報としてロボットアーム10の状態情報が時系列に記憶される。
The
(動作)
図3は、制御システム1によるロボットアーム10の制御の流れの一例を示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
(motion)
FIG. 3 is a flowchart showing an example of the flow of control of the
ステップS101において、第1カメラ20で作業空間が撮影される。第1カメラ20は、撮影した作業空間を表す第1画像データを情報処理装置40に供給する。
In step S101, the work space is photographed by the
ステップS102において、軌道生成部41は、第1画像データに含まれるRGB画像及び深度画像を用いて、作業空間に存在する物体(対象物及び障害物)の認識を行う。物体認識の手法としては、種々の方法が利用可能であり、例えば、CNNを用いた3次元物体認識の手法であるMMSS(Multi-model Sharable and Specific Feature Learning for RGB-D Object Recognition)が用いられる。この場合、3Dデータ(RGB画像及び深度画像)と物体の種類(ラベル)との相関関係を機械学習させた学習済モデルに、3Dデータを入力することにより、作業空間に存在する物体の座標と各物体の種類(空間情報)が推定される。推定された空間情報は、各物体の種類(ラベル)を付されたポイントクラウドとして出力され得る。図2の例では、作業空間に存在する物体として、対象物50、障害物61及び障害物62が認識される。なお、障害物については、種類の特定が行われなくてもよい。
In step S102, the trajectory generation unit 41 recognizes an object (object and obstacle) existing in the work space by using the RGB image and the depth image included in the first image data. Various methods can be used as the object recognition method. For example, MMSS (Multi-model Sharable and Specific Feature Learning for RGB-D Object Recognition), which is a three-dimensional object recognition method using CNN, is used. .. In this case, by inputting the 3D data into the trained model in which the correlation between the 3D data (RGB image and depth image) and the type (label) of the object is machine-learned, the coordinates of the object existing in the work space can be obtained. The type (spatial information) of each object is estimated. The estimated spatial information can be output as a point cloud with the type (label) of each object. In the example of FIG. 2, the
ステップS103において、軌道生成部41は、ロボットアーム10の移動の目標位置を決定する。目標位置の決定は、例えば以下のようにして行われる。軌道生成部41は、ステップS102で認識された物体の種類に基づいて、作業空間に存在する物体の中から対象物を特定する。この場合、対象物の種類がユーザにより予め設定されていてもよい。図2の例では、対象物50が特定される。
In step S103, the trajectory generation unit 41 determines the target position for movement of the
次いで、軌道生成部41は、対象物50とロボットアーム10のエンドエフェクタ11との位置関係が所定の条件を満たすロボットアーム10の状態(位置)を、移動の目標位置として決定する。所定の条件は例えば、エンドエフェクタ11から対象物50までの距離が所定の閾値以下である、といった条件であってもよい。エンドエフェクタ11から対象物50までの距離とは、例えば、エンドエフェクタ11の所定の部分から対象物50の重心までの距離、又はエンドエフェクタ11の所定の部分から対象物50の表面までの最短距離である。すなわち、ロボットアーム10の目標位置とは、例えば、エンドエフェクタ11の所定の部分から対象物50の表面までの最短距離が所定の閾値以下となるロボットアーム10の状態をいう。
Next, the trajectory generation unit 41 determines the state (position) of the
ステップS104において、軌道生成部41は、ロボットアーム10の現在位置及び目標位置におけるにおける状態情報、空間情報(対象物50及び障害物61,62の座標情報、ロボットアーム10の目標位置における状態情報)、及び第1学習済モデル43を用いて、軌道情報を生成する。この実施形態では、軌道生成部41は、ロボットアーム10の現在位置及び目標位置におけるにおける状態情報及び空間情報を第1学習済モデル43に入力し、第1学習済モデル43から出力される軌道情報を取得する。この実施形態では、軌道生成部41は、センサ13の検知結果を、現在のロボットアーム10の状態情報として取得してもよいし、当該検知結果から状態情報を算出してもよいし、第1画像データを画像解析することにより、状態情報を特定してもよい。軌道生成部41は、取得した軌道情報を軌道記憶部46に記憶するとともに、軌道情報をロボット制御部45に供給する。
In step S104, the trajectory generating unit 41 includes state information and spatial information at the current position and target position of the robot arm 10 (coordinate information of the
ステップS105において、ロボット制御部45は、供給される軌道情報に従ってロボットアーム10を制御し、ロボットアーム10を移動させる。すなわち、ロボット制御部45は、ロボットアーム10が軌道情報の示す軌道に沿って移動するようにロボットアーム10を制御する。このとき、センサ13の検知結果がロボットアーム10の制御に用いられてもよい。
In step S105, the
ステップS106において、ロボット制御部45は、ロボットアーム10の現在位置と目標位置とを比較することにより、ロボットアーム10が目標位置まで移動したかを判定する。現在位置と目標位置が一致する、又は現在位置と目標位置との差が閾値未満である場合、ロボット制御部45はロボットアーム10が目標位置に移動したと判定する。一方、現在位置と目標位置との差が閾値以上である場合、ロボット制御部45はロボットアーム10が目標位置まで移動していないと判定する。
In step S106, the
ロボットアーム10が目標位置まで移動した場合(ステップS106;YES)、情報処理装置40はステップS107の処理に進む。一方、目標位置まで移動していない場合(ステップS106;NO)、情報処理装置40は、ステップS101の処理に戻り、第1画像データを第1カメラ20から取得する。すなわち、情報処理装置40は、ステップS101〜S106の処理を、ロボットアーム10が目標位置に到達するまで所定の時間間隔で繰り返す。
When the
上述のように、ロボットアーム10が目標位置に移動するまで、ステップS101〜S106の処理が繰り返し実行される。すなわち、軌道生成部41は、ロボットアーム10が目標位置に移動するまで軌道情報の生成処理を繰り返し実行する。これらの処理が繰り返し実行されることにより、ロボットアーム10が障害物61及び障害物62に衝突しないような軌道で少しずつ移動していき、対象物50に近づいていく。
As described above, the processes of steps S101 to S106 are repeatedly executed until the
図4は、ロボットアーム10のエンドエフェクタ11の軌道を例示する図である。図4の例では、エンドエフェクタ11は、ロボット制御部45の制御に従い、障害物61及び障害物62に衝突しないように生成された軌道に沿って徐々に移動し、対象物50に近づいていく。軌道q11〜q19は、軌道生成部41により生成されるエンドエフェクタ11の軌道を示す。なお、図4においては、図面が煩雑になるのを防ぐため、エンドエフェクタ11の軌道のみを図示し、ロボットアーム10全体の軌道については図示を省略している。
FIG. 4 is a diagram illustrating the trajectory of the
ロボットアーム10が目標位置に到達すると、制御に用いられる撮影画像が第1カメラ20の撮影画像から第2カメラ30の撮影画像に切り替えられ、ステップS107〜S110の処理が実行される。ステップS107において、第2カメラ30で撮影が行われ、第2カメラ30の第2画像データが情報処理装置40に供給される。
When the
ステップS108において、処理動作生成部42は、ロボットアーム10の現在位置における状態情報、第2画像データ、及び第2学習済モデル44を用いて、処理動作情報を生成する。この実施形態では、処理動作生成部42は、ロボットアーム10の現在位置における状態情報、第2画像データを第2学習済モデル44に入力し、第2学習済モデル44から出力される処理動作情報を取得する。取得された処理動作情報はロボット制御部45に供給される。
In step S108, the processing motion generating unit 42 generates processing motion information using the state information at the current position of the
ステップS109において、ロボット制御部45は、供給される処理動作情報に従ってロボットアーム10、特にエンドエフェクタ11を制御し、ロボットアーム10に把持動作を行わせる。
In step S109, the
ステップS110において、情報処理装置40は、ロボットアーム10が処理動作を完了したかを判定する。処理動作が完了した場合(ステップS110;YES)、情報処理装置40は図3の処理を終了する。一方、処理動作が完了していない場合(ステップS110;NO)、情報処理装置40は、ステップS107の処理に戻り、第2画像データを用いた処理動作制御を継続する。すなわち、ロボットアーム10の処理動作が完了するまで、情報処理装置40は所定の時間間隔でステップS107〜S109の処理を繰り返し実行する。これらの処理が繰り返し実行されることにより、ロボットアーム10が対象物50の把持動作を行う。
In step S110, the
制御システム1が図3に示す処理を実行してロボットアーム10を制御することにより、ロボットアーム10が対象物50を把持する。ロボットアーム10が対象物50の把持動作を完了した後、ロボットアーム10は他の動作を実行してもよい。
The control system 1 executes the process shown in FIG. 3 to control the
例えば、ロボットアーム10は対象物50を他の場所に移動させる動作を実行してもよい。この場合、情報処理装置40のロボット制御部45は、軌道記憶部46に記憶された軌道情報を用いてロボットアーム10を制御し、ロボットアーム10に対象物50を把持させたまま、対象物50を移動させる。ロボット制御部45は例えば、軌道記憶部46に記憶された時系列の状態情報を逆順に読み出し、読み出した状態情報に従いロボットアーム10を制御することで、ロボットアーム10の状態を目標位置から初期位置まで戻す制御を行うことができる。
For example, the
また、情報処理装置40は、新たな目標位置を設定し、ロボットアーム10の現在位置及び新たな目標位置における状態情報、第1画像データから取得した空間情報、及び第1学習済モデル43を利用して、新たな目標位置までの軌道情報を生成し、当該軌道情報に沿ってロボットアーム10を移動させてもよい。
Further, the
本実施形態では、情報処理装置40は、第1カメラ20の撮影画像と第1学習済モデル43とを用いてロボットアーム10の軌道情報を生成するとともに、第2カメラ30の撮影画像と第2学習済モデル44とを用いてロボットアーム10の処理動作情報を生成する。このように軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した学習済モデル及び撮影画像を用いることで、軌道情報の生成の精度の向上及び処理動作情報の生成の精度の向上を両立させることができる。
In the present embodiment, the
また、一般に、ロボットアーム10の処理動作制御は、ロボットアーム10の移動制御よりも細かい制御が必要となる。処理動作制御においては、数ミリ程度のわずかなずれが生じた場合であっても、ロボットアーム10が対象物50に衝突してしまい、対象物50にキズが付いてしまったり、対象物50が破損してしまったりするためである。本実施形態では、対象物50とエンドエフェクタ11との位置関係が所定の条件を満たすロボットアーム10の位置が目標位置とされ、ロボットアーム10が目標位置まで移動したときに、ロボットアーム10の制御が移動制御から処理動作制御に切り替えられる。このように、処理動作制御より粗い制御である移動制御を目標位置で終了することにより、エンドエフェクタ11と対象物50との接触を抑制することができる。また、目標位置から処理動作制御を開始することにより、第2カメラ30に確実に対象物50を撮影し、処理動作制御を実行することができる。
Further, in general, the processing operation control of the
また、従来は数学的な探索によりロボットアーム10の軌道情報が生成される場合があった。しかしながら、この場合、作業空間の次元に応じて計算量が指数関数的に増加して探索に時間がかかってしまうため、リアルタイムでの軌道情報の生成を行うことは困難であった。これに対し本実施形態では、情報処理装置40が第1学習済モデル43を用いて軌道情報の生成を行うことにより、短時間で軌道情報を生成することができる。そのため、ロボットアーム10のリアルタイムな軌道情報の生成が可能となる。すなわち、ロボットアーム10の移動中に障害物61や対象物50が移動する場合であっても、情報処理装置40がロボットアーム10の軌道情報をリアルタイムに更新することができる。
Further, conventionally, the trajectory information of the
また、この実施形態では、第1カメラ20が深度センサを備えることにより、軌道生成部41は、障害物61及び62に衝突しない軌道情報を精度よく生成することができる。
Further, in this embodiment, since the
また、1のカメラの撮影画像で軌道情報の生成と処理動作情報の生成を行う場合、深度センサを備えた高解像度のカメラを、作業空間を撮影可能な位置に設置する必要がある。このようなカメラは高価である。これに対して、この実施形態では、高価なカメラを利用することなく、2つの安価なカメラの組み合わせにより、軌道情報の生成と処理動作情報の生成を行うことができる。この結果、制御システム1を安価に構成することができる。 Further, when the trajectory information and the processing operation information are generated from the images captured by one camera, it is necessary to install a high-resolution camera equipped with a depth sensor at a position where the work space can be photographed. Such cameras are expensive. On the other hand, in this embodiment, it is possible to generate trajectory information and processing operation information by combining two inexpensive cameras without using an expensive camera. As a result, the control system 1 can be constructed at low cost.
〔実施形態3〕
本発明の他の実施形態を説明する。本実施形態が上述した実施形態2と異なる点は、情報処理装置40が行う、ロボットアーム10の目標位置の決定処理(図3のステップS103)の内容が異なる点である。なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the present invention will be described. The difference between this embodiment and the above-described second embodiment is that the content of the process of determining the target position of the robot arm 10 (step S103 in FIG. 3) performed by the
この実施形態では、軌道生成部41は、対象物50と第2カメラ30の撮影方向との位置関係が所定の条件を満たすロボットアーム10の位置を目標位置として決定し、この目標位置までのロボットアーム10の軌道を示す軌道情報を生成する。この場合、軌道生成部41は例えば、第2カメラ30の撮影範囲に対象物50の一部又は全部が含まれる位置を目標位置として決定する。より具体的には例えば、軌道生成部41は、第2カメラ30の画角に対象物50全体が含まれるロボットアーム10の位置を目標位置として決定する。
In this embodiment, the trajectory generating unit 41 determines the position of the
この場合、情報処理装置40のロボット制御部45は、ロボットアーム10が目標位置まで移動したかの判定処理(図3のステップS106の処理)を、現在位置と目標位置との比較ではなく、例えば以下のようにして行ってもよい。ロボット制御部45は、第1カメラ20の撮影画像を解析することにより物体認識を行い、第1カメラ20の撮影画像に含まれる対象物50と第2カメラ30の撮影方向との位置関係を特定する。ロボット制御部45は、特定した位置関係が所定の条件を満たすかを判定する。特定した位置関係が所定の条件を満たす場合、ロボット制御部45はロボットアーム10が目標位置に移動したと判定する。一方、位置関係が所定の条件を満たしていない場合、ロボット制御部45はロボットアーム10が目標位置に移動していないと判定する。
In this case, the
また、ロボットアーム10の目標位置の決定方法は上述の実施形態で示したものに限られず、他の手法が用いられてもよい。例えば、軌道生成部41は、第2カメラ30の撮影画像における対象物50の領域の割合が所定の条件を満たす位置を目標位置として決定してもよい。例えば、軌道生成部41は、第2カメラの撮影画像において対象物50が占める割合が50%以上となる位置を目標位置として決定する。
Further, the method for determining the target position of the
この場合、情報処理装置40のロボット制御部45は、ロボットアーム10が目標位置まで移動したかの判定処理(図3のステップS106の処理)を、現在位置と目標位置との比較ではなく、例えば以下のようにして行ってもよい。ロボット制御部45は、第1カメラ20の撮影画像を解析し、第1カメラ20の撮影画像に含まれる対象物50と第2カメラ30とを認識する。ロボット制御部45は、認識した対象物50と第2カメラ30との位置関係、第2カメラの撮影方向、及び第2カメラの画角等の情報を用いて、第2カメラの撮影画像において対象物50が占める割合を算出する。算出した割合が50%以上である場合、ロボット制御部45は、ロボットアーム10が目標位置に移動したと判定する。一方、算出した割合が50%未満である場合、ロボット制御部45は、ロボットアーム10が目標位置に移動していないと判定する。
In this case, the
この実施形態では、処理動作制御の開始時における、第2カメラ30による対象物50の所望の撮影状態に応じて、目標位置を決定することができる。これにより、処理動作制御をスムーズに実施することができる。
In this embodiment, the target position can be determined according to the desired shooting state of the
〔実施形態4〕
次いで、本発明の他の実施形態を説明する。本実施形態が上述した実施形態2と異なる点は、情報処理装置40が行う、ロボットアーム10の目標位置の決定処理(図3のステップS103)の内容が異なる点である。なお、なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 4]
Next, other embodiments of the present invention will be described. The difference between this embodiment and the above-described second embodiment is that the content of the process of determining the target position of the robot arm 10 (step S103 in FIG. 3) performed by the
この実施形態では、軌道生成部41は、対象物50の特性、対象物50に対してロボットアーム10が行う処理動作の種類、並びに、障害物61及び障害物62の位置のうちの少なくともいずれか一つを用いて、目標位置の決定方法を変更する。対象物50の特性は、対象物50の特徴又は性質であり、例えば対象物50のサイズ又は形状である。ロボットアーム10が行う処理動作は例えば、物品の把持、塗装、研磨、切削、穴あけ、又は組み付けである。この場合、軌道生成部41は例えば、対象物50の大きさが大きいほどエンドエフェクタ11と対象物50との距離の閾値が大きくなるように目標位置を決定してもよい。また、他の例として、軌道生成部41は、ロボットアーム10が行う処理動作の種類によって上記閾値や目標位置における対象物50に対するロボットアーム10の角度を異ならせてもよい。また、他の例として、軌道生成部41は、障害物61又は障害物62が対象物50の近くにある場合(対象物50と障害物61又は62との距離が所定の閾値以下である場合)に、対象物50と第2カメラ30との位置関係から目標位置を決定する一方、それ以外の場合に対象物50とエンドエフェクタ11との位置関係から目標位置を決定してもよい。
In this embodiment, the trajectory generating unit 41 has at least one of the characteristics of the
この実施形態によれば、情報処理装置40は、例えば対象物50の大きさに適した目標位置を決定することができる。これにより、情報処理装置40はロボットアーム10の対象物50に対する処理動作の制御をスムーズに開始することができる。
According to this embodiment, the
〔実施形態5〕
図5は、本実施形態に係る制御システム1Aの概略構成を示すブロック図である。なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 5]
FIG. 5 is a block diagram showing a schematic configuration of the control system 1A according to the present embodiment. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the second embodiment, and the description will not be repeated.
図5に示す制御システム1Aが上述の実施形態2に係る制御システム1と異なる点は、第1カメラ20及び第2カメラ30に代えて、カメラ70を備える点、及び、情報処理装置40に代えて、情報処理装置40Aを備える点である。この実施形態において、カメラ70は、ロボットアーム10の作業空間を撮影する。カメラ70は、RGB画像及び深度画像を表す撮影データを出力する。
The control system 1A shown in FIG. 5 is different from the control system 1 according to the second embodiment in that the camera 70 is provided instead of the
情報処理装置40Aは、軌道生成部41及び処理動作生成部42に代えて、軌道生成部41A及び処理動作生成部42Aを備える。軌道生成部41Aは、状態情報、カメラ70の撮影データ、及び第1学習済モデル43を用いて軌道情報を生成する。また、処理動作生成部42Aは、状態情報、カメラ70の撮影データ、及び第2学習済モデル44を用いて、処理動作情報を生成する。このように、この実施形態では、ロボットアーム10の軌道情報の生成と処理動作情報の生成とにおいて、共通のカメラ70の撮影データが用いられる。
The
この実施形態では、軌道情報の生成と処理動作情報の生成とでそれぞれに適した学習済モデルが用いられる。これにより、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。 In this embodiment, a trained model suitable for each of the generation of trajectory information and the generation of processing operation information is used. Thereby, the accuracy of both the generation of the trajectory information and the generation of the processing operation information can be improved.
(変形例)
上述の実施形態2では、第2カメラ30はロボットアーム10に設置されていたが、第2カメラ30が設置される位置は上述の実施形態で示したものに限られない。例えば、第2カメラ30は、ロボットアーム10以外のものに固定されていてもよい。また、第2カメラは、エンドエフェクタ11の端部に固定されていてもよい。この場合、第2カメラ30の撮影範囲にロボットアーム10(又はエンドエフェクタ11)が含まれていなくてもよい。
(Modification example)
In the above-described second embodiment, the
上述の実施形態2では、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで移動するまでの期間に亘って、軌道情報の生成処理を繰り返し実行した(図3のステップS104)。軌道生成部41は、軌道情報の生成処理を繰り返し実行することなく、ロボットアーム10の初期位置で1回だけ軌道情報の生成処理を行ってもよい。この場合、ロボット制御部45は、ロボットアーム10の初期位置で生成された軌道情報に従ってロボットアーム10を制御し、ロボットアーム10を目標位置まで徐々に移動させる制御を行う。
In the second embodiment described above, the trajectory generating unit 41 repeatedly executes the trajectory information generation process for a period from the current position to the target position of the robot arm 10 (step S104 in FIG. 3). The trajectory generation unit 41 may perform the trajectory information generation process only once at the initial position of the
上述の各実施形態に係る情報処理装置40により実現される機能は、複数の装置により分担されて実現されてもよい。例えば、軌道生成部41及び処理動作生成部42を備える第1の装置と、ロボット制御部45を備える第2の装置とが別体の装置として構成されていてもよい。また、この場合において、複数の装置のうちの一部が、他の装置と通信ネットワークに接続されたいわゆるクラウドサーバであってもよい。
The functions realized by the
〔ソフトウェアによる実現例〕
情報処理装置40の制御ブロック(特に、軌道生成部41、処理動作生成部42、及びロボット制御部45)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、情報処理装置40は、例えば、コンピュータ(電子計算機)を用いて構成される。
[Example of realization by software]
The control block of the information processing device 40 (particularly, the trajectory generation unit 41, the processing operation generation unit 42, and the robot control unit 45) is realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software. In the latter case, the
図6は、情報処理装置40として用いられるコンピュータの物理的構成を例示したブロック図である。情報処理装置40は、図6に示すように、バス410と、プロセッサ401と、主メモリ402と、補助メモリ403と、入出力インタフェース404とを備えたコンピュータによって構成可能である。プロセッサ401、主メモリ402、補助メモリ403、および入出力インタフェース404は、バス410を介して互いに接続されている。
FIG. 6 is a block diagram illustrating the physical configuration of a computer used as the
プロセッサ401としては、例えば、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。主メモリ402としては、例えば、半導体RAM(random access memory)等が用いられる。
As the
補助メモリ403としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ403には、上述した情報処理装置40の動作をプロセッサ401に実行させるためのプログラムが格納されている。プロセッサ401は、補助メモリ403に格納されたプログラムを主メモリ402上に展開し、展開したプログラムに含まれる各命令を実行する。入出力インタフェース404としては、例えば、USBインタフェース、赤外線やBluetooth(登録商標)等の近距離通信インタフェース、またはこれらの組み合わせが用いられる。
As the
(まとめ)
本発明の態様1に係る情報処理装置は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成する軌道生成部と、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、を備える。
(Summary)
The information processing apparatus according to the first aspect of the present invention uses the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model, and the trajectory to be traced by the robot arm. Processing indicating the processing operation to be performed by the robot arm using the trajectory generating unit that generates the trajectory information indicating the above, the second image data generated by the second camera, the state information, and the second trained model. It includes a processing operation generation unit that generates operation information.
本発明の態様2に係る情報処理装置は、前記態様1において、前記軌道生成部は、前記ロボットアームが所定の目標位置まで移動するまで前記軌道情報の生成処理を繰り返し実行することとしてもよい。 In the information processing apparatus according to the second aspect of the present invention, in the first aspect, the orbit generation unit may repeatedly execute the orbit information generation process until the robot arm moves to a predetermined target position.
本発明の態様3に係る情報処理装置は、前記態様1又は2において、前記処理動作生成部が生成する処理動作情報は、前記軌道に沿って所定の目標位置まで移動した後に前記ロボットアームが行うべき処理動作を示す情報であることとしてもよい。 In the information processing apparatus according to the third aspect of the present invention, in the first or second aspect, the processing operation information generated by the processing operation generating unit is performed by the robot arm after moving to a predetermined target position along the trajectory. It may be information indicating the processing operation to be performed.
本発明の態様4に係る情報処理装置は、前記態様3において、前記軌道生成部は、前記ロボットアームの処理対象である対象物と該ロボットアームのエンドエフェクタとの位置関係が所定の条件を満たす前記ロボットアームの位置を前記目標位置として決定し、該目標位置までの前記ロボットアームの軌道を示す軌道情報を生成することとしてもよい。 In the information processing apparatus according to the fourth aspect of the present invention, in the third aspect, the orbit generating unit satisfies a predetermined condition in the positional relationship between the object to be processed by the robot arm and the end effector of the robot arm. The position of the robot arm may be determined as the target position, and trajectory information indicating the trajectory of the robot arm up to the target position may be generated.
本発明の態様5に係る情報処理装置は、前記態様4において、前記軌道生成部は、前記ロボットアームのエンドエフェクタから前記対象物までの距離が前記条件を満たす前記ロボットアームの位置を、前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the fifth aspect of the present invention, in the fourth aspect, the orbit generating unit sets the position of the robot arm at which the distance from the end effector of the robot arm to the object satisfies the condition. It may be determined as a position.
本発明の態様6に係る情報処理装置は、前記態様3において、前記第2カメラは、前記ロボットアームに設けられており、
前記軌道生成部は、前記ロボットアームの処理対象である対象物と前記第2カメラの撮影方向との位置関係が所定の条件を満たす前記ロボットアームの位置を目標位置として決定し、前記目標位置までの前記ロボットアームの軌道を示す軌道情報を生成することとしてもよい。
In the information processing apparatus according to the sixth aspect of the present invention, in the third aspect, the second camera is provided on the robot arm.
The trajectory generating unit determines the position of the robot arm whose positional relationship between the object to be processed by the robot arm and the shooting direction of the second camera satisfies a predetermined condition as a target position, and reaches the target position. It may be possible to generate trajectory information indicating the trajectory of the robot arm.
本発明の態様7に係る情報処理装置は、前記態様6において、前記軌道生成部は、前記第2カメラの撮影範囲に前記対象物の一部又は全部が含まれる位置を前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the seventh aspect of the present invention, in the sixth aspect, the orbit generating unit determines a position in which a part or all of the object is included in the photographing range of the second camera as the target position. It may be that.
本発明の態様8に係る情報処理装置は、前記態様7において、前記軌道生成部は、前記第2カメラが撮影する画像における前記対象物の領域の割合が所定の条件を満たす位置を前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the eighth aspect of the present invention, in the seventh aspect, the orbit generating unit sets a position where the ratio of the region of the object in the image captured by the second camera satisfies a predetermined condition. It may be decided as.
本発明の態様9に係る情報処理装置は、前記態様4〜8において、前記軌道生成部は、前記対象物の特性、前記対象物に対して前記ロボットアームが行う処理動作の種類、及び障害物の位置のうちの少なくともいずれか一つを用いて、前記条件を変更することとしてもよい。 In the information processing apparatus according to the ninth aspect of the present invention, in the fourth to eighth aspects, the trajectory generating unit has the characteristics of the object, the type of processing operation performed by the robot arm on the object, and obstacles. The above condition may be changed by using at least one of the positions of.
本発明の態様10に係る情報処理装置は、前記態様1〜5において、前記第2カメラは、前記ロボットアームに設けられていることとしてもよい。 In the information processing apparatus according to the tenth aspect of the present invention, in the first to fifth aspects, the second camera may be provided on the robot arm.
本発明の態様11に係る情報処理装置は、前記態様1〜10において、前記第1カメラは深度センサを備え、前記第1画像データは深度を表す画像データを含むこととしてもよい。 In the information processing apparatus according to the eleventh aspect of the present invention, in the first to tenth aspects, the first camera may include a depth sensor, and the first image data may include image data representing the depth.
本発明の態様12に係る方法は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成するステップと、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成するステップと、を情報処理装置が実行する方法である。
The method according to
本発明の態様13に係るプログラムは、上述の情報処理装置としてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させるためのプログラムである。 The program according to the thirteenth aspect of the present invention is a program for operating a computer as the above-mentioned information processing device, and is a program for operating the computer as each of the above-mentioned parts.
本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の学習プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device according to each aspect of the present invention may be realized by a computer. In this case, the information processing device is made into a computer by operating the computer as each part (software element) included in the information processing device. The learning program of the information processing device to be realized and the computer-readable recording medium on which the information processing device is recorded are also included in the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.
1、1A 制御システム
10 ロボットアーム
40、40A 情報処理装置
11 エンドエフェクタ
12 関節
13 センサ
20 第1カメラ
30 第2カメラ
41、41A 軌道生成部
42、42A 処理動作生成部
43 第1学習済モデル
44 第2学習済モデル
45 ロボット制御部
46 軌道記憶部
50 対象物
61、62 障害物
70 カメラ
401 プロセッサ
402 主メモリ
403 補助メモリ
404 入出力インタフェース
410 バス
1,
Claims (13)
第2カメラにより生成された第2画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、
を備える情報処理装置。 A trajectory generator that generates trajectory information indicating the trajectory to be traced by the robot arm using the first image data generated by the first camera, state information regarding the state of the robot arm, and the first trained model.
Using the second image data generated by the second camera, the state information, and the second trained model, a processing motion generation unit that generates processing motion information indicating the processing motion to be performed by the robot arm, and a processing motion generating unit.
Information processing device equipped with.
請求項1に記載の情報処理装置。 The trajectory generating unit repeatedly executes the trajectory information generation process until the robot arm moves to a predetermined target position.
The information processing device according to claim 1.
請求項1又は2に記載の情報処理装置。 The processing operation information generated by the processing operation generating unit is information indicating the processing operation to be performed by the robot arm after moving to a predetermined target position along the trajectory.
The information processing device according to claim 1 or 2.
請求項3に記載の情報処理装置。 The trajectory generating unit determines the position of the robot arm as the target position in which the positional relationship between the object to be processed by the robot arm and the end effector of the robot arm satisfies a predetermined condition, and reaches the target position. Generates trajectory information indicating the trajectory of the robot arm of
The information processing device according to claim 3.
請求項4に記載の情報処理装置。 The trajectory generating unit determines the position of the robot arm whose distance from the end effector of the robot arm to the object satisfies the condition as the target position.
The information processing device according to claim 4.
前記軌道生成部は、前記ロボットアームの処理対象である対象物と前記第2カメラの撮影方向との位置関係が所定の条件を満たす前記ロボットアームの位置を目標位置として決定し、前記目標位置までの前記ロボットアームの軌道を示す軌道情報を生成する、
請求項3に記載の情報処理装置。 The second camera is provided on the robot arm.
The trajectory generating unit determines the position of the robot arm whose positional relationship between the object to be processed by the robot arm and the shooting direction of the second camera satisfies a predetermined condition as a target position, and reaches the target position. Generates trajectory information indicating the trajectory of the robot arm of
The information processing device according to claim 3.
請求項6に記載の情報処理装置。 The orbit generating unit determines a position in which a part or all of the object is included in the shooting range of the second camera as the target position.
The information processing device according to claim 6.
請求項7に記載の情報処理装置。 The trajectory generating unit determines a position where the ratio of the region of the object in the image captured by the second camera satisfies a predetermined condition as the target position.
The information processing device according to claim 7.
請求項4〜8のいずれか1項に記載の情報処理装置。 The trajectory generator changes the conditions by using at least one of the characteristics of the object, the type of processing operation performed by the robot arm on the object, and the position of the obstacle. ,
The information processing device according to any one of claims 4 to 8.
請求項1〜5のいずれか1項に記載の情報処理装置。 The second camera is provided on the robot arm.
The information processing device according to any one of claims 1 to 5.
請求項1〜10のいずれか1項に記載の情報処理装置。 The first camera includes a depth sensor, and the first image data includes image data representing the depth.
The information processing device according to any one of claims 1 to 10.
第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成するステップと、
を情報処理装置が実行する方法。 Using the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model, a step of generating trajectory information indicating the trajectory to be traced by the robot arm, and
Using the second image data generated by the second camera, the state information, and the second trained model, a step of generating processing operation information indicating the processing operation to be performed by the robot arm, and a step of generating processing operation information.
How the information processing device executes.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224624A JP6792230B1 (en) | 2019-12-12 | 2019-12-12 | Information processing equipment, methods and programs |
PCT/JP2020/043675 WO2021117479A1 (en) | 2019-12-12 | 2020-11-24 | Information processing device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019224624A JP6792230B1 (en) | 2019-12-12 | 2019-12-12 | Information processing equipment, methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6792230B1 JP6792230B1 (en) | 2020-11-25 |
JP2021091067A true JP2021091067A (en) | 2021-06-17 |
Family
ID=73452896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019224624A Active JP6792230B1 (en) | 2019-12-12 | 2019-12-12 | Information processing equipment, methods and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6792230B1 (en) |
WO (1) | WO2021117479A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7375587B2 (en) * | 2020-02-05 | 2023-11-08 | 株式会社デンソー | Trajectory generation device, multi-link system, and trajectory generation method |
CN113119073A (en) * | 2021-04-16 | 2021-07-16 | 中国科学技术大学 | Mechanical arm system based on computer vision and machine learning and oriented to 3C assembly scene |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05318363A (en) * | 1992-05-21 | 1993-12-03 | Sanyo Electric Co Ltd | Method for controlling robot |
JPH08212329A (en) * | 1995-02-06 | 1996-08-20 | Fujitsu Ltd | Adaptive recognition system |
JP2007245326A (en) * | 2006-02-17 | 2007-09-27 | Toyota Motor Corp | Robot, and robot control method |
WO2018146770A1 (en) * | 2017-02-09 | 2018-08-16 | 三菱電機株式会社 | Position control device and position control method |
JP2019508273A (en) * | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | Deep-layer machine learning method and apparatus for grasping a robot |
JP2019509905A (en) * | 2016-03-03 | 2019-04-11 | グーグル エルエルシー | Deep machine learning method and apparatus for robot gripping |
JP2019155554A (en) * | 2018-03-14 | 2019-09-19 | オムロン株式会社 | Control device of robot |
-
2019
- 2019-12-12 JP JP2019224624A patent/JP6792230B1/en active Active
-
2020
- 2020-11-24 WO PCT/JP2020/043675 patent/WO2021117479A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05318363A (en) * | 1992-05-21 | 1993-12-03 | Sanyo Electric Co Ltd | Method for controlling robot |
JPH08212329A (en) * | 1995-02-06 | 1996-08-20 | Fujitsu Ltd | Adaptive recognition system |
JP2007245326A (en) * | 2006-02-17 | 2007-09-27 | Toyota Motor Corp | Robot, and robot control method |
JP2019508273A (en) * | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | Deep-layer machine learning method and apparatus for grasping a robot |
JP2019509905A (en) * | 2016-03-03 | 2019-04-11 | グーグル エルエルシー | Deep machine learning method and apparatus for robot gripping |
WO2018146770A1 (en) * | 2017-02-09 | 2018-08-16 | 三菱電機株式会社 | Position control device and position control method |
JP2019155554A (en) * | 2018-03-14 | 2019-09-19 | オムロン株式会社 | Control device of robot |
Also Published As
Publication number | Publication date |
---|---|
JP6792230B1 (en) | 2020-11-25 |
WO2021117479A1 (en) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11045949B2 (en) | Deep machine learning methods and apparatus for robotic grasping | |
US10946515B2 (en) | Deep machine learning methods and apparatus for robotic grasping | |
CN104936748B (en) | Free-hand robot path teaching | |
JP5949242B2 (en) | Robot system, robot, robot control apparatus, robot control method, and robot control program | |
JP5647155B2 (en) | Body feature detection and human pose estimation using inner distance shape relation | |
WO2021117479A1 (en) | Information processing device, method, and program | |
CN114097004A (en) | Autonomous task performance based on visual embedding | |
WO2020190166A1 (en) | Method and system for grasping an object by means of a robotic device | |
CN111085997A (en) | Capturing training method and system based on point cloud acquisition and processing | |
JP2008000884A (en) | Evaluating visual proto-object for robot interaction | |
JP7458741B2 (en) | Robot control device and its control method and program | |
JP6075888B2 (en) | Image processing method, robot control method | |
Ottenhaus et al. | Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning | |
JP7359577B2 (en) | Robot teaching device and robot system | |
Teke et al. | Real-time and robust collaborative robot motion control with Microsoft Kinect® v2 | |
CN112805127A (en) | Method and apparatus for creating robot control program | |
JP7376318B2 (en) | annotation device | |
RU2756437C1 (en) | Method and system for planning the movement of a manipulator robot by correcting the reference trajectories | |
Xu et al. | A fast and straightforward hand-eye calibration method using stereo camera | |
WO2023286138A1 (en) | Robot control system, robot system, robot control method, and robot control program | |
WO2024023934A1 (en) | Workpiece removal device, workpiece removal method, and control device | |
KR20230175122A (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
JP2021091070A (en) | Robot control device | |
Park et al. | Robot-based Object Pose Auto-annotation System for Dexterous Manipulation | |
Saremi et al. | How effective are meta-heuristics for recognising hand gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191212 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191212 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200804 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200804 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200819 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6792230 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |