JP2021091067A - Information processing device, method and program - Google Patents

Information processing device, method and program Download PDF

Info

Publication number
JP2021091067A
JP2021091067A JP2019224624A JP2019224624A JP2021091067A JP 2021091067 A JP2021091067 A JP 2021091067A JP 2019224624 A JP2019224624 A JP 2019224624A JP 2019224624 A JP2019224624 A JP 2019224624A JP 2021091067 A JP2021091067 A JP 2021091067A
Authority
JP
Japan
Prior art keywords
robot arm
information
trajectory
camera
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019224624A
Other languages
Japanese (ja)
Other versions
JP6792230B1 (en
Inventor
学嗣 浅谷
Satotsugu Asatani
学嗣 浅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019224624A priority Critical patent/JP6792230B1/en
Priority to PCT/JP2020/043675 priority patent/WO2021117479A1/en
Application granted granted Critical
Publication of JP6792230B1 publication Critical patent/JP6792230B1/en
Publication of JP2021091067A publication Critical patent/JP2021091067A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Abstract

To improve both the accuracy of generating an orbit to be traced by a robot arm and the accuracy of generating processing operation to an object of the robot arm.SOLUTION: An information processing device (40) includes: an orbit generation unit (41) for generating orbit information showing an orbit to be traced by a robot arm (10) by using first image data generated by a first camera (20), state information on a state of the robot arm, and a first learned model (43); and a processing operation generation unit (42) for generating processing operation information showing processing operation to be performed by the robot arm (10) by using second image data generated by a second camera (30), state information and a second learned model (44).SELECTED DRAWING: Figure 1

Description

本発明は、ロボットアームを制御する情報処理装置、方法及びプログラムに関する。 The present invention relates to an information processing device, a method and a program for controlling a robot arm.

物品の把持又は塗装等の対象物に対する各種の処理動作を行うロボットアームが知られている。このようなロボットアームの制御として、ロボットアームを対象物の近くまで移動させる制御や、対象物に対するロボットアームの処理動作の制御が行われている。また、ロボットアームの移動に係る軌道の生成を機械学習により行う技術が研究されている。例えば非特許文献1には、ロボットアームの軌道を機械学習により生成するためのMPNet(Motion Planning Networks)と呼ばれるアルゴリズムが開示されている。MPNetでは、ロボットアームの作業空間をカメラで撮影した画像を用いて、ロボットアームの軌道が生成される。 Robot arms that perform various processing operations on an object such as gripping an article or painting are known. As the control of such a robot arm, the control of moving the robot arm to the vicinity of the object and the control of the processing operation of the robot arm with respect to the object are performed. In addition, a technique for generating a trajectory related to the movement of a robot arm by machine learning is being researched. For example, Non-Patent Document 1 discloses an algorithm called MPNet (Motion Planning Networks) for generating a trajectory of a robot arm by machine learning. In MPNet, the trajectory of the robot arm is generated using an image of the working space of the robot arm taken by a camera.

Ahmed H. Qureshi, Anthony Simeonov, Mayur J. Bency and Michael C. Yip, Motion Planning Networks, 13 Jul, 2019Ahmed H. Qureshi, Anthony Simeonov, Mayur J. Bency and Michael C. Yip, Motion Planning Networks, 13 Jul, 2019

特許文献1に記載の技術では、ロボットアームが現在位置から目標位置まで移動するまでの軌道を計算することができるものの、対象物に対するロボットアームの処理動作(物品の把持、塗装等)の精度を向上させることは困難であった。 Although the technique described in Patent Document 1 can calculate the trajectory of the robot arm from the current position to the target position, the accuracy of the processing operation of the robot arm with respect to the object (grasping an article, painting, etc.) can be obtained. It was difficult to improve.

本発明の一態様は、ロボットアームがトレースすべき軌道の生成の精度、及びロボットアームの対象物に対する処理動作の生成の精度の両方を向上させることができる情報処理装置、方法及びプログラムを実現することを目的とする。 One aspect of the present invention realizes an information processing apparatus, method and program capable of improving both the accuracy of generating a trajectory to be traced by the robot arm and the accuracy of generating a processing motion with respect to an object of the robot arm. The purpose is.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成する軌道生成部と、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、を備える。 In order to solve the above problems, the information processing apparatus according to one aspect of the present invention uses the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model. Using the orbit generation unit that generates orbit information indicating the orbit to be traced by the robot arm, the second image data generated by the second camera, the state information, and the second trained model, the robot It includes a processing operation generation unit that generates processing operation information indicating the processing operation to be performed by the arm.

本発明の一態様によれば、ロボットアームがトレースすべき軌道の生成の精度、及びロボットアームの対象物に対する処理動作の生成の精度の両方を向上させることができる。 According to one aspect of the present invention, both the accuracy of generating the trajectory to be traced by the robot arm and the accuracy of generating the processing motion with respect to the object of the robot arm can be improved.

本発明の一実施形態に係る制御システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the control system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御システムの外観を模式的に示す図である。It is a figure which shows typically the appearance of the control system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御システムによるロボットアームの制御の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the control flow of the robot arm by the control system which concerns on one Embodiment of this invention. ロボットアームの軌道を例示する図である。It is a figure which illustrates the trajectory of a robot arm. 本発明の一実施形態に係る制御システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the control system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る情報処理装置の物理的構成を例示するブロック図である。It is a block diagram which illustrates the physical structure of the information processing apparatus which concerns on one Embodiment of this invention.

〔実施形態1〕
図1は、本発明の一実施形態に係る制御システム1の概略構成を示すブロック図である。制御システム1は、ロボットアーム10を制御するためのシステムである。制御システム1は、ロボットアーム10、第1カメラ20、第2カメラ30、及び情報処理装置40を備える。ロボットアーム10は、対象物に関する処理動作を行う装置である。対象物に関する処理動作は例えば、物品の把持、塗装、研磨、切削、穴あけ、又は組み付けである。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a control system 1 according to an embodiment of the present invention. The control system 1 is a system for controlling the robot arm 10. The control system 1 includes a robot arm 10, a first camera 20, a second camera 30, and an information processing device 40. The robot arm 10 is a device that performs processing operations related to an object. Processing operations relating to the object are, for example, gripping, painting, polishing, cutting, drilling, or assembling an article.

第1カメラ20及び第2カメラ30は、ロボットアーム10の作業空間を撮影するカメラである。
第1カメラ20は、ロボットアーム10がトレースすべき軌道を示す情報(以下「軌道情報」という)の生成に適した画像を撮影可能なように、例えば、ロボットアーム10及びロボットアーム10の作業空間が撮影範囲に含まれる位置に固定される。第1カメラ20は撮影した画像を表す第1画像データを出力する。
The first camera 20 and the second camera 30 are cameras that photograph the work space of the robot arm 10.
The first camera 20 can capture, for example, a work space of the robot arm 10 and the robot arm 10 so that the robot arm 10 can take an image suitable for generating information indicating the trajectory to be traced (hereinafter referred to as “orbit information”). Is fixed at a position included in the shooting range. The first camera 20 outputs the first image data representing the captured image.

第2カメラ30は、ロボットアーム10が行うべき処理動作を示す情報(以下「処理動作情報」という)の生成に適した画像を撮影可能なように、例えば、ロボットアーム10の周囲の少なくとも一部(例えば、前方)が撮影範囲に含まれる位置に固定される。第2カメラ30は撮影した画像を表す第2画像データを出力する。 The second camera 30, for example, at least a part of the periphery of the robot arm 10 so that the second camera 30 can take an image suitable for generating information indicating the processing operation to be performed by the robot arm 10 (hereinafter referred to as “processing operation information”). (For example, the front) is fixed at a position included in the shooting range. The second camera 30 outputs the second image data representing the captured image.

情報処理装置40は、軌道生成部41、処理動作生成部42、第1学習済モデル43、及び第2学習済モデル44を備える。 The information processing device 40 includes an orbit generation unit 41, a processing operation generation unit 42, a first trained model 43, and a second trained model 44.

軌道生成部41は、第1カメラ20により生成された第1画像データ、ロボットアーム10の状態に関する情報(以下「状態情報」という)、及び第1学習済モデル43を用いて、軌道情報を生成する。状態情報は、ロボットアーム10の状態に関する任意の情報である。状態情報は、関節12及びエンドエフェクタ11のジョイント角度、及びエンドエフェクタ11を含むロボットアーム10の各部の座標を示す情報を含むが、これに限られない。軌道情報は、ロボットアーム10が現在位置(軌道の始点)から目標位置(軌道の終点)に移動するまでの、ロボットアーム10の各部がトレースする軌道(状態の変化)を示す情報である。軌道情報は、現在位置から目標位置までのロボットアーム10の状態情報の時系列データであり得る。 The trajectory generation unit 41 generates trajectory information using the first image data generated by the first camera 20, information on the state of the robot arm 10 (hereinafter referred to as “state information”), and the first trained model 43. To do. The state information is arbitrary information regarding the state of the robot arm 10. The state information includes, but is not limited to, information indicating the joint angles of the joint 12 and the end effector 11 and the coordinates of each part of the robot arm 10 including the end effector 11. The trajectory information is information indicating the trajectory (change in state) traced by each part of the robot arm 10 until the robot arm 10 moves from the current position (start point of the trajectory) to the target position (end point of the trajectory). The trajectory information can be time-series data of the state information of the robot arm 10 from the current position to the target position.

また、以下の説明において、ロボットアーム10の現在位置は、各処理時点におけるロボットアーム10の位置及びロボットアーム10の状態をいう。目標位置は、ロボットアーム10が処理動作の対象である対象物の周囲まで移動したときのロボットアーム10の状態をいう。目標位置は例えば、ロボットアーム10が処理動作を開始可能な位置まで移動したときのロボットアーム10の状態である。 Further, in the following description, the current position of the robot arm 10 refers to the position of the robot arm 10 and the state of the robot arm 10 at each processing time. The target position refers to the state of the robot arm 10 when the robot arm 10 moves to the periphery of the object to be processed. The target position is, for example, the state of the robot arm 10 when the robot arm 10 moves to a position where the processing operation can be started.

処理動作生成部42は、第2カメラ30により生成された第2画像データ、ロボットアーム10の状態情報、及び第2学習済モデルを用いて、処理動作情報を生成する。 The processing motion generation unit 42 generates processing motion information using the second image data generated by the second camera 30, the state information of the robot arm 10, and the second trained model.

第1学習済モデル43は、現在位置及び目標位置におけるロボットアーム10の状態情報及びロボットアーム10の作業空間に関する情報(以下「空間情報」という)と軌道情報との相関関係を機械学習させた学習済モデルである。この実施形態において、空間情報は例えば、ロボットアーム10の作業空間に含まれる障害物の座標、ロボットアーム10の処理対象である対象物の座標を示す情報を含む。空間情報は例えば、ロボットアーム10の作業空間を撮影した撮影画像から特定される。第1学習済モデル43は、例えば、MPNetであるが、これに限られない。第1学習済モデル43は、状態情報及び空間情報に基づいて軌道情報を生成可能な任意の機械学習モデルであり得る。例えば、第1学習済モデル43は、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、DNN(Deep Neural Network)、又はこれらの組み合わせで実現可能である。 The first trained model 43 is learned by machine learning the correlation between the state information of the robot arm 10 at the current position and the target position, the information about the work space of the robot arm 10 (hereinafter referred to as “spatial information”), and the trajectory information. It is a finished model. In this embodiment, the spatial information includes, for example, the coordinates of an obstacle included in the work space of the robot arm 10 and information indicating the coordinates of an object to be processed by the robot arm 10. Spatial information is specified, for example, from a captured image of the work space of the robot arm 10. The first trained model 43 is, for example, MPNet, but is not limited thereto. The first trained model 43 can be any machine learning model capable of generating orbital information based on state information and spatial information. For example, the first trained model 43 can be realized by CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), RSTM (Long Short-Term Memory), DNN (Deep Neural Network), or a combination thereof.

第2学習済モデル44は、第1学習済モデル43とは異なるモデルであり、第2画像データ及び状態情報と処理動作情報との相関関係を機械学習させた学習済モデルである。第2学習済モデル44は、第2画像データ及び状態情報から処理動作情報を生成可能な任意の機械学習モデルであり得る。例えば、第2学習済モデル44は、CNN、RNN、LSTM、DNN、又はこれらの組み合わせで実現可能である。 The second trained model 44 is a model different from the first trained model 43, and is a trained model in which the correlation between the second image data and the state information and the processing operation information is machine-learned. The second trained model 44 can be any machine learning model capable of generating processing operation information from the second image data and state information. For example, the second trained model 44 can be realized by CNN, RNN, LSTM, DNN, or a combination thereof.

以上のように構成された情報処理装置40は、第1学習済モデル43を用いてロボットアーム10の軌道情報を生成するとともに、第2学習済モデル44を用いてロボットアーム10の処理動作情報を生成する。このように軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した学習済モデルを用いることで、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。また、この実施形態では、軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した撮影画像を用いることで、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。 The information processing device 40 configured as described above generates trajectory information of the robot arm 10 using the first trained model 43, and also uses the second trained model 44 to generate processing operation information of the robot arm 10. Generate. In this way, by using a trained model suitable for each of the generation of the trajectory information and the generation of the processing motion information, it is possible to improve the accuracy of both the generation of the trajectory information and the generation of the processing motion information. Further, in this embodiment, it is possible to improve the accuracy of both the generation of the trajectory information and the generation of the processing operation information by using the captured images suitable for each of the generation of the trajectory information and the generation of the processing operation information. it can.

〔実施形態2〕
(構成)
図2は、本発明の一実施形態に係る制御システム1の外観を模式的に示す図である。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
(Constitution)
FIG. 2 is a diagram schematically showing the appearance of the control system 1 according to the embodiment of the present invention. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the first embodiment, and the description will not be repeated.

制御システム1は、ロボットアーム10を対象物50の付近に移動させて対象物50を把持する一連の動作を制御するシステムである。本実施形態において、ロボットアーム10の端部にはエンドエフェクタ11が設けられている。エンドエフェクタ11は、例えば多指ハンド、又はグリッパである。この実施形態において、エンドエフェクタ11は、物品を把持する機構を有する。なお、ロボットアーム10が行う処理動作は、物品の把持に限定されず、エンドエフェクタ11を交換することによって他の処理動作が可能になるように構成されていてもよい。 The control system 1 is a system that controls a series of operations in which the robot arm 10 is moved to the vicinity of the object 50 to grip the object 50. In the present embodiment, an end effector 11 is provided at the end of the robot arm 10. The end effector 11 is, for example, a multi-finger hand or a gripper. In this embodiment, the end effector 11 has a mechanism for gripping an article. The processing operation performed by the robot arm 10 is not limited to gripping the article, and may be configured so that another processing operation can be performed by exchanging the end effector 11.

ロボットアーム10は、1以上の関節12を備えており、各関節12が駆動されることによって動作する。関節12は、アームの関節であってもよいし、エンドエフェクタ11(例えば、多指ハンド)の関節であってもよい。ロボットアーム10はまた、1以上のセンサ13(図1参照)を備える。各センサ13には、例えば、各関節12のジョイント角度を検知する角度センサ、ロボットアーム10の特定の箇所における力覚を検知する力覚センサなどが含まれ得る。各センサ13の検知結果は情報処理装置40に出力される。 The robot arm 10 includes one or more joints 12, and operates by driving each joint 12. The joint 12 may be a joint of an arm or a joint of an end effector 11 (for example, a multi-fingered hand). The robot arm 10 also includes one or more sensors 13 (see FIG. 1). Each sensor 13 may include, for example, an angle sensor that detects the joint angle of each joint 12, a force sensor that detects a force sense at a specific position of the robot arm 10, and the like. The detection result of each sensor 13 is output to the information processing device 40.

第1カメラ20は、ロボットアーム10の作業空間を撮影し、撮影画像を表す撮影データ(第1画像データ)を生成する。第1カメラ20は、ロボットアーム10及びロボットアーム10の作業空間が撮影範囲に含まれる位置に固定される。本実施形態において、第1カメラ20は、深度センサを備え、RGB色空間により表される撮影画像(以下「RGB画像」という)及びピクセルごとの距離データを有する深度画像を表す撮影データを出力する。なお、撮影画像は、カラー画像に限らず、モノクロ画像であってもよい。図2には1台の第1カメラ20が図示されているが、ロボットアーム10の作業空間を撮影する第1カメラ20として、複数のカメラが設けられてもよい。 The first camera 20 photographs the work space of the robot arm 10 and generates photographing data (first image data) representing the photographed image. The first camera 20 is fixed at a position where the robot arm 10 and the work space of the robot arm 10 are included in the photographing range. In the present embodiment, the first camera 20 includes a depth sensor and outputs a captured image represented by an RGB color space (hereinafter referred to as “RGB image”) and captured data representing a depth image having distance data for each pixel. .. The captured image is not limited to a color image and may be a monochrome image. Although one first camera 20 is shown in FIG. 2, a plurality of cameras may be provided as the first camera 20 for photographing the work space of the robot arm 10.

第2カメラ30は、ロボットアーム10に固定されたカメラであり、撮影画像を表す撮影データ(第2画像データ)を出力する。第2カメラ30は、エンドエフェクタ11の少なくとも一部及びエンドエフェクタ11の周囲が撮影範囲に含まれる位置(例えば、ロボットアーム10の第5軸)に設けられている。第2カメラ30は例えば、ロボットアーム10の第5軸の軸方向と撮影方向とが平行になる向きで固定される。なお、第2カメラ30は、深度センサを備えていてもよい。この場合、第2カメラ30が出力する撮影データは、深度画像を表すデータを含んでもよい。また、図2には1台の第2カメラ30が図示されているが、第2カメラ30として、複数のカメラが設けられていてもよい。また、第2カメラ30は、ロボットアーム10の第4軸又は第6軸に固定されてもよい。 The second camera 30 is a camera fixed to the robot arm 10 and outputs shooting data (second image data) representing a shot image. The second camera 30 is provided at a position (for example, the fifth axis of the robot arm 10) in which at least a part of the end effector 11 and the periphery of the end effector 11 are included in the photographing range. For example, the second camera 30 is fixed in a direction in which the axial direction of the fifth axis of the robot arm 10 and the photographing direction are parallel to each other. The second camera 30 may include a depth sensor. In this case, the shooting data output by the second camera 30 may include data representing a depth image. Further, although one second camera 30 is shown in FIG. 2, a plurality of cameras may be provided as the second camera 30. Further, the second camera 30 may be fixed to the fourth axis or the sixth axis of the robot arm 10.

対象物50は、ロボットアーム10が行う処理動作の目的物であり、例えばロボットアーム10が把持する物品である。障害物61、62は、ロボットアーム10の作業空間に存在する、対象物50以外の任意のものである。障害物61、62は、ロボットアーム10の移動又はロボットアームの処理動作において障害となり得る。障害物61、62は、例えば物品である。なお、図2の例では、2つの障害物61、62が図示されているが、ロボットアーム10の作業空間に含まれる障害物の数は2に限定されず、これより多くても少なくてもよい。 The object 50 is an object of a processing operation performed by the robot arm 10, and is, for example, an article held by the robot arm 10. The obstacles 61 and 62 are arbitrary objects other than the object 50 existing in the work space of the robot arm 10. Obstacles 61 and 62 can be obstacles in the movement of the robot arm 10 or the processing operation of the robot arm. Obstacles 61 and 62 are, for example, articles. In the example of FIG. 2, two obstacles 61 and 62 are shown, but the number of obstacles included in the work space of the robot arm 10 is not limited to 2, and may be more or less than this.

情報処理装置40は、軌道生成部41、処理動作生成部42、第1学習済モデル43、第2学習済モデル44、ロボット制御部45、及び軌道記憶部46を備える。 The information processing device 40 includes an orbit generation unit 41, a processing operation generation unit 42, a first learned model 43, a second learned model 44, a robot control unit 45, and an orbit storage unit 46.

軌道生成部41は、第1画像データ、状態情報、及び第1学習済モデル43を用いて、ロボットアーム10の現在位置から目標位置までの軌道を示す軌道情報を生成する。作業空間に障害物がある場合、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで、障害物61、62を避けながら移動する経路を示す軌道情報を生成する。また、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで移動するまでの期間に亘って、軌道情報の生成処理を繰り返し実行する。生成した軌道情報は軌道記憶部46に記憶される。 The trajectory generation unit 41 uses the first image data, the state information, and the first trained model 43 to generate trajectory information indicating the trajectory of the robot arm 10 from the current position to the target position. When there is an obstacle in the work space, the trajectory generation unit 41 generates trajectory information indicating a route in which the robot arm 10 moves from the current position to the target position while avoiding the obstacles 61 and 62. Further, the trajectory generation unit 41 repeatedly executes the trajectory information generation process for a period from the current position to the target position of the robot arm 10. The generated orbit information is stored in the orbit storage unit 46.

処理動作生成部42は、第2画像データ、状態情報、及び第2学習済モデル44を用いて、処理動作情報を生成する。処理動作情報は例えば、ロボットアーム10の状態情報の時系列データであり得る。この実施形態において、処理動作生成部42が生成する処理動作情報は、軌道生成部41が生成した軌道に沿ってロボットアーム10が目標位置まで移動した後に、ロボットアーム10が行うべき処理動作を示す情報である。 The processing operation generation unit 42 generates processing operation information using the second image data, the state information, and the second trained model 44. The processing operation information can be, for example, time-series data of the state information of the robot arm 10. In this embodiment, the processing operation information generated by the processing operation generating unit 42 indicates the processing operation to be performed by the robot arm 10 after the robot arm 10 has moved to the target position along the trajectory generated by the trajectory generating unit 41. Information.

第1学習済モデル43は、現在位置及び目標位置におけるロボットアーム10の状態情報及び空間情報と軌道情報との相関関係を機械学習させた学習済モデルである。この実施形態において、空間情報は、障害物の座標情報、及び対象物の座標情報を含む。なお、第1学習済モデル43の入力情報は、状態情報及び空間情報に限られず、他の情報を含んでいてもよい。例えば、入力情報は、第1画像データを含んでいてもよい。第1学習済モデル43は、情報処理装置40又は他の装置により予め生成される。情報処理装置40又は他の装置は、状態情報及び空間情報と軌道情報との組を用いて、状態情報及び空間情報と軌道情報との相関関係を機械学習させた第1学習済モデル43を生成する。 The first trained model 43 is a trained model in which the correlation between the state information and spatial information of the robot arm 10 at the current position and the target position and the trajectory information is machine-learned. In this embodiment, the spatial information includes the coordinate information of the obstacle and the coordinate information of the object. The input information of the first trained model 43 is not limited to the state information and the spatial information, and may include other information. For example, the input information may include the first image data. The first trained model 43 is pre-generated by the information processing device 40 or another device. The information processing device 40 or another device generates a first trained model 43 in which the correlation between the state information and the spatial information and the orbit information is machine-learned by using the pair of the state information and the spatial information and the orbit information. To do.

第2学習済モデル44は、情報処理装置40又は他の装置により予め生成される。この実施形態において、第2学習済モデル44は、エンドエフェクタ11が対象物50を把持する処理動作を行ったときの第2画像データ及び状態情報と処理動作情報との相関関係が機械学習された学習済モデルである。情報処理装置40又は他の装置は、第2画像データ及び状態情報と処理動作情報との組を用いて、第2画像データ及び状態情報と処理動作情報との相関関係を、例えば強化学習により機械学習させた第2学習済モデル44を生成する。 The second trained model 44 is pre-generated by the information processing device 40 or another device. In this embodiment, in the second trained model 44, the correlation between the second image data and the state information and the processing operation information when the end effector 11 performs the processing operation of gripping the object 50 is machine-learned. It is a trained model. The information processing device 40 or another device uses a pair of the second image data and the state information and the processing operation information to determine the correlation between the second image data and the state information and the processing operation information, for example, by machine learning. The trained second trained model 44 is generated.

ロボット制御部45は、軌道生成部41が生成した軌道情報、及び処理動作生成部42が生成した処理動作情報を用いてロボットアーム10を制御する。すなわち、ロボット制御部45は、軌道情報を用いてロボットアーム10の状態を変化させ、ロボットアーム10の状態を軌道情報の示す状態に近づけるようにロボットアーム10を制御する。また、ロボット制御部45は、処理動作情報を用いて、ロボットアーム10の状態を変化させる。 The robot control unit 45 controls the robot arm 10 by using the trajectory information generated by the trajectory generation unit 41 and the processing operation information generated by the processing operation generation unit 42. That is, the robot control unit 45 changes the state of the robot arm 10 using the trajectory information, and controls the robot arm 10 so that the state of the robot arm 10 approaches the state indicated by the trajectory information. Further, the robot control unit 45 changes the state of the robot arm 10 by using the processing operation information.

軌道記憶部46には、軌道生成部41が生成した軌道情報が記憶される。この実施形態では、軌道記憶部46には、軌道情報としてロボットアーム10の状態情報が時系列に記憶される。 The orbit storage unit 46 stores the orbit information generated by the orbit generation unit 41. In this embodiment, the orbit storage unit 46 stores the state information of the robot arm 10 as the orbit information in chronological order.

(動作)
図3は、制御システム1によるロボットアーム10の制御の流れの一例を示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
(motion)
FIG. 3 is a flowchart showing an example of the flow of control of the robot arm 10 by the control system 1. Note that some steps may be performed in parallel or in a different order.

ステップS101において、第1カメラ20で作業空間が撮影される。第1カメラ20は、撮影した作業空間を表す第1画像データを情報処理装置40に供給する。 In step S101, the work space is photographed by the first camera 20. The first camera 20 supplies the first image data representing the captured work space to the information processing device 40.

ステップS102において、軌道生成部41は、第1画像データに含まれるRGB画像及び深度画像を用いて、作業空間に存在する物体(対象物及び障害物)の認識を行う。物体認識の手法としては、種々の方法が利用可能であり、例えば、CNNを用いた3次元物体認識の手法であるMMSS(Multi-model Sharable and Specific Feature Learning for RGB-D Object Recognition)が用いられる。この場合、3Dデータ(RGB画像及び深度画像)と物体の種類(ラベル)との相関関係を機械学習させた学習済モデルに、3Dデータを入力することにより、作業空間に存在する物体の座標と各物体の種類(空間情報)が推定される。推定された空間情報は、各物体の種類(ラベル)を付されたポイントクラウドとして出力され得る。図2の例では、作業空間に存在する物体として、対象物50、障害物61及び障害物62が認識される。なお、障害物については、種類の特定が行われなくてもよい。 In step S102, the trajectory generation unit 41 recognizes an object (object and obstacle) existing in the work space by using the RGB image and the depth image included in the first image data. Various methods can be used as the object recognition method. For example, MMSS (Multi-model Sharable and Specific Feature Learning for RGB-D Object Recognition), which is a three-dimensional object recognition method using CNN, is used. .. In this case, by inputting the 3D data into the trained model in which the correlation between the 3D data (RGB image and depth image) and the type (label) of the object is machine-learned, the coordinates of the object existing in the work space can be obtained. The type (spatial information) of each object is estimated. The estimated spatial information can be output as a point cloud with the type (label) of each object. In the example of FIG. 2, the object 50, the obstacle 61, and the obstacle 62 are recognized as the objects existing in the work space. The type of obstacle does not have to be specified.

ステップS103において、軌道生成部41は、ロボットアーム10の移動の目標位置を決定する。目標位置の決定は、例えば以下のようにして行われる。軌道生成部41は、ステップS102で認識された物体の種類に基づいて、作業空間に存在する物体の中から対象物を特定する。この場合、対象物の種類がユーザにより予め設定されていてもよい。図2の例では、対象物50が特定される。 In step S103, the trajectory generation unit 41 determines the target position for movement of the robot arm 10. The target position is determined, for example, as follows. The trajectory generation unit 41 identifies an object from the objects existing in the work space based on the type of the object recognized in step S102. In this case, the type of the object may be preset by the user. In the example of FIG. 2, the object 50 is specified.

次いで、軌道生成部41は、対象物50とロボットアーム10のエンドエフェクタ11との位置関係が所定の条件を満たすロボットアーム10の状態(位置)を、移動の目標位置として決定する。所定の条件は例えば、エンドエフェクタ11から対象物50までの距離が所定の閾値以下である、といった条件であってもよい。エンドエフェクタ11から対象物50までの距離とは、例えば、エンドエフェクタ11の所定の部分から対象物50の重心までの距離、又はエンドエフェクタ11の所定の部分から対象物50の表面までの最短距離である。すなわち、ロボットアーム10の目標位置とは、例えば、エンドエフェクタ11の所定の部分から対象物50の表面までの最短距離が所定の閾値以下となるロボットアーム10の状態をいう。 Next, the trajectory generation unit 41 determines the state (position) of the robot arm 10 in which the positional relationship between the object 50 and the end effector 11 of the robot arm 10 satisfies a predetermined condition as a movement target position. The predetermined condition may be, for example, a condition that the distance from the end effector 11 to the object 50 is equal to or less than a predetermined threshold value. The distance from the end effector 11 to the object 50 is, for example, the distance from a predetermined portion of the end effector 11 to the center of gravity of the object 50, or the shortest distance from a predetermined portion of the end effector 11 to the surface of the object 50. Is. That is, the target position of the robot arm 10 means, for example, a state of the robot arm 10 in which the shortest distance from a predetermined portion of the end effector 11 to the surface of the object 50 is equal to or less than a predetermined threshold value.

ステップS104において、軌道生成部41は、ロボットアーム10の現在位置及び目標位置におけるにおける状態情報、空間情報(対象物50及び障害物61,62の座標情報、ロボットアーム10の目標位置における状態情報)、及び第1学習済モデル43を用いて、軌道情報を生成する。この実施形態では、軌道生成部41は、ロボットアーム10の現在位置及び目標位置におけるにおける状態情報及び空間情報を第1学習済モデル43に入力し、第1学習済モデル43から出力される軌道情報を取得する。この実施形態では、軌道生成部41は、センサ13の検知結果を、現在のロボットアーム10の状態情報として取得してもよいし、当該検知結果から状態情報を算出してもよいし、第1画像データを画像解析することにより、状態情報を特定してもよい。軌道生成部41は、取得した軌道情報を軌道記憶部46に記憶するとともに、軌道情報をロボット制御部45に供給する。 In step S104, the trajectory generating unit 41 includes state information and spatial information at the current position and target position of the robot arm 10 (coordinate information of the object 50 and obstacles 61 and 62, state information at the target position of the robot arm 10). , And the first trained model 43 is used to generate orbital information. In this embodiment, the trajectory generation unit 41 inputs the state information and the spatial information at the current position and the target position of the robot arm 10 into the first trained model 43, and the trajectory information output from the first trained model 43. To get. In this embodiment, the trajectory generation unit 41 may acquire the detection result of the sensor 13 as the current state information of the robot arm 10, or may calculate the state information from the detection result, or the first. The state information may be specified by performing image analysis on the image data. The trajectory generation unit 41 stores the acquired trajectory information in the trajectory storage unit 46, and supplies the trajectory information to the robot control unit 45.

ステップS105において、ロボット制御部45は、供給される軌道情報に従ってロボットアーム10を制御し、ロボットアーム10を移動させる。すなわち、ロボット制御部45は、ロボットアーム10が軌道情報の示す軌道に沿って移動するようにロボットアーム10を制御する。このとき、センサ13の検知結果がロボットアーム10の制御に用いられてもよい。 In step S105, the robot control unit 45 controls the robot arm 10 according to the supplied trajectory information and moves the robot arm 10. That is, the robot control unit 45 controls the robot arm 10 so that the robot arm 10 moves along the trajectory indicated by the trajectory information. At this time, the detection result of the sensor 13 may be used for controlling the robot arm 10.

ステップS106において、ロボット制御部45は、ロボットアーム10の現在位置と目標位置とを比較することにより、ロボットアーム10が目標位置まで移動したかを判定する。現在位置と目標位置が一致する、又は現在位置と目標位置との差が閾値未満である場合、ロボット制御部45はロボットアーム10が目標位置に移動したと判定する。一方、現在位置と目標位置との差が閾値以上である場合、ロボット制御部45はロボットアーム10が目標位置まで移動していないと判定する。 In step S106, the robot control unit 45 determines whether the robot arm 10 has moved to the target position by comparing the current position of the robot arm 10 with the target position. When the current position and the target position match, or the difference between the current position and the target position is less than the threshold value, the robot control unit 45 determines that the robot arm 10 has moved to the target position. On the other hand, when the difference between the current position and the target position is equal to or greater than the threshold value, the robot control unit 45 determines that the robot arm 10 has not moved to the target position.

ロボットアーム10が目標位置まで移動した場合(ステップS106;YES)、情報処理装置40はステップS107の処理に進む。一方、目標位置まで移動していない場合(ステップS106;NO)、情報処理装置40は、ステップS101の処理に戻り、第1画像データを第1カメラ20から取得する。すなわち、情報処理装置40は、ステップS101〜S106の処理を、ロボットアーム10が目標位置に到達するまで所定の時間間隔で繰り返す。 When the robot arm 10 moves to the target position (step S106; YES), the information processing device 40 proceeds to the process of step S107. On the other hand, when it has not moved to the target position (step S106; NO), the information processing apparatus 40 returns to the process of step S101 and acquires the first image data from the first camera 20. That is, the information processing device 40 repeats the processes of steps S101 to S106 at predetermined time intervals until the robot arm 10 reaches the target position.

上述のように、ロボットアーム10が目標位置に移動するまで、ステップS101〜S106の処理が繰り返し実行される。すなわち、軌道生成部41は、ロボットアーム10が目標位置に移動するまで軌道情報の生成処理を繰り返し実行する。これらの処理が繰り返し実行されることにより、ロボットアーム10が障害物61及び障害物62に衝突しないような軌道で少しずつ移動していき、対象物50に近づいていく。 As described above, the processes of steps S101 to S106 are repeatedly executed until the robot arm 10 moves to the target position. That is, the trajectory generation unit 41 repeatedly executes the trajectory information generation process until the robot arm 10 moves to the target position. By repeatedly executing these processes, the robot arm 10 gradually moves in a trajectory that does not collide with the obstacle 61 and the obstacle 62, and approaches the object 50.

図4は、ロボットアーム10のエンドエフェクタ11の軌道を例示する図である。図4の例では、エンドエフェクタ11は、ロボット制御部45の制御に従い、障害物61及び障害物62に衝突しないように生成された軌道に沿って徐々に移動し、対象物50に近づいていく。軌道q11〜q19は、軌道生成部41により生成されるエンドエフェクタ11の軌道を示す。なお、図4においては、図面が煩雑になるのを防ぐため、エンドエフェクタ11の軌道のみを図示し、ロボットアーム10全体の軌道については図示を省略している。 FIG. 4 is a diagram illustrating the trajectory of the end effector 11 of the robot arm 10. In the example of FIG. 4, the end effector 11 gradually moves along the trajectory generated so as not to collide with the obstacle 61 and the obstacle 62 under the control of the robot control unit 45, and approaches the object 50. .. The orbits q11 to q19 indicate the orbits of the end effector 11 generated by the orbit generation unit 41. In FIG. 4, only the trajectory of the end effector 11 is shown, and the trajectory of the entire robot arm 10 is omitted in order to prevent the drawing from becoming complicated.

ロボットアーム10が目標位置に到達すると、制御に用いられる撮影画像が第1カメラ20の撮影画像から第2カメラ30の撮影画像に切り替えられ、ステップS107〜S110の処理が実行される。ステップS107において、第2カメラ30で撮影が行われ、第2カメラ30の第2画像データが情報処理装置40に供給される。 When the robot arm 10 reaches the target position, the captured image used for control is switched from the captured image of the first camera 20 to the captured image of the second camera 30, and the processes of steps S107 to S110 are executed. In step S107, shooting is performed by the second camera 30, and the second image data of the second camera 30 is supplied to the information processing device 40.

ステップS108において、処理動作生成部42は、ロボットアーム10の現在位置における状態情報、第2画像データ、及び第2学習済モデル44を用いて、処理動作情報を生成する。この実施形態では、処理動作生成部42は、ロボットアーム10の現在位置における状態情報、第2画像データを第2学習済モデル44に入力し、第2学習済モデル44から出力される処理動作情報を取得する。取得された処理動作情報はロボット制御部45に供給される。 In step S108, the processing motion generating unit 42 generates processing motion information using the state information at the current position of the robot arm 10, the second image data, and the second learned model 44. In this embodiment, the processing motion generation unit 42 inputs the state information and the second image data at the current position of the robot arm 10 into the second trained model 44, and the processing motion information output from the second trained model 44. To get. The acquired processing operation information is supplied to the robot control unit 45.

ステップS109において、ロボット制御部45は、供給される処理動作情報に従ってロボットアーム10、特にエンドエフェクタ11を制御し、ロボットアーム10に把持動作を行わせる。 In step S109, the robot control unit 45 controls the robot arm 10, particularly the end effector 11, according to the processing operation information supplied, and causes the robot arm 10 to perform a gripping operation.

ステップS110において、情報処理装置40は、ロボットアーム10が処理動作を完了したかを判定する。処理動作が完了した場合(ステップS110;YES)、情報処理装置40は図3の処理を終了する。一方、処理動作が完了していない場合(ステップS110;NO)、情報処理装置40は、ステップS107の処理に戻り、第2画像データを用いた処理動作制御を継続する。すなわち、ロボットアーム10の処理動作が完了するまで、情報処理装置40は所定の時間間隔でステップS107〜S109の処理を繰り返し実行する。これらの処理が繰り返し実行されることにより、ロボットアーム10が対象物50の把持動作を行う。 In step S110, the information processing device 40 determines whether the robot arm 10 has completed the processing operation. When the processing operation is completed (step S110; YES), the information processing apparatus 40 ends the processing of FIG. On the other hand, when the processing operation is not completed (step S110; NO), the information processing apparatus 40 returns to the processing in step S107 and continues the processing operation control using the second image data. That is, the information processing apparatus 40 repeatedly executes the processes of steps S107 to S109 at predetermined time intervals until the processing operation of the robot arm 10 is completed. By repeatedly executing these processes, the robot arm 10 performs a gripping operation of the object 50.

制御システム1が図3に示す処理を実行してロボットアーム10を制御することにより、ロボットアーム10が対象物50を把持する。ロボットアーム10が対象物50の把持動作を完了した後、ロボットアーム10は他の動作を実行してもよい。 The control system 1 executes the process shown in FIG. 3 to control the robot arm 10, so that the robot arm 10 grips the object 50. After the robot arm 10 completes the gripping motion of the object 50, the robot arm 10 may perform another motion.

例えば、ロボットアーム10は対象物50を他の場所に移動させる動作を実行してもよい。この場合、情報処理装置40のロボット制御部45は、軌道記憶部46に記憶された軌道情報を用いてロボットアーム10を制御し、ロボットアーム10に対象物50を把持させたまま、対象物50を移動させる。ロボット制御部45は例えば、軌道記憶部46に記憶された時系列の状態情報を逆順に読み出し、読み出した状態情報に従いロボットアーム10を制御することで、ロボットアーム10の状態を目標位置から初期位置まで戻す制御を行うことができる。 For example, the robot arm 10 may perform an operation of moving the object 50 to another place. In this case, the robot control unit 45 of the information processing device 40 controls the robot arm 10 by using the orbit information stored in the orbit storage unit 46, and the object 50 is held by the robot arm 10 while holding the object 50. To move. For example, the robot control unit 45 reads out the time-series state information stored in the trajectory storage unit 46 in the reverse order, and controls the robot arm 10 according to the read state information to change the state of the robot arm 10 from the target position to the initial position. It is possible to control the return to.

また、情報処理装置40は、新たな目標位置を設定し、ロボットアーム10の現在位置及び新たな目標位置における状態情報、第1画像データから取得した空間情報、及び第1学習済モデル43を利用して、新たな目標位置までの軌道情報を生成し、当該軌道情報に沿ってロボットアーム10を移動させてもよい。 Further, the information processing device 40 sets a new target position and uses the current position of the robot arm 10 and the state information at the new target position, the spatial information acquired from the first image data, and the first trained model 43. Then, the trajectory information to the new target position may be generated, and the robot arm 10 may be moved along the trajectory information.

本実施形態では、情報処理装置40は、第1カメラ20の撮影画像と第1学習済モデル43とを用いてロボットアーム10の軌道情報を生成するとともに、第2カメラ30の撮影画像と第2学習済モデル44とを用いてロボットアーム10の処理動作情報を生成する。このように軌道情報の生成と処理動作情報の生成とにおいて、それぞれに適した学習済モデル及び撮影画像を用いることで、軌道情報の生成の精度の向上及び処理動作情報の生成の精度の向上を両立させることができる。 In the present embodiment, the information processing apparatus 40 generates the trajectory information of the robot arm 10 by using the captured image of the first camera 20 and the first trained model 43, and also generates the captured image of the second camera 30 and the second. The processing operation information of the robot arm 10 is generated by using the trained model 44. In this way, by using trained models and captured images suitable for each of the generation of orbit information and the generation of processing operation information, the accuracy of orbit information generation and the accuracy of processing operation information generation can be improved. It can be compatible.

また、一般に、ロボットアーム10の処理動作制御は、ロボットアーム10の移動制御よりも細かい制御が必要となる。処理動作制御においては、数ミリ程度のわずかなずれが生じた場合であっても、ロボットアーム10が対象物50に衝突してしまい、対象物50にキズが付いてしまったり、対象物50が破損してしまったりするためである。本実施形態では、対象物50とエンドエフェクタ11との位置関係が所定の条件を満たすロボットアーム10の位置が目標位置とされ、ロボットアーム10が目標位置まで移動したときに、ロボットアーム10の制御が移動制御から処理動作制御に切り替えられる。このように、処理動作制御より粗い制御である移動制御を目標位置で終了することにより、エンドエフェクタ11と対象物50との接触を抑制することができる。また、目標位置から処理動作制御を開始することにより、第2カメラ30に確実に対象物50を撮影し、処理動作制御を実行することができる。 Further, in general, the processing operation control of the robot arm 10 requires finer control than the movement control of the robot arm 10. In the processing operation control, even if a slight deviation of about several millimeters occurs, the robot arm 10 collides with the object 50, the object 50 is scratched, or the object 50 is damaged. This is because it may be damaged. In the present embodiment, the position of the robot arm 10 in which the positional relationship between the object 50 and the end effector 11 satisfies a predetermined condition is set as the target position, and when the robot arm 10 moves to the target position, the robot arm 10 is controlled. Is switched from movement control to processing operation control. In this way, by terminating the movement control, which is coarser than the processing operation control, at the target position, it is possible to suppress the contact between the end effector 11 and the object 50. Further, by starting the processing operation control from the target position, the object 50 can be reliably photographed by the second camera 30 and the processing operation control can be executed.

また、従来は数学的な探索によりロボットアーム10の軌道情報が生成される場合があった。しかしながら、この場合、作業空間の次元に応じて計算量が指数関数的に増加して探索に時間がかかってしまうため、リアルタイムでの軌道情報の生成を行うことは困難であった。これに対し本実施形態では、情報処理装置40が第1学習済モデル43を用いて軌道情報の生成を行うことにより、短時間で軌道情報を生成することができる。そのため、ロボットアーム10のリアルタイムな軌道情報の生成が可能となる。すなわち、ロボットアーム10の移動中に障害物61や対象物50が移動する場合であっても、情報処理装置40がロボットアーム10の軌道情報をリアルタイムに更新することができる。 Further, conventionally, the trajectory information of the robot arm 10 may be generated by a mathematical search. However, in this case, it is difficult to generate orbital information in real time because the amount of calculation increases exponentially according to the dimension of the workspace and the search takes time. On the other hand, in the present embodiment, the information processing apparatus 40 can generate the orbit information in a short time by generating the orbit information using the first trained model 43. Therefore, real-time trajectory information of the robot arm 10 can be generated. That is, even when the obstacle 61 or the object 50 moves while the robot arm 10 is moving, the information processing device 40 can update the trajectory information of the robot arm 10 in real time.

また、この実施形態では、第1カメラ20が深度センサを備えることにより、軌道生成部41は、障害物61及び62に衝突しない軌道情報を精度よく生成することができる。 Further, in this embodiment, since the first camera 20 is provided with the depth sensor, the trajectory generating unit 41 can accurately generate trajectory information that does not collide with the obstacles 61 and 62.

また、1のカメラの撮影画像で軌道情報の生成と処理動作情報の生成を行う場合、深度センサを備えた高解像度のカメラを、作業空間を撮影可能な位置に設置する必要がある。このようなカメラは高価である。これに対して、この実施形態では、高価なカメラを利用することなく、2つの安価なカメラの組み合わせにより、軌道情報の生成と処理動作情報の生成を行うことができる。この結果、制御システム1を安価に構成することができる。 Further, when the trajectory information and the processing operation information are generated from the images captured by one camera, it is necessary to install a high-resolution camera equipped with a depth sensor at a position where the work space can be photographed. Such cameras are expensive. On the other hand, in this embodiment, it is possible to generate trajectory information and processing operation information by combining two inexpensive cameras without using an expensive camera. As a result, the control system 1 can be constructed at low cost.

〔実施形態3〕
本発明の他の実施形態を説明する。本実施形態が上述した実施形態2と異なる点は、情報処理装置40が行う、ロボットアーム10の目標位置の決定処理(図3のステップS103)の内容が異なる点である。なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the present invention will be described. The difference between this embodiment and the above-described second embodiment is that the content of the process of determining the target position of the robot arm 10 (step S103 in FIG. 3) performed by the information processing apparatus 40 is different. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the second embodiment, and the description will not be repeated.

この実施形態では、軌道生成部41は、対象物50と第2カメラ30の撮影方向との位置関係が所定の条件を満たすロボットアーム10の位置を目標位置として決定し、この目標位置までのロボットアーム10の軌道を示す軌道情報を生成する。この場合、軌道生成部41は例えば、第2カメラ30の撮影範囲に対象物50の一部又は全部が含まれる位置を目標位置として決定する。より具体的には例えば、軌道生成部41は、第2カメラ30の画角に対象物50全体が含まれるロボットアーム10の位置を目標位置として決定する。 In this embodiment, the trajectory generating unit 41 determines the position of the robot arm 10 in which the positional relationship between the object 50 and the shooting direction of the second camera 30 satisfies a predetermined condition as a target position, and the robot up to this target position. Generates trajectory information indicating the trajectory of the arm 10. In this case, the orbit generation unit 41 determines, for example, a position in which a part or all of the object 50 is included in the shooting range of the second camera 30 as a target position. More specifically, for example, the trajectory generation unit 41 determines the position of the robot arm 10 in which the entire object 50 is included in the angle of view of the second camera 30 as the target position.

この場合、情報処理装置40のロボット制御部45は、ロボットアーム10が目標位置まで移動したかの判定処理(図3のステップS106の処理)を、現在位置と目標位置との比較ではなく、例えば以下のようにして行ってもよい。ロボット制御部45は、第1カメラ20の撮影画像を解析することにより物体認識を行い、第1カメラ20の撮影画像に含まれる対象物50と第2カメラ30の撮影方向との位置関係を特定する。ロボット制御部45は、特定した位置関係が所定の条件を満たすかを判定する。特定した位置関係が所定の条件を満たす場合、ロボット制御部45はロボットアーム10が目標位置に移動したと判定する。一方、位置関係が所定の条件を満たしていない場合、ロボット制御部45はロボットアーム10が目標位置に移動していないと判定する。 In this case, the robot control unit 45 of the information processing device 40 does not perform the determination process of whether the robot arm 10 has moved to the target position (the process of step S106 of FIG. 3), but instead of comparing the current position with the target position, for example. You may do it as follows. The robot control unit 45 recognizes an object by analyzing the image captured by the first camera 20, and identifies the positional relationship between the object 50 included in the image captured by the first camera 20 and the photographing direction of the second camera 30. To do. The robot control unit 45 determines whether the specified positional relationship satisfies a predetermined condition. When the specified positional relationship satisfies a predetermined condition, the robot control unit 45 determines that the robot arm 10 has moved to the target position. On the other hand, when the positional relationship does not satisfy the predetermined condition, the robot control unit 45 determines that the robot arm 10 has not moved to the target position.

また、ロボットアーム10の目標位置の決定方法は上述の実施形態で示したものに限られず、他の手法が用いられてもよい。例えば、軌道生成部41は、第2カメラ30の撮影画像における対象物50の領域の割合が所定の条件を満たす位置を目標位置として決定してもよい。例えば、軌道生成部41は、第2カメラの撮影画像において対象物50が占める割合が50%以上となる位置を目標位置として決定する。 Further, the method for determining the target position of the robot arm 10 is not limited to that shown in the above-described embodiment, and other methods may be used. For example, the trajectory generation unit 41 may determine a position where the ratio of the region of the object 50 in the image captured by the second camera 30 satisfies a predetermined condition as a target position. For example, the trajectory generation unit 41 determines a position at which the ratio of the object 50 occupies 50% or more in the image captured by the second camera as the target position.

この場合、情報処理装置40のロボット制御部45は、ロボットアーム10が目標位置まで移動したかの判定処理(図3のステップS106の処理)を、現在位置と目標位置との比較ではなく、例えば以下のようにして行ってもよい。ロボット制御部45は、第1カメラ20の撮影画像を解析し、第1カメラ20の撮影画像に含まれる対象物50と第2カメラ30とを認識する。ロボット制御部45は、認識した対象物50と第2カメラ30との位置関係、第2カメラの撮影方向、及び第2カメラの画角等の情報を用いて、第2カメラの撮影画像において対象物50が占める割合を算出する。算出した割合が50%以上である場合、ロボット制御部45は、ロボットアーム10が目標位置に移動したと判定する。一方、算出した割合が50%未満である場合、ロボット制御部45は、ロボットアーム10が目標位置に移動していないと判定する。 In this case, the robot control unit 45 of the information processing device 40 does not perform the determination process of whether the robot arm 10 has moved to the target position (the process of step S106 of FIG. 3), but instead of comparing the current position with the target position, for example. You may do it as follows. The robot control unit 45 analyzes the captured image of the first camera 20 and recognizes the object 50 and the second camera 30 included in the captured image of the first camera 20. The robot control unit 45 uses information such as the positional relationship between the recognized object 50 and the second camera 30, the shooting direction of the second camera, the angle of view of the second camera, and the like to capture the target in the image captured by the second camera. The ratio occupied by the object 50 is calculated. When the calculated ratio is 50% or more, the robot control unit 45 determines that the robot arm 10 has moved to the target position. On the other hand, when the calculated ratio is less than 50%, the robot control unit 45 determines that the robot arm 10 has not moved to the target position.

この実施形態では、処理動作制御の開始時における、第2カメラ30による対象物50の所望の撮影状態に応じて、目標位置を決定することができる。これにより、処理動作制御をスムーズに実施することができる。 In this embodiment, the target position can be determined according to the desired shooting state of the object 50 by the second camera 30 at the start of the processing operation control. As a result, processing operation control can be smoothly performed.

〔実施形態4〕
次いで、本発明の他の実施形態を説明する。本実施形態が上述した実施形態2と異なる点は、情報処理装置40が行う、ロボットアーム10の目標位置の決定処理(図3のステップS103)の内容が異なる点である。なお、なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 4]
Next, other embodiments of the present invention will be described. The difference between this embodiment and the above-described second embodiment is that the content of the process of determining the target position of the robot arm 10 (step S103 in FIG. 3) performed by the information processing apparatus 40 is different. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the second embodiment, and the description will not be repeated.

この実施形態では、軌道生成部41は、対象物50の特性、対象物50に対してロボットアーム10が行う処理動作の種類、並びに、障害物61及び障害物62の位置のうちの少なくともいずれか一つを用いて、目標位置の決定方法を変更する。対象物50の特性は、対象物50の特徴又は性質であり、例えば対象物50のサイズ又は形状である。ロボットアーム10が行う処理動作は例えば、物品の把持、塗装、研磨、切削、穴あけ、又は組み付けである。この場合、軌道生成部41は例えば、対象物50の大きさが大きいほどエンドエフェクタ11と対象物50との距離の閾値が大きくなるように目標位置を決定してもよい。また、他の例として、軌道生成部41は、ロボットアーム10が行う処理動作の種類によって上記閾値や目標位置における対象物50に対するロボットアーム10の角度を異ならせてもよい。また、他の例として、軌道生成部41は、障害物61又は障害物62が対象物50の近くにある場合(対象物50と障害物61又は62との距離が所定の閾値以下である場合)に、対象物50と第2カメラ30との位置関係から目標位置を決定する一方、それ以外の場合に対象物50とエンドエフェクタ11との位置関係から目標位置を決定してもよい。 In this embodiment, the trajectory generating unit 41 has at least one of the characteristics of the object 50, the type of processing operation performed by the robot arm 10 on the object 50, and the positions of the obstacle 61 and the obstacle 62. Use one to change the method of determining the target position. The characteristic of the object 50 is a feature or property of the object 50, for example, the size or shape of the object 50. The processing operation performed by the robot arm 10 is, for example, gripping, painting, polishing, cutting, drilling, or assembling an article. In this case, for example, the trajectory generating unit 41 may determine the target position so that the larger the size of the object 50, the larger the threshold value of the distance between the end effector 11 and the object 50. Further, as another example, the trajectory generating unit 41 may make the angle of the robot arm 10 with respect to the object 50 at the threshold value or the target position different depending on the type of processing operation performed by the robot arm 10. Further, as another example, when the obstacle 61 or the obstacle 62 is near the object 50 (the distance between the object 50 and the obstacle 61 or 62 is equal to or less than a predetermined threshold value, the orbit generating unit 41 may be used. ), The target position may be determined from the positional relationship between the object 50 and the second camera 30, while the target position may be determined from the positional relationship between the object 50 and the end effector 11 in other cases.

この実施形態によれば、情報処理装置40は、例えば対象物50の大きさに適した目標位置を決定することができる。これにより、情報処理装置40はロボットアーム10の対象物50に対する処理動作の制御をスムーズに開始することができる。 According to this embodiment, the information processing apparatus 40 can determine a target position suitable for, for example, the size of the object 50. As a result, the information processing device 40 can smoothly start controlling the processing operation of the robot arm 10 with respect to the object 50.

〔実施形態5〕
図5は、本実施形態に係る制御システム1Aの概略構成を示すブロック図である。なお、説明の便宜上、上記実施形態2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 5]
FIG. 5 is a block diagram showing a schematic configuration of the control system 1A according to the present embodiment. For convenience of explanation, the same reference numerals will be added to the members having the same functions as the members described in the second embodiment, and the description will not be repeated.

図5に示す制御システム1Aが上述の実施形態2に係る制御システム1と異なる点は、第1カメラ20及び第2カメラ30に代えて、カメラ70を備える点、及び、情報処理装置40に代えて、情報処理装置40Aを備える点である。この実施形態において、カメラ70は、ロボットアーム10の作業空間を撮影する。カメラ70は、RGB画像及び深度画像を表す撮影データを出力する。 The control system 1A shown in FIG. 5 is different from the control system 1 according to the second embodiment in that the camera 70 is provided instead of the first camera 20 and the second camera 30, and the information processing device 40 is replaced. The point is that the information processing device 40A is provided. In this embodiment, the camera 70 photographs the working space of the robot arm 10. The camera 70 outputs shooting data representing an RGB image and a depth image.

情報処理装置40Aは、軌道生成部41及び処理動作生成部42に代えて、軌道生成部41A及び処理動作生成部42Aを備える。軌道生成部41Aは、状態情報、カメラ70の撮影データ、及び第1学習済モデル43を用いて軌道情報を生成する。また、処理動作生成部42Aは、状態情報、カメラ70の撮影データ、及び第2学習済モデル44を用いて、処理動作情報を生成する。このように、この実施形態では、ロボットアーム10の軌道情報の生成と処理動作情報の生成とにおいて、共通のカメラ70の撮影データが用いられる。 The information processing device 40A includes an orbit generation unit 41A and a processing operation generation unit 42A in place of the orbit generation unit 41 and the processing operation generation unit 42. The trajectory generation unit 41A generates trajectory information using the state information, the shooting data of the camera 70, and the first trained model 43. In addition, the processing operation generation unit 42A generates processing operation information using the state information, the shooting data of the camera 70, and the second trained model 44. As described above, in this embodiment, the shooting data of the common camera 70 is used in the generation of the trajectory information of the robot arm 10 and the generation of the processing operation information.

この実施形態では、軌道情報の生成と処理動作情報の生成とでそれぞれに適した学習済モデルが用いられる。これにより、軌道情報の生成及び処理動作情報の生成の両方の精度を向上させることができる。 In this embodiment, a trained model suitable for each of the generation of trajectory information and the generation of processing operation information is used. Thereby, the accuracy of both the generation of the trajectory information and the generation of the processing operation information can be improved.

(変形例)
上述の実施形態2では、第2カメラ30はロボットアーム10に設置されていたが、第2カメラ30が設置される位置は上述の実施形態で示したものに限られない。例えば、第2カメラ30は、ロボットアーム10以外のものに固定されていてもよい。また、第2カメラは、エンドエフェクタ11の端部に固定されていてもよい。この場合、第2カメラ30の撮影範囲にロボットアーム10(又はエンドエフェクタ11)が含まれていなくてもよい。
(Modification example)
In the above-described second embodiment, the second camera 30 is installed on the robot arm 10, but the position where the second camera 30 is installed is not limited to that shown in the above-described embodiment. For example, the second camera 30 may be fixed to something other than the robot arm 10. Further, the second camera may be fixed to the end portion of the end effector 11. In this case, the robot arm 10 (or the end effector 11) may not be included in the shooting range of the second camera 30.

上述の実施形態2では、軌道生成部41は、ロボットアーム10が現在位置から目標位置まで移動するまでの期間に亘って、軌道情報の生成処理を繰り返し実行した(図3のステップS104)。軌道生成部41は、軌道情報の生成処理を繰り返し実行することなく、ロボットアーム10の初期位置で1回だけ軌道情報の生成処理を行ってもよい。この場合、ロボット制御部45は、ロボットアーム10の初期位置で生成された軌道情報に従ってロボットアーム10を制御し、ロボットアーム10を目標位置まで徐々に移動させる制御を行う。 In the second embodiment described above, the trajectory generating unit 41 repeatedly executes the trajectory information generation process for a period from the current position to the target position of the robot arm 10 (step S104 in FIG. 3). The trajectory generation unit 41 may perform the trajectory information generation process only once at the initial position of the robot arm 10 without repeatedly executing the trajectory information generation process. In this case, the robot control unit 45 controls the robot arm 10 according to the trajectory information generated at the initial position of the robot arm 10, and controls the robot arm 10 to be gradually moved to the target position.

上述の各実施形態に係る情報処理装置40により実現される機能は、複数の装置により分担されて実現されてもよい。例えば、軌道生成部41及び処理動作生成部42を備える第1の装置と、ロボット制御部45を備える第2の装置とが別体の装置として構成されていてもよい。また、この場合において、複数の装置のうちの一部が、他の装置と通信ネットワークに接続されたいわゆるクラウドサーバであってもよい。 The functions realized by the information processing device 40 according to each of the above-described embodiments may be shared and realized by a plurality of devices. For example, the first device including the trajectory generation unit 41 and the processing motion generation unit 42 and the second device including the robot control unit 45 may be configured as separate devices. Further, in this case, a part of the plurality of devices may be a so-called cloud server connected to another device in a communication network.

〔ソフトウェアによる実現例〕
情報処理装置40の制御ブロック(特に、軌道生成部41、処理動作生成部42、及びロボット制御部45)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、情報処理装置40は、例えば、コンピュータ(電子計算機)を用いて構成される。
[Example of realization by software]
The control block of the information processing device 40 (particularly, the trajectory generation unit 41, the processing operation generation unit 42, and the robot control unit 45) is realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software. In the latter case, the information processing device 40 is configured by using, for example, a computer (electronic computer).

図6は、情報処理装置40として用いられるコンピュータの物理的構成を例示したブロック図である。情報処理装置40は、図6に示すように、バス410と、プロセッサ401と、主メモリ402と、補助メモリ403と、入出力インタフェース404とを備えたコンピュータによって構成可能である。プロセッサ401、主メモリ402、補助メモリ403、および入出力インタフェース404は、バス410を介して互いに接続されている。 FIG. 6 is a block diagram illustrating the physical configuration of a computer used as the information processing device 40. As shown in FIG. 6, the information processing device 40 can be configured by a computer including a bus 410, a processor 401, a main memory 402, an auxiliary memory 403, and an input / output interface 404. The processor 401, the main memory 402, the auxiliary memory 403, and the input / output interface 404 are connected to each other via the bus 410.

プロセッサ401としては、例えば、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。主メモリ402としては、例えば、半導体RAM(random access memory)等が用いられる。 As the processor 401, for example, a microprocessor, a digital signal processor, a microcontroller, or a combination thereof or the like is used. As the main memory 402, for example, a semiconductor RAM (random access memory) or the like is used.

補助メモリ403としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ403には、上述した情報処理装置40の動作をプロセッサ401に実行させるためのプログラムが格納されている。プロセッサ401は、補助メモリ403に格納されたプログラムを主メモリ402上に展開し、展開したプログラムに含まれる各命令を実行する。入出力インタフェース404としては、例えば、USBインタフェース、赤外線やBluetooth(登録商標)等の近距離通信インタフェース、またはこれらの組み合わせが用いられる。 As the auxiliary memory 403, for example, a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a combination thereof or the like is used. The auxiliary memory 403 stores a program for causing the processor 401 to execute the operation of the information processing device 40 described above. The processor 401 expands the program stored in the auxiliary memory 403 on the main memory 402, and executes each instruction included in the expanded program. As the input / output interface 404, for example, a USB interface, a short-range communication interface such as infrared rays or Bluetooth (registered trademark), or a combination thereof is used.

(まとめ)
本発明の態様1に係る情報処理装置は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成する軌道生成部と、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、を備える。
(Summary)
The information processing apparatus according to the first aspect of the present invention uses the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model, and the trajectory to be traced by the robot arm. Processing indicating the processing operation to be performed by the robot arm using the trajectory generating unit that generates the trajectory information indicating the above, the second image data generated by the second camera, the state information, and the second trained model. It includes a processing operation generation unit that generates operation information.

本発明の態様2に係る情報処理装置は、前記態様1において、前記軌道生成部は、前記ロボットアームが所定の目標位置まで移動するまで前記軌道情報の生成処理を繰り返し実行することとしてもよい。 In the information processing apparatus according to the second aspect of the present invention, in the first aspect, the orbit generation unit may repeatedly execute the orbit information generation process until the robot arm moves to a predetermined target position.

本発明の態様3に係る情報処理装置は、前記態様1又は2において、前記処理動作生成部が生成する処理動作情報は、前記軌道に沿って所定の目標位置まで移動した後に前記ロボットアームが行うべき処理動作を示す情報であることとしてもよい。 In the information processing apparatus according to the third aspect of the present invention, in the first or second aspect, the processing operation information generated by the processing operation generating unit is performed by the robot arm after moving to a predetermined target position along the trajectory. It may be information indicating the processing operation to be performed.

本発明の態様4に係る情報処理装置は、前記態様3において、前記軌道生成部は、前記ロボットアームの処理対象である対象物と該ロボットアームのエンドエフェクタとの位置関係が所定の条件を満たす前記ロボットアームの位置を前記目標位置として決定し、該目標位置までの前記ロボットアームの軌道を示す軌道情報を生成することとしてもよい。 In the information processing apparatus according to the fourth aspect of the present invention, in the third aspect, the orbit generating unit satisfies a predetermined condition in the positional relationship between the object to be processed by the robot arm and the end effector of the robot arm. The position of the robot arm may be determined as the target position, and trajectory information indicating the trajectory of the robot arm up to the target position may be generated.

本発明の態様5に係る情報処理装置は、前記態様4において、前記軌道生成部は、前記ロボットアームのエンドエフェクタから前記対象物までの距離が前記条件を満たす前記ロボットアームの位置を、前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the fifth aspect of the present invention, in the fourth aspect, the orbit generating unit sets the position of the robot arm at which the distance from the end effector of the robot arm to the object satisfies the condition. It may be determined as a position.

本発明の態様6に係る情報処理装置は、前記態様3において、前記第2カメラは、前記ロボットアームに設けられており、
前記軌道生成部は、前記ロボットアームの処理対象である対象物と前記第2カメラの撮影方向との位置関係が所定の条件を満たす前記ロボットアームの位置を目標位置として決定し、前記目標位置までの前記ロボットアームの軌道を示す軌道情報を生成することとしてもよい。
In the information processing apparatus according to the sixth aspect of the present invention, in the third aspect, the second camera is provided on the robot arm.
The trajectory generating unit determines the position of the robot arm whose positional relationship between the object to be processed by the robot arm and the shooting direction of the second camera satisfies a predetermined condition as a target position, and reaches the target position. It may be possible to generate trajectory information indicating the trajectory of the robot arm.

本発明の態様7に係る情報処理装置は、前記態様6において、前記軌道生成部は、前記第2カメラの撮影範囲に前記対象物の一部又は全部が含まれる位置を前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the seventh aspect of the present invention, in the sixth aspect, the orbit generating unit determines a position in which a part or all of the object is included in the photographing range of the second camera as the target position. It may be that.

本発明の態様8に係る情報処理装置は、前記態様7において、前記軌道生成部は、前記第2カメラが撮影する画像における前記対象物の領域の割合が所定の条件を満たす位置を前記目標位置として決定することとしてもよい。 In the information processing apparatus according to the eighth aspect of the present invention, in the seventh aspect, the orbit generating unit sets a position where the ratio of the region of the object in the image captured by the second camera satisfies a predetermined condition. It may be decided as.

本発明の態様9に係る情報処理装置は、前記態様4〜8において、前記軌道生成部は、前記対象物の特性、前記対象物に対して前記ロボットアームが行う処理動作の種類、及び障害物の位置のうちの少なくともいずれか一つを用いて、前記条件を変更することとしてもよい。 In the information processing apparatus according to the ninth aspect of the present invention, in the fourth to eighth aspects, the trajectory generating unit has the characteristics of the object, the type of processing operation performed by the robot arm on the object, and obstacles. The above condition may be changed by using at least one of the positions of.

本発明の態様10に係る情報処理装置は、前記態様1〜5において、前記第2カメラは、前記ロボットアームに設けられていることとしてもよい。 In the information processing apparatus according to the tenth aspect of the present invention, in the first to fifth aspects, the second camera may be provided on the robot arm.

本発明の態様11に係る情報処理装置は、前記態様1〜10において、前記第1カメラは深度センサを備え、前記第1画像データは深度を表す画像データを含むこととしてもよい。 In the information processing apparatus according to the eleventh aspect of the present invention, in the first to tenth aspects, the first camera may include a depth sensor, and the first image data may include image data representing the depth.

本発明の態様12に係る方法は、第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成するステップと、第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成するステップと、を情報処理装置が実行する方法である。 The method according to aspect 12 of the present invention uses the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model to indicate the trajectory to be traced by the robot arm. Using the step of generating trajectory information, the second image data generated by the second camera, the state information, and the second trained model, processing operation information indicating the processing operation to be performed by the robot arm is generated. This is a method in which the information processing apparatus executes the steps to be performed.

本発明の態様13に係るプログラムは、上述の情報処理装置としてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させるためのプログラムである。 The program according to the thirteenth aspect of the present invention is a program for operating a computer as the above-mentioned information processing device, and is a program for operating the computer as each of the above-mentioned parts.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の学習プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device according to each aspect of the present invention may be realized by a computer. In this case, the information processing device is made into a computer by operating the computer as each part (software element) included in the information processing device. The learning program of the information processing device to be realized and the computer-readable recording medium on which the information processing device is recorded are also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

1、1A 制御システム
10 ロボットアーム
40、40A 情報処理装置
11 エンドエフェクタ
12 関節
13 センサ
20 第1カメラ
30 第2カメラ
41、41A 軌道生成部
42、42A 処理動作生成部
43 第1学習済モデル
44 第2学習済モデル
45 ロボット制御部
46 軌道記憶部
50 対象物
61、62 障害物
70 カメラ
401 プロセッサ
402 主メモリ
403 補助メモリ
404 入出力インタフェース
410 バス
1, 1A Control system 10 Robot arm 40, 40A Information processing device 11 End effector 12 Joint 13 Sensor 20 First camera 30 Second camera 41, 41A Orbit generation unit 42, 42A Processing motion generation unit 43 First trained model 44 2 Learned model 45 Robot control unit 46 Orbit storage unit 50 Objects 61, 62 Obstacles 70 Camera 401 Processor 402 Main memory 403 Auxiliary memory 404 I / O interface 410 Bus

Claims (13)

第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成する軌道生成部と、
第2カメラにより生成された第2画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成する処理動作生成部と、
を備える情報処理装置。
A trajectory generator that generates trajectory information indicating the trajectory to be traced by the robot arm using the first image data generated by the first camera, state information regarding the state of the robot arm, and the first trained model.
Using the second image data generated by the second camera, the state information, and the second trained model, a processing motion generation unit that generates processing motion information indicating the processing motion to be performed by the robot arm, and a processing motion generating unit.
Information processing device equipped with.
前記軌道生成部は、前記ロボットアームが所定の目標位置に移動するまで前記軌道情報の生成処理を繰り返し実行する、
請求項1に記載の情報処理装置。
The trajectory generating unit repeatedly executes the trajectory information generation process until the robot arm moves to a predetermined target position.
The information processing device according to claim 1.
前記処理動作生成部が生成する処理動作情報は、前記軌道に沿って所定の目標位置まで移動した後に前記ロボットアームが行うべき処理動作を示す情報である、
請求項1又は2に記載の情報処理装置。
The processing operation information generated by the processing operation generating unit is information indicating the processing operation to be performed by the robot arm after moving to a predetermined target position along the trajectory.
The information processing device according to claim 1 or 2.
前記軌道生成部は、前記ロボットアームの処理対象である対象物と該ロボットアームのエンドエフェクタとの位置関係が所定の条件を満たす前記ロボットアームの位置を前記目標位置として決定し、該目標位置までの前記ロボットアームの軌道を示す軌道情報を生成する、
請求項3に記載の情報処理装置。
The trajectory generating unit determines the position of the robot arm as the target position in which the positional relationship between the object to be processed by the robot arm and the end effector of the robot arm satisfies a predetermined condition, and reaches the target position. Generates trajectory information indicating the trajectory of the robot arm of
The information processing device according to claim 3.
前記軌道生成部は、前記ロボットアームのエンドエフェクタから前記対象物までの距離が前記条件を満たす前記ロボットアームの位置を、前記目標位置として決定する、
請求項4に記載の情報処理装置。
The trajectory generating unit determines the position of the robot arm whose distance from the end effector of the robot arm to the object satisfies the condition as the target position.
The information processing device according to claim 4.
前記第2カメラは、前記ロボットアームに設けられており、
前記軌道生成部は、前記ロボットアームの処理対象である対象物と前記第2カメラの撮影方向との位置関係が所定の条件を満たす前記ロボットアームの位置を目標位置として決定し、前記目標位置までの前記ロボットアームの軌道を示す軌道情報を生成する、
請求項3に記載の情報処理装置。
The second camera is provided on the robot arm.
The trajectory generating unit determines the position of the robot arm whose positional relationship between the object to be processed by the robot arm and the shooting direction of the second camera satisfies a predetermined condition as a target position, and reaches the target position. Generates trajectory information indicating the trajectory of the robot arm of
The information processing device according to claim 3.
前記軌道生成部は、前記第2カメラの撮影範囲に前記対象物の一部又は全部が含まれる位置を前記目標位置として決定する、
請求項6に記載の情報処理装置。
The orbit generating unit determines a position in which a part or all of the object is included in the shooting range of the second camera as the target position.
The information processing device according to claim 6.
前記軌道生成部は、前記第2カメラが撮影する画像における前記対象物の領域の割合が所定の条件を満たす位置を前記目標位置として決定する、
請求項7に記載の情報処理装置。
The trajectory generating unit determines a position where the ratio of the region of the object in the image captured by the second camera satisfies a predetermined condition as the target position.
The information processing device according to claim 7.
前記軌道生成部は、前記対象物の特性、前記対象物に対して前記ロボットアームが行う処理動作の種類、及び障害物の位置のうちの少なくともいずれか一つを用いて、前記条件を変更する、
請求項4〜8のいずれか1項に記載の情報処理装置。
The trajectory generator changes the conditions by using at least one of the characteristics of the object, the type of processing operation performed by the robot arm on the object, and the position of the obstacle. ,
The information processing device according to any one of claims 4 to 8.
前記第2カメラは、前記ロボットアームに設けられている、
請求項1〜5のいずれか1項に記載の情報処理装置。
The second camera is provided on the robot arm.
The information processing device according to any one of claims 1 to 5.
前記第1カメラは深度センサを備え、前記第1画像データは深度を表す画像データを含む、
請求項1〜10のいずれか1項に記載の情報処理装置。
The first camera includes a depth sensor, and the first image data includes image data representing the depth.
The information processing device according to any one of claims 1 to 10.
第1カメラにより生成された第1画像データ、ロボットアームの状態に関する状態情報、及び第1学習済モデルを用いて、前記ロボットアームがトレースすべき軌道を示す軌道情報を生成するステップと、
第2カメラにより生成された第2の画像データ、前記状態情報、及び第2学習済モデルを用いて、前記ロボットアームが行うべき処理動作を示す処理動作情報を生成するステップと、
を情報処理装置が実行する方法。
Using the first image data generated by the first camera, the state information regarding the state of the robot arm, and the first trained model, a step of generating trajectory information indicating the trajectory to be traced by the robot arm, and
Using the second image data generated by the second camera, the state information, and the second trained model, a step of generating processing operation information indicating the processing operation to be performed by the robot arm, and a step of generating processing operation information.
How the information processing device executes.
請求項1から11のいずれか1項に記載の情報処理装置としてコンピュータを機能させるためのプログラムであって、前記各部としてコンピュータを機能させるためのプログラム。 A program for operating a computer as the information processing device according to any one of claims 1 to 11, and for operating the computer as each part.
JP2019224624A 2019-12-12 2019-12-12 Information processing equipment, methods and programs Active JP6792230B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019224624A JP6792230B1 (en) 2019-12-12 2019-12-12 Information processing equipment, methods and programs
PCT/JP2020/043675 WO2021117479A1 (en) 2019-12-12 2020-11-24 Information processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019224624A JP6792230B1 (en) 2019-12-12 2019-12-12 Information processing equipment, methods and programs

Publications (2)

Publication Number Publication Date
JP6792230B1 JP6792230B1 (en) 2020-11-25
JP2021091067A true JP2021091067A (en) 2021-06-17

Family

ID=73452896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019224624A Active JP6792230B1 (en) 2019-12-12 2019-12-12 Information processing equipment, methods and programs

Country Status (2)

Country Link
JP (1) JP6792230B1 (en)
WO (1) WO2021117479A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7375587B2 (en) * 2020-02-05 2023-11-08 株式会社デンソー Trajectory generation device, multi-link system, and trajectory generation method
CN113119073A (en) * 2021-04-16 2021-07-16 中国科学技术大学 Mechanical arm system based on computer vision and machine learning and oriented to 3C assembly scene

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05318363A (en) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd Method for controlling robot
JPH08212329A (en) * 1995-02-06 1996-08-20 Fujitsu Ltd Adaptive recognition system
JP2007245326A (en) * 2006-02-17 2007-09-27 Toyota Motor Corp Robot, and robot control method
WO2018146770A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2019508273A (en) * 2016-03-03 2019-03-28 グーグル エルエルシー Deep-layer machine learning method and apparatus for grasping a robot
JP2019509905A (en) * 2016-03-03 2019-04-11 グーグル エルエルシー Deep machine learning method and apparatus for robot gripping
JP2019155554A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Control device of robot

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05318363A (en) * 1992-05-21 1993-12-03 Sanyo Electric Co Ltd Method for controlling robot
JPH08212329A (en) * 1995-02-06 1996-08-20 Fujitsu Ltd Adaptive recognition system
JP2007245326A (en) * 2006-02-17 2007-09-27 Toyota Motor Corp Robot, and robot control method
JP2019508273A (en) * 2016-03-03 2019-03-28 グーグル エルエルシー Deep-layer machine learning method and apparatus for grasping a robot
JP2019509905A (en) * 2016-03-03 2019-04-11 グーグル エルエルシー Deep machine learning method and apparatus for robot gripping
WO2018146770A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2019155554A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Control device of robot

Also Published As

Publication number Publication date
JP6792230B1 (en) 2020-11-25
WO2021117479A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
US11045949B2 (en) Deep machine learning methods and apparatus for robotic grasping
US10946515B2 (en) Deep machine learning methods and apparatus for robotic grasping
CN104936748B (en) Free-hand robot path teaching
JP5949242B2 (en) Robot system, robot, robot control apparatus, robot control method, and robot control program
JP5647155B2 (en) Body feature detection and human pose estimation using inner distance shape relation
WO2021117479A1 (en) Information processing device, method, and program
CN114097004A (en) Autonomous task performance based on visual embedding
WO2020190166A1 (en) Method and system for grasping an object by means of a robotic device
CN111085997A (en) Capturing training method and system based on point cloud acquisition and processing
JP2008000884A (en) Evaluating visual proto-object for robot interaction
JP7458741B2 (en) Robot control device and its control method and program
JP6075888B2 (en) Image processing method, robot control method
Ottenhaus et al. Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning
JP7359577B2 (en) Robot teaching device and robot system
Teke et al. Real-time and robust collaborative robot motion control with Microsoft Kinect® v2
CN112805127A (en) Method and apparatus for creating robot control program
JP7376318B2 (en) annotation device
RU2756437C1 (en) Method and system for planning the movement of a manipulator robot by correcting the reference trajectories
Xu et al. A fast and straightforward hand-eye calibration method using stereo camera
WO2023286138A1 (en) Robot control system, robot system, robot control method, and robot control program
WO2024023934A1 (en) Workpiece removal device, workpiece removal method, and control device
KR20230175122A (en) Method for controlling a robot for manipulating, in particular picking up, an object
JP2021091070A (en) Robot control device
Park et al. Robot-based Object Pose Auto-annotation System for Dexterous Manipulation
Saremi et al. How effective are meta-heuristics for recognising hand gestures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200804

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200804

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200819

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6792230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250