JP2018051652A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2018051652A
JP2018051652A JP2016188102A JP2016188102A JP2018051652A JP 2018051652 A JP2018051652 A JP 2018051652A JP 2016188102 A JP2016188102 A JP 2016188102A JP 2016188102 A JP2016188102 A JP 2016188102A JP 2018051652 A JP2018051652 A JP 2018051652A
Authority
JP
Japan
Prior art keywords
scene
robot
derived
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016188102A
Other languages
Japanese (ja)
Other versions
JP6640060B2 (en
Inventor
敬介 藤本
Keisuke Fujimoto
敬介 藤本
宣隆 木村
Nobutaka Kimura
宣隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016188102A priority Critical patent/JP6640060B2/en
Publication of JP2018051652A publication Critical patent/JP2018051652A/en
Application granted granted Critical
Publication of JP6640060B2 publication Critical patent/JP6640060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system which allows an operator to show working motion to a robot, so that the robot which has a mechanism different from an operator can achieve motion which the operator intends to achieve, even in an environment different from an environment at the time when the robot is taught.SOLUTION: A robot system according to one embodiment of the invention memorizes a plurality of kinds of original scenes, combinations of operation information on a robot and information on an object, and memorizes a plurality of derived scenes derived from the original scenes, associating the derived scenes with the original scenes; when operating the robot according to teaching motion of an operator measured by a measuring portion, firstly selects an original scene most similar to the teaching motion of the operator and teaching information constituted from kinds of objects out of the plurality of kinds of original scenes; subsequently selects a derived scene most similar in position and size to a measured object out of derived scenes derived from the selected scene; and operates the robot on the basis of operation information included in the selected derived scene.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットにオペレータのタスクを教示するためのシステム及び方法に関する。   The present invention relates to a system and method for teaching an operator task to a robot.

ロボットによる自動化は製造・搬送など広い分野で行われている。ロボットで所定の作業を自動化する場合は、その動作の手順をロボットに教示する作業が必要であり、これは通常はオペレータによって事前に行われている。   Automation by robots is performed in a wide range of fields such as manufacturing and transportation. In order to automate a predetermined work with a robot, a work for teaching the robot the procedure of the operation is necessary, and this is usually performed in advance by an operator.

ロボットに動作を教示する方法として、ティーチングプレイバックによる方法がある。ティーチングプレイバックとは、ロボットの各関節角度の動作手順を予めオペレータが教えておき、ロボットは自動動作時に、その手順を再現するものである。しかしながら、ティーチングプレイバックでの教示は、各関節の動作を一つ一つ入力する事となり、教示のコストが高い。   There is a teaching playback method as a method of teaching the robot the operation. Teaching playback is an operation in which the operator teaches the operation procedure of each joint angle of the robot in advance, and the robot reproduces the procedure during automatic operation. However, teaching by teaching playback involves inputting the motion of each joint one by one, and the cost of teaching is high.

これに対し、特許文献1に、オペレータの動作と同様の動作をロボットに簡易に教示できる方法が開示されている。特許文献1に記載のロボット制御システムは、カメラ等の教示情報取得手段を用いてオペレータの動作を取得し、取得した手指の位置(座標)情報をロボットハンドの関節角度情報に変換することで、ロボットハンド教示データを作成する。そして作成されたロボットハンド教示データに基づいて、ロボットハンドを駆動する。   On the other hand, Patent Document 1 discloses a method that can easily teach the robot the same operation as the operation of the operator. The robot control system described in Patent Document 1 acquires the operation of the operator using teaching information acquisition means such as a camera, and converts the acquired finger position (coordinate) information into joint angle information of the robot hand, Create robot hand teaching data. Based on the created robot hand teaching data, the robot hand is driven.

特開2011-110620号公報JP 2011-110620 A

特許文献1に開示されている方法によれば、ロボットとオペレータの機構が異なっていても、オペレータの動作を正しくロボットに伝えることができる。ただし、ロボットが取り扱う作業対象物の位置や大きさが変化した場合には、それに合わせてロボット動作を変更する必要がある。   According to the method disclosed in Patent Document 1, even if the mechanisms of the robot and the operator are different, the operation of the operator can be correctly transmitted to the robot. However, if the position or size of the work object handled by the robot changes, it is necessary to change the robot operation accordingly.

そのため、対象物の位置や大きさが変わるたびに、変更された対象物に対するオペレータの動作をロボットに教示する必要があるので、非常に多くの種類のオペレータ動作を教示させる必要が出る。   For this reason, every time the position or size of the target object changes, it is necessary to teach the robot the operator's action on the changed target object. Therefore, it is necessary to teach a very large number of types of operator actions.

本発明の目的は、教示時と異なる環境であっても、オペレータの意図する動作をロボットに実現させる方法を提供する事にある。   An object of the present invention is to provide a method for causing a robot to realize an operation intended by an operator even in an environment different from that at the time of teaching.

本発明の一実施形態に係るロボットシステムは、オペレータの教示動作を計測する動作計測部と、オペレータまたはロボットが操作する対象物の種類、位置、大きさを計測する対象物計測部と、ロボットの動作情報と対象物の情報の組であるシーンを複数種類記憶したシーン記憶部と、シーンから派生した複数の派生シーンを、シーンに対応付けて記憶した派生シーン記憶部と、シーン記憶部の中から1つのシーンを取得するシーン選択部と、派生シーン記憶部の中から1つの派生シーンを取得する派生シーン選択部と、派生シーンに含まれている動作情報に基づいて前記ロボットを動作させるロボット動作実行部とを有する。ここで、派生シーンに含まれる対象物の情報は、派生シーンの対応付けられているシーンに含まれる対象物の位置や大きさを変化させたもので、派生シーンに含まれるロボットの動作情報は、派生シーンに含まれる対象物を操作するための動作情報である。   A robot system according to an embodiment of the present invention includes an operation measuring unit that measures a teaching operation of an operator, an object measuring unit that measures the type, position, and size of an object operated by the operator or the robot, A scene storage unit that stores a plurality of types of scenes that are sets of motion information and object information, a derived scene storage unit that stores a plurality of derived scenes derived from a scene in association with the scene, and a scene storage unit A scene selection unit that acquires one scene from the scene, a derived scene selection unit that acquires one derived scene from the derived scene storage unit, and a robot that operates the robot based on operation information included in the derived scene And an operation execution unit. Here, the information on the target object included in the derived scene is obtained by changing the position and size of the target object included in the scene associated with the derived scene. This is operation information for operating an object included in the derived scene.

オペレータの教示動作に従ってロボットを動作させる際、シーン選択部がシーン記憶部に記憶された複数のシーンの中から、オペレータの教示動作及び対象物の種類から成る教示情報との類似度が最も高いシーンを選択する。そして派生シーン選択部が、シーン選択部が選択したシーンから派生した派生シーンのうち、計測された前記対象物の位置・大きさと類似度が最も高い派生シーンを選択する。そして選択された派生シーンに含まれている動作情報に基づいて、ロボット動作実行部はロボットを動作させる。   When the robot is operated in accordance with the operator's teaching operation, the scene having the highest similarity with the teaching information of the operator's teaching operation and the type of the object among the plurality of scenes stored in the scene storage unit by the scene selection unit Select. The derivation scene selection unit selects a derivation scene having the highest measured position / size and similarity among the derivation scenes derived from the scene selected by the scene selection unit. Based on the motion information included in the selected derived scene, the robot motion execution unit operates the robot.

本発明によれば、オペレータがロボットに作業の動作を見せることで、オペレータと異なる機構を持つロボットが、教示時と異なる環境であっても、オペレータの意図する動作を実現することが可能となる。   According to the present invention, it is possible for the robot having a mechanism different from that of the operator to realize the operation intended by the operator even in an environment different from that at the time of teaching by showing the operation of the operation to the robot. .

実施例1に係るロボットシステムの機能構成図である。1 is a functional configuration diagram of a robot system according to Embodiment 1. FIG. ロボットシステムの物理的な構成を示す図である。It is a figure which shows the physical structure of a robot system. ロボットを動作させる際の手順の概要を説明する図である。It is a figure explaining the outline | summary of the procedure at the time of operating a robot. 計測部の説明図である。It is explanatory drawing of a measurement part. シーン選択部の概要を説明する図である。It is a figure explaining the outline | summary of a scene selection part. 派生シーン作成部の概要を説明する図である。It is a figure explaining the outline | summary of the derived scene preparation part. 派生シーン選択部の概要を説明する図である。It is a figure explaining the outline | summary of the derived scene selection part. シーン追加部が提供するインタフェースの例である。It is an example of the interface which a scene addition part provides. ロボット動作選択部の概要を説明する図である。It is a figure explaining the outline | summary of a robot operation | movement selection part. 動作修正部の概要を説明する図である。It is a figure explaining the outline | summary of an operation correction part. 動作修正部によるロボット動作の修正方法の例である。It is an example of the correction method of the robot operation | movement by an operation correction part. 衝突回避部の概要を説明する図である。It is a figure explaining the outline | summary of a collision avoidance part. 動作更新部の概要を説明する図である。It is a figure explaining the outline | summary of an operation | movement update part. 実施例2に係るロボットシステムの機能構成図である。FIG. 6 is a functional configuration diagram of a robot system according to a second embodiment. 実施例3に係るロボットシステムの機能構成図である。FIG. 9 is a functional configuration diagram of a robot system according to a third embodiment.

以下、本発明の実施形態について説明するが、最初に本発明の概要を説明する。本発明の一実施形態に係るロボットシステムは、予めロボットの動作に関する情報をデータベースに登録しておき、オペレータの動作をロボットに教示する際に、データベースからオペレータの動作と最も近いロボット動作を選択する事で、一度の教示のみで、オペレータと同様の動作をロボットに実行させる。   Hereinafter, embodiments of the present invention will be described. First, an outline of the present invention will be described. A robot system according to an embodiment of the present invention registers information related to robot operations in advance in a database, and selects the robot operation closest to the operator's operation from the database when teaching the operator's operation to the robot. In this way, the robot performs the same operation as the operator with only one teaching.

ここで、教示したオペレータ動作に最も近いデータベース上のロボット動作の情報を選択する際には、オペレータ動作とロボット動作がどの程度似ているか、という類似性を求める必要がある。しかし、オペレータ動作とロボット動作は、形状や機構の違う異質のものであるため、直接両者の類似性を計算する事はできない。これに対し、従来の機械学習方法を用い、上記対応関係の事例のサンプルを事前に与える事により、類似度の計算方法を推定することができ、新たなオペレータ動作が教示情報として入力されたときにも、データベースから最も近いデータを選択することが可能となる。   Here, when selecting the robot motion information on the database closest to the taught operator motion, it is necessary to determine the similarity between the operator motion and the robot motion. However, since the operator motion and the robot motion are different in shape and mechanism, the similarity between them cannot be directly calculated. On the other hand, by using a conventional machine learning method and giving a sample of the above correspondence example in advance, the similarity calculation method can be estimated, and when a new operator action is input as teaching information In addition, it is possible to select the closest data from the database.

ただし、機械学習で、上記対応関係を推定するためには十分な数のサンプルを収集する必要があるが、多種多様な動作を教示可能とするためには、ロボット動作の種類・対象物・大きさ・位置など様々な条件を全てデータベースに登録しておき、それらを網羅できる程の大量の対応関係の事例サンプルを作っておく必要がある。一般には、人動作サンプルを集めるのは大きなコストがかかり、また、あらゆる環境の状態を事前に用意しておくのは難しい。すなわち、オペレータ動作とロボット動作の対応関係を機械学習で推定し対象物の形状と操作方法を認識したうえで、対象物の操作方法が既知であれば多少の環境変化が起きても動作を修正する等の動作修正手法を用いるのみでは、あらゆる形状・位置・大きさの対象物に関するサンプルを収集する必要がありコストが大きいという課題がある。   However, in machine learning, it is necessary to collect a sufficient number of samples in order to estimate the correspondence, but in order to be able to teach a wide variety of motions, the types, objects, and sizes of robot motions It is necessary to register all the various conditions such as position and location in the database, and to create a large number of correspondence examples that can cover them. In general, collecting human motion samples is expensive and it is difficult to prepare all environmental conditions in advance. In other words, the correspondence between the operator movement and the robot movement is estimated by machine learning, the shape of the object and the operation method are recognized, and if the operation method of the object is known, the movement is corrected even if some environmental changes occur Only by using the operation correction method such as performing the above, there is a problem that it is necessary to collect samples regarding objects of all shapes, positions, and sizes, which is expensive.

本発明の一実施形態に係るロボットシステムは、オペレータ動作とロボット動作の対応付けは、ロボット動作・作業対象物に関する代表的な事例(本明細書においては、これを「シーン」と呼ぶ)についてのみ行うこととし、シーンに対して対象物の位置や大きさなどの詳しい情報を追加した、より具体的な事例(本明細書においてはこれを「派生シーン」と呼ぶ)はシミュレーションで作成しておき、環境の状態に応じて選択することとする。   In the robot system according to the embodiment of the present invention, the association between the operator action and the robot action is only for a typical case (referred to as a “scene” in this specification) related to the robot action / work object. A more specific example (referred to as a “derived scene” in this specification) in which detailed information such as the position and size of the object is added to the scene is created by simulation. , And select according to the state of the environment.

例えば、把持を対象とした場合には、シーンに関するデータベースには、対象物の掴み方(上から掴む、横から掴む、両手で掴む等)、対象物の形状の種類(角柱、球体、円柱等)に関する情報のみがあらかじめ登録される。ただし、対象物の形状の種類が少ない場合など、学習コストが大きくならない場合は、位置や大きさの情報がシーンに追加されていても良い。シーンに位置・大きさの情報も追加すると、当該シーンと後に示す派生シーンとの差異が少なくなるため、派生シーンにおけるロボット動作の計算が容易になる。   For example, in the case of grasping as a target, the database relating to the scene includes a method of grasping the object (gripping from above, grasping from the side, grasping with both hands, etc.), type of object shape (rectangular column, sphere, cylinder, etc.) Only information related to) is registered in advance. However, when the learning cost does not increase, such as when there are few types of object shapes, position and size information may be added to the scene. If the position / size information is also added to the scene, the difference between the scene and a derived scene to be described later is reduced, so that the robot motion in the derived scene can be easily calculated.

派生シーンに関するデータベースには、上記シーンに対し対象物の位置や大きさも含んだ情報、それに応じたロボットの動作手順が登録される。このようにすることで、前述のオペレータ動作とロボット動作の対応関係を算出するために必要な事例のサンプルは、掴み方と形状の種類に関する2条件のみとなり、サンプル収集コストは少なくて済む。また、条件数が減ることにより類似度の算出精度も高くなる。さらに派生シーンは、環境の状態に応じ、対象物の位置・大きさの差異に基づき選択される。ここで、実際にロボットの動作する環境内における対象物の位置や大きさなどの情報と、派生シーンに記録されている情報との類似度は、ともに空間内における形状の一致度を求めればよく、容易に計算が可能である。   In the database relating to the derived scene, information including the position and size of the object with respect to the scene, and the operation procedure of the robot corresponding to the information are registered. By doing in this way, the sample of the example necessary for calculating the correspondence relationship between the operator motion and the robot motion described above is only two conditions regarding the gripping method and the shape type, and the sample collection cost can be reduced. In addition, the accuracy of calculating the similarity increases as the number of conditions decreases. Furthermore, the derived scene is selected based on the difference in the position and size of the object according to the state of the environment. Here, for the similarity between the information such as the position and size of the target object in the environment where the robot actually operates and the information recorded in the derived scene, the degree of coincidence of the shapes in the space may be obtained. Easy calculation is possible.

本発明の一実施形態に係るロボットシステムは、オペレータによる教示動作と類似したロボット動作を選択するために、ロボット動作・作業対象物の代表的な事例(シーン)と、その具体的な事例(派生シーン)を別々にデータベースに登録しておき、選択処理を、オペレータ動作と最も近いシーンの選択、実環境と最も近い派生シーンの選択に分けることとした。これにより、オペレータの動作とロボットの動作という質の異なる動作の類似度の計算処理と、計算の容易な対象物の位置・大きさの比較という形状に関する一致度の比較の処理を分けることができ、人動作とロボット動作の対応関係の算出のために必要となる事例サンプル数を抑えつつ、あらゆる状況下でのロボット動作が可能となる。   A robot system according to an embodiment of the present invention includes a representative example (scene) of a robot operation / work object and a specific example (derivation) in order to select a robot operation similar to a teaching operation by an operator. Scenes) are separately registered in the database, and the selection process is divided into selection of the scene closest to the operator action and selection of the derived scene closest to the actual environment. As a result, it is possible to separate the similarity calculation processing of the different motions of the operator's motion and the robot motion and the processing of comparing the degree of coincidence of the shape such as the comparison of the position / size of the object that is easy to calculate. This makes it possible to operate the robot in any situation while suppressing the number of example samples required for calculating the correspondence between the human motion and the robot motion.

以下、図面を用いて本発明の一実施例について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、実施例1に係るロボットシステムの機能構成図である。まず、動作計測部100はオペレータの動作を計測するためのもので、対象物計測部101は操作対象となる物品を計測するためのものである。そして環境計測部102はロボットの動作時に、周囲の状況を計測するためのものである。   FIG. 1 is a functional configuration diagram of the robot system according to the first embodiment. First, the motion measuring unit 100 is for measuring an operator's motion, and the object measuring unit 101 is for measuring an article to be operated. The environment measuring unit 102 is for measuring surrounding conditions when the robot is operating.

シーン記憶部103には、予めロボット動作・作業対象物の代表的な事例(シーン)を記憶しておく。本実施例における一例においては、対象物をどのように把持するかなどの操作方法の情報と操作対象物の形状事例を記録しておく。形状の事例はロボットの操作方法に関わる形状の種類で分類すれば良い。例えば、形状の種類に応じて3種類の握り方がある場合は、3種類のシーンを用意しておけばよい。   The scene storage unit 103 stores in advance typical cases (scenes) of robot operation / work objects. In an example in the present embodiment, information on an operation method such as how to hold an object and shape examples of the operation object are recorded. Shape examples may be classified according to the type of shape related to the operation method of the robot. For example, if there are three types of gripping methods according to the type of shape, three types of scenes may be prepared.

シーン選択部104は、シーン記憶部103に格納されているシーンの中から、動作計測部100の計測したオペレータ動作と対象物計測部101の計測した対象物の種類との組み合わせ(これを「教示情報」と呼ぶ)と最も類似するシーンを選択する。シーンに記録されている情報はロボットの操作方法(ロボット動作)についての情報であるため、シーン選択部104は、オペレータ動作とロボット動作という、異なる種類の情報の類似性を求める必要がある。そのため本実施例に係るロボットシステムでは、オペレータ動作とロボット動作の対応関係を学習部115によってあらかじめ学習させておき、シーン選択部104はそれに基づいてシーンの選択を行う。詳細は後述する。   The scene selection unit 104 selects a combination of the operator action measured by the action measurement unit 100 and the type of the object measured by the object measurement unit 101 from the scenes stored in the scene storage unit 103 (this is “teach” The most similar scene is selected. Since the information recorded in the scene is information about the operation method (robot operation) of the robot, the scene selection unit 104 needs to obtain the similarity between different types of information, that is, the operator operation and the robot operation. Therefore, in the robot system according to the present embodiment, the learning unit 115 learns the correspondence between the operator motion and the robot motion in advance, and the scene selection unit 104 selects a scene based on the learned relationship. Details will be described later.

派生シーン作成部105は、シーン記憶部103に記憶されたシーンの派生シーンを作成するための機能ブロックである。通常、1つのシーンに対して複数の派生シーンが作成される。「派生シーン」とは、元のシーンに記録されている対象物の位置や大きさを変化させたものである。また派生シーンには、位置や大きさを変化させた対象物を適切に操作できるためのロボット動作方法が対応付けられている。作成された派生シーンは、派生シーン記憶部106に記憶される。   The derived scene creation unit 105 is a functional block for creating a derived scene of the scene stored in the scene storage unit 103. Usually, a plurality of derived scenes are created for one scene. A “derived scene” is a scene in which the position and size of an object recorded in the original scene are changed. The derived scene is associated with a robot operation method for appropriately operating the object whose position and size are changed. The created derived scene is stored in the derived scene storage unit 106.

派生シーン選択部108は、対象物計測部101で計測した対象物の形状と、派生シーン記憶部106に記憶されている対象物の形状を比較することで、ロボットが実際に動作する環境(以下ではこれを「実環境」と呼ぶ)に最も近い派生シーンを選択する。   The derived scene selection unit 108 compares the shape of the object measured by the object measurement unit 101 with the shape of the object stored in the derived scene storage unit 106, so that the environment in which the robot actually operates (hereinafter referred to as the environment) Then, this is called “real environment”).

本実施例に係るロボットシステムは、派生シーン選択部108によって選択された派生シーンに基づいて、ロボット動作実行部112がロボットの手や指を駆動させることで、オペレータの教示した動作通りに、ロボットを動作させる。なお、オペレータが教示動作を行った環境と、ロボットの置かれている環境は必ずしも一致しないこともある。その場合派生シーンに記録されているロボット動作の修正を行う必要があるため、ロボットシステムは以下に説明するロボット動作選択部109、動作修正部110、衝突回避部111を有していてもよい。   In the robot system according to the present embodiment, the robot motion execution unit 112 drives the robot's hands and fingers based on the derived scene selected by the derived scene selection unit 108, so that the robot performs according to the operation taught by the operator. To work. Note that the environment in which the operator performs the teaching operation may not always match the environment in which the robot is placed. In this case, since it is necessary to correct the robot motion recorded in the derived scene, the robot system may include a robot motion selection unit 109, a motion correction unit 110, and a collision avoidance unit 111 described below.

ロボット動作選択部109は、派生シーン選択部108によって選択された派生シーンに2種類以上のロボット動作が対応付けられて記録されていた場合に、環境全体の状況からどちらの動作が適切かを選択する。選択基準として、より安定動作する関節角や、より短い軌跡を選択するなどが挙げられる。   The robot motion selection unit 109 selects which operation is appropriate from the situation of the entire environment when two or more types of robot motions are recorded in association with the derived scene selected by the derived scene selection unit 108. To do. Selection criteria include selecting a more stable joint angle or a shorter trajectory.

動作修正部110は、実環境下の対象物の位置・大きさと、派生シーンに記憶されている対象物の位置が異なっていた場合に、実環境下の対象物の位置・大きさに合わせてロボット動作を修正する。修正方法としては、上述の線形補間などが用いられると良い。   When the position / size of the target object in the real environment differs from the position of the target object stored in the derived scene, the motion correcting unit 110 matches the position / size of the target object in the real environment. Correct the robot movement. As a correction method, the above-described linear interpolation or the like is preferably used.

衝突回避部111は、環境計測部102の計測した周囲の環境の状態から、ロボットが周囲の存在物に衝突しないように動作の軌跡を変更する。たとえば衝突回避部111はロボットの手を対象物に到達させるまでの経路および、手先以外の腕の形状を変更する。ロボット動作実行部112は、ロボット動作選択部109、動作修正部110、衝突回避部111によって修正されたロボット動作情報に基づいて、ロボットを制御する。たとえばロボット動作実行部112はロボットに対し、各関節の角度を変更する命令群を発行し、ロボットはこれを受けて動作する。   The collision avoidance unit 111 changes the movement trajectory from the state of the surrounding environment measured by the environment measurement unit 102 so that the robot does not collide with surrounding objects. For example, the collision avoidance unit 111 changes the path until the robot's hand reaches the target and the shape of the arm other than the hand. The robot motion execution unit 112 controls the robot based on the robot motion information corrected by the robot motion selection unit 109, the motion correction unit 110, and the collision avoidance unit 111. For example, the robot operation execution unit 112 issues a command group for changing the angle of each joint to the robot, and the robot operates in response to this.

シーン追加部107・派生シーン追加部113は、シーン・派生シーンを作成し、作成されたシーン・派生シーンをシーン記憶部103・派生シーン記憶部106に追加するための機能ブロックである。たとえば、新たな種類の動作を記録したシーンを追加したい場合や、ロボット動作の結果として未学習の状況が発生した場合に用いられる。本実施例では、シーン(派生シーン)の作成(追加)は、ロボットシステムのユーザ(オペレータ)によって行われるため、シーン追加部107(派生シーン追加部113)は、オペレータがシーンを構成する情報を作成するために用いるユーザインタフェース(たとえばグラフィカルユーザインタフェース)をオペレータに提供する。   The scene addition unit 107 and the derived scene addition unit 113 are functional blocks for creating a scene / derived scene and adding the created scene / derived scene to the scene storage unit 103 / derived scene storage unit 106. For example, it is used when it is desired to add a scene in which a new type of motion is recorded or when an unlearned situation occurs as a result of the robot motion. In this embodiment, since the creation (addition) of the scene (derived scene) is performed by the user (operator) of the robot system, the scene adding unit 107 (derived scene adding unit 113) displays information that the operator configures the scene. A user interface (eg, a graphical user interface) used to create is provided to the operator.

ロボットシステムのユーザはシーン追加部107を用いて、作成対象のロボット動作の情報及びその動作によって操作される対象物品の情報を作成し、シーン記憶部103に記憶する。対象の物品はCADツール等によって作成され、それに対するロボットの動作についての情報は、ロボットシミュレーターのツールを用いて設定される。また、ロボットの動作の設定後、ロボットシステムのユーザは作成したシーンに対し、このシーンに対応するオペレータ動作の情報(教示情報)を対応付け、対応付けたシーンと教示情報の組を対応記憶部114に記憶させ、対応記憶部114に記憶した全学習データについて、再度機械学習を行わせる。   The user of the robot system uses the scene addition unit 107 to create information on the robot operation to be created and information on the target article operated by the operation, and stores the information in the scene storage unit 103. The target article is created by a CAD tool or the like, and information on the robot's operation with respect to the article is set using a robot simulator tool. Further, after setting the robot operation, the user of the robot system associates the created scene with operator operation information (teaching information) corresponding to the scene, and sets the associated scene and teaching information as a correspondence storage unit. The machine learning is performed again on all the learning data stored in 114 and stored in the correspondence storage unit 114.

派生シーン追加部113は、所定のシーンに対して、新たな対象物の位置・大きさとなる派生シーンを追加する。追加の際は、対象物の位置・大きさ情報を入力とし、派生シーン作成部105に渡すことで、派生シーン作成部105は、当該対象物に対するロボット動作を算出することで派生シーンを作成し、派生シーン記憶部106に追加する。   The derived scene adding unit 113 adds a derived scene that becomes the position / size of a new object to a predetermined scene. At the time of addition, the position / size information of the object is input and passed to the derived scene creation unit 105, so that the derived scene creation unit 105 creates a derived scene by calculating the robot motion for the object. To the derived scene storage unit 106.

図2は本実施例のロボットシステムの物理的な構成を示す図である。本実施例のロボットシステムは、プロセッサ1400、メモリ1401、補助記憶装置1402、通信インタフェース1403、入力インタフェース1404、出力インタフェース1405を有する計算機1410と、センシングデバイス1406を有する。なお、図2では「インタフェース」を「I/F」と略記している。また本明細書においても、「インタフェース」を「I/F」と略記することがある。   FIG. 2 is a diagram illustrating a physical configuration of the robot system according to the present embodiment. The robot system according to this embodiment includes a processor 1400, a memory 1401, an auxiliary storage device 1402, a communication interface 1403, an input interface 1404, an output interface 1405, and a sensing device 1406. In FIG. 2, “interface” is abbreviated as “I / F”. Also in this specification, “interface” may be abbreviated as “I / F”.

プロセッサ1400は、メモリ1401に格納されたプログラムを実行する。メモリ1401は不揮発性の記憶装置であるROMおよび揮発性のRAMを含む。ROMは、不変のプログラム(例えばBIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような揮発性の記憶装置であり、プロセッサ1400が実行するプログラム及びプログラムの実行時に使用するデータを一時的に格納する。   The processor 1400 executes a program stored in the memory 1401. The memory 1401 includes a ROM that is a nonvolatile storage device and a volatile RAM. The ROM stores an invariant program (for example, BIOS). The RAM is a volatile storage device such as a DRAM (Dynamic Random Access Memory), and temporarily stores a program executed by the processor 1400 and data used when the program is executed.

補助記憶装置1402は、大容量かつ不揮発性の記憶装置であり、プロセッサ1400が実行するプログラム及びプログラムの実行時に使用されるデータ(例えば、シーンや派生シーンなど)を格納する。すなわち、プログラムは、補助記憶装置1402から読み出されて、メモリ1401にロードされて、プロセッサ1400によって実行される。補助記憶装置1402には例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、あるいはSolid State Drive(SSD)等の不揮発性半導体メモリを用いた記憶デバイスが用いられる。   The auxiliary storage device 1402 is a large-capacity non-volatile storage device, and stores a program executed by the processor 1400 and data (for example, a scene and a derived scene) used when the program is executed. That is, the program is read from the auxiliary storage device 1402, loaded into the memory 1401, and executed by the processor 1400. As the auxiliary storage device 1402, for example, a magnetic storage device such as a hard disk drive (HDD) or a storage device using a nonvolatile semiconductor memory such as Solid State Drive (SSD) is used.

本実施例に係るロボットシステムでは、メモリ1401にロードされたプログラムがプロセッサ1400に実行されることによって、計算機1410及びセンシングデバイス1406を、図1で説明した動作計測部100、対象物計測部101、環境計測部102、シーン記憶部103、シーン選択部104、派生シーン作成部105、派生シーン記憶部106、シーン追加部107、派生シーン選択部108、ロボット動作選択部109、動作修正部110、衝突回避部111、ロボット動作実行部112、派生シーン追加部113、対応記憶部114、学習部115として機能させる。また、シーン記憶部103、派生シーン記憶部106、対応記憶部114がシーン等の情報を記憶する記憶領域には、補助記憶装置1402の有する記憶領域が用いられる。   In the robot system according to the present embodiment, a program loaded in the memory 1401 is executed by the processor 1400, so that the computer 1410 and the sensing device 1406 are connected to the motion measuring unit 100, the object measuring unit 101, and the like described in FIG. Environment measurement unit 102, scene storage unit 103, scene selection unit 104, derived scene creation unit 105, derived scene storage unit 106, scene addition unit 107, derived scene selection unit 108, robot motion selection unit 109, motion correction unit 110, collision The avoidance unit 111, the robot operation execution unit 112, the derived scene addition unit 113, the correspondence storage unit 114, and the learning unit 115 function. The storage area of the auxiliary storage device 1402 is used as a storage area in which the scene storage unit 103, the derived scene storage unit 106, and the correspondence storage unit 114 store information such as scenes.

通信インタフェース1403は、所定のプロトコルに従って、他の装置との通信を行うインタフェース装置である。インタフェース装置はEthernet、USB、RS−232Cなどの通信が可能なポートであり、例えばEthernetであればTCP通信、UDP通信などを使い、装置間で通信を行う。またロボットシステムは、通信インタフェース1403を介してインターネット等の広域ネットワーク1420に接続可能に構成されていてもよい。その場合ロボットシステムは、データセンタ1100などの大容量記憶手段を有する拠点からデータをダウンロードしたり、逆に自身の有するデータをデータセンタ1100にアップロードしてもよい。   The communication interface 1403 is an interface device that communicates with other devices according to a predetermined protocol. The interface device is a port capable of communication such as Ethernet, USB, and RS-232C. For example, in the case of Ethernet, communication is performed between devices using TCP communication, UDP communication, or the like. The robot system may be configured to be connectable to a wide area network 1420 such as the Internet via the communication interface 1403. In that case, the robot system may download data from a base having a large-capacity storage means such as the data center 1100, or conversely upload data held by itself to the data center 1100.

入力インタフェース1404は、ロボットシステムのユーザ(オペレータ)が使用するキーボード16やマウス17などの入力デバイスを接続するためのインタフェースデバイスである。出力インタフェース1405は、ディスプレイ19等の表示用デバイスを接続するためのインタフェースデバイスである。ロボットシステムは入力インタフェース1404を通してシーン作成や追加学習等のオペレータからの入力を受け付け、出力インタフェース1405を通して処理結果などをディスプレイ19に表示する。   The input interface 1404 is an interface device for connecting input devices such as a keyboard 16 and a mouse 17 used by a user (operator) of the robot system. The output interface 1405 is an interface device for connecting a display device such as the display 19. The robot system accepts input from an operator such as scene creation and additional learning through the input interface 1404, and displays the processing result on the display 19 through the output interface 1405.

センシングデバイス1406は、オペレータによる教示動作を計測するための、また対象物や周囲環境等の計測を行うためのデバイスで、図1を用いて説明した動作計測部100、対象物計測部101、環境計測部102を構成するデバイスである。センシングデバイス1406は例えばカメラ、モーションセンサ、レーザ距離センサ等のデバイスである。ただし、物品の位置や大きさ、或いは動作を計測できるデバイスであれば、任意のデバイスがセンシングデバイス1406に用いられて良い。   The sensing device 1406 is a device for measuring a teaching operation by an operator and measuring an object, an ambient environment, and the like. The sensing device 1406 is an operation measuring unit 100, an object measuring unit 101, an environment described with reference to FIG. It is a device constituting the measurement unit 102. The sensing device 1406 is a device such as a camera, a motion sensor, or a laser distance sensor. However, any device may be used for the sensing device 1406 as long as the device can measure the position, size, or operation of the article.

なおロボットシステムにはセンシングデバイス1406が複数含まれていてよい。あるいはロボットシステムには複数種類のセンシングデバイス1406が含まれていてよく、たとえばセンシングデバイス1406としてカメラとモーションセンサを有していてよい。ロボットシステムは通信インタフェース1403を介して、センシングデバイス1406の情報を取得しつつ、ロボット1407に対して制御命令を送信する。   The robot system may include a plurality of sensing devices 1406. Alternatively, the robot system may include a plurality of types of sensing devices 1406. For example, the sensing device 1406 may include a camera and a motion sensor. The robot system transmits a control command to the robot 1407 while acquiring information of the sensing device 1406 via the communication interface 1403.

ロボットシステムの物理構成は、必ずしも図2に示された構成に限定されない。たとえば図2では、計算機1410が1台だけ示されているが、複数の計算機からロボットシステムが構成されていてもよい。あるいは、計算機1410内の構成要素がロボット1407に組み込まれていて、ロボット1407が以下に説明するロボットシステムの各機能を実行するように構成されていてもよい。さらに、センシングデバイス1406もロボット内に組み込まれていてもよい。   The physical configuration of the robot system is not necessarily limited to the configuration shown in FIG. For example, in FIG. 2, only one computer 1410 is shown, but a robot system may be composed of a plurality of computers. Alternatively, the components in the computer 1410 may be incorporated in the robot 1407, and the robot 1407 may be configured to execute each function of the robot system described below. Further, the sensing device 1406 may be incorporated in the robot.

次に、本実施例に係るロボットシステムが上で述べた各機能ブロックを用いてロボットを動作させる際の手順を、図3を用いて概説する。   Next, the procedure when the robot system according to the present embodiment operates the robot using the functional blocks described above will be outlined with reference to FIG.

本実施例に係るロボットシステムにおいて、ロボットを動作させるための工程には大きく分けて、教示工程1200と動作工程1201の2つがある。教示工程1200は、動作計測部100と対象物計測部101が、オペレータ1202が実施する教示動作(どのような操作対象物をどのように操作しているか)を計測し、計測結果をもとにロボットに実行させる動作(ロボット動作)を決定する。図3では一例として、対象物1203をオペレータ1202が片手で把持する動作が計測される例を示している。ただし動作の種類は、動作計測部100が計測できる動作であれば、把持に限定されない。   In the robot system according to the present embodiment, the process for operating the robot is roughly divided into two processes, a teaching process 1200 and an operation process 1201. In the teaching process 1200, the motion measuring unit 100 and the object measuring unit 101 measure a teaching operation (how an operation object is operated and how) performed by the operator 1202, and based on the measurement result. Determine the action (robot action) to be executed by the robot. FIG. 3 shows an example in which an operation in which the operator 1202 holds the object 1203 with one hand is measured as an example. However, the type of motion is not limited to gripping as long as the motion measurement unit 100 can measure.

オペレータ1202の教示動作が計測されると、シーン選択部104はシーン記憶部103に記憶されているシーンの中から、計測されたオペレータ1202の動作と対象物1203の組み合わせに最も似たシーンを選択する。続いて派生シーン選択部108が、選択されたシーンに対応付けられた(複数の)派生シーンを、派生シーン記憶部106の中から抽出する。そして派生シーン選択部108は、抽出された各派生シーンに記録されている対象物の位置・大きさと、計測された対象物1203の位置・大きさとを比較し、計測された対象物1203との位置・大きさが最も類似する対象物が記録されている派生シーンを選択する。ここまでが教示工程1200で行われる処理である。   When the teaching operation of the operator 1202 is measured, the scene selection unit 104 selects a scene most similar to the combination of the measured operation of the operator 1202 and the object 1203 from the scenes stored in the scene storage unit 103. To do. Subsequently, the derived scene selection unit 108 extracts (a plurality of) derived scenes associated with the selected scene from the derived scene storage unit 106. Then, the derived scene selection unit 108 compares the position / size of the object recorded in each extracted derived scene with the position / size of the measured object 1203, and compares the measured object 1203 with the measured object 1203. A derived scene in which an object having the most similar position and size is recorded is selected. This is the process performed in the teaching process 1200.

派生シーンが選択されると、ロボットシステムは次にロボットの動作工程1201を行う。動作工程1201では、選択された派生シーンを基に、ロボット1204が駆動される。たとえばロボット動作実行部112はロボットに対し、選択された派生シーンに記録されているロボット動作についての情報から、ロボットを実際に動かすための命令群(各関節の角度を変更する命令等)を作成してロボット1204に発行する。ロボット1204は受け取った命令群に基づいて動作する。このような工程が行われることで、本実施例に係るロボットシステムでは、オペレータの教示した動作通りに、リアルタイムにロボット1204が動作する。   When the derived scene is selected, the robot system next performs an operation step 1201 of the robot. In the operation step 1201, the robot 1204 is driven based on the selected derived scene. For example, the robot motion execution unit 112 creates a group of commands (such as a command to change the angle of each joint) for actually moving the robot from the information about the robot motion recorded in the selected derivative scene. And issued to the robot 1204. The robot 1204 operates based on the received command group. By performing such a process, in the robot system according to the present embodiment, the robot 1204 operates in real time according to the operation taught by the operator.

なおロボット動作実行部112がロボット1204を動作させる際、対象物計測部101がロボットの操作対象である対象物1205の詳細な位置を認識し、動作修正部110はそれに基づいて、派生シーンに記録されているロボット動作の情報(把持時の軌道等)を修正してもよい。さらに衝突回避部111環境計測部102の計測結果を基にロボットの腕が環境内の存在物1206と衝突しないように、ロボット動作の変更を行わせてもよい。   When the robot operation execution unit 112 operates the robot 1204, the object measurement unit 101 recognizes the detailed position of the object 1205 that is the operation target of the robot, and the operation correction unit 110 records it in the derived scene based on the position. Information on the robot operation being performed (such as a trajectory during gripping) may be corrected. Further, the robot operation may be changed so that the arm of the robot does not collide with the presence object 1206 in the environment based on the measurement result of the environment avoidance unit 111 environment measurement unit 102.

続いて各機能ブロックの詳細を説明する。まず、主に教示工程で用いられる各機能ブロックの説明を行う。   Next, details of each functional block will be described. First, each functional block used mainly in the teaching process will be described.

図4に計測部(動作計測部100、対象物計測部101、環境計測部102)について示す。動作計測部100はオペレータ200の動作を計測し、シーン選択部104等にオペレータ200の動作情報を渡す。動作計測部100を構成するセンシングデバイスとしては、モーションセンサやカメラなど、オペレータ200の動作を計測できるデバイスが用いられるとよい。   FIG. 4 shows the measurement units (the motion measurement unit 100, the object measurement unit 101, and the environment measurement unit 102). The motion measurement unit 100 measures the motion of the operator 200 and passes the motion information of the operator 200 to the scene selection unit 104 or the like. As a sensing device that constitutes the motion measurement unit 100, a device that can measure the motion of the operator 200, such as a motion sensor or a camera, may be used.

対象物計測部101は、オペレータ200の操作対象となる対象物201、ロボットの操作対象となる対象物201をそれぞれ計測する。対象物計測部101により計測された情報は、シーン選択部104、派生シーン選択部108、動作修正部110等に渡される。対象物計測部101を構成するセンシングデバイスとしては、カメラやレーザ距離センサ等の対象物201の位置や姿勢、形状が計測できるものが用いられるとよい。なお、実環境において、対象物201のみでなくその周囲の形状も一緒に計測されてしまう場合は、ICPアルゴリズムやテンプレートマッチング等により、対象物201のみを抽出する事としてもよい。   The object measurement unit 101 measures the object 201 that is an operation target of the operator 200 and the object 201 that is an operation target of the robot. Information measured by the object measuring unit 101 is passed to the scene selection unit 104, the derived scene selection unit 108, the operation correction unit 110, and the like. As a sensing device constituting the object measuring unit 101, a device capable of measuring the position, posture, and shape of the object 201 such as a camera or a laser distance sensor may be used. In the actual environment, when not only the object 201 but also the surrounding shape are measured together, only the object 201 may be extracted by an ICP algorithm, template matching, or the like.

環境計測部102は環境202の形状を計測し、環境202の形状情報を衝突回避部111等に渡す。環境計測部102を構成するセンシングデバイスとしては、カメラやレーザ距離センサ等の、周囲環境の形状が計測できるものが用いられるとよい。   The environment measurement unit 102 measures the shape of the environment 202 and passes the shape information of the environment 202 to the collision avoidance unit 111 and the like. As a sensing device constituting the environment measuring unit 102, a device capable of measuring the shape of the surrounding environment such as a camera or a laser distance sensor may be used.

動作計測部100、対象物計測部101、環境計測部102を構成するセンシングデバイスには、それぞれ異なるデバイスが用いられてもよい。その他の構成例として、動作計測部100のみモーションセンサ、対象物計測部101と環境計測部102が一つの形状計測センサとする場合や、全てを一つの形状計測センサとする場合などが挙げられる。1つのセンシングデバイスを2種類以上の計測部として機能させる場合は、センシングデバイスから得られたセンサ情報から、必要な情報(例えば対象物の情報や周囲環境の情報)を抽出または分離するための手段が設けられるとよい。   Different devices may be used as the sensing devices constituting the motion measurement unit 100, the object measurement unit 101, and the environment measurement unit 102, respectively. Other configuration examples include a case where only the motion measurement unit 100 is a motion sensor, the object measurement unit 101 and the environment measurement unit 102 are one shape measurement sensor, or a case where all are one shape measurement sensor. In a case where one sensing device functions as two or more types of measuring units, a means for extracting or separating necessary information (for example, information on an object or information on the surrounding environment) from sensor information obtained from the sensing device Should be provided.

対象物計測部101と環境計測部102の機能を1つのセンシングデバイスにより実現する場合は、上記に述べたように環境202内から対象物201をテンプレートマッチングやICPアルゴリズム等で抽出すれば良い。さらに1つのセンシングデバイスを動作計測部100としても機能させる場合は、センサ情報から人物情報を抜き出し、オペレータ200の動作として抽出する手段が設けられると良い。抽出方法としては、既存の人物認識手法を利用すればよい。さらに、シーン選択部104において、オペレータ200の動作を陽に計測せずとも、環境202・対象物201・オペレータ200の外観画像のみで、シーンと対応付けられる場合は、オペレータ200の教示動作の計測において分類せずともよい。   When the functions of the object measurement unit 101 and the environment measurement unit 102 are realized by a single sensing device, the object 201 may be extracted from the environment 202 by template matching, an ICP algorithm, or the like as described above. Further, when one sensing device also functions as the motion measuring unit 100, it is preferable to provide means for extracting person information from the sensor information and extracting it as the motion of the operator 200. As the extraction method, an existing person recognition method may be used. Furthermore, in the scene selection unit 104, even if the operation of the operator 200 is not explicitly measured, if only the appearance image of the environment 202, the object 201, and the operator 200 is associated with the scene, the teaching operation of the operator 200 is measured. It is not necessary to classify in.

またロボットシステムは2つの対象物計測部101を有していてもよい。その場合、一方の対象物計測部101は、オペレータが教示動作を実施する際にオペレータが操作(把持など)する対象物(本明細書ではこれを「教示対象物」と呼ぶ)を計測するために用いられ、もう一方の対象物計測部101は、ロボットが実行動作を行う時にロボットが操作すべき対象物(本明細書ではこれを「操作対象物」と呼ぶ)を観測するために用いられる。   The robot system may have two object measuring units 101. In that case, one object measuring unit 101 measures an object (hereinafter referred to as “teaching object”) that is operated (gripped or the like) by the operator when the operator performs the teaching operation. The other object measuring unit 101 is used for observing an object to be operated by the robot when the robot performs an execution operation (referred to as an “operation object” in this specification). .

図5にシーン選択部104の行う処理の概要を示す。シーン選択部104は、動作計測部100と対象物計測部101によって計測されたオペレータ300の動作および対象物301の形状に最も近いシーンをシーン記憶部103内から選択する。シーンは、対象物301の種類(形状)および対象物301に対するロボットの操作方法(ロボット動作)を対にして記録したもので、シーン記憶部103には複数のシーンが記録されているものとする。   FIG. 5 shows an outline of processing performed by the scene selection unit 104. The scene selection unit 104 selects from the scene storage unit 103 the scene closest to the operation of the operator 300 and the shape of the target object 301 measured by the motion measurement unit 100 and the target object measurement unit 101. The scene is recorded by pairing the type (shape) of the object 301 and the operation method (robot operation) of the robot with respect to the object 301, and a plurality of scenes are recorded in the scene storage unit 103. .

シーン(または派生シーン)をシーン記憶部103等に記憶する際、対象物の形状やロボット動作を何らかの形式の情報に変換して記憶する必要があるが、この情報の形式には、任意の形式が採用されてよい。本実施例における一例では、対象物の形状はCADデータによって表現され、ロボットによる操作方法(ロボット動作)としては、対象物の表面上のどの位置にどの程度の力を加えるかの情報、およびアームを伸ばす際の関節角の設定値が記録されているものとする。なお、シーンに含まれる対象物の情報としては、対象物の種類(形状)を特定可能な情報が含まれているだけで良いが、対象物の位置や大きさが含まれていてもよい。本実施例では特に断りがない限り、シーンには対象物の位置や大きさが含まれている前提で説明する。   When a scene (or a derived scene) is stored in the scene storage unit 103 or the like, it is necessary to convert the shape of the object and the robot operation into information of some form and store the information. May be adopted. In one example of the present embodiment, the shape of the object is expressed by CAD data, and as an operation method (robot operation) by the robot, information on how much force is applied to which position on the surface of the object, and an arm It is assumed that the set value of the joint angle when extending is recorded. The information on the target object included in the scene only needs to include information that can specify the type (shape) of the target object, but may include the position and size of the target object. In this embodiment, the scene will be described on the assumption that the position and size of the object are included unless otherwise specified.

シーン選択部104が、計測されたオペレータ300の動作に最も近いロボット動作の情報を選択する際には、オペレータ300の動作とロボット動作がどの程度似ているか、という類似性を求める必要がある。しかし、オペレータ300の動作とロボット動作は、形状や機構の違い等、質が異なるため、直接両者の類似性を直接差分によって計算する事はできない。   When the scene selection unit 104 selects information on the robot motion that is closest to the measured motion of the operator 300, it is necessary to determine the similarity of how similar the motion of the operator 300 is to the robot motion. However, since the operation of the operator 300 and the robot operation have different qualities such as differences in shape and mechanism, the similarity between the two cannot be directly calculated by the difference.

そこで本実施例に係るロボットシステムでは、機械学習によって質の異なる両対象の対応関係を解決する。具体的にはロボットシステムでは、事前にオペレータ300の動作・対象物301の計測結果(教示情報)とシーンの対応事例を対応記憶部114に格納しておき、教示情報を入力データ、シーンを教師データとした分類問題として、学習部115に学習させておく。機械学習方法としてはSVM、Boosting、Neural Network等の手法を用いれば良い。また、質の異なる2種の対応関係を解決する手法であれば機械学習を用いずとも良い。   Therefore, in the robot system according to the present embodiment, the correspondence between both objects having different qualities is solved by machine learning. Specifically, in the robot system, the operation result of the operator 300 and the measurement result (teaching information) of the object 301 and the corresponding case of the scene are stored in the correspondence storage unit 114 in advance, the teaching information is input data, and the scene is the teacher. The learning unit 115 learns the classification problem as data. As a machine learning method, a method such as SVM, Boosting, Neural Network may be used. In addition, machine learning may not be used as long as it is a technique for solving two types of correspondence relationships having different qualities.

入力として与える計測結果の種類としては、オペレータ300の手指の関節角および対象物の形状、あるいは空間全体の画像データなどが挙げられる。前者の場合、モーションセンサや対象物のみの切り出しが必要となるが、入力データの次元が低いため、学習サンプル数を低減できる。後者のように画像のみから学習を行う場合は、計測部をカメラ一つにまとめ、分類をする必要がないが、学習に用いるサンプル数が大きくなる。   The types of measurement results given as input include the joint angle of the finger of the operator 300 and the shape of the object, or image data of the entire space. In the former case, it is necessary to cut out only the motion sensor and the object, but the number of learning samples can be reduced because the dimension of the input data is low. When learning is performed only from an image as in the latter case, it is not necessary to combine the measurement units into one camera for classification, but the number of samples used for learning increases.

オペレータは学習指示部1000を用いて、教示情報とそれに対応するロボット動作の情報を対応付けて対応記憶部114に格納し、学習部115に学習の指示を出す。学習部115は、オペレータの動作と最も近いシーンを選択するための学習を行うことで、教示情報を、シーンを構成する情報(対象物の形状とロボット動作の情報で、シーンまたは派生シーンと同じ種類の情報が含まれるもの)に変換するためのルールを導出する。一例として学習部115は、教示情報を入力とし、シーンを構成する情報を出力とする関数を生成する。   Using the learning instruction unit 1000, the operator associates the teaching information with the corresponding robot operation information and stores them in the correspondence storage unit 114, and issues a learning instruction to the learning unit 115. The learning unit 115 performs learning for selecting a scene closest to the operation of the operator, so that the teaching information is the information constituting the scene (the information on the shape of the object and the robot operation, and is the same as the scene or the derived scene). Deriving rules for conversion to information containing types of information). As an example, the learning unit 115 generates a function having the teaching information as input and the information constituting the scene as output.

そしてシーン選択部104がシーン記憶部103からシーンを選択する際、学習部115の生成した関数を用いて、動作計測部100と対象物計測部101から得られたオペレータの動作及び対象物の計測結果(教示情報)を、シーンを構成する情報に変換する。そしてシーン選択部104は、シーン記憶部103に記録された各シーンと、変換して得られた情報との類似度を求め、最も類似度の高いシーンを選択する。シーンを構成する情報は、シーンと同種の情報から構成されているため、公知の方法等を用いて容易に類似度を求めることができる。   Then, when the scene selection unit 104 selects a scene from the scene storage unit 103, the operator's motion and target measurement obtained from the motion measurement unit 100 and the target measurement unit 101 are used using the function generated by the learning unit 115. The result (teaching information) is converted into information constituting the scene. Then, the scene selection unit 104 obtains the similarity between each scene recorded in the scene storage unit 103 and the information obtained by conversion, and selects the scene with the highest similarity. Since the information constituting the scene is composed of the same type of information as the scene, the similarity can be easily obtained using a known method or the like.

また、オペレータが教示をロボットに与えた際に、ロボットが誤ったシーンを選択した場合には、オペレータは学習指示部1000を通し、オペレータの教示に対応する正しいシーンを設定させてもよい。学習部115は、この際の動作計測部100および対象物計測部101の計測結果(つまり教示情報)と、学習指示部1000によって設定された正しいシーンの対応関係を新たな学習用の事例サンプルとして対応記憶部114に追加し、学習部115では機械学習によって学習を行う。学習結果を基に、シーン選択部104は当該計測結果を用いて再度シーンを選択する。   In addition, when the operator gives a teaching to the robot and the robot selects an incorrect scene, the operator may set a correct scene corresponding to the operator's teaching through the learning instruction unit 1000. The learning unit 115 uses the measurement results (that is, teaching information) of the motion measurement unit 100 and the object measurement unit 101 at this time and the correct scene correspondence set by the learning instruction unit 1000 as a new learning example sample. In addition to the correspondence storage unit 114, the learning unit 115 performs learning by machine learning. Based on the learning result, the scene selection unit 104 selects a scene again using the measurement result.

図5においては、シーン記憶部103に記録されている対象物の形状としては丸・四角・三角の3種類が、一方持ち方としては片手・両手の2種類が記憶されている例を示している。この場合シーン記憶部103には、対象物と持ち方の組み合わせとして6種類のシーンが記憶される。これに対し、計測部(動作計測部100、対象物計測部101)によりオペレータ300が片手で丸い対象物301を把持する動作が計測された場合、シーン選択部104は、ロボット304が片手で丸い対象物303を把持するシーン302をシーン記憶部103から選択する。シーン選択部104は原則として、オペレータ300の動作(持ち方)、対象物301の種類(形状等)に基づいてシーンを選択する。この時点では、計測した対象物301とシーンに記録されている対象物303の位置や大きさは一致していなくてもよい。   FIG. 5 shows an example in which three types of circles, squares, and triangles are stored as shapes of objects recorded in the scene storage unit 103, and two types of one hand and both hands are stored as one way of holding. Yes. In this case, the scene storage unit 103 stores six types of scenes as combinations of objects and holding methods. On the other hand, when the measurement unit (the motion measurement unit 100, the object measurement unit 101) measures the operation of the operator 300 holding the round object 301 with one hand, the scene selection unit 104 causes the robot 304 to be round with one hand. The scene 302 that holds the object 303 is selected from the scene storage unit 103. In principle, the scene selection unit 104 selects a scene based on the operation (how to hold) of the operator 300 and the type (shape, etc.) of the object 301. At this time, the position and size of the measured object 301 and the object 303 recorded in the scene do not need to match.

図6に、派生シーン作成部105の動作概要を示す。シーン302は対象物303の種類(形状等)およびロボット304の操作方法が記録されていたのに対し、派生シーンはシーンに記録された対象物の位置や大きさを変更したものであり、これを派生シーン作成部105が作成する。   FIG. 6 shows an outline of the operation of the derived scene creation unit 105. The scene 302 records the type (shape, etc.) of the object 303 and the operation method of the robot 304, while the derived scene changes the position and size of the object recorded in the scene. Is generated by the derived scene creation unit 105.

派生シーン作成部105はシーン毎に、それぞれ多数の派生シーンをシーンに対応付けて派生シーン記憶部106に記憶する。本実施例では、シーンに記録された対象物はCADデータであるため、派生シーンにおいてはCADデータの位置・大きさを変更し、派生シーンの形状データとする。位置と大きさの変更は、ランダムに多数作成するか、所定のステップサイズで位置と大きさを変化させることで作成すればよい。   The derived scene creation unit 105 stores a large number of derived scenes in the derived scene storage unit 106 for each scene in association with the scene. In this embodiment, since the object recorded in the scene is CAD data, the position / size of the CAD data is changed in the derived scene to obtain the derived scene shape data. A large number of changes in position and size may be created at random or by changing the position and size in a predetermined step size.

派生シーン記憶部106に位置・大きさを変化させた対象物が記憶される際、派生シーン作成部105は更に当該対象物を操作できるロボット動作の情報を生成し、位置・大きさを変化させた対象物に、生成されたロボット動作の情報を対応付けて記録する。派生シーン作成部105が、位置・大きさを変化させた対象物の操作方法(ロボット動作)を生成する際には、シーン記憶部103に記憶された対象物の操作方法を、位置・大きさの変化後の対象物の形状に合わせて修正することで、操作方法を生成するとよい。   When an object whose position / size has been changed is stored in the derived scene storage unit 106, the derived scene creation unit 105 further generates robot operation information that can operate the object, and changes the position / size. The generated robot motion information is recorded in association with the target object. When the derived scene creation unit 105 generates an operation method (robot operation) of an object whose position / size is changed, the operation method of the object stored in the scene storage unit 103 is used as the position / size. The operation method may be generated by correcting the object according to the shape of the object after the change.

たとえば対象物を握る動作を記録する場合、派生シーン作成部105は、シーンに記録された握り方を、位置・大きさ変化後の対象物上に線形補間することで、派生シーンとして記憶すべき握り方の動作を求める。もしくは物理シミュレーション等を使い、対象物を安定して把持できる持ち方を探索してもよい。ロボットアームの軌道は、前記持ち方に至るまでの腕の軌跡を、経路探索法によって算出する。探索法としては、Probablistic Roadmap、Rapidly−exploring Random Treesなどを用いれば良い。線形補間で計算できないほどの形状の差異がある場合は、オペレータがその対象物の形状と操作方法を(人手で)求め、シーン追加部107を用いて、シーン記憶部103に新たにシーンを追加する。また、各派生シーンに含まれる対象物にロボット動作が対応付けられる際、前から掴む・横から掴む等、複数種類の動作が対応付けられてもよい。   For example, when recording a motion of gripping an object, the derived scene creation unit 105 should store the gripping method recorded in the scene as a derived scene by performing linear interpolation on the object after the position / size change. Find gripping action. Or you may search for the holding method which can hold | grip a target object stably using physical simulation etc. For the trajectory of the robot arm, the trajectory of the arm up to the holding is calculated by a route search method. As a search method, Probabilistic Roadmap, Rapidly-exploring Random Trees, or the like may be used. When there is a difference in shape that cannot be calculated by linear interpolation, the operator obtains the shape and operation method of the object (manually), and uses the scene addition unit 107 to add a new scene to the scene storage unit 103 To do. In addition, when a robot motion is associated with an object included in each derived scene, a plurality of types of motions such as grabbing from the front or grasping from the side may be associated.

派生シーンにおけるロボットの動作を生成した後、派生シーン作成部105は、作成した派生シーンを派生シーン記憶部106に記憶させる。さらに、2通り以上のロボットの動作方法がある場合は、派生シーン作成部105は派生シーンに2つ以上のロボット動作の情報を記録してもよい。図6の例で挙げられているシーン302にはロボットが片手で丸い対象物を把持する動作が記録されており、これに対応付けられる派生シーンとして、対象物の大きさとして3種類、位置として3種類、組み合わせることで9種類の派生シーンが記録されていることとする。なお、図6には、片手で丸い対象物を扱う場合の派生シーンのみ記載したが、図5の例に挙げられているその他の5種類のシーンについても、それぞれ派生シーンが作成される。   After generating the motion of the robot in the derived scene, the derived scene creating unit 105 stores the created derived scene in the derived scene storage unit 106. Further, when there are two or more robot operation methods, the derived scene creation unit 105 may record information on two or more robot operations in the derived scene. The scene 302 shown in the example of FIG. 6 records the movement of the robot holding a round object with one hand. As derived scenes associated with this, there are three types of object sizes and positions. It is assumed that nine types of derived scenes are recorded by combining three types. Note that FIG. 6 shows only derived scenes in the case of handling a round object with one hand, but derived scenes are also created for the other five types of scenes listed in the example of FIG.

図7に派生シーン選択部108の動作概要を示す。派生シーン選択部108では、シーン選択部104で選択したシーン302に対応付けられた複数の派生シーンのうち、実環境と最も近い派生シーン501を選択する。派生シーンには、シーンが有する情報に加えて、対象物の形・位置・大きさがCADデータとして記憶されている。対象物計測部101により実環境内の対象物301の形・位置・大きさが計測されているので、派生シーン選択部108は、計測した対象物と、派生シーンに記録された対象物が最も一致するような派生シーン501を選択する。ここで、一致方法の算出は、空間を細かなグリッドに分割し、物体が存在する領域をON、存在しない領域をOFFとして、両者の論理積や相互情報量を取ることで、どの程度マッチしているかを算出できる。   FIG. 7 shows an outline of the operation of the derived scene selection unit 108. The derived scene selection unit 108 selects a derived scene 501 closest to the real environment from among a plurality of derived scenes associated with the scene 302 selected by the scene selection unit 104. In the derived scene, the shape, position, and size of the object are stored as CAD data in addition to the information of the scene. Since the object measurement unit 101 measures the shape, position, and size of the object 301 in the real environment, the derived scene selection unit 108 determines that the measured object and the object recorded in the derived scene are the most. A derived scene 501 that matches is selected. Here, the matching method is calculated by dividing the space into fine grids, turning on the area where the object exists, and turning off the area where the object does not exist. Can be calculated.

図7の例においては、まず、計測したオペレータ300の動作と対象物301の種類に基づいて、シーン302が選択される。ここまではシーン選択部104によって行われる処理で、図5に示した処理と同じである。続いて派生シーン選択部108は、シーン302に対応付けられた派生シーン群に記録された対象物の位置・大きさと、計測した対象物301の位置・大きさを比較する事で、派生シーン501を選択する。図7では、机の奥側に小さな丸い対象物500が配置されている派生シーンが最も近く、結果としてオペレータ300の動作・対象物301の位置・大きさに合致した派生シーン501が選ばれていることとなる。   In the example of FIG. 7, first, the scene 302 is selected based on the measured operation of the operator 300 and the type of the object 301. Up to this point, the processing performed by the scene selection unit 104 is the same as the processing shown in FIG. Subsequently, the derivation scene selection unit 108 compares the position / size of the target object recorded in the derivation scene group associated with the scene 302 with the measured position / size of the target object 301 to thereby derive the derivation scene 501. Select. In FIG. 7, the derived scene in which the small round object 500 is arranged on the back side of the desk is closest, and as a result, the derived scene 501 that matches the operation of the operator 300 and the position and size of the object 301 is selected. Will be.

人の動作・対象物に関する計測結果と、大量に存在する派生シーンを機械学習によって直接対応付けようとした場合、大量の対応付け候補があることから、学習データを大量に用意する必要がある。これに対して、本実施例に係るロボットシステムでは、オペレータの動作・対象物に関する計測結果を、代表事例となる少数のシーンに対応付け、その上でシーンに派生シーンを対応付けるように構成されている。これにより本実施例に係るロボットシステムでは、人の動作・対象物に関する計測結果とシーンの対応付けの候補数を減らすことができ、機械学習実行時に用いる学習データが少なくて済む。派生シーンは、シミュレーションで作成できるため、物品の様々な配置状況に対応する事ができる。   When it is attempted to directly associate measurement results related to human movements / objects with a large number of derived scenes by machine learning, there are a large number of correspondence candidates, and it is necessary to prepare a large amount of learning data. On the other hand, the robot system according to the present embodiment is configured to associate the measurement results related to the operation / object of the operator with a small number of scenes as representative examples, and then associate the derived scene with the scene. Yes. As a result, the robot system according to the present embodiment can reduce the number of candidates for association between measurement results related to human movements / objects and scenes, and requires less learning data when executing machine learning. Since the derivative scene can be created by simulation, it can cope with various arrangement situations of articles.

図8に、オペレータが新たなシーンを作成・追加する際の、シーン追加部107が提供するユーザインタフェースの例を示す。シーン追加部107は、画面1300内に編集中の対象物1301および対象物を配置する基準面1302を表示する。基準面1302は、対象物の配置先となる面で、実環境ではたとえば机上などに相当する面である。   FIG. 8 shows an example of a user interface provided by the scene addition unit 107 when the operator creates and adds a new scene. The scene addition unit 107 displays an object 1301 being edited and a reference plane 1302 on which the object is arranged on the screen 1300. The reference surface 1302 is a surface on which the object is arranged, and is a surface corresponding to, for example, a desk in the real environment.

オペレータが新たなシーンを作成する際には、まずプリミティブ形状群1303から対象物の形状を選択し、画面に選択した形状を表示させる。例えば円筒形状の物体の把持動作のシーンを作成する場合、プリミティブ形状群1303から円筒が選択されるとよい。続いてオペレータは、編集ツール群1304を用いて、選択した対象物のサイズや位置・向きを設定する。さらにオペレータは、ロボットの操作位置を編集する操作ツール群1305を用いて、ロボットが対象物1301をどのように操作するかを設定する。例えば、本実施例における把持操作の場合は、把持する位置1306と、力を加える方向を画面に表示した1307を書き込む。シーン追加部107は、オペレータによって入力されたこれらの情報をもとに、シーンを構成する情報を生成し、生成された情報をシーン記憶部103に記憶する。なお、派生シーン追加部113もシーン追加部107と同様の機能を提供するものであるので、派生シーン追加部113についての説明は略す。   When the operator creates a new scene, first, the shape of the object is selected from the primitive shape group 1303, and the selected shape is displayed on the screen. For example, when creating a scene of a gripping operation of a cylindrical object, a cylinder may be selected from the primitive shape group 1303. Subsequently, the operator uses the editing tool group 1304 to set the size, position, and orientation of the selected object. Further, the operator uses the operation tool group 1305 for editing the operation position of the robot to set how the robot operates the object 1301. For example, in the case of the gripping operation in the present embodiment, the position 1306 to be gripped and 1307 in which the direction in which the force is applied are displayed on the screen are written. The scene addition unit 107 generates information constituting the scene based on the information input by the operator, and stores the generated information in the scene storage unit 103. Since the derived scene adding unit 113 provides the same function as the scene adding unit 107, the description of the derived scene adding unit 113 is omitted.

続いて、動作工程で用いられる各機能ブロックの説明を行う。   Subsequently, each functional block used in the operation process will be described.

図9にロボット動作選択部109の動作事例を示す。ロボット動作選択部109は、ロボット動作実行部112がロボットを動作させる時に実行される。もし派生シーンに2種類以上のロボット動作が紐づいていた場合に、ロボット動作選択部109は環境全体の状況からどちらのロボット動作が適切かを選択する。逆に派生シーンに1種類のロボット動作しか対応付けられていない場合、ロボット動作選択部109は実行されなくてよい。   FIG. 9 shows an operation example of the robot operation selection unit 109. The robot operation selection unit 109 is executed when the robot operation execution unit 112 operates the robot. If two or more types of robot motions are associated with the derived scene, the robot motion selection unit 109 selects which robot motion is appropriate from the situation of the entire environment. Conversely, when only one type of robot motion is associated with the derived scene, the robot motion selection unit 109 does not have to be executed.

ロボット動作の選択基準として、より安定動作する関節角や、より短い軌跡を選択するなどが挙げられる。例えば、安定動作を基準とする場合であれば、ロボット動作選択部109はロボットの各関節の安定性を評価する関数を予め有しており、複数のロボット動作について、いずれのロボット動作が安定であるかを評価する。評価関数としては、各関節を微小に動かした際に手先の位置がどのくらい変化するかを算出し、変化量が小さいほど安定とすればよい。選択基準として、軌跡の長さを選択する場合は、手先の移動距離を比較すればよい。図9においては、動作候補A600と動作候補B601を比較し、軌跡長が短い動作候補B601が選択されることになる。   Examples of selection criteria for robot motion include selecting a joint angle that allows more stable motion and a shorter trajectory. For example, if stable motion is used as a reference, the robot motion selection unit 109 has a function for evaluating the stability of each joint of the robot in advance, and any robot motion is stable for a plurality of robot motions. Evaluate if there is. As an evaluation function, it is only necessary to calculate how much the position of the hand changes when each joint is moved minutely, and to stabilize the smaller the amount of change. When selecting the length of the trajectory as a selection criterion, the movement distance of the hand may be compared. In FIG. 9, the motion candidate A600 is compared with the motion candidate B601, and the motion candidate B601 having a short trajectory length is selected.

図10に動作修正部110について示す。動作修正部110は、実環境下の対象物の位置・大きさと、予め記憶しておいた派生シーン内の対象物の位置が異なっていた場合に、実環境下の対象物の位置・大きさに合わせてロボット動作を修正する。まず、派生シーン内の対象物700のCADデータの位置・大きさと、実環境の対象物701の位置・大きさとの差異を算出する。算出方法としては、ICPアルゴリズムやテンプレートマッチング等の手法を用いる。実環境の対象物701の位置に対して、どのようにロボット動作を行えば所望する操作703を実施できるかを、派生シーンに記録した動作704を線形補間することによって算出する。もしくは、実環境の形状とロボットが衝突しないように、環境計測部102を用いてロボット自身の手先を計測し、ビジュアルフィードバックを用いて制御してもよい。   FIG. 10 shows the operation correction unit 110. When the position / size of the target object in the real environment is different from the position of the target object in the derived scene stored in advance, the motion correcting unit 110 positions / sizes of the target object in the real environment. Modify the robot movement to match. First, the difference between the position / size of the CAD data of the object 700 in the derived scene and the position / size of the object 701 in the real environment is calculated. As a calculation method, a technique such as an ICP algorithm or template matching is used. It is calculated by linearly interpolating the operation 704 recorded in the derived scene, how the robot operation can be performed on the position of the target object 701 in the real environment. Alternatively, the robot's own hand may be measured using the environment measurement unit 102 and controlled using visual feedback so that the shape of the real environment does not collide with the robot.

図11に、動作修正部110において動作を線形補間し、本実施例において指先の位置を変更し、事前計算して求めてあった環境と、実際の環境が異なる場合においても把持できる動作方法を作成する処理の例を示す。本実施例ではグリッパ1500の各指機構の動作1501、1502、1503を、それぞれ対象物1504上の把持位置1505に応じて線形補間することで、把持動作を可能とする。派生シーン等において事前計算して求めておいた動作1501を変形することで、動作1506に変形する。この際の変形量としては、元の動作1501において定義された指機構の軌道上と、実際の対象物1504の把持位置1505が最も近くなるような曲げ具合を計算することで求まる。同様に基本動作1503は、動作1207に変形される。本処理は指先の位置の変化を線形に変換する事で求めたが、ターゲットとなる指先の位置が求まれば、腕の動作としては、指先が求めた位置を満たすような姿勢を算出すればよい。冗長自由度の腕の場合は、当該姿勢は一意に求まらないが、関節角度が一定範囲内になるようにするなどの制約を設けることで、全関節の目標姿勢を一意に決めることは可能である。なお、この処理は派生シーン作成部105で用いられてもよい。   FIG. 11 shows an operation method in which the motion correction unit 110 linearly interpolates the motion, changes the position of the fingertip in the present embodiment, and can grasp even when the environment obtained by pre-calculation is different from the actual environment. An example of processing to be created is shown. In this embodiment, the gripping operation is enabled by linearly interpolating the operations 1501, 1502, and 1503 of each finger mechanism of the gripper 1500 according to the gripping position 1505 on the object 1504. By transforming the operation 1501 obtained by pre-calculation in a derived scene or the like, the operation 1501 is transformed. The amount of deformation at this time can be obtained by calculating a bending condition such that the gripping position 1505 of the actual object 1504 is closest to the trajectory of the finger mechanism defined in the original operation 1501. Similarly, the basic operation 1503 is transformed into an operation 1207. This processing is obtained by converting the change of the fingertip position linearly, but if the position of the target fingertip is obtained, the arm motion can be calculated by calculating the posture that satisfies the position obtained by the fingertip. Good. In the case of an arm with redundant degrees of freedom, the posture cannot be determined uniquely, but by setting constraints such as making the joint angle within a certain range, it is not possible to uniquely determine the target posture of all joints. Is possible. This process may be used by the derived scene creation unit 105.

図12に衝突回避部111について示す。衝突回避部111では環境計測部102の計測した周囲の環境の状態から、派生シーンに記録したロボットの軌跡を、周囲の存在物に衝突しないような動作の軌跡に変更する。例えば、把持動作の場合であれば、動作目標となる手先位置は不変であり、そこに到達するまでの経路および、手先以外の腕の形状を変更する。変更方法としては、既存の経路探索手段(Probablistic Roadmap、Rapidly−exploring Random Trees)などを用いれば良い。図12においては、予め決めていた軌道800上に、障害物801が計測され、障害物801と衝突しない軌道802に変化させている。この際、手先の状態803は変化させず、腕のみの軌跡・姿勢の変化で目的を達成できる。動作目標となる手先位置の変更が必要な場合であれば、どのように動作すれば目標を達成できるかを物理シミュレーションで算出し、それに従い動作を実行してもよい。ここでの目標は、シーンに依存し、把持動作であれば対象物を落とさないことを条件として、それを満たす状態を算出する。   FIG. 12 shows the collision avoidance unit 111. The collision avoidance unit 111 changes the locus of the robot recorded in the derived scene from the state of the surrounding environment measured by the environment measurement unit 102 to a movement locus that does not collide with surrounding entities. For example, in the case of a gripping operation, the hand position that is the operation target is unchanged, and the route to reach the position and the shape of the arm other than the hand are changed. As a change method, existing route searching means (Probabilistic Roadmap, Rapidly-exploring Random Trees) or the like may be used. In FIG. 12, an obstacle 801 is measured on a predetermined track 800 and is changed to a track 802 that does not collide with the obstacle 801. At this time, the state of the hand 803 is not changed, and the object can be achieved by a change in the trajectory / posture of only the arm. If it is necessary to change the hand position, which is an operation target, how the operation can be achieved can be calculated by physical simulation, and the operation can be executed accordingly. The target here is dependent on the scene, and if it is a gripping operation, a condition that satisfies the condition is calculated on condition that the object is not dropped.

以上が動作工程で用いられる各機能ブロックの説明である。なお、上ではロボット動作時に、派生シーンに記録された対象物の操作方法を実環境における対象物に合うように線形補間することでロボット動作を修正する例を説明した。しかしながらこのような方法では、実環境において存在する外的要因(重力や摩擦の影響)のために、実環境では十分な精度が出ない場合がある。そこで別の実施形態として、動作修正部110は実環境に合わせたロボット動作の修正を行ってもよい。   The above is the description of each functional block used in the operation process. In the above description, the example in which the robot operation is corrected by linearly interpolating the operation method of the object recorded in the derived scene so as to match the object in the real environment during the robot operation has been described. However, in such a method, sufficient accuracy may not be obtained in the actual environment due to external factors (the influence of gravity and friction) existing in the actual environment. Therefore, as another embodiment, the motion correcting unit 110 may correct the robot motion in accordance with the actual environment.

具体的な方法としては、動作修正部110は対象物計測部101によって実環境における対象物の形状を把握し、元の派生シーン情報901を初期状態として、その形状に応じて動作を修正する。修正方法として、動作をしつつ、どの関節を動かせば目標姿勢に近づくかのシミュレーションを行い、動作結果のフィードバックを受け、再度シミュレーションを行う処理を繰り返すことで、対象物を安定して把持できる持ち方を探索しながら動作を実施する。   As a specific method, the motion correcting unit 110 grasps the shape of the target object in the real environment by the target measuring unit 101, and uses the original derived scene information 901 as an initial state to correct the motion according to the shape. As a correction method, it is possible to perform a simulation of which joint is moved while approaching the target posture, receive the feedback of the operation result, and repeat the simulation again to hold the target object stably. The operation is carried out while searching for directions.

また、動作修正部110によって派生シーンに記録されたロボット動作情報を修正した結果情報を、派生シーン記憶部106に反映するようにしてもよい。その場合の例を図13に示す。先に述べたとおり、動作工程では、派生シーン選択部108によって選択された派生シーンの情報(図13ではこれを「派生シーン情報901」と表記する)を、動作修正部110が実環境にあわせて修正する。なお、派生シーンに複数のロボット動作が対応付けられている場合には、ロボット動作選択部109によって1つのロボット動作が選択されるが、図13ではロボット動作選択部109についての記述は略している。   Further, the result information obtained by correcting the robot motion information recorded in the derived scene by the motion correcting unit 110 may be reflected in the derived scene storage unit 106. An example in that case is shown in FIG. As described above, in the operation process, information on the derived scene selected by the derived scene selection unit 108 (in FIG. 13, this is expressed as “derived scene information 901”) is matched with the actual environment by the operation correcting unit 110. To correct. When a plurality of robot motions are associated with the derived scene, one robot motion is selected by the robot motion selection unit 109, but the description of the robot motion selection unit 109 is omitted in FIG. .

動作更新部902は、動作修正部110によって修正された派生シーン情報901を用いて、派生シーン記憶部106に記録されているロボット動作の情報を上書きする。これにより、派生シーン記憶部106に記憶されているロボット動作の情報が、実環境を考慮したロボット動作の情報に書き換えられ、今後同様の動作をロボットが行う際に、実環境の状態により適合したロボット動作が可能になる。   The motion update unit 902 overwrites the robot motion information recorded in the derived scene storage unit 106 using the derived scene information 901 modified by the motion modification unit 110. As a result, the robot motion information stored in the derived scene storage unit 106 is rewritten to the robot motion information considering the real environment, and when the robot performs the same motion in the future, it is more suitable for the state of the real environment. Robot operation becomes possible.

派生シーンを作成した際のシミュレーションとの違いは、派生シーン作成では関節角の制御命令に対して、ロボットがどのように動くかはシミュレーションで事前計算するため、命令数分の誤差が蓄積するのに対し、動作修正部110においては動作時に制御命令による動作の結果を常にフィードバックすることで、制御命令の誤差を把握し、誤差を減らす制御命令を更に送ることができるので、精度良い制御命令を与えられる。   The difference from the simulation when the derived scene is created is that, in the derived scene creation, how the robot moves is pre-calculated for the joint angle control command, so an error corresponding to the number of commands accumulates. On the other hand, since the operation correction unit 110 always feeds back the result of the operation by the control command at the time of operation, it is possible to grasp the error of the control command and further send a control command to reduce the error. Given.

続いて実施例2の説明を行う。実施例2に係るロボットシステムは、実施例1で説明したロボットシステムと同じ機能ブロックを有し、またハードウェア構成も実施例1で説明したものと同じである。   Subsequently, Example 2 will be described. The robot system according to the second embodiment has the same functional blocks as the robot system described in the first embodiment, and the hardware configuration is the same as that described in the first embodiment.

ただし実施例2に係るロボットシステムには、上の実施例1に係るロボットシステムに対して、データの共有機能が付加されている。データの共有機能とは具体的には、ロボットシステムにおいて用いられるシーン(または派生シーン)等のデータを、複数のロボットシステムが使用できるようにする機能である。   However, the robot system according to the second embodiment has a data sharing function added to the robot system according to the first embodiment. Specifically, the data sharing function is a function that enables a plurality of robot systems to use data such as a scene (or a derived scene) used in the robot system.

図14を用いて実施例2におけるロボットシステムについて説明する。実施例2におけるロボットシステム1410−1及び1410−2はそれぞれ、実施例1で説明した各機能ブロックを有し、それに加えてダウンロード部1101とアップロード部1102を有する。ロボットシステム(1410−1、1410−2)は、広域ネットワーク1420等を介して、データセンタ(中央記憶部)1100に接続される。データセンタ1100は、複数のロボットシステム(1410−1、1410−2)からデータを収集して、記憶しておく機能を有する。たとえばデータセンタ1100は、ファイルサーバ等の大規模な記憶装置により構成される。なお、図14では2台のロボットシステムのみが示されているが、3台以上のロボットシステムがデータセンタ1100に接続されていてよい。   A robot system according to the second embodiment will be described with reference to FIG. Each of the robot systems 1410-1 and 1410-2 in the second embodiment includes the functional blocks described in the first embodiment, and further includes a download unit 1101 and an upload unit 1102. The robot systems (1410-1, 1410-2) are connected to a data center (central storage unit) 1100 via a wide area network 1420 or the like. The data center 1100 has a function of collecting and storing data from a plurality of robot systems (1410-1, 1410-2). For example, the data center 1100 is configured by a large-scale storage device such as a file server. In FIG. 14, only two robot systems are shown, but three or more robot systems may be connected to the data center 1100.

ダウンロード部1101は、データセンタ1100に記憶されているデータを取得する。一方アップロード部1102は、ロボットシステム(1410−1,1410−2)に記憶されているデータをデータセンタ1100に送信し、データセンタ1100に記憶させる。データセンタ1100に記憶されるデータの例は、各ロボットシステム(1410−1,1410−2)において作成されたシーン、または派生シーンである。   The download unit 1101 acquires data stored in the data center 1100. On the other hand, the upload unit 1102 transmits the data stored in the robot system (1410-1, 1410-2) to the data center 1100 and stores it in the data center 1100. An example of data stored in the data center 1100 is a scene created in each robot system (1410-1, 1410-2) or a derived scene.

実施例2に係る各ロボットシステム(1410−1,1410−2)は、実施例1に係るロボットシステムと同様に、作成(または修正)されたシーンや派生シーンをそれぞれシーン記憶部103、派生シーン記憶部106に記憶する。実施例2におけるロボットシステムは、それと共にアップロード部1102を用いて、作成されたシーンや派生シーンをデータセンタ1100に送信し、データセンタ1100に記憶させる。複数のロボットシステムが作成されたシーンや派生シーンをデータセンタ1100に記憶することで、データセンタ1100には大量のシーン・派生シーンが集約記憶される。   Each robot system (1410-1, 1410-2) according to the second embodiment is similar to the robot system according to the first embodiment in that the created (or modified) scene and the derived scene are respectively stored in the scene storage unit 103 and the derived scene. Store in the storage unit 106. The robot system according to the second embodiment uses the upload unit 1102 together with it to transmit the created scene and the derived scene to the data center 1100 and store them in the data center 1100. By storing scenes and derived scenes created by a plurality of robot systems in the data center 1100, a large number of scenes and derived scenes are collectively stored in the data center 1100.

さらに実施例2におけるロボットシステム(たとえばロボットシステム1410−1)はダウンロード部1101により、他のロボットシステム(1410−2)が作成したシーン(または派生シーン)をデータセンタ1100から取得し、自身の有するシーン記憶部103、派生シーン記憶部106に格納し、それをロボット動作時(特に教示工程)において利用することができる。このようにすることで、実施例2におけるロボットシステムは、他のロボットシステムにおいて作成(更新)されたデータを共有使用することができる。   Further, the robot system (for example, the robot system 1410-1) in the second embodiment acquires a scene (or a derived scene) created by another robot system (1410-2) from the data center 1100 by the download unit 1101, and has the own robot system. The data can be stored in the scene storage unit 103 and the derived scene storage unit 106 and used when the robot is operating (particularly in the teaching process). By doing in this way, the robot system in Example 2 can share and use data created (updated) in other robot systems.

また、シーン(または派生シーン)以外のデータが共有されてもよい。たとえば対応記憶部114に記憶された情報(教示情報とシーンとの対応関係の情報)もデータセンタ1100を介して複数のロボットシステムで共有されてもよい。   Data other than a scene (or a derived scene) may be shared. For example, information stored in the correspondence storage unit 114 (information on correspondence between teaching information and scenes) may also be shared by a plurality of robot systems via the data center 1100.

続いて実施例3の説明を行う。図15は、実施例3に係るロボットシステムの機能構成図である。実施例3に係るロボットシステムは、動作手順記憶部120と動作指示部130を有する点が、実施例1に係るロボットシステムと主に異なる点である。動作手順記憶部120は、派生シーン選択部108によって選択された派生シーンを記憶するための記憶領域である。なお以下の説明において、教示工程において用いられる機能ブロック(図中の点線枠11内に含まれる機能ブロック群)の集合を「教示部11」と呼び、またロボットの動作工程で用いられる機能ブロック(図中の点線枠12内に含まれる機能ブロック群)の集合を「動作部12」と呼ぶ。   Subsequently, Example 3 will be described. FIG. 15 is a functional configuration diagram of the robot system according to the third embodiment. The robot system according to the third embodiment is mainly different from the robot system according to the first embodiment in having an operation procedure storage unit 120 and an operation instruction unit 130. The operation procedure storage unit 120 is a storage area for storing the derived scene selected by the derived scene selection unit 108. In the following description, a set of functional blocks used in the teaching process (a group of functional blocks included in the dotted frame 11 in the figure) is referred to as a “teaching unit 11”, and functional blocks used in the robot operation process ( A set of functional blocks included in a dotted frame 12 in the drawing is referred to as an “operation unit 12”.

教示工程においてオペレータが何らかの動作を行うと、実施例1で説明したとおり、教示部11に含まれる派生シーン選択部108がオペレータの教示動作に類似した派生シーンを選択する。実施例3に係るロボットシステムでは、派生シーン選択部108は、選択した派生シーンを動作手順記憶部120に記憶し、教示工程は終了する。   When the operator performs some operation in the teaching process, as described in the first embodiment, the derived scene selection unit 108 included in the teaching unit 11 selects a derived scene similar to the operator's teaching operation. In the robot system according to the third embodiment, the derived scene selection unit 108 stores the selected derived scene in the operation procedure storage unit 120, and the teaching process ends.

ロボットの動作工程が開始される契機は、ロボットシステムのユーザ(オペレータ)の指示により定まる。動作指示部130は、オペレータが動作工程を開始することをロボットシステムに通知するためのユーザインタフェースである。オペレータが動作指示部130を用いて、動作工程の開始を指示すると、ロボット動作選択部109は動作手順記憶部120に記録された派生シーンを選択する。   The trigger for starting the robot operation process is determined by an instruction from a user (operator) of the robot system. The operation instruction unit 130 is a user interface for notifying the robot system that the operator starts an operation process. When the operator uses the operation instruction unit 130 to instruct the start of the operation process, the robot operation selection unit 109 selects the derived scene recorded in the operation procedure storage unit 120.

その後の動作は、実施例1で説明したものと同様で、ロボット動作実行部112が派生シーンに記録されたロボット動作の情報に基づいて、ロボットを駆動させる。またその際に、動作修正部110や衝突回避部111によって、派生シーンに記録されたロボット動作情報が修正される点も、実施例1で説明したものと同じである。   Subsequent operations are the same as those described in the first embodiment, and the robot operation execution unit 112 drives the robot based on the robot operation information recorded in the derived scene. Further, at that time, the robot motion information recorded in the derived scene is corrected by the motion correction unit 110 and the collision avoidance unit 111 as in the case described in the first embodiment.

実施例3に係るロボットシステムでは、動作手順記憶部120にロボット動作(派生シーン)を記録しておき、後からこの記録されたロボット動作に基づいてロボットを動作させることができる。つまりロボットは、必ずしもオペレータ動作と同期して動作する必要はなく、実施例3に係るロボットシステムではオペレータが教示した動作を、オペレータが希望するタイミングでロボットに再生実行させることができる。   In the robot system according to the third embodiment, the robot operation (derived scene) is recorded in the operation procedure storage unit 120, and the robot can be operated based on the recorded robot operation later. That is, the robot does not necessarily have to operate in synchronization with the operator's operation, and the robot system according to the third embodiment can cause the robot to reproduce and execute the operation taught by the operator at a timing desired by the operator.

100・・・動作計測部、101・・・対象物計測部、102・・・環境計測部、103・・・シーン記憶部、104・・・シーン選択部、105・・・派生シーン作成部、106・・・派生シーン記憶部、107・・・シーン追加部、108・・・派生シーン選択部、109・・・ロボット動作選択部、110・・・動作修正部、111・・・衝突回避部、112・・・ロボット動作実行部、113・・・派生シーン追加部   DESCRIPTION OF SYMBOLS 100 ... Motion measurement part, 101 ... Object measurement part, 102 ... Environment measurement part, 103 ... Scene memory | storage part, 104 ... Scene selection part, 105 ... Derived scene creation part, 106: Derived scene storage unit, 107: Scene addition unit, 108 ... Derived scene selection unit, 109 ... Robot motion selection unit, 110 ... Motion correction unit, 111 ... Collision avoidance unit 112 ... Robot motion execution unit, 113 ... Derived scene addition unit

Claims (14)

オペレータの教示動作に従ってロボットを動作させるロボットシステムであって、
前記ロボットシステムは、
前記オペレータの教示動作を計測する動作計測部と、
前記オペレータまたは前記ロボットが操作する対象物の種類、位置、大きさを計測する対象物計測部と、
前記ロボットの動作情報と前記対象物の情報の組であるシーンを複数種類記憶したシーン記憶部と、
前記シーンから派生した複数の派生シーンを、前記シーンに対応付けて記憶した派生シーン記憶部と、
前記シーン記憶部の中から1つの前記シーンを取得するシーン選択部と、
前記派生シーン記憶部の中から1つの前記派生シーンを取得する派生シーン選択部と、
前記派生シーンに含まれている前記動作情報に基づいて前記ロボットを動作させるロボット動作実行部と、
を有し、
前記派生シーンに含まれる前記対象物の情報は、前記派生シーンの対応付けられている前記シーンに含まれる前記対象物の位置や大きさを変化させたもので、前記派生シーンに含まれるロボットの動作情報は、前記派生シーンに含まれる前記対象物を操作するための動作情報であって、
前記シーン選択部は、前記シーン記憶部に記憶された複数の前記シーンの中から、前記動作計測部によって計測された前記オペレータの教示動作及び前記対象物計測部によって計測された前記対象物の種類から成る教示情報との類似度が最も高いシーンを選択し、
前記派生シーン選択部は、前記シーン選択部が選択したシーンから派生した前記派生シーンのうち、計測された前記対象物の位置・大きさと類似度が最も高い派生シーンを選択し、
前記ロボット動作実行部は、前記派生シーン選択部が選択した前記派生シーンに含まれている前記動作情報に基づいて、前記ロボットを動作させる、
ことを特徴とするロボットシステム。
A robot system for operating a robot according to an operator's teaching operation,
The robot system includes:
An operation measuring unit for measuring the teaching operation of the operator;
An object measuring unit for measuring the type, position, and size of the object operated by the operator or the robot;
A scene storage unit that stores a plurality of types of scenes that are sets of information on the robot and motion information;
A derived scene storage unit that stores a plurality of derived scenes derived from the scene in association with the scene;
A scene selection unit that acquires one of the scenes from the scene storage unit;
A derivation scene selection unit for obtaining one derivation scene from the derivation scene storage unit;
A robot operation execution unit that operates the robot based on the operation information included in the derived scene;
Have
The information on the target object included in the derived scene is obtained by changing the position and size of the target object included in the scene associated with the derived scene. The motion information is motion information for operating the object included in the derived scene,
The scene selection unit includes a plurality of the scenes stored in the scene storage unit, a teaching operation of the operator measured by the motion measurement unit, and a type of the target measured by the target measurement unit. Select the scene with the highest similarity to the teaching information consisting of
The derivation scene selection unit selects a derivation scene having the highest position / size and similarity of the measured object among the derivation scenes derived from the scene selected by the scene selection unit,
The robot motion execution unit operates the robot based on the motion information included in the derived scene selected by the derived scene selection unit.
A robot system characterized by this.
前記ロボットシステムはさらに、
前記オペレータの教示動作と前記対象物の情報を、前記シーンに含まれる情報に変換する学習部を有し、
前記シーン選択部は前記学習部を用いて、前記教示情報を前記シーンに含まれる情報に変換することで、前記教示情報と前記シーン記憶部に記憶された複数の前記シーンとの類似度を求める、
請求項1に記載のロボットシステム。
The robot system further includes:
A learning unit that converts the teaching operation of the operator and information on the object into information included in the scene;
The scene selection unit uses the learning unit to convert the teaching information into information included in the scene, thereby obtaining a similarity between the teaching information and the plurality of scenes stored in the scene storage unit. ,
The robot system according to claim 1.
前記ロボットシステムはさらに、
前記ロボットの周囲の存在物を計測する環境計測部を有し、
前記ロボットを動作させる際、前記環境計測部で計測された前記存在物に衝突しないように、前記ロボットの動作を修正する、
ことを特徴とする、請求項1に記載のロボットシステム。
The robot system further includes:
An environment measuring unit that measures the surrounding objects of the robot;
When operating the robot, correct the operation of the robot so as not to collide with the existence measured by the environment measurement unit,
The robot system according to claim 1, wherein:
前記派生シーンには、複数種類の前記動作情報が含まれており、
前記ロボットを動作させる際、選択された前記派生シーンの中から、所定の基準に応じて前記動作情報を1つ選択し、選択された前記動作情報に基づいて、前記ロボットを動作させる、
ことを特徴とする、請求項1に記載のロボットシステム。
The derived scene includes a plurality of types of the operation information,
When operating the robot, from the selected derived scene, one of the operation information is selected according to a predetermined criterion, and the robot is operated based on the selected operation information.
The robot system according to claim 1, wherein:
前記ロボットシステムは、
計測された前記対象物の位置・大きさと、派生シーンに記憶された対象物の位置・大きさに差異がある場合、前記派生シーンに含まれる前記動作情報を修正する動作修正部を備える、
ことを特徴とする、請求項1に記載のロボットシステム。
The robot system includes:
When there is a difference between the measured position / size of the object and the position / size of the object stored in the derived scene, the image processing apparatus includes an operation correcting unit that corrects the operation information included in the derived scene.
The robot system according to claim 1, wherein:
前記動作修正部によって修正された前記ロボットの動作情報を用いて、前記派生シーン記憶部に記憶されている前記派生シーンを更新する動作更新部を備える、
ことを特徴とする、請求項5に記載のロボットシステム。
Using an operation update unit that updates the derived scene stored in the derived scene storage unit using the operation information of the robot modified by the operation modification unit;
The robot system according to claim 5, wherein:
前記ロボットシステムは、前記オペレータが、
前記シーン記憶部に前記シーンを、前記派生シーン記憶部に前記派生シーンを、
追加可能に構成されている、
ことを特徴とする、請求項1に記載のロボットシステム。
In the robot system, the operator
The scene is stored in the scene storage unit, and the derived scene is stored in the derived scene storage unit.
Configured to be appendable,
The robot system according to claim 1, wherein:
前記学習部は、前記教示情報と前記教示情報に対応するシーンとからなる学習情報を複数用いて学習を行うことで、前記教示情報を前記シーンに含まれる情報に変換するルールを決定するよう構成されている、
ことを特徴とする、請求項2に記載のロボットシステム。
The learning unit is configured to determine a rule for converting the teaching information into information included in the scene by performing learning using a plurality of learning information including the teaching information and a scene corresponding to the teaching information. Being
The robot system according to claim 2, wherein:
前記ロボットシステムは、ネットワークに接続するための通信インタフェースを有し、
前記ロボットシステムはさらに、
前記通信インタフェースを介して、前記シーンと前記派生シーンを前記ネットワーク上の記憶手段に格納するアップロード部と、
前記通信インタフェースを介して、他のロボットシステムによって前記ネットワーク上の記憶手段に格納された前記シーンと前記派生シーンを取得するダウンロード部と、
を有することを特徴とする、請求項1に記載のロボットシステム。
The robot system has a communication interface for connecting to a network,
The robot system further includes:
An upload unit for storing the scene and the derived scene in a storage unit on the network via the communication interface;
A download unit for acquiring the scene and the derived scene stored in the storage means on the network by another robot system via the communication interface;
The robot system according to claim 1, comprising:
オペレータの教示動作を計測する動作計測部と、
前記オペレータまたはロボットが操作する対象物の種類と位置と大きさを計測する対象物計測部と、
ロボットの動作情報と前記対象物の情報の組であるシーンを複数種類記憶したシーン記憶部と、
前記シーンから派生した複数の派生シーンを、前記シーンに対応付けて記憶した派生シーン記憶部と、
前記シーン記憶部の中から1つの前記シーンを取得するシーン選択部と、
前記派生シーン記憶部の中から1つの前記派生シーンを取得する派生シーン選択部と、
前記派生シーンに含まれている前記動作情報に基づいて前記ロボットを動作させるロボット動作実行部と、
を有するロボットシステムによる、ロボット制御方法であって、
前記派生シーンに含まれる前記対象物の情報は、前記派生シーンの対応付けられている前記シーンに含まれる前記対象物の位置や大きさを変化させたもので、前記派生シーンに含まれるロボットの動作情報は、前記派生シーンに含まれる前記対象物を操作するための動作情報であって、
前記動作計測部によって前記オペレータの教示動作を計測し、前記対象物計測部によって前記対象物の情報を計測する、第1の工程と、
前記シーン選択部によって、前記シーン記憶部に記憶された複数の前記シーンのうち、前記第1の工程で得られた、前記オペレータの教示動作及び前記対象物の種類から成る教示情報との類似度が最も高いシーンを選択する、第2の工程と、
前記派生シーン選択部によって、前記第2の工程で選択されたたシーンから派生した前記派生シーンのうち、前記第1の工程で計測された前記対象物の位置・大きさと類似度が最も高い派生シーンを選択する、第3の工程と、
前記ロボット動作実行部によって、前記第3の工程で選択された前記派生シーンに含まれている前記動作情報に基づいて、前記ロボットを動作させる、第4の工程と、
を実行することを特徴とする、ロボット制御方法。
An operation measuring unit for measuring the teaching operation of the operator;
An object measuring unit for measuring the type, position and size of the object operated by the operator or the robot;
A scene storage unit that stores a plurality of types of scenes, which is a set of robot operation information and information on the object;
A derived scene storage unit that stores a plurality of derived scenes derived from the scene in association with the scene;
A scene selection unit that acquires one of the scenes from the scene storage unit;
A derivation scene selection unit for obtaining one derivation scene from the derivation scene storage unit;
A robot operation execution unit that operates the robot based on the operation information included in the derived scene;
A robot control method by a robot system having
The information on the target object included in the derived scene is obtained by changing the position and size of the target object included in the scene associated with the derived scene. The motion information is motion information for operating the object included in the derived scene,
A first step of measuring the teaching motion of the operator by the motion measuring unit and measuring information of the target by the target measuring unit;
The degree of similarity between the plurality of scenes stored in the scene storage unit by the scene selecting unit and the teaching information obtained in the first step and including the teaching operation of the operator and the type of the object A second step of selecting the scene with the highest,
Of the derived scenes derived from the scene selected in the second step by the derived scene selection unit, the derivation having the highest position / size and similarity of the object measured in the first step A third step of selecting a scene;
A fourth step of operating the robot based on the motion information included in the derived scene selected in the third step by the robot motion execution unit;
The robot control method characterized by performing.
前記ロボットシステムはさらに、
前記オペレータの教示動作と前記対象物の情報を、前記シーンに含まれる情報に変換する学習部を有し、
前記第2の工程では、前記教示情報を前記学習部によって、前記シーンに含まれる情報に変換することで、前記教示情報と前記シーン記憶部に記憶された複数の前記シーンとの類似度を求める、
ことを特徴とする、請求項10に記載のロボット制御方法。
The robot system further includes:
A learning unit that converts the teaching operation of the operator and information on the object into information included in the scene;
In the second step, the learning information is converted into information included in the scene by the learning unit, thereby obtaining a similarity between the teaching information and the plurality of scenes stored in the scene storage unit. ,
The robot control method according to claim 10, wherein:
前記学習部は、前記教示情報と前記教示情報に対応するシーンとからなる学習情報を複数用いて学習を行うことで、前記教示情報を前記シーンに含まれる情報に変換するルールを決定するよう構成されている、
ことを特徴とする、請求項11に記載のロボット制御方法。
The learning unit is configured to determine a rule for converting the teaching information into information included in the scene by performing learning using a plurality of learning information including the teaching information and a scene corresponding to the teaching information. Being
The robot control method according to claim 11, wherein:
前記第4の工程は、計測された前記対象物の位置・大きさと、派生シーンに記憶された対象物の位置・大きさに差異がある場合、前記派生シーンに含まれる前記動作情報を修正する動作修正工程を含む、
ことを特徴とする、請求項11に記載のロボット制御方法。
In the fourth step, when there is a difference between the measured position / size of the object and the position / size of the object stored in the derived scene, the operation information included in the derived scene is corrected. Including operation modification process,
The robot control method according to claim 11, wherein:
前記第4の工程は、前記第3の工程が実行された後、前記オペレータからの指示があった時点で実行される、
ことを特徴とする、請求項11に記載のロボット制御方法。
The fourth step is executed at the time when there is an instruction from the operator after the third step is executed.
The robot control method according to claim 11, wherein:
JP2016188102A 2016-09-27 2016-09-27 Robot system Active JP6640060B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016188102A JP6640060B2 (en) 2016-09-27 2016-09-27 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016188102A JP6640060B2 (en) 2016-09-27 2016-09-27 Robot system

Publications (2)

Publication Number Publication Date
JP2018051652A true JP2018051652A (en) 2018-04-05
JP6640060B2 JP6640060B2 (en) 2020-02-05

Family

ID=61833271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188102A Active JP6640060B2 (en) 2016-09-27 2016-09-27 Robot system

Country Status (1)

Country Link
JP (1) JP6640060B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019202354A (en) * 2018-05-21 2019-11-28 Telexistence株式会社 Robot control device, robot control method, and robot control program
WO2020032207A1 (en) * 2018-08-10 2020-02-13 川崎重工業株式会社 Information processing device, robot operating system, and robot operating method
JP2020026024A (en) * 2018-08-10 2020-02-20 川崎重工業株式会社 Information processing device, robot operation system, and robot operation method
WO2020095805A1 (en) * 2018-11-09 2020-05-14 オムロン株式会社 Robot control device, robot control method, and robot control program
JP2021030393A (en) * 2019-08-28 2021-03-01 株式会社DailyColor Robot control device
IT202100003821A1 (en) * 2021-02-19 2022-08-19 Univ Pisa PROCESS OF INTERACTION WITH OBJECTS
US11511414B2 (en) 2019-08-28 2022-11-29 Daily Color Inc. Robot control device
WO2023047574A1 (en) * 2021-09-27 2023-03-30 株式会社日立ハイテク Work teaching method, work teaching device, and robot
WO2023054539A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, information processing system, and information processing method
WO2023054535A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, robot control system, and information processing method
EP4091776A4 (en) * 2020-01-16 2023-04-26 OMRON Corporation Program generation device, program generation method, and generation program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0788791A (en) * 1993-09-20 1995-04-04 Mitsubishi Electric Corp Robot device and its peripheral device
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
JP2005169564A (en) * 2003-12-11 2005-06-30 Toyota Motor Corp Method for gripping object of optional shape by robot
JP2006192548A (en) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research Body imitation robot system and body imitation motion control method
WO2007088735A1 (en) * 2006-02-02 2007-08-09 Kabushiki Kaisha Yaskawa Denki Robot system
JP2007216381A (en) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd Robot
WO2007138987A1 (en) * 2006-05-25 2007-12-06 Takehiro Ishizaki Work robot
JP2008049459A (en) * 2006-08-28 2008-03-06 Toshiba Corp System, method and program for controlling manipulator
JP2008068348A (en) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology Robot work teaching system and work teaching method for robot
JP2008207262A (en) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd Manipulator system
JP2009128192A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition device and robot device
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
JPH0788791A (en) * 1993-09-20 1995-04-04 Mitsubishi Electric Corp Robot device and its peripheral device
JP2005169564A (en) * 2003-12-11 2005-06-30 Toyota Motor Corp Method for gripping object of optional shape by robot
JP2007216381A (en) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd Robot
JP2006192548A (en) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research Body imitation robot system and body imitation motion control method
US20090173560A1 (en) * 2006-02-02 2009-07-09 Kabushiki Kaisha Yaskawa Denki Robot system
WO2007088735A1 (en) * 2006-02-02 2007-08-09 Kabushiki Kaisha Yaskawa Denki Robot system
WO2007138987A1 (en) * 2006-05-25 2007-12-06 Takehiro Ishizaki Work robot
US20090234501A1 (en) * 2006-05-25 2009-09-17 Takehiro Ishizaki Work Robot
JP2008049459A (en) * 2006-08-28 2008-03-06 Toshiba Corp System, method and program for controlling manipulator
JP2008068348A (en) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology Robot work teaching system and work teaching method for robot
JP2008207262A (en) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd Manipulator system
JP2009128192A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition device and robot device
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019202354A (en) * 2018-05-21 2019-11-28 Telexistence株式会社 Robot control device, robot control method, and robot control program
WO2020032207A1 (en) * 2018-08-10 2020-02-13 川崎重工業株式会社 Information processing device, robot operating system, and robot operating method
JP2020026024A (en) * 2018-08-10 2020-02-20 川崎重工業株式会社 Information processing device, robot operation system, and robot operation method
JP7333204B2 (en) 2018-08-10 2023-08-24 川崎重工業株式会社 Information processing device, robot operating system, and robot operating method
US11769422B2 (en) 2018-08-10 2023-09-26 Kawasaki Jukogyo Kabushiki Kaisha Information processing device, robot manipulating system and robot manipulating method
CN112423945A (en) * 2018-08-10 2021-02-26 川崎重工业株式会社 Information processing device, robot operation system, and robot operation method
KR102511814B1 (en) * 2018-08-10 2023-03-20 카와사키 주코교 카부시키 카이샤 Information processing device, robot operating system, and robot operating method
KR20210040119A (en) * 2018-08-10 2021-04-12 카와사키 주코교 카부시키 카이샤 Information processing device, robot operation system and robot operation method
TWI728424B (en) * 2018-08-10 2021-05-21 日商川崎重工業股份有限公司 Information processing device, robot operating system, and robot operating method
CN112423945B (en) * 2018-08-10 2023-11-24 川崎重工业株式会社 Information processing device, robot operating system, and robot operating method
JP2020075337A (en) * 2018-11-09 2020-05-21 オムロン株式会社 Robot control device, robot control method, and robot control program
JP7205752B2 (en) 2018-11-09 2023-01-17 オムロン株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
WO2020095805A1 (en) * 2018-11-09 2020-05-14 オムロン株式会社 Robot control device, robot control method, and robot control program
US11511414B2 (en) 2019-08-28 2022-11-29 Daily Color Inc. Robot control device
JP2021030393A (en) * 2019-08-28 2021-03-01 株式会社DailyColor Robot control device
EP4091776A4 (en) * 2020-01-16 2023-04-26 OMRON Corporation Program generation device, program generation method, and generation program
WO2022175777A1 (en) * 2021-02-19 2022-08-25 Università Di Pisa Process of interacting with objects
IT202100003821A1 (en) * 2021-02-19 2022-08-19 Univ Pisa PROCESS OF INTERACTION WITH OBJECTS
WO2023047574A1 (en) * 2021-09-27 2023-03-30 株式会社日立ハイテク Work teaching method, work teaching device, and robot
WO2023054535A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, robot control system, and information processing method
WO2023054539A1 (en) * 2021-09-28 2023-04-06 京セラ株式会社 Information processing device, robot controller, information processing system, and information processing method

Also Published As

Publication number Publication date
JP6640060B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6640060B2 (en) Robot system
US11780083B2 (en) Determining and utilizing corrections to robot actions
JP6039434B2 (en) Method for generating grip pattern used by robot and computer program product
EP3166084B1 (en) Method and system for determining a configuration of a virtual robot in a virtual environment
Zito et al. Two-level RRT planning for robotic push manipulation
JP2013144355A5 (en)
JP2019018272A (en) Motion generation method, motion generation device, system, and computer program
JP6796557B2 (en) Welding robot torch cable interference evaluation information output device, evaluation information output method and program
JP6869060B2 (en) Manipulator controls, control methods and programs, and work systems
WO2017119088A1 (en) Robot system, and control method
CN115351780A (en) Method for controlling a robotic device
JP2018153874A (en) Presentation device, presentation method, program and work system
JP6758540B1 (en) Information processing device, work recognition device and work removal device
JP6456557B1 (en) Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system
WO2016132521A1 (en) Teaching data-generating device
Österberg Skill Imitation Learning on Dual-arm Robotic Systems
JP7376318B2 (en) annotation device
JP6375441B2 (en) Assembly teaching apparatus and assembly teaching method
JP7205752B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
JP6079350B2 (en) Robot control method, robot control apparatus, robot, and robot control program
Tykal Optimizing Programming by Demonstration for in-contact task models by Incremental Learning
JP7091673B2 (en) Movable degree of freedom estimation device and movable degree of freedom estimation program
JP2020097060A (en) Robot teaching device, control method for the same, and robot teaching program
Rizzotti-Kaddouri et al. Learning from Demonstration for Collaborative Robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191225

R150 Certificate of patent or registration of utility model

Ref document number: 6640060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150