JP6742040B1 - Robot controller - Google Patents

Robot controller Download PDF

Info

Publication number
JP6742040B1
JP6742040B1 JP2019155446A JP2019155446A JP6742040B1 JP 6742040 B1 JP6742040 B1 JP 6742040B1 JP 2019155446 A JP2019155446 A JP 2019155446A JP 2019155446 A JP2019155446 A JP 2019155446A JP 6742040 B1 JP6742040 B1 JP 6742040B1
Authority
JP
Japan
Prior art keywords
control
situation
given
model
operation control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019155446A
Other languages
Japanese (ja)
Other versions
JP2021030393A (en
Inventor
神谷 保徳
保徳 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daily Color Inc
Original Assignee
Daily Color Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2019155446A priority Critical patent/JP6742040B1/en
Application filed by Daily Color Inc filed Critical Daily Color Inc
Publication of JP6742040B1 publication Critical patent/JP6742040B1/en
Application granted granted Critical
Priority to EP20859507.4A priority patent/EP3998140A4/en
Priority to PCT/JP2020/032686 priority patent/WO2021039995A1/en
Priority to DE112020004135.2T priority patent/DE112020004135T5/en
Priority to GB2200845.2A priority patent/GB2600843B/en
Priority to CN202080058088.6A priority patent/CN114269524B/en
Publication of JP2021030393A publication Critical patent/JP2021030393A/en
Priority to US17/674,467 priority patent/US11511414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】幅広い環境、状況に応じた柔軟な制御を実現しつつ、各環境・状況に応じた動作の制御を、それぞれ個別に管理、修正できるようにする。【解決手段】動作を実行する各制御ルーチン(以降、動作制御、と呼ぶ)が動作目的を達成する制御が可能な環境・状況の範囲を、機械学習モデルで記述、モデル出力(例えば範囲内か否か)により、現在の状況における適切な動作制御を選択、実行する。【選択図】図1PROBLEM TO BE SOLVED: To realize flexible control according to a wide range of environments and situations, and to separately manage and modify control of operations according to each environment and situation. SOLUTION: A range of environment/situation in which each control routine that executes an operation (hereinafter, referred to as operation control) can achieve control for achieving an operation purpose is described by a machine learning model and model output (for example, within the range). Whether or not), appropriate operation control in the current situation is selected and executed. [Selection diagram] Figure 1

Description

本発明は、何らかのセンサを持ち、センサにより周囲の物体をセンシングし、他の物体(「環境」とも言える物体も含む。例、壁、床)とのインタラクションを伴うロボットの制御に関する。本発明はまた、ロボットの動作制御の管理、評価検証、改善のための制御プログラムの構成に関する。 The present invention relates to control of a robot that has some kind of sensor, senses surrounding objects with the sensor, and includes interaction with other objects (including objects that can also be referred to as “environments”, such as walls and floors). The present invention also relates to the configuration of a control program for management, evaluation verification, and improvement of robot motion control.

他の物体とのインタラクションを伴う動作を、環境やタスクが固定されない自由度のある環境(オープンな環境)で行うロボット(例、自律制御された家事ロボット、介護ロボット、など)は置かれた環境・状況に応じて柔軟に動作する必要がある。また、行うべき動作もタスクに応じて様々である。 An environment where robots (eg, autonomously controlled housework robots, nursing robots, etc.) that perform actions involving interaction with other objects in an environment (open environment) with a degree of freedom in which the environment and tasks are not fixed are placed environments -It is necessary to operate flexibly according to the situation. Also, the operation to be performed varies depending on the task.

一見似ているが、工場内作業場内のロボットアームは、単一の物体を対象に単一のパス(経路)を移動するのみでよく(環境・状況・タスクが固定されている)、ロボットに求められる要件は異なる。また、実用化を考えた際、評価検証、改善といった面が出てくる。 Although similar at first glance, the robot arm in the factory workshop only needs to move on a single path (route) for a single object (the environment, situation, and tasks are fixed), Different requirements are required. Also, when considering practical application, aspects such as evaluation verification and improvement will appear.

動作の例として、様々な場所に置かれた物体を、別の様々な場所に移動させる、ものを横から掴み、掴んだまま移動し、別の場所に置く、掴んだ後、向きを変える、ものが持っている穴に備え付けの棒を通す、掴んだものを、ものとものの隙間に差し込む、ものを積み上げる、などがある。 As an example of the movement, an object placed in various places is moved to another various place, grab an object from the side, move while grasping, place in another place, change direction after grasping, There are things such as passing a stick attached to a hole that an object has, inserting the grasped object into the gap between things, and stacking things.

また、動作を実行する環境・状況の例として、物体が置かれる様々な場所、周囲にどの様な物体が存在しているか、物体が別の物体に物理的に干渉しているか、などがある。 Also, examples of the environment/situation in which an operation is performed include various places where an object is placed, what kind of object exists in the surroundings, whether the object physically interferes with another object, etc. ..

周囲の物体を考慮する例として、周囲の物体の存在(どの空間を物体が占めているか)を確認し、ロボットが物理的に干渉するかどうかを確認するシステムが提案されている(例えば特許文献1参照)。 As an example of considering surrounding objects, a system has been proposed that confirms the existence of surrounding objects (which space the object occupies) and confirms whether or not the robot physically interferes (for example, Patent Document 1). 1).

また、センサ情報を機械学習モデルに入力し、機械学習モデルの出力によって対象機器を制御し、柔軟な制御を実現するシステムが提案されている(例えば特許文献2参照)。 Further, a system has been proposed in which sensor information is input to a machine learning model, a target device is controlled by the output of the machine learning model, and flexible control is realized (for example, refer to Patent Document 2).

特開2005−81445号公報JP, 2005-81445, A 特開2017−64910号公報JP, 2017-64910, A

前述した特許文献1に開示される従来のシステムは、周囲の物体がその空間を占めるかどうかを判断し他の物体が存在しない領域で動作を行う。そのため、例えば、他の物体を押しのけて物体をその場所に置くといった、物理的相互作用を伴う動作や、物体の種類に応じた動作の変更などは考慮されておらず、そのような動作が含まれる制御への対応はできない。 The conventional system disclosed in Patent Document 1 described above determines whether or not a surrounding object occupies the space, and operates in an area where no other object exists. Therefore, for example, actions involving physical interactions such as pushing away other objects and placing them at that location, or changes in actions depending on the type of object are not considered, and such actions are included. It is not possible to deal with the control that is performed.

また、特許文献2に開示されているシステムは、機械学習モデルを用いた制御により、幅広い状況において柔軟な制御が可能ではあるが、個別の状況ごとの、動作制御の、管理、評価検証、修正などは困難である。 Further, the system disclosed in Patent Document 2 allows flexible control in a wide range of situations by control using a machine learning model, but management, evaluation verification, and correction of operation control for each individual situation. Is difficult.

また、上記従来の技術では、ある状況における動作ミスに関しての動作制御の修正において、その修正による別の状況における動作制御の動作への影響については考慮されていない。修正によって、別の状況における動作制御の動作に影響が出る可能性がある。もともと動作が成立していた状況(目的を達成する動作を実現できていた状況)において、その修正によって動作が変更し、動作が成立しなくなる可能性がある。そのため、再度全ての状況で、動作が成立するかどうか、評価検証を行わないといけなくなる。 Further, in the above-mentioned conventional technique, in the correction of the operation control regarding the operation error in one situation, the influence of the correction on the operation of the operation control in another situation is not considered. The modification may affect the behavior of the motion control in other situations. In the situation where the operation was originally established (the situation in which the operation achieving the purpose could be realized), the operation may be changed by the modification, and the operation may not be established. Therefore, it is necessary to evaluate and verify again whether or not the operation is established in all situations.

本発明の目的は、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置を提供することにある。 An object of the present invention is to provide a robot control device capable of individually managing and correcting the control of operation according to each situation while realizing flexible control according to a wide range of environments and situations.

上記目的を達成するために、請求項1に記載の発明は、動作目的ごとに、当該動作目的に対応する動作制御の個数分存在し、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、動作目的及び状況情報が入力されると、前記動作目的に対応する動作制御の個数分の前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンであることを特徴とする。 In order to achieve the above object, the invention according to claim 1 has, for each operation purpose, the number of operation controls corresponding to the operation purpose, and the physical structure/shape of the surrounding object or the target robot itself. The physical status including the physical characteristics, the current status of the characteristics that can be changed over time (position, posture, temperature), their relative relationship, and the information (status information) of their combination (status information) are input and given. When the machine learning model that outputs the output value indicating whether the operation is established or not (binary value, continuous value, or multidimensional vector value) in the input operation of the input operation control and the operation purpose and the status information are input. The output value for each of the operation controls corresponding to the operation purpose is acquired by giving the status information to the machine learning models for the number of operation controls corresponding to the operation purpose, and the acquired output values are acquired. An operation control selecting unit that selects an operation control to be executed from the operation controls corresponding to the operation purpose based on an output value; and an operation control executing unit that executes the operation control selected by the operation control selecting unit. The operation control is a control routine for sensing a surrounding object with a sensor and achieving an operation purpose with interaction with another object .

請求項2に記載の発明は、前記機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における前記出力値の出力に影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行うことを特徴とする。 Invention according to claim 2, wherein the machine learning model, for each given operation control, or are constructed individually, be configured of a single model, the operation control other than the operation control to be learned Such learning is performed by using a model capable of learning the model of the target motion control by a method that does not affect the output of the output value in 1.

請求項3に記載の発明は、前記状況情報には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれることを特徴とする。 According to a third aspect of the invention, the status information includes at least the position of the object (the absolute position, relative position), and wherein the posture, the shape, to be included any of the types.

請求項4に記載の発明は、動作制御の設計仕様値実機での動作結果、人の経験則、又は、物理シミュレータ内での動作結果から生成する、状況データ−成立可否データペアを、前記機械学習モデルの学習データとして生成する学習データ生成部をさらに備えることを特徴とする。 Invention according to claim 4, design specification value of the operation control, the operation result of the actual machine, the human heuristics, or the operation results or we generate within physics simulator, status data - established feasibility data pairs and characterized by further comprising a learning data generating unit for generating as a learning data of the machine learning model.

請求項5に記載の発明は、前記学習データ生成部前記物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、前記状況データ−成立可否データペアとして生成することを特徴とする。 Invention of claim 5, wherein the learning data generating unit, when generating, using the physical simulator, in addition to the operation control, what state in the operation control define whether the state is an operation established at that operating control given conditions, executes the operation control given to various changing environments (situation information) in the physical simulator, to test whether the operation satisfied, the result, the status data - generated as established whether data pairs characterized in that it.

請求項6に記載の発明は、前記物理シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与え、その点を起点として、テストする環境(状況情報)の走査を行うことを特徴とする。 Invention according to claim 6, when testing the operation established by the physical simulator, the environment (status information) given operational control is established operation, at least one example given, starting the point, test It is characterized in that the environment (situation information) is scanned .

本発明により、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置が提供される。 According to the present invention, there is provided a robot control device capable of individually managing and correcting the control of the operation according to each situation while realizing the flexible control according to a wide range of environments and situations.

より詳しくは、請求項1に記載の発明によれば、動作制御の動作が成立する状況を柔軟に判断して、適切に動作実行することができる。言い換えるならば、多種多様で多量な情報による高次元で非常に複雑な、人がイメージすることや、人手で記述する事が困難な、動作制御の動作が成立する状況の範囲の境界も、機械学習モデルを用いることで、容易に記述可能になる。 More specifically, according to the invention described in claim 1, it is possible to flexibly judge the situation in which the operation of the operation control is established, and appropriately execute the operation. In other words, the boundaries of the range of situations where motion control motions are established, which are highly dimensional and extremely complex due to a large variety of large amounts of information, and which are difficult for humans to image or describe manually It becomes easy to describe by using the learning model.

請求項2に記載の発明によれば、状況判断を行う機械学習モデルにおいて、新規の動作制御に関する状況判断の追加や既存の動作制御に関する状況判断の修正が、他の動作制御の状況判断への影響なく行うことができる。 According to the invention described in claim 2, in the machine learning model for judging the situation, addition of a situation judgment concerning a new motion control or correction of a situation judgment concerning an existing motion control does not affect a situation judgment of another motion control. It can be done without any impact.

請求項3に記載の発明によれば、請求項1、請求項2に記載の発明と同等の作用効果が奏される。 According to the third aspect of the present invention, the same operational effects as those of the first and second aspects of the invention are exhibited.

請求項4に記載の発明によれば、請求項1、請求項2に記載の発明と同等の作用効果が奏される。 According to the invention described in claim 4, the same function and effect as those of the invention described in claims 1 and 2 can be obtained.

請求項5に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)ができる。 According to the invention described in claim 5, it is possible to automatically construct or modify (learn or relearn) a model for situation determination.

請求項6に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)を行う際、与えられた状況情報を、テストする状況を走査する際の起点とすることで、成立する状況の範囲のテストを効率的に行うことができる。 According to the invention described in claim 6, when automatically constructing or correcting (learning or relearning) a model for situation determination, the given situation information is used as a starting point for scanning the situation to be tested. As a result, it is possible to efficiently test the range of conditions that hold.

図1は、本発明の基本概念を説明する図である。FIG. 1 is a diagram for explaining the basic concept of the present invention. 図2は、本発明の基本概念の詳細を示す図である。FIG. 2 is a diagram showing details of the basic concept of the present invention. 図3は、実施の形態に係るロボット制御装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of the robot controller according to the embodiment. 図4は、実施の形態に係るロボット制御装置による事前処理を説明する図である。FIG. 4 is a diagram for explaining preprocessing by the robot controller according to the embodiment. 図5は、実施の形態に係るロボット制御装置の動作(動作制御)を説明する図である。FIG. 5 is a diagram illustrating an operation (operation control) of the robot controller according to the embodiment. 図6は、実施の形態に係るロボット制御装置のメンテナンス/評価検証時の処理を説明する図である。FIG. 6 is a diagram illustrating a process at the time of maintenance/evaluation verification of the robot control device according to the embodiment. 図7は、実施の形態に係るロボット制御装置が備える機械学習モデルの具体例を示す図である。FIG. 7 is a diagram showing a specific example of a machine learning model included in the robot control device according to the embodiment.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の基本概念を説明する図である。ここでは、対象物体をロボットアームで処理する際の「環境・状況の範囲」が例示されている。本図において、「NG」は、ロボットアームによる動作が不可能な「環境・状況の範囲」を例示している。 FIG. 1 is a diagram for explaining the basic concept of the present invention. Here, the “environment/situation range” when the target object is processed by the robot arm is illustrated. In the figure, “NG” exemplifies the “environment/situation range” in which the operation by the robot arm is impossible.

本図に示されるように、本発明は、「失敗しない、動作可能な環境・状況の範囲」という概念を用いる。つまり、動作目的および動作制御ごとに、「失敗しない、動作可能な環境・状況の範囲」を自動算出し、また各動作制御を個別に管理する。 As shown in the figure, the present invention uses the concept of "no failure, range of operable environment/situation". In other words, for each operation purpose and operation control, "the range of operable environment/situation that does not fail" is automatically calculated, and each operation control is managed individually.

ここで、環境・状況とは、対象物体やその周囲の物体の種類、置かれ方を意味する。様々な物体の種類、位置関係、状況からなるため、概念的に多次元な空間となる。また、動作によっては、ロボット自身の形状や姿勢も、環境・状況、に含まれる。また、複数のロボットの協調動作を考えた場合、それぞれのロボットの位置関係・姿勢関係も、環境・状況、に含まれる。 Here, the environment/situation means the type and placement of the target object and surrounding objects. It is a conceptually multidimensional space because it consists of various object types, positional relationships, and situations. In addition, depending on the motion, the shape and posture of the robot itself are also included in the environment/situation. Further, when considering the cooperative operation of a plurality of robots, the positional relationship/posture relationship of each robot is also included in the environment/situation.

なお、本実施の形態では、ロボットアームを例として説明するが、本発明は、ロボットの形状および構造に寄らず、あらゆる種類のロボットに適用可能である。 In the present embodiment, a robot arm will be described as an example, but the present invention can be applied to all types of robots regardless of the shape and structure of the robot.

図2は、本発明の基本概念の詳細を示す図である。本図に示されるように、本発明では、動作目的ごとに複数の動作制御を組み合わせることで動作目的を実現する。各動作制御は、個別に管理され、独立している。 FIG. 2 is a diagram showing details of the basic concept of the present invention. As shown in the figure, in the present invention, the operation purpose is realized by combining a plurality of operation controls for each operation purpose. Each operation control is managed individually and is independent.

図2の(a)は、動作目的A(例えば、ものを移動)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲A1では、動作制御A1が可能である。動作可能な環境・状況範囲A2では、動作制御A2が可能である。動作可能な環境・状況範囲A3では、動作制御A3が可能である。 FIG. 2A illustrates an environment/situation conceptual space for an operation purpose A (for example, moving an object). In this example, the operation control A1 is possible in the operable environment/situation range A1. The operation control A2 is possible in the operable environment/situation range A2. In the operable environment/situation range A3, operation control A3 is possible.

図2の(b)は、動作目的B(例えば、ものの姿勢を変更)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲B1では、動作制御B1が可能である。動作可能な環境・状況範囲B2では、動作制御B2が可能である。動作可能な環境・状況範囲B3では、動作制御B3が可能である。 FIG. 2B illustrates the conceptual space of the environment/situation for the motion purpose B (for example, changing the posture of the object). In this example, the operation control B1 is possible in the operable environment/situation range B1. In the operable environment/situation range B2, operation control B2 is possible. In the operable environment/situation range B3, operation control B3 is possible.

本発明では、図2に示されるように、失敗しない範囲を考慮して一つ以上の動作制御を組み合わせることで、一つの動作目的を実現する。 In the present invention, as shown in FIG. 2, one operation purpose is realized by combining one or more operation controls in consideration of the range where no failure occurs.

図3は、実施の形態に係るロボット制御装置10の構成を示すブロック図である。ロボット制御装置10は、目的動作入力部12、現在の状況の検知部14、動作制御選択部16、動作制御実行部18、各目的動作の動作制御の動作可能状況範囲を記述したML(機械学習)モデル20、動作制御の集合22、目的動作・動作制御の設計仕様値・実機動作値・経験則・動作制御・成立判断基準・動作基本状況等の各種情報入力部24、状況データ・成立可否データペアの生成部26、動作の物理シミュレーション部28、および、動作可能状況の範囲の確認部30で構成される。ロボット制御装置10は、動作制御ごとの動作可能状況範囲を記述したモデル(MLモデル20)を持ち、そのモデルを学習するデータサンプルを、動作制御の設計仕様値、実機動作値、経験則や物理シミュレータ(動作の物理シミュレーション部28)などから得る。この処理を、動作制御の内容によらず、自動で行う。 FIG. 3 is a block diagram showing the configuration of the robot controller 10 according to the embodiment. The robot control device 10 includes a target motion input unit 12, a current condition detection unit 14, a motion control selection unit 16, a motion control execution unit 18, and an ML (machine learning) that describes the operable condition range of motion control of each target motion. ) Model 20, operation control set 22, various specifications information input section 24 such as target operation/design specification value of operation control/actual machine operation value/empirical rule/operation control/establishment criteria/operation basic situation, situation data/approval It is composed of a data pair generation unit 26, an operation physical simulation unit 28, and an operation status range confirmation unit 30. The robot controller 10 has a model (ML model 20) that describes the operable state range for each motion control, and uses a data sample for learning the model as a design specification value for motion control, an actual machine motion value, a rule of thumb, and physics. It is obtained from a simulator (physical simulation unit 28 of operation) or the like. This processing is automatically performed regardless of the content of operation control.

なお、MLモデル20は、各種情報入力部24で与える動作制御における制御用に、機械学習モデルを使っていた場合、その中に、統合する形としても良い。例えば、動作制御用の機械学習モデルの入力の種類と、MLモデル20の入力の種類が共通で、動作制御用の出力とは別に、成立可否用の出力が設けてある形の、1つの機械学習モデルへの統合などである。 When the machine learning model is used for the control in the motion control given by the various information input unit 24, the ML model 20 may be integrated into the machine learning model. For example, one type of machine in which the type of input of the machine learning model for motion control and the type of input of the ML model 20 are common, and an output for success/failure is provided separately from the output for motion control. For example, integration into a learning model.

また、動作制御ごとの個別の機械学習モデルの場合、各機械学習モデルの入力や出力はそれぞれ同一の形式でなくてもよい。 Further, in the case of an individual machine learning model for each operation control, the input and output of each machine learning model do not have to be in the same format.

また、動作制御ごとの個別の機械学習モデルではなく、単一モデルの構成における、動作の追加や修正における、モデル出力の対応に関して、次の2つのことがいえる。 Further, the following two points can be said regarding the correspondence of the model output in the addition or modification of the operation in the configuration of the single model, instead of the individual machine learning model for each operation control.

(1)「モデル構成は固定で出力値のみ変更する形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、モデルの出力は、例えば、多次元ベクトルとなっており、動作制御の追加は、新しいパターンの出力値を出力させる形に学習を行う。 (1) "The model structure is fixed and only the output value is changed, and the operation value is added and the situation range is corrected. It does not affect the output value related to the operation control other than the operation control to be learned. In the case of using a model capable of learning a model related to target motion control with a method that has little influence,” the output of the model is, for example, a multidimensional vector, and the addition of motion control uses a new pattern. Learning is performed so that the output value of is output.

(2)「モデル構成の変更拡張と出力値の変更による形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、例えば、モデル構成として新たな動作制御用の出力算出部を追加するなど、出力値の算出構造を変化させたりして、新しい動作制御追加を行う。 (2) “A model that adds motion control and modifies the range of conditions by modifying and expanding the model configuration and modifying the output value, and affects the output value related to motion control other than the learning target motion control. If a model that can learn a model related to target motion control is used with a method that has little or no effect,” for example, by adding an output calculation unit for new motion control as a model configuration, A new operation control is added by changing the calculation structure.

なお、以下では、説明の簡単化のため、動作制御ごとの個別の機械学習モデルを想定して述べる。 In the following, for simplification of description, an individual machine learning model for each operation control is assumed and described.

図4は、実施の形態に係るロボット制御装置10による事前処理を説明する図である。ここでは、図3に示されるブロック図のうち、事前処理に関連するブロックだけが示されている。 FIG. 4 is a diagram for explaining pre-processing by the robot controller 10 according to the embodiment. Here, of the block diagram shown in FIG. 3, only the blocks related to the preprocessing are shown.

使用する動作制御における、MLモデル20の学習のため、状況データ・成立可否データペアの生成部26において、学習用のデータである、状況データ・成立可否データペアが多量に生成される。生成は、その動作制御の設計仕様値や実機での動作値、動作制御作成者の経験則などから、どの様な状況において動作が成立するか否かを表す、状況データ−成立可否データペアを様々な状況において生成するか、動作制御および動作が成立したかどうかの判断基準、また、動作させる際の基本的な(代表的な)状況を、動作の物理シミュレーション部28に入れ、動作制御を様々な状況において動作させた結果を基に生成する。 In order to learn the ML model 20 in the operation control to be used, the situation data/satisfiability data pair generation unit 26 generates a large number of situation data/satisfiability data pairs as learning data. The generation is based on the design specification value of the operation control, the operation value on the actual machine, the rule of thumb of the operation control creator, and the like. Whether or not to generate in various situations, the operation control and the judgment criterion of whether or not the operation is established, and the basic (representative) situation when the operation is performed are put in the operation physical simulation unit 28 to perform the operation control. It is generated based on the result of operating in various situations.

図5は、実施の形態に係るロボット制御装置10の動作(動作制御)を説明する図である。ここでは、図3に示されるブロック図のうち、ロボット制御装置10の動作(動作制御)に関連するブロックだけが示されている。 FIG. 5 is a diagram illustrating an operation (operation control) of the robot control device 10 according to the embodiment. Here, of the block diagram shown in FIG. 3, only blocks related to the operation (operation control) of the robot controller 10 are shown.

動作制御選択部16は、目的動作入力部12から入力された目的動作に対応する、状況範囲の抽象モデル(目的動作に対応する動作制御の個数分存在するMLモデル20)に、現在の状況の検知部14から得られた、現在の状況データを入れ、各MLモデル20の出力を確認する(MLモデル20からは、対応する動作制御が可能か否かの推論値が出力される)。 The motion control selection unit 16 uses the abstract model of the situation range corresponding to the target motion input from the target motion input unit 12 (the ML model 20 existing for the number of motion controls corresponding to the target motion) of the current situation. The current situation data obtained from the detection unit 14 is entered and the output of each ML model 20 is confirmed (the ML model 20 outputs an inference value indicating whether or not the corresponding operation control is possible).

動作制御選択部16は、MLモデル20の出力値から、現在の状況では、どの動作制御だと動作可能かを判断(なお、複数の動作制御が動作可能という場合も存在する。範囲の重複時)し、動作制御の集合22から、動作制御を選択する。そして、動作制御実行部18は、選択された動作制御を実行する。つまり、今の状況を、MLモデル20に入れ、失敗しないかどうかを推論させ、失敗しないと出た動作制御を採用し実行する。 The operation control selection unit 16 determines from the output value of the ML model 20 which operation control is operable in the current situation (note that a plurality of operation controls may be operable. When the ranges overlap. ), and the operation control is selected from the operation control set 22. Then, the operation control execution unit 18 executes the selected operation control. That is, the current situation is put into the ML model 20, and it is inferred whether or not there is a failure, and the operation control that is not failed is adopted and executed.

図6は、実施の形態に係るロボット制御装置10のメンテナンス/評価検証時の処理を説明する図である。ここでは、図3に示されるブロック図のうち、メンテナンス/評価検証に関連するブロックだけが示されている。 FIG. 6 is a diagram illustrating a process of maintenance/evaluation verification of the robot controller 10 according to the embodiment. Here, of the block diagram shown in FIG. 3, only blocks related to maintenance/evaluation verification are shown.

動作可能状況の範囲の確認部30は、各動作制御のMLモデル20(事前処理において学習済み)を調べ、ある目的動作ある状況において、どの様な動作制御が対応付けられているか、また、どんな動作制御も対応付けられていないかを、調べ、必要ならば新たに動作制御を作成し、「事前処理」の手順にて対応付けを行う。 The confirming unit 30 for the range of operable status examines the ML model 20 of each operation control (learned in the pre-processing), what kind of operation control is associated with a certain target operation, and what kind of operation control. It is checked whether the operation control is also associated, and if necessary, a new operation control is created, and the operation control is associated in the procedure of “preprocessing”.

また、ある目的動作ある状況における動作制御を改善したい場合、動作可能状況の範囲の確認部30は、その状況に対応付けられている、動作制御を判定し(調べ)、その動作制御に対し、修正を行う。動作制御は、可能状況範囲に応じて完全に分離されている(つまり各動作制御は独立)ため、修正は、他の動作制御には影響を与えない。 Further, when it is desired to improve the operation control in a certain target operation in a certain situation, the confirmation unit 30 of the range of the operable situation determines (inspects) the operation control associated with the situation, and with respect to the operation control, Make corrections. Since the motion controls are completely separated according to the possible situation range (that is, each motion control is independent), the modification does not affect other motion controls.

このように、ある状況で適切に動作するか否か確認する場合には(チェック1)、動作可能状況の範囲の確認部30により、MLモデル20の出力の確認で可能である。また、ある状況での制御を改善したい場合には(チェック2)、動作可能状況の範囲の確認部30により、MLモデル20を見て、対応づいている動作制御を修正すればよい。 In this way, when confirming whether or not the device properly operates in a certain situation (check 1), it is possible to confirm the output of the ML model 20 by the confirmation unit 30 of the range of the operable state. Further, when it is desired to improve the control under a certain situation (check 2), the operation status range confirmation unit 30 may look at the ML model 20 and correct the corresponding operation control.

図7は、実施の形態に係るロボット制御装置10が備えるMLモデル20の具体例を示す図である。本実施の形態では、MLモデル20は、Three Dimensional Convolutional Neural Networkと呼ばれるDNN(Deep Neural Network)が用いられる。DNNは、空間中の各位置における物体の有無、物体の種類などを入力とし、動作可能かどうか(OK/NG)を出力する。 FIG. 7 is a diagram showing a specific example of the ML model 20 included in the robot control device 10 according to the embodiment. In this embodiment, the ML model 20 uses a DNN (Deep Neural Network) called a Three Dimensional Convolutional Neural Network. The DNN inputs the presence/absence of an object at each position in the space, the type of the object, etc., and outputs whether or not it is operable (OK/NG).

以上のように、本実施の形態に係るロボット制御装置10は、ロボット制御を実現するための以下の4つの必要要件1〜4をすべて満たしている。 As described above, the robot control device 10 according to the present embodiment satisfies all the following four requirements 1 to 4 for realizing robot control.

・必要要件1:幅広い環境、状況に合わせた柔軟な制御が可能であること。 ・Requirement 1: Flexible control that is suitable for a wide range of environments and situations is possible.

これについては、本実施の形態に係るロボット制御装置10によれば、複数の動作制御を組み合わせられ、また制御手法の種類に制約は無いため、可能である。 This is possible because the robot control device 10 according to the present embodiment can combine a plurality of operation controls and there is no restriction on the type of control method.

・必要要件2:物理的な現象を考慮(対象物体の他物体への干渉。例、押す、摩擦、沿わせる、重心バランス、など)した制御が可能であること。 ・Requirement 2: Control that considers a physical phenomenon (interference of the target object with other objects, eg, pushing, friction, along, center of gravity balance, etc.) is possible.

これについては、本実施の形態に係るロボット制御装置10によれば、物理シミュレーションにより判定させるので可能である。 This is possible because the robot control device 10 according to the present embodiment makes a determination by a physical simulation.

・必要要件3:動作を実行する各制御ルーチン(以降、動作制御、と呼ぶ)が成立する(つまり、目的を達成するように動作する)環境・状況の範囲の明確化が可能であること。 -Requirement 3: It is possible to clarify the range of environment/situation in which each control routine that executes an operation (hereinafter referred to as operation control) is established (that is, operates so as to achieve the purpose).

これについては、本実施の形態に係るロボット制御装置10によれば、動作可能状況範囲をモデル化するため可能である。 This is possible because the robot controller 10 according to the present embodiment models the operable condition range.

・必要要件4:それぞれの動作制御を個別にチューニング可能であること。 -Requirement 4: Each operation control can be individually tuned.

これについては、本実施の形態に係るロボット制御装置10によれば、可能状況範囲ごとに個別に動作制御を扱うため、可能である。 This is possible because the robot control device 10 according to the present embodiment handles motion control individually for each possible situation range.

本発明は、ロボット制御装置として、特に、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置として、利用できる。 INDUSTRIAL APPLICABILITY The present invention can be used as a robot control device, in particular, as a robot control device that realizes flexible control according to a wide range of environments and situations, and can individually manage and correct control of operation according to each situation. ..

10 ロボット制御装置
12 目的動作入力部
14 現在の状況の検知部
16 動作制御選択部
18 動作制御実行部
20 ML(機械学習)モデル
22 動作制御の集合
24 各種情報入力部
26 状況データ・成立可否データペアの生成部
28 動作の物理シミュレーション部
30 動作可能状況の範囲の確認部
10 Robot Control Device 12 Target Motion Input Unit 14 Current State Detection Unit 16 Motion Control Selection Unit 18 Motion Control Execution Unit 20 ML (Machine Learning) Model 22 Motion Control Set 24 Various Information Input Unit 26 Status Data/Success/Failure Data Pair generation unit 28 Physical simulation unit of operation 30 Confirmation unit of range of operable status

Claims (6)

動作目的ごとに、当該動作目的に対応する動作制御の個数分存在し、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、
動作目的及び状況情報が入力されると、前記動作目的に対応する動作制御の個数分の前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、
前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、
前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンである
ことを特徴とする、ロボット制御装置。
For each operation purpose, there are the same number of operation controls as the operation purpose, and the physical state including the physical structure/shape of the surrounding object or the target robot itself, the current state of the characteristic that can change with time (position , Posture, temperature), their relative relations, and combinations thereof (situation information), any situation information is input, and whether or not a given operation control has an action in the input situation ( A machine learning model that outputs an output value indicating a binary value, a continuous value, or a multidimensional vector value,
When the operation purpose and the situation information are input, the situation information is given to the machine learning models corresponding to the number of operation controls corresponding to the operation purpose, so that each of the operation controls corresponding to the operation purpose is given. An operation control selecting unit that acquires the output value and selects an operation control to be executed from among the operation controls corresponding to the operation purpose based on the acquired output value;
An operation control execution unit that executes the operation control selected by the operation control selection unit ;
The robot control device is characterized in that the motion control is a control routine for sensing a surrounding object by a sensor and achieving an operation purpose by interacting with another object .
前記機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における前記出力値の出力に影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行う、請求項1記載のロボット制御装置。 The machine learning model is constructed individually for each given motion control, or even if it has a single model configuration, it affects the output of the output value in the motion control other than the motion control of the learning target. The robot controller according to claim 1, wherein such learning is performed by using a model capable of learning a model of motion control of a target by a method not given. 前記状況情報には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれる、請求項1または2記載のロボット制御装置。 The robot control device according to claim 1, wherein the situation information includes at least one of the position (absolute position, relative position), posture, shape, and type of the object. 動作制御の設計仕様値実機での動作結果、人の経験則、又は、物理シミュレータ内での動作結果から生成する、状況データ−成立可否データペアを、前記機械学習モデルの学習データとして生成する学習データ生成部をさらに備える、請求項1、2または3記載のロボット制御装置。 Design specification value of the operation control, the operation result of the actual machine, the human heuristics, or the operation results or we generate within physics simulator, status data - the establishment whether the data pairs, the learning data of the machine learning model and further comprising a learning data generating unit which generates the robot control apparatus according to claim 1, 2 or 3 wherein. 前記学習データ生成部前記物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、前記状況データ−成立可否データペアとして生成する、請求項4記載のロボット制御装置。 The learning data generating unit, when generating, using the physical simulator, in addition to the operation control, given the conditions under which what state in the operation control to define a is either state operation established at that operating control, in the physical simulator The robot control according to claim 4 , wherein the environment (situation information) is changed variously, and given operation control is executed to test whether or not the operation is established, and the result is generated as the situation data-satisfiability data pair. apparatus. 前記物理シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与え、その点を起点として、テストする環境(状況情報)の走査を行う請求項5記載のロボット制御装置。 When testing the operation established by the physical simulator, the environment (status information) given operational control is established operation, at least one example given, the point as a starting point, the scanning of the test environment (situation information) The robot controller according to claim 5, which is performed .
JP2019155446A 2019-08-28 2019-08-28 Robot controller Active JP6742040B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2019155446A JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller
EP20859507.4A EP3998140A4 (en) 2019-08-28 2020-08-28 Robot control device
CN202080058088.6A CN114269524B (en) 2019-08-28 2020-08-28 Robot control device
PCT/JP2020/032686 WO2021039995A1 (en) 2019-08-28 2020-08-28 Robot control device
DE112020004135.2T DE112020004135T5 (en) 2019-08-28 2020-08-28 robot control device
GB2200845.2A GB2600843B (en) 2019-08-28 2020-08-28 Robot control device
US17/674,467 US11511414B2 (en) 2019-08-28 2022-02-17 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155446A JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020124276A Division JP6792898B1 (en) 2019-08-28 2020-07-21 Robot control device

Publications (2)

Publication Number Publication Date
JP6742040B1 true JP6742040B1 (en) 2020-08-19
JP2021030393A JP2021030393A (en) 2021-03-01

Family

ID=72047816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019155446A Active JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller

Country Status (1)

Country Link
JP (1) JP6742040B1 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2216145B1 (en) * 2009-02-06 2011-06-08 Honda Research Institute Europe GmbH Learning and use of schemata in robotic devices
KR20110015765A (en) * 2009-08-10 2011-02-17 삼성전자주식회사 Path planning apparatus of robot and method thereof
JP5873629B2 (en) * 2010-12-16 2016-03-01 セイコーエプソン株式会社 Robot arm
WO2017103682A2 (en) * 2015-12-16 2017-06-22 Mbl Limited Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries
WO2017151926A1 (en) * 2016-03-03 2017-09-08 Google Inc. Deep machine learning methods and apparatus for robotic grasping
JP7069110B2 (en) * 2016-07-18 2022-05-17 ラエル オドナー, Assessment of robot grip
JP6640060B2 (en) * 2016-09-27 2020-02-05 株式会社日立製作所 Robot system
CN110248774A (en) * 2017-02-09 2019-09-17 三菱电机株式会社 Position control and position control method
JP6951659B2 (en) * 2017-05-09 2021-10-20 オムロン株式会社 Task execution system, task execution method, and its learning device and learning method
JP6886869B2 (en) * 2017-06-09 2021-06-16 川崎重工業株式会社 Motion prediction system and motion prediction method
US10773382B2 (en) * 2017-09-15 2020-09-15 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation

Also Published As

Publication number Publication date
JP2021030393A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
US6445964B1 (en) Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine
JP7009051B2 (en) Layout setting method, control program, recording medium, control device, parts manufacturing method, robot system, robot control device, information processing method, information processing device
WO2021039995A1 (en) Robot control device
JP6826076B2 (en) Automatic route generator
JPWO2010092981A1 (en) Industrial robot system
US11762679B2 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
Mayr et al. Skill-based multi-objective reinforcement learning of industrial robot tasks with planning and knowledge integration
Rahimi et al. Neural impedance adaption for assistive human–robot interaction
Rahman Cognitive cyber-physical system (C-CPS) for human-robot collaborative manufacturing
Sanfilippo et al. A universal control architecture for maritime cranes and robots using genetic algorithms as a possible mapping approach
JP2023526962A (en) Robot Demonstration Learning Skill Template
Pedersen et al. Gesture-based extraction of robot skill parameters for intuitive robot programming
CN114932555A (en) Mechanical arm cooperative operation system and mechanical arm control method
Ramasubramanian et al. Automatic simulation-based design and validation of robotic gripper fingers
JP6742040B1 (en) Robot controller
JP2006268813A (en) Learning control device, learning control method, and program
Vats et al. Synergistic scheduling of learning and allocation of tasks in human-robot teams
Sanfilippo et al. A mapping approach for controlling different maritime cranes and robots using ANN
Borghesan et al. Introducing geometric constraint expressions into robot constrained motion specification and control
JP6792898B1 (en) Robot control device
Zou et al. Development of robot programming system through the use of augmented reality for assembly tasks
Santo et al. Collaborative control of mobile manipulator robots through the hardware-in-the-loop technique
JP2022128114A (en) Maintenance support system
Gregory et al. Opportunities for Generative Artificial Intelligence to Accelerate Deployment of Human-Supervised Autonomous Robots
JP2020060996A (en) Simulation device, simulation method, and simulation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191001

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191001

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6742040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250