JP2021030393A - Robot control device - Google Patents

Robot control device Download PDF

Info

Publication number
JP2021030393A
JP2021030393A JP2019155446A JP2019155446A JP2021030393A JP 2021030393 A JP2021030393 A JP 2021030393A JP 2019155446 A JP2019155446 A JP 2019155446A JP 2019155446 A JP2019155446 A JP 2019155446A JP 2021030393 A JP2021030393 A JP 2021030393A
Authority
JP
Japan
Prior art keywords
control
motion
situation
model
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019155446A
Other languages
Japanese (ja)
Other versions
JP6742040B1 (en
Inventor
神谷 保徳
Yasunori Kamiya
保徳 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daily Color Inc
Original Assignee
Daily Color Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2019155446A priority Critical patent/JP6742040B1/en
Application filed by Daily Color Inc filed Critical Daily Color Inc
Publication of JP6742040B1 publication Critical patent/JP6742040B1/en
Application granted granted Critical
Priority to PCT/JP2020/032686 priority patent/WO2021039995A1/en
Priority to CN202080058088.6A priority patent/CN114269524B/en
Priority to DE112020004135.2T priority patent/DE112020004135T5/en
Priority to EP20859507.4A priority patent/EP3998140A4/en
Priority to GB2200845.2A priority patent/GB2600843B/en
Publication of JP2021030393A publication Critical patent/JP2021030393A/en
Priority to US17/674,467 priority patent/US11511414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

To realize flexible control in accordance with a wide range of environments and situations while allowing individual management and correction of control of operations in accordance with the respective environments and situations.SOLUTION: A range of environments and situations in which control for enabling each control routine (hereafter referred to as operation control) for executing an operation to achieve the operation purpose is possible is described by a machine learning model. Appropriate operation control for a current situation is selected and executed according to a model output (e.g., whether it is within the range).SELECTED DRAWING: Figure 1

Description

本発明は、何らかのセンサを持ち、センサにより周囲の物体をセンシングし、他の物体(「環境」とも言える物体も含む。例、壁、床)とのインタラクションを伴うロボットの制御に関する。本発明はまた、ロボットの動作制御の管理、評価検証、改善のための制御プログラムの構成に関する。 The present invention relates to the control of a robot having some kind of sensor, sensing surrounding objects by the sensor, and interacting with other objects (including an object that can be said to be an "environment", for example, a wall or a floor). The present invention also relates to the configuration of a control program for management, evaluation verification, and improvement of robot motion control.

他の物体とのインタラクションを伴う動作を、環境やタスクが固定されない自由度のある環境(オープンな環境)で行うロボット(例、自律制御された家事ロボット、介護ロボット、など)は置かれた環境・状況に応じて柔軟に動作する必要がある。また、行うべき動作もタスクに応じて様々である。 An environment in which robots (eg, autonomously controlled domestic robots, nursing robots, etc.) that perform operations that involve interaction with other objects in an environment with a degree of freedom (open environment) in which the environment and tasks are not fixed are placed. -It is necessary to operate flexibly according to the situation. In addition, the actions to be performed vary depending on the task.

一見似ているが、工場内作業場内のロボットアームは、単一の物体を対象に単一のパス(経路)を移動するのみでよく(環境・状況・タスクが固定されている)、ロボットに求められる要件は異なる。また、実用化を考えた際、評価検証、改善といった面が出てくる。 At first glance, the robot arm in the factory workshop only needs to move a single path (path) for a single object (environment, situation, task is fixed), and it becomes a robot. The required requirements are different. In addition, when considering practical application, there are aspects such as evaluation verification and improvement.

動作の例として、様々な場所に置かれた物体を、別の様々な場所に移動させる、ものを横から掴み、掴んだまま移動し、別の場所に置く、掴んだ後、向きを変える、ものが持っている穴に備え付けの棒を通す、掴んだものを、ものとものの隙間に差し込む、ものを積み上げる、などがある。 As an example of movement, move an object placed in various places to another various place, grab an object from the side, move it while holding it, put it in another place, grab it and then turn it. There are things such as passing the stick provided in the hole that the object has, inserting the grasped object into the gap between the object and the object, stacking the object, and so on.

また、動作を実行する環境・状況の例として、物体が置かれる様々な場所、周囲にどの様な物体が存在しているか、物体が別の物体に物理的に干渉しているか、などがある。 In addition, as an example of the environment / situation in which an operation is executed, there are various places where an object is placed, what kind of object exists around it, and whether an object physically interferes with another object. ..

周囲の物体を考慮する例として、周囲の物体の存在(どの空間を物体が占めているか)を確認し、ロボットが物理的に干渉するかどうかを確認するシステムが提案されている(例えば特許文献1参照)。 As an example of considering surrounding objects, a system has been proposed that confirms the existence of surrounding objects (which space the object occupies) and confirms whether or not the robot physically interferes (for example, patent documents). 1).

また、センサ情報を機械学習モデルに入力し、機械学習モデルの出力によって対象機器を制御し、柔軟な制御を実現するシステムが提案されている(例えば特許文献2参照)。 Further, a system has been proposed in which sensor information is input to a machine learning model, the target device is controlled by the output of the machine learning model, and flexible control is realized (see, for example, Patent Document 2).

特開2005−81445号公報Japanese Unexamined Patent Publication No. 2005-81445 特開2017−64910号公報JP-A-2017-64910

前述した特許文献1に開示される従来のシステムは、周囲の物体がその空間を占めるかどうかを判断し他の物体が存在しない領域で動作を行う。そのため、例えば、他の物体を押しのけて物体をその場所に置くといった、物理的相互作用を伴う動作や、物体の種類に応じた動作の変更などは考慮されておらず、そのような動作が含まれる制御への対応はできない。 The conventional system disclosed in Patent Document 1 described above determines whether or not a surrounding object occupies the space and operates in a region where no other object exists. Therefore, for example, actions involving physical interaction such as pushing away other objects and placing the objects in place, and changes in actions according to the type of object are not considered, and such actions are included. It is not possible to respond to the control.

また、特許文献2に開示されているシステムは、機械学習モデルを用いた制御により、幅広い状況において柔軟な制御が可能ではあるが、個別の状況ごとの、動作制御の、管理、評価検証、修正などは困難である。 Further, the system disclosed in Patent Document 2 can be flexibly controlled in a wide range of situations by controlling using a machine learning model, but management, evaluation verification, and modification of motion control for each individual situation. Etc. are difficult.

また、上記従来の技術では、ある状況における動作ミスに関しての動作制御の修正において、その修正による別の状況における動作制御の動作への影響については考慮されていない。修正によって、別の状況における動作制御の動作に影響が出る可能性がある。もともと動作が成立していた状況(目的を達成する動作を実現できていた状況)において、その修正によって動作が変更し、動作が成立しなくなる可能性がある。そのため、再度全ての状況で、動作が成立するかどうか、評価検証を行わないといけなくなる。 Further, in the above-mentioned conventional technique, in the correction of the operation control regarding the operation error in a certain situation, the influence of the correction on the operation of the operation control in another situation is not considered. The modification may affect the behavior of motion control in other situations. In a situation where the operation was originally established (a situation in which the operation achieving the purpose was achieved), the operation may be changed by the modification and the operation may not be established. Therefore, it is necessary to evaluate and verify again whether or not the operation is established in all situations.

本発明の目的は、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置を提供することにある。 An object of the present invention is to provide a robot control device capable of individually managing and modifying the control of movements according to each situation while realizing flexible control according to a wide range of environments and situations.

上記目的を達成するために、請求項1に記載の発明は、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度など)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を出力する機械学習モデルと、モデルにより出力された値に基づき、動作制御を選択し実行する動作選択実行部とを、具備することを特徴とする。 In order to achieve the above object, the invention according to claim 1 describes the current state (position, posture) of the physical characteristics including the physical structure and shape of the surrounding object or the target robot itself, and the characteristics that can be changed with time. ,, temperature, etc.), their relative relationship, combination, information (situation information), any situation information is input, and the presence or absence of operation establishment in the input situation of the given operation control (2) It is characterized by including a machine learning model that outputs a value (a value, a continuous value, or a multidimensional vector value), and an operation selection execution unit that selects and executes an operation control based on the value output by the model.

請求項2に記載の発明は、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を出力する機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における動作成立の有無か度合いの出力に影響を与えないか少ししか影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行うことを特徴とする。 The invention according to claim 2 is a machine learning model that outputs the presence / absence or degree (binary value, continuous value, or multidimensional vector value) of the given motion control in the input situation. Each control is constructed individually, or even if it is a single model configuration, it does not affect the output of the presence or absence or degree of operation establishment in the operation control other than the operation control of the learning target, or it has a slight effect. It is characterized in that such learning is performed using a model capable of learning a model of motion control of an object by a method that does not give.

請求項3に記載の発明は、機械学習モデルの入力(状況情報)には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれることを特徴とする。 The invention according to claim 3 is characterized in that the input (situation information) of the machine learning model includes at least one of the position (absolute position, relative position), posture, shape, and type of the object. ..

請求項4に記載の発明は、動作制御の設計仕様値や、実機での動作結果や、人の経験則や、物理シミュレータ内での動作結果などから生成する、状況データ−成立可否データペアを、機械学習モデルの学習データとすることを特徴とする。 The invention according to claim 4 obtains a situation data-establishment / non-establishment data pair generated from a design specification value of operation control, an operation result in an actual machine, a human rule of thumb, an operation result in a physical simulator, and the like. , It is characterized in that it is used as training data of a machine learning model.

請求項5に記載の発明は、学習データ生成部内において、物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、状況データ−成立可否データペアを作る機能を持つことを特徴とする。 The invention according to claim 5 is a condition that defines what kind of state in the motion control is the state in which the motion is established in the motion control, in addition to the motion control when the data is generated by using the physics simulator in the learning data generation unit. It has a function to change the environment (situation information) in various ways in the physics simulator, execute the given motion control, test whether the motion is established, and create a status data-establishment data pair based on the result. It is characterized by that.

請求項6に記載の発明は、物体シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与えることを特徴とする。 The invention according to claim 6 is characterized in that, when testing the establishment of an operation with an object simulator, at least one environment (situation information) in which the given operation control is established is provided.

本発明により、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置が提供される。 INDUSTRIAL APPLICABILITY The present invention provides a robot control device capable of individually managing and modifying the control of operations according to each situation while realizing flexible control according to a wide range of environments and situations.

より詳しくは、請求項1に記載の発明によれば、動作制御の動作が成立する状況を柔軟に判断して、適切に動作実行することができる。言い換えるならば、多種多様で多量な情報による高次元で非常に複雑な、人がイメージすることや、人手で記述する事が困難な、動作制御の動作が成立する状況の範囲の境界も、機械学習モデルを用いることで、容易に記述可能になる。 More specifically, according to the first aspect of the present invention, it is possible to flexibly determine the situation in which the operation of the operation control is established and execute the operation appropriately. In other words, the boundaries of the range of situations in which motion control operations are established, which are high-dimensional and extremely complex with a wide variety of information and are difficult for humans to imagine or describe manually, are also machines. By using a learning model, it becomes easy to describe.

請求項2に記載の発明によれば、状況判断を行う機械学習モデルにおいて、新規の動作制御に関する状況判断の追加や既存の動作制御に関する状況判断の修正が、他の動作制御の状況判断への影響なく行うことができる。 According to the invention of claim 2, in the machine learning model for determining the situation, the addition of the situation judgment regarding the new motion control or the modification of the situation judgment regarding the existing motion control is added to the situation judgment of the other motion control. It can be done without any influence.

請求項3に記載の発明によれば、請求項1、請求項2に記載の発明と同等の作用効果が奏される。 According to the invention of claim 3, the same effect as that of the invention of claims 1 and 2 is exhibited.

請求項4に記載の発明によれば、請求項1、請求項2に記載の発明と同等の作用効果が奏される。 According to the invention of claim 4, the same effects as those of the inventions of claims 1 and 2 are exhibited.

請求項5に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)ができる。 According to the invention of claim 5, it is possible to automatically construct or modify (learn or relearn) a model for determining a situation.

請求項6に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)を行う際、与えられた状況情報を、テストする状況を走査する際の起点とすることで、成立する状況の範囲のテストを効率的に行うことができる。 According to the invention of claim 6, when the model of the situation judgment is automatically constructed or modified (learning or re-learning), the given situation information is used as a starting point when scanning the situation to be tested. As a result, it is possible to efficiently test the range of situations that hold.

図1は、本発明の基本概念を説明する図である。FIG. 1 is a diagram illustrating a basic concept of the present invention. 図2は、本発明の基本概念の詳細を示す図である。FIG. 2 is a diagram showing details of the basic concept of the present invention. 図3は、実施の形態に係るロボット制御装置の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a robot control device according to an embodiment. 図4は、実施の形態に係るロボット制御装置による事前処理を説明する図である。FIG. 4 is a diagram illustrating preprocessing by the robot control device according to the embodiment. 図5は、実施の形態に係るロボット制御装置の動作(動作制御)を説明する図である。FIG. 5 is a diagram illustrating an operation (operation control) of the robot control device according to the embodiment. 図6は、実施の形態に係るロボット制御装置のメンテナンス/評価検証時の処理を説明する図である。FIG. 6 is a diagram illustrating a process at the time of maintenance / evaluation verification of the robot control device according to the embodiment. 図7は、実施の形態に係るロボット制御装置が備える機械学習モデルの具体例を示す図である。FIG. 7 is a diagram showing a specific example of a machine learning model included in the robot control device according to the embodiment.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の基本概念を説明する図である。ここでは、対象物体をロボットアームで処理する際の「環境・状況の範囲」が例示されている。本図において、「NG」は、ロボットアームによる動作が不可能な「環境・状況の範囲」を例示している。 FIG. 1 is a diagram illustrating a basic concept of the present invention. Here, the "range of environment / situation" when processing the target object with the robot arm is illustrated. In this figure, "NG" exemplifies an "environment / situation range" in which the robot arm cannot operate.

本図に示されるように、本発明は、「失敗しない、動作可能な環境・状況の範囲」という概念を用いる。つまり、動作目的および動作制御ごとに、「失敗しない、動作可能な環境・状況の範囲」を自動算出し、また各動作制御を個別に管理する。 As shown in this figure, the present invention uses the concept of "a range of operating environments / situations that do not fail". That is, for each operation purpose and operation control, the "range of environment / situation that can be operated without failure" is automatically calculated, and each operation control is managed individually.

ここで、環境・状況とは、対象物体やその周囲の物体の種類、置かれ方を意味する。様々な物体の種類、位置関係、状況からなるため、概念的に多次元な空間となる。また、動作によっては、ロボット自身の形状や姿勢も、環境・状況、に含まれる。また、複数のロボットの協調動作を考えた場合、それぞれのロボットの位置関係・姿勢関係も、環境・状況、に含まれる。 Here, the environment / situation means the type and placement of the target object and its surrounding objects. Since it consists of various types of objects, positional relationships, and situations, it is conceptually a multidimensional space. In addition, depending on the movement, the shape and posture of the robot itself are also included in the environment / situation. In addition, when considering the cooperative operation of a plurality of robots, the positional relationship / posture relationship of each robot is also included in the environment / situation.

なお、本実施の形態では、ロボットアームを例として説明するが、本発明は、ロボットの形状および構造に寄らず、あらゆる種類のロボットに適用可能である。 In the present embodiment, the robot arm will be described as an example, but the present invention can be applied to all kinds of robots regardless of the shape and structure of the robot.

図2は、本発明の基本概念の詳細を示す図である。本図に示されるように、本発明では、動作目的ごとに複数の動作制御を組み合わせることで動作目的を実現する。各動作制御は、個別に管理され、独立している。 FIG. 2 is a diagram showing details of the basic concept of the present invention. As shown in this figure, in the present invention, the operation purpose is realized by combining a plurality of operation controls for each operation purpose. Each motion control is managed individually and is independent.

図2の(a)は、動作目的A(例えば、ものを移動)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲A1では、動作制御A1が可能である。動作可能な環境・状況範囲A2では、動作制御A2が可能である。動作可能な環境・状況範囲A3では、動作制御A3が可能である。 FIG. 2A exemplifies the conceptual space of the environment / situation for the operation purpose A (for example, moving an object). In this example, the operation control A1 is possible in the operable environment / situation range A1. Operation control A2 is possible in the operable environment / situation range A2. In the operable environment / situation range A3, the operation control A3 is possible.

図2の(b)は、動作目的B(例えば、ものの姿勢を変更)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲B1では、動作制御B1が可能である。動作可能な環境・状況範囲B2では、動作制御B2が可能である。動作可能な環境・状況範囲B3では、動作制御B3が可能である。 FIG. 2B illustrates the conceptual space of the environment / situation for the operation purpose B (for example, changing the posture of an object). In this example, the operation control B1 is possible in the operable environment / situation range B1. Operation control B2 is possible in the operable environment / situation range B2. Operation control B3 is possible in the operable environment / situation range B3.

本発明では、図2に示されるように、失敗しない範囲を考慮して一つ以上の動作制御を組み合わせることで、一つの動作目的を実現する。 In the present invention, as shown in FIG. 2, one operation purpose is realized by combining one or more operation controls in consideration of a range that does not fail.

図3は、実施の形態に係るロボット制御装置10の構成を示すブロック図である。ロボット制御装置10は、目的動作入力部12、現在の状況の検知部14、動作制御選択部16、動作制御実行部18、各目的動作の動作制御の動作可能状況範囲を記述したML(機械学習)モデル20、動作制御の集合22、目的動作・動作制御の設計仕様値・実機動作値・経験則・動作制御・成立判断基準・動作基本状況等の各種情報入力部24、状況データ・成立可否データペアの生成部26、動作の物理シミュレーション部28、および、動作可能状況の範囲の確認部30で構成される。ロボット制御装置10は、動作制御ごとの動作可能状況範囲を記述したモデル(MLモデル20)を持ち、そのモデルを学習するデータサンプルを、動作制御の設計仕様値、実機動作値、経験則や物理シミュレータ(動作の物理シミュレーション部28)などから得る。この処理を、動作制御の内容によらず、自動で行う。 FIG. 3 is a block diagram showing a configuration of the robot control device 10 according to the embodiment. The robot control device 10 describes the target motion input unit 12, the current status detection unit 14, the motion control selection unit 16, the motion control execution unit 18, and the ML (machine learning) that describes the operable status range of the motion control of each target motion. ) Model 20, operation control set 22, target operation / operation control design specification value / actual machine operation value / empirical rule / operation control / establishment judgment standard / operation basic status, etc. It is composed of a data pair generation unit 26, an operation physical simulation unit 28, and an operationable status range confirmation unit 30. The robot control device 10 has a model (ML model 20) that describes an operable situation range for each motion control, and uses data samples for learning the model as motion control design specification values, actual machine motion values, empirical rules, and physics. Obtained from a simulator (physical simulation unit 28 of motion) or the like. This process is automatically performed regardless of the content of the operation control.

なお、MLモデル20は、各種情報入力部24で与える動作制御における制御用に、機械学習モデルを使っていた場合、その中に、統合する形としても良い。例えば、動作制御用の機械学習モデルの入力の種類と、MLモデル20の入力の種類が共通で、動作制御用の出力とは別に、成立可否用の出力が設けてある形の、1つの機械学習モデルへの統合などである。 When a machine learning model is used for control in motion control given by various information input units 24, the ML model 20 may be integrated into the machine learning model. For example, one machine in which the input type of the machine learning model for motion control and the input type of the ML model 20 are common, and an output for establishment / rejection is provided separately from the output for motion control. For example, integration into a learning model.

また、動作制御ごとの個別の機械学習モデルの場合、各機械学習モデルの入力や出力はそれぞれ同一の形式でなくてもよい。 Further, in the case of individual machine learning models for each motion control, the inputs and outputs of each machine learning model do not have to be in the same format.

また、動作制御ごとの個別の機械学習モデルではなく、単一モデルの構成における、動作の追加や修正における、モデル出力の対応に関して、次の2つのことがいえる。 In addition, the following two things can be said about the correspondence of the model output in the addition and modification of the motion in the configuration of a single model instead of the individual machine learning model for each motion control.

(1)「モデル構成は固定で出力値のみ変更する形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、モデルの出力は、例えば、多次元ベクトルとなっており、動作制御の追加は、新しいパターンの出力値を出力させる形に学習を行う。 (1) "The model configuration is fixed and only the output value is changed, and it is a model that adds motion control and corrects the situation range, and does not affect the output value related to motion control other than the motion control to be learned. If you use a model that can learn the model related to the motion control of the target in a way that affects only a little, the output of the model is, for example, a multidimensional vector, and the addition of motion control is a new pattern. Learning is performed so that the output value of is output.

(2)「モデル構成の変更拡張と出力値の変更による形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、例えば、モデル構成として新たな動作制御用の出力算出部を追加するなど、出力値の算出構造を変化させたりして、新しい動作制御追加を行う。 (2) "Change of model configuration This is a model that adds motion control and corrects the situation range by expanding and changing the output value, and affects the output value related to motion control other than the motion control of the learning target. When using a model that can learn a model related to the target motion control in a way that has little or no effect, for example, adding a new output calculation unit for motion control as a model configuration, etc. Add new motion control by changing the calculation structure.

なお、以下では、説明の簡単化のため、動作制御ごとの個別の機械学習モデルを想定して述べる。 In the following, for the sake of simplification of the explanation, an individual machine learning model for each motion control is assumed.

図4は、実施の形態に係るロボット制御装置10による事前処理を説明する図である。ここでは、図3に示されるブロック図のうち、事前処理に関連するブロックだけが示されている。 FIG. 4 is a diagram illustrating pre-processing by the robot control device 10 according to the embodiment. Here, among the block diagrams shown in FIG. 3, only the blocks related to the preprocessing are shown.

使用する動作制御における、MLモデル20の学習のため、状況データ・成立可否データペアの生成部26において、学習用のデータである、状況データ・成立可否データペアが多量に生成される。生成は、その動作制御の設計仕様値や実機での動作値、動作制御作成者の経験則などから、どの様な状況において動作が成立するか否かを表す、状況データ−成立可否データペアを様々な状況において生成するか、動作制御および動作が成立したかどうかの判断基準、また、動作させる際の基本的な(代表的な)状況を、動作の物理シミュレーション部28に入れ、動作制御を様々な状況において動作させた結果を基に生成する。 In order to learn the ML model 20 in the motion control to be used, the generation unit 26 of the situation data / establishment possibility data pair generates a large amount of situation data / establishment possibility data pairs, which are learning data. The generation is based on the design specification value of the operation control, the operation value in the actual machine, the empirical rule of the operation control creator, etc., and the situation data-establishment possibility data pair indicating whether or not the operation is established in what situation. The operation control is performed by putting the operation control and the criteria for determining whether or not the operation is established in various situations, and the basic (typical) situation when operating the operation in the physical simulation unit 28 of the operation. It is generated based on the result of operation in various situations.

図5は、実施の形態に係るロボット制御装置10の動作(動作制御)を説明する図である。ここでは、図3に示されるブロック図のうち、ロボット制御装置10の動作(動作制御)に関連するブロックだけが示されている。 FIG. 5 is a diagram illustrating an operation (operation control) of the robot control device 10 according to the embodiment. Here, among the block diagrams shown in FIG. 3, only the blocks related to the operation (motion control) of the robot control device 10 are shown.

動作制御選択部16は、目的動作入力部12から入力された目的動作に対応する、状況範囲の抽象モデル(目的動作に対応する動作制御の個数分存在するMLモデル20)に、現在の状況の検知部14から得られた、現在の状況データを入れ、各MLモデル20の出力を確認する(MLモデル20からは、対応する動作制御が可能か否かの推論値が出力される)。 The motion control selection unit 16 is added to the abstract model of the situation range (ML model 20 existing for the number of motion controls corresponding to the target motion) corresponding to the target motion input from the target motion input unit 12 in the current situation. The current status data obtained from the detection unit 14 is input, and the output of each ML model 20 is confirmed (the ML model 20 outputs an inferred value as to whether or not the corresponding operation control is possible).

動作制御選択部16は、MLモデル20の出力値から、現在の状況では、どの動作制御だと動作可能かを判断(なお、複数の動作制御が動作可能という場合も存在する。範囲の重複時)し、動作制御の集合22から、動作制御を選択する。そして、動作制御実行部18は、選択された動作制御を実行する。つまり、今の状況を、MLモデル20に入れ、失敗しないかどうかを推論させ、失敗しないと出た動作制御を採用し実行する。 The motion control selection unit 16 determines from the output value of the ML model 20 which motion control can be operated in the current situation (note that there is a case where a plurality of motion controls can be operated. When the ranges overlap. ), And select the motion control from the set 22 of the motion control. Then, the motion control execution unit 18 executes the selected motion control. That is, the current situation is put into the ML model 20, it is inferred whether or not it fails, and the motion control that appears if it does not fail is adopted and executed.

図6は、実施の形態に係るロボット制御装置10のメンテナンス/評価検証時の処理を説明する図である。ここでは、図3に示されるブロック図のうち、メンテナンス/評価検証に関連するブロックだけが示されている。 FIG. 6 is a diagram illustrating a process at the time of maintenance / evaluation verification of the robot control device 10 according to the embodiment. Here, among the block diagrams shown in FIG. 3, only the blocks related to maintenance / evaluation verification are shown.

動作可能状況の範囲の確認部30は、各動作制御のMLモデル20(事前処理において学習済み)を調べ、ある目的動作ある状況において、どの様な動作制御が対応付けられているか、また、どんな動作制御も対応付けられていないかを、調べ、必要ならば新たに動作制御を作成し、「事前処理」の手順にて対応付けを行う。 The confirmation unit 30 of the range of the operable situation examines the ML model 20 (learned in the pre-processing) of each motion control, what kind of motion control is associated with a certain purpose motion in a certain situation, and what kind of motion control is associated with. Check if the motion control is also associated, create a new motion control if necessary, and map it according to the procedure of "pre-processing".

また、ある目的動作ある状況における動作制御を改善したい場合、動作可能状況の範囲の確認部30は、その状況に対応付けられている、動作制御を判定し(調べ)、その動作制御に対し、修正を行う。動作制御は、可能状況範囲に応じて完全に分離されている(つまり各動作制御は独立)ため、修正は、他の動作制御には影響を与えない。 Further, when it is desired to improve the operation control in a certain purpose operation in a certain situation, the confirmation unit 30 of the range of the operable situation determines (inspects) the operation control associated with the situation, and in response to the operation control Make corrections. Since the motion controls are completely separated according to the possible range (that is, each motion control is independent), the modification does not affect the other motion controls.

このように、ある状況で適切に動作するか否か確認する場合には(チェック1)、動作可能状況の範囲の確認部30により、MLモデル20の出力の確認で可能である。また、ある状況での制御を改善したい場合には(チェック2)、動作可能状況の範囲の確認部30により、MLモデル20を見て、対応づいている動作制御を修正すればよい。 In this way, when confirming whether or not the operation is appropriate in a certain situation (check 1), it is possible to confirm the output of the ML model 20 by the confirmation unit 30 in the range of the operable situation. Further, when it is desired to improve the control in a certain situation (check 2), the ML model 20 may be viewed by the confirmation unit 30 of the range of the operable situation, and the corresponding operation control may be corrected.

図7は、実施の形態に係るロボット制御装置10が備えるMLモデル20の具体例を示す図である。本実施の形態では、MLモデル20は、Three Dimensional Convolutional Neural Networkと呼ばれるDNN(Deep Neural Network)が用いられる。DNNは、空間中の各位置における物体の有無、物体の種類などを入力とし、動作可能かどうか(OK/NG)を出力する。 FIG. 7 is a diagram showing a specific example of the ML model 20 included in the robot control device 10 according to the embodiment. In the present embodiment, as the ML model 20, a DNN (Deep Neural Network) called Three Dimensional Convolutional Neural Network is used. The DNN inputs the presence / absence of an object at each position in the space, the type of the object, and the like, and outputs whether or not the operation is possible (OK / NG).

以上のように、本実施の形態に係るロボット制御装置10は、ロボット制御を実現するための以下の4つの必要要件1〜4をすべて満たしている。 As described above, the robot control device 10 according to the present embodiment satisfies all of the following four necessary requirements 1 to 4 for realizing robot control.

・必要要件1:幅広い環境、状況に合わせた柔軟な制御が可能であること。 -Requirement 1: Flexible control according to a wide range of environments and situations is possible.

これについては、本実施の形態に係るロボット制御装置10によれば、複数の動作制御を組み合わせられ、また制御手法の種類に制約は無いため、可能である。 This is possible because the robot control device 10 according to the present embodiment can combine a plurality of motion controls and there are no restrictions on the type of control method.

・必要要件2:物理的な現象を考慮(対象物体の他物体への干渉。例、押す、摩擦、沿わせる、重心バランス、など)した制御が可能であること。 -Requirement 2: It is possible to control in consideration of physical phenomena (interference of the target object with other objects, such as pushing, friction, along, balance of the center of gravity, etc.).

これについては、本実施の形態に係るロボット制御装置10によれば、物理シミュレーションにより判定させるので可能である。 This is possible because the robot control device 10 according to the present embodiment determines by physical simulation.

・必要要件3:動作を実行する各制御ルーチン(以降、動作制御、と呼ぶ)が成立する(つまり、目的を達成するように動作する)環境・状況の範囲の明確化が可能であること。 -Requirement 3: It is possible to clarify the range of environment / situation in which each control routine for executing an operation (hereinafter referred to as operation control) is established (that is, the operation is performed so as to achieve the purpose).

これについては、本実施の形態に係るロボット制御装置10によれば、動作可能状況範囲をモデル化するため可能である。 This is possible because the robot control device 10 according to the present embodiment models the operable situation range.

・必要要件4:それぞれの動作制御を個別にチューニング可能であること。 -Requirement 4: Each operation control can be tuned individually.

これについては、本実施の形態に係るロボット制御装置10によれば、可能状況範囲ごとに個別に動作制御を扱うため、可能である。 This is possible because the robot control device 10 according to the present embodiment handles the operation control individually for each possible situation range.

本発明は、ロボット制御装置として、特に、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置として、利用できる。 The present invention can be used as a robot control device, particularly as a robot control device that can individually manage and modify the control of movements according to each situation while realizing flexible control according to a wide range of environments and situations. ..

10 ロボット制御装置
12 目的動作入力部
14 現在の状況の検知部
16 動作制御選択部
18 動作制御実行部
20 ML(機械学習)モデル
22 動作制御の集合
24 各種情報入力部
26 状況データ・成立可否データペアの生成部
28 動作の物理シミュレーション部
30 動作可能状況の範囲の確認部
10 Robot control device 12 Purpose operation input unit 14 Current status detection unit 16 Operation control selection unit 18 Operation control execution unit 20 ML (machine learning) model 22 Operation control set 24 Various information input units 26 Status data / feasibility data Pair generation unit 28 Operation physics simulation unit 30 Operation status range confirmation unit

上記目的を達成するために、請求項1に記載の発明は、動作目的ごとに、当該動作目的に対応する動作制御の個数分存在し、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、動作目的及び状況情報が入力されると、前記動作目的に対応する動作制御の個数分の前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンであることを特徴とする。 In order to achieve the above object, the invention according to claim 1 exists for each operation purpose as many as the number of operation controls corresponding to the operation purpose, and has a physical structure and shape of a surrounding object or the target robot itself. Of the information (situation information) of the physical characteristics including, the current state (position, posture, and temperature) of the characteristics that can be changed with time, their relative relationships, combinations, and information (situation information), any situation information is input and given. When a machine learning model that outputs an output value (binary value, continuous value, or multidimensional vector value) indicating whether or not the operation is established in the input situation, and the operation purpose and situation information are input. By giving the situation information to the machine learning model for the number of motion controls corresponding to the motion objectives, the output values for each of the motion controls corresponding to the motion objectives are acquired and acquired. An operation control selection unit that selects an operation control to be executed from the operation controls corresponding to the operation purpose based on an output value, and an operation control execution unit that executes the operation control selected by the operation control selection unit. The motion control is a control routine for achieving an operation purpose by sensing a surrounding object with a sensor and interacting with another object .

請求項2に記載の発明は、前記機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における前記出力値の出力に影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行うことを特徴とする。 Invention according to claim 2, wherein the machine learning model, for each given operation control, or are constructed individually, be configured of a single model, the operation control other than the operation control to be learned It is characterized in that such learning is performed using a model capable of learning a model of a target motion control by a method that does not affect the output of the output value in the above.

請求項3に記載の発明は、前記状況情報には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれることを特徴とする。 According to a third aspect of the invention, the status information includes at least the position of the object (the absolute position, relative position), and wherein the posture, the shape, to be included any of the types.

請求項4に記載の発明は、動作制御の設計仕様値実機での動作結果、人の経験則、又は、物理シミュレータ内での動作結果から生成する、状況データ−成立可否データペアを、前記機械学習モデルの学習データとして生成する学習データ生成部をさらに備えることを特徴とする。 Invention according to claim 4, design specification value of the operation control, the operation result of the actual machine, the human heuristics, or the operation results or we generate within physics simulator, status data - established feasibility data pairs and characterized by further comprising a learning data generating unit for generating as a learning data of the machine learning model.

請求項5に記載の発明は、前記学習データ生成部前記物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、前記状況データ−成立可否データペアとして生成することを特徴とする。 Invention of claim 5, wherein the learning data generating unit, when generating, using the physical simulator, in addition to the operation control, what state in the operation control define whether the state is an operation established at that operating control The conditions to be specified are given, the environment (situation information) is changed in various ways in the physics simulator, the given operation control is executed, it is tested whether or not the operation is established, and the result is generated as the above-mentioned situation data-establishment possibility data pair. characterized in that it.

請求項6に記載の発明は、前記物理シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与え、その点を起点として、テストする環境(状況情報)の走査を行うことを特徴とする。 Invention according to claim 6, when testing the operation established by the physical simulator, the environment (status information) given operational control is established operation, at least one example given, starting the point, test It is characterized by scanning the environment (situation information).

Claims (6)

周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度など)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を出力する機械学習モデルと、
モデルにより出力された値に基づき、動作制御を選択し実行する動作選択実行部とを、
具備することを特徴とする、ロボット制御装置。
Information on the physical characteristics including the physical structure and shape of the surrounding object or the target robot itself, the current state (position, posture, temperature, etc.) of the characteristics that can change with time, their relative relationships, combinations, etc. A machine learning model that inputs arbitrary situation information (situation information) and outputs the presence or absence (binary value, continuous value, or multidimensional vector value) of the operation establishment in the input situation of the given operation control. ,
Based on the value output by the model, the operation selection execution unit that selects and executes the operation control,
A robot control device characterized by being equipped.
与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を出力する機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における動作成立の有無か度合いの出力に影響を与えないか少ししか影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行う、請求項1記載のロボット制御装置。 A machine learning model that outputs the presence / absence or degree (binary value, continuous value, or multidimensional vector value) of the given motion control in the input situation is constructed individually for each given motion control. Or, even if it is a single model configuration, the operation control of the target is performed by a method that does not affect or slightly affects the output of the presence or absence or degree of operation establishment in the operation control other than the operation control of the learning target. The robot control device according to claim 1, wherein such learning is performed using a model capable of learning the model of. 機械学習モデルの入力(状況情報)には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれる、請求項1または2記載のロボット制御装置。 The robot control device according to claim 1 or 2, wherein the input (situation information) of the machine learning model includes at least one of the position (absolute position, relative position), posture, shape, and type of the object. 動作制御の設計仕様値や、実機での動作結果や、人の経験則や、物理シミュレータ内での動作結果などから生成する、状況データ−成立可否データペアを、機械学習モデルの学習データとする、請求項1、2または3記載のロボット制御装置。 The situation data-establishment / rejection data pair generated from the design specification value of the motion control, the motion result in the actual machine, the human empirical rule, the motion result in the physical simulator, etc. is used as the learning data of the machine learning model. , The robot control device according to claim 1, 2 or 3. 学習データ生成部内において、物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、状況データ−成立可否データペアを作る機能を持つ、請求項1、2、3または4記載のロボット制御装置。 When generating using a physics simulator in the learning data generation unit, in addition to the motion control, a condition that defines what kind of state is the state in which the motion is established in the motion control is given in the motion control, and the environment (in the physics simulator) Claims 1, 2, 3 or claim 1, which has a function of executing a given motion control by variously changing (situation information), testing whether or not the motion is established, and creating a status data-establishment / rejection data pair based on the result. 4. The robot control device according to 4. 物体シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与える、請求項5記載のロボット制御装置。 The robot control device according to claim 5, wherein at least one environment (situation information) in which the given motion control is established when the motion establishment is tested by the object simulator is given.
JP2019155446A 2019-08-28 2019-08-28 Robot controller Active JP6742040B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2019155446A JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller
PCT/JP2020/032686 WO2021039995A1 (en) 2019-08-28 2020-08-28 Robot control device
GB2200845.2A GB2600843B (en) 2019-08-28 2020-08-28 Robot control device
CN202080058088.6A CN114269524B (en) 2019-08-28 2020-08-28 Robot control device
DE112020004135.2T DE112020004135T5 (en) 2019-08-28 2020-08-28 robot control device
EP20859507.4A EP3998140A4 (en) 2019-08-28 2020-08-28 Robot control device
US17/674,467 US11511414B2 (en) 2019-08-28 2022-02-17 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155446A JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020124276A Division JP6792898B1 (en) 2019-08-28 2020-07-21 Robot control device

Publications (2)

Publication Number Publication Date
JP6742040B1 JP6742040B1 (en) 2020-08-19
JP2021030393A true JP2021030393A (en) 2021-03-01

Family

ID=72047816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019155446A Active JP6742040B1 (en) 2019-08-28 2019-08-28 Robot controller

Country Status (1)

Country Link
JP (1) JP6742040B1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179454A (en) * 2009-02-06 2010-08-19 Honda Research Inst Europe Gmbh Learning and use of schemata in robotic device
US20110035053A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Path planning apparatus and method of Robot
JP2012125890A (en) * 2010-12-16 2012-07-05 Seiko Epson Corp Robot arm and control method of the same
WO2018017612A1 (en) * 2016-07-18 2018-01-25 Lael Odhner Training robotic manipulators
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
WO2018146770A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2018190241A (en) * 2017-05-09 2018-11-29 オムロン株式会社 Task execution system, task execution method, and learning device and learning method thereof
JP2018206286A (en) * 2017-06-09 2018-12-27 川崎重工業株式会社 Operation prediction system and operation prediction method
JP2019503875A (en) * 2015-12-16 2019-02-14 エムビーエル リミテッド Robot kitchen including robot, storage arrangement and container for it
US20190084151A1 (en) * 2017-09-15 2019-03-21 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation
JP2019509905A (en) * 2016-03-03 2019-04-11 グーグル エルエルシー Deep machine learning method and apparatus for robot gripping

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179454A (en) * 2009-02-06 2010-08-19 Honda Research Inst Europe Gmbh Learning and use of schemata in robotic device
US20110035053A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Path planning apparatus and method of Robot
JP2012125890A (en) * 2010-12-16 2012-07-05 Seiko Epson Corp Robot arm and control method of the same
JP2019503875A (en) * 2015-12-16 2019-02-14 エムビーエル リミテッド Robot kitchen including robot, storage arrangement and container for it
JP2019509905A (en) * 2016-03-03 2019-04-11 グーグル エルエルシー Deep machine learning method and apparatus for robot gripping
WO2018017612A1 (en) * 2016-07-18 2018-01-25 Lael Odhner Training robotic manipulators
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
WO2018146770A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2018190241A (en) * 2017-05-09 2018-11-29 オムロン株式会社 Task execution system, task execution method, and learning device and learning method thereof
JP2018206286A (en) * 2017-06-09 2018-12-27 川崎重工業株式会社 Operation prediction system and operation prediction method
US20190084151A1 (en) * 2017-09-15 2019-03-21 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation

Also Published As

Publication number Publication date
JP6742040B1 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
Reynoso-Meza et al. Controller tuning using evolutionary multi-objective optimisation: current trends and applications
WO2021039995A1 (en) Robot control device
Catterall et al. Self-organization in ad hoc sensor networks: An empirical study
US11762679B2 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
WO2019131527A1 (en) Method for generating universal learned model
Rahimi et al. Neural impedance adaption for assistive human–robot interaction
Mayr et al. Skill-based multi-objective reinforcement learning of industrial robot tasks with planning and knowledge integration
JP6811688B2 (en) Multi-operation unit integrated device, its control method, and autonomous learning robot device
Sanfilippo et al. A universal control architecture for maritime cranes and robots using genetic algorithms as a possible mapping approach
JP6792898B1 (en) Robot control device
Kozek Transfer Learning algorithm in image analysis with Augmented Reality headset for Industry 4.0 technology
JP2021030393A (en) Robot control device
Sanfilippo et al. A mapping approach for controlling different maritime cranes and robots using ANN
Krupitzer et al. Using spreadsheet-defined rules for reasoning in self-adaptive systems
Klingbeil et al. Experimental analysis of human control strategies in contact manipulation tasks
Brecher et al. Design and implementation of a comprehensible cognitive assembly system
Santo et al. Collaborative control of mobile manipulator robots through the hardware-in-the-loop technique
Aßmann et al. Modelling the world of a smart room for robotic co-working
US20210122038A1 (en) Method and device for ascertaining control parameters in a computer-assisted manner for a favorable action of a technical system
Stipancic et al. Bayesian approach to robot group control
Hlaváč MLP neural network for a kinematic control of a redundant planar manipulator
Parker et al. Using cyclic genetic algorithms to evolve multi-loop control programs
WO2023068351A1 (en) Robot data processing server, and path data calculating method
KR101956504B1 (en) Method, system and non-transitory computer-readable recording medium for providing robot simulator
Gregory et al. Opportunities for Generative Artificial Intelligence to Accelerate Deployment of Human-Supervised Autonomous Robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191001

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191001

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6742040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250