JP7079435B2 - Robot control device, robot control method and robot control program - Google Patents
Robot control device, robot control method and robot control program Download PDFInfo
- Publication number
- JP7079435B2 JP7079435B2 JP2018097144A JP2018097144A JP7079435B2 JP 7079435 B2 JP7079435 B2 JP 7079435B2 JP 2018097144 A JP2018097144 A JP 2018097144A JP 2018097144 A JP2018097144 A JP 2018097144A JP 7079435 B2 JP7079435 B2 JP 7079435B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- collision
- drive
- unit
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ロボットを操作するロボット制御装置、ロボット制御方法及びロボット制御プログラムに関する。 The present invention relates to a robot control device for operating a robot, a robot control method, and a robot control program.
操作者の動作に追従してロボットを遠隔操作するシステムが開発されている。操作者が、自分自身が現存する場所とは異なった場所に実質的に存在し、その場所で自在に行動するための技術は、テレイグジスタンス(Telexistence)と呼ばれる。特許文献1には、ロボットのアームを制御する際に動作シミュレーションを行い、物体との衝突が予測された場合にロボットのアームを物体から遠ざかる向きに動作するように制御するロボット制御システムが開示されている。 A system for remotely controlling a robot according to the movement of an operator has been developed. The technique for an operator to exist in a place substantially different from the place where he / she exists and to act freely in that place is called telexistence. Patent Document 1 discloses a robot control system that performs motion simulation when controlling a robot arm and controls the robot arm to move away from the object when a collision with an object is predicted. ing.
物体との衝突を回避する際に、ロボットをどのように駆動するか(モーションプランニング)を演算する必要がある。衝突が発生した時点又は衝突回避のために停止した時点から、従来のモーションプランニングを演算するためには、相当の時間を要する。これは、衝突の回避後に2次的な衝突を回避したうえでロボットと操作者の動きとを同期するのが非常に複雑であるためである。 It is necessary to calculate how to drive the robot (motion planning) when avoiding a collision with an object. It takes a considerable amount of time to calculate the conventional motion planning from the time when the collision occurs or the time when the collision is stopped to avoid the collision. This is because it is very complicated to synchronize the movements of the robot and the operator after avoiding the secondary collision after avoiding the collision.
操作者にとって、衝突発生から復帰までの長い演算時間は、操作のスムーズさやテレイグジスタンスの体験価値を損なうものである。ロボットの腕やその他部位は、操作者の動作との時間的なずれが小さくなるように、操作者に同期されることが求められる。 For the operator, the long calculation time from the occurrence of the collision to the recovery impairs the smoothness of the operation and the experience value of the telexistence. The robot's arms and other parts are required to be synchronized with the operator so that the time lag with the operator's movement is small.
本発明はこれらの点に鑑みてなされたものであり、ロボットが物体に衝突することを回避するための演算時間を短縮できるロボット制御装置、ロボット制御方法及びロボット制御プログラムを提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide a robot control device, a robot control method, and a robot control program capable of shortening the calculation time for avoiding a robot colliding with an object. do.
本発明の第1の態様に係るロボット制御装置は、操作者の動作に追従するようにロボットを制御するロボット制御装置であって、前記ロボットの物体への衝突を検出する衝突検出部と、前記衝突検出部が前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルと、前記ロボットの過去の駆動履歴との少なくとも一方に基づいて、前記衝突検出部が検出した前記衝突を回避可能な駆動内容を決定する駆動決定部と、前記操作者の動作への追従を前記ロボットに停止させるとともに、前記駆動決定部が決定した前記駆動内容を前記ロボットに行わせる駆動制御部と、を有する。 The robot control device according to the first aspect of the present invention is a robot control device that controls a robot so as to follow the movement of an operator, and includes a collision detection unit that detects a collision of the robot with an object and the above-mentioned. The above is based on at least one of a learning model showing a driving content that can avoid a collision corresponding to a situation around the robot when the collision detecting unit detects the collision and a past driving history of the robot. The drive determination unit that determines the drive content that can avoid the collision detected by the collision detection unit, the robot stops following the operation of the operator, and the drive content determined by the drive determination unit is described. It has a drive control unit that allows the robot to perform the operation.
前記ロボット制御装置は、前記学習モデルを記憶する記憶部をさらに有し、前記衝突検出部が前記衝突を検出した場合に、前記駆動決定部は、前記ロボットから取得した情報に基づいて前記状況を特定し、特定した前記状況に対応する前記学習モデルを前記記憶部から取得し、取得した前記学習モデルが示す駆動内容を、前記衝突を回避可能な前記駆動内容として決定してもよい。 The robot control device further has a storage unit for storing the learning model, and when the collision detection unit detects the collision, the drive determination unit determines the situation based on the information acquired from the robot. The learning model corresponding to the specified and specified situation may be acquired from the storage unit, and the driving content indicated by the acquired learning model may be determined as the driving content capable of avoiding the collision.
前記ロボット制御装置は、前記駆動履歴を記憶する記憶部をさらに有し、前記衝突検出部が前記衝突を検出した場合に、前記駆動決定部は、前記衝突の検出時から遡って所定時間の前記駆動履歴を前記記憶部から取得し、取得した前記駆動履歴を時間順に逆にした駆動内容を、前記衝突を回避可能な前記駆動内容として決定してもよい。 The robot control device further has a storage unit that stores the drive history, and when the collision detection unit detects the collision, the drive determination unit advances the drive determination unit for a predetermined time from the time when the collision is detected. The drive history may be acquired from the storage unit, and the drive content obtained by reversing the acquired drive history in chronological order may be determined as the drive content capable of avoiding the collision.
前記駆動決定部は、前記ロボットが前記衝突を回避した後に所定の姿勢に遷移する駆動内容を決定してもよい。 The drive determination unit may determine the drive content for the robot to transition to a predetermined posture after avoiding the collision.
前記駆動制御部は、前記所定の姿勢に遷移する前記駆動内容の実行を完了した後に、前記操作者の動作への追従を前記ロボットに再開させてもよい。 The drive control unit may cause the robot to resume following the operation of the operator after completing the execution of the drive content that transitions to the predetermined posture.
前記駆動制御部は、前記操作者の動作への追従を前記ロボットに停止させる際に、前記操作者の頭部の動作への追従を停止させず、前記操作者の頭部以外の動作への追従を停止させてもよい。 When the robot stops following the operation of the operator, the drive control unit does not stop following the operation of the operator's head, and causes the robot to perform an operation other than the operator's head. The follow-up may be stopped.
前記ロボット制御装置は、前記操作者が視認する表示部に対して、前記ロボットが前記操作者の動作へ追従する期間と、前記ロボットが前記操作者の動作への追従を停止している期間との間で表示態様を変更するように制御する表示制御部をさらに有してもよい。 The robot control device includes a period during which the robot follows the operation of the operator and a period during which the robot stops following the operation of the operator with respect to a display unit visually recognized by the operator. It may further have a display control unit that controls the display mode to be changed between the two.
前記物体は、前記ロボットの体と、前記ロボットの外部の物体との少なくとも一方を含んでもよい。 The object may include at least one of the body of the robot and an object outside the robot.
本発明の第2の態様に係るロボット制御方法は、操作者の動作に追従するようにロボットを制御するロボット制御装置のプロセッサが、前記ロボットの物体への衝突を検出するステップと、前記検出するステップが前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルと、前記ロボットの過去の駆動履歴との少なくとも一方に基づいて、前記検出するステップが検出した前記衝突を回避可能な駆動内容を決定するステップと、前記操作者の動作への追従を前記ロボットに停止させるとともに、前記決定するステップが決定した前記駆動内容を前記ロボットに行わせるステップと、を実行する。 The robot control method according to the second aspect of the present invention includes a step in which a processor of a robot control device that controls a robot so as to follow an operator's motion detects a collision of the robot with an object. When the step detects the collision, the detection is performed based on at least one of a learning model showing a driving content that can avoid the collision corresponding to the surrounding situation of the robot and a past driving history of the robot. The robot is stopped from following the operation of the operator and the step of determining the drive content that can avoid the collision detected by the step, and the robot is made to perform the drive content determined by the determined step. Step and execute.
本発明の第3の態様に係るロボット制御プログラムは、操作者の動作に追従するようにロボットを制御するロボット制御装置に、前記ロボットの物体への衝突を検出するステップと、前記検出するステップが前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルと、前記ロボットの過去の駆動履歴との少なくとも一方に基づいて、前記検出するステップが検出した前記衝突を回避可能な駆動内容を決定するステップと、前記操作者の動作への追従を前記ロボットに停止させるとともに、前記決定するステップが決定した前記駆動内容を前記ロボットに行わせるステップと、を実行させる。 In the robot control program according to the third aspect of the present invention, the robot control device that controls the robot so as to follow the movement of the operator has a step of detecting the collision of the robot with an object and a step of detecting the robot. When the collision is detected, the detection step is based on at least one of a learning model showing a driving content that can avoid the collision corresponding to the surrounding situation of the robot and a past driving history of the robot. A step of determining a driving content that can avoid the collision that has been detected, and a step of causing the robot to perform the driving content determined by the determination step while stopping the robot from following the operation of the operator. , Is executed.
本発明の第4の態様に係るロボット制御装置は、操作者の動作に追従するようにロボットを制御するロボット制御装置であって、前記ロボットの物体への衝突を検出する衝突検出部と、前記衝突検出部が前記衝突を検出した場合に、前記衝突検出部が検出した前記衝突を回避可能な駆動内容を決定するとともに、前記ロボットが前記衝突を回避した後に所定の姿勢に遷移する駆動内容を決定する駆動決定部と、前記操作者の動作への追従を前記ロボットに停止させるとともに、前記駆動決定部が決定した前記駆動内容を前記ロボットに行わせる駆動制御部と、を有する。 The robot control device according to the fourth aspect of the present invention is a robot control device that controls the robot so as to follow the movement of the operator, and includes a collision detection unit that detects a collision of the robot with an object and the above-mentioned. When the collision detection unit detects the collision, the drive content that can avoid the collision detected by the collision detection unit is determined, and the drive content that the robot transitions to a predetermined posture after avoiding the collision is determined. It has a drive determination unit for determining, and a drive control unit for causing the robot to stop following the operation of the operator and for causing the robot to perform the drive content determined by the drive determination unit.
本発明によれば、ロボットが物体に衝突することを回避するための演算時間を短縮できるという効果を奏する。 According to the present invention, there is an effect that the calculation time for avoiding the robot colliding with the object can be shortened.
[ロボット制御システムSの構成]
図1は、本実施形態に係るロボット制御システムSの模式図である。ロボット制御システムSは、ロボット制御装置1と、ロボット2とを含む。ロボット制御システムSは、その他のサーバ、端末等の機器を含んでもよい。
[Configuration of robot control system S]
FIG. 1 is a schematic diagram of a robot control system S according to the present embodiment. The robot control system S includes a robot control device 1 and a
ロボット制御装置1は、操作者U(ユーザ)の操作を示す情報に基づいてロボット2を制御するコンピュータである。ロボット制御装置1は、ロボット2に一体化されて構成されてもよい。すなわち、ロボット2は、ロボット制御装置1の機能を有してもよい。
The robot control device 1 is a computer that controls the
ロボット制御装置1は、操作者Uの動作を示す情報を取得する動作情報取得部11と、操作者Uに対して情報を表示する表示部12とを有する。動作情報取得部11は、操作者Uの体から離れて設けられてもよく、操作者Uの体に装着されてもよい。表示部12は操作者Uの頭部に固定されており、操作者Uは頭部を動かしても表示部12が表示している情報を視認できる。
The robot control device 1 has an operation
ロボット2は、ロボット制御装置1から受信した信号に従って動作する装置である。図1の例では、ロボット2は人間と同様の頭部、腕部等を有しており、ロボット2を操作する操作者Uの体の動きに追従して各部が動作するように制御される。また、ロボット2は、撮像部21を有しており、撮像部21が撮像した撮像画像をロボット制御装置1へ送信する。ロボット2は、有線又は無線でロボット制御装置1に接続され、ロボット制御装置1との間で信号を授受する。ロボット2は、ロボット制御装置1に直接接続されてもよく、インターネット等のネットワークを介して接続されてもよい。
The
[ロボット制御システムSの構成]
図2は、本実施形態に係るロボット制御システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示したもの以外のデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of robot control system S]
FIG. 2 is a block diagram of the robot control system S according to the present embodiment. In FIG. 2, the arrows indicate the main data flows, and there may be data flows other than those shown in FIG. In FIG. 2, each block shows not a hardware (device) unit configuration but a functional unit configuration. Therefore, the block shown in FIG. 2 may be mounted in a single device, or may be mounted separately in a plurality of devices. Data can be exchanged between blocks via any means such as a data bus, a network, and a portable storage medium.
ロボット2は、撮像部21、駆動部22と、インタフェース23とを有する。インタフェース23は、ロボット制御装置1との間で信号の授受をするための接続部である。インタフェース23は、ロボット制御装置1から受信した信号に所定の処理を行ってデータを取得し、取得したデータを駆動部22に入力する。また、インタフェース23は、撮像部21から入力されたデータに所定の処理を行って信号を生成し、生成した信号をロボット制御装置1に送信する。
The
駆動部22は、ロボット2の各部位に動力を供給するモータ、アクチュエータ等の駆動装置を含む。駆動部22は例えばロボット2の腕に設けられており、ロボット2はロボット制御装置1の指示に基づいて駆動部22が動作することによって、物に触れたり、物を掴んだりする。駆動部22は、ロボット制御装置1から受信した駆動情報に従って、ロボット2の各部位を駆動する。
The
撮像部21は、ロボット2自身の体を含む所定の撮像範囲を撮像する撮像装置である。撮像部21は、1つ又は複数の撮像素子を含む。撮像部21は、予め設定されたタイミングで撮像を行ってもよく、あるいはロボット制御装置1から受信した撮像の指示に従って撮像を行ってもよい。撮像部21は、撮像素子を用いて撮像した撮像画像を示す信号をロボット制御装置1に送信する。
The
ロボット制御装置1は、上述の動作情報取得部11及び表示部12に加えて、制御部13と、記憶部14と、インタフェース15とを有する。制御部13は、動作特定部131と、衝突検出部132と、駆動決定部133と、駆動制御部134と、表示制御部135とを有する。記憶部14は、学習モデル記憶部141と、駆動履歴記憶部142とを有する。
The robot control device 1 has a
インタフェース15は、ロボット2との間で信号の授受をするための接続部である。インタフェース15は、ロボット2から受信した信号に所定の処理を行ってデータを取得し、取得したデータを制御部13に入力する。また、インタフェース15は、制御部13から入力されたデータに所定の処理を行って信号を生成し、生成した信号をロボット2に送信する。
The
動作情報取得部11は、操作者Uの動作を示す動作情報を取得する。例えば動作情報取得部11は、操作者Uに向けて赤外線等の光を照射し、操作者Uの体の各部位に装着された受光部が光を受けたタイミングを、動作情報として取得する。あるいは動作情報取得部11は、撮像素子を用いて操作者Uの体を含む撮像範囲を撮像した撮像画像を、動作情報として取得する。動作情報取得部11は、ここに示した方法に限られず、その他の方法で操作者Uの動作を示す動作情報を取得してもよい。動作情報取得部11は、取得した動作情報を示す信号を制御部13に入力する。
The operation
表示部12は、各種情報を表示するための、液晶ディスプレイ等の表示装置を含む。表示部12は、制御部13から受け取った信号に従って情報を表示する。
The
記憶部14は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部14は、制御部13が実行するプログラムを予め記憶している。学習モデル記憶部141は、機械学習によって生成された、衝突を回避するための駆動情報を示す学習モデルを記憶する。駆動履歴記憶部142は、ロボット2の駆動部22の駆動履歴を記憶する。学習モデル記憶部141及び駆動履歴記憶部142は、それぞれ記憶部14中の記憶領域でもよく、記憶部14に記憶されたデータベースでもよい。記憶部14は、ロボット制御装置1の外部に設けられてもよく、その場合にインタフェース15を介して制御部13との間でデータの授受を行ってもよい。
The
制御部13は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部14に記憶されたプログラムを実行することにより、動作特定部131、衝突検出部132、駆動決定部133、駆動制御部134及び表示制御部135として機能する。動作特定部131、衝突検出部132、駆動決定部133、駆動制御部134及び表示制御部135の記憶については、図3~図7を用いて後述する。制御部13の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部13の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The
本実施形態に係るロボット制御システムSは、図2に示す具体的な構成に限定されない。例えばロボット制御装置1及びロボット2は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
The robot control system S according to the present embodiment is not limited to the specific configuration shown in FIG. For example, the robot control device 1 and the
[ロボット制御方法の説明]
本実施形態に係るロボット制御装置1が実行するロボット制御方法を以下に説明する。まず動作特定部131は、動作情報取得部11から動作情報を取得し、取得した動作情報に基づいて操作者Uの動作を特定する。操作者Uの体の各部位に装着された受光部が光を受けたタイミングを示す動作情報を用いる場合には、動作特定部131は、複数の時点の該タイミングと受光部が装着された体の部位との間の関係を特定することによって、各部位の相対的な位置関係及び各部位の位置の変化を含む、操作者Uの動作を特定する。
[Explanation of robot control method]
The robot control method executed by the robot control device 1 according to the present embodiment will be described below. First, the
操作者Uの体を含む撮像範囲を撮像した撮像画像を示す動作情報を用いる場合には、動作特定部131は、パターンマッチング等の画像認識技術を用いて複数の時点の該撮像画像に含まれる体の部位を特定することによって、各部位の相対的な位置関係及び各部位の位置の変化を含む、操作者Uの動作を特定する。
When the motion information indicating the captured image including the body of the operator U is used, the
動作特定部131が操作者Uの動作を特定するのと並行して、衝突検出部132はロボット2の体の少なくとも一部が物体に衝突(接触)すること又は衝突したことを検出する。ロボット2が衝突する相手の物体は、ロボット2自身の体及びロボット2の外部の物体の少なくとも一方である。
In parallel with the
図3は、ロボット2の動作中に発生し得る衝突を説明する図である。操作者Uが腕を動かすように動作すると、ロボット制御装置1は操作者Uの動作に対応するように、ロボット2の腕を動作させる。操作者Uの体の形状とロボット2の体の形状との間には差異があるため、ロボット2は操作者Uの動作に追従しようとすると、ロボット2の体が物体と衝突する場合がある。図3はロボット2の2本の腕同士が衝突する場合を表しているが、ロボット2の腕と外部の物体とが衝突する場合もある。
FIG. 3 is a diagram illustrating a collision that may occur during the operation of the
衝突検出部132は、ロボット2の体が物体に衝突することを予測し、又はロボット2の体が物体に衝突したことを感知することによって、衝突を検出する。衝突検出部132は、例えばロボット2の撮像部21が撮像した撮像画像を取得して、パターンマッチング等の画像認識技術を用いて撮像画像内の物体を抽出する。そして衝突検出部132は、後述の駆動制御部134がロボット2の体の部位を駆動する向き(ベクトル)上に抽出した物体があり、かつ該体の部位と該物体との間の距離が所定の値以下である場合に、ロボット2の体が物体に衝突することを予測する。
The
また、衝突検出部132は、例えばロボット2の体の少なくとも一部に設けられた圧力センサ、加速度センサ等のセンサから値を取得し、取得した値が、物体への衝突を示す所定の条件を満たす場合にロボット2の体が物体に衝突したことを感知する。
Further, the
衝突検出部132は、ここに示した方法に限られず、その他の方法でロボット2の体の少なくとも一部が物体に衝突すること又は衝突したことを検出してもよい。
The
駆動決定部133は、動作特定部131が特定した操作者Uの動作と、衝突検出部132が衝突を検出した結果とに基づいて、ロボット2を駆動する指示を示す駆動情報を決定する。
The
衝突検出部132が衝突を検出しなかった場合に、駆動決定部133は、動作特定部131が特定した操作者Uの動作に対応するロボット2の動作を決定する。駆動決定部133は、操作者Uの動作と同一の動作をロボット2の動作としてもよく、操作者Uの動作に対して所定の変換を加えた動作をロボット2の動作としてもよい。また、駆動決定部133は、操作者Uの動作に基づいてロボット制御装置1上で仮想的な姿勢のモデルを動かし、該姿勢のモデルの動作に基づいてロボット2の動作を決定してもよい。そして駆動決定部133は、ロボット2が該動作をするように駆動部22を駆動する指示を示す駆動情報を決定する。駆動部22を駆動する様々な指示は、予めロボット制御装置1に設定される。
When the
駆動制御部134は、駆動決定部133が決定した駆動情報をロボット2に送信することによって、動作特定部131が特定した操作者Uの動作に追従するように、ロボット2を制御する。ロボット2の駆動部22は、ロボット制御装置1から受信した駆動情報に従って、ロボット2の各部位を駆動する。
The
衝突検出部132が衝突を検出した場合に、まず駆動制御部134は、ロボット2に所定の停止情報を送信することによって、操作者Uの動作への追従をロボット2に停止させる。そして駆動決定部133は、衝突を回避するためのロボット2の動作を決定する。衝突を回避することは、衝突の発生前に衝突を防ぐことと、衝突の発生後に衝突を解消することとを含む。本発明者は、従来のモーションプランニングの代わりに又は従来のモーションプランニングに加えて、学習モデルを用いて衝突を回避する第1の方法と、駆動履歴を用いて操作者Uの直前の動作を巻き戻すことによって衝突を回避する第2の方法との少なくとも一方によって、衝突を回避することを考案した。これらの方法は、従来のモーションプランニングを行うよりも、格段に早い衝突からの復帰を実現できる。
When the
図4は、学習モデルを用いて衝突を回避する第1の方法を説明する模式図である。図4は、時刻T1、時刻T2にかけて順にロボット2の腕が動作し、その後、時刻T3の時点で衝突検出部132が衝突を検出したことを表している。
FIG. 4 is a schematic diagram illustrating a first method of avoiding a collision using a learning model. FIG. 4 shows that the arm of the
学習モデル記憶部141には、機械学習によって生成された、衝突を回避するための駆動情報を示す学習モデルが予め記憶されている。ロボット制御装置1は、機械学習技術を用いて、ロボット2の周囲の様々な状況ごとに、衝突を回避可能なロボット2の駆動部22の駆動内容を学習し、学習モデルとして学習モデル記憶部141に予め記憶させる。駆動内容は、ロボット2の部位の移動を示すベクトルや、ロボット2の部位の移動後の位置を示す情報等、駆動部22がどのように駆動するかを示す情報である。ロボット制御装置1は、機械学習技術として、ニューラルネットワーク、サポートベクトルマシン等の公知の学習技術を用いることができる。
In the learning
駆動決定部133は、時刻T3において衝突検出部132が衝突を検出した場合に、ロボット2の撮像部21が撮像した撮像画像を取得し、取得した撮像画像からロボット2の周囲の状況を特定する。ロボット2の周囲の状況は、ロボット2の各部位の位置と、ロボット2の近傍にある物体の位置とを含む。駆動決定部133は、学習モデル記憶部141からロボット2の周囲の状況に対応する学習モデルを取得し、取得した学習モデルが示す、衝突を回避可能な駆動内容を示す駆動情報を決定する。
When the
このように駆動決定部133は、第1の方法として学習モデルを用いるため、衝突回避のためのシミュレーション等の複雑な計算が不要であり、高速に駆動情報を決定するための、演算時間を短縮できる。また、駆動決定部133は、衝突が検出された際のロボット2の周囲の状況に対応する駆動内容を決定するため、ロボット2が衝突を回避する際に他の物体に衝突することを抑制でき、状況ごとに適した動作をして衝突を回避できる。
In this way, since the
図5は、駆動履歴を用いて衝突を回避する第2の方法を説明する模式図である。図5は、時刻T1、時刻T2にかけて順にロボット2の腕が動作し、その後、時刻T3の時点で衝突検出部132が衝突を検出したことを表している。
FIG. 5 is a schematic diagram illustrating a second method of avoiding a collision by using a drive history. FIG. 5 shows that the arm of the
駆動履歴記憶部142には、ロボット2の駆動部22が過去に実行した駆動内容を示す駆動履歴が記憶されている。駆動履歴記憶部142は、過去の全ての駆動履歴を記憶してもよく、現在から遡って所定時間の駆動履歴を記憶してもよい。
The drive
駆動決定部133は、時刻T3において衝突検出部132が衝突を検出した場合に、駆動履歴記憶部142から、衝突検出時から遡って所定時間(例えば5秒)の駆動履歴を取得する。そして駆動決定部133は、取得した駆動履歴が示す所定時間の駆動内容を時間順に逆にした駆動内容、すなわち衝突検出時から遡って所定時間前まで巻き戻す駆動内容を、衝突を回避可能な駆動内容を示す駆動情報として決定する。
When the
図5の例では、駆動決定部133は、時刻T3から時刻T2まで巻き戻し、さらに時刻T2から時刻T1まで巻き戻すように、ロボット2の駆動部22の駆動情報を決定する。このように駆動決定部133は、第2の方法として、ロボット2の部位が過去に実際に駆動した駆動履歴を用いて、実際に行った駆動内容を巻き戻すようにロボット2を駆動する。そのため、駆動決定部133は、衝突回避のためのシミュレーション等の複雑な計算が不要であり、高速に駆動情報を決定するための演算時間を短縮できる。また、ロボット2が衝突を回避する際に他の物体に衝突することを抑制でき、また予め学習モデルを構築する必要がないため実装が容易である。
In the example of FIG. 5, the
駆動決定部133は、第1の方法と第2の方法とを、状況によって切り替えて実行してもよい。例えば駆動決定部133は、学習モデルを用いる第1の方法の処理が失敗した又は計算時間が所定値以上になった場合に、駆動履歴を用いる第2の方法に切り替える。これにより、周囲の状況に対応する学習モデルが学習モデル記憶部141に記憶されていなかった場合や、撮像画像に基づいて学習モデルを取得する計算の解が出なかった場合等に、駆動決定部133は、第1の方法を中止して第2の方法を用いて処理を続行できる。
The
駆動制御部134は、駆動決定部133が決定した駆動情報をロボット2に送信することによって、衝突検出部132が検出した衝突を回避するようにロボット2を制御する。このとき駆動制御部134は、駆動履歴記憶部142に記憶されている駆動履歴に、最新の駆動情報を追加する。ロボット2の駆動部22は、ロボット制御装置1から受信した駆動情報に従って、ロボット2の各部位を駆動する。
The
操作者Uの全ての動作への追従をロボット2に停止させると、操作者Uが頭部を動かしてもロボット2の撮像部21が撮像した画像(すなわち表示部12に表示されている画像)が変化しないため、操作者Uは自身の動作とロボット2の動作とのズレに起因する画面酔いをする場合がある。そのため駆動制御部134は、操作者Uの動作へ追従する動作を停止した場合であっても、操作者Uの頭部の動作への追従を停止させる必要が生じない範囲において(例えば、ロボット2の頭部の衝突が検出されていないことを条件として)、操作者Uの頭部の動作への追従は継続し、操作者Uの頭部以外の動作への追従を停止することが望ましい。
When the
例えば駆動制御部134は、ロボット2の腕の衝突を回避する動作をロボット2に行わせている際に、操作者Uの頭部の動作に対応する動作をロボットに行わせる。これにより操作者Uは、ロボット2が回避動作を行っている際にも、自身の頭部に追従した画像を表示部12で見ることができるため、自身の動作とロボット2の動作とのズレに起因する画面酔いをしづらい。
For example, the
ロボット2が衝突を回避する動作は操作者Uの動作に追従しないため、ロボット2が衝突を回避する行動をした後には、操作者Uの姿勢とロボット2の姿勢との間にずれが生じる。そのためロボット2は、衝突を回避した後に、操作者Uの動作に追従することが難しくなる。そこで、駆動決定部133は、衝突を回避した後に操作者Uの姿勢とロボット2の姿勢とを合わせる駆動内容を示す駆動情報を決定することが望ましい。
Since the motion of the
図6は、衝突を回避した後に操作者Uの姿勢とロボット2の姿勢とを合わせる方法を説明する模式図である。衝突検出部132が図6の上段のような衝突を検出すると、駆動決定部133は、まず上述の学習モデルを用いる第1の方法又は駆動履歴を用いる第2の方法を用いて、衝突を回避可能な駆動内容を示す駆動情報を決定する。このときロボット2は、操作者Uの動作へ追従する動作を停止しているため、図6の中段のように操作者Uの姿勢とロボット2の姿勢との間にずれが生じる。
FIG. 6 is a schematic diagram illustrating a method of matching the posture of the operator U with the posture of the
駆動決定部133は、衝突を回避可能な駆動の実行の後に、上述の学習モデルを用いる第1の方法によって、ロボット2を所定の姿勢に遷移させる駆動内容を示す駆動情報を決定する。所定の姿勢は、操作者Uとの共通認識として定められた姿勢である。図6の例では、所定の姿勢は手を下方に伸ばして広げた姿勢である。この場合に、操作者Uは、図6の下段のように、自らの体を動かして所定の姿勢に遷移する。
The
あるいは所定の姿勢は、操作者Uの現在の姿勢であってもよい。この場合に、動作特定部131が操作者Uの現在の姿勢を特定し、駆動決定部133は、ロボット2の姿勢を操作者Uの現在の姿勢に遷移させるように駆動情報を決定する。
Alternatively, the predetermined posture may be the current posture of the operator U. In this case, the
駆動制御部134は、ロボット2が所定の姿勢に遷移する駆動の実行を完了し、かつ操作者Uが所定の姿勢になった場合に、ロボット2を操作者Uの動作に追従させる制御を再開する。操作者Uの姿勢は、動作特定部131によって特定される。このように、ロボット制御装置1は、衝突を回避した後に操作者Uの姿勢とロボット2の姿勢とを合わせ、操作者Uの動作への追従をロボット2に再開させることができる。
The
表示制御部135は、駆動制御部134によるロボット2の駆動制御と並行して、ロボット2の撮像部21が撮像した画像を表示させるように表示部12を制御する。図7(a)、図7(b)は、本実施形態に係る表示部12が表示する画面を示す模式図である。
The
動作特定部131が特定した操作者Uの動作に対応する動作をロボット2に行わせる場合(すなわち衝突検出部132が衝突を検出しなかった場合)に、表示制御部135は、図7(a)のように、ロボット2の撮像部21が撮像した画像を表す画面Aを表示部12に表示させる。
When the
衝突検出部132が決定した衝突を回避する動作をロボット2に行わせる場合(すなわち衝突検出部132が衝突を検出した場合)に、表示制御部135は、図7(b)のように、ロボット2の撮像部21が撮像した画像に、ロボット2が衝突回避動作を行っていることを表す情報Cを重畳した画面Bを表示部12に表示させる。すなわち、表示制御部135は、ロボット2が操作者Uの動作へ追従する動作をしている期間と、ロボット2が操作者Uの動作へ追従する動作を停止している期間との間で、表示部12の表示態様を変更する。表示制御部135は、例えば画面Bにおいてロボット2の撮像部21が撮像した画像の明度を下げることによって、画面Aとの表示態様を変更する。
When the
このように表示制御部135は、動作特定部131が特定した操作者Uの動作に対応する動作をロボット2が行っているか、衝突検出部132が決定した衝突を回避する動作をロボット2が行っているかを、操作者Uが区別できるように表示制御を行う。衝突発生時に、操作者Uはさらなる衝突を発生させないことを意識して、自身の体を動かしてよいかどうかわからなくなる場合がある。図7(a)、図7(b)のように表示部12に追従の有無を明示することによって、操作者Uはロボット2が衝突発生時に自身の動作に追従していないことを認識することができ、自由に体を動かせるようになる。また、操作者Uは、表示部12上で追従の有無を認識することによって、自身の動作とロボット2の動作とのズレに起因する画面酔いをしづらい。
In this way, in the
[ロボット制御方法のフローチャート]
図8は、本実施形態に係るロボット制御方法のフローチャートを示す図である。図8のフローチャートは、例えば操作者Uがロボット制御装置1に対して所定の開始操作を行うことによって開始される。まず動作特定部131は、動作情報取得部11から動作情報を取得し、取得した動作情報に基づいて操作者Uの動作を特定する(S11)。
[Flowchart of robot control method]
FIG. 8 is a diagram showing a flowchart of the robot control method according to the present embodiment. The flowchart of FIG. 8 is started by, for example, the operator U performing a predetermined start operation on the robot control device 1. First, the
ステップS11で動作特定部131が操作者Uの動作を特定するのと並行して、衝突検出部132は、ロボット2の体の少なくとも一部が物体に衝突すること又は衝突したことを検出する(S12)。
In parallel with the
ステップS12で衝突検出部132が衝突を検出しなかった場合に(S13のNO)、駆動決定部133は、ステップS11で動作特定部131が特定した操作者Uの動作に対応するロボット2の動作を決定し、ロボット2が該動作をするように駆動部22を駆動する指示を示す駆動情報を決定する(S14)。
When the
駆動制御部134は、ステップS14で駆動決定部133が決定した駆動情報をロボット2に送信することによって、ステップS11で動作特定部131が特定した操作者Uの動作に追従するようにロボット2を制御する(S15)。
The
ステップS12で衝突検出部132が衝突を検出した場合に(S13のYES)、駆動制御部134は、ロボット2に所定の停止情報を送信することによって、操作者Uの動作への追従をロボット2に停止させる(S16)。駆動決定部133は、学習モデル記憶部141からロボット2の周囲の状況に対応する学習モデルを取得し、又は駆動履歴記憶部142から所定時間の駆動履歴を取得する(S17)。そして駆動決定部133は、ステップS16で取得した学習モデル又は駆動履歴に基づいて、衝突を回避可能な駆動内容を示す駆動情報を決定する(S18)。
When the
駆動制御部134は、ステップS17で駆動決定部133が決定した駆動情報をロボット2に送信することによって、衝突検出部132が検出した衝突を回避するようにロボット2を制御する(S19)。
The
所定の終了条件(例えば操作者Uがロボット制御装置1に対して所定の終了操作を行うこと)が満たされていない場合に(S20のNO)、ロボット制御装置1はステップS11に戻って処理を繰り返す。所定の終了条件が満たされた場合に(S20のYES)、ロボット制御装置1は処理を終了する。 When a predetermined end condition (for example, the operator U performs a predetermined end operation on the robot control device 1) is not satisfied (NO in S20), the robot control device 1 returns to step S11 to perform processing. repeat. When the predetermined end condition is satisfied (YES in S20), the robot control device 1 ends the process.
[実施形態の効果]
本実施形態に係るロボット制御装置1は、学習モデル又は駆動履歴を用いて衝突を回避するためのロボット2の駆動内容を決定し、操作者Uの動作への追従を停止して衝突を回避するようにロボット2を駆動する。そのため、衝突回避のためにロボット2の各部位をどのように駆動するか(モーションプランニング)の演算時間を短縮できる。また、ロボット2が衝突を回避する際に別の物体に衝突することを抑制できる。
[Effect of embodiment]
The robot control device 1 according to the present embodiment determines the drive content of the
操作者Uの動作に追従するようにロボット2を動作させる際には、操作者Uの操作の違和感を小さくするために、操作者Uの動作を検出してからロボット2の駆動内容を決定するまでのタイムラグを小さくすることが求められる。本実施形態に係るロボット制御装置1は、衝突回避のために学習モデル又は駆動履歴を用いているため、衝突回避のためのシミュレーション等の複雑な計算が不要であり、高速に駆動内容を決定し、タイムラグを低減できる。
When operating the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in any unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.
ロボット制御装置1の制御部13(プロセッサ)は、図8に示すロボット制御方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部13は、図8に示すロボット制御方法を実行するためのプログラムを記憶部14から読み出し、当該プログラムを実行してロボット制御装置1の各部を制御することによって、図8に示すロボット制御方法を実行する。図8に示すロボット制御方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
The control unit 13 (processor) of the robot control device 1 is the main body of each step (process) included in the robot control method shown in FIG. That is, the
S ロボット制御システム
1 ロボット制御装置
12 表示部
13 制御部
132 衝突検出部
133 駆動決定部
134 駆動制御部
135 表示制御部
14 記憶部
141 学習モデル記憶部
142 駆動履歴記憶部
2 ロボット
S Robot control system 1
Claims (8)
前記ロボットの物体への衝突を検出する衝突検出部と、
前記衝突検出部が前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルに基づいて、前記衝突検出部が検出した前記衝突を回避可能な駆動内容を決定する駆動決定部と、
前記操作者の動作への追従を前記ロボットに停止させるとともに、前記駆動決定部が決定した前記駆動内容を前記ロボットに行わせる駆動制御部と、
前記ロボットの周囲の状況ごとに前記駆動内容を学習させた複数の前記学習モデルを記憶する記憶部と、
を有し、
前記衝突検出部が前記衝突を検出した場合に、前記駆動決定部は、前記ロボットから取得した情報に基づいて前記状況を特定し、特定した前記状況に対応する前記学習モデルを前記記憶部から取得し、取得した前記学習モデルが示す駆動内容を、前記衝突を回避可能な前記駆動内容として決定する、ロボット制御装置。 A robot control device that controls a robot so as to follow the movement of the operator.
A collision detection unit that detects a collision of the robot with an object,
When the collision detection unit detects the collision, the collision detected by the collision detection unit can be avoided based on a learning model showing a driving content that can avoid the collision corresponding to the situation around the robot. The drive decision unit that determines the drive content and the drive decision unit
A drive control unit that causes the robot to stop following the operation of the operator and causes the robot to perform the drive content determined by the drive determination unit.
A storage unit that stores a plurality of the learning models that have learned the driving contents for each situation around the robot, and a storage unit.
Have,
When the collision detection unit detects the collision, the drive determination unit identifies the situation based on the information acquired from the robot, and acquires the learning model corresponding to the identified situation from the storage unit. A robot control device that determines the acquired drive content indicated by the learning model as the drive content that can avoid the collision .
前記ロボットの物体への衝突を検出するステップと、
前記検出するステップが前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルに基づいて、前記検出するステップが検出した前記衝突を回避可能な駆動内容を決定するステップと、
前記操作者の動作への追従を前記ロボットに停止させるとともに、前記決定するステップが決定した前記駆動内容を前記ロボットに行わせるステップと、
を実行するロボット制御方法であって、
前記ロボット制御装置は、前記ロボットの周囲の状況ごとに前記駆動内容を学習させた複数の前記学習モデルを記憶する記憶部を有し、
前記駆動内容を決定するステップは、前記ロボットから取得した情報に基づいて前記状況を特定し、特定した前記状況に対応する前記学習モデルを前記記憶部から取得し、取得した前記学習モデルが示す駆動内容を、前記衝突を回避可能な前記駆動内容として決定することを含む、ロボット制御方法。 The processor of the robot control device that controls the robot so as to follow the movement of the operator
The step of detecting the collision of the robot with an object and
When the detected step detects the collision, the collision detected by the detected step can be avoided based on a learning model showing a driving content that can avoid the collision corresponding to the situation around the robot. Steps to determine the driving content and
A step of causing the robot to stop following the operation of the operator and causing the robot to perform the driving content determined by the determined step.
Is a robot control method that executes
The robot control device has a storage unit that stores a plurality of the learning models in which the driving contents are learned for each situation around the robot.
In the step of determining the driving content, the situation is specified based on the information acquired from the robot, the learning model corresponding to the identified situation is acquired from the storage unit, and the driving indicated by the acquired learning model. A robot control method comprising determining the content as the driving content that can avoid the collision .
前記ロボットの物体への衝突を検出するステップと、
前記検出するステップが前記衝突を検出した場合に、前記ロボットの周囲の状況に対応する衝突を回避可能な駆動内容を示す学習モデルに基づいて、前記検出するステップが検出した前記衝突を回避可能な駆動内容を決定するステップと、
前記操作者の動作への追従を前記ロボットに停止させるとともに、前記決定するステップが決定した前記駆動内容を前記ロボットに行わせるステップと、
を実行させるロボット制御プログラムであって、
前記ロボット制御装置は、前記ロボットの周囲の状況ごとに前記駆動内容を学習させた複数の前記学習モデルを記憶する記憶部を有し、
前記駆動内容を決定するステップは、前記ロボットから取得した情報に基づいて前記状況を特定し、特定した前記状況に対応する前記学習モデルを前記記憶部から取得し、取得した前記学習モデルが示す駆動内容を、前記衝突を回避可能な前記駆動内容として決定することを含む、ロボット制御プログラム。
For robot control devices that control robots to follow the movements of the operator,
The step of detecting the collision of the robot with an object and
When the detected step detects the collision, the collision detected by the detected step can be avoided based on a learning model showing a driving content that can avoid the collision corresponding to the situation around the robot. Steps to determine the driving content and
A step of causing the robot to stop following the operation of the operator and causing the robot to perform the driving content determined by the determined step.
It is a robot control program that executes
The robot control device has a storage unit that stores a plurality of the learning models in which the driving contents are learned for each situation around the robot.
In the step of determining the driving content, the situation is specified based on the information acquired from the robot, the learning model corresponding to the identified situation is acquired from the storage unit, and the driving indicated by the acquired learning model. A robot control program comprising determining the content as the driving content that can avoid the collision .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097144A JP7079435B2 (en) | 2018-05-21 | 2018-05-21 | Robot control device, robot control method and robot control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097144A JP7079435B2 (en) | 2018-05-21 | 2018-05-21 | Robot control device, robot control method and robot control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019202354A JP2019202354A (en) | 2019-11-28 |
JP7079435B2 true JP7079435B2 (en) | 2022-06-02 |
Family
ID=68725767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018097144A Active JP7079435B2 (en) | 2018-05-21 | 2018-05-21 | Robot control device, robot control method and robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7079435B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021256463A1 (en) * | 2020-06-19 | 2021-12-23 | 川崎重工業株式会社 | Imaging system and robot system |
JP7463946B2 (en) | 2020-11-11 | 2024-04-09 | 富士通株式会社 | Motion control program, motion control method, and motion control device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001198865A (en) | 2000-01-20 | 2001-07-24 | Toshiba Corp | Bipedal robot device and its operating method |
JP2005046931A (en) | 2003-07-30 | 2005-02-24 | National Institute Of Information & Communication Technology | Robot arm-hand operation control method and robot arm-hand operation control system |
JP2006146435A (en) | 2004-11-17 | 2006-06-08 | Univ Waseda | Motion transmission system and motion transmission method |
JP2016132080A (en) | 2015-01-21 | 2016-07-25 | ファナック株式会社 | Robot controller for control over robot based on external force acting on robot, and robot system |
WO2017033376A1 (en) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Industrial robot and operation method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6640060B2 (en) * | 2016-09-27 | 2020-02-05 | 株式会社日立製作所 | Robot system |
-
2018
- 2018-05-21 JP JP2018097144A patent/JP7079435B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001198865A (en) | 2000-01-20 | 2001-07-24 | Toshiba Corp | Bipedal robot device and its operating method |
JP2005046931A (en) | 2003-07-30 | 2005-02-24 | National Institute Of Information & Communication Technology | Robot arm-hand operation control method and robot arm-hand operation control system |
JP2006146435A (en) | 2004-11-17 | 2006-06-08 | Univ Waseda | Motion transmission system and motion transmission method |
JP2016132080A (en) | 2015-01-21 | 2016-07-25 | ファナック株式会社 | Robot controller for control over robot based on external force acting on robot, and robot system |
WO2017033376A1 (en) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | Industrial robot and operation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2019202354A (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11257223B2 (en) | Systems and methods for user detection, identification, and localization within a defined space | |
JP6778198B2 (en) | Remote control robot system | |
JP6886869B2 (en) | Motion prediction system and motion prediction method | |
EP3178617B1 (en) | Hybrid reality based i-bot navigation and control | |
JP6221224B2 (en) | Robot system, program, production system and robot | |
CN103207671A (en) | Touch free operation of ablator workstation by use of depth sensors | |
JP7079435B2 (en) | Robot control device, robot control method and robot control program | |
EP3804918A1 (en) | Robot system and supplemental learning method | |
JP2018183845A (en) | Operation device, robot system, and operation method, for operating robot | |
CN107813306B (en) | Robot and motion control method and device thereof | |
JP7417356B2 (en) | robot control system | |
KR20180090644A (en) | Device and mehtod for interaction between driver and vehicle | |
JP6270488B2 (en) | Operator monitoring control device and operator monitoring control method | |
US11458618B2 (en) | Collaborative operation support device | |
CN109144262B (en) | Human-computer interaction method, device, equipment and storage medium based on eye movement | |
JP2019079481A (en) | Biological information analyzer and method for simulating face pattern | |
JP7047726B2 (en) | Gripping robot and control program for gripping robot | |
JP2017051350A (en) | Emergency processing system | |
CN111673745A (en) | Robot control system and method based on somatosensory interaction | |
KR102301763B1 (en) | System and method for controlling mobile robot | |
US20220281109A1 (en) | Robot system, terminal, control method for robot system, and control method for terminal | |
KR20190091870A (en) | Robot control system using motion sensor and VR | |
JP6885909B2 (en) | Robot control device | |
Ho et al. | An HMM-based temporal difference learning with model-updating capability for visual tracking of human communicational behaviors | |
JP2019063905A (en) | Robot control system, robot control method and user apparatus for robot control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220325 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |