JP2019000918A - System and method for controlling arm attitude of working robot - Google Patents

System and method for controlling arm attitude of working robot Download PDF

Info

Publication number
JP2019000918A
JP2019000918A JP2017115092A JP2017115092A JP2019000918A JP 2019000918 A JP2019000918 A JP 2019000918A JP 2017115092 A JP2017115092 A JP 2017115092A JP 2017115092 A JP2017115092 A JP 2017115092A JP 2019000918 A JP2019000918 A JP 2019000918A
Authority
JP
Japan
Prior art keywords
arm
posture
control
marker
working robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017115092A
Other languages
Japanese (ja)
Other versions
JP6948164B2 (en
Inventor
丸山 貴志子
Kishiko Maruyama
貴志子 丸山
宣隆 木村
Nobutaka Kimura
宣隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi GE Nuclear Energy Ltd
Original Assignee
Hitachi GE Nuclear Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi GE Nuclear Energy Ltd filed Critical Hitachi GE Nuclear Energy Ltd
Priority to JP2017115092A priority Critical patent/JP6948164B2/en
Publication of JP2019000918A publication Critical patent/JP2019000918A/en
Application granted granted Critical
Publication of JP6948164B2 publication Critical patent/JP6948164B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve operability of a remote-controlled robot.SOLUTION: A system for controlling arm attitude of a working robot comprising an arm having a movable part is provided. The system performs processing with a camera image obtained by photographing a marker added to the arm, as input. The system comprises, as a constituent, an image analyzer generating three-dimensional coordinate of the marker by extracting the marker from the camera image, an arm attitude estimation device generating arm attitude data showing an attitude of the arm based on the three-dimensional coordinate of the marker and a structure model of the arm, and an arm attitude control device for controlling the attitude of the arm based on arm attitude data. When detecting a prescribed error in generation of the arm attitude data, an attitude is returned to the attitude of the arm before detecting the prescribed error or a basic attitude or a state of detecting the prescribed error is stored, and in control of the attitude of the arm thereafter, avoidance control such as avoiding a state in which the prescribed error occurs is performed.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットの姿勢を制御する技術に関し、特に作業用ロボットのアーム姿勢の制御技術に関する。   The present invention relates to a technique for controlling the attitude of a robot, and more particularly to a technique for controlling an arm attitude of a working robot.

従来の作業用ロボットの例として、特許文献1には、取り扱う重量が大きい液圧駆動アクチュエータおよび、それを組み込んだ筋肉ロボットが提案されている。   As an example of a conventional working robot, Patent Document 1 proposes a hydraulic drive actuator that handles a large weight and a muscle robot incorporating the actuator.

一般的に、作業用ロボットの操作では、オペレータがロボットを直接目視し、あるいは、カメラなどで撮影した遠隔地のロボットの動きを見ながら、ロボットの操作を行うことが考えられる。また、ロボットの実際の動作を決定する際には、情報処理装置の支援を受けることもできる。   Generally, in the operation of a working robot, it is conceivable that the operator operates the robot while directly observing the robot or watching the movement of the remote robot taken by a camera or the like. Further, when the actual operation of the robot is determined, it is possible to receive assistance from the information processing apparatus.

特許文献2には、ロボットの動作計画法として、初期姿勢と目標姿勢を補間する姿勢を無数にサンプリングし、所定のコスト関数に基づいてコストが最小になるように軌道を決定する手法が開示される。   Patent Document 2 discloses a method for determining the trajectory so as to minimize the cost based on a predetermined cost function as a robot motion planning method by sampling an infinite number of postures that interpolate the initial posture and the target posture. The

特開2016−203359号公報JP, 2006-203359, A 特開2015−160253号公報JP, 2015-160253, A

原子炉の廃炉作業等では、周囲の構造物が未知であり、かつ、高放射線環境という人の立ち入りが困難な条件下での作業が想定される。このため、原則として、遠隔操作のロボットによる作業が想定される。   In the decommissioning work of a nuclear reactor and the like, it is assumed that the surrounding structure is unknown and the work is in a high radiation environment where it is difficult for a person to enter. For this reason, in principle, work by a remotely operated robot is assumed.

ロボットが作業する際には、作業環境において、ロボット自身の損傷や周囲の施設の破損を避けるために、周囲の構造物との干渉を制御する必要がある。このため、ロボットの位置や姿勢を正確にコントロールすることが要求される。   When a robot works, it is necessary to control interference with surrounding structures in the work environment in order to avoid damage to the robot itself and damage to surrounding facilities. For this reason, it is required to accurately control the position and posture of the robot.

しかし、一般の産業用ロボットに搭載されているような、関節の角度を直接計測するエンコーダ等の電子部品を用いたセンサは、高い放射線の環境下では誤動作を起こす可能性がある。このため、ロボットの姿勢をセンサにより直接把握することができない場合がある。   However, a sensor using an electronic component such as an encoder that directly measures the angle of a joint, which is mounted on a general industrial robot, may malfunction in a high radiation environment. For this reason, the posture of the robot may not be directly grasped by the sensor.

また、ビデオカメラで画像を取得し、画像に基づいてロボットの姿勢を把握しようとした場合、高い放射線はカメラの画像にもノイズを発生させる場合がある。また、高温高湿度の環境下では、水蒸気等の影響により、カメラの画像が不鮮明になる場合もある。さらに、ビデオカメラの配置や照明器具の設置にも制約がある。ビデオカメラの画像の明瞭性を十分に確保できない場合、画像を見てロボットを操作するオペレータの作業効率も低下するおそれがある。   In addition, when an image is acquired by a video camera and an attempt is made to grasp the posture of the robot based on the image, high radiation may cause noise in the camera image. In addition, in a high temperature and high humidity environment, the camera image may become unclear due to the influence of water vapor or the like. There are also restrictions on the placement of video cameras and the installation of lighting fixtures. When the clarity of the image of the video camera cannot be ensured sufficiently, there is a possibility that the working efficiency of the operator who operates the robot while viewing the image may be lowered.

そこで本発明の目的は、高い放射線の環境下で使用可能な、遠隔操作ロボットのオペレータによる操作性を向上することを目的とする。   Accordingly, an object of the present invention is to improve the operability by an operator of a remote control robot that can be used in a high radiation environment.

本発明の一側面は、可動部を有するアームを備える作業用ロボットのアーム姿勢制御システムである。当該システムは、アームに付加されたマーカを撮影したカメラ画像を入力として処理を行う。システムの構成要素としては、カメラ画像からマーカを抽出し、マーカの3次元座標を生成する画像解析装置と、マーカの3次元座標とアームの構造モデルに基づいて、アームの姿勢を示すアーム姿勢データを生成するアーム姿勢推定装置と、アーム姿勢データに基づいて、アームの姿勢を制御するアーム姿勢制御装置を備える。また、アーム姿勢データの生成において、所定のエラーを検出した場合に、所定のエラーの検出以前のアームの姿勢、もしくは基本姿勢に復帰するか、あるいは、所定のエラーを検出した状況を記憶し、その後のアームの姿勢の制御では、その状況を避けるような回避制御を行う。   One aspect of the present invention is an arm posture control system for a working robot including an arm having a movable portion. The system performs processing by inputting a camera image obtained by photographing a marker added to an arm. The system components include an image analysis device that extracts a marker from a camera image and generates a three-dimensional coordinate of the marker, and arm posture data that indicates the posture of the arm based on the three-dimensional coordinate of the marker and the structural model of the arm And an arm posture control device for controlling the posture of the arm based on the arm posture data. In addition, when a predetermined error is detected in the generation of arm posture data, the posture of the arm before the detection of the predetermined error, or the basic posture is restored, or the situation where the predetermined error is detected is stored, In the subsequent arm posture control, avoidance control is performed to avoid the situation.

本発明の他の一側面は、可動部を有するアームを備える作業用ロボットのアーム姿勢制御方法である。この方法は、アームに付加されたマーカを撮影したカメラ画像を入力する入力ステップと、カメラ画像からマーカを抽出し、マーカの3次元座標を生成する画像解析ステップと、マーカの3次元座標とアームの構造モデルに基づいて、アームの姿勢を示すアーム姿勢データを生成するアーム姿勢推定ステップと、アーム姿勢データに基づいて、アーム微小移動目標量を求め、アーム微小移動目標量に基づいて、アームの姿勢を制御するアーム姿勢制御ステップを実行する。また、アームの姿勢を示すアーム姿勢データを生成できなかった場合に、アーム姿勢データに基づいて制御されたアームの姿勢、もしくは基本姿勢に復帰する復帰制御を行うか、あるいは、アーム姿勢データを生成できなかった状況を記憶し、その後のアームの姿勢の制御では、その状況を避けるような回避制御を行う。   Another aspect of the present invention is an arm posture control method for a working robot including an arm having a movable part. This method includes an input step of inputting a camera image obtained by photographing a marker added to an arm, an image analysis step of extracting a marker from the camera image and generating a three-dimensional coordinate of the marker, a three-dimensional coordinate of the marker, and an arm An arm posture estimation step for generating arm posture data indicating the posture of the arm on the basis of the structural model, an arm minute movement target amount based on the arm posture data, and an arm minute movement target amount based on the arm minute movement target amount. An arm posture control step for controlling the posture is executed. Also, if arm posture data indicating the posture of the arm could not be generated, return control to return to the arm posture controlled based on the arm posture data or the basic posture, or generate arm posture data The situation that could not be recorded is stored, and in the subsequent arm posture control, avoidance control is performed to avoid the situation.

遠隔操作ロボットの操作性を向上することができる。   The operability of the remote control robot can be improved.

実施例のロボットのアーム姿勢制御システムの、ハードウェアの全体構成を示す斜視図。The perspective view which shows the whole hardware structure of the arm attitude | position control system of the robot of an Example. 実施例のロボットのアーム姿勢制御システムの、全体の処理の流れを示すフロー図。The flowchart which shows the flow of the whole process of the arm attitude | position control system of the robot of an Example. ロボットのアーム姿勢制御システムの機能ブロックを示すブロック図。The block diagram which shows the functional block of the arm attitude | position control system of a robot. 画像解析装置の処理フローを示す流れ図。The flowchart which shows the processing flow of an image analyzer. アーム姿勢推定装置における、アーム姿勢推定処理の処理フローを示す流れ図。The flowchart which shows the processing flow of an arm attitude | position estimation process in an arm attitude | position estimation apparatus. アーム姿勢制御装置における、アーム姿勢制御処理の処理フローを示す流れ図。The flowchart which shows the processing flow of an arm attitude | position control process in an arm attitude | position control apparatus.

以下で説明される実施例の一つの例では、アームを有するロボット(作業用ロボット)を含むロボットシステムであって、作業環境あるいはロボット自体に設置された非接触センサを用いる。非接触センサとしては、例えばステレオカメラがある。アームには複数のマーカが配置されており、ロボットシステムは、マーカを非接触センサで検知することで、アームの姿勢を把握する。この構成によれば、放射線耐性に優れる構成によって、ロボットの姿勢を把握することができる。   In one example of the embodiment described below, a robot system including a robot having an arm (working robot) uses a non-contact sensor installed in the work environment or the robot itself. As a non-contact sensor, there is a stereo camera, for example. A plurality of markers are arranged on the arm, and the robot system grasps the posture of the arm by detecting the marker with a non-contact sensor. According to this configuration, the posture of the robot can be grasped by a configuration having excellent radiation resistance.

そして、非接触センサでアームの検知ができなくなった場合には、その前の姿勢あるいは基本姿勢に復帰する。基本姿勢とは、例えば前述の特許文献1に開示される作業用ロボットでは、液圧を最大または最小とした場合の姿勢である。基本姿勢は、液圧などの制御パラメータを所定条件あるいは所定値にした場合、一意に定まる姿勢と定義できる。当該構成によれば、非接触センサでアームの検知ができず、姿勢が認識できない場合であっても、認識可能な姿勢に復帰することができる。   When the arm cannot be detected by the non-contact sensor, the posture returns to the previous posture or the basic posture. The basic posture is, for example, the posture when the hydraulic pressure is maximized or minimized in the working robot disclosed in Patent Document 1 described above. The basic posture can be defined as a posture that is uniquely determined when a control parameter such as hydraulic pressure is set to a predetermined condition or a predetermined value. According to this configuration, even when the arm cannot be detected by the non-contact sensor and the posture cannot be recognized, the posture can be returned to the recognizable posture.

また、アームの検知ができなくなった位置を記憶し、その後の動作では、その位置を避けてアームを駆動する。非接触センサでアームの検知ができなくなった場合には、例えば障害物などにより、カメラからマーカが見えない場合が想定される。そこで、そのような位置をあらかじめ避けるようにして、アームの姿勢を制御することにより、継続的にアームの姿勢を把握することを可能とする。   Further, the position where the arm cannot be detected is stored, and in the subsequent operation, the arm is driven avoiding the position. When the arm cannot be detected by the non-contact sensor, it is assumed that the marker cannot be seen from the camera due to an obstacle, for example. Therefore, by avoiding such a position in advance and controlling the posture of the arm, it is possible to continuously grasp the posture of the arm.

(1.システムの全体ハードウェア構成)
図1は、本発明の実施例である、ロボットのアーム姿勢制御システムの、ハードウェアの全体構成を示す斜視図である。
(1. Overall hardware configuration of the system)
FIG. 1 is a perspective view showing the overall hardware configuration of a robot arm posture control system according to an embodiment of the present invention.

アーム1001を有するロボット1は、例えば移動機構1002で移動が可能である。アーム1001は、一つあるいは複数の関節1003を備え、関節1003は角度を変化させたり、回転させたりすることが可能である。アーム1001は、遠隔地にいるオペレータ等の指示により姿勢を変化させることができ、作業対象物7に対して保持部1004等により作業を行うことが可能である。アーム1001の機械的な構造については、例えば特許文献1に開示がある。特許文献1に開示される作業用ロボットは、液圧で動作する構造となっており、特に水圧は、ロボットからの油漏れなどによる、作業環境への影響が小さいことが期待できる。   The robot 1 having the arm 1001 can be moved by a moving mechanism 1002, for example. The arm 1001 includes one or a plurality of joints 1003, and the joint 1003 can change an angle or be rotated. The arm 1001 can change the posture in accordance with an instruction from an operator or the like located at a remote place, and can work on the work object 7 with the holding unit 1004 or the like. The mechanical structure of the arm 1001 is disclosed in Patent Document 1, for example. The working robot disclosed in Patent Document 1 has a structure that operates with a hydraulic pressure, and in particular, the water pressure can be expected to have a small influence on the working environment due to oil leakage from the robot.

アーム1001には一つまたは複数のマーカ3が配置されている。本実施例では、マーカは視認性の良い構成を持つ。マーカ3は例えば、所定の大きさの白色の円盤であり、アーム1001の各部に取り付けられる。マーカ3は発光ダイオード等で発光させてもよい。また、部位ごとにマーカの大きさや色を変えてもよい。マーカ3の構成としては、ロボットの作業環境で、マーカ3が十分に検出できるように、背景に対してコントラストが明確な色や形を選択することが望ましい。   One or more markers 3 are arranged on the arm 1001. In this embodiment, the marker has a configuration with good visibility. The marker 3 is, for example, a white disk having a predetermined size, and is attached to each part of the arm 1001. The marker 3 may emit light with a light emitting diode or the like. Moreover, you may change the magnitude | size and color of a marker for every site | part. As the configuration of the marker 3, it is desirable to select a color or shape having a clear contrast with respect to the background so that the marker 3 can be sufficiently detected in the work environment of the robot.

アーム1001にとりつけられたマーカ3は、ステレオカメラ2により撮影される。ステレオカメラ2は、例えば2台のビデオカメラである。ステレオカメラ2で撮影された画像は、画像解析装置6に送信される。画像解析装置6の出力は、アーム姿勢推定装置5に入力され、アーム姿勢推定装置5の出力は、アーム姿勢制御装置4に入力される。アーム姿勢制御装置4からの出力は、アーム1001に入力され、アーム1001の姿勢を制御する。   The marker 3 attached to the arm 1001 is photographed by the stereo camera 2. The stereo camera 2 is, for example, two video cameras. An image captured by the stereo camera 2 is transmitted to the image analysis device 6. The output of the image analysis device 6 is input to the arm posture estimation device 5, and the output of the arm posture estimation device 5 is input to the arm posture control device 4. An output from the arm posture control device 4 is input to the arm 1001 to control the posture of the arm 1001.

例えば特許文献1の技術では、アームの姿勢を制御するために液圧を用いている。この方式を採用する場合には、アーム姿勢制御装置4は液体の圧力を制御するためのポンプを含むものとし、ポンプから送出される液体自体をアーム姿勢制御装置4からの出力と考えてよい。   For example, in the technique of Patent Document 1, hydraulic pressure is used to control the posture of the arm. When this method is adopted, the arm posture control device 4 includes a pump for controlling the pressure of the liquid, and the liquid itself delivered from the pump may be considered as an output from the arm posture control device 4.

(2.システムの全体処理フロー)
図2は、本実施例のロボットのアーム姿勢制御システムの全体の処理の流れを示す図である。
(2. Overall processing flow of the system)
FIG. 2 is a diagram showing the overall processing flow of the robot arm posture control system according to the present embodiment.

処理S101では、ステレオカメラ2でロボット1のアーム1001およびマーカ3を撮影し、ステレオカメラ画像を取得する。   In step S101, the stereo camera 2 captures the arm 1001 and the marker 3 of the robot 1, and acquires a stereo camera image.

処理S102では、画像解析装置6により、画像解析処理が行われる。後に図4で詳しく説明する。   In process S102, the image analysis apparatus 6 performs image analysis processing. This will be described in detail later with reference to FIG.

処理S103では、アーム姿勢推定装置5により、アーム姿勢推定処理が行われる。当該処理により、オペレータあるいはシステムは、ロボット1やアーム1001の姿勢を把握することができる。後に図5で詳しく説明する。   In step S103, the arm posture estimation apparatus 5 performs an arm posture estimation process. By this processing, the operator or the system can grasp the posture of the robot 1 or the arm 1001. This will be described in detail later with reference to FIG.

処理S104では、アーム姿勢制御装置4により、アーム姿勢制御処理が行われる。当該処理は、オペレータあるいはシステムが、ロボット1やアーム1001に次の姿勢を指示する処理である。後に図6で詳しく説明する。   In process S <b> 104, arm posture control processing is performed by the arm posture control device 4. This process is a process in which the operator or the system instructs the robot 1 or the arm 1001 of the next posture. This will be described in detail later with reference to FIG.

処理S105では、アーム姿勢制御装置4から、ロボット1に対して、アーム動作指示が出力される。   In step S <b> 105, an arm operation instruction is output from the arm posture control device 4 to the robot 1.

(3.システムの機能ブロック構成)
図3は、本発明の一実施例である、ロボットのアーム姿勢制御システムの機能ブロックを示すブロック図である。アーム姿勢制御装置4、アーム姿勢推定装置5、画像解析装置6は、信号ケーブルあるいは無線リンクで接続されており、信号の送信あるいは受信が可能である。
(3. System functional block configuration)
FIG. 3 is a block diagram showing functional blocks of a robot arm posture control system according to an embodiment of the present invention. The arm posture control device 4, the arm posture estimation device 5, and the image analysis device 6 are connected by a signal cable or a wireless link, and can transmit or receive signals.

本実施例では、アーム姿勢制御装置4、アーム姿勢推定装置5、画像解析装置6は、プロセッサ、メモリ、入力インタフェースおよび出力インタフェースを備える、通常のサーバで実現することにした。各装置の計算や制御等の機能は、メモリに格納されたプログラムがプロセッサによって実行されることで、定められた処理を他のハードウェアと協働して実現される。計算機などが実行するプログラム、その機能、あるいはその機能を実現する手段を、「機能」、「手段」、「部」、「ユニット」、「モジュール」等と呼ぶ場合がある。以上の構成は、単体のコンピュータで構成してもよいし、あるいは、プロセッサ、メモリ、入力インタフェースおよび出力インタフェースの任意の部分が、相互に接続された他のコンピュータで構成されてもよい。   In this embodiment, the arm posture control device 4, the arm posture estimation device 5, and the image analysis device 6 are realized by a normal server including a processor, a memory, an input interface, and an output interface. Functions such as calculation and control of each device are realized in cooperation with other hardware by executing a program stored in the memory by the processor. A program executed by a computer, its function, or means for realizing the function may be referred to as “function”, “means”, “unit”, “unit”, “module”, or the like. The above configuration may be configured by a single computer, or may be configured by another computer in which arbitrary portions of the processor, the memory, the input interface, and the output interface are connected to each other.

図1や図3では、アーム姿勢制御装置4、アーム姿勢推定装置5、画像解析装置6は別個の装置として説明しているが、一つの装置としてもよい。すなわち、3台のサーバで構成してもよいし、複数の機能を持つ1台のサーバで構成してもよい。   1 and 3, the arm posture control device 4, the arm posture estimation device 5, and the image analysis device 6 are described as separate devices, but may be a single device. That is, it may be configured by three servers, or may be configured by one server having a plurality of functions.

図3に示した構成のうち、ロボット1およびロボット1を撮影するステレオカメラ2は、高放射線の作業環境に配置される場合がある。この場合には、通常のサーバの構成部品、特にSRAM(Static Random Access Memory)などの電子デバイス、は耐放射線性能に乏しいので、アーム姿勢制御装置4、アーム姿勢推定装置5、画像解析装置6を構成するサーバは、作業環境から遠隔地に設置することが望ましい。サーバとステレオカメラ2との間には、画像データを送信する信号ケーブルを配置して距離を確保することができる。   In the configuration illustrated in FIG. 3, the robot 1 and the stereo camera 2 that captures the robot 1 may be arranged in a high radiation work environment. In this case, normal server components, particularly electronic devices such as SRAM (Static Random Access Memory), have poor radiation resistance, so the arm posture control device 4, arm posture estimation device 5, and image analysis device 6 are used. It is desirable to install the server to be configured in a remote place from the work environment. A signal cable for transmitting image data can be arranged between the server and the stereo camera 2 to ensure a distance.

また、サーバとロボット1との間には、ロボット1にアーム動作指示信号を送る信号線を配置して距離をとることができる。あるいは、前述のように、アーム1001が水や油など液体の圧力で動作する場合には、液体を送るためのパイプを設置することもできる。この場合には、アーム動作制御部703からの信号によって、図示しないポンプ等を制御し、ポンプ等の働きにより、アーム1001の各部に供給される液体の圧力を制御するものとする。   Further, a signal line for sending an arm operation instruction signal to the robot 1 can be arranged between the server and the robot 1 so as to take a distance. Alternatively, as described above, when the arm 1001 operates at a liquid pressure such as water or oil, a pipe for sending the liquid can be installed. In this case, a pump or the like (not shown) is controlled by a signal from the arm operation control unit 703, and the pressure of the liquid supplied to each part of the arm 1001 is controlled by the function of the pump or the like.

(3-1.ステレオカメラ)
ステレオカメラ2は、一般には電子部品の素子スケールが小さいほど耐放射線性能が低下するので、マーカ3が認識できる程度の解像度があればよく、高精細画像は必要ではない。ステレオカメラ2は、ステレオカメラ画像信号Vを生成し、画像解析装置6に送信する。また、ステレオカメラ2は、画像解析管理部601からの指示信号Cによって、撮影の開始、終了、あるいは撮影角度の変更を行うものとする。
(3-1. Stereo camera)
Since the stereo camera 2 generally has lower radiation resistance as the element scale of the electronic component is smaller, the stereo camera 2 only needs to have a resolution that allows the marker 3 to be recognized, and does not require a high-definition image. The stereo camera 2 generates a stereo camera image signal V and transmits it to the image analysis device 6. Further, the stereo camera 2 is assumed to start or end shooting or change the shooting angle in response to an instruction signal C from the image analysis management unit 601.

ステレオカメラの個数は1または複数である。アーム1001の画像に死角がないことが理想的なので、3個以上設置しても良い。ステレオカメラの相対的な位置関係や光軸方向は、設置時に設定する、設定後実測する、あるいはカメラ画像から推定するなどの方法により、データ化しておくものとする。   The number of stereo cameras is one or more. Since it is ideal that the image of the arm 1001 has no blind spot, three or more may be installed. The relative positional relationship and optical axis direction of the stereo camera are converted into data by a method such as setting at the time of installation, actual measurement after setting, or estimation from a camera image.

(3-2.画像解析装置(概要))
図4に画像解析装置6の処理フローを示し、図3を参照しつつ処理内容を説明する。本実施例の画像解析装置6は、画像解析管理部601が全体の動作を制御するものとする。画像解析装置6の画像解析管理部601は、ステレオカメラ2からのステレオカメラ画像信号Vを受信すると、ステレオカメラ画像信号Vをマーカ検出部602に入力する(S201)。ステレオカメラ画像は、2以上のカメラからの画像を含むものとする。
(3-2. Image analysis device (outline))
FIG. 4 shows a processing flow of the image analysis apparatus 6, and the processing contents will be described with reference to FIG. In the image analysis apparatus 6 of this embodiment, the image analysis management unit 601 controls the overall operation. When receiving the stereo camera image signal V from the stereo camera 2, the image analysis management unit 601 of the image analysis device 6 inputs the stereo camera image signal V to the marker detection unit 602 (S201). A stereo camera image includes images from two or more cameras.

マーカ検出部602は、ステレオカメラ画像信号Vから画像処理によりマーカ部分を検出し、ステレオカメラの原理に従って、各マーカの3次元座標を検出する。さらに、必要によりマーカ3次元予測座標3DEを用いてマーカ座標を補完する(S202)。処理S202の結果得られた、マーカ3次元座標3Dは、画像解析管理部601に送られる。座標変換部603、マーカ3次元予測座標3DE、およびマーカ座標の補完については、後に説明する。   The marker detection unit 602 detects a marker portion from the stereo camera image signal V by image processing, and detects the three-dimensional coordinates of each marker according to the principle of the stereo camera. Furthermore, if necessary, the marker coordinates are complemented using the marker three-dimensional predicted coordinates 3DE (S202). The marker three-dimensional coordinates 3D obtained as a result of the process S202 are sent to the image analysis management unit 601. The coordinate conversion unit 603, the marker three-dimensional predicted coordinates 3DE, and the complement of the marker coordinates will be described later.

マーカを検出する画像処理では、例えばマーカ3が白色の円形である場合には、高コントラストの円形の部分を検出する。マーカの色や反射率を変更し、色の検出や反射光の検出によって検出してもよい。そして、2次元画像中のマーカ3の座標を示すマーカ2次元座標を生成する。   In the image processing for detecting the marker, for example, when the marker 3 is a white circle, a high-contrast circular portion is detected. It may be detected by changing the color or reflectance of the marker and detecting the color or reflected light. Then, marker two-dimensional coordinates indicating the coordinates of the marker 3 in the two-dimensional image are generated.

画像解析装置6はデータとして、センサ配置情報604を持つ。センサ配置情報604は、センサ例えばカメラの位置座標および画角(カメラの光軸の方向および視野角)である。マーカ検出部602は、センサ配置情報604を用いて、カメラからみた2次元座標を、3次元座標に変換し、マーカ3次元座標3Dとして、画像解析管理部601に出力する。この際、前述のように必要に応じてマーカ3次元座標の補完を行う。   The image analysis device 6 has sensor arrangement information 604 as data. The sensor arrangement information 604 is a position coordinate and an angle of view of a sensor, for example, a camera (the direction of the optical axis and the viewing angle of the camera). The marker detection unit 602 converts the two-dimensional coordinates viewed from the camera into three-dimensional coordinates using the sensor arrangement information 604, and outputs the converted three-dimensional coordinates 3D to the image analysis management unit 601. At this time, the marker three-dimensional coordinates are complemented as necessary as described above.

複数の画像から3次元を復元する方法としては、SfM(Structure from Motion)として知られている手法がある。3次元座標の原点や座標系は任意でよい。画像解析管理部601は、マーカ3次元座標3Dをアーム姿勢推定装置5に送信する(S203)。   As a method for restoring three dimensions from a plurality of images, there is a method known as SfM (Structure from Motion). The origin and coordinate system of the three-dimensional coordinates may be arbitrary. The image analysis management unit 601 transmits the marker three-dimensional coordinates 3D to the arm posture estimation device 5 (S203).

(3-3.アーム姿勢推定装置)
図5にアーム姿勢推定装置5における、アーム姿勢推定処理の処理フローを示し、図3を参照しつつ処理内容を説明する。図5に示すように、アーム姿勢推定装置5の姿勢更新部501は、画像解析装置6の画像解析管理部601からマーカ3次元座標3Dを受信する。ステレオカメラ画像信号Vは、時系列の複数のフレーム画像を含み、各フレームからマーカ3次元座標3Dを生成することにより、マーカ3の動きを追跡することができる。
(3-3. Arm posture estimation device)
FIG. 5 shows a process flow of the arm posture estimation process in the arm posture estimation apparatus 5, and the processing content will be described with reference to FIG. As illustrated in FIG. 5, the posture update unit 501 of the arm posture estimation device 5 receives the marker three-dimensional coordinates 3D from the image analysis management unit 601 of the image analysis device 6. The stereo camera image signal V includes a plurality of time-series frame images, and the movement of the marker 3 can be tracked by generating a marker three-dimensional coordinate 3D from each frame.

アーム姿勢推定装置5の姿勢更新部501は、アーム姿勢を推定し、アーム姿勢データAPとして更新する処理を行う。アーム姿勢推定装置5は、アーム姿勢データAPを時系列にアーム姿勢履歴データ503として蓄積する。アーム姿勢データAPの推定の処理の内容については後述するが、本実施例では、検出したマーカに基づくマーカ3次元座標3Dと、アーム姿勢履歴データ503(過去のアーム姿勢データAP)から予測したアーム姿勢予測データAPEの両方を利用する。   The posture update unit 501 of the arm posture estimation device 5 performs a process of estimating the arm posture and updating it as arm posture data AP. The arm posture estimation device 5 accumulates the arm posture data AP as arm posture history data 503 in time series. The details of the process of estimating the arm posture data AP will be described later. In this embodiment, the arm predicted from the marker three-dimensional coordinates 3D based on the detected marker and the arm posture history data 503 (past arm posture data AP). Both attitude prediction data APE are used.

図3に示すように、アーム姿勢履歴データ503は、姿勢予測部504に入力される。姿勢予測部504では、アームの運動モデル505を用いて、アーム姿勢履歴データ503からアーム姿勢予測データAPEを生成する(S301)。アームの運動モデル505は例えば、アームの各関節が所定の等角速度で動作するというような制約条件に従うモデルである。このような予測は、例えばカルマンフィルターを用いて行うことができる。   As shown in FIG. 3, the arm posture history data 503 is input to the posture prediction unit 504. The posture prediction unit 504 generates arm posture prediction data APE from the arm posture history data 503 using the arm motion model 505 (S301). The arm motion model 505 is, for example, a model that complies with a constraint condition that each joint of the arm operates at a predetermined equiangular velocity. Such prediction can be performed using a Kalman filter, for example.

姿勢更新部501には、画像解析管理部601から、マーカ3次元座標3Dが入力される(S302)。姿勢更新部501は、アームモデル502を用いて、マーカ3次元座標3Dからアームの姿勢を算出する。ここで、アームモデル502は、アーム1001の関節と関節の接続関係、関節と関節の間隔、関節の可動範囲、各関節軸を基準としたマーカの位置の情報等を含む。アームが液体の圧力で駆動される場合には、当該姿勢に対応した液体の圧力としてもよい。   The posture update unit 501 receives the marker three-dimensional coordinates 3D from the image analysis management unit 601 (S302). The posture update unit 501 uses the arm model 502 to calculate the posture of the arm from the marker three-dimensional coordinates 3D. Here, the arm model 502 includes information on the connection relationship between the joints of the arm 1001, the joint-to-joint spacing, the movable range of the joints, the marker position based on each joint axis, and the like. When the arm is driven by liquid pressure, the liquid pressure corresponding to the posture may be used.

姿勢更新部501は、アームモデル502とマーカ3次元座標3Dから、アームの姿勢を一意に特定するためのパラメータを算出する。このパラメータは、例えばアームの各関節の角度、あるいはその角度を取るための液体の圧力である。アーム1001が伸縮機能を持つ場合には、伸縮長を含んでもよい。本実施例では、アーム1001を液体の圧力で駆動することにし、アームの姿勢およびアームを駆動するための制御信号は、アームの各部に供給される液体の圧力で規定することにする。   The posture update unit 501 calculates a parameter for uniquely specifying the posture of the arm from the arm model 502 and the marker three-dimensional coordinates 3D. This parameter is, for example, the angle of each joint of the arm or the pressure of the liquid for taking the angle. In the case where the arm 1001 has a telescopic function, the arm 1001 may include a telescopic length. In this embodiment, the arm 1001 is driven by the pressure of the liquid, and the posture of the arm and the control signal for driving the arm are defined by the pressure of the liquid supplied to each part of the arm.

姿勢更新部501では、マーカ3次元座標3Dとアームモデル502から算出したアームの姿勢と、姿勢予測部504で予測したアーム姿勢予測データAPEとから、アーム姿勢を推定し、アーム姿勢データAPとして、アーム姿勢推定管理部506に入力する。   The posture update unit 501 estimates the arm posture from the arm posture calculated from the marker three-dimensional coordinates 3D and the arm model 502 and the arm posture prediction data APE predicted by the posture prediction unit 504, and as arm posture data AP, This is input to the arm posture estimation management unit 506.

アーム姿勢の具体的な推定手法としては、例えば、マーカ3次元座標3Dから算出したアームの姿勢から尤度関数を評価し、カルマンフィルターのパラメータを補正して、アーム姿勢データAPを推定し更新する(S303)。アーム姿勢データAPはアーム姿勢推定管理部506から、アーム姿勢制御装置4に送信される。   As a specific method for estimating the arm posture, for example, a likelihood function is evaluated from the posture of the arm calculated from the marker three-dimensional coordinates 3D, the parameters of the Kalman filter are corrected, and the arm posture data AP is estimated and updated. (S303). The arm posture data AP is transmitted from the arm posture estimation management unit 506 to the arm posture control device 4.

なお、アーム姿勢履歴データ503が十分に蓄積されていない間は、マーカ3次元座標3Dから算出したアームの姿勢をそのままアーム姿勢データAPとしてよい。   While the arm posture history data 503 is not sufficiently accumulated, the arm posture calculated from the marker three-dimensional coordinates 3D may be used as it is as the arm posture data AP.

一方、本実施例では図3に示すように、姿勢予測部504で生成されたアーム姿勢予測データAPEは、画像解析装置6の画像解析管理部601にフィードバックされている。アーム姿勢予測データAPEを用いると、マーカ検出もれの補完を行うことができる。   On the other hand, in this embodiment, as shown in FIG. 3, the arm posture prediction data APE generated by the posture prediction unit 504 is fed back to the image analysis management unit 601 of the image analysis device 6. When the arm posture prediction data APE is used, the marker detection leakage can be complemented.

(3-4.画像解析装置(マーカ座標の補完))
図4に戻ってマーカ検出もれの補完処理を説明する。アーム姿勢予測データAPEは座標変換部603に入力され(S204)、アームモデル605(アームモデル502と同一内容でよい)に基づいて、マーカ3次元予測座標3DEに変換される(S205)。マーカ3次元予測座標3DEは、画像解析管理部601を経由してマーカ検出部602に送られる。
(3-4. Image analysis device (complement of marker coordinates))
Returning to FIG. 4, the marker detection leakage compensation process will be described. The arm posture prediction data APE is input to the coordinate conversion unit 603 (S204), and converted to the marker three-dimensional prediction coordinates 3DE based on the arm model 605 (which may be the same content as the arm model 502) (S205). The marker three-dimensional predicted coordinates 3DE are sent to the marker detection unit 602 via the image analysis management unit 601.

マーカ検出部602では、ステレオカメラ2の画像によって検出された信号に基づくマーカ3次元座標を、マーカ3次元予測座標3DEによって補完し、マーカ3次元座標3Dを生成する。すなわち、マーカ3次元予測座標3DEは、姿勢予測部504によって予測されたアームの姿勢に基づく、あるべきマーカの座標であり、障害物や水蒸気によりマーカ3が隠れた場合でも、データの欠落に起因するマーカの検出漏れを補完することができる。例えば、ステレオカメラ2の画像によって2つのマーカが検出され、その間のマーカが検出されなかった場合、マーカ3次元予測座標3DEはその間のマーカの存在を示唆することができる。ただし、例えばアーム先端部のマーカの補完は、アーム角度を知り得ない状況では難しい。   In the marker detection unit 602, the marker three-dimensional coordinates based on the signal detected from the image of the stereo camera 2 are complemented by the marker three-dimensional predicted coordinates 3DE to generate the marker three-dimensional coordinates 3D. That is, the marker three-dimensional predicted coordinate 3DE is the coordinate of the marker that should be based on the arm posture predicted by the posture prediction unit 504, and is caused by missing data even when the marker 3 is hidden by an obstacle or water vapor. It is possible to compensate for the omission of marker detection. For example, when two markers are detected from the image of the stereo camera 2 and no marker is detected between them, the marker three-dimensional predicted coordinates 3DE can indicate the presence of the marker between them. However, for example, complementation of the marker at the arm tip is difficult in a situation where the arm angle cannot be known.

以上説明したように、図4に示すごとく、マーカ検出部602では、マーカ3次元予測座標3DEを用いて、ステレオカメラ2の画像から得られたマーカの情報を補完する(S202)。そして、マーカ3次元座標3Dを生成し、画像解析管理部601に出力する(S203)。本実施例では、以上のように姿勢予測部504でのアーム姿勢予測データAPEを、画像解析装置6でのマーカ検出の補完に用いているが、補完処理は場合によっては省略してもよい。   As described above, as shown in FIG. 4, the marker detection unit 602 uses the marker three-dimensional predicted coordinates 3DE to supplement the marker information obtained from the image of the stereo camera 2 (S202). Then, the marker three-dimensional coordinates 3D are generated and output to the image analysis management unit 601 (S203). In the present embodiment, the arm posture prediction data APE in the posture prediction unit 504 is used for complementing marker detection in the image analysis device 6 as described above, but the complement processing may be omitted depending on circumstances.

ロボット1の作業環境では、以上の補完を行った場合であっても、周辺の障害物や水蒸気などにより、十分にロボット1の姿勢の一部または全部を認識できない場合がある。例えば、画像解析管理部601は、所定の個数以上のマーカの座標を認識できなかった場合や、アーム先端のマーカを見失った場合には、マーカ3次元座標3Dの代わりに、もしくはこれに付加して、ロボットの姿勢を認識できないことを示すエラー信号をアーム姿勢推定装置5に送信する。エラー信号を受信したアーム姿勢推定装置5は、アーム姿勢データAPの代わりに、もしくはこれに付加して、エラー信号をアーム姿勢履歴データ503に格納し、また、アーム姿勢制御装置4に送信する。このとき、エラー信号には、直前のマーカ3次元座標3D、あるいは直前のアーム姿勢データAPをさらに付加してもよい。   In the work environment of the robot 1, even if the above supplement is performed, there may be a case where a part or all of the posture of the robot 1 cannot be sufficiently recognized due to surrounding obstacles or water vapor. For example, when the image analysis management unit 601 fails to recognize the coordinates of a predetermined number of markers or loses the marker at the end of the arm, the image analysis management unit 601 adds or adds to the marker three-dimensional coordinates 3D. Then, an error signal indicating that the posture of the robot cannot be recognized is transmitted to the arm posture estimation apparatus 5. The arm posture estimation device 5 that has received the error signal stores the error signal in the arm posture history data 503 instead of or in addition to the arm posture data AP, and transmits the error signal to the arm posture control device 4. At this time, the immediately preceding marker three-dimensional coordinate 3D or the immediately preceding arm posture data AP may be further added to the error signal.

また、エラー信号は、上記のように画像解析管理部601が生成する代わりに、姿勢更新部501において、アーム姿勢が推定できなかった場合に生成することにしてもよい。アーム姿勢が推定できない場合とは、例えばマーカ3次元座標3Dとアームモデル502から算出したアームの姿勢と、姿勢予測部504で予測したアーム姿勢予測データAPEが所定以上異なる場合である。   The error signal may be generated when the arm posture cannot be estimated by the posture update unit 501 instead of being generated by the image analysis management unit 601 as described above. The case where the arm posture cannot be estimated is, for example, a case where the arm posture calculated from the marker three-dimensional coordinates 3D and the arm model 502 differs from the arm posture prediction data APE predicted by the posture prediction unit 504 by a predetermined amount or more.

(3-5.アーム姿勢制御装置)
図6にアーム姿勢制御装置4における、アーム姿勢制御処理の処理フローを示し、図3を参照しつつ処理内容を説明する。アーム姿勢制御装置4のアーム動作計画部701は、アーム姿勢データAPをアーム姿勢推定装置5から受け取る。アーム動作計画部701は、最終目標設定部702にアーム姿勢データAPを送る。
(3-5. Arm posture control device)
FIG. 6 shows a processing flow of arm posture control processing in the arm posture control device 4, and processing contents will be described with reference to FIG. The arm motion planning unit 701 of the arm posture control device 4 receives the arm posture data AP from the arm posture estimation device 5. The arm motion planning unit 701 sends the arm posture data AP to the final target setting unit 702.

アームの姿勢制御の初期設定において、最終目標設定部702は、アーム1001の最終目標となる最終目標姿勢FPを設定する(S401)。最終目標姿勢FPは、例えばアーム姿勢データAPからアーム1001の姿勢を画像で再現して画像表示装置(図示せず)に表示し、オペレータが確認して、例えば保持部1004を移動させたい位置を画像上で指定するようにしてもよい。あるいは他の公知の方法でもよい。またこのとき、ステレオカメラ画像信号Vによる画像をあわせて表示してもよい。なお、説明上、最終目標姿勢FPを設定する時点ではアーム1001は見えているものとする。   In the initial setting of the arm posture control, the final target setting unit 702 sets a final target posture FP that is a final target of the arm 1001 (S401). In the final target posture FP, for example, the posture of the arm 1001 is reproduced as an image from the arm posture data AP and displayed on an image display device (not shown), and the operator confirms, for example, a position where the holding unit 1004 is to be moved. You may make it designate on an image. Alternatively, other known methods may be used. At this time, an image based on the stereo camera image signal V may be displayed together. For the sake of explanation, it is assumed that the arm 1001 is visible when the final target posture FP is set.

システムが扱うデータとして設定される最終目標姿勢FPは、例えばその姿勢をとるためのアーム1001の各関節の角度や液圧で定義される。本実施例では最終目標姿勢FPは、アームの姿勢およびアームを駆動するための制御信号と同じく、アーム1001の各部に供給される液体の圧力で規定することにする。このときオペレータから指示されたアームの姿勢は、その姿勢をとるためにアームの各部に供給される液体の圧力に変換すればよい。設定された最終目標姿勢FPは、アーム動作計画部701に送信される。   The final target posture FP set as data handled by the system is defined by, for example, the angle and hydraulic pressure of each joint of the arm 1001 for taking that posture. In the present embodiment, the final target posture FP is defined by the pressure of the liquid supplied to each part of the arm 1001 as in the case of the arm posture and the control signal for driving the arm. At this time, the posture of the arm instructed by the operator may be converted into the pressure of the liquid supplied to each part of the arm in order to take the posture. The set final target posture FP is transmitted to the arm motion planning unit 701.

アーム動作計画部701では、現在のアーム姿勢データAPと最終目標姿勢FPから、動作計画を生成する(S402)。ロボットの制御においては、環境の変化や、目標姿勢の変更に対応するために、環境や初期姿勢・目標姿勢にあわせて動的に軌道を生成する動作計画法という技術が知られている。動作計画とは、初期姿勢と目標姿勢と周囲環境の情報を入力に、何らかの基準に基づいてロボットの動作の軌道を決定する技術である。動作計画問題は産業用腕型ロボットにおいては、どのように腕を動かせば指定の姿勢になるのかを探す問題である。このような動作計画法の一例は、特許文献2にも開示がある。   The arm motion planning unit 701 generates a motion plan from the current arm posture data AP and the final target posture FP (S402). In robot control, a technique called motion planning is known in which a trajectory is dynamically generated according to the environment, initial posture, and target posture in order to cope with changes in the environment and changes in the target posture. The motion plan is a technology that determines the trajectory of the motion of the robot based on some criteria with the input of the initial posture, the target posture and the surrounding environment. The motion planning problem is a problem in an industrial arm-type robot in which it is searched how to move to the designated posture. An example of such an operation planning method is also disclosed in Patent Document 2.

アーム動作計画部701では、最新のアーム姿勢データAPを入力する(S403)。そして、アーム1001の姿勢が把握できているかを判定する(S404)。この判定は、画像解析管理部601、あるいは、姿勢更新部510で生成されたアーム姿勢データAPの内容、あるいはエラー信号(上述)の有無に基づいて可能である。最終目標姿勢FPを設定する時点ではアームが見えていることが保証されている場合には、最初の微小移動前において、このステップは省略してよい。   The arm motion planning unit 701 inputs the latest arm posture data AP (S403). Then, it is determined whether the posture of the arm 1001 can be grasped (S404). This determination can be made based on the content of the arm posture data AP generated by the image analysis management unit 601 or the posture update unit 510 or the presence / absence of an error signal (described above). If it is guaranteed that the arm is visible when the final target posture FP is set, this step may be omitted before the first minute movement.

アーム動作計画部701は、最新のアーム姿勢データAPに基づいて、アーム1001の姿勢が最終目標姿勢FPであるかどうかを判定する(S405)。アームの姿勢が把握できており、現在のアームの姿勢が最終目標姿勢である場合には、アーム動作制御を終了する。   The arm motion planning unit 701 determines whether the posture of the arm 1001 is the final target posture FP based on the latest arm posture data AP (S405). When the posture of the arm is grasped and the current posture of the arm is the final target posture, the arm operation control is ended.

アーム動作計画部701は、アームの姿勢が把握できており、現在のアームの姿勢が最終目標姿勢に到達していない場合には、アームの微小移動を継続する。アーム動作計画部701は、アーム動作計画に基づいてアーム微小移動目標量TAを求める(S406)。アーム微小移動目標量は、例えばアーム動作計画に基づいて定められたアーム1001の軌道を、所定量ずつ区分したものに相当する。   The arm motion planning unit 701 keeps track of the arm posture, and continues the minute movement of the arm when the current arm posture has not reached the final target posture. The arm motion planning unit 701 obtains the arm minute movement target amount TA based on the arm motion plan (S406). The arm minute movement target amount corresponds to, for example, a predetermined amount of the trajectory of the arm 1001 determined based on the arm operation plan.

アーム動作計画部701は、アーム微小移動目標量TAをアーム動作制御部703に指示し、アーム動作制御部703は、ロボット1にアーム微小移動目標量TAに応じたアーム動作指示CONTを行う(S407)。これらの制御により、アーム1001の微小移動が実行される(S408)。本実施例では、アーム動作指示CONTは、アーム1001各部に供給される液圧である。   The arm motion planning unit 701 instructs the arm motion control amount TA to the arm motion control unit 703, and the arm motion control unit 703 issues an arm motion command CONT according to the arm motion small target amount TA to the robot 1 (S407). ). By these controls, the minute movement of the arm 1001 is executed (S408). In this embodiment, the arm operation instruction CONT is a hydraulic pressure supplied to each part of the arm 1001.

微小移動実行後、微小移動を反映した最新のアーム姿勢データAPを入力し(S403)、アーム1001の姿勢が把握できているかを判定し(S404)、微小移動を継続する。   After the minute movement is executed, the latest arm posture data AP reflecting the minute movement is input (S403), it is determined whether the posture of the arm 1001 is grasped (S404), and the minute movement is continued.

一方、判断S404にてアームが認識されていない場合、すなわちエラー信号の入力がある場合等では、アーム動作計画部701は、アームが以前の状態(例えば直前の状態)に戻るようにアーム微小移動目標量TAを設定し、アーム微小移動目標量TAを制御変数(例えば液圧)に変換し、アーム動作を指示することにより、アーム1001は以前の状態に戻る(S409)。   On the other hand, when the arm is not recognized in the determination S404, that is, when an error signal is input, the arm motion planning unit 701 moves the arm slightly so that the arm returns to the previous state (for example, the immediately previous state). By setting the target amount TA, converting the arm minute movement target amount TA into a control variable (for example, hydraulic pressure) and instructing the arm operation, the arm 1001 returns to the previous state (S409).

アーム1001が直前の状態に戻ることにより、アーム1001の姿勢を見失う前の状態に復帰することができ、安定した制御が可能となる。また、直前の状態に復帰する以外、所定ステップ前の状態に復帰してもよい。また、アーム1001の基本姿勢(前述)に復帰してもよい。   By returning the arm 1001 to the previous state, it is possible to return to the state before losing sight of the posture of the arm 1001, and stable control becomes possible. Moreover, you may return to the state before a predetermined step other than returning to the state immediately before. Further, the arm 1001 may be returned to the basic posture (described above).

アーム1001が前述のように液体の圧力で姿勢を制御されている場合には、直前の状態に戻るためには、例えば前記エラー信号の前後の液圧あるいは液量の差分を検出し、差分にもとづいて制御することができる。また、基本姿勢に復帰するためには、例えば、液圧で駆動される関節のすべてのシリンダーの液圧あるいは液量を最小にすることで制御することができる。この場合には、アーム1001は例えば最も縮めた状態をとる。また、基本姿勢に復帰するためには、例えば、液圧で駆動される関節のすべてのシリンダーの液圧あるいは液量を最大にすることで制御することができる。この場合には、アーム1001は例えば最も伸ばした状態をとる。また、基本姿勢に復帰するためには、例えば、液圧で駆動される関節1つ以上のシリンダーの液圧あるいは液量を最大にし、1つ以上のシリンダーの液圧あるいは液量を最小にすることで制御することができる。この場合には、アーム1001は例えば曲げた状態をとる。   When the posture of the arm 1001 is controlled by the liquid pressure as described above, in order to return to the immediately previous state, for example, the difference between the fluid pressure or the fluid amount before and after the error signal is detected, and the difference is calculated. It can be controlled on the basis. In order to return to the basic posture, for example, control can be performed by minimizing the fluid pressure or fluid amount of all cylinders of the joint driven by fluid pressure. In this case, the arm 1001 is in the most contracted state, for example. In order to return to the basic posture, for example, the control can be performed by maximizing the fluid pressure or the fluid amount of all the cylinders of the joint driven by the fluid pressure. In this case, the arm 1001 is in the most extended state, for example. In order to return to the basic posture, for example, the hydraulic pressure or liquid volume of one or more cylinders driven by hydraulic pressure is maximized, and the hydraulic pressure or liquid volume of one or more cylinders is minimized. Can be controlled. In this case, the arm 1001 is in a bent state, for example.

一方、アーム動作計画部701が生成したアーム微小移動目標量TAは、アーム微小移動目標量履歴705として蓄積される。あるアーム微小移動目標量TAによって制御された結果、アーム1001を見失った場合、すなわちエラー信号を受信した場合等には、アーム微小移動目標量履歴705にその履歴を記録する(S410)。   On the other hand, the arm minute movement target amount TA generated by the arm motion planning unit 701 is accumulated as an arm minute movement target amount history 705. If the arm 1001 is lost as a result of being controlled by a certain arm minute movement target amount TA, that is, if an error signal is received, the history is recorded in the arm minute movement target amount history 705 (S410).

判断S404にてアームが認識されていない場合は、処理S409,S410を経て、アーム動作計画の修正を行う。すなわち、例えば、処理409で直前の状態に復帰した場合であれば、当該処理409で復帰した姿勢を起点として、処理S401で設定した最終目標姿勢FAをとるための動作計画を再作成する。ただし、この動作計画では、アーム1001を見失う状態を避けるように、動作計画を作成する。そのためには、アーム微小移動目標量履歴705を用いて、アーム1001を見失った直前のアーム微小移動目標量TAを用いないように制御を行う。あるいは、直前のアーム姿勢データAPの姿勢を避けるように制御を行ってもよい。   If the arm is not recognized in the determination S404, the arm operation plan is corrected through steps S409 and S410. That is, for example, if the process returns to the previous state in Step 409, the motion plan for taking the final target posture FA set in Step S401 is re-created starting from the posture returned in Step 409. However, in this operation plan, an operation plan is created so as to avoid a state in which the arm 1001 is lost. For this purpose, control is performed using the arm minute movement target amount history 705 so as not to use the arm minute movement target amount TA immediately before losing sight of the arm 1001. Alternatively, control may be performed so as to avoid the posture of the immediately preceding arm posture data AP.

また、あるいは、エラー信号の受信の直前に対応したマーカ3次元座標3Dを記録して、マーカが見えないエリアの外縁をマッピングすることにより、当該エリアを避けるようにアーム1001を制御することもできる。   Alternatively, the arm 1001 can be controlled so as to avoid the area by recording the corresponding marker 3D coordinates 3D immediately before receiving the error signal and mapping the outer edge of the area where the marker cannot be seen. .

本実施例によれば、従来の産業用ロボットに搭載されているような、関節の角度を直接計測するエンコーダなどのセンサを用いずに、アームの姿勢を把握することが可能となる。また、放射線や水蒸気などの影響により、高画質のカメラ画像の取得が期待できない環境下でもアームの姿勢を把握することが可能となる。さらに、周囲の未知の構造物などにより、ロボットやアームを見失う可能性のある状況でも、周囲の構造物との干渉を避け、安全かつ確実にアーム姿勢を制御することができる。   According to the present embodiment, it is possible to grasp the posture of the arm without using a sensor such as an encoder that directly measures the angle of the joint, which is mounted on a conventional industrial robot. Further, it becomes possible to grasp the posture of the arm even in an environment where high-quality camera images cannot be expected due to the influence of radiation or water vapor. Furthermore, even in situations where there is a possibility of losing sight of the robot or arm due to unknown surrounding structures, it is possible to control the arm posture safely and reliably, avoiding interference with surrounding structures.

本実施例中、ソフトウエアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウェアで置換することでも実現できる。   In the present embodiment, functions equivalent to those configured by software can be realized by replacing with hardware such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit).

本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the embodiments described above, and includes various modifications. For example, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace the configurations of other embodiments with respect to a part of the configurations of the embodiments.

ロボット1、アーム姿勢制御装置4、アーム姿勢推定装置5、画像解析装置6、アーム1001、移動機構1002、関節1003   Robot 1, arm posture control device 4, arm posture estimation device 5, image analysis device 6, arm 1001, moving mechanism 1002, joint 1003

Claims (15)

可動部を有するアームを備える作業用ロボットのアーム姿勢制御システムであって、
前記アームに付加されたマーカを撮影したカメラ画像を入力とし、
前記カメラ画像から前記マーカを抽出し、前記マーカの3次元座標を生成する画像解析装置と、
前記マーカの3次元座標と前記アームの構造モデルに基づいて、前記アームの姿勢を示すアーム姿勢データを生成するアーム姿勢推定装置と、
前記アーム姿勢データに基づいて、前記アームの姿勢を制御するアーム姿勢制御装置を備え、
前記アーム姿勢データの生成において、所定のエラーを検出した場合に、
前記所定のエラーの検出以前のアームの姿勢、もしくは基本姿勢に復帰するか、
あるいは、
所定のエラーを検出した状況を記憶し、その後の前記アームの姿勢の制御では、その状況を避けるような回避制御を行う、
作業用ロボットのアーム姿勢制御システム。
An arm posture control system for a working robot including an arm having a movable part,
With the camera image taken of the marker attached to the arm as input,
An image analysis device that extracts the marker from the camera image and generates three-dimensional coordinates of the marker;
An arm posture estimation device that generates arm posture data indicating the posture of the arm based on the three-dimensional coordinates of the marker and the structural model of the arm;
An arm posture control device for controlling the posture of the arm based on the arm posture data;
In the generation of the arm posture data, when a predetermined error is detected,
Return to the posture of the arm before the detection of the predetermined error, or the basic posture,
Or
The situation in which the predetermined error is detected is stored, and in the subsequent control of the posture of the arm, avoidance control is performed so as to avoid the situation.
Arm posture control system for work robots.
前記アーム姿勢制御装置は、前記アームの姿勢を制御するために液圧を制御し、
前記所定のエラーの検出以前のアームの姿勢に復帰する際には、
前記所定のエラーの前後の液圧あるいは液量の差分を検出し、当該差分にもとづいて前記アームを制御する、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
The arm posture control device controls the hydraulic pressure to control the posture of the arm,
When returning to the posture of the arm before the detection of the predetermined error,
Detecting a difference in fluid pressure or fluid volume before and after the predetermined error, and controlling the arm based on the difference;
The arm posture control system for a working robot according to claim 1.
前記アーム姿勢制御装置は、前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所のすべてに関わる液圧あるいは液量を最小にすることで制御する、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
The arm posture control device controls the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
Control by minimizing the fluid pressure or fluid volume related to all of the plurality of drive locations of the arm,
The arm posture control system for a working robot according to claim 1.
前記アーム姿勢制御装置は、前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所のすべてに関わる液圧あるいは液量を最大にすることで制御する、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
The arm posture control device controls the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
Control is performed by maximizing the hydraulic pressure or the liquid amount related to all of the plurality of driving locations of the arm,
The arm posture control system for a working robot according to claim 1.
前記アーム姿勢制御装置は、前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所のうち少なくとも一つに関わる液圧あるいは液量を最小にし、前記アームが有する複数の駆動箇所のうち少なくとも一つに関わる液圧あるいは液量を最大にすることで制御する、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
The arm posture control device controls the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
By minimizing the hydraulic pressure or amount of fluid relating to at least one of the plurality of driving locations of the arm, and maximizing the hydraulic pressure or amount of fluid relating to at least one of the plurality of driving locations of the arm. Control,
The arm posture control system for a working robot according to claim 1.
前記回避制御では、
前記所定のエラーの検出直前の、アーム微小移動目標量を用いないように制御を行う、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
In the avoidance control,
Control is performed so as not to use the arm minute movement target amount immediately before detection of the predetermined error.
The arm posture control system for a working robot according to claim 1.
前記回避制御では、
前記所定のエラーの検出直前の、前記アーム姿勢データに対応する姿勢を避けるように制御を行う、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
In the avoidance control,
Control is performed so as to avoid the posture corresponding to the arm posture data immediately before detection of the predetermined error.
The arm posture control system for a working robot according to claim 1.
前記回避制御では、
前記所定のエラーの検出直前および直後の少なくとも一つに対応した前記マーカの3次元座標をマッピングし、回避すべきエリアを規定し、当該エリアを避けるように制御を行う、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
In the avoidance control,
Mapping the three-dimensional coordinates of the marker corresponding to at least one immediately before and after detection of the predetermined error, defining an area to be avoided, and performing control to avoid the area;
The arm posture control system for a working robot according to claim 1.
前記所定のエラーとは、
所定個数の前記マーカを抽出できなかった場合、所定の前記マーカを抽出できなかった場合、および、前記アーム姿勢データが所定条件で生成できなかった場合の少なくとも一つである、
請求項1記載の作業用ロボットのアーム姿勢制御システム。
The predetermined error is
It is at least one of a case where a predetermined number of the markers could not be extracted, a case where the predetermined markers could not be extracted, and a case where the arm posture data could not be generated under a predetermined condition.
The arm posture control system for a working robot according to claim 1.
可動部を有するアームを備える作業用ロボットのアーム姿勢制御方法であって、
前記アームに付加されたマーカを撮影したカメラ画像を入力する入力ステップと、
前記カメラ画像から前記マーカを抽出し、前記マーカの3次元座標を生成する画像解析ステップと、
前記マーカの3次元座標と前記アームの構造モデルに基づいて、前記アームの姿勢を示すアーム姿勢データを生成するアーム姿勢推定ステップと、
前記アーム姿勢データに基づいて、アーム微小移動目標量を求め、前記アーム微小移動目標量に基づいて、前記アームの姿勢を制御するアーム姿勢制御ステップを実行し、
前記アームの姿勢を示すアーム姿勢データを生成できなかった場合に、
前記アーム姿勢データに基づいて制御されたアームの姿勢、もしくは基本姿勢に復帰する復帰制御を行うか、
あるいは、
アーム姿勢データを生成できなかった状況を記憶し、その後の前記アームの姿勢の制御では、その状況を避けるような回避制御を行う、
作業用ロボットのアーム姿勢制御方法。
An arm posture control method for a working robot including an arm having a movable part,
An input step of inputting a camera image obtained by photographing the marker added to the arm;
An image analysis step of extracting the marker from the camera image and generating three-dimensional coordinates of the marker;
An arm posture estimation step for generating arm posture data indicating the posture of the arm based on the three-dimensional coordinates of the marker and the structural model of the arm;
Obtaining an arm minute movement target amount based on the arm posture data, and executing an arm posture control step for controlling the posture of the arm based on the arm minute movement target amount;
When the arm posture data indicating the posture of the arm could not be generated,
The arm posture controlled based on the arm posture data, or return control to return to the basic posture,
Or
The situation where the arm posture data could not be generated is stored, and in the subsequent control of the posture of the arm, avoidance control is performed so as to avoid the situation.
Arm posture control method for work robot.
前記アームの姿勢を制御するために液圧を制御し、
前記アーム姿勢データに基づいて制御されたアームの姿勢に復帰する際には、
前記アーム姿勢データを生成できなくなったタイミングの前後の液圧あるいは液量の差分を検出し、当該差分にもとづいて前記アームを制御する、
請求項10記載の作業用ロボットのアーム姿勢制御方法。
Controlling the hydraulic pressure to control the posture of the arm,
When returning to the arm posture controlled based on the arm posture data,
Detecting a difference in fluid pressure or fluid amount before and after the timing at which the arm posture data can no longer be generated, and controlling the arm based on the difference;
The arm posture control method for a working robot according to claim 10.
前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所に対する液圧あるいは液量を所定の設定値にすることで制御する、
請求項10記載の作業用ロボットのアーム姿勢制御方法。
Controlling the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
Control by setting the fluid pressure or fluid amount to a plurality of drive locations of the arm to a predetermined set value,
The arm posture control method for a working robot according to claim 10.
前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所のすべてに関わる液圧あるいは液量を最小にすることで制御する、
請求項12記載の作業用ロボットのアーム姿勢制御方法。
Controlling the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
Control by minimizing the fluid pressure or fluid volume related to all of the plurality of drive locations of the arm,
The arm posture control method for a working robot according to claim 12.
前記アームの姿勢を制御するために液圧を制御し、
前記基本姿勢に復帰する際には、
前記アームが有する複数の駆動箇所のすべてに関わる液圧あるいは液量を最大にすることで制御する、
請求項12記載の作業用ロボットのアーム姿勢制御方法。
Controlling the hydraulic pressure to control the posture of the arm,
When returning to the basic posture,
Control is performed by maximizing the hydraulic pressure or the liquid amount related to all of the plurality of driving locations of the arm,
The arm posture control method for a working robot according to claim 12.
前記アームの姿勢を示すアーム姿勢データを生成できなかった場合には、
所定個数の前記マーカを抽出できなかった場合、所定の前記マーカを抽出できなかった場合、および、前記アーム姿勢データが所定条件で生成できなかった場合の少なくとも一つを含む、
請求項10記載の作業用ロボットのアーム姿勢制御方法。
If the arm posture data indicating the posture of the arm could not be generated,
Including a case where a predetermined number of the markers could not be extracted, a case where the predetermined markers could not be extracted, and a case where the arm posture data could not be generated under a predetermined condition.
The arm posture control method for a working robot according to claim 10.
JP2017115092A 2017-06-12 2017-06-12 Work robot arm attitude control system and method Active JP6948164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017115092A JP6948164B2 (en) 2017-06-12 2017-06-12 Work robot arm attitude control system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017115092A JP6948164B2 (en) 2017-06-12 2017-06-12 Work robot arm attitude control system and method

Publications (2)

Publication Number Publication Date
JP2019000918A true JP2019000918A (en) 2019-01-10
JP6948164B2 JP6948164B2 (en) 2021-10-13

Family

ID=65005557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017115092A Active JP6948164B2 (en) 2017-06-12 2017-06-12 Work robot arm attitude control system and method

Country Status (1)

Country Link
JP (1) JP6948164B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057694A (en) * 2019-09-27 2021-04-08 国立大学法人 東京大学 Control system of camera
KR20210042644A (en) * 2019-10-10 2021-04-20 한국기술교육대학교 산학협력단 Control system and method for humanoid robot
CN113282221A (en) * 2021-04-22 2021-08-20 贵州电网有限责任公司 Automatic download system of high-efficient distribution network operation data
JP7109699B1 (en) * 2021-07-07 2022-07-29 三菱電機株式会社 remote control system

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63288696A (en) * 1987-05-21 1988-11-25 株式会社安川電機 Robot-operation abnormality monitor system
JPH01264785A (en) * 1988-04-16 1989-10-23 Bridgestone Corp Robot arm
JP2000084876A (en) * 1998-09-17 2000-03-28 Nippon Telegr & Teleph Corp <Ntt> Robot arm visual chase method and system device
JP2009287298A (en) * 2008-05-30 2009-12-10 Meidensha Corp Device for measuring cutting edge position of construction machine
JP2010137312A (en) * 2008-12-10 2010-06-24 Yaskawa Electric Corp Robot system and control method
JP2012011498A (en) * 2010-06-30 2012-01-19 Toshiba Corp System and method for operating robot arm
WO2012081197A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Apparatus, method and program for controlling elastic actuator drive mechanism
JP2014121759A (en) * 2012-12-21 2014-07-03 Kawasaki Heavy Ind Ltd Robot control device and robot control method
US20150168136A1 (en) * 2013-12-12 2015-06-18 The Regents Of The University Of Michigan Estimating three-dimensional position and orientation of articulated machine using one or more image-capturing devices and one or more markers
JP2015160253A (en) * 2014-02-26 2015-09-07 キヤノン株式会社 Trajectory generation method, robot device, program and recording medium
JP2015224875A (en) * 2014-05-26 2015-12-14 Kyb株式会社 Operation state detection system of work machine, and work machine
JP2016221602A (en) * 2015-05-28 2016-12-28 セイコーエプソン株式会社 Robot, control device and program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63288696A (en) * 1987-05-21 1988-11-25 株式会社安川電機 Robot-operation abnormality monitor system
JPH01264785A (en) * 1988-04-16 1989-10-23 Bridgestone Corp Robot arm
JP2000084876A (en) * 1998-09-17 2000-03-28 Nippon Telegr & Teleph Corp <Ntt> Robot arm visual chase method and system device
JP2009287298A (en) * 2008-05-30 2009-12-10 Meidensha Corp Device for measuring cutting edge position of construction machine
JP2010137312A (en) * 2008-12-10 2010-06-24 Yaskawa Electric Corp Robot system and control method
JP2012011498A (en) * 2010-06-30 2012-01-19 Toshiba Corp System and method for operating robot arm
WO2012081197A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Apparatus, method and program for controlling elastic actuator drive mechanism
JP2014121759A (en) * 2012-12-21 2014-07-03 Kawasaki Heavy Ind Ltd Robot control device and robot control method
US20150168136A1 (en) * 2013-12-12 2015-06-18 The Regents Of The University Of Michigan Estimating three-dimensional position and orientation of articulated machine using one or more image-capturing devices and one or more markers
JP2015160253A (en) * 2014-02-26 2015-09-07 キヤノン株式会社 Trajectory generation method, robot device, program and recording medium
JP2015224875A (en) * 2014-05-26 2015-12-14 Kyb株式会社 Operation state detection system of work machine, and work machine
JP2016221602A (en) * 2015-05-28 2016-12-28 セイコーエプソン株式会社 Robot, control device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021057694A (en) * 2019-09-27 2021-04-08 国立大学法人 東京大学 Control system of camera
JP7253740B2 (en) 2019-09-27 2023-04-07 国立大学法人 東京大学 camera control system
KR20210042644A (en) * 2019-10-10 2021-04-20 한국기술교육대학교 산학협력단 Control system and method for humanoid robot
KR102335926B1 (en) * 2019-10-10 2021-12-03 한국기술교육대학교 산학협력단 Control system and method for humanoid robot
CN113282221A (en) * 2021-04-22 2021-08-20 贵州电网有限责任公司 Automatic download system of high-efficient distribution network operation data
JP7109699B1 (en) * 2021-07-07 2022-07-29 三菱電機株式会社 remote control system

Also Published As

Publication number Publication date
JP6948164B2 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JP6948164B2 (en) Work robot arm attitude control system and method
US11565427B2 (en) Robot system
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US11833696B2 (en) Vision-based sensor system and control method for robot arms
TWI408486B (en) Camera with dynamic calibration and method thereof
JP6816070B2 (en) Interference avoidance device and robot system
US20160184995A1 (en) Image Processing Apparatus, Image Processing System, Image Processing Method, And Computer Program
EP3377948A1 (en) Facilitating robot positioning
JP2009193240A (en) Mobile robot and method for generating environment map
WO2015198410A1 (en) Outside recognition device
JP6807280B2 (en) Remote work robot control system and remote work robot control method
JP2009006410A (en) Remote operation support device and remote operation support program
JP2015043488A (en) Remote controller and remote construction method using the same
JP6943988B2 (en) Control methods, equipment and systems for movable objects
JP2016177640A (en) Video monitoring system
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
CN109048846A (en) A kind of smog crusing robot and its control method
JP6328796B2 (en) Manipulator control method, system, and manipulator
JP2010094777A (en) Remote control support device
US20130054028A1 (en) System and method for controlling robot
WO2019020997A2 (en) 3d model generation system and method
US9967525B2 (en) Monitoring camera apparatus with depth information determination
US20240033930A1 (en) Remote control manipulator system and remote control assistance system
WO2021261411A1 (en) Robot teaching method and robot working method
JP3376029B2 (en) Robot remote control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R150 Certificate of patent or registration of utility model

Ref document number: 6948164

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150