JP7264763B2 - calibration device - Google Patents

calibration device Download PDF

Info

Publication number
JP7264763B2
JP7264763B2 JP2019145546A JP2019145546A JP7264763B2 JP 7264763 B2 JP7264763 B2 JP 7264763B2 JP 2019145546 A JP2019145546 A JP 2019145546A JP 2019145546 A JP2019145546 A JP 2019145546A JP 7264763 B2 JP7264763 B2 JP 7264763B2
Authority
JP
Japan
Prior art keywords
robot
sensor
parameter
calibration device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145546A
Other languages
Japanese (ja)
Other versions
JP2021024056A (en
Inventor
誠也 伊藤
亮祐 三木
毅 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019145546A priority Critical patent/JP7264763B2/en
Publication of JP2021024056A publication Critical patent/JP2021024056A/en
Application granted granted Critical
Publication of JP7264763B2 publication Critical patent/JP7264763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットやセンサの位置や姿勢等の状態を示す各種パラメータを、より適切な値に更新する、キャリブレーション装置に関する。 The present invention relates to a calibration device that updates various parameters indicating states such as the position and orientation of robots and sensors to more appropriate values.

従来のキャリブレーション装置としては、特許文献1に記載のものが知られている。この文献の要約書には、「単一のカメラ又はステレオカメラのキャリブレーションに関し、予め画像座標系でキャリブレーション範囲を設定し、任意の範囲でキャリブレーションすることを可能とする」ための解決手段として、「ロボットにターゲットマークを設置すると共に、当該ロボットを動かしてカメラの視野内の複数個所でターゲットマークを検出することで、当該ロボットのロボット座標系とカメラの画像座標系の対応付けを行うキャリブレーション装置であって、カメラの画像座標系における画像範囲を設定する画像範囲設定部と、キャリブレーション実行前に、ロボットを動かしてターゲットマークを検出することで、画像範囲に相当するロボットの動作範囲を計測するキャリブレーション範囲計測部を備える」キャリブレーション装置が開示されている。 As a conventional calibration device, one described in Patent Document 1 is known. In the abstract of this document, there is described a solution for ``setting a calibration range in advance in the image coordinate system for calibration of a single camera or a stereo camera and allowing calibration to be performed within an arbitrary range.'' "A target mark is placed on a robot, and by moving the robot and detecting the target mark at multiple locations within the field of view of the camera, the robot coordinate system of the robot and the image coordinate system of the camera are associated. A calibration device comprising: an image range setting unit for setting an image range in an image coordinate system of a camera; A calibration device is disclosed that includes a calibration range measuring unit that measures a range.

すなわち、特許文献1のキャリブレーション装置では、ロボットのアーム先端を連続的に動かし、アーム先端に取り付けたターゲットマークを複数個所で検出することで、視覚センサ(単眼カメラ、ステレオカメラ)のキャリブレーションを行っている。 That is, in the calibration device of Patent Document 1, the tip of the arm of the robot is continuously moved, and target marks attached to the tip of the arm are detected at a plurality of locations, thereby calibrating the visual sensor (monocular camera, stereo camera). Is going.

特開2018-111166号公報JP 2018-111166 A

しかしながら、特許文献1で用いる多関節ロボットアームでは、各関節の製造誤差や制御誤差等が累積してアーム先端のターゲットマークに現れるため、ターゲットマークの実位置は誤差のない理論上の位置からずれており、ターゲットマークの実位置に基づいて視覚センサをキャリブレーションしても、そのキャリブレーションが適切でない可能性が高かった。 However, in the articulated robot arm used in Patent Document 1, manufacturing errors and control errors of each joint accumulate and appear in the target mark at the tip of the arm, so the actual position of the target mark deviates from the theoretical position without error. Therefore, even if the visual sensor is calibrated based on the actual position of the target mark, there is a high possibility that the calibration is not appropriate.

そこで、本発明では、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新できる、キャリブレーション装置を提供することを目的とする。 Therefore, the present invention aims to provide a calibration device that can update various parameters of the robot and sensors to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot. aim.

上記課題を解決するため、本発明のキャリブレーション装置は、設置位置が既知のターゲットマークを背景として、その手前のロボットを観測するカメラまたはレーザ変位計をセンサとして利用するキャリブレーション装置であって、前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、前記ロボットを制御するロボット制御部と、前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、を具備し、前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成するものとした。 In order to solve the above problems, the calibration device of the present invention is a calibration device that uses a camera or a laser displacement meter as a sensor for observing a robot in front of a target mark whose installation position is known, as a sensor, A sensor data acquisition unit that generates sensor data obtained by measuring the robot and the target mark by the sensor , a robot control unit that controls the robot, and a data storage unit that stores sensor parameters related to the sensors and robot parameters related to the robot. a virtual data generating unit that generates virtual data obtained by measuring the robot and the target mark from the sensor in the virtual space based on the sensor parameter and the robot parameter; and comparing the sensor data and the virtual data. , an environment determination unit that determines the difference between the two; a relative position/orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference; and the sensor parameter or the robot parameter stored in the data storage unit. an updating unit that updates the sensor parameters or the robot parameters searched by the relative position/orientation estimating unit, wherein the data storage unit further stores environment information regarding the positions of the sensor, the robot, and the target mark. The virtual data generation unit observes the robot and the target mark from the sensor in a virtual space in which the sensor, the robot, and the target mark are arranged based on the environment information, thereby generating the virtual data should be generated.

本発明のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新することができる。 According to the calibration apparatus of the present invention, various parameters of the robot and sensors can be updated to more appropriate values without using an unstable reference such as the target mark attached to the tip of the arm of the robot.

実施例1のキャリブレーション装置の機能ブロック図Functional block diagram of the calibration device of the first embodiment 実施例1のロボットとセンサの座標空間表現図Coordinate space representation diagram of the robot and sensor of Example 1 実施例1の仮想データ生成部の処理フローチャートProcessing flowchart of the virtual data generation unit of the first embodiment 仮想撮像データとセンサデータのマッチング処理の説明図Explanatory diagram of matching processing between virtual imaging data and sensor data 撮像環境判定部と相対位置姿勢推定部の処理フローチャートProcessing flowchart of imaging environment determination unit and relative position/orientation estimation unit 姿勢情報を変更した場合のロボットの姿勢変化の一例An example of robot posture change when posture information is changed パラメータ更新と差分のデータ表現Data Representation of Parameter Updates and Differences 実施例2のパラメータ更新の出力画面例Example of output screen for updating parameters in Example 2

以下、図面を用いて、本発明のセンサ位置姿勢キャリブレーション装置の実施例を説明する。 An embodiment of the sensor position/orientation calibration device of the present invention will be described below with reference to the drawings.

図1から図7を用いて、本発明の実施例1に係るキャリブレーション装置1を説明する。 A calibration device 1 according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 7. FIG.

図1は、本実施例のキャリブレーション装置1の機能ブロックを、ロボット2、センサ3、ターゲットマーク4の概略配置と共に示した図である。以下では、ロボット2、センサ3、ターゲットマーク4を概説した後、キャリブレーション装置1の詳細を説明する。 FIG. 1 is a diagram showing functional blocks of a calibration device 1 of this embodiment together with a schematic arrangement of a robot 2, a sensor 3, and a target mark 4. As shown in FIG. Below, the robot 2, the sensor 3, and the target mark 4 will be outlined, and then the details of the calibration device 1 will be explained.

<ロボット2、センサ3、ターゲットマーク4>
ロボット2は、アーム先端のロボットハンドで物体を把持する多関節ロボットアームであり、キャリブレーション装置1が備えるロボット制御部1aからの指令に応じて、各関節の回転角θやロボットハンドの開閉状態等が制御される。本実施例はロボットハンドに限らず、吸着ハンドなどの各種エンドエフェクタにおいても適用可能である。なお、以下では、関節数が三個であるロボット2を例に説明するが、本発明の適用対象は、関節数が三個のロボット2に限定されないことは言うまでもない。
<Robot 2, Sensor 3, Target Mark 4>
The robot 2 is a multi-joint robot arm that grips an object with a robot hand at the tip of the arm. etc. is controlled. This embodiment can be applied not only to robot hands but also to various end effectors such as suction hands. Although the robot 2 having three joints will be described below as an example, it goes without saying that the application of the present invention is not limited to the robot 2 having three joints.

センサ3は、設置位置が既知のターゲットマーク4を背景として、その手前のロボット2を観測するカメラ、レーザ変位計等である。なお、以下では、センサ3がカメラであるものとして説明する。 The sensor 3 is a camera, a laser displacement meter, or the like that observes the robot 2 in front of the target mark 4 whose installation position is known. In the following description, it is assumed that the sensor 3 is a camera.

ターゲットマーク4は、平面上に複数のマークを配置したものである。センサ3とターゲットマーク4の相対位置や相対姿勢が異なる場合、センサ3で観測されるターゲットマーク4の見え方が異なることを利用して、センサ3とターゲットマーク4の相対位置や相対姿勢を検出することができる。なお、ターゲットマーク4上に配置する複数のマークは、個々が同等のものであっても良いし、個々に識別可能なユニークなものであっても良い。 The target mark 4 is formed by arranging a plurality of marks on a plane. When the relative positions and orientations of the sensor 3 and the target mark 4 are different, the relative position and orientation of the sensor 3 and the target mark 4 are detected by utilizing the fact that the appearance of the target mark 4 observed by the sensor 3 is different. can do. It should be noted that the plurality of marks arranged on the target mark 4 may be individually equivalent, or may be unique and individually identifiable.

ここで、図2を用いて、本実施例に関連する座標系を説明する。同図において、Wはワールド座標系であり、ロボット2、センサ3、ターゲットマーク4、または、ロボット2に把持される物体の位置等を特定する際の基準となる座標系である。Rはロボット2の不動点(例えばベース)を原点としたロボット座標系であり、ワールド座標系Wの各軸方向を維持したまま平行移動した座標系である。Sはセンサ3の不動点(例えばカメラの受光素子)を原点としたセンサ座標系であり、センサ3の視線方向をSz軸とし、このSz軸と直交するようにSx軸とSy軸を設定した座標系である。 Here, a coordinate system related to this embodiment will be described with reference to FIG. In the figure, W denotes a world coordinate system, which is a coordinate system that serves as a reference when specifying the position of the robot 2, the sensor 3, the target mark 4, or an object grasped by the robot 2. FIG. R is a robot coordinate system whose origin is a fixed point (for example, base) of the robot 2, and is a coordinate system translated while maintaining each axial direction of the world coordinate system W. FIG. S is a sensor coordinate system whose origin is the fixed point of the sensor 3 (for example, a light receiving element of a camera), the line-of-sight direction of the sensor 3 is the Sz axis, and the Sx axis and the Sy axis are set so as to be orthogonal to the Sz axis. coordinate system.

また、CRSは、センサ座標系S上の座標とロボット座標系R上の座標を相互に座標変換する係数である。この係数CRSを利用することで、センサ3が検出したセンサ座標系S上の物体の位置と形状を、ロボット座標系R上の物体の位置と形状として認識できるので、ロボット制御部1aは、ロボット座標系R上での座標を用いて、ロボット2に所望の物体の把持などを指令することができる。 CRS is a coefficient for coordinate transformation between the coordinates on the sensor coordinate system S and the coordinates on the robot coordinate system R mutually. By using this coefficient CRS , the position and shape of the object on the sensor coordinate system S detected by the sensor 3 can be recognized as the position and shape of the object on the robot coordinate system R. Using coordinates on the robot coordinate system R, the robot 2 can be commanded to grip a desired object.

このような係数CRSを用いて座標変換を行う場合、係数CRSが適切であれば、センサ3の検出結果をロボット2に正確に伝達することができるが、係数CRSが不適切であれば、センサ3の検出結果をロボット2に正確に伝達することができず、例えば、ロボット2が所望の物体を正しく把持できないなどの不具合が生じる恐れがある。 When coordinate transformation is performed using such a coefficient CRS , the detection result of the sensor 3 can be accurately transmitted to the robot 2 if the coefficient CRS is appropriate . In such a case, the detection result of the sensor 3 cannot be accurately transmitted to the robot 2, and there is a possibility that, for example, the robot 2 cannot correctly grip a desired object.

係数CRSの精度は、後述するセンサパラメータPやロボットパラメータPに依拠するため、これらのパラメータを最適化できれば、係数CRSも自ずと最適化される。そこで、本実施例のキャリブレーション装置1では、センサパラメータPやロボットパラメータPを自動的に最適化できるようにすることで、作業者の熟練度に拘わらず係数CRSを容易に最適化できるようにした。 Since the accuracy of the coefficient CRS depends on the sensor parameter PS and the robot parameter PR , which will be described later, if these parameters can be optimized, the coefficient CRS will also be optimized. Therefore, in the calibration device 1 of the present embodiment, the sensor parameter PS and the robot parameter PR can be automatically optimized, so that the coefficient CRS can be easily optimized regardless of the skill level of the operator. made it possible.

<キャリブレーション装置1>
ここで図1に戻り、係数CRSを最適化するために必要な、キャリブレーション装置1の詳細構造を説明する。なお、キャリブレーション装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたパソコン等の計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、図1に示す各機能を実現する。ここに示す各機能の詳細は後述するが、以下では、計算機分野での周知技術は適宜省略する。
<Calibration device 1>
Returning now to FIG. 1, the detailed structure of the calibration device 1 required for optimizing the coefficient CRS will now be described. Note that the calibration device 1 is actually a computer such as a personal computer equipped with hardware such as an arithmetic device such as a CPU, a main storage device such as a semiconductor memory, an auxiliary storage device such as a hard disk, and a communication device. . Each function shown in FIG. 1 is realized by having the arithmetic unit execute the program loaded into the main memory while referring to the database recorded in the auxiliary memory. Although the details of each function shown here will be described later, well-known techniques in the computer field will be omitted as appropriate.

図1に示すように、本実施例のキャリブレーション装置1は、ロボット制御部1a、データ記憶部1b、仮想撮像データ生成部1c、センサデータ取得部1d、撮像環境判定部1e、相対位置姿勢推定部1f、ロボットパラメータ更新部1g、センサパラメータ更新部1hを備えている。 As shown in FIG. 1, the calibration device 1 of this embodiment includes a robot control unit 1a, a data storage unit 1b, a virtual imaging data generation unit 1c, a sensor data acquisition unit 1d, an imaging environment determination unit 1e, a relative position/posture estimation It includes a unit 1f, a robot parameter updating unit 1g, and a sensor parameter updating unit 1h.

ロボット制御部1aは、ロボット2と双方向に通信し、ロボット2の姿勢や挙動を制御する。例えば、ロボット制御部1aは、ロボット2の各関節の回転角θ~θを指定することで、ロボット2の姿勢を制御する。以下では、ロボット制御部1aからロボット2に送信される回転角θ~θの組み合わせを姿勢情報Iと称する。 The robot control unit 1a communicates bidirectionally with the robot 2 and controls the attitude and behavior of the robot 2. FIG. For example, the robot control unit 1a controls the posture of the robot 2 by designating the rotation angles θ 1 to θ 3 of each joint of the robot 2 . A combination of the rotation angles θ 1 to θ 3 transmitted from the robot control unit 1a to the robot 2 is hereinafter referred to as posture information IS .

データ記憶部1bは、後述する仮想データ生成部1cで仮想撮像データDを生成するために用いる、環境情報I、センサパラメータP、ロボットパラメータPを記憶している。なお、環境情報Iは、例えば、ワールド座標系Wにおける、ロボット2、センサ3、ターゲットマーク4の設置位置等の情報である。センサパラメータPは、例えば、センサ3がカメラである場合は、その焦点距離(fx、fy)、歪係数、光軸中心(cu、cv)等の内部パラメータと、センサの世界座標系に対する並進移動(Tx、Ty、Tz)、回転(r11~r33の3x3行列)を示す外部パラメータである。ロボットパラメータPは、例えば、ロボット2の各アームの姿勢(各関節の回転角θ)やロボットハンドの開閉状態のパラメータである。 The data storage unit 1b stores environment information I E , sensor parameters P S , and robot parameters PR , which are used to generate virtual imaging data DV by the virtual data generation unit 1 c, which will be described later. The environment information IE is, for example, information such as the installation positions of the robot 2, the sensor 3, and the target mark 4 in the world coordinate system W. FIG. For example, when the sensor 3 is a camera, the sensor parameters PS are internal parameters such as its focal length (fx, fy), distortion coefficient, optical axis center (cu, cv), and the translation of the sensor with respect to the world coordinate system. External parameters indicating movement (Tx, Ty, Tz) and rotation (3x3 matrix of r11 to r33). The robot parameter P R is, for example, a parameter of the posture of each arm of the robot 2 (rotational angle θ of each joint) and the open/closed state of the robot hand.

仮想撮像データ生成部1cは、データ記憶部1bから取得した環境情報I、センサパラメータP、ロボットパラメータPに基づいて、仮想撮像データDを生成する。ここでの仮想撮像データDの生成処理を、図3のフローチャートを用いて説明する。 The virtual imaging data generation unit 1c generates virtual imaging data DV based on the environment information I E , the sensor parameters P S , and the robot parameters P R obtained from the data storage unit 1b. The processing for generating the virtual image data DV here will be described with reference to the flowchart of FIG.

まず、ステップS31では、仮想撮像データ生成部1cは、データ記憶部1bから環境情報Iを取得し、それに基づいて、仮想空間上にロボット2、センサ3、ターゲットマーク4を配置する。次に、ステップS32では、仮想撮像データ生成部1cは、データ記憶部1bから取得したロボットパラメータPに基づいて、仮想空間上のロボット2に各関節の回転角θやロボットハンドの開閉状態を設定する。次に、ステップS33では、仮想撮像データ生成部1cは、データ記憶部1bから取得したセンサパラメータPに基づいて、仮想空間上のセンサ3(カメラ)に内部パラメータを設定する。これにより、後述する図8の仮想空間データ表示領域5bに例示するような、ロボット2、センサ3、ターゲットマーク4が、仮想空間上に配置されることとなる。 First, in step S31, the virtual imaging data generation unit 1c acquires the environment information IE from the data storage unit 1b, and based on it, arranges the robot 2V , the sensor 3V , and the target mark 4V in the virtual space. . Next, in step S32, the virtual imaging data generation unit 1c provides the robot 2V in the virtual space with the rotation angle θ of each joint and the open/closed state of the robot hand based on the robot parameters PR acquired from the data storage unit 1b. set. Next, in step S33, the virtual imaging data generation unit 1c sets internal parameters for the sensor 3V (camera) in the virtual space based on the sensor parameters P S acquired from the data storage unit 1b. As a result, the robot 2 V , the sensor 3 V , and the target mark 4 V are arranged in the virtual space, as exemplified in the virtual space data display area 5b of FIG. 8, which will be described later.

最後に、ステップS34では、仮想撮像データ生成部1cは、仮想空間上のロボット2とターゲットマーク4を、仮想空間上のセンサ3の視点から撮像したものに相当する仮想撮像データDを生成する。 Finally, in step S34, the virtual image data generating unit 1c creates virtual image data DV corresponding to images of the robot 2V and the target mark 4V in the virtual space taken from the viewpoint of the sensor 3V in the virtual space . to generate

仮想空間上の任意の点(x,y,z)を仮想撮像データDに投影するには、例えば、式1を利用する。なお、式1において、u、vは仮想撮像データD上に仮想的に設定したuv座標系(仮想座標系)における座標である。fx,fyは、カメラの画素あたりの焦点距離であり、カメラの焦点距離をカメラの画素の縦、横の物理的な間隔で割った値である。cu、cvは、カメラの光軸と仮想撮像データDが交差する、仮想座標系における光軸中心の座標である。 To project an arbitrary point (x, y, z) on the virtual space onto the virtual imaging data DV , for example, Equation 1 is used. In Expression 1, u and v are coordinates in a uv coordinate system (virtual coordinate system) virtually set on the virtual image data DV . fx and fy are the focal length per pixel of the camera, and are values obtained by dividing the focal length of the camera by the vertical and horizontal physical intervals of the pixels of the camera. cu and cv are the coordinates of the optical axis center in the virtual coordinate system where the optical axis of the camera and the virtual image data DV intersect.

Figure 0007264763000001
Figure 0007264763000001

センサデータ取得部1dは、実際のロボット2とターゲットマーク4を、実際のセンサ3の視点から観測した出力に基づいて、センサデータDを取得する。本実施例では、センサ3をカメラとしているので、ここで取得されるセンサデータDは画像データである。 The sensor data acquisition unit 1d acquires sensor data DS based on the output of the actual robot 2 and the target mark 4 observed from the viewpoint of the actual sensor 3. FIG. In this embodiment, since the sensor 3 is a camera, the sensor data DS obtained here are image data.

撮像環境判定部1eでは、仮想撮像データ生成部1cが出力する仮想撮像データDと、センサデータ取得部1dが出力するセンサデータDを比較し、撮像環境を判定する。ここでの処理の詳細を、図4と図5を用いて説明する。 The imaging environment determination unit 1e compares the virtual imaging data DV output by the virtual imaging data generation unit 1c and the sensor data DS output by the sensor data acquisition unit 1d to determine the imaging environment. Details of the processing here will be described with reference to FIGS. 4 and 5. FIG.

図4は、仮想撮像データDとセンサデータDのマッチング処理の説明図であり、(a)は、データ記憶部1bに記憶されたパラメータに基づき仮想撮像データ生成部1cで生成された仮想撮像データD、(b)は、センサ3の実際の出力に基づいて生成されたセンサデータD、(c)は、仮想撮像データDとセンサデータDのマッチング処理である。 4A and 4B are explanatory diagrams of the matching processing of the virtual image data DV and the sensor data DS , and FIG. The imaging data D V , (b) is the sensor data D S generated based on the actual output of the sensor 3, and (c) is the matching processing of the virtual imaging data D V and the sensor data D S .

仮想撮像データDとセンサデータDが大きく相違していることから明らかなように、図4は、データ記憶部1bに記憶されたパラメータが実態と乖離しており、その修正が必要な状況に相当するものである。 As is clear from the large difference between the virtual imaging data DV and the sensor data DS , FIG. is equivalent to

パラメータを最適化するには、センサデータDと一致する仮想撮像データDを生成できるパラメータを選択すればよい。具体的には、(c)マッチング処理に示すように、仮想撮像データDをセンサデータDと一致させるのに必要な回転処理と移動処理を施すと同等のパラメータ調整を行えば良い。 Parameters can be optimized by choosing parameters that can produce virtual imaging data DV that match the sensor data DS . Specifically, as shown in (c) matching processing, parameter adjustment equivalent to rotation processing and movement processing required to match the virtual image data DV with the sensor data DS may be performed.

図5は、撮像環境判定部1eで実行される撮像環境判定処理の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of imaging environment determination processing executed by the imaging environment determination unit 1e.

まず、ステップS51では、撮像環境判定部1eは、センサデータDと仮想撮像データDを取得する。次に、ステップS52では、撮像環境判定部1eは、両データに含まれるターゲットマーク4の基準マーカ位置を計測し、ステップS53では、撮像環境判定部1eは、両データ間の対応点をマッチングする。 First, in step S51, the imaging environment determination unit 1e acquires the sensor data DS and the virtual imaging data DV . Next, in step S52, the imaging environment determination unit 1e measures the reference marker position of the target mark 4 included in both data, and in step S53, the imaging environment determination unit 1e matches corresponding points between both data. .

以上のステップS51からS53の処理により、撮像環境判定部1eは、仮想撮像データDをセンサデータDと一致させるのに必要な回転量と移動量を演算できるので、ステップS54では、撮像環境判定部1eは、これらの回転量または移動量が所定の閾値以上であるかを判定する。そして、パラメータのキャリブレーションに必要な回転量と移動量が閾値未満のときは、撮像環境判定部1eは、現在記憶されているパラメータは実態に則した有効なものと判断し、データ記憶部1bのパラメータを更新せずに本フローチャートの処理を終了する。 By the processing of steps S51 to S53 described above, the imaging environment determination unit 1e can calculate the amount of rotation and the amount of movement necessary to match the virtual imaging data DV with the sensor data DS . The determination unit 1e determines whether the amount of rotation or the amount of movement is equal to or greater than a predetermined threshold. Then, when the amount of rotation and the amount of movement required for parameter calibration are less than the threshold values, the imaging environment determination unit 1e determines that the currently stored parameters are effective in accordance with the actual situation, and the data storage unit 1b. The processing of this flow chart ends without updating the parameters of .

一方、仮想撮像データDをセンサデータDと一致させるのに必要な回転量または移動量が閾値以上のときは、撮像環境判定部1eは、データ記憶部1bに現在記憶されているパラメータが実態に則しておらず修正が必要と判断し、パラメータ修正のための相対位置姿勢推定処理に移行する。 On the other hand, when the amount of rotation or the amount of movement required to match the virtual imaging data DV with the sensor data DS is equal to or greater than the threshold, the imaging environment determination unit 1e determines that the parameters currently stored in the data storage unit 1b are It is determined that it does not conform to the actual situation and correction is necessary, and shifts to relative position/orientation estimation processing for parameter correction.

相対位置姿勢推定処理に移行すると、まず、ステップS55では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのターゲットマーク4の差異を最小化するセンサパラメータPを探索する。例えば、センサパラメータPが、PS1、PS2、PS3、PS4の四種類であれば、センサパラメータPS1から順に、ターゲットマーク4の差異を最小化する最適値を求めていく。次に、ステップS56では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのロボット2の差異を最小化するロボットパラメータPを探索する。例えば、ロボットパラメータPが、PR1、PR2、PR3、PR4の四種類であれば、ロボットパラメータPR1から順に、ロボット2の差異を最小化する最適値を求めていく。 When shifting to the relative position/orientation estimation processing, first, in step S55, the relative position/orientation estimation unit 1f searches for the sensor parameter PS that minimizes the difference between the virtual image data DV and the sensor data DS between the target marks 4. . For example, if there are four types of sensor parameters P S , P S1 , P S2 , P S3 and P S4 , optimum values for minimizing the difference between the target marks 4 are obtained in order from the sensor parameters P S1 . Next, in step S56, the relative position/orientation estimation unit 1f searches for robot parameters PR that minimize the difference of the robot 2 between the virtual image data DV and the sensor data DS . For example, if there are four types of robot parameters P R , P R1 , P R2 , P R3 , and P R4 , optimum values for minimizing the difference of the robot 2 are obtained in order from the robot parameters P R1 .

そして、ステップS57では、ロボットパラメータ更新部1gまたはセンサパラメータ更新部1hは、データ記憶部1bに記憶された各パラメータを、ステップS55、ステップS56で求めた各パラメータの最適値に更新する。なお、図5では、センサパラメータPの最適値探索の後に、ロボットパラメータPの最適値探索を行ったが、仮想撮像データDとセンサデータDを比較した場合のロボット2側の差異がターゲットマーク4側の差異よりも大きかった場合は、ロボットパラメータPの最適値を探索した後に、センサパラメータPの最適値を探索しても良い。 Then, in step S57, the robot parameter updating unit 1g or the sensor parameter updating unit 1h updates each parameter stored in the data storage unit 1b to the optimum value of each parameter obtained in steps S55 and S56. In FIG. 5, the search for the optimum value of the robot parameter P R was performed after the search for the optimum value of the sensor parameter P S . is larger than the difference on the target mark 4 side, the optimum value of the sensor parameter PS may be searched after searching for the optimum value of the robot parameter PR .

次に、図6と図7を用いて、ロボット2の姿勢精度の評価方法を説明する。 Next, a method for evaluating the posture accuracy of the robot 2 will be described with reference to FIGS. 6 and 7. FIG.

ロボット2の姿勢精度を評価する場合、まず、ロボット制御部1aは、任意の姿勢情報I(θ、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(a)に示す姿勢となるので、姿勢情報Iに対応する誤差量dを測定し記録する。 When evaluating the posture accuracy of the robot 2, first, the robot control unit 1a transmits arbitrary posture information I S1 , θ 2 , θ 3 ) to the robot 2 . At this time, the robot 2 assumes the posture shown in FIG. 6A, so the error amount d corresponding to the posture information IS is measured and recorded.

次に、ロボット制御部1aは、姿勢情報Iの回転角θだけを回転角θ’に変更した、姿勢情報I’(θ’、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(b)に示す姿勢となるので、姿勢情報I’に対応する誤差量d’を測定し記録する。 Next, the robot control unit 1a transmits to the robot 2 posture information I S '(θ 1 ', θ 2 , θ 3 ) in which only the rotation angle θ 1 of the posture information I S is changed to the rotation angle θ 1 '. do. At this time, the robot 2 assumes the posture shown in FIG. 6B, so the error amount d' corresponding to the posture information I S ' is measured and recorded.

そして、誤差量dと誤差量d’が相違し、かつ、誤差量d’が大きい場合は、回転角度θ1に対応する関節の姿勢精度が悪いか、その関節より先端側のリンクの精度が悪いと判定することができる。
Then, when the error amount d and the error amount d' are different and the error amount d' is large, the posture accuracy of the joint corresponding to the rotation angle θ1 is poor, or the accuracy of the link on the tip side of the joint is poor. can be determined.

以上のような姿勢精度の評価作業を多数の姿勢情報Iに対して実行することで、図7に例示するような、姿勢情報Iと誤差量dの対応表を作成することができる。そして、ここに示す姿勢情報Iと誤差量dの関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量dを増加または減少させる姿勢情報Iの要素、または姿勢情報Iの要素の組み合わせを求めることができるため、それを最適なロボットパラメータPと特定することができる。 By executing the posture accuracy evaluation work as described above for a large number of posture information IS , it is possible to create a correspondence table between the posture information IS and the amount of error d as shown in FIG. Then, from the relationship between the attitude information I S and the error amount d shown here, an element of the attitude information I S that increases or decreases the error amount d by a general analysis method such as multiple regression analysis or logistic regression analysis, or the attitude information I Since we can find a combination of the elements of S , we can identify it as the optimal robot parameter P R .

そして、図5や図7に基づいて修正されたセンサパラメータPとロボットパラメータPに基づいて係数CRSを演算し、この係数CRSを用いてセンサ座標系S・ロボット座標系Rの座標変換を実施することで、ロボット2の近傍の物体の位置や形状を正しく認識できるため、ロボット2はその物体を適切に把持できるようになる。 Then, the coefficient CRS is calculated based on the sensor parameter PS and the robot parameter PR corrected based on FIGS. By performing transformation, the position and shape of an object in the vicinity of the robot 2 can be correctly recognized, so that the robot 2 can appropriately grip the object.

以上で説明したように、本実施例のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットの状態を規定するロボットパラメータPや、センサの状態を規定するセンサパラメータPをより適切な値にキャリブレーションすることをできる。そして、それらのパラメータを用いることで、ロボットの制御がより正確になり、例えば、ロボットハンドで物体をより正確に把持できるようになる。 As described above, according to the calibration apparatus of the present embodiment, the robot parameters P R that define the state of the robot and the , the sensor parameter PS defining the state of the sensor can be calibrated to a more appropriate value. By using those parameters, the control of the robot becomes more accurate, and for example, an object can be more accurately grasped by the robot hand.

次に、図8を用いて、本発明の実施例2に係るキャリブレーション装置1を説明する。なお、実施例1との共通点は重複説明を省略する。 Next, with reference to FIG. 8, a calibration device 1 according to a second embodiment of the invention will be described. Duplicate descriptions of common points with the first embodiment will be omitted.

実施例1では、キャリブレーション装置1がセンサパラメータPとロボットパラメータPを自動的に更新したが、本実施例では、相対位置姿勢推定部1fでの処理に作業者が関与できるようにした。 In the first embodiment, the calibration device 1 automatically updates the sensor parameters PS and the robot parameters PR , but in the present embodiment, the operator is allowed to participate in the processing in the relative position/orientation estimation unit 1f. .

図8は、キャリブレーション装置1と接続した表示装置に表示される、キャリブレーションツールのアプリケーションソフトの表示画面5の一例である。 FIG. 8 is an example of the display screen 5 of the calibration tool application software displayed on the display device connected to the calibration device 1 .

ここに示すように、表示画面5には、撮像データ表示領域5a、仮想空間データ表示領域5b、センサパラメータ設定領域5c、ロボットパラメータ設定領域5d、決定ボタン5e、および、ポインタ5fが表示されている。 As shown here, the display screen 5 displays an imaging data display area 5a, a virtual space data display area 5b, a sensor parameter setting area 5c, a robot parameter setting area 5d, an enter button 5e, and a pointer 5f. .

撮像データ表示領域5aには、センサ3が実際に取得したセンサデータDと、現在のセンサパラメータP、ロボットパラメータPを利用して仮想撮像データ生成部1cで生成した仮想撮像データDが並べて表示されている。なお、両者が相違すれば、現在のセンサパラメータPまたはロボットパラメータPが不適切であり、両者が一致すれば、現在のセンサパラメータPとロボットパラメータPが適切であることは実施例1と同様である。 In the imaging data display area 5a, the sensor data D S actually acquired by the sensor 3 and the virtual imaging data D V generated by the virtual imaging data generation unit 1c using the current sensor parameters P S and robot parameters P R are displayed. are displayed side by side. Note that if the two are different, the current sensor parameter PS or robot parameter PR is inappropriate, and if they match, the current sensor parameter PS and robot parameter PR are appropriate. Same as 1.

仮想空間データ表示領域5bには、仮想空間上における、ロボット2、センサ3、ターゲットマーク4の配置が表示されおり、センサパラメータ設定領域5c、ロボットパラメータ設定領域5dに表示されている各種パラメータを調整することで、撮像データ表示領域5aに表示される仮想撮像データDと、仮想空間データ表示領域5bに表示されるロボット2の状態が変化する。 The virtual space data display area 5b displays the arrangement of the robot 2V , the sensor 3V , and the target mark 4V in the virtual space. By adjusting the parameters, the state of the virtual imaged data DV displayed in the imaged data display area 5a and the state of the robot 2V displayed in the virtual space data display area 5b are changed.

このような表示画面5にて、作業者が、ポインタ5fを操作して、センサパラメータ設定領域5cやロボットパラメータ設定領域5dの各パラメータを適切に設定すると、センサデータDと仮想撮像データDが略一致する。このとき、作業者が決定ボタン5eを押すと、ロボットパラメータ更新部1gとセンサパラメータ更新部1hは、表示中の各パラメータ値に基づいて、データ記憶部1bに記憶された各パラメータを更新する。 When the operator operates the pointer 5f on the display screen 5 to appropriately set each parameter in the sensor parameter setting area 5c and the robot parameter setting area 5d, the sensor data DS and the virtual imaging data DV are displayed. approximately match. At this time, when the operator presses the decision button 5e, the robot parameter updating section 1g and the sensor parameter updating section 1h update each parameter stored in the data storage section 1b based on each parameter value being displayed.

以上で説明した実施例2の構成によれば、実施例1と同等の効果を得ることができるだけでなく、作業者は何れのパラメータに問題があったのかを直感的な操作により容易に把握することができる。 According to the configuration of the second embodiment described above, not only can an effect equivalent to that of the first embodiment be obtained, but the operator can easily grasp which parameter has a problem by an intuitive operation. be able to.

1…キャリブレーション装置、
1a…ロボット制御部、
1b…データ記憶部、
1c…仮想撮像データ生成部、
1d…センサデータ取得部、
1e…撮像環境判定部、
1f…相対位置姿勢推定部、
1g…ロボットパラメータ更新部、
1h…センサパラメータ更新部、
2、2…ロボット、
3、3…センサ、
4、4…ターゲットマーク、
5…表示画面、
5a…撮像データ表示領域5a、
5b…仮想空間データ表示領域
5c…センサパラメータ設定領域
5d…ロボットパラメータ設定領域
5e…決定ボタン
5f…ポインタ
1 ... calibration device,
1a ... robot control unit,
1b ... data storage unit,
1c ... virtual imaging data generation unit,
1d ... sensor data acquisition unit,
1e ... imaging environment determination unit,
1f: relative position/orientation estimator,
1g ... robot parameter update unit,
1h ... sensor parameter update unit,
2, 2 V ... Robot,
3, 3 V ... sensor,
4, 4 V ... target mark,
5 ... display screen,
5a... Imaging data display area 5a,
5b... Virtual space data display area 5c... Sensor parameter setting area 5d... Robot parameter setting area 5e... Decision button 5f... Pointer

Claims (5)

設置位置が既知のターゲットマークを背景として、その手前のロボットを観測するカメラまたはレーザ変位計をセンサとして利用するキャリブレーション装置であって、
前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、
前記ロボットを制御するロボット制御部と、
前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、
前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、
前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、
前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、
前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、
を具備し、
前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、
前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成することを特徴とするキャリブレーション装置。
A calibration device that uses a camera or a laser displacement meter as a sensor for observing a robot in front of a target mark whose installation position is known,
a sensor data acquisition unit that generates sensor data obtained by measuring the robot and the target mark with the sensor;
a robot control unit that controls the robot;
a data storage unit storing sensor parameters related to the sensor and robot parameters related to the robot;
a virtual data generation unit that generates virtual data obtained by measuring the robot and the target mark from the sensor in the virtual space based on the sensor parameter and the robot parameter;
an environment determination unit that compares the sensor data and the virtual data and determines a difference between the two;
a relative position and orientation estimator that searches for the sensor parameter or the robot parameter that reduces the difference;
an updating unit that updates the sensor parameters or the robot parameters stored in the data storage unit to the sensor parameters or the robot parameters searched by the relative position/orientation estimating unit;
and
the data storage unit further stores environmental information regarding the positions of the sensor, the robot, and the target mark;
The virtual data generation unit generates the virtual data by observing the robot and the target mark from the sensor in a virtual space in which the sensor, the robot, and the target mark are arranged based on the environment information. A calibration device characterized by:
請求項1に記載のキャリブレーション装置において、
前記環境判定部は、前記仮想データを前記センサデータと一致させるのに必要な回転量または移動量を求め、
前記相対位置姿勢推定部は、前記回転量または前記移動量が閾値以上の場合に、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索し、前記回転量または前記移動量が前記閾値未満の場合には、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索しないことを特徴とするキャリブレーション装置。
In the calibration device according to claim 1,
The environment determination unit obtains an amount of rotation or an amount of movement necessary to match the virtual data with the sensor data,
The relative position/orientation estimating unit searches for the sensor parameter or the robot parameter that reduces the difference when the amount of rotation or the amount of movement is equal to or greater than a threshold, case, the calibration device does not search for the sensor parameter or the robot parameter that reduces the difference.
請求項1または請求項2に記載のキャリブレーション装置において、
前記ロボットは、多関節ロボットアームであり、
前記ロボットパラメータは、前記多関節ロボットアームの各関節の回転角、または、ロボットに装着されたエンドエフェクタの動作状態であることを特徴とするキャリブレーション装置。
In the calibration device according to claim 1 or claim 2,
The robot is an articulated robot arm,
The calibration device, wherein the robot parameter is a rotation angle of each joint of the multi-joint robot arm or an operating state of an end effector attached to the robot.
請求項1または請求項2に記載のキャリブレーション装置において、
前記センサカメラであ
前記センサパラメータは、前記カメラの、位置姿勢、焦点距離、歪係数、または、光軸中心であることを特徴とするキャリブレーション装置。
In the calibration device according to claim 1 or claim 2,
the sensor is a camera;
The calibration device, wherein the sensor parameter is the position and orientation, focal length, distortion coefficient, or optical axis center of the camera.
請求項1に記載のキャリブレーション装置において、
前記相対位置姿勢推定部での探索には、作業者が入力した前記センサパラメータまたは前記ロボットパラメータを用いることを特徴とするキャリブレーション装置。
In the calibration device according to claim 1,
A calibration device, wherein the sensor parameters or the robot parameters input by a worker are used for searching by the relative position/orientation estimating unit.
JP2019145546A 2019-08-07 2019-08-07 calibration device Active JP7264763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Publications (2)

Publication Number Publication Date
JP2021024056A JP2021024056A (en) 2021-02-22
JP7264763B2 true JP7264763B2 (en) 2023-04-25

Family

ID=74664274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145546A Active JP7264763B2 (en) 2019-08-07 2019-08-07 calibration device

Country Status (1)

Country Link
JP (1) JP7264763B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (en) 2012-03-15 2013-09-26 Omron Corp Simulator, simulation method, and simulation program
JP2014014912A (en) 2012-07-11 2014-01-30 Seiko Epson Corp Robot system, robot, robot control device, robot control method and robot control program
JP2015136770A (en) 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
JP2017094406A (en) 2015-11-18 2017-06-01 オムロン株式会社 Simulation device, simulation method, and simulation program
JP2018144160A (en) 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (en) 2012-03-15 2013-09-26 Omron Corp Simulator, simulation method, and simulation program
JP2014014912A (en) 2012-07-11 2014-01-30 Seiko Epson Corp Robot system, robot, robot control device, robot control method and robot control program
JP2015136770A (en) 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
JP2017094406A (en) 2015-11-18 2017-06-01 オムロン株式会社 Simulation device, simulation method, and simulation program
JP2018144160A (en) 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device

Also Published As

Publication number Publication date
JP2021024056A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP4267005B2 (en) Measuring apparatus and calibration method
JP7237483B2 (en) Robot system control method, control program, recording medium, control device, robot system, article manufacturing method
JP4298757B2 (en) Robot mechanism calibration apparatus and method
US9889565B2 (en) Method for calibrating a robot and a robot system
JP6235664B2 (en) Measuring device used to calibrate mechanism parameters of robot
KR102271941B1 (en) Automated machining head with vision and procedure
JP6489776B2 (en) Coordinate system calibration method, robot system, program, and recording medium
JP5371927B2 (en) Coordinate system calibration method and robot system
EP2993002A1 (en) Robot apparatus and method for controlling robot apparatus
US20080013825A1 (en) Simulation device of robot system
CN111278608B (en) Calibration article for 3D vision robot system
JP2015147280A (en) robot calibration method
KR20080088165A (en) Robot calibration method
JP2012240174A (en) Calibration device and calibration method
JPH0885083A (en) Method for deriving and calibrating tool parameter of robot
JPH0538688A (en) Coordinate system calibrating method for industrial robot system
JP7264763B2 (en) calibration device
WO2021210456A1 (en) Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
TW202235239A (en) Device for adjusting parameter, robot system, method, and computer program
JPH06278064A (en) Method for converting coordinate of visual sensor
KR102262235B1 (en) Method for calibrating real robot operation program made by off line programming
Van Wyk et al. Efficiently Improving and Quantifying Robot Accuracy In Situ
RU2761924C1 (en) Manipulator control method
JPH08141950A (en) Calibration method of articulated robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7264763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150