JP2021012203A - Parallelism determination method of camera - Google Patents

Parallelism determination method of camera Download PDF

Info

Publication number
JP2021012203A
JP2021012203A JP2020160845A JP2020160845A JP2021012203A JP 2021012203 A JP2021012203 A JP 2021012203A JP 2020160845 A JP2020160845 A JP 2020160845A JP 2020160845 A JP2020160845 A JP 2020160845A JP 2021012203 A JP2021012203 A JP 2021012203A
Authority
JP
Japan
Prior art keywords
parallelism
articulated robot
robot
camera
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020160845A
Other languages
Japanese (ja)
Other versions
JP6965422B2 (en
Inventor
崇 種池
Takashi Taneike
崇 種池
信夫 大石
Nobuo Oishi
信夫 大石
雅登 鈴木
Masato Suzuki
雅登 鈴木
識 西山
Satoru Nishiyama
識 西山
慎也 三浦
Shinya Miura
慎也 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Corp
Original Assignee
Fuji Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019506828A external-priority patent/JP6807450B2/en
Application filed by Fuji Corp filed Critical Fuji Corp
Priority to JP2020160845A priority Critical patent/JP6965422B2/en
Publication of JP2021012203A publication Critical patent/JP2021012203A/en
Application granted granted Critical
Publication of JP6965422B2 publication Critical patent/JP6965422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To more easily determine parallelism for a reference surface of a multi-joint robot.SOLUTION: A parallelism determination method of a multi-joint robot determines parallelism for a reference surface of a multi-joint robot 20 and comprises: arranging a plate P that has a design of a predetermined pattern on a working table 11 of the multi-joint robot; imaging a plate by means of a camera 24 mounted on an arm of the multi-joint robot; measuring a gap of the design which is recognized in an imaged image of the plate at a plurality of places; and determining the parallelism on the basis of contrast of each measured gap.SELECTED DRAWING: Figure 5

Description

本明細書は、多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置について開示する。 The present specification discloses a method for determining parallelism of an articulated robot and an inclination adjusting device for the articulated robot.

従来より、ワークの基準面に対する平行度を判定するものが知られている。例えば、特許文献1には、位置合わせプレート(磁気プレート)上に位置決めされたウエハを、ロボットアームに装着されたカメラで撮影し、ウエハの撮影画像に基づいて磁気プレートに対するウエハの平行度を算出する制御装置を備えるものが開示されている。平行度の算出は、具体的には、制御装置により以下のようにして行なわれる。即ち、制御装置は、カメラによりウエハに付された2つのアライメントマークを撮像する。続いて、制御装置は、各アライメントマークの撮像画像に基づいて各アライメントマークにおける焦点のずれを算出し、焦点のずれから磁気プレートに対するウエハの平行度を算出する。そして、制御装置は、算出したウエハの平行度に基づいて磁気プレートに対してウエハが平行となるようにロボットアームの各関節部のアクチュエータを制御してウエハを傾斜させる。 Conventionally, those for determining the parallelism of a work with respect to a reference plane have been known. For example, in Patent Document 1, a wafer positioned on an alignment plate (magnetic plate) is photographed by a camera mounted on a robot arm, and the parallelism of the wafer with respect to the magnetic plate is calculated based on the photographed image of the wafer. Those provided with a control device are disclosed. Specifically, the parallelism is calculated by the control device as follows. That is, the control device images the two alignment marks attached to the wafer by the camera. Subsequently, the control device calculates the defocus at each alignment mark based on the captured image of each alignment mark, and calculates the parallelism of the wafer with respect to the magnetic plate from the defocus. Then, the control device controls the actuators of each joint of the robot arm so that the wafer is parallel to the magnetic plate based on the calculated parallelism of the wafer, and tilts the wafer.

特開2014−53343号公報Japanese Unexamined Patent Publication No. 2014-53343

特許文献1記載の手法は、マークの撮像画像から焦点のずれを検出するものであるが、専用の検出装置が必要となったり、十分な検出精度を確保するために処理が複雑となったりする問題が生じる。こうした問題は、多関節ロボットの基準面に対する平行度を判定する場合にも同様に生じうる。 The method described in Patent Document 1 detects the defocus from the captured image of the mark, but it requires a dedicated detection device or the processing becomes complicated in order to secure sufficient detection accuracy. Problems arise. These problems can also occur when determining the parallelism of an articulated robot with respect to a reference plane.

本開示は、より簡単に多関節ロボットの基準面に対する平行度を判定することを主目的とする。 An object of the present disclosure is to more easily determine the parallelism of an articulated robot with respect to a reference plane.

本開示は、上述の主目的を達成するために以下の手段を採った。 The present disclosure has taken the following steps to achieve the above-mentioned main objectives.

本開示は、多関節ロボットの基準面に対する平行度を判定する多関節ロボットの平行度判定方法であって、前記多関節ロボットの作業台に所定パターンの模様を有するプレートを配置し、前記多関節ロボットのアームに装着されたカメラにより前記プレートを撮像し、前記プレートの撮像画像中に認識される模様の間隔を複数箇所で測定し、該測定した各間隔の対比に基づいて前記平行度を判定することを要旨とする。 The present disclosure is a method for determining parallelism of an articulated robot that determines parallelism with respect to a reference plane of the articulated robot. A plate having a predetermined pattern is placed on a work table of the articulated robot, and the articulated robot is articulated. The plate is imaged by a camera mounted on the arm of the robot, the intervals of patterns recognized in the captured image of the plates are measured at a plurality of points, and the parallelism is determined based on the comparison of the measured intervals. The gist is to do.

プレートが有する模様の撮像画像は、カメラ(アーム)とプレートとが相対的に傾いていると、模様が実際よりも大きく写る領域と模様が実際よりも小さく写る領域とが生じる。そして、カメラとプレートとが大きく傾いているほど、各領域で写った模様の大小の差が大きくなる。本開示の多関節ロボットの平行度判定方法は、撮像画像中の模様の間隔を複数箇所で測定し、測定した複数の間隔を対比することにより平行度を判定するため、より簡単に多関節ロボットの基準面に対する平行度を判定することができる。 In the captured image of the pattern held by the plate, when the camera (arm) and the plate are relatively tilted, there are areas where the pattern appears larger than the actual pattern and areas where the pattern appears smaller than the actual pattern. The greater the tilt between the camera and the plate, the greater the difference in the size of the patterns captured in each area. The parallelism determination method of the articulated robot of the present disclosure measures the intervals of patterns in a captured image at a plurality of points and determines the parallelism by comparing the measured intervals, so that the articulated robot can be more easily determined. The parallelism with respect to the reference plane can be determined.

ロボット20の構成の概略を示す構成図である。It is a block diagram which shows the outline of the structure of the robot 20. ロボット20の可動域を示す説明図である。It is explanatory drawing which shows the range of motion of a robot 20. ロボット20の可動域を示す説明図である。It is explanatory drawing which shows the range of motion of a robot 20. ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。It is a block diagram which shows the electrical connection relationship of a robot 20, a robot control device 70, and an image processing device 80. 傾き調整工程の一例を示す説明図である。It is explanatory drawing which shows an example of the inclination adjustment process. ジグプレートPの撮像の様子を示す説明図である。It is explanatory drawing which shows the state of the imaging of the jig plate P. ジグプレートPの上面模様を示す説明図である。It is explanatory drawing which shows the upper surface pattern of a jig plate P. ジグプレートPの上面模様を示す説明図である。It is explanatory drawing which shows the upper surface pattern of a jig plate P. カメラ24がジグプレートPに対して平行な場合のジグプレートPの撮像の様子を示す説明図である。It is explanatory drawing which shows the state of the imaging of the jig plate P when the camera 24 is parallel to the jig plate P. 図7Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。It is explanatory drawing which shows the captured image of the jig plate P image | photographed from the position of FIG. 7A. カメラ24がジグプレートPに対して平行でない場合のジグプレートPの撮像の様子を示す説明図である。It is explanatory drawing which shows the state of the imaging of the jig plate P when the camera 24 is not parallel to the jig plate P. 図8Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。It is explanatory drawing which shows the captured image of the jig plate P image | photographed from the position of FIG. 8A. イメージセンサのサイズHと焦点距離Fと視野FOVとワーキングディスタンスWDとを示す説明図である。It is explanatory drawing which shows the size H, the focal length F, the field of view FOV, and the working distance WD of an image sensor. ワーキングディスタンスWDと分解能RESとの関係を示す説明図である。It is explanatory drawing which shows the relationship between working distance WD and resolution RES. カメラ24が対象物に対して所定角θ傾いている場合の視野の左端(A端)におけるワーキングディスタンスWD1と視野の右端(B端)におけるワーキングディスタンスWD2とを示す説明図である。It is explanatory drawing which shows the working distance WD1 at the left end (A end) of the field of view, and the working distance WD2 at the right end (B end) of a field of view when the camera 24 is tilted by a predetermined angle θ with respect to an object. A端のドット中心間距離La1,La2およびB端のドット中心間距離Lb1,Lb2とを示す説明図である。It is explanatory drawing which shows the dot center distance La1, La2 of A end and the dot center distance Lb1, Lb2 of B end.

次に、本開示の発明を実施するための形態について図面を参照しながら説明する。 Next, a mode for carrying out the invention of the present disclosure will be described with reference to the drawings.

図1は、ロボット20の構成の概略を示す構成図である。図2A,図2Bは、ロボット20の可動域を示す説明図である。図3は、ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。 FIG. 1 is a configuration diagram showing an outline of the configuration of the robot 20. 2A and 2B are explanatory views showing the range of motion of the robot 20. FIG. 3 is a block diagram showing an electrical connection relationship between the robot 20, the robot control device 70, and the image processing device 80.

ロボット20は、ロボット制御装置70(図3参照)による制御を受けて、ワーク搬送装置12(図3参照)により搬送されるワーク(作業対象物)に対して所定の作業を行なうものである。なお、所定の作業としては、ワークをピックアップするピックアップ作業や、ワークを所定位置にプレースするプレース作業、ワークを所定位置に組み付ける組み付け作業などを挙げることができる。 The robot 20 is controlled by the robot control device 70 (see FIG. 3) to perform a predetermined work on a work (work object) transported by the work transfer device 12 (see FIG. 3). In addition, as a predetermined work, a pick-up work for picking up a work, a place work for placing a work at a predetermined position, an assembling work for assembling the work at a predetermined position, and the like can be mentioned.

ロボット20は、図1に示すように、5軸の垂直多関節アーム(以下、アームという)22を備える。アーム22は、6つのリンク(第1〜第6リンク31〜36)と、各リンクを回転または旋回可能に連結する5つの関節(第1〜第5関節41〜45)とを有する。各関節(第1〜第5関節41〜45)には、対応する関節を駆動するモータ(サーボモータ)51〜55と、対応するモータの回転位置を検出するエンコーダ(ロータリエンコーダ)61〜65とが設けられている。 As shown in FIG. 1, the robot 20 includes a 5-axis vertical articulated arm (hereinafter referred to as an arm) 22. The arm 22 has six links (first to sixth links 31 to 36) and five joints (first to fifth joints 41 to 45) that rotatably or swivelly connect each link. Each joint (1st to 5th joints 41 to 45) includes a motor (servo motor) 51 to 55 for driving the corresponding joint and an encoder (rotary encoder) 61 to 65 for detecting the rotation position of the corresponding motor. Is provided.

アーム22の先端リンク(第6リンク36)には、エンドエフェクタとしての作業ツールが着脱可能となっている。なお、作業ツールとしては、電磁チャックやメカニカルチャック、吸着ノズルなどを挙げることができる。先端リンクに装着するツールは、作業対象のワークの形状や素材に合わせて適宜選択される。 A work tool as an end effector can be attached to and detached from the tip link (sixth link 36) of the arm 22. Examples of the work tool include an electromagnetic chuck, a mechanical chuck, and a suction nozzle. The tool to be attached to the tip link is appropriately selected according to the shape and material of the work to be worked.

また、アーム22の先端部(第5リンク35)には、カメラ24が取り付けられている。カメラ24は、ワークの位置および姿勢を認識するために当該ワークを撮像するためのものである。 A camera 24 is attached to the tip of the arm 22 (fifth link 35). The camera 24 is for taking an image of the work in order to recognize the position and orientation of the work.

こうして構成された本実施形態のアーム22は、図2Aに示すように、ロボット20を正面から見て前(手前)後(奥)の方向をX軸とし、ロボット20の上下方向(第1関節41の回転軸の延在方向)をZ軸とし、X軸およびZ軸に直交する方向をY軸とする三次元空間内の移動と、Z軸周りの回転方向(RC)の移動とが可能である。更に、アーム22は、図2Bに示すように、Y軸周りの回転方向(RB)の移動が可能である。 As shown in FIG. 2A, the arm 22 of the present embodiment configured in this way has the X-axis in the front (front) and rear (back) directions when the robot 20 is viewed from the front, and the vertical direction (first joint) of the robot 20. It is possible to move in a three-dimensional space with the Z axis as the extension direction of the rotation axis of 41) and the Y axis as the direction orthogonal to the X axis and the Z axis, and to move in the rotation direction (RC) around the Z axis. Is. Further, as shown in FIG. 2B, the arm 22 can move in the rotation direction (RB) around the Y axis.

ロボット制御装置70は、図3に示すように、CPU71を中心としたマイクロプロセッサとして構成され、CPU71の他に、ROM72やHDD73、RAM74、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。なお、HDD73は、ロボット20の動作プログラムなどを記憶している。ロボット制御装置70には、エンコーダ61〜65などからの検知信号が入力される。また、ロボット制御装置70からは、モータ51〜55やワーク搬送装置12などへの制御信号が出力される。 As shown in FIG. 3, the robot control device 70 is configured as a microprocessor centered on a CPU 71, and includes a ROM 72, an HDD 73, a RAM 74, an input / output interface (not shown), a communication interface (not shown), and the like in addition to the CPU 71. The HDD 73 stores an operation program of the robot 20 and the like. Detection signals from encoders 61 to 65 and the like are input to the robot control device 70. Further, the robot control device 70 outputs control signals to the motors 51 to 55, the work transfer device 12, and the like.

ロボット制御装置70は、ロボット20の各モータ51〜55を駆動制御することにより、アーム22の先端リンク(第6リンク36)に装着された作業ルーツをワークに向けて移動させ、作業ツールを用いてワークに対して所定の作業を行なう。具体的には、ロボット制御装置70は、ワークに対して作業を行なうための作業ツールの目標位置(X,Y,Z)および目標姿勢(RB,RC)を画像処理装置80から取得する。続いて、ロボット制御装置70は、取得した目標位置(X,Y,Z)および目標姿勢(RB,RC)を周知のHDパラメータ等を用いてアーム22の各関節の目標位置(目標角度)に座標変換する。そして、ロボット制御装置70は、各関節の位置(角度)が座標変換した目標位置(目標角度)に一致するように対応するモータ51〜55を駆動制御すると共にワークに対して作業が行なわれるよう作業ツールを駆動制御する。 The robot control device 70 drives and controls the motors 51 to 55 of the robot 20 to move the work roots attached to the tip link (sixth link 36) of the arm 22 toward the work, and uses the work tool. Perform a predetermined work on the work. Specifically, the robot control device 70 acquires the target position (X, Y, Z) and the target posture (RB, RC) of the work tool for performing the work on the work from the image processing device 80. Subsequently, the robot control device 70 sets the acquired target position (X, Y, Z) and target posture (RB, RC) to the target position (target angle) of each joint of the arm 22 by using well-known HD parameters and the like. Coordinate conversion. Then, the robot control device 70 drives and controls the corresponding motors 51 to 55 so that the position (angle) of each joint matches the coordinate-converted target position (target angle), and the work is performed on the work. Drive and control work tools.

また、ロボット制御装置70には、画像処理装置80が通信可能に接続されている。画像処理装置80は、CPU81を中心としたマイクロプロセッサとして構成され、CPU81の他に、ROM82やHDD83、RAM84、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。画像処理装置80には、カメラ24からの画像信号や入力装置85からの入力信号などが入力される。また、画像処理装置80からは、カメラ24への駆動信号や出力装置86への出力信号などが出力される。ここで、入力装置85は、例えばキーボードやマウス等、オペレータが入力操作を行なう入力デバイスである。出力装置86は、例えば液晶ディスプレイ等、各種情報を表示するための表示デバイスである。画像処理装置80は、ロボット制御装置70と通信可能に接続されており、互いに制御信号やデータのやり取りを行なっている。 Further, the image processing device 80 is communicably connected to the robot control device 70. The image processing device 80 is configured as a microprocessor centered on a CPU 81, and includes a ROM 82, an HDD 83, a RAM 84, an input / output interface (not shown), a communication interface (not shown), and the like, in addition to the CPU 81. An image signal from the camera 24, an input signal from the input device 85, and the like are input to the image processing device 80. Further, the image processing device 80 outputs a drive signal to the camera 24, an output signal to the output device 86, and the like. Here, the input device 85 is an input device such as a keyboard or a mouse in which an operator performs an input operation. The output device 86 is a display device for displaying various information such as a liquid crystal display. The image processing device 80 is communicably connected to the robot control device 70, and exchanges control signals and data with each other.

次に、こうして構成されたロボット20の基準面に対する傾きを調整する傾き調整工程について説明する。図4は、傾き調整工程の一例を示す説明図である。傾き調整工程は、オペレータが図5に示すようにジグプレートPをロボット20の作業台11上に設置した後(S100)、画像処理装置80のCPU81が以下のS110〜S160の処理を実行することにより行なわれる。図6A,図6Bは、ジグプレートPの上面模様を示す説明図である。ジグプレートPの上面には、図6Aに示すように、円形のドット(マーク)がマトリックス状に並んだパターンが形成されている。なお、ジグプレートPの上面には、図6Bに示すように、二色(白,黒)の正方形が交互に並ぶ市松模様状のパターンが形成されてもよい。 Next, an inclination adjusting step for adjusting the inclination of the robot 20 configured in this way with respect to the reference plane will be described. FIG. 4 is an explanatory diagram showing an example of the inclination adjusting process. In the tilt adjusting step, after the operator installs the jig plate P on the workbench 11 of the robot 20 as shown in FIG. 5 (S100), the CPU 81 of the image processing device 80 executes the following processes S110 to S160. It is done by. 6A and 6B are explanatory views showing an upper surface pattern of the jig plate P. As shown in FIG. 6A, a pattern in which circular dots (marks) are arranged in a matrix is formed on the upper surface of the jig plate P. As shown in FIG. 6B, a checkered pattern in which squares of two colors (white and black) are alternately arranged may be formed on the upper surface of the jig plate P.

画像処理装置80のCPU81は、ロボット20のアーム22に装着されたカメラ24でジグプレートPを撮像する(S110)。この処理は、ジグプレートPの設置位置に対応したカメラ24の撮像位置を含む制御信号をロボット制御装置70に送信することにより行なわれる。ロボット制御装置70は、画像処理装置80から制御信号を受信すると、図5に示すようにジグプレートPの上方にカメラ24が来るようにモータ51〜55を駆動制御する。 The CPU 81 of the image processing device 80 images the jig plate P with the camera 24 mounted on the arm 22 of the robot 20 (S110). This process is performed by transmitting a control signal including the imaging position of the camera 24 corresponding to the installation position of the jig plate P to the robot control device 70. When the robot control device 70 receives the control signal from the image processing device 80, the robot control device 70 drives and controls the motors 51 to 55 so that the camera 24 comes above the jig plate P as shown in FIG.

続いて、CPU81は、ジグプレートPの撮像画像に含まれるレンズ収差(歪曲収差)を周知の歪み補正アルゴリズムを用いて補正するレンズ歪み補正を行なう(S120)。レンズ歪み補正は、例えば、画像の各画素の位置と歪み量とを対応付けて予め求めて歪み量マッピングデータとしてROM82に記憶しておき、撮像画像の各画素の位置を対応する歪み量で補正することにより行なうことができる。そして、CPU81は、レンズ歪み補正後の撮像画像から背景色(白)とマーク色(黒)とを分離し、ジグプレートPの4隅のマークの輪郭を抽出する(S130)。次に、CPU81は、ロボット20のX方向(ロボット20の前後方向)における一方側にあるA端の2つのドットの中心間距離(ドット中心間距離La)と他方側にあるB端の2つのドットの中心間距離(ドット中心間距離Lb)とをドット中心間に含まれる画素数をカウントして計測する(S140)。そして、CPU81は、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)に基づいてロボット20の基準面(作業台11の上面)に対する平行度θ(Y軸周りの回転方向の傾き)を導出する(S150)。 Subsequently, the CPU 81 corrects the lens aberration (distortion) included in the captured image of the jig plate P by using a well-known distortion correction algorithm (S120). In the lens distortion correction, for example, the position of each pixel of the image is associated with the amount of distortion, obtained in advance, stored in the ROM 82 as distortion amount mapping data, and the position of each pixel of the captured image is corrected by the corresponding amount of distortion. It can be done by doing. Then, the CPU 81 separates the background color (white) and the mark color (black) from the captured image after the lens distortion correction, and extracts the contours of the marks at the four corners of the jig plate P (S130). Next, the CPU 81 has a distance between the centers of the two dots at the A end (dot center distance La) on one side of the robot 20 in the X direction (front-back direction of the robot 20) and two at the B end on the other side. The distance between the center of the dots (distance between the center of the dots Lb) is measured by counting the number of pixels included between the centers of the dots (S140). Then, the CPU 81 has a parallelism θ (Y) with respect to the reference surface (upper surface of the workbench 11) of the robot 20 based on the ratio (La / Lb) of the dot center distance La at the B end to the dot center distance Lb at the A end. The inclination in the rotation direction around the axis) is derived (S150).

図7Aは、カメラ24がジグプレートPに対して平行な場合のジグプレートPの撮像の様子を示す説明図である。図7Bは、図7Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。図8Aは、カメラ24がジグプレートPに対して平行でない場合のジグプレートPの撮像の様子を示す説明図である。図8Bは、図8Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。図7Aに示すように、カメラ24がジグプレートPに対して平行な場合、ジグプレートPの撮像画像は、図7Bに示すように、全てのマークが同じ大きさ且つ同じ間隔で写る。一方、図8Aに示すように、カメラ24がジグプレートPに対して相対的にY軸周りに傾いていると、ジグプレートPの撮像画像は、図8Bに示すように、マークが大きく且つ広い間隔で写る領域と、マークが小さく且つ狭い間隔で写る領域とが生じる。そして、カメラ24のジグプレートPに対する相対的な傾きが大きいほど、マークの大小差および広狭差は、大きくなる傾向を示す。CPU81は、こうした現象を利用し、ジグプレートPの撮像画像に写る各マークの間隔を複数箇所で計測してそれらを対比することにより、カメラ24とジグプレートPとの相対的な傾き、即ちロボット20の基準面に対する平行度θ(傾き)を求めることができる。 FIG. 7A is an explanatory diagram showing a state of imaging of the jig plate P when the camera 24 is parallel to the jig plate P. FIG. 7B is an explanatory view showing a captured image of the jig plate P captured from the position of FIG. 7A. FIG. 8A is an explanatory diagram showing a state of imaging of the jig plate P when the camera 24 is not parallel to the jig plate P. FIG. 8B is an explanatory view showing a captured image of the jig plate P captured from the position of FIG. 8A. As shown in FIG. 7A, when the camera 24 is parallel to the jig plate P, the captured image of the jig plate P shows all the marks having the same size and the same interval as shown in FIG. 7B. On the other hand, as shown in FIG. 8A, when the camera 24 is tilted about the Y axis relative to the jig plate P, the captured image of the jig plate P has a large and wide mark as shown in FIG. 8B. There are areas that appear at intervals and areas where the marks are small and appear at narrow intervals. The larger the relative inclination of the camera 24 with respect to the jig plate P, the larger the size difference and the width difference of the marks tend to be. Utilizing such a phenomenon, the CPU 81 measures the intervals between the marks reflected in the captured image of the jig plate P at a plurality of points and compares them, so that the relative inclination of the camera 24 and the jig plate P, that is, the robot The parallelism θ (slope) with respect to the reference plane of 20 can be obtained.

S150の処理は、具体的には、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)と平行度θとの関係を予め実験的に求めてマップとしてROM82に記憶しておき、比(La/Lb)が与えられると、マップから対応する平行度θを導出することにより行なわれる。ここで、上述したS100〜S150の工程は、ロボット20の基準面に対する平行度(傾き)を判定する平行度判定工程に該当する。 Specifically, in the processing of S150, the relationship between the ratio (La / Lb) of the dot center distance La at the B end to the dot center distance Lb at the A end and the parallelism θ is experimentally obtained in advance and used as a map. It is stored in the ROM 82, and when the ratio (La / Lb) is given, it is performed by deriving the corresponding parallelism θ from the map. Here, the steps S100 to S150 described above correspond to the parallelism determination step of determining the parallelism (inclination) of the robot 20 with respect to the reference plane.

CPU81は、こうしてロボット20の基準面に対する平行度θを導出すると、導出した平行度θに基づいてロボット20の傾き補正値を設定して(S160)、傾き調整工程を終了する。S160の処理は、Y軸周りの回転方向の傾き分だけ逆方向にオフセットするように作業ツールの目標姿勢(RB)に対するオフセット角度ΔRBを設定することにより行なわれる。これにより、ロボット制御装置70は、オフセット角度ΔRBだけオフセットされた作業ツールの目標姿勢(RB)に基づいてロボット20を制御することとなる。 When the CPU 81 derives the parallelism θ with respect to the reference plane of the robot 20 in this way, the inclination correction value of the robot 20 is set based on the derived parallelism θ (S160), and the inclination adjustment step is completed. The processing of S160 is performed by setting the offset angle ΔRB with respect to the target posture (RB) of the work tool so as to be offset in the opposite direction by the inclination in the rotation direction around the Y axis. As a result, the robot control device 70 controls the robot 20 based on the target posture (RB) of the work tool offset by the offset angle ΔRB.

ここで、実施形態の主要な要素と発明の開示の欄に記載した発明の主要な要素との対応関係について説明する。即ち、カメラ24がカメラに相当し、画像処理装置80のCPU81が制御装置に相当する。 Here, the correspondence between the main elements of the embodiment and the main elements of the invention described in the column of disclosure of the invention will be described. That is, the camera 24 corresponds to the camera, and the CPU 81 of the image processing device 80 corresponds to the control device.

以上説明した多関節ロボットの傾き補正装置では、画像処理装置80のCPU81は、上面(撮像面)に模様(マトリックス状のマーク)が形成されたジグプレートPをカメラ24で撮像する。続いて、CPU81は、ジグプレートPの撮像画像中の4隅のマークのうち対角でない2つのマークのドット中心間距離Laと、残りの2つのマークのドット中心間距離Lbとを測定する。そして、CPU81は、測定した各ドット中心間距離の比(La/Lb)に基づいてロボット20の平行度θを導出する。これにより、ダイヤルゲージなどを用いることなく、より簡単に多関節ロボットの基準面に対する平行度を判定することができる。 In the tilt correction device of the articulated robot described above, the CPU 81 of the image processing device 80 uses the camera 24 to image the jig plate P having a pattern (matrix-like mark) formed on the upper surface (imaging surface). Subsequently, the CPU 81 measures the dot center distance La of the two non-diagonal marks among the marks at the four corners in the captured image of the jig plate P and the dot center distance Lb of the remaining two marks. Then, the CPU 81 derives the parallelism θ of the robot 20 based on the measured ratio (La / Lb) of the distances between the dots. This makes it possible to more easily determine the parallelism of the articulated robot with respect to the reference plane without using a dial gauge or the like.

また、CPU81は、ジグプレートPの撮像画像にレンズ歪み補正を施し、レンズ歪み補正後の撮像画像に基づいてドット中心間距離La,Lbを測定する。これにより、CPU81は、ドット中心間距離La,Lbをより正確に測定することができ、平行度の判定をより適切に行なうことができる。 Further, the CPU 81 applies lens distortion correction to the image captured by the jig plate P, and measures the dot center distances La and Lb based on the image captured after the lens distortion correction. As a result, the CPU 81 can measure the dot center distances La and Lb more accurately, and can more appropriately determine the parallelism.

さらに、CPU81は、導出した平行度θに基づいてロボット20の傾き補正値を設定する。これにより、ロボット20の基準面に対する傾きをより簡易な手法により調整することができる。 Further, the CPU 81 sets the inclination correction value of the robot 20 based on the derived parallelism θ. As a result, the inclination of the robot 20 with respect to the reference plane can be adjusted by a simpler method.

本実施形態では、CPU81は、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)に基づいてマップによりロボット20の基準面に対する平行度θを導出した。しかし、CPU81は、所定の演算式を用いて演算により平行度θを算出してもよい。図9は、イメージセンサのサイズHと焦点距離Fと視野FOVとワーキングディスタンスWDとを示す説明図である。レンズ24aとイメージセンサ24b(CCDなど)とを有するカメラ24において、イメージセンサ24bのサイズをH[mm]とし、イメージセンサ24bからレンズ24aまでの距離である焦点距離をF[mm]とし、ワーキングディスタンスをWD[mm]とし、ワーキングディスタンスの範囲における撮像範囲である視野をFOV[mm]とする。この場合、図9から解るように、H:F=FOV:WDにより次式(1)が成り立つため、視野FOVは、次式(2)で算出される。一方、分解能RESは、撮像画像中の1画素あたりの大きさを示すものであり、X方向の視野FOVとイメージセンサ24bのX方向の画素数PNとを用いて、次式(3)で算出される。式(3)に視野FOVの式(2)を代入すると、分解能RESは、次式(4)で算出される。分解能RESは、式(4)からワーキングディスタンスWDに比例することが解る。式(4)中のαは、ワーキングディスタンス単位長あたりの分解能(単位分解能とも呼ぶ)であり、イメージセンサ24bの仕様(画素数,センササイズ)とレンズ24aの個体(焦点距離,倍率)とにより決まる定数となる。 In the present embodiment, the CPU 81 derives the parallelism θ with respect to the reference plane of the robot 20 by a map based on the ratio (La / Lb) of the dot center distance La at the B end to the dot center distance Lb at the A end. However, the CPU 81 may calculate the parallelism θ by calculation using a predetermined calculation formula. FIG. 9 is an explanatory diagram showing the size H, the focal length F, the field of view FOV, and the working distance WD of the image sensor. In a camera 24 having a lens 24a and an image sensor 24b (CCD, etc.), the size of the image sensor 24b is H [mm], the focal length which is the distance from the image sensor 24b to the lens 24a is F [mm], and working. The distance is WD [mm], and the field of view, which is the imaging range in the working distance range, is FOV [mm]. In this case, as can be seen from FIG. 9, since the following equation (1) holds by H: F = FOV: WD, the visual field FOV is calculated by the following equation (2). On the other hand, the resolution RES indicates the size per pixel in the captured image, and is calculated by the following equation (3) using the visual field FOV in the X direction and the number of pixels PN in the X direction of the image sensor 24b. Will be done. Substituting the visual field FOV equation (2) into the equation (3), the resolution RES is calculated by the following equation (4). It can be seen from Eq. (4) that the resolution RES is proportional to the working distance WD. Α in the equation (4) is the resolution per unit length of the working distance (also called unit resolution), and depends on the specifications of the image sensor 24b (number of pixels, sensor size) and the individual lens 24a (focal length, magnification). It becomes a fixed constant.

F*FOV=H*WD …(1)
FOV=(H/F)*WD …(2)
RES=FOV/PN …(3)
RES=(H/(F*PN))*WD
=α*WD 但し、α=H/(F*PN)…(4)
F * FOV = H * WD… (1)
FOV = (H / F) * WD… (2)
RES = FOV / PN… (3)
RES = (H / (F * PN)) * WD
= α * WD However, α = H / (F * PN)… (4)

ここで、図9に示すように、基準のワーキングディスタンスWDよりも短いWD1と長いWD2とを設定した場合、ワーキングディスタンスと分解能との関係は、図10のように、単位分解能αを傾きとする直線で表わすことができる。単位分解能αは、次式(5)で算出される。 Here, as shown in FIG. 9, when WD1 shorter than the reference working distance WD and WD2 longer than the reference working distance WD are set, the relationship between the working distance and the resolution is such that the unit resolution α is the slope as shown in FIG. It can be represented by a straight line. The unit resolution α is calculated by the following equation (5).

α=RES/WD
=ΔRES1/ΔWD1
=ΔRES1/ΔWD1
=(RES2-RES1)/(WD2-WD1) …(5)
α = RES / WD
= ΔRES1 / ΔWD1
= ΔRES1 / ΔWD1
= (RES2-RES1) / (WD2-WD1)… (5)

図11は、カメラ24が対象物に対して所定角θ傾いている場合の視野の左端(A端)におけるワーキングディスタンスWD1と視野の右端(B端)におけるワーキングディスタンスWD2とを示す説明図である。図12は、A端のドット中心間距離La1,La2およびB端のドット中心間距離Lb1,Lb2とを示す説明図である。ドット(マーク)がマトリックス状に配列された図6AのジグプレートPをカメラ24で撮像する場合、CPU81は、カメラ24の視野の中心が中央のドットDC(図12参照)と一致するようにアーム22を移動させて撮像を行なう。この場合、図11に示すように、カメラ24がジグプレートPの上面に対して所定角θ傾いていると、視野の左端(A端)におけるワーキングディスタンスWD1は、本来のワーキングディスタンスWDよりも近くなり、視野の右端(B端)におけるワーキングディスタンスWD2は、本来のワーキングディスタンスWDよりも遠くなる。このため、カメラ24の撮像画像は、図12に示すように、近距離側のA端で大きく写り、遠距離側のB端で小さく写る。このとき、カメラ24の傾きθは、WD1とWD2との差(ΔWD=WD2−WD1)とジグプレートPのA端とB端との間の距離Lとから、次式(6)で算出される。距離Lは既知であるから、ΔWDを検出することにより、カメラ24の傾きθを算出することができる。 FIG. 11 is an explanatory diagram showing a working distance WD1 at the left end (A end) of the field of view and a working distance WD2 at the right end (B end) of the field of view when the camera 24 is tilted by a predetermined angle θ with respect to the object. .. FIG. 12 is an explanatory diagram showing the dot center distances La1 and La2 at the A end and the dot center distances Lb1 and Lb2 at the B end. When the jig plate P of FIG. 6A in which dots (marks) are arranged in a matrix is imaged by the camera 24, the CPU 81 arms the CPU 81 so that the center of the field of view of the camera 24 coincides with the central dot DC (see FIG. 12). 22 is moved to perform imaging. In this case, as shown in FIG. 11, when the camera 24 is tilted by a predetermined angle θ with respect to the upper surface of the jig plate P, the working distance WD1 at the left end (A end) of the field of view is closer than the original working distance WD. Therefore, the working distance WD2 at the right end (B end) of the field of view is farther than the original working distance WD. Therefore, as shown in FIG. 12, the captured image of the camera 24 appears large at the A end on the short distance side and small at the B end on the long distance side. At this time, the inclination θ of the camera 24 is calculated by the following equation (6) from the difference between WD1 and WD2 (ΔWD = WD2-WD1) and the distance L between the A end and the B end of the jig plate P. To. Since the distance L is known, the inclination θ of the camera 24 can be calculated by detecting ΔWD.

sinθ=ΔWD/L
θ=sin-1(ΔWD/L) …(6)
sin θ = ΔWD / L
θ = sin -1 (ΔWD / L)… (6)

式(5)は、次式(7)のように変形することができる。一方、A端の分解能RES1とB端の分解能RES2は、図12の撮像画像を処理することで算出することができる。即ち、A端の分解能RES1は、撮像画像において写る図12のA端における端辺中央のドットを含む隣接する2つのドットのドット中心間距離La1,La2[pix]の平均値と、ジグプレートPの隣接する2つのドットの仕様上の中心間距離DP[mm]とを用いて、次式(8)で算出される。ドット中心間距離La1,La2[pix]は、それぞれ撮像画像に写る隣接するドットの中心間に含まれる画素数をカウントすることにより計測することができる。一方、B端の分解能RES2は、同様に、図12のB端における端辺中央のドットを含む隣接する2つのドットのドット中心間距離Lb1,Lb2[pix]の平均値と、上記仕様上の中心間距離DP[mm]とを用いて、次式(9)で算出される。このように、分解能RES1,RES2は、それぞれA端,B端の各端辺にあるドット群のうち何れか2つのドット間の仕様上の距離と、撮像画像において当該2つのドット間に含まれる画素数とを用いて算出することができる。 Equation (5) can be modified as in equation (7) below. On the other hand, the resolution RES1 at the A end and the resolution RES2 at the B end can be calculated by processing the captured image of FIG. That is, the resolution RES1 at the A end is the average value of the dot center distances La1 and La2 [pix] of two adjacent dots including the dot at the center of the end side at the A end in FIG. 12 shown in the captured image, and the jig plate P. It is calculated by the following equation (8) using the inter-center distance DP [mm] of the specifications of the two adjacent dots. The distances between dot centers La1 and La2 [pix] can be measured by counting the number of pixels included between the centers of adjacent dots in the captured image, respectively. On the other hand, the resolution RES2 at the B end is similarly the average value of the dot center distances Lb1 and Lb2 [pix] of two adjacent dots including the dot at the center of the end side at the B end in FIG. 12 and the above specifications. It is calculated by the following equation (9) using the center-to-center distance DP [mm]. As described above, the resolutions RES1 and RES2 are included in the specified distance between any two dots of the dot group at each end edge of the A end and the B end, and between the two dots in the captured image. It can be calculated using the number of pixels.

WD2-WD1=ΔWD
=(RES2-RES1)/α …(7)
RES1=DP/Average(La1,La2)
=2*DP/(La1+La2) …(8)
RES2=DP/Average(Lb1,Lb2)
=2*DP/(Lb1+Lb2) …(9)
WD2-WD1 = ΔWD
= (RES2-RES1) / α… (7)
RES1 = DP / Average (La1, La2)
= 2 * DP / (La1 + La2)… (8)
RES2 = DP / Average (Lb1, Lb2)
= 2 * DP / (Lb1 + Lb2)… (9)

式(6)に、式(7)〜(9)を代入することによりカメラ24の傾きθ、即ちロボット20の基準面に対する平行度θを算出することができる。 By substituting the equations (7) to (9) into the equation (6), the inclination θ of the camera 24, that is, the parallelism θ with respect to the reference plane of the robot 20 can be calculated.

本実施形態では、ジグプレートPの上面(撮像面)に、マトリックス状のドットパターンや市松模様状の模様(パターン)が形成されるものとした。しかし、ジグプレートPに形成される模様(パターン)は、少なくとも正方形状または長方形状に並んだ4つのマークを有するパターンであれば、如何なるパターンであってもよい。また、ジグプレートPに形成される模様は、カメラ24によるジグプレートPの撮像画像に写る模様の間隔を複数箇所で計測することにより、ジグプレートPに対するカメラ24の平行度、すなわちロボット20の基準面に対する平行度を判定できるものであればよい。 In the present embodiment, it is assumed that a matrix-like dot pattern or a checkered pattern (pattern) is formed on the upper surface (imaging surface) of the jig plate P. However, the pattern formed on the jig plate P may be any pattern as long as it has at least four marks arranged in a square or rectangular shape. Further, the pattern formed on the jig plate P is the parallelism of the camera 24 with respect to the jig plate P, that is, the reference of the robot 20 by measuring the intervals of the patterns reflected in the image captured by the jig plate P by the camera 24 at a plurality of points. Anything that can determine the parallelism with respect to the surface is sufficient.

本実施形態では、ロボット20は、5軸の垂直多関節アーム22を備えるものとした。しかし、多関節アームは、5軸に限られず、例えば、6軸以上有するものとしてもよい。例えば、6軸の多関節アームは、X(ロボットの前後方向),Y(左右方向),Z(上下方向)の三次元空間内の移動と、X軸周りの回転方向(RA)の移動と、Y軸周りの回転方向(RB)の移動と、Z軸周りの回転方向(RC)の移動とが可能である。この場合、画像処理装置のCPUは、カメラによるジグプレートの撮像画像中に含まれる4隅のマークのうちY方向における一方側の2つのマークのドット中心間距離と、他方側の2つのマークのドット中心間距離とを計測する。これにより、画像処理装置のCPUは、計測した各ドット中心間距離の対比に基づいてX軸周りの回転方向におけるロボットの基準面に対する傾き(平行度)を判定することができる。 In the present embodiment, the robot 20 is provided with a 5-axis vertical articulated arm 22. However, the articulated arm is not limited to five axes, and may have, for example, six or more axes. For example, a 6-axis articulated arm can move in three-dimensional space of X (front-back direction of robot), Y (horizontal direction), Z (vertical direction) and rotation direction (RA) around the X-axis. , The movement in the rotation direction (RB) around the Y axis and the movement in the rotation direction (RC) around the Z axis are possible. In this case, the CPU of the image processing device determines the distance between the dot centers of the two marks on one side in the Y direction and the two marks on the other side among the marks at the four corners included in the image captured by the jig plate by the camera. Measure the distance between the dots. As a result, the CPU of the image processing device can determine the inclination (parallelism) with respect to the reference plane of the robot in the rotation direction around the X axis based on the comparison of the measured distances between the centers of the dots.

本実施形態では、本開示の発明を傾き調整装置の形態として説明したが、平行度判定方法の形態としてもよい。 In the present embodiment, the invention of the present disclosure has been described as a form of the tilt adjusting device, but it may be a form of a parallelism determination method.

なお、本発明は上述した実施形態に何ら限定されることはなく、本開示の発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。 It is needless to say that the present invention is not limited to the above-described embodiments, and can be implemented in various embodiments as long as it belongs to the technical scope of the invention of the present disclosure.

本開示は、ロボットの製造産業などに利用可能である。 The present disclosure can be used in the robot manufacturing industry and the like.

11 作業台、20 ロボット、22 アーム、24 カメラ、31 第1リンク、32 第2リンク、33 第3リンク、34 第4リンク、35 第5リンク、36 第6リンク、41 第1関節、42 第2関節、43 第3関節、44 第4関節、45 第5関節、51〜55 モータ、61〜65 エンコーダ、70 ロボット制御装置、71 CPU、72 ROM、73 HDD、74 RAM、80 画像処理装置、81 CPU、82 ROM、83 HDD、84 RAM、85 入力装置、86 出力装置、P ジグプレート。 11 workbench, 20 robot, 22 arm, 24 camera, 31 1st link, 32 2nd link, 33 3rd link, 34 4th link, 35 5th link, 36 6th link, 41 1st joint, 42nd 2 joints, 43 3rd joint, 44 4th joint, 45 5th joint, 51-55 motor, 61-65 encoder, 70 robot control device, 71 CPU, 72 ROM, 73 HDD, 74 RAM, 80 image processing device, 81 CPU, 82 ROM, 83 HDD, 84 RAM, 85 input device, 86 output device, P jig plate.

本明細書は、カメラの平行度判定方法について開示する。
This specification discloses with parallel determination how the camera.

Claims (5)

多関節ロボットの基準面に対する平行度を判定する多関節ロボットの平行度判定方法であって、
前記多関節ロボットの作業台に所定パターンの模様を有するプレートを配置し、
前記多関節ロボットのアームに装着されたカメラにより前記プレートを撮像し、
前記プレートの撮像画像中に認識される模様の間隔を複数箇所で測定し、該測定した各間隔の対比に基づいて前記平行度を判定する、
多関節ロボットの平行度判定方法。
This is a method for determining the parallelism of an articulated robot, which determines the parallelism of the articulated robot with respect to the reference plane.
A plate having a predetermined pattern is placed on the workbench of the articulated robot.
The plate was imaged by a camera mounted on the arm of the articulated robot.
The intervals of patterns recognized in the captured image of the plate are measured at a plurality of points, and the parallelism is determined based on the comparison of the measured intervals.
A method for determining parallelism of an articulated robot.
請求項1記載の多関節ロボットの平行度判定方法であって、
前記撮像画像に対してレンズ歪み補正を行ない、レンズ歪み補正後の撮像画像中に認識される模様の間隔を複数箇所で測定する、
多関節ロボットの平行度判定方法。
The method for determining parallelism of an articulated robot according to claim 1.
Lens distortion correction is performed on the captured image, and the intervals of patterns recognized in the captured image after lens distortion correction are measured at a plurality of points.
A method for determining parallelism of an articulated robot.
請求項1または2記載の多関節ロボットの平行度判定方法であって、
前記所定パターンの模様は、少なくとも、正方形状または長方形状に並んだ4つの識別情報を有する模様であり、
前記4つの識別情報のうち対角にない2つの識別情報の間隔と、他の2つの識別情報の間隔との対比に基づいて前記平行度を判定する、
多関節ロボットの平行度判定方法。
The method for determining parallelism of an articulated robot according to claim 1 or 2.
The pattern of the predetermined pattern is a pattern having at least four identification information arranged in a square shape or a rectangular shape.
The parallelism is determined based on the comparison between the distance between two non-diagonal identification information among the four identification information and the distance between the other two identification information.
A method for determining parallelism of an articulated robot.
請求項3記載の多関節ロボットの平行度判定方法であって、
前記所定パターンの模様は、前記識別情報がマトリックス状に並んだ模様である、
多関節ロボットの平行度判定方法。
The method for determining parallelism of an articulated robot according to claim 3.
The pattern of the predetermined pattern is a pattern in which the identification information is arranged in a matrix.
A method for determining parallelism of an articulated robot.
多関節ロボットの基準面に対する傾きを調整する多関節ロボットの傾き調整装置であって、
前記多関節ロボットのアームに装着されたカメラと、
前記多関節ロボットの作業台に設置された所定パターンの模様を有するプレートを前記カメラで撮像し、前記プレートの撮像画像中に認識される模様の間隔を複数箇所で測定し、該測定した各間隔の対比に基づいて前記多関節ロボットの前記基準面に対する平行度を判定し、該判定した平行度に基づいて前記多関節ロボットの傾き補正値を設定する制御装置と、
を備える多関節ロボットの傾き調整装置。
An articulated robot tilt adjustment device that adjusts the tilt of an articulated robot with respect to a reference plane.
A camera mounted on the arm of the articulated robot and
A plate having a pattern of a predetermined pattern installed on the work table of the articulated robot is imaged by the camera, the interval of the pattern recognized in the captured image of the plate is measured at a plurality of places, and each of the measured intervals is measured. A control device that determines the parallelism of the articulated robot with respect to the reference plane based on the comparison of the above, and sets the tilt correction value of the articulated robot based on the determined parallelism.
An articulated robot tilt adjustment device equipped with.
JP2020160845A 2017-03-23 2020-09-25 Camera parallelism judgment method Active JP6965422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020160845A JP6965422B2 (en) 2017-03-23 2020-09-25 Camera parallelism judgment method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019506828A JP6807450B2 (en) 2017-03-23 2017-03-23 Articulated robot parallelism determination method and articulated robot tilt adjustment device
JP2020160845A JP6965422B2 (en) 2017-03-23 2020-09-25 Camera parallelism judgment method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019506828A Division JP6807450B2 (en) 2017-03-23 2017-03-23 Articulated robot parallelism determination method and articulated robot tilt adjustment device

Publications (2)

Publication Number Publication Date
JP2021012203A true JP2021012203A (en) 2021-02-04
JP6965422B2 JP6965422B2 (en) 2021-11-10

Family

ID=74226098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020160845A Active JP6965422B2 (en) 2017-03-23 2020-09-25 Camera parallelism judgment method

Country Status (1)

Country Link
JP (1) JP6965422B2 (en)

Also Published As

Publication number Publication date
JP6965422B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
CN105066884B (en) A kind of robot end's deviations bearing calibration and system
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
CN111300481B (en) Robot grabbing pose correction method based on vision and laser sensor
JP4267005B2 (en) Measuring apparatus and calibration method
EP2682711B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
US20090299684A1 (en) Method for calibrating cameras installed on vehicle
CN105783711B (en) Three-dimensional scanner correction system and correction method thereof
JP6807450B2 (en) Articulated robot parallelism determination method and articulated robot tilt adjustment device
CN110170982B (en) Simulation device for simulating robot movement
US11548156B2 (en) Device and method for calibrating coordinate system of 3D camera and robotic arm
JP2012101306A (en) Apparatus and method for calibration of robot
CN110815201B (en) Method for correcting coordinates of robot arm
CN114643578A (en) Calibration device and method for improving robot vision guide precision
CN113421309A (en) Single-camera cross-visual-field distance measurement platform calibration method, distance measurement method and system
JP6965422B2 (en) Camera parallelism judgment method
JP7180783B2 (en) CALIBRATION METHOD FOR COMPUTER VISION SYSTEM AND 3D REFERENCE OBJECT USED FOR CALIBRATION METHOD
EP3895855A1 (en) Robot control system and robot control method
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD
JP7414850B2 (en) robot system
CN111716340B (en) Correcting device and method for coordinate system of 3D camera and mechanical arm
KR20220058740A (en) System and Method for calibration of robot based on a scanning
JPH03268818A (en) Angle measuring instrument for bender
JPH05204423A (en) Coordinate correcting method for robot device provided with visual device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211020

R150 Certificate of patent or registration of utility model

Ref document number: 6965422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150