JP2006302019A - Robot controller - Google Patents

Robot controller Download PDF

Info

Publication number
JP2006302019A
JP2006302019A JP2005123708A JP2005123708A JP2006302019A JP 2006302019 A JP2006302019 A JP 2006302019A JP 2005123708 A JP2005123708 A JP 2005123708A JP 2005123708 A JP2005123708 A JP 2005123708A JP 2006302019 A JP2006302019 A JP 2006302019A
Authority
JP
Japan
Prior art keywords
robot
pointer
vector
plane
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005123708A
Other languages
Japanese (ja)
Inventor
Yoshinori Okazaki
吉則 岡崎
Kazuhiro Kondo
一弘 近藤
Toshiyuki Sakurai
俊幸 桜井
Toshihiro Arimatsu
敏宏 有松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005123708A priority Critical patent/JP2006302019A/en
Publication of JP2006302019A publication Critical patent/JP2006302019A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot controller realizing automatic teaching with one camera. <P>SOLUTION: The robot controller which controls a cartesian coordinate robot movable along three orthogonal axes (X, Y, and Z axes) includes an imaging means for imaging an operation face pressed by the robot, a radiation means which is moved on an XY plane parallel with the operation face together with the robot and radiates a pointer to an intersection between an extension in the Z direction of the robot and the operation face, and a pressure detection means for detecting a pressure of the robot to the operation face. A vector which converts a vector of xy-direction movement of the robot to a pointer movement vector on an imaged image is calculated, and a pointer movement vector to a desired point designated by an operator, on the imaged image is converted to a vector of xy-direction movement to move the robot, and it is determined whether the pointer is placed within a prescribed range from the desired point on the imaged image or not. In the case that it is determined that the pointer is not placed there, correction is performed, and the XY plane position and the robot are moved in the Z direction, and a position in the Z direction at the time when the detected pressure exceeds a prescribed point is stored in association with the desired point. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、概して、直交座標ロボットを制御するロボット制御装置に係り、特に、1台のカメラで自動ティーチングを実現したロボット制御装置に関する。   The present invention generally relates to a robot control apparatus that controls a Cartesian coordinate robot, and more particularly to a robot control apparatus that realizes automatic teaching with a single camera.

従来、直交する3軸(X、Y、Z軸)に沿って移動可能な直交座標ロボットを制御するロボット制御装置が知られている。   2. Description of the Related Art Conventionally, a robot controller that controls an orthogonal coordinate robot that can move along three orthogonal axes (X, Y, and Z axes) is known.

また、ロボットの3次元座標は、通常、2台のカメラを用い、撮像された2つの2次元画像から求められる(例えば、特許文献1参照)。   In addition, the three-dimensional coordinates of the robot are usually obtained from two two-dimensional images captured using two cameras (see, for example, Patent Document 1).

押しボタン式スイッチを検査目的で自動操作する直交座標ロボット及びその制御装置の一例を図1に示す。ここでは、図1紙面左右方向をX軸、垂直方向をY軸、上下方向をZ軸とし、X軸に沿って配置されたスイッチ面P上のスイッチをロボットによって押すものとする。   FIG. 1 shows an example of a Cartesian coordinate robot that automatically operates a push button type switch for inspection purposes and its control device. Here, it is assumed that the horizontal direction in FIG. 1 is the X axis, the vertical direction is the Y axis, and the vertical direction is the Z axis, and the switch on the switch surface P arranged along the X axis is pushed by the robot.

図1の例において、ロボット制御装置100により制御される直交座標ロボット101は、X軸に沿って設けられたフレーム102によって担持され、フレーム102上に設けられたX方向軌道上を移動可能な第一のキャリッジ103と、第一のキャリッジ103によって担持され、第一のキャリッジ103上に設けられたY方向軌道上を移動可能な第二のキャリッジ104と、第二のキャリッジ104上にZ軸に平行に設けられ、Z軸に沿って伸縮可能な操作アーム105とから成る。   In the example of FIG. 1, the Cartesian coordinate robot 101 controlled by the robot control device 100 is carried by a frame 102 provided along the X axis, and is movable on an X-direction trajectory provided on the frame 102. One carriage 103, a second carriage 104 carried by the first carriage 103 and movable on a Y-direction trajectory provided on the first carriage 103, and a Z-axis on the second carriage 104 The operation arm 105 is provided in parallel and can be expanded and contracted along the Z-axis.

このような構成により、操作アーム105の先端は、所定の稼動範囲内で任意の3次元座標をとることができる。   With such a configuration, the tip of the operation arm 105 can take arbitrary three-dimensional coordinates within a predetermined operating range.

図1の例では、操作アーム105の先端の3次元位置を2台のカメラ106、107を用いて検出する。カメラ106は、XY平面を撮像するカメラであり、操作アーム105の先端のXY平面上での位置を撮像する。カメラ107は、YZ平面を撮像するカメラであり、操作アーム105の先端のYZ平面上での位置、特にZ軸方向の奥行きを撮像する。   In the example of FIG. 1, the three-dimensional position of the tip of the operation arm 105 is detected using two cameras 106 and 107. The camera 106 is a camera that images the XY plane, and images the position of the tip of the operation arm 105 on the XY plane. The camera 107 is a camera that images the YZ plane, and images the position of the tip of the operation arm 105 on the YZ plane, particularly the depth in the Z-axis direction.

2つのカメラ106、107によって撮像された画像は画像処理用PC108によってディスプレイ上に表示される。スイッチ操作のための3次元座標をティーチング(教示)する際、操作者は、ディスプレイ上に表示された2つの2次元画像を見て、操作アーム105の先端があるスイッチを操作するのに適切な3次元位置にあるときにその座標をロボットコントローラ109に記憶させる。   Images captured by the two cameras 106 and 107 are displayed on the display by the image processing PC 108. When teaching (teaching) the three-dimensional coordinates for the switch operation, the operator looks at two two-dimensional images displayed on the display and is suitable for operating the switch having the tip of the operation arm 105. The coordinates are stored in the robot controller 109 when in the three-dimensional position.

ロボットコントローラ109は、あるスイッチを操作するように操作者から要求されると、当該スイッチについて予めティーチングされた3次元位置へロボット101を移動ささせる。   When requested by the operator to operate a certain switch, the robot controller 109 moves the robot 101 to a three-dimensional position taught in advance for the switch.

このように、従来の直交座標ロボット及びその制御装置によれば、ロボットの3次元位置は2台のカメラによって検出され、所望の操作位置は操作者によって手動で設定されるのが通常であると考えられる。
実公平6−47670号公報
As described above, according to the conventional Cartesian coordinate robot and its control device, the three-dimensional position of the robot is usually detected by two cameras, and the desired operation position is usually set manually by the operator. Conceivable.
Japanese Utility Model Publication No. 6-47670

しかしながら、上記のような従来手法では、例えば完成車両の車室内においてインパネに設けられたスイッチを検査する場合など、狭い空間内での利用が難しい。   However, the conventional method as described above is difficult to use in a narrow space, for example, when a switch provided on an instrument panel is inspected in a passenger compartment of a completed vehicle.

図1に例示したような構造・手法で車両インパネスイッチを操作する場合、XY平面を撮像するカメラ106については、ステアリングハンドルやシートのヘッドレストなどの障害物及びロボット自体によって撮像面が遮られないように設置するのが困難である。   When the vehicle instrument panel switch is operated with the structure and method illustrated in FIG. 1, the camera 106 that images the XY plane is not obstructed by an obstacle such as a steering handle or a seat headrest and the robot itself. Difficult to install.

また、YZ平面(奥行き)を撮像するカメラ107については、Aピラーやドアが障害となって設置困難である。   Further, it is difficult to install the camera 107 that captures the YZ plane (depth) because the A pillar or the door is an obstacle.

このような障害物やロボット自体を避けるように2台のカメラを異なる2つのいずれも斜めの方向からインパネPを撮像するように設置すると、2つの撮像画像を合成して3次元座標を得る演算が複雑となる。   In order to avoid such obstacles and the robot itself, if two different cameras are installed so that the instrument panel P is imaged from an oblique direction, the two captured images are combined to obtain a three-dimensional coordinate. Becomes complicated.

さらに、上記のような従来手法では、操作対象ボタンの各々についてティーチングするためには、操作者が、ロボットを移動させて、操作アームが各ボタンを押すのに適切な3次元座標に位置することをディスプレイ上で確認し、当該座標を設定する、という手動による一連の手順が必要となり、工数が多く手間が掛かるだけでなく、多くの時間が必要となる。   Further, in the conventional method as described above, in order to teach each of the operation target buttons, the operator moves the robot, and the operation arm is positioned at an appropriate three-dimensional coordinate for pressing each button. It is necessary to perform a series of manual procedures for confirming on the display and setting the coordinates, which requires a lot of man-hours and a lot of time.

本発明はこのような課題を解決するためのものであり、1台のカメラで自動ティーチングを実現したロボット制御装置を提供することを主たる目的とする。   The present invention is intended to solve such problems, and a main object of the present invention is to provide a robot control device that realizes automatic teaching with a single camera.

上記目的を達成するための本発明の一態様は、直交する3軸(X、Y、Z軸)に沿って移動可能な直交座標ロボットを制御するロボット制御装置であって、
上記ロボットが押圧する操作面を撮像する撮像手段と、
上記操作面に平行なXY平面上を上記ロボットと共に移動し、該ロボットのZ方向延長線と上記操作面との交点にポインタを照射する照射手段と、
上記ロボットの上記操作面に対向する面に設けられ、該ロボットが上記操作面を押圧する圧力を検出する圧力検出手段とを有し、
上記ロボットのXY平面上での移動ベクトルを上記撮像手段により撮像された画像上での上記ポインタの移動ベクトルに変換するための変換ベクトルを算出し、
上記撮像手段により撮像された画像上での上記ポインタの現在位置から操作者により指定された上記操作面上の所望点までの移動ベクトルを上記変換ベクトルを用いて上記ロボットのXY平面上での移動ベクトルに変換し、この求められた移動ベクトルに従って上記ロボットをXY平面上で移動させ、
移動後、上記撮像手段により撮像された画像上で上記ポインタが上記所望点から所定の範囲内に位置するか否かを判断し、位置していなければ上記ロボットのXY平面上での位置を補正し、このXY平面上でのロボット位置を上記所望点と関連付けて記憶し、
XY方向位置決定後、上記ロボットをZ方向に移動させ、上記圧力検出手段により検出された圧力が所定の閾値を越えたときのZ方向位置を上記所望点と関連付けて記憶する、ことを特徴とするロボット制御装置である。
One aspect of the present invention for achieving the above object is a robot control apparatus for controlling a Cartesian coordinate robot movable along three orthogonal axes (X, Y, Z axes),
Imaging means for imaging an operation surface pressed by the robot;
An irradiating means for moving together with the robot on an XY plane parallel to the operation surface and irradiating a pointer to the intersection of the Z-direction extension line of the robot and the operation surface;
Pressure detecting means provided on a surface facing the operation surface of the robot and detecting a pressure with which the robot presses the operation surface;
Calculating a conversion vector for converting a movement vector on the XY plane of the robot into a movement vector of the pointer on the image captured by the imaging unit;
Movement of the robot on the XY plane by using the conversion vector as a movement vector from the current position of the pointer on the image picked up by the image pickup means to a desired point on the operation surface designated by the operator Converted into a vector, and moves the robot on the XY plane according to the obtained movement vector,
After the movement, it is determined whether or not the pointer is located within a predetermined range from the desired point on the image picked up by the image pickup means, and if not, the position of the robot on the XY plane is corrected. The robot position on the XY plane is stored in association with the desired point,
After determining the XY direction position, the robot is moved in the Z direction, and the Z direction position when the pressure detected by the pressure detecting means exceeds a predetermined threshold value is stored in association with the desired point. It is a robot control device.

この一態様において、ロボットとは、例えば押しボタン式スイッチを自律的に押してその機能を検査するためのロボットであり、操作面とは、検査対象となる例えば押しボタン式スイッチが配列されたパネル面(例えば、自動車のインパネ)である。   In this aspect, the robot is a robot for autonomously inspecting the function of the push button switch, for example, and the operation surface is, for example, a panel surface on which the push button switch to be inspected is arranged. (For example, an instrument panel of a car).

また、この一態様において、撮像手段は、ロボットによって遮られないように、操作面に対して斜めに設置されることが好ましい。   Moreover, in this one aspect | mode, it is preferable that an imaging means is installed diagonally with respect to an operation surface so that it may not be interrupted | blocked by the robot.

この一態様によれば、撮像手段と、圧力検出手段と、上記のような変換ベクトルの演算により、撮像された2次元画像上で指定した点を適切な圧力を押圧するための3次元位置(座標)をロボットが自動的に検出し、記憶することができるため、所望の3次元座標をロボットに記憶させるためのティーチング作業を1つの撮像手段のみを用いて自動化することができる。   According to this aspect, the three-dimensional position for pressing an appropriate pressure on the point specified on the two-dimensional image captured by the imaging unit, the pressure detection unit, and the calculation of the conversion vector as described above ( Since the robot can automatically detect and store (coordinates), the teaching work for storing the desired three-dimensional coordinates in the robot can be automated using only one imaging means.

本発明によれば、1台のカメラで自動ティーチングを実現したロボット制御装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the robot control apparatus which implement | achieved automatic teaching with one camera can be provided.

以下、本発明を実施するための最良の形態について、添付図面を参照しながら実施例を挙げて説明する。なお、直交座標ロボット及びその制御装置の基本概念、主要なハードウェア構成、作動原理、及び基本的な制御手法等については当業者には既知であるため、詳しい説明を省略する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings. The basic concept of the Cartesian coordinate robot and its control device, the main hardware configuration, the operating principle, the basic control method, and the like are known to those skilled in the art and will not be described in detail.

また、以下の一実施例の説明では、既述の図1の場合と同様に、押しボタン式スイッチを検査目的で自動操作する直交座標ロボット及びその制御装置の例に挙げる。中でも特に、狭い車室内での動作が必要となる完成車両のインパネに配置されたボタンを自律的に押す検査ロボットの場合を例に挙げる。   Further, in the following description of one embodiment, as in the case of FIG. 1 described above, an example of a Cartesian coordinate robot that automatically operates a push button switch for inspection purposes and its control device will be given. In particular, the case of an inspection robot that autonomously presses a button arranged on the instrument panel of a completed vehicle that requires operation in a narrow vehicle interior is given as an example.

図2は、本発明の一実施例に係る直交座標ロボット201及びその制御装置200の概略構成図である。ここでは、インパネP上のスイッチをロボット201によって押すものとし、図2紙面左右方向をX軸、垂直方向をY軸、上下方向をZ軸とする。すなわち、インパネPは、XY平面に平行とする。   FIG. 2 is a schematic configuration diagram of the Cartesian coordinate robot 201 and its control device 200 according to an embodiment of the present invention. Here, it is assumed that the switch on the instrument panel P is pushed by the robot 201, and the horizontal direction in FIG. 2 is the X axis, the vertical direction is the Y axis, and the vertical direction is the Z axis. That is, the instrument panel P is parallel to the XY plane.

ロボット制御装置200により制御される直交座標ロボット201は、X軸に沿って設けられたフレーム202によって担持され、フレーム202上に設けられたX方向軌道(図示せず)上を移動可能な第一のキャリッジ203と、第一のキャリッジ203によって担持され、第一のキャリッジ103上に設けられたY方向軌道(図示せず)上を移動可能な第二のキャリッジ204と、第二のキャリッジ204上にZ軸に平行に設けられ、Z軸に沿って伸縮可能な操作アーム205とから成る。   A Cartesian coordinate robot 201 controlled by the robot controller 200 is supported by a frame 202 provided along the X axis, and is movable on an X-direction trajectory (not shown) provided on the frame 202. Carriage 203, a second carriage 204 carried by the first carriage 203 and movable on a Y-direction track (not shown) provided on the first carriage 103, and the second carriage 204 And an operation arm 205 that is provided in parallel to the Z-axis and can be expanded and contracted along the Z-axis.

このような構成により、操作アーム205の先端は、所定の稼動範囲内で任意の3次元座標をとることができる。なお、フレーム202は、例えば、両端に運転席及び助手席のドア上部のルーフ部分に設けられた取っ手に引っ掛けて固定するための取り付け部材を設けることによって、検査対象車両に固定される。   With such a configuration, the tip of the operation arm 205 can take arbitrary three-dimensional coordinates within a predetermined operating range. The frame 202 is fixed to the vehicle to be inspected by, for example, providing attachment members for hooking and fixing the handle 202 provided on the roof portion of the upper part of the doors of the driver seat and the passenger seat at both ends.

操作アーム205の先端には、スイッチ面Pに対向するように圧力センサ206が設けられる。圧力センサ206は、操作アーム205がスイッチ面Pと当接後、操作アーム205をスイッチ面Pに向けて更に延ばし押圧した際の圧力を検出する。   A pressure sensor 206 is provided at the tip of the operation arm 205 so as to face the switch surface P. The pressure sensor 206 detects the pressure when the operation arm 205 is further extended toward the switch surface P and pressed after the operation arm 205 contacts the switch surface P.

第二のキャリッジ204上には、所定の方向にレーザポインタを照射するレーザポインタ装置207が設けられる。このレーザポインタ装置207は、第二のキャリッジ204上に設けられるため、第一のキャリッジ203及び第二のキャリッジ204と共にXY平面上を移動するが、Z軸方向には移動しない。また、レーザポインタ装置207は、操作アーム205のZ軸方向延長線がインパネPと交わる点にレーザポインタを照射するように照射方向が設定・固定される。   On the second carriage 204, a laser pointer device 207 for irradiating a laser pointer in a predetermined direction is provided. Since this laser pointer device 207 is provided on the second carriage 204, it moves on the XY plane together with the first carriage 203 and the second carriage 204, but does not move in the Z-axis direction. Further, the irradiation direction of the laser pointer device 207 is set and fixed so that the laser pointer is irradiated to the point where the Z-axis direction extension line of the operation arm 205 intersects the instrument panel P.

ロボット制御装置200は、更に、フレーム202上に所定の角度に固定的に設置され、インパネPのうち少なくとも操作アーム205によって押圧され得るエリアを撮像可能なカメラ208を有する。カメラ208は、ステアリングハンドルやロボット201自体によって遮られないように、図示するように斜めからインパネPを撮像するように設置される。障害物回避のため、仰角方向の角度が付けられてもよい。   The robot control device 200 further includes a camera 208 that is fixedly installed at a predetermined angle on the frame 202 and that can image at least an area of the instrument panel P that can be pressed by the operation arm 205. The camera 208 is installed so as to image the instrument panel P from an oblique direction as shown in the figure so as not to be blocked by the steering handle or the robot 201 itself. In order to avoid obstacles, an angle in the elevation direction may be provided.

したがって、カメラ208は、インパネP上のスイッチ類及びレーザポインタ装置207によって照射されたインパネP上のレーザポインタとを撮像することが可能となる。   Therefore, the camera 208 can take an image of the switches on the instrument panel P and the laser pointer on the instrument panel P irradiated by the laser pointer device 207.

カメラ208によって撮像された画像は画像処理用PC209によってディスプレイ(図示せず)上に表示される。また、操作者は、ロボットコントローラ210を通じて、ロボット201を所望のXYZ座標に移動させることができる。   An image captured by the camera 208 is displayed on a display (not shown) by the image processing PC 209. In addition, the operator can move the robot 201 to desired XYZ coordinates through the robot controller 210.

次いで、図3〜5を用いて、このような構成のロボット制御装置200を用いた自動ティーチング処理の流れを説明する。   Next, the flow of automatic teaching processing using the robot control device 200 having such a configuration will be described with reference to FIGS.

図3は、ロボット制御装置200を用いた自動ティーチング及び自動検査の概略的な流れを示すフローチャートである。   FIG. 3 is a flowchart showing a schematic flow of automatic teaching and automatic inspection using the robot controller 200.

まず、操作者は、検査対象となる車両にフレーム202を固定し、ロボット201が車室内で移動できるように設置作業を行う(S301)。   First, the operator fixes the frame 202 to the vehicle to be inspected and performs installation work so that the robot 201 can move in the vehicle interior (S301).

ロボットが作動可能にセットアップされると、最初に、ロボット201のXY平面上での移動ベクトルをカメラ208によって撮像された撮像画面上の移動ベクトルへ変換するための変換ベクトルを求める処理を行う(S302)。   When the robot is set up so as to be operable, first, a process for obtaining a conversion vector for converting the movement vector of the robot 201 on the XY plane into a movement vector on the imaging screen imaged by the camera 208 is performed (S302). ).

まず、画像処理用PC209は、カメラ208によって撮像された撮像画面上における現在のポインタの位置(例えば初期位置)を記録する。   First, the image processing PC 209 records the current position of the pointer (for example, the initial position) on the imaging screen captured by the camera 208.

次いで、ロボットコントローラ210は、第一のキャリッジ203及び第二のキャリッジ204をそれぞれ所定量動かすことによって、ロボット201をXY平面上で所定の移動ベクトルで移動させる。   Next, the robot controller 210 moves the robot 201 by a predetermined movement vector on the XY plane by moving the first carriage 203 and the second carriage 204 by a predetermined amount.

移動後、画像処理用PC209は、ロボット201移動後の撮像画像上でのポインタ位置を記録する。   After the movement, the image processing PC 209 records the pointer position on the captured image after the movement of the robot 201.

一例を図4に示す。図4は、カメラ208による撮像画像の一例を示す。点Aが移動前のポインタ位置、点Bがロボット201が所定のXY平面ベクトルで移動させられた後のポインタ位置である。   An example is shown in FIG. FIG. 4 shows an example of an image captured by the camera 208. Point A is the pointer position before movement, and point B is the pointer position after the robot 201 is moved by a predetermined XY plane vector.

画像処理用PC209は、この撮像画像上でのポインタの移動ベクトルVを計算する。カメラ208がインパネPに対して斜めから撮像していること、及び、図2では図示を省略しているが、実際の車両インパネには意匠上設けられた凹凸や傾斜などがあることから、ロボット201のXY平面における移動ベクトルと、撮像画像上でのポインタ移動ベクトルは必ずしも一致しない。 The image processing PC 209 calculates a pointer movement vector V D on the captured image. Since the camera 208 is taking an image with respect to the instrument panel P and the illustration is omitted in FIG. 2, the actual vehicle instrument panel has irregularities and inclinations provided in the design. The movement vector 201 on the XY plane does not necessarily match the pointer movement vector on the captured image.

次いで、画像処理用PC209は、既知であるロボットのXY方向移動ベクトルと、この移動に伴う撮像画像上でのポインタ移動ベクトルVとの対応関係を求める。すなわち、ロボットのXY平面での移動ベクトルから撮像画像上でのポインタ移動ベクトルを求めるための変換ベクトルを求める。 Next, the image processing PC 209 obtains a correspondence relationship between the known XY direction movement vector of the robot and the pointer movement vector V D on the captured image accompanying this movement. That is, a conversion vector for obtaining a pointer movement vector on the captured image is obtained from the movement vector on the XY plane of the robot.

これを式で表すと、
撮像画像上でのポインタ移動ベクトル=変換ベクトル×ロボット移動ベクトル
となる。
This can be expressed as an expression:
Pointer movement vector on the captured image = conversion vector × robot movement vector.

このようにして、初期設定の一環として変換ベクトルが算出されると、次いで、検査対象とする各スイッチについてそれを押すためのロボット3次元位置のティーチング処理に進む(S303)。   When the conversion vector is calculated as part of the initial setting in this way, the process then proceeds to teaching the robot three-dimensional position for pressing each switch to be inspected (S303).

撮像画像の一例を図5に示す。いま、ポインタは初期位置Sに照射されており、操作者は、まず、スイッチα、β、γのうち、スイッチαを押すためのロボット3次元座標をティーチングするものとする。   An example of the captured image is shown in FIG. Now, it is assumed that the pointer is irradiated to the initial position S, and the operator first teaches the robot three-dimensional coordinates for pressing the switch α among the switches α, β, and γ.

このために、操作者は、画像処理用PC209に接続されたマウスやタッチパネルなどのユーザ入力装置(図示せず)を用いて、撮像画像上でのスイッチαの位置をティーチング位置として指定する(図5の×印)。   For this purpose, the operator designates the position of the switch α on the captured image as a teaching position by using a user input device (not shown) such as a mouse or a touch panel connected to the image processing PC 209 (see FIG. 5 x).

次いで、画像処理用PC209は、撮像画像上での位置Sから指定された位置(×)までの移動ベクトルVを求める。そして、この撮像画像上での移動ベクトルを先に求めた変換ベクトルを用いてロボットのXY平面上での移動ベクトルに変換し、ロボットコントローラ210へ送る。 Next, the image processing PC 209 obtains a movement vector V D from the position S on the captured image to the designated position (×). Then, the movement vector on the captured image is converted into a movement vector on the XY plane of the robot using the previously obtained conversion vector, and sent to the robot controller 210.

ロボットコントローラ201は、ロボットのXY平面上での移動ベクトルを受け取ると、この移動ベクトルに従った移動が実現されるように、第一のキャリッジ203及び第二のキャリッジ204をそれぞれ移動させる。   When the robot controller 201 receives the movement vector of the robot on the XY plane, the robot controller 201 moves the first carriage 203 and the second carriage 204 so that the movement according to the movement vector is realized.

移動が完了すると、画像処理用PC209は、撮像画像上でポインタとユーザ指定の点(×)とが一致しているかを判定する。操作アーム205先端の大きさやスイッチの面積を考慮して、多少のずれは許容される。   When the movement is completed, the image processing PC 209 determines whether or not the pointer matches the point (×) designated by the user on the captured image. Considering the size of the tip of the operation arm 205 and the area of the switch, some deviation is allowed.

許容できないほどずれていれば、すなわち、このまま操作サーム205をインパネP方向に伸ばしてもユーザ指定のスイッチを押すことができないと判断された場合、画像処理用PC209は、ロボットコントローラ210のロボット201のXY位置の修正を要求する。ロボットコントローラ210は、要求された補正量・補正方向を学習していくことが好ましい。   If it is determined that the user-specified switch cannot be pressed even if the operation therm 205 is extended in the instrument panel P direction as it is, the image processing PC 209 determines that the robot 201 of the robot controller 210 Request correction of XY position. The robot controller 210 preferably learns the requested correction amount and correction direction.

撮像画像上でポインタとユーザ指定点との一致が確認されると、当該XY位置がそのスイッチを押す際のロボット201のXY方向位置として決定され、当該スイッチ位置と関連付けて記憶される。   When the match between the pointer and the user designated point is confirmed on the captured image, the XY position is determined as the XY direction position of the robot 201 when the switch is pressed, and is stored in association with the switch position.

次いで、ロボットコントローラ210は、圧力センサ207の出力を監視しながら、操作アーム205をインパネP方向に伸ばす。検出された圧力が所定の閾値を越えたとき、ロボットコントローラ210は、人間がスイッチを軽く押したときと同様の押圧が実現されたものと判断し、そのときのZ軸方向位置を当該スイッチを押す際のZ方向位置として決定し、当該スイッチ位置と関連付けて記憶する。   Next, the robot controller 210 extends the operation arm 205 in the instrument panel P direction while monitoring the output of the pressure sensor 207. When the detected pressure exceeds a predetermined threshold, the robot controller 210 determines that the same pressure as when a human lightly pressed the switch is realized, and determines the Z-axis direction position at that time using the switch. It is determined as the Z-direction position at the time of pressing, and is stored in association with the switch position.

このようにして、操作者が画像処理用PC209のディスプレイ上でティーチングしたいスイッチ位置(この時点では2次元位置)を指定するだけで、自動的にそのスイッチを押すための3次元座標をロボットコントローラ210に憶え込ませることができる。   In this way, the operator simply designates the switch position (two-dimensional position at this time) to be taught on the display of the image processing PC 209, and the three-dimensional coordinates for automatically pressing the switch are specified by the robot controller 210. Can be remembered.

したがって、以降、そのスイッチを検査のために押すには、そのスイッチ位置を指定するだけで、ロボット201が自動的にそのスイッチを押す3次元座標へ移動することになる(S304)。   Therefore, thereafter, in order to push the switch for inspection, only the switch position is designated, and the robot 201 automatically moves to the three-dimensional coordinates for pushing the switch (S304).

このように、本実施例によれば、1台のカメラで自動ティーチングを実現することができる。自動ティーチングにより、操作者は、撮像画像上で押させたいスイッチの2次元座標を指定するだけで、ロボットが自律的にそのスイッチを押すための3次元座標を取得することができ、操作者の手間が大幅に削減されると共に、ティーチングに要する処理時間が大幅に短縮される。また、自動化により再現性も向上する。   Thus, according to the present embodiment, automatic teaching can be realized with one camera. With automatic teaching, the operator can acquire the three-dimensional coordinates for the robot to autonomously press the switch just by specifying the two-dimensional coordinates of the switch to be pressed on the captured image. The labor is greatly reduced and the processing time required for teaching is greatly reduced. In addition, automation improves reproducibility.

本発明は、検査目的等のために対象物を自律的に押圧する直交座標ロボットの制御装置に利用できる。対象物は例えば押しボタン式スイッチなど任意のものでよく、その機能やサイズ等は問わない。   The present invention can be used in a control device for a Cartesian coordinate robot that autonomously presses an object for inspection purposes or the like. The object may be any object such as a push button switch, and its function and size are not limited.

従来の直交座標ロボット及びカメラを2台利用した制御装置の一例を示す概略構成図である。It is a schematic block diagram which shows an example of the control apparatus using the conventional rectangular coordinate robot and two cameras. 本発明の一実施例に係る直交座標ロボット制御装置の概略構成図である。1 is a schematic configuration diagram of an orthogonal coordinate robot control device according to an embodiment of the present invention. 本発明の一実施例に係る直交座標ロボット制御装置を用いた自動ティーチング及び自動検査の概略的な流れを示すフローチャートである。It is a flowchart which shows the general | schematic flow of the automatic teaching and the automatic test | inspection using the rectangular coordinate robot control apparatus based on one Example of this invention. 撮像画像上でのポインタ移動ベクトルを示す図である。It is a figure which shows the pointer movement vector on a captured image. 所望点までの撮像画像上での移動ベクトルを示す図である。It is a figure which shows the movement vector on the captured image to a desired point.

符号の説明Explanation of symbols

200 ロボット制御装置
201 ロボット
202 X軸フレーム
203 X方向キャリッジ
204 Y方向キャリッジ
205 操作アーム
206 圧力センサ
207 レーザポインタ
208 カメラ
209 画像処理用PC
210 ロボットコントローラ
DESCRIPTION OF SYMBOLS 200 Robot control apparatus 201 Robot 202 X-axis frame 203 X direction carriage 204 Y direction carriage 205 Operation arm 206 Pressure sensor 207 Laser pointer 208 Camera 209 Image processing PC
210 Robot controller

Claims (1)

直交する3軸(X、Y、Z軸)に沿って移動可能な直交座標ロボットを制御するロボット制御装置であって、
前記ロボットが押圧する操作面を撮像する撮像手段と、
前記操作面に平行なXY平面上を前記ロボットと共に移動し、該ロボットのZ方向延長線と前記操作面との交点にポインタを照射する照射手段と、
前記ロボットの前記操作面に対向する面に設けられ、該ロボットが前記操作面を押圧する圧力を検出する圧力検出手段とを有し、
前記ロボットのXY平面上での移動ベクトルを前記撮像手段により撮像された画像上での前記ポインタの移動ベクトルに変換するための変換ベクトルを算出し、
前記撮像手段により撮像された画像上での前記ポインタの現在位置から操作者により指定された前記操作面上の所望点までの移動ベクトルを前記変換ベクトルを用いて前記ロボットのXY平面上での移動ベクトルに変換し、この求められた移動ベクトルに従って前記ロボットをXY平面上で移動させ、
移動後、前記撮像手段により撮像された画像上で前記ポインタが前記所望点から所定の範囲内に位置するか否かを判断し、位置していなければ前記ロボットのXY平面上での位置を補正し、このXY平面上でのロボット位置を前記所望点と関連付けて記憶し、
XY方向位置決定後、前記ロボットをZ方向に移動させ、前記圧力検出手段により検出された圧力が所定の閾値を越えたときのZ方向位置を前記所望点と関連付けて記憶する、ことを特徴とするロボット制御装置。
A robot control device that controls a Cartesian coordinate robot movable along three orthogonal axes (X, Y, and Z axes),
Imaging means for imaging an operation surface pressed by the robot;
An irradiation unit that moves together with the robot on an XY plane parallel to the operation surface, and irradiates a pointer to an intersection between the Z-direction extension line of the robot and the operation surface;
Pressure detecting means provided on a surface facing the operation surface of the robot and detecting a pressure with which the robot presses the operation surface;
Calculating a conversion vector for converting a movement vector on the XY plane of the robot into a movement vector of the pointer on the image captured by the imaging unit;
Movement of the robot on the XY plane by using the transformation vector as a movement vector from the current position of the pointer on the image picked up by the image pickup means to a desired point on the operation surface designated by the operator Converted into a vector, and moves the robot on the XY plane according to the obtained movement vector,
After the movement, it is determined whether or not the pointer is located within a predetermined range from the desired point on the image picked up by the image pickup means, and if not, the position of the robot on the XY plane is corrected. And storing the robot position on the XY plane in association with the desired point,
After determining the XY direction position, the robot is moved in the Z direction, and the Z direction position when the pressure detected by the pressure detection means exceeds a predetermined threshold is stored in association with the desired point. Robot control device.
JP2005123708A 2005-04-21 2005-04-21 Robot controller Pending JP2006302019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005123708A JP2006302019A (en) 2005-04-21 2005-04-21 Robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123708A JP2006302019A (en) 2005-04-21 2005-04-21 Robot controller

Publications (1)

Publication Number Publication Date
JP2006302019A true JP2006302019A (en) 2006-11-02

Family

ID=37470223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123708A Pending JP2006302019A (en) 2005-04-21 2005-04-21 Robot controller

Country Status (1)

Country Link
JP (1) JP2006302019A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107430389A (en) * 2015-02-24 2017-12-01 Sri国际公司 The skilful type system user interface of oversoul
CN108621133A (en) * 2016-10-12 2018-10-09 常州信息职业技术学院 The teaching method of laser opposite-radiation industry mechanical arm work point coordinates teaching display-tool with sticking plastic
CN113282339A (en) * 2021-04-30 2021-08-20 青岛海尔科技有限公司 Control instruction generation method and device, storage medium and electronic device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107430389A (en) * 2015-02-24 2017-12-01 Sri国际公司 The skilful type system user interface of oversoul
CN107430389B (en) * 2015-02-24 2020-11-06 Sri国际公司 Ultra smart system user interface
CN108621133A (en) * 2016-10-12 2018-10-09 常州信息职业技术学院 The teaching method of laser opposite-radiation industry mechanical arm work point coordinates teaching display-tool with sticking plastic
CN113282339A (en) * 2021-04-30 2021-08-20 青岛海尔科技有限公司 Control instruction generation method and device, storage medium and electronic device

Similar Documents

Publication Publication Date Title
JP7490349B2 (en) Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium
JP6457469B2 (en) Mobile robot interference area setting device
US10656618B2 (en) Numerical controller
JP4191080B2 (en) Measuring device
JP4021413B2 (en) Measuring device
JP4844453B2 (en) Robot teaching apparatus and teaching method
JP3904605B2 (en) Compound sensor robot system
US7321841B2 (en) Three-dimensional shape measuring method and measuring apparatus thereof
US20180106605A1 (en) Imaging device and imaging method
US12077414B2 (en) Work support device and work support method
JP2020142326A (en) Robot system
WO2023102647A1 (en) Method for automated 3d part localization and adjustment of robot end-effectors
JP2007309761A (en) Switch operation tester in vehicle interior, and switch operation test system and method
JP2006302019A (en) Robot controller
JPH09225872A (en) Robot teaching device
JP2022025892A (en) Teaching method and robot system
JP3215616B2 (en) Robot guidance method and guidance system
CN115493489A (en) Method for detecting relevant surface of measured object
JP2010149225A (en) Robot system, device and method for controlling robot system
JP4687853B2 (en) X-ray fluoroscopic equipment
JP5577508B2 (en) Image measuring apparatus and drive control method thereof
WO2024009484A1 (en) Control device and control method
JP7349542B1 (en) Welding robot system, welding method and program
WO2023170764A1 (en) Device for generating search program for robot
CN115493488A (en) System for detecting relevant surface of measured object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091117