JP2001191285A - Robot system and its usage - Google Patents

Robot system and its usage

Info

Publication number
JP2001191285A
JP2001191285A JP37724999A JP37724999A JP2001191285A JP 2001191285 A JP2001191285 A JP 2001191285A JP 37724999 A JP37724999 A JP 37724999A JP 37724999 A JP37724999 A JP 37724999A JP 2001191285 A JP2001191285 A JP 2001191285A
Authority
JP
Japan
Prior art keywords
image
robot
robot system
image processing
curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP37724999A
Other languages
Japanese (ja)
Other versions
JP3803755B2 (en
Inventor
Kazuhiko Onoe
一彦 尾上
Tetsuya Sugimasa
哲也 杉正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP37724999A priority Critical patent/JP3803755B2/en
Publication of JP2001191285A publication Critical patent/JP2001191285A/en
Application granted granted Critical
Publication of JP3803755B2 publication Critical patent/JP3803755B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system provided with simplified device constitution for all equipment of an image processing function and to provide its usage. SOLUTION: The robot system is provided with a photographing means 20 mounted in a proper position in a robot body 10, an image display means 30, an instructing means 40, and a robot controller 50 with an image processing function. The image display means 30 and the instructing means 40 are integrated together, and an image taken by the photographing means 20 is displayed in the image display means 30 via the robot controller 50 with an image processing function. Using the photographed image, a three-dimensional position of a characteristic point in a workpiece W is measured, for example.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボットシステムお
よびその利用方法に関する。さらに詳しくは、簡素な構
成にもかかわらず画像処理機能を有してなるロボットシ
ステムおよびその利用方法に関する。
[0001] The present invention relates to a robot system and a method of using the same. More specifically, the present invention relates to a robot system having an image processing function despite its simple configuration and a method of using the same.

【0002】[0002]

【従来の技術】産業用ロボット(以下、単にロボットと
いう)の適用において画像処理の需要が高まっており、
今後、ロボットの半数近くに画像処理装置が搭載される
と予測されている。そのため、ロボットに画像処理装置
を搭載することに関して種々の提案がなされている。
2. Description of the Related Art The demand for image processing in the application of industrial robots (hereinafter simply referred to as robots) is increasing.
It is predicted that an image processing device will be mounted on nearly half of the robots in the future. Therefore, various proposals have been made regarding mounting an image processing device on a robot.

【0003】例えば、特開平7−342818号公報に
は、ロボットコントローラの表示装置(ティーチペンダ
ント)を画像処理装置の表示器として使用することがで
きる視覚センサ付ロボット装置が提案されている。
For example, Japanese Patent Application Laid-Open No. 7-342818 proposes a robot device with a visual sensor that can use a display device (teach pendant) of a robot controller as a display device of an image processing device.

【0004】特開昭59−95405号公報には、ワー
ク識別データと焦点位置との対応関係をあらかじめメモ
リに保存し、ワーク識別データを受け取った場合に、対
応する焦点位置へ焦点を設定する視覚センサ付工業用ロ
ボットにおける焦点調整方式が提案されている。
Japanese Unexamined Patent Publication No. Sho 59-95405 discloses that a correspondence between work identification data and a focus position is stored in a memory in advance, and when work identification data is received, a focus is set to a corresponding focus position. A focus adjustment method for an industrial robot with a sensor has been proposed.

【0005】特開平4−352204号公報および特開
平4−352205号公報には、画像処理プログラムと
把持動作プログラムとを一つのユーザプログラムに記述
し、ついでこのプログラムを解釈して画像処理部および
把持部に共有メモリ経由で命令を伝送する視覚を用いた
自動把持装置の制御方法が提案されている。
In Japanese Patent Application Laid-Open Nos. 4-352204 and 4-352205, an image processing program and a gripping operation program are described in one user program. A method of controlling an automatic gripping device using vision, which transmits a command to a unit via a shared memory, has been proposed.

【0006】特開平11−134484号公報には、C
PUとは別に積和演算を行う画像処理部を設け、カメラ
からの画像をDMAを用いて画像処理部へデータを伝送
する画像処理装置が提案されている。
[0006] JP-A-11-134484 discloses that C
There has been proposed an image processing apparatus which is provided with an image processing unit for performing a sum-of-products operation separately from the PU, and transmits data from a camera to the image processing unit using DMA.

【0007】特開昭61−279480号公報には、1
台のカメラにより撮像された画像をライトペン等でポイ
ンティングすることであらかじめ判明している平面上の
位置を入力する方法と、異なる方向に設置された2台の
カメラの画像をポイントすることで3次元位置を入力す
る方法に関するロボットの作業点教示方法が提案されて
いる。
[0007] JP-A-61-279480 discloses that
A method of inputting a known position on a plane by pointing an image captured by two cameras with a light pen or the like, and a method of pointing an image of two cameras installed in different directions by three points. A method for teaching a working point of a robot regarding a method of inputting a dimensional position has been proposed.

【0008】特開平8−238341号公報には、カメ
ラにより撮像された画像上でマウス等によりワークの輪
郭をなぞることにより、画像上で2次元位置をポインテ
ィングし、ついで画像上でポインティングされた2次元
位置をCADデータを用いて3次元位置に変換するロボ
ットのオフライン教示装置が提案されている。
Japanese Patent Application Laid-Open No. 8-238341 discloses that a two-dimensional position is pointed on an image by tracing the outline of a workpiece with a mouse or the like on an image picked up by a camera, and then pointing on the image. An offline teaching device for a robot that converts a dimensional position into a three-dimensional position using CAD data has been proposed.

【0009】しかしながら、特開平7−342818号
公報の提案においては、画像の伝送方式、ロボット制御
装置側および表示装置側の画像処理方式が不明であるの
で、そのまま汎用化するのが困難であるという問題があ
る。
However, in the proposal of Japanese Patent Application Laid-Open No. 7-342818, since the image transmission method and the image processing methods on the robot control device side and the display device side are not known, it is difficult to generalize the system as it is. There's a problem.

【0010】特開昭59−95405号公報の提案にお
いては、あらかじめワーク識別データを設定する必要が
あるとともに、焦点の設定しかできないので、適用範囲
が狭いという問題がある。
In the proposal of Japanese Patent Application Laid-Open No. 59-95405, it is necessary to set work identification data in advance, and since only the focus can be set, there is a problem that the applicable range is narrow.

【0011】特開平4−352204号公報および特開
平4−352205号公報の提案においては、画像処理
部に専用のCPUおよびメモリを有しているので、装置
が大型化するという問題がある。
In the proposals of JP-A-4-352204 and JP-A-4-352205, since the image processing section has a dedicated CPU and memory, there is a problem that the size of the apparatus is increased.

【0012】特開平11−134484号公報の提案に
おいては、画像処理部が別個に設けられているので、前
記と同様に装置が大型化するという問題がある。
In the proposal of Japanese Patent Application Laid-Open No. 11-134484, since the image processing section is provided separately, there is a problem that the size of the apparatus is increased as described above.

【0013】特開昭61−279480号公報の提案に
おいては、複数のカメラが必要となるため、構成が煩雑
化するという問題がある。
In the proposal of Japanese Patent Application Laid-Open No. 61-279480, there is a problem that the configuration is complicated because a plurality of cameras are required.

【0014】特開平8−238341号公報の提案にお
いては、CADデータを利用していため、装置が大型化
するという問題がある。
In the proposal of Japanese Patent Application Laid-Open No. 8-238341, since the CAD data is used, there is a problem that the apparatus becomes large.

【0015】[0015]

【発明が解決しようとする課題】本発明はかかる従来技
術の課題に鑑みなされたものであって、画像処理機能を
有しながら装置構成が簡素化されてなるロボットシステ
ムおよびその利用方法を提供することを目的としてい
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems in the prior art, and provides a robot system having an image processing function and a simplified apparatus configuration, and a method of using the same. It is intended to be.

【0016】[0016]

【課題を解決するための手段】本発明のロボットシステ
ムの第1形態は、ロボット本体の適宜位置に装着された
撮像手段と、画像表示手段と、画像処理機能付ロボット
コントローラとを備え、前記撮像手段により撮像された
画像が前記画像処理機能付ロボットコントローラを介し
て前記画像表示手段に表示されることを特徴とする。
According to a first aspect of the present invention, there is provided a robot system comprising: an imaging unit mounted at an appropriate position on a robot body; an image display unit; and a robot controller having an image processing function. The image picked up by the means is displayed on the image display means via the robot controller with the image processing function.

【0017】本発明のロボットシステムの第2形態は、
ロボット本体の適宜位置に装着された撮像手段と、画像
表示手段と、教示手段と、画像処理機能付ロボットコン
トローラとを備え、前記画像表示手段と前記教示手段と
が一体化され、前記撮像手段により撮像された画像が前
記画像処理機能付ロボットコントローラを介して前記画
像表示手段に表示されることを特徴とする。
A second embodiment of the robot system according to the present invention comprises:
An image pickup unit mounted at an appropriate position on the robot body, an image display unit, a teaching unit, and a robot controller with an image processing function are provided, and the image display unit and the teaching unit are integrated, and the image pickup unit A captured image is displayed on the image display means via the robot controller with the image processing function.

【0018】本発明のロボットシステムにおいては、ロ
ボット本体を制御する演算処理装置と、画像処理をする
演算処理装置とが兼用されているのが好ましい。
In the robot system of the present invention, it is preferable that the arithmetic processing device for controlling the robot body and the arithmetic processing device for performing image processing are also used.

【0019】また、本発明のロボットシステムにおいて
は、アーム制御と画像処理とが並列処理されるのが好ま
しく、その場合画像処理の優先順位が低くされているの
がさらに好ましい。
In the robot system of the present invention, it is preferable that the arm control and the image processing are performed in parallel, and in that case, it is more preferable that the priority of the image processing is lowered.

【0020】さらに、本発明のロボットシステムにおい
ては、画像表示手段が教示機能を有してなるのが好まし
い。
Further, in the robot system according to the present invention, it is preferable that the image display means has a teaching function.

【0021】さらにまた、本発明のロボットシステムに
おいては、教示手段が撮像および画像処理に関する教示
もなし得るようにされてなるのが好ましい。
Further, in the robot system according to the present invention, it is preferable that the teaching means is capable of teaching about imaging and image processing.

【0022】さらにまた、本発明のロボットシステムに
おいては、教示されたデータが保存できるようにされて
なるのが好ましい。
Further, in the robot system of the present invention, it is preferable that the taught data can be stored.

【0023】さらにまた、本発明のロボットシステムに
おいては、教示手段が、該教示手段により撮像および画
像処理に関する教示を行っている際に、ロボット本体も
動作できるようにされてなるのが好ましい。
Further, in the robot system according to the present invention, it is preferable that the teaching unit is configured to be able to operate the robot body when the teaching unit is teaching the imaging and the image processing.

【0024】さらにまた、本発明のロボットシステムに
おいては、撮像手段により撮像されたマークにより、ア
ームエンコーダのキャリブレーションがなし得るように
されていたり、あるいはアームエンコーダの異状が検出
できるようにされていたりするのが好ましい。
Further, in the robot system according to the present invention, the calibration of the arm encoder can be performed by the mark imaged by the imaging means, or the abnormality of the arm encoder can be detected. Is preferred.

【0025】一方、本発明のロボットシステムの利用方
法の第1形態は、ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、前記
ロボットシステムを特徴点3次元位置計測モードに設定
する手順と、撮像手段によりワークを撮像してその画像
を画像表示手段に表示する手順と、表示画像上で特徴点
を指定する手順と、指定された特徴点について特徴点3
次元位置計測処理する手順とを含んでなることを特徴と
する。
On the other hand, a first mode of use of the robot system according to the present invention comprises a single image pickup means mounted at an appropriate position on the robot body, an image display means capable of specifying a position on a display screen, A method for using a robot system comprising a robot controller with a processing function, comprising: a procedure for setting the robot system to a feature point three-dimensional position measurement mode; , A procedure for designating a feature point on the display image, and a feature point 3 for the designated feature point.
And a procedure for performing a dimensional position measurement process.

【0026】本発明のロボットシステムの利用方法の第
2形態は、ロボット本体の適宜位置に装着された単一の
撮像手段と、表示画面上で位置指定が可能な画像表示手
段と、画像処理機能付ロボットコントローラとを備えて
なるロボットシステムの利用方法であって、前記ロボッ
トシステムを曲線3次元位置計測モードに設定する手順
と、撮像手段によりワークを撮像してその画像を画像表
示手段に表示する手順と、表示画像上で計測範囲を指定
する手順と、指定された計測範囲について曲線3次元位
置計測処理する手順とを含んでなることを特徴とする。
A second mode of use of the robot system according to the present invention comprises a single image pickup means mounted at an appropriate position on the robot body, an image display means capable of specifying a position on a display screen, and an image processing function. A method for using a robot system comprising a robot controller with a controller, the procedure for setting the robot system to a curved three-dimensional position measurement mode, and imaging of a workpiece by an imaging unit and displaying the image on an image display unit. It is characterized by comprising a procedure, a procedure of specifying a measurement range on a display image, and a procedure of performing a curve three-dimensional position measurement process on the specified measurement range.

【0027】本発明のロボットシステムの利用方法の第
3形態は、ロボット本体の適宜位置に装着された単一の
撮像手段と、表示画面上で位置指定が可能な画像表示手
段と、画像処理機能付ロボットコントローラとを備えて
なるロボットシステムの利用方法であって、前記ロボッ
トシステムをツール角度算出モードに設定する手順と、
撮像手段によりワークを撮像してその画像を画像表示手
段に表示する手順と、表示画像上でツール角度を指定す
る範囲を設定する手順と、設定された範囲について曲線
3次元位置計測処理する手順と、3次元位置が計測され
た曲線に対してツール角度算出処理する手順とを含んで
なることを特徴とする。
According to a third mode of use of the robot system of the present invention, there is provided a single imaging means mounted at an appropriate position on the robot body, an image display means capable of specifying a position on a display screen, and an image processing function. A method of using a robot system comprising a robot controller with a controller, the procedure of setting the robot system to a tool angle calculation mode,
A procedure of imaging the workpiece by the imaging unit and displaying the image on the image display unit, a procedure of setting a range for specifying a tool angle on the display image, and a procedure of performing a curve three-dimensional position measurement process on the set range. And performing a tool angle calculation process on the curve whose three-dimensional position has been measured.

【0028】ここで、前記曲線3次元位置計測処理は、
例えば2地点基準曲線3次元位置計測処理、あるいは多
地点基準曲線3次元位置計測処理を用いてなされる。
Here, the curve three-dimensional position measurement processing is as follows.
For example, this is performed using a two-point reference curve three-dimensional position measurement process or a multi-point reference curve three-dimensional position measurement process.

【0029】本発明のロボットシステムの利用方法の第
4形態は、ロボット本体の適宜位置に装着された単一の
撮像手段と、表示画面上で位置指定が可能な画像表示手
段と、画像処理機能付ロボットコントローラとを備えて
なるロボットシステムの利用方法であって、前記ロボッ
トシステムをツール経路作成モードに設定する手順と、
ワーク表面上にツール移動経路に沿って所定間隔でマー
クを形成する手順と、前記マークを撮像する手順と、撮
像された画像に対してツール経路作成処理する手順とを
含んでなることを特徴とする。
A fourth mode of use of the robot system according to the present invention is as follows: a single imaging means mounted at an appropriate position on the robot body; an image display means capable of specifying a position on a display screen; A method of using a robot system comprising a robot controller with a controller, wherein the robot system is set to a tool path creation mode,
A step of forming marks at predetermined intervals along a tool movement path on a work surface, a step of capturing the mark, and a step of performing a tool path creation process on the captured image. I do.

【0030】本発明のロボットシステムの利用方法の第
5形態は、ロボット本体の適宜位置に装着された単一の
撮像手段と、表示画面上で位置指定が可能な画像表示手
段と、画像処理機能付ロボットコントローラとを備えて
なるロボットシステムの利用方法であって、前記ロボッ
トシステムをツール経路作成モードに設定する手順と、
ワーク表面上にツール移動経路に沿ってラインを形成す
る手順と、前記ラインを撮像する手順と、撮像された画
像に対してツール経路作成処理する手順とを含んでなる
ことを特徴とする。
A fifth mode of use of the robot system according to the present invention is as follows: a single image pickup means mounted at an appropriate position on the robot main body; an image display means capable of specifying a position on a display screen; A method of using a robot system comprising a robot controller with a controller, wherein the robot system is set to a tool path creation mode,
The method is characterized by including a procedure of forming a line on a work surface along a tool movement path, a procedure of imaging the line, and a procedure of performing a tool path creation process on the captured image.

【0031】[0031]

【作用】本発明のロボットシステムは、前記の如く構成
されているので、画像処理機能を備えているにもかかわ
らず、ロボットシステムの構成が簡素化される。
Since the robot system of the present invention is configured as described above, the configuration of the robot system is simplified despite having an image processing function.

【0032】[0032]

【発明の実施の形態】以下、添付図面を参照しながら本
発明を実施形態に基づいて説明するが、本発明はかかる
実施形態のみに限定されるものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described based on embodiments with reference to the attached drawings, but the present invention is not limited to only such embodiments.

【0033】本発明の一実施形態に係るロボットシステ
ムを図1および図2にブロック図で示し、このロボット
システムSは、ロボット本体10と、撮像手段20と、
画像表示手段30と、教示手段40と、画像処理機能付
ロボットコントローラ50と、表示手段30および教示
手段40を一体化してなるティーチペンダント60とを
主要構成要素として備えてなる。
FIG. 1 and FIG. 2 are block diagrams showing a robot system according to an embodiment of the present invention. The robot system S comprises a robot main body 10, an imaging means 20,
The image display unit 30, the teaching unit 40, the robot controller with image processing function 50, and the teach pendant 60 in which the display unit 30 and the teaching unit 40 are integrated are provided as main components.

【0034】ロボット本体10は、例えば多関節ロボッ
トとされる。
The robot body 10 is, for example, an articulated robot.

【0035】撮像手段20は、例えばIEEE1394
やUSBなどのシリアル通信インターフェースを有する
デジタルCCDカメラとされて、ロボットアーム(以
下、単にアームという)の適宜位置に装着される。その
場合、アームの移動によりワークまでの位置が変化する
ことが考えられるので、オートフォーカス、オートアイ
リス機能を有するものとされてもよい。但し、設定に時
間を要するようなときには、外部からマニュアル操作で
フォーカスやアイリスが設定できるようにされているの
が好ましい。
The image pickup means 20 is, for example, an IEEE1394
And a digital CCD camera having a serial communication interface such as USB or the like, and is mounted at an appropriate position on a robot arm (hereinafter simply referred to as an arm). In this case, since the position of the workpiece may change due to the movement of the arm, the arm may have an auto focus and an auto iris function. However, when time is required for the setting, it is preferable that the focus and iris can be set manually from the outside.

【0036】しかして、この撮像手段(以下、単にカメ
ラということもある)20により撮像された画像データ
は、所要数のデータブロックに分割された後、画像処理
機能付ロボットコントローラ50からの送信開始信号に
応じて画像処理機能付ロボットコントローラ50に送信
される。
The image data picked up by the image pick-up means (hereinafter, also simply referred to as a camera) 20 is divided into a required number of data blocks and then transmitted from the robot controller 50 having the image processing function. The signal is transmitted to the robot controller with image processing function 50 according to the signal.

【0037】画像表示手段30と教示手段40とは、図
3に示すように、例えば液晶ディスプレイ付ティーチペ
ンダント(以下、単にティーチペンダントという)61
に一体化されている。
As shown in FIG. 3, the image display means 30 and the teaching means 40 are, for example, a teach pendant with a liquid crystal display (hereinafter simply referred to as a teach pendant) 61.
It is integrated into.

【0038】画像表示手段は30、画像処理機能付ロボ
ットコントローラ50から伝送されてくる画像信号を受
信する画像受信部31と、この画像受信部31により受
信された画像データを表示する液晶ディスプレイ32と
を備えてなるものとされる。また、この画像表示手段3
0は、ポインティング・デバイス等により表示画像上に
おいて点の指定ができるようにもされている。なお、画
像受信部31および液晶ディスプレイ32は、従来より
画像表示装置に用いられている公知のものと同様とされ
ているのでその構成の詳細な説明は省略する。
The image display means 30 includes an image receiving section 31 for receiving an image signal transmitted from the robot controller 50 having an image processing function, and a liquid crystal display 32 for displaying image data received by the image receiving section 31. It is assumed to be provided with. The image display means 3
0 indicates that a point can be specified on the display image by a pointing device or the like. Note that the image receiving unit 31 and the liquid crystal display 32 are the same as the well-known ones conventionally used for the image display device, and therefore detailed description of the configuration is omitted.

【0039】教示手段40は、キー操作により教示デー
タを入力するキー入力装置41と、液晶ディスプレイ3
2により表示された画像をタッチすることにより教示デ
ータを入力するタッチパネルインターフェース42と、
前記両者を制御するとともにそれらからの信号を画像処
理機能付ロボットコントローラ50に送出するCPU
(演算処理装置)43と、画像処理機能付ロボットコン
トローラ50との信号の遣り取りをするシリアルインタ
ーフェース44とを備えてなるものとされる。ここで、
タッチパネルインターフェース42は、細かい位置指定
が必要であるところから、アナログ式とされるのが好ま
しい。なお、画素程度の精度で位置指定がなし得るポイ
ンタが設けられている場合には、デジタル式とされても
よい。
The teaching means 40 includes a key input device 41 for inputting teaching data by key operation, and a liquid crystal display 3.
A touch panel interface 42 for inputting teaching data by touching an image displayed by the touch panel 2;
CPU for controlling both of them and sending signals from them to a robot controller 50 with an image processing function
An arithmetic processing unit 43 and a serial interface 44 for exchanging signals with the robot controller 50 having an image processing function are provided. here,
The touch panel interface 42 is preferably of an analog type because it requires fine position designation. In the case where a pointer capable of specifying a position with an accuracy of about a pixel is provided, the pointer may be digital.

【0040】また、この教示手段40は、切替スイッチ
によりアームの動作に関する教示と、撮像条件および画
像処理に関する教示との双方の教示がなし得るようにさ
れている。つまり、アーム教示モードと画像教示モード
との切替がなし得るようにされている。ただし、画像教
示モードにおいてもアームを動作させる必要があるとこ
ろから、例えば撮像手段20の位置を変更する必要があ
るところから、画像教示モードにおいても教示手段40
によりアームの動作ができるようにされている。かかる
構成は、例えば画像教示モードにおいては付加的に撮像
条件および画像処理に関する教示に使用するキーなどが
操作できるようにすることにより実現される。
The teaching means 40 is capable of teaching both of the teaching of the operation of the arm and the teaching of the imaging conditions and image processing by the changeover switch. That is, switching between the arm teaching mode and the image teaching mode can be performed. However, even in the image teaching mode, since the arm needs to be operated, for example, the position of the imaging unit 20 needs to be changed, the teaching unit 40 is also used in the image teaching mode.
Allows the arm to operate. Such a configuration is realized, for example, by enabling a key or the like used for teaching concerning imaging conditions and image processing in the image teaching mode.

【0041】なお、この教示手段40による画像処理関
連の教示については後述するが、アーム自体の教示につ
いては従来と同様であるので、その説明は省略する。
Although the teaching relating to the image processing by the teaching means 40 will be described later, the teaching of the arm itself is the same as in the prior art, so that the description is omitted.

【0042】画像処理機能付ロボットコントローラ50
は、CPU(演算処理装置)からなる演算処理部51
と、撮像手段20からのデジタル画像データを受信する
画像受信部52と、ロムやラムなどからなる記憶部53
と、ロボットの各軸を駆動するサーボモータを制御する
サーボ制御部54と、画像表示手段制御部55と、教示
手段接続部56と、プリンタや外部記憶装置などの外部
機器との信号の遣り取りを行う外部機器接続部57と、
前記各部の信号の遣り取りに供するデータバスとを備え
てなるものとされる。
Robot controller 50 with image processing function
Is an arithmetic processing unit 51 composed of a CPU (arithmetic processing device)
And an image receiving unit 52 that receives digital image data from the imaging unit 20, and a storage unit 53 that includes a ROM and a ram.
And a servo controller 54 for controlling a servomotor for driving each axis of the robot, an image display means controller 55, a teaching means connecting section 56, and exchange of signals with external devices such as a printer and an external storage device. An external device connection unit 57 for performing
A data bus for exchanging signals of the respective units.

【0043】演算処理部51を構成しているCPUは、
画像処理専用プロセッサを用いずに画像処理も行う必要
があるところから、SIMD機能を有するCPUとされ
る。かかる機能を有するCPUを用いることにより、6
4ビットのレジスタに1画素8ビットのデータ8個を記
憶部53の画像メモリから取り込むと同時に、基準値と
比較して2値化を行うことができる。また、8個の積和
演算を同時になし得るSIMD演算を適用できるので、
画像とマスクデータとの積を9個とって、その合計を算
出する必要がある3x3画素の画像フィルタリング演算
も比較的高速に処理できる。
The CPU constituting the arithmetic processing unit 51 includes:
Since it is necessary to perform image processing without using a processor dedicated to image processing, the CPU is assumed to have a SIMD function. By using a CPU having such a function, 6
Eight pieces of 8-bit data per pixel are taken into the 4-bit register from the image memory of the storage unit 53, and can be binarized by comparing with the reference value. In addition, since SIMD operation capable of simultaneously performing eight product-sum operations can be applied,
An image filtering operation of 3 × 3 pixels, which needs to calculate nine products of the image and the mask data and calculate the total, can be processed at a relatively high speed.

【0044】画像受信部52は、撮像手段20から送信
されてくるシリアルデータを受信できるインターフェー
ス52aと、受信したシリアルデータを一時的に保持す
るバッファ52bとを備えてなるものとされる(図4参
照)。例えば、撮像手段20が有するIEEE1394
やUSBなどのシリアル通信インターフェースに対応し
たインターフェースと、FIFOとを備えてなるものと
される。
The image receiving section 52 is provided with an interface 52a capable of receiving serial data transmitted from the imaging means 20, and a buffer 52b for temporarily storing the received serial data (FIG. 4). reference). For example, the IEEE 1394 included in the imaging unit 20
It is provided with an interface corresponding to a serial communication interface such as USB and USB, and a FIFO.

【0045】記憶部53を構成しているラムのうちの画
像メモリは、画像受信部52により受信された画像デー
タ(シリアルデータ)をCPUの指令に応じて迅速に記
憶する必要があるところから、例えばシンクロナスDR
AMとされる。
The image memory of the ram constituting the storage unit 53 needs to rapidly store the image data (serial data) received by the image receiving unit 52 in accordance with a command from the CPU. For example, synchronous DR
AM.

【0046】画像表示制御部55は、CPUからの指令
に応じて記憶部53の画像メモリから読み出された画像
データを一時的に記憶する出力用画像メモリ55aと、
出力用画像メモリ55aに記憶されている画像データを
読み出して出力するグラフィクコントローラ55bと、
グラフィクコントローラ55bからの信号を受信して画
像表示手段30に伝送する画像送信手段55cとを備え
てなるものとされる。なお、出力用画像メモリ55a、
グラフィクコントローラ55bおよび画像送信手段55
cは、従来より画像表示装置に用いられている公知のも
のと同様とされているので、その構成の詳細な説明は省
略する。
The image display control unit 55 includes an output image memory 55a for temporarily storing image data read from the image memory of the storage unit 53 in response to a command from the CPU;
A graphic controller 55b for reading and outputting image data stored in the output image memory 55a,
An image transmission unit 55c for receiving a signal from the graphic controller 55b and transmitting the signal to the image display unit 30 is provided. The output image memory 55a,
Graphic controller 55b and image transmission means 55
Since c is the same as a known one conventionally used in an image display device, a detailed description of its configuration is omitted.

【0047】教示手段接続部56は、例えば教示手段か
らの教示データ(シリアルデータ)を受信できるシリア
ルインターフェース(ティーチペンダントインターフェ
ース)とされる。そして、このシリアルインターフェー
スを介して画像処理機能付ロボットコントローラ50に
入力された教示データは、CPUの指令により記憶部5
3のラムの所定位置に格納される。
The teaching means connection section 56 is a serial interface (teach pendant interface) that can receive teaching data (serial data) from the teaching means, for example. The teaching data input to the robot controller with image processing function 50 via the serial interface is stored in the storage unit 5 according to a command from the CPU.
3 is stored at a predetermined position of the ram.

【0048】サーボ制御部54、外部機器接続部57
は、従来よりロボットコントローラに用いられている公
知のものと同様であるのでその構成の詳細な説明は省略
する。
Servo control unit 54, external device connection unit 57
Is the same as a known one conventionally used for a robot controller, and a detailed description of its configuration will be omitted.

【0049】次に、かかる構成とされているロボットシ
ステムSにおける処理について説明する。
Next, processing in the robot system S having such a configuration will be described.

【0050】ロボットのアームを動作させるための命令
文および画像処理に関する命令文のフォーマット等は、
ロボット制御に用いられているものに統一する。こうす
ることにより、命令文作成における煩雑さが解消され
る。そして、作成された命令文はアーム制御と画像処理
とは別プロセスとして処理される。つまり、並列処理さ
れる。この場合、画像処理のプロセスの優先順位は、ア
ーム制御のプロセスの優先順位より低くされて、アーム
の動作に支障がないようにされている。また、アーム制
御と画像処理とは別プロセスとして処理することによ
り、アームが停止している場合には、アーム制御のプロ
セスが短時間で終了するので、画像処理に多くの時間を
割当ることができる。ここで、これらの命令文はユーザ
も作成可能とされている。
The format of a command for operating the robot arm and a command for image processing are as follows.
Unify those used for robot control. By doing so, the complexity of creating a statement is eliminated. Then, the created statement is processed as a separate process from the arm control and the image processing. That is, they are processed in parallel. In this case, the priority of the image processing process is set lower than the priority of the arm control process so that the operation of the arm is not affected. Also, by processing the arm control and the image processing as separate processes, when the arm is stopped, the process of the arm control is completed in a short time, so that much time can be allocated to the image processing. it can. Here, these commands can be created by the user.

【0051】なお、これらの命令文の中には、アーム制
御の命令文と画像処理の命令文とが混在しているものが
あるが、そのような命令文は記憶部のロムの所定位置に
格納され、そして実行時にCPUに読み出されて、アー
ム制御に関する部分は別プロセスとして実行されている
アーム制御プログラムの所定位置に挿入される一方、画
像処理に関する部分は同様に別プロセスとして実行され
ている画像処理プログラムの所定位置に挿入される。
Some of these commands include a command for arm control and a command for image processing. Such a command is stored at a predetermined position in the ROM of the storage unit. It is stored and read out by the CPU at the time of execution, and the part related to arm control is inserted into a predetermined position of the arm control program that is executed as a separate process, while the part related to image processing is similarly executed as a separate process. Inserted in a predetermined position of the image processing program.

【0052】また、アーム動作命令や画像処理に関する
命令の中には処理完了までに長時間を要するものもある
ので、処理の開始を指示する命令文、処理の完了を調べ
る命令文、処理の完了まで待つ命令文、指示を行い動作
の完了まで待たせる命令文が用意されている。このよう
な命令文を用意することにより、画像処理中にアームを
動作させる命令文を実行させることが可能となる。
Some of the arm operation instructions and the instructions related to the image processing take a long time to complete the processing. Therefore, a command for instructing the start of the processing, a statement for checking the completion of the processing, a completion of the processing, There are prepared a command sentence to wait for a command, and a command sented to give an instruction and wait until the operation is completed. By preparing such a statement, it is possible to execute a statement for operating the arm during image processing.

【0053】次に、教示手段40による画像処理に関す
る教示について説明する。
Next, the teaching of the image processing by the teaching means 40 will be described.

【0054】切替スイッチを画像教示モードに切替え、
液晶ディスプレイ32に画像教示関連メニューを表示さ
せる。例えば、検出エリア設定メニュー、撮像手段20
の撮像条件設定メニュー、撮像画像処理条件設定メニュ
ーなどを表示させる。
The changeover switch is switched to the image teaching mode,
An image teaching related menu is displayed on the liquid crystal display 32. For example, the detection area setting menu, the imaging unit 20
, An imaging condition setting menu, a captured image processing condition setting menu, and the like are displayed.

【0055】そして、例えば撮像手段20の撮像条件設
定メニューにタッチすると、アイリス開度やフォーカス
位置の設定画面に切替えられる。それと同時に、液晶デ
ィスプレイ32の画面上にウインドウMが形成されて撮
像手段20からの画像が表示される。アームを適宜移動
させて撮像手段20の向きおよび位置を調整した後、ア
イリス開度および焦点位置を設定する。ついで、得られ
たアーム位置、アイリス開度、焦点位置などを画像処理
機能付ロボットコントローラ50の記憶部53のラムに
名前を付けて格納する。このようにすることにより、動
作時にその名前を呼び出して撮像手段20およびアーム
を前記条件に自動的に設定することができる。しかし
て、かかる一連の動作をワークWの所望範囲について行
うことにより、撮像手段20に関する教示が完了する。
Then, for example, when the imaging condition setting menu of the imaging means 20 is touched, the screen is switched to a screen for setting the iris opening and the focus position. At the same time, a window M is formed on the screen of the liquid crystal display 32, and an image from the imaging unit 20 is displayed. After adjusting the direction and the position of the imaging unit 20 by appropriately moving the arm, the iris opening and the focal position are set. Next, the obtained arm position, iris opening degree, focal position, and the like are stored in the ram of the storage unit 53 of the robot controller with image processing function 50 with a name. By doing so, the name can be called during operation, and the image pickup means 20 and the arm can be automatically set to the above conditions. Thus, by performing such a series of operations on the desired range of the work W, the teaching regarding the imaging unit 20 is completed.

【0056】次に、このロボットシステムSによるワー
クWの特徴点Pの3次元位置の計測について説明する。
なお、この計測は教示手段40を特徴点3次元位置計測
モードに設定してなされ、またこの計測は、アームに装
着されたカメラ20によりワークWの特徴点Pを位置を
変えて所定回撮像して得られた画像を画像処理するこ
と、つまり特徴点3次元位置計測処理することにより実
現される。以下、特徴点3次元位置計測処理について詳
細に説明する。
Next, measurement of the three-dimensional position of the characteristic point P of the work W by the robot system S will be described.
Note that this measurement is performed by setting the teaching means 40 to the feature point three-dimensional position measurement mode, and this measurement is performed by changing the position of the feature point P of the work W by the camera 20 mounted on the arm and imaging it a predetermined number of times. This is realized by performing image processing on the obtained image, that is, by performing feature point three-dimensional position measurement processing. Hereinafter, the feature point three-dimensional position measurement processing will be described in detail.

【0057】(1)教示手段40によりアームを操作し
てカメラ20の位置および向きを調節する(図5参照)
とともに、カメラ20のフォーカスおよびアイリスも調
整し、ワークWの特徴点Pを液晶ディスプレイ32のウ
インドウMの中心に鮮明に表示する。
(1) The position and orientation of the camera 20 are adjusted by operating the arm by the teaching means 40 (see FIG. 5).
At the same time, the focus and iris of the camera 20 are also adjusted, and the feature point P of the work W is clearly displayed at the center of the window M of the liquid crystal display 32.

【0058】(2)ウインドウMに表示されたワークW
の特徴点Pをポインティング・デバイスでポインティン
グする(図6参照)。
(2) Work W displayed in window M
Is pointed by a pointing device (see FIG. 6).

【0059】(3)ポインティングされた付近の画像G
から2本の直線を検出してその交点を検出する。このよ
うにするのは、ポインティング・デバイスでポインティ
ングされた点の位置を精度よく把握するためである。な
お、直線の検出は、例えば画像を微分した後にハフ変換
をすることにより容易になし得る。
(3) Image G near Pointing
, Two straight lines are detected, and their intersection is detected. The reason for this is to accurately grasp the position of the point pointed by the pointing device. The detection of a straight line can be easily performed by, for example, performing Hough transform after differentiating an image.

【0060】(4)検出された交点(特徴点)を画面上
に表示する。この位置に問題があれば、特徴点Pの位置
を再設定して(1)に戻る。この位置に問題がなければ
処理を続行する。
(4) The detected intersections (feature points) are displayed on the screen. If there is a problem with this position, the position of the feature point P is reset and the process returns to (1). If there is no problem in this position, the processing is continued.

【0061】(5)現状のカメラ20の位置および向き
と、交点の位置とから、カメラ20の主点と交点を通る
直線の方程式を算出して記憶部53のラムに格納する。
(5) An equation of a straight line passing through the principal point and the intersection of the camera 20 is calculated from the current position and orientation of the camera 20 and the position of the intersection, and stored in the ram of the storage unit 53.

【0062】(6)交点を中心に縦横50画素程度を記
憶部53の画像メモリに格納する。
(6) Approximately 50 pixels vertically and horizontally around the intersection are stored in the image memory of the storage unit 53.

【0063】(7)アームを所定方向、例えば右方向に
1cm程度移動させる。
(7) The arm is moved in a predetermined direction, for example, rightward by about 1 cm.

【0064】(8)この状態でカメラ20により再度ワ
ーク撮像してその画像を画像メモリに格納し、前回の交
点付近の画像と今回の画像の前回の交点付近との正規相
関係数を算出して大きな値を示す位置を検出する。な
お、大きな値を示す位置が複数ある場合は、前回の位置
に最も近い位置を採用する。
(8) In this state, the workpiece is picked up again by the camera 20, the image is stored in the image memory, and the normal correlation coefficient between the image near the previous intersection and the vicinity of the previous intersection of the current image is calculated. The position which shows a large value is detected. When there are a plurality of positions showing large values, the position closest to the previous position is adopted.

【0065】(9)今回の画像の前記位置において前回
検出した直線と傾きが近い直線を2本検出してその交点
を算出する。
(9) Two straight lines whose inclinations are close to the previously detected straight line at the position of the current image are detected, and their intersection is calculated.

【0066】(10)現状のカメラ20の位置および向
きと、交点の位置とから、カメラ20の主点と交点を通
る直線の方程式を算出して記憶部53のラムに格納す
る。
(10) An equation of a straight line passing through the principal point and the intersection of the camera 20 is calculated from the current position and orientation of the camera 20 and the position of the intersection, and stored in the ram of the storage unit 53.

【0067】(11)これまでに得られた全ての直線の
交点を最小二乗法により算出する。得られた交点がこの
時点における最も確からしい特徴点Pの位置である。
(11) The intersections of all the straight lines obtained so far are calculated by the least squares method. The obtained intersection is the position of the most probable feature point P at this time.

【0068】(12)交点を中心に縦横50画素程度を
再度記憶部53の画像メモリに格納する。この場合、
(6)で格納された画像データに上書してもよい。
(12) Approximately 50 pixels vertically and horizontally around the intersection are stored in the image memory of the storage unit 53 again. in this case,
The image data stored in (6) may be overwritten.

【0069】(13)ワークW上の特徴点Pを中心とし
てカメラ20を前記所定方向、例えば右方向にさらに1
cm程度移動させる。この場合、特徴点Pからカメラ2
0までの距離は、フォーカスを維持するために算出され
た特徴点Pと(1)でのカメラ位置までの距離とし、ま
たカメラ20の向きは、画面上の特徴点Pの位置が変化
しないと思われる角度に向ける。
(13) The camera 20 is further moved in the predetermined direction, for example, rightward with respect to the characteristic point P on the work W as a center.
Move about cm. In this case, the camera 2
The distance to 0 is the distance between the feature point P calculated to maintain focus and the camera position at (1), and the direction of the camera 20 is such that the position of the feature point P on the screen does not change. Aim at the angle you think.

【0070】(14)(8)〜(13)の処理を繰り返
す。ただし、アームが動作限界に到達した場合、(9)
の交点の算出がなし得ない場合、オペレータにより停止
操作がなされた場合、処理を終了する。
(14) The processes of (8) to (13) are repeated. However, when the arm reaches the operation limit, (9)
If the intersection cannot be calculated, or if the stop operation is performed by the operator, the process ends.

【0071】(15)オペレータにより継続処理の操作
がなされた場合、(1)の位置へカメラを復帰させて、
カメラ20を前記所定方向と逆方向、例えば左方向に移
動させながら、(2)〜(14)の処理と同様の処理を
繰り返す。
(15) When the operator performs a continuation process, the camera is returned to the position of (1), and
While moving the camera 20 in a direction opposite to the predetermined direction, for example, in the left direction, the same processing as the processing of (2) to (14) is repeated.

【0072】(16)オペレータにより継続処理の操作
がなされた場合、(1)の位置へカメラ20を復帰させ
て、カメラ20を前記所定方向と直角方向、例えば上方
向に移動させながら、(2)〜(14)の処理と同様の
処理を繰り返す。
(16) When the operator performs a continuous process operation, the camera 20 is returned to the position of (1), and the camera 20 is moved in a direction perpendicular to the predetermined direction, for example, in the upward direction. ) To (14) are repeated.

【0073】(17)オペレータにより継続処理の操作
がなされた場合、(1)の位置へカメラ20を復帰させ
て、カメラ20を前記所定方向と逆直角方向、例えば下
方向に移動させながら、(2)〜(14)の処理と同様
の処理を繰り返す。
(17) When the operator performs the continuation process, the camera 20 is returned to the position (1), and the camera 20 is moved in a direction perpendicular to the predetermined direction, for example, in the downward direction. Processing similar to the processing of 2) to (14) is repeated.

【0074】(18)(17)の処理が終了した時点で
特徴点Pの位置は(11)の処理により算出される。前
記各処理により得られた直線と、算出された特徴点Pと
の距離が、2mm程度以上のものが存在すればエラーと
しその旨を液晶ディスプレイ32に表示する。その逆、
2mm以上のものが存在しなければ、精度よく特徴点P
の位置の計測が終了しているので、その位置に名前を付
けて記憶部53のラムに格納する。
(18) When the processing of (17) is completed, the position of the feature point P is calculated by the processing of (11). If the distance between the straight line obtained by each of the above processes and the calculated feature point P is about 2 mm or more, an error is determined and the fact is displayed on the liquid crystal display 32. And vice versa,
If there is no object of 2 mm or more, the feature point P
Since the measurement of the position has been completed, the position is given a name and stored in the ram of the storage unit 53.

【0075】(19)アームを移動しながカメラ20に
より特徴点Pを撮像してその画像を液晶ディスプレイ3
2に表示するとともに、計測された特徴点Pを画面上に
表示する。これにより、特徴点Pの計測が正しくなされ
たかを確認できる。なお、この処理は必要に応じて行な
えばよく、そのため必ずしも行なう必要はない。
(19) The camera 20 captures an image of the characteristic point P while moving the arm, and the image is displayed on the liquid crystal display 3.
2 and the measured feature point P is displayed on the screen. Thereby, it can be confirmed whether or not the measurement of the feature point P has been correctly performed. Note that this processing may be performed as needed, and therefore need not always be performed.

【0076】ところで、前記説明においては、特徴点P
は直線の交点とされているが、特徴点Pは直線の交点に
限定されるものではなく、適宜設定でき、例えば円の中
心とすることもできる。
In the above description, the characteristic point P
Are the intersections of the straight lines, but the feature points P are not limited to the intersections of the straight lines, but can be set as appropriate, for example, the center of a circle.

【0077】また、カメラ20の移動方法も前記方法に
限定されるものではなく、適宜とすることができる。た
だし、特徴点Pを中心とする球面上を移動させるのが好
ましく、つまりカメラ20を回動させるのが好ましく、
カメラ20の主点を回転中心とするのがさらに好まし
い。
The method of moving the camera 20 is not limited to the above-mentioned method, but may be any method. However, it is preferable to move on a spherical surface centering on the feature point P, that is, it is preferable to rotate the camera 20,
More preferably, the principal point of the camera 20 is set as the rotation center.

【0078】さらに、前記説明においては1点のみの3
次元位置を計測したが、カメラ20の位置を変更した場
合にも複数の特徴点Pに焦点が合い、しかもそれらの点
がカメラ20の視野から外れないのであれば、それら複
数の点を同時に計測してもよい。ただし、その場合はカ
メラ20を回動させる中心は、それら複数の点の平均位
置する。
Further, in the above description, only one point, 3
Although the dimensional position was measured, even if the position of the camera 20 is changed, if a plurality of feature points P are focused and the points do not deviate from the field of view of the camera 20, the plurality of points are measured simultaneously. May be. However, in that case, the center for rotating the camera 20 is the average position of the plurality of points.

【0079】さらにまた、前記説明においてはワークW
上の特徴点Pを1回のみオペレータが指示するようにさ
れているが、オペレータによる特徴点Pの指定を行なっ
た後に、アームを移動させカメラ20の位置を変更し、
その状態でオペレータにより再度同一の特徴点Pの指定
を行ない、これらの指定により得られる2本の直線の交
点から特徴点の3次元位置を計測するようにしてもよ
い。
Further, in the above description, the work W
The operator designates the feature point P only once, but after the operator designates the feature point P, the arm is moved to change the position of the camera 20,
In this state, the same feature point P may be designated again by the operator, and the three-dimensional position of the feature point may be measured from the intersection of two straight lines obtained by these designations.

【0080】さらにまた、前記説明はティーチ時におけ
るものであるが、アームの動作ピッチが長い場合には、
リピート動作時に計測を行ってもよい。この場合、最初
にオペレータが指定する特徴点Pを通常の特徴点3次元
位置計測処理により計測し、その後は指定されたアーム
の動作範囲について前記と同様の処理を自動的になさせ
ることにより計測が可能である。
Furthermore, the above description is at the time of teaching, but when the operating pitch of the arm is long,
The measurement may be performed during the repeat operation. In this case, the feature point P specified by the operator is first measured by the normal feature point three-dimensional position measurement processing, and thereafter, the same processing as described above is automatically performed for the specified operation range of the arm. Is possible.

【0081】さらにまた、前記説明においては背景につ
いては特段の配慮がなされていないが、ティーチ時にお
ける計測においては、ワークWや背景を画像処理がしや
すいように変えてもよい。例えば、背景に板や紙を置い
てワークWと判別しやすくしたり、あるいはワークWに
反射を抑える塗料を塗ってワークWを見やすくするよう
にしてもよい。
Further, in the above description, no special consideration is given to the background. However, in the measurement at the time of teaching, the work W and the background may be changed so that the image processing becomes easy. For example, a plate or paper may be placed on the background to make it easier to distinguish the work W, or the work W may be painted with a paint that suppresses reflection to make the work W easier to see.

【0082】ところで、カメラ20の主点位置はフォー
カスを調整することにより多少前後する。そこで、これ
による計測誤差を避けるため、あらかじめカメラ20の
キャリブレーションにより主点位置がわかっている特定
のフォーカス位置で撮像し、ついで焦点が合う位置にカ
メラ20を移動させて撮像するという手法を採ってもよ
い。あるいは、小口径、短焦点距離のレンズを使用し、
フォーカス調整を不要としてもよい。あるいは、前記
(13)のカメラ移動時に特徴点がカメラの光軸上、つ
まり画像の中心にくるように調整するようにしてもよ
い。主点は光軸上に沿って移動するため、このようにす
れば直線の方程式が精度よく求められる。
By the way, the principal point position of the camera 20 moves back and forth to some extent by adjusting the focus. Therefore, in order to avoid a measurement error due to this, a method is adopted in which an image is taken at a specific focus position where the principal point position is known by calibration of the camera 20 in advance, and then the camera 20 is moved to a focused position to take an image. You may. Or use a small aperture, short focal length lens,
The focus adjustment may not be necessary. Alternatively, the adjustment may be made so that the feature point is located on the optical axis of the camera, that is, at the center of the image when the camera is moved in (13). Since the principal point moves along the optical axis, a straight line equation can be obtained with high accuracy in this manner.

【0083】また、ロボットによる作業においては、ア
ームに装着したツールをワークWの曲線状のエッジに沿
って移動させなければならないことがある。そのため、
曲線の3次元位置の計測が必要となる。以下、曲線の3
次元位置の計測方法、つまり曲線3次元位置計測処理に
ついて説明する。なお、この曲線3次元位置計測処理は
教示手段40を曲線3次元位置計測モードに設定してな
される。
In the work by the robot, it may be necessary to move the tool mounted on the arm along the curved edge of the work W. for that reason,
Measurement of the three-dimensional position of the curve is required. Below, curve 3
A three-dimensional position measurement method, that is, a curve three-dimensional position measurement process will be described. The curve three-dimensional position measurement process is performed by setting the teaching means 40 to the curve three-dimensional position measurement mode.

【0084】(1)アームを動作させてカメラ20の位
置および向きを調整する(図8参照)とともに、カメラ
20のフォーカスおよびアイリスを調整し、ワークW上
の曲線が液晶ディスプレイ32のウインドウMのほぼ中
央に水平に表示されるようにする(図9参照)。この場
合、以下の処理においてカメラ20を画面の下方向から
上方向に移動させることを考慮してカメラ20の位置を
設定する。
(1) The position and orientation of the camera 20 are adjusted by operating the arm (see FIG. 8), and the focus and iris of the camera 20 are adjusted. It is displayed horizontally at almost the center (see FIG. 9). In this case, the position of the camera 20 is set in consideration of moving the camera 20 from the lower side of the screen to the upper side in the following processing.

【0085】(2)表示された曲線をポインティング・
デバイスでなぞって計測する範囲を指定する。この場
合、ポインティング・デバイスによるなぞりは、表示さ
れた曲線の比較的水平な部分から開始して、比較的水平
な部分で終わるようにする(図9参照)。
(2) Pointing the displayed curve
Specify the measurement range by tracing with the device. In this case, the tracing by the pointing device starts from the relatively horizontal portion of the displayed curve and ends at the relatively horizontal portion (see FIG. 9).

【0086】(3)ポインティングされた付近の画像か
ら曲線を検出する。この検出は、例えば、画像を微分し
て2値化し、さらに細線化することにより容易になされ
る。
(3) A curve is detected from a pointed image in the vicinity. This detection can be easily performed by, for example, differentiating the image to binarize the image, and further thinning the image.

【0087】(4)検出された曲線を液晶ディスプレイ
32のウインドウMに表示する。表示された曲線が撮像
された画像とマッチングしないなどの問題があれば曲線
を再設定し、表示された曲線に問題がなければ処理を続
行する。
(4) The detected curve is displayed in the window M of the liquid crystal display 32. If there is a problem such that the displayed curve does not match the captured image, the curve is reset, and if there is no problem with the displayed curve, the process is continued.

【0088】(5)現状のカメラ20の位置および向
き、ならびに検出した曲線を記憶部53のラムに保存す
る。
(5) The current position and orientation of the camera 20 and the detected curve are stored in the ram of the storage unit 53.

【0089】(6)表示された曲線が画面上において上
方向に移動する方向にアームを1cm程度回動させる。
(6) The arm is rotated by about 1 cm in a direction in which the displayed curve moves upward on the screen.

【0090】(7)ワークWを撮像してその撮像された
画像における(3)で曲線を検出した付近の曲線を検出
する。
(7) The workpiece W is imaged, and a curve near the curve detected in (3) in the captured image is detected.

【0091】(8)検出された曲線をウインドウMに表
示する。
(8) The detected curve is displayed in the window M.

【0092】(9)前回のカメラ20の位置および向き
ならびに前回検出された曲線と、今回のカメラ20の位
置および向きならびに今回検出された曲線とにより、曲
線の3次元位置を算出し、ついでその3次元的な中心を
算出する。なお、この算出方法については後述する。
(9) The three-dimensional position of the curve is calculated from the previous position and orientation of the camera 20 and the previously detected curve, and the current position and orientation of the camera 20 and the currently detected curve. A three-dimensional center is calculated. This calculation method will be described later.

【0093】(10)(6)と同方向にアームをさらに
1cm程度回動させる。この場合、回動中心は(9)に
おいて算出された位置とし、また曲線の3次元的な重心
位置からカメラ20までの距離は(1)と同一とする。
これは、曲線にフォーカスを維持しておくためである。
また、カメラ20の向きは撮像された画像の中心点の位
置が変化しないように調製する。
(10) The arm is further rotated about 1 cm in the same direction as (6). In this case, the center of rotation is the position calculated in (9), and the distance from the three-dimensional center of gravity of the curve to the camera 20 is the same as in (1).
This is to maintain focus on the curve.
The direction of the camera 20 is adjusted so that the position of the center point of the captured image does not change.

【0094】(11)(7)〜(10)の処理を繰り返
す。ただし、アームが動作限界に到達した場合、曲線の
検出エラーなどのエラーが発生した場合、オペレータに
よりアームが障害物に当たるおそれがあると判断された
り、曲線が障害物にかくれるとして停止操作がなされた
場合、処理は終了する。
(11) The processes of (7) to (10) are repeated. However, if the arm reaches the operating limit or an error such as a curve detection error occurs, the operator determines that the arm may hit an obstacle, or performs a stop operation because the curve is over an obstacle. If so, the process ends.

【0095】(12)これまでに保存された全てのカメ
ラ20の位置および向き、ならびに検出された曲線から
曲線の3次元位置を計測する。なお、その計測方法につ
いては後述する。
(12) The three-dimensional positions of the curves are measured from the positions and directions of all the cameras 20 stored so far and the detected curves. The measuring method will be described later.

【0096】(13)アームを移動しながワークWを撮
像してその画像を液晶ディスプレイ32に表示するとと
もに、計測された曲線を画面上に表示する。これによ
り、曲線の計測が正しくなされたかを確認できる。な
お、この処理は必要に応じて行なえばよく、そのため必
ずしも行なう必要はない。
(13) The workpiece W is imaged while the arm is moved, the image is displayed on the liquid crystal display 32, and the measured curve is displayed on the screen. This makes it possible to confirm whether or not the measurement of the curve has been correctly performed. Note that this processing may be performed as needed, and therefore need not always be performed.

【0097】次に、2地点の画像から曲線の3次元位置
を算出する方法、つまり2地点基準曲線3次元位置計測
処理について図10を参照しながら説明する。なお、こ
こでは2地点をA点,B点として説明する。
Next, a method of calculating a three-dimensional position of a curve from an image of two points, that is, a three-dimensional position measurement process of a two-point reference curve will be described with reference to FIG. Here, the two points are described as point A and point B.

【0098】(1)A点で計測した曲線C上の画素i
について、カメラ20の位置および向きから直線L
式を算出する。
[0098] (1) pixel on the curve C 1 measured at the point A i
For, it calculates the equation of the straight line L i from the position and orientation of the camera 20.

【0099】(2)B点で撮像した曲線Cの画像にお
ける全ての画素j〜jについて、それぞれのカメラ
20の位置および向きから直線Lj1〜Ljnの式を算
出し、ついで直線Lと直線Lj1〜Ljnとの距離を
算出する。
(2) For all the pixels j 1 to j n in the image of the curve C 2 taken at the point B, the equations of the straight lines L j1 to L jn are calculated from the position and the direction of each camera 20, and then the straight line is calculated. It calculates the distance between the L i and the straight line L j1 ~L jn.

【0100】(3)距離が最小となる直線Ljmを選出
する。
(3) A straight line L jm with the minimum distance is selected.

【0101】(4)直線Ljmの距離が2mm以上であ
れば、画素iに対応する曲線L上の画素が存在してい
ないことを示しているので、次の画素i+1について同
様の処理を行なう。この処理は距離が2mm以内となる
直線Bjmが検出されるまで行なう。一方、直線Ljm
の距離が2mm以内であれば以下の処理を行なう。
[0102] (4) If the distance of the straight line L jm is 2mm or more, it indicates that there are no pixels on the curve L 2 corresponding to the pixel i, the same process for the next pixel i + 1 Do. This process is performed until a straight line B jm whose distance is within 2 mm is detected. On the other hand, a straight line L jm
If the distance is within 2 mm, the following processing is performed.

【0102】(5)直線Lと直線Ljmとの交点P
を最小二乗法で算出する。この点Pが画素iに対応す
る3次元位置である。
(5) Intersection P i between straight line L i and straight line L jm
Is calculated by the least squares method. This point Pi is a three-dimensional position corresponding to the pixel i.

【0103】(6)曲線L上の他の全ての画素につい
て同様に対応する3次元位置を算出する。
[0103] (6) for all other pixels on the curve L 1 and calculates the three-dimensional position corresponding similarly.

【0104】(7)算出された全ての点について連続性
をチェックする。例えば、点Pと点Pi+1との距離
が許容値(例えば、2mm)以上あればエラーとする。
(7) Continuity is checked for all calculated points. For example, if the distance between the point P i and the point P i + 1 is equal to or more than an allowable value (for example, 2 mm), it is determined that an error has occurred.

【0105】(8)(7)でエラーとされた場合は、最
初から計測をやりなおす。但し、2地点から曲線を計測
する際に、曲線検出範囲がポインティング・デバイスで
なぞられた範囲で検出するため、2地点で検出された曲
線の両端が同じ点である可能性は低いので、両端部での
エラーは無視する。
(8) If an error is determined in (7), the measurement is restarted from the beginning. However, when measuring a curve from two points, the curve detection range is detected in the range traced by the pointing device, so it is unlikely that both ends of the curve detected at the two points are the same point. Ignore errors in the section.

【0106】このような処理を繰り返すことにより、2
地点の画像から曲線の3次元位置が算出される。
By repeating such processing, 2
The three-dimensional position of the curve is calculated from the image of the point.

【0107】次に、多地点の画像から曲線の3次元位置
を算出する方法、つまり多地点基準曲線3次元位置計測
処理について図11を参照しながら説明する。
Next, a method for calculating a three-dimensional position of a curve from a multi-point image, that is, a multi-point reference curve three-dimensional position measuring process will be described with reference to FIG.

【0108】(1)点Aにおいて撮像されたワークW
の画像における曲線C上の画素C1iについて、カメ
ラ20の位置および向きから直線L1iの式を算出す
る。
[0108] (1) point workpiece W imaged in A 1
With respect to the pixel C 1i on the curve C 1 in the image C, the formula of the straight line L 1i is calculated from the position and the direction of the camera 20.

【0109】(2)点A〜Aにおいて撮像されたワ
ークWの画像における曲線C〜C上の全ての画素C
21〜C2n…Cn1〜Cnnについて、カメラ20の
位置および向きから直線L21〜L2n…Ln1〜L
nnの式を算出し、ついで直線L1iと直線L21〜L
2n…Ln1〜Lnnとの距離を算出する。
[0109] (2) point A 2 to A n all pixels on the curve C 2 -C n in the image of the imaged workpiece W in C
About 21 ~C 2n ... C n1 ~C nn , linear L 21 from the position and orientation of the camera 20 ~L 2n ... L n1 ~L
calculating a nn equation, then the straight line L 1i and the straight line L 21 ~L
2n ... The distances from L n1 to L nn are calculated.

【0110】(3)点A〜Aにおいて距離が最小と
なる直線L2m〜Lnmを選定する。
[0110] (3) Distance at point A 2 to A n is selected a straight line L 2m ~L nm as a minimum.

【0111】(4)算出された距離が2mm以上であれ
ば画素C1iに対応する画素が曲線C〜Cに存在し
ないことを示している。この場合、エラーとして計算を
やりなおすか、あるいはその点の前後の点より補間して
代用する。その逆に、距離が2mm以内であれば画素C
1iに対応する画素が曲線C〜Cに存在することを
示しているので、以下の処理を行なう。このエラーが出
た場合には、2mm以下の直線L2m〜Lnmのみを用
いて以下の計算を行う。ただし、2mm以下の直線が例
えばn/2より少ない場合は計算を行わない。なお、曲
線の両端部である場合は、予測されることであるのでエ
ラーとはしないが、中間点であれば、まったく最初から
計算をやりなおす。
[0111] (4) pixels the calculated distance corresponds to the pixel C 1i if 2mm above indicates that there is no curve C 2 -C n. In this case, the calculation is re-executed as an error, or interpolation is performed from points before and after the point to substitute. Conversely, if the distance is within 2 mm, the pixel C
Since the pixels corresponding to 1i have shown to be present in the curve C 2 -C n, the following processing is performed. When this error occurs, the following calculation is performed using only the straight lines L 2m to L nm of 2 mm or less. However, when the number of straight lines of 2 mm or less is smaller than, for example, n / 2, no calculation is performed. It is to be noted that if the data is at both ends of the curve, it is predicted, so that no error occurs. However, if the data is at an intermediate point, the calculation is performed again from the beginning.

【0112】(5)直線L1iと直線L2m〜Lnm
の交点Pを最小二乗法で算出する。この点Pが画素
iに対応する3次元位置である。
(5) The intersection P i between the straight line L 1i and the straight lines L 2m to L nm is calculated by the least square method. This point Pi is a three-dimensional position corresponding to the pixel i.

【0113】(6)点Pから直線L2m〜Lnmまで
の距離を算出する。この距離が許容値(例えば2mm)
を超えるものがある場合はエラーとする。この場合は、
直線L2m〜Lnmすべてではなく、前記(4)に記載
した直線のみ距離を計算する。この複数の直線と点P
までの距離が許容値を超えている場合、計測を中断し、
最初から計算をやりなおす。なお、許容値を超えた直線
が数本、例えば3本であれば、その直線を除いて点P
を計算しなおす。
(6) The distance from the point P i to the straight line L 2m to L nm is calculated. This distance is an allowable value (for example, 2 mm)
If any of them exceeds the limit, an error will occur. in this case,
The distance is calculated not for all the straight lines L 2m to L nm but only for the straight line described in (4) above. The plurality of straight lines and the points P i
If the distance to is beyond the allowable value, stop the measurement,
Redo the calculation from the beginning. If the number of straight lines exceeding the allowable value is several, for example, three, the points P i are excluded except for the straight lines.
Is recalculated.

【0114】(7)曲線C上の残りの画素についても
同様の処理を行う。
[0114] (7) performs the same processing for the remaining pixels on the curve C 1.

【0115】(8)算出されたすべての点Pの連続性
をチェックする。例えば、点PとPi+1との距離が
許容値(例えば2mm)以上であればエラーとする。
(8) Check the continuity of all calculated points P i . For example, if the distance between the points P i and P i + 1 is equal to or more than an allowable value (for example, 2 mm), it is determined that an error has occurred.

【0116】(9)(8)でエラーとされた場合、最初
から計算をやりなおすか、その点の前後の点より補間に
より代用する。
(9) If an error is determined in (8), the calculation is restarted from the beginning, or the points before and after that point are substituted by interpolation.

【0117】このような処理を繰り返すことにより、多
地点の画像から曲線の3次元位置が算出される。
By repeating such processing, the three-dimensional position of the curve is calculated from the multi-point images.

【0118】次に、ツールの角度を算出する方法、つま
りツール角度算出処理について説明する。
Next, a method of calculating a tool angle, that is, a tool angle calculation process will be described.

【0119】ロボットに所望の動作をさせるためには、
ツールの位置だけではなくその向きを設定する必要があ
る。つまり、ツールを所定角度に設定する必要がある。
この角度を設定は、例えばツールを曲線に沿って移動さ
せる場合、曲線の各点における曲率中心に対する向きと
曲線の接線方向を基準にし、その各方向からの所定のオ
フセット角に設定することなし得る。しかしながら、曲
率中心を求めるためには2次微分が必要となるが、この
2次微分を行うため得られた曲率中心の位置は計測誤差
の影響を強く受ける。そのため、以下の方法によりツー
ルの角度を算出する。しかして、この角度算出は教示手
段40をツール角度算出モードに設定してなされる。
To make the robot perform a desired operation,
It is necessary to set not only the position of the tool but also its orientation. That is, it is necessary to set the tool at a predetermined angle.
For example, when the tool is moved along a curve, the angle may be set based on the direction of the center of curvature at each point of the curve and the tangent direction of the curve, and may not be set to a predetermined offset angle from each direction. . However, a second derivative is required to find the center of curvature, and the position of the center of curvature obtained by performing the second derivative is strongly affected by measurement errors. Therefore, the angle of the tool is calculated by the following method. The angle calculation is performed by setting the teaching means 40 to the tool angle calculation mode.

【0120】(1)ツール角度を設定する曲線を含むワ
ークWの画像を撮像する。
(1) An image of the work W including a curve for setting the tool angle is captured.

【0121】(2)撮像画像をウインドウMに表示す
る。
(2) Display the captured image in the window M.

【0122】(3)表示された画像上でツール角度を設
定する範囲を指定する。
(3) A range for setting a tool angle is designated on the displayed image.

【0123】(4)指定された曲線の3次元位置を前記
方法により計測する。
(4) The three-dimensional position of the designated curve is measured by the above method.

【0124】(5)ツールの角度を算出しようとする曲
線上の点(以下、目標点という)を設定し、その目標点
の前後の数十画素の各点(以下、各近傍点という)につ
いてその接線方向を算出する。
(5) A point on the curve for which the angle of the tool is to be calculated (hereinafter referred to as a target point) is set, and each point of several tens of pixels before and after the target point (hereinafter referred to as each neighboring point) is set. The tangent direction is calculated.

【0125】(6)目標点と各近傍点との差ベクトルを
算出する。
(6) A difference vector between the target point and each neighboring point is calculated.

【0126】(7)得られた差ベクトルの平均ベクトル
を算出する。
(7) An average vector of the obtained difference vectors is calculated.

【0127】(8)得られた平均ベクトルから接線方向
成分を除去する。
(8) The tangential component is removed from the obtained average vector.

【0128】(9)接線方向成分が除去されたベクトル
を曲率中心方向ベクトルの代用ベクトルとして用いてツ
ール角度を算出する。つまり、代用ベクトルの角度に対
して所定のオフセット角を加算してツール角度を算出す
る。
(9) The tool angle is calculated using the vector from which the tangential direction component has been removed as a substitute vector for the curvature center direction vector. That is, the tool angle is calculated by adding a predetermined offset angle to the angle of the substitute vector.

【0129】このようにすることにより、計測誤差の影
響を少なくしてツール角度を算出できる。なお、曲線に
変極点や直線に近い部分がある場合、前記(6)の処理
がなし得ないので、そのような箇所のツール角度は、そ
の前後の処理がなし得た箇所におけるツールの角度を用
いて補間することにより算出する。また、この処理は前
記曲線3次元位置計測処理に引き続いてなされるように
されていてもよい。
In this manner, the tool angle can be calculated with less influence of the measurement error. If the curve has an inflection point or a portion close to a straight line, the processing of (6) cannot be performed. Therefore, the tool angle at such a location is determined by the tool angle at the location where the processing before and after the processing could be performed. It is calculated by using and interpolating. This process may be performed subsequent to the curve three-dimensional position measurement process.

【0130】次に、ワークWの曲面に沿ってツールを移
動させる場合におけるツール移動経路の作成方法、つま
りツール経路作成処理について説明する。
Next, a method of creating a tool moving path when the tool is moved along the curved surface of the workpiece W, that is, a tool path creating process will be described.

【0131】ワークWの曲面に沿ってツールを動かす場
合、ワークWの3次元計測を行う必要がある。この曲面
の計測は、ワークW表面に模様等がない場合には3次元
センサによりなされるが、この3次元センサは高価であ
る。そこで、前述した方法を利用して簡易的にワークW
表面に沿ったツールの移動経路を、画像処理機能付ロボ
ットコントローラ50に設定する方法について説明す
る。なお、これは教示手段40をツール経路作成モード
に設定してなされる。
When moving the tool along the curved surface of the work W, it is necessary to perform three-dimensional measurement of the work W. The measurement of the curved surface is performed by a three-dimensional sensor when there is no pattern or the like on the surface of the workpiece W, but the three-dimensional sensor is expensive. Therefore, the work W
A method of setting the moving path of the tool along the surface in the robot controller with image processing function 50 will be described. This is done by setting the teaching means 40 to the tool path creation mode.

【0132】ツール経路作成処理の第1の形態は、ワー
クWの表面にツールの移動経路に沿って所定間隔でマー
クを書き込むか、所定間隔でマークを付したシールを貼
ってワークW表面にマークを形成し、これらのマークの
3次元位置を前述した方法により算出して記憶部53の
ラムに格納し、算出された各3次元位置をスプライン曲
線などの補間曲線により補間してツールの移動経路を作
成するものである。そして、この作成された経路は記憶
部53のラムに格納される。これにより、ワークW表面
に沿ったツールの移動経路が、画像処理機能付ロボット
コントローラ50に設定される。
In the first form of the tool path creation processing, a mark is written on the surface of the work W at predetermined intervals along the movement path of the tool, or a sticker with a mark is attached at a predetermined interval on the surface of the work W. Are formed, the three-dimensional positions of these marks are calculated by the above-described method and stored in the ram of the storage unit 53, and the calculated three-dimensional positions are interpolated by an interpolation curve such as a spline curve to move the tool. Is to create. Then, the created route is stored in the RAM of the storage unit 53. Thereby, the movement path of the tool along the surface of the work W is set in the robot controller 50 with the image processing function.

【0133】ツール経路作成処理の第2の形態は、ワー
クWの表面にツールの移動経路に沿って線を書き込む
か、線を描いたシールを貼ってワークW表面にラインを
形成し、このラインの3次元位置を前述した方法により
算出し、この3次元位置が算出されたラインをツール移
動経路とするものである。そして、このラインが記憶部
53のラムにツールの移動経路として格納される。これ
により、ワークW表面に沿ったツールの移動経路が、画
像処理機能付ロボットコントローラ50に設定される。
In the second form of the tool path creation processing, a line is written on the surface of the work W along the moving path of the tool, or a line sticker is formed to form a line on the surface of the work W. Is calculated by the method described above, and the line on which the three-dimensional position is calculated is used as the tool movement path. Then, this line is stored in the ram of the storage unit 53 as a moving path of the tool. Thereby, the movement path of the tool along the surface of the work W is set in the robot controller 50 with the image processing function.

【0134】次に、アームエンコーダのキャリブレーシ
ョンについて説明する。
Next, calibration of the arm encoder will be described.

【0135】これは、アームのベース部(固定されて動
かない部分)に付されている3ヵ所のマーク(その位置
はあらかじめ判明している)を、アームに装着したカメ
ラで撮像して前述した方法により処理することによりな
し得る。
This is because the three marks (the positions of which are known in advance) attached to the base part (the part which is fixed and does not move) of the arm are imaged by a camera mounted on the arm, as described above. It can be achieved by processing according to the method.

【0136】第1の方法は、キャリブレーションを行う
ときのカメラ20の撮像位置、移動経路をあらかじめ設
定しておいて、つまりプログラミングしておいて、3ヵ
所のマークを自動的に撮像してそれらの3次元位置を計
測し、あらかじめ判明しているマークの3次元位置とを
比較してその差を解消するようにアームエンコーダの値
を修正することにより、アームエンコーダのキャリブレ
ーションがなし得る。第2の方法は、障害物などにより
あらかじめ設定した位置へカメラが移動できないような
場合、手動によりカメラ20を移動させて3つのマーク
をそれぞれ撮像してそれらの3次元位置を計測し、あら
かじめ判明しているマークの3次元位置とを比較してそ
の差を解消するようにアームエンコーダの値を修正する
ことにより、アームエンコーダのキャリブレーションが
なし得る。
The first method is to preliminarily set the image pickup position and the movement path of the camera 20 when performing calibration, that is, to perform programming and automatically image three marks to obtain these marks. By measuring the three-dimensional position of the mark, comparing the three-dimensional position of the mark known in advance, and correcting the value of the arm encoder so as to eliminate the difference, calibration of the arm encoder can be performed. In the second method, when the camera cannot be moved to a preset position due to an obstacle or the like, the camera 20 is manually moved to image three marks, and their three-dimensional positions are measured. The arm encoder can be calibrated by comparing the three-dimensional position of the mark and correcting the value of the arm encoder so as to eliminate the difference.

【0137】なお、前記キャリブレーションにおいて
は、計測された3点の座標をあらかじめ判明している3
点へ座標変換する必要があるが、これは公知の各種座標
変換手法を用いてなすことができる。例えば、座標変換
においては平行移動ベクトルによる平行移動と回転行列
による回転を行わせる必要があるが、平行移動ベクトル
は各3点の重心位置の差から算出でき、また回転行列は
重心から各頂点へ向かう単位ベクトルにより算出でき
る。そして、計測時のアームの位置および向きを得られ
た平行移動ベクトルおよび回転行列により処理すること
により、正しいアームの位置および向きが算出される。
ついで、この位置および向きからアームの各関節の角度
を算出する。しかして、アームエンコーダにより計測さ
れた現状の関節角度と算出された角度からアームエンコ
ーダの誤差が算出される。この誤差をアームエンコーダ
から差し引くことにより、アームエンコーダのキャリブ
レーションがなし得る。なお、前記誤差が所定値より大
きい場合、エラーとして再度前記処理を実行する。
In the calibration, the coordinates of the three measured points are known in advance.
It is necessary to perform coordinate conversion into points, which can be performed using various known coordinate conversion methods. For example, in the coordinate transformation, it is necessary to perform translation by a translation vector and rotation by a rotation matrix. The translation vector can be calculated from the difference between the positions of the centers of gravity of three points, and the rotation matrix is calculated from the center of gravity to each vertex. It can be calculated from the heading unit vector. Then, by processing the position and orientation of the arm at the time of measurement using the obtained translation vector and rotation matrix, the correct position and orientation of the arm are calculated.
Next, the angle of each joint of the arm is calculated from the position and orientation. Thus, an error of the arm encoder is calculated from the current joint angle measured by the arm encoder and the calculated angle. By subtracting this error from the arm encoder, calibration of the arm encoder can be performed. If the error is larger than a predetermined value, the process is executed again as an error.

【0138】また、この実施形態においては、作業中に
おいてもアームエンコーダの異状を検出できる。これ
は、次のようにしてなすことができる。
In this embodiment, the abnormality of the arm encoder can be detected even during the operation. This can be done as follows.

【0139】まず、目標となるなるべく明瞭で、かつ検
出しやすい物体をマークとして登録する。そして、この
マークをアームの動作中に定期的に検出してマークの画
像上での位置ずれを計測し、そのずれが一定値以上とな
った時点で異状と判定する。なお、マークの検出は画像
処理で広く用いられている正規相関係数を用いた手法に
より容易になし得る。
First, an object as clear as possible and easy to detect is registered as a mark. Then, this mark is periodically detected during the operation of the arm, and the positional deviation of the mark on the image is measured. When the deviation becomes a predetermined value or more, it is determined that the mark is abnormal. The mark can be easily detected by a method using a normal correlation coefficient widely used in image processing.

【0140】以上、本発明を実施形態に基づいて説明し
てきたが、本発明はかかる実施形態のみに限定されるも
のではなく種々改変が可能である。例えば、図12に示
すように、画像受信部52の下流側にDMAコントロー
ラを設けるようにしてもよい。
Although the present invention has been described based on the embodiments, the present invention is not limited to only such embodiments, and various modifications can be made. For example, as shown in FIG. 12, a DMA controller may be provided downstream of the image receiving unit 52.

【0141】[0141]

【発明の効果】以上詳述したように、本発明によれば、
画像処理機能を備えたロボットシステムの構成が簡素化
されるという優れた効果が得られる。また、ロボットコ
ントローラに画像処理機能も備えているので、データの
授受の高速化が図られるとともに、画像処理関係の現場
調整作業が短縮されるという優れた効果も得られる。
As described in detail above, according to the present invention,
An excellent effect that the configuration of the robot system having the image processing function is simplified can be obtained. Further, since the robot controller also has an image processing function, it is possible to obtain an excellent effect that the speed of data transmission and reception is increased and the on-site adjustment work related to the image processing is shortened.

【0142】また、本発明の好ましい形態によれば、ア
ーム制御と画像処理とが並列的に処理されるので、ロボ
ットコントローラが有効に活用されるという優れた効果
が得られる。さらに、画像処理の優先順位が低くされて
いる別の本発明の好ましい形態によれば、アーム制御と
画像処理とが並列的に処理されてもアーム動作に支障を
生ずることはないという優れた効果が得られる。
According to the preferred embodiment of the present invention, since the arm control and the image processing are performed in parallel, an excellent effect that the robot controller is effectively used can be obtained. Further, according to another preferred embodiment of the present invention in which the priority of the image processing is lowered, an excellent effect that the arm operation is not hindered even when the arm control and the image processing are performed in parallel. Is obtained.

【0143】また、別の本発明の好ましい形態によれ
ば、アームエンコーダのキャリブレーションやアームエ
ンコーダの異状が検出できるという優れた効果が得られ
る。
Further, according to another preferred embodiment of the present invention, an excellent effect that calibration of the arm encoder and abnormality of the arm encoder can be detected can be obtained.

【0144】一方、本発明のロボットシステムの利用方
法によれば、ワークの特徴点の3次元位置の計測やワー
クの曲線の3次元位置が計測できるという優れた効果が
得られる。
On the other hand, according to the method of using the robot system of the present invention, an excellent effect that the three-dimensional position of the characteristic point of the work and the three-dimensional position of the curve of the work can be measured can be obtained.

【0145】また、本発明のロボットシステムの別の利
用方法によれば、ツールの角度が設定できるという優れ
た効果や、ツールの移動経路の作成がなし得るという優
れた効果が得られる。
Further, according to another method of using the robot system of the present invention, an excellent effect that an angle of a tool can be set and an excellent effect that a movement path of a tool can be created can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るロボットシステムの
ブロック図である。
FIG. 1 is a block diagram of a robot system according to an embodiment of the present invention.

【図2】同要部ブロック図である。FIG. 2 is a block diagram of the main part.

【図3】同画像出力部のブロック図である。FIG. 3 is a block diagram of the image output unit.

【図4】同画像入力部のブロック図である。FIG. 4 is a block diagram of the image input unit.

【図5】本発明のロボットシステムによりワークの特徴
点の3次元位置を計測する方法の説明図であって、カメ
ラによりワークの特徴点を撮像している状態を示す。
FIG. 5 is an explanatory diagram of a method of measuring a three-dimensional position of a feature point of a work by the robot system of the present invention, and shows a state in which the camera captures a feature point of the work.

【図6】本発明のロボットシステムによりワークの特徴
点の3次元位置を計測する方法の説明図であって、撮像
された特徴点をウインドウに表示した状態を示す。
FIG. 6 is an explanatory diagram of a method of measuring a three-dimensional position of a feature point of a work by the robot system of the present invention, and shows a state in which a captured feature point is displayed in a window.

【図7】本発明のロボットシステムによりワークの特徴
点の3次元位置を計測する方法の説明図であって、多数
の直線の交点から最小二乗法により算出された特徴点を
示す。
FIG. 7 is an explanatory diagram of a method of measuring a three-dimensional position of a feature point of a work by the robot system of the present invention, showing feature points calculated from intersections of a large number of straight lines by a least square method.

【図8】本発明のロボットシステムによりワークの曲線
の3次元位置を計測する方法の説明図であって、カメラ
により曲線を撮像している状態を示す。
FIG. 8 is an explanatory diagram of a method of measuring a three-dimensional position of a curve of a work by the robot system of the present invention, and shows a state where the curve is imaged by a camera.

【図9】本発明のロボットシステムによりワークの曲線
の3次元位置を計測する方法の説明図であって、撮像さ
れた曲線をウインドウに表示した状態を示す。
FIG. 9 is an explanatory diagram of a method of measuring a three-dimensional position of a curve of a work by the robot system of the present invention, and shows a state in which an imaged curve is displayed in a window.

【図10】本発明のロボットシステムによりワークの曲
線の3次元位置を計測する方法の説明図であって、2地
点基準曲線3次元位置計測処理を示す。
FIG. 10 is an explanatory diagram of a method of measuring a three-dimensional position of a curve of a work by the robot system of the present invention, showing a two-point reference curve three-dimensional position measuring process.

【図11】本発明のロボットシステムによりワークの曲
線の3次元位置を計測する方法の説明図であって、多地
点基準曲線3次元位置計測処理を示す。
FIG. 11 is an explanatory diagram of a method of measuring a three-dimensional position of a curve of a work by the robot system of the present invention, and shows a multi-point reference curve three-dimensional position measuring process.

【図12】本発明の他の実施形態の要部を示すブロック
である。
FIG. 12 is a block diagram showing a main part of another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 ロボット本体 20 撮像手段、カメラ 30 画像表示手段 31 画像受信部 32 液晶ディスプレイ 40 教示手段 41 キー入力装置 50 画像処理機能付ロボットコントローラ 51 演算処理部 52 画像受信部 53 記憶部 55 画像表示手段制御部 56 教示手段接続部 60 ティーチペンダント S ロボットシステム W ワーク DESCRIPTION OF SYMBOLS 10 Robot main body 20 Imaging means, camera 30 Image display means 31 Image receiving part 32 Liquid crystal display 40 Teaching means 41 Key input device 50 Robot controller with image processing function 51 Arithmetic processing part 52 Image receiving part 53 Storage part 55 Image display means control part 56 teaching means connection unit 60 teach pendant S robot system W work

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3F059 BC00 BC06 BC07 DA02 DB00 DB05 DB08 DB09 FA05 FB12 FB21 FB26 5H269 AB33 BB01 JJ20 QC10 QD02 SA08 9A001 BB04 GG03 GG05 HH19 HH20 HH29 HH34 KK16 KK29 KK32 KK37  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 3F059 BC00 BC06 BC07 DA02 DB00 DB05 DB08 DB09 FA05 FB12 FB21 FB26 5H269 AB33 BB01 JJ20 QC10 QD02 SA08 9A001 BB04 GG03 GG05 HH19 HH20 HH29 HH34 KK16 KK29 KK32 KK32 KK32

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 ロボット本体の適宜位置に装着された撮
像手段と、画像表示手段と、画像処理機能付ロボットコ
ントローラとを備え、 前記撮像手段により撮像された画像が前記画像処理機能
付ロボットコントローラを介して前記画像表示手段に表
示されることを特徴とするロボットシステム。
1. An image pickup device mounted at an appropriate position on a robot body, an image display device, and a robot controller with an image processing function, wherein the image picked up by the image pickup device is the robot controller with the image processing function. The robot system is displayed on the image display means via a display.
【請求項2】 ロボット本体の適宜位置に装着された撮
像手段と、画像表示手段と、教示手段と、画像処理機能
付ロボットコントローラとを備え、 前記画像表示手段と前記教示手段とが一体化され、 前記撮像手段により撮像された画像が前記画像処理機能
付ロボットコントローラを介して前記画像表示手段に表
示されることを特徴とするロボットシステム。
2. An image display device, an image display device, a teaching device, and a robot controller with an image processing function, which are mounted at an appropriate position on the robot main body, wherein the image display device and the teaching device are integrated. An image captured by the image capturing means is displayed on the image display means via the robot controller with image processing function.
【請求項3】 ロボット本体を制御する演算処理装置
と、画像処理をする演算処理装置とが兼用されているこ
とを特徴とする請求項1または2記載のロボットシステ
ム。
3. The robot system according to claim 1, wherein an arithmetic processing device for controlling the robot body and an arithmetic processing device for performing image processing are also used.
【請求項4】 アーム制御と画像処理とが並列処理され
ることを特徴とする請求項3記載のロボットシステム。
4. The robot system according to claim 3, wherein the arm control and the image processing are performed in parallel.
【請求項5】 画像処理の優先順位が低くされているこ
とを特徴とする請求項4記載のロボットシステム。
5. The robot system according to claim 4, wherein the priority of the image processing is lowered.
【請求項6】 画像表示手段が教示機能を有してなるこ
とを特徴とする請求項1または2記載のロボットシステ
ム。
6. The robot system according to claim 1, wherein the image display means has a teaching function.
【請求項7】 教示手段が撮像および画像処理に関する
教示もなし得るようにされてなることを特徴とする請求
項2記載のロボットシステム。
7. The robot system according to claim 2, wherein the teaching means can also teach about imaging and image processing.
【請求項8】 教示されたデータが保存できるようにさ
れてなること特徴とする請求項2、6または7記載のロ
ボットシステム。
8. The robot system according to claim 2, wherein the taught data can be stored.
【請求項9】 教示手段が、該教示手段により撮像およ
び画像処理に関する教示を行っている際に、ロボット本
体も動作できるようにされてなることを特徴とする請求
項7記載のロボットシステム。
9. The robot system according to claim 7, wherein when the teaching means is teaching the imaging and the image processing by the teaching means, the robot body is also operable.
【請求項10】 撮像手段により撮像されたマークによ
り、アームエンコーダのキャリブレーションがなし得る
ようにされてなることを特徴とする請求項1または2記
載のロボットシステム。
10. The robot system according to claim 1, wherein calibration of the arm encoder can be performed by the mark imaged by the imaging means.
【請求項11】 撮像手段により撮像されたマークによ
り、アームエンコーダの異状が検出できるようにされて
なることを特徴とする請求項1または2記載のロボット
システム。
11. The robot system according to claim 1, wherein an abnormality of the arm encoder can be detected by a mark imaged by the imaging means.
【請求項12】 ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、 前記ロボットシステムを特徴点3次元位置計測モードに
設定する手順と、 撮像手段によりワークを撮像してその画像を画像表示手
段に表示する手順と、 表示画像上で特徴点を指定する手順と、 指定された特徴点について特徴点3次元位置計測処理す
る手順とを含んでなることを特徴とするロボットシステ
ムの利用方法。
12. Use of a robot system comprising: a single imaging unit mounted at an appropriate position on a robot body; an image display unit capable of specifying a position on a display screen; and a robot controller with an image processing function. A method for setting the robot system to a feature point three-dimensional position measurement mode, a procedure for capturing an image of a workpiece by an imaging unit and displaying the image on an image display unit, and specifying a feature point on a display image. And a step of performing a feature point three-dimensional position measurement process on a designated feature point.
【請求項13】 ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、 前記ロボットシステムを曲線3次元位置計測モードに設
定する手順と、 撮像手段によりワークを撮像してその画像を画像表示手
段に表示する手順と、 表示画像上で計測範囲を指定する手順と、 指定された計測範囲について曲線3次元位置計測処理す
る手順とを含んでなることを特徴とするロボットシステ
ムの利用方法。
13. Use of a robot system comprising: a single imaging unit mounted at an appropriate position on a robot body; an image display unit capable of specifying a position on a display screen; and a robot controller with an image processing function. A method of setting the robot system to a curved three-dimensional position measurement mode; a step of imaging a workpiece by an imaging unit and displaying the image on an image display unit; and specifying a measurement range on the display image. A method of using a robot system, comprising: a procedure; and a procedure of performing a curve three-dimensional position measurement process on a specified measurement range.
【請求項14】 ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、 前記ロボットシステムをツール角度算出モードに設定す
る手順と、 撮像手段によりワークを撮像してその画像を画像表示手
段に表示する手順と、 表示画像上でツール角度を指定する範囲を設定する手順
と、 設定された範囲について曲線3次元位置計測処理する手
順と、 3次元位置が計測された曲線に対してツール角度算出処
理する手順とを含んでなることを特徴とするロボットシ
ステムの利用方法。
14. Use of a robot system comprising: a single imaging means mounted at an appropriate position on a robot body; an image display means capable of specifying a position on a display screen; and a robot controller with an image processing function. A method of setting the robot system to a tool angle calculation mode; a step of imaging a workpiece by an imaging unit and displaying the image on an image display unit; and a step of specifying a tool angle on the display image. A robot system, comprising: a setting step; a step of performing a curve three-dimensional position measurement process on a set range; and a step of performing a tool angle calculation process on a curve whose three-dimensional position is measured. How to Use.
【請求項15】 前記曲線3次元位置計測処理が2地点
基準曲線3次元位置計測処理を用いてなされることを特
徴とする請求項13または14記載のロボットシステム
の利用方法。
15. The method according to claim 13, wherein the curve three-dimensional position measurement processing is performed using a two-point reference curve three-dimensional position measurement processing.
【請求項16】 前記曲線3次元位置計測処理が多地点
基準曲線3次元位置計測処理を用いてなされることを特
徴とする請求項13または14記載のロボットシステム
の利用方法。
16. The method according to claim 13, wherein the curve three-dimensional position measurement processing is performed using a multi-point reference curve three-dimensional position measurement processing.
【請求項17】 ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、 前記ロボットシステムをツール経路作成モードに設定す
る手順と、 ワーク表面上にツール移動経路に沿って所定間隔でマー
クを形成する手順と、 前記マークを撮像する手順と、 撮像された画像に対してツール経路作成処理する手順と
を含んでなることを特徴とするロボットシステムの利用
方法。
17. Use of a robot system comprising: a single imaging unit mounted at an appropriate position on a robot body; an image display unit capable of specifying a position on a display screen; and a robot controller with an image processing function. A method of setting the robot system to a tool path creation mode, a step of forming marks at predetermined intervals on a work surface along a tool movement path, a step of imaging the marks, A procedure for performing a tool path creation process on an image.
【請求項18】 ロボット本体の適宜位置に装着された
単一の撮像手段と、表示画面上で位置指定が可能な画像
表示手段と、画像処理機能付ロボットコントローラとを
備えてなるロボットシステムの利用方法であって、 前記ロボットシステムをツール経路作成モードに設定す
る手順と、 ワーク表面上にツール移動経路に沿ってラインを形成す
る手順と、 前記ラインを撮像する手順と、 撮像された画像に対してツール経路作成処理する手順と
を含んでなることを特徴とするロボットシステムの利用
方法。
18. Use of a robot system comprising: a single imaging unit mounted at an appropriate position on a robot body; an image display unit capable of specifying a position on a display screen; and a robot controller with an image processing function. A method of setting the robot system to a tool path creation mode; a step of forming a line along a tool movement path on a work surface; a step of imaging the line; And a tool path creation process.
JP37724999A 1999-12-29 1999-12-29 Robot system and method of using the same Expired - Fee Related JP3803755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37724999A JP3803755B2 (en) 1999-12-29 1999-12-29 Robot system and method of using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37724999A JP3803755B2 (en) 1999-12-29 1999-12-29 Robot system and method of using the same

Publications (2)

Publication Number Publication Date
JP2001191285A true JP2001191285A (en) 2001-07-17
JP3803755B2 JP3803755B2 (en) 2006-08-02

Family

ID=18508507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37724999A Expired - Fee Related JP3803755B2 (en) 1999-12-29 1999-12-29 Robot system and method of using the same

Country Status (1)

Country Link
JP (1) JP3803755B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299049A (en) * 2003-03-28 2004-10-28 Kuka Roboter Gmbh Method and device for controlling a plurality of manipulators
US7720573B2 (en) 2006-06-20 2010-05-18 Fanuc Ltd Robot control apparatus
JP2011041990A (en) * 2009-08-19 2011-03-03 Denso Wave Inc Robot control apparatus and method of teaching robot
JP2016120567A (en) * 2014-12-25 2016-07-07 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
JP2020108909A (en) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 State determination device
CN111951340A (en) * 2020-08-26 2020-11-17 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method
JP7439073B2 (en) 2018-10-12 2024-02-27 テラダイン、 インコーポレイテッド System and method for welding path generation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299049A (en) * 2003-03-28 2004-10-28 Kuka Roboter Gmbh Method and device for controlling a plurality of manipulators
US7720573B2 (en) 2006-06-20 2010-05-18 Fanuc Ltd Robot control apparatus
JP2011041990A (en) * 2009-08-19 2011-03-03 Denso Wave Inc Robot control apparatus and method of teaching robot
JP2016120567A (en) * 2014-12-25 2016-07-07 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
JP7439073B2 (en) 2018-10-12 2024-02-27 テラダイン、 インコーポレイテッド System and method for welding path generation
JP2020108909A (en) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 State determination device
CN111951340A (en) * 2020-08-26 2020-11-17 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method
CN111951340B (en) * 2020-08-26 2024-05-07 珠海广浩捷科技股份有限公司 Non-contact optical vision calibration method

Also Published As

Publication number Publication date
JP3803755B2 (en) 2006-08-02

Similar Documents

Publication Publication Date Title
EP1555508B1 (en) Measuring system
JP4191080B2 (en) Measuring device
JP4167954B2 (en) Robot and robot moving method
JP6468741B2 (en) Robot system and robot system calibration method
JP2022039906A (en) Multi-sensor combined calibration device and method
EP1215017B1 (en) Robot teaching apparatus
JP5365379B2 (en) Robot system and robot system calibration method
JP4844453B2 (en) Robot teaching apparatus and teaching method
JP6489776B2 (en) Coordinate system calibration method, robot system, program, and recording medium
US8306660B2 (en) Device and a method for restoring positional information of robot
JPH08210816A (en) Coordinate system connection method for determining relationship between sensor coordinate system and robot tip part in robot-visual sensor system
JP2009241247A (en) Stereo-image type detection movement device
CN105716527A (en) Laser-welding seam tracking sensor calibration method
CN111801198A (en) Hand-eye calibration method, system and computer storage medium
JP2903964B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
CN113724337B (en) Camera dynamic external parameter calibration method and device without depending on tripod head angle
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
US10569418B2 (en) Robot controller for executing calibration, measurement system and calibration method
JP2001191285A (en) Robot system and its usage
JPH0780790A (en) Three-dimensional object grasping system
KR20130075712A (en) A laser-vision sensor and calibration method thereof
JP2778376B2 (en) Camera viewpoint change method
CN113240751B (en) Calibration method for robot tail end camera
CN113733078B (en) Method for interpreting fine control quantity of mechanical arm and computer-readable storage medium
JPH0588721A (en) Controller for articulated robot

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060414

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees