JPH04141384A - Calibration method in positioning system using image processing device and device therefor - Google Patents

Calibration method in positioning system using image processing device and device therefor

Info

Publication number
JPH04141384A
JPH04141384A JP26201790A JP26201790A JPH04141384A JP H04141384 A JPH04141384 A JP H04141384A JP 26201790 A JP26201790 A JP 26201790A JP 26201790 A JP26201790 A JP 26201790A JP H04141384 A JPH04141384 A JP H04141384A
Authority
JP
Japan
Prior art keywords
jig
image
coordinate system
image processing
industrial robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26201790A
Other languages
Japanese (ja)
Inventor
Yasushi Wada
靖 和田
Yoshio Sawara
良夫 佐原
Koichi Harada
浩一 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP26201790A priority Critical patent/JPH04141384A/en
Publication of JPH04141384A publication Critical patent/JPH04141384A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To automate calibration work by performing the actual measure adjustment of image processing information on the basis of the image of a jig detected by an image detecting means and the reference distance information, and bringing a robot coordinate system, and an image detecting means coordinate system in line with each other on the basis of the locus of the jig obtained by the image detecting means by moving the jig. CONSTITUTION:On the basis of a translucent plate 4, a lighting means 2 is disposed on either side and an image detecting means 3 id disposed below. A jig 12 is mounted to an industrial robot 1 for gripping a workpiece on the translucent plate 4, and the threshold value for binarization is set in such a way that the size of the jig computed on the basis of a signal taken in by the image detecting means 3 in the state of the jig 12 being moved into the preset position becomes the set value. The actual measure adjustment of image processing information is then performed on the basis of the image of the jig 12 taken in by the image detecting means 3 and the reference distance information, and both coordinate systems are brought in line with each other on the basis of the locus of the jig 12 obtained by the image detecting means 3 by moving the jig 12 afterwards.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は画像処理装置を用いて位置決めを行なうシス
テムにおけるキャリブレーション方法およびその装置に
関し、画像検出信号を2値化するための閾値の設定、画
像検出信号に基づいて得られな距離を実際の距離に対応
させるための実寸法合せおよびロボット座標系と画像検
出手段の座標系とを一致させるための座標系一致作業を
自動的に行なうための方法およびその装置に関する。
[Detailed Description of the Invention] <Industrial Application Field> The present invention relates to a calibration method and apparatus for a system that performs positioning using an image processing device, and relates to a method for setting a threshold value for binarizing an image detection signal; This system automatically performs actual dimension matching to match the distance that cannot be obtained based on the image detection signal to the actual distance, and coordinate system matching work to match the robot coordinate system and the coordinate system of the image detection means. METHODS AND APPARATUS THEREOF.

〈従来の技術、および発明か解決しようとする課題〉 従来から画像検出部により所定範囲の画像を取り込み、
取り込み信号に対して画像処理部において2値化処理等
を行なって位置決めを行なうシステムが部品供給装置を
始めとして種々の装置に適用されるようになってきてい
る。
<Prior art and problems to be solved by the invention> Conventionally, images of a predetermined range are captured by an image detection unit,
2. Description of the Related Art Systems that perform positioning by performing binarization processing or the like on a captured signal in an image processing unit have come to be applied to various devices including component supply devices.

第14図は従来の位置決めシステムを示す概略図であり
、ワーク支承台(91)の上方に画像検出部(92)を
配置し、画像検出部(92)からの信号に対して画像処
理部(93)により2値化処理等を施してワークの種別
、位置等を検出し、検出結果をロボット・コントローラ
(94)に供給してロボット動作指令を生成し、産業用
ロボッ) (95)を動作させることによりワーク支承
台(91)上のワーク(96)の把持等を行なうように
している。尚、ワーク支承台(91)とワーク(9G)
とはコントラストか明瞭になるように予め色彩が設定さ
れている。
FIG. 14 is a schematic diagram showing a conventional positioning system, in which an image detection section (92) is arranged above a workpiece support (91), and an image processing section ( 93) performs binarization processing to detect the type, position, etc. of the workpiece, and supplies the detection results to the robot controller (94) to generate robot operation commands and operate the industrial robot (95). By doing so, the workpiece (96) on the workpiece support base (91) can be gripped. In addition, the workpiece support stand (91) and the workpiece (9G)
The colors are set in advance to provide contrast and clarity.

したがって、2値化処理のための閾値、ワーク支承台(
91)における実際の距離と画像検出信号に基づいて得
られた距離、画像検出部<92)の座標系とロボットの
座標系か適切に設定されていれば、画像検出部により検
出される位置情報に基づいて産業用ロボット(95)を
動作させることによりワク(96)の正確な位置決めを
達成できる。
Therefore, the threshold value for binarization processing, the workpiece support (
If the actual distance in 91) and the distance obtained based on the image detection signal, the coordinate system of the image detection unit < 92) and the coordinate system of the robot are properly set, the position information detected by the image detection unit By operating the industrial robot (95) based on this, accurate positioning of the workpiece (96) can be achieved.

しかし、位置決めシステムの起動時等においては、上記
設定が適切になされているという保障か全くないため、
これらの設定を適切なものにするためにキャリブレーシ
ョン作業を行なわなければならない。具体的には、ワー
ク支承台(91)上にワーク(96)を支承した状態に
おいて画像処理部(93)により得られる2値化画像か
ワーク(96)に忠実な形状になるように、周囲の明る
さ、画像検出部<92)の絞り等を考慮しながら閾値の
レベルを設定する。また、画像検出部(92)によりス
ケールの画像を取り込み、このスケールに合せてカーソ
ル等で2点を教示することにより、画像検出信号に基づ
いて得られる距離を実際の距離に適合させるべく1画素
当りの寸法を設定する。さらに、産業用ロボット(95
)にペン等を装着して画像検出部(92)の視野内に座
標軸と平行な線および所定の点を描かぜ、これらの相対
関係を教示し、産業用ロボットの(95)の位置と関連
づけて座標変換処理を施すことにより産業用ロボットの
座標系と画像検出部の座標系とを一致させる。
However, when starting up the positioning system, there is no guarantee that the above settings are properly configured.
Calibration work must be performed to make these settings appropriate. Specifically, when the workpiece (96) is supported on the workpiece support base (91), the surrounding area is adjusted so that the binarized image obtained by the image processing unit (93) has a shape that is faithful to the workpiece (96). The threshold level is set while taking into account the brightness of the image detector, the aperture of the image detection unit (<92), etc. In addition, by capturing a scale image by the image detection unit (92) and teaching two points with a cursor or the like according to this scale, one pixel Set the hit dimensions. In addition, industrial robots (95
), draw a line parallel to the coordinate axis and a predetermined point within the field of view of the image detection unit (92), teach the relative relationship between these, and associate it with the position (95) of the industrial robot. By performing coordinate transformation processing, the coordinate system of the industrial robot and the coordinate system of the image detection unit are made to match.

ところで、これらの作業は、画像検出部(92)の視野
が産業用ロボッ) (95)により部分的に覆われ、産
業用ロボット(95)のツール把持部の画像を直接に取
り込むことが不可能であるから、必然的に作業者の手作
業に委ねなくてはならず、キャリブレーション作業が著
しく繁雑化するという不都合がある。また、ワーク支承
台(91)とワーク(96)とのコントラスト 支承台(91)を透光性のある板で構成し、ワーク支承
台(9I)の下方に照明装置を設ける構成を採用するこ
とも考えられるが、上述の不都合を解消することは全く
不可能である。
By the way, during these operations, the field of view of the image detection unit (92) is partially covered by the industrial robot (95), making it impossible to directly capture the image of the tool gripping part of the industrial robot (95). Therefore, it is inevitable that the calibration work must be left to the manual work of an operator, which is disadvantageous in that the calibration work becomes extremely complicated. Further, a configuration is adopted in which the workpiece supporter (91) and the workpiece (96) are contrasted by the supporter (91) being made of a translucent plate, and a lighting device provided below the workpiece supporter (9I). However, it is completely impossible to eliminate the above-mentioned disadvantages.

尚、キャリブレーション作業は、位置決めシステムの起
動時のみならず、ロボット・ハンドの交換時等にも必要
であり、キャリブレーション作業の都度、上述の繁雑な
作業か必要になるので、システム本来の作業時間を圧迫
してしまい、システムの稼動効率が低下することになる
Note that calibration work is required not only when starting up the positioning system, but also when replacing the robot hand, etc., and the complicated work described above is required each time calibration work is performed, so it is not necessary to perform the original work of the system. This will consume time and reduce system operating efficiency.

さらに、位置決めシステムおよび位置決めシステムを組
み込んだ装置を十分に理解している作業者でなければキ
ャリブレーション作業を行なうことができないという不
都合もある。
Furthermore, there is also the disadvantage that only an operator who fully understands the positioning system and the device incorporating the positioning system can perform the calibration work.

〈発明の目的〉 この発明は上記の問題点に鑑みてなされたものであり、
キャリブレーション作業を自動化して作業者に要求され
る作業を著しく簡素化できる新規なキャリブレーション
方法およびその装置を提供することを目的としている。
<Object of the invention> This invention was made in view of the above problems,
It is an object of the present invention to provide a new calibration method and device that can automate the calibration work and significantly simplify the work required of the operator.

く課題を解決するための手段〉 上記の目的を達成するための、第1の発明のキャリブレ
ーション方法は、透光性のある板を基準として何れかの
側に照明手段を、下方に画像検出手段を配置しておくと
ともに、透光性のある板上のワークを把持する産業用ロ
ボットに治具を装るしておき、治具を予め設定された位
置まで移動させた状態で画像検出手段により取り込まれ
た信号に基づいて算出される治具のサイズか設定値にな
るように2値化のための閾値を設定し、次いで、画像検
出手段により取り込まれた治具の画像および基準となる
距離情報に基づいて画像処理情報の実寸法合せを行ない
、その後、治具を移動させることにより画像検出手段に
より得られる治具の軌跡に基づいてロボット座標系と画
像無検出手段座標系とを一致させる方法である。
Means for Solving the Problem> In order to achieve the above object, the calibration method of the first invention includes an illumination means on either side of a translucent plate as a reference, and an image detection means below. In addition to placing the means, a jig is attached to an industrial robot that grips a workpiece on a translucent plate, and the image detecting means is set while the jig is moved to a preset position. A threshold value for binarization is set so that the size of the jig is calculated based on the signal captured by the set value, and then the image of the jig captured by the image detection means and the reference value are set. The actual size of the image processing information is adjusted based on the distance information, and then the robot coordinate system and the imageless detection means coordinate system are matched based on the trajectory of the jig obtained by the image detection means by moving the jig. This is the way to do it.

第2の発明のキャリブレーション方法は、照明手段が透
光性のある板の」三方に配置されており、治具が2つの
穴を有するものであり、穴のサイズに基づいて閾値を設
定し、画像検出手段により取り込まれた信号に基づいて
算出される穴の中心同士の距離および予め与えられてい
る穴の中心同士の距離に基づいて実寸法合せを行ない、
一方の穴の重心位置の軌跡に基づいて座標系の一致動作
を行なう方法である。
In the calibration method of the second invention, the illumination means are arranged on three sides of a translucent plate, the jig has two holes, and the threshold value is set based on the size of the hole. , performing actual size alignment based on the distance between the centers of the holes calculated based on the signal captured by the image detection means and the distance between the centers of the holes given in advance,
This is a method in which the coordinate systems are matched based on the locus of the center of gravity position of one of the holes.

第3の発明のキャリブレーション方法は、照明手段が透
光性のある板の下方に配置されており、産業用ロボット
の所定位置が治具を兼ねており、画像検出手段により取
り込まれた信号に基づいて算出される治具の移動距離お
よび予め与えられている距離に基づいて実寸法合せを行
ない、治具の重心位置の軌跡に基づいて座標系の一致動
作を行なう方法である。
In the calibration method of the third invention, the illumination means is placed below a translucent plate, a predetermined position of the industrial robot also serves as a jig, and the signal captured by the image detection means is In this method, actual size alignment is performed based on the travel distance of the jig calculated based on this and a predetermined distance, and a matching operation of the coordinate system is performed based on the locus of the center of gravity position of the jig.

第4の発明のキャリブレーンヨン方法は、産業用ロボッ
トのツール保持部が治具を兼ねており、産業用ロボッj
・の手首軸を動作させ、手首軸の動作前後において画像
検出手段により取り込まれた信号に基づいて算出される
治具の位置に基づいてツール・オフセット量の算出をさ
らに行なう方法である。
In the calibration method of the fourth invention, the tool holding part of the industrial robot also serves as a jig, and the tool holding part of the industrial robot also serves as a jig.
This is a method in which the wrist axis is operated, and the tool offset amount is further calculated based on the jig position calculated based on the signals captured by the image detection means before and after the wrist axis is operated.

第5の発明のキャリブレーション装置は、透光性のある
板を基準として何れかの側に配置された照明手段および
下方に配置された画像検出手段と、透光性のある板上の
ワークを把持する産業用ロボットと、産業用ロボットに
装着された治具と、治具を予め設定された位置まで移動
させるべく産業用ロボットを動作させるロボット制御手
段と、治具に基づいて得られる画像を検出する画像検出
手段と、画像検出手段により得られる信号に基づいて2
値化処理を施す画像処理手段と、画像処理手段により得
られる治具のサイズが設定値になるように2値化のため
の閾値を設定する閾値設定手段と、画像処理手段により
得られた治具の画像および基準となる距離情報に基づい
て画像処理情報の実−J″法合を行なう実−・J法会せ
手段と、画像処理手段により得られる治具の軌跡に基づ
いてロボット座標系と画像検出手段座標系とを一致させ
る座標系一致手段とを含んでいる。
A calibration device according to a fifth aspect of the invention includes an illumination means disposed on either side of the translucent plate and an image detection means disposed below the translucent plate, and a workpiece on the translucent plate. An industrial robot for gripping, a jig attached to the industrial robot, a robot control means for operating the industrial robot to move the jig to a preset position, and an image obtained based on the jig. 2 based on the image detection means to be detected and the signal obtained by the image detection means.
An image processing means for performing a value processing, a threshold setting means for setting a threshold for binarization so that the size of the jig obtained by the image processing means becomes a set value, and a threshold value setting means for setting a threshold for binarization so that the size of the jig obtained by the image processing means The robot coordinate system is calculated based on the jig's trajectory obtained by the image processing means and the jig's trajectory obtained by the image processing means. and coordinate system matching means for matching the coordinate system of the image detecting means and the coordinate system of the image detecting means.

第6の発明のキャリブレーション装置は、照明手段が透
光性のある板の上方に配置されており、治具か2つの穴
を有するものであり、閾値設定手段か穴のサイズに基づ
いて閾値を設定するものであり、実寸法合せ手段か、画
像処理手段により得られる穴の中心同士の距離および予
め与えられている穴の中心同士の距離に基づいて実寸法
合せを行なうものであり、座標系一致手段か一方の穴の
重心位置の軌跡に基づいて座標系の一致動作を行なうも
のである。
In the calibration device of the sixth invention, the illumination means is arranged above a translucent plate, the jig has two holes, and the threshold value setting means sets the threshold value based on the size of the hole. The actual size adjustment is performed based on the distance between the centers of the holes obtained by the actual size adjustment means or the image processing means and the distance between the centers of the holes given in advance, and the coordinates The system matching means performs a matching operation of the coordinate system based on the locus of the center of gravity position of one of the holes.

第7の発明のキャリブレーション装置は、照明手段が透
光性のある板の下方に配置されており、産業用ロボット
の所定位置が治具を兼ねており、実寸法合せ手段が、画
像処理手段により得られる治具の移動距離および予め与
えられている距離に基づいて実寸法合せを行なうもので
あり、座標系一致手段が治具の重心位置の軌跡に基づい
て座標系の一致動作を行なうものである。
In the calibration device of the seventh invention, the illumination means is disposed below the transparent plate, a predetermined position of the industrial robot also serves as a jig, and the actual size adjustment means is the image processing means. Actual dimension matching is performed based on the moving distance of the jig obtained by and a predetermined distance, and the coordinate system matching means performs the matching operation of the coordinate system based on the locus of the center of gravity position of the jig. It is.

第8の発明のキャリブレーション装置は、産業用ロボッ
トのツール保持部が治具を兼ねており、産業用ロボット
の手首軸を動作させ、手首軸の動作前後において画像処
理手段により得られる治具の位置に基づいてツール・オ
フセット量の算出を行なうツール・オフセット算出手段
をさらに含んでいる。
In the calibration device of the eighth invention, the tool holding part of the industrial robot also serves as a jig, and the wrist axis of the industrial robot is operated, and the jig is obtained by image processing means before and after the movement of the wrist axis. The apparatus further includes tool offset calculation means for calculating a tool offset amount based on the position.

く作用〉 第1の発明のキャリブレーンヨン方法であれば、透光性
のある板を基準として何れかの側に照明手段を、下方に
画像検出手段を配置しているのであるから、透光性のあ
る板上のワークを把持する産業用ロボットに治具を装着
しておくたけてよく、以下のようにしてキャリブレーシ
ョン動作を行なうことができる。即ち、治具を予め設定
された位置まで移動さぜた状態で画像検出手段により取
り込まれた信号に基ついて算出される治具のサイズが設
定値になるように2値化のための閾値を設定し、次いで
、画像検出手段により取り込まれた治具の画1象および
基準となる距離情報に基づいて画像処理情報の実寸法合
せを行ない、その後、治具を移動させることにより画像
検出手段により得られる治具の軌跡に基づいてロボット
座標系と画像無検出手段座標系とを一致させる。
Effect> In the calibration method of the first invention, since the illumination means is arranged on either side of the light-transmitting plate and the image detection means is arranged below, the light-transmitting It is sufficient to attach a jig to an industrial robot that grips a workpiece on a flexible plate, and the calibration operation can be performed as follows. That is, the threshold value for binarization is set so that the size of the jig calculated based on the signal captured by the image detection means with the jig moved to a preset position becomes the set value. Then, the actual size of the image processing information is adjusted based on the image of the jig captured by the image detection means and the reference distance information, and then, by moving the jig, the image detection means The robot coordinate system and the image non-detecting means coordinate system are matched based on the trajectory of the jig obtained.

したがって、その後は、画像処理手段により得られた画
像処理情報に基づいて産業用ロボットを制御することに
より正確な位置決めを達成できる。
Therefore, after that, accurate positioning can be achieved by controlling the industrial robot based on the image processing information obtained by the image processing means.

第2の発明のキャリブレーションカ゛法であれば、照明
手段および画像検出手段が透光性のある板の互に反対側
に配置されているのであるから、2つの穴を有する治具
を産業用ロボットに装着するだけでよく、ロボット動作
を行なわせることなく閾値の設定および実寸法合せを行
なうことができる。
In the calibration method of the second invention, since the illumination means and the image detection means are arranged on opposite sides of the translucent plate, a jig with two holes can be used for industrial use. It is only necessary to attach it to the robot, and the threshold value can be set and the actual size can be adjusted without causing the robot to operate.

そして、産業用ロボットを動作させることに伴なう一方
の穴の重心位置の軌跡に基づいて座標系の一致動作を行
なうことができる。
Then, the coordinate system matching operation can be performed based on the locus of the center of gravity position of one of the holes as the industrial robot operates.

第3の発明のキャリブレーション方法であれば、照明手
段および画像検出手段が透光性のある板の下方に配置さ
れているのであるとともに、産業用ロボットの所定位置
が治具を兼ねているのであるから、治具装着作業が不要
になり作業を一層簡素化できる。
In the calibration method of the third invention, the illumination means and the image detection means are arranged below the transparent plate, and the predetermined position of the industrial robot also serves as a jig. This eliminates the need for jig installation work, further simplifying the work.

第4の発明のキャリブレーション方法であれば、産業用
ロボットを動作させることによりツール・オフセット量
の算出をも行なうことができ、ロボット・ハンドの種類
に拘らず高精度のキャリブレーションを達成できる。
With the calibration method of the fourth invention, the tool offset amount can also be calculated by operating an industrial robot, and highly accurate calibration can be achieved regardless of the type of robot hand.

第5の発明のキャリブレーション装置であれば、透光性
のある板を基準として何れかの側に照明手段が、下方に
画像検出手段が配置されているのであるから、治具を産
業用ロボットに装着させておくだけでよく、2値化処理
を施す画像処理手段により得られる治具のサイズが設定
値になるように閾値設定手段により2値化のための閾値
を設定することかできる。そして、画像処理手段により
得られた治具の画像および基準となる距離情報に基づい
て実寸法合せ手段により画像処理情報の実寸法合せを行
なうことができ、さらに、画像処理手段により得られる
治具の軌跡に基づいて座標系一致手段によりロボット座
標系と画像検出手段座標系とを一致させることかできる
。。
In the case of the calibration device of the fifth invention, since the illumination means is arranged on either side of the transparent plate and the image detection means is arranged below, the jig can be used as an industrial robot. The threshold value for binarization can be set by the threshold value setting means so that the size of the jig obtained by the image processing means for performing the binarization process is the set value. Then, the actual size of the image processing information can be adjusted by the actual size adjustment means based on the image of the jig obtained by the image processing means and the reference distance information, and the jig obtained by the image processing means The robot coordinate system and the image detection means coordinate system can be made to coincide with each other by the coordinate system matching means based on the locus of the robot coordinate system. .

第6の発明のキャリブレーション装置であれば、照明手
段が透光性のある板の上方に配置されているのであるか
ら、2つの穴を有する治具を産業用ロボットに装着する
だけでよく、産業用ロボットを動作させることなく、閾
値設定手段により穴のサイズに基づいて閾値を設定し、
実寸法合せ手段により、画像処理手段により得られる穴
の中心同士の距離および予め!jえられている穴の中心
同士の距離に基づいて実寸法合せを行なうことがてきる
。そして、産業用ロボットを動作させれば、座標系一致
手段により、一方の穴の重心位置の軌跡に基づいて座標
系の一致動作を行なうことかできる。
With the calibration device of the sixth invention, since the illumination means is placed above the transparent plate, it is only necessary to attach a jig having two holes to the industrial robot. A threshold value is set based on the hole size by a threshold value setting means without operating an industrial robot,
By the actual size adjustment means, the distance between the centers of the holes obtained by the image processing means and in advance! Actual size adjustment can be performed based on the distance between the centers of the holes that have been prepared. Then, when the industrial robot is operated, the coordinate system matching means can perform a coordinate system matching operation based on the locus of the center of gravity position of one of the holes.

第7の発明のキャリブレーション装置であれば、照明手
段か透光性のある板の下方に配置されているのであると
ともに、産業用ロボットの所定位置が治具を兼ねている
のであるから、治具の装着作業が不要になる。
In the case of the calibration device according to the seventh aspect of the invention, the illumination means is placed below the translucent plate, and the predetermined position of the industrial robot also serves as a jig. No need to install tools.

第8の発明のキャリブレーション装置であれば、産業用
ロボットを動作させることによりツール・オフセット量
の算出をも行なうことができ、ロボット・ハンドの種類
に拘らず高精度のキャリブレーションを達成できる。
With the calibration device of the eighth invention, the tool offset amount can also be calculated by operating an industrial robot, and highly accurate calibration can be achieved regardless of the type of robot hand.

〈実施例〉 以下、実施例を示す添付図面によって詳細に説明する。<Example> Hereinafter, embodiments will be described in detail with reference to the accompanying drawings showing examples.

第2図はこの発明のキャリブレーション方法が適用され
る位置決めシステムの要部を示す概略図であり、透光性
のある板からなるワーク支承台(4)の下方にCCDカ
メラ等からなる画像検出部(3)か配置されているとと
もに、ワーク支承台(4)の」ニガに照明装置(2)か
配置されている。そして、吸盾ヘッドを有するハンド(
11)の所定位置にキャリブレーション用治具(12)
が装着されている。」二記キャリブレーンヨン用治具(
■2〉は、第3図に示すように、全体が矩形の板であり
、互に所定距離離れた位置に2つの穴(13)が形成さ
れている。
FIG. 2 is a schematic diagram showing the main parts of a positioning system to which the calibration method of the present invention is applied. The image detection system is equipped with a CCD camera, etc. below a workpiece support (4) made of a translucent plate. At the same time, a lighting device (2) is also placed at the bottom of the workpiece support (4). And a hand with a shield head (
11) Place the calibration jig (12) in the specified position.
is installed. ” 2. Calibration jig (
2) is a rectangular plate as a whole, as shown in FIG. 3, and has two holes (13) formed at a predetermined distance from each other.

第1図はこの発明のキャリブレーション方法の一実施例
を示すフローチャートであり、ステップ■においてキャ
リブレーション用治具(12)の教示位置および形状デ
ータを入力し、ステップ■においてキャリブレーション
用治具(12)を教示位置まで移動させ、ステップ■に
おいて画像検出部(3)によりキャリブレーション用治
具(12)の画像を取り込む。そして、ステップ■にお
いて、画像処理されたキャリブレーション用治具(12
)の画像の画素数が予め設定した画素数と等しいか否か
を判別し、等しくなければステップ■において2値化処
理の閾値を変更し、再びステップ■の処理を行なう。
FIG. 1 is a flowchart showing an embodiment of the calibration method of the present invention, in which the teaching position and shape data of the calibration jig (12) are input in step (2), and the calibration jig (12) is input in step (2). 12) is moved to the teaching position, and in step (2), an image of the calibration jig (12) is captured by the image detection section (3). Then, in step (2), the image-processed calibration jig (12
) is equal to a preset number of pixels, and if not, the threshold value for the binarization process is changed in step (2), and the process in step (2) is performed again.

]9 逆に、ステップ■において画素数が予め設定した画素数
と等しいと判別された場合には、ステップ■において、
画像処理が施されたキャリブレーション用治具(12)
の画像に基づいて穴(]3)の中心同士の距離を算出し
、ステップ■において1画素のサイズを実際の寸法に適
合させ、ステップ■においてキャリブレーション用治具
(12)を互に直交する座標軸のそれぞれに平行に動作
させ、ステップ■において各動作の始点、終点における
一方の穴(13)の画像処理情報を得、ステップ[相]
において、得られた画像処理情報に基づいて所定の演算
を行なうことによりロボット座標系と画像検出部座標系
とを一致させるためのマトリクスを算出し、そのまま一
連の処理を終了する。
]9 Conversely, if it is determined in step ■ that the number of pixels is equal to the preset number of pixels, then in step ■,
Calibration jig (12) subjected to image processing
The distance between the centers of the holes (3) is calculated based on the image, the size of one pixel is adapted to the actual dimension in step (■), and the calibration jigs (12) are orthogonal to each other in step (2). Operate parallel to each of the coordinate axes, obtain image processing information of one hole (13) at the start point and end point of each operation in step
In this step, a matrix for matching the robot coordinate system and the image detection section coordinate system is calculated by performing a predetermined calculation based on the obtained image processing information, and the series of processes is immediately terminated.

以上の説明から明らかなように、閾値の設定を自動的に
行ない、次いで、サイズが既知のワークにより得られる
画像処理情報に基づいて実寸法合せを行ない、最後にキ
ャリブレーション用治具(12)を互に直交する方向に
動作させることにより座標系一致作業を行なうことがで
きる。
As is clear from the above explanation, the threshold value is automatically set, then the actual size is adjusted based on image processing information obtained from a workpiece of known size, and finally the calibration jig (12) is used. Coordinate system matching work can be performed by moving the coordinate systems in directions perpendicular to each other.

即ち、従来は自動化が不可能であったキャリブレーショ
ン動作を完全に自動化でき、位置決めシステムの知識が
全くない作業者でも簡単にキャリブレーションを達成で
きる。
That is, the calibration operation, which could not be automated in the past, can be completely automated, and even an operator with no knowledge of positioning systems can easily accomplish the calibration.

〈実施例2〉 第6図はこの発明のキャリブレーション方法が適用され
る産業用ロボット(1)、照明装置(2)およびCCD
カメラ等からなる画(象検出部(3)の関係を示す概略
斜視図であり、産業用ロボット(1)の所定位置に、フ
ランジを有する吸着ヘッド(15)が装着されている。
<Example 2> Figure 6 shows an industrial robot (1), a lighting device (2), and a CCD to which the calibration method of the present invention is applied.
This is a schematic perspective view showing the relationship between an image detection unit (3) formed by a camera, etc., and a suction head (15) having a flange is attached to a predetermined position of an industrial robot (1).

また、照明装置(2)はリング状の蛍光灯であり、リン
グ状の蛍光灯の中央下方に画像検出部(3)が配置され
ている。尚、吸着ヘッド(15)とリング状の蛍光灯(
2)との間にワーク支承台(4)か配置されている。
Further, the illumination device (2) is a ring-shaped fluorescent lamp, and an image detection unit (3) is arranged below the center of the ring-shaped fluorescent lamp. In addition, the suction head (15) and the ring-shaped fluorescent lamp (
A workpiece support (4) is placed between the

第4図はこの発明のキャリブレーション方法の他の実施
例を示すフローチャートであり、ステップ■において2
値化処理のための閾値として予め設定した閾値を採用し
、ステップ■において産業用ロボット(1)を動作させ
ることにより吸着ヘッド2] (15)をワーク支承台(4)に接近させ、ステップ■
において、上記閾値に対して吸着ヘッド(15)の先端
が明瞭に認識された(第5図(A)参照)と判別される
までステップ■の処理を反復する。そして、ステップ■
において得られた吸着ヘッド(15)の位置をワーク支
承台(4)からの画像認識高さとして設定する。この場
合における画像認識高さの設定は閾値の設定と等価な処
理である。次いで、ステップ■においてサイズが既知の
ワークを画像認識高さにまで移動させ、ステップ■にお
いて上記ワークの2値化画像と、実際の寸法とに基づい
て画像処理情報の実寸法合せを行ない(第5図(B)参
照)、ステップ■において産業用ロボット(1)を互に
直交する座標軸のそれぞれに平行に動作させ、ステップ
■において各動作の始点、終点における画像処理情報を
得(第5図(C)参照)、ステップ■において、得られ
た画像処理情報に基づいて所定の演算を行なうことによ
りロボット座標系と画像検出部座標系とを一致させるた
めの7トリクスを算出し、そのまま一連の処理を終了す
る。
FIG. 4 is a flowchart showing another embodiment of the calibration method of the present invention.
Adopting a preset threshold as a threshold for value conversion processing, the industrial robot (1) is operated in step (■) to bring the suction head 2 (15) close to the workpiece support (4), and step (2)
In this step, the process of step (2) is repeated until it is determined that the tip of the suction head (15) is clearly recognized with respect to the threshold value (see FIG. 5(A)). And step■
The position of the suction head (15) obtained in step 1 is set as the image recognition height from the workpiece support (4). Setting the image recognition height in this case is a process equivalent to setting a threshold value. Next, in step (2), the work whose size is known is moved to the image recognition height, and in step (2), the actual size of the image processing information is adjusted based on the binarized image of the work and the actual dimensions (step (see Figure 5 (B)), in step (2), the industrial robot (1) is moved parallel to each of the mutually orthogonal coordinate axes, and in step (2), image processing information at the start and end points of each movement is obtained (see Figure 5 (B)). (C)), in step (2), seven tricks are calculated to match the robot coordinate system and the image detection part coordinate system by performing predetermined calculations based on the obtained image processing information, and then a series of Finish the process.

以上の説明から明らかなように、画像認識高さを自動的
に設定することにより等価的に閾値の設定を行ない、次
いで、サイズか既知のワークにより得られる画像処理情
報に基ついて実刈法会せを行ない、最後に産業用ロボッ
ト(1)を互に直交する方向に動作させることにより座
標系一致作業を行なうことかできる。
As is clear from the above explanation, the threshold value is equivalently set by automatically setting the image recognition height, and then the actual cutting process is performed based on the image processing information obtained from the workpiece of known size. Then, the industrial robot (1) is finally moved in directions orthogonal to each other to perform the coordinate system matching work.

即ち、従来は自動化が不可能であったキャリブレーショ
ン動作を完全に自動化でき、位置決めシステムの知識が
全くない作業者でも簡単にキャリブレーションを達成で
きる。
That is, the calibration operation, which could not be automated in the past, can be completely automated, and even an operator with no knowledge of positioning systems can easily accomplish the calibration.

〈実施例3〉 第10図はこの発明のキャリブレーション方法が適用さ
れる位置決めシステムの要部を示す概略図であり、ワー
ク支承台(4)の下方にCCDカメラ等からなる画像検
出部(3)が配置されているとともに、画像検出部(:
3)を包囲するようにリング状の照明装置(2)が配置
されている。そして、スカラ型ロボットのZ軸シャフト
(17)に装着された吸着ヘッド(lG)をハンドおよ
びキャリブレーション用治具に兼用している。
<Embodiment 3> Fig. 10 is a schematic diagram showing the main parts of a positioning system to which the calibration method of the present invention is applied. ) is located, as well as an image detection unit (:
A ring-shaped lighting device (2) is arranged so as to surround 3). A suction head (lG) attached to the Z-axis shaft (17) of the SCARA type robot is also used as a hand and a calibration jig.

第7図はこの発明のキャリブレーション方法のさらに他
の実施例を示すフローチャー1・であり、ステップ■に
おいて吸着ヘッド(16)をワーク支承台(4)の上面
に接触させ、ステップ■において画像検出部(3)から
の取り込み信号に対して設定された閾値に基づく2値化
処理を施し、ステップ■において、2値化処理された画
像の画素面積か予め設定した画素面積(例えば、吸着ヘ
ッドであると認識できる閾値でみた吸着ヘッド(I6)
の画素数)に達しているか否かを判別し、達していなけ
れば、ステップ■において閾値を変更した後、再びステ
ップ■の処理を反復する。そして、2値化処理された画
像の画素面積が予め設定した画素面積に達したと判別さ
れた場合には、ステップ■において画像処理結果に基づ
いて吸着ヘッド(16)の画像検出部座標系における絶
対座標01.  (Ol、L、 012)(第8図参照
)を得、ステップ■においてZ輔(17)を動作させる
ことにより吸着ヘッド(1G)を上昇させた後、手首軸
を1800回転させて再び吸着ヘッド(16)をワーク
支承台(4)に接触させ、ステップ■において画像処理
結果に基づいて吸着ヘッド(16)の画像検出部座標系
における絶対座標02(021,022)  (第8図
参照)を得、ステップ■において上記絶対座標01,0
2に姑ついて0O=01 +02の演算を行なうことに
より画像検出部座標系における回転軸の座標00  (
O[11,002)(第8図参照)を得る。その後、ス
テップ■においてツール座標にオフセットを与えること
により回転のための回転マトリクス(0,a、0.0)
を得、ステップ[相]において吸着ヘッド(16)を上
昇させた後、千肖゛軸を180°回転させて再び吸着ヘ
ッド(16)をワーク支承台(4)に接触させ、ステッ
プ■において画像処理結果に基づいて吸着ヘッド(16
)の画像検出部座標系における絶対座標oy(Oyl、
  Oy2)  (第8図参照)を得、ステップ@にお
いて吸着ヘッド(16)を上昇させた後、手首軸を反対
方向に180°回転させて再び眼前ヘット(16)をワ
ーク支承台(4)に接触させ、ステップ■においてツー
ル座標にオフセットを!:8i、えることにより回転の
ための回転マトリクス(0,0,b、Q)を得る。そし
て、ステップ■において吸着ヘッド(16)を上昇させ
た後、手首軸を180°回転させて再び吸着ヘッド〈1
6〉をワーク支承台(4)に接触させ、ステップ■にお
いて画像処理結果に越づいて吸着ヘッド(I6)の画像
検出部座標系における絶対座標Oz  (Ozl、 0
z2)  (第8図参照)を得る。
FIG. 7 is a flowchart 1 showing still another embodiment of the calibration method of the present invention, in which the suction head (16) is brought into contact with the upper surface of the workpiece support base (4) in step Binarization processing is performed on the captured signal from the detection unit (3) based on a set threshold value, and in step (2), the pixel area of the binarized image is determined by Suction head (I6) based on the threshold value that can be recognized as
It is determined whether the threshold value has been reached (the number of pixels), and if it has not been reached, the threshold value is changed in step (2), and then the process of step (2) is repeated again. If it is determined that the pixel area of the binarized image has reached the preset pixel area, in step Absolute coordinates 01. (Ol, L, 012) (see Fig. 8), and in step 2, move the Z holder (17) to raise the suction head (1G), rotate the wrist shaft 1800 times, and raise the suction head again. (16) is brought into contact with the workpiece support (4), and in step (2), absolute coordinates 02 (021, 022) (see Fig. 8) in the image detection unit coordinate system of the suction head (16) are determined based on the image processing results. Then, in step ■, the above absolute coordinates 01,0
By subtracting 2 and performing the calculation 0O=01 +02, the coordinate of the rotation axis in the image detection unit coordinate system is 00 (
O[11,002) (see FIG. 8) is obtained. Then, in step ■, the rotation matrix (0, a, 0.0) for rotation is created by giving an offset to the tool coordinates.
After the suction head (16) is raised in step [phase], the vertical axis is rotated 180 degrees to bring the suction head (16) into contact with the workpiece support (4) again, and the image is removed in step (3). Based on the processing results, the suction head (16
) in the image detection unit coordinate system oy (Oyl,
Oy2) (see Figure 8), and after raising the suction head (16) in step @, rotate the wrist axis 180 degrees in the opposite direction and place the head (16) in front of the eye again on the workpiece support base (4). Contact and offset the tool coordinates in step ■! :8i, to obtain the rotation matrix (0,0,b,Q) for rotation. Then, in step (2), after raising the suction head (16), the wrist axis is rotated 180° and the suction head (16) is raised again.
6〉 is brought into contact with the workpiece support (4), and in step ③, the absolute coordinate Oz (Ozl, 0
z2) (see Figure 8) is obtained.

その後、ステップ■において、得られた絶対座標02、
Oy、Ozに基づいてツール座標のオフセット量(0,
YL、Zl、0)を算出する。尚、ここまでのフローチ
ャートには示していないが、絶対座標を得るために吸着
ヘッド(16)をワーク支承台(4)に接触させる毎に
閾値の設定を行なって絶対座標の精度を高めることが好
ましい。また、上記オフセット量の算出を詳細に説明す
ると、Z軸にオフセットがかかっている場合の回転軸の
絶対座標Zは、Z= (Oz +02 )/2であり、
Y軸にオフセットがかかっている場合の回転軸の絶対座
標Yは、Y= (Oy +02 )/2であるから、回
転軸中心00からのオフセット量は、y=Y−00、z
=Z−00となる。ここてy= (yll、  y12
) 、z= (z 1.1.  z 12)とすれば、
ツール座標のオフセット量Y1.Z]は、 の演算を行なうことにより得られる。以上のようにして
ツール・オフセット量が得られた後は、ステップ■にお
いて吸着ヘッド(16)を」1昇させた後ワーク支承台
(4)の任意の点に吸着ヘッド(1G)を接触させ、ス
テップ■において画像処理結果に基づいて吸着ヘッド(
16)の画像検出部座標系における絶対座標Pir(x
ir、  yir)およびロボット座標系におけるPi
a(xia、yia)(i=1.2.3)を得、ステッ
プ■において3点の絶対座標が得られたと判別されるま
でステップ@[有]の処理を反復する。そして、ステッ
プ■において3点の絶対座標が得られたと判別された場
合には、ステップ[相]において両座標系における3点
の絶対座標に基づいて実寸法合せを行ない、ステップ■
において両座標系における3点の絶対座標に基づいて画
像検出部座標系からロボット座標系への変換マトリクス
を算出して一連の処理を終了する。
After that, in step ■, the obtained absolute coordinates 02,
The tool coordinate offset amount (0,
YL, Zl, 0) are calculated. Although not shown in the flowcharts up to this point, it is possible to increase the accuracy of absolute coordinates by setting a threshold each time the suction head (16) comes into contact with the workpiece support (4) in order to obtain absolute coordinates. preferable. Further, to explain in detail the calculation of the above offset amount, the absolute coordinate Z of the rotation axis when the Z axis is offset is Z = (Oz +02)/2,
When the Y-axis is offset, the absolute coordinate Y of the rotation axis is Y = (Oy +02)/2, so the amount of offset from the rotation axis center 00 is y = Y - 00, z
=Z-00. Here y= (yll, y12
), z= (z 1.1. z 12), then
Tool coordinate offset amount Y1. Z] can be obtained by performing the following calculation. After the tool offset amount has been obtained as described above, in step 2, raise the suction head (16) by 1" and then bring the suction head (1G) into contact with any point on the workpiece support (4). , In step ■, the suction head (
16) absolute coordinate Pir(x
ir, yir) and Pi in the robot coordinate system
a(xia, yia) (i=1.2.3) is obtained, and the process of step @[exist] is repeated until it is determined in step (2) that the absolute coordinates of three points have been obtained. If it is determined that the absolute coordinates of the three points have been obtained in step (2), actual size alignment is performed in step [phase] based on the absolute coordinates of the three points in both coordinate systems, and step (2)
A transformation matrix from the image detection unit coordinate system to the robot coordinate system is calculated based on the absolute coordinates of the three points in both coordinate systems, and the series of processing is completed.

上記変換マトリクスの算出を詳細に説明すると、第9図
に示すように画像検出部座標系(x、y)およびロボッ
ト座標系(X、Y)が与えられているとともに、画像検
出部座標系の原点0のロボット座標系における座標が(
Ox、Oy )である場合には、点P1のロボット座標
系における座標(X2.Y2)は、 の演算を行なうことにより得られる(但し、X1y1は
画像検出部座標系における点P1の座標である)。
To explain in detail the calculation of the above transformation matrix, as shown in FIG. 9, the image detection unit coordinate system (x, y) and the robot coordinate system (X, Y) are given, and the image detection unit coordinate system The coordinates of the origin 0 in the robot coordinate system are (
Ox, Oy ), the coordinates (X2.Y2) of point P1 in the robot coordinate system can be obtained by performing the following calculation (where X1y1 is the coordinate of point P1 in the image detection unit coordinate system). ).

また、上記得られた3点が第9図中P1..P2゜P3
である場合において、両座標系の原点を一致させてみれ
ば、X軸はX軸を(α−β)だけ回転させたものである
から、XのX成分をxi、Y成分をxj とすれば、 となる。また、y軸はX軸を±90° (但し、同系の
場合に+、異系の場合に−)だけ回転させたものである
から、yのX成分をyk、X成分をyノとすれば、 となる(但し、同系の場合にに=1であり、異系の場合
にK = −1)。
Moreover, the three points obtained above are P1 in FIG. .. P2゜P3
In this case, if we match the origins of both coordinate systems, the X axis is the X axis rotated by (α-β), so let the X component of X be xi and the Y component be xj. Then, . Also, since the y-axis is the X-axis rotated by ±90° (+ in the case of the same species and - in the case of different species), let the X component of y be yk, and the X component be yno. In this case, (however, K = 1 in the case of the same lineage, and K = -1 in the case of the different lineage).

したがって、上記行列式は、 となる。Therefore, the above determinant is becomes.

第11図はこの発明のキャリブレーション方法の適用例
を説明する図であり、画像検出部(3)の位置が破線で
示す位置から実線で示す位置まで変化した場合にも、キ
ャリブレーションを行なうべきことを指示するだけで、
自動的に新たな画像検出部(3)に対応するキャリブレ
ーション動作を行なうことができる。また、照明装置(
2)の照度が低下した場合にもキャリブレーションを行
なうべきことを指示するだけで自動的に最適の閾値を設
定できる。
FIG. 11 is a diagram illustrating an application example of the calibration method of the present invention, and shows that calibration should be performed even when the position of the image detection unit (3) changes from the position shown by the broken line to the position shown by the solid line. Just by giving instructions,
A calibration operation corresponding to the new image detection section (3) can be automatically performed. In addition, lighting equipment (
Even when the illuminance of 2) decreases, the optimal threshold value can be automatically set by simply instructing that calibration should be performed.

〈実施例4〉 第12図はこの発明のキャリブレーション装置の一実施
例を示すブロック図であり、ワーク支承台(4)として
の透光性のある板の下方に配置された照明装置(2)お
よび画像検出部(3)と、ワーク支承台(4)上のワー
クを把持する吸着ヘッド(1G)を有する産業用ロボッ
) (1)と、吸着ヘッド(16)を予め設定された位
置まで移動させるべく産業用ロボット(1)を動作させ
るロボット制御部(5)と、吸着ヘッド(16)に基づ
いて画像検出部(3)により得られる信号に基づいて2
値化処理等を施す画像処理部(3a)と、画像処理部(
3a)により得られる吸着ヘラ)”(1G)のサイズか
設定値になるように2値化のための閾値を設定する閾値
設定部(3b)と、画像処理部(3a)により得られた
吸着ヘッド(16)の画像および基準となる距離情報に
基づいて画像処理情報の実寸法合せを行なう実寸法合せ
部(3c)と、画像処理部(3a)により得られる吸着
ヘッド(1G)の軌跡に基づいてロボット座標系と画像
検出部座標系とを一致させる座標系−敷部(3d)と、
手首軸の動作前後において画像処理部(3a)により得
られる吸着ヘッド(IB)の位置に基づいてツール・オ
フセフl−瓜の算出を行なうツール・オフセット算出部
(3e)とを有している。
<Embodiment 4> FIG. 12 is a block diagram showing an embodiment of the calibration device of the present invention, in which a lighting device (2 ), an image detection unit (3), and an industrial robot (1) that has a suction head (1G) that grips the workpiece on the workpiece holder (4) and the suction head (16) to a preset position. A robot controller (5) operates the industrial robot (1) to move the industrial robot (1), and a robot controller (5) operates the industrial robot (1) based on signals obtained by the image detector (3) based on the suction head (16).
An image processing unit (3a) that performs value conversion processing, etc.;
A threshold setting unit (3b) sets a threshold value for binarization so that the size of the suction spatula obtained by 3a)" (1G) or a set value, and a suction spatula obtained by the image processing unit (3a) The actual size adjustment unit (3c) performs actual size adjustment of image processing information based on the image of the head (16) and reference distance information, and the trajectory of the suction head (1G) obtained by the image processing unit (3a). a coordinate system-shikibe (3d) that matches the robot coordinate system and the image detection unit coordinate system based on the coordinate system;
The tool offset calculating section (3e) calculates the tool offset based on the position of the suction head (IB) obtained by the image processing section (3a) before and after the movement of the wrist axis.

上記構成のキャリブレーション装置の動作は次のとおり
である。
The operation of the calibration device having the above configuration is as follows.

照明装置(2)を点灯させ、ロボット制御部(5)によ
り産業用ロボット(1)を動作させて吸着ヘッド(]6
)を予め設定された位置まで移動させる。そして、この
状態において、吸着ヘッド(16)に基ついて画像検出
部(3)により得られる信号に対して画像処理部(3a
)により2値化処理を施し、画像処理部(3a)により
得られる吸着ヘッド(IB)のサイズ(画素面積)が設
定値になるように閾値設定部(3b)により2値化のた
めの閾値を設定する。その後、産業用ロボット(1)を
動作させて吸着ヘラl”(1G)をさらに移動させ、手
−色軸の動作前後において画像処理部(3a)により得
られる吸着ヘッド<16)の位置に基づいてツール・オ
フセット算出部(3e)によりツール・オフセット量の
算出を行なうとともに、画像処理部(3a)により得ら
れた吸着ヘッド(16)の画像および基準となる距離情
報に基づいて実寸法合せ部(3c)により画像処理情報
の実寸法合せを行なう。
The lighting device (2) is turned on, the industrial robot (1) is operated by the robot control unit (5), and the suction head (]6
) to a preset position. In this state, the image processing section (3a) applies signals obtained by the image detection section (3) based on the suction head (16).
), and the threshold value setting unit (3b) sets a threshold value for the binarization so that the size (pixel area) of the suction head (IB) obtained by the image processing unit (3a) becomes the set value. Set. After that, the industrial robot (1) is operated to further move the suction spatula l'' (1G), and based on the position of the suction head <16) obtained by the image processing unit (3a) before and after the movement of the hand-color axis. The tool offset calculation unit (3e) calculates the tool offset amount, and the actual size adjustment unit calculates the tool offset amount based on the image of the suction head (16) obtained by the image processing unit (3a) and the reference distance information. The actual size of the image processing information is adjusted by (3c).

そして、吸着ヘッド(16)をさらに移動させることに
より得られる吸着ヘッド(16)の画像、或は実寸法合
せのための吸着ヘッド(16)の移動時の吸着ヘッド(
16)の画像により得られる吸着ヘッド(16)の軌跡
に基づいて座標系−敷部(3d)によりロボット座標系
と画像検出部座標系とを一致させるための7トリクスを
算出する。
Then, an image of the suction head (16) obtained by further moving the suction head (16), or an image of the suction head (16) obtained when the suction head (16) is moved for actual size adjustment (
Based on the locus of the suction head (16) obtained from the image 16), seven tricks for matching the robot coordinate system and the image detection part coordinate system are calculated using the coordinate system-base part (3d).

第13図はキャリブレーション動作を説明するタイミン
グチャートであり、ロボット動作に伴なって吸着ヘッド
(]6)がワーク支承台(4)の最初の点に移動するこ
とにより画像処理部(3a)において閾値の設定が行な
われるとともに、座標値の算出が行なわれ、その後の点
に移動する毎に座標値の算出が行なわれ、算出された座
標値を送信して吸着ヘッド(16)が待機位置に移動す
る。その後オフセット量が算出され、再び吸着ヘッド(
16)の移動および座標値の算出か行なわれた後、座標
変換マトリクスが算出される。
FIG. 13 is a timing chart explaining the calibration operation, in which the suction head (]6) moves to the first point of the workpiece support base (4) with the robot operation, and the image processing unit (3a) At the same time as the threshold value is set, the coordinate values are calculated, and each time the coordinate value is moved to a subsequent point, the coordinate values are calculated, and the calculated coordinate values are sent, and the suction head (16) returns to the standby position. Moving. After that, the offset amount is calculated and the suction head (
After performing the movement and calculation of coordinate values in step 16), a coordinate transformation matrix is calculated.

但し、座標変換マトリクス算出のための座標値の算出を
特別に行なわなくても、オフセット量算出のだめの座標
値を用いることができ、この場合には吸着ヘッド(16
)の移動点を4点たけにできる。
However, even if the coordinate values for calculating the coordinate transformation matrix are not specially calculated, the coordinate values for calculating the offset amount can be used, and in this case, the suction head (16
) can be moved by 4 points.

したがって、その後は、画像検出部座標系において得ら
れた座標に対してマトリクス演算を施してロボット制御
部(5)に供給すればよく、産業用ロボット(1)の吸
着ヘッド(1G)を正確に位置決めできる。したかって
、部品供給装置に適用すれば、画像検出部(3)および
画像処理部(3a)により認識された部品位置に吸着ヘ
ッド(IB)を正確に移動させることができ、良好な部
品供給を達成できる。但し、部品供給装置以外の装置で
あっても、画像検出部(3)および画像処理部(3a)
を用いて位置決めを行なう装置であれば、同様に適用で
きることは勿論である。
Therefore, after that, it is only necessary to perform matrix calculation on the coordinates obtained in the image detection unit coordinate system and supply the result to the robot control unit (5), and the suction head (1G) of the industrial robot (1) can be accurately moved. Can be positioned. Therefore, if applied to a component supply device, the suction head (IB) can be accurately moved to the component position recognized by the image detection section (3) and the image processing section (3a), and good component supply can be achieved. It can be achieved. However, even if the device is other than the parts supply device, the image detection section (3) and the image processing section (3a)
Of course, the present invention can be similarly applied to any device that performs positioning using.

〈発明の効果〉 以上のように第1の発明は、キャリブレーション作業の
殆どを自動化して作業者の作業を大幅に低減し、位置決
めシステムを理解していなくてもキャリブレーションを
達成できるという特有の効果を奏する。
<Effects of the Invention> As described above, the first invention is unique in that most of the calibration work is automated, greatly reducing the work of the operator, and calibration can be achieved even without understanding the positioning system. It has the effect of

第2の発明は、治具を産業用ロボットに装着するだけで
、治具の移動箇所が少なくても良好なキャリブレーショ
ンを達成できるという特有の効果を奏する。
The second invention has the unique effect that good calibration can be achieved even if the number of moving parts of the jig is small by simply mounting the jig on the industrial robot.

第3の発明は、第1の発明の効果に加え、ロボット動作
領域を広く確保できるという特有の効果を奏する。
In addition to the effects of the first invention, the third invention has the unique effect of ensuring a wide robot operating area.

第4の発明は、ロボット・ハンドが変更された場合にも
良好なキャリブレーションを達成できるという特有の効
果を奏する。
The fourth invention has the unique effect of being able to achieve good calibration even when the robot hand is changed.

第5の発明は、キャリブレーション作業の殆とを自動化
して作業者の作業を大幅に低減し、位置決めシステムを
理解していなくてもキャリブレンヨンを達成できるとい
う特有の効果を奏する。
The fifth invention has the unique effect of automating most of the calibration work, greatly reducing the work of the operator, and achieving calibration even without understanding the positioning system.

第6の発明は、治具を産業用ロボットに装着するたけで
、治具の移動箇所が少なくても良好なキャリブレーショ
ンを達成できるという特有の効果を奏する。
The sixth aspect of the invention has the unique effect that good calibration can be achieved even if the number of moving parts of the jig is small just by attaching the jig to the industrial robot.

第7の発明は、第5の発明の効果に加え、ロボット動作
領域を広く確保できるという特有の効果を奏する。
In addition to the effects of the fifth invention, the seventh invention has the unique effect of ensuring a wide robot operating area.

第8の発明は、ロボット・ハンドが変更された場合にも
良好なキャリブレーションを達成できるという特有の効
果を奏する。
The eighth invention has the unique effect of being able to achieve good calibration even when the robot hand is changed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明のキャリブレーション方法の一実施例
を示すフローチャート、 第2図はこの発明のキャリブレーション方法が適用され
る位置決めシステムの要部を示す概略図、第3図は治具
の平面図、 第4図はこの発明のキャリブレーション方法の他の実施
例を示すフローチャート、 第5図はキャリブレーション動作を説明する図、第6図
はこの発明のキャリブレーション方法が適用される産業
用ロボットのハンド、照明装置およびCCDカメラ等か
らなる画像検出部の関係を示す概略斜視図、 第7図はこの発明のキャリブレーション方法のさらに他
の実施例を示すフローチャート、第8図および第9図は
キャリブレーション動作を説明する図、 第1O図はこの発明のキャリブレーション方法が適用さ
れる位置決めシステムの要部を示す概略図、第11図は
この発明のキャリブレーション方法の適用例を説明する
図、 第12図はこの発明のキャリブレーション装置の一実施
例を示すブロック図、 第13図はキャリブレーション動作を説明するタイミン
グチャート、 第14図は従来の位置決めシステムを示す概略図。 (1)・・・産業用ロボット、(2)・−・照明装置、
(3)・・・画像検出部、(3a)・・・画像処理部、
(3b)・・・閾値設定部、(3c)・・・実寸法合せ
部、(3d)・・・座標系−敷部、 (3e)・・ツール・オフセット算出部、(4)・・・
透光性のある板からなるワーク支承台、(5)・・ロボ
ット制御部、 (12)・・キャリブレーション用治具、(13)・・
・穴、(15)(16)・・・吸着ヘッド 特許出願人  ダイキン工業株式会社 代 理 人
Figure 1 is a flowchart showing an embodiment of the calibration method of the present invention, Figure 2 is a schematic diagram showing the main parts of a positioning system to which the calibration method of the present invention is applied, and Figure 3 is a plane view of the jig. Figure 4 is a flowchart showing another embodiment of the calibration method of the present invention, Figure 5 is a diagram explaining the calibration operation, and Figure 6 is an industrial robot to which the calibration method of the present invention is applied. 7 is a flowchart showing still another embodiment of the calibration method of the present invention, and FIGS. 8 and 9 are A diagram explaining the calibration operation; FIG. 1O is a schematic diagram showing the main parts of a positioning system to which the calibration method of the present invention is applied; FIG. 11 is a diagram explaining an example of application of the calibration method of the present invention; FIG. 12 is a block diagram showing an embodiment of the calibration device of the present invention, FIG. 13 is a timing chart explaining the calibration operation, and FIG. 14 is a schematic diagram showing a conventional positioning system. (1)...Industrial robot, (2)...Lighting device,
(3)...image detection section, (3a)...image processing section,
(3b)...Threshold setting section, (3c)...Actual size adjustment section, (3d)...Coordinate system-base section, (3e)...Tool offset calculation section, (4)...
Workpiece support made of a translucent plate, (5)...Robot control unit, (12)...Calibration jig, (13)...
・Holes, (15) (16)...Suction head patent applicant Daikin Industries, Ltd. agent

Claims (1)

【特許請求の範囲】 1、透光性のある板(4)を基準として何れかの側に照
明手段(2)を、下方に画像検出手段(3)を配置して
おくとともに、透光性のある板(4)上のワークを把持
する産業用ロボット(1)に治具(12)(15)(1
6)を装着しておき、治具(12)(15)(16)を
予め設定された位置まで移動させた状態で画像検出手段
(3)により取り込まれた信号に基づいて算出される治
具(12)(15)(16)のサイズが設定値になるよ
うに2値化のための閾値を設定し、次いで、画像検出手
段(3)により取り込まれた治具(12)(15)(1
6)の画像および基準となる距離情報に基づいて画像処
理情報の実寸法合せを行ない、その後、治具(12)(
15)(16)を移動させることにより画像検出手段(
3)により得られる治具(12)(15)(16)の軌
跡に基づいてロボット座標系と画像検出手段座標系とを
一致させることを特徴とするキャリブレーション方法。 2、照明手段(2)が透光性のある板(4)の上方に配
置されており、治具(12)が2つの穴(13)を有す
るものであり、穴(13)のサイズに基づいて閾値を設
定し、画像検出手段(3)により取り込まれた信号に基
づいて算出される穴(13)の中心同士の距離および予
め与えられている穴(13)の中心同士の距離に基づい
て実寸法合せを行ない、 一方の穴(13)の重心位置の軌跡に基づいて座標系の
一致動作を行なう上記特許請求の範囲第1項記載のキャ
リブレーション方法。 3、照明手段(2)が透光性のある板(4)の下方に配
置されており、産業用ロボット(1)の所定位置(16
)が治具を兼ねており、画像検出手段(3)により取り
込まれた信号に基づいて算出される治具(16)の移動
距離および予め与えられている距離に基づいて実寸法合
せを行ない、治具(16)の重心位置の軌跡に基づいて
座標系の一致動作を 行なう上記特許請求の範囲第1項記載のキャリブレーシ
ョン方法。 4、産業用ロボット(1)のワーク保持部(16)が治
具を兼ねており、産業用ロボット(1)の手首軸を動作
させ、手首軸の動作前後において画像検出手段(3)に
より取り込まれた信号に基づいて算出される治具(16
)の位置に基づいてツール・オフセット量の算出をさら
に行なう上記特許請求の範囲第3項記載のキャリブレー
ション方法。 5、透光性のある板(4)を基準として何れかの側に配
置された照明手段(2)および下方に配置された画像検
出手段(3)と、透光性のある板(4)上のワークを把
持する産業用ロボット(1)と、産業用ロボット(1)
に装着された治具(12)(15)(16)と、治具(
12)(15)(16)を予め設定された位置まで移動
させるべく産業用ロボット(1)を動作させるロボット
制御手段(5)と、画像検出手段(3)により得られる
信号に基づいて2値化処理を施す画像処理手段(3a)
と、画像処理手段(3a)により得られる治具(12)
(15)(16)のサイズが設定値になるように2値化
のための閾値を設定する閾値設定手段(3b)と、画像
処理手段(3a)により得られた治具(12)(15)
(16)の画像および基準となる距離情報に基づいて画
像処理情報の実寸法合せを行なう実寸法合せ手段(3c
)と、画像処理手段(3a)により得られる治具の軌跡
に基づいてロボット座標系と画像検出手段座標系とを一
致させる座標系一致手段(3d)とを含むことを特徴と
するキャリブレーション装置。 6、照明手段(2)が透光性のある板(4)の上方に配
置されており、治具(12)が2つの穴(13)を有す
るものであり、閾値設定手段(3b)が穴(13)のサ
イズに基づいて閾値を設定するものであり、実寸法合せ
手段(3c)が、画像処理手段(3a)により得られる
穴(13)の中心同士の距離および予め与えられている
穴(13)の中心同士の距離に基づいて実寸法合せを行
なうものであり、 座標系一致手段(3d)が一方の穴(13)の重心位置
の軌跡に基づいて座標系の一致動作を行なうものである
上記特許請求の範囲第5項記載のキャリブレーション装
置。 7、照明手段(2)が透光性のある板(4)の下方に配
置されており、産業用ロボット(1)の所定位置(16
)が治具を兼ねており、実寸法合せ手段(3c)が、画
像処理手段(3a)により得られる治具(16)の移動
距離および予め与えられている距離に基づいて実寸法合
せを行なうものであり、座標系一致手段(3d)が治具
(16)の重心位置の軌跡に基づいて座標系の一致動作
を行なうものである上記特許請求の範囲第5項記載のキ
ャリブレーション装置。 8、産業用ロボット(1)のワーク保持部(16)が治
具を兼ねており、産業用ロボット(1)の手首軸を動作
させ、手首軸の動作前後において画像処理手段(3a)
により得られる治具(16)の位置に基づいてツール・
オフセット量の算出を行なうツール・オフセット算出手
段(3e)をさらに含んでいる上記特許請求の範囲第7
項記載のキャリブレーション装置。
[Claims] 1. An illumination means (2) is arranged on either side of a translucent plate (4), and an image detection means (3) is disposed below the translucent plate (4). Jigs (12) (15) (1) are attached to an industrial robot (1) that grips a workpiece on a plate (4) with
6) is attached and the jigs (12), (15), and (16) are moved to preset positions, and the jig is calculated based on the signal captured by the image detection means (3). A threshold for binarization is set so that the sizes of (12), (15), and (16) become the set values, and then the jigs (12), (15), and ( 1
The actual size of the image processing information is adjusted based on the image of 6) and the reference distance information, and then the jig (12) (
15) By moving (16), the image detection means (
3) A calibration method characterized by matching the robot coordinate system and the image detection means coordinate system based on the trajectories of the jigs (12), (15), and (16) obtained in step 3). 2. The illumination means (2) is placed above the transparent plate (4), the jig (12) has two holes (13), and the size of the holes (13) Based on the distance between the centers of the holes (13) calculated based on the signal captured by the image detection means (3) and the distance between the centers of the holes (13) given in advance. 2. The calibration method according to claim 1, wherein actual size alignment is carried out using the same method, and the matching operation of the coordinate systems is carried out based on the locus of the center of gravity position of one of the holes (13). 3. The illumination means (2) is arranged below the transparent plate (4), and the illumination means (2) is placed at a predetermined position (16) on the industrial robot (1).
) also serves as a jig, and performs actual size adjustment based on the moving distance of the jig (16) calculated based on the signal captured by the image detection means (3) and a predetermined distance, The calibration method according to claim 1, wherein the coordinate system matching operation is performed based on the locus of the center of gravity position of the jig (16). 4. The work holding part (16) of the industrial robot (1) also serves as a jig, and the wrist axis of the industrial robot (1) is operated, and images are captured by the image detection means (3) before and after the movement of the wrist axis. The jig (16
) The calibration method according to claim 3, further comprising calculating the tool offset amount based on the position of the tool. 5. Illumination means (2) disposed on either side of the translucent plate (4) and image detection means (3) disposed below, and the translucent plate (4) Industrial robot (1) that grips the workpiece above and industrial robot (1)
The jigs (12) (15) (16) attached to the
12) A robot control means (5) that operates the industrial robot (1) to move (15) and (16) to a preset position, and a binary value based on the signal obtained by the image detection means (3). Image processing means (3a) that performs conversion processing
and a jig (12) obtained by the image processing means (3a)
(15) A threshold setting means (3b) for setting a threshold for binarization so that the size of (16) becomes a set value, and jigs (12) (15) obtained by an image processing means (3a). )
(16) Actual size adjustment means (3c) that performs actual size adjustment of image processing information based on the image and reference distance information.
); and coordinate system matching means (3d) for matching the robot coordinate system and the image detection means coordinate system based on the trajectory of the jig obtained by the image processing means (3a). . 6. The illumination means (2) is arranged above the translucent plate (4), the jig (12) has two holes (13), and the threshold setting means (3b) The threshold value is set based on the size of the hole (13), and the actual size adjustment means (3c) determines the distance between the centers of the holes (13) obtained by the image processing means (3a) and the distance given in advance. Actual size alignment is performed based on the distance between the centers of the holes (13), and the coordinate system matching means (3d) performs the matching operation of the coordinate systems based on the locus of the center of gravity position of one hole (13). The calibration device according to claim 5, wherein the calibration device is: 7. The illumination means (2) is arranged below the transparent plate (4), and the illumination means (2) is placed at a predetermined position (16) on the industrial robot (1).
) also serves as a jig, and the actual size adjustment means (3c) performs actual size adjustment based on the moving distance of the jig (16) obtained by the image processing means (3a) and a predetermined distance. 6. The calibration device according to claim 5, wherein the coordinate system matching means (3d) performs the matching operation of the coordinate systems based on the locus of the center of gravity position of the jig (16). 8. The work holding part (16) of the industrial robot (1) also serves as a jig, and the wrist axis of the industrial robot (1) is operated, and the image processing means (3a) is used before and after the movement of the wrist axis.
Based on the position of the jig (16) obtained by
Claim 7 further includes a tool offset calculation means (3e) for calculating the offset amount.
Calibration device as described in section.
JP26201790A 1990-09-30 1990-09-30 Calibration method in positioning system using image processing device and device therefor Pending JPH04141384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26201790A JPH04141384A (en) 1990-09-30 1990-09-30 Calibration method in positioning system using image processing device and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26201790A JPH04141384A (en) 1990-09-30 1990-09-30 Calibration method in positioning system using image processing device and device therefor

Publications (1)

Publication Number Publication Date
JPH04141384A true JPH04141384A (en) 1992-05-14

Family

ID=17369863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26201790A Pending JPH04141384A (en) 1990-09-30 1990-09-30 Calibration method in positioning system using image processing device and device therefor

Country Status (1)

Country Link
JP (1) JPH04141384A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516017A (en) * 2011-06-07 2014-07-07 ケアフュージョン・ジャーマニー・326・ゲーエムベーハー Separation device for bulk goods stored in automatic storage equipment
CN105563481A (en) * 2014-11-11 2016-05-11 沈阳新松机器人自动化股份有限公司 Robot vision guide method used for shaft hole assembling
CN107598919A (en) * 2017-08-18 2018-01-19 华南理工大学 A kind of two axle positioner scaling methods based on 5 standardizations
JP2019119005A (en) * 2018-01-05 2019-07-22 株式会社Fdkエンジニアリング Calibration method of component assembly device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516017A (en) * 2011-06-07 2014-07-07 ケアフュージョン・ジャーマニー・326・ゲーエムベーハー Separation device for bulk goods stored in automatic storage equipment
CN105563481A (en) * 2014-11-11 2016-05-11 沈阳新松机器人自动化股份有限公司 Robot vision guide method used for shaft hole assembling
CN107598919A (en) * 2017-08-18 2018-01-19 华南理工大学 A kind of two axle positioner scaling methods based on 5 standardizations
JP2019119005A (en) * 2018-01-05 2019-07-22 株式会社Fdkエンジニアリング Calibration method of component assembly device

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
TWI672206B (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
EP1215017B1 (en) Robot teaching apparatus
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
JP6740288B2 (en) Object inspection apparatus, object inspection system, and method for adjusting inspection position
JP2005138223A (en) Positional data correcting device for robot
CN112720458B (en) System and method for online real-time correction of robot tool coordinate system
CN108177150A (en) Door of elevator positioning and grabbing device and the method for view-based access control model
JP2012076216A (en) Method for combining camera coordinate system and robot coordinate system in robot control system, image processing device, program, and storage medium
TW202102347A (en) Calibration method of vision-guided robot arm only needing to specify a positioning mark in the calibration target to perform calibration
CN109015651A (en) A kind of visual processes integral system and its application method based on teaching machine
JP2012161850A (en) Robotic device, device, program and method for detecting position
JPH04141384A (en) Calibration method in positioning system using image processing device and device therefor
CN109895086A (en) A kind of door of elevator snatch device and method of machine vision
JP2013173191A (en) Robot apparatus, robot control apparatus, robot control method, and robot control program
CN117021137A (en) Visual teaching device adapting to various polishing tools
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
CN110488751B (en) Graphite tray visual positioning system of automatic process line
TW201805129A (en) Calibration method for robot arm calibration system comprising a robot, a camera and a calibration member to define the coordinates and a rotation axis
JPH08118272A (en) Calibration of robot
JP3386183B2 (en) Article position detection device
JPH05108131A (en) Teaching device of robot
CN114571199A (en) Screw locking machine and screw positioning method
JPH0283183A (en) Setting method for position of articulated robot
CN219649897U (en) Mechanical arm for vision auxiliary positioning