JPS62222108A - Image processing method in robot system - Google Patents

Image processing method in robot system

Info

Publication number
JPS62222108A
JPS62222108A JP6497886A JP6497886A JPS62222108A JP S62222108 A JPS62222108 A JP S62222108A JP 6497886 A JP6497886 A JP 6497886A JP 6497886 A JP6497886 A JP 6497886A JP S62222108 A JPS62222108 A JP S62222108A
Authority
JP
Japan
Prior art keywords
camera
image
image processing
robot
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6497886A
Other languages
Japanese (ja)
Inventor
Shinichi Sarugaku
信一 猿楽
Yasunori Shimura
志村 安規
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Keiyo Engineering Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Keiyo Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Keiyo Engineering Co Ltd filed Critical Hitachi Ltd
Priority to JP6497886A priority Critical patent/JPS62222108A/en
Publication of JPS62222108A publication Critical patent/JPS62222108A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To well perform confirmation even if the position of a camera changes, by using a reference article to calculate a converting parameter converting a picked up image of a TV camera into a reference coordinates system. CONSTITUTION:The image of parts on a table 10 is picked by TV cameras 1, 2, and the arm 11A grasping the parts and a robot main body 11 are controlled by a robot control apparatus 12 and an image processing unit 3 is connected to the cameras 1, 2 and the apparatus 12. A parameter for converting a scale into a reference coordinates system determined by the kind of a reference article and the relative distance between the cameras 2, 2 is preliminarily calculated. On the basis of this parameter, the scale correction of the picked-up image of the parts to be taught and confirmed is performed. The image after this correction is one under the reference coordinates system and comes to one from a reference position having no relation to the actual positions of the cameras 1, 2. Therefore, regardless of the positions of the cameras 1, 2, the pattern comparison and confirmation of the measured data from the parts to be confirmed and the reference teaching data from the parts to be taught can be performed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ロボット系における画像処理装置、特に固定
TVカメラと移動TVカメラとを有するロボット系にお
ける画像処理方法側こ関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing apparatus in a robot system, and particularly to an image processing method in a robot system having a fixed TV camera and a mobile TV camera.

〔従来の技術〕[Conventional technology]

ロボット系では、ハンド対象としての物品を先ず認識す
る処理を伴うことがある。物品の認識のために固定位置
にTV左カメラ設置し、このTV左カメラ物品の撮像を
行い、次いで撮像した画像を認識させる手順をとる。こ
の認識処理にあたって、物品の大きさを特定するために
、TV左カメラ位置を基準とする座標系を利用する。即
ち、TV左カメラ固有のスケールで画像記述を行わせる
In a robot system, there may be a process of first recognizing an object to be handled. In order to recognize an article, a TV left camera is installed at a fixed position, this TV left camera takes an image of the article, and then the photographed image is recognized. In this recognition process, a coordinate system based on the TV left camera position is used to specify the size of the item. That is, image description is performed using a scale unique to the TV left camera.

一方、固定TVカメラでは、物品の認識が不充分のため
、ロボットのアームに第2のTV左カメラ取り付け、こ
の2つのTV左カメラ切替えて物品の撮像を行わせるや
り方がある。ロボットのアームにTV左カメラ取りつけ
る従来例として特公昭51−35988号公報記載のも
のがある。
On the other hand, since the fixed TV camera is insufficient in recognizing objects, there is a method of attaching a second TV left camera to the arm of the robot and switching between these two TV left cameras to take images of the object. A conventional example of attaching a TV left camera to a robot arm is described in Japanese Patent Publication No. 51-35988.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記特公昭51−35988号公報の記載内容によれば
、ロボットのアームと共にTV左カメラ位置が変化する
。TV左カメラ位置の変化により、撮像画像の大きさが
変る。画像処理では、撮像画像と基準画像とのパターン
マツチング、又は撮像画像から所定の特徴抽出を行いこ
の抽出した特徴と基準特徴とのパターンマツチングを行
う。従って、撮像画像の大きさに応じて基準画像や基準
特徴を用意していなければならなかった。しかし、この
用意は大変であり、事実上採用困難である。且つ、対象
物品の形状が種々依存あることもあり、各物品毎に基準
画像や基準特徴の準備を必要とした。こうした点からも
、ロボットのアームにTV左カメラ取り付けて物品の認
識を行うことは、困難であった・ 本発明の目的は、固定TVカメラと可動TVカメラとを
持つロボット系にあっても画像認識用の各種の情報量が
少なく、且つ認識処理自体も簡単化させてなるロボット
系における画像認識方法を提供するにある。
According to the content described in Japanese Patent Publication No. 51-35988, the position of the TV left camera changes with the arm of the robot. The size of the captured image changes depending on the position of the TV left camera. In image processing, pattern matching is performed between a captured image and a reference image, or predetermined features are extracted from the captured image, and pattern matching is performed between the extracted features and the reference features. Therefore, it is necessary to prepare reference images and reference features depending on the size of the captured image. However, this preparation is difficult and practically difficult to employ. Furthermore, since the shape of the target article varies, it is necessary to prepare a reference image and reference features for each article. From these points of view, it is difficult to recognize objects by attaching a TV left camera to the arm of a robot.The object of the present invention is to provide images even if the robot system has a fixed TV camera and a movable TV camera. An object of the present invention is to provide an image recognition method for a robot system that requires a small amount of various information for recognition and simplifies the recognition processing itself.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、基準物品を用いて固定TVカメラ。 The present invention uses a reference article as a fixed TV camera.

ロボットアーム上に取り付けた可動TVカメラとのそれ
ぞれで基準座標系に変換する変換パラメータ(補正量)
を求めておき、実際の対象物品の撮像画像に対して上記
パラメータでスケール補正を行い、この補正後の画像を
認識させることとした。
Conversion parameters (correction amount) for converting to the reference coordinate system for each movable TV camera mounted on the robot arm
was determined, scale correction was performed on the captured image of the actual target article using the above parameters, and the image after this correction was recognized.

〔作 用〕[For production]

本発明によれば、基準物品をもとにして基準座標系に変
換するためのパラメータを求めておき、このパラメータ
を元にして実際の対象物品の撮像画像のスケール補正を
行わせた。このスケール補正後の画像は基準座標系のも
とての画像であり、実際のTV左カメラ位置とは無関係
な基準位置からの画像となる。画像認識では、この補正
後の画像が認識対象となり、TV左カメラ位置とは無関
係に画像認識が行われる。
According to the present invention, parameters for converting to the reference coordinate system are determined based on the reference article, and scale correction of the captured image of the actual target article is performed based on these parameters. The image after this scale correction is the original image of the reference coordinate system, and is an image from the reference position that is unrelated to the actual TV left camera position. In image recognition, this corrected image becomes the recognition target, and image recognition is performed regardless of the position of the TV left camera.

〔実施例〕〔Example〕

本発明のロボット系及び制御・処理系を第1図に示す。 FIG. 1 shows the robot system and control/processing system of the present invention.

ロボット本体11は、ロボット制御装置12によって制
御を受ける。画像処理袋@3は、TVカメラ1,2で撮
像した画像を認識する。この装置3には、CRT4、キ
ーボード5が装着されている。
The robot body 11 is controlled by a robot control device 12 . The image processing bag @3 recognizes images captured by the TV cameras 1 and 2. This device 3 is equipped with a CRT 4 and a keyboard 5.

TVカメラ1は固定カメラ、TVカメラ2はロボット系
のアームIIAに取り付けた可動TVカメラである。
The TV camera 1 is a fixed camera, and the TV camera 2 is a movable TV camera attached to a robot arm IIA.

作業台lOの上には、各種の部品7,8.9が搭載され
ており、ロボットハンドIIBでハンドリングされる。
Various parts 7, 8.9 are mounted on the workbench IO, and are handled by the robot hand IIB.

投光器6は、光を作業台付近に投射する。The light projector 6 projects light near the workbench.

TVカメラ1は動くことはなく、TVカメラ2がアーム
IIAと共に上下左右に移動する。回転することもある
。従って1部品9の撮像画像の大きさはTVカメラ2の
位置によって変化する。
The TV camera 1 does not move, and the TV camera 2 moves vertically and horizontally together with the arm IIA. It may also rotate. Therefore, the size of the captured image of one component 9 changes depending on the position of the TV camera 2.

このロボット系にあっては、ハンドIIBで部品7.8
.9のいずれかを把持し、移動や加工を行う。この把持
に際して、事前に部品の形状や特徴を把握しておき、ハ
ンド11Bの把持を正確にし。
In this robot system, parts 7.8 are used for hand IIB.
.. 9 to move or process. When gripping, grasp the shape and characteristics of the parts in advance to ensure accurate gripping with the hand 11B.

或いは加工位置の特定や移動方向等の決定に供せしめる
。そこで、物品の認識が必要となる。
Alternatively, it can be used to specify the processing position, determine the moving direction, etc. Therefore, it is necessary to recognize the goods.

この部品の認識のために、TVカメラ1,2がある。こ
のTVカメラ1,2で部品の撮像を行い。
TV cameras 1 and 2 are used to recognize this part. Images of the parts are taken using the TV cameras 1 and 2.

画像認識を行う。この画像認識は画像処理装置3が行う
。この画像認識結果は制御装置12に送られ。
Perform image recognition. This image recognition is performed by the image processing device 3. This image recognition result is sent to the control device 12.

ロボット11の制御に供し、アーム11Aの移動の制御
、及びハンド11Bの把持制御に利用される。
It is used to control the robot 11, to control the movement of the arm 11A, and to control the grip of the hand 11B.

第2図は、第1図に開示した装置に対する信号の流れを
中心とする系統図である。TVカメラ1と2とのどちら
の画像を取込むかの切替えを切替器31が行う。AD変
換器32は、切替器31からの撮像信号のAD変換を行
う。画像メモリ33は、AD変換後の撮像画像の格納を
行う。
FIG. 2 is a system diagram centered on signal flow for the device disclosed in FIG. A switch 31 switches which image from the TV camera 1 or 2 is to be captured. The AD converter 32 performs AD conversion of the imaging signal from the switch 31. The image memory 33 stores captured images after AD conversion.

CPU34は、ロボット11の制御、及び、画像処理及
び画像認識を行う。画像処理では2値化処理や特徴抽出
処理を行う。CRT4、キーボード5はマンマシン系と
しての入力及び表示手段等の役割を持つ。
The CPU 34 controls the robot 11 and performs image processing and image recognition. Image processing includes binarization processing and feature extraction processing. The CRT 4 and keyboard 5 serve as input and display means for a man-machine system.

ROM35はマイクロプログラムを格納する。ROM 35 stores microprograms.

RAM36は各種のデータの格納を行う。RAM37は
、教示用データを格納する。通信部38は上位コンピュ
ータ13とロボット制御装置と、CPU34との間のイ
ンターフェースを形成する。
The RAM 36 stores various data. The RAM 37 stores teaching data. The communication unit 38 forms an interface between the host computer 13, the robot control device, and the CPU 34.

上位コンピュータ13は、CPU34の上位の計算機を
なし、C:PU34の管理等に供する。
The host computer 13 serves as a computer above the CPU 34 and serves to manage the C:PU 34 and the like.

以上の構成で、各構成要素31.32.33.34.3
5゜36、37.38は、第1図の画像処理装置3を構
成する。
With the above configuration, each component 31.32.33.34.3
5°36, 37.38 constitute the image processing device 3 of FIG.

さて、以上の+q成で1画像処理装置3は、3つの機能
を持つ。そのフローを第3図に示す。3つの機能とは、
基準ティーチモード、部品ティーチモー1” ! 認識
モードを云う。どのモードであるかは、モードスイッチ
によって決る。モードスイッチは、キーボード5に設け
てもよく、或はCRT表示指定によっても可能である。
Now, with the above +q configuration, one image processing device 3 has three functions. The flow is shown in FIG. What are the three functions?
Reference teach mode, component teach mode 1''! This refers to the recognition mode. Which mode it is in is determined by the mode switch. The mode switch may be provided on the keyboard 5, or may be specified by the CRT display.

ソフトウェアによって実現もできる。This can also be achieved through software.

(1)、基準ティーチモード。(1), Reference teach mode.

このモードは、最初に指定される。基準ティーチモード
とは、基準座標系に実際の測定画像をスケール変換する
ための、変換パラメータ(補正用)を得る処理を云う。
This mode is specified first. The reference teaching mode refers to processing for obtaining conversion parameters (for correction) for scaling an actual measurement image to a reference coordinate system.

基準ティーチモードは、次のいずれか1つの条件で指定
される。
The reference teach mode is specified by any one of the following conditions.

■固定カメラの位置が変わった場合。■When the position of the fixed camera changes.

◎ロボットアーム上でのカメラ2の取付位置を変更させ
た場合。
◎When the mounting position of camera 2 on the robot arm is changed.

◎テーブル10の高さを変更させた場合。◎When the height of table 10 is changed.

この例から明らかなように、基準ティーチモードは作業
開始前に、固定TVカメラ1.可動TVカメラ2.テー
ブル10の各位置が決った段階で行われる。
As is clear from this example, the reference teach mode is used to set the fixed TV camera 1. Movable TV camera 2. This is done when each position of the table 10 is determined.

基準ティーチモードの手順を第4図により説明する6 (イ)、固定TVカメラ1の位置が、固定され、TVカ
メラ2のアーム上の取付けが、固定され、テーブル10
の高さが固定された条件成立のもとで、テーブル10上
に基準部品A1を置く(第5図)。
The procedure of the reference teaching mode will be explained with reference to Fig. 4. 6 (a) The position of the fixed TV camera 1 is fixed, the mounting of the TV camera 2 on the arm is fixed, and the table 10 is fixed.
The reference part A1 is placed on the table 10 under the condition that the height of the reference part A1 is fixed (FIG. 5).

(ロ)、基準部品AIを固定カメラ1及びカメラ2で撮
像する。先ず、カメラ1の撮像画像を取込むべく切替器
31が働く。これにより、カメラ1のvjl像画像は、
AD変換器32を通じてディジタル化され、画像メモリ
33に格納される。
(b) The reference part AI is imaged by the fixed camera 1 and the camera 2. First, the switch 31 operates to capture an image captured by the camera 1. As a result, the vjl image of camera 1 is
The image is digitized through the AD converter 32 and stored in the image memory 33.

次に、切替器31はカメラ2を選択する。カメラ2はア
ームIIAと共に移動する。そこで、アーム11Aを種
々の指定位置PIIP2・・・ pnに移動させ、その
指定位置毎にTVカメラ2で部品A1を撮像させる。こ
の結果、TVカメラ2からは指定位置毎にスケールの異
った撮像画像を得る。これらの画像を次々に画像メモリ
34にAD変換器32を介して取込み、格納させる。今
、簡単のため、アーム11Aの移動方向を上下動だけと
し、且つn個の指定位置を与えたとすると1画像メモリ
33には、固定TVカメラ1の画像が1つと、TVカメ
ラ2の画像が、n個となり、統計(。+1)の画像が格
納される。
Next, the switch 31 selects the camera 2. Camera 2 moves together with arm IIA. Therefore, the arm 11A is moved to various specified positions PIIP2...pn, and the component A1 is imaged by the TV camera 2 at each specified position. As a result, the TV camera 2 obtains captured images with different scales for each designated position. These images are successively taken into the image memory 34 via the AD converter 32 and stored therein. Now, for the sake of simplicity, if we assume that the arm 11A moves only up and down, and that we give n specified positions, the 1-image memory 33 contains one image from the fixed TV camera 1 and one image from the TV camera 2. , n, and images with statistics (.+1) are stored.

(ハ)9次に、画像メモリ33の各画像毎に変換パラメ
ータを作成する。この変換パラメータの作成はCPU3
4が行う。この作成手順は以下となる。
(c) 9 Next, conversion parameters are created for each image in the image memory 33. This conversion parameter is created by CPU3.
4 will do it. The creation procedure is as follows.

(i)キーボード5から鎮準部品A1の表面積をCPU
34に入力する。
(i) The surface area of the leveling part A1 is calculated from the keyboard 5 by the CPU.
34.

(]1)(n+1)の各画像毎に基準部品の測定面積を
算出する。この様子を第7図に示す。但し、位置P、は
ベクトル表示Piした。
(]1) Calculate the measurement area of the reference component for each (n+1) image. This situation is shown in FIG. However, the position P is expressed as a vector Pi.

(瓜)基準部品の基準面積をSo、 (。+1)個の各
画像毎の測定面積を5IIS2・・・1sfl+1とす
る時、変換パラメータを各画像毎に次式で算出する。
(U) When the reference area of the reference part is So, and the measured area for each of (.+1) images is 5IIS2...1sfl+1, the conversion parameter is calculated for each image using the following equation.

αn++ =J S n++  / J S 。αn++ = J S n++ / J S.

α1は、固定カメラ1の撮像画像のスケール変換パラメ
ータ、α2は固定カメラ2の位置P1での撮像画像のス
ケール変換パラメータ、・・・。
α1 is a scale conversion parameter of the image taken by the fixed camera 1, α2 is a scale conversion parameter of the image taken at the position P1 of the fixed camera 2, and so on.

αn+1は固定カメラ2の位置pHでの撮像画像のスケ
ール変換パラメータとなる。
αn+1 is a scale conversion parameter of the captured image at the position pH of the fixed camera 2.

かくして得た変換パラメータα1.α2.・・・。The thus obtained conversion parameter α1. α2. ....

αnuはそのTVカメラの種類と位置(P + p P
 2等)との係り合いを付してメモリ36に格納する。
αnu is the type and position of the TV camera (P + p P
2, etc.) and stored in the memory 36.

ここで、TVカメラ1の位置はキーボード5からCPU
34へ与え、TVカメラ2の各指定位置は、ロボットア
ームの移動指定位置をCPU34が取込むことによって
得ることができる。
Here, the position of TV camera 1 is from keyboard 5 to CPU.
34, and each designated position of the TV camera 2 can be obtained by the CPU 34 taking in the designated movement position of the robot arm.

この変換パラメータα、は、カメラ位置を基準座標系に
変換するための補正データである。
This conversion parameter α is correction data for converting the camera position to the reference coordinate system.

従って、ある位置P、で求めた画像の特徴量(例えば面
積)に対し、この変換パラメータでスケール補正をすれ
ば、位置P、での測定画像ではなく基準座標系による画
像となる。即ち、カメラ位置に関係のない画像となる。
Therefore, if the feature quantity (for example, area) of an image obtained at a certain position P is scale-corrected using this conversion parameter, it becomes an image based on the reference coordinate system rather than a measured image at position P. In other words, the image is unrelated to the camera position.

この変換パラメータは、後述する部品ティーチモード、
認識モードの同者でスケール補正に使用される。
This conversion parameter is the component teach mode, which will be described later.
Used for scale correction in recognition mode.

(ニ)、変換パラメータα、の代りに、更に上位の概念
としての変換パラメータを用いてもよい。
(d) Instead of the conversion parameter α, a conversion parameter as a higher level concept may be used.

その手順を以下に示す。The procedure is shown below.

変換パラメータα、は、カメラと撮像する面までの距離
に比例する。従って、次式が成立する。
The conversion parameter α is proportional to the distance between the camera and the surface to be imaged. Therefore, the following equation holds.

K−e ・(P 1Po)  = a;      ・
=(2)Po・・・ロボット座標系で表しだ基準部品の
画像での重心位置。
K-e ・(P 1Po) = a; ・
= (2) Po...Position of the center of gravity in the image of the reference part expressed in the robot coordinate system.

Pl・・・ロボット座標系で表したカメラ位置e・・・
カメラの光軸方向単位ベクトルK・・・比例定数 (2)式は、カメラの方向が変化しなければ、即ちカメ
ラが上下動するだけであれば、次の式に変形できる。
Pl...Camera position e expressed in robot coordinate system...
Camera optical axis direction unit vector K...proportionality constant Equation (2) can be transformed into the following equation if the direction of the camera does not change, that is, if the camera only moves up and down.

A−1’、−B=αi         ・・・(3)
ここで、A=に−e(一定ベクトル) B=に−e−Po(定数) である。(3)式はすべてのiについて成立つ。従って
i+i−1での差分を求めると、 より、 A・ΔF、=Δα、          ・・・(5)
となる。ここで、ΔF+=P+  Pt−+、Δα1=
αI−α1−1である・ 従って、Aは、(5)式より、 Δ=ΔP、−1・Δα、        ・・・(6)
今、4つの違った位置での差分ΔF、をΔP + +Δ
P21ΔP3とし、且つ変換パラメータの差Δα1を△
αi、Δα2.Δα3とすると、(6)式と表わすこと
ができる。三次元座標(x、y+2)で差分ΔF、を表
わすと、 更に、Bは、(4)式を利用して下記より求まる。
A-1', -B=αi...(3)
Here, A=-e (constant vector) and B=-e-Po (constant). Equation (3) holds true for all i. Therefore, when calculating the difference at i+i-1, we get A・ΔF,=Δα,...(5)
becomes. Here, ΔF+=P+ Pt-+, Δα1=
αI-α1-1 Therefore, from equation (5), A is Δ=ΔP, -1・Δα, ...(6)
Now, the difference ΔF at four different positions is ΔP + +Δ
P21ΔP3, and the difference in conversion parameters Δα1 is △
αi, Δα2. When Δα3, it can be expressed as equation (6). If the difference ΔF is expressed in three-dimensional coordinates (x, y+2), then B can be found as follows using equation (4).

B=A−Pt−α1             ・・・
(9)かくして、A、Bが求まると、 α=A−P−8           ・・・(10)
から、変換パラメータαを求めることができる。
B=A-Pt-α1...
(9) Thus, when A and B are found, α=A-P-8...(10)
From this, the conversion parameter α can be found.

この(10)式でαを求めるためには、A、Bを登録さ
せておく。
In order to obtain α using this equation (10), A and B must be registered.

(2)0部品ティーチモード。(2) 0 parts teach mode.

こモードは基準ティーチモードの次の処理である。部品
ティーチモードとは、先の基準部品の代りに、ティーチ
対象となる部品をテーブル10上に置き、カメラ1.又
は2で撮像し、教示データとして取込む作業を云う。
This mode is the next process after the standard teach mode. In the component teach mode, a component to be taught is placed on the table 10 instead of the reference component, and the camera 1. Or, it refers to the work of capturing an image in step 2 and importing it as teaching data.

カメラ1にするか2にするかは、ティーチ対象部品の種
類や大きさ、搭載位置によって定まる。
Whether camera 1 or 2 is used depends on the type, size, and mounting position of the part to be taught.

部品ティーチモートの処理フローを第8図に示す。先ず
、カメラ1か2かの選択をティーチ対象部品により行う
。この選択指示はキーボード5で行う。次に、カメラ位
置を入力する。カメラ1は。
FIG. 8 shows the processing flow of the component teach mode. First, camera 1 or 2 is selected depending on the part to be taught. This selection instruction is made using the keyboard 5. Next, input the camera position. Camera 1 is.

固定位置であり、カメラ2ではその時のアーム位置とな
る。
This is a fixed position, and for the camera 2, this is the arm position at that time.

カメラ位置入力後、選択したカメラで該部品を撮像する
。この撮像部品画像(パターン)を画像処理装置に取込
ませると共に、キーボード5より当該部品番号(コード
)を入力する。この部品番号は部品識別番号である。
After inputting the camera position, the part is imaged with the selected camera. This imaged part image (pattern) is taken into the image processing device, and the part number (code) is inputted from the keyboard 5. This part number is a part identification number.

画像処理装置は、この画像の処理を行い、特徴量を抽出
する。特徴量には、画像の面積2周囲長。
The image processing device processes this image and extracts feature amounts. The feature quantity is the area of the image 2 the perimeter.

二次モーメント、画像内の内部孔の面積等がある。These include the second moment of inertia, the area of the internal hole in the image, etc.

次に、当該カメラの位置座標から基準座標系へと変換す
る。固定カメラ1を選択した場合には、基準ティーチモ
ードの(1)式で示したα0を変換パラメータとして使
用し、スケール変換を行う。可動カメラ2を選択した場
合には、基準ティーチモードの(1)式で示したα、又
は(10)式で示したαを変換パラメータとして使用し
、スケール変換を行う。
Next, the position coordinates of the camera are converted to a reference coordinate system. When the fixed camera 1 is selected, scale conversion is performed using α0 shown by equation (1) in the reference teach mode as a conversion parameter. When the movable camera 2 is selected, scale conversion is performed using α shown in equation (1) or α shown in equation (10) in the reference teach mode as a conversion parameter.

例えば、特徴量として長さQを抽出したとすると、スケ
ール変換後の長さQoは次式で算出する。
For example, if the length Q is extracted as a feature, the length Qo after scale conversion is calculated using the following equation.

Ω0 Qo=□           ・・・(11)α 例えば1面積Srを抽出したとすると、スケール変換後
の面積Sは、次式で算出する。
Ω0 Qo=□ (11) α For example, if one area Sr is extracted, the area S after scale conversion is calculated by the following formula.

(11)、 (12)式から明らかなように、特徴量の
次元によって、α1で変換する。
As is clear from equations (11) and (12), the conversion is performed by α1 depending on the dimension of the feature amount.

特徴量の抽出は、1つのみでなく、長さと面積。Extraction of feature quantities is not limited to just one, but length and area.

周囲長といった複数であることが多い。従って、それぞ
れスケール変換して基亭座標系での基準値を算出する。
It is often plural, such as perimeter. Therefore, each scale is converted to calculate the reference value in the Keitei coordinate system.

これらの算出値は、部品番号毎に分けてメモリに格納す
る。
These calculated values are stored in memory separately for each part number.

以上の処理は、テーブル10の上に存在する部品数分行
う。従って、メモリには1部品番号で識別された各種の
基準値が格納される。
The above processing is performed for the number of parts existing on the table 10. Therefore, various reference values identified by one part number are stored in the memory.

尚、部品番号の入力の仕方は以下となる。CRTに第6
図(イ)、(ロ)に示す如き部品画像2,3を表示させ
ておく。そこで、カーソルで部品画像2を指示し、その
部品の番号をキーボードで入力する。部品画像3をカー
ソル指示し、キーボードでこの部品番号をキーインすれ
ば、画像3の部品番号を入力する。
The method of inputting the part number is as follows. 6th on CRT
Component images 2 and 3 as shown in Figures (A) and (B) are displayed. Therefore, the user points to component image 2 with the cursor and inputs the number of the component using the keyboard. By pointing the cursor to part image 3 and keying in this part number on the keyboard, the part number of image 3 is input.

以上で部品教示データのティーチが終了する。This completes the teaching of the parts teaching data.

ここで、注意すべきことは、カメラ1で見ようとカメラ
2のどの位置でみようと、同じ部品は、1回ティーチす
れば、完全な基準値を得ることができる。即ち、2回、
3回といった複数回の教示は不用である。この理由は、
変換パラメータで基準座標系にスケール変換したためで
ある。本実施例の大きな特徴となる。
What should be noted here is that regardless of the position of camera 1 or camera 2, a complete reference value can be obtained for the same part by teaching it once. That is, twice,
Teaching multiple times, such as three times, is unnecessary. The reason for this is
This is because the scale was converted to the reference coordinate system using the conversion parameter. This is a major feature of this embodiment.

(3)、認識モード 認識モードとは、実際に認識対象部品をテーブル10上
におき、これをカメラ1又は2で撮像し部品認識を行う
処理である。
(3) Recognition mode The recognition mode is a process in which a part to be recognized is actually placed on the table 10, and the part is imaged by the camera 1 or 2 to perform part recognition.

認識モードの処理内容を第9図に示す。FIG. 9 shows the processing contents of the recognition mode.

先ず、前提として、テーブル10上に認識対象部品を搭
載する。次に、この部品をカメラ1,2のうちのどちら
で撮像するかの選択を行う。第2図では切替器31がこ
の選択をする。この選択はロボットの指示による。
First, as a premise, parts to be recognized are mounted on the table 10. Next, a selection is made as to which of cameras 1 and 2 should be used to image this part. In FIG. 2, switch 31 makes this selection. This selection is determined by the robot's instructions.

カメラ位置を入力する。カメラ1を選択した場合には、
固定位置を入力する。カメラ2を選択した場合には、ロ
ボットアームの位置を取込み、カメラ位置を得ろ。
Enter the camera position. If you select camera 1,
Enter a fixed position. If camera 2 is selected, capture the position of the robot arm and obtain the camera position.

選択カメラで部品を撮像し、部品画像(パターン)を得
る。この部品画像を画像処理装置3に取込む。処理装置
3は、予じめ定めた手法に従って、特徴量を抽出する6
部品が複数個あれば、各部品毎に特徴量を抽出する。
The selected camera images the part and obtains a part image (pattern). This part image is taken into the image processing device 3. The processing device 3 extracts feature quantities according to a predetermined method 6
If there are multiple parts, the feature amount is extracted for each part.

次に、各部品毎に抽出特徴量を基準座標系に変換する。Next, the extracted feature amount is converted to the reference coordinate system for each part.

これによって、特徴量は基準座標系によって測定したと
同じスケールとなる。このスケール変換は変換パラメー
タαを使用して行う3手法は前記と同じである。
As a result, the feature amounts have the same scale as those measured using the reference coordinate system. The three methods for performing this scale conversion using the conversion parameter α are the same as those described above.

教示ティーチモードで求めた教示データ(基準値)と前
記スケール変換した特徴量との比較を行う、比較法には
、パターンマツチング法等がある。
Comparison methods for comparing the teaching data (reference value) obtained in the teaching mode with the scale-converted feature amount include a pattern matching method and the like.

比較の結果、一致であれば、その部品は教示データと一
致したものとして、後処理に移る。後処理では、認識結
果を用いて、ロボットが必要としているデータの形に変
換したり、または部品の位置の計算に利用したりする。
If the comparison results in a match, the part is assumed to match the teaching data and is subjected to post-processing. In post-processing, the recognition results are used to convert them into the data format required by the robot, or to be used to calculate the position of parts.

この結果をロボットへ出力する。CRTに表示すること
もある。
Output this result to the robot. It may also be displayed on a CRT.

比較の結果、不一致ならば、画面の中に未認識の部品が
あるかをチェックし、あれば、その部品の特徴量のスケ
ール変換、教示データとの比較等の同様の処理を行う。
If the result of the comparison is that they do not match, it is checked whether there is an unrecognized part on the screen, and if so, similar processing such as scale conversion of the feature amount of the part, comparison with teaching data, etc. is performed.

尚、変換スケールのソースデータとして面1iIS以外
に、長さや濃度分布等も利用できる。
In addition to the surface 1iIS, length, concentration distribution, etc. can also be used as source data for the conversion scale.

本実施例によれば、以下の効果がある。According to this embodiment, there are the following effects.

(1)、教示が簡単である。(1) It is easy to teach.

カメラ毎に、部品を再ティーチする必要がない。There is no need to reteach parts for each camera.

(2)、全教示データの量が少ない。(2) The amount of total teaching data is small.

1つの部品に対して、各カメラ別のデータを持つ必要が
ない。
There is no need to have data for each camera for one part.

(3)、教示データの互換性がある。(3) The teaching data is compatible.

複数台の本装置があれば、1台でティーチした部品のデ
ータは、スケール変換しているため、そのまま他の装置
でも使用できる。
If there are multiple units of this device, the data of the parts taught in one unit can be used as is in other devices because the scale is converted.

(4)、カメラの位置づれに対し、容易に対応できる。(4) It is possible to easily deal with misalignment of the camera.

カメラの取付は位置がずれた場合でも、基準ティーチさ
え行えばよく、部品の再ティーチは不用である。
Even if the camera is misaligned, all you need to do is teach the reference, and there is no need to reteach the parts.

(5)’、 CA D 、 CA Mに容易に結合でき
る。
(5)', can be easily combined with CA D and CAM.

CAD、CAMで計算可能なデータは直接に、本処理装
置の教示データとなりうる。
Data that can be calculated using CAD or CAM can directly serve as teaching data for this processing device.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、カメラの位置が変っても、部品を一般
的な座標系(基準座標系)に変換して認識できるため、
良好な認識を行う効果を得る。
According to the present invention, even if the camera position changes, parts can be recognized by converting them into a general coordinate system (reference coordinate system).
Obtain the effect of performing good recognition.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例図、第2図は処理系統図、第3
図は処理内容を示す図、第4図は基準ティーチモードの
処理フロー図、第5図は基準ティーチの際のテーブルの
様子を示す図、第6図(イ)。 (ロ)は撮像画像側図、第7図は基準データを得るため
の処理図、第8図は部品ティーチモードの処理フロー図
、第9図は認識モードの処理フロー図である。 1.2・・・TVカメラ、3・・・画像処理装置、11
・・・ロボット本体、12・・・ロボット制御装置。 代理人  弁理士  秋 本  正 実第1図 第 2 図 第3図 2き5図 ?”5 6 図(イ) (ロ)
Fig. 1 is an embodiment diagram of the present invention, Fig. 2 is a processing system diagram, and Fig. 3 is a diagram of an embodiment of the present invention.
4 is a flowchart of processing in the standard teaching mode, FIG. 5 is a diagram showing the state of the table during standard teaching, and FIG. 6 (A). (b) is a side view of the captured image, FIG. 7 is a process diagram for obtaining reference data, FIG. 8 is a process flow diagram of component teaching mode, and FIG. 9 is a process flow diagram of recognition mode. 1.2... TV camera, 3... Image processing device, 11
...Robot body, 12...Robot control device. Agent Patent Attorney Tadashi Akimoto Figure 1, Figure 2, Figure 3, Figure 2, Figure 5? ”5 6 Figure (a) (b)

Claims (1)

【特許請求の範囲】 1、部品を搭載するテーブルと、該部品を把持するアー
ムと、部品を撮像するカメラと、アームを支持するロボ
ット本体と、該ロボット本体及びアームを制御するロボ
ット制御装置と、該ロボット制御装置及びカメラに接続
する画像処理装置と、より成るロボット系において、 基準部品の種類と、基準部品とカメラとの相対距離とに
よって定まるスケール変換パラメータを予じめ求めて画
像処理装置内のメモリに格納されておくと共に、 テーブル上に搭載した教示対象部品をカメラで撮像し、
該撮像した画像を画像処理装置で処理して特徴量抽出を
行い、該抽出した特徴量を上記予じめ求めた変換パラメ
ータをもとにスケール変換して基準教示データを得、該
得られた基準教示データを部品対応に画像処理装置内の
メモリに格納させ、 次にテーブル上に搭載した認識対象部品をカメラで撮像
し、該撮像した画像を画像処理装置で処理して特徴量抽
出を行い、該抽出した特徴量を上記予じめ求めた変換パ
ラメータをもとにスケール変換して測定データを得、該
測定データと前記メモリ内の基準教示データとのパター
ン比較を行い、一致した場合には該基準教示データを提
供した部品と認識する、 ことを特徴とするロボット系における画像処理方法。 2、上記カメラは、固定カメラと、アームに取付けた可
動カメラとより成る特許請求の範囲第1項記載の処理方
法。
[Claims] 1. A table on which a component is mounted, an arm that grips the component, a camera that images the component, a robot body that supports the arm, and a robot control device that controls the robot body and the arm. , in a robot system consisting of the robot control device and an image processing device connected to the camera, the image processing device calculates in advance a scale conversion parameter determined by the type of reference part and the relative distance between the reference part and the camera. In addition to being stored in the internal memory, the part to be taught mounted on the table is imaged with a camera.
The captured image is processed by an image processing device to extract the feature amount, and the extracted feature amount is scale-converted based on the conversion parameters determined in advance as described above to obtain reference teaching data. The standard teaching data is stored in the memory of the image processing device corresponding to each part, and then the recognition target part mounted on the table is imaged with a camera, and the captured image is processed by the image processing device to extract features. , the extracted feature quantity is scale-converted based on the conversion parameters obtained in advance, to obtain measurement data, and a pattern comparison is made between the measurement data and the reference teaching data in the memory, and if they match, An image processing method in a robot system, characterized in that: is recognized as a part that has provided the reference teaching data. 2. The processing method according to claim 1, wherein the camera comprises a fixed camera and a movable camera attached to an arm.
JP6497886A 1986-03-25 1986-03-25 Image processing method in robot system Pending JPS62222108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6497886A JPS62222108A (en) 1986-03-25 1986-03-25 Image processing method in robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6497886A JPS62222108A (en) 1986-03-25 1986-03-25 Image processing method in robot system

Publications (1)

Publication Number Publication Date
JPS62222108A true JPS62222108A (en) 1987-09-30

Family

ID=13273647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6497886A Pending JPS62222108A (en) 1986-03-25 1986-03-25 Image processing method in robot system

Country Status (1)

Country Link
JP (1) JPS62222108A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01318563A (en) * 1988-06-20 1989-12-25 Hitachi Ltd Actuator
JPH02184618A (en) * 1988-12-29 1990-07-19 L'oreal Sa Ir reflective transparent cosmetic composition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01318563A (en) * 1988-06-20 1989-12-25 Hitachi Ltd Actuator
JPH02184618A (en) * 1988-12-29 1990-07-19 L'oreal Sa Ir reflective transparent cosmetic composition

Similar Documents

Publication Publication Date Title
CN105729468B (en) A kind of robotic workstation based on the enhancing of more depth cameras
CN110580725A (en) Box sorting method and system based on RGB-D camera
US7280687B2 (en) Device for detecting position/orientation of object
CN110246124B (en) Target size measuring method and system based on deep learning
CN110211180A (en) A kind of autonomous grasping means of mechanical arm based on deep learning
CN111496770A (en) Intelligent carrying mechanical arm system based on 3D vision and deep learning and use method
JP2004295223A (en) Image processing apparatus and robot system
US11833697B2 (en) Method of programming an industrial robot
JP2010210585A (en) Model display method in three-dimensional visual sensor, and three-dimensional visual sensor
Hsu et al. Development of a faster classification system for metal parts using machine vision under different lighting environments
CN114286739B (en) Information processing device, setting method, image recognition system, robot system, learning device, and method for generating learned model
JPH06137840A (en) Automatic calibration device for visual sensor
Fan et al. A shape-based stereo matching algorithm for binocular vision
CN106938463A (en) A kind of method of large plate positioning crawl
JP2003311670A (en) Positioning control method of robot arm and robot equipment
CN115042175A (en) Method for adjusting tail end posture of mechanical arm of robot
JP2006224291A (en) Robot system
CN110530289A (en) A kind of mechanical hand three-dimensional self-scanning device and scan method based on camera anticollision
CN113487674B (en) Human body pose estimation system and method
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
Fan et al. An automatic robot unstacking system based on binocular stereo vision
JPS62222108A (en) Image processing method in robot system
CN117021099A (en) Human-computer interaction method oriented to any object and based on deep learning and image processing
CN113240751B (en) Calibration method for robot tail end camera
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping