JPH0212710B2 - - Google Patents

Info

Publication number
JPH0212710B2
JPH0212710B2 JP58162829A JP16282983A JPH0212710B2 JP H0212710 B2 JPH0212710 B2 JP H0212710B2 JP 58162829 A JP58162829 A JP 58162829A JP 16282983 A JP16282983 A JP 16282983A JP H0212710 B2 JPH0212710 B2 JP H0212710B2
Authority
JP
Japan
Prior art keywords
workpiece
robot
shape
overall
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58162829A
Other languages
Japanese (ja)
Other versions
JPS6056895A (en
Inventor
Nobumasa Nakano
Masao Katagiri
Masami Niwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP16282983A priority Critical patent/JPS6056895A/en
Publication of JPS6056895A publication Critical patent/JPS6056895A/en
Publication of JPH0212710B2 publication Critical patent/JPH0212710B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 この発明はロボツト用視覚センサに関し、更に
詳しくは対象物体すなわちワークの形状を識別
し、識別されたワークの位置、傾きなど計測し、
ロボツトに把持位置、組付位置などを送信する機
能を有するロボツト用視覚センサに関するもので
ある。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention relates to a visual sensor for a robot, and more specifically, it identifies the shape of a target object, that is, a workpiece, measures the position, inclination, etc. of the identified workpiece, and
The present invention relates to a visual sensor for a robot that has a function of transmitting information such as a grasping position and an assembly position to a robot.

〔従来技術〕[Prior art]

従来、ロボツトで組立作業、搬送作業などを行
なう、いわゆるフアクトリーオートメーシヨンに
おいて、ロボツトにより高速でかつ正確な作業を
行なわせるためには、ロボツトの目となる視覚セ
ンサーとして高精度、高機能のものが必要で、そ
の実現が望まれていた。
Conventionally, in so-called factory automation, where robots perform assembly work, transportation work, etc., in order for robots to perform work at high speed and accuracy, it is necessary to use high-precision, high-performance visual sensors that serve as the robot's eyes. was necessary and its realization was desired.

〔発明の概要〕[Summary of the invention]

この発明はこのような点にかんがみてなされた
もので、カメラによつて受像された画像データか
ら視野内の1個又は分離して存在する2個以上の
ワークの形状の全体的特徴を抽出し、あらかじめ
登録された複数種類のワークの全体形状に関する
データを検索することにより視野内のワークが登
録されたワークの何れに該当するかを識別する全
体識別手段と、該全体識別手段によつて識別され
たワークのあらかじめ定められた2点の座標を計
測することによりワーク全体の位置及び傾きに関
する情報をロボツトに送信する全体計測手段と、
前記全体識別手段によつて識別されたワークの所
望の部分領域について、あらかじめ教示された局
所形状に関するデータに基づいて局所的特徴を抽
出することにより教示された局所形状と合致する
形状が存在するか否かを識別する部分識別手段
と、該部分識別手段によつて識別された局所形状
について、あらかじめ定められた点の座標を計測
することにより局所の重心位置及び傾きに関する
情報をロボツトに送信する部分計測手段を備える
ことにより、ロボツトの能力を飛躍的に拡大し、
各作業における高度な適応力を付加することがで
きるロボツトの視覚センサを提供することを目的
とするものである。以下、ワークの全体的あるい
は部分的形状に関するデータを予め教示すること
をテイーチングと表現する。
This invention was made in view of the above points, and is a method for extracting the overall shape characteristics of one or two or more separate workpieces within the field of view from image data received by a camera. , overall identification means for identifying which of the registered workpieces the workpiece within the field of view corresponds to by searching data regarding the overall shape of multiple types of workpieces registered in advance; and identification by the overall identification means. an overall measuring means for transmitting information regarding the position and inclination of the entire workpiece to the robot by measuring the coordinates of two predetermined points on the workpiece;
For the desired partial region of the workpiece identified by the overall identification means, extract local features based on data regarding the local shape taught in advance to determine if there is a shape that matches the taught local shape. a partial identification means for identifying whether or not the local shape is identified by the partial identification means, and a part for transmitting information regarding the local center of gravity position and inclination to the robot by measuring the coordinates of a predetermined point regarding the local shape identified by the partial identification means. By equipping the robot with measurement means, we can dramatically expand the capabilities of robots.
The object of the present invention is to provide a visual sensor for a robot that can add a high degree of adaptability to each task. Hereinafter, teaching in advance data regarding the overall or partial shape of the workpiece will be referred to as teaching.

〔発明の実施例〕[Embodiments of the invention]

以下、図面にもとづいてこの発明の一実施例に
ついて説明する。
An embodiment of the present invention will be described below based on the drawings.

第1図はこの発明の一実施例を示すシステム構
成図である。第1図において、1a,1bはテレ
ビカメラ、2は画像入力装置で、テレビカメラ1
a,1bからの入力画像信号を2値化し、弧立点
除去などの処理を行なう。なお、弧立点除去と
は、弧立した1点の情報は、その点を囲む画素の
情報と同一として判断することにより弧立点を除
去する処理である。3は画像処理装置で、画像入
力装置2の出力からランレングスを生成する。4
は画像メモリで、画像全体を記憶するもの、この
実施例では256×256ビツトである。つまり、画素
数は256×256である。5は中央処理装置
(CPU)、6は記憶装置、7はGPIBインターフエ
イス、8はRS232Cインターフエイス、9はモニ
タインターフエイス、10はライトペンインター
フエイス、11は視覚センサコントローラであ
り、上記5〜10により構成される。12はロボ
ツトコントローラ、13はカセツト磁気テープ装
置、14はヴラウン管表示装置によるモニタ、1
5はライトペンで、メニユーの選択、テイーチン
グなどセンサの各種操作を行なう。
FIG. 1 is a system configuration diagram showing an embodiment of the present invention. In FIG. 1, 1a and 1b are television cameras, 2 is an image input device, and the television camera 1
The input image signals from a and 1b are binarized, and processing such as arc point removal is performed. Incidentally, the erect point removal is a process of removing an erect point by determining that the information of one erect point is the same as the information of the pixels surrounding that point. 3 is an image processing device that generates a run length from the output of the image input device 2; 4
is an image memory that stores the entire image, which in this embodiment is 256×256 bits. In other words, the number of pixels is 256×256. 5 is a central processing unit (CPU), 6 is a storage device, 7 is a GPIB interface, 8 is an RS232C interface, 9 is a monitor interface, 10 is a light pen interface, 11 is a visual sensor controller, and 5 to 6 are the visual sensor controller. 10. 12 is a robot controller, 13 is a cassette magnetic tape device, 14 is a monitor using a television tube display device, 1
A light pen 5 is used to perform various sensor operations such as menu selection and teaching.

モニタ14には入力された情報をもとにCPU
5により処理された結果が表示される。カセツト
磁気テープ装置13はテイーチングデータを長期
保存したりするときに使用する。
The monitor 14 displays the CPU based on the input information.
The results processed by step 5 are displayed. The cassette magnetic tape device 13 is used for long-term storage of teaching data.

先づ、対象物体つまりワークの全体識別につい
て説明する。これは全体的特徴の抽出によつて行
なう。すなわち、あらかじめ対象ワークを見せる
ことにより複数個のワークについて全体的特徴と
してワークの面積、周長つまり外周長、穴の数、
全周長つまり穴があればその穴の周長も含めた全
周長、穴の面積、重心から外周までの最大長及び
最小長、コンパクトさ等を演算し、さらにライト
ペンにより指示されたA、B2点のワーク固有の
2次モーメントを基準とした座標を演算して、1
からn迄のワークについてそれぞれ記憶させてお
く。なお、コンパクトさとは(周長)2/面積であ
らわし、複雑な形状のもの程この値が大きくな
る。
First, overall identification of the target object, that is, the workpiece, will be explained. This is done by extracting global features. In other words, by showing the target workpieces in advance, the overall characteristics of multiple workpieces can be determined such as the workpiece area, circumference length, outer circumference length, number of holes, etc.
Calculate the total circumference, that is, the total circumference including the circumference of the hole if there is one, the area of the hole, the maximum and minimum length from the center of gravity to the outer circumference, compactness, etc., and then calculate the A indicated by the light pen. , calculate the coordinates of point B2 based on the secondary moment specific to the workpiece, and calculate 1
Each work from n to n is memorized. Note that compactness is expressed as (perimeter) 2 /area, and the more complex the shape, the larger this value becomes.

次に、実際にワークが流れてきたとき、或はロ
ボツトがワークの所へ見に行つたとき、カメラ1
a,1bから入力されたデータにより上記全体的
特徴を演算して、あらかじめ登録されたデータの
中から検索してワークが何番のワークであるかを
判断する。
Next, when the work actually flows or when the robot goes to see the work, camera 1
The above-mentioned overall characteristics are calculated using the data input from a and 1b, and the number of the work is determined by searching from the data registered in advance.

次に、ワークの位置と傾きを計測する。これは
ワークのあらかじめ決めたA及びBの2点の座標
をワークの固有の2次モーメントを基準として演
算し、A点→B点のベクトルがx軸となす角度つ
まり傾きを求めて、A点の座標と上記角度をロボ
ツトに送信する。
Next, measure the position and inclination of the workpiece. This calculates the coordinates of two predetermined points A and B on the workpiece based on the workpiece's inherent second-order moment, and calculates the angle or inclination that the vector from point A to point B makes with the x-axis. Send the coordinates and the above angle to the robot.

すなわち、ロボツトに送信するデータはワーク
が何かを示す上記全体的特徴に基づくワーク番
号、A点の座標、及び傾きである。これにより例
えばロボツトがワークをつかむときにA点から何
mmの所をつかむかを指定しておくことにより、傾
きがわかるからロボツトはハンドを傾けてワーク
をつかみに行くことができる。視野内に複数個の
ワークがある場合は、左上隅から水平方向に順に
走査し、つまりモニタ14画面の左上隅から水平
方向に順に走査し、最初に当つたワークを計測し
た結果例えば未登録であつた場合「未登録エラ
ー」をロボツトに送信し、次のワークの計測を行
ないそのワークが登録済の場合はワーク番号とA
点の座標及びA点→B点のベクトルがX軸となす
角度を演算しロボツトに送信する。また、ワーク
がある場合には続いてそのワークを計測し、デー
タをロボツトに送信する。そして、把持すべきワ
ークの選択は、視覚センサが送信したワーク番号
からロボツトが判断して把持する。
That is, the data sent to the robot is the work number based on the above-mentioned overall characteristics indicating what the work is, the coordinates of point A, and the inclination. For example, when a robot grasps a workpiece, it can move from point A to
By specifying whether to grab the workpiece at mm, the robot can grasp the workpiece by tilting its hand because the tilt is known. If there are multiple workpieces within the field of view, scan horizontally from the upper left corner, that is, scan horizontally from the upper left corner of the monitor 14 screen, and measure the first workpiece that hits, for example, if it is unregistered. If the work is registered, it will send an "unregistered error" to the robot, measure the next work, and if the work is already registered, send the work number and A.
The coordinates of the point and the angle formed by the vector from point A to point B with the X axis are calculated and sent to the robot. Furthermore, if there is a workpiece, the workpiece is subsequently measured and the data is sent to the robot. Then, the robot selects the workpiece to be gripped based on the workpiece number transmitted by the visual sensor.

なお、座標はセンサ側とロボツト側で別々に持
つているので両座標間にはオフセツトがあるが、
このオフセツトはあらかじめキヤリブレイシヨン
によりロボツトに教えておき、センサの計測結果
はロボツト側で補正するようになつている。さら
に、センサはスケーリングにより1画素に相当す
るmm数を計測することができるようになつてい
る。
Note that the sensor side and the robot side have separate coordinates, so there is an offset between the two coordinates.
This offset is taught to the robot in advance through calibration, and the sensor measurement results are corrected on the robot side. Furthermore, the sensor can now measure the number of millimeters corresponding to one pixel by scaling.

第2図はワークの位置及び傾きの計測を説明す
るための説明図で、20はワーク、Gは重心位
置、矢印はワークに固有の2次モーメントの最小
方向を示している。
FIG. 2 is an explanatory diagram for explaining the measurement of the position and inclination of the workpiece, where 20 indicates the workpiece, G indicates the position of the center of gravity, and the arrow indicates the minimum direction of the secondary moment specific to the workpiece.

次に、ワークの部分識別について説明する。第
3図は局所特徴抽出を説明するための説明図、第
4図は識別図形例を示す説明図である。第3図、
第4図において、21はモニタ画面、22はウイ
ンドウで、任意にライトペンで設定することがで
き、この中のみ情報処理することを示すもの、つ
まり処理範囲を示すものである。23はワークに
あけられた穴である。この部分識別は、穴23に
何かをさし込んだり、ねじを挿入するときなどに
使うものである。
Next, partial identification of a workpiece will be explained. FIG. 3 is an explanatory diagram for explaining local feature extraction, and FIG. 4 is an explanatory diagram showing an example of an identification figure. Figure 3,
In FIG. 4, 21 is a monitor screen, and 22 is a window, which can be arbitrarily set with a light pen, and indicates that information is to be processed only within this window, that is, indicates a processing range. 23 is a hole drilled in the workpiece. This part identification is used when inserting something into the hole 23 or inserting a screw.

ウインドウ22内で穴23を見付けることを指
定すると、テイーチングされたデータにもとづき
ウインドウ22内の指定された半径の円を見付
け、その重心点の座標を計測する。
When specifying to find the hole 23 within the window 22, a circle with the specified radius within the window 22 is found based on the taught data, and the coordinates of its center of gravity are measured.

長円24については、長径Ll及び短径Lsを指定
することにより、指定された長円の重心Gと一番
長い点とを結ぶ矢印25がx軸となす角度つまり
傾きとを計測する。
For the ellipse 24, by specifying the major axis Ll and the minor axis Ls , the angle or inclination of the arrow 25 connecting the specified ellipse's center of gravity G and the longest point with the x-axis is measured. .

矩形26については、長辺Ll及び短辺Lsを指定
することにより、長円と同じく重心Gと傾きを計
測する。
As for the rectangle 26, by specifying the long side Ll and the short side Ls , the center of gravity G and the inclination are measured in the same way as for the ellipse.

溝27については、四角を想定し、巾Wと深さ
Lを指定することにより、指定された溝の重心G
を求め、傾きは、重心Gから外向方向の矢印25
aとx軸となす角により求める。
As for the groove 27, by assuming a square shape and specifying the width W and depth L, the center of gravity G of the specified groove can be determined.
The slope is the arrow 25 in the outward direction from the center of gravity G.
It is determined by the angle between a and the x-axis.

かど28については、長さL1及びL2とコーナ
ー部LCと角θを指定すると、指定されたかどの
重心Gの位置を求め、傾きは、かどの半分の角度
を示す矢印25bとx軸となす角により求める。
For the corner 28, by specifying the lengths L 1 and L 2 , the corner LC, and the angle θ, the position of the center of gravity G of the specified corner is determined, and the inclination is determined by the arrow 25b indicating the half angle of the corner and the x-axis. Determined by the angle formed.

以上のようにして指令と合致したものを部分識
別し、その重心位置及び傾きがロボツトへ送信さ
れる。合致するものがなければエラーでかえされ
る。
As described above, the part that matches the command is identified, and its center of gravity position and inclination are transmitted to the robot. If there is no match, an error will be returned.

2台のカメラ1a,1bはロボツトコントロー
ラ12からの命令により、2台のカメラを任意に
切換えて使用する。例えば1台で全体識別を行な
い他の1台で局所識別を行なう。但し、1台で両
者を同時に行なうことはできない。
The two cameras 1a and 1b are used by arbitrarily switching between them according to commands from the robot controller 12. For example, one unit performs overall identification and the other unit performs local identification. However, one machine cannot do both at the same time.

〔発明の効果〕〔Effect of the invention〕

以上のようにこの発明によれば、全体識別機能
と部分識別機能とを備えることにより、視覚セン
サとして高精度、高機能のものが得られ、ロボツ
トの能力を飛躍的に拡大し、各作業における高度
な適応力を付加することができる。
As described above, according to the present invention, by providing the whole recognition function and the partial recognition function, a highly accurate and highly functional visual sensor can be obtained, dramatically expanding the capabilities of robots, and improving the robot's ability to perform various tasks. A high degree of adaptability can be added.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例を示すシステム構
成図、第2図は全体識別においてワークの位置及
び傾きの計測を説明するための説明図、第3図は
局所特徴抽出を説明するための説明図、第4図は
識別図形例を示す説明図である。 図中、1a,1bはカメラ、2は画像入力装
置、3は画像処理装置、4は画像メモリ、5は
CPU、6は記憶装置、12はロボツトコントロ
ーラ、13はカセツト磁気テープ装置、14はモ
ニタ、15はライトペンである。なお、図中、同
一符号は同一又は相当部分を示す。
FIG. 1 is a system configuration diagram showing an embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining the measurement of the position and inclination of a workpiece in overall identification, and FIG. 3 is an explanatory diagram for explaining local feature extraction. Explanatory diagram, FIG. 4 is an explanatory diagram showing an example of an identification figure. In the figure, 1a and 1b are cameras, 2 is an image input device, 3 is an image processing device, 4 is an image memory, and 5 is a
A CPU, 6 a storage device, 12 a robot controller, 13 a cassette magnetic tape device, 14 a monitor, and 15 a light pen. In addition, in the figures, the same reference numerals indicate the same or corresponding parts.

Claims (1)

【特許請求の範囲】 1 カメラによつて受像された画像データから視
野内の1個又は分離して存在する2個以上のワー
クの形状の全体的特徴を抽出し、あらかじめ登録
された複数種類のワークの全体形状に関するデー
タを検索することにより視野内のワークが登録さ
れたワークの何れに該当するかを識別する全体識
別手段と、 該全体識別手段によつて識別されたワークのあ
らかじめ定められた2点の座標を計測することに
よりワーク全体の位置及び傾きに関する情報をロ
ボツトに送信する全体計測手段と 前記全体識別手段によつて識別されたワークの
所望の部分領域について、あらかじめ教示された
局所形状に関するデータに基づいて局所的特徴を
抽出することにより教示された局所形状と合致す
る形状が存在するか否かを識別する部分識別手段
と、 該部分識別手段によつて識別された局所形状に
ついて、予め定められた点の座標を計測すること
により局所の重心位置及び傾きに関する情報をロ
ボツトに送信する部分計測手段とを備えたことを
特徴とするロボツトの視覚センサ。
[Claims] 1. Extract the overall features of the shape of one workpiece or two or more separately existing workpieces within the field of view from the image data received by the camera, and Overall identification means for identifying which of the registered works the workpiece within the field of view corresponds to by searching data regarding the overall shape of the workpiece; An overall measurement means that transmits information regarding the position and inclination of the entire workpiece to the robot by measuring the coordinates of two points; and a local shape taught in advance for a desired partial area of the workpiece identified by the overall identification means. a partial identification means for identifying whether or not a shape matching the taught local shape exists by extracting local features based on data regarding the local shape; and regarding the local shape identified by the partial identification means; 1. A visual sensor for a robot, comprising: partial measurement means for transmitting information regarding a local center of gravity position and inclination to the robot by measuring the coordinates of a predetermined point.
JP16282983A 1983-09-05 1983-09-05 Visual sensor for robot Granted JPS6056895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16282983A JPS6056895A (en) 1983-09-05 1983-09-05 Visual sensor for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16282983A JPS6056895A (en) 1983-09-05 1983-09-05 Visual sensor for robot

Publications (2)

Publication Number Publication Date
JPS6056895A JPS6056895A (en) 1985-04-02
JPH0212710B2 true JPH0212710B2 (en) 1990-03-26

Family

ID=15762026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16282983A Granted JPS6056895A (en) 1983-09-05 1983-09-05 Visual sensor for robot

Country Status (1)

Country Link
JP (1) JPS6056895A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61203285A (en) * 1985-03-04 1986-09-09 株式会社日立製作所 Method of controlling operation of robot
JPS61241606A (en) * 1985-04-19 1986-10-27 Mitsubishi Electric Corp Eyesight sensor
JPS61241611A (en) * 1985-04-19 1986-10-27 Mitsubishi Electric Corp Visual sensor
JP5686279B2 (en) * 2010-09-16 2015-03-18 いすゞ自動車株式会社 Work posture detection device, work processing execution device, and work posture detection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5877487A (en) * 1981-10-28 1983-05-10 富士通株式会社 Visual recognizing device for robot
JPS58114892A (en) * 1981-12-26 1983-07-08 日産自動車株式会社 Visual device for robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5877487A (en) * 1981-10-28 1983-05-10 富士通株式会社 Visual recognizing device for robot
JPS58114892A (en) * 1981-12-26 1983-07-08 日産自動車株式会社 Visual device for robot

Also Published As

Publication number Publication date
JPS6056895A (en) 1985-04-02

Similar Documents

Publication Publication Date Title
US7171041B2 (en) Position-orientation recognition device
US5329469A (en) Calibration method for a visual sensor
US20050273199A1 (en) Robot system
US20080192263A1 (en) Method for Determining the Position of an Object in Space
JP2005201824A (en) Measuring device
JPH06137840A (en) Automatic calibration device for visual sensor
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JPH0762869B2 (en) Position and shape measurement method by pattern projection
JPH0392712A (en) Three-dimensional position recognition by use of image processing device and distance measuring sensor
JPH03161223A (en) Fitting of work
JPH0212710B2 (en)
JP2002140693A (en) Image processing parameter determination device, its method and recording medium with recorded image processing parameter determination program
JPH06243236A (en) Setting device for coordinate system correction parameter of visual recognizer
JPH0726809B2 (en) Workpiece position coordinate correction method
JPH02125375A (en) Position detecting device
JPH04269194A (en) Plane measuring method
JPH06214622A (en) Work position sensor
JP2000180138A (en) Calibration plate and calibration system for visual sensor utilizing it
JPH07139918A (en) Method for measuring central position/radius of cylinder
JPS6257892A (en) Camera coordinate calibrating method of robot with visual sense
WO2022172471A1 (en) Assistance system, image processing device, assistance method and program
JPS63285410A (en) Position detecting system of work for robot
JP2888368B2 (en) Position measuring device
JPH0663733B2 (en) Method for detecting multiple holes
JP3068325B2 (en) 3D position measuring device