JP3087788B2 - Component position detection method and device - Google Patents

Component position detection method and device

Info

Publication number
JP3087788B2
JP3087788B2 JP03346256A JP34625691A JP3087788B2 JP 3087788 B2 JP3087788 B2 JP 3087788B2 JP 03346256 A JP03346256 A JP 03346256A JP 34625691 A JP34625691 A JP 34625691A JP 3087788 B2 JP3087788 B2 JP 3087788B2
Authority
JP
Japan
Prior art keywords
edge
detecting
component
extracted
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03346256A
Other languages
Japanese (ja)
Other versions
JPH05177457A (en
Inventor
良巳 山本
優 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP03346256A priority Critical patent/JP3087788B2/en
Publication of JPH05177457A publication Critical patent/JPH05177457A/en
Application granted granted Critical
Publication of JP3087788B2 publication Critical patent/JP3087788B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Assembly (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、例えば対象物を扱うロ
ボット等において、その対象物の位置や角度を検出し、
これらの情報を制御情報として得ることができる部品の
位置検出方法及び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot for handling an object, for example, which detects the position and angle of the object,
The present invention relates to a method and an apparatus for detecting a position of a component capable of obtaining such information as control information.

【0002】[0002]

【従来の技術】ロボット等を用いた自動組立装置の制御
を行う場合、そのロボットが作用しようとしている対象
物の位置や角度を検出する必要がある。このような対象
物の位置や角度を検出する方法として、対象となる物体
の形状から求められる重心の座標を位置とし、その重心
を通る慣性主軸の向きを角度とする方法が知られてい
る。しかし、ロボット側から見た時に対象物が重なって
いたり、その一部が欠けていたような場合は、この方法
では、対象物の正確な位置検出ができなくなる。
2. Description of the Related Art When controlling an automatic assembling apparatus using a robot or the like, it is necessary to detect the position and angle of an object on which the robot is to act. As a method for detecting the position and the angle of such an object, a method is known in which the coordinates of the center of gravity obtained from the shape of the target object are set as the positions, and the direction of the principal axis of inertia passing through the center of gravity is set as the angle. However, in the case where the objects are overlapped or partially missing when viewed from the robot side, accurate position detection of the objects cannot be performed by this method.

【0003】そこで、ロボット等の装置に取り込んだ原
画像と、それに膨張・縮小処理を施した画像との差分に
より対象物の形状の特徴を抽出し、それらの重心の位置
関係から対象物の位置や方向を検出する方法が考えられ
ている。この方法によれば、対象物の形状の認識時に、
その対象物の一部が欠落していても、その形状の特徴を
複数求めることができれば、その対象物の位置や方向を
検出することができる。
[0003] Therefore, features of the shape of an object are extracted from the difference between an original image captured by a device such as a robot and an image subjected to dilation / reduction processing, and the position of the object is determined from the positional relationship between the centers of gravity. And a method of detecting the direction are being considered. According to this method, when recognizing the shape of the object,
Even if a part of the object is missing, if a plurality of features of the shape can be obtained, the position and direction of the object can be detected.

【0004】[0004]

【発明が解決しようとする課題】上述した方法で、対象
物の位置や角度の検出を行う場合は、その対象物の形状
の特徴をなるべく多く抽出した方がよいが、膨張・縮小
処理画像との差分を用いる上述した方法では、一括の処
理では対象物の形状の凹部または凸部のどちらかしか求
められず、一方、対象物の穴部などの特徴は、別にラベ
リング処理などで求める必要があった。
When the position and angle of an object are detected by the above-described method, it is better to extract as many features of the shape of the object as possible. In the above-described method using the difference of the above, only one of the concave portion and the convex portion of the shape of the target object is obtained in the collective processing, while the feature such as the hole portion of the target object needs to be obtained separately by a labeling process or the like. there were.

【0005】本発明は上記従来例に鑑みてなされたもの
で、対象物の有する形状の特徴量を1度に抽出して、そ
の対象物の位置や角度を検出することができる部品の位
置検出方法及び装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described conventional example, and detects a feature amount of a shape of an object at a time to detect a position and an angle of the object. It is an object to provide a method and an apparatus.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に本発明の位置検出装置は以下の様な構成を備える。即
ち、部品の形状を光電的に読取って、その位置を検出す
る部品の位置検出装置であって、対象物の画像情報より
エッジ部分を抽出するエッジ抽出手段と、前記エッジ抽
出手段により抽出したエッジ部分を膨張処理した後、元
の大きさに縮小して、前記エッジ抽出手段により抽出さ
れた前記エッジ部分と比較することにより当該エッジ部
分に含まれる凹凸部分を検出する検出手段と、前記検出
手段により検出された前記凹凸部分のエッジを抽出する
抽出手段と、前記抽出手段により抽出されたエッジを反
して前記凹凸部分を示す閉画像領域を得る反転処理手
段と、前記反転手段により得られた前記閉画像領域の大
きさ及び位置関係を表す特徴量を算出する特徴量抽出手
段と、前記対象物所定の位置に置いた時の特徴量を記
憶する記憶手段と、前記記憶手段に記憶されている特徴
量と、前記特徴量算出手段により算出された特徴量とを
比較する比較手段と、前記比較手段による比較結果に応
じて、前記対象物の位置及び/或いは向きを検出する位
置・角度算出手段と、を有することを特徴とする。
In order to achieve the above object, a position detecting device according to the present invention has the following arrangement. That is, a component position detecting device that photoelectrically reads the shape of a component and detects the position of the component, the edge extracting unit extracting an edge portion from image information of an object, and the edge extracted by the edge extracting unit. After expanding the part , the original
And extracted by the edge extracting means.
Detection means for detecting irregularities moiety included in the edge portion by comparing said edge portion that is, an extraction means for extracting an edge of said detected irregularity portion by the detecting means, is extracted by the extraction means and inversion processing means for obtaining a closed image area indicating inversion of the uneven portion of the edge was a feature quantity extracting means for calculating a feature value representing the size and positional relationship of the closed image region obtained by said inverting means , comparison for comparing a memory means for storing feature amount when placing the said object in a predetermined position, the feature amount stored in the storage means, and a feature amount calculated by the feature calculating unit Means, and a position / angle calculating means for detecting a position and / or an orientation of the object according to a comparison result by the comparing means.

【0007】上記目的を達成するために本発明の位置検
出方法は以下のような工程を備える。即ち、部品の形状
を光電的に読取って、その位置を検出する部品の位置検
出方法であって、対象物を光電的に読取り、その画像情
報よりエッジ部分を抽出する工程と、その抽出したエッ
ジ部分を膨張処理した後、元の大きさに縮小して、前記
抽出する工程で抽出された前記エッジ部分と比較するこ
とにより当該エッジ部分に含まれる凹凸部分を検出する
工程と、その検出された前記凹凸部分のエッジを抽出す
る工程と、その抽出されたエッジを反転して前記凹凸部
分を示す閉画像領域を得る工程と、こうして反転された
前記閉画像領域の大きさ及び位置関係を表す特徴量を算
出する工程と、対象物が所定の位置に置いた時の特徴量
を記憶しておき、その記憶されている特徴量と、算出さ
れた特徴量とを比較する工程と、その比較結果に応じ
て、その対象物の位置及び/或いは向きを検出する工程
と、を有することを特徴とする。
In order to achieve the above object, a position detecting method according to the present invention includes the following steps. That is, a component position detecting method for photoelectrically reading the shape of a component and detecting its position, comprising the steps of photoelectrically reading an object and extracting an edge portion from image information thereof; after the partial expanded treated, and reduced to the original size, the
Compare with the edge part extracted in the extraction step.
Step and a step of extracting an edge of said detected irregularity portion thereof, wherein the uneven portion by inverting the extracted edge detecting irregularities moiety included in the edge portion by the
The step of obtaining a closed image area indicating the minutes and thus the inverted
Calculating a feature value representing the size and positional relationship of the closed image area stores the characteristic amount when the object is placed at a predetermined position, a feature amount that is the stored, is calculated And a step of detecting the position and / or orientation of the object according to the result of the comparison.

【0008】[0008]

【作用】以上の構成において、対象物の画像情報よりエ
ッジ部分を抽出し、その抽出したエッジ部分を膨張処理
した後、元の大きさに縮小して、前記エッジ抽出手段に
より抽出されたエッジ部分と比較することにより当該エ
ッジ部分に含まれる凹凸部分を検出し、その検出された
凹凸部分のエッジを抽出し、その抽出された凹凸部分の
エッジを反転して、その凹凸部分を示す閉画像領域を得
て、その得られた閉画像領域の大きさ及び位置関係を表
す特徴量を算出し、対象物を所定の位置に置いた時の特
徴量と、算出された特徴量とを比較し、その比較結果に
応じて、その対象物の位置及び/或いは向きを検出する
ように動作する。
In the above arrangement, the edge portion is extracted from the image information of the object, the extracted edge portion is expanded, then reduced to the original size, and the edge portion extracted by the edge extracting means is extracted. A closed image area showing the uneven portion by detecting the uneven portion included in the edge portion, extracting the edge of the detected uneven portion, and inverting the edge of the extracted uneven portion. Obtain, calculate the feature amount representing the size and positional relationship of the obtained closed image area, compare the feature amount when the object is placed at a predetermined position, and the calculated feature amount, An operation is performed to detect the position and / or orientation of the object according to the comparison result.

【0009】[0009]

【実施例】以下、添付図面を参照して本発明の好適な実
施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0010】図1は本実施例の位置・角度検出装置を備
えている部品搬送装置の外観斜視図である。
FIG. 1 is an external perspective view of a component conveying device provided with the position / angle detecting device of the present embodiment.

【0011】この位置・角度検出装置では、まず対象と
なる部品を部品分離装置100,101の中に入れる。
これら部品分離装置はバラバラに投入された部品を、部
品分離装置内のテーブルに載せ、そのテーブルを上昇さ
せる。このテーブルには、いくつかの凹部が設けられて
おり、そのテーブルを上昇させて傾けることにより、そ
の凹部に嵌り込んだ部品以外はテーブル外に落されるこ
とになる。このような動作により、部品分離装置10
0,101は部品をテーブル上の決った領域中に置くこ
とができる。部品分離装置100,101による部品分
離作業は交互に行われる。
In this position / angle detecting device, a target component is first put into component separating devices 100 and 101.
These component separation devices place the components that have been input separately on a table in the component separation device and raise the table. This table is provided with several concave portions. By raising and tilting the table, components other than the components fitted in the concave portions are dropped out of the table. By such an operation, the component separating device 10
0, 101 can place the part in a fixed area on the table. The component separation work by the component separation devices 100 and 101 is performed alternately.

【0012】こうして、部品分離装置100,101に
より分離された部品のそれぞれは、カメラ102,10
3のそれぞれにより撮像され、その撮像された画像信号
が位置・角度検出装置104に送られる。位置・角度検
出装置104では、この画像信号に基づいて、図3のフ
ローチャートで示された処理により、テーブル上の部品
の位置及び向きを検出する。105はロボット制御装置
で、位置・角度検出装置104よりの位置及び向きを示
す情報に応じてロボット110を作動させ、テーブル上
の部品を決められた方向で、マガジン106に収納す
る。
The components separated by the component separating devices 100 and 101 in this way are supplied to the cameras 102 and 10 respectively.
3, and the image signal is sent to the position / angle detection device 104. The position / angle detection device 104 detects the position and orientation of the component on the table based on the image signal by the processing shown in the flowchart of FIG. A robot controller 105 operates the robot 110 in accordance with the information indicating the position and orientation from the position / angle detector 104, and stores the components on the table in the magazine 106 in a predetermined direction.

【0013】図2は、図1の位置・角度検出装置104
の概略構成を示すブロック図である。
FIG. 2 shows the position / angle detecting device 104 shown in FIG.
FIG. 2 is a block diagram showing a schematic configuration of the embodiment.

【0014】位置・角度検出装置104は、ケーブル1
07,108のそれぞれを介して、部品の形状を表す画
像信号を取り込むための2つのカメラ102,103の
それれぞれに接続されている。これらカメラ102,1
03のCCDより出力されるアナログ画像信号はA/D
変換部210に入力されている。尚、この実施例におい
ては、A/D変換部210は1つだけ設けられており、
2つのカメラ102,103よりの画像信号を必要に応
じて切り換えてデジタル信号に変換し、内部バス218
に出力している。
The position / angle detecting device 104 is a cable 1
07 and 108 are connected to two cameras 102 and 103, respectively, for taking in image signals representing the shape of the component. These cameras 102, 1
The analog image signal output from the CCD 03 is A / D
It is input to the conversion unit 210. In this embodiment, only one A / D converter 210 is provided.
The image signals from the two cameras 102 and 103 are switched as necessary to be converted into digital signals, and are converted into digital signals.
Output to

【0015】また、位置・角度検出装置104は、ロボ
ット制御装置105との間でデータ通信を行うことがで
きるように通信部217を有し、ケーブル109を介し
てロボット制御装置105との間で通信を行うことがで
きるように構成されている。次に、この位置・角度検出
装置104の構成を詳しく説明する。
The position / angle detection device 104 has a communication unit 217 so that data communication can be performed with the robot control device 105. It is configured so that communication can be performed. Next, the configuration of the position / angle detection device 104 will be described in detail.

【0016】200はマイクロコンピュータで、制御プ
ログラム部201に記憶された制御プログラムに従っ
て、この位置・角度検出装置104全体の動作を制御し
ており、他の全ての構成要素とバス218を介して接続
されている。本実施例においては、カメラ102,10
3より取り込んだ画像情報をA/D変換部210で8ビ
ット(“0”〜“255”)256段階の明るさに区分
して、その画像データの1部をフレームメモリ211内
に取り込んでいる。こうしてフレームメモリ211に取
り込まれた画像情報は、2値化部202により、必要な
明るさのレベルで“1”と“0”との2段階のレベルに
変換される。こうして2値化された画像情報は、再度フ
レームメモリ211に収納される。
A microcomputer 200 controls the operation of the entire position / angle detecting device 104 according to a control program stored in a control program unit 201, and is connected to all other components via a bus 218. Have been. In the present embodiment, the cameras 102 and 10
The A / D converter 210 divides the image information fetched from 3 into 8-bit (“0” to “255”) 256-level brightness, and fetches a part of the image data into the frame memory 211. . The image information thus taken into the frame memory 211 is converted by the binarizing unit 202 into two levels of “1” and “0” at a required brightness level. The binarized image information is stored in the frame memory 211 again.

【0017】203はエッジ抽出部であり、2値化部2
02により2値化されてフレームメモリ211に格納さ
れた画像情報に基づいて、その画像の輪郭線を抽出する
機能を持つ。204は膨張処理部であり、フレームメモ
リ211に記憶されている画像情報の膨張(拡大)処理
を行う。205は縮小処理部であり、フレームメモリ2
11に記憶されている画像情報に対して縮小処理を行
う。206は反転処理部であり、フレームメモリ211
に記憶されている画像情報の“1”“0”データを各々
“0”,“1”データに反転させる機能を持つ。207
はラベル付け部で、“0”,“1”からなるデータに2
値化されてフレームメモリ211に記憶されている画像
情報を、“1”又は“0”の閉じられた領域毎に分け、
各々の領域にラベルを付ける機能をもっている。208
はカメラ102,103により読み取った画像信号或い
は各種変換を行った画像等を表示するためのCRT、2
09は各種指示等を入力するためのキーボードである。
Reference numeral 203 denotes an edge extracting unit, which is a binarizing unit 2
Based on the image information binarized by 02 and stored in the frame memory 211, it has a function of extracting an outline of the image. Reference numeral 204 denotes an expansion processing unit which performs expansion (enlargement) processing of image information stored in the frame memory 211. Reference numeral 205 denotes a reduction processing unit, which is a frame memory 2
A reduction process is performed on the image information stored in 11. Reference numeral 206 denotes an inversion processing unit, which is a frame memory 211.
Has the function of inverting the “1” and “0” data of the image information stored in the “0” and “1” data, respectively. 207
Is a labeling unit, and 2 is added to data consisting of “0” and “1”.
The image information that has been converted into a value and stored in the frame memory 211 is divided for each closed area of “1” or “0”,
It has a function to label each area. 208
Denotes a CRT for displaying an image signal read by the cameras 102 and 103 or an image subjected to various conversions;
Reference numeral 09 denotes a keyboard for inputting various instructions and the like.

【0018】211はフレームメモリであり、カメラ1
02,103とA/D変換部210を通して取り込まれ
た画像情報及び、位置・角度検出装置104内で処理さ
れた画像情報を1時記憶しておくためのメモリである。
212は座標変換部で、カメラ102,103のCCD
の座標位置と、ロボットの座標位置との関係の変換係数
を予め記憶させておき、ロボット制御装置105から送
られてきた位置データを位置・角度検出装置104内で
処理に用いる場合は、その位置データをカメラ102,
103のCCDの座標系に変換している。また、位置角
度検出装置104で算出した位置データをロボット制御
装置105に送り出す場合は、ロボットの座標系の位置
データに変換する機能を持っている。213は領域設定
部で、カメラ102,103の取り込むべき領域を設定
することができる。これにより、カメラ102,103
のCCDにより、必要な限定された領域の画像情報のみ
を取り込むことが可能となる。これにより、CCDの全
域よりの画像情報を処理するより短時間で処理すること
ができるようになる。
Reference numeral 211 denotes a frame memory.
02, 103 and a memory for temporarily storing image information taken in through the A / D converter 210 and image information processed in the position / angle detection device 104.
212, a coordinate conversion unit which is a CCD of the cameras 102 and 103;
The conversion coefficient of the relationship between the coordinate position of the robot and the coordinate position of the robot is stored in advance, and when the position data sent from the robot control device 105 is used for processing in the position / angle detection device 104, the position The data is transferred to the camera 102,
It is converted to the coordinate system of the CCD 103. When sending the position data calculated by the position and angle detection device 104 to the robot control device 105, the robot has a function of converting the position data into position data of a robot coordinate system. An area setting unit 213 can set an area to be captured by the cameras 102 and 103. Thereby, the cameras 102 and 103
With this CCD, it is possible to capture only image information of a necessary limited area. As a result, processing can be performed in a shorter time than processing image information from the entire area of the CCD.

【0019】214は特徴量の演算部で、前記ラベル付
けまで処理された画像情報から、閉じられた領域の大き
さ、その重心位置、各々の位置関係という特徴量を算出
する機能を持つ。216は特徴量記憶部で、予め部品と
その位置・角度を判別するための特徴量を記憶してい
る。これにより、特徴量比較部215によって、特徴量
演算部214で求められた特徴量と特徴量記憶部216
に記憶された特徴量とを比較して対象物が決められた部
品であるかどうかを判別すると共に、その対象物の位置
・角度を求める。
Reference numeral 214 denotes a feature value calculation unit having a function of calculating a feature value such as the size of a closed region, its center of gravity, and the positional relationship between the image information processed up to the labeling. A feature amount storage unit 216 stores in advance feature amounts for discriminating a part and its position and angle. As a result, the feature amount obtained by the feature amount calculation unit 214 and the feature amount storage unit 216 by the feature amount comparison unit 215.
And determines whether the object is a determined part by comparing with the feature amount stored in the storage unit, and obtains the position and angle of the object.

【0020】図3は本発明による対象物の位置・角度検
出装置104内の処理を示すフローチャートである。以
下、この図3のフローチャートで示された処理を、図4
を参照して詳しく説明する。
FIG. 3 is a flowchart showing processing in the object position / angle detecting device 104 according to the present invention. Hereinafter, the processing shown in the flowchart of FIG.
This will be described in detail with reference to FIG.

【0021】まず、ステップS1で、対象となる部品を
カメラ102或いは103で撮像して、その部品の画像
情報を取込んでフレームメモリ211に格納する。ここ
では領域設定部213によりカメラ102或いはカメラ
103で読み取る画像領域が決定され、こうして読み取
られた画像情報の座標位置は、座標変換部212により
カメラ102及び103のCCDの座標値に変換されて
いる。次いでステップS2に進み、ステップS1で取込
んでフレームメモリ211に格納された画像情報を、2
値化部202により2値化してフレームメモリ211に
記憶する。図4の(A)は、こうして2値化された画像
情報の一例を示す図である。ここでは、凸部41、凹部
42及び開口部43を有する対象物40の領域がデータ
“1”で、その対象物の外側がデータ“0”で示されて
いる。
First, in step S1, an image of a target component is captured by the camera 102 or 103, and image information of the component is fetched and stored in the frame memory 211. Here, an image area to be read by the camera 102 or the camera 103 is determined by the area setting unit 213, and the coordinate position of the image information thus read is converted by the coordinate conversion unit 212 into the coordinate values of the CCDs of the cameras 102 and 103. . Next, the process proceeds to step S2, where the image information fetched in step S1 and stored in the frame memory 211 is
The image data is binarized by the value conversion unit 202 and stored in the frame memory 211. FIG. 4A is a diagram showing an example of the binarized image information. Here, the area of the object 40 having the convex portion 41, the concave portion 42, and the opening 43 is indicated by data “1”, and the outside of the object is indicated by data “0”.

【0022】次にステップS3に進み、エッジ抽出部2
03により、2値化されてフレームメモリ211に記憶
されている画像情報のエッジを抽出する。こうしてエッ
ジ抽出された結果が図4の(B)に示されており、この
エッジは図4の(A)のデータが“1”の領域のエッジ
部分を示している。
Then, the process proceeds to a step S3, wherein the edge extracting unit 2
In step 03, edges of image information binarized and stored in the frame memory 211 are extracted. The result of the edge extraction is shown in FIG. 4B, and this edge indicates the edge portion of the area where the data of FIG. 4A is "1".

【0023】次にステップS4に進み、膨張処理部20
4で、ステップS3で抽出されたエッジの膨張処理を行
い、この膨張処理によりエッジ部分が平滑化されたエッ
ジ形状を、ステップS5で縮小処理部205により、元
の大きさに縮小処理する。この縮小されてエッジが平滑
化されたエッジデータと、図4(B)に示す元のエッジ
データとにより、図4の(C)に示すように、凹部42
及び凸部41が検出される。
Next, the process proceeds to step S4, where the expansion processing unit 20
In step 4, expansion processing of the edge extracted in step S3 is performed, and the edge shape whose edge portion has been smoothed by this expansion processing is reduced to the original size by the reduction processing unit 205 in step S5. As shown in FIG. 4C, the concave portion 42 is formed by the reduced edge data whose edges are smoothed and the original edge data shown in FIG.
And the convex portion 41 are detected.

【0024】次にステップS6に進み、エッジ抽出部2
04により、こうして処理された画像(図4の(C))
のエッジ部分を抽出する。次にステップS7で、反転処
理部206により、このエッジ部分の反転処理を行うこ
とにより、各特徴(ここでは凸部41,凹部42,開口
部43)が閉じられた領域に分けられる(図4の
(E))。
Then, the process proceeds to a step S6, wherein the edge extracting unit 2
04, the image thus processed (FIG. 4C)
Is extracted. Next, in step S7, the inversion processing unit 206 performs the inversion processing of the edge portion, thereby dividing each feature (here, the convex portion 41, the concave portion 42, and the opening 43) into a closed region (FIG. 4). (E)).

【0025】次にステップS8に進み、ラベル付け部2
07により、これら各領域にラベル付けを行うラベリン
グ処理を行う。このラベリング処理は、フレームメモリ
211内を主走査方向に走査して黒のドットを探し、最
初に見つかった黒のドットに、例えば“a”とラベル付
けする。次に、その黒のドットの隣のドットが黒かどう
かを調べ、黒であればこの画素を中心画素とする3×3
の領域を設定する。この領域内に以前に“a”とラベル
付けをした画素が見つかれば、その領域の中心画素に対
しても“a”とラベルを付ける。このような操作を繰返
すことにより、1塊の連続した領域が同じラベルとして
抽出される。もし、この画像内に複数の連続領域があれ
ば、当然のことながら、それらの領域には、例えば
“b”,“c”というように、異なるラベルが付されて
認識される。
Next, the process proceeds to step S8, where the labeling unit 2
07, a labeling process for labeling each of these areas is performed. In this labeling process, the frame memory 211 is scanned in the main scanning direction to search for black dots, and the first black dot found is labeled, for example, as “a”. Next, it is checked whether or not a dot next to the black dot is black.
Set the area of. If a pixel previously labeled as "a" is found in this area, the center pixel of that area is also labeled as "a". By repeating such an operation, a continuous area of one block is extracted as the same label. If there are a plurality of continuous areas in this image, these areas are naturally recognized with different labels such as “b” and “c”.

【0026】次にステップS9に進み、特徴量演算部2
13により、ステップS8でラベル付けされた各特徴部
分である領域44〜46の大きさ、それらの各重心の位
置及び各々の領域の位置関係を特徴量として算出する。
次にステップS10に進み、参照データとして予め特徴
量記憶部216に記憶してある特徴量と、特徴量演算部
214で求められた特徴量との比較を行う。この結果、
特徴量記憶部216に記憶されている特徴量と異なる時
は、例えば部品が重なっているか、或いは部品の一部が
欠けている虞があるため、エラー表示を行う。
Then, the process proceeds to a step S 9, wherein the feature amount calculation unit 2
In step S13, the sizes of the regions 44 to 46, which are the characteristic portions labeled in step S8, the positions of the respective centers of gravity, and the positional relationship between the regions are calculated as characteristic amounts.
Next, the process proceeds to step S10, where the feature amount stored in advance in the feature amount storage unit 216 as reference data is compared with the feature amount obtained by the feature amount calculation unit 214. As a result,
When the feature amount is different from the feature amount stored in the feature amount storage unit 216, an error display is performed because, for example, there is a possibility that the parts overlap or a part of the parts is missing.

【0027】一方、特徴量記憶部216に記憶されてい
る特徴量とほぼ一致している時はステップS12に進
み、ステップS9で求められた各領域の重心の位置、位
置関係等に基づいて、その対象部品の位置や角度(向
き)を決定する。
On the other hand, when the values substantially coincide with the characteristics stored in the characteristics storage 216, the flow advances to step S12, and based on the position of the center of gravity of each region, the positional relationship, and the like obtained in step S9. The position and angle (direction) of the target component are determined.

【0028】尚、本実施例では、最初に対象画像を2値
化したが、多値画像のままでエッジ検出や膨張・縮小処
理を行ってもよい。
In the present embodiment, the target image is first binarized. However, the multi-valued image may be subjected to edge detection or expansion / reduction processing.

【0029】また、この実施例では、位置・角度検出装
置の実施例として部品移送装置を示したが、他の部品組
立装置にも応用することができることはもちろんであ
る。
Also, in this embodiment, a component transfer device has been described as an embodiment of the position / angle detection device, but it is needless to say that the present invention can be applied to other component assembly devices.

【0030】尚、本発明は複数の機器から構成されるシ
ステムに適用しても、1つの機器からなる装置に適用し
ても良い。また、本発明はシステム或は装置に、本発明
を実施するプログラムを供給することによって達成され
る場合にも適用できることは言うまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. Needless to say, the present invention can also be applied to a case where the present invention is achieved by supplying a program for implementing the present invention to a system or an apparatus.

【0031】以上説明したように本実施例によれば、対
象部品の凹部、凸部更には開口部等の特徴量を抽出する
ことができる。
As described above, according to the present embodiment, it is possible to extract characteristic amounts of the concave portion, the convex portion, and the opening of the target component.

【0032】[0032]

【発明の効果】以上説明したように本発明によれば、対
象物の有する形状の特徴量を1度に抽出して、その対象
物の位置や角度を検出することができる効果がある。
As described above, according to the present invention, there is an effect that the feature amount of the shape of an object can be extracted at a time, and the position and angle of the object can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施例の部品移送装置の外観斜視図である。FIG. 1 is an external perspective view of a component transfer device according to the present embodiment.

【図2】本実施例の位置・角度検出装置の概略構成を示
すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of a position / angle detection device according to the present embodiment.

【図3】本実施例の位置・角度検出装置における部品緒
位置・角度を決定する処理を示すフローチャートであ
る。
FIG. 3 is a flowchart illustrating a process for determining a component position / angle in the position / angle detection device of the present embodiment.

【図4】本実施例の位置・角度検出装置における部品を
読取った画像情報の処理経過を示す図である。
FIG. 4 is a diagram illustrating a process of processing image information obtained by reading a component in the position / angle detection device according to the embodiment;

【符号の説明】[Explanation of symbols]

102,103 カメラ 104 位置・角度検出装置 105 ロボット制御装置 200 マイクロコンピュータ 201 制御プログラム部 202 2値化部 203 エッジ抽出部 204 膨張処理部 205 縮小処理部 206 反転処理部 207 ラベル付け部 211 フレームメモリ 213 領域設定部 214 特徴量演算部 215 特徴量比較部 216 特徴量記憶部 102, 103 Camera 104 Position / angle detection device 105 Robot control device 200 Microcomputer 201 Control program unit 202 Binarization unit 203 Edge extraction unit 204 Expansion processing unit 205 Reduction processing unit 206 Inversion processing unit 207 Labeling unit 211 Frame memory 213 Area setting unit 214 Feature amount calculation unit 215 Feature amount comparison unit 216 Feature amount storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI H05K 13/08 G06F 15/62 405B (58)調査した分野(Int.Cl.7,DB名) B23P 19/00 303 B23P 21/00 305 G01B 11/00 G06T 7/00 H05K 13/04 H05K 13/08 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 identification code FI H05K 13/08 G06F 15/62 405B (58) Fields investigated (Int.Cl. 7 , DB name) B23P 19/00 303 B23P 21 / 00 305 G01B 11/00 G06T 7/00 H05K 13/04 H05K 13/08

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 部品の形状を光電的に読取って、その位
置を検出する部品の位置検出装置であって、 対象物の画像情報よりエッジ部分を抽出するエッジ抽出
手段と、 前記エッジ抽出手段により抽出したエッジ部分を膨張処
理した後、元の大きさに縮小して、前記エッジ抽出手段
により抽出された前記エッジ部分と比較することにより
当該エッジ部分に含まれる凹凸部分を検出する検出手段
と、 前記検出手段により検出された前記凹凸部分のエッジを
抽出する抽出手段と、 前記抽出手段により抽出されたエッジを反転して前記凹
凸部分を示す閉画像領域を得る反転処理手段と、 前記反転手段により得られた前記閉画像領域の大きさ及
び位置関係を表す特徴量を算出する特徴量抽出手段と、 前記対象物所定の位置に置いた時の特徴量を記憶する
記憶手段と、 前記記憶手段に記憶されている特徴量と、前記特徴量算
出手段により算出された特徴量とを比較する比較手段
と、 前記比較手段による比較結果に応じて、前記対象物の位
置及び/或いは向きを検出する位置・角度算出手段と、 を有することを特徴とする部品の位置検出装置。
1. A component position detecting device that photoelectrically reads a shape of a component and detects a position of the component, comprising: an edge extracting unit that extracts an edge portion from image information of an object; after the extracted edge portion and dilation processing, and reduced to the original size, the edge extraction means
By comparing with the edge part extracted by
Detection means for detecting irregularities moiety included in the edge portion, an extraction means for extracting an edge of said detected irregularity portion by the detecting means, the concave by inverting the edges extracted by the extraction means
And inversion processing means for obtaining a closed image area showing a protruding portion, the feature value extraction means for calculating a feature value representing the size and positional relationship of the closed image region obtained by inverting means, said object predetermined A storage unit for storing a feature amount when placed at a position; a comparison unit for comparing the feature amount stored in the storage unit with the feature amount calculated by the feature amount calculation unit; And a position / angle calculating means for detecting a position and / or an orientation of the object in accordance with a comparison result.
【請求項2】 部品の形状を光電的に読取って、その位
置を検出する部品の位置検出方法であって、 対象物を光電的に読取り、その画像情報よりエッジ部分
を抽出する工程と、 その抽出したエッジ部分を膨張処理した後、元の大きさ
縮小して、前記抽出する工程で抽出された前記エッジ
部分と比較することにより当該エッジ部分に含まれる凹
凸部分を検出する工程と、 その検出された前記凹凸部分のエッジを抽出する工程
と、 その抽出されたエッジを反転して前記凹凸部分を示す閉
画像領域を得る工程と、 こうして反転された前記閉画像領域の大きさ及び位置関
係を表す特徴量を算出する工程と、 対象物が所定の位置に置いた時の特徴量を記憶してお
き、その記憶されている特徴量と、算出された特徴量と
を比較する工程と、 その比較結果に応じて、その対象物の位置及び/或いは
向きを検出する工程と、 を有することを特徴とする部品の位置検出方法。
2. A component position detecting method for photoelectrically reading the shape of a component and detecting its position, comprising the steps of photoelectrically reading an object and extracting an edge portion from image information thereof; After expanding the extracted edge part , the original size
The edge extracted in the extracting step
Closed showing the steps of detecting the uneven portion included in the edge portion by comparing a partial, a step of extracting an edge of said detected irregularity portion thereof, the uneven portion by inverting the extracted edge
And obtaining an image area, thus calculating a feature value representing the size and positional relationship of the inverted said closed image area stores the characteristic amount when the object is placed in a predetermined position, Comparing the stored feature value with the calculated feature value; and, depending on the comparison result, the position and / or position of the object.
Detecting a direction ; and a method for detecting the position of a component.
JP03346256A 1991-12-27 1991-12-27 Component position detection method and device Expired - Fee Related JP3087788B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03346256A JP3087788B2 (en) 1991-12-27 1991-12-27 Component position detection method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03346256A JP3087788B2 (en) 1991-12-27 1991-12-27 Component position detection method and device

Publications (2)

Publication Number Publication Date
JPH05177457A JPH05177457A (en) 1993-07-20
JP3087788B2 true JP3087788B2 (en) 2000-09-11

Family

ID=18382170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03346256A Expired - Fee Related JP3087788B2 (en) 1991-12-27 1991-12-27 Component position detection method and device

Country Status (1)

Country Link
JP (1) JP3087788B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110293385B (en) * 2019-08-03 2024-03-29 福建瑞德成自动化科技有限公司 Automatic assembling machine for ceramic valve core of cold and hot water

Also Published As

Publication number Publication date
JPH05177457A (en) 1993-07-20

Similar Documents

Publication Publication Date Title
EP0128820B2 (en) Pattern matching method and apparatus
JPH03294976A (en) Reference mark pattern detecting device
JP3087788B2 (en) Component position detection method and device
JP2003162723A (en) Image processing program
JP3039241B2 (en) Feature point extraction method for ring-shaped work
JPH02125375A (en) Position detecting device
JP2000194861A (en) Method and device for recognizing image
JPH02127393A (en) Object position detecting device
JPH01271884A (en) Detecting system for center of fingerprint
JP2984267B1 (en) Object processing method
JP3163601B2 (en) Image processing apparatus and method
JPS59114407A (en) Area measurement system of object
JPH05113315A (en) Detecting method for center position of circular image data
JPH11195118A (en) Method for recognizing graphic and device therefor
JPS60200375A (en) Template matching system
JP3046532B2 (en) Object recognition method
JPS61156485A (en) Slice level determining method of visual device
JPS6275205A (en) Contour extracting device
JPH1097625A (en) Parking vehicle detecting system
JPH05120478A (en) Pattern recognizing device
JP2859603B2 (en) Method and apparatus for binarizing image data
JP2642185B2 (en) Angle detector
JPH05314261A (en) Image recognizing method
JPS6391779A (en) Parts recognizing device
JPH0755715A (en) Apparatus for detecting extreme value of image

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080714

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080714

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110714

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees