JPH034358B2 - - Google Patents

Info

Publication number
JPH034358B2
JPH034358B2 JP22419183A JP22419183A JPH034358B2 JP H034358 B2 JPH034358 B2 JP H034358B2 JP 22419183 A JP22419183 A JP 22419183A JP 22419183 A JP22419183 A JP 22419183A JP H034358 B2 JPH034358 B2 JP H034358B2
Authority
JP
Japan
Prior art keywords
parts
robot
conveyance path
area
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP22419183A
Other languages
Japanese (ja)
Other versions
JPS60118479A (en
Inventor
Michinaga Kono
Koichi Sugimoto
Yasuo Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP58224191A priority Critical patent/JPS60118479A/en
Publication of JPS60118479A publication Critical patent/JPS60118479A/en
Publication of JPH034358B2 publication Critical patent/JPH034358B2/ja
Granted legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Manipulator (AREA)
  • Feeding Of Articles To Conveyors (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は部品供給組立装置、特に、部品の種類
に拘わらず、あらゆる部品に適用可能な部品供給
組立装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a parts supply and assembly apparatus, and particularly to a parts supply and assembly apparatus that can be applied to all kinds of parts, regardless of the type of parts.

〔発明の背景〕[Background of the invention]

近年のように、製品の多様化、短寿命化が進
み、機種変更が頻繁に行なわれる多種少量生産シ
ステムにおいては、これに則応した生産組立シス
テムの開発が必要である。
In recent years, products have become more diversified and their lifespans have become shorter, and in a high-mix, low-volume production system where models are frequently changed, it is necessary to develop a production and assembly system that is compatible with this.

この生産組立システムの中でも、部品供給部分
は、組立工程の完全自動化において大きな障壁と
なつており、あらゆる部品に適用可能なようにす
るいわゆる部品供給装置の汎用化は、組立工程の
完全自動化推進上不可決なものであり、この部分
の技術開発が強く要望されている。
In this production assembly system, the parts supply section is a major barrier to fully automating the assembly process, and the generalization of so-called parts supply equipment that can be applied to all parts is an important step in promoting complete automation of the assembly process. This is an unresolved issue, and there is a strong demand for technological development in this area.

従来の部品供給組立装置は特開昭56−45337号
に記載されているように、即ち第1図に示す通り
部品を貯蔵するボウル1と、このボウル1の内面
に螺旋状に設けられ、貯蔵された部品を列状に導
き出す搬送路2と、この搬送路の最外周部におい
て、搬送路品をボウル1の外に導き出すシユート
3と、このシユート3の先端にあつて導き出され
た部品の位置、姿勢を保持し、ハンドリング装置
によつて部品を取り出すシユート先端部とで構成
されている。
The conventional parts supply and assembly device is as described in Japanese Patent Application Laid-Open No. 56-45337, namely, as shown in FIG. A conveyance path 2 that guides the transported parts in a row, a chute 3 that leads the conveyance path products out of the bowl 1 at the outermost periphery of this conveyance path, and a position of the guided parts at the tip of this chute 3. , and a chute tip that maintains the posture and extracts parts using a handling device.

この部品供給装置において、搬送路2には、部
品を一層一列に整列させ、更に特定の姿勢の部品
のみを通過させ、他の姿勢の部品は、ボウル1内
へ落下させるためのワイパ4やカツトアウト5等
が設けられており、更にシユート3には、搬送路
2において選別され通過してきた搬送部品を、そ
のままの姿勢で保持するための、部品姿勢拘束部
材7が設けられている。
In this parts supply device, a wiper 4 and a cutout are used to arrange the parts in a single line in a conveyance path 2, to allow only parts in a specific position to pass through, and to drop parts in other positions into the bowl 1. 5 and the like, and the chute 3 is further provided with a component posture restraining member 7 for holding conveyed components that have been sorted and passed through the conveyance path 2 in the same posture.

このような構成になつているため、搬送路2上
に設けられたワイパ4やカツトアウト5及びシユ
ート3に設けられた部品姿勢拘束部材7は部品の
形状や寸法が変る毎に再設計が必要となり、今日
の多種少量生産システムに即応せず、生産自動化
推進の大きな障壁となつている。
Because of this configuration, the wiper 4 and cutout 5 provided on the conveyance path 2 and the component posture restraining member 7 provided in the chute 3 need to be redesigned every time the shape and dimensions of the component change. However, it does not respond quickly to today's high-mix, low-volume production systems, and is a major barrier to promoting production automation.

これの改良として、第2図に示すように、搬送
路に設けたワイパやカツトアウトの代りに、光電
スイツチ9A,9B等を用いて部品の姿勢を検出
し、特定の姿勢の部品のみシユート3に排出し、
他の商品は、エアノズル10を用いて、ボウル1
内に吹き落す部品供給装置が開発されているが、
この装置もシユート3に排出されてきた部品の姿
勢をそのままの姿勢で保持するための部品姿勢拘
束部材7が必要であり、結局のところ部品の形状
や寸法の変更毎に部品姿勢拘束部材7の設計変更
が必要となり、今日の多種少量生産システムに即
応しないという欠点がある。
As an improvement to this, as shown in Fig. 2, instead of wipers and cutouts provided on the transport path, photoelectric switches 9A, 9B, etc. are used to detect the orientation of the parts, and only parts in a specific orientation are sent to the chute 3. drain,
For other products, use air nozzle 10, bowl 1
A parts supply device has been developed that blows the parts inside.
This device also requires a component posture restraining member 7 to maintain the same posture of the components discharged into the chute 3, and after all, the component posture restraining member 7 must be adjusted every time the shape or dimensions of the component is changed. The drawback is that it requires design changes and is not immediately compatible with today's high-mix, low-volume production systems.

又部品を特定の位置、姿勢に拘束せずにシユー
ト3に排出するようにし、テレビカメラ等によつ
て部品の画像を取り入れ、その信号を処理するこ
とにより部品の姿勢や位置を認識し、工業用ロボ
ツトのような動作位置の可変が可能なハンドリン
グ装置によつて部品を取り出す試みも進められて
いるが、使用のできない部品は手作業によつてボ
ウル内に戻す必要があり、完全自動化ができない
という欠点があつた。
In addition, the parts are discharged into the chute 3 without being restricted to a specific position or posture, and images of the parts are captured using a television camera, etc., and the posture and position of the parts are recognized by processing the signals. Attempts are being made to extract parts using a handling device such as a robot that can change the operating position, but unusable parts must be returned to the bowl manually, and full automation is not possible. There was a drawback.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記従来の欠点を解決し、多
種少量生産システムに即応すると共に自動部品組
立ラインの簡略化をも可能にした部品供給組立装
置を提供するにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a parts supply and assembly apparatus which solves the above-mentioned conventional drawbacks and which can be readily adapted to a high-mix, low-volume production system and which also enables the simplification of an automatic parts assembly line.

〔発明の概要〕[Summary of the invention]

即ち本発明は、搬送路内に部品を拘束する部分
を設けないで、搬送路をボウル内方に開口させ、
部品を循環させるようにし、部品が循環している
間に適性な部品を取り出すようにしたものであつ
て、先ず搬送路終端部を、貯蔵部内方に開口さ
せ、貯蔵部に貯蔵されている部品を搬送路によつ
て搬送し、搬送路の終端部から再び貯蔵部内に部
品を導くようにして部品を循環させ、このように
循環している部品の位置,姿勢,形状,あるいは
これらの組合せをテレビカメラ等の検出部によつ
て検出し、この検出部からの信号によつて部品の
位置,姿勢,形状,あるいはこれらの組合せが、
適性であるか不適性であるか(以下これを適性部
品,不適性部品という)を判断部によつて判断
し、この判断部の判断に基づいて、適性部品のみ
をハンドリング部にて取り出し、不適性部品を前
記搬送路終端の開口部を通して貯蔵部内に導いて
再び搬送路に乗せ再循環するようにしたことを特
徴とするものである。
That is, the present invention does not provide a part for restraining parts in the conveyance path, but opens the conveyance path inside the bowl,
The parts are circulated and appropriate parts are taken out while the parts are being circulated. First, the terminal end of the conveyance path is opened inside the storage part, and the parts stored in the storage part are taken out. The parts are circulated by conveying them through a conveyance path, and the parts are guided back into the storage section from the end of the conveyance path, and the position, orientation, shape, or a combination of these of the parts being circulated in this way is changed. It is detected by a detection unit such as a television camera, and the position, orientation, shape, or a combination of these is determined by the signal from this detection unit.
The judgment unit judges whether the parts are suitable or unsuitable (hereinafter referred to as suitable parts or unsuitable parts), and based on the judgment of this judgment unit, only suitable parts are taken out by the handling unit and rejected. The apparatus is characterized in that the suitable parts are guided into the storage section through the opening at the end of the conveyance path, and then placed on the conveyance path again for recirculation.

〔発明の実施例〕[Embodiments of the invention]

以下本発明の一実施例について、第3図乃至第
5図を参照して説明する。
An embodiment of the present invention will be described below with reference to FIGS. 3 to 5.

第3図は、この実施例の全体の概要を示す。こ
の第3図を用いて、先ず実施例の概略について説
明すれぱ、次の通りである。
FIG. 3 shows an overall overview of this embodiment. Using FIG. 3, the outline of the embodiment will first be explained as follows.

即ちこの実施例に係る部品供給組立装置は、ボ
ウルフイーダ11に設けた搬送路18の終端部1
9(第4図参照)を貯蔵部17内に開口させ、搬
送部品20(第4図参照)を検出する検出部を構
成するテレビカメラ14と、この検出部(テレビ
カメラ14)からの信号によつて適性部品と不適
性部品とを判断する判断部(一般的に用いられる
手段につき図系省略)と、この判断部の判断に基
づいて適性部品のみを取り出すためのロボツト1
2と把持装置13とから成るハンドリング部を設
け、これにより搬送路18によつて搬送されてく
る搬送部品20A(第4図参照)の中から適性部
品のみを取り出し、不適性部品を前記搬送路終端
19(第4図参照)の開口部を通して貯蔵部17
内に導き、再び搬送路18に乗せ、再循環するよ
うにしたものである。視覚認識装置は上記テレビ
カメラ14と判断部とから構成される。
That is, the parts supply and assembly apparatus according to this embodiment has the terminal end 1 of the conveyance path 18 provided in the bowl feeder 11.
9 (see FIG. 4) is opened into the storage section 17, and a television camera 14 constituting a detection section that detects the conveyed parts 20 (see FIG. 4) is connected to the signal from this detection section (television camera 14). Therefore, there is a judging section (diagram omitted as it is a commonly used means) for judging suitable parts and unsuitable parts, and a robot 1 for extracting only suitable parts based on the judgment of this judging section.
2 and a gripping device 13, which takes out only suitable parts from the conveyed parts 20A (see FIG. 4) conveyed by the conveyance path 18, and removes unsuitable parts from the conveyance path 18. Reservoir 17 through an opening in end 19 (see FIG. 4).
The material is guided into the interior, placed on the conveyance path 18 again, and recirculated. The visual recognition device is comprised of the television camera 14 and a determining section.

このように構成することによつて、搬送路18
の途中には、適性部品と不適性部品を選別するた
めの特別な装置が不要となり、部品の形状寸法等
に対し汎用性をもたせることが可能となり又部品
を循環させるようにして、その中から適性部品の
みを取り出すようにしたので完全自動化が行な
え、多種少量生産システムに即応できる。
By configuring in this way, the conveyance path 18
During the process, there is no need for special equipment to separate suitable and unsuitable parts, making it possible to have versatility in terms of shape and size of parts, and by circulating parts. Since only suitable parts are taken out, it can be fully automated and can be quickly adapted to high-mix, low-volume production systems.

本例の詳細を以下説明する。第3図において1
1はボウルフイーダであり、このボールフイーダ
11の上方には、本実施例では、搬送部品を監視
するためのテレビカメラ14(検出部)が、支柱
15A,15Bによつて支持されている。12は
ロボツト、13は把持機構であつてハンドリング
部を構成し、テレビカメラ14(検出部)で搬送
部品を検出し、その検出信号を判断部(図示省
略)に入力して適性部品と不適性部品とを判断
し、この判断に基づいて、上記ロボツト12と把
持機構13を動作させ、適性部品のみを取り出す
ようになつている。16は、組立ステーシヨンで
ある。
Details of this example will be explained below. In Figure 3, 1
Reference numeral 1 designates a bowl feeder, and in this embodiment, above the bowl feeder 11, a television camera 14 (detection section) for monitoring conveyed parts is supported by support columns 15A and 15B. 12 is a robot; 13 is a gripping mechanism that constitutes a handling section; a television camera 14 (detection section) detects the conveyed parts; the detection signal is input to a judgment section (not shown) to determine whether the parts are suitable or unsuitable; Based on this judgment, the robot 12 and the gripping mechanism 13 are operated to take out only suitable parts. 16 is an assembly station.

第4図は、本例のボウルフイーダ11の詳細を
示す。図において、ボウルフイーダ11の内周に
は、螺旋状の搬送路18が設けられている。この
搬送路18の搬送路終端部19は、ボウルフイー
ダ11の内方に向つて曲げられ開口している。な
お17は貯蔵部、20は貯蔵部17内に貯蔵され
ている部品、20Aは、搬送路18によつて搬送
されている搬送部品である。
FIG. 4 shows details of the bowl feeder 11 of this example. In the figure, a spiral conveyance path 18 is provided on the inner periphery of the bowl feeder 11. A conveyance path end portion 19 of this conveyance path 18 is bent inward of the bowl feeder 11 and opened. Note that 17 is a storage section, 20 is a component stored in the storage section 17, and 20A is a transport component that is transported by the transport path 18.

第5図は、搬送路終端部の他の実施例であり第
5図aは、搬送路18の終端部にワイパ22を設
け、搬送路18の終端部において、搬送部品がワ
イパ22に案内されて貯蔵部17内に落下するよ
うになつており、bは、搬送路18の終端部をそ
のままの形で終らせ、搬送部品を再び搬送路18
上に落下させるか或は、貯蔵部17内に落下させ
るようにしている。
FIG. 5 shows another embodiment of the end portion of the conveyance path, and FIG. b is designed so that the end portion of the conveyance path 18 is terminated as it is, and the conveyed parts are returned to the conveyance path 18.
Either it is dropped upwards or it is dropped into the storage section 17.

第6図は、ボウルフイーダの他の実施例であ
る。図において、24は旋回形パーツフイーダで
あつて、相互に回転軸が傾斜した回転円板25と
整列トラツク26とが、矢印のように同じ方向に
回転している。この回転円板25上に貯蔵された
部品は、回転円板25の回転により生ずる遠心力
によつて、整列トラツク26の方向に移動させら
れ、回転円板25と整列トラツク26の上部搬送
面27とが、同一面となる乗り移り部28におい
て、部品は、上部搬送面27上に乗り移り、整列
トラツク26の旋回によつて上方に持ち上げられ
る。30は、第5図aに示したバツフル22に相
当する部材であり、不適性部品は、この部材30
に案内されて、再び回転円板25上に落下する。
なお、29は外壁であり、部品が外方にこぼれ落
ちるのを防止するために設けられている。テレビ
カメラ14,ロボツト12,把持機構13は、第
3図において説明したのと同じであり、ここでの
詳細な説明は省略する。このように旋回形パーツ
フイーダは振動フイーダに比較して振動が少く、
搬送路において部品の認識がしやすい効果を有す
る。
FIG. 6 shows another embodiment of the bowl feeder. In the figure, reference numeral 24 denotes a revolving parts feeder, in which a rotating disk 25 and an alignment track 26, whose rotating axes are inclined to each other, rotate in the same direction as shown by the arrows. The parts stored on this rotating disk 25 are moved in the direction of the alignment track 26 by the centrifugal force generated by the rotation of the rotating disk 25, and the parts stored on the rotating disk 25 and the upper conveying surface 27 of the alignment track 26 are moved toward the alignment track 26. At the transfer section 28 where the parts are flush with each other, the parts are transferred onto the upper conveying surface 27 and lifted upward by the rotation of the alignment track 26. 30 is a member corresponding to the buttful 22 shown in FIG. 5a, and the unsuitable part is this member 30.
and falls onto the rotating disk 25 again.
Note that 29 is an outer wall, which is provided to prevent parts from falling outside. The television camera 14, robot 12, and gripping mechanism 13 are the same as those described in FIG. 3, and detailed description thereof will be omitted here. In this way, the revolving parts feeder has less vibration than the vibrating feeder.
This has the effect of making it easier to recognize parts on the conveyance path.

以上のように構成した本実施例の作用を次に説
明する。
The operation of this embodiment configured as above will be explained next.

貯蔵部17に貯蔵されている部品20は、搬送
路18によつて搬送される。このようにして搬送
された部品20Aは、搬送路終端19より貯蔵部
17に落下し、再び搬送路18に乗せられる。
The parts 20 stored in the storage section 17 are transported by the transport path 18. The component 20A thus transported falls into the storage section 17 from the end 19 of the transport path and is placed on the transport path 18 again.

このようにして、貯蔵部17に貯蔵されている
部品20は、循環させられる。このように循環し
ている搬送部品20の位置,姿勢,形状,或はこ
れらの組合せを視覚認識装置のテレビカメラ等に
よつて検出し、この検出信号を判断部に入力す
る。判断部において、搬送部品20Aの位置,姿
勢,形状,或はこれらの組合せによつて、適性部
品か不適性部品かを判断する。即ち、このテレビ
カメラ14による部品の種別,位置,姿勢の検出
には文献(Gerald J.Gleasor et at :A
Modular Vision System for Sensor−
Controlled Manipulation and Inspection
Proc.of 9th Int.Sym.Ind.Robots 1979.3.13〜15
washington)に記述されている方法を用いる事
が可能である。その方法は、画像用の部品領域
を、セグメンテーシヨンにより抽出し抽出された
画像の図形としての面積、一次モーメント,2次
モーメントを求めることにより、重心と、モーメ
ント主軸の方向(姿勢)を求めるものである。同
時に他の十数コの特徴パラメータを計算すること
により、部品の種類の判定が可能である。これを
利用して視覚認識装置の判断部において、搬送部
品20Aの位置,姿勢,形状,…或はこれらの組
合せによつて適性部品か不適性部品かを判断す
る。
In this way, the parts 20 stored in the storage section 17 are circulated. The position, orientation, shape, or a combination thereof of the conveyed parts 20 circulating in this manner is detected by a television camera or the like of a visual recognition device, and this detection signal is input to the determination section. The determination section determines whether the transported component 20A is a suitable component or an unsuitable component based on the position, orientation, shape, or a combination thereof. That is, the detection of the type, position, and orientation of parts by this television camera 14 is based on the literature (Gerald J. Gleasor et at: A.
Modular Vision System for Sensor−
Controlled Manipulation and Inspection
Proc.of 9th Int.Sym.Ind.Robots 1979.3.13〜15
washington) can be used. The method is to extract the part area for the image by segmentation, find the area, first moment, and second moment of the extracted image as a figure, and then find the center of gravity and the direction (posture) of the principal axis of the moment. It is something. By simultaneously calculating more than ten other feature parameters, it is possible to determine the type of part. Utilizing this, the determination unit of the visual recognition device determines whether the conveyed component 20A is a suitable or unsuitable part based on the position, orientation, shape, etc., or a combination thereof.

このように判断された適性部品についてのみロ
ボツト12は動作し、取出す。この取出しについ
ては、視覚認識装置の判断部からの指令により、
ボウルフイーダ11を一旦停止させ、次にロボツ
ト12を作動させて取り出すか、或はボウルフイ
ーダ11をそのまま回転させ、視覚認識装置で認
識されるこの回転速度にロボツト12を追従させ
て取り出すかのどちらでもよい。
The robot 12 operates and takes out only suitable parts determined in this manner. Regarding this extraction, according to the command from the judgment unit of the visual recognition device,
Either the bowl feeder 11 can be temporarily stopped and the robot 12 can then be operated to take out the food, or the bowl feeder 11 can be rotated as it is and the robot 12 can be taken out by following the rotational speed recognized by the visual recognition device. .

一方判断部によつて判断された不適性な部品
は、ロボツト12は作動せず、そのまま、搬送路
終端部19より貯蔵部17に戻される。ロボツト
12によつて取り出された適性部品は、組符ステ
ーシヨン16によつて組付作業が行なわれる。
On the other hand, if the parts are judged to be unsuitable by the judgment section, the robot 12 will not operate and the parts will be returned to the storage section 17 from the conveyance path end section 19 as they are. The suitable parts taken out by the robot 12 are assembled by the assembly station 16.

なお本実施例では、検出部にテレビカメラ14
を設け、テレビカメラ14でとらえた映像信号を
処理して適性部品と不適性部品とを認識して判断
し、この判断部から送られる情報に基づいて、ロ
ボツト12を作動させるようにしたが、テレビカ
メラ以外のものでも検出しても上記作用は変るも
のではなくこれに限定されるものではない。
Note that in this embodiment, the detection unit includes a television camera 14.
is provided, processes the video signal captured by the television camera 14, recognizes and judges suitable parts and unsuitable parts, and operates the robot 12 based on the information sent from this judgment part. The above-mentioned effect does not change even if a device other than a television camera is used for detection, and the present invention is not limited to this.

即ち本発明の部品供給組立装置は第3図及び第
8図に示すように、ロボツト12およびロボツト
制御装置47よりなるロボツトシステメム,TV
カメラ14,イメージプロセツサ25よりなる視
覚認識システム、及びイメージプロセツサ25か
らの信号でフイーダを起動停止させるモータまた
はマグネツト駆動回路37より構成される。
That is, as shown in FIGS. 3 and 8, the parts supply and assembly apparatus of the present invention includes a robot system including a robot 12 and a robot controller 47, and a TV.
It consists of a visual recognition system consisting of a camera 14, an image processor 25, and a motor or magnet drive circuit 37 that starts and stops the feeder in response to signals from the image processor 25.

まず、ロボツトシステムについて第3図及び第
7図を用いて説明する。12は産業用ロボツト
で、例えば5自由度を有する関節用ロボツトであ
る。産業用ロボツト12は、ベース12aに対し
て垂直軸を中心に旋回する旋回台12b,水平軸
46aを中心に回転する上腕12c,その先に水
平軸46bを中心に回転する前腕12d,その先
に水平軸46cを中心に回転し、更にこの水平軸
46cに直角な軸を中心に回転する手首12eと
から構成されている。この手首12eには指(チ
ヤツク)13を付けた手機構が備え付けられてい
る。ロボツト制御装置47は、5自由度をもつた
関節用ロボツト12を制御するための制御ユニツ
ト49と、ロボツトをポイント・ツー・ポイント
でプログラムされた速度にもとづいて所定の軌跡
に沿つて動作または動かすために、予めプログラ
ムされた軌跡、および速度の情報を教示するため
の教示ユニツト50とによつて構成されている。
制御ユニツト49とロボツト機構12は位置制御
システムを構成している。この位置制御システム
は、アクチユエータMに連結されたパルスエンコ
ーダPEによつて発生された出力パルスをカウン
タ51で計数して制御ユニツト49にフイード・
バツクし、マイクロプロセツサ52によつて予め
定められている目標値あるいは外部より与えられ
た所望の座標値とのデイジタル信号を検出し、こ
のデイジタル信号をD/A変換器53でアナログ
信号に変換し、アクチユエータMを駆動するよう
に構成している。
First, the robot system will be explained using FIGS. 3 and 7. 12 is an industrial robot, for example, an articulated robot having five degrees of freedom. The industrial robot 12 has a rotating base 12b that rotates around a vertical axis with respect to a base 12a, an upper arm 12c that rotates around a horizontal axis 46a, a forearm 12d that rotates around a horizontal axis 46b, and a forearm 12d that rotates around a horizontal axis 46b. The wrist 12e rotates around a horizontal axis 46c, and further rotates around an axis perpendicular to the horizontal axis 46c. This wrist 12e is equipped with a hand mechanism with fingers (chucks) 13 attached thereto. The robot control device 47 includes a control unit 49 for controlling the joint robot 12 having five degrees of freedom, and a control unit 49 for operating or moving the robot along a predetermined trajectory based on point-to-point programmed speeds. For this purpose, it is composed of a pre-programmed trajectory and a teaching unit 50 for teaching speed information.
The control unit 49 and the robot mechanism 12 constitute a position control system. This position control system counts output pulses generated by a pulse encoder PE connected to an actuator M with a counter 51 and feeds them to a control unit 49.
The microprocessor 52 detects a digital signal with a predetermined target value or a desired coordinate value given from the outside, and converts this digital signal into an analog signal by the D/A converter 53. and is configured to drive the actuator M.

駆動回路53はアクチユエータMに接続された
タコジエネレータTGからの速度信号とD/A変
換器53からのアナログ信号にもとづいてアクチ
ユエータMを駆動する回路である。シリアルイン
ターフエース32は教示ユニツト50と接続する
ためのものである。ROM33はロボツトを動作
させるためのプログラムを収納したメモリーであ
る。RAM34は、教示ユニツト50に用いて行
う教示操作による情報、またはインタフエース3
5を介して入力されるイメージプロセツサ52よ
りの動作情報を演算部36により補間演算した結
果であるロボツトの手機構13の動作軌跡を記憶
するものである。37はバスラインである。
The drive circuit 53 is a circuit that drives the actuator M based on a speed signal from a tachogenerator TG connected to the actuator M and an analog signal from the D/A converter 53. Serial interface 32 is for connection to teaching unit 50. The ROM 33 is a memory that stores programs for operating the robot. The RAM 34 stores information from the teaching operation performed using the teaching unit 50 or the information from the interface 3.
The operation locus of the robot's hand mechanism 13, which is the result of interpolation calculation performed by the calculation unit 36 on the operation information inputted from the image processor 52 via the image processor 5, is stored. 37 is a bus line.

RAM34に記憶されたロボツトの手機構13
の位置データがマイクロプロセツサ52によつて
読み出され、カウンター51より検出される回転
変位θ1,θ2,…θ5に座標変換し、所望あるいは目
標位置(例えば視覚認識systemより入力される
対象物本位置)へロボツトの手機構13を駆動さ
せる。
Robot hand mechanism 13 stored in RAM34
The position data is read out by the microprocessor 52, coordinates are converted into rotational displacements θ 1 , θ 2 , ... θ 5 detected by the counter 51, and the desired or target position (for example, input from a visual recognition system) is The robot's hand mechanism 13 is driven to the target object position.

更に組立ステーシヨン16と同期を取るため、
組立ステーシヨン16からの同期信号がインター
フエイス35が入力される。
Furthermore, in order to synchronize with the assembly station 16,
A synchronization signal from the assembly station 16 is input to the interface 35.

以上のロボツト系の説明は5自由度を持つロボ
ツトに限定したが、他の自由度例えば6自由度の
ロボツトについても同様に構成できる。本発明に
おいては、特に自由度についての限定を行うもの
ではない。しかし簡単な円形部品、例えば歯車等
を組付ける場合でも3自由度は必要となる。
Although the above description of the robot system is limited to a robot having five degrees of freedom, a robot having other degrees of freedom, for example, six degrees of freedom, can be constructed in the same way. In the present invention, there are no particular limitations on the degree of freedom. However, even when assembling simple circular parts such as gears, three degrees of freedom are required.

次に本発明のもう一つの構成要素である視覚認
識について第8図を用いて説明する。即ち、TV
カメラ14で撮像された映像信号がA/D変換器
44でデイジタル信号に変換され、RAMで構成
されたイメージメモリー41aにTVカメラ14
で撮像される一画面が記憶される。そして、マイ
クロプロセツサ(B)38はRAM41aに記憶
された画面を読み出し、各絵素と燐接する絵素と
の2値レベルを比較し、同じレベルを示す場合、
接続しているものとし、各接続領域を分離識別す
るために特定の同一レベルを付け、RAM(セグ
メンテーシヨンされたイメージメモリー)41b
にmemoryする。即ちマイクロプロセツサ(B)
38は、2値絵素化パターンの接続関係を調べ、
各部品に対応するパターン領域にセグメンテーシ
ヨンし、それらセグメンテーシヨンした各パター
ン毎にRAM41bに記憶する。次にマイクロプ
ロセツサ(B)38は、セグメンテーヨンされた
各パターン、すなわち、特定のラベルの付いた領
域毎にROM39に記憶されたプログラムに従い
面積,一次モーメント,2次モーメントを演算部
43で計算し、RAM(データメモリー)41c
に記憶する。更にマイクロプロセツサ(B)38
は、RAM41cに記憶された面積,一次モーメ
ント,2次モーメントから部品毎のパターンの重
心とモーメント主軸の方向(姿勢)を演算部43
で求め、同じくRAM41cに記憶させる。マイ
クロプロセツサ38は同時に他の十数コの特徴パ
ラメータ(例えば最も長い長さを示す長軸方向の
長さ最も短い長さを示す短軸方向の長さ、上記モ
ーメント主軸に対する長軸及び短軸との傾き角)
を演算部43で計算して部品の種類の判定を行い
この判定された結果にもとづいて、今度ロボツト
が組付けるに際し、適性部品が不適性部品かを判
断する。もし適性部品と判断されたらマイクロプ
ロセツサ(B)38はパラレルI/F40を介し
てモータまたはマグネツト駆動回路37に停止信
号を送りフイーダの部品の送りを停止させる。新
らたにマイクロプロセツサ(B)38はTVカメ
ラ14からの画像をRAM41に取込み、この取
込まれた一画面を読み出し、各部品毎のパターン
にセグメンテーシヨンしてRAM41bに記憶さ
せる。そして各部品毎のパターンの重心とモーメ
ント主軸の方向(姿勢)を求め、その結果をイン
ターフエース42を介して、ロボツト制御装置2
4にフイードバツクする。マイクロプロセツサ
(A)52はRAM34に記憶させてある水平方
向の位置座標及び水平方向の姿勢情報に上記フイ
ードバツクされた値の補正を加え、D/A変換器
53を介してロボツト12を制御する。ロボツト
12はハンド13でフイーダ内で停止され、且つ
適正と判断された部品をつかみ、組立ステーシヨ
ン16の被組付部品の位置まで移動して組付けを
行うなお適正部品か不適性部品かを判断する際、
前記の如く求められたパターンの重心とモーメン
ト主軸の方向とを辞書パターンの重心とモーメン
ト主軸の方向とを合せ、両者の一致度から判断す
ることもできる。
Next, visual recognition, which is another component of the present invention, will be explained using FIG. That is, TV
The video signal captured by the camera 14 is converted into a digital signal by the A/D converter 44, and is stored in the image memory 41a composed of RAM.
One screen imaged is stored. Then, the microprocessor (B) 38 reads out the screen stored in the RAM 41a, compares the binary levels of each picture element and the phosphorous picture element, and if they show the same level,
It is assumed that the RAM (segmented image memory) 41b is connected, and a specific same level is assigned to separate and identify each connected area.
to memory. That is, the microprocessor (B)
38 examines the connection relationship of the binary pixelization pattern,
The pattern area corresponding to each part is segmented, and each segmented pattern is stored in the RAM 41b. Next, the microprocessor (B) 38 uses the calculation unit 43 to calculate the area, first moment, and second moment for each segmented pattern, that is, for each region with a specific label, according to the program stored in the ROM 39. Calculate, RAM (data memory) 41c
to be memorized. Furthermore, the microprocessor (B) 38
The calculation unit 43 calculates the center of gravity of the pattern for each part and the direction (posture) of the moment principal axis from the area, primary moment, and secondary moment stored in the RAM 41c.
and store it in the RAM 41c as well. The microprocessor 38 simultaneously processes over ten other characteristic parameters (for example, the length in the major axis direction indicating the longest length, the length in the minor axis direction indicating the shortest length, the major axis and the minor axis relative to the above-mentioned moment principal axis). angle of inclination)
is calculated by the arithmetic unit 43 to determine the type of the component, and based on the determined result, it is determined whether a suitable component is an unsuitable component the next time the robot assembles the robot. If the component is determined to be suitable, the microprocessor (B) 38 sends a stop signal to the motor or magnet drive circuit 37 via the parallel I/F 40 to stop feeding the component to the feeder. The microprocessor (B) 38 newly captures the image from the TV camera 14 into the RAM 41, reads out this captured screen, segments it into a pattern for each part, and stores it in the RAM 41b. Then, the center of gravity and the direction (posture) of the principal moment axis of the pattern for each part are determined, and the results are sent to the robot controller 2 via the interface 42.
Feedback to 4. The microprocessor (A) 52 corrects the horizontal position coordinates and horizontal orientation information stored in the RAM 34 using the feedback values, and controls the robot 12 via the D/A converter 53. . The robot 12 is stopped in the feeder with the hand 13, grabs the part judged to be suitable, moves to the position of the part to be assembled at the assembly station 16, and assembles it.The robot 12 then determines whether the part is suitable or unsuitable. When doing
It is also possible to match the center of gravity of the pattern obtained as described above and the direction of the principal axis of moment with the center of gravity of the dictionary pattern and the direction of the principal axis of moment, and to judge based on the degree of agreement between the two.

またパターンの輪郭をいくつかの直線によつて
近似することも可能である。即ち、これを実施す
るパターンマツチング装置の一実施例を第9図に
示す。
It is also possible to approximate the contour of the pattern by several straight lines. That is, one embodiment of a pattern matching device for implementing this is shown in FIG.

ここで、100は、以下に述べる各部に対して
所要の処理の流れを制御する制御部、101は、
前処理手段に係る入力制御部、102は、同画像
メモリ、103は、同前処理部、104は、同領
域情報メモリ、105は、輪郭抽出処理手段に係
る輪郭抽出部、106は、同輪郭メモリ、107
は、線分化処理手段に係る線分化処理部、108
は、同線分化情報メモリ、109は、同辞書パタ
ーンメモリ、110は、領域特徴抽出処理手段に
係る領域特徴抽出部、111は、同領域特徴メモ
リ、112は、パターンマツチング処理手段に係
る共通領域抽部、113は、同共通領域メモリ、
114は、同認識処理部である。
Here, 100 is a control unit that controls the flow of necessary processing for each unit described below, and 101 is
102 is the same image memory; 103 is the same preprocessing unit; 104 is the same area information memory; 105 is the contour extraction unit related to the contour extraction processing means; 106 is the same contour extraction unit; memory, 107
is a line differentiation processing unit related to the line differentiation processing means, 108
109 is the same line differentiation information memory, 109 is the same dictionary pattern memory, 110 is the area feature extraction unit related to the area feature extraction processing means, 111 is the same area feature memory, and 112 is the common area related to the pattern matching processing means. The area extraction unit 113 is the same common area memory,
114 is a recognition processing unit.

まず、入力された画像データは、入力制御部1
01で所定の闘値で2値化された後、2値画像デ
ータとして画像メモリ102に入力・記憶され
る。
First, the input image data is input to the input control unit 1.
After being binarized with a predetermined threshold value of 01, it is input and stored in the image memory 102 as binary image data.

画像メモリ102に記載された画像データは、
はじめに前処理部103によつて画像上のどの領
域を対象物体領域とするかが決定された後、その
領域の代表点の位置情報が領域情報メモリ104
に記憶される。
The image data written in the image memory 102 is
First, the preprocessing unit 103 determines which area on the image is to be the target object area, and then the position information of the representative point of that area is stored in the area information memory 104.
is memorized.

次に輪郭抽出部105は、上記の代表点の位置
情報に基づいて指定領域の輪郭画素を順次に探索
し、その中心座標値を輪郭メモリ106に記憶さ
せる。
Next, the contour extracting unit 105 sequentially searches for contour pixels in the specified area based on the position information of the representative point, and stores the center coordinate values in the contour memory 106.

その中心座標値より、線分化処理部107は輪
郭画素の中心を表わす点列を規定の許容誤差内で
線分に近似し、その線分の端点、すなわちその領
域を多角形近似した当該各頂点座標を順次に線分
化情報メモリ108に記憶させる。その線分化情
報は、辞書パターンの登録時には、辞書パターン
メモリ109へ移される。
Based on the center coordinate values, the line segmentation processing unit 107 approximates the point sequence representing the center of the contour pixel to a line segment within a specified tolerance, and the end points of the line segment, that is, each of the corresponding vertices that approximates the area as a polygon. The coordinates are sequentially stored in the line segmentation information memory 108. The line division information is transferred to the dictionary pattern memory 109 when registering the dictionary pattern.

また、領域特徴抽出部110は、指定領域の特
徴(例えば面積,重心,慣性主軸,最大長,周囲
長等)を画像メモリ102、領域情報メモリ10
4,線分化情報メモリ108の内容から求め、領
域特徴メモリ111に記憶させる。辞書パターン
登録時には、その特徴情報も辞書パターンメモリ
109に記憶される。
The region feature extraction unit 110 also extracts features of the specified region (for example, area, center of gravity, principal axis of inertia, maximum length, perimeter, etc.) into the image memory 102 and the region information memory 10.
4. Obtain from the contents of the line segmentation information memory 108 and store it in the area feature memory 111. When registering a dictionary pattern, its characteristic information is also stored in the dictionary pattern memory 109.

更に、共通領域抽出部112は、現時点で入力
されたパターン(線分化情報メモリ108に格納
されているもの)と辞書パターン(辞書パターン
メモリ109に格納されているもの)とを、両方
の特徴が一致するように(例えば、重心座標が一
致するように、または慣性主軸方向が一致するよ
うに等)、入力パターン側の座標変換をした後、
両パターンの共通領域(積図形)を同様に頂点列
として求め、共通領域メモリ113に記憶する。
Furthermore, the common area extracting unit 112 extracts the currently input pattern (stored in the line segmentation information memory 108) and the dictionary pattern (stored in the dictionary pattern memory 109) so that the characteristics of both After performing coordinate transformation on the input pattern side so that they match (for example, so that the center of gravity coordinates match, or the principal axis of inertia directions match, etc.),
The common area (product figure) of both patterns is similarly determined as a vertex sequence and stored in the common area memory 113.

最後に、認識処理部114は、共通領域(積図
形)の面積を算出し、これと辞書パターンまたは
入力パターンの面積との比率を求め、その値が所
定値以上になつた場合、両パターンは一致してい
るものと判定して、認識結果を出力する。もし、
両パターンが一致せず、しかも辞書パターンが複
数あるときは、第2,第3の辞書パターンとのマ
ツチング処理を同様に繰り返す。なお、認識処理
部114では、一致した両パターンの変換前の相
対位置から入力パターンの位置、姿勢情報も出力
する。
Finally, the recognition processing unit 114 calculates the area of the common area (product figure), calculates the ratio of this to the area of the dictionary pattern or the input pattern, and if the value exceeds a predetermined value, both patterns are It is determined that there is a match and the recognition result is output. if,
If the two patterns do not match and there are a plurality of dictionary patterns, the matching process with the second and third dictionary patterns is repeated in the same way. Note that the recognition processing unit 114 also outputs position and orientation information of the input pattern based on the relative positions of both matching patterns before conversion.

次に、第10図は、前処理フローチヤート、第
3図は、領域情報のフオーマツト図である。
Next, FIG. 10 is a preprocessing flowchart, and FIG. 3 is a format diagram of area information.

前処理は、前述の入力制御部101〜領域情報
メモリ104が関係するもので、各画素の濃度階
調(2値画像であれば、“0”,“1”)を順次に調
べ、同じ階調を持つ画素のまとまりを一つの領域
として抽出し、各領域間の包含関係から、それぞ
れの領域に意味付け(物体領域,穴領域の侯補を
決めること)を行い、それぞれの領域のラベル,
代表被標,面積,包含関係のデータテーブルを作
成する。すなわち、本処理は画像から対象物体を
切りだす役割をするものである。
The preprocessing involves the input control unit 101 to the area information memory 104 described above, and sequentially examines the density gradation of each pixel (“0”, “1” in the case of a binary image), and selects the same gradation. A group of pixels with different tones is extracted as one region, and a meaning is assigned to each region based on the inclusion relationship between each region (determining candidates for object regions and hole regions), and a label for each region,
Create a data table of representative targets, areas, and inclusion relationships. In other words, this processing serves to cut out the target object from the image.

第10図に示すように、その代表的処理例は、
画像上の左上端画素から、ラスター状に全画素を
走査し、同隔調画素の接続関係を判別しながら、
接続する同階調画素には同一のラベルを付け、同
一ラベルの画素の集りを領域とみなすものであ
る。
As shown in FIG. 10, a typical processing example is
Starting from the upper left pixel on the image, all pixels are scanned in a raster pattern, and while determining the connection relationship between pixels of the same pitch,
Connected pixels of the same gradation are given the same label, and a collection of pixels with the same label is regarded as a region.

この場合、各領域には、それぞれ異なつたラベ
ルを付け、その中で面積が最大で、かつ画像の周
囲に接する領域は、背景領域と判断する。そし
て、その背景領域に境界を接して含まれ、かつ面
積が一定範囲にある領域を対象物体領域の候補と
し、以後の処理対象領域とする。またこの対象物
体領域の候補とみなされる領域に含まれる領域を
穴領域の候補とする。
In this case, each region is given a different label, and the region with the largest area and touching the periphery of the image is determined to be the background region. Then, an area that is bordered by and included in the background area and whose area is within a certain range is selected as a candidate for a target object area, and is used as a subsequent processing target area. Further, a region included in the region considered as a candidate for the target object region is set as a candidate for the hole region.

各領域の先頭のアドレスは、画像をラスター方
向に走査したとき、最初に見つかる画素のアドレ
スとする。このアドレスを領域代表点の座標とし
て登録するが、その他領域情報のテーブル形式
は、例えば第11図に示すとおりである。
The start address of each area is the address of the first pixel found when the image is scanned in the raster direction. This address is registered as the coordinates of the area representative point, and the table format of other area information is as shown in FIG. 11, for example.

続いて、輪郭抽出処理は、前述の輪郭抽出部1
05,輪郭メモリ106が関係するもので、2次
元配列の領域情報について輪郭の座標系列表現を
することにより、情報圧縮を行うものであるその
処理方式は、数例報告されており、いずれの方式
を用いてもよい。
Next, the contour extraction process is performed by the contour extraction section 1 described above.
05. Concerning the contour memory 106, several examples of the processing method have been reported, which compress information by expressing the coordinate series of the contour with respect to region information in a two-dimensional array. may also be used.

その処理は、上述の領域代表点を始点として処
理を開始し、領域境界の画素を、4連結性または
8連結性をもとにして、次々に隣接画素を探索し
て行き、領域を1周して代表点位置で処理を終了
する。その出力結果は、輪郭画素の座標系であれ
ばよい。
The process starts with the above-mentioned area representative point as the starting point, and searches for adjacent pixels one after another based on 4-connectivity or 8-connectivity for pixels at the boundary of the area, going around the area once. The process ends at the representative point position. The output result may be in the coordinate system of contour pixels.

この輪郭抽出処理によつて求めた対象領域の輪
郭座標系列を所定の近似誤差内に入るように線分
近似で表現することにより、さらに情報圧縮を図
る。
Information is further compressed by expressing the contour coordinate series of the target area obtained by this contour extraction process by line segment approximation so that it falls within a predetermined approximation error.

この線分化処理は前述の線分化処理部107,
線分化情報メモリ108が関係するもので、その
結果は、各線分の両端点の座標列となる。すなわ
ち、領域を多角形近似した際の頂点系列によつて
表現される。この線分化処理は、どの方式でもよ
いが、特に高速処理の要求を満たすものとして、
その例を次に示す。
This line differentiation processing is carried out by the above-mentioned line differentiation processing unit 107,
The line segmentation information memory 108 is involved, and the result is a coordinate string of both end points of each line segment. That is, it is expressed by a series of vertices obtained by approximating the area to a polygon. Any method may be used for this line segmentation processing, but as one that specifically satisfies the requirements for high-speed processing,
An example is shown below.

連読点列を線分近似する処理は、まず、一般に
最大近似誤差εnaxを定めておき、この誤差値によ
つて定まる一定幅の平行線内に連読点列を最大限
収めるように平行線の位置、方向を探しだし、そ
の中心線から近似線分を決定する方法が考えられ
る。
The process of approximating a series of continuous reading points to a line segment is generally done by first determining the maximum approximation error ε nax , and then adjusting the parallel lines so that the continuous reading point sequence can be accommodated as much as possible within a parallel line with a constant width determined by this error value. One possible method is to find the position and direction and determine an approximate line segment from the center line.

ここで、入力点列データ(輪郭抽出処理の出
力)の集合をA、近似線分をB(線分上の点集合)
で表わすと、A,B間のハウスドルフの距離
(Havsdorff−Euclidean Distance)H(A,B)
は、点p1,p2間のユークリツド距離(Euclidian
Distance)を‖p1−p2‖とすれば H(A,B)=max〔max min‖p1−p2‖,p1
p2 A max min‖p1−p2‖〕p1 A p2 B となる。
Here, A is a set of input point sequence data (output of contour extraction processing), and B is an approximate line segment (a set of points on a line segment).
Expressed as Havsdorff-Euclidean Distance between A and B, H(A, B)
is the Euclidean distance between points p 1 and p 2
Distance) is ‖p 1 - p 2 ‖, then H (A, B) = max [max min‖p 1 - p 2 ‖, p 1 B
p 2 A max min‖p 1 −p 2 ‖]p 1 A p 2 B.

したがつて、上述の線分化処理は、最大(規
定)近似誤差εnaxに対して、H(A,B)≦εnax
満たすように線分近似を行うことを意味してお
り、誤差の自乗の累積値を最小にする線分近似法
である。
Therefore, the line segmentation process described above means performing line segment approximation so that H(A, B)≦ε nax is satisfied for the maximum (specified) approximation error ε nax , and the error This is a line segment approximation method that minimizes the cumulative value of squares.

実際には、計算量の点から上記した近似処理を
忠実に行うことはせず、近似線分の端点を入力点
列上から探していく方法や(後述する第12図の
もの)、誤差の計算を上記ハウスドルフの距離か
ら、例えばy軸方向だけの誤差によつて代用して
求める近似法が使用される。また、輪郭画素列
(1つの画素は正方領域)によつて形成される帯
状の領域内に最短経路を探すことによつて近似線
分を求める方法も考えられる。
In reality, in view of the amount of calculation, the approximation process described above is not performed faithfully, but instead a method of searching for the end point of the approximate line segment from the input point sequence (as shown in Figure 12, which will be described later), or An approximation method is used in which calculation is performed using the Hausdorff distance, for example, by substituting an error only in the y-axis direction. Another possible method is to find the approximate line segment by searching for the shortest path within a band-shaped area formed by a contour pixel array (one pixel is a square area).

次に、第12図の線分化処理フローチヤートお
よび第13図の線分化過程説明図に基づいて線分
化処理を具体的に説明する。
Next, the line segmentation process will be specifically explained based on the line segmentation process flowchart of FIG. 12 and the line segmentation process explanatory diagram of FIG. 13.

輪郭点列の1つを近似処理の始点を決定し、こ
の点を第1番目の近似線分頂点として登録する
(401)。
One of the outline point sequences is determined as the starting point of the approximation process, and this point is registered as the first approximate line segment vertex (401).

続いて、第12図bに示すように、次の輪郭点
p1を中心に半径εの円を想定して、始点から上接
線角TA2、下接線角TA1を求める(402)。同
様にして、第13図bに示すように、次々と接続
する輪郭点を中心として半径εの円を描いて接続
を引き、それらの中で最大のTA1の値を
MAXTA1、最小のTA2の値をMINTA2とす
る(403)。
Then, as shown in Figure 12b, the next contour point is
Assuming a circle with radius ε centered on p 1 , upper tangent angle TA2 and lower tangent angle TA1 are determined from the starting point (402). Similarly, as shown in Figure 13b, draw a circle with radius ε centering on the contour points to be connected one after another, draw connections, and calculate the maximum value of TA1 among them.
Set MAXTA1 and the minimum TA2 value to MINTA2 (403).

そして、MAXTA1>MINTA2が成立した
場合は、それ以上、1回の線分近似をすることが
できないと判定し(405)、EPN番目の点を線分
の終点として決定登録する(406)。
If MAXTA1>MINTA2 holds true, it is determined that one line segment approximation cannot be performed any more (405), and the EPN-th point is determined and registered as the end point of the line segment (406).

この終点となりうる候補点の識別は、接線を引
いてMAXTA1,MINTA2を更新した後、各
点のCAがMAXTA1,MINTA2間にはさまれ
ているかどうかを認識し、はさまれていれば候補
点とする(404)。EPN番目の終点が最後のデー
タでなければ、再びその点を線分化の始点として
線分近似処理を継続する(407)。
To identify candidate points that can be the end point, after drawing a tangent and updating MAXTA1 and MINTA2, it is recognized whether the CA of each point is sandwiched between MAXTA1 and MINTA2, and if it is, the candidate point is (404) If the EPN-th end point is not the last data, the line segment approximation process is continued using that point again as the starting point of line segmentation (407).

このようにして、第13図aに示すような2値
画像の輪郭は、同図b,cの程を経た後、同図d
に示すように所定の線分化がされた輪郭とするこ
とができる。
In this way, the outline of the binary image as shown in Fig. 13a, after passing through the steps b and c in Fig. 13, is
The contour can be divided into predetermined lines as shown in FIG.

上記した一連の処理により、入力した画像から
認識対象とする領域を切り出し、かつ、その領域
情報について以後の認識処理に適した形態の線分
化表現を行い、多角形の頂点座標系列データにし
て出力する。このデータは、前述の線分化情報メ
モリ108に記憶され、前もつて同様な手順によ
つて作成しておいた辞書パターンと照合を取つて
一致するかどうか判断される。
Through the above-mentioned series of processes, the area to be recognized is extracted from the input image, the area information is expressed as a line segmentation suitable for subsequent recognition processing, and the data is output as polygonal vertex coordinate series data. do. This data is stored in the aforementioned line segmentation information memory 108, and checked against a dictionary pattern previously created using a similar procedure to determine if it matches.

この照合処理は、2つのパターン(多角形図
形)それぞれが持つ固有の特徴量(図心座標,慣
性主軸方向等)を一致させて位置決めをしてから
行なう。
This matching process is performed after the two patterns (polygonal figures) are positioned by matching their respective characteristic features (centroid coordinates, principal axis of inertia direction, etc.).

領域(パターン)特徴抽出処理は、前述の領域
特徴抽出部110,領域特徴メモリ111が関係
するもので、領域の輪郭を線分していることを考
慮して、線分の両端点から座標軸に下ろした垂線
と座標軸とによつて形成される台形を処理単位と
して、第14図の領域特徴抽出処理フローチヤー
トに示す処理手順で行われる。
The area (pattern) feature extraction process involves the above-mentioned area feature extraction unit 110 and area feature memory 111, and takes into account that the outline of the area is segmented into line segments, and extracts the area from both end points of the line segment to the coordinate axes. A trapezoid formed by the drawn perpendicular line and the coordinate axes is used as a processing unit, and the processing procedure shown in the region feature extraction processing flowchart of FIG. 14 is performed.

その基本計算式は以下に示すとおりである。 The basic calculation formula is as shown below.

近似線分の頂点座標列を(X1,Y1),(X2
Y2),……,(X,Y)と表わし、頂点座標列は
平面上に閉ループをなすように配置されていて、
(X1,Y1)=(X,Y)とする。
The vertex coordinate string of the approximate line segment is (X 1 , Y 1 ), (X 2 ,
Y 2 ), ..., (X, Y), and the vertex coordinates are arranged in a closed loop on the plane,
Let (X 1 , Y 1 )=(X, Y).

(1) 線分化モデルの面積 A=bI=2 1/2(XI−XI-1)×(YI-1+YI) (2) 1次モーメント M1Xb 〓 〓I=2 1/6(X1−XI-1)×(YI-1+YI)×{YI-1+YI 2
(YI-1+YI)} M1Yb 〓 〓I=2 1/6(XI-1+XI)×(YI-1−YI)×{XI-1+XI 2
(XI-1+XI)} (3) 2次モーメント M2Xb 〓 〓I=2 1/12(XI−XI-1)×(YI-1+YI)×(YI 2 -1+YI 2
) M2Yb 〓 〓I=2 1/12(YI-1−YI)×(XI-1+XI)×(XI 2 -1+XI 2
) (4) 相乗モーメントMXY DYI=XI-1+1/3(XI−XI-1)+1/3(XI−XI-1) ×YI/(YI-1+YI) 〔XI-1<XIのとき〕 DYI=XI+1/3(XI-1−XI)+1/3(XI-1−XI) ×YI-1/(YI-1+YI) 〔XI-1XIのとき〕 とすると、 MXYb 〓 〓I=2 1/6(XI−XI-1)×(YI-1+YI)×{YI-1+YI 2
(YI-1+YI)}×DYI (5) 図心のX座標XO,Y座標YO XO=M1Y/A YO=M1X/A (6) 座標原点を図心に平行移動した座標系におけ
る2次モーメント,相乗モーメント M20=M2Y−M1Y×M1Y/A M02=M2X−M1X×M1X/A M11=MXY−M1X×M1Y/A (7) 主軸傾き角 ANG=1/2×tan-1{2×M11/(M20−M02)} (8) 主軸に対する2次モーメント M02Z=M20+M02−M20Z M20Z,M02Zの算出によつて主軸の長軸・短軸
の判定を行う。
(1) Area of line differentiation model A = bI=2 1/2 (X I −X I-1 ) × (Y I-1 + Y I ) (2) First moment M 1X = b 〓 〓 I= 2 1/6 (X 1 −X I-1 ) × (Y I-1 + Y I ) × {Y I-1 + Y I 2 /
(Y I-1 +Y I )} M 1Y = b 〓 〓 I=2 1/6 (X I-1 +X I ) × (Y I-1 −Y I ) × {X I-1 +X I 2 /
(X I-1 +X I )} (3) Second moment M 2X = b 〓 〓 I=2 1/12(X I −X I-1 )×(Y I-1 +Y I )×(Y I 2 -1 +Y I 2
) M 2Y = b 〓 〓 I=2 1/12(Y I-1 −Y I )×(X I-1 +X I )×(X I 2 -1 +X I 2
) (4) Synergistic moment M XY D YI = X I-1 + 1/3 ( X I ) [When X I-1 < X I ] D YI = X I + 1/3 (X I-1X I ) + 1/3 ( X I-1 − -1 + Y I ) [When X I -1 X I ] Then , M Y I-1 + Y I 2 /
(Y I-1 + Y I ) } ×D YI (5) X coordinate XO, Y coordinate YO of centroid Secondary moment and multiplicative moment in the system M 20 = M 2Y −M 1Y ×M 1Y /A M 02 = M 2X −M 1X ×M 1X /A M 11 = M XY −M 1X ×M 1Y /A (7) Spindle tilt angle ANG=1/2×tan -1 {2×M 11 /(M 20 −M 02 )} (8) Secondary moment with respect to the spindle M 02Z = M 20 + M 02 −M 20Z The major axis and minor axis of the main axis are determined by calculating M 20Z and M 02Z .

最後に、線分化して、図心・主軸等を求めた入
力パターンは、第15図のパターンマツチング説
明図に示すように、すでに登録してある辞書パタ
ーンと図心,主軸を一致させるべく、入力パター
ン側を座標変換してマツチングを行い、両パター
ンが重なつた領域を同様な線分化図形として抽出
する。aは画像入力(2値化)、bはセグメンテ
ーシヨン輪郭抽出、cは線分近似、図心、主軸決
定、dは辞書パターン群、eは今回の辞書パター
ン、fは図心、主軸合せを示す。
Finally, the input pattern whose centroid and principal axes have been obtained by line segmentation is used to match the centroid and principal axes with the already registered dictionary patterns, as shown in the pattern matching explanatory diagram in Figure 15. , coordinate transformation is performed on the input pattern side, matching is performed, and an area where both patterns overlap is extracted as a similar line segmented figure. a is image input (binarization), b is segmentation contour extraction, c is line segment approximation, centroid, principal axis determination, d is dictionary pattern group, e is current dictionary pattern, f is centroid, principal axis alignment shows.

両パターンが同一撮像条件下で同一部品より得
られたものであるならば、マツチングによつて求
られた重なり領域の面積は、物体をメツシユ状に
区画化されたデイジタル画像上に表現する際の誤
差および線分近似による誤差を見込んだ誤差範囲
で、辞書パターン(入力パターン)の面積と、一
致すると予想される。この面積比が、所定の値
(例えば95%)を越えているときは、目的部品の
輪郭(パターン)であると判定する。
If both patterns are obtained from the same part under the same imaging conditions, the area of the overlapping region determined by matching is the same as that when the object is represented on a digital image partitioned into a mesh. It is expected that the area will match the area of the dictionary pattern (input pattern) within an error range that takes into account errors and errors due to line segment approximation. When this area ratio exceeds a predetermined value (for example, 95%), it is determined that the outline (pattern) of the target part is present.

これらの処理は、前述の共通領域抽出部11
2,共通領域メモリ113,認識処理部114お
よび線分化情報メリ108,辞書パターンメモリ
109が関係するものである。
These processes are carried out by the common area extraction unit 11 described above.
2, the common area memory 113, the recognition processing unit 114, the line segmentation information memory 108, and the dictionary pattern memory 109 are involved.

第16図は、線分化パターンマツチングのフロ
ーチヤートである。
FIG. 16 is a flowchart of line segmentation pattern matching.

ここでは、まず、前記した前処理,輪郭抽出処
理,線分化処理によつて、領域の輪郭(内輪郭,
外輪郭ともに含む)を線分化表現した入力パター
ンと、すでに登録してある辞書パターンの1つと
比較して、両パターンの図心間のx座標方向,y
座標方向の距離を算出する(801)。
Here, first, the outline of the area (inner contour,
Compare the input pattern, which is a linear representation of the input pattern (including both the outer contour), with one of the already registered dictionary patterns, and calculate the x-coordinate direction, y-coordinate direction between the centroids of both patterns.
Calculate the distance in the coordinate direction (801).

続いて、入力パターンの図心が辞書パターンの
図心に一致するように、上記距離だけ入力パター
ンの全頂点を平行移動する(802)。
Next, all vertices of the input pattern are translated by the above distance so that the centroid of the input pattern matches the centroid of the dictionary pattern (802).

また、両パターンの慣性主軸の長軸または短軸
を選択して、図心からほぼ等距離で外周に達する
主軸同士を対応する主軸と判断し、この対応する
両パターンの主軸間の角度を算出する(803)。
Also, select the major or minor axes of the principal axes of inertia of both patterns, determine the principal axes that reach the outer periphery at approximately the same distance from the centroid as corresponding principal axes, and calculate the angle between the principal axes of these two corresponding patterns. (803).

更に、入力パターンの全頂点を、図心を回転中
心として、上記の角度だけ回転移動して、両パタ
ーンの主軸を一致させる(804)、後述する方式で
両パターンの共通領域、すなわち2つの多角形の
積図形(これも多角形となる)を求める(805)。
Furthermore, all the vertices of the input pattern are rotated by the above angle with the centroid as the rotation center, so that the principal axes of both patterns coincide (804), and the common area of both patterns, that is, the two polygons, is Find the product figure of the rectangles (which is also a polygon) (805).

このようにして積図形が求まると、その面積を
算出し、すでに求めてある辞書パターン(または
入力パターン)の面積との比を求める(806)。
Once the product figure is determined in this way, its area is calculated and the ratio to the area of the dictionary pattern (or input pattern) that has already been determined is determined (806).

その面積比を所定の判定闘値と比較し(807)、
面積比が闘値以上の値を示した場合は、両パター
ンが一致したものと判定して認識が終了したこと
を表示するとともに、一致した辞書パターンの種
類および辞書パターンの相対位置から算出した入
力パターンの位置,姿勢情報を出力する(808)。
面積比が判定闘値より小さい場合は、次の辞書パ
ターンがあるかどうか判断する(909)。
Compare the area ratio with a predetermined judgment threshold (807),
If the area ratio shows a value equal to or higher than the threshold value, it is determined that both patterns match and a message indicating that recognition has been completed is displayed.In addition, the input calculated from the type of dictionary pattern that matched and the relative position of the dictionary pattern is displayed. Outputs pattern position and orientation information (808).
If the area ratio is smaller than the determination threshold, it is determined whether the next dictionary pattern exists (909).

すべての辞書パターンとのマツチング処理が終
了して、次の辞書パターンがない場合は、認識が
不可能である旨のメツセージを出力して処理を終
了する(810)。次の辞書パターンが有る場合は、
そのパターンを選択して(811)、再び最初からマ
ツチング処理を繰り返す。
If the matching process with all dictionary patterns is completed and there is no next dictionary pattern, a message indicating that recognition is impossible is output and the process ends (810). If you have the following dictionary pattern,
Select that pattern (811) and repeat the matching process from the beginning.

次に、線分化したパターンと辞書パターンとの
積図形(共通領域)を作成する処理方式例を以下
述べる。
Next, an example of a processing method for creating a product figure (common area) of a line segmented pattern and a dictionary pattern will be described below.

2次元平面上の点P(X,Y)が線分P1P2の右
半平面上に存在するためには、次式が正であるこ
とが必要である。すなわち、P1=(X1,Y1)P2
=(X2,Y2)とすると12 (P)=−X Y 1 X1Y11 X2Y21 ここで、次の関数を定義する。
In order for the point P(X, Y) on the two-dimensional plane to exist on the right half plane of the line segment P 1 P 2 , the following equation must be positive. That is, P 1 = (X 1 , Y 1 )P 2
= (X 2 , Y 2 ), then 12 (P) = -X Y 1 X 1 Y 1 1 X 2 Y 2 1 Here, the following function is defined.

g12(P)=1〔12(P)>0〕 0〔12(P)=0〕 −1〔12(P)<0〕 この関数によると、線分P1P2,P3P4が交わる
条件は、次式で表わされる。
g 12 (P) = 1 [ 12 (P) > 0] 0 [ 12 (P) = 0] -1 [ 12 (P) < 0] According to this function, the line segments P 1 P 2 , P 3 P 4 The condition for intersection is expressed by the following equation.

g12(P3)=−g12(P4) g34(P1)=−g34(P2) 更に、交点の有無を全体的に調べるために多角
形F,F′を考え、各線分に対する相手側の頂点の
左右の判定を示すVS行列およびSV行列を求め
る。
g 12 (P 3 ) = −g 12 (P 4 ) g 34 (P 1 ) = −g 34 (P 2 ) Furthermore, in order to check the presence or absence of intersection points as a whole, consider polygons F and F′, and Find the VS matrix and SV matrix that indicate the left/right determination of the opponent's vertex with respect to the minute.

VS(i,j)=gii+1(Pj) SV(i,j)=gjj+1(Pi) この関係を用い、次式によつて線分間の交差判
定を行う。
VS (i, j) = g i , i+1 (P j ) SV (i, j) = g j , j+1 (P i ) Using this relationship, the intersection between line segments is determined by the following equation. conduct.

Cij=|{SV(i,j)−SV(i,j+1)} ×{VS(i+1,j)−VS(i,
j)}| その判定条件は次の通りである。
C ij = | {SV (i, j) − SV (i, j + 1)} × {VS (i + 1, j) − VS (i,
j)}| The judgment conditions are as follows.

Cij=4:〔PiPi+1〕と〔PjPj+1〕 は交差する。C ij =4: [P i P i+1 ] and [P j P j+1 ] intersect.

2:線分に頂点が重なる。2: The vertex overlaps the line segment.

1:頂点と頂点が重なる。1: The vertices overlap.

0:交差しない。0: Do not intersect.

以上の判定式をもとに、積図形の頂点の有無を
調べ、その存在が確認されたときは、これを2値
線の交点計算によつて求める。得られた積図形
も、線分化モデルと同様、頂点座標系列で表わさ
れており、この多角形の面積計算を行い次式でパ
ターン一致度を評価する。
Based on the above judgment formula, the presence or absence of a vertex of the product figure is checked, and if its existence is confirmed, it is found by calculating the intersection of binary lines. The obtained product figure is also represented by a series of vertex coordinates, similar to the line segmentation model, and the area of this polygon is calculated and the degree of pattern matching is evaluated using the following equation.

パターン一致度=積図形の面積/標準パターンの面積
×100 〔%〕 以上のように、上記実施例は、同一精度の認識
を行なうのに、大規模な専用ハードを必要とせ
ず、頂点だけのデータ処理するので、高速処理が
可能となる。
Pattern matching rate = area of product figure / area of standard pattern × 100 [%] As described above, the above embodiment does not require large-scale dedicated hardware to perform recognition with the same accuracy, and only the vertices can be used. Since data is processed, high-speed processing is possible.

なお、線分化という近似処理を行つているの
で、認識精度への影響を確認する必要があるが認
識実験を行なつた結果、重心の位置精度は0.2画
素程度、また慣性主軸の算出精度は約0.015ラジ
アン程度で、良好な結果を得ている。
Note that since an approximation process called line segmentation is performed, it is necessary to confirm the effect on recognition accuracy, but as a result of recognition experiments, the positional accuracy of the center of gravity is approximately 0.2 pixels, and the calculation accuracy of the principal axis of inertia is approximately Good results have been obtained at around 0.015 radian.

このようにフイーダ内で視覚認識装置により組
付けに際し、適性部品と判断された場合にはロボ
ツト12がつかみ、組付けを行い、不適性部品と
判断された場合はフイーダを作動させた状態にす
るとそのまま、フイーダ内にもどり、いずれかは
適性部品と判断される状態となつて送出されてく
ることになる。従つて、数種類の部品をフイーダ
内に入れておけば、組付け順序が異なつた形で送
られて来ても、次々と送られてくるので組付け順
にロボツトは被組付部品に組付けることが可能と
なる。
In this way, when assembling the part using the visual recognition device in the feeder, if the part is determined to be suitable, the robot 12 grabs it and assembles it, and if it is determined to be an unsuitable part, the feeder is activated. The parts return to the feeder and one of them is determined to be a suitable part and sent out. Therefore, if several types of parts are placed in the feeder, even if they are delivered in different assembly orders, they will be delivered one after another, so the robot can assemble the parts in the assembly order. becomes possible.

〔発明の効果〕〔Effect of the invention〕

以上詳述した通り本発明によれば、搬送路の終
端を貯蔵部内方に開口させて部品を循環させこの
循環している搬送部品を検出部で検出し、この検
出部からの信号によつて判断部で適性部品と不適
性部品を判断し、適性部品のみを取り出すように
したので、搬送路の途中には、適性部品と不適性
部品を選別するための特別の装置が不要となり、
又搬送路の終端を貯蔵内方に開口させ、部品を循
環させるようにしたので、従来のような部品姿勢
拘束部材を不要とし、その結果あらゆる部品への
適用が可能となつて、部品供給装置の汎用化が拡
大され、多種少量生産システムに即応した部品供
給装置を得ることができた。
As described in detail above, according to the present invention, the terminal end of the conveyance path is opened inward of the storage section to circulate the parts, and the circulating conveyed parts are detected by the detection section, and the detection section detects the circulating components by using the signal from the detection section. Since the judgment section determines suitable and unsuitable parts and takes out only suitable parts, there is no need for a special device on the conveyance path to separate suitable and unsuitable parts.
In addition, since the end of the conveyance path is opened inside the storage and parts are circulated, there is no need for the conventional parts position restraining member, and as a result, it can be applied to all kinds of parts, and the parts feeding device The versatility of has been expanded, and it has become possible to obtain a parts supply device that is immediately compatible with high-mix, low-volume production systems.

又本発明の装置に複数種の部品を混入させて
も、これらの部品が入り乱れた列となつて搬送路
を循環するので、判断部において、この部品列の
中から必要且つ適性な部品を見出して順次取出す
ことが可能となり、例えば、一つのステーシヨン
で複数種の部品を組み付ける自動組立ラインの組
付けステーシヨンにおいて、従来は部品の数だけ
部品供給装置が必要であつたが、一台の部品供給
装置でこれらの部品を供給することができ、自動
部品組立ラインの簡略化が可能になるなど、その
効果は顕著なものがある。
Furthermore, even if multiple types of parts are mixed into the device of the present invention, these parts will form a jumbled line and circulate through the conveyance path, so the judgment section will find necessary and suitable parts from this part line. For example, in the assembly station of an automatic assembly line that assembles multiple types of parts at one station, conventionally, as many parts supply devices as there are parts were required, but with one part supply device, parts can be taken out sequentially. The effects are significant, such as the ability to supply these parts using equipment and the simplification of automatic parts assembly lines.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図及び第2図は、従来の部品供給装置を示
す斜視図である。第3図乃至第6図は、本発明の
一実施例であり、第3図は、該部品供給装置の全
体を示す概略構成図、第4図はそのボールフイー
ダの詳細を示す斜視図である。第5図a,bはそ
れぞれ搬送路終端部の他の実施例を部分拡大して
示した斜視図、第6図aは、他の実施例であり、
その全体を示す概略構成図、第6図bは旋回式パ
ーツフイーダの断面を示した図第7図は第3図及
び第6図に示すロボツト制御装置の慨略構成を示
す図、第8図は第3図及び第6図に示す視覚認識
装置の慨略構成を示す図第9図は、本発明に係る
パターン認識装置の一実施例のブロツク図、第1
0図は、その前処理フローチヤート、第11図
は、同領域情報のフオーマツト図、第12図は、
同線分化処理フローチヤート、第13図は、同線
分化過程説明図、第14図は、同領域特徴抽出処
理フローチヤート、第15図は、同パターンマツ
チング説明図、第16図は同線分化パターンマツ
チング処理フローチヤートである。 11……ボウルフイーダ、12……ロボツト、
13……把持装置(手機構)、14……テレビカ
メラ、16……組立ステーシヨン、17……貯蔵
部、18……搬送路、19……終端部。
1 and 2 are perspective views showing a conventional component supply device. 3 to 6 show an embodiment of the present invention, in which FIG. 3 is a schematic diagram showing the overall configuration of the component supply device, and FIG. 4 is a perspective view showing details of the ball feeder. FIGS. 5a and 5b are partially enlarged perspective views of other embodiments of the conveyance path end portion, and FIG. 6a is another embodiment,
FIG. 6b is a cross-sectional view of the rotary parts feeder; FIG. 7 is a schematic diagram showing the configuration of the robot control device shown in FIGS. 3 and 6; FIG. FIG. 9 is a block diagram of an embodiment of the pattern recognition device according to the present invention, and FIG.
Figure 0 is the preprocessing flowchart, Figure 11 is the format of the area information, and Figure 12 is the
Flowchart of same-line differentiation processing, FIG. 13 is an explanatory diagram of the same-line differentiation process, FIG. 14 is a flowchart of same-area feature extraction processing, FIG. 15 is an illustration of same-line pattern matching, and FIG. 16 is an illustration of same-line differentiation process. This is a flowchart of differentiation pattern matching processing. 11... Bowl feeder, 12... Robot,
13...Gripping device (hand mechanism), 14...TV camera, 16...Assembling station, 17...Storage section, 18...Transportation path, 19...Terminal section.

Claims (1)

【特許請求の範囲】 1 部品を貯蔵する貯蔵部と、この貯蔵部に貯蔵
された部品を列状に搬送する搬送路とから成り、
搬送路終端部を貯蔵部内方に開口させたボウルフ
イーダと、上記搬送路に搬送されて来た部品を撮
像し、組付に対して適性であるか否か並びにその
適性部品の位置及び方向を認識する視覚認識手段
と、該視覚認識手段によつて認識された適性部品
を、上記適性部品の位置及び方向データにもとづ
いてロボツトの取出位置データを補正して取出
し、他の場所に設置された被組付部品に組付ける
ロボツトとを備え、該ロボツトはボウルフイーダ
の搬送路によつて搬送されてくる部品の中から組
付けに適する適性部品のみを取り出し、上記ボウ
ルフイーダは不適性部品を上記搬送路終端の開口
部を通して貯蔵部内に導き、再び搬送路に乗せ、
再循環するように構成したことを特徴とする部品
供給組立装置。 2 上記ロボツトが持上げする際、ボウルフイー
ダにおける部品の搬送を停止させることを特徴と
する特許請求の範囲第1項記載の部品供給組立装
置。 3 上記ロボツトは少くとも3自由度以上を有す
るロボツトであることを特徴とする特許請求の範
囲第2項記載の部品供給組立装置。 4 上記視覚認識装置は各部品毎のパターンにセ
グメンテーシヨンをし、セグメンテーシヨンされ
た各部品毎のパターンの重心と、モーメント主軸
の方向とを求めるように構成したことを特徴とす
る特許請求の範囲第1項記載の部品供給組立装
置。 5 上記ボウルフイーダは旋回式パーツフイーダ
であることを特徴とする特許請求の範囲第1項記
載の部品供給組立装置。
[Claims] 1. Consisting of a storage section for storing parts and a conveyance path for transporting the parts stored in the storage section in a row,
Images are taken of the bowl feeder with the end of the conveyance path opening inward into the storage section and the parts conveyed to the conveyance path, and it is recognized whether or not the parts are suitable for assembly, as well as the position and direction of the suitable parts. and a visual recognition means to take out the suitable part recognized by the visual recognition means by correcting the take-out position data of the robot based on the position and direction data of the suitable part, and take it out from the target installed at another location. and a robot that assembles the parts to be assembled, the robot takes out only suitable parts suitable for assembly from the parts conveyed by the conveyance path of the bowl feeder, and the bowl feeder removes unsuitable parts to the end of the conveyance path. is guided into the storage section through the opening, placed on the conveyance path again,
A parts supply and assembly device characterized in that it is configured to recirculate. 2. The parts supply and assembly apparatus according to claim 1, wherein the robot stops transporting the parts in the bowl feeder when the robot lifts the parts. 3. The parts supply and assembly apparatus according to claim 2, wherein the robot has at least three degrees of freedom. 4. A patent claim characterized in that the above-mentioned visual recognition device is configured to segment a pattern for each part and determine the center of gravity of the segmented pattern for each part and the direction of the principal axis of moment. The parts supply and assembly device according to item 1. 5. The parts supply and assembly apparatus according to claim 1, wherein the bowl feeder is a rotating parts feeder.
JP58224191A 1983-11-30 1983-11-30 Parts supply assembly equipment Granted JPS60118479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58224191A JPS60118479A (en) 1983-11-30 1983-11-30 Parts supply assembly equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58224191A JPS60118479A (en) 1983-11-30 1983-11-30 Parts supply assembly equipment

Publications (2)

Publication Number Publication Date
JPS60118479A JPS60118479A (en) 1985-06-25
JPH034358B2 true JPH034358B2 (en) 1991-01-22

Family

ID=16809944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58224191A Granted JPS60118479A (en) 1983-11-30 1983-11-30 Parts supply assembly equipment

Country Status (1)

Country Link
JP (1) JPS60118479A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0192082A (en) * 1987-10-05 1989-04-11 Japan Em Kk Part discriminator for part feeder
WO2023199502A1 (en) * 2022-04-15 2023-10-19 三菱電機株式会社 Learning model generation device, information processing device, learning model generation method, and information processing method

Also Published As

Publication number Publication date
JPS60118479A (en) 1985-06-25

Similar Documents

Publication Publication Date Title
US4527326A (en) Part feeding and assembling system
CN109955222B (en) Article transfer device, robot system, and article transfer method
CN113771045B (en) Vision-guided right-angle robot mobile phone middle frame height adaptive positioning and grasping method
US5165520A (en) Device for controlling and regularizing the spacing objects such as parcels, packages
JP2005305613A (en) Article taking-out device
JP3296643B2 (en) Component supply method and device
JPH08323669A (en) Part supply method and device therefor
GB2252427A (en) Positional deviation correction for an object conveyed on a production line
CN114708209A (en) Production interaction method and system based on 3D modeling and visual inspection
CN115485636A (en) Container treatment machine and method for aligning containers in container receptacles of a container treatment machine
US11295436B2 (en) Vision inspection system and method of inspecting parts
JPH034358B2 (en)
JPH10235584A (en) Article recognition method and device
Haugaard et al. A flexible and robust vision trap for automated part feeder design
JP2003302345A (en) Inspection method and inspection system using robot
JPS63109923A (en) Component position correction recognition mechanism
WO2023083273A1 (en) Grip point information acquisition method and apparatus, electronic device, and storage medium
JPH10213420A (en) Formation of reference image used in pattern matching
WO2017108074A1 (en) An identification method and apparatus of the most probable poses of an object
JPH0545123A (en) Lead tip position detector
CN117260003B (en) Automatic arranging, steel stamping and coding method and system for automobile seat framework
JPS62271641A (en) Assembly device by robot with visual sense
Matsumoto et al. Bin Picking by Robot Arm Based on Object Position and Pose Recognition
JP2001105361A (en) Picking system
JP3003229B2 (en) Work posture determination method