JPS60123974A - Multistage visual field recognizing system - Google Patents

Multistage visual field recognizing system

Info

Publication number
JPS60123974A
JPS60123974A JP58231369A JP23136983A JPS60123974A JP S60123974 A JPS60123974 A JP S60123974A JP 58231369 A JP58231369 A JP 58231369A JP 23136983 A JP23136983 A JP 23136983A JP S60123974 A JPS60123974 A JP S60123974A
Authority
JP
Japan
Prior art keywords
robot
view
parts
field
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58231369A
Other languages
Japanese (ja)
Other versions
JPH0239821B2 (en
Inventor
Akira Miyagawa
晃 宮川
Seiji Hata
清治 秦
Kenji Suzuki
健司 鈴木
Masato Uno
宇野 正人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP58231369A priority Critical patent/JPS60123974A/en
Publication of JPS60123974A publication Critical patent/JPS60123974A/en
Publication of JPH0239821B2 publication Critical patent/JPH0239821B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To improve the speed of visual retrieval process of supplying parts and its recognizing accuracy, by switching the visual field of the visual sensation of a robot in multiple stages for every desired extent in accordance with the vertical and horizontal movements of the robot. CONSTITUTION:The image of the flow of plural kinds of parts is taken with a TV camera at a fixed time interval. A recognition process is first performed by a robot control section and visual sensation recognizing section with a wide visual field whether or not object parts exist in the visual field. When the existence of the object parts is confirmed, a robot is operated and a narrow visual field in set so as to make recognition process on the kind, location, and attitude of the object parts.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、ロボット視覚に要求される高速探累機能、高
精度認識機能の両方を満足するように視野を精粗多段階
に切シ換え、複数種の部品を認識するだめの多段階視野
認識方式に関するものでおる。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention switches the field of view into fine and coarse stages so as to satisfy both the high-speed exploration function and the high-accuracy recognition function required for robot vision. This paper relates to a multi-stage field of view recognition method for recognizing multiple types of parts.

〔発明の背景〕[Background of the invention]

従来、ロボットによる部品の組立て処理は、部品を一定
の位置、姿勢で機械的に供給する専用の供給装置が部品
ごとに必要であった。これに代り、視覚による位置、姿
勢認識機能を持たせた汎用の部品供給装置を構成して、
ロボットが持つ自由度の範囲内で、部品をつかみ上げ組
立てを行なうシステムとすれば、多種少量生産に適する
と考えられている。
Conventionally, when assembling parts using a robot, a dedicated feeding device for mechanically feeding the parts at a fixed position and posture has been required for each part. Instead, a general-purpose parts supply device with visual position and orientation recognition functions is configured.
A system that picks up and assembles parts within the robot's degree of freedom is considered suitable for high-mix, low-volume production.

このような汎用部品供給装置として、ベルトコンベアま
たは汎用パーツフィーダによって部品をばら置き状態で
流し、上部に取り付けた視覚によって当該部品の認識を
行なう方式が考えられている。この場合、目的とする部
品が、ロボットでつかみうる姿勢で供給されたととを認
識したら、ベルトコンベアまたはパーツフィーダを止め
、静止状態で再び部品を認識し直して正確な位置、姿勢
をめ、この情報をロボットに送るようにする。
As such a general-purpose parts supply device, a system has been considered in which parts are fed in bulk by a belt conveyor or a general-purpose parts feeder, and the parts are recognized by a visual device attached to the top. In this case, when the robot recognizes that the target part has been supplied in a position that can be grasped by the robot, the belt conveyor or parts feeder is stopped, the part is recognized again in a stationary state, and the correct position and orientation are determined. Send information to the robot.

ロボットは、視覚からの情報に従って部品をつかみ上げ
、組込み処理を行なう。ここでは、固定視覚によって2
度の認識を行なうことになるが、流れてきた部品を確認
して停止させたとき、その部品がまだ視野内に入ってい
ることが前提となる。
The robot picks up parts and processes them according to visual information. Here, 2
This involves recognizing the degree of movement, but it is assumed that when the flowing part is checked and stopped, the part is still within the field of view.

ところが、対象とする部品種類を増やして複数とすると
、混在した部品群の中から対象部品(ロボットがつかみ
うる姿勢のもの)を早く児つけださねばならないという
要語から、供給速度を速くする必要が生じ、固定視覚方
式では、かなシ広い視野を設定しないと対処できない。
However, if the number of target parts is increased to multiple types, the supply speed must be increased because it is necessary to quickly find the target parts (those in a position that the robot can grasp) from a mixed group of parts. The need arises, and the fixed vision system cannot handle this unless a wide field of view is set.

しかし、部品の位置、姿勢を精度よく認識するには、狭
い視野で倍率を拡大して認識することが必要である。こ
のように、位置1姿勢認識機能を兼備させるのは困難な
問題が多ぐ、まだ充分に満足すべき実用装置が実現され
ていないのが現状である。
However, in order to accurately recognize the position and orientation of a component, it is necessary to increase the magnification with a narrow field of view. As described above, there are many difficulties in providing both position and orientation recognition functions, and the current situation is that a fully satisfactory practical device has not yet been realized.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、上記した事情に鑑み、ロボット・視覚
結合システムによる組立処理において、視覚による供給
部品の探索処理の高速化とともに、その認識の精度向上
を実現することができる多段階視野認識方式を提供する
ことにある。
In view of the above-mentioned circumstances, an object of the present invention is to provide a multi-stage visual field recognition method that can speed up the visual search process for supply parts and improve the recognition accuracy in assembly processing using a robot/visual combination system. Our goal is to provide the following.

〔発明の概要〕[Summary of the invention]

本発明に係る多段階視野認識方式は、少なくとも、視覚
を備えたロボット、ロボット制御部および視覚認識処理
部からなるロボット・視覚結合システムのロボットの昇
降・水平動作に応じて上記視覚の視野を所望の範囲ごと
に多段階に切り換えうるようにし、上記視覚認識処理部
により、まず広い視野によって対象部品が同視野内に存
在するか否かと認識処理をしたのち、上記対象部品の存
在を確認したときに上記ロボットを動作させて狭い視野
を設定し、上記対象部品の種類、位置および姿勢の認識
処理をするようにしたものである。
The multi-stage field of view recognition method according to the present invention provides a robot/visual field combination system that includes at least a robot equipped with vision, a robot control unit, and a visual recognition processing unit. The visual recognition processing unit first performs recognition processing to determine whether or not the target part exists within the same field of view using a wide field of view, and then when the existence of the target part is confirmed. The robot is operated to set a narrow field of view, and the type, position, and orientation of the target part are recognized.

なお、その補足説明をすれば次のとおシである。The following is a supplementary explanation.

すなわち、部品を探す機能に関しては、なるべく広い範
囲を視野に収めて少ない回数の探索画像処理で対象部品
の有無を確認する方が速度の点で有効であるが、それに
反し、部品を認識する機能に関しては、精度を上げるに
は、なるべく狭い範囲の拡大視野を設定した方が有効で
ある。この要請を1台のTVカメラで満たすためには、
後述するように、TVカメラをロボットに付け、ロボッ
トの動作によって視野を切り換えて、多段階に探索、認
識を行なうものとし、広い視野で探索したときに複数部
品の確認時には、そのリストt−作成しておき、以後の
組付は部品を上記リストから探し出すことにより、画像
探索処理を省略しつるようにし、視覚処理の高速化をは
かるものである。
In other words, when it comes to the function of searching for parts, it is more effective in terms of speed to check the presence or absence of the target part by performing search image processing as few times as possible while keeping a field of view as wide as possible. In order to improve accuracy, it is more effective to set an expanded field of view as narrow as possible. In order to meet this requirement with one TV camera,
As will be described later, a TV camera is attached to the robot, and the field of view is switched according to the robot's movements to perform multi-stage search and recognition. In addition, subsequent assembly is performed by searching for parts from the above list, thereby omitting image search processing and speeding up visual processing.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の実施例を図に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

ま゛ず、第1図は、本発明に係る多段階視野認識方式を
適用したロボット・視覚結合システムの一実施例の概略
外観図、第2図は、その部分拡大図、第3図は、同シス
テム動作フローチャートである。
First, Fig. 1 is a schematic external view of an embodiment of a robot/visual combination system to which the multi-stage visual field recognition method according to the present invention is applied, Fig. 2 is a partially enlarged view thereof, and Fig. 3 is a It is a flowchart of the system operation.

本システムは、ロボット、TVカメラ(視覚とな九の)
、ロボット制御部、視覚認識部1部品供給装置(汎用パ
ーツフィーダまたはマガジン供給装置など)により、ベ
ースマシン上のコンベアを流れてくるシャーシに所望部
品の組込みを行うものである。
This system consists of a robot, a TV camera (vision and nine)
, robot control section, visual recognition section 1 Desired parts are assembled into the chassis flowing on the conveyor on the base machine by a parts supply device (such as a general-purpose parts feeder or magazine supply device).

視覚による処理は、第1に第2図(a)に示す全体視野
において、供給されてくる複数種部品の流れを一定時間
間隔で撮像し、その画像処理によって必要とする部品が
視野内に存在するかどうか確認する。もし、対象部品が
見つからなければ、一定時間間隔で撮像1画像処理を当
該部品が見つかるまでくシ返す。第2図(a)に示すよ
うに、部品供給装置として汎用パーツフィーダ等を使用
して部品に流れがある場合には、視野位置は固定でもよ
いが、第1図に示すように部品が簡易乎マガジン内に並
べて置かれている場合には、視野を水平に移動して部品
を探すことも必要である。
Visual processing involves first capturing images of the flow of multiple types of parts being supplied at regular time intervals in the overall field of view shown in Figure 2(a), and then using the image processing to determine whether the required parts are within the field of view. Check if it does. If the target part is not found, the imaging 1 image processing is repeated at fixed time intervals until the target part is found. As shown in Fig. 2(a), if a general-purpose parts feeder or the like is used as a parts feeding device and there is a flow of parts, the viewing position may be fixed, but as shown in Fig. If the parts are placed side by side in the magazine, it is also necessary to move the field of view horizontally to find the parts.

パーツフィーダ上で部品を認識して組付ける一連のシス
テム動作を第3図に従って説明する。
A series of system operations for recognizing and assembling parts on the parts feeder will be explained with reference to FIG.

全体視野において部品が見つかったらパーツフィーダを
ストップし、視野内に見つかった1まだは複数の部品の
データを記憶する。下表は、この部品表(リスト)の−
例を示す。
When a part is found in the entire field of view, the parts feeder is stopped, and the data of one or more parts found within the field of view is stored. The table below shows − of this parts list (list).
Give an example.

この例では、視野内に4個の部品が見つかり、その部品
は、aが2個、bが1個、Cが1個であり(部品の種別
は面積判定によって粗く行なわれている。したがって、
認識誤りも考慮に入れる。)、各部品の重心位置の大体
の座標がめられている。
In this example, four parts are found within the field of view, and the parts are two a, one b, and one c (part types are roughly determined by area determination. Therefore,
Recognition errors are also taken into account. ), the approximate coordinates of the center of gravity of each part are determined.

ただし、重心位置でなく、部品の特徴点で代用してもよ
い。
However, instead of the center of gravity position, feature points of the part may be used instead.

この部品表から、次に組み込むべき対象部品を探す。た
とえば、最初の部品表作成時には、選択フラグは、すべ
て0になっていて、いずれの部品も選択されていないこ
とが示されているので、この中から1つを選択する。す
なわち、最初には必らず1つ見つかり、それは全体視野
認識終了条件である。選択しだら、当該選択フラグを1
とし、その部品を精度よ゛く認識する処理に移る。
From this parts list, search for the next target part to be installed. For example, when creating the parts list for the first time, the selection flags are all 0, indicating that none of the parts are selected, so one of them is selected. That is, one is always found at the beginning, and that is the entire visual field recognition end condition. Once selected, set the selection flag to 1
Then, the process moves on to recognizing the part with high accuracy.

コノ処理では、部品表に記されている部品の位置に従っ
て、第2図(b)に示すように、この部品を拡大して視
野に収めるべく、拡大視野(広い視野)が設定される。
In the cono processing, an enlarged field of view (wide field of view) is set according to the position of the part written on the parts list, as shown in FIG. 2(b), in order to enlarge this part and fit it within the field of view.

これは、ロボットの下降動作および水平動作によって行
なわれる。拡大視野の設定後、TVカメラによる視覚で
部品の正確な種類識別および位置・姿勢の認識を行なう
。もし、必要とする部品でないことがわかれば、再び部
品表の探索に戻る。必要部品であることを確認したのち
は、部品の位置・姿勢情報をロボット側に送り、その情
報に基づいてロボットが部品をつかみあげ、7ヤーシに
組込む動作を行なう。
This is done by lowering and horizontal movements of the robot. After setting the enlarged field of view, accurate type identification and position/attitude recognition of parts is performed visually using a TV camera. If it turns out that the part is not the one you need, you go back to searching the parts list again. After confirming that the part is a necessary part, information on the position and orientation of the part is sent to the robot, and based on that information, the robot picks up the part and assembles it into the 7-palm.

続いて、システムは、次に組み込むべき部品が伺である
かを判断して再び部品表を探す。部品表上に登録しであ
る該当部品があり、しかも選択フラグが0であってまだ
組み込んでいない部品であれば、その部品について拡大
視野による認識動作に移り、以下同様の手順をとる。ま
だ、次に組み込むべき部品が部品表中になくなれば、再
び全体視野を設定して部品供給動作を開始し、部品を探
す処理に移り、以下同様の手順をとる。
Next, the system determines whether the next part to be installed is the next one and searches for the parts list again. If there is a corresponding part registered on the parts table and the selection flag is 0 and the part has not yet been assembled, the process moves to a recognition operation using an enlarged field of view for that part, and the same procedure is followed thereafter. If there are no more parts to be installed next in the parts list, the overall field of view is set again, the parts supply operation is started, the process moves to searching for parts, and the same procedure is followed.

次に、第4図は、本発明に係る多段視野認識方式を適用
したロボット・視覚結合システムの一実施例のブロック
図、第5図は、その視覚処理部のブロック図である。
Next, FIG. 4 is a block diagram of an embodiment of a robot/visual combination system to which the multi-stage visual field recognition method according to the present invention is applied, and FIG. 5 is a block diagram of its visual processing section.

ここで、401は、ロボット制御部でアシ、シャーシに
組み込む部品の選別、視野の設定、視覚による認識処理
の指示およびロボットによる部品の組付は動作の一連に
わたっての制御を行なう。
Here, reference numeral 401 denotes a robot control unit which controls a series of operations such as selection of parts to be assembled into the reed and chassis, setting of visual field, visual recognition processing instructions, and assembly of parts by the robot.

すなわち、ロボット制御部401の制御により、ロボッ
ト403が全体視野位置へ動くとともに、部品供給装置
405が起動される。
That is, under the control of the robot control unit 401, the robot 403 moves to the full field of view position and the component supply device 405 is activated.

続いて、ロボット制御部401の指示により、視覚認識
部402は、全体視野認識を行ない、認識が完了しだら
部品供給装置405全一停止して部品テーブルを作成す
る。まだ、ロボット制御部401によって指示された部
品を前記部品表から探索し、その部品の位置から拡大視
野を設定すべき位置情報を算出してロボット制御皿部4
01へわたす。
Subsequently, in response to instructions from the robot control unit 401, the visual recognition unit 402 performs full field of view recognition, and when recognition is completed, all parts supply devices 405 are stopped to create a parts table. Still, the robot controller 401 searches the parts list for the part specified by the robot controller 401, calculates positional information for setting the enlarged field of view from the position of the part, and sends the robot controller 4
Pass it to 01.

ロボット制御部401は、その情報に基づいてロボツ)
403に制御して拡大視野を設定する。
The robot control unit 401 controls the robot based on the information.
403 to set an enlarged field of view.

続いて、ロボット制御部401の指示により、視覚認識
部402は、拡大視野の認識を行ない、部品の正確な位
置・姿勢情報をめ、それらの情報からロボット403が
部品をつかむ座標を算出してロボット制御部401へ送
る。
Next, according to instructions from the robot control unit 401, the visual recognition unit 402 recognizes the enlarged field of view, obtains accurate position and orientation information of the part, and calculates coordinates for the robot 403 to grasp the part from that information. The data is sent to the robot control unit 401.

ロボット制御部401は、その情報に基づき、対象部品
をつかんでシャー/に組付ける動作の制御を行なったの
ち、次に組付ける部品を選択して視覚認識部402に指
示する。視覚認識部402は、まず部品表上をさがし、
対象部品の有無をロボット制御部401へ伝えるととも
に、もし部品がみつかれば、その部品に対する拡大視野
設定情報をロボット制御部401へ送る。もし部品がみ
つからなければ、ロボット制御部401は、再び部品供
給装置405を起動して上記の動作を再開させる。
Based on the information, the robot control unit 401 controls the operation of grasping the target part and assembling it on the shear/shear, and then selects the part to be assembled next and instructs the visual recognition unit 402 to select the part to be assembled next. The visual recognition unit 402 first searches on the parts list,
The presence or absence of the target part is notified to the robot control unit 401, and if the part is found, the enlarged field of view setting information for that part is sent to the robot control unit 401. If no parts are found, the robot control unit 401 starts up the parts supply device 405 again and restarts the above operation.

最後に、更に詳細な認識動作を第5図に基づいて説明す
る。
Finally, a more detailed recognition operation will be explained based on FIG.

視覚制御部500は、視覚処理部全体の制御を行なう。The visual control section 500 controls the entire visual processing section.

映像入力部501は、TV左カメラ04からの映像信号
を入力してディジタル化し、2値化処理部502は、そ
の2値化処理を行なう。続いて、部品領域識別部503
は、2値画像上の白黒画素のまとまシごとに領域分けを
行ない、背景領域に包含された部品領域および部品領域
に包含された穴領域の識別を付けて記録する。
The video input section 501 inputs the video signal from the TV left camera 04 and digitizes it, and the binarization processing section 502 performs the binarization processing. Next, the component area identification unit 503
This divides the binary image into areas for each group of black and white pixels, and records the part area included in the background area and the hole area included in the part area with identification.

形状特徴量抽出部A、B(504,505)は、それぞ
れ、部品領域の輪部抽出1輪部線分近似。
Shape feature extraction units A and B (504, 505) each perform ring segment extraction and one ring line segment approximation of a component region.

面積1重心、慣性主軸、各種距離等の形状物微量の抽出
を行なう。それらは、対象部品を探し出すだめの処理と
、位置・姿勢を認識する用途とによって、その処理内容
は多少異なる。
Extracts small amounts of shapes such as area, center of gravity, principal axis of inertia, and various distances. The contents of these processes differ somewhat depending on the purpose of searching for the target part and the purpose of recognizing the position/orientation.

形状認識部506は、形状特徴量抽出部A(504)で
算出した特徴量と、辞書データA(513)との照合を
行ない、対象部品であり、かつロボット403がつかみ
うる姿勢であるがどうかの探索処理を行なう。もし、対
象部品が見つかったら、視覚制御部500は、パーツフ
ィーダをストップさせるとともに、認識形状登録部50
8は、認識形状データを登録する。対象形状選定部51
0は、ここで作成された認識部品表から対象部品候補を
選びだし、視野設定指示部512は、この部品を精度よ
く認識するように視野を設定するためのデータを作成し
て、ロボット制御部401へ伝送する。
The shape recognition unit 506 compares the feature amount calculated by the shape feature amount extraction unit A (504) with the dictionary data A (513), and determines whether the part is the target part and the posture is such that the robot 403 can grasp it. Performs search processing. If the target part is found, the visual control unit 500 stops the parts feeder and the recognized shape registration unit 50
8 registers recognized shape data. Target shape selection section 51
0 selects a target part candidate from the recognized parts list created here, and the field of view setting instruction unit 512 creates data for setting the field of view to accurately recognize this part, and sends it to the robot control unit. 401.

視野設定後、再度画像データを入力し、形状特徴量抽出
部B(505)で特徴量を抽出して、形状認識部B(5
07)で辞書データB(514)と照合を取シ、部品の
位置・姿勢を認識する。次に、ロボット位置決めデータ
作成部512において、対象部品をつかむだめのロボッ
ト位置決めデータを作成し、伝送処理部513全通して
ロボット制御装置401へ伝送する。
After setting the field of view, the image data is input again, the feature amount is extracted by the shape feature extraction section B (505), and the feature amount is extracted by the shape recognition section B (505).
07), the part is checked against the dictionary data B (514) and the position and orientation of the part is recognized. Next, the robot positioning data creation unit 512 creates robot positioning data for grasping the target part, and transmits it to the robot control device 401 through the transmission processing unit 513.

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明したように、本発明によれば、視覚に
よる供給部品の操作処理の高速化とともに、その認識の
精度向上を実現することができるので、ロボット作業の
効率化、高性能化に顕著な効果が得られる。
As described in detail above, according to the present invention, it is possible to speed up the visual operation of supplied parts and improve the accuracy of its recognition, thereby improving the efficiency and performance of robot work. Remarkable effects can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明に係る多段階視野認識方式を適用した
ロボット・視覚結合フレキシブル組立システムの一実施
例の概略外観図、第2図は、その部分拡大図、第3図は
、同システム動作フローチャート、第4図は、同ブロッ
ク図、第5図は、その視覚処理部のブロック図である。 401・・・ロボット制御部、402・・・視覚認識部
、403・・・ロボット、404・・・TVカメラ、4
05・・・部品供給装置。 代理人 弁理士 福田幸作 (ほか1名) z3図 茅 4 口 第1頁の続き ■Int、CI、’ 識別記号 庁内整理番号// G
 01 B 11100 7625−2F11/28 
8304−2F
Fig. 1 is a schematic external view of an embodiment of a robot/visual combination flexible assembly system to which the multi-stage field of view recognition method according to the present invention is applied, Fig. 2 is a partially enlarged view of the system, and Fig. 3 is the same system. FIG. 4 is a block diagram of the operation flowchart, and FIG. 5 is a block diagram of the visual processing section. 401... Robot control unit, 402... Visual recognition unit, 403... Robot, 404... TV camera, 4
05...Component supply device. Agent Patent attorney Kosaku Fukuda (and 1 other person) z3 Figure Kaya 4 Continuation of the first page ■Int, CI,' Identification code Office serial number // G
01 B 11100 7625-2F11/28
8304-2F

Claims (1)

【特許請求の範囲】 1、少なくとも、視覚を備えたロボット、ロボット制御
部および視覚認識処理部からなるロボット・視覚結合シ
ステムめロボットの昇降・水平動作に応じて上記視覚の
視野を所望の範囲ごとに多段階に切シ換えうるようにし
、上記視覚認識処理部によシ、まず広い視野によって対
象部品が同視野内に存在するか否かの認識処理をしたの
ち、上記対象部品の存在を確認したときに上記ロボット
ヲ動作させて狭い視野を設定し、上記対象部品の種類、
位置および姿勢の認識処理金する多段階視野認識方式。 2、特許請求の範囲第1項記載のものにおいて、広い視
野で対象部品の存在を確認したときに、対象部品以外の
部品の種類および位置のデータを記憶しておき、次に別
の対象部品を探索する場合には、まず上記の記憶したデ
ータの中から当該対象部品に係るものを検索したのち、
その存在を確認しえだときには、そのまま狭い視野によ
る認識に移行し、その存在を確認しえないときは、改め
て広い視野による認識から処理を行うようにした多段階
視野認識方式。
[Claims] 1. A robot/visual combination system consisting of at least a robot equipped with vision, a robot control unit, and a visual recognition processing unit. The visual recognition processing unit first performs recognition processing to determine whether or not the target part exists within the same field of view using a wide field of view, and then confirms the existence of the target part. When this happens, operate the robot to set a narrow field of view, and determine the type of target part,
Multi-stage field of view recognition method for position and orientation recognition processing. 2. In the item described in claim 1, when the existence of the target part is confirmed in a wide field of view, data on the type and position of parts other than the target part are stored, and then another target part is detected. When searching for a target part, first search for data related to the target part from among the above stored data, and then
When the presence of the object can be confirmed, the multi-stage field of view recognition method shifts to recognition using a narrow field of view, and when the presence cannot be confirmed, the process starts with recognition using a wider field of view.
JP58231369A 1983-12-09 1983-12-09 Multistage visual field recognizing system Granted JPS60123974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58231369A JPS60123974A (en) 1983-12-09 1983-12-09 Multistage visual field recognizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58231369A JPS60123974A (en) 1983-12-09 1983-12-09 Multistage visual field recognizing system

Publications (2)

Publication Number Publication Date
JPS60123974A true JPS60123974A (en) 1985-07-02
JPH0239821B2 JPH0239821B2 (en) 1990-09-07

Family

ID=16922536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58231369A Granted JPS60123974A (en) 1983-12-09 1983-12-09 Multistage visual field recognizing system

Country Status (1)

Country Link
JP (1) JPS60123974A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS6426900U (en) * 1987-04-03 1989-02-15
WO1990009004A1 (en) * 1989-01-31 1990-08-09 Yoshiro Yamada Image processing method and apparatus
JPH02204874A (en) * 1989-02-02 1990-08-14 Mitsubishi Electric Corp Recognizing method for semiconductor device
JPH04354690A (en) * 1991-05-31 1992-12-09 Sony Tektronix Corp Robot hand
US5350269A (en) * 1989-03-27 1994-09-27 Canon Kabushiki Kaisha Work pick-up apparatus
US7098620B2 (en) 2003-03-31 2006-08-29 Canon Kabushiki Kaisha Minute object manipulating apparatus
US7123992B2 (en) 2002-11-11 2006-10-17 Fanuc Ltd Article pickup device
JP2009220247A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot apparatus and control method of robot apparatus
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP2012137841A (en) * 2010-12-24 2012-07-19 Institute Of National Colleges Of Technology Japan Picking system and picking method
CN102990678A (en) * 2011-09-15 2013-03-27 株式会社安川电机 Robot system and imaging method
CN103831826A (en) * 2013-12-27 2014-06-04 广州奥迪通用照明有限公司 Intelligent correction manipulator system
WO2017033254A1 (en) * 2015-08-24 2017-03-02 株式会社日立製作所 Mobile robot operation system, mobile robot, and object take-out method
JP2018098311A (en) * 2016-12-12 2018-06-21 パナソニックIpマネジメント株式会社 Component removal method component removal device and component mounting device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS6426900U (en) * 1987-04-03 1989-02-15
JPH0244560Y2 (en) * 1987-04-03 1990-11-27
WO1990009004A1 (en) * 1989-01-31 1990-08-09 Yoshiro Yamada Image processing method and apparatus
JPH02204874A (en) * 1989-02-02 1990-08-14 Mitsubishi Electric Corp Recognizing method for semiconductor device
US5350269A (en) * 1989-03-27 1994-09-27 Canon Kabushiki Kaisha Work pick-up apparatus
JPH04354690A (en) * 1991-05-31 1992-12-09 Sony Tektronix Corp Robot hand
US7123992B2 (en) 2002-11-11 2006-10-17 Fanuc Ltd Article pickup device
US7098620B2 (en) 2003-03-31 2006-08-29 Canon Kabushiki Kaisha Minute object manipulating apparatus
JP2009220247A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot apparatus and control method of robot apparatus
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP2012137841A (en) * 2010-12-24 2012-07-19 Institute Of National Colleges Of Technology Japan Picking system and picking method
CN102990678A (en) * 2011-09-15 2013-03-27 株式会社安川电机 Robot system and imaging method
JP2013063474A (en) * 2011-09-15 2013-04-11 Yaskawa Electric Corp Robot system and imaging method
US9272420B2 (en) 2011-09-15 2016-03-01 Kabushiki Kaisha Yaskawa Denki Robot system and imaging method
CN103831826A (en) * 2013-12-27 2014-06-04 广州奥迪通用照明有限公司 Intelligent correction manipulator system
WO2017033254A1 (en) * 2015-08-24 2017-03-02 株式会社日立製作所 Mobile robot operation system, mobile robot, and object take-out method
JPWO2017033254A1 (en) * 2015-08-24 2017-08-31 株式会社日立製作所 Mobile robot operation system, mobile robot, and object extraction method
JP2018098311A (en) * 2016-12-12 2018-06-21 パナソニックIpマネジメント株式会社 Component removal method component removal device and component mounting device

Also Published As

Publication number Publication date
JPH0239821B2 (en) 1990-09-07

Similar Documents

Publication Publication Date Title
JPS60123974A (en) Multistage visual field recognizing system
US4803735A (en) Method and apparatus for calculating position and orientation by combination of features of partial shapes
CN110958425B (en) Information processing apparatus, information processing method, and system
JPS6029833A (en) Image display device
CN112621765B (en) Automatic equipment assembly control method and device based on manipulator
CN112276936A (en) Three-dimensional data generation device and robot control system
JP2014180708A (en) Robot system and method for manufacturing workpiece
JP2018153874A (en) Presentation device, presentation method, program and work system
GB2252427A (en) Positional deviation correction for an object conveyed on a production line
JPS63317886A (en) Information processing system and method
JPH06226561A (en) Circular position recognizing device
JP2002006919A (en) Method and device for detecting position in work instruction device
JPH10261898A (en) Positioning method for work
WO2001038049A1 (en) Providing information of moving objects
JPH11103457A (en) Monitoring camera system
JPH0797059A (en) Object takeout device
JP2569821B2 (en) Apparatus and method for recognizing semiconductor device
JPH05173644A (en) Three-dimensional body recording device
CN114346553B (en) Welding control method, control device and system
JPS615309A (en) Visual controller
JPS60186905A (en) Robot controller
JP3668092B2 (en) Image processing apparatus and target detection tracking apparatus using the same
KR0155800B1 (en) Centering control method of camera for chip mounter
JPS60218164A (en) Picture processor
JPS60118479A (en) Device for supplying and assembling part