JPS6348658B2 - - Google Patents

Info

Publication number
JPS6348658B2
JPS6348658B2 JP24429384A JP24429384A JPS6348658B2 JP S6348658 B2 JPS6348658 B2 JP S6348658B2 JP 24429384 A JP24429384 A JP 24429384A JP 24429384 A JP24429384 A JP 24429384A JP S6348658 B2 JPS6348658 B2 JP S6348658B2
Authority
JP
Japan
Prior art keywords
robot
image processing
image
processing device
hour hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP24429384A
Other languages
Japanese (ja)
Other versions
JPS61121841A (en
Inventor
Susumu Ishiuchi
Masayuki Mori
Tetsumi Kawamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SEIKO DENSHI KOGYO KK
Original Assignee
SEIKO DENSHI KOGYO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SEIKO DENSHI KOGYO KK filed Critical SEIKO DENSHI KOGYO KK
Priority to JP24429384A priority Critical patent/JPS61121841A/en
Publication of JPS61121841A publication Critical patent/JPS61121841A/en
Publication of JPS6348658B2 publication Critical patent/JPS6348658B2/ja
Granted legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automatic Assembly (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、画像処理装置付きロボツトにおけ
る部品組立ての生産効率の向上方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method for improving the production efficiency of parts assembly in a robot equipped with an image processing device.

〔従来の技術〕[Conventional technology]

従来、画像処理装置付きロボツトは、画像処理
装置がつかむべき部品の画像を入力し、その画像
の解析及びつかむべき部品の位置座標(XY座標
および傾き)の計算を行つた後にその位置座標を
ロボツトに通知してからロボツトは通知された位
置座標に従つて、部品をつかみ、組立てを行うと
いつた方法である。
Conventionally, a robot equipped with an image processing device inputs an image of a part to be grasped to the image processing device, analyzes the image, calculates the position coordinates (XY coordinates and inclination) of the part to be grasped, and then calculates the position coordinates. In this method, the robot grabs the parts and assembles them according to the notified position coordinates.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかし、従来の方法では、画像処理装置でつか
むべき部品の画像解析及び位置座標計算に時間が
かかると、その時間がそのまま部品組立て時間に
加算され、生産効率が落るといつた欠点があつ
た。
However, the conventional method has the disadvantage that if it takes time for the image processing device to analyze the image of the part to be grasped and calculate the position coordinates, that time is directly added to the part assembly time, reducing production efficiency. .

そこで、この発明は、従来のこのような欠点を
解決するため、画像処理装置のつかむべき部品の
画像解析及び位置座標計算に多少時間がかかつて
も、部品組立て時間に影響せず、部品組立ての生
産効率を落すことがないことを目的としている。
Therefore, in order to solve these conventional drawbacks, the present invention aims to improve the speed of assembling parts without affecting the part assembly time even if it takes some time for the image processing device to analyze the image and calculate the position coordinates of the part to be grasped. The purpose is to not reduce production efficiency.

〔問題を解決するための手段〕[Means to solve the problem]

上記の問題点を解決するために、この発明は、
画像処理装置に対するロボツトの指令を、処理開
始指令と処理結果通知指令の2種類に分けて、ロ
ボツトが部品の組立てを行つている間に、画像処
理装置は次につかむべき部品の画像解析及び位置
座標計算を行うことができるようにした。
In order to solve the above problems, this invention
The robot commands to the image processing device are divided into two types: processing start commands and processing result notification commands. While the robot is assembling parts, the image processing device performs image analysis and positioning of the next part to be grasped. It is now possible to perform coordinate calculations.

〔作用〕[Effect]

上記のように、2種類に指令を分けることによ
り、部品をつかんだロボツトは、画像処理装置に
次につかむべき部品に対する処理開始指令を送
り、次につかむべき部品の画像入力及び部品の有
無検出といつた簡単な結果だけを通知させ、つか
んでいる部品の組立てを行い、画像処理装置は、
ロボツトに簡単な結果を通知した後も引き続い
て、次につかむべき部品の画像解析を行い、位置
座標の計算を行うので、ロボツトが部品を組立て
終つた時には、画像処理装置は、次につかむべき
部品の位置座標の計算を終えているため、ロボツ
トから画像処理装置に処理結果通知指令を送る
と、直ちにつかむべき部品の位置座標が、画像処
理装置からロボツトに通知することができるので
ある。
As described above, by dividing the commands into two types, the robot that has grabbed a part sends a processing start command for the next part to be grabbed to the image processing device, inputs an image of the next part to be grabbed, and detects the presence or absence of the part. The image processing device notifies you of only simple results, assembles the parts you are grasping, and then
Even after notifying the robot of a simple result, the image processing device continues to analyze the image of the part to be grabbed next and calculate the position coordinates, so when the robot has finished assembling the part, the image processing device will automatically determine which part to grab next. Since the calculation of the positional coordinates of the part has been completed, when the robot sends a processing result notification command to the image processing apparatus, the image processing apparatus can immediately notify the robot of the positional coordinates of the part to be grabbed.

〔実施例〕〔Example〕

以下にこの発明を、ウオツチの時針の組立てに
応用した実施例を、図面にもとづいて説明する。
An embodiment in which the present invention is applied to the assembly of the hour hand of a watch will be described below with reference to the drawings.

第1図において、ロボツト1には、可動部先端
に時針用チヤツク2と、画像処理装置用カメラ3
が、取り付けられている。搬送ライン4には、文
字板までの組立てが終つたウオツチ5が、乗つて
いるパレツト6が、搬送されて、時針組立て位置
7に、位置決めされている。時針8が一定間隔で
整列されたトレイ9は、トレイ自動供給装置10
により、トレイ固定位置11に位置決めされてい
る。
In FIG. 1, a robot 1 has an hour hand chuck 2 at the tip of a movable part, and a camera 3 for an image processing device.
is installed. A pallet 6 on which a watch 5, which has been assembled up to the dial plate, is mounted is transported onto the transport line 4 and positioned at an hour hand assembly position 7. The tray 9 on which the hour hands 8 are arranged at regular intervals is stored in an automatic tray feeding device 10.
Accordingly, the tray is positioned at the tray fixing position 11.

このとき、ロボツト1は、時針8aを時針用チ
ヤツク2を用いてチヤツキングした後、トレイ9
に乗つている時針8bの画像をカメラ3を通して
画像処理装置(Me)12内の画像メモリに取り
込めるように、ロボツト1は、移動して、画像処
理装置12に、処理開始指令を送る。画像処理装
置12は、この処理開始指令を受けると、時針8
bの画像を画像メモリに取り込む。この時間は、
通常のテレビ画像なので、0.03秒程度で済む。次
に、画像処理装置12は、画像メモリを用いて時
針8bの有無検出を行う。この時間は、有無検出
という簡単な処理なので、0.1秒程度で済む。次
に、画像処理装置12は、ロボツトに、処理開始
指令に対する結果を送り、引き続き、画像メモリ
を用いて、時針8bの画像解析及び位置座標計算
を行う。そして、ロボツト1は、画像処理装置1
2から、処理開始指令に対する結果が通知される
と、時針用チヤツク2にチヤツキングしている時
針8aを、パレツト6に乗つている時計5に組立
てる。組立時間は、2秒程度で、画像処理装置1
2における、画像解析及び位置座標計算にかかる
時間は1秒程度なので、ロボツト1が、時針8a
を組立て終了後、画像処理装置12に、処理結果
通知指令を送ると、画像処理装置12は、直ち
に、時針8bの位置座標をロボツト1に通知する
ことができる。よつて、ロボツト1は、直ちに、
時針8bをつかみに、いくことができる。
At this time, the robot 1 checks the hour hand 8a using the hour hand chuck 2, and then moves the hour hand 8a to the tray 9.
The robot 1 moves and sends a processing start command to the image processing device (Me) 12 so that the image of the hour hand 8b riding on the robot can be taken into the image memory in the image processing device (Me) 12 through the camera 3. When the image processing device 12 receives this processing start command, the hour hand 8
Load the image b into the image memory. This time is
Since it is a normal TV image, it takes about 0.03 seconds. Next, the image processing device 12 uses the image memory to detect the presence or absence of the hour hand 8b. This time is about 0.1 seconds because it is a simple process of detecting the presence or absence. Next, the image processing device 12 sends the result of the processing start command to the robot, and subsequently uses the image memory to perform image analysis and position coordinate calculation of the hour hand 8b. The robot 1 then uses the image processing device 1.
2, when the result of the processing start command is notified, the hour hand 8a that is chucked in the hour hand chuck 2 is assembled into the watch 5 on the pallet 6. The assembly time is about 2 seconds, and the image processing device 1
2, the time required for image analysis and position coordinate calculation is about 1 second, so the robot 1 can move the hour hand 8a
After assembling, when a processing result notification command is sent to the image processing device 12, the image processing device 12 can immediately notify the robot 1 of the position coordinates of the hour hand 8b. Therefore, robot 1 immediately
You can go grab the hour hand 8b.

但し、初めの時針をチヤツクする場合のみ、画
像処理時間だけ待つことは、勿論である。
However, it is of course necessary to wait for the image processing time only when checking the hour hand for the first time.

以上の動作手順を、第2図に示す。 The above operating procedure is shown in FIG.

即ち、チヤツク上の1個をチヤツクすると、組
立て位置に移動する間に次の時針画像を取り込む
ステツプが入るが、この時間は前述の様に極めて
短時間(0.03秒)であるから殆んど無視できる。
That is, when you check one on the checkmark, a step is entered to capture the next hour hand image while moving to the assembly position, but this time is extremely short (0.03 seconds) as mentioned above, so it can be ignored. can.

第3図は本装置の概略ブロツク図を示し、図中
ロボツト1、チヤツク2、カメラ3および画像処
理装置12はそれぞれ第1図に対応している。画
像処理装置12は、カメラインターフエース12
0、画像メモリ121、ロボツトインターフエー
ス122、画像処理プログラム124および
CPU123から構成されている。初めに画像処
理プログラム124が画像メモリ121内に画像
が無いことを検出すると、CPU123およびロ
ボツトインターフエースプログラム122を介し
てロボツト1に画像無し信号を与える。するとロ
ボツト1は画像処理装置に対して画像取り込み指
令を出力する。これが第2図のフローチヤートの
スタートになる。ロボツトインターフエースプロ
グラム124からの信号によりロボツト1が駆動
し、カメラ3が時針の画像信号を得てカメライン
タフエース120を介して画像メモリ121に入
力する。このとき時針の画像が得られないとき、
即ちトレイ9が空になつたときは、フローチヤー
トでは省略したが次のトレイを搬送するステツプ
になる。
FIG. 3 shows a schematic block diagram of the present apparatus, in which the robot 1, chuck 2, camera 3, and image processing device 12 correspond to those in FIG. 1, respectively. The image processing device 12 includes a camera interface 12
0, image memory 121, robot interface 122, image processing program 124 and
It is composed of a CPU 123. When the image processing program 124 first detects that there is no image in the image memory 121, it gives a no-image signal to the robot 1 via the CPU 123 and the robot interface program 122. Then, the robot 1 outputs an image capture command to the image processing device. This is the start of the flowchart in Figure 2. The robot 1 is driven by a signal from the robot interface program 124, and the camera 3 obtains an image signal of the hour hand and inputs it to the image memory 121 via the camera interface 120. If an image of the hour hand cannot be obtained at this time,
That is, when the tray 9 becomes empty, there is a step of transporting the next tray, although this is omitted in the flowchart.

画像メモリ121内のデータは、CPU123
の制御の元で画像処理プログラム124により解
析され、チヤツク座標位置データに変換される。
この座標位置データはロボツトインタフエースプ
ログラム122にストアされる。次にロボツト1
からの指令により、位置データに従つた信号がロ
ボツトインタフエースプログラム122から出力
され、ロボツト1が目標の時針をチヤツクする。
カメラ3とチヤツク2との位置は一致していない
ので、画像取り込み時とチヤツク時とではロボツ
ト1の位置が異なつていることは言うまでもな
い。
The data in the image memory 121 is stored in the CPU 123.
It is analyzed by the image processing program 124 under the control of the image processing program 124 and converted into chuck coordinate position data.
This coordinate position data is stored in the robot interface program 122. Next, robot 1
A signal according to the position data is output from the robot interface program 122 in response to a command from the robot 1, and the robot 1 checks the target hour hand.
Since the positions of the camera 3 and the chuck 2 do not match, it goes without saying that the position of the robot 1 is different when capturing an image and when chucking.

また、以上説明したウオツチの時針の組立てに
応用した実施例の他に、この発明を応用した実施
例として、ウオツチの、文字板,分針,秒針,
側,裏蓋,及びウオツチ用コイル・ブロツク,
等々がある。
In addition to the embodiments applied to the assembly of the hour hand of a watch described above, there are also embodiments to which the present invention is applied to the assembly of the dial, minute hand, second hand, etc. of a watch.
side, back cover, and watch coil block,
And so on.

〔発明の効果〕〔Effect of the invention〕

この発明は、以上説明したように、ロボツトか
らの指令を2つに分けて、ロボツトが部品を組立
てている間に、次につかむべき部品の位置座標を
画像処理装置が計算を行うことができるようにし
て、部品の組立ての生産効率の向上に、効果があ
る。
As explained above, this invention divides the command from the robot into two parts, and while the robot is assembling the parts, the image processing device can calculate the positional coordinates of the part to be grabbed next. In this way, the production efficiency of parts assembly is effectively improved.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、この発明にかかわる、ウオツチの時
針の組立てに応用した実施例を示す構成図、第2
図は、本発明の実施例を示すフローチヤート、第
3図は画像処理装置のブロツク図である。 1……ロボツト、2……時針用チヤツク、3…
…画像処理装置用カメラ、4……搬送ライン、5
……文字板まで組立てが終つた時計、6……パレ
ツト、7……時計組立て位置、8,8a及び8b
……時針、9……トレイ、10……トレイ自動供
給装置、11……トレイ固定位置、12……画像
処理装置(Me)。
FIG. 1 is a configuration diagram showing an embodiment of the present invention applied to the assembly of the hour hand of a watch;
The figure is a flowchart showing an embodiment of the present invention, and FIG. 3 is a block diagram of an image processing apparatus. 1...Robot, 2...Hour hand chuck, 3...
...camera for image processing device, 4...conveyance line, 5
...Clock that has been assembled up to the dial, 6... Palette, 7... Clock assembly position, 8, 8a and 8b
... Hour hand, 9 ... Tray, 10 ... Tray automatic supply device, 11 ... Tray fixing position, 12 ... Image processing device (Me).

Claims (1)

【特許請求の範囲】 1 画像処理機能を有する、部品組立用ロボツト
において、 (a) 前記画像処理機能から通知される位置座標に
応答して部品をつかむ手順と、 (b) 次につかむべき部品の画像を前記画像処理機
能に取り込む手順と、 (c) 前記つかんだ部品を組立ると同時に、前記次
につかむべき部品の位置座標を計算する手順
と、 (d) 前記計算された位置座標に基づいて、前記部
品の組立完了後、直ちに前記次につかむべき部
品をつかむ手順とから成ることを特徴とするロ
ボツト先読み方法。
[Scope of Claims] 1. In a parts assembly robot having an image processing function, (a) a procedure for grasping a part in response to position coordinates notified from the image processing function; and (b) a part to be grasped next. (c) assembling the grabbed parts and calculating the positional coordinates of the next part to be grabbed; (d) applying the calculated positional coordinates to the image processing function; Based on the above, the robot pre-reading method is characterized by comprising the step of immediately grabbing the next part to be grabbed after the assembly of the parts is completed.
JP24429384A 1984-11-19 1984-11-19 Method for performing previous reading of robot Granted JPS61121841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24429384A JPS61121841A (en) 1984-11-19 1984-11-19 Method for performing previous reading of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24429384A JPS61121841A (en) 1984-11-19 1984-11-19 Method for performing previous reading of robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP5087663A Division JPH0753327B2 (en) 1993-04-14 1993-04-14 Robot equipment

Publications (2)

Publication Number Publication Date
JPS61121841A JPS61121841A (en) 1986-06-09
JPS6348658B2 true JPS6348658B2 (en) 1988-09-30

Family

ID=17116584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24429384A Granted JPS61121841A (en) 1984-11-19 1984-11-19 Method for performing previous reading of robot

Country Status (1)

Country Link
JP (1) JPS61121841A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710283A (en) * 2018-08-22 2018-10-26 福建瑞达精工股份有限公司 Automatic clock ppointer assembling machine

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02292139A (en) * 1989-04-28 1990-12-03 Canon Inc Automatic assembling device
JP6923383B2 (en) * 2017-07-27 2021-08-18 株式会社日立物流 Picking robot and picking system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710283A (en) * 2018-08-22 2018-10-26 福建瑞达精工股份有限公司 Automatic clock ppointer assembling machine

Also Published As

Publication number Publication date
JPS61121841A (en) 1986-06-09

Similar Documents

Publication Publication Date Title
JP3002097B2 (en) Visual tracking method
JP2003305676A (en) Control method and control device for mobile robot
JPS6348658B2 (en)
JP4809524B2 (en) Tracking method, tracking system, and tracking device
JPH05127730A (en) Interference check device for numerically controlled machine tool
JPH0623684A (en) Work transfer robot with visual processing function
JPH06114647A (en) Robot device
US7348518B2 (en) Welding apparatus
JP2549139B2 (en) Industrial robot controller
JPH0810526Y2 (en) Manufacturing line control device
JPH02167638A (en) Control method in assembly device for plural parts
JPH10303597A (en) Method and device for packaging electric component
JPS61260991A (en) Robot starting indication method
TW202402489A (en) Robot system and robot control device
JPS62238084A (en) Electron beam automatic welding control device
JP2001179664A (en) Tracking method, tracking system and tracking device
JPS6238780A (en) Deposition detecting method in spot welding robot
JPS63247871A (en) Object detecting method
JPH06110515A (en) Transfer method for object to be conveyed
JPH05210408A (en) High-speed skip system
JPS6434129U (en)
CN115599092A (en) Workpiece carrying control method, device, equipment and storage medium
JPS5848300B2 (en) Workpiece conveyance device
JPH01201993A (en) Positioning system for heating chip
JP2809783B2 (en) Unmanned transfer device

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term