JPH11175150A - Stop position deviation amount detecting device for moving body - Google Patents

Stop position deviation amount detecting device for moving body

Info

Publication number
JPH11175150A
JPH11175150A JP9338530A JP33853097A JPH11175150A JP H11175150 A JPH11175150 A JP H11175150A JP 9338530 A JP9338530 A JP 9338530A JP 33853097 A JP33853097 A JP 33853097A JP H11175150 A JPH11175150 A JP H11175150A
Authority
JP
Japan
Prior art keywords
position data
image
moving
recognition mark
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9338530A
Other languages
Japanese (ja)
Other versions
JP3684799B2 (en
Inventor
Katsumi Yasuda
克己 安田
Tsukasa Sugino
司 杉野
Susumu Nakagawa
進 中川
Koji Miura
幸二 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinko Electric Co Ltd
Original Assignee
Shinko Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinko Electric Co Ltd filed Critical Shinko Electric Co Ltd
Priority to JP33853097A priority Critical patent/JP3684799B2/en
Priority to TW087102590A priority patent/TW413743B/en
Priority to KR1019980012716A priority patent/KR100557202B1/en
Priority to US09/063,409 priority patent/US6041274A/en
Publication of JPH11175150A publication Critical patent/JPH11175150A/en
Application granted granted Critical
Publication of JP3684799B2 publication Critical patent/JP3684799B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stop position deviation amount detecting device for moving body, on a floor surface where an arbitrary pattern is formed, which can correct position of a moving body with high precision while preventing the influence of disturbances. SOLUTION: A moving body which moves on a floor surface 9 such as a punching floor where arbitrary patterns and specific recognition marks are formed, is stopped at a specified position, and an image of the floor surface 9 is picked-up to obtain position data. Deviations in the position and posture are obtained by using many pieces of position data to enable high-precision measurement, and even when part of it can not be recognized under the influence of disturbing light, the processing can be performed without any problem.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,表面に任意のパタ
ーンが形成されたパンチング材やグレーチング材などの
床材が敷かれたクリーンルーム等で荷物の搬送などに用
いられる移動体に搭載され,その停止位置と基準とする
停止位置とのズレを検出する移動体の停止位置ズレ量検
出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is mounted on a moving body used for transporting luggage in a clean room or the like in which a flooring material such as a punching material or a grating material having an arbitrary pattern formed on its surface is laid. The present invention relates to an apparatus for detecting a displacement of a stop position of a moving body, which detects a displacement between a stop position and a reference stop position.

【0002】[0002]

【従来の技術】半導体デバイス工場のクリーンルーム等
では,装置と装置,装置とストッカ等の間でウェーハ等
の荷物を搬送し,移載アームなどにより移載を行う無人
搬送車が用いられている。この種の無人搬送車では,上
記移載アームなどは予め上記無人搬送車を所定の作業位
置(教示位置)に停止させた状態で教示された教示デー
タに従って作業を行う。従って,上記移載アームなどに
よる作業を正確に行うためには,無人搬送車を上記教示
位置に正確に停止させるか,或いはその停止位置の上記
教示位置からのズレによって上記教示データ自体を補正
するなど,上記無人搬送車の位置補正を正確に行うこと
が不可欠である。ところで,上記のようなクリーンルー
ム等では,床材としてパンチング材やグレーチング材な
ど,全面に所定のパターンで貫通孔を配した孔空き床材
が用いられることが多い。そこで,床面に形成された上
記パターンを利用して上記無人搬送車の位置の補正を行
う装置について,本出願人は既に特許出願を行っている
(特願平09−103301号)。上記先行出願に係る
無人搬送車の位置補正装置及びその方法について,図1
1〜図14を用いて説明する。
2. Description of the Related Art In a clean room or the like of a semiconductor device factory, an unmanned transport vehicle that transports a load such as a wafer between devices and a device, a device and a stocker, and transfers the load by a transfer arm or the like is used. In this type of automatic guided vehicle, the transfer arm and the like perform work according to the teaching data taught in a state where the automatic guided vehicle is stopped at a predetermined work position (teaching position) in advance. Therefore, in order to accurately perform the work using the transfer arm or the like, the automatic guided vehicle is accurately stopped at the teaching position, or the teaching data itself is corrected by a deviation of the stop position from the teaching position. For example, it is essential to accurately correct the position of the automatic guided vehicle. By the way, in a clean room or the like as described above, a perforated floor material having through holes arranged in a predetermined pattern on the entire surface, such as a punching material or a grating material, is often used as a floor material. Accordingly, the present applicant has already filed a patent application for a device for correcting the position of the automatic guided vehicle using the pattern formed on the floor surface (Japanese Patent Application No. 09-103301). FIG. 1 shows an automatic guided vehicle position correcting apparatus and method according to the above-mentioned prior application.
This will be described with reference to FIGS.

【0003】上記先行出願に係るアーム付無人搬送車A
0では,図11に示すように,無人搬送車51の上部
に,先端部にハンド53を有するアーム52が搭載され
ている。また,上記無人搬送車51の下部中央部付近
(照明等の影響を受けにくい位置)には,床面59に対
向するように,リング状の照明装置55を有する撮像部
54が固定的に設置されており,更に,画像処理部5
6,記憶部57,及び教示データ補正部58が設けられ
ている。また,半導体クリーンルーム等では通常行われ
ているように,上記床面59には,図13に示すような
所定のパターンで穿孔されたパンチング床が敷かれてい
る。図13に示すように,該パンチング床59には,穿
孔(パンチング孔)61により,直行する横枠62と縦
枠63とがそれぞれ平行に複数形成されている。更に該
パンチング床59には,上記無人搬送車51の停止位置
付近で,且つ任意の上記横枠62と縦枠63との交差部
64付近に認識マーク60が付設されている。上記アー
ム52には,予め,所定の作業位置に上記無人搬送車5
1を停止させた状態で,ウェーハ(不図示)を無人搬送
車51から作業台(不図示)へ移載する動作が教示され
る。実際の移載作業時には,上記アーム52はその教示
データに従って作業を行う。上記撮像部54では,上記
アーム52の動作教示時,及び移載作業時の所定の作業
位置での停止時に,上記認識マーク60を含む上記パン
チング床59の画像が撮像される。上記画像処理部56
では,上記撮像部54による撮像後,上記撮像部54か
ら取り込まれた撮像画像に画像処理を施すことにより,
上記認識マーク60が設けられた交差部64を形成して
いる横枠62及び縦枠63より直線H,直線Vがそれぞ
れ抽出され,撮像画像上の局所座標系における上記直線
Hと直線Vとの交点Qの位置座標,及び回転角(以下,
位置情報という)が求められる。上記アーム52の動作
教示時に得られた上記位置情報は,記憶部57に記憶さ
れる。上記教示データ補正部58では,移載作業時に上
記無人搬送車51が所定の作業位置に停止して上記画像
処理部56による処理がなされた後,上記記憶部57に
予め記憶された上記位置情報と今回上記画像処理部56
により得られた位置情報との差,即ち上記無人搬送車5
1の停止位置のずれ量に基づいて,上記アーム52の教
示データの補正が行われる。
[0003] The automatic guided vehicle A with an arm according to the above-mentioned prior application.
At 0, as shown in FIG. 11, an arm 52 having a hand 53 at the tip is mounted on the upper part of the automatic guided vehicle 51. An imaging unit 54 having a ring-shaped illumination device 55 is fixedly installed near the center of the lower part of the automatic guided vehicle 51 (a position hardly affected by lighting or the like) so as to face the floor surface 59. The image processing unit 5
6, a storage unit 57, and a teaching data correction unit 58. Further, a punching floor perforated in a predetermined pattern as shown in FIG. 13 is laid on the floor 59 as is usually performed in a semiconductor clean room or the like. As shown in FIG. 13, a plurality of orthogonal horizontal frames 62 and vertical frames 63 are formed in the punching floor 59 in parallel with perforations (punching holes) 61. Further, a recognition mark 60 is provided on the punching floor 59 near the stop position of the automatic guided vehicle 51 and near an intersection 64 between any of the horizontal frame 62 and the vertical frame 63. The unmanned guided vehicle 5 is placed in a predetermined working position in advance on the arm 52.
The operation of transferring a wafer (not shown) from the unmanned carrier 51 to a work table (not shown) while the machine 1 is stopped is taught. At the time of the actual transfer operation, the arm 52 performs the operation according to the teaching data. The image capturing section 54 captures an image of the punching floor 59 including the recognition mark 60 when the operation of the arm 52 is taught and when the arm 52 is stopped at a predetermined work position during the transfer operation. The image processing unit 56
Then, by performing image processing on the captured image captured from the imaging unit 54 after the imaging by the imaging unit 54,
Straight lines H and V are extracted from the horizontal frame 62 and the vertical frame 63 forming the intersection 64 where the recognition mark 60 is provided, and the straight line H and the straight line V in the local coordinate system on the captured image are extracted. The position coordinates of the intersection Q and the rotation angle (hereinafter, referred to as
Location information). The position information obtained when teaching the operation of the arm 52 is stored in the storage unit 57. In the teaching data correction unit 58, after the automatic guided vehicle 51 stops at a predetermined work position during the transfer operation and is processed by the image processing unit 56, the position information stored in the storage unit 57 in advance is stored. And this time the image processing unit 56
Difference from the position information obtained by the
The teaching data of the arm 52 is corrected based on the shift amount of the stop position of No. 1.

【0004】以下,上記アーム付無人搬送車A0におけ
る位置補正動作について,図12に示すフローチャート
を用いて具体的に説明する。まず,実際の移載作業に先
立って,所定の作業位置に上記無人搬送車51を停止さ
せた状態で,上記アーム52に対して,ウェーハ(不図
示)を無人搬送車51から作業台(不図示)へ移載する
動作が教示される。その際,撮像部54により,パンチ
ング床59の画像が撮像される(ステップS51)。続
いて,画像処理部56において,上記撮像部54から取
り込まれた撮像画像に画像処理を施すことにより,図1
3に示すように,上記認識マーク60が設けられた交差
部を形成している横枠及び縦枠より直線H,直線Vがそ
れぞれ抽出され,撮像領域Rの局所座標系CSにおける
上記交点Qの位置座標(X0 ,Y0 ),及び上記直線H
と上記局所座標系CSのX軸とのなす回転角θ0 が求め
られる(ステップS52)。このようにして求められた
上記位置情報は記憶部57に記憶される(ステップS5
3)。次に,実際の移動作業時においては,無人搬送車
51が所定の作業位置に停止した時に,撮像部54によ
り,パンチング床59の画像が撮像される(ステップS
54)。続いて,画像処理部56において,上記教示時
と同様,上記撮像部54から取り込まれた撮像画像に画
像処理を施すことにより,図14に示すように,上記認
識マーク60が設けられた交差部を形成している横枠及
び縦枠より直線H,直線Vがそれぞれ抽出され,撮像領
域Rの局所座標系CSにおける上記交点Qの位置座標
(X1 ,Y1 ),及び上記直線Hと上記局所座標系CS
のX軸とのなす回転角θ1 が求められる。
Hereinafter, the position correcting operation of the automatic guided vehicle A0 with an arm will be specifically described with reference to a flowchart shown in FIG. First, prior to the actual transfer operation, a wafer (not shown) is transferred from the automatic guided vehicle 51 to the worktable (not shown) with respect to the arm 52 while the automatic guided vehicle 51 is stopped at a predetermined work position. (Shown) is taught. At this time, the image of the punching floor 59 is captured by the imaging unit 54 (step S51). Subsequently, the image processing unit 56 performs image processing on the captured image captured from the image capturing unit 54, thereby obtaining the image shown in FIG.
As shown in FIG. 3, straight lines H and V are respectively extracted from the horizontal and vertical frames forming the intersection where the recognition mark 60 is provided, and the intersections Q of the imaging region R in the local coordinate system CS are extracted. The position coordinates (X 0 , Y 0 ) and the straight line H
And the rotation angle θ 0 between the local coordinate system CS and the X axis are obtained (step S52). The position information thus obtained is stored in the storage unit 57 (step S5).
3). Next, during the actual moving operation, when the automatic guided vehicle 51 stops at a predetermined operation position, the image of the punching floor 59 is captured by the imaging unit 54 (Step S).
54). Subsequently, the image processing unit 56 performs image processing on the captured image captured from the image capturing unit 54 in the same manner as at the time of the teaching, and thereby, as shown in FIG. Are extracted from the horizontal frame and the vertical frame, respectively, forming the position coordinates (X 1 , Y 1 ) of the intersection Q in the local coordinate system CS of the imaging region R, and the straight line H and the straight line H. Local coordinate system CS
Eggplant rotation angle theta 1 with the X-axis of is obtained.

【0005】続いて,教示データ補正部58において,
上記教示時のステップS52で求められ記憶部57に記
憶された位置情報(位置座標(X0 ,Y0 ),回転角θ
0 )と,このステップS55で求めた位置情報(位置座
標(X1 ,Y1 ),回転角θ 1 )との差,即ち無人搬送
車51の,教示時と作業時の停止位置のズレ量が求めら
れ,それに基づいて上記アーム52の教示データが修正
される(ステップS56)。上記アーム52は,ステッ
プS56で補正された教示データに従って移載作業を行
う(ステップS57)。以後,無人搬送車51の移動の
都度,上記ステップS54〜S57が繰り返される。以
上が,上記先行出願に係る無人搬送車の位置補正装置及
びその方法である。また,上記教示時の撮像画像と上記
作業時の撮像画像とのズレを求めるにあたり,上記先行
出願のように上記直線Hと直線Vとの交点Qの位置座
標,及び回転角を用いる以外に,例えば上記床面の画像
をテンプレート画像として記憶しておき,上記テンプレ
ート画像と上記各撮像画像とのマッチング処理を行って
各撮像画像の位置と姿勢のズレを求める方法も考えられ
る。
Subsequently, in the teaching data correction unit 58,
Obtained in step S52 at the time of the above teaching and stored in the storage unit 57
The stored position information (position coordinates (X0, Y0), Rotation angle θ
0) And the position information (position
Mark (X1, Y1), Rotation angle θ 1), That is, unmanned conveyance
The amount of deviation of the stop position of the car 51 between teaching and working is calculated.
The teaching data of the arm 52 is corrected based on the
Is performed (step S56). The arm 52 is
Transfer operation in accordance with the teaching data corrected in step S56.
(Step S57). Thereafter, the movement of the automatic guided vehicle 51
Steps S54 to S57 are repeated each time. Less than
The top is the position correction device and the automatic guided vehicle
And its method. In addition, the captured image at the time of the above teaching and the above
When calculating the deviation from the captured image during work,
As in the application, the position of the intersection Q of the straight line H and the straight line V
Other than using the mark and the rotation angle, for example, the image of the floor above
Is stored as a template image.
The matching process between the captured image and each of the above captured images.
A method for calculating the deviation between the position and orientation of each captured image is also conceivable.
You.

【0006】[0006]

【発明が解決しようとする課題】ところが,上記先行出
願に係る位置補正方法では,床面上のパターン(穿孔6
1)が格子状に配列していない場合のように,上記直線
H,Vに相当する基準線を定義できない場合には対応で
きないという問題点があった。また,上記床面上のパタ
ーンが格子状に配列している場合でも,パンチング孔6
1の位置は製造時の誤差を含んでおり,従って上記直線
H,Vの設定精度はその誤差に左右されるため,位置補
正精度が低く,また,上記認識マーク60を通る縦・横
枠近傍の画像しか用いていないため,高精度化に限界が
あるという問題点もあった。更に,床下に設置された照
明装置などによる外乱により,注目すべき部分のパンチ
ング孔61が認識できなくなると,位置補正動作そのも
のが不可能になるという問題点もあった。また,上記テ
ンプレート画像を用いたマッチング処理による方法で
は,図15に示すように,テンプレート画像と姿勢(回
転角)が同じ撮像画像Aに対しては容易に検出が可能で
あるが,テンプレート画像と姿勢(回転角)が異なる撮
像画像Bに対しては,上記テンプレート画像を少しずつ
回転させながらマッチング処理を繰り返すか,或いは回
転角を少しずつ変化させた多数のテンプレート画像を予
めメモリに保存しておき,テンプレート画像を取り換え
ながらマッチング処理を繰り返す必要があった。従っ
て,マッチング処理に膨大な時間が必要となったり,ま
た,多数のテンプレート画像を記憶するための大きな記
憶領域が必要となるといった問題点があった。本発明は
上記事情に鑑みてなされたものであり,その目的とする
ところは,任意のパターンが形成された床面上におい
て,外乱による影響を防止して,移動体の位置補正を高
精度で行うことが可能な移動体の位置補正装置を提供す
ることである。更には,上記位置補正においてマッチン
グ処理を用いる場合には,少ない記憶領域を用いて,短
時間で処理を行うことが可能な移動体の停止位置ズレ量
検出装置を提供することである。
However, in the position correction method according to the above-mentioned prior application, a pattern (a hole 6
There is a problem that when the reference lines corresponding to the straight lines H and V cannot be defined, as in the case where 1) is not arranged in a grid pattern, it cannot be handled. Further, even when the patterns on the floor surface are arranged in a grid pattern, the punching holes 6
The position 1 includes an error at the time of manufacture, and therefore, the setting accuracy of the straight lines H and V depends on the error. Therefore, the position correction accuracy is low. There is also a problem that there is a limit in improving the accuracy because only the image is used. Furthermore, if the punching hole 61 of a notable part cannot be recognized due to disturbance caused by a lighting device installed under the floor, the position correction operation itself becomes impossible. Further, in the method based on the matching process using the template image, as shown in FIG. 15, the captured image A having the same orientation (rotation angle) as the template image can be easily detected. For captured images B having different postures (rotation angles), the matching process is repeated while rotating the template image little by little, or a large number of template images with the rotation angle slightly changed are stored in a memory in advance. In addition, it was necessary to repeat the matching process while replacing the template image. Therefore, there is a problem that an enormous amount of time is required for the matching process, and a large storage area for storing a large number of template images is required. The present invention has been made in view of the above circumstances, and an object of the present invention is to prevent the influence of disturbance on a floor surface on which an arbitrary pattern is formed, and to accurately correct the position of a moving body. It is an object of the present invention to provide a movable body position correcting apparatus that can perform the above. It is still another object of the present invention to provide a moving body stop position shift amount detection device capable of performing processing in a short time by using a small storage area when matching processing is used in the position correction.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明は,任意のパターンと所定の認識マークとが形
成された床面上を移動する移動体を所定位置に停止させ
て上記床面の画像を撮像した移動作業時撮像画像と,予
め上記移動体を所定の基準停止位置に停止させて上記床
面の画像を撮像した基準撮像画像とのズレを,それぞれ
の撮像画像上の上記任意のパターンの上記認識マークを
基準とした比較により求め,上記ズレに基づいて上記移
動体の停止位置のズレ量を検出する移動体の停止位置ズ
レ量検出装置において,上記基準撮像画像から,上記任
意のパターンを構成する複数の形態部と上記認識マーク
との上記基準撮像画像上での位置データを取得する基準
位置データ取得手段と,上記移動作業時撮像画像から,
上記複数の形態部と上記認識マークとの上記移動作業時
撮像画像上での位置データを取得する移動作業時位置デ
ータ取得手段と,上記複数の形態部に,上記各撮像画像
上でそれぞれ上記認識マークを基準とした共通の符号付
けを行う符号付け手段と,上記符号付け手段で得られた
上記複数の形態部の符号に基づいて,上記各撮像画像間
での上記複数の形態部の1対1の対応付けを行う対応付
け手段と,上記対応付け手段で対応付けされた上記複数
の形態部の各組について,上記基準位置データ取得手段
及び上記移動作業時位置データ取得手段により得られた
位置データの差を求め,上記各組における上記位置デー
タの差に基づいて上記各撮像画像間のズレを求めるズレ
算出手段とを具備してなることを特徴とする移動体の停
止位置ズレ量検出装置として構成されている。
SUMMARY OF THE INVENTION In order to achieve the above-mentioned object, the present invention provides a moving object which moves on a floor on which an arbitrary pattern and a predetermined recognition mark are formed, stops at a predetermined position, and The difference between the captured image at the time of the moving operation in which the image of the surface is captured and the reference captured image in which the moving body is stopped at a predetermined reference stop position in advance and the image of the floor surface is captured, A moving body stop position shift amount detecting device that determines a shift amount of the stop position of the moving body based on the shift based on a comparison based on the recognition mark of an arbitrary pattern. A reference position data acquisition unit for acquiring position data of a plurality of feature parts constituting an arbitrary pattern and the recognition mark on the reference captured image;
Moving work position data acquisition means for acquiring position data of the plurality of feature parts and the recognition mark on the moving work captured image; and providing the plurality of feature parts with the recognition mark on each of the captured images. A pair of coding means for performing common coding based on a mark, and a pair of the plurality of feature parts between the respective captured images based on codes of the plurality of feature parts obtained by the coding means. 1 and a position obtained by the reference position data acquiring means and the moving work position data acquiring means for each set of the plurality of form parts associated by the associating means. A shift calculating means for determining a difference between data and calculating a shift between the captured images based on a difference between the position data in each of the sets. It is configured as a location.

【0008】更に,上記基準位置データ取得手段及び上
記移動作業時位置データ取得手段で得られた上記形態部
の位置データから所定数の位置データを選択し,該選択
された位置データに対応する形態部のみについて上記対
応付け手段による対応付けを行うようにすれば,一定以
上の精度を保ちながら処理の高速化やメモリ容量の削減
が可能である。或いは,上記移動作業時位置データ取得
手段を,上記複数の形態部の概略の位置データを取得す
る概略位置データ取得手段と,上記概略位置データ取得
手段で取得された概略位置データの中から所定数の位置
データを選択する概略位置データ選択手段と,上記概略
位置データ選択手段で選択された概略位置データに対応
する上記形態部についての詳細な位置データを取得する
詳細位置データ取得手段とを具備するように構成すれ
ば,更なる処理の高速化やメモリ容量の削減が可能であ
る。また,上記任意のパターンが上記複数の形態部の規
則的な配列により構成される場合には,上記符号付け手
段を,上記各撮像画像上での上記認識マークを基準とし
て,上記複数の形態部の上記配列の規則性に基づく符号
付けを行うように構成することにより容易且つ確実な符
号付けが可能となる。一方,例えば上記任意のパターン
が上記複数の形態部の不規則な配列により構成される場
合には,上記のような符号付け方法は用いられないた
め,上記基準撮像画像上で上記認識マークを起点として
上記複数の形態部を順に結んだベクトルに基づいて上記
基準撮像画像上での各形態部の符号付けを行い,上記移
動作業時撮像画像上で上記認識マークを起点として上記
ベクトルに従って上記基準撮像画像と共通の符号付けを
行うようにすれば対応可能である。
Further, a predetermined number of position data is selected from the position data of the form part obtained by the reference position data obtaining means and the moving work position data obtaining means, and a form corresponding to the selected position data is selected. If only the parts are associated by the association means, it is possible to increase the processing speed and reduce the memory capacity while maintaining a certain level of accuracy. Alternatively, the moving work position data obtaining means may include a general position data obtaining means for obtaining general position data of the plurality of feature parts, and a predetermined number of general position data obtained from the general position data obtaining means. General position data selecting means for selecting the general position data, and detailed position data obtaining means for obtaining detailed position data for the form part corresponding to the general position data selected by the general position data selecting means. With such a configuration, it is possible to further speed up the processing and reduce the memory capacity. In the case where the arbitrary pattern is constituted by a regular arrangement of the plurality of feature parts, the encoding means is configured to determine the plurality of feature parts based on the recognition mark on each of the captured images. By performing the coding based on the regularity of the above arrangement, easy and reliable coding can be performed. On the other hand, for example, when the arbitrary pattern is formed by an irregular arrangement of the plurality of feature parts, the above-described coding method is not used, and thus the recognition mark is used as a starting point on the reference captured image. The coding of each of the features on the reference captured image is performed based on a vector obtained by sequentially connecting the plurality of features, and the reference imaging is performed in accordance with the vector with the recognition mark as a starting point on the captured image during the moving operation. This can be achieved by performing common coding with the image.

【0009】また,上記基準位置データ取得手段及び上
記移動作業時位置データ取得手段において,所定のテン
プレート画像と上記複数の形態部及び上記認識マークの
画像とのマッチング処理により上記複数の形態部及び上
記認識マークを認識し,上記各撮像画像上での位置デー
タを取得するようにすれば,高精度な位置データの取得
が可能となる。その際,上記任意のパターンを構成する
複数の形態部がそれぞれ同一の円形に形成される場合に
は,上記所定のテンプレート画像として上記円形形態部
の単体の画像を用いることにより,テンプレート画像と
各撮像画像との間の姿勢角のズレに関係なく,高速でし
かも使用メモリが少ないマッチング処理が可能となる。
また,上記基準位置データ取得手段及び上記移動作業時
位置データ取得手段において,各撮像画像を所定の閾値
で2値化した2値化画像から,予め設定しておいた形状
特徴量を持つ部分を抽出することにより上記複数の形態
部及び上記認識マークを認識し,上記各撮像画像上での
位置データを取得するようにすれば,精度は上記マッチ
ング処理に及ばないものの,処理速度の高速化が可能で
ある。尚,上記任意のパターンを構成する上記形態部の
うち,1又は2以上の形態部が上記認識マークとして特
定可能であれば,該形態部を基準として上記符号付け手
段による処理を行うことが可能である。尚,上記任意の
パターンと所定の認識マークとは,必ずしも床面上に形
成されている場合だけではなく,上記移動体が移動する
平面上,例えば作業台上に形成される場合も考えられ
る。
In the reference position data acquiring means and the moving work position data acquiring means, a matching process is performed between a predetermined template image and the plurality of feature parts and the image of the recognition mark, so that the plurality of feature parts and the recognition mark image are matched. By recognizing the recognition mark and acquiring the position data on each of the captured images, it is possible to acquire position data with high accuracy. At this time, when a plurality of feature parts constituting the arbitrary pattern are formed in the same circle, respectively, the template image and the individual images are used by using a single image of the circular feature part as the predetermined template image. Regardless of the deviation of the attitude angle from the captured image, the matching processing can be performed at high speed and with a small memory usage.
In the reference position data acquiring means and the moving work position data acquiring means, a portion having a predetermined shape characteristic amount is determined from a binarized image obtained by binarizing each captured image with a predetermined threshold value. If the plurality of feature parts and the recognition marks are recognized by extraction and the position data on each of the captured images is acquired, the processing speed can be increased although the accuracy is not as good as the matching processing. It is possible. If one or more of the features constituting the arbitrary pattern can be specified as the recognition mark, the processing by the coding means can be performed based on the features. It is. Note that the arbitrary pattern and the predetermined recognition mark are not necessarily formed on the floor, but may be formed on a plane on which the moving body moves, for example, on a work table.

【0010】[0010]

【作用】本発明に係る移動体の停止位置ズレ量検出装置
では,予め,移動体を所定の基準停止位置に停止させた
状態で,任意のパターンと所定の認識マークとの画像を
含む床面の画像(基準撮像画像)が撮像される。上記基
準撮像画像は,基準位置データ取得手段により所定の画
像処理が施され,上記任意のパターンを構成する複数の
形態部と上記認識マークとの上記基準撮像画像上での位
置データが算出される。この時,上記基準位置データ取
得手段により,所定のテンプレート画像と上記複数の形
態部及び上記認識マークの画像とのマッチング処理によ
り上記複数の形態部及び上記認識マークを認識し,位置
データを取得するようにすれば,高精度な位置データの
取得が可能となる。その際,上記任意のパターンを構成
する複数の形態部がそれぞれ同一の円形に形成される場
合には,上記所定のテンプレート画像として上記円形形
態部の単体の画像を用いることにより,テンプレート画
像と各撮像画像との間の姿勢角のズレに関係なく,高速
でしかも使用メモリが少ないマッチング処理が可能とな
る。尚,上記基準位置データ取得手段において,各撮像
画像を所定の閾値で2値化した2値化画像から,予め設
定しておいた形状特徴量を持つ部分を抽出することによ
り上記複数の形態部及び上記認識マークを認識し,位置
データを取得するようにすれば,精度は上記マッチング
処理に及ばないものの,処理速度の高速化が可能であ
る。
In the moving object stop position shift amount detecting apparatus according to the present invention, the floor surface including an image of an arbitrary pattern and a predetermined recognition mark is preliminarily stopped in a state where the moving object is stopped at a predetermined reference stop position. (Reference image) is captured. The reference captured image is subjected to predetermined image processing by reference position data acquisition means, and position data on the reference captured image of the plurality of feature parts constituting the arbitrary pattern and the recognition mark is calculated. . At this time, the reference position data acquiring means recognizes the plurality of feature parts and the recognition mark by matching processing of a predetermined template image with the plurality of feature parts and the image of the recognition mark, and acquires position data. By doing so, highly accurate position data can be obtained. At this time, when a plurality of feature parts constituting the arbitrary pattern are formed in the same circle, respectively, the template image and the individual images are used by using a single image of the circular feature part as the predetermined template image. Regardless of the deviation of the attitude angle from the captured image, the matching processing can be performed at high speed and with a small memory usage. The reference position data acquisition means extracts a portion having a predetermined shape feature amount from a binarized image obtained by binarizing each captured image with a predetermined threshold, thereby obtaining the plurality of feature parts. If the recognition mark is recognized and the position data is acquired, the processing speed can be increased, although the accuracy is lower than the matching processing.

【0011】続いて,符号付け手段により,上記基準撮
像画像上の各形態部に対して,上記認識マークを基準と
した符号付けが行われる。一方,実際の移動作業時にお
いては,移動体を停止させた状態で,上記任意のパター
ンと所定の認識マークとの画像を含む床面の画像(移動
作業時撮像画像)が撮像される。上記移動作業時撮像画
像は,上記基準撮像画像と同様,移動作業時位置データ
取得手段により所定の画像処理が施され,上記複数の形
態部と上記認識マークとの上記基準撮像画像上での位置
データが算出される。そして,符号付け手段により,上
記移動作業時撮像画像上の各形態部に対して,上記認識
マークを基準として,上記基準撮像画像と共通の符号付
けが行われる。ここで,上記移動作業時位置データ取得
手段で得られた上記形態部の位置データから所定数の位
置データを選択し,該選択された位置データに対応する
形態部のみについて上記対応付け手段による対応付けを
行うようにすれば,一定以上の精度を保ちながら処理の
高速化やメモリ容量の削減が可能となる。或いは,上記
移動作業時位置データ取得手段による処理を,まず概略
位置データ取得手段によって上記複数の形態部の概略の
位置データを取得し,概略位置データ選択手段によって
上記概略位置データの中から所定数の位置データを選択
し,詳細位置データ取得手段によって,上記概略位置デ
ータ選択手段で選択された概略位置データに対応する上
記形態部のみについての詳細な位置データを取得するよ
うにすれば,更なる処理の高速化やメモリ容量の削減が
可能となる。
Subsequently, the coding means performs coding based on the recognition mark for each of the features on the reference captured image. On the other hand, at the time of actual moving work, an image of the floor surface (image taken at the time of moving work) including an image of the arbitrary pattern and the predetermined recognition mark is taken with the moving body stopped. The moving work picked-up image is subjected to predetermined image processing by the moving work position data acquiring means in the same manner as the reference picked-up image, and the positions of the plurality of features and the recognition marks on the reference picked-up image are obtained. Data is calculated. Then, the coding unit performs common coding with the reference captured image on the basis of the recognition mark for each of the features on the captured image during the moving operation. Here, a predetermined number of position data are selected from the position data of the form part obtained by the moving work position data acquisition means, and only the form part corresponding to the selected position data is handled by the association means. With such a configuration, it is possible to increase the processing speed and reduce the memory capacity while maintaining a certain level of accuracy. Alternatively, the processing by the position data obtaining means during moving work may be performed by first obtaining the approximate position data of the plurality of form parts by the approximate position data obtaining means, and the predetermined number of the approximate position data is selected by the approximate position data selecting means. If the position data is selected and the detailed position data acquisition means acquires detailed position data only for the form part corresponding to the approximate position data selected by the approximate position data selection means, further It is possible to increase the processing speed and reduce the memory capacity.

【0012】また,上記任意のパターンが上記複数の形
態部の規則的な配列により構成される場合には,上記符
号付け手段により,上記各撮像画像上での上記認識マー
クを基準として,上記複数の形態部の上記配列の規則性
に基づく符号付けが行われる。これにより,容易且つ確
実な符号付けが可能となる。一方,例えば上記任意のパ
ターンが上記複数の形態部の不規則な配列により構成さ
れる場合には,上記のような符号付け方法は用いられな
いため,上記基準撮像画像上で上記認識マークを起点と
して上記複数の形態部を順に結んだベクトルに基づいて
上記基準撮像画像上での各形態部の符号付けを行い,上
記移動作業時撮像画像上で上記認識マークを起点として
上記ベクトルに従って上記基準撮像画像と共通の符号付
けを行うようにすれば対応可能である。続いて,対応付
け手段により,上記符号付け手段でふられた符号に基づ
いて,上記各撮像画像間での上記複数の形態部の1対1
の対応付けが行われ,形態部の組が作成される。この
時,両方の撮像画像において位置データが得られた形態
部についてのみ対応付けが行われるため,外乱光などの
影響によって移動作業時に一部の形態部を認識できなか
った場合でも問題なく処理できる。続いて,ズレ算出手
段により,上記対応付け手段で対応付けされた上記形態
部の各組について,上記基準位置データ取得手段及び上
記移動作業時位置データ取得手段により得られた位置デ
ータの差が求められ,上記各組における上記位置データ
の差に基づいて,例えば最小自乗法等を用いて上記各撮
像画像間のズレが求められる。そして,求められた上記
各撮像画像間のズレに基づいて,上記移動体の停止位置
のズレ量が検出される。以上のように,多数の位置デー
タの組を用いて位置・姿勢のズレが求められることによ
り,高精度の計測が可能となる。また,上記各形態部の
個々の位置データを用いるため,上記形態部の位置に製
造時の誤差が含まれていても,計測精度に影響を及ぼす
ことはない。
In the case where the arbitrary pattern is constituted by a regular arrangement of the plurality of feature parts, the encoding means sets the plurality of feature parts on the basis of the recognition mark on each of the captured images. Is performed based on the regularity of the above arrangement of the form part. This allows easy and reliable coding. On the other hand, for example, when the arbitrary pattern is formed by an irregular arrangement of the plurality of feature parts, the above-described coding method is not used, and thus the recognition mark is used as a starting point on the reference captured image. The coding of each of the features on the reference captured image is performed based on a vector obtained by sequentially connecting the plurality of features, and the reference imaging is performed in accordance with the vector with the recognition mark as a starting point on the captured image during the moving operation. This can be achieved by performing common coding with the image. Subsequently, the associating means makes a one-to-one correspondence between the plurality of feature parts between the captured images based on the code given by the coding means.
Are made, and a set of form parts is created. At this time, since correspondence is performed only with respect to the form part for which the position data is obtained in both captured images, even if some form parts cannot be recognized during the moving work due to the influence of disturbance light or the like, processing can be performed without any problem. . Subsequently, the difference between the position data obtained by the reference position data obtaining means and the position data obtained by the moving work position data obtaining means for each set of the form parts associated by the association means is obtained by the deviation calculating means. Then, based on the difference between the position data in each of the sets, a deviation between the captured images is obtained by using, for example, a least square method. Then, a deviation amount of the stop position of the moving body is detected based on the obtained deviation between the captured images. As described above, high-precision measurement can be performed by determining the position / posture deviation using a large number of sets of position data. Further, since the individual position data of each of the feature parts is used, even if the position of the feature part includes an error at the time of manufacture, the measurement accuracy is not affected.

【0013】[0013]

【発明の実施の形態】以下添付図面を参照して,本発明
の実施の形態及び実施例につき説明し,本発明の理解に
供する。尚,以下の実施の形態及び実施例は本発明を具
体化した一例であって,本発明の技術的範囲を限定する
性格のものではない。ここに,図1は本発明の実施の形
態に係る停止位置ズレ量検出装置を搭載する無人搬送車
A1の概略構成を示す模式図,図2は上記停止位置ズレ
量検出装置による処理手順を示すフローチャート,図3
は教示時の撮像画像,及び符号付けの一例を示す図,図
4はテンプレートマッチング処理に用いるテンプレート
画像を示す図,図5は形状特徴量の一例を示す図,図6
は作業時の撮像画像,及び符号付けの一例を示す図,図
7は対応付けられたパンチング孔の位置データの一例を
示す図,図8は実施例2に係るステップS5の処理手順
を示すフローチャート,図9は実施例3に係るパンチン
グ孔の配列に規則性がない場合の対応付け処理の説明
図,図10は実施例4に係る特定のパンチング孔を認識
マークとして用いる場合の説明図である。本実施の形態
では,上記従来の技術と同様,半導体クリーンルーム内
において,半導体製造装置間,或いは半導体製造装置−
ストッカ間でウェーハの搬送,及び移載を行うアーム付
無人搬送車A1を例にあげて説明する。上記アーム付無
人搬送車A1では,図1に示すように,無人搬送車1
(移動体の一例)の上部に,先端部にハンド3を有する
アーム2が搭載されている。また,上記無人搬送車1の
下部中央部付近(照明等の影響を受けにくい位置)に
は,床面9(所定の平面の一例)に対向するように,リ
ング状の照明装置5を有する撮像部4が固定的に設置さ
れており,更に,画像処理部6(基準位置データ取得手
段,移動作業時位置データ取得手段,及び符号付け手段
に相当),記憶部7,及び教示データ補正部8(対応付
け手段,及びズレ算出手段に相当)が設けられている。
また,半導体クリーンルーム等では通常行われているよ
うに,上記床面9には,図3に示すように所定のパター
ンでパンチング孔11(所定の形態部に相当)が形成さ
れたパンチング床が敷かれている。更に該パンチング床
9には,上記無人搬送車1の停止位置付近の任意の位置
に,図3に示すような認識マーク10が設けられてい
る。上記認識マーク10は,上記所定のパターンで配列
されたパンチング孔11のある一箇所を特定するために
設けるものであって,形状,大きさ,明るさなどの特徴
により撮像画像内でただ一つに特定できるものであれば
よく,例えば上記パンチング孔11の間に貼り付けたマ
ークや,床材を固定するためのネジ孔などが利用でき
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments and examples of the present invention will be described below with reference to the accompanying drawings to facilitate understanding of the present invention. The following embodiments and examples are mere examples embodying the present invention, and do not limit the technical scope of the present invention. Here, FIG. 1 is a schematic diagram showing a schematic configuration of an automatic guided vehicle A1 equipped with a stop position shift amount detecting device according to an embodiment of the present invention, and FIG. 2 shows a processing procedure by the stop position shift amount detecting device. Flow chart, FIG.
FIG. 4 is a diagram showing an example of a captured image at the time of teaching and encoding, FIG. 4 is a diagram showing a template image used for template matching processing, FIG.
FIG. 7 is a diagram showing an example of a picked-up image and a code at the time of work, FIG. 7 is a diagram showing an example of position data of the associated punched holes, and FIG. 8 is a flowchart showing a processing procedure of step S5 according to the second embodiment FIG. 9 is an explanatory view of an associating process when the arrangement of punching holes according to the third embodiment has no regularity, and FIG. 10 is an explanatory view of a case where a specific punching hole according to the fourth embodiment is used as a recognition mark. . In the present embodiment, similarly to the above-described conventional technology, in a semiconductor clean room, between semiconductor manufacturing apparatuses or between semiconductor manufacturing apparatuses.
The automatic guided vehicle A1 with an arm for transferring and transferring wafers between stockers will be described as an example. In the automatic guided vehicle A1 with an arm, as shown in FIG.
An arm 2 having a hand 3 at the tip is mounted on an upper part of (an example of a moving body). Further, in the vicinity of the lower central portion of the automatic guided vehicle 1 (a position that is hardly affected by lighting or the like), an image pickup device having a ring-shaped lighting device 5 so as to face the floor surface 9 (an example of a predetermined plane). An image processing unit 6 (corresponding to a reference position data acquisition unit, a position data acquisition unit during moving work, and an encoding unit), a storage unit 7, and a teaching data correction unit 8 (Corresponding to associating means and deviation calculating means).
Further, as is usually performed in a semiconductor clean room or the like, a punching floor in which punching holes 11 (corresponding to a predetermined form part) are formed in a predetermined pattern as shown in FIG. Has been. Further, a recognition mark 10 as shown in FIG. 3 is provided on the punching floor 9 at an arbitrary position near the stop position of the automatic guided vehicle 1. The recognition mark 10 is provided in order to identify one location of the punched holes 11 arranged in the predetermined pattern, and is unique in a captured image due to characteristics such as shape, size, and brightness. Any mark can be used as long as it can be specified, for example, a mark attached between the punching holes 11 or a screw hole for fixing a floor material.

【0014】上記各構成要素について,更に詳しく説明
する。上記アーム2には,予め,所定の作業位置に上記
無人搬送車1を停止させた状態で,ウェーハ(不図示)
を無人搬送車1から作業台(不図示)へ移載する動作が
教示される。実際の移載作業時には,上記アーム2はそ
の教示データに従って作業を行う。上記撮像部4では,
上記アーム2の動作教示時,及び移載作業時の所定の作
業位置での停止時に,上記認識マーク10を含む上記パ
ンチング床9の画像が撮像される。上記画像処理部6で
は,上記撮像部4による撮像後,上記撮像部4から取り
込まれた撮像画像に画像処理を施すことにより,上記各
パンチング孔11及び上記認識マーク10の位置データ
(撮像画像の局所座標系における座標値)が求められ
る。上記アーム2の動作教示時に得られた上記位置デー
タは,上記記憶部7に記憶される。上記教示データ補正
部8では,移載作業時に上記無人搬送車1が停止して上
記画像処理部6による処理がなされた後,上記記憶部7
に予め記憶された各パンチング孔11の位置データと今
回上記画像処理部6により得られた各パンチング孔11
の位置データとの1対1の対応付けが上記認識マークの
位置データを基準として行われ,該対応付けがなされた
位置データの差に基づいて上記無人搬送車1の停止位置
のズレ量が求められ,該ズレ量に基づいて上記アーム2
の教示データの補正が行われる。
The above components will be described in more detail. A wafer (not shown) is mounted on the arm 2 in a state where the automatic guided vehicle 1 is stopped at a predetermined work position in advance.
Is transferred from the automatic guided vehicle 1 to a work table (not shown). At the time of the actual transfer operation, the arm 2 performs the operation according to the teaching data. In the imaging unit 4,
When the operation of the arm 2 is taught and when the arm 2 is stopped at a predetermined work position during the transfer operation, an image of the punching floor 9 including the recognition mark 10 is captured. The image processing unit 6 performs image processing on the captured image captured from the image capturing unit 4 after the image capturing by the image capturing unit 4 to obtain position data of each of the punching holes 11 and the recognition marks 10 (the image data of the captured image). (Coordinate values in the local coordinate system) are obtained. The position data obtained when teaching the operation of the arm 2 is stored in the storage unit 7. The teaching data correcting unit 8 stops the automatic guided vehicle 1 during the transfer operation and performs the processing by the image processing unit 6.
The position data of each punching hole 11 stored in advance and the punching holes 11 obtained by the image processing unit 6 this time.
Is performed on the basis of the position data of the recognition mark, and the shift amount of the stop position of the automatic guided vehicle 1 is determined based on the difference between the position data and the associated position data. Arm 2 based on the displacement amount.
Is corrected.

【0015】以下,アーム付無人搬送車A1における位
置補正動作について,図2に示すフローチャートを用い
て更に具体的に説明する。まず,実際の移載作業に先立
って,所定の作業位置に上記無人搬送車1を停止させた
状態で,上記アーム2に対して,ウェーハ(不図示)を
無人搬送車1から作業台(不図示)へ移載する動作が教
示される。その際,撮像部4により,パンチング床9の
画像(基準撮像画像に相当)が撮像される(ステップS
1)。続いて,画像処理部6において,上記撮像部4か
ら取り込まれた撮像画像(図3参照)に画像処理を施す
ことにより,床面の各パンチング孔11,及び認識マー
ク10を認識し,認識された各パンチング孔11及び認
識マーク10について,撮像領域Rにおける局所座標系
CS1での座標値(位置データ)が算出される(ステッ
プS2)。上記位置データは,例えば上記パンチング孔
11の中心位置など,パンチング孔の形状等に応じて最
適な位置で求めることができる。上記各パンチング孔1
1及び認識マーク10の認識,及び位置データの算出に
は,例えば画像処理で一般的に用いられているテンプレ
ートマッチングや形状特徴量による方法を用いることが
できる。上記テンプレートマッチングによる方法とは,
図4に示すように,認識マーク10及びパンチング孔1
1の画像をテンプレート画像として予め記憶しておき,
撮像画像中で上記テンプレート画像との相関値が高い部
分を抽出して認識する方法である。本実施の形態に用い
たパンチング床は,各パンチング孔11が全て同じ大き
さの円形に形成されているため,図4に示すようにテン
プレート画像として上記パンチング孔11の単体の画像
を用いることにより,撮像画像が回転角を有する場合で
も,1つのテンプレート画像で,しかも上記テンプレー
ト画像を回転させることなく,短時間でマッチング処理
を行うことができ,また,多数のテンプレート画像を記
憶するための記憶領域を必要としない。尚,上記パンチ
ング孔11の大きさが数種類存在する場合でも,上記テ
ンプレート画像をその数だけ用意することで対応可能で
ある。
Hereinafter, the position correcting operation in the automatic guided vehicle A1 with an arm will be described more specifically with reference to the flowchart shown in FIG. First, prior to the actual transfer operation, a wafer (not shown) is transferred from the automatic guided vehicle 1 to the worktable (not shown) with respect to the arm 2 while the automatic guided vehicle 1 is stopped at a predetermined work position. (Shown) is taught. At this time, an image of the punching floor 9 (corresponding to a reference captured image) is captured by the imaging unit 4 (Step S).
1). Subsequently, the image processing section 6 performs image processing on the picked-up image (see FIG. 3) taken in from the image pickup section 4, thereby recognizing each punching hole 11 and the recognition mark 10 on the floor surface, and being recognized. A coordinate value (position data) in the local coordinate system CS1 in the imaging region R is calculated for each of the punched holes 11 and the recognition marks 10 (step S2). The position data can be obtained at an optimum position according to the shape of the punching hole, such as the center position of the punching hole 11, for example. Each punching hole 1
For the recognition of the recognition mark 1 and the recognition mark 10 and the calculation of the position data, for example, a method using template matching or a shape feature amount generally used in image processing can be used. The template matching method is
As shown in FIG. 4, the recognition mark 10 and the punching hole 1
1 is stored in advance as a template image,
This is a method of extracting and recognizing a portion having a high correlation value with the template image in a captured image. In the punching floor used in the present embodiment, since all the punching holes 11 are formed in a circular shape having the same size, by using a single image of the punching holes 11 as a template image as shown in FIG. Even when the captured image has a rotation angle, the matching process can be performed in a short time without rotating the template image with one template image, and a storage for storing a large number of template images can be performed. Requires no space. It should be noted that even when there are several sizes of the punching holes 11, it is possible to prepare by preparing the template images by the number.

【0016】また,上記形状特徴量による方法とは,撮
像画像を所定の閾値で2値化した画像から,予め設定し
ておいた幅,高さ,面積等の形状特徴量(図5参照)を
持つ部分を抽出して認識する方法である。上記テンプレ
ートマッチングによる方法では,2値化画像を用いない
で濃淡画像のままで処理するため,高精度の位置検出が
行えるという長所が有る反面,処理のための計算量が多
くなるという欠点もある。従って,認識マーク10の検
出など,あまり高い位置精度が要求されない部分では上
記上記形状特徴量による方法を用い,パンチング孔11
の検出など,高精度が要求される部分には上記テンプレ
ートマッチングによる方法を用いるといったように,上
記2つの方法を組み合わせて用いると効果的である。上
記ステップS2で求められた教示時の位置データは記憶
部7に記憶される(ステップS3)。
[0016] The above-mentioned method based on the shape characteristic amount means that a captured image is binarized by a predetermined threshold value and a predetermined shape characteristic amount such as a width, a height and an area (see FIG. 5). Is a method of extracting and recognizing a part having. The above-described method using template matching has the advantage of being able to perform high-accuracy position detection because processing is performed as a gray-scale image without using a binarized image, but also has the disadvantage of requiring a large amount of calculation for processing. . Therefore, in a portion where a very high positional accuracy is not required, such as the detection of the recognition mark 10, the method using the above-mentioned shape feature is used and the punching hole 11
It is effective to use a combination of the above two methods, such as using the above-described method based on template matching for a part requiring high accuracy, such as detection of a pattern. The teaching position data obtained in step S2 is stored in the storage unit 7 (step S3).

【0017】次に,実際の移載作業時においては,無人
搬送車1が停止した時に,撮像部4によりパンチング床
9の画像(移動作業時撮像画像に相当,図6参照)が撮
像される(ステップS4)。続いて,画像処理部6にお
いて,上記ステップS2と同様の処理が行われ,作業時
の位置データが求められる(ステップS5)。続いて,
上記教示データ補正部8において,上記ステップS5で
求められた作業時位置データと,上記記憶部7に記憶さ
れている教示時位置データとの1対1の対応付けが行わ
れる(ステップS6)。上記対応付けの具体例を以下に
示す。 認識マーク10の座標値を基に,教示時位置データ
に対応する各パンチング孔11にインデックスを付加す
る。例えば,図3に示すように,各行にa,b,c,
…,各列にA,B,C,…,のようにそれぞれ符号をふ
り,行と列のそれぞれの符号の組み合わせ(aA,dB
等)によりインデックスを作成する。 作業時位置データについても,上記と同様のイン
デックスを付加する(図6参照)。 教示時と作業時とで同じインデックスが付加された
パンチング孔11を対応付ける。 尚,以上の対応付け処理において,教示時又は作業時の
いずれかの位置データにしか含まれていないパンチング
孔11の位置データは無視される。即ち,教示時及び作
業時の両方で位置データが算出されたパンチング孔11
の位置データのみを用いて以後の処理が行われる。従っ
て,外乱光などの影響によって作業時に一部のパンチン
グ孔11を認識できなかった場合でも問題なく対応でき
る。図7に,対応付けられた各パンチング孔11の例を
示す。尚,i番目に対応付けられた教示時位置データを
(Tix,Tiy),作業時位置データを(Pix,P
iy)で表している。
Next, during the actual transfer operation, when the automatic guided vehicle 1 is stopped, an image of the punching floor 9 (corresponding to the image picked up during the transfer operation, see FIG. 6) is picked up by the image pickup section 4. (Step S4). Subsequently, the same processing as in step S2 is performed in the image processing unit 6 to obtain position data during work (step S5). continue,
The teaching data correction unit 8 performs one-to-one correspondence between the working position data obtained in step S5 and the teaching position data stored in the storage unit 7 (step S6). A specific example of the association will be described below. An index is added to each punching hole 11 corresponding to the position data at the time of teaching based on the coordinate value of the recognition mark 10. For example, as shown in FIG. 3, a, b, c,
.., Each column is assigned a code such as A, B, C,..., And a combination of each code of a row and a column (aA, dB
Etc.) to create an index. An index similar to the above is added to the work position data (see FIG. 6). The punching holes 11 to which the same index has been added at the time of teaching and at the time of work are associated. In the above association process, the position data of the punched hole 11 included only in the position data at the time of teaching or work is ignored. That is, the punching hole 11 for which the position data is calculated both during teaching and during work.
Subsequent processing is performed using only the position data. Therefore, even if some punching holes 11 cannot be recognized during the work due to the influence of disturbance light or the like, it is possible to cope with the problem without any problem. FIG. 7 shows an example of each associated punching hole 11. The teaching position data associated with the i-th position is (Tix, Tiy), and the work position data is (Pix, Py).
iy).

【0018】続いて,上記教示データ補正部8におい
て,上記ステップS6で対応付けられた各位置データの
組を用いて,教示時の撮像画像と作業時の撮像画像との
位置・姿勢のズレ,即ち,無人搬送車A1の所定の停止
位置(教示時停止位置)からの停止位置のズレが求めら
れる(ステップS7)。具体的には,まず,i番目に対
応付けられた教示時位置データ(Tix,Tiy)と作
業時位置データ(Pix,Piy)の関係は,次式によ
り表される。
Subsequently, the teaching data correction unit 8 uses the set of position data associated in step S6 to determine the position / posture of the captured image at the time of teaching and the captured image at the time of work. That is, the deviation of the stop position of the automatic guided vehicle A1 from the predetermined stop position (the stop position during teaching) is determined (step S7). Specifically, first, the relationship between the teaching-time position data (Tix, Tiy) and the work-time position data (Pix, Piy) associated with the i-th is expressed by the following equation.

【数1】 ここで,θ,dx,dyは教示時の位置データから作業
時の位置データへの変換パラメータであり,θは回転
角,dx,dyはそれぞれx,y方向への平行移動量で
ある。図7に示した各位置データの組(Tix,Ti
y),(Pix,Piy)を上記(1)式に適用し,最
小自乗法を用いて上記θ,dx,dyを算出することに
より,教示時の撮像画像と作業時の撮像画像との位置・
姿勢のズレが求められる。このように,撮像画像中に存
在する複数のパンチング孔11の位置データを用いて上
記位置・姿勢のズレが求められるため,高精度の計測が
可能となる。また,パンチング孔11の個々の位置デー
タを用いるため,パンチング孔の位置に製造時の誤差が
含まれていても,計測精度に影響を及ぼすことはない。
続いて,上記ステップS7で求められた教示時の撮像画
像と作業時の撮像画像との位置・姿勢のズレに基づい
て,上記アーム2の教示データが修正される(ステップ
S8)。上記アーム2は,ステップS8で修正された教
示データに従って移載作業を行う(ステップS9)。以
後,無人搬送車1の移動の都度,上記ステップS4〜S
9が繰り返される。
(Equation 1) Here, θ, dx, and dy are conversion parameters from the position data at the time of teaching to the position data at the time of work, θ is a rotation angle, and dx and dy are translation amounts in the x and y directions, respectively. Each set of position data (Tix, Ti
y), (Pix, Piy) are applied to the above equation (1), and the above θ, dx, dy is calculated using the least squares method, so that the positions of the captured image at the time of teaching and the captured image at the time of work are calculated.・
Posture deviation is required. As described above, since the above-described position / posture deviation is obtained using the position data of the plurality of punching holes 11 existing in the captured image, highly accurate measurement is possible. In addition, since the individual position data of the punched holes 11 is used, even if the positions of the punched holes include an error at the time of manufacturing, the measurement accuracy is not affected.
Subsequently, the teaching data of the arm 2 is corrected based on the deviation of the position / posture between the captured image at the time of teaching and the captured image at the time of work obtained at step S7 (step S8). The arm 2 performs a transfer operation according to the teaching data corrected in step S8 (step S9). Thereafter, each time the automatic guided vehicle 1 moves, the above steps S4 to S4 are performed.
9 is repeated.

【0019】以上説明したように,本実施の形態に係る
アーム付無人搬送車A1では,床面上に形成されたパタ
ーンを構成する各パンチング孔11についての位置デー
タを,教示時及び作業時の撮像画像よりそれぞれ求め,
上記教示時と作業時の位置データの間で,対応する各パ
ンチング孔11の位置データの対応付けを行い,対応す
る位置データの組を用いて教示時の撮像画像と作業時の
撮像画像との位置・姿勢のズレが求められる。従って,
多数の位置データの組を用いて位置・姿勢のズレが求め
られるため,高精度の計測が可能となる。また,パンチ
ング孔11の個々の位置データを用いるため,パンチン
グ孔の位置に製造時の誤差が含まれていても,計測精度
に影響を及ぼすことはない。また,多数の位置データの
組を用いて位置・姿勢のズレが求められるため,教示時
又は作業時のいずれかの位置データにしか含まれていな
いパンチング孔11の位置データを無視し,教示時及び
作業時の両方で位置データが算出されたパンチング孔1
1の位置データのみを用いることにより,外乱光などの
影響によって作業時に一部のパンチング孔11を認識で
きなかった場合でも問題なく処理できる。
As described above, in the automatic guided vehicle A1 with an arm according to the present embodiment, the position data of each punching hole 11 constituting the pattern formed on the floor surface is transmitted during teaching and operation. Each is obtained from the captured image,
The position data of the corresponding punching holes 11 are correlated between the position data at the time of the teaching and the position data at the time of the work, and the captured image at the time of the teaching and the captured image at the time of the work are used using a set of corresponding position data. Position / posture deviation is required. Therefore,
Since the deviation of the position / posture is obtained using a large number of sets of position data, highly accurate measurement is possible. In addition, since the individual position data of the punched holes 11 is used, even if the positions of the punched holes include an error at the time of manufacturing, the measurement accuracy is not affected. In addition, since the displacement of the position / posture is obtained using a large number of sets of position data, the position data of the punching hole 11 that is included only in the position data at the time of teaching or at the time of work is ignored. And the punching hole 1 for which the position data was calculated both during work
By using only the position data of No. 1, even when some punching holes 11 cannot be recognized during the work due to the influence of disturbance light or the like, processing can be performed without any problem.

【0020】[0020]

【実施例】(実施例1)上記実施の形態に係るアーム付
無人搬送車A1における位置補正動作においては,教示
時,作業時における個々のパンチング孔の位置データの
検出精度δと,対応付けされた上記位置データの組の数
nとが,精度を決める大きな要素となる。上記nが多い
ほど精度は高くなるが,多すぎると対応付け処理(上記
ステップS6)や位置・姿勢のズレ量の計算(上記ステ
ップS7)における処理時間や,処理に必要なメモリ容
量が増大するという問題がある。そこで,作業時位置デ
ータの算出(上記ステップS5)の後で,得られた位置
データの選別を行い,以降の処理に用いる位置データの
数を適切な数に制限すれば,高精度を維持しつつ,処理
時間や使用メモリの増大を抑えることができる。この場
合,選別後のデータ数は,位置・姿勢のズレ量の計算
(上記ステップS7)で要求される誤差から算出するこ
とができる。即ち,位置・姿勢のズレ量の計算誤差Δ
は,概ね,
(Embodiment 1) In the position correcting operation of the automatic guided vehicle A1 with an arm according to the above-described embodiment, the accuracy of detection of the position data of each punching hole during teaching and work is associated with δ. The number n of sets of the position data described above is a large factor that determines the accuracy. The accuracy increases as the number n increases, but if the number is too large, the processing time and the memory capacity required for the processing in the associating process (step S6) and the calculation of the amount of displacement of the position and orientation (step S7) increase. There is a problem. Therefore, if the obtained position data is selected after the calculation of the work position data (step S5) and the number of position data used in the subsequent processing is limited to an appropriate number, high accuracy is maintained. In addition, it is possible to suppress an increase in the processing time and the memory used. In this case, the number of data after the selection can be calculated from the error required in the calculation of the displacement amount of the position / posture (step S7). That is, the calculation error Δ of the displacement amount of the position / posture
Is generally

【数2】 となることが,統計的,実験的に確かめられているた
め,上記Δの許容最大値をΔm,選別後のデータ数を
n′とすると,n′は次式により求めることができる。 n′>(δ/Δm)2 … (3) 上記n′個の位置データは,上記ステップS5で算出さ
れた位置データの中からランダムに選別してもよいが,
位置・姿勢のズレ量の計算(上記ステップS7)に適し
た位置データを優先的に抽出すれば更に効果的である。
例えば,撮像領域P(図6参照)の外周付近のデータを
優先的に選択すれば,姿勢角θに対する精度が向上す
る。
(Equation 2) Since it has been statistically and experimentally confirmed that n becomes n, the allowable maximum value of Δ is Δm, and the number of data after selection is n ′, n ′ can be obtained by the following equation. n ′> (δ / Δm) 2 (3) The n ′ pieces of position data may be randomly selected from the position data calculated in step S5.
It is more effective to preferentially extract position data suitable for the calculation of the position / posture deviation amount (step S7).
For example, if data near the outer periphery of the imaging region P (see FIG. 6) is preferentially selected, the accuracy with respect to the posture angle θ is improved.

【0021】(実施例2)上記実施例1では,作業時位
置データの算出(上記ステップS5)の後で位置データ
の選別を行うようにしたが,位置データの選別処理を上
記ステップS5の処理の途中で行うようにすれば,処理
時間や使用メモリの削減効果を更に大きくすることがで
きる。例えば,上記ステップS5の処理を,概略の位置
データを算出する処理と詳細な位置データを算出する処
理とに分割し,それらの処理の間にデータの選別処理を
行う。図8に示すフローチャートを用いて具体的に説明
する。ステップS4において床面の画像が撮像された
後,まず撮像画像に対して間引きや平均化の処理を行っ
て画像データの縮小を行い,縮小された画像データから
各パンチング孔11を認識して概略の位置データを算出
する(ステップS5a)。例えば,縮小によって画像の
縦横の画素数を1/mに削減したとすると,処理時間は
ほぼ1/m4 (テンプレートマッチングによる場合),
或いは1/m2 (形状特徴量による場合)と大きく削減
できる。その後,上記実施例1で説明したような位置デ
ータの選別処理を行い(ステップS10),選別された
位置データに対応するパンチング孔11近傍について,
上記縮小処理を行っていない画像データを用いて詳細な
位置データを算出する(ステップS5b)。以上の処理
により,高精度を維持しつつ,処理時間や使用メモリの
増大を更に抑えることができる。
(Second Embodiment) In the first embodiment, the position data is selected after the calculation of the work position data (step S5). However, the position data selection processing is performed in the step S5. If it is performed in the middle of the process, the effect of reducing the processing time and the memory used can be further increased. For example, the process of step S5 is divided into a process of calculating approximate position data and a process of calculating detailed position data, and a data selection process is performed between these processes. This will be specifically described with reference to the flowchart shown in FIG. After the image of the floor surface is captured in step S4, first, the captured image is subjected to a thinning-out or averaging process to reduce the image data, and each punched hole 11 is recognized from the reduced image data to be roughly outlined. Is calculated (step S5a). For example, if the number of vertical and horizontal pixels of an image is reduced to 1 / m by reduction, the processing time is approximately 1 / m 4 (in the case of template matching),
Alternatively, it can be greatly reduced to 1 / m 2 (in the case of the shape feature amount). Thereafter, the position data selection processing as described in the first embodiment is performed (step S10), and the vicinity of the punching hole 11 corresponding to the selected position data is determined.
Detailed position data is calculated using the image data that has not been subjected to the above-described reduction processing (step S5b). With the above processing, it is possible to further suppress the processing time and the increase in the memory used while maintaining high accuracy.

【0022】(実施例3)上記実施の形態では,ステッ
プS2の対応付け処理において,認識マーク10の座標
値を基にして各パンチング孔11にインデックスを付加
し,教示時と作業時とで同じインデックスが付加された
パンチング孔11を対応付けしている。ところが,この
方法は各パンチング孔11が縦横に規則的に並んでいる
場合にしか適用できない。そこで,各パンチング孔11
の配列に規則性がない場合にも適用できる対応付け処理
の手順を,図9を用いて説明する。 教示時の各パンチング孔11の位置データを認識マ
ークMtに近い順に並びかえる(図9(a)参照)。 教示時位置データについて,認識マークMtに最も
近いパンチング孔11の位置データを選び,起点Tsと
する。 認識マークMtから起点TsへのベクトルをV0と
する。 作業時の位置データについて(図9(b)),認識
マークMpから上記ベクトルV0の分だけ延ばした位置
付近にある位置データを探索し,これを起点Psとす
る。この時,探索範囲を半径r0の範囲内とし,この範
囲に位置データが1つであれば,それを起点Psとす
る。上記探索範囲内に対応する位置データが無いとき
は,上記に戻り,次に近い位置データを新たな起点T
sとして上記,の処理を行う。これを,起点Psが
決まるまで繰り返す。 教示時位置データについて,起点Tsからその他の
位置データTiへのベクトルをViとする(図9(a)
参照)。 作業時位置データについて(図9(b)),上記起
点Psから上記ベクトルViの分だけ延ばした位置付近
で,探索範囲を半径rpとして上記Tiに対応する位置
データPiを探索する。Piが見つかれば,TiとPi
の位置データが対応付けされる。以上の処理を,全ての
Tiについて繰り返す。以上の処理は,教示時と作業時
でパンチング床と無人搬送車の位置姿勢のズレのうち姿
勢角のズレが小さいときに適用できる。姿勢角にズレが
大きいときには,上記のベクトルV0と上記で決ま
るベクトルMpPsとの角度のズレから概略の姿勢角の
ズレを算出し,それを基に上記の処理を行うことで対
応できる。 以上のような対応付け処理を行うことで,各パンチング
孔11が縦横に不規則に並んでいる場合にも対応でき
る。
(Embodiment 3) In the above embodiment, in the associating process of step S2, an index is added to each punching hole 11 based on the coordinate value of the recognition mark 10, so that the same is used for teaching and working. The punched holes 11 to which the indexes are added are associated with each other. However, this method is applicable only when the punching holes 11 are regularly arranged vertically and horizontally. Therefore, each punching hole 11
The procedure of the associating process that can be applied even when the arrangement of the patterns has no regularity will be described with reference to FIG. The position data of each punching hole 11 at the time of teaching is rearranged in an order close to the recognition mark Mt (see FIG. 9A). With respect to the position data at the time of teaching, the position data of the punching hole 11 closest to the recognition mark Mt is selected and set as the starting point Ts. The vector from the recognition mark Mt to the starting point Ts is defined as V0. With respect to the position data at the time of work (FIG. 9B), position data near the position extended from the recognition mark Mp by the amount of the vector V0 is searched, and this is set as a starting point Ps. At this time, the search range is set within the range of the radius r0, and if there is one position data in this range, the position data is set as the starting point Ps. If there is no corresponding position data in the search range, the process returns to the above, and the next closest position data is set to the new starting point T.
The above processing is performed as s. This is repeated until the starting point Ps is determined. Regarding the teaching position data, the vector from the starting point Ts to the other position data Ti is Vi (FIG. 9A).
reference). Regarding the work position data (FIG. 9B), near the position extended from the starting point Ps by the amount of the vector Vi, the position data Pi corresponding to the Ti is searched with the search range as the radius rp. If Pi is found, Ti and Pi
Are associated with each other. The above process is repeated for all Ti. The above processing can be applied when the deviation of the posture angle is small among the deviations of the position and posture between the punching floor and the automatic guided vehicle during teaching and work. When the deviation of the attitude angle is large, it can be dealt with by calculating the approximate deviation of the posture angle from the deviation of the angle between the vector V0 and the vector MpPs determined as described above, and performing the above processing based on the calculated deviation. By performing the above-described associating process, it is possible to cope with the case where the punching holes 11 are arranged vertically and horizontally irregularly.

【0023】(実施例4)上記実施の形態では,床面上
の時パンチング孔11とは別に設けられた認識マーク1
0を用いた例を示したが,上記パンチング孔11であっ
ても,撮像画像上でただ一つに特定できるものであれ
ば,上記認識マークとして用いることができる。例え
ば,図10に示す例では,撮像領域R内でのパンチング
孔11の間隔が広く,無人搬送車1の停止誤差の範囲R
s内に必ず特定のパンチング孔11aが唯一存在するこ
とが保証されるため,上記パンチング孔11aを上記認
識マークとして用いることが可能である。尚,上記実施
の形態及び各実施例においては,無人搬送車(移動体)
がパターンと認識マークとが形成された床面(平面)上
を走行する場合について説明したが,上記移動体と上記
平面とは無人搬送車と床面とに限られるものではない。
例えば,作業台(平面)上にパターンと認識マークとを
形成し,上記作業台上を移動するロボットアームの先端
(移動体)にカメラを取り付けて位置決めを行う場合
や,作業装置によって取り扱うワーク自体にパターンと
認識マークとを形成し,ワークに対する作業装置の位置
決めを行う場合などにも適用できる。
(Embodiment 4) In the above embodiment, the recognition mark 1 provided separately from the punching hole 11 on the floor is provided.
Although an example using 0 has been shown, the punching hole 11 can be used as the recognition mark as long as it can be uniquely identified on the captured image. For example, in the example shown in FIG. 10, the interval between the punching holes 11 in the imaging region R is large, and the range R of the stop error of the automatic guided vehicle 1 is R.
Since it is guaranteed that there is only one specific punching hole 11a in s, it is possible to use the punching hole 11a as the recognition mark. In the above embodiment and each example, an automatic guided vehicle (moving body)
Has been described on the floor (plane) on which the pattern and the recognition mark are formed, but the moving body and the plane are not limited to the automatic guided vehicle and the floor.
For example, when a pattern and recognition marks are formed on a worktable (plane) and a camera is attached to the tip (moving body) of a robot arm that moves on the worktable, positioning is performed. Also, the present invention can be applied to a case where a pattern and a recognition mark are formed on a workpiece and the working device is positioned with respect to the workpiece.

【0024】[0024]

【発明の効果】以上説明したように,本発明は,任意の
パターンと所定の認識マークとが形成された床面上を移
動する移動体を所定位置に停止させて上記床面の画像を
撮像した移動作業時撮像画像と,予め上記移動体を所定
の基準停止位置に停止させて上記床面の画像を撮像した
基準撮像画像とのズレを,それぞれの撮像画像上の上記
任意のパターンの上記認識マークを基準とした比較によ
り求め,上記ズレに基づいて上記移動体の停止位置のズ
レ量を検出する移動体の停止位置ズレ量検出装置におい
て,上記基準撮像画像から,上記任意のパターンを構成
する複数の形態部と上記認識マークとの上記基準撮像画
像上での位置データを取得する基準位置データ取得手段
と,上記移動作業時撮像画像から,上記複数の形態部と
上記認識マークとの上記移動作業時撮像画像上での位置
データを取得する移動作業時位置データ取得手段と,上
記複数の形態部に,上記各撮像画像上でそれぞれ上記認
識マークを基準とした共通の符号付けを行う符号付け手
段と,上記符号付け手段で得られた上記複数の形態部の
符号に基づいて,上記各撮像画像間での上記複数の形態
部の1対1の対応付けを行う対応付け手段と,上記対応
付け手段で対応付けされた上記複数の形態部の各組につ
いて,上記基準位置データ取得手段及び上記移動作業時
位置データ取得手段により得られた位置データの差を求
め,上記各組における上記位置データの差に基づいて上
記各撮像画像間のズレを求めるズレ算出手段とを具備し
てなることを特徴とする移動体の停止位置ズレ量検出装
置として構成されているため,多数の位置データの組を
用いて位置・姿勢のズレが求められることにより,高精
度の計測が可能となる。また,上記各形態部の個々の位
置データを用いるため,上記形態部の位置に製造時の誤
差が含まれていても,計測精度に影響を及ぼすことはな
い。また,多数の位置データの組を用いて位置・姿勢の
ズレが求められるため,基準撮像画像又は移動作業時撮
像画像のいずれかの位置データにしか含まれていない上
記形態部の位置データを無視し,両方の撮像画像で位置
データが算出された形態部の位置データのみを用いるこ
とにより,外乱光などの影響によって移動作業時に一部
の形態部を認識できなかった場合でも問題なく処理でき
る。
As described above, according to the present invention, the moving object moving on the floor on which an arbitrary pattern and a predetermined recognition mark are formed is stopped at a predetermined position, and an image of the floor is taken. The difference between the captured image at the time of the moving operation and the reference captured image obtained by capturing the image of the floor surface by previously stopping the moving body at a predetermined reference stop position is determined by the above-described arbitrary pattern on the captured image. The arbitrary pattern is formed from the reference captured image in a moving body stop position shift amount detecting device which is obtained by comparison based on the recognition mark and detects the shift amount of the stop position of the moving body based on the shift. Reference position data acquisition means for acquiring position data of the plurality of feature parts and the recognition mark on the reference captured image, and the plurality of feature parts and the recognition mark from the movement work captured image. A moving work position data acquiring means for acquiring position data on the moving work captured image, and a common code for each of the plurality of feature parts on the basis of the recognition mark on each of the captured images. Encoding means, and associating means for performing one-to-one correspondence of the plurality of feature parts between the respective captured images based on the codes of the plurality of feature parts obtained by the encoding means, For each set of the plurality of form parts associated by the associating means, a difference between the position data obtained by the reference position data obtaining means and the position data obtaining means during moving work is obtained, and A shift calculating means for calculating a shift between the respective captured images based on the difference in the position data. By displacement of the position and orientation using a set of position data is determined, it is possible to measure with high accuracy. Further, since the individual position data of each of the feature parts is used, even if the position of the feature part includes an error at the time of manufacture, the measurement accuracy is not affected. In addition, since the displacement of the position / posture is obtained using a large number of sets of position data, the position data of the above-mentioned form part, which is included only in the position data of the reference captured image or the captured image during the moving work, is ignored. However, by using only the position data of the form part for which the position data is calculated in both of the captured images, even if some form parts cannot be recognized during the moving work due to the influence of disturbance light or the like, processing can be performed without any problem.

【0025】また,上記基準位置データ取得手段及び上
記移動作業時位置データ取得手段で得られた上記形態部
の位置データから所定数の位置データを選択し,該選択
された位置データに対応する形態部のみについて上記対
応付け手段による対応付けを行うことにより,一定以上
の精度を保ちながら処理の高速化やメモリ容量の削減が
可能である。或いは,上記移動作業時位置データ取得手
段を,上記複数の形態部の概略の位置データを取得する
概略位置データ取得手段と,上記概略位置データ取得手
段で取得された概略位置データの中から所定数の位置デ
ータを選択する概略位置データ選択手段と,上記概略位
置データ選択手段で選択された概略位置データに対応す
る上記形態部についての詳細な位置データを取得する詳
細位置データ取得手段とを具備するように構成すること
により,更なる処理の高速化やメモリ容量の削減が可能
である。また,上記任意のパターンが上記複数の形態部
の規則的な配列により構成される場合には,上記符号付
け手段を,上記各撮像画像上での上記認識マークを基準
として,上記複数の形態部の上記配列の規則性に基づく
符号付けを行うように構成することにより,容易且つ確
実な符号付けが可能となる。
Further, a predetermined number of position data are selected from the position data of the form part obtained by the reference position data obtaining means and the moving work position data obtaining means, and a form corresponding to the selected position data is selected. By associating only parts with the associating means, it is possible to increase processing speed and reduce memory capacity while maintaining a certain level of accuracy. Alternatively, the moving work position data obtaining means may include a general position data obtaining means for obtaining general position data of the plurality of feature parts, and a predetermined number of general position data obtained from the general position data obtaining means. General position data selecting means for selecting the general position data, and detailed position data obtaining means for obtaining detailed position data for the form part corresponding to the general position data selected by the general position data selecting means. With such a configuration, it is possible to further speed up the processing and reduce the memory capacity. In the case where the arbitrary pattern is constituted by a regular arrangement of the plurality of feature parts, the encoding means is configured to determine the plurality of feature parts based on the recognition mark on each of the captured images. By performing the coding based on the regularity of the above arrangement, easy and reliable coding can be performed.

【0026】一方,例えば上記任意のパターンが上記複
数の形態部の不規則な配列により構成される場合には,
上記のような符号付け方法は用いられないため,上記基
準撮像画像上で上記認識マークを起点として上記複数の
形態部を順に結んだベクトルに基づいて上記基準撮像画
像上での各形態部の符号付けを行い,上記移動作業時撮
像画像上で上記認識マークを起点として上記ベクトルに
従って上記基準撮像画像と共通の符号付けを行うように
すれば対応可能である。また,上記基準位置データ取得
手段及び上記移動作業時位置データ取得手段において,
所定のテンプレート画像と上記複数の形態部及び上記認
識マークの画像とのマッチング処理により上記複数の形
態部及び上記認識マークを認識し,上記各撮像画像上で
の位置データを取得するようにすれば,高精度な位置デ
ータの取得が可能となる。その際,上記任意のパターン
を構成する複数の形態部がそれぞれ同一の円形に形成さ
れる場合には,上記所定のテンプレート画像として上記
円形形態部の単体の画像を用いることにより,テンプレ
ート画像と各撮像画像との間の姿勢角のズレに関係な
く,高速でしかも使用メモリが少ないマッチング処理が
可能となる。また,上記基準位置データ取得手段及び上
記移動作業時位置データ取得手段において,各撮像画像
を所定の閾値で2値化した2値化画像から,予め設定し
ておいた形状特徴量を持つ部分を抽出することにより上
記複数の形態部及び上記認識マークを認識し,上記各撮
像画像上での位置データを取得するようにすれば,精度
は上記マッチング処理に及ばないものの,処理速度の高
速化が可能である。また,上記任意のパターンを構成す
る上記形態部のうち,1又は2以上の形態部が上記認識
マークとして特定可能であれば,該形態部を基準として
上記符号付け手段による処理を行うことが可能となる。
尚,上記任意のパターンと所定の認識マークとは,必ず
しも床面上に形成されている場合だけではなく,上記移
動体が移動する平面上,例えば作業台上に形成される場
合も考えられる。
On the other hand, for example, when the arbitrary pattern is constituted by an irregular arrangement of the plurality of feature parts,
Since the above-described coding method is not used, the code of each feature on the reference captured image is determined based on a vector connecting the plurality of features in order from the recognition mark on the reference captured image. This can be dealt with by attaching the reference mark image in common with the reference picked-up image in accordance with the vector starting from the recognition mark on the picked-up image at the time of the moving work. In the reference position data acquiring means and the moving work position data acquiring means,
By matching a predetermined template image with the plurality of feature parts and the image of the recognition mark, the plurality of feature parts and the recognition mark are recognized, and position data on each of the captured images is acquired. Thus, highly accurate position data can be obtained. At this time, when a plurality of feature parts constituting the arbitrary pattern are formed in the same circle, respectively, the template image and the individual images are used by using a single image of the circular feature part as the predetermined template image. Regardless of the deviation of the attitude angle from the captured image, the matching processing can be performed at high speed and with a small memory usage. In the reference position data acquiring means and the moving work position data acquiring means, a portion having a predetermined shape characteristic amount is determined from a binarized image obtained by binarizing each captured image with a predetermined threshold value. If the plurality of feature parts and the recognition marks are recognized by extraction and the position data on each of the captured images is acquired, the processing speed can be increased although the accuracy is not as good as the matching processing. It is possible. In addition, if one or more of the features constituting the arbitrary pattern can be specified as the recognition mark, the processing by the coding means can be performed with reference to the features. Becomes
Note that the arbitrary pattern and the predetermined recognition mark are not necessarily formed on the floor, but may be formed on a plane on which the moving body moves, for example, on a work table.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態に係る停止位置ズレ量検
出装置を搭載する無人搬送車A1の概略構成を示す模式
図。
FIG. 1 is a schematic diagram showing a schematic configuration of an automatic guided vehicle A1 equipped with a stop position deviation amount detection device according to an embodiment of the present invention.

【図2】 上記停止位置ズレ量検出装置による処理手順
を示すフローチャート。
FIG. 2 is a flowchart showing a processing procedure by the stop position shift amount detecting device.

【図3】 教示時の撮像画像,及び符号付けの一例を示
す図。
FIG. 3 is a diagram showing an example of a captured image at the time of teaching and an example of coding;

【図4】 テンプレートマッチング処理に用いるテンプ
レート画像を示す図。
FIG. 4 is a view showing a template image used for template matching processing.

【図5】 形状特徴量の一例を示す図。FIG. 5 is a diagram illustrating an example of a shape feature amount.

【図6】 作業時の撮像画像,及び符号付けの一例を示
す図。
FIG. 6 is a view showing an example of a picked-up image and a sign at the time of work.

【図7】 対応付けられたパンチング孔の位置データの
一例を示す図。
FIG. 7 is a diagram illustrating an example of position data of an associated punching hole.

【図8】 実施例2に係るステップS5の処理手順を示
すフローチャート。
FIG. 8 is a flowchart illustrating a processing procedure of step S5 according to the second embodiment.

【図9】 実施例3に係るパンチング孔の配列に規則性
がない場合の対応付け処理の説明図。
FIG. 9 is an explanatory diagram of an associating process when the arrangement of punching holes according to the third embodiment is not regular;

【図10】 実施例4に係る特定のパンチング孔を認識
マークとして用いる場合の説明図。
FIG. 10 is an explanatory diagram when a specific punching hole according to the fourth embodiment is used as a recognition mark.

【図11】 従来例に係る停止補正装置を搭載する無人
搬送車A0の概略構成を示す模式図。
FIG. 11 is a schematic diagram showing a schematic configuration of an automatic guided vehicle A0 equipped with a stop correction device according to a conventional example.

【図12】 上記従来の停止補正装置による処理手順を
示すフローチャート。
FIG. 12 is a flowchart showing a processing procedure by the conventional stop correction device.

【図13】 上記従来の停止補正装置による教示時の位
置情報(位置座標(X 0 ,Y0 ),回転角θ0 )の算出
方法の一例を示す説明図。
FIG. 13 shows a position at the time of teaching by the conventional stop correction device.
Location information (position coordinates (X 0, Y0), Rotation angle θ0) Calculation
Explanatory drawing which shows an example of a method.

【図14】 上記従来の停止補正装置による作業時の位
置情報(位置座標(X 1 ,Y1 ),回転角θ1 )の算出
方法の一例を示す説明図。
FIG. 14 shows a position at the time of work by the conventional stop correction device.
Location information (position coordinates (X 1, Y1), Rotation angle θ1) Calculation
Explanatory drawing which shows an example of a method.

【図15】 従来例に係るテンプテートマッチング処理
の説明図。
FIG. 15 is an explanatory diagram of a template matching process according to a conventional example.

【符号の説明】[Explanation of symbols]

1…無人搬送車(移動体の一例) 2…アーム 3…ハンド 4…撮像部 5…リング状照明装置 6…画像処理部(基準位置データ取得手段,移動作業時
位置データ取得手段,及び符号付け手段に相当) 7…記憶部 8…教示データ補正部(対応付け手段,及びズレ算出手
段に相当) 9…床面(パンチング床) 10…認識マーク 11…パンチング孔(所定の形態部)
DESCRIPTION OF SYMBOLS 1 ... Automatic guided vehicle (an example of a moving body) 2 ... Arm 3 ... Hand 4 ... Imaging part 5 ... Ring-shaped illumination device 6 ... Image processing part (reference position data acquisition means, position data acquisition means during moving work, and numbering 7 ... Storage unit 8 ... Teaching data correction unit (corresponding to associating unit and deviation calculating unit) 9 ... Floor surface (punching floor) 10 ... Recognition mark 11 ... Punching hole (predetermined form part)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三浦 幸二 愛知県豊橋市三弥町字元屋敷150番地 神 鋼電機株式会社豊橋事業所内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Koji Miura 150 Motoyashiki, Miyamachi, Toyohashi-shi, Aichi Prefecture Shinko Electric Co., Ltd. Toyohashi Office

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 任意のパターンと所定の認識マークとが
形成された床面上を移動する移動体を所定位置に停止さ
せて上記床面の画像を撮像した移動作業時撮像画像と,
予め上記移動体を所定の基準停止位置に停止させて上記
床面の画像を撮像した基準撮像画像とのズレを,それぞ
れの撮像画像上の上記任意のパターンの上記認識マーク
を基準とした比較により求め,上記ズレに基づいて上記
移動体の停止位置のズレ量を検出する移動体の停止位置
ズレ量検出装置において,上記基準撮像画像から,上記
任意のパターンを構成する複数の形態部と上記認識マー
クとの上記基準撮像画像上での位置データを取得する基
準位置データ取得手段と,上記移動作業時撮像画像か
ら,上記複数の形態部と上記認識マークとの上記移動作
業時撮像画像上での位置データを取得する移動作業時位
置データ取得手段と,上記複数の形態部に,上記各撮像
画像上でそれぞれ上記認識マークを基準とした共通の符
号付けを行う符号付け手段と,上記符号付け手段で得ら
れた上記複数の形態部の符号に基づいて,上記各撮像画
像間での上記複数の形態部の1対1の対応付けを行う対
応付け手段と,上記対応付け手段で対応付けされた上記
複数の形態部の各組について,上記基準位置データ取得
手段及び上記移動作業時位置データ取得手段により得ら
れた位置データの差を求め,上記各組における上記位置
データの差に基づいて上記各撮像画像間のズレを求める
ズレ算出手段とを具備してなることを特徴とする移動体
の停止位置ズレ量検出装置。
1. A moving work captured image obtained by stopping a moving body moving on a floor on which an arbitrary pattern and a predetermined recognition mark are formed at a predetermined position and capturing an image of the floor,
The deviation from a reference captured image obtained by capturing the image of the floor surface by previously stopping the moving body at a predetermined reference stop position is determined by comparing the discrimination mark of the arbitrary pattern on each captured image with reference to the recognition mark. A moving body stop position displacement amount detecting device for detecting the displacement amount of the moving body stop position based on the displacement and obtaining a plurality of feature parts constituting the arbitrary pattern from the reference captured image; A reference position data acquiring means for acquiring position data of the mark on the reference captured image; and a moving of the plurality of feature parts and the recognition mark on the captured image of the moving work from the captured image of the moving work. Moving work position data obtaining means for obtaining position data; and a code for performing a common code on each of the plurality of form parts based on the recognition mark on each of the captured images. Means for performing a one-to-one correspondence of the plurality of feature parts between the respective captured images based on codes of the plurality of feature parts obtained by the signing means; The difference between the position data obtained by the reference position data obtaining means and the position data obtaining means at the time of moving work is determined for each set of the plurality of form parts associated by the attaching means, and the position data in each set is obtained. And a displacement calculating means for calculating a displacement between the captured images based on the difference between the stop positions.
【請求項2】 上記基準位置データ取得手段及び上記移
動作業時位置データ取得手段で得られた上記形態部の位
置データから所定数の位置データを選択し,該選択され
た位置データに対応する形態部のみについて上記対応付
け手段による対応付けを行う請求項1記載の移動体の停
止位置ズレ量検出装置。
2. A method according to claim 1, wherein a predetermined number of position data are selected from the position data of said form part obtained by said reference position data obtaining means and said moving work position data obtaining means, and a form corresponding to the selected position data is selected. 2. The moving-body stop position deviation amount detecting device according to claim 1, wherein the association is performed by the associating means only for the units.
【請求項3】 上記移動作業時位置データ取得手段が,
上記複数の形態部の概略の位置データを取得する概略位
置データ取得手段と,上記概略位置データ取得手段で取
得された概略位置データの中から所定数の位置データを
選択する概略位置データ選択手段と,上記概略位置デー
タ選択手段で選択された概略位置データに対応する上記
形態部についての詳細な位置データを取得する詳細位置
データ取得手段とを具備してなる請求項1記載の移動体
の停止位置ズレ量検出装置。
3. The moving work position data acquiring means,
A rough position data obtaining means for obtaining rough position data of the plurality of form parts, a rough position data selecting means for selecting a predetermined number of position data from the rough position data obtained by the rough position data obtaining means; 2. The stop position of a moving body according to claim 1, further comprising: detailed position data acquisition means for acquiring detailed position data on the form part corresponding to the approximate position data selected by the approximate position data selection means. Deviation detector.
【請求項4】 上記任意のパターンが,上記複数の形態
部の規則的な配列により構成され,上記符号付け手段
が,上記各撮像画像上での上記認識マークを基準とし
て,上記複数の形態部の上記配列の規則性に基づく符号
付けを行う請求項1〜3のいずれかに記載の移動体の停
止位置ズレ量検出装置。
4. The method according to claim 1, wherein the arbitrary pattern is constituted by a regular array of the plurality of feature parts, and the coding means is configured to determine the plurality of feature parts based on the recognition mark on each of the captured images. The moving-body stop position displacement amount detecting device according to any one of claims 1 to 3, wherein coding is performed based on the regularity of the array.
【請求項5】 上記符号付け手段が,上記基準撮像画像
上で上記認識マークを起点として上記複数の形態部を順
に結んだベクトルに基づいて上記基準撮像画像上での各
形態部の符号付けを行い,上記移動作業時撮像画像上で
上記認識マークを起点として上記ベクトルに従って上記
基準撮像画像と共通の符号付けを行う請求項1〜3のい
ずれかに記載の移動体の停止位置ズレ量検出装置。
5. The coding means for coding each feature on the reference captured image based on a vector connecting the plurality of features in sequence starting from the recognition mark on the reference captured image. The moving object stop position shift amount detecting device according to any one of claims 1 to 3, wherein the moving object is subjected to common signing with the reference picked-up image in accordance with the vector starting from the recognition mark on the picked-up image during the moving operation. .
【請求項6】 上記基準位置データ取得手段及び上記移
動作業時位置データ取得手段において,所定のテンプレ
ート画像と上記複数の形態部及び上記認識マークの画像
とのマッチング処理により上記複数の形態部及び上記認
識マークを認識し,上記各撮像画像上での位置データを
取得する請求項1〜5のいずれかに記載の移動体の停止
位置ズレ量検出装置。
6. The reference position data acquiring means and the moving work position data acquiring means, by performing a matching process between a predetermined template image and the plurality of feature parts and the image of the recognition mark. 6. The moving-body stop position displacement amount detection device according to claim 1, wherein the recognition mark is recognized, and position data on each of the captured images is acquired.
【請求項7】 上記任意のパターンを構成する複数の形
態部がそれぞれ同一の円形に形成され,上記所定のテン
プレート画像として,上記円形形態部の単体の画像を用
いる請求項6記載の移動体の停止位置ズレ量検出装置。
7. The moving body according to claim 6, wherein the plurality of feature parts constituting the arbitrary pattern are each formed in the same circle, and a single image of the circular feature part is used as the predetermined template image. Stop position shift amount detection device.
【請求項8】 上記基準位置データ取得手段及び上記移
動作業時位置データ取得手段において,各撮像画像を所
定の閾値で2値化した2値化画像から,予め設定してお
いた形状特徴量を持つ部分を抽出することにより上記複
数の形態部及び上記認識マークを認識し,上記各撮像画
像上での位置データを取得する請求項1〜7のいずれか
に記載の移動体の停止位置ズレ量検出装置。
8. A method according to claim 1, wherein said reference position data obtaining means and said moving work position data obtaining means use a binarized image obtained by binarizing each of the captured images with a predetermined threshold value to obtain a predetermined shape characteristic amount. The stop position shift amount of the moving object according to any one of claims 1 to 7, wherein the plurality of form parts and the recognition mark are recognized by extracting a part having the stop position, and position data on each of the captured images is acquired. Detection device.
【請求項9】 上記任意のパターンを構成する上記形態
部のうち,上記認識マークとして特定可能な1又は2以
上の形態部を基準として,上記符号付け手段による処理
を行う請求項1〜8のいずれかに記載の移動体の停止位
置ズレ量検出装置。
9. The processing according to claim 1, wherein the encoding unit performs processing based on one or more of the form parts that can be specified as the recognition mark among the form parts constituting the arbitrary pattern. The moving position stop amount detecting device for a moving body according to any one of the above.
【請求項10】 任意のパターンと所定の認識マークと
が形成された所定の平面上を移動する移動体を所定位置
に停止させて上記平面の画像を撮像した移動作業時撮像
画像と,予め上記移動体を所定の基準停止位置に停止さ
せて上記平面の画像を撮像した基準撮像画像とのズレ
を,それぞれの撮像画像上の上記任意のパターンの上記
認識マークを基準とした比較により求め,上記ズレに基
づいて上記移動体の停止位置のズレ量を検出する移動体
の停止位置ズレ量検出装置において,上記基準撮像画像
から,上記任意のパターンを構成する複数の形態部と上
記認識マークとの上記基準撮像画像上での位置データを
取得する基準位置データ取得手段と,上記移動作業時撮
像画像から,上記複数の形態部と上記認識マークとの上
記移動作業時撮像画像上での位置データを取得する移動
作業時位置データ取得手段と,上記複数の形態部に,上
記各撮像画像上でそれぞれ上記認識マークを基準とした
共通の符号付けを行う符号付け手段と,上記符号付け手
段で得られた上記複数の形態部の符号に基づいて,上記
各撮像画像間での上記複数の形態部の1対1の対応付け
を行う対応付け手段と,上記対応付け手段で対応付けさ
れた上記複数の形態部の各組について,上記基準位置デ
ータ取得手段及び上記移動作業時位置データ取得手段に
より得られた位置データの差を求め,上記各組における
上記位置データの差に基づいて上記各撮像画像間のズレ
を求めるズレ算出手段とを具備してなることを特徴とす
る移動体の停止位置ズレ量検出装置。
10. A moving work captured image obtained by stopping a moving body moving on a predetermined plane on which an arbitrary pattern and a predetermined recognition mark are formed at a predetermined position and capturing an image of the plane, A deviation from a reference captured image obtained by stopping the moving body at a predetermined reference stop position and capturing the image of the plane is determined by comparison with the recognition mark of the arbitrary pattern on each captured image as a reference. In the moving body stop position shift amount detecting device that detects the shift amount of the stop position of the moving body based on the shift, a plurality of feature parts constituting the arbitrary pattern and the recognition mark are determined from the reference captured image. Reference position data acquisition means for acquiring position data on the reference captured image, and the moving image of the plurality of features and the recognition mark from the moving image. Moving work position data obtaining means for obtaining the position data above, coding means for performing common coding on each of the plurality of forms based on the recognition mark on each of the captured images, An associating means for performing one-to-one correspondence of the plurality of feature parts between the respective captured images based on the codes of the plurality of feature parts obtained by the encoding means; For each set of the plurality of attached feature parts, a difference between the position data obtained by the reference position data obtaining means and the position data obtaining means during moving work is obtained, and based on the difference between the position data in each set. And a shift calculating means for calculating a shift between the captured images.
JP33853097A 1997-04-21 1997-12-09 Device for detecting displacement amount of stop position of moving object Expired - Fee Related JP3684799B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP33853097A JP3684799B2 (en) 1997-12-09 1997-12-09 Device for detecting displacement amount of stop position of moving object
TW087102590A TW413743B (en) 1997-12-09 1998-02-24 Apparatus for detecting the deviation of stopping position of a moving body
KR1019980012716A KR100557202B1 (en) 1997-12-09 1998-04-10 The device for detecting variation about a stop position of moving matter
US09/063,409 US6041274A (en) 1997-04-21 1998-04-21 Positional deviation detecting device for a mobile body and position correcting apparatus for a working machine mounted on a mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33853097A JP3684799B2 (en) 1997-12-09 1997-12-09 Device for detecting displacement amount of stop position of moving object

Publications (2)

Publication Number Publication Date
JPH11175150A true JPH11175150A (en) 1999-07-02
JP3684799B2 JP3684799B2 (en) 2005-08-17

Family

ID=18319043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33853097A Expired - Fee Related JP3684799B2 (en) 1997-04-21 1997-12-09 Device for detecting displacement amount of stop position of moving object

Country Status (3)

Country Link
JP (1) JP3684799B2 (en)
KR (1) KR100557202B1 (en)
TW (1) TW413743B (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175147A (en) * 1997-12-09 1999-07-02 Shinko Electric Co Ltd Positioning device for moving body
JP2001134318A (en) * 1999-11-05 2001-05-18 Murata Mach Ltd Unmanned carrier system
JP2006154937A (en) * 2004-11-25 2006-06-15 Olympus Corp Image information processor, determination method and computer program
JP2010101807A (en) * 2008-10-24 2010-05-06 Shimizu Corp Movable body position detection system
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
JP2013093738A (en) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> Moving distance measuring device and photographing camera
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
JP2018534691A (en) * 2015-10-22 2018-11-22 グレイ オレンジ ピーティーイー. リミテッド Automatic machine fault diagnosis and recovery
US10549427B1 (en) 2018-08-31 2020-02-04 Kawasaki Jukogyo Kabushiki Kaisha Substrate transfer robot

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0161031B1 (en) * 1993-09-09 1998-12-15 김광호 Position error correction device of robot
KR0176540B1 (en) * 1995-10-26 1999-04-01 윤종용 Position correction device of mobile robot

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175147A (en) * 1997-12-09 1999-07-02 Shinko Electric Co Ltd Positioning device for moving body
JP2001134318A (en) * 1999-11-05 2001-05-18 Murata Mach Ltd Unmanned carrier system
JP2006154937A (en) * 2004-11-25 2006-06-15 Olympus Corp Image information processor, determination method and computer program
JP2010101807A (en) * 2008-10-24 2010-05-06 Shimizu Corp Movable body position detection system
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
JP2013093738A (en) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> Moving distance measuring device and photographing camera
JP2018534691A (en) * 2015-10-22 2018-11-22 グレイ オレンジ ピーティーイー. リミテッド Automatic machine fault diagnosis and recovery
JP2018058142A (en) * 2016-10-04 2018-04-12 ファナック株式会社 Robot system equipped with robot supported by movable truck
US10500731B2 (en) 2016-10-04 2019-12-10 Fanuc Corporation Robot system including robot supported by movable carriage
US10549427B1 (en) 2018-08-31 2020-02-04 Kawasaki Jukogyo Kabushiki Kaisha Substrate transfer robot

Also Published As

Publication number Publication date
TW413743B (en) 2000-12-01
JP3684799B2 (en) 2005-08-17
KR100557202B1 (en) 2006-04-21
KR19990062392A (en) 1999-07-26

Similar Documents

Publication Publication Date Title
US6041274A (en) Positional deviation detecting device for a mobile body and position correcting apparatus for a working machine mounted on a mobile body
CN110497187B (en) Sun flower pattern assembly system based on visual guidance
CN101117043B (en) Silk screen printing device
US5825913A (en) System for finding the orientation of a wafer
CN110163912B (en) Two-dimensional code pose calibration method, device and system
CN107390679B (en) Storage device and laser navigation forklift
US20200118853A1 (en) Transport system and transport method
KR102056656B1 (en) Die pickup device
CN110076029A (en) Glue spraying control method, system, computer equipment and computer storage medium
JP3684799B2 (en) Device for detecting displacement amount of stop position of moving object
JPH10291179A (en) Device and method for positional correction of working device
Xu et al. Industrial robot base assembly based on improved Hough transform of circle detection algorithm
CN106276285B (en) Group material buttress position automatic testing method
JPH11231933A (en) Device for detecting deviation of stop position of mobile object and unmanned carrier
JP2010161243A (en) Component recognition device and component transfer device
JP4566686B2 (en) Method and apparatus for determining shape of object
JPH073990U (en) Mobile robot
JP2562047B2 (en) Position and orientation recognition method of target object
JP3870526B2 (en) Device for detecting displacement amount of stop position of moving body
JP6579142B2 (en) Coil yard storage management method
TW201923498A (en) Control method of self-propelled equipment achieving the aim of improving the location precision of the self-propelled equipment by utilizing an optical tracing technology
JP6026365B2 (en) Image recognition method
JP2013010157A (en) Robot control system, robot system, and marker processing method
KR102149280B1 (en) Apparatus for synchronizing reference coordinates
KR100709107B1 (en) A method for setting zero point for motion control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120610

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120610

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees