JPH01243104A - Mark identifying device in image pickup means - Google Patents

Mark identifying device in image pickup means

Info

Publication number
JPH01243104A
JPH01243104A JP63070806A JP7080688A JPH01243104A JP H01243104 A JPH01243104 A JP H01243104A JP 63070806 A JP63070806 A JP 63070806A JP 7080688 A JP7080688 A JP 7080688A JP H01243104 A JPH01243104 A JP H01243104A
Authority
JP
Japan
Prior art keywords
mark
unmanned vehicle
signal
black
marks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63070806A
Other languages
Japanese (ja)
Inventor
Kikuo Hori
堀 喜久雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP63070806A priority Critical patent/JPH01243104A/en
Publication of JPH01243104A publication Critical patent/JPH01243104A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To obtain the degree of a freedom to immediately deal even with a layout change time by identifying a mark with an image pickup means on an unmanned vehicle, causing the unmanned vehicle to always recognize the present position of its own, and simultaneously, causing it to travel. CONSTITUTION:An unmanned vehicle 1 is travelable and steerable, a CCD camera 3 which is the image pickup means is mounted on a vehicle base, and further, marks 5 to be identifiable, respectively, are arrange-stuck on a ceiling surface 4 in prescribed positions. The unmanned vehicle 1 image-picks up the ceiling 4 by the CCD camera 3, detects and identifies the marks 5, and thereby, it recognizes the present position and proceeding direction of its own. Thus, it is sufficient that only the data of coordinates given to the unmanned vehicle 1 are changed at the time of changing a traveling route, and other changes of a hardware can be made unnecessary.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は撮像手段におけるマーク識別装置に関し、より
詳しくは上記撮像手段の画像情報に基づいて無人走行車
を誘導する装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a mark identification device in an imaging means, and more particularly to a device for guiding an unmanned vehicle based on image information of the imaging means.

〔発明の背景〕[Background of the invention]

上記無人走行車(以下、単に無人車という)の誘導方式
としては、走行経過に電磁誘導線や光学テープ等の誘導
線を床面に敷設し、無人車に設置した誘導検出手段が上
記誘導線の位置を検出し該誘導線に追従して走行するよ
うに無人車の操舵を制御する方式、いわゆる無人車の固
定経路誘導方式が現在、多く実用化されている。
The guidance method of the above-mentioned unmanned vehicle (hereinafter simply referred to as unmanned vehicle) is to lay a guidance wire such as an electromagnetic induction wire or optical tape on the floor during the course of the vehicle, and to detect the guidance by detecting the guidance installed on the unmanned vehicle. Many fixed-route guidance systems for unmanned vehicles, which detect the position of unmanned vehicles and control the steering of the unmanned vehicles so that they follow the guide line, are currently in practical use.

しかし、上記固定経路誘導方式は、走行コースが恒久的
に設定されているため、該走行コースの変更の自由度が
無いという欠点がある。さらに、電磁誘導線を用いた方
法においては、該誘導線の埋設工事に多大の時間と手間
を要するという問題点を有し、光学テープを用いた方法
においては、人の往来等により該テープが汚れたり、破
損したりすることにより誘導ミスが発生するという問題
点を有していた。
However, the fixed route guidance method has a disadvantage in that there is no flexibility in changing the driving course because the driving course is permanently set. Furthermore, the method using electromagnetic induction wires has the problem of requiring a great deal of time and effort to bury the guide wires, and the method using optical tape has the problem that the tape may be damaged due to foot traffic, etc. There is a problem in that guidance errors occur due to dirt or damage.

そこで、上記問題点を解決するために、上記固定経路誘
導方式以外の新しい誘導方式が現在数種考えられている
。その新しい誘導方式の一つに、画像情報に基づいて無
人車を誘導するものがある。近年の画像処理技術および
マイクロコンピュータの性能の急速な向上、および該マ
イクロコンピュータやメモリやA−D/D−A変換器な
どの部品の価格の大幅な低下により、無人車に小型で安
価な画像処理システムを搭載することが可能となり、次
世代の誘導方法として注目されている。
Therefore, in order to solve the above problems, several new guidance methods other than the fixed route guidance method are currently being considered. One of the new guidance methods is one that guides unmanned vehicles based on image information. Rapid improvements in the performance of image processing technology and microcomputers in recent years, as well as significant reductions in the prices of components such as microcomputers, memory, and A-D/D-A converters, have led to the use of small and inexpensive images in unmanned vehicles. It has become possible to incorporate a processing system and is attracting attention as a next-generation guidance method.

上記画像情報に基づいて無人車を誘導する方法(以下、
単に画像誘導方法という)として、例えば実開昭60−
144106 号公報に記載される技術、すなわち走行
路の真上でかつ走行路に沿って撮像装置を配置し、該撮
像装置により無人車の視覚認識を行い、無人車の走行状
態量を検知し、無線の通信装置を介してその検出結果を
無人車の操舵及び走行装置に伝達するようにして無人車
を誘導する技術が知られている。
A method for guiding an unmanned vehicle based on the above image information (hereinafter,
For example, as an image guidance method (simply referred to as an image guidance method),
The technology described in Publication No. 144106, that is, an imaging device is placed directly above and along the driving path, the imaging device performs visual recognition of the unmanned vehicle, and detects the amount of driving state of the unmanned vehicle. 2. Description of the Related Art There is a known technique for guiding an unmanned vehicle by transmitting the detection result to the steering and traveling device of the unmanned vehicle via a wireless communication device.

ところが、上記従来例の技術では、無人車の自由度があ
る程度の制限を受けることになっていた。すなわち、安
価になったと言っても依然ある程度高価な撮像装置(そ
れに付属する演算装置や通信装置を含め)を無人車導入
の建屋内全域に設定することは経済的に困難であること
から、当然上記のように走行路に沿って配置せざるを得
ないことになる。したがって、走行路や建屋内のレイア
ウト変更時には、新たな走行路上に上記撮像装置を設置
し直さなければならない、という問題が生じることにな
る。さらに、上記従来例の基本的な問題点は、無人車が
自らの「目」で見て自分の位置を知るのではなくて、地
上側の他者の「目」により見て判断された内容を教わる
ことにより自分の位置を知ることにある。
However, in the conventional technology described above, the degree of freedom of the unmanned vehicle is limited to some extent. In other words, even though the price has become cheaper, it is still economically difficult to install somewhat expensive imaging equipment (including its attached computing equipment and communication equipment) throughout the building where unmanned vehicles are installed. As mentioned above, they have no choice but to be placed along the travel route. Therefore, when changing the layout of a driving route or a building, a problem arises in that the imaging device has to be reinstalled on the new driving path. Furthermore, the basic problem with the above conventional example is that the unmanned vehicle does not know its own position by seeing it with its own eyes, but rather with the eyes of others on the ground. The purpose is to know one's own position by being taught.

これからのよりインテリジェント化された無入車におい
て、自分の「目」で見て判断することが必然的に要求さ
れることになる。すなわち、地上側からただ単に「左行
」 「直進」「停止」等の指令を受は取って走行するの
ではなく、自らの現在位置が建屋全体あるいは予定走行
経路におけるどの位置にあり、自らの目的地と該現在位
置とを照し合わせることにより自らを誘導することによ
り、上記インテリジェント化により近づくこととなり、
各無人車が独自性を有すようになる。
In the future, more intelligent non-vehicle vehicles will inevitably be required to see and make judgments with their own eyes. In other words, rather than simply receiving commands such as "go left,""gostraight," and "stop" from the ground side, the user does not simply receive commands such as "go left,""gostraight," or "stop." By guiding itself by comparing the destination with the current location, it will become closer to the above-mentioned intelligent system,
Each driverless vehicle will be unique.

そこで、各無人車に撮像装置を持たせて無人車が自ら「
見る」ようにした技術が次段階の誘導方法として開発さ
れている。例えば、予め記憶手段に無人車の位置情報に
基づいて構成物の配置、形状に関するデータを予想パタ
ーンとして入力しておき、走行中の無人車上の撮像装置
から送られてくる実画像と上記予想パターンとを比較し
て、その差が減少するように無人車を誘導するという技
術が知られている。
Therefore, by equipping each unmanned vehicle with an imaging device, the unmanned vehicle can
A technology that allows humans to "see" is being developed as a next-level guidance method. For example, data regarding the arrangement and shape of components may be input into the storage means in advance as a predicted pattern based on the position information of the unmanned vehicle, and the actual image sent from the imaging device on the moving unmanned vehicle and the predicted pattern There is a known technique for guiding an unmanned vehicle in such a way as to reduce the difference between the two patterns.

ところが、上記のような画像誘導方法において、上記予
想パターンを記憶するための容量が多大になるとか、該
予想パターンと実画像との比較、処理等に時間がかかる
とか、構成物のレイアウト変更や無人車の進路変更の度
毎に上記予想パターンを人力し直す必要があるという問
題点が指摘されている。
However, in the image guidance method described above, the storage capacity for storing the predicted pattern is large, the comparison and processing of the predicted pattern with the actual image takes time, and it is difficult to change the layout of the composition. It has been pointed out that there is a problem in that the above-mentioned predicted pattern needs to be re-written manually every time the unmanned vehicle changes course.

さて、上記のような従来技術の流れにおいて、本願の目
的とするところは、より自由度の高い画像誘導装置を提
案することにより、無人車のインテリジェント化を押し
進めることにあり、そのための撮像手段におけるマーク
識別装置を提案することである。
Now, in the flow of the prior art as described above, the purpose of the present application is to push forward the intelligentization of unmanned vehicles by proposing an image guidance device with a higher degree of freedom, and to do so in the imaging means. The purpose of this invention is to propose a mark identification device.

〔課題を解決するための手段〕[Means to solve the problem]

この発明は、 (1)マーク撮像画像における各画素の2値化信号を予
め入力している格子状のテンプレートと、 (11)上記テンプレートと、実際に撮像した画像の各
画素の2値化信号との一致を判定する手段と、 (iii )上記判定手段から出力される一致信号を集
計する手段と、 (IV)上記集計手段から出力される値と所定値とを比
較し、該所定値を超えたものを当該マークであると識別
する手段とを設けたものである。
The present invention provides: (1) a grid-like template into which the binary signal of each pixel in the mark captured image is input in advance; (11) the template and the binary signal of each pixel in the actually captured image; (iii) means for aggregating the coincidence signals output from the aggregation means; (IV) comparing the value output from the aggregation means with a predetermined value, and determining the predetermined value. This mark is provided with a means for identifying items that exceed the mark as the mark.

〔実施例〕〔Example〕

第1図には本発明に係る画像誘導方式により運行してい
る無人車(1〉の建屋(2)内での概略を模式的に示し
ている。本発明に係る無人車(1)は公知の技術により
走行、操舵等が可能であり、機台上には撮像手段である
CCDカメラ(3)が搭載されている。さらに、天井面
(4)には所定位置に各々が識別可能なマーク(5)が
配置貼付されている。
FIG. 1 schematically shows an outline of an unmanned vehicle (1) in a building (2) that is operated by the image guidance system according to the present invention.The unmanned vehicle (1) according to the present invention is known It is possible to run, steer, etc. using this technology, and a CCD camera (3) as an imaging means is mounted on the base.Furthermore, there are distinguishable marks at predetermined positions on the ceiling surface (4). (5) is placed and pasted.

無人車(1)は上記CCDカメラ(3)(以下、単にカ
メラと称す)により天井(4)を撮像し、マーク(5)
を検出し識別することにより、自らの現在位置と進行方
向を認識している。
The unmanned vehicle (1) images the ceiling (4) with the CCD camera (3) (hereinafter simply referred to as the camera) and marks (5).
By detecting and identifying information, it recognizes its current location and direction of travel.

第2図の模式図に従えば、上記カメラ(3)はレンズ(
6)及びスクリーン(7)とより成り、該スクリーン(
7)は多くのCCD素子列により構成されている。上記
レンズ(6)中心とスクリーン(7)中心とは鉛直線方
向において同一位置にあり、該スクリーン(7)上の中
心を原点としてスクリーン(7)内に座標系(x、 y
)が設定されている。X軸は無人車(1)の縦中心線と
一致し、y軸と無人車(1)の横中心線(S)とは距離
(L)を有している。さらに、各マーク (5)にはそ
れぞれ天井面内での工場座標系(X、 Y)が設定され
ている。なお、上記レンズ(6)とスクリーン(7)間
は距離(D)の隔たりがあり、レンズ(6)と天井面(
4)間は距離(H)の隔たりがあるものとする。次に、
以上のような構成により無人車の現在位置及び進行方向
を測定する考え方を示すことにする。なお、上記マーク
 く5)および該マークの画像処理等の説明は後述する
こととする。
According to the schematic diagram in Figure 2, the camera (3) has a lens (
6) and a screen (7), the screen (
7) is composed of many CCD element rows. The center of the lens (6) and the center of the screen (7) are at the same position in the vertical direction, and a coordinate system (x, y) is created within the screen (7) with the center on the screen (7) as the origin.
) is set. The X-axis coincides with the vertical center line of the unmanned vehicle (1), and there is a distance (L) between the y-axis and the horizontal center line (S) of the unmanned vehicle (1). Furthermore, each mark (5) has a factory coordinate system (X, Y) set within the ceiling surface. Note that there is a distance (D) between the lens (6) and the screen (7), and there is a distance (D) between the lens (6) and the ceiling surface (
4) It is assumed that there is a distance (H) between them. next,
The concept of measuring the current position and traveling direction of an unmanned vehicle using the above configuration will be described. Note that the above mark 5) and the image processing of the mark will be described later.

A)2マーク認識による無人車の現在位置及び進行方向
の認識についての考え方; 基本的な考え方は、スクリーン(7)上の座標(x、 
y)をまず、該座標(x、 y)をそのまま天井面に平
行移動したカメラ座標(X″。
A) Concept of recognizing the current position and direction of movement of an unmanned vehicle using 2-mark recognition; The basic concept is to recognize the coordinates (x,
First, camera coordinates (X'') are obtained by translating the coordinates (x, y) directly to the ceiling surface.

y’)に変換し、さらに該カメラ座標(×′。y') and further the camera coordinates (x'.

y’)と天井面の工場座標(x、 y)とを比較するこ
とにより、現在位置及び進行方向の認識を行う。以下、
より詳細に説明するけれども、その前にこの考え方の前
提条件を列記しておく。(i)カメラ(3)は天井面(
4)に垂直に向けられている。(ii)マーク(5)は
多種類作成し、カメラ(3)の視野長の半分程度の距離
間隔で設置して常にカメラ(3)のスクリーン(7)内
に少なくとも2個のマークが撮像されることとする。(
iii)3個以上のマークを撮像した場合には任意の2
個を採用し他は無視する。(iv)カメラ(3)と天井
面(4)との距離は既知で一定とする。バラツキがある
場合は各マークの床面からの高さも分つているものとす
る。
y') and the factory coordinates (x, y) on the ceiling surface, the current position and direction of travel are recognized. below,
I will explain this in more detail, but first I will list the prerequisites for this idea. (i) Camera (3) is mounted on the ceiling (
4) is oriented vertically. (ii) Create multiple types of marks (5) and place them at intervals of about half the field of view of the camera (3) so that at least two marks are always imaged within the screen (7) of the camera (3). I will do so. (
iii) If 3 or more marks are imaged, select any 2 marks.
Adopt the individual and ignore the others. (iv) It is assumed that the distance between the camera (3) and the ceiling surface (4) is known and constant. If there is variation, it is assumed that the height of each mark from the floor is also different.

さて、今スクリーン上のマークA″、B”の座標をそれ
ぞれ、(xa、 ya)、 (xb、 yb)  とし
、光学系の歪補正関数EX、 6yとすると、前記カメ
ラ座標(X”、yo)におけるマークA、  Bの座標
(xa、 ya)、 (Xb、 yb)  は、と表せ
る。
Now, if the coordinates of marks A'' and B'' on the screen are (xa, ya) and (xb, yb), respectively, and the distortion correction functions EX and 6y of the optical system, then the camera coordinates (X'', yo The coordinates (xa, ya) and (Xb, yb) of marks A and B at ) can be expressed as follows.

一方、マークA、Bの工場座標系における座標は、 ?−りA(Xa、Yb)  、  ?−りB(Xb、Y
b)   〔n)であることが予め分っている。
On the other hand, the coordinates of marks A and B in the factory coordinate system are ? -riA (Xa, Yb), ? -riB (Xb, Y
b) [n) is known in advance.

前記カメラ座標(X’ 、 y’ )  の原点Pの工
場座標をp (xo、 yo)  とすると、座標変換
の関係式は、 であり、該[III)式に上記〔13式、(II)式の
座標値を代入すると、P (XO,yo)  及びθが
求められる。これに、カメラ中心と無人車機体中心との
距離(L)を考慮すれば工場座標系における無人車の位
置座標及び無人車の中心からカメラの取付は中心の方向
が工場座標系のX軸から左回転に何度傾いているかが求
められる。
When the factory coordinates of the origin P of the camera coordinates (X', y') are p (xo, yo), the relational expression for coordinate transformation is as follows, and the equation [III) is replaced with the above [Equation 13, (II)]. By substituting the coordinate values in the equation, P (XO, yo) and θ are obtained. In addition, considering the distance (L) between the center of the camera and the center of the unmanned vehicle body, the position coordinates of the unmanned vehicle in the factory coordinate system and the mounting direction of the camera from the center of the unmanned vehicle are such that the direction of the center is from the X axis of the factory coordinate system. The number of degrees to which the vehicle is tilted to the left is determined.

B)1マーク認識による無人車の現在位置及び進行方向
の認識についての考え方; 1つのマークにより該マークがどのマークであるかとい
う情報の認識と、該マークの設置基準方向に対し無人車
の進行方向が何度傾いているかという情報の認識がなさ
れるのなら(詳細は後述する)、1マークを認識するだ
けで無人車の現在位置及び進行方向は解明される。
B) Concept of recognition of the current position and direction of movement of an unmanned vehicle by one mark recognition; Recognizing information about which mark the mark is based on one mark, and determining the direction of movement of the unmanned vehicle with respect to the standard installation direction of the mark. If information such as the degree of inclination of the vehicle can be recognized (details will be described later), the current position and direction of travel of the unmanned vehicle can be determined just by recognizing one mark.

すなわち、上記CI)式の測定により得られたθの値を
代入することで上記P (XO。
That is, by substituting the value of θ obtained by the measurement of the above CI) formula, the above P (XO) is obtained.

yo)  が求められる。後の処理は上記A)の場合と
同様である。
yo) is required. The subsequent processing is the same as in case A) above.

C)無人車の制御構造(第4図のブロック図参照璽 次に、本願に係る無人車(1)の制御構造を説明する。C) Control structure of unmanned vehicle (see block diagram in Figure 4) Next, the control structure of the unmanned vehicle (1) according to the present application will be explained.

すなわち、この制御構造は以下の各ブロックから構成さ
れている。
That is, this control structure is composed of the following blocks.

a)CCDカメラ(3): このカメラ(3)は天井面(4)に対 で垂直に向けられ、レンズを通って入力される画像は複
数の画素により構成されるスクリーン上に画像情報とし
て映し出される。
a) CCD camera (3): This camera (3) is oriented perpendicularly to the ceiling surface (4), and the image input through the lens is projected as image information on a screen composed of multiple pixels. It will be done.

b)ビジョンコントローラ(10)  :上記CCDカ
メラ(3)で撮像した天 井面の画像データから目的のマーク(5)のみを抽出し
、CCDスクリーン上でのマークの中心座標とマークの
コードを読み出してメインコントローラ(11)に定期
的に報告する。
b) Vision controller (10): Extracts only the target mark (5) from the image data of the ceiling surface captured by the CCD camera (3), reads out the center coordinates of the mark on the CCD screen and the code of the mark. Regularly reports to the main controller (11).

C)メインコントローラ(11)  :以下説明する演
算部(12) 、座標テーブル(13)、走行制御部(
14)、マツプデータ(15)、および移載制御部(1
6)により構成されている。
C) Main controller (11): Calculation unit (12), coordinate table (13), travel control unit (described below)
14), map data (15), and transfer control unit (1
6).

d)演算部(12)  : ビジョンコントローラ(10)より得たマーク(5)に
ついてのローカル座標値、マークコ−トドマーク座標テ
ーブル(13)から得た各マークの工場座標系における
座標値とから前記A)、B)で記載の座標変換等を施す
ことによって、無人車(1)の工場座標系における位置
座標及び方位を計算し、これを定期的に走行制御部 (14)に報告する。
d) Arithmetic unit (12): calculates the above A from the local coordinate values of the mark (5) obtained from the vision controller (10) and the coordinate values of each mark in the factory coordinate system obtained from the mark coated mark coordinate table (13). ) and B), the position coordinates and orientation of the unmanned vehicle (1) in the factory coordinate system are calculated and periodically reported to the travel control unit (14).

e)座標テーブル(13)  : 各マーク(5)毎の工場座標系におけ る座標が人力されている。e) Coordinate table (13): In the factory coordinate system for each mark (5) The coordinates are manually determined.

f)走行制御部(14)’: 通信コントローラ(17)より指示される目的地とメモ
リーのマツプデータ(15)により走行経路の決定をし
、走行及び操舵駆動系であるサーボドライバー(18)
に走行データの指示をする。
f) Travel control unit (14)': Determines the travel route based on the destination and memory map data (15) instructed by the communication controller (17), and controls the servo driver (18) which is the travel and steering drive system.
Instructs driving data.

演算部(12)から報告される無人車の位置、方位のデ
ータとマツプデータ(15)からの目的地の情報を比較
して許容以上にズレが生じている場合は走行データの修
正をして走行、操舵駆動系であるサーボドライバー(1
8)に指示をする。
Compare the position and direction data of the unmanned vehicle reported from the calculation unit (12) with the destination information from the map data (15), and if there is a discrepancy beyond tolerance, correct the driving data and drive. , servo driver (1) which is the steering drive system
8) Give instructions.

演算部(12)から報告される無人車 (1)の位置、方位のデータ以外に、走行・操舵駆動系
のモータ(M)からのエンコーダ出力(19)等を利用
して自己の位置、方位の計算をし、ビジョンによる観測
間隔を補間する。
In addition to data on the position and orientation of the unmanned vehicle (1) reported from the calculation unit (12), the encoder output (19) from the motor (M) of the driving/steering drive system is used to calculate the position and orientation of the unmanned vehicle (1). and interpolates the observation interval based on vision.

通信コントローラ(17>に対し、無人車(1)の位置
、方位及び状態のデータを定期的に報告する。
Data on the position, direction, and status of the unmanned vehicle (1) are periodically reported to the communication controller (17>).

g)通信コントローラ(17)  : 地上コントローラ(20)から地上側通信コントローラ
(21)及び通信ユニット(22)を介して通られてく
る目的地、発進、停止移載指示等を通信ユニッ) (2
3)を介して受けてメインコントローラ(11)にその
都度、報告する。
g) Communication controller (17): The communication unit receives destination, start, stop, transfer instructions, etc. from the ground controller (20) via the ground side communication controller (21) and communication unit (22).
3) and reports each time to the main controller (11).

メインコントローラ(11)からの現地点、次ストップ
位置、状態コード等の情報を地上コントローラ(20)
からの呼びかけに応じて報告する。
Information such as the current point, next stop position, status code, etc. from the main controller (11) is sent to the ground controller (20).
Report in response to a call from.

h)地上コントローラ(20)  : ホスドc p U (24)  や搬送要求設定盤等か
らの搬送要求を受は付けて最も効率的と考えられる無人
車にその搬送要求を割付ける。
h) Ground controller (20): Receives transport requests from the host CPU (24), transport request setting board, etc., and assigns the transport requests to the unmanned vehicle considered to be the most efficient.

無人車(1)から報告されてくる次ス トップ等のデータから衝突防止の管理を行い必要に応じ
て、無人車(1)に対して停発進の指示をする。
Collision prevention is managed based on data such as the next stop reported from the unmanned vehicle (1), and instructions to stop and start are given to the unmanned vehicle (1) as necessary.

無人車(1)から報告されてくる各種 状態のデータをグラフィクディスプレイ(25)にアニ
メーション表示してシステムの状態をリアルタイムモニ
タリングできるようにする。
Various status data reported from the unmanned vehicle (1) is displayed in animation on the graphic display (25) to enable real-time monitoring of the system status.

オフラインモード時にCAD機能を利 用して、マツプ定義やマーク座標定義を行い無人車(1
)にダウンロードするデータ作成機能を持つ。
In offline mode, use the CAD function to define maps and mark coordinates to create an unmanned vehicle (1
) has a data creation function to download to.

l)移載ロボット制御部(26)  :本実施例におい
ては、無人車(1)上 に移載ロボ7)(27)を搭載したものを示しているけ
れども、該移載ロボット (27)は本願の主旨から外れるので詳細な説明は省略
する。
l) Transfer robot control unit (26): In this embodiment, the transfer robot 7) (27) is mounted on the unmanned vehicle (1), but the transfer robot (27) A detailed explanation will be omitted since it is outside the scope of the present application.

D)マークについて。D) About the mark.

次に前記マークについて詳述する。なお、以下詳述する
マークは前記A)項の2マー= 15− り相識による無人車の現在位置及び進行方向の認識に係
るものである。
Next, the mark will be explained in detail. Note that the marks described in detail below are related to the recognition of the current position and traveling direction of the unmanned vehicle based on mutual knowledge in item A).

第5図にマーク(5)の−例を図示している。このマー
ク(5)は円形をしており、その外周より、全周を黒部
より成る第1黒シート帯(30)、該第1黒シート帯(
30)の内側の白部より成る第1白シート帯(31)、
該第1白シート帯(31)の内側のコードシート帯(3
2)、該コードシート帯(32)の内側の黒部より成る
第2黒シート帯(33)、該第黒シート帯(33)の内
側の白部より成る第2白シート帯(34) 、該第2白
シート帯(34)の内側の黒部より成る中心黒シート部
(35)とにより構成されている。上記黒部の各黒シー
ト帯(30) (33)及び中心黒シート部(35)は
黒色等の光の反射の少ない色のシートを使用し、各自シ
ート帯(31)(34)には白色等の光の反射の多い色
で、かつ乱反射やキズやシミの無いシートを使用する。
An example of mark (5) is shown in FIG. This mark (5) has a circular shape, and from its outer periphery, a first black sheet band (30) consisting of a black part all around the circumference, a first black sheet band (
a first white sheet band (31) consisting of the inner white part of 30);
The cord sheet band (3) inside the first white sheet band (31)
2), a second black sheet band (33) consisting of the black part inside the code sheet band (32), a second white sheet band (34) consisting of the white part inside the second black sheet band (33), and a central black sheet portion (35) consisting of a black portion inside a second white sheet band (34). Each black sheet band (30) (33) in the black part and the center black sheet part (35) are made of a sheet with a color that reflects less light such as black, and each sheet band (31) (34) is made of a sheet with a color such as white. Use a sheet that has a color that reflects a lot of light and is free from diffuse reflection, scratches, and stains.

天井面の色は黒系統でも白系統でもよいけれども、この
実施例において一応黒系統であるとする。上記コードシ
ート帯(32)は円周方向にnビット(図では7ビツト
であり、以下7ビントにおける実施例を説明する。)に
分割され、1ビツトがさらに3等分にそれぞれ分割され
ている。3等分に分割されたものを以下、小区域と称す
ことにする。
Although the color of the ceiling surface may be either black or white, it is assumed that it is black in this embodiment. The code sheet band (32) is divided in the circumferential direction into n bits (7 bits in the figure, an example of 7 bits will be explained below), and each bit is further divided into 3 equal parts. . Hereinafter, the area divided into three equal parts will be referred to as a small area.

E)ビジョンコントローラについて; 次に、前記ビジョンコントローラ(10)のより詳細な
構成を第7図に基づいて説明する。
E) Regarding the vision controller; Next, a more detailed configuration of the vision controller (10) will be explained based on FIG. 7.

前記CCDカメラ(3)からの映像信号(al)は分配
器(50)によりマーク位置判定装置(51)と同期検
出回路(52)及びD/A変換器(53)に分配される
(a2)。上記同期検出回路(52)から出力される垂
直同期信号(a3)及びドツトクロック発生器(54)
から出、力されるクロック信号(a6)がア、ドレスカ
ウンタ (55)に入力し、該カウンタ (55)から
画面アドレス値(a7)がビデオメモ!j  (56)
に人力する。該ビデオメモリ (56)には(1/A変
換器(53)を経てデジタル化された映像信号(a5)
が入力している。上記マーク位置判定装置(51)の出
力信号であるマークの画面アドレス値及びマーク発見信
号(a4)は画像処理CPU(57)に入力し、該CP
U(57)は上記ビデオメモリ (56)とアドレスバ
ス及びデータバス(a8)により連結され、かつ前記メ
インコントローラ(11)とマーク種別やマーク位置あ
るいはこのビジョンコントローラ作動指令等のデータの
やり取りを行っている(a9) (alO)。
The video signal (al) from the CCD camera (3) is distributed by a distributor (50) to a mark position determination device (51), a synchronization detection circuit (52), and a D/A converter (53) (a2). . Vertical synchronization signal (a3) output from the synchronization detection circuit (52) and dot clock generator (54)
The clock signal (a6) output from the address counter (55) is input to the address counter (55), and the screen address value (a7) is output from the counter (55). j (56)
to use human power. The video memory (56) contains a video signal (a5) digitized via a 1/A converter (53).
is inputting. The screen address value of the mark and the mark discovery signal (a4), which are the output signals of the mark position determination device (51), are input to the image processing CPU (57), and the CPU
The U (57) is connected to the video memory (56) by an address bus and a data bus (a8), and exchanges data with the main controller (11) such as mark types, mark positions, and vision controller activation commands. (a9) (alO).

上記マーク位置判定装置の構成を第8図に示している。The configuration of the mark position determining device is shown in FIG.

アナログ値である映像信号(a2)は自動最適2値化回
路(59)及び絶対レベル2値化回路(60)に入力し
、それぞれマーク成分としての2値化信号(all)と
外乱光でない成分としての2値化信号(a12)  と
して出力しアンド回路(61)に人力する。上記自動最
適2値化回路(59)では、画像信号の局所的な最大と
最小の中間のしきい値を設定し、各画像信号と該しきい
値との比較により2値化している。なお、2値化時に局
所的最大と局所的最小の差がほとんどない場合、処理中
の部分はほぼ均一の明るさになっていると考えられるの
で、2値化は行なわず「0」と判定する。上記絶対レベ
ル2値化回路(60)において、外乱光など一定の明る
さを超えるものについては定められた値で2値化を行な
って、該回路(60)で「0」と判定されれば、すなわ
ち一定の明るさを超えるものは、上記自動最適2値化回
路(59)でrijと判定しても信号(a13)  は
「0」と出力する。該2値化信号(a13)  はテン
プレートマツチング回路(62)に人力し、該回路にお
いてマークが発見され、マーク発見信号(a4)が出力
される。
The video signal (a2), which is an analog value, is input to an automatic optimal binarization circuit (59) and an absolute level binarization circuit (60), which convert the binarized signal (all) as a mark component and components other than disturbance light, respectively. It is output as a binary signal (a12) and inputted to the AND circuit (61). The automatic optimum binarization circuit (59) sets a threshold between the local maximum and minimum of the image signal, and performs binarization by comparing each image signal with the threshold. Note that if there is almost no difference between the local maximum and local minimum during binarization, it is considered that the area being processed has almost uniform brightness, so binarization is not performed and it is determined as "0". do. In the above-mentioned absolute level binarization circuit (60), light exceeding a certain level of brightness such as ambient light is binarized using a predetermined value, and if the circuit (60) determines that it is "0", then That is, if the brightness exceeds a certain level, the signal (a13) outputs "0" even if the automatic optimum binarization circuit (59) determines that it is rij. The binarized signal (a13) is input to a template matching circuit (62), a mark is found in the circuit, and a mark found signal (a4) is output.

上記テンプレートマツチング回路(62)の詳細な構成
を第9図に示している。上記2値化信号(a13)  
は、#0シフトレジスタ(63)とシフトレジスタ(6
4)に入力する。
FIG. 9 shows a detailed configuration of the template matching circuit (62). The above binary signal (a13)
#0 shift register (63) and shift register (6
4) Enter.

該シフトレジスタ(64)は水平ライン8本ぶんの遅延
をかけるものであり、1つの入力端と3つの出力端を有
し、さらにドツトクロック発生器(54)からのクロッ
ク信号(a6)と同期分離回路(52)からの垂直同期
信号(a3)が人力している。上記8つの出力端におい
て、信号(a15−1)は信号(a15−0)に比べて
1ラインぶんの遅延が、信号(a15−2)は2ライン
ぶん、   、そして信号(a15−8)は8ラインぶ
んの遅延がかかっている。さらに、#0シフトレジスタ
(63)および#1〜#8シフトレジスタ(65)〜(
72)においては、それぞれパラレルに当該信号とそれ
以前の8画素ぶんの信号をシフトして順に出力する。上
記各シフトレジスタの動作を第11図の模式%式% 図によって説明する。今、「0」地点の画信号が上記2
値化信号(a13)  として人力されたなら、信号(
a15−0)は「0」、シフトレジスト (64)によ
り信号(a15−1)は「10」、   信号(a15
−8)は「80」地点の信号をそれぞれパラレルにしか
も同時に出力する。さらに、#D〜#8のシフトレジス
タ (63) 、(65)〜(72)により「0」「1
0 J  r 20 J −−r 80 」及び該信号
から8画素以前までの信号が順に出力される。
The shift register (64) applies a delay of eight horizontal lines, has one input terminal and three output terminals, and is synchronized with the clock signal (a6) from the dot clock generator (54). The vertical synchronizing signal (a3) from the separation circuit (52) is manually generated. At the above eight output terminals, the signal (a15-1) has a delay of one line compared to the signal (a15-0), the signal (a15-2) has a delay of two lines, and the signal (a15-8) has a delay of one line compared to the signal (a15-0). There is a delay of 8 lines. Furthermore, #0 shift register (63) and #1 to #8 shift registers (65) to (
72), the relevant signal and the signals of eight pixels before it are shifted in parallel and output in order. The operation of each of the above shift registers will be explained with reference to the schematic diagram in FIG. Now, the image signal at the "0" point is 2 above.
If it is manually generated as a value signal (a13), the signal (
a15-0) is "0", signal (a15-1) is "10" by shift register (64), signal (a15
-8) outputs the signals of the "80" points in parallel and simultaneously. Furthermore, the shift registers (63) and (65) to (72) of #D to #8 are used to set "0" and "1".
0 J r 20 J -- r 80 '' and the signals from this signal up to 8 pixels are sequentially output.

例えば、#8シフトレジスタ (72)においては「8
0」「81」「82」「88」地点の信号が順次、出力
される。それぞれの信号は判定回路(73)に人力し、
該判定回路(73)において予め設定されていたテンプ
レートと比較され、両者が一致すれば一致信号(所定電
圧量)を出力し、集計器(74)で該一致信号の出力を
集計する。すなわち、上記判定回II (73)は分配
器(75)、白部分判定部(76)及び点部分判定部(
77)とにより成っており、分配器(75)により各信
号がマークならば白であるべき候補のものは白部分判定
部(76)k、また黒であるべき候補のものは点部分判
定部(77)へ分配され、各判定部(76) (77)
でマツチングしているかどうか判定される。
For example, in #8 shift register (72), “8
Signals at points 0, 81, 82, and 88 are sequentially output. Each signal is manually input to the judgment circuit (73),
The judgment circuit (73) compares it with a preset template, and if the two match, a match signal (predetermined voltage amount) is output, and a totalizer (74) totals the output of the match signal. That is, the above-mentioned judgment stage II (73) includes a distributor (75), a white portion judgment section (76), and a point portion judgment section (
77), and if each signal is a mark, the distributor (75) sends a candidate that should be white to a white portion determining section (76)k, and a candidate that should be black to a point portion determining section (76)k. (77) and each judgment section (76) (77)
It is determined whether matching is achieved.

上記テンブレー) (80)は例えば第12図に示すも
のとし、このテンプレート(80)は第5図のマークの
中央部(Z)に対し、全てのマークに共通な部分である
。なお、図中「0」は黒部分信号、「1」は白部分信号
としている。例えば、第9図における#8シフトレジス
タ(72)から出た信号は分配器(75)により全て点
部分判定部(77)へと送ら江、また#4シフトレジス
タ (68)から出た信号は分配器(75)により「黒
」「白」 「白」 「黒」 「黒」 「黒」 「白」「
白」 「黒」という順に各判定部に分配される(第12
図参照)。上記白部分判定部(76)から出力される信
号は「白」がマツチした信号(a16)  であり、上
記点部分判定部(77)から出力される信号は「黒」が
マツチしない信号(a17)  である。なお、上記テ
ンプレート (80)は観念的なものであり、実際には
該テンプレート内のN」 r(1」信号に応じて分配器
(75)を制御しているのみである。
The above-mentioned template (80) is shown in FIG. 12, for example, and this template (80) is a part common to all marks with respect to the central part (Z) of the mark in FIG. In the figure, "0" is a black portion signal, and "1" is a white portion signal. For example, the signal output from the #8 shift register (72) in FIG. The distributor (75) selects "black", "white", "white", "black", "black", "black", "white", "
are distributed to each judgment section in the order of "white" and "black" (the 12th
(see figure). The signal outputted from the white portion determining section (76) is a signal (a16) in which "white" matches, and the signal outputted from the point portion determining section (77) is a signal (a17) in which "black" does not match. ). Note that the template (80) is conceptual, and in reality, the distributor (75) is only controlled in accordance with the N'r(1) signal in the template.

上記集計器(74)からの集計出力信号(a18)  
は、第10図で示すように、テンプレートマツチ度設定
スイッチ(78)内に予め設定しておいた基準値(a1
9)  と共に比較判定器(79)に入力され、上記集
計出力信号(a18)  が基準値(a19)  を超
えた場合には、マークを発見したという判定の信号(a
4)が出力される。
Aggregation output signal (a18) from the aggregator (74)
As shown in FIG. 10, the reference value (a1
9) is input to the comparison/judgment device (79), and if the total output signal (a18) exceeds the reference value (a19), a signal (a
4) is output.

なお、第12図で示すテンプレートにおいて、点部分あ
るいは白部分の判断が明確でない部分は判定に関係ない
ものとして処理するようにしてもよいし、もちろん9×
9のサイズに限ることもない。
In addition, in the template shown in FIG. 12, portions where the judgment is not clear, such as point portions or white portions, may be treated as unrelated to the judgment, and of course, the 9×
It is not limited to size 9.

以上、ビジョンコントローラ(10)内の画像処理は全
てハードウェアで処理するものであるから、処理時間が
短く、はぼ実時間で処理結果を得ることができる。また
、テンプレートマツチ度設定スイッチ(78)への入力
値は実験により決定し、例えば−致画素の約80%程度
に設定すればよく、周囲の環境等により該人力値を変化
させてもよい。
As described above, since all image processing within the vision controller (10) is performed by hardware, the processing time is short and processing results can be obtained almost in real time. Further, the input value to the template match degree setting switch (78) is determined through experiments, and may be set to, for example, about 80% of the -matching pixel, or the manual value may be changed depending on the surrounding environment or the like.

F)マーク信号識別の動作; 次に上記マーク(5)の識別の動作を説明する。すなわ
ち、カメラ(3)で撮像された天井面の画像はビジョン
コントローラ(10)に送り込まれ、第13図で示す処
理フローに従ってマーク(5)の中心位置座標とコード
内容が読み取られる。
F) Operation of mark signal identification; Next, the operation of identifying the mark (5) will be explained. That is, the image of the ceiling surface taken by the camera (3) is sent to the vision controller (10), and the center position coordinates and code contents of the mark (5) are read according to the processing flow shown in FIG.

(第1ステツプ) カメラ(3)で撮像された面情報は
横方向の走査により1本の信号として上記コントローラ
(10)内に人力する。例示として第5図における走査
線(Scl〜5c5)に対応する信号をそれぞれ信号線
(Sgl〜5g5)として第6図に示す。
(First step) The surface information captured by the camera (3) is manually input into the controller (10) as a single signal by scanning in the horizontal direction. As an example, signals corresponding to the scanning lines (Scl to 5c5) in FIG. 5 are shown as signal lines (Sgl to 5g5) in FIG. 6, respectively.

(第2,3ステツプ) 前記テンプレートを用いたマツ
チングがなされ(前記E)項参照)、マーク(5)を発
見するまで信号入力(ステップ■)及びマツチング(ス
テップ■)を繰り返し、マーク発見後はステップ■にお
いてYESに進む。
(2nd and 3rd steps) Matching is performed using the template (see section E above), and signal input (step ■) and matching (step ■) are repeated until mark (5) is found. Proceed to YES in step ■.

(第4ステツプ) マーク(5)発見後は、該マーク(
5)の中心座標すなわちテンプレートの中心の座標を検
出する。例えば、第11図に示す例の場合、「0」位置
の画信号入力によりマーク発見したのなら、該「0」位
置の水平及び垂直座標からそれぞれ4画素ぶんの座標を
引いた座標値、すなわち「44」位置の座標値がマーク
(5)の中心座標となる。
(4th step) After finding the mark (5),
5) Detect the center coordinates, that is, the coordinates of the center of the template. For example, in the case of the example shown in FIG. 11, if a mark is found by inputting an image signal at the "0" position, the coordinate values obtained by subtracting the coordinates of 4 pixels each from the horizontal and vertical coordinates of the "0" position, i.e. The coordinate value of the "44" position becomes the center coordinate of the mark (5).

(第5〜8ステツプ) 上記のようにして、マーク(5
)の中心位置座標が検出されると次に該中心位置(Sn
)から半径(Ra)の距離で時計針方向にスキャンニン
グをする。
(5th to 8th steps) As above, mark (5th to 8th steps)
) is detected, then the center position (Sn
) in a clockwise direction at a distance of radius (Ra).

該半径(Ra)によるスキャンニングは丁度前記コード
シート帯(32)上をスキャンすることになっている。
The scanning using the radius (Ra) is to scan exactly on the code sheet band (32).

スキャンニングの開始地点はどこからでもよく、1ビツ
ト分の小区域が3コ以上連続した所をスタートビット 
(St)と認識し、以下コードシート帯(32)上の情
報を読み取っていく。第14.15図にその読み取りの
状態を示している。
The scanning start point can be anywhere, and the start bit is a place where three or more small areas of 1 bit are consecutive.
(St) and then reads the information on the code sheet band (32). Figure 14.15 shows the reading state.

この実施例の場合、3つの小区域が黒(b)・白(W)
  ・黒(b)の場合は「0」、黒(b)  ・白(W
)  ・白(W)の場合は「1」に対応している。した
がって、実施例においては、ro 10100Jという
コードが読み取られ、該コードに対応するマークだとい
う認識が無人車においてなされる。6ビツトの場合は2
6=64種類、10ビツトでは2”=1024種類、識
別可能である。
In this example, the three subareas are black (b) and white (W).
- "0" for black (b), "0" for black (b) - white (W
) - White (W) corresponds to "1". Therefore, in the embodiment, the code ro 10100J is read and the unmanned vehicle recognizes that the mark corresponds to the code. 2 for 6 bits
6=64 types, 2''=1024 types can be identified with 10 bits.

上記したように、マーク(5)は円形であり、しかも該
マークのコードも同心円の円周上に位置している。した
がって、無人車の傾きに関係なくどの方向からも常にマ
ークの中心位置及びコード内容が正確に読み取られる。
As mentioned above, the mark (5) is circular, and the code of the mark is also located on the circumference of concentric circles. Therefore, the center position of the mark and the code content can always be accurately read from any direction regardless of the tilt of the unmanned vehicle.

なお、上記コードのうち最後のコードが「1」の場合、
白(W)の小区域が5つ連続し、どこまでがスタートビ
ットか認識できないおそれがあるので、3つ以上の小区
域が連続し、それから始めて黒(b)の小区域が出てき
た時点が第1のビットの開始だと8忍識するようにして
いる。
In addition, if the last code among the above codes is "1",
If there are five consecutive white (W) small areas, there is a risk that it may not be possible to recognize where the start bit is. When it comes to the beginning of the first bit, I try to be 8-ninja.

G)他の実施例のマークについて 次に、前記B)項の1マーク認識による無人車の現在位
置及び進行方向の認識に係るマークについて説明する。
G) Marks of Other Embodiments Next, marks related to the recognition of the current position and traveling direction of an unmanned vehicle by one mark recognition in the above B) will be explained.

第16図にそのマークを示している。なお、前記D)項
と共通する所は同一符号を付し説明は省略する。
The mark is shown in FIG. Note that the same reference numerals are given to the same parts as in the above section D), and the description thereof will be omitted.

このマーク (5)には第1白シート帯(31)に方向
認識のための黒部(43)が付しである。該黒部(43
)は全てのマークに同方向、同位置に付されている。例
えば、マーク中心位置(Sn)から真北方向に該黒部(
43)が付しである。
This mark (5) has a black part (43) on the first white sheet band (31) for direction recognition. Kurobe (43
) are attached to all marks in the same direction and at the same position. For example, the black part (
43) is attached.

上記マーク(5)の信号弁別は、前記コードンート帯(
32)上のスキャンニングと共に、第1白シート帯(3
1)もスキャンニングして上記黒部(43)位置を検出
する。
The signal discrimination of the above mark (5) is based on the cordont band (
32) Along with the above scanning, the first white sheet band (3
1) is also scanned to detect the position of the black part (43).

該黒部(43)のカメラ画像内での方向を検出すること
により、相対的に無人車の工場座標系における方向を認
識することができる。なお、この実施例の場合、スキャ
ンニングの開始地点は任意の特定地点とし、該特定地点
く開始地点)から、黒部(43)までの距離によりマー
ク(5)の方向を検出する。なお、上記スタートピッ)
 (St)を上記黒部(43)の代用として用いること
も可能である。
By detecting the direction of the black part (43) in the camera image, it is possible to relatively recognize the direction of the unmanned vehicle in the factory coordinate system. In this embodiment, the starting point of scanning is an arbitrary specific point, and the direction of the mark (5) is detected based on the distance from the specific point (starting point) to the black part (43). In addition, the above starting pitch)
It is also possible to use (St) as a substitute for the above-mentioned Kurobe (43).

H)無人車の誘導について 上記D)項又はG)項記載のマーク(5)をカメラ(3
)で検出し、ビジョンコントローラ(10)で各マーク
(5)の中心位置座標(Sn)とコード内容を読み取り
、該読み取った情報により、演算部(12)において前
記A)項又はB)項の処理により無人車(1)の工場座
標系における現在位置及び進行方向が認識される。該演
算部(12)で認識された情報に基づいて走行制御部(
14)で走行データの指示をサーボドライバー(18)
に伝える。該制御部(14)では、通信コントローラ(
17)から指示される目的地と、工場内の走行経路を記
憶しているマツプデータ(15)と上記演算部(12)
からの情報とにより無人車の走行を誘導する。
H) Regarding the guidance of unmanned vehicles, place the mark (5) described in item D) or item G) above on the camera (3).
), the vision controller (10) reads the center position coordinates (Sn) and code contents of each mark (5), and based on the read information, the arithmetic unit (12) calculates the above item A) or B). Through the process, the current position and traveling direction of the unmanned vehicle (1) in the factory coordinate system are recognized. Based on the information recognized by the calculation unit (12), the driving control unit (
14) to instruct the driving data to the servo driver (18)
tell. The control unit (14) includes a communication controller (
Map data (15) that stores the destination indicated by 17) and the driving route within the factory, and the above-mentioned calculation unit (12)
The driving of the unmanned vehicle is guided by the information from the system.

■)レイアウト変更について 上記マツプデータ(15)内に記憶されている走行経路
が工場内の全ての経路であるならば、通信コントローラ
(17)からの目的地の指示を変更するだけで、無人車
の走行は変更される。また、工場内のレイアウトを変更
して、走行経路でなかった部分を新たに走行経路とする
場合あるいはその逆の場合には、マツプデータ(15)
の記憶内容を一部変更するだけでよい。もちろん、天井
面のマーク(5)及び無人車上のカメラ(3)はそのま
まである。
■) Layout changes If the travel routes stored in the map data (15) are all routes within the factory, just by changing the destination instructions from the communication controller (17), the unmanned vehicle The run will be changed. In addition, if you change the layout in the factory and make a new driving route from a part that was not a driving route, or vice versa, please use the map data (15).
All you need to do is change some of the memory contents. Of course, the mark (5) on the ceiling and the camera (3) on the unmanned vehicle remain the same.

すなわち、無人車が自らの現在位置を工場内金ての場所
で工場内座標として認識することが可能となっているの
で、走行経路変更時には少なくとも無人車に与える座標
のデータのみを変更すればよく、他のハード的な変更は
いっさい必要としない。
In other words, since the unmanned vehicle can recognize its current location as the factory coordinates at any location within the factory, when changing the driving route, at least the coordinate data given to the unmanned vehicle only needs to be changed. , no other hard changes are required.

〔発明の効果〕〔Effect of the invention〕

以上の説明から明らかなように、本発明によれば、無人
車上の撮像手段により確実にしかも迅速にマークを識別
することができ、無人車が自らの現在位置を常に認識し
ながら走行しているので、レイアウト変更時にも即座に
対応できる自由度を有し、よりインテリジェント化され
たものとなる。
As is clear from the above description, according to the present invention, marks can be reliably and quickly identified by the imaging means on the unmanned vehicle, and the unmanned vehicle can drive while always recognizing its current position. Therefore, it has the flexibility to respond immediately when changing the layout, making it more intelligent.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は無人車の建屋内での運行状態を概略的に示す模
式図、第2図は無人車の位置認識のための考え方を説明
するための模式図、第3図は同じく側面図、第4図は無
人車の制御構造を示すブロック図、第5図はマークを示
す正面図、第6図は該マークの走査状態を説明するため
の模式図、第7図はビジョンコントローラの構成を示す
ブロック図、第8図はマーク位置判定装置の構成を示す
ブロック図、第9図はテンプレートマツチング回路の構
成を示すブロック図、第10図は同じくテンプレートマ
ツチング回路の判定部分の構成を示すブロック図、第1
1図は各シフトレジスタの動作を説明するための模式図
、第12図はテンプレートの一例を示す模式図、第13
図はマーク信号識別のための処理フローを示すフローチ
ャート図、第14図はマークのコード情報読み取りのた
めのスキャンニングを説明するための模式図、第15図
はコード情報の解析を説明するための模式図、第16図
はマークの他の実施例を示す正面図である。 (51)  マーク位置判定装置 (62)  テンプレートマツチング回路(73)  
判定回路(判定手段) (74)  集計器(集計手段) (79)  比較判定器(識別手段) (80〉  テンプレート 第13図
Fig. 1 is a schematic diagram schematically showing the operation status of an unmanned vehicle in a building, Fig. 2 is a schematic diagram to explain the concept for position recognition of an unmanned vehicle, and Fig. 3 is a side view. Fig. 4 is a block diagram showing the control structure of the unmanned vehicle, Fig. 5 is a front view showing the mark, Fig. 6 is a schematic diagram for explaining the scanning state of the mark, and Fig. 7 shows the configuration of the vision controller. 8 is a block diagram showing the configuration of the mark position determining device, FIG. 9 is a block diagram showing the configuration of the template matching circuit, and FIG. 10 is a block diagram showing the configuration of the determination part of the template matching circuit. Block diagram, 1st
Figure 1 is a schematic diagram for explaining the operation of each shift register, Figure 12 is a schematic diagram showing an example of a template, and Figure 13 is a schematic diagram for explaining the operation of each shift register.
The figure is a flowchart diagram showing the processing flow for mark signal identification, Figure 14 is a schematic diagram to explain scanning for reading mark code information, and Figure 15 is a schematic diagram to explain code information analysis. The schematic diagram, FIG. 16, is a front view showing another embodiment of the mark. (51) Mark position determination device (62) Template matching circuit (73)
Judgment circuit (judgment means) (74) Aggregator (aggregation means) (79) Comparison judgment device (identification means) (80> Template Fig. 13

Claims (1)

【特許請求の範囲】 マーク撮像画像における各画素の2値化信号を予め入力
している格子状のテンプレートと、 上記テンプレートと、実際に撮像した画像の各画素の2
値化信号との一致を判定する手段と、 上記判定手段から出力される一致信号を集計する手段と
、 上記集計手段から出力される値と所定値とを比較し、該
所定値を超えたものを当該マークであると識別する手段
とを設けたことを特徴とする撮像手段におけるマーク識
別装置。
[Claims] A grid-like template into which a binary signal of each pixel in a mark captured image is input in advance;
means for determining a match with a value-coded signal; means for summing up the matching signals output from the determining means; and comparing the value output from the summing means with a predetermined value, and the one that exceeds the predetermined value. 1. A mark identification device for an imaging means, comprising means for identifying a mark as the mark.
JP63070806A 1988-03-24 1988-03-24 Mark identifying device in image pickup means Pending JPH01243104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63070806A JPH01243104A (en) 1988-03-24 1988-03-24 Mark identifying device in image pickup means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63070806A JPH01243104A (en) 1988-03-24 1988-03-24 Mark identifying device in image pickup means

Publications (1)

Publication Number Publication Date
JPH01243104A true JPH01243104A (en) 1989-09-27

Family

ID=13442170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63070806A Pending JPH01243104A (en) 1988-03-24 1988-03-24 Mark identifying device in image pickup means

Country Status (1)

Country Link
JP (1) JPH01243104A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175147A (en) * 1997-12-09 1999-07-02 Shinko Electric Co Ltd Positioning device for moving body
JP2001134318A (en) * 1999-11-05 2001-05-18 Murata Mach Ltd Unmanned carrier system
GB2369511A (en) * 2000-11-17 2002-05-29 Samsung Kwangju Electronics Co Mobile robot location and control
GB2392255A (en) * 2002-07-26 2004-02-25 Samsung Kwangju Electronics Co A robot cleaner
KR100669250B1 (en) * 2005-10-31 2007-01-16 한국전자통신연구원 System and method for real-time calculating location
KR100698535B1 (en) * 2005-11-04 2007-03-22 재단법인 포항산업과학연구원 Position recognition device and method of mobile robot with tilt correction function
KR100698534B1 (en) * 2005-11-04 2007-03-22 재단법인 포항산업과학연구원 Landmark for location recognition of mobile robot and location recognition device and method using same
KR100700889B1 (en) * 2004-03-27 2007-04-10 주식회사 마이크로로봇 navigation system and perception method for position self control robot
KR101234271B1 (en) * 2010-12-01 2013-02-18 한국기술교육대학교 산학협력단 Self localization system of robot using landmark
JP2016531280A (en) * 2013-06-21 2016-10-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Determining positioning information for mobile devices using modulated optical signals
JP2017512296A (en) * 2013-12-11 2017-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Use of a mobile device with an image sensor to retrieve information related to a luminaire

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175147A (en) * 1997-12-09 1999-07-02 Shinko Electric Co Ltd Positioning device for moving body
JP2001134318A (en) * 1999-11-05 2001-05-18 Murata Mach Ltd Unmanned carrier system
GB2369511A (en) * 2000-11-17 2002-05-29 Samsung Kwangju Electronics Co Mobile robot location and control
US6496754B2 (en) 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
GB2369511B (en) * 2000-11-17 2003-09-03 Samsung Kwangju Electronics Co Mobile robot
GB2392255A (en) * 2002-07-26 2004-02-25 Samsung Kwangju Electronics Co A robot cleaner
GB2392255B (en) * 2002-07-26 2004-12-22 Samsung Kwangju Electronics Co Robot cleaner,robot cleaning system,and method of controlling same
US7480958B2 (en) 2002-07-26 2009-01-27 Samsung Gwangju Electronics Co., Ltd. Robot cleaner, robot cleaning system and method of controlling same
KR100700889B1 (en) * 2004-03-27 2007-04-10 주식회사 마이크로로봇 navigation system and perception method for position self control robot
JP2009512088A (en) * 2005-10-31 2009-03-19 韓國電子通信研究院 System and method for calculating position in real time
KR100669250B1 (en) * 2005-10-31 2007-01-16 한국전자통신연구원 System and method for real-time calculating location
KR100698534B1 (en) * 2005-11-04 2007-03-22 재단법인 포항산업과학연구원 Landmark for location recognition of mobile robot and location recognition device and method using same
KR100698535B1 (en) * 2005-11-04 2007-03-22 재단법인 포항산업과학연구원 Position recognition device and method of mobile robot with tilt correction function
KR101234271B1 (en) * 2010-12-01 2013-02-18 한국기술교육대학교 산학협력단 Self localization system of robot using landmark
JP2016531280A (en) * 2013-06-21 2016-10-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Determining positioning information for mobile devices using modulated optical signals
US10378897B2 (en) 2013-06-21 2019-08-13 Qualcomm Incorporated Determination of positioning information of a mobile device using modulated light signals
JP2017512296A (en) * 2013-12-11 2017-05-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Use of a mobile device with an image sensor to retrieve information related to a luminaire

Similar Documents

Publication Publication Date Title
US4566032A (en) Visually guided vehicle
US5253050A (en) Distance measuring device for measuring the distance between vehicles
US20090010482A1 (en) Diagrammatizing Apparatus
EP2049308A1 (en) System and method for calculating location using a combination of odometry and landmarks
JPH02143309A (en) Operation method and apparatus
JPH01243104A (en) Mark identifying device in image pickup means
JPH06325180A (en) Automatic tracking device for moving body
WO2014027478A1 (en) Road environment recognition device
JP2014021624A (en) Autonomous traveling device and autonomous traveling system
JPH11272328A (en) Color mark, moving robot and method for guiding moving robot
JP3271900B2 (en) Automatic tracking lighting system
JPH01197808A (en) Guidance system for unmanned vehicle
JP2020077293A (en) Lane line detection device and lane line detection method
JPH0667726A (en) Absolute position obtaining method for unmanned running car
JPH0820253B2 (en) Position detection method in mobile robot
JPH01197809A (en) Guidance mark for unmanned vehicle
JP2014160017A (en) Management device, method and program
JP5487648B2 (en) Moving object measuring system, moving object measuring apparatus, moving object measuring method and program
JP2838474B2 (en) Guidance target capturing method and guidance device for autonomous mobile robot
JP2001072208A (en) In-warehouse automatic guided vehicle guidance device
JPH02123877A (en) Automatic tracking device for mobile object
JP2783324B2 (en) Method and apparatus for controlling movement of a moving vehicle
JPS62140113A (en) Discriminating device for image quality of image type unmanned carrier
JP3194797B2 (en) Image monitoring system
JPH05224747A (en) Mobile object