JPH01197809A - Guidance mark for unmanned vehicle - Google Patents

Guidance mark for unmanned vehicle

Info

Publication number
JPH01197809A
JPH01197809A JP63022373A JP2237388A JPH01197809A JP H01197809 A JPH01197809 A JP H01197809A JP 63022373 A JP63022373 A JP 63022373A JP 2237388 A JP2237388 A JP 2237388A JP H01197809 A JPH01197809 A JP H01197809A
Authority
JP
Japan
Prior art keywords
mark
unmanned vehicle
sheet band
black
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63022373A
Other languages
Japanese (ja)
Inventor
Katsumi Matsuba
克己 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP63022373A priority Critical patent/JPH01197809A/en
Publication of JPH01197809A publication Critical patent/JPH01197809A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To constitute the title guidance mark so that the center position of the mark and the contents of a code can always be read exactly from an direction irrespective of an inclination of the unmanned vehicle by forming an external form of the mark to a circle, and also, putting a circular code which is the same concentric circle as the mark and can be discriminated from other mark to the inside of the mark. CONSTITUTION:A mark 5 consists of a circle and provided with a first black sheet band 30 whose whole periphery consists of a black part, a first white sheet band 31 consisting of a white part of the inside of the first black sheet band and a code sheet band 32 of the inside of the first white sheet band 31, from its outside periphery. Also, this mark is constituted by providing a second black sheet band 33 consisting of a black part of the inside of the code sheet band 32, a second white sheet band 34 consisting of a white part of the inside of the second black sheet band 33, and the center black sheet band 35 consisting of a black part of the inside of the second white sheet band 34. In such a way, the center position of the mark and the contents of the code can always be read exactly from any direction irrespective of an inclination of an unmanned vehicle.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は無人走行車の誘導装置に関し、より詳しくは、
画像情報に基づいて無人走行車が所望する進路に沿って
走行するように該無人走行車を誘導する装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a guidance device for an unmanned vehicle, and more specifically,
The present invention relates to a device that guides an unmanned vehicle to travel along a desired course based on image information.

〔発明の背景〕[Background of the invention]

上記無人走行車(以下、単に無人車という)の誘導方式
としては、走行経過に電磁誘導線や光学テープ等の誘導
線を床面に敷設し、無人車に設置した誘導検出手段が上
記誘導線の位置を検出し該誘導線に追従して走行するよ
うに無人車の操舵を制御する方式、いわゆる無人車の固
定経路誘導方式が現在、多く実用化されている。
The guidance method of the above-mentioned unmanned vehicle (hereinafter simply referred to as unmanned vehicle) is to lay a guidance wire such as an electromagnetic induction wire or optical tape on the floor during the course of the vehicle, and to detect the guidance by detecting the guidance installed on the unmanned vehicle. Many fixed-route guidance systems for unmanned vehicles, which detect the position of unmanned vehicles and control the steering of the unmanned vehicles so that they follow the guide line, are currently in practical use.

しかし、上記固定経路誘導方式は、走行コースが恒久的
に設定されているため、該走行コースの変更の自由度が
無いという欠点がある。さらに、電磁誘導線を用いた方
法においては、該誘導線の埋設工事に多大の時間と手間
を要するという問題点を有し、光学テープを用いた方法
においては、人の往来等により該テープが汚れたり、破
損したりすることにより誘導ミスが発生するという問題
点を有していた。
However, the fixed route guidance method has a disadvantage in that there is no flexibility in changing the driving course because the driving course is permanently set. Furthermore, the method using electromagnetic induction wires has the problem of requiring a great deal of time and effort to bury the guide wires, and the method using optical tape has the problem that the tape may be damaged due to foot traffic, etc. There is a problem in that guidance errors occur due to dirt or damage.

そこで、上記問題点を解決するために、上記固定経路誘
導方式以外の新しい誘導方式が現在数種考えられている
。その新しい誘導方式の一つに、画像情報に基づいて無
人車を誘導するものがある。近年の画像処理技術および
マイクロコンビ二一夕の性能の急速な向上、および該マ
イクロコンビ二一夕やメモリやA−D/D−A変換器な
どの部品の価格の大幅な低下により、無人車に小型で安
価な画像処理システムを搭載することが可能となり、次
世代の誘導方法として注目されている。
Therefore, in order to solve the above problems, several new guidance methods other than the fixed route guidance method are currently being considered. One of the new guidance methods is one that guides unmanned vehicles based on image information. In recent years, the rapid improvement in the performance of image processing technology and microcombustion controllers, as well as the significant decline in the prices of microcombination controllers and components such as memory and A-D/D-A converters, have led to the rapid development of unmanned vehicles. It has become possible to incorporate a small and inexpensive image processing system into the system, and it is attracting attention as a next-generation guidance method.

上記画像情報に基づいて無人車を誘導する方法(以下、
単に画像誘導方法という)として、例えば実開昭60−
144106号公報に記載される技術、すなわち走行路
の真上でかつ走行路に沿って撮像装置を配置し、該撮像
装置により無人車の視覚認識を行い、無人車の走行状態
量を検知し、無線の通信装置を介してその検出結果を無
人車の操舵及び走行装置に伝達するようにして無人車を
誘導する技術が知られている。
A method for guiding an unmanned vehicle based on the above image information (hereinafter,
For example, as an image guidance method (simply referred to as an image guidance method),
The technology described in Japanese Patent No. 144106, that is, an imaging device is placed directly above and along the driving path, the imaging device performs visual recognition of the unmanned vehicle, and detects the amount of driving state of the unmanned vehicle. 2. Description of the Related Art There is a known technique for guiding an unmanned vehicle by transmitting the detection result to the steering and traveling device of the unmanned vehicle via a wireless communication device.

ところが、上記従来例の技術では、無人車の自由度があ
る程度の制限を受けることになっていた。すなわち、安
価になったと言っても依然ある程度高価な撮像装置(そ
れに付属する演算装置や通信装置を含め)を無人車導入
の建屋的全域に設定することは経済的に困難であること
から、当然上記のように走行路に沿って配置せざるを得
ないことになる。したがって、走行路や建屋内のレイア
ウト変更時には、新たな走行路上に上記撮像装置を設置
し直さなければならない、という問題が生じることにな
る。さらに、上記従来例の基本的な問題点は、無人車が
自らの「目」で見て自分の位置を知るのではなくて、地
上側の他者の「目」により見て判断された内容を教わる
ことにより自分の位置を知ることにある。
However, in the conventional technology described above, the degree of freedom of the unmanned vehicle is limited to some extent. In other words, even though the price has become cheaper, it is still economically difficult to install an expensive imaging device (including its attached computing device and communication device) in the entire building where unmanned vehicles are introduced. As mentioned above, they have no choice but to be placed along the travel route. Therefore, when changing the layout of a driving route or a building, a problem arises in that the imaging device has to be reinstalled on the new driving path. Furthermore, the basic problem with the above conventional example is that the unmanned vehicle does not know its own position by seeing it with its own eyes, but rather with the eyes of others on the ground. The purpose is to know one's own position by being taught.

これからのよりインテリジェント化された無人車におい
て、自分の「目」で見て判断することが必然的に要求さ
れることになる。すなわち、地上側からただ単に「左行
」 「直進」「停止」等の指令を受は取って走行するの
ではなく、自らの現在位置が建屋全体あるいは予定走行
経路におけるどの位置にあり、自らの目的地と該現在位
置とを照し合わせることにより自らを誘導することによ
り、上記インテリジェント化により近づくこととなり、
−各無人車が独自性を有すようになる。
In the future, more intelligent driverless cars will inevitably be required to see and make decisions with their own eyes. In other words, rather than simply receiving commands such as "go left,""gostraight," and "stop" from the ground side, the user does not simply receive commands such as "go left,""gostraight," or "stop." By guiding itself by comparing the destination with the current location, it will become closer to the above-mentioned intelligent system,
-Each driverless vehicle will be unique.

そこで、各無人車に撮像装置を持たせて無人車が自ら「
見る」ようにした技術が次段階の誘導方法として開発さ
れている。例えば、予め記憶手段に無人車の位置情報に
基づいて構成物の配置、形状に関するデータを予想パタ
ーンとして入力しておき、走行中の無人車上の撮像装置
から送られてくる実画像と上記予想パターンとを比較し
て、その差が減少するように無人車を誘導するという技
術が知られている。
Therefore, by equipping each unmanned vehicle with an imaging device, the unmanned vehicle can
A technology that allows humans to "see" is being developed as a next-level guidance method. For example, data regarding the arrangement and shape of components may be input into the storage means in advance as a predicted pattern based on the position information of the unmanned vehicle, and the actual image sent from the imaging device on the moving unmanned vehicle and the predicted pattern There is a known technique for guiding an unmanned vehicle in such a way as to reduce the difference between the two patterns.

ところが、上記のような画像誘導方法において、上記予
想パターンを記憶するための容量が多大になるとか、該
予想パターンと実画像との比較、処理等に時間がかかる
とか、構成物のレイアウト変更や無人車の進路変更の度
毎に上記予想パターンを人力し直す必要があるという問
題点が指摘されている。
However, in the image guidance method described above, the storage capacity for storing the predicted pattern is large, the comparison and processing of the predicted pattern with the actual image takes time, and it is difficult to change the layout of the composition. It has been pointed out that there is a problem in that the above-mentioned predicted pattern needs to be re-written manually every time the unmanned vehicle changes course.

さて、上記のような従来技術の流れにおいて、本願の目
的とするとこ為は、より自由度の高い画像誘導装置を提
案することにより、無人車のインテリジェント化を押し
進めることにあり、そのための誘導用マークを提案する
ことである。
Now, in the flow of the prior art as described above, the purpose of the present application is to promote the intelligentization of unmanned vehicles by proposing an image guidance device with a higher degree of freedom, and to develop a guidance system for this purpose. It is to propose a mark.

〔課題を解決するための手段〕[Means to solve the problem]

この発明は無人走行車が導入される建屋内の所定位置に
配置され、該無人走行車上に設置された撮像手段により
撮像されるマークであって、外形は全て円形とし、かつ
該マーク内にマークと同心円で他のマークと識別可能な
円形コードを付したものである。
The present invention provides a mark that is placed at a predetermined position in a building into which an unmanned vehicle is introduced, and that is imaged by an imaging means installed on the unmanned vehicle, and that has a circular outer shape and that is located within the mark. A circular code is attached that is concentric with the mark and can be distinguished from other marks.

〔実施例〕〔Example〕

第1図には本発明に係る画像誘導方式により運行してい
る無人車(1)の建屋(2)内での概略を校式的に示し
ている。本発明に係る無人車(1)は公知の技術により
走行、操舵等が可能であり、機台上には撮像手段である
CCDカメラ(3)が搭載されている。さらに、天井面
(4)には所定位置に各々が識別可能なマーク(5)が
配置貼付されている。
FIG. 1 schematically shows an outline of an unmanned vehicle (1) operating in a building (2) using the image guidance system according to the present invention. The unmanned vehicle (1) according to the present invention is capable of running, steering, etc. using known techniques, and is equipped with a CCD camera (3) as an imaging means on the machine base. Furthermore, marks (5) that can be identified are arranged and pasted at predetermined positions on the ceiling surface (4).

無人車(1)は上記CCDカメラ(3)(以下、単にカ
メラと称す)により天井(4)を撮像し、マーク(5)
を検出し識別することにより、自らの現在位置と進行方
向を認識している。
The unmanned vehicle (1) images the ceiling (4) with the CCD camera (3) (hereinafter simply referred to as the camera) and marks (5).
By detecting and identifying information, it recognizes its current location and direction of travel.

第2図の模式図に従えば、上記カメラ(3)はレンズ(
6ン及びスクリーン(7)とより成り、該スクリーン(
7)は多くのCCD素子列により構成されている。上記
レンズ(6)中心とスクリーン(7)中心とは鉛直線方
向において同一位置にあり、該スクリーン(7)上の中
心を原点としてスクリーン(7)内に座標系(X、 y
)が設定されている。y軸は無人車(1)の縦中心線と
一致し、y軸と無人車(1)の横中心線(S)とは距離
(L)を有している。さらに、各マーク(5)にはそれ
ぞれ天井面内での工場座標系(x、 y)が設定されて
いる。なお、上記レンズ(6)とスクリーン(7)間は
距離(D)の隔たりがあり、レンズ(6)と天井面(4
ン間は距離(H)の隔たりがあるものとする。次に、以
上のような構成により無人車の現在位置及び進行方向を
測定する考え方を示すことにする。なお、上記マーク(
5)および該マークの画像処理等の説明は後述すること
とする。
According to the schematic diagram in Figure 2, the camera (3) has a lens (
6 and a screen (7), the screen (
7) is composed of many CCD element rows. The center of the lens (6) and the center of the screen (7) are at the same position in the vertical direction, and a coordinate system (X, y
) is set. The y-axis coincides with the vertical center line of the unmanned vehicle (1), and there is a distance (L) between the y-axis and the horizontal center line (S) of the unmanned vehicle (1). Furthermore, a factory coordinate system (x, y) within the ceiling plane is set for each mark (5). Note that there is a distance (D) between the lens (6) and the screen (7), and there is a distance (D) between the lens (6) and the ceiling surface (4).
It is assumed that there is a distance (H) between the two. Next, we will explain the concept of measuring the current position and traveling direction of an unmanned vehicle using the above configuration. Please note that the mark above (
5) and the image processing of the mark will be described later.

A)2マーク認識による無人車の現在位置及び進行方向
の認識についての考え方。
A) Concept of recognizing the current position and direction of movement of an unmanned vehicle using 2-mark recognition.

基本的な考え方は、スクリーン(7)上の座標(x、 
y)をまず、該座標(X、 y)をそのまま天井面に平
行移動したカメラ座標(Xo。
The basic idea is that the coordinates (x,
y), first, the camera coordinates (Xo) are obtained by directly translating the coordinates (X, y) to the ceiling surface.

yo)に変換し、さらに該カメラ座標(Xo。yo) and further converts the camera coordinates (Xo.

y’)と天井面の工場座標(X、 Y)とを比較するこ
とにより、現在位置及び進行方向の認識を行う。以下、
より詳細に説明するけれども、その前にこの考え方の前
提条件を列記しておく。(i)カメラ(3)は天井面(
4)に垂直に向けられている。(ii )マーク(5)
は多種類作成し、カメラ(3)の視野長の半分程度の距
離間隔で設置して常にカメラ(3)のスクリーン(7)
内に少なくとも2個のマークが撮像されることとする。
y') and the factory coordinates (X, Y) on the ceiling surface, the current position and direction of travel are recognized. below,
I will explain this in more detail, but first I will list the prerequisites for this idea. (i) Camera (3) is mounted on the ceiling (
4) is oriented vertically. (ii) Mark (5)
Create many types of screens and install them at intervals of about half the field of view of the camera (3) so that the screen (7) of the camera (3) is always visible.
It is assumed that at least two marks are imaged within the area.

(iii)3個以上のマークを撮像した場合には任意の
2個を採用し他は無視する。(iv >カメラ(3)と
天井面(4)との距離は既知で一定とする。バラツキが
ある場合は各マークの床面からの高さも分っているもの
とする。
(iii) If three or more marks are imaged, any two marks are adopted and the others are ignored. (iv) It is assumed that the distance between the camera (3) and the ceiling (4) is known and constant. If there is variation, it is assumed that the height of each mark from the floor is also known.

さて、今スクリーン上のマークA’ 、 B’の座標を
それぞれ、(xa、 ya)、 (xb、 yb)  
とし、光学系の歪補正係数EX、 Eyとすると、前記
カメラ座標(X’ 、 y’ )  におけるマークA
、  Bの座標(xa、 ya)、 (xb、 yb)
  は、と表せる。
Now, let the coordinates of marks A' and B' on the screen be (xa, ya) and (xb, yb), respectively.
and the distortion correction coefficients EX and Ey of the optical system, the mark A at the camera coordinates (X', y')
, B coordinates (xa, ya), (xb, yb)
can be expressed as.

一方、マークΔ、Bの工場座標系における座標は、 ?−りA(Xa、Yb) 、 ?−りB(Xb、Yb)
 −CII)であることが予め分っている。
On the other hand, the coordinates of marks Δ and B in the factory coordinate system are ? -riA (Xa, Yb), ? -riB (Xb, Yb)
-CII).

前記カメラ座at(x’、y’)  の原点Pの工場座
標をP (xo、 yo)  とすると、座標変換の関
係式は、 であり、該(I[13式に上記N1式、CIIE式の座
標値を代入すると、P (XO,yo)  及びθが求
められる。これに、カメラ中心と無人車機体中心との距
離(L)を考慮すれば工場座標系における無人車の位置
座標及び無人車の中心からカメラの取付は中心の方向が
工場座標系のy軸から左回転に何度傾いているかが求め
られる。
When the factory coordinates of the origin P of the camera seat at(x', y') are P (xo, yo), the relational expression for coordinate transformation is P (XO, yo) and θ can be found by substituting the coordinate values of When installing the camera from the center of the car, it is necessary to determine how many degrees the center is tilted counterclockwise from the y-axis of the factory coordinate system.

B)1マーク認識による無人車の現在位置及び進行方向
の認識′についての考え方。
B) Concept of recognition of the current position and direction of travel of an unmanned vehicle by one mark recognition.

1つのマークにより該マークがどのマークであるかとい
う情報の認識と、該マークがどの方向にあるのかという
情報の認識がなされるのならく詳細は後述する)、1マ
ークを認識するだけで無人車の現在位置及び進行方向は
解明される。
If a single mark can be used to recognize information about which mark it is and in which direction the mark is located (details will be described later), just by recognizing one mark, it is possible to The current location and direction of travel of the vehicle are determined.

すなわち、上記〔■」式は座標情報が1組であるために
1式のみとなるけれども、上記方向の情報によりθの値
が既知となり、上記P (KO,yo) が求められる
。後の処理は上記A)の場合と同様である。
That is, although the above [■] equation is only one equation because there is one set of coordinate information, the value of θ is known from the above information on the direction, and the above P (KO, yo) can be found. The subsequent processing is the same as in case A) above.

C)無人車の制御構造(第4図のブロック図参照) 次に、本願に係る無人車(1)の制御構造を説明する。C) Control structure of unmanned vehicle (see block diagram in Figure 4) Next, the control structure of the unmanned vehicle (1) according to the present application will be explained.

すなわち、この制御構造は以下の各ブロックから構成さ
れている。
That is, this control structure is composed of the following blocks.

a)CCDカメラ(3) このカメラ(3)は天井面(4)に対 て垂直に向けられ、レンズを通って入力される画像は複
数の画素により構成されるスクリーン上に画像情報とし
て映した出される。
a) CCD camera (3) This camera (3) is oriented perpendicularly to the ceiling surface (4), and the image input through the lens is projected as image information on a screen made up of multiple pixels. Served.

b)ビジョンコントローラ(10) 上記CCDカメラ(3)で撮像した天 井面の画像データから目的のマーク(5)のみを抽出し
、CCDスクリーン上でのマークの中心座標とマークの
コードを読み出してメインコントローラ(11) ニ定
期的に報告する。
b) Vision controller (10) Extracts only the target mark (5) from the image data of the ceiling surface captured by the above CCD camera (3), reads the center coordinates of the mark and the code of the mark on the CCD screen, and controls the main Controller (11) Periodically reports.

C)メインコントローラ(11) 以下説明する演算部(12)、座標テーブル(13)、
走行制御部(14) 、マツプデータ(15)、および
移載制御部(16)により構成されている。
C) Main controller (11) A calculation unit (12), coordinate table (13), which will be explained below.
It is composed of a travel control section (14), map data (15), and a transfer control section (16).

d)演算部(12) ビジョンコントローラ(lO)より得たマーク(5)に
ついてのローカル座標値、マークコードとマーク座標テ
ーブル(13)から得た各マークの工場座標系における
座標値とから前記A)、B)で記載の座標変換等を施す
ことによって、無人車(1)の工場座標系における位置
座標及び方位を計算し、これを定期的に走行制御部 (14)に報告する。
d) Arithmetic unit (12) Calculates the above A from the local coordinate values of the mark (5) obtained from the vision controller (lO), the mark code, and the coordinate values of each mark in the factory coordinate system obtained from the mark coordinate table (13). ), B) to calculate the position coordinates and orientation of the unmanned vehicle (1) in the factory coordinate system, and periodically report these to the travel control unit (14).

e)座標テーブル(13) 各マーク(5)毎の工場座標系におけ る座標が入力されている。e) Coordinate table (13) In the factory coordinate system for each mark (5) The coordinates are entered.

f)走行制御部(14) 通信コントローラ(17)より指示される目的地とメモ
リーのマツプデータ(15)により走行経路の決定をし
、走行及び操舵駆動系であるサーボドライバー(18)
に走行データの指示をする。
f) Travel control unit (14) Determines the travel route based on the destination and memory map data (15) instructed by the communication controller (17), and servo driver (18) which is the travel and steering drive system.
Instructs driving data.

演算部(12)から報告される無人車の位置、方位のデ
ータとマツプデータ(15)からの目的地の情報を比較
して許容以上にズレが生じている場合は走行データの修
正をして走行、操舵駆動系であるサーボドライバー(1
8)に指示をする。
Compare the position and direction data of the unmanned vehicle reported from the calculation unit (12) with the destination information from the map data (15), and if there is a discrepancy beyond tolerance, correct the driving data and drive. , servo driver (1) which is the steering drive system
8) Give instructions.

演算部(12)から報告される無人車 (1)の位置、方位のデータ以外に、走行・操舵駆動系
のモータ(M>からのエンコーダ出力(19)等を利用
して自己の位置、方位の計算をし、ビジョンによる観測
間隔を補間する。
In addition to data on the position and orientation of the unmanned vehicle (1) reported from the calculation unit (12), the position and orientation of the unmanned vehicle (1) are calculated using encoder output (19) from the motor (M) of the driving/steering drive system. and interpolates the observation interval based on vision.

通信コントローラ(17)に対し、無人車(1)の位置
、方位及び状態のデータを定期的に報告する。
Data on the position, direction, and status of the unmanned vehicle (1) are periodically reported to the communication controller (17).

g)通信コントローラ(17) 地上コントローラ(20)から地上側通信コント−ロー
ラ(21)及び通信ユニット(22)を介して通られて
くる目的地、発進、停止移載指示等を通信ユニッ) (
23)を介して受けてメインコントローラ(11)にそ
の都度、報告する。
g) Communication controller (17) The communication unit receives destination, start, stop, transfer instructions, etc. from the ground controller (20) via the ground side communication controller (21) and communication unit (22).
23) and reports each time to the main controller (11).

メインコントローラ(11)からの現地点、次ストップ
位置、状態コード等の情報を地上コントローラ(20)
からの呼びかけに応じて報告する。
Information such as the current point, next stop position, status code, etc. from the main controller (11) is sent to the ground controller (20).
Report in response to a call from.

h)地上コントローラ(20) ホス)CPU(24) や搬送要求設定盤等からの搬送
要求を受は付けて最も効率的と考えられる無人車にその
搬送要求を割付ける。
h) Ground controller (20) Accepts transport requests from CPU (24), transport request setting board, etc., and assigns the transport request to the unmanned vehicle considered to be the most efficient.

無人車(1)から報告されてくる次ス トップ等のデータから衝突防止の管理を行い必要に応じ
て、無人車(1)に対して停発進の指示をする。
Collision prevention is managed based on data such as the next stop reported from the unmanned vehicle (1), and instructions to stop and start are given to the unmanned vehicle (1) as necessary.

無人車(1)から報告されてくる各種 状態のデータをグラフィクディスプレイ(25)にアニ
メーション表示してシステムの状態をリアルタイムモニ
タリングできるようにする。
Various status data reported from the unmanned vehicle (1) is displayed in animation on the graphic display (25) to enable real-time monitoring of the system status.

オフラインモード時にCAD機能を利 用して、マツプ定義やマーク座標定義を行い無人車(1
)にダウンロードするデータ作成機能を持つ。
In offline mode, use the CAD function to define maps and mark coordinates to create an unmanned vehicle (1
) has a data creation function to download to.

i)移載ロボット制御部(26) 本実施例においては、無人車(1)上 に移載口ボッ) (27)を搭載したものを示している
けれども、該移載ロボット (27)は本願の主旨から外れるので詳細な説明は省略
する。
i) Transfer robot control unit (26) Although this embodiment shows a transfer port (27) mounted on an unmanned vehicle (1), the transfer robot (27) is A detailed explanation will be omitted since it deviates from the main purpose.

C)マークについて 次に前記マークについて詳述する。なお、以下詳述する
マークは前記A)項の2マーク認識による無人車の現在
位置及び進行方向のKIWliに係るものである。
C) Marks Next, the marks will be explained in detail. Note that the marks described in detail below are related to the KIWli of the current position and direction of movement of the unmanned vehicle based on the two-mark recognition described in item A) above.

第5図にマーク(5)の−例を図示している。このマー
ク(5)は円形をしており、その外周より、全周を黒部
より成る第1黒シート帯(30)、該第1黒シート帯(
30)の内側の白部より成る第1白シート帯(31)、
該第1白ンート帯(31)の内側のコードシート帯(3
2)、該コードシート帯(32)の内側の黒部より成る
第2黒シート帯(33)、該第黒シート帯(33)の内
側の白部より成る第2白シート帯(34)、該第2白シ
ート帯(34)の内側の黒部より成る中心黒シート部(
35)とにより構成されている。上記黒部の各黒シート
帯(30) (33)及び中心黒シート部(35)は黒
色等の光の反射の少ない色のシートを使用し、各自シー
ト帯(31)(34)には白色等の光の反射の多い色で
、かつ乱反射やキズやシミの無いシートを使用する。天
井面の色は黒系統でも白系統でもよいけれども、この実
施例において一応黒系統であるとする。上記コードシー
ト帯(32)は半径方向にnビット(図では7ビツトで
あり、以下7ビツトにおける実施例を説明する。)に分
割され、1ビツトがさらに3等分にそれぞれ分割されて
いる。3等分に分割されたものを以下、小区域と称すこ
とにする。
An example of mark (5) is shown in FIG. This mark (5) has a circular shape, and from its outer periphery, a first black sheet band (30) consisting of a black part all around the circumference, a first black sheet band (
a first white sheet band (31) consisting of the inner white part of 30);
The cord sheet belt (3) inside the first white belt belt (31)
2), a second black sheet band (33) consisting of the black part inside the code sheet band (32); a second white sheet band (34) consisting of the white part inside the second black sheet band (33); The center black sheet portion (
35). Each black sheet band (30) (33) in the black part and the center black sheet part (35) are made of a sheet with a color that reflects less light such as black, and each sheet band (31) (34) is made of a sheet with a color such as white. Use a sheet that has a color that reflects a lot of light and is free from diffuse reflection, scratches, and stains. Although the color of the ceiling surface may be either black or white, it is assumed that it is black in this embodiment. The code sheet band (32) is divided in the radial direction into n bits (7 bits in the figure, and an embodiment using 7 bits will be described below), and each bit is further divided into three equal parts. Hereinafter, the area divided into three equal parts will be referred to as a small area.

E)マーク信号弁別の動作 次に上記マーク(5)の弁別の動作を説明する。E) Operation of mark signal discrimination Next, the operation of distinguishing the mark (5) will be explained.

カメラ(3)で撮像された天井面の画像はビシジンコン
トローラ(lO)に送り込まれ該コントローラ(10)
で第12図で示されるようにしてマーク(5)の中心位
置座標とコード内容が読み出される。
The image of the ceiling surface taken by the camera (3) is sent to the Visigin controller (lO) and the controller (10)
Then, as shown in FIG. 12, the center position coordinates and code contents of the mark (5) are read out.

(第1ステツプ) カメラ(3)で撮像された面情報は
横方向の走査により1本の信号として上記コントローラ
(10)内に入力する。例示として第5図に右ける走査
線(Scl〜5c5)に対応する信号をそれぞれ信号線
(Sgl〜5g5)として第6図に示す。
(First step) The surface information captured by the camera (3) is input into the controller (10) as one signal by scanning in the horizontal direction. As an example, signals corresponding to the scanning lines (Scl to 5c5) on the right side of FIG. 5 are shown as signal lines (Sgl to 5g5) in FIG. 6, respectively.

〈第2ステツプ) 上記信号は照明器具等からの明るさ
過多が外乱信号として判別され(詳細は省略)、かつ設
定されるしきい値との比較による2値化がなされる。
(Second Step) Excessive brightness from a lighting fixture or the like is determined as a disturbance signal from the above signal (details are omitted), and the signal is binarized by comparison with a set threshold value.

(第3ステツプ) 一方、上記コントローラ(10)内
には予め第7.8図に示されているような水平テンブレ
ー) (36)及び垂直テンプレート(37)が人力さ
れている。該テンブレー) (36)(37)  は同
一の構造であり、上記マーク (5)の第2白シート部
(34)と中心黒シート部(35)に対応させたもので
ある。すなわち、両側に任意の個数の黒検出画素域〈以
下、単に黒画素域という) (38) (39) を有
し、その内側にそれぞれ第2白シ−ト部(31)の幅(
Ha)と同一の幅(Fa)を有す白画素域(40) (
41)が形成され、さらにその内側の中央部には中心黒
シート部(35)の直径と同一の幅(Fb)を有す黒画
素域(42)が形成されている。
(Third Step) On the other hand, a horizontal template (36) and a vertical template (37) as shown in FIG. 7.8 are manually installed in the controller (10) in advance. The templates (36) and (37) have the same structure and correspond to the second white sheet portion (34) and the center black sheet portion (35) of the mark (5). That is, it has an arbitrary number of black detection pixel areas (hereinafter simply referred to as black pixel areas) (38) (39) on both sides, and the width (
A white pixel area (40) (
41) is formed, and a black pixel area (42) having the same width (Fb) as the diameter of the central black sheet portion (35) is formed at the center inside thereof.

上記水平テンブレ゛−)(36)と各画像信号とを比較
し、マツチングした所の水平座標を検出する。
The horizontal template (36) is compared with each image signal, and the horizontal coordinates of the matched locations are detected.

(第4ステツプ) 上記水平テンプレート(36)によ
るマツチング検出と同時に垂直テンプレート(37)に
よるマツチング検出を行いマツチングした所の垂直座標
を検出する。
(Fourth step) At the same time as the matching detection using the horizontal template (36), matching detection is performed using the vertical template (37) to detect the vertical coordinates of the matched location.

(第5ステツプ) 上記第3及び第4ステツプで検出し
た水平及び垂直座標の交点を求めることにより、マーク
(5)のカメラ(3)内での中心位置座標(Sn>が検
出される。
(Fifth step) By finding the intersection of the horizontal and vertical coordinates detected in the third and fourth steps, the center position coordinate (Sn>) of the mark (5) within the camera (3) is detected.

(第6〜9ステツプ) 上記のようにして、マーク(5
)の中心位置座標が検出されると次に該中心位置(Sn
)から半径(Ra)の距離で時計針方向にスキャンユン
グをする。
(6th to 9th steps) As above, mark (5th to 9th steps)
) is detected, then the center position (Sn
) in a clockwise direction at a distance of radius (Ra).

該半径(Ra)によるスキャンユングは丁度前記コード
シート帯(32)上をスキャンすることになっている。
Scanning according to the radius (Ra) is to scan just above the code sheet band (32).

スキャンユングの開始地点はどこからでもよく、1ビツ
ト分の小区域が3コ以上連続した所をスタートビット 
(St)と認識し、以下コードシート帯(32)上の情
報を読み取っていく。第9.10図にその読み取りの状
態を示している。
The starting point for scanning can be anywhere, and the starting point is a place where three or more small areas of 1 bit are consecutive.
(St) and then reads the information on the code sheet band (32). Figure 9.10 shows the reading state.

この実施例の場合、3つの小区域が黒(b)・白(W)
  ・黒(b)の場合は「0」、黒(b)  ・白(W
)  ・白(W)の場合は「1」に対応している。した
がって、実施例においては、r’010100」という
コードが読み取られ、該コードに対応するマークだとい
う認識が無人車においてなされる。6ビツトの場合は2
@=64種類、10ビツトでは2”=1024種類、識
別可能である。
In this example, the three subareas are black (b) and white (W).
- "0" for black (b), "0" for black (b) - white (W
) - White (W) corresponds to "1". Therefore, in the embodiment, the code "r'010100" is read, and the unmanned vehicle recognizes that the mark corresponds to the code. 2 for 6 bits
@ = 64 types; in 10 bits, 2'' = 1024 types can be identified.

上記したように、マーク(5)は円形であり、しかも該
マークのコードも同心円の円周上に位置している。した
がって、無人車の傾きに関係なくどの方向からも常にマ
ークの中心位置及びコード内容が正確に読み取られる。
As mentioned above, the mark (5) is circular, and the code of the mark is also located on the circumference of concentric circles. Therefore, the center position of the mark and the code content can always be accurately read from any direction regardless of the tilt of the unmanned vehicle.

なお、上記コードのうち最後のコードが「1」の場合内
(W)の小区域が5つ連続し、どこまでがスタートビッ
トか認識できないおそれがあるので、3つ以上の小区域
が連続し、それから始めて黒(b)の小区域が出てきた
時点が第1のビットの開始だと認識するようにしている
In addition, if the last code among the above codes is "1", there are five consecutive small areas (W), and there is a risk that it may not be possible to recognize where the start bit ends, so if three or more small areas are consecutive, From then on, when the black (b) small area appears, it is recognized as the start of the first bit.

F)他の実施例のマークについて 次に、前記B)項の1マーク認識による無人車の現在位
置及び進行方向の認識に係るマークについて説明する。
F) Marks of Other Embodiments Next, marks related to the recognition of the current position and traveling direction of an unmanned vehicle by one mark recognition in the above B) will be explained.

第11図にそのマークを示している。なお、前記D)、
E)項と共通する所は同一符号を付し説明は省略する。
The mark is shown in FIG. In addition, the above D),
The same reference numerals are given to the same parts as in section E), and the explanation is omitted.

このマーク (5)には第1白シート帯(31)に方向
認識のための黒部(43)が付しである。該黒部(43
)は全てのマークに同方向、同位置に付されている。例
えば、マーク中心位置(Sn)から真北方向に該黒部(
43)が付しである。
This mark (5) has a black part (43) on the first white sheet band (31) for direction recognition. Kurobe (43
) are attached to all marks in the same direction and at the same position. For example, the black part (
43) is attached.

上記マーク(5)の信号弁別は、前記コードシート帯(
32)上のスキャンユングと共に、第1白シート帯(3
1)もスキャンユングして上記黒部(43)位置を検出
する。
The signal discrimination of the above mark (5) is based on the code sheet band (
32) Along with the upper scan Jung, scan the first white sheet band (3
1) is also scanned to detect the position of the black part (43).

該黒部(43)のカメラ画像内での方向を検出すること
により、相対的に無人車の工場座標系における方向を認
識することができる。なお、この実施例の場合、スキャ
ンユングの開始地点は任意の特定地点とし、該特定地点
(開始地点)から、黒部(43)までの距離によりマー
ク(5)の方向を検出する。なお、上記スタートビット
(St)を上記黒部(43)の代用として用いることも
可能である。
By detecting the direction of the black part (43) in the camera image, it is possible to relatively recognize the direction of the unmanned vehicle in the factory coordinate system. In the case of this embodiment, the starting point of scanning is an arbitrary specific point, and the direction of the mark (5) is detected based on the distance from the specific point (starting point) to the black part (43). Note that it is also possible to use the start bit (St) as a substitute for the black part (43).

G)無人車の誘導について 上記D)項又はF)項記載のマーク(5)をカメラ(3
)で検出し、ビジョンコントローラ(10)で各マーク
(5)の中心位置座標(Sn)とコード内容を読み取り
、該読み取った情報により、演算部(12)において前
記A)項又はB)項の処理により無人車(1)の工場座
標系における現在位置及び進行方向が認識される。該演
算部(12)で認識された情報に基づいて走行制御部(
14)で走行データの指示をサーボドライバー(18)
に伝える。該制御部(14)では、通信コントローラ(
17)から指示される目的地と、工場内の走行経路を記
憶しているマツプデータ(15)と上記演算1iR3(
12)からの情報とにより無人車の走行を誘導する。
G) Regarding the guidance of unmanned vehicles, place the mark (5) described in item D) or item F) above on the camera (3).
), the vision controller (10) reads the center position coordinates (Sn) and code contents of each mark (5), and based on the read information, the arithmetic unit (12) calculates the above item A) or B). Through the process, the current position and traveling direction of the unmanned vehicle (1) in the factory coordinate system are recognized. Based on the information recognized by the calculation unit (12), the driving control unit (
14) to instruct the driving data to the servo driver (18)
tell. The control unit (14) includes a communication controller (
The map data (15) that stores the destination indicated by 17) and the driving route within the factory and the above calculation 1iR3 (
12) The driving of the unmanned vehicle is guided based on the information from 12).

H)レイアウト変更について 上記マツプデータ (15)内に記憶されている走行経
路が工場内の全ての経路であるならば、通信コントロー
ラ(17)からの目的地の指示を変更するだけで、無人
車の走行は変更される。また、工場内のレイアウトを変
更して、走行経路でなかった部分を新たに走行経路とす
る場合あるいはその逆の場合には、マツプデータ(15
)の記憶内容を一部変更するだけでよい。もちろん、天
井面のマーク(5)及び無人車上のカメラ(3)はその
ままである。
H) Layout changes If the travel routes stored in the above map data (15) are all routes within the factory, you can change the layout of the unmanned vehicle by simply changing the destination instruction from the communication controller (17). The run will be changed. In addition, if you change the layout in the factory and make a new driving route from a part that was not a driving route, or vice versa, you can use the map data (15
) only need to change some of the memory contents. Of course, the mark (5) on the ceiling and the camera (3) on the unmanned vehicle remain the same.

すなわち、無人車が自らの現在位置を工場内金ての場所
で工場内座標として認識することが可能となっているの
で、走行経路変更時に:ま少なくとも無人車に与える座
標のデータのみを変更すればよく、他のハード的な変更
はいっさい必要としない。
In other words, since the unmanned vehicle is able to recognize its current location as the factory coordinates at any location within the factory, when changing the driving route: At least, only the coordinate data given to the unmanned vehicle must be changed. No other hardware changes are required.

〔発明の効果〕〔Effect of the invention〕

以上の説明から明らかなように、本発明によれば、マー
クの外形を円形とし、かつ該マ一り内にマークと同心円
であって他のマークと識別可能な円形コードを付してい
るので、無人車の傾きに関係なくどの方向からも常にマ
ークの中心位置及びコード内容が正確に読み取られる。
As is clear from the above description, according to the present invention, the outer shape of the mark is circular, and a circular code that is concentric with the mark and distinguishable from other marks is attached within the circle. , the center position of the mark and the code content can always be accurately read from any direction regardless of the tilt of the unmanned vehicle.

したがって、無人車は自らの現在位置を常に認識しなが
ら走行でき、それによりレイアウト変更時にも即座に対
応できる自由度を有し、よりインテリジェント化された
ものとなる。
Therefore, unmanned vehicles can drive while always recognizing their current location, and as a result, they have the flexibility to respond immediately to changes in layout, making them more intelligent.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は無人車の建屋内での運行状態を概略的に示す模
式図、第2図は無人車の位置認識のための考え方を説明
するための模式図、第3図は同じく側面図、第4図は無
人車の制御構造を示すブロック図、第5図はマークを示
す正面図、第6図は該マークの走査状態を説明するため
の模式図、第7図は水平テンプレートを示す模式図、第
8図は垂直テンプレートを示す模式図、第9図はマーク
のコード情報読み取りのためのスキャンニングを説明す
るための模式図、第1O図はコード情報の解析を説明す
るための模式図、第11図はマークの他の実施例を示す
正面図、第12図はマーク信号弁別のためのフロチャー
ト図である。 (1) 無人走行車 (2) 建屋 (3) カメラ(撮像手段) (4) 天井面 (5)  マーク (10)  ビジョンコントローラ(解析手段)(12
)  演算部(演算手段) (13)  座標テーブル(記憶手段)(14)  走
行制御部 (15)  マツプデータ
Fig. 1 is a schematic diagram schematically showing the operation status of an unmanned vehicle in a building, Fig. 2 is a schematic diagram to explain the concept for position recognition of an unmanned vehicle, and Fig. 3 is a side view. Fig. 4 is a block diagram showing the control structure of the unmanned vehicle, Fig. 5 is a front view showing the mark, Fig. 6 is a schematic diagram for explaining the scanning state of the mark, and Fig. 7 is a schematic diagram showing the horizontal template. Figure 8 is a schematic diagram showing a vertical template, Figure 9 is a schematic diagram illustrating scanning for reading code information from marks, and Figure 1O is a schematic diagram illustrating analysis of code information. , FIG. 11 is a front view showing another embodiment of the mark, and FIG. 12 is a flow chart for mark signal discrimination. (1) Unmanned vehicle (2) Building (3) Camera (imaging means) (4) Ceiling surface (5) Mark (10) Vision controller (analysis means) (12
) Calculation unit (calculation means) (13) Coordinate table (storage means) (14) Travel control unit (15) Map data

Claims (1)

【特許請求の範囲】[Claims]  無人走行車が導入される建屋内の所定位置に配置され
、該無人走行車上に設置された撮像手段により撮像され
るマークであって、外形は全て円形とし、かつ該マーク
内にマークと同心円で他のマークと識別可能な円形コー
ドを付したことを特徴とする無人走行車の誘導用マーク
A mark that is placed at a predetermined position in a building into which an unmanned vehicle is introduced and that is imaged by an imaging means installed on the unmanned vehicle, the outer shape of which is entirely circular, and a circle that is concentric with the mark within the mark. A mark for guiding unmanned vehicles, characterized by a circular code that can be distinguished from other marks.
JP63022373A 1988-02-02 1988-02-02 Guidance mark for unmanned vehicle Pending JPH01197809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63022373A JPH01197809A (en) 1988-02-02 1988-02-02 Guidance mark for unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63022373A JPH01197809A (en) 1988-02-02 1988-02-02 Guidance mark for unmanned vehicle

Publications (1)

Publication Number Publication Date
JPH01197809A true JPH01197809A (en) 1989-08-09

Family

ID=12080833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63022373A Pending JPH01197809A (en) 1988-02-02 1988-02-02 Guidance mark for unmanned vehicle

Country Status (1)

Country Link
JP (1) JPH01197809A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5234066A (en) * 1990-11-13 1993-08-10 Staodyn, Inc. Power-assisted wheelchair
JP2020164903A (en) * 2019-03-28 2020-10-08 Jx金属株式会社 Inspection device, system, and detection method in electrorefining

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5234066A (en) * 1990-11-13 1993-08-10 Staodyn, Inc. Power-assisted wheelchair
JP2020164903A (en) * 2019-03-28 2020-10-08 Jx金属株式会社 Inspection device, system, and detection method in electrorefining

Similar Documents

Publication Publication Date Title
US4566032A (en) Visually guided vehicle
JP4533065B2 (en) Artificial beacon generation method, mobile robot self-position and azimuth estimation method, mobile robot self-position and azimuth estimation device, mobile robot, and estimation program
US4862047A (en) Apparatus for guiding movement of an unmanned moving body
US20060293810A1 (en) Mobile robot and a method for calculating position and posture thereof
JPH10177414A (en) Device for recognizing traveling state by ceiling picture
JPH02143309A (en) Operation method and apparatus
JP2009544966A (en) Position calculation system and method using linkage between artificial sign and odometry
JPH02244306A (en) Visual navigation system and method
JP2009123061A (en) System for detecting robot position
JP2014021624A (en) Autonomous traveling device and autonomous traveling system
JPH11272328A (en) Color mark, moving robot and method for guiding moving robot
JPH01197808A (en) Guidance system for unmanned vehicle
JPH01243104A (en) Mark identifying device in image pickup means
JPH04188014A (en) Apparatus for detecting distance between vehicles
JPH01197809A (en) Guidance mark for unmanned vehicle
JP2006252349A (en) Mobile robot
JPH04238219A (en) Location device for vehicle
JPH0820253B2 (en) Position detection method in mobile robot
JPS6159507A (en) Guiding device of selfcontrol running truck
JPH0667726A (en) Absolute position obtaining method for unmanned running car
Takeda et al. Automated vehicle guidance using spotmark
JPH064127A (en) Own-position measuring instrument for indoor moving body
JP2838474B2 (en) Guidance target capturing method and guidance device for autonomous mobile robot
JP2020154733A (en) Mobile robot, control system of the same, control method of the same
WO2024106250A1 (en) Sign detection system and autonomous mobile robot control system