JP2564832B2 - Self-supporting unmanned vehicle - Google Patents

Self-supporting unmanned vehicle

Info

Publication number
JP2564832B2
JP2564832B2 JP62160593A JP16059387A JP2564832B2 JP 2564832 B2 JP2564832 B2 JP 2564832B2 JP 62160593 A JP62160593 A JP 62160593A JP 16059387 A JP16059387 A JP 16059387A JP 2564832 B2 JP2564832 B2 JP 2564832B2
Authority
JP
Japan
Prior art keywords
unmanned vehicle
distance
map data
traveling
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62160593A
Other languages
Japanese (ja)
Other versions
JPS644814A (en
Inventor
正紀 大西
秀光 田畑
哲平 山下
友司 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinko Electric Co Ltd
Original Assignee
Shinko Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinko Electric Co Ltd filed Critical Shinko Electric Co Ltd
Priority to JP62160593A priority Critical patent/JP2564832B2/en
Priority to KR1019880007284A priority patent/KR930005213B1/en
Priority to EP88305835A priority patent/EP0297811A3/en
Priority to US07/210,845 priority patent/US4982329A/en
Publication of JPS644814A publication Critical patent/JPS644814A/en
Application granted granted Critical
Publication of JP2564832B2 publication Critical patent/JP2564832B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A30/00Adapting or protecting infrastructure or their operation
    • Y02A30/27Relating to heating, ventilation or air conditioning [HVAC] technologies
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/62Absorption based systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、走行経路が指示された地図データに基づ
いて自立走行する自立型無人車に関する。
Description: TECHNICAL FIELD The present invention relates to a self-supporting unmanned vehicle that autonomously travels based on map data indicating a travel route.

[従来技術] 近年、FA(ファクトリ・オートメーション)の進展に
伴い、工場、倉庫などにおいて、部品等を自動的に搬送
する無人車が種々開発されているが、中でも自立型無人
車と呼ばれるものは、目的地となるノードを指定するこ
とにより自ら最適な経路を探索して通過するノードを決
定し、目的地のノードまで自動的に走行するものであ
る。ここで、ノードとは停止点、分岐点、作業地点など
であり、無人車の走行速度や進行方向等の走行状態が変
化する点のことである。
[Prior Art] In recent years, with the progress of factory automation (FA), various types of unmanned vehicles that automatically convey parts and the like have been developed in factories, warehouses, etc. Among them, what are called self-supporting unmanned vehicles are By designating a destination node, it automatically searches for an optimal route and determines which node to pass through, and automatically travels to the destination node. Here, a node is a stop point, a branch point, a work point, or the like, and is a point at which a traveling state such as a traveling speed or a traveling direction of an unmanned vehicle changes.

第5図は、この種の自立型無人車(以下無人車と称す
る)1の概略構成を示す平面図である。なお、この図の
図面上方が無人車1の前面である。
FIG. 5 is a plan view showing a schematic configuration of this type of self-supporting unmanned vehicle (hereinafter referred to as unmanned vehicle) 1. The upper part of the drawing is the front surface of the unmanned vehicle 1.

第5図において、2Lは左駆動輪、2Rは右駆動輪、3Lは
左駆動輪2Lを回転するモータ、3Rは右駆動輪2Rを回転す
るモータ、4Lは左駆動輪2Lの回転数を検出するパルスエ
ンコーダ、4Rは右駆動輪2Rの回転数を検出するパルスエ
ンコーダ、5,5,…は車輪である。これら車輪5,5,…は、
各々軸心に対して回転自在であると共に、車輪5,5,…各
々の軸心に直角な軸方向に対しても回転自在となってい
る。6L,6Rは左右の側壁Wまでの距離を検出するための
超音波送受信器(以下超音波センサと称する)、7は制
御装置である。この制御装置7は、第6図に示すよう
に、CPU(セントラル・プロセシング・ユニット)8、
プログラムメモリ9、ワークメモリ10、インタフェース
回路11およびモータ駆動回路12を有している。プログラ
ムメモリ9にはCPU8を制御するプログラムが書き込まれ
ている。また、ワークメモリ10には、走行経路に関する
地図情報が書き込まれている。この地図情報とは、各ノ
ードの座標を示す座標データや、各ノードを結ぶ走行予
定経路から左右の壁Wまでの距離等に関する地図データ
である。ここで、第7図はワークメモリ10に書き込まれ
た左壁Wまでの距離を表す地図データMLを示すものであ
る。この場合、地図データMLは、所定距離l毎に無人車
1が走行する走行予定経路から左側壁までの距離を示す
データla1〜lanから構成される。これらデータla1〜lan
はそれぞれ2バイトで構成されている。また、右壁Wま
での距離を示す図示しない地図データMRも上述した地図
データMLと同様に構成されている。
In FIG. 5, 2L is the left drive wheel, 2R is the right drive wheel, 3L is the motor that rotates the left drive wheel 2L, 3R is the motor that rotates the right drive wheel 2R, and 4L is the rotational speed of the left drive wheel 2L. Are pulse encoders, 4R is a pulse encoder that detects the number of rotations of the right drive wheel 2R, and 5,5, ... Are wheels. These wheels 5,5, ...
Each of the wheels 5 is rotatable about its own axis, and is also rotatable about the axis perpendicular to the axis of each of the wheels 5, 5 ,. Reference numerals 6L and 6R denote ultrasonic transmitter / receivers (hereinafter referred to as ultrasonic sensors) for detecting the distance to the left and right side walls W, and 7 is a control device. As shown in FIG. 6, the control device 7 includes a CPU (Central Processing Unit) 8,
It has a program memory 9, a work memory 10, an interface circuit 11 and a motor drive circuit 12. A program for controlling the CPU 8 is written in the program memory 9. Further, the work memory 10 is written with map information regarding the traveling route. This map information is coordinate data indicating the coordinates of each node, map data regarding the distance from the planned travel route connecting each node to the left and right walls W, and the like. Here, FIG. 7 shows map data ML written in the work memory 10 and representing the distance to the left wall W. In this case, the map data ML is composed of data la 1 to lan indicating the distance from the planned traveling route of the unmanned vehicle 1 to the left side wall at every predetermined distance l. These data la 1 ~ lan
Are each composed of 2 bytes. The map data MR (not shown) indicating the distance to the right wall W is also configured in the same manner as the map data ML described above.

次に、13は通信装置であり、中央局(図示しない)か
ら無線によって送られてくる指示(目的地のノードを示
す)を受信するものである。この通信装置13により受信
された指示は制御装置7へ供給される。
Next, 13 is a communication device, which receives an instruction (indicating a destination node) sent from a central station (not shown) by radio. The instruction received by the communication device 13 is supplied to the control device 7.

このように構成された無人車1において、CPU8は、プ
ラグラムメモリ9に書き込まれたプログラムに従って以
下に示す走行制御を行う。
In the unmanned vehicle 1 configured in this way, the CPU 8 performs the following traveling control according to the program written in the program memory 9.

まず、CPU8は、中央局から目的地のノードが与えられ
ると、ワークメモリ10内に書き込まれている地図情報に
基づいて最適な経路を探索し、目的地に向かう際に通過
するノードを決定する。そして、CPU8は、一つのノード
から次のノードに至るまでの間、所定距離l毎に左右の
側壁Wまでの距離を地図データML,MRに基づいて適便読
み出す。そして、CPU8は、各ノードを順次結ぶ走行予定
経路に沿って一定の速度で走行するようにモータ3L,3R
を各々駆動する。この際、CPU8は、所定の距離l毎に超
音波センサ6L,6Rから各々供給される信号に基づいて左
右の壁Wまでの距離を測定し、また、パルスエンコーダ
4L,4Rから供給される信号に基づいて、直前に通過した
ノードからの走行距離を測定する。そして、これらの測
定結果により、現在の走行位置が地図情報に基づいて得
られる正規の走行位置から逸脱しているか否かを判断
し、逸脱している場合においては、位置を修正する。こ
れにより、無人車1が常に正規の走行位置上を走行し、
各ノード上を順次通過して目的のノードに到達するよう
になっている。
First, when the CPU 8 is given a destination node from the central station, the CPU 8 searches for an optimum route based on the map information written in the work memory 10 and determines a node to pass through when going to the destination. . Then, the CPU 8 reads the distance to the left and right side walls W for each predetermined distance 1 from the one node to the next node based on the map data ML, MR for the appropriate flight. Then, the CPU 8 causes the motors 3L, 3R to travel at a constant speed along the planned travel route connecting the nodes in sequence.
Drive each. At this time, the CPU 8 measures the distance to the left and right walls W based on the signals respectively supplied from the ultrasonic sensors 6L and 6R for each predetermined distance l, and the pulse encoder
Based on the signals supplied from 4L and 4R, the traveling distance from the node that passed immediately before is measured. Then, based on these measurement results, it is determined whether or not the current traveling position deviates from the regular traveling position obtained based on the map information, and if it deviates, the position is corrected. As a result, the unmanned vehicle 1 always travels on the regular traveling position,
It passes through each node in sequence and reaches the target node.

[発明が解決しようとする問題点] ところで、上述した従来の無人車1にあっては、以下
に示す問題がある。
[Problems to be Solved by the Invention] By the way, the above-mentioned conventional unmanned vehicle 1 has the following problems.

側壁Wとの距離を測定する測定間隔を短くして走行精
度を高めると、測定数に見合ったデータ数からなる地図
データが必要となるので膨大なメモリ容量が必要とな
る。
When the measurement interval for measuring the distance to the side wall W is shortened to improve the traveling accuracy, map data having the number of data commensurate with the number of measurements is required, which requires a huge memory capacity.

例えば、距離l0だけ走行するために要する地図データ
数はl0/l個必要であり、側壁Wまでの距離をmm単位の精
度で表せば、一般的な通路の幅はメートルのオーダであ
るため地図データの1個のデータは2バイト(16ビッ
ト)の容量が必要となる。ここで、l=10mm、l0=5000
000mmとすると、地図データの容量は 2×5000000/10=106(バイト) …… となる。また、地図データを左右両方有すると、全体の
地図データの容量は式の2倍となる。
For example, the number of map data required to travel a distance l 0 is required l 0 / l, and if the distance to the side wall W is expressed with an accuracy of mm, the width of a general passage is on the order of meters. Therefore, one piece of map data requires a capacity of 2 bytes (16 bits). Here, l = 10 mm, l 0 = 5000
If it is 000 mm, the map data capacity will be 2 × 5000000/10 = 10 6 (bytes) .... Further, if the map data is provided on both the left and right sides, the total capacity of the map data will be twice as much as the formula.

ところで、lを50mmにすればメモリ容量は式の1/5
となるが、その反面、走行制御が荒くなり円滑な走行を
行うことができなくなる。
By the way, if l is 50 mm, the memory capacity is 1/5 of the formula.
However, on the other hand, traveling control becomes rough and smooth traveling cannot be performed.

地図データは、無人車が所定距離l走行する毎の壁ま
での距離として表しているため、この距離l内では基準
となる地図データがない。このため、きめの細かい走行
位置の制御を行うことができない。
Since the map data is represented as the distance to the wall every time the unmanned vehicle travels a predetermined distance l, there is no reference map data within this distance l. For this reason, it is not possible to perform precise control of the traveling position.

地図データを作成するためには、多くのデータを必要
とするので、作成が面倒である。また、データを数値と
して扱うので、人間が理解し易いものではない。
Creating map data requires a lot of data, which is troublesome to create. Also, since the data is treated as numerical values, it is not easy for humans to understand.

このように、一定の距離間隔(数十ミリメートル)毎
に側壁Wまでの距離を示したデータからなる地図データ
を有した従来の自立型無人車では、メモリ容量が大きく
なると共に、きめ細かな走行位置の制御ができない。ま
た、地図データの作成が面倒であり、地図データそのも
のも理解しずらいという問題があった。
As described above, in the conventional self-supporting unmanned vehicle having the map data including the data showing the distance to the side wall W at every constant distance interval (several tens of millimeters), the memory capacity becomes large and the detailed traveling position is fine. Cannot be controlled. In addition, there is a problem that it is difficult to comprehend the map data itself because it is troublesome to create the map data.

この発明は、上述した事情に鑑みてなされたもので、
メモリ容量を少なくすることができると共に、きめ細か
な走行位置の制御ができ、また、地図データの作成が容
易で、かつデータ内容が理解し易い自立型無人車を提供
することにある。
The present invention has been made in view of the above circumstances,
An object of the present invention is to provide a self-supporting unmanned vehicle that can reduce the memory capacity, can control the traveling position in detail, can easily create map data, and can easily understand the data content.

[問題点を解決するための手段] この発明は、上記問題点を解決するために、目的地へ
向かう過程で通過するノードを予め決定し、これらの各
ノードを順次通過して走行する自立型無人車において、
無人車走行の走行経路側方状況を示すオペコード、およ
びこのオペランドによる走行経路側方状況の継続距離を
示す主オペランドを有するシーンコマンドにより構成さ
れる地図データと、ノードの通過順に従って前記地図デ
ータから該当するシーンコマンドを読み出し、このシー
ンコマンドによって走行制御する走行制御部とを具備す
ることを特徴とする。
[Means for Solving Problems] In order to solve the above problems, the present invention predetermines nodes to pass in the process of traveling to a destination, and autonomously travels by sequentially passing through these nodes. In an unmanned vehicle,
From the map data composed of the scene code having an opcode indicating the lateral situation of the traveling route of the unmanned vehicle and the main operand indicating the continuation distance of the lateral situation of the traveling route by this operand, and from the map data according to the passage order of the nodes. It is characterized by comprising a travel control unit for reading out a corresponding scene command and controlling travel according to this scene command.

[作用] 上記構成によれば、地図データを無人車走行の走行経
路側方状況を示すオペコードと、このオペコードによる
走行経路側方状況の継続距離を示す主オペランドを有す
るシーンコマンドで構成し、このシーンコマンドを走行
開始時から走行終了閉までの間に地図データから適便読
み出して走行制御を行うようにしたので、全走行経路上
における一定形態の区間毎に一個のシーンコマンドを割
り当てるだけで良いので、地図データとしてのデータ容
量は少なくて済む。また、周囲までの距離を連続したデ
ータとしたので、きめ細かな走行位置の制御ができる。
また、地図データの作成が容易で、かつ、シーンコマン
ドの内容が理解し易いという利点がある。
[Operation] According to the above configuration, the map data is composed of an operation code indicating the lateral situation of the traveling route of the unmanned vehicle and a scene command having a main operand indicating the continuation distance of the lateral situation of the traveling route by this operation code. Since the scene command is read from the map data during the period from the start of traveling to the end of traveling to perform proper traveling control, it is only necessary to allocate one scene command for each section of a certain form on the entire traveling route. Therefore, the data capacity as map data can be small. In addition, since the distance to the surroundings is continuous data, it is possible to perform fine control of the traveling position.
Further, there are advantages that map data can be easily created and that the contents of the scene command are easy to understand.

[実施例] 以下、図面を参照してこの発明の実施例について説明
する。
Embodiments Embodiments of the present invention will be described below with reference to the drawings.

第1図はこの発明の一実施例である無人車1′の概略
構成を示す平面図、第2図は同実施例の電気的構成を示
すブロック図である。なお、この実施例において、前述
した第5図および第6図と対応する部分には同一の符号
を付してその説明を省略する。また、この実施例では制
御装置のみが従来の無人車1の制御装置7と異なってい
る。
FIG. 1 is a plan view showing a schematic structure of an unmanned vehicle 1'which is an embodiment of the present invention, and FIG. 2 is a block diagram showing an electric structure of the embodiment. In this embodiment, portions corresponding to those in FIGS. 5 and 6 described above are designated by the same reference numerals and the description thereof will be omitted. Further, in this embodiment, only the control device is different from the control device 7 of the conventional unmanned vehicle 1.

第1図において、7′は制御装置である。この制御装
置7′は、第2図に示すようにCPU8、プログラムメモリ
9′、ワークメモリ10′、インタフェース回路11および
モータ駆動回路12とを有している。プログラムメモリ
9′にはCPU8を制御するプログラムが書き込まれてい
る。また。ワークメモリ10′には、走行経路に関する地
図情報が書き込まれている。この地図情報とは、各ノー
ドの座標を示す座標データや、各ノードを結ぶ走行予定
経路上の周囲の壁の形態およびその連続性を示す地図デ
ータである。
In FIG. 1, 7'denotes a control device. As shown in FIG. 2, this controller 7'has a CPU 8, a program memory 9 ', a work memory 10', an interface circuit 11 and a motor drive circuit 12. A program for controlling the CPU 8 is written in the program memory 9 '. Also. In the work memory 10 ', map information regarding the traveling route is written. This map information is coordinate data indicating the coordinates of each node, and map data indicating the form and continuity of the surrounding walls on the planned travel route connecting the nodes.

ここで、上述した地図データについてさらに詳しく説
明する。
Here, the above-mentioned map data will be described in more detail.

一般に工場やオフィス内の壁は平坦であり、かつそれ
が連続している。この点に着目して地図データを壁の形
態と、その連続性をもって表すものとする。
Generally, walls in factories and offices are flat and continuous. Focusing on this point, the map data is represented by the shape of the wall and its continuity.

以下、地図データとして、壁の形態およびその連続性
を表す3種類のコマンド(命令)を案出した。これらの
コマンドをシーンコマンドと称し、次のように記述す
る。
Hereinafter, as map data, three types of commands (commands) representing the form of the wall and its continuity were devised. These commands are called scene commands and are described as follows.

〈WALL〉::=WALL(〈distance〉,〈length〉) 〈UNDEFINE〉::=UNDEFINE(〈distance〉,〈lengt
h〉) 〈OPEN〉::=OPEN(〈length〉) (distanceおよびlengthの単位はmmである) 上記各シーンコマンドは、第3図に示すごとく、1ワ
ード(2バイト)のオペコードと、1または2ワードの
オペランドから構成される。この場合、〈OPEN〉は1ワ
ードのオペランドを有し、〈WALL〉および〈UNDEFINE〉
は2ワードのオペランドを有している。
<WALL> :: = WALL (<distance>, <length>) <UNDEFINE> :: = UNDEFINE (<distance>, <lengt
h〉) <OPEN> :: = OPEN (<length>) (The units of distance and length are mm) The above scene commands are as shown in FIG. 3 with 1 word (2 bytes) opcode and 1 Alternatively, it is composed of 2-word operands. In this case, <OPEN> has a 1-word operand, and <WALL> and <UNDEFINE>
Has a 2-word operand.

次に、各シーンコマンドの意味は以下の通りである。 Next, the meaning of each scene command is as follows.

〈WALL〉は〈distance〉で示す距離だけ離れた位置に
壁があり、この壁が〈length〉で示す距離だけ連続して
いることを示す。
<WALL> indicates that there is a wall at the position indicated by <distance> and this wall is continuous for the distance indicated by <length>.

〈UNDEFINE〉は〈distance〉で示す距離以上離れた位
置に何かが存在するか、または、超音波センサでは測定
が困難な壁が存在するなど、超音波センサで一定の情報
が得られず、この状態が〈length〉で示す距離だけ連続
していることを示す。
<UNDEFINE> has some information at a position more than the distance indicated by <distance>, or there is a wall that is difficult to measure with the ultrasonic sensor, so certain information cannot be obtained with the ultrasonic sensor, This state is continuous for the distance indicated by <length>.

〈OPEN〉は超音波センサの測定範囲には何も存在して
いなく、この状態が〈length〉で示す距離だけ連続して
いることを示す。
<OPEN> indicates that nothing exists in the measurement range of the ultrasonic sensor, and this state continues for the distance indicated by <length>.

ここで、〈UNDEFINE〉の使い方について説明する。 Here, how to use <UNDEFINE> is explained.

例えば走行経路の側方にドアがあり、このドアが常時
開いていれば〈OPEN〉が使用できる。しかし、一時的に
でも閉じることがあれば〈OPEN〉は使用できない。ま
た、通常は壁であるが、希に荷物等を置いたりすること
があれば〈WALL〉を使用することができない。以上のよ
うな場合において〈UNDEFINE〉を使用する。
For example, there is a door on the side of the travel route, and if this door is always open, <OPEN> can be used. However, <OPEN> cannot be used if it is closed even temporarily. Also, although it is usually a wall, <WALL> cannot be used if there are rarely items such as luggage. Use <UNDEFINE> in the above cases.

以上、上記した各コマンドを少なくとも無人車1′の
一方の側壁について表したものを地図データとし、各ノ
ードの座標データと共に地図情報としてワークメモリ1
0′に書き込む。なお、上記した〈distance〉および〈l
ength〉の長さは数メートルが標準である。
As described above, at least one side wall of the unmanned vehicle 1'represents each of the above commands as map data, and the work memory 1 as map information together with the coordinate data of each node.
Write to 0 '. Note that the above <distance> and <l
The standard length of ength〉 is several meters.

次に、上述した制御部7′を有するこの実施例の動作
について説明する。また、この動作を説明するに際して
地図データは左右両側壁について各々表したものを、す
なわち、図示しない地図データML′,MR′を使用する。
Next, the operation of this embodiment having the control unit 7'described above will be described. Further, in explaining this operation, the map data represented by the left and right side walls are used, that is, the map data ML ', MR' not shown is used.

以下、CPU8は、プログラムメモリ9′に書き込まれた
プログラムに従って制御を行う。
Hereinafter, the CPU 8 controls according to the program written in the program memory 9 '.

まず、CPU8は、中央局から目的地のノードが与えられ
ると、ワークメモリ10′内に書き込まれている地図情報
に基づいて最適な経路を探索し、目的地に向かう際に通
過するノードを決定する。そして、CPU8は、一つのノー
ドから次のノードに至るまでの間の左右両側壁Wの形態
と、その連続性を表すシーンコマンドを地図データM
L′,MR′から適便読み出す。
First, when the CPU 8 receives a destination node from the central station, the CPU 8 searches for an optimal route based on the map information written in the work memory 10 ', and determines a node to pass through when going to the destination. To do. Then, the CPU 8 maps the form of the left and right side walls W from one node to the next node and the scene command indicating the continuity thereof to the map data M.
Read the appropriate flight from L ', MR'.

ここで、第4図は、ノードNiとノードNi+1との間の
左右両側壁Wの形態およびその連続性を示している。ま
た、この場合のシーンコマンドは次のようになる。
Here, FIG. 4 shows the form of the left and right side walls W between the node Ni and the node Ni + 1 and their continuity. The scene command in this case is as follows.

左側Wについては、 (イ)WALL(〈3000〉,〈5000〉) (ロ)UNDEFINE(〈3000〉,〈1000〉) (ハ)WALL(〈3000),(6000)) となっている。The left side W is (a) WALL (<3000>, <5000>) (b) UNDEFINE (<3000>, <1000>) (c) WALL (<3000), (6000)).

右側壁Wについては、 (イ)′OPEN(〈6000〉) (ロ)′UNDEFINE(〈3800〉,〈6000〉) となっている。Regarding the right side wall W, it is (a) 'OPEN (<6000>) (b)' UNDEFINE (<3800>, <6000>).

(単位はmmである) 以下、この図を参照しながら上述したシーンコマンド
によって無人車1′がノードNiとNi+1との間を走行す
る場合の動作について説明する。
(The unit is mm) Hereinafter, the operation when the unmanned vehicle 1'runs between the nodes Ni and Ni + 1 by the scene command described above will be described with reference to this figure.

まず、CPU8は、(イ)のシーンコマンドを解読し左側
壁Wの形態を認識する。この場合、左側壁Wは〈WAL
L〉、左側壁Wからの距離は3000mm、この〈WALL〉は500
0mm続いている。次いで、CPU8は、(イ)′のシーンコ
マンドを解読し右側壁Wの形態を認識する。この場合、
右側壁Wは〈OPEN〉、この〈OPEN〉は6000mm続いてい
る。そして、CPU8は、(イ)′のシーンコマンドは走行
の基準とならないので、これを無視し、(イ)のシーン
コマンドに従って一定の速度で走行するようにモータ3
L,3R(第1図)を各々駆動する。この際、CPU8は、超音
波センサ6Lから供給される信号(常時送信されている)
に基づいて左側壁Wまでの距離を測定し、この測定結果
と距離3000mmとを比較し、正規の走行予定位置から逸脱
しているか否かを判断する。この場合、逸脱している
と、正規の位置になるようにモータ制御回路12を制御す
る。そして、CPU8は、パルスエンコーダ4L,4Rから供給
される信号を計数しながら距離5000mm間走行する。
First, the CPU 8 recognizes the form of the left side wall W by decoding the scene command (a). In this case, the left side wall W is <WAL
L>, the distance from the left side wall W is 3000 mm, this <WALL> is 500
0 mm continues. Next, the CPU 8 decodes the scene command of (a) 'and recognizes the form of the right side wall W. in this case,
The right side wall W is <OPEN>, and this <OPEN> continues for 6000 mm. Then, the CPU 8 ignores the scene command of (a) ′ as a reference for traveling, and ignores this, so that the motor 3 operates so as to travel at a constant speed in accordance with the scene command of (a).
Drive L and 3R (Fig. 1) respectively. At this time, the CPU 8 is a signal supplied from the ultrasonic sensor 6L (always transmitted).
The distance to the left side wall W is measured based on the above, and the measurement result is compared with the distance of 3000 mm to determine whether or not the vehicle is deviating from the regular planned traveling position. In this case, if it deviates, the motor control circuit 12 is controlled so that the motor control circuit 12 comes to the normal position. Then, the CPU 8 travels for a distance of 5000 mm while counting the signals supplied from the pulse encoders 4L and 4R.

次に、無人車1′が距離5000mm走行し終える直前に、
CPU8は、次のシーンコマンド((ロ))を解読し左側壁
Wの形態を認識する。この場合、左側壁Wは〈UNDEFIN
E〉、〈UNDEFINE〉までの距離は3000mm、この〈UNDEFIN
E〉は1000mm続いている。なお、ここに示された〈UNDEF
INE〉はドアを示している。次いで、CPU8は、右側壁W
の形態が未だ〈OPEN〉のままとして無視の状態を続け
る。また、OPU8は、(ロ)のシーンコマンドも走行の基
準とならないため、これをも無視し、以前の状態を保ち
ながら一定の速度で走行する。この際、パルスエンコー
ダ4L,4Rから供給される信号を計数しながら距離1000mm
走行する。
Next, just before the unmanned vehicle 1'has finished traveling a distance of 5000 mm,
The CPU 8 decodes the next scene command ((b)) and recognizes the form of the left side wall W. In this case, the left side wall W is <UNDEFIN
The distance to E> and <UNDEFINE> is 3000 mm.
E〉 continues for 1000 mm. In addition, <UNDEF shown here
INE〉 indicates a door. Next, the CPU 8 sets the right side wall W
Is still in the <OPEN> form and continues to be ignored. OPU8 also ignores this because the scene command of (b) does not serve as a reference for running, and runs at a constant speed while maintaining the previous state. At this time, while counting the signals supplied from the pulse encoders 4L and 4R, the distance of 1000mm
To run.

次に、無人車1′が距離1000mm間走行し終える直前
に、CPU8は、次のシーンコマンド((ハ))を解読し左
側壁Wの状態を認識する。この場合、左側壁Wは〈WAL
L〉、左側壁Wからの距離は3000m、この〈WALL〉は6000
mm続いている。そして、CPU8は、(ハ)′のシーンコマ
ンドを解読し右側壁Wの形態を認識する。この場合、右
側壁Wは〈UNDEFINE〉、この〈UNDEFINE〉までの距離は
3800mm、〈UNDEFINE〉は6000mm続いている。なお、ここ
に示された〈UNDEFINE〉は、荷物が壁と平行して置かれ
ている場合を示している。そして、CPU8は、(ハ)′の
シーンコマンドを無視し、(ハ)のシーンコマンドに従
って一定の速度で距離6000mm間走行する。この際、左壁
Wまでの距離を測定し、左壁Wまでの距離が一定となる
ように、距離6000mm間内で走行位置の修正が行なわれ
る。そして、距離6000mm走行後、ノードNi+1に到達す
る。
Next, immediately before the unmanned vehicle 1'has finished traveling for a distance of 1000 mm, the CPU 8 decodes the next scene command ((c)) and recognizes the state of the left side wall W. In this case, the left side wall W is <WAL
L>, the distance from the left side wall W is 3000m, this <WALL> is 6000
mm continues. Then, the CPU 8 decodes the scene command of (c) ′ and recognizes the form of the right side wall W. In this case, the right side wall W is <UNDEFINE>, and the distance to this <UNDEFINE> is
3800mm, <UNDEFINE> continues 6000mm. In addition, <UNDEFINE> shown here shows the case where the luggage is placed parallel to the wall. Then, the CPU 8 ignores the scene command of (C) ′ and travels at a constant speed for a distance of 6000 mm in accordance with the scene command of (C). At this time, the distance to the left wall W is measured, and the traveling position is corrected within the distance of 6000 mm so that the distance to the left wall W becomes constant. Then, after traveling a distance of 6000 mm, the node reaches the node Ni + 1.

以後、ノードNi+1から後も同様の動作が各シーンコ
マンドを解読する毎に行なわれ、最終的に目標値に到達
する。
After that, the same operation is performed each time the scene command is decoded after the node Ni + 1, and finally reaches the target value.

なお、前方から別な無人車が走行して来た場合の無人
車1′の走行位置の制御について説明する。
Control of the traveling position of the unmanned vehicle 1'when another unmanned vehicle travels from the front will be described.

まず、無人車1′が〈WALL〉および〈UNDEFINE〉で指
定された区間を走行している最中に、前方から他の無人
車1″(図示しない)が近づいて来ており、これと衝突
する恐れがある場合には、無人車1′は、無人車1′自
身で判断し、〈distance〉で示す距離以内で回避するよ
う走行位置を変更する。この場合、〈distance〉で示す
距離以内で回避できない場合には、他の無人車1″にも
走行位置を変更してもらう。
First, while the unmanned vehicle 1 ′ is traveling in the section specified by <WALL> and <UNDEFINE>, another unmanned vehicle 1 ″ (not shown) is approaching from the front and collides with it. If there is a risk of this, the unmanned vehicle 1'determines itself and changes the driving position so as to avoid within the distance indicated by <distance>. In this case, within the distance indicated by <distance>. If it is not possible to avoid it, ask another unmanned vehicle 1 ″ to change its travel position.

次に、無人車1′が〈OPEN〉で指定された区間を走行
している最中に、前方から他の無人車1″が近づいて来
ており、これと衝突する恐れがある場合には、無人車
1′は、周囲との距離の制限がないため、衝突を回避で
きる距離を任意に設定して走行位置を変更する、この場
合、〈OPEN〉で指定された区間は充分な広さがあるので
他の無人車1″に走行位置の変更をしてもらう必要はな
い。
Next, if the unmanned vehicle 1'is approaching from the front while the unmanned vehicle 1'is traveling in the section specified by <OPEN>, and there is a risk of collision with it. Since the unmanned vehicle 1'has no limit on the distance to the surroundings, the traveling position is changed by setting the distance that can avoid a collision arbitrarily. In this case, the section specified by <OPEN> is wide enough. There is no need to ask another unmanned vehicle 1 ″ to change the driving position.

以上のように、本発明による地図データは、従来の地
図データに比較してデータ1個の容量は大きくなるが、
地図データ全体の容量としては少なくて済む。また、本
発明による地図データは壁までの距離を連続したものと
して扱うため、きめ細かな走行位置の制御を行うことが
できる。また、〈WALL〉,〈UNDEFUNE〉,〈OPEN〉等の
シーンコマンドは人間の思考に合った形態であるため理
解しやすく、地図データとして作成が容易である。
As described above, the map data according to the present invention has a larger capacity of one data than the conventional map data,
The total map data capacity is small. Further, since the map data according to the present invention handles the distance to the wall as continuous, it is possible to finely control the traveling position. Also, scene commands such as <WALL>, <UNDEFUNE>, and <OPEN> are easy to understand and easy to create as map data because they are in the form suitable for human thinking.

なお、本発明の実施例では、周囲の形態を検出するた
めに超音波センサを用いたが、この代わりにレーザ光線
を用いた装置や、CCD(チャージ・カップルド・ディバ
イス)等を用いた画像入力装置などによって壁の形態を
検出するようにしても良い。
In the embodiment of the present invention, the ultrasonic sensor was used to detect the surrounding morphology, but an image using a device using a laser beam instead, a CCD (charge coupled device), or the like. The shape of the wall may be detected by an input device or the like.

また、本発明の実施例では、シーンコマンドを3個用
いたが、壁や周囲の形態が複雑となれば、それに対応し
たシーンコマンドの追加を行うことも可能である。
Further, in the embodiment of the present invention, three scene commands are used, but if the form of the wall or surroundings is complicated, it is possible to add a scene command corresponding to it.

[発明の効果] 以上説明したようにこの発明によれば、目的地へ向か
う過程で通過するノードを予め決定し、これらの各ノー
ドを順次通過して走行する自立型無人車において、無人
車走行の走行経路側方状況を示すオペコード、およびこ
のオペコードによる走行経路側方状況の継続距離を示す
主オペランドを有するシーンコマンドにより構成される
地図データと、ノードの通過順に従って前記地図データ
から該当するシーンコマンドを読み出し、このシーンコ
マンドによって走行制御する走行制御部とを具備したの
で、地図データを構成するシーンコマンドは壁に対して
平均数メートル毎に1個の割合で済むため、メモリ容量
を少なくすることができる。また、壁までの距離を連続
データとしたので走行位置の制御を地図データに依存す
ることがなく、きめ細かな走行位置の制御ができる。ま
た、地図データの作成が容易で、かつシーンコマンドの
内容が理解し易い。
[Effects of the Invention] As described above, according to the present invention, in a self-supporting unmanned vehicle in which a node passing through in the process of traveling to a destination is determined in advance and the vehicle travels by sequentially passing through each of these nodes, the unmanned vehicle travels. Map data composed of scene code having an opcode indicating the lateral situation of the driving route and a main operand indicating the continuation distance of the lateral situation of the driving route by this opcode, and a scene corresponding from the map data according to the passage order of the nodes. Since a travel control unit for reading out commands and controlling travel by the scene commands is provided, the scene command composing the map data is required to be one for every several meters on average for the wall, so the memory capacity is reduced. be able to. Further, since the distance to the wall is used as continuous data, the control of the traveling position does not depend on the map data, and the precise control of the traveling position can be performed. Further, it is easy to create map data and the contents of the scene command are easy to understand.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例の概略構成を示す平面図、
第2図は同実施例の電気的構成を示すブロック図、第3
図は同実施例に用いられる地図データを示す図、第4図
は同実施例の動作を説明するための図、第5図は従来の
自立型無人車の概略構成を示す平面図、第6図は同自立
型無人車の電気的構成を示すブロック図、第7図は同自
立型無人車に用いられる地図データを示す図である。 1′……自立型無人車、7′……制御装置(走行制御
部)、10′……ワークメモリ(地図データが書き込まれ
ている)、W……壁。
FIG. 1 is a plan view showing a schematic configuration of an embodiment of the present invention,
FIG. 2 is a block diagram showing an electric configuration of the embodiment, and FIG.
FIG. 4 is a diagram showing map data used in the same embodiment, FIG. 4 is a diagram for explaining the operation of the same embodiment, FIG. 5 is a plan view showing a schematic configuration of a conventional self-supporting unmanned vehicle, and FIG. FIG. 7 is a block diagram showing an electrical configuration of the self-supporting unmanned vehicle, and FIG. 7 is a diagram showing map data used for the self-standing unmanned vehicle. 1 '... self-supporting unmanned vehicle, 7' ... control device (travel control unit), 10 '... work memory (map data is written), W ... wall.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 西川 友司 伊勢市竹ヶ鼻町100番地 神鋼電機株式 会社伊勢工場内 (56)参考文献 特開 昭62−49412(JP,A) 特開 昭60−204012(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yuji Nishikawa 100 Takegahana-cho, Ise City, Ise Factory, Shinko Electric Co., Ltd. (56) References JP 62-49412 (JP, A) JP 60-204012 (JP, A)

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】目的地へ向かう過程で通過するノードを予
め決定し、これらの各ノードを順次通過して走行する自
立型無人車において、無人車走行の走行経路側方状況を
示すオペコード、およびこのオペコードによる走行経路
側方状況の継続距離を示す主オペランドを有するシーン
コマンドにより構成される地図データと、ノードの通過
順に従って前記地図データから該当するシーンコマンド
を読み出し、このシーンコマンドによって走行制御する
走行制御部とを具備することを特徴とする自立型無人
車。
Claims: 1. A self-supporting unmanned vehicle in which a node to pass through in the process of traveling to a destination is determined in advance, and an autonomously-running unmanned vehicle that travels by passing through each of these nodes, and an opcode indicating a lateral condition of a traveling route of the unmanned vehicle, and The map data composed of a scene command having a main operand indicating the continuation distance of the side situation of the traveling route by this operation code, and the corresponding scene command are read from the map data according to the passage order of the nodes, and the traveling control is performed by this scene command. A self-supporting unmanned vehicle characterized by comprising a traveling control unit.
【請求項2】前記シーンコマンドは、平坦な壁であるこ
とを指示するオペコードと、前記主オペランドと、前記
壁から走行経路までの一定距離を示す副オペランドとか
ら構成されることを特徴とする特許請求の範囲第1項の
記載の自立型無人車。
2. The scene command is composed of an operation code indicating a flat wall, the main operand, and a sub-operand indicating a constant distance from the wall to a travel route. The self-supporting unmanned vehicle according to claim 1.
【請求項3】前記シーンコマンドは、ドアとか荷物等の
常にそこにあるか否か特定不能の状況を指示するオペコ
ードと、前記主オペランドと、走行経路から前記状況ま
での所定距離を示す副オペランドとから構成されること
を特徴とする特許請求の範囲第1項の記載の自立型無人
車。
3. The scene command includes an opcode for indicating a situation where it is impossible to determine whether or not a door or luggage is always present, the main operand, and a sub-operand indicating a predetermined distance from the travel route to the situation. The self-supporting unmanned vehicle according to claim 1, characterized in that
【請求項4】前記シーンコマンドは、空間であり距離測
定不能の状況を指示するオペコードと、前記主オペラン
ドとから構成されることを特徴とする特許請求の範囲第
1項の記載の自立型無人車。
4. The self-supporting unmanned system according to claim 1, wherein the scene command is composed of an operation code which is a space and indicates a situation in which distance measurement is impossible, and the main operand. car.
JP62160593A 1987-06-17 1987-06-27 Self-supporting unmanned vehicle Expired - Fee Related JP2564832B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP62160593A JP2564832B2 (en) 1987-06-27 1987-06-27 Self-supporting unmanned vehicle
KR1019880007284A KR930005213B1 (en) 1987-06-17 1988-06-17 Self-contanined unmanned vehicle
EP88305835A EP0297811A3 (en) 1987-06-27 1988-06-24 Control systems for self-contained unmanned vehicles
US07/210,845 US4982329A (en) 1987-06-27 1988-06-24 Self-contained unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62160593A JP2564832B2 (en) 1987-06-27 1987-06-27 Self-supporting unmanned vehicle

Publications (2)

Publication Number Publication Date
JPS644814A JPS644814A (en) 1989-01-10
JP2564832B2 true JP2564832B2 (en) 1996-12-18

Family

ID=15718306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62160593A Expired - Fee Related JP2564832B2 (en) 1987-06-17 1987-06-27 Self-supporting unmanned vehicle

Country Status (2)

Country Link
JP (1) JP2564832B2 (en)
KR (1) KR930005213B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2609891B2 (en) * 1988-02-16 1997-05-14 三洋電機株式会社 Self-propelled work vehicle
JP2609890B2 (en) * 1988-02-16 1997-05-14 三洋電機株式会社 Self-propelled work vehicle
JPH06214645A (en) * 1993-01-13 1994-08-05 Paruko Puromooshiyon:Kk Mobile robot control method/device
ZA948824B (en) * 1993-12-08 1995-07-11 Caterpillar Inc Method and apparatus for operating geography altering machinery relative to a work site
JP3770383B2 (en) * 2000-11-09 2006-04-26 株式会社山梨ティー・エル・オー Traveling robot, teaching method and control method thereof
JP4329667B2 (en) * 2004-10-12 2009-09-09 パナソニック電工株式会社 Autonomous mobile system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60204012A (en) * 1983-11-24 1985-10-15 Toyota Central Res & Dev Lab Inc Running command device of unattended car

Also Published As

Publication number Publication date
JPS644814A (en) 1989-01-10
KR930005213B1 (en) 1993-06-16
KR890000329A (en) 1989-03-13

Similar Documents

Publication Publication Date Title
US4982329A (en) Self-contained unmanned vehicle
US4939651A (en) Control method for an unmanned vehicle (robot car)
CN101971116B (en) Autonomous mobile body, and method and system for controlling the same
CN110865640B (en) Obstacle avoidance structure of intelligent robot
US4893246A (en) Apparatus for displaying travel path
JP2564832B2 (en) Self-supporting unmanned vehicle
JPH10105233A (en) Autonomous traveling vehicle
JP2796949B2 (en) Automatic guided vehicle and its non-contact type obstacle detection method
JPS59111508A (en) Automatic car guiding method using point follow-up system
JPH0544603B2 (en)
JPS59121408A (en) Controller of mobile robot
JP2543848B2 (en) Autonomous mobile
JP2928658B2 (en) Optimal route search device for mobile robots
JPH03189805A (en) Method and device for automatic steering vehicle
JPH05324058A (en) Direction instructing system for unmanned vehicle for autonomous traveling system
JP4168440B2 (en) Moving trolley
JP2840943B2 (en) Mobile robot guidance device
KR0148787B1 (en) Mobile robot
JP2000222035A (en) Automatic travel device
JPS61139807A (en) Running controller of unattended running car
JP2595989B2 (en) Travel control method for self-sustained unmanned vehicles
JP3201050B2 (en) Unmanned vehicle guidance system
JP2623394B2 (en) Vehicle travel guidance device
JPH08234837A (en) Method and device for controlling automatically guided vehicle
JPS6274107A (en) Teaching method for running course of unmanned vehicle

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees