JPS63273916A - Driving course forming device - Google Patents

Driving course forming device

Info

Publication number
JPS63273916A
JPS63273916A JP62110077A JP11007787A JPS63273916A JP S63273916 A JPS63273916 A JP S63273916A JP 62110077 A JP62110077 A JP 62110077A JP 11007787 A JP11007787 A JP 11007787A JP S63273916 A JPS63273916 A JP S63273916A
Authority
JP
Japan
Prior art keywords
target
course
obstacles
driving
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62110077A
Other languages
Japanese (ja)
Inventor
Shingo Yamada
慎吾 山田
Eisaku Takinami
滝波 栄作
Junichi Hida
淳一 飛田
Kazuo Ishikawa
和男 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Automatic Loom Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Automatic Loom Works Ltd filed Critical Toyoda Automatic Loom Works Ltd
Priority to JP62110077A priority Critical patent/JPS63273916A/en
Publication of JPS63273916A publication Critical patent/JPS63273916A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To enable an unmanned vehicle to reach a target point with no disturbance due to an obstacle by confirming the positions of the target and obstacles within a driving area, then forming a driving course including no obstacle between a starting point and the target point. CONSTITUTION:A recognizing means 1 recognizes a target and obstacles out of the photographed picture data based on the colors designated by the color information and the extraction of features. Then the position information on the target and obstacles are obtained and applied to a course forming means 2. The means 2 forms a driving course from said position information so that an unmanned vehicle can move up to a target point from a starting point with no disturbance of obstacles. As a result, the vehicle can travel up to the target point without stopping for recognition of obstacles since said course is free from obstacles. Thus the driving time of the vehicle can be shortened up to the target point and therefore the working efficiency of the vehicle is improved.

Description

【発明の詳細な説明】 〔概   要〕 従来の無人車は、ユーザにより入力された固定の走行コ
ースデータ、または予め装置本体内に組み込まれている
固定の走行コースデータに従って走行するようになって
おり、その走行コースに沿って走行中、走行コースに障
害物があった場合、一旦停止して新たにその障害物の回
避経路を作成しなければならず、走行時間が増大すると
いう問題を有していた。
[Detailed Description of the Invention] [Summary] Conventional unmanned vehicles travel according to fixed travel course data input by the user or fixed travel course data pre-installed in the device main body. Therefore, if there is an obstacle on the travel course while traveling along the travel course, the vehicle must stop and create a new route to avoid the obstacle, which increases the travel time. Was.

本発明は、走行領域内の障害物を認識し、障害物を回避
して目標地点まで走行できる最も効率的な走行経路(最
短距離走行経路、最短時間走行経路等)を作成するよう
にしたものであり、走行領域の環境に応じた最も効率の
良い走行経路を作成でき実用性が高い。
The present invention is designed to recognize obstacles within a travel area and create the most efficient travel route (shortest distance travel route, shortest time travel route, etc.) that allows travel to a target point while avoiding obstacles. It is highly practical as it can create the most efficient driving route according to the environment of the driving area.

〔産業上の利用分野〕[Industrial application field]

本発明は、無人車に係り、特に無人車の走行経路を作成
する装置に関する。
TECHNICAL FIELD The present invention relates to unmanned vehicles, and particularly to an apparatus for creating a driving route for unmanned vehicles.

〔従 来 技 術〕[Traditional technique]

原子カプラントでの遠隔作業や工場、病院内での無人搬
送などの用途に搬送ロボットが用いられている。このよ
うなII!送ロボロボットわち無人車は、走行コース作
成装置を内蔵し、その走行コース作成装置により通行可
能であるかどうかを判別していや。
Transport robots are used for applications such as remote work in nuclear couplants and unmanned transport in factories and hospitals. II like this! The robot robot, ie, the unmanned vehicle, has a built-in driving course creation device that determines whether it is passable or not.

ここで、従来、の走行コース作成装置の動作及び前記走
行コース作成装置を内蔵した無人車の動作を図面を参照
しながら説明する。
Here, the operation of a conventional travel course creation device and the operation of an unmanned vehicle incorporating the travel course creation device will be described with reference to the drawings.

第7図は、従来の走行コントロール作成装置の動作の流
れを示すフローチャート、 第8図は、上記動作を具体的に説明するための図である
FIG. 7 is a flowchart showing the flow of the operation of a conventional driving control creation device, and FIG. 8 is a diagram specifically explaining the above operation.

まず、第7図の処理SDIで走行前にユーザは出発地点
S+から目標地点G1までの走行コースC1の位置情報
等を入力する。また、予め走行コー;(作成装置内に走
行コースC1のデータが記憶されている場合には、この
処yISDIは行わない。
First, in the process SDI shown in FIG. 7, before traveling, the user inputs position information, etc. of the driving course C1 from the starting point S+ to the target point G1. In addition, if the data of the driving course C1 is stored in the creation device in advance, this process ISDI is not performed.

次に、上記走行コースC1のデータに基づいて無人車は
走行を開始する。この時、無人車はテレビカメラから得
られる撮はデータや、超音波センサにより走行コースC
1内に障害物が無いかどうかの判別を予め定められた一
定距離走行するごとに停止して行う(処理5D2)。こ
の時、走行コース作成装置により走行コースC1内に障
害物が1個も無いと判別された場合には、無人車は目標
地点G1まで到達することができる(処理5D4)。
Next, the unmanned vehicle starts traveling based on the data of the traveling course C1. At this time, the unmanned vehicle uses the data obtained from the TV camera and the driving course C using the ultrasonic sensor.
Each time the vehicle travels a predetermined distance, the vehicle stops to determine whether there are any obstacles within the vehicle (processing 5D2). At this time, if the driving course creation device determines that there is no obstacle within the driving course C1, the unmanned vehicle can reach the target point G1 (processing 5D4).

一方、判別処理SD2により障害物D+  (第8図参
照)が走行コースC+内にあると判別すると、走行コー
ス作成装置は回避経路C2の作成を行う(処理5D3)
。無人車は回避経路C2を一時的に走行し、再び走行コ
ースC1を走行することにより目標地点G1まで到達す
ることができる(処理5D4)。
On the other hand, if it is determined by the determination process SD2 that the obstacle D+ (see FIG. 8) is within the driving course C+, the driving course creation device creates an avoidance route C2 (processing 5D3).
. The unmanned vehicle can reach the target point G1 by temporarily traveling on the avoidance route C2 and traveling on the driving course C1 again (processing 5D4).

第7図は、予め定められた走行コースを走行中、走行コ
ース内に障害物があった場合には、障害物を回避する経
路を作成する回避経路作成機能付の走行コース作成装置
の動作であるが、上記回避経路作成機能を有していない
走行コース作成装置の場合、無人車は障害物が取り除か
れるまで停止する。
Figure 7 shows the operation of a driving course creation device with an avoidance route creation function that creates a route that avoids obstacles when there is an obstacle in the driving course while driving on a predetermined driving course. However, in the case of a driving course creation device that does not have the above-mentioned avoidance route creation function, the unmanned vehicle will stop until the obstacle is removed.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ところが、前述したように従来の走行コース作成装置で
は予め固定した走行コースデータを内蔵するか、または
起動時点でユーザにより入力された走行コースデータを
記憶するようにしているため走行前の走行領域の環境を
考慮しておらず、走行中に走行コース内に障害物が在っ
たりする場合がある。このため、従来の走行コース作成
装置は予め定められた一定距離ごとに一旦停止して走行
コース内に障害物が在るかどうかのチェックを行う必要
があり、走行時間が長くなり作業効率が低いという欠点
を有していた。
However, as mentioned above, conventional driving course creation devices either have pre-fixed driving course data built-in or store driving course data entered by the user at the time of startup, so the driving area before driving can be changed. The environment is not taken into consideration, and there may be obstacles on the driving course while driving. For this reason, conventional driving course creation devices need to stop once every predetermined distance to check whether there are any obstacles within the driving course, which increases driving time and reduces work efficiency. It had the following drawback.

本発明は、上記従来の欠点に鑑み、目標地点まで障害物
に妨害されることなく走行できる走行コースを作成可能
な実用性の高い走行コース作成装置を提供することを目
的とする。
SUMMARY OF THE INVENTION In view of the above-mentioned drawbacks of the conventional art, it is an object of the present invention to provide a highly practical driving course creation device that can create a driving course that allows the vehicle to travel to a target point without being obstructed by obstacles.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、本発明の機能ブロック図である。 FIG. 1 is a functional block diagram of the present invention.

1ば例えばテレビカメラ等で撮像して得た画像データか
ら目標物及び障害物の位置情報等を認識する認識手段、
2は該認識手段1から加わる目標物の位置情報と障害物
の位置情報を基に無人車が出発地点から目標地点まで障
害物に妨害されることなく走行できる走行コースを作成
する経路作成手段である。
1, for example, recognition means for recognizing position information of targets and obstacles from image data obtained by imaging with a television camera, etc.;
Reference numeral 2 denotes a route creation means for creating a travel course in which the unmanned vehicle can travel from a starting point to a destination point without being obstructed by obstacles, based on the position information of the target and the position of obstacles added from the recognition means 1. be.

〔作   用〕[For production]

認識手段lは、テレビカメラ等で撮像して得た画像デー
タから目標物及び障害物を認識する。目標物の認識は、
例えば外部スイッチ操作によって指定された目標物の色
情報により上記画像データから前記指定色の画像データ
を抽出することにより行う。また、障害物の認識は例え
ば前記画像データを基に特徴抽出等の手法によって障害
物の画1象データのみを抽出することにより行う。そし
て、上述のようにして目標物及び障害物を認識した後、
目標物及び障害物の位置情報を求め、経路作成手段2に
加える。経路作成手段2は、上記目標物及び障害物の位
置情報を基に無人車が出発地点から障害物に妨害される
ことなく目標地点(目標物をマニピュレータ等により把
持できる地点)まで障害物に妨害されることなく走行可
能な走行コースを作成する。上記走行コースは障害物に
妨害されることのない走行コースであり、無人車は目標
地点までの走行の間、従来のように障害物の認識のため
に一旦停止する必要が無(なる。従って、目標地点まで
の走行時間が大幅に短縮され無人車の作業効率が向上す
る。
The recognition means 1 recognizes targets and obstacles from image data obtained by imaging with a television camera or the like. Recognition of the target is
For example, this is performed by extracting image data of the specified color from the image data based on color information of a target object specified by operating an external switch. Further, the recognition of the obstacle is performed, for example, by extracting only one image data of the obstacle using a technique such as feature extraction based on the image data. After recognizing the targets and obstacles as described above,
Position information of targets and obstacles is obtained and added to the route creation means 2. The route creation means 2 is configured to move the unmanned vehicle from the starting point to the target point (a point where the target object can be grasped by a manipulator or the like) without being obstructed by obstacles, based on the position information of the target objects and obstacles. To create a driving course that can be driven without being hit. The above driving course is a driving course that is not obstructed by obstacles, and while the unmanned vehicle is driving to the target point, it is not necessary to stop once to recognize obstacles as in the past. , the travel time to the target point will be significantly shortened and the work efficiency of unmanned vehicles will be improved.

〔実  施  例〕〔Example〕

以下、図面を用いて本発明の詳細な説明する。 Hereinafter, the present invention will be explained in detail using the drawings.

第2図は本発明の実施例のシステム構成図、第3図は第
2図をさらに詳細に表したシステム構成図である。
FIG. 2 is a system configuration diagram of an embodiment of the present invention, and FIG. 3 is a system configuration diagram showing FIG. 2 in more detail.

統括コン1−ローラ10は本発明の実施例の無人走行ロ
ボ、7トの全体の動作制御や走行コース設定を行うもの
であり、第3図(b)に示すようにプロセッサ10−1
、シリアル入出力(SIO)10−2〜10−6、パラ
レル入出力(PIO)10−7より成る。図示しないが
、プロセッサ10−1は内部にマイクロプロセッサユニ
ットMPU、上述の制御や他の処理を行うためのプログ
ラムを記憶するリード・オンリノモリ (ROM) 、
各種の処理時にデータを記憶するランダムアクセスメモ
リ (RAM)等を有し、これらのMPUSROM。
The general controller 1-roller 10 controls the entire operation of the unmanned robot 7 according to the embodiment of the present invention and sets the running course, and as shown in FIG. 3(b), the processor 10-1
, serial input/output (SIO) 10-2 to 10-6, and parallel input/output (PIO) 10-7. Although not shown, the processor 10-1 internally includes a microprocessor unit MPU, a read-only memory (ROM) that stores programs for performing the above-mentioned control and other processing,
These MPUSROMs have random access memory (RAM) and the like to store data during various types of processing.

RAMはパスラインによって接続されている。また上述
のパスラインは31010−2〜10−6、P 101
0−7をも共通に接続している。本発明の実施例が動作
を開始した時には統括コントローラ10は入力装置から
のコマンド等の制御情報が加わるのを待つ。統括コント
ローラ10のPIOlo−7はスイッチユニット11の
各種スイッチ11−1〜11−11に接続しており、こ
のスイッチ11−1〜11−11の接点状態すなわちオ
ン、オフ状態を管理する。スイッチユニット11はGo
スイッチ11−1、RESETスイッチ11−2、音声
E/Dスイッチ11−3、赤ポールスイソヂ11−4、
青ポールスイッチ11−5、黄ボールスイッチ11−6
、緑ポールスイッチ11−7、遠ボールスイッチ11−
8、近ポールスイッチ10−9、形状エスイッチ11−
10、形状2スイツチ11−11より成り、各スイッチ
11−1〜11−11が統括コントローラ10のPIO
lo−7に接続している。例えばGOスイッチ11−1
は本実施例の無人走行ロボットを動作を開始させるスイ
ッチであり、このスイッチ11−1をオンとすることに
よって後述する目標物の認識や走行コースの設定さらに
はハンドリング等の動作を開始する。スイッチ11−4
〜11−7は目標物(本発明の実施例においては各色の
ボール)の色の指定を入力するスイ・ノチであり、赤ボ
ールスイッチ11−4をオンとした時には目標物を赤ボ
ールとする。遠ボールスイッチ11−8、近ポールスイ
ッチ11−9は目標物の色を指定した場合その色のボー
ルが複数存在した時に、遠い方の同一色のボールを目標
物とすべきかあるいは近い方の同一色のボールを目標物
とすべきかを指示するスイッチである。また形状1スイ
ッチ11−10、形状2スイッチ11−11は例えばボ
ールの大きさや形状等を指示するスイッチであり、この
スイッチ11−10.11−11や前述の各種スイッチ
11−4〜11−9によって多数のボールが存在する時
にもその内の1個を指定することができる。さらにRE
SETスイッチ11−2は本装置のリセット信号であり
、このスイッチをオンとすることによって、動作中であ
るならば動作を停止する。また音声E/Dスイッチ11
−3は後述する音声入力を有効とするかの選択スイッチ
である。統括コントローラ10が動作を開始(Goスイ
ッチ11−1がオンとなった)した後に上述の各種スイ
ッチ11−4〜11−11をオンとすると、統括コント
ローラ10は画像処理ユニット12に対し、目標物の認
識動作を開始させる。
The RAMs are connected by pass lines. Also, the above-mentioned pass lines are 31010-2 to 10-6, P 101
0-7 are also connected in common. When the embodiment of the present invention starts operating, the overall controller 10 waits for control information such as commands to be added from an input device. PIOlo-7 of the general controller 10 is connected to various switches 11-1 to 11-11 of the switch unit 11, and manages the contact states, that is, on and off states of the switches 11-1 to 11-11. Switch unit 11 is Go
Switch 11-1, RESET switch 11-2, audio E/D switch 11-3, red Paul switch 11-4,
Blue pole switch 11-5, yellow ball switch 11-6
, green pole switch 11-7, far ball switch 11-
8, Near pole switch 10-9, Shape Eswitch 11-
10, consists of two shape switches 11-11, each switch 11-1 to 11-11 is a PIO of the central controller 10.
Connected to lo-7. For example, GO switch 11-1
11-1 is a switch for starting the operation of the unmanned robot of this embodiment, and by turning on this switch 11-1, operations such as recognition of a target object, setting of a running course, and handling, which will be described later, are started. switch 11-4
~11-7 is a switch for inputting the color designation of the target object (balls of each color in the embodiment of the present invention), and when the red ball switch 11-4 is turned on, the target object is a red ball. . The far ball switch 11-8 and the near pole switch 11-9 are used to determine whether, when the color of the target object is specified and there are multiple balls of that color, the farther ball of the same color should be the target object or the closer ball of the same color should be the target object. This is a switch that indicates whether the colored ball should be the target object. Further, the shape 1 switch 11-10 and the shape 2 switch 11-11 are switches for instructing, for example, the size and shape of the ball. This allows you to specify one of the balls even when there are many balls. Further RE
The SET switch 11-2 is a reset signal for this device, and by turning on this switch, if it is in operation, it stops the operation. Also, the audio E/D switch 11
-3 is a selection switch for enabling voice input, which will be described later. When the various switches 11-4 to 11-11 described above are turned on after the general controller 10 starts operating (the Go switch 11-1 is turned on), the general controller 10 instructs the image processing unit 12 to detect the target object. start the recognition operation.

画像処理ユニット12はカメラ12−1、カメラコント
ローラ12−2、カラーデコーダ12−3、画像処理装
置12−4さらにカメラティルタ12−5、カメラティ
ルタードライバ12−6より成る。カメラ12−1はカ
メラティルタ12−5に設置されており、目標物を撮像
するように統括コントローラ10は目標物の認識動作の
開始前にカメラティルタードライバ12−6を介して、
カメラティルタ12−5を制御し、目標物がカメラの撮
像範囲内に入るようにする。
The image processing unit 12 includes a camera 12-1, a camera controller 12-2, a color decoder 12-3, an image processing device 12-4, a camera tilter 12-5, and a camera tilter driver 12-6. The camera 12-1 is installed in the camera tilter 12-5, and the general controller 10 via the camera tilter driver 12-6 before starting the target object recognition operation so as to image the target object.
The camera tilter 12-5 is controlled so that the target object is within the imaging range of the camera.

一方、カメラ12−1の画像データはカメラコントロ、
−ラ12−2に加わっ°ζおり、例えばカメラ12−1
で得られた画像データはカメラコントローラ12−2に
よって多値のデジタル画像データに変換される。そして
、デジタル画像データはカラーデコーダ12−3でデコ
ードされ画像処理装置12−4に加わる。画像処理装置
12−4には前述したようにデコードされたデジタル画
像デ−タが加わるが、統括コントローラ10からの目標
物認識要求が加わった時のみデコードされたデジタル画
像データを内部の画像メモリに取込む。
On the other hand, the image data of the camera 12-1 is stored in the camera control.
- camera 12-2, for example camera 12-1
The image data obtained is converted into multivalued digital image data by the camera controller 12-2. The digital image data is then decoded by a color decoder 12-3 and applied to an image processing device 12-4. The decoded digital image data is added to the image processing device 12-4 as described above, but the decoded digital image data is stored in the internal image memory only when a target object recognition request is received from the general controller 10. Take in.

本発明の実施例においては4色のボールの内の1色のボ
ールが指示されるので、画像処理装置12−4は指示さ
れボールの色に対応して各色の画像データの内から1色
の画像データを選択する。一般的に無人走行1コボノl
〜が移動する移シJ範囲内には例えば工場内には様々な
光を発生する処理があり、この光を受けることによって
、画像データのレベルが異なる。本発明の実施例におい
ては、図示しないがカメラ12−1が1R像する範囲を
ライトが照射するようになっており、この外部の光によ
る誤動作を防止するため、カメラ12−1によって撮像
したデータを2回にわたって取り込む。
In the embodiment of the present invention, one of the four colors of balls is designated, so the image processing device 12-4 selects one color from among the image data of each color corresponding to the designated ball color. Select image data. In general, unmanned driving 1 unit
For example, in a factory, there are processes that generate various types of light within the range of movement J that ~ moves, and the level of image data differs depending on the reception of this light. In the embodiment of the present invention, although not shown in the drawings, the light illuminates the range of the 1R image of the camera 12-1, and in order to prevent malfunctions caused by this external light, the data captured by the camera 12-1 is Incorporate twice.

そして、この2回の画像データのレベルが一致していた
時に、その画像データが正常であるとして、目標物認識
処理を行う。
Then, when the levels of the image data of these two times match, it is assumed that the image data is normal and target object recognition processing is performed.

さらに本発明の実施例においてはカラーデータを用いて
目標物の認識処理を行う。白黒データを用いて認識処理
を行う場合には遠方の画像と近傍の画像はその明るさが
異なるため、例えばカメラの近傍しかm i16するこ
とができないが、本発明では、カラーの特定色を用いて
いるため、ライトによって得られる近傍と遠方の画像デ
ータのレベルが異なっていても、目標物がどれであるか
を明確に認識することができる。
Furthermore, in the embodiment of the present invention, target object recognition processing is performed using color data. When recognition processing is performed using black and white data, images in the distance and nearby images have different brightness, so for example, it is possible to perform m i16 only in the vicinity of the camera, but in the present invention, using a specific color, Therefore, even if the levels of near and far image data obtained by the light are different, it is possible to clearly recognize which object is the target.

画像処理装置12−4が目1票物を認識すると、ii!
ii像処理装置12−4は画像データとその目標物の位
置情報をシリアルデータに変換して統括コントローラ1
0のS IOI O−4を介してプロセッサ10−1に
加える。
When the image processing device 12-4 recognizes the object, ii!
ii The image processing device 12-4 converts the image data and the position information of the target object into serial data and sends it to the general controller 1.
0 to processor 10-1 via SIOI O-4.

前述した動作によって目標物の位置が認識できたので、
次には統括コントローラ10は画像処理ユニット12よ
り得られた画像データから、目標物までの走行コースの
作成を行う。
Since the position of the target was recognized by the above-mentioned operation,
Next, the general controller 10 creates a travel course to the target object from the image data obtained from the image processing unit 12.

以下、第4図に示すフローチャートにより、統括コント
ローラ10により行われる本実施例の走行コース作成の
動作を説明する。
Hereinafter, the operation of creating a travel course in this embodiment performed by the general controller 10 will be explained with reference to the flowchart shown in FIG.

まず、画像処理装置12−4から画像データと目標物の
位置情報を入力し、前記画像データから障害物の位置情
報を求める(処理5TI)。
First, image data and target object position information are input from the image processing device 12-4, and obstacle position information is determined from the image data (processing 5TI).

以下、処理ST1を詳細に説明する。プロセッサ10−
1は画像処理ユニット12から5IO10−4を介して
入力した画像データをRAM(不図示)内に記憶する。
The process ST1 will be explained in detail below. Processor 10-
1 stores image data input from the image processing unit 12 via 5IO10-4 in a RAM (not shown).

そして、画像データが全て入力するとRAM内に記憶さ
れた画像データから特徴抽出処理等を行い、予め設定さ
れた障害物の特徴データとの比較照合処理により全ての
障害物を抽出しそれらの障害物の位置情報及び形状デー
タを求め、RAM内に記憶する。
Then, when all the image data is input, feature extraction processing is performed from the image data stored in the RAM, and all obstacles are extracted by comparison processing with the feature data of obstacles set in advance. The position information and shape data of are determined and stored in RAM.

そして、前述のようにして求められた目標物の位置情報
及び各障害物の位置情報及び形状データを基に以下に示
す処理を行い、目標物までの走行コースを作成する。
Then, based on the position information of the target and the position information and shape data of each obstacle obtained as described above, the following processing is performed to create a driving course to the target.

本発明の実施例においては、本体の外形は長方形である
。また後述するが無軌道走行ユニット13は直線走行と
回転によって本体を目的の位置まで移動させるものであ
る。この無軌道走行ユニット13における回転の中心軸
は長方形の重心位置ではなく、走行の前後方向にずれて
いる。このため、本発明の実施例においては、前述の統
括コントローラ10における走行コースの作成処理では
、スタート点から目標物までの領域を直線走行時の左右
の必要とする範囲と、回転時に必要とする範囲とに分割
して走行可能なコースを求めている。
In an embodiment of the invention, the outer shape of the body is rectangular. Further, as will be described later, the trackless traveling unit 13 moves the main body to a target position by running in a straight line and rotating. The central axis of rotation in this trackless traveling unit 13 is not the center of gravity of the rectangle, but is shifted in the longitudinal direction of travel. For this reason, in the embodiment of the present invention, in the process of creating a running course in the general controller 10 described above, the area from the start point to the target is defined as the required range on the left and right when traveling in a straight line, and the required range when rotating. We are looking for a course that can be divided into two areas.

先ずスタート点から目標物までの直線上に障害物が存在
するかを判別する(処理5T2)。障害物がない場合に
は直線走行のみで目標物まで行くことができるので目標
地点までの直線経路を生成する(処理5T4) 、障害
物が存在する場合にはこれを回避しなくてはならない。
First, it is determined whether an obstacle exists on the straight line from the starting point to the target object (processing 5T2). If there are no obstacles, it is possible to reach the target by just driving in a straight line, so a straight route to the target point is generated (processing 5T4), but if there are obstacles, they must be avoided.

この場合には、無軌道走行ユニット13が各障害物に接
して走行可能な直線軌道を求める。面この時の軌道は回
転できるまで障害物を通過した点までのvIl′L道で
あり、この点を第1の候補ノードとする。そして、スタ
ート点から第1の候補ノードまでの距離と、第1の候補
ノードから目標物までに障害物がないとした場合の直線
距離との和が最小となる第1の候補ノードを第1のノー
ド(障害物回避地点)と決定する(処理5T3)。そし
て、その求めた第1のノードをスタート点として再度前
記処理ST2〜ST3の動作を繰返すことにより軌道を
求める。
In this case, a straight trajectory is determined on which the trackless traveling unit 13 can travel in contact with each obstacle. The trajectory at this time is the vIl'L path up to the point where it passes the obstacle until it can rotate, and this point is taken as the first candidate node. Then, the first candidate node that has the minimum sum of the distance from the starting point to the first candidate node and the straight-line distance assuming that there are no obstacles from the first candidate node to the target is selected as the first candidate node. The node (obstacle avoidance point) is determined (processing 5T3). Then, the trajectory is determined by repeating the operations ST2 to ST3 again using the determined first node as a starting point.

前記処理ST2〜ST3の繰返しにより、障害物回避地
点が次々と設定され、処理ST2で障害物回避地点から
目標物までの直線経路が見い出されることによって、ス
タート点から目標物までのコース(すなわち軌道)が決
定される(処理5T4)。
By repeating the processes ST2 and ST3, obstacle avoidance points are set one after another, and a straight path from the obstacle avoidance point to the target is found in process ST2, thereby creating a course (i.e., a trajectory) from the starting point to the target. ) is determined (processing 5T4).

前述の方式は、回転と直線走行を考慮したコース決定方
法であるが、この他にも最短走行距離や最短走行時間の
コースを求めることも可能である。
The above-mentioned method is a course determining method that takes rotation and straight-line travel into consideration, but it is also possible to determine a course with the shortest travel distance or shortest travel time.

例えば、障害物を回避するコースの全てを求め(複数ノ
ードがある場合にはそのコースの全てを求める)、そし
てそのコース中から走行距離が最小となるコースを決定
する。また、回転等に多くの時間を有する場合には、直
線走行の時間と回転に要する時間との和を求め、その最
小値を得るコースを最短走行時間のコースと決定する。
For example, all the courses that avoid obstacles are found (if there are multiple nodes, all the courses are found), and then the course with the minimum travel distance is determined from among the courses. If the vehicle takes a long time to rotate, etc., the sum of the time required for straight-line travel and the time required for rotation is determined, and the course that provides the minimum value is determined as the course with the shortest travel time.

統括コントローラ10によって前述のような走行コース
決定がなされた後は統括コントローラ10はその決定し
た走行コースのデータを無IFlti走行ユニットI3
に送出する。無軌道走行ユニット13はGLV:27ト
C’−ラ13−1を有し、無軌道走行ユニット13はこ
のGLVコントローラ13−1の制御によって動作する
After the general controller 10 determines the driving course as described above, the general controller 10 transfers the data of the determined driving course to the non-IFlti driving unit I3.
Send to. The trackless traveling unit 13 has a GLV: 27 to C'-ra 13-1, and the trackless traveling unit 13 operates under the control of this GLV controller 13-1.

GLVコントローラ13−1は統括コントローラエ0と
同様の構成であり、プロセッサ13−3−5、シリアル
入出力(SIO)13−3−1、パラレル入出力(PI
O)13−3−2〜13−3−4より成り、これらは同
様に図示しないバスによって接続されている。プロセッ
サ13−3−5は内部にマイクロプロセッサユニットM
PU。
The GLV controller 13-1 has the same configuration as the general controller 0, and includes a processor 13-3-5, serial input/output (SIO) 13-3-1, and parallel input/output (PI).
O) 13-3-2 to 13-3-4, which are similarly connected by a bus (not shown). The processor 13-3-5 has a microprocessor unit M inside.
P.U.

無軌道走行ユニット13を構成する各装置の制御プログ
ラムを記憶するリードオンリメモリ (ROM)、各種
の処理時にデータを記憶するランダムアクセスメモリ 
(RAM)等を有し、これらのMPU、ROM、RAM
5S I Ol 3−3−1、PIO13−3−2〜1
3−3−4はパスラインによって直通して接続されてい
る。前述の統括コントローラ10がGLVコントローラ
13−1に加わると、31013−3−1を介してプロ
セッサ13−3−5に取込まれ、その走行コースデータ
に対応した走行の制御をプロセッサ13−3−5が行う
。まず、無軌道走行ユニット13を第1番目のノードに
対して必要な走行の方向と距離分駆動する制御を行う。
A read-only memory (ROM) that stores control programs for each device that makes up the trackless traveling unit 13, and a random access memory that stores data during various processes.
(RAM), etc., and these MPU, ROM, RAM
5S I Ol 3-3-1, PIO13-3-2~1
3-3-4 are directly connected by a pass line. When the above-mentioned general controller 10 joins the GLV controller 13-1, it is taken into the processor 13-3-5 via the 31013-3-1, and the running control corresponding to the running course data is executed by the processor 13-3-5. 5 does. First, control is performed to drive the trackless traveling unit 13 toward the first node in the necessary travel direction and distance.

無軌道走行ユニット13はP 1013−3−2を介し
てD/Aコンバータ13−2にモータのドライブデータ
を出力する。
The trackless traveling unit 13 outputs motor drive data to the D/A converter 13-2 via P 1013-3-2.

このドライブデータはデジタル信号であり、D/Aコン
バータ13−2によってアナログ信号に変換され、さら
にアナログスイッチ13−3を介してドライブコントロ
ーラ13−4に加わる。ドライブコントローラ13−4
はモータ(L)13−13、モータ(R)13−14を
駆動する回路である。このモータ13−13.13−1
4にはそれぞれ(図示しない)車輪が機械的に接続され
ておりモータの回転により車輪が回転する。本発明の実
施例においては左右に設けた車輪を同方向に回転させた
場合、無軌道走行ユニット13は前進や後退を行い、左
右の車輪をそれぞれ逆方向に回転させた場合無軌道走行
ユニット13は回転を行う。尚、この回転における中心
軸は前述の走行コース作成時に求められた走行ユニット
の重心位置である。
This drive data is a digital signal, which is converted into an analog signal by the D/A converter 13-2, and further applied to the drive controller 13-4 via the analog switch 13-3. Drive controller 13-4
is a circuit that drives the motor (L) 13-13 and the motor (R) 13-14. This motor 13-13.13-1
4 are mechanically connected to wheels (not shown), and the wheels are rotated by rotation of the motor. In the embodiment of the present invention, when the left and right wheels are rotated in the same direction, the trackless traveling unit 13 moves forward or backward, and when the left and right wheels are rotated in opposite directions, the trackless traveling unit 13 rotates. I do. Incidentally, the central axis of this rotation is the center of gravity position of the traveling unit determined at the time of creating the aforementioned traveling course.

D/Aコンバータ13−2は左右の車輪を回転させるた
めの2個のアナログ信号を発生するように2チャンネル
分設けられている。すなわちD/Aコンバーク13−2
には有用と左用の車輪を回転ずべき制御データが独立し
て加わって、それぞれ独立したアナログ信号を出力する
The D/A converter 13-2 is provided with two channels so as to generate two analog signals for rotating the left and right wheels. In other words, D/A Combark 13-2
Control data to rotate the left and right wheels are independently added to the control data, and each outputs an independent analog signal.

本発明の実施例においてはジョイスティック13−5の
操作によっても本体装置を移動させることができる様に
ジョイスティック13−5の1桑作の情報を演算回路1
3−6に加え、その情報からモータを制御するアナログ
信号をドライブコントローラ13−4に入力する。D/
Aコンバータ13−2の出力を選択するか演算回路13
−6の出力を選択するかを制御する信号はPIO13−
3−2から出力されており、アナログスイッチ13−3
に正の制御信号が加わった時にはD/Aコンバータの出
力を選択してドライブコントローラ13−4に出力し、
インバータ13−7を介して負出力がインバートされて
アナログスイッチ13−8に正信号として加わった時に
は演算回路13−6から出力されたアナログ制御信号は
アナログスイッチ13−8を介してドライブコントロー
ラ13−4に加わる。尚自動による移動かあるいはジョ
イスティックによる操作による移動かの選択信号はプロ
セッサPIO13−3−2から出力されこれは無軌道走
行ユニット13が有する自動/手動切換スイッチ13−
9のオン・オフ状態で切換えられる。自動/手動切換ス
イッチ13−9のオン・オフ信号がPIO13−3−4
を介してプロセッサ13−3−5に加わるごとにより、
この制御信号が目的のアナログスイッチ13−3.13
−8をオン、オフする。また本発明の実施例においては
走行スタート、ストップ、さらにはブレーキ等も手動で
行えるようになっており、これはスタートスイッチ13
−10、ストップスイッチ13−11、ブレーキスイッ
チ13−12のオン・オフ状態がPIO13−3−4を
介してプロセ・7す13−3−5に加わることによって
なされる。またドライブコントローラ13−4は駆動開
始を制御する制御端子を有しており、GLVコントロー
ラ13−1からの出力(PIO13−3−2を介して)
と、演算回路13−6と、ブレーキ13−20の駆動信
号がインバータ13−21を介して反転した信号とがオ
アゲート13−22を介して制御端子に加えられており
、ブレーキをかけた時に駆動の停止をして目的位置に到
達した時のドライブを停止している。
In the embodiment of the present invention, the information on the joystick 13-5 is transferred to the arithmetic circuit 1 so that the main unit can also be moved by operating the joystick 13-5.
In addition to 3-6, an analog signal for controlling the motor is input to the drive controller 13-4 based on the information. D/
A calculation circuit 13 selects the output of the A converter 13-2.
The signal that controls whether to select the output of -6 is PIO13-
It is output from 3-2, and analog switch 13-3
When a positive control signal is applied to , the output of the D/A converter is selected and output to the drive controller 13-4,
When the negative output is inverted via the inverter 13-7 and applied as a positive signal to the analog switch 13-8, the analog control signal output from the arithmetic circuit 13-6 is passed through the analog switch 13-8 to the drive controller 13-8. Join 4. Note that a selection signal for automatic movement or movement by joystick operation is output from the processor PIO 13-3-2, and this is an automatic/manual changeover switch 13- of the trackless traveling unit 13.
It can be switched in the on/off state of 9. The on/off signal of automatic/manual changeover switch 13-9 is PIO13-3-4
each time it is added to processor 13-3-5 via
Analog switch 13-3.13 whose purpose is this control signal
Turn -8 on and off. Furthermore, in the embodiment of the present invention, starting, stopping, and even braking can be performed manually, and this is done by using the start switch 13.
-10, the stop switch 13-11, and the brake switch 13-12 are turned on and off by being applied to the processor 713-3-5 via the PIO 13-3-4. The drive controller 13-4 also has a control terminal for controlling the start of driving, and outputs the output from the GLV controller 13-1 (via PIO 13-3-2).
, an arithmetic circuit 13-6, and a signal obtained by inverting the drive signal of the brake 13-20 via an inverter 13-21 are applied to the control terminal via an OR gate 13-22, so that when the brake is applied, the drive signal is inverted. The drive is stopped when the target position is reached.

前述した動作によってモータ13−13.13−14が
回転するかドライブコントローラ13−14には車輪と
同様にモータ13−13.13−14とta械的に接続
したタコジェネ(L)13−15、タコジェネ(R)1
3−16の出力が加わる。このタコジェネ13−15.
13−16の出力は回転に比例したアナログ信号であり
、ドライブコントローラ13−4は車輪を定速回転させ
るようにすなわぢタコジェネ13−15.13−16の
出力が一定となるようにモータ13−13.13−14
を制御する。この制御によって車輪は目的とする回転数
で回転し、その結果として走行ユニット13を一定速度
で移動させる。
The drive controller 13-14 includes a tachogenerator (L) 13-15 which is mechanically connected to the motor 13-13.13-14 in the same way as the wheels. Tacogen (R) 1
3-16 output is added. This tachogen 13-15.
The output of 13-16 is an analog signal proportional to rotation, and the drive controller 13-4 rotates the motor 13 so that the wheels rotate at a constant speed. -13.13-14
control. Through this control, the wheels are rotated at a target rotational speed, and as a result, the traveling unit 13 is moved at a constant speed.

一般的に車輪はたとえば床との間でスリップすることが
あり、このスリップによって移動誤差が増大する。この
移動誤差を少なくするため、本発明の実施例においては
移動量を計測するための2個のエンコータ(計測M(L
)エンコータ13−17、計測輪(R)エンコーダ13
−18を有している。このエンコーダ13−17.13
−18は例えば左右の車輪の近傍に設けられた計測輪に
機械的に接続しており、計測輪の回転を求める。
Generally, the wheels may slip, for example with respect to the floor, and this slip increases displacement errors. In order to reduce this movement error, in the embodiment of the present invention, two encoders (measurement M (L
) Encoder 13-17, measuring wheel (R) encoder 13
-18. This encoder 13-17.13
-18 is mechanically connected to a measuring wheel provided near the left and right wheels, for example, and determines the rotation of the measuring wheel.

エンコーダ13−17.13−18は特定の回転角度で
1個のパルスを出力するとともにその回転方向をも表す
信号を出力する。このパルスと回転方向の信号はカウン
タ13−19に加わり、各エンコーダから出力されるパ
ルスの数をカウントする。尚、カウンタ13−19ばア
ップダウンカウンタであり、回転方向の信号はこのアッ
プダウンカウンタのアップダウン制御端子に加わってお
り、例えば逆回転時にはダウンカウントし、正回転の時
にアップカウントするので、このカウント値で精度よく
各車輪の回転による走行距離が求められる。このカウン
タ13−19の出力はPIO13−3−3を介してプロ
セッサ13−3−5に加わり、プロセッサ13−3−5
はこの値から本体の走行距離や、回転における現在の方
向を求める。
The encoders 13-17, 13-18 output one pulse at a specific angle of rotation and also output a signal representing the direction of rotation. These pulses and rotational direction signals are applied to counters 13-19, which count the number of pulses output from each encoder. Note that the counters 13-19 are up/down counters, and the rotation direction signal is applied to the up/down control terminal of this up/down counter.For example, it counts down when rotating in reverse and counts up when rotating forward. The distance traveled by each wheel rotation can be determined with high accuracy using the count value. The output of this counter 13-19 is applied to the processor 13-3-5 via the PIO 13-3-3.
calculates the distance traveled by the main body and the current direction of rotation from this value.

前述した動作によって、統括コントローラ10から加わ
った走行コースに従った移動を行う無軌道走行ユニット
13は移動量等を計測するため計測輪を有し、この計測
輪で高精度の移動データを得ているが、遠距離移動した
場合には誤差が大となる。このため、特定の移動を行っ
た後、例えば目的の位置に達した時に再度前述の画像処
理ユニット12からの目標物の認識を行い、その走行誤
差における補正を行う。
The trackless traveling unit 13, which moves according to the traveling course added from the general controller 10 by the above-mentioned operation, has a measuring wheel to measure the amount of travel, etc., and obtains highly accurate movement data with this measuring wheel. However, the error becomes large when moving over a long distance. For this reason, after performing a specific movement, for example, when the target position is reached, the target object from the image processing unit 12 is recognized again, and the traveling error is corrected.

前述の走行においてはあくまでも本体装置の重心位置(
回転中心)の移動量で計算を行っているが、マニピュレ
ータ14−2で目標物を持ち上げる時には、マニピュレ
ータ14−2の位置を中心軸として計算を行う。すなわ
ちマニピュレータ14−2が移動できる範囲は限定され
ているので、マニピュレータ14−2の中心軸を移動さ
せるように本体を制御する。この制御によって、例えば
走行の誤差が発生していても、マニピュレータ14−2
の移動で目標物を持ち上げることができる。
In the above-mentioned driving, the position of the center of gravity of the main unit (
However, when lifting a target object with the manipulator 14-2, the calculation is performed using the position of the manipulator 14-2 as the central axis. That is, since the range in which the manipulator 14-2 can move is limited, the main body is controlled to move the central axis of the manipulator 14-2. With this control, even if a running error occurs, the manipulator 14-2
The target can be lifted by moving.

マニピュレータユニット14は統括コントローラ10と
31010−2を介して接続している。
The manipulator unit 14 is connected to the general controller 10 via 31010-2.

前述において、本体が目標物の所まで移動した時には、
実際には目標物でも障害物の場合と同様に目標物に当た
らないように直前で停止する。この停止した時に統括コ
ントローラ10から31010−2を介して持ち上げ制
御信号が加わるとともに、マニピュレータ14−2の移
動を制御する信号が加わり、マニピュレータ14−2を
駆動する。マニピュレータユニット14はマニピュコン
トローラ14−1とマニピュレータ14−2、把持セン
サ14−3より成っている。マニピュコントローラ14
−1には前述のS IOI O−2を介してプロセッサ
10−1より出力された信号が加わっており、この制御
信号によってマニピュレータ14−2を駆動する。そし
て、この制御によってマニピュレータ14−2が動作し
、目標物を持ち上げる。マニピュレータユニット14の
把持センサ14−3は目標物を持ち上げたか否かを検出
するセンサであり、持ち上げた時には目標物を検出した
としてPIOIO−7を介してプロセッサ10−1に出
力する。位置の誤差によって目標物を持ち上げられなか
った時にはマニピュレータ14−2を持ち上げる制御信
号を加えた時にもかかわらす把持センサ14−3から検
出信号が加わらないので、プロセッサ10−1は再度目
標物の位置を求め、すなわち、位置の補正を行って再度
持ち上げの制御を行う。
In the above, when the main body moves to the target,
In reality, the vehicle will stop just before a target to avoid hitting it, just like in the case of an obstacle. When this stops, a lifting control signal is applied from the general controller 10 via the 31010-2, and a signal for controlling the movement of the manipulator 14-2 is also applied to drive the manipulator 14-2. The manipulator unit 14 includes a manipulator controller 14-1, a manipulator 14-2, and a grip sensor 14-3. Manipu controller 14
-1 is added with a signal output from the processor 10-1 via the aforementioned SIOI O-2, and this control signal drives the manipulator 14-2. This control causes the manipulator 14-2 to operate and lift the target object. The grip sensor 14-3 of the manipulator unit 14 is a sensor that detects whether or not the target object has been lifted, and when the target object has been lifted, it is output to the processor 10-1 via the PIOIO-7 as detecting the target object. When the target object cannot be lifted due to a positional error, no detection signal is applied from the gripping sensor 14-3 even when a control signal for lifting the manipulator 14-2 is applied, so the processor 10-1 determines the position of the target object again. In other words, the position is corrected and the lifting is controlled again.

以上の動作で、スタート位置から、走行した本体が目標
物まで到達し、目標物を持ち上げることができる。この
後は、例えば目標物を移動すべき位置を求め、前述した
走行コース作成と移動の制御によって目的の位置に目標
物を移動させることができる。
With the above operations, the main body that has traveled from the starting position can reach the target object and lift the target object. After this, for example, the position to which the target object should be moved is determined, and the target object can be moved to the desired position by creating the travel course and controlling the movement described above.

本発明の実施例においては、前述した装置の他に第3図
(b)に示すように、音声入カニニット15を有してい
る。このユニット15のR5−232C受信機15−1
は本体に設けられ、マイク15−2、音声認識装置15
−3、R3−232C送信機15−6は例えば操作者等
の近傍に設けられている。そして、操作者の声を記録し
、各色のボールのF旨示や目標物の前後関係等、前述し
たスイッチユニット11の操作指示と回線の入力さらに
は目標物を移動させる目的の位置等のデータを加えるこ
とができる。尚、この音声入カニニット15からのデー
タが有効となるのは、音声E/Dスイッチ11−3をオ
ンとした時である。
In the embodiment of the present invention, in addition to the above-mentioned apparatus, as shown in FIG. 3(b), a voice-input crab knit 15 is provided. R5-232C receiver 15-1 of this unit 15
are provided on the main body, including a microphone 15-2 and a voice recognition device 15.
-3, R3-232C transmitter 15-6 is provided, for example, near an operator or the like. Then, the operator's voice is recorded, and data such as the F indication of each color ball, the front and back of the target, the operation instruction and line input of the switch unit 11 mentioned above, and the desired position to move the target, etc. can be added. Note that the data from the audio input crab unit 15 becomes valid when the audio E/D switch 11-3 is turned on.

以上の動作によって本発明の実施例においては無人走行
ロボットの走行を目標物や目的の位置まで行うことがで
きる。
Through the above-described operations, in the embodiment of the present invention, the unmanned robot can travel to a target object or a desired position.

次に、本発明の動作をより具体的に説明する。Next, the operation of the present invention will be explained in more detail.

第4図は本発明の実施例における統括コントローラ10
とGLVコントローラ13−1の動作フローチャートで
ある。例えば電源を投入した時に、統括コントローラ1
0とGLVコントローラ13−1が処理動作を開始する
FIG. 4 shows a general controller 10 in an embodiment of the present invention.
and is an operation flowchart of the GLV controller 13-1. For example, when the power is turned on, the main controller 1
0 and the GLV controller 13-1 start processing operations.

先ず、各コントローラ10.13−1は初期設定処理S
CI、SNIを行う。そして、スタート信号入力(目標
物の色等の指示やGOスイッチのオン)SC2が加わる
と、目標位置認識処理SC3を行う。目標位置認識処理
SC3は統括コントローラ10の制御によって画像処理
ユニット12が行う。この画像処理ユニット12の目標
位置認識が終了すると、目標物の位置情報が統括コント
ローラ10に加わるので、次には走行コース作成処理S
C4を行い、走行コースを作成する。そしてその結果を
GLVコントローラ13−1に送出する処理SC5を行
い、走行終了受信処理SC6で終了データが受信される
ことを検出する。
First, each controller 10.13-1 performs initial setting processing S.
Perform CI and SNI. Then, when a start signal SC2 is input (indicating the color of the target object, turning on the GO switch, etc.), target position recognition processing SC3 is performed. The target position recognition process SC3 is performed by the image processing unit 12 under the control of the general controller 10. When the target position recognition by the image processing unit 12 is completed, the position information of the target object is added to the general controller 10, so next the traveling course creation process S
Perform C4 and create a driving course. Then, a process SC5 is performed to send the result to the GLV controller 13-1, and reception of end data is detected in a travel end reception process SC6.

OL、V’:J7トC)−ラ13−1は初期設定SNI
の後、走行コース受信処理SN2を行っており、前述の
処理SC5によって走行コースが送信された時にこのデ
ータを受信して無軌道走行処理SN3を行う。無IPI
t道走行ユニット13はこの情報で目的の位置まで前述
の走行動作を行う。そして走行動作が終了した時には走
行終了信号送出処理SN4を行い、統括コントローラl
Oに終了信号を送出する。統括コントローラ10はこの
時走行終了受信処理SC6を行っており、GLVコント
ローラ13−1の終了信号の送出よって終了信号が受信
でき、次のボール(目標物)位置再認識処理SC7を行
う。この再認識処理SC7は統括コントローラ10の制
御によって画像ユニット12が行う。そして再認識処理
SC7によりて得られた結果から、現在位置においてマ
ニピュレータ14−2の可動範囲であるかの判別処理S
8を行う。
OL, V': J7 to C)-La13-1 is the initial setting SNI
Thereafter, a driving course reception process SN2 is performed, and when the driving course is transmitted by the above-mentioned process SC5, this data is received and a trackless driving process SN3 is performed. No IPI
The road traveling unit 13 uses this information to perform the aforementioned traveling operation to the target position. When the running operation is completed, the running end signal sending process SN4 is performed, and the overall controller l
Sends a termination signal to O. At this time, the general controller 10 is performing a travel end reception process SC6, and when the GLV controller 13-1 sends an end signal, it can receive the end signal, and performs the next ball (target object) position re-recognition process SC7. This re-recognition process SC7 is performed by the image unit 12 under the control of the general controller 10. Then, from the result obtained by the re-recognition process SC7, a process S for determining whether the current position is within the movable range of the manipulator 14-2
Do step 8.

この判別においてマニピュレータ14−2の可動範囲で
ない時には、微動走行制御処理SC9を行う。この制御
信号はGLVコントローラ13−1に加わり、GLVコ
ントローラ13−1は微動走行処理SN5を行って、本
体装置を微動走行させる。統括コントローラ10が微動
走行処理SC9を終了すると再度ボール位置再認識処理
SC7から処理を繰返す。例えば複数回の前述の繰返し
によってマニピュレータ14−2の可動範囲内に入った
時(判別SC8がY)には、統括コントローラ10はマ
ニピュレータユニット14に対しハンドリング制御処理
5CIOを行い、マニピュレータ14−2は目標物、例
えばボールを把む動作を行う。そして、統括コントロー
ラ10はマニピュレータ14−2がボールを把んだか否
かの判別5C1lを行う。この判別は把持センサ14−
3からの検出信号が加わったか否かを統括コントローラ
10が判別することによってなされる。この判別におい
て、把んでいない時(N)には、位置が正確でないため
に生じたものであるとして、再度ボール位置認識処理S
C7から繰返す。この繰返しの時微動走行制御処理SC
9を実行した時には、GLVコントローラ13−1はそ
の処理に対応した微動走行処理SN5を行う。
In this determination, if it is not within the movable range of the manipulator 14-2, a fine movement travel control process SC9 is performed. This control signal is applied to the GLV controller 13-1, and the GLV controller 13-1 performs fine movement processing SN5 to cause the main unit to move slightly. When the general controller 10 finishes the fine movement process SC9, it repeats the process again from the ball position re-recognition process SC7. For example, when the manipulator 14-2 enters the movable range due to the above-mentioned repetition (determination SC8 is Y), the general controller 10 performs handling control processing 5CIO on the manipulator unit 14, and the manipulator 14-2 Perform an action to grasp a target object, such as a ball. Then, the general controller 10 performs a determination 5C1l as to whether or not the manipulator 14-2 has grasped the ball. This determination is made by the grip sensor 14-
This is done by the overall controller 10 determining whether or not the detection signal from 3 is added. In this determination, if the ball is not gripped (N), it is assumed that the ball position is not accurate, and the ball position recognition process S is performed again.
Repeat from C7. When this is repeated, fine movement control processing SC
When step 9 is executed, the GLV controller 13-1 performs a slight movement process SN5 corresponding to that process.

ボールを把んだ場合すなわち、判別5CIIにおいて、
把んだと判断(Y)した時には、スタート点に帰るため
の処理を行う。
When the ball is grasped, that is, in discrimination 5CII,
When it is determined that the object has been grasped (Y), processing for returning to the starting point is performed.

先ず、統括コントローラ10は画像処理ユニット12か
ら画像データ(帰り方向の画像)を入力し、帰りコース
の作成処理5C12を行う。なお、帰りにおいては目標
物まで到達した経路すなわち行きの軌道の逆を求めるこ
とによって帰りコースとすることも可能である。そして
、求めた帰りコースデータをC,LVシコンローラ13
−1に送出し、GLVコントローラ13−1は帰りコー
スを受信SN6する。この受信が完了した後、CLVコ
ントローラ13−1は無軌道走行処理SN7を行って、
例えば目標物に行べときと逆の軌道でスタート点に戻る
。そして戻った時には走行終了信号を送出SN8する。
First, the general controller 10 inputs image data (images in the return direction) from the image processing unit 12, and performs return course creation processing 5C12. In addition, on the way back, it is also possible to determine the return course by finding the route taken to reach the target, that is, the reverse of the going trajectory. Then, transfer the obtained return course data to C, LV Sicon Roller 13.
-1, and the GLV controller 13-1 receives the return course SN6. After this reception is completed, the CLV controller 13-1 performs trackless running processing SN7,
For example, when you go to the target, you return to the starting point on the opposite trajectory. When the vehicle returns, it sends out a travel end signal SN8.

統括コントローラ10はこの走行終了信号の受信5N1
3で1回目のスタート信号入力SN2における目標物の
指示に対する処理を終了するため、GLVコントローラ
13−1に動作終了信号を送信5N14して再度処理S
C2より実行する。尚、処理SC2は入力処理であり、
オペレータ等がスイッチユニット11や音声入カニニッ
ト15等からの入力がなされるまで、待機となる。
The general controller 10 receives this travel end signal 5N1.
In step 3, in order to end the processing for the target object instruction at the first start signal input SN2, an operation end signal is sent to the GLV controller 13-1 in step 5N14, and the processing is repeated again in step S.
Execute from C2. Note that the process SC2 is an input process,
The system waits until an operator or the like makes an input from the switch unit 11, voice input unit 15, or the like.

一方G L Vコントローラ13−1も、統括コントロ
ーラ10からの動作終了信号を受信SN9すると、全処
理を終了し、再度走行コース受信処理SN2を行い、統
括コントローラ10からの走行コース受信待ちとなる。
On the other hand, when the GLV controller 13-1 also receives the operation end signal from the general controller 10 (SN9), it completes all processing, performs the driving course receiving process SN2 again, and waits to receive the driving course from the central controller 10.

そして、再度加わった時には前述した動作を繰返す。Then, when it joins again, the above-described operation is repeated.

尚、本実施例では目標物及び障害物の位置情報の認識を
テレビカメラによって撮像した画像データを解析するこ
とにより行なっているが、超音波センサやラインセンサ
によって得られるデータを基にして目標物や障害物の位
置情報を認識するようにしても良い。。
In this embodiment, the positional information of targets and obstacles is recognized by analyzing image data captured by a television camera. It may also be possible to recognize positional information of objects or obstacles. .

また、本発明は、出発地点から目標地点までの走行コー
スを複数個有する有軌道無人車にも組み込むことが可能
である。
Further, the present invention can be incorporated into a tracked unmanned vehicle having a plurality of travel courses from a starting point to a destination point.

具体例を第6図に示す。同図において、軌道a〜には、
誘導用のi&道であり無人車は、電磁ピ・ツクアップ・
ラインセンサにより軌道a −kから出力される誘導信
号を検出して目標地点Eまで走行する。この時、軌道f
、t、g上に障害物があった場合、本発明ではその障害
物を認識できるので、走行前に軌道f+  ’r  g
上を回避した出発地点Sから目標地点Eまでの走行コー
ス、例えばa−1−b−1−C−+ kの走行コースま
たは6−j −+ 1−+ kの走行コースを選択する
ことが可能となる。このため、走行中に停止してしまう
事態を防止することが可能となる。
A specific example is shown in FIG. In the same figure, the trajectory a~ is
The i&michi for guidance and unmanned vehicles are equipped with electromagnetic pickup, pick-up,
The line sensor detects the guidance signal output from the trajectory a-k and travels to the target point E. At this time, the trajectory f
, t, and g, the present invention can recognize the obstacle, so the trajectory f+ 'r g
It is possible to select a driving course from the starting point S to the destination point E that avoids the above, for example, the driving course a-1-b-1-C-+k or the driving course 6-j-+1-+k. It becomes possible. Therefore, it is possible to prevent a situation where the vehicle stops while traveling.

〔発明の効果〕 以上、詳細に説明したように本発明によれば走行前に走
行領域内の目標物及び障害物の位置を確認した後、障害
物を回避した出発地点から目標地点までの走行コースを
作成するので以下のような効果が得られる。
[Effects of the Invention] As described above in detail, according to the present invention, after confirming the positions of targets and obstacles within the travel area before traveling, the vehicle can travel from a starting point to a destination point while avoiding obstacles. By creating a course, you can get the following effects.

a、目標地点まで障害物に妨害されることなく走行する
ことができる。
a. It is possible to travel to the target point without being obstructed by obstacles.

b、上記aの結果、目標地点までの走行時間が短縮する
b. As a result of the above a, the travel time to the target point is shortened.

C3繁雑な走行コースデータの入力が不要となる。C3 No need to input complicated driving course data.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の機能ブロック図、 第2図は本発明を適用した無軌道無人車のシステム構成
図、 第3図(a)、 (b)は上記無軌道無人車の詳細なシ
ステム構成図、 第4図は本発明による走行コース作成の動作フローチャ
ート、 第5図は本発明の実施例の動作フローチャート、第6図
は本発明の他の実施例を説明する図、第7図は従来の走
行コース作成装置の動作を示すフローチャー1・、 第8図は従来、の走行コース作成装置の動作を具体的に
説明する図である。 1・・・認識手段、 2・・・経路作成手段。 特許出願人  株式会社豊田自動織機製作所本各さ明の
機R邑フ゛ロック図 第1図 第2図 44υ月によろ走イ〒コースイ乍バの1γ乍フロ一チヤ
ート第4図 4!−将lIへの実施ρノの重N乍フロチャート第5図 本発明のイ色の突贋互イ列を脱炉する間第6図 従来の走行コーズイ乍ハd走置のシγ乍ん示すフローチ
r+第7図 従来の走イ〒コース作人状直の動耳乍S廁に舒1后する
図第8図
Fig. 1 is a functional block diagram of the present invention, Fig. 2 is a system configuration diagram of a trackless unmanned vehicle to which the present invention is applied, and Figs. 3 (a) and (b) are detailed system configuration diagrams of the trackless unmanned vehicle. FIG. 4 is an operational flowchart for creating a running course according to the present invention, FIG. 5 is an operational flowchart for an embodiment of the present invention, FIG. 6 is a diagram for explaining another embodiment of the present invention, and FIG. 7 is a diagram for explaining a conventional driving course. Flowchart 1 showing the operation of the course creation device. FIG. 8 is a diagram specifically explaining the operation of the conventional travel course creation device. 1... Recognition means, 2... Route creation means. Patent Applicant: Toyoda Automatic Loom Works Co., Ltd. Machine R block diagram of each machine Fig. 1 Fig. 2 44υ Monthly running speed diagram Fig. 4 4! Fig. 5 Flowchart of the implementation of the present invention while removing the reciprocal sequence of the present invention Flowchart shown in Fig. 7. Conventional running speed. Figure 8.

Claims (1)

【特許請求の範囲】[Claims] 目標物及び障害物の位置情報を得る認識手段と、該認識
手段によって得られた前記目標物の位置情報を基に障害
物に妨害されない目標物までの走行コースを作成する経
路作成手段とを具備することを特徴とする走行コース作
成装置。
A recognition means for obtaining positional information of a target and an obstacle, and a route creation means for creating a running course to the target that is not obstructed by obstacles based on the positional information of the target obtained by the recognition means. A driving course creation device characterized by:
JP62110077A 1987-05-06 1987-05-06 Driving course forming device Pending JPS63273916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62110077A JPS63273916A (en) 1987-05-06 1987-05-06 Driving course forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62110077A JPS63273916A (en) 1987-05-06 1987-05-06 Driving course forming device

Publications (1)

Publication Number Publication Date
JPS63273916A true JPS63273916A (en) 1988-11-11

Family

ID=14526447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62110077A Pending JPS63273916A (en) 1987-05-06 1987-05-06 Driving course forming device

Country Status (1)

Country Link
JP (1) JPS63273916A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02270006A (en) * 1989-04-12 1990-11-05 Nissan Motor Co Ltd Autonomous traveling vehicle
JPH11242520A (en) * 1997-12-08 1999-09-07 Caterpillar Inc Obstacle detection response alternative path decision method and device therefor
JP2021105816A (en) * 2019-12-26 2021-07-26 株式会社竹中工務店 Movement route determination device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02270006A (en) * 1989-04-12 1990-11-05 Nissan Motor Co Ltd Autonomous traveling vehicle
JPH11242520A (en) * 1997-12-08 1999-09-07 Caterpillar Inc Obstacle detection response alternative path decision method and device therefor
JP2021105816A (en) * 2019-12-26 2021-07-26 株式会社竹中工務店 Movement route determination device

Similar Documents

Publication Publication Date Title
US7184586B2 (en) Location mark detecting method for robot cleaner and robot cleaner using the method
CN111055281B (en) ROS-based autonomous mobile grabbing system and method
JP3667281B2 (en) Robot cleaning system using mobile communication network
CN112634318B (en) Teleoperation system and method for underwater maintenance robot
CN102902271A (en) Binocular vision-based robot target identifying and gripping system and method
JPS63273916A (en) Driving course forming device
JP3239277B2 (en) Intelligent robot
WO2020184776A1 (en) Location recognition and movement path setting method using code recognition, unmanned mobility, and operation system
JPH0854927A (en) Landmark deciding method and device
JPS63273915A (en) Driving course forming device
JP2540855B2 (en) Running course creation device
JPS63271508A (en) Visual input device
JP2707546B2 (en) Vehicle steering control device
JPS63251814A (en) Running course forming device
JPS63276610A (en) Running course generating device
KR100500831B1 (en) Method calculating rotated angles of robot cleaner
JPS63257076A (en) Image processing device
JPS63251868A (en) Target recognizing device
JPS63251815A (en) Trackless unmanned vehicle
JP2001325024A (en) Mobile working robot
CN211273455U (en) Intelligent ball picking machine vehicle based on automatic image processing
CN112973049A (en) Tennis ball picking robot based on visual sensor and tennis ball picking method
KR100478653B1 (en) Method for area recognizing of automobile cleaner
CN107526357B (en) Relay robot trolley and relay method thereof
KR100266984B1 (en) Driving controller of robot cleaner and its method