JP2737902B2 - Driving route determination processing method for image type unmanned vehicles - Google Patents

Driving route determination processing method for image type unmanned vehicles

Info

Publication number
JP2737902B2
JP2737902B2 JP63013084A JP1308488A JP2737902B2 JP 2737902 B2 JP2737902 B2 JP 2737902B2 JP 63013084 A JP63013084 A JP 63013084A JP 1308488 A JP1308488 A JP 1308488A JP 2737902 B2 JP2737902 B2 JP 2737902B2
Authority
JP
Japan
Prior art keywords
mark
image
unmanned vehicle
traveling
traveling route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63013084A
Other languages
Japanese (ja)
Other versions
JPH01188909A (en
Inventor
日藝 伊藤
宏志 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Jidoshokki Seisakusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Jidoshokki Seisakusho KK filed Critical Toyoda Jidoshokki Seisakusho KK
Priority to JP63013084A priority Critical patent/JP2737902B2/en
Publication of JPH01188909A publication Critical patent/JPH01188909A/en
Application granted granted Critical
Publication of JP2737902B2 publication Critical patent/JP2737902B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は無人車の走行経路決定処理方法に係り、詳
しくは路面に離散的に配設したマークの1つを、撮像装
置で少なくとも複数回撮像し、その時々に撮像された画
像中のマークに基いて無人車の走行経路を決定するとと
もに順次更新し、その更新される走行経路に沿って走行
させるようにしてなる画像式無人車の走行経路決定処理
方法に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining a traveling route of an unmanned vehicle, and more particularly, to one of marks arranged discretely on a road surface at least a plurality of times by an imaging device. The traveling of an image type unmanned vehicle in which an image is taken, a traveling route of the unmanned vehicle is determined based on a mark in the image photographed at each time, and the traveling route is sequentially updated and travels along the updated traveling route. It relates to a route determination processing method.

[従来の技術] 近年、路面に連続的に描いた走行ラインを無人車に搭
載した撮像装置で撮像し、その撮像した画像を画像処理
してその走行ラインに沿って走行させる画像(視覚)誘
導方式の無人車が提案されている。又、この画像誘導方
式においては表面に車速、停止、分岐等の運行情報を示
すバーコードを付したマークを離散的に路面に配設し、
そのマークを撮像装置で撮らえ、マーク上のバーコード
を画像処理してその運行情報を読み取り、その運行情報
に基いて走行する画像式無人車が提案されている。
[Related Art] In recent years, a traveling line drawn continuously on a road surface is picked up by an image pickup device mounted on an unmanned vehicle, and an image (visual) guidance for causing the taken image to be processed and running along the running line. Unmanned vehicles of the type have been proposed. Also, in this image guidance system, a mark with a bar code indicating operation information such as vehicle speed, stop, branch, etc. on the surface is discretely arranged on the road surface,
An image type unmanned vehicle has been proposed in which the mark is taken by an image pickup device, the bar code on the mark is image-processed, the operation information is read, and the vehicle travels based on the operation information.

さらに、前記路面に離散的に配設したマークとして光
を反射する光反射部材(コーナーキューブ)を採用し、
その光反射部材に無人車に備えたライトで光を照射し、
その光反射部材が反射する反射光を撮像装置で撮像して
走行経路を決定するいわゆるスポットマーク式無人車が
提案されている。このスポットマーク式無人車において
は光反射部材を撮像装置で撮像した画面上では点として
とらえるため、同光反射部材が遠い位置にあるときには
点として撮像されるが、近い位置で撮像されると大きく
写りもはや点として考えることができなくなる。そこ
で、特殊フィルタを使用した光反射部材の遠近に関係な
く反射光の像が同じ大きさに撮像されるように工夫がな
されている。しかし、実際には点として撮像されないこ
とから画像中の反射光部分の中で最も明るい点を抽出し
その点を光反射部材の中心位置と判断していた。
Further, a light reflecting member (corner cube) that reflects light is employed as a mark discretely arranged on the road surface,
The light reflecting member is illuminated with light using a light provided on an unmanned vehicle,
There has been proposed a so-called spot mark type unmanned vehicle that determines a traveling route by imaging the reflected light reflected by the light reflecting member with an imaging device. In this spot mark type unmanned vehicle, since the light reflecting member is regarded as a point on the screen imaged by the imaging device, the light reflecting member is imaged as a point when the light reflecting member is located at a far position, but becomes large when the light reflecting member is imaged at a near position. The image can no longer be considered as a point. Therefore, a device has been devised so that the image of the reflected light is captured in the same size regardless of the distance of the light reflecting member using the special filter. However, since the image is not actually picked up as a point, the brightest point in the reflected light portion in the image is extracted and that point is determined as the center position of the light reflecting member.

[発明が解決しようとする課題] しかしながら、これら画像式無人車における画像処理
装置においては画面上のマークを判別する際、撮像装置
が撮像した画面全体、即ち全画素の画素データを使用し
てマークの認識を行っている。従って、路面上にマーク
の色と同じ色の物体があったり、後者においては光反射
物体があった場合に、その物体をマーク又は光反射部材
と誤認識する虞があった。
[Problems to be Solved by the Invention] However, in these image-based unmanned vehicle image processing apparatuses, when determining a mark on a screen, the mark is determined by using pixel data of the entire screen, that is, pixel data of all pixels captured by the imaging apparatus. The recognition of. Therefore, when there is an object having the same color as the color of the mark on the road surface, or when there is a light reflecting object in the latter, there is a possibility that the object is erroneously recognized as a mark or a light reflecting member.

この発明の目的は上記問題点を解消し、マーク以外の
ノイズを拾う虞がなく正確かつ精度の高い走行経路を決
定することができるとともに、走行中の無人車の異常走
行の検出にも応用することができる画像式無人車の走行
経路決定処理方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems, to determine an accurate and accurate traveling route without a risk of picking up noise other than marks, and to apply to detection of abnormal traveling of unmanned vehicles during traveling. It is an object of the present invention to provide an image-based unmanned vehicle traveling route determination processing method.

発明の構成 [課題を解決するための手段] この発明は上記目的を達成すべく、路面に離散的に配
設した無人車の通過位置を示すマークの1つを、走行し
ながら無人車に備えた撮像装置で少なくとも複数回撮像
し、その時々に撮像された画像中のマークに基いて同マ
ークの位置を認識し無人車の走行経路を決定するととも
に順次更新し、その更新される走行経路に沿って走行さ
せるようにしてなる画像式無人車の走行経路決定処理方
法において、 先に撮像した撮像旧点を原点とする第1の座標系を設
定し、その第1の座標系にてマークの位置を求めるとと
もに、先に撮像したマークに基いて求めた走行経路にて
次に撮像動作が行われる撮像新点を求め、 次に、その撮像新点を原点とする第2の座標系を設定
し、前記第1の座標系の当該マークの中心位置をその第
2の座標系における位置に座標変換して求め、その変換
位置から、撮像新点で撮像される当該マークの画像中の
中心位置又はマークが画像中で完全に含まれる領域を演
算によって予測し、前記中心位置に相当する部分又は前
記領域内のみでマークの位置を認識して新たな走行経路
を求める画像式無人車の走行経路決定処理方法をその要
旨とするものである。
SUMMARY OF THE INVENTION [Means for Solving the Problems] In order to achieve the above object, the present invention provides an unmanned vehicle with one of marks indicating the passing positions of unmanned vehicles discretely arranged on a road surface while traveling. Imaging at least a plurality of times with the imaging device, recognizing the position of the mark based on the mark in the image captured at each time, determining the traveling route of the unmanned vehicle and sequentially updating the updated traveling route, In a method of determining a traveling route of an image type unmanned vehicle that is caused to travel along a first coordinate system, a first coordinate system having an origin at a previously captured old point is set, and a mark of the mark is set in the first coordinate system. In addition to obtaining the position, a new imaging point at which the next imaging operation is to be performed is obtained on the travel route obtained based on the previously imaged mark, and then a second coordinate system having the new imaging point as the origin is set. And the mark of the first coordinate system Is obtained by performing coordinate conversion to the position in the second coordinate system, and from the converted position, the center position in the image of the mark captured at the new imaging point or the area where the mark is completely included in the image The gist of the present invention is a traveling route determination processing method of an image type unmanned vehicle that predicts by calculation and recognizes the position of a mark only in a portion corresponding to the center position or in the area and obtains a new traveling route. .

[作用] 次に撮像動作が行われる撮像新点は先に撮像したマー
クに基いて求めた走行経路の関数にて求められる。
[Operation] The new imaging point at which the imaging operation is performed next is obtained by a function of the traveling route obtained based on the previously captured mark.

そして、先に撮像した撮像旧点を原点とする第1の座
標系の当該マークの中心位置を撮像新点を原点とする第
2の座標系に座標変換する。続いて、その変換された位
置を画像中における位置に変換する。これにより、撮像
新点で撮像された場合の当該マークの画像中の中心位置
又は撮像新点で撮像された場合のマークが完全に含まれ
る領域が予測される。このため、中心位置に相当する部
分又は前記領域内のみでマークを認識させることがで
き、そのマークに基いて新たな走行経路を求めることが
可能となる。
Then, the center position of the mark in the first coordinate system whose origin is the previously captured imaging point is converted to a second coordinate system whose original point is the new imaging point. Subsequently, the converted position is converted to a position in the image. Thus, the center position of the mark in the image when the image is captured at the new imaging point or the area that completely includes the mark when the image is captured at the new imaging point is predicted. Therefore, the mark can be recognized only in the portion corresponding to the center position or in the area, and a new traveling route can be obtained based on the mark.

[実施例] 以下、この発明の走行経路決定処理方法を具体化した
一実施例を図面に従って説明する。
[Embodiment] An embodiment of a traveling route determination processing method according to the present invention will be described below with reference to the drawings.

第2図は画像式無人車1の側面を示し、その無人車1
の前側上部中央位置に立設した支持フレーム2の上部中
央位置には撮像装置としてのCCD(charge coupled devi
ce)カメラ3が設けられている。CCDカメラ3は無人車
1の予め設定された前方の路面4上のエリア4aを撮るよ
うに支持フレーム2にセットされている。CCDカメラ3
は第3図に示すエリア4aを第5図に示す画像5で撮えて
いる。そして、本実施例ではその画像5は256×256個の
画素データで構成されるようになっている。
FIG. 2 shows a side view of the image type unmanned vehicle 1 and the unmanned vehicle 1.
A CCD (charge coupled device) as an imaging device is provided at the upper center position of the support frame 2 erected at the upper center position on the front side of the camera.
ce) A camera 3 is provided. The CCD camera 3 is set on the support frame 2 so as to capture an area 4a on the road surface 4 in front of the unmanned vehicle 1 set in advance. CCD camera 3
Shows an area 4a shown in FIG. 3 as an image 5 shown in FIG. In the present embodiment, the image 5 is constituted by 256 × 256 pixel data.

前記路面4には第2,3図に示すように無人車1の走行
経路Lを決定するためのマーク6が所定の間隔を隔てて
配設されていて、本実施例では第4図に示すように、そ
の形状は円形をなしその相対向する両側部に一対の先端
尖頭形状の角部6aを延出した形状となっている。そし
て、この一対の角部6aを結ぶ線lは無人車1が同マーク
6を通過する際の進行方向を指示するとともに、本実施
例では次のマーク6がある方向を指示している。又、マ
ーク6の色は路面4の色と異なる白色で構成されてい
る。そして、この一定の離散的に配設されたマーク6を
走行しながら前記CCDカメラ3が順次撮ることになる。
As shown in FIGS. 2 and 3, marks 6 for determining the traveling route L of the unmanned vehicle 1 are provided on the road surface 4 at predetermined intervals, and in this embodiment, are shown in FIG. As described above, the shape is circular, and a pair of pointed corners 6a are extended on both sides facing each other. The line 1 connecting the pair of corners 6a indicates the traveling direction when the unmanned vehicle 1 passes through the mark 6, and in this embodiment, indicates the direction in which the next mark 6 is located. The color of the mark 6 is configured to be white different from the color of the road surface 4. Then, the CCD camera 3 sequentially captures images while traveling on the fixed discretely arranged marks 6.

尚、CCDカメラ3において白色のマーク6部分の画素
信号はレベルが高く、反対に暗い路面4の部分の画素信
号はレベルが低くくなるカメラを本実施例では採用して
いる。
In this embodiment, the CCD camera 3 employs a camera in which the level of the pixel signal of the white mark 6 is high and the level of the pixel signal of the dark road surface 4 is low.

次に、無人車1に搭載された走行制御装置の電気的構
成を第1図に従って説明する。
Next, the electrical configuration of the travel control device mounted on the unmanned vehicle 1 will be described with reference to FIG.

マイクロコンピュータ10は中央処理装置(以下、単に
CPUという)11と制御プログラムを記憶した読み出し専
用のメモリ(ROM)よりなるプログラムメモリ12とCPU11
の演算処理結果等が一時記憶される読み出し及び書き替
え可能なメモリ(RAM)よりなる作業用メモリ13及びタ
イマ14等から構成されている。そして、CPU11はこのプ
ログラムメモリ12に記憶された制御プログラムに従って
CCDカメラ3を作動させてその撮像した画像情報に基い
て無人車1が走行する走行経路Lを割り出すとともに操
舵制御のための各種の演算処理動作を実行するようにな
っている。
The microcomputer 10 is a central processing unit (hereinafter simply referred to as
CPU 11) and a program memory 12 consisting of a read-only memory (ROM) storing a control program and a CPU 11
A working memory 13 composed of a readable and rewritable memory (RAM) for temporarily storing the calculation processing results and the like, a timer 14, and the like. Then, the CPU 11 follows the control program stored in the program memory 12
The CCD camera 3 is operated to determine a traveling route L on which the unmanned vehicle 1 travels based on the image information captured and execute various arithmetic processing operations for steering control.

CPU11は前記タイマ14が計時する時間に基いて一定時
間ごとに入出力インタフェース15及びA/D変換器16を介
して前記CCDカメラ3を走査制御するとともに、そのCCD
カメラ3からの画素信号をA/D変換器16、バスコントロ
ーラ17を介して画素データにして作業用メモリ13に記憶
する。A/D変換器16はCCDカメラ3からの画素信号をアナ
ログ値からデジタル値に変換する際、各画素信号が予め
定めら設定値以上か否かを判別し、設定値以上の画素信
号の場合には白色のマーク6の部分の画素として
「1」、反対に未満の画素信号の場合には暗い色の路面
4の部分の画素として「0」とするようにして順次入力
されてくる各画素信号を2値化し画素データとしてバス
コントローラ17を介して作業用メモリ13に記憶する。
The CPU 11 controls the scanning of the CCD camera 3 via the input / output interface 15 and the A / D converter 16 at regular intervals based on the time measured by the timer 14, and controls the CCD.
The pixel signal from the camera 3 is converted into pixel data via the A / D converter 16 and the bus controller 17 and stored in the working memory 13. When converting the pixel signal from the CCD camera 3 from an analog value to a digital value, the A / D converter 16 determines whether or not each pixel signal is equal to or greater than a predetermined set value. Each pixel is sequentially input in such a manner that “1” is set as the pixel of the white mark 6 and “0” is set as the pixel of the dark road surface 4 when the pixel signal is less than the pixel signal. The signal is binarized and stored in the working memory 13 via the bus controller 17 as pixel data.

従って、作業メモリ13にはCCDカメラ3が撮った画像
5を256×256個の画素データにして記憶されていること
になる。
Therefore, the work memory 13 stores the image 5 taken by the CCD camera 3 as 256 × 256 pixel data.

尚、本実施例では、説明の便宜上CCDカメラ3の走査
制御は横方向に走査し、その走査が画像5の上から下方
向に移る走査方式を採用するがその他の走査方式で実施
してもよいことは勿論である。
In the present embodiment, the scanning control of the CCD camera 3 is performed in the horizontal direction for the sake of convenience of description, and the scanning method in which the scanning shifts from the top to the bottom of the image 5 is adopted. Of course it is good.

2値化レベルコントローラ18はCPU11からの制御信号
に基いて前記A/D変換器16が2値化するための設定値の
データを同A/D変換器16に出力するようになっている。
The binarization level controller 18 outputs to the A / D converter 16 data of a set value for the A / D converter 16 to binarize based on a control signal from the CPU 11.

ドライブコントローラ19は図示しない走行用の走行用
モータ20及び操舵機構21を同じくCPU11からの制御信号
に基いて制御する。そして、走行用モータ20はその制御
信号に基いて回転速度が制御され、操舵機構21は制御信
号に基いてステアリング角Θsが制御される。尚、本実
施例では、始動及び停止を除いて一定の速度Vで無人車
1を走行させるようになっていて、CPU11は走行用モー
タ20の回転速度を一定速度で回転させるように制御して
いる。
The drive controller 19 controls a traveling motor 20 and a steering mechanism 21 (not shown) based on a control signal from the CPU 11. The rotation speed of the traveling motor 20 is controlled based on the control signal, and the steering angle Θs of the steering mechanism 21 is controlled based on the control signal. In this embodiment, the unmanned vehicle 1 runs at a constant speed V except for starting and stopping, and the CPU 11 controls the rotation speed of the traveling motor 20 to rotate at a constant speed. I have.

又、本実施例では前記CCDカメラ3は予め定めた時間
ごとに間をおいて撮像動作が行なわれるように制御され
ていて、第6図に示すように1つのマーク6を3回位置
を変えて撮像するようになっている。従って、同マーク
6に無人車1が近づくに従ってCCDカメラ3に撮像され
る画像5中のマーク6は第7図に示すように次第に手前
に近づくとともに大きく写し出される。又、本実施例で
は当該マーク6が3回撮像されると、次の撮像が行われ
る時には当該マーク6はエリア4aから外れ、次の新しい
マーク6がエリア4aに入るようになっている。
In this embodiment, the CCD camera 3 is controlled so that the imaging operation is performed at intervals of a predetermined time, and the position of one mark 6 is changed three times as shown in FIG. Image. Accordingly, as the unmanned vehicle 1 approaches the mark 6, the mark 6 in the image 5 picked up by the CCD camera 3 gradually approaches the front as shown in FIG. Further, in the present embodiment, when the mark 6 is imaged three times, the next mark is deviated from the area 4a when the next image is taken, and the next new mark 6 enters the area 4a.

次に、前記CPU11の処理動作について説明する。 Next, the processing operation of the CPU 11 will be described.

まず、CPU11の基本的動作を説明すると、CCDカメラ3
を作動させる撮像処理動作と、そのカメラ3が撮像した
画像に基いて路面4に設けたマーク6を画像処理して認
識を行う認識処理動作と、その認識結果に基いて無人車
の走行経路を演算する演算処理動作と、その演算結果に
基いて操舵機構21を制御して無人車1を走行させる走行
制御動作とがある。CPU11は撮像処理動作→認識処理動
作→演算処理動作→走行制御動作の順序で行い、その各
動作の動作時間T1〜T4を予め設定している。そして、こ
の各動作を順次繰り返して無人車1を走行させるように
なっている。尚、撮像処理動作から演算処理動作までが
終了し走行制御動作が開始されるまでの間(T1+T2+T
3)についてはCPU11は先の演算処理動作で得た走行経路
に基く走行制御動作によって無人車1を走行制御してい
る。
First, the basic operation of the CPU 11 will be described.
, A recognition processing operation for performing image processing to recognize the mark 6 provided on the road surface 4 based on the image captured by the camera 3, and a traveling route of the unmanned vehicle based on the recognition result. There are a calculation processing operation for calculating and a traveling control operation for causing the unmanned vehicle 1 to travel by controlling the steering mechanism 21 based on the calculation result. The CPU 11 performs the operations in the order of the imaging processing operation, the recognition processing operation, the arithmetic processing operation, and the traveling control operation, and sets operation times T1 to T4 of each operation in advance. These operations are sequentially repeated to drive the unmanned vehicle 1. It should be noted that a period from when the imaging processing operation to the arithmetic processing operation is completed to when the traveling control operation is started (T1 + T2 + T
Regarding 3), the CPU 11 controls the traveling of the unmanned vehicle 1 by a traveling control operation based on the traveling route obtained in the previous arithmetic processing operation.

さらに詳述すると、第8図に示すように先の演算にて
求めた走行経路L0に基いて走行中の無人車1が地点P0に
到達した時、CPU11がCCDカメラ3を撮像動作させ撮像処
理動作を開始し、認識処理動作及び演算処理動作を行い
次の新たな走行経路L1を決定する。それに要する時間Ta
(T1+T2+T3)の間に、無人車1は地点P0から地点P1ま
で前記走行経路L0に基いて走行する。そして、CPU11は
この地点P1から走行経路L1に基く走行制御動作を開始
し、同走行経路L1に従って走行するように無人車1を走
行制御する。
More specifically, as shown in FIG. 8, when the traveling unmanned vehicle 1 reaches the point P0 based on the traveling route L0 obtained by the previous calculation, the CPU 11 causes the CCD camera 3 to perform an imaging operation to perform an imaging process. The operation is started, the recognition processing operation and the calculation processing operation are performed, and the next new traveling route L1 is determined. Time required for it Ta
During (T1 + T2 + T3), the unmanned vehicle 1 travels from the point P0 to the point P1 based on the traveling route L0. Then, the CPU 11 starts a travel control operation based on the travel route L1 from this point P1, and controls the travel of the unmanned vehicle 1 so as to travel along the travel route L1.

走行経路L1に基く走行制御動作を開始してから所定時
間T4が経過し地点P2まで無人車1が走行した時、CPU11
は次の撮像処理動作を開始する。そして、CPU11はTa時
間経過後(地点P3まで無人車1が走行経路L1に従って走
行する時)までに、地点P2で撮像した画像情報に基く走
行経路L2を決定し、地点P3からその決定した新たな走行
経路L2に従って走行するように無人車1を走行制御す
る。以後同様な動作を繰り返してCPU11は無人車1をそ
の時々で演算した各走行経路L0,L1,L2・・・・,に基い
て走行制御するようになっている。従って、CPU11は周
期T(=T1+T2+T3+T4)で新たな走行経路を更新しな
がら走行している。
When the unmanned vehicle 1 has traveled to the point P2 after a predetermined time T4 has elapsed since the start of the travel control operation based on the travel route L1, the CPU 11
Starts the next imaging processing operation. The CPU 11 determines the travel route L2 based on the image information captured at the point P2 by the time after the Ta time has elapsed (when the unmanned vehicle 1 travels along the travel route L1 to the point P3), and from the point P3, The traveling control of the unmanned vehicle 1 is performed so that the unmanned vehicle 1 travels according to the optimal traveling route L2. Thereafter, by repeating the same operation, the CPU 11 controls the traveling of the unmanned vehicle 1 based on the traveling paths L0, L1, L2,... Calculated at each time. Therefore, the CPU 11 is traveling while updating a new traveling route in the cycle T (= T1 + T2 + T3 + T4).

次に、各処理動作の詳細について説明する。 Next, details of each processing operation will be described.

第9図において無人車1が先に演算された走行経路L0
に従って走行制御されている状態において地点P0に到達
したとき、CPU11からの制御信号に基いてCCDカメラ3が
走査制御されると、CCDカメラ3は路面4に対して垂直
ではなく一定の角度傾いて撮像されていることから前方
のエリア4aを第10図に示すような画像5に撮像する。こ
のCCDカメラ3が撮像した画像5は画素信号としてA/D変
換器16に出力され、そのA/D変換器16にてマーク6の部
分の画素信号と路面4の部分の画素信号とが「1」、
「0」の2値化に判別されて画素データとして作業用メ
モリ13の所定の記憶領域に記憶される。
In FIG. 9, the unmanned vehicle 1 is the travel route L0 calculated earlier.
When the position of the CCD camera 3 is controlled to scan based on the control signal from the CPU 11 when the vehicle reaches the point P0 in a state where the traveling is controlled according to the above, the CCD camera 3 is not perpendicular to the road surface 4 but tilts at a certain angle. Since the image has been captured, the area 4a ahead is captured as an image 5 as shown in FIG. The image 5 captured by the CCD camera 3 is output to the A / D converter 16 as a pixel signal, and the A / D converter 16 converts the pixel signal of the mark 6 and the pixel signal of the road surface 4 into “ 1 ",
It is determined to be binarized to “0” and stored as pixel data in a predetermined storage area of the working memory 13.

尚、説明の便宜上、地点P0で撮像されるマーク6は初
めて撮像されるマーク6であって、最も遠い位置からの
撮像とする。
For convenience of description, the mark 6 imaged at the point P0 is the mark 6 imaged for the first time, and is assumed to be imaged from the farthest position.

CPU11は作業用メモリ13に記憶された全画素データに
基いてマーク6の画像認識を行なう。CPU11は公知の方
法でこの画像5においてマーク6の形状と判別した部分
の中心位置gが実際の路面4のどの位置Gにあるかを求
め作業用メモリ13に記憶する。
The CPU 11 performs image recognition of the mark 6 based on all pixel data stored in the working memory 13. The CPU 11 obtains the actual position G on the road surface 4 where the center position g of the portion determined to be the shape of the mark 6 in the image 5 is stored in the working memory 13 by a known method.

この算出は第10図に示すように画像5からマーク6と
判別した部分の一対の角部6aの尖頭点a,cを含む4点a,
b,c,dを求める。この4点は画像5を構成する各画素に
おいて左から数えて128番目にある縦一列の画素列をx
軸とし、最上側から数えて128番目にある横一列の画素
列をy軸と規定するx,y座標で表わすようにしている。
この場合、このマーク6が初めて撮像されたマーク6で
あることから、当該マーク6の認識は画像5の全画素デ
ータ使用して公知の方法で画像中のマーク6を判別し、
そのマーク6の4点a,b,c,dを決定している。
This calculation includes four points a, including the pointed points a and c of the pair of corners 6a of the portion determined as the mark 6 from the image 5, as shown in FIG.
Find b, c, d. These four points are represented by a vertical pixel row at the 128th pixel counted from the left in each pixel constituting the image 5.
The 128-th horizontal pixel row counted from the top is represented by x, y coordinates defining the y-axis.
In this case, since the mark 6 is the first imaged mark 6, the mark 6 is recognized by using all pixel data of the image 5 to determine the mark 6 in the image by a known method.
The four points a, b, c, d of the mark 6 are determined.

次に、CPU11はこの4点a〜dの射影変換を行う。射
影変換は画像5で求めた各点a〜dが第9図に示す実際
のエリア4a上のどの位置(以下、基点という)A〜Dに
あるか、即ち本実施例では基点A〜Dを第9図に示すよ
うに無人車1の中心位置(正確にはCCDカメラ3の位
置)を原点PHとするとともに、無人車1の進行方向をX
軸とし、同X軸と直交する方向をY軸とした場合のX,Y
座標系での基点A〜Dの座標位置を割り出す演算処理を
行う。
Next, the CPU 11 performs projection transformation of these four points a to d. In the projective transformation, the positions (hereinafter referred to as base points) A to D on the actual area 4a shown in FIG. As shown in FIG. 9, the center position of the unmanned vehicle 1 (accurately, the position of the CCD camera 3) is set as the origin PH, and the traveling direction of the unmanned vehicle 1 is X.
X and Y when the direction orthogonal to the X axis is the Y axis
An arithmetic process is performed to determine the coordinate positions of the base points A to D in the coordinate system.

a(xa,ya)→A(Xa,Ya) b(xb,yb)→B(Xb,Yb) c(xc,yc)→C(Xc,Yc) d(xd,yd)→D(Xd,Yd) これは前記したように、CCDカメラ3が路面4を垂直
に撮像していないことから画像5中のマーク6と実際の
エリア4aにおけるマーク6と相違するのを一致させる処
理である。
a (xa, ya) → A (Xa, Ya) b (xb, yb) → B (Xb, Yb) c (xc, yc) → C (Xc, Yc) d (xd, yd) → D (Xd, Yd) As described above, since the CCD camera 3 does not vertically image the road surface 4, the mark 6 in the image 5 and the mark 6 in the actual area 4a are matched.

尚、この射影変換処理動作は予め設定されているCCD
カメラ3の焦点距離、倍率等の規格及び傾き、高さ等の
設置条件に基いて射影変換、即ち、座標変換が行なわれ
る。そして、この射影変換の一般式は以下の通りであ
る。
Note that this projection conversion processing operation is performed by a preset CCD.
Projection transformation, that is, coordinate transformation, is performed based on the focal length, magnification, and other specifications of the camera 3 and installation conditions, such as tilt and height. The general formula of this projective transformation is as follows.

各点の位置座標をx,y、基点の位置座標をX,Yとし、カ
メラ3の高さをH、カメラ3の傾きをΘ、カメラの焦点
距離をF、倍率定数をkとする。
The position coordinates of each point are x, y, the position coordinates of the base point are X, Y, the height of the camera 3 is H, the inclination of the camera 3 is Θ, the focal length of the camera is F, and the magnification constant is k.

尚、pは車中心とCCDカメラ設置点間の距離である。 Here, p is the distance between the center of the vehicle and the CCD camera installation point.

射影変換を行なった後、CPU11は基点A〜Dの座標か
ら基点A,Cを結ぶ線と基点B,Dを結ぶ線の交点の座標(X
g,Yg)をマーク6の中心位置Gとして求めるとともに、
基点A,Cの座標(Xa,Ya)、(Xc,Yc)からマーク6の傾
き(一対の角部6aを結ぶ線lの傾きであって無人車1が
進む方向を示す)Φmを求める。尚、本実施例では中心
Gを画像中の4つの点a〜dから求めたが、角部尖頭点
a.cの2点を結ぶ線lの中点を画像中のマーク6の中心
位置gとし、その中心位置gを射影変換して中心位置G
としてもよい。又、画像中のマーク6から重心を求めそ
の重心をマーク中心とし、射影変換して中心位置Gを求
めてもよい。
After performing the projective transformation, the CPU 11 uses the coordinates (X) of the intersection of the line connecting the base points A and C and the line connecting the base points B and D from the coordinates of the base points A to D.
g, Yg) as the center position G of the mark 6 and
From the coordinates (Xa, Ya) and (Xc, Yc) of the base points A and C, the inclination of the mark 6 (the inclination of the line 1 connecting the pair of corners 6a and indicating the direction in which the unmanned vehicle 1 moves) Φm is obtained. In the present embodiment, the center G is determined from the four points a to d in the image.
The middle point of the line 1 connecting the two points ac is set as the center position g of the mark 6 in the image, and the center position g is projected and transformed to the center position G.
It may be. Alternatively, a center of gravity may be obtained from the mark 6 in the image, and the center of gravity may be set as the mark center, and the center position G may be obtained by projective transformation.

次に、前記地点P0で撮像した画像情報に基いて決定さ
れる走行経路L1によって走行制御が開始される地点P1に
おける無人車1の傾き(姿勢角)Φp1と、同地点P1の座
標(Xp1,Yp1)を求める。この算出は先の演算で決定さ
れた走行経路L0の3次関数f(X)を用いて容易に求め
られる。
Next, the inclination (posture angle) Φp1 of the unmanned vehicle 1 at the point P1 at which the traveling control is started by the traveling route L1 determined based on the image information captured at the point P0, and the coordinates (Xp1, Yp1). This calculation can be easily obtained by using the cubic function f (X) of the traveling route L0 determined in the previous calculation.

両位置G(Xg,Yg)、P1(Xp1,Yp1)とその位置G、P1
における傾きΦm、Φp1に基いてCPU11は両位置を通過
する下記の3次関数f(X)で表わされる走行経路L1の
求める。
Both positions G (Xg, Yg), P1 (Xp1, Yp1) and their positions G, P1
The CPU 11 obtains a traveling route L1 that passes through both positions and is expressed by the following cubic function f (X) based on the inclinations Φm and Φp1 at

f(X)=αX3+βX2+γX+δ そして、係数α,β,γ,δは下記の連立4次方程式
を解くことによって容易に求めることができる。
f (X) = αX 3 + βX 2 + γX + δ The coefficients α, β, γ, and δ can be easily obtained by solving the following simultaneous quartic equations.

Yg=αXg3+βXg2+γXg+δ Yp1=αXp13+βXp12+γXp1+δ tanΦm=3αXg2+2βXg+γ tanΦp1=3αXp12+2βXp1+γ CPU11はこの3次関数f(X)を地点P1からマーク中
心位置Gを姿勢角Φmで通過する無人車1の走行経路L1
として決定する。
Yg = αXg 3 + βXg 2 + γXg + δ Yp1 = αXp1 3 + βXp1 2 + γXp1 + δ tanΦm = 3αXg 2 + 2βXg + γ tanΦp1 = 3αXp1 2 + 2βXp1 + γ CPU11 unattended passing the mark center position G of the cubic function f (X) from the point P1 in the attitude angle Φm Travel route L1 of car 1
To be determined.

そして、無人車1が先の走行経路L0に従って地点P1に
到達した時、CPU11は走行制御動作に移りこの関数f
(X)に基いて操舵機構21を制御する。この制御は第11
図に示すように地点P1から関数f(X)の曲線に沿って
無人車1を走行させるための制御動作であって、その時
々の走行位置における姿勢角Φ(X)を求め、無人車1
がその時々においてその姿勢角Φ(X)となるようにス
テアリング角Θsを決定し操舵機構21を作動制御する。
Then, when the unmanned vehicle 1 arrives at the point P1 according to the preceding traveling route L0, the CPU 11 shifts to a traveling control operation and this function f
The steering mechanism 21 is controlled based on (X). This control is the eleventh
As shown in the drawing, this is a control operation for running the unmanned vehicle 1 along the curve of the function f (X) from the point P1, and the attitude angle Φ (X) at each running position is obtained.
Determines the steering angle Θs so as to have the attitude angle Φ (X) at each time, and controls the operation of the steering mechanism 21.

そして、3次関数f(X)の微分値の逆正接が姿勢角
Φ(X)(=tan-1{f′(X)})であって、走行経
路L1上のある点(Xn,f(Xn))から次の点(Xn+1,f(X
n+1))まで移動する場合には姿勢角Φ(X)がΦ(X
n)からΦ(Xn+1)となる条件を満足すればよいこと
がわかる。
The inverse tangent of the differential value of the cubic function f (X) is the attitude angle Φ (X) (= tan -1 {f '(X)}), and a point (Xn, f (Xn)) to the next point (Xn + 1, f (X
n + 1)), the attitude angle Φ (X) is Φ (X
It can be seen that it suffices to satisfy the condition from (n) to Φ (Xn + 1).

この条件を満足させるための走行制御方法を本実施例
では定常旋回円走行に具体化した。
In this embodiment, a traveling control method for satisfying this condition is embodied as a steady turning circular traveling.

即ち、定常旋回円走行は第12図に示すようにステアリ
ング角Θsを一定に保持すると一定の半径Rで旋回する
走行であって、ΔT秒後の姿勢角Φ(X)の変化量をΔ
Φとすると、以下の式が成りたつ。
That is, the steady turning circle running is a running turning with a constant radius R when the steering angle Θs is kept constant as shown in FIG. 12, and the change amount of the attitude angle Φ (X) after ΔT seconds is Δ
Assuming that Φ, the following equation is established.

ΔΦ=V・Θs・ΔT/W R=W/Θs Vは走行速度、Wはホイルベースである。 ΔΦ = VΘs ・ ΔT / WR R = W / Θs V is the running speed, and W is the wheel base.

そして、両式からV・ΔTだけ進む間にΔΦだけ姿勢
角を変化させるためには、ΔTごとに半径R(=V・Δ
T/ΔΦ)を計算し、その半径Rからステアリング角Θs
(=W/R=W・ΔΦ/V・ΔTを算出すればよい。
Then, in order to change the attitude angle by ΔΦ while moving forward by V · ΔT from both equations, the radius R (= V · Δ
T / ΔΦ) and calculate the steering angle Θs from the radius R.
(= W / R = W · ΔΦ / V · ΔT may be calculated.

従って、CPU11はΔT秒毎にステアリング角Θsを前
記式に基いて算出し、操舵機構21を作動制御すれば走行
経路L1に沿って無人車1を走行させることができる。
Therefore, the CPU 11 calculates the steering angle Θs every ΔT seconds based on the above equation and controls the operation of the steering mechanism 21 to allow the unmanned vehicle 1 to travel along the travel path L1.

無人車1が走行経路L1に従って走行し、走行経路L1に
基く走行制御動作を開始してからT4時間経過した時(そ
の時の地点をP2)、CPU11は次の撮像装置の処理動作を
実行し前記と同様にCCDカメラ3を作動してその時のエ
リア4a内のマーク6を撮像する。そして、次の新たな走
行経路L2の3次関数f(X)を求める処理動作を地点P3
に到達するまでに行う。
When the unmanned vehicle 1 travels according to the traveling route L1 and the traveling control operation based on the traveling route L1 is started and a time T4 has elapsed (the point at that time is P2), the CPU 11 executes the processing operation of the next imaging device, and Similarly, the CCD camera 3 is operated to image the mark 6 in the area 4a at that time. The processing operation for obtaining the cubic function f (X) of the next new travel route L2 is performed at the point P3.
Do it until you reach.

この場合、前記と相違してCCDカメラ3が撮像した画
像5の全画素データが作業用メモリ13に記憶されると、
CPU11は第14図に示すように画像5中のマーク6の中心
位置g及び当該マーク6を完全に含む処理領域eの設定
演算を実行する。
In this case, unlike the above, when all the pixel data of the image 5 captured by the CCD camera 3 is stored in the working memory 13,
As shown in FIG. 14, the CPU 11 executes the setting operation of the center position g of the mark 6 in the image 5 and the processing area e completely including the mark 6.

この設定演算はその前記第11図に示すX,Y座標系から
地点P2を原点とするとともに、その地点P2の無人車1の
進行方向をXm軸、同Xm軸に対して直交する方向をYm軸と
するXm,Ym座標系に座標変換、即ち、前記X,Y座標中のマ
ーク中心位置Gの座標(Xg,Yg)をXm,Ym座標系での座標
(Xmg,Ymg)に変換する。従って、この場合、撮像旧点
が地点P0、撮像新点が地点P2となるとともに、第1の座
標系がX,Y座標系、第2の座標系がXm,Ym座標系となる。
In this setting calculation, the point P2 is set as the origin from the X, Y coordinate system shown in FIG. 11, the traveling direction of the unmanned vehicle 1 at the point P2 is defined as the Xm axis, and the direction orthogonal to the Xm axis is defined as Ym. The coordinates are converted into an Xm, Ym coordinate system as an axis, that is, the coordinates (Xg, Yg) of the mark center position G in the X, Y coordinates are converted into coordinates (Xmg, Ymg) in the Xm, Ym coordinate system. Therefore, in this case, the old imaging point is the point P0, the new imaging point is the point P2, the first coordinate system is the X, Y coordinate system, and the second coordinate system is the Xm, Ym coordinate system.

この変換はアフィン変換を用いて行なわれ、以下の演
算式でXm,Ym座標系でのマーク中心位置Gmの座標位置(X
mg,Ymg)が求められる。
This transformation is performed using an affine transformation, and the coordinate position of the mark center position Gm in the Xm, Ym coordinate system (X
mg, Ymg).

Xmg=(Xg−Xp2)cos(−Θm) −(Yg−Yp2)sin(−Θm) Ymg=(Xg−Xp2)sin(−Θm) +(Yg−Yp2)cos(−Θm) 尚、Xp2,Yp2はX,Y座標系の地点P2の座標であって、前
記走行経路L1の3次関数から求めることができる。
Xmg = (Xg−Xp2) cos (−Δm) − (Yg−Yp2) sin (−Δm) Ymg = (Xg−Xp2) sin (−Δm) + (Yg−Yp2) cos (−Δm) where Xp2, Yp2 is the coordinates of the point P2 in the X, Y coordinate system, and can be obtained from the cubic function of the traveling route L1.

又、ΘmはX,Y座標系のY軸に対するXm,Ym座標系のYm
軸の回転角、即ち、地点P0での無人車1の姿勢角に対す
る地点P2での無人車1の姿勢角の変化量であって、前記
走行経路L1の3次関数から求めることができる。
Θm is Ym of the Xm, Ym coordinate system with respect to the Y axis of the X, Y coordinate system.
The rotation angle of the shaft, that is, the change amount of the attitude angle of the unmanned vehicle 1 at the point P2 with respect to the attitude angle of the unmanned vehicle 1 at the point P0, which can be obtained from the cubic function of the traveling route L1.

Xm,Ym座標系での路面4上のマーク6中心位置Gmの座
標位置(Xmg,Ymg)が求められると、次にCPU11はこの座
標(Xmg,Ymg)が地点P2で撮像した場合には画像5中の
どの位置、即ち、マーク中心位置gが画像5中どの位置
にあるか演算処理を行う。
When the coordinate position (Xmg, Ymg) of the center position Gm of the mark 6 on the road surface 4 in the Xm, Ym coordinate system is determined, the CPU 11 next sets an image when the coordinates (Xmg, Ymg) are captured at the point P2. 5, that is, where the mark center position g is located in the image 5.

Gm(Xmg,Ymg)→g(xg,yg) これは、前記射影変換処理動作と逆の変換処理(逆射
影変換処理)を行うことによって求めることができる。
この逆射影変換式の一般式は以下の通りである。
Gm (Xmg, Ymg) → g (xg, yg) This can be obtained by performing a conversion process (reverse projection conversion process) reverse to the above-mentioned projection conversion process operation.
The general formula of this inverse projection conversion formula is as follows.

逆射影変換にて求めた位置g(xg,yg)が求まると、C
PU11は画像5中のマーク6が位置g(xg,yg)を中心に
撮像されていると判断し、次に処理領域eの設定演算を
行なう。
When the position g (xg, yg) obtained by the inverse projection transformation is obtained, C
The PU 11 determines that the mark 6 in the image 5 is imaged around the position g (xg, yg), and then performs a setting calculation of the processing area e.

処理領域eの設定演算は前記算出したXm,Ym座標系で
の路面4上のマーク中心位置Gmの座標位置(Xmg,Ymg)
に基いて演算される。
The setting calculation of the processing area e is performed by the coordinate position (Xmg, Ymg) of the mark center position Gm on the road surface 4 in the calculated Xm, Ym coordinate system.
It is calculated based on

これは、路面4上のマーク6の大きさは予めデータと
して記憶されているとともに、その路面4上で完全にマ
ーク6を含む四角枠形状の領域Zが予め設定されてい
る。そして、マーク6の中心位置と常に不変の位置関係
にあるその領域Zの1つのコーナ部の点Zaのマーク中心
位置との相対位置関係のデータを予めプログラムメモリ
12に記憶しておき、そのデータに基いてCPU11はXm,Ym座
標系で路面4上の点Zaの座標(Xmza,Ymza)を求めるよ
うにしている。
This means that the size of the mark 6 on the road surface 4 is stored in advance as data, and a rectangular frame-shaped region Z that completely includes the mark 6 on the road surface 4 is set in advance. The data of the relative positional relationship between the center position of the mark 6 and the mark center position of the point Za at one corner of the area Z, which is always invariable relative to the center position of the mark 6, is stored in advance in the program memory.
The CPU 11 calculates the coordinates (Xmza, Ymza) of the point Za on the road surface 4 in the Xm, Ym coordinate system based on the data.

同様に領域Zの他の3つのコーナー部の点Zb,Zc,Zdの
各座標(Xmzd,Ymzb)(Xmzc,Ymzc)(Xmzd,Ymzd)を求
める。
Similarly, the coordinates (Xmzd, Ymzb) (Xmzc, Ymzc) (Xmzd, Ymzd) of the points Zb, Zc, Zd at the other three corners of the area Z are obtained.

次に、CPU11はこの各点Za〜Zdと対応する画像5中の
各点za〜zdの座標(x za,y za)(x zb,y zb)(x zc,y
zc)(x zd,y zd)を前記と同様に逆射影変換して求め
る。そして、この各点を結んだ範囲が処理領域eとな
り、同領域eは撮像するマーク6が確実に包含される横
に長い四角形状の領域となる。尚、この領域eが横に長
くなるのはCCDカメラ3が斜めに路面4を撮像すること
によってx軸方向に歪みが生じるからである。
Next, the CPU 11 coordinates (x za, y za) (x zb, y zb) (x zc, y) of each point za to zd in the image 5 corresponding to each of the points Za to Zd.
zc) (xzd, yzd) is obtained by inverse projection transformation in the same manner as described above. Then, a range connecting these points becomes a processing area e, and the area e becomes a horizontally long rectangular area in which the mark 6 to be imaged is surely included. The area e becomes longer horizontally because the CCD camera 3 obliquely captures an image of the road surface 4 to cause distortion in the x-axis direction.

画像5中の処理領域eが設定されると、CPU11は作業
用メモリ13に記憶した全画素データ群の中から処理領域
eにある画素データ群のみ読み出して同領域e中にある
はずのマーク6の画像認識を実行する。CPU11は領域e
内におけるマーク4の形状を前記と同様に公知の方法で
判別し、その中心位置g、及びマーク6の角部6aの尖頭
点a,cを含む4点a〜dの画像5中の位置を求める。
When the processing area e in the image 5 is set, the CPU 11 reads out only the pixel data group in the processing area e from all the pixel data groups stored in the working memory 13 and reads the mark 6 that should be in the same area e. Execute image recognition. CPU 11 is in area e
Similarly, the shape of the mark 4 is determined by a known method in the same manner as described above, and the center position g and the positions of four points a to d including the peak points a and c of the corner 6a of the mark 6 in the image 5 are determined. Ask for.

従って、従来のようにCCDカメラ3が撮像し作業用メ
モリ13に記憶した全画素データ群を使用してマーク6の
画像認識を行うのに比べて処理時間が非常に短縮される
ことになる。
Accordingly, the processing time is greatly reduced as compared with the conventional case where the CCD camera 3 performs image recognition of the mark 6 using all pixel data groups stored in the working memory 13 by taking an image.

中心位置g及び4点a〜dが求まると、CPU11は同じ
方法で射影変化し各点G,A〜D及び点Gにおける無人車
1の傾きΦmを求める。又、CPU11は走行経路L1の3次
関数f(X)に基いて地点P3の位置及びその時の傾きΦ
p3を求める。そして、これら求めた各値に基いて次の新
たな3次関数よりなる走行経路L2を前記走行経路L1を求
めたときと同じ方法で割り出す。
When the center position g and the four points a to d are determined, the CPU 11 projects and changes in the same manner to determine the inclinations Φm of the unmanned vehicle 1 at the points G, A to D and the point G. Further, the CPU 11 determines the position of the point P3 and the inclination Φ at that time based on the cubic function f (X) of the traveling route L1.
Find p3. Then, based on the obtained values, a travel route L2 composed of the following new cubic function is determined in the same manner as when the travel route L1 was determined.

この時、CPU11は走行経路L2の関数f(X)が算出さ
れ、その新たな走行経路L2に基く走行制御動作が開始さ
れる時間まで、即ち走行経路L1の地点P3までは先の走行
経路L1の関数f(X)に基いて無人車1を走行制御す
る。
At this time, the CPU 11 calculates the function f (X) of the traveling route L2 and until the time when the traveling control operation based on the new traveling route L2 is started, that is, up to the point P3 of the traveling route L1, the preceding traveling route L1. Of the unmanned vehicle 1 based on the function f (X).

そして、無人車1が地点P2に到達した時、CPU11はそ
の求めた新たな3次関数f(X)よりなる走行経路L2に
沿って無人車1を走行制御する。
Then, when the unmanned vehicle 1 reaches the point P2, the CPU 11 controls the traveling of the unmanned vehicle 1 along the traveling route L2 including the obtained new cubic function f (X).

そして、走行経路L2を走行中において次の新たな走行
経路を求めるべくCCDカメラ3の撮像動作が行われる
と、CPU11は前記走行経路L2を求めた方法と同じ処理動
作を行う。従って、CPU11はまず処理領域eの設定演算
を行い、新たに設定された領域e内での画像認識を実行
する。この場合、領域eを設定する際、実際の路面4の
マーク6を基準にそれを含む領域Zをまず設定しそれを
射影変換して求めたので、当該マーク6が無人車1によ
り近ずくにつれて大きく撮像されてもそれに相対して処
理領域eもマーク6を完全に包含するように拡大され、
確実にマーク6を認識を行うことができる。そして、第
15図に示すように処理領域eは先の走行経路L2を設定し
た処理領域eよりその範囲か拡大されることから、画像
認識を行なうための画素データ群は増加しその分処理時
間は延びるが、従来のようにCCDカメラ3が撮像し作業
用メモリ13に記憶した画像5の全画素データを使用する
のに比べれば非常に短縮される。
Then, when the imaging operation of the CCD camera 3 is performed to find the next new traveling route while traveling along the traveling route L2, the CPU 11 performs the same processing operation as the method for finding the traveling route L2. Accordingly, the CPU 11 first performs a setting calculation of the processing area e, and executes image recognition in the newly set area e. In this case, when the area e is set, the area Z including the actual mark 6 on the road surface 4 is first set, and the area Z including the area Z is determined by projective transformation. Therefore, as the mark 6 approaches the unmanned vehicle 1, Even if a large image is taken, the processing area e is also enlarged so as to completely cover the mark 6,
The mark 6 can be reliably recognized. And the second
As shown in FIG. 15, since the processing area e is expanded in the range of the processing area e in which the traveling route L2 is set, the pixel data group for performing the image recognition increases and the processing time increases by that much. This is much shorter than when all the pixel data of the image 5 captured by the CCD camera 3 and stored in the work memory 13 is used as in the related art.

尚、第15図に示すマーク6に基いて走行経路が決定さ
れ同経路を走行し次の撮像を行う時、本実施例の場合、
当該マーク6はCCDカメラ3の撮像エリア4aから外れ次
の新たなマーク6がエリア4aに入ることになる。そし
て、CPU11は新しいマーク6でどの位置に撮像されるか
は予測しにくいので、前記と同様に新たなマーク6が最
初に撮像された時のみ全画素データを使用してマーク6
の画像認識を実行する。
In addition, when the traveling route is determined based on the mark 6 shown in FIG. 15 and traveling on the same route to perform the next imaging, in the case of this embodiment,
The mark 6 deviates from the imaging area 4a of the CCD camera 3, and the next new mark 6 enters the area 4a. Since it is difficult for the CPU 11 to predict where the new mark 6 is to be imaged, the CPU 11 uses all pixel data only when the new mark 6 is first imaged as described above.
Execute image recognition.

以後、CPU11は同様に動作を繰り返して走行経路を順
次更新して無人車1を撮像したマーク6に従って走行制
御する。
Thereafter, the CPU 11 repeats the operation in the same manner to sequentially update the traveling route and controls the traveling according to the mark 6 on which the unmanned vehicle 1 is imaged.

このように本実施例においては3次関数f(X)より
表わされる各走行経路L1,L2,・・・を求める際、撮像し
た地点P0,P2とその地点P0,P2の傾き(無人車1の姿勢
角)を使用しないで、CCDカメラ3がマーク6を撮像し
てから新たな走行経路を決定しその決定した走行経路に
従って走行制御されるまでの時間差を考慮し、現在走行
している走行経路の関数に基いて求めた新たな走行経路
に移る地点P1,P3とその傾きΦp1,Φp3を使用しているの
で、無人車1をマーク6上を必ず通過させるとともに、
マーク6上においてその一対の角部6aにて示す走行方向
に確実に進行させることができ、無人車1の高速化を図
ることができる。
As described above, in the present embodiment, when obtaining each of the traveling routes L1, L2,... Represented by the cubic function f (X), the points P0, P2 and the inclination of the points P0, P2 (the unmanned vehicle 1) Without using the attitude angle), the CCD camera 3 takes the time difference from when the image of the mark 6 is picked up to when a new travel route is determined and the travel is controlled in accordance with the determined travel route. Since the points P1 and P3 and the gradients Φp1 and Φp3 of the new traveling route determined based on the function of the route are used, the driverless vehicle 1 must pass over the mark 6 without fail.
It is possible to reliably advance in the traveling direction indicated by the pair of corners 6a on the mark 6, and the speed of the unmanned vehicle 1 can be increased.

又、本実施例ではCCDカメラ3が撮像した画像中、予
め予測したマーク6を完全に含む処理領域eの画素デー
タ群のみを使用してマーク6の認識を可能にしたので、
画像処理時間を短縮することができ、ひいては無人車1
の高速化を図ることができる。しかも、処理領域eを設
定しマーク6の認識を行うようにしたので、走行の障害
にはならないノイズが画素データ群中に含まれていて
も、そのノイズが処理領域e中に含まれなければ影響を
受けないことから精度の高い画像認識ができ、ひいては
精度の高い走行経路を決定することができる。
In the present embodiment, the mark 6 can be recognized by using only the pixel data group of the processing area e that completely includes the mark 6 predicted in advance in the image captured by the CCD camera 3.
Image processing time can be shortened, and as a result, unmanned vehicles 1
Can be speeded up. In addition, since the processing area e is set and the mark 6 is recognized, even if noise that does not hinder traveling is included in the pixel data group, the noise is not included in the processing area e. Since it is not affected, highly accurate image recognition can be performed, and a highly accurate traveling route can be determined.

又、本実施例においては、設定した処理領域e内での
マーク6の認識において、マーク6が認識されない場
合、これを無人車1がマーク6が存在しない異常な位置
を走行している等、無人車1が異常状態にあると判断し
て、無人車1を例えば停止させるようにすれば、無人車
1をより確実に運行させることができる。
Further, in the present embodiment, when the mark 6 is not recognized in the recognition of the mark 6 within the set processing area e, if the mark 6 is not recognized, the unmanned vehicle 1 is traveling at an abnormal position where the mark 6 does not exist. If it is determined that the unmanned vehicle 1 is in an abnormal state and the unmanned vehicle 1 is stopped, for example, the unmanned vehicle 1 can be operated more reliably.

しかも、本実施例では処理領域eを設定し、その領域
e内のみで画像処理を実行したが、これを例えば前記し
たスポツトマーク式無人車においては領域eを設定する
ことなく、マーク6の中心位置gに相当する光反射部材
の中心部分のみを予測しその予測した部分のみを画像処
理する場合にも同様な効果が期待できる。
In addition, in this embodiment, the processing area e is set, and the image processing is executed only in the area e. However, in the spot mark type unmanned vehicle described above, the processing is performed without setting the area e. Similar effects can be expected when only the central portion of the light reflecting member corresponding to the position g is predicted and only the predicted portion is image-processed.

尚、前記実施例では予測した画像5中のマーク6の中
心位置gを処理領域eの設定に利用して画像処理時間の
短縮を図ったが、これに限定されるものではなく、例え
ば予測したマーク中心位置gと実際に画像5から認識し
たマーク6の中心位置との偏位を求め、その偏位差に基
いて正常に走行しているかどうかの判別に利用して無人
車を安全に走行させるシステムに利用してもよい。
In the above-described embodiment, the image processing time is shortened by using the predicted center position g of the mark 6 in the image 5 to set the processing area e. However, the present invention is not limited to this. A deviation between the mark center position g and the center position of the mark 6 actually recognized from the image 5 is obtained, and the unmanned vehicle is driven safely by using the deviation difference to determine whether the vehicle is traveling normally. You may use it for the system which makes it.

又、前記実施例では1つのマーク6が3回CCDカメラ
3に撮像されるようにしたが、この撮像回数に限定され
るものではなく、回数を増減したり、撮像タイミングを
その時々で変更したりして実施してもよい。
Further, in the above-described embodiment, one mark 6 is imaged by the CCD camera 3 three times. However, the present invention is not limited to the number of times of imaging, and the number of times may be increased or decreased, or the imaging timing may be changed from time to time. Or may be implemented.

又、本実施例では1つのマーク6が3回撮像される
と、次の撮像時にな次の新たなマーク6がエリア4aに入
るように設定したが、これに限定されるものではなくこ
れをマーク6が撮像されない状態が続いた後、新たなマ
ーク6が撮像されるようにして実施してもよい。
Further, in this embodiment, when one mark 6 is imaged three times, the next new mark 6 is set to enter the area 4a at the time of the next imaging. However, the present invention is not limited to this. After the state in which the mark 6 is not imaged continues, a new mark 6 may be imaged.

更に、前記実施例では処理領域eの設定を画像認識を
行う直前に行ったが、1つの走行経路が決定された後で
あって当該走行経路に基いて走行を開始する前に次の撮
像位置を求めて処理領域を予め設定しておくようにして
もよい。
Further, in the above-described embodiment, the setting of the processing area e is performed immediately before performing the image recognition. However, after one travel route is determined and before the travel is started based on the travel route, the next imaging position is set. And a processing area may be set in advance.

又、前記実施例では走行経路を3次関数にて決定した
が、これに限定されるものではなく、走行経路をその他
の関数を用いて決定するようにしてもよい。
In the above embodiment, the travel route is determined by a cubic function. However, the present invention is not limited to this, and the travel route may be determined by using another function.

更に、前記実施例では撮像装置としてCCDカメラ3を
用いたが、それ以外の撮像装置を用いて実施してもよ
く、又、前記実施例ではCCDカメラ3における画像の画
素構成(分解能)を256×256画素としたが、これに限定
されるんものではなく、例えば512×512画素、1024×10
24画素等、適宜変更して実施してもよい。
Further, in the above embodiment, the CCD camera 3 is used as the imaging device. However, the present invention may be implemented by using another imaging device. In the above embodiment, the pixel configuration (resolution) of the image in the CCD camera 3 is set to 256. × 256 pixels, but is not limited to this, for example, 512 × 512 pixels, 1024 × 10
It may be implemented by appropriately changing the number of pixels, such as 24 pixels.

さらに、前記実施例では撮像処理動作→認識処理動作
→演算処理動作→走行制御動作の順序で無人車1の走行
経路を決定し走行制御するようになっていたが、その順
序は適宜変更してもよく、要はマークを撮像してから走
行経路を決定し、その走行経路に基く走行制御が開始さ
れるまでの時間差を考慮して当該走行経路がされるので
あれば、どんな動作順序でよい。
Further, in the above-described embodiment, the traveling route of the unmanned vehicle 1 is determined and the traveling control is performed in the order of the imaging processing operation, the recognition processing operation, the arithmetic processing operation, and the traveling control operation. In other words, any operation sequence may be used as long as the travel route is determined in consideration of the time difference from when the mark is imaged to when the travel control based on the travel route is started. .

さらに又、前記実施例では無人車1の走行速度Vを一
定としたが、その時々で変更するようにしてもよい。こ
の場合、無人車の車速を計測する車速検出器を設け同検
出器に基いて車速及び走行距離等を演算してもよい。
Further, in the above embodiment, the traveling speed V of the unmanned vehicle 1 is fixed, but may be changed at each time. In this case, a vehicle speed detector for measuring the vehicle speed of the unmanned vehicle may be provided, and the vehicle speed and the traveling distance may be calculated based on the detector.

[発明の効果] 以上詳述したように、この発明によれば、撮像新点で
撮像された場合のマークの中心位置又はマークが完全に
含まれる領域を予測することができるため、その中心位
置に相当する部分又は領域のみでマークの認識を行えば
よく、マーク以外のノイズを拾う虞がなく正確かつ精度
の高い走行経路を決定することができ、しかも、走行中
の無人車の異常走行の検出にも利用することができると
ともに、画像処理時間の短縮化を図るシステムに利用で
き画像式無人車の走行経路決定処理方法として優れた効
果を有する。
[Effects of the Invention] As described in detail above, according to the present invention, it is possible to predict the center position of a mark or an area where a mark is completely included when an image is captured at a new imaging point. It is sufficient to recognize the mark only in the portion or the area corresponding to, and it is possible to determine an accurate and accurate traveling route without a possibility of picking up noise other than the mark, and furthermore, to detect an abnormal traveling of the unmanned vehicle during traveling. It can be used for detection, and can be used for a system that shortens the image processing time, and has an excellent effect as a traveling route determination processing method for an image type unmanned vehicle.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明を具体化した走行経路決定処理装置の
電気ブロック回路図、第2図は走行中の無人車の側面
図、第3図は同じく平面図、第4図はマークの正面図、
第5図はCCDカメラが撮らえた画像を説明するための説
明図、第6図は撮像回数とマークとの関係を示す図、第
7図は画像中のマークの変化を示す図、第8図は走行経
路決定処理装置の動作順序と無人車の走行位置との関係
を示す図、第9図は走行中にCCDカメラが撮像したエリ
アを示す図、第10図はそのエリアにおける画像を示す
図、第11図は走行経路決定処理装置が決定した走行経路
を示す図、第12図は定常旋回円走行を説明するための説
明図、第13図は姿勢角と半径との関係を示す図、第14図
及び第15図は処理領域を説明するための図、第16図は座
標変換を説明するための図である。 図中、1は画像式無人車、3はCCDカメラ、4は路面、4
aはエリア、5は画像、6はマーク、6aは角部、10はマ
イクロコンピュータ、11はCPU、12はプログラムメモ
リ、16はA/D変換器、18は2値化レベルコントローラ、1
9はドライブコントローラ、20は走行用モータ、21は操
舵機構、eは領域としての処理領域、L,L0,L1,L2は走行
経路、Gはマーク中心位置、Φm,Φp1,Φp3は姿勢角、P
0は撮像旧点としての地点、P2は撮像旧点及び新点とし
ての地点である。
FIG. 1 is an electric block circuit diagram of a traveling route determination processing device embodying the present invention, FIG. 2 is a side view of a traveling unmanned vehicle, FIG. 3 is a plan view of the same, FIG. ,
FIG. 5 is an explanatory diagram for explaining an image taken by a CCD camera, FIG. 6 is a diagram showing a relationship between the number of times of imaging and a mark, FIG. 7 is a diagram showing a change of a mark in the image, FIG. Is a diagram showing the relationship between the operation sequence of the traveling route determination processing device and the traveling position of the unmanned vehicle, FIG. 9 is a diagram showing an area captured by the CCD camera during traveling, and FIG. 10 is a diagram showing an image in that area. 11, FIG. 11 is a diagram showing a traveling route determined by the traveling route determination processing device, FIG. 12 is an explanatory diagram for explaining a steady turning circular traveling, FIG. 13 is a diagram showing the relationship between the attitude angle and the radius, 14 and 15 are diagrams for explaining the processing area, and FIG. 16 is a diagram for explaining the coordinate conversion. In the figure, 1 is an image type unmanned vehicle, 3 is a CCD camera, 4 is a road surface, 4
a is an area, 5 is an image, 6 is a mark, 6a is a corner, 10 is a microcomputer, 11 is a CPU, 12 is a program memory, 16 is an A / D converter, 18 is a binary level controller, 1
9 is a drive controller, 20 is a traveling motor, 21 is a steering mechanism, e is a processing area as an area, L, L0, L1, L2 are traveling paths, G is a mark center position, Φm, Φp1, Φp3 are attitude angles, P
0 is a point as an imaging old point, and P2 is a point as an imaging old point and a new point.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】路面に離散的に配設した無人車の通過位置
を示すマークの1つを、走行しながら無人車に備えた撮
像装置で少なくとも複数回撮像し、その時々に撮像され
た画像中のマークに基いて同マークの位置を認識し無人
車の走行経路を決定するとともに順次更新し、その更新
される走行経路に沿って走行させるようにしてなる画像
式無人車の走行経路決定処理方法において、 先に撮像した撮像旧点を原点とする第1の座標系を設定
し、その第1の座標系にてマークの位置を求めるととも
に、先に撮像したマークに基いて求めた走行経路にて次
に撮像動作が行われる撮像新点を求め、 次に、その撮像新点を原点とする第2の座標系を設定
し、前記第1の座標系の当該マークの中心位置をその第
2の座標系における位置に座標変換して求め、その変換
位置から、撮像新点で撮像される当該マークの画像中の
中心位置又はマークが画像中で完全に含まれる領域を演
算によって予測し、前記中心位置に相当する部分又は前
記領域内のみでマークの位置を認識して新たな走行経路
を求める画像式無人車の走行経路決定処理方法。
An image of one of marks indicating a passing position of an unmanned vehicle discretely arranged on a road surface is taken at least a plurality of times by an image pickup device provided on the unmanned vehicle while traveling, and an image taken at each time is taken. An image-based unmanned vehicle traveling route determination process that recognizes the position of the mark based on the inside mark, determines the traveling route of the unmanned vehicle, sequentially updates the traveling route, and drives the vehicle along the updated traveling route. In the method, a first coordinate system having an origin at a previously captured imaging point is set, a position of a mark is determined in the first coordinate system, and a traveling route determined based on the previously captured mark is determined. Then, a new imaging point at which the imaging operation is performed next is determined. Next, a second coordinate system having the new imaging point as the origin is set, and the center position of the mark in the first coordinate system is determined by the first coordinate system. Determined by converting the coordinates to the position in the coordinate system 2 From the converted position, the center position in the image of the mark imaged at the imaging new point or the region where the mark is completely included in the image is predicted by calculation, and only the portion corresponding to the center position or only in the region An image-based unmanned vehicle traveling route determination processing method for recognizing a position of a mark and obtaining a new traveling route.
JP63013084A 1988-01-22 1988-01-22 Driving route determination processing method for image type unmanned vehicles Expired - Lifetime JP2737902B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63013084A JP2737902B2 (en) 1988-01-22 1988-01-22 Driving route determination processing method for image type unmanned vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63013084A JP2737902B2 (en) 1988-01-22 1988-01-22 Driving route determination processing method for image type unmanned vehicles

Publications (2)

Publication Number Publication Date
JPH01188909A JPH01188909A (en) 1989-07-28
JP2737902B2 true JP2737902B2 (en) 1998-04-08

Family

ID=11823303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63013084A Expired - Lifetime JP2737902B2 (en) 1988-01-22 1988-01-22 Driving route determination processing method for image type unmanned vehicles

Country Status (1)

Country Link
JP (1) JP2737902B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0973543A (en) * 1995-09-06 1997-03-18 Toshiba Corp Moving object recognition method/device
KR101287721B1 (en) 2005-04-13 2013-07-18 톰슨 라이센싱 Luma-chroma coding with one common or three distinct spatial predictors
JP7118717B2 (en) * 2018-04-18 2022-08-16 日立Astemo株式会社 Image processing device and stereo camera device
CN109857103B (en) * 2019-01-22 2023-04-07 秦皇岛天业通联重工科技有限公司 Control method, device and system for automatically driving vehicle

Also Published As

Publication number Publication date
JPH01188909A (en) 1989-07-28

Similar Documents

Publication Publication Date Title
JP3853542B2 (en) Image processing apparatus, image processing method, and navigation apparatus
JP3986360B2 (en) Camera calibration device
JP2002197469A (en) Device for detecting traffic lane
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
JP2020067698A (en) Partition line detector and partition line detection method
JP4767052B2 (en) Optical axis deviation detector
JP2000293693A (en) Obstacle detecting method and device
JP2737902B2 (en) Driving route determination processing method for image type unmanned vehicles
JP2004185425A (en) Lane mark recognition method and device
JP2689455B2 (en) Image type unmanned vehicle driving route determination method
JP2000099896A (en) Traveling path detecting device and vehicle traveling controller and recording medium
JPH0883124A (en) Unmanned carrier
JP3820874B2 (en) Image processing apparatus for vehicle
JPH0626859A (en) Distance measuring apparatus of unmanned running vehicle
JPH01188910A (en) Image processing method for traveling mark of image type unmanned vehicle
JPH01211006A (en) Deciding method for recognizing position of operating information of image type unmanned vehicle
JP3178283B2 (en) Road curve measurement method
JPS62140109A (en) Steering control method for image type unmanned carrier
JPS62140110A (en) Method for deciding driving course of image type unmanned carrier
JPH11300683A (en) Bag-like workpiece attitude detecting device
JP3094758B2 (en) Image sensors for vehicles
JPH056882B2 (en)
JPH01199216A (en) Discrimination method for presence/absence of driving mark
JPH01211007A (en) Image type stopping method for unmanned vehicle
JPS6352212A (en) Running method for picture type unmanned carrier based on running speed