JPH01188911A - Detecting method for abnormal traveling route of image type unmanned vehicle - Google Patents

Detecting method for abnormal traveling route of image type unmanned vehicle

Info

Publication number
JPH01188911A
JPH01188911A JP63013086A JP1308688A JPH01188911A JP H01188911 A JPH01188911 A JP H01188911A JP 63013086 A JP63013086 A JP 63013086A JP 1308688 A JP1308688 A JP 1308688A JP H01188911 A JPH01188911 A JP H01188911A
Authority
JP
Japan
Prior art keywords
mark
unmanned vehicle
image
imaged
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63013086A
Other languages
Japanese (ja)
Inventor
Akiyoshi Itou
日藝 伊藤
Hiroshi Asano
宏志 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Automatic Loom Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Automatic Loom Works Ltd filed Critical Toyoda Automatic Loom Works Ltd
Priority to JP63013086A priority Critical patent/JPH01188911A/en
Publication of JPH01188911A publication Critical patent/JPH01188911A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily decide the normal or abnormal drive of an unmanned vehicle by storing previously the sections where a drive instruction mark should be picked up by an image pickup device mounted on the vehicle and other sections where no mark is picked up and comparing these stored sections with the actual image pickup data. CONSTITUTION:A CPU 11 performs the control of an unmanned vehicle via the processing means for image pickup, recognition, arithmetic and drive respectively and at the same time sets previously the cycle of the image pickup processing action. When a CCD camera 3 starts its image pickup action with a control signal received from the CPU 11, the image is stored in a work memory 13. At the same time, a pattern is recognized and a mark 6 is decided. In this case, the position of the mark 6 in the image is calculated together with a range including completely the mark 6 and decided previously. Based on these calculation data, the CPU 11 decides a traveling route L of the vehicle and also sets the next image pickup timing to start the drive of the vehicle. However the abnormal drive is decided in case the mark 6 is soiled or mislocated since the difference is produced from the prescribed data.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、無人車の走行を指示するために路面上に配
置した標識を無人車に備えた撮像装置により撮像し、そ
の撮像画像中の画素信号を画像処理して標識を認識し、
無人車の走行経路を決定するようにした画像式無人車に
おいて、その走行経路の異常を検出する検出方法に関す
るものである。
[Detailed Description of the Invention] [Industrial Application Field] This invention captures an image of a sign placed on the road surface to instruct the driving of an unmanned vehicle using an imaging device installed in the unmanned vehicle, and Image processing of pixel signals to recognize signs,
The present invention relates to a detection method for detecting abnormalities in the driving route of an image-based unmanned vehicle that determines the driving route of the unmanned vehicle.

[従来の技術] 従来、この種の画像式無人車としては、路面上に配設さ
れた標識としての連続する走行ラインを撮像し、その撮
像画像中の画素信号を画像処理して決定した走行経路に
沿って路面を走行させるようにしたものが知られている
。そして、この画像式無人車においては、撮像画像中の
前方の走行ラインの偏位からステアリング角を決定しよ
うとするものであった。
[Prior Art] Conventionally, this type of image-based unmanned vehicle images a continuous driving line as a sign placed on the road surface, and processes the pixel signals in the captured image to determine the driving direction. A device that runs on a road surface along a route is known. In this image-based unmanned vehicle, the steering angle is determined from the deviation of the forward running line in the captured image.

従って、この画像式無人車では、走行ラインの途中に欠
損部分があったり、無人車が走行経路から逸脱して走行
したり、或いは走行ラインの近傍に不必要な汚れや障害
物等があったりする場合には、走行経路の異常であると
判定して停止制御を行う等の対策がとられていた。
Therefore, in this image-based unmanned vehicle, there may be a missing part in the middle of the driving line, the unmanned vehicle may deviate from the driving route, or there may be unnecessary dirt or obstacles near the driving line. In such cases, countermeasures have been taken, such as determining that there is an abnormality in the travel route and performing stop control.

しかしながら、前記画像式無人車においては走行ライン
を途切れることなく連続的に設けなければならず、その
設置に手間がかかるという問題があった。そのため、標
識設置の手間を削減することが可能な標識として離散配
置式のマークを撮像し、その撮像画像を画像処理して走
行経路を決定する画像式無人車が提案されている。
However, in the image-based unmanned vehicle, there is a problem in that the running line must be provided continuously without interruption, and it takes time and effort to install it. Therefore, an image-based unmanned vehicle has been proposed that captures images of discretely arranged marks as signs that can reduce the time and effort required to install the signs, and processes the captured images to determine a driving route.

[発明が解決しようとする課題] 従って、従前の離散配置式のマークを採用した画像式無
人車においても、マークの欠損や無人車の走行経路逸脱
の場合、或いは路面上に不必要な汚れや障害物等がある
場合に、走行経路が異常であることを判定して無人車を
停止制御させる等の対策を講する必要があった。
[Problems to be Solved by the Invention] Therefore, even in image-based unmanned vehicles that employ conventional discretely arranged marks, problems occur when marks are missing, the unmanned vehicle deviates from its driving route, or there is unnecessary dirt or dirt on the road surface. When there is an obstacle, it is necessary to take measures such as determining that the driving route is abnormal and controlling the unmanned vehicle to stop.

この発明は前述した事情に鑑みてなされたものであって
、その目的は、離散配置式のマークを撮像してその撮像
画像中の画素信号を画像処理して標識を認識し、無人車
の走行経路を決定する画像式無人車において、マークの
欠損や無人車の走行経路逸脱の場合、或いは各マーク間
の路面上に不必要な汚れや障害物等がある場合に、走行
経路が異常であることを容易に検出し得る画像式無人車
における走行経路異常検出方法を提供することにある。
This invention has been made in view of the above-mentioned circumstances, and its purpose is to image discretely arranged marks, process the pixel signals in the captured image, and recognize the signs, thereby allowing unmanned vehicles to move. In an image-based unmanned vehicle that determines the route, the traveling route is abnormal if a mark is missing, the unmanned vehicle deviates from the traveling route, or if there is unnecessary dirt or obstacles on the road surface between each mark. An object of the present invention is to provide an image-based method for detecting an abnormality in a driving route in an unmanned vehicle, which can easily detect abnormalities.

[課題を解決するための手段] 上記の目的を達成するためにこの発明においては、無人
車の走行を指示するために所定間隔隔てて路面上に離散
配置したマークを無人車に備えた撮像装置により無人車
の走行に伴って順次撮像し、その撮像画像中の画素信号
を画像処理してマークを認識し、無人車の走行経路を決
定するようにした画像式無人車において、走行経路を決
定する際に、次にマークが撮像されるべき走行区間と次
にマークが撮像されるべきでない走行区間とを予め設定
し、無人車を走行させながらその時々に撮像装置を撮像
動作させ、その撮像動作地点がマークが撮像されるべき
走行区間であってマークが撮像されない場合、又はその
撮像動作地点がマークが撮像されるべきでない走行区間
であって何らかの対象が撮像される場合に、それぞれ実
際の走行経路が異常であると判定するようにしている。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides an imaging device in which an unmanned vehicle is equipped with marks that are discretely arranged on the road surface at predetermined intervals to instruct the unmanned vehicle to travel. In an image-based unmanned vehicle, the driving route is determined by sequentially capturing images as the unmanned vehicle moves, and by processing the pixel signals in the captured images to recognize marks and determining the driving route of the unmanned vehicle. When doing so, the driving section where the next mark should be imaged and the driving section where the next mark should not be imaged are set in advance, and the imaging device is operated to take images from time to time while the unmanned vehicle is traveling, and the image is taken. If the operating point is a driving section where a mark should be imaged but the mark is not imaged, or if the imaging operation point is a driving section where a mark is not supposed to be imaged and some object is imaged, the actual It is determined that the travel route is abnormal.

[作用] 従って、離散配置式のマークの一部が欠損したり、画像
処理により決定される走行経路から無人車が逸脱して走
行したりする場合には、撮像装置の撮像動作地点がマー
クが撮像されるべき走行区間であってもマークが撮像さ
れなくなり、無人車の実際の走行経路が異常であると判
定される。又、前記各マークの間にマークと誤認される
虞れのある路面上の汚れや障害物等がある場合には、撮
像装置の撮像動作地点がマークが撮像されるべきでない
走行区間であっても何らかの対象が撮像されることにな
り、無人車の実際の走行経路が異常であると判定される
[Effect] Therefore, if a part of the discretely arranged mark is missing or if the unmanned vehicle deviates from the travel route determined by image processing, the imaging operation point of the imaging device may be affected by the mark. Marks are no longer imaged even in the driving section that should be imaged, and the actual driving route of the unmanned vehicle is determined to be abnormal. In addition, if there is dirt or an obstacle on the road surface between the marks that could be mistaken for a mark, the image capturing operation point of the imaging device is in a driving section where the mark should not be imaged. Also, some object will be imaged, and it will be determined that the actual travel route of the unmanned vehicle is abnormal.

[実施例〕 以下、この発明を具体化した一実施例を図面に基いて詳
細に説明する。
[Embodiment] Hereinafter, an embodiment embodying the present invention will be described in detail based on the drawings.

第2図は画像式無人車1の側面を示し、その無人車1の
前側上部中央位置に立設した支持フレーム2の上部中央
位置には撮像装置としてのCCD(charge  c
oupled  device)カメラ3が設けられて
いる。CCDカメラ3は無人車1の予め設定された前方
の路面4上の台形状のエリアE(第3図参照)を撮像す
るように支持フレーム2にセ・ノドされている。そして
、この実施例ではCCDカメラ3で撮像される前記台形
状のエリアEを第5図に示すような四角形状の画像5で
捕らえている。
FIG. 2 shows a side view of the image-based unmanned vehicle 1. A CCD (charge cd) serving as an imaging device is installed at the upper center of the support frame 2, which is erected at the upper center of the front side of the unmanned vehicle 1.
A camera 3 is provided. The CCD camera 3 is mounted on the support frame 2 so as to image a trapezoidal area E (see FIG. 3) on the road surface 4 in front of the unmanned vehicle 1, which is set in advance. In this embodiment, the trapezoidal area E imaged by the CCD camera 3 is captured as a rectangular image 5 as shown in FIG.

又、この実施例ではCCDカメラ3が撮像したエリアE
の画像5は256X256個の画素で構成されている。
In addition, in this embodiment, the area E imaged by the CCD camera 3
Image 5 is composed of 256×256 pixels.

第2.3図に示すように、路面4には無人車1の走行を
指示するためのマーク6が所定等間隔(この場合、5メ
ートル間隔)を隔てて離散的に配置されている。
As shown in FIG. 2.3, marks 6 for instructing the driving of the unmanned vehicle 1 are discretely arranged on the road surface 4 at predetermined equal intervals (in this case, 5 meter intervals).

第4図に示すように、この実施例ではマーク6は円形状
をなし、その相対向する両側部には先端尖頭形状の一対
の角部6aが延出形成されている。
As shown in FIG. 4, in this embodiment, the mark 6 has a circular shape, and a pair of pointed corners 6a are formed extending from opposite sides thereof.

そして、この一対の角部6aを結ぶ線βの延出方向によ
り、無人車1のマーク6を通過する際の進行方向が指示
されると共に、次のマーク6のある方向が指示される。
The extending direction of the line β connecting the pair of corner portions 6a indicates the traveling direction of the unmanned vehicle 1 when passing the mark 6, and also indicates the direction in which the next mark 6 is located.

そして、無人車1が走行することにより、離散配置され
た各マーク6がCCDカメラ3により順次撮像されるこ
とになる。又、この実施例において、マーク6は明るい
白色をなし、路面4は暗い色をなしている。従って、マ
ーク6を撮像したCCDカメラ3からの信号(以下、「
画素信号」という)のレベルは高(、反対に路面4を撮
像したCCDカメラ3からの画素信号のレベルは低くな
る。
As the unmanned vehicle 1 travels, the discretely arranged marks 6 are sequentially imaged by the CCD camera 3. Further, in this embodiment, the mark 6 is bright white, and the road surface 4 is dark colored. Therefore, the signal from the CCD camera 3 that captured the mark 6 (hereinafter referred to as "
The level of the pixel signal (referred to as "pixel signal") is high (on the contrary, the level of the pixel signal from the CCD camera 3 that captures the image of the road surface 4 is low).

この実施例では、前記撮像された画像5の画素信号を所
定の画素データとした後に画像処理してマーク6の指示
情報を認識することにより、無人車lの走行経路L(第
3図参照)が決定されて無人車1の走行が制御される。
In this embodiment, the pixel signal of the captured image 5 is converted into predetermined pixel data, and then the image is processed to recognize the instruction information of the mark 6, so that the driving path L of the unmanned vehicle 1 (see FIG. 3) is determined. is determined, and the driving of the unmanned vehicle 1 is controlled.

次に、無人車1に搭載された走行制御装置の電気的構成
を第1図に従って説明する。
Next, the electrical configuration of the travel control device mounted on the unmanned vehicle 1 will be explained with reference to FIG.

マイクロコンピュータ10は中央処理装置(以下、rC
PUJという)11と、制御プログラムを記憶した読み
出し専用メモリ (ROM)よりなるプログラムメモリ
12と、CPUIIの演算処理結果及び画素データ等が
一時記憶される読み出し及び書き替え可能なメモリ (
RAM)よりなる作業用メモリ13と、タイマ14等と
から構成されている。そして、CPUIIはプログラム
メモリ12に記憶された制御プログラムに従ってCCD
カメラ3を作動させ、その撮像した画像情報に基いて無
人車1が走行する走行経路りを割り出すと共に、走行及
び操舵の制御のための各種の演算処理動作を実行する。
The microcomputer 10 is a central processing unit (rC
PUJ) 11, a program memory 12 consisting of a read-only memory (ROM) that stores control programs, and a readable and rewritable memory that temporarily stores CPU II arithmetic processing results, pixel data, etc.
It consists of a working memory 13 (RAM), a timer 14, etc. Then, the CPU II controls the CCD according to the control program stored in the program memory 12.
The camera 3 is operated, and based on the captured image information, a travel route for the unmanned vehicle 1 is determined, and various arithmetic processing operations for controlling travel and steering are executed.

A/D変換器16はCCDカメラ3からの画素信号をア
ナログ値からデジタル値にA/D変換すると共に、その
A/D変換の際に各画素信号が予め定めた設定値以上か
否かを判別し、設定値以上の画素信号の場合には白色の
マーク6の部分の画素に対応する「1」とし、反対に設
定値未満の画素信号の場合には暗い色の路面4の部分の
画素に対応するrOJとするように、順次入力される各
画素信号を2値化して画素データとし、バスコントロー
ラ17を介して作業用メモリ13の所定領域に記憶させ
る。従って、作業用メモリ13にはCCDカメラ3が撮
像した画像5が256 X256個の2値化された画素
データ群となって記憶される。
The A/D converter 16 A/D converts the pixel signals from the CCD camera 3 from analog values to digital values, and at the same time determines whether each pixel signal is greater than or equal to a predetermined set value during the A/D conversion. If the pixel signal is greater than the set value, it is set as "1" corresponding to the pixel in the white mark 6 part, and on the other hand, if the pixel signal is less than the set value, it is set as "1" for the pixel in the dark road surface 4 part. Each pixel signal that is sequentially input is binarized into pixel data so that rOJ corresponds to . Therefore, the image 5 captured by the CCD camera 3 is stored in the working memory 13 as a group of 256 x 256 binarized pixel data.

尚、この実施例では、作業用メモリ13に新たな画像の
画素データ群が入力されることにより、先の画素データ
群が所定記憶領域から消去され、同記憶領域に新たな画
像の画素データ群が記憶される。
In this embodiment, when a new image pixel data group is input to the working memory 13, the previous pixel data group is erased from a predetermined storage area, and the new image pixel data group is stored in the same storage area. is memorized.

又、この実施例では説明の便宜上、CCDカメラ3によ
り撮像された画像5の走査制御は横方向に走査し、その
走査が画像5の上から下方向に移る走査方式を採用する
が、その他の走査方式で実施してもよいことは勿論であ
る。
Further, in this embodiment, for convenience of explanation, a scanning method is adopted in which the image 5 captured by the CCD camera 3 is scanned in the horizontal direction, and the scanning moves from the top to the bottom of the image 5. Of course, the scanning method may also be used.

2値化レベルコントローラ18はCPUIIからの制御
信号に基いてA/D変換器16が2値化するための設定
値データをA/D変換器16に出力する。
The binarization level controller 18 outputs setting value data for the A/D converter 16 to binarize based on the control signal from the CPU II to the A/D converter 16.

ドライブコントローラ19は走行用モータ20及び操舵
機構21を同じ(CPULIからの制御信号に基いて制
御する。そして、走行用モータ20はその制御信号に基
いて回転速度が制御され、操舵機構21は偏御信号に基
いてステアリング角が制御される。
The drive controller 19 controls the driving motor 20 and the steering mechanism 21 based on the same control signal (from CPULI).The rotational speed of the driving motor 20 is controlled based on the control signal, and the steering mechanism 21 is controlled based on the control signal. The steering angle is controlled based on the control signal.

車速検出器22は無人車1の駆動系の回転速度を検出し
てその検出信号を入出力インターフェイス15を介して
CPUI 1へ出力する。CPUIIは車速検出器22
からの検出信号に基き無人車1の走行速度を算出すると
共に、その走行速度とタイマ14が計時する時間とを積
算することにより無人車1の走行距離を算出する。
The vehicle speed detector 22 detects the rotation speed of the drive system of the unmanned vehicle 1 and outputs the detection signal to the CPUI 1 via the input/output interface 15. CPU II is vehicle speed detector 22
The traveling speed of the unmanned vehicle 1 is calculated based on the detection signal from the unmanned vehicle 1, and the traveling distance of the unmanned vehicle 1 is calculated by integrating the traveling speed and the time measured by the timer 14.

゛ 又、CPUIIは、先のマーク6が最初にCCDカ
メラ3で撮像されてそのマーク6の指示情報に基いて無
人車1の走行が開始されてから、隣接する次のマーク6
が最初にCCDカメラ3で撮像されるまでの間における
撮像タイミングを設定する。
゛ Furthermore, after the previous mark 6 is first imaged by the CCD camera 3 and the unmanned vehicle 1 starts traveling based on the instruction information of the mark 6, the CPU II selects the next adjacent mark 6.
The image capturing timing is set until the image is first captured by the CCD camera 3.

即ち、この実施例では、CCDカメラ3の撮像タイミン
グは無人車1の走行に対応して等距離間隔で設定されて
いる。例えば、第6図(a)において無人車1が実線で
示す撮像動作地点としての第1の位置P1にて第1のエ
リアE1の画像を撮像してマーク6を最初に捕らえるこ
とにより、同位置P1から前方へ距離りだけ離れた2点
鎖線で示す撮像動作地点としての第2の位置P2にて第
2のエリアE2の画像を撮像するように撮像タイミング
を設定すると共に、更に前方へそれぞれ距離りずつ離れ
た撮像動作地点としての第3の位置P3、第4の位置P
4、第5の位置P5及び第6の位置P6にてそれぞれ第
3のエリアE3、第4のエリアE4、第5のエリアE5
及び第6のエリアE6の画像を撮像するように撮像タイ
ミングを設定する。
That is, in this embodiment, the imaging timing of the CCD camera 3 is set at equal distance intervals in accordance with the travel of the unmanned vehicle 1. For example, in FIG. 6(a), the unmanned vehicle 1 captures an image of the first area E1 at the first position P1 as the imaging operation point indicated by the solid line, and captures the mark 6 first. The imaging timing is set so that an image of the second area E2 is captured at a second position P2 as an imaging operation point indicated by a two-dot chain line that is a distance forward from P1, and further forward by a distance. a third position P3 and a fourth position P as imaging operation points which are separated by
4. The third area E3, the fourth area E4, and the fifth area E5 at the fifth position P5 and the sixth position P6, respectively.
Then, the imaging timing is set to capture an image of the sixth area E6.

又、CPUIIは前記各撮像タイミングに対応して次に
マーク6が撮像されるべき走行区間と次にマーク6が撮
像されるべきでない走行区間とを予め設定する。
Further, the CPU II presets in advance a traveling section in which the mark 6 should be imaged next and a traveling section in which the mark 6 should not be imaged next, corresponding to each of the imaging timings.

即ち、第6図(a)及び第6図(b)に示すように、前
記各エリアE2〜E6の撮像タイミングにおいて、マー
ク6が欠けることなく撮像される各エリアE2.E3.
E6の撮像タイミングに対応する第1の位置P1から第
4の位置P4までの走行区間S1及び第5の位置P5か
ら第6の位置P6までの走行区間S3をそれぞれマーク
6が撮像されるべき走行区間として設定する。又、第4
のエリアE4及び第5のエリアE5の撮像タイミングに
対応する第4の位置P4から第5の位置P5までの走行
区間S2をマーク6が撮像されるべきでない走行区間と
して設定する。これら走行区間81〜S3の設定は第1
の位置P1を基点とする距離に基き設定される。
That is, as shown in FIGS. 6(a) and 6(b), at the imaging timing of each of the areas E2 to E6, each area E2. E3.
The traveling section S1 from the first position P1 to the fourth position P4 and the traveling section S3 from the fifth position P5 to the sixth position P6 corresponding to the imaging timing of E6 are the traveling sections in which the mark 6 should be imaged. Set as an interval. Also, the fourth
The traveling section S2 from the fourth position P4 to the fifth position P5 corresponding to the imaging timing of the area E4 and the fifth area E5 is set as the traveling section in which the mark 6 should not be imaged. These travel sections 81 to S3 are set in the first
The distance is set based on the distance from the position P1 of .

そして、前記マーク6が撮像されるべき走行区間31.
33であって、各エリアE2.E3.E6の撮像タイミ
ングに対応する各位置P2.P3゜P6にてマーク6が
撮像されない場合、又は前記マーク6が撮像されるべき
でない走行区間S2であって、各エリアE4.E5の撮
像タイミングに対応する第4の位置P4及び第5の位置
P5にて何らかの対象(例えばニマーク6と誤認される
虞れのある路面4上の汚れ、障害物等)が撮像される場
合に、それぞれ無人車1の実際の走行経路が異常である
と判定し、その判定結果に基いて走行用モータ20等を
停止制御させて無人車1を走行停止させる。
Then, the traveling section 31 in which the mark 6 is to be imaged.
33, each area E2. E3. Each position P2 corresponding to the imaging timing of E6. If the mark 6 is not imaged at P3°P6, or if the mark 6 is not to be imaged in the traveling section S2, each area E4. When some object (for example, dirt on the road surface 4, an obstacle, etc. that may be mistaken for Nimark 6) is imaged at the fourth position P4 and the fifth position P5 corresponding to the imaging timing of E5. , respectively, and determine that the actual traveling route of the unmanned vehicle 1 is abnormal, and based on the determination result, the traveling motor 20 and the like are controlled to stop, thereby causing the unmanned vehicle 1 to stop traveling.

そして、CPUI 1は無人車1が各走行区間31〜S
3における走行であるか否かを、車速検出器22及びタ
イマ14の動作に基き第1の位置P1を基点とする走行
距離の算出により判断する。
Then, the CPU 1 indicates that the unmanned vehicle 1 is running in each traveling section 31 to S.
3 is determined by calculating the distance traveled from the first position P1 based on the operation of the vehicle speed detector 22 and timer 14.

次に、CPUI 1の処理動作について具体的に説明す
る。
Next, the processing operation of the CPUI 1 will be specifically explained.

CPUIIの基本的動作はCCDカメラ3を作動させる
撮像処理動作と、そのカメラ3が撮像した画像5に基い
て路面4に設けたマーク6を画像処理して認識を行う認
識処理動作と、その認識結果に基いて無人車1の走行経
路りを演算する演算処理動作と、その演算結果に基いて
走行用モータ20及び操舵機構21を制御して無人車1
を走行させる走行処理動作とから構成されている。そし
て、CPUIIは描像処理動作−認識処理動作−演算処
理動作一走行処理動作の順序で制御を行い、その撮像処
理動作の周期を予め設定していると共に、各処理動作の
時間も予め設定している。そして、一連の処理動作を順
次繰り返すことにより無人車1が走行経路りに沿って走
行される。尚、撮像処理動作から演算処理動作までが終
了し走行処理動作が開始されるまでの間については、C
PU11は先の演算処理動作に基く走行処理動作によっ
て無人車1を走行制御している。
The basic operations of the CPU II are an imaging processing operation that activates the CCD camera 3, a recognition processing operation that performs image processing to recognize the mark 6 provided on the road surface 4 based on the image 5 taken by the camera 3, and the recognition. A calculation processing operation for calculating the traveling route of the unmanned vehicle 1 based on the result, and controlling the driving motor 20 and the steering mechanism 21 based on the calculation result to control the unmanned vehicle 1.
It consists of a traveling processing operation that causes the vehicle to travel. Then, the CPU II performs control in the order of imaging processing operation - recognition processing operation - arithmetic processing operation - running processing operation, and not only sets the cycle of the imaging processing operation in advance, but also sets the time of each processing operation in advance. There is. Then, by sequentially repeating a series of processing operations, the unmanned vehicle 1 travels along the travel route. Note that C
The PU 11 controls the driving of the unmanned vehicle 1 through a driving processing operation based on the above calculation processing operation.

そして、今、第6図(a)(b)に破線で示すマーク6
の指示情報に基いて走行経路りが決定され、無人車1が
走行制御されている状態において、CPUIIからの制
御信号に基きCCDカメラ3が揚傷動作されると、CC
Dカメラ3は同図に2点鎖線で示す前方の第1のエリア
E1を第7図(a)に示すような画像5に撮像して走査
する。
Now, mark 6 shown by broken lines in FIGS. 6(a) and (b)
When the driving route is determined based on the instruction information and the unmanned vehicle 1 is under driving control, when the CCD camera 3 is operated based on the control signal from the CPU II, the CC
The D camera 3 images and scans a first area E1 in front indicated by a two-dot chain line in the figure into an image 5 as shown in FIG. 7(a).

このCCDカメラ3からの各画素に対応する画素信号は
A/D変換器16にてA/D変換されると共に2値化さ
れ、画素データとして作業用メモ1J130所定記憶領
域に記憶される。
The pixel signal corresponding to each pixel from the CCD camera 3 is A/D converted by the A/D converter 16 and binarized, and is stored as pixel data in a predetermined storage area of the work memo 1J130.

作業用メモリ13に記憶された前記画素データはマーク
6に相当する部分の強度が大きくなり、路面4に相当す
る部分の強度が小さくなり、マーク6に相当する部分と
路面4に相当する部分とがそれぞれ判別されることにな
る。
In the pixel data stored in the working memory 13, the intensity of the part corresponding to the mark 6 becomes large, the intensity of the part corresponding to the road surface 4 becomes small, and the part corresponding to the mark 6 and the part corresponding to the road surface 4 are separated. will be determined respectively.

そして、CPUI 1はこの画像5の画素データを高速
処理するために、画像5においてマーク6を完全に含む
所定範囲の処理領域7を設定すると共に、後に続<撮像
タイミングにおける処理領域7の位置を画像5中に予測
設定する。
Then, in order to process the pixel data of this image 5 at high speed, the CPU 1 sets a processing area 7 in a predetermined range that completely includes the mark 6 in the image 5, and also determines the position of the processing area 7 at the subsequent <imaging timing. Prediction settings are made in image 5.

即ち、無人車1の走行中にCCDカメラ3が撮像する画
像5のどの位置にマーク6が存在し、且つそのマーク6
を完全に含む予め定めた範囲はどこなのかを割り出す。
That is, in which position of the image 5 captured by the CCD camera 3 while the unmanned vehicle 1 is traveling, the mark 6 is present, and where is the mark 6?
Determine what is the predetermined range that completely includes.

この場合、既にマーク6の指示情報に基いて決定された
走行経路し、予め設定されたCCDカメラ3の撮像タイ
ミングの間隔等に基いて処理領域7が設定されるが、そ
の詳細は省略する。
In this case, the processing area 7 is set based on the traveling route that has already been determined based on the instruction information of the mark 6, and the preset interval of the imaging timing of the CCD camera 3, but the details thereof will be omitted.

そして、CPUI 1は前記設定された処理領域7の画
素データに基き、所定の認識処理動作及び演算処理動作
を実行してマーク6の指示情報に暴く走行経路りの決定
を行う(この場合は直進の走行経路りが決定される)と
共に、次に続く一連の撮像タイミングを設定し、次にマ
ーク6が撮像されるべき撮像タイミングに対応する走行
区間を設定すると共に次にマーク6が撮像されるべきで
ない走行区間を設定した後、走行処理動作を実行して無
人車1を走行させる。
Then, based on the pixel data of the set processing area 7, the CPU 1 executes a predetermined recognition processing operation and arithmetic processing operation to determine the driving route revealed by the instruction information of the mark 6 (in this case, the CPU 1 determines the driving route that is revealed by the instruction information of the mark 6) The driving route is determined), the next series of imaging timings are set, and the driving section corresponding to the imaging timing at which mark 6 is to be imaged is set, and the next image of mark 6 is to be imaged. After setting the prohibited travel section, a travel processing operation is executed to cause the unmanned vehicle 1 to travel.

即ち、第6図(a)(b)において、各エリアE2〜E
6の撮像タイミングを設定し、次にマーク6が撮像され
るべき撮像タイミングに対応する各エリアE2.E3.
E6を含む走行区間St。
That is, in FIGS. 6(a) and (b), each area E2 to E
6 is set, and then each area E2.6 corresponding to the imaging timing at which the mark 6 should be imaged is set. E3.
Travel section St including E6.

S3を設定すると共に次にマーク6が撮像されるべきで
ない↑最像タイミングに対応する各エリアE4゜E5を
誉む走行区間S2を設定する。つまり、第1の位置P1
から第6の位置P6までの走行距離(距離りの5倍の距
離)の間で各走行区間81〜S3を第1の位置P1を基
点とする距離に基き設定する。
S3 is set, and a travel section S2 is set that honors each area E4 to E5 corresponding to the ↑most image timing at which the mark 6 should not be imaged next. That is, the first position P1
Each traveling section 81 to S3 is set based on the distance from the first position P1 to the sixth position P6 (distance five times the distance).

従って、第6図<a)の第1の位置P1において決定さ
れた走行経路りに従って無人車1の走行が実際に開始さ
れると、CPUIIは無人車1の走行に伴って第2の位
置P2及び第3の位置P3にて、前記のよにう設定した
撮像タイミングによりCCDカメラ3を撮像動作させ、
第2のエリアE2を第7図(b)に示すような画像5に
撮像して走査すると共に、第3のエリアE3を第7図(
C)に示すような画像5に撮像して走査する。
Therefore, when the unmanned vehicle 1 actually starts traveling according to the travel route determined at the first position P1 in FIG. and at the third position P3, the CCD camera 3 is operated to take an image at the imaging timing set as described above,
The second area E2 is captured and scanned as an image 5 as shown in FIG. 7(b), and the third area E3 is scanned as shown in FIG. 7(b).
An image 5 as shown in C) is captured and scanned.

そして、CPUI 1は各エリアE2.E3の画像5に
ついて、マーク6を含む予め設定した処理領域7の画素
データに基き、所定の認識処理動作及び演算処理動作を
実行し、マーク6の指示情報に基く走行経路りを補正決
定して走行処理動作を更に実行する。この結果、無人車
1が決定された走行経路りに従って更に直進走行される
Then, the CPU 1 controls each area E2. Regarding the image 5 of E3, a predetermined recognition processing operation and arithmetic processing operation are performed based on the pixel data of a preset processing area 7 including the mark 6, and the driving route is corrected and determined based on the instruction information of the mark 6. The travel processing operation is further executed. As a result, the unmanned vehicle 1 travels further straight along the determined travel route.

引き続いて、無人車1が走行されると、CPU11は第
4の位置P4及び第5の位置P5にて、前記のよにう設
定した撮像タイミングによりCCDカメラ3を撮像動作
させ、第4のエリアE4及び第5の位置P5を撮像して
走査する。この場合、第4のエリアE4及び第5のエリ
アE5では路面4上にて何の対象も撮像されないので、
CPU11は走行処理動作を続行して無人車1を走行経
路りに従って走行させる。
Subsequently, when the unmanned vehicle 1 travels, the CPU 11 causes the CCD camera 3 to perform an image capturing operation at the fourth position P4 and the fifth position P5 at the image capturing timing set as described above, and captures images in the fourth area. E4 and the fifth position P5 are imaged and scanned. In this case, since no object is imaged on the road surface 4 in the fourth area E4 and the fifth area E5,
The CPU 11 continues the travel processing operation and causes the unmanned vehicle 1 to travel along the travel route.

尚、仮に前記第4のエリアE4及び第5のエリアE5に
てマーク6と誤認される虞れのある路面4上の汚れや障
害物等がある場合には、それらがCCDカメラ3により
撮像されることになり、CPUI 1は実際の走行経路
が異常であると判定し、その判定結果に基いて走行用モ
ータ20等を停止制御させて無人車lを走行停止させる
Furthermore, if there is dirt or obstacles on the road surface 4 that could be mistaken for mark 6 in the fourth area E4 and fifth area E5, they will be imaged by the CCD camera 3. Therefore, the CPU 1 determines that the actual traveling route is abnormal, and based on the determination result, controls the driving motor 20 and the like to stop, thereby causing the unmanned vehicle 1 to stop traveling.

更に、無人車1が走行されると、CPUIIは第6の位
置P6にて、前記のように設定した撮像タイミングによ
りCCDカメラ3を撮像動作させ、第6のエリアE6を
撮像して走査する。
Furthermore, when the unmanned vehicle 1 travels, the CPU II causes the CCD camera 3 to take an image at the imaging timing set as described above at the sixth position P6, and images and scans the sixth area E6.

この結果、CPUIIは第6のエリアE6を撮像した画
像(第7図(a)の画像5と同等)の画素信号に基き、
マーク6を含む所定の処理領域7を設定する。そして、
その処理領域内の画素データに基き、所定の認識処理動
作及び演算処理動作を実行してマーク6の指示情報に従
って走行経路りの決定を行い、次のマーク6を撮像する
までの各撮像タイミングを設定すると共に、次にマーク
6が撮像されるべき走行区間を設定すると共に次にマー
ク6が撮像されるべきでない走行区間をそれぞれを設定
した後、走行処理動作を実行して無人車1を走行させる
As a result, the CPU II, based on the pixel signal of the image captured in the sixth area E6 (equivalent to image 5 in FIG. 7(a)),
A predetermined processing area 7 including the mark 6 is set. and,
Based on the pixel data in the processing area, a predetermined recognition processing operation and arithmetic processing operation are executed to determine the driving route according to the instruction information of the mark 6, and each imaging timing until the next mark 6 is imaged is determined. At the same time, after setting the traveling section where the mark 6 should be imaged next and setting the traveling section where the mark 6 should not be imaged, the unmanned vehicle 1 runs by executing the traveling processing operation. let

尚、仮に前記第6のエリアE6にて撮像されるべきマー
ク6が欠損している場合には、CCDカメラ3によりマ
ーク6が撮像されないことになり、CPUIIは実際の
走行経路が異常であると判定し、その判定結果に基いて
走行用モータ20等を停止制御させて無人車1を走行停
止させる。
If the mark 6 to be imaged in the sixth area E6 is missing, the mark 6 will not be imaged by the CCD camera 3, and the CPU II will determine that the actual travel route is abnormal. Based on the determination result, the driving motor 20 and the like are controlled to stop, thereby causing the unmanned vehicle 1 to stop traveling.

以下、同様に一連の処理動作が実行され、無人車1が連
続走行される。
Thereafter, a series of processing operations are similarly executed, and the unmanned vehicle 1 is continuously driven.

一方、例えば第6図(a)(b)の第1の位置P1にて
無人車1の走行経路りが決定されると共に、次にマーク
6が撮像されるべき走行区間s1、S3及び次にマーク
6が撮像されるべきでない走行区間S2がそれぞれ設定
された後において、万−何らかの原因により、前記決定
された走行経路りから逸脱して無人車1が矢印Z方向へ
走行した場合には、前記第1の位置P1にて設定された
撮像タイミングに対応する走行区間SL、S3に達した
ときに、CCDカメラ3によりマーク6が撮像されなく
なる。この結果、cputtは無人車1の実際の走行経
路が異常であると判定し、その判定結果に基いて走行用
モータ20等を停止制御させて無人車1を走行停止させ
る。
On the other hand, for example, the traveling route of the unmanned vehicle 1 is determined at the first position P1 in FIGS. If, for some reason, the unmanned vehicle 1 deviates from the determined travel route and travels in the direction of arrow Z after the travel sections S2 in which the mark 6 is not to be imaged are set, When the travel zone SL, S3 corresponding to the imaging timing set at the first position P1 is reached, the mark 6 is no longer imaged by the CCD camera 3. As a result, cputt determines that the actual travel route of the unmanned vehicle 1 is abnormal, and based on the determination result, stops the traveling motor 20 and the like to stop the unmanned vehicle 1 from traveling.

上記のようにこの実施例では、走行経路りを決定する際
に、所定間隔の撮像タイミングを設定し、次にマーク6
が撮像されるべき走行区間SL、S3を設定すると共に
次にマーク6が描像されるべきでない走行区間S2を設
定し、無人車1を走行させながら各撮像タイミングにC
CDカメラ3を撮像動作させ、その撮像動作地点、即ち
各位置P2゜P3.P6がマーク6が前記走行区間SL
、 S3であってマーク6が撮像されない場合、又はそ
の撮像動作地点、即ち各位置P4.P5がマーク6が撮
像されるべきでない走行区間S2であって何らかの対象
が撮像される場合に、それぞれ無人車1の実際の走行経
路が異常であると判定するようにしている。このため、
離散配置式のマーク6を採用した前記画像式無人車1に
おいても、マーク6の欠損や無人車1の走行経路逸脱等
の場合、或いはマーク6と誤認される虞れのある路面4
上の汚れや障害物等がある場合に、それぞれ走行経路が
異常であることを容易に検出して無人車1を停止させる
ことができる。
As described above, in this embodiment, when determining the travel route, the imaging timing is set at a predetermined interval, and then the mark 6
The driving sections SL and S3 where the mark 6 is to be imaged are set, and the driving section S2 where the mark 6 is not to be imaged is set.
The CD camera 3 is operated to take an image, and the image taking operation points, that is, each position P2, P3, . P6 is mark 6 is the traveling section SL
, S3 and the mark 6 is not imaged, or the imaging operation point, that is, each position P4. When P5 is a travel section S2 in which the mark 6 should not be imaged and some object is imaged, it is determined that the actual travel route of the unmanned vehicle 1 is abnormal. For this reason,
Even in the image-based unmanned vehicle 1 that employs the discretely arranged marks 6, if the marks 6 are missing, the unmanned vehicle 1 deviates from the driving route, or there is a risk of the road surface 4 being mistaken for the marks 6.
If there is dirt or an obstacle on the vehicle, it is possible to easily detect that the travel route is abnormal and to stop the unmanned vehicle 1.

尚、この発明は前記実施例に限定されるものではなく、
発明の趣旨を逸脱しない範囲において構成の一部を適宜
に変更して次のように実施することもできる。
Note that this invention is not limited to the above embodiments,
The present invention can be implemented as follows by changing a part of the structure as appropriate without departing from the spirit of the invention.

(1)前記実施例ではCCDカメラ3により撮像される
エリアEの前後幅がマーク6の配置間隔よりも相対的に
小さい場合の画像5の処理について説明したが、第9図
に示すようにCCDカメラ3により撮像されるエリアE
の前後幅がマーク6の配置間隔よりも相対的に大きい場
合には、第8図に示すように、−CCDカメラ3の光軸
3aが路面4に当たる光軸点Qを基準にし、エリアE内
において前記光軸点Qよりも無人車1寄りの領域で撮像
される画像についてマーク6が撮像されるべき撮像タイ
ミングを設定するように構成してもよい。
(1) In the embodiment described above, processing of the image 5 was explained when the front-to-back width of the area E imaged by the CCD camera 3 was relatively smaller than the arrangement interval of the marks 6. However, as shown in FIG. Area E imaged by camera 3
If the longitudinal width of the mark 6 is relatively larger than the arrangement interval of the marks 6, as shown in FIG. The image capturing timing at which the mark 6 should be imaged may be set for an image captured in a region closer to the unmanned vehicle 1 than the optical axis point Q.

この場合、各撮像タイミングに応じて前後幅の大きいエ
リアE内に常時少なくとも1個のマーク6が撮像されて
も、前記光軸点Qよりも無人車1寄りの領域にはマーク
6が撮像されたり↑最像されなかったりすることになり
、次にマーク6が撮像されるべき走行区間又は次にマー
ク6が撮像されるべきでない走行区間の設定を行うこと
ができる。
In this case, even if at least one mark 6 is always imaged in the area E with a large longitudinal width according to each imaging timing, the mark 6 is not imaged in the area closer to the unmanned vehicle 1 than the optical axis point Q. Therefore, it is possible to set the traveling section where the mark 6 should be imaged next or the traveling section where the mark 6 should not be imaged next.

又、マーク6が無人車1に近付いて大きく撮像される画
像を処理することになるので、そのマーク6の指示情報
の処理を容易に且つ高い信頗性をもって行うことができ
る。
Furthermore, since the image that is captured in a large size as the mark 6 approaches the unmanned vehicle 1 is processed, the instruction information of the mark 6 can be processed easily and with high reliability.

(2)前記実施例では所定間隔をもって間歇的にCCD
カメラ3の撮像動作が行われるように撮像タイミングを
設定したが、撮像タイミングを設定することなく常時連
続的にCCDカメラ3を撮像動作させるように構成して
もよい。
(2) In the above embodiment, the CCD is used intermittently at predetermined intervals.
Although the imaging timing is set so that the imaging operation of the camera 3 is performed, it is also possible to configure the CCD camera 3 to perform the imaging operation continuously at all times without setting the imaging timing.

(3)前記実施例では撮像装置としてCCDカメラ3を
用いたが、それ以外の撮像装置を用いて実施してもよい
(3) In the embodiment described above, the CCD camera 3 was used as the imaging device, but other imaging devices may be used.

(4)前記実施例ではCCDカメラ3における画像の画
素構成(分解能)を256X256画素としたが、これ
に限定されるものではなく、例えば512X512画素
、1024×1024画素等、適宜に変更して実施して
もよい。
(4) In the above embodiment, the pixel configuration (resolution) of the image in the CCD camera 3 was set to 256 x 256 pixels, but it is not limited to this, and may be changed as appropriate, such as 512 x 512 pixels, 1024 x 1024 pixels, etc. You may.

し発明の効果〕 以上詳述したようにこの発明によれば、離散配置式のマ
ークを撮像してその撮像画像中の画素信号を画像処理し
てマークを認識し、無人車の走行経路を決定する画像式
無人車において、マークの欠損や無人車の走行経路逸脱
の場合、或いは各マーク間にマークと誤認される虞れの
ある路面上の汚れや障害物等がある場合に、それぞれ走
行経路が異常であるということを容易に検出することが
できるという優れた効果を発揮する。
[Effects of the Invention] As detailed above, according to the present invention, images of discretely arranged marks are captured, pixel signals in the captured images are processed to recognize the marks, and the driving route of an unmanned vehicle is determined. For image-based unmanned vehicles, if a mark is missing or the unmanned vehicle deviates from the driving route, or if there is dirt or obstacles on the road between each mark that could be mistaken for a mark, the driving route may be changed. It has the excellent effect of being able to easily detect that something is abnormal.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明を具体化した一実施例を示す走行制御
装置の電気ブロック回路図、第2図は同じ(無人車等の
側面図、第3図は無人車等の平面図、第4図はマークの
平面図、第5図はCCDカメラが撮像した画像を説明す
るための説明図、第6図(a)及び第6図(b)は無人
車の走行に伴って撮像されるエリアの撮像タイミングを
説明するための平面図、第7図(a)〜第7図(c)は
一連の撮像タイミングに対応してCCDカメラが撮像す
る画像を説明するための説明図である。第8図は別の実
施例を示す無人車等の側面図、第9図は同じく無人車等
の平面図である。 無人車1、撮像装置としてのCCDカメラ3、路面4、
画像5、マーク6、走行経路L1走行区間S1〜S3、
撮像動作地点としての第1の位置P1〜第6の位置P6
Fig. 1 is an electrical block circuit diagram of a travel control device showing one embodiment embodying the present invention, Fig. 2 is the same (side view of an unmanned vehicle, etc., Fig. 3 is a plan view of an unmanned vehicle, etc.), and Fig. 4 is a side view of an unmanned vehicle etc. The figure is a plan view of the mark, Figure 5 is an explanatory diagram to explain the image taken by the CCD camera, and Figures 6 (a) and 6 (b) are the areas imaged as the unmanned vehicle travels. 7(a) to 7(c) are explanatory diagrams for explaining images captured by the CCD camera corresponding to a series of imaging timings. Fig. 8 is a side view of an unmanned vehicle etc. showing another embodiment, and Fig. 9 is a plan view of the unmanned vehicle etc. An unmanned vehicle 1, a CCD camera 3 as an imaging device, a road surface 4,
Image 5, mark 6, driving route L1 driving section S1 to S3,
First position P1 to sixth position P6 as imaging operation points

Claims (1)

【特許請求の範囲】 1 無人車の走行を指示するために所定間隔隔てて路面
上に離散配置したマークを無人車に備えた撮像装置によ
り無人車の走行に伴って順次撮像し、その撮像画像中の
画素信号を画像処理してマークを認識し、無人車の走行
経路を決定するようにした画像式無人車において、 前記走行経路を決定する際に、次にマークが撮像される
べき走行区間と次にマークが撮像されるべきでない走行
区間とを予め設定し、無人車を走行させながらその時々
に前記撮像装置を撮像動作させ、その撮像動作地点が前
記マークが撮像されるべき走行区間であってマークが撮
像されない場合、又はその撮像動作地点が前記マークが
撮像されるべきでない走行区間であって何らかの対象が
撮像される場合に、それぞれ実際の走行経路が異常であ
ると判定するようにした画像式無人車における走行経路
異常検出方法。
[Scope of Claims] 1. Marks discretely placed on the road surface at predetermined intervals to instruct the unmanned vehicle to travel are sequentially imaged by an imaging device equipped on the unmanned vehicle as the unmanned vehicle travels, and the captured images are captured. In an image-based unmanned vehicle that processes pixel signals inside the vehicle to recognize marks and determine the driving route of the unmanned vehicle, when determining the driving route, the driving section where the mark is to be imaged next is determined. and a traveling section in which the mark should not be imaged, and the imaging device is operated to take an image from time to time while the unmanned vehicle is traveling, and the imaging operation point is in the traveling section where the mark is to be imaged. The actual driving route is determined to be abnormal if the mark is not imaged, or if the imaging operation point is in a driving section where the mark should not be imaged and some object is imaged. A method for detecting abnormalities in driving routes in image-based unmanned vehicles.
JP63013086A 1988-01-22 1988-01-22 Detecting method for abnormal traveling route of image type unmanned vehicle Pending JPH01188911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63013086A JPH01188911A (en) 1988-01-22 1988-01-22 Detecting method for abnormal traveling route of image type unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63013086A JPH01188911A (en) 1988-01-22 1988-01-22 Detecting method for abnormal traveling route of image type unmanned vehicle

Publications (1)

Publication Number Publication Date
JPH01188911A true JPH01188911A (en) 1989-07-28

Family

ID=11823356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63013086A Pending JPH01188911A (en) 1988-01-22 1988-01-22 Detecting method for abnormal traveling route of image type unmanned vehicle

Country Status (1)

Country Link
JP (1) JPH01188911A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03268113A (en) * 1990-03-19 1991-11-28 Toyota Autom Loom Works Ltd Diagnostic device for traveling of unmanned vehicle
KR102037258B1 (en) 2018-07-18 2019-10-28 주식회사 윤스라이팅 Illumination lamp having lamp panel

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03268113A (en) * 1990-03-19 1991-11-28 Toyota Autom Loom Works Ltd Diagnostic device for traveling of unmanned vehicle
KR102037258B1 (en) 2018-07-18 2019-10-28 주식회사 윤스라이팅 Illumination lamp having lamp panel

Similar Documents

Publication Publication Date Title
JP7229804B2 (en) Image processing device and image processing method
JP5855756B2 (en) Lane mark recognition device
JP3612970B2 (en) Tunnel detection apparatus and vehicle control apparatus using the same
US11769338B2 (en) Image processor and image processing method
EP3872697B1 (en) Image processor and image processing method
JPH0552562A (en) Vehicular gap detector for tracking advance vehicle
JPH01188911A (en) Detecting method for abnormal traveling route of image type unmanned vehicle
CN112016381A (en) Image processing apparatus and image processing method
JPH01193903A (en) Detection of movement abnormality in picture type unmanned vehicle
JP3871772B2 (en) Driving lane trajectory recognition device
JPH01188912A (en) Detecting method for abnormal operation of image type unmanned vehicle
JP4323010B2 (en) Traveling path recognition method and traveling path recognition apparatus in vehicle
JP2737902B2 (en) Driving route determination processing method for image type unmanned vehicles
JP3321927B2 (en) Lane departure warning device
JPH10214326A (en) Running controller for automatic running vehicle
JPS62140108A (en) Steering control device for unmanned carrier
JPS62140110A (en) Method for deciding driving course of image type unmanned carrier
JPH01211006A (en) Deciding method for recognizing position of operating information of image type unmanned vehicle
JPS62140109A (en) Steering control method for image type unmanned carrier
JPS62139010A (en) Effective viewfield switching device for video unmanned carrier
JPH056882B2 (en)
JP2560147B2 (en) Inter-vehicle distance detector
JPH01211007A (en) Image type stopping method for unmanned vehicle
JP2515142B2 (en) Groove detection method by image processing
JPH01175610A (en) Processing of picture in picture type unmanned vehicle