JPH01232401A - Image processor for moving vehicle - Google Patents

Image processor for moving vehicle

Info

Publication number
JPH01232401A
JPH01232401A JP63058422A JP5842288A JPH01232401A JP H01232401 A JPH01232401 A JP H01232401A JP 63058422 A JP63058422 A JP 63058422A JP 5842288 A JP5842288 A JP 5842288A JP H01232401 A JPH01232401 A JP H01232401A
Authority
JP
Japan
Prior art keywords
color information
color
image
data
travel path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63058422A
Other languages
Japanese (ja)
Other versions
JP2783324B2 (en
Inventor
Tomoshi Morita
守田 知史
Hiroyuki Takahashi
弘行 高橋
Shoichi Maruya
丸屋 祥一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP63058422A priority Critical patent/JP2783324B2/en
Publication of JPH01232401A publication Critical patent/JPH01232401A/en
Application granted granted Critical
Publication of JP2783324B2 publication Critical patent/JP2783324B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Platform Screen Doors And Railroad Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To accurately decide a travel path on a travel path surface at a high speed by providing a judging means which judges a normal travel path according to color information on an edge part. CONSTITUTION:An input means 100 reads the front path of an automobile by a color image input device such as a camera and a CCD scanner and inputs an image of the travel path surface by scanning lines with a color signal. An edge detecting means 102 detects the edge part of the image according to specific color information among pieces of input color information. The judging means 103 inputs pieces of color information on the primary colors R, G, and B which are normalized by a normalizing means 101, finds the upper-limit value and lower-limit value of each piece of color information from the mean value of normalized picture elements, and decides the normal travel path unless the signal level of the normalized color information on the edge part is within the range set determined by those upper-limit and lower-limit values. Consequently, the travel path such a s a line showing the travel path is accurately detected at a high speed without being affected by the reflection of light, etc., on the travel path.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は床面や道路面等に記された走行経路、例えば走
行路端或いは線を基に移動する方向を決定する移動車の
画像処理装置に関するものである。
Detailed Description of the Invention (Industrial Application Field) The present invention relates to image processing of a moving vehicle that determines the direction of travel based on a travel route marked on a floor or road surface, such as a road edge or line. It is related to the device.

(従来の技術) 近年の工場等におけるFA(ファクトリ・オートメーシ
ョン)の進歩に伴ない、製造過程にある部品や組立部品
等を搬送する無人搬送車が多くの工場等で採用されてい
る。これらの無人搬送車では、工場の床面に記された走
行路を示す線等を光学的に読取って、その線上や線と線
との間等を走行するように制御されている。
(Prior Art) With the recent progress in FA (factory automation) in factories, etc., automatic guided vehicles for transporting parts, assembled parts, etc. in the manufacturing process are being adopted in many factories. These automatic guided vehicles are controlled to optically read lines indicating travel routes marked on the floor of the factory, and to travel on the lines or between the lines.

(発明が解決しようとしている課題) しかしながら、従来の無人搬送車では、走行路を示す線
等を白黒の画像情報として入力し、それらを適当な値を
基に2値化したり、輝度変化の大きい部分の画像データ
を基にしたりして、それら線等のエツジ部分を判定して
走行路を決定していた(例えば特開昭60−15761
1号公報参照)。このため、床面の走行路を示す線以外
に、−例えば床面に埋め込まれた金属等の表面が露出し
ていたり、床面に天井等の蛍光灯等の光が反射している
部分では読取られた画像信号に輝度の変化が発生するた
め、誤ってそれら金属部や反射面等を走行路を示す線と
判断してしまい、実際の走行路とは異なった方向に移動
してしまうという問題があった。
(Problem to be solved by the invention) However, in conventional automatic guided vehicles, lines indicating the traveling route etc. are input as black and white image information, and they are binarized based on appropriate values. The driving route was determined by determining the edge parts such as lines based on the image data of the part (for example, Japanese Patent Laid-Open No. 60-15761
(See Publication No. 1). Therefore, in addition to the lines that indicate the running path on the floor, for example, there are areas where the surface of metal embedded in the floor is exposed, or where light from fluorescent lights, etc. from the ceiling is reflected on the floor. Because changes in brightness occur in the read image signal, the vehicle may mistakenly judge these metal parts, reflective surfaces, etc. as lines indicating the driving path, causing the vehicle to move in a direction different from the actual driving path. There was a problem.

本発明は上記従来例に鑑みてなされたもので、走行路を
示す画像情報を色情報として入力し、その色情報の所定
の色情報を基に画像情報のエツジ部分を判定し、そのエ
ツジ部分が本当の走行経路かどうかを色情報を基に判定
することにより、高速かつ正確に走行路面上の走行経路
を判定できる移動車の画像処理装置を提供することを目
的とする。
The present invention has been made in view of the above-mentioned conventional example, in which image information indicating a running route is input as color information, edge portions of the image information are determined based on predetermined color information of the color information, and edge portions of the image information are determined based on predetermined color information of the color information. An object of the present invention is to provide an image processing device for a moving vehicle that can quickly and accurately determine a traveling route on a traveling road surface by determining whether or not it is a true traveling route based on color information.

(課題を解決するための手段) 上記目的を達成するために本発明の移動車の画像処理装
置は以下の様な構成からなる。即ち、走行路上に記され
た走行経路位置を検出して移動する移動車の画像処理装
置であって、走行路面の画像をカラー信号で入力する入
力手段と、該入力手段よりの色情報のうち所定の色情報
を基に前記画像のエツジ部分を検出する検出手段と、前
記エツジ部分における色情報に基づいて正規の走行経路
を判断する判断手段とを備える。
(Means for Solving the Problems) In order to achieve the above object, an image processing device for a moving vehicle according to the present invention has the following configuration. That is, it is an image processing device for a moving vehicle that moves by detecting the position of a traveling route marked on a traveling road, and includes an input means for inputting an image of the traveling road surface as a color signal, and a color information from the input means. The vehicle includes a detecting means for detecting an edge portion of the image based on predetermined color information, and a determining means for determining a normal travel route based on the color information in the edge portion.

また、前記入力手段よりの色情報を正規化する正規化手
段を備える一方、前記判断手段は正規化されたR、G、
Bの三原色の色情報を入力して、画像の走査ライン上の
正規化された各画素の平均値を基に前記色情報のそれぞ
れの上限値及び下限値を求め、前記エツジ部分における
正規化された色情報のそれぞれの信号レベルが前記上限
値と下限値で示された範囲内に存在しないとき、正規の
走行経路であると判定する。
Further, the determination means includes a normalization means for normalizing the color information from the input means, and the determination means includes normalized R, G,
Input the color information of the three primary colors of B, calculate the upper and lower limits of each of the color information based on the average value of each normalized pixel on the scanning line of the image, and calculate the normalized value in the edge part. When the signal level of each color information is not within the range indicated by the upper limit value and the lower limit value, it is determined that the travel route is a normal travel route.

(作用) 以上の構成において、入力手段により走行路面の画像を
カラー信号で入力する°。入力された色情報のうち所定
の色情報を基に画像のエツジ部分を検出し、このエツジ
部分における色情報に基づいて正規の走行経路と判断す
るように動作する。
(Function) In the above configuration, an image of the road surface is input as a color signal using the input means. The edge portion of the image is detected based on predetermined color information among the input color information, and the driving route is determined to be a regular travel route based on the color information in this edge portion.

また、他の請求項によれば、正規化されたRlG、Bの
三原色の色情報を入力して、画像の走査ライン上の正規
化された各画素の平均値を基に色情報のそれぞれの上限
値及び下限値を求め、エツジ部分における正規化された
色情報のそれぞれの信号レベルが上限値と下限値で示さ
れた範囲内に存在しないとき、正規の走行経路であると
判定するように動作する。
According to another claim, the normalized color information of the three primary colors RlG and B is input, and the color information is determined based on the average value of each normalized pixel on the scanning line of the image. The upper limit value and lower limit value are calculated, and when the signal level of each normalized color information in the edge part is not within the range indicated by the upper limit value and lower limit value, it is determined that the driving route is normal. Operate.

(実施例) 以下、添付図面を参照して本発明の好適な実施例を詳細
に説明する。
(Embodiments) Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[機能ブロックの説明 (第1図)] 第1図は実施例の移動車とての自動車における走行路検
出装置の概略機能構成を示す機能ブロック図である。
[Description of Functional Blocks (FIG. 1)] FIG. 1 is a functional block diagram showing a schematic functional configuration of a traveling path detection device in an automobile, which is a moving vehicle according to an embodiment.

図中、100はカメラやCCDスキャナ等のカラー画像
入力装置により自動車の前方の走路を読取り、各走査線
毎にR(赤)G(緑)B(青)の三原色のカラー画像信
号に変換して入力する入力手段である。101は三原色
のRGB信号のそれぞれを入力して正規化し、各信号に
含まれる影や光の反射等の影響を除外したRGB信号(
rgb信号)を得る正規化手段である。102は入力手
段100により入力されたRGB信号のうち所定の色信
号を基に、その信号の変化レベルが所定値より大きいか
どうかにより、その走査線上における画像のエツジ部分
を検出するエツジ検出部で、この実施例では赤色の信号
情報を基にエツジの検出を行っている。この色の選択は
読取られる走行路や線等の色を基に予め決定されていて
も良く、後述するように読取った画像信号の各色エツジ
データのうち、最も変化の大きい色のブレーンを選択し
て決定しても良い。
In the figure, 100 reads the road ahead of the car using a color image input device such as a camera or CCD scanner, and converts it into color image signals of the three primary colors of R (red), G (green), and B (blue) for each scanning line. This is an input means for inputting information. 101 inputs and normalizes each of the RGB signals of the three primary colors, and generates an RGB signal (
This is a normalization means for obtaining rgb signals). Reference numeral 102 denotes an edge detection unit that detects an edge portion of the image on the scanning line based on a predetermined color signal among the RGB signals inputted by the input means 100, depending on whether the change level of the signal is larger than a predetermined value. In this embodiment, edges are detected based on red signal information. The selection of this color may be determined in advance based on the color of the traveling route, line, etc. to be read, and as will be described later, the color brane with the largest change is selected from among the color edge data of the read image signal. You may decide.

103は正規化されたr、g、b信号のそれぞれに対し
、走査ライン上における平均値μr、μg、μbを求め
、それら平均値を基に比較する上限値と下限値とを決定
する。そしてエツジ検出手段102より入力されたエツ
ジ部分に相当する、各色成分の画素データの正規化され
たrgb信号のそれぞれが、前述の上限値と下限値との
間を越えて存在しているかを調べ、それら上限値と下限
値との間になければ本当の走行経路や線と判断するよう
にしている。
103 determines average values μr, μg, μb on the scanning line for each of the normalized r, g, and b signals, and determines upper and lower limit values to be compared based on these average values. Then, it is checked whether each of the normalized RGB signals of the pixel data of each color component corresponding to the edge portion inputted from the edge detection means 102 exists beyond the above-mentioned upper limit value and lower limit value. If there is no difference between the upper limit value and the lower limit value, it is determined that the route or line is the real one.

[自動車における走行路検出用画像処理装置の説明  
         (第2図〜第7図)]第2図は自動
車に走路読取りのためのビデオカメラの取付位置例を示
す図で、図示したように、このビデオカメラは20で示
された様に運転席の上側、即ち客室内のルーフの下に設
けられていても良く、或いは21で示された様に車体の
最前部のフロントグリル内に設けても良い。
[Description of image processing device for detecting driving path in automobiles
(Fig. 2 to Fig. 7)] Fig. 2 is a diagram showing an example of the mounting position of a video camera for reading the driving route on a car. It may be provided on the upper side of the vehicle, that is, under the roof in the passenger compartment, or it may be provided in the front grille at the forefront of the vehicle body as shown at 21.

第3図は実施例の自動車内に設けられた走行路測定を行
う画像処理装置の概略構成を示すブロック図である。
FIG. 3 is a block diagram showing a schematic configuration of an image processing device that is installed in an automobile and measures a running path according to the embodiment.

図中、30は走路上を読取り、三原色(RGB)信号に
分離し、それぞれをラスクスキャンデータとして出力す
るカラービデオカメラで、カラービデオカメラ30から
のRGBそれぞれの色信号は、各色に対応する画像メモ
リ31のブレーンに格納される。即ち、画像メモリ31
はRGB信号のそれぞれに対応するブレーンを有し、例
えばビデオカメラ30よりのR信号はR用のブレーン3
1−1に格納される。各色毎のブレーン31−1〜31
−3は少なくともビデオカメラ30の1画面分のメモリ
容量を有している。32は各ブレーンの所定の走査線の
画素情報を入力して正規化する正規化回路である。
In the figure, 30 is a color video camera that reads the road, separates it into three primary color (RGB) signals, and outputs each as rask scan data.The RGB color signals from the color video camera 30 are used as images corresponding to each color. It is stored in the brain of the memory 31. That is, the image memory 31
has a brane corresponding to each of the RGB signals, for example, the R signal from the video camera 30 is connected to the brane 3 for R.
1-1. Brain 31-1 to 31 for each color
-3 has a memory capacity for at least one screen of the video camera 30. 32 is a normalization circuit that inputs and normalizes pixel information of a predetermined scanning line of each brane.

この入力される走査線の位置や走査線数の決定は、この
自゛動車が走行する走行路の複雑さによって決定される
。これら、走査線の位置や走査線の数の決定方法を第4
図(A)〜(D)を参照して説明する。
The position of the input scanning line and the number of scanning lines are determined depending on the complexity of the road on which the vehicle travels. The method for determining the position of scanning lines and the number of scanning lines is explained in the fourth section.
This will be explained with reference to Figures (A) to (D).

第4図(A)〜第4図(D)はいずれもカラービデオカ
メラ30で読取られた1画面分の画像情報を示し、第4
図(A)は走行路41の両側を規定する走行路端40の
間に車体が位置して走行路41上を走行する場合を示し
、42は選択された画面上の走査線位置を示している。
FIG. 4(A) to FIG. 4(D) all show image information for one screen read by the color video camera 30.
Figure (A) shows a case where the vehicle is located between the road edges 40 defining both sides of the road 41 and runs on the road 41, and 42 indicates the selected scanning line position on the screen. There is.

これに対し第4図(B)は走路上に引かれた線43上を
自動車が走行する場合を示し、44は選択された走査線
を示している。このように第4図(A)(、B)の場合
は、選択された走査線の位置が画面上のどの部分にあっ
ても、特に問題なく走行路端40或いは線43を基に走
行路を判定できる。
On the other hand, FIG. 4(B) shows a case where a car runs on a line 43 drawn on the road, and 44 indicates a selected scanning line. In this way, in the case of FIGS. 4A and 4B, no matter where the selected scanning line is located on the screen, the travel path can be determined based on the travel road edge 40 or line 43 without any particular problem. can be determined.

これに対し、第4図(C)の場合は前方に走行路49の
交差点があるため、走査線46が選択されたときは線4
5内の走行路49上を走行中であると判定できるが、走
査線47が選択されたときは線45による走行路端が検
出できなくなり、自動車の進行方向が決定できなくなる
。また、走査線48が選択されたときは車体が走行路4
9上にあることが検知できる。また、第4図(D)の場
合は、複数の線に分かれた線50上を走行する場合を示
し、走査線51と53が選択されたときは自動車が線5
0上にあることが検知できるが、走査線52が選択され
たときは複数のエツジ部分が検出されるため、正確な進
行方向等の決定ができなくなる。
On the other hand, in the case of FIG. 4(C), there is an intersection of the traveling road 49 in front, so when the scanning line 46 is selected, the line 4
However, when the scanning line 47 is selected, the end of the road according to the line 45 cannot be detected, and the direction of travel of the car cannot be determined. Also, when the scanning line 48 is selected, the vehicle body is on the driving path 4.
9 can be detected. Further, in the case of FIG. 4(D), the car is traveling on the line 50 which is divided into a plurality of lines, and when the scanning lines 51 and 53 are selected, the car is traveling on the line 50 which is divided into a plurality of lines.
0 can be detected, but when the scanning line 52 is selected, a plurality of edge portions are detected, making it impossible to accurately determine the traveling direction, etc.

従って、予め設定されている進行方向や走行路の形状等
を基に選択する走査線の位置や数を決定しておく必要が
ある。例えば第4図(C)の場合では、少なくとも3本
の走査線46〜48を参照して、前方に交差点があるこ
とを検知し、更に前進した後、走査線46に線45によ
るエツジ部分が存在しなくなったときに交差点内に入っ
たことを検知し、予め右或いは左方向に進むように指示
されている情報を基に進行方向の転換を行うようにすれ
ば良い。
Therefore, it is necessary to determine the position and number of scanning lines to be selected based on the traveling direction, the shape of the travel path, etc. set in advance. For example, in the case of FIG. 4(C), it is detected that there is an intersection ahead by referring to at least three scanning lines 46 to 48, and after moving further forward, an edge portion formed by line 45 appears on scanning line 46. When the vehicle no longer exists, it may be detected that the vehicle has entered the intersection, and the direction of travel may be changed based on information indicating that the vehicle should proceed to the right or left.

このようにして走行路や線の形状等により参照される走
査線の位置や数が決定されると、正規化回路32は画像
メモリ31よりその走査線上の画素のRGBデータのそ
れぞれを読出して正規化する。次にこの正規化について
説明する。
Once the position and number of scanning lines to be referenced are determined based on the travel path, line shape, etc. in this way, the normalization circuit 32 reads out each of the RGB data of the pixels on the scanning line from the image memory 31 and normalizes them. become Next, this normalization will be explained.

いまi番目の走査線上の画素データのRGB成分をそれ
ぞれRIJI G IJI B IJとする。ここで、
iはi番目の走査線データであることを示し、jは走査
ライン上の画素位置を示す数で、l走査線上の画素数を
最大Nとすると、1≦j≦Nとなる。いま、正規化され
た赤、緑、青の各色成分値をそれぞれr IJI gr
g bljとすると、で表される。ここでTIJ(刺激
和)=RIJ+GIJ+ B IJとする。
Let the RGB components of pixel data on the i-th scanning line be RIJI G IJI B IJ. here,
i indicates that it is the i-th scanning line data, j is a number indicating the pixel position on the scanning line, and assuming that the number of pixels on one scanning line is N at maximum, 1≦j≦N. Now, let the normalized red, green, and blue color component values be r IJI gr
If g blj, then it is expressed as. Here, TIJ (stimulus sum)=RIJ+GIJ+BIJ.

この正規化により、影や光の反射等により画像に表れる
影響が消去される。即ち、これらの影響なCで示すと、
各色毎の輝度は、 RIJ=C−RIJ’ 、GIJ=C−GIJ’ 、B
IJ=C−B 、、t で示される。ここでRIJ’ 
、G IJ’、B1.′ は真の画像データとする。し
かし、上記の式の様に正規化することにより、影や反射
等のよる影響成分であるC成分が分母及び分子にくるた
め約されて消去され、入力画像情報からこのCによる光
や影等の影響をなくすことができる。
This normalization eliminates the effects that appear on the image due to shadows, light reflections, and the like. In other words, if these influences are shown by C,
The brightness of each color is RIJ=C-RIJ', GIJ=C-GIJ', B
It is denoted by IJ=CB,,t. Here RIJ'
, G IJ', B1. ′ is the true image data. However, by normalizing as in the above equation, the C component, which is an influential component due to shadows and reflections, is reduced and eliminated because it is included in the denominator and numerator, and the light and shadow caused by this C are removed from the input image information. can eliminate the influence of

次に、平均値回路34はこれら正規化データを入力し、
これら正規化値を基に走査線上における正規化された各
色データの平均値を算出する。この計算は各色毎の平均
値をそれぞれμrl+μg1.μb、とし、TIJの平
均値をμtIとすると、 ここで、Nlは走査線上の線以外の部分の画素数を示す
値である。例えば第4図(A)の走査線42の場合では
、42′で示された部分に相当する画素数を示している
。従って、このN1は各走査線毎に異なっており、線4
0(第4図(A)の場合)の幅が太くなることにより小
さくなる。このNIは予め与えられた地図情報や自動車
の走行距離等から得られる位置情報によって決定される
ものである。
Next, the average value circuit 34 inputs these normalized data,
Based on these normalized values, the average value of each normalized color data on the scanning line is calculated. This calculation calculates the average value for each color as μrl+μg1. .mu.b, and the average value of TIJ is .mu.tI. Here, Nl is a value indicating the number of pixels on the scanning line other than the line. For example, in the case of the scanning line 42 in FIG. 4(A), the number of pixels corresponding to the portion indicated by 42' is shown. Therefore, this N1 is different for each scanning line, and the line 4
0 (in the case of FIG. 4(A)) becomes smaller as the width becomes thicker. This NI is determined based on location information obtained from map information given in advance, the distance traveled by the car, and the like.

こうしてそれぞれの平均値が求められて入力されると、
上下限値決定部35はこれら平均値を基に、r、g、b
の各色成分の画素データの上限値(Ur+ 、Ug+ 
、Ub+ 、Ut+ )及び下限値(flr+ 、、1
2g1. I2b+ 、 f2t+ )を下式により求
める。
When each average value is calculated and input in this way,
The upper and lower limit value determining unit 35 determines r, g, b based on these average values.
The upper limit value of pixel data of each color component (Ur+, Ug+
, Ub+ , Ut+ ) and the lower limit (flr+ , 1
2g1. I2b+, f2t+) is determined by the following formula.

Ur+ =gr+ +Cru(赤色データの最大値)U
 g l=μg++cgu(緑色データの最大値)U 
b I= u b l+ Cbu (青色データの最大
値)Ut+ =μt+ +Ctu (Tの最大値)I2
.r、 =μr+ −Cr+ (赤色データの最小値)
Qg+ =μgl Cg+(緑色データの最小値)I2
b、=μb+  Cbr(青色データの最小値)β1.
=μt、−ct+(Tの最小値)ここで、CXXは経験
的に得られる正の数値であり、床面や道路面の色が略均
−であれば小さくなり、逆に床面等の色が不均一であれ
ば大きく設定され、この実施例では床面の色が略均−で
あるため約0.03として与えられる。但し、Ctlは
約10〜20の値である。
Ur+ =gr+ +Cru (maximum value of red data) U
g l=μg++cgu (maximum value of green data) U
b I= u b l+ Cbu (Maximum value of blue data) Ut+ = μt+ +Ctu (Maximum value of T) I2
.. r, =μr+ -Cr+ (minimum value of red data)
Qg+ = μgl Cg+ (minimum value of green data) I2
b, =μb+Cbr (minimum value of blue data) β1.
=μt, -ct+(minimum value of T) Here, CXX is a positive value obtained empirically, and if the color of the floor or road surface is approximately equal to -, it will be small; If the color is non-uniform, it is set to a large value, and in this example, since the color of the floor surface is approximately uniform, it is set to about 0.03. However, Ctl has a value of about 10 to 20.

33はRGBの画像データのうちから所定の画像データ
のブレーンを選択し、その画像データのエツジ部を検出
するエツジ検出部である。例えば第4図(B)に示した
様な実施例では、線43部分は青色で記されており、線
43以外の部分は薄い緑色で記されている。第6図はこ
のときの画素データの変化を示した図で、1走査線は2
56画素64階調で構成されている。61は赤色(R)
のエツジデータを示し、62は緑色のエツジデータを、
63は青色のエツジデータを示している。
Reference numeral 33 denotes an edge detection unit that selects a predetermined frame of image data from among the RGB image data and detects an edge portion of the image data. For example, in the embodiment shown in FIG. 4(B), the line 43 is marked in blue, and the parts other than the line 43 are marked in light green. Figure 6 is a diagram showing the changes in pixel data at this time, where 1 scanning line corresponds to 2
It is composed of 56 pixels and 64 gradations. 61 is red (R)
62 shows the green edge data,
63 indicates blue edge data.

この様にこの実施例では、床面の色(薄い緑)と線部分
の色(青色)の間にほとんど差がないため赤色のエツジ
データの変化が一番大きくなり、赤色のエツジデータを
基にエツジ部の検出を行うのが適当である。
In this way, in this example, there is almost no difference between the color of the floor surface (light green) and the color of the line part (blue), so the red edge data changes the most, and the edge data is It is appropriate to perform part detection.

またエツジ部分の検出に際して、第5図に示したエツジ
強調を行う3×3のソベル(Sobel)のオペレータ
を赤色の画像データに掛ける。
Further, when detecting an edge portion, a 3×3 Sobel operator for edge enhancement shown in FIG. 5 is applied to the red image data.

これによりエツジ部分が強調された情報が得られる。こ
のエツジ強調された情報のうち、閾値1e11よりも大
きい部分をエツジと判定する。
This provides information with emphasized edges. Of this edge-enhanced information, a portion larger than the threshold 1e11 is determined to be an edge.

この閾値e1は選択されたエツジ検出ブレーンや、走査
線の位置等を考慮して決定される値である。この閾値e
1は走行路の色や形状等の環境が変わる毎に経験的に求
めても良く、走査線の位置に対応して持つようにしても
良い。
This threshold value e1 is a value determined in consideration of the selected edge detection brain, the position of the scanning line, etc. This threshold e
1 may be determined empirically each time the environment such as the color or shape of the travel path changes, or may be provided corresponding to the position of the scanning line.

第7図は上述したエツジ部分の閾値及び各色成分のデー
タの上限値及び下限値の関係を示す図である。
FIG. 7 is a diagram showing the relationship between the threshold value of the edge portion described above and the upper and lower limit values of the data of each color component.

70は赤色データを基にエツジ強調された画像データを
示し、閾値e1を基にエツジ部分75が検出される。7
1〜74はそれぞれ赤色、緑色、青色の正規化された値
及び刺激和Tの値を示し、各正規化値及び刺激和の値と
それぞれの上限値及び下限値との関係が例示されている
Reference numeral 70 indicates image data whose edges have been enhanced based on red data, and an edge portion 75 is detected based on a threshold value e1. 7
1 to 74 respectively indicate the normalized values of red, green, and blue and the value of the stimulus sum T, and the relationship between each normalized value and stimulus sum value and the respective upper limit value and lower limit value is illustrated. .

36はエツジ検出部33で検出されたエツジ部分におけ
る各色成分の画素データをチエツクする比較回路37よ
りの情報を基に、本当の走行路端又は線かどうかを判定
する走行経路判定部である。比較回路37はエツジ検出
部33でエツジ部分と判定された点の画素データを調べ
、その点における各色成分及び刺激和の平均値と、上下
限値決定部35で決定された上限値及び下限値とを比較
し、その点における各色の平均値が上限或いは下限値を
越えているかを調べ、越えているときに走行路端又は線
と判定する。
Reference numeral 36 denotes a driving route determination unit that determines whether the edge is a real road edge or a line based on information from a comparison circuit 37 that checks pixel data of each color component in the edge portion detected by the edge detection unit 33. The comparison circuit 37 examines the pixel data of the point determined to be an edge portion by the edge detection section 33, and calculates the average value of each color component and stimulus sum at that point, and the upper and lower limit values determined by the upper and lower limit value determining section 35. It is checked whether the average value of each color at that point exceeds the upper limit or the lower limit, and if it exceeds it, it is determined that it is the edge of the road or a line.

こうして走行経路判定部36により本当の走行路端又は
線が検出されると、走行制御部38にエツジの位置情報
を、例えば走査線上の何画素目にエツジが存在している
か示す数値等で出力する。
When the true running road edge or line is detected by the running route determination unit 36 in this way, the edge position information is output to the running control unit 38 as a numerical value indicating, for example, in which pixel on the scanning line the edge is located. do.

走行制御部38はこの走行路端又は線の位置情報を入力
すると、現在の表示画面やその走査線の位置及び現在走
行している方向や速度等を参照しながら位置や方向のず
れ等を求め、自動車の走行方向を変える等の制御を行う
When the travel control unit 38 inputs the position information of the road edge or line, it calculates the position and deviation of the direction while referring to the current display screen, the position of its scanning line, and the direction and speed of the current travel. , performs controls such as changing the driving direction of the vehicle.

[動作説明 (第3図、第8図〜第12図)]前述した
第3図に関する画像処理装置の説明では、正規化回路3
2等の各部がハードウェアにより構成されているものと
して説明したが、これらはマイクロコンピュータ等のC
PUによりソフトウェアにより制御されていても良い。
[Operation description (Fig. 3, Fig. 8 to Fig. 12)] In the description of the image processing device related to Fig. 3 mentioned above, the normalization circuit 3
The explanation has been made assuming that each part of the second class is configured by hardware, but these are C
It may be controlled by software using the PU.

第8図はソフトウェア制御の場合の走行路検出用画像処
理装置の制御を示すフローチャートである。
FIG. 8 is a flowchart showing control of the image processing device for road detection in the case of software control.

ステップS1でビデオカメラ3oよりカラー画像データ
を入力して画像メモリ31の各ブレーンに各色成分毎に
格納する。ステップS2では予め決定されているか或い
は経験的に定められた走査線を選択し、その走査ライン
のRGB各データを入力して正規化してrIJ、  g
 IJ、 b IJを求めるとともに、刺激和TIJを
求める。ステップS4では正規化された各色成分及び刺
激和データの平均値(μr+ 、ugi 、ul)+ 
)を求め、刺激和71゜の平均値μtlを求める。そし
て、ステップS5でこれら平均値を基に各色成分の画像
データの上限値(Url 、Ugl 、Ubl 、Ut
l )及び下限値(J2r+ 、2gr 、ffb+ 
、nt+ )を決定する。
In step S1, color image data is input from the video camera 3o and stored in each brain of the image memory 31 for each color component. In step S2, a predetermined or empirically determined scanning line is selected, and each RGB data of the scanning line is input and normalized to rIJ, g.
IJ, b As well as finding IJ, find the stimulus sum TIJ. In step S4, the average value of each normalized color component and stimulus sum data (μr+, ugi, ul)+
) is determined, and the average value μtl of the stimulus sum of 71° is determined. Then, in step S5, upper limit values (Url, Ugl, Ubl, Ut) of image data of each color component are determined based on these average values.
l) and lower limit value (J2r+, 2gr, ffb+
, nt+).

ステップS6ではエツジを求める画像データの色成分を
決定し、その色のデータに例えばソベルのオペレータを
掛け、エツジを判定する閾値elの決定を行う。この閾
値elは予め設定されていても良く、画像の色等により
経験的に求められても良い。
In step S6, the color component of the image data for which an edge is to be determined is determined, and the color data is multiplied by, for example, a Sobel operator to determine a threshold value el for determining an edge. This threshold value el may be set in advance, or may be determined empirically based on the color of the image or the like.

ステップ87〜SIOでは走査線の各画素位置における
値(le、、l)が閾値elよりも大きいかどうかを順
次網べていく。ここでNは1走査線上の全画素数を示し
、例えばこの実施例ではN=256に設定されている。
In steps 87 to SIO, it is sequentially checked whether the value (le, 1) at each pixel position of the scanning line is larger than the threshold value el. Here, N indicates the total number of pixels on one scanning line, and is set to N=256 in this embodiment, for example.

もし、1走査線上の全データをチエツクしてもエツジ部
に相当する部分がないときはステップSIOからステッ
プS2に進み、次の走査線を選択して前述の動作を行う
If all the data on one scanning line is checked and there is no part corresponding to the edge portion, the process advances from step SIO to step S2, the next scanning line is selected, and the above-described operation is performed.

ステップS8で閾値elよりも大きい部分が検出される
とステップSllに進み、その時のjで示された位置の
赤色データrlJが、ステップS5で求められた赤色デ
ータの最小値(I2r+)よりも小さいか、或いは最大
値(Urn)以上かどうかをみる。こうして最小値と最
大値の間にあればステップS12に進み、緑色のデータ
チエツクし移行するが、最小値と最大値で示された範囲
内にないときは、本当の走行路端又は線の走行経路であ
るものとしてステップS15に進み、その時のjの値を
走行経路位置と判定する。
If a portion larger than the threshold el is detected in step S8, the process proceeds to step Sll, and the red data rlJ at the position indicated by j at that time is smaller than the minimum value (I2r+) of the red data found in step S5. or is greater than or equal to the maximum value (Urn). In this way, if it is between the minimum value and the maximum value, the process proceeds to step S12, where the green data is checked and the transition is made. However, if it is not within the range indicated by the minimum value and maximum value, the actual road edge or line traveling is detected. Assuming that it is a route, the process advances to step S15, and the value of j at that time is determined to be the travel route position.

こうしてステップSllと同様に、ステップS12で緑
色の画素データのチエツクを行い、ステップS13で青
色の画素データのチエツクを、ステップS14では刺激
和TI、のチエツクを行い、それぞれが最小値以上でか
つ最大値以下かどうかをみる。これら全ての条件が満足
されるとステップS9に進み、jを+1して、次のドツ
ト(画素データ)のチエツクに移行する。そしてステッ
プS16にて、このjの値や画面データ及び走査線位置
等を基に、自動車の走行方向や速度等を決定して自動車
の走行を制御する走行制御を行う。
In this way, similarly to step Sll, the green pixel data is checked in step S12, the blue pixel data is checked in step S13, and the stimulus sum TI is checked in step S14. Check whether it is less than the value. When all these conditions are satisfied, the process advances to step S9, where j is incremented by 1 and the process moves on to checking the next dot (pixel data). Then, in step S16, based on the value of j, the screen data, the scanning line position, etc., the running direction, speed, etc. of the automobile are determined, and driving control is performed to control the driving of the automobile.

第9図は実施例におけるビデオカメラによって読取られ
た走行路を示す画面の一例を示す図である。
FIG. 9 is a diagram showing an example of a screen showing a travel route read by a video camera in the embodiment.

80は走行路を示す線で、薄い緑色の床面81貼られた
青色の布テープであり、自動車はこの線80上を走行す
るように制御される。
Reference numeral 80 indicates a running route, which is a blue cloth tape pasted on a light green floor surface 81, and the car is controlled to run on this line 80.

第10図は第9図の画像データの走査線82上の画素デ
ータを示す図である。
FIG. 10 is a diagram showing pixel data on the scanning line 82 of the image data of FIG. 9.

83は赤色(R)データ、84は緑色(G)データ、8
5は青色(B)データを示し、青色データは床面81と
線部分80との間に色の差がほとんどないためほとんど
変化していない。これら各色のエツジ情報を示す画像デ
ータは、−100より100の間に存在している。86
は正規化された赤色データを示し、その平均値は0.3
15である。87は正規化された緑色データを示し、そ
の平均値は0.335.88は正規化された青色データ
を示し、その平均値は0.349である。更に、89は
刺激和TI、の値を示し、その平均値は104.520
となっている。
83 is red (R) data, 84 is green (G) data, 8
5 indicates blue (B) data, and since there is almost no difference in color between the floor surface 81 and the line portion 80, the blue data hardly changes. Image data indicating edge information for each color exists between -100 and 100. 86
shows the normalized red data, whose average value is 0.3
It is 15. 87 indicates normalized green data and its average value is 0.335.88 indicates normalized blue data and its average value is 0.349. Furthermore, 89 indicates the value of the stimulus sum TI, whose average value is 104.520.
It becomes.

ここで、83の赤色のエツジデータを基に閾値el よ
りも大きいエツジ部分91を検出し、そのエツジ部分9
1に対応する赤、緑、青の正規化値と刺激和のそれぞれ
が設定された最小値以上でかつ最大値以下かを調べ、こ
の条件が満足されていないとき、91が本当の走行経路
9oと判定する。
Here, an edge portion 91 larger than the threshold el is detected based on the red edge data 83, and the edge portion 91 is detected.
It is checked whether the normalized values of red, green, and blue corresponding to 1 and the stimulus sum are each greater than or equal to the set minimum value and less than the maximum value, and if this condition is not satisfied, 91 is the true travel route 9o. It is determined that

同様に第11図は薄い緑色の床面111に線110が青
色で記されている場合を示している。また、112は床
面111に反射された天井の蛍光灯による反射部分であ
る。第12図は第11図の画像データを示す図で、11
5〜117はそれぞれ赤、緑、青色のエツジ情報を示す
画像データを示し、118〜120はそれぞれ赤、緑、
青色データの正規化された画像データを示し、121は
刺激和TI、の値を示している。データ118の平均値
は01328、データ119の平均値は0.334、デ
ータ120の平均値はo、339、刺激和121の平均
値は113.719である。ここでは赤色データ115
をもとに閾値e。
Similarly, FIG. 11 shows a case where a line 110 is marked in blue on a light green floor surface 111. Further, 112 is a reflected portion caused by the fluorescent light on the ceiling that is reflected on the floor surface 111. FIG. 12 is a diagram showing the image data of FIG.
5 to 117 indicate image data indicating red, green, and blue edge information, respectively, and 118 to 120 indicate red, green, and blue edge information, respectively.
The normalized image data of the blue data is shown, and 121 shows the value of the stimulus sum TI. The average value of data 118 is 01328, the average value of data 119 is 0.334, the average value of data 120 is o,339, and the average value of stimulus sum 121 is 113.719. Here the red data is 115
Based on the threshold value e.

によりエツジ部分122が検出され、そのエツジ部分1
22における各正規化値や刺激和値が各色データの設定
された最大値以下でかつ最小値以上でないため、122
が第11図に示された本当の走行経路114として検出
されている。
The edge portion 122 is detected by
Since each normalized value and stimulus sum value in 22 are less than the maximum value set for each color data and not more than the minimum value, 122
is detected as the true travel route 114 shown in FIG.

123は床面111に反射された天井の蛍光灯による反
射部分112による影響部分である。このように、床面
111に反射された天井の蛍光灯による反射部分112
による影響は、各色でのエツジ情報を示す画像データ1
15〜117には現われないため、直ちに走行線の候補
としてエツジ部分122が検出でき、この部分について
のみ色情報にて走行線として確認するので、色情報だけ
を用いるものに比べてリアルタイムに走行線の検出が行
える。
Reference numeral 123 indicates an area affected by the reflected area 112 of the fluorescent light on the ceiling that is reflected on the floor 111. In this way, the reflected portion 112 of the ceiling fluorescent light reflected on the floor surface 111
The influence of image data 1 showing edge information in each color
15 to 117, the edge portion 122 can be immediately detected as a candidate for the running line, and only this part is confirmed as a running line using color information, so the running line can be detected in real time compared to the case where only color information is used. can be detected.

[他の実施例の説明(第13図、第14図)コ第13図
は他の実施例を示す図で、ここでは肌色の床面131に
金属部分132が露出している状態を示している。L 
30は赤色で記された線部分を示し、133は参照され
る走査線を示している。
[Description of Other Embodiments (FIGS. 13 and 14)] FIG. 13 is a diagram showing another embodiment, in which a metal portion 132 is exposed on a flesh-colored floor surface 131. There is. L
30 indicates a line portion marked in red, and 133 indicates a referenced scanning line.

第14図は第13図に示された画面の走査線133上の
データを示す図である。140〜142はそれぞれ赤、
緑、青色のエツジ情報を示す画像データを示し、143
〜145のそれぞれは赤、緑、青色の画像データの正規
化値を示し、146は刺激用TIJを示している。これ
ら各データは前述の実施例と同様に、横軸に走査線上の
画素位置をとり、画像データ140〜142はいずれも
−100から100までの範囲内にある。データ143
の平均値は0.365、データ144の平均値は0.3
09、データ145の平均値は0.325、刺激用14
6の平均値は117.121である。
FIG. 14 is a diagram showing data on the scanning line 133 of the screen shown in FIG. 13. 140-142 are red respectively,
Indicates image data indicating green and blue edge information, 143
-145 each indicate normalized values of red, green, and blue image data, and 146 indicates the stimulation TIJ. As in the previous embodiment, each of these data has the pixel position on the scanning line on the horizontal axis, and the image data 140 to 142 are all within the range from -100 to 100. data 143
The average value of is 0.365, the average value of data 144 is 0.3
09, the average value of data 145 is 0.325, 14 for stimulation
The average value of 6 is 117.121.

図中、147は金属枠132によるデータの変化部分を
示し、148は走行路を規定する正規の線130による
データの変化部分を示している。
In the figure, 147 indicates a portion where data changes due to the metal frame 132, and 148 indicates a portion where data changes due to the regular line 130 defining the travel route.

このように、床等に埋め込まれている金属等を走行路面
と判断しないようにするには、各色成分の上限値や下限
値を個々に定めて判断の基準にすれば良い。また同様に
、金属部分を実際の走行路とみなしてもかまわないとき
は、金属部分も検出できる上限値や下限値を設定すれば
よい。
In this way, in order to avoid determining that metal embedded in the floor or the like is a road surface, upper and lower limits for each color component may be determined individually and used as criteria for determination. Similarly, if it is acceptable to consider metal parts as actual travel routes, upper and lower limits may be set so that metal parts can also be detected.

また前述の実施例では、エツジを検出する面を特定のブ
レーン(ここでは赤色)としたが、前述した刺激和値T
 I Jを基に行うことができる。なぜなら、ある色の
画面でエツジが検出されれば、第10図や第12図等に
示されたように、そのデータは必ず刺激用Tを示す面に
反映されるからである。しかしこの場合は、第5図に示
す3×3のソベルのオペレータを掛ける時、走査ライン
の上下のラインi+1.i−1でもそれぞれの画素につ
いて刺激用TIJを求める必要がある。
In addition, in the above-mentioned embodiment, the surface for detecting edges is a specific brane (here, red), but the stimulus sum value T
This can be done based on IJ. This is because if an edge is detected on a screen of a certain color, that data will always be reflected on the surface showing the stimulation T, as shown in FIGS. 10 and 12. However, in this case, when multiplying by the 3×3 Sobel operator shown in FIG. 5, the lines i+1 . Even in i-1, it is necessary to find the stimulation TIJ for each pixel.

尚、この実施例では工場内等における床面に記された線
に沿って移動する移動車における線の端部検出について
説明したがこれに限定されるものでなく、通常の道路面
におけるセンターラインや車線を規定する線或いは道路
上に書かれた速度制限等の文字等を検出して移動する自
動車の場合にも適用できる。この場合、選択される走査
線の数や位置及び各色の上限及び下限値等は、走行する
道路の状況に合せて適宜変更されることはいうまでもな
い。
In this example, the detection of the end of a line in a moving vehicle moving along a line marked on the floor in a factory or the like was explained, but the detection is not limited to this, and the detection of the center line on a normal road surface is not limited to this. It can also be applied to vehicles that move by detecting lines that define lanes, speed limits, and other characters written on the road. In this case, it goes without saying that the number and position of the selected scanning lines, the upper and lower limits of each color, etc. are changed as appropriate depending on the condition of the road on which the vehicle is traveling.

以上説明したようにこの実施例によれば、床面や道路等
に記された線等の端部を正確に判定できるため、これら
線等に沿って自動車等の移動車を正確に誘導することが
できる。
As explained above, according to this embodiment, it is possible to accurately determine the edges of lines, etc. marked on the floor, road, etc., so it is possible to accurately guide moving vehicles such as cars along these lines, etc. Can be done.

また、特定の色データを基に線等のエツジ部分を検出し
、その検出されたエツジの点について色情報との比較を
行って走行経路判定を行うようにしたので、走行路端や
線の走行経路の検出に要する時間が少なくなり、リアル
タイムにエツジ判定ができる効果がある。
In addition, edge parts such as lines are detected based on specific color data, and the detected edge points are compared with color information to determine the driving route. This has the effect of reducing the time required to detect the travel route and allowing edge determination in real time.

(発明の効果) 以上説明したように本発明によれば、走行路における光
の反射等に影響されることなく正確でかつ高速に走行路
を示す線等の走行経路が検出できる効果がある。
(Effects of the Invention) As described above, according to the present invention, there is an effect that a traveling route such as a line indicating a traveling route can be detected accurately and at high speed without being affected by reflection of light on the traveling route.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は実施例における画像処理装置の機能ブロック図
、 第2図は実施例の自動車におけるビデオカメラの取付位
置の例を示す図、 第3図は実施例の自動車における画像処理装置の概略構
成を示すブロック図、 第4図(A)〜(D)は走行路及び走行路を規定する線
画像データと、その画像データにおける走査線位置の一
例を示す図、 第5図は3×3のソベルのオペレータを示す図、 第6図はエツジ判定に使用されるRGBの画像データを
示す図、 第7図はエツジ検出及び正規化された各色データ、刺激
和値の上下限値の一例を示す図、第8図は実施例の自動
車における走行制御における走行経路判定処理を示すフ
ローチャート、第9図は床面とそこに記された線の画像
データ例を示す図、 第10図は第9図に示された画像データの走査線上のデ
ータを基に作成された各色成分データ例を示す図、 第11図は床面に蛍光灯の光が反射された状態での床面
と線の画像データ例を示す図、第12図は第11図に示
された画像データの走査線上のデータを基に作成された
各色成分データ例を示す図、 第13図は他の実施例の床面に金属が埋め込まれている
ときの床面と線の画像データ例を示す図、そして、 第14図は第13図に示された画像データの走査線上の
データを基に作成された各色成分データ例を示す図であ
る。 図中、30・・・カラービデオカメラ、31・・・画像
メモリ、32・・・正規化回路、33・・・エツジ検出
部、34・・・平均値回路、35・・・上下限値決定部
、36・・・走行経路判定部、37・・・比較回路、3
8・・・走行制御部、100・・・入力手段、101・
・・正規化手段、102・・・エツジ検出手段、103
・・・判断手段である。 too           101 第1図 畔と (A)            (B)(C)    
         (D)第4図 第9図 第10図 第11図 0    50     too    150   
 200    250第12図 +30 第13図 第14図
Fig. 1 is a functional block diagram of the image processing device in the embodiment, Fig. 2 is a diagram showing an example of the mounting position of the video camera in the automobile of the embodiment, and Fig. 3 is a schematic configuration of the image processing device in the automobile of the embodiment. 4 (A) to (D) are diagrams showing an example of a running route and line image data that defines the running route, and scanning line positions in the image data. Figure 6 shows the Sobel operator, Figure 6 shows RGB image data used for edge determination, Figure 7 shows an example of edge detection, normalized color data, and upper and lower limits of stimulus sum values. 8 is a flowchart showing the driving route determination process in the driving control of the automobile according to the embodiment, FIG. 9 is a diagram showing an example of image data of the floor surface and the lines marked thereon, and FIG. Figure 11 shows an example of each color component data created based on the data on the scanning line of the image data shown in Figure 11. Figure 11 shows image data of the floor surface and line with fluorescent lamp light reflected on the floor surface. Figure 12 is a diagram showing an example of each color component data created based on the data on the scanning line of the image data shown in Figure 11. Figure 13 is a diagram showing an example of metal on the floor surface of another example. Figure 14 shows an example of image data for the floor and lines when the image data is embedded, and Figure 14 shows an example of each color component data created based on the data on the scanning line of the image data shown in Figure 13. FIG. In the figure, 30... Color video camera, 31... Image memory, 32... Normalization circuit, 33... Edge detection section, 34... Average value circuit, 35... Upper and lower limit value determination. Part, 36... Traveling route determination part, 37... Comparison circuit, 3
8... Traveling control unit, 100... Input means, 101.
... Normalization means, 102 ... Edge detection means, 103
...It is a means of judgment. too 101 Figure 1: (A) (B) (C)
(D) Figure 4 Figure 9 Figure 10 Figure 11 0 50 too 150
200 250 Fig. 12 + 30 Fig. 13 Fig. 14

Claims (2)

【特許請求の範囲】[Claims] (1)走行路上に記された走行経路位置を検出して移動
する移動車の画像処理装置であって、走行路面の画像を
カラー信号で入力する入力手段と、該入力手段よりの色
情報のうち所定の色情報を基に前記画像のエッジ部分を
検出する検出手段と、前記エッジ部分における色情報に
基づいて正規の走行経路を判断する判断手段とを備える
ことを特徴とする移動車の画像処理装置。
(1) An image processing device for a moving vehicle that moves by detecting the position of a travel route marked on a travel road, which includes an input means for inputting an image of the travel road surface as a color signal, and color information from the input means. An image of a moving vehicle, comprising: a detection means for detecting an edge portion of the image based on predetermined color information; and a determination means for determining a regular travel route based on the color information in the edge portion. Processing equipment.
(2)前記入力手段よりの色情報を正規化する正規化手
段を備える一方、前記判断手段は正規化されたR、G、
Bの三原色の色情報を入力して、画像の走査ライン上の
正規化された各画素の平均値を基に前記色情報のそれぞ
れの上限値及び下限値を求め、前記エッジ部分における
正規化された色情報のそれぞれの信号レベルが前記上限
値と下限値で示された範囲内に存在しないとき、正規の
走行経路であると判定するようにしたことを特徴とする
請求項第1項に記載の移動車の画像処理装置。
(2) The determination means includes a normalization means for normalizing the color information from the input means, and the determination means includes normalized R, G,
Input the color information of the three primary colors of B, calculate the upper and lower limits of each of the color information based on the normalized average value of each pixel on the scanning line of the image, and calculate the normalized value in the edge part. According to claim 1, when the signal level of each color information is not within the range indicated by the upper limit value and the lower limit value, it is determined that the driving route is a normal driving route. image processing device for moving vehicles.
JP63058422A 1988-03-14 1988-03-14 Method and apparatus for controlling movement of a moving vehicle Expired - Fee Related JP2783324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63058422A JP2783324B2 (en) 1988-03-14 1988-03-14 Method and apparatus for controlling movement of a moving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63058422A JP2783324B2 (en) 1988-03-14 1988-03-14 Method and apparatus for controlling movement of a moving vehicle

Publications (2)

Publication Number Publication Date
JPH01232401A true JPH01232401A (en) 1989-09-18
JP2783324B2 JP2783324B2 (en) 1998-08-06

Family

ID=13083944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63058422A Expired - Fee Related JP2783324B2 (en) 1988-03-14 1988-03-14 Method and apparatus for controlling movement of a moving vehicle

Country Status (1)

Country Link
JP (1) JP2783324B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043919A (en) * 2005-08-08 2007-02-22 Kubota Corp Image processor for working vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6336311A (en) * 1986-07-30 1988-02-17 Daifuku Co Ltd Guidance equipment for optical guidance type moving car

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6336311A (en) * 1986-07-30 1988-02-17 Daifuku Co Ltd Guidance equipment for optical guidance type moving car

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043919A (en) * 2005-08-08 2007-02-22 Kubota Corp Image processor for working vehicle
JP4624884B2 (en) * 2005-08-08 2011-02-02 株式会社クボタ Image processing device for work vehicles

Also Published As

Publication number Publication date
JP2783324B2 (en) 1998-08-06

Similar Documents

Publication Publication Date Title
US7436430B2 (en) Obstacle detection apparatus and method
US7936903B2 (en) Method and a system for detecting a road at night
EP1577834B1 (en) Lane boundary detector
JP2001291096A (en) Method for deciding displacement of vehicle from lane
US20050251336A1 (en) Vehicle traveling state determining apparatus
JP2514779B2 (en) Camera posture parameter calculation method
JPH05116557A (en) Automatic velocity controller of vehicle and distance detection device
JP2715442B2 (en) Traveling vehicle recognition device
JPH0778258A (en) Object recognition device
JPH0778240A (en) Calculating method for road disappearing point
JPH01232401A (en) Image processor for moving vehicle
JP3757502B2 (en) Moving object travel control device
JP2021028807A (en) Image processing device and image processing method
JPH08320998A (en) Lane marker detector
JP2000149195A (en) Course environment recognizing device, safety driving supporting device using the same, and automatic driving device
JPH05347000A (en) Travelling lane detecting device
JP3436224B2 (en) Vehicle end detection device
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device
JP6582891B2 (en) Empty vehicle frame identification system, method and program
JPH0778255A (en) Method for extracting straight line part of image
JP2970218B2 (en) Travel lane detection device
JP6841310B2 (en) Boarding detection system and boarding detection method
JP6836217B2 (en) Boarding detection system and boarding detection method
JPH08272933A (en) Line recognizing method
JP2611325B2 (en) Road recognition device for vehicles

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees