JPH0588745A - Environment recognizing device for mobile vehicle - Google Patents

Environment recognizing device for mobile vehicle

Info

Publication number
JPH0588745A
JPH0588745A JP25242991A JP25242991A JPH0588745A JP H0588745 A JPH0588745 A JP H0588745A JP 25242991 A JP25242991 A JP 25242991A JP 25242991 A JP25242991 A JP 25242991A JP H0588745 A JPH0588745 A JP H0588745A
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
shadow
distribution
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25242991A
Other languages
Japanese (ja)
Inventor
Koichi Kojima
浩一 小嶋
Atsushi Kutami
篤 久田見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP25242991A priority Critical patent/JPH0588745A/en
Publication of JPH0588745A publication Critical patent/JPH0588745A/en
Pending legal-status Critical Current

Links

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To provide an environment recognizing device for mobile vehicles which can recognize the obstacles at a high speed in a simple constitution. CONSTITUTION:The 1st density distribution ARY of the direction Y and the 2nd density distribution ARX of the direction X are calculated for an outside gradation image set approximately in the traveling direction of a mobile vehicle. A high frequency position YMAX is calculated from the distribution ARY in regard of the traveling direction of a sample vehicle of the high generating frequency. Then a centroid position XGR of the distribution ARX is calculated. Thus the position of an obstacle is detected based on the positions YMAX and XGR.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は移動車の環境認識装置に
関し、特に、その移動車の前方にある障害物を認識する
ことによる環境認識技術の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an environment recognition device for a moving vehicle, and more particularly to improvement of environment recognition technology by recognizing an obstacle in front of the moving vehicle.

【0002】[0002]

【従来の技術】従来、画像を用いた障害物の検出、位置
推定を行なうためには、二値化、エッジ抽出等に代表さ
れる前処理という膨大な計算処理が必要である。この前
処理過程で、進行方向前方の環境中の障害物の候補の数
を限定した後に、障害物自体の構造を基に障害物を検出
し、さらにその位置推定を行なっている(例えば、特開
昭64−26913号)。
2. Description of the Related Art Conventionally, in order to detect an obstacle using an image and estimate its position, a huge amount of preprocessing such as binarization and edge extraction is required. In this pre-processing process, after limiting the number of obstacle candidates in the environment ahead of the traveling direction, the obstacle is detected based on the structure of the obstacle itself, and its position is estimated (for example, (Kaisho 64-26913).

【0003】[0003]

【発明が解決しようとしている課題】しかしながら、前
述の前処理は、エッジ処理過程におけるフィルタ演算、
そしてラベリング等の膨大な計算を必要とするためにリ
アルタイム性に欠け、そのために、上記従来の環境認識
技術を移動車の自律走行に適用する際の実用上の障害と
なっていた。そこで本発明の目的は、簡単な構成でしか
も高速に障害物の認識を行なうことのできる移動車の環
境認識装置を提案するものである。
However, the above-mentioned preprocessing is the filter calculation in the edge processing process,
Since it requires enormous calculations such as labeling, it lacks real-time performance, which has been a practical obstacle in applying the above-mentioned conventional environment recognition technology to autonomous traveling of a mobile vehicle. Therefore, an object of the present invention is to propose an environment recognition device for a moving vehicle, which has a simple structure and can recognize an obstacle at high speed.

【0004】[0004]

【課題を解決するための手段及び作用】上記課題を達成
するための本発明の移動車の環境認識装置は、前方障害
物には影が伴なうことに着目する。即ち、本発明の構成
は、略車両進行方向の外界の濃淡画像を入力する入力手
段と、この濃淡画像の、車両進行方向についての第1の
濃度分布と、前記車両進行方向に略直交する方向につい
ての第2の濃度分布とを演算する分布演算手段と、前記
第1の濃度分布から高い発生頻度のサンプルの前記車両
進行方向についての高頻度位置を演算し、前記第2の濃
度分布の重心位置を演算する位置演算手段と、前記高頻
度位置と重心位置とに基づいて障害物を検出する手段と
を具備している。
The environment recognizing device for a mobile vehicle according to the present invention for achieving the above-mentioned object pays attention to the fact that a shadow is accompanied by a front obstacle. That is, the configuration of the present invention is such that the input means for inputting the grayscale image of the outside world in the substantially vehicle traveling direction, the first density distribution of the grayscale image in the vehicle traveling direction, and the direction substantially orthogonal to the vehicle traveling direction. With respect to the second concentration distribution, and a high-frequency position in the vehicle traveling direction of a sample with a high occurrence frequency from the first concentration distribution to calculate the center of gravity of the second concentration distribution. It is provided with position calculating means for calculating a position and means for detecting an obstacle based on the high frequency position and the position of the center of gravity.

【0005】この環境認識装置によれば、前記障害物の
影と思われる部分の位置を認識することができる。影の
位置は障害物の位置に近接しているので、この位置を障
害物位置とみなすことにより、前方障害物を認識するこ
とが可能となる。この場合に必要となるヒストグラムの
計算や重心位置の計算等が従来の前処理に比して圧倒的
に計算量が少ないものであり、そのために本発明の装置
は簡単な構成で比較的高速な障害物認識を可能とする。
According to this environment recognition device, it is possible to recognize the position of the portion which is considered to be the shadow of the obstacle. Since the position of the shadow is close to the position of the obstacle, it is possible to recognize the front obstacle by regarding this position as the position of the obstacle. In this case, the calculation of the histogram, the calculation of the position of the center of gravity, etc., which is required in this case, has an overwhelmingly small amount of calculation as compared with the conventional preprocessing. Therefore, the device of the present invention has a simple structure and is relatively fast. Enables obstacle recognition.

【0006】[0006]

【実施例】以下添付図面を参照しながら、本発明の環境
認識装置を自律走行に適用した実施例を説明する。第1
図は、実施例の自律走行車両の構成を概略的に示す。こ
の車両100は、外部(特に前方)の環境の画像11を
撮影するためのカメラ10を積載している。画像11は
濃淡の画像として環境認識システム12に入力され、こ
こで環境認識が行なわれる。認識結果は知識ベースを有
する状況判断システム13に送られ、ここで走行状況の
判断が行なわれる。車両制御システム14は、システム
13による状況判断結果に基づいて、例えば、不図示の
ステアリングを制御し、あるいはブレーキを制御する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the environment recognition device of the present invention is applied to autonomous traveling will be described below with reference to the accompanying drawings. First
The figure schematically shows the configuration of an autonomous vehicle of the embodiment. This vehicle 100 is equipped with a camera 10 for taking an image 11 of an external (especially front) environment. The image 11 is input to the environment recognition system 12 as a grayscale image, and environment recognition is performed therein. The recognition result is sent to the situation determination system 13 having a knowledge base, and the traveling situation is determined here. The vehicle control system 14 controls, for example, a steering wheel (not shown) or a brake based on the situation determination result by the system 13.

【0007】この自律走行車には、第1図には不図示の
GPS装置(第2図の12c)と時計(第2図の12
d)が設けられている。第2図は、第1図の環境認識シ
ステム12の概略を示したものである。この環境認識シ
ステムでは、画像処理部12aが、前方障害物の位置
を、この障害物の影の位置(XGR,YMAX )として認識
する。これは、第3図に示すように、障害物200の影
201は、障害物200そのものよりも濃度が低いため
に検出が容易であるからである。
This autonomous vehicle includes a GPS device (12c in FIG. 2) and a clock (12 in FIG. 2) which are not shown in FIG.
d) is provided. FIG. 2 shows an outline of the environment recognition system 12 of FIG. In this environment recognition system, the image processing unit 12a recognizes the position of the front obstacle as the position (X GR , Y MAX ) of the shadow of the obstacle. This is because the shadow 201 of the obstacle 200 has a lower density than the obstacle 200 itself as shown in FIG.

【0008】ところで、影は太陽(光源)の位置により
その伸びる方向が異なる。従って、影の方向を考慮し
て、処理部12aにより認識された影位置を補正しない
と、あやまった位置を障害物と認識してしまう。そこ
で、本実施例の環境認識システム12は、第2図に示す
ように、影方向計算部12bを有する。この計算部12
bは、GPS(Global Positioning System) 装置12c
からの自車位置信号と自車に搭載された時計12dから
の現在時刻とに基づいて、日照データベース12eを探
索し、日照方向を求める。計算部12bは、その日照方
向に基づいて、上記の影位置を補正して、第4図に示す
ように、最終的な障害物の位置(X'GR ,Y'MAX)を得
る。
By the way, the direction in which the shadow extends differs depending on the position of the sun (light source). Therefore, if the shadow position recognized by the processing unit 12a is not corrected in consideration of the shadow direction, the incorrect position is recognized as an obstacle. Therefore, the environment recognition system 12 of this embodiment has a shadow direction calculation unit 12b as shown in FIG. This calculator 12
b is a GPS (Global Positioning System) device 12c
Based on the vehicle position signal from the vehicle and the current time from the clock 12d mounted on the vehicle, the sunshine database 12e is searched for the sunshine direction. The calculation unit 12b corrects the shadow position based on the sunshine direction to obtain the final obstacle position ( X'GR , Y'MAX ) as shown in FIG.

【0009】第5図は、画像処理部12aにおける制御
手順を示すフローチヤートである。同図に従って、障害
物位置(X'GR ,Y'MAX)を得るまでの制御手順を説明
する。ステップS2ではカメラ10から画像を入力す
る。この画像は濃淡を有する階調信号からなる。ステッ
プS4では、閾値を演算するための第6図に示すような
サンプリング領域を指定する。本実施例では、濃淡画像
の画素のうち所定の濃度以下である画素は影部分であろ
うと推定することに基づくものであるから、その所定の
濃度を意味する閾値をサンプリング領域から求めるため
である。通常、車両前方の一定範囲内は障害物はなく、
その範囲内は道路等の画像の濃度を示すのが普通であ
る。従って、このような範囲をサンプリング領域に前も
って指定しておき、ステップS6で、この領域内の画像
濃度の平均値に基づいて、影に相当する画素であるか否
かを判断する閾値THを決定する。即ち、サンプリング
領域内の画像信号の濃度平均値をCとすれば、前記閾値
THは TH=k・C(kは定数) で求められる。従って、任意の画素位置の濃度をD
(X,Y)で表わせば、 D(X,Y)≦TH である画素位置は影であると一応推定することができ
る。第6図において、×印はこのような一定濃度以下の
画素位置を示す。
FIG. 5 is a flow chart showing the control procedure in the image processing section 12a. The control procedure for obtaining the obstacle position (X ′ GR , Y ′ MAX ) will be described with reference to FIG. In step S2, an image is input from the camera 10. This image is composed of gradation signals having shades. In step S4, a sampling area as shown in FIG. 6 for calculating the threshold value is designated. This is because the present embodiment is based on the assumption that the pixels of the grayscale image that have a density equal to or lower than the predetermined density are in the shadow portion, and therefore a threshold value that means the predetermined density is obtained from the sampling area. .. Normally, there are no obstacles within a certain range in front of the vehicle,
Usually, the density within the range indicates the density of an image of a road or the like. Therefore, such a range is designated in advance as the sampling area, and in step S6, the threshold value TH for determining whether or not the pixel corresponds to a shadow is determined based on the average value of the image density in this area. To do. That is, if the average value of the densities of the image signals in the sampling region is C, the threshold value TH is calculated by TH = k.multidot.C (k is a constant). Therefore, the density at an arbitrary pixel position is D
If it is expressed by (X, Y), it can be estimated that the pixel position where D (X, Y) ≦ TH is a shadow. In FIG. 6, the x marks indicate such pixel positions with a certain density or less.

【0010】ステップS8では、第6図に示したよう
な、X方向,Y方向ヒストグラムを作成する。この作成
方法は次のようにする。先ず、X方向配列領域ARx
Y方向配列領域ARY を、画像処理部12aの所定のメ
モリ(不図示)に用意しておく。ARx は、第7図に示
すように、X座標方向について単位長さ毎にとられたデ
ータ配列であり、個々の要素はY座標値を記憶する。A
Y は、座標方向について単位長さ毎にとられたデータ
配列でありデータ配列であり、個々の要素はカウント値
を格納する。
In step S8, X-direction and Y-direction histograms as shown in FIG. 6 are created. This creation method is as follows. First, the X-direction array area AR x ,
The Y-direction sequence regions AR Y, are prepared in a predetermined memory of the image processing unit 12a (not shown). As shown in FIG. 7, AR x is a data array for each unit length in the X coordinate direction, and each element stores the Y coordinate value. A
R Y is a data array and a data array taken for each unit length in the coordinate direction, and each element stores a count value.

【0011】ヒストグラムの作成に際し、第6図の×印
のついた画素位置を探索する。探索方向は、あるX方向
位置Xn において、第6図において、下側(即ち、自車
に近い位置から)から探索する。そのような画素Di
(Xn ,Yi )が発見されると、配列ARY の要素のう
ちDi のY方向座標値Yi に対応するものに発見回数を
累積する。また、ARx については、その画素Di のX
方向座標値Xn に対応する要素にY方向座標値Yi を格
納する。そして、探索位置を示すXn を第6図で左から
右に移動していく。このようにすると、配列ARx
は、例えば第7図に示すように、X方向座標位置0,
1,2,3,4,5‥‥‥XN の各々について、閾値T
H以下の濃度を有する画素のY座標位置が格納される。
この場合、同じZ座標位置(例えば、X=2)において
複数の画素が発見されたならば、同図に示すように、配
列ARx の各要素(例えば、X=2に対応する要素には
そのY座標値が複数個(例えば、Y9 ,Y10,Y12)が
格納される。また、配列ARY には、第6図のようなヒ
ストグラムが形成される。
When creating the histogram, the pixel positions marked with X in FIG. 6 are searched. The search direction is to search from a lower side (that is, from a position closer to the own vehicle) in FIG. 6 at a certain X direction position X n . Such a pixel D i
(X n, Y i) is the is found to accumulate the discovery number of times which corresponds to the Y-direction coordinate value Y i of the D i of the element of the array AR Y. For AR x , the X of the pixel D i is
The Y direction coordinate value Y i is stored in the element corresponding to the direction coordinate value X n . Then, X n indicating the search position is moved from left to right in FIG. By doing so, for example, as shown in FIG. 7, in the array AR x , the X-direction coordinate position 0,
Threshold value T for each of 1, 2, 3, 4, 5 ... X N
The Y coordinate position of a pixel having a density of H or less is stored.
In this case, if a plurality of pixels are found at the same Z coordinate position (for example, X = 2), as shown in the figure, each element of the array AR x (for example, an element corresponding to X = 2 is its Y coordinate value a plurality (e.g., Y 9, Y 10, Y 12) are stored. also, the array AR Y, the histogram as FIG. 6 is formed.

【0012】次にステップS16では、影のY座標値で
あるYMAX を求める。障害物(特に前方車両)は通常自
車の前方にあり、その底面は水平であるから、その影は
第6図に示すように、X軸方向に伸び、そして、そのY
方向の幅は小さい。従って、前方に障害物があり、その
画像のY方向ヒストグラムには、第6図に示すように、
影のY方向位置に対応する位置YMAX に最大頻度の度数
が発生する筈である。即ち、Y方向ヒストグラムの最大
頻度を示すY座標値YMAX を影のY方向位置とする。
尚、最大頻度が複数の連続したY方向位置に発生してい
るならば、その中間をYMAX とする。
Next, in step S16, Y MAX which is the Y coordinate value of the shadow is obtained. Since the obstacle (especially the vehicle in front) is usually in front of the own vehicle and its bottom surface is horizontal, its shadow extends in the X-axis direction and its Y-axis as shown in FIG.
The width in the direction is small. Therefore, there is an obstacle in the front, and the Y direction histogram of the image is as shown in FIG.
The frequency with the maximum frequency should occur at the position Y MAX corresponding to the position of the shadow in the Y direction. That is, the Y coordinate value Y MAX indicating the maximum frequency of the Y direction histogram is set as the Y direction position of the shadow.
If the maximum frequency occurs at a plurality of consecutive Y-direction positions, the middle thereof is set to Y MAX .

【0013】次にステップS12で、影の部分のX方向
位置を検出する。これは、次のようにする。即ち、H方
向ヒストグラムの集合である配列ARx の要素のうち、
MA X をデータとして有しているもののみを抽出する。
第7図の例では、YMAX =Y 10とすれば、X=1,2,
3の画素が抽出される。即ち、この連続した画素は、図
6から明らかなように、YMAX 位置にある影のX方向投
影である。従って、影のX方向投影の重心位置が影のX
方向位置XGRであり、第7図の例では、XGR=3であ
る。
Next, in step S12, the shadow portion in the X direction
Detect the position. This is done as follows. That is, H direction
Array AR that is a set of directional histogramsx Of the elements of
YMA X Only those that have as data are extracted.
In the example of FIG. 7, YMAX = Y TenThen, X = 1, 2,
3 pixels are extracted. That is, this continuous pixel is
As is clear from 6, YMAX Throw shadow in X direction
It is a shadow. Therefore, the barycentric position of the X-direction projection of the shadow is X
Directional position XGRAnd in the example of FIG. 7, XGR= 3
It

【0014】かくして、障害物の位置(XGR,YMAX
がその障害物の影の位置として認識された。前述の説明
から明らかなように、本実施例の画像処理では、複雑な
二値化やエッジ検出を行なうこともなく簡単に障害物の
位置を認識することができた。第5図に示した制御手順
では、先にY方向についてのヒストグラムにおいて、最
大頻度を示す位置を障害物のY座標値としていた。これ
は、障害物が前方車両であることが多い自律走行技術の
分野では、前述したように、影のY方向の幅は狭く、そ
のために、ヒストグラムにピークが発生して、このピー
クを検出することが容易であるからである。特に、太陽
が自車後方から照らしている場合には、前方車両の影は
X方向に伸びた細い影の筈である。
Thus, the position of the obstacle (X GR , Y MAX )
Was recognized as the position of the shadow of the obstacle. As is clear from the above description, in the image processing of this embodiment, the position of the obstacle could be easily recognized without performing complicated binarization and edge detection. In the control procedure shown in FIG. 5, the position showing the maximum frequency is set as the Y coordinate value of the obstacle in the histogram in the Y direction. This is because, in the field of autonomous traveling technology in which the obstacle is often a forward vehicle, the width of the shadow in the Y direction is narrow as described above, and therefore a peak is generated in the histogram and this peak is detected. It is easy to do. In particular, when the sun is shining from behind the vehicle, the shadow of the vehicle in front should be a thin shadow extending in the X direction.

【0015】ところが、特に太陽が前方から照射して、
その仰角が低い場合には、第3図に示すように、影の長
さはY方向に長くなる。かかる場合はY方向のヒストグ
ラムには、高い頻度を示す位置が連続して多数発見され
る。かかる場合は、所定の頻度以上の頻度を示すY方向
位置の各々について、第7図で説明したX方向の重心を
演算する。このようにすると、第8図のような連続した
(XGR,YMAX )の集合が得られてしまい、結局、障害
物認識の精度は低下する。
However, especially when the sun irradiates from the front,
When the elevation angle is low, the length of the shadow becomes long in the Y direction as shown in FIG. In such a case, a large number of positions showing high frequency are continuously found in the Y-direction histogram. In such a case, the center of gravity in the X direction described with reference to FIG. 7 is calculated for each of the Y direction positions having a frequency equal to or higher than the predetermined frequency. In this way, a continuous (X GR , Y MAX ) set as shown in FIG. 8 is obtained, and the accuracy of obstacle recognition is eventually reduced.

【0016】そこで、このような場合にも、精度良く前
方障害物の位置を認識する手法、即ち、日照方向に起因
して影が長くなった場合の補正について説明する。これ
は、第9図に示すように、光軸が垂直方向からずれてい
ると、障害物の推定位置(X GR,YMAX )と実際の位置
(X'GR ,Y'MAX)に誤差が発生するからである。この
ために、第5図のステップS14においては、日照方向
を検出するために、GPS装置から自車位置(経度,緯
度)に関するデータを貰う。ステップS16では現在時
刻(グリニッジ標準時)を知る。実際に路面に投影され
る影の方向を画像中で知るには、カメラの方位と路面の
傾きを知る必要がある。そこで、ステップS18で、例
えば傾斜センサ等を具備した走行制御システム14から
の自車カメラ10の地表に対する傾き信号を受ける。そ
して、ステップS20で、日照データベースから、自車
位置と現在時刻に基づいて自車位置における日照方向を
演算する。日照データベースは、暦と時間についての、
地軸と太陽の位置関係に関する情報を記憶している。こ
れにより、自車位置における太陽の地表に対する角度と
方位を知ることができる。
Therefore, even in such a case, it is possible to accurately perform
A method of recognizing the position of obstacles, that is, due to the direction of sunlight
Then, the correction when the shadow becomes long will be described. this
Shows that the optical axis is deviated from the vertical direction as shown in FIG.
Then, the estimated position of the obstacle (X GR, YMAX ) And the actual position
(X 'GR , Y 'MAXThis is because an error occurs in). this
Therefore, in step S14 of FIG.
In order to detect the
Data). At step S16, the current time
Know the time (Greenwich Mean Time). Actually projected on the road
In order to know the direction of the shadow in the image, the direction of the camera and the road surface
You need to know the inclination. Therefore, in step S18, an example
For example, from the travel control system 14 equipped with a tilt sensor, etc.
Receives a tilt signal of the own vehicle camera 10 with respect to the ground surface. So
Then, in step S20, from the sunshine database, the own vehicle
Based on the position and the current time
Calculate The sunshine database has a calendar and time
It stores information about the positional relationship between the earth's axis and the sun. This
As a result, the angle of the sun with respect to the ground surface at the vehicle position and
You can know the bearing.

【0017】影の補正の原理について第10図,第11
図を用いて説明する。自車位置における太陽の仰角をθ
E 、方位角をθD とすれば、第10図に示した長さ1の
棒は、△x = CotθE 、 △Y =△x・ TanθD = COTθE
TANθD の影となる。もし、第11図に示すように、幅
X,高さYの障害物が、太陽が仰角θE 、方位角θD
け傾いた場合に、ステップS12までに得た(XGR,Y
MAX )の集合(第8図を参照)が示す影がa,bの大き
さを持つものとして検出されたならば、 X+Y・△x =a (1+△Y )・Y=b を満足するX,Yが障害物として認識される。即ち、第
8図の影部分の集合のうち、上記式を満足するX,Yの
部分が正規の障害物の位置として認識される。(XGR
MAX )に対して、と実際の位置(X'GR ,Y'MAX)に
誤差が発生するからである。
The principle of shadow correction is shown in FIGS.
It will be described with reference to the drawings. The elevation angle of the sun at the vehicle position is θ
Assuming E and the azimuth angle to be θ D , the rod of length 1 shown in FIG. 10 has Δ x = Cot θ E , Δ Y = Δ x · Tan θ D = COT θ E ·
It becomes the shadow of TAN θ D. If, as shown in FIG. 11, an obstacle of width X and height Y is tilted by the sun by elevation angle θ E and azimuth angle θ D , it is obtained by step S12 (X GR , Y
If shadows showing the set (see FIG. 8) of the MAX) is detected as having a, the size of b, X + Y · △ x = a (1 + △ Y) · Y = b satisfies X , Y is recognized as an obstacle. That is, of the set of shaded portions in FIG. 8, the X and Y portions that satisfy the above equation are recognized as the positions of the regular obstacles. (X GR ,
Relative Y MAX), the actual position (X 'GR, Y' MAX ) to be because an error occurs.

【0018】本発明はその趣旨を逸脱しない範囲で、上
記実施例に種々の変形例にも適用可能である。例えば、
太陽の照射方向を知るには上述のGPSを用いる以外に
も、例えば、光ジャイロを用いることも可能である。第
12図に示した光ジャイロ装置は、X,Y方向の二次元
に拡がった光受光素子200上に、マーカ201の影が
検出された位置△X,△Yに基づいて、太陽光線の光軸
の傾きを知るものである。
The present invention can be applied to various modifications of the above embodiment without departing from the spirit of the present invention. For example,
In addition to using the GPS described above, for example, an optical gyro can be used to know the irradiation direction of the sun. The optical gyro device shown in FIG. 12 is based on the positions ΔX and ΔY where the shadow of the marker 201 is detected on the light receiving element 200 which is two-dimensionally spread in the X and Y directions. It is to know the tilt of the axis.

【0019】尚、このジャイロを前記GPS装置を併用
すれば、自車の地表に対する傾きを検出することができ
る。太陽光が自車位置に投射する角度はGPS装置等か
ら知ることができる。また太陽光に対する自車の傾きは
光ジャイロを用いて知ることができる。従って、これら
から自車の地表に対する傾きを知ることができる。
By using this gyro together with the GPS device, the inclination of the vehicle with respect to the ground surface can be detected. The angle at which the sunlight is projected onto the vehicle position can be known from the GPS device or the like. The inclination of the vehicle with respect to the sunlight can be known using an optical gyro. Therefore, the inclination of the vehicle with respect to the ground surface can be known from these.

【0020】[0020]

【発明の効果】以上説明したように、本発明は、略車両
進行方向の外界の濃淡画像を入力する入力手段と、この
濃淡画像の、車両進行方向についての第1の濃度分布
と、前記車両進行方向に略直交する方向についての第2
の濃度分布とを演算する分布演算手段と、前記第1の濃
度分布から高い発生頻度のサンプルの前記車両進行方向
についての高頻度位置を演算し、前記第2の濃度分布の
重心位置を演算する位置演算手段と、前記高頻度位置と
重心位置とに基づいて障害物を検出する手段とを具備し
ている。
As described above, according to the present invention, the input means for inputting the grayscale image of the outside world in the vehicle traveling direction, the first density distribution of the grayscale image in the vehicle traveling direction, and the vehicle Second about the direction substantially orthogonal to the traveling direction
Distribution calculating means for calculating the concentration distribution of the second concentration distribution, and a high-frequency position of the sample having a high occurrence frequency in the vehicle traveling direction from the first concentration distribution, and a center of gravity position of the second concentration distribution. A position calculation means and a means for detecting an obstacle based on the high frequency position and the center of gravity position are provided.

【0021】この環境認識装置によれば、前記障害物の
影と思われる部分の位置を認識することができる。影の
位置は障害物の位置に近接しているので、この位置を障
害物位置とみなすことにより、前方障害物を認識するこ
とが可能となる。この場合に必要となるヒストグラムの
計算や重心位置の計算等が従来の前処理に比して圧倒的
に計算量が少ないものであり、そのために本発明の装置
は簡単な構成で比較的高速な障害物認識を可能とする。
特に、光源の角度が傾いた場合にも、それによる補正を
施すことにより、正確に障害物位置を認識することがで
きる。
According to this environment recognition device, it is possible to recognize the position of the portion which is considered to be the shadow of the obstacle. Since the position of the shadow is close to the position of the obstacle, it is possible to recognize the front obstacle by regarding this position as the position of the obstacle. In this case, the calculation of the histogram, the calculation of the position of the center of gravity, etc., which is required in this case, has an overwhelmingly small amount of calculation as compared with the conventional preprocessing. Therefore, the device of the present invention has a simple structure and is relatively fast. Enables obstacle recognition.
In particular, even if the angle of the light source is tilted, it is possible to accurately recognize the obstacle position by performing the correction accordingly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例の自律走行車のシステム構成を示す
図。
FIG. 1 is a diagram showing a system configuration of an autonomous vehicle of this embodiment.

【図2】図1の自律走行車の自律走行制御のシステムブ
ロック図。
FIG. 2 is a system block diagram of autonomous traveling control of the autonomous vehicle of FIG.

【図3】[Figure 3]

【図4】影が光線の傾きによって異なることに起因する
認識位置の誤差を補正する手法を説明する図。
FIG. 4 is a diagram illustrating a method of correcting an error in a recognition position caused by a shadow varying depending on the inclination of a light ray.

【図5】本実施例の制御手順を説明するフローチヤー
ト。
FIG. 5 is a flow chart illustrating a control procedure of the present embodiment.

【図6】本実施例における影部分を認識する手法の原理
を説明する図。
FIG. 6 is a diagram illustrating the principle of a method of recognizing a shadow portion in the present embodiment.

【図7】図6の手法に用いられる配列ARx の構造を説
明する図。
7 is a diagram illustrating the structure of an array AR x used in the method of FIG.

【図8】[Figure 8]

【図9】[Figure 9]

【図10】[Figure 10]

【図11】光線の傾きに起因する認識位置の誤差を取り
除く原理を説明する図。
FIG. 11 is a diagram illustrating a principle of removing an error in a recognition position due to a tilt of a light beam.

【図12】自車の傾きを検出するための装置の他の例を
示す図。
FIG. 12 is a diagram showing another example of an apparatus for detecting the inclination of the own vehicle.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 略車両進行方向の外界の濃淡画像を入力
する入力手段と、 この濃淡画像の、車両進行方向についての第1の濃度分
布と、前記車両進行方向に略直交する方向についての第
2の濃度分布とを演算する分布演算手段と、 前記第1の濃度分布から高い発生頻度のサンプルの前記
車両進行方向についての高頻度位置を演算し、前記第2
の濃度分布の重心位置を演算する位置演算手段と、 前記高頻度位置と重心位置とに基づいて障害物を検出す
る手段とを具備したことを特徴とする移動車の環境認識
装置。
1. An input means for inputting a grayscale image of the outside world in a substantially vehicle traveling direction, a first density distribution of the grayscale image in the vehicle traveling direction, and a first density distribution in a direction substantially orthogonal to the vehicle traveling direction. Distribution calculating means for calculating the second concentration distribution; and a high-frequency position in the vehicle traveling direction of a sample having a high occurrence frequency from the first concentration distribution,
2. An environment recognition device for a mobile vehicle, comprising: a position calculation means for calculating the barycentric position of the density distribution of 1. and a means for detecting an obstacle based on the high-frequency position and the barycentric position.
【請求項2】 請求項1に記載の移動車の環境認識装置
において、前記分布を演算する手段は、 入力された画像の所定濃度以下の画素を抽出する手段
と、 これらの画素の数を前記車両進行方向及びこれに略直交
する方向についての発生頻度の分布を演算して、これら
の分布を前記第1の濃度分布と第2の濃度分布とする手
段とを具備する。
2. The environment recognizing device for a moving vehicle according to claim 1, wherein the means for calculating the distribution is a means for extracting pixels having a predetermined density or less in an input image, and the number of these pixels is the There is provided means for calculating distributions of occurrence frequencies in a vehicle traveling direction and a direction substantially orthogonal to the vehicle traveling direction and setting these distributions as the first concentration distribution and the second concentration distribution.
【請求項3】 請求項1に記載の移動車の環境認識装置
は、さらに、 障害物の影の伸びる方向を演算する手段と、 算出された影の方向に基づいて、前記位置演算手段によ
り演算された高頻度位置と重心位置のデータを補正する
補正手段とを具備する。
3. The environment recognizing device for a moving vehicle according to claim 1, further comprising means for calculating a direction in which a shadow of an obstacle extends, and the position calculating means based on the calculated direction of the shadow. And a correction unit that corrects the data of the determined high frequency position and the center of gravity position.
JP25242991A 1991-09-30 1991-09-30 Environment recognizing device for mobile vehicle Pending JPH0588745A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25242991A JPH0588745A (en) 1991-09-30 1991-09-30 Environment recognizing device for mobile vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25242991A JPH0588745A (en) 1991-09-30 1991-09-30 Environment recognizing device for mobile vehicle

Publications (1)

Publication Number Publication Date
JPH0588745A true JPH0588745A (en) 1993-04-09

Family

ID=17237245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25242991A Pending JPH0588745A (en) 1991-09-30 1991-09-30 Environment recognizing device for mobile vehicle

Country Status (1)

Country Link
JP (1) JPH0588745A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013184498A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Vehicle traveling support apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013184498A (en) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd Vehicle traveling support apparatus

Similar Documents

Publication Publication Date Title
US11348266B2 (en) Estimating distance to an object using a sequence of images recorded by a monocular camera
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
US7327855B1 (en) Vision-based highway overhead structure detection system
JP5157067B2 (en) Automatic travel map creation device and automatic travel device.
Turk et al. Video road-following for the autonomous land vehicle
CN110044256B (en) Self-parking position estimation device
CN109791052A (en) For generate and using locating reference datum method and system
US20050004762A1 (en) Obstacle detection apparatus and method for automotive vehicle
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
CA2705375A1 (en) Method of and apparatus for producing lane information
JP2001242934A (en) Obstacle detection equipment, method therefor, and recording medium containing an obstacle detection program
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
KR101558756B1 (en) Lane Detecting Method and Apparatus for Estimating Lane Based on Camera Image and Sensor Information
US10235579B2 (en) Vanishing point correction apparatus and method
CN115578470B (en) Monocular vision positioning method and device, storage medium and electronic equipment
EP3633617A2 (en) Image processing device
JP4052291B2 (en) Image processing apparatus for vehicle
JP2006012178A (en) Method and system for detecting parking vehicle
JPH11195127A (en) Method for recognizing white line and device therefor
US11904843B2 (en) Autonomous parking systems and methods for vehicles
JP2024038322A (en) Measurement device, measurement method, and program
ES2323757T3 (en) HEIGHT MEASUREMENT DEVICE.
EP2047213A1 (en) Generating a map
EP3246877A1 (en) Road surface estimation based on vertical disparity distribution