JPH06107096A - Forward monitoring method for vehicle - Google Patents

Forward monitoring method for vehicle

Info

Publication number
JPH06107096A
JPH06107096A JP4256268A JP25626892A JPH06107096A JP H06107096 A JPH06107096 A JP H06107096A JP 4256268 A JP4256268 A JP 4256268A JP 25626892 A JP25626892 A JP 25626892A JP H06107096 A JPH06107096 A JP H06107096A
Authority
JP
Japan
Prior art keywords
optical flow
vehicle
point
window
monitoring method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4256268A
Other languages
Japanese (ja)
Other versions
JP2863381B2 (en
Inventor
Masato Nakajima
真人 中島
Takahiro Fujishiro
孝宏 藤城
Norio Kitamura
則夫 北村
Kazuyuki Sasaki
一幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP4256268A priority Critical patent/JP2863381B2/en
Priority to US08/126,298 priority patent/US5521633A/en
Priority to DE4332612A priority patent/DE4332612C2/en
Publication of JPH06107096A publication Critical patent/JPH06107096A/en
Application granted granted Critical
Publication of JP2863381B2 publication Critical patent/JP2863381B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE:To judge a degree of danger due to a traveling vehicle and the like in front and other obstacles on the road automatically and at high speed by using a foreground image by a video camera without using a distance sensor for measuring an inter-vehicle distance to the preceding vehicle. CONSTITUTION:Movement of the same point on an object shown in two frames of images chronologically continuing in a series of foreground animations is detected as an optical flow vector, and danger is judged by its size. A narrow window set in the radical direction from FOE of the previous image is moved in the same direction on the successive image, and the optical flow vector of a point to be aimed at is set as an arrow connecting each of the central points of the position of the window where the sum of absolute values of difference in brightness of the area on the successive image that the window overlaps the window becomes the minimum, and the set position of the window in the previous image. However, the point to obtain the optical flow is the only point that the difference in brightness between the previous and successive images exceeds a certain threshold value so that influence of landscape outside the road or a traffic lane, letters or characters drawn on the road should be eliminated in obtaining the optical flow.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自動車などの車両の前
部に設置したビデオカメラによって撮像した画像を用い
て、車両の走行の際に前方の車両又は障害物を検知し運
転者に警告を与えるための車両用前方監視方法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects a vehicle in front of a vehicle or an obstacle when the vehicle is traveling by using an image picked up by a video camera installed in a front portion of a vehicle such as an automobile and warns a driver. The present invention relates to a front monitoring method for a vehicle for giving

【0002】[0002]

【従来の技術】従来、この種の方法として、例えば特願
平2−241855号公報に開示されたものがある。同
公報に開示された方法は、走行している自車両から前景
を撮影し、この撮影した前景の同一点の移動を所定時間
毎にオプティカルフローとして認識し、このオプティカ
ルフローと前方車両との車間距離を測定する距離センサ
をもとに自車両に対する先行車両の位置、相対速度から
なる情報を得、この情報をもとに危険と判断した場合に
運転者にその旨を知らせるものである。
2. Description of the Related Art Conventionally, as this type of method, for example, there is one disclosed in Japanese Patent Application No. 2-241855. According to the method disclosed in the publication, a foreground is photographed from a moving vehicle, the movement of the same point of the photographed foreground is recognized as an optical flow at every predetermined time, and the distance between the optical flow and a vehicle in front is detected. Information about the position and relative speed of the preceding vehicle with respect to the own vehicle is obtained based on the distance sensor that measures the distance, and the driver is informed of that fact based on this information.

【0003】また、オプティカルフローを求めるため
に、従来、2コマの画像間で対応する点を検出するマッ
チング法と呼ばれる手法が採用されていた。このマッチ
ング法は、図9(a)に示す時点tにおける画像上にお
いて着目する画素Pに対し窓W1をとり、画像内全域又
は周辺の領域に対し窓を移動しながら相関値を計算し、
図9(b)に示すように、相関値が最大となった窓W2
の点を対応点、すなわち対応する画素Qとして求め、こ
のPQ(矢印)がオプティカルフローとなる。上記相関
値を求めるためには、 Σ(W1(x,y) ×W2(x,y) )/(ΣW12 (x,y) ×ΣW22 (x,y) 1/2 ……(1) なる計算を行う。なお、W1(x,y) ,W2(x,y) は窓W
1,W2内の(x,y)座標の出力である。
Further, in order to obtain an optical flow, a method called a matching method for detecting corresponding points between images of two frames has been conventionally used. In this matching method, a window W1 is taken for a pixel P of interest on the image at time t shown in FIG. 9A, and a correlation value is calculated while moving the window to the entire area of the image or a peripheral area,
As shown in FIG. 9B, the window W2 having the maximum correlation value
Is obtained as the corresponding point, that is, the corresponding pixel Q, and this PQ (arrow) becomes the optical flow. To obtain the above correlation value, Σ (W1 (x, y) × W2 (x, y) ) / (ΣW1 2 (x, y) × ΣW2 2 (x, y) ) 1/2 (1 ) Is calculated. Note that W1 (x, y) and W2 (x, y) are windows W
1, the output of (x, y) coordinates in W2.

【0004】[0004]

【発明が解決しようとする課題】しかし、このような従
来の方法では、危険を判断するために、前景を撮影する
ビデオカメラに加え、自車両に対する先行車両の位置を
知るために前方車両との車間距離を測定するための距離
センサをも同時に必要としている。
However, in such a conventional method, in addition to a video camera for photographing the foreground in order to judge a danger, in order to know the position of the preceding vehicle with respect to the own vehicle, At the same time, a distance sensor for measuring the inter-vehicle distance is needed.

【0005】また、オプティカルフローを求めるため
に、2枚の画像間で対応する点を検出するという演算処
理を行う必要があるが、上述したようにこの演算処理
は、ある一点の対応点を検出するために、画像内の一画
素に対し、画像内の全領域あるいは周辺の領域の全ての
画素に対して検索を行うといったものである。画像全体
にわたって対応点を検出するためには、この処理を全画
素に対して行わなければならない。また、検索を行うた
めに指標として使用する相関値を求めるためにも多くの
計算を必要とする。
Further, in order to obtain the optical flow, it is necessary to perform a calculation process of detecting a corresponding point between two images. As described above, this calculation process detects a certain corresponding point. In order to do so, one pixel in the image is searched for in all pixels in the entire area in the image or in the peripheral area. This process must be performed on all pixels in order to detect corresponding points throughout the image. Also, many calculations are required to obtain the correlation value used as an index for performing the search.

【0006】従って、計算量が膨大になるため実時間化
が困難であったり、実現するためには、高速度の演算処
理装置を必要とするため装置自体が高価格化してしまう
というような問題があげられる。また、オプティカルフ
ローが、先行車両の部分から生じているものか、道路外
の風景または路面上の文字や記号あるいは白線などから
生じているものかといったことを区別することが困難で
あるという問題点もあげられる。
Therefore, there is a problem in that the amount of calculation becomes enormous, so that real-time processing is difficult, and in order to realize it, a high-speed arithmetic processing device is required and the device itself becomes expensive. Can be given. In addition, it is difficult to distinguish whether the optical flow is caused by the part of the preceding vehicle, the scenery outside the road, the characters or symbols on the road surface, or the white line. Can also be given.

【0007】よって本発明は、上述した従来の問題点に
鑑み、先行車両との間の距離を計測することなく、車両
前部に設置したビデオカメラからの前景画像を用いて、
前方の走行車両や他の障害物による危険度を自動的に判
定できるようにした車両用前方監視方法を提供すること
を目的としている。
Therefore, in view of the above-mentioned conventional problems, the present invention uses the foreground image from the video camera installed in the front part of the vehicle without measuring the distance to the preceding vehicle,
It is an object of the present invention to provide a vehicle front monitoring method capable of automatically determining the degree of danger due to a traveling vehicle in front and other obstacles.

【0008】また本発明は、ビデオカメラで撮像した前
景において、所定時間毎に同一点の移動をオプティカル
フローとして高速に認識することができるようにした車
両用前方監視方法を提供することを目的としている。
It is another object of the present invention to provide a vehicle front monitoring method capable of quickly recognizing movement of the same point as an optical flow in a foreground imaged by a video camera every predetermined time. There is.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
本発明によりなされた車両用前方監視方法は、走行して
いる自車両から前景を撮像し、この撮像した前景の同一
点の移動を所定時間相前後する2コマの画像に基づいて
オプティカルフローとして認識し、該オプティカルフロ
ーをもとに自車両に対する先行車両又は障害物を監視す
る車両用前方監視方法において、前記先行車両又は障害
物上の点の前記オプティカルフローの大きさにより危険
度を判断することを特徴としている。
In order to achieve the above object, a vehicle front monitoring method according to the present invention takes a foreground image from a moving vehicle, and a predetermined movement of the same point of the taken foreground is determined. A front monitoring method for a vehicle, which recognizes an optical flow based on images of two frames before and after a time phase, and monitors a preceding vehicle or an obstacle with respect to the own vehicle based on the optical flow. It is characterized in that the degree of danger is judged based on the magnitude of the optical flow of the points.

【0010】上記車両用前方監視方法において、所定時
間相前後する2コマの画像における前の画像において走
行している自車両の進行方向を示す1点に対応する無限
遠点から着目する1点に対して放射状の方向にその1点
を中心とする細長い窓を設定し、後の画面において該窓
を前記無限遠点から放射方向に移動しながら、前記前の
画像での窓との輝度差の絶対値の総和を求め、該総和が
最小になったときの窓の移動量を着目する1点のオプテ
ィカルフローとして求めることを特徴としている。
In the above vehicle front monitoring method, one point to be noted from the point at infinity corresponding to one point indicating the traveling direction of the own vehicle traveling in the previous image in the two frames before and after the predetermined time. On the other hand, a long and narrow window centered on that one point is set in the radial direction, and while the window is moved in the radial direction from the point at infinity on the subsequent screen, the brightness difference from the window in the previous image is The feature is that the total sum of absolute values is obtained, and the movement amount of the window when the total sum is minimized is obtained as an optical flow of one point of interest.

【0011】上記車両用前方監視方法において、所定時
間相前後する2コマの画像で輝度差を求め、該輝度差が
ある一定のしきい値を越えた点についてオプティカルフ
ローを求めることを特徴としている。
The above vehicle front monitoring method is characterized in that a brightness difference is obtained from images of two frames before and after a predetermined time period, and an optical flow is calculated at a point where the brightness difference exceeds a certain threshold value. .

【0012】上記車両用前方監視方法において、オプテ
ィカルフローを求めるに当たって道路外の風景や路面の
車線や文字、記号などから生じるオプティカルフローを
除去することを特徴としている。
In the above vehicle front monitoring method, the optical flow generated from the scenery outside the road, the lanes on the road surface, the characters, the symbols, etc. is removed when the optical flow is obtained.

【0013】オプティカルフローを求めるに当たって道
路外の風景に相当する領域を予め設定し、該設定した領
域の処理を行わないことを特徴としている。
In obtaining the optical flow, a region corresponding to the scenery outside the road is set in advance, and the set region is not processed.

【0014】走行している自車両から前景を撮像するビ
デオカメラを備え、オプティカルフロー情報をもとにオ
プティカルフローが生じている路面上の車線や文字、記
号などからビデオカメラまでの高さを求め、該高さが路
面からのカメラの高さと一致しているオプティカルフロ
ーを除去することを特徴としている。
A video camera for picking up a foreground image from a running vehicle is provided, and the height from the lane, characters, or symbols on the road surface where the optical flow is generated to the video camera is obtained based on the optical flow information. The optical flow whose height matches the height of the camera from the road surface is removed.

【0015】予め定めた領域を複数の区域に分け、各区
域に存在するオプティカルフローベクトルの長さの総和
に対して区域毎に重み付けし、この重み付けした値によ
って危険の度合を判断することを特徴としている。
The predetermined area is divided into a plurality of areas, the total sum of the lengths of optical flow vectors existing in each area is weighted for each area, and the degree of danger is judged by the weighted value. I am trying.

【0016】各区域毎に所定のしきい値を設定し、前記
重み付けされたオプティカルフローベクトル長さの総和
が該しきい値を越えた区域を危険と判断することを特徴
としている。
A predetermined threshold value is set for each area, and an area in which the sum of the weighted optical flow vector lengths exceeds the threshold value is judged to be dangerous.

【0017】前記しきい値が数レベルからなり、前記重
み付けされたオプティカルフロー長さの総和が越えたし
きい値のレベルにより危険度のレベルを判断することを
特徴としている。
The threshold is composed of several levels, and the level of risk is judged by the level of the threshold exceeded by the sum of the weighted optical flow lengths.

【0018】求められた危険度の大きさに従って警報を
発することを特徴としている。
It is characterized in that an alarm is issued in accordance with the determined degree of danger.

【0019】[0019]

【作用】上記方法によれば、先行車両又は障害物との距
離が小さい程、また相対速度が大きい程、オプィカルフ
ローが大きくなることに着目して、先行車両又は路上障
害物上の点のオプティカルフローの大きさにより危険を
判断するようにしているので、格別先行車両との間の距
離を測定するための距離計を設ける必要がなくなってい
る。
According to the above method, the optical flow becomes larger as the distance to the preceding vehicle or the obstacle is smaller and the relative speed is larger. Since the danger is judged based on the magnitude of the optical flow, it is not necessary to provide a range finder for measuring the distance to the preceding vehicle.

【0020】オプティカルフローが自車両の進行方向を
示す1点に対応する無限遠点から放射状の方向に形成さ
れることに着目して、2コマの画像のうちの前の画像に
おいて、走行している自車両の進行方向を示す1点に対
応する無限遠点から、着目する1点に対して放射状の方
向に細長い窓を設定し、後の画面において該窓を前記無
限遠点から放射方向に移動しながら、前記前の画像での
窓と該窓に重なるあとの画像の領域との輝度差の絶対値
の総和を求め、該総和が最小になったときの窓の位置と
該窓の前の画像における設定位置とのそれぞれの中心点
間を結ぶ矢印を1点のオプティカルフローと定めるよう
にしているので、計算量の軽減となって処理の高速化が
行える。
Paying attention to the fact that the optical flow is formed in the radial direction from the point at infinity corresponding to one point indicating the traveling direction of the host vehicle, traveling in the previous image of the two frame images is performed. From a point at infinity corresponding to a point indicating the traveling direction of the own vehicle, a narrow window is set in a radial direction with respect to the point of interest, and the window is set in a radial direction from the point at infinity on a later screen. While moving, the sum of the absolute values of the brightness differences between the window in the previous image and the area of the subsequent image overlapping the window is obtained, and the position of the window when the total is minimum and the front of the window. Since the arrow connecting the respective center points with the set position in the image is defined as the optical flow of one point, the amount of calculation is reduced and the processing speed can be increased.

【0021】画像内に含まれる空や路面のように時間的
な輝度変化のない場所があることに着目して、所定時間
相前後する2コマの画像で輝度差を求め、該輝度差があ
る一定のしきい値を越えた点についてオプティカルフロ
ーを求めるようにしているので、オプティカルフローを
求める画像内の点の数が大幅に減少し、無駄な処理を省
くことが可能となり高速化が行える。
Paying attention to the place where the brightness does not change with time such as the sky or the road surface included in the image, the brightness difference is obtained from the images of two frames which are before and after a predetermined time, and there is the brightness difference. Since the optical flow is calculated for points that exceed a certain threshold, the number of points in the image for which the optical flow is calculated is greatly reduced, and unnecessary processing can be omitted, resulting in high speed processing.

【0022】オプティカルフローを求めるに当たって走
行予定車線外の風景から生じているオプティカルフロー
を除去するために走行予定車線外の風景に相当する領域
を予め設定し、該設定した領域の処理を行わないように
しているので、処理時間の高速化が行える。
In order to remove the optical flow generated from the scenery outside the planned driving lane in obtaining the optical flow, an area corresponding to the scenery outside the planned driving lane is set in advance, and the processing of the set area is not performed. Therefore, the processing time can be shortened.

【0023】走行している自車両から前景を撮像するビ
デオカメラを備え、オプティカルフロー情報を用いてオ
プティカルフローが生じている路面上の車線や文字、記
号などからビデオカメラまでの高さを求め、該高さが路
面からのカメラの高さと一致しているオプティカルフロ
ーを除去することにより、前方他車、障害物のみから生
じているオプティカルフローだけを処理することがで
き、オプティカルフローを用いて危険度を知ることが可
能になると共に、処理時間の高速化が行える。
A video camera for picking up a foreground image from a running vehicle is used, and the height from the lane, characters, or symbols on the road surface where the optical flow is generated to the video camera is obtained using the optical flow information. By removing the optical flow whose height matches the height of the camera from the road surface, it is possible to process only the optical flow generated only by other vehicles in front and obstacles, and it is dangerous to use the optical flow. It is possible to know the degree and speed up the processing time.

【0024】予め定めた領域を複数の区域に分け、各区
域に存在するオプティカルフローの長さの総和に対して
区域毎に重み付けし、この重み付けした値によって危険
の存在を判断しているので、どの位置に危険があるかを
知ることができる。また、各区域毎に所定のしきい値を
設定し、オプティカルフローベクトル長さの総和が該し
きい値を越えた区域を危険と判断し区域毎に危険度をし
ることができる。更に、しきい値が数レベルからなり、
オプティカルフローベクトル長さの総和が越えたしきい
値のレベルにより危険度のレベルを判断し、求められた
危険度の大きさに従って警報を発するようにしている。
Since the predetermined area is divided into a plurality of areas, the sum of the lengths of the optical flows existing in each area is weighted for each area, and the existence of danger is judged by the weighted value. You can know which position is dangerous. Further, a predetermined threshold value can be set for each area, and the area where the sum of the optical flow vector lengths exceeds the threshold value is judged to be dangerous, and the degree of danger can be set for each area. Furthermore, the threshold consists of several levels,
The level of risk is judged by the level of the threshold value over which the sum of the optical flow vector lengths exceeds, and an alarm is issued according to the calculated level of risk.

【0025】[0025]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明による方法を実施するための装置の
構成を示し、同図において、1は前景を撮像するビデオ
カメラ、2はビデオカメラ1によって得られた画像を入
力し、後述する画像処理を行う演算処理装置、3は自車
両の速度を計測する速度計、4は演算処理装置2の画像
処理結果と速度計3から得られる自車両速度とを入力し
て危険度判定処理を行う演算処理装置、5は警報装置で
ある。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the arrangement of an apparatus for carrying out the method according to the present invention, in which 1 is a video camera for capturing the foreground, 2 is an image obtained by the video camera 1, and image processing described later is performed. An arithmetic processing device for performing 3, a speedometer for measuring the speed of the own vehicle, and 4 for inputting an image processing result of the arithmetic processing device 2 and the own vehicle speed obtained from the speedometer 3 to perform risk determination processing. Devices 5 are alarm devices.

【0026】図2は、ビデオカメラ1によって得られる
前景画像の変化を説明するための図であり、(b)は
(a)に示す自車両を含む状況においてビデオカメラ1
が時間tで撮像した画像、(c)は時間t+Δtで撮像
した画像をそれぞれ示す。
FIG. 2 is a diagram for explaining changes in the foreground image obtained by the video camera 1, and FIG. 2 (b) is a video camera 1 in the situation including the own vehicle shown in FIG. 2 (a).
Shows an image taken at time t, and (c) shows an image taken at time t + Δt.

【0027】今、自車両は平坦な道を直進しているとす
る。例えば(a)に示される道路標識及び建物に注目す
ると、時間の経過により時間t、時間t+Δtにおい
て、(b)、(c)に示されるような画像が得られる。
この2枚の画像において対応する点を捜しそれらを結ぶ
と(d)に示されるような速度ベクトルが得られる。こ
れがオプティカルフローである。
Now, it is assumed that the vehicle is going straight on a flat road. For example, when attention is paid to the road signs and buildings shown in (a), the images shown in (b) and (c) are obtained at time t and time t + Δt as time passes.
By searching for corresponding points in these two images and connecting them, a velocity vector as shown in (d) is obtained. This is the optical flow.

【0028】ここでこれらオプティカルフローは、画像
内のFOE(Focus of Expansion)とよばれる1点から
放射状に現れる。FOEとは、無限遠点又は消失点と呼
ばれ、車両が直進している場合画像上において自車両の
進行方向を示す1点に対応する。このように、自車両が
走行している場合に求められるオプティカルフローは、
FOEから放射状の方向である。ここで先行車両から発
せられたオプティカルフローは、自車両に対する先行車
両の位置、相対速度からなる情報を含んでおり、オプテ
ィカルフローが長い程危険度が高いと考えられる。
Here, these optical flows appear radially from one point called FOE (Focus of Expansion) in the image. The FOE is called an infinity point or vanishing point, and corresponds to one point indicating the traveling direction of the host vehicle on the image when the vehicle is traveling straight. In this way, the optical flow required when the host vehicle is traveling is
Radial direction from FOE. Here, the optical flow emitted from the preceding vehicle includes information including the position and the relative speed of the preceding vehicle with respect to the own vehicle, and it is considered that the longer the optical flow, the higher the risk.

【0029】次に、その詳細を図3を参照して説明す
る。同図の光学的配置おいて、11はビデオカメラのレ
ンズ、12はビデオカメラのイメージプレーン、fはレ
ンズ11からイメージプレーン12までの距離、P
(X,Y,Z)は先行車両又は障害物上の任意の1点、
p(x,y)はイメージプレーン12上の点Pに対応す
る点とすると、3角形の相似の比から x=f・X/Z ……(2) となる。
Next, the details will be described with reference to FIG. In the optical arrangement of the figure, 11 is the lens of the video camera, 12 is the image plane of the video camera, f is the distance from the lens 11 to the image plane 12, and P
(X, Y, Z) is any one point on the preceding vehicle or obstacle,
If p (x, y) is a point corresponding to the point P on the image plane 12, then x = f · X / Z (2) from the similarity ratio of the triangle.

【0030】この式を変形して、時間微分すると、 X’=(Δx/Δt・Z+x・Z’)/f ……(3) となる。また、オプティカルフローのx方向成分uとは u=Δx/Δt ……(4) であるので、これを用いて Z=(f・X’−x・Z’)/u ……(5) となる。When this equation is modified and time-differentiated, X '= (Δx / ΔtZ + xZ') / f (3) Further, the x-direction component u of the optical flow is u = Δx / Δt (4), so that it is used as Z = (f · X′−x · Z ′) / u (5) Become.

【0031】ここで Z’=先行車両ないし障害物と自車両との相対速度=−α ……(6) であるから上式(5)は Z=(f・X’+xα)/u ……(7) となる。よってオプティカルフローのx方向成分uは u=(f・X’+xα)/Z ……(8) となる。Yについても同様に求まる。Here, Z ′ = relative speed between the preceding vehicle or the obstacle and the host vehicle = −α (6) Therefore, the above equation (5) is Z = (f · X ′ + xα) / u. (7) Therefore, the x-direction component u of the optical flow is u = (f · X ′ + xα) / Z (8). The same applies to Y.

【0032】よって上式(8)より、Zが小、すなわち
先行車両又は障害物までの距離が小である程、又はαが
大、すなわち先行車両との相対速度が大である程、オプ
ティカルフローのx成分は大きくなる。これはY方向に
ついても同様である。従って、オプティカルフローは先
行車両などとの距離が小な程、更に相対速度が大な程長
くなり、これよりオプティカルフローが短いときより長
いときの方が相対的に先行車両又は障害物に対する危険
度が大きいと考えられる。
Therefore, from the above equation (8), the smaller the Z is, that is, the smaller the distance to the preceding vehicle or the obstacle, or the larger is the α, that is, the larger the relative speed with respect to the preceding vehicle, the optical flow. X component of is large. This also applies to the Y direction. Therefore, the optical flow becomes longer as the distance to the preceding vehicle becomes smaller and the relative speed becomes larger, and when the optical flow is longer than this, the risk to the preceding vehicle or obstacle is relatively high. Is considered to be large.

【0033】本発明では、オプティカルフローがFOE
から放射状の向きに求められるということを利用し、高
速にオプティカルフローを求めるようにしており、その
方法を図4に基づいて以下説明する。
In the present invention, the optical flow is FOE.
The optical flow is obtained at a high speed by utilizing the fact that the optical flow is obtained in a radial direction from, and the method will be described below with reference to FIG.

【0034】図4は、高速にオプティカル・フローを求
める方法の一実施例を示した図である。まず、始めに時
間tでの画像において着目する一点に対しFOEから放
射状の方向に細長い窓を設定する(図4(a))。次
に、時間t+Δtでの画像において、窓をFOEから放
射状の方向に一点づつ移動しながら、時間tでの窓との
輝度差の絶対値の総和を求める。そして総和が最小にな
ったときの窓の移動量が、着目する一点の速度ベクトル
として求められる(図4(b))。なお、上記輝度差
は、窓を構成する各画素について、例えば(a)及び
(b)に○で示す対応する位置の画素間のものである。
以上のような処理を時間tの画像の全ての点において繰
り返し行うことにより、画像全体のオプティカルフロー
を求めることができる。
FIG. 4 is a diagram showing an embodiment of a method for obtaining an optical flow at high speed. First, a narrow window is set in the radial direction from the FOE for one point of interest in the image at the time t (FIG. 4A). Next, in the image at time t + Δt, the sum of the absolute values of the brightness differences from the window at time t is obtained while moving the window from the FOE in the radial direction one point at a time. Then, the amount of movement of the window when the total sum becomes the minimum is obtained as the velocity vector of one point of interest (FIG. 4 (b)). Note that the above-mentioned luminance difference is, for each pixel forming the window, between pixels at corresponding positions indicated by ◯ in (a) and (b), for example.
The optical flow of the entire image can be obtained by repeatedly performing the above processing at all points of the image at time t.

【0035】また、従来の方法では、対応する窓同士を
比べる際に、相互相関値を用いていた。それに対し本発
明の方法では、輝度差の絶対値の総和を用いているの
で、計算量の軽減となり、処理の高速化が行える。
Further, in the conventional method, the cross-correlation value is used when comparing the corresponding windows. On the other hand, in the method of the present invention, the total sum of the absolute values of the brightness differences is used, so the amount of calculation is reduced and the processing speed can be increased.

【0036】本発明では更に、画像内の全ての点に対し
速度ベクトルを求めているのではなく、時間tと時間t
+Δtとの画像で差を求め、その差である一定のしきい
値を越えた点だけに対し処理を行うようにしている。
Further, the present invention does not obtain the velocity vector for every point in the image, but rather at time t and time t.
The difference is calculated from the image of + Δt, and the processing is performed only for points that exceed a certain threshold value that is the difference.

【0037】一般に、車両走行中に前景を映した画像に
は、空や路面のように時間的な輝度変化がない場所が多
い。このような場所では、原理的にオプティカルフロー
を求めることが不可能である。従って、本発明の方法の
ように、時間tでの画像と時間t+Δtでの画像内で、
輝度差のあるとことに着目して処理を行うことにより、
無駄な処理を省くことが可能となり高速化が行える。
In general, an image showing the foreground while the vehicle is traveling is often a place where there is no temporal change in luminance such as the sky or the road surface. In such a place, in principle, it is impossible to obtain the optical flow. Therefore, as in the method of the present invention, within the image at time t and the image at time t + Δt,
By focusing on the fact that there is a brightness difference,
Useless processing can be omitted, and the speed can be increased.

【0038】上述したような方法によって、高速にオプ
ティカルフローが求められる。しかし、ここで求まった
オプティカルフローには、道路以外の風景や路面の車線
などの障害物ではないものによって生じているオプティ
カルフローが含まれている。従って、ここで求められて
いるオプティカルフローを用いて前方の障害物の存在又
はその障害物による危険度を求めることは困難である。
よって、道路外の風景や路面の車線から生じているオプ
ティカルフローを除去する必要がある。次に、この方法
について説明する。
By the method as described above, the optical flow can be obtained at high speed. However, the optical flow obtained here includes the optical flow caused by non-obstacles such as landscapes other than roads and lanes on the road surface. Therefore, it is difficult to determine the presence of a front obstacle or the risk of the obstacle by using the optical flow obtained here.
Therefore, it is necessary to remove the optical flow generated from the scenery outside the road or the lane on the road surface. Next, this method will be described.

【0039】図5は、道路外の風景によるオプティカル
フローを除去する方法の一実施例である。同図において
斜線が引かれている位置が、道路上を示しているとし
て、それ以外の場所では、処理を行わないものとする。
こうすることにより、始めから道路外の風景から生じる
オプティカルフローは求まらないことになり、なおかつ
領域を制限することにより、処理時間の高速化が行える
こととなる。
FIG. 5 shows an embodiment of a method for removing the optical flow due to the scenery outside the road. It is assumed that the hatched position in the figure indicates the road, and the process is not performed at other positions.
By doing so, the optical flow generated from the scenery outside the road cannot be found from the beginning, and the processing time can be shortened by limiting the area.

【0040】次に、路面上のマークを消す方法について
図を用いて説明する。図6はこの方法の一実施例であ
り、まず光学的構成を説明する。図6はビデオカメラを
設置した車両が直進する代わりに、路面全体が近づいて
きたと仮定して描かれている。11は前方を撮像するビ
デオカメラのレンズ、12はビデオカメラのイメージプ
レーンを示す。13及び14は移動前後の車線を表して
いる。レンズの中心を原点とする3次元座標と、イメー
ジプレーン2上で上記FOEを原点とする2次元座標を
考える。
Next, a method of erasing the mark on the road surface will be described with reference to the drawings. FIG. 6 shows an example of this method, and the optical configuration will be described first. FIG. 6 is drawn on the assumption that the entire road surface is approaching instead of the vehicle equipped with the video camera going straight. Reference numeral 11 denotes a lens of a video camera which images the front, and 12 denotes an image plane of the video camera. Reference numerals 13 and 14 represent lanes before and after movement. Consider three-dimensional coordinates with the center of the lens as the origin and two-dimensional coordinates with the FOE on the image plane 2 as the origin.

【0041】移動前の車線の位置をP(X,Y,Z+Δ
Z)、Z方向にΔZ移動後の位置をQ(X,Y,Z)と
すると、2つの3角形の相似比より式(1)のようにオ
プティカルフローの生じている車線のビデオカメラまで
の高さを知ることができる。 Y=y2 ΔZ/fΔy ……(9) この求まった高さ情報を用いて、高さがビデオカメラ高
と一致している、つまり路面上のマークなどによって生
じているオプティカルフローを除去することができる。
The position of the lane before movement is P (X, Y, Z + Δ
Z), and the position after ΔZ movement in the Z direction is Q (X, Y, Z), from the similarity ratio of the two triangles to the video camera in the lane where the optical flow occurs as shown in equation (1). You can know the height. Y = y 2 ΔZ / fΔy (9) By using the obtained height information, the optical flow whose height matches the height of the video camera, that is, the optical flow caused by marks on the road surface is removed. You can

【0042】ここで、ΔZは2枚の画像の時間間隔Δt
の間に前進した距離であり、車両速度を知ることにより
求めることができる。以上説明したような処理によっ
て、前方の障害物以外から生じているオプティカルフロ
ーを除去することが可能となる。従って、いま残されて
いるオプティカルフローの位置及び長さから前方の障害
物がどの程度危険であるかを示す危険度を求めることが
可能となる。
Here, ΔZ is the time interval Δt between two images.
It is the distance traveled during the period and can be obtained by knowing the vehicle speed. By the processing as described above, it becomes possible to remove the optical flow generated from other than the obstacle ahead. Therefore, it is possible to determine the degree of danger indicating how dangerous the obstacle ahead is from the position and length of the remaining optical flow.

【0043】次に、危険度を求める方法について説明す
る。図7はこの方法の一実施例を示すものである。まず
構成を説明すると、I 〜IVの各領域はそれぞれ自車線の
遠方、自車線の近方、隣車線の遠方、隣車線の近方を示
している。ここで危険度は、各領域に存在するオプティ
カルフローの長さの総和に対して各区域毎に重み付け
し、この重み付けした値によって求められる。更に、各
領域毎に所定のしきい値を設定しておき、フロー長さの
総和がこのしきい値を越えたらしきい値を越えた領域は
危険と判断される。しきい値を数レベル設定しておき、
危険度のレベルを判断することもできる。
Next, a method of obtaining the degree of risk will be described. FIG. 7 shows an embodiment of this method. First, the configuration will be described. Each of the areas I to IV indicates the distance of the own lane, the distance of the own lane, the distance of the adjacent lane, and the distance of the adjacent lane. Here, the degree of risk is obtained by weighting the total sum of the lengths of the optical flows existing in each region for each area and using the weighted value. Further, a predetermined threshold value is set for each area, and if the total flow length exceeds this threshold value, the area exceeding the threshold value is judged to be dangerous. Set several threshold levels,
It is also possible to judge the level of risk.

【0044】最後に、求められた危険度の大きさに従っ
て警報を鳴らすことによって運転者に対し注意を促せる
ことが可能となる。また、ディスプレイ上にどの領域が
どの程度危険かを表示することも可能になる。さらに危
険レベルにより警報の音色などの種類を変えることも可
能である。
Finally, it becomes possible to call the driver's attention by sounding an alarm according to the calculated degree of danger. It is also possible to display which area is dangerous and how dangerous it is on the display. Furthermore, it is possible to change the type of the alarm tone, etc., depending on the danger level.

【0045】以上説明した本発明の方法による画像処理
の手順を要約して示すと、図8のようになる。まず、ス
テップS1において時間tでの画像を取り込み、次にス
テップS2において時間t+Δtでの画像を取り込む。
その後ステップS3においてFOEの設定を行い、続く
ステップS4において処理領域の設定を行う。続いてス
テップS5に進み、ここで時間tと時間t+Δtの画像
で輝度差が一定のしきい値を越えた領域を抽出する。そ
の後ステップS6に進んで抽出した領域内でオプティカ
ルフローを求め、次のステップS7において道路上のオ
プティカルフローを除去し、更に次のステップS8にお
いて各区域毎に重み付けした値によって危険度を計算す
る。
The image processing procedure according to the method of the present invention described above is summarized and shown in FIG. First, in step S1, the image at time t is captured, and then in step S2, the image at time t + Δt is captured.
After that, the FOE is set in step S3, and the processing area is set in the following step S4. Then, the process proceeds to step S5, and the region where the brightness difference exceeds a certain threshold is extracted from the image at time t and time t + Δt. After that, the process proceeds to step S6, an optical flow is obtained in the extracted region, the optical flow on the road is removed in the next step S7, and the risk degree is calculated by the value weighted for each area in the next step S8.

【0046】[0046]

【発明の効果】以上説明したように本発明によれば、前
方障害物の存在又はその危険度を自動的に判断できるた
め、車両の安全運転が可能となる。
As described above, according to the present invention, it is possible to automatically determine the presence or the degree of danger of a front obstacle, so that the vehicle can be driven safely.

【0047】特に、先行車両又は障害物上の点のオプテ
ィカルフローの大きさにより危険を判断するようにして
いて、走行している自車両から前景を撮像するビデオカ
メラを1台前方に設置し、格別先行車両との間の距離を
測定するための距離計を設ける必要がなくなっているの
で、低コストで実現可能である。
In particular, the danger is judged by the magnitude of the optical flow of the preceding vehicle or the point on the obstacle, and one video camera for picking up the foreground from the moving own vehicle is installed in front of the vehicle. Since it is no longer necessary to provide a range finder for measuring the distance to a particularly preceding vehicle, it can be realized at low cost.

【0048】また、計算量の軽減、無駄な処理を省略、
処理領域の制限などにより、処理の高速化が行え、実時
間処理が容易になる。
Further, the calculation amount is reduced, unnecessary processing is omitted,
By limiting the processing area, the processing speed can be increased and real-time processing becomes easier.

【0049】更に、危険区域及びその度合いを知って適
切な警報を発することができるなどの効果が得られる。
Further, it is possible to obtain an effect that an appropriate alarm can be issued by knowing the dangerous area and its degree.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による方法を実施するための装置の一例
を示すブロック図である。
1 is a block diagram showing an example of an apparatus for carrying out the method according to the invention.

【図2】図1のビデオカメラが撮像する前景、画像及び
得られるオプティカルフローを示す図である。
2 is a diagram showing a foreground image captured by the video camera of FIG. 1, an image, and an obtained optical flow. FIG.

【図3】本発明の方法による障害物などの検出の仕方を
説明するための図である。
FIG. 3 is a diagram for explaining a method of detecting an obstacle or the like by the method of the present invention.

【図4】本発明の方法によりオプティカルフローの求め
方を説明するための図である。
FIG. 4 is a diagram for explaining how to obtain an optical flow by the method of the present invention.

【図5】本発明の方法によりオプティカルフローの求め
るため設定した領域の一例を示す図である。
FIG. 5 is a diagram showing an example of a region set to obtain an optical flow by the method of the present invention.

【図6】本発明の方法により路面上の車線によるオプテ
ィカルフローの除去の仕方を説明するための図である。
FIG. 6 is a diagram for explaining a method of removing optical flow due to a lane on a road surface by the method of the present invention.

【図7】本発明の方法により危険度を判定するため分け
た区域の一例を示す図である。
FIG. 7 is a diagram showing an example of divided areas for determining the degree of risk by the method of the present invention.

【図8】本発明の方法の一連の処理を示す図である。FIG. 8 is a diagram showing a series of processes of the method of the present invention.

【図9】従来の方法の問題点を説明するための図であ
る。
FIG. 9 is a diagram for explaining a problem of the conventional method.

【符号の説明】[Explanation of symbols]

1 ビデオカメラ 2,4 演算処理装置 5 警報装置 1 Video camera 2, 4 Arithmetic processing device 5 Alarm device

【手続補正書】[Procedure amendment]

【提出日】平成5年5月12日[Submission date] May 12, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0041[Correction target item name] 0041

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0041】移動前の車線の位置をP(X,Y,Z)
Z方向にΔZ移動後の位置をQ(X,Y,Z−ΔZ)
すると、2つの3角形の相似比より式(1)のようにオ
プティカルフローの生じている車線のビデオカメラまで
の高さを知ることができる。 Y=y2 ΔZ/fΔy ……(9) この求まった高さ情報を用いて、高さがビデオカメラ高
と一致している、つまり路面上のマークなどによって生
じているオプティカルフローを除去することができる。 ─────────────────────────────────────────────────────
The position of the lane before movement is P (X, Y, Z) ,
Assuming that the position after moving ΔZ in the Z direction is Q (X, Y, Z−ΔZ) , from the similarity ratio of the two triangles, the height up to the video camera in the lane where the optical flow is generated is expressed by the equation (1). You can know that. Y = y 2 ΔZ / fΔy (9) By using the obtained height information, the optical flow whose height matches the height of the video camera, that is, the optical flow caused by marks on the road surface can be removed. ─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年5月12日[Submission date] May 12, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図4[Name of item to be corrected] Fig. 4

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図4】 [Figure 4]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図8[Correction target item name] Figure 8

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図8】 [Figure 8]

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐々木 一幸 静岡県裾野市御宿1500 矢崎総業株式会社 内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kazuyuki Sasaki 1500 Onjuku, Susono, Shizuoka Prefecture Yazaki Corporation

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 走行している自車両から前景を撮像し、
所定時間相前後する2コマの画像中の同一点の移動をオ
プティカルフローとして検出し、自車両に対する先行車
両又は路上障害物の相対関係を監視する車両用前方監視
方法において、 前記先行車両又は路上障害物上の点に対して現れるオプ
ティカルフローのベクトルの大小及び出現位置の如何に
よって危険度を判断することを特徴とする車両用前方監
視方法。
1. An image of a foreground is taken from a moving vehicle,
A forward monitoring method for a vehicle, which detects a movement of the same point in images of two frames before and after a predetermined time period as an optical flow, and monitors a relative relationship of a preceding vehicle or a road obstacle with respect to the own vehicle. A forward monitoring method for a vehicle, characterized in that the degree of danger is judged according to the magnitude and appearance position of a vector of an optical flow that appears with respect to a point on an object.
【請求項2】 所定時間相前後する2コマの画像のうち
の前の画像において、走行している自車両の進行方向を
示す1点に対応する無限遠点から、着目する1点に対し
て放射状の方向に細長い窓を設定し、後の画像において
該窓を前記無限遠点から放射方向に移動しながら、前記
前の画像での窓と該窓に重なる後の画像の領域との輝度
差の絶対値の総和を求め、該総和が最小になったときの
窓の位置と該窓の前の画像における設定位置とのそれぞ
れの中心点間を結ぶ矢印を1点のオプティカルフローと
定めることを特徴とする請求項1記載の車両用前方監視
方法。
2. In the previous image of the two frame images which are before and after a predetermined time period, from the point at infinity corresponding to one point indicating the traveling direction of the traveling own vehicle, with respect to one point of interest Setting a narrow window in a radial direction, and moving the window in the subsequent image from the point at infinity in the radial direction, the brightness difference between the window in the previous image and the region in the subsequent image overlapping the window. The sum of the absolute values of is calculated, and the arrow connecting the center points of the position of the window when the total is minimized and the set position in the image in front of the window is defined as one optical flow. The vehicle front monitoring method according to claim 1, wherein the front monitoring method is a vehicle.
【請求項3】 所定時間相前後する2コマの画像間で各
点の輝度差を求め、該輝度差がある一定のしきい値を越
えている点についてのみオプティカルフローを求めるこ
とを特徴とする請求項1記載の車両用前方監視方法。
3. A brightness difference at each point between images of two frames before and after a predetermined time period, and an optical flow is calculated only at a point where the brightness difference exceeds a certain threshold value. The vehicle forward monitoring method according to claim 1.
【請求項4】 オプティカルフローを求めるに当たって
道路外の風景や路面上に描かれた車線や文字、記号など
から生じるオプティカルフローを除去することを特徴と
する請求項1記載の車両用前方監視方法。
4. The front monitoring method for a vehicle according to claim 1, wherein in obtaining the optical flow, the optical flow generated from the scenery outside the road or the lanes, characters, symbols, etc. drawn on the road surface is removed.
【請求項5】 オプティカルフローを求めるに当たって
走行予定車線外の風景に相当する領域を予め設定し、該
設定した領域の処理を行わないことを特徴とする請求項
1記載の車両用前方監視方法。
5. The front monitoring method for a vehicle according to claim 1, wherein an area corresponding to a landscape outside the planned lane of travel is preset when the optical flow is obtained, and the processing of the set area is not performed.
【請求項6】 走行している自車両から前景を撮像する
ビデオカメラを備え、オプティカルフロー情報をもとに
オプティカルフローが生じている路面上の車線や文字、
記号などからビデオカメラまでの高さを求め、該高さが
路面からのカメラの高さと一致しているオプティカルフ
ローを除去することを特徴とする請求項4記載の車両用
前方監視方法。
6. A lane or character on a road surface in which an optical flow is generated based on the optical flow information, which is provided with a video camera for capturing a foreground from a moving own vehicle.
The vehicle front monitoring method according to claim 4, wherein the height from the symbol or the like to the video camera is obtained, and the optical flow whose height matches the height of the camera from the road surface is removed.
【請求項7】 予め定めた領域を複数の区域に分け、各
区域に存在するオプティカルフローベクトルの長さの総
和に対して区域毎に重み付けし、該重み付けされた値の
大小によって危険の度合を判断することを特徴とする請
求項1記載の車両用前方監視方法。
7. A predetermined area is divided into a plurality of areas, the total length of optical flow vectors existing in each area is weighted for each area, and the degree of danger is determined by the magnitude of the weighted value. The vehicle front monitoring method according to claim 1, wherein the determination is made.
【請求項8】 各区域毎に所定のしきい値を設定し、前
記オプティカルフローの長さの総和が該しきい値を越え
た区域を危険と判断することを特徴とする請求項7記載
の車両用前方監視方法。
8. The method according to claim 7, wherein a predetermined threshold value is set for each area, and an area in which the sum of the lengths of the optical flows exceeds the threshold value is judged to be dangerous. Forward monitoring method for vehicles.
【請求項9】 前記しきい値が数レベルからなり、前記
オプティカルフローの長さの総和が越えたしきい値のレ
ベルにより危険度のレベルを判断することを特徴とする
請求項8記載の車両用前方監視方法。
9. The vehicle according to claim 8, wherein the threshold value is composed of several levels, and the risk level is determined by the threshold value level over which the sum of the optical flow lengths exceeds. For forward monitoring method.
【請求項10】 求められた危険度の大きさに従って警
報を発することを特徴とする請求項9記載の車両用前方
監視方法。
10. The vehicle front monitoring method according to claim 9, wherein an alarm is issued according to the determined degree of danger.
JP4256268A 1992-09-25 1992-09-25 Vehicle monitoring method Expired - Lifetime JP2863381B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4256268A JP2863381B2 (en) 1992-09-25 1992-09-25 Vehicle monitoring method
US08/126,298 US5521633A (en) 1992-09-25 1993-09-24 Motor vehicle obstacle monitoring system using optical flow processing
DE4332612A DE4332612C2 (en) 1992-09-25 1993-09-24 Exterior view monitoring method for motor vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4256268A JP2863381B2 (en) 1992-09-25 1992-09-25 Vehicle monitoring method

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP24321997A Division JP3292292B2 (en) 1997-09-08 1997-09-08 Optical flow detection method
JP24322197A Division JP3398934B2 (en) 1997-09-08 1997-09-08 Vehicle monitoring method
JP24322097A Division JP3543912B2 (en) 1997-09-08 1997-09-08 Optical flow detection method

Publications (2)

Publication Number Publication Date
JPH06107096A true JPH06107096A (en) 1994-04-19
JP2863381B2 JP2863381B2 (en) 1999-03-03

Family

ID=17290289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4256268A Expired - Lifetime JP2863381B2 (en) 1992-09-25 1992-09-25 Vehicle monitoring method

Country Status (1)

Country Link
JP (1) JP2863381B2 (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
JPH1013824A (en) * 1996-06-25 1998-01-16 Yazaki Corp Vehicle periphery monitoring device
JP2000090243A (en) * 1998-09-14 2000-03-31 Yazaki Corp Periphery monitoring device and method therefor
EP1033694A2 (en) 1999-03-01 2000-09-06 Yazaki Corporation Rear-view monitoring system for vehicles
US6246961B1 (en) 1998-06-09 2001-06-12 Yazaki Corporation Collision alarm method and apparatus for vehicles
JP2001180404A (en) * 1999-12-24 2001-07-03 Mitsubishi Motors Corp Rear monitor for vehicle
US6292111B1 (en) 1999-03-01 2001-09-18 Yazaki Corporation Vehicle-applied rear-and-side monitoring system and vehicle-applied rear-and-side monitoring and alarming system
US6445809B1 (en) 1998-08-27 2002-09-03 Yazaki Corporation Environment monitoring system
EP1236126A1 (en) * 1999-11-26 2002-09-04 Mobileye, Inc. System and method for detecting obstacles to vehicle motion
CN1107282C (en) * 1996-01-15 2003-04-30 罗伯特·博施有限公司 Method of detecting moving objects in chronologically successive images
JP2005028903A (en) * 2003-07-08 2005-02-03 Meidensha Corp Method and device for detection of pantograph obstacle
JP2005202876A (en) * 2004-01-19 2005-07-28 Denso Corp Collision possibility deciding device
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
JP2006092117A (en) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd Collision time estimation device for vehicles and collision time estimation method for vehicles
US7113867B1 (en) 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
US7151996B2 (en) 2000-04-14 2006-12-19 Mobileye Technologies Limited System and method for generating a model of the path of a roadway from an image recorded by a camera
US7170548B2 (en) 2001-11-26 2007-01-30 Denso Corporation Obstacle monitoring device using one-dimensional signal
WO2008102473A1 (en) * 2007-02-20 2008-08-28 Kabushiki Kaisha Toshiba Face authenticating device and face authenticating method
JP2008280016A (en) * 2007-05-14 2008-11-20 Denso Corp Vehicle control device
US8310545B2 (en) 2004-03-29 2012-11-13 Pioneer Corporation Apparatus and method for analyzing road view
US8861792B2 (en) 2004-04-08 2014-10-14 Mobileye Technologies Ltd. Collison warning system
JP2014201256A (en) * 2013-04-08 2014-10-27 マツダ株式会社 On-vehicle information display device
US9323992B2 (en) 2006-05-31 2016-04-26 Mobileye Vision Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
WO2016151978A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image processing device, driving assistance system, and image processing method
JP2017215887A (en) * 2016-06-02 2017-12-07 マツダ株式会社 Vehicle control device
JP2019200816A (en) * 2013-05-16 2019-11-21 ソニー株式会社 Image processing apparatus, image processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105632245A (en) * 2016-03-14 2016-06-01 桂林航天工业学院 Vehicle approaching reminding device and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02241855A (en) * 1989-03-16 1990-09-26 Mikuni Corp Preceding vehicle identifying method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02241855A (en) * 1989-03-16 1990-09-26 Mikuni Corp Preceding vehicle identifying method

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
CN1107282C (en) * 1996-01-15 2003-04-30 罗伯特·博施有限公司 Method of detecting moving objects in chronologically successive images
JPH1013824A (en) * 1996-06-25 1998-01-16 Yazaki Corp Vehicle periphery monitoring device
US6246961B1 (en) 1998-06-09 2001-06-12 Yazaki Corporation Collision alarm method and apparatus for vehicles
US6445809B1 (en) 1998-08-27 2002-09-03 Yazaki Corporation Environment monitoring system
US6466684B1 (en) 1998-09-14 2002-10-15 Yazaki Corporation Environment monitoring system
JP2000090243A (en) * 1998-09-14 2000-03-31 Yazaki Corp Periphery monitoring device and method therefor
US6218960B1 (en) 1999-03-01 2001-04-17 Yazaki Corporation Rear-view monitor for use in vehicles
US6292111B1 (en) 1999-03-01 2001-09-18 Yazaki Corporation Vehicle-applied rear-and-side monitoring system and vehicle-applied rear-and-side monitoring and alarming system
EP1033694A2 (en) 1999-03-01 2000-09-06 Yazaki Corporation Rear-view monitoring system for vehicles
EP1236126A1 (en) * 1999-11-26 2002-09-04 Mobileye, Inc. System and method for detecting obstacles to vehicle motion
EP1236126A4 (en) * 1999-11-26 2004-04-14 Mobileye Inc System and method for detecting obstacles to vehicle motion
JP2001180404A (en) * 1999-12-24 2001-07-03 Mitsubishi Motors Corp Rear monitor for vehicle
US7151996B2 (en) 2000-04-14 2006-12-19 Mobileye Technologies Limited System and method for generating a model of the path of a roadway from an image recorded by a camera
US7113867B1 (en) 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
US7170548B2 (en) 2001-11-26 2007-01-30 Denso Corporation Obstacle monitoring device using one-dimensional signal
JP2005028903A (en) * 2003-07-08 2005-02-03 Meidensha Corp Method and device for detection of pantograph obstacle
JP2005202876A (en) * 2004-01-19 2005-07-28 Denso Corp Collision possibility deciding device
US8310545B2 (en) 2004-03-29 2012-11-13 Pioneer Corporation Apparatus and method for analyzing road view
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
US10579885B2 (en) 2004-04-08 2020-03-03 Mobileye Vision Technologies Ltd. Collision warning system
US9656607B2 (en) 2004-04-08 2017-05-23 Mobileye Vision Technologies Ltd. Collision warning system
US8861792B2 (en) 2004-04-08 2014-10-14 Mobileye Technologies Ltd. Collison warning system
US9916510B2 (en) 2004-04-08 2018-03-13 Mobileye Vision Technologies Ltd. Collision warning system
US8879795B2 (en) 2004-04-08 2014-11-04 Mobileye Vision Technologies Ltd. Collision warning system
US9096167B2 (en) 2004-04-08 2015-08-04 Mobileye Vision Technologies Ltd. Collision warning system
US9168868B2 (en) 2004-04-08 2015-10-27 Mobileye Vision Technologies Ltd. Collision Warning System
JP2006092117A (en) * 2004-09-22 2006-04-06 Nissan Motor Co Ltd Collision time estimation device for vehicles and collision time estimation method for vehicles
US9323992B2 (en) 2006-05-31 2016-04-26 Mobileye Vision Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US9443154B2 (en) 2006-05-31 2016-09-13 Mobileye Vision Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
WO2008102473A1 (en) * 2007-02-20 2008-08-28 Kabushiki Kaisha Toshiba Face authenticating device and face authenticating method
JP2008280016A (en) * 2007-05-14 2008-11-20 Denso Corp Vehicle control device
JP2014201256A (en) * 2013-04-08 2014-10-27 マツダ株式会社 On-vehicle information display device
JP2019200816A (en) * 2013-05-16 2019-11-21 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2016151978A1 (en) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 Image processing device, driving assistance system, and image processing method
JP2017215887A (en) * 2016-06-02 2017-12-07 マツダ株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP2863381B2 (en) 1999-03-03

Similar Documents

Publication Publication Date Title
JPH06107096A (en) Forward monitoring method for vehicle
JP3452268B2 (en) Rear side monitoring method for vehicles
JP3304687B2 (en) Vehicle lane recognition device, obstacle detection device, road departure notification device
JP3169483B2 (en) Road environment recognition device
US5521633A (en) Motor vehicle obstacle monitoring system using optical flow processing
JP3463858B2 (en) Perimeter monitoring device and method
JP2006184276A (en) All-weather obstacle collision preventing device by visual detection, and method therefor
JP2000090243A (en) Periphery monitoring device and method therefor
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2002197470A (en) Device for detecting traffic lane
JP2003123197A (en) Recognition device for road mark or the like
JPH11252587A (en) Object tracking device
JP2009053818A (en) Image processor and method thereof
JP2009033743A (en) Method for recognition of object
JP4991384B2 (en) Approaching object detection device and approaching object detection program
JP2001216520A (en) Surroundings monitor device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
JPH08156723A (en) Vehicle obstruction detecting device
JP3398934B2 (en) Vehicle monitoring method
JPH07225126A (en) On-road object recognizing device for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
JPWO2019039157A1 (en) Apparatus and method for identifying a small object area around a vehicle
JP3543912B2 (en) Optical flow detection method
JP3398937B2 (en) Vehicle monitoring method and device
JP2003306102A (en) Passing vehicle detection device, and rear side alarm device for drive supporting system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081211

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081211

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091211

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101211

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101211

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111211

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111211

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 14

EXPY Cancellation because of completion of term