JP3292292B2 - Optical flow detection method - Google Patents

Optical flow detection method

Info

Publication number
JP3292292B2
JP3292292B2 JP24321997A JP24321997A JP3292292B2 JP 3292292 B2 JP3292292 B2 JP 3292292B2 JP 24321997 A JP24321997 A JP 24321997A JP 24321997 A JP24321997 A JP 24321997A JP 3292292 B2 JP3292292 B2 JP 3292292B2
Authority
JP
Japan
Prior art keywords
image
optical flow
window
point
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24321997A
Other languages
Japanese (ja)
Other versions
JPH10147198A (en
Inventor
真人 中島
孝宏 藤城
則夫 北村
一幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP24321997A priority Critical patent/JP3292292B2/en
Publication of JPH10147198A publication Critical patent/JPH10147198A/en
Application granted granted Critical
Publication of JP3292292B2 publication Critical patent/JP3292292B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、走行している自車両か
ら撮像して得た所定時間相前後する2コマの画像中の同
一点の移動をオプティカルフローとして検出するオプテ
ィカルフロー検出方法に関するものである。
BACKGROUND OF THE INVENTION This invention is, whether the vehicle you are traveling
Of two frames before and after a predetermined time
Optical that detects a single point movement as an optical flow
The present invention relates to a physical flow detection method.

【0002】[0002]

【従来の技術】従来、この種の方法として、例えば特願
平2−241855号公報に開示されたものがある。同
公報に開示された方法は、走行している自車両から前景
を撮影し、この撮影した前景の同一点の移動を所定時間
毎にオプティカルフローとして認識し、このオプティカ
ルフローと前方車両との車間距離を測定する距離センサ
をもとに自車両に対する先行車両の位置、相対速度から
なる情報を得、この情報をもとに危険と判断した場合に
運転者にその旨を知らせるものである。
2. Description of the Related Art Conventionally, as this kind of method, there is a method disclosed in Japanese Patent Application No. 2-241855. In the method disclosed in the publication, a foreground is photographed from a running own vehicle, the movement of the same point of the photographed foreground is recognized as an optical flow at predetermined time intervals, and the distance between the optical flow and a preceding vehicle is determined. Based on a distance sensor that measures the distance, information on the position and relative speed of the preceding vehicle with respect to the own vehicle is obtained, and when it is determined that there is danger based on this information, the driver is notified of the danger.

【0003】また、オプティカルフローを求めるため
に、従来、2コマの画像間で対応する点を検出するマッ
チング法と呼ばれる手法が採用されていた。このマッチ
ング法は、図9(a)に示す時点tにおける画像上にお
いて着目する画素Pに対し窓W1をとり、画像内全域又
は周辺の領域に対し窓を移動しながら相関値を計算し、
図9(b)に示すように、相関値が最大となった窓W2
の点を対応点、すなわち対応する画素Qとして求め、こ
のPQ(矢印)がオプティカルフローとなる。上記相関
値を求めるためには、 Σ(W1(x,y) ×W2(x,y) )/(ΣW12 (x,y) ×ΣW22 (x,y)1/2 ……(1) なる計算を行う。なお、W1(x,y) ,W2(x,y) は窓W
1,W2内の(x,y)座標の出力である。
Further, in order to obtain an optical flow, a technique called a matching method for detecting a corresponding point between two frames of images has conventionally been adopted. In this matching method, a window W1 is taken for a pixel P of interest on the image at the time t shown in FIG. 9A, and a correlation value is calculated while moving the window for the entire region or a peripheral region in the image,
As shown in FIG. 9B, the window W2 having the maximum correlation value
Is obtained as a corresponding point, that is, a corresponding pixel Q, and this PQ (arrow) becomes an optical flow. To obtain the correlation value, 値 (W1 (x, y) × W2 (x, y) ) / (ΣW1 2 (x, y) × ΣW2 2 (x, y) ) 1/2 (1) Perform the following calculation. Note that W1 (x, y) and W2 (x, y) are the windows W
1, output of (x, y) coordinates in W2.

【0004】[0004]

【発明が解決しようとする課題】しかし、このような従
来の方法では、オプティカルフローを求めるために、2
枚の画像間で対応する点を検出するという演算処理を行
う必要があるが、上述したようにこの演算処理は、ある
一点の対応点を検出するために、画像内の一画素に対
し、画像内の全領域あるいは周辺の領域の全ての画素に
対して検索を行うといったものである。画像全体にわた
って対応点を検出するためには、この処理を全画素に対
して行わなければならない。また、検索を行うために指
標として使用する相関値を求めるためにも多くの計算を
必要とする。
However, in such a conventional method, since the optical flow is obtained, two
It is necessary to perform an arithmetic process of detecting a corresponding point between two images, but as described above, this arithmetic process is performed on one pixel in the image in order to detect a certain corresponding point. The search is performed for all the pixels in the whole area or the surrounding area. This process must be performed on all pixels in order to detect corresponding points over the entire image. Also, many calculations are required to obtain a correlation value used as an index for performing a search.

【0005】従って、計算量が膨大になるため実時間化
が困難であったり、実現するためには、高速度の演算処
理装置を必要とするため装置自体が高価格化してしまう
というような問題があげられる。
[0005] Accordingly, there is a problem that the amount of calculation is enormous and it is difficult to realize real-time operation, or a high-speed arithmetic processing unit is required for realization, so that the apparatus itself becomes expensive. Is raised.

【0006】よって本発明は、上述した従来の問題点に
鑑み、ビデオカメラで撮像して得た画像において、所定
時間毎に同一点の移動をオプティカルフローとして高速
検出することができるようにしたオプティカルフロー
検出方法を提供することを目的としている。
Accordingly, the present invention has been made in view of the above-mentioned conventional problems, and enables an image taken by a video camera to detect a movement of the same point at predetermined time intervals as an optical flow at a high speed. Optical flow
It aims to provide a detection method.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
本発明によりなされたオプティカルフロー検出方法は、
走行している自車両から撮像して得た所定時間相前後す
る2コマの画像中の同一点の移動をオプティカルフロー
として検出するオプティカルフロー検出方法において、
所定時間相前後する2コマの画像のうちの前の画像にお
いて、走行している自車両からの撮像方向を示す1点に
対応する無限遠点から、着目する1点に対して放射状の
方向に細長い窓を設定し、後の画像において該窓を前記
無限遠点から放射方向に移動しながら、前記前の画像で
の窓と該窓に重なる後の画像の領域との輝度差の絶対値
の総和を求め、該総和が最小になったときの窓の位置と
該窓の前の画像における設定位置とのそれぞれの中心点
間を結ぶ矢印を1点のオプティカルフローと定めること
を特徴としている。
To achieve the above object, an optical flow detecting method according to the present invention comprises:
An optical flow detection method for detecting, as an optical flow, a movement of the same point in two frames preceding and following a predetermined time obtained by capturing an image of a running vehicle,
In the previous image of the two frames before and after the predetermined time, from the point at infinity corresponding to one point indicating the imaging direction from the running own vehicle in the radial direction with respect to the point of interest An elongated window is set, and in the subsequent image, while moving the window in the radial direction from the point at infinity, the absolute value of the brightness difference between the window in the previous image and the area of the image after the window overlapping the window is set. A sum is obtained, and an arrow connecting between respective center points of the position of the window when the sum is minimized and the set position in the image in front of the window is defined as one optical flow.

【0008】[0008]

【作用】上記方法によれば、オプティカルフローが自車
両からの撮像方向を示す1点に対応する無限遠点から放
射状の方向に形成されることに着目して、2コマの画像
のうちの前の画像において、走行している自車両からの
撮像方向を示す1点に対応する無限遠点から放射状の方
向に着目する1点に対して細長い窓を設定し、この窓を
無限遠点から放射方向に後の画面において移動しなが
ら、前の画像での窓とこの窓に重なる後の画像の領域と
の輝度差の絶対値の総和を求め、この総和が最小になっ
たときの窓の位置とこの窓の前の画像における設定位置
とのそれぞれの中心点間を結ぶ矢印を1点のオプティカ
ルフローと定めるようにしているので、処理に当たって
設定した窓の範囲内について計算すればよく、計算量の
軽減となって処理の高速化が行える。
According to the above method, focusing on the fact that the optical flow is formed in a radial direction from the point at infinity corresponding to one point indicating the imaging direction from the own vehicle, the front of the two-frame image In the image of, an elongated window is set for one point in the radial direction from the point at infinity corresponding to one point indicating the imaging direction from the running own vehicle, and this window is radiated from the point at infinity. While moving on the subsequent screen in the direction, find the sum of the absolute values of the luminance differences between the window in the previous image and the area of the image that overlaps this window, and the position of the window when this sum is minimized The arrow connecting between the center points of the image and the set position in the image in front of the window is defined as one optical flow, so that the calculation may be performed within the window set in the processing. Of processing Speed up can be performed.

【0009】[0009]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明による方法を実施するための装置の
構成を示し、同図において、1は前景を撮像するビデオ
カメラ、2はビデオカメラ1によって得られた画像を入
力し、後述する画像処理を行う演算処理装置、3は自車
両の速度を計測する速度計、4は演算処理装置2の画像
処理結果と速度計3から得られる自車両速度とを入力し
て危険度判定処理を行う演算処理装置、5は警報装置で
ある。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the configuration of an apparatus for carrying out a method according to the present invention. In FIG. 1, reference numeral 1 denotes a video camera for capturing a foreground, 2 denotes an input of an image obtained by a video camera 1, and image processing described below is performed. The arithmetic processing unit 3 performs a speedometer for measuring the speed of the own vehicle, and the arithmetic processing unit 4 inputs the image processing result of the arithmetic processing device 2 and the own vehicle speed obtained from the speedometer 3 to perform a risk determination process. The device 5 is an alarm device.

【0010】図2は、ビデオカメラ1によって得られる
前景画像の変化を説明するための図であり、(b)は
(a)に示す自車両を含む状況においてビデオカメラ1
が時間tで撮像した画像、(c)は時間t+Δtで撮像
した画像をそれぞれ示す。
FIGS. 2A and 2B are diagrams for explaining changes in the foreground image obtained by the video camera 1. FIG. 2B shows the situation in which the video camera 1 includes the own vehicle shown in FIG.
Indicates an image captured at time t, and (c) indicates an image captured at time t + Δt.

【0011】今、自車両は平坦な道を直進しているとす
る。例えば(a)に示される道路標識及び建物に注目す
ると、時間の経過により時間t、時間t+Δtにおい
て、(b)、(c)に示されるような画像が得られる。
この2枚の画像において対応する点を捜しそれらを結ぶ
と(d)に示されるような速度ベクトルが得られる。こ
れがオプティカルフローである。
Now, it is assumed that the vehicle is traveling straight on a flat road. For example, when attention is paid to the road sign and the building shown in (a), images as shown in (b) and (c) are obtained at time t and time t + Δt with the passage of time.
By searching for corresponding points in these two images and connecting them, a velocity vector as shown in (d) is obtained. This is the optical flow.

【0012】ここでこれらオプティカルフローは、画像
内のFOE(Focus of Expansion)とよばれる1点から
放射状に現れる。FOEとは、無限遠点又は消失点と呼
ばれ、車両が直進している場合画像上において自車両の
進行方向である撮像方向を示す1点に対応する。このよ
うに、自車両が走行している場合に求められるオプティ
カルフローは、FOEから放射状の方向である。ここで
先行する他の車両から発せられたオプティカルフロー
は、自車両に対する先行する他の車両の位置、相対速度
からなる情報を含んでおり、オプティカルフローが長い
程危険度が高いと考えられる。
[0012] Here, these optical flows appear radially from one point called FOE (Focus of Expansion) in the image. The FOE is called an infinity point or a vanishing point, and corresponds to one point indicating an imaging direction which is a traveling direction of the own vehicle on an image when the vehicle is traveling straight. Thus, the optical flow required when the host vehicle is traveling is in a radial direction from the FOE. Here, the optical flow issued from the preceding vehicle includes information including the position and the relative speed of the preceding vehicle with respect to the own vehicle, and it is considered that the longer the optical flow, the higher the risk.

【0013】次に、その詳細を図3を参照して説明す
る。同図の光学的配置おいて、11はビデオカメラのレ
ンズ、12はビデオカメラのイメージプレーン、fはレ
ンズ11からイメージプレーン12までの距離、P
(X,Y,Z)は先行する他の車両又は障害物上の任意
の1点、p(x,y)はイメージプレーン12上の点P
に対応する点とすると、3角形の相似の比から x=f・X/Z ……(2) となる。
Next, the details will be described with reference to FIG. In the optical arrangement shown in the figure, 11 is a lens of a video camera, 12 is an image plane of the video camera, f is a distance from the lens 11 to the image plane 12, P
(X, Y, Z) is an arbitrary point on another preceding vehicle or obstacle, and p (x, y) is a point P on the image plane 12.
X = f × X / Z (2) from the similarity ratio of the triangle.

【0014】この式を変形して、時間微分すると、 X’=(Δx/Δt・Z+x・Z’)/f ……(3) となる。また、オプティカルフローのx方向成分uとは u=Δx/Δt ……(4) であるので、これを用いて Z=(f・X’−x・Z’)/u ……(5) となる。By transforming this equation and differentiating it over time, X '= (Δx / Δt · Z + x · Z ′) / f (3) Further, since the x-direction component u of the optical flow is u = Δx / Δt (4), using this, Z = (fX′−xZ ′) / u (5) Become.

【0015】ここで Z’=先行する他の車両ないし障害物と自車両との相対速度=−α …… (6) であるから上式(5)は Z=(f・X’+xα)/u ……(7) となる。よってオプティカルフローのx方向成分uは u=(f・X’+xα)/Z ……(8) となる。Yについても同様に求まる。Here, Z '= the relative speed between the preceding vehicle and the other vehicle or obstacle and the host vehicle = -α (6). u ... (7) Therefore, the x-direction component u of the optical flow is as follows: u = (f × X ′ + xα) / Z (8) The same applies to Y.

【0016】よって上式(8)より、Zが小、すなわち
先行する他の車両又は障害物までの距離が小である程、
又はαが大、すなわち先行車両との相対速度が大である
程、オプティカルフローのx成分は大きくなる。これは
Y方向についても同様である。従って、オプティカルフ
ローは先行する他の車両などとの距離が小さい程、更に
相対速度が大きい程長くなり、これよりオプティカルフ
ローが短いときより長いときの方が相対的に先行する他
の車両又は障害物に対する危険度が大きいと考えられ
る。
Therefore, from the above equation (8), as Z is smaller, that is, as the distance to another preceding vehicle or obstacle is smaller,
Alternatively, the larger the α is, that is, the larger the relative speed with the preceding vehicle is, the larger the x component of the optical flow becomes. This is the same in the Y direction. Therefore, the optical flow becomes longer as the distance to the preceding vehicle or the like becomes smaller and further as the relative speed becomes larger, and when the optical flow is longer than this, the other preceding vehicle or obstacle is relatively longer. It is considered that the danger to the object is high.

【0017】本発明では、オプティカルフローがFOE
から放射状の向きに求められるということを利用し、高
速にオプティカルフローを求めるようにしており、その
方法を図4に基づいて以下説明する。
In the present invention, the optical flow is FOE.
The optical flow is obtained at a high speed by utilizing the fact that the optical flow is obtained in a radial direction from. The method will be described below with reference to FIG.

【0018】図4は、高速にオプティカル・フローを求
める方法の一実施例を示した図である。まず、始めに時
間tでの画像において着目する一点に対しFOEから放
射状の方向に細長い窓を設定する(図4(a))。次
に、時間t+Δtでの画像において、窓をFOEから放
射状の方向に一点づつ移動しながら、時間tでの窓との
輝度差の絶対値の総和を求める。そして総和が最小にな
ったときの窓の移動量が、着目する一点の速度ベクトル
として求められる(図4(b))。なお、上記輝度差
は、窓を構成する各画素について、例えば(a)及び
(b)に○で示す対応する位置の画素間のものである。
以上のような処理を時間tの画像の全ての点において繰
り返し行うことにより、画像全体のオプティカルフロー
を求めることができる。
FIG. 4 is a diagram showing an embodiment of a method for obtaining an optical flow at high speed. First, an elongated window is set in a radial direction from the FOE for a point of interest in an image at time t (FIG. 4A). Next, in the image at the time t + Δt, the window is moved one point at a time in the radial direction from the FOE, and the sum of the absolute values of the luminance differences from the window at the time t is obtained. Then, the moving amount of the window when the sum is minimized is obtained as a speed vector at a point of interest (FIG. 4B). The luminance difference is, for example, between pixels at corresponding positions indicated by a circle in (a) and (b) for each pixel constituting the window.
By repeating the above processing at all points of the image at the time t, the optical flow of the entire image can be obtained.

【0019】また、従来の方法では、対応する窓同士を
比べる際に、相互相関値を用いていた。それに対し本発
明の方法では、輝度差の絶対値の総和を用いているの
で、計算量の軽減となり、処理の高速化が行える。
Further, in the conventional method, when comparing corresponding windows, a cross-correlation value is used. On the other hand, in the method of the present invention, since the sum of the absolute values of the luminance differences is used, the calculation amount is reduced, and the processing can be speeded up.

【0020】本発明では更に、画像内の全ての点に対し
速度ベクトルを求めているのではなく、時間tと時間t
+Δtとの画像で差を求め、その差である一定のしきい
値を越えた点だけに対し処理を行うようにしている。
In the present invention, instead of determining the velocity vector for every point in the image, time t and time t
The difference is obtained from the image with + Δt, and processing is performed only on the point that exceeds a certain threshold value, which is the difference.

【0021】一般に、車両走行中に前景を映した画像に
は、空や路面のように時間的な輝度変化がない場所が多
い。このような場所では、原理的にオプティカルフロー
を求めることが不可能である。従って、本発明の方法の
ように、時間tでの画像と時間t+Δtでの画像内で、
輝度差のあるとことに着目して処理を行うことにより、
無駄な処理を省くことが可能となり高速化が行える。
Generally, in an image showing a foreground while a vehicle is running, there are many places where there is no temporal luminance change, such as the sky or a road surface. In such a place, it is impossible in principle to find an optical flow. Thus, as in the method of the present invention, within the image at time t and the image at time t + Δt,
By focusing on the fact that there is a luminance difference,
Unnecessary processing can be omitted, and the speed can be increased.

【0022】上述したような方法によって、高速にオプ
ティカルフローが求められる。しかし、ここで求まった
オプティカルフローには、道路以外の風景や路面の車線
などの障害物ではないものによって生じているオプティ
カルフローが含まれている。従って、ここで求められて
いるオプティカルフローを用いて前方の障害物の存在又
はその障害物による危険度を求めることは困難である。
よって、道路外の風景や路面の車線から生じているオプ
ティカルフローを除去する必要がある。次に、この方法
について説明する。
An optical flow can be obtained at high speed by the above-described method. However, the optical flows obtained here include optical flows generated by non-obstacles such as landscapes other than roads and lanes on the road surface. Therefore, it is difficult to determine the presence of an obstacle ahead or the degree of danger due to the obstacle using the optical flow determined here.
Therefore, it is necessary to remove the optical flow generated from the scenery outside the road or the lane on the road surface. Next, this method will be described.

【0023】図5は、道路外の風景によるオプティカル
フローを除去する方法の一実施例である。同図において
斜線が引かれている位置が、道路上を示しているとし
て、それ以外の場所では、処理を行わないものとする。
こうすることにより、始めから道路外の風景から生じる
オプティカルフローは求まらないことになり、なおかつ
領域を制限することにより、処理時間の高速化が行える
こととなる。
FIG. 5 shows an embodiment of a method for removing an optical flow due to a scene outside the road. In the figure, it is assumed that the shaded position indicates a road, and that no processing is performed in other places.
By doing so, the optical flow generated from the scenery outside the road is not obtained from the beginning, and the processing time can be shortened by limiting the area.

【0024】次に、路面上のマークを消す方法について
図を用いて説明する。図6はこの方法の一実施例であ
り、まず光学的構成を説明する。図6はビデオカメラを
設置した車両が直進する代わりに、路面全体が近づいて
きたと仮定して描かれている。11は前方を撮像するビ
デオカメラのレンズ、12はビデオカメラのイメージプ
レーンを示す。13及び14は移動前後の車線を表して
いる。レンズの中心を原点とする3次元座標と、イメー
ジプレーン2上で上記FOEを原点とする2次元座標を
考える。
Next, a method for erasing a mark on a road surface will be described with reference to the drawings. FIG. 6 shows an embodiment of this method. First, the optical configuration will be described. FIG. 6 is drawn on the assumption that the entire road surface is approaching, instead of the vehicle equipped with the video camera going straight. Reference numeral 11 denotes a lens of a video camera that captures an image of the front, and reference numeral 12 denotes an image plane of the video camera. 13 and 14 represent lanes before and after the movement. Consider three-dimensional coordinates with the center of the lens as the origin and two-dimensional coordinates with the FOE as the origin on the image plane 2.

【0025】移動前の車線の位置をP(X,Y,Z+Δ
Z)、Z方向にΔZ移動後の位置をQ(X,Y,Z)と
すると、2つの3角形の相似比より式(1)のようにオ
プティカルフローの生じている車線のビデオカメラまで
の高さを知ることができる。 Y=y2 ΔZ/fΔy ……(9) この求まった高さ情報を用いて、高さがビデオカメラ高
と一致している、つまり路面上のマークなどによって生
じているオプティカルフローを除去することができる。
Let the position of the lane before moving be P (X, Y, Z + Δ
Z), assuming that the position after the ΔZ movement in the Z direction is Q (X, Y, Z), the similarity between the two triangles indicates the distance from the video camera to the lane where the optical flow occurs as shown in equation (1). You can know the height. Y = y 2 ΔZ / fΔy (9) Using the obtained height information, removing the optical flow whose height matches the height of the video camera, that is, which is caused by a mark on the road surface or the like. Can be.

【0026】ここで、ΔZは2枚の画像の時間間隔Δt
の間に前進した距離であり、車両速度を知ることにより
求めることができる。以上説明したような処理によっ
て、前方の障害物以外から生じているオプティカルフロ
ーを除去することが可能となる。従って、いま残されて
いるオプティカルフローの位置及び長さから前方の障害
物がどの程度危険であるかを示す危険度を求めることが
可能となる。
Here, ΔZ is a time interval Δt between two images.
Is the distance that the vehicle has advanced, and can be obtained by knowing the vehicle speed. By the processing described above, it is possible to remove an optical flow generated from an object other than the obstacle in front. Therefore, it is possible to determine the degree of danger indicating how dangerous the obstacle ahead is from the position and length of the optical flow that is currently left.

【0027】次に、危険度を求める方法について説明す
る。図7はこの方法の一実施例を示すものである。まず
構成を説明すると、I 〜IVの各領域はそれぞれ自車線の
遠方、自車線の近方、隣車線の遠方、隣車線の近方を示
している。ここで危険度は、各領域に存在するオプティ
カルフローの長さの総和に対して各区域毎に重み付け
し、この重み付けした値によって求められる。更に、各
領域毎に所定のしきい値を設定しておき、フロー長さの
総和がこのしきい値を越えたらしきい値を越えた領域は
危険と判断される。しきい値を複数レベル設定してお
き、危険度のレベルを判断することもできる。
Next, a method for obtaining the degree of risk will be described. FIG. 7 shows one embodiment of this method. First, the configuration will be described. Each of the regions I to IV indicates the distant position of the own lane, the near position of the own lane, the distant position of the adjacent lane, and the close position of the adjacent lane, respectively. Here, the risk level is obtained by weighting the sum of the lengths of the optical flows existing in each area for each area, and using the weighted value. Further, a predetermined threshold value is set for each area, and if the sum of the flow lengths exceeds this threshold value, the area exceeding the threshold value is determined to be dangerous. A plurality of threshold values can be set, and the level of risk can be determined.

【0028】最後に、求められた危険度の大きさに従っ
て警報を鳴らすことによって運転者に対し注意を促せる
ことが可能となる。また、ディスプレイ上にどの領域が
どの程度危険かを表示することも可能になる。さらに危
険レベルにより警報の音色などの種類を変えることも可
能である。
Finally, it is possible to call the driver's attention by sounding an alarm according to the magnitude of the determined degree of danger. It is also possible to display which area is dangerous and how much is on the display. Further, it is also possible to change the type of alarm sound and the like depending on the danger level.

【0029】以上説明した本発明の方法による画像処理
の手順を要約して示すと、図8のようになる。まず、ス
テップS1において時間tでの画像を取り込み、次にス
テップS2において時間t+Δtでの画像を取り込む。
その後ステップS3においてFOEの設定を行い、続く
ステップS4において処理領域の設定を行う。続いてス
テップS5に進み、ここで時間tと時間t+Δtの画像
で輝度差が一定のしきい値を越えた領域を抽出する。そ
の後ステップS6に進んで抽出した領域内でオプティカ
ルフローを求め、次のステップS7において道路上のオ
プティカルフローを除去し、更に次のステップS8にお
いて各区域毎に重み付けした値によって危険度を計算す
る。
FIG. 8 summarizes the procedure of the image processing according to the method of the present invention described above. First, an image at time t is captured in step S1, and then an image at time t + Δt is captured in step S2.
Thereafter, the FOE is set in step S3, and the processing area is set in subsequent step S4. Subsequently, the process proceeds to step S5, where an area where the luminance difference exceeds a certain threshold value is extracted from the images at time t and time t + Δt. Thereafter, the process proceeds to step S6, where an optical flow is obtained in the extracted area. In the next step S7, the optical flow on the road is removed, and in the next step S8, the degree of risk is calculated by a value weighted for each area.

【0030】[0030]

【発明の効果】以上説明したように本発明によれば、2
枚の画像間で対応する点を検出するという演算処理を行
うことなく、2コマの画像のうちの前の画像において無
限遠点から放射状の方向に着目する1点に対して設定し
た細長い窓を、後の画面において無限遠点から放射方向
に移動しながら、前の画像での窓とこの窓に重なる後の
画像の領域との輝度差の絶対値の総和を求め、この総和
が最小になったときの窓の位置とこの窓の前の画像にお
ける設定位置とのそれぞれの中心点間を結ぶ矢印を1点
のオプティカルフローと定めるようにしていて、処理に
当たって設定した窓の範囲内について計算すればよく、
計算量が軽減されて処理の高速化が行えるので、実時間
処理が容易になる。
As described above, according to the present invention, 2
Without performing an arithmetic process of detecting a corresponding point between two images, an elongated window set for one point of interest in a radial direction from an infinite point in a previous image of two frames is used. While moving in the radial direction from the point at infinity on the subsequent screen, the sum of the absolute values of the luminance differences between the window in the previous image and the area of the subsequent image overlapping this window is obtained, and this sum is minimized. The arrow connecting the center point between the window position at the time of the window and the set position in the image in front of the window is defined as one optical flow, and calculation is performed within the window set in the processing. All right,
Since the amount of calculation is reduced and the processing speed is increased, real-time processing is facilitated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による方法を実施するための装置の一例
を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of an apparatus for performing a method according to the present invention.

【図2】図1のビデオカメラが撮像する前景、画像及び
得られるオプティカルフローを示す図である。
FIG. 2 is a diagram showing a foreground, an image, and an optical flow obtained by the video camera shown in FIG. 1;

【図3】本発明の方法による障害物などの検出の仕方を
説明するための図である。
FIG. 3 is a diagram for explaining how to detect an obstacle or the like by the method of the present invention.

【図4】本発明の方法によりオプティカルフローの求め
方を説明するための図である。
FIG. 4 is a diagram for explaining how to determine an optical flow by the method of the present invention.

【図5】本発明の方法によりオプティカルフローの求め
るため設定した領域の一例を示す図である。
FIG. 5 is a diagram showing an example of an area set for obtaining an optical flow according to the method of the present invention.

【図6】本発明の方法により路面上の車線によるオプテ
ィカルフローの除去の仕方を説明するための図である。
FIG. 6 is a diagram for explaining a method of removing an optical flow by a lane on a road surface according to the method of the present invention.

【図7】本発明の方法により危険度を判定するため分け
た区域の一例を示す図である。
FIG. 7 is a diagram showing an example of an area divided for judging the degree of risk by the method of the present invention.

【図8】本発明の方法の一連の処理を示す図である。FIG. 8 is a diagram showing a series of processes of the method of the present invention.

【図9】従来の方法の問題点を説明するための図であ
る。
FIG. 9 is a diagram for explaining a problem of the conventional method.

【符号の説明】[Explanation of symbols]

1 ビデオカメラ 2,4 演算処理装置 5 警報装置 DESCRIPTION OF SYMBOLS 1 Video camera 2, 4 Arithmetic processing unit 5 Alarm device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G08B 21/00 G08B 21/00 H H04N 7/18 H04N 7/18 J (72)発明者 佐々木 一幸 静岡県裾野市御宿1500 矢崎総業株式会 社内 (56)参考文献 特開 平2−241855(JP,A) 特開 平4−85148(JP,A) 特開 平4−166447(JP,A) 特開 平4−260979(JP,A) (58)調査した分野(Int.Cl.7,DB名) B60R 21/00 G06T 7/20 H04N 7/18 G08B 21/00 G03B 15/00 ────────────────────────────────────────────────── ─── Continued on the front page (51) Int.Cl. 7 Identification code FI G08B 21/00 G08B 21/00 H H04N 7/18 H04N 7/18 J (72) Inventor Kazuyuki Sasaki 1500 Onjuku 1500, Susono City, Shizuoka Prefecture Yazaki In-house company (56) References JP-A-2-241855 (JP, A) JP-A-4-85148 (JP, A) JP-A-4-16647 (JP, A) JP-A-4-260979 (JP) , A) (58) Fields investigated (Int. Cl. 7 , DB name) B60R 21/00 G06T 7/20 H04N 7/18 G08B 21/00 G03B 15/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 走行している自車両から撮像して得た所
定時間相前後する2コマの画像中の同一点の移動をオプ
ティカルフローとして検出するオプティカルフロー検出
方法において、 所定時間相前後する2コマの画像のうちの前の画像にお
いて、走行している自車両からの撮像方向を示す1点に
対応する無限遠点から、着目する1点に対して放射状の
方向に細長い窓を設定し、後の画像において該窓を前記
無限遠点から放射方向に移動しながら、前記前の画像で
の窓と該窓に重なる後の画像の領域との輝度差の絶対値
の総和を求め、該総和が最小になったときの窓の位置と
該窓の前の画像における設定位置とのそれぞれの中心点
間を結ぶ矢印を1点のオプティカルフローと定めること
を特徴とするオプティカルフロー検出方法。
An optical flow detection method for detecting, as an optical flow, a movement of the same point in two frames before and after a predetermined period of time obtained by capturing an image of a running host vehicle, wherein the predetermined time period is determined. In the preceding image of the two successive images, a window elongated in the radial direction from the point at infinity corresponding to one point indicating the imaging direction from the running own vehicle to the point of interest. While moving the window in the subsequent image in the radial direction from the point at infinity, the sum of the absolute values of the luminance differences between the window in the previous image and the area of the image after the window overlapping the window is calculated. Optical flow detection , wherein an arrow connecting between respective center points of the position of the window when the sum is minimized and the set position in the image in front of the window is determined as one point of optical flow. Method.
JP24321997A 1997-09-08 1997-09-08 Optical flow detection method Expired - Fee Related JP3292292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24321997A JP3292292B2 (en) 1997-09-08 1997-09-08 Optical flow detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24321997A JP3292292B2 (en) 1997-09-08 1997-09-08 Optical flow detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP4256268A Division JP2863381B2 (en) 1992-09-25 1992-09-25 Vehicle monitoring method

Publications (2)

Publication Number Publication Date
JPH10147198A JPH10147198A (en) 1998-06-02
JP3292292B2 true JP3292292B2 (en) 2002-06-17

Family

ID=17100607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24321997A Expired - Fee Related JP3292292B2 (en) 1997-09-08 1997-09-08 Optical flow detection method

Country Status (1)

Country Link
JP (1) JP3292292B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3580475B2 (en) 1998-09-14 2004-10-20 矢崎総業株式会社 Perimeter monitoring device
JP3729005B2 (en) * 1999-12-24 2005-12-21 三菱自動車工業株式会社 Vehicle rear monitoring device

Also Published As

Publication number Publication date
JPH10147198A (en) 1998-06-02

Similar Documents

Publication Publication Date Title
JP2863381B2 (en) Vehicle monitoring method
JP3452268B2 (en) Rear side monitoring method for vehicles
US5521633A (en) Motor vehicle obstacle monitoring system using optical flow processing
US7684590B2 (en) Method of recognizing and/or tracking objects
JP3764086B2 (en) Vehicle information providing device
JP3049603B2 (en) 3D image-object detection method
US20070165910A1 (en) Vehicle surroundings monitoring apparatus, method, and program
JP2000251080A (en) Rear side monitoring device for vehicle
JP7104916B2 (en) Moving object detection device and moving object detection method
JPH06281455A (en) Vehicle environment monitoring device
JPH11252587A (en) Object tracking device
JP2001216520A (en) Surroundings monitor device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
Rasib et al. Pixel level segmentation based drivable road region detection and steering angle estimation method for autonomous driving on unstructured roads
JP2994170B2 (en) Vehicle periphery monitoring device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
Kenue LANELOK: Detection of lane boundaries and vehicle tracking using image-processing techniques-part II: Template matching algorithms
JP3351340B2 (en) Optical flow type backward information detection device
JP3398934B2 (en) Vehicle monitoring method
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
Ninomiya et al. A real-time vision for intelligent vehicles
JP3292292B2 (en) Optical flow detection method
JPH1142989A (en) Vehicular rear and side monitor
JPH07225126A (en) On-road object recognizing device for vehicle
JP3543912B2 (en) Optical flow detection method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080329

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees