JP2735033B2 - Lane change detection apparatus and method - Google Patents

Lane change detection apparatus and method

Info

Publication number
JP2735033B2
JP2735033B2 JP7138175A JP13817595A JP2735033B2 JP 2735033 B2 JP2735033 B2 JP 2735033B2 JP 7138175 A JP7138175 A JP 7138175A JP 13817595 A JP13817595 A JP 13817595A JP 2735033 B2 JP2735033 B2 JP 2735033B2
Authority
JP
Japan
Prior art keywords
lane
area
lane change
vehicle
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP7138175A
Other languages
Japanese (ja)
Other versions
JPH08329383A (en
Inventor
昭夫 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP7138175A priority Critical patent/JP2735033B2/en
Publication of JPH08329383A publication Critical patent/JPH08329383A/en
Application granted granted Critical
Publication of JP2735033B2 publication Critical patent/JP2735033B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、道路に設置されたIT
V(Industrial TV)カメラ等からの映像信号を画像処
理して車両の車線変更を検出する車線変更検出装置およ
び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an IT installed on a road.
The present invention relates to a lane change detection device and method for detecting a lane change of a vehicle by performing image processing on a video signal from a V (Industrial TV) camera or the like.

【0002】[0002]

【従来の技術】これまでに、円滑な交通流を実現する交
通情報システムを構築するため、種々の交通情報を検出
する手段が提案されている。その1つに、ITVカメラ
からの映像信号を画像処理して車両の車線変更を検出し
て交通情報とするものがある。
2. Description of the Related Art Hitherto, means for detecting various types of traffic information have been proposed in order to construct a traffic information system for realizing a smooth traffic flow. As one of them, there is a method in which a video signal from an ITV camera is subjected to image processing to detect a lane change of a vehicle to obtain traffic information.

【0003】ITVカメラからの映像信号を画像処理し
て車両の車線変更を検出する車線変更検出方法として
は、フレーム間差分を用いて移動体(車両)を検出し、
検出した移動体(車両)を追跡することにより車線変更
を検出する方法がある。図6は、この従来の車線変更検
出方法を説明するための概念図で、(a)は車両が走行
車線から追越し車線へ車線変更した様子を示した画像
(フレーム1〜3)およびこれらフレームのフレーム間
差分を示した図、(b)は(a)に示したフレーム1〜
3における移動体(車両)の重心位置(P1〜P3)を
XY座標に示した図である。図中、フレーム1〜3の画
像は走行車線をエリアA、追越し車線をエリアBとして
あり、フレーム1,2ではエリアA内で車両a1から車
両a2へ移動しており、フレーム3では車両a2がエリ
アB内の車両a3へ移動(車線変更)している。以下、
図6を参照してこの車線変更検出方法について具体的に
説明する。
[0003] As a lane change detection method for detecting a lane change of a vehicle by performing image processing on a video signal from an ITV camera, a moving object (vehicle) is detected by using an inter-frame difference.
There is a method of detecting a lane change by tracking the detected moving object (vehicle). FIG. 6 is a conceptual diagram for explaining the conventional lane change detection method. FIG. 6A shows images (frames 1 to 3) showing a state in which a vehicle has changed lanes from a traveling lane to an overtaking lane. FIG. 2B shows the difference between frames, and FIG. 2B shows frames 1 to 3 shown in FIG.
FIG. 3 is a diagram showing the XY coordinates of the center of gravity (P1 to P3) of the moving body (vehicle) in FIG. In the figures, the images of frames 1 to 3 have the traveling lane as area A and the passing lane as area B. In frames 1 and 2, vehicle a1 moves to vehicle a2 in area A, and in frame 3, vehicle a2 moves. The vehicle is moving to the vehicle a3 in the area B (change of lane). Less than,
This lane change detection method will be specifically described with reference to FIG.

【0004】従来の車線変更検出方法では、例えば図6
(a)に示すフレーム2を現フレーム、フレーム1を前
フレームとした場合、これらのフレーム間差分を求める
と、車両a1が消えた領域、車両a2が増えた領域とし
て抽出され、これら抽出された領域をそれぞれ移動体と
して各移動体の重心位置のX,Y座標が求められる。そ
して、現フレーム2の移動体の重心位置と前フレーム1
の移動体の重心位置との対応がとられ、移動点が求めら
れる。例えば、現フレーム2の車両a2の重心位置であ
る点P2(x2,y2)と一番近い前フレーム1の車両a
1の重心位置である点P1(x1,y1))がその点P2
(x2,y2)の対応点とされ、点P1(x1,y1))が
点P2(x2,y2)に移動したと判断される(図6
(b)参照)。
In a conventional lane change detection method, for example, FIG.
When the frame 2 shown in (a) is the current frame and the frame 1 is the previous frame, when the difference between these frames is obtained, it is extracted as an area where the vehicle a1 has disappeared and an area where the vehicle a2 has increased, and these extracted. The X and Y coordinates of the position of the center of gravity of each moving body are determined using the areas as moving bodies. Then, the position of the center of gravity of the moving body in the current frame 2 and the previous frame 1
And the position of the center of gravity of the moving object is determined, and the moving point is obtained. For example, the vehicle a in the front frame 1 closest to the point P2 (x 2 , y 2 ) which is the position of the center of gravity of the vehicle a 2 in the current frame 2
The point P1 (x 1 , y 1 ) which is the position of the center of gravity of point 1 is the point P2
(X 2 , y 2 ), and it is determined that the point P 1 (x 1 , y 1 ) has moved to the point P 2 (x 2 , y 2 ) (FIG. 6).
(B)).

【0005】同様に、フレーム3を現フレーム、フレー
ム2を前フレームとした場合は、フレーム間差分より車
両a2と車両a3が移動体として抽出され、これら車両
a2,a3の重心位置として点P2(x2,y2)、点P
3(x3,y3)が求められ、点P2(x2,y2)が点P
3(x3,y3)に移動したと判断される(図6(b)参
照)。
Similarly, when the frame 3 is the current frame and the frame 2 is the previous frame, the vehicles a2 and a3 are extracted as moving objects from the difference between the frames, and the point P2 ( x 2 , y 2 ), point P
3 (x 3 , y 3 ) is obtained, and the point P 2 (x 2 , y 2 ) is
3 (x 3 , y 3 ) (see FIG. 6B).

【0006】上記のようにして移動点が検出されると、
その移動が他のエリアへの移動であるかどうかが判断さ
れ、他のエリアへの移動と判断した場合に車線変更とさ
れる。上記フレーム1,2における点P1(x1
1))から点P2(x2,y2)への移動は、エリアA
内の移動であるため車線変更とはされない。他方、フレ
ーム2,3における点P2(x2,y2)から点P3(x
3,y3)への移動は、エリアAからエリアBへの移動で
あるため、車線変更とされる。
When the moving point is detected as described above,
It is determined whether or not the movement is a movement to another area. If it is determined that the movement is to another area, the lane is changed. The point P1 (x 1 ,
y 1 )) to point P 2 (x 2 , y 2 )
It is not a lane change because it is a movement within. On the other hand, the point in the frame 2,3 P2 (x 2, y 2 ) from the point P3 (x
Since the movement to ( 3 , y 3 ) is from area A to area B, the lane change is performed.

【0007】以上のように、従来の車線変更検出方法
は、現フレームと前フレームのフレーム間差分より移動
体を求め、その求めた移動体の重心位置の移動を追跡し
(トレース処理)、重心位置の移動が他のエリアへの移
動かどうかを判断することにより車線変更を検出してい
る。
As described above, in the conventional lane change detection method, the moving body is obtained from the difference between the current frame and the previous frame, the movement of the obtained center of gravity of the moving body is traced (trace processing), and the center of gravity is calculated. The lane change is detected by determining whether the movement of the position is to another area.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上述の
従来の車線変更検出方法には、以下のような問題があ
る。
However, the above-described conventional lane change detection method has the following problems.

【0009】車線変更の検出結果は交通情報として用い
られる。例えば、一定方向に車線変更が集中的に起こっ
たことが検出された場合には、道路上に車両の通行を妨
げるもの(例えば、事故車両、落下物等)があるといっ
た情報が交通情報として提供される。このため、車線変
更の検出にはリアルタイムな処理が要求される。しか
し、従来の車線変更検出方法では、フレーム間差分によ
り抽出された移動体の重心位置を求めてその重心位置を
追跡するトレース処理が用いられており、このトレース
処理は処理が難しく、処理に時間がかかることから、リ
アルタイムな処理を行うことができないという問題点が
ある。さらには、ハードが複雑な構成となるという問題
点がある。
The detection result of the lane change is used as traffic information. For example, when it is detected that lane changes occur intensively in a certain direction, information that there is an obstacle on the road (for example, an accident vehicle, a falling object, etc.) is provided as traffic information. Is done. Therefore, real-time processing is required to detect a lane change. However, in the conventional lane change detection method, a trace process is used in which the center of gravity of the moving object extracted by the inter-frame difference is obtained and the position of the center of gravity is tracked, and this trace process is difficult to process. However, there is a problem that real-time processing cannot be performed. Further, there is a problem that the hardware has a complicated configuration.

【0010】本発明の目的は、上記問題を解決し、簡単
な処理で車線変更の検出を行うことができ、かつハード
の構成が簡単な車線変更検出装置および検出方法を提供
することにある。
An object of the present invention is to provide a lane change detection device and a detection method which can solve the above-mentioned problem, can detect lane change by simple processing, and have a simple hardware configuration.

【0011】[0011]

【課題を解決するための手段】本発明の車線変更検出
は、第1および第2の車線に区分された道路における
車線変更を検出する車線変更検出手段であって、前記道
路に関して時間的に連続して撮られた個々のフレームを
基に表示される表示画像ついて、第1の車線側部をエ
リアA、第1の車線と第2の車線とを区分する線を基準
とする中心部をエリアB、第2の車線側部をエリアCと
する3つのエリアに分割する分割手段と、現フレームと
前フレーム間の差分を求め、該差分結果を2値化するフ
レーム間差分検出手段と、前記表示画像を形成する各走
査線について、前記フレーム間差分検出手段にて2値化
された差分結果がエリアAおよびエリアCにおいて
「0」、エリアBにおいて「1」となる走査線を「1」
とし、これ以外の走査線は「0」とするパターン処理を
行うパターン処理手段と、前記パターン処理手段にてパ
ターン処理された結果の総和をとり、その値が所定のし
きい値以上の場合に車線変更と判定する車線変更判定手
段と、を有することを特徴とする。
SUMMARY OF THE INVENTION A lane change detecting device according to the present invention is provided.
Is a lane change detecting means for detecting a lane change on a road divided into a first lane and a second lane, and is displayed on the basis of individual frames taken successively in time on the road. for the display image, the first lane side area a, the first lane and the center portion of the area B relative to the line that divides the second lane, the second area lane side C Dividing means for dividing into three areas, a difference between the current frame and the previous frame, and an inter-frame difference detecting means for binarizing the result of the difference, and an inter-frame difference for each scanning line forming the display image. A scanning line in which the difference result binarized by the difference detecting means is “0” in the area A and the area C and “1” in the area B is “1”.
And the other scanning lines are pattern processing means for performing pattern processing of “0”, and the sum of the results of pattern processing performed by the pattern processing means is calculated. Lane change determining means for determining lane change.

【0012】本発明の車線変更検出方法は、第1および
第2の車線に区分された道路における車線変更を検出す
る車線変更検出方法であって、前記道路に関して時間的
に連続して撮られた個々のフレームを基に表示される表
示画像ついて、第1の車線側部をエリアA、第1の車
線と第2の車線とを区分する線を基準とする中心部をエ
リアB、第2の車線側部をエリアCとする3つのエリア
に分割する第1のステップと、現フレームと前フレーム
間の差分を求め、該差分結果を2値化する第2のステッ
プと、前記表示画像を形成する各走査線について、前記
第2のステップにて2値化された差分結果がエリアAお
よびエリアCにおいて「0」、エリアBにおいて「1」
となる走査線を「1」とし、これ以外の走査線は「0」
とするパターン処理を行う第3のステップと、前記第3
のステップにてパターン処理された結果の総和をとり、
その値が所定のしきい値以上の場合に車線変更と判定す
る第4のステップと、を有することを特徴とする。
A lane change detecting method according to the present invention is a lane change detecting method for detecting a lane change on a road divided into a first lane and a second lane. for a display image displayed on the basis of the individual frames, the area of the first lane side a, the area of the central portion of the first lane and the reference line for dividing the second lane B, the second A first step of dividing the lane side portion into three areas having an area C, a second step of obtaining a difference between the current frame and the previous frame, and binarizing the difference result, For each scanning line to be formed, the difference result binarized in the second step is “0” in area A and area C, and “1” in area B.
Is set to “1”, and the other scanning lines are set to “0”.
A third step of performing a pattern process,
Take the sum of the results of pattern processing in step
And determining a lane change when the value is equal to or greater than a predetermined threshold.

【0013】[0013]

【作用】本発明の車線変更検出装置および方法では、表
示画像上において道路がエリアA〜Cの3つのエリアに
分割される。車線変更の際、車両はエリアBを必ず通過
することから、車両がエリアBを通過したことを検出す
ることにより車線変更を検出するができる。本発明で
は、フレーム間差分により得られた差分結果を2値化
し、表示画像に関する各走査線について、2値化された
差分結果がエリアAおよびエリアCにおいて「0」、エ
リアBにおいて「1」となる走査線を「1」とし、これ
以外の走査線は「0」とするパターン処理を行うことに
より、エリアB内における移動体の検出が行われる。こ
のパターン処理では、エリアB内に移動体があれば、そ
の移動体の部分の走査線が「1」とされるので、この
「1」となった走査線の総和をとることにより、その移
動体の大きさを求めることができる。したがって、車と
認識できる大きさをしきい値としておけば、パターン処
理において「1」となった走査線の総和がしきい値以上
のときにエリアB内おいて車両の通過を検出でき、これ
により車線変更を検出することができる。このように、
本発明では、従来のように処理が複雑で、処理に時間が
かかるトレース処理を用いることなく、簡単な処理で車
線変更を検出することができるので、リアルタイムな処
理を行うことが可能である。
According to the lane change detection apparatus and method of the present invention, a road is divided into three areas A to C on a display image. Since the vehicle always passes through the area B when changing lanes, the lane change can be detected by detecting that the vehicle has passed the area B. In the present invention, the difference result obtained by the inter-frame difference is binarized, and for each scanning line related to the display image, the binarized difference result is “0” in area A and area C, and “1” in area B. The moving object in the area B is detected by performing a pattern process of setting the scanning line to be “1” and setting the other scanning lines to “0”. In this pattern processing, if there is a moving body in the area B, the scanning line of the moving body portion is set to “1”. You can find the size of your body. Therefore, if the size that can be recognized as a vehicle is set as the threshold value, it is possible to detect the passage of the vehicle in the area B when the sum of the scanning lines that have become “1” in the pattern processing is equal to or larger than the threshold value. Thus, the lane change can be detected. in this way,
According to the present invention, the lane change can be detected by a simple process without using a tracing process that is complicated and takes a long time as in the related art, so that real-time processing can be performed.

【0014】[0014]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0015】図1は、本発明の一実施例の車線変更検出
装置の概略構成を示すブロック図である。
FIG. 1 shows lane change detection according to one embodiment of the present invention.
FIG. 2 is a block diagram illustrating a schematic configuration of the device .

【0016】図1において、1はCPU(中央処理装
置)であり、このCPU1には、キーボードやマウス等
の入力手段2、フレームバッファー4、車線変更検出処
理部6が接続されている。
In FIG. 1, reference numeral 1 denotes a CPU (Central Processing Unit) to which input means 2 such as a keyboard and a mouse, a frame buffer 4, and a lane change detection processing section 6 are connected.

【0017】フレームバッファー4には、道路に設置さ
れたITVカメラ(不図示)からの映像信号がA/D変
換器5を介して入力されており、時間的に連続して撮ら
れた個々の画像(すなわち、フレーム)が複数フレーム
保持される。このフレームバッファー4に保持された個
々の画像は、CRT等の表示手段(不図示)に表示され
る。
A video signal from an ITV camera (not shown) installed on the road is input to the frame buffer 4 via an A / D converter 5, and individual framed images taken successively in time are received. A plurality of images (that is, frames) are held. The individual images held in the frame buffer 4 are displayed on display means (not shown) such as a CRT.

【0018】入力手段2は、後述するエリア分けの際
に、表示手段に表示された画像上の位置や座標を指定す
るためのもので、ここではエリア分けを行うための分割
手段として用いられる。本実施例では、図2に示すよう
に、表示手段には走行車線、追越し車線に区分された2
車線道路(走行車両を含む)が表示され、表示された2
車線道路がエリアA〜Cの3つのエリアに分けられる。
ここで、エリアAは走行車線側部、エリアBは走行車線
と追越し車線を区分する中央線を中心とする中央部、エ
リアCは追越し車線側部を示す。なお、エリア分けは、
図2に示す状態に限定されるものではなく、道路に対す
るカメラ角度等に応じて適宜決定される。例えば、中央
線を中心にカメラ撮影されている場合には、エリアBは
走行車線側の部分がその車線の2分の1、追越し車線側
の部分がその車線の2分の1となる領域とすることが望
ましい。
The input means 2 is used to designate the position and coordinates on the image displayed on the display means at the time of area division described later, and is used here as a division means for performing area division. In this embodiment, as shown in FIG. 2, the display means is divided into a driving lane and an overtaking lane.
The lane road (including the traveling vehicle) is displayed, and the displayed 2
The lane road is divided into three areas A to C.
Here, area A indicates a side portion of the traveling lane, area B indicates a central portion centered on a center line that separates the traveling lane from the overtaking lane, and area C indicates a side portion of the overtaking lane. In addition, area division,
The state is not limited to the state shown in FIG. 2 and is appropriately determined according to the camera angle with respect to the road and the like. For example, when the camera is photographed around the center line, area B is an area where the part on the traveling lane side is half of the lane, and the part on the passing lane side is half of the lane. It is desirable to do.

【0019】車線変更検出処理部6は、時間的に連続し
て撮られた個々のフレームに基づいて表示手段に表示さ
れた表示画像において、走行車両の車線変更(ここで
は、走行車線から追越し車線への車線変更、追越し車線
から走行車線への車線変更の双方をいい、これら車線を
区分する中央線を単に通過した場合も含まれる)の検出
を行う処理部で、その構成はエリア情報格納メモリ3、
フレーム間差分部7、パターン処理部8、および車線変
更判定部9からなる。以下、各部について詳しく説明す
る。
The lane change detection processing unit 6 changes the lane of the traveling vehicle (here, the overtaking lane from the traveling lane) in the display image displayed on the display means based on the individual frames taken successively in time. Lane change and lane change from the overtaking lane to the driving lane, and also includes a case where the vehicle simply passes through a center line that separates these lanes.) 3,
It comprises an inter-frame difference unit 7, a pattern processing unit 8, and a lane change determination unit 9. Hereinafter, each part will be described in detail.

【0020】エリア情報格納メモリ3は、上述の入力手
段2により分割されたエリア情報を格納するメモリであ
る。格納されたエリア情報は、パターン処理部8へ出力
されている。
The area information storage memory 3 is a memory for storing the area information divided by the input means 2 described above. The stored area information is output to the pattern processing unit 8.

【0021】フレーム間差分部7は、フレームバッファ
ー4に保持された連続する2つのフレーム間の差分を求
めて移動体である車両を抽出する部である。本実施例で
は、表示手段はテレビ画面なので、有効走査線は480
本であり、各走査線毎にその差分結果が2値化(例え
ば、移動領域部分を「1」、これ以外の部分を「0」と
する)されて、車両が検出される。なお、フレーム間差
分については、前述の従来例で説明したのでここでは省
略する。
The inter-frame difference section 7 is a section for obtaining a difference between two consecutive frames held in the frame buffer 4 and extracting a vehicle as a moving body. In this embodiment, since the display means is a television screen, the effective scanning line is 480.
This is a book, and the difference result is binarized (for example, the moving area portion is set to “1” and the other portions are set to “0”) for each scanning line, and the vehicle is detected. The difference between the frames has been described in the above-mentioned conventional example, and therefore will not be described here.

【0022】パターン処理部8は、各走査線について、
フレーム間差分部7にて2値化された差分結果が、エリ
アA内において「0」、エリアB内において「1」、エ
リアC内において「0」となるパターンの走査線を
「1」とし、これ以外のパターンの走査線は「0」とし
て、各走査線毎のパターンを「1」,「0」に変換する
処理(横方向へのプロジェクション)を行う部である。
具体的には、以下のようなパターン処理(横方向へのプ
ロジェクション)が行われる。
The pattern processing unit 8 determines, for each scanning line,
The scanning line of the pattern in which the difference result binarized by the inter-frame difference unit 7 is “0” in the area A, “1” in the area B, and “0” in the area C is “1”. The scanning lines of the other patterns are set to “0”, and are units for performing processing (projection in the horizontal direction) for converting the pattern of each scanning line into “1” and “0”.
Specifically, the following pattern processing (horizontal projection) is performed.

【0023】図3は、車両が走行車線から追越し車線へ
車線変更した様子を示すフレーム1〜4についての上記
パターン処理部8における横方向へのプロジェクション
を示す図で、(a)はフレーム1,2間についてのも
の、(b)はフレーム2,3間についてのもの、(c)
はフレーム3,4間についてのものである。
FIGS. 3A and 3B are diagrams showing horizontal projections by the pattern processing section 8 on the frames 1 to 4 showing a state where the vehicle has changed lanes from the traveling lane to the passing lane. (B) is between frames 2 and 3, (c)
Is for frames 3 and 4.

【0024】走行車両が走行車線内で中央車線に寄った
際の画像がフレーム1とフレーム2であり、この場合の
横方向へのプロジェクション結果は図3(a)に示す次
のような結果となる。フレーム1,2間の差分(車両)
は、エリアAおよびエリアBの両方にかかる車両a1
と、車両の一部が車両a1と重なるエリアB内の車両a
2となっており、この場合のパターンが「1」となる走
査線は、車両a1と重なっていない車両a2の部分の走
査線となる。したがって、横方向へのプロジェクション
結果は、480本の走査線のうち車両a1と重なってい
ない車両a2の部分のみが「1」となる。
The images when the traveling vehicle approaches the center lane in the traveling lane are frames 1 and 2, and the horizontal projection results in this case are as shown in FIG. Become. Difference between frames 1 and 2 (vehicle)
Is a vehicle a1 covering both the area A and the area B
And a vehicle a in an area B where a part of the vehicle overlaps the vehicle a1
The scanning line in which the pattern is "1" in this case is a scanning line of a portion of the vehicle a2 that does not overlap with the vehicle a1. Therefore, as a result of the projection in the horizontal direction, only the portion of the vehicle a2 which does not overlap the vehicle a1 out of the 480 scanning lines becomes “1”.

【0025】上記フレーム2から続いて走行車両が中央
線上に移動した画像がフレーム3であり、この場合の横
方向へのプロジェクション結果は図3(b)に示す次の
ような結果となる。フレーム2,3間の差分(車両)
は、エリアB内の車両a2および車両の一部が車両a2
と重なるエリアB内の車両a3となっており、この場合
のパターンが「1」となる走査線は、車両a2および車
両a3の部分の走査線となる。したがって、横方向への
プロジェクション結果は、480本の走査線のうち車両
a2および車両a3の部分が「1」となる。
An image in which the traveling vehicle has moved on the center line after the frame 2 is the frame 3. In this case, the result of the lateral projection is as shown in FIG. 3B. Difference between frames 2 and 3 (vehicle)
Means that the vehicle a2 in the area B and a part of the vehicle are the vehicle a2
In this case, the scanning line in which the pattern is “1” in the area B overlapping the area B is the scanning line of the vehicle a2 and the vehicle a3. Therefore, as a result of the projection in the horizontal direction, the vehicle a2 and the vehicle a3 of the 480 scanning lines are “1”.

【0026】上記フレーム3から続いて走行車両が追越
し車線に移動した画像がフレーム4であり、この場合の
横方向へのプロジェクション結果は図3(c)に示す次
のような結果となる。フレーム3,4間の差分(車両)
は、エリアB内の車両a3と、エリアBおよびエリアC
の両方にかかり、車両の一部が車両a1と重なる車両a
4となっており、この場合のパターンが「1」となる走
査線は、車両a4と重なっていない車両a3の部分の走
査線となる。したがって、横方向へのプロジェクション
結果は、480本の走査線のうち車両a4と重なってい
ない車両a3の部分のみが「1」となる。
An image in which the traveling vehicle has moved to the overtaking lane following the frame 3 is the frame 4. In this case, the result of the lateral projection is as shown in FIG. 3C. Difference between frames 3 and 4 (vehicle)
Are the vehicle a3 in the area B, the area B and the area C
And vehicle a in which a part of the vehicle overlaps vehicle a1
The scanning line in which the pattern is "1" in this case is a scanning line of a portion of the vehicle a3 that does not overlap with the vehicle a4. Therefore, as a result of the projection in the horizontal direction, only the portion of the vehicle a3 that does not overlap with the vehicle a4 among the 480 scanning lines is “1”.

【0027】車線変更判定部9は、上述のパターン処理
部8における横方向へのプロジェクション結果を基に車
両の車線変更を判定する部である。この車線変更判定部
9では、480本の走査線の横方向へのプロジェクショ
ン結果の総和をとり、その総和をとった値が所定のしき
い値以上の場合に車線変更と判定される。なお、しきい
値は、画面上の車両の長さ(画面上の位置によって異な
る)を考慮して決定する。ここでは、画面上の所定の範
囲において、移動体が車両と判定できる値をしきい値と
する。このしきい値の設定は、上述の入力手段2により
行われる。
The lane change judging section 9 is a section for judging a lane change of the vehicle on the basis of the result of the horizontal projection performed by the pattern processing section 8 described above. The lane change determination unit 9 calculates the total sum of the projection results of the 480 scanning lines in the horizontal direction, and determines that the lane has been changed if the sum is equal to or greater than a predetermined threshold value. The threshold value is determined in consideration of the length of the vehicle on the screen (depending on the position on the screen). Here, in a predetermined range on the screen, a value at which the moving object can be determined as a vehicle is set as the threshold. The setting of the threshold value is performed by the input means 2 described above.

【0028】次に、この車線変更検出装置による車線変
更検出について説明する。図4は、この車線変更検出の
手順を示すフローチャートである。
Next, detection of a lane change by the lane change detecting device will be described. FIG. 4 is a flowchart showing the procedure of the lane change detection.

【0029】ITVカメラ(不図示)からの映像信号が
A/D変換器5を介して入力されており、時間的に連続
して撮られた個々の画像(すなわち、フレーム)が複数
フレーム保持される。このフレームバッファー4に保持
されたITVカメラ(不図示)からの個々の画像は表示
手段に表示されている。
A video signal from an ITV camera (not shown) is input via an A / D converter 5, and a plurality of frames of individual images (that is, frames) continuously captured in time are held. You. Individual images from an ITV camera (not shown) held in the frame buffer 4 are displayed on display means.

【0030】まず、画面上で道路をエリアA〜Cの3つ
のエリアに分割する(ステップS101)。エリア分割
が行われると、続いて、現フレームと前フレーム間の差
分をとり、有効走査線の各走査線毎にその差分結果を2
値化して移動体である車両を抽出する(ステップS10
2)。車両抽出が行われると、続いて、各走査線につい
て、エリアAおよびエリアCが「0」、エリアBが
「1」となる走査線を「1」とし、これ以外の走査線は
「0」とするパターン処理(横方向へのプロジェクショ
ン)を行う(ステップS103)。パターン処理が行わ
れると、続いて、パターン処理された結果の総和がしき
い値以上かどうかが判定され、しきい値以上であれば車
線変更有り、しきい値未満であれば車線変更なしと判定
される(ステップS104)。
First, the road is divided into three areas A to C on the screen (step S101). When the area division is performed, the difference between the current frame and the previous frame is calculated, and the difference result is set to 2 for each effective scanning line.
A value is extracted to extract a vehicle as a moving body (step S10)
2). When vehicle extraction is performed, subsequently, for each scanning line, the scanning line in which the area A and the area C are “0” and the area B is “1” is “1”, and the other scanning lines are “0”. (Projection in the horizontal direction) is performed (step S103). When the pattern processing is performed, subsequently, it is determined whether or not the total sum of the pattern processing results is equal to or more than the threshold value. A determination is made (step S104).

【0031】なお、上述の車線変更の検出手順におい
て、ステップ101はステップ102の後に行われても
よい。
In the above-described lane change detection procedure, step 101 may be performed after step 102.

【0032】以上のように、本実施例の車線変更検出手
段および方法では、車線変更検出のために複雑な処理を
必要とせず、簡単なアルゴリズム処理によりに車線変更
を検出することができる。この検出された車線変更は交
通情報として、通信回線等を介して情報処理システム、
例えば交通情報管理システムへ送られる。
As described above, the lane change detecting means and method of the present embodiment do not require complicated processing for detecting lane change, and can detect lane change by simple algorithm processing. The detected lane change is used as traffic information as an information processing system via a communication line,
For example, it is sent to a traffic information management system.

【0033】なお、図5に示すように横方向からカメラ
撮像した場合には、誤って車線変更が検出されることが
考えられるが、本実施例では、パターン処理(横方向へ
のプロジェクション)が3つのエリアA〜Cについて行
われているので、エリア分けを画面に応じて設定すれ
ば、この図5に示す場合においても誤って車線変更が検
出されることはない。
When a camera image is taken from the lateral direction as shown in FIG. 5, it is conceivable that a lane change is erroneously detected. However, in this embodiment, pattern processing (projection in the lateral direction) is performed. Since the processing is performed for the three areas A to C, if the area division is set according to the screen, the lane change is not detected erroneously even in the case shown in FIG.

【0034】[0034]

【発明の効果】以上説明したように、本発明は簡単なア
ルゴリズムの処理で車線変更を検出することができるよ
う構成されているので、リアルタイムな処理が可能であ
り、交通情報としてリアルタイムな情報を提供すること
ができるという効果がある。
As described above, the present invention is configured so that lane change can be detected by simple algorithm processing, real-time processing is possible, and real-time information is used as traffic information. There is an effect that it can be provided.

【0035】加えて、簡単なアルゴリズムの処理だけな
ので大規模なハードウェアは必要なく、コスト低下を図
ることができるという効果がある。
In addition, since only simple algorithm processing is required, large-scale hardware is not required, and there is an effect that cost can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の車線変更検出装置の概略構
成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a lane change detection device according to an embodiment of the present invention.

【図2】表示された2車線道路をエリアA〜Cの3つの
エリアに分けた状態を示す図である。
FIG. 2 is a diagram showing a state where a displayed two-lane road is divided into three areas A to C;

【図3】車両が走行車線から追越し車線へ車線変更した
様子を示すフレーム1〜4についてのパターン処理を示
す図で、(a)はフレーム1,2間についてのもの、
(b)はフレーム2,3間についてのもの、(c)はフ
レーム3,4間についてのものである。
3A and 3B are diagrams showing pattern processing for frames 1 to 4 showing a state in which a vehicle has changed lanes from a traveling lane to a passing lane, and FIG.
(B) is for frames 2 and 3, and (c) is for frames 3 and 4.

【図4】図1に示した車線変更検出装置における車線変
更検出の手順を示すフローチャートである。
FIG. 4 is a flowchart showing a procedure of lane change detection in the lane change detection device shown in FIG.

【図5】横方向からカメラ撮像した画面の一例を示す図
である。
FIG. 5 is a diagram illustrating an example of a screen captured by a camera from a horizontal direction.

【図6】従来の車線変更検出方法を説明するための概念
図で、(a)は車両が走行車線から追越し車線へ車線変
更した様子を示したフレーム1〜3のフレーム間差分を
示したもの、(b)は(a)に示したフレーム1〜3に
おける移動体(車両)の重心位置をXY座標に示したも
のである。
FIG. 6 is a conceptual diagram for explaining a conventional lane change detection method, in which (a) shows a frame-to-frame difference between frames 1 to 3 showing a situation where a vehicle has changed lanes from a traveling lane to an overtaking lane. (B) shows the XY coordinates of the position of the center of gravity of the moving object (vehicle) in frames 1 to 3 shown in (a).

【符号の説明】[Explanation of symbols]

1 CPU 2 入力手段 3 エリア情報格納メモリ 4 フレームバッファー 5 A/D変換器 6 車線変更検出処理部 7 フレーム間差分検出部 8 パターン処理部 9 車線変更判定部 DESCRIPTION OF SYMBOLS 1 CPU 2 Input means 3 Area information storage memory 4 Frame buffer 5 A / D converter 6 Lane change detection processing part 7 Inter-frame difference detection part 8 Pattern processing part 9 Lane change judgment part

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】第1および第2の車線に区分された道路に
おける車線変更を検出する車線変更検出装置であって、 前記道路に関して時間的に連続して撮られた個々のフレ
ームを基に表示される表示画像ついて、第1の車線側
部をエリアA、第1の車線と第2の車線とを区分する線
を基準とする中心部をエリアB、第2の車線側部をエリ
アCとする3つのエリアに分割する分割手段と、 現フレームと前フレーム間の差分を求め、該差分結果を
2値化するフレーム間差分検出手段と、 前記表示画像を形成する各走査線について、前記フレー
ム間差分検出手段にて2値化された差分結果がエリアA
およびエリアCにおいて「0」、エリアBにおいて
「1」となる走査線を「1」とし、これ以外の走査線は
「0」とするパターン処理を行うパターン処理手段と、 前記パターン処理手段にてパターン処理された結果の総
和をとり、その値が所定のしきい値以上の場合に車線変
更と判定する車線変更判定手段と、を有することを特徴
とする車線変更検出装置
1. A lane change detecting device for detecting a lane change on a road divided into a first lane and a second lane, wherein the lane change detecting device displays the lane change based on individual frames taken successively in time with respect to the road. about display image, the first lane side area a, area B the center of the first lane and the reference line for dividing the second lane, the area of the second lane side C Division means for dividing the current frame and the previous frame, and inter-frame difference detection means for binarizing the difference result; and for each scanning line forming the display image, The difference result binarized by the inter-frame difference detection means is the area A
A pattern processing unit for performing pattern processing in which “0” is set in the area C, “1” is set in the area B, and “0” is set in the other scanning lines. A lane change detecting device , comprising: a lane change determining unit that calculates a total sum of pattern processing results and determines that the lane change is performed when the value is equal to or greater than a predetermined threshold value.
【請求項2】 第1および第2の車線に区分された道路
における車線変更を検出する車線変更検出方法であっ
て、 前記道路に関して時間的に連続して撮られた個々のフレ
ームを基に表示される表示画像ついて、第1の車線側
部をエリアA、第1の車線と第2の車線とを区分する線
を基準とする中心部をエリアB、第2の車線側部をエリ
アCとする3つのエリアに分割する第1のステップと、 現フレームと前フレーム間の差分を求め、該差分結果を
2値化する第2のステップと、 前記表示画像を形成する各走査線について、前記第2の
ステップにて2値化された差分結果がエリアAおよびエ
リアCにおいて「0」、エリアBにおいて「1」となる
走査線を「1」とし、これ以外の走査線は「0」とする
パターン処理を行う第3のステップと、 前記第3のステップにてパターン処理された結果の総和
をとり、その値が所定のしきい値以上の場合に車線変更
と判定する第4のステップと、を有することを特徴とす
る車線変更検出方法。
2. A lane change detection method for detecting a lane change on a road divided into a first lane and a second lane, wherein the lane change is detected based on individual frames temporally continuously taken on the road. about display image, the first lane side area a, area B the center of the first lane and the reference line for dividing the second lane, the area of the second lane side C A first step of dividing the current frame and the previous frame into two areas, a second step of obtaining a difference between the current frame and the previous frame, and binarizing the difference result; and a scanning line forming the display image. The scanning line whose difference result binarized in the second step is “0” in the areas A and C and “1” in the area B is “1”, and the other scanning lines are “0”. A third step of performing a pattern process, A fourth step of taking a total of the results of the pattern processing in the third step, and determining that the lane change has been made when the value is equal to or greater than a predetermined threshold value. Method.
JP7138175A 1995-06-05 1995-06-05 Lane change detection apparatus and method Expired - Fee Related JP2735033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7138175A JP2735033B2 (en) 1995-06-05 1995-06-05 Lane change detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7138175A JP2735033B2 (en) 1995-06-05 1995-06-05 Lane change detection apparatus and method

Publications (2)

Publication Number Publication Date
JPH08329383A JPH08329383A (en) 1996-12-13
JP2735033B2 true JP2735033B2 (en) 1998-04-02

Family

ID=15215805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7138175A Expired - Fee Related JP2735033B2 (en) 1995-06-05 1995-06-05 Lane change detection apparatus and method

Country Status (1)

Country Link
JP (1) JP2735033B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107948465B (en) * 2017-12-11 2019-10-25 南京行者易智能交通科技有限公司 A kind of method and apparatus that detection camera is disturbed
CN113793356B (en) * 2018-09-30 2023-06-23 百度在线网络技术(北京)有限公司 Lane line detection method and device
CN114882709B (en) * 2022-04-22 2023-05-30 四川云从天府人工智能科技有限公司 Vehicle congestion detection method, device and computer storage medium

Also Published As

Publication number Publication date
JPH08329383A (en) 1996-12-13

Similar Documents

Publication Publication Date Title
US6760061B1 (en) Traffic sensor
JP3279479B2 (en) Video monitoring method and device
JP2003259361A (en) Image processing apparatus for vehicle
JP3849505B2 (en) Obstacle monitoring device and program
JP2994170B2 (en) Vehicle periphery monitoring device
JP2002314989A (en) Peripheral monitor for vehicle
JP3011566B2 (en) Approaching vehicle monitoring device
JP3911983B2 (en) Rear monitoring device
JP2735033B2 (en) Lane change detection apparatus and method
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
JP2002150295A (en) Object detection method and object detection device
JPH11345392A (en) Device and method for detecting obstacle
JP2004258981A (en) Vehicle monitoring method and device
JP3226699B2 (en) Perimeter monitoring device for vehicles
JPH10105690A (en) Wide area moving body following device
JPH1040490A (en) Road monitoring device
JP2002042140A (en) Moving object measuring device and traffic flow measured image processing device
JP2005267331A (en) Vehicle circumference monitoring device
JPH0991439A (en) Object monitor
JP2003187228A (en) Device and method for recognizing vehicle
JP4172284B2 (en) Vehicle periphery monitoring device
JP2829536B2 (en) Mobile vehicle environment recognition device
JP3053723B2 (en) License plate character recognition method and device
JP4039648B2 (en) Specific route bus detection method and apparatus
US11417115B2 (en) Obstacle recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080109

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees