JP2000285245A - Method and device for preventing collision of moving body and recording medium - Google Patents

Method and device for preventing collision of moving body and recording medium

Info

Publication number
JP2000285245A
JP2000285245A JP11093884A JP9388499A JP2000285245A JP 2000285245 A JP2000285245 A JP 2000285245A JP 11093884 A JP11093884 A JP 11093884A JP 9388499 A JP9388499 A JP 9388499A JP 2000285245 A JP2000285245 A JP 2000285245A
Authority
JP
Japan
Prior art keywords
vehicle
moving
collision
image
alarm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11093884A
Other languages
Japanese (ja)
Other versions
JP4377474B2 (en
Inventor
Takahiro Taniguchi
恭弘 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP09388499A priority Critical patent/JP4377474B2/en
Publication of JP2000285245A publication Critical patent/JP2000285245A/en
Application granted granted Critical
Publication of JP4377474B2 publication Critical patent/JP4377474B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent a collision by picking up the image of the rear by a camera mounted on a user's vehicle and quickly and reliably detecting another vehicle from this image and making the user to surely take a countermeasure which prevents the trouble related to the collision or abnormal approach between both vehicles on the basis of the detection result. SOLUTION: A TV camera is used to observe the surrounding condition of he user's running vehicle, and another vehicle in the surroundings which may collide with the vehicle is detected, and an alarm is generated to the driver of the running vehicle on the basis of the detection result (steps S1 to S8). In particular, another vehicle which tries to overtake the vehicle is detected with a high precision, and the probability of collision is forecast in consideration of the turn signal, the handle steering angle, etc., of the user's own vehicle to give an alarm.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ある車両が別の車
両を追い越すとき等、車両同士が互いに接近する瞬間状
態を経験するときの車両間の衝突を防止する衝突防止装
置および衝突防止方法に係り、とくに、カメラで後方の
走行状態を撮像し、その画像から他の車両を検出してカ
メラ搭載車両に必要に応じて警報を発するようにした衝
突防止装置および衝突防止方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a collision prevention apparatus and a collision prevention method for preventing a collision between vehicles when the vehicles experience an instantaneous state in which the vehicles approach each other, such as when one vehicle passes another vehicle. In particular, the present invention relates to a collision prevention apparatus and a collision prevention method in which a camera captures an image of a rear running state, detects another vehicle from the image, and issues an alarm to a vehicle equipped with the camera as necessary.

【0002】[0002]

【従来の技術】一般に、交通事故の原因には各種の要因
があるが、車線変更や追い越し走行を原因とする事故も
相当数に上る。したがって、走行中の車両の運転者がそ
の周囲の状況、とくに後方の走行状態を常時把握してい
れば、不用意な車線変更やハンドル操作を回避するのに
多いに役立つものと考えられている。
2. Description of the Related Art In general, there are various causes for traffic accidents, and a considerable number of accidents are caused by lane changes or overtaking. Therefore, it is thought that if the driver of a running vehicle always knows the surrounding conditions, especially the driving state behind, it is often useful to avoid careless lane changes and steering operations. .

【0003】従来、走行中の車両がその周りの状況を観
測するには、レーダやテレビカメラなどが多用されてい
る。レーダとしては、レーザレーダや超音波レーダが用
いられる。これらのレーダを利用した環境認識装置の場
合、障害物に対する相対速度や障害物との距離は検出可
能であるが、指向性が狭く、曲がった道路での利用など
は困難であった。
[0003] Conventionally, radars, television cameras, and the like have been frequently used to observe the surroundings of a running vehicle. As the radar, a laser radar or an ultrasonic radar is used. In the case of an environment recognition device using these radars, the relative speed to an obstacle and the distance to the obstacle can be detected, but the directivity is narrow, and it is difficult to use on a curved road.

【0004】これに対して、テレビカメラから得られる
画像を用いる方法の場合、その1つの態様として、画像
中の車両の位置から、車両の3次元位置を推定すること
も可能であり、観測範囲も広くなるという特徴がある。
しかし、この方法は、車両周辺のある一瞬の状況を認識
して、画像中での障害物の位置を検出するだけであり、
障害物との時間的な位置の変化などを考慮していなかっ
た。
On the other hand, in the case of a method using an image obtained from a television camera, as one aspect, it is possible to estimate a three-dimensional position of the vehicle from the position of the vehicle in the image, and to observe the observation range. Also has the feature that it becomes wider.
However, this method only recognizes an instantaneous situation around the vehicle and detects the position of the obstacle in the image,
It did not take into account temporal changes in position with obstacles.

【0005】例えば、特開平2−287799号公報記
載の技術によれば、車両に装着されたテレビカメラの画
像を元に、この画像から走行レーンを認識して、走行レ
ーン中に障害物が存在する場合、その方向にターンシグ
ナルを出すと警報が発生される装置が提案されている。
具体的には、この装置は画像上で走行レーンの画素濃度
と異なる領域を2値化によって求め、走行レーン中の障
害物を認識している。
For example, according to the technique described in Japanese Patent Application Laid-Open No. 2-287799, a driving lane is recognized from an image of a television camera mounted on a vehicle, and an obstacle exists in the driving lane. In such a case, a device has been proposed in which an alarm is generated when a turn signal is issued in that direction.
Specifically, this device obtains an area on the image different from the pixel density of the driving lane by binarization, and recognizes an obstacle in the driving lane.

【0006】しかし、この装置の場合、先に検出した走
行レーンの中だけを障害物(他の車両など)の検出対象
としているため、走行レーンの検出に失敗した場合や走
行レーンの端を走行する2輪車がある場合などにおいて
は、検出能がうまく機能しない場合もある。また、この
装置の手法によれば、ある時刻の一点で道路上に存在す
る障害物を検出するため、道路上の影やペイントなどを
障害物として誤認する可能性もある。さらに、ある時刻
の一点で障害物の存在を検出するだけであるので、自車
両よりも速度が遅く、相対的に遠ざかっていく車両に対
しても警報を誤って発生する可能性がある。
However, in the case of this device, since only obstacles (such as other vehicles) are detected in the traveling lane detected earlier, the traveling lane cannot be detected or the traveling lane ends. In some cases, such as when there are two-wheeled vehicles, the detectability may not function well. Further, according to the method of this device, an obstacle existing on a road at a certain point in time is detected, and thus there is a possibility that a shadow or paint on the road is erroneously recognized as an obstacle. Furthermore, since only the presence of an obstacle is detected at one point at a certain time, there is a possibility that an alarm may be erroneously generated even for a vehicle that is slower than its own vehicle and relatively moves away.

【0007】そこで、画像処理による車両検出の別の方
法として、時系列的に連続的に取り込まれる画像から車
両などの移動体を検出する手法が提案されている。
Therefore, as another method of vehicle detection by image processing, a method of detecting a moving object such as a vehicle from an image continuously captured in time series has been proposed.

【0008】例えば、“D.Murray et a
l., Motion Tracking with
an Active Camera, PAMI,V
o.16,NO.5,449−459"で提案されてい
るように、既知のカメラ移動量を利用して画像を変換す
ることによって時系列画像間の対応関係を演算し、移動
体を抽出する手法である。また、「移動カメラで撮影し
た動画像からの移動物体の抽出」(情報処理学会、第5
1回全国大会、1995:寺久保他著)によれば、画像
上の注目点を配置し、これらの点を頂点とする領域の対
応を時系列画像間で探索することによって、画像間での
アフィン変換パラメータを2段階に分けて求め、これに
より移動物体を抽出する手法が提案されている。さら
に、特開平7−110864号公報によれば、移動ベク
トル場に2次元ラプラシアンフィルタを掛け、その出力
値をしきい値処理することにより移動物体を抽出する方
式が提案されている。
For example, “D. Murray et a
l. , Motion Tracking with
an Active Camera, PAMI, V
o. 16, NO. As described in US Pat. No. 5,449-559 ", this is a method of calculating a correspondence between time-series images by converting an image using a known camera movement amount, and extracting a moving object. , “Extraction of Moving Object from Moving Image Captured by Moving Camera” (IPSJ, No.5)
According to the 1st National Convention, 1995: Terakubo et al.), By arranging points of interest on images and searching for correspondence of regions having these points as vertices between time-series images, There has been proposed a method of obtaining an affine transformation parameter in two stages and extracting a moving object based on the obtained affine transformation parameter. Further, Japanese Patent Application Laid-Open No. Hei 7-110864 proposes a method of extracting a moving object by applying a two-dimensional Laplacian filter to a moving vector field and subjecting the output value to threshold processing.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上述し
た従来の時系列的に連続した画像を利用した移動物体
(車両)検出の場合、所定の演算処理を画像全体の画素
について一様に実行することから、画像処理の演算負荷
が非常に大きく、高速処理が難しくなる。これを回避す
るには、演算能力が高いコントローラが要求される。つ
まり、車両の衝突防止のような高いリアルタイム性を求
められ、且つ、車載が可能なコストの装置には不向きで
あるという問題がある。
However, in the above-described conventional detection of a moving object (vehicle) using a time-series continuous image, a predetermined arithmetic processing is performed uniformly for the pixels of the entire image. Therefore, the calculation load of image processing is very large, and high-speed processing becomes difficult. In order to avoid this, a controller having a high calculation capability is required. In other words, there is a problem that a high real-time property such as prevention of collision of a vehicle is required, and it is not suitable for a device that can be mounted on a vehicle at a low cost.

【0010】本発明は、このような従来技術が抱える状
況に鑑みてなされたもので、自車両に搭載したカメラの
画像から他車両を検出するときの演算量を減らすことが
でき、これにより、処理の高速化を図るとともに、車載
が可能な程度の演算能力の装置であっても他車両を確実
に検出することができる衝突防止装置および衝突防止方
法を提供することを、1つの目的とする。
[0010] The present invention has been made in view of such a situation of the prior art, and can reduce the amount of calculation when detecting another vehicle from an image of a camera mounted on the own vehicle. It is an object of the present invention to provide a collision prevention device and a collision prevention method that can speed up processing and can reliably detect another vehicle even if the device has a calculation capability that can be mounted on a vehicle. .

【0011】また本発明は、自車両に搭載したカメラか
ら後方を撮像し、その画像から他車両を迅速に且つ確実
に検出し、この検出結果に基づいて両方の車両の衝突や
異常接近に関わるトラブルを未然に回避させるための措
置を確実にとらせることができる衝突防止装置および衝
突防止方法を提供することを、別の目的とする。
Further, the present invention captures an image of the rear from a camera mounted on the own vehicle, detects the other vehicle quickly and reliably from the image, and relates to a collision or abnormal approach of both vehicles based on the detection result. Another object of the present invention is to provide a collision prevention device and a collision prevention method that can surely take measures for avoiding a trouble beforehand.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するた
め、本発明に係る移動体の衝突防止装置は、衝突防止の
警報発令の対象となる移動体の周囲の状況を撮像する撮
像手段と、この撮像手段が時系列に撮像した複数フレー
ムの画像夫々の限定した検出領域を探索して他の移動体
を検出する検出手段と、前記対象となる移動体の移動状
態と検出された前記他の移動体の移動状態との関係から
両移動体間における衝突の可能性の程度を予測する予測
手段と、この予測手段の予測結果に応じて前記対象とな
る移動体に警報を発する警報発生手段とを備えたことを
特徴とする。
In order to achieve the above object, a collision preventing apparatus for a moving object according to the present invention comprises: an image pickup means for picking up an image of a situation around a moving object to be issued a collision prevention alarm; A detecting unit that searches for a limited detection area of each of the plurality of frames of images captured by the imaging unit in time series and detects another moving body; and the other moving state detected as the moving state of the target moving body. Prediction means for predicting the degree of possibility of collision between the two moving bodies from a relationship with the moving state of the moving body, and alarm generating means for issuing an alarm to the target moving body in accordance with the prediction result of the prediction means; It is characterized by having.

【0013】好適には、前記撮像手段、検出手段、予測
手段、および警報発生手段は全て前記対象となる移動体
に設ける。例えば、前記両方の移動体は共に車両であ
る。例えば、前記検出手段は、前記画像での前記対象車
両が走行している道路に存在するエッジとその交点であ
る消失点の位置情報を決める手段と、この位置情報を元
にして前記限定した検出領域を決める手段と、前記時系
列の画像間における前記検出領域の移動量を検出する手
段と、この移動量に基づき前記対象車両に接近するか又
はその車両と等速で走行する他の車両のみを検出する手
段とを備えたことを特徴とする。
Preferably, the imaging means, the detection means, the prediction means, and the alarm generation means are all provided in the target moving body. For example, both of the moving bodies are vehicles. For example, the detecting means may determine position information of an edge existing on a road on which the target vehicle is traveling in the image and a vanishing point which is an intersection thereof, and the limited detection based on the position information Means for determining an area, means for detecting the amount of movement of the detection area between the time-series images, and only other vehicles approaching the target vehicle or traveling at the same speed as the vehicle based on the amount of movement And means for detecting

【0014】また、好適には、前記予測手段は、検出し
た前記他の車両の前記移動量に基づき当該車両の領域が
前記画像上でその端部まで到達する時間を算出する手段
と、この算出値を用いて前記対象車両に前記他の車両が
追い付くまでの時間を予測する手段とを備える。この場
合、前記警報発生手段は、前記予測時間に基づき前記他
の車両が前記対象車両に衝突する可能性を見極める手段
と、前記対象車両の走行方向の変更を検知する手段と、
前記衝突の可能性があると判断され且つ前記対象車両が
前記他の車両が走行している車線方向に走行方向を変更
しようとしている状態が検知されたときに警報を発する
手段とを備えていてもよい。例えば、前記検知手段は、
前記対象車両の運転者によるウィンカーの点灯状況また
はハンドルの操作角状況を検知する手段である。
Preferably, the predicting means calculates a time required for an area of the vehicle to reach an end of the image on the image based on the detected movement amount of the another vehicle, Means for predicting a time until the other vehicle catches up with the target vehicle using a value. In this case, the alarm generation unit is configured to determine a possibility that the another vehicle will collide with the target vehicle based on the predicted time, and a unit that detects a change in a traveling direction of the target vehicle,
Means for issuing an alarm when it is determined that there is a possibility of the collision and a state in which the target vehicle is about to change the traveling direction to the lane in which the other vehicle is traveling is detected. Is also good. For example, the detecting means includes:
It is means for detecting a lighting state of a turn signal or a steering angle state of a steering wheel by a driver of the target vehicle.

【0015】また、前記目的を達成するため、衝突防止
の警報発令の対象となる移動体の周囲の状況を時系列に
撮像し、この撮像した複数フレームの画像夫々の限定し
た検出領域を探索して他の移動体を検出し、前記対象と
なる移動体の移動状態と検出された前記他の移動体の移
動状態との関係から両移動体間における衝突の可能性の
程度を予測し、この予測結果に応じて前記対象となる移
動体に警報を発することを特徴とする。
[0015] In order to achieve the above object, a situation around a moving object to be issued a collision prevention alarm is imaged in a time series, and a limited detection area of each of the plurality of imaged frames is searched. To detect the degree of possibility of collision between the two moving bodies from the relationship between the moving state of the target moving body and the detected moving state of the other moving body. A warning is issued to the target moving body in accordance with the prediction result.

【0016】さらに、前記目的を達成するには、移動体
の衝突防止のためのプログラムを記録したコンピュータ
読み取り可能な記録媒体であって、前記衝突防止の警報
を出す対象となる移動体の周囲の状況を撮像する撮像手
段が時系列に撮像した複数フレームの画像を入力する手
段と、当該画像夫々の限定した検出領域を探索して他の
移動体を検出する手段と、前記対象となる移動体の移動
状態と検出された前記他の移動体の移動状態との関係か
ら両移動体間における衝突の可能性の程度を予測する手
段と、この予測結果に応じて前記対象となる移動体に警
報器を介して警報を発令する手段とを実行するプログラ
ムを記録した記録媒体を備えてもよい。
Further, in order to achieve the above object, there is provided a computer-readable recording medium on which a program for preventing collision of a moving object is recorded, wherein a computer-readable recording medium is provided around the moving object for which the collision prevention alarm is issued. Means for inputting a plurality of frames of images taken in time series by the imaging means for imaging the situation; means for searching for a limited detection area of each of the images to detect other moving objects; and the target moving object. Means for predicting the degree of the possibility of collision between the two moving bodies from a relationship between the moving state of the other moving body and the detected moving state of the other moving body, and an alarm is issued to the target moving body in accordance with the prediction result. A means for issuing a warning through a device.

【0017】このような構成によれば、画像中の動き情
報をもとに移動体としての自車両に衝突する可能性のあ
る他の移動体としての追越し車両のみを検出することが
でき、検出された追い越し車両と自車両との間の関係の
時間的な変化を利用することにより、衝突を安定して且
つ確実に防止する上で有効である。
According to such a configuration, based on the motion information in the image, it is possible to detect only the overtaking vehicle as another moving body which may collide with the own vehicle as the moving body. The use of the temporal change in the relationship between the overtaken vehicle and the own vehicle is effective in stably and reliably preventing a collision.

【0018】[0018]

【発明の実施の形態】以下に本発明の一実施形態を図1
〜12に基づき説明する。なお、この実施形態では、移
動体として実空間の路面などを移動する車両を例にとっ
て説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIG.
This will be described based on 12. In this embodiment, a vehicle that moves on a road surface in a real space or the like will be described as an example of a moving object.

【0019】この実施形態に係る衝突防止装置は、1台
ずつの車両に搭載されるようになっている。この衝突防
止装置は、図1に示す如く、撮像手段としてのカメラ1
1、舵角センサ12、ウィンカーセンサ13、および車
速センサ14を備えるとともに、CPU、メモリなどを
有するコントローラ15、警報器16を備える。
The collision preventing device according to this embodiment is mounted on each vehicle. As shown in FIG. 1, this collision prevention device includes a camera 1 as an imaging unit.
1, a steering angle sensor 12, a blinker sensor 13, and a vehicle speed sensor 14, and a controller 15 having a CPU, a memory, and the like, and an alarm device 16.

【0020】カメラ11、舵角センサ12、および車速
センサ14とコントローラ15との間にA/D変換器1
7、18及びカウンタ19が夫々介挿されている。ま
た、コントローラ15と警報器16との間にはドライバ
20が介挿されている。
An A / D converter 1 is provided between the camera 11, the steering angle sensor 12, and the vehicle speed sensor 14 and the controller 15.
7, 18 and a counter 19 are inserted respectively. Further, a driver 20 is interposed between the controller 15 and the alarm 16.

【0021】コントローラ15は後述する各種の処理を
行うプログラムを格納しており、車両Cのキースイッチ
をオンにすることでそれらの処理を自動的に起動させ、
キースイッチをオフにするまでそれらの処理を継続させ
る。
The controller 15 stores programs for performing various processes described later, and automatically activates the processes by turning on a key switch of the vehicle C.
These processes are continued until the key switch is turned off.

【0022】カメラ11は、通常のCCDカメラ、CM
OSカメラ、ITVカメラ等を利用することができる。
このカメラ11は、本実施形態では図2に示す如く、車
両C(自車両Cs、他車両Co)のリアウィンドウに視
野を後方に向けて取り付けられている。なお、カメラ1
1は、車両Cの後方を撮像できる位置であれば何れの位
置に取り付けてもよい。このカメラ11で撮像された道
路、車両およびその周辺環境の画像のデータは、時系列
的に連続してA/D換器17などを介してディジタル信
号に処理され、コントローラ15に送られる。
The camera 11 is an ordinary CCD camera, CM
An OS camera, an ITV camera, or the like can be used.
In the present embodiment, the camera 11 is attached to the rear window of the vehicle C (own vehicle Cs, other vehicle Co) with its field of view facing rearward, as shown in FIG. Camera 1
1 may be attached to any position as long as the position behind the vehicle C can be imaged. Data of images of roads, vehicles, and their surroundings captured by the camera 11 are processed into digital signals continuously through the A / D converter 17 and the like in a time-series manner, and sent to the controller 15.

【0023】舵角センサ12は各車両Cのハンドルの操
作角度を検出する。この操作角度信号はA/D変換器1
8によりデジタル量の信号に変換され、コントローラ1
5に送られる。
The steering angle sensor 12 detects the operating angle of the steering wheel of each vehicle C. This operation angle signal is transmitted to the A / D converter 1
8 converts the signal into a digital signal, and the controller 1
Sent to 5.

【0024】また、ウィンカーセンサ13は車両Cの左
側又は右側のウィンカーを点灯させた状態を検知し、そ
れを論理値で成るオン・オフ信号としてコントローラ1
5に送る。
The turn signal sensor 13 detects a state where the left or right turn signal of the vehicle C is turned on, and uses the detected result as an on / off signal having a logical value.
Send to 5.

【0025】さらに、車速センサ14は、車両Cの車速
を例えば車輪の回転に応じたパルス信号として検出す
る。このパルス信号はカウンタ19により単位時間当た
りのパルス数として計測され、この計測値がデジタル量
の状態でコントローラ15に供給される。
Further, the vehicle speed sensor 14 detects the vehicle speed of the vehicle C, for example, as a pulse signal corresponding to the rotation of the wheels. The pulse signal is measured by the counter 19 as the number of pulses per unit time, and the measured value is supplied to the controller 15 in a digital amount state.

【0026】これらの車速、ウィンカー点灯状態又はハ
ンドル角度は、後方から自車両Csに接近してくる他車
両Coとの衝突の可能性を判断するときの自車両の走行
状態を表すパラメータとしてコントローラ15で使用さ
れる。
The vehicle speed, the blinker lighting state, or the steering wheel angle are used as parameters representing the running state of the own vehicle when determining the possibility of collision with another vehicle Co approaching the own vehicle Cs from behind. Used in.

【0027】後述するように、コントローラ15は自車
両Csと他車両Coとの間の衝突の可能性を予測したと
きに、デジタル量の警報信号をドライバ20に出力す
る。この信号はドライバ20により所要パワーのアナロ
グ量の信号に変換され、警報器16に供給される。警報
器16は例えば、光や音(または音声)を発して運転者
に警報を与えるユニットであり、運転席に聞こえる位置
や運転席から見ることのできる位置に設けられている。
As will be described later, the controller 15 outputs a digital amount warning signal to the driver 20 when predicting the possibility of a collision between the host vehicle Cs and another vehicle Co. This signal is converted into an analog signal of a required power by the driver 20 and supplied to the alarm 16. The alarm device 16 is, for example, a unit that emits light or sound (or sound) to give an alarm to the driver, and is provided at a position that can be heard from the driver's seat or a position that can be seen from the driver's seat.

【0028】続いて、この衝突防止装置の動作を説明す
る。
Next, the operation of the collision prevention device will be described.

【0029】コントローラ15は、図3に示す概略アル
ゴリズムに基づいて後方から接近する他車両Coを検出
し、必要に応じて警報を発する。
The controller 15 detects another vehicle Co approaching from behind based on the schematic algorithm shown in FIG. 3, and issues an alarm if necessary.

【0030】これを説明すると、コントローラ15はカ
メラ11からの画像データをフレーム毎に入力し(ステ
ップS1)、次いで前回の処理で使用した画像データ
(1フレーム前の画像データ)をメモリからワークエリ
アに読み出す(ステップS2)。
To explain this, the controller 15 inputs the image data from the camera 11 for each frame (step S1), and then stores the image data used in the previous processing (the image data one frame before) from the memory into the work area. (Step S2).

【0031】次いで、コントローラ15は自車両Csの
後方を走行している他車両Coの検出処理を行う。この
検出処理は、路面の白線検出(ステップS3)、画像中
の特徴点の移動量算出(ステップS4)、及び追い越す
他車両Co(追越し車両)の検出(ステップS5)から
成る。これらの各ステップの処理は後で詳述する。
Next, the controller 15 performs a process for detecting another vehicle Co traveling behind the host vehicle Cs. This detection processing includes detection of a white line on the road surface (step S3), calculation of the amount of movement of the feature point in the image (step S4), and detection of the overtaking other vehicle Co (overtaking vehicle) (step S5). The processing of each of these steps will be described later in detail.

【0032】この検出処理により自車Csを追い越そう
としている他車両Coが検出された場合、後述するよう
に、追いつかれる時間を予測する(ステップS6)。そ
して、必要に応じて、自車Csの運転者に追越し車両C
oが居ることを知らせるための警報を発する(ステップ
S7)。この後、かかる処理を継続する場合(ステップ
S8)、ステップS1で入力した現在のフレームの画像
データを次回の検出処理のために記憶する(ステップS
9)。
When another vehicle Co trying to pass the own vehicle Cs is detected by this detection processing, a time to catch up is predicted as described later (step S6). Then, if necessary, the overtaking vehicle C is passed to the driver of the own vehicle Cs.
An alarm is issued to notify that o is present (step S7). Thereafter, when such processing is continued (step S8), the image data of the current frame input in step S1 is stored for the next detection processing (step S8).
9).

【0033】これにより、エンジンオフとなるまで、か
かる検出処理が継続され、時系列的に連続する2画像に
基づく追越し車両の検出、衝突の可能性判断、および、
必要に応じた警報発生の処理が行われる。以下に、この
処理を詳述する。
As a result, such detection processing is continued until the engine is turned off, and the detection of a passing vehicle based on two images consecutive in time series, the possibility of collision, and
An alarm generation process is performed as necessary. Hereinafter, this processing will be described in detail.

【0034】(白線検出処理)ステップS3では、コン
トローラ15により、道路上の白線検出処理が実行され
る。
(White Line Detection Process) In step S3, the controller 15 executes a white line detection process on the road.

【0035】この白線検出処理は、概括的には、入力す
る各時系列画像に対してエッジの抽出を行い、画像内の
路面上の白線および道路の稜線を構成する直線エッジと
その交点である消失点とを検出する処理である。抽出さ
れた白線、稜線のエッジ処理結果および消失点は後述の
移動量算出処理で使用される。なお、以降の説明におい
て、白線、黄線、及び舗道の稜線など、車線を区分でき
る線状体を一括して「白線」と記述する。
In the white line detection processing, edges are extracted from each input time-series image, and the white line on the road surface in the image and the straight line edges forming the ridge line of the road and their intersections. This is a process of detecting a vanishing point. The extracted white line and edge processing result and vanishing point of the ridge line are used in a movement amount calculation process described later. In the following description, linear bodies that can distinguish lanes, such as a white line, a yellow line, and a pavement ridge line, are collectively described as a “white line”.

【0036】いま、道路上を走行している車両Cから図
4(a),(b)に示す画像のデータが入力するものと
する。同図(a)は時刻tのときに得られた入力画像、
同図(b)は時刻t+1のときに得られた入力画像で、
時系列的に連続している。ここに示した画像は、カメラ
11から入力する画像群の内の、任意の2つの連続時刻
の画像である。
Now, assume that image data shown in FIGS. 4A and 4B is input from a vehicle C running on a road. FIG. 11A shows an input image obtained at time t,
FIG. 2B shows an input image obtained at time t + 1.
It is continuous in chronological order. The images shown here are images at arbitrary two consecutive times in an image group input from the camera 11.

【0037】時系列的に得られる各時刻の入力画像に
は、道路、その側壁、後方を走行する車両などが映って
いるが、この中で本装置が最終的に抽出するのは追い越
していこうとする車両(追越し車両)である。
The input image at each time obtained in chronological order includes a road, its side wall, a vehicle traveling behind, and the like. (Passing vehicle).

【0038】ここで、追い越し車両はその走行範囲が白
線や路肩などで限定されているので、これらの白線や路
肩が構成する稜線などを抽出することによって追い越し
車両の存在位置を限定することができる。また、直進し
ている車両から後方をー般的なテレビカメラで撮影した
場合、背景はFOE(focus of expans
ion)と呼ばれる動きベクトルの集中点に収束するよ
うに移動する。とくに、車両が平行に引かれた車線を区
別する白線の間を白線に沿って走行するとき、FOEは
画面上の白線の交点である消失点にー致することにな
る。
Here, the traveling range of the overtaking vehicle is limited by a white line or a road shoulder, and the location of the overtaking vehicle can be limited by extracting a ridge line formed by the white line or the road shoulder. . Also, when the rear of a vehicle traveling straight is photographed with a general television camera, the background is FOE (focus of expans).
(ion) so as to converge to a convergence point of a motion vector. In particular, when the vehicle travels along a white line between white lines that distinguish between parallel drawn lanes, the FOE will hit a vanishing point that is the intersection of the white lines on the screen.

【0039】一般に、画像処理によって得られた動きベ
クトルからFOEを求めるためには、カメラの動きによ
る背景の動きと背景以外の移動物体に生じる動きとを分
割し、背景の動きを持つ点の動きベクトルの集中点を求
める必要があるため、演算量が非常に大きくなる。これ
に対して、消失点は、白線や稜線を求めて、その交点を
計算することによって求めることができるので、比較的
少ない計算量で求めることができる。そこで、本実施例
では、白線や稜線から消失点を求め、これを仮想的なF
OEであるとして移動量の算出などに利用する手法を採
用する。これにより演算量を減らす、高速で処理できる
ようになる。
Generally, in order to obtain the FOE from the motion vector obtained by the image processing, the motion of the background due to the motion of the camera and the motion of a moving object other than the background are divided, and the motion of the point having the motion of the background is divided. Since it is necessary to determine the concentration point of the vector, the amount of calculation becomes very large. On the other hand, the vanishing point can be obtained by obtaining a white line or a ridge line and calculating an intersection thereof, and thus can be obtained with a relatively small amount of calculation. Therefore, in the present embodiment, a vanishing point is obtained from a white line or a ridge line, and
A method used for calculating the movement amount assuming that the OE is used is adopted. Thereby, high-speed processing can be performed with a reduced amount of calculation.

【0040】白線(白線、黄線、舗道の稜線など)の集
中点である消失点の画像上の位置は、カメラ11の内部
パラメータやカメラ11と地面(路面)との成す角度な
どから一意的に決定できる。そこで、カメラ11を車両
Cに搭載したときに、最初に道路の画像を撮影し、その
とき写し出された画像上の白線の位置と消失点の位置を
記憶させ、この記憶情報を実際の走行中の車両検出を行
うときのデフォルト値として用いるようにする。また、
カメラの振動などに起因してデフォルト位置がずれる可
能性があるので、装置の稼動中に安定して白線の位置検
出ができているならば、デフォルト値をその位置に更新
することも好適な態様である。
The position on the image of the vanishing point, which is the concentration point of the white line (white line, yellow line, pavement ridge line, etc.), is uniquely determined from the internal parameters of the camera 11 and the angle between the camera 11 and the ground (road surface). Can be determined. Therefore, when the camera 11 is mounted on the vehicle C, an image of the road is first taken, and the position of the white line and the position of the vanishing point on the image taken at that time are stored. Is used as a default value when vehicle detection is performed. Also,
Since the default position may be shifted due to camera vibration or the like, if the position of the white line can be detected stably during operation of the apparatus, it is also preferable to update the default value to that position. It is.

【0041】走行中の具体的な白線検出処理は、以下の
ように実行される。白線検出を行うために、まず画面か
らエッジ成分を抽出する。エッジの抽出では、エッジの
方向や強度を検出する必要があるため、ソーペルオペレ
ータやラプラシンアンガウシアンオペレータなどが用い
られる。ただし、エッジの強度と方向を求めることがで
きるオペレータであれば、これらのオペレータ以外のも
のを使うこともできる。
The specific white line detection processing during running is executed as follows. In order to detect a white line, an edge component is first extracted from the screen. In the edge extraction, it is necessary to detect the direction and intensity of the edge, so a Sopel operator, a Laprasin Angaussian operator, or the like is used. However, any operator other than these operators can be used as long as it can determine the strength and direction of the edge.

【0042】次に、得られたエッジの強度と方向を用い
て、白線のデフォルト値の近傍にある白線候補を検出す
る。例えば、図5に示す如く、自車両が走行する車線を
区分する白線のデフオルト位置PWが求められていた場
合、白線候補の探索(検出)範囲RWは図示の如く、白
線のデフォルト位置PWを含む狭い斜線範囲に限定でき
る。
Next, using the obtained edge intensities and directions, white line candidates near the default value of the white line are detected. For example, as shown in FIG. 5, when the default position PW of the white line dividing the lane in which the host vehicle travels is determined, the search (detection) range RW of the white line candidate includes the default position PW of the white line as shown in the figure. It can be limited to a narrow hatched area.

【0043】なお、この探索範囲RWの大きさは車両に
取りつけられたカメラ11の振動の大きさなどを考慮し
て適宜変更することもできる。
The size of the search range RW can be appropriately changed in consideration of the magnitude of vibration of the camera 11 mounted on the vehicle.

【0044】またなお、ここでは、自車両Cが走行して
いるレーンの白線のみを表示したが、それ以外の白線や
稜線を検出して消失点の算出に用いることもできる。た
だし、その場合、自車両が走行している以外の白線のデ
フォルト位置の定義が難しいため、まず、自車両が走行
している白線のデフォルト値を用いて、自車両が走行し
ているレーンの白線のみを求める。次いで、この自車線
を構成する白線から得られる消失点を通るその他の白線
や稜線を探索する。これにより、自車線以外のの白線や
稜線を検出することができる。
Although only the white line of the lane in which the vehicle C is running is displayed here, other white lines and ridge lines can be detected and used for calculating vanishing points. However, in this case, it is difficult to define the default position of the white line other than where the host vehicle is running. Find only the white line. Next, another white line or a ridge line which passes through the vanishing point obtained from the white line constituting the own lane is searched. Thus, white lines and ridge lines other than the own lane can be detected.

【0045】そして、最終的に求められた全ての白線や
稜線を使って最小自乗法を用いて消失点を求める。求め
られた白線と消失点の情報およびエッジ抽出結果は次の
移動量算出に用いられる。
Then, a vanishing point is obtained by using the least squares method using all finally obtained white lines and ridge lines. The obtained white line and vanishing point information and the edge extraction result are used for the next movement amount calculation.

【0046】(移動量算出処理)ステップS4では、コ
ントローラ15により、連続する2枚の画像を使つて画
像上の特徴点(特徴領域)の時系列画像間(フレーム間
インターバル)に対する移動量が算出される。
(Moving Amount Calculation Processing) In step S4, the controller 15 calculates the moving amount of a feature point (feature region) on an image with respect to a time-series image (inter-frame interval) using two consecutive images. Is done.

【0047】概括的には、カメラ11から時系列に入力
する各画像に対して、白線検出により得られた白線や消
失点の情報を利用して処理対象領域を限定し、この処理
対象領域を複数の小領域に分割することによって、各小
領域の時系列画像間での移動量を算出する。算出された
各小領域の移動量は追越し車両の移動量として用いられ
る。
Generally, for each image input in chronological order from the camera 11, the processing target area is limited by using information on white lines and vanishing points obtained by white line detection. By dividing the image into a plurality of small areas, the amount of movement of each small area between the time-series images is calculated. The calculated movement amount of each small area is used as the movement amount of the overtaking vehicle.

【0048】この移動量算出処理を図4および図6に基
づき説明する。
The movement amount calculation processing will be described with reference to FIGS.

【0049】2枚の画像間での特徴点(特徴領域)の移
動量は、2枚の画像間で各特徴点(特徴領域)の対応を
取ることによって求めることができる。例えば、図4
(a)、(b)の画像に対して求められた移動量は図4
(c)に示す矢印のようになる。このように移動量は向
きと大きさを持つベクトルとして表現できる。
The amount of movement of a feature point (feature region) between two images can be obtained by associating each feature point (feature region) between two images. For example, FIG.
The movement amounts obtained for the images (a) and (b) are shown in FIG.
An arrow shown in FIG. Thus, the movement amount can be expressed as a vector having a direction and a magnitude.

【0050】移動量算出の具体的な手法の例を図6に示
す。これはコントローラ15により図3のステップS4
の処理として実行される。図6に示すように、白線や消
失点の位置情報に基づいて追越し車両の探索領域RSを
限定する。例えば、図7では破線による斜線部分の領域
が探索領域RSとなり、探索領域が狭くなる分、演算負
荷が少なくなる。また、自車両Csの後ろを、すなわち
自車両と同じ車線を走行する他車両Coを検出する場
合、実線による斜線部分の領域RS'も探索領域とすれ
ばよい。図7中、参照符号PWは自車線の白線(デフォ
ルト値)を示し、VPは消失点を示す。ここで、3次元
空間において隣の車線を走行している車両であっても、
2次元画像に投影した場合、その車両が隣車線を構成す
る2本の白線の間からはみ出して見える場合もあるの
で、これらの投影変換による影響を考慮して探索領域を
蝶形に設定してある。これにより、隣車線を走行する車
両を確実に探索することができる。
FIG. 6 shows an example of a specific method of calculating the amount of movement. This is performed by the controller 15 in step S4 of FIG.
This is executed as a process. As shown in FIG. 6, the search area RS of the overtaking vehicle is limited based on the position information of the white line and the vanishing point. For example, in FIG. 7, the area indicated by the hatched portion by the broken line becomes the search area RS, and the calculation load decreases as the search area becomes smaller. In addition, when detecting the other vehicle Co behind the own vehicle Cs, that is, the other vehicle Co traveling in the same lane as the own vehicle, the region RS ′ of the shaded portion with the solid line may be set as the search region. In FIG. 7, reference symbol PW indicates a white line of the own lane (default value), and VP indicates a vanishing point. Here, even if the vehicle is traveling in the next lane in the three-dimensional space,
When the vehicle is projected on a two-dimensional image, the vehicle may appear to protrude from between two white lines constituting an adjacent lane. Therefore, the search area is set to a butterfly shape in consideration of the influence of these projection transformations. is there. As a result, a vehicle traveling in the adjacent lane can be reliably searched.

【0051】実際の探索では、まず、設定された探索領
域を格子状に分割する(ステップS4a)。次に、この
各格子領域が強いエッジ成分を持つか否かを検証し、強
いエッジ成分を持つ格子領域を探索候補領域とする(ス
テップS4b)。路面と光軸が平行になるように自動車
に取りつけたカメラで後方を撮像する場合、他車両の動
きは画像中でX(横)成分が多く、Y(縦)方向にはあ
まり動かないことになる。したがって、任意の追跡領域
に対する探索領域RSを図8のように横長の長方形領域
に限定することができる。さらに、検出対象を自車を追
い越す他車量に限定すれば消失点の左では探索領域はX
軸のマイナス方向だけとなる。
In the actual search, first, the set search area is divided into a lattice (step S4a). Next, it is verified whether or not each lattice region has a strong edge component, and a lattice region having a strong edge component is set as a search candidate region (step S4b). When an image of the rear is taken by a camera attached to a car so that the road surface is parallel to the optical axis, the movement of other vehicles has a large X (horizontal) component in the image and does not move much in the Y (vertical) direction. Become. Therefore, the search area RS for an arbitrary tracking area can be limited to a horizontally long rectangular area as shown in FIG. Furthermore, if the detection target is limited to the amount of another vehicle passing the own vehicle, the search area is X on the left of the vanishing point.
Only in the minus direction of the axis.

【0052】次いで、探索候補の格子領域に夫々に対し
て、次の時刻での対応領域を探索する(ステップS4
c)。例えば、時刻tにおける探索候補の各格子領域を
初期位置とし、時刻t+1においてこれに対応する領域
を探索する。すなわち、それぞれの格子領域を探索範囲
RS内で動かした場合に、相関値が最も大きくなる領域
を検出する。このとき、最大相関値がしきい値より小さ
い場合は、その領域は対応が取れないということにな
る。
Next, a corresponding area at the next time is searched for each of the search candidate lattice areas (step S4).
c). For example, each lattice area of the search candidate at time t is set as an initial position, and at time t + 1, a corresponding area is searched. That is, when each of the grid regions is moved within the search range RS, the region where the correlation value is the largest is detected. At this time, if the maximum correlation value is smaller than the threshold value, it means that the area cannot be dealt with.

【0053】次いで、探索候補の各格子領域の移動量を
決定する(ステップS4d)。具体的には、時刻tにお
ける探索候補の格子領域夫々の初期位置と時刻t+1に
おけるそれらの対応領域との空間距離の差(具体的には
画素数で定義される)を演算し、これを移動量とする。
Next, the amount of movement of each lattice area as a search candidate is determined (step S4d). Specifically, a difference (specifically, defined by the number of pixels) of the spatial distance between the initial position of each of the lattice regions of the search candidate at time t and their corresponding regions at time t + 1 is calculated and moved. Amount.

【0054】この後、この探索候補の格子領域の位置移
動量を含む連続画像間での各種の移動量を保存する(ス
テップS4e)。
After that, various amounts of movement between successive images including the amount of position movement of the search candidate lattice area are stored (step S4e).

【0055】一方、上述したステップS4a〜S4cの
処理に加えてステップ4fを行い、この後、ステップS
4d、S4eの処理を行うようにしてもよい。つまり、
既に過去の各時刻で探索候補の各格子領域の対応がとら
れている場合、その各領域に対して輝度やエッジ成分な
どの情報を蓄積しているので、ステップS4fでは、こ
れらの情報を用いて順次新しい画像について対応領域が
探索される。すなわち、ステップS4fを加えることに
よって、数フレームにわたって連続して領域を追跡する
ことができる。このときに、過去に得られている全ての
探索候補格子領域について探索を行ってもよいが、処理
量が膨大になるので、過去のある時点以降の格子領域の
みを対象としたり、各時刻での対応の評価値が高い領域
のみを対象として探索を続けることによって、より高速
に処理することができる。
On the other hand, in addition to the processing of steps S4a to S4c, step 4f is performed.
The processing of 4d and S4e may be performed. That is,
If the search candidate grid regions have already been correlated at each time in the past, information such as luminance and edge components has been accumulated for each region. In step S4f, such information is used. The corresponding area is sequentially searched for a new image. That is, by adding step S4f, the area can be tracked continuously over several frames. At this time, the search may be performed for all search candidate grid regions obtained in the past, but since the processing amount is enormous, only the grid regions after a certain point in the past may be targeted, or at each time, By continuing the search for only the region having a high evaluation value corresponding to, the processing can be performed at higher speed.

【0056】ここで、評価基準としては相関値だけでな
く、明度の差分値やエッジ強度の差分値なども用いるこ
ともできる。また、ここでは領域ベースの手法について
述べたが、強い特徴点を用いた移動量検出法や、全ての
点の動きを勾配法を使って求める手法なども採用でき
る。また、これらの手法で得られた移動量を用いること
も可能である。さらに、探索によって得られた移動量が
過去2フレーム分以上、蓄積されている場合、この蓄積
データを利用して任意の時間(フレーム)間隔の移動量
を求めることも可能である。
Here, as a criterion for evaluation, not only a correlation value but also a difference value of brightness or a difference value of edge strength can be used. Further, although the region-based method has been described here, a moving amount detection method using strong feature points, a method of obtaining the motion of all points by using a gradient method, and the like can be adopted. Further, it is also possible to use the movement amount obtained by these methods. Further, when the movement amount obtained by the search is accumulated for two or more past frames, the movement amount at an arbitrary time (frame) interval can be obtained by using the accumulated data.

【0057】求められた各領域の移動量の情報は追越し
車両検出に用いられる。
The information on the amount of movement of each area thus obtained is used for passing vehicle detection.

【0058】(追越し車両検出処理)ステップS5で
は、コントローラ15により、自車両Csを追い越そう
としている追越し車両(他車両)Coが検出される。
(Overtaking Vehicle Detection Process) In step S5, the controller 15 detects an overtaking vehicle (other vehicle) Co that is going to overtake the own vehicle Cs.

【0059】この処理は概括的には、算出された探索候
補格子領域の移動量に基づき同程度の移動量を持つ領域
がまとまって存在する領域を抽出して、各領域の移動量
の向きと大きさより衝突の可能性のある領域を追い越し
車両であると認識する処理である。この追越し車両Co
の情報は警報発生処理に使用される。
In this process, generally, based on the calculated movement amount of the search candidate lattice region, regions in which regions having the same amount of movement are present are extracted, and the direction of the movement amount of each region is determined. This is a process of recognizing an area where a collision is more likely than a size as an overtaking vehicle. This passing vehicle Co
Is used for alarm generation processing.

【0060】具体的には、図9に示すように、追越し車
両Coの速度Vのしきい値が設定される(ステップS5
a)。例えば、しきい値V=2の場合、移動量が2画素
以下の格子領域は排除されるので、ノイズや静止物体の
情報が追越し車両であると誤認される可能性が低下し、
検出精度が向上する。このしきい値は探索領域全体で1
つの値を設定することも可能であるが、必要に応じて、
探索領域中の場所毎にしきい値Vを変更することもでき
る。
Specifically, as shown in FIG. 9, a threshold value of the speed V of the overtaking vehicle Co is set (step S5).
a). For example, when the threshold value V = 2, a grid region having a movement amount of 2 pixels or less is excluded, so that the possibility that noise or information of a stationary object is erroneously recognized as a passing vehicle is reduced,
The detection accuracy is improved. This threshold is 1 for the entire search area.
You can set one value, but if you want,
The threshold value V can be changed for each location in the search area.

【0061】次いで、移動量のパラメータ空間への投票
が行われる(ステップS5b)。具体的には、図10に
示す如く、探索領域上に設定した各帯領域BR内に含ま
れる移動量のヒストグラムが作成される。各ヒストグラ
ムに幾つかのピーク値が現れるので、これが検出される
(ステップS5c)。
Next, voting of the movement amount in the parameter space is performed (step S5b). Specifically, as shown in FIG. 10, a histogram of the movement amount included in each band region BR set on the search region is created. Several peak values appear in each histogram, which are detected (step S5c).

【0062】これらのピーク値はそれぞれの追越し車両
Coが持つ速度に対応している。そこで、ヒストグラム
をピーク値で分割して、それぞれのピーク値との差がし
きい値以内の領域を検出し、追越し車両Coの候補が検
出される。さらに、それぞれの速度を持つ領域の画像中
の位置関係を調べて、隣接している領域を併合し、個々
の追越し車両Coが検出される(ステップS5d)。
These peak values correspond to the speeds of each passing vehicle Co. Therefore, the histogram is divided by peak values, an area where the difference from each peak value is within the threshold value is detected, and a candidate for the overtaking vehicle Co is detected. Further, the positional relationship in the image of the regions having the respective velocities is examined, the adjacent regions are merged, and the individual passing vehicles Co are detected (step S5d).

【0063】ここで、自車両Csが前進している場合、
背景は全てFOEに収束する方向に動くが、追越し車両
CoはFOEから湧き出す方向に移動する。そこで、湧
き出す方向の速度が0以上の領域のみを抽出して、追越
し車両Coを表す領域の候補とすることができる。
Here, when the own vehicle Cs is moving forward,
All the backgrounds move in a direction converging on the FOE, but the overtaking vehicle Co moves in a direction spouting from the FOE. Therefore, it is possible to extract only the region where the speed in the springing direction is equal to or greater than 0, and set it as a candidate for the region representing the passing vehicle Co.

【0064】以上の手順に基づいて、画像上の位置と移
動量が似た探索領域同士を併合して追い越し車両が検出
される。
Based on the above procedure, the overtaking vehicle is detected by merging the search areas having similar positions and moving amounts on the image.

【0065】(追い付く時間の予測処理)次いで、図3
のステップS6に相当する処理として、コントローラ1
5により、追越し車両Coが自車両Csに追い付く時間
を予測する。この処理は図11に示す。
(Catching Time Prediction Process) Next, FIG.
The processing corresponding to step S6 of
5, the time at which the overtaking vehicle Co catches up with the own vehicle Cs is predicted. This process is shown in FIG.

【0066】本装置ではカメラ11の画角が事前に分か
っているので、画像の左右端に追越し車両Coが来た場
合に、その追越し車両Coが自車両Csに対して3次元
シーン中でどの位置にいるのかを求めることができる。
そこで、まず画面中で追越し車両Coの先端がどの位置
に存在するのかを算出する(ステップS6a)。次い
で、現在の追越し車両Coの画面中での速度をもって連
続して前方に移動してきた場合、あと何秒でカメラ画面
の端に到達するか、その時間を演算する。そして、追越
し車両Coが画面端に到達したときの追越し車両Coと
自車両Csとの3次元シーン中での相対距離を考慮し
て、追付くまでの最終的な時間を予測する(ステップS
6b)。
In the present apparatus, since the angle of view of the camera 11 is known in advance, when the overtaking vehicle Co arrives at the left and right ends of the image, the overtaking vehicle Co is compared with the own vehicle Cs in the three-dimensional scene. You can ask if you are in a position.
Therefore, the position of the tip of the overtaking vehicle Co on the screen is calculated first (step S6a). Next, when the vehicle continuously moves forward at the current speed on the screen of the overtaking vehicle Co, the time to reach the edge of the camera screen in a few seconds is calculated. Then, the final time until the overtaking vehicle Co is overtaken is predicted in consideration of the relative distance in the three-dimensional scene between the overtaking vehicle Co and the own vehicle Cs when the overtaking vehicle Co reaches the screen edge (step S).
6b).

【0067】検出された追越し車両Coの領域の位置や
追越しまでの時間などの情報は警報発生処理で用いられ
る。
Information such as the detected position of the area of the overtaking vehicle Co and the time until overtaking is used in the alarm generation processing.

【0068】(警報発生処理)次いで、図3のステップ
S7に相当する処理として、コントローラ15により、
必要に応じて、自車両Csに警報が発令される。この処
理は図12に示す。
(Alarm Generation Processing) Next, as processing corresponding to step S7 in FIG.
If necessary, an alarm is issued to the own vehicle Cs. This process is shown in FIG.

【0069】この警報発令は、自車両Csの周囲に衝突
可能性のある追越し車両Coが存在する場合、その方向
にターンシグナルを出して車線変更の意思表示をした
り、車線変更するためにその方向ヘハンドルを切ったり
したときに、衝突の可能性があることを運転者に警告す
るための処理である。
This warning is issued when the overtaking vehicle Co, which may collide, exists around the own vehicle Cs to issue a turn signal in that direction to indicate the intention to change lanes or to change the lane. This is a process to warn the driver that there is a possibility of collision when the steering wheel is turned to the direction.

【0070】具体的には、図12に示す如く、コントロ
ーラ15は、追越し車両Coが検出されたか否かを判断
する(ステップ7a)。この判断で追越し車両Coが検
出されたと判断された場合、次いで、その追い付く時間
がしきい値以下か否かが判断される(ステップS7
b)。つまり、追越し車両Coが存在した場合、しきい
値として定めた時間以内にその車両が追い付くかの否か
が判断される。
Specifically, as shown in FIG. 12, the controller 15 determines whether or not the overtaking vehicle Co has been detected (step 7a). If it is determined that the overtaking vehicle Co has been detected in this determination, then it is determined whether the catching time is equal to or less than a threshold (step S7).
b). That is, when the passing vehicle Co exists, it is determined whether or not the vehicle can catch up within the time set as the threshold.

【0071】この判断において、追越し車両Coがしき
い値以下の時間で自車両Csに追い付く(すなわち、も
う直ぐ追いつく)と判断されたときには、コントローラ
15は次いで、自車両Csの運転者が追越し車両Coが
追いつきながら走行してくる車線に車両の走行方向を変
更しようとしているか否かを判断する(ステップS7
c)。この判断は、舵角センサ12及び/又はウィンカ
ーセンサ13の検出信号を読み込み、ハンドル操作また
はウィンカー操作を監視しながら行う。
In this determination, when it is determined that the overtaking vehicle Co catches up with the own vehicle Cs in a time equal to or less than the threshold value (that is, catches up soon), the controller 15 then causes the driver of the own vehicle Cs to overtake the overtaking vehicle. It is determined whether or not Co is trying to change the traveling direction of the vehicle to the lane traveling while catching up (step S7).
c). This determination is made while reading the detection signals of the steering angle sensor 12 and / or the turn signal sensor 13 and monitoring the steering operation or the turn signal operation.

【0072】この方向変更の判断でYESとなるとき
は、追越し車両Coが後方から接近してきており、その
ままで走行方向を変更したときには後続車両との間で衝
突の恐れが大の場合である。そこで、コントローラ15
は警報器16に警報用の制御信号を送って、警報器16
から警報を発生させる。つまり、追い越し車両の居る方
向にターンシグナルを出してその方向に車線変更の意思
を示したり、その方向に車線を変更しようとハンドルを
切ったときには、警報器16から音(音声)及び/又は
光によって運転者に警告を発する。
If the determination of the direction change is YES, it means that the overtaking vehicle Co is approaching from behind, and if the traveling direction is changed as it is, there is a high risk of collision with the following vehicle. Therefore, the controller 15
Sends a control signal for alarm to the alarm 16
Generate an alarm from. That is, when a turn signal is issued in the direction of the overtaking vehicle to indicate the intention to change lanes in that direction, or when the driver turns the steering wheel to change lanes in that direction, the alarm 16 emits a sound (voice) and / or light. Warns the driver.

【0073】したがって、運転者は後続車両との衝突の
危険性を確実に知ることができ、車線変更をとり止める
などの適切な処置を講ずることができ、安全な走行に寄
与できる。
Therefore, the driver can surely know the danger of collision with the following vehicle, take appropriate measures such as stopping the lane change, and contribute to safe driving.

【0074】また、更なる利点として、本実施形態の手
法によれば、画像の各領域の動きが分かるので、自車に
対して追い越しをかける車両のみを抽出することができ
る。また、時間的変化の少ない連続した2枚の画像を利
用するため、2値化等の手法に比べて、しきい値の影響
を押さえることができ、精度の高い衝突防止装置が実現
できる。さらに、3次元シーンの中では、走行レーンの
上に実際に車両が存在している場合でも、カメラの設置
位置によっては画像中の走行レーン上に障害物が存在し
ないように見える場合があるが、このような場合でも、
動き情報を基礎にすれば画像中の追越し車両を選択的に
高精度で検出することができる。
Further, as a further advantage, according to the method of the present embodiment, since the movement of each area of the image can be known, it is possible to extract only vehicles that pass the own vehicle. Further, since two continuous images with little temporal change are used, the influence of the threshold value can be suppressed as compared with a method such as binarization, and a highly accurate collision prevention device can be realized. Furthermore, in a three-dimensional scene, even if a vehicle actually exists on the driving lane, it may appear that no obstacle exists on the driving lane in the image depending on the installation position of the camera. ,
On the basis of the motion information, the overtaking vehicle in the image can be selectively detected with high accuracy.

【0075】なお、この警報発生は、自車両の周囲に衝
突可能性のある他車両が存在する場合に、その方向に車
両が居ることを音や光によって運転者に知らせるという
実施形態も可能である。また、コントローラ15は追越
し車両の位置と速度を認識しているので、その情報を元
に追越し車両が追い付くまでの時間に応じて光の色や強
度または音の強弱を変えることによって、追越し車両の
存在を運転者に事前に知らせるという変形形態も可能で
ある。
It is to be noted that the alarm may be generated in an embodiment in which, when there is another vehicle that may collide around the own vehicle, the driver is notified by sound or light that the vehicle is present in that direction. is there. Further, since the controller 15 recognizes the position and speed of the overtaking vehicle, the controller 15 changes the color, intensity, or sound intensity of the light in accordance with the time until the overtaking vehicle catches up based on the information, so that the overtaking vehicle can be recognized. A variant is possible in which the presence is informed to the driver in advance.

【0076】(変形形態その1)上述した実施形態の1
つの変形形態を図13,14に基づき説明する。
(Modification 1) One of the embodiments described above.
One modification will be described with reference to FIGS.

【0077】この実施形態は、前述したようにカメラ1
1で撮像した時系列の連続画像から画像フレーム間に移
動した特徴部位の移動量を検出する装置に関する。とく
に、特徴部位の移動量を画像から安定して検出するため
に、画像中の強いエッジを特徴部位(移動量算出対象)
として選択し、このエッジに対する画像中での動きの拘
束を利用して高速に特徴部位の移動量を検出する装置に
関する。
This embodiment uses the camera 1 as described above.
The present invention relates to an apparatus for detecting a moving amount of a characteristic portion moved between image frames from a time-series continuous image captured in 1. In particular, in order to stably detect the amount of movement of a characteristic part from an image, a strong edge in the image is used for the characteristic part (movement amount calculation target).
The present invention relates to an apparatus for detecting a movement amount of a characteristic portion at high speed by using a constraint on movement of an edge in an image.

【0078】この検出装置は、前述した実施形態で説明
した衝突防止装置における自車両に搭載され、後続の車
両を撮像し、その時系列の画像から特徴部位の移動量を
検出する装置として有効に機能する。これを達成するた
め、この検出装置は、カメラなどの撮像手段と、この撮
像手段から順次、出力される時系列の複数画像から強い
エッジなどの特徴部位を検出する検出手段と、この検出
された特徴部位の移動量を探索方向を限定して演算する
演算手段とを備える。検出手段および演算手段は例えば
コンピュータで構成される。
This detection device is mounted on the own vehicle in the collision prevention device described in the above-described embodiment, and effectively functions as a device that captures an image of a succeeding vehicle and detects the amount of movement of a characteristic portion from a time-series image thereof. I do. In order to achieve this, the detection device includes imaging means such as a camera, detection means for detecting a characteristic portion such as a strong edge from a plurality of time-series images sequentially output from the imaging means, and Calculating means for calculating the amount of movement of the characteristic part by limiting the search direction. The detecting means and the calculating means are constituted by, for example, a computer.

【0079】エッジの強い特徴部位として、例えば図1
3に示す如く、道路横の樹木の幹部分31、後続を走る
他の車両のフロントバンパ32、道路標識のポール部3
2などがある。例えば、図14に示すように、道路標識
のポール部33に特徴部位を検出されると、この特徴部
位と消失点VPを結ぶ延長線上に探索範囲(方向)を限
定し(拘束し)、特徴部位(この場合には自車両)の移
動量を高速に且つ高精度に求めることができる。
As a characteristic portion having a strong edge, for example, FIG.
As shown in FIG. 3, a trunk 31 of a tree beside the road, a front bumper 32 of another vehicle running behind, a pole part 3 of a road sign.
2 and so on. For example, as shown in FIG. 14, when a characteristic part is detected in the pole part 33 of the road sign, the search range (direction) is limited (constrained) on an extension line connecting this characteristic part and the vanishing point VP, and the characteristic is detected. The movement amount of the part (in this case, the own vehicle) can be obtained at high speed and with high accuracy.

【0080】このように、移動量の算出対象となる特徴
部位のエッジ強度と移動量算出時の探索方向を限定する
ことで、特徴部位の移動量を高速に且つ高精度に検出す
ることができる。
As described above, by limiting the edge strength of the characteristic portion whose movement amount is to be calculated and the search direction when calculating the movement amount, the movement amount of the characteristic portion can be detected at high speed and with high accuracy. .

【0081】(変形形態その2)上述した実施形態の別
の変形形態を図15に基づき説明する。
(Modification 2) Another modification of the above embodiment will be described with reference to FIG.

【0082】この変形形態も、前述したようにカメラ1
1で撮像した時系列の連続画像から画像フレーム間に移
動した特徴量の移動量を高精度に検出する装置に関す
る。
This modification is also similar to that of the camera 1 as described above.
The present invention relates to an apparatus for detecting a moving amount of a feature amount moved between image frames from a time-series continuous image captured in step 1 with high accuracy.

【0083】時系列画像間で特徴部位の移動量を検出す
る場合、探索方向に例えば図15に示す如くガイドレー
ル34やゼブラパターン35などの繰り返しパターンが
映り込んでいると、非常に似通って画素値の繰り返しパ
ターンにより特徴量の移動量の演算に誤差を生じること
がある。
When detecting the amount of movement of a characteristic portion between time-series images, if a repetitive pattern such as a guide rail 34 or a zebra pattern 35 is reflected in the search direction as shown in FIG. An error may occur in the calculation of the movement amount of the feature amount due to the repeated pattern of the value.

【0084】そこで、車両の後部に取り付けた撮像手段
としてのカメラと、このカメラで撮像された時系列の複
数画像から探索方向の特徴量およびその変化を算出する
手段と、所定周期以上の繰り返しパターンが在るか否か
を判断する手段と、繰り返しパターンが在ると判断され
たときには、正確な移動量を算出できないとして、その
存在範囲については特徴量の移動量の算出を禁止する手
段を設ける一方で、かかる繰り返しパターンが存在しな
くなった時点で、移動量の算出を再開する手段を設け、
これにより、安定な移動量のみを精度良く算出すること
ができる。ここで、上記各手段はコンピュータに所定の
プログラムを実行させることで機能的に実現できる。
Therefore, a camera as imaging means attached to the rear of the vehicle, a means for calculating a feature amount in the search direction and its change from a plurality of time-series images taken by the camera, and a repetitive pattern having a predetermined period or more. Means for judging whether or not there is, and means for prohibiting calculation of the amount of movement of the feature amount for the existence range, assuming that an accurate movement amount cannot be calculated when it is determined that there is a repetitive pattern. On the other hand, when such a repetitive pattern no longer exists, a means for restarting the calculation of the movement amount is provided,
As a result, only a stable movement amount can be accurately calculated. Here, each of the above means can be functionally realized by causing a computer to execute a predetermined program.

【0085】この検出装置は、前述した実施形態で説明
した衝突防止装置における自車両に搭載され、後続の車
両を撮像し、その時系列の画像から特徴部位の移動量を
検出する装置として用いることができる。
This detection device is mounted on the own vehicle in the collision prevention device described in the above-described embodiment, and can be used as a device that captures an image of a following vehicle and detects the amount of movement of a characteristic portion from a time-series image. it can.

【0086】なお、上述した実施形態およびその変形形
態において、検出手段、演算手段、算出手段はコンピュ
ータ(コントローラ)に所定のプログラムを実行させる
ことで機能的に構成するとしたが、アナログ回路、デジ
タル論理回路などの電子回路で同等の機能を果たすよう
に構成するようにしてもよい。
In the above-described embodiment and its modifications, the detecting means, the calculating means, and the calculating means are functionally configured by causing a computer (controller) to execute a predetermined program. An electronic circuit such as a circuit may be configured to perform the same function.

【0087】またなお、上述した実施形態およびその変
形形態は、移動体として道路上を走行する車両を例示し
て説明したが、本発明の移動体には車両は列車や航空機
なども含まれる。
Although the above-described embodiment and its modifications have been described by exemplifying a vehicle running on a road as a moving body, the moving body of the present invention includes a train and an aircraft.

【0088】[0088]

【発明の効果】以上説明したように本発明によれば、画
像中の動き情報を元に移動体とての自車両に衝突する可
能性のある他の移動体としての追越し車両のみを検出す
ることができ、検出された追越し車両と自車両の関係の
時間的な変化を利用することで、安定した且つ確実な衝
突防止効果に貢献することができる。
As described above, according to the present invention, based on motion information in an image, only an overtaking vehicle as another moving object which may collide with the own vehicle as the moving object is detected. By using the detected temporal change in the relationship between the overtaking vehicle and the own vehicle, it is possible to contribute to a stable and reliable collision prevention effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る車載用の衝突防止装
置の概略構成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of a vehicle-mounted collision prevention device according to an embodiment of the present invention.

【図2】カメラの車載の様子の一例を示す模式図。FIG. 2 is a schematic view showing an example of a state in which the camera is mounted on a vehicle.

【図3】本装置のコントローラにより実行される衝突防
止処理の概略フローチャート。
FIG. 3 is a schematic flowchart of a collision prevention process executed by a controller of the apparatus.

【図4】追越し車両の移動量の演算を説明する画像図。FIG. 4 is an image diagram illustrating a calculation of a moving amount of an overtaking vehicle.

【図5】白線のデフォルト位置と白線探索領域の関係を
説明する図。
FIG. 5 is a view for explaining a relationship between a default position of a white line and a white line search area.

【図6】移動量算出を説明する概略フローチャート。FIG. 6 is a schematic flowchart illustrating the calculation of a movement amount.

【図7】車線領域と追越し車両の探索範囲との関係を説
明する図。
FIG. 7 is a diagram illustrating a relationship between a lane area and a search range of an overtaking vehicle.

【図8】追越し車両の別の探索範囲の例を説明する図。FIG. 8 is a view for explaining an example of another search range of an overtaking vehicle.

【図9】追越し車両検出処理を説明する概略フローチャ
ート。
FIG. 9 is a schematic flowchart illustrating an overtaking vehicle detection process.

【図10】追越し車両検出のための帯領域の説明図。FIG. 10 is an explanatory diagram of a band area for detecting an overtaking vehicle.

【図11】追越し車両の追付き時間の予測処理を説明す
る概略フローチャート。
FIG. 11 is a schematic flowchart illustrating a process of predicting a catch-up time of an overtaking vehicle.

【図12】警報処理を説明する概略フローチャート。FIG. 12 is a schematic flowchart illustrating an alarm process.

【図13】特徴量の移動量検出を説明する変形形態の
図。
FIG. 13 is a diagram of a modified example illustrating detection of a movement amount of a feature amount.

【図14】図13における特徴量の移動量検出と探索方
向との関係を説明する図。
FIG. 14 is a view for explaining the relationship between detection of a movement amount of a feature amount and a search direction in FIG. 13;

【図15】特徴量の移動量検出を説明する別の変形形態
の図。
FIG. 15 is a view of another modified example for explaining detection of a movement amount of a feature amount.

【符号の説明】[Explanation of symbols]

11 カメラ 12 舵角センサ 13 ウィンカーセンサ 14 車速センサ 15 コントローラ 16 警報器 17、18 A/D変換器 19 カウンタ 20 ドライバ C 車両 Cs 自車量(対象移動体) Co 他車両(追越し車両、他の移動体) VP 消失点 RW 白線探索領域 PW 白線(デフォルト位置) RS 追越し車両探索領域 RS' 走行車線領域 BR 帯領域 Reference Signs List 11 camera 12 steering angle sensor 13 turn signal sensor 14 vehicle speed sensor 15 controller 16 alarm device 17, 18 A / D converter 19 counter 20 driver C vehicle Cs own vehicle amount (target moving body) Co other vehicle (overtaking vehicle, other movement) Body) VP vanishing point RW White line search area PW White line (default position) RS Overtaking vehicle search area RS 'Traveling lane area BR band area

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 衝突防止の警報発令の対象となる移動体
の周囲の状況を撮像する撮像手段と、この撮像手段が時
系列に撮像した複数フレームの画像夫々の限定した検出
領域を探索して他の移動体を検出する検出手段と、前記
対象となる移動体の移動状態と検出された前記他の移動
体の移動状態との関係から両移動体間における衝突の可
能性の程度を予測する予測手段と、この予測手段の予測
結果に応じて前記対象となる移動体に警報を発する警報
発生手段とを備えたことを特徴とする移動体の衝突防止
装置。
1. An image pickup means for picking up an image of a situation around a moving object to be issued a collision prevention alarm, and the image pickup means searches a limited detection area of each of a plurality of frames of images taken in time series. Detecting means for detecting another moving body, and predicting a degree of possibility of collision between the two moving bodies from a relationship between a moving state of the target moving body and a detected moving state of the other moving body. An apparatus for preventing collision of a moving body, comprising: a predicting unit; and an alarm generating unit that issues an alarm to the target moving unit in accordance with a prediction result of the predicting unit.
【請求項2】 請求項1記載の衝突防止装置において、 前記撮像手段、検出手段、予測手段、および警報発生手
段は全て前記対象となる移動体に設けてあることを特徴
とする移動体の衝突防止装置。
2. The collision preventing apparatus according to claim 1, wherein the image pickup unit, the detection unit, the prediction unit, and the alarm generation unit are all provided in the target mobile unit. Prevention device.
【請求項3】 請求項2記載の衝突防止装置において、 前記両方の移動体は共に車両であることを特徴とする移
動体の衝突防止装置。
3. The collision preventing apparatus according to claim 2, wherein both of the moving bodies are vehicles.
【請求項4】 請求項3記載の衝突防止装置において、 前記検出手段は、前記画像での前記対象車両が走行して
いる道路に存在するエッジとその交点である消失点の位
置情報を決める手段と、この位置情報を元にして前記限
定した検出領域を決める手段と、前記時系列の画像間に
おける前記検出領域の移動量を検出する手段と、この移
動量に基づき前記対象車両に接近するか又はその車両と
等速で走行する他の車両のみを検出する手段とを備えた
ことを特徴とする移動体の衝突防止装置。
4. The collision prevention device according to claim 3, wherein the detection unit determines position information of an edge existing on a road on which the target vehicle is traveling in the image and a vanishing point that is an intersection thereof. Means for determining the limited detection area based on the position information, means for detecting the amount of movement of the detection area between the time-series images, and whether to approach the target vehicle based on the amount of movement. Or a means for detecting only another vehicle running at the same speed as the vehicle.
【請求項5】 請求項4記載の衝突防止装置において、 前記予測手段は、検出した前記他の車両の前記移動量に
基づき当該車両の領域が前記画像上でその端部まで到達
する時間を算出する手段と、この算出値を用いて前記対
象車両に前記他の車両が追い付くまでの時間を予測する
手段とを備えたことを特徴とする移動体の衝突防止装
置。
5. The collision prevention device according to claim 4, wherein the prediction unit calculates a time required for the area of the vehicle to reach the end of the image on the image based on the detected movement amount of the another vehicle. And means for predicting a time required for the other vehicle to catch up with the target vehicle using the calculated value.
【請求項6】 請求項5記載の衝突防止装置において、 前記警報発生手段は、前記予測時間に基づき前記他の車
両が前記対象車両に衝突する可能性を見極める手段と、
前記対象車両の走行方向の変更を検知する手段と、前記
衝突の可能性があると判断され且つ前記対象車両が前記
他の車両が走行している車線方向に走行方向を変更しよ
うとしている状態が検知されたときに警報を発する手段
とを備えたことを特徴とする移動体の衝突防止装置。
6. The collision prevention device according to claim 5, wherein the warning generation unit determines a possibility that the another vehicle will collide with the target vehicle based on the predicted time;
Means for detecting a change in the traveling direction of the target vehicle, and a state in which it is determined that there is a possibility of the collision and the target vehicle is changing the traveling direction to the lane direction in which the other vehicle is traveling; Means for issuing an alarm when detected.
【請求項7】 請求項6記載の衝突防止装置において、 前記検知手段は、前記対象車両の運転者によるウィンカ
ーの点灯状況またはハンドルの操作角状況を検知する手
段であることを特徴とする移動体の衝突防止装置。
7. The moving body according to claim 6, wherein the detecting means is means for detecting a lighting state of a turn signal or a steering angle state of a steering wheel by a driver of the target vehicle. Anti-collision device.
【請求項8】 衝突防止の警報発令の対象となる移動体
の周囲の状況を時系列に撮像し、この撮像した複数フレ
ームの画像夫々の限定した検出領域を探索して他の移動
体を検出し、前記対象となる移動体の移動状態と検出さ
れた前記他の移動体の移動状態との関係から両移動体間
における衝突の可能性の程度を予測し、この予測結果に
応じて前記対象となる移動体に警報を発することを特徴
とする移動体の衝突防止方法。
8. A time-series image of the surroundings of a moving object to be issued a collision prevention alarm, and searches for a limited detection area of each of the plurality of imaged frames to detect another moving object. Then, the degree of the possibility of collision between the two moving bodies is predicted from the relationship between the moving state of the target moving body and the detected moving state of the another moving body. A method for preventing a collision of a moving object, wherein a warning is issued to the moving object.
【請求項9】 移動体の衝突防止のためのプログラムを
記録したコンピュータ読み取り可能な記録媒体であっ
て、 前記衝突防止の警報を出す対象となる移動体の周囲の状
況を撮像する撮像手段が時系列に撮像した複数フレーム
の画像を入力する手段と、当該画像夫々の限定した検出
領域を探索して他の移動体を検出する手段と、前記対象
となる移動体の移動状態と検出された前記他の移動体の
移動状態との関係から両移動体間における衝突の可能性
の程度を予測する手段と、この予測結果に応じて前記対
象となる移動体に警報器を介して警報を発令する手段と
を実行するプログラムを記録したことを特徴とする記録
媒体。
9. A computer-readable recording medium on which a program for preventing collision of a moving object is recorded, wherein imaging means for imaging a situation around the moving object for which an alarm for preventing collision is issued is provided. Means for inputting images of a plurality of frames taken in a sequence, means for searching for a limited detection area of each of the images and detecting other moving objects, and detecting the moving state of the target moving object and Means for predicting the possibility of collision between the two moving bodies from the relationship with the moving state of the other moving bodies, and issuing an alarm to the target moving body via an alarm in accordance with the prediction result. And a program for executing the means.
JP09388499A 1999-03-31 1999-03-31 Collision prevention device for moving body, collision prevention method, and recording medium Expired - Lifetime JP4377474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09388499A JP4377474B2 (en) 1999-03-31 1999-03-31 Collision prevention device for moving body, collision prevention method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09388499A JP4377474B2 (en) 1999-03-31 1999-03-31 Collision prevention device for moving body, collision prevention method, and recording medium

Publications (2)

Publication Number Publication Date
JP2000285245A true JP2000285245A (en) 2000-10-13
JP4377474B2 JP4377474B2 (en) 2009-12-02

Family

ID=14094915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09388499A Expired - Lifetime JP4377474B2 (en) 1999-03-31 1999-03-31 Collision prevention device for moving body, collision prevention method, and recording medium

Country Status (1)

Country Link
JP (1) JP4377474B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202136A (en) * 2001-01-04 2002-07-19 Omron Corp Observation apparatus for state in circumference of vehicle
WO2004057537A1 (en) * 2002-12-20 2004-07-08 The Foundation For The Promotion Of Industrial Science Method and device for tracing moving object in image
JP2004341979A (en) * 2003-05-19 2004-12-02 Nissan Motor Co Ltd Obstacle detection device and obstacle detecting method
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
US7170548B2 (en) 2001-11-26 2007-01-30 Denso Corporation Obstacle monitoring device using one-dimensional signal
US7190281B2 (en) 2004-02-06 2007-03-13 Sharp Kabushiki Kaisha Vehicle environment monitoring device, vehicle environment monitoring method, control program and computer-readable recording medium
US7250593B2 (en) 2004-02-06 2007-07-31 Sharp Kabushiki Kaisha Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program, and readable recording medium
US7253389B2 (en) 2005-02-01 2007-08-07 Sharp Kabushiki Kaisha Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program and computer-readable recording medium
JP2007233469A (en) * 2006-02-27 2007-09-13 Toshiba Corp Object-detecting device and method therefor
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2008249685A (en) * 2007-03-06 2008-10-16 Ikegami Tsushinki Co Ltd Speed measuring method
EP1988488A1 (en) 2007-05-03 2008-11-05 Sony Deutschland Gmbh Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
JP2009143385A (en) * 2007-12-13 2009-07-02 Fujitsu Ltd Movable body detection device, movable body detection method, and movable body detection program
JP2009157943A (en) * 2009-04-02 2009-07-16 Toyota Motor Corp Onboard image processor
JP2010256955A (en) * 2009-04-21 2010-11-11 Victor Co Of Japan Ltd Apparatus and method for detection of motion vector
JP2012150765A (en) * 2011-01-21 2012-08-09 Fujitsu Ten Ltd Parallel traveling object detection device
EP2466567A3 (en) * 2010-12-14 2012-12-05 Robert Bosch GmbH Method and device for recording vehicle-related data
US8526681B2 (en) 2007-07-17 2013-09-03 Toyota Jidosha Kabushiki Kaisha On-vehicle image processing device for vehicular control
WO2013129352A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
US20130286205A1 (en) * 2012-04-27 2013-10-31 Fujitsu Limited Approaching object detection device and method for detecting approaching objects
KR101478072B1 (en) * 2010-06-23 2015-01-02 주식회사 만도 Method for Detecting Vehicle
WO2015098510A1 (en) * 2013-12-27 2015-07-02 日立オートモティブシステムズ株式会社 Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method
JP2017142661A (en) * 2016-02-10 2017-08-17 株式会社デンソー Vehicle periphery monitoring system and computer program
JP2020077103A (en) * 2018-11-06 2020-05-21 株式会社デンソー Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method
US11921823B2 (en) 2021-03-17 2024-03-05 Kabushiki Kaisha Toshiba Image processing device and image processing method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287799A (en) * 1989-04-28 1990-11-27 Matsushita Electric Ind Co Ltd Collision preventing device for vehicle
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH07110864A (en) * 1993-10-13 1995-04-25 Natl Aerospace Lab Method for judging mobile object
JPH08106323A (en) * 1994-10-05 1996-04-23 Matsushita Electric Ind Co Ltd Travel direction control unit
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
JPH0986314A (en) * 1995-09-27 1997-03-31 Yazaki Corp Back and side direction monitor device for vehicle
JPH09142209A (en) * 1995-11-17 1997-06-03 Yazaki Corp Monitor device for vehicular peripheral circumference
JPH09221052A (en) * 1996-02-16 1997-08-26 Honda Motor Co Ltd Vehicle collision prevention device
JPH10147200A (en) * 1997-09-08 1998-06-02 Yazaki Corp Monitoring method for vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287799A (en) * 1989-04-28 1990-11-27 Matsushita Electric Ind Co Ltd Collision preventing device for vehicle
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH07110864A (en) * 1993-10-13 1995-04-25 Natl Aerospace Lab Method for judging mobile object
JPH08106323A (en) * 1994-10-05 1996-04-23 Matsushita Electric Ind Co Ltd Travel direction control unit
JPH0918863A (en) * 1995-06-26 1997-01-17 Yazaki Corp Vehicle rear side monitoring device
JPH0986314A (en) * 1995-09-27 1997-03-31 Yazaki Corp Back and side direction monitor device for vehicle
JPH09142209A (en) * 1995-11-17 1997-06-03 Yazaki Corp Monitor device for vehicular peripheral circumference
JPH09221052A (en) * 1996-02-16 1997-08-26 Honda Motor Co Ltd Vehicle collision prevention device
JPH10147200A (en) * 1997-09-08 1998-06-02 Yazaki Corp Monitoring method for vehicle

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202136A (en) * 2001-01-04 2002-07-19 Omron Corp Observation apparatus for state in circumference of vehicle
US7170548B2 (en) 2001-11-26 2007-01-30 Denso Corporation Obstacle monitoring device using one-dimensional signal
CN100385462C (en) * 2002-12-20 2008-04-30 财团法人生产技术研究奖励会 Method and device for tracing moving object in image
WO2004057537A1 (en) * 2002-12-20 2004-07-08 The Foundation For The Promotion Of Industrial Science Method and device for tracing moving object in image
JP2004341979A (en) * 2003-05-19 2004-12-02 Nissan Motor Co Ltd Obstacle detection device and obstacle detecting method
US7190281B2 (en) 2004-02-06 2007-03-13 Sharp Kabushiki Kaisha Vehicle environment monitoring device, vehicle environment monitoring method, control program and computer-readable recording medium
US7250593B2 (en) 2004-02-06 2007-07-31 Sharp Kabushiki Kaisha Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program, and readable recording medium
US7253389B2 (en) 2005-02-01 2007-08-07 Sharp Kabushiki Kaisha Mobile body surrounding surveillance apparatus, mobile body surrounding surveillance method, control program and computer-readable recording medium
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing device, image processing method, image display system, and program
JP4575315B2 (en) * 2006-02-27 2010-11-04 株式会社東芝 Object detection apparatus and method
JP2007233469A (en) * 2006-02-27 2007-09-13 Toshiba Corp Object-detecting device and method therefor
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2008249685A (en) * 2007-03-06 2008-10-16 Ikegami Tsushinki Co Ltd Speed measuring method
JP4701225B2 (en) * 2007-03-06 2011-06-15 池上通信機株式会社 Speed measurement method
EP1988488A1 (en) 2007-05-03 2008-11-05 Sony Deutschland Gmbh Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
US8040227B2 (en) 2007-05-03 2011-10-18 Sony Deutschland Gmbh Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
EP3594853A3 (en) * 2007-05-03 2020-04-08 Sony Deutschland GmbH Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
US8526681B2 (en) 2007-07-17 2013-09-03 Toyota Jidosha Kabushiki Kaisha On-vehicle image processing device for vehicular control
JP2009143385A (en) * 2007-12-13 2009-07-02 Fujitsu Ltd Movable body detection device, movable body detection method, and movable body detection program
JP2009157943A (en) * 2009-04-02 2009-07-16 Toyota Motor Corp Onboard image processor
JP2010256955A (en) * 2009-04-21 2010-11-11 Victor Co Of Japan Ltd Apparatus and method for detection of motion vector
KR101478072B1 (en) * 2010-06-23 2015-01-02 주식회사 만도 Method for Detecting Vehicle
EP2466567A3 (en) * 2010-12-14 2012-12-05 Robert Bosch GmbH Method and device for recording vehicle-related data
JP2012150765A (en) * 2011-01-21 2012-08-09 Fujitsu Ten Ltd Parallel traveling object detection device
JPWO2013129352A1 (en) * 2012-03-01 2015-07-30 日産自動車株式会社 Three-dimensional object detection device
US9830519B2 (en) 2012-03-01 2017-11-28 Nissan Motor Co., Ltd. Three-dimensional object detection device
WO2013129352A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
US20130286205A1 (en) * 2012-04-27 2013-10-31 Fujitsu Limited Approaching object detection device and method for detecting approaching objects
WO2015098510A1 (en) * 2013-12-27 2015-07-02 日立オートモティブシステムズ株式会社 Vehicle control device, vehicle mounted with vehicle control device, and moving body detection method
JP2015125669A (en) * 2013-12-27 2015-07-06 日立オートモティブシステムズ株式会社 Vehicle controller, vehicle mounting therein vehicle control device, and movable body detection method
JP2017142661A (en) * 2016-02-10 2017-08-17 株式会社デンソー Vehicle periphery monitoring system and computer program
JP2020077103A (en) * 2018-11-06 2020-05-21 株式会社デンソー Own vehicle behavior estimation apparatus, own vehicle behavior estimation program, storage medium, and own vehicle behavior estimation apparatus control method
JP7151387B2 (en) 2018-11-06 2022-10-12 株式会社デンソー Vehicle behavior estimation device, vehicle behavior estimation program, storage medium, and control method for vehicle behavior estimation device
US11921823B2 (en) 2021-03-17 2024-03-05 Kabushiki Kaisha Toshiba Image processing device and image processing method

Also Published As

Publication number Publication date
JP4377474B2 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
JP4377474B2 (en) Collision prevention device for moving body, collision prevention method, and recording medium
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP3822515B2 (en) Obstacle detection device and method
JP3463858B2 (en) Perimeter monitoring device and method
US11308717B2 (en) Object detection device and object detection method
JP3580475B2 (en) Perimeter monitoring device
Wu et al. Applying a functional neurofuzzy network to real-time lane detection and front-vehicle distance measurement
US20180038689A1 (en) Object detection device
CN107891808B (en) Driving reminding method and device and vehicle
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20130235202A1 (en) Vehicle periphery monitoring apparatus and method of determining type of object for use in vehicle periphery monitoring apparatus
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
WO2019026785A1 (en) Attached object detection device, and vehicle system provided with same
JP2006184276A (en) All-weather obstacle collision preventing device by visual detection, and method therefor
CN102792314A (en) Cross traffic collision alert system
Leng et al. Vision-based lane departure detection system in urban traffic scenes
JPWO2019202627A1 (en) Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method
JP3200950B2 (en) Object recognition device
JP2005309797A (en) Warning device for pedestrian
JP2009040108A (en) Image display control device and image display control system
JP3656056B2 (en) Interrupting vehicle detection device and method
JP2001195698A (en) Device for detecting pedestrian
WO2019065970A1 (en) Vehicle exterior recognition device
Yang et al. On-road collision warning based on multiple FOE segmentation using a dashboard camera
JP2007280387A (en) Method and device for detecting object movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

EXPY Cancellation because of completion of term