JP2009037542A - Adjacent vehicle detection apparatus and adjacent vehicle detection method - Google Patents

Adjacent vehicle detection apparatus and adjacent vehicle detection method Download PDF

Info

Publication number
JP2009037542A
JP2009037542A JP2007203230A JP2007203230A JP2009037542A JP 2009037542 A JP2009037542 A JP 2009037542A JP 2007203230 A JP2007203230 A JP 2007203230A JP 2007203230 A JP2007203230 A JP 2007203230A JP 2009037542 A JP2009037542 A JP 2009037542A
Authority
JP
Japan
Prior art keywords
vehicle
adjacent vehicle
adjacent
lamp
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007203230A
Other languages
Japanese (ja)
Other versions
JP4930256B2 (en
Inventor
Fuminori Takeda
文紀 武田
Migaku Takahama
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007203230A priority Critical patent/JP4930256B2/en
Publication of JP2009037542A publication Critical patent/JP2009037542A/en
Application granted granted Critical
Publication of JP4930256B2 publication Critical patent/JP4930256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new adjacent vehicle detection apparatus which can surely detect an adjacent vehicle running on the side of its own vehicle and persistently track the adjacent vehicle, and an adjacent vehicle detection method. <P>SOLUTION: The position of the adjacent vehicle is recognized by a head lamp detection method, a template is generated from image information around the vehicle lamp of the recognized adjacent vehicle and the adjacent vehicle is tracked by a template matching method using the generated template. Then, the relative position of the adjacent vehicle to the vehicle itself is specified on the basis of either one or both of positional information of the adjacent vehicle recognized by the head lamp detection method and the positional information of the adjacent vehicle tracked by the template matching method. Consequently, the adjacent vehicle running on the side of the vehicle itself can be surely detected and persistently tracked. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自車両の側方を隣接して走行する他の車両(以下、「隣接車両」という)を検出するための隣接車両検出装置に係り、特に夜間走行時における隣接車両の検出に適した隣接車両検出装置および隣接車両検出方法に関するものである。   The present invention relates to an adjacent vehicle detection device for detecting another vehicle (hereinafter referred to as an “adjacent vehicle”) that travels adjacent to the side of the host vehicle, and is particularly suitable for detection of an adjacent vehicle during night driving. The present invention relates to an adjacent vehicle detection device and an adjacent vehicle detection method.

従来、車両の四隅などにミリ波レーダやレーザーレーダなどのセンサを設置して自車両の近くを走行する他の車両を検出(センシング)する技術が知られている。
しかしながら、このミリ波レーダやレーザーレーダなどを用いた検出方法では、車両に対するこれらセンサの設置場所などの制約などから、実際に検出できるのは自車両の前方および後方のみであり、自車両の側方(特に真横)は、ブラインドスポットとして検出することが難しい。
2. Description of the Related Art Conventionally, there is known a technique for detecting (sensing) other vehicles traveling near the host vehicle by installing sensors such as millimeter wave radars and laser radars at four corners of the vehicle.
However, in this detection method using millimeter wave radar, laser radar, etc., only the front and rear sides of the own vehicle can actually be detected due to restrictions such as the installation location of these sensors on the vehicle. Is difficult to detect as a blind spot.

そのため、例えば以下の特許文献1に示すように、自車両にその車両側方を撮影するためのテレビカメラ装置を取り付け、そのテレビカメラ装置からの画像を画像処理することによって夜間走行時におけるヘッドランプの光を抽出し、抽出したヘッドランプの光を検知し続けることで自車両の側方を走行する隣接車両を検出するといった方法(ヘッドランプ検出法)が考えられる。
特開平5−189694号公報
Therefore, for example, as shown in the following Patent Document 1, a TV camera device for photographing the side of the vehicle is attached to the host vehicle, and a headlamp during night driving is performed by processing an image from the TV camera device. A method (headlamp detection method) of detecting an adjacent vehicle that travels to the side of the host vehicle by extracting the light of the vehicle and continuously detecting the light of the extracted headlamp is conceivable.
JP-A-5-189694

ところで、このようにヘッドランプの光に基づいて自車両の側方を走行する隣接車両を検出するためには、常にそのテレビカメラ装置によってその隣接車両のヘッドランプを検知し続ける必要がある。
しかしながら、その隣接車両が自車両の真横に位置した場合には、その車体外形などによってその隣接車両のヘッドランプが遮蔽されてしまい、テレビカメラ装置によってそれを検知できなくなってしまうため、確実にその隣接車両を検出することは困難である。
そこで、本発明はこのような課題を有効に解決するために案出されたものであり、その目的は、自車両の側方を走行する隣接車両を確実に検出してこれを頑強に追跡できる新規な隣接車両検出装置および隣接車両検出方法を提供するものである。
By the way, in order to detect an adjacent vehicle traveling on the side of the host vehicle based on the light of the headlamp as described above, it is necessary to always detect the headlamp of the adjacent vehicle by the television camera device.
However, when the adjacent vehicle is located beside the host vehicle, the headlamp of the adjacent vehicle is shielded by the outer shape of the vehicle body and cannot be detected by the TV camera device. It is difficult to detect adjacent vehicles.
Therefore, the present invention has been devised to effectively solve such a problem, and the object thereof is to reliably detect an adjacent vehicle running on the side of the host vehicle and to robustly track this. A novel adjacent vehicle detection device and an adjacent vehicle detection method are provided.

前記課題を解決するために本発明は、
側方カメラによって自車両の側方を撮影し、撮影された画像中の輝度情報を含む画像情報に基づいて隣接車両の車両ランプを検出し、検出された隣接車両の車両ランプの位置に基づいて当該隣接車両の位置を認識する。また、このようにして認識された隣接車両の車両ランプ周辺の画像情報からテンプレートを生成し、生成されたテンプレートを用いたテンプレートマッチング法によって当該隣接車両を追跡する。
そして、前記隣接車両の車両ランプの位置に基づいて認識された隣接車両の位置情報とテンプレートマッチング法によって追跡された隣接車両の位置情報とのうち、いずれか一方の位置情報または両方の位置情報に基づいて自車両に対する当該隣接車両の相対位置を特定する。
In order to solve the above problems, the present invention provides:
The side of the vehicle is photographed by the side camera, the vehicle lamp of the adjacent vehicle is detected based on the image information including the luminance information in the photographed image, and based on the detected position of the vehicle lamp of the adjacent vehicle Recognize the position of the adjacent vehicle. Further, a template is generated from the image information around the vehicle lamp of the adjacent vehicle recognized in this way, and the adjacent vehicle is tracked by a template matching method using the generated template.
The position information of the adjacent vehicle recognized based on the position of the vehicle lamp of the adjacent vehicle and the position information of the adjacent vehicle tracked by the template matching method are included in one or both of the position information. Based on this, the relative position of the adjacent vehicle with respect to the host vehicle is specified.

このように本発明は、従来の隣接車両の車両ランプ位置に基づいて隣接車両の位置を認識する技術(以下、この技術を適宜「ヘッドランプ検出法」という)と、このヘッドランプ検出法で検出された隣接車両に基づいたテンプレートマッチング法による隣接車両の追跡技術を組み合わせて用いたため、ヘッドランプ検出法による夜間時の隣接車両の検出ができなくなった場合でも、自車両の側方を走行する隣接車両を確実に検出してこれを頑強に追跡することができる。
これによって、従来のミリ波レーダやレーザーレーダなどのセンサを用いた車両検出技術と併用することで自車両の全方位認識システムの実現が可能となる。
As described above, the present invention is based on the conventional technology for recognizing the position of the adjacent vehicle based on the vehicle lamp position of the adjacent vehicle (hereinafter, this technology is appropriately referred to as “headlamp detection method”) and this headlamp detection method. Adjacent vehicles traveling sideways of the vehicle even when it is not possible to detect the adjacent vehicle at night using the headlamp detection method because of the combined use of the adjacent vehicle tracking technology based on the template matching method based on the adjacent vehicle. Vehicles can be reliably detected and tracked robustly.
This makes it possible to realize an omnidirectional recognition system for the host vehicle by using it together with a vehicle detection technique using a sensor such as a conventional millimeter wave radar or laser radar.

以下、本発明を実施するための最良の形態を添付図面を参照しながら詳述する。
(構成)
図1は、本発明に係る隣接車両検出装置100の実施の一形態を示したものである。
図示するように、この隣接車両検出装置100は、側方カメラ10と、画像メモリ12と、車両検出処理部14と、テンプレート作成部16と、テンプレート格納メモリ18と、テンプレート更新部20と、車両追跡処理部22と、検出結果合成部24と、ランプ位置予測部26と、露光制御信号算出部28と、結果出力部30とから主に構成されている。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the accompanying drawings.
(Constitution)
FIG. 1 shows an embodiment of an adjacent vehicle detection device 100 according to the present invention.
As shown in the figure, this adjacent vehicle detection device 100 includes a side camera 10, an image memory 12, a vehicle detection processing unit 14, a template creation unit 16, a template storage memory 18, a template update unit 20, a vehicle It mainly comprises a tracking processing unit 22, a detection result synthesis unit 24, a lamp position prediction unit 26, an exposure control signal calculation unit 28, and a result output unit 30.

先ず側方カメラ10は、例えばカラーCCDセンサやカラーCMOSセンサなどの固体撮像素子などから構成されている。そして、例えば、図2に示すように自車両の両側に設置されているドアミラーユニット40に取り付けられて自車両の側方を連続的に撮影(動画撮影:例えば30フレーム/秒)し、撮影した画像データを順次画像メモリ12側に出力するようになっている。図2の例では、自車両の左側のドアミラーユニットの先端に取り付けられて自車両の左側方を一定の範囲で撮影するようになっている。   First, the side camera 10 is composed of a solid-state image sensor such as a color CCD sensor or a color CMOS sensor, for example. Then, for example, as shown in FIG. 2, the camera is attached to door mirror units 40 installed on both sides of the host vehicle, and continuously shoots the side of the host vehicle (video shooting: 30 frames / second, for example). The image data is sequentially output to the image memory 12 side. In the example of FIG. 2, it is attached to the front end of the door mirror unit on the left side of the host vehicle and photographs the left side of the host vehicle in a certain range.

なお、この側方カメラ10としては、自車両の側方をできるだけ広い範囲で撮影可能とすべく広角レンズが用いることが望ましい。また、この側方カメラ10は、自車両の側方を撮影できればその取り付け位置や高さなどは特に限定されるものではなく、ドアミラー本体の他に、例えば自車両のルーフやドア本体、バンパーなどに埋め込むようにして取り付けても良い。   As the side camera 10, it is desirable to use a wide-angle lens so that the side of the host vehicle can be photographed in as wide a range as possible. The side camera 10 is not particularly limited in its mounting position and height as long as the side of the host vehicle can be photographed. In addition to the door mirror body, for example, the roof of the host vehicle, the door body, a bumper, etc. It may be attached so as to be embedded in.

画像メモリ12は、例えばSRAMやDRAMなどの半導体記憶装置などから構成されており、側方カメラ10で撮影されたカラー画像を画像情報として一時的あるいは継続的に保持・記録するようになっている。
車両検出処理部14は、この画像メモリ12に保持・記録されたカラー画像を、輝度情報のみからなるモノクロ画像に変換した後、画像処理によってその隣接車両の車両ランプ(特にヘッドランプ)を輝度の偏差情報から抽出することでその隣接車両を検出するようになっている(ヘッドランプ検出法)。
The image memory 12 is composed of, for example, a semiconductor storage device such as SRAM or DRAM, and holds or records a color image taken by the side camera 10 temporarily or continuously as image information. .
The vehicle detection processing unit 14 converts the color image held / recorded in the image memory 12 into a monochrome image including only luminance information, and then performs image processing so that the vehicle lamp (particularly the headlamp) of the adjacent vehicle has a luminance. The adjacent vehicle is detected by extracting from the deviation information (headlamp detection method).

そして、この車両検出処理部14は、このようなヘッドランプ検出法により検出した隣接車の自車両に対する車両位置(x座標、y座標)を所定値のフレーム枚数分を過去履歴として保存しておき、検出された車両位置と過去履歴として記録してある隣接車両の位置を差し引くことでその隣接車両の移動量を算出し、x軸、y軸における車両移動量が所定値以内であった場合は、検出した対象が隣接車両であると判断して隣接車両の位置を出力するようになっている。なお、この車両検出処理部14は、検出した対象が隣接車両でないと判断した場合は、検出結果を出力しないようになっている。   The vehicle detection processing unit 14 stores the vehicle position (x coordinate, y coordinate) of the adjacent vehicle with respect to the own vehicle detected by such a headlamp detection method for a predetermined number of frames as a past history. The movement amount of the adjacent vehicle is calculated by subtracting the detected vehicle position and the position of the adjacent vehicle recorded as the past history, and the vehicle movement amount on the x-axis and the y-axis is within a predetermined value. The detected object is determined to be an adjacent vehicle, and the position of the adjacent vehicle is output. The vehicle detection processing unit 14 does not output a detection result when it is determined that the detected target is not an adjacent vehicle.

テンプレート作成部16は、例えば図3に示すように、この車両検出処理部14によって検出された隣接車両の位置をもとに画像メモリ12に記録されている画像情報から検出された隣接車両の車両ランプ周辺の車体外形を含む画像領域を切り出すことで所定サイズのテンプレートを作成するようになっている。図3は、この画像メモリ12に記録された隣接車両全体を右斜め前方から撮影した画像のうち、その隣接車両の右側(向かって左側)のヘッドランプを中心としてその近傍のフェンダやタイヤの一部およびフロントグリルの一部の領域を矩形状に切り出したテンプレートが作成された例を示している。   For example, as shown in FIG. 3, the template creation unit 16 detects the vehicle of the adjacent vehicle detected from the image information recorded in the image memory 12 based on the position of the adjacent vehicle detected by the vehicle detection processing unit 14. A template of a predetermined size is created by cutting out an image area including the vehicle body outline around the lamp. FIG. 3 shows one of the fenders and tires in the vicinity of a headlamp on the right side (to the left side of the adjacent vehicle) of the adjacent vehicle recorded in the image memory 12 taken obliquely from the front right. The example which the template which cut out the partial area | region of a part and a front grille to the rectangular shape was produced is shown.

テンプレート格納メモリ18は、この画像メモリ12と同様に、SRAMやDRAMなどの半導体記憶装置などから構成されており、このテンプレート作成部16で作成されたテンプレートおよびテンプレート更新部20で更新されたテンプレートを一時的にまたは継続的に保持・記憶するようになっている。
テンプレート更新部20は、後述する検出結果合成部24より出力された隣接車両検出結果をもとに画像メモリ12に保持・記憶されている画像情報から検出された隣接車両の車両ランプ周辺の車体外形を含む画像領域を切り出すことでテンプレートを更新し、更新したテンプレートをテンプレート格納メモリ18に出力するようになっている。なお、このテンプレート更新部20は、画像メモリ12に次々と保持・記録される画像情報の各フレーム毎にテンプレートを更新するようになっている。
Similar to the image memory 12, the template storage memory 18 is composed of a semiconductor storage device such as SRAM or DRAM, and the template created by the template creation unit 16 and the template updated by the template update unit 20 are stored. It is designed to hold and store temporarily or continuously.
The template update unit 20 is a vehicle body contour around the vehicle lamp of the adjacent vehicle detected from the image information held and stored in the image memory 12 based on the adjacent vehicle detection result output from the detection result combining unit 24 described later. The template is updated by cutting out an image area including “”, and the updated template is output to the template storage memory 18. The template update unit 20 is configured to update the template for each frame of image information held and recorded one after another in the image memory 12.

車両追跡処理部22は、このテンプレート格納メモリ18に保持・記憶されたテンプレートを用いて画像メモリ12に記録された画像に対して公知のテンプレートマッチング法によるテンプレートマッチングを行うことで画像内の隣接車両の位置を特定し、その隣接車両を追跡するようになっている。そして、この車両追跡処理部22は、テンプレートマッチングにより検出した隣接車両の位置(テンプレートマッチング適合位置におけるテンプレート中心点のx座標、y座標)を所定のフレーム枚数分において過去履歴として保存しておき、検出された隣接車両の位置と過去履歴として記録してある隣接車両の位置を差し引くことでその隣接車両の移動量を算出し、x軸とy軸における車両移動量が所定値以内であった場合は、追跡している対象が隣接車両であると判断し、その車両位置を出力するようになっている。なお、この車両追跡処理部22は、追跡している対象が隣接車両であると判断されないときは、車両位置を出力しないようになっている。   The vehicle tracking processing unit 22 performs template matching by a known template matching method on the image recorded in the image memory 12 using the template held and stored in the template storage memory 18, thereby adjacent vehicles in the image. Is located, and its neighboring vehicles are tracked. And this vehicle tracking processing part 22 preserve | saves the position of the adjacent vehicle detected by template matching (x coordinate of the template center point in a template matching applicable position, y coordinate) as a past log | history for a predetermined number of frames, When the movement amount of the adjacent vehicle is calculated by subtracting the detected position of the adjacent vehicle and the position of the adjacent vehicle recorded as the past history, and the vehicle movement amount on the x-axis and the y-axis is within a predetermined value Determines that the object being tracked is an adjacent vehicle and outputs the vehicle position. The vehicle tracking processing unit 22 does not output the vehicle position when it is not determined that the tracked target is an adjacent vehicle.

検出結果合成部24は、車両検出処理部14による隣接車両の検出結果と、車両追跡処理部22による隣接車両の検出結果を基づいてその隣接車両の検出位置を判断するようになっている。そして、車両検出処理部14と車両追跡処理部22の両方から検出結果が得られている場合は、両方の出力結果をもとに隣接車両検出位置を決定する。例えば、両方の出力結果を比較し、信頼性の高い方の出力結果を採用することで確実にその隣接車両検出位置を決定することができる。これに対し、どちらか一方の出力結果しか得られない場合は、その出力結果に基づく座標をそのまま採用して最終判断とするようになっている。   The detection result synthesizing unit 24 determines the detection position of the adjacent vehicle based on the detection result of the adjacent vehicle by the vehicle detection processing unit 14 and the detection result of the adjacent vehicle by the vehicle tracking processing unit 22. If detection results are obtained from both the vehicle detection processing unit 14 and the vehicle tracking processing unit 22, the adjacent vehicle detection position is determined based on both output results. For example, it is possible to reliably determine the adjacent vehicle detection position by comparing both output results and adopting the more reliable output result. On the other hand, when only one of the output results can be obtained, the coordinates based on the output result are adopted as they are for the final determination.

ランプ位置予測部26は、車両検出処理部14によって一方の車両ランプが検出されたときに他方の車両ランプの位置を予測するようになっている。すなわち、最初にヘッドランプが検出された場合は、その画像(画面)上におけるリアランプの位置を、また、最初にリアランプが検出された場合は、その画像(画面)上におけるヘッドランプの位置をそれぞれ予測するようになっている。   The lamp position prediction unit 26 is configured to predict the position of the other vehicle lamp when one vehicle lamp is detected by the vehicle detection processing unit 14. That is, when the headlamp is first detected, the position of the rear lamp on the image (screen), and when the rear lamp is detected for the first time, the position of the headlamp on the image (screen). It comes to predict.

具体的には、図4に示すように、車両検出処理部14により検出された車両ランプの位置に基づいてヘッドランプHとリアランプRは同等の高さにあること、および側方カメラ10に広角レンズを使用しているときは、そのレンズによる画面の歪みなどを考慮した上で他方の車両ランプを検出するようになっている。図4の例では、一方の車両ランプが検出されたならば、この車両ランプの高さに破線で示したランプ位置予測ラインLを設け、このラインLに沿って他方の車両ランプが存在すると予測し、その予測位置周辺で他方の車両ランプを検出するようにしたものである。   Specifically, as shown in FIG. 4, the headlamp H and the rear lamp R are at the same height based on the position of the vehicle lamp detected by the vehicle detection processing unit 14, and the side camera 10 has a wide angle. When a lens is used, the other vehicle lamp is detected in consideration of screen distortion caused by the lens. In the example of FIG. 4, if one vehicle lamp is detected, a lamp position prediction line L indicated by a broken line is provided at the height of this vehicle lamp, and it is predicted that the other vehicle lamp exists along this line L. However, the other vehicle lamp is detected around the predicted position.

露光制御信号算出部28は、このランプ位置予測部26で予測された他方の車両ランプの位置に基づいて車両検出処理部14がその予測位置周辺の他方の車両ランプを検出するにあたって最適な画像が得られるようにしている。具体的には、この露光制御信号算出部28は、露光制御を行うための露光制御信号を算出して、その露光制御信号に基づいて側方カメラ10の露光制御を行うようになっている。   Based on the position of the other vehicle lamp predicted by the lamp position prediction unit 26, the exposure control signal calculation unit 28 obtains an optimal image when the vehicle detection processing unit 14 detects the other vehicle lamp around the predicted position. I try to get it. Specifically, the exposure control signal calculation unit 28 calculates an exposure control signal for performing exposure control, and performs exposure control of the side camera 10 based on the exposure control signal.

すなわち、ヘッドランプHとリアランプRとは、その画像中における明るさ(輝度)が大きく異なることから、例えばヘッドランプHを検出した際の露光制御では、露光不足によりリアランプRを検出できないため、そのリアランプRの明るさに応じた露光制御(露光絞り制御)を行うことで確実にリアランプRを検出するようになっている。なお、最初に検出した車両ランプがリアランプRの場合の露光制御は、その逆になることは勿論である。   That is, since the brightness (luminance) in the image of the headlamp H and the rear lamp R is greatly different, for example, in the exposure control when the headlamp H is detected, the rear lamp R cannot be detected due to underexposure. By performing exposure control (exposure aperture control) according to the brightness of the rear lamp R, the rear lamp R is reliably detected. It goes without saying that the exposure control when the vehicle lamp detected first is the rear lamp R is reversed.

結果出力部30は、前記検出結果合成部24によって隣接車両が検出された場合には、自車のドライバーに対して各種告知手段、例えば警報ブザーやHUD(Head-Up Display)による表示、カーナビゲーションシステムのスピーカーからの音声発話、カーナビゲーションシステムのモニターからの画面表示、メータ表示などによって自車両側方の隣接車両の存在を告知し、警告するようになっている。   When an adjacent vehicle is detected by the detection result synthesizing unit 24, the result output unit 30 displays various notification means such as an alarm buzzer or HUD (Head-Up Display) to the driver of the vehicle, car navigation The presence of an adjacent vehicle on the side of the host vehicle is announced and warned by voice utterance from the system speaker, screen display from the monitor of the car navigation system, meter display, and the like.

なお、この画像メモリ12、車両検出処理部14、テンプレート作成部16、テンプレート格納メモリ18、テンプレート更新部20、車両追跡処理部22、検出結果合成部24、ランプ位置予測部26、露光制御信号算出部28などは、実際には、CPUなどの演算手段やRAM、ROMなどの記憶手段などからなる情報処理システム(マイクロコンピュータシステム:ハードウェア資源)と、各種専用のプログラム(ソフトウェア)とから実現されるようになっており、これらハードウェア資源とソフトウェアとが協働することで前記各部の機能や動作が具体的に実現されるようになっている。   The image memory 12, vehicle detection processing unit 14, template creation unit 16, template storage memory 18, template update unit 20, vehicle tracking processing unit 22, detection result synthesis unit 24, lamp position prediction unit 26, exposure control signal calculation The unit 28 and the like are actually realized by an information processing system (microcomputer system: hardware resource) composed of arithmetic means such as a CPU and storage means such as RAM and ROM, and various dedicated programs (software). These hardware resources and software cooperate to specifically realize the functions and operations of the respective units.

(動作)
次に、このような構成をした本発明の隣接車両検出装置100を用いた隣接車両検出方法を図5のフローチャートを主に参照しながら説明する。なお、この図5に示す処理フローは、本発明の隣接車両検出装置100におけるループ処理時のフローチャートを示したものであり、この隣接車両検出装置100が作動している最中はこのループ処理を繰り返し行っているものとする。
(Operation)
Next, an adjacent vehicle detection method using the adjacent vehicle detection device 100 of the present invention having such a configuration will be described with reference mainly to the flowchart of FIG. The processing flow shown in FIG. 5 is a flowchart at the time of loop processing in the adjacent vehicle detection device 100 of the present invention, and this loop processing is performed while the adjacent vehicle detection device 100 is operating. Assume that you are doing it repeatedly.

(ステップS201)
先ず、最初のステップS201では、側方カメラ10で撮影された画像を画像メモリ12から読み出して次のステップS202に移行する。
(ステップS202)
ステップS202では、前回のループ処理時にてテンプレート作成部16もしくはテンプレート更新部20においてテンプレートが既に作成あるいは更新されているか否かを判断し、既に作成あるいは更新されていると判断したとき(YES)は、ステップS203側に移行するが、未だ作成あるいは更新されていると判断したとき(NO)は、ステップS204側に移行する。
(Step S201)
First, in the first step S201, an image taken by the side camera 10 is read from the image memory 12, and the process proceeds to the next step S202.
(Step S202)
In step S202, the template creation unit 16 or the template update unit 20 determines whether the template has already been created or updated at the time of the previous loop processing, and if it is determined that the template has already been created or updated (YES). The process proceeds to the step S203 side, but when it is determined that it is still created or updated (NO), the process proceeds to the step S204 side.

(ステップS203)
ステップS203では、既に作成あるいは更新されているテンプレートを用いて車両追跡処理部22においてテンプレートマッチング法による車両追跡を行い、処理が終了したならばステップS205へ移行する。
(ステップS204)
一方、ステップS204では、車両検出処理部14においてヘッドランプ検出法による隣接車両の検出を行ってから次のステップS205に移行する。
(ステップS205)
ステップS205では、このステップS203における車両追跡結果と、ステップS204における車両検出結果を総合判定し、隣接車両の位置を決定する。
(Step S203)
In step S203, the vehicle tracking processing unit 22 performs vehicle tracking by the template matching method using a template that has already been created or updated. When the processing is completed, the process proceeds to step S205.
(Step S204)
On the other hand, in step S204, the vehicle detection processing unit 14 detects an adjacent vehicle by the headlamp detection method, and then proceeds to the next step S205.
(Step S205)
In step S205, the vehicle tracking result in step S203 and the vehicle detection result in step S204 are comprehensively determined, and the position of the adjacent vehicle is determined.

(ステップS206)
次のステップS206では、検出結果合成部106において、隣接車両の検出結果が出力されているかどうかを判断し、隣接車両検出結果が1つ以上出力されていると判断したとき(YES)は、次のステップS207に移行するが、隣接車両検出結果が1つも出力されていないとき(NO)は、隣接車両が自車両側方に存在していないと判断してそのまま処理を終了する。
(ステップS207)
ステップS207では、隣接車両が自車両側方に存在していると判断して、その結果出力部30において自車両のドライバーに隣接車両の存在を警告音や表示によって警告する。
(Step S206)
In the next step S206, the detection result synthesis unit 106 determines whether or not the detection result of the adjacent vehicle is output, and when it is determined that one or more adjacent vehicle detection results are output (YES) However, if no adjacent vehicle detection result is output (NO), it is determined that the adjacent vehicle does not exist on the side of the host vehicle, and the process is terminated.
(Step S207)
In step S207, it is determined that the adjacent vehicle exists on the side of the host vehicle, and as a result, the output unit 30 warns the driver of the host vehicle of the presence of the adjacent vehicle by a warning sound or display.

(ステップS208)
ステップS208では、車両追跡処理部22において、追跡している隣接車両があるかどうかを判断し、追跡している隣接車両があると判断したとき(YES)は、ステップS209に移行し、追跡している隣接車両がないと判断したとき(NO)は、ステップS212に移行する。
(ステップS209)
ステップS209では、検出結果合成部24から出力された隣接車両検出結果をもとにテンプレート更新部20にて次回のループ処理に用いるテンプレートを作成して次のステップS210に移行する。
(Step S208)
In step S208, the vehicle tracking processing unit 22 determines whether there is an adjacent vehicle being tracked. If it is determined that there is an adjacent vehicle being tracked (YES), the process proceeds to step S209 for tracking. When it is determined that there is no adjacent vehicle (NO), the process proceeds to step S212.
(Step S209)
In step S209, the template update unit 20 creates a template used for the next loop process based on the adjacent vehicle detection result output from the detection result combining unit 24, and the process proceeds to the next step S210.

(ステップS210)
ステップS210では、検出結果合成部24から出力された隣接車両検出結果に基づいて隣接車両の他方の車両ランプ位置を予測してステップS211に移行する。
(ステップS210)
そして、ステップS211では、ランプ位置予測部26によって予測された他方の車両ランプ位置に基づいて、他方の車両ランプをその予測位置周辺で確実に検出すべく最適な画像が得られるようにその露光制御を行ってから処理を終了する。具体的には、前述したように最初にヘッドランプHが検出された場合は、リアランプRの輝度に合わせた露光制御を行うことになる。
(Step S210)
In step S210, the other vehicle lamp position of the adjacent vehicle is predicted based on the adjacent vehicle detection result output from the detection result combining unit 24, and the process proceeds to step S211.
(Step S210)
In step S211, based on the other vehicle lamp position predicted by the lamp position prediction unit 26, the exposure control is performed so that an optimal image can be obtained to reliably detect the other vehicle lamp around the predicted position. After completing the process. Specifically, as described above, when the headlamp H is first detected, exposure control in accordance with the luminance of the rear lamp R is performed.

(ステップS212)
一方、ステップS212では、検出結果合成部24から出力された隣接車両検出結果をもとにテンプレート作成部16にて次回のループ処理に用いるテンプレートを作成して処理を終了する。
そして、このような処理を各フレーム毎に繰り返すことにより、図6に示すように自車両に対して隣接車両が後方または前方から接近し、自車両の真横周辺に位置した際に側方カメラ10のヘッドランプHおよびリアランプRが車体外形により遮蔽されて消失してしまった場合でもその隣接車両を見失うことなく頑強に追跡を継続することができる。
(Step S212)
On the other hand, in step S212, the template creation unit 16 creates a template used for the next loop process based on the adjacent vehicle detection result output from the detection result synthesis unit 24, and the process ends.
Then, by repeating such processing for each frame, as shown in FIG. 6, when the adjacent vehicle approaches the host vehicle from the rear or the front and is positioned around the side of the host vehicle, the side camera 10 Even if the headlamp H and the rear lamp R are shielded by the outer shape of the vehicle body and disappear, the tracking can be continued robustly without losing sight of the adjacent vehicle.

図7は、ヘッドランプ検出法による隣接車両の検出と、テンプレートマッチング法による車両追跡との経時的な関係を示した説明図である。なお、この例は自車両に対して後方から隣接車両が接近して追い越すまでの間の状況を示したものである。
図示するように、先ず隣接車両の初期検出は、ヘッドランプ検出法によって行われ、これをトリガーとしてテンプレートマッチング法による車両追跡が開始される。そして、その後は、両検出法による車両検出が同時並行して行われることになるが、やがてその隣接車両が自車両の真横に位置すると、ヘッドランプHが車体外形により消失してヘッドランプ検出法による車両検出が不可能になる。しかしながら、この時点ではテンプレートマッチング法による車両追跡が継続されているため、隣接車両を見失うようなことはない。
FIG. 7 is an explanatory diagram showing a temporal relationship between detection of an adjacent vehicle by the headlamp detection method and vehicle tracking by the template matching method. In addition, this example shows the situation until the adjacent vehicle approaches and overtakes the own vehicle from behind.
As shown in the figure, the initial detection of the adjacent vehicle is first performed by the headlamp detection method, and vehicle tracking by the template matching method is started using this as a trigger. After that, vehicle detection by both detection methods is performed in parallel, but when the adjacent vehicle is positioned right next to the host vehicle, the headlamp H disappears due to the outer shape of the vehicle body and the headlamp detection method is used. It becomes impossible to detect the vehicle. However, since the vehicle tracking by the template matching method is continued at this time, there is no possibility of losing sight of the adjacent vehicle.

そして、さらにその隣接車両が自車両前方に移動すると、テンプレートマッチング法による車両追跡が不可能になるが、その直前には、その隣接車両のリアランプRが検出されているため、リアランプRに基づくヘッドランプ検出法による車両検出が復活する。従って、いずれか一方の検出法による車両検出が不可能になった場合でも他方の検出法による検出が可能となるため、隣接車両を見失うようなことはない。   When the adjacent vehicle further moves in front of the host vehicle, vehicle tracking by the template matching method becomes impossible. However, since the rear lamp R of the adjacent vehicle is detected immediately before that, the head based on the rear lamp R is detected. Vehicle detection by the ramp detection method is restored. Accordingly, even when vehicle detection by either one of the detection methods becomes impossible, detection by the other detection method becomes possible, so that the adjacent vehicle is not lost.

(効果)
このように本発明はヘッドランプ検出法による検出結果と、テンプレートマッチング法による検出結果を併用して車両検出を行うようにしたため、隣接車両を確実に検出できると共に、常に頑強な隣接車両の検出が可能となる。
また、テンプレートマッチングで用いられるテンプレートは、テンプレートマッチング法による隣接車両の位置情報だけでなく、ヘッドランプ検出法で検出された隣接車両の車両ランプ周辺の車体外形を含む領域の画像情報に基づいて更新することが可能となるため、テンプレートの特定精度がより向上する。
これによって、テンプレートの切り出しサイズ(面積)を小さくできるため、画像メモリ12などの容量を小さくすることができると共に、その後の画像処理などの負荷を軽減できるため、画像処理速度をより向上することができる。
(effect)
As described above, according to the present invention, since the vehicle detection is performed by using the detection result by the headlamp detection method and the detection result by the template matching method in combination, the adjacent vehicle can be reliably detected, and the robust adjacent vehicle can always be detected. It becomes possible.
In addition, the template used in template matching is updated based on not only the position information of the adjacent vehicle by the template matching method but also image information of the area including the vehicle body shape around the vehicle lamp of the adjacent vehicle detected by the headlamp detection method. This makes it possible to improve the template identification accuracy.
As a result, the cutout size (area) of the template can be reduced, so that the capacity of the image memory 12 and the like can be reduced, and the load of subsequent image processing and the like can be reduced, so that the image processing speed can be further improved. it can.

また、一方の車両ランプを検出した後は、その検出位置や画像の歪みなどを考慮して他方の車両ランプの位置を予測するようにしたことから、容易かつ迅速に他方の車両ランプを検出することができる。
また、このように他方の車両ランプを予測して検出するに際しては、その画像の露光を変更するなどといった画像パラメータを変更することでより確実に他方の車両ランプを検出することができる。
In addition, after detecting one vehicle lamp, the position of the other vehicle lamp is predicted in consideration of the detection position, image distortion, etc., so the other vehicle lamp is detected easily and quickly. be able to.
Further, when the other vehicle lamp is predicted and detected in this way, the other vehicle lamp can be detected more reliably by changing image parameters such as changing the exposure of the image.

また、さらに最初にヘッドランプを検出し、そのヘッドランプの位置に基づいてリアランプの位置を予測して検出するに際しては、通常リアランプは、赤色であるからその画像中の輝度情報のみならず、赤色情報(R、G、B信号のR信号)の情報量を加味して検出するようにすれば、リアランプRをより迅速かつ確実に検出することができる。
特にリアランプRは、その明るさ(輝度値)がヘッドランプに比べて大幅に低く露光制御のみでは、街灯や反射光などの影響により誤検出や未検出が発生し易いため、これらを回避すべくこのように色情報を加味して検出することが望ましい。
Further, when detecting the headlamp first and predicting and detecting the position of the rear lamp based on the position of the headlamp, since the rear lamp is usually red, not only the luminance information in the image but also red By detecting the amount of information (R signals of R, G, and B signals), the rear lamp R can be detected more quickly and reliably.
In particular, the brightness (luminance value) of the rear lamp R is significantly lower than that of the headlamp, and erroneous detection and non-detection are likely to occur due to the influence of street lamps and reflected light only by exposure control. In this way, it is desirable to detect the color information.

なお、前記発明が解決しようとする課題の欄や特許請求の範囲の請求項1〜6(以下、「請求項」と略す)に記載した「撮影手段」は、本実施の形態の「側方カメラ10」および「画像メモリ12」に対応し、同じく請求項に記載した「車両ランプ検出手段」および「隣接車両認識手段」は、本実施の形態に係る「車両検出処理部14」に対応するものである。   The “photographing means” described in the column of problems to be solved by the invention and claims 1 to 6 (hereinafter abbreviated as “claims”) of the claims is the “side” of the present embodiment. Corresponding to “camera 10” and “image memory 12”, “vehicle lamp detecting means” and “adjacent vehicle recognizing means” recited in the claims also correspond to “vehicle detection processing unit 14” according to the present embodiment. Is.

また、同じく請求項に記載した「テンプレート生成手段」は、本実施の形態に係る「テンプレート作成部16」、「テンプレート格納メモリ18」、「テンプレート更新部20」に対応し、同じく請求項に記載した「隣接車両追跡手段」は、本実施の形態に係る「車両追跡処理部22」に対応するものである。
そして、同じく請求項に記載した「隣接車両位置特定手段」は、本実施の形態に係る「検出結果合成部24」に対応し、同じく請求項の「車両ランプ検出手段」は、本実施の形態に係る「ランプ位置予測部26」および「露光制御信号算出部28」、ならびに図5のステップS210、S211にそれぞれ対応するものである。
Similarly, the “template generation unit” recited in the claims corresponds to the “template creation unit 16”, the “template storage memory 18”, and the “template update unit 20” according to the present embodiment. The “adjacent vehicle tracking means” corresponds to the “vehicle tracking processing unit 22” according to the present embodiment.
The “adjacent vehicle position specifying means” described in the claims corresponds to the “detection result combining unit 24” according to the present embodiment, and the “vehicle lamp detection means” in the claims is also described in the present embodiment. This corresponds to “lamp position prediction unit 26” and “exposure control signal calculation unit 28” and steps S210 and S211 in FIG.

また、前記発明が解決しようとする課題の欄や特許請求の範囲の請求項7(以下、「請求項」と略す)に記載した「撮影ステップ」は、本実施の形態の「側方カメラ10」による車両側方の撮影および撮影した画像データの「画像メモリ12」への記録・保持に対応し、同じく請求項の「車両ランプ検出ステップ」および「隣接車両認識ステップ」は、図5のステップS201、S202、S204などに対応するものである。
また、同じく請求項の「テンプレート生成ステップ」は、図5のステップS209、S212に対応し、同じく請求項の「隣接車両追跡ステップ」は、図5のステップS203に対応するものである。
そして、同じく請求項の「隣接車両位置特定ステップ」は、図5のステップS205〜S207に対応するものである。
In addition, the “shooting step” described in the column of the problem to be solved by the invention and in claim 7 of the claims (hereinafter abbreviated as “claim”) is the “side camera 10” of the present embodiment. 5 corresponds to the vehicle side photographing and the recording / holding of the photographed image data in the “image memory 12”, and the “vehicle lamp detection step” and the “adjacent vehicle recognition step” in the claims are the steps in FIG. This corresponds to S201, S202, S204, and the like.
Similarly, the “template generation step” in the claims corresponds to steps S209 and S212 in FIG. 5, and the “neighboring vehicle tracking step” in the claims also corresponds to step S203 in FIG.
Similarly, the “adjacent vehicle position specifying step” in the claims corresponds to steps S205 to S207 in FIG.

本発明に係る隣接車両検出装置の実施の一形態を示す機能ブロック図である。It is a functional block diagram which shows one Embodiment of the adjacent vehicle detection apparatus which concerns on this invention. 自車両に対する側方カメラの取付け位置とその主な撮影範囲を示す平面図である。It is a top view which shows the attachment position of the side camera with respect to the own vehicle, and its main imaging | photography range. 隣接車両全体画像中から車両ランプ周辺をテンプレートとして切り出す例を示す概念図である。It is a conceptual diagram which shows the example which cuts out a vehicle lamp periphery as a template from the adjacent vehicle whole image. 広角レンズを用いた側方カメラで撮影された画像の例を示す図である。It is a figure which shows the example of the image image | photographed with the side camera using a wide angle lens. 本発明に係る隣接車両検出方法に係る処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process which concerns on the adjacent vehicle detection method which concerns on this invention. 自車両とその左側車線を走行する隣接車両との位置関係を示す平面図である。It is a top view which shows the positional relationship of the own vehicle and the adjacent vehicle which drive | works the left side lane. ヘッドランプ検出法による車両検出と、テンプレートマッチング法による車両追跡との経時的な関係を示した説明図である。It is explanatory drawing which showed the temporal relationship between the vehicle detection by a headlamp detection method, and the vehicle tracking by a template matching method.

符号の説明Explanation of symbols

100…隣接車両検出装置
10…側方カメラ
12…画像メモリ
14…車両検出処理部
16…テンプレート作成部
18…テンプレート格納メモリ
20…テンプレート更新部
22…車両追跡処理部
24…検出結果合成部
26…ランプ位置予測部
28…露光制御信号算出部
30…結果出力部
40…ドアミラーユニット
H…ヘッドランプ(車両ランプ)
R…リアランプ(車両ランプ)
L…ランプ位置予測ライン
DESCRIPTION OF SYMBOLS 100 ... Adjacent vehicle detection apparatus 10 ... Side camera 12 ... Image memory 14 ... Vehicle detection process part 16 ... Template preparation part 18 ... Template storage memory 20 ... Template update part 22 ... Vehicle tracking process part 24 ... Detection result synthetic | combination part 26 ... Lamp position prediction unit 28 ... exposure control signal calculation unit 30 ... result output unit 40 ... door mirror unit H ... head lamp (vehicle lamp)
R ... Rear lamp (vehicle lamp)
L ... Ramp position prediction line

Claims (7)

自車両の側方を隣接して走行する隣接車両を検出する隣接車両検出装置であって、
自車両の側方を撮影する撮影手段と、
当該撮影手段で撮影された画像中の輝度情報を含む画像情報に基づいて隣接車両の車両ランプを検出する車両ランプ検出手段と、
当該車両ランプ検出手段で検出された隣接車両の車両ランプの位置に基づいて当該隣接車両の位置を認識する隣接車両認識手段と、
当該隣接車両認識手段で認識された隣接車両の車両ランプ周辺の画像情報からテンプレートを生成するテンプレート生成手段と、
当該テンプレート生成手段で生成されたテンプレートを用いたテンプレートマッチング法によって当該隣接車両を追跡する隣接車両追跡手段と、
前記隣接車両認識手段による隣接車両の位置情報と前記隣接車両追跡手段による隣接車両の位置情報とのうち、いずれか一方の位置情報または両方の位置情報に基づいて自車両に対する当該隣接車両の相対位置を特定する隣接車両位置特定手段と、を備えたことを特徴とする隣接車両検出装置。
An adjacent vehicle detection device that detects an adjacent vehicle that travels adjacent to the side of the host vehicle,
Photographing means for photographing the side of the vehicle;
Vehicle lamp detection means for detecting a vehicle lamp of an adjacent vehicle based on image information including luminance information in an image photographed by the photographing means;
Adjacent vehicle recognition means for recognizing the position of the adjacent vehicle based on the position of the vehicle lamp of the adjacent vehicle detected by the vehicle lamp detection means;
Template generating means for generating a template from image information around the vehicle lamp of the adjacent vehicle recognized by the adjacent vehicle recognizing means;
An adjacent vehicle tracking means for tracking the adjacent vehicle by a template matching method using a template generated by the template generation means;
Relative position of the adjacent vehicle with respect to the own vehicle based on position information of one or both of the position information of the adjacent vehicle by the adjacent vehicle recognition means and the position information of the adjacent vehicle by the adjacent vehicle tracking means An adjacent vehicle detection device comprising: an adjacent vehicle position specifying means for specifying
請求項1に記載の隣接車両検出装置において、
前記テンプレート生成手段は、
前記隣接車両認識手段で認識された隣接車両の車両ランプ周辺の画像情報に加え、前記隣接車両追跡手段による隣接車両の位置情報に基づいてテンプレートを作成することを特徴とする隣接車両検出装置。
The adjacent vehicle detection device according to claim 1,
The template generation means includes
An adjacent vehicle detection apparatus that creates a template based on position information of an adjacent vehicle by the adjacent vehicle tracking means in addition to image information around a vehicle lamp of the adjacent vehicle recognized by the adjacent vehicle recognition means.
請求項1または2に記載の隣接車両検出装置において、
前記車両ランプ検出手段は、
前記撮影手段で撮影された画像中の輝度情報に基づいて検出した隣接車両の車両ランプが当該隣接車両のヘッドランプかリアランプかを判断し、
検出した車両ランプがヘッドランプであると判断したときは、当該ヘッドランプの検出位置に基づいてリアランプの位置を予測して検出すると共に、
検出した車両ランプがリアランプであると判断したときは、当該リアランプの検出位置に基づいてヘッドランプの位置を予測して検出することを特徴とする隣接車両検出装置。
In the adjacent vehicle detection device according to claim 1 or 2,
The vehicle lamp detection means is
Determining whether the vehicle lamp of the adjacent vehicle detected based on the luminance information in the image captured by the imaging means is a headlamp or a rear lamp of the adjacent vehicle;
When it is determined that the detected vehicle lamp is a headlamp, the position of the rear lamp is predicted and detected based on the detection position of the headlamp, and
An adjacent vehicle detection device that detects and detects a position of a headlamp based on a detection position of the rear lamp when it is determined that the detected vehicle lamp is a rear lamp.
請求項3に記載の隣接車両検出装置において、
前記車両ランプ検出手段は、
一方の車両ランプの位置に基づいて他方の車両ランプを検出するときは、最初に検出した一方の車両ランプを検出したときの画像パラメータを他方の車両ランプの種類に応じて変更することを特徴とする隣接車両検出装置。
In the adjacent vehicle detection device according to claim 3,
The vehicle lamp detection means is
When detecting the other vehicle lamp based on the position of one vehicle lamp, the image parameter when the first detected vehicle lamp is detected is changed according to the type of the other vehicle lamp. An adjacent vehicle detection device.
請求項4に記載の隣接車両検出装置において、
前記車両ランプ検出手段が変更する画像パラメータは、前記撮影手段で撮影された画像の露光情報であることを特徴とすることを特徴とする隣接車両検出装置。
In the adjacent vehicle detection device according to claim 4,
The adjacent vehicle detection apparatus characterized in that the image parameter changed by the vehicle lamp detection means is exposure information of an image photographed by the photographing means.
請求項3に記載の隣接車両検出装置において、
前記車両ランプ検出手段は、
前記撮影手段で撮影された画像の画像情報に、輝度情報と共に色情報が含まれるときは、当該色情報に基づいて前記車両ランプを検出することを特徴とする隣接車両検出装置。
In the adjacent vehicle detection device according to claim 3,
The vehicle lamp detection means is
When the image information of the image photographed by the photographing means includes color information together with luminance information, the adjacent vehicle detection device detects the vehicle lamp based on the color information.
自車両の側方を隣接して走行する隣接車両を検出する隣接車両検出装置であって、
自車両の側方を撮影する撮影ステップと、
当該撮影ステップで撮影された画像中の輝度情報を含む画像情報に基づいて隣接車両の車両ランプを検出する車両ランプ検出ステップと、
当該車両ランプ検出ステップで検出された隣接車両の車両ランプの位置に基づいて当該隣接車両の位置を認識する隣接車両認識ステップと、
当該隣接車両認識ステップで認識された隣接車両の車両ランプ周辺の画像情報からテンプレートを生成するテンプレート生成ステップと、
当該テンプレート生成ステップで生成されたテンプレートを用いたテンプレートマッチング法によって当該隣接車両を追跡する隣接車両追跡ステップと、
前記隣接車両認識ステップによる隣接車両の位置情報と前記隣接車両追跡ステップによる隣接車両の位置情報とのうち、いずれか一方の位置情報または両方の位置情報に基づいて自車両に対する当該隣接車両の相対位置を特定する隣接車両位置特定ステップと、を備えたことを特徴とする隣接車両検出方法。
An adjacent vehicle detection device that detects an adjacent vehicle that travels adjacent to the side of the host vehicle,
A shooting step for shooting the side of the vehicle;
A vehicle lamp detection step for detecting a vehicle lamp of an adjacent vehicle based on image information including luminance information in the image photographed in the photographing step;
An adjacent vehicle recognition step for recognizing the position of the adjacent vehicle based on the position of the vehicle lamp of the adjacent vehicle detected in the vehicle lamp detection step;
A template generation step of generating a template from image information around the vehicle lamp of the adjacent vehicle recognized in the adjacent vehicle recognition step;
An adjacent vehicle tracking step of tracking the adjacent vehicle by a template matching method using the template generated in the template generation step;
Relative position of the adjacent vehicle with respect to the own vehicle based on position information of one or both of the position information of the adjacent vehicle in the adjacent vehicle recognition step and the position information of the adjacent vehicle in the adjacent vehicle tracking step And an adjacent vehicle position specifying step for specifying the adjacent vehicle.
JP2007203230A 2007-08-03 2007-08-03 Adjacent vehicle detection device and adjacent vehicle detection method Active JP4930256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007203230A JP4930256B2 (en) 2007-08-03 2007-08-03 Adjacent vehicle detection device and adjacent vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007203230A JP4930256B2 (en) 2007-08-03 2007-08-03 Adjacent vehicle detection device and adjacent vehicle detection method

Publications (2)

Publication Number Publication Date
JP2009037542A true JP2009037542A (en) 2009-02-19
JP4930256B2 JP4930256B2 (en) 2012-05-16

Family

ID=40439365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007203230A Active JP4930256B2 (en) 2007-08-03 2007-08-03 Adjacent vehicle detection device and adjacent vehicle detection method

Country Status (1)

Country Link
JP (1) JP4930256B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055968A (en) * 2013-09-11 2015-03-23 アルパイン株式会社 Vehicle position detection device and blind spot warning system
JPWO2013129354A1 (en) * 2012-03-01 2015-07-30 日産自動車株式会社 Three-dimensional object detection device
CN106489174A (en) * 2014-06-27 2017-03-08 康诺特电子有限公司 For following the tracks of method, camera system and the motor vehicles of the target vehicle close to motor vehicles by the camera system of motor vehicles
DE102016121321A1 (en) 2015-11-16 2017-05-18 Toyota Jidosha Kabushiki Kaisha Vehicle side door structure
GB2555185A (en) * 2016-08-01 2018-04-25 Ford Global Tech Llc Vehicle exterior monitoring
CN112950988A (en) * 2021-02-25 2021-06-11 杭州立方控股股份有限公司 Parking management system with deposit certificate function

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08193831A (en) * 1995-01-13 1996-07-30 Nissan Motor Co Ltd Apparatus for detecting approaching vehicle
JPH10154292A (en) * 1996-05-15 1998-06-09 Hitachi Ltd Traffic flow monitoring device
JP2001334896A (en) * 2000-05-30 2001-12-04 Mitsubishi Electric Corp Peripheral monitoring method and it's device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08193831A (en) * 1995-01-13 1996-07-30 Nissan Motor Co Ltd Apparatus for detecting approaching vehicle
JPH10154292A (en) * 1996-05-15 1998-06-09 Hitachi Ltd Traffic flow monitoring device
JP2001334896A (en) * 2000-05-30 2001-12-04 Mitsubishi Electric Corp Peripheral monitoring method and it's device for vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013129354A1 (en) * 2012-03-01 2015-07-30 日産自動車株式会社 Three-dimensional object detection device
JP2015055968A (en) * 2013-09-11 2015-03-23 アルパイン株式会社 Vehicle position detection device and blind spot warning system
CN106489174A (en) * 2014-06-27 2017-03-08 康诺特电子有限公司 For following the tracks of method, camera system and the motor vehicles of the target vehicle close to motor vehicles by the camera system of motor vehicles
JP2017529517A (en) * 2014-06-27 2017-10-05 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
CN106489174B (en) * 2014-06-27 2019-07-12 康诺特电子有限公司 Method, camera system and the motor vehicles of vehicle are tracked by camera system
DE102016121321A1 (en) 2015-11-16 2017-05-18 Toyota Jidosha Kabushiki Kaisha Vehicle side door structure
US10195926B2 (en) 2015-11-16 2019-02-05 Toyota Jidosha Kabushiki Kaisha Vehicle side door structure
GB2555185A (en) * 2016-08-01 2018-04-25 Ford Global Tech Llc Vehicle exterior monitoring
CN112950988A (en) * 2021-02-25 2021-06-11 杭州立方控股股份有限公司 Parking management system with deposit certificate function
CN112950988B (en) * 2021-02-25 2022-07-29 杭州立方控股股份有限公司 Parking management system with evidence storage function

Also Published As

Publication number Publication date
JP4930256B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP5421072B2 (en) Approaching object detection system
JP4763250B2 (en) Object detection device
JP5012718B2 (en) Image processing device
US8452528B2 (en) Visual recognition area estimation device and driving support device
JP5600332B2 (en) Driving assistance device
JP2010067262A (en) Intelligent driving assistant system
JP4930256B2 (en) Adjacent vehicle detection device and adjacent vehicle detection method
US20180001819A1 (en) Vehicle monitoring device, vehicle monitoring method and vehicle monitoring program
JP2007015525A (en) Output device for outputting signal for coping with danger approach between preceding vehicle and own vehicle based on front picture photographed by camera and program for the output device
US11772555B2 (en) Vehicle and method of providing surrounding information thereof
JP2007251258A (en) Image recognizing device
JP4003569B2 (en) Intersection accident prevention device and program
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
US20230169776A1 (en) Driver assistance apparatus, a vehicle, and a method of controlling the same
JP6533244B2 (en) Object detection device, object detection method, and object detection program
JP2018010466A (en) Object detection device
JP6927787B2 (en) On-board unit and driving support device
JP6087240B2 (en) Vehicle periphery monitoring device
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP2009181310A (en) Road parameter estimation device
JP2007286873A (en) On-vehicle surrounding vehicle detector
JP6315580B2 (en) Vehicle start support device and start notification method
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof
CN117121075A (en) Object detection method and object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100728

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

R150 Certificate of patent or registration of utility model

Ref document number: 4930256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3