JP2016110484A - Approaching vehicle detection device - Google Patents

Approaching vehicle detection device Download PDF

Info

Publication number
JP2016110484A
JP2016110484A JP2014248874A JP2014248874A JP2016110484A JP 2016110484 A JP2016110484 A JP 2016110484A JP 2014248874 A JP2014248874 A JP 2014248874A JP 2014248874 A JP2014248874 A JP 2014248874A JP 2016110484 A JP2016110484 A JP 2016110484A
Authority
JP
Japan
Prior art keywords
vehicle
lane
adjacent
traveling
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014248874A
Other languages
Japanese (ja)
Other versions
JP6426455B2 (en
Inventor
清水 直樹
Naoki Shimizu
直樹 清水
伊藤 和彦
Kazuhiko Ito
和彦 伊藤
中村 淳哉
Atsuya Nakamura
淳哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014248874A priority Critical patent/JP6426455B2/en
Priority to PCT/JP2015/075793 priority patent/WO2016092925A1/en
Publication of JP2016110484A publication Critical patent/JP2016110484A/en
Application granted granted Critical
Publication of JP6426455B2 publication Critical patent/JP6426455B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely specify a lane in which an approaching vehicle is traveling.SOLUTION: When a head lamp detection part 70 detects a head lamp of other vehicle, from an original image I(t) including a rear side road surface of a vehicle 10 imaged by a rear camera 50 (imaging part), a luminance distribution calculation part 73a calculates average luminances B(t), B(t) of inside of detection ranges W1, W2 (windows) of predetermined size, set by a window setting part 72 in an overview image in which the original image I(t) is overview converted, and an other vehicle travel lane determination part 64 determines whether, other vehicle travels on a lane adjacent to a lane in which the vehicle 10 travels, or, on a lane adjacent to the lane which is adjacent to the lane in which the vehicle travels, based on the average luminances B(t)(B(t)).SELECTED DRAWING: Figure 3

Description

本発明は、車両に設置されて、車線変更時に隣接車線を走行している接近車両を検出し、その警報を行う接近車両検出装置に関するものである。   The present invention relates to an approaching vehicle detection device that detects an approaching vehicle that is installed in a vehicle and is traveling in an adjacent lane when the lane is changed, and issues an alarm.

近年、車両にカメラを設置し、運転者に対して死角になる車両の後側方を撮像した画像の中から接近車両を検出してこれを警報する、後側方監視機能(BSW(Blind Spot Warning))に関する技術が提案されている。   In recent years, a rear side monitoring function (BSW (Blind Spot) that installs a camera on a vehicle and detects an approaching vehicle from an image obtained by imaging the rear side of the vehicle that becomes a blind spot with respect to the driver and alerts the vehicle. Warning)) technology has been proposed.

例えば、特許文献1に記載された後側方車両の報知装置では、車両が走行している走行車線に隣接した隣接車線に存在する移動物体と、隣接車線の中の、車両から遠方側のレーンマーカと、を検出して、これらの検出結果に基づいて、隣接車線を走行している他車両を検出する方法が提案されている。   For example, in the rear side vehicle alarm device described in Patent Document 1, a moving object present in an adjacent lane adjacent to a traveling lane in which the vehicle is traveling, and a lane marker far from the vehicle in the adjacent lane And a method of detecting another vehicle traveling in an adjacent lane based on these detection results has been proposed.

特開平9−240397号公報Japanese Patent Laid-Open No. 9-240397

しかしながら、このような従来の後側方車両の報知装置にあっては、例えば夜間において、2本隣の車線を走行している他車両の前照灯の光が路面に映り込むと、あたかも隣接車線に他車両が存在しているかのような画像が撮像される。そのため、隣接車線を走行している他車両が存在するものと誤検出してしまう虞があった。   However, in such a conventional rear side vehicle alarm device, for example, at night, if the light of the headlamps of other vehicles traveling in two adjacent lanes is reflected on the road surface, An image is captured as if another vehicle is present in the lane. For this reason, there is a risk of erroneous detection that there is another vehicle traveling in the adjacent lane.

本発明は、上記課題に鑑みてなされたもので、車両が走行している走行車線の2本隣の車線を走行している他車両を、走行車線に隣接する隣接車線を走行している他車両として誤検出することのない接近車両検出装置を提供することを目的とするものである。   The present invention has been made in view of the above problems, and other vehicles that are traveling in two adjacent lanes of a traveling lane in which the vehicle is traveling are traveling in adjacent lanes adjacent to the traveling lane. An object of the present invention is to provide an approaching vehicle detection device that is not erroneously detected as a vehicle.

前記課題を解決するために、本発明に係る接近車両検出装置は、走行中の車両から、前記車両が走行している車線の隣接車線を、前照灯を点灯させて後方から接近する他車両を検出して報知する接近車両検出装置であって、前記車両の後側方の路面を含む画像を撮像する撮像部と、前記画像の中の、前記車両の後側方領域に対応する位置に、前記車両と所定の位置関係を有する、少なくとも1つの所定サイズのウインドウを設定するウインドウ設定部と、前記画像の所定領域の中に他車両の前照灯が検出されるか否かを判定する前照灯検出部と、前記前照灯検出部が他車両の前照灯を検出したときに、前記画像の前記各ウインドウに対応する領域の輝度値に基づいて、前記各ウインドウ内の輝度評価値を算出する輝度分布算出部と、前記各ウインドウ内の輝度評価値に基づいて、前記他車両が、車両が走行している車線に隣接する隣接車線に存在するか、もしくは、前記隣接車線に対して、前記車両の遠方側に隣接する隣隣接車線に存在するか、を判定する他車両走行車線判定部と、を有することを特徴とする。   In order to solve the above-mentioned problem, an approaching vehicle detection device according to the present invention is a vehicle that is approaching from the rear by turning on a headlamp in an adjacent lane of a lane in which the vehicle is traveling from a traveling vehicle. An approaching vehicle detection device for detecting and notifying an image, wherein an imaging unit that captures an image including a road surface on the rear side of the vehicle, and a position corresponding to a rear side region of the vehicle in the image A window setting unit for setting at least one window of a predetermined size having a predetermined positional relationship with the vehicle, and determining whether a headlamp of another vehicle is detected in a predetermined area of the image When the headlamp detection unit and the headlamp detection unit detect a headlamp of another vehicle, the luminance evaluation in each window is performed based on the luminance value of the area corresponding to each window of the image. A luminance distribution calculation unit for calculating values, and Based on the brightness evaluation value in the window, the other vehicle is present in an adjacent lane adjacent to the lane in which the vehicle is traveling, or is adjacent to the adjacent lane on the far side of the vehicle. And an other vehicle travel lane determination unit that determines whether the vehicle exists in an adjacent lane.

このように構成された本発明に係る接近車両検出装置によれば、前記構成とすることによって、接近車両が隣接車線を走行しているのか、隣隣接車線を走行しているのかを確実に判定することができる。したがって、隣隣接車線を走行している接近車両を隣接車線を走行している接近車両であると誤検出することがなくなるため、接近車両の存在をより的確に報知することができる。   According to the approaching vehicle detection device according to the present invention configured as described above, it is possible to reliably determine whether the approaching vehicle is traveling in the adjacent lane or the adjacent adjacent lane by adopting the above configuration. can do. Therefore, since the approaching vehicle traveling in the adjacent lane is not erroneously detected as the approaching vehicle traveling in the adjacent lane, the presence of the approaching vehicle can be more accurately notified.

本発明の1実施形態である接近車両検出装置が適用される道路環境について説明する第1の図である。It is a 1st figure explaining the road environment to which the approaching vehicle detection apparatus which is one Embodiment of this invention is applied. 本発明の1実施形態である接近車両検出装置が適用される道路環境について説明する第2の図である。It is a 2nd figure explaining the road environment to which the approaching vehicle detection apparatus which is one Embodiment of this invention is applied. 本発明の1実施形態である実施例1の接近車両検出装置におけるハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions in the approaching vehicle detection apparatus of Example 1 which is 1 embodiment of this invention. 本発明の1実施形態である実施例1の接近車両検出装置における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in the approaching vehicle detection apparatus of Example 1 which is 1 embodiment of this invention. 実施例1において、他車両の前照灯を検出する処理について説明する図である。In Example 1, it is a figure explaining the process which detects the headlamp of another vehicle. 実施例1において、ウインドウ設定部が設定するウインドウの例について説明する図である。In Example 1, it is a figure explaining the example of the window which a window setting part sets. 実施例1において、ウインドウ内の輝度分布によって他車両の走行車線を判定する方法について説明する第1の図である。In Example 1, it is the 1st figure explaining the method of determining the traveling lane of another vehicle by the luminance distribution in a window. 実施例1において、ウインドウ内の輝度分布によって他車両の走行車線を判定する方法について説明する第2の図である。In Example 1, it is the 2nd figure explaining the method of determining the traveling lane of another vehicle by the luminance distribution in a window. 実施例1で実施される一連の処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of a series of processes performed in the first embodiment. 図7のフローチャートに示した他車両走行車線判定処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the other vehicle travel lane determination process shown in the flowchart of FIG. 本発明の1実施形態である実施例2の接近車両検出装置における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in the approaching vehicle detection apparatus of Example 2 which is 1 embodiment of this invention. 実施例2において、ウインドウ内の輝度分布によって他車両の走行車線を判定する方法について説明する図である。In Example 2, it is a figure explaining the method of determining the travel lane of another vehicle by the luminance distribution in a window. 実施例2で行う他車両走行車線判定処理の詳細な流れを示すフローチャートである。12 is a flowchart illustrating a detailed flow of another vehicle travel lane determination process performed in the second embodiment.

以下、本発明に係る接近車両検出装置の実施形態について、図面を参照して説明する。   Embodiments of an approaching vehicle detection device according to the present invention will be described below with reference to the drawings.

本実施例1は、本発明を、走行中の車両の後側方の道路を監視して、隣接車線の後側方の所定の距離範囲に接近車両があるときに運転者が車線変更を行う意図を示したとき、警報を出力して注意喚起を行う、BSW機能を備えた接近車両検出装置に適用したものである。
(接近車両検出装置の適用場面の説明)
In the first embodiment, the present invention monitors the road on the rear side of the traveling vehicle, and the driver changes the lane when there is an approaching vehicle in a predetermined distance range on the rear side of the adjacent lane. The present invention is applied to an approaching vehicle detection device having a BSW function that outputs a warning and alerts when an intention is indicated.
(Explanation of application scene of approaching vehicle detection device)

まず、図1A,図1Bを用いて、接近車両検出装置100a(図2参照)の概要と、接近車両検出装置100aが適用される道路環境について説明する。この接近車両検出装置100aは、片側3車線以上の車線数を有する道路を走行中に動作する。なお、接近車両検出装置100aは昼夜を問わず動作するが、特に、本発明を適用することによって、夜間においてより一層効果的に動作する。   First, the outline of the approaching vehicle detection device 100a (see FIG. 2) and the road environment to which the approaching vehicle detection device 100a is applied will be described with reference to FIGS. 1A and 1B. The approaching vehicle detection device 100a operates during traveling on a road having three or more lanes on one side. Although the approaching vehicle detection device 100a operates regardless of day or night, in particular, by applying the present invention, the approaching vehicle detection device 100a operates more effectively at night.

図1Aは、接近車両検出装置100aが適用される道路30の一例を示す図である。道路30は、接近車両検出装置100aが搭載された車両10が走行している走行車線20と、車両10の右方側に隣接した隣接車線22と、隣接車線22にさらに隣接した2本隣の車線24(以後、隣隣接車線24と呼ぶ)と、の3車線からなる。走行車線20の左右端はそれぞれレーンマーカL1,L2で区画されており、隣接車線22の左右端はそれぞれレーンマーカL2,L3で区画されており、隣隣接車線24の左右端はそれぞれレーンマーカL3,L4で区画されている。   FIG. 1A is a diagram illustrating an example of a road 30 to which the approaching vehicle detection device 100a is applied. The road 30 includes a traveling lane 20 on which the vehicle 10 on which the approaching vehicle detection device 100 a is mounted is traveling, an adjacent lane 22 adjacent to the right side of the vehicle 10, and two adjacent lanes 22 adjacent to the adjacent lane 22. It consists of three lanes, a lane 24 (hereinafter referred to as the adjacent lane 24). The left and right ends of the traveling lane 20 are partitioned by lane markers L1 and L2, the left and right ends of the adjacent lane 22 are respectively partitioned by lane markers L2 and L3, and the left and right ends of the adjacent adjacent lane 24 are respectively lane markers L3 and L4. It is partitioned.

今、車両10が道路30の走行車線20を図1Aの左向き(矢印10dの方向)に走行しているものとする。このとき、車両10の後端に後ろ向きに設置されたリアカメラ50は、少なくとも、走行車線20と隣接車線22と隣隣接車線24の路面を含む撮像範囲ωを撮像する。そして、撮像された画像の中から、車両10の後側方に設定された所定の検知範囲(ウインドウ)W1の内部に存在する、車両10に接近している他車両12(矢印12dの方向に進行)を検出する。そして、車両10に接近している他車両12が検出されたとき、および、車両10の運転者が、他車両12が接近しているにもかかわらず、車両10を隣接車線22側に車線変更しようとしたときに、後述する警報を出して注意喚起を行う。   Now, it is assumed that the vehicle 10 is traveling on the road lane 20 of the road 30 in the left direction in FIG. 1A (in the direction of the arrow 10d). At this time, the rear camera 50 installed backward at the rear end of the vehicle 10 captures an imaging range ω including at least the road surface of the traveling lane 20, the adjacent lane 22, and the adjacent adjacent lane 24. Then, the other vehicle 12 (in the direction of the arrow 12d) approaching the vehicle 10 that exists inside the predetermined detection range (window) W1 set on the rear side of the vehicle 10 from the captured image. Detect progress). Then, when the other vehicle 12 approaching the vehicle 10 is detected, and the driver of the vehicle 10 changes the lane to the adjacent lane 22 side even though the other vehicle 12 is approaching. When trying to do so, a warning to be described later is issued to alert.

ここで、検知範囲(ウインドウ)W1は、例えば、車両10の後方3mから30mの範囲、車両10の右端から3mの範囲に設定される。   Here, the detection range (window) W <b> 1 is set, for example, in a range from 3 m to 30 m behind the vehicle 10 and in a range from 3 m from the right end of the vehicle 10.

なお、このとき、他車両12は前照灯12h,12hを点灯して照射範囲12rの内部を照明しているものとする。また、隣隣接車線24を矢印14dの方向に進行している他車両14は、前照灯14h,14hを点灯して照射範囲14rの内部を照明しているものとする。   At this time, it is assumed that the other vehicle 12 lights the headlamps 12h and 12h to illuminate the inside of the irradiation range 12r. Further, it is assumed that the other vehicle 14 traveling in the adjacent adjacent lane 24 in the direction of the arrow 14d lights the headlamps 14h and 14h to illuminate the inside of the irradiation range 14r.

図1Aは、車両10の右後側方の領域のみを図示したものであるが、接近車両検出装置100aは、車両10の左後側方の領域に対しても同様に作用する。すなわち、図1Bに示すように、車両10が走行車線20を走行しているときには、リアカメラ50は、少なくともレーンマーカL1,L2をそれぞれ左右端とする走行車線20と、レーンマーカL5,L1をそれぞれ左右端とする隣接車線26を含む撮像範囲ωを撮像する。そして、撮像された画像の中から、車両10の後側方に設定された所定の検知範囲(ウインドウ)W2の内部に存在する、車両10に接近している他車両16(矢印16dの方向に進行)を検出する。そして、車両10に接近している他車両16が検出されたとき、および、車両10の運転者が、他車両16が接近しているにもかかわらず、車両10を隣接車線26側に車線変更しようとしたときには、後述するように警報を出して注意喚起を行う。   FIG. 1A illustrates only the area on the right rear side of the vehicle 10, but the approaching vehicle detection device 100 a similarly acts on the area on the left rear side of the vehicle 10. That is, as shown in FIG. 1B, when the vehicle 10 is traveling in the traveling lane 20, the rear camera 50 has the traveling lane 20 with the lane markers L 1 and L 2 at the left and right ends, and the lane markers L 5 and L 1 respectively in the left and right directions. The imaging range ω including the adjacent lane 26 as an end is imaged. The other vehicle 16 approaching the vehicle 10 (in the direction of the arrow 16d) is present inside the predetermined detection range (window) W2 set on the rear side of the vehicle 10 from the captured image. Detect progress). When the other vehicle 16 approaching the vehicle 10 is detected, and the driver of the vehicle 10 changes the lane to the adjacent lane 26 side even though the other vehicle 16 is approaching. When trying to do so, a warning is issued and alerted as described later.

ここで、検知範囲(ウインドウ)W2は、例えば、車両10の後方3mから30mの範囲、車両10の左端から3mの範囲に設定される。   Here, the detection range (window) W2 is set, for example, in a range from 3 m to 30 m behind the vehicle 10 and in a range from 3 m from the left end of the vehicle 10.

なお、このとき、他車両16は前照灯16h,16hを点灯して照射範囲16rの内部を照明しているものとする。また、レーンマーカL6,L5をそれぞれ左右端とする2本隣の車線28(以後、隣隣接車線28と呼ぶ)を矢印18dの方向に進行している他車両18は、前照灯18h,18hを点灯して照射範囲18rの内部を照明しているものとする。
(接近車両検出装置のシステム構成の説明)
At this time, it is assumed that the other vehicle 16 lights the headlamps 16h and 16h to illuminate the inside of the irradiation range 16r. Further, the other vehicle 18 traveling in the direction of the arrow 18d in the two adjacent lanes 28 (hereinafter referred to as the adjacent adjacent lanes 28) having the lane markers L6 and L5 at the left and right ends respectively has the headlamps 18h and 18h. It is assumed that the inside of the irradiation range 18r is illuminated and is illuminated.
(Description of system configuration of approaching vehicle detection device)

次に、図2を用いて本実施例の接近車両検出装置のハードウェア構成について説明する。本実施例に係る接近車両検出装置100aは車両10に搭載されて、図2に示すように、車両10の後部ライセンスプレート付近に後方に向けて設置された、車両10の後側方の路面を含む画像を撮像するリアカメラ50を有する。また、リアカメラ50で撮像された画像の認識処理を実行して接近車両を検出するとともに、接近車両の存在を報知するための警報の制御を行うECU60を有する。ECU60には、車両10の内部に配設されたCANバス80が接続されており、このCANバス80には、車両10の車速vを検出する車速センサ82と運転者のウインカ操作を検出するウインカスイッチ84が接続されている。さらに、ECU60には、接近車両の存在を視覚情報として報知するインジケータ90と、接近車両の存在を聴覚情報として報知するブザー92とが接続されている。   Next, the hardware configuration of the approaching vehicle detection device of this embodiment will be described with reference to FIG. The approaching vehicle detection device 100a according to the present embodiment is mounted on the vehicle 10 and, as shown in FIG. 2, the road surface on the rear side of the vehicle 10 installed rearward near the rear license plate of the vehicle 10 is provided. It has a rear camera 50 that captures an image including it. Further, the ECU 60 includes an ECU 60 that performs recognition processing of an image captured by the rear camera 50 to detect an approaching vehicle and controls an alarm for notifying the presence of the approaching vehicle. The ECU 60 is connected to a CAN bus 80 disposed inside the vehicle 10. The CAN bus 80 is connected to a vehicle speed sensor 82 that detects the vehicle speed v of the vehicle 10 and a winker that detects a driver's turn signal operation. A switch 84 is connected. Further, an indicator 90 that notifies the presence of an approaching vehicle as visual information and a buzzer 92 that notifies the presence of an approaching vehicle as auditory information are connected to the ECU 60.

なお、リアカメラ50は、周囲の明るさに応じてゲイン値を自動的に変更するAGC機能を有している。すなわち、周囲が暗いときには自動的にゲイン値を上げて画像を明るくし、周囲が明るいときには自動的にゲイン値を下げて画像を暗くする。そして、リアカメラ50は、撮像された画像とともに、そのときのゲイン値を出力できるものとする。   The rear camera 50 has an AGC function that automatically changes the gain value according to the ambient brightness. That is, when the surroundings are dark, the gain value is automatically increased to brighten the image, and when the surroundings are bright, the gain value is automatically decreased to darken the image. And the rear camera 50 shall output the gain value at that time with the imaged image.

ECU60の内部には、必要な処理を実行する複数のソフトウェアモジュールが実装されている。夜間判定部61は、接近車両検出装置100aが動作している周囲環境が昼夜のいずれであるかの判定を行う。車両情報取得部62は、CANバス80を介して、車速センサ82で検出された車両10の車速v、ウインカスイッチ84の操作信号等を取得する。画像認識処理部63は、車両10の後方を走行している車両の前照灯の検出と接近車両の検出を行う。他車両走行車線判定部64は、検出された他車両が隣接車線を走行しているか、隣隣接車線を走行しているかの判定を行う。警報制御部65は、接近車両の検出結果と、車両10の運転者の操作に基づいて、警報の出力や抑制を行う。またECU60には、図2に非図示のソフトウェアモジュール、例えば、ソフトウェア全体の動きを制御する全体制御部等のモジュールをはじめ、必要な画像や情報を記憶する記憶部も実装されている。   Inside the ECU 60, a plurality of software modules for executing necessary processes are mounted. The night determination unit 61 determines whether the ambient environment in which the approaching vehicle detection device 100a is operating is day or night. The vehicle information acquisition unit 62 acquires the vehicle speed v of the vehicle 10 detected by the vehicle speed sensor 82, the operation signal of the turn signal switch 84, and the like via the CAN bus 80. The image recognition processing unit 63 detects a headlamp of a vehicle traveling behind the vehicle 10 and detects an approaching vehicle. The other vehicle travel lane determination unit 64 determines whether the detected other vehicle is traveling in the adjacent lane or in the adjacent adjacent lane. The alarm control unit 65 outputs or suppresses an alarm based on the detection result of the approaching vehicle and the operation of the driver of the vehicle 10. The ECU 60 is also equipped with a software module (not shown in FIG. 2), for example, a module such as an overall control section for controlling the movement of the entire software, and a storage section for storing necessary images and information.

次に、図3を用いて本実施例の接近車両検出装置100aの機能構成、特に画像認識処理部63と警報制御部65の詳細構成について説明する。   Next, the functional configuration of the approaching vehicle detection device 100a of this embodiment, particularly the detailed configuration of the image recognition processing unit 63 and the alarm control unit 65, will be described with reference to FIG.

画像認識処理部63は、図3に示すように、リアカメラ50で撮像された画像の中から他車両(12,14(図1A),16,18(図1B))の前照灯を検出する前照灯検出部70を有する。また、リアカメラ50で撮像された画像を車両10の前上から俯瞰した俯瞰画像に変換する俯瞰画像生成部71を有する。そして、変換された俯瞰画像の所定の位置に所定のサイズの検知範囲(ウインドウ)W1(図1A),W2(図1B)を設定するウインドウ設定部72を有する。また、俯瞰画像の中で、設定された検知範囲W1,W2に対応する画素の輝度の平均値を算出する輝度分布算出部73aを有する。この輝度分布算出部73aは、検知範囲W1,W2の内部の平均輝度の移動平均値を算出する移動平均算出部74と接続されている。   As shown in FIG. 3, the image recognition processing unit 63 detects the headlamps of other vehicles (12, 14 (FIG. 1A), 16, 18 (FIG. 1B)) from the images captured by the rear camera 50. A headlamp detector 70 is provided. Moreover, it has the overhead image production | generation part 71 which converts the image imaged with the rear camera 50 into the bird's-eye view image which looked down from the front upper side of the vehicle 10. FIG. And it has the window setting part 72 which sets the detection range (window) W1 (FIG. 1A) and W2 (FIG. 1B) of a predetermined size in the predetermined position of the converted bird's-eye view image. Moreover, it has the brightness distribution calculation part 73a which calculates the average value of the brightness | luminance of the pixel corresponding to the set detection range W1, W2 in the bird's-eye view image. The luminance distribution calculating unit 73a is connected to a moving average calculating unit 74 that calculates a moving average value of average luminance inside the detection ranges W1 and W2.

画像認識処理部63は、さらに、俯瞰画像生成部71において異なる時刻に得られた俯瞰画像同士の位置合わせを行う画像位置合わせ部75を有する。また、位置合わせされた俯瞰画像同士のフレーム差分を行って差分画像を生成する差分画像生成部76を有する。そして、フレーム差分を行った結果に基づいて車両10と移動物体との相対速度を算出する相対速度算出部77を有する。また、検知範囲W1,W2の内部に写った移動物体が他車両(12,14(図1A),16,18(図1B))であるか否かを判定する立体物判定部78を有する。   The image recognition processing unit 63 further includes an image alignment unit 75 that aligns the overhead images obtained at different times in the overhead image generation unit 71. Moreover, it has the difference image generation part 76 which performs the frame difference of the bird's-eye view image aligned, and produces | generates a difference image. And it has the relative speed calculation part 77 which calculates the relative speed of the vehicle 10 and a moving object based on the result of having performed the frame difference. Moreover, it has the three-dimensional object determination part 78 which determines whether the moving object reflected inside the detection range W1, W2 is another vehicle (12, 14 (FIG. 1A), 16, 18 (FIG. 1B)).

警報制御部65は、図3に示すように、接近車両が検出されたとき、および、接近車両が検出されているにも関わらず、車両10の運転者がウインカを操作して車線変更の意思表示をしたときに警報を出力する警報出力部66と、接近車両が隣隣接車線で検出されたときに警報の出力を抑制する警報抑制部67とを有する。
(前照灯検出部の作用の説明)
As shown in FIG. 3, the alarm control unit 65 operates when the driver of the vehicle 10 operates the turn signal to change the lane when the approaching vehicle is detected and the approaching vehicle is detected. An alarm output unit 66 that outputs an alarm when the display is performed, and an alarm suppression unit 67 that suppresses the output of the alarm when an approaching vehicle is detected in the adjacent lane.
(Description of the operation of the headlamp detector)

次に、図4を用いて接近車両検出装置100aの前照灯検出部70の作用について説明する。   Next, the operation of the headlamp detection unit 70 of the approaching vehicle detection device 100a will be described with reference to FIG.

実施例1に示す接近車両検出装置100aの最大の特徴は、車両10に後方から接近している他車両(12,14(図1A),16,18(図1B))を検出する際に、他車両が隣接車線(図1Aの22,図1Bの26)を走行しているのか、隣隣接車線(図1Aの24,図1Bの28)を走行しているのかを判定できる点にある。そして、接近車両検出装置100aは、特に夜間においてその効果を発揮する。   The greatest feature of the approaching vehicle detection device 100a shown in the first embodiment is that when detecting other vehicles (12, 14 (FIG. 1A), 16, 18 (FIG. 1B)) approaching the vehicle 10 from the rear. It is possible to determine whether another vehicle is traveling in the adjacent lane (22 in FIG. 1A, 26 in FIG. 1B) or in the adjacent adjacent lane (24 in FIG. 1A, 28 in FIG. 1B). And the approaching vehicle detection apparatus 100a exhibits the effect especially at night.

夜間にあっては、図4に示すように、リアカメラ50(図3)で時刻tに撮像された原画像I(t)は全体的に輝度が小さくなるため暗い画像となる。したがって、原画像I(t)の中から他車両の車体を認識するのは非常に困難である。   At night, as shown in FIG. 4, the original image I (t) picked up at time t by the rear camera 50 (FIG. 3) becomes a dark image because the overall luminance is low. Therefore, it is very difficult to recognize the body of another vehicle from the original image I (t).

そこで、接近車両検出装置100aでは、他車両の前照灯像を検出することによって他車両の存在を認識する。このとき、他車両の中には、車両10と同じ走行車線20(図4)を走行している他車両(図4の前照灯像120に対応)も存在している。このように車両10と同じ走行車線を走行している他車両は、接近車両検出装置100aの検出対象ではないため、走行車線20以外の領域で他車両の前照灯像(例えば、図4の前照灯像122)の検出を行う必要がある。   Therefore, the approaching vehicle detection device 100a recognizes the presence of the other vehicle by detecting the headlamp image of the other vehicle. At this time, among other vehicles, there is another vehicle (corresponding to the headlamp image 120 in FIG. 4) traveling in the same travel lane 20 (FIG. 4) as the vehicle 10. Since the other vehicle traveling in the same traveling lane as the vehicle 10 is not a detection target of the approaching vehicle detection device 100a in this way, a headlight image (for example, FIG. It is necessary to detect the headlamp image 122).

そのため、接近車両検出装置100aにあっては、図4に示すように、走行車線20を避けるように、左右に前照灯検出領域R1,R2(所定領域)を設定する。そして、設定された前照灯検出領域R1,R2の中で、所定輝度以上の高い輝度を有する領域を検出し、該当する領域が検出されたときに他車両の前照灯像であるとする。すなわち、図4に示す原画像I(t)の場合、前照灯検出領域R1の内部では前照灯像は検出されず、前照灯検出領域R2の内部では前照灯像122が検出される。なお、ここで設定される前照灯検出領域R1,R2は、少なくとも隣接車線に存在する他車両の前照灯像を検出できる範囲に設定される。具体的な寸法は、予め実験等を行って適切な値を決定すればよい。   Therefore, in the approaching vehicle detection device 100a, as shown in FIG. 4, headlight detection regions R1, R2 (predetermined regions) are set on the left and right sides so as to avoid the traveling lane 20. And the area | region which has the high brightness | luminance more than predetermined brightness | luminance is detected in the set headlamp detection area | regions R1 and R2, and when the applicable area | region is detected, it shall be a headlamp image of another vehicle. . That is, in the case of the original image I (t) shown in FIG. 4, the headlamp image is not detected inside the headlamp detection region R1, and the headlamp image 122 is detected inside the headlamp detection region R2. The The headlamp detection areas R1 and R2 set here are set to a range where at least a headlamp image of another vehicle existing in the adjacent lane can be detected. The specific dimensions may be determined appropriately by conducting experiments or the like in advance.

なお、昼間にあっては、リアカメラ50(図3)で撮像された画像の中に他車両の車体が視認できるため、前述した前照灯像の検出処理を行う必要はない。そこで、接近車両検出装置100aでは、夜間判定部61(図3)において前照灯像の検出処理を行うか否かを判定する。   In the daytime, the vehicle body of the other vehicle can be visually recognized in the image captured by the rear camera 50 (FIG. 3), and thus it is not necessary to perform the above-described headlamp image detection process. Therefore, in the approaching vehicle detection device 100a, it is determined whether or not the nighttime determination unit 61 (FIG. 3) performs the headlamp image detection process.

具体的には、リアカメラ50で撮像を行った際に出力されるゲイン値を夜間判定部61で受信して、ゲイン値が所定ゲイン以上であるときは周囲が暗いと判断して、前照灯像の検出処理を行うものとする。
(輝度分布算出部,移動平均算出部の作用の説明)
Specifically, the night determination unit 61 receives a gain value output when the rear camera 50 performs imaging, and determines that the surroundings are dark when the gain value is equal to or greater than a predetermined gain. It is assumed that a lamp image detection process is performed.
(Explanation of functions of luminance distribution calculation unit and moving average calculation unit)

次に、図5,図6Aを用いて接近車両検出装置100aの輝度分布算出部73a,移動平均算出部74の作用について説明する。なお、リアカメラ50で撮像された画像は、俯瞰画像生成部71において、車両10を真上から俯瞰した俯瞰画像に変換されて、以下に説明する処理は、この俯瞰画像に対して行われるものとする。   Next, operations of the luminance distribution calculation unit 73a and the moving average calculation unit 74 of the approaching vehicle detection device 100a will be described with reference to FIGS. 5 and 6A. Note that the image captured by the rear camera 50 is converted into an overhead image in which the vehicle 10 is viewed from directly above in the overhead image generation unit 71, and the processing described below is performed on this overhead image. And

輝度分布算出部73aは、ウインドウ設定部72によって設定された検知範囲(ウインドウ)W1,W2の内部の輝度の平均値(輝度評価値)をそれぞれ算出する。ここで、検知範囲W1は、図5に示すように、俯瞰画像上に、車両10の左端から左方向の幅waに亘って設定される。また、車両10の後端から距離dだけ後方の位置から、長さwbに亘って設定される。幅wa,距離d,長さwbの具体的な値は、前述したように、例えば、wa=3m,d=3m,wb=27mが設定される。   The luminance distribution calculating unit 73a calculates average values (luminance evaluation values) of the luminance within the detection ranges (windows) W1 and W2 set by the window setting unit 72, respectively. Here, as shown in FIG. 5, the detection range W <b> 1 is set on the overhead image from the left end of the vehicle 10 to the width wa in the left direction. Further, it is set over a length wb from a position behind the rear end of the vehicle 10 by a distance d. As described above, for example, wa = 3m, d = 3m, and wb = 27m are set as specific values of the width wa, the distance d, and the length wb.

次に、図6Aを用いて、検知範囲(ウインドウ)W1,W2の内部の輝度分布を算出する作用について説明する。   Next, the operation of calculating the luminance distribution inside the detection ranges (windows) W1 and W2 will be described with reference to FIG. 6A.

図6Aに示すように、車両10の後方から他車両14,16が接近しており、このうち他車両14は隣隣接車線24を走行しており、他車両16は隣接車線26を走行しているものとする。また、他車両14は前照灯を点灯しており、その照射範囲は14rとする。そして他車両16も前照灯を点灯しており、その照射範囲は16rとする。   As shown in FIG. 6A, other vehicles 14 and 16 approach from the rear of the vehicle 10, and the other vehicle 14 travels in the adjacent lane 24, and the other vehicle 16 travels in the adjacent lane 26. It shall be. The other vehicle 14 lights the headlamp, and its irradiation range is 14r. The other vehicle 16 also lights the headlamp, and its irradiation range is 16r.

このとき、図6Aからわかるように、他車両14の前照灯の照射範囲14rは検知範囲(ウインドウ)W1と部分的に重複する。一方、他車両16の前照灯の照射範囲16rは検知範囲(ウインドウ)W2と殆ど重複する。したがって、検知範囲W1,W2の内部の平均輝度の大小によって、他車両14,16の走行車線を推定することができる。   At this time, as can be seen from FIG. 6A, the headlamp illumination range 14r of the other vehicle 14 partially overlaps the detection range (window) W1. On the other hand, the headlamp illumination range 16r of the other vehicle 16 almost overlaps the detection range (window) W2. Therefore, the travel lanes of the other vehicles 14 and 16 can be estimated based on the average brightness inside the detection ranges W1 and W2.

輝度分布算出部73aでは、俯瞰画像に対して、検知範囲(ウインドウ)W1,W2にそれぞれ対応する領域内部の画素の平均輝度(輝度評価値)をそれぞれ算出する。平均輝度は、俯瞰画像において、検知範囲W1,W2にそれぞれ対応する領域内部の画素値の総和を、それぞれ検知範囲W1,W2の総画素数で除した値として算出する。ここで、時刻tにおける検知範囲W1の内部の画素の平均輝度をBW1(t)で表し、検知範囲W2の内部の画素の平均輝度をBW2(t)で表すものとする。 The luminance distribution calculation unit 73a calculates the average luminance (luminance evaluation value) of the pixels in the area corresponding to the detection ranges (windows) W1 and W2, respectively, with respect to the overhead image. The average luminance is calculated as a value obtained by dividing the sum of the pixel values in the areas corresponding to the detection ranges W1 and W2 by the total number of pixels in the detection ranges W1 and W2, respectively, in the overhead image. Here, the average luminance of the pixels inside the detection range W1 at time t is represented by B W1 (t), and the average luminance of the pixels inside the detection range W2 is represented by B W2 (t).

道路30の路面の輝度は、仮に夜間であっても、道路照明が明るい箇所では高い値となる。したがって、輝度分布算出部73aで算出された平均輝度BW1(t),BW2(t)を、単に固定しきい値と比較して、検知範囲W1,W2と他車両の前照灯の照射範囲14r,16rとの重複状態を判定するのは困難である。 The brightness of the road surface of the road 30 has a high value at a place where the road illumination is bright, even at night. Therefore, the average luminances B W1 (t) and B W2 (t) calculated by the luminance distribution calculation unit 73a are simply compared with the fixed threshold value, and the detection ranges W1 and W2 and the irradiation of the headlamps of other vehicles are performed. It is difficult to determine the overlapping state with the ranges 14r and 16r.

そのため、移動平均算出部74において、平均輝度BW1(t),BW2(t)の移動平均値BthW1(t),BthW2(t)をそれぞれ算出し、この移動平均値BthW1(t),BthW2(t)をそれぞれしきい値として、検知範囲W1,W2と他車両の前照灯の照射範囲14r,16rとの重複状態の判定を行う。詳しくは後述する。 Therefore, the moving average calculation unit 74 calculates the moving average values B thW1 (t) and B thW2 (t) of the average luminances B W1 (t) and B W2 (t), respectively, and this moving average value B thW1 (t ) And B thW2 (t) are used as threshold values, respectively, and the overlapping state between the detection ranges W1 and W2 and the irradiation ranges 14r and 16r of the headlamps of other vehicles is determined. Details will be described later.

なお、移動平均値を計算する時間長は、実験等を行って適切な値を設定すればよいが、判定精度を高めるために、検知範囲W1,W2の内部に他車両の前照灯が照射されていない期間を含むように定めるのが望ましい。
(他車両走行車線判定部の作用の説明)
It should be noted that the time length for calculating the moving average value may be set to an appropriate value by conducting an experiment or the like. However, in order to increase the determination accuracy, the headlamps of other vehicles are irradiated within the detection ranges W1 and W2. It is desirable to include a period that is not done.
(Description of the operation of the other vehicle travel lane determination unit)

次に、図6Bを用いて接近車両検出装置100aの他車両走行車線判定部64の作用について説明する。   Next, the operation of the other vehicle travel lane determination unit 64 will be described with reference to FIG. 6B.

他車両走行車線判定部64は、図6Bに示すように、輝度分布算出部73aで算出された平均輝度BW1(t),BW2(t)を、移動平均算出部74で算出された移動平均値BthW1(t),BthW2(t)とそれぞれ比較する。 As shown in FIG. 6B, the other vehicle travel lane determination unit 64 uses the average brightness B W1 (t) and B W2 (t) calculated by the brightness distribution calculation unit 73a to calculate the movement calculated by the moving average calculation unit 74. The average values B thW1 (t) and B thW2 (t) are respectively compared.

そして、BW1(t)≧BthW1(t)であるときは、他車両14は隣接車線22を走行していると判定する。また、BW1(t)<BthW1(t)であるときは、他車両14は隣隣接車線24を走行していると判定する。 When B W1 (t) ≧ B thW1 (t), it is determined that the other vehicle 14 is traveling in the adjacent lane 22. When B W1 (t) <B thW1 (t), it is determined that the other vehicle 14 is traveling in the adjacent adjacent lane 24.

同様に、BW2(t)≧BthW2(t)であるときは、他車両16は隣接車線26を走行していると判定する。また、BW2(t)<BthW2(t)であるときは、他車両16は隣隣接車線28を走行していると判定する。 Similarly, when B W2 (t) ≧ B thW2 (t), it is determined that the other vehicle 16 is traveling in the adjacent lane 26. When B W2 (t) <B thW2 (t), it is determined that the other vehicle 16 is traveling in the adjacent adjacent lane 28.

このように移動平均値BthW1(t),BthW2(t)をしきい値として用いることにより、道路30(図6A)の路面の明るさが変動した場合、例えば路面が明るいときは移動平均値BthW1(t),BthW2(t)が大きくなり、路面が暗いときは移動平均値BthW1(t),BthW2(t)が小さくなるため、他車両の前照灯による路面の輝度変化を確実に検出することができる。
(立体物検出部の作用の説明)
Thus, by using the moving average values B thW1 (t) and B thW2 (t) as threshold values, when the road surface brightness of the road 30 (FIG. 6A) fluctuates, for example, when the road surface is bright, the moving average When the values B thW1 (t) and B thW2 (t) become large and the road surface is dark, the moving average values B thW1 (t) and B thW2 (t) become small, so the brightness of the road surface by the headlamps of other vehicles. A change can be reliably detected.
(Description of the action of the three-dimensional object detection unit)

接近車両検出装置100aは、リアカメラ50で撮像された画像を処理して接近車両の検出を行う。そのときに行われる画像処理の概要について説明する。なお、ここで行われる一連の処理は、BSW機能が実装された車両に適用されて実用化されているため、図面による説明は省略して、文章のみで説明する。   The approaching vehicle detection device 100a processes an image captured by the rear camera 50 to detect an approaching vehicle. An overview of image processing performed at that time will be described. The series of processing performed here is applied to a vehicle equipped with the BSW function and is put into practical use, and therefore, the description with reference to the drawings is omitted and only the text is described.

まず、リアカメラ50で時間間隔Δtを隔てた異なる時間に撮像された2枚の画像が、それぞれ俯瞰画像生成部71において俯瞰画像に変換される。   First, two images captured at different times separated by the rear camera 50 at a time interval Δt are converted into overhead images by the overhead image generation unit 71, respectively.

次に、画像位置合わせ部75において、生成された2枚の俯瞰画像のうち、時間的に過去の俯瞰画像を変形して、時間的に新しい俯瞰画像と重ね合わせる。この変形は、車両情報取得部62で取得した、時間間隔Δtの間の車両10の車速vと、図3には図示しない時間間隔Δtの間の車両10の操舵角を用いて、時間間隔Δtの間の車両10の挙動と対応するように行われる。すなわち、時間間隔Δtにおける車両10の移動方向と移動量にそれぞれ対応するように俯瞰画像を平行移動、回転移動させて位置合わせを行う。この位置合わせによって、2枚の俯瞰画像の道路の路面領域は完全に重なる。   Next, in the image alignment unit 75, among the two generated overhead images, the temporal overhead image is transformed and superimposed with the temporally new overhead image. This deformation is performed by using the vehicle speed v of the vehicle 10 during the time interval Δt acquired by the vehicle information acquisition unit 62 and the steering angle of the vehicle 10 during the time interval Δt not shown in FIG. It is performed so as to correspond to the behavior of the vehicle 10 during the period. In other words, the overhead view image is translated and rotated so as to correspond to the moving direction and the moving amount of the vehicle 10 in the time interval Δt, and the alignment is performed. By this alignment, the road surface areas of the roads of the two overhead images completely overlap.

その後、差分画像生成部76において、位置合わせされた2枚の俯瞰画像のフレーム間差分を行う。このとき、時間的に新しい俯瞰画像から、過去の俯瞰画像が差し引かれる。この差分演算によって、時間間隔Δtの間に輝度の変化が生じた領域、すなわち、移動物体が存在する領域が検出される。   Thereafter, the difference image generation unit 76 performs an inter-frame difference between the two overhead images that have been aligned. At this time, the past overhead image is subtracted from the temporally new overhead image. By this difference calculation, a region where a change in luminance occurs during the time interval Δt, that is, a region where a moving object exists is detected.

次に、相対速度算出部77において、移動物体が存在する領域の大きさ(車両10の前後方向に長さ)を求めて、車両10と移動物体との相対速度を算出する。   Next, the relative speed calculation unit 77 calculates the relative speed between the vehicle 10 and the moving object by obtaining the size of the area where the moving object exists (length in the front-rear direction of the vehicle 10).

そして、立体物判定部78において、移動物体が他車両であることを確認する。この処理は、例えば、俯瞰画像上で移動物体があると認識された領域をリアカメラ50で撮像された原画像I(t)上に逆変換して、逆変換された領域に物体が存在するか否かを判定することによって行う。物体が存在するか否かの判定は、逆変換された領域の近傍に、車両の形状を模したテンプレートを当てはめてテンプレートマッチング行えばよい。あるいは、原画像I(t)の各画素の輝度を縦方向と横方向にそれぞれ投影して、得られた輝度投影曲線の中で、逆変換された領域に対応する部分に変化点が存在することを確認して他車両が存在すると判定してもよい。
(警報制御部の作用の説明)
Then, the three-dimensional object determination unit 78 confirms that the moving object is another vehicle. In this process, for example, an area recognized as having a moving object on the overhead image is inversely transformed onto the original image I (t) captured by the rear camera 50, and the object exists in the inversely transformed area. This is done by determining whether or not. The determination of whether or not an object exists may be performed by template matching by applying a template imitating the shape of the vehicle in the vicinity of the inversely transformed region. Alternatively, the luminance of each pixel of the original image I (t) is projected in the vertical direction and the horizontal direction, and there is a change point in the portion corresponding to the inversely transformed area in the obtained luminance projection curve. After confirming this, it may be determined that another vehicle exists.
(Description of the action of the alarm control unit)

警報制御部65は、他車両の検出結果と、車両10の車速vとウインカスイッチ84の操作状態に基づいて、接近車両に対する警報出力の制御を行う。   The alarm control unit 65 controls the alarm output for the approaching vehicle based on the detection result of the other vehicle, the vehicle speed v of the vehicle 10 and the operation state of the turn signal switch 84.

具体的には、車両10の車速vが所定車速(例えば30km/h)以上であるときに、隣接車線22または隣接車線26(図6A)上で接近車両が検出されたときには、警報出力部66の作用によってインジケータ90を点灯させる。   Specifically, when the vehicle speed v of the vehicle 10 is equal to or higher than a predetermined vehicle speed (for example, 30 km / h), when an approaching vehicle is detected on the adjacent lane 22 or the adjacent lane 26 (FIG. 6A), the alarm output unit 66. The indicator 90 is turned on by the action of.

さらに、車両10の運転者が、インジケータ90の点灯に気づかずにウインカスイッチ84を操作して、接近車両が検出された隣接車線22または隣接車線26側にウインカを出したときには、さらにブザー92を吹鳴させて注意喚起を行う。   Further, when the driver of the vehicle 10 operates the turn signal switch 84 without noticing the lighting of the indicator 90 and issues a turn signal to the adjacent lane 22 or the adjacent lane 26 side where the approaching vehicle is detected, the buzzer 92 is further turned on. Raise a ring and call attention.

なお、隣隣接車線24または隣隣接車線28(図6A)上で接近車両が検出されたときには、上述した制御を実行しない。すなわち、インジケータ90の点灯もブザー92の吹鳴も行わない。   When an approaching vehicle is detected on the adjacent adjacent lane 24 or the adjacent adjacent lane 28 (FIG. 6A), the above-described control is not executed. That is, neither the indicator 90 is lit nor the buzzer 92 is sounded.

もしくは、隣隣接車線24または隣隣接車線28(図6A)上で接近車両が検出されたときには、警報抑制部67の作用によって、一定時間の間、警報の出力を抑制して、インジケータ90の点灯もブザー92の吹鳴も行わないようにしてもよい。
(接近車両検出装置で行われる処理の流れの説明)
Alternatively, when an approaching vehicle is detected on the adjacent adjacent lane 24 or the adjacent adjacent lane 28 (FIG. 6A), the output of the alarm 90 is suppressed for a certain time by the operation of the alarm suppression unit 67, and the indicator 90 is turned on. Alternatively, the buzzer 92 may not be sounded.
(Description of the flow of processing performed by the approaching vehicle detection device)

次に、図7を用いて、接近車両検出装置100aで行われる処理の全体の流れを説明する。なお、構成部位の説明のために図3を参照する。   Next, the overall flow of processing performed by the approaching vehicle detection device 100a will be described with reference to FIG. In addition, FIG. 3 is referred for description of a structure part.

(ステップS10)車両情報取得部62で車両情報を取得する。具体的には、車速センサ82で得た車両10の車速vと、図3に非図示の車両10の操舵角を取得する。   (Step S10) The vehicle information acquisition unit 62 acquires vehicle information. Specifically, the vehicle speed v of the vehicle 10 obtained by the vehicle speed sensor 82 and the steering angle of the vehicle 10 not shown in FIG. 3 are acquired.

(ステップS12)リアカメラ50で撮像された車両10の後方の画像を画像認識処理部63に入力する。   (Step S <b> 12) An image behind the vehicle 10 captured by the rear camera 50 is input to the image recognition processing unit 63.

(ステップS14)夜間判定部61がリアカメラ50から出力されたゲイン値を取得する。   (Step S14) The night determination unit 61 acquires the gain value output from the rear camera 50.

(ステップS16)俯瞰画像生成部71において入力された画像から俯瞰画像を生成する。   (Step S16) An overhead image is generated from the image input in the overhead image generation unit 71.

(ステップS18)画像位置合わせ部75において、異なる時刻に得られた2枚の俯瞰画像の位置合わせを行う。   (Step S18) The image alignment unit 75 aligns two overhead images obtained at different times.

(ステップS20)差分画像生成部76において、位置合わせされた2枚の俯瞰画像のフレーム差分を行い、差分画像を生成する。   (Step S20) The difference image generation unit 76 performs frame difference between the two overhead images that have been aligned, and generates a difference image.

(ステップS22)相対速度算出部77において、差分画像の中から検出された移動物体を表す領域の相対速度を算出する。   (Step S22) The relative speed calculation unit 77 calculates the relative speed of the area representing the moving object detected from the difference image.

(ステップS24)夜間判定部61において昼夜判定を行う。昼であると判定されたときはステップS30に進み、夜であると判定されたときはステップS26に進む。   (Step S24) The night determination unit 61 performs day / night determination. When it is determined that it is noon, the process proceeds to step S30, and when it is determined that it is night, the process proceeds to step S26.

(ステップS26)前照灯検出部70において他車両の前照灯の検出を行う。   (Step S26) The headlamp detection unit 70 detects the headlamp of another vehicle.

(ステップS28)他車両走行車線判定部64において、他車両が走行して車線を判定する他車両走行車線判定処理を行う。他車両走行車線判定処理の詳細な流れは後述する。   (Step S28) The other vehicle travel lane determination unit 64 performs another vehicle travel lane determination process in which the other vehicle travels and determines the lane. The detailed flow of the other vehicle travel lane determination process will be described later.

(ステップS30)立体物判定部78において、後方に立体物(他車両)が存在するか否かを判定する。   (Step S30) The three-dimensional object determination unit 78 determines whether there is a three-dimensional object (another vehicle) behind.

(ステップS32)警報制御部65において、所定の警報制御を行う。警報制御の概要は前述した通りである。   (Step S32) The alarm control unit 65 performs predetermined alarm control. The outline of the alarm control is as described above.

(ステップS34)車両情報取得部で取得した車両10の車速vをモニタして、車両10の車速vが所定車速を下回ったか否かを判定する。所定車速(例えば時速30km)を下回ったときは図7の処理を終了し、それ以外のときはステップS10に戻る。   (Step S34) The vehicle speed v of the vehicle 10 acquired by the vehicle information acquisition unit is monitored to determine whether or not the vehicle speed v of the vehicle 10 has fallen below a predetermined vehicle speed. When the vehicle speed falls below a predetermined vehicle speed (for example, 30 km / h), the processing of FIG.

なお、図7のフローチャートにあっては、ステップS24で昼夜判定を行っているが、この昼夜判定はステップS14の後で行っても構わない。
(他車両走行車線判定処理の流れの説明)
In the flowchart of FIG. 7, the day / night determination is performed in step S24, but the day / night determination may be performed after step S14.
(Description of the flow of other vehicle travel lane determination processing)

次に、図8を用いて、他車両走行車線判定処理の流れを説明する。なお、構成部位の説明のために図3を参照する。   Next, the flow of the other vehicle travel lane determination process will be described with reference to FIG. In addition, FIG. 3 is referred for description of a structure part.

(ステップS50)ウインドウ設定部72において、俯瞰画像上に検知範囲(ウインドウ)W1,W2を設定する。   (Step S50) The window setting unit 72 sets detection ranges (windows) W1 and W2 on the overhead view image.

(ステップS52)輝度分布算出部73aにおいて、検知範囲(ウインドウ)W1,W2の内部の平均輝度BW1(t),BW2(t)をそれぞれ算出する。 (Step S52) The luminance distribution calculation unit 73a calculates average luminances B W1 (t) and B W2 (t) inside the detection ranges (windows) W1 and W2, respectively.

(ステップS54)移動平均算出部74において、検知範囲(ウインドウ)W1,W2の内部の平均輝度の移動平均値BthW1(t),BthW2(t)をそれぞれ更新する。 (Step S54) The moving average calculation unit 74 updates the moving average values B thW1 (t) and B thW2 (t) of the average luminance inside the detection ranges (windows) W1 and W2.

(ステップS56)他車両走行車線判定部64において、平均輝度BW1(t)が移動平均値BthW1(t)以上か否か、また平均輝度BW2(t)が移動平均値BthW2(t)以上か否かを判定する。平均輝度が移動平均値以上であるときはステップS60に進み、それ以外のときはステップS58に進む。 (Step S56) In the other vehicle travel lane determining unit 64, whether or not the average luminance B W1 (t) is equal to or higher than the moving average value B thW1 (t), and the average luminance B W2 (t) is the moving average value B thW2 (t ) Determine whether or not. When the average luminance is equal to or higher than the moving average value, the process proceeds to step S60, and otherwise, the process proceeds to step S58.

(ステップS58)他車両は隣隣接車線を走行していると判断してメインルーチン(図7)に戻る。   (Step S58) It is determined that the other vehicle is traveling in the adjacent adjacent lane, and the process returns to the main routine (FIG. 7).

(ステップS60)他車両は隣接車線を走行していると判断してメインルーチン(図7)に戻る。   (Step S60) It is determined that the other vehicle is traveling in the adjacent lane, and the process returns to the main routine (FIG. 7).

次に、本発明に係る接近車両検出装置の第2の実施形態について、図面を参照して説明する。本実施例2は、実施例1と同様に、本発明をBSW機能を備えた接近車両検出装置に適用したものである。
(接近車両検出装置のシステム構成の説明)
Next, a second embodiment of the approaching vehicle detection device according to the present invention will be described with reference to the drawings. In the second embodiment, as in the first embodiment, the present invention is applied to an approaching vehicle detection device having a BSW function.
(Description of system configuration of approaching vehicle detection device)

まず、図9を用いて本実施例の接近車両検出装置100bの機能構成について説明する。図9に示すように、基本的な機能構成は実施例1の機能構成(図3)と同じであるが、ウインドウ設定部72で設定された検知範囲(ウインドウ)W1,W2内部の輝度分布の算出方法のみが異なっている。すなわち、実施例1(図3)が備える輝度分布算出部73aと移動平均算出部74の代わりに、実施例2は輝度投影分布算出部73bを備えている。   First, the functional configuration of the approaching vehicle detection device 100b of this embodiment will be described with reference to FIG. As shown in FIG. 9, the basic functional configuration is the same as the functional configuration of the first embodiment (FIG. 3), but the luminance distributions within the detection ranges (windows) W1, W2 set by the window setting unit 72 are as follows. Only the calculation method is different. That is, instead of the luminance distribution calculation unit 73a and the moving average calculation unit 74 included in the first embodiment (FIG. 3), the second embodiment includes a luminance projection distribution calculation unit 73b.

この輝度投影分布算出部73bは、ウインドウ設定部72で設定された検知範囲(ウインドウ)W1,W2それぞれに対して、検知範囲W1,W2をそれぞれ横切る方向(車両10の左右方向)に沿って、俯瞰画像の対応する画素の輝度を累積して、輝度投影値を算出する機能を有している。
(輝度投影分布算出部の作用の説明)
The brightness projection distribution calculation unit 73b is configured to extend along the direction (the left-right direction of the vehicle 10) crossing the detection ranges W1 and W2 with respect to the detection ranges (windows) W1 and W2 set by the window setting unit 72, respectively. It has a function of calculating the brightness projection value by accumulating the brightness of the corresponding pixels of the overhead image.
(Description of the operation of the luminance projection distribution calculation unit)

次に、接近車両検出装置100bの輝度投影分布算出部73bの作用について説明する。   Next, the operation of the luminance projection distribution calculation unit 73b of the approaching vehicle detection device 100b will be described.

輝度投影分布算出部73bは、前述したように、検知範囲(ウインドウ)W1,W2(図6A)をそれぞれ横切る方向(車両10の左右方向)に沿って、俯瞰画像の対応する画素の輝度を累積して輝度投影値BpW1,BpW2を算出して、検知範囲W1,W2の前後方向に亘る輝度投影値の分布曲線である輝度投影分布BpW1(Z),BpW2(Z)をそれぞれ生成する。ここで、Zは検知範囲W1,W2の前後方向の位置を特定する座標であって、車両10の後方位置を表す座標である。 As described above, the brightness projection distribution calculation unit 73b accumulates the brightness of the corresponding pixels of the overhead image along the direction (the left-right direction of the vehicle 10) that crosses the detection ranges (windows) W1 and W2 (FIG. 6A). Then, the brightness projection values Bp W1 and Bp W2 are calculated, and the brightness projection distributions Bp W1 (Z) and Bp W2 (Z), which are the distribution curves of the brightness projection values in the front-rear direction of the detection ranges W1 and W2, are generated. To do. Here, Z is a coordinate that specifies the position in the front-rear direction of the detection ranges W1 and W2, and is a coordinate that represents the rear position of the vehicle 10.

図10は、車両10が図6Aの状態にあるときに生成された輝度投影分布BpW1(Z),BpW2(Z)の一例を示す図である。 FIG. 10 is a diagram illustrating an example of the luminance projection distributions Bp W1 (Z) and Bp W2 (Z) generated when the vehicle 10 is in the state of FIG. 6A.

図10からわかるように、他車両16が隣接車線26にあるときには、輝度投影分布BpW2(Z)は、検知範囲W2の全域に亘ってほぼ一様な分布となる。一方、他車両14が隣隣接車線24にあるときには、輝度投影分布BpW1(Z)は、検知範囲W1の特定の位置で突出した輝度投影値を有する分布となる。図10の例では、検知範囲W2の最も車両10寄りの位置において輝度投影値は高い値を呈する。 As can be seen from FIG. 10, when the other vehicle 16 is in the adjacent lane 26, the luminance projection distribution Bp W2 (Z) is a substantially uniform distribution over the entire detection range W2. On the other hand, when the other vehicle 14 is in the adjacent lane 24, the luminance projection distribution Bp W1 (Z) is a distribution having a luminance projection value protruding at a specific position in the detection range W1. In the example of FIG. 10, the brightness projection value exhibits a high value at the position closest to the vehicle 10 in the detection range W2.

したがって、例えば、輝度投影分布BpW1(Z),BpW2(Z)から算出された標準偏差(輝度評価値)σが所定の標準偏差以上であるときには、他車両は隣接車線を走行していると判定することができる。また、標準偏差(輝度評価値)σが所定の標準偏差に満たないときには、他車両は隣隣接車線を走行していると判定することができる。なお、しきい値となる所定の標準偏差は、実験等に基づいて適切な値が設定される。
(実施例2における他車両走行車線判定処理の流れの説明)
Therefore, for example, when the standard deviation (luminance evaluation value) σ calculated from the luminance projection distributions Bp W1 (Z) and Bp W2 (Z) is equal to or larger than a predetermined standard deviation, the other vehicle is traveling in the adjacent lane. Can be determined. Further, when the standard deviation (luminance evaluation value) σ is less than the predetermined standard deviation, it can be determined that the other vehicle is traveling in the adjacent adjacent lane. Note that an appropriate value is set as the predetermined standard deviation serving as the threshold value based on experiments or the like.
(Description of Flow of Other Vehicle Traveling Lane Determination Processing in Example 2)

接近車両検出装置100bで行われる処理の全体の流れは、図7に示した実施例1の流れとほぼ同様であって、他車両走行車線判定処理(図7のステップS28)の方法のみが異なる。したがって、実施例2で行われる処理全体の流れを示すフローチャートの図示は省略する。   The overall flow of the process performed by the approaching vehicle detection device 100b is substantially the same as the flow of the first embodiment shown in FIG. 7, and only the method of the other vehicle travel lane determination process (step S28 in FIG. 7) is different. . Therefore, illustration of a flowchart showing the overall flow of processing performed in the second embodiment is omitted.

以下、図11を用いて、接近車両検出装置100bで行われる他車両走行車線判定処理の流れを説明する。なお、構成部位の説明のために図9を参照する。   Hereinafter, the flow of the other vehicle travel lane determination process performed by the approaching vehicle detection device 100b will be described with reference to FIG. In addition, FIG. 9 is referred for description of a component part.

(ステップS80)ウインドウ設定部72において、俯瞰画像上に検知範囲(ウインドウ)W1,W2を設定する。   (Step S80) The window setting unit 72 sets detection ranges (windows) W1, W2 on the overhead image.

(ステップS82)輝度投影分布算出部73bにおいて、検知範囲(ウインドウ)W1,W2の内部の輝度投影分布BpW1(Z),BpW2(Z)をそれぞれ算出する。 (Step S82) The luminance projection distribution calculation unit 73b calculates the luminance projection distributions Bp W1 (Z) and Bp W2 (Z) inside the detection ranges (windows) W1 and W2, respectively.

(ステップS84)他車両走行車線判定部64において、輝度投影分布BpW1(Z),BpW2(Z)の標準偏差σが所定の標準偏差以上であるか否かを判定する。所定の標準偏差以上であるときはステップS88に進み、それ以外のときはステップS86に進む。 (Step S84) The other vehicle travel lane determination unit 64 determines whether or not the standard deviation σ of the luminance projection distributions Bp W1 (Z) and Bp W2 (Z) is equal to or greater than a predetermined standard deviation. When it is greater than or equal to the predetermined standard deviation, the process proceeds to step S88, and otherwise, the process proceeds to step S86.

(ステップS86)他車両は隣隣接車線を走行していると判断してメインルーチン(非図示)に戻る。   (Step S86) It is determined that the other vehicle is traveling in the adjacent adjacent lane, and the process returns to the main routine (not shown).

(ステップS88)他車両は隣接車線を走行していると判断してメインルーチン(非図示)に戻る。   (Step S88) It is determined that the other vehicle is traveling in the adjacent lane, and the process returns to the main routine (not shown).

なお、他車両14が隣隣接車線24にあるときには、輝度投影分布BpW1(Z)の突出位置が、車両10と他車両14の相対速度に応じて時間とともに変化する。したがって、輝度投影分布BpW1(Z)の突出位置を輝度評価値として併せて利用することも可能である。すなわち、輝度投影分布BpW1(Z)の標準偏差σが所定の標準偏差よりも小さく、なおかつ、輝度投影分布BpW1(Z)の突出位置が時間とともに移動しているときに、他車両14は隣隣接車線を走行していると判定することによって、判定精度を向上させることができる。 When the other vehicle 14 is in the adjacent adjacent lane 24, the protruding position of the brightness projection distribution Bp W1 (Z) changes with time according to the relative speed between the vehicle 10 and the other vehicle 14. Therefore, the protruding position of the luminance projection distribution Bp W1 (Z) can also be used as the luminance evaluation value. That is, the standard deviation σ is less than a predetermined standard deviation of the luminance projection distribution Bp W1 (Z), yet, when the luminance projection distribution Bp W1 of projecting position of the (Z) is moving as time, other vehicles 14 The determination accuracy can be improved by determining that the vehicle is traveling in the adjacent lane.

以上説明したように、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、リアカメラ50(撮像部)で撮像された車両10の後側方の路面を含む原画像I(t)の中から、前照灯検出部70が他車両の前照灯を検出したときに、輝度分布算出部73aが、原画像I(t)が俯瞰変換された俯瞰画像の中にウインドウ設定部72が設定した所定サイズの検知範囲W1(W2)(ウインドウ)の内部の平均輝度BW1(t)(BW2(t))(輝度評価値)を算出して、他車両走行車線判定部64が、平均輝度BW1(t)(BW2(t))(輝度評価値)に基づいて、他車両が車両10が走行している車線の隣接車線22(26)を走行しているか、隣隣接車線24(28)を走行しているかを判定するため、隣隣接車線24(28)を走行している接近車両を、隣接車線22(26)を走行している接近車両であると誤検出することがない。 As described above, the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above includes the road surface on the rear side of the vehicle 10 imaged by the rear camera 50 (imaging unit). When the headlamp detection unit 70 detects the headlamp of another vehicle from the original image I (t), the luminance distribution calculation unit 73a performs the overhead view image obtained by performing the overhead conversion of the original image I (t). The average luminance B W1 (t) (B W2 (t)) (luminance evaluation value) inside the detection range W1 (W2) (window) of a predetermined size set by the window setting unit 72 is calculated, and the other vehicle Based on the average luminance B W1 (t) (B W2 (t)) (luminance evaluation value), the traveling lane determination unit 64 travels in the adjacent lane 22 (26) of the lane in which the vehicle 10 is traveling. Whether the vehicle is driving in the adjacent lane 24 (28) Because, the approaching vehicle traveling the next adjacent lane 24 (28), there is no erroneously detected as the approaching vehicle traveling on the next lane 22 (26).

また、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、輝度分布算出部73aは、輝度評価値として検知範囲W1(W2)(ウインドウ)の内部の平均輝度BW1(t)(BW2(t))を算出して、他車両走行車線判定部64は、平均輝度BW1(t)(BW2(t))が移動平均値BthW1(t)(BthW2(t))(所定の平均値)より大きいときには、他車両は隣接車線22(26)を走行していると判定して、それ以外のときには、他車両は隣隣接車線24(28)を走行していると判定するため、簡単な演算処理によって短時間で確実に他車両の走行車線を判定することができる。 Further, according to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, the luminance distribution calculation unit 73a uses the average luminance within the detection range W1 (W2) (window) as the luminance evaluation value. B W1 (t) (B W2 (t)) is calculated, and the other vehicle travel lane determination unit 64 determines that the average luminance B W1 (t) (B W2 (t)) is the moving average value B thW1 (t) ( If B thW2 (t)) (predetermined average value) is greater, it is determined that the other vehicle is traveling in the adjacent lane 22 (26). Otherwise, the other vehicle is adjacent to the adjacent lane 24 (28). Since it is determined that the vehicle is traveling, it is possible to reliably determine the traveling lane of the other vehicle in a short time by a simple calculation process.

そして、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、他車両の走行車線を判定するための平均輝度BW1(t)(BW2(t))のしきい値(所定の平均値)を、平均輝度BW1(t)(BW2(t))の移動平均値BthW1(t)(BthW2(t))としたため、道路30の路面の明るさが変動した場合であっても、他車両の前照灯による路面の輝度変化を確実に検出することができる。 According to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, the average luminance B W1 (t) (B W2 (t)) for determining the traveling lane of the other vehicle Since the threshold value (predetermined average value) is the moving average value B thW1 (t) (B thW2 (t)) of the average luminance B W1 (t) (B W2 (t)), the brightness of the road surface of the road 30 Even when the vehicle speed fluctuates, it is possible to reliably detect a change in the brightness of the road surface due to the headlamps of other vehicles.

さらに、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、ウインドウ設定部72は、リアカメラ50(撮像部)で撮像された画像を真上から俯瞰した俯瞰画像に変換して、この俯瞰画像の中に少なくとも1つの所定サイズの検知範囲W1(W2)(ウインドウ)を設定するため、所定サイズの検知範囲W1(W2)(ウインドウ)を容易かつ確実に設定することができる。特に、車両毎にリアカメラ50の取り付け位置が異なる場合であっても、俯瞰画像への変換さえ行うことができれば、俯瞰画像上で同じ位置に同じ形状のウインドウを設定すればよいため、車両毎に異なるプログラムを準備する必要がない。   Furthermore, according to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, the window setting unit 72 is an overhead view of an image captured by the rear camera 50 (imaging unit) from directly above. Since it is converted into an image and at least one detection range W1 (W2) (window) of a predetermined size is set in this overhead image, the detection range W1 (W2) (window) of a predetermined size is easily and reliably set can do. In particular, even if the mounting position of the rear camera 50 is different for each vehicle, it is only necessary to set a window having the same shape at the same position on the overhead image as long as the conversion to the overhead image can be performed. There is no need to prepare different programs.

また、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、前照灯検出部70は、リアカメラ50(撮像部)が撮像した画像の中の、車両10の隣接車線または隣隣接車線を走行している他車両の前照灯が観測される範囲に設定された前照灯検出領域R1、R2(所定領域)の内部で他車両の前照灯を検出するため、前照灯の検出範囲を絞り込むことによって、必要な前照灯を短時間で確実に検出することができる。   Further, according to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, the headlamp detection unit 70 includes the vehicle 10 in the image captured by the rear camera 50 (imaging unit). The headlamps of other vehicles are detected within the headlamp detection areas R1 and R2 (predetermined areas) set in a range where the headlamps of other vehicles traveling in the adjacent lane or the adjacent adjacent lane are observed. Therefore, the necessary headlamps can be reliably detected in a short time by narrowing down the detection range of the headlamps.

そして、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、他車両走行車線判定部64は、他車両が隣隣接車線を走行していると判定されたときに、隣隣接車線側に他車両は存在しないものと判断するため、警報の誤報知を確実に防止することができる。   And according to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, the other vehicle travel lane determination unit 64 determines that the other vehicle is traveling in the adjacent adjacent lane. In addition, since it is determined that there is no other vehicle on the adjacent adjacent lane side, it is possible to reliably prevent false alarms.

さらに、このように構成された本発明の実施例1に係る接近車両検出装置100aによれば、車両10は、他車両が隣隣接車線を走行していると判定されたときに、車両10が前記隣隣接車線側に車線変更しようとした際の警報出力を抑制する警報抑制部67を有するため、他車両が隣隣接車線を走行しているときに、警報の誤報知を確実に防止することができる。   Furthermore, according to the approaching vehicle detection device 100a according to the first embodiment of the present invention configured as described above, when the vehicle 10 is determined that the other vehicle is traveling in the adjacent lane, the vehicle 10 Since it has the alarm suppression part 67 which suppresses the alarm output at the time of trying to change the lane to the adjacent lane side, it is possible to reliably prevent false alarms when other vehicles are traveling in the adjacent lane. Can do.

また、このように構成された本発明の実施例2に係る接近車両検出装置100bによれば、輝度評価値は、検知範囲W1(W2)(ウインドウ)内の輝度値を、車両10の左右方向に沿って累積した輝度投影分布BpW1(Z)(BpW2(Z))の標準偏差σであって、他車両走行車線判定部64は、標準偏差σが所定の標準偏差よりも大きいときに、他車両は隣接車線を走行していると判定して、それ以外であるときに、他車両は隣隣接車線を走行していると判定するため、簡単な演算処理によって短時間で確実に他車両の走行車線を判定することができる。 Further, according to the approaching vehicle detection device 100b according to the second embodiment of the present invention configured as described above, the luminance evaluation value is the luminance value in the detection range W1 (W2) (window), and the vehicle 10 is in the horizontal direction. When the standard deviation σ of the luminance projection distributions Bp W1 (Z) (Bp W2 (Z)) accumulated along, and the standard deviation σ is larger than the predetermined standard deviation Because it is determined that the other vehicle is traveling in the adjacent lane and the other vehicle is traveling in the adjacent lane when it is other than that, the other vehicle is reliably determined in a short time by a simple calculation process. The traveling lane of the vehicle can be determined.

なお、実施例1,実施例2では、検知範囲W1,W2をともに設定したが、図5において、車両10が道路30の右寄り(隣接車線22,隣隣接車線24)を走行しているときには検知範囲W2のみを設定して、車両10が道路30の左寄り(隣接車線26,隣隣接28)を走行しているときには検知範囲W1のみを設定してもよい。車両10が道路30の右寄りを走行しているか左寄りを走行しているかは、実施例1,2には記載しない、例えば、道路の車線端にひかれたレーンマーカを検出して、その配置を分析することによって判定することができる。   In the first and second embodiments, the detection ranges W1 and W2 are both set. However, in FIG. 5, the detection is performed when the vehicle 10 travels to the right of the road 30 (adjacent lane 22, adjacent lane 24). Only the range W2 may be set and only the detection range W1 may be set when the vehicle 10 is traveling to the left of the road 30 (adjacent lane 26, adjacent adjacent 28). Whether the vehicle 10 is traveling on the right side or the left side of the road 30 is not described in the first and second embodiments. For example, the lane marker drawn on the lane edge of the road is detected and the arrangement thereof is analyzed. It can be judged by.

また、実施例1,実施例2では、リアカメラ50で撮像した画像のみを用いて処理を行う例を示したが、リアカメラ50に加えて、さらに、車両10の左右のドアミラーに内蔵した左右後側方カメラを用い、より広範囲を撮像した画像を使って同様の処理を行うことも可能である。   Further, in the first and second embodiments, an example is shown in which processing is performed using only the image captured by the rear camera 50. However, in addition to the rear camera 50, the left and right door mirrors built in the left and right door mirrors of the vehicle 10 are also included. It is also possible to perform the same processing using an image obtained by capturing a wider range using a rear side camera.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although the Example of this invention was explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is not limited only to the structure of an Example. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.

10・・・・車両
50・・・・リアカメラ
61・・・・夜間判定部
62・・・・車両情報取得部
63・・・・画像認識処理部
64・・・・他車両走行車線判定部
65・・・・警報制御部
66・・・・警報出力部
67・・・・警報抑制部
70・・・・前照灯検出部
71・・・・俯瞰画像生成部
72・・・・ウインドウ設定部
73a・・・輝度分布算出部
74・・・・移動平均算出部
75・・・・画像位置合わせ部
76・・・・差分画像生成部
77・・・・相対速度算出部
78・・・・立体物判定部
82・・・・車速センサ
84・・・・ウインカスイッチ
90・・・・インジケータ
92・・・・ブザー
100a・・接近車両検出装置
10 .... Vehicle 50 ...... Rear camera 61 ... Night determination unit 62 ... Vehicle information acquisition unit 63 ... Image recognition processing unit 64 ... Other vehicle travel lane determination unit 65 ... Alarm control unit 66 ... Alarm output unit 67 ... Alarm suppression unit 70 ... Headlight detection unit 71 ... Overhead image generation unit 72 ... Window setting Unit 73a ... Luminance distribution calculator 74 ... Moving average calculator 75 ... Image registration unit 76 ... Difference image generator 77 ... Relative velocity calculator 78 ... Three-dimensional object determination unit 82... Vehicle speed sensor 84... Turn signal switch 90... Indicator 92.

Claims (8)

走行中の車両から、前記車両が走行している車線の隣接車線を、前照灯を点灯させて後方から接近する他車両を検出して報知する接近車両検出装置であって、
前記車両の後側方の路面を含む画像を撮像する撮像部と、
前記画像の中の、前記車両の後側方領域に対応する位置に、前記車両と所定の位置関係を有する、少なくとも1つの所定サイズのウインドウを設定するウインドウ設定部と、
前記画像の所定領域の中に他車両の前照灯が検出されるか否かを判定する前照灯検出部と、
前記前照灯検出部が他車両の前照灯を検出したときに、前記画像の前記各ウインドウに対応する領域の輝度値に基づいて、前記各ウインドウ内の輝度評価値を算出する輝度分布算出部と、
前記各ウインドウ内の輝度評価値に基づいて、前記他車両が、車両が走行している車線に隣接する隣接車線に存在するか、もしくは、前記隣接車線に対して、前記車両の遠方側に隣接する隣隣接車線に存在するか、を判定する他車両走行車線判定部と、を有することを特徴とする接近車両検出装置。
An approaching vehicle detection device that detects an adjacent lane of a lane in which the vehicle is traveling from a running vehicle, detects other vehicles approaching from behind by turning on a headlamp,
An imaging unit that captures an image including a road surface on a rear side of the vehicle;
A window setting unit for setting at least one window of a predetermined size having a predetermined positional relationship with the vehicle at a position corresponding to a rear side region of the vehicle in the image;
A headlamp detector that determines whether or not a headlamp of another vehicle is detected in a predetermined region of the image;
Luminance distribution calculation for calculating a luminance evaluation value in each window based on a luminance value of an area corresponding to each window of the image when the headlamp detection unit detects a headlamp of another vehicle And
Based on the luminance evaluation value in each window, the other vehicle exists in an adjacent lane adjacent to the lane in which the vehicle is traveling, or is adjacent to the far side of the vehicle with respect to the adjacent lane. An approaching vehicle detection device comprising: another vehicle traveling lane determination unit that determines whether the vehicle is in an adjacent adjacent lane.
前記輝度評価値は、前記各ウインドウに対応する領域の輝度値の平均値であって、
前記他車両走行車線判定部は、前記平均輝度が所定の平均値より大きいときには、前記他車両は隣接車線を走行していると判定して、それ以外のときには、前記他車両は隣隣接車線を走行していると判定することを特徴とする請求項1に記載の接近車両検出装置。
The luminance evaluation value is an average value of luminance values of regions corresponding to the windows,
The other vehicle travel lane determining unit determines that the other vehicle is traveling in an adjacent lane when the average luminance is greater than a predetermined average value, and otherwise, the other vehicle is in an adjacent adjacent lane. The approaching vehicle detection device according to claim 1, wherein it is determined that the vehicle is traveling.
前記所定の平均値は、前記各ウインドウに対応する領域の輝度値の移動平均値であることを特徴とする請求項2に記載の接近車両検出装置。   The approaching vehicle detection device according to claim 2, wherein the predetermined average value is a moving average value of luminance values of regions corresponding to the windows. 前記輝度評価値は、前記各ウインドウ内の輝度値を、前記車両の左右方向に沿って累積した輝度投影分布の標準偏差であって、
前記他車両走行車線判定部は、前記標準偏差が所定の標準偏差よりも大きいときに、前記他車両は隣接車線を走行していると判定して、それ以外であるときに、前記他車両は隣隣接車線を走行していると判定することを特徴とする請求項1に記載の接近車両検出装置。
The luminance evaluation value is a standard deviation of the luminance projection distribution obtained by accumulating the luminance value in each window along the left-right direction of the vehicle,
The other vehicle travel lane determining unit determines that the other vehicle is traveling in an adjacent lane when the standard deviation is larger than a predetermined standard deviation, and when the other vehicle is other than that, the other vehicle is The approaching vehicle detection device according to claim 1, wherein the approaching vehicle detection device determines that the vehicle is traveling in an adjacent adjacent lane.
前記ウインドウ設定部は、前記撮像部で撮像された画像を真上から俯瞰した俯瞰画像に変換して、前記俯瞰画像の中に少なくとも1つの所定サイズのウインドウを設定することを特徴とする請求項1から請求項4のいずれか1項に記載の接近車両検出装置。   The window setting unit converts an image captured by the image capturing unit into an overhead image viewed from directly above, and sets at least one window of a predetermined size in the overhead image. The approaching vehicle detection device according to any one of claims 1 to 4. 前記所定領域は、前記画像の中の、前記車両の隣接車線または隣隣接車線を走行している他車両の前照灯が観測される範囲に設定されることを特徴とする請求項1から請求項5のいずれか1項に記載の接近車両検出装置。   The said predetermined area is set to the range in which the headlamp of the other vehicle which is drive | working the adjacent lane of the said vehicle or the adjacent adjacent lane in the said image is observed. Item 6. The approaching vehicle detection device according to any one of item 5. 前記他車両走行車線判定部は、前記他車両が隣隣接車線を走行していると判定されたときに、前記隣隣接車線側に他車両は存在しないものと判断することを特徴とする請求項1から請求項6のいずれか1項に記載の接近車両検出装置。   The said other vehicle travel lane determination part judges that the other vehicle does not exist in the said adjacent adjacent lane side, when it determines with the said other vehicle drive | working the adjacent adjacent lane. The approaching vehicle detection device according to any one of claims 1 to 6. 前記車両は、前記他車両が隣隣接車線を走行していると判定されたときに、前記車両が前記隣隣接車線側に車線変更しようとした際の警報出力を抑制する警報抑制部を有することを特徴とする請求項1から請求項6のいずれか1項に記載の接近車両検出装置。   The vehicle has an alarm suppression unit that suppresses an alarm output when the vehicle tries to change the lane to the adjacent adjacent lane when it is determined that the other vehicle is traveling in the adjacent adjacent lane. The approaching vehicle detection device according to any one of claims 1 to 6, wherein:
JP2014248874A 2014-12-09 2014-12-09 Approaching vehicle detection device Active JP6426455B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014248874A JP6426455B2 (en) 2014-12-09 2014-12-09 Approaching vehicle detection device
PCT/JP2015/075793 WO2016092925A1 (en) 2014-12-09 2015-09-11 Approaching vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014248874A JP6426455B2 (en) 2014-12-09 2014-12-09 Approaching vehicle detection device

Publications (2)

Publication Number Publication Date
JP2016110484A true JP2016110484A (en) 2016-06-20
JP6426455B2 JP6426455B2 (en) 2018-11-21

Family

ID=56107121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014248874A Active JP6426455B2 (en) 2014-12-09 2014-12-09 Approaching vehicle detection device

Country Status (2)

Country Link
JP (1) JP6426455B2 (en)
WO (1) WO2016092925A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106109A (en) * 2017-12-14 2019-06-27 クラリオン株式会社 Driving support device and driving support method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
KR102320253B1 (en) * 2017-04-19 2021-11-02 현대자동차주식회사 Vehicle and method for controlling thereof
KR102161905B1 (en) * 2019-01-10 2020-10-06 이윤기 Backward vehicle detection apparatus and method
JP7293100B2 (en) * 2019-12-17 2023-06-19 日立Astemo株式会社 camera system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141219A1 (en) * 2011-04-13 2012-10-18 日産自動車株式会社 Driving assistance device and adjacent vehicle detection method therefor
WO2013129355A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
WO2013129356A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
WO2013129354A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141219A1 (en) * 2011-04-13 2012-10-18 日産自動車株式会社 Driving assistance device and adjacent vehicle detection method therefor
WO2013129355A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
WO2013129356A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device
WO2013129354A1 (en) * 2012-03-01 2013-09-06 日産自動車株式会社 Three-dimensional object detection device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106109A (en) * 2017-12-14 2019-06-27 クラリオン株式会社 Driving support device and driving support method
JP7042604B2 (en) 2017-12-14 2022-03-28 フォルシアクラリオン・エレクトロニクス株式会社 Driving support device and driving support method

Also Published As

Publication number Publication date
JP6426455B2 (en) 2018-11-21
WO2016092925A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
CN113998034B (en) Rider assistance system and method
JP6470346B2 (en) Danger notification control device for vehicle
KR101865766B1 (en) Moving objects collision warning apparatus and method for large vehicle
US8543254B1 (en) Vehicular imaging system and method for determining roadway width
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
WO2016092925A1 (en) Approaching vehicle detection device
KR20180067755A (en) Side safety assistant device and method for large vehicle by using two opposite cameras
JP2005309797A (en) Warning device for pedestrian
JP4980970B2 (en) Image pickup means adjustment device and object detection device
JPWO2012141219A1 (en) Driving support apparatus and adjacent vehicle detection method
US20130010114A1 (en) Apparatus for detecting object approaching vehicle
JP2009265842A (en) Warning device for vehicle and warning method
JP5632811B2 (en) Vehicle driving support device
JP2000016181A (en) Camera equipped door mirror and vehicle periphery recognition system
JP2012048591A (en) Vehicle surroundings notification device
CN104842862A (en) Machine vision based headlamp follow-up steering control method
JP2015232846A (en) Front situation determination device
KR101338058B1 (en) A system for detecting a unevenness on the road using a vehicle front camera image
JP6087240B2 (en) Vehicle periphery monitoring device
JP6177632B2 (en) Vehicle position detection device and vehicle rear side warning device
JP2018163530A (en) Object detection device, object detection method, and object detection program
KR101850030B1 (en) Apparatus and method for lane change assistance using illumination
JP5957315B2 (en) In-vehicle lane recognition system
JP6285291B2 (en) Steering support control device
JP2011090490A (en) Obstacle recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171031

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20171031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181025

R150 Certificate of patent or registration of utility model

Ref document number: 6426455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150