WO2013042675A1 - 他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置 - Google Patents

他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置 Download PDF

Info

Publication number
WO2013042675A1
WO2013042675A1 PCT/JP2012/073884 JP2012073884W WO2013042675A1 WO 2013042675 A1 WO2013042675 A1 WO 2013042675A1 JP 2012073884 W JP2012073884 W JP 2012073884W WO 2013042675 A1 WO2013042675 A1 WO 2013042675A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
light source
light
target area
region
Prior art date
Application number
PCT/JP2012/073884
Other languages
English (en)
French (fr)
Inventor
泰児 森下
佐藤 弘規
健太朗 塩田
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112012003930.0T priority Critical patent/DE112012003930T5/de
Priority to US14/346,099 priority patent/US9493108B2/en
Publication of WO2013042675A1 publication Critical patent/WO2013042675A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/076Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle by electrical means including means to transmit the movements, e.g. shafts or joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle

Definitions

  • the present invention is mounted on a vehicle and uses a device for detecting lights such as a headlight and a taillight of another vehicle from a captured image, a computer program for performing the detection, and a detection result thereof.
  • the present invention relates to a vehicle light control device that controls the direction of the optical axis of a vehicle headlight.
  • Patent Document 1 The system described in Patent Document 1 (the name of the invention is “recognizing device for traveling vehicle”) captures the front of the vehicle in color and obtains a color image. An image signal of a color corresponding to each of the taillight and the headlight is extracted from the color image signal, and the presence of the taillight or the headlight is recognized. Among these, the distance and relative speed between the vehicle and the front vehicle are calculated from the taillight image, and control for switching the headlight to a low beam, for example, is performed based on the calculation result. In order to execute a series of processes for this control, it is necessary to determine the type of light source. In view of this, Japanese Patent Application Laid-Open No. H10-228561 provides a method of determining the type of light source based on the color (RGB signal balance) detected in the light source region in the captured image.
  • the basic configuration thereof is an apparatus for detecting the light of another vehicle.
  • the captured image acquisition means acquires a captured image obtained by imaging the surroundings of the vehicle, and extracts a light source.
  • the means extracts a light source in the captured image.
  • the accuracy calculation means includes a light source feature amount including at least one of a color of the light source and a shape of the light source in a target region that is a part of the region representing each of the light sources and represents a preset part.
  • the target area accuracy representing the probability that the light source in the target area is the light of the other vehicle according to the accuracy that matches the target area feature quantity prepared corresponding to the position of the target area as the feature quantity of the vehicle light.
  • the light output means outputs a light indicating that the target region accuracy is a light of another vehicle for a light source having a target area accuracy equal to or higher than a preset threshold.
  • the target region for comparing the light source feature amount is set to a part of the region representing the light source, the light source is compared with the configuration in which the target region is set to the entire region representing the light source. Therefore, it is possible to reduce the processing load when detecting the lights of other vehicles.
  • the accuracy calculation means detects the average value of the color of each pixel constituting the target area as the light source feature quantity, and the average value and the vehicle light prepared as the target area feature quantity are detected.
  • the target area accuracy may be calculated by comparing the color.
  • the target area accuracy can be calculated by comparing the average value of the color of each pixel with the target area feature amount (the color of the vehicle light prepared in advance). For this reason, for example, the processing load can be reduced as compared with a configuration in which colors are compared for each pixel.
  • the light source extraction unit extracts the light source region in a rectangle
  • the accuracy calculation unit calculates the ratio of the number of pixels equal to or higher than the predetermined luminance to the number of pixels constituting the light source region as the light source feature amount.
  • the target area accuracy may be calculated by comparing this ratio with the ratio representing the vehicle light prepared as the target area feature amount.
  • the target area accuracy can be calculated by comparing the ratio of the area having the predetermined luminance or higher included in the target area with the target area feature amount. For this reason, for example, the processing load can be reduced as compared with the configuration in which the light of the vehicle is detected by performing pattern matching on the shape of the light source.
  • region may be set to the area
  • the target region may be set to a region including the right end portion or the left end portion of the region representing the light source.
  • the target region is set to a region including the right end portion or the left end portion. For this reason, the vehicle light can be efficiently detected from a narrower target area.
  • region may be set to the area
  • image processing data is read continuously from the leftmost pixel of the uppermost stage to the rightmost pixel, and then data is read continuously from the leftmost pixel of the next stage to the rightmost pixel. It is common. At this time, since it takes a little more time to search the leftmost pixel of the next stage from the rightmost pixel, the data reading time can be shortened when the number of data stages is small.
  • the target area is an area including the upper end or the lower end, so that the target area has a horizontally long shape and the number of data stages is reduced. Therefore, according to this apparatus, the data reading time can be shortened.
  • the vehicle light control apparatus includes any one of the various detection devices described above, vehicle detection means for detecting other vehicles existing around the vehicle on which the control device is mounted, and a head when another vehicle is detected.
  • Optical axis direction changing means for changing the direction of the optical axis of the light downward, and the vehicle detection means is configured as the detection device described above.
  • This light control device can accurately control the direction (beam angle) of the optical axis of the headlight so as not to dazzle other vehicles.
  • the color and shape feature amounts of the vehicle light, the color and shape feature amounts of the disturbance representing the light source that is not the vehicle light, and the like are stored in advance as a database inside or outside the detection device. What is necessary is just to be hold
  • FIG. 1 is a block diagram showing a schematic configuration of a light control system 1.
  • FIG. It is a flowchart which shows the write control process of embodiment. It is a flowchart which shows a color calculation process. It is explanatory drawing which shows the specific example of a color calculation process. It is a flowchart which shows a shape calculation process. It is explanatory drawing which shows the specific example of a shape calculation process. It is a flowchart which shows the vehicle light source discrimination
  • FIG. 1 is a block diagram showing a schematic configuration of a light control system 1 to which the present invention is applied.
  • the light control system 1 is mounted on a vehicle such as a passenger car, for example, and there is another vehicle around the vehicle (specifically, the headlight of the vehicle may dazzle the eyes of the driver of the other vehicle).
  • the direction of the optical axis (beam angle) of the headlight of the host vehicle is changed downward to prevent dazzling.
  • the detection of lights (headlights and taillights) of other vehicles is performed in a target region that is a part of a region that represents each light source and that represents a preset part.
  • the light control system 1 includes a processor 10 (corresponding to a device for detecting lights of other vehicles), a camera 20, and a light controller 30. .
  • the camera 20 is arranged so that at least the irradiation range of the vehicle headlight in the traveling direction of the vehicle (particularly in front) is included in the imaging range, and the captured image is sent to the processor 10.
  • the light controller 30 receives the vehicle light detection result from the processor 10 and controls the direction of the optical axis of the headlight 40. Specifically, when a detection result indicating that there is a vehicle light in the captured image is received, the headlight 40 is switched to a low beam, and when a detection result indicating that there is no vehicle light in the captured image is received, a high beam is switched. (Optical axis direction changing means).
  • the light controller 30 may be configured to move the direction of the optical axis in a direction in which no other vehicle exists (for example, downward or leftward) in response to a command from the processor 10.
  • the processor 10 is configured as a known microcomputer (computer) including a CPU 10A for calculation, a ROM 10B in which data and information are recorded in advance, a RAM 10C in which data is temporarily stored, and the like.
  • the CPU 10A performs various processes including a write control process (write detection program), which will be described later, based on a program stored in the ROM: 10B and a program loaded in the RAM: 10C. Therefore, the ROM 10B functions as a recording medium that stores in advance a program for controlling the direction of the optical axis of the headlight 40 of the vehicle. This program is read from the ROM 10B to the work area of the CPU 10A and executed.
  • the processor 10 also includes parameters indicating the characteristics of vehicle lights (headlights, taillights, etc., values indicating colors, etc.) and parameters indicating the characteristics of light sources other than vehicles (signboards, reflectors, etc.). And a database (DB) 11 in which values indicating colors and the like are stored. The parameters stored in the database 11 are used when detecting a light source indicating a vehicle light from a captured image by identifying it from a light source other than the vehicle light.
  • DB database
  • FIG. 2 is a flowchart showing a write control process executed by the CPU 10A of the processor 10. Note that the processing of S110 to S180 in the light control processing corresponds to other vehicle detection means, and the processing of S140, S150, and S180 in the light control processing corresponds to accuracy calculation means.
  • the processor 10 starts the light control process in response to the turning on.
  • This write control process is executed by the processor 10 at regular intervals (for example, every 100 ms).
  • the light control process is started, first, an image captured by the camera 20 is acquired (step S110 in FIG. 2: functionally equivalent to a captured image acquisition unit).
  • an area with high probability of being a vehicle light is extracted from the captured image as a “light candidate” (S120: functionally equivalent to a light source extraction means).
  • the entire region as a light source in the captured image and including the smallest region is cut out by a rectangle (rectangle), and labeling (numbering) is performed for each cut out region.
  • labeling numbering
  • a larger region is cut out as the light source is larger in the captured image.
  • This process may be executed based on a known method, for example, by thresholding an image signal for each pixel.
  • the color calculation processing described above will be described with reference to the flowchart shown in FIG.
  • the average value of the color of each pixel constituting the target area is detected.
  • a target area to be subjected to color calculation is selected (S210).
  • the target area is set in advance on the system side in an area excluding the center of the area representing the light candidate.
  • two regions are set as target regions: a region from the right end to about 35% and a region from the left end to 35% with respect to the width of the region representing the light candidate. .
  • any one of these areas for example, the left area
  • a target area that has not yet been selected for example, the right area
  • FIG. 4 shows an example in which left and right taillights and a central reflector (or license plate) are included as light candidates.
  • the target region includes a taillight part, and almost includes a reflector region. I understand that it is not.
  • the first coordinate in the selected area is selected (S220).
  • the pixel at the upper left corner of the target area is selected.
  • it is determined whether or not the search for the extracted light candidates has been completed (whether or not the processing of S250 described later has been performed for all pixels) (S240). If the search for the extracted light candidate is not completed (S240: NO), it is determined whether or not the selected coordinates (pixels) are within the selected target region (S250).
  • the color of the selected coordinate is calculated as a numerical value (S260).
  • the color at the selected coordinates is decomposed into predetermined signal components (for example, RGB, Lab, etc.), and the respective values are held.
  • the total color value is calculated (S270).
  • the numerical value of the color calculated this time is accumulated for each target region and for each signal component.
  • the color as the extracted light candidate is calculated (S310).
  • the color of the target area is calculated by dividing the total color value (cumulative value) calculated in the selected target area by the number of pixels in the selected target area.
  • the colors of the target areas are averaged to calculate the color of the light candidate.
  • the target area does not include the reflector, so the tail light color is detected as an accurate color that does not mix with other colors. can do.
  • the shape calculation process a process of calculating the ratio of the number of pixels having a predetermined luminance or more to the number of pixels constituting the light source region is performed.
  • a target area to be subjected to color calculation is selected (S410).
  • the target area is set in advance, and in this process, it is set to an area excluding the center of the area representing the write candidate.
  • two areas are set as target areas: an area from the upper end to about 30% and an area from the lower end to 30% with respect to the width of the area representing the light candidate.
  • One area for example, the upper area
  • a target area that has not been selected for example, a lower area
  • each region indicated by a broken line is selected as a target region.
  • a captured image including a signboard as shown in FIG. 6D or FIG. 6F is obtained, it is indicated by a broken line as shown in FIG. 6E or FIG. A region is selected as a target region.
  • the first coordinate in the selected region is selected (S420).
  • the pixel at the upper left corner of the target area is selected.
  • it is determined whether or not the search for the extracted light candidates has been completed (whether or not the processing of S450 described later has been performed for all pixels) (S440). If the search for the extracted light candidate is not completed (S440: NO), it is determined whether or not the selected coordinates (pixels) are within the selected target region (S450).
  • the pixel value (luminance value) of the selected pixel and a threshold value for determining that the selected light source region is valid are shown.
  • An effective pixel threshold value (for example, a value set to about 40% from the bottom of the dynamic range width) is compared (S460). If the pixel value is larger than the effective pixel threshold value (S460: YES), the number of effective pixels (a counter representing it) is incremented (S470).
  • the shape (area ratio) of the extracted light candidate is calculated (S510).
  • the shape of the light source in the target region is calculated by dividing the number of effective pixels calculated in the selected target region by the number of pixels in the selected target region.
  • the shape of the light candidate is calculated by averaging these.
  • the light candidate is a headlight
  • the number of effective pixels with respect to the number of pixels in the target region is a circle.
  • the effective pixel count with respect to the pixel count of the target region is different from that of the headlight.
  • the vehicle light source determination process is a process for determining whether or not the light candidate is a vehicle light by using the calculation results of the color calculation process and the shape calculation process.
  • a color average value is within a range (threshold value) prepared in advance as a vehicle headlight, and an area ratio indicates a semicircular shape prepared in advance as a headlight shape. It is determined whether or not all conditions of the circle ratio or more and the area ratio being less than the square ratio indicating a square signboard or the like are satisfied (S610).
  • the color threshold value set in this process since the color of the headlight is close to white, all the signal components (for example, RGB) of each color are set to relatively large values.
  • the semicircle ratio is set to a value smaller than the square ratio.
  • the color average value is within the range (threshold) prepared in advance as the taillight of the vehicle, and the area ratio is prepared in advance as the shape of the taillight. It is determined whether or not all the conditions that the ratio is equal to or greater than the ratio indicating the semicircular shape and that the area ratio is less than the square ratio indicating the square signboard or the like are satisfied (S620).
  • the color threshold value set in this process since the taillight color is close to red, a large value is set for the red component of the signal components (for example, RGB) of each color, Small values are set for the other color components. Further, parameters such as threshold values and ratios prepared in advance are recorded in the database 11.
  • the vehicle light source determination flag is set to OFF (S630), and the vehicle light source determination process is terminated.
  • the vehicle light source determination flag is set to ON assuming that the light candidate is a vehicle light (S640). ), The vehicle light source determination process is terminated.
  • the processor 10 detects other vehicles existing around the own vehicle.
  • the light controller 30 Change the direction of the optical axis of.
  • the processor 10 acquires a captured image obtained by capturing the surroundings of the host vehicle, and extracts a light source in the captured image.
  • the vehicle light has a light source feature amount including at least one of the color of the light source and the shape of the light source in a target region that is a part of the region representing each light source and represents a preset part.
  • the target area accuracy representing the probability that the light source in the target area is a light of another vehicle is calculated according to the accuracy that matches the target area feature quantity prepared corresponding to the position of the target area as a quantity.
  • the processor 10 outputs a light indicating that the target area accuracy is equal to or greater than a preset threshold value and is a light of another vehicle.
  • the target region for comparing the light source feature amount is set to a part of the region representing the light source, the target region is set to the entire region representing the light source.
  • the processing load when detecting the light of another vehicle from the light source can be reduced.
  • the direction of the optical axis of the headlight can be accurately controlled so as not to dazzle other vehicles.
  • the processor 10 detects the average value of the color of each pixel constituting the target area as the light source feature quantity, and the average value and the color of the vehicle light prepared as the target area feature quantity And the target area accuracy is calculated.
  • the target area accuracy can be calculated by comparing the average value of the color of each pixel with the target area feature amount (the color of the light of the prepared vehicle). Compared to the configuration for comparing colors, the processing load can be reduced.
  • the processor 10 extracts a light source region in a rectangular shape, calculates a ratio of the number of pixels equal to or higher than a predetermined luminance with respect to the number of pixels constituting the light source region as a light source feature amount, and this ratio and the target region The target area accuracy is calculated by comparing the ratio of the vehicle light prepared as the feature amount.
  • the target area accuracy is calculated by comparing the ratio of the area having the predetermined luminance or higher included in the target area with the target area feature amount (the ratio indicating the light of the prepared vehicle). Therefore, the processing load can be reduced as compared with the configuration in which the vehicle light is detected by performing pattern matching on the shape of the light source, for example.
  • the target area is set to an area excluding the center of the area representing the light source. According to such a light control system 1, since it is difficult to detect a color and an area excluding a light source center area, which tends to be an unnecessary area when detecting a shape, is set as a target area, it is efficient.
  • the target area accuracy can be calculated.
  • the target area is set to an area including the right end or the left end of the area representing the light source.
  • the target region is set to a region including the right end portion or the left end portion. Therefore, the vehicle light can be efficiently detected from a narrower target area.
  • the target area is also set as an area including the upper end or the lower end of the area representing the light source.
  • image processing data is read continuously from the leftmost pixel of the uppermost stage to the rightmost pixel, and then data is read continuously from the leftmost pixel of the next stage to the rightmost pixel. It is common. At this time, since it takes some time to search the leftmost pixel of the next stage from the rightmost pixel, the data reading time can be shortened when the number of data stages is small.
  • the target area is an area including the upper end or the lower end, thereby making the target area a horizontally long shape and reducing the number of data stages. Therefore, according to such a write control system 1, the data reading time can be shortened.
  • Embodiments of the present invention are not limited to the above-described embodiments, and can take various forms as long as they belong to the technical scope of the present invention.
  • the target region is the right end region and the left end region, and the upper end region and the lower end region, but any region may be used as long as the center of the light candidate region is removed.
  • a plurality of regions may be arbitrarily combined.
  • both the determination by color (color calculation process) and the determination by shape (shape calculation process) are performed, but only one of them may be performed.
  • the vehicle light source determination process only the determination result by color or the determination result by shape may be used.
  • a range (threshold value) in which the color average value is prepared in advance as a headlight of the vehicle instead of the process of S610 described above, as shown in FIG. 8A. (S710), and instead of the process of S620, it is determined whether the color average value is within a range (threshold value) prepared in advance as a taillight of the vehicle (S620). You can do it.
  • the area ratio is greater than or equal to the ratio indicating the semicircular shape prepared in advance as the shape of the headlight. It may be determined whether or not there is (S760), and instead of the process of S620, it may be determined whether or not the area ratio is less than a square ratio indicating a square signboard or the like (S770).
  • the processing load can be further reduced.
  • the degree by which the numerical value by color matches the numerical value as the light of the vehicle The degree of coincidence with the numerical value as the light may be scored, and it may be determined whether or not it is a vehicle light according to a weighted average of these scores.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)

Abstract

 車両に搭載され、その車両の外部を撮像した画像から他の車両のライトを検出する装置が提供される。この装置では、車両の周囲を撮像した画像を取得し、この画像の中の光源が抽出される。各光源を表す領域のうちの一部であり予め設定された部位を表す対象領域において、光源の色および光源の形状のうちの少なくとも一方を含む光源特徴量が対象領域特徴量と一致する確度に応じて、対象領域における光源が他の車両のライトである確度を表す対象領域確度を演算する。対象領域特徴量は、車両のライトが有する特徴量として対象領域の位置に対応して準備されている。対象領域確度が予め設定された閾値以上となる光源を他の車両のライトである旨を出力する。

Description

他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置
 本発明は、車両に搭載されるとともに、撮像画像の中から他の車両のヘッドライト及びテールライトなどのライトを検出する装置、及び、その検出を行うコンピュータ用プログラム、並びに、その検出結果を用いて車両のヘッドライトの光軸の向きを制御する車両用ライト制御装置に関する。
 従来、車両のヘッドランプの光軸の向きを制御する手段として、各種のシステムが提供されている。その一例として、特許文献1に開示されたものがある。この特許文献1に記載のシステムは(発明の名称は、「走行車両の認識装置」)、車両の前方をカラーで撮影し、カラー画像を得る。このカラー画像の信号からテールライト及びヘッドライトそれぞれに相当する色彩の画像信号を抽出し、テールライト又はヘッドライトの存在を認識する。このうち、テールライトの画像から前方車両との間の距離及び相対速度を算出し、この算出結果に基づいて、例えばヘッドライトをロービームに切り替える制御を行っている。
 この制御のための一連の処理を実行するには、光源の種別を判定する必要がある。そこで、この特許文献1では、撮像画像の中の光源の領域において検出される色(RGB信号のバランス)に基づいて光源の種別を判定する手法を提供している。
特開昭62-131837号公報
 しかしながら、上述した従来のシステムの場合、光源の領域のどの部位の色に基づいてライトを検出するかが明確でない。このため、色を検出する部位によっては正確な色が検出されないことがある。また、この従来のシステムにおいて検出精度を向上させるには、色を検出するためのサンプリング周波数を高くし、光源領域の多くの点において色を検出すればよい。しかし、このようにすると処理負荷が過度に重くなる。
 そこで、このような問題点を鑑み、撮像画像の中から他の車両のライトを検出するシステムにおいて、他の車両のヘッドライト及びテールライトを検出する際の処理負荷を過度に重くすることなく、ライトの検出精度を向上できるようにすることを本発明の目的とする。
 かかる目的を達成するために成されたもので、その基本的な構成は、他の車両のライトを検出する装置において、撮像画像取得手段は車両の周囲を撮像した撮像画像を取得し、光源抽出手段は撮像画像中の光源を抽出する。そして、確度演算手段は、前記光源のそれぞれを表す領域のうちの一部であり予め設定された部位を表す対象領域において、光源の色および光源の形状のうちの少なくとも一方を含む光源特徴量が、車両のライトが有する特徴量として対象領域の位置に対応して準備された対象領域特徴量と一致する確度に応じて、対象領域における光源が他車両のライトである確度を表す対象領域確度を演算する。また、ライト出力手段は、対象領域確度が予め設定された閾値以上となる光源について、他車両のライトである旨を出力する。
 この装置によれば、光源特徴量を比較する対象領域が光源を表す領域のうちの一部に設定されるので、対象領域が光源を表す領域の全体に設定される構成と比較して、光源から他車両のライトを検出する際の処理負荷を軽減することができる。
 ところで、上記装置においては、例えば、確度演算手段は、光源特徴量として対象領域を構成する各画素の色の平均値を検出し、この平均値と対象領域特徴量として準備された車両のライトの色とを比較することで対象領域確度を演算するようにしてもよい。
 この装置によれば、各画素の色の平均値を対象領域特徴量(予め準備された、車両のライトの色)と比較することで対象領域確度を演算できる。このため、例えば画素毎に色を比較する構成に比べて、処理負荷を軽減することができる。
 さらに、前記装置においては、別の例として、光源抽出手段は、光源領域を矩形で抽出し、確度演算手段は、光源特徴量として光源領域を構成する画素数に対する所定輝度以上の画素数の割合を演算し、この割合と対象領域特徴量として準備された車両のライトを表す割合とを比較することで対象領域確度を演算するようにしてもよい。
 この装置によれば、対象領域中に含まれる所定輝度以上の領域の割合を対象領域特徴量と比較することで対象領域確度を演算できる。このため、例えば光源の形状についてのパターンマッチングを行うことによって車両のライトを検出する構成と比較して、処理負荷を軽減することができる。
 また、前記装置においては、更に別の例として、対象領域は、光源を表す領域の中心を除いた領域に設定されていてもよい。
 この装置によれば、色を検出することが難しく、また、形状を検出する際に不要な領域となりがちな光源中心の領域を除いた領域を対象領域とする。このため、効率的に対象領域確度を演算することができる。
 さらに、前記装置においては、別の例として、対象領域は、光源を表す領域のうちの右端部または左端部を含む領域に設定されていてもよい。
 この装置によれば、光源となりうる信号機、テールライト、ヘッドライト、看板等には、横長のものが多いことを鑑みて、対象領域を右端部または左端部を含む領域に設定している。このため、より狭い対象領域から効率的に車両のライトを検出することができる。
 また、前記装置では、対象領域は、光源を表す領域のうちの上端部または下端部を含む領域に設定されていてもよい。
 ここで、画像処理の際には、最上段の左端の画素から右端の画素まで連続してデータを読み込み、その後、次の段の左端の画素から右端の画素まで連続してデータを読み込むのが一般的である。この際、右端の画素から次の段の左端の画素を検索する際に若干多くの時間を要するため、データの段数が少ないほうがデータの読み込み時間を短縮できる。
 そこで、本発明の係る検出装置では、対象領域を上端部または下端部を含む領域とすることで、対象領域を横長の形状とし、データの段数を減少させている。したがって、この装置によれば、データの読み込み時間を短縮することができる。
 また、前記目的を達成するため、前述した種々の構成を成す機能をコンピュータに実行させるための、メモリに保存し且つそのメモリから読み出し可能なプログラムも提供される。
 このプログラムによれば、前述した、他のライトを検出する装置と同様の効果を享受することができる。
 また、上記目的を達成するために、別の態様として、車両用ライト制御装置が提供される。この制御装置は、前述した各種の検出装置の何れかの構成に、この制御装置を搭載した車両の周囲に存在する他の車両を検出する車両検出手段と、他の車両が検出されるとヘッドライトの光軸の向きを下向きに変更する光軸方向変更手段と、を備え、車両検出手段は、前述した検出装置として構成されている。
 このライト制御装置によれば、他の車両を眩惑することがないように正確にヘッドライトの光軸の向き(ビーム角度)を制御することができる。
 なお、上記各構成において、車両のライトが有する色や形の特徴量、車両のライトでない光源を表す外乱物が有する色や形の特徴量等については、予めデータベースとして検出装置の内部または外部におけるメモリ等の記録部に保持されていればよい。
ライト制御システム1の概略構成を示すブロック図である。 実施形態のライト制御処理を示すフローチャートである。 色計算処理を示すフローチャートである。 色計算処理の具体例を示す説明図である。 形計算処理を示すフローチャートである。 形計算処理の具体例を示す説明図である。 実施形態の車両光源判別処理を示すフローチャートである。 変形例の車両光源判別処理を示すフローチャートである。 別の変形例の車両光源判別処理を示すフローチャートである。
 以下に本発明にかかる実施の形態を図面と共に説明する。
 [本実施形態の構成]
 図1は本発明が適用されたライト制御システム1の概略構成を示すブロック図である。ライト制御システム1は、例えば乗用車等の車両に搭載され、その車両の周囲に他の車両が存在する場合(詳細には、その車両のヘッドライトが他の車両のドライバの目を眩惑させる可能性がある範囲内に他の車両が存在する場合)に、自車両のヘッドライトの光軸の向き(ビーム角度)を下向きに変更し、眩惑を防止する機能を有する。
 また、他の車両のライト(ヘッドライト及びテールライト)の検出は、各光源を表す領域のうちの一部であり予め設定された部位を表す対象領域において行われる。光源の色および光源の形状(光源特徴量)が、車両のライトが有する特徴量として対象領域の位置に対応して準備されたパラメータ(対象領域特徴量)と一致する確度(光源の色や形が一定の許容範囲内に収まっているか否か)に応じて、対象領域における光源が他の車両のライトであるか否かが判定される。
 詳細には、図1に示すように、ライト制御システム1は、処理器10(他の車両のライトを検出する装置に該当する。)と、カメラ20と、ライト制御器30とを備えている。カメラ20は、車両の進行方向(特に前方)における少なくともその車両のヘッドライトによる照射範囲内が撮像範囲に含まれるように配置されており、その撮像画像を処理器10に送る。
 ライト制御器30は、処理器10により車両のライトの検出結果を受けてヘッドライト40の光軸の向きを制御する。具体的には、撮像画像中に車両のライトがある旨の検出結果を受けると、ヘッドライト40をロービームに切り換え、撮像画像中に車両のライトがない旨の検出結果を受けると、ハイビームを切り換える(光軸方向変更手段)。なお、ライト制御器30は、処理器10からの指令に応じて光軸の向きを他車両が存在しない方向(例えば下方向や左方向)へ移動させる構成であってもよい。
 処理器10は、演算用のCPU10A、データ・情報を予め記録したROM10B、データを一時的に保存するRAM10C等を備えた周知のマイコン(コンピュータ)として構成されている。CPU10Aは、ROM:10Bに格納されたプログラムやRAM:10Cにロードされたプログラムに基づいて、後述するライト制御処理(ライト検出プログラム)を含む各種処理を実施する。このため、ROM10Bは、車両のヘッドライト40の光軸の向きを制御するプログラムを予め格納した記録媒体の機能を担う。このプログラムは、ROM10BからCPU10Aのワークエリアに読み出されて実行される。
 また、処理器10は、車両のライトの特徴を示すパラメータ(ヘッドライト、テールライト等の形状、色等を示す値)や、車両以外の光源の特徴を示すパラメータ(看板、反射板等の形状、色等を示す値)が格納されたデータベース(DB)11を備えている。なお、このデータベース11に格納されたパラメータは、撮像画像中から車両のライトを示す光源を、車両のライト以外の光源と識別して検出する際に利用される。
 [本実施形態の処理]
 次に、図2を参照して、撮像画像の中から車両のライトを示す光源を識別し、ヘッドライトの光軸の向きを制御する処理を説明する。図2は、処理器10のCPU10Aが実行するライト制御処理を示すフローチャートである。なお、ライト制御処理でのS110~S180の処理は、他車両検出手段に相当し、ライト制御処理でのS140,S150,S180の処理は、確度演算手段に相当する。
 処理器10は、車両の電源が投入されると、その投入に呼応してライト制御処理を開始する。なお、このライト制御処理は、処理器10によって一定の周期毎(例えば100ms毎)に実行される。
 このライト制御処理が開始されると、まず、カメラ20による撮像画像を取得する(図2のステップS110:機能的に撮像画像取得手段に相当)。
 そして、撮像画像の中から車両のライトである確度が高い領域を「ライト候補」として抽出する(S120:機能的に光源抽出手段に相当)。この処理では、撮像画像における光源としての領域の全てが含まれ、かつ最小となる領域を矩形(長方形)で切り出され、切り出された領域毎にラベル付け(番号付け)が行われる。この処理によれば、撮像画像の中で、光源が大きなものほど大きな領域が切り出される。この処理は既知の手法に基づいて実行すればよく、例えば画素毎の画像信号を閾値処理することで実行される。
 続いて、後述する、色計算処理(S140)、形計算処理(S150)、車両光源判別処理(S160)の各種処理が順に実施される。車両光源判別処理が終了すると、車両のライトの検出結果をライト制御器30に送り(S190:ライト出力手段に相当)、ライト制御処理を終了する。
 ここで、上述した色計算処理を、図3に示すフローチャートを用いて説明する。この色計算処理では、対象領域を構成する各画素の色の平均値を検出する。
 この色計算処理が開始されると、まず、色計算を行う対象となる対象領域が選択される(S210)。ここで、対象領域は、本実施形態では、例えば、ライト候補を表す領域の中心を除いた領域に予めシステム側で設定されている。
 特に、この色計算処理では、ライト候補を表す領域の幅に対して右端部から35%程度までの領域、および左端部から35%までの領域、の2つの領域が対象領域として設定されている。このため、この色計算処理では、それらのうちの何れかの領域(例えば左側の領域)が対象領域として選択される。なお、本色計算処理が後述するS320の処理後に実施されている場合には、まだ選択されていない対象領域(例えば右側の領域)を選択する。
 例えば図4(a)に示すような撮像画像が得られた場合、S120の処理にて、図4(b)や図4(c)に示すような白色実線で示す領域(ライト候補を示す領域)が抽出される。この色計算処理では、白色破線で示す領域がそれぞれ対象領域として選択される。図4は、ライト候補として、左右のテールライトおよび中央の反射板(或いはナンバープレート)が含まれる例を示すが、対象領域にはテールライトの部位が含まれ、反射板の領域がほとんど含まれていないことが分かる。
 続いて、選択した領域のうちの最初の座標を選択する(S220)。この処理では、例えば、対象領域の左上隅の画素を選択する。
 そして、抽出したライト候補についての探索が終了したか否か(全ての画素について、後述するS250の処理が実施されたか否か)を判定する(S240)。抽出したライト候補についての探索が終了していなければ(S240:NO)、選択した座標(画素)が選択中の対象領域内であるか否かを判定する(S250)。
 選択した座標(画素)が選択中の対象領域内であれば(S250:YES)、選択した座標の色を数値として計算する(S260)。この処理では、選択した座標における色を、所定の信号成分(例えば、RGB,Lab等)に分解し、それぞれの値を保持する。
 続いて、色合計値を算出する(S270)。この処理では、今回算出した色の数値を、対象領域毎、かつ信号成分毎に累積する。S270の処理が終了した場合、およびS250の処理で、選択した座標(画素)が選択中の対象領域外である場合(S250:NO)には、未選択の次の座標(例えば、選択していた座標の右隣りの座標)を選択し(S280)、S240の処理に戻る。
 ところで、前述のS240の処理にて、抽出したライト候補についての探索が終了していれば(S240:YES)、抽出したライト候補としての色を計算する(S310)。この処理では、選択中の対象領域において算出された色合計値(累積値)を選択中の対象領域の画素数で除算することで、この対象領域の色を算出する。そして、複数の対象領域において対象領域の色が算出された場合には、これらの対象領域の色を平均化することで、ライト候補の色を算出する。
 本処理では、ライト候補にテールライトが含まれる場合に、対象領域には反射板が含まれないようにしているので、他の色と混ざることのない正確な色としてテールライトの色等を検出することができる。
 続いて、このライト候補に含まれる全ての対象領域を選択したか否かを判定する(S320)。何れかの対象領域を選択していなければ(S320:NO)、S210の処理に戻る。また、全ての対象領域を選択していれば(S320:YES)、色計算処理を終了する。
 次に、形計算処理について図5に示すフローチャートを用いて説明する。形計算処理では、光源領域を構成する画素数に対する所定輝度以上の画素数の割合を演算する処理を行う。
 形計算処理では、まず、色計算を行う対象となる対象領域を選択する(S410)。ここで、対象領域は予め設定されており、本処理においても、ライト候補を表す領域の中心を除いた領域に設定されている。
 特に本処理では、ライト候補を表す領域の幅に対して上端部から30%程度までの領域、および下端部から30%までの領域、の2つの領域が対象領域として設定されており、このうちの1つの領域(例えば上側の領域)を選択する。なお、本処理が後述するS520の処理後に実施されている場合には、まだ選択されていない対象領域(例えば下側の領域)を選択する。
 例えば図6(a)に示すような車両のヘッドライトを含む撮像画像が得られた場合、S120の処理にて、図6(b)や図6(c)に示すような白色実線で示す領域(ライト候補を示す領域)が抽出され、この処理では、破線で示す領域がそれぞれ対象領域として選択される。また、図6(d)や図6(f)に示すような看板を含む撮像画像が得られた場合にも同様に、図6(e)や図6(g)に示すような破線で示す領域が対象領域として選択される。
 続いて、選択した領域のうちの最初の座標を選択する(S420)。この処理では、例えば、対象領域の左上隅の画素を選択する。
 そして、抽出したライト候補についての探索が終了したか否か(全ての画素について、後述するS450の処理が実施されたか否か)を判定する(S440)。抽出したライト候補についての探索が終了していなければ(S440:NO)、選択した座標(画素)が選択中の対象領域内であるか否かを判定する(S450)。
 選択した座標(画素)が選択中の対象領域内であれば(S450:YES)、選択した画素の画素値(輝度値)と、光源の領域を示すものとして有効と判断するための閾値である有効画素閾値(例えばダイナミックレンジ幅の下から40%程度に設定される値)とを比較する(S460)。画素値が有効画素閾値よりも大きければ(S460:YES)、有効画素数(を表すカウンタ)をインクリメントする(S470)。
 S470の処理が終了した場合、S450の処理で、選択した座標(画素)が選択中の対象領域外である場合(S450:NO)、およびS460の処理で、画素値が有効画素閾値未満である場合(S460:NO)には、未選択の次の座標(例えば、選択していた座標の右隣りの座標)を選択し(S480)、S440の処理に戻る。
 ところで、前述のS440の処理にて、抽出したライト候補についての探索が終了していれば(S440:YES)、抽出したライト候補の形(面積比率)を計算する(S510)。この処理では、選択中の対象領域において算出された有効画素数を選択中の対象領域の画素数で除算することで、対象領域中の光源の形を計算する。そして、複数の対象領域において光源の形が算出された場合には、これらを平均化することで、ライト候補の形を算出する。
 例えば、ライト候補がヘッドライトの場合には、図6(b)、図6(c)に示すように、光源の形状が円形に近くなるため、対象領域の画素数に対する有効画素数は円形に対応した面積比率となる。一方で、ライト候補がヘッドライトでない場合には、図6(e)、図6(g)に示すように、対象領域の画素数に対する有効画素数が、ヘッドライトのものとは異なる面積比率となる。
 続いて、このライト候補に含まれる全ての対象領域を選択したか否かを判定する(S520)。何れかの対象領域を選択していなければ(S520:NO)、S410の処理に戻る。また、全ての対象領域を選択していれば(S520:YES)、形計算処理を終了する。
 次に、車両光源判別処理について図7に示すフローチャートを用いて説明する。車両光源判別処理は、色計算処理および形計算処理による演算結果を利用して、ライト候補が車両のライトであるか否かを決定する処理である。
 車両光源判別処理では、まず、色平均値が車両のヘッドライトとして予め準備された範囲(閾値)内であること、かつ、面積比率がヘッドライトの形状として予め準備された半円形状を示す半円比率以上であること、かつ、面積比率が四角形の看板等を示す四角比率未満であること、の全ての条件を満たすか否かを判定する(S610)。
 なお、この処理で設定される色の閾値としては、ヘッドライトの色が白に近い色であるため、各色の信号成分(例えばRGB)の全てが比較的大きな値に設定される。また、半円比率は四角比率よりも小さな値に設定されている。
 何れかの条件を満たしていなければ(S610:NO)、色平均値が車両のテールライトとして予め準備された範囲(閾値)内であること、かつ、面積比率がテールライトの形状として予め準備された半円形状を示す比率以上であること、かつ、面積比率が四角形の看板等を示す四角比率未満であること、の全ての条件を満たすか否かを判定する(S620)。
 なお、この処理で設定される色の閾値としては、テールライトの色が赤に近い色であるため、各色の信号成分(例えばRGB)のうちの赤色の成分に対して大きな値が設定され、他の色の成分については小さな値が設定される。また、予め準備された閾値や比率等のパラメータは、データベース11に記録されている。
 何れかの条件を満たしていなければ(S620:NO)、ライト候補が車両のライトでないものとして、車両光源判定フラグをOFFにセットし(S630)、車両光源判別処理を終了する。
 また、S610またはS620の処理にて、全ての条件を満たしていれば(S610:YESまたはS620:YES)、ライト候補が車両のライトであるものとして、車両光源判定フラグをONにセットし(S640)、車両光源判別処理を終了する。
 [本実施形態による効果]
 以上のように詳述したライト制御システム1において処理器10は、自車両の周囲に存在する他車両を検出し、自車両の周囲の他車両が検出されるとライト制御器30は、ヘッドライトの光軸の向きを下向きに変更する。特に他車両を検出する処理において、処理器10は自車両の周囲を撮像した撮像画像を取得し、撮像画像中の光源を抽出する。そして、各光源を表す領域のうちの一部であり予め設定された部位を表す対象領域において、光源の色および光源の形状のうちの少なくとも一方を含む光源特徴量が、車両のライトが有する特徴量として対象領域の位置に対応して準備された対象領域特徴量と一致する確度に応じて、対象領域における光源が他車両のライトである確度を表す対象領域確度を演算する。また、処理器10は、対象領域確度が予め設定された閾値以上となる光源について、他車両のライトである旨を出力する。
 このようなライト制御システム1によれば、光源特徴量を比較する対象領域が光源を表す領域のうちの一部に設定されるので、対象領域が光源を表す領域の全体に設定される構成と比較して、光源から他車両のライトを検出する際の処理負荷を軽減することができる。また、他車両を眩惑することがないように正確にヘッドライトの光軸の向きを制御することができる。
 また、上記ライト制御システム1において処理器10は、光源特徴量として対象領域を構成する各画素の色の平均値を検出し、この平均値と対象領域特徴量として準備された車両のライトの色とを比較することで対象領域確度を演算する。
 このようなライト制御システム1によれば、各画素の色の平均値を対象領域特徴量(準備された車両のライトの色)と比較することで対象領域確度を演算できるので、例えば画素毎に色を比較する構成に比べて、処理負荷を軽減することができる。
 さらに、上記ライト制御システム1において処理器10は、光源領域を矩形で抽出し、光源特徴量として光源領域を構成する画素数に対する所定輝度以上の画素数の割合を演算し、この割合と対象領域特徴量として準備された車両のライトを表す割合とを比較することで対象領域確度を演算する。
 このようなライト制御システム1によれば、対象領域中に含まれる所定輝度以上の領域の割合を対象領域特徴量(準備された車両のライトを表す割合)と比較することで対象領域確度を演算できるので、例えば光源の形状についてのパターンマッチングを行うことによって車両のライトを検出する構成と比較して、処理負荷を軽減することができる。
 また、上記ライト制御システム1において、対象領域は、光源を表す領域の中心を除いた領域に設定されている。
 このようなライト制御システム1によれば、色を検出することが難しく、また、形状を検出する際に不要な領域となりがちな光源中心の領域を除いた領域を対象領域とするので、効率的に対象領域確度を演算することができる。
 さらに、上記ライト制御システム1において、対象領域は、光源を表す領域のうちの右端部または左端部を含む領域に設定されている。
 このようなライト制御システム1によれば、光源となりうる信号機、テールライト、ヘッドライト、看板等には、横長のものが多いことを鑑みて、対象領域を右端部または左端部を含む領域に設定しているので、より狭い対象領域から効率的に車両のライトを検出することができる。
 また、上記ライト制御システム1において、対象領域は、光源を表す領域のうちの上端部または下端部を含む領域にも設定されている。
 ここで、画像処理の際には、最上段の左端の画素から右端の画素まで連続してデータを読み込み、その後、次の段の左端の画素から右端の画素まで連続してデータを読み込むのが一般的である。この際、右端の画素から次の段の左端の画素を検索する際に若干の時間を要するため、データの段数が少ないほうがデータの読み込み時間を短縮できる。
 そこで、上記ライト制御システム1では、対象領域を上端部または下端部を含む領域とすることで、対象領域を横長の形状とし、データの段数を減少させている。したがって、このようなライト制御システム1によれば、データの読み込み時間を短縮することができる。
 [その他の実施形態]
 本発明の実施の形態は、上記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
 例えば、上記実施形態においては、対象領域を、右端領域および左端領域、並びに上端領域および下端領域としたが、ライト候補となる領域の中心を外していればどのような領域であってもよく、また複数の領域を任意に組み合わせてもよい。
 また、上記実施形態のライト制御処理においては、色による判定(色計算処理)と形による判定(形計算処理)との両方を行ったが、何れか一方のみを行ってもよい。この場合には、車両光源判別処理において、色による判定結果または形による判定結果のみを利用するようにすればよい。
 具体的には、色による判定結果のみを利用する場合には、図8Aに示すように、前述のS610の処理に換えて、色平均値が車両のヘッドライトとして予め準備された範囲(閾値)内であるか否かを判定し(S710)、S620の処理に換えて、色平均値が車両のテールライトとして予め準備された範囲(閾値)内であるか否かを判定する(S620)ようにすればよい。
 また、形による判定結果のみを利用する場合には、図8Bに示すように、前述のS610の処理に換えて、面積比率がヘッドライトの形状として予め準備された半円形状を示す比率以上であるか否かを判定し(S760)、S620の処理に換えて、面積比率が四角形の看板等を示す四角比率未満であるか否かを判定する(S770)ようにすればよい。
 これらのようにすれば、処理負荷をより軽減することができる。
 また、色による判定(色計算処理)と形による判定(形計算処理)との両方を行う場合においては、色による数値が車両のライトとしての数値と一致する程度と、形による数値が車両のライトとしての数値と一致する程度と、をそれぞれ点数化し、これらの点数の加重平均に応じて車両のライトであるか否かを決定するようにしてもよい。
 1…ライト制御システム、10…処理器、11…データベース、20…カメラ、30…ライト制御器。

Claims (9)

  1.  車両に搭載され、その車両の外部を撮像した画像から他の車両のライトを検出する装置において、
     車両の周囲を撮像してその画像を取得する画像取得手段と、
     前記画像の中の光源を抽出する光源抽出手段と、
     前記光源のそれぞれを表す領域のうちの一部であり予め設定された部位を表す対象領域において、光源の色および光源の形状のうちの少なくとも一方を含む光源特徴量が、車両のライトが有する特徴量として対象領域の位置に対応して準備された対象領域特徴量と一致する確度に応じて、前記対象領域における光源が他車両のライトである確度を表す対象領域確度を演算する確度演算手段と、
     前記対象領域確度が予め設定された閾値以上となる光源を他の車両のライトである旨を出力するライト出力手段と、
     を備える。
  2.  請求項1に記載の装置において、
     前記確度演算手段は、前記光源特徴量として対象領域を構成する各画素の色の平均値を検出し、該平均値と前記対象領域特徴量として準備された車両のライトの色とを比較することで前記対象領域確度を演算するように構成されている。
  3.  請求項1または請求項2に記載の装置において、
     前記光源抽出手段は、光源領域を矩形で抽出し、
     前記確度演算手段は、前記光源特徴量として光源領域を構成する画素数に対する所定輝度以上の画素数の割合を演算し、該割合と前記対象領域特徴量として準備された車両のライトを表す割合とを比較することで前記対象領域確度を演算するように構成されている。
  4.  請求項1~請求項3の何れか1項に記載の装置において、
     前記対象領域は、光源を表す領域の中心を除いた領域に設定されている。
  5.  請求項1~請求項4の何れか1項に記載の装置において、
     前記対象領域は、光源を表す領域のうちの右端部または左端部を含む領域に設定されている。
  6.  請求項1~請求項4の何れか1項に記載の装置において、
     前記対象領域は、光源を表す領域のうちの上端部または下端部を含む領域に設定されている。
  7.  コンピュータのメモリに書込み・読出し可能に保存され、かつ、そのコンピュータを、請求項1~請求項6の何れか1項に記載の装置を構成する各手段として機能させるためのプログラム。
  8.  車両に搭載され、その車両のヘッドライトにおける光軸の向きを制御する車両用ライト制御装置であって、
     前記車両の周囲に存在する他の車両を検出する車両検出手段と、
     前記車両検出手段により前記他の車両が検出されると、前記ヘッドライトの光軸の向きを下向きに変更する光軸方向変更手段と、を備え、
     前記車両検出手段は、請求項1~請求項6の何れか1項に記載の装置として構成されている。
  9.  車両の外部を撮像した画像から他の車両のライトを検出する方法において、
     前記車両の周囲を撮像してその画像を取得し、
     前記画像の中の光源を抽出し、
     各光源を表す領域のうちの一部であり予め設定された部位を表す対象領域において、光源の色および光源の形状のうちの少なくとも一方を含む光源特徴量が、車両のライトが有する特徴量として対象領域の位置に対応して準備された対象領域特徴量と一致する確度に応じて、前記対象領域における光源が他車両のライトである確度を表す対象領域確度を演算し、
     前記対象領域確度が予め設定された閾値以上となる光源を他の車両のライトである旨を出力する。
PCT/JP2012/073884 2011-09-21 2012-09-19 他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置 WO2013042675A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112012003930.0T DE112012003930T5 (de) 2011-09-21 2012-09-19 Vorrichtung zur Erfassung anderen Fahrzeuglichts, Programm für einen Computer, der das Licht erfasst, und Lichtsteuervorrichtung für Fahrzeuge
US14/346,099 US9493108B2 (en) 2011-09-21 2012-09-19 Apparatus for detecting other vehicle lights and light control apparatus for vehicles

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-205946 2011-09-21
JP2011205946A JP5573803B2 (ja) 2011-09-21 2011-09-21 ライト検出装置、ライト検出プログラム、およびライト制御装置

Publications (1)

Publication Number Publication Date
WO2013042675A1 true WO2013042675A1 (ja) 2013-03-28

Family

ID=47914438

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073884 WO2013042675A1 (ja) 2011-09-21 2012-09-19 他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置

Country Status (4)

Country Link
US (1) US9493108B2 (ja)
JP (1) JP5573803B2 (ja)
DE (1) DE112012003930T5 (ja)
WO (1) WO2013042675A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
KR102233391B1 (ko) * 2014-06-16 2021-03-29 팅크웨어(주) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
US9779314B1 (en) * 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
CN106529411B (zh) * 2016-10-11 2020-07-28 北京小米移动软件有限公司 车辆提示方法及装置
US10040390B2 (en) * 2016-10-11 2018-08-07 Ford Global Technologies, Llc Vehicle light diagnostic
EP3637368B1 (en) * 2017-06-05 2021-12-15 Hitachi Astemo, Ltd. Image processing device and light distribution control system
JP6816679B2 (ja) * 2017-09-05 2021-01-20 トヨタ自動車株式会社 車両の制御装置
WO2019176418A1 (ja) * 2018-03-15 2019-09-19 株式会社小糸製作所 車両用ランプ、車両検出方法及び車両検出装置
US10369923B1 (en) * 2018-04-30 2019-08-06 Automotive Research & Testing Center Operation method of adaptive driving beam headlamp system
KR102220950B1 (ko) * 2019-07-31 2021-02-26 엘지전자 주식회사 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치
DE102019213318A1 (de) * 2019-09-03 2021-03-04 Robert Bosch Gmbh Verfahren zum Erstellen einer Karte sowie Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040615A (ja) * 2006-08-02 2008-02-21 Denso Corp 車両検出装置及びヘッドランプ制御装置
JP2010221756A (ja) * 2009-03-19 2010-10-07 Toyota Central R&D Labs Inc 車両灯火判定装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60255537A (ja) 1984-05-31 1985-12-17 Mitsubishi Electric Corp 自動車の前照灯の自動切替装置
JPH0655581B2 (ja) 1985-12-05 1994-07-27 日本電装株式会社 車両のヘッドライト制御装置
JPH0593981U (ja) 1992-05-27 1993-12-21 株式会社小糸製作所 グレアセンサ
FR2898310B1 (fr) * 2006-03-10 2009-04-17 Valeo Vision Sa Procede de commande de commutation automatique de projecteur de vehicule.
JP4544233B2 (ja) * 2006-10-11 2010-09-15 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
JP4702426B2 (ja) * 2008-10-10 2011-06-15 株式会社デンソー 車両検出装置、車両検出プログラム、およびライト制御装置
JP4666049B2 (ja) * 2008-10-17 2011-04-06 株式会社デンソー 光源識別装置、光源識別プログラム、車両検出装置、およびライト制御装置
WO2010088465A1 (en) * 2009-02-02 2010-08-05 Gentex Corporation Improved digital image processing and systems incorporating the same
JP2011103070A (ja) * 2009-11-11 2011-05-26 Toyota Motor Corp 夜間車両検知装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040615A (ja) * 2006-08-02 2008-02-21 Denso Corp 車両検出装置及びヘッドランプ制御装置
JP2010221756A (ja) * 2009-03-19 2010-10-07 Toyota Central R&D Labs Inc 車両灯火判定装置

Also Published As

Publication number Publication date
JP5573803B2 (ja) 2014-08-20
DE112012003930T5 (de) 2014-07-17
US20140226349A1 (en) 2014-08-14
US9493108B2 (en) 2016-11-15
JP2013067229A (ja) 2013-04-18

Similar Documents

Publication Publication Date Title
WO2013042675A1 (ja) 他の車両のライトを検出する装置及びその検出を行うコンピュータ用プログラム、並びに、車両用ライト制御装置
US10442343B2 (en) Vehicle exterior environment recognition apparatus
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
US8848980B2 (en) Front vehicle detecting method and front vehicle detecting apparatus
JP4853160B2 (ja) 車両検出装置及びヘッドランプ制御装置
JP4544233B2 (ja) 車両検出装置及びヘッドランプ制御装置
Alcantarilla et al. Automatic LightBeam Controller for driver assistance
López et al. Nighttime vehicle detection for intelligent headlight control
JP6132412B2 (ja) 車外環境認識装置
JP4415996B2 (ja) 車載用画像認識装置及び配光制御装置、並びに配光制御方法
JP2017505946A (ja) 車両検出システムおよびその方法
JP5884635B2 (ja) 走行環境検出装置、走行環境検出プログラム、およびライト制御装置
JP5065172B2 (ja) 車両灯火判定装置及びプログラム
JP6236039B2 (ja) 車外環境認識装置
JP2008207677A (ja) 画像処理装置,画像処理方法、及び画像処理システム
JP6034923B1 (ja) 車外環境認識装置
JP2016110539A (ja) 車外環境認識装置
WO2013168744A1 (ja) 車両の光源を検出する方法及び装置
JP6335065B2 (ja) 車外環境認識装置
JP2013028239A (ja) ライト検出装置、ライト検出プログラム、およびライト制御装置
JP2023007604A (ja) 信号認識装置
CN113581059A (zh) 灯光调节方法及相关装置
WO2021094800A1 (ja) 信号機認識方法及び信号機認識装置
JP7035339B2 (ja) ブレーキ判定方法及びブレーキ判定装置
JP2017097497A (ja) 車外環境認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12833891

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14346099

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112012003930

Country of ref document: DE

Ref document number: 1120120039300

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12833891

Country of ref document: EP

Kind code of ref document: A1