JP7009694B1 - Car light control device - Google Patents

Car light control device Download PDF

Info

Publication number
JP7009694B1
JP7009694B1 JP2021143406A JP2021143406A JP7009694B1 JP 7009694 B1 JP7009694 B1 JP 7009694B1 JP 2021143406 A JP2021143406 A JP 2021143406A JP 2021143406 A JP2021143406 A JP 2021143406A JP 7009694 B1 JP7009694 B1 JP 7009694B1
Authority
JP
Japan
Prior art keywords
image
vehicle
vehicle light
visibility
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021143406A
Other languages
Japanese (ja)
Other versions
JP2023036385A (en
Inventor
正裕 井尻
Original Assignee
正裕 井尻
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 正裕 井尻 filed Critical 正裕 井尻
Priority to JP2021143406A priority Critical patent/JP7009694B1/en
Application granted granted Critical
Publication of JP7009694B1 publication Critical patent/JP7009694B1/en
Publication of JP2023036385A publication Critical patent/JP2023036385A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

【課題】従来の車灯制御装置は、各種センサにより視程障害の要因である霧等の発生を予測/検知して点灯制御しているが、実際の視程を比較していないので、確実に視程が改善する車灯制御ができていない問題点がある。【解決手段】外部環境センサである車載カメラにより撮像される連続(あるいは近接)する判定画像において、外部環境センサである車載カメラと車灯ECUを連動して、点灯制御の選択対象となるヘッドライトとフォグランプの点灯画像を判定画像として撮像し、前記判定画像の視程の画像認識を判定し、視程が最も良好な画像と同じ車灯の点灯状態に車灯を点灯制御する車灯制御装置である。本発明は、運転者等に車灯の点滅の弊害が少なく、運転者に確実に最良の視程を提供でき、自動運転等の車載カメラとオートライト機能の制御部等を流用し、プログラム変更等にて対応することも可能である。【選択図】 図1PROBLEM TO BE SOLVED: To control lighting by predicting / detecting the generation of fog or the like which is a cause of visibility impairment by various sensors in a conventional vehicle light control device, but since the actual visibility is not compared, the visibility is surely There is a problem that the vehicle light control is not possible. SOLUTION: In a continuous (or close) determination image captured by an in-vehicle camera which is an external environment sensor, a headlight which is a lighting control selection target is linked with an in-vehicle camera which is an external environment sensor and a vehicle light ECU. It is a vehicle light control device that captures the lighting image of the fog lamp as a judgment image, determines the image recognition of the visibility of the judgment image, and controls the lighting of the vehicle light to the same lighting state as the image having the best visibility. .. INDUSTRIAL APPLICABILITY The present invention has less adverse effect of blinking of a vehicle light on a driver or the like, can surely provide the driver with the best visibility, and uses an in-vehicle camera for automatic driving or a control unit for an auto light function to change a program or the like. It is also possible to deal with it at. [Selection diagram] Fig. 1

Description

本発明は、霧等の視程障害発生時に、車灯制御により車載カメラで選択車灯の点灯画像を撮像し、各画像認識を比較して最長視程となる車灯を点灯する車灯制御装置に関する。 The present invention relates to a vehicle light control device that captures a lighting image of a selected vehicle light with an in-vehicle camera by vehicle light control when a visibility disorder such as fog occurs, compares each image recognition, and lights the vehicle light having the longest visibility. ..

周囲の明るさに合わせて車灯の点灯/消灯を自動的に行うオートライト機能があり、暗くなり始めて街灯がつくのとほぼ同じタイミングの明るさ(1,000ルクス未満)になれば自動点灯して、早めに点灯することで事故を防ぐ効果がある。 There is an auto light function that automatically turns on / off the car light according to the brightness of the surroundings, and it turns on automatically when the brightness starts to darken and the brightness is almost the same as when the street light turns on (less than 1,000 lux). , It is effective to prevent accidents by turning on the lights early.

周囲の明るさとは別に、霧、雨、雪等による視程障害が発生する場合がある。例えば、積もった雪が強い風で巻き上げられて起こるホワイトアウトは晴天でも発生するので、温度、湿度等の外部環境により事前に予測するのが困難なこともある。
車両の運転中に、霧、ホワイトアウト等により突然視程障害が発生し、運転が難しい状況になると、運転者は視程の改善のために、ヘッドライト(前照灯)のロービーム(すれ違い用前照灯)への切換え、あるいはフォグランプ(前部霧灯)の点灯操作を行う。
安全運転のため、運転者は車速の減速により前後の車両との追突を防止し、ガードレール、走行軌跡や車線表示等に沿って車線からの逸脱を防止し、場合によっては、車を目立つ状態にして安全な場所に退避する等の安全運転を行う必要がある。
このような一連の運転操作を適時適切に行う必要があるが、突然発生した視程障害の場合は、咄嗟に車灯の切換え操作ができない場合がある。
また、突然ではなく徐々に視程障害になる場合は、運転者の目が徐々に慣れて車灯の切換え操作タイミングが遅れる場合がある。
In addition to the brightness of the surroundings, visibility may be impaired by fog, rain, snow, etc. For example, whiteouts that occur when accumulated snow is rolled up by strong winds occur even in fine weather, so it may be difficult to predict in advance due to the external environment such as temperature and humidity.
When the visibility is suddenly obstructed due to fog, whiteout, etc. while driving the vehicle and it becomes difficult to drive, the driver headlights (headlights) low beam (headlights for passing) to improve visibility. Switch to (light) or turn on the fog lamp (front fog light).
For safe driving, the driver prevents collisions with vehicles in front and behind by decelerating the vehicle speed, prevents deviation from the lane along guardrails, driving tracks, lane displays, etc., and in some cases makes the vehicle stand out. It is necessary to perform safe driving such as evacuating to a safe place.
It is necessary to perform such a series of driving operations in a timely and appropriate manner, but in the case of sudden visibility impairment, it may not be possible to switch the vehicle lights.
In addition, if the visibility is gradually impaired rather than suddenly, the driver's eyes may gradually get used to it and the timing of the vehicle light switching operation may be delayed.

可視光は約380~800nmの間で、日中は赤色光等の長波長(約700nm)の光は光源である太陽の見た目の大きさの範囲に収まり、短波長(約470nm)の青色光は大気中で散乱するため空は青く見える。
夕方になると光線の入射角が浅くなり、大気層を通過する距離が伸びるので、レイリ散乱により青色光は障害物に衝突する頻度が増し、吸収されるなどの要因から地表に到達しにくくなる。代わって黄(約580nm)、橙(約610nm)、赤などの長波長光線が散乱され、太陽が沈む(または昇る)方向の空が、夕焼け(朝焼け)として赤く見える。
霧やホワイトアウト等の悪天候時には、波長の短い青色光は水の粒に散乱して遮られ、波長の長い赤色光等はそれを通りぬけてより遠くまで届くので霧中透過性が高い。
従って、悪天候時に光の散乱による視界不良が発生する場合は、黄色等の長波長光のフォグランプは視認性を向上させる。しかし、単色光は運転者に錯覚を起こさせ、距離感がつかみにくい、あるいは特定の色が認識しにくい等の現象が発生する問題がある。
対向車、前走車に対して、フォグランプの点灯は迷惑となる場合がある。
ヘッドライトのロービーム(すれ違い用前照灯)は、ハイビーム(走行用前照灯)より照射距離が短いので、対向車や前走車のない場合は、ハイビーム走行が望ましい。
このように、外部環境や運転状況により、車灯を随時適切に制御する必要がある。
Visible light is between about 380 and 800 nm, and long-wavelength (about 700 nm) light such as red light falls within the apparent size of the sun, which is the light source, during the daytime, and short-wavelength (about 470 nm) blue light. The sky looks blue because it is scattered in the atmosphere.
In the evening, the incident angle of the light beam becomes shallower and the distance through the atmospheric layer increases, so that the blue light collides with obstacles more frequently due to the ray scattering, and it becomes difficult to reach the ground surface due to factors such as absorption. Instead, long-wavelength rays such as yellow (about 580 nm), orange (about 610 nm), and red are scattered, and the sky in the direction of the sun setting (or rising) looks red as a sunset (sunrise).
In bad weather such as fog and whiteout, blue light with a short wavelength is scattered by water particles and blocked, and red light with a long wavelength passes through it and reaches farther, so it has high transparency in fog.
Therefore, when poor visibility occurs due to light scattering in bad weather, fog lamps with long wavelength light such as yellow improve visibility. However, monochromatic light causes an illusion to the driver, and there is a problem that a phenomenon such as difficulty in grasping a sense of distance or difficulty in recognizing a specific color occurs.
Lighting of fog lights may be annoying to oncoming vehicles and vehicles in front.
Since the low beam (headlight for passing) of the headlight has a shorter irradiation distance than the high beam (headlight for traveling), high beam traveling is desirable when there are no oncoming vehicles or vehicles in front.
In this way, it is necessary to appropriately control the vehicle lights at any time depending on the external environment and driving conditions.

車灯であるヘッドライトやフォグランプ等に使用されるLEDライトは、フィラメントを使用しておらず、高い発光効率や熱をあまり発生させないという特徴があり、供給電源が断続すれば、高速度で明滅することができる高応答性であり、消費電力が少なく、安全性も高い。
LED素子単体での応答速度は50~100ns(ナノ秒)であり、これは1億分の5秒~1千万分の1秒である。
人が光を見たとき、残像効果としてその光が消えた後も、それまで見ていた光や映像が残って見える時間残像現象がある。人の目の時間分解能は約50msから100ms程度であり、この時間よりも短い光の点滅は、連続点灯しているように知覚される。
例えば、地デジ放送は、単位時間(秒)あたりに処理させるフレームレートは30fps であるが、人にはスムーズな動画として見え、LED式信号機は電源周波数(50Hzまたは60Hz)に同期して点滅しているが、連続点灯しているように見える。
LEDの高い応答性と残像効果を利用したダイナミック点灯方式があり、点灯しているLEDを一定周波数で高速に点滅させて消費電力を抑制し、LEDの寿命が長くなる効果がある。
一般的な車載カメラのフレームレートは25~60fpsであり、前記LED素子単体の応答速度が50~100nsであるので、前記車載カメラの画像(60fps)の撮像時間の単純計算で16600分の1の時間でLEDを点灯制御できる。
本発明では、車灯の点灯制御と車載カメラ画像の撮像をリンクし、各車灯の点灯画像を撮像し、画像認識の視程を比較する。この各車灯の単独点灯画像を撮像するための車灯がLEDの場合は、点灯制御は前記残像効果により、運転者、歩行者等に知覚されにくい。
LED lights used for headlights and fog lamps, which are car lights, do not use filaments and have the characteristics of high luminous efficiency and little heat generation. If the power supply is interrupted, they blink at high speed. It is highly responsive, consumes less power, and is highly safe.
The response speed of the LED element alone is 50 to 100 ns (nanoseconds), which is 5/100 million seconds to 1/10 million seconds.
When a person sees light, there is a time afterimage phenomenon as an afterimage effect, in which the light or image that has been seen until then remains even after the light disappears. The time resolution of the human eye is about 50 ms to 100 ms, and blinking of light shorter than this time is perceived as continuous lighting.
For example, in terrestrial digital broadcasting, the frame rate processed per unit time (seconds) is 30 fps, but it looks like a smooth movie to humans, and the LED traffic light blinks in synchronization with the power frequency (50 Hz or 60 Hz). However, it seems to be lit continuously.
There is a dynamic lighting method that utilizes the high responsiveness and afterimage effect of the LED, and it has the effect of blinking the lit LED at a constant frequency at high speed to suppress power consumption and prolong the life of the LED.
Since the frame rate of a general in-vehicle camera is 25 to 60 fps and the response speed of the LED element alone is 50 to 100 ns, the simple calculation of the imaging time of the image (60 fps) of the in-vehicle camera is 1/16600. The lighting of the LED can be controlled in time.
In the present invention, the lighting control of the vehicle light and the acquisition of the vehicle-mounted camera image are linked, the lighting image of each vehicle light is captured, and the visibility of image recognition is compared. When the vehicle light for capturing the independently lit image of each vehicle light is an LED, the lighting control is not easily perceived by the driver, pedestrian, or the like due to the afterimage effect.

ミリ波レーダは、電波であるミリ波を照射して対象物の距離や位置情報を測定するので、天候による環境変化や逆光に強いが、形やサイズなどの詳細を識別するのは困難で、電波の反射率の低いものや近距離検知に対応しづらい。
レーザ光を利用するLiDAR(ライダ)は、先行車、歩行者、建物等の距離や形状、位置関係を正確に把握することが可能であるが、測定可能距離が短く、悪天候に弱い。
運転者の目の役割をする車載カメラは、霧等の悪天候時に光の散乱による視程障害が発生し、逆光等の強い光を受けた場合や、自然光が不足する夜間やトンネル内では、正常に撮像できない問題点がある。しかし、画像認識や障害物の色を認識できるので、歩行者、道路標識、信号などを識別する重要な可視光による受光センサである。対象物の距離の測定はできないが、ステレオカメラのように、2台のカメラにより人間の目と同様に視差画像を生成して距離の簡易測定ができる。
前記各センサは、それぞれ長所短所があり、使用目的や機能等により取捨選択されるが、画像認識や障害物の色を認識できる可視光線の受光センサである車載カメラは、自動車の外部環境センサとして重要なセンサである。
Millimeter-wave radar irradiates millimeter waves, which are radio waves, to measure the distance and position information of an object, so it is resistant to environmental changes and backlight due to the weather, but it is difficult to identify details such as shape and size. It is difficult to handle radio waves with low reflectance and short-range detection.
LiDAR, which uses laser light, can accurately grasp the distance, shape, and positional relationship of preceding vehicles, pedestrians, buildings, etc., but the measurable distance is short and it is vulnerable to bad weather.
The in-vehicle camera, which acts as the driver's eyes, normally causes visibility problems due to light scattering in bad weather such as fog, and is normally exposed to strong light such as backlight, at night when natural light is insufficient, or in tunnels. There is a problem that it cannot be imaged. However, since it can recognize images and the colors of obstacles, it is an important visible light light receiving sensor that identifies pedestrians, road signs, signals, and the like. Although it is not possible to measure the distance of an object, it is possible to generate a parallax image with two cameras like a stereo camera and simply measure the distance.
Each of the above sensors has advantages and disadvantages, and is selected according to the purpose of use, function, etc. It is an important sensor.

霧等の悪天候時の光の散乱による視程障害が発生する場合に、目的に合った車灯を点灯制御する下記先行技術(特許文献1~4)がある。
車載カメラによって撮像された画像の輝度の変化量を示すエッジ強度の二次元分布図を作成し、その分布図において基準エッジ強度を超えた割合を意味する強エッジ量を算出する。この強エッジ量は画像のぼけ度合いを表しており、その強エッジ量が所定の画像ぼけ判定範囲内の値である場合には、霧または雨であると考えられる。そこで、さらに、ワイパーが駆動しているかどうかを判断し、ワイパーが駆動している場合には天候は霧であると判定する車載霧状態判定装置、及びオートフォグランプシステム(特許文献1)がある。
レーザレーダ装置によって前方にレーザビームを放射し、先行車に反射して戻ってくる反射光を受光して車間距離を計測し、接近しすぎの場合には警報を発する接近警報装置を援用し、有効検知エリアからその境界付近を除外した核検知エリア内の距離データが得られた直後の計測で、有効検知エリア内の距離データが得られなくなった場合には、レーザレーダ装置の検出範囲を上側に変更させて距離計測を行い、それでもレーザレーダ装置の有効検知エリア内の距離データが計測できず、かつ有効検知エリア内の距離データが得られなくなってから一定時間が経過した時には、霧中突入と判断してフォグランプ点灯指令を出力してフォグランプを点灯させる、オートフォグランプ装置(特許文献2)がある。
フォグランプと、自動的に視界不良状態を検知する手段と、湿度検知回路と、光学的可視度検知回路を備え、それらの出力を、加算回路により結合し、この結合信号を処理して、フォグランプの点灯又は消灯を制御する霧の中で使用される照明灯・表示灯制御装置(特許文献3)がある。
電源と、電源を照明・表示ユニットに接続する制御回路とを含み、制御回路は、霧検知回路からの作動信号に応答し、照明・表示ユニットが出した光線の通路において視程が減少している場合に、霧検知回路は作動信号を発生させる霧中で使用するための照明・表示装置(特許文献4)がある。
There are the following prior arts (Patent Documents 1 to 4) for controlling lighting of a vehicle light suitable for a purpose when visibility is impaired due to light scattering in bad weather such as fog.
A two-dimensional distribution map of edge strength showing the amount of change in brightness of an image captured by an in-vehicle camera is created, and the amount of strong edge, which means the ratio exceeding the reference edge strength in the distribution map, is calculated. This strong edge amount represents the degree of blurring of the image, and when the strong edge amount is a value within a predetermined image blur determination range, it is considered to be fog or rain. Therefore, there are an in-vehicle fog state determination device that determines whether or not the wiper is driven and determines that the weather is fog when the wiper is driven, and an auto fog lamp system (Patent Document 1).
A laser radar device emits a laser beam forward, receives reflected light reflected from the preceding vehicle and returns, measures the inter-vehicle distance, and uses an approach warning device that issues an alarm if the vehicle is too close. If the distance data in the nuclear detection area excluding the vicinity of the boundary from the effective detection area is obtained and the distance data in the effective detection area cannot be obtained in the measurement, the detection range of the laser radar device is increased. When a certain amount of time has passed since the distance data in the effective detection area of the laser radar device could not be measured and the distance data in the effective detection area could not be obtained, it was called a fog rush. There is an auto-fog lamp device (Patent Document 2) that determines and outputs a fog lamp lighting command to turn on the fog lamp.
A fog lamp, a means for automatically detecting a poor visibility state, a humidity detection circuit, and an optical visibility detection circuit are provided, and their outputs are coupled by an adder circuit, and this coupled signal is processed to process the fog lamp. There is an optical light / indicator light control device (Patent Document 3) used in fog that controls turning on or off.
The control circuit includes a power supply and a control circuit that connects the power supply to the lighting / display unit, and the control circuit responds to an operation signal from the fog detection circuit, and the visibility is reduced in the path of the light beam emitted by the lighting / display unit. In some cases, the fog detection circuit has a lighting / display device (Patent Document 4) for use in fog that generates an operation signal.

特開2006-349637号公報Japanese Unexamined Patent Publication No. 2006-349637 特開平11-115623号公報Japanese Unexamined Patent Publication No. 11-115623 特開平6-99772号公報Japanese Unexamined Patent Publication No. 6-99772 特開平5-185873号公報Japanese Unexamined Patent Publication No. 5-185873

従来の車灯制御装置は、各種センサにより視程障害の要因である霧等の発生を予測/検知して車灯を点灯制御しているが、実際の視程を比較していないので、最も視程が改善する車灯を選定していない場合があり、更に突然発生する視程障害に即応できない場合がある等の問題点がある。 Conventional vehicle light control devices use various sensors to predict / detect the occurrence of fog, which is a cause of visibility impairment, and control the lighting of vehicle lights. However, since the actual visibility is not compared, the visibility is the highest. There is a problem that the vehicle light to be improved may not be selected, and it may not be possible to immediately respond to the sudden visibility disorder.

請求項1は、入力手段である外部環境センサ、運転状況センサと、出力手段である車灯と、車灯ECUで構成される車灯制御装置であって、前記外部環境センサである車載カメラと前記車灯ECUを連動して、点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として撮像し、前記フォグランプおよび前記ヘッドライトをLEDとし、前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯を同期し、前記判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置である。 The first aspect of the present invention is a vehicle light control device including an external environment sensor and a driving condition sensor as an input means, a vehicle light as an output means, and a vehicle light ECU, and the vehicle-mounted camera which is the external environment sensor. In conjunction with the vehicle light ECU, a no-light image, a headlight which is the vehicle light, and / or a lighting image of the fog lamp, which is a selection target of lighting control, are imaged as a determination image, and the fog lamp and the headlight are LED. The determination image is synchronized with the lighting of the vehicle light by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera. It is a vehicle light control device characterized by determining image recognition of the field of view of an image and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility.

請求項2は、前記車灯であるフォグランプの波長を、ヘッドライトの波長より長くした請求項1に記載の車灯制御装置である。 2. The vehicle light control device according to claim 1, wherein the wavelength of the fog lamp, which is the vehicle light, is longer than the wavelength of the headlight.

請求項3は、前記判定画像の前記車灯の照射範囲を基準にして視程の画像認識を判定する画像判定エリアを設定し、前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置である。 Claim 3 sets an image determination area for determining image recognition of visibility based on the irradiation range of the vehicle light of the determination image, and when the image pickup element of the vehicle-mounted camera is a CCD, the frame of the determination image. From the beginning of the pitch to the data transmission unit or the data transmission unit in the image determination area, when the image pickup element of the vehicle-mounted camera is CMOS, the headlight and / or the headlight and / or during data transmission in the image determination area. The vehicle light control device according to claim 1 or 2, wherein the fog lamp is turned on and the determination image to be selected for the lighting control is captured.

請求項4は、前記外部環境センサと前記運転状況センサからの入力情報により、視程障害モードと運転状況を予想し、変化する運転状況に対応した車灯選択と車灯選択頻度の設定を行う請求項1~3に記載の車灯制御装置である。 According to claim 4, the visibility failure mode and the driving condition are predicted by the input information from the external environment sensor and the driving condition sensor, and the vehicle light selection and the vehicle light selection frequency corresponding to the changing driving condition are set. The vehicle light control device according to items 1 to 3.

本発明の請求項1は、入力手段である外部環境センサ、運転状況センサと、出力手段である車灯と、車灯ECUで構成される車灯制御装置であって、前記外部環境センサである車載カメラと前記車灯ECUを連動して、点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として撮像し、
前記フォグランプおよび前記ヘッドライトをLEDとし、前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯を同期し、前記判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置である。
本発明の車灯制御装置は、自動車に備えられた車載カメラの画像認により、視程障害発生時の実際の視程を比較判定するので、運転者に適時、実際に最良の視程を提供できる効果がある。
本発明の車灯制御装置は、自動運転等の自動車に組み込まれている車載カメラを流用することができ、更にオートライト機能の車灯制御を活用できるので、車灯ECUは、関連するECUのプログラムの追加変更程度で対応できる場合もある。本発明の車灯制御装置は、車灯制御装置のハード面の追加費用が抑制できるので、費用対効果が大きいメリットがある。
The first aspect of the present invention is a vehicle light control device including an external environment sensor as an input means, a driving condition sensor, a vehicle light as an output means, and a vehicle light ECU, which is the external environment sensor. By interlocking the vehicle-mounted camera and the vehicle light ECU, a non-lighting image, a lighting image of the headlight and / or a fog lamp, which is a lighting control selection target, is captured as a determination image.
The fog lamp and the headlight are LEDs, and the determination image is captured and the vehicle light is captured by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera. The vehicle light control device is characterized by synchronizing the lighting of the vehicle, determining the image recognition of the visibility of the determination image, and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility. Is.
Since the vehicle light control device of the present invention compares and determines the actual visibility when a visibility disorder occurs by the image recognition of the in-vehicle camera provided in the automobile, it has the effect of providing the driver with the best visibility in a timely manner. be.
Since the vehicle light control device of the present invention can divert an in-vehicle camera incorporated in an automobile such as automatic driving and can further utilize the vehicle light control of the auto light function, the vehicle light ECU is a related ECU. In some cases, it can be handled by adding or changing the program. The vehicle light control device of the present invention has a great cost-effectiveness because it can suppress the additional cost of the hardware of the vehicle light control device.

本発明の請求項2は、前記車灯であるフォグランプの波長を前記ヘッドライトの波長より長くした請求項1に記載の車灯制御装置とすることにより、レイリ散乱によりフォグランプ照明の霧中透過性が高く、フォグランプ照明での視程が前記ヘッドライトより長くなる(霧中視認性が向上する)効果がある。
法規により赤色の灯火を車体前方に設置できないため、赤色光に次ぐ霧中透過性を持つ中間の波長の黄色光が良い。
The second aspect of the present invention is the vehicle light control device according to claim 1, wherein the fog lamp, which is the vehicle light, has a wavelength longer than that of the headlight. It is high and has the effect of making the visibility in fog lamp illumination longer than that of the headlight (improving visibility in fog).
Since red lights cannot be installed in front of the vehicle body due to regulations, yellow light with an intermediate wavelength that has transparency in the fog next to red light is preferable.

本発明の請求項3は、前記判定画像の前記車灯の照射範囲を基準にして視程の画像認識を判定する画像判定エリアを設定し、前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置である。
前記車載カメラの撮像素子により車灯の点灯時間の圧縮量の違いはあるが、判定画像の撮像フレームタイミングよりも、車灯判定画像の点灯時間を圧縮できる。
従って、前記車灯の点灯時間と人の目の残像効果により、自車および対向車等に車灯の点滅が知覚されにくいので、自車、対向車等への調査点滅の影響を更に小さくできる効果がある。
A third aspect of the present invention sets an image determination area for determining image recognition of visibility based on the irradiation range of the vehicle light of the determination image, and when the image pickup element of the vehicle-mounted camera is a CCD, the determination is made. From the beginning of the frame pitch of the image to the data transmission unit or the data transmission unit of the image determination area, when the image pickup element of the in-vehicle camera is CMOS, the headlight is used during data transmission or data transmission in the image determination area. The vehicle light control device according to claim 1 or 2, wherein the fog lamp is turned on and / or the determination image to be selected for the lighting control is captured.
Although there is a difference in the amount of compression of the lighting time of the vehicle light depending on the image sensor of the vehicle-mounted camera, the lighting time of the vehicle light determination image can be compressed rather than the image pickup frame timing of the determination image.
Therefore, due to the lighting time of the vehicle light and the afterimage effect of the human eye, the blinking of the vehicle light is less likely to be perceived by the own vehicle, the oncoming vehicle, etc., so that the influence of the investigation blinking on the own vehicle, the oncoming vehicle, etc. can be further reduced. effective.

本発明の請求項4は、前記外部環境センサと前記運転状況センサからの入力情報により、視程障害モードと運転状況を予想し、変化する運転状況に対応した車灯選択と車灯選択頻度の設定を行う請求項1~3に記載の車灯制御装置で、タイミングよく、運転状況の変化に対応した点灯制御ができる効果がある。 According to claim 4, the vehicle light selection and the vehicle light selection frequency corresponding to the changing driving situation are set by predicting the visibility obstacle mode and the driving situation by the input information from the external environment sensor and the driving situation sensor. The vehicle light control device according to claims 1 to 3 has the effect of being able to control lighting in response to changes in driving conditions at the right time.

本発明の車灯制御装置の実施例1の、昼間の情報処理ルーチンを示すフローチャートである。It is a flowchart which shows the daytime information processing routine of Embodiment 1 of the vehicle light control device of this invention. 前記実施例1の夜間の情報処理ルーチンを示すフローチャートである。It is a flowchart which shows the nighttime information processing routine of Example 1. 前記実施例1の車灯制御装置の、構成概念を示すブロック図である。It is a block diagram which shows the construct of the vehicle light control device of Example 1. FIG. 前記実施例1の車灯制御装置の、夜間霧中発進時の作動タイムチャートである。It is an operation time chart at the time of starting in the night fog of the vehicle light control device of the first embodiment. 前記実施例1の車灯制御装置の、夜間霧遭遇時の作動タイムチャートである。It is an operation time chart of the vehicle light control device of the first embodiment at night when fog is encountered. 図5の判定域f(D1f、D2f)の、請求項2対応のヘッドライトとフォグランプの車灯照射域の説明図である。It is explanatory drawing of the car light irradiation area of the headlight and the fog lamp corresponding to claim 2 in the determination area f (D1f, D2f) of FIG. 図5の判定域f(D1f、D2f)の、画像認識比較方法の一例を示す説明図である。It is explanatory drawing which shows an example of the image recognition comparison method in the determination area f (D1f, D2f) of FIG. 請求項3対応の、車載カメラの撮像素子(CCD、CMOS)による車灯点灯時間短縮の説明図(タイミングチャート)である。請求項3対応の車載カメラの撮像素子(CCD、CMOS)による車灯の点灯短縮制御の説明図である。FIG. 3 is an explanatory diagram (timing chart) for shortening the lighting time of a vehicle light by an image sensor (CCD, CMOS) of an in-vehicle camera, which corresponds to claim 3. It is explanatory drawing of the lighting shortening control of a car light by the image sensor (CCD, CMOS) of the vehicle-mounted camera corresponding to claim 3. 請求項4対応の本発明の車灯制御装置の、運転関連要素と視程障害による作動モードの一例を示す表である。It is a table which shows an example of the operation | operation mode by a driving-related element and a visibility disorder of the vehicle light control device of this invention corresponding to claim 4. ヘッドライトとフォグランプを点灯した場合の、一般的な霧による照射範囲の変化の説明図である。It is explanatory drawing of the change of the irradiation range by a general fog when the headlight and the fog lamp are turned on.

前記図面(図1~10)に従って、本発明の車灯制御装置1の内容と実施例を、以下に説明する。
本発明の車灯制御装置1は、車灯の点灯制御を外部環境センサである車載カメラ41により撮像される連続(あるいは近接)する2画像において、車灯ECU3により、車灯を前記連続する一方の画像で点灯し、他方の画像で消灯(あるいは異なる車灯を単独点灯)し、前記2画像の視程の画像認識を比較し、視程が良好な画像と同じ車灯の点灯状態に、前記車灯を点灯制御する。前記2画像の画像認識の比較方法の一例は、図7で説明する。
本発明の車灯制御装置1の実施例1は、周囲の明るさに合わせてライトの点灯/消灯を自動的に行う従来技術であるオートライト機能を備えているものとして説明する。
前記オートライト機能により分離された、一方のモードである昼間モードの情報処理ルーチンが図1であり、他方のモードである夜間モードの情報処理ルーチンが図2である。
図1に示すように昼間モードの情報処理ルーチンでは、霧等の視程障害に対するフォグランプ22の点灯制御を視程障害による作動モードに従って行い、前記視程障害による作動モードの一例は、図9で説明する。
実施例1の車灯制御装置1の構成概念は、図3に示すように、出力手段である車灯、入力手段である外部環境センサ4と運転状況センサ5、制御装置である車灯ECU3で構成される。
前記実施例1の車灯制御装置1の、夜間霧中発進時の作動タイムチャートを図4で、夜間霧遭遇時の作動タイムチャートを図5で説明する。
図5の作動タイムチャートに示す、判定域f(D1f、D2f)のヘッドライトとフォグランプ22の車灯照射域を図6で説明し、前記判定域f(D1f、D2f)の画像認識比較方法の一例を図7で説明する。
前記図4のヘッドライト21点灯時の各判定域(D1a、D1b)の、一般的な霧の有無による照射範囲の変化は、フォグランプ22を追加点灯した事例である図10で説明する。
以下の説明において、ヘッドライト21は、走行状況や道路の形状などに応じて自動で前照灯の照度分布を制御する曲線道路用配光可変型前照灯でもよく、フォグランプ22はフォグランプ22に連動するバックフォグ(後部霧灯)を備えていてもよい。
The contents and examples of the vehicle light control device 1 of the present invention will be described below with reference to the drawings (FIGS. 1 to 10).
The vehicle light control device 1 of the present invention uses the vehicle light ECU 3 to continuously (or close) two images of the vehicle light lighting control captured by the vehicle-mounted camera 41 which is an external environment sensor. The image of the car is turned on, the other image is turned off (or different car lights are turned on independently), the image recognition of the two images is compared, and the same car light as the image with good visibility is turned on. Control the lighting of the light. An example of the image recognition comparison method of the two images will be described with reference to FIG. 7.
The first embodiment of the vehicle light control device 1 of the present invention will be described as having an auto light function which is a conventional technique for automatically turning on / off a light according to the ambient brightness.
The information processing routine in the daytime mode, which is one mode, separated by the auto light function is shown in FIG. 1, and the information processing routine in the nighttime mode, which is the other mode, is shown in FIG.
As shown in FIG. 1, in the information processing routine of the daytime mode, the lighting control of the fog lamp 22 for the visibility disorder such as fog is performed according to the operation mode due to the visibility disorder, and an example of the operation mode due to the visibility disorder will be described with reference to FIG.
As shown in FIG. 3, the construct of the vehicle light control device 1 of the first embodiment is a vehicle light as an output means, an external environment sensor 4 and an operation status sensor 5 as an input means, and a vehicle light ECU 3 as a control device. It is composed.
The operation time chart of the vehicle light control device 1 of the first embodiment when starting in the night fog will be described with reference to FIG. 4, and the operation time chart at the time of encountering the night fog will be described with reference to FIG.
The headlights in the determination area f (D1f, D2f) and the vehicle light irradiation area of the fog lamp 22 shown in the operation time chart of FIG. 5 will be described with reference to FIG. An example will be described with reference to FIG.
The change in the irradiation range of each determination area (D1a, D1b) when the headlight 21 of FIG. 4 is turned on depending on the presence or absence of general fog will be described with reference to FIG. 10, which is an example in which the fog lamp 22 is additionally turned on.
In the following description, the headlight 21 may be a curved road light distribution variable headlight that automatically controls the illuminance distribution of the headlight according to the driving situation, the shape of the road, etc., and the fog lamp 22 is the fog lamp 22. It may be equipped with an interlocking back fog (rear fog light).

図1は本発明の車灯制御装置1の実施例1の昼間の情報処理ルーチンで、車灯ECU3により車灯(フォグランプ22)を点灯制御する。
具体的には、車載カメラ41でフォグランプ22の点灯状態と消灯状態の2画像を撮像し、前記2画像の画像認識にて視程を判定し、視程が改善する画像の点灯状態に車灯であるフォグランプ22を点灯制御する本発明の車灯制御装置1の情報処理ルーチンを、フローチャート(図1)に従って説明する。
まず、車灯ECU3は、外部環境センサ4である照度センサ44にて周囲の明るさを測定し、昼間(H)または夜間(L)の制御モードを判断する(ステップS010)。
ここで、照度センサ44の出力信号がLの場合は夜間モードと判断し、図2に示す夜間の制御モードの情報処理ルーチンを実行する(ステップS400)。
一方、照度センサ44の出力信号がHの場合は昼間モードと判断し、車灯ECU3はフォグランプ22が点灯しているかを判断する(ステップS020)。
ここで、フォグランプ22が点灯していないと判断した場合は、(ステップS080)を実行する。
一方、車灯ECU3はフォグランプ22が点灯していると判断した場合は、図9に示す視程障害等の外部環境や走行状態により、適時、車載カメラ41での撮像のための所定時間、フォグランプ22を消灯する(ステップS030)。
次に、フォグランプ22の点灯時と消灯時の車載カメラ41画像の視程の画像認識を判定する(ステップS040)。
具体的には、図3に示すように車灯ECU3の駆動部37がフォグランプ22の切換素子H25を制御し、車載カメラ41でフォグランプ22の点灯時と消灯時の画像を撮像する。
この場合、フォグランプ22がLEDのように応答性が高い車灯の場合は、車灯ECU3が車載カメラ41をソフトトリガやハードトリガや電源信号で同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと車灯点灯タイミングを同期して点灯画像と消灯画像を連続する2画像にて撮像できる。
このフローチャート(図1)は昼間モードであるので、フォグランプ22の点灯と消灯の2画像であるが、夜間モードのフローチャート(図2)の場合は、図4、図5の作動タイムチャートに示すように、ヘッドライト21とフォグランプ22を交互に点灯する2画像を前記同期により、連続する判定域画像として撮像できる。
FIG. 1 is a daytime information processing routine of the first embodiment of the vehicle light control device 1 of the present invention, in which the vehicle light (fog lamp 22) is turned on and controlled by the vehicle light ECU 3.
Specifically, the vehicle-mounted camera 41 captures two images of the fog lamp 22 in the lit state and the fog lamp 22 in the off state, the visibility is determined by the image recognition of the two images, and the vehicle light is in the lit state of the image in which the visibility is improved. The information processing routine of the vehicle light control device 1 of the present invention for controlling the lighting of the fog lamp 22 will be described with reference to the flowchart (FIG. 1).
First, the vehicle light ECU 3 measures the ambient brightness with the illuminance sensor 44, which is the external environment sensor 4, and determines the control mode during the daytime (H) or nighttime (L) (step S010).
Here, when the output signal of the illuminance sensor 44 is L, it is determined that the mode is nighttime, and the information processing routine of the nighttime control mode shown in FIG. 2 is executed (step S400).
On the other hand, when the output signal of the illuminance sensor 44 is H, it is determined that the mode is daytime, and the vehicle light ECU 3 determines whether the fog lamp 22 is lit (step S020).
Here, if it is determined that the fog lamp 22 is not lit, (step S080) is executed.
On the other hand, when the vehicle light ECU 3 determines that the fog lamp 22 is lit, the fog lamp 22 is timely for a predetermined time for imaging by the in-vehicle camera 41 depending on the external environment such as the visibility obstacle shown in FIG. 9 and the driving condition. Turns off (step S030).
Next, the image recognition of the visibility of the image of the vehicle-mounted camera 41 when the fog lamp 22 is turned on and off is determined (step S040).
Specifically, as shown in FIG. 3, the drive unit 37 of the vehicle light ECU 3 controls the switching element H25 of the fog lamp 22, and the in-vehicle camera 41 captures images when the fog lamp 22 is on and off.
In this case, when the fog lamp 22 is a highly responsive vehicle light such as an LED, the vehicle light ECU 3 synchronizes the vehicle-mounted camera 41 with a soft trigger, a hard trigger, or a power supply signal, or by a frame timing signal of the vehicle-mounted camera 41. It is possible to capture a lighting image and a turning-off image in two consecutive images in synchronization with the imaging timing and the vehicle light lighting timing.
Since this flowchart (FIG. 1) is in the daytime mode, there are two images of turning on and off the fog lamp 22, but in the case of the flowchart in the nighttime mode (FIG. 2), as shown in the operation time charts of FIGS. 4 and 5. In addition, two images in which the headlights 21 and the fog lamps 22 are alternately turned on can be captured as continuous determination area images by the synchronization.

次に、車灯ECU3は前記フォグランプ22の点灯時と消灯時の車載カメラ41画像の視程の画像認識を比較する(ステップS050)。
具体的には、車載カメラ41画像の画像認識にて、点灯時と消灯時のどちらの視程が長いかを判定する。この判定方法は、夜間モードの一例ではあるが、ヘッドライト21とフォグランプ22の比較事例(図6、図7)で説明する。
ここで、フォグランプ22の点灯画像の像認識が消灯画像より視程が改善していれば、フォグランプ22の点灯を継続してRETURNにて本処理ルーチンのSTARTに戻る。
一方、フォグランプ22の点灯画像の像認識が消灯画像より改善していなければ、この判定ステップの処理が連続何回であるかをカウントし、連続処理回数が設定値に達しているかを判定する(ステップS060)。
これは、安全のためにフォグランプ22の点灯は早く、消灯は複数回の画像認識により確実に消灯状態になっているのを確認し、不安定な状況ではフェイルセーフ側の点灯を優先する。
具体的には、外部環境センサ4である車載カメラ41、照度センサ44、温湿度計47と、前記運転状況センサ5である運転モード51、車速センサ53、ワイパーモード55、により視程障害モード等を想定し、前記車灯を変化する外部環境や運転状況に対応して、タイミングよく点灯制御するために、前記連続処理回数を車灯ECU3が設定する。
ここで、処理回数が 設定値に達していない場合は、(ステップS030)に戻る。
一方、処理回数が 設定値に達した場合は、フォグランプ22を消灯し、RETURNにて、本処理ルーチンのSTARTに戻る(ステップS070)。
次に、前記走行状態等により、適時、所定時間、フォグランプ22を点灯する(ステップS080)。
次に、フォグランプ22の消灯時と点灯時の車載カメラ41画像の視程の画像認識の判定を行う(ステップS090)。
具体的には、前記(ステップS080)と(ステップS090)は、フォグランプ22の(点灯)と(消灯)の状態が入れ換わっているが、作用は、前記(ステップS030)と(ステップS040)と同じであるので、説明を省略する。
次に、車灯ECU3は前記フォグランプ22の点灯時と消灯時の車載カメラ41画像の画像認識を比較する(ステップS100)。
具体的には、車載カメラ41画像の画像認識にて、前記(ステップS050)と同様に、点灯時と消灯時のどちらの視程が長く改善しているかを判定する。
ここで、フォグランプ22の点灯画像の像認識が消灯画像より改善していなければ、RETURNにて本処理ルーチンのSTARTに戻る。
一方、フォグランプ22の点灯画像の像認識が消灯画像より改善していれば、フォグランプ22を点灯(ステップS110)した後、RETURNにて本処理ルーチンのSTARTに戻る。
図1に示すフローチャートは、自動車の運転中に車灯制御装置1にて繰り返し実行される。
Next, the vehicle light ECU 3 compares the image recognition of the visibility of the vehicle-mounted camera 41 image when the fog lamp 22 is turned on and off (step S050).
Specifically, in the image recognition of the image of the vehicle-mounted camera 41, it is determined which visibility is longer when the vehicle is on or off. Although this determination method is an example of the night mode, it will be described in a comparative example of the headlight 21 and the fog lamp 22 (FIGS. 6 and 7).
Here, if the image recognition of the lighting image of the fog lamp 22 is improved from the extinguished image, the fog lamp 22 is continuously lit and the RETURN returns to the START of this processing routine.
On the other hand, if the image recognition of the lit image of the fog lamp 22 is not improved from the turned-off image, the number of continuous processes in this determination step is counted, and it is determined whether the number of continuous processes reaches the set value (). Step S060).
This confirms that the fog lamp 22 is turned on quickly for safety, and that the fog lamp 22 is surely turned off by a plurality of image recognitions, and in an unstable situation, priority is given to turning on the fail-safe side.
Specifically, the vehicle-mounted camera 41, the illuminance sensor 44, the thermo-hygrometer 47, which is the external environment sensor 4, and the operation mode 51, the vehicle speed sensor 53, and the wiper mode 55, which are the operation status sensors 5, are used to set the visibility obstruction mode and the like. Assuming, the vehicle light ECU 3 sets the number of continuous processes in order to control the lighting of the vehicle light in a timely manner in accordance with the changing external environment and driving conditions.
Here, if the number of processes has not reached the set value, the process returns to (step S030).
On the other hand, when the number of processes reaches the set value, the fog lamp 22 is turned off, and the RETURN returns to the START of the present process routine (step S070).
Next, the fog lamp 22 is turned on for a predetermined time in a timely manner depending on the traveling state or the like (step S080).
Next, the image recognition of the visibility of the image of the vehicle-mounted camera 41 when the fog lamp 22 is turned off and turned on is determined (step S090).
Specifically, in the above (step S080) and (step S090), the (lighting) and (extinguishing) states of the fog lamp 22 are exchanged, but the action is the same as the above (step S030) and (step S040). Since they are the same, the description thereof will be omitted.
Next, the vehicle light ECU 3 compares the image recognition of the image of the vehicle-mounted camera 41 when the fog lamp 22 is turned on and off (step S100).
Specifically, in the image recognition of the image of the vehicle-mounted camera 41, it is determined which of the lighting and extinguishing visibility is improved for a long time, as in the above (step S050).
Here, if the image recognition of the turned-on image of the fog lamp 22 is not improved from the turned-off image, RETURN returns to START of this processing routine.
On the other hand, if the image recognition of the turned-on image of the fog lamp 22 is improved from the turned-off image, the fog lamp 22 is turned on (step S110), and then the RETURN returns to the START of this processing routine.
The flowchart shown in FIG. 1 is repeatedly executed by the vehicle light control device 1 while driving the vehicle.

図2は、前記実施例1の夜間の情報処理ルーチンを示すフローチャートで、車灯ECU3により対向車、前走車の有無を判断してヘッドライト21のハイビームとロービームを切換え、車載カメラ41で前記ヘッドライト21とフォグランプ22を点灯制御して交互に単独点灯した2画像を撮像し、前記2画像の画像認識にて視程を判定し、視程が改善する画像の点灯状態に車灯の点灯制御を行う。前記情報処理ルーチンを、フローチャート(図2)に従って説明する。
まず、車灯ECU3は、車載カメラ41の画像認識により、自車10に対する対向車、前走車の有無を判断する(ステップS410)。
ここで、対向車または前走車があると判断した場合は、フォグランプ22を消灯し、ヘッドライト21のロービームを点灯する(ステップS470)。
一方、対向車と前走車がないと判断した場合は、フォグランプ22を消灯し、ヘッドライト21のハイビームを点灯する(ステップS420)。
次に、図9に示す視程障害等の外部環境や走行状態により、適時、車載カメラ41での撮像のための所定時間、フォグランプ22の点灯とヘッドライト21消灯を行う(ステップS430)。
具体的には、図3に示すように車灯ECU3の駆動部37が、フォグランプ22の切換素子H25とヘッドライト21の切換素子H24を制御し、車載カメラ41で単独点灯するハイビームの点灯画像とフォグランプ22の点灯画像を撮像する。
この場合、車灯であるヘッドライト21とフォグランプ22がLEDのように応答性が高い車灯では、車灯ECU3と車載カメラ41を、ソフトトリガやハードトリガで同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと点灯タイミングを同期して連続する2画像に撮像できる。
従って、図4、図5の作動タイムチャートに示すように、ヘッドライト21とフォグランプ22を交互に独立点灯する2画像を、車載カメラ41によって連続する判定域画像として撮像できる。
次に、車灯ECU3はヘッドライト21とフォグランプ22を交互に独立点灯する前記車載カメラ41画像(2画像)の視程の画像認識を判定する(ステップS440)。
具体的には、ヘッドライト21とフォグランプ22がLEDで応答性が高い車灯で、車灯ECU3と車載カメラ41をソフトトリガやハードトリガで同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと車灯点灯タイミングを同期してハイビームとフォグランプ22の各々の単独点灯画像を連続する2画像にて撮像できる。
例えば、図4、図5の夜間モードの作動タイムチャートに示すように、車載カメラ41にてヘッドライト21とフォグランプ22を交互に単独点灯し、連続する2画像を各判定域画像として撮像できる。
前記車載カメラ41画像(2画像)の視程の画像認識は、具体的には、ハイビーム点灯時とフォグランプ22点灯時のどちらの視程が長いかを判定する。この判定方法の一例は、夜間モードでの、ヘッドライト21とフォグランプ22の比較事例(図6、図7)で説明する。
FIG. 2 is a flowchart showing the nighttime information processing routine of the first embodiment, in which the presence or absence of an oncoming vehicle and a vehicle in front is determined by the vehicle light ECU 3 to switch between the high beam and the low beam of the headlight 21, and the vehicle-mounted camera 41 is used to display the above. The headlight 21 and the fog lamp 22 are turned on and controlled to capture two images that are alternately lit independently, the visibility is determined by the image recognition of the two images, and the lighting control of the car light is performed to the lighting state of the image that improves the visibility. conduct. The information processing routine will be described with reference to a flowchart (FIG. 2).
First, the vehicle light ECU 3 determines whether or not there is an oncoming vehicle or a vehicle in front of the own vehicle 10 by image recognition of the vehicle-mounted camera 41 (step S410).
Here, if it is determined that there is an oncoming vehicle or a vehicle in front, the fog lamp 22 is turned off and the low beam of the headlight 21 is turned on (step S470).
On the other hand, when it is determined that there are no oncoming vehicle and no vehicle in front, the fog lamp 22 is turned off and the high beam of the headlight 21 is turned on (step S420).
Next, the fog lamp 22 is turned on and the headlight 21 is turned off for a predetermined time for imaging by the vehicle-mounted camera 41 in a timely manner depending on the external environment such as the visibility obstacle shown in FIG. 9 and the running condition (step S430).
Specifically, as shown in FIG. 3, the drive unit 37 of the vehicle light ECU 3 controls the switching element H25 of the fog lamp 22 and the switching element H24 of the headlight 21, and the lighting image of the high beam that is independently lit by the in-vehicle camera 41. The lighting image of the fog lamp 22 is captured.
In this case, in a vehicle light in which the headlight 21 and the fog lamp 22 which are vehicle lights have high responsiveness such as LEDs, the vehicle light ECU 3 and the vehicle-mounted camera 41 are synchronized by a soft trigger or a hard trigger, or the frame of the vehicle-mounted camera 41 is used. With the timing signal, it is possible to image two consecutive images in synchronization with the imaging timing and the lighting timing.
Therefore, as shown in the operation time charts of FIGS. 4 and 5, two images in which the headlight 21 and the fog lamp 22 are alternately and independently lit can be captured as continuous determination area images by the in-vehicle camera 41.
Next, the vehicle light ECU 3 determines the image recognition of the visibility of the vehicle-mounted camera 41 image (2 images) in which the headlight 21 and the fog lamp 22 are alternately and independently turned on (step S440).
Specifically, the headlight 21 and the fog lamp 22 are LED and highly responsive vehicle lights, and the vehicle light ECU 3 and the vehicle-mounted camera 41 are synchronized by a soft trigger or a hard trigger, or images are taken by the frame timing signal of the vehicle-mounted camera 41. The timing and the lighting timing of the car lights can be synchronized, and the single lighting images of the high beam and the fog lamp 22 can be captured by two consecutive images.
For example, as shown in the operation time charts of the night mode in FIGS. 4 and 5, the headlight 21 and the fog lamp 22 are alternately turned on independently by the vehicle-mounted camera 41, and two consecutive images can be captured as each determination area image.
The image recognition of the visibility of the vehicle-mounted camera 41 images (2 images) specifically determines which visibility is longer when the high beam is lit or when the fog lamp 22 is lit. An example of this determination method will be described with reference to comparative examples (FIGS. 6 and 7) of the headlight 21 and the fog lamp 22 in the night mode.

次に、車灯ECU3は前記車載カメラ41画像の単独点灯するハイビーム点灯画像とフォグランプ22点灯画像の視程の画像認識を比較する(ステップS450)。
ここで、フォグランプ22点灯画像の視程がハイビーム点灯画像より改善していなければ、ハイビームを点灯してフォグランプ22を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS460)。
一方、フォグランプ22の点灯画像の像認識の視程がハイビームの点灯画像より改善していれば、フォグランプ22を消灯し、ロービームを点灯する(ステップS470)。
次に、図9に示す視程障害等の外部環境や走行状態により、適時、所定時間、フォグランプ22の点灯、ヘッドライト21の消灯を行う(ステップS480)。
具体的には、図3に示すように車灯ECU3の駆動部37がフォグランプ22の切換素子H25とヘッドライト21の切換素子H24を制御し、車載カメラ41で単独点灯するロービームの点灯画像とフォグランプ22の点灯画像を撮像する。
車灯ECU3と車載カメラ41を同期させる等の説明は、(ステップS430)と同じであるので省略する。
次に、前記車載カメラ41画像の単独点灯するロービーム点灯画像とフォグランプ22点灯画像の視程の画像認識の判定を行う(ステップS490)。
この視程の画像認識の判定方法等の説明は、(ステップS440)と同じなので説明を省略する。
次に、車灯ECU3は車載カメラ41画像の単独点灯するロービーム点灯画像とフォグランプ22点灯画像の視程の画像認識を比較する(ステップS500)。
ここで、フォグランプ22点灯画像の視程の画像認識がロービーム点灯画像の視程の画像認識より改善していれば、ロービームを点灯し、フォグランプ22を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS510)。
一方、フォグランプ22点灯画像の視程の画像認識がロービーム点灯画像の視程の画像認識より改善していなければ、フォグランプ22を点灯し、ヘッドライト21を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS520)。
図2に示すフローチャートは、自動車の運転中に車灯制御装置1にて図1に示す情報処理ルーチンの夜間用のサブルーチンとして繰り返し実行される。
Next, the vehicle light ECU 3 compares the image recognition of the visibility of the high beam lighting image of the vehicle-mounted camera 41 image and the fog lamp 22 lighting image (step S450).
Here, if the visibility of the fog lamp 22 lighting image is not improved from that of the high beam lighting image, the high beam is turned on, the fog lamp 22 is turned off, the process proceeds to 2 in FIG. 1, and the process returns to START via RETURN (step S460).
On the other hand, if the visibility of image recognition of the lighting image of the fog lamp 22 is improved from that of the lighting image of the high beam, the fog lamp 22 is turned off and the low beam is turned on (step S470).
Next, the fog lamp 22 is turned on and the headlight 21 is turned off for a predetermined time in a timely manner depending on the external environment such as the visibility obstacle shown in FIG. 9 and the running condition (step S480).
Specifically, as shown in FIG. 3, the drive unit 37 of the vehicle light ECU 3 controls the switching element H25 of the fog lamp 22 and the switching element H24 of the headlight 21, and the low beam lighting image and the fog lamp that are independently lit by the in-vehicle camera 41. 22 lighting images are taken.
The description of synchronizing the vehicle light ECU 3 and the vehicle-mounted camera 41 is the same as in (step S430), and thus the description thereof will be omitted.
Next, the image recognition of the visibility of the low beam lighting image of the vehicle-mounted camera 41 image and the fog lamp 22 lighting image is determined (step S490).
Since the description of the method for determining the image recognition of the visibility is the same as in (Step S440), the description thereof will be omitted.
Next, the vehicle light ECU 3 compares the image recognition of the visibility of the low beam lighting image of the vehicle-mounted camera 41 image and the fog lamp 22 lighting image (step S500).
Here, if the image recognition of the visibility of the fog lamp 22 lighting image is improved from the image recognition of the visibility of the low beam lighting image, the low beam is turned on, the fog lamp 22 is turned off, the process proceeds to 2 in FIG. Return to (step S510).
On the other hand, if the image recognition of the visibility of the fog lamp 22 lit image is not improved from the image recognition of the visibility of the low beam lit image, the fog lamp 22 is turned on, the headlight 21 is turned off, the process proceeds to 2 in FIG. Return to START (step S520).
The flowchart shown in FIG. 2 is repeatedly executed by the vehicle light control device 1 as a subroutine for nighttime of the information processing routine shown in FIG. 1 while driving a vehicle.

図3は、前記実施例1の本発明の車灯制御装置1の、構成概念を示す説明図である。
図3に示す車灯制御装置1は、出力手段である車灯2、入力手段である外部環境センサ4と運転状況センサ5、制御装置である車灯ECU3で構成される。
出力手段である車灯2は、車灯であるヘッドライト21をON/OFF制御し、更にハイビームとロービームに切換える切換素子H24と、フォグランプ22をON/OFF制御する切換素子F25と、手動切換用のスイッチH27とスイッチF28で構成されている。
ヘッドライト21は、カーブ走行で進行方向を照らす曲線道路用配光可変型前照灯であってもよく、フォグランプ22は、バックフォグ(後部霧灯)を備えることもできる。
車灯制御装置1の入力手段である外部環境センサ4は、車載カメラ41、照度センサ44、温湿度計47で構成されている。
画像認識のできる車載カメラ41は本発明には必須のセンサであり、実施例1は、従来技術であるオートライト機能を前提とするので、照度センサ44がある。
温湿度計47は、図9に示す作動モードの設定に利用でき、運転関連要素と外部環境により視程障害モードの設定に有効である。
外部環境センサ4としては、送波器から超音波を対象物に向け発信し、その反射波を受波器で受信する超音波センサ、ミリ波を利用するミリ波レーダ、レーザ光を利用するLiDAR(ライダ)等もあるが、運転者の視程改善を行う本発明の車灯制御装置1には、可視光の受光センサである車載カメラ41が重要な働きを行う。
車灯制御装置1の入力手段である運転状況センサ5は、運転モード51、車速センサ53、ワイパーモード55により運転状況の概要を把握でき、図3には記載していないがサイドブレーキ等の運転状況の情報も有用である。
前記入力センサである外部環境センサ4と運転状況センサ5により、視程障害モード等を想定し、図1の(ステップS060)のように、車灯2を変化する外部環境や運転状況に対応して、タイミングよく点灯制御する。
制御装置である車灯ECU3は、車灯2の手動切換用のスイッチH27とスイッチF28からの入力を検知する車灯判定部34、入力手段の外部環境センサ4からの入力を検知する外部環境判定部32、運転状況センサ5からの入力を検知する走行状態判定部33からの入力等により、車灯制御装置1の情報処理ルーチン(実施例1では、図1、図2)に従い情報処理を行い、出力手段である車灯2に点灯制御の出力を実施する。
FIG. 3 is an explanatory diagram showing a configuration concept of the vehicle light control device 1 of the present invention according to the first embodiment.
The vehicle light control device 1 shown in FIG. 3 is composed of a vehicle light 2 as an output means, an external environment sensor 4 and an operation status sensor 5 as an input means, and a vehicle light ECU 3 as a control device.
The vehicle light 2 as an output means has a switching element H24 that controls ON / OFF of the headlight 21 that is a vehicle light and further switches between a high beam and a low beam, a switching element F25 that controls ON / OFF of the fog lamp 22, and manual switching. It is composed of the switch H27 and the switch F28.
The headlight 21 may be a variable light distribution type headlight for a curved road that illuminates the traveling direction in a curved road, and the fog lamp 22 may be provided with a back fog (rear fog light).
The external environment sensor 4, which is an input means of the vehicle light control device 1, includes an in-vehicle camera 41, an illuminance sensor 44, and a thermo-hygrometer 47.
The vehicle-mounted camera 41 capable of image recognition is an indispensable sensor in the present invention, and the first embodiment is premised on the auto light function of the prior art, and therefore has an illuminance sensor 44.
The thermo-hygrometer 47 can be used for setting the operation mode shown in FIG. 9, and is effective for setting the visibility impairment mode depending on the operation-related elements and the external environment.
The external environment sensor 4 includes an ultrasonic sensor that transmits ultrasonic waves from a transmitter toward an object and receives the reflected waves by a receiver, a millimeter wave radar that uses millimeter waves, and LiDAR that uses laser light. Although there are (lidar) and the like, the in-vehicle camera 41, which is a light receiving sensor for visible light, plays an important role in the vehicle light control device 1 of the present invention that improves the visibility of the driver.
The driving status sensor 5, which is an input means of the vehicle light control device 1, can grasp the outline of the driving status by the driving mode 51, the vehicle speed sensor 53, and the wiper mode 55. Situational information is also useful.
With the external environment sensor 4 and the driving condition sensor 5 which are the input sensors, the visibility obstacle mode and the like are assumed, and as shown in FIG. 1 (step S060), the vehicle light 2 corresponds to the changing external environment and the driving condition. , Control lighting at the right time.
The vehicle light ECU 3, which is a control device, has a vehicle light determination unit 34 that detects input from the switch H27 and switch F28 for manual switching of the vehicle light 2, and an external environment determination that detects input from the external environment sensor 4 of the input means. Information processing is performed according to the information processing routine of the vehicle light control device 1 (FIGS. 1 and 2 in the first embodiment) by the input from the traveling state determination unit 33 that detects the input from the unit 32 and the driving status sensor 5. , The lighting control is output to the vehicle light 2 which is an output means.

図4は、前記実施例1の車灯制御装置1の、夜間霧中発進時の作動タイムチャートである。
図4の横軸は時間軸で、最上段に示すように二点鎖線の左側の霧遭遇時に発進し、二点鎖線の右側では霧が消滅している。
縦軸は図3で説明した車灯制御装置1の各構成ブロックの、出力手段である車灯2、制御装置である車灯ECU3、入力手段である外部環境センサ4と運転状況センサ5、の情報処理ルーチンに関連する各構成要素である。
外部環境センサ4の構成要素である車載カメラ41の、フレームピッチ(St)の区切り(長線)は、画面(以下、「フレーム」という。)の区切りであり、各フレームの区切り毎にフレームタイミング信号が出力される。フレームタイミング信号の出力間隔(St)は、フレームレートの逆数(秒)である。
各フレーム内の等ピッチの短線は、画像データ伝送の走査線であり、すべての走査線を一本ずつ順番に伝送するプログレッシブ方式とし、本図は、本発明の説明図であるので、走査線は実際の本数より少なく描いている。
前記車載カメラ41以外の各関連要素は、ON/OFF、または入出力信号であるH/L切換えを図示している。
ヘッドライト21は、ハイビームとロービームの切換えは説明を容易にするため省略し、制御部31(フォグ)は、各フレームでのフォグランプ22への出力信号のみを図示し、理解が容易なように判定域での出力信号を太線で記している。
図4の作動タイムチャートを、実施例1の情報処理サブルーチン(図1、図2)の各ステップに従って説明する。
FIG. 4 is an operation time chart of the vehicle light control device 1 of the first embodiment when starting in the fog at night.
The horizontal axis of FIG. 4 is the time axis, and as shown in the uppermost row, the fog starts when the fog is encountered on the left side of the two-dot chain line, and the fog disappears on the right side of the two-dot chain line.
The vertical axis represents the vehicle light 2 as an output means, the vehicle light ECU 3 as a control device, the external environment sensor 4 and the operation status sensor 5 as input means, of each constituent block of the vehicle light control device 1 described with reference to FIG. Each component related to the information processing routine.
The frame pitch (St) division (long line) of the vehicle-mounted camera 41, which is a component of the external environment sensor 4, is a division of the screen (hereinafter referred to as “frame”), and a frame timing signal is used for each frame division. Is output. The output interval (St) of the frame timing signal is the reciprocal of the frame rate (seconds).
The short lines of equal pitch in each frame are scanning lines for image data transmission, and a progressive method is used in which all the scanning lines are transmitted one by one in order. Since this figure is an explanatory diagram of the present invention, the scanning lines are used. Is drawn less than the actual number.
Each related element other than the vehicle-mounted camera 41 illustrates ON / OFF or H / L switching which is an input / output signal.
The headlight 21 omits switching between the high beam and the low beam for the sake of simplicity, and the control unit 31 (fog) illustrates only the output signal to the fog lamp 22 in each frame and determines for easy understanding. The output signal in the area is indicated by a thick line.
The operation time chart of FIG. 4 will be described according to each step of the information processing subroutine (FIGS. 1 and 2) of the first embodiment.

まず、制御の起動で情報処理サブルーチン(図1)が起動し、(S010)で照度センサ44が、夜間発進であるので出力をHからLに切換え、(S400)の夜間の情報処理サブルーチン(図2)を実行する。
説明を容易にするため、夜間の情報処理サブルーチン(図2)のハイビームとロービームの切換え(S410)以降は、ハイビームとロービームが違うだけで作動原理が同じなので、ハイビーム(S420)を選択したものとして説明する。
発進操作により図4の運転モード(P)51Pの駐車モードの出力がLに切換わると、外部環境判定部32Dの出力がHに切換わり、図示しない運転モードがLからHになる。
運転モードがHになると、車載カメラ41が作動し、制御部31の出力信号(ON)により判定域aの(D1a)のフレームでヘッドライト21が点灯する。
車載カメラ41のフレームタイミング信号により制御部31は、走行状態等により、適時、所定時間である判定域aの(D2a)のフレームで、ヘッドライト21を消灯し、フォグランプ22を点灯する(S430)。なお、夜間走行中であるので、無灯火画像は判定の対象にはならない。
各車灯の単独点灯時の車載カメラ41画像(D1a、D2a)の視程の画像認識の判定を行い(S440)、霧遭遇中なのでフォグランプ22点灯画像(D2a)の視程が改善していると判断し、制御部31の(ON)信号により、フォグランプ22を点灯(S450)する。
フォグランプ22の点灯走行中は、適時、走行状態等により決められた(N1st)の間隔で設けた判定域にて、ヘッドライト21とフォグランプ22の切換えを判断する。
判定域の前記間隔(N1st)は、入力手段である外部環境センサ4、運転状況センサ5からの入力と出力である車灯の点灯制御状態や、図9に示す作動モードにより車灯ECU3が設定する。
図4には示されていないが、霧遭遇時は、ハイビームよりロービームの視程の方が改善する場合があるので、ロービームとフォグランプ22の視程の画像認識の比較判定を行う(S470~S520)が、前記ハイビームとロービームが置き換わるだけで、比較判定方法は同じである。
前記視程改善の判断処理が遅れる場合は、タイムラグによりフォグランプ22の点灯遅れが発生する場合がある。
霧に遭遇中のフォグランプ22点灯走行から、霧が解消した複数回の判定域b(D1b、D2b)~判定域c(D1c、D2c)で視程の画像認識の判定を行い、フォグランプ22点灯画像の視程がいずれも改善していないと判断した場合、制御部31の(OFF)信号により、フォグランプ22を消灯する(S460)または(S510)。
図4の作動タイムチャートでは、判定域の各フレーム(St)全域を車灯点灯による露光フレームとデータ伝送フレームとして説明したが、図7で説明するように、車載カメラ41の撮像素子がCCDの場合は、フレームの画像判定エリアのデータ伝送時にローリングシャッタの作動により露光し、車灯の点灯時間を更に短くすることができる。
車載カメラ41の撮像素子がCMOSの場合は、フレームレートより高速に読み取る、あるいは、判定域のフレームの視程の画像認識の画像判定エリアのデータの読み取り時に車灯を点灯し、点灯時間を短くすることができる。これらの対応により、自車10および対向車の運転者等に車灯の点灯/消灯が知覚されず、車灯の点滅の弊害を少なくできる。
First, when the control is activated, the information processing subroutine (FIG. 1) is activated, and at (S010), the illuminance sensor 44 starts at night, so the output is switched from H to L. 2) is executed.
For ease of explanation, after switching between high beam and low beam (S410) in the information processing subroutine at night (Fig. 2), the operating principle is the same except for the difference between high beam and low beam, so it is assumed that high beam (S420) is selected. explain.
When the output of the parking mode of the operation mode (P) 51P of FIG. 4 is switched to L by the starting operation, the output of the external environment determination unit 32D is switched to H, and the operation mode (not shown) changes from L to H.
When the operation mode becomes H, the vehicle-mounted camera 41 is activated, and the headlight 21 is turned on in the frame of the determination area a (D1a) by the output signal (ON) of the control unit 31.
Based on the frame timing signal of the vehicle-mounted camera 41, the control unit 31 turns off the headlight 21 and turns on the fog lamp 22 in the frame (D2a) of the determination area a, which is a predetermined time in a timely manner, depending on the traveling state or the like (S430). .. Since the vehicle is running at night, no-light images are not subject to judgment.
Judgment of image recognition of the visibility of the in-vehicle camera 41 images (D1a, D2a) when each vehicle light is lit independently is performed (S440), and it is determined that the visibility of the fog lamp 22 lit image (D2a) is improved because fog is being encountered. Then, the fog lamp 22 is turned on (S450) by the (ON) signal of the control unit 31.
While the fog lamp 22 is lit and traveling, switching between the headlight 21 and the fog lamp 22 is determined in a determination area provided at intervals (N1st) determined by the traveling condition and the like in a timely manner.
The interval (N1st) in the determination area is set by the vehicle light ECU 3 according to the lighting control state of the vehicle light, which is the input and output from the external environment sensor 4 and the operation status sensor 5, which are input means, and the operation mode shown in FIG. do.
Although not shown in FIG. 4, when fog is encountered, the visibility of the low beam may be improved rather than the visibility of the high beam, so the image recognition of the visibility of the low beam and the fog lamp 22 is compared and judged (S470 to S520). The comparison determination method is the same except that the high beam and the low beam are replaced.
If the visibility improvement determination process is delayed, the fog lamp 22 may be delayed due to a time lag.
From the fog lamp 22 lighting running while encountering fog, the visibility image recognition is judged in the judgment areas b (D1b, D2b) to the judgment area c (D1c, D2c) multiple times when the fog is cleared, and the fog lamp 22 lighting image is determined. When it is determined that the visibility is not improved, the fog lamp 22 is turned off (S460) or (S510) by the (OFF) signal of the control unit 31.
In the operation time chart of FIG. 4, the entire area of each frame (St) in the determination area is described as an exposure frame by lighting the vehicle light and a data transmission frame, but as described in FIG. 7, the image sensor of the in-vehicle camera 41 is a CCD. In this case, exposure can be achieved by operating the rolling shutter during data transmission in the image determination area of the frame, and the lighting time of the vehicle light can be further shortened.
When the image sensor of the in-vehicle camera 41 is CMOS, the vehicle light is turned on when reading the data at a speed higher than the frame rate, or when reading the data in the image recognition area of the image recognition of the visibility of the frame in the judgment area, and the lighting time is shortened. be able to. With these measures, the on / off of the vehicle light is not perceived by the driver of the own vehicle 10 and the oncoming vehicle, and the harmful effect of the blinking of the vehicle light can be reduced.

図5は、前記実施例1の車灯制御装置1の、夜間霧遭遇時の作動タイムチャートである。
図の縦軸、横軸および表記等は前記夜間霧中発進時の図4と同じであるので説明を省略する。
図5は夜間発進して霧に遭遇する場合の作動タイムチャートであり、夜間発進の起動から最初の判定域d(D1d、D2d)までの情報処理サブルーチンは図4と同じであるので説明を省略する。図5は霧中ではないので、前記判定域d(D1d、D2d)の判定結果は、フォグランプ22を消灯し、ヘッドライト21を点灯し、以降のヘッドライト21の点灯走行中は、適時、走行状態等により決められた(N2st)の間隔で判定域にてヘッドライト21とフォグランプ22の切換えを判断する。
判定域の前記間隔(N2st)は、入力手段である外部環境センサ4、運転状況センサ5からの入力と出力である車灯の点灯制御状態や、図9に示す作動モードにより車灯ECU3が設定する。
霧に遭遇して最初の判定域f(D1f、D2f)にて、ヘッドライト21(D1f)とフォグランプ22(D2f)の各車灯単独点灯時の画像の視程の画像認識の判定を行い、制御部31はフォグランプ22の点灯信号を出す。
前記判定域f(D1f、D2f)の拡大図に示すように、画像データの時間軸方向の(Dh)、走査線方向の(Dw)で囲まれたデータの視程の画像認識を判定して比較し、詳細は、図6、図7にて説明する。
FIG. 5 is an operation time chart of the vehicle light control device 1 of the first embodiment when a night fog is encountered.
Since the vertical axis, the horizontal axis, the notation, etc. of the figure are the same as those of FIG. 4 when starting in the night fog, the description thereof will be omitted.
FIG. 5 is an operation time chart when the vehicle starts at night and encounters fog, and the information processing subroutine from the start of the night start to the first judgment area d (D1d, D2d) is the same as in FIG. 4, so the description is omitted. do. Since FIG. 5 is not in the fog, the determination result of the determination area d (D1d, D2d) is that the fog lamp 22 is turned off, the headlight 21 is turned on, and the headlight 21 is turned on in a timely manner during the subsequent running state. The switching between the headlight 21 and the fog lamp 22 is determined in the determination area at intervals of (N2st) determined by the above.
The interval (N2st) in the determination area is set by the vehicle light ECU 3 according to the lighting control state of the vehicle light, which is the input and output from the external environment sensor 4 and the operation status sensor 5, which are input means, and the operation mode shown in FIG. do.
In the first determination area f (D1f, D2f) after encountering fog, the image recognition of the image visibility when the headlights 21 (D1f) and the fog lamps 22 (D2f) are individually lit is determined and controlled. The unit 31 outputs a lighting signal of the fog lamp 22.
As shown in the enlarged view of the determination area f (D1f, D2f), the image recognition of the visibility of the data surrounded by (Dh) in the time axis direction and (Dw) in the scanning line direction of the image data is determined and compared. The details will be described with reference to FIGS. 6 and 7.

図6は、前記図5の判定域f(D1f、D2f)の、請求項2対応のヘッドライト21とフォグランプ22の車灯照射域の説明図である。
前記図5における、霧に遭遇して最初の判定域f(D1f、D2f)の、ヘッドライト21が単独点灯する判定域(D1f)では、図6上図(1)の側面図と平面図に示すように、悪天候時でなければ照射域が長いヘッドライト21も、霧の水の粒に散乱して遮られ照射距離が短くなる。
一方、フォグランプ22が単独点灯する判定域(D2f)では、図6下図(2)の側面図と平面図に示すように、ヘッドライト21より照射幅が広いが照射位置が低いが、請求項2対応により、フォグランプ22の波長がヘッドライト21の波長より長いので、霧の水の粒に散乱しにくいので、それを通りぬけてより遠くまで届いて霧中透過性が高く、ヘッドライト21より照射距離の短縮が小さい。
従って、図6に示すように、霧に遭遇した場合は、通常照射距離が長いヘッドライト21より、霧中透過性が高いフォグランプ22の照射距離の方が長くなる場合が多いが、霧の濃度等により、どちらの車灯の視認性が良いかは悪天候の状況等により異なる。
従って、本発明の車灯制御装置1により、霧に遭遇して最初の判定域f(D1f、D2f)の視程を画像認識により比較し、最良の車灯を点灯することにより、遭遇する悪天候の状況に対応し、最良の視程を提供できる。
FIG. 6 is an explanatory diagram of the vehicle light irradiation area of the headlight 21 and the fog lamp 22 corresponding to claim 2 in the determination area f (D1f, D2f) of FIG.
In the determination area (D1f) in which the headlight 21 is independently lit in the first determination area f (D1f, D2f) when the fog is encountered in FIG. 5, the side view and the plan view of FIG. As shown, the headlight 21 having a long irradiation range unless the weather is bad is also scattered by the particles of foggy water and blocked, so that the irradiation distance is shortened.
On the other hand, in the determination area (D2f) in which the fog lamp 22 is independently lit, the irradiation width is wider than that of the headlight 21 but the irradiation position is lower, as shown in the side view and the plan view of FIG. As a result, the wavelength of the fog lamp 22 is longer than that of the headlight 21, so it is less likely to be scattered by the particles of fog water. The shortening of is small.
Therefore, as shown in FIG. 6, when fog is encountered, the irradiation distance of the fog lamp 22 having high transparency in the fog is often longer than that of the headlight 21 which normally has a long irradiation distance. Which car light has better visibility depends on bad weather conditions and the like.
Therefore, the vehicle light control device 1 of the present invention compares the visibility of the first determination area f (D1f, D2f) by image recognition when encountering fog, and by turning on the best vehicle light, the encounter of bad weather It can respond to the situation and provide the best visibility.

図7は、前記図5の判定域f(D1f、D2f)の、画像認識比較方法の一例を示す説明図である。
図7は、前記図5の、霧に遭遇して最初の判定域f(D1f、D2f)の、車載カメラ41の画像データである。図7上図(H)は、ヘッドライト21が単独点灯する前記判定域(D1f)、図7下図(F)は、フォグランプ22が単独点灯する前記判定域(D2f)の車載カメラ41の画像データである。
前記図6の上図(1)の側面図と平面図に示すように、ヘッドライト21が単独点灯する判定域(D1f)の図7の上図(H)の画像データより、前記図6の下図(2)の側面図と平面図に示すように、フォグランプ22が単独点灯する判定域(D2f)の図7の下図(F)の画像データの視程が長いのが分かる。
前記視程を車灯ECU3で判断するために、図7の上図(H)と、下図(F)に、同じ座標位置で、幅(Dw)、高さ(Dh)の二点鎖線(太線)で囲まれた画像判定エリアを設定する。
前記画像判定エリアは、各車灯の照射範囲を重点に設定するため、フレーム上部から(B)、フレーム側面から(A)離れた位置に設定し、車速等の運転状況や、道路の形状等により画像判定エリアを拡大/縮小、あるいは上下左右に位置修正をすることもできる。
前記図5の判定域f(D1f、D2f)の車載カメラ41のデータ伝送は、図7の上図(H)と、下図(F)の左端より、長さ(Hs)の走査線をデータ伝送し、走査線はフレーム上端から下端まで一本ずつ順番に伝送するプログレッシブ方式とする。
車灯制御装置1の車灯ECU3が視程を判断するには、図7の前記画像判定エリアの、道路、人、車、道路標識等の画像認識は、道路が設けられている地形の二次元データに近い道路の画像認識を優先して判定する。
図7の上図と下図の前記画像判定エリアに存在する二つの認識率を設定し、高い方の認識率の画像(一点鎖線)の画像判定エリア下端からの高さ(R1H)(R2H)と、低い方の認識率の画像(破線)の画像判定エリア下端からの高さ(R1L)(R2L)を算出する。
図7上図(H)と図7下図(F)で、高い方の認識率の画像(一点鎖線)の前記画像判定エリア上の高さ(R1H)(R2H)を比較し、次に、低い方の認識率の画像(一点鎖線)の前記画像判定エリア上の高さ(R1L)(R2L)を比較し、前記画像判定エリア上の高さが高い,図7下図(F)の画像データの視程が良好であると判定する。
仮に、高い方の認識率と低い方の認識率の視程の判定が一致しない場合は、優先する認識率の視程が良好であると判定する、車灯を変更せず今回は判定を留保する、または、運転関連要素と視程障害による作動モード等を考慮して判定する。
前記画像認識による視程の判定方法とは異なる方法として、2台(1台は車載カメラ41)のカメラにより人間の目と同様に視差画像を生成して距離の簡易測定ができるステレオカメラの距離機能により、設定した認識率(閾値)の画像の視程を簡易測定して比較判断する。道路の画像認識が困難な場合等に、有効である。
FIG. 7 is an explanatory diagram showing an example of an image recognition comparison method in the determination area f (D1f, D2f) of FIG.
FIG. 7 is image data of the vehicle-mounted camera 41 in the determination area f (D1f, D2f) first when the fog is encountered in FIG. The upper figure (H) of FIG. 7 is the image data of the determination area (D1f) in which the headlight 21 is independently lit, and the lower figure (F) of FIG. 7 is the image data of the vehicle-mounted camera 41 in the determination area (D2f) in which the fog lamp 22 is independently lit. Is.
As shown in the side view and the plan view of the upper figure (1) of FIG. 6, the image data of the upper figure (H) of FIG. As shown in the side view and the plan view of the lower figure (2), it can be seen that the visibility of the image data in the lower figure (F) of FIG. 7 in the determination area (D2f) in which the fog lamp 22 is independently lit is long.
In order to determine the visibility with the vehicle light ECU 3, the two-dot chain line (thick line) of width (Dw) and height (Dh) at the same coordinate position in the upper figure (H) and the lower figure (F) of FIG. Set the image judgment area surrounded by.
In order to set the irradiation range of each vehicle light as important, the image determination area is set at a position (B) away from the upper part of the frame and (A) away from the side surface of the frame, and the driving condition such as vehicle speed and the shape of the road are set. It is also possible to enlarge / reduce the image determination area or correct the position up / down / left / right.
In the data transmission of the vehicle-mounted camera 41 in the determination area f (D1f, D2f) of FIG. 5, the scanning line of the length (Hs) is transmitted from the left end of the upper figure (H) and the lower figure (F) of FIG. However, the scanning lines are progressively transmitted one by one from the upper end to the lower end of the frame.
In order for the vehicle light ECU 3 of the vehicle light control device 1 to determine the visibility, image recognition of roads, people, cars, road signs, etc. in the image determination area of FIG. 7 is performed in two dimensions of the terrain on which the road is provided. Priority is given to image recognition of roads close to the data.
Two recognition rates existing in the image judgment areas in the upper and lower figures of FIG. 7 are set, and the height (R1H) (R2H) from the lower end of the image judgment area of the image (dashed-dotted line) having the higher recognition rate. , The height (R1L) (R2L) from the lower end of the image determination area of the image (broken line) having the lower recognition rate is calculated.
In the upper figure (H) of FIG. 7 and the lower figure (F) of FIG. 7, the heights (R1H) (R2H) on the image determination area of the image (dashed-dotted line) having the higher recognition rate are compared, and then the lower one. The height (R1L) (R2L) on the image determination area of the image (dashed-dotted line) of the recognition rate is compared, and the height on the image determination area is high. Judge that the visibility is good.
If the visibility of the higher recognition rate and the visibility of the lower recognition rate do not match, it is judged that the visibility of the priority recognition rate is good, the judgment is reserved this time without changing the vehicle light. Alternatively, the determination is made in consideration of driving-related factors and the operation mode due to visibility impairment.
As a method different from the method of determining visibility by image recognition, the distance function of a stereo camera capable of generating a difference image in the same manner as the human eye by two cameras (one is an in-vehicle camera 41) and simply measuring the distance. The visibility of the image with the set recognition rate (threshold) is simply measured and compared. This is effective when it is difficult to recognize the image of the road.

図8は、請求項3対応の、車載カメラ41の撮像素子(CCD、CMOS)による車灯点灯時間短縮の説明図(タイミングチャート)である。
図8は、夕方の霧遭遇時等の判定域gの2フレームで、一方のフレームはヘッドライト21、他方のフレームはフォグランプ22を単独点灯する作動タイムチャートで、上図(D)は車載カメラ41dの撮像素子がCCD、下図(M)は車載カメラ41mの撮像素子がCMOSである。
外部環境センサ4の構成要素である車載カメラ41d(m)は、フレームピッチ(St)の区切り(長線)毎に、車灯ECU3にフレームタイミング信号が出力され、車灯ECU3はそれらの入出力情報と各フレームの画像データ伝送タイミングおよび、その中の画像判定エリアの画像データ伝送タイミング(Dh1)等を基に、車灯2であるヘッドライト21とフォグランプ22にON/OFFの出力信号を出力する。
各フレーム内の等ピッチの短線は、画像データ伝送の走査線であり、すべての走査線を一本ずつ順番に伝送するプログレッシブ方式とし、本図は、本発明の請求項3対応の説明図であるので、走査線は実際の本数より少なく描いている。
車載カメラ41(d、m)は、説明のために仮にフレームピッチ(St)の70%の時間で画像データを伝送するものとし、撮像素子が(CCD)の車載カメラ41dは、フレームピッチ(St)の後半に、撮像素子が(CMOS)の車載カメラ41mは、フレームピッチ(St)の前半に前記画像データの伝送を行う。
画像データの画像判定エリアは、前記図7と同じ比率であり、走査線の時間軸が70%圧縮されているので、(B1)(Dh1)(C1)は、時間軸が図7より圧縮されている。
上図(D)は車載カメラ41dの撮像素子がCCDで、判定域gの各フレーム(D1g、D2g)の最初から画像判定エリアの画像データの伝送開始(Dh1)までにシャッタにより露光が停止されるので、各車灯の点灯時間(Td)を、それ以上長くしても撮像素子のCCDには露光されないので、前記図4、5のように、フレームピッチ(St)の間、点灯中でも問題はない。画像判定エリアの画像データの伝送開始(Dh1)が制御上できない、場合は、画像データの伝送開始(B1)までの点灯としてもよい。
シャッタは、ラインごとに画像を順次スキャンするローリングシャッタでも、画像の全領域を同時にスキャンするグローバルシャッタでもよい。
下図(M)は車載カメラ41mの撮像素子がCMOSで、受光素子で露光による光を電気信号に変えアンプで増幅するので、判定域gの各フレーム(D1g、D2g)の最初から画像データの伝送を開始し、各フレームの最初から(B1)経過後に開始する画像判定エリアの画像データの伝送(Dh1)時に、各車灯を点灯する。
従って、点灯時間(Tm)は、画像判定エリアの画像データの伝送(Dh1)と同じであるが、画像判定エリアの画像データの伝送(Dh1)に各車灯の点灯タイミングを合わすのが制御上困難な場合は、画像データの伝送中(B1、Dh1、C1)を点灯時間(Tm)としてもよい。
本説明では、仮にフレームピッチ(St)の70%の時間で画像データを伝送するものとして説明しているが、フレームレート、撮像素子の伝送方法や速度により、伝送時間(Dh1)の圧縮率は変化し、撮像素子がCMOSの場合は、CCDのように走査線単位ではなく、データ伝送範囲の選択をエリア指定が可能(AOI)であれば、幅(Dw1)、高さ(Dh1)の画像判定エリアの画像データのみを伝送することで伝送時間(Dh1)を更に時間短縮することもできる。
FIG. 8 is an explanatory diagram (timing chart) for shortening the lighting time of the vehicle light by the image sensor (CCD, CMOS) of the vehicle-mounted camera 41, which corresponds to claim 3.
FIG. 8 is an operation time chart in which the headlight 21 is turned on independently in one frame and the fog lamp 22 is turned on independently in the other frame, and the above figure (D) is an in-vehicle camera. The image sensor of 41d is a CCD, and the image sensor of the vehicle-mounted camera 41m is CMOS in the figure (M) below.
The vehicle-mounted camera 41d (m), which is a component of the external environment sensor 4, outputs a frame timing signal to the vehicle light ECU 3 for each frame pitch (St) division (long line), and the vehicle light ECU 3 outputs input / output information thereof. And, based on the image data transmission timing of each frame and the image data transmission timing (Dh1) of the image determination area in it, the ON / OFF output signal is output to the headlight 21 and the fog lamp 22 which are the vehicle lights 2. ..
The short lines of equal pitch in each frame are scanning lines for image data transmission, and a progressive method is used in which all the scanning lines are transmitted one by one in order. This figure is an explanatory diagram corresponding to claim 3 of the present invention. Because there are, the number of scanning lines is less than the actual number.
For the sake of explanation, the in-vehicle camera 41 (d, m) is supposed to transmit image data in 70% of the frame pitch (St), and the in-vehicle camera 41d whose image sensor is (CCD) is the frame pitch (St). ), The vehicle-mounted camera 41m whose image sensor is (CMOS) transmits the image data in the first half of the frame pitch (St).
Since the image determination area of the image data has the same ratio as in FIG. 7 and the time axis of the scanning line is compressed by 70%, the time axis of (B1) (Dh1) (C1) is compressed from FIG. ing.
In the above figure (D), the image sensor of the in-vehicle camera 41d is a CCD, and the exposure is stopped by the shutter from the beginning of each frame (D1g, D2g) in the determination area g to the start of image data transmission (Dh1) in the image determination area. Therefore, even if the lighting time (Td) of each vehicle light is made longer than that, the CCD of the image sensor is not exposed. Therefore, as shown in FIGS. 4 and 5, there is a problem even during lighting during the frame pitch (St). There is no. If the transmission start (Dh1) of the image data in the image determination area cannot be controlled, the lighting may be turned on until the transmission start (B1) of the image data.
The shutter may be a rolling shutter that sequentially scans an image line by line, or a global shutter that simultaneously scans the entire area of an image.
In the figure below (M), the image sensor of the in-vehicle camera 41m is CMOS, and the light receiving element converts the light from exposure into an electric signal and amplifies it with an amplifier. Is started, and each vehicle light is turned on at the time of transmission (Dh1) of image data in the image determination area, which starts from the beginning of each frame (B1).
Therefore, the lighting time (Tm) is the same as the transmission of the image data in the image determination area (Dh1), but it is controlled that the lighting timing of each vehicle light is matched with the transmission of the image data in the image determination area (Dh1). If it is difficult, the lighting time (Tm) may be set during transmission of image data (B1, Dh1, C1).
In this description, it is assumed that the image data is transmitted at a time of 70% of the frame pitch (St), but the compression rate of the transmission time (Dh1) depends on the frame rate, the transmission method and speed of the image pickup element. When the image pickup element is CMOS, the width (Dw1) and height (Dh1) images are available if the data transmission range can be selected by area (AOI) instead of by scanning line as in CCD. The transmission time (Dh1) can be further shortened by transmitting only the image data in the determination area.

図9は、本発明の車灯制御装置1の、運転関連要素と視程障害による作動モードの一例を示す表である。
本発明は、点灯制御の選択対象となる車灯2であるヘッドライト21とフォグランプ22の点灯画像を判定画像として撮像し、前記判定画像の視程の画像認識を判定し、前記判定画像の視程が最も良好な判定画像と同じ車灯点灯状態に、前記車灯2を点灯制御する車灯制御装置1である。従って、適切な車灯制御を行うために、走行状態等により、選択対象とする車灯を選定し、その判定頻度等を決定する必要がある。
図9に示すように、車灯2であるヘッドライト21とフォグランプ22の選択は、視程障害モードにより優先度があるが、この優先度は判定の頻度等に利用し、この目安としての可能性にとらわれることなく、実際に点灯画像を判定画像として撮像して判定し、前記判定画像の視程が最も良好な点灯状態に、前記車灯2を点灯制御する。
表9に示す各視程障害モードは、外部環境センサ4である車載カメラ41、照度センサ44、温湿度計47と、運転状況センサ5である運転モード51、車速センサ53、ワイパーモード55からの入力情報により、視程障害モードの種類、発生確率、視程障害の度合い等を推測する。
特に、車速センサ53、ワイパーモード55等による重要な変動要素に対しては、選択対象とする車灯の判定タイミングとリンクし、情報処理ルーチンや作動タイムチャートで示した確認間隔、確認回数等に反映して、臨機応変に点灯制御する。
表9の実施例は、作動モードの視程障害の一例であり、各入力センサは取捨選択が可能である。
FIG. 9 is a table showing an example of an operation mode of the vehicle light control device 1 of the present invention due to driving-related elements and visibility impairment.
In the present invention, the lighting images of the headlight 21 and the fog lamp 22, which are the vehicle lights 2 to be selected for lighting control, are captured as judgment images, the image recognition of the visibility of the judgment image is determined, and the visibility of the judgment image is determined. It is a vehicle light control device 1 that controls lighting of the vehicle light 2 in the same vehicle light lighting state as the best determination image. Therefore, in order to perform appropriate vehicle light control, it is necessary to select a vehicle light to be selected according to the driving condition and the like, and determine the determination frequency and the like.
As shown in FIG. 9, the selection of the headlight 21 and the fog lamp 22, which are the vehicle lights 2, has a priority depending on the visibility impairment mode, and this priority is used for the frequency of determination and the like, and may be used as a guideline. The lighting image is actually captured as a determination image for determination, and the vehicle light 2 is controlled to be lit so that the visibility of the determination image is the best.
Each visibility failure mode shown in Table 9 is input from the in-vehicle camera 41 which is the external environment sensor 4, the illuminance sensor 44, the thermo-hygrometer 47, the operation mode 51 which is the operation status sensor 5, the vehicle speed sensor 53, and the wiper mode 55. From the information, the type of visibility impairment mode, the probability of occurrence, the degree of visibility impairment, etc. are estimated.
In particular, for important fluctuation factors due to the vehicle speed sensor 53, wiper mode 55, etc., it is linked to the judgment timing of the vehicle light to be selected, and the confirmation interval, the number of confirmations, etc. shown in the information processing routine and the operation time chart are used. Reflect and control the lighting flexibly.
The embodiment in Table 9 is an example of visibility impairment in the operation mode, and each input sensor can be selected.

図10は、ヘッドライト21とフォグランプ22を点灯した場合の、一般的な霧による照射範囲の変化の説明図である。
上図(N)は、夜間に、ヘッドライト21、フォグランプ22と、バックフォグ(後部霧灯)を点灯して走行行中の自車10の側面図と平面図であり、フォグランプ22の波長はヘッドライト21の波長より長いものとする。
下図(F)は、夜間の霧発生時に、ヘッドライト21、フォグランプ22と、バックフォグ(後部霧灯)を点灯して走行行中の自車10の側面図と平面図である。
夜間走行中の上図(N)から分かるように、ヘッドライト21は前方の遠くに照射域があり、フォグランプ22はヘッドライト21より、水平方向に広く、垂直方向には低い位置を照射範囲としている。
夜間の霧発生時に走行中の下図(F)から分かるように、ヘッドライト21はレイリ散乱により霧中透過性が低いので照射域が短くなり、フォグランプ22はヘッドライト21より波長が長いので、霧中透過性が高いので、水平方向に広く、垂直方向には低い位置には変わりないが、照射域の長さはヘッドライト21ほど短くならない。
従って、夜間の霧発生時に走行中の下図(F)では、フォグランプ22の方がヘッドライト21より照射域が長くなる。
FIG. 10 is an explanatory diagram of a change in the irradiation range due to general fog when the headlight 21 and the fog lamp 22 are turned on.
The above figure (N) is a side view and a plan view of the own vehicle 10 running with the headlight 21, the fog lamp 22 and the back fog (rear fog lamp) turned on at night, and the wavelength of the fog lamp 22 is It shall be longer than the wavelength of the headlight 21.
The figure below (F) is a side view and a plan view of the own vehicle 10 running by turning on the headlight 21, the fog lamp 22, and the back fog (rear fog lamp) when fog is generated at night.
As can be seen from the above figure (N) during night driving, the headlight 21 has an irradiation area far in front, and the fog lamp 22 has a wider horizontal direction and a lower vertical position as the irradiation range than the headlight 21. There is.
As can be seen from the figure below (F) during running when fog is generated at night, the headlight 21 has low transmissivity in fog due to horizontal scattering, so the irradiation range is short, and the fog lamp 22 has a longer wavelength than the headlight 21, so it is transmissive in fog. Since it has high properties, it is wide in the horizontal direction and low in the vertical direction, but the length of the irradiation area is not as short as that of the headlight 21.
Therefore, in the figure below (F) during traveling when fog is generated at night, the fog lamp 22 has a longer irradiation range than the headlight 21.

前記実施例1では、ヘッドライト21とフォグランプ22が同時に点灯しない実施例としたが、車灯の単独点灯を前提としない場合は、図10に示すように、ヘッドライト21のハイビームまたはロービームと、フォグランプ22の組み合わせ点灯と車灯の単独点灯を判定対象画像としてもよく、更に、判定域を2フレームではなく3フレーム以上の連続あるいは近接する判定画像としても良い。
前記実施例1は、本発明の一例を示すもので本発明を制約するものではなく、当業者により変更および改良ができる。
In the first embodiment, the headlight 21 and the fog lamp 22 are not turned on at the same time, but when the car lights are not turned on independently, as shown in FIG. 10, the high beam or the low beam of the headlight 21 is used. The combined lighting of the fog lamp 22 and the independent lighting of the vehicle light may be used as the determination target image, and the determination area may be a continuous or close determination image of 3 frames or more instead of 2 frames.
The first embodiment shows an example of the present invention and does not limit the present invention, and can be modified and improved by those skilled in the art.

本発明の車灯制御装置は、一般の多くの貨物自動車と乗用車に利用でき、外部環境センサである車載カメラを搭載し、オートライト機能を備えた自動車では、制御プログラムの変更(追加)等により容易に組み込むことができる場合がある。 The vehicle light control device of the present invention can be used in many general freight vehicles and passenger vehicles, and is equipped with an in-vehicle camera that is an external environment sensor. It may be easy to incorporate.

1 車灯制御装置
2 車灯
3 車灯ECU
4 外部環境センサ
5 運転状況センサ
10 自車
21 ヘッドライト
22 フォグランプ
24 切換素子H
25 切換素子F
27 スイッチH
28 スイッチF
31 制御部
32 外部環境判定部
33 走行状態判定部
34 車灯判定部
37 駆動部
41 車載カメラ
44 照度センサ
47 温湿度計
51 運転モード
53 車速センサ
55 ワイパーモード
1 Car light control device 2 Car light 3 Car light ECU
4 External environment sensor 5 Driving status sensor 10 Own vehicle 21 Headlight 22 Fog lamp 24 Switching element H
25 Switching element F
27 Switch H
28 Switch F
31 Control unit 32 External environment judgment unit 33 Driving condition judgment unit 34 Vehicle light judgment unit 37 Drive unit 41 In-vehicle camera 44 Illuminance sensor 47 Thermo-hygrometer 51 Operation mode 53 Vehicle speed sensor 55 Wiper mode

Claims (4)

入力手段である外部環境センサ、運転状況センサと、出力手段である車灯と、車灯ECUで構成される車灯制御装置であって、
前記外部環境センサである車載カメラと前記車灯ECUを連動して、
点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として各1フレーム撮像し、
前記フォグランプおよび前記ヘッドライトをLEDとし、
前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯制御を同期し、
前記各1フレームの判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置。
It is a vehicle light control device composed of an external environment sensor and a driving status sensor as input means, a vehicle light as an output means, and a vehicle light ECU.
By interlocking the in-vehicle camera, which is the external environment sensor, with the vehicle light ECU,
A non-lighting image, a lighting image of the headlight and / or a fog lamp, which is the vehicle light, which is a selection target of the lighting control, is captured as a judgment image in one frame each .
The fog lamp and the headlight are LEDs.
The imaging of the determination image and the lighting control of the vehicle light are synchronized by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera.
A vehicle light control device comprising determining image recognition of the visibility of the determination image of each one frame and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility.
前記車灯である前記フォグランプを、霧中の視認性が前記ヘッドライトより向上する黄色光としたことを特徴とする請求項1に記載の車灯制御装置。 The vehicle light control device according to claim 1, wherein the fog lamp, which is the vehicle light, is a yellow light whose visibility in fog is improved as compared with the headlight . 前記判定画像の前記車灯の照射範囲を基準にして視程の画像認識を判定する画像判定エリアを設定し、
前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、
前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置。
An image judgment area for judging image recognition of visibility is set based on the irradiation range of the car light of the judgment image.
When the image sensor of the vehicle-mounted camera is a CCD, from the beginning of the frame pitch of the determination image to the data transmission unit or the data transmission unit of the image determination area.
When the image pickup element of the vehicle-mounted camera is CMOS, the headlight and / or the fog lamp is turned on and controlled during data transmission or data transmission in the image determination area, and the determination image to be selected for lighting control is captured. The vehicle light control device according to claim 1 or 2, wherein the vehicle light control device is characterized in that.
前記外部環境センサと前記運転状況センサからの入力情報により、視程障害モードと運転状況を予想し、変化する運転状況に対応した車灯選択と車灯選択頻度の設定を行うことを特徴とする請求項1~3に記載の車灯制御装置。 A claim characterized in that the visibility failure mode and the driving situation are predicted by the input information from the external environment sensor and the driving situation sensor, and the vehicle light selection and the vehicle light selection frequency corresponding to the changing driving situation are set. The vehicle light control device according to items 1 to 3.
JP2021143406A 2021-09-02 2021-09-02 Car light control device Active JP7009694B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021143406A JP7009694B1 (en) 2021-09-02 2021-09-02 Car light control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021143406A JP7009694B1 (en) 2021-09-02 2021-09-02 Car light control device

Publications (2)

Publication Number Publication Date
JP7009694B1 true JP7009694B1 (en) 2022-01-26
JP2023036385A JP2023036385A (en) 2023-03-14

Family

ID=80678843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021143406A Active JP7009694B1 (en) 2021-09-02 2021-09-02 Car light control device

Country Status (1)

Country Link
JP (1) JP7009694B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033872A (en) * 2006-07-04 2008-02-14 Denso Corp Visibility condition determining device for vehicle
JP2013235444A (en) * 2012-05-09 2013-11-21 Denso Corp Vehicle view support apparatus
JP2019006321A (en) * 2017-06-27 2019-01-17 本田技研工業株式会社 vehicle
JP2019051793A (en) * 2017-09-14 2019-04-04 株式会社Subaru Road surface drawing device for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033872A (en) * 2006-07-04 2008-02-14 Denso Corp Visibility condition determining device for vehicle
JP2013235444A (en) * 2012-05-09 2013-11-21 Denso Corp Vehicle view support apparatus
JP2019006321A (en) * 2017-06-27 2019-01-17 本田技研工業株式会社 vehicle
JP2019051793A (en) * 2017-09-14 2019-04-04 株式会社Subaru Road surface drawing device for vehicle

Also Published As

Publication number Publication date
JP2023036385A (en) 2023-03-14

Similar Documents

Publication Publication Date Title
US10293750B2 (en) Digital display system with a front-facing camera and rear digital display
US9286521B2 (en) Camera system for large vehicles
US9327693B2 (en) Rear collision avoidance system for vehicle
JP5855272B2 (en) Method and apparatus for recognizing braking conditions
EP3036132B1 (en) Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle
KR101789984B1 (en) Side Mirror Camera System For Vehicle
CN106458084B (en) Vehicular illumination device
JP5313638B2 (en) Vehicle headlamp device
JP2007142624A (en) Vehicle mounted imaging apparatus
EP1887492A1 (en) Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
US20180126907A1 (en) Camera-based system for reducing reflectivity of a reflective surface
JP2012240530A (en) Image processing apparatus
JP5361901B2 (en) Headlight control device
JP2013097885A (en) Headlight device and headlight system
JP2004185105A (en) Obstacle informing device
JP2002274258A (en) Night vision system for automobile
JP4735090B2 (en) Infrared imaging device
EP4149809B1 (en) Motor-vehicle driving assistance in low meteorological visibility conditions, in particular with fog
JP2009116394A (en) Alarm device for vehicle
JP7009694B1 (en) Car light control device
JP2008137494A (en) Vehicular visual field assistance device
US20220194296A1 (en) Vehicle systems and methods for assistance drivers to reduce reflective light interference from rear sides
CN113393706A (en) Automatic driving blind area early warning system and method based on intelligent traffic crossroad
CN110774976B (en) Device and method for controlling a vehicle headlight
KR101055078B1 (en) Vehicle uplight control system using camera and its method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211215

R150 Certificate of patent or registration of utility model

Ref document number: 7009694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150