JP7009694B1 - Car light control device - Google Patents
Car light control device Download PDFInfo
- Publication number
- JP7009694B1 JP7009694B1 JP2021143406A JP2021143406A JP7009694B1 JP 7009694 B1 JP7009694 B1 JP 7009694B1 JP 2021143406 A JP2021143406 A JP 2021143406A JP 2021143406 A JP2021143406 A JP 2021143406A JP 7009694 B1 JP7009694 B1 JP 7009694B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- vehicle light
- visibility
- lighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Abstract
【課題】従来の車灯制御装置は、各種センサにより視程障害の要因である霧等の発生を予測/検知して点灯制御しているが、実際の視程を比較していないので、確実に視程が改善する車灯制御ができていない問題点がある。【解決手段】外部環境センサである車載カメラにより撮像される連続(あるいは近接)する判定画像において、外部環境センサである車載カメラと車灯ECUを連動して、点灯制御の選択対象となるヘッドライトとフォグランプの点灯画像を判定画像として撮像し、前記判定画像の視程の画像認識を判定し、視程が最も良好な画像と同じ車灯の点灯状態に車灯を点灯制御する車灯制御装置である。本発明は、運転者等に車灯の点滅の弊害が少なく、運転者に確実に最良の視程を提供でき、自動運転等の車載カメラとオートライト機能の制御部等を流用し、プログラム変更等にて対応することも可能である。【選択図】 図1PROBLEM TO BE SOLVED: To control lighting by predicting / detecting the generation of fog or the like which is a cause of visibility impairment by various sensors in a conventional vehicle light control device, but since the actual visibility is not compared, the visibility is surely There is a problem that the vehicle light control is not possible. SOLUTION: In a continuous (or close) determination image captured by an in-vehicle camera which is an external environment sensor, a headlight which is a lighting control selection target is linked with an in-vehicle camera which is an external environment sensor and a vehicle light ECU. It is a vehicle light control device that captures the lighting image of the fog lamp as a judgment image, determines the image recognition of the visibility of the judgment image, and controls the lighting of the vehicle light to the same lighting state as the image having the best visibility. .. INDUSTRIAL APPLICABILITY The present invention has less adverse effect of blinking of a vehicle light on a driver or the like, can surely provide the driver with the best visibility, and uses an in-vehicle camera for automatic driving or a control unit for an auto light function to change a program or the like. It is also possible to deal with it at. [Selection diagram] Fig. 1
Description
本発明は、霧等の視程障害発生時に、車灯制御により車載カメラで選択車灯の点灯画像を撮像し、各画像認識を比較して最長視程となる車灯を点灯する車灯制御装置に関する。 The present invention relates to a vehicle light control device that captures a lighting image of a selected vehicle light with an in-vehicle camera by vehicle light control when a visibility disorder such as fog occurs, compares each image recognition, and lights the vehicle light having the longest visibility. ..
周囲の明るさに合わせて車灯の点灯/消灯を自動的に行うオートライト機能があり、暗くなり始めて街灯がつくのとほぼ同じタイミングの明るさ(1,000ルクス未満)になれば自動点灯して、早めに点灯することで事故を防ぐ効果がある。 There is an auto light function that automatically turns on / off the car light according to the brightness of the surroundings, and it turns on automatically when the brightness starts to darken and the brightness is almost the same as when the street light turns on (less than 1,000 lux). , It is effective to prevent accidents by turning on the lights early.
周囲の明るさとは別に、霧、雨、雪等による視程障害が発生する場合がある。例えば、積もった雪が強い風で巻き上げられて起こるホワイトアウトは晴天でも発生するので、温度、湿度等の外部環境により事前に予測するのが困難なこともある。
車両の運転中に、霧、ホワイトアウト等により突然視程障害が発生し、運転が難しい状況になると、運転者は視程の改善のために、ヘッドライト(前照灯)のロービーム(すれ違い用前照灯)への切換え、あるいはフォグランプ(前部霧灯)の点灯操作を行う。
安全運転のため、運転者は車速の減速により前後の車両との追突を防止し、ガードレール、走行軌跡や車線表示等に沿って車線からの逸脱を防止し、場合によっては、車を目立つ状態にして安全な場所に退避する等の安全運転を行う必要がある。
このような一連の運転操作を適時適切に行う必要があるが、突然発生した視程障害の場合は、咄嗟に車灯の切換え操作ができない場合がある。
また、突然ではなく徐々に視程障害になる場合は、運転者の目が徐々に慣れて車灯の切換え操作タイミングが遅れる場合がある。
In addition to the brightness of the surroundings, visibility may be impaired by fog, rain, snow, etc. For example, whiteouts that occur when accumulated snow is rolled up by strong winds occur even in fine weather, so it may be difficult to predict in advance due to the external environment such as temperature and humidity.
When the visibility is suddenly obstructed due to fog, whiteout, etc. while driving the vehicle and it becomes difficult to drive, the driver headlights (headlights) low beam (headlights for passing) to improve visibility. Switch to (light) or turn on the fog lamp (front fog light).
For safe driving, the driver prevents collisions with vehicles in front and behind by decelerating the vehicle speed, prevents deviation from the lane along guardrails, driving tracks, lane displays, etc., and in some cases makes the vehicle stand out. It is necessary to perform safe driving such as evacuating to a safe place.
It is necessary to perform such a series of driving operations in a timely and appropriate manner, but in the case of sudden visibility impairment, it may not be possible to switch the vehicle lights.
In addition, if the visibility is gradually impaired rather than suddenly, the driver's eyes may gradually get used to it and the timing of the vehicle light switching operation may be delayed.
可視光は約380~800nmの間で、日中は赤色光等の長波長(約700nm)の光は光源である太陽の見た目の大きさの範囲に収まり、短波長(約470nm)の青色光は大気中で散乱するため空は青く見える。
夕方になると光線の入射角が浅くなり、大気層を通過する距離が伸びるので、レイリ散乱により青色光は障害物に衝突する頻度が増し、吸収されるなどの要因から地表に到達しにくくなる。代わって黄(約580nm)、橙(約610nm)、赤などの長波長光線が散乱され、太陽が沈む(または昇る)方向の空が、夕焼け(朝焼け)として赤く見える。
霧やホワイトアウト等の悪天候時には、波長の短い青色光は水の粒に散乱して遮られ、波長の長い赤色光等はそれを通りぬけてより遠くまで届くので霧中透過性が高い。
従って、悪天候時に光の散乱による視界不良が発生する場合は、黄色等の長波長光のフォグランプは視認性を向上させる。しかし、単色光は運転者に錯覚を起こさせ、距離感がつかみにくい、あるいは特定の色が認識しにくい等の現象が発生する問題がある。
対向車、前走車に対して、フォグランプの点灯は迷惑となる場合がある。
ヘッドライトのロービーム(すれ違い用前照灯)は、ハイビーム(走行用前照灯)より照射距離が短いので、対向車や前走車のない場合は、ハイビーム走行が望ましい。
このように、外部環境や運転状況により、車灯を随時適切に制御する必要がある。
Visible light is between about 380 and 800 nm, and long-wavelength (about 700 nm) light such as red light falls within the apparent size of the sun, which is the light source, during the daytime, and short-wavelength (about 470 nm) blue light. The sky looks blue because it is scattered in the atmosphere.
In the evening, the incident angle of the light beam becomes shallower and the distance through the atmospheric layer increases, so that the blue light collides with obstacles more frequently due to the ray scattering, and it becomes difficult to reach the ground surface due to factors such as absorption. Instead, long-wavelength rays such as yellow (about 580 nm), orange (about 610 nm), and red are scattered, and the sky in the direction of the sun setting (or rising) looks red as a sunset (sunrise).
In bad weather such as fog and whiteout, blue light with a short wavelength is scattered by water particles and blocked, and red light with a long wavelength passes through it and reaches farther, so it has high transparency in fog.
Therefore, when poor visibility occurs due to light scattering in bad weather, fog lamps with long wavelength light such as yellow improve visibility. However, monochromatic light causes an illusion to the driver, and there is a problem that a phenomenon such as difficulty in grasping a sense of distance or difficulty in recognizing a specific color occurs.
Lighting of fog lights may be annoying to oncoming vehicles and vehicles in front.
Since the low beam (headlight for passing) of the headlight has a shorter irradiation distance than the high beam (headlight for traveling), high beam traveling is desirable when there are no oncoming vehicles or vehicles in front.
In this way, it is necessary to appropriately control the vehicle lights at any time depending on the external environment and driving conditions.
車灯であるヘッドライトやフォグランプ等に使用されるLEDライトは、フィラメントを使用しておらず、高い発光効率や熱をあまり発生させないという特徴があり、供給電源が断続すれば、高速度で明滅することができる高応答性であり、消費電力が少なく、安全性も高い。
LED素子単体での応答速度は50~100ns(ナノ秒)であり、これは1億分の5秒~1千万分の1秒である。
人が光を見たとき、残像効果としてその光が消えた後も、それまで見ていた光や映像が残って見える時間残像現象がある。人の目の時間分解能は約50msから100ms程度であり、この時間よりも短い光の点滅は、連続点灯しているように知覚される。
例えば、地デジ放送は、単位時間(秒)あたりに処理させるフレームレートは30fps であるが、人にはスムーズな動画として見え、LED式信号機は電源周波数(50Hzまたは60Hz)に同期して点滅しているが、連続点灯しているように見える。
LEDの高い応答性と残像効果を利用したダイナミック点灯方式があり、点灯しているLEDを一定周波数で高速に点滅させて消費電力を抑制し、LEDの寿命が長くなる効果がある。
一般的な車載カメラのフレームレートは25~60fpsであり、前記LED素子単体の応答速度が50~100nsであるので、前記車載カメラの画像(60fps)の撮像時間の単純計算で16600分の1の時間でLEDを点灯制御できる。
本発明では、車灯の点灯制御と車載カメラ画像の撮像をリンクし、各車灯の点灯画像を撮像し、画像認識の視程を比較する。この各車灯の単独点灯画像を撮像するための車灯がLEDの場合は、点灯制御は前記残像効果により、運転者、歩行者等に知覚されにくい。
LED lights used for headlights and fog lamps, which are car lights, do not use filaments and have the characteristics of high luminous efficiency and little heat generation. If the power supply is interrupted, they blink at high speed. It is highly responsive, consumes less power, and is highly safe.
The response speed of the LED element alone is 50 to 100 ns (nanoseconds), which is 5/100 million seconds to 1/10 million seconds.
When a person sees light, there is a time afterimage phenomenon as an afterimage effect, in which the light or image that has been seen until then remains even after the light disappears. The time resolution of the human eye is about 50 ms to 100 ms, and blinking of light shorter than this time is perceived as continuous lighting.
For example, in terrestrial digital broadcasting, the frame rate processed per unit time (seconds) is 30 fps, but it looks like a smooth movie to humans, and the LED traffic light blinks in synchronization with the power frequency (50 Hz or 60 Hz). However, it seems to be lit continuously.
There is a dynamic lighting method that utilizes the high responsiveness and afterimage effect of the LED, and it has the effect of blinking the lit LED at a constant frequency at high speed to suppress power consumption and prolong the life of the LED.
Since the frame rate of a general in-vehicle camera is 25 to 60 fps and the response speed of the LED element alone is 50 to 100 ns, the simple calculation of the imaging time of the image (60 fps) of the in-vehicle camera is 1/16600. The lighting of the LED can be controlled in time.
In the present invention, the lighting control of the vehicle light and the acquisition of the vehicle-mounted camera image are linked, the lighting image of each vehicle light is captured, and the visibility of image recognition is compared. When the vehicle light for capturing the independently lit image of each vehicle light is an LED, the lighting control is not easily perceived by the driver, pedestrian, or the like due to the afterimage effect.
ミリ波レーダは、電波であるミリ波を照射して対象物の距離や位置情報を測定するので、天候による環境変化や逆光に強いが、形やサイズなどの詳細を識別するのは困難で、電波の反射率の低いものや近距離検知に対応しづらい。
レーザ光を利用するLiDAR(ライダ)は、先行車、歩行者、建物等の距離や形状、位置関係を正確に把握することが可能であるが、測定可能距離が短く、悪天候に弱い。
運転者の目の役割をする車載カメラは、霧等の悪天候時に光の散乱による視程障害が発生し、逆光等の強い光を受けた場合や、自然光が不足する夜間やトンネル内では、正常に撮像できない問題点がある。しかし、画像認識や障害物の色を認識できるので、歩行者、道路標識、信号などを識別する重要な可視光による受光センサである。対象物の距離の測定はできないが、ステレオカメラのように、2台のカメラにより人間の目と同様に視差画像を生成して距離の簡易測定ができる。
前記各センサは、それぞれ長所短所があり、使用目的や機能等により取捨選択されるが、画像認識や障害物の色を認識できる可視光線の受光センサである車載カメラは、自動車の外部環境センサとして重要なセンサである。
Millimeter-wave radar irradiates millimeter waves, which are radio waves, to measure the distance and position information of an object, so it is resistant to environmental changes and backlight due to the weather, but it is difficult to identify details such as shape and size. It is difficult to handle radio waves with low reflectance and short-range detection.
LiDAR, which uses laser light, can accurately grasp the distance, shape, and positional relationship of preceding vehicles, pedestrians, buildings, etc., but the measurable distance is short and it is vulnerable to bad weather.
The in-vehicle camera, which acts as the driver's eyes, normally causes visibility problems due to light scattering in bad weather such as fog, and is normally exposed to strong light such as backlight, at night when natural light is insufficient, or in tunnels. There is a problem that it cannot be imaged. However, since it can recognize images and the colors of obstacles, it is an important visible light light receiving sensor that identifies pedestrians, road signs, signals, and the like. Although it is not possible to measure the distance of an object, it is possible to generate a parallax image with two cameras like a stereo camera and simply measure the distance.
Each of the above sensors has advantages and disadvantages, and is selected according to the purpose of use, function, etc. It is an important sensor.
霧等の悪天候時の光の散乱による視程障害が発生する場合に、目的に合った車灯を点灯制御する下記先行技術(特許文献1~4)がある。
車載カメラによって撮像された画像の輝度の変化量を示すエッジ強度の二次元分布図を作成し、その分布図において基準エッジ強度を超えた割合を意味する強エッジ量を算出する。この強エッジ量は画像のぼけ度合いを表しており、その強エッジ量が所定の画像ぼけ判定範囲内の値である場合には、霧または雨であると考えられる。そこで、さらに、ワイパーが駆動しているかどうかを判断し、ワイパーが駆動している場合には天候は霧であると判定する車載霧状態判定装置、及びオートフォグランプシステム(特許文献1)がある。
レーザレーダ装置によって前方にレーザビームを放射し、先行車に反射して戻ってくる反射光を受光して車間距離を計測し、接近しすぎの場合には警報を発する接近警報装置を援用し、有効検知エリアからその境界付近を除外した核検知エリア内の距離データが得られた直後の計測で、有効検知エリア内の距離データが得られなくなった場合には、レーザレーダ装置の検出範囲を上側に変更させて距離計測を行い、それでもレーザレーダ装置の有効検知エリア内の距離データが計測できず、かつ有効検知エリア内の距離データが得られなくなってから一定時間が経過した時には、霧中突入と判断してフォグランプ点灯指令を出力してフォグランプを点灯させる、オートフォグランプ装置(特許文献2)がある。
フォグランプと、自動的に視界不良状態を検知する手段と、湿度検知回路と、光学的可視度検知回路を備え、それらの出力を、加算回路により結合し、この結合信号を処理して、フォグランプの点灯又は消灯を制御する霧の中で使用される照明灯・表示灯制御装置(特許文献3)がある。
電源と、電源を照明・表示ユニットに接続する制御回路とを含み、制御回路は、霧検知回路からの作動信号に応答し、照明・表示ユニットが出した光線の通路において視程が減少している場合に、霧検知回路は作動信号を発生させる霧中で使用するための照明・表示装置(特許文献4)がある。
There are the following prior arts (
A two-dimensional distribution map of edge strength showing the amount of change in brightness of an image captured by an in-vehicle camera is created, and the amount of strong edge, which means the ratio exceeding the reference edge strength in the distribution map, is calculated. This strong edge amount represents the degree of blurring of the image, and when the strong edge amount is a value within a predetermined image blur determination range, it is considered to be fog or rain. Therefore, there are an in-vehicle fog state determination device that determines whether or not the wiper is driven and determines that the weather is fog when the wiper is driven, and an auto fog lamp system (Patent Document 1).
A laser radar device emits a laser beam forward, receives reflected light reflected from the preceding vehicle and returns, measures the inter-vehicle distance, and uses an approach warning device that issues an alarm if the vehicle is too close. If the distance data in the nuclear detection area excluding the vicinity of the boundary from the effective detection area is obtained and the distance data in the effective detection area cannot be obtained in the measurement, the detection range of the laser radar device is increased. When a certain amount of time has passed since the distance data in the effective detection area of the laser radar device could not be measured and the distance data in the effective detection area could not be obtained, it was called a fog rush. There is an auto-fog lamp device (Patent Document 2) that determines and outputs a fog lamp lighting command to turn on the fog lamp.
A fog lamp, a means for automatically detecting a poor visibility state, a humidity detection circuit, and an optical visibility detection circuit are provided, and their outputs are coupled by an adder circuit, and this coupled signal is processed to process the fog lamp. There is an optical light / indicator light control device (Patent Document 3) used in fog that controls turning on or off.
The control circuit includes a power supply and a control circuit that connects the power supply to the lighting / display unit, and the control circuit responds to an operation signal from the fog detection circuit, and the visibility is reduced in the path of the light beam emitted by the lighting / display unit. In some cases, the fog detection circuit has a lighting / display device (Patent Document 4) for use in fog that generates an operation signal.
従来の車灯制御装置は、各種センサにより視程障害の要因である霧等の発生を予測/検知して車灯を点灯制御しているが、実際の視程を比較していないので、最も視程が改善する車灯を選定していない場合があり、更に突然発生する視程障害に即応できない場合がある等の問題点がある。 Conventional vehicle light control devices use various sensors to predict / detect the occurrence of fog, which is a cause of visibility impairment, and control the lighting of vehicle lights. However, since the actual visibility is not compared, the visibility is the highest. There is a problem that the vehicle light to be improved may not be selected, and it may not be possible to immediately respond to the sudden visibility disorder.
請求項1は、入力手段である外部環境センサ、運転状況センサと、出力手段である車灯と、車灯ECUで構成される車灯制御装置であって、前記外部環境センサである車載カメラと前記車灯ECUを連動して、点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として撮像し、前記フォグランプおよび前記ヘッドライトをLEDとし、前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯を同期し、前記判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置である。 The first aspect of the present invention is a vehicle light control device including an external environment sensor and a driving condition sensor as an input means, a vehicle light as an output means, and a vehicle light ECU, and the vehicle-mounted camera which is the external environment sensor. In conjunction with the vehicle light ECU, a no-light image, a headlight which is the vehicle light, and / or a lighting image of the fog lamp, which is a selection target of lighting control, are imaged as a determination image, and the fog lamp and the headlight are LED. The determination image is synchronized with the lighting of the vehicle light by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera. It is a vehicle light control device characterized by determining image recognition of the field of view of an image and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility.
請求項2は、前記車灯であるフォグランプの波長を、ヘッドライトの波長より長くした請求項1に記載の車灯制御装置である。
2. The vehicle light control device according to
請求項3は、前記判定画像の前記車灯の照射範囲を基準にして視程の画像認識を判定する画像判定エリアを設定し、前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置である。
請求項4は、前記外部環境センサと前記運転状況センサからの入力情報により、視程障害モードと運転状況を予想し、変化する運転状況に対応した車灯選択と車灯選択頻度の設定を行う請求項1~3に記載の車灯制御装置である。
According to
本発明の請求項1は、入力手段である外部環境センサ、運転状況センサと、出力手段である車灯と、車灯ECUで構成される車灯制御装置であって、前記外部環境センサである車載カメラと前記車灯ECUを連動して、点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として撮像し、
前記フォグランプおよび前記ヘッドライトをLEDとし、前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯を同期し、前記判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置である。
本発明の車灯制御装置は、自動車に備えられた車載カメラの画像認により、視程障害発生時の実際の視程を比較判定するので、運転者に適時、実際に最良の視程を提供できる効果がある。
本発明の車灯制御装置は、自動運転等の自動車に組み込まれている車載カメラを流用することができ、更にオートライト機能の車灯制御を活用できるので、車灯ECUは、関連するECUのプログラムの追加変更程度で対応できる場合もある。本発明の車灯制御装置は、車灯制御装置のハード面の追加費用が抑制できるので、費用対効果が大きいメリットがある。
The first aspect of the present invention is a vehicle light control device including an external environment sensor as an input means, a driving condition sensor, a vehicle light as an output means, and a vehicle light ECU, which is the external environment sensor. By interlocking the vehicle-mounted camera and the vehicle light ECU, a non-lighting image, a lighting image of the headlight and / or a fog lamp, which is a lighting control selection target, is captured as a determination image.
The fog lamp and the headlight are LEDs, and the determination image is captured and the vehicle light is captured by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera. The vehicle light control device is characterized by synchronizing the lighting of the vehicle, determining the image recognition of the visibility of the determination image, and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility. Is.
Since the vehicle light control device of the present invention compares and determines the actual visibility when a visibility disorder occurs by the image recognition of the in-vehicle camera provided in the automobile, it has the effect of providing the driver with the best visibility in a timely manner. be.
Since the vehicle light control device of the present invention can divert an in-vehicle camera incorporated in an automobile such as automatic driving and can further utilize the vehicle light control of the auto light function, the vehicle light ECU is a related ECU. In some cases, it can be handled by adding or changing the program. The vehicle light control device of the present invention has a great cost-effectiveness because it can suppress the additional cost of the hardware of the vehicle light control device.
本発明の請求項2は、前記車灯であるフォグランプの波長を前記ヘッドライトの波長より長くした請求項1に記載の車灯制御装置とすることにより、レイリ散乱によりフォグランプ照明の霧中透過性が高く、フォグランプ照明での視程が前記ヘッドライトより長くなる(霧中視認性が向上する)効果がある。
法規により赤色の灯火を車体前方に設置できないため、赤色光に次ぐ霧中透過性を持つ中間の波長の黄色光が良い。
The second aspect of the present invention is the vehicle light control device according to
Since red lights cannot be installed in front of the vehicle body due to regulations, yellow light with an intermediate wavelength that has transparency in the fog next to red light is preferable.
本発明の請求項3は、前記判定画像の前記車灯の照射範囲を基準にして視程の画像認識を判定する画像判定エリアを設定し、前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置である。
前記車載カメラの撮像素子により車灯の点灯時間の圧縮量の違いはあるが、判定画像の撮像フレームタイミングよりも、車灯判定画像の点灯時間を圧縮できる。
従って、前記車灯の点灯時間と人の目の残像効果により、自車および対向車等に車灯の点滅が知覚されにくいので、自車、対向車等への調査点滅の影響を更に小さくできる効果がある。
A third aspect of the present invention sets an image determination area for determining image recognition of visibility based on the irradiation range of the vehicle light of the determination image, and when the image pickup element of the vehicle-mounted camera is a CCD, the determination is made. From the beginning of the frame pitch of the image to the data transmission unit or the data transmission unit of the image determination area, when the image pickup element of the in-vehicle camera is CMOS, the headlight is used during data transmission or data transmission in the image determination area. The vehicle light control device according to
Although there is a difference in the amount of compression of the lighting time of the vehicle light depending on the image sensor of the vehicle-mounted camera, the lighting time of the vehicle light determination image can be compressed rather than the image pickup frame timing of the determination image.
Therefore, due to the lighting time of the vehicle light and the afterimage effect of the human eye, the blinking of the vehicle light is less likely to be perceived by the own vehicle, the oncoming vehicle, etc., so that the influence of the investigation blinking on the own vehicle, the oncoming vehicle, etc. can be further reduced. effective.
本発明の請求項4は、前記外部環境センサと前記運転状況センサからの入力情報により、視程障害モードと運転状況を予想し、変化する運転状況に対応した車灯選択と車灯選択頻度の設定を行う請求項1~3に記載の車灯制御装置で、タイミングよく、運転状況の変化に対応した点灯制御ができる効果がある。
According to
前記図面(図1~10)に従って、本発明の車灯制御装置1の内容と実施例を、以下に説明する。
本発明の車灯制御装置1は、車灯の点灯制御を外部環境センサである車載カメラ41により撮像される連続(あるいは近接)する2画像において、車灯ECU3により、車灯を前記連続する一方の画像で点灯し、他方の画像で消灯(あるいは異なる車灯を単独点灯)し、前記2画像の視程の画像認識を比較し、視程が良好な画像と同じ車灯の点灯状態に、前記車灯を点灯制御する。前記2画像の画像認識の比較方法の一例は、図7で説明する。
本発明の車灯制御装置1の実施例1は、周囲の明るさに合わせてライトの点灯/消灯を自動的に行う従来技術であるオートライト機能を備えているものとして説明する。
前記オートライト機能により分離された、一方のモードである昼間モードの情報処理ルーチンが図1であり、他方のモードである夜間モードの情報処理ルーチンが図2である。
図1に示すように昼間モードの情報処理ルーチンでは、霧等の視程障害に対するフォグランプ22の点灯制御を視程障害による作動モードに従って行い、前記視程障害による作動モードの一例は、図9で説明する。
実施例1の車灯制御装置1の構成概念は、図3に示すように、出力手段である車灯、入力手段である外部環境センサ4と運転状況センサ5、制御装置である車灯ECU3で構成される。
前記実施例1の車灯制御装置1の、夜間霧中発進時の作動タイムチャートを図4で、夜間霧遭遇時の作動タイムチャートを図5で説明する。
図5の作動タイムチャートに示す、判定域f(D1f、D2f)のヘッドライトとフォグランプ22の車灯照射域を図6で説明し、前記判定域f(D1f、D2f)の画像認識比較方法の一例を図7で説明する。
前記図4のヘッドライト21点灯時の各判定域(D1a、D1b)の、一般的な霧の有無による照射範囲の変化は、フォグランプ22を追加点灯した事例である図10で説明する。
以下の説明において、ヘッドライト21は、走行状況や道路の形状などに応じて自動で前照灯の照度分布を制御する曲線道路用配光可変型前照灯でもよく、フォグランプ22はフォグランプ22に連動するバックフォグ(後部霧灯)を備えていてもよい。
The contents and examples of the vehicle
The vehicle
The first embodiment of the vehicle
The information processing routine in the daytime mode, which is one mode, separated by the auto light function is shown in FIG. 1, and the information processing routine in the nighttime mode, which is the other mode, is shown in FIG.
As shown in FIG. 1, in the information processing routine of the daytime mode, the lighting control of the
As shown in FIG. 3, the construct of the vehicle
The operation time chart of the vehicle
The headlights in the determination area f (D1f, D2f) and the vehicle light irradiation area of the
The change in the irradiation range of each determination area (D1a, D1b) when the
In the following description, the
図1は本発明の車灯制御装置1の実施例1の昼間の情報処理ルーチンで、車灯ECU3により車灯(フォグランプ22)を点灯制御する。
具体的には、車載カメラ41でフォグランプ22の点灯状態と消灯状態の2画像を撮像し、前記2画像の画像認識にて視程を判定し、視程が改善する画像の点灯状態に車灯であるフォグランプ22を点灯制御する本発明の車灯制御装置1の情報処理ルーチンを、フローチャート(図1)に従って説明する。
まず、車灯ECU3は、外部環境センサ4である照度センサ44にて周囲の明るさを測定し、昼間(H)または夜間(L)の制御モードを判断する(ステップS010)。
ここで、照度センサ44の出力信号がLの場合は夜間モードと判断し、図2に示す夜間の制御モードの情報処理ルーチンを実行する(ステップS400)。
一方、照度センサ44の出力信号がHの場合は昼間モードと判断し、車灯ECU3はフォグランプ22が点灯しているかを判断する(ステップS020)。
ここで、フォグランプ22が点灯していないと判断した場合は、(ステップS080)を実行する。
一方、車灯ECU3はフォグランプ22が点灯していると判断した場合は、図9に示す視程障害等の外部環境や走行状態により、適時、車載カメラ41での撮像のための所定時間、フォグランプ22を消灯する(ステップS030)。
次に、フォグランプ22の点灯時と消灯時の車載カメラ41画像の視程の画像認識を判定する(ステップS040)。
具体的には、図3に示すように車灯ECU3の駆動部37がフォグランプ22の切換素子H25を制御し、車載カメラ41でフォグランプ22の点灯時と消灯時の画像を撮像する。
この場合、フォグランプ22がLEDのように応答性が高い車灯の場合は、車灯ECU3が車載カメラ41をソフトトリガやハードトリガや電源信号で同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと車灯点灯タイミングを同期して点灯画像と消灯画像を連続する2画像にて撮像できる。
このフローチャート(図1)は昼間モードであるので、フォグランプ22の点灯と消灯の2画像であるが、夜間モードのフローチャート(図2)の場合は、図4、図5の作動タイムチャートに示すように、ヘッドライト21とフォグランプ22を交互に点灯する2画像を前記同期により、連続する判定域画像として撮像できる。
FIG. 1 is a daytime information processing routine of the first embodiment of the vehicle
Specifically, the vehicle-mounted
First, the
Here, when the output signal of the illuminance sensor 44 is L, it is determined that the mode is nighttime, and the information processing routine of the nighttime control mode shown in FIG. 2 is executed (step S400).
On the other hand, when the output signal of the illuminance sensor 44 is H, it is determined that the mode is daytime, and the
Here, if it is determined that the
On the other hand, when the
Next, the image recognition of the visibility of the image of the vehicle-mounted
Specifically, as shown in FIG. 3, the drive unit 37 of the
In this case, when the
Since this flowchart (FIG. 1) is in the daytime mode, there are two images of turning on and off the
次に、車灯ECU3は前記フォグランプ22の点灯時と消灯時の車載カメラ41画像の視程の画像認識を比較する(ステップS050)。
具体的には、車載カメラ41画像の画像認識にて、点灯時と消灯時のどちらの視程が長いかを判定する。この判定方法は、夜間モードの一例ではあるが、ヘッドライト21とフォグランプ22の比較事例(図6、図7)で説明する。
ここで、フォグランプ22の点灯画像の像認識が消灯画像より視程が改善していれば、フォグランプ22の点灯を継続してRETURNにて本処理ルーチンのSTARTに戻る。
一方、フォグランプ22の点灯画像の像認識が消灯画像より改善していなければ、この判定ステップの処理が連続何回であるかをカウントし、連続処理回数が設定値に達しているかを判定する(ステップS060)。
これは、安全のためにフォグランプ22の点灯は早く、消灯は複数回の画像認識により確実に消灯状態になっているのを確認し、不安定な状況ではフェイルセーフ側の点灯を優先する。
具体的には、外部環境センサ4である車載カメラ41、照度センサ44、温湿度計47と、前記運転状況センサ5である運転モード51、車速センサ53、ワイパーモード55、により視程障害モード等を想定し、前記車灯を変化する外部環境や運転状況に対応して、タイミングよく点灯制御するために、前記連続処理回数を車灯ECU3が設定する。
ここで、処理回数が 設定値に達していない場合は、(ステップS030)に戻る。
一方、処理回数が 設定値に達した場合は、フォグランプ22を消灯し、RETURNにて、本処理ルーチンのSTARTに戻る(ステップS070)。
次に、前記走行状態等により、適時、所定時間、フォグランプ22を点灯する(ステップS080)。
次に、フォグランプ22の消灯時と点灯時の車載カメラ41画像の視程の画像認識の判定を行う(ステップS090)。
具体的には、前記(ステップS080)と(ステップS090)は、フォグランプ22の(点灯)と(消灯)の状態が入れ換わっているが、作用は、前記(ステップS030)と(ステップS040)と同じであるので、説明を省略する。
次に、車灯ECU3は前記フォグランプ22の点灯時と消灯時の車載カメラ41画像の画像認識を比較する(ステップS100)。
具体的には、車載カメラ41画像の画像認識にて、前記(ステップS050)と同様に、点灯時と消灯時のどちらの視程が長く改善しているかを判定する。
ここで、フォグランプ22の点灯画像の像認識が消灯画像より改善していなければ、RETURNにて本処理ルーチンのSTARTに戻る。
一方、フォグランプ22の点灯画像の像認識が消灯画像より改善していれば、フォグランプ22を点灯(ステップS110)した後、RETURNにて本処理ルーチンのSTARTに戻る。
図1に示すフローチャートは、自動車の運転中に車灯制御装置1にて繰り返し実行される。
Next, the
Specifically, in the image recognition of the image of the vehicle-mounted
Here, if the image recognition of the lighting image of the
On the other hand, if the image recognition of the lit image of the
This confirms that the
Specifically, the vehicle-mounted
Here, if the number of processes has not reached the set value, the process returns to (step S030).
On the other hand, when the number of processes reaches the set value, the
Next, the
Next, the image recognition of the visibility of the image of the vehicle-mounted
Specifically, in the above (step S080) and (step S090), the (lighting) and (extinguishing) states of the
Next, the
Specifically, in the image recognition of the image of the vehicle-mounted
Here, if the image recognition of the turned-on image of the
On the other hand, if the image recognition of the turned-on image of the
The flowchart shown in FIG. 1 is repeatedly executed by the vehicle
図2は、前記実施例1の夜間の情報処理ルーチンを示すフローチャートで、車灯ECU3により対向車、前走車の有無を判断してヘッドライト21のハイビームとロービームを切換え、車載カメラ41で前記ヘッドライト21とフォグランプ22を点灯制御して交互に単独点灯した2画像を撮像し、前記2画像の画像認識にて視程を判定し、視程が改善する画像の点灯状態に車灯の点灯制御を行う。前記情報処理ルーチンを、フローチャート(図2)に従って説明する。
まず、車灯ECU3は、車載カメラ41の画像認識により、自車10に対する対向車、前走車の有無を判断する(ステップS410)。
ここで、対向車または前走車があると判断した場合は、フォグランプ22を消灯し、ヘッドライト21のロービームを点灯する(ステップS470)。
一方、対向車と前走車がないと判断した場合は、フォグランプ22を消灯し、ヘッドライト21のハイビームを点灯する(ステップS420)。
次に、図9に示す視程障害等の外部環境や走行状態により、適時、車載カメラ41での撮像のための所定時間、フォグランプ22の点灯とヘッドライト21消灯を行う(ステップS430)。
具体的には、図3に示すように車灯ECU3の駆動部37が、フォグランプ22の切換素子H25とヘッドライト21の切換素子H24を制御し、車載カメラ41で単独点灯するハイビームの点灯画像とフォグランプ22の点灯画像を撮像する。
この場合、車灯であるヘッドライト21とフォグランプ22がLEDのように応答性が高い車灯では、車灯ECU3と車載カメラ41を、ソフトトリガやハードトリガで同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと点灯タイミングを同期して連続する2画像に撮像できる。
従って、図4、図5の作動タイムチャートに示すように、ヘッドライト21とフォグランプ22を交互に独立点灯する2画像を、車載カメラ41によって連続する判定域画像として撮像できる。
次に、車灯ECU3はヘッドライト21とフォグランプ22を交互に独立点灯する前記車載カメラ41画像(2画像)の視程の画像認識を判定する(ステップS440)。
具体的には、ヘッドライト21とフォグランプ22がLEDで応答性が高い車灯で、車灯ECU3と車載カメラ41をソフトトリガやハードトリガで同期させる、または車載カメラ41のフレームタイミング信号により、撮像タイミングと車灯点灯タイミングを同期してハイビームとフォグランプ22の各々の単独点灯画像を連続する2画像にて撮像できる。
例えば、図4、図5の夜間モードの作動タイムチャートに示すように、車載カメラ41にてヘッドライト21とフォグランプ22を交互に単独点灯し、連続する2画像を各判定域画像として撮像できる。
前記車載カメラ41画像(2画像)の視程の画像認識は、具体的には、ハイビーム点灯時とフォグランプ22点灯時のどちらの視程が長いかを判定する。この判定方法の一例は、夜間モードでの、ヘッドライト21とフォグランプ22の比較事例(図6、図7)で説明する。
FIG. 2 is a flowchart showing the nighttime information processing routine of the first embodiment, in which the presence or absence of an oncoming vehicle and a vehicle in front is determined by the
First, the
Here, if it is determined that there is an oncoming vehicle or a vehicle in front, the
On the other hand, when it is determined that there are no oncoming vehicle and no vehicle in front, the
Next, the
Specifically, as shown in FIG. 3, the drive unit 37 of the
In this case, in a vehicle light in which the
Therefore, as shown in the operation time charts of FIGS. 4 and 5, two images in which the
Next, the
Specifically, the
For example, as shown in the operation time charts of the night mode in FIGS. 4 and 5, the
The image recognition of the visibility of the vehicle-mounted
次に、車灯ECU3は前記車載カメラ41画像の単独点灯するハイビーム点灯画像とフォグランプ22点灯画像の視程の画像認識を比較する(ステップS450)。
ここで、フォグランプ22点灯画像の視程がハイビーム点灯画像より改善していなければ、ハイビームを点灯してフォグランプ22を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS460)。
一方、フォグランプ22の点灯画像の像認識の視程がハイビームの点灯画像より改善していれば、フォグランプ22を消灯し、ロービームを点灯する(ステップS470)。
次に、図9に示す視程障害等の外部環境や走行状態により、適時、所定時間、フォグランプ22の点灯、ヘッドライト21の消灯を行う(ステップS480)。
具体的には、図3に示すように車灯ECU3の駆動部37がフォグランプ22の切換素子H25とヘッドライト21の切換素子H24を制御し、車載カメラ41で単独点灯するロービームの点灯画像とフォグランプ22の点灯画像を撮像する。
車灯ECU3と車載カメラ41を同期させる等の説明は、(ステップS430)と同じであるので省略する。
次に、前記車載カメラ41画像の単独点灯するロービーム点灯画像とフォグランプ22点灯画像の視程の画像認識の判定を行う(ステップS490)。
この視程の画像認識の判定方法等の説明は、(ステップS440)と同じなので説明を省略する。
次に、車灯ECU3は車載カメラ41画像の単独点灯するロービーム点灯画像とフォグランプ22点灯画像の視程の画像認識を比較する(ステップS500)。
ここで、フォグランプ22点灯画像の視程の画像認識がロービーム点灯画像の視程の画像認識より改善していれば、ロービームを点灯し、フォグランプ22を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS510)。
一方、フォグランプ22点灯画像の視程の画像認識がロービーム点灯画像の視程の画像認識より改善していなければ、フォグランプ22を点灯し、ヘッドライト21を消灯し、図1の2に進み、RETURNを経てSTARTに戻る(ステップS520)。
図2に示すフローチャートは、自動車の運転中に車灯制御装置1にて図1に示す情報処理ルーチンの夜間用のサブルーチンとして繰り返し実行される。
Next, the
Here, if the visibility of the
On the other hand, if the visibility of image recognition of the lighting image of the
Next, the
Specifically, as shown in FIG. 3, the drive unit 37 of the
The description of synchronizing the
Next, the image recognition of the visibility of the low beam lighting image of the vehicle-mounted
Since the description of the method for determining the image recognition of the visibility is the same as in (Step S440), the description thereof will be omitted.
Next, the
Here, if the image recognition of the visibility of the
On the other hand, if the image recognition of the visibility of the
The flowchart shown in FIG. 2 is repeatedly executed by the vehicle
図3は、前記実施例1の本発明の車灯制御装置1の、構成概念を示す説明図である。
図3に示す車灯制御装置1は、出力手段である車灯2、入力手段である外部環境センサ4と運転状況センサ5、制御装置である車灯ECU3で構成される。
出力手段である車灯2は、車灯であるヘッドライト21をON/OFF制御し、更にハイビームとロービームに切換える切換素子H24と、フォグランプ22をON/OFF制御する切換素子F25と、手動切換用のスイッチH27とスイッチF28で構成されている。
ヘッドライト21は、カーブ走行で進行方向を照らす曲線道路用配光可変型前照灯であってもよく、フォグランプ22は、バックフォグ(後部霧灯)を備えることもできる。
車灯制御装置1の入力手段である外部環境センサ4は、車載カメラ41、照度センサ44、温湿度計47で構成されている。
画像認識のできる車載カメラ41は本発明には必須のセンサであり、実施例1は、従来技術であるオートライト機能を前提とするので、照度センサ44がある。
温湿度計47は、図9に示す作動モードの設定に利用でき、運転関連要素と外部環境により視程障害モードの設定に有効である。
外部環境センサ4としては、送波器から超音波を対象物に向け発信し、その反射波を受波器で受信する超音波センサ、ミリ波を利用するミリ波レーダ、レーザ光を利用するLiDAR(ライダ)等もあるが、運転者の視程改善を行う本発明の車灯制御装置1には、可視光の受光センサである車載カメラ41が重要な働きを行う。
車灯制御装置1の入力手段である運転状況センサ5は、運転モード51、車速センサ53、ワイパーモード55により運転状況の概要を把握でき、図3には記載していないがサイドブレーキ等の運転状況の情報も有用である。
前記入力センサである外部環境センサ4と運転状況センサ5により、視程障害モード等を想定し、図1の(ステップS060)のように、車灯2を変化する外部環境や運転状況に対応して、タイミングよく点灯制御する。
制御装置である車灯ECU3は、車灯2の手動切換用のスイッチH27とスイッチF28からの入力を検知する車灯判定部34、入力手段の外部環境センサ4からの入力を検知する外部環境判定部32、運転状況センサ5からの入力を検知する走行状態判定部33からの入力等により、車灯制御装置1の情報処理ルーチン(実施例1では、図1、図2)に従い情報処理を行い、出力手段である車灯2に点灯制御の出力を実施する。
FIG. 3 is an explanatory diagram showing a configuration concept of the vehicle
The vehicle
The
The
The
The vehicle-mounted
The thermo-
The
The driving
With the
The
図4は、前記実施例1の車灯制御装置1の、夜間霧中発進時の作動タイムチャートである。
図4の横軸は時間軸で、最上段に示すように二点鎖線の左側の霧遭遇時に発進し、二点鎖線の右側では霧が消滅している。
縦軸は図3で説明した車灯制御装置1の各構成ブロックの、出力手段である車灯2、制御装置である車灯ECU3、入力手段である外部環境センサ4と運転状況センサ5、の情報処理ルーチンに関連する各構成要素である。
外部環境センサ4の構成要素である車載カメラ41の、フレームピッチ(St)の区切り(長線)は、画面(以下、「フレーム」という。)の区切りであり、各フレームの区切り毎にフレームタイミング信号が出力される。フレームタイミング信号の出力間隔(St)は、フレームレートの逆数(秒)である。
各フレーム内の等ピッチの短線は、画像データ伝送の走査線であり、すべての走査線を一本ずつ順番に伝送するプログレッシブ方式とし、本図は、本発明の説明図であるので、走査線は実際の本数より少なく描いている。
前記車載カメラ41以外の各関連要素は、ON/OFF、または入出力信号であるH/L切換えを図示している。
ヘッドライト21は、ハイビームとロービームの切換えは説明を容易にするため省略し、制御部31(フォグ)は、各フレームでのフォグランプ22への出力信号のみを図示し、理解が容易なように判定域での出力信号を太線で記している。
図4の作動タイムチャートを、実施例1の情報処理サブルーチン(図1、図2)の各ステップに従って説明する。
FIG. 4 is an operation time chart of the vehicle
The horizontal axis of FIG. 4 is the time axis, and as shown in the uppermost row, the fog starts when the fog is encountered on the left side of the two-dot chain line, and the fog disappears on the right side of the two-dot chain line.
The vertical axis represents the
The frame pitch (St) division (long line) of the vehicle-mounted
The short lines of equal pitch in each frame are scanning lines for image data transmission, and a progressive method is used in which all the scanning lines are transmitted one by one in order. Since this figure is an explanatory diagram of the present invention, the scanning lines are used. Is drawn less than the actual number.
Each related element other than the vehicle-mounted
The
The operation time chart of FIG. 4 will be described according to each step of the information processing subroutine (FIGS. 1 and 2) of the first embodiment.
まず、制御の起動で情報処理サブルーチン(図1)が起動し、(S010)で照度センサ44が、夜間発進であるので出力をHからLに切換え、(S400)の夜間の情報処理サブルーチン(図2)を実行する。
説明を容易にするため、夜間の情報処理サブルーチン(図2)のハイビームとロービームの切換え(S410)以降は、ハイビームとロービームが違うだけで作動原理が同じなので、ハイビーム(S420)を選択したものとして説明する。
発進操作により図4の運転モード(P)51Pの駐車モードの出力がLに切換わると、外部環境判定部32Dの出力がHに切換わり、図示しない運転モードがLからHになる。
運転モードがHになると、車載カメラ41が作動し、制御部31の出力信号(ON)により判定域aの(D1a)のフレームでヘッドライト21が点灯する。
車載カメラ41のフレームタイミング信号により制御部31は、走行状態等により、適時、所定時間である判定域aの(D2a)のフレームで、ヘッドライト21を消灯し、フォグランプ22を点灯する(S430)。なお、夜間走行中であるので、無灯火画像は判定の対象にはならない。
各車灯の単独点灯時の車載カメラ41画像(D1a、D2a)の視程の画像認識の判定を行い(S440)、霧遭遇中なのでフォグランプ22点灯画像(D2a)の視程が改善していると判断し、制御部31の(ON)信号により、フォグランプ22を点灯(S450)する。
フォグランプ22の点灯走行中は、適時、走行状態等により決められた(N1st)の間隔で設けた判定域にて、ヘッドライト21とフォグランプ22の切換えを判断する。
判定域の前記間隔(N1st)は、入力手段である外部環境センサ4、運転状況センサ5からの入力と出力である車灯の点灯制御状態や、図9に示す作動モードにより車灯ECU3が設定する。
図4には示されていないが、霧遭遇時は、ハイビームよりロービームの視程の方が改善する場合があるので、ロービームとフォグランプ22の視程の画像認識の比較判定を行う(S470~S520)が、前記ハイビームとロービームが置き換わるだけで、比較判定方法は同じである。
前記視程改善の判断処理が遅れる場合は、タイムラグによりフォグランプ22の点灯遅れが発生する場合がある。
霧に遭遇中のフォグランプ22点灯走行から、霧が解消した複数回の判定域b(D1b、D2b)~判定域c(D1c、D2c)で視程の画像認識の判定を行い、フォグランプ22点灯画像の視程がいずれも改善していないと判断した場合、制御部31の(OFF)信号により、フォグランプ22を消灯する(S460)または(S510)。
図4の作動タイムチャートでは、判定域の各フレーム(St)全域を車灯点灯による露光フレームとデータ伝送フレームとして説明したが、図7で説明するように、車載カメラ41の撮像素子がCCDの場合は、フレームの画像判定エリアのデータ伝送時にローリングシャッタの作動により露光し、車灯の点灯時間を更に短くすることができる。
車載カメラ41の撮像素子がCMOSの場合は、フレームレートより高速に読み取る、あるいは、判定域のフレームの視程の画像認識の画像判定エリアのデータの読み取り時に車灯を点灯し、点灯時間を短くすることができる。これらの対応により、自車10および対向車の運転者等に車灯の点灯/消灯が知覚されず、車灯の点滅の弊害を少なくできる。
First, when the control is activated, the information processing subroutine (FIG. 1) is activated, and at (S010), the illuminance sensor 44 starts at night, so the output is switched from H to L. 2) is executed.
For ease of explanation, after switching between high beam and low beam (S410) in the information processing subroutine at night (Fig. 2), the operating principle is the same except for the difference between high beam and low beam, so it is assumed that high beam (S420) is selected. explain.
When the output of the parking mode of the operation mode (P) 51P of FIG. 4 is switched to L by the starting operation, the output of the external environment determination unit 32D is switched to H, and the operation mode (not shown) changes from L to H.
When the operation mode becomes H, the vehicle-mounted
Based on the frame timing signal of the vehicle-mounted
Judgment of image recognition of the visibility of the in-
While the
The interval (N1st) in the determination area is set by the
Although not shown in FIG. 4, when fog is encountered, the visibility of the low beam may be improved rather than the visibility of the high beam, so the image recognition of the visibility of the low beam and the
If the visibility improvement determination process is delayed, the
From the
In the operation time chart of FIG. 4, the entire area of each frame (St) in the determination area is described as an exposure frame by lighting the vehicle light and a data transmission frame, but as described in FIG. 7, the image sensor of the in-
When the image sensor of the in-
図5は、前記実施例1の車灯制御装置1の、夜間霧遭遇時の作動タイムチャートである。
図の縦軸、横軸および表記等は前記夜間霧中発進時の図4と同じであるので説明を省略する。
図5は夜間発進して霧に遭遇する場合の作動タイムチャートであり、夜間発進の起動から最初の判定域d(D1d、D2d)までの情報処理サブルーチンは図4と同じであるので説明を省略する。図5は霧中ではないので、前記判定域d(D1d、D2d)の判定結果は、フォグランプ22を消灯し、ヘッドライト21を点灯し、以降のヘッドライト21の点灯走行中は、適時、走行状態等により決められた(N2st)の間隔で判定域にてヘッドライト21とフォグランプ22の切換えを判断する。
判定域の前記間隔(N2st)は、入力手段である外部環境センサ4、運転状況センサ5からの入力と出力である車灯の点灯制御状態や、図9に示す作動モードにより車灯ECU3が設定する。
霧に遭遇して最初の判定域f(D1f、D2f)にて、ヘッドライト21(D1f)とフォグランプ22(D2f)の各車灯単独点灯時の画像の視程の画像認識の判定を行い、制御部31はフォグランプ22の点灯信号を出す。
前記判定域f(D1f、D2f)の拡大図に示すように、画像データの時間軸方向の(Dh)、走査線方向の(Dw)で囲まれたデータの視程の画像認識を判定して比較し、詳細は、図6、図7にて説明する。
FIG. 5 is an operation time chart of the vehicle
Since the vertical axis, the horizontal axis, the notation, etc. of the figure are the same as those of FIG. 4 when starting in the night fog, the description thereof will be omitted.
FIG. 5 is an operation time chart when the vehicle starts at night and encounters fog, and the information processing subroutine from the start of the night start to the first judgment area d (D1d, D2d) is the same as in FIG. 4, so the description is omitted. do. Since FIG. 5 is not in the fog, the determination result of the determination area d (D1d, D2d) is that the
The interval (N2st) in the determination area is set by the
In the first determination area f (D1f, D2f) after encountering fog, the image recognition of the image visibility when the headlights 21 (D1f) and the fog lamps 22 (D2f) are individually lit is determined and controlled. The unit 31 outputs a lighting signal of the
As shown in the enlarged view of the determination area f (D1f, D2f), the image recognition of the visibility of the data surrounded by (Dh) in the time axis direction and (Dw) in the scanning line direction of the image data is determined and compared. The details will be described with reference to FIGS. 6 and 7.
図6は、前記図5の判定域f(D1f、D2f)の、請求項2対応のヘッドライト21とフォグランプ22の車灯照射域の説明図である。
前記図5における、霧に遭遇して最初の判定域f(D1f、D2f)の、ヘッドライト21が単独点灯する判定域(D1f)では、図6上図(1)の側面図と平面図に示すように、悪天候時でなければ照射域が長いヘッドライト21も、霧の水の粒に散乱して遮られ照射距離が短くなる。
一方、フォグランプ22が単独点灯する判定域(D2f)では、図6下図(2)の側面図と平面図に示すように、ヘッドライト21より照射幅が広いが照射位置が低いが、請求項2対応により、フォグランプ22の波長がヘッドライト21の波長より長いので、霧の水の粒に散乱しにくいので、それを通りぬけてより遠くまで届いて霧中透過性が高く、ヘッドライト21より照射距離の短縮が小さい。
従って、図6に示すように、霧に遭遇した場合は、通常照射距離が長いヘッドライト21より、霧中透過性が高いフォグランプ22の照射距離の方が長くなる場合が多いが、霧の濃度等により、どちらの車灯の視認性が良いかは悪天候の状況等により異なる。
従って、本発明の車灯制御装置1により、霧に遭遇して最初の判定域f(D1f、D2f)の視程を画像認識により比較し、最良の車灯を点灯することにより、遭遇する悪天候の状況に対応し、最良の視程を提供できる。
FIG. 6 is an explanatory diagram of the vehicle light irradiation area of the
In the determination area (D1f) in which the
On the other hand, in the determination area (D2f) in which the
Therefore, as shown in FIG. 6, when fog is encountered, the irradiation distance of the
Therefore, the vehicle
図7は、前記図5の判定域f(D1f、D2f)の、画像認識比較方法の一例を示す説明図である。
図7は、前記図5の、霧に遭遇して最初の判定域f(D1f、D2f)の、車載カメラ41の画像データである。図7上図(H)は、ヘッドライト21が単独点灯する前記判定域(D1f)、図7下図(F)は、フォグランプ22が単独点灯する前記判定域(D2f)の車載カメラ41の画像データである。
前記図6の上図(1)の側面図と平面図に示すように、ヘッドライト21が単独点灯する判定域(D1f)の図7の上図(H)の画像データより、前記図6の下図(2)の側面図と平面図に示すように、フォグランプ22が単独点灯する判定域(D2f)の図7の下図(F)の画像データの視程が長いのが分かる。
前記視程を車灯ECU3で判断するために、図7の上図(H)と、下図(F)に、同じ座標位置で、幅(Dw)、高さ(Dh)の二点鎖線(太線)で囲まれた画像判定エリアを設定する。
前記画像判定エリアは、各車灯の照射範囲を重点に設定するため、フレーム上部から(B)、フレーム側面から(A)離れた位置に設定し、車速等の運転状況や、道路の形状等により画像判定エリアを拡大/縮小、あるいは上下左右に位置修正をすることもできる。
前記図5の判定域f(D1f、D2f)の車載カメラ41のデータ伝送は、図7の上図(H)と、下図(F)の左端より、長さ(Hs)の走査線をデータ伝送し、走査線はフレーム上端から下端まで一本ずつ順番に伝送するプログレッシブ方式とする。
車灯制御装置1の車灯ECU3が視程を判断するには、図7の前記画像判定エリアの、道路、人、車、道路標識等の画像認識は、道路が設けられている地形の二次元データに近い道路の画像認識を優先して判定する。
図7の上図と下図の前記画像判定エリアに存在する二つの認識率を設定し、高い方の認識率の画像(一点鎖線)の画像判定エリア下端からの高さ(R1H)(R2H)と、低い方の認識率の画像(破線)の画像判定エリア下端からの高さ(R1L)(R2L)を算出する。
図7上図(H)と図7下図(F)で、高い方の認識率の画像(一点鎖線)の前記画像判定エリア上の高さ(R1H)(R2H)を比較し、次に、低い方の認識率の画像(一点鎖線)の前記画像判定エリア上の高さ(R1L)(R2L)を比較し、前記画像判定エリア上の高さが高い,図7下図(F)の画像データの視程が良好であると判定する。
仮に、高い方の認識率と低い方の認識率の視程の判定が一致しない場合は、優先する認識率の視程が良好であると判定する、車灯を変更せず今回は判定を留保する、または、運転関連要素と視程障害による作動モード等を考慮して判定する。
前記画像認識による視程の判定方法とは異なる方法として、2台(1台は車載カメラ41)のカメラにより人間の目と同様に視差画像を生成して距離の簡易測定ができるステレオカメラの距離機能により、設定した認識率(閾値)の画像の視程を簡易測定して比較判断する。道路の画像認識が困難な場合等に、有効である。
FIG. 7 is an explanatory diagram showing an example of an image recognition comparison method in the determination area f (D1f, D2f) of FIG.
FIG. 7 is image data of the vehicle-mounted
As shown in the side view and the plan view of the upper figure (1) of FIG. 6, the image data of the upper figure (H) of FIG. As shown in the side view and the plan view of the lower figure (2), it can be seen that the visibility of the image data in the lower figure (F) of FIG. 7 in the determination area (D2f) in which the
In order to determine the visibility with the
In order to set the irradiation range of each vehicle light as important, the image determination area is set at a position (B) away from the upper part of the frame and (A) away from the side surface of the frame, and the driving condition such as vehicle speed and the shape of the road are set. It is also possible to enlarge / reduce the image determination area or correct the position up / down / left / right.
In the data transmission of the vehicle-mounted
In order for the
Two recognition rates existing in the image judgment areas in the upper and lower figures of FIG. 7 are set, and the height (R1H) (R2H) from the lower end of the image judgment area of the image (dashed-dotted line) having the higher recognition rate. , The height (R1L) (R2L) from the lower end of the image determination area of the image (broken line) having the lower recognition rate is calculated.
In the upper figure (H) of FIG. 7 and the lower figure (F) of FIG. 7, the heights (R1H) (R2H) on the image determination area of the image (dashed-dotted line) having the higher recognition rate are compared, and then the lower one. The height (R1L) (R2L) on the image determination area of the image (dashed-dotted line) of the recognition rate is compared, and the height on the image determination area is high. Judge that the visibility is good.
If the visibility of the higher recognition rate and the visibility of the lower recognition rate do not match, it is judged that the visibility of the priority recognition rate is good, the judgment is reserved this time without changing the vehicle light. Alternatively, the determination is made in consideration of driving-related factors and the operation mode due to visibility impairment.
As a method different from the method of determining visibility by image recognition, the distance function of a stereo camera capable of generating a difference image in the same manner as the human eye by two cameras (one is an in-vehicle camera 41) and simply measuring the distance. The visibility of the image with the set recognition rate (threshold) is simply measured and compared. This is effective when it is difficult to recognize the image of the road.
図8は、請求項3対応の、車載カメラ41の撮像素子(CCD、CMOS)による車灯点灯時間短縮の説明図(タイミングチャート)である。
図8は、夕方の霧遭遇時等の判定域gの2フレームで、一方のフレームはヘッドライト21、他方のフレームはフォグランプ22を単独点灯する作動タイムチャートで、上図(D)は車載カメラ41dの撮像素子がCCD、下図(M)は車載カメラ41mの撮像素子がCMOSである。
外部環境センサ4の構成要素である車載カメラ41d(m)は、フレームピッチ(St)の区切り(長線)毎に、車灯ECU3にフレームタイミング信号が出力され、車灯ECU3はそれらの入出力情報と各フレームの画像データ伝送タイミングおよび、その中の画像判定エリアの画像データ伝送タイミング(Dh1)等を基に、車灯2であるヘッドライト21とフォグランプ22にON/OFFの出力信号を出力する。
各フレーム内の等ピッチの短線は、画像データ伝送の走査線であり、すべての走査線を一本ずつ順番に伝送するプログレッシブ方式とし、本図は、本発明の請求項3対応の説明図であるので、走査線は実際の本数より少なく描いている。
車載カメラ41(d、m)は、説明のために仮にフレームピッチ(St)の70%の時間で画像データを伝送するものとし、撮像素子が(CCD)の車載カメラ41dは、フレームピッチ(St)の後半に、撮像素子が(CMOS)の車載カメラ41mは、フレームピッチ(St)の前半に前記画像データの伝送を行う。
画像データの画像判定エリアは、前記図7と同じ比率であり、走査線の時間軸が70%圧縮されているので、(B1)(Dh1)(C1)は、時間軸が図7より圧縮されている。
上図(D)は車載カメラ41dの撮像素子がCCDで、判定域gの各フレーム(D1g、D2g)の最初から画像判定エリアの画像データの伝送開始(Dh1)までにシャッタにより露光が停止されるので、各車灯の点灯時間(Td)を、それ以上長くしても撮像素子のCCDには露光されないので、前記図4、5のように、フレームピッチ(St)の間、点灯中でも問題はない。画像判定エリアの画像データの伝送開始(Dh1)が制御上できない、場合は、画像データの伝送開始(B1)までの点灯としてもよい。
シャッタは、ラインごとに画像を順次スキャンするローリングシャッタでも、画像の全領域を同時にスキャンするグローバルシャッタでもよい。
下図(M)は車載カメラ41mの撮像素子がCMOSで、受光素子で露光による光を電気信号に変えアンプで増幅するので、判定域gの各フレーム(D1g、D2g)の最初から画像データの伝送を開始し、各フレームの最初から(B1)経過後に開始する画像判定エリアの画像データの伝送(Dh1)時に、各車灯を点灯する。
従って、点灯時間(Tm)は、画像判定エリアの画像データの伝送(Dh1)と同じであるが、画像判定エリアの画像データの伝送(Dh1)に各車灯の点灯タイミングを合わすのが制御上困難な場合は、画像データの伝送中(B1、Dh1、C1)を点灯時間(Tm)としてもよい。
本説明では、仮にフレームピッチ(St)の70%の時間で画像データを伝送するものとして説明しているが、フレームレート、撮像素子の伝送方法や速度により、伝送時間(Dh1)の圧縮率は変化し、撮像素子がCMOSの場合は、CCDのように走査線単位ではなく、データ伝送範囲の選択をエリア指定が可能(AOI)であれば、幅(Dw1)、高さ(Dh1)の画像判定エリアの画像データのみを伝送することで伝送時間(Dh1)を更に時間短縮することもできる。
FIG. 8 is an explanatory diagram (timing chart) for shortening the lighting time of the vehicle light by the image sensor (CCD, CMOS) of the vehicle-mounted
FIG. 8 is an operation time chart in which the
The vehicle-mounted camera 41d (m), which is a component of the
The short lines of equal pitch in each frame are scanning lines for image data transmission, and a progressive method is used in which all the scanning lines are transmitted one by one in order. This figure is an explanatory diagram corresponding to claim 3 of the present invention. Because there are, the number of scanning lines is less than the actual number.
For the sake of explanation, the in-vehicle camera 41 (d, m) is supposed to transmit image data in 70% of the frame pitch (St), and the in-vehicle camera 41d whose image sensor is (CCD) is the frame pitch (St). ), The vehicle-mounted camera 41m whose image sensor is (CMOS) transmits the image data in the first half of the frame pitch (St).
Since the image determination area of the image data has the same ratio as in FIG. 7 and the time axis of the scanning line is compressed by 70%, the time axis of (B1) (Dh1) (C1) is compressed from FIG. ing.
In the above figure (D), the image sensor of the in-vehicle camera 41d is a CCD, and the exposure is stopped by the shutter from the beginning of each frame (D1g, D2g) in the determination area g to the start of image data transmission (Dh1) in the image determination area. Therefore, even if the lighting time (Td) of each vehicle light is made longer than that, the CCD of the image sensor is not exposed. Therefore, as shown in FIGS. 4 and 5, there is a problem even during lighting during the frame pitch (St). There is no. If the transmission start (Dh1) of the image data in the image determination area cannot be controlled, the lighting may be turned on until the transmission start (B1) of the image data.
The shutter may be a rolling shutter that sequentially scans an image line by line, or a global shutter that simultaneously scans the entire area of an image.
In the figure below (M), the image sensor of the in-vehicle camera 41m is CMOS, and the light receiving element converts the light from exposure into an electric signal and amplifies it with an amplifier. Is started, and each vehicle light is turned on at the time of transmission (Dh1) of image data in the image determination area, which starts from the beginning of each frame (B1).
Therefore, the lighting time (Tm) is the same as the transmission of the image data in the image determination area (Dh1), but it is controlled that the lighting timing of each vehicle light is matched with the transmission of the image data in the image determination area (Dh1). If it is difficult, the lighting time (Tm) may be set during transmission of image data (B1, Dh1, C1).
In this description, it is assumed that the image data is transmitted at a time of 70% of the frame pitch (St), but the compression rate of the transmission time (Dh1) depends on the frame rate, the transmission method and speed of the image pickup element. When the image pickup element is CMOS, the width (Dw1) and height (Dh1) images are available if the data transmission range can be selected by area (AOI) instead of by scanning line as in CCD. The transmission time (Dh1) can be further shortened by transmitting only the image data in the determination area.
図9は、本発明の車灯制御装置1の、運転関連要素と視程障害による作動モードの一例を示す表である。
本発明は、点灯制御の選択対象となる車灯2であるヘッドライト21とフォグランプ22の点灯画像を判定画像として撮像し、前記判定画像の視程の画像認識を判定し、前記判定画像の視程が最も良好な判定画像と同じ車灯点灯状態に、前記車灯2を点灯制御する車灯制御装置1である。従って、適切な車灯制御を行うために、走行状態等により、選択対象とする車灯を選定し、その判定頻度等を決定する必要がある。
図9に示すように、車灯2であるヘッドライト21とフォグランプ22の選択は、視程障害モードにより優先度があるが、この優先度は判定の頻度等に利用し、この目安としての可能性にとらわれることなく、実際に点灯画像を判定画像として撮像して判定し、前記判定画像の視程が最も良好な点灯状態に、前記車灯2を点灯制御する。
表9に示す各視程障害モードは、外部環境センサ4である車載カメラ41、照度センサ44、温湿度計47と、運転状況センサ5である運転モード51、車速センサ53、ワイパーモード55からの入力情報により、視程障害モードの種類、発生確率、視程障害の度合い等を推測する。
特に、車速センサ53、ワイパーモード55等による重要な変動要素に対しては、選択対象とする車灯の判定タイミングとリンクし、情報処理ルーチンや作動タイムチャートで示した確認間隔、確認回数等に反映して、臨機応変に点灯制御する。
表9の実施例は、作動モードの視程障害の一例であり、各入力センサは取捨選択が可能である。
FIG. 9 is a table showing an example of an operation mode of the vehicle
In the present invention, the lighting images of the
As shown in FIG. 9, the selection of the
Each visibility failure mode shown in Table 9 is input from the in-
In particular, for important fluctuation factors due to the vehicle speed sensor 53,
The embodiment in Table 9 is an example of visibility impairment in the operation mode, and each input sensor can be selected.
図10は、ヘッドライト21とフォグランプ22を点灯した場合の、一般的な霧による照射範囲の変化の説明図である。
上図(N)は、夜間に、ヘッドライト21、フォグランプ22と、バックフォグ(後部霧灯)を点灯して走行行中の自車10の側面図と平面図であり、フォグランプ22の波長はヘッドライト21の波長より長いものとする。
下図(F)は、夜間の霧発生時に、ヘッドライト21、フォグランプ22と、バックフォグ(後部霧灯)を点灯して走行行中の自車10の側面図と平面図である。
夜間走行中の上図(N)から分かるように、ヘッドライト21は前方の遠くに照射域があり、フォグランプ22はヘッドライト21より、水平方向に広く、垂直方向には低い位置を照射範囲としている。
夜間の霧発生時に走行中の下図(F)から分かるように、ヘッドライト21はレイリ散乱により霧中透過性が低いので照射域が短くなり、フォグランプ22はヘッドライト21より波長が長いので、霧中透過性が高いので、水平方向に広く、垂直方向には低い位置には変わりないが、照射域の長さはヘッドライト21ほど短くならない。
従って、夜間の霧発生時に走行中の下図(F)では、フォグランプ22の方がヘッドライト21より照射域が長くなる。
FIG. 10 is an explanatory diagram of a change in the irradiation range due to general fog when the
The above figure (N) is a side view and a plan view of the
The figure below (F) is a side view and a plan view of the
As can be seen from the above figure (N) during night driving, the
As can be seen from the figure below (F) during running when fog is generated at night, the
Therefore, in the figure below (F) during traveling when fog is generated at night, the
前記実施例1では、ヘッドライト21とフォグランプ22が同時に点灯しない実施例としたが、車灯の単独点灯を前提としない場合は、図10に示すように、ヘッドライト21のハイビームまたはロービームと、フォグランプ22の組み合わせ点灯と車灯の単独点灯を判定対象画像としてもよく、更に、判定域を2フレームではなく3フレーム以上の連続あるいは近接する判定画像としても良い。
前記実施例1は、本発明の一例を示すもので本発明を制約するものではなく、当業者により変更および改良ができる。
In the first embodiment, the
The first embodiment shows an example of the present invention and does not limit the present invention, and can be modified and improved by those skilled in the art.
本発明の車灯制御装置は、一般の多くの貨物自動車と乗用車に利用でき、外部環境センサである車載カメラを搭載し、オートライト機能を備えた自動車では、制御プログラムの変更(追加)等により容易に組み込むことができる場合がある。 The vehicle light control device of the present invention can be used in many general freight vehicles and passenger vehicles, and is equipped with an in-vehicle camera that is an external environment sensor. It may be easy to incorporate.
1 車灯制御装置
2 車灯
3 車灯ECU
4 外部環境センサ
5 運転状況センサ
10 自車
21 ヘッドライト
22 フォグランプ
24 切換素子H
25 切換素子F
27 スイッチH
28 スイッチF
31 制御部
32 外部環境判定部
33 走行状態判定部
34 車灯判定部
37 駆動部
41 車載カメラ
44 照度センサ
47 温湿度計
51 運転モード
53 車速センサ
55 ワイパーモード
1 Car
4
25 Switching element F
27 Switch H
28 Switch F
31 Control unit 32 External environment judgment unit 33 Driving condition judgment unit 34 Vehicle light judgment unit 37
Claims (4)
前記外部環境センサである車載カメラと前記車灯ECUを連動して、
点灯制御の選択対象となる、無灯火画像、前記車灯であるヘッドライトおよび/またはフォグランプの点灯画像を判定画像として各1フレーム撮像し、
前記フォグランプおよび前記ヘッドライトをLEDとし、
前記車載カメラから前記車灯ECUへのタイミング信号、および/または、前記車灯ECUから前記車載カメラへのタイミング信号により、前記判定画像の撮像と前記車灯の点灯制御を同期し、
前記各1フレームの判定画像の視程の画像認識を判定し、視程が最も良好な前記判定画像と同じ車灯点灯状態に、前記車灯を点灯制御することを特徴とする車灯制御装置。 It is a vehicle light control device composed of an external environment sensor and a driving status sensor as input means, a vehicle light as an output means, and a vehicle light ECU.
By interlocking the in-vehicle camera, which is the external environment sensor, with the vehicle light ECU,
A non-lighting image, a lighting image of the headlight and / or a fog lamp, which is the vehicle light, which is a selection target of the lighting control, is captured as a judgment image in one frame each .
The fog lamp and the headlight are LEDs.
The imaging of the determination image and the lighting control of the vehicle light are synchronized by the timing signal from the vehicle-mounted camera to the vehicle light ECU and / or the timing signal from the vehicle light ECU to the vehicle-mounted camera.
A vehicle light control device comprising determining image recognition of the visibility of the determination image of each one frame and controlling the lighting of the vehicle light to the same vehicle light lighting state as the determination image having the best visibility.
前記車載カメラの撮像素子がCCDの場合は、前記判定画像のフレームピッチの最初から、データ伝送部または前記画像判定エリアのデータ伝送部まで、
前記車載カメラの撮像素子がCMOSの場合は、データ伝送時または前記画像判定エリアのデータ伝送時に、前記ヘッドライトおよび/または前記フォグランプを点灯制御し、点灯制御の選択対象となる前記判定画像を撮像することを特徴とする請求項1または2に記載の車灯制御装置。 An image judgment area for judging image recognition of visibility is set based on the irradiation range of the car light of the judgment image.
When the image sensor of the vehicle-mounted camera is a CCD, from the beginning of the frame pitch of the determination image to the data transmission unit or the data transmission unit of the image determination area.
When the image pickup element of the vehicle-mounted camera is CMOS, the headlight and / or the fog lamp is turned on and controlled during data transmission or data transmission in the image determination area, and the determination image to be selected for lighting control is captured. The vehicle light control device according to claim 1 or 2, wherein the vehicle light control device is characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021143406A JP7009694B1 (en) | 2021-09-02 | 2021-09-02 | Car light control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021143406A JP7009694B1 (en) | 2021-09-02 | 2021-09-02 | Car light control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7009694B1 true JP7009694B1 (en) | 2022-01-26 |
JP2023036385A JP2023036385A (en) | 2023-03-14 |
Family
ID=80678843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021143406A Active JP7009694B1 (en) | 2021-09-02 | 2021-09-02 | Car light control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7009694B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008033872A (en) * | 2006-07-04 | 2008-02-14 | Denso Corp | Visibility condition determining device for vehicle |
JP2013235444A (en) * | 2012-05-09 | 2013-11-21 | Denso Corp | Vehicle view support apparatus |
JP2019006321A (en) * | 2017-06-27 | 2019-01-17 | 本田技研工業株式会社 | vehicle |
JP2019051793A (en) * | 2017-09-14 | 2019-04-04 | 株式会社Subaru | Road surface drawing device for vehicle |
-
2021
- 2021-09-02 JP JP2021143406A patent/JP7009694B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008033872A (en) * | 2006-07-04 | 2008-02-14 | Denso Corp | Visibility condition determining device for vehicle |
JP2013235444A (en) * | 2012-05-09 | 2013-11-21 | Denso Corp | Vehicle view support apparatus |
JP2019006321A (en) * | 2017-06-27 | 2019-01-17 | 本田技研工業株式会社 | vehicle |
JP2019051793A (en) * | 2017-09-14 | 2019-04-04 | 株式会社Subaru | Road surface drawing device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2023036385A (en) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293750B2 (en) | Digital display system with a front-facing camera and rear digital display | |
US9286521B2 (en) | Camera system for large vehicles | |
US9327693B2 (en) | Rear collision avoidance system for vehicle | |
JP5855272B2 (en) | Method and apparatus for recognizing braking conditions | |
EP3036132B1 (en) | Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle | |
KR101789984B1 (en) | Side Mirror Camera System For Vehicle | |
CN106458084B (en) | Vehicular illumination device | |
JP5313638B2 (en) | Vehicle headlamp device | |
JP2007142624A (en) | Vehicle mounted imaging apparatus | |
EP1887492A1 (en) | Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications | |
US20180126907A1 (en) | Camera-based system for reducing reflectivity of a reflective surface | |
JP2012240530A (en) | Image processing apparatus | |
JP5361901B2 (en) | Headlight control device | |
JP2013097885A (en) | Headlight device and headlight system | |
JP2004185105A (en) | Obstacle informing device | |
JP2002274258A (en) | Night vision system for automobile | |
JP4735090B2 (en) | Infrared imaging device | |
EP4149809B1 (en) | Motor-vehicle driving assistance in low meteorological visibility conditions, in particular with fog | |
JP2009116394A (en) | Alarm device for vehicle | |
JP7009694B1 (en) | Car light control device | |
JP2008137494A (en) | Vehicular visual field assistance device | |
US20220194296A1 (en) | Vehicle systems and methods for assistance drivers to reduce reflective light interference from rear sides | |
CN113393706A (en) | Automatic driving blind area early warning system and method based on intelligent traffic crossroad | |
CN110774976B (en) | Device and method for controlling a vehicle headlight | |
KR101055078B1 (en) | Vehicle uplight control system using camera and its method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7009694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |