JPH07137574A - Headlight device for vehicle - Google Patents

Headlight device for vehicle

Info

Publication number
JPH07137574A
JPH07137574A JP28521593A JP28521593A JPH07137574A JP H07137574 A JPH07137574 A JP H07137574A JP 28521593 A JP28521593 A JP 28521593A JP 28521593 A JP28521593 A JP 28521593A JP H07137574 A JPH07137574 A JP H07137574A
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
image
headlamp
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28521593A
Other languages
Japanese (ja)
Other versions
JP2817594B2 (en
Inventor
Takakazu Mori
孝和 森
Takashi Nakamura
隆司 中村
Koichi Takeuchi
公一 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP28521593A priority Critical patent/JP2817594B2/en
Publication of JPH07137574A publication Critical patent/JPH07137574A/en
Application granted granted Critical
Publication of JP2817594B2 publication Critical patent/JP2817594B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind

Landscapes

  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Non-Portable Lighting Devices Or Systems Thereof (AREA)

Abstract

PURPOSE:To control the light distribution in front of a vehicle so as to recognize an obstacle by a driver of the own vehicle in the running condition. CONSTITUTION:A scope setting process is made to an image taken by a TV camera (200), and after an obstacle detecting process is carried out, the existence of an obstacle is decided (202 and 204). When there is no obstacle, a normal light distribution control to improve the visibility and to prevent a glare is carried out (214). On the other hand, when there is an obstacle, the upper end of the obstacle is measured (206). Then, the position of the cut line by the present shade position is stored (208), and by deciding whether the upper end of the obstacle is near the cut line or not, it is decided whether the normal light distribution control will do or not (210). When the answer is no, a light distribution control to light on the obstacle is carried out (212). By placing the priority to the light distribution to light on the obstacle in such a way, the driver can recognize an obstacle such as a walker securely.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両用前照灯装置にか
かり、詳細には、車両前方を照射するヘッドランプの配
光を制御する車両用前照灯装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicular headlamp device, and more particularly to a vehicular headlamp device for controlling light distribution of headlamps that illuminate the front of the vehicle.

【0002】[0002]

【従来の技術】従来、車両には、夜間等にドライバーの
前方視認性を向上させるために、車両の略先端には予め
定められた範囲を照射するためのヘッドランプが配設さ
れている。このヘッドランプには、操舵角による走行方
向や車速等の車両の走行状態に応じて車両前方の照射方
向及び照射範囲を変更して前方の視認性を向上させるた
めに、車両前方を撮像するカメラ等の撮像装置の信号に
基づいてヘッドランプの光軸を偏向することや照射光を
遮光するための遮光板の移動を制御することによって道
路に光を照射したときの照射領域と未照射領域との境界
部分(以下、カットラインという。)を制御する車両用
前照灯装置がある。
2. Description of the Related Art Conventionally, in order to improve the front visibility of a driver at night, a headlamp for irradiating a predetermined range is provided at a substantially front end of the vehicle. The headlamp includes a camera that images the front of the vehicle in order to improve the visibility in the front by changing the irradiation direction and the irradiation range in front of the vehicle according to the traveling direction of the vehicle such as the traveling direction depending on the steering angle and the vehicle speed. The irradiation area and the non-irradiation area when the road is irradiated with light by deflecting the optical axis of the headlamp based on a signal from the image pickup device or controlling the movement of the light shielding plate for shielding the irradiation light. There is a vehicle headlight device that controls a boundary portion (hereinafter, referred to as a cut line) of the vehicle.

【0003】この制御されたカットラインに内包される
照射範囲に自車両の前方を同じ方向に走行している車両
(以下、先行車両という。)が存在する場合には、先行
車両のドライバーに対して不快な眩しさ(以下、グレア
という。)を与えることがある。また、自車両の前方を
逆方向に走行している車両(以下、対向車両という。)
のドライバーに対しても先行車両のときと同様にグレア
を与えることがある。従って、先行車両及び対向車両で
ある他車両のドライバーにグレアを与えることがないよ
うにカットラインを制御すれば、自車両前方の視認性を
向上させることができかつ他車両のドライバーに対して
グレアを与えない配光に制御できる。
When there is a vehicle (hereinafter referred to as a preceding vehicle) traveling in the same direction in front of the own vehicle within the irradiation range included in the controlled cut line, the driver of the preceding vehicle is instructed to the driver. May give unpleasant glare (hereinafter referred to as glare). In addition, a vehicle traveling in the opposite direction in front of the host vehicle (hereinafter referred to as an oncoming vehicle).
The same glare may be given to the driver as in the case of the preceding vehicle. Therefore, if the cut line is controlled so as not to give glare to the driver of the preceding vehicle and the other vehicle that is the oncoming vehicle, the visibility in front of the own vehicle can be improved and the glare can be improved against the driver of the other vehicle. The light distribution can be controlled without giving.

【0004】しかしながら、グレアを与えることがない
ように配光制御される対象となる他車両は、障害物でな
いという前提である。すなわち、カメラ等の撮像装置に
より他車両から射出された光を検出して他車両を特定し
ている。従って、駐車中の車両等は検出できないことが
あり、この車両は自車両が走行するときに障害物とな
る。また、前記装置では駐車中の車両と同様に歩行者を
検出しないので、歩行者は明らかに障害物となり得る。
そして、歩行者や車両等の障害物にはヘッドランプによ
る十分な光が照射されないために、走行安全上好ましく
ない。
However, it is premised that the other vehicle whose light distribution is controlled so as not to give glare is not an obstacle. That is, the light emitted from the other vehicle is detected by an imaging device such as a camera to identify the other vehicle. Therefore, a parked vehicle or the like may not be detected, and this vehicle becomes an obstacle when the host vehicle travels. Also, since the device does not detect pedestrians like parked vehicles, pedestrians can obviously be obstacles.
Then, an obstacle such as a pedestrian or a vehicle is not irradiated with sufficient light from the headlamp, which is not preferable in terms of traveling safety.

【0005】この問題を解消するために、自車両の周囲
の障害物を超音波ソナーで探知して、この探知方向にス
ポット光を照射することによって、自車両のドライバー
に対して障害物の認知を促す障害物探照装置がある(実
開昭61−185631号公報)。
In order to solve this problem, an obstacle around the host vehicle is detected by an ultrasonic sonar, and spot light is emitted in this detection direction so that the driver of the host vehicle recognizes the obstacle. There is an obstacle search device that prompts the user (Japanese Utility Model Laid-Open No. 61-185631).

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記の
ような障害物を探知した探知方向にスポット光を照射す
る障害物探照装置では、障害物の位置まで特定すること
が困難なため、障害物の方位によっては障害物までの距
離が遠くなり、探知方向にスポット光を照射しても自車
両のドライバーに対して障害物の認知を促すような明る
さで照射できないことがある。
However, it is difficult to identify the position of the obstacle in the obstacle detecting device that emits the spot light in the detection direction detecting the obstacle as described above. Depending on the azimuth, the distance to the obstacle increases, and even if the spotlight is emitted in the detection direction, it may not be possible to illuminate the driver of the own vehicle with a brightness that prompts the driver to recognize the obstacle.

【0007】本発明は、上記事実を考慮して、走行中の
自車両のドライバーが障害物を認知できるように車両前
方を配光制御する車両用前照灯装置を得ることが目的で
ある。
In consideration of the above facts, an object of the present invention is to obtain a vehicle headlight device for controlling the light distribution in front of the vehicle so that the driver of the running vehicle can recognize the obstacle.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明の車両用前照灯装置は、明る
さ、照射方向及び照射範囲の少なくとも一つが変更可能
なヘッドランプを有する車両が進行する進行路を含む画
像を検出する画像検出手段と、前記画像検出手段で検出
された画像に基づいて、前記進行路の形状を抽出しか
つ、該画像上に障害物を検出するための障害物検出領域
を設定する画像処理手段と、前記障害物検出領域内にお
いて障害物の有無を検出すると共に検出された該障害物
の上端付近を検出する障害物検出手段と、前記障害物検
出手段により障害物が検出された場合には前記ヘッドラ
ンプの光により障害物の略上端より下方を照射するため
の前記ヘッドランプの明るさ、照射方向及び照射範囲の
少なくとも一つを演算する配光演算手段と、前記配光演
算演算手段の演算結果に基づいて前記ヘッドランプの明
るさ、照射方向及び照射範囲の少なくとも一つを制御す
る制御手段と、を備えている。
In order to achieve the above object, a vehicle headlight device according to a first aspect of the present invention is a headlamp in which at least one of brightness, irradiation direction and irradiation range can be changed. An image detecting unit that detects an image including a traveling path of a vehicle that the vehicle has, and a shape of the traveling route is extracted based on an image detected by the image detecting unit, and an obstacle is detected on the image. Image processing means for setting an obstacle detection area for detecting the presence or absence of an obstacle in the obstacle detection area, and obstacle detection means for detecting the vicinity of the upper end of the detected obstacle, and the obstacle. When an obstacle is detected by the detection means, at least one of the brightness, the irradiation direction and the irradiation range of the headlamp for illuminating below the upper end of the obstacle by the light of the headlamp is calculated. That the light distribution calculating means, and control means for controlling at least one of brightness, the irradiation direction and irradiation range of the headlamp according to the result of the light distribution operation calculating means.

【0009】請求項2に記載の発明の車両用前照灯装置
は、明るさ、照射方向及び照射範囲の少なくとも一つが
変更可能なヘッドランプを有する車両が進行する進行路
を含む画像検出すると共に該画像に相当する領域内の温
度分布を検出する車両前方情報検出手段と、前記車両前
方情報検出手段で検出された画像に基づいて、前記進行
路の形状を抽出しかつ、該画像上に障害物を検出するた
めの障害物検出領域を設定する画像処理手段と、前記障
害物検出領域内において障害物の有無を検出すると共に
検出された障害物の温度分布により該障害物の上端付近
を検出する障害物検出手段と、前記障害物検出手段によ
り障害物が検出された場合には前記ヘッドランプの光に
より障害物の略上端より下方を照射するための前記ヘッ
ドランプの明るさ、照射方向及び照射範囲の少なくとも
一つを演算する配光演算手段と、前記配光演算演算手段
の演算結果に基づいて前記ヘッドランプの明るさ、照射
方向及び照射範囲の少なくとも一つを制御する制御手段
と、を備えている。
According to a second aspect of the present invention, there is provided a vehicle headlight device which detects an image including a traveling path of a vehicle having a headlamp whose at least one of brightness, irradiation direction and irradiation range can be changed. Vehicle front information detecting means for detecting a temperature distribution in a region corresponding to the image, and a shape of the traveling path is extracted based on the image detected by the vehicle front information detecting means, and an obstacle is displayed on the image. Image processing means for setting an obstacle detection region for detecting an obstacle, and detecting the presence or absence of the obstacle in the obstacle detection region and detecting the vicinity of the upper end of the obstacle by the temperature distribution of the detected obstacle And the brightness of the headlamp for illuminating below the substantially upper end of the obstacle by the light of the headlamp when the obstacle is detected by the obstacle detecting means. Light distribution calculation means for calculating at least one of the irradiation direction and the irradiation range, and control for controlling at least one of the brightness, the irradiation direction and the irradiation range of the headlamp based on the calculation result of the light distribution calculation calculation means. And means.

【0010】[0010]

【作用】本発明の車両前照灯装置は、画像検出手段によ
り、明るさ、照射方向及び照射範囲の少なくとも一つが
変更可能なヘッドランプを有する車両が進行する進行路
を含む画像を検出する。画像検出手段は、白黒TVカメ
ラ等のカメラを用いることができる。ここで、自車両前
方に存在することが予想される対象物は、自車両以外の
他車両、駐車中の車両や歩行者等がある。この他車両に
は、先行車両及び対向車両があり、また2輪車もある。
進行路に進入しようとする他車両、移動中の2輪車、駐
車中の車両や歩行者等は、自車両が走行する走行車線近
傍に存在すると、走行を妨げる障害物になる。そこで、
画像処理手段では、画像検出手段で検出された画像に基
づいて、進行路の形状を抽出しかつ、該画像上に障害物
を検出するための障害物検出領域を設定する。この進行
路の形状抽出は、走行レーンの白線や縁石等の連続によ
る自車両が走行する走行路の両側縁の形状を表す線から
検出できる。また、走行レーンには先行車両が存在する
確度が高く、走行車線に隣接する領域には対向車両や障
害物等が存在する確度が高い。また、障害物は走行車線
に存在することもある。従って、画像検出手段により撮
影された画像から進行路の形状抽出ができれば、他車両
や障害物を検出するための領域を設定できる。障害物検
出手段は、障害物検出領域において障害物の有無を検出
すると共に障害物の上端を検出する。配光演算手段は、
障害物が検出された場合にはヘッドランプの光により障
害物の略上端より下方を照射するためのヘッドランプの
明るさ、照射方向及び照射範囲の少なくとも一つを演算
し、障害物検出手段により障害物が未検出の場合には進
行路の形状に基づいて該進行路に沿う光を照射するため
のヘッドランプの明るさ、照射方向及び照射範囲の少な
くとも一つを演算する。制御手段は、配光演算手段の演
算結果に基づいてヘッドランプの明るさ、照射方向及び
照射範囲の少なくとも一つを制御する。
In the vehicle headlight device of the present invention, the image detecting means detects an image including a traveling path of a vehicle having a headlamp whose at least one of brightness, irradiation direction and irradiation range can be changed. A camera such as a black and white TV camera can be used as the image detecting means. Here, the target objects that are expected to exist in front of the own vehicle include vehicles other than the own vehicle, parked vehicles, pedestrians, and the like. Other vehicles include a preceding vehicle and an oncoming vehicle, and also a two-wheeled vehicle.
Other vehicles that are about to enter the traveling path, two-wheeled vehicles that are moving, parked vehicles, pedestrians, and the like are obstacles that obstruct traveling when they are present near the traveling lane in which the vehicle travels. Therefore,
The image processing means extracts the shape of the traveling path based on the image detected by the image detecting means, and sets an obstacle detection region for detecting an obstacle on the image. The shape extraction of the traveling road can be detected from a white line of the traveling lane or a line representing the shape of both side edges of the traveling road on which the vehicle travels due to the continuation of curbs or the like. Further, there is a high probability that a preceding vehicle exists in the traveling lane, and there is a high probability that an oncoming vehicle, an obstacle, or the like exists in the area adjacent to the traveling lane. Also, obstacles may be present in the driving lane. Therefore, if the shape of the traveling path can be extracted from the image taken by the image detecting means, the area for detecting another vehicle or an obstacle can be set. The obstacle detection means detects the presence or absence of an obstacle in the obstacle detection area and also detects the upper end of the obstacle. The light distribution calculation means is
When an obstacle is detected, at least one of the brightness of the headlamp, the irradiation direction, and the irradiation range for illuminating below the upper end of the obstacle by the light of the headlamp is calculated, and the obstacle detection means is used. When no obstacle is detected, at least one of the brightness, the irradiation direction, and the irradiation range of the headlamp for irradiating the light along the traveling path is calculated based on the shape of the traveling path. The control means controls at least one of the brightness, the irradiation direction, and the irradiation range of the headlamp based on the calculation result of the light distribution calculation means.

【0011】従って、自車両前方に障害物が検出された
場合には、障害物を照射するためのヘッドランプの明る
さ、照射方向及び照射範囲の少なくとも一つを演算して
制御するため、障害物にはヘッドランプからの光が確実
に照射され、自車両のドライバーに障害物の存在を促す
ことができる。
Therefore, when an obstacle is detected in front of the host vehicle, at least one of the brightness, the irradiation direction and the irradiation range of the headlamp for illuminating the obstacle is calculated and controlled. The light from the headlamp is surely applied to the object, and the driver of the vehicle can be prompted to exist.

【0012】また、請求項2に記載の車両用前照灯装置
は、明るさ、照射方向及び照射範囲の少なくとも一つが
変更可能なヘッドランプを有する車両が進行する進行路
を含む画像を検出すると共に該画像に相当する領域内の
温度分布を検出する車両前方情報検出手段を備えてい
る。この画像に相当する領域内の温度分布を検出するこ
とにより、車両前方の温度分布から、温度分布を有する
人物等の障害物の位置を検出することができる。そし
て、障害物検出手段では、検出された障害物の温度変化
により該障害物の上端付近を検出することができる。こ
れにより、歩行者等のように、温度変化を有する障害物
の頭部等の上端を特定することができる。
Further, the vehicle headlight device according to the present invention detects an image including a traveling path of a vehicle having a headlamp whose at least one of brightness, irradiation direction and irradiation range can be changed. In addition, the vehicle front information detecting means for detecting the temperature distribution in the area corresponding to the image is provided. By detecting the temperature distribution in the area corresponding to this image, the position of an obstacle such as a person having the temperature distribution can be detected from the temperature distribution in front of the vehicle. Then, the obstacle detection means can detect the vicinity of the upper end of the obstacle by the temperature change of the detected obstacle. As a result, the upper end of the head or the like of an obstacle having a temperature change such as a pedestrian can be specified.

【0013】なお、配光演算手段では、障害物が未検出
の場合に、進行路の形状に基づいて自車両が進行路に沿
って所定時間後に到達する位置を推定し推定した位置に
光が照射されるようにヘッドランプの明るさ、照射方向
及び照射範囲の少なくとも一つを演算するようにしても
よい。また、これと共に自車両以外の他車両のドライバ
ーに対し防眩するためのヘッドランプの明るさ、照射方
向及び照射範囲の少なくとも一つを演算し、配光を制御
するようにしてもよい。
In the light distribution calculating means, when no obstacle is detected, the position where the vehicle arrives along the traveling road after a predetermined time is estimated based on the shape of the traveling road, and the light is emitted to the estimated position. At least one of the brightness of the headlamp, the irradiation direction, and the irradiation range may be calculated so that the irradiation is performed. At the same time, at least one of the brightness of the headlamp, the irradiation direction, and the irradiation range of the headlamp for anti-glare the driver other than the own vehicle may be calculated to control the light distribution.

【0014】[0014]

【実施例】以下、図面を参照して、本発明が適用された
実施例を詳細に説明する。第1実施例の車両用前照灯装
置100は、車両10の前方を白黒TVカメラにより撮
像し階調画像を得る場合に本発明を適用したものであ
る。
Embodiments to which the present invention is applied will be described below in detail with reference to the drawings. The vehicle headlight device 100 of the first embodiment is an application of the present invention when a grayscale image is obtained by imaging the front of the vehicle 10 with a monochrome TV camera.

【0015】図6に示すように、車両10のフロントボ
デー10Aの上面部には、エンジンフード12が配置さ
れており、フロントボデー10Aの前端部には車両幅方
向の一端から他端に亘ってフロントバンパ16が固定さ
れている。このフロントバンパ16とエンジンフード1
2の前縁部12Aとの間には、車両幅方向両端部に一対
のヘッドランプ18、20が配設されている。
As shown in FIG. 6, an engine hood 12 is arranged on the upper surface of the front body 10A of the vehicle 10. The front end of the front body 10A extends from one end to the other end in the vehicle width direction. The front bumper 16 is fixed. This front bumper 16 and engine hood 1
A pair of headlamps 18 and 20 are disposed at both ends in the vehicle width direction between the two front edge portions 12A.

【0016】エンジンフード12の後端部付近には、ウ
インドシールドガラス14が設けられており、車両10
内部のウインドシールドガラス14の上方側に対応する
部位の近傍にはルームミラー15が設けられている。ル
ームミラー15の近傍には車両前方の状況を撮像するた
めのTVカメラ22が配置されている。TVカメラ22
は画像処理装置148(図1参照)に接続されている。
本実施例ではTVカメラ22として、単に光量のみを検
出するCCD素子を備え白黒画像を表す画像信号を出力
するTVカメラを用いている。
A windshield glass 14 is provided in the vicinity of the rear end of the engine hood 12, and the vehicle 10
A room mirror 15 is provided in the vicinity of a portion corresponding to the upper side of the windshield glass 14 inside. A TV camera 22 for picking up an image of the situation in front of the vehicle is arranged near the rear-view mirror 15. TV camera 22
Is connected to the image processing device 148 (see FIG. 1).
In the present embodiment, as the TV camera 22, a TV camera that includes a CCD element that simply detects only the amount of light and that outputs an image signal representing a monochrome image is used.

【0017】なお、TVカメラ22の配設位置は、車両
前方の道路形状を正確に認識でき、かつドライバーの目
視感覚により合致するように、ドライバーの視点位置
(所謂アイポイント)になるべく近い位置に配置される
ことが好ましい。また、本実施例における道路形状に
は、進行路の形状、例えばセンターラインや縁石等によ
って形成される1車線に対応する道路形状が含まれる。
The position of the TV camera 22 is as close as possible to the driver's viewpoint position (so-called eye point) so that the shape of the road ahead of the vehicle can be accurately recognized and the driver's visual sense is matched. It is preferably arranged. Further, the road shape in the present embodiment includes the shape of the traveling road, for example, the road shape corresponding to one lane formed by the center line, the curb, or the like.

【0018】また、車両10には図示しないスピードメ
ータが配設されており、この図示しないスピードメータ
のケーブルには、車両10の車速Vを検知する車速セン
サ66(図1参照)が取付けられている。この車速セン
サ66は制御装置150に接続されており、車速Vの検
出結果を出力する。
A speedometer (not shown) is provided in the vehicle 10, and a vehicle speed sensor 66 (see FIG. 1) for detecting a vehicle speed V of the vehicle 10 is attached to a cable of the speedometer (not shown). There is. The vehicle speed sensor 66 is connected to the control device 150 and outputs the detection result of the vehicle speed V.

【0019】図2及び図3に示すように、ヘッドランプ
18はプロジェクタタイプのヘッドランプで、凸レンズ
30、バルブ32及びランプハウス34を備えている。
ランプハウス34は車両10の図示しないフレームに略
水平に固定されており、ランプハウス34の一方の開口
には、凸レンズ30が固定され、他方の開口には、凸レ
ンズ30の光軸R(凸レンズ30の中心軸)上に発光点
が位置するようにソケット36を介してバルブ32が固
定されている。
As shown in FIGS. 2 and 3, the headlamp 18 is a projector-type headlamp and includes a convex lens 30, a bulb 32 and a lamp house 34.
The lamp house 34 is fixed substantially horizontally to a frame (not shown) of the vehicle 10. A convex lens 30 is fixed to one opening of the lamp house 34, and an optical axis R of the convex lens 30 (convex lens 30) is fixed to the other opening. The bulb 32 is fixed via a socket 36 such that the light emitting point is located on the central axis of the bulb.

【0020】ランプハウス34内部のバルブ側には、楕
円反射面のリフレクタ38が形成されており、バルブ3
2から射出された光がリフレクタ38により反射され凸
レンズ30及びバルブ32の間に集光される。この集光
点の近傍にはシェード40が設けられており、リフレク
タ38で反射集光されたバルブ32の光は、シェード4
0によってその一部が遮光され、それ以外の光が凸レン
ズ30から射出されるようになっている。また、シェー
ド40の回転軸42は、車両幅方向に向いている。
On the bulb side inside the lamp house 34, a reflector 38 having an elliptical reflection surface is formed.
The light emitted from 2 is reflected by the reflector 38 and condensed between the convex lens 30 and the bulb 32. A shade 40 is provided near this condensing point, and the light of the bulb 32 reflected and condensed by the reflector 38 is reflected by the shade 4
A part of the light is shielded by 0, and the other light is emitted from the convex lens 30. Further, the rotary shaft 42 of the shade 40 is oriented in the vehicle width direction.

【0021】回転軸42の両端部42A、42Bは、ラ
ンプハウス34内部に形成された軸受部(図示省略)に
軸支されており、車両幅方向(図2の矢印X方向)、即
ち回転軸42の軸線M方向と、回転軸42の軸廻り方向
(図2の矢印Y方向)と、へ移動可能に軸支されてい
る。
Both ends 42A and 42B of the rotary shaft 42 are axially supported by bearings (not shown) formed inside the lamp house 34, and are in the vehicle width direction (arrow X direction in FIG. 2), that is, the rotary shaft. The shaft 42 is movably supported in the direction of the axis M of the shaft 42 and the direction around the axis of the rotary shaft 42 (direction of arrow Y in FIG. 2).

【0022】回転軸42の一方の端部42Aの近傍には
歯車44が固着されており、歯車44には、モータ46
の駆動軸に固着された歯車48が噛合している。従っ
て、モータ46の駆動軸が回転すると、歯車48が回転
し、歯車44と一体的にシェード40が矢印Y方向へ回
転する。なお、歯車44は軸線M方向に長く、歯車44
が矢印X方向へ移動した場合にも、歯車44と歯車48
とが噛合するようになっている。また、モータ46は図
示を省略したブラケットによってランプハウス34内部
に固定されており、図1に示されるように、制御装置1
50のドライバ164に接続されている。
A gear 44 is fixed near one end 42A of the rotary shaft 42, and a motor 46 is attached to the gear 44.
The gear 48 fixed to the drive shaft of is meshed. Therefore, when the drive shaft of the motor 46 rotates, the gear 48 rotates, and the shade 40 rotates integrally with the gear 44 in the arrow Y direction. The gear 44 is long in the direction of the axis M,
Also moves in the direction of arrow X, the gears 44 and 48
Is designed to mesh with. The motor 46 is fixed inside the lamp house 34 by a bracket (not shown), and as shown in FIG.
50 drivers 164 are connected.

【0023】また、回転軸42の他方の端部42Bの近
傍には、ラック50が固着されており、ラック50に
は、モータ52の駆動軸に固着された歯車54が噛合し
ている。従って、モータ52の駆動軸が回転すると、歯
車54が回転し、ラック50と一体的にシェード40が
矢印X方向へ移動する。なお、ラック50は、各凹凸部
が回転軸42の外周部にリング状に形成されており、ラ
ック50が矢印Y方向へ回動した場合にも、ラック50
と歯車54とが噛合するようになっている。また、モー
タ52は図示を省略したブラケットによってランプハウ
ス34内部に固定されており、図1に示されるように、
制御装置150のドライバ164に接続されている。
A rack 50 is fixed near the other end 42B of the rotary shaft 42, and a gear 54 fixed to the drive shaft of a motor 52 meshes with the rack 50. Therefore, when the drive shaft of the motor 52 rotates, the gear 54 rotates, and the shade 40 moves integrally with the rack 50 in the arrow X direction. In the rack 50, each concave and convex portion is formed in a ring shape on the outer peripheral portion of the rotary shaft 42, and even when the rack 50 rotates in the arrow Y direction, the rack 50.
And the gear 54 mesh with each other. The motor 52 is fixed inside the lamp house 34 by a bracket (not shown), and as shown in FIG.
It is connected to the driver 164 of the control device 150.

【0024】図4に示されるように、シェード40は円
柱状とされており、車両幅方向(矢印X方向)に沿って
軸心Nと外周部との距離R1が短い小径部40Aと、軸
心Nと外周部との距離R2 が長い大径部40Bと、小
径部40Aと大径部40Bとを直線的に連結し、軸心N
と外周部との距離R3が除々に増加する中間部40C
と、で構成されている。
As shown in FIG. 4, the shade 40 has a cylindrical shape, and has a small diameter portion 40A having a short distance R1 between the shaft center N and the outer peripheral portion along the vehicle width direction (arrow X direction), and the shaft. Distance R2 between the heart N and the outer circumference Has a large diameter portion 40B, and the small diameter portion 40A and the large diameter portion 40B are linearly connected to each other, and the axial center N
The intermediate portion 40C in which the distance R3 between the outer periphery and the outer periphery gradually increases
It consists of and.

【0025】また、シェード40の軸線Mは、軸心Nに
対してオフセットしている。従って、シェード40が軸
線Mを軸として回動すると、軸線Mと外周部との距離S
1、S2、S3がそれぞれ回転軸廻り方向(矢印Y方
向)に沿って連続的に変化する。
The axis M of the shade 40 is offset with respect to the axis N. Therefore, when the shade 40 rotates about the axis M, the distance S between the axis M and the outer peripheral portion is increased.
1, S2, and S3 continuously change along the direction around the rotation axis (direction of arrow Y).

【0026】従って、制御装置150からの信号に応じ
たモータ46、52の駆動によって、シェード40が矢
印X方向及び矢印Y方向へ所定量移動する。これによ
り、シェード40のエルボー部(図2の大径部40Bと
中間部40Cの境41付近)によりバルブ32の光が通
過光と遮光された光とに分断され、車両10の前方の明
暗の境界であるカットラインが移動する。
Therefore, by driving the motors 46 and 52 according to the signal from the control device 150, the shade 40 moves by a predetermined amount in the arrow X direction and the arrow Y direction. As a result, the elbow portion of the shade 40 (near the boundary 41 between the large-diameter portion 40B and the intermediate portion 40C in FIG. 2) divides the light of the bulb 32 into the passing light and the blocked light, and the light in front of the vehicle 10 is darkened. The cut line that is the boundary moves.

【0027】シェード40の大径部40Bによって形成
される明暗の境界は、図5に示すように、ヘッドランプ
18による照射領域内の車両幅方向右側のカットライン
70として現れ、シェード40が矢印Y方向に回動され
ることにより、カットライン70の位置は、最上位に対
応する位置(図5にカットラインUとして示す位置、ハ
イビームの光軸より下の位置)から最下位に対応する位
置(図5にカットラインNとして示す位置、通常のロー
ビームの位置)まで平行に移動する。
The light-dark boundary formed by the large-diameter portion 40B of the shade 40 appears as a cut line 70 on the right side in the vehicle width direction in the irradiation area of the headlamp 18, as shown in FIG. By being rotated in the direction, the position of the cut line 70 moves from the position corresponding to the highest position (the position shown as the cut line U in FIG. 5, the position below the optical axis of the high beam) to the position corresponding to the lowest position ( It moves in parallel to the position shown as the cut line N in FIG. 5, that is, the position of a normal low beam.

【0028】また、シェード40の中間部40Cによっ
て形成される明暗の境界は、照射領域内の車両幅方向左
側のカットライン72として現れ、シェード40が矢印
Y方向に回動されることにより、カットライン72の位
置は最上位の位置(図5にカットラインUとして示す位
置、ハイビームの光軸より下の位置)から最下位に対応
する位置(図5にカットラインNとして示す位置、通常
のロービームの位置)まで平行に移動する。
The boundary between light and dark formed by the intermediate portion 40C of the shade 40 appears as a cut line 72 on the left side in the vehicle width direction in the irradiation area, and the shade 40 is rotated in the arrow Y direction to cut the shade. The position of the line 72 is from the highest position (the position shown as the cut line U in FIG. 5, the position below the optical axis of the high beam) to the lowest position (the position shown as the cut line N in FIG. 5, the normal low beam). Position) to move in parallel.

【0029】一方、シェード40の大径部40Bと中間
部40Cとの境41(図4参照)による明暗の境界は、
配光におけるカットライン70とカットライン72との
交点である結合点(以下、エルボーポイントという。)
73を示している。従って、このエルボーポイント73
は、シェード40のX方向、Y方向(図4参照)への移
動によってカットライン70の位置が最上位に対応する
位置(図5のU位置)でかつカットライン72の位置が
最下位の位置(図5のN位置)のときに点73aの位置
となり、カットライン70の位置が最上位に対応する位
置(U位置)でかつカットライン72の位置が最上位の
位置(図5のU位置)のときに点73bの位置となり、
カットライン70の位置が最下位に対応する位置(N位
置)でかつカットライン72の位置が最上位の位置(図
5のU位置)のときに点73cの位置となり、カットラ
イン70の位置が最下位に対応する位置(N位置)でか
つカットライン72の位置が最下位の位置(図5のN位
置)のときに点73dの位置となる。
On the other hand, the boundary of light and dark due to the boundary 41 (see FIG. 4) between the large diameter portion 40B and the intermediate portion 40C of the shade 40 is
A connection point (hereinafter referred to as an elbow point) which is an intersection of the cut line 70 and the cut line 72 in the light distribution.
73 is shown. Therefore, this elbow point 73
Is the position where the position of the cut line 70 corresponds to the uppermost position (the U position in FIG. 5) and the position of the cut line 72 is the lowermost position due to the movement of the shade 40 in the X direction and the Y direction (see FIG. 4). (N position in FIG. 5) is the position of the point 73a, the position of the cut line 70 corresponds to the uppermost position (U position), and the position of the cut line 72 is the uppermost position (U position in FIG. 5). ), It becomes the position of point 73b,
When the position of the cut line 70 is the position corresponding to the lowest position (N position) and the position of the cut line 72 is the highest position (position U in FIG. 5), the position of the point 73c becomes the position of the cut line 70. The position 73d is the position corresponding to the lowest position (N position) and the position of the cut line 72 is the lowest position (N position in FIG. 5).

【0030】これにより、シェード40の移動によるカ
ットライン70,72の移動によって、エルボーポイン
トの位置は点73a,73b,73c,73dの4点で
囲まれた範囲Er(図5に斜線で示した範囲)内を移動
可能になる。従って、この範囲Erにおけるエルボーポ
イント73の位置が定まれば、この位置にエルボーポイ
ント73が位置するようにモータ46,52の回転量を
演算できる。すなわち、イメージ上の距離とモータ4
6,52の回転によるエルボーポイント73の移動量と
の対応は撮像倍率及びモータの伝達率(モータのギヤ
比)等により予め定めることができる。
As a result, due to the movement of the cut lines 70 and 72 due to the movement of the shade 40, the position of the elbow point is a range Er surrounded by four points 73a, 73b, 73c and 73d (shown by hatching in FIG. 5). It becomes possible to move within the range. Therefore, if the position of the elbow point 73 in this range Er is determined, the rotation amounts of the motors 46 and 52 can be calculated so that the elbow point 73 is located at this position. That is, the distance on the image and the motor 4
Correspondence with the amount of movement of the elbow point 73 due to the rotation of 6, 52 can be determined in advance by the imaging magnification, the transmission ratio of the motor (gear ratio of the motor), and the like.

【0031】なお、範囲Er内におけるエルボーポイン
ト73の位置とこの位置にシェード40を移動させるた
めのモータ46,52の回転量とをマップとして記憶す
るようにしてもよい。
The position of the elbow point 73 within the range Er and the rotation amounts of the motors 46 and 52 for moving the shade 40 to this position may be stored as a map.

【0032】ヘッドランプ20はヘッドランプ18と同
様の構成であるため、詳細な説明は省略する。
Since the headlamp 20 has the same structure as the headlamp 18, a detailed description will be omitted.

【0033】図1に示すように、制御装置150は、リ
ードオンリメモリ(ROM)152、ランダムアクセス
メモリ(RAM)154、中央処理装置(CPU)15
6、入力ポート158、出力ポート160及びこれらを
接続するデータバスやコントロールバス等のバス162
を含んで構成されている。なお、このROM152に
は、制御プログラムが記憶されている。
As shown in FIG. 1, the control device 150 includes a read only memory (ROM) 152, a random access memory (RAM) 154, and a central processing unit (CPU) 15.
6, an input port 158, an output port 160, and a bus 162 such as a data bus or a control bus that connects them.
It is configured to include. A control program is stored in the ROM 152.

【0034】入力ポート158には車速センサ66及び
画像処理装置148が接続されている。この画像処理装
置148は、後述するようにTVカメラ22及び制御装
置150から入力される信号に基づいて、TVカメラ2
2で撮像されたイメージを画像処理する。出力ポート1
60は、ドライバ164を介してヘッドランプ18のモ
ータ46、52及びヘッドランプ20のモータ46、5
2に接続されている。また、出力ポート160は、画像
処理装置148にも接続されている。
The vehicle speed sensor 66 and the image processing device 148 are connected to the input port 158. The image processing device 148 uses the TV camera 2 and the control device 150 to input signals from the TV camera 2 based on signals input from the TV camera 22 and the control device 150 as described later.
The image captured in 2 is image-processed. Output port 1
Reference numeral 60 denotes the motors 46, 52 of the headlamp 18 and the motors 46, 5 of the headlamp 20 via the driver 164.
Connected to 2. The output port 160 is also connected to the image processing device 148.

【0035】次に、本実施例の作用を説明する。ヘッド
ランプ18、20に点灯中には、所定時間毎に図7に示
す制御メインルーチンが実行される。この制御メインル
ーチンのステップ200では、制御装置150から画像
処理装置148へ信号を出力すると、画像処理装置14
8において領域設定処理が実行される。この領域設定処
理では、TVカメラ22によって撮像されたイメージを
用い、図12に示す他車両を認識するための先行車両認
識領域WP 及び対向車両認識領域WPOと、図9に示す障
害物検出領域WD が定められる。なお、TVカメラ22
の画像信号によって形成されるイメージ上の各画素は、
イメージ上に設定された各々直交するX軸とY軸とによ
って定まる座標系の座標(Xn ,Yn )で位置を特定す
る。
Next, the operation of this embodiment will be described. While the headlamps 18 and 20 are on, the control main routine shown in FIG. 7 is executed at predetermined time intervals. In step 200 of this control main routine, when the control device 150 outputs a signal to the image processing device 148, the image processing device 14
At 8, the area setting process is executed. In this area setting process, the image captured by the TV camera 22 is used, and the preceding vehicle recognition area W P and the oncoming vehicle recognition area W PO shown in FIG. 12 for recognizing another vehicle and the obstacle detection shown in FIG. Region W D is defined. The TV camera 22
Each pixel on the image formed by the image signal of
The position is specified by the coordinates (X n , Y n ) of the coordinate system set on the image by the X axis and the Y axis that are orthogonal to each other.

【0036】この領域設定処理を、図8のフローチャー
トを参照して詳細に説明する。図10には、自車両10
が直線の道路122を走行している際にTVカメラ22
によって撮像された、ドライバーによって視認される画
像と略一致したイメージの一例(イメージ120)を示
す。この道路122は、両側に白線124を備えてお
り、自車両10が走行するための走行レーン122A及
び対向車両11Aが走行するための対向レーン122B
の境界であるセンターライン126を備えている。以
下、このイメージ120に基づく領域設定処理を説明す
る。
The area setting process will be described in detail with reference to the flowchart of FIG. In FIG. 10, the own vehicle 10
TV camera 22 while driving on a straight road 122
An example (image 120) of an image substantially matched with the image visually recognized by the driver is shown. The road 122 is provided with white lines 124 on both sides, and a traveling lane 122A for the own vehicle 10 to travel and an oncoming lane 122B for the oncoming vehicle 11A to travel.
The center line 126 which is the boundary of The area setting process based on the image 120 will be described below.

【0037】図8のステップ300では、図11に示す
ように、走行レーン122Aの両側のライン(この場
合、白線124及びセンターライン126)を検出する
ためにイメージ上で所定の幅γを有する領域を白線検出
ウインドウ領域Wsdとして設定する。本実施例では、白
線等の検出確度が高い中央部の領域を含むように、白線
検出ウインドウ領域Wsdを、所定の水平線140及び下
限線130の間の領域を白線検出ウインドウ領域Wsd
して設定する。
In step 300 of FIG. 8, as shown in FIG. 11, an area having a predetermined width γ on the image for detecting lines on both sides of the driving lane 122A (in this case, the white line 124 and the center line 126). Is set as the white line detection window area W sd . In the present embodiment, the white line detection window area W sd is set as the white line detection window area W sd so that the white line detection window area W sd includes the central area with high detection accuracy such as the white line. To do.

【0038】次のステップ302ではウインドウ領域W
sd内を明るさについて微分し、この微分値のピーク点
(最大点)を白線候補点であるエッジ点として抽出す
る。すなわち、ウインドウ領域Wsd内を垂直方向(図1
1矢印A方向)に、水平方向の各画素について最下位置
の画素から最上位置の画素までの明るさについて微分
し、明るさの変動が大きな微分値のピーク点をエッジ点
として抽出する。これにより、図11のウインドウ領域
sd内に示す破線132のように連続するエッジ点が抽
出される。
In the next step 302, the window area W
The inside of sd is differentiated with respect to brightness, and the peak point (maximum point) of this differential value is extracted as an edge point that is a white line candidate point. That is, in the window area W sd in the vertical direction (see FIG.
In the direction of arrow 1), the brightness from the pixel at the lowest position to the pixel at the highest position is differentiated for each pixel in the horizontal direction, and the peak point of the differential value with large fluctuation in brightness is extracted as the edge point. As a result, continuous edge points are extracted as indicated by the broken line 132 in the window area W sd in FIG.

【0039】次のステップ304では、ステップ302
において白線候補点抽出処理で抽出されたエッジ点をハ
フ(Hough )変換を用いて直線近似し、白線等と推定さ
れる線に沿った近似直線142、144を求める。次の
ステップ306では、求めた近似直線142,144の
交点PN (X座標値=XN )を求め、求めた交点PN
基準とする予め定めた直線路の場合の近似直線の交点P
0 (X座標値=X0 )との水平方向の変位量A(A=X
N −X0 )を求める。この変位量Aは、道路122のカ
ーブの度合いに対応している。
In the next step 304, step 302
In, the edge points extracted by the white line candidate point extraction processing are linearly approximated by using the Hough transform, and approximate straight lines 142 and 144 along the line estimated to be the white line or the like are obtained. In the next step 306, the intersection point P N (X coordinate value = X N ) of the obtained approximate straight lines 142 and 144 is obtained, and the intersection point P N of the obtained approximate line P N and the approximate straight line in the case of a predetermined straight line as a reference.
0 (X coordinate value = X 0 ), horizontal displacement amount A (A = X
N −X 0 ). The displacement amount A corresponds to the degree of the curve of the road 122.

【0040】次のステップ308では、ステップ304
において求めた近似直線142、144を用いて先行車
両及び対向車両を認識する各車両認識領域WP 、WPO
設定すると共に、障害物検出領域WD を設定する。ま
ず、図12に示すように他車両を認識する領域設定で
は、近似直線142、144及び下限線130で囲まれ
た範囲を先行車両認識領域WP と定め、近似直線144
の右側の画像範囲を対向車両認識領域WPOと定める。こ
の近似直線144付近では、先行車両11と対向車両1
1Aとが混在する確度が高いため、各々が重複するよう
に設定してもよく、独立した領域を定めてもよい。
In the next step 308, step 304
The respective vehicle recognition areas W P and W PO for recognizing the preceding vehicle and the oncoming vehicle are set by using the approximate straight lines 142 and 144 obtained in 1. and the obstacle detection area W D is set. First, as shown in FIG. 12, in the area setting for recognizing another vehicle, the range surrounded by the approximate straight lines 142, 144 and the lower limit line 130 is set as the preceding vehicle recognition area W P, and the approximate straight line 144 is set.
The image range on the right side of is defined as the oncoming vehicle recognition area W PO . Near the approximate straight line 144, the preceding vehicle 11 and the oncoming vehicle 1
Since 1A and 1A are highly likely to be mixed, they may be set so as to overlap each other, or independent areas may be defined.

【0041】図9に示したように、障害物検出領域WD
の設定では、近似直線142、144を道路122の側
縁と想定し、この近似直線142、144から所定幅w
d(例えば、10m)だけ左右に隔てた左側線134、
右側線136を求める。なお、図9では、道路122の
側縁部である白線124、センターライン126が近似
直線144、142に重複しかつ対向レーン122B側
の白線124が得られる右側線136と重複する場合を
示した。この左側線134と近似直線142とで囲まれ
た領域を左障害物検出領域WDLに設定し、右側線136
と近似直線144とで囲まれた領域を右障害物検出領域
DRに設定する。この設定された右障害物検出領域WDR
と、左障害物検出領域WDLとを障害物検出領域WD とす
る。この左障害物検出領域WDLは、歩道を検出して検出
された歩道の領域を定めてもよい。また、右障害物検出
領域WDRは、対向レーン122Bを検出して対向レーン
122Bの領域を定めてもよい。なお、図中、自車両1
0の前方100m付近を距離線146Aで示した。ま
た、走行レーン122Aに相当する先行車両認識領域W
P は、予め定めた距離(例えば、40m付近)を示す距
離線146Bを境にして遠方の領域を遠方領域WPF、近
傍の領域を近傍領域WPNとして分割して形成されてい
る。
As shown in FIG. 9, the obstacle detection area W D
In the setting of, the approximate straight lines 142 and 144 are assumed to be the side edges of the road 122, and the predetermined width w is calculated from the approximate straight lines 142 and 144.
a left side line 134 separated by d (for example, 10 m) on the left and right,
Find the right side line 136. Note that FIG. 9 shows a case where the white line 124, which is the side edge of the road 122, and the center line 126 overlap with the approximate straight lines 144 and 142 and the white line 124 on the opposite lane 122B side overlaps with the obtained right side line 136. . The area surrounded by the left side line 134 and the approximate straight line 142 is set as the left obstacle detection area W DL , and the right side line 136 is set.
A region surrounded by and the approximate straight line 144 is set as the right obstacle detection region W DR . This set right obstacle detection area W DR
And the left obstacle detection area W DL are the obstacle detection areas W D. The left obstacle detection area W DL may detect a sidewalk and define an area of the detected sidewalk. Further, the right obstacle detection area W DR may detect the opposite lane 122B and define the area of the opposite lane 122B. In the figure, own vehicle 1
A distance line 146A is shown near 100 m in front of 0. Further, the preceding vehicle recognition area W corresponding to the traveling lane 122A
P is formed by dividing a distant region into a distant region W PF and a neighboring region into a neighboring region W PN with a distance line 146B indicating a predetermined distance (for example, around 40 m) as a boundary.

【0042】なお、上記では、近似直線142,144
をそのまま領域設定に用いたが、道路形状自体を抽出す
るようにしてもよい。例えば、白線と推定された線に沿
う近似直線142の近傍でかつイメージ下方のエッジ点
を抽出し、イメージ下方のエッジ点の近接または連続す
る点から、スプライン補間等により得た曲線を走行レー
ン122A側の白線124を得てもよい。この曲線を求
めることにより、道路122の形状に則したデータ
(線)が得られる。対向レーン122B側の白線124
の抽出は、上記で走行レーン122Aの両側のライン
(白線124及びセンターライン126)として設定さ
れた位置近傍のエッジ点を除いた連続するエッジ点を抽
出することにより、道路122の両側の白線124をイ
メージ120上で定めることができる。
In the above, the approximate straight lines 142, 144
Was used for the area setting as it is, but the road shape itself may be extracted. For example, an edge point under the image near the approximate straight line 142 along the line estimated to be the white line is extracted, and a curve obtained by spline interpolation or the like from a point adjacent to the edge point under the image or a continuous point is used as the traveling lane 122A. The white line 124 on the side may be obtained. By obtaining this curve, data (line) conforming to the shape of the road 122 can be obtained. White line 124 on the opposite lane 122B side
The extraction of the white lines 124 on both sides of the road 122 is performed by extracting continuous edge points excluding the edge points near the positions set as the lines (white line 124 and center line 126) on both sides of the driving lane 122A. Can be defined on the image 120.

【0043】また、上記の先行車両認識領域WP 及び対
向車両認識領域WPOを設定するにあたり、図12に示し
たように、現在の車速Vに応じて先行車両認識領域WP
に関する近似直線の位置を補正する補正幅αL 、αR
及び対向車両認識領域WPOに関する近似直線の位置を補
正する補正幅αA を用いて各領域を補正してもよい。こ
の場合の補正幅の設定は、車速及び曲線路のカーブの度
合により、他車両が設定された車両認識領域から逸脱す
る可能性を低下させるためであり、例えば、直線路では
車速Vが遅くなるに従って値が大きくなるように、曲線
路ではカーブの度合に応じてカーブ方向の幅が大きくな
るように設定する。この補正幅は、マップとして予め記
憶しておくことが好ましい。なお、この補正幅は予め定
めてもよい。同様に、障害物検出領域WD を設定するに
あたり、補正幅で補正してもよいことは勿論である。
Further, in setting the preceding vehicle recognition area W P and the oncoming vehicle recognition area W PO , as shown in FIG. 12, the preceding vehicle recognition area W P is determined according to the current vehicle speed V.
Correction widths α L , α R , which correct the position of the approximate straight line with respect to
Alternatively , each area may be corrected using the correction width α A for correcting the position of the approximate straight line with respect to the oncoming vehicle recognition area W PO . The setting of the correction width in this case is to reduce the possibility that another vehicle deviates from the set vehicle recognition area depending on the vehicle speed and the degree of the curve of the curved road. For example, the vehicle speed V becomes slow on a straight road. In order to increase the value accordingly, the width in the curve direction is set to increase in accordance with the degree of the curve on the curved road. This correction width is preferably stored in advance as a map. The correction width may be set in advance. Similarly, when setting the obstacle detection region W D , it is needless to say that correction may be performed with the correction width.

【0044】上記のように領域設定処理が終了すると、
図7のステップ202へ進む。このステップ202で
は、画像処理装置148において障害物検出処理が実行
され、障害物の有無が検出される。
When the area setting process is completed as described above,
Proceed to step 202 in FIG. In this step 202, obstacle detection processing is executed in the image processing device 148 to detect the presence or absence of obstacles.

【0045】この障害物検出処理を、図13のフローチ
ャートを参照して詳細に説明する。図13のステップ3
10では、ステップ200で設定された車両認識領域か
ら、障害物検出領域WD を選択する。次のステップ31
2では、自車両10の車速を読み取ると共に、車速に応
じた警報ウインドウWARM (図19参照)を設定する。
すなわち、車速に応じて所定時間内における自車両10
の走行距離は変化する。例えば、この所定時間は車両の
制動距離に対応する時間等が想定される。この所定時間
内に歩行者等の障害物は移動することが予想されるた
め、この移動範囲を少なくとも網羅するような警報ウイ
ンドウWARM を設定する。例えば、警報ウインドウW
ARM として、選択した障害物検出領域WD を用い、現在
の車速から想定される所定時間内に障害物が移動するこ
とが予想される距離に相当する幅だけ広げて設定すれば
よい。次のステップ314では、警報ウインドウWARM
内において水平エッジ検出処理を行い、検出された水平
エッジ点を横方向に積分した積分値が所定値を越えるピ
ーク点を検出する。この水平エッジ点は障害物が存在す
る場合に現れる確度が高い。従って、このピーク点の有
無を判断することにより、障害物の有無を判定する。
This obstacle detection processing will be described in detail with reference to the flowchart of FIG. Step 3 of FIG.
In step 10, the obstacle detection area W D is selected from the vehicle recognition areas set in step 200. Next step 31
In 2, the vehicle speed of the host vehicle 10 is read and the alarm window W ARM (see FIG. 19) corresponding to the vehicle speed is set.
That is, the own vehicle 10 within a predetermined time according to the vehicle speed
Mileage changes. For example, the predetermined time is assumed to be the time corresponding to the braking distance of the vehicle. Since obstacles such as pedestrians are expected to move within this predetermined time, an alarm window W ARM is set so as to cover at least this moving range. For example, the warning window W
As the ARM , the selected obstacle detection area W D may be used and set by widening by a width corresponding to the distance in which the obstacle is expected to move within the predetermined time estimated from the current vehicle speed. In the next step 314, the alarm window W ARM
Then, a horizontal edge detection process is performed in the inside to detect a peak point at which an integrated value obtained by laterally integrating the detected horizontal edge point exceeds a predetermined value. This horizontal edge point has a high probability of appearing when an obstacle is present. Therefore, the presence or absence of an obstacle is determined by determining the presence or absence of this peak point.

【0046】なお、走行中の2輪車はテールランプの明
るさにより特定でき、このための所定値となる閾値を設
定して上記のピーク点を含む水平線近傍領域に存在する
画素群を求める。
The two-wheeled vehicle that is running can be identified by the brightness of the tail lamp, and a threshold value which is a predetermined value for this purpose is set to obtain a pixel group existing in the area near the horizontal line including the peak point.

【0047】また、上記では、1つの障害物を想定して
説明したが、本発明はこれに限定されるものではなく、
複数の障害物から選択的に配光制御に用いることができ
る。この場合、障害物と想定される点の位置座標を各々
記憶して、各記憶点毎に上記の処理を行えばよい。
In the above description, one obstacle is assumed, but the present invention is not limited to this.
It can be selectively used for light distribution control from a plurality of obstacles. In this case, the position coordinates of the points assumed to be obstacles may be stored, and the above processing may be performed for each storage point.

【0048】上記障害物検出処理が終了すると、画像処
理装置148から障害物の有無を示す有無信号が制御装
置150へ出力され、図7のステップ204において、
障害物の有無が判断される。
When the obstacle detection process is completed, the image processing device 148 outputs a presence / absence signal indicating the presence / absence of an obstacle to the control device 150, and in step 204 of FIG.
The presence or absence of obstacles is determined.

【0049】障害物が無の場合にはステップ214にお
いて、後述するように視認性向上及びグレア防止のため
の通常の配光制御(図14)がなされ、本ルーチンを終
了する。
If there is no obstacle, normal light distribution control (FIG. 14) for improving visibility and preventing glare is performed in step 214, and this routine is finished.

【0050】このステップ214(図7)の詳細であ
る、他車両のドライバーに対して防眩しながら視認性を
向上させる通常の配光制御サブルーチンについて説明す
る。本サブルーチンが実行されると、図14のステップ
220において対向車両認識処理が実行される。この対
向車両認識処理では、画像処理装置148へ信号を出力
した後に後述の対向車両認識処理が実行される。この対
向車両認識処理では、画像処理装置148において、対
向車両11Aの有無が検出される。
The details of step 214 (FIG. 7), that is, a normal light distribution control subroutine for improving visibility while dazzling the driver of another vehicle will be described. When this subroutine is executed, oncoming vehicle recognition processing is executed in step 220 of FIG. In this oncoming vehicle recognition processing, an oncoming vehicle recognition processing described below is executed after outputting a signal to the image processing device 148. In this oncoming vehicle recognition processing, the presence or absence of the oncoming vehicle 11A is detected by the image processing device 148.

【0051】すなわち、図15のステップ320におい
て、設定された車両認識領域から、処理する他車両の種
類に応じた車両認識領域を選択する(この場合、対向車
両認識領域WPO)。次のステップ322では、対向車両
認識領域WPO内における水平エッジ検出処理を行う。な
お、対向車両認識処理の説明を簡単にするために図16
(A)に示した対向車両11Aを含むイメージ120を
用いて説明する。この水平エッジ検出処理は、上記ステ
ップ302のエッジ検出処理と同様に、水平エッジ点を
検出することを対向車両認識領域WPO内で行い、検出さ
れた水平エッジ点を横方向に積分した積分値が所定値を
越える位置のピーク点EP を検出する(図16(B)参
照)。この水平エッジは対向車両が存在する場合に現れ
る確度が高い。なお、ピーク点EP が複数あるときは、
イメージ120上の対向車両認識領域WPO内の画像上に
おいて、下方に位置するピーク点EP (すなわち、車間
距離がより近い点)を選択する。従って、この選択に際
してもイメージの全ての領域から選択するのではなく、
対向車両が存在する確度が高いイメージ上の一部の領域
から選択する。このように、選択領域を制限しているの
で、画像処理装置の負荷は軽減する。
That is, in step 320 of FIG. 15, a vehicle recognition area corresponding to the type of another vehicle to be processed is selected from the set vehicle recognition areas (in this case, oncoming vehicle recognition area W PO ). In the next step 322, horizontal edge detection processing in the oncoming vehicle recognition area W PO is performed. In addition, in order to simplify the description of the oncoming vehicle recognition processing, FIG.
The image 120 including the oncoming vehicle 11A shown in FIG. In this horizontal edge detection process, similarly to the edge detection process of step 302, detection of a horizontal edge point is performed in the oncoming vehicle recognition area W PO , and an integrated value obtained by laterally integrating the detected horizontal edge point. The peak point E P at the position where exceeds a predetermined value is detected (see FIG. 16B). This horizontal edge is highly likely to appear when an oncoming vehicle is present. When there are multiple peak points E P ,
On the image in the oncoming vehicle recognition area W PO on the image 120, a peak point E P located below (that is, a point having a closer inter-vehicle distance) is selected. Therefore, when making this selection, instead of selecting from all areas of the image,
Select from some areas on the image with high probability that an oncoming vehicle exists. Since the selection area is limited in this way, the load on the image processing apparatus is reduced.

【0052】なお、図16(B)に示すように、イメー
ジ120上の対向車両認識領域WPO内に線90より下方
の領域92を設定し、この領域92を除いた対向車両認
識領域WPO内の画像上において、下方に位置するピーク
点EP を選択してもよい。これは、対向車両と自車両と
の車間距離が短い場合は、対向車両と自車両とが直に
[すれちがう]ので、車間距離が短い位置に存在するこ
とが想定される対向車両について、配光の制御対象から
除いてもよいためである。このようにすれば、選択領域
はさらに小さくなり、画像処理装置の負荷がさらに軽減
する。
[0052] Incidentally, as shown in FIG. 16 (B), set the lower region 92 from the line 90 to the image 120 on the oncoming vehicle recognition region W PO, oncoming vehicle recognition region W PO excluding the region 92 The peak point E P located below may be selected on the image inside. This is because when the inter-vehicle distance between the oncoming vehicle and the own vehicle is short, the oncoming vehicle and the own vehicle directly [pass each other]. This is because it may be excluded from the control target of. In this way, the selection area becomes smaller and the load on the image processing apparatus is further reduced.

【0053】次のステップ324では対向車両の位置座
標を演算すると共にこの対向車両までの車間距離を演算
する。対向車両11Aの有無は、対向車両認識領域WPO
内で対向車両11Aのヘッドランプ等の有無により判別
できる。例えば、図16(C)に示したように、明るさ
を特定するための所定値となる閾値を設定して上記のピ
ーク点EP を含む水平線近傍領域Zに存在する画素群9
4R,94Lを求める。この画素群94R,94Lの中
心座標値を求め、2つの中心座標値があると共にこの間
隔Xoがピーク点EP を含む水平線近傍に存在する標準
的な車両の車幅So(予めROMに記憶)を基準とした
比率が所定範囲内であるときに、対向車両11Aが存在
すると判定する。これと共にこの比率から自車両10か
ら対向車両11Aまでの車間距離SR を演算する。対向
車両11Aが有であるときには対向車両11Aの代表座
標として対向車両の車幅中央の座標QR (Xa,Ya)
を求めて処理を終了する。
In the next step 324, the position coordinates of the oncoming vehicle are calculated and the inter-vehicle distance to the oncoming vehicle is calculated. The presence or absence of the oncoming vehicle 11A is determined by the oncoming vehicle recognition area W PO.
It can be determined by the presence / absence of a headlight of the oncoming vehicle 11A. For example, as shown in FIG. 16C, a pixel group 9 existing in the horizontal line neighborhood region Z including the above-mentioned peak point E P by setting a threshold value that is a predetermined value for specifying the brightness is set.
Calculate 4R and 94L. The center coordinate values of the pixel groups 94R and 94L are obtained, and there are two center coordinate values, and the distance Xo is the vehicle width So of a standard vehicle existing near the horizontal line including the peak point E P (stored in ROM in advance). When the ratio based on is within a predetermined range, it is determined that the oncoming vehicle 11A exists. At the same time, the inter-vehicle distance S R from the host vehicle 10 to the oncoming vehicle 11A is calculated from this ratio. Coordinates of the vehicle width center of the oncoming vehicle as the representative coordinates of the oncoming vehicle 11A when oncoming vehicles 11A is Yes Q R (Xa, Ya)
And ends the process.

【0054】なお、上記で対向車両11Aが無のときに
は車間距離SR =0と設定する。これによって、車間距
離SR の値には、SR =0かSR >0かにより対向車両
11Aが自車両10の前方に存在するか否かを表す情報
をも含むことになる。
When there is no oncoming vehicle 11A, the inter-vehicle distance S R is set to 0. As a result, the value of the inter-vehicle distance S R also includes information indicating whether or not the oncoming vehicle 11A is in front of the own vehicle 10 depending on whether S R = 0 or S R > 0.

【0055】図14のステップ222では、画像処理装
置148からの信号を読み取ると共にステップ324で
求めた車間距離がSR =0か否かを判断することによっ
て対向車両の有無を判断する。対向車両11Aが無の場
合には、ステップ224へ進む。一方、対向車両11A
が有の場合には、ステップ226において対向車両に対
してグレアを与えない配光に制御するためのカットライ
ン70のイメージ上の位置HRを演算した後に、ステッ
プ228へ進む。
In step 222 of FIG. 14, the presence or absence of an oncoming vehicle is determined by reading the signal from the image processing device 148 and determining whether the inter-vehicle distance obtained in step 324 is S R = 0. If there is no oncoming vehicle 11A, the process proceeds to step 224. On the other hand, the oncoming vehicle 11A
If yes, the position HR on the image of the cut line 70 for controlling the light distribution that does not give glare to the oncoming vehicle is calculated in step 226, and then the process proceeds to step 228.

【0056】このステップ226では、イメージ上で対
向車両11Aを表す代表座標付近の位置にカットライン
70を位置させるため、代表座標QR (Xa,Ya)の
Y軸座標値Yaを、カットライン70のイメージ上の位
置HRとして設定する。すなわち、カットライン70は
水平であり(図5参照)、イメージ上の位置HRが定ま
れば、この座標を通過するカットライン70を定めるこ
とができる。
[0056] In step 226, for positioning the cut line 70 at a position near the representative coordinates representing the oncoming vehicle 11A on the image, representative coordinates Q R (Xa, Ya) of the Y-axis coordinate value Ya of the cut line 70 Is set as the position HR on the image. That is, the cut line 70 is horizontal (see FIG. 5), and if the position HR on the image is determined, the cut line 70 that passes through these coordinates can be determined.

【0057】なお、この位置HRは、対向車両のドライ
バーに対してグレアを与えない程度に所定量だけ代表座
標QR から上方へ位置するようにしてもよい。
[0057] In this position HR, the predetermined amount to the extent that does not give glare to the driver of the oncoming vehicle from the representative coordinates Q R may be positioned upward.

【0058】次のステップ228では、先行車両認識処
理が実行される。なお、このステップ228では、図1
7(A)に示す先行車両11Bが存在するイメージ12
0を用いて処理する場合を説明する。また、先行車両認
識処理は、上記対向車両認識処理のフローチャート(図
15)を用いている。先ず、先行車両認識領域WP が選
択されて(ステップ320)、上記と同様に先行車両認
識領域WP 内で水平エッジ検出処理を行い(ステップ3
22)、検出された水平エッジ点を横方向に積分した積
分値が所定値を越える位置のピーク点EP を検出する
(図17(B)参照)。なお、ピーク点EP が複数ある
ときは、イメージ120上の先行車両認識領域WP 内の
画像上において、下方に位置するピーク点EP (車間距
離がより近い点)を選択する。従って、上記対向車両の
場合と同様に、イメージの全ての領域から選択するので
はなく、先行車両が存在する確度が高いイメージ上の一
部の領域から選択でき、画像処理装置の負荷は軽減す
る。
In the next step 228, the preceding vehicle recognition processing is executed. Note that in this step 228, FIG.
Image 12 in which the preceding vehicle 11B shown in 7 (A) exists
A case of processing using 0 will be described. The preceding vehicle recognition process uses the flowchart of the oncoming vehicle recognition process (FIG. 15). First, the preceding vehicle recognition area W P is selected (step 320), and horizontal edge detection processing is performed within the preceding vehicle recognition area W P (step 3) as described above.
22), a peak point E P at a position where the integrated value obtained by horizontally integrating the detected horizontal edge point exceeds a predetermined value is detected (see FIG. 17B). Incidentally, when the peak point E P there are a plurality, in the image in the preceding vehicle recognition region W P on the image 120, selects a peak point E P located below (point following distance closer). Therefore, as in the case of the oncoming vehicle, instead of selecting from all areas of the image, it is possible to select from a partial area on the image in which the preceding vehicle is highly likely to exist, and the load on the image processing apparatus is reduced. .

【0059】次のステップ324では、先行車両の位置
座標を演算すると共に先行車両までの車間距離SL を演
算する。すなわち、垂直エッジ検出処理を行い、水平エ
ッジ点の積分値のピーク点EP が複数あるとき、画像上
で下方に位置するピーク点E P から順に、ピーク点EP
に含まれる水平エッジ点の両端を各々含むように垂直線
を検出するためのウインドウ領域WR 、WL を設定する
(図17(C)参照)。このウインドウ領域WR 、WL
内で垂直エッジを検出し、垂直線138R、138Lが
安定して検出された場合にウインドウ領域WR 、WL
挟まれた領域に先行車両が存在すると判定する。この検
出された垂直線138R,138Lの横方向の間隔Sは
車幅に対応するため、この車幅とピーク点EP 位置とか
ら先行車両11Bと自車両10との車間距離SL を演算
する。例えば、標準的な車両の車幅So(予めROMに
記憶)を基準として、イメージから検出する車両の車幅
に対応する間隔Sの比率を求め、この比率から車間距離
L を演算できる。また、先行車両11Bの中心の座標
L (Xb,Yb)として車幅中央の座標を求める。こ
の垂直線138R、138Lは車両のテール部の幅方向
両端部に対応しているので、座標QL (Xb,Yb)は
先行車両のテール部の中央部付近の位置を表している。
以上により先行車両認識処理を終了する。なお、上記で
先行車両11Bが無のときには、車間距離SL =0と設
定する。
At the next step 324, the position of the preceding vehicle is determined.
Inter-vehicle distance S to the preceding vehicle while calculating the coordinatesLPlayed
Calculate That is, vertical edge detection processing is performed to
Peak point E of the integral value at the edge pointPWhen there are multiple
Peak point E located at PIn order from the peak point EP
Vertical line to include both ends of the horizontal edge points included in
Window area W for detectingR, WLTo set
(See FIG. 17C). This window area WR, WL
Detect vertical edges in the vertical lines 138R, 138L
Window area W when detected stablyR, WLso
It is determined that a preceding vehicle exists in the sandwiched area. This inspection
The horizontal spacing S between the vertical lines 138R and 138L is
This vehicle width and peak point E correspond to the vehicle width.PPosition
Distance S between the preceding vehicle 11B and the host vehicle 10LCalculate
To do. For example, the vehicle width So of a standard vehicle (previously stored in the ROM
Vehicle width of the vehicle detected from the image based on (memory)
Calculate the ratio of the distance S corresponding to
SLCan be calculated. Also, the coordinates of the center of the preceding vehicle 11B
QLThe coordinates of the center of the vehicle width are calculated as (Xb, Yb). This
Vertical lines 138R and 138L are the width direction of the tail portion of the vehicle
Since it corresponds to both ends, coordinate QL(Xb, Yb) is
The position near the center of the tail of the preceding vehicle is shown.
Thus, the preceding vehicle recognition process ends. In addition, in the above
When there is no preceding vehicle 11B, the inter-vehicle distance SL= 0
Set.

【0060】図14のステップ230では、画像処理装
置148からの信号を読み取ると共にステップ324で
求めた先行車両11Bまでの車間距離がSL =0か否か
を判断することによって先行車両11Bの有無を判断す
る。先行車両11Bが無の場合には、ステップ236へ
進む。一方、先行車両11Bが有の場合には、ステップ
236において先行車両11Bに対してグレアを与えな
い配光に制御するためのカットライン72のイメージ上
の位置HLを演算した後に、ステップ236へ進む。
In step 230 of FIG. 14, the presence / absence of the preceding vehicle 11B is determined by reading the signal from the image processing device 148 and determining whether the inter-vehicle distance to the preceding vehicle 11B obtained in step 324 is S L = 0. To judge. If there is no preceding vehicle 11B, the process proceeds to step 236. On the other hand, if the preceding vehicle 11B is present, the position HL on the image of the cut line 72 for controlling the light distribution that does not give glare to the preceding vehicle 11B is calculated in step 236, and then the process proceeds to step 236. .

【0061】ステップ234では、イメージ上で先行車
両11Bを表す代表座標付近の位置にカットライン72
を位置させるため、代表座標QL (Xb,Yb)のY軸
座標値Ybを、カットライン72のイメージ上の位置H
Lとして設定する。すなわち、カットライン72の傾き
は予め定まっているため(図5参照)、イメージ上の位
置HLが定まれば、この座標を通過するカットライン7
2を定めることができる。
In step 234, the cut line 72 is placed at a position near the representative coordinates representing the preceding vehicle 11B on the image.
For positioning the representative coordinates Q L (Xb, Yb) in the Y-axis coordinate value Yb of the position H of the image of the cut line 72
Set as L. That is, since the inclination of the cut line 72 is determined in advance (see FIG. 5), if the position HL on the image is determined, the cut line 7 that passes through these coordinates is cut.
2 can be set.

【0062】なお、この位置HLは、先行車両のドライ
バーに対してグレアを与えない程度に所定量だけ代表座
標QL から上方へ位置するようにしてもよい。
[0062] In this position, HL, by a predetermined amount to the extent that does not give glare to the driver of the preceding vehicle from the representative coordinates Q L may be positioned upward.

【0063】次のステップ236では、エルボーポイン
ト位置演算処理が実行される。すなわち、上記で定めた
カットライン70、72の交点座標を求めることによ
り、エルボーポイント73のイメージ上の位置を演算す
る。なお、対向車両11A及び先行車両11Bが無のと
きのカットライン70、72の初期位置として初期値が
予め定められており、ステップ236では、少なくとも
一方の他車両が無のときに、該当する他車両に関する初
期値を用いる。また、現在のシェード位置を記憶し、該
当するカットラインを移動させたときのみのエルボーポ
イントの位置を求めてもよい。なお、エルボーポイント
73の位置は、道路の形状に則して定めることもでき
る。すなわち、上記ステップ304で求めたカーブ路の
度合いを示す変位量Aを用いて、この変位量Aに対応す
る予め位置にエルボーポイント73を定め、この位置を
初期値とする。これにより、道路の形状に則した配光
(カットラインの位置)を定めることができ、かつ他車
両に対してグレアを与えない配光を定めることができ
る。また、この場合自車両の車速を更に用いて、変位量
Aと車速とから初期値としてのエルボーポイント73の
位置を定めてもよい。
At the next step 236, elbow point position calculation processing is executed. That is, the position of the elbow point 73 on the image is calculated by obtaining the intersection coordinates of the cut lines 70 and 72 defined above. An initial value is predetermined as an initial position of the cut lines 70 and 72 when the oncoming vehicle 11A and the preceding vehicle 11B are not present, and in step 236, at least one other vehicle is not present, and the corresponding other Use the initial value for the vehicle. Further, the current shade position may be stored and the position of the elbow point may be obtained only when the corresponding cut line is moved. The position of the elbow point 73 can also be determined according to the shape of the road. That is, using the displacement amount A indicating the degree of the curved road obtained in step 304, the elbow point 73 is set in advance at a position corresponding to the displacement amount A, and this position is set as an initial value. As a result, it is possible to determine the light distribution (the position of the cut line) that conforms to the shape of the road, and also to determine the light distribution that does not give glare to other vehicles. In this case, the position of the elbow point 73 as an initial value may be determined from the displacement amount A and the vehicle speed by further using the vehicle speed of the host vehicle.

【0064】次のステップ238では、演算されたエル
ボーポイント73の位置からシェード40の移動量を演
算し、ステップ240において演算された移動量だけモ
ータ46,52を回転することによりシェード40を移
動し、本ルーチンを終了する。
At the next step 238, the movement amount of the shade 40 is calculated from the calculated position of the elbow point 73, and the shade 40 is moved by rotating the motors 46 and 52 by the movement amount calculated at step 240. , This routine ends.

【0065】これにより、自車両のドライバーの視認性
を向上させつつ先行車両及び対向車両の少なくとも一方
の他車両が自車両前方に存在するときに先行車両及び対
向車両のドライバーがグレアを感じることのない配光に
制御することができる。
Thus, the driver of the preceding vehicle and the oncoming vehicle can feel glare when at least one of the preceding vehicle and the oncoming vehicle is in front of the own vehicle while improving the visibility of the driver of the own vehicle. Can be controlled to no light distribution.

【0066】一方、障害物が検出されてステップ204
(図7)で肯定判定された場合にはステップ206にお
いて障害物計測処理(図20)が実行される。このステ
ップ206の障害物計測処理が実行されると、画像処理
装置148へ信号を出力すると共に画像処理装置148
では図20のステップ330が実行され、障害物の上端
を計測する。この計測は、警報ウインドウWARM 内にお
いて検出されたピーク点を用いて(上記、図13のステ
ップ314)、イメージの上方に位置するピーク点を障
害物の上端部付近とし、このピーク点の座標を障害物の
上端Rの座標(Xr,Yr)とする(図19参照)。画
像処理装置148では、この障害物の上端Rの座標を求
めた後に上端座標値を出力して本ルーチンを終了する。
On the other hand, if an obstacle is detected, step 204
If the affirmative determination is made in (FIG. 7), the obstacle measurement process (FIG. 20) is executed in step 206. When the obstacle measurement processing in step 206 is executed, a signal is output to the image processing device 148 and the image processing device 148 is output.
Then, step 330 of FIG. 20 is executed to measure the upper end of the obstacle. This measurement uses the peak point detected in the alarm window W ARM (above, step 314 in FIG. 13), the peak point located above the image is set near the upper end of the obstacle, and the coordinates of this peak point are set. Is the coordinate (Xr, Yr) of the upper edge R of the obstacle (see FIG. 19). The image processing device 148 determines the coordinates of the upper end R of the obstacle, outputs the upper end coordinate value, and then ends this routine.

【0067】次のステップ208では、現在のシェード
40の位置によるカットライン70,72の位置が制御
値として記憶され、次のステップ210で障害物の上端
Rの座標がカットラインの近傍に有るか否かを判断する
ことにより、これから制御する配光制御が通常の配光制
御で可能か否かを判断する。障害物の座標がカットライ
ン位置の近傍にあれば、回折等のまわり込み現象により
障害物に対して光は照射される。肯定判断の場合には、
ステップ214へ進み、否定判断の場合には、ステップ
212へ進む。ステップ212では、障害物が存在する
ことを想定した後述する配光制御(図18)が実行され
た後に、本ルーチンを終了する。
At the next step 208, the positions of the cut lines 70, 72 depending on the current position of the shade 40 are stored as control values, and at the next step 210, is the coordinate of the upper end R of the obstacle located near the cut line? By determining whether or not the light distribution control to be controlled from now on is possible by the normal light distribution control. If the coordinates of the obstacle are in the vicinity of the cut line position, the obstacle is illuminated with light due to a wraparound phenomenon such as diffraction. In the affirmative case,
The process proceeds to step 214, and if the determination is negative, the process proceeds to step 212. In step 212, the light distribution control (FIG. 18) described below assuming that an obstacle is present is executed, and then this routine is ended.

【0068】次に、図7のステップ212の詳細であ
る、障害物対象の配光制御サブルーチンについて説明す
る。本サブルーチンが実行されると、図18のステップ
250において障害物の上端位置に対応するカットライ
ン位置演算処理が実行される。この演算処理は、画像処
理装置148において求めた障害物の上端座標R(X
r,Yr)を用いて、この座標値から標準的な人物の顔
の大きさ等により予め定めた所定値βだけ下方に位置す
る座標R(Xr,Yr−β)を求める。次に、イメージ
上において障害物の上端座標R付近の位置にカットライ
ン70、またはカットライン72を位置させるため、障
害物の上端座標R(Xr,Yr)から予め定めた所定値
βだけ下方に位置する座標R(Xr,Yr−β)を、通
過するカットラインのイメージ上の位置Hoとして設定
する。すなわち、カットライン70、72の傾きは予め
定まっているため(図5参照)、イメージ上の上端座標
Rが定まれば、この上端座標Rを通過するカットライン
70、72の位置を定めることができる(図19参
照)。
Next, the light distribution control subroutine for obstacles, which is a detail of step 212 in FIG. 7, will be described. When this subroutine is executed, a cut line position calculation process corresponding to the upper end position of the obstacle is executed in step 250 of FIG. This calculation process is performed by the upper end coordinates R (X
r, Yr), the coordinate R (Xr, Yr-β) located below the predetermined value β determined in advance by the standard size of the face of the person is obtained from this coordinate value. Next, in order to position the cut line 70 or the cut line 72 at a position near the upper end coordinate R of the obstacle on the image, the cut line 70 or the cut line 72 is moved downward by a predetermined value β from the upper end coordinate R (Xr, Yr) of the obstacle. The coordinate R (Xr, Yr-β) that is located is set as the position Ho on the image of the passing cut line. That is, since the inclinations of the cut lines 70 and 72 are predetermined (see FIG. 5), if the upper end coordinates R on the image are set, the positions of the cut lines 70 and 72 that pass through the upper end coordinates R can be set. Yes (see Figure 19).

【0069】次のステップ252では、エルボーポイン
ト位置演算処理が実行される。すなわち、上記で定めた
カットライン70、72の交点座標を求めることによ
り、エルボーポイント73のイメージ上の位置を演算す
る。なお、障害物が走行レーン122Aの左右何れかに
存在して、カットライン70、72の一方が定まらない
とき、ステップ208(図7)で記憶されたカットライ
ン70、72の位置を初期値として用いればよい。次の
ステップ254では、演算されたエルボーポイント73
の位置からシェード40の移動量を演算し、ステップ2
56において演算された移動量だけモータ46,52を
回転することによりシェード40を移動し、本ルーチン
を終了する。
In the next step 252, elbow point position calculation processing is executed. That is, the position of the elbow point 73 on the image is calculated by obtaining the intersection coordinates of the cut lines 70 and 72 defined above. When an obstacle exists on either side of the traveling lane 122A and one of the cut lines 70 and 72 cannot be determined, the positions of the cut lines 70 and 72 stored in step 208 (FIG. 7) are used as initial values. You can use it. In the next step 254, the calculated elbow point 73
The movement amount of the shade 40 is calculated from the position of
The shade 40 is moved by rotating the motors 46 and 52 by the amount of movement calculated in 56, and this routine ends.

【0070】このように、本実施例では、障害物が存在
するときには、他車両のドライバーに対して防眩しなが
ら視認性を向上させる通常の配光制御よりも、自車両の
ドライバーに対して障害物の存在を促すように配光制御
されるので、ドライバーは確実に歩行者等の障害物を認
知することができる。
As described above, in this embodiment, when an obstacle is present, the driver of the own vehicle is obstructed rather than the normal light distribution control for improving visibility while dazzling the driver of another vehicle. Since the light distribution is controlled so as to promote the existence of an object, the driver can surely recognize an obstacle such as a pedestrian.

【0071】上記実施例では、歩行者等の障害物の上端
位置を検出し、この上端付近を照射するように配光制御
しているが、障害物の上端付近を照射するまでの配光制
御に時間を要することになる。そこで、迅速に障害物を
対象とする配光制御をする第2実施例について説明す
る。なお、第2実施例の車両用前照灯装置100は、第
1実施例と同様の構成であるため、同一部分には同一符
号を付して詳細な説明は省略し、以下異なる部分を説明
する。
In the above embodiment, the upper end position of an obstacle such as a pedestrian is detected and the light distribution is controlled so that the vicinity of the upper end is illuminated. However, the light distribution control until the vicinity of the upper end of the obstacle is illuminated is controlled. It will take time. Therefore, a second embodiment will be described in which light distribution control for an obstacle is swiftly performed. Since the vehicle headlamp device 100 of the second embodiment has the same configuration as that of the first embodiment, the same parts are designated by the same reference numerals and detailed description thereof will be omitted, and different parts will be described below. To do.

【0072】なお、障害物が検出されたときの障害物を
対象とした配光制御として、ヘッドランプの点灯を断続
的にハイビーム側にする、所謂パッシングを行い、この
パッシング時のハイビームの光により、障害物を照射す
るようにしてもよい。
As light distribution control for the obstacle when the obstacle is detected, so-called passing is performed in which the headlamp is turned on intermittently to the high beam side. Alternatively, the obstacle may be illuminated.

【0073】第2実施例では、上記第1実施例のステッ
プ206(図20)の処理を図21の処理に代えると共
に、図22の割り込み処理ルーチンを追加する。第2実
施例で用いる割り込み処理は、障害物が検出されたとき
に無条件でカットラインを所定幅だけ移動させる処理で
ある。
In the second embodiment, the processing of step 206 (FIG. 20) of the first embodiment is replaced with the processing of FIG. 21, and the interrupt processing routine of FIG. 22 is added. The interrupt process used in the second embodiment is a process that unconditionally moves the cut line by a predetermined width when an obstacle is detected.

【0074】すなわち、図7のステップ204において
障害物が有ると判断されると、図21に示した障害物計
測処理が実行される。先ずステップ340において障害
物の検出された座標点を読み取ることにより障害物の位
置を計測し、次のステップ342において障害物の上端
を計測する。この計測は、警報ウインドウWARM 内にお
いて検出されたピーク点を用いて(上記のステップ31
4)、イメージの上方に位置するピーク点を障害物の上
端部付近とし、このピーク点の座標を障害物の上端Rの
座標(Xr,Yr)とする(図19参照)。画像処理装
置148では、この障害物の上端Rの座標を求めた後に
上端座標を出力して本ルーチンを終了する。
That is, when it is determined in step 204 of FIG. 7 that there is an obstacle, the obstacle measuring process shown in FIG. 21 is executed. First, in step 340, the position of the obstacle is measured by reading the coordinate point where the obstacle is detected, and in the next step 342, the upper end of the obstacle is measured. This measurement uses the peak points detected in the alarm window W ARM (step 31 above).
4) The peak point located above the image is near the upper end of the obstacle, and the coordinates of this peak point are the coordinates (Xr, Yr) of the upper edge R of the obstacle (see FIG. 19). The image processing apparatus 148 obtains the coordinates of the upper end R of the obstacle, then outputs the upper end coordinates, and ends this routine.

【0075】次に、ステップ208において現在のシェ
ード40の位置によるカットライン70,72の位置が
制御値として記憶されると、図22の割り込み処理ルー
チンが実行され、ステップ260へ進む。ステップ26
0では、画像処理装置148からの信号から障害物が対
向レーン側に存在するか否かを判断する。否定判定の場
合には、ステップ262において現在のシェード40の
位置からカットライン72が所定量だけ上方へ移動させ
たときのシェードの移動量を演算する。一方、肯定判定
の場合にはステップ266において現在のシェード40
の位置からカットライン70が所定量だけ上方へ移動さ
せたときのシェードの移動量を演算する。この移動量は
予め定めた所定値を記憶させてもよい。次のステップ2
64において、演算された移動量によりモータを移動さ
せてシェード40を所定量移動させて本ルーチンを終了
する。なお、左右のカットラインを独立して移動量を求
めることに限定されず、同時に両方を同量だけ移動させ
てもよい。
Next, when the positions of the cut lines 70, 72 depending on the current position of the shade 40 are stored as control values in step 208, the interrupt processing routine of FIG. 22 is executed and the routine proceeds to step 260. Step 26
At 0, it is determined from the signal from the image processing device 148 whether or not an obstacle exists on the opposite lane side. In the case of negative determination, in step 262, the movement amount of the shade when the cut line 72 is moved upward by a predetermined amount from the current position of the shade 40 is calculated. On the other hand, in the case of a positive determination, in step 266, the current shade 40
The movement amount of the shade when the cut line 70 is moved upward by a predetermined amount from the position of is calculated. This movement amount may be stored as a predetermined value. Next step 2
At 64, the motor is moved by the calculated movement amount to move the shade 40 by a predetermined amount, and the present routine is ended. It should be noted that the left and right cut lines are not limited to independently obtaining the movement amount, and both may be moved by the same amount at the same time.

【0076】これにより、本実施例では、第1実施例に
おいて歩行者等の障害物の上端位置を検出し、この上端
付近を照射するように配光制御するまでの時間に、予め
所定量だけ移動しているため、上端付近を照射する配光
制御が終了するまでの制御時間を短縮することができ、
制御装置の負荷を軽減できる。
As a result, in the present embodiment, only a predetermined amount is previously set in the time until the upper end position of an obstacle such as a pedestrian is detected in the first embodiment and the light distribution control is performed so that the vicinity of the upper end is illuminated. Since it is moving, it is possible to shorten the control time until the light distribution control for illuminating the vicinity of the upper end is completed,
The load on the control device can be reduced.

【0077】なお、上記シェード40を所定量移動させ
る制御に加えて、ヘッドランプの点灯を断続的にハイビ
ーム側にする、所謂パッシングを行い、このパッシング
時のハイビームの光により、障害物を照射するようにし
てもよい。
In addition to the control of moving the shade 40 by a predetermined amount, so-called passing is performed in which the headlamps are intermittently turned on to the high beam side, and an obstacle is illuminated by the high beam light during the passing. You may do it.

【0078】次に、第3実施例を説明する。第3実施例
では、歩行者等の障害物が自車両の走行レーン122A
に進入することを予想しながら配光制御する。なお、第
3実施例の車両用前照灯装置100は、第1実施例及び
第2実施例と同様の構成であるため、同一部分には同一
符号を付して詳細な説明は省略し、以下異なる部分を説
明する。
Next, a third embodiment will be described. In the third embodiment, an obstacle such as a pedestrian is in the traveling lane 122A of the vehicle.
The light distribution is controlled while anticipating that it will enter. Since the vehicle headlamp device 100 of the third embodiment has the same configuration as that of the first and second embodiments, the same parts are designated by the same reference numerals and detailed description thereof will be omitted. The different parts will be described below.

【0079】第3実施例では、図7のステップ202に
おける障害物検出処理を、図23に示した障害物検出ル
ーチンを用いている。
In the third embodiment, the obstacle detection process in step 202 of FIG. 7 uses the obstacle detection routine shown in FIG.

【0080】障害物検出処理が実行されると、図23の
ステップ350へ進み、障害物の上端座標R(Xr,Y
r)を求めると共に、記憶する。次のステップ352で
は、前回の座標R’と現在の座標Rとから移動した距離
に相当する差分値ωを演算する(図24参照)。この差
分値ωがω<0の場合には、走行レーン122Aへ進入
する確度が低く、障害物にはなり得ないことが予想され
るため、ステップ368において障害物までの距離Dに
予め定めた大きな値D0を設定し、本ルーチンを終了す
る。
When the obstacle detection processing is executed, the routine proceeds to step 350 in FIG. 23, where the upper end coordinates R (Xr, Y) of the obstacle.
r) is calculated and stored. In the next step 352, the difference value ω corresponding to the distance moved from the previous coordinate R ′ and the current coordinate R is calculated (see FIG. 24). When the difference value ω is ω <0, the probability of entering the traveling lane 122A is low and it is expected that the obstacle cannot be an obstacle. Therefore, in step 368, the distance D to the obstacle is predetermined. A large value D0 is set and this routine ends.

【0081】一方、ω≧0の場合には、走行レーン12
2Aへ進入することが予想されるので、ステップ356
において車速を読み取ると共にステップ358において
現在の障害物までの距離Dを演算する。この距離Dの演
算は、障害物のイメージ上の位置と現在の車速から求め
ることができる。
On the other hand, when ω ≧ 0, the traveling lane 12
Since it is expected to enter 2A, step 356
At step 358, the vehicle speed is read and the current distance D to the obstacle is calculated. The distance D can be calculated from the position on the image of the obstacle and the current vehicle speed.

【0082】次のステップ360では、現在の車速によ
り自車両10が障害物まで到達する時間Tを予測演算す
る。次のステップ362では、この時間Tを経過した後
の障害物の位置を演算する。ステップ364では、この
予測した障害物の位置が走行レーン122A内か否かを
判別し、走行レーン122A内と判定された場合に障害
物までの距離Dを[0]に設定し、本ルーチンを終了す
る。
In the next step 360, the time T for the vehicle 10 to reach the obstacle is predicted and calculated based on the current vehicle speed. In the next step 362, the position of the obstacle after this time T has elapsed is calculated. In step 364, it is determined whether or not the predicted position of the obstacle is in the traveling lane 122A, and when it is determined that the obstacle is in the traveling lane 122A, the distance D to the obstacle is set to [0], and this routine is executed. finish.

【0083】この障害物検出処理が終了すると、画像処
理装置148から距離Dの値が制御装置150へ出力さ
れ、図7のステップ204において、この距離Dの値に
より障害物の有無が判断される。すなわち、上記図7の
ステップ204では、D=0か否かを判断し、D=0の
場合に障害物が有ると判断する。
When this obstacle detection processing is completed, the value of the distance D is output from the image processing device 148 to the control device 150, and in step 204 of FIG. 7, the presence or absence of an obstacle is determined by the value of this distance D. . That is, in step 204 of FIG. 7, it is determined whether or not D = 0, and when D = 0, it is determined that there is an obstacle.

【0084】このように、本実施例では、障害物の移動
方向による予想される位置から障害物に対する配光制御
をするか否かを判断しているので、単に徒歩で歩道等を
走行している歩行者等の障害物に光を照射するような不
要な制御をすることがないので、制御装置の負荷は軽減
できる。
As described above, in this embodiment, it is determined whether or not the light distribution control for the obstacle is to be performed based on the expected position depending on the moving direction of the obstacle. Therefore, simply walk on a sidewalk or the like. Since unnecessary control such as illuminating an obstacle such as a pedestrian present is not performed, the load on the control device can be reduced.

【0085】次に、第4実施例を説明する。第4実施例
は、障害物として人物等を対象としたときに、人物が有
する特有の性質、すなわち温度分布を用いて障害物の上
端位置を求めるものである。
Next, a fourth embodiment will be described. In the fourth embodiment, when a person or the like is targeted as an obstacle, the upper end position of the obstacle is obtained by using the unique property of the person, that is, the temperature distribution.

【0086】歩行中の人物では、頭部と体部との温度分
布が異なる。すなわち、図25に示したように、頭部9
6、特に顔の周辺は露出しているので、体温と略一致す
る温度(約36度)が検出される。一方、体部98は衣
服等で覆われているので、首付近から下方の温度は低く
検出される。従って、人物全体の温度分布を参照する
と、首付近を境として急激な温度変化がある。これによ
り、温度変化が急激な位置を検出すれば、その温度が高
い方の領域が人物等の頭部である確度が高い。
A person walking is different in temperature distribution between the head and the body. That is, as shown in FIG.
6. In particular, since the area around the face is exposed, a temperature (about 36 degrees) that substantially matches the body temperature is detected. On the other hand, since the body part 98 is covered with clothes or the like, the temperature below the neck and lower is detected to be low. Therefore, referring to the temperature distribution of the whole person, there is a rapid temperature change around the neck. Accordingly, if a position where the temperature changes abruptly is detected, it is highly likely that the region having the higher temperature is the head of a person or the like.

【0087】そこで、図25に示したように、第1の閾
値th1を越える温度分布があるか否かで障害物の有無
を判定でき、第2の閾値th2を越える温度分布がある
か否かで上端部の検出できる。従って、上記のステップ
202(図7)では第1の閾値th1を越える温度分布
があるか否かを判定することにより障害物の有無を判定
し、ステップ206では第2の閾値th2を越える温度
分布の上端位置を求めることで所望の上端位置を計測す
ることができる。
Therefore, as shown in FIG. 25, the presence or absence of an obstacle can be determined by whether or not there is a temperature distribution that exceeds the first threshold th1, and whether or not there is a temperature distribution that exceeds the second threshold th2. The upper end can be detected with. Therefore, in step 202 (FIG. 7) described above, the presence or absence of an obstacle is determined by determining whether or not there is a temperature distribution that exceeds the first threshold value th1, and in step 206, the temperature distribution that exceeds the second threshold value th2. A desired upper end position can be measured by obtaining the upper end position of the.

【0088】これにより、画像処理より早期に人物等の
有無及び上端部を特定することができ、制御の迅速化を
図ることができる。
As a result, the presence or absence of a person or the like and the upper end can be specified earlier than the image processing, and the control can be speeded up.

【0089】この温度の検出には、赤外線カメラ、サー
モグラフィー等を用いることができる。この検出値の分
布から急激な温度変化の位置を特定することができる。
この赤外線カメラ等の検出器では、車両前方の温度分布
を検出できると共に、その等温度線等から画像を検出す
ることができる。
An infrared camera, thermography, or the like can be used to detect this temperature. The position of a sudden temperature change can be specified from the distribution of the detected values.
This detector such as an infrared camera can detect the temperature distribution in front of the vehicle and can also detect an image from the isothermal line or the like.

【0090】上記温度変化により頭部を検出する場合、
歩行者が後ろ向きで歩行中の場合には、頭髪等により判
別感度は低下するが、配光制御中にカットラインが頭部
より上部に位置しても、歩行者がグレアを感じることが
ない。このため、歩行者に対するグレアを考慮する必要
はなく、単に障害物としてヘッドランプの光を照射すれ
ばよい。
When the head is detected by the above temperature change,
When the pedestrian is walking backwards and walking, the discrimination sensitivity is reduced due to hair and the like, but the pedestrian does not feel glare even if the cut line is located above the head during light distribution control. For this reason, it is not necessary to consider glare for pedestrians, and the light from the headlamp may simply be applied as an obstacle.

【0091】なお、上記の実施例では、左側通行で車両
が走行する場合について説明したが、右側通行への適用
も容易であると共に、複数の走行車線を有する道路への
適用も容易である。
In the above embodiment, the case where the vehicle travels on the left side has been described, but the application on the right side is easy and the application on the road having a plurality of driving lanes is also easy.

【0092】また、上記実施例では、先行車両側のカッ
トラインを形成するためのシェードと対向車両側のカッ
トラインを形成するためのシェードとが一体のシェード
を用いているが、本発明はこれに限定されるものではな
く、隣接させた2つのシェードを独立して制御してもよ
い。この場合、障害物の位置が左右何れに存在するかを
判別し、該当する左右何れか一方を制御すればよい。
Further, in the above-mentioned embodiment, the shade for forming the cut line on the side of the preceding vehicle and the shade for forming the cut line on the side of the oncoming vehicle are integrated, but the present invention uses this shade. However, the two shades adjacent to each other may be controlled independently. In this case, it suffices to determine whether the position of the obstacle is on the left or right side, and control either the left or right side.

【0093】また、上記実施例では、自車両前方の配光
を制御するためにヘッドランプ内に遮光するためのシェ
ードを配設し円柱状のシェードの上下左右の移動によっ
て配光制御する場合の例を説明したが、本発明はこれに
限定されるものではなく、板状のシェードを移動させて
もよく、光軸を偏向させてもよい。
Further, in the above embodiment, in the case where the shade for shielding the light is arranged in the headlamp in order to control the light distribution in front of the own vehicle, and the light distribution is controlled by the vertical and horizontal movement of the cylindrical shade. Although an example has been described, the present invention is not limited to this, and a plate-shaped shade may be moved and the optical axis may be deflected.

【0094】なお、上記では白線を検出して道路(走行
レーン)を特定しているが、道路の側縁部に形成される
縁石によって検出してもよい。この場合、白線と縁石と
を階調画像の検出レベルを変更することによりいずれも
検出することができる。
In the above description, the white line is detected to identify the road (running lane), but it may be detected by a curb formed on the side edge of the road. In this case, both the white line and the curb can be detected by changing the detection level of the gradation image.

【0095】[0095]

【発明の効果】以上説明したように本発明によれば、進
行路の形状に則した配光制御をしているときであって
も、検出した障害物の略上端を十分照明できるため、歩
行者等にグレアを与えることなく、視認性が向上しつつ
走行中のドライバーは障害物の存在を確実に認識するこ
とができる、という効果がある。
As described above, according to the present invention, it is possible to sufficiently illuminate the approximately upper end of the detected obstacle even when the light distribution control is performed in accordance with the shape of the traveling path, so that it is possible to walk. There is an effect that a driver who is traveling can surely recognize the existence of an obstacle while improving the visibility without giving glare to a person or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例にかかる、制御装置の概略構成
を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a control device according to an embodiment of the present invention.

【図2】本実施例のヘッドランプの概略構成を示す斜視
図である。
FIG. 2 is a perspective view showing a schematic configuration of a headlamp of this embodiment.

【図3】図2の2−2線に沿った断面図である。FIG. 3 is a sectional view taken along line 2-2 of FIG.

【図4】本実施例に用いたヘッドランプのシェードを示
す斜視図である。
FIG. 4 is a perspective view showing a shade of a headlamp used in this embodiment.

【図5】ヘッドランプにより形成されるカットラインを
説明するためのイメージ図である。
FIG. 5 is an image diagram for explaining a cut line formed by a headlamp.

【図6】車両前部を示す車両斜め前方から見た斜視図で
ある。
FIG. 6 is a perspective view showing a front portion of the vehicle as seen obliquely from the front of the vehicle.

【図7】第1実施例の車両用前照灯装置の制御メインル
ーチンを示すフローチャートである。
FIG. 7 is a flowchart showing a control main routine of the vehicle headlight device of the first embodiment.

【図8】図7のステップ200の詳細である、領域設定
の流れを示すフローチャートである。
8 is a flowchart showing the flow of area setting, which is a detail of step 200 of FIG.

【図9】撮像したイメージ上に設定された各領域を示す
概念図である。
FIG. 9 is a conceptual diagram showing each area set on a captured image.

【図10】カメラが前方の道路を撮像したイメージ図で
ある。
FIG. 10 is an image diagram in which a camera images a road ahead.

【図11】白線認識時のウインドウ領域を示す線図であ
る。
FIG. 11 is a diagram showing a window area when a white line is recognized.

【図12】先行車両及び対向車両を認識するための認識
領域を示す線図である。
FIG. 12 is a diagram showing a recognition area for recognizing a preceding vehicle and an oncoming vehicle.

【図13】図7のステップ202の詳細である、障害物
検出の流れを示すフローチャートである。
FIG. 13 is a flowchart showing the flow of obstacle detection, which is a detail of step 202 in FIG. 7.

【図14】図7のステップ214の詳細である、車両用
前照灯装置における通常の配光制御ルーチンを示すフロ
ーチャートである。
FIG. 14 is a flowchart showing the details of step 214 in FIG. 7, showing a normal light distribution control routine in the vehicle headlight device.

【図15】図14のステップ220、228の詳細であ
る、他車両認識の流れを示すフローチャートである。
FIG. 15 is a flowchart showing the flow of recognizing another vehicle, which is a detail of steps 220 and 228 in FIG.

【図16】(A)は日中にTVカメラにより撮像される
対向車両を含む画像のイメージ図、(B)は水平エッジ
点積分処理を説明するための概念図、(C)は垂直エッ
ジ検出処理を説明するための概念図である。
16A is an image diagram of an image including an oncoming vehicle imaged by a TV camera during the day, FIG. 16B is a conceptual diagram for explaining a horizontal edge point integration process, and FIG. 16C is a vertical edge detection process. It is a conceptual diagram for explaining.

【図17】(A)は日中にTVカメラにより撮像される
先行車両を含む画像のイメージ図、(B)は水平エッジ
点積分処理を説明するための概念図、(C)は垂直エッ
ジ検出処理を説明するための概念図である。
17A is an image diagram of an image including a preceding vehicle captured by a TV camera during the day, FIG. 17B is a conceptual diagram for explaining horizontal edge point integration processing, and FIG. 17C is vertical edge detection processing. It is a conceptual diagram for explaining.

【図18】図7のステップ212の詳細である、車両用
前照灯装置における障害物優先の配光制御ルーチンを示
すフローチャートである。
FIG. 18 is a flowchart showing the details of step 212 of FIG. 7, which is a light distribution control routine of obstacle priority in the vehicle headlight device.

【図19】障害物を検出する過程を説明するための説明
図である。
FIG. 19 is an explanatory diagram for explaining a process of detecting an obstacle.

【図20】図7のステップ206の詳細である、障害物
計測処理を示すフローチャートである。
20 is a flowchart showing an obstacle measurement process, which is a detail of step 206 of FIG.

【図21】第2実施例に用いた図7のステップ206の
詳細である、障害物計測処理を示すフローチャートであ
る。
FIG. 21 is a flowchart showing an obstacle measuring process, which is a detail of step 206 of FIG. 7 used in the second embodiment.

【図22】第2実施例に適用した割り込み処理ルーチン
の流れを示すフローチャートである。
FIG. 22 is a flowchart showing the flow of an interrupt processing routine applied to the second embodiment.

【図23】第3実施例に適用した図7のステップ202
の詳細である、障害物検出処理を示すフローチャートで
ある。
FIG. 23 is a step 202 of FIG. 7 applied to the third embodiment.
3 is a flowchart showing the details of the obstacle detection process.

【図24】第3実施例において障害物が移動する過程を
説明するための説明図である。
FIG. 24 is an explanatory diagram for explaining a process of moving an obstacle in the third embodiment.

【図25】第4実施例にかかる、人物の温度分布を示す
線図である。
FIG. 25 is a diagram showing a temperature distribution of a person according to the fourth example.

【符号の説明】[Explanation of symbols]

100 車両用前照灯装置 148 画像処理装置 150 制御装置 18 ヘッドランプ 22 TVカメラ 40 シェード WD 障害物検出領域100 Vehicle headlight device 148 Image processing device 150 Control device 18 Headlamp 22 TV camera 40 Shade W D Obstacle detection area

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 明るさ、照射方向及び照射範囲の少なく
とも一つが変更可能なヘッドランプを有する車両が進行
する進行路を含む画像を検出する画像検出手段と、 前記画像検出手段で検出された画像に基づいて、前記進
行路の形状を抽出しかつ、該画像上に障害物を検出する
ための障害物検出領域を設定する画像処理手段と、 前記障害物検出領域内において障害物の有無を検出する
と共に検出された該障害物の上端付近を検出する障害物
検出手段と、 前記障害物検出手段により障害物が検出された場合には
前記ヘッドランプの光により障害物の略上端より下方を
照射するための前記ヘッドランプの明るさ、照射方向及
び照射範囲の少なくとも一つを演算する配光演算手段
と、 前記配光演算演算手段の演算結果に基づいて前記ヘッド
ランプの明るさ、照射方向及び照射範囲の少なくとも一
つを制御する制御手段と、 を備えた車両用前照灯装置。
1. An image detecting means for detecting an image including a traveling path of a vehicle having a headlamp capable of changing at least one of brightness, irradiation direction and irradiation range; and an image detected by the image detecting means. Image processing means for extracting the shape of the traveling path and setting an obstacle detection area for detecting an obstacle on the image, and detecting the presence or absence of an obstacle in the obstacle detection area based on And an obstacle detecting means for detecting the vicinity of the upper end of the detected obstacle, and when an obstacle is detected by the obstacle detecting means, the headlamp light illuminates a portion below the substantially upper end of the obstacle. Light distribution calculation means for calculating at least one of the brightness, the irradiation direction and the irradiation range of the headlamp, and the headlamp based on the calculation result of the light distribution calculation calculation means. That is, a vehicle headlamp apparatus and a control means for controlling at least one of the irradiation direction and irradiation range.
【請求項2】 明るさ、照射方向及び照射範囲の少なく
とも一つが変更可能なヘッドランプを有する車両が進行
する進行路を含む画像検出すると共に該画像に相当する
領域内の温度分布を検出する車両前方情報検出手段と、 前記車両前方情報検出手段で検出された画像に基づい
て、前記進行路の形状を抽出しかつ、該画像上に障害物
を検出するための障害物検出領域を設定する画像処理手
段と、 前記障害物検出領域内において障害物の有無を検出する
と共に検出された障害物の温度分布により該障害物の上
端付近を検出する障害物検出手段と、 前記障害物検出手段により障害物が検出された場合には
前記ヘッドランプの光により障害物の略上端より下方を
照射するための前記ヘッドランプの明るさ、照射方向及
び照射範囲の少なくとも一つを演算する配光演算手段
と、 前記配光演算演算手段の演算結果に基づいて前記ヘッド
ランプの明るさ、照射方向及び照射範囲の少なくとも一
つを制御する制御手段と、 を備えた車両用前照灯装置。
2. A vehicle for detecting an image including a traveling path of a vehicle having a headlamp capable of changing at least one of brightness, irradiation direction and irradiation range, and detecting a temperature distribution in a region corresponding to the image. An image in which an obstacle detection area for extracting the shape of the traveling path and detecting an obstacle on the image based on the image detected by the front information detecting unit and the vehicle front information detecting unit is set. Processing means, obstacle detection means for detecting the presence or absence of an obstacle in the obstacle detection area, and detecting the vicinity of the upper end of the obstacle based on the temperature distribution of the detected obstacle, and the obstacle detection means When an object is detected, at least one of the brightness, the irradiation direction, and the irradiation range of the headlamp for irradiating the lower part of the obstacle with the light of the headlamp is selected. A vehicle headlamp including: a light distribution calculation unit that calculates; and a control unit that controls at least one of the brightness, the irradiation direction, and the irradiation range of the headlamp based on the calculation result of the light distribution calculation calculation unit. Lighting device.
JP28521593A 1993-11-15 1993-11-15 Headlight device for vehicles Expired - Fee Related JP2817594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28521593A JP2817594B2 (en) 1993-11-15 1993-11-15 Headlight device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28521593A JP2817594B2 (en) 1993-11-15 1993-11-15 Headlight device for vehicles

Publications (2)

Publication Number Publication Date
JPH07137574A true JPH07137574A (en) 1995-05-30
JP2817594B2 JP2817594B2 (en) 1998-10-30

Family

ID=17688602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28521593A Expired - Fee Related JP2817594B2 (en) 1993-11-15 1993-11-15 Headlight device for vehicles

Country Status (1)

Country Link
JP (1) JP2817594B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996018524A1 (en) * 1994-12-15 1996-06-20 Masatoshi Araya Illuminating lamp control apparatus and mobile body provided with illuminating lamp control apparatus
JP2001018738A (en) * 1999-07-07 2001-01-23 Honda Motor Co Ltd Apparatus for monitoring ambient condition of vehicle
JP2001091618A (en) * 1999-09-27 2001-04-06 Mazda Motor Corp Vehicle control device
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
JP2005067404A (en) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd Pedestrian protection device
JP2005067294A (en) * 2003-08-21 2005-03-17 Nissan Motor Co Ltd Headlamp control system
JP2006044359A (en) * 2004-08-02 2006-02-16 Nissan Motor Co Ltd Pedestrian notification device and its method for vehicle
JP2006349492A (en) * 2005-06-15 2006-12-28 Denso Corp On-vehicle fog determination device
JP2008100612A (en) * 2006-10-19 2008-05-01 Toyota Motor Corp Lighting system for vehicle
JP2008114800A (en) * 2006-11-07 2008-05-22 Toyota Motor Corp Lighting system for vehicle
DE102007053138A1 (en) * 2007-11-08 2009-01-29 Adc Automotive Distance Control Systems Gmbh Relevant surrounding object e.g. pedestrian, displaying device for vehicle, has controller connected with sensor system for surrounding detection over uni-directional data exchange device
JP2010257229A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2010143600A1 (en) * 2009-06-08 2010-12-16 国立大学法人名古屋工業大学 Three-dimensional information displaying device
JP2012001079A (en) * 2010-06-16 2012-01-05 Koito Mfg Co Ltd Lighting tool system for vehicle, control device of the same, and lighting tool for vehicle
WO2012060340A1 (en) 2010-11-01 2012-05-10 エイディシーテクノロジー株式会社 Headlight control device
CN102575834A (en) * 2009-10-24 2012-07-11 戴姆勒股份公司 Device for controlling a low beam of a vehicle
EP2381162A3 (en) * 2010-04-23 2012-09-26 Koito Manufacturing Co., Ltd A vehicular illumination lamp
JP2013082253A (en) * 2011-10-06 2013-05-09 Koito Mfg Co Ltd Vehicle spot lamp control device and vehicle spot lamp system
EP2636561A1 (en) 2012-03-06 2013-09-11 Honda Motor Co., Ltd. Light distribution control apparatus
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
JP2016038226A (en) * 2014-08-06 2016-03-22 マツダ株式会社 Vehicle distance measurement device
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704062B2 (en) 2014-08-19 2017-07-11 Hyundai Motor Company Method and apparatus for warning an obstacle of a vehicle

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996018524A1 (en) * 1994-12-15 1996-06-20 Masatoshi Araya Illuminating lamp control apparatus and mobile body provided with illuminating lamp control apparatus
JP2001018738A (en) * 1999-07-07 2001-01-23 Honda Motor Co Ltd Apparatus for monitoring ambient condition of vehicle
JP2001091618A (en) * 1999-09-27 2001-04-06 Mazda Motor Corp Vehicle control device
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
US11203340B2 (en) 2002-05-03 2021-12-21 Magna Electronics Inc. Vehicular vision system using side-viewing camera
US10683008B2 (en) 2002-05-03 2020-06-16 Magna Electronics Inc. Vehicular driving assist system using forward-viewing camera
US10351135B2 (en) 2002-05-03 2019-07-16 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9555803B2 (en) 2002-05-03 2017-01-31 Magna Electronics Inc. Driver assistance system for vehicle
US10118618B2 (en) 2002-05-03 2018-11-06 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9834216B2 (en) 2002-05-03 2017-12-05 Magna Electronics Inc. Vehicular control system using cameras and radar sensor
US9643605B2 (en) 2002-05-03 2017-05-09 Magna Electronics Inc. Vision system for vehicle
JP2005067294A (en) * 2003-08-21 2005-03-17 Nissan Motor Co Ltd Headlamp control system
JP4586342B2 (en) * 2003-08-21 2010-11-24 日産自動車株式会社 Headlamp control system
JP2005067404A (en) * 2003-08-25 2005-03-17 Nissan Motor Co Ltd Pedestrian protection device
US10187615B1 (en) 2004-04-15 2019-01-22 Magna Electronics Inc. Vehicular control system
US9428192B2 (en) 2004-04-15 2016-08-30 Magna Electronics Inc. Vision system for vehicle
US11847836B2 (en) 2004-04-15 2023-12-19 Magna Electronics Inc. Vehicular control system with road curvature determination
US11503253B2 (en) 2004-04-15 2022-11-15 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10735695B2 (en) 2004-04-15 2020-08-04 Magna Electronics Inc. Vehicular control system with traffic lane detection
US10462426B2 (en) 2004-04-15 2019-10-29 Magna Electronics Inc. Vehicular control system
US10306190B1 (en) 2004-04-15 2019-05-28 Magna Electronics Inc. Vehicular control system
US10110860B1 (en) 2004-04-15 2018-10-23 Magna Electronics Inc. Vehicular control system
US10015452B1 (en) 2004-04-15 2018-07-03 Magna Electronics Inc. Vehicular control system
US9948904B2 (en) 2004-04-15 2018-04-17 Magna Electronics Inc. Vision system for vehicle
US9736435B2 (en) 2004-04-15 2017-08-15 Magna Electronics Inc. Vision system for vehicle
US9191634B2 (en) 2004-04-15 2015-11-17 Magna Electronics Inc. Vision system for vehicle
US9609289B2 (en) 2004-04-15 2017-03-28 Magna Electronics Inc. Vision system for vehicle
JP4556533B2 (en) * 2004-08-02 2010-10-06 日産自動車株式会社 Pedestrian notification device for vehicle and pedestrian notification method
JP2006044359A (en) * 2004-08-02 2006-02-16 Nissan Motor Co Ltd Pedestrian notification device and its method for vehicle
JP2006349492A (en) * 2005-06-15 2006-12-28 Denso Corp On-vehicle fog determination device
US10787116B2 (en) 2006-08-11 2020-09-29 Magna Electronics Inc. Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera
US11396257B2 (en) 2006-08-11 2022-07-26 Magna Electronics Inc. Vehicular forward viewing image capture system
US11623559B2 (en) 2006-08-11 2023-04-11 Magna Electronics Inc. Vehicular forward viewing image capture system
US11148583B2 (en) 2006-08-11 2021-10-19 Magna Electronics Inc. Vehicular forward viewing image capture system
US10071676B2 (en) 2006-08-11 2018-09-11 Magna Electronics Inc. Vision system for vehicle
US11951900B2 (en) 2006-08-11 2024-04-09 Magna Electronics Inc. Vehicular forward viewing image capture system
JP2008100612A (en) * 2006-10-19 2008-05-01 Toyota Motor Corp Lighting system for vehicle
JP4730284B2 (en) * 2006-11-07 2011-07-20 トヨタ自動車株式会社 Vehicle lighting device
JP2008114800A (en) * 2006-11-07 2008-05-22 Toyota Motor Corp Lighting system for vehicle
DE102007053138A1 (en) * 2007-11-08 2009-01-29 Adc Automotive Distance Control Systems Gmbh Relevant surrounding object e.g. pedestrian, displaying device for vehicle, has controller connected with sensor system for surrounding detection over uni-directional data exchange device
JP2010257229A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle periphery monitoring device
US8807810B2 (en) 2009-06-08 2014-08-19 National University Corporation Nagoya Institute Of Technology Three-dimensional information presentation device
WO2010143600A1 (en) * 2009-06-08 2010-12-16 国立大学法人名古屋工業大学 Three-dimensional information displaying device
CN102575834A (en) * 2009-10-24 2012-07-11 戴姆勒股份公司 Device for controlling a low beam of a vehicle
US9523473B2 (en) 2009-10-24 2016-12-20 Daimler Ag Device for controlling a low beam of a vehicle
EP2381162A3 (en) * 2010-04-23 2012-09-26 Koito Manufacturing Co., Ltd A vehicular illumination lamp
JP2012001079A (en) * 2010-06-16 2012-01-05 Koito Mfg Co Ltd Lighting tool system for vehicle, control device of the same, and lighting tool for vehicle
WO2012060340A1 (en) 2010-11-01 2012-05-10 エイディシーテクノロジー株式会社 Headlight control device
JP2013082253A (en) * 2011-10-06 2013-05-09 Koito Mfg Co Ltd Vehicle spot lamp control device and vehicle spot lamp system
EP2636561A1 (en) 2012-03-06 2013-09-11 Honda Motor Co., Ltd. Light distribution control apparatus
JP2013184483A (en) * 2012-03-06 2013-09-19 Honda Motor Co Ltd Light distribution control apparatus
US9037343B2 (en) 2012-03-06 2015-05-19 Honda Motor Co., Ltd Light distribution control apparatus and light distribution control method
JP2016038226A (en) * 2014-08-06 2016-03-22 マツダ株式会社 Vehicle distance measurement device

Also Published As

Publication number Publication date
JP2817594B2 (en) 1998-10-30

Similar Documents

Publication Publication Date Title
JP2817594B2 (en) Headlight device for vehicles
JP3546600B2 (en) Light distribution control device for headlamp
JP2783079B2 (en) Light distribution control device for headlamp
JPH06276524A (en) Device for recognizing vehicle running in opposite direction
JP2861754B2 (en) Light distribution control device for headlamp
JPH06267304A (en) Head lamp device for vehicle
JP2853523B2 (en) Headlamp irradiation range control device
JPH0769125A (en) Head lamp for vehicle
JPH06275104A (en) Vehicle headlamp device
JPH06295601A (en) Headlight for vehicle
JP2861744B2 (en) Light distribution control device for headlamp
EP2399777A2 (en) Control device, vehicle headlamp, and vehicle headlamp system
JPH06267303A (en) Head lamp device for vehicle
JPH07101291A (en) Headlamp device for vehicle
JPH06191344A (en) Light distribution controller for headlamp
JPH06274626A (en) Travelling vehicle detecting device
JP2848215B2 (en) Traveling vehicle detection device
JPH06270733A (en) Head lamp device for vehicle
JP4999651B2 (en) Vehicle lamp control system
JP2783134B2 (en) Headlamp irradiation range control device
JP2836449B2 (en) Light distribution control device for headlamp
JP2861767B2 (en) Light distribution control device for headlamp
JP4506703B2 (en) Vehicle headlamp control device
JP2812149B2 (en) Headlight device for vehicles
JP4052081B2 (en) Gaze direction detection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070821

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080821

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080821

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090821

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100821

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees