JP2006036048A - Vehicle light controlling device - Google Patents

Vehicle light controlling device Download PDF

Info

Publication number
JP2006036048A
JP2006036048A JP2004219513A JP2004219513A JP2006036048A JP 2006036048 A JP2006036048 A JP 2006036048A JP 2004219513 A JP2004219513 A JP 2004219513A JP 2004219513 A JP2004219513 A JP 2004219513A JP 2006036048 A JP2006036048 A JP 2006036048A
Authority
JP
Japan
Prior art keywords
vehicle
point
vehicle light
traveling direction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004219513A
Other languages
Japanese (ja)
Inventor
Jun Amano
準 天野
Kazuya Watanabe
一矢 渡邊
Hideyuki Aikyo
秀幸 相京
Moritaka Miwa
守孝 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2004219513A priority Critical patent/JP2006036048A/en
Publication of JP2006036048A publication Critical patent/JP2006036048A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle light controlling device capable of lighting up vehicle lights properly according to the surrounding situation of the vehicle depending upon its running condition without providing a mechanism to move the optical axis of a camera. <P>SOLUTION: The vehicle light controlling device 1 is equipped with a controller 2 to perform automatic lighting of the vehicle lights 7, wherein the controller 2 controls the lighting-up of the lights 7 on the basis of the image in the vehicle advancing direction photographed by the camera 3. The controller 2 determines one point on the image from the characteristic point thereon, shifts the monitoring region with that point determined assumed as the vehicle advancing direction, and thereby controls the lighting-up of the lights 7 on the basis of the brightness in the monitoring region. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両走行中に周囲が暗くなった場合、自動的に車両ライト(例えば、ヘッドランプ、スモールライト等)を点灯させる車両ライト制御装置に関するものであり、特に、カメラにより進行方向における映像を撮影して、撮影された映像に基づいて、車両ライトの点灯を制御する車両ライト制御装置に係る。   The present invention relates to a vehicle light control device that automatically turns on a vehicle light (for example, a headlamp, a small light, etc.) when the surroundings become dark while the vehicle is running. The present invention relates to a vehicle light control device that controls lighting of a vehicle light based on the captured video.

従来、車両ライト制御装置は、車両にオートライトスイッチが設けられ、オートライトスイッチをオン状態にしておくと、車両が走行中にトンネル等の暗部に入った場合には自動的に車両ライトが点灯し、トンネルを抜けると自動的に車両ライトが消灯するシステムが、車両分野においてはコンライトシステムとして、知られている。   Conventionally, a vehicle light control device is provided with an auto light switch, and if the auto light switch is turned on, the vehicle light automatically turns on when the vehicle enters a dark part such as a tunnel while driving. However, a system in which vehicle lights are automatically turned off when exiting a tunnel is known as a conlight system in the vehicle field.

この様な装置は、車両に照度を検出する照度計と車両の進行方向を撮像するためにカメラを備え、前方視界画像の画像データに占める暗部の割合を算出して、この割合が予め決められた第1の暗部閾値を超えた場合に照度計の測定値に基づく点灯制御に優先して、車両ライトを自動的に点灯する(例えば、特許文献1)。
特開2001−39210号公報(第1頁)
Such a device is equipped with a illuminometer for detecting illuminance on the vehicle and a camera for imaging the traveling direction of the vehicle, and calculates the proportion of the dark part in the image data of the front view image, and this proportion is determined in advance. When the first dark part threshold is exceeded, the vehicle light is automatically turned on in preference to the lighting control based on the measurement value of the illuminometer (for example, Patent Document 1).
JP 2001-39210 A (first page)

上記した特許文献1に示される装置では、進行方向にトンネルのような暗所があった場合には、暗所に入る十分手前で車両ライトは自動的に点灯することは可能である。   In the device disclosed in Patent Document 1 described above, when there is a dark place such as a tunnel in the traveling direction, the vehicle light can be automatically turned on sufficiently before entering the dark place.

しかしながら、特許文献1に示される装置では、暗部検出範囲は、画像中心とした枠の大きさが車両の速度によって変化すると共に、カーブを走行する際にはステアリングの操舵角に応じてカメラの光軸が左右に動く構成となっている。このため、上記装置では、カメラの光軸を変化させる機構が必要となる。   However, in the apparatus shown in Patent Document 1, the dark portion detection range is such that the size of the frame centered on the image changes depending on the speed of the vehicle, and when traveling on a curve, the light of the camera is changed according to the steering angle of the steering. The shaft moves left and right. For this reason, the above apparatus requires a mechanism for changing the optical axis of the camera.

よって、本発明は上記の問題点に鑑みてなされたものであり、カメラの光軸を移動させる機構を設けることなく、車両の走行状態に応じて車両の周囲の状況により適切に車両ライトの点灯が行える装置とすることを課題とする。   Therefore, the present invention has been made in view of the above problems, and the lighting of the vehicle light is appropriately performed according to the situation of the vehicle according to the traveling state of the vehicle without providing a mechanism for moving the optical axis of the camera. It is an object of the present invention to provide a device that can perform the above.

上記した課題を解決するために講じた手段は、車両ライトの自動点灯を行う制御手段を備え、該制御手段は、撮像手段により撮影された車両の進行方向の映像に基づいて、前記車両ライトの点灯を制御する車両ライト制御装置において、
前記映像から前記撮像手段の撮像素子に結像する特徴点を求める特徴点抽出手段と、前記特徴点より映像上または画像上において車両の進行方向を示す第1点を求める進行方向抽出手段とを備え、前記制御手段は第1点に基づく情報より監視領域を変化させ、該監視領域における輝度に基づき前記車両ライトの点灯を行う構成としたことである。
Means taken in order to solve the above-mentioned problem includes a control means for automatically turning on the vehicle light, and the control means is based on an image of the traveling direction of the vehicle photographed by the imaging means. In the vehicle light control device that controls lighting,
Feature point extracting means for obtaining a feature point imaged on the image sensor of the imaging means from the video, and a traveling direction extracting means for obtaining a first point indicating the traveling direction of the vehicle on the video or image from the feature point. The control means is configured to change the monitoring area based on the information based on the first point, and to turn on the vehicle light based on the luminance in the monitoring area.

この場合、特徴点から進行方向の車両の存在を検出する車両検出手段を備え、進行方向の車両の有無により監視領域を変化させると良い。   In this case, vehicle detection means for detecting the presence of the vehicle in the traveling direction from the feature points may be provided, and the monitoring area may be changed depending on the presence or absence of the vehicle in the traveling direction.

また、進行方向に車両が存在する場合、車両の後方に位置する路面上に監視領域を移動し、映像上における監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は、走行速度に基づいて車両ライトを点灯すると良い。   Further, when a vehicle is present in the traveling direction, the monitoring area is moved on the road surface located behind the vehicle, and the number of pixels whose luminance value in the monitoring area on the image is equal to or less than a predetermined threshold is equal to or more than the predetermined pixel. The control means may turn on the vehicle light based on the traveling speed.

進行方向に車両が存在しない場合、第一点の周囲に監視領域を移動し、監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は、走行速度に基づいて車両ライトを点灯すると良い。   When there is no vehicle in the traveling direction, the control means moves the monitoring area around the first point, and when the number of pixels whose luminance value in the monitoring area is equal to or less than a predetermined threshold is equal to or greater than a predetermined pixel, The vehicle light should be turned on based on.

また、車両の操舵角を検出する操舵検出手段を備え、操舵角に基づき前記第一点からの監視領域を変化させると良い。   Further, it is preferable to provide a steering detection means for detecting the steering angle of the vehicle, and to change the monitoring area from the first point based on the steering angle.

更に、車両の走行速度を検出する速度検出手段と、車両の進行方向に存在するトンネルまたは暗所を検出するトンネル・暗所検出手段とを備え、制御手段はトンネルまたは暗所を検出した場合、走行速度に基づいて車両ライトを点灯すると良い。   Furthermore, it comprises a speed detection means for detecting the traveling speed of the vehicle and a tunnel / dark place detection means for detecting a tunnel or dark place existing in the traveling direction of the vehicle, and the control means detects the tunnel or dark place, The vehicle light should be turned on based on the running speed.

第1の発明によれば、映像から撮像手段の撮像素子に結像する特徴点を求め、この特徴点より映像上または画像上において車両の進行方向を示す第1点(例えば、特徴点を路面とした場合、路面の延長線が一点で交差する点(消失点)エピポール、オプティカルフローによる一点等)を求めることができる。そして、制御手段は特徴点から求めた第1点に基づく情報より車両の進行方向がわかり、ライト点灯の判断を行う監視領域を変化させて、監視領域における輝度に基づき車両ライトの点灯を行うことができる。これは、撮像手段で捕らえた画像の特徴点から、車両が進むべき方向がわかるので、カメラの光軸を変化させる機構は必要なく、進行方向に応じて監視領域を変化させ、車両の走行状態に応じて適切なタイミングにて車両ライトの点灯を行うことができる。これは、撮像手段によって、車両の進行方向の映像をとらえ、進行方向において監視領域の画素の輝度値を比較することにより、ライト点灯が可能である。   According to the first invention, a feature point imaged on the image sensor of the imaging means is obtained from the video, and a first point (for example, the feature point on the road surface) indicating the traveling direction of the vehicle on the video or the image from the feature point In this case, a point (disappearance point) where the extension line of the road surface intersects at one point (a vanishing point), a point due to an optical flow, etc.) can be obtained. Then, the control means knows the traveling direction of the vehicle from the information based on the first point obtained from the feature points, changes the monitoring area where the lighting is determined, and lights the vehicle light based on the luminance in the monitoring area Can do. This is because the direction in which the vehicle should travel is known from the feature points of the image captured by the imaging means, so there is no need for a mechanism to change the optical axis of the camera, the monitoring area is changed according to the traveling direction, and the vehicle running state Accordingly, the vehicle light can be turned on at an appropriate timing. The light can be turned on by capturing an image of the traveling direction of the vehicle by the imaging means and comparing the luminance values of the pixels in the monitoring area in the traveling direction.

第2の発明によれば、路面または車両に対するカメラの設置位置、及び走行中の映像情報から、車両の進行方向を示す一点を求めることができる。これは、車両の進行方向において遠方に存在する暗所に対してのライト制御が可能となる。   According to the second aspect of the invention, it is possible to obtain one point indicating the traveling direction of the vehicle from the road surface or the installation position of the camera with respect to the vehicle and the video information during traveling. This enables light control to a dark place that exists far away in the traveling direction of the vehicle.

第3の発明によれば、特徴点から進行方向の車両の存在を検出する車両検出手段を備え、進行方向の車両の有無により監視領域を変化させて、進行方向に車両が存在する場合には、先行車両の後方に位置する路面上で、且つ自車の前方に位置する路面上の領域を監視領域とすることによりライト制御が行える。一方、先行車両の存在がない場合には、遠方の領域を監視領域とすることにより、車両周囲の情報に応じた適切なライト制御が可能となる。   According to the third invention, the vehicle detection means for detecting the presence of the vehicle in the traveling direction from the feature point is provided, and when the vehicle is present in the traveling direction by changing the monitoring area depending on the presence or absence of the vehicle in the traveling direction. The light control can be performed by setting a region on the road surface located behind the preceding vehicle and on the road surface ahead of the host vehicle as the monitoring region. On the other hand, when there is no preceding vehicle, it is possible to perform appropriate light control according to information around the vehicle by setting the distant region as the monitoring region.

第4の発明によれば、進行方向に車両が存在する場合には、先行車両の後方に監視領域を移動し、この監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は走行速度に基づいて車両ライトを点灯すると、先行車両がいる場合でも監視領域での輝度値を基にしたライト制御が行える。   According to the fourth invention, when a vehicle exists in the traveling direction, the monitoring area is moved behind the preceding vehicle, and the number of pixels whose luminance value in the monitoring area is equal to or less than a predetermined threshold is equal to or more than the predetermined pixel. In this case, when the control means turns on the vehicle light based on the traveling speed, the light control based on the luminance value in the monitoring area can be performed even when there is a preceding vehicle.

第5の発明によれば、進行方向に車両が存在しない場合には、第一点の周囲に監視領域を移動する。そして、第一点の監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、制御手段は走行速度に基づいて車両ライトを点灯すると、先行車両がいない場合での輝度値を基にしたライト制御が行える。   According to the fifth aspect, when there is no vehicle in the traveling direction, the monitoring area is moved around the first point. When the number of pixels whose luminance value in the monitoring area of the first point is equal to or smaller than a predetermined threshold is equal to or larger than the predetermined pixel, the control means turns on the vehicle light based on the traveling speed, and the luminance when there is no preceding vehicle Write control based on the value.

第6の発明によれば、車両の操舵角を検出する操舵検出手段を備え、操舵角に基づき前記第一点の位置を変化させることによって監視領域を変化させると、操舵角に応じて監視領域が変化するので、車両の走行状態に応じたライト制御が行える。   According to the sixth aspect of the present invention, when the monitoring area is changed by changing the position of the first point based on the steering angle, the monitoring area is detected according to the steering angle. Therefore, the light control according to the traveling state of the vehicle can be performed.

第7の発明によれば、車両の進行方向に存在するトンネルまたは暗所を検出し、車両の速度を基にして車両の進行方向にあるトンネルまでの距離に応じて、車両ライトの点灯タイミングを適切に制御することが可能となる。   According to the seventh aspect of the invention, a tunnel or dark place existing in the traveling direction of the vehicle is detected, and the lighting timing of the vehicle light is determined according to the distance to the tunnel in the traveling direction of the vehicle based on the speed of the vehicle. It becomes possible to control appropriately.

以下、本発明の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、車両ライト制御装置1のシステム構成を示すブロック図である。車両ライト制御装置1は、ドライバー席に設けられたオートライトスイッチ(オートライトSW)6がオンの状態の場合、自動的に車両ライト7を点灯/消灯させるものである。本実施形態において車両ライトとは、車両の前方を照らすヘッドランプおよび車両後方に設けられたテールランプ,スモールライト,ナンバープレートランプの点灯による光を示し、どのライトを点灯させるかは、周囲状況に従う。例えば、自車の周囲が明るい場合には、テールランプおよびヘッドランプを消灯するが、一瞬だけ暗くなった場合或いは薄暗い場合にはテールランプのみ点灯する。また、周囲が暗い場合や一瞬暗くなった場合には、テールランプおよびヘッドランプを共に点灯する。オートライトSW6がオフ状態の場合には、手動のライトスイッチ(例えば、ヘッドライトスイッチ、スモールライトスイッチ)のオン/オフ操作による点灯/消灯に従う。   FIG. 1 is a block diagram showing a system configuration of the vehicle light control device 1. The vehicle light control device 1 automatically turns on / off the vehicle light 7 when an auto light switch (auto light SW) 6 provided in the driver's seat is on. In the present embodiment, the vehicle light indicates a headlamp that illuminates the front of the vehicle and light generated by the tail lamp, the small light, and the license plate lamp provided at the rear of the vehicle. For example, when the surroundings of the host vehicle are bright, the tail lamp and the head lamp are turned off. However, when it becomes dark for a moment or when it is dim, only the tail lamp is turned on. When the surroundings are dark or when it becomes dark for a moment, both the tail lamp and the head lamp are turned on. When the auto light SW 6 is in an off state, the light is turned on / off by an on / off operation of a manual light switch (for example, a headlight switch, a small light switch).

車両ライト制御装置1は、ライト制御のプログラムを記憶するROM、プログラムの実行に必要な情報を一時的に記憶するRAM、プログラムを実行するCPUを備えたコントローラ2を備えると共に、カメラ3および各種センサ類および車両ライト7を備えている。コントローラ2にはカメラ3からの映像信号が入力されていると共に、車両の走行状態を検出する車速センサ4および操舵角センサ5からの信号が入力されている。このコントローラ2により、オートライトSW6がオン状態の場合に、走行状態に応じてライト制御が行える。   The vehicle light control device 1 includes a ROM 2 for storing a light control program, a RAM for temporarily storing information necessary for executing the program, a controller 2 having a CPU for executing the program, a camera 3 and various sensors. And vehicle lights 7 are provided. A video signal from the camera 3 is input to the controller 2, and signals from a vehicle speed sensor 4 and a steering angle sensor 5 that detect the traveling state of the vehicle are input. With this controller 2, when the auto light SW6 is in an on state, light control can be performed according to the running state.

カメラ3は内部に像を結像させるCCDの撮像素子(例えば、640×480から成る画素)を備える。カメラ3は車両前方のフロントグリル或いは後方を確認できるリヤビューミラー等に一体で取り付けられている。カメラ3の光軸は車両前方を向いており、車両の進行方向において数m先(100m程度)まで自車の周辺状況を撮影することができる。車速センサ4は、車速に応じてコントローラ2に対してパルス信号(車速信号)を出力するものであり、コントローラ2に入力されるパルス信号の時間間隔により、自車の車速を検出することができる。   The camera 3 includes a CCD image sensor (for example, a pixel composed of 640 × 480) that forms an image inside. The camera 3 is integrally attached to a front grille in front of the vehicle or a rear view mirror that can confirm the rear. The optical axis of the camera 3 faces the front of the vehicle, and the surrounding situation of the host vehicle can be photographed up to several meters ahead (about 100 m) in the traveling direction of the vehicle. The vehicle speed sensor 4 outputs a pulse signal (vehicle speed signal) to the controller 2 in accordance with the vehicle speed, and can detect the vehicle speed of the host vehicle based on the time interval of the pulse signal input to the controller 2. .

また、操舵角センサ5はステアリングコラム軸上に位相の異なる2つのホール素子が設けられ、ステアリングホイールの転舵に応じてステアリングシャフトが回転するときにパルス信号(操舵角信号)が発せられる。操舵角センサ5からのパルス信号は、コントローラ2により2つのパルス信号の立ち上りエッジ/立ち下りエッジのパターンおよびエッジ間の時間間隔によって操舵角θを検出することができる。つまり、ドライバーによるステアリングホイールの操作を操舵角センサ5により検出し、図2に示す様に、車体に対して左右どちらの方向にタイヤが転舵されているのかを検出することが可能である。   Further, the steering angle sensor 5 is provided with two hall elements having different phases on the steering column shaft, and a pulse signal (steering angle signal) is generated when the steering shaft rotates in response to the steering wheel turning. From the pulse signal from the steering angle sensor 5, the controller 2 can detect the steering angle θ based on the rising edge / falling edge pattern of the two pulse signals and the time interval between the edges. That is, the steering wheel sensor operation by the driver can be detected by the steering angle sensor 5, and as shown in FIG. 2, it can be detected in which direction the tire is steered with respect to the vehicle body.

次に、カメラ3により撮影した映像に基づくライト制御について、以下に説明する。   Next, the light control based on the video imaged by the camera 3 will be described below.

(実施形態1):路上の消失点に基づくライト制御
(1)自車の前方に他車が存在しない場合、カメラ画像上で路面上の消失点Pvを求める。消失点Pvとは、次の様に定義される。即ち、平行な複数の直線の投影像がカメラ画像上で一つの点で交わるが、この場合において直線上で無限に遠い所にある点(無限遠点)の投影像が消失点Pvとなる。消失点Pvは、カメラ3の内部パラメータ、外部パラメータ(路面に対するカメラ取り付け位置とカメラ角度)から公知の方法により求めることができ、ここではその求め方について詳細な説明は省略する。
消失点Pvが求められると、自車の進むべく進行方向を決定する。即ち、操舵角θ(図2に示す反時計回りを正)を操舵角センサ5によって検知する。車両走行中にタイヤが転舵されると、カメラ画像上では路面上に対する消失点Pvの位置が水平方向にuaだけ移動する。この場合、ua=k・x, x=f・tanθ,kは単位長さ当たりの画素数、fは焦点距離とする(図3参照)。次に、カメラ3内部に設けられるレンズ12に対し、レンズ中心の路面上での直下点P(Xc,Yc,Zc)を求めると共に、撮像素子11を含む平面上において、直下点Pの投影点Piを求める。ここでの(X,Y,Z)座標は、カメラのレンズ中心を原点とするカメラ座標で、光軸をZ軸、水平方向をX軸とする右手系である。既に求めた消失点Pvと投影点Piを結ぶ画像上の直線を、図5の如く決定し、この直線を画像上における自車の進行方向(前進方向)と定義する。
(Embodiment 1): Light control based on vanishing point on road (1) When no other vehicle exists in front of the host vehicle, vanishing point Pv on the road surface is obtained on the camera image. The vanishing point Pv is defined as follows. That is, a plurality of parallel projected images of a straight line intersect at one point on the camera image. In this case, a projected image of a point at an infinite distance on the straight line (infinity point) becomes a vanishing point Pv. The vanishing point Pv can be determined by a known method from the internal parameters and external parameters of the camera 3 (camera attachment position and camera angle with respect to the road surface), and detailed description of the determination method is omitted here.
When the vanishing point Pv is obtained, the traveling direction is determined in order for the host vehicle to travel. That is, the steering angle θ (the counterclockwise direction shown in FIG. 2 is positive) is detected by the steering angle sensor 5. When the tire is steered while the vehicle is running, the position of the vanishing point Pv on the road surface moves in the horizontal direction by ua on the camera image. In this case, ua = k · x, x = f · tan θ, k is the number of pixels per unit length, and f is the focal length (see FIG. 3). Next, a direct point P (Xc, Yc, Zc) on the road surface at the center of the lens 12 is obtained for the lens 12 provided inside the camera 3, and the projected point of the direct point P on the plane including the image sensor 11 is obtained. Find Pi. The (X, Y, Z) coordinates here are camera coordinates with the camera lens center as the origin, and are a right-handed system with the optical axis as the Z axis and the horizontal direction as the X axis. A straight line on the image connecting the vanished point Pv and the projected point Pi already determined is determined as shown in FIG. 5, and this straight line is defined as the traveling direction (forward direction) of the vehicle on the image.

消失点Pvが公知の方法により求まると、消失点Pvの周辺に監視領域(大きさは任意とするが、例えば、160×120画素の領域、或いは、80×60画素の領域)10を設け、監視領域10の輝度値に基づいて、車両ライト7に対してのライト制御が行われる。即ち、消失点Pvの周辺に設けられた監視領域10での輝度値の小さい画素が所定画素以上あれば、車両ライト7を点灯(オン)する。この場合、車両ライト7を点灯させるための所定画素の閾値(画素数)は、これに限定されるものではないが、例えば、車両が直進状態を仮定して、車両の進行方向(例えば、30m程)先にトンネル8が存在する場合のトンネル8の大きさに相当する画素数に基づき設定することができる。そして、このライト制御では、進行方向にトンネル8が存在する場合に車両ライト7の点灯タイミングは、自車がトンネルに入るまでの時間を自車の走行速度に基づいてコントローラ2により予測し、トンネル8を検出した後、予測時間になった場合に、車両ライト7を点灯する制御を行えば、点灯タイミングの遅れを防止することができる。   When the vanishing point Pv is obtained by a known method, a monitoring area (size is arbitrary, for example, an area of 160 × 120 pixels or an area of 80 × 60 pixels) 10 is provided around the vanishing point Pv. Based on the luminance value of the monitoring area 10, the light control for the vehicle light 7 is performed. That is, the vehicle light 7 is turned on (on) if a pixel having a small luminance value in the monitoring area 10 provided around the vanishing point Pv is equal to or more than a predetermined pixel. In this case, the threshold value (number of pixels) of the predetermined pixel for turning on the vehicle light 7 is not limited to this. For example, assuming that the vehicle is traveling straight, the vehicle traveling direction (for example, 30 m) It can be set based on the number of pixels corresponding to the size of the tunnel 8 when the tunnel 8 exists first. In this light control, when the tunnel 8 exists in the traveling direction, the lighting timing of the vehicle light 7 is predicted by the controller 2 based on the traveling speed of the own vehicle, based on the traveling speed of the own vehicle. If control is performed to turn on the vehicle light 7 when the estimated time comes after detecting 8, the delay in lighting timing can be prevented.

車両ライト7をオンの点灯状態からライトをオフして消灯状態へ切り替えるための条件は、オン条件を満足しない状態が所定時間継続且つ監視領域10での路面を除く画像部分の画素における輝度値が所定輝度以上(周囲の状況が明るい状況)が一定時間継続すれば、車両ライト7を消灯するようにする。   The condition for switching the vehicle light 7 from the on state to the off state by turning off the light is that the on condition does not satisfy the on condition continues for a predetermined time and the luminance value in the pixel of the image portion excluding the road surface in the monitoring area 10 is The vehicle light 7 is turned off when a predetermined luminance or more (a situation where the surrounding situation is bright) continues for a certain period of time.

ドライバーが走行中にステアリングホイールを転舵した場合には、次の様になる。   When the driver steers the steering wheel while driving, the following occurs.

操舵角センサ5に基づく操舵角が、図2に示す如くタイヤが直進状態に比べてθだけ転舵された場合には、上記した様に、図4に示す如く、カメラ内部に設けられるレンズ12のレンズ中心直下点Pは、撮像素子上では投影点Piに結像する。この投影点Piからθだけ操舵を行うと、消失点Pvの位置が図5に示す様にuaだけ移動することになるので、この移動量に応じてカメラ3の監視領域10を移動させて、車両ライト7の点灯/消灯の制御を行う。
(2)自車の前方に他車が存在する場合
画像上で進行方向における前方他車(例えば、図5に楕円形状の破線で示す)の存在を画像処理にて検出した場合には、前方他車の後方(自車側)に監視領域を図5に示す矢印の如く移動させ、監視領域内での前方他車の後方の路面を抽出して、後方路面の輝度値を求める。そして、その路面の輝度値が所定輝度値以下の画素(暗い部分)が所定数以上あれば、車両ライト7を点灯する。この場合、周囲の明るさを検出する監視領域10の位置は、消失点Pvの周辺から先行他車の後方に監視領域10を移動させるが、自車の前方から前方他車がいなくなると、監視領域10を再度消失点Pvの位置に移動するようにしている。
When the steering angle based on the steering angle sensor 5 is steered by θ as shown in FIG. 2 as compared with the straight traveling state, as described above, as shown in FIG. 4, the lens 12 provided in the camera is provided. The point P directly below the center of the lens forms an image at the projection point Pi on the image sensor. When steering from the projection point Pi by θ, the position of the vanishing point Pv moves by ua as shown in FIG. 5, so that the monitoring area 10 of the camera 3 is moved according to the amount of movement, Control of turning on / off the vehicle light 7 is performed.
(2) When another vehicle is present in front of the host vehicle When the presence of another vehicle ahead (indicated by an elliptical broken line in FIG. 5) in the traveling direction on the image is detected by image processing, The monitoring area is moved behind the other vehicle (on the vehicle side) as shown by the arrow in FIG. 5, the road surface behind the other vehicle in the monitoring area is extracted, and the luminance value of the rear road surface is obtained. And if the brightness value of the road surface is below a predetermined brightness value and there are a predetermined number or more of pixels (dark portions), the vehicle light 7 is turned on. In this case, the position of the monitoring area 10 for detecting the surrounding brightness moves the monitoring area 10 from the vicinity of the vanishing point Pv to the rear of the preceding other vehicle. The region 10 is moved again to the position of the vanishing point Pv.

次に、消失点Pvに基づくライト制御について、図6のフローチャートを参照して、具体的に説明する。尚、以下に示すフローチャートでは、図面上の冒頭の数字(ステップ:「S」の番号を示す)に従って、プログラムの各ステップの詳細を説明する。   Next, the write control based on the vanishing point Pv will be specifically described with reference to the flowchart of FIG. In the flowchart shown below, the details of each step of the program will be described according to the numbers at the beginning of the drawing (indicating the step number “S”).

図6に示す処理では、最初に、S1にて操舵角センサ5により出力される信号に基づき操舵角θを検知し、操舵角θに基づく消失点Pvの移動により、画像上での前進方向を求め、自車の進む方向を決定する。その後のS2の処理では、自車の前方に他車が存在するか否かを判断する。ここで他車が進行方向である前方に存在するか否かの判断は、図7に示すフローチャートによって成される。   In the process shown in FIG. 6, first, the steering angle θ is detected based on the signal output from the steering angle sensor 5 in S1, and the forward direction on the image is determined by the movement of the vanishing point Pv based on the steering angle θ. Determine the direction in which the vehicle will travel. In the subsequent process of S2, it is determined whether or not there is another vehicle ahead of the host vehicle. Here, the determination as to whether or not the other vehicle is ahead in the traveling direction is made according to the flowchart shown in FIG.

図7では、カメラ3により時刻t,(t+Δt),(t+2Δt)における3つのカメラ画像を得て、その得られたカメラ画像を所定のメモリ(例えば、RAM)に記憶する。そして、記憶された時刻tにおける画像から公知の方法により、点Pvを求め、消失点Pvを含む消失点Pvの周辺での特徴点m(u,v)を求める。ここで、u:カメラ画像における行の画素、v:カメラ画像における列の画素を2次元的に示す。この場合、特徴点m(u,v)は複数個求めることが可能である。   In FIG. 7, three camera images at time t, (t + Δt), and (t + 2Δt) are obtained by the camera 3, and the obtained camera images are stored in a predetermined memory (for example, RAM). Then, a point Pv is obtained from the stored image at time t by a known method, and a feature point m (u, v) around the vanishing point Pv including the vanishing point Pv is obtained. Here, u: a row pixel in the camera image and v: a column pixel in the camera image are two-dimensionally shown. In this case, a plurality of feature points m (u, v) can be obtained.

その後、時刻t+Δtの画像上のエピポーラ線を求める。このエピポーラ線は次の様に求めることができる。即ち、m(u,v):時刻tにおけるカメラ画像上での特徴点の位置、m’(u’,v’):時刻(t+Δt)におけるカメラ画像上での特徴点m(u,v)の対応点の位置とすると、次式が成立する。

Figure 2006036048
Thereafter, an epipolar line on the image at time t + Δt is obtained. This epipolar line can be obtained as follows. That is, m (u, v): the position of the feature point on the camera image at time t, m ′ (u ′, v ′): the feature point on the camera image at time (t + Δt) m (u, v) If the position of the corresponding point is, the following equation is established.
Figure 2006036048

とすると、エピポーラ方程式は次式で示される。

Figure 2006036048
Then, the epipolar equation is expressed by the following equation.
Figure 2006036048

また、A:カメラの内部パラメータ、f:焦点距離、ku:u軸方向の単位長さ当たりの画素数、kv:v軸方向の単位長さ当たりの画素数、(u,v):画像中心、T:Δt間のカメラの並進移動量、[T]×R:TとRの外積、θx:水平方向とカメラ光軸方向との角度、V:車速とすると、次式が成立する。

Figure 2006036048
A: camera internal parameters, f: focal length, ku: number of pixels per unit length in the u-axis direction, kv: number of pixels per unit length in the v-axis direction, (u 0 , v 0 ): Assuming that the center of the image, the translation amount of the camera between T: Δt, [T] × R: the outer product of T and R, θx: the angle between the horizontal direction and the camera optical axis direction, and V: the vehicle speed, the following equation is established. .
Figure 2006036048

Fの行列成分は既知となり、[数4]を定義し、これを[数2]のエピポーラ方程式に代入すると、時刻(t+Δt)の画像上においてエピポーラ線[数5]を算出することができる。

Figure 2006036048
Figure 2006036048
The matrix component of F is known, and when [Equation 4] is defined and substituted into the epipolar equation of [Equation 2], the epipolar line [Equation 5] can be calculated on the image at time (t + Δt).
Figure 2006036048
Figure 2006036048

上記した方法によりエピポーラ線を算出すると、図7に戻り、エピポーラ線上で図8に示す特徴点m(u,v)の対応点を、公知のパターンマッチングにより算出して求める。パターンマッチングにより得られた対応点をm’(u’,v’)とする。対応点が求まると、特徴点m(u,v)とその対応点m’(u’,v’)から実空間上の3次元データを公知の方法を用いて、(x,y,z)を算出する。ここでの(x,y,z)座標は、カメラのレンズ中心を原点とするカメラ座標で、光軸をZ軸、水平方向をX軸とする右手系である。   When the epipolar line is calculated by the above method, returning to FIG. 7, the corresponding point of the feature point m (u, v) shown in FIG. 8 on the epipolar line is calculated and obtained by known pattern matching. The corresponding point obtained by pattern matching is m ′ (u ′, v ′). When the corresponding points are obtained, three-dimensional data in real space is obtained from the feature points m (u, v) and the corresponding points m ′ (u ′, v ′) by using a known method (x, y, z). Is calculated. The (x, y, z) coordinates here are camera coordinates with the lens center of the camera as the origin, and are a right-handed system with the optical axis as the Z axis and the horizontal direction as the X axis.

ここで、実空間上の3次元データの算出方法を述べると、P:時刻tのカメラ行列、P’:時刻(t+Δt)のカメラ行列、A:カメラの内部パラメータ(既知)、θx:水平方向とカメラ光軸方向との角度、V:車速とすると、以下に示す行列により求めることができる。

Figure 2006036048
Figure 2006036048
Figure 2006036048
Here, the calculation method of the three-dimensional data in the real space is described. P: camera matrix at time t, P ′: camera matrix at time (t + Δt), A: internal parameters of camera (known), θx: horizontal direction And the angle between the camera optical axis direction and V: vehicle speed, the following matrix can be used.
Figure 2006036048
Figure 2006036048
Figure 2006036048

この場合、X,M+を以下のようにおくと、[数9]に示す関係式により3次元データを導出することができる。

Figure 2006036048
In this case, if X and M + are set as follows, three-dimensional data can be derived from the relational expression shown in [Equation 9].
Figure 2006036048

この様な処理が繰り返され、全ての特徴点m(u,v)に対して成される。時刻t+Δtの画像上で求めた対応点を、時刻t+Δtでの特徴点m’(u’,v’)とする。   Such a process is repeated and performed for all feature points m (u, v). The corresponding point obtained on the image at time t + Δt is set as a feature point m ′ (u ′, v ′) at time t + Δt.

上記と同様な方法により、図9に示す如く、今度は時刻t+2Δtの画像上のエピポーラ線上で特徴点m’(u’,v’)の対応点を公知のパターンマッチングにより算出して求め、パターンマッチングにより得られた対応点をm’’(u’’,v’’)とする。対応点が求まると、特徴点m’(u’,v’)とその対応点m’’(u’’,v’’)から実空間上の3次元データを公知の方法を用いて、(x’,y’,z’)を算出する。この様な処理が繰り返され、全ての特徴点m’(u’,v’)に対して成される。   By the same method as described above, as shown in FIG. 9, this time, the corresponding point of the feature point m ′ (u ′, v ′) on the epipolar line on the image at time t + 2Δt is calculated and obtained by known pattern matching. The corresponding point obtained by matching is m ″ (u ″, v ″). Once the corresponding points are obtained, the three-dimensional data in the real space is obtained from the feature points m ′ (u ′, v ′) and the corresponding points m ″ (u ″, v ″) using a known method ( x ′, y ′, z ′) is calculated. Such a process is repeated and performed for all feature points m ′ (u ′, v ′).

時刻tと時刻(t+Δt)間で得られた3次元データ(x,y,z)、時刻(t+Δt)と時刻(t+2Δt)間で得られた3次元データ(x’,y’,z’)が求まる。この2つの3次元データが求まると、z−z’=(VΔt)cosθxが成立する場合には、時間が経過しても特徴点が動いていない静止点と判断し、D(u,v)=0(静止状態)とする。一方、y−y’=(VΔt)cosθxが成立しない場合には、特徴点が時間の経過とともに移動した移動点と判断し、D(u,v)=1(移動状態)とする。その後、画像上における自車の進行する前進方向に移動点D(u,v)=1が所定個数存在するか(ND≧閾値NDth)が判断され、この条件が成立すれば前方他車が存在すると判断し、前方他車を示すCAフラグをセット(=1)するが、条件が成立しなければ、CAフラグをクリア(=0)することにより、3画面よりエピポーラ線から対応する特徴点を求め、前方他車を検出するようにしている。   Three-dimensional data (x, y, z) obtained between time t and time (t + Δt), three-dimensional data (x ′, y ′, z ′) obtained between time (t + Δt) and time (t + 2Δt) Is obtained. When these two three-dimensional data are obtained, if zz ′ = (VΔt) cos θx is established, it is determined that the feature point does not move over time, and D (u, v) = 0 (stationary state). On the other hand, if y−y ′ = (VΔt) cos θx does not hold, it is determined that the feature point has moved with time, and D (u, v) = 1 (moving state). Thereafter, it is determined whether or not there is a predetermined number of moving points D (u, v) = 1 in the forward direction in which the vehicle travels on the image (ND ≧ threshold NDth), and if this condition is satisfied, there is another vehicle ahead. Then, the CA flag indicating the other vehicle ahead is set (= 1), but if the condition is not satisfied, the CA flag is cleared (= 0), and the corresponding feature point from the epipolar line is displayed from the third screen. The other vehicle ahead is detected.

この様にして前方他車の認識が成されると、図6に戻り、S2で前方他車が存在する場合(CA=1)には、S3にて前方車の後方に所定の監視領域10を設けその領域内での輝度値を求める。そして、輝度値f(i,j)が所定閾値fth(暗い状態レベル)以下の画素の個数を調べ、f(i,j)≦fthの画素Nが所定個数Nth以上存在するかが判断される。この処理で、上記条件を満足する場合には、S4にて車両ライト7を点灯するが、上記条件を満足しない場合には、S5にて車両ライト7の状態が、現在、消灯状態(オフ)になっているか否かが判断される。ここで、消灯状態となっている場合には、S1の処理に再度戻るが、S5にて消灯状態となっていない場合には、S6に進む。S6では、画像認識により路面と路面以外の領域を区別して、今度は路面以外の画像部分における輝度値の平均を算出する。そして、この輝度平均値が所定の閾値と比較され、路面以外の画像部分の輝度平均値が前方他車ありで、ライト点灯を判断する所定閾値以下(fm(i,j)≦fmth)の場合には、S1の処理に再度戻る。しかし、これが成立しない場合には、S7にて所定時間この状態が継続したか(t≧tc1)が判断される。S7にてこの条件が所定時間継続しない場合には、S1の処理に再度戻るが、所定時間継続した場合には路面以外の周囲が明るいものと判断して、S8にてライト点灯をオフし消灯した後、S1からの処理を繰り返す。   When the other front vehicle is recognized in this manner, the process returns to FIG. 6 and when the other front vehicle exists in S2 (CA = 1), a predetermined monitoring area 10 is located behind the front vehicle in S3. And the luminance value in that area is obtained. Then, the number of pixels whose luminance value f (i, j) is equal to or less than a predetermined threshold fth (dark state level) is checked, and it is determined whether there are more than the predetermined number Nth of pixels N with f (i, j) ≦ fth. . In this process, if the above condition is satisfied, the vehicle light 7 is turned on in S4. If the above condition is not satisfied, the state of the vehicle light 7 is currently turned off (off) in S5. It is determined whether or not. If the light is off, the process returns to S1 again. If the light is not off at S5, the process proceeds to S6. In S6, a road surface and a region other than the road surface are distinguished by image recognition, and this time, an average of luminance values in an image portion other than the road surface is calculated. Then, the average luminance value is compared with a predetermined threshold value, and the average luminance value of the image portion other than the road surface is the other vehicle ahead and is equal to or less than the predetermined threshold value (fm (i, j) ≦ fmth) for determining lighting. Returns to the process of S1 again. However, if this does not hold, it is determined in S7 whether this state has continued for a predetermined time (t ≧ tc1). If this condition does not continue for a predetermined time in S7, the process returns to S1 again, but if it continues for a predetermined time, it is determined that the surroundings other than the road surface are bright, and the light is turned off and turned off in S8. After that, the processing from S1 is repeated.

一方、S2にて前方に他車が存在しない場合(CA=0)には、S9にて消失点周辺の画素において、輝度値が所定閾値以下(f(i,j)≦fth)である画素が所定個数以上存在する(N≧Nth)か否かが判断される。ここで、上記条件が成立した場合には、S15にて前回もこの状態であったかが判断され、この状態であった場合にはS1の処理に戻る。一方、S15にて前回この状態でなかった場合には、S16にてTL時間後に車両ライト7を点灯する(SW=1)。この場合、TL時間後にライト点灯を行うことは、次の様に作用する。即ち、進行方向にトンネルが存在する場合に、自車がトンネルに入るまでの時間をコントローラ2により予測し、トンネルを検出した後、予測時間になった場合に車両ライト7を点灯することができるので、車両の走行速度に基づいて点灯タイミングを決めることができ、車両ライト7の点灯タイミングを適切なものとすることができる。   On the other hand, when there is no other vehicle ahead in S2 (CA = 0), a pixel whose luminance value is equal to or less than a predetermined threshold (f (i, j) ≦ fth) in the pixels around the vanishing point in S9. It is determined whether or not there is a predetermined number or more (N ≧ Nth). Here, if the above condition is satisfied, it is determined in S15 whether or not it has been in this state last time, and in this state, the process returns to S1. On the other hand, if it was not this state last time in S15, the vehicle light 7 is turned on after TL time in S16 (SW = 1). In this case, lighting the light after TL time works as follows. That is, when a tunnel exists in the traveling direction, the controller 2 predicts the time until the host vehicle enters the tunnel, and after detecting the tunnel, the vehicle light 7 can be turned on when the predicted time is reached. Therefore, the lighting timing can be determined based on the traveling speed of the vehicle, and the lighting timing of the vehicle light 7 can be made appropriate.

一方、S9にて消失点周辺の画素において、輝度値が所定閾値以下(f(i,j)≦fth)である画素が所定個数以上存在しない場合には、S10にて現在のライトの状態はオフの消灯状態であるかが判断される。ここで、消灯状態である場合にはS1の処理に戻るが、点灯状態の場合には、S11にてこの点灯状態が所定時間継続したか(t≧tc2)が判断される。ここで、車両ライト7の点灯が所定時間継続していない場合には、S1の処理に戻るが、S11にて所定時間継続している場合には、今度は路面以外の画像部分における輝度値の平均値が所定閾値以下であるか(fm(i,j)≦fmth)が判断される。S12にて上記条件が成立する場合には、S1の処理に戻るが、上記条件が成立しない場合には、S13にてこの状態が所定時間継続したか(t≧tc3)が判断され、ここで、S12に示す条件が所定時間継続していない場合には、S1の処理に戻る。しかし、S13にてS12に示す条件が所定時間継続した場合には、ライト点灯が必要なく、周囲の状況が十分に明るいものと判断し、S14にて車両ライト7の点灯を消灯し、上記した処理を所定周期で繰り返す。   On the other hand, in S9, if there are no more than a predetermined number of pixels whose luminance value is equal to or less than the predetermined threshold (f (i, j) ≦ fth) in the pixels around the vanishing point, the current light state is determined in S10. It is determined whether the light is off or not. Here, if the light is off, the process returns to S1. If the light is on, it is determined in S11 whether the light has continued for a predetermined time (t ≧ tc2). Here, when the lighting of the vehicle light 7 has not continued for a predetermined time, the process returns to S1, but when the vehicle light 7 has continued for a predetermined time in S11, the luminance value in the image portion other than the road surface is now changed. It is determined whether the average value is equal to or less than a predetermined threshold value (fm (i, j) ≦ fmth). If the above condition is satisfied in S12, the process returns to S1. If the above condition is not satisfied, it is determined in S13 whether this state has continued for a predetermined time (t ≧ tc3). When the condition shown in S12 does not continue for a predetermined time, the process returns to S1. However, if the condition shown in S12 continues for a predetermined time in S13, it is determined that the lighting is not necessary and the surrounding situation is sufficiently bright, and the vehicle light 7 is turned off in S14. The process is repeated at a predetermined cycle.

(第2実施形態)
第1実施形態においては、カメラ画像上で消失点Pvを求め、この消失点Pvの周囲での輝度を比較することによりライト制御を行った。しかし、第2実施形態では、消失点Pvに代わりにエピポールを用いても、図10に示す様にライト制御を行うことができる。この図10に示す処理は、図6と基本的には同じであるが、S9のみが異なり、S9では消失点Pvではなく、エピポール周辺の画素について輝度値の比較を行う点が図6と異なっている。
(Second Embodiment)
In the first embodiment, the light control is performed by obtaining the vanishing point Pv on the camera image and comparing the luminance around the vanishing point Pv. However, in the second embodiment, even if an epipole is used instead of the vanishing point Pv, the write control can be performed as shown in FIG. The process shown in FIG. 10 is basically the same as that in FIG. 6, but only S9 is different. In S9, not the vanishing point Pv but the brightness value is compared for pixels around the epipole, which is different from FIG. ing.

(第3実施形態)
図11に第3実施形態のフローチャートを示す。この第3実施形態では、オプティカルフローによりライト制御を行うものである。この処理で異なるところは、最初に画像上の特徴点において、オプティカルフローを算出し、各オプティカルフローから距離が最小になる点Ofを求め、点Ofの周囲において図6に示すS9と同じ比較を行う点が異なっている。
(Third embodiment)
FIG. 11 shows a flowchart of the third embodiment. In the third embodiment, write control is performed by optical flow. The difference in this process is that the optical flow is first calculated at the feature points on the image, the point Of having the smallest distance is obtained from each optical flow, and the same comparison as S9 shown in FIG. 6 is performed around the point Of. The point to do is different.

点Ofは、次の様に求められる。即ち、図12に示すカメラ画像上の各特徴点において、各オプティカルフロー(例えば、矢印)が描く直線からの距離が最小になる点Ofを図13の如く求めるものである。以下に、オプティカルフローの導出方法について説明する。   The point Of is obtained as follows. In other words, at each feature point on the camera image shown in FIG. 12, a point Of at which the distance from a straight line drawn by each optical flow (for example, an arrow) is minimized is obtained as shown in FIG. Hereinafter, a method for deriving the optical flow will be described.

(x,y):カメラ画像上での位置、f(x,y):輝度値、fx,fy,ft:水平方向、垂直方向、時間軸方向の偏微分とすると、次式となる。

Figure 2006036048
Figure 2006036048
Figure 2006036048
(X, y): position on the camera image, f (x, y): luminance value, fx, fy, ft: partial differentiation in the horizontal direction, vertical direction, and time axis direction, the following expression is obtained.
Figure 2006036048
Figure 2006036048
Figure 2006036048

を設定し、またλを所定の値として以下の式に代入し、所定回数k=0〜nまで繰り返し、最終的に得られた[数13]をオプティカルフローとする。

Figure 2006036048
Is set as a predetermined value and is substituted into the following equation, and is repeated a predetermined number of times from k = 0 to n, and finally obtained [Expression 13] is defined as an optical flow.
Figure 2006036048

上記した方法により、点Ofを導出する。レンズ中心の路面上の直下点P(Xc,Yc,Zc)を求め、撮像素子を含む平面上において、直下点Pの投影点Piを求める。そして、既に求めた点Ofと投影点Piを結ぶ画像上の直線を図14の如く決定し、この直線が、カメラ画像上における自車の前進方向となる。   The point Of is derived by the method described above. A direct point P (Xc, Yc, Zc) on the road surface at the center of the lens is obtained, and a projection point Pi of the direct point P is obtained on a plane including the image sensor. Then, a straight line on the image connecting the already-obtained point Of and the projected point Pi is determined as shown in FIG. 14, and this straight line becomes the forward direction of the host vehicle on the camera image.

(第4実施形態)
図15に、第4実施形態のフローチャートを示す。図15に示される処理では、図16に示すトンネルのテンプレートを、トンネルコントローラ内のメモリに複数記憶しており、この記憶されたテンプレートを用いて進行方向におけるトンネルをパターンマッチングにより検出し、ライト制御を行うものである。この処理は図6に示すS9が異なる。即ち、S9では消失点(または、エピポール)周辺において、複数のトンネル画像をパターンマッチングにより検出する。この場合、類似度が所定閾値以上のものがあるか否かによりライト制御が行われる。
(Fourth embodiment)
FIG. 15 shows a flowchart of the fourth embodiment. In the process shown in FIG. 15, a plurality of tunnel templates shown in FIG. 16 are stored in the memory in the tunnel controller, and the tunnel in the traveling direction is detected by pattern matching using the stored template, and the light control is performed. Is to do. This process is different in S9 shown in FIG. That is, in S9, a plurality of tunnel images are detected by pattern matching around the vanishing point (or epipole). In this case, the write control is performed depending on whether there is a similarity higher than a predetermined threshold.

以上、述べた様に第1実施形態から第4実施形態によれば、カメラの光軸を車両の走行状態に応じて移動させる機構は必要なく、車両の走行状態に応じて車両の周囲の状況により適切なタイミングで車両ライトの点灯が行える装置とすることができる。また、ドライバーに違和感を与えることなく点灯が行える装置とすることができる。   As described above, according to the first to fourth embodiments, there is no need for a mechanism for moving the optical axis of the camera according to the traveling state of the vehicle, and the situation around the vehicle according to the traveling state of the vehicle. Thus, a device capable of turning on the vehicle light at an appropriate timing can be obtained. In addition, it is possible to provide a device that can be lit without causing the driver to feel uncomfortable.

尚、本実施形態と請求項とを対応させると、コントローラ2が制御手段、特徴点抽出手段、進行方向抽出手段、車両検出手段、トンネル・暗所検出手段であり、カメラ3が撮像手段、車速センサ4が速度検出手段、操舵角センサ5が操舵検出手段、テンプレート9がトンネル検出手段となる。また、消失点Pvおよびオプティカルフローによる点Ofが第一点となる。   When this embodiment is associated with the claims, the controller 2 is control means, feature point extraction means, traveling direction extraction means, vehicle detection means, tunnel / dark place detection means, and the camera 3 is imaging means, vehicle speed. The sensor 4 is a speed detection unit, the steering angle sensor 5 is a steering detection unit, and the template 9 is a tunnel detection unit. Further, the vanishing point Pv and the point Of due to the optical flow are the first points.

本発明の一実施形態におけるライト制御装置のシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the system of the light control apparatus in one Embodiment of this invention. 車両の操舵角と車体との関係を示す説明図である。It is explanatory drawing which shows the relationship between the steering angle of a vehicle, and a vehicle body. 図2に示す操舵角と操舵角に応じて変化する撮像素子上での移動量の関係を示す説明図である。It is explanatory drawing which shows the relationship of the moving amount | distance on the image pick-up element which changes according to the steering angle shown in FIG. 2, and a steering angle. 路面上の直下点Pと撮像素子の投影点Piとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the direct point P on a road surface, and the projection point Pi of an image pick-up element. 操舵角θの転舵操作が行われた場合に車両前方の消失点が移動することを示すカメラ画像の説明図である。It is explanatory drawing of the camera image which shows that the vanishing point ahead of a vehicle moves, when steering operation of steering angle (theta) is performed. 本発明のライト制御における第1のフローチャート(消失点によるライト制御)である。It is a 1st flowchart (write control by vanishing point) in the write control of this invention. 前方他車の存在を認識するフローチャートである。It is a flowchart which recognizes presence of other vehicles ahead. 時刻tと時刻(t+Δt)におけるカメラ画像の特徴点から3次元データを算出する場合の説明図である。It is explanatory drawing in the case of calculating three-dimensional data from the feature point of the camera image in the time t and the time (t + (DELTA) t). 時刻(t+Δt)と時刻(t+2Δt)におけるカメラ画像の特徴点から3次元データを算出する場合の説明図である。It is explanatory drawing in the case of calculating three-dimensional data from the feature point of the camera image at the time (t + Δt) and the time (t + 2Δt). 本発明のライト制御における第2のフローチャート(エピポールによるライト制御)である。It is a 2nd flowchart (write control by epipole) in the write control of this invention. 本発明のライト制御装置における第3のフローチャート(オプティカルフローによるライト制御)である。It is a 3rd flowchart (Light control by an optical flow) in the light control apparatus of this invention. 図11に示すオプティカルフローの説明図である。It is explanatory drawing of the optical flow shown in FIG. オプティカルフローが描く直線群と点を示す説明図である。It is explanatory drawing which shows the straight line group and point which an optical flow draws. 路面上の直下点Pの投影点Piと図13に示す点の関係を示す説明図である。It is explanatory drawing which shows the relationship between the projection point Pi of the direct point P on a road surface, and the point shown in FIG. 本発明のライト制御装置における第4のフローチャート(トンネルのパターンマッチングによるライト制御)である。It is a 4th flowchart (Light control by pattern matching of a tunnel) in the light control apparatus of this invention. トンネルのテンプレートによるパターンマッチングを示す説明図である。It is explanatory drawing which shows the pattern matching by the template of a tunnel.

符号の説明Explanation of symbols

1 車両ライト制御装置
2 コントローラ(制御手段、特徴点抽出手段、進行方向抽出手段、車両検出手段、トンネル・暗所検出手段)
3 カメラ(撮像手段)
4 車速センサ(速度検出手段)
5 操舵角センサ(操舵検出手段)
7 車両ライト
8 トンネル
9 テンプレート(トンネル検出手段)
10 監視領域
11 撮像素子
12 レンズ
Pv 消失点(第一点)
Of オプティカルフローによる点(第一点)
1 vehicle light control device 2 controller (control means, feature point extraction means, traveling direction extraction means, vehicle detection means, tunnel / dark place detection means)
3 Camera (imaging means)
4 Vehicle speed sensor (speed detection means)
5 Steering angle sensor (steering detection means)
7 Vehicle light 8 Tunnel 9 Template (tunnel detection means)
10 Monitoring Area 11 Image Sensor 12 Lens Pv Vanishing Point (First Point)
Of optical flow point (first point)

Claims (6)

車両ライトの自動点灯を行う制御手段を備え、該制御手段は、撮像手段により撮影された車両の進行方向の映像に基づいて、前記車両ライトの点灯を制御する車両ライト制御装置において、
前記映像から前記撮像手段の撮像素子に結像する特徴点を求める特徴点抽出手段と、前記特徴点より映像上または画像上において車両の進行方向を示す第1点を求める進行方向抽出手段とを備え、前記制御手段は第1点に基づく情報より監視領域を変化させ、該監視領域における輝度に基づき前記車両ライトの点灯を行うことを特徴とする車両ライト制御装置。
In the vehicle light control device for controlling lighting of the vehicle light based on an image of the traveling direction of the vehicle photographed by the imaging means, the control means for automatically lighting the vehicle light,
Feature point extracting means for obtaining a feature point imaged on the image sensor of the imaging means from the video, and a traveling direction extracting means for obtaining a first point indicating the traveling direction of the vehicle on the video or image from the feature point. The vehicle light control device is characterized in that the control means changes the monitoring area based on the information based on the first point, and turns on the vehicle light based on the luminance in the monitoring area.
前記特徴点から進行方向の車両の存在を検出する車両検出手段を備え、進行方向の車両の有無により前記監視領域を変化させる請求項1に記載の車両ライト制御装置。 The vehicle light control device according to claim 1, further comprising vehicle detection means for detecting the presence of a vehicle in a traveling direction from the feature point, and changing the monitoring area depending on the presence or absence of a vehicle in the traveling direction. 進行方向に車両が存在する場合、前記車両の後方に位置する路面上に前記監視領域を移動し、映像上における前記監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、走行速度に基づいて前記制御手段は前記車両ライトを点灯する請求項2に記載の車両ライト制御装置。 When there is a vehicle in the traveling direction, the monitoring area is moved on the road surface located behind the vehicle, and the number of pixels whose luminance value in the monitoring area on the image is equal to or less than a predetermined threshold is equal to or more than a predetermined pixel The vehicle light control device according to claim 2, wherein the control means turns on the vehicle light based on a traveling speed. 進行方向に車両が存在しない場合、前記第一点の周囲に監視領域を移動し、前記監視領域での輝度値が所定閾値以下となる画素数が所定画素以上の場合に、走行速度に基づいて前記制御手段は前記車両ライトを点灯する請求項2に記載の車両ライト制御装置。 When there is no vehicle in the traveling direction, the monitoring area is moved around the first point, and when the number of pixels whose luminance value in the monitoring area is equal to or less than a predetermined threshold is equal to or greater than a predetermined pixel, based on the traveling speed The vehicle light control device according to claim 2, wherein the control means turns on the vehicle light. 車両の操舵角を検出する操舵検出手段を備え、前記操舵角に基づき前記第一点からの監視領域を変化させる請求項2乃至請求項4のいずれかに記載の車両ライト制御装置。 The vehicle light control device according to any one of claims 2 to 4, further comprising: a steering detection unit that detects a steering angle of the vehicle, and changes a monitoring region from the first point based on the steering angle. 車両の走行速度を検出する速度検出手段と、車両の進行方向に存在するトンネルまたは暗所を検出するトンネル・暗所検出手段とを備え、前記制御手段はトンネル・暗所を検出した場合、走行速度に基づいて前記車両ライトを点灯する請求項2に記載の車両ライト制御装置。 A speed detecting means for detecting the traveling speed of the vehicle, and a tunnel / dark place detecting means for detecting a tunnel or dark place existing in the traveling direction of the vehicle, wherein the control means travels when the tunnel / dark place is detected. The vehicle light control device according to claim 2, wherein the vehicle light is turned on based on a speed.
JP2004219513A 2004-07-28 2004-07-28 Vehicle light controlling device Withdrawn JP2006036048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004219513A JP2006036048A (en) 2004-07-28 2004-07-28 Vehicle light controlling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004219513A JP2006036048A (en) 2004-07-28 2004-07-28 Vehicle light controlling device

Publications (1)

Publication Number Publication Date
JP2006036048A true JP2006036048A (en) 2006-02-09

Family

ID=35901502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004219513A Withdrawn JP2006036048A (en) 2004-07-28 2004-07-28 Vehicle light controlling device

Country Status (1)

Country Link
JP (1) JP2006036048A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255722A (en) * 2008-04-16 2009-11-05 Denso Corp Traveling environment detection method and lighting unit control device for vehicle
JP2010132053A (en) * 2008-12-03 2010-06-17 Koito Mfg Co Ltd Headlight control device
KR101169337B1 (en) * 2010-03-08 2012-07-30 경상대학교산학협력단 Vehicles controlling apparatus and controlling method thereof
US9262817B2 (en) 2010-11-19 2016-02-16 Mitsubishi Electric Corporation Environment estimation apparatus and vehicle control system
CN110682853A (en) * 2018-07-05 2020-01-14 上海博泰悦臻网络技术服务有限公司 Vehicle lamp control method and vehicle
JP2020120316A (en) * 2019-01-25 2020-08-06 トヨタ自動車株式会社 Vehicle periphery monitor apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255722A (en) * 2008-04-16 2009-11-05 Denso Corp Traveling environment detection method and lighting unit control device for vehicle
JP2010132053A (en) * 2008-12-03 2010-06-17 Koito Mfg Co Ltd Headlight control device
KR101169337B1 (en) * 2010-03-08 2012-07-30 경상대학교산학협력단 Vehicles controlling apparatus and controlling method thereof
US9262817B2 (en) 2010-11-19 2016-02-16 Mitsubishi Electric Corporation Environment estimation apparatus and vehicle control system
CN110682853A (en) * 2018-07-05 2020-01-14 上海博泰悦臻网络技术服务有限公司 Vehicle lamp control method and vehicle
JP2020120316A (en) * 2019-01-25 2020-08-06 トヨタ自動車株式会社 Vehicle periphery monitor apparatus
JP7021134B2 (en) 2019-01-25 2022-02-16 トヨタ自動車株式会社 Vehicle peripheral monitoring device

Similar Documents

Publication Publication Date Title
JP5680573B2 (en) Vehicle driving environment recognition device
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
EP2009611B1 (en) Road division line detector
JP5421072B2 (en) Approaching object detection system
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP5760884B2 (en) Vehicle turning prediction device
JP4980970B2 (en) Image pickup means adjustment device and object detection device
JP7296768B2 (en) Image processing device and image processing method
JP6194245B2 (en) Traffic light recognition device
JP4441877B2 (en) Vehicle headlamp device
JP4798576B2 (en) Attachment detection device
JPH1114346A (en) Vehicular obstacle detecting device
KR101601500B1 (en) System and Method for assisting vehicle driving for using smartphone
JP2006036048A (en) Vehicle light controlling device
JP7245653B2 (en) Traffic light recognition method and traffic light recognition device
JP2019133445A (en) Section line detection device, section line detection system, and section line detection method
JP5652374B2 (en) Vehicle headlamp control device
JP2004051063A (en) Device for visual recognition around vehicle
JP2006146754A (en) Preceding car detecting method and preceding car detecting apparatus
US11663834B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2001071790A (en) Vehicular display device
JP2008146404A (en) In-vehicle image recognition device
JP7322651B2 (en) Obstacle recognition device
JP7181956B2 (en) Mobile body control device, control method, and vehicle
JP5601300B2 (en) Vehicle turning prediction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070621

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080328