JP4910802B2 - Monitoring device and method, recording medium, and program - Google Patents

Monitoring device and method, recording medium, and program Download PDF

Info

Publication number
JP4910802B2
JP4910802B2 JP2007067173A JP2007067173A JP4910802B2 JP 4910802 B2 JP4910802 B2 JP 4910802B2 JP 2007067173 A JP2007067173 A JP 2007067173A JP 2007067173 A JP2007067173 A JP 2007067173A JP 4910802 B2 JP4910802 B2 JP 4910802B2
Authority
JP
Japan
Prior art keywords
driver
image
vehicle
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007067173A
Other languages
Japanese (ja)
Other versions
JP2007276766A (en
Inventor
靖理 大元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2007067173A priority Critical patent/JP4910802B2/en
Publication of JP2007276766A publication Critical patent/JP2007276766A/en
Application granted granted Critical
Publication of JP4910802B2 publication Critical patent/JP4910802B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Air Bags (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Description

本発明は、監視装置および方法、記録媒体、並びに、プログラムに関し、特に、ドライバにとって眩しい状態を正確に検出することができるようにした監視装置および方法、記録媒体、並びに、プログラムに関する。   The present invention relates to a monitoring apparatus and method, a recording medium, and a program, and more particularly, to a monitoring apparatus and method, a recording medium, and a program that can accurately detect a dazzling state for a driver.

車両を運転している場合、車内に入射する光に眩惑され、視界が悪化し、運転に悪影響を及ぼすときがある。   When driving a vehicle, it may be dazzled by the light incident on the inside of the vehicle, deteriorating the field of view and adversely affecting driving.

そこで、従来、ドライバの顔を撮像した画像において、ドライバの目の周辺の領域の明るさに応じて、車両のフロントガラスに設けられた遮光手段による遮光範囲を変更し、直射日光による眩惑を緩和することが提案されている(例えば、特許文献1参照)。   Therefore, conventionally, in the image of the driver's face, the shading range by the shading means provided on the windshield of the vehicle is changed according to the brightness of the area around the driver's eyes to reduce dazzling by direct sunlight It has been proposed (see, for example, Patent Document 1).

特開2002−331835号公報JP 2002-331835 A

ところで、運転中にドライバを眩惑する光には、まず、太陽光、対向車のヘッドライトの光、前方の車のブレーキランプの光、店舗などの建物の照明光、街灯の光、電光掲示板の光など、自ら光を発する一次光源からの光がある。加えて、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光、例えば、窓ガラス、水面、路面または反射板などにより太陽光が鏡面反射された光、後続車のヘッドライトが車内のルームミラーにより鏡面反射された光、対向車のヘッドライトが濡れた路面により鏡面反射された光などがある。   By the way, in the light that dazzles the driver while driving, first of all, sunlight, headlights of oncoming cars, brake lamps of cars ahead, lighting of buildings such as shops, street lights, electric bulletin boards There is light from a primary light source that emits light, such as light. In addition, the specularly reflected light of the light from the primary light source, that is, the light reflected from the primary light source at the same angle as the incident angle by the reflecting surface, such as the window glass, water surface, road surface or reflecting plate The light is specularly reflected, the headlight of the following vehicle is specularly reflected by the interior mirror in the vehicle, the light is specularly reflected by the road surface on which the headlight of the oncoming vehicle is wet, and the like.

しかしながら、特許文献1に記載の発明では、直射日光による眩惑を緩和することしか考慮されておらず、直射日光以外の光が原因による眩しい状態を検出することは考慮されていない。   However, the invention described in Patent Document 1 only considers mitigating dazzling due to direct sunlight, and does not consider detecting a dazzling state caused by light other than direct sunlight.

本発明は、このような状況に鑑みてなされたものであり、ドライバにとって眩しい状態を正確に検出することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to accurately detect a dazzling state for a driver.

本発明の一側面の監視装置は、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域画像である視界画像を抽出する視界画像抽出手段と、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段とを備える。 One aspect of the monitoring device of the present invention, based on the sight line orientation of the driver, the field image is an image of a region of a predetermined range including the center of the field of view from the front image driver is an image of the captured forward direction of the vehicle A field-of-view image extracting means for extracting and a first state detecting means for detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.

本発明の一側面の監視装置においては、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。 In the monitoring device of one aspect of the present invention, based on the sight line orientation of the driver, view field image is an image of a region of a predetermined range including the center of the field of view from the front image driver is an image of the captured forward direction of the vehicle Is extracted, and based on the luminance of the field-of-view image, a state in which strong light is applied to the eyes of the driver is detected.

従って、ドライバにとって眩しい状態を正確に検出できる。   Therefore, a dazzling state for the driver can be accurately detected.

この視界画像抽出手段、第1の状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。   The visual field image extraction unit and the first state detection unit are constituted by, for example, a CPU (Central Processing Unit).

この第1の状態検出手段には、視界画像において、輝度が所定の閾値以上である画素が占める割合に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。   The first state detection means is configured to detect whether or not the driver's eyes are irradiated with strong light based on a ratio of pixels having a luminance equal to or higher than a predetermined threshold in the view field image. Can do.

これにより、より正確にドライバにとって眩しい状態を検出することができる。   Thereby, a dazzling state for the driver can be detected more accurately.

この監視装置は、所定の時間前から現在までの視界画像の輝度に基づいて、ドライバの目の感度を推定する感度推定手段と、推定されたドライバの感度に基づいて、閾値を設定する閾値設定手段とをさらに備えることができる。   This monitoring apparatus includes a sensitivity estimation unit that estimates the sensitivity of a driver's eyes based on the brightness of a field-of-view image from a predetermined time to the present, and a threshold setting that sets a threshold based on the estimated sensitivity of the driver Means.

これにより、より正確にドライバにとって眩しい状態を検出することができる。   Thereby, a dazzling state for the driver can be detected more accurately.

この閾値設定手段は、例えば、CPUにより構成される。   This threshold value setting means is constituted by a CPU, for example.

この監視装置は、前方画像において、輝度が大きく変化する位置である変化位置を検出する位置検出手段と、変化位置および前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段とをさらに備え第1の状態検出手段には、視界画像の各画素のうち、光源領域に含まれる画素の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。 The monitoring device includes a position detection unit that detects a change position that is a position where the luminance changes greatly in a front image, and a region that is divided by the change position and an end of the front image, compared to an adjacent region. An area detection unit that detects an area composed of pixels included in the high luminance area as a light source area is further included , and the first state detection unit includes the light source area among the pixels of the view field image. Based on the luminance of the pixel, it can be detected whether or not the driver's eyes are irradiated with strong light.

これにより、より正確にドライバにとって眩しい状態を検出することができる。   Thereby, a dazzling state for the driver can be detected more accurately.

この位置検出手段、領域設定手段は、例えば、CPUにより構成される。   The position detection means and the area setting means are constituted by a CPU, for example.

この位置検出手段には、前方画像の水平方向の行および垂直方向の列ごとに、隣接する画素間の輝度の変化が所定の大きさ以上となる位置を変化位置として検出させるようにすることができる。   The position detecting means may detect a position where a change in luminance between adjacent pixels is a predetermined magnitude or more as a change position for each horizontal row and vertical column of the front image. it can.

これにより、1画素を最小単位として光源領域を検出することができ、より正確にドライバにとって眩しい状態を検出することができる。   Accordingly, the light source region can be detected with one pixel as a minimum unit, and a dazzling state for the driver can be detected more accurately.

この監視装置は、ドライバの顔を撮像した画像である顔画像におけるドライバの目の周辺の領域の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第2の状態検出手段と、前方画像の輝度に基づいて、第1の状態検出手段および第2の状態検出手段のうちどちらを用いるかを選択する選択手段とをさらに備えることができる。 The monitoring apparatus detects a second state of detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the area around the eyes of the driver in the face image that is an image of the driver's face. It can further comprise a detection means and a selection means for selecting which one of the first state detection means and the second state detection means to use based on the luminance of the front image.

これにより、例えば、太陽光が照射されている状態か否かに応じて、より適切な検出方法を用いて、ドライバの目に強い光が照射されている状態を検出することができる。   As a result, for example, depending on whether or not sunlight is being applied, it is possible to detect a state in which strong light is applied to the eyes of the driver using a more appropriate detection method.

この状態検出手段、選択手段は、例えば、CPUにより構成される。   This state detection means and selection means are constituted by a CPU, for example.

この監視装置は、ドライバの顔を撮像した画像である顔画像に基づいて、ドライバの視線の向きを検出する視線方向検出手段をさらに備えることができる。   The monitoring apparatus may further include a line-of-sight direction detecting unit that detects the direction of the driver's line of sight based on a face image that is an image of the driver's face.

これにより、監視装置において検出された視線の向きに基づいて、視界画像を抽出することができる。   Thereby, a visual field image can be extracted based on the direction of the line of sight detected in the monitoring apparatus.

この視界方向検出手段は、例えば、CPUにより構成される。   This visual field direction detection means is constituted by a CPU, for example.

この監視装置は、ドライバの目に強い光が照射されている状態が検出された場合、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御する車載装置制御手段をさらに備えることができる。   This monitoring device controls the in-vehicle device provided in the vehicle so as to perform an operation corresponding to the deterioration of the visual field of the driver when a state in which strong light is irradiated to the eyes of the driver is detected. Means may further be provided.

これにより、眩しさによるドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。   Thereby, the fall of the safety | security and convenience accompanying the deterioration of the driver | operator's visual field by glare is suppressed.

この車載装置制御手段は、例えば、CPUにより構成される。   This in-vehicle device control means is constituted by a CPU, for example.

この車載装置制御手段には、ドライバが運転する車両の前方を撮像した画像である前方画像を表示させるように車載装置としての表示装置を制御させるようにすることができる。   The in-vehicle device control means can control the display device as the in-vehicle device so as to display a front image that is an image of the front of the vehicle driven by the driver.

これにより、ドライバは、表示装置を見ることにより、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。   As a result, the driver can surely confirm the situation ahead of the vehicle, which is dazzling and difficult to see, by looking at the display device.

この車載装置制御手段には、画面の輝度を上げるように車載装置としての表示装置を制御させるようにすることができる。   This in-vehicle device control means can control the display device as the in-vehicle device so as to increase the brightness of the screen.

これにより、ドライバは、眩しい状態においても、表示装置の画面に表示されている情報を確実に認識することができる。   Thereby, the driver can reliably recognize the information displayed on the screen of the display device even in a dazzling state.

この車載装置制御手段には、画像を表示する位置を変更するように車載装置としてのヘッドアップディスプレイを制御させるようにすることができる。   The vehicle-mounted device control means can control the head-up display as the vehicle-mounted device so as to change the position where the image is displayed.

これにより、ドライバは、ヘッドアップディスプレイにより表示される画像を確実に認識することができる。   As a result, the driver can reliably recognize the image displayed by the head-up display.

この車載装置制御手段には、車両の前方を監視する距離を延長するように、車両の前方を監視する車載装置である前方監視装置を制御させるようにすることができる。   The in-vehicle device control means can control a front monitoring device that is an in-vehicle device that monitors the front of the vehicle so as to extend a distance for monitoring the front of the vehicle.

これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。   As a result, the driver's attention is reduced due to the deterioration of the field of view due to glare, and the safety of the occupant can be prevented from being impaired even if the confirmation ahead of the vehicle is slower than normal.

この車載装置制御手段には、事故を事前に回避したり、衝突による被害を軽減させる動作を行う車載装置であるプリクラッシュセーフティシステムが起動するタイミングを早めるようにプリクラッシュセーフティシステムを制御させるようにすることができる。   This in-vehicle device control means controls the pre-crash safety system so that the pre-crash safety system that is an in-vehicle device that avoids accidents in advance or performs actions to reduce the damage caused by a collision is started earlier. can do.

これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。   As a result, the driver's attention is reduced due to the deterioration of the field of view due to glare, and the safety of the occupant can be prevented from being impaired even if the confirmation ahead of the vehicle is slower than normal.

この車載装置制御手段には、車両の加速を抑制するように、車両のエンジンの動作を制御する車載装置である動力制御装置制御させるようにすることができる。   This vehicle-mounted device control means can be controlled by a power control device that is a vehicle-mounted device that controls the operation of the vehicle engine so as to suppress acceleration of the vehicle.

これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止するようにすることができる。   Thereby, even if the driver's attention is reduced due to the deterioration of the field of view due to glare and the confirmation of the front of the vehicle is later than usual, it is possible to prevent a rear-end collision or a collision.

本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムは、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域画像である視界画像を抽出する視界画像抽出ステップと、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する状態検出ステップとを含む。 A monitoring method, a program, and a program recorded on a recording medium according to one aspect of the present invention are based on the driver's line of sight and the center of the driver's field of view from a front image that is an image of the front of the vehicle. A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including a state, and a state detection step for detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the visual field image. Including.

本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムにおいては、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。 In the monitoring method, the program, and the program recorded on the recording medium according to one aspect of the present invention, the center of the driver's visual field from the front image that is an image of the front of the vehicle based on the direction of the driver's line of sight A field-of-view image that is an image of an area in a predetermined range including is extracted, and based on the brightness of the field-of-view image, a state in which strong light is emitted to the eyes of the driver is detected.

従って、ドライバにとって眩しい状態を正確に検出できる。   Therefore, a dazzling state for the driver can be accurately detected.

この視界画像抽出ステップは、例えば、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域画像である視界画像をCPUにより抽出する視界画像抽出ステップにより構成され、この状態検出ステップは、例えば、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かをCPUにより検出する状態検出ステップにより構成される。 This view image extraction step is configured by, for example, a view image extraction step in which the CPU extracts a view image that is an image in a predetermined range including the center of the driver's field of view from a front image that is an image of the front of the vehicle. Then, this state detection step includes, for example, a state detection step in which the CPU detects whether or not strong light is emitted to the eyes of the driver based on the luminance of the view field image.

以上のように、本発明の一側面によれば、ドライバにとって眩しい状態を検出することができる。特に、本発明の一側面によれば、ドライバにとって眩しい状態を正確に検出することができる。   As described above, according to one aspect of the present invention, a dazzling state for a driver can be detected. In particular, according to one aspect of the present invention, a dazzling state for the driver can be accurately detected.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した監視システム101の一実施の形態を示すブロック図である。監視システム101は、監視システム101が設けられた車両を運転するドライバおよび車内の状態を監視し、ドライバの目に強い光が照射されている状態、すなわち、ドライバにとって眩しい状態(以下、単に眩しい状態とも称する)を検出した場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、車両に設けられている他の車載装置の動作を制御する。   FIG. 1 is a block diagram showing an embodiment of a monitoring system 101 to which the present invention is applied. The monitoring system 101 monitors the driver driving the vehicle provided with the monitoring system 101 and the state inside the vehicle, and is in a state where the driver's eyes are irradiated with strong light, that is, a dazzling state for the driver (hereinafter simply dazzling state). In other words, the operation of another in-vehicle device provided in the vehicle is controlled so as to perform an operation corresponding to the deterioration of the driver's field of view due to glare.

監視システム101は、室内監視カメラ111、前方監視カメラ112、眩しさ検出部113、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部113は、トラッキング部121、視線方向検出部122、検出方法選択部123、太陽光眩しさ検出部124、および、照明光眩しさ検出部125を含むように構成される。   The monitoring system 101 is configured to include an indoor monitoring camera 111, a front monitoring camera 112, a glare detection unit 113, a display control unit 114, and a vehicle control unit 115. Further, the glare detection unit 113 is configured to include a tracking unit 121, a gaze direction detection unit 122, a detection method selection unit 123, a sunlight glare detection unit 124, and an illumination light glare detection unit 125.

室内監視カメラ111および前方監視カメラ112は、例えば、図3を参照して後述するように、対数変換型の撮像素子を用いて非常に広いダイナミックレンジ(例えば、約170dB)で被写体を撮像する撮像装置により構成される。室内監視カメラ111および前方監視カメラ112により撮像される画像は、例えば、14bitの符号なし2進数のデジタルのデータであり、最も暗い0から最も明るい214−1の範囲の16384階調の輝度値が割り当てられる。 The indoor monitoring camera 111 and the front monitoring camera 112 capture an image of a subject with a very wide dynamic range (for example, about 170 dB) using a logarithmic conversion type imaging device, for example, as described later with reference to FIG. Consists of devices. The images captured by the indoor monitoring camera 111 and the front monitoring camera 112 are, for example, 14-bit unsigned binary digital data, and luminance values of 16384 gradations ranging from the darkest 0 to the brightest 2 14 −1. Is assigned.

図2は、室内監視カメラ111および前方監視カメラ112の設置位置の例を模式的に示す図である。図2の上側の図は、監視システム101が設けられている車両141を右方向から見た図であり、下側の図は、車両141を上から見た図である。   FIG. 2 is a diagram schematically illustrating an example of installation positions of the indoor monitoring camera 111 and the front monitoring camera 112. The upper diagram in FIG. 2 is a diagram when the vehicle 141 provided with the monitoring system 101 is viewed from the right direction, and the lower diagram is a diagram when the vehicle 141 is viewed from above.

室内監視カメラ111は、例えば、車両141のステアリングホイール151の近傍であって、室内監視カメラ111の画角内にステアリングホイール151が入らない位置、すなわち、ステアリングホイール151が車両141を運転するドライバ142の顔の撮像の邪魔にならない位置に設置され、ドライバ142の顔およびその周辺を撮像する。室内監視カメラ111は、撮像した画像(以下、顔画像と称する)をトラッキング部121に供給する。   The indoor monitoring camera 111 is, for example, in the vicinity of the steering wheel 151 of the vehicle 141 and a position where the steering wheel 151 does not enter within the angle of view of the indoor monitoring camera 111, that is, the driver 142 for driving the vehicle 141 by the steering wheel 151. It is installed at a position that does not interfere with the imaging of the face of the driver 142 and images the face of the driver 142 and its periphery. The indoor monitoring camera 111 supplies the captured image (hereinafter referred to as a face image) to the tracking unit 121.

前方監視カメラ112は、例えば、車両141のボディの前端の中央下部に設置され、車両141の前方を撮像する。前方監視カメラ112は、撮像した画像(以下、前方画像と称する)を、カーナビゲーション装置102、前方監視装置104、検出方法選択部123、および、照明光眩しさ検出部125に供給する。   The front monitoring camera 112 is installed, for example, in the lower center of the front end of the body of the vehicle 141 and images the front of the vehicle 141. The front monitoring camera 112 supplies the captured image (hereinafter referred to as a front image) to the car navigation device 102, the front monitoring device 104, the detection method selection unit 123, and the illumination glare detection unit 125.

眩しさ検出部113は、図9などを参照して後述するように、ドライバにとって眩しい状態を検出する。   As described later with reference to FIG. 9 and the like, the glare detection unit 113 detects a dazzling state for the driver.

トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。すなわち、トラッキング部121は、ドライバの顔および顔の特徴(例えば、顔および顔の各器官の位置、形状など)を検出する。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122および太陽光眩しさ検出部124に供給する。なお、トラッキング部121が人の顔をトラッキングする手法は、特定の手法に限定されるものではなく、より迅速かつ正確に人の顔をトラッキングできる手法が望ましい。   The tracking unit 121 tracks the driver's face in the face image using a predetermined method. That is, the tracking unit 121 detects the driver's face and facial features (for example, the position and shape of the face and each organ of the face). The tracking unit 121 supplies the face image and information indicating the tracking result of the face image to the gaze direction detection unit 122 and the sunlight glare detection unit 124. Note that the method of tracking the human face by the tracking unit 121 is not limited to a specific method, and a method that can more quickly and accurately track the human face is desirable.

視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を、照明光眩しさ検出部125に供給する。なお、視線方向検出部122が視線の方向を検出する手法は、特定の手法に限定されるものではなく、より迅速かつ正確に視線の方向を検出できる手法が望ましい。   The gaze direction detection unit 122 detects the gaze direction of the driver based on the face image and the tracking result using a predetermined method. The line-of-sight direction detection unit 122 supplies information indicating the detection result to the illumination light glare detection unit 125. Note that the method of detecting the direction of the line of sight by the line-of-sight direction detection unit 122 is not limited to a specific method, and a method capable of detecting the direction of the line of sight more quickly and accurately is desirable.

検出方法選択部123は、図9または図12を参照して後述するように、前方画像に基づいて、眩しい状態を検出する方法を選択する。検出方法選択部123は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。   As will be described later with reference to FIG. 9 or FIG. 12, the detection method selection unit 123 selects a method for detecting a dazzling state based on the front image. The detection method selection unit 123 supplies information indicating the selection result to the sunlight glare detection unit 124 and the illumination light glare detection unit 125.

太陽光眩しさ検出部124は、図13を参照して後述するように、主に太陽光および太陽光が反射された反射光により眩しい状態を検出する。太陽光眩しさ検出部124は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 13, the sunlight glare detection unit 124 detects a dazzling state mainly by sunlight and reflected light from which sunlight is reflected. The sunlight glare detection unit 124 supplies information indicating the detection result to the display control unit 114 and the vehicle control unit 115.

照明光眩しさ検出部125は、図15を参照して後述するように、主に太陽光以外の照明光および照明光が反射された反射光により眩しい状態を検出する。照明光眩しさ検出部125は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 15, the illumination light glare detection unit 125 detects a dazzling state mainly by illumination light other than sunlight and reflected light from which the illumination light is reflected. The illumination light glare detection unit 125 supplies information indicating the detection result to the display control unit 114 and the vehicle control unit 115.

表示制御部114は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられているカーナビゲーション装置102、ヘッドアップディスプレイ103などの表示装置の動作を制御する。   As will be described later with reference to FIGS. 16 and 17, the display control unit 114 performs an operation corresponding to deterioration of the driver's field of view due to glare when a dazzling state for the driver is detected. The operation of the display device such as the car navigation device 102 and the head-up display 103 provided in the vehicle provided with the control is controlled.

車両制御部115は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられている前方監視装置104、プリセーフティクラッシュシステム105、および、動力制御装置106など、車両の走行に関わる制御および処理を行う車載装置の動作を制御する。   As will be described later with reference to FIGS. 16 and 17, the vehicle control unit 115 performs an operation corresponding to deterioration of the driver's field of view due to glare when a dazzling state for the driver is detected. The operation of the in-vehicle device that performs control and processing related to the traveling of the vehicle, such as the front monitoring device 104, the pre-safety crash system 105, and the power control device 106, which are provided in the vehicle provided with the control unit, is controlled.

カーナビゲーション装置102は、目的地までの走行経路を案内するナビゲーション機能、および、前方監視カメラ112により撮像された前方画像または図示せぬカメラにより撮像された車両の後方の画像などを表示することにより車両の周囲の状況の確認を補助するモニタ機能などを車両の乗員に提供する。   The car navigation device 102 displays a navigation function for guiding a travel route to a destination, and a front image captured by the front monitoring camera 112 or a rear image of the vehicle captured by a camera (not shown). Provide a vehicle occupant with a monitor function that assists in checking the situation around the vehicle.

ヘッドアップディスプレイ103は、無限遠の点に結像する画像を車両のフロントガラスに投影することにより、ドライバが、車両の前景を見たままの状態で、すなわち、運転中の視線方向を保ったまま見ることができるように、画像を表示する。例えば、車速メータなどが、ヘッドアップディスプレイ103により表示される。   The head-up display 103 projects an image formed at a point at infinity onto the windshield of the vehicle, so that the driver can keep the line of sight while driving while looking at the foreground of the vehicle. The image is displayed so that it can be seen as it is. For example, a vehicle speed meter or the like is displayed on the head-up display 103.

前方監視装置104は、前方画像に基づいて、車両の前方の状況を監視し、車両の前方のもの、例えば、人、動物、障害物などの存在を検知し、検知した情報をプリクラッシュセーフティシステム105に供給する。   The front monitoring device 104 monitors the situation in front of the vehicle based on the front image, detects the presence of a thing in front of the vehicle, for example, a person, an animal, an obstacle, etc., and uses the detected information as a pre-crash safety system. It supplies to 105.

プリクラッシュセーフティシステム105は、乗員の安全性を確保するために、事故を事前に回避したり、衝突による被害を軽減させる動作を行うシステムである。例えば、プリクラッシュセーフティシステム105は、前方監視装置104からの情報に基づいて、車両の前方の人や障害物などに衝突する可能性があると判断した場合、衝突を避けるために警報を発したり、衝突が免れないと判断した場合、シートベルトを自動的に巻き取って、乗員の拘束性を高めたり、自動的にブレーキを作動させて、衝突時の衝撃を軽減させるなどの動作を行う。   The pre-crash safety system 105 is a system that performs an operation for avoiding an accident in advance or reducing damage caused by a collision in order to ensure the safety of an occupant. For example, if the pre-crash safety system 105 determines that there is a possibility of a collision with a person or an obstacle ahead of the vehicle based on information from the front monitoring device 104, the pre-crash safety system 105 may issue an alarm to avoid the collision. When it is determined that the collision is unavoidable, the seat belt is automatically wound to increase the restraint of the occupant, or the brake is automatically operated to reduce the impact at the time of the collision.

動力制御装置106は、車両のエンジンの動作を制御することにより、車両の速度や加速特性などを制御する。   The power control device 106 controls the speed and acceleration characteristics of the vehicle by controlling the operation of the engine of the vehicle.

図3は、図1の室内監視カメラ111および前方監視カメラ112の機能的構成を示すブロック図である。室内監視カメラ111および前方監視カメラ112は、レンズ201、および対数変換型撮像素子202を含むように構成される。対数変換型撮像素子202は、例えば、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor)(登録商標))などの対数変換型の撮像素子とされ、光検出部211、対数変換部212、A/D変換部213、および撮像タイミング制御部214を含むように構成される。   FIG. 3 is a block diagram illustrating functional configurations of the indoor monitoring camera 111 and the front monitoring camera 112 of FIG. The indoor monitoring camera 111 and the front monitoring camera 112 are configured to include a lens 201 and a logarithmic conversion type imaging device 202. The logarithmic conversion type image pickup device 202 is a logarithmic conversion type image pickup device such as HDRC (High Dynamic Range CMOS (Complementary Metal Oxide Semiconductor) (registered trademark)), for example, and includes a light detection unit 211, logarithmic conversion unit 212, A / A D conversion unit 213 and an imaging timing control unit 214 are included.

室内監視カメラ111または前方監視カメラ112により撮像される被写体から発せられた光(あるいは、被写体により反射された光)は、レンズ201に入射し、対数変換型撮像素子202の光検出部211の図示せぬ光検出面に結像する。   The light emitted from the subject imaged by the indoor surveillance camera 111 or the front surveillance camera 112 (or the light reflected by the subject) enters the lens 201 and is a diagram of the light detection unit 211 of the logarithmic conversion type image sensor 202. An image is formed on a light detection surface (not shown).

光検出部211は、例えば、複数のフォトダイオードからなる受光素子などにより構成される。光検出部211は、レンズ201により結像された被写体の光を、入射された光の明るさ(照度)に応じた電荷に変換し、変換した電荷を蓄積する。光検出部211は、撮像タイミング制御部214から供給される制御信号に同期して、蓄積した電荷を対数変換部212に供給する。   The light detection unit 211 is configured by, for example, a light receiving element including a plurality of photodiodes. The light detection unit 211 converts the light of the subject imaged by the lens 201 into a charge corresponding to the brightness (illuminance) of the incident light, and accumulates the converted charge. The light detection unit 211 supplies the accumulated charges to the logarithmic conversion unit 212 in synchronization with the control signal supplied from the imaging timing control unit 214.

対数変換部212は、例えば、複数のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)などにより構成される。対数変換部212は、MOSFETのサブスレッショルド特性を利用して、光検出部211から供給される電荷を、各画素ごとに、電荷の数(電流の強さ)の対数、すなわち、被写体の光の光量の対数にほぼ比例した電圧値に変換したアナログの電気信号を生成する。対数変換部212は、生成したアナログの電気信号をA/D変換部213に供給する。   The logarithmic conversion unit 212 includes, for example, a plurality of MOSFETs (Metal Oxide Semiconductor Field Effect Transistors). The logarithmic conversion unit 212 uses the sub-threshold characteristic of the MOSFET to convert the charge supplied from the photodetection unit 211 to the logarithm of the number of charges (the intensity of current) for each pixel, that is, the light of the subject. An analog electric signal converted into a voltage value substantially proportional to the logarithm of the light amount is generated. The logarithmic conversion unit 212 supplies the generated analog electrical signal to the A / D conversion unit 213.

A/D変換部213は、撮像タイミング制御部214から供給される制御信号に同期して、アナログの電気信号をデジタルの画像データ(以下、単に画像とも称する)にA/D変換する。例えば、14bitの符号なし2進数のデジタルの画像データに変換される場合、画像データの輝度値(あるいは画素値)は、最も暗い0から最も明るい214−1の範囲の値をとる。A/D変換部213は、変換したデジタルの画像データを眩しさ検出部113に供給する。 The A / D conversion unit 213 A / D converts an analog electrical signal into digital image data (hereinafter also simply referred to as an image) in synchronization with a control signal supplied from the imaging timing control unit 214. For example, in the case of conversion to 14-bit unsigned binary digital image data, the luminance value (or pixel value) of the image data takes a value in the range of 0 to the brightest 2 14 −1. The A / D conversion unit 213 supplies the converted digital image data to the glare detection unit 113.

このように、室内監視カメラ111または前方監視カメラ112は、光検出部211に入射した被写体の光の明るさ、すなわち、入射光量の対数に比例した輝度値(あるいは画素値)からなるデジタルの画像データを出力する。なお、対数変換型の撮像素子については、例えば、特表平7−506932公報などにその詳細が開示されている。   As described above, the indoor monitoring camera 111 or the front monitoring camera 112 is a digital image having a brightness value (or a pixel value) proportional to the logarithm of the incident light quantity, that is, the brightness of the light incident on the light detection unit 211. Output data. The details of the logarithmic conversion type image pickup device are disclosed in, for example, JP-T-7-506932.

なお、対数変換型撮像素子202の光検出部211においては、変換した電荷を蓄積せずに、そのまま対数変換部212に供給させるようにすることも可能である。   In the light detection unit 211 of the logarithmic conversion type image pickup device 202, the converted charge can be supplied to the logarithmic conversion unit 212 as it is without accumulating.

図4は、対数変換型撮像素子202、CCD撮像素子、銀塩フィルム、および、人の目の感度特性を示すグラフである。図4の横軸は、入射光の照度(単位は、ルクス(lux))の対数値を示し、縦軸は入射光の照度に対する感度を示している。線231は対数変換型撮像素子202の感度特性を示し、線232はCCD撮像素子の感度特性を示し、線233は銀塩フィルムの感度特性を示し、線234は人の目の感度特性を示している。   FIG. 4 is a graph showing sensitivity characteristics of the logarithmic conversion type image pickup device 202, CCD image pickup device, silver salt film, and human eye. The horizontal axis in FIG. 4 represents the logarithmic value of the illuminance (unit is lux) of the incident light, and the vertical axis represents the sensitivity to the illuminance of the incident light. A line 231 indicates the sensitivity characteristic of the logarithmic conversion type image sensor 202, a line 232 indicates the sensitivity characteristic of the CCD image sensor, a line 233 indicates the sensitivity characteristic of the silver salt film, and a line 234 indicates the sensitivity characteristic of the human eye. ing.

対数変換型撮像素子202は、上述したように、入射光量の対数にほぼ比例した輝度値(あるいは画素値)からなる画像データを出力するので、入射光量が大きくなった場合でも、対数変換型撮像素子202を構成するフォトダイオードやMOSFETなどの素子の容量が飽和したり、各素子に流れる電流や印加される電圧が各素子の入力に応じた出力を行うことができる範囲を超えることがない。従って、撮像可能な輝度の範囲内において、ほぼ正確に入射光量の変動に応じた輝度値(あるいは画素値)を得ることができる。すなわち、CCD撮像素子、銀塩フィルム、および、人の目より広い、例えば、約1ミリルクスから太陽光の輝度より高い約500キロルクスまでの約170dBのダイナミックレンジで、被写体からの入射光量の強さをほぼ正確に反映した輝度値(あるいは画素値)からなる画像を撮像することができる。なお、室内監視カメラ111または前方監視カメラ112に用いる対数変換型撮像素子202のダイナミックレンジは、上述した170dBに限定されるものではなく、利用目的に応じて、約100dBあるいは200dBなど、必要なダイナミックレンジに対応したものを用いるようにすればよい。   As described above, the logarithmic conversion type imaging device 202 outputs image data composed of luminance values (or pixel values) that are substantially proportional to the logarithm of the incident light quantity. Therefore, even when the incident light quantity becomes large, the logarithmic conversion type imaging element 202 is used. The capacitance of elements such as photodiodes and MOSFETs constituting the element 202 is not saturated, and the current flowing through each element and the applied voltage do not exceed the range in which output corresponding to the input of each element can be performed. Accordingly, it is possible to obtain a luminance value (or pixel value) according to the change in the amount of incident light almost accurately within the range of luminance that can be imaged. That is, the intensity of the incident light from the subject with a dynamic range of about 170 dB, which is wider than the human eye, for example, from about 1 millilux to about 500 kilolux higher than the brightness of sunlight. It is possible to capture an image consisting of a luminance value (or pixel value) that reflects the above accurately. Note that the dynamic range of the logarithmic conversion type image pickup device 202 used for the indoor monitoring camera 111 or the front monitoring camera 112 is not limited to 170 dB as described above, and a required dynamic such as about 100 dB or 200 dB depending on the purpose of use. What corresponds to the range may be used.

従って、対数変換型撮像素子202を用いた室内監視カメラ111または前方監視カメラ112は、人が視認できる輝度範囲において、輝度クリッピングが発生しないため、絞りやシャッタースピードなどを調整して入射光量を調整する必要がない。すなわち、室内監視カメラ111または前方監視カメラ112は、入射光量を調整しなくても、被写体の詳細な輝度の分布を忠実に撮像することができる。   Therefore, the indoor monitoring camera 111 or the front monitoring camera 112 using the logarithmic conversion type image sensor 202 does not generate luminance clipping in a luminance range that can be visually recognized by humans. Therefore, the amount of incident light is adjusted by adjusting the aperture, shutter speed, and the like. There is no need to do. That is, the indoor monitoring camera 111 or the front monitoring camera 112 can accurately capture the detailed luminance distribution of the subject without adjusting the amount of incident light.

例えば、昼間に車内から車の前方を撮像する場合、画角内に太陽が入っていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、太陽と前方の道路の輝度の分布を忠実に再現した画像を撮像することができる。また、夜間に車内から車の前方を撮像する場合、対向車のヘッドライトが前方から照らされていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、対向車のヘッドライトの光から自車のヘッドライトに照らされていない領域までの輝度の分布を忠実に再現した画像を撮像することができる。   For example, when imaging the front of a vehicle from inside the vehicle during the day, the indoor monitoring camera 111 or the front monitoring camera 112 does not adjust the amount of incident light, even if the sun is in the field of view. An image in which the luminance distribution is faithfully reproduced can be taken. In addition, when imaging the front of the vehicle from inside the vehicle at night, the indoor monitoring camera 111 or the front monitoring camera 112 does not adjust the amount of incident light even if the headlight of the oncoming vehicle is illuminated from the front. An image that faithfully reproduces the luminance distribution from the light of the headlight to the area not illuminated by the headlight of the host vehicle can be taken.

また、CCD撮像素子および銀塩フィルムでは、線232および線233に示されるように、ガンマ特性などの要因により感度特性が入射光の照度の対数に比例しないのに比べて、対数変換型撮像素子202では、感度特性が入射光の照度の対数にほぼ比例する。   Further, in the CCD image pickup device and the silver salt film, as shown by the lines 232 and 233, the logarithmic conversion type image pickup device has a sensitivity characteristic that is not proportional to the logarithm of the illuminance of incident light due to factors such as a gamma characteristic. At 202, the sensitivity characteristic is approximately proportional to the logarithm of the illuminance of the incident light.

このように、対数変換型撮像素子202を用いた室内監視カメラ111および前方監視カメラ112は、輝度クリッピングの発生、入射光量の調整、ガンマ特性の影響を受けない。従って、室内監視カメラ111または前方監視カメラ112により撮像された画像データの輝度値(あるいは画素値)は、被写体の輝度の変動および被写体の動きをほぼ忠実に反映するように変動する。すなわち、フレーム間の画像データの差分をとった差分データの各画素の差分値は、被写体の輝度の変動および被写体の動きがほぼ忠実に反映された値となる。   As described above, the indoor monitoring camera 111 and the front monitoring camera 112 using the logarithmic conversion type image sensor 202 are not affected by the occurrence of luminance clipping, adjustment of incident light quantity, and gamma characteristics. Accordingly, the luminance value (or pixel value) of the image data captured by the indoor monitoring camera 111 or the front monitoring camera 112 changes so as to reflect the change in the luminance of the subject and the movement of the subject almost faithfully. That is, the difference value of each pixel of the difference data obtained by taking the difference of the image data between frames is a value in which the luminance variation of the subject and the movement of the subject are reflected almost faithfully.

図5は、図1の検出方法選択部123の機能的構成を示すブロック図である。検出方法選択部123は、統計部301および選択部302を含むように構成される。   FIG. 5 is a block diagram illustrating a functional configuration of the detection method selection unit 123 of FIG. The detection method selection unit 123 is configured to include a statistics unit 301 and a selection unit 302.

統計部301は、図9または図12を参照して後述するように、前方監視カメラ112から前方画像を取得し、取得した前方画像の輝度値の統計値を算出し、算出した統計値を示す情報を選択部302に供給する。   As will be described later with reference to FIG. 9 or FIG. 12, the statistical unit 301 acquires a front image from the front monitoring camera 112, calculates a statistical value of a luminance value of the acquired front image, and indicates the calculated statistical value Information is supplied to the selection unit 302.

選択部302は、図9または図12を参照して後述するように、前方画像の輝度値の統計値に基づいて、眩しい状態を検出する方法を選択し、選択結果を示す情報を太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。   As will be described later with reference to FIG. 9 or FIG. 12, the selection unit 302 selects a method for detecting a dazzling state based on the statistical value of the luminance value of the front image, and the information indicating the selection result is dazzled by sunlight. This is supplied to the height detection unit 124 and the illumination light glare detection unit 125.

図6は、図1の太陽光眩しさ検出部124の機能的構成を示すブロック図である。太陽光眩しさ検出部124は、統計部321および状態検出部322を含むように構成される。   FIG. 6 is a block diagram illustrating a functional configuration of the sunlight glare detection unit 124 of FIG. The sunlight glare detection unit 124 is configured to include a statistics unit 321 and a state detection unit 322.

統計部321は、顔画像およびその顔画像のトラッキング結果を示す情報をトラッキング部121から取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。統計部321は、図13を参照して後述するように、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の輝度値の統計値を算出し、算出した統計値を示す情報を状態検出部322に供給する。   The statistics unit 321 acquires information indicating the face image and the tracking result of the face image from the tracking unit 121, and acquires information indicating the detection method selection result from the detection method selection unit 123. As will be described later with reference to FIG. 13, the statistical unit 321 calculates the statistical value of the luminance value of the area around the eyes of the driver in the face image based on the acquired tracking result, and indicates the calculated statistical value Information is supplied to the state detection unit 322.

状態検出部322は、図13を参照して後述するように、統計部321により算出された統計値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 13, the state detection unit 322 detects a dazzling state for the driver based on the statistical value calculated by the statistical unit 321, and displays information indicating the detection result as the display control unit 114 and the vehicle. This is supplied to the control unit 115.

図7は、図1の照明光眩しさ検出部125の機能的構成を示すブロック図である。照明光眩しさ検出部125は、視界画像抽出部341、統計部342、感度推定部343、閾値設定部344、および、状態検出部345を含むように構成される。   FIG. 7 is a block diagram illustrating a functional configuration of the illumination light glare detection unit 125 of FIG. The illumination light glare detection unit 125 is configured to include a view image extraction unit 341, a statistics unit 342, a sensitivity estimation unit 343, a threshold setting unit 344, and a state detection unit 345.

視界画像抽出部341は、前方監視カメラ112から前方画像を取得し、視線方向検出部122からドライバの視線の向きの検出結果を示す情報を取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。視界画像抽出部341は、検出されたドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲(例えば、一般的な人にとって明るさの感度が高い範囲)の領域が写っている画像(以下、視界画像と称する)を前方画像から抽出する。すなわち、視界画像は、ドライバが感じる眩しさに与える影響が大きい領域が写っている画像であるといえる。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。   The field-of-view image extraction unit 341 acquires a front image from the front monitoring camera 112, acquires information indicating a detection result of the driver's line-of-sight direction from the line-of-sight direction detection unit 122, and selects a detection method from the detection method selection unit 123 Get information indicating The field-of-view image extraction unit 341 has a predetermined range (for example, a range with high brightness sensitivity for a general person) centered on the center of the driver's visual field based on the detected direction of the driver's line of sight. A captured image (hereinafter referred to as a view field image) is extracted from the front image. That is, it can be said that the field-of-view image is an image in which a region having a large influence on the glare felt by the driver is shown. The view image extraction unit 341 supplies the extracted view image to the statistics unit 342 and the state detection unit 345.

統計部342は、図15を参照して後述するように、視界画像の各画素の輝度値の統計値を算出し、算出した統計値を示す情報を感度推定部343に供給する。   As will be described later with reference to FIG. 15, the statistical unit 342 calculates a statistical value of the luminance value of each pixel of the field-of-view image, and supplies information indicating the calculated statistical value to the sensitivity estimation unit 343.

感度推定部343は、図15を参照して後述するように、統計部342により算出された統計値に基づいて、ドライバの目の感度を推定し、推定結果を示す情報を閾値設定部344に供給する。   As will be described later with reference to FIG. 15, the sensitivity estimation unit 343 estimates the driver's eye sensitivity based on the statistical value calculated by the statistical unit 342, and sends information indicating the estimation result to the threshold setting unit 344. Supply.

閾値設定部344は、図15を参照して後述するように、推定されたドライバの目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度値である輝度閾値を設定し、輝度閾値を示す情報を状態検出部345に供給する。   As described later with reference to FIG. 15, the threshold setting unit 344 is a luminance value for extracting an area estimated to be dazzling for the driver based on the estimated eye sensitivity of the driver from the view image. A certain luminance threshold is set, and information indicating the luminance threshold is supplied to the state detection unit 345.

状態検出部345は、図15を参照して後述するように、視界画像の輝度値および輝度閾値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 15, the state detection unit 345 detects a dazzling state for the driver based on the luminance value and the luminance threshold of the view field image, and displays information indicating the detection result as the display control unit 114 and the vehicle control. To the unit 115.

次に、図8乃至図17を参照して、監視システム101により実行される処理を説明する。   Next, processing executed by the monitoring system 101 will be described with reference to FIGS.

まず、図8を参照して、監視システム101により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム101が設けられている車両のエンジンが始動されたとき開始される。   First, the in-vehicle device control process executed by the monitoring system 101 will be described with reference to FIG. This process is started, for example, when an engine of a vehicle provided with the monitoring system 101 is started.

ステップS1において、室内監視カメラ111は、ドライバの顔の撮像を開始する。室内監視カメラ111は、撮像した画像である顔画像をトラッキング部121に供給する。   In step S1, the indoor monitoring camera 111 starts imaging the face of the driver. The indoor monitoring camera 111 supplies a face image that is a captured image to the tracking unit 121.

ステップS2において、前方監視カメラ112は、車両の前方の撮像を開始する。前方監視カメラ112は、撮像した画像である前方画像を、前方監視装置104、検出方法選択部123の統計部301および照明光眩しさ検出部125の視界画像抽出部341に供給する。   In step S2, the front monitoring camera 112 starts imaging the front of the vehicle. The front monitoring camera 112 supplies a front image, which is a captured image, to the front monitoring device 104, the statistical unit 301 of the detection method selection unit 123, and the view image extraction unit 341 of the illumination glare detection unit 125.

ステップS3において、眩しさ検出部113は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図9または図12を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。   In step S3, the glare detection unit 113 executes a glare detection process. Although details of the glare detection process will be described later with reference to FIG. 9 or FIG. 12, a dazzling state for the driver is detected by this process.

ステップS4において、表示制御部114および車両制御部115は、眩しい状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しくない状態から眩しい状態に遷移したかを判定する。眩しい状態に遷移したと判定された場合、処理はステップS5に進む。   In step S4, the display control unit 114 and the vehicle control unit 115 determine whether or not a transition to a dazzling state has occurred. Specifically, the display control unit 114 and the vehicle control unit 115 change from a non-glare state to a dazzling state for the driver based on the detection result notified from the sunlight glare detection unit 124 or the illumination light glare detection unit 125. Determine if the transition has occurred. If it is determined that the screen has transitioned to a dazzling state, the process proceeds to step S5.

ステップS5において、表示制御部114および車両制御部115は、眩しい状態検出時の処理を実行する。眩しい状態検出時の処理の詳細は、図16を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を開始するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。   In step S5, the display control unit 114 and the vehicle control unit 115 execute a process when a dazzling state is detected. Details of the process at the time of detecting the dazzling state will be described later with reference to FIG. 16. By this process, the in-vehicle device such as the car navigation device 102 is controlled so as to start the operation corresponding to the deterioration of the visual field of the driver. The Thereafter, the process proceeds to step S8.

ステップS4において、眩しい状態に遷移していないと判定された場合、処理はステップS6に進む。   In step S4, when it is determined that the screen has not transitioned to the dazzling state, the process proceeds to step S6.

ステップS6において、表示制御部114および車両制御部115は、眩しくない状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しい状態から眩しくない状態に遷移したかを判定する。眩しくない状態に遷移したと判定された場合、処理はステップS7に進む。   In step S <b> 6, the display control unit 114 and the vehicle control unit 115 determine whether or not the state has transitioned to a non-glare state. Specifically, the display control unit 114 and the vehicle control unit 115 change from a dazzling state to a non-dazzling state for the driver based on the detection result notified from the sunlight glare detection unit 124 or the illumination light glare detection unit 125. Determine if the transition has occurred. When it determines with having changed to the state which is not dazzling, a process progresses to step S7.

ステップS7において、表示制御部114および車両制御部115は、眩しい状態終了時の処理を実行する。眩しい状態終了時の処理の詳細は、図17を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を停止するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。   In step S7, the display control unit 114 and the vehicle control unit 115 execute a process at the end of the dazzling state. The details of the process at the end of the dazzling state will be described later with reference to FIG. 17. By this process, the in-vehicle device such as the car navigation device 102 is controlled so as to stop the operation corresponding to the deterioration of the driver's visual field. The Thereafter, the process proceeds to step S8.

ステップS6において、眩しくない状態に遷移していないと判定された場合、すなわち、眩しい状態または眩しくない状態のどちらか一方が継続していると判定された場合、ステップS7の処理はスキップされ、処理はステップS8に進む。   If it is determined in step S6 that the state has not transitioned to the non-dazzling state, that is, if it is determined that either the dazzling state or the non-dazzling state continues, the process of step S7 is skipped, and the process Advances to step S8.

ステップS8において、監視システム101は、処理を終了するかを判定する。処理を終了しないと判定された場合、処理はステップS3に戻り、その後、ステップS8において処理を終了すると判定されるまで、ステップS3乃至S8の処理が繰り返し実行される。   In step S8, the monitoring system 101 determines whether to end the process. If it is determined not to end the process, the process returns to step S3, and thereafter, the processes in steps S3 to S8 are repeatedly executed until it is determined in step S8 that the process is to be ended.

ステップS8において、例えば、車両のエンジンが停止された場合、監視システム101は、処理を終了すると判定し、車載装置制御処理は終了する。   In step S8, for example, when the engine of the vehicle is stopped, the monitoring system 101 determines to end the process, and the in-vehicle device control process ends.

次に、図9のフローチャートを参照して、図8のステップS3の眩しさ検出処理の詳細を説明する。   Next, details of the glare detection process in step S3 of FIG. 8 will be described with reference to the flowchart of FIG.

ステップS31において、統計部301は、前方画像の輝度値の中央値を検出する。具体的には、統計部301は、前方画像の各画素の輝度値を低い順または高い順に並べたデータを生成する。統計部301は、生成したデータにおいて中央にくる値、すなわち、前方画像の輝度値の中央値を検出する。   In step S31, the statistics unit 301 detects the median value of the luminance values of the front image. Specifically, the statistical unit 301 generates data in which the luminance values of the pixels of the front image are arranged in ascending order or descending order. The statistic unit 301 detects the value at the center of the generated data, that is, the median value of the luminance values of the front image.

ステップS32において、統計部301は、中央値より輝度値が低い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち、検出した中央値より輝度値が低い画素の輝度値の平均値、すなわち、画像内において中央値より暗い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。   In step S <b> 32, the statistical unit 301 calculates an average value of the luminance values of pixels whose luminance value is lower than the median value. Specifically, the statistical unit 301 calculates an average value of luminance values of pixels whose luminance values are lower than the detected median value among the pixels of the front pixels, that is, an average of luminance values of pixels darker than the median value in the image. Calculate the value. The statistics unit 301 supplies information indicating the calculated average value to the selection unit 302.

ステップS33において、選択部302は、平均値が所定の閾値以上であるかを判定する。   In step S33, the selection unit 302 determines whether the average value is equal to or greater than a predetermined threshold value.

図10の画像401は、晴れた日の昼間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム402は、画像401の輝度値の分布を示している。また、図11の画像421は、夜間に街中を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム422は、画像421の輝度値の分布を示している。なお、ヒストグラム402およびヒストグラム422の横軸は輝度値を表し、縦軸は画素数を表す。また、横軸方向において、左にいくほど輝度値が低くなり、右にいくほど輝度値が高くなる。   An image 401 in FIG. 10 schematically shows an example of a front image taken from a vehicle traveling in the suburbs during the day on a sunny day, and a histogram 402 shows a distribution of luminance values of the image 401. An image 421 in FIG. 11 schematically shows an example of a front image taken from a vehicle traveling in the city at night, and a histogram 422 shows a distribution of luminance values of the image 421. Note that the horizontal axes of the histogram 402 and the histogram 422 represent luminance values, and the vertical axis represents the number of pixels. In the horizontal axis direction, the luminance value decreases as it goes to the left, and the luminance value increases as it goes to the right.

画像401においては、ほとんど影になる部分がなく、自分で発光する被写体も存在しないため、周囲と比較して非常に明るい被写体および非常に暗い被写体が存在しない。従って、ほとんどの画素の輝度値が比較的高く、かつ、狭い範囲に集中するため、ヒストグラム402において、幅が狭くピーク値が非常に大きな山411−1が表れる。また、晴れた日の空は、周囲と比較して明るいため、山411−1の右側の比較的近い位置に、ピークの小さい山411−2が表れる。   In the image 401, there is almost no shadow portion, and there is no subject that emits light by itself. Therefore, there are no very bright and very dark subjects compared to the surroundings. Accordingly, the luminance values of most pixels are relatively high and are concentrated in a narrow range, so that a peak 411-1 with a narrow width and a very large peak value appears in the histogram 402. Moreover, since the sky on a clear day is brighter than the surroundings, a mountain 411-2 having a small peak appears at a relatively close position on the right side of the mountain 411-1.

一方、画像421においては、ほとんどの被写体の輝度が暗い範囲に集中する。従って、ほとんどの画素の輝度値が低く、かつ、狭い範囲に集中するため、ヒストグラム422において、ヒストグラム402の山411−1より左側、すなわち、輝度値が暗い範囲に、幅が狭くピーク値が大きい山431−1が表れる。また、自車のヘッドライトに照らされた路面の画像は、画角内に占める割合がある程度大きく、かつ、周囲と比べて明るいため、山431−1の右側の離れた位置に、ピーク値が2番目に大きい山431−2が表れる。さらに、車両のヘッドライト、テールランプ、街灯、信号の光など自分で発光する被写体の画像は、画角内に占める割合が非常に小さく、かつ、周囲に比べて非常に明るいため、山431−2からさらに右側に離れた位置に、ピークの非常に小さい山431−3が表れる。   On the other hand, in the image 421, the luminance of most subjects is concentrated in a dark range. Accordingly, since the luminance values of most pixels are low and concentrate in a narrow range, in the histogram 422, the width is narrow and the peak value is large on the left side of the peak 411-1 of the histogram 402, that is, in the dark luminance range. A mountain 431-1 appears. In addition, since the road surface image illuminated by the headlight of the own vehicle has a relatively large proportion in the angle of view and is brighter than the surroundings, the peak value is at a position on the right side of the mountain 431-1. The second largest mountain 431-2 appears. Furthermore, the image of a subject that emits light such as a vehicle headlight, tail lamp, street light, or signal light occupies a very small ratio in the angle of view and is very bright compared to the surroundings. A mountain 431-3 having a very small peak appears at a position further to the right from.

図10および図11の例に示されるように、一般的に、昼間に撮像した前方画像における輝度値の分布と夜間に撮像した前方画像における輝度値の分布とを比較した場合、昼間に撮像した前方画像の方が、夜間に撮像した前方画像よりも、輝度値が、明るい範囲に集中するとともに、狭い範囲内で分布する。これは、昼間の屋外においては、太陽光が照射される範囲が広く、周囲と比較して極端に輝度が異なる領域が少ない傾向にあるからである。逆に、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、輝度値が、暗い範囲に集中するとともに、広い範囲に渡って分布する。これは、夜間の屋外においては、各種の照明の光など、周囲と比較して極端に明るい領域から、光源に照らされない暗い領域まで幅広い輝度の領域が存在する傾向にあるからである。   As shown in the examples of FIGS. 10 and 11, in general, when the distribution of luminance values in the front image captured in the daytime is compared with the distribution of luminance values in the front image captured at night, the image was captured in the daytime. In the forward image, the luminance values are concentrated in a bright range and distributed in a narrow range, compared to the forward image captured at night. This is because, in the daytime outdoors, there is a wide range in which sunlight is irradiated, and there is a tendency that there are few areas with extremely different luminance compared to the surroundings. On the contrary, in the front image captured at night, the luminance values are concentrated in a dark range and distributed over a wider range than the front image captured in the daytime. This is because, in the outdoors at night, there is a tendency that there is a wide range of brightness from an extremely bright area to a dark area not illuminated by the light source, such as various illumination lights.

また、昼間に撮像した前方画像と夜間に撮像した前方画像との明るい領域における輝度値の差よりも、暗い領域における輝度値の差の方が大きくなる。これは、夜間に撮像した前方画像の明るい領域の輝度(例えば、各種の照明光の輝度)と、昼間に撮像した前方画像の明るい領域の輝度(例えば、空の輝度)との差が、夜間に撮像した前方画像の暗い領域の輝度(例えば、光に照らされていない領域の輝度)と、昼間に撮像した前方画像の暗い領域の輝度(例えば、太陽光に照らされていない輝度)との差より小さくなる傾向にあるからである。   Further, the difference in the luminance value in the dark region is larger than the difference in the luminance value in the bright region between the front image captured in the daytime and the forward image captured in the nighttime. This is because the difference between the brightness of the bright area of the front image captured at night (for example, the brightness of various illumination lights) and the brightness of the bright area of the front image captured at daytime (for example, the brightness of the sky) The brightness of the dark area of the front image captured in the day (for example, the brightness of the area not illuminated by light) and the brightness of the dark area of the front image captured in the daytime (for example, brightness not illuminated by sunlight) This is because it tends to be smaller than the difference.

従って、前方画像内の暗い領域の輝度値を比較することにより、昼間に撮像された画像か、または、夜間に撮像された画像か、換言すれば、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。すなわち、ステップS32において算出された、前方画像内において中央値より暗い画素の輝度値の平均値を所定の閾値と比較することにより、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。   Therefore, by comparing the brightness values of the dark areas in the front image, it is an image taken in the daytime or an image taken at night, in other words, taken in the state of being irradiated with sunlight. It is possible to more accurately determine whether the image is a captured image or an image captured without being irradiated with sunlight. That is, by comparing the average value of the luminance values of pixels darker than the median value in the front image calculated in step S32 with a predetermined threshold value, the front image is captured in a state in which sunlight is irradiated. It is possible to more accurately determine whether the image is an image captured in a state where sunlight is not irradiated.

ステップS32において算出された平均値が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS34に進む。   If it is determined that the average value calculated in step S32 is equal to or greater than a predetermined threshold value, that is, if it is determined that a front image has been captured in the state of being irradiated with sunlight, the process proceeds to step S34.

ステップS34において、選択部302は、主に太陽光および太陽光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。   In step S34, the selection unit 302 selects a detection method mainly for sunlight and reflected light of sunlight. The selection unit 302 supplies information indicating the selection result to the sunlight glare detection unit 124 and the illumination light glare detection unit 125.

ステップS35において、太陽光眩しさ検出部124は、太陽光眩しさ検出処理を実行し、眩しさ検出処理は終了する。太陽光眩しさ検出処理の詳細は、図13を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。   In step S35, the sunlight glare detection unit 124 executes sunlight glare detection processing, and the glare detection processing ends. Details of the sunlight glare detection process will be described later with reference to FIG. 13. By this process, it is detected whether the current state is a dazzling state for the driver, and information indicating the detection result is displayed on the display control unit 114. And supplied to the vehicle control unit 115.

ステップS33において、平均値が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS36に進む。   In Step S33, when it is determined that the average value is less than the predetermined threshold, that is, when it is determined that the front image is captured in a state where sunlight is not irradiated, the process proceeds to Step S36.

ステップS36において、選択部302は、主に照明光および照明光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。   In step S36, the selection unit 302 selects a detection method mainly for illumination light and reflected light of illumination light. The selection unit 302 supplies information indicating the selection result to the sunlight glare detection unit 124 and the illumination light glare detection unit 125.

ステップS37において、照明光眩しさ検出部125は、照明光眩しさ検出処理を実行し、眩しさ検出処理は終了する。照明光眩しさ検出処理の詳細は、図15を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。   In step S37, the illumination light glare detection unit 125 executes an illumination light glare detection process, and the glare detection process ends. Details of the illumination light glare detection process will be described later with reference to FIG. 15. With this process, it is detected whether the current state is dazzling for the driver, and information indicating the detection result is displayed on the display control unit 114. And supplied to the vehicle control unit 115.

次に、図12を参照して、眩しさ検出処理の第2の実施の形態について説明する。   Next, a second embodiment of the glare detection process will be described with reference to FIG.

ステップS61において、上述した図9のステップS31の処理と同様に、前方画像の輝度値の中央値が検出される。   In step S61, the median value of the luminance values of the front image is detected in the same manner as in step S31 of FIG.

ステップS62において、上述した図9のステップS32の処理と同様に、中央値より輝度値が低い画素の輝度値の平均値が算出される。   In step S62, the average value of the luminance values of the pixels whose luminance value is lower than the median value is calculated in the same manner as the processing in step S32 in FIG.

ステップS63において、統計部301は、中央値より輝度値が高い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち検出した中央値より輝度値が高い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。   In step S63, the statistical unit 301 calculates an average value of the luminance values of pixels having a luminance value higher than the median value. Specifically, the statistical unit 301 calculates an average value of the luminance values of pixels having a luminance value higher than the detected median value among the pixels of the front pixels. The statistics unit 301 supplies information indicating the calculated average value to the selection unit 302.

ステップS64において、選択部302は、2つの平均値の差が所定の閾値以上であるかを判定する。   In step S64, the selection unit 302 determines whether the difference between the two average values is greater than or equal to a predetermined threshold value.

図10および図11を参照して上述したように、一般的に、夜間に撮像した前方画像の方が、昼間に撮像した画像よりも、広い範囲に渡って輝度値が分布する。すなわち、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、ステップS62およびS63において算出された2つの平均値の差が大きくなる。従って、閾値を適切に設定することにより、2つの平均値の差に基づいて、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かを正確に判定することができる。   As described above with reference to FIGS. 10 and 11, in general, the luminance value is distributed over a wider range in the front image captured at night than in the image captured in the daytime. That is, the difference between the two average values calculated in steps S62 and S63 is greater in the forward image captured at night than in the forward image captured in the daytime. Therefore, by appropriately setting the threshold, based on the difference between the two average values, the front image is an image captured in a state where sunlight is irradiated, or a state where sunlight is not irradiated It is possible to accurately determine whether the image is captured with the.

2つの平均値の差が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS65に進む。   If it is determined that the difference between the two average values is equal to or greater than the predetermined threshold value, that is, if it is determined that the front image has been captured in a state where sunlight is irradiated, the process proceeds to step S65.

ステップS65において、上述した図9のステップS34の処理と同様に、主に太陽光および太陽光の反射光を対象にした検出方法が選択される。   In step S65, similar to the processing in step S34 of FIG. 9 described above, a detection method mainly for sunlight and reflected light of sunlight is selected.

ステップS66において、上述した図9のステップS35の処理と同様に、太陽光眩しさ検出処理が実行され、眩しさ検出処理は終了する。   In step S66, similarly to the process of step S35 of FIG. 9 described above, the sunlight glare detection process is executed, and the glare detection process ends.

ステップS64において、2つの平均値の差が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS67に進む。   In step S64, when it is determined that the difference between the two average values is less than the predetermined threshold value, that is, when it is determined that the front image has been captured in a state where sunlight is not irradiated, the process proceeds to step S67. move on.

ステップS67において、上述した図9のステップS36の処理と同様に、主に照明光および照明光の反射光を対象にした検出方法が選択される。   In step S67, similar to the processing in step S36 of FIG. 9 described above, a detection method mainly for illumination light and reflected light of illumination light is selected.

ステップS68において、上述した図9のステップS37の処理と同様に、照明光眩しさ検出処理が実行され、眩しさ検出処理は終了する。   In step S68, the illumination light glare detection process is executed similarly to the process of step S37 of FIG. 9 described above, and the glare detection process ends.

なお、眩しさ検出処理の第1の実施の形態および第2の実施の形態とも、曇天または雨天などにより、昼間にも関わらず太陽光の照射量が少ない場合については、閾値を調整することにより、ステップ33またはステップS64の判定結果を調整することができる。すなわち、閾値を調整することにより、太陽光眩しさ検出処理、または、照明光眩しさ検出処理のどちらを選択するかを調整することが可能である。   In both the first and second embodiments of the glare detection process, by adjusting the threshold value when the amount of sunlight irradiation is small despite the daytime due to cloudy weather or rainy weather. The determination result in step 33 or step S64 can be adjusted. That is, by adjusting the threshold value, it is possible to adjust which of the sunlight glare detection process and the illumination light glare detection process is selected.

次に、図13のフローチャートを参照して、図9のステップS35および図12のステップS66の太陽光眩しさ検出処理の詳細を説明する。   Next, details of the sunlight glare detection process in step S35 in FIG. 9 and step S66 in FIG. 12 will be described with reference to the flowchart in FIG.

ステップS91において、トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。これにより、顔画像におけるドライバの顔の位置および形状、並びに、目の位置および形状などが検出される。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部321に供給する。   In step S91, the tracking unit 121 tracks the driver's face in the face image using a predetermined method. Accordingly, the position and shape of the driver's face in the face image, the position and shape of the eyes, and the like are detected. The tracking unit 121 supplies a face image and information indicating the tracking result of the face image to the statistics unit 321.

ステップS92において、統計部321は、ドライバの目の周辺の画像の輝度値の平均値を算出し、ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であるかを判定する。   In step S92, the statistical unit 321 calculates the average value of the luminance values of the images around the driver's eyes, and in step S93, the average value of the luminance values of the images around the driver's eyes is equal to or greater than a predetermined threshold value. Determine whether.

具体的には、統計部321は、トラッキング部121によるトラッキング結果に基づいて、例えば、図14に示されるように、顔画像から、ドライバの右目の周辺の領域441−1、および、左目の周辺の領域441−2を抽出する。統計部321は、領域441−1内の右目の部分を除く画素の輝度値の平均値、および、領域441−2内の左目の部分を除く画素の輝度値の平均値を算出する。統計部321は、算出した2つの平均値のうち少なくとも一方が所定の閾値以上であると判定した場合、すなわち、ドライバの目の周辺が所定の輝度以上に明るい場合、処理はステップS94に進む。   Specifically, based on the tracking result by the tracking unit 121, for example, the statistical unit 321 generates a region 441-1 around the right eye of the driver and a region around the left eye as shown in FIG. The region 441-2 is extracted. The statistics unit 321 calculates the average value of the luminance values of the pixels excluding the right eye portion in the region 441-1 and the average value of the luminance values of the pixels excluding the left eye portion in the region 441-2. If the statistical unit 321 determines that at least one of the two calculated average values is equal to or greater than a predetermined threshold, that is, if the periphery of the driver's eyes is brighter than the predetermined luminance, the process proceeds to step S94.

太陽光が照射されている昼間において、ドライバが眩しく感じる光は、直射日光、または、入射した太陽光が反射面によりほぼ同じ方向に反射された反射光、すなわち、太陽光の正反射光のうちいずれかがほとんどである。また、太陽光または太陽光の正反射光が人の目に射し込んだ場合、周囲の明るさに関わらず、ほとんどの人は眩しく感じる。すなわち、太陽光が照射されている昼間において、ドライバが眩しく感じている場合、一定以上の輝度の光が、ドライバの目およびその周辺に照射されていると言える。従って、太陽光が照射されている昼間においては、ドライバの目の周辺の画像の輝度値、すなわち、ドライバの目の周辺の明るさに基づいて、ほぼ正確にドライバにとって眩しい状態を検出することができる。   The light that the driver feels dazzling in the daytime when sunlight is radiated is either direct sunlight or reflected light in which the incident sunlight is reflected in almost the same direction by the reflecting surface, that is, regular reflection light of sunlight. One is almost. In addition, when sunlight or sunlight specularly reflected light enters human eyes, most people feel dazzled regardless of the surrounding brightness. That is, when the driver feels dazzling in the daytime when sunlight is radiated, it can be said that light of a certain level or higher is radiated to the driver's eyes and the vicinity thereof. Therefore, in the daytime when sunlight is radiated, it is possible to detect a dazzling state for the driver almost accurately based on the luminance value of the image around the driver's eyes, that is, the brightness around the driver's eyes. it can.

ステップS94において、状態検出部322は、ドライバにとって眩しい状態であると判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射され、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部322は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。   In step S94, the state detection unit 322 determines that the driver is in a dazzling state, and the sunlight glare detection process ends. Specifically, the state detection unit 322 irradiates the driver's eyes with direct sunlight or regular specular light of sunlight when the average value of the luminance values of the images around the driver's eyes is equal to or greater than a predetermined threshold value. It is determined that the current state is a dazzling state for the driver. The state detection unit 322 supplies information indicating that a dazzling state for the driver has been detected to the display control unit 114 and the vehicle control unit 115.

ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より暗い場合、処理はステップS95に進む。   If it is determined in step S93 that the average luminance value of the image around the driver's eyes is less than the predetermined threshold value, that is, if the periphery of the driver's eyes is darker than the predetermined luminance, the process proceeds to step S95. move on.

ステップS95において、状態検出部322は、ドライバにとって眩しい状態でないと判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射されておらず、現在の状態がドライバにとって眩しい状態ではないと判定する。状態検出部322は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。   In step S95, the state detection unit 322 determines that the driver is not in a dazzling state, and the sunlight glare detection process ends. Specifically, the state detection unit 322 irradiates the driver's eyes with direct sunlight or regular specular light of sunlight when the average value of the luminance values of the images around the driver's eyes is less than a predetermined threshold value. It is determined that the current state is not dazzling for the driver. The state detection unit 322 supplies information indicating that a dazzling state for the driver has not been detected to the display control unit 114 and the vehicle control unit 115.

なお、ステップS92において平均値の算出に用いた領域は、その一例であり、ドライバの両目を含む他の領域を用いるようにしてもよい。また、以上の説明では、領域441−1および領域441−2内の画素の輝度値の平均値を用いて、ドライバにとって眩しい状態を検出するようにしたが、例えば、輝度値の最大値、中間値など、領域内の画像の明るさを表すその他の統計値を用いるようにしてもよい。   The area used for calculating the average value in step S92 is an example, and another area including both eyes of the driver may be used. In the above description, the dazzling state for the driver is detected using the average value of the luminance values of the pixels in the region 441-1 and the region 441-2. Other statistical values representing the brightness of the image in the region, such as a value, may be used.

次に、図15のフローチャートを参照して、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の詳細を説明する。   Next, details of the illumination light glare detection process in step S37 in FIG. 9 and step S68 in FIG. 12 will be described with reference to the flowchart in FIG.

ステップS121において、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔がトラッキングされる。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122に供給する。   In step S121, the driver's face in the face image is tracked in the same manner as in step S91 in FIG. The tracking unit 121 supplies the face image and information indicating the tracking result of the face image to the gaze direction detection unit 122.

ステップS122において、視線方向検出部122は、ドライバの視線の向きを検出する。具体的には、視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング部121によるトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を視界画像抽出部341に供給する。   In step S122, the line-of-sight direction detection unit 122 detects the direction of the driver's line of sight. Specifically, the line-of-sight direction detection unit 122 detects the direction of the line of sight of the driver based on the face image and the tracking result by the tracking unit 121 using a predetermined method. The line-of-sight direction detection unit 122 supplies information indicating the detection result to the visual field image extraction unit 341.

ステップS123において、視界画像抽出部341は、視界画像を抽出する。具体的には、視界画像抽出部341は、ドライバの視線の向きに基づいて、視界画像を前方画像から抽出する。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。   In step S123, the visual field image extraction unit 341 extracts a visual field image. Specifically, the visual field image extraction unit 341 extracts a visual field image from the front image based on the direction of the driver's line of sight. The view image extraction unit 341 supplies the extracted view image to the statistics unit 342 and the state detection unit 345.

例えば、視界画像抽出部341は、前方監視カメラ112の位置とドライバの顔の位置との相対的な関係をもとに視差の補正を行って、前方画像における視線方向の中心点、換言すれば、視野の中心を求める。視界画像抽出部341は、視野の中心の周囲の所定の範囲(例えば、視野の中心を中心とする角度15度の視野の範囲)に含まれる円形の領域の画像を視界画像として抽出する。なお、視界画像の形状は、円形に限定されるものではなく、例えば、楕円形、矩形などにすることも可能である。   For example, the field-of-view image extraction unit 341 corrects parallax based on the relative relationship between the position of the front monitoring camera 112 and the position of the driver's face, in other words, the center point of the line-of-sight direction in the front image, in other words. Find the center of the field of view. The field-of-view image extraction unit 341 extracts, as a field-of-view image, an image of a circular region included in a predetermined range around the center of the field of view (for example, a field of view with an angle of 15 degrees centered on the center of the field of view). Note that the shape of the field-of-view image is not limited to a circle, and may be, for example, an ellipse or a rectangle.

なお、前方画像において、実際にはドライバの視野内において遮蔽物により遮られている領域、すなわち、ドライバの眩しさにあまり影響がない領域を視界画像から除外するようにすることが望ましい。そのような遮蔽物として、例えば、運転席周辺のダッシュボード、ドア、ピラーなどがある。また、シェードの使用を検出して、シェードにより遮られる領域を視界画像から除外することも可能である。さらに、顔画像に基づいて、ドライバがつばのついた帽子をかぶっていることを検出して、帽子のつばにより遮られる領域を視界画像から除外するようにすることも可能である。   In the front image, it is desirable to exclude from the view image an area that is actually blocked by the shield in the visual field of the driver, that is, an area that does not significantly affect the glare of the driver. Examples of such a shield include a dashboard, a door, and a pillar around the driver's seat. It is also possible to detect the use of the shade and exclude the area blocked by the shade from the view image. Furthermore, based on the face image, it is possible to detect that the driver is wearing a hat with a brim, and to exclude an area blocked by the brim of the hat from the view image.

ステップS124において、統計部342は、所定の時間前から現在までの視界画像の輝度値の平均値を算出する。統計部342は、算出した平均値を示す情報を感度推定部343に供給する。   In step S124, the statistics unit 342 calculates an average value of the luminance values of the field-of-view images from a predetermined time before to the present. The statistics unit 342 supplies information indicating the calculated average value to the sensitivity estimation unit 343.

ステップS125において、感度推定部343は、ドライバの目の感度を推定する。   In step S125, the sensitivity estimation unit 343 estimates the sensitivity of the driver's eyes.

人間の目は、周囲の明るさに対して、大きく分けて、明所視、薄明視、および、暗所視の3つの状態のいずれかに遷移する。明所視は、約10ルクスから10万ルクスの環境下で、主に錐体細胞が網膜において働いている状態であって、暗所視と比較して目の感度が低く、ものの形と色がはっきり分かる状態である。暗所視は、約0.001ルクスから0.01ルクスの環境下で、主に杆体細胞が網膜において働いている状態であって、明所視と比較して目の感度が高く、ものの明暗だけがおぼろげに見える状態である。薄明視は、約0.01ルクスから10ルクスの環境下で、錐体細胞と杆体細胞の両方が網膜において働いている状態であって、明所視と暗所視との中間の状態である。すなわち、人間の目の感度は、周囲の明るさに応じて変化する。   The human eye changes to one of three states, photopic vision, twilight vision, and scotopic vision, roughly divided with respect to ambient brightness. Photopic vision is a state in which pyramidal cells mainly work in the retina under an environment of about 10 lux to 100,000 lux, and the sensitivity and shape of the eye is lower than that of scotopic vision. Is clearly understood. Dark vision is a condition in which rod cells are mainly working in the retina in an environment of about 0.001 lux to 0.01 lux, and the sensitivity of the eyes is higher than that of photopic vision, and only the lightness and darkness of the object is blurred. It is visible. Mesopic vision is a state where both pyramidal cells and rod cells work in the retina under an environment of about 0.01 lux to 10 lux, and is an intermediate state between photopic vision and scotopic vision. That is, the sensitivity of the human eye changes according to the surrounding brightness.

また、人間の目は、周囲の明るさの変動に対して、すぐには順応できない。具体的には、人間の目は、周囲が暗い状態から明るい状態に遷移しても、暗所視から明所視になるまでに、すなわち、明るい状態に順応(明順応)するまでに、数十秒から数分を要し、周囲が明るい状態から暗い状態に遷移しても、明所視から暗所視になるまでに、すなわち、暗い状態に順応(暗順応)するまでに、約30分から2時間を要する。すなわち、同じ明るさの環境下においても、それ以前の周囲の明るさの推移に応じて、人間の目の感度は異なる。   In addition, the human eye cannot readily adapt to changes in ambient brightness. Specifically, even if the human eye transitions from a dark state to a bright state, the number of times that the human eye changes from a dark place to a bright place, that is, until it adapts to a bright state (light adaptation). It takes about 10 seconds to several minutes, and even if the surroundings transition from a bright state to a dark state, it takes about 30 until it changes from a photopic vision to a scotopic vision, that is, until it adapts to a dark state (dark adaptation). It takes 2 hours from a minute. That is, even under the same brightness environment, the sensitivity of the human eye varies depending on the surrounding brightness transition.

さらに、人間の目は、入射光に対して、ごく短時間で瞳孔の開き具合を調整することにより、目に入射する光の量を調整することができる。   Furthermore, the human eye can adjust the amount of light incident on the eye by adjusting the degree of opening of the pupil in a very short time with respect to the incident light.

感度推定部343は、以上に述べた人間の目の特性に基づいて、統計部342により算出された輝度値の平均値を用いて、ドライバの目の感度を推定する。例えば、感度推定部343は、所定の時間前(例えば、1分前)から現在までの視界画像の輝度値の平均値の推移に基づいて、すなわち、ドライバの視界の明るさの推移に基づいて、ドライバの目の状態が、明所視、薄明視、または、暗所視のいずれの状態であるかを推定することにより、ドライバの目の感度を推定する。また、上述したように、暗順応は所用時間が長いため、例えば、視界画像の輝度値の平均値が低い状態で推移している場合、さらに長い時間前(例えば、1時間前)から現在までの視界画像の輝度値の平均値、および、暗順応曲線(アウベルト関数曲線)に基づいて、さらに細かくドライバの目の感度を推定するようにしてもよい。さらに、人間の目の感度の特性は、年齢などの違いにより個人差があるため、さらに個人の違いを考慮して、ドライバの感度を推定するようにしてもよい。   The sensitivity estimation unit 343 estimates the sensitivity of the driver's eyes using the average value of the luminance values calculated by the statistics unit 342 based on the characteristics of the human eye described above. For example, the sensitivity estimation unit 343 is based on the transition of the average value of the luminance value of the visual field image from a predetermined time before (for example, one minute before), that is, based on the transition of the brightness of the driver's visual field. The driver's eye sensitivity is estimated by estimating whether the driver's eye state is photopic vision, twilight vision, or scotopic vision. Further, as described above, since dark adaptation takes a long time, for example, when the average value of the luminance value of the field-of-view image transitions to a low state, from a longer time (for example, one hour ago) to the present The sensitivity of the driver's eyes may be estimated more finely based on the average value of the luminance values of the visual field images and the dark adaptation curve (Aubert function curve). Furthermore, since the sensitivity characteristics of the human eye have individual differences due to differences such as age, the sensitivity of the driver may be estimated in consideration of individual differences.

感度推定部343は、推定したドライバの目の感度を示す情報を閾値設定部344に供給する。   The sensitivity estimation unit 343 supplies information indicating the estimated driver eye sensitivity to the threshold setting unit 344.

ステップS126において、閾値設定部344は、輝度閾値を設定する。   In step S126, the threshold setting unit 344 sets a luminance threshold.

ところで、人間は、同じ輝度の光に対しても、そのときの目の感度に応じて、眩しく感じる場合と感じない場合とがある。すなわち、人間は、同じ輝度の光に対しても、目の感度が高い場合、眩しさを感じやすく、目の感度が低い場合、眩しさを感じにくい。   By the way, humans may or may not feel dazzling even for light of the same luminance depending on the sensitivity of the eyes at that time. That is, humans can easily feel dazzling when the eye sensitivity is high, even when the light has the same luminance, and human eyes are less likely to feel dazzling when the eye sensitivity is low.

閾値設定部344は、予め設定されている変換式または変換テーブルなどを用いて、感度推定部343により推定された目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度閾値を設定する。すなわち、推定された目の感度が高い場合、輝度閾値は低い値に設定され、目の感度が低い場合、輝度閾値は高い値に設定される。閾値設定部344は、設定した閾値を示す情報を状態検出部345に供給する。   Based on the eye sensitivity estimated by the sensitivity estimation unit 343, the threshold setting unit 344 uses a conversion equation or a conversion table set in advance to determine an area estimated to be dazzling for the driver from the view image. A luminance threshold value for extraction is set. That is, when the estimated eye sensitivity is high, the brightness threshold is set to a low value, and when the eye sensitivity is low, the brightness threshold is set to a high value. The threshold setting unit 344 supplies information indicating the set threshold to the state detection unit 345.

ステップS127において、状態検出部345は、視界画像において、輝度値が輝度閾値以上となる画素が占める割合を検出する。具体的には、状態検出部345は、視界画像の各画素のうち、輝度値が輝度閾値以上となる画素を抽出する。状態検出部345は、視界画像の全画素数のうち抽出した画素の数が占める割合を検出する。   In step S127, the state detection unit 345 detects the ratio of pixels in the view field image whose luminance value is equal to or higher than the luminance threshold. Specifically, the state detection unit 345 extracts a pixel whose luminance value is equal to or higher than the luminance threshold among the pixels of the view field image. The state detection unit 345 detects the ratio of the number of extracted pixels to the total number of pixels in the view field image.

ステップS128において、状態検出部345は、検出された割合が所定の閾値以上であるかを判定する。状態検出部345は、ステップS127において検出された割合が所定の閾値以上であると判定した場合、処理はステップS129に進む。   In step S128, the state detection unit 345 determines whether the detected ratio is equal to or greater than a predetermined threshold. If the state detection unit 345 determines that the ratio detected in step S127 is greater than or equal to the predetermined threshold, the process proceeds to step S129.

ステップS129において、状態検出部345は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さ以上であり、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部345は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。   In step S129, the state detection unit 345 determines that the driver is dazzling, and the illumination light glare detection process ends. Specifically, the state detection unit 345 determines that the ratio of the bright area in the predetermined range centered on the center of the driver's field of view is the predetermined ratio when the ratio detected in step S127 is equal to or greater than the predetermined threshold. It is determined that the current state is dazzling for the driver. The state detection unit 345 supplies information indicating that a dazzling state for the driver has been detected to the display control unit 114 and the vehicle control unit 115.

ステップS128において、ステップS127において検出された割合が所定の閾値未満であると判定された場合、処理はステップS129に進む。   If it is determined in step S128 that the ratio detected in step S127 is less than the predetermined threshold, the process proceeds to step S129.

ステップS130において、状態検出部345は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さより狭く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部345は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。   In step S130, the state detection unit 345 determines that the driver is not in a dazzling state, and the illumination light glare detection process ends. Specifically, the state detection unit 345 determines that the ratio of the bright area in the predetermined range centered on the center of the driver's visual field is the predetermined ratio when the ratio detected in step S127 is less than the predetermined threshold. It is determined that the current state is not dazzling for the driver. The state detection unit 345 supplies information indicating that a dazzling state for the driver has not been detected to the display control unit 114 and the vehicle control unit 115.

次に、図16のフローチャートを参照して、図8のステップS5の眩しい状態検出時の処理の詳細を説明する。   Next, with reference to the flowchart of FIG. 16, the detail of the process at the time of the dazzling state detection of FIG.8 S5 is demonstrated.

ステップS151において、表示制御部114は、カーナビゲーション装置102に前方画像を表示させる。具体的には、表示制御部114は、前方画像の表示を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方監視カメラ112からの前方画像の取得、および、前方画像の表示を開始する。これにより、ドライバは、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。   In step S151, the display control unit 114 causes the car navigation device 102 to display a front image. Specifically, the display control unit 114 supplies information for instructing display of the front image to the car navigation device 102. The car navigation device 102 starts acquiring the front image from the front monitoring camera 112 and displaying the front image. Accordingly, the driver can surely confirm the situation in front of the vehicle that is dazzling and difficult to see.

ステップS152において、表示制御部114は、カーナビゲーション装置102の表示の設定を調整する。具体的には、表示制御部114は、例えば、画面の輝度を上げるように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度を上げる。これにより、眩しい状態においても、カーナビゲーション装置102の画面の視認性の低下が抑制され、ドライバは、画面に表示されている情報を確実に認識することができる。   In step S152, the display control unit 114 adjusts the display setting of the car navigation device 102. Specifically, the display control unit 114 supplies information for instructing to increase the brightness of the screen to the car navigation device 102, for example. The car navigation device 102 increases the brightness of the screen based on the instruction. Thereby, even in a dazzling state, a decrease in the visibility of the screen of the car navigation device 102 is suppressed, and the driver can reliably recognize the information displayed on the screen.

ステップS153において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を調整する。具体的には、表示制御部114は、ドライバにとって眩しくない位置に画像を表示するように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、指示された位置に画像の表示位置を変更する。これにより、ドライバは、ヘッドアップディスプレイ103により表示される画像を確実に認識することができる。   In step S153, the display control unit 114 adjusts the display position of the head-up display 103. Specifically, the display control unit 114 supplies the head-up display 103 with information instructing to display an image at a position that is not dazzling for the driver. The head-up display 103 changes the image display position to the instructed position. Thereby, the driver can surely recognize the image displayed by the head-up display 103.

なお、ここで、ドライバにとって眩しくない位置とは、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射しない位置である。例えば、表示制御部114は、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射する可能性が低い位置、例えば、フロントガラスの下端部などを予め設定しておき、設定された位置に画像の表示位置を移動させる。また、例えば、表示制御部114は、後述する図20の光源検出処理により検出された前方画像に写っている光源の位置に基づいて、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、その光源から発せられる光が入射しない位置に画像の表示位置を移動させる。   Here, the position that is not dazzling for the driver is a position where dazzling light is not incident on the axis connecting the image display position of the head-up display 103 and the eyes of the driver. For example, the display control unit 114 presets a position where the possibility that dazzling light is incident on the axis connecting the display position of the image of the head-up display 103 and the eyes of the driver is low, such as the lower end of the windshield. The image display position is moved to the set position. For example, the display control unit 114 connects the display position of the image of the head-up display 103 and the driver's eyes based on the position of the light source in the front image detected by the light source detection process of FIG. The display position of the image is moved to a position where the light emitted from the light source is not incident on the axis.

ステップS154において、車両制御部115は、前方監視の検知距離を延長する。具体的には、車両制御部115は、前方監視の検知距離の延長を指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、車両の前方の人、動物、障害物などの存在を検知する距離を延長する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、車両の前方を監視する範囲が広げられる。   In step S154, the vehicle control unit 115 extends the detection distance for forward monitoring. Specifically, the vehicle control unit 115 supplies information for instructing to extend the detection distance of the forward monitoring to the forward monitoring device 104. The forward monitoring device 104 extends the distance for detecting the presence of a person, an animal, an obstacle, or the like ahead of the vehicle based on the instruction. In other words, the driver's attention is reduced due to deterioration of visibility due to glare, and the range for monitoring the front of the vehicle is widened so that the safety of the occupant is not impaired even if the confirmation of the front of the vehicle is slower than normal. .

ステップS155において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを早める。具体的には、車両制御部115は、起動するタイミングを早めるように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時より早くするように自身の設定を行う。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、事故を事前に回避したり、衝突による被害を軽減させる動作がより早いタイミングで行われるようになる。   In step S155, the vehicle control unit 115 advances the timing at which the pre-crash safety system 105 is activated. Specifically, the vehicle control unit 115 supplies the pre-crash safety system 105 with information instructing to accelerate the start timing. For example, the pre-crash safety system 105 sets itself so that the timing for issuing an alarm for avoiding a collision, the timing for automatically winding the seat belt, the timing for operating the brake, and the like are made earlier than usual. In other words, even if the driver's attention is reduced due to the deterioration of visibility due to glare, and the confirmation of the front of the vehicle is slower than normal, accidents can be avoided in advance so as not to impair the safety of passengers, Actions to reduce damage will be performed at an earlier timing.

ステップS156において、車両制御部115は、車両の加速を抑制し、眩しい状態検出時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時より加速を抑制するように車両のエンジンの動作を制御する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止することができるように、車両の加速が抑制される。   In step S156, the vehicle control unit 115 suppresses the acceleration of the vehicle, and the process at the time of detecting the dazzling state ends. Specifically, the vehicle control unit 115 supplies information that instructs suppression of acceleration of the vehicle to the power control device 106. The power control device 106 controls the operation of the vehicle engine so as to suppress acceleration from normal. In other words, even if the driver's attention is reduced due to deterioration of visibility due to glare, the vehicle acceleration is suppressed so that rear-end collisions and collisions can be prevented even if the forward confirmation of the vehicle is slower than normal. Is done.

次に、図17のフローチャートを参照して、図8のステップS7の眩しい状態終了時の処理の詳細を説明する。   Next, the details of the process at the end of the dazzling state in step S7 of FIG. 8 will be described with reference to the flowchart of FIG.

ステップS171において、表示制御部114は、カーナビゲーション装置102に前方画像の表示を停止させる。具体的には、表示制御部114は、前方画像の表示の停止を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方画像の表示を停止し、平常時の表示、例えば、目的地までのルートの案内の表示を再開する。   In step S171, the display control unit 114 causes the car navigation device 102 to stop displaying the front image. Specifically, the display control unit 114 supplies information for instructing to stop displaying the front image to the car navigation device 102. The car navigation apparatus 102 stops displaying the front image and resumes normal display, for example, display of route guidance to the destination.

ステップS172において、表示制御部114は、カーナビゲーション装置102の表示の設定を元に戻す。具体的には、表示制御部114は、画面の輝度、コントラストなどを平常時の設定に戻すように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度、コントラストなどを平常時の設定に戻す。   In step S172, the display control unit 114 restores the display setting of the car navigation device 102. Specifically, the display control unit 114 supplies information that instructs the car navigation apparatus 102 to return the screen brightness, contrast, and the like to normal settings. Based on the instruction, the car navigation device 102 returns the screen brightness, contrast, and the like to normal settings.

ステップS173において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を元に戻す。具体的には、表示制御部114は、画像を表示する位置を平常時の位置に戻すように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、画像の表示位置を指示された位置、すなわち、平常時の位置に戻す。   In step S173, the display control unit 114 restores the display position of the head-up display 103. Specifically, the display control unit 114 supplies the head-up display 103 with information instructing to return the image display position to the normal position. The head-up display 103 returns the image display position to the instructed position, that is, the normal position.

ステップS174において、車両制御部115は、前方監視の検知距離を元に戻す。具体的には、車両制御部115は、前方監視の検知距離を平常時の距離に戻すように指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、前方監視の検知距離を平常時の距離に戻す。   In step S174, the vehicle control unit 115 restores the detection distance for forward monitoring. Specifically, the vehicle control unit 115 supplies information for instructing to return the detection distance of the front monitoring to the normal distance to the front monitoring device 104. The forward monitoring device 104 returns the forward monitoring detection distance to the normal distance based on the instruction.

ステップS175において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを元に戻す。具体的には、車両制御部115は、起動するタイミングを平常時に戻すように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、指示に基づいて、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時のタイミングとするように自身の設定を行う。   In step S175, the vehicle control unit 115 restores the timing at which the pre-crash safety system 105 is activated. Specifically, the vehicle control unit 115 supplies the pre-crash safety system 105 with information instructing to return the activation timing to the normal time. Based on the instructions, the pre-crash safety system 105 is configured so that, for example, the timing for issuing an alarm for avoiding a collision, the timing for automatically winding the seat belt, the timing for operating the brake, etc. Set up.

ステップS176において、車両制御部115は、車両の加速の抑制を解除し、眩しい状態終了時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制の解除を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時の加速特性となるように車両のエンジンの動作を制御する。   In step S176, the vehicle control unit 115 cancels the suppression of the acceleration of the vehicle, and the process at the end of the dazzling state ends. Specifically, the vehicle control unit 115 supplies the power control device 106 with information instructing to cancel the suppression of acceleration of the vehicle. The power control device 106 controls the operation of the engine of the vehicle so as to achieve normal acceleration characteristics.

以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の感度に基づいて輝度閾値を変化させることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御することにより、ドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。   As described above, a dazzling state for a driver can be accurately detected regardless of the type of light source. In addition, by changing the luminance threshold based on the sensitivity of the driver's eyes, it is possible to detect a dazzling state for the driver more accurately than in the case where the luminance is based only on the surrounding brightness or the luminance of the driver's face. Further, by controlling an in-vehicle device provided in the vehicle so as to perform an operation corresponding to the deterioration of the driver's field of view, a decrease in safety and convenience due to the deterioration of the driver's field of view is suppressed.

また、視界画像を抽出して、抽出した視界画像の輝度に基づいて、ドライバにとって眩しい状態であるか否かを判定するので、眩しさの原因となっている光源の方向を容易に推測することができる。さらに、視界画像を解析することにより、例えば、光源を特定し、特定した光源の種類および位置などを眩しさを軽減するための対策に活用することができる。   In addition, it is possible to easily estimate the direction of the light source that causes glare because it is determined whether the driver is dazzling based on the brightness of the extracted view image by extracting the view image. Can do. Furthermore, by analyzing the field-of-view image, for example, the light source can be identified, and the type and position of the identified light source can be used as a countermeasure for reducing glare.

次に、図18乃至図21を参照して、図1の照明光眩しさ検出部125、並びに、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の第2の実施の形態を説明する。   Next, referring to FIG. 18 to FIG. 21, the second implementation of the illumination light glare detection unit 125 of FIG. 1 and the illumination light glare detection process of step S37 of FIG. 9 and step S68 of FIG. A form is demonstrated.

図18は、図1の照明光眩しさ検出部125の第2の実施の形態を示すブロック図である。図18の照明光眩しさ検出部125は、視界画像抽出部341、光源検出部501、判定値算出部502、および、状態検出部503を含むように構成される。また、光源検出部501は、輝度変化検出部511および領域検出部512を含むように構成される。なお、図中、図7と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。   FIG. 18 is a block diagram showing a second embodiment of the illumination light glare detection unit 125 of FIG. The illumination light glare detection unit 125 of FIG. 18 is configured to include a view image extraction unit 341, a light source detection unit 501, a determination value calculation unit 502, and a state detection unit 503. The light source detection unit 501 is configured to include a luminance change detection unit 511 and a region detection unit 512. In the figure, parts corresponding to those in FIG. 7 are denoted by the same reference numerals, and description of parts having the same processing will be omitted because it will be repeated.

光源検出部501は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化に基づいて、光源が写っている前方画像の領域(以下、光源領域とも称する)を検出する。なお、光源領域には、自ら光を発する一次光源が写っている領域、および、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光が写っている領域が含まれる。   As will be described later with reference to FIG. 20, the light source detection unit 501 is based on a change in luminance value with respect to a change in the position of each pixel in the front image (hereinafter referred to as a light source region). Detected). In the light source area, the area where the primary light source emitting light is reflected, and the regular reflection light of the light from the primary light source, that is, the light from the primary light source is reflected by the reflecting surface at substantially the same angle as the incident angle. The area where the reflected light is reflected is included.

輝度変化検出部511は、前方監視カメラ112から前方画像を取得する。輝度変化検出部511は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化を検出し、検出結果を示す情報を領域検出部512に供給する。   The luminance change detection unit 511 acquires a front image from the front monitoring camera 112. As will be described later with reference to FIG. 20, the luminance change detection unit 511 detects a change in luminance value with respect to a change in the position of each pixel of the front image, and supplies information indicating the detection result to the region detection unit 512.

領域検出部512は、図20を参照して後述するように、輝度変化検出部511からの検出結果に基づいて、光源領域を検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。   As will be described later with reference to FIG. 20, the region detection unit 512 detects the light source region based on the detection result from the luminance change detection unit 511. The area detection unit 512 supplies information indicating the position of the detected light source area to the determination value calculation unit 502.

判定値算出部502は、視界画像を視界画像抽出部341から取得する。判定値算出部502は、図20を参照して後述するように、ドライバにとって眩しい状態を検出するための眩しさ判定値を算出し、算出した眩しさ判定値を示す情報を状態検出部503に供給する。   The determination value calculation unit 502 acquires a view image from the view image extraction unit 341. As will be described later with reference to FIG. 20, the determination value calculation unit 502 calculates a glare determination value for detecting a dazzling state for the driver, and sends information indicating the calculated glare determination value to the state detection unit 503. Supply.

状態検出部503は、図19を参照して後述するように、判定値算出部502により算出された眩しさ判定値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 19, the state detection unit 503 detects a dazzling state for the driver based on the dazzling determination value calculated by the determination value calculation unit 502, and controls display of information indicating the detection result. To the unit 114 and the vehicle control unit 115.

次に、図19のフローチャートを参照して、図9のステップS37の照明光眩しさ検出処理の第2の実施の形態を説明する。   Next, a second embodiment of the illumination light glare detection process in step S37 of FIG. 9 will be described with reference to the flowchart of FIG.

ステップS201において、光源検出部501は、光源検出処理を実行する。光源検出処理の詳細は、図20を参照して後述するが、この処理により、光源領域が検出され、光源領域の位置を示す情報が、領域検出部512から判定値算出部502に供給される。   In step S201, the light source detection unit 501 performs a light source detection process. The details of the light source detection processing will be described later with reference to FIG. 20, but by this processing, the light source region is detected, and information indicating the position of the light source region is supplied from the region detection unit 512 to the determination value calculation unit 502. .

ステップS202において、上述した図15のステップS122の処理と同様に、ドライバの視線の向きが検出され、ステップS203において、上述した図15のステップS123の処理と同様に、視界画像が抽出される。抽出された視界画像は、視界画像抽出部341から判定値算出部502に供給される。   In step S202, the direction of the driver's line of sight is detected in the same manner as in step S122 in FIG. 15 described above, and in step S203, a field-of-view image is extracted in the same manner as in step S123 in FIG. The extracted view field image is supplied from the view field image extraction unit 341 to the determination value calculation unit 502.

ステップS204において、判定値算出部502は、眩しさ判定値を算出する。具体的には、判定値算出部502は、視界画像において、領域検出部512により検出された光源領域内の画素を抽出する。判定値算出部502は、抽出した画素の輝度値を合計することにより、眩しさ判定値を算出する。すなわち、眩しさ判定値は、視界画像において、光源領域の面積が広いほど、かつ、光源領域内の画素の輝度値が高いほど、大きな値となる。   In step S204, the determination value calculation unit 502 calculates a dazzling determination value. Specifically, the determination value calculation unit 502 extracts pixels in the light source region detected by the region detection unit 512 in the view field image. The determination value calculation unit 502 calculates a glare determination value by summing up the luminance values of the extracted pixels. That is, the glare determination value becomes larger as the area of the light source region is larger and the luminance value of the pixel in the light source region is higher in the view image.

なお、例えば、ドライバの視野の中心に近い画素ほど大きくなるように重みを設定し、設定した重みを輝度値に乗じてから、加算することにより眩しさ判定値を求めるようにしてもよい。   Note that, for example, a weight may be set so as to increase as the pixel is closer to the center of the visual field of the driver, and the luminance value may be multiplied by the set weight and then added to obtain the glare determination value.

ステップS205において、状態検出部503は、眩しさ判定値が所定の閾値以上であるかを判定する。眩しさ判定値が所定の閾値以上であると判定された場合、処理はステップS206に進む。   In step S205, the state detection unit 503 determines whether the dazzling determination value is greater than or equal to a predetermined threshold value. If it is determined that the dazzling determination value is equal to or greater than the predetermined threshold, the process proceeds to step S206.

ステップS206において、状態検出部503は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が大きく、または、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の輝度が高く、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部503は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。   In step S206, the state detection unit 503 determines that the driver is dazzling, and the illumination light glare detection process ends. Specifically, the state detection unit 503 has a large total value of the areas of the light sources existing within a predetermined range centered on the center of the driver's field of view when the glare determination value is equal to or greater than a predetermined threshold. Or it determines with the brightness | luminance of the light source which exists in the predetermined range centering on the center of the visual field of a driver being high, and the present state is a dazzling state for a driver. The state detection unit 503 supplies information indicating that a dazzling state for the driver has been detected to the display control unit 114 and the vehicle control unit 115.

ステップS205において、眩しさ判定値が所定の閾値未満であると判定された場合、処理はステップS207に進む。   If it is determined in step S205 that the dazzling determination value is less than the predetermined threshold value, the process proceeds to step S207.

ステップS207において、状態検出部503は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が小さく、かつ、光源の輝度が低く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部503は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。   In step S207, the state detection unit 503 determines that the driver is not in a dazzling state, and the illumination light glare detection process ends. Specifically, the state detection unit 503 has a small glare determination value that is less than a predetermined threshold, and thus the total value of the areas of the light sources existing within a predetermined range centered on the center of the driver's visual field is small. In addition, it is determined that the brightness of the light source is low and the current state is not dazzling for the driver. The state detection unit 503 supplies information indicating that a dazzling state for the driver has not been detected to the display control unit 114 and the vehicle control unit 115.

次に、図20のフローチャートを参照して、図19のステップS201の光源検出処理の詳細を説明する。   Next, details of the light source detection processing in step S201 in FIG. 19 will be described with reference to the flowchart in FIG.

ステップS231において、輝度変化検出部511は、前方画像の水平方向において、輝度値が大きく変化する位置を検出する。例えば、輝度変化検出部511は、前方画像の水平方向の各行の輝度値を、左方向から右方向に見ていき、隣接する画素間の輝度値の差が所定の大きさ以上となる位置、すなわち、隣接する画素間の輝度値の変化が所定の大きさ以上となる位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。   In step S231, the luminance change detection unit 511 detects a position where the luminance value greatly changes in the horizontal direction of the front image. For example, the luminance change detection unit 511 looks at the luminance value of each row in the horizontal direction of the front image from the left direction to the right direction, and the position where the difference in luminance value between adjacent pixels is equal to or greater than a predetermined size, That is, a position where a change in luminance value between adjacent pixels is a predetermined magnitude or more is detected. The luminance change detection unit 511 supplies information indicating the detected position to the region detection unit 512.

図21の画像601は、夜間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、図21のグラフは、画像601の2つの矢印Aで挟まれた水平方向の行の輝度値の変化を示している。なお、グラフの横軸は、画素の位置を示しており、縦軸は、その位置の画素の輝度値を示している。   An image 601 in FIG. 21 schematically shows an example of a front image taken from a vehicle traveling in the suburbs at night, and the graph in FIG. 21 shows the luminance of a horizontal row sandwiched between two arrows A in the image 601. The change in value is shown. The horizontal axis of the graph indicates the position of the pixel, and the vertical axis indicates the luminance value of the pixel at that position.

図21のグラフに示されるように、画像601においては、自ら発光する光源である対向車のヘッドライト611−1,611−2の領域の輝度値が、周囲の輝度値と比較して、突出して高くなっている。従って、画像601の2つの矢印Aで挟まれた行においては、ステップS231において、ヘッドライト611−1の左端付近の位置P1および右端付近の位置P2、並びに、ヘッドライト611−2の左端付近の位置P3および右端付近の位置P4が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、ヘッドライト611−1,611−2の端部付近以外の位置では、輝度値が大きく変化しないため、隣接する画素間の輝度値の変化が所定の大きさ以上である位置は検出されない。   As shown in the graph of FIG. 21, in the image 601, the brightness value of the area of the headlights 611-1 and 611-2 of the oncoming vehicle, which is the light source that emits light, protrudes compared to the surrounding brightness value. It is high. Therefore, in the row between the two arrows A of the image 601, in step S231, the position P1 near the left end of the headlight 611-1, the position P2 near the right end, and the vicinity of the left end of the headlight 611-2. The position P3 and the position P4 near the right end are detected as positions where the change in luminance value between adjacent pixels is greater than or equal to a predetermined magnitude. In addition, since the luminance value does not change greatly at positions other than the vicinity of the ends of the headlights 611-1 and 611-2, a position where the change in luminance value between adjacent pixels is not less than a predetermined magnitude is not detected.

同様に、一般的に、夜間に撮像した前方画像においては、光源または光源からの光の正反射光の端部付近の位置が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、光源または光源からの光の正反射光の端部付近の位置以外では、隣接する画素間の輝度値の変化が所定の大きさ以上である位置はほとんど検出されない。   Similarly, in general, in the front image captured at night, the position near the edge of the light source or the specularly reflected light from the light source indicates that the change in luminance value between adjacent pixels is greater than or equal to a predetermined magnitude. It is detected as a certain position. In addition, a position where a change in luminance value between adjacent pixels is not less than a predetermined magnitude is hardly detected except for a position near the edge of the light source or the regular reflection light of the light from the light source.

ステップS232において、ステップS231の処理と同様に、輝度変化検出部511は、前方画像の垂直方向において、輝度値が大きく変化する位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。   In step S232, as in the process of step S231, the luminance change detection unit 511 detects a position where the luminance value greatly changes in the vertical direction of the front image. The luminance change detection unit 511 supplies information indicating the detected position to the region detection unit 512.

なお、輝度値が大きく変化する位置を検出する方法は、上述した方法に限定されるものではなく、例えば、水平または垂直方向の線形一次微分フィルタを用いて前方画像にフィルタ処理を施した画像を用いて検出するようにしてもよい。   Note that the method of detecting the position where the luminance value greatly changes is not limited to the above-described method. For example, an image obtained by performing filtering on the front image using a linear linear differential filter in the horizontal or vertical direction is used. You may make it detect using.

ステップS233において、領域検出部512は、光源が写っている領域を検出する。具体的には、領域検出部512は、前方画像の水平方向の各行ごとに、ステップS231において検出された位置、および、前方画像の左右の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。例えば、図21の画像601の2つの矢印Aで挟まれた行においては、画像601の左端と位置P1の間の領域、位置P1と位置P2の間の領域、位置P2と位置P3の間の領域、位置P3と位置P4の間の領域、および、位置P4と画像601の右端の間の領域のうち、隣接する領域と比較して輝度値が高い領域である、位置P1と位置P2の間の領域、および、位置P3と位置P4の間の領域に含まれる画素が抽出される。   In step S233, the region detection unit 512 detects a region where the light source is reflected. Specifically, the area detection unit 512 determines, for each horizontal line of the front image, the position detected in step S231 and the adjacent area among the areas divided by the left and right end portions of the front image. In comparison, pixels included in a region having a high luminance value are extracted. For example, in the row between the two arrows A of the image 601 in FIG. 21, the area between the left end of the image 601 and the position P1, the area between the position P1 and the position P2, and the position between the position P2 and the position P3. Among the region, the region between the position P3 and the position P4, and the region between the position P4 and the right end of the image 601, the region between the position P1 and the position P2 that has a higher luminance value than the adjacent region. And pixels included in the region and the region between the position P3 and the position P4 are extracted.

また、領域検出部512は、前方画像の垂直方向の各列ごとに、ステップS232において検出された位置、および、前方画像の上下の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。   In addition, the region detection unit 512 compares the position detected in step S232 for each column in the vertical direction of the front image and the adjacent region among the regions divided by the upper and lower ends of the front image. Thus, pixels included in the region having a high luminance value are extracted.

領域検出部512は、抽出した画素により構成される領域を、前方画像内において光源が写っている領域、すなわち、光源領域として検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。   The region detection unit 512 detects a region formed by the extracted pixels as a region where a light source is reflected in the front image, that is, a light source region. The area detection unit 512 supplies information indicating the position of the detected light source area to the determination value calculation unit 502.

以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの視界内の光源の輝度および面積を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、前方画像内において光源が写っている位置を、簡単かつ正確に検出することができる。   As described above, a dazzling state for a driver can be accurately detected regardless of the type of light source. Also, by adding the brightness and area of the light source in the driver's field of view to the detection condition, it is possible to detect a dazzling state for the driver more accurately than in the case where it is based solely on the surrounding brightness or the brightness of the driver's face. it can. Furthermore, the position where the light source is reflected in the front image can be detected easily and accurately.

なお、上述した図9の処理において、ステップS33の判定処理の結果に基づいて、太陽光眩しさ検出処理と照明光眩しさ検出処理のいずれかを選択して実行するようにしたが、ステップS35において、ステップS37の処理と異なる閾値を用いることにより、第1の実施の形態または第2の実施の形態の照明光眩しさ検出処理を行うようにしてもよい。すなわち、太陽光が照射しているか否かに基づいて、閾値を調整して、照明光眩しさ検出処理を実行することにより、ドライバにとって眩しい状態を検出するようにしてもよい。   In addition, in the process of FIG. 9 described above, either the sunlight glare detection process or the illumination light glare detection process is selected and executed based on the result of the determination process in step S33, but step S35 is performed. In this case, the illumination light glare detection process of the first embodiment or the second embodiment may be performed by using a threshold different from the process of step S37. That is, a dazzling state for the driver may be detected by adjusting the threshold value based on whether or not sunlight is radiated and executing the illumination light glare detection process.

なお、以上の説明では、図15および図19の照明光眩しさ検出処理において、車両の前方のみを対象にドライバにとって眩しい状態を検出するようにしたが、正面以外の方向、例えば、車両の左右の方向、後方などを対象に含めるようにしてもよい。この場合、追加する検出方向を撮像する撮像装置、および、追加する検出方向にドライバが向いたときのドライバの顔を撮像する撮像装置を設け、上述した処理と同様に、追加する検出方向を撮像する撮像装置により撮像した画像から視界画像を抽出したり、あるいは、光源が映っている領域を検出したりして、ドライバにとって眩しい状態を検出するようにすればよい。この場合、例えば、車両の周囲の全方位を撮像できる全方位カメラを設けるようにしてもよい。   In the above description, in the illumination light glare detection process of FIGS. 15 and 19, a dazzling state for the driver is detected only for the front of the vehicle. The direction, the rear, etc. may be included in the target. In this case, an imaging device that images the detection direction to be added and an imaging device that images the face of the driver when the driver faces the detection direction to be added are provided, and the detection direction to be added is imaged in the same manner as the above-described processing. A field-of-view image may be extracted from an image captured by the imaging device, or a region where a light source is reflected may be detected to detect a dazzling state for the driver. In this case, for example, an omnidirectional camera that can image all directions around the vehicle may be provided.

次に、図22乃至図26を参照して、本発明の第2の実施の形態について説明する。   Next, a second embodiment of the present invention will be described with reference to FIGS.

図22は、本発明の第2の実施の形態である監視システム701の構成を示すブロック図である。監視システム701は、室内監視カメラ111、眩しさ検出部711、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部711は、トラッキング部121、統計部721、基準高さ検出部722、および、状態検出部723を含むように構成される。なお、監視システム101に設けられていた前方監視カメラ112は、監視システム701の外部に設けられている。   FIG. 22 is a block diagram showing a configuration of a monitoring system 701 according to the second embodiment of this invention. The monitoring system 701 is configured to include an indoor monitoring camera 111, a glare detection unit 711, a display control unit 114, and a vehicle control unit 115. Further, the glare detection unit 711 is configured to include a tracking unit 121, a statistics unit 721, a reference height detection unit 722, and a state detection unit 723. Note that the front monitoring camera 112 provided in the monitoring system 101 is provided outside the monitoring system 701.

なお、図中、図1と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。   In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and the description of the portions having the same processing will be omitted because it is repeated.

眩しさ検出部711は、図24などを参照して後述するように、ドライバにとって眩しい状態を検出する。   The glare detection unit 711 detects a dazzling state for the driver, as will be described later with reference to FIG.

トラッキング部121は、室内監視カメラ111により撮像された顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングすることにより検出されるドライバの目の高さを示す情報を、基準高さ検出部722および状態検出部723に供給する。   The tracking unit 121 supplies the face image captured by the indoor monitoring camera 111 and information indicating the tracking result of the face image to the statistics unit 721. The tracking unit 121 supplies information indicating the eye height of the driver detected by tracking to the reference height detection unit 722 and the state detection unit 723.

図23は、目の高さを検出する位置の例を示す図である。例えば、図内の矢印Hで示される、目頭801と目尻802の間の中点Pにおける上瞼と下瞼の間の高さが、ドライバの目の高さとして検出される。なお、目の高さを検出する位置は、この例に限定されるものではなく、例えば、上瞼の下端のいちばん高い位置と下瞼の上端のいちばん低い位置との間の高さを目の高さとして検出するようにしてもよい。   FIG. 23 is a diagram illustrating an example of a position where the eye height is detected. For example, the height between the upper eyelid and the lower eyelid at the midpoint P between the eye head 801 and the eye corner 802 indicated by the arrow H in the figure is detected as the eye height of the driver. The position for detecting the eye height is not limited to this example. For example, the height between the highest position at the lower end of the upper eyelid and the lowest position at the upper end of the lower eyelid is set as the eye height. You may make it detect as height.

統計部721は、図6の統計部321と同様に、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値を算出し、算出した統計値を示す情報を基準高さ検出部722に供給する。   Similar to the statistic unit 321 in FIG. 6, the statistic unit 721 calculates the statistic value of the brightness value of the image in the region around the eyes of the driver in the face image based on the acquired tracking result, and calculates the calculated statistic value. Information to be shown is supplied to the reference height detector 722.

基準高さ検出部722は、図25を参照して後述するように、ドライバにとって眩しい状態を検出するための基準となるドライバの目の高さである基準高さを検出し、検出した基準高さを示す情報を状態検出部723に供給する。   As will be described later with reference to FIG. 25, the reference height detection unit 722 detects a reference height that is the height of the driver's eyes that serves as a reference for detecting a dazzling state for the driver, and detects the detected reference height. Information indicating this is supplied to the state detection unit 723.

状態検出部723は、図26を参照して後述するように、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値、および、トラッキング部121により検出されたドライバの目の高さと基準高さとの比較結果に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。   As will be described later with reference to FIG. 26, the state detection unit 723 includes the statistical value of the luminance value of the image in the area around the driver's eyes in the face image, and the height of the driver's eyes detected by the tracking unit 121. Based on the comparison result between the height and the reference height, a dazzling state for the driver is detected, and information indicating the detection result is supplied to the display control unit 114 and the vehicle control unit 115.

次に、図24乃至図26を参照して、監視システム701の処理を説明する。   Next, processing of the monitoring system 701 will be described with reference to FIGS.

まず、図24を参照して、監視システム701により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム701が設けられている車両のエンジンが始動されたとき開始される。   First, the in-vehicle device control process executed by the monitoring system 701 will be described with reference to FIG. This process is started, for example, when an engine of a vehicle provided with the monitoring system 701 is started.

ステップS301において、図8のステップS1の処理と同様に、ドライバの顔の撮像が開始される。   In step S301, imaging of the driver's face is started in the same manner as in step S1 of FIG.

ステップS302において、眩しさ検出部711は、基準高さ検出処理を実行する。基準高さ検出処理の詳細は、図25を参照して後述するが、この処理により、ドライバの目の基準高さが検出される。   In step S302, the glare detection unit 711 executes a reference height detection process. Details of the reference height detection process will be described later with reference to FIG. 25, and the reference height of the driver's eyes is detected by this process.

ステップS303において、眩しさ検出部711は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図26を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。   In step S303, the glare detection unit 711 executes a glare detection process. The details of the glare detection process will be described later with reference to FIG. 26, but this process detects a dazzling state for the driver.

ステップS304乃至S308の処理は、図8のステップS4乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S304 to S308 is the same as the processing in steps S4 to S8 in FIG.

次に、図25のフローチャートを参照して、図24のステップS302の基準高さ検出処理の詳細を説明する。   Next, details of the reference height detection process in step S302 in FIG. 24 will be described with reference to the flowchart in FIG.

ステップS331において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを基準高さ検出部722に供給する。   In step S331, the tracking unit 121 tracks the driver's face in the face image in the same manner as in step S91 of FIG. The tracking unit 121 supplies a face image and information indicating the tracking result of the face image to the statistics unit 721. In addition, the tracking unit 121 supplies data indicating the eye height of the driver detected by performing tracking to the reference height detection unit 722.

ステップS332において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を基準高さ検出部722に供給する。   In step S332, the statistical unit 721 calculates the average value of the luminance values of the images around the driver's eyes in the same manner as the processing performed by the statistical unit 321 in step S92 of FIG. The statistics unit 721 supplies information indicating the calculated average value to the reference height detection unit 722.

ステップS333において、基準高さ検出部722は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であるかを判定する。統計部721により算出された輝度値の平均値が所定の閾値以上であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より明るい場合、処理はステップS331に戻る。その後、ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定されるまで、ステップS331乃至S333の処理が繰り返し実行される。   In step S333, the reference height detection unit 722 determines whether the average luminance value of the images around the driver's eyes is less than a predetermined threshold. If it is determined that the average value of the luminance values calculated by the statistical unit 721 is greater than or equal to a predetermined threshold, that is, if the periphery of the driver's eyes is brighter than the predetermined luminance, the process returns to step S331. Thereafter, the processing in steps S331 to S333 is repeatedly executed until it is determined in step S333 that the average value of the luminance values of the images around the driver's eyes is less than a predetermined threshold value.

ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、処理はステップS334に進む。   If it is determined in step S333 that the average luminance value of the image around the driver's eyes is less than the predetermined threshold, the process proceeds to step S334.

ステップS334において、基準高さ検出部722は、データを蓄積する。具体的には、基準高さ検出部722は、直前のステップS331において検出されたドライバの目の高さ、すなわち、ドライバの目の周辺が所定の輝度より暗い状態のときのドライバの目の高さを示すデータを、内部の図示せぬ記憶部に蓄積する。   In step S334, the reference height detection unit 722 accumulates data. Specifically, the reference height detection unit 722 determines the height of the driver's eyes detected in the immediately preceding step S331, that is, the height of the driver's eyes when the periphery of the driver's eyes is darker than a predetermined luminance. This data is stored in an internal storage unit (not shown).

ステップS335において、基準高さ検出部722は、所定の量のデータが蓄積されたかを判定する。所定の量のデータが蓄積されていないと判定された場合、処理はステップS331に戻り、その後、ステップS335において、所定の量のデータが蓄積されたと判定されるまで、ステップS331乃至S335の処理が繰り返し実行される。   In step S335, the reference height detection unit 722 determines whether a predetermined amount of data has been accumulated. If it is determined that the predetermined amount of data has not been accumulated, the process returns to step S331, and then, in step S335, the processes of steps S331 to S335 are performed until it is determined that the predetermined amount of data has been accumulated. It is executed repeatedly.

ステップS335において、所定の量のデータが蓄積されたと判定された場合、すなわち、ドライバの目の高さを示すデータが所定の量だけ蓄積された場合、処理はステップS336に進む。   If it is determined in step S335 that a predetermined amount of data has been accumulated, that is, if a predetermined amount of data indicating the eye height of the driver has been accumulated, the process proceeds to step S336.

ステップS336において、基準高さ検出部722は、基準高さを検出し、基準高さ検出処理は終了する。具体的には、基準高さ検出部722は、蓄積されたデータにおける、ドライバの目の高さの平均値を算出し、基準高さとする。すなわち、基準高さは、ドライバの目の周辺があまり明るくない状態、すなわち、ドライバにとってあまり眩しくない状態における目の高さの平均値とされる。   In step S336, the reference height detection unit 722 detects the reference height, and the reference height detection process ends. Specifically, the reference height detection unit 722 calculates an average value of the driver's eye height in the accumulated data and sets it as the reference height. That is, the reference height is an average value of eye height in a state where the periphery of the driver's eyes is not very bright, that is, in a state where the driver is not so dazzling.

なお、このとき、瞬きなどにより目の大きさが変化しているときのデータを除くために、最大値および最小値付近のデータを除外して、平均値を算出するようにしてもよい。   At this time, in order to exclude data when the size of the eye is changed due to blinking or the like, the average value may be calculated by excluding data near the maximum value and the minimum value.

次に、図26のフローチャートを参照して、図24のステップS303の眩しさ検出処理の詳細を説明する。   Next, details of the glare detection process in step S303 in FIG. 24 will be described with reference to the flowchart in FIG.

ステップS361において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。   In step S361, the tracking unit 121 tracks the driver's face in the face image in the same manner as the process in step S91 of FIG. The tracking unit 121 supplies a face image and information indicating the tracking result of the face image to the statistics unit 721. In addition, the tracking unit 121 supplies data indicating the eye height of the driver detected by performing tracking to the state detection unit 723.

ステップS362において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を状態検出部723に供給する。   In step S362, the statistical unit 721 calculates the average value of the luminance values of the images around the driver's eyes in the same manner as the processing by the statistical unit 321 in step S92 of FIG. 13 described above. The statistics unit 721 supplies information indicating the calculated average value to the state detection unit 723.

ステップS363において、状態検出部723は、直前の処理において、ドライバにとって眩しい状態であったかを判定する。直前に実行した眩しさ検出処理において、ドライバにとって眩しい状態でなかったと判定された場合、処理はステップS364に進む。   In step S363, the state detection unit 723 determines whether the driver is dazzling in the previous process. If it is determined in the glare detection process executed immediately before that the driver is not in a dazzling state, the process proceeds to step S364.

ステップS364において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化した場合、処理はステップS365に進む。   In step S364, the state detection unit 723 determines whether the average luminance value of the image around the driver's eyes has changed in a direction higher than a predetermined threshold. Processing is performed when it is determined that the average value of the luminance values of the images around the driver's eyes has changed in a direction higher than a predetermined threshold, that is, when the luminance around the driver's eyes has changed brightly by a predetermined value or more. Advances to step S365.

ステップS365において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内であるかを判定する。ドライバの目の高さが、基準高さの所定の割合(例えば、60%)の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている場合、処理はステップS366に進む。   In step S365, the state detection unit 723 determines whether the eye height of the driver is within a predetermined ratio range of the reference height. If it is determined that the driver's eye height is within a predetermined percentage of the reference height (for example, 60%), that is, the driver narrows his eyes to a predetermined percentage of the reference height. If yes, the process proceeds to step S366.

ステップS366において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したかを判定する。ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、まだ所定の時間(例えば、1秒間)継続していないと判定された場合、処理はステップS367に進む。   In step S366, the state detection unit 723 determines whether or not the state in which the eye height of the driver is within a predetermined ratio range of the reference height has continued for a predetermined time. If it is determined that the state in which the driver's eye height is within the predetermined ratio range of the reference height has not yet continued for a predetermined time (for example, 1 second), the process proceeds to step S367.

ステップS367において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。   In step S367, the tracking unit 121 tracks the driver's face in the face image in the same manner as in step S91 in FIG. In addition, the tracking unit 121 supplies data indicating the eye height of the driver detected by performing tracking to the state detection unit 723.

その後、処理はステップS365に戻り、ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定されるか、ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定されるまで、ステップS365乃至S367の処理が繰り返し実行される。   Thereafter, the process returns to step S365, and it is determined in step S365 that the driver's eye height exceeds a predetermined range of the reference height, or in step S366, the driver's eye height is The processes in steps S365 to S367 are repeatedly executed until it is determined that the state within the predetermined ratio range of the reference height has continued for a predetermined time.

ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が所定の時間継続した場合、処理はステップS368に進む。   If it is determined in step S366 that the eye height of the driver is within a predetermined ratio range of the reference height, it is determined that the state has continued for a predetermined time, that is, up to a predetermined ratio range of the reference height. If the driver is narrowing his eyes for a predetermined time, the process proceeds to step S368.

ステップS368において、状態検出部723は、ドライバにとって眩しい状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化し、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したことをもって、眩しさを避けるためにドライバが目を細めており、ドライバにとって眩しくない状態から眩しい状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しい状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。   In step S368, the state detection unit 723 determines that the state has shifted to a dazzling state for the driver, and the dazzling detection process ends. Specifically, the state detection unit 723 changes the average value of the luminance values of the images around the driver's eyes in a direction higher than a predetermined threshold, and the driver's eye height is a predetermined ratio of the reference height. It is determined that the state in the range has continued for a predetermined time, the driver has narrowed his eyes to avoid glare, and the driver has transitioned from a state not dazzling to a dazzling state. The state detection unit 723 supplies information indicating that the state has changed to a dazzling state for the driver to the display control unit 114 and the vehicle control unit 115.

ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。   In step S365, when it is determined that the eye height of the driver exceeds the predetermined ratio range of the reference height, it is not determined that the driver has shifted to a dazzling state, and the glare detection process ends. To do.

ステップS364において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化していないと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化していない場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。   In step S364, when it is determined that the average value of the luminance values of the images around the driver's eyes has not changed in a higher direction than the predetermined threshold, that is, the luminance around the driver's eyes is equal to or higher than the predetermined value. When it is not changing brightly, it is not determined that the driver has shifted to a dazzling state, and the dazzling detection process ends.

ステップS363において、直前の眩しさ検出処理において、ドライバにとって眩しい状態であったと判定された場合、処理はステップS369に進む。   In step S363, if it is determined in the previous glare detection process that the driver is dazzling, the process proceeds to step S369.

ステップS369において、ステップS365の処理と同様に、ドライバの目の高さが基準高さの所定の割合の範囲内であるかが判定される。ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていない場合、処理はステップS370に進む。   In step S369, as in the process of step S365, it is determined whether the eye height of the driver is within a predetermined ratio range of the reference height. If it is determined that the eye height of the driver exceeds the range of a predetermined ratio of the reference height, that is, if the driver has not narrowed the eye to the range of the predetermined ratio of the reference height, the process is Proceed to step S370.

ステップS370において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であるかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であると判定した場合、すなわち、ドライバの目の周辺の輝度が所定の輝度より暗い場合、処理はステップS371に進む。   In step S370, the state detection unit 723 determines whether the average luminance value of the image around the driver's eyes is equal to or less than a predetermined threshold value. If it is determined that the average value of the luminance values of the images around the driver's eyes is equal to or less than the predetermined threshold value, that is, if the luminance around the driver's eyes is darker than the predetermined luminance, the process proceeds to step S371.

ステップS371において、状態検出部723は、ドライバにとって眩しくない状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲を超えており、かつ、ドライバの目の周辺の輝度が所定の輝度より暗いことをもって、ドライバにとって眩しい状態から眩しくない状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しくない状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。   In step S371, the state detection unit 723 determines that the state has changed to a state that is not dazzling for the driver, and the dazzling detection processing ends. Specifically, the state detection unit 723 has the driver's eye height exceeding a predetermined ratio range of the reference height, and the luminance around the driver's eye is darker than the predetermined luminance. It is determined that the driver has transitioned from a dazzling state to a non-dazzling state. The state detection unit 723 supplies the display control unit 114 and the vehicle control unit 115 with information indicating a transition to a state that is not dazzling for the driver.

ステップS370において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値より大きいと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていないが、ドライバの目の周辺の輝度が所定の輝度より明るい場合、ステップS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。   If it is determined in step S370 that the average value of the luminance values of the images around the driver's eyes is greater than a predetermined threshold, that is, the driver has not narrowed his eyes to a predetermined percentage range of the reference height. However, if the luminance around the driver's eyes is brighter than the predetermined luminance, the process of step S371 is skipped, and it is not determined that the driver has transitioned to a non-glare state, and the glare detection process ends.

ステップS369において、ドライバの目の高さが基準高さの所定の割合の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が継続している場合、ステップS370およびS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。   When it is determined in step S369 that the driver's eye height is within a predetermined ratio range of the reference height, that is, the driver is narrowing his eyes to a predetermined ratio range of the reference height. Is continued, the processes of steps S370 and S371 are skipped, and it is not determined that the driver has shifted to a state that is not dazzling, and the glare detection process ends.

以上のようにして、ドライバの顔画像のみを用いて、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の高さおよびドライバの目の周囲の輝度を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。また、基準高さをドライバごとに検出することにより、個々のドライバに応じた眩しい状態を検出することができる。   As described above, using only the driver's face image, a dazzling state for the driver can be accurately detected regardless of the type of light source. In addition, by adding the height of the driver's eyes and the brightness around the driver's eyes to the detection condition, the dazzling state for the driver can be more accurately compared to the case based solely on the surrounding brightness and the brightness of the driver's face. Can be detected. Moreover, the dazzling state according to each driver can be detected by detecting the reference height for each driver.

なお、ドライバの顔の輝度を考慮せずに、ドライバの目の高さのみに基づいて、ドライバにとって眩しい状態を検出するようにすることも可能である。   It is also possible to detect a dazzling state for the driver based on only the eye height of the driver without considering the brightness of the driver's face.

なお、以上の説明では、カーナビゲーション装置102に前方画像を表示させたり、カーナビゲーション装置の表示の設定を調整する例を示したが、カーナビゲーション装置102以外の車両に設けられている表示装置に前方画像を表示させたり、表示装置の表示の設定を調整するようにしてもよい。   In the above description, an example is shown in which a front image is displayed on the car navigation device 102 or display settings of the car navigation device are adjusted. However, the display device provided in a vehicle other than the car navigation device 102 A front image may be displayed, or display settings of the display device may be adjusted.

また、前方監視カメラ112に広角レンズを用いたり、前方監視カメラ112を複数台設けることにより、より広い範囲の前方画像から視界画像を抽出することが可能となり、より正確にドライバにとって眩しい状態を検出することができる。   In addition, by using a wide-angle lens for the front monitoring camera 112 or providing a plurality of front monitoring cameras 112, it becomes possible to extract a field of view image from a wider range of front images, and more accurately detect a dazzling state for the driver. can do.

さらに、ドアミラー、ルームミラーなどのミラーにより反射された光がドライバの顔に照射され、眩しさに影響を与えることを考慮して、車両の後方を撮像する後方監視カメラを設けて、ミラーによりドライバの視界に入る範囲の画像を後方監視カメラにより撮像された画像から抽出する。そして、前方画像において、実際にはドライバにはミラーが見えている領域を、抽出した画像に置き換えた後、視界画像を抽出するようにしてもよい。これにより、ミラーの影響を考慮して、ドライバにとって眩しい状態を検出することができる。   Furthermore, taking into account that light reflected by mirrors such as door mirrors and rearview mirrors is applied to the driver's face and affects glare, a rear surveillance camera that captures the rear of the vehicle is provided, and the driver is driven by the mirror. An image in a range that falls within the field of view is extracted from the image captured by the rear monitoring camera. Then, in the front image, the area where the mirror is actually visible to the driver may be replaced with the extracted image, and then the view field image may be extracted. Thereby, the dazzling state for the driver can be detected in consideration of the influence of the mirror.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図27は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ900の構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。   FIG. 27 is a block diagram showing an example of the configuration of a personal computer 900 that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 901 executes various processes according to a program stored in a ROM (Read Only Memory) 902 or a recording unit 908. A RAM (Random Access Memory) 903 appropriately stores programs executed by the CPU 901, data, and the like. The CPU 901, ROM 902, and RAM 903 are connected to each other by a bus 904.

CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。   An input / output interface 905 is also connected to the CPU 901 via the bus 904. The input / output interface 905 is connected to an input unit 906 made up of a keyboard, mouse, microphone, etc., and an output unit 907 made up of a display, a speaker, etc. The CPU 901 executes various processes in response to a command input from the input unit 906. Then, the CPU 901 outputs the processing result to the output unit 907.

入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 908 connected to the input / output interface 905 includes, for example, a hard disk, and stores programs executed by the CPU 901 and various data. A communication unit 909 communicates with an external device via a network such as the Internet or a local area network.

また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。   Further, the program may be acquired via the communication unit 909 and stored in the recording unit 908.

入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。   A drive 910 connected to the input / output interface 905 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the recording unit 908 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図27に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 27, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 911 which is a package medium composed of a semiconductor memory, a ROM 902 in which a program is temporarily or permanently stored, and a recording unit 908 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 909 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した監視システムの一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of the monitoring system to which this invention is applied. 図1の室内監視カメラおよび前方監視カメラの設置位置の例を模式的に示す図である。It is a figure which shows typically the example of the installation position of the indoor surveillance camera of FIG. 1, and a front surveillance camera. 図1の室内監視カメラおよび前方監視カメラの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the indoor surveillance camera of FIG. 1, and a front surveillance camera. 対数変換型撮像素子などの感度特性を示すグラフである。It is a graph which shows sensitivity characteristics, such as a logarithm conversion type image sensor. 図1の検出方法選択部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the detection method selection part of FIG. 図1の太陽光眩しさ検出部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the sunlight glare detection part of FIG. 図1の照明光眩しさ検出部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the illumination light glare detection part of FIG. 図1の監視システムにより実行される車載装置制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle equipment control process performed by the monitoring system of FIG. 図8のステップS3の眩しさ検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the glare detection process of FIG.8 S3. 昼間に撮像した前方画像および輝度値の分布の例を示す図である。It is a figure which shows the example of the distribution of the front image and luminance value which were imaged in the daytime. 夜間に撮像した前方画像および輝度値の分布の例を示す図である。It is a figure which shows the example of the front image imaged at night, and the distribution of a luminance value. 図8のステップS3の眩しさ検出処理の第2の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of the glare detection process of FIG.8 S3. 図9のステップS35および図12のステップS66の太陽光眩しさ検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the sunlight glare detection process of FIG.9 S35 and FIG.12 S66. 輝度の平均値を検出する領域の例を示す図である。It is a figure which shows the example of the area | region which detects the average value of a brightness | luminance. 図9のステップS37および図12のステップS68の照明光眩しさ検出処理の詳細を説明するためのフローチャートである。13 is a flowchart for explaining details of illumination light glare detection processing in step S37 of FIG. 9 and step S68 of FIG. 図8のステップS5の眩しい状態検出時の処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the process at the time of the dazzling state detection of FIG.8 S5. 図8のステップS7の眩しい状態終了時の処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the process at the time of the dazzling state completion | finish of step S7 of FIG. 図1の照明光眩しさ検出部の第2の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of the illumination light glare detection part of FIG. 図9のステップS37および図12のステップS68の照明光眩しさ検出処理の第2の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of the illumination light glare detection process of FIG.9 S37 and FIG.12 S68. 図19のステップS201の光源検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the light source detection process of step S201 of FIG. 夜間に撮像した前方画像および輝度値の分布の例を示す図である。It is a figure which shows the example of the front image imaged at night, and the distribution of a luminance value. 本発明を適用した監視システムの第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the monitoring system to which this invention is applied. 目の高さを検出する位置の例を示す図である。It is a figure which shows the example of the position which detects the height of eyes. 図22の監視システムにより実行される実行される車載装置制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle-mounted apparatus control process performed by the monitoring system of FIG. 図24のステップS302の基準高さ検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the reference | standard height detection process of step S302 of FIG. 図24のステップS303の眩しさ検出処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the glare detection process of step S303 of FIG. パーソナルコンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a personal computer.

符号の説明Explanation of symbols

101 監視システム
102 カーナビゲーション装置
103 ヘッドアップディスプレイ
104 前方監視装置
105 プリクラッシュセーフティシステム
106 動力制御部
111 室内監視カメラ
112 前方監視カメラ
113 眩しさ検出部
114 表示制御部
115 車両制御部
121 トラッキング部
122 視線方向検出部
123 検出方法選択部
124 太陽光眩しさ検出部
125 照明光眩しさ検出部
202 対数変換型撮像素子
301 統計部
302 選択部
321 統計部
322 状態検出部
341 視界画像抽出部
342 統計部
343 感度推定部
344 閾値設定部
345 状態検出部
501 光源検出部
502 判定値算出部
503 状態検出部
511 輝度変化検出部
512 領域検出部
701 監視システム
711 眩しさ検出部
721 統計部
722 基準高さ検出部
723 状態検出部
DESCRIPTION OF SYMBOLS 101 Monitoring system 102 Car navigation apparatus 103 Head-up display 104 Front monitoring apparatus 105 Pre-crash safety system 106 Power control part 111 Indoor monitoring camera 112 Front monitoring camera 113 Dazzle detection part 114 Display control part 115 Vehicle control part 121 Tracking part 122 Line of sight Direction detection unit 123 Detection method selection unit 124 Sunlight glare detection unit 125 Illumination light glare detection unit 202 Logarithmic conversion type imaging device 301 Statistics unit 302 Selection unit 321 Statistics unit 322 State detection unit 341 View image extraction unit 342 Statistics unit 343 Sensitivity estimation unit 344 Threshold setting unit 345 State detection unit 501 Light source detection unit 502 Determination value calculation unit 503 State detection unit 511 Brightness change detection unit 512 Area detection unit 701 Monitoring system 711 Dazzle detection 721 Statistics 722 reference height detecting unit 723 state detector

Claims (17)

ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像から前記ドライバの視野の中心を含む所定の範囲の領域画像である視界画像を抽出する視界画像抽出手段と、
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段と
を含む監視装置。
A visual field image extracting means for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image of the front of the vehicle based on the direction of the driver's line of sight;
And a first state detection unit that detects whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
前記ドライバの顔を撮像した画像である顔画像における前記ドライバの目の周辺の領域の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する第2の状態検出手段と、
前記前方画像の輝度に基づいて、前記第1の状態検出手段および前記第2の状態検出手段のうちどちらを用いるかを選択する選択手段と
をさらに含む請求項1に記載の監視装置。
Second state detecting means for detecting whether or not intense light is emitted to the eyes of the driver based on the brightness of the area around the eyes of the driver in the face image that is an image of the face of the driver When,
The front image based on the luminance of the monitoring device of claim 1, further comprising a selecting means for selecting whether to use either one of the first state detection means and said second state detection means.
前記第1の状態検出手段は、前記視界画像において、輝度が所定の閾値以上である画素が占める割合に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する
請求項1に記載の監視装置。
The first state detection unit detects whether or not strong light is emitted to the eyes of the driver based on a ratio of pixels having luminance equal to or higher than a predetermined threshold in the visual field image. The monitoring device described in 1.
所定の時間前から現在までの前記視界画像の輝度に基づいて、前記ドライバの目の感度を推定する感度推定手段と、
推定された前記ドライバの感度に基づいて、前記閾値を設定する閾値設定手段と
をさらに含む請求項に記載の監視装置。
Sensitivity estimation means for estimating the sensitivity of the eyes of the driver based on the brightness of the field-of-view image from a predetermined time to the present;
The monitoring apparatus according to claim 3 , further comprising: a threshold setting unit that sets the threshold based on the estimated sensitivity of the driver.
前記前方画像において、輝度が大きく変化する位置である変化位置を検出する位置検出手段と、
前記変化位置および前記前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段と
をさらに含み
前記第1の状態検出手段は、前記視界画像の各画素のうち、前記光源領域に含まれる画素の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する
請求項1に記載の監視装置。
In the front image, position detecting means for detecting a change position that is a position where the luminance changes greatly,
A region detecting means for detecting, as a light source region, a region constituted by pixels included in a region having a higher brightness than an adjacent region among regions divided by the change position and an edge of the front image; In addition ,
Said first state detection means, among the pixels of the field image, the claims based on the brightness of the pixels included in the light source region, strong light to the eye of the driver to detect whether it is illuminated The monitoring apparatus according to 1.
前記位置検出手段は、前記前方画像の水平方向の行および垂直方向の列ごとに、隣接する画素間の輝度の変化が所定の大きさ以上となる位置を前記変化位置として検出する
請求項に記載の監視装置。
It said position detecting means, for each column of horizontal rows and vertical direction of the front image, to claim 5 for detecting the position where the change in brightness between adjacent pixels is equal to or greater than the predetermined size as the change positions The monitoring device described.
前記ドライバの顔を撮像した画像である顔画像に基づいて、前記ドライバの視線の向きを検出する視線方向検出手段を
さらに含む請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, further comprising a gaze direction detection unit that detects a gaze direction of the driver based on a face image that is an image of the driver's face.
前記ドライバの目に強い光が照射されている状態が検出された場合、前記ドライバの視界の悪化に対応した動作を行うように前記車両に設けられている車載装置を制御する車載装置制御手段を
さらに含む請求項1に記載の監視装置。
On-vehicle device control means for controlling an on-vehicle device provided in the vehicle so as to perform an operation corresponding to a deterioration in the visibility of the driver when a state in which strong light is irradiated to the driver's eyes is detected. The monitoring device according to claim 1, further comprising:
前記車載装置制御手段は、前記前方画像を表示させるように前記車載装置としての表示装置を制御する
請求項8に記載の監視装置。
The in-vehicle device control unit, the monitoring device according to claim 8 for controlling the display device as the vehicle device so as to display the front image.
前記車載装置制御手段は、画面の輝度を上げるように前記車載装置としての表示装置を制御する
請求項8に記載の監視装置。
The monitoring device according to claim 8, wherein the in-vehicle device control unit controls the display device as the in-vehicle device so as to increase a screen brightness.
前記車載装置制御手段は、画像を表示する位置を変更するように前記車載装置としてのヘッドアップディスプレイを制御する
請求項8に記載の監視装置。
The monitoring device according to claim 8, wherein the in-vehicle device control unit controls a head-up display as the in-vehicle device so as to change a position for displaying an image.
前記車載装置制御手段は、前記車両の前方を監視する距離を延長するように、前記車両の前方を監視する前記車載装置である前方監視装置を制御する
請求項8に記載の監視装置。
The monitoring device according to claim 8, wherein the in-vehicle device control means controls the front monitoring device that is the in-vehicle device that monitors the front of the vehicle so as to extend a distance for monitoring the front of the vehicle.
前記車載装置制御手段は、事故を事前に回避したり、衝突による被害を軽減させる動作を行う前記車載装置であるプリクラッシュセーフティシステムが起動するタイミングを早めるように前記プリクラッシュセーフティシステムを制御する
請求項8に記載の監視装置。
The vehicle-mounted device control means controls the pre-crash safety system so as to advance the timing of starting the pre-crash safety system, which is the vehicle-mounted device that performs an operation for avoiding an accident in advance or reducing damage caused by a collision. Item 9. The monitoring device according to Item 8.
前記車載装置制御手段は、前記車両の加速を抑制するように、前記車両のエンジンの動作を制御する前記車載装置である動力制御装置を制御する
請求項8に記載の監視装置。
The monitoring device according to claim 8, wherein the in-vehicle device control unit controls a power control device that is the in-vehicle device that controls operation of an engine of the vehicle so as to suppress acceleration of the vehicle.
ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像から前記ドライバの視野の中心を含む所定の範囲の領域画像である視界画像を抽出する視界画像抽出ステップと、
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
を含む監視方法。
A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image obtained by imaging the front of the vehicle based on the direction of the line of sight of the driver;
A state detecting step of detecting whether or not intense light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像から前記ドライバの視野の中心を含む所定の範囲の領域画像である視界画像を抽出する視界画像抽出ステップと、
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
を含む処理をコンピュータに実行させるプログラム。
A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image obtained by imaging the front of the vehicle based on the direction of the line of sight of the driver;
A program that causes a computer to execute processing including: a state detection step of detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
請求項16に記載のプログラムを記録した記録媒体。   A recording medium on which the program according to claim 16 is recorded.
JP2007067173A 2006-03-15 2007-03-15 Monitoring device and method, recording medium, and program Active JP4910802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007067173A JP4910802B2 (en) 2006-03-15 2007-03-15 Monitoring device and method, recording medium, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006071678 2006-03-15
JP2006071678 2006-03-15
JP2007067173A JP4910802B2 (en) 2006-03-15 2007-03-15 Monitoring device and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2007276766A JP2007276766A (en) 2007-10-25
JP4910802B2 true JP4910802B2 (en) 2012-04-04

Family

ID=38678665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007067173A Active JP4910802B2 (en) 2006-03-15 2007-03-15 Monitoring device and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4910802B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796491B2 (en) 2004-09-29 2010-09-14 Panasonic Corporation Wavelength plate, optical element, and optical pickup
JP4939374B2 (en) * 2007-11-06 2012-05-23 アイシン精機株式会社 VISION VISION SUPPORT DEVICE AND VEHICLE VISUAL SUPPORT METHOD
JP5071198B2 (en) * 2008-03-28 2012-11-14 富士通株式会社 Signal recognition device, signal recognition method, and signal recognition program
JP2009257815A (en) * 2008-04-14 2009-11-05 Calsonic Kansei Corp Meter brightness adjusting system
JP5802926B2 (en) * 2011-02-04 2015-11-04 富士重工業株式会社 Luminance control device for in-vehicle display device, luminance control program, and luminance control method
JP2012240530A (en) * 2011-05-18 2012-12-10 Koito Mfg Co Ltd Image processing apparatus
JP2014201197A (en) * 2013-04-04 2014-10-27 トヨタ自動車株式会社 Head-up display apparatus
US10110859B2 (en) 2013-06-11 2018-10-23 Koninklijke Philips N.V. System, method and device for monitoring light and sound impact on a person
JPWO2015025350A1 (en) * 2013-08-19 2017-03-02 三菱電機株式会社 In-vehicle display controller
JP6175589B2 (en) * 2015-03-19 2017-08-02 富士フイルム株式会社 Projection display apparatus and projection display method
JP6312647B2 (en) * 2015-11-13 2018-04-18 オートリブ ディベロップメント エービー Danger avoidance device and computer program
KR102578679B1 (en) * 2016-01-11 2023-09-13 엘지전자 주식회사 Head-up display apparatus and control method for the same
JP6272375B2 (en) * 2016-03-18 2018-01-31 株式会社Subaru Display control device for vehicle
DE112016007057T5 (en) * 2016-07-12 2019-03-28 Honda Motor Co., Ltd. DRIVING ASSISTANCE DEVICE
JP6983057B2 (en) * 2017-12-22 2021-12-17 コイト電工株式会社 Glare measuring device and glare measuring method
JP7073769B2 (en) * 2018-02-14 2022-05-24 いすゞ自動車株式会社 Driving support system and driving support method
JP7314007B2 (en) * 2019-09-27 2023-07-25 株式会社デンソーテン headlight remote control
US11675431B2 (en) 2019-09-30 2023-06-13 Mitsubishi Electric Corporation Image display device, display control device, and display control method, and program and recording medium
CN111178225A (en) * 2019-12-25 2020-05-19 恒大新能源汽车科技(广东)有限公司 Light screen control method, light screen control system and device
CN117441201A (en) * 2021-06-16 2024-01-23 三菱电机株式会社 Aerial image display device and aerial image display method
CN113665485B (en) * 2021-08-30 2023-12-26 东风汽车集团股份有限公司 Anti-glare system for automobile front windshield and control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003260933A (en) * 2002-03-11 2003-09-16 Matsushita Electric Ind Co Ltd Automatic glare controlling device
JP3894147B2 (en) * 2003-03-28 2007-03-14 日産自動車株式会社 Brake control device for vehicle
JP2005104218A (en) * 2003-09-29 2005-04-21 Denso Corp Light shielding device for vehicle

Also Published As

Publication number Publication date
JP2007276766A (en) 2007-10-25

Similar Documents

Publication Publication Date Title
JP4910802B2 (en) Monitoring device and method, recording medium, and program
JP2007245911A (en) Monitoring device and method, recording medium and program
US9904859B2 (en) Object detection enhancement of reflection-based imaging unit
US9736364B2 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
US10252662B2 (en) Method for controlling a headlight
JP5761046B2 (en) Anti-glare control device
JP4556777B2 (en) Night driving visibility support device
JP4687573B2 (en) Vehicle driving support device
KR20160091293A (en) Side Mirror Camera System For Vehicle
CN113647087B (en) State detection device, state detection system and state detection method
JP2009029227A (en) Lighting control device, method and program
CN107640160B (en) Vehicle safe driving auxiliary system and control method thereof
JP2015518445A (en) Method and apparatus for daytime car driving assistance
JP2007251555A (en) Diagnostic apparatus and method, program, as well as, recording medium
JP6658483B2 (en) Display control device for vehicle and display system for vehicle
TWM610067U (en) Windshield photochromic system having photosensitive protection
TWI749962B (en) A light-sensitive protective windshield discoloration system
WO2018142969A1 (en) Display control device and method, and program
CN114228450B (en) Intelligent adjusting method, device and equipment for multifunctional sun shield and storage medium
EP4328090A1 (en) Auto dimming mirror
US11014574B2 (en) System and method for handling light source impairment
JP2022144915A (en) Lighting control device of vehicle
WO2021068076A1 (en) A system and method for eliminating glare
EP3227742A1 (en) Object detection enhancement of reflection-based imaging unit
CN116691492A (en) Pre-opening system and control method of automobile headlamp

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120102

R150 Certificate of patent or registration of utility model

Ref document number: 4910802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3