JP4910802B2 - Monitoring device and method, recording medium, and program - Google Patents
Monitoring device and method, recording medium, and program Download PDFInfo
- Publication number
- JP4910802B2 JP4910802B2 JP2007067173A JP2007067173A JP4910802B2 JP 4910802 B2 JP4910802 B2 JP 4910802B2 JP 2007067173 A JP2007067173 A JP 2007067173A JP 2007067173 A JP2007067173 A JP 2007067173A JP 4910802 B2 JP4910802 B2 JP 4910802B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- image
- vehicle
- unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 26
- 238000000034 method Methods 0.000 title description 148
- 238000001514 detection method Methods 0.000 claims description 289
- 238000012544 monitoring process Methods 0.000 claims description 94
- 230000035945 sensitivity Effects 0.000 claims description 46
- 230000008859 change Effects 0.000 claims description 35
- 230000000007 visual effect Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000006866 deterioration Effects 0.000 claims description 16
- 230000001133 acceleration Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 description 129
- 230000004313 glare Effects 0.000 description 117
- 238000005286 illumination Methods 0.000 description 46
- 238000006243 chemical reaction Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 23
- 230000007704 transition Effects 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000004310 photopic vision Effects 0.000 description 6
- 230000004296 scotopic vision Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000004300 dark adaptation Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 206010047531 Visual acuity reduced Diseases 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000002763 pyramidal cell Anatomy 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000004301 light adaptation Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Air Bags (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Instrument Panels (AREA)
Description
本発明は、監視装置および方法、記録媒体、並びに、プログラムに関し、特に、ドライバにとって眩しい状態を正確に検出することができるようにした監視装置および方法、記録媒体、並びに、プログラムに関する。 The present invention relates to a monitoring apparatus and method, a recording medium, and a program, and more particularly, to a monitoring apparatus and method, a recording medium, and a program that can accurately detect a dazzling state for a driver.
車両を運転している場合、車内に入射する光に眩惑され、視界が悪化し、運転に悪影響を及ぼすときがある。 When driving a vehicle, it may be dazzled by the light incident on the inside of the vehicle, deteriorating the field of view and adversely affecting driving.
そこで、従来、ドライバの顔を撮像した画像において、ドライバの目の周辺の領域の明るさに応じて、車両のフロントガラスに設けられた遮光手段による遮光範囲を変更し、直射日光による眩惑を緩和することが提案されている(例えば、特許文献1参照)。 Therefore, conventionally, in the image of the driver's face, the shading range by the shading means provided on the windshield of the vehicle is changed according to the brightness of the area around the driver's eyes to reduce dazzling by direct sunlight It has been proposed (see, for example, Patent Document 1).
ところで、運転中にドライバを眩惑する光には、まず、太陽光、対向車のヘッドライトの光、前方の車のブレーキランプの光、店舗などの建物の照明光、街灯の光、電光掲示板の光など、自ら光を発する一次光源からの光がある。加えて、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光、例えば、窓ガラス、水面、路面または反射板などにより太陽光が鏡面反射された光、後続車のヘッドライトが車内のルームミラーにより鏡面反射された光、対向車のヘッドライトが濡れた路面により鏡面反射された光などがある。 By the way, in the light that dazzles the driver while driving, first of all, sunlight, headlights of oncoming cars, brake lamps of cars ahead, lighting of buildings such as shops, street lights, electric bulletin boards There is light from a primary light source that emits light, such as light. In addition, the specularly reflected light of the light from the primary light source, that is, the light reflected from the primary light source at the same angle as the incident angle by the reflecting surface, such as the window glass, water surface, road surface or reflecting plate The light is specularly reflected, the headlight of the following vehicle is specularly reflected by the interior mirror in the vehicle, the light is specularly reflected by the road surface on which the headlight of the oncoming vehicle is wet, and the like.
しかしながら、特許文献1に記載の発明では、直射日光による眩惑を緩和することしか考慮されておらず、直射日光以外の光が原因による眩しい状態を検出することは考慮されていない。
However, the invention described in
本発明は、このような状況に鑑みてなされたものであり、ドライバにとって眩しい状態を正確に検出することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to accurately detect a dazzling state for a driver.
本発明の一側面の監視装置は、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域の画像である視界画像を抽出する視界画像抽出手段と、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段とを備える。 One aspect of the monitoring device of the present invention, based on the sight line orientation of the driver, the field image is an image of a region of a predetermined range including the center of the field of view from the front image driver is an image of the captured forward direction of the vehicle A field-of-view image extracting means for extracting and a first state detecting means for detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
本発明の一側面の監視装置においては、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域の画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。 In the monitoring device of one aspect of the present invention, based on the sight line orientation of the driver, view field image is an image of a region of a predetermined range including the center of the field of view from the front image driver is an image of the captured forward direction of the vehicle Is extracted, and based on the luminance of the field-of-view image, a state in which strong light is applied to the eyes of the driver is detected.
従って、ドライバにとって眩しい状態を正確に検出できる。 Therefore, a dazzling state for the driver can be accurately detected.
この視界画像抽出手段、第1の状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。 The visual field image extraction unit and the first state detection unit are constituted by, for example, a CPU (Central Processing Unit).
この第1の状態検出手段には、視界画像において、輝度が所定の閾値以上である画素が占める割合に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。 The first state detection means is configured to detect whether or not the driver's eyes are irradiated with strong light based on a ratio of pixels having a luminance equal to or higher than a predetermined threshold in the view field image. Can do.
これにより、より正確にドライバにとって眩しい状態を検出することができる。 Thereby, a dazzling state for the driver can be detected more accurately.
この監視装置は、所定の時間前から現在までの視界画像の輝度に基づいて、ドライバの目の感度を推定する感度推定手段と、推定されたドライバの感度に基づいて、閾値を設定する閾値設定手段とをさらに備えることができる。 This monitoring apparatus includes a sensitivity estimation unit that estimates the sensitivity of a driver's eyes based on the brightness of a field-of-view image from a predetermined time to the present, and a threshold setting that sets a threshold based on the estimated sensitivity of the driver Means.
これにより、より正確にドライバにとって眩しい状態を検出することができる。 Thereby, a dazzling state for the driver can be detected more accurately.
この閾値設定手段は、例えば、CPUにより構成される。 This threshold value setting means is constituted by a CPU, for example.
この監視装置は、前方画像において、輝度が大きく変化する位置である変化位置を検出する位置検出手段と、変化位置および前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段とをさらに備え、第1の状態検出手段には、視界画像の各画素のうち、光源領域に含まれる画素の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出させるようにすることができる。 The monitoring device includes a position detection unit that detects a change position that is a position where the luminance changes greatly in a front image, and a region that is divided by the change position and an end of the front image, compared to an adjacent region. An area detection unit that detects an area composed of pixels included in the high luminance area as a light source area is further included , and the first state detection unit includes the light source area among the pixels of the view field image. Based on the luminance of the pixel, it can be detected whether or not the driver's eyes are irradiated with strong light.
これにより、より正確にドライバにとって眩しい状態を検出することができる。 Thereby, a dazzling state for the driver can be detected more accurately.
この位置検出手段、領域設定手段は、例えば、CPUにより構成される。 The position detection means and the area setting means are constituted by a CPU, for example.
この位置検出手段には、前方画像の水平方向の行および垂直方向の列ごとに、隣接する画素間の輝度の変化が所定の大きさ以上となる位置を変化位置として検出させるようにすることができる。 The position detecting means may detect a position where a change in luminance between adjacent pixels is a predetermined magnitude or more as a change position for each horizontal row and vertical column of the front image. it can.
これにより、1画素を最小単位として光源領域を検出することができ、より正確にドライバにとって眩しい状態を検出することができる。 Accordingly, the light source region can be detected with one pixel as a minimum unit, and a dazzling state for the driver can be detected more accurately.
この監視装置は、ドライバの顔を撮像した画像である顔画像におけるドライバの目の周辺の領域の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する第2の状態検出手段と、前方画像の輝度に基づいて、第1の状態検出手段および第2の状態検出手段のうちどちらを用いるかを選択する選択手段とをさらに備えることができる。 The monitoring apparatus detects a second state of detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the area around the eyes of the driver in the face image that is an image of the driver's face. It can further comprise a detection means and a selection means for selecting which one of the first state detection means and the second state detection means to use based on the luminance of the front image.
これにより、例えば、太陽光が照射されている状態か否かに応じて、より適切な検出方法を用いて、ドライバの目に強い光が照射されている状態を検出することができる。 As a result, for example, depending on whether or not sunlight is being applied, it is possible to detect a state in which strong light is applied to the eyes of the driver using a more appropriate detection method.
この状態検出手段、選択手段は、例えば、CPUにより構成される。 This state detection means and selection means are constituted by a CPU, for example.
この監視装置は、ドライバの顔を撮像した画像である顔画像に基づいて、ドライバの視線の向きを検出する視線方向検出手段をさらに備えることができる。 The monitoring apparatus may further include a line-of-sight direction detecting unit that detects the direction of the driver's line of sight based on a face image that is an image of the driver's face.
これにより、監視装置において検出された視線の向きに基づいて、視界画像を抽出することができる。 Thereby, a visual field image can be extracted based on the direction of the line of sight detected in the monitoring apparatus.
この視界方向検出手段は、例えば、CPUにより構成される。 This visual field direction detection means is constituted by a CPU, for example.
この監視装置は、ドライバの目に強い光が照射されている状態が検出された場合、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御する車載装置制御手段をさらに備えることができる。 This monitoring device controls the in-vehicle device provided in the vehicle so as to perform an operation corresponding to the deterioration of the visual field of the driver when a state in which strong light is irradiated to the eyes of the driver is detected. Means may further be provided.
これにより、眩しさによるドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。 Thereby, the fall of the safety | security and convenience accompanying the deterioration of the driver | operator's visual field by glare is suppressed.
この車載装置制御手段は、例えば、CPUにより構成される。 This in-vehicle device control means is constituted by a CPU, for example.
この車載装置制御手段には、ドライバが運転する車両の前方を撮像した画像である前方画像を表示させるように車載装置としての表示装置を制御させるようにすることができる。 The in-vehicle device control means can control the display device as the in-vehicle device so as to display a front image that is an image of the front of the vehicle driven by the driver.
これにより、ドライバは、表示装置を見ることにより、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。 As a result, the driver can surely confirm the situation ahead of the vehicle, which is dazzling and difficult to see, by looking at the display device.
この車載装置制御手段には、画面の輝度を上げるように車載装置としての表示装置を制御させるようにすることができる。 This in-vehicle device control means can control the display device as the in-vehicle device so as to increase the brightness of the screen.
これにより、ドライバは、眩しい状態においても、表示装置の画面に表示されている情報を確実に認識することができる。 Thereby, the driver can reliably recognize the information displayed on the screen of the display device even in a dazzling state.
この車載装置制御手段には、画像を表示する位置を変更するように車載装置としてのヘッドアップディスプレイを制御させるようにすることができる。 The vehicle-mounted device control means can control the head-up display as the vehicle-mounted device so as to change the position where the image is displayed.
これにより、ドライバは、ヘッドアップディスプレイにより表示される画像を確実に認識することができる。 As a result, the driver can reliably recognize the image displayed by the head-up display.
この車載装置制御手段には、車両の前方を監視する距離を延長するように、車両の前方を監視する車載装置である前方監視装置を制御させるようにすることができる。 The in-vehicle device control means can control a front monitoring device that is an in-vehicle device that monitors the front of the vehicle so as to extend a distance for monitoring the front of the vehicle.
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。 As a result, the driver's attention is reduced due to the deterioration of the field of view due to glare, and the safety of the occupant can be prevented from being impaired even if the confirmation ahead of the vehicle is slower than normal.
この車載装置制御手段には、事故を事前に回避したり、衝突による被害を軽減させる動作を行う車載装置であるプリクラッシュセーフティシステムが起動するタイミングを早めるようにプリクラッシュセーフティシステムを制御させるようにすることができる。 This in-vehicle device control means controls the pre-crash safety system so that the pre-crash safety system that is an in-vehicle device that avoids accidents in advance or performs actions to reduce the damage caused by a collision is started earlier. can do.
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないようにすることができる。 As a result, the driver's attention is reduced due to the deterioration of the field of view due to glare, and the safety of the occupant can be prevented from being impaired even if the confirmation ahead of the vehicle is slower than normal.
この車載装置制御手段には、車両の加速を抑制するように、車両のエンジンの動作を制御する車載装置である動力制御装置制御させるようにすることができる。 This vehicle-mounted device control means can be controlled by a power control device that is a vehicle-mounted device that controls the operation of the vehicle engine so as to suppress acceleration of the vehicle.
これにより、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止するようにすることができる。 Thereby, even if the driver's attention is reduced due to the deterioration of the field of view due to glare and the confirmation of the front of the vehicle is later than usual, it is possible to prevent a rear-end collision or a collision.
本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムは、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域の画像である視界画像を抽出する視界画像抽出ステップと、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かを検出する状態検出ステップとを含む。 A monitoring method, a program, and a program recorded on a recording medium according to one aspect of the present invention are based on the driver's line of sight and the center of the driver's field of view from a front image that is an image of the front of the vehicle. A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including a state, and a state detection step for detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the visual field image. Including.
本発明の一側面の監視方法、プログラム、および、記録媒体に記録されているプログラムにおいては、ドライバの視線の向きに基づいて、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域の画像である視界画像が抽出され、視界画像の輝度に基づいて、ドライバの目に強い光が照射されている状態が検出される。 In the monitoring method, the program, and the program recorded on the recording medium according to one aspect of the present invention, the center of the driver's visual field from the front image that is an image of the front of the vehicle based on the direction of the driver's line of sight A field-of-view image that is an image of an area in a predetermined range including is extracted, and based on the brightness of the field-of-view image, a state in which strong light is emitted to the eyes of the driver is detected.
従って、ドライバにとって眩しい状態を正確に検出できる。 Therefore, a dazzling state for the driver can be accurately detected.
この視界画像抽出ステップは、例えば、車両の前方を撮像した画像である前方画像からドライバの視野の中心を含む所定の範囲の領域の画像である視界画像をCPUにより抽出する視界画像抽出ステップにより構成され、この状態検出ステップは、例えば、視界画像の輝度に基づいて、ドライバの目に強い光が照射されているか否かをCPUにより検出する状態検出ステップにより構成される。 This view image extraction step is configured by, for example, a view image extraction step in which the CPU extracts a view image that is an image in a predetermined range including the center of the driver's field of view from a front image that is an image of the front of the vehicle. Then, this state detection step includes, for example, a state detection step in which the CPU detects whether or not strong light is emitted to the eyes of the driver based on the luminance of the view field image.
以上のように、本発明の一側面によれば、ドライバにとって眩しい状態を検出することができる。特に、本発明の一側面によれば、ドライバにとって眩しい状態を正確に検出することができる。 As described above, according to one aspect of the present invention, a dazzling state for a driver can be detected. In particular, according to one aspect of the present invention, a dazzling state for the driver can be accurately detected.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した監視システム101の一実施の形態を示すブロック図である。監視システム101は、監視システム101が設けられた車両を運転するドライバおよび車内の状態を監視し、ドライバの目に強い光が照射されている状態、すなわち、ドライバにとって眩しい状態(以下、単に眩しい状態とも称する)を検出した場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、車両に設けられている他の車載装置の動作を制御する。
FIG. 1 is a block diagram showing an embodiment of a
監視システム101は、室内監視カメラ111、前方監視カメラ112、眩しさ検出部113、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部113は、トラッキング部121、視線方向検出部122、検出方法選択部123、太陽光眩しさ検出部124、および、照明光眩しさ検出部125を含むように構成される。
The
室内監視カメラ111および前方監視カメラ112は、例えば、図3を参照して後述するように、対数変換型の撮像素子を用いて非常に広いダイナミックレンジ(例えば、約170dB)で被写体を撮像する撮像装置により構成される。室内監視カメラ111および前方監視カメラ112により撮像される画像は、例えば、14bitの符号なし2進数のデジタルのデータであり、最も暗い0から最も明るい214−1の範囲の16384階調の輝度値が割り当てられる。
The
図2は、室内監視カメラ111および前方監視カメラ112の設置位置の例を模式的に示す図である。図2の上側の図は、監視システム101が設けられている車両141を右方向から見た図であり、下側の図は、車両141を上から見た図である。
FIG. 2 is a diagram schematically illustrating an example of installation positions of the
室内監視カメラ111は、例えば、車両141のステアリングホイール151の近傍であって、室内監視カメラ111の画角内にステアリングホイール151が入らない位置、すなわち、ステアリングホイール151が車両141を運転するドライバ142の顔の撮像の邪魔にならない位置に設置され、ドライバ142の顔およびその周辺を撮像する。室内監視カメラ111は、撮像した画像(以下、顔画像と称する)をトラッキング部121に供給する。
The
前方監視カメラ112は、例えば、車両141のボディの前端の中央下部に設置され、車両141の前方を撮像する。前方監視カメラ112は、撮像した画像(以下、前方画像と称する)を、カーナビゲーション装置102、前方監視装置104、検出方法選択部123、および、照明光眩しさ検出部125に供給する。
The
眩しさ検出部113は、図9などを参照して後述するように、ドライバにとって眩しい状態を検出する。
As described later with reference to FIG. 9 and the like, the
トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。すなわち、トラッキング部121は、ドライバの顔および顔の特徴(例えば、顔および顔の各器官の位置、形状など)を検出する。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122および太陽光眩しさ検出部124に供給する。なお、トラッキング部121が人の顔をトラッキングする手法は、特定の手法に限定されるものではなく、より迅速かつ正確に人の顔をトラッキングできる手法が望ましい。
The
視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を、照明光眩しさ検出部125に供給する。なお、視線方向検出部122が視線の方向を検出する手法は、特定の手法に限定されるものではなく、より迅速かつ正確に視線の方向を検出できる手法が望ましい。
The gaze
検出方法選択部123は、図9または図12を参照して後述するように、前方画像に基づいて、眩しい状態を検出する方法を選択する。検出方法選択部123は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
As will be described later with reference to FIG. 9 or FIG. 12, the detection
太陽光眩しさ検出部124は、図13を参照して後述するように、主に太陽光および太陽光が反射された反射光により眩しい状態を検出する。太陽光眩しさ検出部124は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 13, the sunlight
照明光眩しさ検出部125は、図15を参照して後述するように、主に太陽光以外の照明光および照明光が反射された反射光により眩しい状態を検出する。照明光眩しさ検出部125は、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 15, the illumination light
表示制御部114は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられているカーナビゲーション装置102、ヘッドアップディスプレイ103などの表示装置の動作を制御する。
As will be described later with reference to FIGS. 16 and 17, the
車両制御部115は、図16および図17を参照して後述するように、ドライバにとって眩しい状態が検出された場合、眩しさによるドライバの視界の悪化に対応した動作を行うように、監視システム101が設けられた車両に設けられている前方監視装置104、プリセーフティクラッシュシステム105、および、動力制御装置106など、車両の走行に関わる制御および処理を行う車載装置の動作を制御する。
As will be described later with reference to FIGS. 16 and 17, the
カーナビゲーション装置102は、目的地までの走行経路を案内するナビゲーション機能、および、前方監視カメラ112により撮像された前方画像または図示せぬカメラにより撮像された車両の後方の画像などを表示することにより車両の周囲の状況の確認を補助するモニタ機能などを車両の乗員に提供する。
The
ヘッドアップディスプレイ103は、無限遠の点に結像する画像を車両のフロントガラスに投影することにより、ドライバが、車両の前景を見たままの状態で、すなわち、運転中の視線方向を保ったまま見ることができるように、画像を表示する。例えば、車速メータなどが、ヘッドアップディスプレイ103により表示される。
The head-up
前方監視装置104は、前方画像に基づいて、車両の前方の状況を監視し、車両の前方のもの、例えば、人、動物、障害物などの存在を検知し、検知した情報をプリクラッシュセーフティシステム105に供給する。
The
プリクラッシュセーフティシステム105は、乗員の安全性を確保するために、事故を事前に回避したり、衝突による被害を軽減させる動作を行うシステムである。例えば、プリクラッシュセーフティシステム105は、前方監視装置104からの情報に基づいて、車両の前方の人や障害物などに衝突する可能性があると判断した場合、衝突を避けるために警報を発したり、衝突が免れないと判断した場合、シートベルトを自動的に巻き取って、乗員の拘束性を高めたり、自動的にブレーキを作動させて、衝突時の衝撃を軽減させるなどの動作を行う。
The
動力制御装置106は、車両のエンジンの動作を制御することにより、車両の速度や加速特性などを制御する。
The
図3は、図1の室内監視カメラ111および前方監視カメラ112の機能的構成を示すブロック図である。室内監視カメラ111および前方監視カメラ112は、レンズ201、および対数変換型撮像素子202を含むように構成される。対数変換型撮像素子202は、例えば、HDRC(High Dynamic Range CMOS(Complementary Metal Oxide Semiconductor)(登録商標))などの対数変換型の撮像素子とされ、光検出部211、対数変換部212、A/D変換部213、および撮像タイミング制御部214を含むように構成される。
FIG. 3 is a block diagram illustrating functional configurations of the
室内監視カメラ111または前方監視カメラ112により撮像される被写体から発せられた光(あるいは、被写体により反射された光)は、レンズ201に入射し、対数変換型撮像素子202の光検出部211の図示せぬ光検出面に結像する。
The light emitted from the subject imaged by the
光検出部211は、例えば、複数のフォトダイオードからなる受光素子などにより構成される。光検出部211は、レンズ201により結像された被写体の光を、入射された光の明るさ(照度)に応じた電荷に変換し、変換した電荷を蓄積する。光検出部211は、撮像タイミング制御部214から供給される制御信号に同期して、蓄積した電荷を対数変換部212に供給する。
The
対数変換部212は、例えば、複数のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)などにより構成される。対数変換部212は、MOSFETのサブスレッショルド特性を利用して、光検出部211から供給される電荷を、各画素ごとに、電荷の数(電流の強さ)の対数、すなわち、被写体の光の光量の対数にほぼ比例した電圧値に変換したアナログの電気信号を生成する。対数変換部212は、生成したアナログの電気信号をA/D変換部213に供給する。
The
A/D変換部213は、撮像タイミング制御部214から供給される制御信号に同期して、アナログの電気信号をデジタルの画像データ(以下、単に画像とも称する)にA/D変換する。例えば、14bitの符号なし2進数のデジタルの画像データに変換される場合、画像データの輝度値(あるいは画素値)は、最も暗い0から最も明るい214−1の範囲の値をとる。A/D変換部213は、変換したデジタルの画像データを眩しさ検出部113に供給する。
The A / D conversion unit 213 A / D converts an analog electrical signal into digital image data (hereinafter also simply referred to as an image) in synchronization with a control signal supplied from the imaging
このように、室内監視カメラ111または前方監視カメラ112は、光検出部211に入射した被写体の光の明るさ、すなわち、入射光量の対数に比例した輝度値(あるいは画素値)からなるデジタルの画像データを出力する。なお、対数変換型の撮像素子については、例えば、特表平7−506932公報などにその詳細が開示されている。
As described above, the
なお、対数変換型撮像素子202の光検出部211においては、変換した電荷を蓄積せずに、そのまま対数変換部212に供給させるようにすることも可能である。
In the
図4は、対数変換型撮像素子202、CCD撮像素子、銀塩フィルム、および、人の目の感度特性を示すグラフである。図4の横軸は、入射光の照度(単位は、ルクス(lux))の対数値を示し、縦軸は入射光の照度に対する感度を示している。線231は対数変換型撮像素子202の感度特性を示し、線232はCCD撮像素子の感度特性を示し、線233は銀塩フィルムの感度特性を示し、線234は人の目の感度特性を示している。
FIG. 4 is a graph showing sensitivity characteristics of the logarithmic conversion type
対数変換型撮像素子202は、上述したように、入射光量の対数にほぼ比例した輝度値(あるいは画素値)からなる画像データを出力するので、入射光量が大きくなった場合でも、対数変換型撮像素子202を構成するフォトダイオードやMOSFETなどの素子の容量が飽和したり、各素子に流れる電流や印加される電圧が各素子の入力に応じた出力を行うことができる範囲を超えることがない。従って、撮像可能な輝度の範囲内において、ほぼ正確に入射光量の変動に応じた輝度値(あるいは画素値)を得ることができる。すなわち、CCD撮像素子、銀塩フィルム、および、人の目より広い、例えば、約1ミリルクスから太陽光の輝度より高い約500キロルクスまでの約170dBのダイナミックレンジで、被写体からの入射光量の強さをほぼ正確に反映した輝度値(あるいは画素値)からなる画像を撮像することができる。なお、室内監視カメラ111または前方監視カメラ112に用いる対数変換型撮像素子202のダイナミックレンジは、上述した170dBに限定されるものではなく、利用目的に応じて、約100dBあるいは200dBなど、必要なダイナミックレンジに対応したものを用いるようにすればよい。
As described above, the logarithmic conversion
従って、対数変換型撮像素子202を用いた室内監視カメラ111または前方監視カメラ112は、人が視認できる輝度範囲において、輝度クリッピングが発生しないため、絞りやシャッタースピードなどを調整して入射光量を調整する必要がない。すなわち、室内監視カメラ111または前方監視カメラ112は、入射光量を調整しなくても、被写体の詳細な輝度の分布を忠実に撮像することができる。
Therefore, the
例えば、昼間に車内から車の前方を撮像する場合、画角内に太陽が入っていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、太陽と前方の道路の輝度の分布を忠実に再現した画像を撮像することができる。また、夜間に車内から車の前方を撮像する場合、対向車のヘッドライトが前方から照らされていても、室内監視カメラ111または前方監視カメラ112は、入射光量を調整せずに、対向車のヘッドライトの光から自車のヘッドライトに照らされていない領域までの輝度の分布を忠実に再現した画像を撮像することができる。
For example, when imaging the front of a vehicle from inside the vehicle during the day, the
また、CCD撮像素子および銀塩フィルムでは、線232および線233に示されるように、ガンマ特性などの要因により感度特性が入射光の照度の対数に比例しないのに比べて、対数変換型撮像素子202では、感度特性が入射光の照度の対数にほぼ比例する。
Further, in the CCD image pickup device and the silver salt film, as shown by the
このように、対数変換型撮像素子202を用いた室内監視カメラ111および前方監視カメラ112は、輝度クリッピングの発生、入射光量の調整、ガンマ特性の影響を受けない。従って、室内監視カメラ111または前方監視カメラ112により撮像された画像データの輝度値(あるいは画素値)は、被写体の輝度の変動および被写体の動きをほぼ忠実に反映するように変動する。すなわち、フレーム間の画像データの差分をとった差分データの各画素の差分値は、被写体の輝度の変動および被写体の動きがほぼ忠実に反映された値となる。
As described above, the
図5は、図1の検出方法選択部123の機能的構成を示すブロック図である。検出方法選択部123は、統計部301および選択部302を含むように構成される。
FIG. 5 is a block diagram illustrating a functional configuration of the detection
統計部301は、図9または図12を参照して後述するように、前方監視カメラ112から前方画像を取得し、取得した前方画像の輝度値の統計値を算出し、算出した統計値を示す情報を選択部302に供給する。
As will be described later with reference to FIG. 9 or FIG. 12, the
選択部302は、図9または図12を参照して後述するように、前方画像の輝度値の統計値に基づいて、眩しい状態を検出する方法を選択し、選択結果を示す情報を太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
As will be described later with reference to FIG. 9 or FIG. 12, the
図6は、図1の太陽光眩しさ検出部124の機能的構成を示すブロック図である。太陽光眩しさ検出部124は、統計部321および状態検出部322を含むように構成される。
FIG. 6 is a block diagram illustrating a functional configuration of the sunlight
統計部321は、顔画像およびその顔画像のトラッキング結果を示す情報をトラッキング部121から取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。統計部321は、図13を参照して後述するように、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の輝度値の統計値を算出し、算出した統計値を示す情報を状態検出部322に供給する。
The
状態検出部322は、図13を参照して後述するように、統計部321により算出された統計値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 13, the
図7は、図1の照明光眩しさ検出部125の機能的構成を示すブロック図である。照明光眩しさ検出部125は、視界画像抽出部341、統計部342、感度推定部343、閾値設定部344、および、状態検出部345を含むように構成される。
FIG. 7 is a block diagram illustrating a functional configuration of the illumination light
視界画像抽出部341は、前方監視カメラ112から前方画像を取得し、視線方向検出部122からドライバの視線の向きの検出結果を示す情報を取得し、検出方法選択部123から検出方法の選択結果を示す情報を取得する。視界画像抽出部341は、検出されたドライバの視線の向きに基づいて、ドライバの視野の中心を中心とする所定の範囲(例えば、一般的な人にとって明るさの感度が高い範囲)の領域が写っている画像(以下、視界画像と称する)を前方画像から抽出する。すなわち、視界画像は、ドライバが感じる眩しさに与える影響が大きい領域が写っている画像であるといえる。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。
The field-of-view
統計部342は、図15を参照して後述するように、視界画像の各画素の輝度値の統計値を算出し、算出した統計値を示す情報を感度推定部343に供給する。
As will be described later with reference to FIG. 15, the
感度推定部343は、図15を参照して後述するように、統計部342により算出された統計値に基づいて、ドライバの目の感度を推定し、推定結果を示す情報を閾値設定部344に供給する。
As will be described later with reference to FIG. 15, the
閾値設定部344は、図15を参照して後述するように、推定されたドライバの目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度値である輝度閾値を設定し、輝度閾値を示す情報を状態検出部345に供給する。
As described later with reference to FIG. 15, the
状態検出部345は、図15を参照して後述するように、視界画像の輝度値および輝度閾値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 15, the
次に、図8乃至図17を参照して、監視システム101により実行される処理を説明する。
Next, processing executed by the
まず、図8を参照して、監視システム101により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム101が設けられている車両のエンジンが始動されたとき開始される。
First, the in-vehicle device control process executed by the
ステップS1において、室内監視カメラ111は、ドライバの顔の撮像を開始する。室内監視カメラ111は、撮像した画像である顔画像をトラッキング部121に供給する。
In step S1, the
ステップS2において、前方監視カメラ112は、車両の前方の撮像を開始する。前方監視カメラ112は、撮像した画像である前方画像を、前方監視装置104、検出方法選択部123の統計部301および照明光眩しさ検出部125の視界画像抽出部341に供給する。
In step S2, the
ステップS3において、眩しさ検出部113は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図9または図12を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。
In step S3, the
ステップS4において、表示制御部114および車両制御部115は、眩しい状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しくない状態から眩しい状態に遷移したかを判定する。眩しい状態に遷移したと判定された場合、処理はステップS5に進む。
In step S4, the
ステップS5において、表示制御部114および車両制御部115は、眩しい状態検出時の処理を実行する。眩しい状態検出時の処理の詳細は、図16を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を開始するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。
In step S5, the
ステップS4において、眩しい状態に遷移していないと判定された場合、処理はステップS6に進む。 In step S4, when it is determined that the screen has not transitioned to the dazzling state, the process proceeds to step S6.
ステップS6において、表示制御部114および車両制御部115は、眩しくない状態に遷移したかを判定する。具体的には、表示制御部114および車両制御部115は、太陽光眩しさ検出部124または照明光眩しさ検出部125から通知される検出結果に基づいて、ドライバにとって眩しい状態から眩しくない状態に遷移したかを判定する。眩しくない状態に遷移したと判定された場合、処理はステップS7に進む。
In step S <b> 6, the
ステップS7において、表示制御部114および車両制御部115は、眩しい状態終了時の処理を実行する。眩しい状態終了時の処理の詳細は、図17を参照して後述するが、この処理により、ドライバの視界の悪化に対応した動作を停止するように、カーナビゲーション装置102などの車載装置が制御される。その後、処理はステップS8に進む。
In step S7, the
ステップS6において、眩しくない状態に遷移していないと判定された場合、すなわち、眩しい状態または眩しくない状態のどちらか一方が継続していると判定された場合、ステップS7の処理はスキップされ、処理はステップS8に進む。 If it is determined in step S6 that the state has not transitioned to the non-dazzling state, that is, if it is determined that either the dazzling state or the non-dazzling state continues, the process of step S7 is skipped, and the process Advances to step S8.
ステップS8において、監視システム101は、処理を終了するかを判定する。処理を終了しないと判定された場合、処理はステップS3に戻り、その後、ステップS8において処理を終了すると判定されるまで、ステップS3乃至S8の処理が繰り返し実行される。
In step S8, the
ステップS8において、例えば、車両のエンジンが停止された場合、監視システム101は、処理を終了すると判定し、車載装置制御処理は終了する。
In step S8, for example, when the engine of the vehicle is stopped, the
次に、図9のフローチャートを参照して、図8のステップS3の眩しさ検出処理の詳細を説明する。 Next, details of the glare detection process in step S3 of FIG. 8 will be described with reference to the flowchart of FIG.
ステップS31において、統計部301は、前方画像の輝度値の中央値を検出する。具体的には、統計部301は、前方画像の各画素の輝度値を低い順または高い順に並べたデータを生成する。統計部301は、生成したデータにおいて中央にくる値、すなわち、前方画像の輝度値の中央値を検出する。
In step S31, the
ステップS32において、統計部301は、中央値より輝度値が低い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち、検出した中央値より輝度値が低い画素の輝度値の平均値、すなわち、画像内において中央値より暗い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。
In step S <b> 32, the
ステップS33において、選択部302は、平均値が所定の閾値以上であるかを判定する。
In step S33, the
図10の画像401は、晴れた日の昼間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム402は、画像401の輝度値の分布を示している。また、図11の画像421は、夜間に街中を走行する車両から撮像した前方画像の例を模式的に示し、ヒストグラム422は、画像421の輝度値の分布を示している。なお、ヒストグラム402およびヒストグラム422の横軸は輝度値を表し、縦軸は画素数を表す。また、横軸方向において、左にいくほど輝度値が低くなり、右にいくほど輝度値が高くなる。
An
画像401においては、ほとんど影になる部分がなく、自分で発光する被写体も存在しないため、周囲と比較して非常に明るい被写体および非常に暗い被写体が存在しない。従って、ほとんどの画素の輝度値が比較的高く、かつ、狭い範囲に集中するため、ヒストグラム402において、幅が狭くピーク値が非常に大きな山411−1が表れる。また、晴れた日の空は、周囲と比較して明るいため、山411−1の右側の比較的近い位置に、ピークの小さい山411−2が表れる。
In the
一方、画像421においては、ほとんどの被写体の輝度が暗い範囲に集中する。従って、ほとんどの画素の輝度値が低く、かつ、狭い範囲に集中するため、ヒストグラム422において、ヒストグラム402の山411−1より左側、すなわち、輝度値が暗い範囲に、幅が狭くピーク値が大きい山431−1が表れる。また、自車のヘッドライトに照らされた路面の画像は、画角内に占める割合がある程度大きく、かつ、周囲と比べて明るいため、山431−1の右側の離れた位置に、ピーク値が2番目に大きい山431−2が表れる。さらに、車両のヘッドライト、テールランプ、街灯、信号の光など自分で発光する被写体の画像は、画角内に占める割合が非常に小さく、かつ、周囲に比べて非常に明るいため、山431−2からさらに右側に離れた位置に、ピークの非常に小さい山431−3が表れる。
On the other hand, in the
図10および図11の例に示されるように、一般的に、昼間に撮像した前方画像における輝度値の分布と夜間に撮像した前方画像における輝度値の分布とを比較した場合、昼間に撮像した前方画像の方が、夜間に撮像した前方画像よりも、輝度値が、明るい範囲に集中するとともに、狭い範囲内で分布する。これは、昼間の屋外においては、太陽光が照射される範囲が広く、周囲と比較して極端に輝度が異なる領域が少ない傾向にあるからである。逆に、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、輝度値が、暗い範囲に集中するとともに、広い範囲に渡って分布する。これは、夜間の屋外においては、各種の照明の光など、周囲と比較して極端に明るい領域から、光源に照らされない暗い領域まで幅広い輝度の領域が存在する傾向にあるからである。 As shown in the examples of FIGS. 10 and 11, in general, when the distribution of luminance values in the front image captured in the daytime is compared with the distribution of luminance values in the front image captured at night, the image was captured in the daytime. In the forward image, the luminance values are concentrated in a bright range and distributed in a narrow range, compared to the forward image captured at night. This is because, in the daytime outdoors, there is a wide range in which sunlight is irradiated, and there is a tendency that there are few areas with extremely different luminance compared to the surroundings. On the contrary, in the front image captured at night, the luminance values are concentrated in a dark range and distributed over a wider range than the front image captured in the daytime. This is because, in the outdoors at night, there is a tendency that there is a wide range of brightness from an extremely bright area to a dark area not illuminated by the light source, such as various illumination lights.
また、昼間に撮像した前方画像と夜間に撮像した前方画像との明るい領域における輝度値の差よりも、暗い領域における輝度値の差の方が大きくなる。これは、夜間に撮像した前方画像の明るい領域の輝度(例えば、各種の照明光の輝度)と、昼間に撮像した前方画像の明るい領域の輝度(例えば、空の輝度)との差が、夜間に撮像した前方画像の暗い領域の輝度(例えば、光に照らされていない領域の輝度)と、昼間に撮像した前方画像の暗い領域の輝度(例えば、太陽光に照らされていない輝度)との差より小さくなる傾向にあるからである。 Further, the difference in the luminance value in the dark region is larger than the difference in the luminance value in the bright region between the front image captured in the daytime and the forward image captured in the nighttime. This is because the difference between the brightness of the bright area of the front image captured at night (for example, the brightness of various illumination lights) and the brightness of the bright area of the front image captured at daytime (for example, the brightness of the sky) The brightness of the dark area of the front image captured in the day (for example, the brightness of the area not illuminated by light) and the brightness of the dark area of the front image captured in the daytime (for example, brightness not illuminated by sunlight) This is because it tends to be smaller than the difference.
従って、前方画像内の暗い領域の輝度値を比較することにより、昼間に撮像された画像か、または、夜間に撮像された画像か、換言すれば、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。すなわち、ステップS32において算出された、前方画像内において中央値より暗い画素の輝度値の平均値を所定の閾値と比較することにより、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かをより正確に判定することができる。 Therefore, by comparing the brightness values of the dark areas in the front image, it is an image taken in the daytime or an image taken at night, in other words, taken in the state of being irradiated with sunlight. It is possible to more accurately determine whether the image is a captured image or an image captured without being irradiated with sunlight. That is, by comparing the average value of the luminance values of pixels darker than the median value in the front image calculated in step S32 with a predetermined threshold value, the front image is captured in a state in which sunlight is irradiated. It is possible to more accurately determine whether the image is an image captured in a state where sunlight is not irradiated.
ステップS32において算出された平均値が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS34に進む。 If it is determined that the average value calculated in step S32 is equal to or greater than a predetermined threshold value, that is, if it is determined that a front image has been captured in the state of being irradiated with sunlight, the process proceeds to step S34.
ステップS34において、選択部302は、主に太陽光および太陽光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
In step S34, the
ステップS35において、太陽光眩しさ検出部124は、太陽光眩しさ検出処理を実行し、眩しさ検出処理は終了する。太陽光眩しさ検出処理の詳細は、図13を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。
In step S35, the sunlight
ステップS33において、平均値が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS36に進む。 In Step S33, when it is determined that the average value is less than the predetermined threshold, that is, when it is determined that the front image is captured in a state where sunlight is not irradiated, the process proceeds to Step S36.
ステップS36において、選択部302は、主に照明光および照明光の反射光を対象にした検出方法を選択する。選択部302は、選択結果を示す情報を、太陽光眩しさ検出部124および照明光眩しさ検出部125に供給する。
In step S36, the
ステップS37において、照明光眩しさ検出部125は、照明光眩しさ検出処理を実行し、眩しさ検出処理は終了する。照明光眩しさ検出処理の詳細は、図15を参照して後述するが、この処理により、現在の状態がドライバにとって眩しい状態であるかが検出され、検出結果を示す情報が、表示制御部114および車両制御部115に供給される。
In step S37, the illumination light
次に、図12を参照して、眩しさ検出処理の第2の実施の形態について説明する。 Next, a second embodiment of the glare detection process will be described with reference to FIG.
ステップS61において、上述した図9のステップS31の処理と同様に、前方画像の輝度値の中央値が検出される。 In step S61, the median value of the luminance values of the front image is detected in the same manner as in step S31 of FIG.
ステップS62において、上述した図9のステップS32の処理と同様に、中央値より輝度値が低い画素の輝度値の平均値が算出される。 In step S62, the average value of the luminance values of the pixels whose luminance value is lower than the median value is calculated in the same manner as the processing in step S32 in FIG.
ステップS63において、統計部301は、中央値より輝度値が高い画素の輝度値の平均値を算出する。具体的には、統計部301は、前方画素の各画素のうち検出した中央値より輝度値が高い画素の輝度値の平均値を算出する。統計部301は、算出した平均値を示す情報を選択部302に供給する。
In step S63, the
ステップS64において、選択部302は、2つの平均値の差が所定の閾値以上であるかを判定する。
In step S64, the
図10および図11を参照して上述したように、一般的に、夜間に撮像した前方画像の方が、昼間に撮像した画像よりも、広い範囲に渡って輝度値が分布する。すなわち、夜間に撮像した前方画像の方が、昼間に撮像した前方画像よりも、ステップS62およびS63において算出された2つの平均値の差が大きくなる。従って、閾値を適切に設定することにより、2つの平均値の差に基づいて、前方画像が、太陽光が照射されている状態で撮像された画像か、または、太陽光が照射されていない状態で撮像された画像かを正確に判定することができる。 As described above with reference to FIGS. 10 and 11, in general, the luminance value is distributed over a wider range in the front image captured at night than in the image captured in the daytime. That is, the difference between the two average values calculated in steps S62 and S63 is greater in the forward image captured at night than in the forward image captured in the daytime. Therefore, by appropriately setting the threshold, based on the difference between the two average values, the front image is an image captured in a state where sunlight is irradiated, or a state where sunlight is not irradiated It is possible to accurately determine whether the image is captured with the.
2つの平均値の差が所定の閾値以上であると判定された場合、すなわち、太陽光が照射されている状態で前方画像が撮像されたと判定された場合、処理はステップS65に進む。 If it is determined that the difference between the two average values is equal to or greater than the predetermined threshold value, that is, if it is determined that the front image has been captured in a state where sunlight is irradiated, the process proceeds to step S65.
ステップS65において、上述した図9のステップS34の処理と同様に、主に太陽光および太陽光の反射光を対象にした検出方法が選択される。 In step S65, similar to the processing in step S34 of FIG. 9 described above, a detection method mainly for sunlight and reflected light of sunlight is selected.
ステップS66において、上述した図9のステップS35の処理と同様に、太陽光眩しさ検出処理が実行され、眩しさ検出処理は終了する。 In step S66, similarly to the process of step S35 of FIG. 9 described above, the sunlight glare detection process is executed, and the glare detection process ends.
ステップS64において、2つの平均値の差が所定の閾値未満であると判定された場合、すなわち、太陽光が照射されていない状態で前方画像が撮像されたと判定された場合、処理はステップS67に進む。 In step S64, when it is determined that the difference between the two average values is less than the predetermined threshold value, that is, when it is determined that the front image has been captured in a state where sunlight is not irradiated, the process proceeds to step S67. move on.
ステップS67において、上述した図9のステップS36の処理と同様に、主に照明光および照明光の反射光を対象にした検出方法が選択される。 In step S67, similar to the processing in step S36 of FIG. 9 described above, a detection method mainly for illumination light and reflected light of illumination light is selected.
ステップS68において、上述した図9のステップS37の処理と同様に、照明光眩しさ検出処理が実行され、眩しさ検出処理は終了する。 In step S68, the illumination light glare detection process is executed similarly to the process of step S37 of FIG. 9 described above, and the glare detection process ends.
なお、眩しさ検出処理の第1の実施の形態および第2の実施の形態とも、曇天または雨天などにより、昼間にも関わらず太陽光の照射量が少ない場合については、閾値を調整することにより、ステップ33またはステップS64の判定結果を調整することができる。すなわち、閾値を調整することにより、太陽光眩しさ検出処理、または、照明光眩しさ検出処理のどちらを選択するかを調整することが可能である。 In both the first and second embodiments of the glare detection process, by adjusting the threshold value when the amount of sunlight irradiation is small despite the daytime due to cloudy weather or rainy weather. The determination result in step 33 or step S64 can be adjusted. That is, by adjusting the threshold value, it is possible to adjust which of the sunlight glare detection process and the illumination light glare detection process is selected.
次に、図13のフローチャートを参照して、図9のステップS35および図12のステップS66の太陽光眩しさ検出処理の詳細を説明する。 Next, details of the sunlight glare detection process in step S35 in FIG. 9 and step S66 in FIG. 12 will be described with reference to the flowchart in FIG.
ステップS91において、トラッキング部121は、所定の手法を用いて、顔画像におけるドライバの顔をトラッキングする。これにより、顔画像におけるドライバの顔の位置および形状、並びに、目の位置および形状などが検出される。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部321に供給する。
In step S91, the
ステップS92において、統計部321は、ドライバの目の周辺の画像の輝度値の平均値を算出し、ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であるかを判定する。
In step S92, the
具体的には、統計部321は、トラッキング部121によるトラッキング結果に基づいて、例えば、図14に示されるように、顔画像から、ドライバの右目の周辺の領域441−1、および、左目の周辺の領域441−2を抽出する。統計部321は、領域441−1内の右目の部分を除く画素の輝度値の平均値、および、領域441−2内の左目の部分を除く画素の輝度値の平均値を算出する。統計部321は、算出した2つの平均値のうち少なくとも一方が所定の閾値以上であると判定した場合、すなわち、ドライバの目の周辺が所定の輝度以上に明るい場合、処理はステップS94に進む。
Specifically, based on the tracking result by the
太陽光が照射されている昼間において、ドライバが眩しく感じる光は、直射日光、または、入射した太陽光が反射面によりほぼ同じ方向に反射された反射光、すなわち、太陽光の正反射光のうちいずれかがほとんどである。また、太陽光または太陽光の正反射光が人の目に射し込んだ場合、周囲の明るさに関わらず、ほとんどの人は眩しく感じる。すなわち、太陽光が照射されている昼間において、ドライバが眩しく感じている場合、一定以上の輝度の光が、ドライバの目およびその周辺に照射されていると言える。従って、太陽光が照射されている昼間においては、ドライバの目の周辺の画像の輝度値、すなわち、ドライバの目の周辺の明るさに基づいて、ほぼ正確にドライバにとって眩しい状態を検出することができる。 The light that the driver feels dazzling in the daytime when sunlight is radiated is either direct sunlight or reflected light in which the incident sunlight is reflected in almost the same direction by the reflecting surface, that is, regular reflection light of sunlight. One is almost. In addition, when sunlight or sunlight specularly reflected light enters human eyes, most people feel dazzled regardless of the surrounding brightness. That is, when the driver feels dazzling in the daytime when sunlight is radiated, it can be said that light of a certain level or higher is radiated to the driver's eyes and the vicinity thereof. Therefore, in the daytime when sunlight is radiated, it is possible to detect a dazzling state for the driver almost accurately based on the luminance value of the image around the driver's eyes, that is, the brightness around the driver's eyes. it can.
ステップS94において、状態検出部322は、ドライバにとって眩しい状態であると判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値以上であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射され、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部322は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
In step S94, the
ステップS93において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より暗い場合、処理はステップS95に進む。 If it is determined in step S93 that the average luminance value of the image around the driver's eyes is less than the predetermined threshold value, that is, if the periphery of the driver's eyes is darker than the predetermined luminance, the process proceeds to step S95. move on.
ステップS95において、状態検出部322は、ドライバにとって眩しい状態でないと判定し、太陽光眩しさ検出処理は終了する。具体的には、状態検出部322は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であることをもって、ドライバの目に直射日光または太陽光の正反射光が照射されておらず、現在の状態がドライバにとって眩しい状態ではないと判定する。状態検出部322は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
In step S95, the
なお、ステップS92において平均値の算出に用いた領域は、その一例であり、ドライバの両目を含む他の領域を用いるようにしてもよい。また、以上の説明では、領域441−1および領域441−2内の画素の輝度値の平均値を用いて、ドライバにとって眩しい状態を検出するようにしたが、例えば、輝度値の最大値、中間値など、領域内の画像の明るさを表すその他の統計値を用いるようにしてもよい。 The area used for calculating the average value in step S92 is an example, and another area including both eyes of the driver may be used. In the above description, the dazzling state for the driver is detected using the average value of the luminance values of the pixels in the region 441-1 and the region 441-2. Other statistical values representing the brightness of the image in the region, such as a value, may be used.
次に、図15のフローチャートを参照して、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の詳細を説明する。 Next, details of the illumination light glare detection process in step S37 in FIG. 9 and step S68 in FIG. 12 will be described with reference to the flowchart in FIG.
ステップS121において、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔がトラッキングされる。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を視線方向検出部122に供給する。
In step S121, the driver's face in the face image is tracked in the same manner as in step S91 in FIG. The
ステップS122において、視線方向検出部122は、ドライバの視線の向きを検出する。具体的には、視線方向検出部122は、所定の手法を用いて、顔画像およびトラッキング部121によるトラッキング結果に基づいて、ドライバの視線の向きを検出する。視線方向検出部122は、検出結果を示す情報を視界画像抽出部341に供給する。
In step S122, the line-of-sight
ステップS123において、視界画像抽出部341は、視界画像を抽出する。具体的には、視界画像抽出部341は、ドライバの視線の向きに基づいて、視界画像を前方画像から抽出する。視界画像抽出部341は、抽出した視界画像を統計部342および状態検出部345に供給する。
In step S123, the visual field
例えば、視界画像抽出部341は、前方監視カメラ112の位置とドライバの顔の位置との相対的な関係をもとに視差の補正を行って、前方画像における視線方向の中心点、換言すれば、視野の中心を求める。視界画像抽出部341は、視野の中心の周囲の所定の範囲(例えば、視野の中心を中心とする角度15度の視野の範囲)に含まれる円形の領域の画像を視界画像として抽出する。なお、視界画像の形状は、円形に限定されるものではなく、例えば、楕円形、矩形などにすることも可能である。
For example, the field-of-view
なお、前方画像において、実際にはドライバの視野内において遮蔽物により遮られている領域、すなわち、ドライバの眩しさにあまり影響がない領域を視界画像から除外するようにすることが望ましい。そのような遮蔽物として、例えば、運転席周辺のダッシュボード、ドア、ピラーなどがある。また、シェードの使用を検出して、シェードにより遮られる領域を視界画像から除外することも可能である。さらに、顔画像に基づいて、ドライバがつばのついた帽子をかぶっていることを検出して、帽子のつばにより遮られる領域を視界画像から除外するようにすることも可能である。 In the front image, it is desirable to exclude from the view image an area that is actually blocked by the shield in the visual field of the driver, that is, an area that does not significantly affect the glare of the driver. Examples of such a shield include a dashboard, a door, and a pillar around the driver's seat. It is also possible to detect the use of the shade and exclude the area blocked by the shade from the view image. Furthermore, based on the face image, it is possible to detect that the driver is wearing a hat with a brim, and to exclude an area blocked by the brim of the hat from the view image.
ステップS124において、統計部342は、所定の時間前から現在までの視界画像の輝度値の平均値を算出する。統計部342は、算出した平均値を示す情報を感度推定部343に供給する。
In step S124, the
ステップS125において、感度推定部343は、ドライバの目の感度を推定する。
In step S125, the
人間の目は、周囲の明るさに対して、大きく分けて、明所視、薄明視、および、暗所視の3つの状態のいずれかに遷移する。明所視は、約10ルクスから10万ルクスの環境下で、主に錐体細胞が網膜において働いている状態であって、暗所視と比較して目の感度が低く、ものの形と色がはっきり分かる状態である。暗所視は、約0.001ルクスから0.01ルクスの環境下で、主に杆体細胞が網膜において働いている状態であって、明所視と比較して目の感度が高く、ものの明暗だけがおぼろげに見える状態である。薄明視は、約0.01ルクスから10ルクスの環境下で、錐体細胞と杆体細胞の両方が網膜において働いている状態であって、明所視と暗所視との中間の状態である。すなわち、人間の目の感度は、周囲の明るさに応じて変化する。 The human eye changes to one of three states, photopic vision, twilight vision, and scotopic vision, roughly divided with respect to ambient brightness. Photopic vision is a state in which pyramidal cells mainly work in the retina under an environment of about 10 lux to 100,000 lux, and the sensitivity and shape of the eye is lower than that of scotopic vision. Is clearly understood. Dark vision is a condition in which rod cells are mainly working in the retina in an environment of about 0.001 lux to 0.01 lux, and the sensitivity of the eyes is higher than that of photopic vision, and only the lightness and darkness of the object is blurred. It is visible. Mesopic vision is a state where both pyramidal cells and rod cells work in the retina under an environment of about 0.01 lux to 10 lux, and is an intermediate state between photopic vision and scotopic vision. That is, the sensitivity of the human eye changes according to the surrounding brightness.
また、人間の目は、周囲の明るさの変動に対して、すぐには順応できない。具体的には、人間の目は、周囲が暗い状態から明るい状態に遷移しても、暗所視から明所視になるまでに、すなわち、明るい状態に順応(明順応)するまでに、数十秒から数分を要し、周囲が明るい状態から暗い状態に遷移しても、明所視から暗所視になるまでに、すなわち、暗い状態に順応(暗順応)するまでに、約30分から2時間を要する。すなわち、同じ明るさの環境下においても、それ以前の周囲の明るさの推移に応じて、人間の目の感度は異なる。 In addition, the human eye cannot readily adapt to changes in ambient brightness. Specifically, even if the human eye transitions from a dark state to a bright state, the number of times that the human eye changes from a dark place to a bright place, that is, until it adapts to a bright state (light adaptation). It takes about 10 seconds to several minutes, and even if the surroundings transition from a bright state to a dark state, it takes about 30 until it changes from a photopic vision to a scotopic vision, that is, until it adapts to a dark state (dark adaptation). It takes 2 hours from a minute. That is, even under the same brightness environment, the sensitivity of the human eye varies depending on the surrounding brightness transition.
さらに、人間の目は、入射光に対して、ごく短時間で瞳孔の開き具合を調整することにより、目に入射する光の量を調整することができる。 Furthermore, the human eye can adjust the amount of light incident on the eye by adjusting the degree of opening of the pupil in a very short time with respect to the incident light.
感度推定部343は、以上に述べた人間の目の特性に基づいて、統計部342により算出された輝度値の平均値を用いて、ドライバの目の感度を推定する。例えば、感度推定部343は、所定の時間前(例えば、1分前)から現在までの視界画像の輝度値の平均値の推移に基づいて、すなわち、ドライバの視界の明るさの推移に基づいて、ドライバの目の状態が、明所視、薄明視、または、暗所視のいずれの状態であるかを推定することにより、ドライバの目の感度を推定する。また、上述したように、暗順応は所用時間が長いため、例えば、視界画像の輝度値の平均値が低い状態で推移している場合、さらに長い時間前(例えば、1時間前)から現在までの視界画像の輝度値の平均値、および、暗順応曲線(アウベルト関数曲線)に基づいて、さらに細かくドライバの目の感度を推定するようにしてもよい。さらに、人間の目の感度の特性は、年齢などの違いにより個人差があるため、さらに個人の違いを考慮して、ドライバの感度を推定するようにしてもよい。
The
感度推定部343は、推定したドライバの目の感度を示す情報を閾値設定部344に供給する。
The
ステップS126において、閾値設定部344は、輝度閾値を設定する。
In step S126, the
ところで、人間は、同じ輝度の光に対しても、そのときの目の感度に応じて、眩しく感じる場合と感じない場合とがある。すなわち、人間は、同じ輝度の光に対しても、目の感度が高い場合、眩しさを感じやすく、目の感度が低い場合、眩しさを感じにくい。 By the way, humans may or may not feel dazzling even for light of the same luminance depending on the sensitivity of the eyes at that time. That is, humans can easily feel dazzling when the eye sensitivity is high, even when the light has the same luminance, and human eyes are less likely to feel dazzling when the eye sensitivity is low.
閾値設定部344は、予め設定されている変換式または変換テーブルなどを用いて、感度推定部343により推定された目の感度に基づいて、ドライバにとって眩しく感じられると推定される領域を視界画像から抽出するための輝度閾値を設定する。すなわち、推定された目の感度が高い場合、輝度閾値は低い値に設定され、目の感度が低い場合、輝度閾値は高い値に設定される。閾値設定部344は、設定した閾値を示す情報を状態検出部345に供給する。
Based on the eye sensitivity estimated by the
ステップS127において、状態検出部345は、視界画像において、輝度値が輝度閾値以上となる画素が占める割合を検出する。具体的には、状態検出部345は、視界画像の各画素のうち、輝度値が輝度閾値以上となる画素を抽出する。状態検出部345は、視界画像の全画素数のうち抽出した画素の数が占める割合を検出する。
In step S127, the
ステップS128において、状態検出部345は、検出された割合が所定の閾値以上であるかを判定する。状態検出部345は、ステップS127において検出された割合が所定の閾値以上であると判定した場合、処理はステップS129に進む。
In step S128, the
ステップS129において、状態検出部345は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さ以上であり、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部345は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
In step S129, the
ステップS128において、ステップS127において検出された割合が所定の閾値未満であると判定された場合、処理はステップS129に進む。 If it is determined in step S128 that the ratio detected in step S127 is less than the predetermined threshold, the process proceeds to step S129.
ステップS130において、状態検出部345は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部345は、ステップS127において検出された割合が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内において明るい領域が占める割合が所定の広さより狭く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部345は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
In step S130, the
次に、図16のフローチャートを参照して、図8のステップS5の眩しい状態検出時の処理の詳細を説明する。 Next, with reference to the flowchart of FIG. 16, the detail of the process at the time of the dazzling state detection of FIG.8 S5 is demonstrated.
ステップS151において、表示制御部114は、カーナビゲーション装置102に前方画像を表示させる。具体的には、表示制御部114は、前方画像の表示を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方監視カメラ112からの前方画像の取得、および、前方画像の表示を開始する。これにより、ドライバは、眩しくて見づらくなった車両の前方の状況を確実に確認することができる。
In step S151, the
ステップS152において、表示制御部114は、カーナビゲーション装置102の表示の設定を調整する。具体的には、表示制御部114は、例えば、画面の輝度を上げるように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度を上げる。これにより、眩しい状態においても、カーナビゲーション装置102の画面の視認性の低下が抑制され、ドライバは、画面に表示されている情報を確実に認識することができる。
In step S152, the
ステップS153において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を調整する。具体的には、表示制御部114は、ドライバにとって眩しくない位置に画像を表示するように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、指示された位置に画像の表示位置を変更する。これにより、ドライバは、ヘッドアップディスプレイ103により表示される画像を確実に認識することができる。
In step S153, the
なお、ここで、ドライバにとって眩しくない位置とは、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射しない位置である。例えば、表示制御部114は、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、眩しい光が入射する可能性が低い位置、例えば、フロントガラスの下端部などを予め設定しておき、設定された位置に画像の表示位置を移動させる。また、例えば、表示制御部114は、後述する図20の光源検出処理により検出された前方画像に写っている光源の位置に基づいて、ヘッドアップディスプレイ103の画像の表示位置とドライバの目を結ぶ軸上に、その光源から発せられる光が入射しない位置に画像の表示位置を移動させる。
Here, the position that is not dazzling for the driver is a position where dazzling light is not incident on the axis connecting the image display position of the head-up
ステップS154において、車両制御部115は、前方監視の検知距離を延長する。具体的には、車両制御部115は、前方監視の検知距離の延長を指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、車両の前方の人、動物、障害物などの存在を検知する距離を延長する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、車両の前方を監視する範囲が広げられる。
In step S154, the
ステップS155において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを早める。具体的には、車両制御部115は、起動するタイミングを早めるように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時より早くするように自身の設定を行う。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、乗員の安全を損なわないように、事故を事前に回避したり、衝突による被害を軽減させる動作がより早いタイミングで行われるようになる。
In step S155, the
ステップS156において、車両制御部115は、車両の加速を抑制し、眩しい状態検出時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時より加速を抑制するように車両のエンジンの動作を制御する。すなわち、眩しさによる視界の悪化によりドライバの注意力が低下し、車両の前方の確認が平常時より遅くなっても、追突や衝突を未然に防止することができるように、車両の加速が抑制される。
In step S156, the
次に、図17のフローチャートを参照して、図8のステップS7の眩しい状態終了時の処理の詳細を説明する。 Next, the details of the process at the end of the dazzling state in step S7 of FIG. 8 will be described with reference to the flowchart of FIG.
ステップS171において、表示制御部114は、カーナビゲーション装置102に前方画像の表示を停止させる。具体的には、表示制御部114は、前方画像の表示の停止を指示する情報を、カーナビゲーション装置102に供給する。カーナビゲーション装置102は、前方画像の表示を停止し、平常時の表示、例えば、目的地までのルートの案内の表示を再開する。
In step S171, the
ステップS172において、表示制御部114は、カーナビゲーション装置102の表示の設定を元に戻す。具体的には、表示制御部114は、画面の輝度、コントラストなどを平常時の設定に戻すように指示する情報をカーナビゲーション装置102に供給する。カーナビゲーション装置102は、指示に基づいて、画面の輝度、コントラストなどを平常時の設定に戻す。
In step S172, the
ステップS173において、表示制御部114は、ヘッドアップディスプレイ103の表示位置を元に戻す。具体的には、表示制御部114は、画像を表示する位置を平常時の位置に戻すように指示する情報をヘッドアップディスプレイ103に供給する。ヘッドアップディスプレイ103は、画像の表示位置を指示された位置、すなわち、平常時の位置に戻す。
In step S173, the
ステップS174において、車両制御部115は、前方監視の検知距離を元に戻す。具体的には、車両制御部115は、前方監視の検知距離を平常時の距離に戻すように指示する情報を前方監視装置104に供給する。前方監視装置104は、指示に基づいて、前方監視の検知距離を平常時の距離に戻す。
In step S174, the
ステップS175において、車両制御部115は、プリクラッシュセーフティシステム105が起動するタイミングを元に戻す。具体的には、車両制御部115は、起動するタイミングを平常時に戻すように指示する情報をプリクラッシュセーフティシステム105に供給する。プリクラッシュセーフティシステム105は、指示に基づいて、例えば、衝突を避けるための警報を発するタイミング、シートベルトを自動的に巻き取るタイミング、ブレーキを作動させるタイミングなどを平常時のタイミングとするように自身の設定を行う。
In step S175, the
ステップS176において、車両制御部115は、車両の加速の抑制を解除し、眩しい状態終了時の処理は終了する。具体的には、車両制御部115は、車両の加速の抑制の解除を指示する情報を動力制御装置106に供給する。動力制御装置106は、平常時の加速特性となるように車両のエンジンの動作を制御する。
In step S176, the
以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の感度に基づいて輝度閾値を変化させることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、ドライバの視界の悪化に対応した動作を行うように車両に設けられている車載装置を制御することにより、ドライバの視界の悪化に伴う安全性および利便性の低下が抑制される。 As described above, a dazzling state for a driver can be accurately detected regardless of the type of light source. In addition, by changing the luminance threshold based on the sensitivity of the driver's eyes, it is possible to detect a dazzling state for the driver more accurately than in the case where the luminance is based only on the surrounding brightness or the luminance of the driver's face. Further, by controlling an in-vehicle device provided in the vehicle so as to perform an operation corresponding to the deterioration of the driver's field of view, a decrease in safety and convenience due to the deterioration of the driver's field of view is suppressed.
また、視界画像を抽出して、抽出した視界画像の輝度に基づいて、ドライバにとって眩しい状態であるか否かを判定するので、眩しさの原因となっている光源の方向を容易に推測することができる。さらに、視界画像を解析することにより、例えば、光源を特定し、特定した光源の種類および位置などを眩しさを軽減するための対策に活用することができる。 In addition, it is possible to easily estimate the direction of the light source that causes glare because it is determined whether the driver is dazzling based on the brightness of the extracted view image by extracting the view image. Can do. Furthermore, by analyzing the field-of-view image, for example, the light source can be identified, and the type and position of the identified light source can be used as a countermeasure for reducing glare.
次に、図18乃至図21を参照して、図1の照明光眩しさ検出部125、並びに、図9のステップS37および図12のステップS68の照明光眩しさ検出処理の第2の実施の形態を説明する。
Next, referring to FIG. 18 to FIG. 21, the second implementation of the illumination light
図18は、図1の照明光眩しさ検出部125の第2の実施の形態を示すブロック図である。図18の照明光眩しさ検出部125は、視界画像抽出部341、光源検出部501、判定値算出部502、および、状態検出部503を含むように構成される。また、光源検出部501は、輝度変化検出部511および領域検出部512を含むように構成される。なお、図中、図7と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。
FIG. 18 is a block diagram showing a second embodiment of the illumination light
光源検出部501は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化に基づいて、光源が写っている前方画像の領域(以下、光源領域とも称する)を検出する。なお、光源領域には、自ら光を発する一次光源が写っている領域、および、一次光源からの光の正反射光、すなわち、一次光源からの光が反射面により入射角とほぼ同じ角度で反射された光が写っている領域が含まれる。
As will be described later with reference to FIG. 20, the light
輝度変化検出部511は、前方監視カメラ112から前方画像を取得する。輝度変化検出部511は、図20を参照して後述するように、前方画像の各画素の位置の変化に対する輝度値の変化を検出し、検出結果を示す情報を領域検出部512に供給する。
The luminance
領域検出部512は、図20を参照して後述するように、輝度変化検出部511からの検出結果に基づいて、光源領域を検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。
As will be described later with reference to FIG. 20, the
判定値算出部502は、視界画像を視界画像抽出部341から取得する。判定値算出部502は、図20を参照して後述するように、ドライバにとって眩しい状態を検出するための眩しさ判定値を算出し、算出した眩しさ判定値を示す情報を状態検出部503に供給する。
The determination
状態検出部503は、図19を参照して後述するように、判定値算出部502により算出された眩しさ判定値に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 19, the
次に、図19のフローチャートを参照して、図9のステップS37の照明光眩しさ検出処理の第2の実施の形態を説明する。 Next, a second embodiment of the illumination light glare detection process in step S37 of FIG. 9 will be described with reference to the flowchart of FIG.
ステップS201において、光源検出部501は、光源検出処理を実行する。光源検出処理の詳細は、図20を参照して後述するが、この処理により、光源領域が検出され、光源領域の位置を示す情報が、領域検出部512から判定値算出部502に供給される。
In step S201, the light
ステップS202において、上述した図15のステップS122の処理と同様に、ドライバの視線の向きが検出され、ステップS203において、上述した図15のステップS123の処理と同様に、視界画像が抽出される。抽出された視界画像は、視界画像抽出部341から判定値算出部502に供給される。
In step S202, the direction of the driver's line of sight is detected in the same manner as in step S122 in FIG. 15 described above, and in step S203, a field-of-view image is extracted in the same manner as in step S123 in FIG. The extracted view field image is supplied from the view field
ステップS204において、判定値算出部502は、眩しさ判定値を算出する。具体的には、判定値算出部502は、視界画像において、領域検出部512により検出された光源領域内の画素を抽出する。判定値算出部502は、抽出した画素の輝度値を合計することにより、眩しさ判定値を算出する。すなわち、眩しさ判定値は、視界画像において、光源領域の面積が広いほど、かつ、光源領域内の画素の輝度値が高いほど、大きな値となる。
In step S204, the determination
なお、例えば、ドライバの視野の中心に近い画素ほど大きくなるように重みを設定し、設定した重みを輝度値に乗じてから、加算することにより眩しさ判定値を求めるようにしてもよい。 Note that, for example, a weight may be set so as to increase as the pixel is closer to the center of the visual field of the driver, and the luminance value may be multiplied by the set weight and then added to obtain the glare determination value.
ステップS205において、状態検出部503は、眩しさ判定値が所定の閾値以上であるかを判定する。眩しさ判定値が所定の閾値以上であると判定された場合、処理はステップS206に進む。
In step S205, the
ステップS206において、状態検出部503は、ドライバにとって眩しい状態であると判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値以上であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が大きく、または、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の輝度が高く、現在の状態がドライバにとって眩しい状態であると判定する。状態検出部503は、ドライバにとって眩しい状態が検出されたことを示す情報を表示制御部114および車両制御部115に供給する。
In step S206, the
ステップS205において、眩しさ判定値が所定の閾値未満であると判定された場合、処理はステップS207に進む。 If it is determined in step S205 that the dazzling determination value is less than the predetermined threshold value, the process proceeds to step S207.
ステップS207において、状態検出部503は、ドライバにとって眩しい状態でないと判定し、照明光眩しさ検出処理は終了する。具体的には、状態検出部503は、眩しさ判定値が所定の閾値未満であることをもって、ドライバの視野の中心を中心とする所定の範囲内に存在する光源の面積の合計値が小さく、かつ、光源の輝度が低く、現在の状態がドライバにとって眩しい状態でないと判定する。状態検出部503は、ドライバにとって眩しい状態が検出されなかったことを示す情報を表示制御部114および車両制御部115に供給する。
In step S207, the
次に、図20のフローチャートを参照して、図19のステップS201の光源検出処理の詳細を説明する。 Next, details of the light source detection processing in step S201 in FIG. 19 will be described with reference to the flowchart in FIG.
ステップS231において、輝度変化検出部511は、前方画像の水平方向において、輝度値が大きく変化する位置を検出する。例えば、輝度変化検出部511は、前方画像の水平方向の各行の輝度値を、左方向から右方向に見ていき、隣接する画素間の輝度値の差が所定の大きさ以上となる位置、すなわち、隣接する画素間の輝度値の変化が所定の大きさ以上となる位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。
In step S231, the luminance
図21の画像601は、夜間に郊外を走行する車両から撮像した前方画像の例を模式的に示し、図21のグラフは、画像601の2つの矢印Aで挟まれた水平方向の行の輝度値の変化を示している。なお、グラフの横軸は、画素の位置を示しており、縦軸は、その位置の画素の輝度値を示している。
An
図21のグラフに示されるように、画像601においては、自ら発光する光源である対向車のヘッドライト611−1,611−2の領域の輝度値が、周囲の輝度値と比較して、突出して高くなっている。従って、画像601の2つの矢印Aで挟まれた行においては、ステップS231において、ヘッドライト611−1の左端付近の位置P1および右端付近の位置P2、並びに、ヘッドライト611−2の左端付近の位置P3および右端付近の位置P4が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、ヘッドライト611−1,611−2の端部付近以外の位置では、輝度値が大きく変化しないため、隣接する画素間の輝度値の変化が所定の大きさ以上である位置は検出されない。
As shown in the graph of FIG. 21, in the
同様に、一般的に、夜間に撮像した前方画像においては、光源または光源からの光の正反射光の端部付近の位置が、隣接する画素間の輝度値の変化が所定の大きさ以上である位置として検出される。また、光源または光源からの光の正反射光の端部付近の位置以外では、隣接する画素間の輝度値の変化が所定の大きさ以上である位置はほとんど検出されない。 Similarly, in general, in the front image captured at night, the position near the edge of the light source or the specularly reflected light from the light source indicates that the change in luminance value between adjacent pixels is greater than or equal to a predetermined magnitude. It is detected as a certain position. In addition, a position where a change in luminance value between adjacent pixels is not less than a predetermined magnitude is hardly detected except for a position near the edge of the light source or the regular reflection light of the light from the light source.
ステップS232において、ステップS231の処理と同様に、輝度変化検出部511は、前方画像の垂直方向において、輝度値が大きく変化する位置を検出する。輝度変化検出部511は、検出した位置を示す情報を領域検出部512に供給する。
In step S232, as in the process of step S231, the luminance
なお、輝度値が大きく変化する位置を検出する方法は、上述した方法に限定されるものではなく、例えば、水平または垂直方向の線形一次微分フィルタを用いて前方画像にフィルタ処理を施した画像を用いて検出するようにしてもよい。 Note that the method of detecting the position where the luminance value greatly changes is not limited to the above-described method. For example, an image obtained by performing filtering on the front image using a linear linear differential filter in the horizontal or vertical direction is used. You may make it detect using.
ステップS233において、領域検出部512は、光源が写っている領域を検出する。具体的には、領域検出部512は、前方画像の水平方向の各行ごとに、ステップS231において検出された位置、および、前方画像の左右の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。例えば、図21の画像601の2つの矢印Aで挟まれた行においては、画像601の左端と位置P1の間の領域、位置P1と位置P2の間の領域、位置P2と位置P3の間の領域、位置P3と位置P4の間の領域、および、位置P4と画像601の右端の間の領域のうち、隣接する領域と比較して輝度値が高い領域である、位置P1と位置P2の間の領域、および、位置P3と位置P4の間の領域に含まれる画素が抽出される。
In step S233, the
また、領域検出部512は、前方画像の垂直方向の各列ごとに、ステップS232において検出された位置、および、前方画像の上下の端部で区分される領域のうち、隣接する領域と比較して、輝度値が高い領域に含まれる画素を抽出する。
In addition, the
領域検出部512は、抽出した画素により構成される領域を、前方画像内において光源が写っている領域、すなわち、光源領域として検出する。領域検出部512は、検出した光源領域の位置を示す情報を判定値算出部502に供給する。
The
以上のようにして、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの視界内の光源の輝度および面積を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。さらに、前方画像内において光源が写っている位置を、簡単かつ正確に検出することができる。 As described above, a dazzling state for a driver can be accurately detected regardless of the type of light source. Also, by adding the brightness and area of the light source in the driver's field of view to the detection condition, it is possible to detect a dazzling state for the driver more accurately than in the case where it is based solely on the surrounding brightness or the brightness of the driver's face. it can. Furthermore, the position where the light source is reflected in the front image can be detected easily and accurately.
なお、上述した図9の処理において、ステップS33の判定処理の結果に基づいて、太陽光眩しさ検出処理と照明光眩しさ検出処理のいずれかを選択して実行するようにしたが、ステップS35において、ステップS37の処理と異なる閾値を用いることにより、第1の実施の形態または第2の実施の形態の照明光眩しさ検出処理を行うようにしてもよい。すなわち、太陽光が照射しているか否かに基づいて、閾値を調整して、照明光眩しさ検出処理を実行することにより、ドライバにとって眩しい状態を検出するようにしてもよい。 In addition, in the process of FIG. 9 described above, either the sunlight glare detection process or the illumination light glare detection process is selected and executed based on the result of the determination process in step S33, but step S35 is performed. In this case, the illumination light glare detection process of the first embodiment or the second embodiment may be performed by using a threshold different from the process of step S37. That is, a dazzling state for the driver may be detected by adjusting the threshold value based on whether or not sunlight is radiated and executing the illumination light glare detection process.
なお、以上の説明では、図15および図19の照明光眩しさ検出処理において、車両の前方のみを対象にドライバにとって眩しい状態を検出するようにしたが、正面以外の方向、例えば、車両の左右の方向、後方などを対象に含めるようにしてもよい。この場合、追加する検出方向を撮像する撮像装置、および、追加する検出方向にドライバが向いたときのドライバの顔を撮像する撮像装置を設け、上述した処理と同様に、追加する検出方向を撮像する撮像装置により撮像した画像から視界画像を抽出したり、あるいは、光源が映っている領域を検出したりして、ドライバにとって眩しい状態を検出するようにすればよい。この場合、例えば、車両の周囲の全方位を撮像できる全方位カメラを設けるようにしてもよい。 In the above description, in the illumination light glare detection process of FIGS. 15 and 19, a dazzling state for the driver is detected only for the front of the vehicle. The direction, the rear, etc. may be included in the target. In this case, an imaging device that images the detection direction to be added and an imaging device that images the face of the driver when the driver faces the detection direction to be added are provided, and the detection direction to be added is imaged in the same manner as the above-described processing. A field-of-view image may be extracted from an image captured by the imaging device, or a region where a light source is reflected may be detected to detect a dazzling state for the driver. In this case, for example, an omnidirectional camera that can image all directions around the vehicle may be provided.
次に、図22乃至図26を参照して、本発明の第2の実施の形態について説明する。 Next, a second embodiment of the present invention will be described with reference to FIGS.
図22は、本発明の第2の実施の形態である監視システム701の構成を示すブロック図である。監視システム701は、室内監視カメラ111、眩しさ検出部711、表示制御部114、および、車両制御部115を含むように構成される。また、眩しさ検出部711は、トラッキング部121、統計部721、基準高さ検出部722、および、状態検出部723を含むように構成される。なお、監視システム101に設けられていた前方監視カメラ112は、監視システム701の外部に設けられている。
FIG. 22 is a block diagram showing a configuration of a
なお、図中、図1と対応する部分は同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。 In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and the description of the portions having the same processing will be omitted because it is repeated.
眩しさ検出部711は、図24などを参照して後述するように、ドライバにとって眩しい状態を検出する。
The
トラッキング部121は、室内監視カメラ111により撮像された顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングすることにより検出されるドライバの目の高さを示す情報を、基準高さ検出部722および状態検出部723に供給する。
The
図23は、目の高さを検出する位置の例を示す図である。例えば、図内の矢印Hで示される、目頭801と目尻802の間の中点Pにおける上瞼と下瞼の間の高さが、ドライバの目の高さとして検出される。なお、目の高さを検出する位置は、この例に限定されるものではなく、例えば、上瞼の下端のいちばん高い位置と下瞼の上端のいちばん低い位置との間の高さを目の高さとして検出するようにしてもよい。
FIG. 23 is a diagram illustrating an example of a position where the eye height is detected. For example, the height between the upper eyelid and the lower eyelid at the midpoint P between the
統計部721は、図6の統計部321と同様に、取得したトラッキング結果に基づいて、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値を算出し、算出した統計値を示す情報を基準高さ検出部722に供給する。
Similar to the
基準高さ検出部722は、図25を参照して後述するように、ドライバにとって眩しい状態を検出するための基準となるドライバの目の高さである基準高さを検出し、検出した基準高さを示す情報を状態検出部723に供給する。
As will be described later with reference to FIG. 25, the reference
状態検出部723は、図26を参照して後述するように、顔画像におけるドライバの目の周辺の領域の画像の輝度値の統計値、および、トラッキング部121により検出されたドライバの目の高さと基準高さとの比較結果に基づいて、ドライバにとって眩しい状態を検出し、検出結果を示す情報を表示制御部114および車両制御部115に供給する。
As will be described later with reference to FIG. 26, the
次に、図24乃至図26を参照して、監視システム701の処理を説明する。
Next, processing of the
まず、図24を参照して、監視システム701により実行される車載装置制御処理を説明する。なお、この処理は、例えば、監視システム701が設けられている車両のエンジンが始動されたとき開始される。
First, the in-vehicle device control process executed by the
ステップS301において、図8のステップS1の処理と同様に、ドライバの顔の撮像が開始される。 In step S301, imaging of the driver's face is started in the same manner as in step S1 of FIG.
ステップS302において、眩しさ検出部711は、基準高さ検出処理を実行する。基準高さ検出処理の詳細は、図25を参照して後述するが、この処理により、ドライバの目の基準高さが検出される。
In step S302, the
ステップS303において、眩しさ検出部711は、眩しさ検出処理を実行する。眩しさ検出処理の詳細は、図26を参照して後述するが、この処理により、ドライバにとって眩しい状態が検出される。
In step S303, the
ステップS304乃至S308の処理は、図8のステップS4乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S304 to S308 is the same as the processing in steps S4 to S8 in FIG.
次に、図25のフローチャートを参照して、図24のステップS302の基準高さ検出処理の詳細を説明する。 Next, details of the reference height detection process in step S302 in FIG. 24 will be described with reference to the flowchart in FIG.
ステップS331において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを基準高さ検出部722に供給する。
In step S331, the
ステップS332において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を基準高さ検出部722に供給する。
In step S332, the
ステップS333において、基準高さ検出部722は、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であるかを判定する。統計部721により算出された輝度値の平均値が所定の閾値以上であると判定された場合、すなわち、ドライバの目の周辺が所定の輝度より明るい場合、処理はステップS331に戻る。その後、ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定されるまで、ステップS331乃至S333の処理が繰り返し実行される。
In step S333, the reference
ステップS333において、ドライバの目の周辺の画像の輝度値の平均値が所定の閾値未満であると判定された場合、処理はステップS334に進む。 If it is determined in step S333 that the average luminance value of the image around the driver's eyes is less than the predetermined threshold, the process proceeds to step S334.
ステップS334において、基準高さ検出部722は、データを蓄積する。具体的には、基準高さ検出部722は、直前のステップS331において検出されたドライバの目の高さ、すなわち、ドライバの目の周辺が所定の輝度より暗い状態のときのドライバの目の高さを示すデータを、内部の図示せぬ記憶部に蓄積する。
In step S334, the reference
ステップS335において、基準高さ検出部722は、所定の量のデータが蓄積されたかを判定する。所定の量のデータが蓄積されていないと判定された場合、処理はステップS331に戻り、その後、ステップS335において、所定の量のデータが蓄積されたと判定されるまで、ステップS331乃至S335の処理が繰り返し実行される。
In step S335, the reference
ステップS335において、所定の量のデータが蓄積されたと判定された場合、すなわち、ドライバの目の高さを示すデータが所定の量だけ蓄積された場合、処理はステップS336に進む。 If it is determined in step S335 that a predetermined amount of data has been accumulated, that is, if a predetermined amount of data indicating the eye height of the driver has been accumulated, the process proceeds to step S336.
ステップS336において、基準高さ検出部722は、基準高さを検出し、基準高さ検出処理は終了する。具体的には、基準高さ検出部722は、蓄積されたデータにおける、ドライバの目の高さの平均値を算出し、基準高さとする。すなわち、基準高さは、ドライバの目の周辺があまり明るくない状態、すなわち、ドライバにとってあまり眩しくない状態における目の高さの平均値とされる。
In step S336, the reference
なお、このとき、瞬きなどにより目の大きさが変化しているときのデータを除くために、最大値および最小値付近のデータを除外して、平均値を算出するようにしてもよい。 At this time, in order to exclude data when the size of the eye is changed due to blinking or the like, the average value may be calculated by excluding data near the maximum value and the minimum value.
次に、図26のフローチャートを参照して、図24のステップS303の眩しさ検出処理の詳細を説明する。 Next, details of the glare detection process in step S303 in FIG. 24 will be described with reference to the flowchart in FIG.
ステップS361において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。トラッキング部121は、顔画像およびその顔画像のトラッキング結果を示す情報を統計部721に供給する。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。
In step S361, the
ステップS362において、統計部721は、上述した図13のステップS92における統計部321による処理と同様に、ドライバの目の周辺の画像の輝度値の平均値を算出する。統計部721は、算出した平均値を示す情報を状態検出部723に供給する。
In step S362, the
ステップS363において、状態検出部723は、直前の処理において、ドライバにとって眩しい状態であったかを判定する。直前に実行した眩しさ検出処理において、ドライバにとって眩しい状態でなかったと判定された場合、処理はステップS364に進む。
In step S363, the
ステップS364において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化したと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化した場合、処理はステップS365に進む。
In step S364, the
ステップS365において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内であるかを判定する。ドライバの目の高さが、基準高さの所定の割合(例えば、60%)の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている場合、処理はステップS366に進む。
In step S365, the
ステップS366において、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したかを判定する。ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、まだ所定の時間(例えば、1秒間)継続していないと判定された場合、処理はステップS367に進む。
In step S366, the
ステップS367において、トラッキング部121は、上述した図13のステップS91の処理と同様に、顔画像におけるドライバの顔をトラッキングする。また、トラッキング部121は、トラッキングを行うことにより検出されたドライバの目の高さを示すデータを状態検出部723に供給する。
In step S367, the
その後、処理はステップS365に戻り、ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定されるか、ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定されるまで、ステップS365乃至S367の処理が繰り返し実行される。 Thereafter, the process returns to step S365, and it is determined in step S365 that the driver's eye height exceeds a predetermined range of the reference height, or in step S366, the driver's eye height is The processes in steps S365 to S367 are repeatedly executed until it is determined that the state within the predetermined ratio range of the reference height has continued for a predetermined time.
ステップS366において、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が所定の時間継続した場合、処理はステップS368に進む。 If it is determined in step S366 that the eye height of the driver is within a predetermined ratio range of the reference height, it is determined that the state has continued for a predetermined time, that is, up to a predetermined ratio range of the reference height. If the driver is narrowing his eyes for a predetermined time, the process proceeds to step S368.
ステップS368において、状態検出部723は、ドライバにとって眩しい状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化し、ドライバの目の高さが基準高さの所定の割合の範囲内である状態が、所定の時間継続したことをもって、眩しさを避けるためにドライバが目を細めており、ドライバにとって眩しくない状態から眩しい状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しい状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。
In step S368, the
ステップS365において、ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。 In step S365, when it is determined that the eye height of the driver exceeds the predetermined ratio range of the reference height, it is not determined that the driver has shifted to a dazzling state, and the glare detection process ends. To do.
ステップS364において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以上高い方向に変化していないと判定された場合、すなわち、ドライバの目の周辺の輝度が所定の値以上明るく変化していない場合、ドライバにとって眩しい状態に遷移したとは判定されずに、眩しさ検出処理は終了する。 In step S364, when it is determined that the average value of the luminance values of the images around the driver's eyes has not changed in a higher direction than the predetermined threshold, that is, the luminance around the driver's eyes is equal to or higher than the predetermined value. When it is not changing brightly, it is not determined that the driver has shifted to a dazzling state, and the dazzling detection process ends.
ステップS363において、直前の眩しさ検出処理において、ドライバにとって眩しい状態であったと判定された場合、処理はステップS369に進む。 In step S363, if it is determined in the previous glare detection process that the driver is dazzling, the process proceeds to step S369.
ステップS369において、ステップS365の処理と同様に、ドライバの目の高さが基準高さの所定の割合の範囲内であるかが判定される。ドライバの目の高さが基準高さの所定の割合の範囲を超えていると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていない場合、処理はステップS370に進む。 In step S369, as in the process of step S365, it is determined whether the eye height of the driver is within a predetermined ratio range of the reference height. If it is determined that the eye height of the driver exceeds the range of a predetermined ratio of the reference height, that is, if the driver has not narrowed the eye to the range of the predetermined ratio of the reference height, the process is Proceed to step S370.
ステップS370において、状態検出部723は、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であるかを判定する。ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値以下であると判定した場合、すなわち、ドライバの目の周辺の輝度が所定の輝度より暗い場合、処理はステップS371に進む。
In step S370, the
ステップS371において、状態検出部723は、ドライバにとって眩しくない状態に遷移したと判定し、眩しさ検出処理は終了する。具体的には、状態検出部723は、ドライバの目の高さが基準高さの所定の割合の範囲を超えており、かつ、ドライバの目の周辺の輝度が所定の輝度より暗いことをもって、ドライバにとって眩しい状態から眩しくない状態に遷移したと判定する。状態検出部723は、ドライバにとって眩しくない状態に遷移したことを示す情報を表示制御部114および車両制御部115に供給する。
In step S371, the
ステップS370において、ドライバの目の周辺の画像の輝度値の平均値が、所定の閾値より大きいと判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めていないが、ドライバの目の周辺の輝度が所定の輝度より明るい場合、ステップS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。 If it is determined in step S370 that the average value of the luminance values of the images around the driver's eyes is greater than a predetermined threshold, that is, the driver has not narrowed his eyes to a predetermined percentage range of the reference height. However, if the luminance around the driver's eyes is brighter than the predetermined luminance, the process of step S371 is skipped, and it is not determined that the driver has transitioned to a non-glare state, and the glare detection process ends.
ステップS369において、ドライバの目の高さが基準高さの所定の割合の範囲内であると判定された場合、すなわち、基準高さの所定の割合の範囲内までドライバが目を細めている状態が継続している場合、ステップS370およびS371の処理はスキップされ、ドライバにとって眩しくない状態に遷移したとは判定されずに、眩しさ検出処理は終了する。 When it is determined in step S369 that the driver's eye height is within a predetermined ratio range of the reference height, that is, the driver is narrowing his eyes to a predetermined ratio range of the reference height. Is continued, the processes of steps S370 and S371 are skipped, and it is not determined that the driver has shifted to a state that is not dazzling, and the glare detection process ends.
以上のようにして、ドライバの顔画像のみを用いて、光源の種類の違いに関わらず、ドライバにとって眩しい状態を正確に検出することができる。また、ドライバの目の高さおよびドライバの目の周囲の輝度を検出条件に加えることにより、周囲の明るさやドライバの顔の輝度のみに基づく場合と比較して、ドライバにとって眩しい状態をより正確に検出することができる。また、基準高さをドライバごとに検出することにより、個々のドライバに応じた眩しい状態を検出することができる。 As described above, using only the driver's face image, a dazzling state for the driver can be accurately detected regardless of the type of light source. In addition, by adding the height of the driver's eyes and the brightness around the driver's eyes to the detection condition, the dazzling state for the driver can be more accurately compared to the case based solely on the surrounding brightness and the brightness of the driver's face. Can be detected. Moreover, the dazzling state according to each driver can be detected by detecting the reference height for each driver.
なお、ドライバの顔の輝度を考慮せずに、ドライバの目の高さのみに基づいて、ドライバにとって眩しい状態を検出するようにすることも可能である。 It is also possible to detect a dazzling state for the driver based on only the eye height of the driver without considering the brightness of the driver's face.
なお、以上の説明では、カーナビゲーション装置102に前方画像を表示させたり、カーナビゲーション装置の表示の設定を調整する例を示したが、カーナビゲーション装置102以外の車両に設けられている表示装置に前方画像を表示させたり、表示装置の表示の設定を調整するようにしてもよい。
In the above description, an example is shown in which a front image is displayed on the
また、前方監視カメラ112に広角レンズを用いたり、前方監視カメラ112を複数台設けることにより、より広い範囲の前方画像から視界画像を抽出することが可能となり、より正確にドライバにとって眩しい状態を検出することができる。
In addition, by using a wide-angle lens for the
さらに、ドアミラー、ルームミラーなどのミラーにより反射された光がドライバの顔に照射され、眩しさに影響を与えることを考慮して、車両の後方を撮像する後方監視カメラを設けて、ミラーによりドライバの視界に入る範囲の画像を後方監視カメラにより撮像された画像から抽出する。そして、前方画像において、実際にはドライバにはミラーが見えている領域を、抽出した画像に置き換えた後、視界画像を抽出するようにしてもよい。これにより、ミラーの影響を考慮して、ドライバにとって眩しい状態を検出することができる。 Furthermore, taking into account that light reflected by mirrors such as door mirrors and rearview mirrors is applied to the driver's face and affects glare, a rear surveillance camera that captures the rear of the vehicle is provided, and the driver is driven by the mirror. An image in a range that falls within the field of view is extracted from the image captured by the rear monitoring camera. Then, in the front image, the area where the mirror is actually visible to the driver may be replaced with the extracted image, and then the view field image may be extracted. Thereby, the dazzling state for the driver can be detected in consideration of the influence of the mirror.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図27は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ900の構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。
FIG. 27 is a block diagram showing an example of the configuration of a
CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。
An input /
入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。
Further, the program may be acquired via the
入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。
A drive 910 connected to the input /
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図27に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 27, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
101 監視システム
102 カーナビゲーション装置
103 ヘッドアップディスプレイ
104 前方監視装置
105 プリクラッシュセーフティシステム
106 動力制御部
111 室内監視カメラ
112 前方監視カメラ
113 眩しさ検出部
114 表示制御部
115 車両制御部
121 トラッキング部
122 視線方向検出部
123 検出方法選択部
124 太陽光眩しさ検出部
125 照明光眩しさ検出部
202 対数変換型撮像素子
301 統計部
302 選択部
321 統計部
322 状態検出部
341 視界画像抽出部
342 統計部
343 感度推定部
344 閾値設定部
345 状態検出部
501 光源検出部
502 判定値算出部
503 状態検出部
511 輝度変化検出部
512 領域検出部
701 監視システム
711 眩しさ検出部
721 統計部
722 基準高さ検出部
723 状態検出部
DESCRIPTION OF
Claims (17)
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する第1の状態検出手段と
を含む監視装置。 A visual field image extracting means for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image of the front of the vehicle based on the direction of the driver's line of sight;
And a first state detection unit that detects whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
前記前方画像の輝度に基づいて、前記第1の状態検出手段および前記第2の状態検出手段のうちどちらを用いるかを選択する選択手段と
をさらに含む請求項1に記載の監視装置。 Second state detecting means for detecting whether or not intense light is emitted to the eyes of the driver based on the brightness of the area around the eyes of the driver in the face image that is an image of the face of the driver When,
The front image based on the luminance of the monitoring device of claim 1, further comprising a selecting means for selecting whether to use either one of the first state detection means and said second state detection means.
請求項1に記載の監視装置。 The first state detection unit detects whether or not strong light is emitted to the eyes of the driver based on a ratio of pixels having luminance equal to or higher than a predetermined threshold in the visual field image. The monitoring device described in 1.
推定された前記ドライバの感度に基づいて、前記閾値を設定する閾値設定手段と
をさらに含む請求項3に記載の監視装置。 Sensitivity estimation means for estimating the sensitivity of the eyes of the driver based on the brightness of the field-of-view image from a predetermined time to the present;
The monitoring apparatus according to claim 3 , further comprising: a threshold setting unit that sets the threshold based on the estimated sensitivity of the driver.
前記変化位置および前記前方画像の端部により区分される領域のうち、隣接する領域と比較して輝度が高い領域に含まれる画素により構成される領域を、光源領域として検出する領域検出手段と
をさらに含み、
前記第1の状態検出手段は、前記視界画像の各画素のうち、前記光源領域に含まれる画素の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する
請求項1に記載の監視装置。 In the front image, position detecting means for detecting a change position that is a position where the luminance changes greatly,
A region detecting means for detecting, as a light source region, a region constituted by pixels included in a region having a higher brightness than an adjacent region among regions divided by the change position and an edge of the front image; In addition ,
Said first state detection means, among the pixels of the field image, the claims based on the brightness of the pixels included in the light source region, strong light to the eye of the driver to detect whether it is illuminated The monitoring apparatus according to 1.
請求項5に記載の監視装置。 It said position detecting means, for each column of horizontal rows and vertical direction of the front image, to claim 5 for detecting the position where the change in brightness between adjacent pixels is equal to or greater than the predetermined size as the change positions The monitoring device described.
さらに含む請求項1に記載の監視装置。 The monitoring apparatus according to claim 1, further comprising a gaze direction detection unit that detects a gaze direction of the driver based on a face image that is an image of the driver's face.
さらに含む請求項1に記載の監視装置。 On-vehicle device control means for controlling an on-vehicle device provided in the vehicle so as to perform an operation corresponding to a deterioration in the visibility of the driver when a state in which strong light is irradiated to the driver's eyes is detected. The monitoring device according to claim 1, further comprising:
請求項8に記載の監視装置。 The in-vehicle device control unit, the monitoring device according to claim 8 for controlling the display device as the vehicle device so as to display the front image.
請求項8に記載の監視装置。 The monitoring device according to claim 8, wherein the in-vehicle device control unit controls the display device as the in-vehicle device so as to increase a screen brightness.
請求項8に記載の監視装置。 The monitoring device according to claim 8, wherein the in-vehicle device control unit controls a head-up display as the in-vehicle device so as to change a position for displaying an image.
請求項8に記載の監視装置。 The monitoring device according to claim 8, wherein the in-vehicle device control means controls the front monitoring device that is the in-vehicle device that monitors the front of the vehicle so as to extend a distance for monitoring the front of the vehicle.
請求項8に記載の監視装置。 The vehicle-mounted device control means controls the pre-crash safety system so as to advance the timing of starting the pre-crash safety system, which is the vehicle-mounted device that performs an operation for avoiding an accident in advance or reducing damage caused by a collision. Item 9. The monitoring device according to Item 8.
請求項8に記載の監視装置。 The monitoring device according to claim 8, wherein the in-vehicle device control unit controls a power control device that is the in-vehicle device that controls operation of an engine of the vehicle so as to suppress acceleration of the vehicle.
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
を含む監視方法。 A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image obtained by imaging the front of the vehicle based on the direction of the line of sight of the driver;
A state detecting step of detecting whether or not intense light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
前記視界画像の輝度に基づいて、前記ドライバの目に強い光が照射されているか否かを検出する状態検出ステップと
を含む処理をコンピュータに実行させるプログラム。 A visual field image extraction step for extracting a visual field image that is an image in a predetermined range including the center of the visual field of the driver from a front image that is an image obtained by imaging the front of the vehicle based on the direction of the line of sight of the driver;
A program that causes a computer to execute processing including: a state detection step of detecting whether or not strong light is emitted to the eyes of the driver based on the luminance of the field-of-view image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007067173A JP4910802B2 (en) | 2006-03-15 | 2007-03-15 | Monitoring device and method, recording medium, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006071678 | 2006-03-15 | ||
JP2006071678 | 2006-03-15 | ||
JP2007067173A JP4910802B2 (en) | 2006-03-15 | 2007-03-15 | Monitoring device and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007276766A JP2007276766A (en) | 2007-10-25 |
JP4910802B2 true JP4910802B2 (en) | 2012-04-04 |
Family
ID=38678665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007067173A Active JP4910802B2 (en) | 2006-03-15 | 2007-03-15 | Monitoring device and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4910802B2 (en) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7796491B2 (en) | 2004-09-29 | 2010-09-14 | Panasonic Corporation | Wavelength plate, optical element, and optical pickup |
JP4939374B2 (en) * | 2007-11-06 | 2012-05-23 | アイシン精機株式会社 | VISION VISION SUPPORT DEVICE AND VEHICLE VISUAL SUPPORT METHOD |
JP5071198B2 (en) * | 2008-03-28 | 2012-11-14 | 富士通株式会社 | Signal recognition device, signal recognition method, and signal recognition program |
JP2009257815A (en) * | 2008-04-14 | 2009-11-05 | Calsonic Kansei Corp | Meter brightness adjusting system |
JP5802926B2 (en) * | 2011-02-04 | 2015-11-04 | 富士重工業株式会社 | Luminance control device for in-vehicle display device, luminance control program, and luminance control method |
JP2012240530A (en) * | 2011-05-18 | 2012-12-10 | Koito Mfg Co Ltd | Image processing apparatus |
JP2014201197A (en) * | 2013-04-04 | 2014-10-27 | トヨタ自動車株式会社 | Head-up display apparatus |
US10110859B2 (en) | 2013-06-11 | 2018-10-23 | Koninklijke Philips N.V. | System, method and device for monitoring light and sound impact on a person |
JPWO2015025350A1 (en) * | 2013-08-19 | 2017-03-02 | 三菱電機株式会社 | In-vehicle display controller |
JP6175589B2 (en) * | 2015-03-19 | 2017-08-02 | 富士フイルム株式会社 | Projection display apparatus and projection display method |
JP6312647B2 (en) * | 2015-11-13 | 2018-04-18 | オートリブ ディベロップメント エービー | Danger avoidance device and computer program |
KR102578679B1 (en) * | 2016-01-11 | 2023-09-13 | 엘지전자 주식회사 | Head-up display apparatus and control method for the same |
JP6272375B2 (en) * | 2016-03-18 | 2018-01-31 | 株式会社Subaru | Display control device for vehicle |
DE112016007057T5 (en) * | 2016-07-12 | 2019-03-28 | Honda Motor Co., Ltd. | DRIVING ASSISTANCE DEVICE |
JP6983057B2 (en) * | 2017-12-22 | 2021-12-17 | コイト電工株式会社 | Glare measuring device and glare measuring method |
JP7073769B2 (en) * | 2018-02-14 | 2022-05-24 | いすゞ自動車株式会社 | Driving support system and driving support method |
JP7314007B2 (en) * | 2019-09-27 | 2023-07-25 | 株式会社デンソーテン | headlight remote control |
US11675431B2 (en) | 2019-09-30 | 2023-06-13 | Mitsubishi Electric Corporation | Image display device, display control device, and display control method, and program and recording medium |
CN111178225A (en) * | 2019-12-25 | 2020-05-19 | 恒大新能源汽车科技(广东)有限公司 | Light screen control method, light screen control system and device |
CN117441201A (en) * | 2021-06-16 | 2024-01-23 | 三菱电机株式会社 | Aerial image display device and aerial image display method |
CN113665485B (en) * | 2021-08-30 | 2023-12-26 | 东风汽车集团股份有限公司 | Anti-glare system for automobile front windshield and control method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003260933A (en) * | 2002-03-11 | 2003-09-16 | Matsushita Electric Ind Co Ltd | Automatic glare controlling device |
JP3894147B2 (en) * | 2003-03-28 | 2007-03-14 | 日産自動車株式会社 | Brake control device for vehicle |
JP2005104218A (en) * | 2003-09-29 | 2005-04-21 | Denso Corp | Light shielding device for vehicle |
-
2007
- 2007-03-15 JP JP2007067173A patent/JP4910802B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007276766A (en) | 2007-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4910802B2 (en) | Monitoring device and method, recording medium, and program | |
JP2007245911A (en) | Monitoring device and method, recording medium and program | |
US9904859B2 (en) | Object detection enhancement of reflection-based imaging unit | |
US9736364B2 (en) | Camera capable of reducing motion blur in a low luminance environment and vehicle including the same | |
US10252662B2 (en) | Method for controlling a headlight | |
JP5761046B2 (en) | Anti-glare control device | |
JP4556777B2 (en) | Night driving visibility support device | |
JP4687573B2 (en) | Vehicle driving support device | |
KR20160091293A (en) | Side Mirror Camera System For Vehicle | |
CN113647087B (en) | State detection device, state detection system and state detection method | |
JP2009029227A (en) | Lighting control device, method and program | |
CN107640160B (en) | Vehicle safe driving auxiliary system and control method thereof | |
JP2015518445A (en) | Method and apparatus for daytime car driving assistance | |
JP2007251555A (en) | Diagnostic apparatus and method, program, as well as, recording medium | |
JP6658483B2 (en) | Display control device for vehicle and display system for vehicle | |
TWM610067U (en) | Windshield photochromic system having photosensitive protection | |
TWI749962B (en) | A light-sensitive protective windshield discoloration system | |
WO2018142969A1 (en) | Display control device and method, and program | |
CN114228450B (en) | Intelligent adjusting method, device and equipment for multifunctional sun shield and storage medium | |
EP4328090A1 (en) | Auto dimming mirror | |
US11014574B2 (en) | System and method for handling light source impairment | |
JP2022144915A (en) | Lighting control device of vehicle | |
WO2021068076A1 (en) | A system and method for eliminating glare | |
EP3227742A1 (en) | Object detection enhancement of reflection-based imaging unit | |
CN116691492A (en) | Pre-opening system and control method of automobile headlamp |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4910802 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |