JP2002331835A - Direct sunshine anti-glare device - Google Patents

Direct sunshine anti-glare device

Info

Publication number
JP2002331835A
JP2002331835A JP2001138418A JP2001138418A JP2002331835A JP 2002331835 A JP2002331835 A JP 2002331835A JP 2001138418 A JP2001138418 A JP 2001138418A JP 2001138418 A JP2001138418 A JP 2001138418A JP 2002331835 A JP2002331835 A JP 2002331835A
Authority
JP
Japan
Prior art keywords
face
light
image
occupant
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001138418A
Other languages
Japanese (ja)
Inventor
Satoshi Hiyama
智 樋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001138418A priority Critical patent/JP2002331835A/en
Publication of JP2002331835A publication Critical patent/JP2002331835A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an anti-glare device capable of detecting the position of eyes of an occupant without a burden on the occupant, and dynamically performing anti-glare according to the position of the detected eyes. SOLUTION: This direct sunshine anti-glare device comprises one or a plurality of cameras installed to pick up the image of a face of the occupant, a detecting means for detecting the position of the eyes of the occupant from the image picked up by the cameras, a detecting means for detecting the brightness of the light incident on the face of the occupant, a shading means for shading a windshield by changing the shading range, and a shading control means for controlling the shading means by setting the shading range according to the position of the eyes of the occupant. Since the position of the eyes is detected from the picked-up image, anti-glare can be dynamically performed without any burden on the occupant.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、フロントガラス
上部を自動的に防眩する直射光防眩装置に関し、具体的
には、搭乗者の目の位置に応じて防眩を行う直射光防眩
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a direct-light anti-glare device for automatically dimming an upper part of a windshield, and more specifically, to a direct-light anti-glare device for performing anti-glare according to the position of a passenger's eyes. Related to the device.

【0002】[0002]

【従来の技術】一般的な自動車は、搭乗者のために直射
日光を遮るサンバイザーを備えている。このサンバイザ
ーは、運転席の前方上部に備えられており、搭乗者が手
動で動かすことにより遮光が行われる。この様な車内の
防眩を自動化するための従来技術は、特開平5−203
906号公報、実開平5−34013号公報、実開平5
−43929号公報に示されている。
2. Description of the Related Art A typical automobile is provided with a sun visor that blocks direct sunlight for passengers. This sun visor is provided in the upper front part of the driver's seat, and the light is shielded by a passenger manually moving the sun visor. A conventional technique for automating anti-glare in a vehicle is disclosed in Japanese Patent Application Laid-Open No. 5-203.
No. 906, Japanese Utility Model Publication No. 5-34013, Japanese Utility Model Application Publication No.
No. 43929.

【0003】実開平5−34013号公報に記載の防眩
装置では、運転席上部に設けられたセンサが日光の光量
を検出する。フロントガラス上部に帯状に設けられた遮
光部材が、センサで検出された光量に応じて制御されて
防眩がなされる。
In the anti-glare device described in Japanese Utility Model Laid-Open No. 5-34013, a sensor provided above the driver's seat detects the amount of sunlight. A light-shielding member provided in a strip shape on the upper part of the windshield is controlled in accordance with the amount of light detected by the sensor to perform anti-glare.

【0004】実開平5−43929号公報に記載の防眩
装置では、ダッシュボード上のセンサによって検出され
た太陽の位置に基づいて、運転者の目に日光があたるか
否かを判定する。運転者の目に日光があたると判定され
た場合、センサで検出された照度に応じて、フロントガ
ラスに設けられた遮光部材が制御され防眩がなされる。
In the anti-glare device described in Japanese Utility Model Laid-Open No. 43929/1993, it is determined whether or not the driver's eyes are exposed to sunlight based on the position of the sun detected by a sensor on the dashboard. When it is determined that the driver's eyes are exposed to sunlight, the light-shielding member provided on the windshield is controlled according to the illuminance detected by the sensor to perform anti-glare.

【0005】これら実開平5−34013号公報および
実開平5−43929号公報に記載の防眩装置は、搭乗
者の目の位置を検出する手段を備えていない。直射日光
が搭乗者の目の位置にあたるか否かは、搭乗者の体型、
姿勢変化に応じて変化する。このため、これらの防眩装
置では、搭乗者の目の位置に応じた動的な防眩を実行す
ることができなかった。
The anti-glare devices disclosed in Japanese Utility Model Laid-Open No. 5-34013 and Japanese Utility Model Laid-Open No. 5-43929 have no means for detecting the position of the eyes of the occupant. Whether direct sunlight hits the passenger's eye or not depends on the passenger's body type,
It changes according to the posture change. Therefore, these anti-glare devices cannot execute dynamic anti-glare according to the position of the occupant's eyes.

【0006】搭乗者の目の位置に応じて防眩を確実に行
うために、特開平5−203906号公報に記載の防眩
装置では、光学素子を搭乗者の目の位置に装着し、この
光学素子による反射光をセンサで検出している。この反
射光が運転者の目に入射する光に相当するので、この反
射光の強度に応じてフロントガラスの遮光部材が制御さ
れ防眩がなされる。
In order to reliably perform anti-glare according to the position of the occupant's eyes, the anti-glare device described in Japanese Patent Application Laid-Open No. 5-203906 mounts an optical element at the occupant's eyes. Light reflected by the optical element is detected by a sensor. Since the reflected light corresponds to the light incident on the driver's eyes, the light shielding member of the windshield is controlled in accordance with the intensity of the reflected light to perform anti-glare.

【0007】この特開平5−203906号公報に記載
の防眩装置では、目の位置に応じた動的な防眩をするこ
とができる利点はあるが、搭乗者が特別な光学素子を装
着しなければならず、搭乗者に負担をかけていた。
The anti-glare device described in Japanese Patent Application Laid-Open No. 5-203906 has the advantage that dynamic anti-glare can be performed according to the position of the eyes, but the occupant needs to mount a special optical element. Had to be put on the passengers.

【0008】[0008]

【発明が解決しようとする課題】したがって、本発明
は、搭乗者に何ら負担を与えることなく搭乗者の目の位
置を検出し、検出された目の位置に応じて動的に防眩す
ることができる防眩装置を提供することを目的とする。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to detect the position of the occupant's eyes without imposing any burden on the occupant, and to dynamically reduce glare according to the detected eye position. It is an object of the present invention to provide an anti-glare device capable of performing the following.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
に、この発明の直射光防眩装置は、搭乗者の顔を撮影す
るために設置された1つまたは複数のカメラと、前記カ
メラで撮影された画像から前記搭乗者の目の位置を検出
する検出手段と、前記搭乗者の顔に入射する光の明るさ
を検出する検出手段と、遮光範囲を変えてフロントガラ
スを遮光することができる遮光手段と、前記搭乗者の目
の位置に応じて前記遮光範囲を設定し、前記遮光手段を
制御する遮光制御手段と、を備えるよう構成される。
In order to solve the above problems, a direct light anti-glare device according to the present invention comprises one or more cameras installed for photographing the face of an occupant; Detecting means for detecting the position of the occupant's eyes from the photographed image, detecting means for detecting the brightness of light incident on the occupant's face, and shielding the windshield by changing a light shielding range. It is configured to include a light-shielding means that can be set, and light-shielding control means that sets the light-shielding range according to the position of the eyes of the occupant and controls the light-shielding means.

【0010】この発明によると、撮影された画像から目
の位置が検出されるので、搭乗者に何ら負担を与えるこ
となく動的に防眩することができる。
According to the present invention, since the position of the eyes is detected from the photographed image, the glare can be dynamically reduced without any burden on the occupant.

【0011】この発明の1つの形態によると、前記直射
光防眩装置の明るさ検出手段は、前記画像に撮影されて
いる搭乗者の顔から明るさを検出するよう構成される。
According to one embodiment of the present invention, the brightness detecting means of the direct glare prevention device is configured to detect the brightness from the face of the occupant photographed in the image.

【0012】この形態によれば、直射光防眩装置は、日
光の照度を直接的に検出するセンサなどを使用すること
なく、明るさを検出することができる。
According to this embodiment, the direct light anti-glare device can detect the brightness without using a sensor for directly detecting the illuminance of sunlight.

【0013】この発明の1つの形態によると、前記直射
光防眩装置の遮光手段は、液晶を使用した遮光手段で構
成される。
According to one embodiment of the present invention, the light blocking means of the direct light anti-glare device comprises a light blocking means using liquid crystal.

【0014】この形態によれば、電気的な制御によって
遮光手段の透過率を任意に変化させることができる。
According to this embodiment, the transmittance of the light shielding means can be arbitrarily changed by electrical control.

【0015】この発明の1つの形態によると、前記直射
光防眩装置の前記複数のカメラは、ステレオ・カメラを
構成する。
According to one embodiment of the present invention, the plurality of cameras of the direct light anti-glare device constitute a stereo camera.

【0016】この形態によれば、ステレオ・カメラによ
り搭乗者の顔および目の位置が3次元的に検出されるの
で、正確な遮光範囲を設定することができる。
According to this embodiment, the position of the occupant's face and eyes is three-dimensionally detected by the stereo camera, so that an accurate light-shielding range can be set.

【0017】この発明の1つの形態によると、前記直射
光防眩装置は、車両の進行方向を判断する進行方向判断
部と、現在の日時を判断する日時判断部と、前記車両の
進行方向および前記現在の日時に基づいて、防眩するか
どうかを判断する防眩判断手段と、を備えるよう構成さ
れる。
According to one embodiment of the present invention, the direct light anti-glare device comprises: a traveling direction judging unit for judging a traveling direction of a vehicle; a date and time judging unit for judging a current date and time; Anti-glare determining means for determining whether to anti-glare based on the current date and time.

【0018】この形態によれば、現在の日時と車両の進
行方向から搭乗者の顔に直射日光があたるかどうかを判
断することができ、その判断に応じた防眩をすることが
できる。
According to this embodiment, it is possible to determine from the current date and time and the traveling direction of the vehicle whether direct sunshine will hit the occupant's face, and antiglare can be performed according to the determination.

【0019】[0019]

【発明の実施の形態】次に本発明の実施例を図面を参照
して説明する。図1は、本発明による防眩装置を備えた
自動車の1つの実施形態を示す。図1の自動車は、画像
入力部11、遮光部13、制御ECU15を備える。こ
の実施形態では、運転席にいる搭乗者の顔画像が画像入
力部11により撮影され、撮影された画像から搭乗者の
顔および目の位置が検出される。さらに撮影された画像
から顔の一部の画像が抽出され、その抽出画像の明るさ
が予め定めた基準値と比較される。抽出画像の明るさが
基準値より明るい場合、検出された搭乗者の目の位置に
応じて遮光部13の遮光範囲が設定され、フロントガラ
スから入射する光が遮光される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows one embodiment of a motor vehicle equipped with an anti-glare device according to the present invention. The vehicle in FIG. 1 includes an image input unit 11, a light shielding unit 13, and a control ECU 15. In this embodiment, a face image of the occupant in the driver's seat is captured by the image input unit 11, and the positions of the occupant's face and eyes are detected from the captured image. Further, an image of a part of the face is extracted from the captured image, and the brightness of the extracted image is compared with a predetermined reference value. When the brightness of the extracted image is higher than the reference value, the light-blocking range of the light-blocking unit 13 is set according to the detected position of the occupant's eyes, and light incident from the windshield is blocked.

【0020】この実施例の遮光部13は、フロントガラ
ス上部に設けられ、外部からの光を遮光することができ
る。例えば、遮光部13は、印可電圧に応じて透過率を
変化することができるフィルム状の液晶フィルタからな
る。この液晶フィルタは、電圧を印可していない状態で
は液晶分子の方向が不規則であり光を散乱させるので不
透明であるが、電圧が印可されると液晶分子が電圧の印
可方向に応じて整列するので光を透過させることができ
る。
The light-shielding portion 13 of this embodiment is provided above the windshield, and can shield external light. For example, the light shielding unit 13 is formed of a film-like liquid crystal filter whose transmittance can be changed according to an applied voltage. This liquid crystal filter is opaque because the direction of liquid crystal molecules is irregular and scatters light when no voltage is applied, but when a voltage is applied, the liquid crystal molecules are aligned according to the direction of voltage application. Therefore, light can be transmitted.

【0021】車内前方を示す図2は、遮光部13の液晶
フィルタのフロントガラスへの配置例を示す。図示する
ように、遮光部13は、水平方向に対して帯状に配置さ
れた複数の帯状パターンを有する液晶フィルタからな
り、フロントガラス上部に配置される。この複数の帯状
パターンは、それぞれ別個に駆動することによって、そ
れぞれ別個の透過率に制御されることができる。この帯
状パターンの本数は、必要に応じていくつであっても構
わないが、1から5本程度が好ましい。液晶フィルタを
帯状のパターンとして構成することにより、フロントガ
ラス上部の必要な部分に対してだけ遮光することが可能
になる。
FIG. 2 showing the front inside the vehicle shows an example of the arrangement of the liquid crystal filter of the light shielding unit 13 on the windshield. As shown in the figure, the light shielding unit 13 is formed of a liquid crystal filter having a plurality of band-shaped patterns arranged in a band with respect to the horizontal direction, and is arranged above the windshield. The plurality of belt-shaped patterns can be controlled to have different transmittances by being driven separately. The number of the band-shaped patterns may be any number as needed, but is preferably about 1 to 5. By configuring the liquid crystal filter as a band-shaped pattern, it becomes possible to shield only a necessary portion of the upper part of the windshield from light.

【0022】この実施例の画像入力部11は、搭乗者を
撮影するよう設置された2台のビデオカメラからなる。
図3は、画像入力部11の実施例を示す。この実施例で
は、撮影対象を立体視するために従来技術のステレオ法
を利用する。2台のビデオカメラは、ステレオ視で搭乗
者の顔を撮影することができるよう所定の位置に固定さ
れる。
The image input section 11 of this embodiment is composed of two video cameras installed to photograph a passenger.
FIG. 3 shows an embodiment of the image input unit 11. In this embodiment, a stereo method of the prior art is used to stereoscopically view an object to be photographed. The two video cameras are fixed at predetermined positions so that the passenger's face can be photographed stereoscopically.

【0023】各ビデオカメラ(41、42)は、カメラ
・コントロール・ユニット(45、46)を介してそれ
ぞれ制御される。各カメラ・コントロール・ユニット
は、外部同期信号線を通じて接続され、この同期信号に
よって左右のビデオカメラの同期がとられる。
Each video camera (41, 42) is controlled via a camera control unit (45, 46). Each camera control unit is connected through an external synchronization signal line, and the left and right video cameras are synchronized by the synchronization signal.

【0024】図3に示すように、画像入力部11で撮影
された画像は、制御ECU15に接続された画像処理ボ
ード48により様々に処理される。例えば、画像処理ボ
ード48は、NTSC方式のビデオ信号の入力ポートと
して機能するだけでなく、画像を蓄積するメモリおよび
複雑な画像処理を実行するハードウェア回路を備え、一
般的な画像処理アルゴリズムを高速に実行することがで
きる。ハードウェア回路が処理する画像処理アルゴリズ
ムには、斜方投影機構、ハフ変換、2値画像マッチング
フィルタ、アフィン変換(画像の回転、拡大、縮小)な
どの処理が含まれる。
As shown in FIG. 3, an image photographed by the image input unit 11 is processed variously by an image processing board 48 connected to the control ECU 15. For example, the image processing board 48 not only functions as an input port for an NTSC video signal, but also includes a memory for storing images and a hardware circuit for performing complicated image processing, and can perform general image processing algorithms at high speed. Can be performed. The image processing algorithm processed by the hardware circuit includes processes such as an oblique projection mechanism, a Hough transform, a binary image matching filter, and an affine transform (rotation, enlargement, and reduction of an image).

【0025】撮影された画像における顔面上の陰影を低
減し、画像認識の精度を向上させるために、図2に示す
ように照明として赤外線照射部19を使用してもよい。
この赤外線照射部19は、近赤外光を搭乗者の顔に照射
するよう搭乗者の前面に設置される。赤外線照射部19
を使用する場合、左右のビデオカメラは、適当な波長を
制限する波長制限フィルタ43などで波長帯域をそれぞ
れ制限される。
In order to reduce shading on the face in the photographed image and improve the accuracy of image recognition, an infrared irradiation unit 19 may be used as illumination as shown in FIG.
The infrared irradiator 19 is installed on the front of the occupant so as to irradiate near-infrared light to the occupant's face. Infrared irradiator 19
Is used, the wavelength bands of the left and right video cameras are respectively limited by a wavelength limiting filter 43 that limits an appropriate wavelength.

【0026】図4は、制御ECU15によって実行され
る機能ブロックを示す。画像入力部11は、搭乗者17
の顔を正面から撮影し、その撮影された画像を顔画像解
析部21に送る。顔画像解析部21は、撮影された画像
から搭乗者の顔が撮影されている画像領域を探索し、目
や口などの顔の特徴が撮影されている画像領域を連続的
に検出して追跡する。防眩判断部31は、日時判断部2
7および進行判断部29から送られてきたデータに基づ
いて、搭乗者の目に直射日光が入射するかどうかを判断
する。搭乗者の目に直射日光が入射すると判断された場
合、画像入力部11により撮影された画像に基づいて、
明るさ検出部33が搭乗者を照らす光の明るさを判断す
る。遮光制御部35は、搭乗者の目の位置に応じて遮光
部13が遮光する範囲を設定し、設定した遮光範囲に応
じて遮光部13の帯状パターンを制御する。
FIG. 4 shows functional blocks executed by the control ECU 15. The image input unit 11 includes a passenger 17
Is photographed from the front, and the photographed image is sent to the face image analyzing unit 21. The face image analysis unit 21 searches the captured image for an image area in which the occupant's face is captured, and continuously detects and tracks an image area in which facial features such as eyes and mouth are captured. I do. The anti-glare determining unit 31 is configured to determine the date and time
7 and whether or not direct sunlight enters the eyes of the occupant, based on the data sent from the progress judging section 29. When it is determined that direct sunlight is incident on the eyes of the occupant, based on the image captured by the image input unit 11,
The brightness detector 33 determines the brightness of light illuminating the occupant. The light-blocking control unit 35 sets a range in which the light-blocking unit 13 blocks light according to the position of the occupant's eyes, and controls a band-shaped pattern of the light-blocking unit 13 according to the set light-blocking range.

【0027】日時判断部27は、太陽の位置を判断する
ために現在の年月日と共に現在時刻のデータを防眩判断
部31に提供する。進行方向判断部29は、太陽の位置
に対して搭乗者がどの方向を向いているかを判断するた
めに、車両の現在の進行方向のデータを提供する。防眩
判断部31は、これらのデータに基づいて搭乗者の目に
直射日光が入射するかどうかを判断する。
The date / time judging section 27 provides the current time data together with the current date to the anti-glare judging section 31 to judge the position of the sun. The traveling direction determination unit 29 provides data on the current traveling direction of the vehicle in order to determine which direction the occupant is facing with respect to the position of the sun. The anti-glare determining unit 31 determines whether direct sunlight enters the eyes of the occupant based on these data.

【0028】1つの実施形態では、GPS(グローバル
・ポジショニング・システム)を利用した典型的なカー
・ナビゲーション・システムが日時判断部27および進
行方向判断部29のために使用される。GPSを利用し
たカー・ナビゲーション・システムでは、経度および緯
度の情報で車両の現在地が正確に分かるだけでなく、G
PS衛星から送られてくる時刻データから年月日を含む
正確な現在時刻も分かる。車両の経度と緯度、年月日を
含む現在時刻が分かれば、車両に対する現在の太陽の位
置が求まる。さらに、典型的なカー・ナビゲーション・
システムは、車両の進行方向を検出する機能も備えてい
る。車両の進行方向に太陽があるかどうかを判断すれ
ば、搭乗者の目に直射日光が入射するかどうかが分か
る。したがって、この様なカー・ナビゲーション・シス
テムを本発明の防眩装置に利用することによって確実な
防眩調整を処理することが可能になる。
In one embodiment, a typical car navigation system using a GPS (Global Positioning System) is used for the date and time determination unit 27 and the heading determination unit 29. In a car navigation system using GPS, not only the longitude and latitude information can be used to accurately determine the current location of a vehicle, but also
The exact current time including the date is also known from the time data sent from the PS satellite. If the current time including the longitude and latitude of the vehicle and the date is known, the current position of the sun with respect to the vehicle can be obtained. In addition, typical car navigation
The system also has a function of detecting the traveling direction of the vehicle. By judging whether or not the sun is present in the traveling direction of the vehicle, it can be determined whether or not direct sunlight enters the eyes of the occupant. Therefore, by using such a car navigation system in the anti-glare device of the present invention, it is possible to process a reliable anti-glare adjustment.

【0029】別の実施形態では、日時判断部27は典型
的な時計でもよい。この場合、車両の現在地が正確に分
からないので、年月日と時刻だけに基づいておおまかな
太陽の位置が判断される。進行方向判断部29は、一般
的なコンパスなどを使用してもよい。
In another embodiment, the date and time determination unit 27 may be a typical clock. In this case, since the current position of the vehicle is not accurately known, the approximate position of the sun is determined based only on the date and time. The traveling direction determination unit 29 may use a general compass or the like.

【0030】図5は、防眩調整処理のフローチャートを
示し、この図を参照して防眩調整処理を詳細に説明す
る。
FIG. 5 shows a flowchart of the anti-glare adjustment process, and the anti-glare adjustment process will be described in detail with reference to FIG.

【0031】ステップ101で、防眩判断部31は、日
時判断部27から提供されたデータに基づいて、防眩調
整処理を開始するかどうかを判断する。
In step 101, the anti-glare determining section 31 determines whether or not to start the anti-glare adjustment processing based on the data provided from the date and time determining section 27.

【0032】例えば、日本において現在時刻が正午であ
れば、太陽の位置が地平線に対して十分高い位置にあ
り、搭乗者の顔に直射日光が入射することがないので、
防眩調整の必要がない。この様な場合には、防眩調整処
理が実行されない。実際には、同じ時刻であっても日付
に応じて太陽の位置が変化するので、防眩判断部31
は、日時判断部27からの月日を含む時刻に基づいて現
在の太陽の位置を求め、搭乗者が太陽の方向を向いたと
きに搭乗者の顔に直射日光が入射するかどうかを判断す
る。
For example, if the current time is noon in Japan, the position of the sun is sufficiently high with respect to the horizon, and direct sunlight does not enter the occupant's face.
There is no need for anti-glare adjustment. In such a case, the anti-glare adjustment processing is not executed. Actually, even at the same time, the position of the sun changes according to the date.
Calculates the current position of the sun based on the time including the date from the date and time determination unit 27, and determines whether direct sunlight is incident on the face of the occupant when the occupant faces the sun. .

【0033】進行方向判断部29からの車両の進行方向
データは、搭乗者が太陽の方向を現在向いているかどう
かを判断するのに使用される。搭乗者の顔に直射日光が
入射する時刻であっても搭乗者の後または横などに太陽
の位置があれば、搭乗者の目に直射日光が入射しない。
したがって、防眩判断部31は、現在の太陽の位置と車
両の進行方向から搭乗者の目に直射日光が入射するかど
うかを判断する。
The traveling direction data of the vehicle from the traveling direction determination section 29 is used to determine whether or not the occupant is currently facing the sun. Even at the time when the direct sunlight enters the occupant's face, if the sun is located behind or beside the occupant, the direct sunlight does not enter the occupant's eyes.
Therefore, the anti-glare determining unit 31 determines whether direct sunlight enters the occupant's eyes based on the current position of the sun and the traveling direction of the vehicle.

【0034】進行方向データは、直射日光が入射する方
向の予測に使用してもよい。これは図12に示すような
左右に分割された遮光部を使用した場合に使用され、進
行方向データによって太陽の方向が左方向であるか右方
向であるかを判断し、防眩が必要な方向に応じて左右の
遮光部をそれぞれ制御してもよい。
The traveling direction data may be used to predict the direction in which direct sunlight is incident. This is used when a light-shielding portion divided into right and left as shown in FIG. 12 is used, and it is determined whether the direction of the sun is the left direction or the right direction based on the traveling direction data, and antiglare is required. The right and left light shielding portions may be controlled according to the directions.

【0035】ステップ103で、顔画像解析部21は、
画像入力部11により撮影された画像フレームから車内
における搭乗者の顔の位置、顔の向きを検出する。ここ
で搭乗者の顔の位置、顔の向きを検出することにより、
搭乗者の姿勢、体型に応じた遮断部13の制御を実行す
ることが可能になる。以下では、図4および図6を参照
して顔画像解析部21の動作を詳細に説明する。
In step 103, the face image analysis unit 21
The position and direction of the occupant's face in the vehicle are detected from the image frame captured by the image input unit 11. Here, by detecting the passenger's face position and face orientation,
It is possible to execute the control of the blocking unit 13 according to the posture and the body type of the occupant. Hereinafter, the operation of the face image analysis unit 21 will be described in detail with reference to FIGS.

【0036】図4に示すように顔画像解析部21は、顔
探索部23、顔トラッキング部25を含み、画像入力部
11によって撮影された画像から搭乗者の顔の位置、顔
の向きを検出する。図6は、顔画像解析部21の処理の
フローチャートを示す。顔探索部23と顔トラッキング
部25は、それぞれ関連して動作し、連続的に撮影され
る画像から搭乗者の顔向きをリアルタイムで検出するこ
とができる。
As shown in FIG. 4, the face image analysis section 21 includes a face search section 23 and a face tracking section 25, and detects the position and orientation of the occupant's face from the image captured by the image input section 11. I do. FIG. 6 shows a flowchart of the processing of the face image analysis unit 21. The face search unit 23 and the face tracking unit 25 operate in association with each other, and can detect the face direction of the occupant in real time from continuously captured images.

【0037】図6に示すステップ201から203は、
顔探索部23の処理のフローチャートを示す。顔トラッ
キング部25の処理は、ステップ205からステップ2
13で示され、搭乗者の顔向きの検出は、これらのステ
ップにより実現される。顔探索部23は、顔画像解析部
21の開始直後の最初の初期化と顔向き検出のエラー回
復のために使用される。
Steps 201 to 203 shown in FIG.
5 shows a flowchart of a process of the face search unit 23. The processing of the face tracking unit 25 is from step 205 to step 2
The detection of the occupant's face orientation, indicated by 13, is realized by these steps. The face search unit 23 is used for initial initialization immediately after the start of the face image analysis unit 21 and for error recovery in face direction detection.

【0038】顔探索部23は、画像入力部11で撮影さ
れた画像から人間の顔が撮影されている画像領域をおお
まかに探索する。ここでの処理は、顔トラッキング部2
5のための前処理ともいえる。顔探索部23が、顔トラ
ッキング部25の処理の前に、顔が撮影されている画像
領域を入力画像からおおまかに探索することにより、顔
トラッキング部25は、入力画像中の顔の詳細な解析を
高速に実行することができる。
The face searching section 23 roughly searches an image area where a human face is shot from the image shot by the image input section 11. The processing here is performed by the face tracking unit 2
It can also be said to be pre-processing for No. 5. Before the processing of the face tracking unit 25, the face searching unit 23 roughly searches the input image for an image area where the face is photographed, so that the face tracking unit 25 performs detailed analysis of the face in the input image. Can be executed at high speed.

【0039】最初に、ステップ201で、撮影された画
像全体から人間の顔が撮影されている領域がおおまかに
探索される。これは、予め記憶された探索用テンプレー
ト47を使用したテンプレート・マッチングで実行され
る。
First, in step 201, a region where a human face is photographed is roughly searched from the whole photographed image. This is executed by template matching using the search template 47 stored in advance.

【0040】探索用テンプレート47の例を図7に示
す。探索用テンプレート47に使用される画像は、正面
を向いた人間の顔を部分的に切り取った画像であり、こ
の画像には目、鼻、口などの人間の顔の特徴的な領域が
1つのテンプレートに含まれている。この探索用テンプ
レート47は、テンプレート・マッチングでの処理速度
を高めるために、予め低解像度化された画像として記憶
されている。さらに、探索用テンプレート47は、照明
変動の影響を低減するために微分画像にされている。こ
のテンプレートは、複数のサンプルから作成され予め記
憶されている。
FIG. 7 shows an example of the search template 47. The image used for the search template 47 is an image obtained by partially cutting out a human face facing the front. This image includes one characteristic region of the human face such as eyes, nose, and mouth. Included in template. The search template 47 is stored in advance as a low-resolution image in order to increase the processing speed in template matching. Further, the search template 47 is a differential image in order to reduce the influence of illumination fluctuation. This template is created from a plurality of samples and stored in advance.

【0041】ステップ201での顔全体の探索は、右ビ
デオカメラか、または左ビデオカメラのどちらかの画像
に対して実行される。以下では、右ビデオカメラの画像
を使用したものとしてテンプレート・マッチングの例を
説明する。
The search for the entire face in step 201 is performed on the image of either the right video camera or the left video camera. Hereinafter, an example of template matching will be described assuming that an image of the right video camera is used.

【0042】右ビデオカメラの画像を使用してテンプレ
ート・マッチングを実行した場合、探索用テンプレート
47に対応する画像領域が右画像から検出される。次
に、ここでマッチした右画像内の領域を使用して左画像
に対してテンプレート・マッチングが実行され、そのス
テレオ・マッチングの結果から搭乗者の顔の3次元的な
位置が求められる。
When template matching is performed using the image of the right video camera, an image area corresponding to the search template 47 is detected from the right image. Next, template matching is performed on the left image using the region in the right image matched here, and the three-dimensional position of the occupant's face is obtained from the result of the stereo matching.

【0043】顔トラッキング部25は、ステップ205
で顔の特徴点の探索範囲を設定し、ステップ207で画
像入力部11で撮影された画像から顔の特徴点を探索す
る。この探索に使用されるテンプレートは、データベー
スに予め記憶された3次元顔特徴点モデルからの画像を
使用する。図8に3次元顔特徴点モデル67の例を示
す。
The face tracking unit 25 determines in step 205
The search range of the feature point of the face is set, and the feature point of the face is searched from the image captured by the image input unit 11 in step 207. The template used for this search uses an image from the three-dimensional facial feature point model stored in the database in advance. FIG. 8 shows an example of the three-dimensional face feature point model 67.

【0044】本実施例における3次元顔特徴点モデル6
7は、正面を向いた人間の顔の特徴的な部分を画像から
局所的に切り取った部分的画像(51〜65)から生成
される。例えば顔特徴点の画像は、図8に示すように、
左の眉頭51、右の眉頭59、左の目尻53、左の目頭
55、右の目尻61、右の目頭63、口の左端57、口
の右端65などのように、予め用意された顔画像から局
所的に切り取られて生成される。これらの部分的画像の
それぞれは、その画像内で撮影されている対象物(この
例では、左右の眉頭、左右の目尻と目頭、口の両端)の
3次元位置を表す3次元座標に関連付けられデータベー
スに記憶されている。本明細書では、これらの3次元座
標を有した顔の特徴領域の部分的画像を顔特徴点と呼
び、これらの複数の顔特徴点から生成される顔モデルを
3次元顔特徴点モデル67と呼ぶ。これらの3次元顔特
徴点モデル67は、複数のサンプルから生成されデータ
ベースに予め記憶されている。
3D face feature point model 6 in this embodiment
7 is generated from partial images (51 to 65) in which characteristic portions of a human face facing the front are locally cut from the image. For example, as shown in FIG.
Face images prepared in advance, such as left eyebrow head 51, right eyebrow head 59, left eye corner 53, left eye corner 55, right eye corner 61, right eye corner 63, mouth left end 57, mouth right end 65, etc. Generated locally. Each of these partial images is associated with three-dimensional coordinates representing the three-dimensional position of the object (in this example, the left and right eyebrows, the left and right outer and inner corners of the eye, and both ends of the mouth) photographed in the image. Stored in the database. In this specification, a partial image of a facial feature region having these three-dimensional coordinates is called a facial feature point, and a face model generated from the plurality of face feature points is referred to as a three-dimensional face feature point model 67. Call. These three-dimensional face feature point models 67 are generated from a plurality of samples and stored in a database in advance.

【0045】顔トラッキング部25は、3次元顔特徴点
モデル67を形成する各特徴点の部分的画像をテンプレ
ートとして使用し、それぞれの各特徴点に対応する画像
領域を入力画像から探索する。
The face tracking section 25 uses the partial image of each feature point forming the three-dimensional face feature point model 67 as a template, and searches the input image for an image area corresponding to each feature point.

【0046】ステップ205で、顔トラッキング部25
は、入力画像における各特徴点の探索範囲を設定する。
例えば、左の眉頭51のテンプレートに対応する画像領
域を入力画像から探索する場合を考える。ステップ20
3に続いてステップ205が処理されるときでは、顔全
体が撮影されている画像領域がステップ201で前もっ
て探索されているので、左の眉頭51が撮影されている
画像領域がおおまかに分かる。したがって、顔トラッキ
ング部25は、前に検出された画像情報に基づいて、各
特徴点のテンプレートのために探索範囲をそれぞれ設定
することができる。
In step 205, the face tracking unit 25
Sets the search range of each feature point in the input image.
For example, consider a case in which an image area corresponding to the template of the left eyebrow 51 is searched from the input image. Step 20
When Step 205 is processed after Step 3, since the image area where the entire face is photographed is searched in advance in Step 201, the image area where the left eyebrow 51 is photographed is roughly known. Therefore, the face tracking unit 25 can set a search range for each feature point template based on previously detected image information.

【0047】ステップ207で、顔トラッキング部25
は、各特徴点のテンプレートを使用して、それぞれテン
プレート・マッチングを実行する。この各特徴点のテン
プレート・マッチングは、ステップ205で設定された
各特徴点の探索範囲に基づいてそれぞれ実行される。
In step 207, the face tracking unit 25
Performs template matching using the template of each feature point. The template matching of each feature point is executed based on the search range of each feature point set in step 205.

【0048】ステップ207のテンプレート・マッチン
グは、ステップ201のテンプレート・マッチングと同
様に左右の画像のどちらかを使用する。この実施例で
は、ステップ207のテンプレート・マッチングにおい
て右ビデオカメラの画像が使用されたとする。この場
合、ステップ207の各特徴点の探索の結果、右画像に
撮影されている左右の眉頭、左右の目頭と目尻、口の両
端の計8個の部分的画像が得られる。
The template matching in step 207 uses either the left or right image in the same manner as the template matching in step 201. In this embodiment, it is assumed that the image of the right video camera is used in the template matching in step 207. In this case, as a result of the search for each feature point in step 207, a total of eight partial images of the left and right eyebrows, the left and right inner and outer corners of the eye, and both ends of the mouth captured in the right image are obtained.

【0049】ステップ209では、ステップ207の探
索から得られた各特徴点の画像をテンプレートとして、
左画像に対してステレオ・マッチングが実行される。こ
れにより、3次元顔特徴点モデル67の各特徴点に対応
する入力画像の各特徴点の3次元座標が求められる。
In step 209, the image of each feature point obtained from the search in step 207 is used as a template.
Stereo matching is performed on the left image. Thus, three-dimensional coordinates of each feature point of the input image corresponding to each feature point of the three-dimensional face feature point model 67 are obtained.

【0050】この実施例の場合、探索された入力画像中
の左右の眉頭、左右の目尻と目頭、口の両端の画像をテ
ンプレートにして、ステレオ・マッチングが実行され
る。このステレオ・マッチングの結果、搭乗者の左右の
眉頭、左右の目尻と目頭、口の両端の3次元座標がそれ
ぞれ得られる。したがって、これら入力画像の各特徴点
の3次元座標から車内における搭乗者の顔の3次元位置
を求めることができる。
In this embodiment, stereo matching is performed using the left and right eyebrows, the left and right outer and inner corners of the eye, and the images at both ends of the mouth in the searched input image as templates. As a result of the stereo matching, three-dimensional coordinates of the left and right eyebrows, the left and right outer and inner corners of the eye of the passenger, and both ends of the mouth are obtained. Therefore, the three-dimensional position of the occupant's face in the vehicle can be obtained from the three-dimensional coordinates of each feature point of these input images.

【0051】ステップ211では、3次元顔特徴点モデ
ル67を使用して3次元モデル・フィッティングが実行
され、顔の向きが検出される。以下ではこの3次元モデ
ル・フィッティングを説明する。
In step 211, three-dimensional model fitting is performed using the three-dimensional face feature point model 67, and the direction of the face is detected. Hereinafter, the three-dimensional model fitting will be described.

【0052】先に述べたように、予め記憶されている3
次元顔特徴点モデル67は、正面を向いた顔の特徴点か
ら生成されている。それに対して入力画像に撮影されて
いる顔は、必ずしも正面を向いているとは限らない。入
力画像に撮影されている顔が正面を向いていない場合、
ステップ207で得られた入力画像の各特徴点の3次元
座標(観測点)は、3次元顔特徴点モデル67の各特徴
点の3次元座標から任意の角度と変位だけ、ずれを有し
ている。したがって、正面を向いた3次元顔特徴点モデ
ル67を任意に回転、変位させたときに、入力画像の各
特徴点に一致する角度と変位が入力画像中の顔の向きと
位置に相当する。
As described above, the previously stored 3
The three-dimensional face feature point model 67 is generated from feature points of a face facing forward. On the other hand, the face captured in the input image does not always face the front. If the face captured in the input image is not facing the front,
The three-dimensional coordinates (observation points) of each feature point of the input image obtained in step 207 are shifted from the three-dimensional coordinates of each feature point of the three-dimensional face feature point model 67 by an arbitrary angle and displacement. I have. Therefore, when the three-dimensional face feature point model 67 facing the front is arbitrarily rotated and displaced, the angle and displacement corresponding to each feature point of the input image correspond to the direction and position of the face in the input image.

【0053】3次元顔特徴点モデル67を任意に回転、
変位させて、入力画像の各特徴点にフィッティングさせ
た場合、フィッティング誤差Eは、下記の式で表され
る。
The three-dimensional face feature point model 67 is arbitrarily rotated,
When a displacement is made to fit each feature point of the input image, the fitting error E is expressed by the following equation.

【0054】[0054]

【数1】 ここで、Nが特徴点の数であり、xがモデル内の各特
徴点の3次元座標であり、yが入力画像からの各特徴
点の3次元座標を表す。ωは、各特徴点に関する重み
付け係数であり、入力画像から特徴点の3次元位置を求
めたときのステレオ・マッチングにおける相関値を利用
する。この相関値を利用することによって、それぞれの
特徴点の信頼度を考慮することができる。回転行列は、
R(φ,θ,ψ)であり、並進ベクトルは、t(x,
y,z)で表され、これらが、この式における変数とな
る。
(Equation 1) Here, N is the number of feature points, x i is the three-dimensional coordinates of each feature point in the model, and y i is the three-dimensional coordinates of each feature point from the input image. ω i is a weighting coefficient for each feature point, and uses a correlation value in stereo matching when a three-dimensional position of the feature point is obtained from the input image. By using this correlation value, the reliability of each feature point can be considered. The rotation matrix is
R (φ, θ, ψ), and the translation vector is t (x,
y, z), and these are the variables in this equation.

【0055】したがって、上記の式におけるフィッティ
ング誤差Eを最小にする回転行列Rと並進ベクトルtを
求めれば、入力画像の顔向きと顔位置が求められる。こ
の演算は、最小二乗法または仮想バネモデルを使用した
フィッティング手法などを利用することによって実行さ
れる。
Therefore, if the rotation matrix R and the translation vector t that minimize the fitting error E in the above equation are obtained, the face direction and the face position of the input image can be obtained. This calculation is performed by using a fitting method using a least squares method or a virtual spring model, or the like.

【0056】ステップ213では、ステップ211で顔
の向きが正しく検出されたかどうかが判定される。もし
顔の向きが正しく検出されなかったと判定された場合、
ステップ201に戻り、新しい画像フレームを使用して
一連の処理が繰り返される。顔の向きが正しく検出され
たと判定された場合には、検出された搭乗者の顔の位置
および向きが、対応する画像フレームと共に防眩判断部
31に提供される。
In step 213, it is determined whether or not the face direction has been correctly detected in step 211. If it is determined that the face direction was not detected correctly,
Returning to step 201, a series of processing is repeated using a new image frame. If it is determined that the face direction has been correctly detected, the detected position and direction of the occupant's face are provided to the anti-glare determination unit 31 together with the corresponding image frame.

【0057】図5のステップ105で防眩判断部31
は、撮影されている顔の位置および顔の向きが予め定め
た範囲にあるかどうかを判断する。例えば、搭乗者が完
全に横を向いて防眩調整の必要が無い場合(直射日光を
見ていない場合)、次のステップには進行しない。ま
た、ステップ105以降の画像処理において支障をきた
す顔向きが画像に撮影されている場合も、次のステップ
には進行しない。
In step 105 of FIG.
Determines whether the position and orientation of the face being photographed are within a predetermined range. For example, when the occupant is completely turned sideways and does not need anti-glare adjustment (when not looking in direct sunlight), the process does not proceed to the next step. Further, even when the face direction which causes a problem in the image processing after step 105 is photographed in the image, the process does not proceed to the next step.

【0058】ステップ105で、搭乗者の顔の位置およ
び向きが予め定めた範囲にあると判断された場合、次の
ステップに進行し、顔を照らしている光の明るさが明る
さ検出部33によって検出される。
If it is determined in step 105 that the position and orientation of the occupant's face are within the predetermined range, the process proceeds to the next step, in which the brightness of the light illuminating the face is detected by the brightness detection unit 33. Is detected by

【0059】この実施例の明るさ検出部33は、画像入
力部11により撮影された搭乗者の顔の画像に基づいて
顔を照らしている光の明るさを検出する。例えば、直射
日光が搭乗者の顔を照らしている場合、撮影されている
搭乗者の顔は、明るい画像として撮影される。一方、直
射日光が搭乗者の顔を照らしていない場合、搭乗者の顔
は、比較的暗い画像として撮影される。明るさ検出部3
3は、搭乗者の顔が撮影されている画像領域の明るさを
予め定めた明るさの基準値と比較して、顔を照らしてい
る光の明るさを判断する。
The brightness detecting section 33 of this embodiment detects the brightness of the light illuminating the face based on the image of the occupant's face taken by the image input section 11. For example, when the direct sunlight illuminates the passenger's face, the captured passenger's face is captured as a bright image. On the other hand, when the direct sunlight does not illuminate the passenger's face, the passenger's face is captured as a relatively dark image. Brightness detector 3
3 compares the brightness of the image area where the face of the occupant is photographed with a predetermined brightness reference value to determine the brightness of the light illuminating the face.

【0060】より具体的に説明すると、明るさ検出部3
3は、撮影された画像からコントラストが比較的一定な
顔の特定領域を抽出する(例えば、目、口、眉などを含
まない顔の画像領域が抽出される)。この実施形態で
は、明るさ検出部33は、顔の特定領域を抽出した後
で、特定領域の全グレースケール値の総和を求め、特定
領域の総ピクセル数でその総和を平均化する。この平均
化されたグレースケール値は、顔の特定領域の明るさを
表す値として使用される。特定領域の平均グレースケー
ル値が明るさの基準値に対して比較され、この比較結果
に基づいて遮光制御部35により遮光部13が制御され
る。
More specifically, the brightness detector 3
3 extracts a specific area of a face having a relatively constant contrast from a captured image (for example, an image area of a face that does not include eyes, mouths, eyebrows, etc. is extracted). In this embodiment, after extracting the specific area of the face, the brightness detection unit 33 calculates the sum of all the gray scale values of the specific area, and averages the sum with the total number of pixels of the specific area. This averaged gray scale value is used as a value representing the brightness of a specific area of the face. The average gray scale value of the specific area is compared with a reference value of brightness, and the light shielding unit 13 is controlled by the light shielding controller 35 based on the comparison result.

【0061】例えば、画像が256階調で撮影されてい
る場合、0のグレースケール値が最も明るく、255の
グレースケール値が最も暗い値であるので、特定領域の
各ピクセルに割り当てられたグレースケール値の平均値
は、0から255の間の値となる。明るさの基準値は、
搭乗者が眩しいと感じる明るさに応じて設定されたグレ
ースケール値(0から255の値)として定められる。
For example, when an image is photographed with 256 gradations, the gray scale value of 0 is the brightest and the gray scale value of 255 is the darkest value. The average value is a value between 0 and 255. The reference value of brightness is
It is determined as a gray scale value (a value from 0 to 255) set according to the brightness at which the passenger feels dazzling.

【0062】この実施例では、顔の特定領域は、搭乗者
の目の位置を基準として分けられた2つの画像として抽
出される。第1の画像は、目の周辺の顔領域の画像であ
り、第2の画像は、目より下にある顔下部の領域の画像
である。遮光部13が目の周辺までを遮光し、顔下部ま
では遮光しないので、通常、搭乗者を照らす光の明るさ
は、遮光されていない顔下部の領域で判断される。目の
周辺の画像の明るさは、遮光が正しく行われたかどうか
を確認するために使用される。
In this embodiment, the specific area of the face is extracted as two images divided based on the position of the passenger's eyes. The first image is an image of a face area around the eyes, and the second image is an image of an area under the face below the eyes. Since the light-shielding part 13 shields the area around the eyes from light and does not shield the lower part of the face, the brightness of the light illuminating the occupant is usually determined by the area of the lower part of the face that is not shielded. The brightness of the image around the eyes is used to check whether the light shielding has been performed correctly.

【0063】図4のステップ107で、画像から顔下部
の領域が抽出される。この例を図9に示す。
In step 107 of FIG. 4, the area under the face is extracted from the image. This example is shown in FIG.

【0064】図9に示すように、顔下部の領域の画像を
抽出するために、口の位置を基準とした抽出範囲73が
予め設定されており、抽出範囲73から口部分の画像領
域を除く顔の領域77だけが抽出される。この様にして
抽出された顔下部の領域77は、顔の明るさを判断する
のに使用される。この画像抽出処理は、顔トラッキング
部25で抽出された各特徴点を利用して実行される。
As shown in FIG. 9, in order to extract the image of the area under the face, an extraction range 73 based on the position of the mouth is set in advance, and the image area of the mouth is excluded from the extraction range 73. Only the face region 77 is extracted. The area 77 under the face extracted in this way is used to determine the brightness of the face. This image extraction process is executed using each feature point extracted by the face tracking unit 25.

【0065】ステップ109で、明るさ検出部33は、
抽出された顔下部の領域77の平均グレースケール値を
求め、予め定められた基準値と比較する。顔下部の領域
77の平均グレースケール値は、領域77の全ピクセル
のグレースケール値の総和を求めて、その総和を全ピク
セル数で除算することにより得られる。この様にして得
られた平均グレースケール値は、現在、顔を照らしてい
る光の明るさに対応する。
In step 109, the brightness detection section 33
An average gray scale value of the extracted area 77 under the face is determined and compared with a predetermined reference value. The average grayscale value of the area 77 under the face is obtained by calculating the sum of the grayscale values of all the pixels of the area 77 and dividing the sum by the total number of pixels. The average grayscale value thus obtained corresponds to the brightness of the light currently illuminating the face.

【0066】ステップ109で、顔下部の平均グレース
ケール値が基準値と比較され、顔下部の平均グレースケ
ール値が基準値より明るければ、ステップ113で遮光
がなされる。もし、顔下部の平均グレースケール値が基
準値より明るくなければ、遮光する必要が無いので、フ
ロントガラス上部に光が通過するよう遮光部13の帯状
パターンを全てクリアにする。
In step 109, the average gray scale value of the lower part of the face is compared with the reference value. If the average gray scale value of the lower part of the face is brighter than the reference value, light is shielded in step 113. If the average gray scale value of the lower part of the face is not brighter than the reference value, there is no need to block light, so that the entire band-shaped pattern of the light shielding unit 13 is cleared so that light passes through the upper part of the windshield.

【0067】先に述べた様に、この実施例の明るさの基
準値は、搭乗者が眩しいと感じる明るさに応じて設定さ
れる値である。1つの実施形態では、防眩装置は、基準
値を個々の人間に応じて変化させる手段を備えてもよ
い。例えば、一般に、高齢になるにつれ、目視のために
多くの光量が必要になる。その様な人の場合、基準値と
なるグレースケール値を小さな値に設定する(すなわち
比較的明るいしきい値に設定する)ことにより、防眩調
整を個人に応じて変化させることができる。
As described above, the reference value of the brightness in this embodiment is a value set according to the brightness at which the occupant feels dazzling. In one embodiment, the anti-glare device may include means for changing the reference value according to an individual. For example, in general, as the age increases, more light is required for visual observation. In the case of such a person, the anti-glare adjustment can be changed according to the individual by setting the gray scale value serving as the reference value to a small value (ie, setting a relatively bright threshold value).

【0068】ステップ109で、顔下部の平均グレース
ケール値が基準値より明るいと判断された場合、遮光制
御部35は、ステップ113で遮光部13の遮光範囲を
設定し、その遮光範囲に応じて遮光する。以下に図10
と図11を参照して遮光範囲の設定を説明する。
If it is determined in step 109 that the average gray scale value of the lower part of the face is brighter than the reference value, the light-shielding control unit 35 sets the light-shielding range of the light-shielding unit 13 in step 113, and according to the light-shielding range. Shield. Figure 10 below
The setting of the light shielding range will be described with reference to FIG.

【0069】図10は、車内にいる搭乗者を横から見た
模式図であり、体型による遮光部13の遮光範囲の違い
を示す図である。搭乗者79は比較的背の高い搭乗者を
示し、搭乗者81は比較的背の低い搭乗者を示してい
る。太陽が前方にある状況で遮光部13が背の高い搭乗
者79のために遮光しなければならない遮光範囲は、参
照番号83で示される。それに対して背の低い搭乗者8
1のための遮光範囲は参照番号85で示される。この様
な遮光範囲の違いは、搭乗者の体型の違いだけでなく、
搭乗者の姿勢変化などに応じても発生する。すなわち、
太陽の位置と搭乗者の目の位置に応じて、遮光部13が
遮光しなければならない遮光範囲は異なってくる。この
実施例の防眩装置では、ステレオカメラにより搭乗者の
目の3次元位置をリアルタイムに検出し、搭乗者の目の
位置に応じて最適な遮光範囲を設定する。
FIG. 10 is a schematic view of the occupant in the vehicle as viewed from the side, showing the difference in the light-shielding range of the light-shielding portion 13 depending on the body shape. The passenger 79 indicates a relatively tall passenger, and the passenger 81 indicates a relatively short passenger. The light-blocking area in which the light-blocking section 13 has to block light for a tall passenger 79 in the situation where the sun is ahead is indicated by reference numeral 83. On the other hand, short passenger 8
The shaded area for 1 is designated by reference numeral 85. Such a difference in the light-shielding range is not only a difference in the passenger's body shape,
It also occurs in response to changes in the passenger's posture. That is,
The light-blocking range in which the light-blocking section 13 must block light varies depending on the position of the sun and the position of the eyes of the occupant. In the anti-glare device of this embodiment, the three-dimensional position of the occupant's eyes is detected in real time by a stereo camera, and an optimal light-shielding range is set according to the position of the occupant's eyes.

【0070】図11は、遮光部13の遮光範囲の設定を
示す図である。遮光部13は、参照番号85から93で
示される5本の帯状パターンを備える。これらの帯状パ
ターンは、別個の電圧駆動により透過率を別個に変化さ
せることができる。直射日光を遮光する場合、最上部の
帯状パターン85から下の帯状パターンに向かって順番
に遮光されて防眩がなされる。図11の参照番号17は
フロントガラス前方を見ている搭乗者を示し、参照番号
39は太陽を示している。
FIG. 11 is a diagram showing the setting of the light shielding range of the light shielding unit 13. The light shielding unit 13 includes five band-shaped patterns indicated by reference numerals 85 to 93. These strip patterns can have their transmittance changed separately by separate voltage drive. When direct sunlight is shielded, the light is shielded in order from the uppermost band-shaped pattern 85 to the lower band-shaped pattern, and antiglare is performed. Reference numeral 17 in FIG. 11 indicates a passenger looking ahead of the windshield, and reference numeral 39 indicates the sun.

【0071】遮光制御部35は、搭乗者の目と太陽の位
置に基づいて、最上部の帯状パターン85からどの帯状
パターンまで遮光するかを判断する。搭乗者の現在の目
の位置は、顔画像解析部21により前もって検出されて
いるので、この情報が遮光範囲の設定のために使用され
る。
The light-shielding controller 35 determines which one of the uppermost band-shaped patterns 85 is to be shaded based on the position of the occupant's eyes and the sun. Since the current eye position of the occupant has been detected in advance by the face image analysis unit 21, this information is used for setting the light blocking range.

【0072】例えば、図11に示すように、遮光部13
は、搭乗者の目の周辺までを遮光するよう遮光部13の
遮光範囲を設定する。すなわち、最上部の帯状パターン
85から下に向かって、太陽と搭乗者の目の位置を結ぶ
直線上に存在する帯状パターン89まで遮光範囲が設定
される。この遮光範囲では、搭乗者が太陽を直視するこ
とはなくなる(すなわち防眩されている)。この時、帯
状パターン89より下にある帯状パターン91および9
3が光を透過するよう維持されるので、搭乗者の目の周
辺の明るさが暗くなる一方で、搭乗者の顔の下部は元の
明るさを維持している。顔の下部の明るさは、何らかの
原因により遮光の必要が無くなった場合のために(例え
ば建物の陰で太陽が遮られた場合など)、図5のステッ
プ109で常に検出される。
For example, as shown in FIG.
Sets the light-shielding range of the light-shielding portion 13 so as to shield the area around the eyes of the passenger. That is, the light-shielding range is set from the uppermost band-shaped pattern 85 to a band-shaped pattern 89 existing on a straight line connecting the position of the sun and the eyes of the occupant. In this light-blocking range, the occupant does not look directly at the sun (ie, is glare-proof). At this time, the strip patterns 91 and 9 below the strip pattern 89
3 is maintained so as to transmit light, so that the brightness around the eyes of the occupant becomes darker, while the lower part of the occupant's face maintains the original brightness. The brightness at the lower part of the face is always detected in step 109 in FIG. 5 in the case where the need for light blocking has been eliminated for some reason (for example, when the sun is blocked by a building).

【0073】ステップ113で搭乗者の現在の目の位置
に応じて遮光がなされた後で、この遮光により正しく防
眩がなされているかどうかが検証される。この検証のた
めに、ステップ115で顔画像解析部21から遮光後の
新たな画像が取得される。
After the light is shielded in step 113 according to the current position of the eyes of the occupant, it is verified whether or not the anti-glare is correctly performed by the light shielding. For this verification, a new light-shielded image is acquired from the face image analysis unit 21 in step 115.

【0074】ステップ117で、明るさ検出部33は、
遮光後の画像から搭乗者の目の周辺の画像を抽出する。
この処理は、ステップ107の顔下部の画像抽出と類似
の処理である。図9に示すように、目の周辺の画像を抽
出するために目の位置を基準とした抽出範囲71が予め
設定されており、この抽出範囲71から目の部分を除く
顔の領域75だけが抽出される。この様にして抽出され
た目周辺の領域75の明るさは、遮光後に防眩が正しく
なされたかどうかを検証するために使用される。
In step 117, the brightness detection unit 33
An image around the eyes of the occupant is extracted from the image after shading.
This process is similar to the image extraction of the lower part of the face in step 107. As shown in FIG. 9, an extraction range 71 based on the eye position is set in advance to extract an image around the eye, and only the face region 75 excluding the eye portion from the extraction range 71 is set. Is extracted. The brightness of the region 75 around the eyes extracted in this way is used to verify whether or not the anti-glare has been correctly performed after the light is shielded.

【0075】ステップ119で、明るさ検出部33は、
抽出された目周辺の領域75の平均グレースケール値を
求め、予め定められた基準値と比較する。目周辺の領域
77の平均グレースケール値は、顔下部の領域の平均グ
レースケール値を求めた方法と同様にして求められる。
In step 119, the brightness detection unit 33
An average gray scale value of the extracted area 75 around the eye is obtained and compared with a predetermined reference value. The average grayscale value of the area 77 around the eyes is obtained in the same manner as the method for obtaining the average grayscale value of the area under the face.

【0076】目周辺の領域75の明るさが基準値より明
るくないと判断されれば、ステップ113での遮光が成
功したと判断される。もし、目周辺の領域75の明るさ
が基準値より明るければ、何らかの要因で遮光が成功し
ていないか、または遮光が不十分な状態にある。この場
合、遮光範囲を微調整する必要があるので、ステップ1
21に進む。
If it is determined that the brightness of the area 75 around the eyes is not brighter than the reference value, it is determined that the light shielding in step 113 has been successful. If the brightness of the area 75 around the eyes is brighter than the reference value, the light shielding has not been successful for some reason or the light shielding is insufficient. In this case, it is necessary to finely adjust the light shielding range.
Proceed to 21.

【0077】ステップ121では、帯状パターンを1段
下げて遮光範囲の微調整がなされる。ステップ121で
遮光範囲が1段下げられた後では、さらにその遮光によ
り防眩が正しくなされたかどうかを検証するために再び
ステップ115に進み、新たな画像を使用して一連の作
業が繰り返される。
In step 121, fine adjustment of the light shielding range is performed by lowering the band-shaped pattern by one step. After the light-shielding range has been lowered by one step in step 121, the process proceeds to step 115 again to verify whether anti-glare has been correctly performed by the light-shielding, and a series of operations is repeated using a new image.

【0078】この実施例では、防眩調整は、運転席に座
るドライバーだけになされていたが、ドライバーだけに
限定されるものではない。例えば必要に応じて、助手席
に座っている人、後部座席に座っている人など車内にい
る全ての人を対象としてもよい。本明細書で「搭乗者」
という用語は、その様な車内にいる全ての人を含む。
In this embodiment, the anti-glare adjustment is performed only for the driver sitting in the driver's seat, but is not limited to the driver. For example, if necessary, all persons in the vehicle, such as a person sitting in a passenger seat and a person sitting in a rear seat, may be targeted. As used herein, "passenger"
The term includes all persons in such a vehicle.

【0079】例えば、図12に示すようにフロントガラ
ス37に設けられる遮光部を左右に分割し、ドライバー
と助手席に座る人物とをそれぞれ別個に防眩してもよ
い。この例では、遮光部は、右帯状パターン95と左帯
状パターン97にそれぞれ分割され設けられており、遮
光範囲をそれぞれ別個に制御することができる。この場
合、画像入力部によってドライバーの顔と助手席に座る
人物の顔がそれぞれ撮影され、それぞれの顔の明るさに
応じて遮光範囲が設定される。
For example, as shown in FIG. 12, the light-shielding portion provided on the windshield 37 may be divided into left and right portions so that the driver and the person sitting in the front passenger's seat are separately deglazed. In this example, the light-shielding portion is provided separately in the right band-shaped pattern 95 and the left band-shaped pattern 97, and the light-shielding ranges can be individually controlled. In this case, the face of the driver and the face of the person sitting in the passenger seat are each photographed by the image input unit, and the light-shielding range is set according to the brightness of each face.

【0080】以上この発明を特定の実施例について説明
したが、この発明はこのような実施例に限定されるもの
ではなく、当業者が容易に行うことができる種々の変形
もこの発明の範囲に含まれる。
Although the present invention has been described with reference to a specific embodiment, the present invention is not limited to such an embodiment, and various modifications that can be easily made by those skilled in the art are also included in the scope of the present invention. included.

【0081】[0081]

【発明の効果】この発明によると、搭乗者に何ら負担を
与えることなく搭乗者の目の位置を検出し、検出された
目の位置に応じて動的に防眩することができる防眩装置
を提供することができる。
According to the present invention, the position of the eyes of the occupant can be detected without imposing any burden on the occupant, and the glare can be dynamically reduced in accordance with the detected position of the eyes. Can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による防眩装置を備えた自動車の1つの
実施形態。
FIG. 1 shows an embodiment of a motor vehicle equipped with an anti-glare device according to the present invention.

【図2】遮光部の液晶フィルタのフロントガラスへの配
置例。
FIG. 2 is an example of an arrangement of a liquid crystal filter of a light shielding portion on a windshield.

【図3】画像入力部の実施例。FIG. 3 is an example of an image input unit.

【図4】制御ECU15により実行される機能ブロック
を示す図。
FIG. 4 is a diagram showing functional blocks executed by a control ECU 15;

【図5】防眩調整処理のフローチャート。FIG. 5 is a flowchart of an anti-glare adjustment process.

【図6】顔解析部の処理のフローチャート。FIG. 6 is a flowchart of processing of a face analysis unit.

【図7】探索用テンプレートの例。FIG. 7 is an example of a search template.

【図8】3次元顔特徴点モデル67の例。FIG. 8 is an example of a three-dimensional facial feature point model 67;

【図9】顔下部の領域と目の周辺の領域の抽出を示す
図。
FIG. 9 is a diagram showing extraction of a region under the face and a region around the eyes.

【図10】車内にいる搭乗者を横から見た模式図。FIG. 10 is a schematic view of a passenger in the vehicle as viewed from the side.

【図11】遮光部の遮光範囲の設定を示す図。FIG. 11 is a diagram illustrating setting of a light-shielding range of a light-shielding unit.

【図12】分割された帯状パターンを有する遮光部を示
す図。
FIG. 12 is a diagram showing a light-shielding portion having a divided strip pattern.

【符号の説明】[Explanation of symbols]

11 画像入力部 13 遮光部 17 搭乗者 21 顔解析部 27 日時判断部 29 進行方向判断部 31 防眩判断部 33 明るさ判断部 35 遮光制御部 37 フロントガラス DESCRIPTION OF SYMBOLS 11 Image input part 13 Light shielding part 17 Passenger 21 Face analysis part 27 Date and time determination part 29 Travel direction determination part 31 Anti-glare determination part 33 Brightness determination part 35 Light shielding control part 37 Windshield

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】搭乗者の顔を撮影するために設置された複
数のカメラと、 前記カメラで撮影された画像から前記搭乗者の目の位置
を検出する検出手段と、 前記搭乗者の顔に入射する光の明るさを検出する検出手
段と、 遮光範囲を変えてフロントガラスを遮光することができ
る遮光手段と、 前記搭乗者の目の位置に応じて前記遮光範囲を設定し、
前記遮光手段を制御する遮光制御手段と、を備える直射
光防眩装置。
A plurality of cameras installed for photographing a face of the occupant; detection means for detecting a position of the occupant's eyes from an image photographed by the camera; Detecting means for detecting the brightness of the incident light; light-shielding means capable of changing the light-shielding range to shield the windshield; and setting the light-shielding range according to the position of the passenger's eyes,
A direct light anti-glare device comprising: a light-shielding control unit that controls the light-shielding unit.
【請求項2】前記明るさ検出手段は、前記画像に撮影さ
れている搭乗者の顔から明るさを検出する請求項1に記
載の装置。
2. The apparatus according to claim 1, wherein said brightness detecting means detects brightness from a passenger's face photographed in said image.
【請求項3】前記遮光手段は、液晶を使用した遮光手段
である請求項1に記載の装置。
3. The apparatus according to claim 1, wherein said light shielding means is a light shielding means using a liquid crystal.
【請求項4】前記複数のカメラがステレオ・カメラを構
成する請求項1に記載の装置。
4. The apparatus of claim 1, wherein said plurality of cameras comprises a stereo camera.
【請求項5】車両の進行方向を判断する進行方向判断部
と、 現在の日時を判断する日時判断部と、 前記車両の進行方向および前記現在の日時に基づいて、
防眩するかどうかを判断する防眩判断手段と、を備える
請求項1に記載の装置。
5. A traveling direction determining unit that determines a traveling direction of a vehicle, a date and time determining unit that determines a current date and time, and
The apparatus according to claim 1, further comprising: anti-glare determining means for determining whether to perform anti-glare.
JP2001138418A 2001-05-09 2001-05-09 Direct sunshine anti-glare device Pending JP2002331835A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001138418A JP2002331835A (en) 2001-05-09 2001-05-09 Direct sunshine anti-glare device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001138418A JP2002331835A (en) 2001-05-09 2001-05-09 Direct sunshine anti-glare device

Publications (1)

Publication Number Publication Date
JP2002331835A true JP2002331835A (en) 2002-11-19

Family

ID=18985360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001138418A Pending JP2002331835A (en) 2001-05-09 2001-05-09 Direct sunshine anti-glare device

Country Status (1)

Country Link
JP (1) JP2002331835A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005119523A (en) * 2003-10-17 2005-05-12 Asmo Co Ltd Sun visor apparatus for vehicle
JP2005145219A (en) * 2003-11-14 2005-06-09 Noba Denko Kk Anti-glare device for vehicle
JP2005178484A (en) * 2003-12-17 2005-07-07 Denso Corp Anti-dazzle device
JP2005329936A (en) * 2004-04-21 2005-12-02 Asmo Co Ltd Sun visor device for vehicle
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2006219008A (en) * 2005-02-10 2006-08-24 Denso Corp Vehicular sun visor device
JP2006522699A (en) * 2003-08-04 2006-10-05 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Anti-glare system for vehicles
JP2007050834A (en) * 2005-08-19 2007-03-01 Denso Corp Light shielding device for vehicle
JP2007076396A (en) * 2005-09-09 2007-03-29 Aisin Aw Co Ltd Shading device for vehicle
JP2007112300A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Automatic sun visor
JP2007153135A (en) * 2005-12-05 2007-06-21 Denso Corp Anti-dazzling device for mobile body
US7347479B2 (en) 2004-04-21 2008-03-25 Asmo Co., Ltd. Sunvisor device for a vehicle
JP2008189253A (en) * 2007-02-07 2008-08-21 Denso Corp Anti-glare control device
JP2009078651A (en) * 2007-09-26 2009-04-16 Equos Research Co Ltd Vehicular anti-dazzling device
JP2009292474A (en) * 2003-08-04 2009-12-17 Robert Bosch Gmbh Antidazzle system for vehicle
JP2010184643A (en) * 2009-02-13 2010-08-26 Stanley Electric Co Ltd Glare protection device
JPWO2009116242A1 (en) * 2008-03-18 2011-07-21 パナソニック株式会社 Driver monitoring device, driver monitoring method, and vehicle
KR101283304B1 (en) * 2011-12-12 2013-07-12 기아자동차주식회사 Apparatus and method for detecting dazzle of driver, and anti-dazzling system and method using it
WO2014087447A1 (en) * 2012-12-03 2014-06-12 カラーリンク・ジャパン 株式会社 Optical device
CN105745102A (en) * 2013-11-25 2016-07-06 罗伯特·博世有限公司 Method for operating an anti-glare system for a vehicle
CN106994884A (en) * 2017-05-05 2017-08-01 上海小糸车灯有限公司 The anti-glare method and device of active based on OLED Display Techniques
KR101761790B1 (en) * 2015-09-04 2017-08-07 경희대학교 산학협력단 Sun visor using image processing and operating method of the same
JP2017159730A (en) * 2016-03-08 2017-09-14 三菱自動車工業株式会社 Dimmer for vehicle window glass
JP2018024276A (en) * 2016-08-08 2018-02-15 矢崎総業株式会社 Anti-glare system
GB2557712A (en) * 2016-10-20 2018-06-27 Ford Global Tech Llc Vehicle-window-transmittance-control apparatus and method
JP2018122675A (en) * 2017-01-31 2018-08-09 大日本印刷株式会社 Illumination control system for movable body, control method of lighting control member, and control program of lighting control member
GB2562248A (en) * 2017-05-09 2018-11-14 Delphi Tech Inc Driver anti-blinding system
US10699651B2 (en) 2017-09-22 2020-06-30 Robert Bosch Gmbh Vehicle mounted virtual visor system having a modular liquid crystal display
US11442300B2 (en) 2017-04-27 2022-09-13 Robert Bosch Gmbh Vehicle mounted virtual visor system and method thereof
GB2620744A (en) * 2022-07-19 2024-01-24 Continental Automotive Tech Gmbh Adjusting a darkening element of a vehicle

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009292474A (en) * 2003-08-04 2009-12-17 Robert Bosch Gmbh Antidazzle system for vehicle
JP2006522699A (en) * 2003-08-04 2006-10-05 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Anti-glare system for vehicles
JP2005119523A (en) * 2003-10-17 2005-05-12 Asmo Co Ltd Sun visor apparatus for vehicle
JP2005145219A (en) * 2003-11-14 2005-06-09 Noba Denko Kk Anti-glare device for vehicle
JP2005178484A (en) * 2003-12-17 2005-07-07 Denso Corp Anti-dazzle device
JP2005329936A (en) * 2004-04-21 2005-12-02 Asmo Co Ltd Sun visor device for vehicle
JP4495024B2 (en) * 2004-04-21 2010-06-30 アスモ株式会社 Sun visor device for vehicle
US7347479B2 (en) 2004-04-21 2008-03-25 Asmo Co., Ltd. Sunvisor device for a vehicle
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2006219008A (en) * 2005-02-10 2006-08-24 Denso Corp Vehicular sun visor device
JP4561390B2 (en) * 2005-02-10 2010-10-13 株式会社デンソー Sun visor device for vehicle
JP2007050834A (en) * 2005-08-19 2007-03-01 Denso Corp Light shielding device for vehicle
JP2007076396A (en) * 2005-09-09 2007-03-29 Aisin Aw Co Ltd Shading device for vehicle
JP2007112300A (en) * 2005-10-20 2007-05-10 Aisin Seiki Co Ltd Automatic sun visor
JP2007153135A (en) * 2005-12-05 2007-06-21 Denso Corp Anti-dazzling device for mobile body
JP2008189253A (en) * 2007-02-07 2008-08-21 Denso Corp Anti-glare control device
JP2009078651A (en) * 2007-09-26 2009-04-16 Equos Research Co Ltd Vehicular anti-dazzling device
JPWO2009116242A1 (en) * 2008-03-18 2011-07-21 パナソニック株式会社 Driver monitoring device, driver monitoring method, and vehicle
JP2011154721A (en) * 2008-03-18 2011-08-11 Panasonic Corp Driver monitoring apparatus, driver monitoring method, and vehicle
JP2010184643A (en) * 2009-02-13 2010-08-26 Stanley Electric Co Ltd Glare protection device
KR101283304B1 (en) * 2011-12-12 2013-07-12 기아자동차주식회사 Apparatus and method for detecting dazzle of driver, and anti-dazzling system and method using it
US9180756B2 (en) 2011-12-12 2015-11-10 Hyundai Motor Company Apparatus and method for detecting driver's dazzling and system and method for blocking dazzling using the same
WO2014087447A1 (en) * 2012-12-03 2014-06-12 カラーリンク・ジャパン 株式会社 Optical device
US9523866B2 (en) 2012-12-03 2016-12-20 Colorlink Japan, Ltd. Optical device provided to an eye glass or a helmet having a frontal transmittance and a peripheral transmittance
CN105745102B (en) * 2013-11-25 2018-11-13 罗伯特·博世有限公司 Method for making the anti-glare system of vehicle work
CN105745102A (en) * 2013-11-25 2016-07-06 罗伯特·博世有限公司 Method for operating an anti-glare system for a vehicle
US10399414B2 (en) 2013-11-25 2019-09-03 Robert Bosch Gmbh Method for operating a dazzle protection system for a vehicle
KR101761790B1 (en) * 2015-09-04 2017-08-07 경희대학교 산학협력단 Sun visor using image processing and operating method of the same
JP2017159730A (en) * 2016-03-08 2017-09-14 三菱自動車工業株式会社 Dimmer for vehicle window glass
JP2018024276A (en) * 2016-08-08 2018-02-15 矢崎総業株式会社 Anti-glare system
GB2557712A (en) * 2016-10-20 2018-06-27 Ford Global Tech Llc Vehicle-window-transmittance-control apparatus and method
US10192125B2 (en) 2016-10-20 2019-01-29 Ford Global Technologies, Llc Vehicle-window-transmittance-control apparatus and method
US10832067B2 (en) 2016-10-20 2020-11-10 Ford Global Technologies, Llc Vehicle-window-transmittance-control apparatus and method
JP2018122675A (en) * 2017-01-31 2018-08-09 大日本印刷株式会社 Illumination control system for movable body, control method of lighting control member, and control program of lighting control member
US11442300B2 (en) 2017-04-27 2022-09-13 Robert Bosch Gmbh Vehicle mounted virtual visor system and method thereof
CN106994884A (en) * 2017-05-05 2017-08-01 上海小糸车灯有限公司 The anti-glare method and device of active based on OLED Display Techniques
GB2562248A (en) * 2017-05-09 2018-11-14 Delphi Tech Inc Driver anti-blinding system
US10699651B2 (en) 2017-09-22 2020-06-30 Robert Bosch Gmbh Vehicle mounted virtual visor system having a modular liquid crystal display
GB2620744A (en) * 2022-07-19 2024-01-24 Continental Automotive Tech Gmbh Adjusting a darkening element of a vehicle

Similar Documents

Publication Publication Date Title
JP2002331835A (en) Direct sunshine anti-glare device
EP1683668B1 (en) Variable transmissivity window system
US10521683B2 (en) Glare reduction
US8538044B2 (en) Line-of-sight direction determination device and line-of-sight direction determination method
US8102417B2 (en) Eye closure recognition system and method
US20150296135A1 (en) Vehicle vision system with driver monitoring
JP3855439B2 (en) Night driving visibility support device
US8345922B2 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
US8218832B2 (en) Apparatus for detecting feature of driver's face
JP3228086B2 (en) Driving operation assist device
CN106029416A (en) Sun shield
JP2007025758A (en) Face image extracting method for person, and device therefor
CN111619324A (en) Intelligent anti-dazzling method and system for sight tracking automobile
US20200034603A1 (en) Facial recognition device
JP2002274265A (en) Mirror adjusting device
JP4313717B2 (en) Gaze detection device
JP4151341B2 (en) Face condition detection device
CN114356072A (en) System and method for detecting spatial orientation of wearable device
CN109624667A (en) A kind of method and system that the anti-traffic photographic device of automobile intelligent is dazzling
JP5352266B2 (en) Anti-glare device
US11851003B2 (en) Driving assistance system and method for driver
CN113352852A (en) Method, device and system for blocking strong light
CN117201752A (en) Vehicle-mounted HUD projection self-adaptive adjustment method and system
JPH0732907A (en) Consciousness level detecting device
CN111886858B (en) Image system for vehicle