JP3855439B2 - Night driving visibility support device - Google Patents

Night driving visibility support device Download PDF

Info

Publication number
JP3855439B2
JP3855439B2 JP06680398A JP6680398A JP3855439B2 JP 3855439 B2 JP3855439 B2 JP 3855439B2 JP 06680398 A JP06680398 A JP 06680398A JP 6680398 A JP6680398 A JP 6680398A JP 3855439 B2 JP3855439 B2 JP 3855439B2
Authority
JP
Japan
Prior art keywords
pupil position
driver
camera
image
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06680398A
Other languages
Japanese (ja)
Other versions
JPH11263145A (en
Inventor
明伯 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP06680398A priority Critical patent/JP3855439B2/en
Publication of JPH11263145A publication Critical patent/JPH11263145A/en
Application granted granted Critical
Publication of JP3855439B2 publication Critical patent/JP3855439B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は夜間運転視界支援装置に関するものであり、特に車両前方視界支援装置として赤外線カメラを介して車室内のヘッドアップディスプレイ(以下、HUDと略称する)装置によって表示する夜間運転視界支援装置(ナイトビジョン)に関するものである。
【0002】
夜間の安全な走行を実現するため、可視光では確認できない歩行者などの存在を事前に認知できるような夜間運転視界支援装置が求められている。
【0003】
【従来の技術】
従来から知られている車両前方視界支援装置としては、例えば、特開平7−257228号公報が挙げられる。ここでは、特にドライバの視線を検出する技術が提案されており、赤外線カメラを用いてドライバの眼球画像を検出し、この検出した画像を処理してナビ情報(地図データとGPSなどを用いて目的地への自動誘導を行う際の矢印情報等)をHUD装置により道路面画像上に仮想的に重ねて表示するものである。
【0004】
すなわち、車両前方道路の誘導経路に対する交差点位置とドライバの眼球位置とを結んだ直線上(視線)に、進行方向を示すナビの矢印情報をHUD装置により表示している。これにより、HUD表示を見てから該交差点位置を探すという視線の移動を不必要にしている。
【0005】
一方、従来から知られている夜間運転視界支援装置としては、可視光が少ない夜間時の前方視界を赤外線カメラを使って撮影し、その映像をドライバへ提示する技術(ナイトビジョン)が既に提案されている。
【0006】
【発明が解決しようとする課題】
上記の特開平7−257228号公報による従来技術においては、ドライバの視点から撮影された映像を前方の視界に重ねて表示させるために常に変動するドライバの視線を計測し、それに合わせてHUD表示位置を変化させることが必須である。
このためには、ドライバの視線計測を行い、これに応じてHUD表示位置を適切に計算して表示させなければならない。
【0007】
ここで、リアルタイムでHUD装置を前方視界に重ねて表示するには、コンピュータへの負荷が非常に大きくなり、旋回などの車両運動が激しい場合には計算処理しきれない可能性がある。
【0008】
一方、現在提案されている視線計測技術においても、常にドライバの視線を計測できるわけではなく、ドライバの頭部が大きく揺れたり光環境条件が悪い場合には視線計測が不可能となり、そのような状況では前方視界にHUD表示を重ねて表示することは不可能となってしまう。
【0009】
したがって、このような車両前方視界支援装置は信頼性が十分でなく、特に上記のような夜間運転視界支援装置に適用した場合には危険を伴うことになる。
したがって本発明は、車両前方を撮影する赤外線カメラの映像をヘッドアップディスプレイ装置に表示する夜間運転視界支援装置において、ドライバの視線位置を常に計測することなく適切な安全走行を実現できるようにすることを目的とする。
【0010】
【課題を解決するための手段】
上記の目的を達成するため、本発明に係る夜間運転視界支援装置は、ドライバの眼球を撮影する顔面撮影カメラと、該顔面撮影カメラで撮影された画像を処理する画像処理部と、該画像処理部の処理データから該眼球の瞳孔位置を検出する瞳孔位置検出部と、該瞳孔位置検出部で得られた瞳孔位置が、該HUD装置により表示される映像における実際の風景と重なって見える所定範囲内に有るか否かを判定する瞳孔位置判定部と、該瞳孔位置検出部で瞳孔位置が該所定範囲内にあると判定された時のみ該HUD装置を駆動する制御装置と、を備えたことを特徴としている。
【0011】
端的に言えば、本発明では、常にHUD表示を行うのではなく、ドライバの眼球位置(視線位置)が特定の位置にあるときだけHUD表示を行おうとするものである。
【0012】
すなわち、本発明においては、顔面撮影カメラによってドライバの眼球位置(視線位置)を計測する。この顔面撮影カメラから出力された映像を画像処理部により画像処理を施す。
【0013】
そして、画像処理部から出力されたデータにより瞳孔位置検出部がドライバの瞳孔位置(眼球位置又は視点位置)を検出する。
そして、制御部は、該瞳孔位置がHUD装置に表示される映像における実際の風景と重なって見える所定範囲内に存在するか否かを判定し、この判定結果によりHUD表示装置を制御する。
【0014】
したがって、該所定範囲内に瞳孔位置が存在する場合には制御部はHUD装置を駆動し(ON)、赤外線カメラ1からの映像をドライバの特定の視点位置から前方の視界と一致させてHUD表示させる。しかしながら、該所定範囲内に瞳孔位置が無い場合には、HUD装置を駆動せず(OFF)、HUD表示を行わない。
【0015】
このようにすることで、ドライバの視線が常に計測される必要が無く、ドライバの視線に応じてHUD表示位置を自動調整する必要も無くなる。
【0016】
さらに、ドライバが意識的に前方の様子を確認したい時には自分の頭を動かして特定の視点位置に視点を合わせれば前方視界と重なるHUD表示を積極的に得ることができ、それとは逆に視点をずらせてしまえば意識的にHUD表示を行わないようにすることも可能である。
【0017】
なお、上記のような特定のドライバの視点位置からは前方視界とHUD表示が一致するように初期設定として調整しておくことが望ましい。
【0018】
また、上記の顔面撮影カメラは、カメラと該カメラの先端部においてその光軸上に設けた赤外線LEDとで構成された近赤外線カメラである。
【0019】
【発明の実施の形態】
図1は、本発明に係る夜間運転視界支援装置の実施例を示したもので、図中、1は例えば監視カメラ等に用いられる赤外線カメラを示し、この赤外線カメラ1の出力映像はHUD表示装置2に常に送られている。
【0020】
また、3は顔面撮影用の近赤外線カメラであり特にドライバの視線位置(眼球位置)を計測するものである。この近赤外線カメラ3はその映像をデジタル信号データに変換するとともにこのデータに対して前処理としての画像処理を行う画像処理部4に接続されている。また、画像処理部4はドライバの瞳孔位置(眼球位置又は視点位置)を検出する瞳孔位置検出部5に接続されており、瞳孔位置検出部5は検出された瞳孔(眼球)位置が所定範囲内に存在するか否かを判定する制御部6に接続されている。
【0021】
制御部6はHUD表示装置2に接続され、HUD表示装置2を駆動してHUD表示をさせるか、或いは駆動せずにHUD表示させないように制御を行うものである。
図2には図1に示した本発明に係る夜間運転視界支援装置を実際に車両に搭載した時の実施例が概略的に示されており、図中、10は、商業車両のキャブを示しており、11はキャブ10内のドライバである。
【0022】
HUD表示装置2は、図示のように車両キャブ10の天井部分に設けられたプロジェクタ21とウインドウガラスに取り付けられたコンバイナ22とで構成されている。プロジェクタ21には赤外線カメラ1が接続されており、その出力画像を取り込むようになっている。また、顔面撮影用近赤外線カメラ3は車両キャブ10のダッシュボードに取り付けられており、その先端部分には赤外線LED30が設けられている。
【0023】
図3には図2に示した実施例の変形例が示されており、ここでは、プロジェクタ21がダッシュボードの内部に設けられており、このプロジェクタ21の出力映像は反射部23を介してコンバイナ22に写し出されるように構成している点が異なっている。
【0024】
なお、赤外線カメラ1は監視用に使用されているもので、数ルクスというほどんど可視光が無い状態でも物体が特有の放射熱により物体の形状が映像として見えるものが使用されている。
【0025】
ここで上記のHUD表示装置2は、周知の如く、駆動されたとき図4に示すように赤外線カメラ1からの出力映像を仮想的な映像面VPが前方視界とオーバラップしてドライバ11に見えるようにするものである。
【0026】
図5は図1に示した本発明に係る夜間運転視界支援装置における動作を示したフローチャートであり、以下、このフローチャートを参照して上記の実施例の動作を説明する。
【0027】
まず、キースイッチ(図示せず)が入った時点でシステムが動作を開始し、この制御プログラムが実行される。
次に、制御部6は運転中か否かを判定する(ステップS1)。これは、例えば車速センサ(図示せず)を用いて車速を検出し走行中か否かを判定してもよいし、或いはペダル操作やハンドル操作等から判断してもよい。
【0028】
次に、制御部6は夜間か否かを判定する(ステップS2)。これは、ヘッドライトを点灯させたか否かで判断することができ、或いは顔面撮影用の近赤外線カメラの自動絞り機能を使って判断することができる。
【0029】
ここで、赤外線カメラ1によるHUD表示例を図6により説明する。
同図(1)は昼間の道路映像を示しており、この状態において夜間になると同図(2)に示すような上半分が暗くなった映像になってしまい、その視界はハイビームにしない限り遠方までの視界が得られない。これは、対向車両がある場合など、ロービームで走行しなければならないことが多々あるからである。
【0030】
そこで、同図(3)に示すように赤外線カメラ1による映像を用いて前方視界にHUD表示を重ねて表示させれば、ハイビーム状態と同様の前方視界が得られることになる。
【0031】
図5に戻って、ステップS3により近赤外線カメラにより顔面画像を取得する。
図7には、このようして取得したドライバ11の顔面画像が示されている。
【0032】
さらに、このような顔面画像を画像処理部4により画像処理してドライバ11の眼球の瞳孔位置の検出を行う(ステップS4)。
【0033】
ここで、ドライバの瞳孔位置(眼球位置)を検出する方法について説明する。
ドライバの瞳孔位置を検出するための一つの方法は、夜間、ストロボを照射して写真撮影した時に人物などの被写体の目が赤く輝くことがあるが、これと同様の原理を応用したものである。
【0034】
すなわち、図8に示すように、近赤外線カメラ3の光軸に非常に近い光源を用いることによりドライバの眼球110の網膜からの反射像をカメラで捉えることができる。こうすることにより画像処理を行う上で瞳孔を抽出し易くできる。
【0035】
この時、可視光の光源であればドライバに対して眩惑光となり、その運転に支障を来すこととなるので、人間の目には感知できない近赤外線(760nm以上で800nm付近の波長域の光線)の赤外線LED(発光ダイオード)30を光源とし、近赤外線の領域まで感度が高いCCDカメラを用いることでドライバを眩惑せずに眼球110の網膜反射像を得ることができる。
【0036】
図9にはこのような瞳孔反射像が示されており、同図(1)に示す場合においては、カメラ3の光軸上にない赤外線LED(光源)30を用いた場合を示しており、瞳孔が暗く見える像(暗瞳孔反射像)が得られるが、カメラ3の光軸上に光源30がある場合には同図(2)に示すように瞳孔部分が明るく光る網膜反射像(明瞳孔反射像)が得られることになる。
【0037】
従って、図2及び図3に示す近赤外線カメラ3の位置は図8及び図9の原理を考慮して設定する必要がある。
【0038】
この結果、図7に示したドライバの顔面画像に二値化処理などの画像処理を行って図10に示す瞳孔位置EPを抽出することができる。
【0039】
図5に戻って、このようにして瞳孔位置の検出(ステップS4)が行われた後、瞳孔位置が所定範囲内に有るか否かを判定する(ステップS5)。
【0040】
このステップは、ドライバの瞳孔位置(視点)による前方視界と赤外線カメラ1によるHUD表示像が丁度重なる特定の視点位置(所定の範囲内)に来ているか否かを判定するものであり、図11に示すように、黒枠で示した部分SPに瞳孔位置EPが有るか否かで判断することができる。
【0041】
この時、瞳孔として検出される瞳孔位置が二つ検出されるが、いずれかが黒枠の位置にあればドライバの視点が該所定範囲内にあると判断する。
【0042】
ここで、図11に示すような所定範囲はドライバの個人差に応じてドライバ自身で調節し初期設定を行う必要がある。このような初期設定は例えば、ドライバがHUD表示画像が前方視界と重なって見えて欲しい位置に自分の頭を固定し、HUD表示画像を見ながらプロジェクタ21を調整してHUD表示画像が前方視界に重なるようにする。そして、プロジェクタ21の調整が終了した時点で所定範囲を例えば制御部6に記憶しておく。
【0043】
一度記憶してしまえば次に同じドライバが運転する場合、シートポジションをずらさない限り初期設定を行わなくてもよいことになる。
【0044】
このようにして瞳孔位置が所定範囲内にあると分かった時には、制御部6はHUD装置2をONとし赤外線カメラ1による前方映像をHUD表示させる。
【0045】
しかしながら、所定範囲内になければHUD装置2をOFFとし、赤外線カメラ1による前方映像表示を行わない(ステップS7)。
【0046】
【発明の効果】
以上説明したように、本発明に係る夜間運転視界支援装置によれば、近赤外線カメラからの画像を処理してドライバの瞳孔位置を検出し、この瞳孔位置が予め定めた所定位置に存在するか否かを判定し、存在する場合のみHUD表示装置を駆動して赤外線カメラの出力画像による夜間の前方視界を表示するように構成したので、ドライバの視線が常に計測される必要が無く、ドライバの視線に応じてHUD表示装置を自動調整する必要も無く赤外線カメラによる前方視界のHUD表示をドライバの前方視線に重ねて表示できることとなる。さらに、HUD表示をさせるか否かに対するドライバの意識を反映させることができる。
【図面の簡単な説明】
【図1】 本発明に係る夜間運転視界支援装置の実施例を示したブロック図である。
【図2】本発明に係る夜間運転視界支援装置を実際の車両に搭載した時の実施例(1)を概略的に示した図である。
【図3】本発明に係る夜間運転視界支援装置を実際の車両に搭載した時の実施例(2)を概略的に示した図である。
【図4】HUD表示装置によるHUD表示例を示した図である。
【図5】本発明に係る夜間運転視界支援装置の動作を示したフローチャート図である。
【図6】赤外線カメラによるHUD表示例(ナイトビジョン)を示した図である。
【図7】本発明に係る夜間運転視界支援装置で撮影されたドライバの顔面画像を示した図である。
【図8】本発明に係る夜間運転視界支援装置における瞳孔反射像の撮影原理を示した図である。
【図9】本発明に係る夜間運転視界支援装置における瞳孔反射像を説明するための図である。
【図10】本発明に係る夜間運転視界支援装置において抽出されたドライバの瞳孔位置を示した図である。
【図11】本発明に係る夜間運転視界支援装置における瞳孔位置と特定位置との関係を示した図である。
【符号の説明】
1 赤外線カメラ
2 HUD(ヘッドアップディスプレイ)表示装置
3 顔面撮影用近赤外線カメラ
4 画像処理部
5 瞳孔位置検出部
6 制御部
10 キャブ
11 ドライバ
21 プロジェクタ
22 コンバイナ
30 赤外線LED
110 眼球
図中、同一符号は同一又は相当部分を示す。
[0001]
BACKGROUND OF THE INVENTION
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a night driving vision support device, and more particularly to a night driving visibility support device (night driving) which is displayed by a head-up display (hereinafter abbreviated as HUD) device in a vehicle cabin via an infrared camera as a vehicle forward visibility support device. Vision).
[0002]
In order to achieve safe driving at night, there is a need for a night driving vision support device that can recognize in advance the presence of pedestrians and the like that cannot be confirmed with visible light.
[0003]
[Prior art]
As a conventionally known vehicle forward visibility support device, for example, Japanese Patent Laid-Open No. 7-257228 is cited. Here, in particular, a technique for detecting the driver's line of sight has been proposed. An eyeball image of the driver is detected using an infrared camera, the detected image is processed, and navigation information (target data using map data and GPS is used). The arrow information when performing automatic guidance to the ground, etc.) is displayed virtually superimposed on the road surface image by the HUD device.
[0004]
That is, navigation arrow information indicating the traveling direction is displayed by the HUD device on a straight line (line of sight) connecting the intersection position with respect to the guidance route on the road ahead of the vehicle and the eyeball position of the driver. This eliminates the need to move the line of sight by looking for the intersection position after viewing the HUD display.
[0005]
On the other hand, as a conventionally known night driving vision support device, a technology (night vision) has already been proposed which uses an infrared camera to photograph a front vision at night when there is little visible light, and presents the image to the driver. ing.
[0006]
[Problems to be solved by the invention]
In the prior art disclosed in Japanese Patent Laid-Open No. 7-257228 described above, the driver's line of sight that constantly fluctuates in order to display an image captured from the driver's viewpoint superimposed on the front field of view, and the HUD display position is adjusted accordingly. It is essential to change
For this purpose, the driver's line of sight must be measured, and the HUD display position must be appropriately calculated and displayed accordingly.
[0007]
Here, in order to superimpose and display the HUD device on the front view in real time, the load on the computer becomes very large, and there is a possibility that the calculation process cannot be completed when vehicle motion such as turning is intense.
[0008]
On the other hand, even with the currently proposed gaze measurement technology, the gaze of the driver cannot always be measured, and gaze measurement becomes impossible when the driver's head shakes greatly or the light environment conditions are bad. Under some circumstances, it becomes impossible to display the HUD display superimposed on the front view.
[0009]
Therefore, such a vehicle front vision assistance device is not sufficiently reliable, and is particularly dangerous when applied to the night driving vision assistance device as described above.
Therefore, the present invention is to enable an appropriate safe driving without constantly measuring the driver's line-of-sight position in a night driving vision support device that displays an image of an infrared camera that captures the front of the vehicle on a head-up display device. With the goal.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a night driving vision support device according to the present invention includes a face photographing camera for photographing a driver's eyeball, an image processing unit for processing an image photographed by the face photographing camera, and the image processing. A pupil position detection unit that detects the pupil position of the eyeball from the processing data of the unit, and a predetermined range in which the pupil position obtained by the pupil position detection unit appears to overlap with the actual landscape in the image displayed by the HUD device A pupil position determination unit that determines whether or not the pupil position is within, and a control device that drives the HUD device only when the pupil position detection unit determines that the pupil position is within the predetermined range. It is characterized by.
[0011]
In short, in the present invention, the HUD display is not always performed, but the HUD display is performed only when the eyeball position (line-of-sight position) of the driver is at a specific position.
[0012]
That is, in the present invention, the eyeball position (line-of-sight position) of the driver is measured by the face photographing camera. An image processing unit performs image processing on the video output from the face photographing camera.
[0013]
Then, the pupil position detection unit detects the driver's pupil position (eyeball position or viewpoint position) based on the data output from the image processing unit.
Then, the control unit determines whether or not the pupil position is within a predetermined range that appears to overlap the actual scenery in the video displayed on the HUD device, and controls the HUD display device based on the determination result.
[0014]
Therefore, when the pupil position is within the predetermined range, the control unit drives the HUD device (ON), and the video from the infrared camera 1 is matched with the front view from the specific viewpoint position of the driver to display the HUD. Let However, when there is no pupil position within the predetermined range, the HUD device is not driven (OFF) and the HUD display is not performed.
[0015]
By doing so, it is not necessary to always measure the driver's line of sight, and it is not necessary to automatically adjust the HUD display position in accordance with the driver's line of sight.
[0016]
Furthermore, when the driver wants to consciously check the situation in front, if he moves his head and aligns his viewpoint with a specific viewpoint position, he can actively obtain a HUD display that overlaps the front field of view. If they are shifted, it is possible to consciously prevent HUD display.
[0017]
It should be noted that, from the viewpoint position of the specific driver as described above, it is desirable to adjust the initial setting so that the front view and the HUD display coincide.
[0018]
The face photographing camera is a near-infrared camera composed of a camera and an infrared LED provided on the optical axis at the tip of the camera.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows an embodiment of a night driving vision support device according to the present invention. In the figure, 1 shows an infrared camera used for a surveillance camera, for example, and an output video of the infrared camera 1 is a HUD display device. Always sent to 2.
[0020]
Reference numeral 3 denotes a near-infrared camera for photographing a face, and particularly measures the driver's line-of-sight position (eyeball position). The near-infrared camera 3 is connected to an image processing unit 4 that converts the video into digital signal data and performs image processing as preprocessing on the data. The image processing unit 4 is connected to a pupil position detection unit 5 that detects a driver's pupil position (eyeball position or viewpoint position). The pupil position detection unit 5 has a detected pupil (eyeball) position within a predetermined range. It is connected to the control unit 6 that determines whether or not it exists.
[0021]
The control unit 6 is connected to the HUD display device 2 and controls the HUD display device 2 to drive the HUD display or not to drive the HUD display.
FIG. 2 schematically shows an embodiment when the night driving vision support device according to the present invention shown in FIG. 1 is actually mounted on a vehicle. In the figure, 10 indicates a cab of a commercial vehicle. 11 is a driver in the cab 10.
[0022]
As shown in the figure, the HUD display device 2 includes a projector 21 provided on a ceiling portion of the vehicle cab 10 and a combiner 22 attached to a window glass. The projector 21 is connected to the infrared camera 1 and captures an output image thereof. The near-infrared camera 3 for face photography is attached to the dashboard of the vehicle cab 10, and an infrared LED 30 is provided at the tip portion thereof.
[0023]
FIG. 3 shows a modification of the embodiment shown in FIG. 2, in which a projector 21 is provided inside the dashboard, and an output image of the projector 21 is combined via a reflector 23. 22 is different in that it is configured to be projected onto the screen 22.
[0024]
Note that the infrared camera 1 is used for monitoring, and an object in which the shape of an object can be seen as an image by a specific radiant heat even when there is almost no visible light of several lux is used.
[0025]
Here, as is well known, when the HUD display device 2 is driven, as shown in FIG. 4, the virtual video plane VP overlaps the front view and the driver 11 can see the output video from the infrared camera 1. It is what you want to do.
[0026]
FIG. 5 is a flowchart showing the operation of the nighttime driving vision support device according to the present invention shown in FIG. 1, and the operation of the above embodiment will be described below with reference to this flowchart.
[0027]
First, when a key switch (not shown) is turned on, the system starts its operation and this control program is executed.
Next, the control part 6 determines whether it is driving | running | working (step S1). For example, the vehicle speed may be detected by using a vehicle speed sensor (not shown) to determine whether the vehicle is running, or may be determined from a pedal operation, a steering wheel operation, or the like.
[0028]
Next, the control part 6 determines whether it is night (step S2). This can be determined by whether or not the headlight is turned on, or can be determined by using the automatic iris function of the near-infrared camera for face photography.
[0029]
Here, an example of HUD display by the infrared camera 1 will be described with reference to FIG.
Fig. 1 (1) shows a road image during the daytime. At night in this state, the upper half of the image becomes dark as shown in Fig. 2 (2). I can't get the field of view. This is because there are many cases where it is necessary to travel with a low beam when there is an oncoming vehicle.
[0030]
Therefore, if the HUD display is superimposed on the front field of view using the image from the infrared camera 1 as shown in FIG. 3 (3), the front field of view similar to the high beam state can be obtained.
[0031]
Returning to FIG. 5, a face image is acquired by the near-infrared camera in step S3.
FIG. 7 shows the face image of the driver 11 obtained in this way.
[0032]
Further, such a face image is subjected to image processing by the image processing unit 4 to detect the pupil position of the eyeball of the driver 11 (step S4).
[0033]
Here, a method for detecting the pupil position (eyeball position) of the driver will be described.
One way to detect the driver's pupil position is to apply a similar principle to the eyes of a subject such as a person who shines red at night when taking a picture with a strobe. .
[0034]
That is, as shown in FIG. 8, by using a light source that is very close to the optical axis of the near-infrared camera 3, a reflected image from the retina of the driver's eyeball 110 can be captured by the camera. This makes it easy to extract the pupil when performing image processing.
[0035]
At this time, if it is a light source of visible light, it will become dazzling light to the driver and hinder its driving, so near-infrared rays that are not perceptible to human eyes (light rays in the wavelength range from 760 nm to 800 nm) ) Using an infrared LED (light emitting diode) 30 as a light source and using a CCD camera with high sensitivity up to the near infrared region, a retina reflection image of the eyeball 110 can be obtained without dazzling the driver.
[0036]
FIG. 9 shows such a pupil reflection image. In the case shown in FIG. 9 (1), an infrared LED (light source) 30 not on the optical axis of the camera 3 is used. An image in which the pupil looks dark (dark pupil reflection image) is obtained, but when the light source 30 is on the optical axis of the camera 3, a retina reflection image (bright pupil) in which the pupil part shines brightly as shown in FIG. A reflection image) is obtained.
[0037]
Therefore, the position of the near-infrared camera 3 shown in FIGS. 2 and 3 needs to be set in consideration of the principle of FIGS.
[0038]
As a result, the pupil position EP shown in FIG. 10 can be extracted by performing image processing such as binarization processing on the face image of the driver shown in FIG.
[0039]
Returning to FIG. 5, after the pupil position is detected in this way (step S4), it is determined whether or not the pupil position is within a predetermined range (step S5).
[0040]
In this step, it is determined whether or not the forward visual field based on the pupil position (viewpoint) of the driver and the HUD display image by the infrared camera 1 are exactly located at a specific viewpoint position (within a predetermined range). As shown in FIG. 6, it can be determined by whether or not there is a pupil position EP in the portion SP indicated by a black frame.
[0041]
At this time, two pupil positions detected as pupils are detected. If any of the pupil positions is in the position of the black frame, it is determined that the driver's viewpoint is within the predetermined range.
[0042]
Here, the predetermined range as shown in FIG. 11 needs to be adjusted by the driver itself in accordance with the individual difference of the driver to perform the initial setting. Such an initial setting is, for example, that the driver fixes his / her head at a position where the HUD display image should be seen to overlap the front view, and adjusts the projector 21 while viewing the HUD display image so that the HUD display image is in the front view. Make sure they overlap. Then, the predetermined range is stored in, for example, the control unit 6 when the adjustment of the projector 21 is completed.
[0043]
Once stored, if the same driver is operated next, the initial setting need not be performed unless the seat position is shifted.
[0044]
When it is found that the pupil position is within the predetermined range in this way, the control unit 6 turns on the HUD device 2 and displays the front image by the infrared camera 1 in HUD.
[0045]
However, if it is not within the predetermined range, the HUD device 2 is turned off and the forward video display by the infrared camera 1 is not performed (step S7).
[0046]
【The invention's effect】
As described above, according to the nighttime driving vision support apparatus according to the present invention, the image from the near-infrared camera is processed to detect the driver's pupil position, and is this pupil position present at a predetermined position? Since it is configured to drive the HUD display device only when it is present and display the night vision of the night by the output image of the infrared camera, the driver's line of sight need not always be measured, There is no need to automatically adjust the HUD display device in accordance with the line of sight, and the HUD display of the front field of view by the infrared camera can be displayed superimposed on the driver's front line of sight. Furthermore, it is possible to reflect the driver's awareness of whether or not to perform HUD display.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of a night driving visibility support device according to the present invention.
FIG. 2 is a diagram schematically showing an embodiment (1) when the night driving visibility support device according to the present invention is mounted on an actual vehicle.
FIG. 3 is a diagram schematically showing an embodiment (2) when the nighttime driving vision support device according to the present invention is mounted on an actual vehicle.
FIG. 4 is a diagram showing an example of HUD display by the HUD display device.
FIG. 5 is a flowchart showing the operation of the nighttime driving visibility support device according to the present invention.
FIG. 6 is a diagram showing an example of HUD display (night vision) by an infrared camera.
FIG. 7 is a view showing a driver's face image taken by the night driving vision support device according to the present invention;
FIG. 8 is a diagram illustrating the principle of photographing a pupil reflection image in the nighttime driving vision support device according to the present invention.
FIG. 9 is a diagram for explaining a pupil reflection image in the nighttime driving vision assistance device according to the present invention.
FIG. 10 is a diagram illustrating a driver's pupil position extracted in the nighttime driving vision support apparatus according to the present invention.
FIG. 11 is a diagram showing a relationship between a pupil position and a specific position in the nighttime driving vision support apparatus according to the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Infrared camera 2 HUD (head up display) display device 3 Near-infrared camera for face photography 4 Image processing part 5 Pupil position detection part 6 Control part 10 Cab 11 Driver 21 Projector 22 Combiner 30 Infrared LED
110 In the eyeball diagram, the same reference numerals indicate the same or corresponding parts.

Claims (3)

車両前方を撮影する赤外線カメラの映像をヘッドアップディスプレイ装置に表示する夜間運転視界支援装置において、
ドライバの眼球を撮影する顔面撮影カメラと、
該顔面撮影カメラで撮影された画像を処理する画像処理部と、
該画像処理部の処理データから該眼球の瞳孔位置を検出する瞳孔位置検出部と、
該瞳孔位置検出部で得られた瞳孔位置が、該ヘッドアップディスプレイ装置により表示される映像における実際の風景と重なって見える所定範囲内に有るか否かを判定する瞳孔位置判定部と、
該瞳孔位置検出部で瞳孔位置が該所定範囲内にあると判定された時のみ該ヘッドアップディスプレイ装置を駆動する制御装置と、
を備えたことを特徴とする夜間運転視界支援装置。
In the night driving vision support device that displays the image of the infrared camera that images the front of the vehicle on the head-up display device,
A facial camera that shoots the driver's eyeballs;
An image processing unit that processes an image captured by the facial camera;
A pupil position detection unit that detects the pupil position of the eyeball from the processing data of the image processing unit;
A pupil position determination unit that determines whether or not the pupil position obtained by the pupil position detection unit is within a predetermined range that appears to overlap with an actual landscape in an image displayed by the head-up display device;
A control device that drives the head-up display device only when the pupil position detection unit determines that the pupil position is within the predetermined range;
A night driving visibility support device characterized by comprising:
請求項1において、
該所定範囲が、ドライバの視点位置からの前方視界と該HUD装置による表示とが一致するように初期設定されていることを特徴とした夜間運転視界支援装置。
In claim 1,
The night driving field of view assistance device, wherein the predetermined range is initially set so that the forward field of view from the viewpoint position of the driver and the display by the HUD device coincide with each other.
請求項1において、
該顔面撮影カメラが、カメラと該カメラの先端部においてその光軸上に設けた赤外線LEDとで構成された近赤外線カメラであることを特徴とした夜間運転視界支援装置。
In claim 1,
A night driving vision support device, wherein the face photographing camera is a near-infrared camera comprising a camera and an infrared LED provided on the optical axis at the tip of the camera.
JP06680398A 1998-03-17 1998-03-17 Night driving visibility support device Expired - Fee Related JP3855439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06680398A JP3855439B2 (en) 1998-03-17 1998-03-17 Night driving visibility support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06680398A JP3855439B2 (en) 1998-03-17 1998-03-17 Night driving visibility support device

Publications (2)

Publication Number Publication Date
JPH11263145A JPH11263145A (en) 1999-09-28
JP3855439B2 true JP3855439B2 (en) 2006-12-13

Family

ID=13326404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06680398A Expired - Fee Related JP3855439B2 (en) 1998-03-17 1998-03-17 Night driving visibility support device

Country Status (1)

Country Link
JP (1) JP3855439B2 (en)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202097A1 (en) 2000-10-26 2003-10-30 Autoliv Development Ab Night vision arrangement
JP2002352229A (en) * 2001-05-30 2002-12-06 Mitsubishi Electric Corp Face region detector
US7995095B2 (en) 2001-10-18 2011-08-09 Autoliv Development Ab Night vision device for a vehicle
JP4160848B2 (en) * 2003-03-20 2008-10-08 本田技研工業株式会社 Collision protection device for vehicle
JP5093968B2 (en) * 2003-10-15 2012-12-12 オリンパス株式会社 camera
AU2003296243A1 (en) * 2003-11-30 2005-06-17 Volvo Technology Corporation Method and system for recognizing driver impairment
JP2005173238A (en) * 2003-12-11 2005-06-30 Sharp Corp Optical module, projector, electronic equipment utilizing projector, vehicle, projection system, and showcase
JP2005170323A (en) * 2003-12-15 2005-06-30 Denso Corp Runway profile displaying device
JP4026145B2 (en) * 2004-01-20 2007-12-26 マツダ株式会社 Image display device for vehicle
JP2005219583A (en) * 2004-02-04 2005-08-18 Denso Corp Method for enhancing visibility of front view, and vehicular display device
JP2006151215A (en) * 2004-11-30 2006-06-15 Nippon Seiki Co Ltd Display device for vehicle
JP4788426B2 (en) * 2006-03-23 2011-10-05 株式会社デンソー Vehicle display system
JP2009163084A (en) * 2008-01-09 2009-07-23 Toshiba Corp Display device and mobile body
US8700332B2 (en) 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
US9108513B2 (en) 2008-11-10 2015-08-18 Volkswagen Ag Viewing direction and acoustic command based operating device for a motor vehicle
JP5157845B2 (en) * 2008-11-21 2013-03-06 トヨタ自動車株式会社 Visual assistance device
EP2546087B1 (en) 2010-03-11 2018-10-24 Toyota Jidosha Kabushiki Kaisha Image position adjustment device
DE102010040694A1 (en) * 2010-09-14 2012-03-15 Robert Bosch Gmbh Head-Up Display
CN104108351A (en) * 2013-04-19 2014-10-22 昆达电脑科技(昆山)有限公司 Head-up display control system
JP6287116B2 (en) * 2013-11-27 2018-03-07 株式会社Jvcケンウッド Image display device, image display method, and program
JP2017009573A (en) * 2015-03-06 2017-01-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Attachable terminal and attachable terminal control method
JP6512475B2 (en) * 2015-04-30 2019-05-15 株式会社リコー INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
CN107920733B (en) * 2015-08-07 2020-12-22 皇家飞利浦有限公司 Device and system for monitoring the eyes of a subject
JP6497818B2 (en) 2017-03-10 2019-04-10 株式会社Subaru Image display device
JP6860385B2 (en) * 2017-03-10 2021-04-14 株式会社Subaru Image display device
JP6497819B2 (en) 2017-03-10 2019-04-10 株式会社Subaru Image display device
JP6429413B2 (en) 2017-03-10 2018-11-28 株式会社Subaru Image display device
JP6465318B2 (en) 2017-03-10 2019-02-06 株式会社Subaru Image display device
JP6860384B2 (en) * 2017-03-10 2021-04-14 株式会社Subaru Image display device
JP6515125B2 (en) 2017-03-10 2019-05-15 株式会社Subaru Image display device
JP6465317B2 (en) 2017-03-10 2019-02-06 株式会社Subaru Image display device
JP6593803B2 (en) * 2017-03-10 2019-10-23 株式会社Subaru Image display device
KR102339522B1 (en) * 2017-04-12 2021-12-16 현대모비스 주식회사 Integrated vehicle and driving information display method and apparatus
JP2019043408A (en) * 2017-09-04 2019-03-22 三菱自動車工業株式会社 Headlight control device for vehicle
JP2019175621A (en) * 2018-03-27 2019-10-10 いすゞ自動車株式会社 Lighting device and vehicle
CN112606834B (en) * 2020-12-21 2023-03-14 福建工程学院 Driving auxiliary system for displaying blind area in front of vehicle

Also Published As

Publication number Publication date
JPH11263145A (en) 1999-09-28

Similar Documents

Publication Publication Date Title
JP3855439B2 (en) Night driving visibility support device
JP6643969B2 (en) Display device for vehicles
US20060158715A1 (en) Variable transmissivity window system
JP4699054B2 (en) Vehicle perimeter monitoring device
JP2003200755A (en) Displaying device for vehicle
EP3200048A2 (en) Image display apparatus
JP3228086B2 (en) Driving operation assist device
JP2005182306A (en) Vehicle display device
JPH07257228A (en) Display device for vehicle
TWI522257B (en) Vehicle safety system and operating method thereof
JP2010130647A (en) Vehicle periphery checking system
CN104627074A (en) Optical reproduction and detection system in a vehicle
JP3877116B2 (en) Vehicle display device
JP3884815B2 (en) Vehicle information display device
JP2000351339A (en) Controller for driving device
JP2017056909A (en) Vehicular image display device
KR20150055181A (en) Apparatus for displaying night vision information using head-up display and method thereof
JP3185522B2 (en) Gaze direction measuring device for vehicles
JP7276082B2 (en) Driver state estimation device
KR20170096609A (en) Displaying control apparatus of head up display
JP7295645B2 (en) Vehicle road sign recognition support device
JPH0868630A (en) Visual line direction measuring apparatus for vehicle and image input device used for it
JP4033170B2 (en) Vehicle display device
WO2024075739A1 (en) Vehicular display device
JP2003011722A (en) Nighttime running support device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060904

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130922

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees