JP2010143411A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2010143411A
JP2010143411A JP2008322917A JP2008322917A JP2010143411A JP 2010143411 A JP2010143411 A JP 2010143411A JP 2008322917 A JP2008322917 A JP 2008322917A JP 2008322917 A JP2008322917 A JP 2008322917A JP 2010143411 A JP2010143411 A JP 2010143411A
Authority
JP
Japan
Prior art keywords
eyeball
image
display
vehicle
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008322917A
Other languages
Japanese (ja)
Inventor
Kazuya Yasuda
一也 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008322917A priority Critical patent/JP2010143411A/en
Publication of JP2010143411A publication Critical patent/JP2010143411A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head-up display device for securing the safety of a vehicle. <P>SOLUTION: When a collision object 6 predicted to collide with a vehicle is detected, a display 12 is controlled to display an image as a warning image 50 which warns the existence of the collision object 6, while adjusting the imaging position of a virtual image 52 which is formed by projecting the warming image 50 displayed on the display 12 to a front wind shield 2 of the vehicle, to a position a set distance D of 8 m or longer apart from an average position P of the eyeball positions of an occupant 4 on a driver's seat 3 to superpose the virtual image 52 on a center view 60 of the occupant 4. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両用表示装置としてのヘッドアップディスプレイ装置(以下、「HUD装置」という)に関する。   The present invention relates to a head-up display device (hereinafter referred to as “HUD device”) as a vehicle display device.

従来、車両において表示器に表示した画像を車両のフロントウインドシールドへ投射することにより、当該画像の虚像を車両内の運転席側へ表示するHUD装置が知られている。こうしたHUD装置では、例えば特許文献1に開示されるように、表示画像をフロントウインドシールドへ投射してなる虚像の結像位置について、車両の運転席上における乗員の運転時の視野を妨げないように調整している。
特開2004−322680号公報
2. Description of the Related Art Conventionally, an HUD device that displays an image displayed on a display device in a vehicle on a front windshield of the vehicle to display a virtual image of the image on the driver's seat side in the vehicle is known. In such a HUD device, for example, as disclosed in Patent Document 1, the visual position when the occupant is driving on the driver's seat of the vehicle is not obstructed with respect to the imaging position of the virtual image formed by projecting the display image onto the front windshield. It is adjusted to.
JP 2004-322680 A

しかし、特許文献1のHUD装置の場合、自車両の運転時に運転席上の乗員が、一般に40〜50m程度前方の実景から近くの虚像へと視野を変更するには、当該変更に伴って眼球の焦点調節をしなければならない。そのため、虚像の表示による情報伝達に遅れが生じるという問題があった。ここで特に、かかる問題は、衝突が予測される衝突対象の発見時に自車両の安全を確保する上において、その解決が望まれている。   However, in the case of the HUD device of Patent Document 1, an occupant on the driver's seat changes the field of view from a real scene in front of about 40 to 50 m to a near virtual image when driving the host vehicle. You have to adjust the focus. Therefore, there has been a problem that a delay occurs in information transmission by displaying a virtual image. In particular, such a problem is desired to be solved in securing the safety of the host vehicle when a collision target where a collision is predicted is discovered.

本発明は、以上説明した問題に鑑みてなされたものであって、その目的は、車両安全を確保するヘッドアップディスプレイ装置を提供することにある。   The present invention has been made in view of the problems described above, and an object thereof is to provide a head-up display device that ensures vehicle safety.

請求項1に記載の発明は、車両において表示器に表示した画像を車両のフロントウインドシールドへ投射することにより、当該画像の虚像を車両内の運転席側へ表示するHUD装置であって、車両との衝突が予測される衝突対象を検出する衝突対象検出手段と、衝突対象検出手段により衝突対象が検出された場合に、当該衝突対象の存在を警告する前記画像を警告画像として表示するように表示器を制御する警告表示制御手段と、前記警告画像をフロントウインドシールドへ投射してなる虚像の結像位置を、運転席上における乗員の眼球位置から8m以上の設定距離をもって離間した位置に調整して、当該虚像を乗員の中心視野に重畳させる結像位置調整手段と、を備えることを特徴とする。   The invention according to claim 1 is a HUD device that displays a virtual image of the image on the driver's seat side in the vehicle by projecting the image displayed on the display in the vehicle onto the front windshield of the vehicle. A collision target detection unit that detects a collision target that is predicted to collide, and when the collision target is detected by the collision target detection unit, the image that warns the existence of the collision target is displayed as a warning image. A warning display control means for controlling the display and a virtual image forming position obtained by projecting the warning image onto the front windshield are adjusted to a position separated from the occupant's eyeball position on the driver's seat with a set distance of 8 m or more. And an imaging position adjusting means for superimposing the virtual image on the center visual field of the occupant.

この発明によると、自車両との衝突が予測される衝突対象の存在を警告する警告画像を表示器からフロントウインドシールドへ投射してなる虚像は、その結像位置の調整により、自車両の運転席上における乗員の中心視野に重畳される。ここで、特に警告画像の虚像の結像位置は、乗員の眼球輻輳角が小さくなることで乗員の焦点調節が実質的に不要となる8m以上の距離を設定距離として、乗員の眼球位置から当該設定距離をもって離間した位置に調整されることになる。これにより、自車両の運転時の中心視野において乗員は、警告画像の虚像と前方の実景とを眼球の焦点調節なく視認可能となるので、乗員に対して当該虚像による衝突対象の存在伝達に遅れが生じ難くなる。したがって、衝突対象の検出時にはその存在を乗員へと逸早く伝達して、車両安全の確保に貢献することができる。   According to the present invention, a virtual image formed by projecting a warning image that warns of the existence of a collision target that is predicted to collide with the host vehicle from the display unit to the front windshield is adjusted by adjusting the imaging position of the host vehicle. It is superimposed on the passenger's central vision on the seat. Here, in particular, the image formation position of the virtual image of the warning image is the distance from the occupant's eyeball position, with a set distance of 8 m or more at which the occupant's eye convergence angle becomes small and the occupant's focus adjustment is substantially unnecessary. It is adjusted to a position separated by a set distance. As a result, the occupant can visually recognize the virtual image of the warning image and the front real scene without adjusting the focus of the eyeball in the central field of view when the host vehicle is driven. Is less likely to occur. Therefore, when a collision target is detected, its presence can be quickly transmitted to the occupant, thereby contributing to ensuring vehicle safety.

請求項2に記載の発明によると、虚像の結像位置について運転席上における乗員の眼球位置からの離間距離である設定距離は、8m以上15m以下である。この発明によれば、乗員の眼球位置から設定距離をもって離間した位置に警告画像の虚像を結像させるための構造を、15m以下の設定距離により小型に抑えつつ、乗員による中心視野での実景及び虚像の視認を、8m以上の設定距離により焦点調整なく実現し得る。したがって、HUD装置の設置自由度を高めて、車種に寄ることなく車両安全を確保することが可能となる。   According to the second aspect of the present invention, the set distance, which is the distance from the occupant's eyeball position on the driver's seat at the virtual image formation position, is 8 m or more and 15 m or less. According to the present invention, the structure for forming a virtual image of the warning image at a position separated from the occupant's eyeball position by a set distance is reduced to a small size by a set distance of 15 m or less, and the actual scene in the central visual field by the occupant and Visual recognition of a virtual image can be realized without adjusting the focus by a set distance of 8 m or more. Therefore, it is possible to increase the degree of freedom of installation of the HUD device and ensure vehicle safety without depending on the vehicle type.

請求項3に記載の発明によると、結像位置検出手段は、運転席上における乗員の眼球位置に対して俯角が1度以上5度以下の設定角度となる位置に、虚像の結像位置を調整する。この発明によれば、警告画像の虚像は、乗員の眼球位置に対する俯角が1度以上5度以下の設定角度となる位置に結像位置が調整されることで、乗員の中心視野における前方実景の視認への影響を最小限に抑えられつつ当該中心視野に適正に重畳されることになる。これにより乗員は、運転に必要な実景を確実に視認しながら、警告画像の虚像表示により衝突対象の存在を瞬時に把握することができるので、車両安全の確保効果が高められ得る。   According to the third aspect of the present invention, the imaging position detecting means sets the imaging position of the virtual image at a position where the depression angle is a set angle of 1 degree to 5 degrees with respect to the occupant's eyeball position on the driver's seat. adjust. According to the present invention, the virtual image of the warning image is obtained by adjusting the imaging position to a position where the depression angle with respect to the occupant's eyeball position is a set angle of 1 ° or more and 5 ° or less. It is appropriately superimposed on the central visual field while minimizing the influence on visual recognition. Thus, the occupant can instantly grasp the presence of a collision target by displaying a virtual image of a warning image while reliably viewing a real scene necessary for driving, so that the effect of ensuring vehicle safety can be enhanced.

請求項4に記載の発明によると、結像位置調整手段は、衝突対象検出手段により検出された衝突対象の位置と眼球位置との間に虚像の結像位置を調整する。この発明によれば、衝突対象検出手段により検出された実際の衝突対象の位置と、自車両の運転席上における乗員の眼球位置との間に、結像位置が調整される警告画像の虚像は、乗員の中心視野のうち当該衝突対象近傍に表示され得る。これにより乗員は、衝突対象の存在のみならず、その位置も正しく把握することができるので、車両安全の確保効果が高められ得るのである。   According to the fourth aspect of the present invention, the imaging position adjusting unit adjusts the imaging position of the virtual image between the position of the collision target detected by the collision target detection unit and the eyeball position. According to this invention, the virtual image of the warning image in which the imaging position is adjusted between the actual position of the collision target detected by the collision target detection means and the position of the occupant's eyeball on the driver's seat of the host vehicle is In the central visual field of the occupant, it can be displayed near the collision target. As a result, the occupant can correctly grasp not only the presence of the collision target but also the position thereof, so that the effect of ensuring vehicle safety can be enhanced.

請求項5に記載の発明は、運転席上における乗員の眼球状態に関する眼球情報として眼球位置を含む情報を取得する眼球情報取得手段と、眼球情報取得手段により取得された眼球情報に基づき中心視野を推定する視野推定手段と、を備え、結像位置調整手段は、眼球情報取得手段により取得された眼球情報のうちの眼球位置から設定距離をもって離間した位置に虚像の結像位置を調整して、視野推定手段により推定された中心視野に重畳させる。この発明によれば、警告画像の虚像を重畳させる中心視野が乗員の眼球情報に基づき推定されると共に、その推定した視野と眼球情報のうちの眼球位置とに基づき警告画像の虚像の結像位置が調整されることになるので、焦点調節のない虚像表示が乗員の眼球状態に応じたものとなる。したがって、乗員に対する衝突対象の存在の伝達性、ひいては車両安全の確保効果を高めることができる。   According to a fifth aspect of the present invention, an eyeball information acquisition unit that acquires information including an eyeball position as eyeball information relating to an eyeball state of an occupant on a driver's seat, and a central visual field based on the eyeball information acquired by the eyeball information acquisition unit Visual field estimation means for estimating, and the imaging position adjusting means adjusts the imaging position of the virtual image to a position separated from the eyeball position by a set distance in the eyeball information acquired by the eyeball information acquiring means, It is superimposed on the central visual field estimated by the visual field estimation means. According to the present invention, the central visual field on which the virtual image of the warning image is superimposed is estimated based on the occupant's eyeball information, and the virtual image forming position of the warning image is based on the estimated visual field and the eyeball position in the eyeball information. Therefore, the virtual image display without the focus adjustment corresponds to the eyeball state of the occupant. Therefore, it is possible to enhance the transmission effect of the existence of the collision target with respect to the occupant, and thus the effect of ensuring the vehicle safety.

請求項6に記載の発明によると、眼球情報取得手段は、運転席上における乗員の眼球状態を検出する眼球センサを有し、当該眼球センサによる検出結果から眼球状態に関する眼球情報を取得する。この発明によれば、眼球センサによる検出結果から乗員の実際の眼球情報が取得されて、中心視野の推定と虚像の結像位置の調整とに利用されることになるので、それら推定及び調整が正確なものとなる。したがって、警告画像の虚像を乗員の中心視野に適正に重畳させて、当該虚像の表示による車両安全の確保効果を高めることができる。   According to the sixth aspect of the invention, the eyeball information acquisition means has an eyeball sensor that detects the eyeball state of the passenger on the driver's seat, and acquires eyeball information related to the eyeball state from the detection result of the eyeball sensor. According to the present invention, the actual eyeball information of the occupant is acquired from the detection result by the eyeball sensor, and is used for estimation of the central visual field and adjustment of the imaging position of the virtual image. It will be accurate. Therefore, the virtual image of the warning image can be appropriately superimposed on the center visual field of the occupant to enhance the vehicle safety ensuring effect by displaying the virtual image.

請求項7に記載の発明によると、眼球情報取得手段は、眼球情報を記憶する眼球情報メモリを有し、当該眼球情報メモリから眼球情報を取得する。この発明によれば、眼球情報メモリに事前に記憶された眼球情報が当該メモリから取得されて、中心視野の推定と虚像の結像位置の調整とに利用されることになるので、それら推定及び調整に必要な処理が全体として少なくて済む。したがって、衝突対象の検出から警告画像の虚像を中心視野に重畳させるまでの処理時間を短縮して、当該虚像を迅速に表示させることができるので、車両安全の確保効果が高められ得るのである。   According to the seventh aspect of the present invention, the eyeball information acquisition means has an eyeball information memory for storing eyeball information, and acquires eyeball information from the eyeball information memory. According to this invention, the eyeball information stored in advance in the eyeball information memory is acquired from the memory and used for estimation of the central visual field and adjustment of the imaging position of the virtual image. Less processing is required for adjustment as a whole. Therefore, since the processing time from detection of the collision target until the virtual image of the warning image is superimposed on the central visual field can be shortened and the virtual image can be displayed quickly, the effect of ensuring vehicle safety can be enhanced.

請求項8に記載の発明によると、警告表示制御手段は、衝突対象検出手段により検出された衝突対象との衝突確率に応じて警告画像の表示形態を変化させる。この発明によれば、自車両に対する衝突対象との衝突確率に応じて警告画像の表示形態が変化することで、当該警告画像の虚像を視認した乗員は、衝突対象の接近等による衝突確率の上昇を視覚的に把握し得るので、車両安全の確保効果を高めることができるのである。   According to the invention described in claim 8, the warning display control means changes the display form of the warning image according to the collision probability with the collision target detected by the collision target detection means. According to the present invention, the display form of the warning image changes according to the collision probability with the collision target with respect to the host vehicle, so that the occupant who visually recognizes the virtual image of the warning image increases the collision probability due to the approach of the collision target or the like. Therefore, the effect of ensuring vehicle safety can be enhanced.

以下、本発明の複数の実施形態を図面に基づき説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する。   Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description is abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment.

(第一実施形態)
図1は、本発明の第一実施形態によるHUD装置1の概略的構成を示している。HUD装置1は表示ユニット10及び制御ユニット30等から構成されて、車両に搭載されている。ここで、車両のインストルメントパネル5内に設置される表示ユニット10は、表示器12、光学系14及び駆動部16を備えている。
(First embodiment)
FIG. 1 shows a schematic configuration of a HUD device 1 according to a first embodiment of the present invention. The HUD device 1 includes a display unit 10 and a control unit 30 and is mounted on a vehicle. Here, the display unit 10 installed in the instrument panel 5 of the vehicle includes a display 12, an optical system 14, and a drive unit 16.

表示器12は例えば液晶モニタ等からなり、画像を表示する画面120を有している。光学系14は、例えばミラー及びレンズ等を組み合わせてなり、表示器12の画面120に表示された画像を光学像として車両のフロントウインドシールド2へと投射する。かかる投射により表示器12の表示画像は、フロントウインドシールド2の前方にて結像されることで、虚像として車両内の運転席3側へと表示される。したがって、運転席3上の乗員4は、前方に表示された虚像を視認することで、表示器12の表示画像が表す情報を伝達されることになる。   The display device 12 is composed of, for example, a liquid crystal monitor and has a screen 120 for displaying an image. The optical system 14 is formed by combining, for example, a mirror and a lens, and projects an image displayed on the screen 120 of the display 12 onto the front windshield 2 of the vehicle as an optical image. By this projection, the display image of the display device 12 is formed in front of the front windshield 2 and displayed as a virtual image on the driver's seat 3 side in the vehicle. Therefore, the occupant 4 on the driver's seat 3 can transmit information represented by the display image of the display 12 by visually recognizing the virtual image displayed in the front.

駆動部16は、表示器12及び光学系14を収容するハウジング160と、当該ハウジング160の配置位置や配置角度等の配置状態を調整するアクチュエータ162とを有している。アクチュエータ162は、例えば電動モータ及び運動変換機構等からなり、ハウジング160を任意の位置や角度等に駆動可能となっている。かかる駆動によりハウジング160の配置状態が調整されることで、表示器12の表示画像について光学系14により虚像を結像させる位置(以下、単に「結像位置」という)が調整される。   The drive unit 16 includes a housing 160 that houses the display device 12 and the optical system 14, and an actuator 162 that adjusts an arrangement state such as an arrangement position and an arrangement angle of the housing 160. The actuator 162 includes, for example, an electric motor and a motion conversion mechanism, and can drive the housing 160 to an arbitrary position, angle, or the like. By adjusting the arrangement state of the housing 160 by such driving, the position (hereinafter simply referred to as “imaging position”) at which the optical system 14 forms an image on the display image of the display 12 is adjusted.

制御ユニット30は、眼球情報取得部32、通信部34、撮像部36及び制御回路38を備えている。   The control unit 30 includes an eyeball information acquisition unit 32, a communication unit 34, an imaging unit 36, and a control circuit 38.

眼球情報取得部32は、眼球センサ320及び解析処理回路322を有している。眼球センサ320は、例えばCCD等の撮像素子を複数組み合わせてなり、インストルメントパネル5の上面又はステアリングコラムの上面等に設置されている。眼球センサ320は運転席3上における乗員4の少なくとも顔面を撮影して、当該乗員4の眼球状態を検出する。   The eyeball information acquisition unit 32 includes an eyeball sensor 320 and an analysis processing circuit 322. The eyeball sensor 320 is formed by combining a plurality of image sensors such as CCDs, for example, and is installed on the upper surface of the instrument panel 5 or the upper surface of the steering column. The eyeball sensor 320 captures at least the face of the occupant 4 on the driver's seat 3 and detects the eyeball state of the occupant 4.

解析処理回路322は、例えば画像処理用のICチップ等からなり、車両の表示ユニット10近傍に設置されて眼球センサ320と電気接続されている。解析処理回路322は、眼球センサ320による眼球状態の検出結果を表す画像信号を所定のフレームレートで連続処理することにより、当該眼球状態に関する眼球情報を取得する。ここで眼球情報については、運転席3上における乗員4の眼球位置及び視線方向を少なくとも含むように、本実施形態では設定される。また特に本実施形態では、眼球情報としての眼球位置及び視線方向についてそれぞれ、設定時間内(例えば1秒間)に眼球状態を設定回数(例えば30回)にて検出した結果の平均位置及び平均方向が採用される。   The analysis processing circuit 322 is made of, for example, an image processing IC chip or the like, and is installed in the vicinity of the display unit 10 of the vehicle and is electrically connected to the eyeball sensor 320. The analysis processing circuit 322 acquires eyeball information related to the eyeball state by continuously processing an image signal representing the detection result of the eyeball state by the eyeball sensor 320 at a predetermined frame rate. Here, the eyeball information is set in the present embodiment so as to include at least the eyeball position and the line-of-sight direction of the occupant 4 on the driver's seat 3. In particular, in the present embodiment, the average position and the average direction as a result of detecting the eyeball state within the set time (for example, 1 second) by the set number of times (for example, 30 times) for the eyeball position and the line-of-sight direction as the eyeball information, respectively. Adopted.

通信部34は、車載通信機340及び情報処理回路342を備えている。車載通信機340は、例えば通信種類に応じた無線機器を複数組み合わせてなり、車両において外部と通信可能に設置されている。ここで通信種類としては、DSRCビーコンやETCビーコン、路肩カメラ等の交通インフラを利用する路車間通信、他車両の車載通信機を利用する車車間通信、GPSや衛星カメラ等を利用する衛星通信、並びに携帯電話を利用する携帯通信のうち少なくとも一つが、本実施形態では採用される。車載通信機340は、自車両外部の交通情報を表す無線信号を随時受信して、当該信号の増幅処理並びに復調処理を行う。   The communication unit 34 includes an in-vehicle communication device 340 and an information processing circuit 342. The in-vehicle communication device 340 is formed by combining a plurality of wireless devices corresponding to the communication type, for example, and is installed in the vehicle so as to be able to communicate with the outside. Communication types include DSRC beacons, ETC beacons, road-to-vehicle communications using traffic infrastructure such as roadside cameras, inter-vehicle communications using in-vehicle communication devices of other vehicles, satellite communications using GPS, satellite cameras, etc. In addition, at least one of mobile communications using a mobile phone is adopted in the present embodiment. The in-vehicle communication device 340 receives a radio signal representing traffic information outside the host vehicle as needed, and performs amplification processing and demodulation processing on the signal.

情報処理回路342は、例えば通信処理用のICチップ等からなり、車両の表示ユニット10近傍に設置されて車載通信機340と電気接続されている。情報処理回路342は、車載通信機340から出力の無線信号を所定のサンプリングで連続処理することにより、自車両との衝突が予測される衝突対象6(例えば図2を参照)を検出して当該対象6に関する衝突予測情報を取得する。ここで衝突対象6には、例えば自車両外部の人間や動物、他車両等が含まれている。また、衝突予測情報については、検出した衝突対象6の存在位置、移動方向及び移動速度を少なくとも含むように、本実施形態では設定される。   The information processing circuit 342 includes, for example, an IC chip for communication processing, and is installed near the display unit 10 of the vehicle and is electrically connected to the in-vehicle communication device 340. The information processing circuit 342 detects a collision target 6 (see, for example, FIG. 2) that is predicted to collide with the host vehicle by continuously processing a radio signal output from the in-vehicle communication device 340 with a predetermined sampling. The collision prediction information regarding the object 6 is acquired. Here, the collision target 6 includes, for example, a person or an animal outside the host vehicle, another vehicle, or the like. In addition, the collision prediction information is set in the present embodiment so as to include at least the presence position, the moving direction, and the moving speed of the detected collision target 6.

本実施形態の情報処理回路342はさらに、車載通信機340からの無線信号の連続処理により、前進走行する自車両の予定の進行方向に関して進行方向情報を取得する。ここで、予定の進行方向とは例えば、自車両が走行している道路の走行先におけるカーブ方向や、自車両に搭載されたナビゲーションシステム(図示しない)により指定された目的地へと向かうための走行方向等である。   The information processing circuit 342 according to the present embodiment further acquires traveling direction information regarding the planned traveling direction of the host vehicle traveling forward by continuous processing of radio signals from the in-vehicle communication device 340. Here, the planned traveling direction is, for example, a direction of a curve on a road where the host vehicle is traveling, or a destination specified by a navigation system (not shown) mounted on the host vehicle. Traveling direction, etc.

撮像部36は、外界カメラ360及び画像処理回路362を備えている。外界カメラ360は、例えばCCD等の撮像素子を主体に構成されて車両のフロントバンパー又はバックミラー近傍等に設置されており、当該車両の前方に広がる外界領域を随時撮影する。   The imaging unit 36 includes an external camera 360 and an image processing circuit 362. The external camera 360 is configured mainly with an image sensor such as a CCD, and is installed in the vicinity of the front bumper or the rearview mirror of the vehicle. The external camera 360 shoots an external region spreading forward of the vehicle as needed.

画像処理回路362は、例えば画像処理用のICチップ等からなり、車両の表示ユニット10近傍に設置されて外界カメラ360と電気接続されている。画像処理回路362は、外界カメラ360による外界領域の撮影結果を表す画像信号を所定のフレームレートで連続処理することにより、上述の情報処理回路342に準じた衝突対象6の検出並びに衝突予測情報の取得を行う。   The image processing circuit 362 includes, for example, an IC chip for image processing, and is installed near the display unit 10 of the vehicle and is electrically connected to the external camera 360. The image processing circuit 362 continuously processes the image signal representing the imaging result of the external field by the external camera 360 at a predetermined frame rate, thereby detecting the collision target 6 according to the information processing circuit 342 and detecting the collision prediction information. Acquire.

制御回路38は、例えばマイクロコンピュータを主体に構成されてメモリ380を有しており、車両の表示ユニット10近傍に設置されて表示器12、駆動部16のアクチュエータ162及び回路322,342,362と電気接続されている。制御回路38は、メモリ380に記憶の制御プログラムを実行することにより、表示器12と駆動部16のアクチュエータ162とを各回路322,342,362の取得情報に基づき制御する。   The control circuit 38 is composed mainly of a microcomputer, for example, and has a memory 380. The control circuit 38 is installed in the vicinity of the display unit 10 of the vehicle, and includes the display 12, the actuator 162 of the drive unit 16, and the circuits 322, 342, and 362. Electrical connection. The control circuit 38 controls the display 12 and the actuator 162 of the drive unit 16 based on the acquired information of the circuits 322, 342, and 362 by executing a control program stored in the memory 380.

特に本実施形態の制御回路38は、回路342,362の少なくとも一方により衝突対象6が検出されて衝突予測情報が取得された場合に、図3の如き警告画像50を図2に示す虚像52として表示するように、表示器12による画像の表示と駆動部16による結像位置の調整とを制御する。以下、かかる場合の制御フローについて、図4に示すフローチャートに従って説明する。尚、この制御フローは、車両のイグニッションスイッチのオンに応じて開始し、当該スイッチのオフに応じて終了するようにプログラムされている。。   In particular, when the collision target 6 is detected by at least one of the circuits 342 and 362 and the collision prediction information is acquired, the control circuit 38 according to the present embodiment converts the warning image 50 as illustrated in FIG. 3 into the virtual image 52 illustrated in FIG. The display of the image by the display 12 and the adjustment of the imaging position by the drive unit 16 are controlled so as to display. Hereinafter, the control flow in such a case will be described with reference to the flowchart shown in FIG. The control flow is programmed to start when the ignition switch of the vehicle is turned on and end when the switch is turned off. .

まず、制御フローのステップS100では、自車両の前進走行中に衝突対象6が情報処理回路342及び画像処理回路362の少なくとも一方により検出されることで、当該衝突対象6の存在位置、移動方向及び移動速度を含む衝突予測情報を取得したか否かを判定する。その結果、否定判定がなされている間は、ステップS100が繰り返し実行されるが、肯定判定がなされると、ステップS101へ移行する。   First, in step S100 of the control flow, when the collision target 6 is detected by at least one of the information processing circuit 342 and the image processing circuit 362 while the host vehicle is traveling forward, the position of the collision target 6, the moving direction, It is determined whether or not the collision prediction information including the moving speed has been acquired. As a result, while the negative determination is made, step S100 is repeatedly executed. When the positive determination is made, the process proceeds to step S101.

ステップS101では、自車両の運転席3上における乗員4の眼球状態を眼球センサ320により検出することで、当該眼球状態に関する眼球情報を解析処理回路322により取得する。このとき本実施形態では、上述したように眼球位置の平均位置及び視線方向の平均方向を含む眼球情報が、取得されることになる。   In step S <b> 101, the eyeball state of the occupant 4 on the driver's seat 3 of the host vehicle is detected by the eyeball sensor 320, and eyeball information related to the eyeball state is acquired by the analysis processing circuit 322. At this time, in this embodiment, as described above, eyeball information including the average position of the eyeball position and the average direction of the line-of-sight direction is acquired.

また続くステップS102では、ステップS101により取得された眼球情報のうち眼球位置の平均位置及び視線方向の平均方向に基づくことで、自車両の運転席3上における乗員4に関して、図2に示す中心視野60を推定する。ここで、中心視野60は例えば、眼球位置の平均位置から視線方向の平均方向に存在する視点中央600の周囲において、視線方向の平均方向に対して眼球位置の平均位置から所定角度(一般に約20度)をなす視野として、本実施形態では推定されるようになっている。   Further, in the subsequent step S102, the central visual field shown in FIG. 2 is shown for the occupant 4 on the driver's seat 3 of the host vehicle based on the average position of the eyeball position and the average direction of the line of sight among the eyeball information acquired in step S101. 60 is estimated. Here, the central visual field 60 is, for example, around a viewpoint center 600 that exists in the average direction of the line-of-sight direction from the average position of the eyeball position, with a predetermined angle (generally about 20 from the average position of the eyeball position with respect to the average direction of the line-of-sight direction. In this embodiment, the field of view is estimated.

さらに続くステップS103では、自車両の予定の進行方向に関する進行方向情報を情報処理回路342により取得する。そして、この後のステップS104では、ステップS103により取得された進行方向情報に加え、ステップS100により取得された衝突予測情報にも基づくことで、当該予測情報に対応する衝突対象6について自車両との衝突確率が設定確率以上になったか否かを判定する。ここで衝突確率は、進行方向情報が示す進行方向へ自車両が予定通り前進走行し続けて衝突対象6に接近した場合に、道路のカーブや死角等に起因して自車両が当該対象6と衝突する確率であって、例えば本実施形態では、制御プログラム上において実行されるシミュレータにより算出される。また、設定確率については、車両の安全確保上の注意喚起が必要な衝突確率のうち最も安全側の確率に設定されるが、例えば本実施形態では、30%程度に設定されることとなる。   In further subsequent step S103, the information processing circuit 342 acquires the traveling direction information related to the planned traveling direction of the host vehicle. Then, in subsequent step S104, based on the collision prediction information acquired in step S100 in addition to the traveling direction information acquired in step S103, the collision target 6 corresponding to the prediction information is compared with the own vehicle. It is determined whether or not the collision probability is equal to or higher than the set probability. Here, the collision probability indicates that when the host vehicle continues to travel forward in the traveling direction indicated by the traveling direction information and approaches the collision target 6, the host vehicle is separated from the target 6 due to a road curve or a blind spot. For example, in this embodiment, the probability of collision is calculated by a simulator executed on the control program. Further, the set probability is set to the most probable probability among the collision probabilities that require attention for ensuring the safety of the vehicle. For example, in this embodiment, the set probability is set to about 30%.

ステップS104において否定判定がなされている間は、ステップS100へと戻って当該S100及び後続ステップS101〜S104が繰り返し実行されるが、肯定判定がなされると、ステップS105へ移行する。このステップS105では、駆動部16のアクチュエータ162を制御することで、後続ステップS106により表示される警告画像50の虚像52が、ステップS102により推定された中心視野60に図2の如く重畳されるように、当該虚像52の結像位置を調整する。   While a negative determination is made in step S104, the process returns to step S100, and S100 and subsequent steps S101 to S104 are repeatedly executed. If an affirmative determination is made, the process proceeds to step S105. In step S105, the actuator 162 of the drive unit 16 is controlled so that the virtual image 52 of the warning image 50 displayed in the subsequent step S106 is superimposed on the central visual field 60 estimated in step S102 as shown in FIG. In addition, the imaging position of the virtual image 52 is adjusted.

具体的にステップS105では、ステップS100により取得された衝突予測情報のうち衝突対象6の存在位置と、ステップS101により取得された眼球情報のうち眼球位置の平均位置との間を結ぶ仮想線上に、虚像52の結像位置を調整する。このとき特に本実施形態では、図5に示すように、乗員4の眼球位置の平均位置Pから車両水平方向Hへ設定距離Dをもって離間し且つ当該平均位置Pに対して俯角が設定角度θとなる位置に、結像位置が調整されることになる。尚、車両水平方向Hとは、水平面上における自車両の当該水平面に沿った方向をいう。   Specifically, in step S105, on the virtual line connecting between the position of the collision target 6 in the collision prediction information acquired in step S100 and the average position of the eyeball position in the eyeball information acquired in step S101, The imaging position of the virtual image 52 is adjusted. At this time, particularly in the present embodiment, as shown in FIG. 5, the eyeball position is separated from the average position P of the occupant 4 in the vehicle horizontal direction H with a set distance D and the depression angle with respect to the average position P is the set angle θ. The imaging position is adjusted to the position. The vehicle horizontal direction H is a direction along the horizontal plane of the host vehicle on the horizontal plane.

ここで設定距離Dについては、自車両の運転席3上における乗員4の眼球の輻輳角φ(図6を参照)が図7(a)の如く実質的に0度となることで、当該眼球の焦点調節量が図7(b)の如く実質的に0となるように、8m以上の距離とされる。さらに、設定距離Dについて好ましくは、表示ユニット10の特に光学系14の体格を各種車両に搭載可能な程度に小さくしてHUD装置1の設置自由度を高めるように、15m以下の距離とされる。加えて、俯角の設定角度θについては、自車両の運転席3上の乗員4が中心視野60にて視認する前方実景への虚像52の影響を最低限に抑えつつ、虚像52を当該中心視野60に適正に重畳させるために、1度以上5度以下の範囲内、さらに好ましくは3度程度とされるのである。   Here, regarding the set distance D, the convergence angle φ (see FIG. 6) of the eyeball of the passenger 4 on the driver's seat 3 of the own vehicle is substantially 0 degrees as shown in FIG. The distance of 8 m or more is set so that the amount of focus adjustment is substantially 0 as shown in FIG. Furthermore, the set distance D is preferably set to a distance of 15 m or less so that the physique of the optical system 14 of the display unit 10 is made small enough to be mounted on various vehicles and the degree of freedom of installation of the HUD device 1 is increased. . In addition, with respect to the set angle θ of the depression angle, the virtual image 52 is displayed in the central visual field while minimizing the influence of the virtual image 52 on the front real scene viewed by the occupant 4 on the driver's seat 3 of the own vehicle in the central visual field 60. In order to properly superimpose on 60, it is set within the range of 1 degree to 5 degrees, more preferably about 3 degrees.

このように虚像52の結像位置が調整された後のステップS106では、表示器12を制御することで、ステップS103により算出された衝突確率に応じて形態が変化する警告画像50を、図3の如く当該表示器12の画面120に表示する。ここで警告画像50は、ステップS100により取得された衝突予測情報に対応する衝突対象6の存在を、自車両の運転席3上の乗員4に警告して注意喚起するための画像であって、変化形態に対応した複数の画像データとしてメモリ380に予め記憶されている。そして、特に本実施形態では、衝突確率が上昇するほど警告性を増す変化形態となるように、衝突確率に応じた警告画像50をメモリ380から読み出して表示するのである。   In step S106 after the imaging position of the virtual image 52 is adjusted in this way, the warning image 50 whose form changes according to the collision probability calculated in step S103 by controlling the display 12 is displayed in FIG. As shown on the screen 120 of the display 12. Here, the warning image 50 is an image for warning and alerting the occupant 4 on the driver's seat 3 of the own vehicle of the presence of the collision target 6 corresponding to the collision prediction information acquired in step S100. It is stored in advance in the memory 380 as a plurality of image data corresponding to the change form. In particular, in this embodiment, the warning image 50 corresponding to the collision probability is read from the memory 380 and displayed so as to change the warning property as the collision probability increases.

尚、警告性を増す変化形態とは例えば、信号機に準じて表示色を黄色から赤色へ変化させる形態や、表示を点滅させてその点滅速度を上昇変化させる形態等が採用される。また、ステップS106では、警告画像50の可変表示に連動して、車両に搭載された音声出力システム(図示しない)により、衝突対象6の存在を音声にて警告するようにしてもよい。   For example, a mode of changing the display color from yellow to red according to a traffic light or a mode of flashing the display to increase the flashing speed is adopted as the change mode that increases the warning performance. In step S106, in conjunction with the variable display of the warning image 50, the presence of the collision target 6 may be warned by voice by a voice output system (not shown) mounted on the vehicle.

こうして可変表示された警告画像50についての虚像52は、フロントウインドシールド2の前方のうち、乗員4の眼球位置の平均位置Pに対して設定距離Dをもって離間し且つ俯角が設定角度θとなる衝突対象6の近傍位置に結像されて、図2の如く当該乗員4の中心視野60に重畳されることになる。ここで特に本実施形態では、ステップS106の実行時点における乗員4の眼球状態、例えば自車両の進行方向に対する脇見状態等にも拘らず、先に推定された中心視野60に対して警告画像50の虚像52が重畳されるようになっている。   The virtual image 52 of the warning image 50 variably displayed in this way is a collision that is separated from the average position P of the eyeball position of the occupant 4 by a set distance D and the depression angle becomes the set angle θ in front of the front windshield 2. The image is formed in the vicinity of the object 6 and is superimposed on the central visual field 60 of the occupant 4 as shown in FIG. Here, in particular, in the present embodiment, the warning image 50 is displayed on the previously estimated central visual field 60 regardless of the eyeball state of the occupant 4 at the time of execution of step S106, for example, the looking aside in the traveling direction of the host vehicle. A virtual image 52 is superimposed.

そして、警告画像50の可変表示状態において移行するステップS107では、ステップS100,S103によりそれぞれ取得された衝突予測情報及び進行方向情報に基づき、当該衝突予測情報に対応する衝突対象6と自車両との衝突確率が設定確率未満になったか否かを判定する。ここで設定確率については、上記ステップS103での値と同一値である。   And in step S107 which transfers in the variable display state of the warning image 50, based on the collision prediction information and the traveling direction information acquired in steps S100 and S103, respectively, the collision target 6 corresponding to the collision prediction information and the own vehicle. It is determined whether or not the collision probability is less than the set probability. Here, the set probability is the same value as the value in step S103.

ステップS107において否定判定がなされている間は、ステップS105へと戻って当該S105及び後続ステップS106,S107が繰り返し実行されるが、肯定判定がなされると、ステップS108へ移行する。このステップS108では、表示器20の画面120における警告画像50の表示を停止して、フロントウインドシールド2の前方から当該画像50の虚像52を消去した後、ステップS100へ戻ることとなる。   While a negative determination is made in step S107, the process returns to step S105, and the S105 and subsequent steps S106 and S107 are repeatedly executed. If an affirmative determination is made, the process proceeds to step S108. In step S108, the display of the warning image 50 on the screen 120 of the display device 20 is stopped, the virtual image 52 of the image 50 is erased from the front of the front windshield 2, and then the process returns to step S100.

以上説明した第一実施形態によると、前進走行中の自車両との衝突が予測される衝突対象6が検出された場合に、警告画像50を表示器12からフロントウインドシールド2へ投射してなる虚像52は、自車両を運転中の乗員4の中心視野60に重畳されることになる。このとき虚像52の結像位置は、乗員4の眼球位置の平均位置Pに対して8m以上の設定距離Dをもって離間し且つ俯角が1度以上5度以下の設定角度θとなる衝突対象近傍位置に、調整される。これにより乗員4は、中心視野60にて近接する警告画像50の虚像52と前方実景中の衝突対象6とを、眼球の焦点調節なくそれぞれ確実に視認可能となるので、衝突対象6の存在と位置とを瞬時に把握して車両安全を確保することができるのである。   According to the first embodiment described above, the warning image 50 is projected from the display unit 12 to the front windshield 2 when the collision target 6 that is predicted to collide with the host vehicle traveling forward is detected. The virtual image 52 is superimposed on the central visual field 60 of the occupant 4 driving the host vehicle. At this time, the imaging position of the virtual image 52 is separated from the average position P of the eyeball position of the occupant 4 with a set distance D of 8 m or more, and the collision target vicinity position having a depression angle of 1 to 5 degrees. Adjusted. As a result, the occupant 4 can reliably view the virtual image 52 of the warning image 50 and the collision target 6 in the front real scene that are close to each other in the central visual field 60 without adjusting the focus of the eyeball. Vehicle safety can be ensured by instantly grasping the position.

ここで特に、中心視野60については、眼球センサ320の検出結果から取得された乗員4の眼球情報に基づき正確に推定されると共に、虚像52の結像位置については、その推定した中心視野60と当該眼球情報のうちの眼球位置の平均位置とに基づき正確に調整される。これによれば、実際の乗員4の眼球状態を反映した中心視野60に虚像52を適正に重畳させて、乗員4に対する衝突対象6の存在及び位置の伝達性を高めることができるので、車両安全の確保効果が高められ得る。また、虚像52となる警告画像50の表示器12での表示形態が自車両と衝突対象6との衝突確率に応じて変化することで、当該衝突確率の上昇を乗員4に視覚的に訴えることができるので、それによっても車両安全の確保効果が高められ得るのである。   In particular, the central visual field 60 is accurately estimated based on the eyeball information of the occupant 4 acquired from the detection result of the eyeball sensor 320, and the imaging position of the virtual image 52 is the estimated central visual field 60 and It is accurately adjusted based on the average position of the eyeball position in the eyeball information. According to this, it is possible to appropriately superimpose the virtual image 52 on the central visual field 60 reflecting the eyeball state of the actual occupant 4 and improve the transmission of the presence and position of the collision target 6 with respect to the occupant 4. The securing effect can be enhanced. Further, the display form of the warning image 50 that becomes the virtual image 52 on the display 12 is changed according to the collision probability between the host vehicle and the collision target 6, so that the passenger 4 is visually informed of the increase in the collision probability. Therefore, the effect of ensuring vehicle safety can also be enhanced.

尚、ここまでの第一実施形態では、通信部34及び撮像部36が特許請求の範囲に記載の「衝突対象検出手段」に相当し、制御フローのステップS106を実行する制御回路38が特許請求の範囲に記載の「警告表示制御手段」に相当し、制御フローのステップS105,S106を実行する制御回路38と表示ユニット10とが共同して特許請求の範囲に記載の「結像位置調整手段」を構成している。また、眼球情報取得部32が特許請求の範囲に記載の「眼球情報取得手段」に相当し、制御フローのステップS102を実行する制御回路38が特許請求の範囲に記載の「視野推定手段」に相当しているのである。   In the first embodiment so far, the communication unit 34 and the imaging unit 36 correspond to the “collision target detection unit” recited in the claims, and the control circuit 38 that executes step S106 of the control flow is claimed. The control circuit 38 that executes steps S105 and S106 of the control flow and the display unit 10 jointly correspond to the “imaging position adjusting unit” described in the claims. Is comprised. The eyeball information acquisition unit 32 corresponds to the “eyeball information acquisition unit” described in the claims, and the control circuit 38 that executes step S102 of the control flow includes the “field-of-view estimation unit” described in the claims. It is equivalent.

(第二実施形態)
図8に示す本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態では、第一実施形態の眼球情報取得部32に代えて、入力機1032が設けられている。
(Second embodiment)
The second embodiment of the present invention shown in FIG. 8 is a modification of the first embodiment. In 2nd embodiment, it replaces with the eyeball information acquisition part 32 of 1st embodiment, and the input device 1032 is provided.

入力機1032は、例えば入力スイッチ、タッチパネル等からなり、運転席3の周囲に設置されている。入力機1032は、運転席3上の乗員4により操作されて例えば身長、座高等といった乗員4自身の身体情報が入力されることで、当該身体情報を表す入力信号を生成する。   The input machine 1032 includes, for example, an input switch and a touch panel, and is installed around the driver's seat 3. The input device 1032 is operated by the occupant 4 on the driver's seat 3 and inputs physical information of the occupant 4 such as height, sitting height, etc., and generates an input signal representing the physical information.

入力機1032に電気接続される第二実施形態の制御回路1038は、第一実施形態の制御回路38と実質的に同一の構成及び機能に加えて、運転席3上の乗員4の眼球状態に関する眼球情報について推定及び記憶する機能を有している。具体的に制御回路1038は、身体情報の入力時に入力機1032から出力される入力信号を人間工学的に処理して乗員4の眼球位置を運転席3の幅方向の中心線上に推定し、その推定した眼球位置を眼球情報としてメモリ1380に記憶する。それと共に制御回路1038は、推定した眼球位置を起点とする車両水平方向のうち真前方向を乗員4の視線方向に推定し、その推定した視線方向を眼球情報としてメモリ1380に記憶する。   The control circuit 1038 of the second embodiment electrically connected to the input machine 1032 relates to the eyeball state of the occupant 4 on the driver's seat 3 in addition to substantially the same configuration and function as the control circuit 38 of the first embodiment. It has a function of estimating and storing eyeball information. Specifically, the control circuit 1038 ergonomically processes the input signal output from the input device 1032 when inputting physical information to estimate the position of the eyeball of the occupant 4 on the center line in the width direction of the driver's seat 3, The estimated eyeball position is stored in the memory 1380 as eyeball information. At the same time, the control circuit 1038 estimates the front direction of the vehicle horizontal direction starting from the estimated eyeball position as the sightline direction of the occupant 4 and stores the estimated sightline direction in the memory 1380 as eyeball information.

以上より第二実施形態では、入力機1032への身体情報の入力が行われて、制御回路1038により推定された眼球位置及び視線方向が眼球情報として一旦メモリ1380に記憶されると、次の入力が行われるまでの間、当該眼球情報が保持されるようになっている。したがって、第二実施形態の制御回路1038が実施する制御フローでは、図9に示すように、第一実施形態のステップS101に代わるステップS1101において、眼球情報としての眼球位置及び視線方向がメモリ1380から取得されることになる。尚、ステップS1101にて取得された眼球位置及び視線方向は、後続ステップS102,S105において、第一実施形態で説明した眼球位置の平均位置及び視線方向の平均位置の代わりとして利用される。   As described above, in the second embodiment, body information is input to the input device 1032, and once the eyeball position and line-of-sight direction estimated by the control circuit 1038 are stored in the memory 1380 as eyeball information, the next input is performed. The eyeball information is held until this is performed. Therefore, in the control flow executed by the control circuit 1038 of the second embodiment, as shown in FIG. 9, in step S1101 instead of step S101 of the first embodiment, the eyeball position and line-of-sight direction as eyeball information are stored from the memory 1380. Will be acquired. Note that the eyeball position and the line-of-sight direction acquired in step S1101 are used in subsequent steps S102 and S105 as a substitute for the average position of the eyeball position and the average position of the line-of-sight described in the first embodiment.

このような第二実施形態によると、入力機1032への入力に応じて事前に記憶された眼球情報がメモリ1380から取得されて、ステップS102での中心視野60の推定、並びにステップS105での虚像52の結像位置の調整に利用されることとなる。これによれば、中心視野60の推定及び虚像52の結像位置調整に必要な処理が全体として少なくなるので、ステップS100による衝突対象6の検出から、ステップS106による虚像52の表示までの処理時間を短縮して、車両安全の確保効果を高めることができる。   According to such a second embodiment, the eyeball information stored in advance according to the input to the input device 1032 is acquired from the memory 1380, the central visual field 60 is estimated in step S102, and the virtual image in step S105 is acquired. This is used for adjusting the image forming position 52. According to this, since the processing necessary for estimating the central visual field 60 and adjusting the imaging position of the virtual image 52 is reduced as a whole, the processing time from the detection of the collision target 6 in step S100 to the display of the virtual image 52 in step S106. And the effect of ensuring vehicle safety can be enhanced.

尚、ここまでの第二実施形態では、メモリ1380が特許請求の範囲に記載の「眼球情報メモリ」に相当し、制御フローのS1101を実行する制御回路1038が特許請求の範囲に記載の「眼球情報取得手段」に相当している。また、制御フローのステップS102を実行する制御回路1038が特許請求の範囲に記載の「視野推定手段」に相当し、制御フローのステップS106を実行する制御回路1038が特許請求の範囲に記載の「警告表示制御手段」に相当し、制御フローのステップS105,S106を実行する制御回路1038と表示ユニット10とが共同して特許請求の範囲に記載の「結像位置調整手段」を構成することになる。   In the second embodiment so far, the memory 1380 corresponds to the “eyeball information memory” described in the claims, and the control circuit 1038 that executes S1101 of the control flow includes the “eyeball” described in the claims. It corresponds to “information acquisition means”. Further, the control circuit 1038 that executes step S102 of the control flow corresponds to the “field-of-view estimation means” described in the claims, and the control circuit 1038 that executes step S106 of the control flow is described in “ Corresponding to “warning display control means”, the control circuit 1038 for executing steps S105 and S106 of the control flow and the display unit 10 together constitute the “imaging position adjusting means” described in the claims. Become.

(他の実施形態)
以上、本発明の複数の実施形態について説明してきたが、本発明はそれらの実施形態に限定して解釈されるものではなく、その要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
(Other embodiments)
Although a plurality of embodiments of the present invention have been described above, the present invention is not construed as being limited to these embodiments, and can be applied to various embodiments without departing from the scope of the present invention. it can.

例えば、第一及び第二実施形態の制御フローにおいて、衝突対象6の存在位置に拘らず、ステップS102により推定された中心視野60の例えば視点中央600等の固定位置に虚像52の結像位置を調整するように、ステップS105を実行してもよい。   For example, in the control flow of the first and second embodiments, the imaging position of the virtual image 52 is set at a fixed position such as the viewpoint center 600 of the central visual field 60 estimated in step S102 regardless of the position where the collision target 6 exists. Step S105 may be executed to adjust.

また、第二実施形態において入力機1032を設けずに、眼球情報としての視線方向又は中心視野60の情報と、眼球情報としての眼球位置とをHUD装置1の工場出荷前等に予め設定しておき、メモリ1380に記憶させるようにしてもよい。尚、視線方向及び中心視野60の情報のうち前者を眼球位置と共にメモリ1380に記憶させておく場合には、制御フローにおいて、ステップS1101を第二実施形態と同様に実行することになる。また一方、視線方向及び中心視野60の情報のうち後者を眼球位置と共にメモリ1380に記憶させておく場合には、制御フローにおいて、ステップS1101での視線方向の取得並びにステップS102での中心視野60の推定が不要になる。   Further, in the second embodiment, without providing the input device 1032, the information on the line-of-sight direction or the central visual field 60 as the eyeball information and the eyeball position as the eyeball information are set in advance before the factory shipment of the HUD device 1. Alternatively, it may be stored in the memory 1380. In the case where the former is stored in the memory 1380 together with the eyeball position among the information on the line-of-sight direction and the central visual field 60, step S1101 is executed in the control flow similarly to the second embodiment. On the other hand, in the case where the latter is stored in the memory 1380 together with the eyeball position in the information on the line-of-sight direction and the central visual field 60, the acquisition of the visual line direction in step S1101 and the central visual field 60 in step S102 in the control flow. Estimation is not necessary.

本発明の第一実施形態によるHUD装置の概略的構成を示す模式図である。It is a mimetic diagram showing a schematic structure of a HUD device by a first embodiment of the present invention. 本発明の第一実施形態によるHUD装置が警告画像の虚像を前方に表示した状態のフロントウインドシールドを示す模式図である。It is a mimetic diagram showing the front windshield in the state where the HUD device by a first embodiment of the present invention displayed the virtual image of the warning image ahead. 本発明の第一実施形態によるHUD装置の表示器に表示される警告画像を示す模式図である。It is a schematic diagram which shows the warning image displayed on the indicator of the HUD apparatus by 1st embodiment of this invention. 本発明の第一実施形態によるHUD装置において制御回路が実施する制御フローを示すフローチャートである。It is a flowchart which shows the control flow which a control circuit implements in the HUD apparatus by 1st embodiment of this invention. 図4に示す制御フローについて説明するための模式図である。It is a schematic diagram for demonstrating the control flow shown in FIG. 図4に示す制御フローについて説明するための模式図である。It is a schematic diagram for demonstrating the control flow shown in FIG. 図4に示す制御フローについて説明するための特性図である。It is a characteristic view for demonstrating the control flow shown in FIG. 本発明の第二実施形態によるHUD装置の概略的構成を示す模式図である。It is a schematic diagram which shows schematic structure of the HUD apparatus by 2nd embodiment of this invention. 本発明の第二実施形態によるHUD装置において制御回路が実施する制御フローを示すフローチャートである。It is a flowchart which shows the control flow which a control circuit implements in the HUD apparatus by 2nd embodiment of this invention.

符号の説明Explanation of symbols

1 HUD装置、2 フロントウインドシールド、3 運転席、4 乗員、6 衝突対象、10 表示ユニット(結像位置調整手段)、12 表示器、120 画面、14 光学系、16 駆動部、160 ハウジング、162 アクチュエータ、20 表示器、30 制御ユニット、32 眼球情報取得部(眼球情報取得手段)、320 眼球センサ、322 解析処理回路、34 通信部(衝突対象検出手段)、340 車載通信機、342 情報処理回路、36 撮像部(衝突対象検出手段)、360 外界カメラ、362 画像処理回路、38 制御回路(警告表示制御手段・結像位置調整手段・視野推定手段)、380 メモリ、50 警告画像、52 虚像、60 中心視野、600 視点中央、1032 入力機、1038 制御回路(眼球情報取得手段・視野推定手段・警告表示制御手段・結像位置調整手段)、1380 メモリ(眼球情報メモリ)、D 設定距離、H 車両水平方向、θ 設定角度、φ 輻輳角 1 HUD device, 2 front windshield, 3 driver's seat, 4 passengers, 6 collision target, 10 display unit (imaging position adjusting means), 12 display, 120 screen, 14 optical system, 16 drive unit, 160 housing, 162 Actuator, 20 Display, 30 Control unit, 32 Eyeball information acquisition unit (eyeball information acquisition unit), 320 Eye sensor, 322 Analysis processing circuit, 34 Communication unit (collision target detection unit), 340 In-vehicle communication device, 342 Information processing circuit 36, imaging unit (collision target detection means), 360 external camera, 362 image processing circuit, 38 control circuit (warning display control means / imaging position adjustment means / field of view estimation means), 380 memory, 50 warning image, 52 virtual image, 60 central field of view, 600 center of viewpoint, 1032 input device, 1038 control circuit Means - field estimating means, warning display control means, the image forming position adjusting means), 1380 memory (ocular information memory), D preset distance, H vehicle horizontal direction, theta set angle, phi angle of convergence

Claims (8)

車両において表示器に表示した画像を前記車両のフロントウインドシールドへ投射することにより、当該画像の虚像を前記車両内の運転席側へ表示するヘッドアップディスプレイ装置であって、
前記車両との衝突が予測される衝突対象を検出する衝突対象検出手段と、
前記衝突対象検出手段により前記衝突対象が検出された場合に、当該衝突対象の存在を警告する前記画像を警告画像として表示するように前記表示器を制御する警告表示制御手段と、
前記警告画像を前記フロントウインドシールドへ投射してなる前記虚像の結像位置を、前記運転席上における乗員の眼球位置から8m以上の設定距離をもって離間した位置に調整して、当該虚像を前記乗員の中心視野に重畳させる結像位置調整手段と、
を備えることを特徴とするヘッドアップディスプレイ装置。
A head-up display device that displays a virtual image of the image on the driver's seat side in the vehicle by projecting an image displayed on a display in the vehicle onto a front windshield of the vehicle,
A collision target detecting means for detecting a collision target predicted to collide with the vehicle;
Warning display control means for controlling the display so as to display the image that warns the existence of the collision target as a warning image when the collision target is detected by the collision target detection means;
The imaging position of the virtual image formed by projecting the warning image onto the front windshield is adjusted to a position on the driver's seat that is separated from the occupant's eyeball position by a set distance of 8 m or more, and the virtual image is adjusted to the occupant. An imaging position adjusting means for superimposing on the central field of view,
A head-up display device comprising:
前記設定距離は、8m以上15m以下であることを特徴とする請求項1に記載のヘッドアップディスプレイ装置。   The head-up display device according to claim 1, wherein the set distance is 8 m or more and 15 m or less. 前記結像位置調整手段は、前記眼球位置に対して俯角が1度以上5度以下の設定角度となる位置に、前記結像位置を調整することを特徴とする請求項1又は2に記載のヘッドアップディスプレイ装置。   3. The image formation position adjustment unit according to claim 1, wherein the image formation position adjustment unit adjusts the image formation position to a position where a depression angle with respect to the eyeball position is a set angle of 1 to 5 degrees. Head-up display device. 前記結像位置調整手段は、前記衝突対象検出手段により検出された前記衝突対象の位置と前記眼球位置との間に、前記結像位置を調整することを特徴とする請求項1〜3のいずれか一項に記載のヘッドアップディスプレイ装置。   The imaging position adjusting means adjusts the imaging position between the position of the collision target detected by the collision target detection means and the eyeball position. A head-up display device according to claim 1. 前記運転席上における乗員の眼球状態に関する眼球情報として眼球位置を含む情報を取得する眼球情報取得手段と、
前記眼球情報取得手段により取得された前記眼球情報に基づき前記中心視野を推定する視野推定手段と、
を備え、
前記結像位置調整手段は、前記眼球情報取得手段により取得された前記眼球情報のうちの前記眼球位置から前記設定距離をもって離間した位置に前記結像位置を調整して、前記視野推定手段により推定された前記中心視野に重畳させることを特徴とする請求項1〜4のいずれか一項に記載のヘッドアップディスプレイ装置。
Eyeball information acquisition means for acquiring information including an eyeball position as eyeball information relating to the eyeball state of the occupant on the driver seat;
Visual field estimation means for estimating the central visual field based on the eyeball information acquired by the eyeball information acquisition means;
With
The imaging position adjusting means adjusts the imaging position to a position separated from the eyeball position by the set distance in the eyeball information acquired by the eyeball information acquiring means, and is estimated by the visual field estimating means. The head-up display device according to claim 1, wherein the head-up display device is superimposed on the central visual field.
前記眼球情報取得手段は、前記運転席上における乗員の眼球状態を検出する眼球センサを有し、当該眼球センサによる検出結果から前記眼球情報を取得することを特徴とする請求項5に記載のヘッドアップディスプレイ装置。   The head according to claim 5, wherein the eyeball information acquisition unit includes an eyeball sensor that detects an eyeball state of an occupant on the driver seat, and acquires the eyeball information from a detection result of the eyeball sensor. Up display device. 前記眼球情報取得手段は、前記眼球情報を記憶する眼球情報メモリを有し、当該眼球情報メモリから前記眼球情報を取得することを特徴とする請求項5に記載のヘッドアップディスプレイ装置。   The head-up display device according to claim 5, wherein the eyeball information acquisition unit includes an eyeball information memory that stores the eyeball information, and acquires the eyeball information from the eyeball information memory. 前記警告表示制御手段は、前記衝突対象検出手段により検出された前記衝突対象との衝突確率に応じて前記警告画像の表示形態を変化させることを特徴とする請求項1〜7のいずれか一項に記載のヘッドアップディスプレイ装置。   The said warning display control means changes the display form of the said warning image according to the collision probability with the said collision object detected by the said collision object detection means. The head-up display device described in 1.
JP2008322917A 2008-12-18 2008-12-18 Head-up display device Pending JP2010143411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008322917A JP2010143411A (en) 2008-12-18 2008-12-18 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008322917A JP2010143411A (en) 2008-12-18 2008-12-18 Head-up display device

Publications (1)

Publication Number Publication Date
JP2010143411A true JP2010143411A (en) 2010-07-01

Family

ID=42564287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008322917A Pending JP2010143411A (en) 2008-12-18 2008-12-18 Head-up display device

Country Status (1)

Country Link
JP (1) JP2010143411A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015048007A (en) * 2013-09-03 2015-03-16 株式会社デンソー Information display device
JP2015087684A (en) * 2013-11-01 2015-05-07 矢崎総業株式会社 In-vehicle display device
JP2015128956A (en) * 2014-01-08 2015-07-16 パイオニア株式会社 Head-up display, control method, program and storage medium
JP2016215770A (en) * 2015-05-19 2016-12-22 トヨタ自動車株式会社 Image display apparatus for vehicle driver
JPWO2015037117A1 (en) * 2013-09-13 2017-03-02 日立マクセル株式会社 Information display system and information display device
CN108202600A (en) * 2016-12-19 2018-06-26 丰田自动车株式会社 For the drive assistance device of vehicle
US10065559B2 (en) 2012-03-08 2018-09-04 Ts Tech Co., Ltd. Attachment structure of lighting device
JP2019159917A (en) * 2018-03-14 2019-09-19 株式会社リコー Driving support device, vehicle, system and method
CN110316085A (en) * 2018-03-30 2019-10-11 比亚迪股份有限公司 The method and apparatus of vehicle, anti-inverted image based on vehicle-mounted display terminal
WO2020194699A1 (en) * 2019-03-28 2020-10-01 三菱電機株式会社 Aerial video display device
WO2023189084A1 (en) * 2022-03-30 2023-10-05 パナソニックIpマネジメント株式会社 Information presenting method, information presenting device, vehicle control method, and vehicle control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002052953A (en) * 2000-08-10 2002-02-19 Yazaki Corp Display device for vehicle and display position adjustment method therefor
JP2003291688A (en) * 2002-04-03 2003-10-15 Denso Corp Display method, driving support device and program
JP2006224700A (en) * 2005-02-15 2006-08-31 Denso Corp Dead angle monitoring device for vehicle, and operation assisting system for vehicle
JP2008030729A (en) * 2006-07-05 2008-02-14 Nissan Motor Co Ltd Vehicular display device
JP2008062762A (en) * 2006-09-06 2008-03-21 Fujitsu Ten Ltd Drive assist device and drive assist method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002052953A (en) * 2000-08-10 2002-02-19 Yazaki Corp Display device for vehicle and display position adjustment method therefor
JP2003291688A (en) * 2002-04-03 2003-10-15 Denso Corp Display method, driving support device and program
JP2006224700A (en) * 2005-02-15 2006-08-31 Denso Corp Dead angle monitoring device for vehicle, and operation assisting system for vehicle
JP2008030729A (en) * 2006-07-05 2008-02-14 Nissan Motor Co Ltd Vehicular display device
JP2008062762A (en) * 2006-09-06 2008-03-21 Fujitsu Ten Ltd Drive assist device and drive assist method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10065559B2 (en) 2012-03-08 2018-09-04 Ts Tech Co., Ltd. Attachment structure of lighting device
JP2015048007A (en) * 2013-09-03 2015-03-16 株式会社デンソー Information display device
JPWO2015037117A1 (en) * 2013-09-13 2017-03-02 日立マクセル株式会社 Information display system and information display device
US10272780B2 (en) 2013-09-13 2019-04-30 Maxell, Ltd. Information display system and information display device
JP2015087684A (en) * 2013-11-01 2015-05-07 矢崎総業株式会社 In-vehicle display device
WO2015064220A1 (en) * 2013-11-01 2015-05-07 矢崎総業株式会社 Display apparatus for vehicle
US10017110B2 (en) 2013-11-01 2018-07-10 Yazaki Corporation Vehicle-mounted display device
JP2015128956A (en) * 2014-01-08 2015-07-16 パイオニア株式会社 Head-up display, control method, program and storage medium
JP2016215770A (en) * 2015-05-19 2016-12-22 トヨタ自動車株式会社 Image display apparatus for vehicle driver
CN108202600A (en) * 2016-12-19 2018-06-26 丰田自动车株式会社 For the drive assistance device of vehicle
CN108202600B (en) * 2016-12-19 2020-07-28 丰田自动车株式会社 Driving assistance device for vehicle
JP2019159917A (en) * 2018-03-14 2019-09-19 株式会社リコー Driving support device, vehicle, system and method
JP7183549B2 (en) 2018-03-14 2022-12-06 株式会社リコー DRIVING ASSIST DEVICE, VEHICLE, SYSTEM AND METHOD
CN110316085A (en) * 2018-03-30 2019-10-11 比亚迪股份有限公司 The method and apparatus of vehicle, anti-inverted image based on vehicle-mounted display terminal
CN110316085B (en) * 2018-03-30 2021-02-23 比亚迪股份有限公司 Vehicle, and method and device for preventing reverse reflection based on vehicle-mounted display terminal
WO2020194699A1 (en) * 2019-03-28 2020-10-01 三菱電機株式会社 Aerial video display device
JPWO2020194699A1 (en) * 2019-03-28 2021-10-14 三菱電機株式会社 Aerial video display device
JP7086273B2 (en) 2019-03-28 2022-06-17 三菱電機株式会社 Aerial video display device
WO2023189084A1 (en) * 2022-03-30 2023-10-05 パナソニックIpマネジメント株式会社 Information presenting method, information presenting device, vehicle control method, and vehicle control device

Similar Documents

Publication Publication Date Title
JP2010143411A (en) Head-up display device
JP5169884B2 (en) Head-up display device
CN107444263B (en) Display device for vehicle
JP6346614B2 (en) Information display system
EP3127771B1 (en) Driver assistance apparatus and vehicle including the same
JP4935571B2 (en) Driving assistance device
KR102206272B1 (en) Parking assistance method and parking assistance device
JP6252365B2 (en) Safety confirmation support system, safety confirmation support method
EP3100913A2 (en) Vehicle display apparatus and vehicle including the same
CN111433067A (en) Head-up display device and display control method thereof
WO2015097958A1 (en) Drive assist device
WO2014208164A1 (en) Head-up display device
JP2010130646A (en) Vehicle periphery checking system
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
JP2007299048A (en) Driving support device for vehicle and inattentive driving state detector
JP2009269551A (en) Display for vehicle
JP2018127099A (en) Display control unit for vehicle
JP2009020570A (en) Vehicle traveling support apparatus
JP2004322680A (en) Head-up display device
JP6448714B2 (en) Information display system
CN111587572A (en) Image processing apparatus, image processing method, and program
KR101714876B1 (en) Driver Assistance Apparatus and Vehicle
CN110462699B (en) Display control device for vehicle and display unit for vehicle
JP6873350B2 (en) Display control device and display control method
JP6485310B2 (en) Information providing system, information providing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130514