JP2015101189A - Onboard display device, head up display, control method, program, and memory medium - Google Patents

Onboard display device, head up display, control method, program, and memory medium Download PDF

Info

Publication number
JP2015101189A
JP2015101189A JP2013242728A JP2013242728A JP2015101189A JP 2015101189 A JP2015101189 A JP 2015101189A JP 2013242728 A JP2013242728 A JP 2013242728A JP 2013242728 A JP2013242728 A JP 2013242728A JP 2015101189 A JP2015101189 A JP 2015101189A
Authority
JP
Japan
Prior art keywords
driver
display
image
sight
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013242728A
Other languages
Japanese (ja)
Inventor
義弘 橋塚
Yoshihiro Hashizuka
義弘 橋塚
康孝 鈴木
Yasutaka Suzuki
康孝 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2013242728A priority Critical patent/JP2015101189A/en
Publication of JP2015101189A publication Critical patent/JP2015101189A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an onboard display device which enables reduction of flickering in display which a user senses in a suitable manner.SOLUTION: MCU66 of a head up display 2 detects, on the basis of a line of sight information Ie, that a driver is not directing its line of sight to a combiner 9 that reflects the light constituting an image toward the driver of a vehicle Ve. The MCU66, when detecting that the driver is not directing its line of sight to the combiner 9, sets an image brightness Db independent of brightness of external light, so that flickering component of light is reduced than when the above stated state is not detected.

Description

本発明は、表示のちらつきを低減する技術に関する。   The present invention relates to a technique for reducing display flicker.

従来から、車載用の表示装置において、外光の影響による視認性の低下を補うため、外光に応じて、表示画面の輝度を変化させる技術が存在する。例えば、特許文献1には、明るさを検知するためのセンサを設けることなく、使用時刻や走行場所に応じて表示装置の明るさを自動調整する車載用表示装置が開示されている。また、特許文献2には、光センサにより検出された外光の明るさと、表示部の表示特性を設定するために入力された入力値とに基づいて、表示部を制御することが可能な情報表示装置が開示されている。   2. Description of the Related Art Conventionally, in an in-vehicle display device, there is a technique for changing the luminance of a display screen in accordance with external light in order to compensate for a decrease in visibility due to the influence of external light. For example, Patent Document 1 discloses an in-vehicle display device that automatically adjusts the brightness of a display device according to a use time or a travel location without providing a sensor for detecting the brightness. Patent Document 2 discloses information that can control the display unit based on the brightness of external light detected by the optical sensor and an input value that is input to set display characteristics of the display unit. A display device is disclosed.

特開平11−184446号公報Japanese Patent Laid-Open No. 11-184446 特開平11−316566号公報JP-A-11-316566

特許文献1及び特許文献2に記載の表示装置では、ユーザの視線の向きによらずに、画面の明るさが制御される。しかしながら、一般に、直視していない状態で表示装置が視界に入る場合には、表示装置を直視している場合と比較して、ユーザは、表示装置によるちらつきを敏感に感じやすくなる傾向がある。特許文献1及び特許文献2には、上記の問題点については、何ら検討されていない。   In the display devices described in Patent Literature 1 and Patent Literature 2, the brightness of the screen is controlled regardless of the direction of the user's line of sight. However, in general, when the display device enters the field of view without being directly looking, the user tends to feel flickering by the display device more sensitively than when the display device is directly looking. Patent Document 1 and Patent Document 2 do not discuss any of the above problems.

本発明は、上記のような課題を解決するためになされたものであり、ユーザが感じる表示のちらつきを好適に低減させることが可能な車載表示装置及びヘッドアップディスプレイを提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and a main object of the present invention is to provide an in-vehicle display device and a head-up display capable of suitably reducing display flickering felt by a user. And

請求項に記載の発明は、車載表示装置であって、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、前記表示面により射出または反射される光の状態を制御する制御手段と、を備え、前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とする。   The invention described in the claims is an in-vehicle display device, and the driver does not direct or hardly direct the line of sight to a display surface that emits or reflects light constituting an image toward the driver of the vehicle. Detection means for detecting that the state is present, and control means for controlling the state of light emitted or reflected by the display surface, wherein the control means causes the driver to move the display surface to the display surface. When it is detected that the line of sight is not directed or is difficult to direct, the flicker component of the light is reduced as compared to when the state is not detected.

また、請求項に記載の発明は、車両表示装置が実行する制御方法であって、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出工程と、前記表示面により射出または反射される光の状態を制御する制御工程と、を有し、前記制御工程は、前記検出工程により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とする。   The invention described in the claims is a control method executed by the vehicle display device, wherein the driver looks at the display surface that emits or reflects light constituting the image toward the driver of the vehicle. A detection step for detecting that the light is not directed or difficult to direct, and a control step for controlling the state of light emitted or reflected by the display surface, wherein the control step is performed by the detection step. The flicker component of the light is reduced compared to when the state is not detected when the driver detects that the line of sight is not directed to the display surface or is in a difficult state.

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、前記表示面により射出または反射される光の状態を制御する制御手段として前記コンピュータを機能させ、前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とする。   The invention described in the claims is a program executed by a computer, and the driver does not point his / her line of sight toward a display surface that emits or reflects light constituting an image toward the driver of the vehicle. Or the detection means for detecting that the state is difficult to direct, and the control means for controlling the state of light emitted or reflected by the display surface, wherein the control means is configured to operate the operation by the detection means. The flicker component of the light is reduced when the person detects that the person is not turning his / her line of sight toward the display surface or is in a state where it is difficult to turn his eyes.

第1実施例に係る表示システムの概略構成を示す。1 shows a schematic configuration of a display system according to a first embodiment. ナビゲーション装置の概略構成を示す。1 shows a schematic configuration of a navigation device. ヘッドアップディスプレイの概略構成を示す。1 shows a schematic configuration of a head-up display. 光源ユニットの概略構成を示す。The schematic structure of a light source unit is shown. 第1実施例で実行する処理を示すフローチャートを示す。The flowchart which shows the process performed in 1st Example is shown. 第2実施例で実行する処理を示すフローチャートを示す。The flowchart which shows the process performed in 2nd Example is shown.

本発明の1つの好適な実施形態では、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、前記表示面により射出または反射される光の状態を制御する制御手段と、を備え、前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせる。   In one preferred embodiment of the present invention, the driver does not turn his / her line of sight to the display surface that emits or reflects the light constituting the image toward the driver of the vehicle, or is in a state where it is difficult to direct. And a control means for controlling the state of light emitted or reflected by the display surface. The control means causes the driver to point the line of sight toward the display surface by the detection means. When it is detected that the state is not present or difficult to direct, the flicker component of the light is reduced as compared to when the state is not detected.

上記車載表示装置は、検出手段と、制御手段とを備える。検出手段は、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、運転者が視線を向けていない、または向けにくい状態であることを検出する。制御手段は、表示面により射出または反射される光の状態を制御する。さらに、制御手段は、検出手段により運転者が表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、その状態の非検出時よりも光のちらつき成分を減じさせる。これにより、車載表示装置は、視線方向以外の視覚である周辺視で表示面をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。   The on-vehicle display device includes a detection unit and a control unit. The detection means detects that the driver does not direct his / her line of sight to the display surface that emits or reflects light constituting the image toward the driver of the vehicle. The control means controls the state of light emitted or reflected by the display surface. Further, when the detecting means detects that the driver is not turning his / her line of sight to the display surface or is in a difficult state, the control means reduces the light flicker component compared to when the state is not detected. Thereby, the vehicle-mounted display apparatus can suppress suitably the flicker which a user feels when a user visually recognizes a display surface by peripheral vision which is visions other than a gaze direction.

上記車載表示装置の一態様では、外光の明るさを検出する外光検出手段をさらに備え、前記制御手段は、前記状態の非検出時には、前記外光の明るさに応じて、前記表示面により表示される輝度を変化させ、前記状態の検出時には、前記輝度を前記外光の明るさに応じて変化させない。一般に、ユーザが視線方向で捉えていない表示の明るさが変化した場合には、ユーザはちらつきを感じやすい。従って、この態様により、車載表示装置は、周辺視で表示面をユーザが視認する場合に、表示面により表示される画像の輝度の変化を抑制することで、ユーザが感じるちらつきを好適に抑制することができる。また、車載表示装置は、ユーザが表示面を直視している場合には、外光の明るさに応じて表示面により表示される画像の輝度を変化させることで、視認性を向上させることができる。   In one aspect of the in-vehicle display device, the display device further includes an external light detection unit that detects the brightness of external light, and the control unit is configured to display the display surface according to the brightness of the external light when the state is not detected. The luminance displayed is changed, and when the state is detected, the luminance is not changed according to the brightness of the external light. Generally, when the brightness of a display that the user does not capture in the line-of-sight direction changes, the user tends to feel flicker. Therefore, according to this aspect, when the user visually recognizes the display surface in peripheral vision, the in-vehicle display device suitably suppresses the flicker felt by the user by suppressing a change in luminance of the image displayed on the display surface. be able to. In addition, when the user is looking directly at the display surface, the in-vehicle display device can improve the visibility by changing the luminance of the image displayed on the display surface according to the brightness of external light. it can.

上記車載表示装置の他の一態様では、前記制御手段は、前記表示面に対し、前記光を走査する場合に、前記状態の検出時には、前記状態の非検出時よりも、リフレッシュレートを高くする。この態様により、車載表示装置は、周辺視で表示面をユーザが視認する場合に、リフレッシュレートを高くし、ユーザが感じるちらつきを好適に抑制することができる。   In another aspect of the in-vehicle display device, the control unit, when scanning the light with respect to the display surface, increases the refresh rate when detecting the state than when not detecting the state. . According to this aspect, when the user visually recognizes the display surface in peripheral vision, the in-vehicle display device can increase the refresh rate and suitably suppress flickering felt by the user.

上記車載表示装置の他の一態様では、前記検出手段は、前記運転者を撮影した画像に基づき、前記運転者が視線を前記表示面に視線を向けていない状態であることを検出する。この態様により、車載表示装置は、運転者が表示面に視線を向けていない状態であるか否かを好適に判定することができる。   In another aspect of the in-vehicle display device, the detection unit detects that the driver is not turning his or her line of sight toward the display surface based on an image obtained by photographing the driver. According to this aspect, the in-vehicle display device can suitably determine whether or not the driver is in a state where the line of sight is not directed to the display surface.

上記車載表示装置の他の一態様では、前記検出手段は、前記車両が走行中の道路の運転のし易さに基づき、前記運転者が視線を前記表示面に向けにくい状態であるか否かを判定する。この態様により、車載表示装置は、運転者が表示面に視線を向けにくい状態であるか否かを好適に判定することができる。   In another aspect of the in-vehicle display device, the detection means determines whether or not the driver is difficult to turn the line of sight toward the display surface based on ease of driving on the road on which the vehicle is traveling. Determine. According to this aspect, the in-vehicle display device can suitably determine whether or not the driver is in a state in which it is difficult for the driver to direct his / her line of sight to the display surface.

本発明の他の好適な実施形態では、ヘッドアップディスプレイは、上記いずれか記載の車載表示装置と、車両の運転者に向けて画像を構成する光を反射することで、運転者に虚像を視認させる表示面と、を備える。ヘッドアップディスプレイでは、表示面での表示が常に運転中のユーザの視野内にあるため、運転中のユーザは、表示のちらつきを煩わしく感じる場合が多くなる。この場合であっても、運転者が表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、その状態の非検出時よりも光のちらつき成分を減じさせることで、周辺視で表示面をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。   In another preferred embodiment of the present invention, the head-up display visually recognizes a virtual image to the driver by reflecting any of the on-vehicle display devices described above and light constituting the image toward the driver of the vehicle. A display surface. In the head-up display, since the display on the display surface is always in the field of view of the driving user, the driving user often feels the display flickering troublesome. Even in this case, when it is detected that the driver does not turn his / her line of sight to the display surface or is difficult to turn, by reducing the flicker component of light than when the state is not detected, Flickering felt by the user when the user visually recognizes the display surface in peripheral vision can be suitably suppressed.

本発明のさらに別の実施形態では、車両表示装置が実行する制御方法であって、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出工程と、前記表示面により射出または反射される光の状態を制御する制御工程と、を有し、前記制御工程は、前記検出工程により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせる。車両表示装置は、この制御方法を実行することで、周辺視で表示面をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。   In still another embodiment of the present invention, a control method executed by a vehicle display device, wherein the driver looks at a display surface that emits or reflects light constituting an image toward the driver of the vehicle. A detection step for detecting that the light is not directed or difficult to direct, and a control step for controlling the state of light emitted or reflected by the display surface, wherein the control step is performed by the detection step. When it is detected that the driver does not direct the line of sight to the display surface or is in a difficult state, the flicker component of the light is reduced compared to when the state is not detected. By executing this control method, the vehicle display device can suitably suppress flickering felt by the user when the user visually recognizes the display surface in peripheral vision.

本発明のさらに別の実施形態では、コンピュータが実行するプログラムであって、車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、前記表示面により射出または反射される光の状態を制御する制御手段として前記コンピュータを機能させ、前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせる。コンピュータは、このプログラムを実行することで、周辺視で表示面をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。好適には、上記プログラムは、記憶媒体に記憶される。   In still another embodiment of the present invention, the program is executed by a computer, and the driver does not point his / her eyes at a display surface that emits or reflects light constituting an image toward the driver of the vehicle. Or the detection means for detecting that the state is difficult to direct, and the control means for controlling the state of light emitted or reflected by the display surface, wherein the control means is configured to operate the operation by the detection means. When it is detected that the person is not directing the line of sight to the display surface or is in a difficult state, the flicker component of the light is reduced compared to when the state is not detected. By executing this program, the computer can suitably suppress flickering felt by the user when the user visually recognizes the display surface in peripheral vision. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な第1及び第2実施例について説明する。   Hereinafter, preferred first and second embodiments of the present invention will be described with reference to the drawings.

[第1実施例]
(1)システム構成
図1は、第1実施例に係る表示システム100の構成例を示す。図1に示すように、表示システム100は、車両Veに搭載され、ナビゲーション装置1と、ヘッドアップディスプレイ2と、カメラ6と、外光センサ7とを備える。なお、図1に示す構成に代えて、ヘッドアップディスプレイ2には、ナビゲーション装置1に相当する機能が組み込まれていてもよい。
[First embodiment]
(1) System Configuration FIG. 1 shows a configuration example of a display system 100 according to the first embodiment. As shown in FIG. 1, the display system 100 is mounted on a vehicle Ve and includes a navigation device 1, a head-up display 2, a camera 6, and an external light sensor 7. Instead of the configuration shown in FIG. 1, the head-up display 2 may incorporate a function corresponding to the navigation device 1.

ナビゲーション装置1は、出発地から目的地までの経路案内を行う機能などを有する。ナビゲーション装置1は、例えば、車両Veに設置される据え置き型のナビゲーション装置、PND(Portable Navigation Device)、又はスマートフォンなどの携帯端末とすることができる。   The navigation device 1 has a function of performing route guidance from a departure place to a destination. The navigation device 1 can be, for example, a stationary navigation device installed in the vehicle Ve, a portable terminal such as a PND (Portable Navigation Device), or a smartphone.

ヘッドアップディスプレイ2は、現在位置を含む地図情報や経路案内情報、走行速度、その他運転を補助する情報を表示する画像を生成し、当該画像を運転者の目の位置(アイポイント)から虚像として視認させる装置である。ヘッドアップディスプレイ2には、車両の位置、車両の走行速度、地図情報、及び施設データなどのナビゲーション処理に用いられる各種情報がナビゲーション装置1から供給される。なお、ヘッドアップディスプレイ2は、上述の画像を生成する代わりに、ナビゲーション装置1が生成した画像を受信し、当該画像を虚像として運転者に視認させてもよい。   The head-up display 2 generates an image that displays map information including the current position, route guidance information, travel speed, and other information that assists driving, and the image is converted into a virtual image from the position (eye point) of the driver's eyes. It is a device for visual recognition. The head-up display 2 is supplied from the navigation device 1 with various information used for navigation processing such as the position of the vehicle, the traveling speed of the vehicle, map information, and facility data. The head-up display 2 may receive the image generated by the navigation device 1 instead of generating the above-described image, and cause the driver to visually recognize the image as a virtual image.

カメラ6は、運転者に向けられた状態で設置され、運転者を撮影した画像(「撮影画像Im」とも呼ぶ。)を生成し、ヘッドアップディスプレイ2に供給する。外光センサ7は、外光の明るさ(照度)を示す検出信号(「検出信号Sd」とも呼ぶ。)をヘッドアップディスプレイ2に供給する。   The camera 6 is installed in a state directed toward the driver, generates an image of the driver (also referred to as “captured image Im”), and supplies the image to the head-up display 2. The external light sensor 7 supplies a detection signal (also referred to as “detection signal Sd”) indicating the brightness (illuminance) of external light to the head-up display 2.

なお、ナビゲーション装置1がスマートフォンなどの携帯端末である場合、ナビゲーション装置1は、クレードルなどによって保持されても良い。この場合、ナビゲーション装置1は、クレードルなどを介して、ヘッドアップディスプレイ2と情報の授受を行うこととしても良い。   When the navigation device 1 is a mobile terminal such as a smartphone, the navigation device 1 may be held by a cradle or the like. In this case, the navigation device 1 may exchange information with the head-up display 2 via a cradle or the like.

(2)ナビゲーション装置の構成
図2は、ナビゲーション装置1の構成を示す。図2に示すように、ナビゲーション装置1は、自立測位装置10、GPS受信機18、システムコントローラ20、ディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、通信装置38、インタフェース39、表示ユニット40、音声出力ユニット50、及び入力装置60を備える。
(2) Configuration of Navigation Device FIG. 2 shows the configuration of the navigation device 1. As shown in FIG. 2, the navigation device 1 includes a self-supporting positioning device 10, a GPS receiver 18, a system controller 20, a disk drive 31, a data storage unit 36, a communication interface 37, a communication device 38, an interface 39, and a display unit 40. A voice output unit 50 and an input device 60.

自立測位装置10は、加速度センサ11、角速度センサ12及び距離センサ13を備える。加速度センサ11は、例えば圧電素子からなり、車両Veの加速度を検出し、加速度データを出力する。角速度センサ12は、例えば振動ジャイロからなり、車両Veの方向変換時における車両Veの角速度を検出し、角速度データ及び相対方位データを出力する。距離センサ13は、車両Veの車輪の回転に伴って発生されているパルス信号からなる車速パルスを計測する。   The autonomous positioning device 10 includes an acceleration sensor 11, an angular velocity sensor 12, and a distance sensor 13. The acceleration sensor 11 is made of, for example, a piezoelectric element, detects the acceleration of the vehicle Ve, and outputs acceleration data. The angular velocity sensor 12 is composed of, for example, a vibrating gyroscope, detects the angular velocity of the vehicle Ve when the direction of the vehicle Ve is changed, and outputs angular velocity data and relative azimuth data. The distance sensor 13 measures a vehicle speed pulse composed of a pulse signal generated with the rotation of the wheel of the vehicle Ve.

GPS受信機18は、複数のGPS衛星から、測位用データを含む下り回線データを搬送する電波19を受信する。測位用データは、緯度及び経度情報等から車両Veの絶対的な位置(「現在位置」とも呼ぶ。)を検出するために用いられる。   The GPS receiver 18 receives radio waves 19 carrying downlink data including positioning data from a plurality of GPS satellites. The positioning data is used to detect the absolute position (also referred to as “current position”) of the vehicle Ve from latitude and longitude information.

システムコントローラ20は、インタフェース21、CPU(Central Processing Unit)22、ROM(Read Only Memory)23及びRAM(Random Access Memory)24を含んでおり、ナビゲーション装置1全体の制御を行う。   The system controller 20 includes an interface 21, a CPU (Central Processing Unit) 22, a ROM (Read Only Memory) 23, and a RAM (Random Access Memory) 24, and controls the entire navigation apparatus 1.

インタフェース21は、加速度センサ11、角速度センサ12及び距離センサ13並びにGPS受信機18とのインタフェース動作を行う。そして、これらから、車速パルス、加速度データ、相対方位データ、角速度データ、GPS測位データ、絶対方位データ等をシステムコントローラ20に入力する。CPU22は、システムコントローラ20全体を制御する。ROM23は、システムコントローラ20を制御する制御プログラム等が格納された図示しない不揮発性メモリ等を有する。RAM24は、入力装置60を介して使用者により予め設定された経路データ等の各種データを読み出し可能に格納したり、CPU22に対してワーキングエリアを提供したりする。   The interface 21 performs an interface operation with the acceleration sensor 11, the angular velocity sensor 12, the distance sensor 13, and the GPS receiver 18. From these, vehicle speed pulses, acceleration data, relative azimuth data, angular velocity data, GPS positioning data, absolute azimuth data, and the like are input to the system controller 20. The CPU 22 controls the entire system controller 20. The ROM 23 includes a nonvolatile memory (not shown) in which a control program for controlling the system controller 20 is stored. The RAM 24 stores various data such as route data preset by the user via the input device 60 so as to be readable, and provides a working area to the CPU 22.

システムコントローラ20、CD−ROMドライブ又はDVD−ROMドライブなどのディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、表示ユニット40、音声出力ユニット50及び入力装置60は、バスライン30を介して相互に接続されている。   A system controller 20, a disk drive 31 such as a CD-ROM drive or a DVD-ROM drive, a data storage unit 36, a communication interface 37, a display unit 40, an audio output unit 50, and an input device 60 are mutually connected via a bus line 30. It is connected to the.

ディスクドライブ31は、システムコントローラ20の制御の下、CD又はDVDといったディスク33から、音楽データ、映像データなどのコンテンツデータを読み出し、出力する。なお、ディスクドライブ31は、CD−ROMドライブ又はDVD−ROMドライブのうち、いずれか一方としてもよいし、CD及びDVDコンパチブルのドライブとしてもよい。   The disk drive 31 reads and outputs content data such as music data and video data from a disk 33 such as a CD or DVD under the control of the system controller 20. The disk drive 31 may be either a CD-ROM drive or a DVD-ROM drive, or may be a CD and DVD compatible drive.

データ記憶ユニット36は、例えば、HDDなどにより構成され、地図データなどのナビゲーション処理に用いられる各種データを記憶するユニットである。地図データは、道路に相当するリンクと、道路の接続部分(交差点)に相当するノードとにより表された道路データや、各施設に関する施設情報などを含む。   The data storage unit 36 is configured by, for example, an HDD and stores various data used for navigation processing such as map data. The map data includes road data represented by links corresponding to roads and nodes corresponding to road connecting portions (intersections), facility information about each facility, and the like.

通信装置38は、例えば、FMチューナやビーコンレシーバ、携帯電話や専用の通信モジュールなどにより構成され、通信用インタフェース37を介して、VICS(登録商標、Vehicle Information Communication System)センタから配信される渋滞や交通情報などの道路交通情報、その他の情報を受信する。また、通信装置38は、GPS受信機18から取得した現在位置の情報、自立測位装置10から取得した車速パルス等の情報及び地図データなど、ナビゲーション処理に用いられる各種情報をヘッドアップディスプレイ2に送信する。   The communication device 38 is configured by, for example, an FM tuner, a beacon receiver, a mobile phone, a dedicated communication module, and the like, and via a communication interface 37, traffic jams distributed from a VICS (registered trademark, Vehicle Information Communication System) center Receive road traffic information such as traffic information and other information. In addition, the communication device 38 transmits to the head-up display 2 various information used for navigation processing, such as current position information acquired from the GPS receiver 18, information such as vehicle speed pulses acquired from the autonomous positioning device 10, and map data. To do.

表示ユニット40は、システムコントローラ20の制御の下、各種表示データをディスプレイなどの表示装置に表示する。具体的には、システムコントローラ20は、データ記憶ユニット36から地図データを読み出す。表示ユニット40は、システムコントローラ20によってデータ記憶ユニット36から読み出された地図データなどを表示画面上に表示する。表示ユニット40は、バスライン30を介してCPU22から送られる制御データに基づいて表示ユニット40全体の制御を行うグラフィックコントローラ41と、VRAM(Video RAM)等のメモリからなり即時表示可能な画像情報を一時的に記憶するバッファメモリ42と、グラフィックコントローラ41から出力される画像データに基づいて、液晶、CRT(Cathode Ray Tube)等のディスプレイ44を表示制御する表示制御部43と、ディスプレイ44とを備える。ディスプレイ44は、画像表示部として機能し、例えば対角5〜10インチ程度の液晶表示装置等からなり、車内のフロントパネル付近に装着される。   The display unit 40 displays various display data on a display device such as a display under the control of the system controller 20. Specifically, the system controller 20 reads map data from the data storage unit 36. The display unit 40 displays the map data read from the data storage unit 36 by the system controller 20 on the display screen. The display unit 40 includes a graphic controller 41 that controls the entire display unit 40 based on control data sent from the CPU 22 via the bus line 30 and a memory such as a VRAM (Video RAM), and can display image information that can be displayed immediately. A buffer memory 42 that temporarily stores, a display control unit 43 that controls display of a display 44 such as a liquid crystal display or a CRT (Cathode Ray Tube) based on image data output from the graphic controller 41, and a display 44 are provided. . The display 44 functions as an image display unit, and includes, for example, a liquid crystal display device having a diagonal of about 5 to 10 inches and is mounted near the front panel in the vehicle.

音声出力ユニット50は、システムコントローラ20の制御の下、CD−ROMドライブ31又はDVD−ROM32、若しくはRAM24等からバスライン30を介して送られる音声デジタルデータのD/A(Digital to Analog)変換を行うD/Aコンバータ51と、D/Aコンバータ51から出力される音声アナログ信号を増幅する増幅器(AMP)52と、増幅された音声アナログ信号を音声に変換して車内に出力するスピーカ53とを備えて構成されている。   The audio output unit 50 performs D / A (Digital to Analog) conversion of audio digital data sent from the CD-ROM drive 31, DVD-ROM 32, RAM 24, or the like via the bus line 30 under the control of the system controller 20. A D / A converter 51 to perform, an amplifier (AMP) 52 that amplifies the audio analog signal output from the D / A converter 51, and a speaker 53 that converts the amplified audio analog signal into sound and outputs the sound into the vehicle. It is prepared for.

入力装置60は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、音声入力装置等から構成されている。入力装置60は、車内に搭載された当該車載用電子システムの本体のフロントパネルやディスプレイ44の周囲に配置される。また、ディスプレイ44がタッチパネル方式の場合、ディスプレイ44の表示画面上に設けられたタッチパネルも入力装置60として機能する。   The input device 60 includes keys, switches, buttons, a remote controller, a voice input device, and the like for inputting various commands and data. The input device 60 is disposed around the front panel and the display 44 of the main body of the in-vehicle electronic system mounted in the vehicle. When the display 44 is a touch panel system, the touch panel provided on the display screen of the display 44 also functions as the input device 60.

(3)ヘッドアップディスプレイの構成
図3は、ヘッドアップディスプレイ2の概略構成図である。図3に示すように、本実施例に係るヘッドアップディスプレイ2は、光源ユニット4と、コンバイナ9とを備え、フロントウィンドウ25、天井部27、ボンネット28、及びダッシュボード29などを備える車両Veに取り付けられる。
(3) Configuration of Head-Up Display FIG. 3 is a schematic configuration diagram of the head-up display 2. As shown in FIG. 3, the head-up display 2 according to the present embodiment includes a light source unit 4 and a combiner 9. The vehicle Ve includes a front window 25, a ceiling portion 27, a hood 28, a dashboard 29, and the like. It is attached.

光源ユニット4は、支持部材5a、5bを介して車室内の天井部27に設置され、運転を補助する情報を示す画像を構成する光を、コンバイナ9に向けて出射する。具体的には、光源ユニット4は投影装置45を有し、投影装置45は、光源ユニット4内に表示像の元画像(実像)を生成し、その画像を構成する光をコンバイナ9へ出射することで、コンバイナ9を介して運転者に虚像「Iv」を視認させる。   The light source unit 4 is installed on the ceiling portion 27 in the passenger compartment via the support members 5a and 5b, and emits light constituting an image indicating information for assisting driving toward the combiner 9. Specifically, the light source unit 4 has a projection device 45, and the projection device 45 generates an original image (real image) of the display image in the light source unit 4 and emits light constituting the image to the combiner 9. Thus, the driver is caused to visually recognize the virtual image “Iv” via the combiner 9.

コンバイナ9は、光源ユニット4から出射される表示像が投影されると共に、表示像を運転者のアイポイント「Pe」へ反射することで当該表示像を虚像Ivとして表示させる。そして、コンバイナ9は、天井部27に設置された支持軸部8を有し、支持軸部8を支軸として回動する。支持軸部8は、例えば、フロントウィンドウ25の上端近傍の天井部27、言い換えると運転者用の図示しないサンバイザが設置される位置の近傍に設置される。なお、支持軸部8は、上述のサンバイザに代えて設置されてもよい。コンバイナ9の反射面は、本発明における「表示面」の一例である。   The combiner 9 projects the display image emitted from the light source unit 4 and reflects the display image to the driver's eye point “Pe” to display the display image as a virtual image Iv. And the combiner 9 has the support shaft part 8 installed in the ceiling part 27, and rotates the support shaft part 8 as a spindle. The support shaft portion 8 is installed, for example, in the vicinity of the ceiling portion 27 in the vicinity of the upper end of the front window 25, in other words, the position where a sun visor (not shown) for the driver is installed. The support shaft portion 8 may be installed instead of the above-described sun visor. The reflecting surface of the combiner 9 is an example of the “display surface” in the present invention.

また、図3の例では、カメラ6及び外光センサ7は、一体となってダッシュボード29上に載置されている。そして、カメラ6及び外光センサ7は、撮影画像Imや検出信号Sdを、有線又は無線により、光源ユニット4に送信する。   In the example of FIG. 3, the camera 6 and the external light sensor 7 are integrally mounted on the dashboard 29. Then, the camera 6 and the external light sensor 7 transmit the captured image Im and the detection signal Sd to the light source unit 4 by wire or wirelessly.

(4)投影部の構成
図4は、第1実施例に係る投影装置45の構成を示す。図4に示すように、投影装置45は、画像信号入力部62と、ビデオASIC63と、MCU(Micro Control Unit)66と、視線認識部67と、レーザドライバIC70と、MEMSミラー制御部80と、フレームメモリ84と、ROM85と、RAM86と、レーザ光源部90と、スクリーン94とを備える。投影装置45は、本発明における「車載表示装置」の一例である。
(4) Configuration of Projection Unit FIG. 4 shows the configuration of the projection device 45 according to the first embodiment. As shown in FIG. 4, the projection device 45 includes an image signal input unit 62, a video ASIC 63, an MCU (Micro Control Unit) 66, a line-of-sight recognition unit 67, a laser driver IC 70, a MEMS mirror control unit 80, A frame memory 84, a ROM 85, a RAM 86, a laser light source 90, and a screen 94 are provided. The projection device 45 is an example of the “vehicle display device” in the present invention.

画像信号入力部62は、ナビゲーション装置1から光源ユニット4が受信した案内経路の情報等に基づき、案内画像を示す画像信号を生成し、ビデオASIC63に出力する。ビデオASIC63は、画像信号入力部62から入力される画像信号、及びレーザ光源部90内のMEMSミラー95から入力される走査位置情報に基づいて、レーザドライバIC70やMEMSミラー制御部80を制御するブロックであり、ASIC(Application Specific Integrated Circuit)として構成されている。ビデオASIC63は、映像処理部64と、タイミングコントローラ65と、を備える。   The image signal input unit 62 generates an image signal indicating a guide image based on the guide route information received by the light source unit 4 from the navigation device 1 and outputs the image signal to the video ASIC 63. The video ASIC 63 controls the laser driver IC 70 and the MEMS mirror control unit 80 based on the image signal input from the image signal input unit 62 and the scanning position information input from the MEMS mirror 95 in the laser light source unit 90. And is configured as an ASIC (Application Specific Integrated Circuit). The video ASIC 63 includes a video processing unit 64 and a timing controller 65.

映像処理部64は、画像信号入力部62から入力された画像信号から、画像表示部に表示される画像データと同期信号とを分離し、画像信号に含まれるフレームごとの画像データをフレームメモリ84へ書き込む。また、映像処理部64は、フレームメモリ84に書き込まれた画像データを読み出してビットデータに変換し、変換したビットデータを、各レーザの発光パターンを表す信号に変換する。タイミングコントローラ65は、映像処理部64の動作タイミングを制御する。また、タイミングコントローラ65は、MEMSミラー制御部80を介してMEMSミラー95の動作タイミングも制御する。   The video processing unit 64 separates the image data and the synchronization signal displayed on the image display unit from the image signal input from the image signal input unit 62, and stores the image data for each frame included in the image signal in the frame memory 84. Write to. Further, the video processing unit 64 reads out the image data written in the frame memory 84 and converts it into bit data, and converts the converted bit data into a signal representing the light emission pattern of each laser. The timing controller 65 controls the operation timing of the video processing unit 64. The timing controller 65 also controls the operation timing of the MEMS mirror 95 via the MEMS mirror control unit 80.

フレームメモリ84には、映像処理部64により分離された画像データが書き込まれる。ROM85は、ビデオASIC63が動作するための制御プログラムやデータなどを記憶している。RAM86には、ビデオASIC63が動作する際のワークメモリとして、各種データが逐次読み書きされる。   In the frame memory 84, the image data separated by the video processing unit 64 is written. The ROM 85 stores a control program and data for operating the video ASIC 63. Various data are sequentially read from and written into the RAM 86 as a work memory when the video ASIC 63 operates.

レーザドライバIC70は、レーザ光源部90に設けられるレーザダイオード(LD)を駆動する信号を生成するブロックであり、IC(Integrated Circuit)として構成されている。レーザドライバIC70は、赤色レーザ駆動回路71と、緑色レーザ駆動回路72と、青色レーザ駆動回路73と、を備える。赤色レーザ駆動回路71は、映像処理部64が出力する信号に基づいて赤色レーザLD1を駆動し、緑色レーザ駆動回路72は、映像処理部64が出力する信号に基づいて緑色レーザLD2を駆動し、青色レーザ駆動回路73は、映像処理部64が出力する信号に基づいて青色レーザLD3を駆動する。   The laser driver IC 70 is a block that generates a signal for driving a laser diode (LD) provided in the laser light source unit 90, and is configured as an IC (Integrated Circuit). The laser driver IC 70 includes a red laser driving circuit 71, a green laser driving circuit 72, and a blue laser driving circuit 73. The red laser driving circuit 71 drives the red laser LD1 based on the signal output from the video processing unit 64, and the green laser driving circuit 72 drives the green laser LD2 based on the signal output from the video processing unit 64, The blue laser driving circuit 73 drives the blue laser LD3 based on a signal output from the video processing unit 64.

MEMSミラー(Micro Electro Mechanical Systems)制御部80は、タイミングコントローラ65が出力する信号に基づきMEMSミラー95を制御する。MEMSミラー制御部80は、サーボ回路81と、ドライバ回路82と、を備える。サーボ回路81は、タイミングコントローラ65からの信号に基づき、MEMSミラー95の動作を制御する。ドライバ回路82は、サーボ回路81が出力するMEMSミラー95の制御信号を所定レベルに増幅して出力する。   A MEMS mirror (Micro Electro Mechanical Systems) control unit 80 controls the MEMS mirror 95 based on a signal output from the timing controller 65. The MEMS mirror control unit 80 includes a servo circuit 81 and a driver circuit 82. The servo circuit 81 controls the operation of the MEMS mirror 95 based on the signal from the timing controller 65. The driver circuit 82 amplifies the control signal of the MEMS mirror 95 output from the servo circuit 81 to a predetermined level and outputs the amplified signal.

レーザ光源部90は、レーザドライバIC70から出力される駆動信号に基づいて、レーザ光を出射する。具体的には、レーザ光源部90は、主に、赤色レーザLD1と、緑色レーザLD2と、青色レーザLD3と、コリメータレンズ91a〜91cと、ダイクロイックミラー92a〜92cと、MEMSミラー95と、を備える。   The laser light source unit 90 emits laser light based on the drive signal output from the laser driver IC 70. Specifically, the laser light source unit 90 mainly includes a red laser LD1, a green laser LD2, a blue laser LD3, collimator lenses 91a to 91c, dichroic mirrors 92a to 92c, and a MEMS mirror 95. .

赤色レーザLD1は赤色レーザ光を出射し、緑色レーザLD2は緑色レーザ光を出射し、青色レーザLD3は青色レーザ光を出射する。なお、以下では、赤色レーザLD1、緑色レーザLD2及び青色レーザLD3を区別しないで用いる場合には、単に「レーザLD」と表記し、赤色レーザ光、緑色レーザ光及び青色レーザ光を区別しないで用いる場合には、単に「レーザ光」と表記する。また、本明細書では、レーザ光のことを適宜「ビーム」と表記する。   The red laser LD1 emits red laser light, the green laser LD2 emits green laser light, and the blue laser LD3 emits blue laser light. Hereinafter, when the red laser LD1, the green laser LD2, and the blue laser LD3 are used without being distinguished from each other, they are simply referred to as “laser LD”, and the red laser light, the green laser light, and the blue laser light are used without being distinguished from each other. In this case, it is simply expressed as “laser light”. Further, in this specification, laser light is appropriately expressed as “beam”.

コリメータレンズ91a、91b、91cは、それぞれ、赤色レーザ光、緑色レーザ光及び青色レーザ光を平行光にして、ダイクロイックミラー92a〜92cに出射する。ダイクロイックミラー92bは、緑色レーザ光を反射させ、ダイクロイックミラー92aは、緑色レーザ光を透過させ、赤色レーザ光を反射させる。そして、ダイクロイックミラー92cは、青色レーザ光のみを透過させ、緑色レーザ光及び赤色レーザ光を反射させる。こうしてダイクロイックミラー92cを透過した青色レーザ光及びダイクロイックミラー92cで反射された緑色レーザ光及び赤色レーザ光は、MEMSミラー95に入射される。   The collimator lenses 91a, 91b, and 91c convert the red laser light, the green laser light, and the blue laser light into parallel lights and emit them to the dichroic mirrors 92a to 92c, respectively. The dichroic mirror 92b reflects green laser light, and the dichroic mirror 92a transmits green laser light and reflects red laser light. The dichroic mirror 92c transmits only blue laser light and reflects green laser light and red laser light. The blue laser light transmitted through the dichroic mirror 92 c and the green laser light and red laser light reflected by the dichroic mirror 92 c are incident on the MEMS mirror 95.

MEMSミラー95は、上記のようにしてダイクロイックミラー92cを介して入射されたビーム(レーザ光)を、スクリーン94に向けて反射させる。具体的には、MEMSミラー95は、画像信号入力部62に入力された画像に対応して、連続する複数のフレームにより構成される画像を表示させるべく、MEMSミラー制御部80の制御により、ビームによってスクリーン94を走査するように動作する。また、MEMSミラー95は、その際の走査位置情報(例えばミラーの角度などの情報)をビデオASIC63へ出力する。   The MEMS mirror 95 reflects the beam (laser light) incident through the dichroic mirror 92c as described above toward the screen 94. Specifically, the MEMS mirror 95 controls the beam under the control of the MEMS mirror control unit 80 so as to display an image composed of a plurality of continuous frames corresponding to the image input to the image signal input unit 62. Operates to scan the screen 94. Further, the MEMS mirror 95 outputs the scanning position information (for example, information such as the angle of the mirror) at that time to the video ASIC 63.

より詳しくは、MEMSミラー95は、表示すべき画像を形成する走査線の方向に沿った方向(画像における横方向に相当し、以下では「主走査方向」と呼ぶ。)にビームを走査するように揺動する。これにより、表示すべき画像を構成する走査線が生成される。これと同時に、MEMSミラー95は、走査線の方向に垂直な方向(画像における縦方向に相当すると共に主走査方向に直交する方向であり、以下では「副走査方向」と呼ぶ。)にビームを走査するように揺動する。これにより、副走査方向に並んだ所定数の走査線が生成される。以上のようにMEMSミラー95が揺動することで、動画などを構成する一枚の画像(つまりフレーム)が形成される。MEMSミラー95は、このようにして1つのフレームの走査を終えると、次のフレームの走査を開始し、投影するフレームを順次リフレッシュする。このリフレッシュの単位時間あたりの頻度を「リフレッシュレート」と呼ぶ。   More specifically, the MEMS mirror 95 scans the beam in the direction along the direction of the scanning line that forms the image to be displayed (corresponding to the horizontal direction in the image, and hereinafter referred to as “main scanning direction”). Rocks. Thereby, the scanning line which comprises the image which should be displayed is produced | generated. At the same time, the MEMS mirror 95 emits a beam in a direction perpendicular to the direction of the scanning line (which corresponds to the vertical direction in the image and is orthogonal to the main scanning direction, hereinafter referred to as “sub-scanning direction”). Swing to scan. Thereby, a predetermined number of scanning lines arranged in the sub-scanning direction are generated. As described above, the MEMS mirror 95 swings to form a single image (that is, a frame) that forms a moving image or the like. When the MEMS mirror 95 finishes scanning one frame as described above, the MEMS mirror 95 starts scanning the next frame and sequentially refreshes the projected frames. This frequency of refresh per unit time is called “refresh rate”.

スクリーン94は、MEMSミラー95で反射されたビームが入射される。したがって、上記したようなMEMSミラー95の動作により、スクリーン94上でビームによる走査がなされることとなる。例えば、スクリーン94は、表示すべき画像の中間像を形成するよう機能する。1つの例では、スクリーン94として、EPE(Exit−Pupil Expander)などの拡散板を適用することができる。   The screen 94 receives the beam reflected by the MEMS mirror 95. Therefore, the beam is scanned on the screen 94 by the operation of the MEMS mirror 95 as described above. For example, the screen 94 functions to form an intermediate image of the image to be displayed. In one example, a diffusing plate such as EPE (Exit-Pupil Expander) can be applied as the screen 94.

視線認識部67は、カメラ6から供給される撮影画像Imに基づき、撮影画像Im内の運転者の顔が表示された領域を解析することで、運転者の視線方向を示す情報(「視線情報Ie」とも呼ぶ。)を生成する。この場合、例えば、視線認識部67は、公知の視線検出技術により運転者の視線を検出し、視線情報Ieを生成する。そして、視線認識部67は、視線情報IeをMCU66へ供給する。   The line-of-sight recognition unit 67 analyzes information indicating the driver's line-of-sight direction (“line-of-sight information”) by analyzing a region in which the driver's face is displayed in the captured image Im based on the captured image Im supplied from the camera 6. Ie "). In this case, for example, the line-of-sight recognition unit 67 detects the driver's line of sight using a known line-of-sight detection technique, and generates line-of-sight information Ie. Then, the line-of-sight recognition unit 67 supplies the line-of-sight information Ie to the MCU 66.

MCU66は、視線認識部67から受信する視線情報Ieと、外光センサ7から受信する検出信号Sdとに基づき、ビデオASIC63内の映像処理部64に対する制御を行う。本実施例では、MCU66は、視認性向上のため、検出信号Sdが示す外光の明るさに応じて、投影する画像の輝度(「画像輝度Db」とも呼ぶ。)が変化するように、ビデオASIC63などを制御する。また、MCU66は、視線認識部67から供給される視線情報Ieに応じて、上述の検出信号Sdに基づく画像輝度Dbの自動調整の有無を切り替える。MCU66が行う制御の詳細は後述する。なお、MCU66は、本発明における「検出手段」、「制御手段」、「外光検出手段」、及び「コンピュータ」の一例である。   The MCU 66 controls the video processing unit 64 in the video ASIC 63 based on the line-of-sight information Ie received from the line-of-sight recognition unit 67 and the detection signal Sd received from the external light sensor 7. In the present embodiment, the MCU 66 uses a video so that the brightness of the projected image (also referred to as “image brightness Db”) changes according to the brightness of the external light indicated by the detection signal Sd in order to improve visibility. The ASIC 63 and the like are controlled. Further, the MCU 66 switches the presence / absence of automatic adjustment of the image luminance Db based on the above-described detection signal Sd according to the line-of-sight information Ie supplied from the line-of-sight recognition unit 67. Details of the control performed by the MCU 66 will be described later. The MCU 66 is an example of the “detection unit”, “control unit”, “external light detection unit”, and “computer” in the present invention.

(5)画像輝度の調整
次に、第1実施例においてMCU66が実行する画像輝度Dbの調整方法について説明する。概略的には、MCU66は、視線情報Ieに基づき、運転者の視線がコンバイナ9により表示された画像(単に「表示画像」とも呼ぶ。)に向いていないと判断した場合には、検出信号Sdに基づく画像輝度Dbの自動調整を行わない。これにより、MCU66は、運転者が前方風景を見て運転に集中しているときに、表示画像のちらつきが目立つのを好適に抑制する。
(5) Image Luminance Adjustment Next, an image luminance Db adjustment method executed by the MCU 66 in the first embodiment will be described. Schematically, when the MCU 66 determines that the driver's line of sight is not suitable for the image displayed by the combiner 9 (also simply referred to as “display image”) based on the line-of-sight information Ie, the detection signal Sd. The image brightness Db based on the above is not automatically adjusted. Thereby, MCU66 suppresses suitably that the flickering of a display image is conspicuous when the driver | operator concentrates on driving | running | working seeing the front scenery.

一般に、人間の視角特性においては、視線方向の視覚である中心視で点滅する光(フリッカー光)を捉えた場合と、視野方向以外の視覚である周辺視でフリッカー光を捉えた場合とでは、周辺視の方が点滅によるちらつきを敏感に感じることが知られている。従って、ユーザの視線の方向にない表示の明るさが変化した場合には、ユーザは、当該表示のちらつきを感じやすい。特に、ヘッドアップディスプレイ2により表示される画像は、常に運転中のユーザの視野内に表示されるため、運転中のユーザは、表示画像のちらつきを煩わしく感じる場合が多くなる。   In general, in human visual angle characteristics, when capturing flickering light (flicker light) in the central vision, which is visual in the line of sight, and when capturing flicker light in peripheral vision, which is visual other than the visual field direction, Peripheral vision is known to be more sensitive to flickering caused by blinking. Therefore, when the brightness of the display that is not in the direction of the user's line of sight changes, the user can easily feel the flicker of the display. In particular, since the image displayed by the head-up display 2 is always displayed within the field of view of the driving user, the driving user often feels annoying the flickering of the display image.

以上を勘案し、MCU66は、運転者の視線が表示画像に向いていないと判断した場合に、検出信号Sdに基づく画像輝度Dbの自動調整を行わない。これにより、運転者が前方風景を見て運転に集中しているときに、画像輝度Dbの切り替えに起因して表示画像のちらつきが目立つのを好適に抑制することができる。   Considering the above, the MCU 66 does not automatically adjust the image luminance Db based on the detection signal Sd when it is determined that the driver's line of sight is not suitable for the display image. Thereby, when the driver looks at the front scenery and concentrates on driving, it is possible to suitably suppress the flickering of the display image due to switching of the image luminance Db.

図5は、第1実施例においてMCU66が実行する画像輝度Dbの調整処理を示すフローチャートである。MCU66は、図5に示すフローチャートの処理を繰り返し実行する。   FIG. 5 is a flowchart showing the image brightness Db adjustment processing executed by the MCU 66 in the first embodiment. The MCU 66 repeatedly executes the processing of the flowchart shown in FIG.

まず、MCU66は、撮影画像Imに基づき視線認識部67が生成した視線情報Ieを取得する(ステップS101)。次に、MCU66は、視線情報Ieに基づき、表示画像に運転者の視線が向けられているか否か判定する(ステップS102)。例えば、MCU66は、運転者が表示画像に視線を向けている場合の視線方向の情報を予め記憶しておき、視線情報Ieが示す視線方向と、予め記憶した視線方向とを比較することで、表示画像に運転者の視線が向けられているか否か判定する。   First, the MCU 66 acquires the line-of-sight information Ie generated by the line-of-sight recognition unit 67 based on the captured image Im (step S101). Next, the MCU 66 determines whether or not the driver's line of sight is directed to the display image based on the line-of-sight information Ie (step S102). For example, the MCU 66 stores in advance information on the line-of-sight direction when the driver is looking at the display image, and compares the line-of-sight direction indicated by the line-of-sight information Ie with the previously stored line-of-sight direction. It is determined whether or not the driver's line of sight is directed to the display image.

そして、MCU66は、表示画像に運転者の視線が向けられていると判断した場合(ステップS102;Yes)、検出信号Sdが示す外光の明るさに応じて、画像輝度Dbを自動調整する(ステップS103)。例えば、MCU66は、外光が明るいほど画像輝度Dbを上げることで、外光の明るさに応じて表示画像を好適に見やすくすることができる。   When the MCU 66 determines that the driver's line of sight is directed to the display image (step S102; Yes), the MCU 66 automatically adjusts the image luminance Db according to the brightness of the external light indicated by the detection signal Sd ( Step S103). For example, the MCU 66 can make the display image easily viewable according to the brightness of the external light by increasing the image brightness Db as the external light is brighter.

一方、表示画像に運転者の視線が向けられていない場合(ステップS102;No)、MCU66は、外光の明るさによらず、画像輝度Dbを所定値に固定する(ステップS104)。この場合、MCU66は、最後にステップS103の処理を実行したときに設定されていた画像輝度Dbの輝度値に画像輝度Dbを固定してもよく、予め設定された輝度値に画像輝度Dbを固定してもよい。後者の場合、MCU66は、画像輝度Dbを比較的低い値(例えば最大輝度の20%)に設定することで、表示画像を目立たなくしてもよい。これにより、MCU66は、画像輝度Dbの切り替えに起因した表示画像のちらつきを抑制し、運転者に運転を集中させることができる。   On the other hand, when the driver's line of sight is not directed to the display image (step S102; No), the MCU 66 fixes the image luminance Db to a predetermined value regardless of the brightness of the external light (step S104). In this case, the MCU 66 may fix the image luminance Db to the luminance value of the image luminance Db that was set when the process of step S103 was last performed, or may fix the image luminance Db to a predetermined luminance value. May be. In the latter case, the MCU 66 may make the display image less noticeable by setting the image brightness Db to a relatively low value (for example, 20% of the maximum brightness). Thereby, MCU66 can suppress the flicker of the display image resulting from switching of the image brightness | luminance Db, and can concentrate a driving | operation on a driver | operator.

以上説明したように、第1実施例に係るヘッドアップディスプレイ2のMCU66は、車両Veの運転者に向けて画像を構成する光を反射するコンバイナ9に対し、運転者が視線を向けていないことを視線情報Ieに基づき検出する。そして、MCU66は、運転者がコンバイナ9に視線を向けていない状態であることを検出した場合に、画像輝度Dbを外光の明るさによらずに設定することで、上記状態の非検出時よりも、光のちらつき成分を減じさせる。これにより、周辺視で表示画像をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。   As described above, the MCU 66 of the head-up display 2 according to the first embodiment does not direct the driver's line of sight to the combiner 9 that reflects the light constituting the image toward the driver of the vehicle Ve. Is detected based on the line-of-sight information Ie. When the MCU 66 detects that the driver is not looking at the combiner 9, the MCU 66 sets the image luminance Db regardless of the brightness of the outside light, so that the above state is not detected. Rather than reducing the flickering component of light. Thereby, flickering felt by the user when the user visually recognizes the display image in peripheral vision can be suitably suppressed.

[第2実施例]
第2実施例では、MCU66は、画像輝度Dbの自動調整の有無の切り替えに代えて、又はこれに加えて、リフレッシュレートの切り替えを行う点で、第1実施例と異なる。具体的には、第2実施例では、MCU66は、運転者の視線が表示画像に向いていない場合には、運転者の視線が表示画像に向いている場合よりも、リフレッシュレートを上げる。これにより、第1実施例と同様、MCU66は、運転者が前方風景を見て運転に集中しているときに、表示画像のちらつきが目立つのを好適に抑制する。その他、第1実施例と同様の部分については、適宜同一の符号を付し、その説明を省略する。
[Second Embodiment]
In the second embodiment, the MCU 66 is different from the first embodiment in that the refresh rate is switched instead of or in addition to switching whether or not the image brightness Db is automatically adjusted. Specifically, in the second embodiment, the MCU 66 increases the refresh rate when the driver's line of sight is not facing the display image, compared to when the driver's line of sight is facing the display image. As a result, as in the first embodiment, the MCU 66 suitably suppresses the flickering of the display image from being noticeable when the driver concentrates on driving while looking at the front scenery. In addition, about the part similar to 1st Example, the same code | symbol is attached | subjected suitably and the description is abbreviate | omitted.

一般に、有機ELディスプレイやLCDなどの面発光型の表示素子、即ち、表示素子が固定画素で構成され、各固定画素が発光することで画像を表示する表示素子よりも、CRTやレーザプロジャクタなどのスキャン型の表示素子、即ち、光の点を高速にスキャンして画像を表示させる表示素子の方が、利用者はちらつきを感じ易い。そして、ヘッドアップディスプレイ2の投影装置45は、後者のスキャン型の表示素子であるため、運転者は比較的ちらつきを感じやすい。また、第1実施例で述べたように、周辺視では、中心視と比較して、点滅によるちらつきを感じやすい。従って、ヘッドアップディスプレイ2のユーザは、中心視により表示画像を視認しているときにはちらつきを感じなくとも、周辺視により表示画像を視認しているときに、ちらつきを感じる可能性がある。   In general, surface-emitting display elements such as organic EL displays and LCDs, that is, display elements are formed of fixed pixels, and CRTs and laser projectors are used rather than display elements that display images when each fixed pixel emits light. Scan type display elements such as the above, that is, display elements that display an image by scanning a spot of light at a high speed are more likely to cause flicker. Since the projection device 45 of the head-up display 2 is the latter scan type display element, the driver is relatively likely to feel flicker. In addition, as described in the first embodiment, flickering due to blinking is more likely to be felt in peripheral vision than in central vision. Therefore, even if the user of the head-up display 2 does not feel flicker when viewing the display image by central vision, the user may feel flicker when viewing the display image by peripheral vision.

以上を勘案し、MCU66は、運転者の視線が表示画像に向いていない場合には、周辺視であっても表示画像のちらつきをユーザが感じない所定レートまで、リフレッシュレートを高くする。上述の所定レートは、例えば実験等に基づき設定され、MCU66等により予め記憶される。これにより、周辺視での表示画像のちらつきを好適に抑制することができる。   In consideration of the above, when the driver's line of sight is not suitable for the display image, the MCU 66 increases the refresh rate to a predetermined rate at which the user does not feel the flicker of the display image even in peripheral vision. The above-mentioned predetermined rate is set based on, for example, experiments, and is stored in advance by the MCU 66 or the like. Thereby, the flickering of the display image in peripheral vision can be suitably suppressed.

図6は、第2実施例においてMCU66が実行する画像輝度Dbの調整処理を示すフローチャートである。MCU66は、図6に示すフローチャートの処理を繰り返し実行する。   FIG. 6 is a flowchart showing the image brightness Db adjustment processing executed by the MCU 66 in the second embodiment. The MCU 66 repeatedly executes the processing of the flowchart shown in FIG.

まず、MCU66は、第1実施例と同様、撮影画像Imに基づき視線認識部67が生成した視線情報Ieを取得する(ステップS201)。そして、MCU66は、視線情報Ieに基づき、表示画像に運転者の視線が向けられているか否か判定する(ステップS202)。   First, the MCU 66 acquires the line-of-sight information Ie generated by the line-of-sight recognition unit 67 based on the captured image Im, as in the first embodiment (step S201). Then, the MCU 66 determines whether or not the driver's line of sight is directed to the display image based on the line-of-sight information Ie (step S202).

そして、表示画像に運転者の視線が向けられている場合(ステップS202;Yes)、MCU66は、リフレッシュレートを通常レート(例えば60Hz)に設定する(ステップS203)。一方、表示画像に運転者の視線が向けられていない場合(ステップS202;No)、MCU66は、リフレッシュレートを通常レートよりも高く設定する(ステップS204)。例えば、MCU66は、この場合、走査線の方向に沿った方向である主走査方向の走査速度と、主走査方向と垂直な副走査方向の走査速度とをそれぞれ20%高速にすることで、リフレッシュレートを20%(通常レートが60Hzの場合72Hzまで)上げる。これにより、周辺視での表示画像のちらつきを好適に抑制することができる。   When the driver's line of sight is directed to the display image (step S202; Yes), the MCU 66 sets the refresh rate to a normal rate (for example, 60 Hz) (step S203). On the other hand, when the driver's line of sight is not directed to the display image (step S202; No), the MCU 66 sets the refresh rate higher than the normal rate (step S204). For example, in this case, the MCU 66 refreshes by increasing the scanning speed in the main scanning direction, which is the direction along the scanning line direction, and the scanning speed in the sub-scanning direction perpendicular to the main scanning direction by 20%. Increase the rate by 20% (up to 72 Hz if the normal rate is 60 Hz). Thereby, the flickering of the display image in peripheral vision can be suitably suppressed.

なお、ちらつきを抑制する他の方法として、表示画像に運転者の視線が向けられているか否かによらず、周辺視であっても表示画像のちらつきをユーザが感じないリフレッシュレート(即ち、ステップS204で用いるリフレッシュレート)に固定する方法も考えられる。しかしながら、この場合、MEMSミラー12の駆動回数が増えるため、製品寿命が短くなり、かつ、消費電力が増えるおそれがある。これに対し、図6の制御方法では、MCU66は、リフレッシュレートを上げる期間を限定しているため、上述の問題の影響を最小限に抑制しつつ、好適に周辺視での表示画像のちらつきを抑制することができる。   As another method for suppressing the flicker, a refresh rate (that is, a step in which the user does not feel the flicker of the display image even in peripheral vision, regardless of whether or not the driver's line of sight is directed to the display image). A method of fixing to the refresh rate used in S204 is also conceivable. However, in this case, since the number of times of driving the MEMS mirror 12 increases, the product life may be shortened and the power consumption may increase. On the other hand, in the control method of FIG. 6, the MCU 66 limits the period during which the refresh rate is increased. Therefore, the flickering of the display image in peripheral vision is preferably suppressed while minimizing the influence of the above-described problem. Can be suppressed.

なお、第2実施例のヘッドアップディスプレイ2は、外光の明るさに基づき画像輝度Dbを自動調整する機能を有しなくともよい。また、第2実施例は、第1実施例と好適に組み合わせることができる。この場合、MCU66は、表示画像に運転者の視線が向けられていないと判断したときに、検出信号Sdに基づく画像輝度Dbの自動調整を停止すると共に、リフレッシュレートを通常レートよりも上げる。   Note that the head-up display 2 of the second embodiment may not have the function of automatically adjusting the image luminance Db based on the brightness of external light. Further, the second embodiment can be suitably combined with the first embodiment. In this case, when the MCU 66 determines that the driver's line of sight is not directed to the display image, the MCU 66 stops the automatic adjustment of the image luminance Db based on the detection signal Sd and increases the refresh rate from the normal rate.

以上説明したように、第2実施例に係るヘッドアップディスプレイ2のMCU66は、車両Veの運転者に向けて画像を構成する光を反射するコンバイナ9に対し、運転者が視線を向けていないことを視線情報Ieに基づき検出する。そして、MCU66は、運転者がコンバイナ9に視線を向けていない状態であることを検出した場合に、リフレッシュレートを通常レートより高くすることで、上記状態の非検出時よりも、光のちらつき成分を減じさせる。これにより、第1実施例と同様、周辺視で表示画像をユーザが視認する場合にユーザが感じるちらつきを好適に抑制することができる。   As described above, the MCU 66 of the head-up display 2 according to the second embodiment is such that the driver does not point his / her eyes at the combiner 9 that reflects the light constituting the image toward the driver of the vehicle Ve. Is detected based on the line-of-sight information Ie. When the MCU 66 detects that the driver is not looking at the combiner 9, the MCU 66 sets the refresh rate higher than the normal rate, thereby making the light flicker component more than when the above state is not detected. Decrease. Thereby, similarly to the first embodiment, flickering felt by the user when the user visually recognizes the display image in peripheral vision can be suitably suppressed.

[変形例]
以下、上述の第1及び第2実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の各実施例に適用してもよい。
[Modification]
Hereinafter, modified examples suitable for the first and second embodiments will be described. The following modifications may be applied in any combination to the above-described embodiments.

(変形例1)
第1及び第2実施例では、MCU66は、図5のステップS102又は図6のステップS202において、表示画像に運転者の視線が向けられていないと判断した場合に、周辺視での表示画像のちらつきを低減する処理を行った。これに代えて、MCU66は、運転者が表示画像に視線を向けにくい運転状態であると判断した場合に、周辺視での表示画像のちらつきを低減する処理を行ってもよい。
(Modification 1)
In the first and second embodiments, when the MCU 66 determines in step S102 in FIG. 5 or step S202 in FIG. 6 that the driver's line of sight is not directed to the display image, the MCU 66 displays the display image in peripheral vision. Processing to reduce flicker was performed. Instead, the MCU 66 may perform a process of reducing flickering of the display image in the peripheral vision when the driver determines that the driving state is difficult to direct the line of sight to the display image.

この場合、例えば、ナビゲーション装置1は、車両Veが現在走行中の道路(「走行道路」とも呼ぶ。)についての運転のし易さに関連する情報を、ヘッドアップディスプレイ2のMCU66へ送信する。例えば、ナビゲーション装置1は、走行道路が急カーブを有する場合、走行道路の道幅が所定幅よりも細い場合、走行道路が山道である場合、又は/及び走行道路が所定角度以上の勾配を有する場合に、走行道路が運転しにくい道路であると認識し、その旨の情報をMCU66へ送信する。そして、MCU66は、走行道路が運転しにくい道路である旨の情報をナビゲーション装置1から受信した場合に、運転者が運転に集中すべき状況であり、表示画像に視線を向けにくいと判断し、周辺視での表示画像のちらつきを低減する処理を行う。   In this case, for example, the navigation device 1 transmits information related to the ease of driving on the road on which the vehicle Ve is currently traveling (also referred to as “traveling road”) to the MCU 66 of the head-up display 2. For example, the navigation device 1 has a case where the traveling road has a sharp curve, the road width of the traveling road is narrower than a predetermined width, the traveling road is a mountain road, and / or the traveling road has a gradient of a predetermined angle or more. In addition, the travel road is recognized as a road that is difficult to drive, and information to that effect is transmitted to the MCU 66. Then, the MCU 66 determines that it is difficult for the driver to concentrate on driving when the information indicating that the traveling road is a road that is difficult to drive is received from the navigation apparatus 1, and that it is difficult to direct the line of sight to the display image. Processing to reduce flickering of the display image in peripheral vision is performed.

ここで、走行道路が運転しにくい道路であるか否かをナビゲーション装置1が判定する具体的方法(第1〜第3の方法)について説明する。   Here, specific methods (first to third methods) in which the navigation device 1 determines whether or not the traveling road is a road that is difficult to drive will be described.

第1の方法では、データ記憶ユニット36は、地図データに記憶されているリンクごとに、当該リンクが示す道路が運転しにくい道路であるか否かを示すフラグ情報を、地図データとして予め記憶しておく。そして、システムコントローラ20は、自立測位装置10やGPS受信機18の出力に基づき走行道路に対応するリンクを認識した場合に、当該リンクに地図データ上で関連付けられたフラグ情報を参照することで、走行道路が運転しにくい道路であるか否かを判定する。   In the first method, for each link stored in the map data, the data storage unit 36 stores in advance flag information indicating whether the road indicated by the link is a road that is difficult to drive as map data. Keep it. Then, when the system controller 20 recognizes a link corresponding to the traveling road based on the outputs of the autonomous positioning device 10 and the GPS receiver 18, the system controller 20 refers to flag information associated with the link on the map data, It is determined whether or not the traveling road is a road that is difficult to drive.

第2の方法では、システムコントローラ20は、自立測位装置10の出力や、GPS受信機18による現在位置の測位履歴に基づき、走行道路が運転しにくい道路であるか否かを判断する。例えば、システムコントローラ20は、加速度センサ11等の出力に基づき、走行道路の道路勾配を認識し、当該勾配が所定角度以上の場合に、走行道路が運転しにくい道路であると認識する。他の例では、システムコントローラ20は、角速度センサ12等の出力に基づき、所定値以上の角速度を検知した場合には、車両Veが急カーブを走行中であると判断し、走行道路が運転しにくい道路であると認識する。   In the second method, the system controller 20 determines whether or not the traveling road is a road that is difficult to drive based on the output of the autonomous positioning device 10 and the positioning history of the current position by the GPS receiver 18. For example, the system controller 20 recognizes the road gradient of the traveling road based on the output of the acceleration sensor 11 or the like, and recognizes that the traveling road is a road that is difficult to drive when the gradient is equal to or greater than a predetermined angle. In another example, the system controller 20 determines that the vehicle Ve is traveling along a sharp curve when an angular velocity greater than a predetermined value is detected based on the output of the angular velocity sensor 12 or the like, and the traveling road is driven. Recognize that it is a difficult road.

第3の方法では、第1の方法のフラグ情報に代えて、リンクごとに、当該リンクが示す道路の道幅の情報、傾斜角度の情報、又は/及びカーブの曲率の情報等をデータ記憶ユニット36が地図データとして記憶しておく。また、データ記憶ユニット36は、上述の道幅の情報や傾斜角度の情報等のそれぞれに対し、走行道路が運転しにくい道路であると判断される範囲(値域)を記憶しておく。そして、システムコントローラ20は、認識した走行道路に対応するリンクに関連付けられた道幅の情報等を参照し、それらのいずれかが、走行道路が運転しにくい道路であると判断される範囲に該当する場合に、走行道路が運転しにくい道路であると認識する。   In the third method, instead of the flag information of the first method, for each link, road width information, inclination angle information, and / or curve curvature information indicated by the link are stored in the data storage unit 36. Is stored as map data. Further, the data storage unit 36 stores a range (value range) in which it is determined that the traveling road is a difficult road for each of the above-described road width information, inclination angle information, and the like. Then, the system controller 20 refers to road width information associated with the link corresponding to the recognized traveling road, and any of them corresponds to a range in which it is determined that the traveling road is difficult to drive. In this case, the travel road is recognized as a road that is difficult to drive.

(変形例2)
ナビゲーション装置1は、変形例1で説明した運転のし易さに関する情報に代えて、走行道路での外光変化のし易さに関する情報をMCU66に送信してもよい。
(Modification 2)
Instead of the information related to the ease of driving described in the first modification, the navigation device 1 may transmit information related to the ease of changing external light on the traveling road to the MCU 66.

例えば、ナビゲーション装置1は、日中に林間の道路や、道路沿いに隣接して建てられたビルに挟まれた道路を車両Veが走行している場合に、走行道路が外光変化のし易い道路である旨の情報をMCU66に送信する。そして、MCU66は、ナビゲーション装置1から、走行道路が外光変化のし易い道路である旨の情報を受信した場合、検出信号Sdに基づく画像輝度Dbの自動調整を停止する。この場合、例えば、変形例1の第1の方法と同様、地図データに記憶されているリンクごとに、外光が変化しやすい道路であるか否を示すフラグ情報を、地図データとしてデータ記憶ユニット36が予め記憶しておく。   For example, when the vehicle Ve is traveling on a road between forests or a road sandwiched adjacent to the road during the day, the navigation device 1 is likely to change the outside light. Information indicating that the road is a road is transmitted to the MCU 66. Then, when the MCU 66 receives information from the navigation device 1 that the traveling road is a road that easily changes outside light, the MCU 66 stops the automatic adjustment of the image luminance Db based on the detection signal Sd. In this case, for example, as in the first method of the first modification, for each link stored in the map data, flag information indicating whether the road is easily changed by external light is used as the map data as a data storage unit. 36 is stored in advance.

(変形例3)
図3では、ヘッドアップディスプレイ2は、コンバイナ9を有し、コンバイナ9で反射させた光源ユニット4の出射光に基づき運転者に虚像Ivを視認させていた。しかし、本発明が適用可能な構成はこれに限定されない。これに代えて、ヘッドアップディスプレイ2は、コンバイナ9を有さず、フロントガラス25で反射させた光源ユニット4の出射光に基づき運転者に虚像Ivを視認させてもよい。この場合、フロントガラス25の反射面は、本発明における「表示面」の一例である。
(Modification 3)
In FIG. 3, the head-up display 2 has a combiner 9 and makes the driver visually recognize the virtual image Iv based on the emitted light of the light source unit 4 reflected by the combiner 9. However, the configuration to which the present invention is applicable is not limited to this. Instead of this, the head-up display 2 may not have the combiner 9 and may allow the driver to visually recognize the virtual image Iv based on the emitted light of the light source unit 4 reflected by the windshield 25. In this case, the reflection surface of the windshield 25 is an example of the “display surface” in the present invention.

また、光源ユニット4の位置は、天井部27に設置される場合に限定されない。これに代えて、光源ユニット4は、ダッシュボード29上に設置されたり、ダッシュボード29の内部に設置されたりしてもよい。ダッシュボード29上に設置される場合、ダッシュボード29には、コンバイナ9を設けるか、又はフロントガラス25に光源ユニット4から直接光を反射させ運転者に虚像Ivを認識させる。ダッシュボード内に設置される場合、ダッシュボード29には、コンバイナ9又はフロントガラス25に光を通過させるための開口部が設けられる。   Further, the position of the light source unit 4 is not limited to the case where it is installed on the ceiling portion 27. Instead of this, the light source unit 4 may be installed on the dashboard 29 or installed inside the dashboard 29. When installed on the dashboard 29, the combiner 9 is provided on the dashboard 29, or light is directly reflected from the light source unit 4 on the windshield 25 to allow the driver to recognize the virtual image Iv. When installed in the dashboard, the dashboard 29 is provided with an opening for allowing light to pass through the combiner 9 or the windshield 25.

(変形例4)
表示システム100は、ヘッドアップディスプレイ2の表示画像を対象に、ちらつきを低減する処理を行った。しかし、本発明が適用可能な構成は、これに限定されない。例えば、これに代えて、表示システム100は、ヘッドアップディスプレイ2を有さず、ナビゲーション装置1のシステムコントローラ20は、ディスプレイ44を対象に、ちらつきを低減する処理を行ってもよい。この場合であっても、運転者が前方風景に視線を向けて運転に集中している際に、ディスプレイ44の画面がちらつくのを好適に抑制することができる。この場合、表示ユニット40のディスプレイ44は、本発明における「表示面」の一例である。また、ナビゲーション装置1は、本発明における「車載表示装置」の一例であり、システムコントローラ20は、本発明における「検出手段」、「制御手段」、「外光検出手段」、及び「コンピュータ」の一例である。
(Modification 4)
The display system 100 performs a process of reducing flickering on the display image of the head-up display 2. However, the configuration to which the present invention is applicable is not limited to this. For example, instead of this, the display system 100 may not include the head-up display 2, and the system controller 20 of the navigation device 1 may perform a process of reducing flicker on the display 44. Even in this case, it is possible to suitably suppress the flickering of the screen of the display 44 when the driver is concentrating on driving while looking at the forward scenery. In this case, the display 44 of the display unit 40 is an example of the “display surface” in the present invention. The navigation device 1 is an example of the “in-vehicle display device” in the present invention, and the system controller 20 includes the “detection unit”, “control unit”, “external light detection unit”, and “computer” in the present invention. It is an example.

(変形例5)
図1の表示システム100の構成例では、カメラ6及び外光センサ7は、ヘッドアップディスプレイ2に接続されていた。これに代えて、カメラ6又は/及び外光センサ7は、ナビゲーション装置1と接続されていてもよい。
(Modification 5)
In the configuration example of the display system 100 in FIG. 1, the camera 6 and the external light sensor 7 are connected to the head-up display 2. Instead of this, the camera 6 and / or the external light sensor 7 may be connected to the navigation device 1.

この場合、例えば、ナビゲーション装置1は、カメラ6又は/及び外光センサ7から受信した撮影画像Im又は/及び検出信号Sdをヘッドアップディスプレイ2の投影装置45に転送する。他の例では、ナビゲーション装置1は、カメラ6から受信した撮影画像Imに基づき、視線認識部67が実行する処理を行うことで視線情報Ieを生成し、視線情報Ieを投影装置45に送信する。さらに別の例では、ナビゲーション装置1は、カメラ6から受信した撮影画像Imに基づき視線情報Ieを生成後、さらに、表示画像のちらつきを低減する処理を行うべきか否かの判定を行い、表示画像のちらつきを低減する処理を実行すべきか否かを示す指示信号を投影装置45に送信する。   In this case, for example, the navigation device 1 transfers the captured image Im or / and the detection signal Sd received from the camera 6 or / and the external light sensor 7 to the projection device 45 of the head-up display 2. In another example, the navigation device 1 generates the line-of-sight information Ie by performing the process executed by the line-of-sight recognition unit 67 based on the captured image Im received from the camera 6, and transmits the line-of-sight information Ie to the projection device 45. . In yet another example, the navigation device 1 generates the line-of-sight information Ie based on the captured image Im received from the camera 6, and then determines whether or not to further reduce the flickering of the display image. An instruction signal indicating whether or not to perform the process of reducing the flicker of the image is transmitted to the projection device 45.

このように、投影装置45が実行する処理の一部をナビゲーション装置1が実行する場合であっても、好適に、表示システム100は、周辺視での表示画像のちらつきを低減する処理を実行することができる。この場合、ナビゲーション装置1のシステムコントローラ20は、本発明における「検出手段」の一例である。   Thus, even when the navigation device 1 executes part of the processing executed by the projection device 45, the display system 100 preferably executes processing for reducing flickering of the display image in peripheral vision. be able to. In this case, the system controller 20 of the navigation device 1 is an example of the “detection unit” in the present invention.

(変形例6)
図5、6の説明では、視線認識部67は、運転者の視線方向を示す視線情報Ieを生成してMCU66に送信し、MCU66は、視線情報Ieに基づき運転者が表示画像に視線を向けているか否かを判定した。これに代えて、視線認識部67は、運転者の視線方向の認識後、さらに運転者が表示画像に視線を向けているか否かを判定し、その判定結果をMCU66に送信してもよい。この場合、MCU66は、運転者が表示画像に視線を向けているか否かの判定を行う必要がない。
(Modification 6)
5 and 6, the line-of-sight recognition unit 67 generates line-of-sight information Ie indicating the driver's line-of-sight direction and transmits it to the MCU 66. The MCU 66 directs the driver to the display image based on the line-of-sight information Ie. It was determined whether or not. Instead of this, the line-of-sight recognition unit 67 may further determine whether or not the driver is directing his / her line of sight to the display image after recognizing the driver's line-of-sight direction, and transmit the determination result to the MCU 66. In this case, the MCU 66 does not need to determine whether or not the driver is looking at the display image.

1 ナビゲーション装置
2 ヘッドアップディスプレイ
4 光源ユニット
9 コンバイナ
25 フロントガラス
28 ボンネット
29 ダッシュボード
100 表示システム
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2 Head-up display 4 Light source unit 9 Combiner 25 Windshield 28 Bonnet 29 Dashboard 100 Display system

Claims (9)

車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、
前記表示面により射出または反射される光の状態を制御する制御手段と、を備え、
前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とする車載表示装置。
Detection means for detecting that the driver is not turning his / her line of sight to a display surface that emits or reflects light constituting an image toward the driver of the vehicle,
Control means for controlling the state of light emitted or reflected by the display surface,
The control means detects the flicker component of the light more than when the state is not detected when the detection means detects that the driver does not direct the line of sight to the display surface or is in a difficult state. An in-vehicle display device characterized by being reduced.
外光の明るさを検出する外光検出手段をさらに備え、
前記制御手段は、前記状態の非検出時には、前記外光の明るさに応じて、前記表示面により表示される画像の輝度を変化させ、前記状態の検出時には、前記輝度を前記外光の明るさに応じて変化させないことを特徴とする請求項1に記載の車載表示装置。
It further comprises external light detection means for detecting the brightness of external light,
The control means changes the luminance of the image displayed on the display surface according to the brightness of the external light when the state is not detected, and changes the luminance when the state is detected. The in-vehicle display device according to claim 1, wherein the on-vehicle display device is not changed according to the height.
前記制御手段は、前記表示面に対し、前記光を走査する場合に、前記状態の検出時には、前記状態の非検出時よりも、リフレッシュレートを高くすることを特徴とする請求項1または2に記載の車載表示装置。   3. The control unit according to claim 1, wherein when the light is scanned with respect to the display surface, the control unit increases a refresh rate when the state is detected, compared with when the state is not detected. The on-vehicle display device described. 前記検出手段は、前記運転者を撮影した画像に基づき、前記運転者が視線を前記表示面に視線を向けていない状態であることを検出することを特徴とする請求項1乃至3のいずれか一項に記載の車載表示装置。 4. The detection unit according to claim 1, wherein the detection unit detects, based on an image of the driver, that the driver is not turning his / her line of sight toward the display surface. 5. The vehicle-mounted display device according to one item. 前記検出手段は、前記車両が走行中の道路の運転のし易さに基づき、前記運転者が視線を前記表示面に向けにくい状態であるか否かを判定することを特徴とする請求項1乃至3のいずれか一項に記載の車載表示装置。   The detection means determines whether or not the driver is in a state in which it is difficult for the driver to turn his / her line of sight on the display surface based on ease of driving on a road on which the vehicle is traveling. The vehicle-mounted display apparatus as described in any one of thru | or 3. 請求項1乃至5のいずれか一項に記載の車載表示装置と、
車両の運転者に向けて画像を構成する光を反射することで、前記運転者に虚像を視認させる表示面と、を備えることを特徴とするヘッドアップディスプレイ。
The in-vehicle display device according to any one of claims 1 to 5,
A head-up display, comprising: a display surface that reflects light constituting an image toward a driver of a vehicle so that the driver can visually recognize a virtual image.
車両表示装置が実行する制御方法であって、
車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出工程と、
前記表示面により射出または反射される光の状態を制御する制御工程と、を有し、
前記制御工程は、前記検出工程により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とする制御方法。
A control method executed by a vehicle display device,
A detection step of detecting that the driver is not turning his / her line of sight to the display surface which emits or reflects light constituting the image toward the driver of the vehicle,
A control step of controlling the state of light emitted or reflected by the display surface,
The control step detects the flicker component of the light more than when the state is not detected when the detection step detects that the driver does not direct the line of sight to the display surface or is in a difficult state. A control method characterized by subtracting.
コンピュータが実行するプログラムであって、
車両の運転者に向けて画像を構成する光を射出または反射する表示面に対し、前記運転者が視線を向けていない、または向けにくい状態であることを検出する検出手段と、
前記表示面により射出または反射される光の状態を制御する制御手段
として前記コンピュータを機能させ、
前記制御手段は、前記検出手段により前記運転者が前記表示面に視線を向けていない、または向けにくい状態であることを検出した場合に、前記状態の非検出時よりも前記光のちらつき成分を減じさせることを特徴とするプログラム。
A program executed by a computer,
Detection means for detecting that the driver is not turning his / her line of sight to a display surface that emits or reflects light constituting an image toward the driver of the vehicle,
Causing the computer to function as control means for controlling the state of light emitted or reflected by the display surface;
The control means detects the flicker component of the light more than when the state is not detected when the detection means detects that the driver does not direct the line of sight to the display surface or is in a difficult state. A program characterized by subtracting.
請求項8に記載のプログラムを記憶したことを特徴とする記憶媒体。   A storage medium storing the program according to claim 8.
JP2013242728A 2013-11-25 2013-11-25 Onboard display device, head up display, control method, program, and memory medium Pending JP2015101189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013242728A JP2015101189A (en) 2013-11-25 2013-11-25 Onboard display device, head up display, control method, program, and memory medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013242728A JP2015101189A (en) 2013-11-25 2013-11-25 Onboard display device, head up display, control method, program, and memory medium

Publications (1)

Publication Number Publication Date
JP2015101189A true JP2015101189A (en) 2015-06-04

Family

ID=53377277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013242728A Pending JP2015101189A (en) 2013-11-25 2013-11-25 Onboard display device, head up display, control method, program, and memory medium

Country Status (1)

Country Link
JP (1) JP2015101189A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017018027A1 (en) * 2015-07-29 2017-02-02 富士フイルム株式会社 Projection display device and projection control method
JP2018052281A (en) * 2016-09-28 2018-04-05 矢崎総業株式会社 Display device for vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001171390A (en) * 1999-12-13 2001-06-26 Nissan Motor Co Ltd Vehicular head-up display
JP2001343900A (en) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd Illumination system and illumination control data preparing method
JP2004299506A (en) * 2003-03-31 2004-10-28 Nippon Seiki Co Ltd Displaying device
JP2007079088A (en) * 2005-09-14 2007-03-29 Seiko Epson Corp Image display apparatus and method for controlling the same
JP2013120529A (en) * 2011-12-08 2013-06-17 Isuzu Motors Ltd Method and system for estimating driving load
JP2013186254A (en) * 2012-03-07 2013-09-19 Nippon Hoso Kyokai <Nhk> Image presentation apparatus and image presentation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001171390A (en) * 1999-12-13 2001-06-26 Nissan Motor Co Ltd Vehicular head-up display
JP2001343900A (en) * 2000-05-31 2001-12-14 Matsushita Electric Ind Co Ltd Illumination system and illumination control data preparing method
JP2004299506A (en) * 2003-03-31 2004-10-28 Nippon Seiki Co Ltd Displaying device
JP2007079088A (en) * 2005-09-14 2007-03-29 Seiko Epson Corp Image display apparatus and method for controlling the same
JP2013120529A (en) * 2011-12-08 2013-06-17 Isuzu Motors Ltd Method and system for estimating driving load
JP2013186254A (en) * 2012-03-07 2013-09-19 Nippon Hoso Kyokai <Nhk> Image presentation apparatus and image presentation program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017018027A1 (en) * 2015-07-29 2017-02-02 富士フイルム株式会社 Projection display device and projection control method
CN107851423A (en) * 2015-07-29 2018-03-27 富士胶片株式会社 Projection display device and method for controlling projection
JPWO2017018027A1 (en) * 2015-07-29 2018-06-21 富士フイルム株式会社 Projection display apparatus and projection control method
US10502962B2 (en) 2015-07-29 2019-12-10 Fujifilm Corporation Projection type display device and projection control method
CN107851423B (en) * 2015-07-29 2020-09-22 富士胶片株式会社 Projection display device and projection control method
JP2018052281A (en) * 2016-09-28 2018-04-05 矢崎総業株式会社 Display device for vehicle

Similar Documents

Publication Publication Date Title
US20160334623A1 (en) Display device, display method, and non-transitory computer readable medium storing display program
WO2014097404A1 (en) Head-up display, control method, program and storage medium
US20200333608A1 (en) Display device, program, image processing method, display system, and moving body
WO2013088511A1 (en) Display device, display method, head-up display, and detection device
JP2015128956A (en) Head-up display, control method, program and storage medium
JP2015172548A (en) Display control device, control method, program, and recording medium
JP2016101771A (en) Head-up display device for vehicle
WO2015045112A1 (en) Driving-assistance apparatus, control method, program, and storage medium
WO2017086380A1 (en) Information display apparatus, control method, program, and storage medium
JP2016193723A (en) Display device, program, and storage medium
WO2013088557A1 (en) Display device and display method
WO2014162417A1 (en) Head-up display
WO2015114807A1 (en) Virtual image display, control method, program, and storage medium
WO2015111213A1 (en) Display device, control method, program, and recording medium
JP2015141155A (en) virtual image display device, control method, program, and storage medium
WO2014097403A1 (en) Display device, control method, program, and storage medium
JP2015127170A (en) Head-up display, control method, program, and memory medium
JP2015101189A (en) Onboard display device, head up display, control method, program, and memory medium
JP2015152467A (en) display control device, control method, program, and storage medium
JP6401925B2 (en) Virtual image display device, control method, program, and storage medium
WO2014109030A1 (en) Virtual image-displaying device, control method, program and memory medium
JP2018158725A (en) Head-up display, control method, program and storage medium
WO2015019401A1 (en) Virtual image display apparatus
JP6058123B2 (en) Display device, control method, program, and storage medium
WO2019074114A1 (en) Display device, program, image processing method, display system, and moving body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171226