JP6726412B2 - Image display device, moving body, image display method and program - Google Patents

Image display device, moving body, image display method and program Download PDF

Info

Publication number
JP6726412B2
JP6726412B2 JP2019031603A JP2019031603A JP6726412B2 JP 6726412 B2 JP6726412 B2 JP 6726412B2 JP 2019031603 A JP2019031603 A JP 2019031603A JP 2019031603 A JP2019031603 A JP 2019031603A JP 6726412 B2 JP6726412 B2 JP 6726412B2
Authority
JP
Japan
Prior art keywords
image
driver
information
displayed
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019031603A
Other languages
Japanese (ja)
Other versions
JP2019089553A5 (en
JP2019089553A (en
Inventor
賢一郎 齊所
賢一郎 齊所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019031603A priority Critical patent/JP6726412B2/en
Publication of JP2019089553A publication Critical patent/JP2019089553A/en
Publication of JP2019089553A5 publication Critical patent/JP2019089553A5/ja
Application granted granted Critical
Publication of JP6726412B2 publication Critical patent/JP6726412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、画像表示装置、移動体、画像表示方法及びプログラムに関するものである。 The present invention relates to an image display device, the moving member and at about the image display method and a program.

この種の画像表示装置としては、運転者を乗せて移動する車両、船舶、航空機、産業用ロボットなどの移動体の運転者に対して情報を提供するための画像を表示するヘッドアップディスプレイ(HUD)装置等を利用したものが知られている。 Is in this type of image display apparatus, a head-up display for displaying vehicle that moves carrying the driver, a ship, an aircraft, an image for providing information to the driver of the moving object, such as industrial robots A device using a (HUD) device or the like is known.

特許文献1には、フロントガラス等(光透過部材)に画像光を投射し、フロントガラスを介して車両(移動体)の運転者が視認する前方風景に重ねて画像を表示させるHUD装置が開示されている。このHUD装置は、進行方向を示す矢印、速度、注意や警告などを示す表示オブジェクトを虚像として前方風景に重ねて表示する。このHUD装置は、運転者を撮像して運転者の片目の位置を検出する位置検出部(視点位置検知手段)を備えており、その検出結果に応じて各表示オブジェクトの虚像内における位置をそれぞれ変動させる処理を行う。この処理では、運転者が頭部を動かして視点位置(片目の位置)が移動したときに各表示オブジェクトの虚像内における移動量を異ならせることで、運動視差により、各表示オブジェクトの奥行き方向の表示位置(主観的奥行き位置)が異なるように運転者に知覚させる。 Patent Document 1 discloses a HUD device that projects image light onto a windshield or the like (light-transmitting member) and displays the image on a front landscape visually recognized by a driver of a vehicle (moving body) through the windshield. Has been done. This HUD device superimposes and displays an arrow indicating the direction of travel, a display object indicating speed, attention, warning, and the like as a virtual image on the front landscape. The HUD device includes a position detection unit (viewpoint position detection unit) that images the driver and detects the position of one eye of the driver, and determines the position of each display object in the virtual image according to the detection result. Perform the process of changing. In this process, when the driver moves his/her head to move the viewpoint position (the position of one eye), the amount of movement in the virtual image of each display object is made different, so that the motion parallax causes a difference in the depth direction of each display object. The driver is made to perceive that the display position (subjective depth position) is different.

運転者によって受動的に認知される受動情報は、一般に、当該情報提供装置によって決められるタイミングで運転者に提供したい情報であり、通常は、当該受動情報が提供されるタイミングと当該受動情報の内容との間に一定の関係性をもつ情報である。 そのため、受動情報を示す受動情報画像は、これを表示したらすぐに運転者に認知されることが重要である。Passive information that is passively recognized by the driver is generally information that the driver wants to provide at the timing determined by the information providing device, and normally, the timing when the passive information is provided and the content of the passive information. It is information that has a certain relationship with. Therefore, it is important that the driver recognizes the passive information image showing the passive information immediately after displaying the passive information image.

上述した課題を解決するために、本発明は、移動体を運転する運転者の視点位置を検知する位置検知部と、運転者によって能動的に認知される能動情報画像、及び、所定の情報提供条件を満たした場合に運転者に認知されるよう表示される受動情報画像を、光透過部材を介して前記運転者に目視可能に表示する表示部と、を備え、前記表示部は、前記位置検知部の検知情報に基づいて前記受動情報画像の表示位置を所定の表示領域内で奥行方向に直交する方向へ変更して表示することで、該所定の表示領域内に表示される前記受動情報画像の運転者の知覚距離を、該所定の表示領域よりも下側に位置する別の表示領域内に表示される前記能動情報画像の運転者の知覚距離よりも遠くに表示することを特徴とする。 In order to solve the above-described problems, the present invention provides a position detection unit that detects a viewpoint position of a driver who drives a moving body, an active information image that is actively recognized by the driver, and provision of predetermined information. A passive information image that is displayed so that the driver can recognize it when the conditions are satisfied, and a display unit that visually displays it to the driver via a light transmissive member, and the display unit is the position by displaying by changing the display position of the passive information image on the basis of the detection information of the detecting section in a direction orthogonal to the depth direction in a predetermined display area, the passive information displayed on the predetermined display area the perceptual metric of the driver image, wherein the distance in Table Shimesuru than perceptual metric of the driver of the active information image displayed in a separate display area which is located below the said predetermined display region And

本発明によれば、移動体進行方向前方の表示エリアに表示される画像により、移動体周囲の物体(検出対象物)の当該移動体に対する相対的な動きの情報(周囲物体情報)を運転者に認知させやすいという優れた効果が奏される。 According to the present invention, the driver displays information (surrounding object information) about the relative movement of an object (detection target) around the moving body with respect to the moving body, using an image displayed in the display area in front of the moving body. It has an excellent effect that it can be easily recognized.

実施形態において、フロントガラス越しに運転者から見る自車両の前方風景に重ねて表示エリアに表示される虚像の一例を示す説明図である。In an embodiment, it is an explanatory view showing an example of a virtual image displayed on a display area by superimposing it on a scenery in front of the vehicle viewed from the driver through the windshield. 実施形態における自動車用HUD装置を搭載した自動車の構成を模式的に表した模式図である。It is the schematic diagram which represented typically the structure of the motor vehicle which mounts the HUD apparatus for motor vehicles in embodiment. 同自動車用HUD装置の内部構成を模式的に表した模式図である。It is a schematic diagram which represented typically the internal structure of the HUD apparatus for motor vehicles. 同自動車用HUD装置における制御系のハードウェアブロック図である。It is a hardware block diagram of a control system in the HUD device for the vehicle. 実施形態における運転者情報提供システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a driver information providing system in an embodiment. 同運転者情報提供システムにおける物体認識装置のハードウェア構成を示す説明図である。It is explanatory drawing which shows the hardware constitutions of the object recognition apparatus in the same driver information provision system. 同自動車用HUD装置における画像制御装置の主要なハードウェアを示すハードウェアブロック図である。It is a hardware block diagram which shows the main hardware of the image control apparatus in the HUD apparatus for vehicles. 実施形態における運動視差によって奥行き感を出した虚像の画像処理方法を説明するための説明図である。6 is an explanatory diagram for describing an image processing method of a virtual image having a sense of depth due to motion parallax in the embodiment. FIG. 直近の交差点で進路変更する状況の画像例を示す説明図である。It is an explanatory view showing an example of a picture of a situation where a course is changed at the latest intersection. (a)〜(e)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する画像例1を示す説明図である。(A)-(e) is explanatory drawing which shows the example 1 of an image which the image which shows front vehicle approach information changes according to the inter-vehicle distance with a preceding vehicle. (a)及び(b)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する他の画像例2を示す説明図である。(A) And (b) is explanatory drawing which shows the other image example 2 in which the image which shows front vehicle approach information changes according to the inter-vehicle distance with a preceding vehicle. (a)〜(c)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する更に他の画像例3を示す説明図である。(A)-(c) is explanatory drawing which shows the example 3 of further another image from which the image which shows front vehicle approach information changes according to the inter-vehicle distance with a preceding vehicle. (a)〜(c)は、直近の交差点で進路変更する状況の他の画像例4を示す説明図である。(A)-(c) is explanatory drawing which shows the other example image 4 of the condition which changes a course in the nearest intersection. 自車両が走行している道路が通学路である場合に通学路警告画像を中段表示領域に表示させた画像例5を示す説明図である。It is explanatory drawing which shows the example 5 of an image which displayed the school road warning image in the middle stage display area, when the road where the own vehicle is driving is a school road. 自車両の進行方向における横断歩道を渡ろうとしている人間を検出した場合に人型警告画像を中段表示領域に表示させた画像例6を示す説明図である。It is explanatory drawing which shows the image example 6 which displayed the humanoid warning image in the middle stage display area, when the person trying to cross the pedestrian crossing in the advancing direction of the own vehicle was detected.

以下、本発明を、情報提供装置としての自動車用ヘッドアップディスプレイ(HUD)装置を含んだ運転者情報提供システムに適用した一実施形態について説明する。
図1は、フロントガラス302越しに運転者300から見る自車両301の前方風景に重ねて表示エリア700に表示される虚像Gの一例を示す説明図である。
図2は、本実施形態における自動車用HUD装置を搭載した自動車の構成を模式的に表した模式図である。
図3は、本実施形態における自動車用HUD装置の内部構成を模式的に表した模式図である。
An embodiment in which the present invention is applied to a driver information providing system including a vehicle head-up display (HUD) device as an information providing device will be described below.
FIG. 1 is an explanatory diagram showing an example of a virtual image G displayed in a display area 700 overlaid on a landscape in front of the vehicle 301 viewed from the driver 300 through the windshield 302.
FIG. 2 is a schematic diagram schematically showing the configuration of an automobile equipped with the automobile HUD device according to the present embodiment.
FIG. 3 is a schematic diagram schematically showing the internal configuration of the automobile HUD device in the present embodiment.

本実施形態における自動車用HUD装置200は、例えば、移動体としての走行体である自車両301のダッシュボード内に設置される。ダッシュボード内の自動車用HUD装置200から発せられる画像光である投射光Lが光透過部材としてのフロントガラス302で反射され、運転者300に向かう。これにより、運転者300は、後述するナビゲーション画像等のHUD表示画像を虚像として視認することができる。なお、フロントガラス302の内壁面に光透過部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者に虚像を視認させるように構成してもよい。 The automobile HUD device 200 according to the present embodiment is installed, for example, in a dashboard of a vehicle 301 that is a traveling body as a moving body. Projection light L, which is image light emitted from the automobile HUD device 200 in the dashboard, is reflected by the windshield 302 as a light transmitting member, and travels toward the driver 300. Thereby, the driver 300 can visually recognize a HUD display image such as a navigation image described later as a virtual image. A combiner as a light transmitting member may be installed on the inner wall surface of the windshield 302 so that the driver can visually recognize the virtual image by the projection light L reflected by the combiner.

本実施形態においては、運転者300から虚像Gまでの距離が5m以上となるように、自動車用HUD装置200の光学系等が構成されている。従来の一般的な自動車用HUD装置は、運転者300から虚像Gまでの距離が2m程度であった。運転者300は、通常、車両前方の無限遠点を注視しているか、数十m先の先行車を注視している。このような遠方に焦点を合わせている運転者300が2m先の虚像Gを視認しようとする場合、焦点距離が大きく異なるので、眼球の水晶体を大きく動かす必要がある。そのため、虚像Gに焦点を合わせるまでの焦点調整時間が長くなり、虚像Gの内容を認識するまでに時間がかかるうえ、運転者300の眼球が疲労しやすいという不具合が生じる。また、虚像Gの内容に運転者が気付きにくく、虚像Gによって情報を運転者へ適切に提供することが困難である。 In the present embodiment, the optical system and the like of the HUD device 200 for automobiles are configured such that the distance from the driver 300 to the virtual image G is 5 m or more. In the conventional general HUD device for automobiles, the distance from the driver 300 to the virtual image G is about 2 m. The driver 300 is normally gazing at an infinite point in front of the vehicle or gazing at a preceding vehicle several tens of meters ahead. When the driver 300 focusing on such a distant place wants to visually recognize the virtual image G 2 m ahead, the focal lengths are significantly different, and therefore the crystalline lens of the eyeball needs to be largely moved. Therefore, the focus adjustment time for focusing on the virtual image G becomes long, it takes time to recognize the contents of the virtual image G, and the eyes of the driver 300 are easily fatigued. Further, it is difficult for the driver to notice the contents of the virtual image G, and it is difficult to appropriately provide information to the driver by the virtual image G.

本実施形態のように虚像Gまでの距離が5m以上であれば、従来よりも、眼球の水晶体を動かす量が減り、虚像Gへの焦点調整時間を短縮して虚像Gの内容を早期に認識できるようになり、また運転者300の眼球の疲労を軽減することができる。更には、虚像Gの内容に運転者が気付きやすくなり、虚像Gによって情報を運転者へ適切に提供することが容易になる。 If the distance to the virtual image G is 5 m or more as in the present embodiment, the amount of movement of the crystalline lens of the eyeball is smaller than in the conventional case, the focus adjustment time to the virtual image G is shortened, and the contents of the virtual image G are recognized earlier. Therefore, the fatigue of the eyes of the driver 300 can be reduced. Further, the driver can easily notice the contents of the virtual image G, and the virtual image G facilitates appropriately providing information to the driver.

更に、虚像Gまでの距離が2m程度である場合、このように近い距離の虚像Gに眼球の焦点を合わせようとすると、通常は眼球の輻輳運動が必要になる。輻輳運動は、視認対象までの距離感や奥行き感に大きな影響を与える要因である。本実施形態では、後述するように、虚像Gとして表示される画像の知覚距離を運動視差により知覚させる表示制御を実施する。この場合、虚像Gに焦点を合わせるために眼球が輻輳運動してしまうと、運動視差による距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が薄まってしまい、画像の知覚距離の違いや変化を利用した後述する運転者の情報認知効果を減退させてしまう。 Further, when the distance to the virtual image G is about 2 m, when the eyeball is focused on the virtual image G having such a short distance, a vergence movement of the eyeball is usually required. The vergence movement is a factor that greatly affects the sense of distance and the sense of depth to the visual target. In the present embodiment, as will be described later, display control is performed so that the perceived distance of the image displayed as the virtual image G is perceived by the motion parallax. In this case, if the eyeball performs a vergence movement to focus on the virtual image G, the effect of perceiving a sense of distance (change in perceptual distance) or a sense of depth (difference in perceptual distance) due to motion parallax is diminished. The information recognition effect of the driver, which will be described later, using the difference or change in the perceived distance of the vehicle will be reduced.

虚像Gまでの距離が5m以上であれば、眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。したがって、運動視差を利用して距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が眼球の輻輳運動によって薄まってしまうことが抑制される。よって、画像の距離感や奥行き感を利用した運転者の情報知覚効果を有効に発揮させることができる。 When the distance to the virtual image G is 5 m or more, it is possible to focus on the virtual image G with almost no vergence movement of the eyeball. Therefore, the effect of perceiving a sense of distance (change in perceived distance) or a sense of depth (difference in perceived distance) by using motion parallax is suppressed from fading due to the vergence movement of the eyeball. Therefore, the driver's information perception effect using the sense of distance and the sense of depth of the image can be effectively exhibited.

自動車用HUD装置200は、HUD本体230内に、赤色、緑色、青色のレーザー光源201R,201G,201Bと、各レーザー光源に対して設けられるコリメータレンズ202,203,204と、2つのダイクロイックミラー205,206と、光量調整部207と、光走査手段としての光走査装置208と、自由曲面ミラー209と、光発散部材としてのマイクロレンズアレイ210と、光反射部材としての投射ミラー211とから構成されている。本実施形態における光源ユニット220は、レーザー光源201R,201G,201B、コリメータレンズ202,203,204、ダイクロイックミラー205,206が、光学ハウジングによってユニット化されている。 The HUD device 200 for an automobile includes red, green, and blue laser light sources 201R, 201G, and 201B, collimator lenses 202, 203, and 204 provided for the respective laser light sources, and two dichroic mirrors 205 in a HUD main body 230. , 206, a light quantity adjusting unit 207, an optical scanning device 208 as an optical scanning unit, a free-form curved mirror 209, a microlens array 210 as a light diverging member, and a projection mirror 211 as a light reflecting member. ing. In the light source unit 220 in this embodiment, the laser light sources 201R, 201G, 201B, the collimator lenses 202, 203, 204, and the dichroic mirrors 205, 206 are unitized by an optical housing.

レーザー光源201R,201G,201BとしてはLD(半導体レーザ素子)を利用することができる。赤色レーザー光源201Rから射出される光束の波長は例えば640nmであり、緑色レーザー光源201Gから射出される光束の波長は例えば530nmであり、青色レーザー光源201Bから射出される光束の波長は例えば445nmである。 An LD (semiconductor laser element) can be used as the laser light sources 201R, 201G, and 201B. The wavelength of the light beam emitted from the red laser light source 201R is, for example, 640 nm, the wavelength of the light beam emitted from the green laser light source 201G is, for example, 530 nm, and the wavelength of the light beam emitted from the blue laser light source 201B is, for example, 445 nm. ..

本実施形態の自動車用HUD装置200は、マイクロレンズアレイ210上に結像される中間像を自車両301のフロントガラス302に投射することで、その中間像の拡大画像を運転者300に虚像Gとして視認させる。レーザー光源201R,201G,201Bから発せられる各色レーザー光は、それぞれ、コリメータレンズ202,203,204で略平行光とされ、2つのダイクロイックミラー205,206により合成される。合成されたレーザー光は、光量調整部207で光量が調整された後、光走査装置208のミラーによって二次元走査される。光走査装置208で二次元走査された走査光L’は、自由曲面ミラー209で反射されて歪みを補正された後、マイクロレンズアレイ210に集光され、中間像を描画する。 The HUD device 200 for automobiles of the present embodiment projects an intermediate image formed on the microlens array 210 onto the windshield 302 of the host vehicle 301, so that an enlarged image of the intermediate image is displayed to the driver 300 as a virtual image G. To make it visible. The laser light of each color emitted from the laser light sources 201R, 201G and 201B is made into substantially parallel light by the collimator lenses 202, 203 and 204, respectively, and is combined by the two dichroic mirrors 205 and 206. The combined laser light is two-dimensionally scanned by the mirror of the optical scanning device 208 after the light amount is adjusted by the light amount adjusting unit 207. The scanning light L′ that has been two-dimensionally scanned by the optical scanning device 208 is reflected by the free-form surface mirror 209 to have its distortion corrected, and then condensed on the microlens array 210 to draw an intermediate image.

なお、本実施形態では、中間像の画素(中間像の一点)ごとの光束を個別に発散させて出射する光発散部材として、マイクロレンズアレイ210を用いているが、他の光発散部材を用いてもよい。また、中間像G’の形成方法としては、液晶ディスプレイ(LCD)や蛍光表示管(VFD)を利用した方式でもよい。 In the present embodiment, the microlens array 210 is used as the light diverging member that individually diverges and emits the light flux of each pixel of the intermediate image (one point of the intermediate image), but other light diverging members are used. May be. As a method of forming the intermediate image G', a method using a liquid crystal display (LCD) or a fluorescent display tube (VFD) may be used.

ただし、大きな虚像Gを高い輝度で表示させるには、本実施形態のようにレーザー走査方式が好ましい。
また、液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式では、虚像Gが表示される表示領域内の非画像部分にも僅かながら光が照射され、これを完全に遮断することが難しい。そのため、当該非画像部分を通じた自車両301の前方風景の視認性が悪いというデメリットがある。これに対し、本実施形態のようにレーザー走査方式によれば、虚像Gの表示領域内の非画像部分については、レーザー光源201R,201G,201Bを消灯させることにより当該非画像部分に光が照射されるのを完全に遮断することができる。よって、当該非画像部分を通じた自車両301の前方風景の視認性が自動車用HUD装置200から照射される光によって低下する事態を回避でき、前方風景の視認性が高いというメリットがある。
However, in order to display the large virtual image G with high brightness, the laser scanning method as in this embodiment is preferable.
Further, in the method using a liquid crystal display (LCD) or a fluorescent display tube (VFD), a slight amount of light is also applied to the non-image portion in the display area where the virtual image G is displayed, so that it is completely blocked. Is difficult. Therefore, there is a demerit that the visibility of the front landscape of the host vehicle 301 through the non-image portion is poor. On the other hand, according to the laser scanning method as in the present embodiment, with respect to the non-image portion in the display area of the virtual image G, the laser light sources 201R, 201G, and 201B are turned off to irradiate the non-image portion with light. Can be completely blocked. Therefore, it is possible to avoid a situation where the visibility of the front landscape of the host vehicle 301 through the non-image portion is reduced by the light emitted from the automotive HUD device 200, and there is an advantage that the visibility of the front landscape is high.

更に、運転者に警告等を行うための警告画像の輝度を段階的に高めることで警告の度合いを強めるような場合、表示エリア700内に表示されている各種画像のうちの警告画像の輝度だけを段階的に高めるという表示制御が必要になる。このように表示エリア700内の一部画像について部分的に輝度を高めるような表示制御を行う場合も、レーザー走査方式が好適である。液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式では、表示エリア700内に表示されている警告画像以外の画像についても輝度が高まってしまい、警告画像とそれ以外の画像との間の輝度差を広げることができず、警告画像の輝度を段階的に高めることで警告の度合いを強めるという効果が十分に得られないからである。 Further, when the degree of warning is strengthened by gradually increasing the brightness of the warning image for warning the driver, only the brightness of the warning image among the various images displayed in the display area 700 is displayed. It is necessary to control the display by gradually increasing. The laser scanning method is also suitable when the display control is performed so as to partially increase the brightness of a partial image in the display area 700. In a method using a liquid crystal display (LCD), a fluorescent display tube (VFD), or the like, the brightness of images other than the warning image displayed in the display area 700 is increased, and the warning image and the other images are not displayed. This is because it is not possible to widen the difference in brightness between them, and it is not possible to sufficiently obtain the effect of strengthening the degree of warning by increasing the brightness of the warning image stepwise.

光走査装置208は、MEMS(Micro Electro Mechanical Systems)等の公知のアクチュエータ駆動システムでミラーを主走査方向及び副走査方向に傾斜動作させ、ミラーに入射するレーザー光を二次元走査(ラスタスキャン)する。ミラーの駆動制御は、レーザー光源201R,201G,201Bの発光タイミングに同期して行われる。光走査装置208は、本実施形態の構成に限らず、例えば、互いに直交する2つの軸回りをそれぞれ揺動あるいは回動する2つのミラーからなるミラー系で構成してもよい。 The optical scanning device 208 tilts the mirror in the main scanning direction and the sub-scanning direction by a known actuator driving system such as MEMS (Micro Electro Mechanical Systems) and two-dimensionally scans (raster scans) the laser light incident on the mirror. .. The drive control of the mirror is performed in synchronization with the light emission timing of the laser light sources 201R, 201G, and 201B. The optical scanning device 208 is not limited to the configuration of this embodiment, and may be configured by, for example, a mirror system including two mirrors that respectively swing or rotate about two axes orthogonal to each other.

図4は、本実施形態の自動車用HUD装置200における制御系のハードウェアブロック図である。
自動車用HUD装置200の制御系は、主に、FPGA251、CPU252、ROM253、RAM254、I/F255、バスライン256、LDドライバ257、MEMSコントローラー258を備えている。FPGA251は、LDドライバ257により、光源ユニット220のレーザー光源201R,201G,201Bを動作制御し、MEMSコントローラー258により、光走査装置208のMEMS208aを動作制御する。CPU252は、自動車用HUD装置200の各機能を制御する。ROM253は、CPU252が自動車用HUD装置200の各機能を制御するために実行する画像処理用プログラム等の各種プログラムを記憶している。RAM254はCPU252のワークエリアとして使用される。I/F255は、外部コントローラー等と通信するためのインターフェイスであり、例えば、自車両301のCAN(Controller Area Network)を介して、後述の物体認識装置100、車両ナビゲーション装置400、各種センサ500等に接続される。
FIG. 4 is a hardware block diagram of a control system in the automobile HUD device 200 of the present embodiment.
The control system of the automobile HUD device 200 mainly includes an FPGA 251, a CPU 252, a ROM 253, a RAM 254, an I/F 255, a bus line 256, an LD driver 257, and a MEMS controller 258. The FPGA 251 controls the operation of the laser light sources 201R, 201G, and 201B of the light source unit 220 by the LD driver 257, and controls the operation of the MEMS 208a of the optical scanning device 208 by the MEMS controller 258. The CPU 252 controls each function of the automotive HUD device 200. The ROM 253 stores various programs such as an image processing program executed by the CPU 252 to control each function of the automotive HUD device 200. The RAM 254 is used as a work area for the CPU 252. The I/F 255 is an interface for communicating with an external controller or the like, and for example, via a CAN (Controller Area Network) of the host vehicle 301, to an object recognition device 100, a vehicle navigation device 400, various sensors 500, and the like described later. Connected.

図5は、本実施形態における運転者情報提供システムの概略構成を示すブロック図である。
本実施形態においては、虚像Gによって運転者へ提供する運転者提供情報を取得する情報取得手段として、物体認識装置100、車両ナビゲーション装置400、センサ装置500などが設けられている。本実施形態における自動車用HUD装置200は、主に、画像光投射手段としてのHUD本体230と、表示制御手段としての画像制御装置250とから構成される。本実施形態における情報取得手段は自車両301に搭載されているが、自車両301の外部に設置されている情報取得手段を用いて当該情報取得手段が取得した情報を通信手段を介して入力する構成であってもよい。
FIG. 5 is a block diagram showing a schematic configuration of the driver information providing system in the present embodiment.
In the present embodiment, an object recognition device 100, a vehicle navigation device 400, a sensor device 500, etc. are provided as information acquisition means for acquiring the driver provision information provided to the driver by the virtual image G. The vehicle HUD device 200 in the present embodiment mainly includes a HUD main body 230 as an image light projection unit and an image control device 250 as a display control unit. The information acquisition means in the present embodiment is mounted on the host vehicle 301, but the information acquired by the information acquisition means is input via the communication means using the information acquisition means installed outside the host vehicle 301. It may be configured.

図6は、本実施形態における物体認識装置100のハードウェア構成を示す説明図である。
本実施形態の物体認識装置100は、自車両301の前方領域を撮像領域として撮像する撮像手段としてのステレオカメラ部110と、ステレオカメラ部110によって撮像した撮像画像データに基づいて撮像領域内に存在する所定の認識対象物を認識する画像処理を実行する画像処理手段としての情報処理部120とから構成されている。なお、ステレオカメラ部110に代えて、撮像手段としての単眼カメラと測距手段としてのレーザレーダ(ミリ波レーダ)とを組み合わせた構成を採用してもよい。
FIG. 6 is an explanatory diagram showing the hardware configuration of the object recognition device 100 in this embodiment.
The object recognition device 100 of the present embodiment is present in the imaging area based on the stereo camera unit 110 as an imaging unit for imaging the front area of the host vehicle 301 as the imaging area, and the captured image data captured by the stereo camera unit 110. The information processing unit 120 is an image processing unit that executes image processing for recognizing a predetermined recognition target object. Instead of the stereo camera unit 110, a configuration in which a monocular camera as an image pickup unit and a laser radar (millimeter wave radar) as a distance measuring unit are combined may be adopted.

ステレオカメラ部110は、左目用となる第1のカメラ部110Aと、右目用となる第2のカメラ部110Bとの、2台のカメラ部が平行に組みつけられて構成されている。各カメラ部110A,110Bは、それぞれレンズ115、画像センサ116、センサコントローラ117を備えている。画像センサ116は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)で構成されるイメージセンサを用いることができる。センサコントローラ117は、画像センサ116の露光制御、画像読み出し制御、外部回路との通信および画像データの送信制御等を行う。ステレオカメラ部110は、自車両301のフロントガラス302のルームミラー付近に設置される。 The stereo camera unit 110 is configured by assembling two camera units in parallel, a first camera unit 110A for the left eye and a second camera unit 110B for the right eye. Each of the camera units 110A and 110B includes a lens 115, an image sensor 116, and a sensor controller 117, respectively. As the image sensor 116, for example, an image sensor including a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) can be used. The sensor controller 117 controls exposure of the image sensor 116, image reading control, communication with an external circuit, transmission control of image data, and the like. The stereo camera unit 110 is installed near the rearview mirror of the windshield 302 of the vehicle 301.

情報処理部120は、データバスライン121、シリアルバスライン122、CPU(Central Processing Unit)123、FPGA(Field-Programmable Gate Array)124、ROM(Read Only Memory)125、RAM(Random Access Memory)126、シリアルIF(Interface)127、およびデータIF128を有している。 The information processing unit 120 includes a data bus line 121, a serial bus line 122, a CPU (Central Processing Unit) 123, an FPGA (Field-Programmable Gate Array) 124, a ROM (Read Only Memory) 125, a RAM (Random Access Memory) 126, and It has a serial IF (Interface) 127 and a data IF 128.

ステレオカメラ部110は、データバスライン121およびシリアルバスライン122を介して情報処理部120と接続されている。CPU123は、ステレオカメラ部110の各センサコントローラ117の制御、情報処理部120全体の動作、画像処理等を実行制御する。各カメラ部110A,110Bの画像センサ116で撮像された撮像画像の輝度画像データは、データバスライン121を介して情報処理部120のRAM126に書き込まれる。CPU123またはFPGA124からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン122を介して送受信される。 The stereo camera unit 110 is connected to the information processing unit 120 via a data bus line 121 and a serial bus line 122. The CPU 123 controls execution of each sensor controller 117 of the stereo camera unit 110, operation of the entire information processing unit 120, image processing, and the like. The brightness image data of the captured image captured by the image sensor 116 of each of the camera units 110A and 110B is written to the RAM 126 of the information processing unit 120 via the data bus line 121. Sensor exposure value change control data, image read parameter change control data, and various setting data from the CPU 123 or FPGA 124 are transmitted and received via the serial bus line 122.

FPGA124は、RAM126に保存された画像データに対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って、視差画像を生成し、RAM18に再度書き込む。ROM125には、車両や歩行者等の立体物、あるいは、路面上の白線等の車線境界線や路面側部に存在する縁石や中央分離帯などの所定の認識対象物を認識するための認識プログラムが記憶されている。認識プログラムは、画像処理プログラムの一例である。 The FPGA 124 performs processing requiring real-time processing on the image data stored in the RAM 126, for example, gamma correction, distortion correction (parallelization of left and right images), and parallax calculation by block matching to generate a parallax image, Rewrite to RAM 18. The ROM 125 includes a recognition program for recognizing a three-dimensional object such as a vehicle or a pedestrian, or a predetermined recognition target object such as a lane boundary line such as a white line on the road surface, a curb stone or a median strip existing on the side of the road surface. Is remembered. The recognition program is an example of an image processing program.

CPU123は、データIF128を介して、例えば自車両301のCANを介して、車速、加速度、舵角、ヨーレート等のCAN情報を、センサ装置500から取得する。そして、CPU123は、ROM125に記憶されている認識プログラムに従って、RAM126に記憶されている輝度画像および視差画像を用いて画像処理を実行し、例えば先行車両350や車線境界線等の認識対象物の認識を行う。 The CPU 123 acquires CAN information such as vehicle speed, acceleration, steering angle, yaw rate, etc. from the sensor device 500 via the data IF 128, for example, the CAN of the host vehicle 301. Then, the CPU 123 executes image processing using the luminance image and the parallax image stored in the RAM 126 according to the recognition program stored in the ROM 125, and recognizes a recognition target object such as the preceding vehicle 350 or a lane boundary line. I do.

認識対象物の認識結果データは、シリアルIF127を介して、例えば、画像制御装置250、車両走行制御ユニット等の外部機器へ供給される。車両走行制御ユニットは、認識対象物の認識結果データを用いて、自車両301のブレーキ制御、速度制御、ステアリング制御などを行い、例えば、予め設定された車間距離を維持するように自車両301を先行車両に自動追尾させるクルーズコントロールや、前方の障害物との衝突を回避、軽減するための自動ブレーキ制御などを実現する。 The recognition result data of the recognition target object is supplied to external devices such as the image control device 250 and the vehicle traveling control unit via the serial IF 127. The vehicle traveling control unit uses the recognition result data of the recognition target object to perform brake control, speed control, steering control, etc. of the host vehicle 301, and, for example, controls the host vehicle 301 so as to maintain a preset inter-vehicle distance. It realizes cruise control that automatically tracks the preceding vehicle and automatic brake control that avoids and reduces collisions with obstacles ahead.

本実施形態における車両ナビゲーション装置400は、自動車等に搭載される公知の車両ナビゲーション装置を広く利用することができる。車両ナビゲーション装置400からは、虚像Gに表示させるルートナビゲーション画像を生成するために必要な情報が出力され、この情報は画像制御装置250に入力される。例えば、図1に示すように、自車両301が走行している道路の車線(走行レーン)の数、次に進路変更(右折、左折、分岐等)すべき地点までの距離、次に進路変更する方向などの情報を示す画像が含まれている。これらの情報が車両ナビゲーション装置400から画像制御装置250に入力されることで、画像制御装置250の制御の下、自動車用HUD装置200によって、走行レーン指示画像711、進路指定画像721、残り距離画像722、交差点等名称画像723などのナビゲーション画像が、表示エリア700の上段表示領域Aや中段表示領域Bに表示される。 The vehicle navigation device 400 according to the present embodiment can widely use known vehicle navigation devices mounted on automobiles and the like. Information necessary for generating the route navigation image displayed on the virtual image G is output from the vehicle navigation device 400, and this information is input to the image control device 250. For example, as shown in FIG. 1, the number of lanes (driving lanes) of the road on which the vehicle 301 is traveling, the distance to a point where the course should be changed next (turn right, turn left, branch, etc.), and the course change next. An image showing information such as a direction to do is included. By inputting these pieces of information from the vehicle navigation device 400 to the image control device 250, the traveling lane instruction image 711, the route designation image 721, and the remaining distance image are controlled by the automobile HUD device 200 under the control of the image control device 250. Navigation images such as 722 and name images 723 such as intersections are displayed in the upper display area A and the middle display area B of the display area 700.

また、図1に示した画像例では、表示エリア700の下段表示領域Cに、道路の固有情報(道路名、制限速度等)を示す画像が表示される。この道路の固有情報も、車両ナビゲーション装置400から画像制御装置250に入力される。画像制御装置250は、当該道路固有情報に対応する道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等を、自動車用HUD装置200によって表示エリア700の下段表示領域Cに表示させる。 Further, in the image example shown in FIG. 1, an image showing the unique information of the road (road name, speed limit, etc.) is displayed in the lower display area C of the display area 700. The unique information of this road is also input from the vehicle navigation device 400 to the image control device 250. The image control device 250 displays the road name display image 701, the speed limit display image 702, the overtaking prohibition display image 703, etc. corresponding to the road specific information in the lower display area C of the display area 700 by the automotive HUD device 200. ..

本実施形態におけるセンサ装置500は、自車両301の挙動、自車両301の状態、自車両301の周囲の状況などを示す各種情報を検出するための1又は2以上のセンサで構成されている。センサ装置500からは、虚像Gとして表示させる画像を生成するために必要なセンシング情報が出力され、このセンシング情報は画像制御装置250に入力される。例えば、図1に示した画像例には、自車両301の車速を示す車速表示画像704(図1では「83km/h」という文字画像)を、表示エリア700の下段表示領域Cに表示させる。そのため、自車両301のCAN情報に含まれる車速情報がセンサ装置500から画像制御装置250に入力され、画像制御装置250の制御の下、自動車用HUD装置200によって当該車速を示す文字画像が表示エリア700の下段表示領域Cに表示される。 The sensor device 500 according to the present embodiment includes one or more sensors for detecting various information indicating the behavior of the host vehicle 301, the state of the host vehicle 301, the situation around the host vehicle 301, and the like. The sensor device 500 outputs sensing information necessary for generating an image to be displayed as the virtual image G, and this sensing information is input to the image control device 250. For example, in the image example shown in FIG. 1, a vehicle speed display image 704 (a character image “83 km/h” in FIG. 1) indicating the vehicle speed of the host vehicle 301 is displayed in the lower display area C of the display area 700. Therefore, the vehicle speed information included in the CAN information of the host vehicle 301 is input from the sensor device 500 to the image control device 250, and under the control of the image control device 250, the vehicle HUD device 200 displays a character image indicating the vehicle speed. It is displayed in the lower display area C of 700.

センサ装置500は、自車両301の車速を検出するセンサ以外にも、例えば、自車両301の周囲(前方、側方、後方)に存在する他車両、歩行者、建造物(ガードレールや電柱等)との距離を検出するレーザーレーダー装置や撮像装置、自車両の外部環境情報(外気温、明るさ、天候等)を検出するためのセンサ、運転者300の運転動作(ブレーキ走査、アクセル開閉度等)を検出するためのセンサ、自車両301の燃料タンク内の燃料残量を検出するためのセンサ、エンジンやバッテリー等の各種車載機器の状態を検出するセンサなどが挙げられる。このような情報をセンサ装置500で検出して画像制御装置250へ送ることで、それらの情報を虚像Gとして自動車用HUD装置200により表示して運転者300へ提供することができる。 The sensor device 500 is, for example, a sensor other than the sensor that detects the vehicle speed of the host vehicle 301, and is, for example, another vehicle existing around the host vehicle 301 (front, side, or rear), a pedestrian, a building (guardrail, telephone pole, or the like). A laser radar device or an imaging device for detecting the distance to the vehicle, a sensor for detecting external environment information (outside temperature, brightness, weather, etc.) of the vehicle, a driving operation of the driver 300 (brake scanning, accelerator opening/closing degree, etc.) ), a sensor for detecting the remaining amount of fuel in the fuel tank of the host vehicle 301, a sensor for detecting the states of various in-vehicle devices such as an engine and a battery, and the like. By detecting such information with the sensor device 500 and sending it to the image control device 250, it is possible to display the information as a virtual image G on the automotive HUD device 200 and provide it to the driver 300.

図7は、画像制御装置250の主要なハードウェアを示すハードウェアブロック図である。
画像制御装置250は、CPU251、RAM252、ROM253、入力用データIF254、および出力用データIF255が、データバスラインによって互いに接続されている。入力用データIF254には、物体認識装置100から出力される各種認識結果データ、センサ装置500から出力されるセンシング情報、車両ナビゲーション装置400から出力される各種情報などが入力される。出力用データIF255からは、自動車用HUD装置200の制御信号等が出力される。CPU251は、ROM253等に記憶されている情報提供用制御プログラムなどの各種コンピュータプログラムを実行して、画像制御装置250に後述する各種制御や各種処理を行わせる。
FIG. 7 is a hardware block diagram showing the main hardware of the image control device 250.
In the image control device 250, a CPU 251, a RAM 252, a ROM 253, an input data IF 254, and an output data IF 255 are connected to each other by a data bus line. Various recognition result data output from the object recognition device 100, sensing information output from the sensor device 500, various information output from the vehicle navigation device 400, and the like are input to the input data IF 254. From the output data IF 255, a control signal or the like for the HUD device 200 for an automobile is output. The CPU 251 executes various computer programs such as an information providing control program stored in the ROM 253 and the like, and causes the image control device 250 to perform various controls and various processes described below.

次に、自動車用HUD装置200によって表示される虚像Gについて説明する。
本実施形態における自動車用HUD装置200において、虚像Gによって運転者へ提供する運転者提供情報は、運転者にとって有用な情報であればどのような情報であってもよい。本実施形態では、運転者提供情報を受動情報と能動情報とに大別している。
Next, the virtual image G displayed by the automobile HUD device 200 will be described.
In the vehicle HUD device 200 according to the present embodiment, the driver-provided information provided to the driver by the virtual image G may be any information that is useful for the driver. In this embodiment, the driver-provided information is roughly classified into passive information and active information.

受動情報とは、所定の情報提供条件が満たされたタイミングで運転者によって受動的に認知される情報である。したがって、自動車用HUD装置200の設定タイミングで運転者へ提供される情報は受動情報に含まれ、また、情報が提供されるタイミングと情報の内容との間に一定の関係性をもつ情報が受動情報に含まれる。受動情報としては、例えば、運転時の安全性に関わる情報、ルートナビゲーション情報などが挙げられる。運転時の安全性に関わる情報としては、例えば、自車両301と先行車両350との車間距離情報(車間距離提示画像712)、運転に関わる緊急性のある情報(運転者に緊急操作を指示する緊急操作指示情報などの警告情報あるいは注意喚起情報等)などが挙げられる。また、ルートナビゲーション情報は、予め設定された目的地までの走行ルートを案内するための情報であり、公知の車両ナビゲーション装置によって運転者へ提供されるものである。ルートナビゲーション情報としては、直近の交差点で走行すべき走行レーンを指示する走行レーン指示情報(走行レーン指示画像711)や、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報などが挙げられる。進路変更操作指示情報としては、具体的には、当該交差点等においていずれの進路をとるべきかの進路指定を行う進路指定情報(進路指定画像721)、その進路変更操作を行う交差点等までの残り距離情報(残り距離画像722)、当該交差点等の名称情報(交差点等名称画像723)などが挙げられる。 The passive information is information that is passively recognized by the driver at the timing when a predetermined information providing condition is satisfied. Therefore, the information provided to the driver at the setting timing of the automobile HUD device 200 is included in the passive information, and the information having a certain relationship between the timing when the information is provided and the content of the information is passive. Included in the information. Examples of the passive information include information related to safety during driving, route navigation information, and the like. As information related to safety during driving, for example, vehicle-to-vehicle distance information between the own vehicle 301 and the preceding vehicle 350 (vehicle-to-vehicle distance presentation image 712), urgent information related to driving (instruct the driver to perform an emergency operation). Warning information such as emergency operation instruction information or warning information). The route navigation information is information for guiding a preset traveling route to a destination, and is provided to the driver by a known vehicle navigation device. The route navigation information includes travel lane instruction information (travel lane instruction image 711) for instructing a travel lane to be traveled at the nearest intersection, and a course change operation at an intersection or a branch point where the course should be changed from the next straight direction. Examples include route change operation instruction information to be instructed. As the route change operation instruction information, specifically, the route designation information (route designation image 721) for designating the route to be taken at the intersection or the like, and the rest up to the intersection or the like for performing the route change operation. Examples include distance information (remaining distance image 722), name information of the intersection and the like (intersection name image 723), and the like.

能動情報とは、運転者自らが決めるタイミングで運転者によって能動的に認知される情報である。能動情報は、運転者の希望するタイミングで運転者へ提供されれば十分な情報であり、例えば、情報が提供されるタイミングと情報の内容との間の関係性が低い又は無いような情報は、能動情報に含まれる。能動情報は、運転者の希望するタイミングで運転者が取得する情報であることから、ある程度の長い期間あるいは常時、表示され続けるような情報である。例えば、自車両301が走行している道路の固有情報、自車両301の車速情報(車速表示画像704)、現在時刻情報などが挙げられる。道路の固有情報としては、例えば、その道路名情報(道路名表示画像701)、その道路の制限速度等の規制内容情報(制限速度表示画像702、追い越し禁止表示画像703)、その他当該道路に関わる情報として運転者にとって有用なものが挙げられる。 The active information is information that is actively recognized by the driver at a timing determined by the driver himself. The active information is sufficient information if it is provided to the driver at the timing desired by the driver.For example, information that has a low or no relationship between the timing at which the information is provided and the content of the information is available. , Included in active information. The active information is information that is acquired by the driver at the timing desired by the driver, and is thus information that is continuously displayed for a certain long period or at all times. For example, specific information of the road on which the host vehicle 301 is traveling, vehicle speed information of the host vehicle 301 (vehicle speed display image 704), current time information, and the like can be given. The specific information of the road includes, for example, road name information (road name display image 701), restriction content information such as speed limit of the road (speed limit display image 702, overtaking prohibition display image 703), and other related roads. The information includes information useful to the driver.

本実施形態では、このようにして大別される受動情報と能動情報を、虚像Gを表示可能な表示エリア700内のそれぞれ対応する表示領域に表示させる。具体的には、本実施形態では、表示エリア700を上下方向に3つの表示領域に区分し、そのうちの上段表示領域Aと中段表示領域Bには受動情報に対応する受動情報画像を表示し、下段表示領域Cには能動情報に対応する能動情報画像を表示する。なお、能動情報画像の一部を上段表示領域Aや中段表示領域Bに表示させてもよいが、その場合には上段表示領域Aや中段表示領域Bに表示される受動情報画像の視認性を優先するように能動情報画像を表示する。 In the present embodiment, the passive information and the active information thus roughly classified are displayed in the corresponding display areas in the display area 700 capable of displaying the virtual image G. Specifically, in the present embodiment, the display area 700 is vertically divided into three display areas, and the passive information image corresponding to the passive information is displayed in the upper display area A and the middle display area B among them. In the lower display area C, an active information image corresponding to active information is displayed. Although a part of the active information image may be displayed in the upper display area A or the middle display area B, in that case, the visibility of the passive information image displayed in the upper display area A or the middle display area B may be improved. The active information image is displayed with priority.

本実施形態の受動情報には、ルートナビゲーション情報等のように運転者300への操作指示内容を示す操作指示情報が含まれる。このような操作指示情報を運転者へ提供する場合、通常、直近の操作指示内容を示す操作指示画像だけでなく、その後の操作指示内容を示す操作指示画像も併せて表示させることが、運転者の不安(その後はどのような操作を行うことになるのかが不明であることによる不安)を解消できる点で好ましい。図1に示す例においても、直近の交差点で走行すべき走行レーンを指示する走行レーン指示画像711と一緒に、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示画像721,722,723が表示されている。 The passive information of the present embodiment includes operation instruction information indicating operation instruction contents to the driver 300, such as route navigation information. When such operation instruction information is provided to the driver, normally, not only the operation instruction image showing the latest operation instruction content but also the operation instruction image showing the subsequent operation instruction content is displayed together. It is preferable in that it can eliminate the anxiety (because it is unclear what operation will be performed thereafter). Also in the example shown in FIG. 1, together with the traveling lane instruction image 711 that indicates the traveling lane to be traveled at the nearest intersection, the route changing operation is instructed at the intersection or branch point where the route should be changed next from the straight traveling direction. The route change operation instruction images 721, 722, 723 are displayed.

このように、操作順序が異なる複数の操作指示画像、すなわち、走行レーン指示画像711と進路変更操作指示画像721,722,723とを、表示エリア700内に同時期に表示させる場合、各操作指示画像が示す操作指示内容の操作順序を運転者が迷ってしまうような事態をできるだけ回避することが望まれる。 In this way, when a plurality of operation instruction images with different operation sequences, that is, the traveling lane instruction image 711 and the course change operation instruction images 721, 722, 723 are displayed in the display area 700 at the same time, each operation instruction image is displayed. It is desirable to avoid as much as possible a situation in which the driver is confused about the operation sequence of the operation instruction content shown in the image.

そこで、本実施形態においては、操作順序が異なる複数の操作指示画像を、運転者に操作させる操作順序が後になる操作指示画像ほど、表示エリア700内の上側に表示されるように画像表示制御を行っている。すなわち、走行レーン指示画像711よりも操作順序が後になる進路変更操作指示画像721,722,723を、当該走行レーン指示画像711よりも上側に表示させている。これにより、走行レーン指示画像711の操作指示内容と進路変更操作指示画像721,722,723の操作指示内容について、運転者が操作順序を迷ってしまうような事態を回避することができる。これは、次の理由による。 Therefore, in the present embodiment, image display control is performed so that a plurality of operation instruction images with different operation orders are displayed on the upper side in the display area 700 as the operation instruction image with which the driver operates the later operation instruction images. Is going. That is, the route change operation instruction images 721, 722, 723 whose operation sequence comes later than the traveling lane instruction image 711 are displayed above the traveling lane instruction image 711. As a result, it is possible to avoid a situation in which the driver is confused about the operation sequence regarding the operation instruction content of the traveling lane instruction image 711 and the operation instruction content of the route change operation instruction images 721, 722, 723. This is for the following reason.

運転中の運転者300は、通常、進行する自車両301の前方に位置する物体は時間の経過により現在位置に向かって近づいてくるという距離の観念を持っている。一方、運転者300は、未来の出来事は時間の経過により現在時刻に向かって近づいてくるという時間の観念も持っている。進行する自車両301の前方に存在する物体は、自車両301までの距離が近いほど自車両301の位置に到達するまでの時間が早く、自車両301までの距離が遠いほど自車両301の位置に到達までの時間が遅い。そのため、進行する自車両301から前方へ遠く離れた物体は、遠い未来の出来事との間で認知の親和性が高く、進行する自車両301の前方近くに位置する物体は、より近い未来の出来事との間で認知の親和性が高い。 The driver 300 who is driving normally has a concept of distance in which an object located in front of the traveling own vehicle 301 approaches the present position over time. On the other hand, the driver 300 also has the idea of time in which future events will approach the current time as time passes. An object existing in front of the traveling own vehicle 301 has a shorter time to reach the position of the own vehicle 301 as the distance to the own vehicle 301 is shorter, and a position of the own vehicle 301 as the distance to the own vehicle 301 is farther. It takes a long time to reach. Therefore, an object far away from the traveling own vehicle 301 in front has a high cognitive affinity with a far future event, and an object located near the front of the traveling own vehicle 301 has a closer future event. Has a high cognitive affinity with.

この親和性を考慮し、進行する自車両301から前方へ遠く離れた物体が視認される位置に重なるように、遠い未来の操作指示画像(操作順序が後になる操作指示内容を示す操作指示画像、すなわち、進路変更操作指示画像721,722,723)を表示させ、進行する自車両301の前方近くに位置する物体が視認される位置に重なるように、より近い未来(現在を含む。)の操作指示画像(操作順序が先になる操作指示内容を示す操作指示画像、すなわち、走行レーン指示画像711)を表示させれば、これらの操作指示内容の操作順序を運転者に直感的に認知させることができる。 In consideration of this affinity, an operation instruction image of a distant future (an operation instruction image showing operation instruction contents whose operation sequence is later, so that it overlaps with a position where an object far away from the traveling own vehicle 301 is visually recognized, That is, the route change operation instruction images 721, 722, 723) are displayed, and the operation in the closer future (including the present) is performed so that the object located near the front of the traveling vehicle 301 is overlapped with the visible position. By displaying an instruction image (an operation instruction image indicating the operation instruction content that comes first in the operation order, that is, the traveling lane instruction image 711), the driver can intuitively recognize the operation order of these operation instruction content. You can

ここで、運転中の運転者300は、上述したとおり、自車両前方の無限遠点を注視しているか、数十m先を走行している先行車両350の背面を注視しているのが通常であり、その注視点は、おおよそ、フロントガラス302から見える前方風景の鉛直方向中央近辺である。本実施形態においては、操作順序が異なる走行レーン指示画像711と進路変更操作指示画像721,722,723とが表示される表示エリア700を、フロントガラス302から見える前方風景の下部に位置決めしている。よって、走行レーン指示画像711と進路変更操作指示画像721,722,723とは、運転者300の注視点よりも下側で、前方風景に重なるように表示されることになる。運転者300の注視点よりも下側の前方風景部分は、自車両301から遠い地点の物体ほど上側で視認され、自車両301に近い地点の物体ほど下側で視認される。 Here, as described above, the driver 300 who is driving is usually gazing at the infinity point in front of the own vehicle or gazing at the back surface of the preceding vehicle 350 traveling several tens of meters ahead. The gazing point is approximately in the vertical center of the front view seen from the windshield 302. In the present embodiment, the display area 700 in which the traveling lane instruction image 711 and the route change operation instruction images 721, 722, 723 having different operation sequences are displayed is positioned at the lower part of the front landscape seen from the windshield 302. .. Therefore, the traveling lane instruction image 711 and the route change operation instruction images 721, 722, 723 are displayed below the gazing point of the driver 300 so as to overlap the front scenery. The forward scenery portion below the gazing point of the driver 300 is viewed as an upper portion for an object located farther from the host vehicle 301 and is viewed as a lower portion for an object located closer to the host vehicle 301.

よって、本実施形態においては、走行レーン指示画像711よりも操作順序が後になる進路変更操作指示画像721,722,723を、当該走行レーン指示画像711よりも上側に表示させている。具体的には、進行する自車両301から前方へ遠く離れた物体の視認位置に重なる表示エリア700の上段表示領域Aに、操作順序が後になる進路変更操作指示画像721,722,723を表示させ、進行する自車両301の前方近くに位置する物体の視認位置に重なる表示エリア700の中段表示領域Bに、操作順序が先になる走行レーン指示画像711を表示させている。これにより、上述した認知の親和性の高さから、これらの操作指示内容の操作順序を運転者に直感的に認知させることができ、運転者が操作順序を迷ってしまうような事態を回避することができる。 Therefore, in the present embodiment, the route change operation instruction images 721, 722, 723 whose operation sequence comes later than the traveling lane instruction image 711 are displayed above the traveling lane instruction image 711. Specifically, in the upper display area A of the display area 700 that overlaps with the visual recognition position of the object far away from the traveling vehicle 301, the route change operation instruction images 721, 722, 723 whose operation sequence is later displayed are displayed. In the middle display area B of the display area 700 that overlaps with the visual recognition position of an object located near the front of the traveling own vehicle 301, a traveling lane instruction image 711 having an earlier operation sequence is displayed. This allows the driver to intuitively recognize the operation order of these operation instruction contents due to the high degree of recognition affinity described above, and avoids a situation where the driver gets lost in the operation order. be able to.

なお、逆に、この認知の親和性を考慮せずに、例えば、走行レーン指示画像711と進路変更操作指示画像721,722,723の表示位置を、本実施形態とは上下逆の位置にしたり、横並びにしたりすると、運転者は、上述した距離の観念及び時間の観念が邪魔して、その操作順序を直感的に認知することが困難となる。 On the contrary, for example, the display positions of the traveling lane instruction image 711 and the course change operation instruction images 721, 722, 723 may be set upside down in the present embodiment without considering the affinity of the recognition. If the drivers are placed side by side, the idea of distance and the idea of time described above hinder the driver from intuitively recognizing the operation sequence.

また、この認知の親和性を利用し、本実施形態では、操作順序が同じ操作指示内容に関わる複数の操作指示画像については横並びに配置するようにしている。具体的には、上段表示領域Aに表示される3つの進路変更操作指示画像721,722,723については、いずれも、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報を示すものであるため、上段表示領域A内に横並びで配置している。上述した距離の観念及び時間の観念によれば、同じ上下方向位置に横並びに配置された3つの進路変更操作指示画像721,722,723は、同じ時期の操作指示内容に関する情報であることうを直感的に認知しやすい。よって、進路変更操作指示画像721,722,723の情報を適切に認識することができる。 Further, by utilizing this recognition affinity, in the present embodiment, a plurality of operation instruction images related to the operation instruction contents having the same operation order are arranged side by side. Specifically, for each of the three route change operation instruction images 721, 722, 723 displayed in the upper display area A, the route change operation at the intersection or branch point where the route should be changed next from the straight direction is performed. Since it indicates the route change operation instruction information to be instructed, it is arranged side by side in the upper display area A. According to the concept of distance and the concept of time described above, the three course changing operation instruction images 721, 722, 723 arranged side by side at the same vertical position are information regarding the operation instruction content at the same time. Easy to recognize intuitively. Therefore, the information of the route change operation instruction images 721, 722, 723 can be appropriately recognized.

また、本実施形態においては、表示エリア700に表示される虚像Gとして、立体視を用いて表現された立体視画像を用いている。具体的には、表示エリア700の中段表示領域Bに表示される車間距離提示画像712及び走行レーン指示画像711として、遠近法により表現される遠近法画像を用いている。 Further, in the present embodiment, as the virtual image G displayed in the display area 700, a stereoscopic image represented using stereoscopic vision is used. Specifically, the perspective image represented by the perspective method is used as the inter-vehicle distance presentation image 712 and the traveling lane instruction image 711 displayed in the middle display area B of the display area 700.

詳しくは、車間距離提示画像712を構成する5本の横線の長さを上側に向かうほど短くなるようにして、車間距離提示画像712を1つの消失点に向かうように透視図法により作図された遠近法画像としている。特に、本実施形態では、その消失点が運転者の注視点近傍に定まるように車間距離提示画像712が表示されることから、運転中の運転者300に車間距離提示画像712の奥行き感を知覚させやすい。また、本実施形態では、更に、横線の太さが上側に向かうほど細くしたり、横線の輝度が上側に向かうほど低くなったりするようにした遠近法画像としている。これによって、運転中の運転者300には、車間距離提示画像712の奥行き感を更に知覚させやすくなる。 In detail, the perspectives drawn by perspective drawing are such that the lengths of the five horizontal lines forming the inter-vehicle distance presentation image 712 become shorter toward the upper side, and the inter-vehicle distance presentation image 712 goes to one vanishing point. It is a legal image. In particular, in the present embodiment, the inter-vehicle distance presentation image 712 is displayed so that its vanishing point is set near the gazing point of the driver, so that the driver 300 who is driving perceives the sense of depth of the inter-vehicle distance presentation image 712. Easy to make. Further, in this embodiment, the perspective image is such that the thickness of the horizontal line becomes thinner toward the upper side and the brightness of the horizontal line becomes lower toward the upper side. This makes it easier for the driver 300 who is driving to perceive the depth of the inter-vehicle distance presentation image 712.

このような立体視画像を利用して表示エリア700に表示される虚像Gに奥行き感を出すことで、表示エリア700に表示される画像の上下方向位置と前方風景内の物体までの距離との関連性を運転者が知覚しやすくなる。その結果、上述した認知の親和性がより得られやすくなり、表示エリア700の中段表示領域Bに表示される走行レーン指示画像711の操作指示内容の方が、表示エリア700の上段表示領域Aに表示される進路変更操作指示画像721,722,723よりも先に操作すべき内容であることを、運転者は直感的に認識しやすくなる。 By giving a sense of depth to the virtual image G displayed in the display area 700 by using such a stereoscopic image, the vertical position of the image displayed in the display area 700 and the distance to the object in the front landscape are determined. It becomes easier for the driver to perceive the relevance. As a result, the above-described cognitive affinity is more easily obtained, and the operation instruction content of the driving lane instruction image 711 displayed in the middle display area B of the display area 700 is displayed in the upper display area A of the display area 700. It becomes easier for the driver to intuitively recognize that the contents should be operated before the displayed route change operation instruction images 721, 722, 723.

また、走行レーン指示画像711についても、車間距離提示画像712と同様、車間距離提示画像712の消失点と同様の地点が消失点となるように透視図法により作図されている。ただし、走行レーン指示画像711は、運転者へ操作指示内容を提供するという側面を有する。そのため、より奥行き感を出すことよりも、走行レーン指示画像711の操作指示内容がより明確に運転者へ提供されることを優先する場合には、例えば、走行レーン指示画像711を構成する3つの矢印画像を、その矢印の先端に向かうにつれて輝度が高くなるようにしてもよい。レーザー走査方式は、他の方式に比して、画像領域ごとの輝度調整が容易であり、そのため、輝度の低い領域と高い領域のコントラストを大きくつけることができる。よって、上述のように矢印の先端の輝度を高めて運転者への情報提供を明確に行う場合に有効となる。この場合、走行レーン指示画像711は上側に向かうほど輝度が低くなってしまうため、上側に向かうほど輝度を低くする方が奥行き感を出しやすいことから、奥行き感を高めることはできないが、矢印先端の輝度を高めることで、矢印の向きの視認性が高まり、走行レーン指示画像711の操作指示内容をより明確に運転者へ提供することが可能となる。なお、この場合であっても、走行レーン指示画像711が透視図法により作図されていることから、奥行き感が大きく損なわれるようなことはない。 Similarly to the inter-vehicle distance presentation image 712, the traveling lane instruction image 711 is also drawn by the perspective drawing so that the same point as the vanishing point of the inter-vehicle distance presentation image 712 becomes the vanishing point. However, the driving lane instruction image 711 has an aspect of providing the driver with operation instruction content. Therefore, when giving priority to more clearly providing the driver with the operation instruction content of the traveling lane instruction image 711 rather than giving a more sense of depth, for example, the three lanes constituting the traveling lane instruction image 711 are set. The brightness of the arrow image may be increased toward the tip of the arrow. In the laser scanning method, the brightness adjustment for each image area is easier than in other methods, and therefore the contrast between the low brightness area and the high brightness area can be increased. Therefore, as described above, it is effective when the brightness of the tip of the arrow is increased and information is clearly provided to the driver. In this case, since the brightness of the traveling lane instruction image 711 becomes lower toward the upper side, it is easier to give a feeling of depth by decreasing the brightness toward the upper side. By increasing the brightness of the arrow, the visibility of the direction of the arrow is enhanced, and the operation instruction content of the traveling lane instruction image 711 can be more clearly provided to the driver. Even in this case, since the driving lane instruction image 711 is drawn by the perspective drawing method, the sense of depth is not significantly impaired.

次に、運動視差を利用して虚像Gまでの距離を知覚させて距離感や奥行き感を出す方法について説明する。
本実施形態では、虚像Gとして、運動視差により表現される運動視差画像を用いている。運動視差とは、運転者300の目の位置(視点位置)が移動することによって生じる視差を意味する。運動視差による距離感、奥行き感は、運転者300の目の位置が移動するときに、前方風景内における近い物体ほど大きく動き、遠い物体ほど動きが少ないように視認される動きのズレから、運転者300が各物体までの距離感、奥行き感を知覚するものである。
Next, a method of making a sense of distance and a sense of depth by making the distance to the virtual image G perceive by using motion parallax will be described.
In this embodiment, a motion parallax image represented by motion parallax is used as the virtual image G. The motion parallax means a parallax caused by the movement of the driver's 300 eye position (viewpoint position). When the eyes of the driver 300 move, the sense of distance and the sense of depth due to the motion parallax is recognized as a shift in movement that is recognized such that the closer an object in the front scene is, the larger the object moves, and the far the object is, the less the object moves. The person 300 perceives a sense of distance and a sense of depth to each object.

本実施形態では、図2に示したように、運転者300の目の位置(視点位置)を観測する視点位置検知手段としての運転者カメラ150が自車両301のフロントガラス302のルームミラー付近に設置されている。運転者カメラ150の設置位置は、運転者300の上下左右の動きを精度よく取得するため、運転席に座る運転者300の正中線に近くであるのが好ましい。ただし、運転者300の視界を遮らないように、例えば上方の位置に配置するのが好ましい。 In the present embodiment, as shown in FIG. 2, the driver camera 150 as a viewpoint position detecting means for observing the position of the eyes (viewpoint position) of the driver 300 is provided near the rearview mirror of the windshield 302 of the host vehicle 301. is set up. It is preferable that the driver camera 150 is installed near the midline of the driver 300 sitting in the driver's seat in order to accurately acquire the vertical and horizontal movements of the driver 300. However, it is preferable that the driver 300 is arranged at an upper position so as not to obstruct the view of the driver 300.

運転者カメラ150は、運転席に座る運転者300が運転中に頭部を動かすことが想定される範囲を撮像領域として撮像するように設定されている単眼カメラであり、ステレオカメラ部110の各カメラ部110A,110Bと同様、レンズ、画像センサ、センサコントローラ等から構成されている。運転者カメラ150として、ステレオカメラを用い、運転者の目の位置の前後方向位置も把握するようにしてもよい。 The driver camera 150 is a monocular camera that is set so as to capture an image of a range in which the driver 300 sitting in the driver's seat is expected to move his/her head while driving, and each of the stereo camera units 110. Similar to the camera units 110A and 110B, it is composed of a lens, an image sensor, a sensor controller, and the like. A stereo camera may be used as the driver camera 150, and the position of the driver's eyes in the front-rear direction may be grasped.

運転者カメラ150で撮像された撮像画像の輝度画像データは、画像制御装置250に入力される。画像制御装置250は、CPU251がROM253等に記憶されている情報提供用制御プログラムを実行することにより、運転者カメラ150からの輝度画像データに基づき、運転者300の目の位置を認識する。本実施形態では、簡易的に、運転者カメラ150からの輝度画像データに基づいて運転者300の頭部位置を認識し、その認識結果から運転者300の目の位置を推定する。運転者300の頭部位置の認識方法は、一般的な認識処理方法を広く採用することができる。 The luminance image data of the captured image captured by the driver camera 150 is input to the image control device 250. The image control device 250 recognizes the position of the eyes of the driver 300 based on the brightness image data from the driver camera 150 by the CPU 251 executing the information providing control program stored in the ROM 253 or the like. In the present embodiment, the head position of the driver 300 is simply recognized based on the brightness image data from the driver camera 150, and the eye position of the driver 300 is estimated from the recognition result. As a method of recognizing the head position of the driver 300, a general recognition processing method can be widely adopted.

図8は、本実施形態における運動視差によって奥行き感を出した虚像Gの画像処理方法を説明するための説明図である。
図8に示すように、運転者300の頭部がDdだけ移動した場合、運転者300から近い距離Laに位置する物体Oaの視認位置はDaだけ移動し、運転者300から遠い距離Lbに位置する物体Obの視認位置はDaよりも少ないDbだけ移動し、運転者300から更に遠い距離Lcに位置する物体Ocの視認位置はDbよりも更に少ないDcだけ移動する。これらの物体Oa,Ob,Oc間における視認位置の移動量Da,Db,Dcの違いにより、運転者300は、物体Oaが距離Laだけ離れた位置に存在し、物体Obが距離Lbだけ離れた位置に存在し、物体Ocが距離Lcだけ離れた位置に存在することを知覚することができる。
FIG. 8 is an explanatory diagram for describing the image processing method of the virtual image G having a sense of depth due to the motion parallax in the present embodiment.
As shown in FIG. 8, when the head of the driver 300 moves by Dd, the visual recognition position of the object Oa located at a distance La close to the driver 300 moves by Da and moves at a distance Lb far from the driver 300. The visual recognition position of the object Ob to be moved moves by Db smaller than Da, and the visual recognition position of the object Ob located at a distance Lc farther from the driver 300 moves by Dc smaller than Db. Due to the difference in the movement amount Da, Db, Dc of the visual recognition position among these objects Oa, Ob, Oc, the driver 300 is present at the position where the object Oa is separated by the distance La and the object Ob is separated by the distance Lb. It can be perceived that the object Oc exists at a position and the object Oc exists at a position separated by the distance Lc.

本実施形態における虚像Gは、運転者300から距離5mの位置に表示されるものであり、虚像G上におけるいずれの画像部分も、運転者300から距離5mの位置に表示される。本実施形態では、上述した運動視差を用いることによって、虚像G上における複数の画像部分を互いに異なる距離に表示されているかのように、運転者300へ知覚させるものである。 The virtual image G in the present embodiment is displayed at a position at a distance of 5 m from the driver 300, and any image portion on the virtual image G is displayed at a position at a distance of 5 m from the driver 300. In the present embodiment, by using the above-described motion parallax, the driver 300 is made to perceive as if the plurality of image portions on the virtual image G are displayed at different distances from each other.

具体的には、画像制御装置250は、所定の時間間隔で、運転者カメラ150で撮像された撮像画像の輝度画像データに基づいて運転者300の頭部位置を認識する。そして、画像制御装置250は、当該時間間隔の間に運転者300の頭部が移動した運転者頭部移動量Ddを算出する。このとき、距離5mに表示される虚像Gの視認位置は、Daだけ移動することになる。 Specifically, the image control device 250 recognizes the head position of the driver 300 at predetermined time intervals based on the brightness image data of the captured image captured by the driver camera 150. Then, the image control device 250 calculates a driver head movement amount Dd in which the head of the driver 300 has moved during the time interval. At this time, the visual recognition position of the virtual image G displayed at a distance of 5 m moves by Da.

本実施形態では、下段表示領域Cに表示される画像部分は、表示エリア700内の表示位置が固定されている。そのため、下段表示領域Cに表示される画像部分の視認位置は、虚像Gの移動量と同じ移動量Daだけ移動する。よって、下段表示領域Cに表示される画像部分は、距離La(5m)に表示されているように運転者300に知覚されることになる。 In the present embodiment, the image portion displayed in the lower display area C has a fixed display position in the display area 700. Therefore, the visible position of the image portion displayed in the lower display area C moves by the same movement amount Da as the movement amount of the virtual image G. Therefore, the image portion displayed in the lower display area C is perceived by the driver 300 as if it is displayed at the distance La (5 m).

一方、画像制御装置250は、算出した運転者頭部移動量Ddに応じて、虚像Gの表示エリア700のうちの中段表示領域Bに表示される画像部分については、表示エリア700内を運転者の頭部移動方向とは逆方向へDa−Dbだけ移動させる。これにより、中段表示領域Bに表示される画像部分については、運転者300から見た視認位置が移動量Dbだけ移動するものになる。その結果、中段表示領域Bに表示される画像部分は、距離Lbに表示されているように運転者300に知覚されることになる。 On the other hand, the image control device 250 moves the driver within the display area 700 for the image portion displayed in the middle display area B of the display area 700 of the virtual image G according to the calculated driver head movement amount Dd. Only Da-Db is moved in the direction opposite to the head moving direction. As a result, with respect to the image portion displayed in the middle display area B, the visual recognition position seen from the driver 300 moves by the movement amount Db. As a result, the image portion displayed in the middle display area B is perceived by the driver 300 as if it is displayed at the distance Lb.

同様に、画像制御装置250は、算出した運転者頭部移動量Ddに応じて、虚像Gの表示エリア700のうちの上段表示領域Aに表示される画像部分については、表示エリア700内を運転者の頭部移動方向とは逆方向へDa−Dcだけ移動させる。これにより、上段表示領域Aに表示される画像部分については、運転者300から見た視認位置が移動量Dcだけ移動するものになる。その結果、上段表示領域Aに表示される画像部分は、距離Lcに表示されているように運転者300に知覚されることになる。 Similarly, the image control device 250 drives the display area 700 for the image portion displayed in the upper display area A of the display area 700 of the virtual image G according to the calculated driver head movement amount Dd. The head is moved by Da-Dc in the opposite direction. As a result, for the image portion displayed in the upper display area A, the visual recognition position seen by the driver 300 moves by the movement amount Dc. As a result, the image portion displayed in the upper display area A is perceived by the driver 300 as if it is displayed at the distance Lc.

以上のようにして、運転者頭部移動量Ddに応じて上段表示領域A及び中段表示領域Bに表示される画像部分の視認位置の移動量Db,Dcを制御しながら虚像Gを投影することにより、運転者300は、下段表示領域Cの画像部分(道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等)よりも遠い位置に中段表示領域Bの画像部分(走行レーン指示画像711、車間距離提示画像712等)が表示され、中段表示領域Bの画像部分よりも更に遠い位置に上段表示領域Aの画像部分(進路変更操作指示画像721,722,723等)が表示されているように知覚する。このように、同じ距離に表示される虚像G上の画像部分を、異なる距離に表示されているかのように運転者300に知覚させることができるので、虚像Gの奥行き感を出すことができる。 As described above, the virtual image G is projected while controlling the movement amounts Db and Dc of the visual recognition positions of the image portions displayed in the upper display area A and the middle display area B according to the driver head movement amount Dd. As a result, the driver 300 determines that the image portion of the middle display area B (the driving lane instruction) is located at a position farther than the image portions of the lower display area C (road name display image 701, speed limit display image 702, overtaking prohibition display image 703, etc.). An image 711, an inter-vehicle distance presentation image 712, etc. are displayed, and an image portion of the upper display area A (route change operation instruction images 721, 722, 723, etc.) is displayed at a position farther than the image portion of the middle display area B. Perceive as In this way, the image portion on the virtual image G displayed at the same distance can be perceived by the driver 300 as if they are displayed at different distances, so that the virtual image G can have a sense of depth.

特に、本実施形態では、中段表示領域Bの画像部分を上下方向へ複数区分し、運転者頭部移動量Ddに応じて区分ごとに移動量を異ならせることにより、中段表示領域B内の上側に位置する画像部分ほど遠くに表示されるように知覚させている。これにより、中段表示領域Bに表示される車間距離提示画像712及び走行レーン指示画像711について、遠近法による表現だけでなく、運動視差も利用する結果、更に奥行き間を出すことができる。 In particular, in the present embodiment, the image portion of the middle display area B is divided into a plurality of parts in the vertical direction, and the movement amount is changed for each division according to the driver's head movement amount Dd. It is perceived that the image portion located at is displayed farther away. As a result, the inter-vehicle distance presentation image 712 and the traveling lane instruction image 711 displayed in the middle display area B are not only represented by the perspective method but also the motion parallax is used.

図9は、直近の交差点で進路変更する状況の画像例を示す説明図である。
直近の交差点で進路変更する状況になったら、図1に示す画像例から、図9に示すような画像例に切り替わる。すなわち、中段表示領域Bに表示されていた走行レーン指示画像711に代えて、図1に示す画像例で上段表示領域Aに表示されていた進路指定画像721と同様の進路指定画像717を、中段表示領域Bに表示させる。これは、直近よりも後の操作指示内容が、直近の操作指示内容になったためである。これにより、運転者300は、次の交差点や分岐点で中段表示領域Bに表示された進路指定画像721の操作指示内容に従って操作すればよいことを認識することができる。
FIG. 9 is an explanatory diagram illustrating an image example of a situation where the course is changed at the latest intersection.
When the situation is such that the course is changed at the latest intersection, the image example shown in FIG. 1 is switched to the image example shown in FIG. That is, instead of the traveling lane instruction image 711 displayed in the middle display area B, a route designation image 717 similar to the route designation image 721 displayed in the upper display area A in the image example shown in FIG. Display in the display area B. This is because the operation instruction content after the latest operation content has become the latest operation instruction content. Thereby, the driver 300 can recognize that the driver should operate according to the operation instruction content of the route designation image 721 displayed in the middle display area B at the next intersection or branch point.

また、図9に示す画像例では、図1に示す画像例で上段表示領域Aに表示されていた進路指定画像721の位置に、中段表示領域Bに表示される進路指定画像717に運転者300の視線を誘導するための下向きマーク画像725を表示させる。これにより、運転者300に、中段表示領域Bに表示される進路指定画像717を認識させやすくなる。 Further, in the image example shown in FIG. 9, the driver 300 is displayed in the route designation image 717 displayed in the middle display region B at the position of the route designation image 721 displayed in the upper display region A in the image example shown in FIG. The downward mark image 725 for guiding the line of sight of is displayed. This facilitates the driver 300 to recognize the route designation image 717 displayed in the middle display area B.

次に、先行車両350との車間距離が狭まっていることを示す前車接近情報を運転者へ知らせるための車間距離提示画像712や先行車両画像724の表示制御について説明する。
本実施形態においては、前記物体認識装置100や前記センサ装置500等の距離検出手段によって先行車両350との車間距離を認識する。そして、画像制御装置250は、その認識結果データ(前方間隔情報)を受け取り、この認識結果データに基づいて、上段表示領域Bに表示される先行車両画像724や中段表示領域Bに表示される車間距離提示画像712について、表示エリア700内の表示位置、輝度、色彩、画像形状等を変更する画像表示制御を実行する。本実施形態では、車間距離提示画像712や先行車両画像724の変化によって、これを視認する運転者300に対し、先行車両350との車間距離がどの程度狭まっているのかを知らせる。
Next, display control of the inter-vehicle distance presentation image 712 and the preceding vehicle image 724 for notifying the driver of front vehicle approach information indicating that the inter-vehicle distance to the preceding vehicle 350 is narrowed will be described.
In the present embodiment, the inter-vehicle distance from the preceding vehicle 350 is recognized by the distance detection means such as the object recognition device 100 and the sensor device 500. Then, the image control device 250 receives the recognition result data (forward distance information), and based on the recognition result data, the preceding vehicle image 724 displayed in the upper display area B and the inter-vehicle distance displayed in the middle display area B. With respect to the distance presentation image 712, image display control is executed to change the display position, brightness, color, image shape, etc. in the display area 700. In the present embodiment, the change in the inter-vehicle distance presentation image 712 and the preceding vehicle image 724 informs the driver 300 who visually recognizes the inter-vehicle distance presentation image 712 and the preceding vehicle 350 how narrow the inter-vehicle distance is.

〔画像例1〕
図10(a)〜(e)は、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例(以下、本画像例を「画像例1」という。)を示す説明図である。
なお、本画像例1では、車両ナビゲーション装置400に目的地を設定しておらず、ルートナビゲーション情報に係る操作指示画像が表示されていないが、ルートナビゲーション情報に係る操作指示画像を表示する場合でも、同様である。
[Image example 1]
FIGS. 10A to 10E show image examples (hereinafter, this image example is referred to as “image example 1”) in which the image indicating the front vehicle approach information changes in accordance with the inter-vehicle distance from the preceding vehicle 350. FIG.
In this image example 1, the destination is not set in the vehicle navigation device 400, and the operation instruction image related to the route navigation information is not displayed. However, even when the operation instruction image related to the route navigation information is displayed. , Is the same.

本画像例1において、先行車両350が認識されない場合、画像制御装置250は、図10(a)に示すように、中段表示領域B内に、上側に向かうほど長さが短くかつ輝度が低くなる5本の横線からなる全体的に低輝度の車間距離提示画像712を表示させる。このとき、上段表示領域A内には何も表示されない。 In the present image example 1, when the preceding vehicle 350 is not recognized, the image control device 250 has a shorter length and a lower brightness in the middle display area B as it goes upward, as shown in FIG. An inter-vehicle distance presentation image 712, which is composed of five horizontal lines and has a low luminance as a whole, is displayed. At this time, nothing is displayed in the upper display area A.

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲を超えるほど空いている場合には、画像制御装置250は、図10(b)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度を高める表示制御を実施する。更に、本画像例1では、車間距離提示画像712の一番下の横線画像に代えて、線の太さを太くし、かつ、その両端を下方外側に向けて延伸させた自車両バンパー画像712aに形状変更させる表示制御を実施する。この自車両バンパー画像は、自車両301のフロントバンパーを運転者300に想起させるものである。 Further, when the preceding vehicle 350 is recognized and the inter-vehicle distance to the preceding vehicle 350 is so vacant as to exceed the predetermined safety distance range, the image control device 250 causes the image control device 250 to move to the middle stage as shown in FIG. Display control is performed to increase the brightness of the inter-vehicle distance presentation image 712 displayed in the display area B. Further, in the present image example 1, instead of the horizontal line image at the bottom of the inter-vehicle distance presentation image 712, the thickness of the line is made thicker, and both ends of the vehicle bumper image 712a are extended downward toward the outside. Display control is performed to change the shape. This own vehicle bumper image reminds the driver 300 of the front bumper of the own vehicle 301.

更に、本画像例1では、更に、図10(b)に示すように、上段表示領域A内に車両背面を模した低輝度の先行車両画像724を表示させる。この先行車両画像724は、運転視差によって、上段表示領域A内に表示される他の画像と同じ知覚距離(Lc)に表示されているように運転者300に知覚されるように、表示制御される。 Furthermore, in the present image example 1, as shown in FIG. 10B, the preceding vehicle image 724 with a low brightness simulating the vehicle rear surface is displayed in the upper display area A. The preceding vehicle image 724 is display-controlled so that it is perceived by the driver 300 as being displayed at the same perceived distance (Lc) as the other images displayed in the upper display area A due to the driving parallax. It

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲内である場合、画像制御装置250は、図10(c)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度と、上段表示領域A内に表示されている先行車両画像724の輝度とを、図10(b)の場合よりも高める表示制御を実施する。更に、本画像例1では、下から2番目の横線画像を自車両バンパー画像712aに変更する表示制御も実施する。これにより、図10(b)の場合よりも、自車両バンパー画像712aが先行車両画像724に近づいた表現となり、運転者300に対し、自車両301が図10(b)の場合よりも先行車両350に近づいたことを認識させることができる。 When the preceding vehicle 350 is recognized and the inter-vehicle distance from the preceding vehicle 350 is within the predetermined safety distance range, the image control device 250 displays the middle display area B as shown in FIG. 10C. Display control is performed to increase the brightness of the displayed inter-vehicle distance presentation image 712 and the brightness of the preceding vehicle image 724 displayed in the upper display area A as compared with the case of FIG. 10B. Further, in the present image example 1, display control for changing the second horizontal line image from the bottom to the own vehicle bumper image 712a is also executed. As a result, the own vehicle bumper image 712a is closer to the preceding vehicle image 724 than in the case of FIG. 10(b), and the driver's own vehicle 301 is presented to the driver 300 more than the preceding vehicle image of FIG. 10(b). It is possible to recognize that the user has approached 350.

更に、本画像例1では、図10(c)に示す先行車両画像724について、運転視差によって、上段表示領域A内に表示される他の画像よりも近い知覚距離Le1(Lb<Le1<Lc)に表示されているように運転者300に知覚されるように、表示制御される。これにより、運転者は、図10(b)の場合よりも先行車両画像724が近づいてきたように知覚するので、運転者300に対し、自車両301が図10(b)の場合よりも先行車両350に近づいたことを更に強く認識させることができる。 Further, in the present image example 1, the perceived distance Le1 (Lb<Le1<Lc) of the preceding vehicle image 724 shown in FIG. 10C is closer than the other images displayed in the upper display area A due to the driving parallax. The display is controlled so that the driver 300 perceives it as shown in FIG. As a result, the driver perceives that the preceding vehicle image 724 is closer than in the case of FIG. 10B, and thus the driver's vehicle 301 is ahead of the driver 300 as compared with the case of FIG. 10B. It is possible to further strongly recognize that the vehicle 350 is approaching.

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲よりも近づいたが、所定の要ブレーキ距離よりは遠い場合、画像制御装置250は、図10(d)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度と上段表示領域A内に表示されている先行車両画像724の輝度とを、図10(c)の画像例よりも高める表示制御を実施する。更に、本画像例1では、下から3番目の横線画像を自車両バンパー画像712aに変更する表示制御も実施する。これにより、図10(c)の場合よりも、自車両バンパー画像712aが先行車両画像724に更に近づいた表現となり、運転者300に対し、自車両301が図10(c)の場合よりも先行車両350に更に近づいたことを認識させることができる。 Further, when the preceding vehicle 350 is recognized and the inter-vehicle distance to the preceding vehicle 350 is closer than the predetermined safety distance range, but is longer than the predetermined required braking distance, the image control device 250, the image control device 250, FIG. 10C, the brightness of the inter-vehicle distance presentation image 712 displayed in the middle display area B and the brightness of the preceding vehicle image 724 displayed in the upper display area A are shown in FIG. The display control is performed to be higher than that. Further, in the present image example 1, display control for changing the third horizontal line image from the bottom to the own vehicle bumper image 712a is also performed. As a result, the own vehicle bumper image 712a is closer to the preceding vehicle image 724 than in the case of FIG. 10C, and the driver's vehicle 301 is ahead of the case of FIG. 10C with respect to the driver 300. It can be recognized that the vehicle 350 has come closer.

更に、本画像例1では、図10(d)に示す先行車両画像724について、運転視差によって、上段表示領域A内に表示される他の画像よりも更に近い知覚距離Le2(Lb<Le2<Le1)に表示されているように運転者300に知覚されるように、表示制御される。これにより、運転者は、図10(c)の場合よりも先行車両画像724が近づいてきたように知覚するので、運転者300に対し、自車両301が図10(c)の場合よりも先行車両350に更に近づいたことを更に強く認識させることができる。 Further, in the present image example 1, the perceived distance Le2 (Lb<Le2<Le1) of the preceding vehicle image 724 shown in FIG. 10D is further closer than the other images displayed in the upper display area A due to the driving parallax. The display is controlled so that the driver 300 perceives it as displayed in (). As a result, the driver perceives that the preceding vehicle image 724 is closer than in the case of FIG. 10C, and therefore the driver's vehicle 301 is ahead of the driver 300 of FIG. 10C. It is possible to further strongly recognize that the vehicle 350 is getting closer.

また、先行車両350が認識され、その先行車両350との車間距離が所定の要ブレーキ距離範囲内まで狭まった場合、画像制御装置250は、図10(e)に示すように、中段表示領域B内に表示されている車間距離提示画像712を、赤色の略台形状中に「ブレーキ!」の文字画像を描いたブレーキ警告画像714に変更する表示制御を実施する。このとき、上段表示領域A内に表示されている先行車両画像724の輝度を落としたり、画像塗りつぶしを止めたりして、先行車両画像724の視認性を低下させることにより、ブレーキ警告画像714がより目立つようにするのが好ましい。なお、ブレーキ警告画像が目立つように、上段表示領域A内の先行車両画像724を非表示にしてもよい。このとき、レーザー走査方式であれば、非画像部分の光を完全に遮断することができるので、よりブレーキ警告画像を目立たせることができ、警告効果を高めることができる。 In addition, when the preceding vehicle 350 is recognized and the inter-vehicle distance from the preceding vehicle 350 is narrowed to within the predetermined braking distance range, the image control device 250 causes the middle display area B to be displayed as shown in FIG. Display control is performed to change the inter-vehicle distance presentation image 712 displayed therein to a brake warning image 714 in which a character image of "brake!" is drawn in a substantially red trapezoidal shape. At this time, by reducing the brightness of the preceding vehicle image 724 displayed in the upper display area A or stopping the image filling to reduce the visibility of the preceding vehicle image 724, the brake warning image 714 becomes more visible. It is preferable to make it conspicuous. The leading vehicle image 724 in the upper display area A may be hidden so that the brake warning image is conspicuous. At this time, if the laser scanning method is used, the light in the non-image portion can be completely blocked, so that the brake warning image can be made more noticeable and the warning effect can be enhanced.

なお、上述した所定の安全距離や所定の要ブレーキ距離は、予め決められた固定距離であってもよいが、自車両301の車速等に応じて変動する距離であってもよい。 The predetermined safety distance and the predetermined required braking distance described above may be fixed distances determined in advance, or may be distances that vary according to the vehicle speed of the host vehicle 301 or the like.

〔画像例2〕
先行車両350との車間距離が狭くなったことを運転者300に気付かせる表現方法としては、上述した画像例1に限らず、例えば、図11(a)及び(b)に示すような画像例(以下、本画像例を「画像例2」という。)が挙げられる。
[Image example 2]
The expression method of notifying the driver 300 that the inter-vehicle distance from the preceding vehicle 350 has become narrow is not limited to the image example 1 described above, and, for example, image examples as shown in FIGS. 11A and 11B. (Hereinafter, this image example will be referred to as “image example 2”).

本画像例2も、図10(a)〜(e)に示した画像例1と同様に、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例である。詳しくは、本画像例2の車間距離提示画像715は、上述した画像例1における車間距離提示画像712の5本の横線に代えて、消失点に向かうように透視図法により作図された台形画像を上下方向に4つに区分したものを用いている。そして、上述した画像例1では、先行車両350との距離が狭まるにつれて自車両バンパー画像712aが先行車両画像724へ近づくように上方へ移動するのと同様、本画像例2では、先行車両350との距離が狭まるにつれて高輝度な台形区分715aが先行車両画像724へ近づくように上方へ移動する。なお、図11(a)の画像は、図10(d)に示す画像に対応しており、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲よりも近づいたが、所定の要ブレーキ距離よりは遠い場合の例である。 Similar to the image example 1 shown in FIGS. 10A to 10E, the present image example 2 is also an image example in which the image indicating the front vehicle approach information changes according to the inter-vehicle distance from the preceding vehicle 350. More specifically, the inter-vehicle distance presentation image 715 of the present image example 2 is a trapezoidal image drawn by the perspective drawing so as to face the vanishing point, instead of the five horizontal lines of the inter-vehicle distance presentation image 712 of the above-mentioned image example 1. It is divided into four parts in the vertical direction. Then, in the image example 1 described above, similarly to the case where the host vehicle bumper image 712a moves upward so as to approach the preceding vehicle image 724 as the distance from the preceding vehicle 350 decreases, in the present image example 2, The trapezoidal section 715a having high brightness moves upward so as to approach the preceding vehicle image 724 as the distance becomes smaller. The image in FIG. 11A corresponds to the image in FIG. 10D, the preceding vehicle 350 is recognized, and the inter-vehicle distance to the preceding vehicle 350 is closer than the predetermined safety distance range. Is an example of a case where the distance is longer than a predetermined required braking distance.

ここで、本画像例2では、車両ナビゲーション装置400に目的地が設定され、ルートナビゲーション情報に係る操作指示画像が表示される。そのため、先行車両350が認識されない状況においては、図1に示した例のように、上段表示領域Aの左右方向中央付近(消失点の近く)に進路指定画像721が表示され、その両側に残り距離画像722と交差点等名称画像723とがそれぞれ表示される。 Here, in the present image example 2, the destination is set in the vehicle navigation device 400, and the operation instruction image related to the route navigation information is displayed. Therefore, in the situation where the preceding vehicle 350 is not recognized, as in the example shown in FIG. 1, the route designation image 721 is displayed near the center in the left-right direction of the upper display area A (near the vanishing point), and remains on both sides thereof. A distance image 722 and an intersection name image 723 are displayed respectively.

このような状況から、先行車両350が認識され、上段表示領域A内に先行車両画像724を表示させる場合、上段表示領域Aから進路変更操作指示画像721,722,723をすべて非表示にすることも考えられる。しかしながら、この場合、進路変更操作指示画像721,722,723による操作指示内容(操作順序が後の操作指示内容)が運転者300へ提供されなくなり、運転者300に不安を与えるおそれがある。 In this situation, when the preceding vehicle 350 is recognized and the preceding vehicle image 724 is displayed in the upper display area A, all the route changing operation instruction images 721, 722, 723 are hidden from the upper display area A. Can also be considered. However, in this case, the operation instruction content (the operation instruction content later in the operation sequence) by the route change operation instruction images 721, 722, and 723 is not provided to the driver 300, and the driver 300 may be anxious.

一方、上段表示領域A内に表示されていた進路変更操作指示画像721,722,723を、上段表示領域Aとは異なる表示領域へ移動させて表示を継続する場合、運転者は、移動後の進路変更操作指示画像721,722,723を探すのに時間を要するなど、進路変更操作指示画像721,722,723による操作指示内容を運転者300へ的確に提供できないおそれがある。 On the other hand, when moving the course change operation instruction images 721, 722, 723 displayed in the upper display area A to a display area different from the upper display area A and continuing the display, the driver is It may take a long time to search for the route change operation instruction images 721, 722, 723, and the operation instruction contents by the route change operation instruction images 721, 722, 723 may not be provided to the driver 300 accurately.

本画像例2によれば、進路変更操作指示画像721,722,723が表示されている上段表示領域A内に先行車両画像724を表示させる場合でも、進路変更操作指示画像721,722,723を上段表示領域A内に表示させ続ける。よって、上段表示領域A内に先行車両画像724を表示させる場合でも、進路変更操作指示画像721,722,723による操作指示内容を運転者300へ的確に提供することができる。 According to this image example 2, even when the preceding vehicle image 724 is displayed in the upper display area A in which the route change operation instruction images 721, 722, 723 are displayed, the route change operation instruction images 721, 722, 723 are displayed. The display is continued in the upper display area A. Therefore, even when the preceding vehicle image 724 is displayed in the upper display area A, the operation instruction content by the route change operation instruction images 721, 722, 723 can be accurately provided to the driver 300.

なお、進路変更操作指示画像721,722,723が表示されている上段表示領域A内に先行車両画像724を表示させる場合、進路変更操作指示画像721,722,723のすべてを上段表示領域A内に継続表示させる必要はなく、例えば、交差点等名称画像723だけは非表示にするなどしてもよい。 When the preceding vehicle image 724 is displayed in the upper display area A where the route change operation instruction images 721, 722, 723 are displayed, all of the route change operation instruction images 721, 722, 723 are displayed in the upper display area A. Need not be displayed continuously, and for example, only the name image 723 such as the intersection may be hidden.

また、本画像例2では、先行車両350との車間距離が所定の要ブレーキ距離範囲内まで近づいた場合、画像制御装置250は、図11(b)に示すように、上段表示領域Aと中段表示領域Bとをまたがったブレーキ警告画像716を表示させる。このブレーキ警告画像716は、上段表示領域A内に表示される先行車両画像724を拡大した赤色の画像と本画像例2の車間距離提示画像715の全台形区分を赤色で表示した画像とを組み合わせたものである。しかも、本画像例2では、ブレーキ警告画像716をより目立たせるため、進路変更操作指示画像721,722,723のすべてを非表示にしている。 Further, in the present image example 2, when the inter-vehicle distance from the preceding vehicle 350 approaches within a predetermined braking distance range, the image control device 250 causes the upper display area A and the middle display as shown in FIG. 11B. A brake warning image 716 that straddles the display area B is displayed. This brake warning image 716 is a combination of a red image obtained by enlarging the preceding vehicle image 724 displayed in the upper display area A and an image in which all the trapezoidal sections of the inter-vehicle distance presentation image 715 of this image example 2 are displayed in red. It is a thing. Moreover, in this image example 2, in order to make the brake warning image 716 more noticeable, all of the course changing operation instruction images 721, 722, 723 are hidden.

〔画像例3〕
先行車両350との車間距離が狭くなったことを運転者300に気付かせる表現方法としては、例えば、図12(a)〜(b)に示すような画像例(以下、本画像例を「画像例3」という。)が挙げられる。
本画像例3も、上述した画像例1や画像例2と同様に、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例である。詳しくは、本画像例3における前車接近情報を示す画像としては、車両背面を模した先行車両画像724や車間距離提示画像712等に代えて、単純な図形(本画像例3では円形)で構成される単純図形画像713を用いている。そして、本画像例3では、先行車両350との距離が狭まるにつれて、単純図形画像713との知覚距離が狭まるような表示制御を行う。
[Image example 3]
As an expression method for notifying the driver 300 that the inter-vehicle distance from the preceding vehicle 350 has become narrower, for example, an image example as shown in FIGS. Example 3”).
Similar to the image example 1 and the image example 2 described above, the present image example 3 is also an image example in which the image indicating the front vehicle approach information changes according to the inter-vehicle distance from the preceding vehicle 350. Specifically, as the image showing the front vehicle approach information in the third image example, a simple figure (circle in the third image example 3) is used instead of the preceding vehicle image 724 simulating the vehicle rear surface, the inter-vehicle distance presentation image 712, and the like. The constructed simple graphic image 713 is used. Then, in the present image example 3, display control is performed such that the perceived distance from the simple graphic image 713 becomes narrower as the distance to the preceding vehicle 350 becomes shorter.

具体的には、先行車両350との距離が狭まるにつれて、図12(a)〜(c)に示すように、単純図形画像713が拡大するように表示制御したり、単純図形画像713の輝度が高まるように表示制御したりする。特に、本画像例3では、先行車両350との距離が狭まるにつれて、単純図形画像713の運動視差による知覚距離が短くなるように表示制御を実施している。 Specifically, as the distance from the preceding vehicle 350 is narrowed, as shown in FIGS. 12A to 12C, the display control is performed such that the simple graphic image 713 is enlarged, or the brightness of the simple graphic image 713 is increased. The display is controlled to increase. Particularly, in the third image example, the display control is performed such that the perceived distance due to the motion parallax of the simple graphic image 713 becomes shorter as the distance to the preceding vehicle 350 becomes shorter.

すなわち、単純図形画像713を含む虚像Gは、運転者300から距離5mの位置に表示されるものであるが、先行車両350との距離が離れている図12(a)の場合には、表示領域Aの知覚距離Lcと同じ又はこれに近い知覚距離(例えば10m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した10m程度になるように、表示制御する。 That is, the virtual image G including the simple graphic image 713 is displayed at a position 5 m away from the driver 300, but in the case of FIG. 12A where the distance from the preceding vehicle 350 is large, the virtual image G is displayed. The display control is performed so that the perceptual distance Lc of the area A is the same as or close to the perceptual distance Lc (for example, 10 m). Specifically, the image control device 250 simply displays the virtual image G in the middle display area B of the display area 700 according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 in the display area 700, display control is performed so that the perceived distance of the simple graphic image 713 becomes about 10 m described above.

また、先行車両350との距離が図12(a)の場合よりも近づいた図12(b)の場合、図12(a)の場合の知覚距離よりも近い知覚距離(例えば7m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した7m程度になるように、表示制御する。 Further, in the case of FIG. 12B in which the distance to the preceding vehicle 350 is closer than in the case of FIG. 12A, the perceptual distance (for example, 7 m) is closer than the perceptual distance in the case of FIG. 12A. Display control is performed. Specifically, the image control device 250 simply displays the virtual image G in the middle display area B of the display area 700 according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 in the display area 700, display control is performed so that the perceived distance of the simple graphic image 713 becomes about 7 m described above.

同様に、先行車両350との距離が図12(b)の場合よりも更に近づいた図12(c)の場合、図12(b)の場合の知覚距離よりも近い知覚距離(例えば4m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した4m程度になるように、表示制御する。なお、この知覚距離(4m)は、虚像Gの距離(5m)よりも近い距離となっているが、これも上述した表示制御により実現可能である。 Similarly, in the case of FIG. 12C in which the distance from the preceding vehicle 350 is closer than in the case of FIG. 12B, the perceptual distance (for example, 4 m) closer than the perceptual distance in the case of FIG. The display control is performed so that Specifically, the image control device 250 simply displays the virtual image G in the middle display area B of the display area 700 according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 in the display area 700, display control is performed so that the perceived distance of the simple graphic image 713 becomes about 4 m described above. The perceptual distance (4 m) is shorter than the virtual image G distance (5 m), but this can also be realized by the display control described above.

〔画像例4〕
次に、直近の交差点で進路変更する状況を示す他の画像例(以下、本画像例を「画像例4」という。)について、説明する。
直近の交差点で進路変更する状況になったら、上述した実施形態では図9に示した画像例を用いて運転者300にどの交差点でどの方向へ進路変更するかの情報を提供しているが、本画像例4では、図13(a)〜(c)に示す画像例を用いる。
[Image example 4]
Next, another image example (hereinafter, this image example is referred to as “image example 4”) showing a situation where the course is changed at the nearest intersection will be described.
When it becomes a situation of changing the course at the latest intersection, the above-described embodiment uses the image example shown in FIG. 9 to provide the driver 300 with information about which intersection to change the course to. In this image example 4, the image examples shown in FIGS. 13A to 13C are used.

本画像例4では、フロントガラス302を介して運転者に視認される実際の交差点に重なるように、進路指定画像717が表示エリア700内に表示される。図9に示した画像例では、当該進路変更操作を行う交差点等までの残り距離を示す受動情報としての残り距離情報を、その残り距離を数値画像で示す残り距離画像722で運転者300に提供している。これに対し、本画像例4では、残り距離情報に応じて進路指定画像717の知覚距離を変更することにより、進路指定画像717の知覚距離によって当該進路変更操作を行う交差点等までの残り距離の情報を運転者300に提供する。 In the present image example 4, the route designation image 717 is displayed in the display area 700 so as to overlap the actual intersection visually recognized by the driver through the windshield 302. In the image example shown in FIG. 9, the remaining distance information as passive information indicating the remaining distance to the intersection or the like where the route change operation is performed is provided to the driver 300 by the remaining distance image 722 indicating the remaining distance as a numerical image. doing. On the other hand, in the present image example 4, by changing the perceptual distance of the route designation image 717 in accordance with the remaining distance information, the perceived distance of the route designation image 717 indicates the remaining distance to the intersection or the like at which the route change operation is performed. The information is provided to the driver 300.

具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される進路指定画像717の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が実際の交差点までの距離と一致するように表示制御する。実際の交差点までの距離は、例えば車両ナビゲーション装置400から取得することができる。 Specifically, the image control device 250, according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150, the path displayed in the middle display area B of the display area 700 of the virtual image G. By changing the position of the designated image 717 in the display area 700, display control is performed so that the perceived distance of the simple graphic image 713 matches the distance to the actual intersection. The actual distance to the intersection can be obtained from the vehicle navigation device 400, for example.

なお、必ずしも単純図形画像713の知覚距離と実際の交差点までの距離とを一致させる必要はなく、単純図形画像713の知覚距離を徐々に狭めることにより実際の交差点までの距離が近づいていることを運転者に認識させることができればよい。 It is not always necessary to match the perceived distance of the simple graphic image 713 with the distance to the actual intersection, but it is possible to reduce the perceived distance of the simple graphic image 713 by gradually reducing the distance to the actual intersection. It is sufficient if the driver can recognize it.

〔画像例5〕
また、自車両301が走行している道路の交通の禁止、制限、指定に関する情報のうち、特に運転者300に提供することが好まれる情報を、警告画像として、中段表示領域Bに表示するようにしてもよい。例えば、図14に示す画像例(以下、本画像例を「画像例5」という。)のように、自車両301が走行している道路が通学路である場合に、その旨を示す通学路警告画像718を中段表示領域Bに表示させる。具体的には、画像制御装置250は、車両ナビゲーション装置400から出力される各種情報等から、自車両301が走行している道路の固有情報を取得し、取得した道路固有情報が中段表示領域Bに表示させる対象情報である場合には、その道路固有情報に対応する警告画像を中段表示領域Bに表示させる表示制御を行う。
[Image example 5]
Further, among the information regarding the prohibition, restriction, and designation of traffic on the road on which the vehicle 301 is traveling, information that is particularly preferable to be provided to the driver 300 is displayed in the middle display area B as a warning image. You may For example, when the road on which the vehicle 301 is traveling is a school road, as in the image example shown in FIG. 14 (hereinafter, this image example is referred to as “image example 5”), the school road indicating that fact is shown. The warning image 718 is displayed in the middle display area B. Specifically, the image control device 250 acquires unique information of the road on which the vehicle 301 is traveling from various information output from the vehicle navigation device 400, and the acquired unique road information is displayed in the middle display area B. If it is the target information to be displayed on the display, the display control is performed to display the warning image corresponding to the road specific information in the middle display area B.

中段表示領域Bは、上述したように、複数の操作指示内容のうち先に操作すべき操作指示内容を示す操作指示画像が表示される領域である。そのため、本画像例5のように、この中段表示領域Bに警告画像を表示させることで、運転者は、自車両301が現在走行している道路が当該警告画像による交通の禁止、制限、指定がなされていることを直感的に認識することができる。 As described above, the middle display area B is an area in which the operation instruction image indicating the operation instruction content to be operated first among the plurality of operation instruction content is displayed. Therefore, by displaying a warning image in the middle display area B as in the present image example 5, the driver prohibits, limits, or specifies traffic on the road on which the host vehicle 301 is currently traveling according to the warning image. You can intuitively recognize that

〔画像例6〕
また、自車両301の進行方向における横断歩道を渡ろうとしている人間を検出した場合、その警告画像を中段表示領域Bに表示するようにしてもよい。人間は車両にとって最も注意すべき対象の一つであり、直近対応すべき存在だからである。例えば、図15に示す画像例(以下、本画像例を「画像例6」という。)のように、人型警告画像719を中段表示領域Bに表示させる。具体的には、画像制御装置250は、前記物体認識装置100や前記センサ装置500によって自車両前方の人間を認識する。そして、画像制御装置250は、その認識結果データを受け取り、この認識結果データに基づいて中段表示領域Bに人型警告画像719を表示させる表示制御を行う。なお、本画像例6では、上述した画像例5における通学路警告画像718も併せて表示されている例となっている。なお、車両以外、例えば船舶に本実施形態の情報提供装置が搭載される場合、人間に代えて自船舶の周辺の他船舶等の表示を行い得る。
[Image example 6]
In addition, when a person trying to cross a pedestrian crossing in the traveling direction of the vehicle 301 is detected, the warning image may be displayed in the middle display area B. This is because human beings are one of the most important targets for vehicles and must be dealt with most recently. For example, like the image example shown in FIG. 15 (hereinafter, this image example is referred to as “image example 6”), the humanoid warning image 719 is displayed in the middle display area B. Specifically, the image control device 250 recognizes a person in front of the own vehicle by the object recognition device 100 and the sensor device 500. Then, the image control device 250 receives the recognition result data and performs display control for displaying the humanoid warning image 719 in the middle display area B based on the recognition result data. In this image example 6, the school road warning image 718 in the above-described image example 5 is also displayed. When the information providing device according to the present embodiment is mounted on a ship other than the vehicle, for example, it is possible to display other ships around the own ship instead of humans.

以上に説明したものは一例であり、次の態様毎に特有の効果を奏する。
(態様A)
自車両301等の移動体の運転者300に提供する運転者提供情報を示す運転者提供情報画像を、フロントガラス302等の光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリア700に表示させるように、該光透過部材へ画像光を投射するHUD本体230等の画像光投射手段を備えた自動車用HUD装置200等の情報提供装置であって、当該移動体の周囲に存在する先行車両350等の検出対象物の移動体進行方向相対距離を検出する物体認識装置100等の距離検出手段と、前記運転者の視点位置を検知する運転者カメラ150等の視点位置検知手段と、前記視点位置検知手段の検知結果に応じて前記検出対象物を示す先行車両画像724等の対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離が前記距離検出手段が検出した該検出対象物の移動体進行方向相対距離に応じて変化するように、前記画像光投射手段を制御する画像制御装置250等の表示制御手段とを有することを特徴とする。
画像光投射手段で投射する画像によって、移動体周囲に存在する物体の自車両に対する相対的な動きの情報(周囲物体情報)を運転者に提供することは、有益である。例えば、移動体周囲の視界不良等により移動体周囲の物体を運転者が直接視認しにくい状況である場合、HUD装置を用いて表示される当該物体に対応する物体表示画像により、このような周囲物体情報を運転者に提供できれば、より安全に運転することが可能である。また、運転者が直接視認しにくい状況である場合に限らず、運転者の注意不足等により見落としがちな物体の動きに関する周囲物体情報を運転者に提供できれば、より安全に運転することが可能である。しかも、このようにして周囲物体情報を運転者に提供しようとするとき、移動体に対する物体の相対的な動きに応じて当該物体表示画像の奥行き位置が変化するように運転者に知覚させることが、周囲物体情報を運転者に認知させやすくする上で有効である。そして、このように運転者に知覚させる方法としては、運動視差を利用するのが有効である。
本態様によれば、移動体周囲に存在する検出対象物の移動体進行方向における当該移動体との相対距離(移動体進行方向相対距離)に応じて、移動体進行方向前方の所定の表示エリアに表示される対象物画像の知覚距離を変化させることができる。本態様では、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
What has been described above is an example, and the following unique effects can be obtained.
(Aspect A)
A driver-provided information image showing driver-provided information provided to the driver 300 of the moving body such as the own vehicle 301 is visually recognized by the driver through the light transmitting member such as the windshield 302. The display device 700 is an information providing device such as a vehicle HUD device 200 provided with an image light projecting unit such as a HUD main body 230 that projects image light onto the light transmitting member so as to be displayed in the display area 700. Distance detection means such as the object recognition device 100 that detects the relative distance of the moving object traveling direction of the detection target such as the preceding vehicle 350 that exists in the surroundings, and the viewpoint position of the driver camera 150 that detects the viewpoint position of the driver. By changing the display position of the object image such as the preceding vehicle image 724 showing the object to be detected according to the detection means and the detection result of the viewpoint position detection means, the driver based on the motion parallax of the object image. Display control means such as an image control device 250 for controlling the image light projection means so that the perceived distance of the object changes according to the moving object traveling direction relative distance of the detection target detected by the distance detection means. It is characterized by
It is useful to provide the driver with information about the relative movement of an object existing around the moving body with respect to the own vehicle (surrounding object information) by the image projected by the image light projection means. For example, when it is difficult for the driver to directly visually recognize an object around the moving body due to poor visibility around the moving body or the like, an object display image corresponding to the object displayed by using the HUD device allows such surroundings to be detected. If the object information can be provided to the driver, it is possible to drive more safely. Not only when it is difficult for the driver to directly see the vehicle, but if it is possible to provide the driver with surrounding object information regarding the movement of an object that is easy to overlook due to lack of attention of the driver, it is possible to drive more safely. is there. Moreover, when the surrounding object information is to be provided to the driver in this way, the driver can perceive that the depth position of the object display image changes according to the relative movement of the object with respect to the moving body. , It is effective in making it easier for the driver to recognize surrounding object information. Then, as a method of making the driver perceive, it is effective to use motion parallax.
According to this aspect, the predetermined display area in front of the moving body traveling direction in accordance with the relative distance (moving body traveling direction relative distance) to the moving body in the moving body traveling direction of the detection target existing around the moving body. It is possible to change the perceived distance of the object image displayed on the screen. In this aspect, since the driver perceives the perceived distance of the object image by the motion parallax, it is easy for the driver to recognize the information (surrounding object information) of the movement of the detected object approaching or moving away from the moving body. ..

(態様B)
前記態様Aにおいて、前記検出対象物は、当該移動体の前方を進行する先行車両350等の他の移動体であることを特徴とする。
これによれば、先行する他の移動体との距離が狭まっているという情報(前車接近情報等)を運転者300に認知させやすくなる。
(Aspect B)
In the aspect A, the detection target is another moving body such as a preceding vehicle 350 traveling in front of the moving body.
According to this, it becomes easy for the driver 300 to recognize the information that the distance to another preceding moving body is narrowed (front vehicle approach information or the like).

(態様C)
自車両301等の移動体の運転者300に提供する運転者提供情報を示す運転者提供情報画像を、フロントガラス302等の光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリア700に表示させるように、該光透過部材へ画像光を投射するHUD本体230等の画像光投射手段を備えた自動車用HUD装置200等の情報提供装置であって、前記所定の表示エリアは、運転者によって能動的に認知される道路固有情報や車速情報等の能動情報を示す道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703、車速表示画像704等の能動情報画像を継続表示させる下段表示領域C等の能動情報画像表示領域と、運転者によって受動的に認知されるルートナビゲーション情報や前車接近情報等の受動情報を示す走行レーン指示画像711、進路変更操作指示画像721,722,723、車間距離提示画像712、先行車両画像724等の受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる上段表示領域A及び中段表示領域B等の受動情報画像表示領域とを備えており、前記運転者の視点位置を検知する運転者カメラ150等の視点位置検知手段と、前記視点位置検知手段の検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離Lb,Lcが前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離Laよりも遠くなるように、前記画像光投射手段を制御する画像制御装置250等の表示制御手段とを有することを特徴とする。
運転中の運転者は、通常、光透過部材を介して、移動体前方の無限遠点を注視しているか、数十m先の先行する他の移動体を注視している。このような遠方に焦点を合わせている運転中の運転者に対しては、より遠くに表示される画像ほど、注視点に対する焦点距離の差が小さいので、画像を認知しやすい(気付きやすい)。
ここで、運転者によって受動的に認知される受動情報は、一般に、当該情報提供装置によって決められるタイミングで運転者に提供したい情報であり、通常は、当該受動情報が提供されるタイミングと当該受動情報の内容との間に一定の関係性をもつ情報である。そのため、受動情報を示す受動情報画像は、これを表示したらすぐに運転者300に認知されることが重要である。
一方、運転者によって能動的に認知される能動情報は、一般に、運転者の希望するタイミングで運転者へ提供されれば十分な情報であり、当該能動情報が提供されるタイミングと当該能動情報の内容との間の関係性が低い又は無いようなものである。そして、能動情報は、運転者の希望するタイミングで提供される必要があることから、ある程度の長い期間あるいは常時、表示され続ける。
本態様では、運転者は、運動視差により、能動情報画像よりも受動情報画像の方が遠くに表示されているように知覚する。よって、遠方に焦点を合わせている運転中の運転者にとっては、能動情報画像よりも受動情報画像の方が認知しやすい。よって、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
なお、遠方に焦点を合わせている運転中の運転者にとって、受動情報画像よりも近い距離に表示されていると知覚される能動情報画像については認知しにくい。しかしながら、能動情報画像は、運転者300が当該能動情報を取得しようとする意志をもって視認しにいくものであるため、能動情報画像が受動情報画像よりも認知しにくくても、能動情報の提供にあたっては問題にならない。
むしろ、能動情報画像は、上述したようにある程度の長い期間あるいは常時、表示され続けるものであることから、能動情報画像が認知しやすいものであると、運転中の運転者の意識を逸らす原因となり、かえって不利益をもたらすおそれがある。
(Aspect C)
A driver-provided information image showing driver-provided information provided to the driver 300 of the moving body such as the own vehicle 301 is visually recognized by the driver through the light transmitting member such as the windshield 302. An information providing device such as an automobile HUD device 200 having an image light projecting means such as a HUD main body 230 for projecting image light onto the light transmitting member so as to be displayed in the display area 700 of FIG. The area is active information such as a road name display image 701, a speed limit display image 702, an overtaking prohibition display image 703, a vehicle speed display image 704, and the like, which show active information such as road-specific information and vehicle speed information that are actively recognized by the driver. An active information image display area such as a lower display area C where images are continuously displayed, a driving lane instruction image 711 indicating passive information such as route navigation information and front vehicle approach information passively recognized by a driver, and a course change operation. Passive information such as the upper display area A and the middle display area B for temporarily displaying the passive information images such as the instruction images 721, 722, 723, the inter-vehicle distance presentation image 712, and the preceding vehicle image 724 at the timing satisfying the predetermined information providing condition. An image display area is provided, which is displayed in the passive information image display area according to the detection result of the viewpoint position detection means such as the driver camera 150 for detecting the viewpoint position of the driver and the viewpoint position detection means. By changing the display position of the passive information image, the driver's perception distance of the active information image displayed in the active information image display area by the driver's perceptual distances Lb and Lc of the passive information image due to the motion parallax. The display control means such as an image control device 250 for controlling the image light projection means is provided so as to be farther than the distance La.
A driver who is driving usually looks at an infinite point in front of the moving object or another moving object several tens of meters ahead through the light transmitting member. For a driver who is driving while focusing on such a distant place, the farther the image is displayed, the smaller the difference in the focal lengths with respect to the gazing point, and thus the image is easier to recognize (easier to notice).
Here, the passive information that is passively recognized by the driver is generally the information that the driver wants to provide at a timing determined by the information providing device, and normally, the passive information and the passive information are provided. It is information that has a certain relationship with the content of information. Therefore, it is important that the driver 300 recognizes the passive information image indicating the passive information immediately after displaying the passive information image.
On the other hand, the active information actively recognized by the driver is generally sufficient information if it is provided to the driver at the timing desired by the driver, and the timing at which the active information is provided and the active information There is little or no relationship with the content. Since the active information needs to be provided at the timing desired by the driver, the active information continues to be displayed for a long period of time or at all times.
In this aspect, the driver perceives that the passive information image is displayed farther than the active information image due to the motion parallax. Therefore, the passive information image is easier to recognize than the active information image for a driver who is driving while focusing on a distant place. Therefore, when the passive information image is displayed, the driver easily notices the passive information image even if the active information image is displayed. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and can quickly provide the driver with the passive information.
It should be noted that it is difficult for a driver who is driving to focus on a distant place to recognize an active information image that is perceived to be displayed at a closer distance than a passive information image. However, since the active information image is visually recognized by the driver 300 with the intention of acquiring the active information, even if the active information image is harder to recognize than the passive information image, the active information image is provided. Does not matter.
Rather, since the active information image is continuously displayed for a long period of time or at all times as described above, if the active information image is easy to recognize, it may cause the driver to lose consciousness. However, it may bring disadvantages.

(態様D)
前記態様Cにおいて、前記受動情報は、移動体の運転者へそれぞれ異なる操作指示内容を示す複数の操作指示情報を含み、前記表示制御手段は、各操作指示情報にそれぞれ対応する走行レーン指示画像711と進路変更操作指示画像721,722,723等の複数の操作指示画像を、運転者に操作させる操作順序が後になる操作指示内容を示すものほど、前記受動情報画像表示領域内の上側に表示されるように、前記画像光投射手段を制御することを特徴とする。
運転者は、通常、進行する移動体前方に位置する物体は時間の経過により現在位置に向かって近づいてくるという距離の観念と、未来の出来事は時間の経過により現在時刻に向かって近づいてくるという時間の観念とを併せ持っている。そして、進行する移動体の前方に存在する物体は、移動体までの距離が近いほど移動体の位置に到達するまでの時間が早く、移動体までの距離が遠いほど移動体の位置に到達までの時間が遅い。そのため、進行する移動体から遠い位置の物体は遠い未来の出来事との間で認知の親和性が高く、進行する移動体に近い位置の物体はより近い未来の出来事との間で認知の親和性が高い。本態様によれば、この親和性を考慮して、運転者に操作させる操作順序が後になる操作指示内容を示す操作指示画像ほど前記所定の表示エリア内の上側に表示させることから、これらの操作指示画像が示す複数の操作指示内容の操作順序を運転者に直感的に認知させ、その操作順序を運転者が迷ってしまうような事態を回避しやすい。
(Aspect D)
In the aspect C, the passive information includes a plurality of operation instruction information indicating different operation instruction contents to the driver of the moving body, and the display control unit includes the travel lane instruction image 711 corresponding to each operation instruction information. And a plurality of operation instruction images such as the route change operation instruction images 721, 722, 723 are displayed on the upper side in the passive information image display area as the operation instruction contents that are later in the operation order for the driver to operate. Thus, the image light projection means is controlled.
The driver generally thinks that an object located in front of a moving moving body approaches the current position over time, and that future events will approach the current time over time. It also has the idea of time. Then, for an object existing in front of the moving body, the shorter the distance to the moving body is, the faster it takes to reach the position of the moving body, and the farther the distance to the moving body is to reach the position of the moving body. Time is late. Therefore, an object located far from the moving body has a high cognitive affinity with a far future event, and an object located near the moving body has a cognitive affinity with a near future event. Is high. According to this aspect, in consideration of this affinity, the operation instruction image indicating the operation instruction content that the operation order to be operated by the driver later is displayed on the upper side in the predetermined display area. It is easy to make the driver intuitively recognize the operation order of the plurality of operation instruction contents indicated by the instruction image and avoid the situation where the driver is confused about the operation order.

(態様E)
前記態様Dにおいて、前記画像光投射手段は、前記受動情報画像表示領域が、前記光透過部材を介して運転者が視認する移動体進行方向前方の風景の下部に位置するように、該光透過部材へ画像光を投射することを特徴とする。
光透過部材を介して移動体進行方向の前方風景を視認する運転者300は、通常、その前方風景の鉛直方向中央近辺を注視点として注視しながら運転を行うことが多い。本態様では、複数の操作指示画像が表示される所定の表示エリア700が当該前方風景の下部に位置しているので、運転者の注視点よりも鉛直方向下側に複数の操作指示画像が表示されることになる。この位置に表示される複数の操作指示画像が重なる風景部分は、移動体から遠い地点の物体ほど鉛直方向上側で視認され、移動体に近い地点の物体ほど鉛直方向下側で視認される。そのため、当該風景部分中の物体が視認される位置は、移動体の進行により移動体へ近づくにつれて徐々に下側へ変位する。
このような風景部分に複数の操作指示画像を重ねて表示させる場合、本態様のように、運転者に操作させる操作順序が後になる操作指示内容を示す操作指示画像ほど前記所定の表示エリア内の上側に表示させることが、操作順序に関する運転者の迷いを最小限に抑えることができる。これは、上述した認知の親和性を考慮し、進行する移動体から遠い物体が視認される位置に重なるように遠い未来の操作指示内容(操作順序が後になる操作指示内容)を示す操作指示画像を表示させ、進行する移動体に近い物体が視認される位置に重なるように近い未来の操作指示内容(操作順序が先になる操作指示内容)を示す操作指示画像を表示させることができるからである。このように表示させれば、これらの操作指示画像が示す複数の操作指示内容の操作順序を運転者に直感的に認知させることができる。逆に、所定の表示エリア700が当該前方風景の下部に位置している場合に、例えば、複数の操作指示画像の表示位置を前述の位置とは逆位置にしたり、複数の操作指示画像の表示位置を横並びにしたりすると、運転者は、上述した観念が邪魔して、操作順序を直感的に認知することが困難となる。
(Aspect E)
In the aspect D, the image light projecting unit is configured to transmit the light so that the passive information image display area is located below a landscape in front of a moving body traveling direction visually recognized by a driver via the light transmitting member. The image light is projected onto the member.
The driver 300 who visually recognizes the front scenery in the traveling direction of the moving body through the light transmitting member usually operates while gazing at the vicinity of the vertical center of the front scenery as the gazing point. In this aspect, since the predetermined display area 700 in which a plurality of operation instruction images is displayed is located in the lower part of the front landscape, the plurality of operation instruction images are displayed vertically below the gazing point of the driver. Will be done. In the landscape portion where the plurality of operation instruction images displayed at this position overlap, an object at a point farther from the moving body is visually recognized on the upper side in the vertical direction, and an object at a point closer to the moving body is visually recognized on the lower side in the vertical direction. Therefore, the position where the object in the landscape portion is visually recognized is gradually displaced downward as the moving body approaches the moving body.
When a plurality of operation instruction images are overlapped and displayed on such a landscape portion, as in the present aspect, the operation instruction image indicating the operation instruction content to be operated later by the driver is in the predetermined display area. Displaying on the upper side can minimize the driver's hesitation about the operation sequence. This is an operation instruction image showing the operation instruction content in the far future (operation instruction content in which the operation order is later) so as to overlap with the position where an object far from the moving body is visually recognized in consideration of the cognitive affinity described above. Is displayed, and an operation instruction image indicating the operation instruction content in the near future (operation instruction content that comes first in the operation order) so as to overlap the position where an object close to the moving body is visually recognized can be displayed. is there. With such a display, the driver can intuitively recognize the operation sequence of the plurality of operation instruction contents indicated by these operation instruction images. On the contrary, when the predetermined display area 700 is located in the lower part of the front landscape, for example, the display positions of the plurality of operation instruction images are reversed from the above-described positions, or the plurality of operation instruction images are displayed. If the positions are arranged side by side, it becomes difficult for the driver to intuitively recognize the operation sequence because the idea described above interferes.

(態様F)
前記態様D又はEにおいて、前記複数の操作指示画像は、前記移動体の移動ルート上の異なる地点(直近の交差点と、次に直進方向から進路変更すべき交差点や分岐点など)で運転者が操作すべき操作内容を指示する操作指示内容を示すものであることを特徴とする。
これによれば、ルートナビゲーション情報による操作順序の異なる複数の操作指示内容について、その操作順序を運転者が迷ってしまうような事態を回避できる。
(Aspect F)
In the aspect D or E, the plurality of operation instruction images are displayed by the driver at different points on the moving route of the moving body (the nearest intersection and an intersection or branch point where the course should be changed next from the straight traveling direction). It is characterized in that it indicates the operation instruction content for instructing the operation content to be operated.
According to this, it is possible to avoid a situation in which the driver is confused about the operation order of a plurality of operation instruction contents having different operation orders according to the route navigation information.

(態様G)
前記態様A〜Fのいずれかの態様において、前記画像光投射手段は、投射する画像光によって前記操作指示画像を虚像Gとして前記所定の表示エリア内に表示させるものであり、運転者から前記虚像までの距離が5m以上であることを特徴とする。
虚像Gまでの距離が一般的な2m程度である場合、このように近い距離の虚像Gに眼球の焦点を合わせようとすると、通常は眼球の輻輳運動が必要になる。上述したとおり、輻輳運動は、視認対象までの距離感や奥行き感に大きな影響を与える要因であり、虚像Gに焦点を合わせるために眼球が輻輳運動してしまうと、運動視差による距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が薄まってしまう。
本態様によれば、虚像Gまでの距離が5m以上であるため、眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。したがって、運動視差を利用して距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が眼球の輻輳運動によって薄まってしまうことが抑制される。
(Aspect G)
In any one of the aspects A to F, the image light projecting means causes the operation instruction image to be displayed as a virtual image G in the predetermined display area by the image light to be projected, and the virtual image from the driver. Is characterized by a distance of 5 m or more.
When the distance to the virtual image G is about 2 m, which is a general distance, in order to focus the eyeball on the virtual image G having such a short distance, a vergence movement of the eyeball is usually required. As described above, the vergence movement is a factor that greatly affects the sense of distance to the visual target and the sense of depth, and when the eye converges to focus on the virtual image G, the sense of distance (perception) due to motion parallax. The effect of perceiving a change in distance) and a sense of depth (difference in perceived distance) is diminished.
According to this aspect, since the distance to the virtual image G is 5 m or more, the virtual image G can be focused with almost no vergence movement of the eyeball. Therefore, the effect of perceiving a sense of distance (change in perceived distance) and a sense of depth (difference in perceived distance) using motion parallax is suppressed from being diluted by the vergence movement of the eyeball.

(態様H)
前記態様A〜Gのいずれかの態様において、前記画像光投射手段は、前記操作指示画像の画像情報に応じた画像光を照射する光源ユニット220等の光照射手段から照射した画像光を光走査装置208等の光走査手段により二次元走査して前記光透過部材へ投射することにより、前記所定の表示エリア内に前記運転者提供情報画像を表示させるものであることを特徴とする。
上述したように、液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式よりも、大きな虚像Gを高い輝度で表示させるのが容易である。また、本態様によれば、虚像Gの非画像部分については、光照射手段から画像光照射させないことにより、当該非画像部分の光を完全に無くすことが可能である。よって、当該非画像部分を通じた移動体前方風景の視認性が光照射手段から照射される光によって低下する事態を回避でき、前方風景の視認性が高い。
(Aspect H)
In any one of the aspects A to G, the image light projection unit optically scans the image light emitted from the light irradiation unit such as the light source unit 220 that emits the image light according to the image information of the operation instruction image. It is characterized in that the driver-provided information image is displayed in the predetermined display area by two-dimensionally scanning by an optical scanning means such as the device 208 and projecting it on the light transmitting member.
As described above, it is easier to display a large virtual image G with higher brightness than a method using a liquid crystal display (LCD) or a fluorescent display tube (VFD). According to this aspect, the non-image portion of the virtual image G can be completely eliminated by not irradiating the non-image portion with the image light. Therefore, it is possible to avoid the situation where the visibility of the front scene of the moving body through the non-image portion is deteriorated by the light emitted from the light irradiating means, and the visibility of the front scene is high.

(態様I)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射することにより、前記運転者提供情報を運転者へ提供する情報提供方法であって、当該移動体の周囲に存在する検出対象物の移動体進行方向相対距離を検出する距離検出工程と、前記運転者の視点位置を検知する視点位置検知工程と、前記視点位置検知工程での検知結果に応じて前記検出対象物を示す対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離を前記距離検出工程で検出した該検出対象物の移動体進行方向相対距離に応じて変化させる表示工程とを有することを特徴とする。
本態様によれば、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
(Aspect I)
The driver-provided information image showing the driver-provided information provided to the driver of the moving body is displayed through a light transmitting member in a predetermined display area in front of the moving body traveling direction visually recognized by the driver. An information providing method for providing the driver with the driver-provided information by projecting image light onto a transparent member, wherein a moving body traveling direction relative distance of a detection target object existing around the moving body is detected. A distance detection step, a viewpoint position detection step of detecting the viewpoint position of the driver, and by changing the display position of the object image showing the detection object according to the detection result in the viewpoint position detection step, And a display step of changing a driver's perceived distance based on the motion parallax of the object image according to the relative distance of the moving object traveling direction of the detected object detected in the distance detecting step.
According to this aspect, since the driver perceives the perceived distance of the object image by the motion parallax, the driver recognizes information about the movement of the detected object approaching or moving away from the moving body (surrounding object information). Easy to make.

(態様J)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射する画像光投射手段と、当該移動体の周囲に存在する検出対象物の移動体進行方向相対距離を検出する距離検出手段、前記運転者の視点位置を検知する視点位置検知手段とを備えた情報提供装置のコンピュータを機能させるための情報提供用制御プログラムであって、前記視点位置検知手段の検知結果に応じて前記検出対象物を示す対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離が前記距離検出手段が検出した該検出対象物の移動体進行方向相対距離に応じて変化するように、前記画像光投射手段を制御する表示制御手段として、前記コンピュータを機能させることを特徴とする。
本態様によれば、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
(Aspect J)
The driver-provided information image showing the driver-provided information provided to the driver of the moving body is displayed through a light transmitting member in a predetermined display area in front of the moving body traveling direction visually recognized by the driver. Image light projecting means for projecting image light to the transparent member, distance detecting means for detecting the relative distance of the moving object in the moving body traveling direction around the moving body, viewpoint position for detecting the viewpoint position of the driver An information providing control program for causing a computer of an information providing apparatus including a detection unit to function, wherein a display position of an object image showing the detection object is changed according to a detection result of the viewpoint position detection unit. By doing so, the image light projection unit changes the perceived distance of the driver due to the motion parallax of the target image in accordance with the moving object traveling direction relative distance of the detected target detected by the distance detection unit. The computer is made to function as display control means for controlling the.
According to this aspect, since the driver perceives the perceived distance of the object image by the motion parallax, the driver recognizes information about the movement of the detected object approaching or moving away from the moving body (surrounding object information). Easy to make.

(態様K)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射することにより、前記運転者提供情報を運転者へ提供する情報提供方法であって、前記所定の表示エリアは、運転者によって能動的に認知される能動情報を示す能動情報画像を継続表示させる能動情報画像表示領域と、運転者によって受動的に認知される受動情報を示す受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる受動情報画像表示領域とを備えており、前記運転者の視点位置を検知する視点位置検知工程と、前記視点位置検知工程での検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離が前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離よりも遠くなるように、前記画像光投射手段を制御する表示制御工程とを有することを特徴とする。
本態様によれば、遠方に焦点を合わせている運転中の運転者にとって能動情報画像よりも受動情報画像の方が認知しやすくなるので、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
(Aspect K)
The driver-provided information image showing the driver-provided information provided to the driver of the moving body is displayed through a light transmitting member in a predetermined display area in front of the moving body traveling direction visually recognized by the driver. An information providing method for providing the driver with the driver-provided information by projecting image light onto a transparent member, wherein the predetermined display area is active indicating active information that is actively recognized by the driver. An active information image display area for continuously displaying an information image and a passive information image display area for temporarily displaying a passive information image indicating passive information passively recognized by the driver at a timing satisfying a predetermined information providing condition. And a viewpoint position detecting step of detecting the viewpoint position of the driver, and a display position of the passive information image displayed in the passive information image display area is changed according to a detection result in the viewpoint position detecting step. Thereby, the image light projection means is configured such that the driver's perceived distance of the passive information image due to the motion parallax is longer than the driver's perceived distance of the active information image displayed in the active information image display area. And a display control step for controlling.
According to this aspect, since the passive information image is easier to recognize than the active information image for the driver who is driving while focusing on a distant place, the driver can be active when the passive information image is displayed. Even if the information image is displayed, it is easy to notice the passive information image. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and can quickly provide the driver with the passive information.

(態様L)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射する画像光投射手段と、前記運転者の視点位置を検知する視点位置検知手段とを備えた情報提供装置のコンピュータを機能させるための情報提供用制御プログラムであって、前記所定の表示エリアは、運転者によって能動的に認知される能動情報を示す能動情報画像を継続表示させる能動情報画像表示領域と、運転者によって受動的に認知される受動情報を示す受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる受動情報画像表示領域とを備えており、前記視点位置検知手段の検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離が前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離よりも遠くなるように、前記画像光投射手段を制御する表示制御手段として、前記コンピュータを機能させることを特徴とする。
本態様によれば、遠方に焦点を合わせている運転中の運転者にとって能動情報画像よりも受動情報画像の方が認知しやすくなるので、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
(Aspect L)
The driver-provided information image showing the driver-provided information provided to the driver of the moving body is displayed through a light transmitting member in a predetermined display area in front of the moving body traveling direction visually recognized by the driver. An information providing control program for operating a computer of an information providing apparatus, comprising: an image light projecting means for projecting image light onto a transmitting member; and a viewpoint position detecting means for detecting a viewpoint position of the driver, The predetermined display area is an active information image display area for continuously displaying an active information image showing active information actively recognized by the driver, and a passive information image showing passive information passively recognized by the driver. Is provided with a passive information image display area for temporarily displaying at a timing satisfying a predetermined information providing condition, and the passive information image displayed in the passive information image display area according to the detection result of the viewpoint position detecting means. By changing the display position, the perceived distance of the driver for the passive information image due to the motion parallax becomes longer than the perceived distance of the driver for the active information image displayed in the active information image display area, The computer is made to function as a display control unit that controls the image light projection unit.
According to this aspect, since the passive information image is easier to recognize than the active information image for the driver who is driving while focusing on a distant place, the driver can be active when the passive information image is displayed. Even if the information image is displayed, it is easy to notice the passive information image. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and can quickly provide the driver with the passive information.

なお、上述したプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、上述したプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。上述したプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。 The above-mentioned program can be distributed or obtained while being recorded in a recording medium such as a CD-ROM. Further, by distributing the above-mentioned program and distributing or receiving a signal transmitted by a predetermined transmission device via a transmission medium such as a public telephone line, a leased line, or another communication network, distribution, It is available. At the time of this distribution, at least a part of the computer program may be transmitted in the transmission medium. That is, it is not necessary that all the data making up the computer program exist on the transmission medium at one time. The signal carrying the above-mentioned program is a computer data signal embodied on a predetermined carrier wave containing the computer program. Further, the transmission method of transmitting the computer program from the predetermined transmission device includes a case of continuously transmitting the data making up the program and a case of transmitting the data intermittently.

100 物体認識装置
110 ステレオカメラ部
120 情報処理部
150 運転者カメラ
200 自動車用HUD装置
201R,201G,201B レーザー光源
207 光量調整部
208 光走査装置
209 自由曲面ミラー
210 マイクロレンズアレイ
211 投射ミラー
220 光源ユニット
230 HUD本体
250 画像制御装置
300 運転者
301 自車両
302 フロントガラス
350 先行車両
400 車両ナビゲーション装置
500 センサ装置
700 表示エリア
701 道路名表示画像
702 制限速度表示画像
703 追い越し禁止表示画像
704 車速表示画像
711 走行レーン指示画像
712,715 車間距離提示画像
713 単純図形画像
712a 自車両バンパー画像
714,716 ブレーキ警告画像
718 通学路警告画像
719 人型警告画像
717,721 進路指定画像
722 残り距離画像
723 交差点等名称画像
724 先行車両画像
725 下向きマーク画像
A 上段表示領域
B 中段表示領域
C 下段表示領域
G 虚像
100 Object Recognition Device 110 Stereo Camera Unit 120 Information Processing Unit 150 Driver Camera 200 Automotive HUD Devices 201R, 201G, 201B Laser Light Source 207 Light Amount Adjusting Unit 208 Optical Scanning Device 209 Free-form Mirror 210 Microlens Array 211 Projection Mirror 220 Light Source Unit 230 HUD main body 250 Image control device 300 Driver 301 Own vehicle 302 Windshield 350 Preceding vehicle 400 Vehicle navigation device 500 Sensor device 700 Display area 701 Road name display image 702 Speed limit display image 703 Overpass prohibition display image 704 Vehicle speed display image 711 Traveling Lane instruction image 712, 715 Inter-vehicle distance presentation image 713 Simple graphic image 712a Vehicle bumper image 714, 716 Brake warning image 718 School road warning image 719 Humanoid warning image 717, 721 Route designation image 722 Remaining distance image 723 Name image of intersection, etc. 724 Leading vehicle image 725 Downward mark image A Upper display area B Middle display area C Lower display area G Virtual image

特許第4686586号公報Japanese Patent No. 4686586

Claims (10)

移動体を運転する運転者の視点位置を検知する位置検知部と、
運転者によって能動的に認知される能動情報画像、及び、所定の情報提供条件を満たした場合に運転者に認知されるよう表示される受動情報画像を、光透過部材を介して前記運転者に目視可能に表示する表示部と、を備え、
前記表示部は、前記位置検知部の検知情報に基づいて前記受動情報画像の表示位置を所定の表示領域内で奥行方向に直交する方向へ変更して表示することで、該所定の表示領域内に表示される前記受動情報画像の運転者の知覚距離を、該所定の表示領域よりも下側に位置する別の表示領域内に表示される前記能動情報画像の運転者の知覚距離よりも遠くに表示することを特徴とする画像表示装置
A position detection unit that detects a viewpoint position of a driver who drives a moving body,
An active information image that is actively recognized by the driver, and a passive information image that is displayed to be recognized by the driver when predetermined information provision conditions are met are displayed to the driver via a light transmissive member. And a display unit for visually displaying,
In the predetermined display area, the display section changes the display position of the passive information image to a direction orthogonal to the depth direction in the predetermined display area based on the detection information of the position detection section . the perceived distance of the driver of the passive information image to be displayed, farther than perceptual metric of the driver of the active information image displayed in a separate display area which is located below the said predetermined display region an image display device, wherein the table Shimesuru to.
求項1に記載の画像表示装置において、
前記移動体の周囲の対象物との距離情報を取得する取得部を備え、
前記受動情報画像を前記対象物に対応した位置に表示することを特徴とする画像表示装置。
The image display device according to Motomeko 1,
An acquisition unit that acquires distance information from an object around the moving body,
An image display device, wherein the passive information image is displayed at a position corresponding to the object.
請求項2に記載の画像表示装置において、
前記表示部は、前記対象物との相対距離が近づいた場合、前記受動情報画像の前記知覚距離が近くなるように表示することを特徴とする画像表示装置。
The image display device according to claim 2 ,
The image display device, wherein the display unit displays the passive information image so that the perceived distance of the passive information image becomes short when the relative distance to the target object becomes short.
請求項2は3に記載の画像表示装置において、
前記対象物は、当該移動体の前方を先行して進行する別の移動体であることを特徴とする画像表示装置。
The image display device according to claim 2 or 3,
The image display device, wherein the object is another moving body that travels ahead of the moving body.
請求項4に記載の画像表示装置において、
前記受動情報画像は、前記別の移動体との距離に関する画像であることを特徴とする画像表示装置。
The image display device according to claim 4 ,
The image display device, wherein the passive information image is an image regarding a distance to the another moving body.
請求項1乃至5のいずれか1項に記載の画像表示装置において、
前記視点位置は、前記運転者の目の位置であることを特徴とする画像表示装置。
The image display device according to any one of claims 1乃Itaru 5,
The image display device, wherein the viewpoint position is a position of the driver's eyes.
請求項1乃至5のいずれか1項に記載の画像表示装置において、
前記視点位置は、前記運転者の頭部位置であることを特徴とする画像表示装置。
The image display device according to any one of claims 1乃Itaru 5,
The image display device, wherein the viewpoint position is a head position of the driver.
運転者が移動体外部を目視可能な光透過部材と、
前記移動体を運転する運転者の視点位置を検知する位置検知部と、
運転者によって能動的に認知される能動情報画像、及び、所定の情報提供条件を満たした場合に運転者に認知されるよう表示される受動情報画像を、前記光透過部材を介して前記運転者に目視可能に表示する表示部と、を備え、
前記表示部は、前記位置検知部の検知情報に基づいて前記受動情報画像の表示位置を所定の表示領域内で奥行方向に直交する方向へ変更して表示することで、該所定の表示領域内に表示される前記受動情報画像の運転者の知覚距離を、該所定の表示領域よりも下側に位置する別の表示領域内に表示される前記能動情報画像の運転者の知覚距離よりも遠くに表示することを特徴とする移動体。
A light transmitting member that allows the driver to visually see the outside of the moving body,
A position detection unit that detects a viewpoint position of a driver who drives the moving body,
The active information image actively recognized by the driver, and the passive information image displayed to be recognized by the driver when a predetermined information provision condition is satisfied are displayed on the driver through the light transmitting member. And a display section for visually displaying the
In the predetermined display area, the display section changes the display position of the passive information image to a direction orthogonal to the depth direction in the predetermined display area based on the detection information of the position detection section . the perceived distance of the driver of the passive information image to be displayed, farther than perceptual metric of the driver of the active information image displayed in a separate display area which is located below the said predetermined display region mobile, wherein the table Shimesuru to.
移動体を運転する運転者の視点位置を検知する位置検知部と、
運転者によって能動的に認知される能動情報画像、及び、所定の情報提供条件を満たした場合に運転者に認知されるよう表示される受動情報画像を、光透過部材を介して前記運転者に目視可能に表示する表示部と、を備える画像表示装置で実施される画像表示方法であって、
運転者の視点位置情報を取得するステップと、
前記位置検知部の検知情報に基づいて前記受動情報画像の表示位置を所定の表示領域内で奥行方向に直交する方向へ変更して表示することで、該所定の表示領域内に表示される前記受動情報画像の運転者の知覚距離を、該所定の表示領域よりも下側に位置する別の表示領域内に表示される前記能動情報画像の運転者の知覚距離よりも遠くに表示するステップと、を有することを特徴とする画像表示方法。
A position detection unit that detects a viewpoint position of a driver who drives a moving body,
An active information image that is actively recognized by the driver, and a passive information image that is displayed to be recognized by the driver when predetermined information provision conditions are met are displayed to the driver via a light transmissive member. An image display method carried out by an image display device comprising a display unit for visually displaying,
Acquiring the driver's viewpoint position information,
By displaying by changing the display position of the passive information image on the basis of the detection information of the position detection unit in a direction orthogonal to the depth direction in a predetermined display area, the displayed in the predetermined display area the perceptual metric of the driver of a passive information images, tables Shimesuru step further than perceptual metric of the driver of the active information image displayed in a separate display area which is located below the said predetermined display region An image display method comprising:
移動体を運転する運転者の視点位置を検知する位置検知部と、
運転者によって能動的に認知される能動情報画像、及び、所定の情報提供条件を満たした場合に運転者に認知されるよう表示される受動情報画像を、光透過部材を介して前記運転者に目視可能に表示する表示部と、を備える画像表示装置のコンピュータに実行されるプログラムであって、
運転者の視点位置情報を取得するステップと、
前記位置検知部の検知情報に基づいて前記受動情報画像の表示位置を所定の表示領域内で奥行方向に直交する方向へ変更して表示することで、該所定の表示領域内に表示される前記受動情報画像の運転者の知覚距離を、該所定の表示領域よりも下側に位置する別の表示領域内に表示される前記能動情報画像の運転者の知覚距離よりも遠くに表示するステップとを、前記コンピュータに実行させることを特徴とするプログラム。
A position detection unit that detects a viewpoint position of a driver who drives a moving body,
An active information image that is actively recognized by the driver, and a passive information image that is displayed to be recognized by the driver when predetermined information provision conditions are met are displayed to the driver via a light transmissive member. A program that is executed by a computer of an image display device that includes a display unit that visually displays,
Acquiring the driver's viewpoint position information,
By displaying by changing the display position of the passive information image on the basis of the detection information of the position detection unit in a direction orthogonal to the depth direction in a predetermined display area, the displayed in the predetermined display area the perceptual metric of the driver of a passive information images, tables Shimesuru step further than perceptual metric of the driver of the active information image displayed in a separate display area which is located below the said predetermined display region And a program that causes the computer to execute.
JP2019031603A 2019-02-25 2019-02-25 Image display device, moving body, image display method and program Active JP6726412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019031603A JP6726412B2 (en) 2019-02-25 2019-02-25 Image display device, moving body, image display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019031603A JP6726412B2 (en) 2019-02-25 2019-02-25 Image display device, moving body, image display method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014250084A Division JP6485732B2 (en) 2014-12-10 2014-12-10 Information providing apparatus, information providing method, and information providing control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020111138A Division JP2020175889A (en) 2020-06-29 2020-06-29 Information providing device, information providing method, and control program for providing information

Publications (3)

Publication Number Publication Date
JP2019089553A JP2019089553A (en) 2019-06-13
JP2019089553A5 JP2019089553A5 (en) 2019-09-19
JP6726412B2 true JP6726412B2 (en) 2020-07-22

Family

ID=66835706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019031603A Active JP6726412B2 (en) 2019-02-25 2019-02-25 Image display device, moving body, image display method and program

Country Status (1)

Country Link
JP (1) JP6726412B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4367212B2 (en) * 2004-04-15 2009-11-18 株式会社デンソー Virtual image display device and program
JP4274111B2 (en) * 2004-12-02 2009-06-03 株式会社デンソー Proper inter-vehicle distance display control device
JP2008257021A (en) * 2007-04-06 2008-10-23 Nippon Seiki Co Ltd Display apparatus
JP2010143520A (en) * 2008-12-22 2010-07-01 Toshiba Corp On-board display system and display method
JP5723106B2 (en) * 2010-05-18 2015-05-27 東芝アルパイン・オートモティブテクノロジー株式会社 Vehicle display device and vehicle display method
JP2012066646A (en) * 2010-09-22 2012-04-05 Toshiba Corp Display device

Also Published As

Publication number Publication date
JP2019089553A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP6485732B2 (en) Information providing apparatus, information providing method, and information providing control program
US11951834B2 (en) Information provision device, information provision method, and recording medium storing information provision program for a vehicle display
JP6699675B2 (en) Information provision device
US10156728B2 (en) Information provision device, information provision method, and recording medium
JP6806097B2 (en) Image display device and image display method
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
JP6690657B2 (en) Image display device and image display method
JP7300112B2 (en) Control device, image display method and program
JP6516151B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
JP6726412B2 (en) Image display device, moving body, image display method and program
JP7385834B2 (en) Image display method and image display device
JP7054483B2 (en) Information providing device, information providing method and information providing control program
JP7037764B2 (en) Travel route guidance device, mobile body, travel route guidance method and program
JP2021105989A (en) Onboard display device and program
JP2021056358A (en) Head-up display device
WO2019130860A1 (en) Head-up display device and control program
WO2021065700A1 (en) Display control device, head-up display device, and method
JP2021117703A (en) In-vehicle display device and program
JP2021117987A (en) Image display device, image display method, and program
JP2021000961A5 (en)
JP2021000961A (en) Display control device, display device, display control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R151 Written notification of patent or utility model registration

Ref document number: 6726412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151