JP7385834B2 - Image display method and image display device - Google Patents

Image display method and image display device Download PDF

Info

Publication number
JP7385834B2
JP7385834B2 JP2022000080A JP2022000080A JP7385834B2 JP 7385834 B2 JP7385834 B2 JP 7385834B2 JP 2022000080 A JP2022000080 A JP 2022000080A JP 2022000080 A JP2022000080 A JP 2022000080A JP 7385834 B2 JP7385834 B2 JP 7385834B2
Authority
JP
Japan
Prior art keywords
image
driver
information
distance
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022000080A
Other languages
Japanese (ja)
Other versions
JP2022044623A (en
Inventor
賢一郎 齊所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022000080A priority Critical patent/JP7385834B2/en
Publication of JP2022044623A publication Critical patent/JP2022044623A/en
Application granted granted Critical
Publication of JP7385834B2 publication Critical patent/JP7385834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像表示方法及び画像表示装置に関するものである。 The present invention relates to an image display method and an image display device .

この種の画像表示装置としては、運転者を乗せて移動する車両、船舶、航空機、産業用ロボットなどの移動体の運転者に対して情報を提供するための画像を表示するヘッドアップディスプレイ(HUD)装置等を利用したものが知られている。 This type of image display device includes a head-up display (HUD) that displays images to provide information to the driver of a moving object such as a vehicle, ship, aircraft, or industrial robot that carries a driver. ) devices are known.

特許文献1には、フロントガラス等(光透過部材)に画像光を投射し、フロントガラスを介して車両(移動体)の運転者が視認する前方風景に重ねて画像を表示させるHUD装置が開示されている。このHUD装置は、進行方向を示す矢印、速度、注意や警告などを示す表示オブジェクトを虚像として前方風景に重ねて表示する。このHUD装置は、運転者を撮像して運転者の片目の位置を検出する位置検出部(視点位置検知手段)を備えており、その検出結果に応じて各表示オブジェクトの虚像内における位置をそれぞれ変動させる処理を行う。この処理では、運転者が頭部を動かして視点位置(片目の位置)が移動したときに各表示オブジェクトの虚像内における移動量を異ならせることで、運動視差により、各表示オブジェクトの奥行き方向の表示位置(主観的奥行き位置)が異なるように運転者に知覚させる。 Patent Document 1 discloses a HUD device that projects image light onto a windshield or the like (light-transmitting member) and displays an image superimposed on the scenery ahead that is viewed by the driver of a vehicle (moving object) through the windshield. has been done. This HUD device displays virtual images of arrows indicating the direction of travel, display objects indicating speed, cautions, warnings, etc., superimposed on the scenery in front of the vehicle. This HUD device is equipped with a position detection unit (viewpoint position detection means) that images the driver and detects the position of one eye of the driver, and determines the position of each display object in the virtual image according to the detection result. Perform processing to vary. In this process, when the driver moves his head and the viewpoint position (position of one eye) moves, the amount of movement of each display object in the virtual image is varied, and the depth direction of each display object is changed due to motion parallax. The driver is made to perceive that the display position (subjective depth position) is different.

しかしながら、特許文献1には、同じ距離に表示される虚像上の画像部分を、異なる距離に表示されているかのように運転者に知覚させて、虚像の奥行き感を出すことについての言及はない。 However, Patent Document 1 does not mention making the driver perceive image parts on a virtual image that are displayed at the same distance as if they were displayed at different distances, thereby giving a sense of depth to the virtual image. .

上述した課題を解決するために、本発明は、画像表示方法であって、移動体を運転する運転者の動きを検知する検知ステップと、前記運転者から第1の距離だけ離れていると該運転者に知覚させる第1の画像部分及び前記運転者から前記第1の距離よりも大きい第2の距離だけ離れていると該運転者に知覚させる第2の画像部分を、前記運転者が移動した場合に前記検知ステップにより検知された前記運転者の動きに応じて、それぞれ移動させて表示する表示ステップと、を有し、前記第1の画像部分及び前記第2の画像部分のうちの少なくとも一方は、人間を示す画像を含むものであり、前記表示ステップは、前記第1の画像部分を移動させて表示するための第1の移動量よりも、前記第2の画像部分を移動させて表示するための第2の移動量の方が大きくなるように表示することを特徴とする。 In order to solve the above-mentioned problems, the present invention provides an image display method, which includes a detection step of detecting the movement of a driver driving a mobile object, and a detection step of detecting the movement of a driver who is driving a mobile object, and detecting the movement of a driver who is away from the driver by a first distance. The driver moves a first image portion that is made to be perceived by the driver and a second image portion that is made to be made to be perceived by the driver as being separated from the driver by a second distance that is greater than the first distance. a display step of moving and displaying at least one of the first image portion and the second image portion according to the movement of the driver detected by the detection step when One includes an image showing a human being, and the displaying step includes moving the second image portion by a greater amount than a first movement amount for moving and displaying the first image portion. The display is characterized in that the second movement amount for displaying is larger.

本発明によれば、同じ距離に表示される虚像上の画像部分を、異なる距離に表示されているかのように運転者に知覚させて、虚像の奥行き感を出すことができるという優れた効果が奏される。 According to the present invention, an excellent effect can be obtained in that a driver can perceive image parts on a virtual image that are displayed at the same distance as if they were displayed at different distances, thereby giving a sense of depth to the virtual image. It is played.

実施形態において、フロントガラス越しに運転者から見る自車両の前方風景に重ねて表示エリアに表示される虚像の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of a virtual image displayed in a display area superimposed on the scenery in front of the own vehicle as seen by the driver through the windshield in the embodiment. 実施形態における自動車用HUD装置を搭載した自動車の構成を模式的に表した模式図である。FIG. 1 is a schematic diagram schematically showing the configuration of an automobile equipped with an automobile HUD device according to an embodiment. 同自動車用HUD装置の内部構成を模式的に表した模式図である。FIG. 2 is a schematic diagram schematically showing the internal configuration of the automotive HUD device. 同自動車用HUD装置における制御系のハードウェアブロック図である。FIG. 2 is a hardware block diagram of a control system in the automotive HUD device. 実施形態における運転者情報提供システムの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a driver information providing system in an embodiment. 同運転者情報提供システムにおける物体認識装置のハードウェア構成を示す説明図である。FIG. 2 is an explanatory diagram showing the hardware configuration of an object recognition device in the driver information providing system. 同自動車用HUD装置における画像制御装置の主要なハードウェアを示すハードウェアブロック図である。FIG. 2 is a hardware block diagram showing main hardware of an image control device in the automotive HUD device. 実施形態における運動視差によって奥行き感を出した虚像の画像処理方法を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining an image processing method for a virtual image that gives a sense of depth using motion parallax in an embodiment. 直近の交差点で進路変更する状況の画像例を示す説明図である。It is an explanatory view showing an example of an image of a situation where the driver changes course at the nearest intersection. (a)~(e)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する画像例1を示す説明図である。(a) to (e) are explanatory diagrams showing image example 1 in which an image indicating front vehicle approach information changes depending on the inter-vehicle distance from the preceding vehicle. (a)及び(b)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する他の画像例2を示す説明図である。(a) and (b) are explanatory diagrams showing another image example 2 in which an image indicating front vehicle approach information changes depending on the inter-vehicle distance from the preceding vehicle. (a)~(c)は、先行車両との車間距離に応じて前車接近情報を示す画像が変化する更に他の画像例3を示す説明図である。(a) to (c) are explanatory diagrams showing still another image example 3 in which an image indicating front vehicle approach information changes depending on the inter-vehicle distance from the preceding vehicle. (a)~(c)は、直近の交差点で進路変更する状況の他の画像例4を示す説明図である。(a) to (c) are explanatory diagrams showing another image example 4 of a situation where the driver changes course at the nearest intersection. 自車両が走行している道路が通学路である場合に通学路警告画像を中段表示領域に表示させた画像例5を示す説明図である。FIG. 12 is an explanatory diagram showing image example 5 in which a school road warning image is displayed in the middle display area when the road on which the host vehicle is traveling is a school road. 自車両の進行方向における横断歩道を渡ろうとしている人間を検出した場合に人型警告画像を中段表示領域に表示させた画像例6を示す説明図である。FIG. 12 is an explanatory diagram showing image example 6 in which a human-shaped warning image is displayed in the middle display area when a person attempting to cross a crosswalk in the traveling direction of the own vehicle is detected.

以下、本発明を、情報提供装置としての自動車用ヘッドアップディスプレイ(HUD)装置を含んだ運転者情報提供システムに適用した一実施形態について説明する。
図1は、フロントガラス302越しに運転者300から見る自車両301の前方風景に重ねて表示エリア700に表示される虚像Gの一例を示す説明図である。
図2は、本実施形態における自動車用HUD装置を搭載した自動車の構成を模式的に表した模式図である。
図3は、本実施形態における自動車用HUD装置の内部構成を模式的に表した模式図である。
Hereinafter, an embodiment in which the present invention is applied to a driver information providing system including an automobile head-up display (HUD) device as an information providing device will be described.
FIG. 1 is an explanatory diagram showing an example of a virtual image G displayed in a display area 700 superimposed on the scenery in front of the host vehicle 301 as seen from the driver 300 through the windshield 302.
FIG. 2 is a schematic diagram schematically showing the configuration of an automobile equipped with an automobile HUD device according to the present embodiment.
FIG. 3 is a schematic diagram schematically showing the internal configuration of the automotive HUD device in this embodiment.

本実施形態における自動車用HUD装置200は、例えば、移動体としての走行体である自車両301のダッシュボード内に設置される。ダッシュボード内の自動車用HUD装置200から発せられる画像光である投射光Lが光透過部材としてのフロントガラス302で反射され、運転者300に向かう。これにより、運転者300は、後述するナビゲーション画像等のHUD表示画像を虚像として視認することができる。なお、フロントガラス302の内壁面に光透過部材としてのコンバイナを設置し、コンバイナによって反射する投射光Lによって運転者に虚像を視認させるように構成してもよい。 The automobile HUD device 200 in this embodiment is installed, for example, in the dashboard of a host vehicle 301 that is a running object as a moving object. Projection light L, which is image light emitted from the automobile HUD device 200 in the dashboard, is reflected by the windshield 302 as a light-transmitting member and is directed toward the driver 300. Thereby, the driver 300 can visually recognize a HUD display image such as a navigation image to be described later as a virtual image. Note that a combiner as a light transmitting member may be installed on the inner wall surface of the windshield 302, and the driver may be able to visually recognize a virtual image by the projection light L reflected by the combiner.

本実施形態においては、運転者300から虚像Gまでの距離が5m以上となるように、自動車用HUD装置200の光学系等が構成されている。従来の一般的な自動車用HUD装置は、運転者300から虚像Gまでの距離が2m程度であった。運転者300は、通常、車両前方の無限遠点を注視しているか、数十m先の先行車を注視している。このような遠方に焦点を合わせている運転者300が2m先の虚像Gを視認しようとする場合、焦点距離が大きく異なるので、眼球の水晶体を大きく動かす必要がある。そのため、虚像Gに焦点を合わせるまでの焦点調整時間が長くなり、虚像Gの内容を認識するまでに時間がかかるうえ、運転者300の眼球が疲労しやすいという不具合が生じる。また、虚像Gの内容に運転者が気付きにくく、虚像Gによって情報を運転者へ適切に提供することが困難である。 In this embodiment, the optical system and the like of the automobile HUD device 200 are configured so that the distance from the driver 300 to the virtual image G is 5 m or more. In conventional general automotive HUD devices, the distance from the driver 300 to the virtual image G is about 2 meters. The driver 300 usually gazes at an infinite point in front of the vehicle or at a preceding vehicle several tens of meters ahead. When the driver 300 who focuses on such a distant object attempts to visually recognize the virtual image G 2 meters ahead, the lens of the eyeball needs to be moved significantly because the focal lengths are significantly different. Therefore, it takes a long time to adjust the focus until the virtual image G is brought into focus, and it takes time to recognize the contents of the virtual image G, and the driver's 300 eyes easily become fatigued. Furthermore, it is difficult for the driver to notice the contents of the virtual image G, and it is difficult to appropriately provide information to the driver using the virtual image G.

本実施形態のように虚像Gまでの距離が5m以上であれば、従来よりも、眼球の水晶体を動かす量が減り、虚像Gへの焦点調整時間を短縮して虚像Gの内容を早期に認識できるようになり、また運転者300の眼球の疲労を軽減することができる。更には、虚像Gの内容に運転者が気付きやすくなり、虚像Gによって情報を運転者へ適切に提供することが容易になる。 If the distance to the virtual image G is 5 m or more as in this embodiment, the amount of movement of the crystalline lens of the eyeball will be reduced compared to the conventional method, and the time to adjust the focus on the virtual image G will be shortened, allowing for early recognition of the contents of the virtual image G. In addition, the eye fatigue of the driver 300 can be reduced. Furthermore, it becomes easier for the driver to notice the contents of the virtual image G, and it becomes easier to appropriately provide information to the driver using the virtual image G.

更に、虚像Gまでの距離が2m程度である場合、このように近い距離の虚像Gに眼球の焦点を合わせようとすると、通常は眼球の輻輳運動が必要になる。輻輳運動は、視認対象までの距離感や奥行き感に大きな影響を与える要因である。本実施形態では、後述するように、虚像Gとして表示される画像の知覚距離を運動視差により知覚させる表示制御を実施する。この場合、虚像Gに焦点を合わせるために眼球が輻輳運動してしまうと、運動視差による距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が薄まってしまい、画像の知覚距離の違いや変化を利用した後述する運転者の情報認知効果を減退させてしまう。 Further, when the distance to the virtual image G is about 2 m, convergence movement of the eyeballs is usually required to focus the eyeballs on the virtual image G at such a short distance. Convergence motion is a factor that greatly affects the sense of distance and depth to a visual object. In this embodiment, as will be described later, display control is performed in which the perceived distance of an image displayed as a virtual image G is perceived by motion parallax. In this case, if the eyeballs make a convergence movement to focus on the virtual image G, the effect of motion parallax on perceiving the sense of distance (change in perceived distance) and depth (difference in perceived distance) will be weakened, and the image This reduces the driver's information recognition effect, which will be described later, by utilizing differences and changes in perceived distance.

虚像Gまでの距離が5m以上であれば、眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。したがって、運動視差を利用して距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が眼球の輻輳運動によって薄まってしまうことが抑制される。よって、画像の距離感や奥行き感を利用した運転者の情報知覚効果を有効に発揮させることができる。 If the distance to the virtual image G is 5 m or more, it is possible to focus on the virtual image G with almost no convergence movement of the eyeballs. Therefore, the effect of using motion parallax to perceive a sense of distance (change in perceived distance) and a sense of depth (difference in perceived distance) is suppressed from being weakened by the convergence movement of the eyeballs. Therefore, the driver's information perception effect using the sense of distance and depth of the image can be effectively exerted.

自動車用HUD装置200は、HUD本体230内に、赤色、緑色、青色のレーザー光源201R,201G,201Bと、各レーザー光源に対して設けられるコリメータレンズ202,203,204と、2つのダイクロイックミラー205,206と、光量調整部207と、光走査手段としての光走査装置208と、自由曲面ミラー209と、光発散部材としてのマイクロレンズアレイ210と、光反射部材としての投射ミラー211とから構成されている。本実施形態における光源ユニット220は、レーザー光源201R,201G,201B、コリメータレンズ202,203,204、ダイクロイックミラー205,206が、光学ハウジングによってユニット化されている。 The automotive HUD device 200 includes red, green, and blue laser light sources 201R, 201G, and 201B, collimator lenses 202, 203, and 204 provided for each laser light source, and two dichroic mirrors 205 in the HUD main body 230. , 206, a light amount adjusting section 207, a light scanning device 208 as a light scanning means, a free-form mirror 209, a microlens array 210 as a light diverging member, and a projection mirror 211 as a light reflecting member. ing. In the light source unit 220 in this embodiment, laser light sources 201R, 201G, 201B, collimator lenses 202, 203, 204, and dichroic mirrors 205, 206 are unitized by an optical housing.

レーザー光源201R,201G,201BとしてはLD(半導体レーザ素子)を利用することができる。赤色レーザー光源201Rから射出される光束の波長は例えば640nmであり、緑色レーザー光源201Gから射出される光束の波長は例えば530nmであり、青色レーザー光源201Bから射出される光束の波長は例えば445nmである。 LDs (semiconductor laser devices) can be used as the laser light sources 201R, 201G, and 201B. The wavelength of the light flux emitted from the red laser light source 201R is, for example, 640 nm, the wavelength of the light flux emitted from the green laser light source 201G is, for example, 530 nm, and the wavelength of the light flux emitted from the blue laser light source 201B is, for example, 445 nm. .

本実施形態の自動車用HUD装置200は、マイクロレンズアレイ210上に結像される中間像を自車両301のフロントガラス302に投射することで、その中間像の拡大画像を運転者300に虚像Gとして視認させる。レーザー光源201R,201G,201Bから発せられる各色レーザー光は、それぞれ、コリメータレンズ202,203,204で略平行光とされ、2つのダイクロイックミラー205,206により合成される。合成されたレーザー光は、光量調整部207で光量が調整された後、光走査装置208のミラーによって二次元走査される。光走査装置208で二次元走査された走査光L'は、自由曲面ミラー209で反射されて歪みを補正された後、マイクロレンズアレイ210に集光され、中間像を描画する。 The automotive HUD device 200 of this embodiment projects an intermediate image formed on a microlens array 210 onto a windshield 302 of the host vehicle 301, and displays an enlarged image of the intermediate image to the driver 300 as a virtual image G. Make it visible as. The laser beams of each color emitted from the laser light sources 201R, 201G, and 201B are made into substantially parallel beams by collimator lenses 202, 203, and 204, respectively, and combined by two dichroic mirrors 205 and 206. The light intensity of the combined laser beams is adjusted by a light intensity adjustment unit 207, and then two-dimensionally scanned by a mirror of an optical scanning device 208. The scanning light L' that has been two-dimensionally scanned by the optical scanning device 208 is reflected by the free-form mirror 209 to correct distortion, and then is focused on the microlens array 210 to draw an intermediate image.

なお、本実施形態では、中間像の画素(中間像の一点)ごとの光束を個別に発散させて出射する光発散部材として、マイクロレンズアレイ210を用いているが、他の光発散部材を用いてもよい。また、中間像G'の形成方法としては、液晶ディスプレイ(LCD)や蛍光表示管(VFD)を利用した方式でもよい。 Note that in this embodiment, the microlens array 210 is used as a light diverging member that individually diverges and emits the light flux for each pixel of the intermediate image (one point of the intermediate image), but other light diverging members may be used. It's okay. Further, as a method of forming the intermediate image G', a method using a liquid crystal display (LCD) or a fluorescent display tube (VFD) may be used.

ただし、大きな虚像Gを高い輝度で表示させるには、本実施形態のようにレーザー走査方式が好ましい。
また、液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式では、虚像Gが表示される表示領域内の非画像部分にも僅かながら光が照射され、これを完全に遮断することが難しい。そのため、当該非画像部分を通じた自車両301の前方風景の視認性が悪いというデメリットがある。これに対し、本実施形態のようにレーザー走査方式によれば、虚像Gの表示領域内の非画像部分については、レーザー光源201R,201G,201Bを消灯させることにより当該非画像部分に光が照射されるのを完全に遮断することができる。よって、当該非画像部分を通じた自車両301の前方風景の視認性が自動車用HUD装置200から照射される光によって低下する事態を回避でき、前方風景の視認性が高いというメリットがある。
However, in order to display a large virtual image G with high brightness, a laser scanning method as in this embodiment is preferable.
In addition, in systems using liquid crystal displays (LCDs), fluorescent display tubes (VFDs), etc., a small amount of light is irradiated to non-image areas within the display area where the virtual image G is displayed, and this cannot be completely blocked. is difficult. Therefore, there is a disadvantage that visibility of the scenery in front of the own vehicle 301 through the non-image portion is poor. On the other hand, according to the laser scanning method as in this embodiment, light is irradiated to the non-image portion within the display area of the virtual image G by turning off the laser light sources 201R, 201G, and 201B. This can be completely blocked. Therefore, it is possible to avoid a situation in which the visibility of the scenery in front of the own vehicle 301 through the non-image portion is reduced by the light emitted from the automobile HUD device 200, and there is an advantage that the visibility of the scenery in front of the vehicle 301 is high.

更に、運転者に警告等を行うための警告画像の輝度を段階的に高めることで警告の度合いを強めるような場合、表示エリア700内に表示されている各種画像のうちの警告画像の輝度だけを段階的に高めるという表示制御が必要になる。このように表示エリア700内の一部画像について部分的に輝度を高めるような表示制御を行う場合も、レーザー走査方式が好適である。液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式では、表示エリア700内に表示されている警告画像以外の画像についても輝度が高まってしまい、警告画像とそれ以外の画像との間の輝度差を広げることができず、警告画像の輝度を段階的に高めることで警告の度合いを強めるという効果が十分に得られないからである。 Furthermore, if the degree of warning is to be strengthened by gradually increasing the brightness of a warning image to warn the driver, only the brightness of the warning image among the various images displayed in the display area 700 may be increased. Display control is required to increase the value in stages. The laser scanning method is also suitable when performing display control such as partially increasing the brightness of some images in the display area 700 in this way. In a method using a liquid crystal display (LCD) or a fluorescent display tube (VFD), the brightness of images other than the warning image displayed within the display area 700 also increases, causing the difference between the warning image and other images. This is because the difference in brightness between the warning images cannot be widened, and the effect of increasing the degree of warning by increasing the brightness of the warning image in stages cannot be sufficiently achieved.

光走査装置208は、MEMS(Micro Electro Mechanical Systems)等の公知のアクチュエータ駆動システムでミラーを主走査方向及び副走査方向に傾斜動作させ、ミラーに入射するレーザー光を二次元走査(ラスタスキャン)する。ミラーの駆動制御は、レーザー光源201R,201G,201Bの発光タイミングに同期して行われる。光走査装置208は、本実施形態の構成に限らず、例えば、互いに直交する2つの軸回りをそれぞれ揺動あるいは回動する2つのミラーからなるミラー系で構成してもよい。 The optical scanning device 208 tilts the mirror in the main scanning direction and the sub-scanning direction using a known actuator drive system such as MEMS (Micro Electro Mechanical Systems), and performs two-dimensional scanning (raster scanning) of the laser light incident on the mirror. . The drive control of the mirror is performed in synchronization with the emission timing of the laser light sources 201R, 201G, and 201B. The optical scanning device 208 is not limited to the configuration of this embodiment, but may be configured with a mirror system including two mirrors that respectively swing or rotate about two mutually orthogonal axes, for example.

図4は、本実施形態の自動車用HUD装置200における制御系のハードウェアブロック図である。
自動車用HUD装置200の制御系は、主に、FPGA251、CPU252、ROM253、RAM254、I/F255、バスライン256、LDドライバ257、MEMSコントローラー258を備えている。FPGA251は、LDドライバ257により、光源ユニット220のレーザー光源201R,201G,201Bを動作制御し、MEMSコントローラー258により、光走査装置208のMEMS208aを動作制御する。CPU252は、自動車用HUD装置200の各機能を制御する。ROM253は、CPU252が自動車用HUD装置200の各機能を制御するために実行する画像処理用プログラム等の各種プログラムを記憶している。RAM254はCPU252のワークエリアとして使用される。I/F255は、外部コントローラー等と通信するためのインターフェイスであり、例えば、自車両301のCAN(Controller Area Network)を介して、後述の物体認識装置100、車両ナビゲーション装置400、各種センサ500等に接続される。
FIG. 4 is a hardware block diagram of a control system in the automotive HUD device 200 of this embodiment.
The control system of the automotive HUD device 200 mainly includes an FPGA 251, a CPU 252, a ROM 253, a RAM 254, an I/F 255, a bus line 256, an LD driver 257, and a MEMS controller 258. The FPGA 251 controls the operation of the laser light sources 201R, 201G, and 201B of the light source unit 220 using the LD driver 257, and controls the operation of the MEMS 208a of the optical scanning device 208 using the MEMS controller 258. The CPU 252 controls each function of the automotive HUD device 200. The ROM 253 stores various programs such as an image processing program executed by the CPU 252 to control each function of the automotive HUD device 200. RAM 254 is used as a work area for CPU 252. The I/F 255 is an interface for communicating with an external controller, etc., and for example, communicates with an object recognition device 100, a vehicle navigation device 400, various sensors 500, etc., which will be described later, via a CAN (Controller Area Network) of the host vehicle 301. Connected.

図5は、本実施形態における運転者情報提供システムの概略構成を示すブロック図である。
本実施形態においては、虚像Gによって運転者へ提供する運転者提供情報を取得する情報取得手段として、物体認識装置100、車両ナビゲーション装置400、センサ装置500などが設けられている。本実施形態における自動車用HUD装置200は、主に、画像光投射手段としてのHUD本体230と、表示制御手段としての画像制御装置250とから構成される。本実施形態における情報取得手段は自車両301に搭載されているが、自車両301の外部に設置されている情報取得手段を用いて当該情報取得手段が取得した情報を通信手段を介して入力する構成であってもよい。
FIG. 5 is a block diagram showing a schematic configuration of the driver information providing system in this embodiment.
In this embodiment, an object recognition device 100, a vehicle navigation device 400, a sensor device 500, and the like are provided as information acquisition means for acquiring driver-provided information provided to the driver using the virtual image G. The automotive HUD device 200 in this embodiment mainly includes a HUD main body 230 as an image light projection means and an image control device 250 as a display control means. Although the information acquisition means in this embodiment is mounted on the own vehicle 301, the information acquired by the information acquisition means is inputted via the communication means using the information acquisition means installed outside the own vehicle 301. It may be a configuration.

図6は、本実施形態における物体認識装置100のハードウェア構成を示す説明図である。
本実施形態の物体認識装置100は、自車両301の前方領域を撮像領域として撮像する撮像手段としてのステレオカメラ部110と、ステレオカメラ部110によって撮像した撮像画像データに基づいて撮像領域内に存在する所定の認識対象物を認識する画像処理を実行する画像処理手段としての情報処理部120とから構成されている。なお、ステレオカメラ部110に代えて、撮像手段としての単眼カメラと測距手段としてのレーザレーダ(ミリ波レーダ)とを組み合わせた構成を採用してもよい。
FIG. 6 is an explanatory diagram showing the hardware configuration of the object recognition device 100 in this embodiment.
The object recognition device 100 of the present embodiment includes a stereo camera section 110 as an imaging means that images an area in front of the own vehicle 301 as an imaging region, and an object recognition device 100 based on captured image data captured by the stereo camera section 110. The information processing section 120 serves as an image processing means for performing image processing for recognizing a predetermined recognition target object. Note that instead of the stereo camera section 110, a configuration may be adopted in which a monocular camera as an imaging means and a laser radar (millimeter wave radar) as a distance measuring means are combined.

ステレオカメラ部110は、左目用となる第1のカメラ部110Aと、右目用となる第2のカメラ部110Bとの、2台のカメラ部が平行に組みつけられて構成されている。各カメラ部110A,110Bは、それぞれレンズ115、画像センサ116、センサコントローラ117を備えている。画像センサ116は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)で構成されるイメージセンサを用いることができる。センサコントローラ117は、画像センサ116の露光制御、画像読み出し制御、外部回路との通信および画像データの送信制御等を行う。ステレオカメラ部110は、自車両301のフロントガラス302のルームミラー付近に設置される。 The stereo camera section 110 is constructed by assembling two camera sections in parallel, a first camera section 110A for the left eye and a second camera section 110B for the right eye. Each camera section 110A, 110B includes a lens 115, an image sensor 116, and a sensor controller 117, respectively. As the image sensor 116, an image sensor configured of, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) can be used. The sensor controller 117 performs exposure control of the image sensor 116, image readout control, communication with an external circuit, image data transmission control, and the like. The stereo camera unit 110 is installed near the rearview mirror of the windshield 302 of the own vehicle 301.

情報処理部120は、データバスライン121、シリアルバスライン122、CPU(Central Processing Unit)123、FPGA(Field-Programmable Gate Array)124、ROM(Read Only Memory)125、RAM(Random Access Memory)126、シリアルIF(Interface)127、およびデータIF128を有している。 The information processing unit 120 includes a data bus line 121, a serial bus line 122, a CPU (Central Processing Unit) 123, an FPGA (Field-Programmable Gate Array) 124, a ROM (Read Only Memory) 125, a RAM (Random Access Memory) 126, It has a serial IF (Interface) 127 and a data IF 128.

ステレオカメラ部110は、データバスライン121およびシリアルバスライン122を介して情報処理部120と接続されている。CPU123は、ステレオカメラ部110の各センサコントローラ117の制御、情報処理部120全体の動作、画像処理等を実行制御する。各カメラ部110A,110Bの画像センサ116で撮像された撮像画像の輝度画像データは、データバスライン121を介して情報処理部120のRAM126に書き込まれる。CPU123またはFPGA124からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン122を介して送受信される。 The stereo camera section 110 is connected to the information processing section 120 via a data bus line 121 and a serial bus line 122. The CPU 123 executes and controls each sensor controller 117 of the stereo camera section 110, the operation of the entire information processing section 120, image processing, and the like. Luminance image data of captured images captured by the image sensors 116 of each camera unit 110A, 110B is written to the RAM 126 of the information processing unit 120 via the data bus line 121. Sensor exposure value change control data, image readout parameter change control data, various setting data, etc. from the CPU 123 or the FPGA 124 are transmitted and received via the serial bus line 122.

FPGA124は、RAM126に保存された画像データに対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って、視差画像を生成し、RAM18に再度書き込む。ROM125には、車両や歩行者等の立体物、あるいは、路面上の白線等の車線境界線や路面側部に存在する縁石や中央分離帯などの所定の認識対象物を認識するための認識プログラムが記憶されている。認識プログラムは、画像処理プログラムの一例である。 The FPGA 124 generates a parallax image by performing processing that requires real-time performance on the image data stored in the RAM 126, such as gamma correction, distortion correction (parallelization of left and right images), and parallax calculation using block matching. Write again to RAM18. The ROM 125 contains a recognition program for recognizing three-dimensional objects such as vehicles and pedestrians, or predetermined recognition objects such as lane boundaries such as white lines on the road surface, curbs and median strips on the side of the road surface. is memorized. The recognition program is an example of an image processing program.

CPU123は、データIF128を介して、例えば自車両301のCANを介して、車速、加速度、舵角、ヨーレート等のCAN情報を、センサ装置500から取得する。そして、CPU123は、ROM125に記憶されている認識プログラムに従って、RAM126に記憶されている輝度画像および視差画像を用いて画像処理を実行し、例えば先行車両350や車線境界線等の認識対象物の認識を行う。 The CPU 123 acquires CAN information such as vehicle speed, acceleration, steering angle, and yaw rate from the sensor device 500 via the data IF 128, for example, via the CAN of the host vehicle 301. Then, the CPU 123 executes image processing using the luminance image and the parallax image stored in the RAM 126 according to the recognition program stored in the ROM 125, and recognizes objects to be recognized, such as the preceding vehicle 350 and lane boundaries. I do.

認識対象物の認識結果データは、シリアルIF127を介して、例えば、画像制御装置250、車両走行制御ユニット等の外部機器へ供給される。車両走行制御ユニットは、認識対象物の認識結果データを用いて、自車両301のブレーキ制御、速度制御、ステアリング制御などを行い、例えば、予め設定された車間距離を維持するように自車両301を先行車両に自動追尾させるクルーズコントロールや、前方の障害物との衝突を回避、軽減するための自動ブレーキ制御などを実現する。 The recognition result data of the recognition target object is supplied to external devices such as the image control device 250 and the vehicle travel control unit via the serial IF 127, for example. The vehicle running control unit performs brake control, speed control, steering control, etc. of the host vehicle 301 using the recognition result data of the recognition target, and for example, controls the host vehicle 301 to maintain a preset inter-vehicle distance. This includes cruise control, which automatically follows the vehicle in front, and automatic brake control, which helps avoid and reduce collisions with obstacles ahead.

本実施形態における車両ナビゲーション装置400は、自動車等に搭載される公知の車両ナビゲーション装置を広く利用することができる。車両ナビゲーション装置400からは、虚像Gに表示させるルートナビゲーション画像を生成するために必要な情報が出力され、この情報は画像制御装置250に入力される。例えば、図1に示すように、自車両301が走行している道路の車線(走行レーン)の数、次に進路変更(右折、左折、分岐等)すべき地点までの距離、次に進路変更する方向などの情報を示す画像が含まれている。これらの情報が車両ナビゲーション装置400から画像制御装置250に入力されることで、画像制御装置250の制御の下、自動車用HUD装置200によって、走行レーン指示画像711、進路指定画像721、残り距離画像722、交差点等名称画像723などのナビゲーション画像が、表示エリア700の上段表示領域Aや中段表示領域Bに表示される。 The vehicle navigation device 400 in this embodiment can widely utilize known vehicle navigation devices installed in automobiles and the like. The vehicle navigation device 400 outputs information necessary to generate a route navigation image to be displayed on the virtual image G, and this information is input to the image control device 250. For example, as shown in FIG. 1, the number of lanes (driving lanes) on the road on which the host vehicle 301 is traveling, the distance to the next point where the course should be changed (right turn, left turn, branch, etc.), and the next course change. Contains images that show information such as directions. By inputting this information from the vehicle navigation device 400 to the image control device 250, the vehicle HUD device 200, under the control of the image control device 250, displays a driving lane instruction image 711, a course designation image 721, and a remaining distance image. Navigation images such as 722 and intersection name image 723 are displayed in the upper display area A and the middle display area B of the display area 700.

また、図1に示した画像例では、表示エリア700の下段表示領域Cに、道路の固有情報(道路名、制限速度等)を示す画像が表示される。この道路の固有情報も、車両ナビゲーション装置400から画像制御装置250に入力される。画像制御装置250は、当該道路固有情報に対応する道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等を、自動車用HUD装置200によって表示エリア700の下段表示領域Cに表示させる。 Further, in the image example shown in FIG. 1, an image showing road specific information (road name, speed limit, etc.) is displayed in the lower display area C of the display area 700. This road specific information is also input from the vehicle navigation device 400 to the image control device 250. The image control device 250 causes the automobile HUD device 200 to display a road name display image 701, a speed limit display image 702, an overtaking prohibition display image 703, etc. corresponding to the road-specific information in the lower display area C of the display area 700. .

本実施形態におけるセンサ装置500は、自車両301の挙動、自車両301の状態、自車両301の周囲の状況などを示す各種情報を検出するための1又は2以上のセンサで構成されている。センサ装置500からは、虚像Gとして表示させる画像を生成するために必要なセンシング情報が出力され、このセンシング情報は画像制御装置250に入力される。例えば、図1に示した画像例には、自車両301の車速を示す車速表示画像704(図1では「83km/h」という文字画像)を、表示エリア700の下段表示領域Cに表示させる。そのため、自車両301のCAN情報に含まれる車速情報がセンサ装置500から画像制御装置250に入力され、画像制御装置250の制御の下、自動車用HUD装置200によって当該車速を示す文字画像が表示エリア700の下段表示領域Cに表示される。 The sensor device 500 in this embodiment includes one or more sensors for detecting various information indicating the behavior of the own vehicle 301, the state of the own vehicle 301, the situation around the own vehicle 301, and the like. The sensor device 500 outputs sensing information necessary to generate an image to be displayed as the virtual image G, and this sensing information is input to the image control device 250. For example, in the image example shown in FIG. 1, a vehicle speed display image 704 (in FIG. 1, a character image "83 km/h") indicating the vehicle speed of the host vehicle 301 is displayed in the lower display area C of the display area 700. Therefore, vehicle speed information included in the CAN information of the own vehicle 301 is input from the sensor device 500 to the image control device 250, and under the control of the image control device 250, the character image indicating the vehicle speed is displayed in the display area by the automobile HUD device 200. 700 is displayed in the lower display area C.

センサ装置500は、自車両301の車速を検出するセンサ以外にも、例えば、自車両301の周囲(前方、側方、後方)に存在する他車両、歩行者、建造物(ガードレールや電柱等)との距離を検出するレーザーレーダー装置や撮像装置、自車両の外部環境情報(外気温、明るさ、天候等)を検出するためのセンサ、運転者300の運転動作(ブレーキ走査、アクセル開閉度等)を検出するためのセンサ、自車両301の燃料タンク内の燃料残量を検出するためのセンサ、エンジンやバッテリー等の各種車載機器の状態を検出するセンサなどが挙げられる。このような情報をセンサ装置500で検出して画像制御装置250へ送ることで、それらの情報を虚像Gとして自動車用HUD装置200により表示して運転者300へ提供することができる。 In addition to the sensor that detects the vehicle speed of the host vehicle 301, the sensor device 500 also detects other vehicles, pedestrians, and buildings (guardrails, telephone poles, etc.) around the host vehicle 301 (in front, sides, and rear). A laser radar device or an imaging device that detects the distance from ), a sensor for detecting the remaining amount of fuel in the fuel tank of the host vehicle 301, a sensor for detecting the status of various on-vehicle devices such as an engine and a battery, and the like. By detecting such information with the sensor device 500 and sending it to the image control device 250, the information can be displayed as a virtual image G by the automobile HUD device 200 and provided to the driver 300.

図7は、画像制御装置250の主要なハードウェアを示すハードウェアブロック図である。
画像制御装置250は、CPU251、RAM252、ROM253、入力用データIF254、および出力用データIF255が、データバスラインによって互いに接続されている。入力用データIF254には、物体認識装置100から出力される各種認識結果データ、センサ装置500から出力されるセンシング情報、車両ナビゲーション装置400から出力される各種情報などが入力される。出力用データIF255からは、自動車用HUD装置200の制御信号等が出力される。CPU251は、ROM253等に記憶されている情報提供用制御プログラムなどの各種コンピュータプログラムを実行して、画像制御装置250に後述する各種制御や各種処理を行わせる。
FIG. 7 is a hardware block diagram showing the main hardware of the image control device 250.
In the image control device 250, a CPU 251, a RAM 252, a ROM 253, an input data IF 254, and an output data IF 255 are connected to each other by a data bus line. The input data IF 254 receives various recognition result data output from the object recognition device 100, sensing information output from the sensor device 500, various information output from the vehicle navigation device 400, and the like. The output data IF 255 outputs control signals for the automobile HUD device 200 and the like. The CPU 251 executes various computer programs such as an information provision control program stored in the ROM 253 and the like, and causes the image control device 250 to perform various controls and processes to be described later.

次に、自動車用HUD装置200によって表示される虚像Gについて説明する。
本実施形態における自動車用HUD装置200において、虚像Gによって運転者へ提供する運転者提供情報は、運転者にとって有用な情報であればどのような情報であってもよい。本実施形態では、運転者提供情報を受動情報と能動情報とに大別している。
Next, the virtual image G displayed by the automobile HUD device 200 will be explained.
In the automobile HUD device 200 according to the present embodiment, the driver-provided information provided to the driver by the virtual image G may be any information as long as it is useful for the driver. In this embodiment, driver-provided information is roughly divided into passive information and active information.

受動情報とは、所定の情報提供条件が満たされたタイミングで運転者によって受動的に認知される情報である。したがって、自動車用HUD装置200の設定タイミングで運転者へ提供される情報は受動情報に含まれ、また、情報が提供されるタイミングと情報の内容との間に一定の関係性をもつ情報が受動情報に含まれる。受動情報としては、例えば、運転時の安全性に関わる情報、ルートナビゲーション情報などが挙げられる。運転時の安全性に関わる情報としては、例えば、自車両301と先行車両350との車間距離情報(車間距離提示画像712)、運転に関わる緊急性のある情報(運転者に緊急操作を指示する緊急操作指示情報などの警告情報あるいは注意喚起情報等)などが挙げられる。また、ルートナビゲーション情報は、予め設定された目的地までの走行ルートを案内するための情報であり、公知の車両ナビゲーション装置によって運転者へ提供されるものである。ルートナビゲーション情報としては、直近の交差点で走行すべき走行レーンを指示する走行レーン指示情報(走行レーン指示画像711)や、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報などが挙げられる。進路変更操作指示情報としては、具体的には、当該交差点等においていずれの進路をとるべきかの進路指定を行う進路指定情報(進路指定画像721)、その進路変更操作を行う交差点等までの残り距離情報(残り距離画像722)、当該交差点等の名称情報(交差点等名称画像723)などが挙げられる。 Passive information is information that is passively recognized by the driver when a predetermined information provision condition is met. Therefore, information provided to the driver at the setting timing of the automotive HUD device 200 is included in passive information, and information that has a certain relationship between the timing at which information is provided and the content of the information is passive information. Included in the information. Examples of passive information include information related to driving safety and route navigation information. Information related to safety during driving includes, for example, information on the distance between the own vehicle 301 and the preceding vehicle 350 (inter-vehicle distance presentation image 712), and information on urgent matters related to driving (instructing the driver to perform emergency operations). Warning information such as emergency operation instruction information, caution information, etc.). Further, the route navigation information is information for guiding a driving route to a preset destination, and is provided to the driver by a known vehicle navigation device. Route navigation information includes driving lane instruction information (driving lane instruction image 711) that instructs the driving lane in which to drive at the nearest intersection, and course change operations at intersections and branch points where the next course should be changed from the straight direction. Examples include route change operation instruction information. Specifically, the route change operation instruction information includes route designation information (route designation image 721) that specifies which route to take at the intersection, etc., and the remaining distance to the intersection, etc. where the route change operation is to be performed. Examples include distance information (remaining distance image 722), name information of the intersection, etc. (intersection name image 723), and the like.

能動情報とは、運転者自らが決めるタイミングで運転者によって能動的に認知される情報である。能動情報は、運転者の希望するタイミングで運転者へ提供されれば十分な情報であり、例えば、情報が提供されるタイミングと情報の内容との間の関係性が低い又は無いような情報は、能動情報に含まれる。能動情報は、運転者の希望するタイミングで運転者が取得する情報であることから、ある程度の長い期間あるいは常時、表示され続けるような情報である。例えば、自車両301が走行している道路の固有情報、自車両301の車速情報(車速表示画像704)、現在時刻情報などが挙げられる。道路の固有情報としては、例えば、その道路名情報(道路名表示画像701)、その道路の制限速度等の規制内容情報(制限速度表示画像702、追い越し禁止表示画像703)、その他当該道路に関わる情報として運転者にとって有用なものが挙げられる。 Active information is information that is actively recognized by the driver at a timing determined by the driver. Active information is sufficient information if it is provided to the driver at the timing desired by the driver.For example, information where there is little or no relationship between the timing at which the information is provided and the content of the information is , included in active information. Active information is information that the driver acquires at a timing that the driver desires, and therefore is information that continues to be displayed for a fairly long period of time or all the time. Examples include unique information of the road on which the host vehicle 301 is traveling, vehicle speed information of the host vehicle 301 (vehicle speed display image 704), current time information, and the like. The unique information of a road includes, for example, the road name information (road name display image 701), regulation content information such as the speed limit of the road (speed limit display image 702, overtaking prohibition display image 703), and other information related to the road. The information includes information that is useful to the driver.

本実施形態では、このようにして大別される受動情報と能動情報を、虚像Gを表示可能な表示エリア700内のそれぞれ対応する表示領域に表示させる。具体的には、本実施形態では、表示エリア700を上下方向に3つの表示領域に区分し、そのうちの上段表示領域Aと中段表示領域Bには受動情報に対応する受動情報画像を表示し、下段表示領域Cには能動情報に対応する能動情報画像を表示する。なお、能動情報画像の一部を上段表示領域Aや中段表示領域Bに表示させてもよいが、その場合には上段表示領域Aや中段表示領域Bに表示される受動情報画像の視認性を優先するように能動情報画像を表示する。 In this embodiment, passive information and active information, which are broadly classified in this way, are displayed in corresponding display areas within the display area 700 where the virtual image G can be displayed. Specifically, in this embodiment, the display area 700 is divided into three display areas in the vertical direction, and the upper display area A and the middle display area B display passive information images corresponding to passive information, In the lower display area C, an active information image corresponding to the active information is displayed. Note that a part of the active information image may be displayed in the upper display area A and the middle display area B, but in that case, the visibility of the passive information image displayed in the upper display area A and the middle display area B may be Display the active information image to give priority.

本実施形態の受動情報には、ルートナビゲーション情報等のように運転者300への操作指示内容を示す操作指示情報が含まれる。このような操作指示情報を運転者へ提供する場合、通常、直近の操作指示内容を示す操作指示画像だけでなく、その後の操作指示内容を示す操作指示画像も併せて表示させることが、運転者の不安(その後はどのような操作を行うことになるのかが不明であることによる不安)を解消できる点で好ましい。図1に示す例においても、直近の交差点で走行すべき走行レーンを指示する走行レーン指示画像711と一緒に、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示画像721,722,723が表示されている。 The passive information of this embodiment includes operation instruction information indicating the content of operation instructions to the driver 300, such as route navigation information. When providing such operation instruction information to the driver, it is usually recommended to display not only an operation instruction image showing the most recent operation instruction content, but also an operation instruction image showing the subsequent operation instruction content. This is preferable because it eliminates anxiety (anxiety caused by not knowing what operations will be performed afterwards). In the example shown in FIG. 1 as well, along with the driving lane instruction image 711 that instructs the driving lane in which to travel at the nearest intersection, the direction change operation at the intersection or branch point where the next course should be changed from the straight direction is instructed. Route change operation instruction images 721, 722, and 723 are displayed.

このように、操作順序が異なる複数の操作指示画像、すなわち、走行レーン指示画像711と進路変更操作指示画像721,722,723とを、表示エリア700内に同時期に表示させる場合、各操作指示画像が示す操作指示内容の操作順序を運転者が迷ってしまうような事態をできるだけ回避することが望まれる。 In this way, when displaying a plurality of operation instruction images having different operation orders, that is, the driving lane instruction image 711 and the course change operation instruction images 721, 722, and 723 in the display area 700 at the same time, each operation instruction It is desirable to avoid as much as possible a situation in which the driver becomes confused about the order of operation instructions shown in the image.

そこで、本実施形態においては、操作順序が異なる複数の操作指示画像を、運転者に操作させる操作順序が後になる操作指示画像ほど、表示エリア700内の上側に表示されるように画像表示制御を行っている。すなわち、走行レーン指示画像711よりも操作順序が後になる進路変更操作指示画像721,722,723を、当該走行レーン指示画像711よりも上側に表示させている。これにより、走行レーン指示画像711の操作指示内容と進路変更操作指示画像721,722,723の操作指示内容について、運転者が操作順序を迷ってしまうような事態を回避することができる。これは、次の理由による。 Therefore, in the present embodiment, among a plurality of operation instruction images having different operation orders, the image display control is performed so that the operation instruction images that are operated by the driver later in the operation order are displayed higher in the display area 700. Is going. That is, the course change operation instruction images 721, 722, and 723, which are operated later than the driving lane instruction image 711, are displayed above the driving lane instruction image 711. Thereby, it is possible to avoid a situation in which the driver becomes confused about the order of operations regarding the operation instruction contents of the driving lane instruction image 711 and the operation instruction contents of the course change operation instruction images 721, 722, and 723. This is due to the following reason.

運転中の運転者300は、通常、進行する自車両301の前方に位置する物体は時間の経過により現在位置に向かって近づいてくるという距離の観念を持っている。一方、運転者300は、未来の出来事は時間の経過により現在時刻に向かって近づいてくるという時間の観念も持っている。進行する自車両301の前方に存在する物体は、自車両301までの距離が近いほど自車両301の位置に到達するまでの時間が早く、自車両301までの距離が遠いほど自車両301の位置に到達までの時間が遅い。そのため、進行する自車両301から前方へ遠く離れた物体は、遠い未来の出来事との間で認知の親和性が高く、進行する自車両301の前方近くに位置する物体は、より近い未来の出来事との間で認知の親和性が高い。 The driver 300 who is driving usually has the concept of distance that an object located in front of the traveling own vehicle 301 approaches the current position as time passes. On the other hand, the driver 300 also has the concept of time that future events will approach the current time as time passes. The shorter the distance to the own vehicle 301, the faster the object existing in front of the traveling own vehicle 301 will reach the own vehicle 301, and the farther the distance to the own vehicle 301, the faster the object will reach the own vehicle 301's position. The time it takes to reach is slow. Therefore, an object that is far away in front of the traveling own vehicle 301 has a high recognition affinity with an event in the distant future, and an object located near the front of the traveling own vehicle 301 has a high recognition affinity with an event in the near future. There is a high cognitive affinity between the two.

この親和性を考慮し、進行する自車両301から前方へ遠く離れた物体が視認される位置に重なるように、遠い未来の操作指示画像(操作順序が後になる操作指示内容を示す操作指示画像、すなわち、進路変更操作指示画像721,722,723)を表示させ、進行する自車両301の前方近くに位置する物体が視認される位置に重なるように、より近い未来(現在を含む。)の操作指示画像(操作順序が先になる操作指示内容を示す操作指示画像、すなわち、走行レーン指示画像711)を表示させれば、これらの操作指示内容の操作順序を運転者に直感的に認知させることができる。 In consideration of this affinity, an operation instruction image in the distant future (an operation instruction image indicating the content of the operation instruction whose operation order will be later) is created so that it overlaps the position where an object far away in front of the traveling host vehicle 301 is visible. That is, display the course change operation instruction images 721, 722, 723), and perform operations in the nearer future (including the present) so that the object located near the front of the traveling own vehicle 301 overlaps with the visible position. By displaying an instruction image (operation instruction image showing the operation instruction contents whose operation order comes first, that is, driving lane instruction image 711), the driver can intuitively recognize the operation order of these operation instruction contents. I can do it.

ここで、運転中の運転者300は、上述したとおり、自車両前方の無限遠点を注視しているか、数十m先を走行している先行車両350の背面を注視しているのが通常であり、その注視点は、おおよそ、フロントガラス302から見える前方風景の鉛直方向中央近辺である。本実施形態においては、操作順序が異なる走行レーン指示画像711と進路変更操作指示画像721,722,723とが表示される表示エリア700を、フロントガラス302から見える前方風景の下部に位置決めしている。よって、走行レーン指示画像711と進路変更操作指示画像721,722,723とは、運転者300の注視点よりも下側で、前方風景に重なるように表示されることになる。運転者300の注視点よりも下側の前方風景部分は、自車両301から遠い地点の物体ほど上側で視認され、自車両301に近い地点の物体ほど下側で視認される。 Here, as mentioned above, the driver 300 while driving is usually gazing at an infinite point in front of his own vehicle or at the back of the preceding vehicle 350 that is running several tens of meters ahead. The point of view is approximately in the vicinity of the vertical center of the front scenery seen through the windshield 302. In this embodiment, the display area 700 in which the driving lane instruction image 711 and the course change operation instruction images 721, 722, and 723 with different operation orders are displayed is positioned at the bottom of the front scenery visible from the windshield 302. . Therefore, the driving lane instruction image 711 and the course change operation instruction images 721, 722, and 723 are displayed below the gaze point of the driver 300 so as to overlap with the scenery ahead. In the forward scenery portion below the gaze point of the driver 300, objects farther from the own vehicle 301 are viewed higher, and objects closer to the own vehicle 301 are viewed lower.

よって、本実施形態においては、走行レーン指示画像711よりも操作順序が後になる進路変更操作指示画像721,722,723を、当該走行レーン指示画像711よりも上側に表示させている。具体的には、進行する自車両301から前方へ遠く離れた物体の視認位置に重なる表示エリア700の上段表示領域Aに、操作順序が後になる進路変更操作指示画像721,722,723を表示させ、進行する自車両301の前方近くに位置する物体の視認位置に重なる表示エリア700の中段表示領域Bに、操作順序が先になる走行レーン指示画像711を表示させている。これにより、上述した認知の親和性の高さから、これらの操作指示内容の操作順序を運転者に直感的に認知させることができ、運転者が操作順序を迷ってしまうような事態を回避することができる。 Therefore, in this embodiment, the course change operation instruction images 721, 722, and 723, which are operated later than the driving lane instruction image 711, are displayed above the driving lane instruction image 711. Specifically, course change operation instruction images 721, 722, and 723 whose operation order is later are displayed in the upper display area A of the display area 700 that overlaps with the visible position of an object that is far forward from the traveling own vehicle 301. , a driving lane instruction image 711 that is operated first is displayed in the middle display region B of the display area 700, which overlaps with the visible position of an object located near the front of the traveling own vehicle 301. This allows the driver to intuitively recognize the order of operation of these operation instructions due to the high recognition affinity mentioned above, and avoids situations where the driver becomes confused about the order of operations. be able to.

なお、逆に、この認知の親和性を考慮せずに、例えば、走行レーン指示画像711と進路変更操作指示画像721,722,723の表示位置を、本実施形態とは上下逆の位置にしたり、横並びにしたりすると、運転者は、上述した距離の観念及び時間の観念が邪魔して、その操作順序を直感的に認知することが困難となる。 Conversely, without considering this cognitive affinity, for example, the display positions of the driving lane instruction image 711 and the course change operation instruction images 721, 722, 723 may be set upside down from the present embodiment. , side-by-side, it becomes difficult for the driver to intuitively recognize the order of operations because the above-mentioned concept of distance and time interferes with the driver.

また、この認知の親和性を利用し、本実施形態では、操作順序が同じ操作指示内容に関わる複数の操作指示画像については横並びに配置するようにしている。具体的には、上段表示領域Aに表示される3つの進路変更操作指示画像721,722,723については、いずれも、次に直進方向から進路変更すべき交差点や分岐点での進路変更操作を指示する進路変更操作指示情報を示すものであるため、上段表示領域A内に横並びで配置している。上述した距離の観念及び時間の観念によれば、同じ上下方向位置に横並びに配置された3つの進路変更操作指示画像721,722,723は、同じ時期の操作指示内容に関する情報であることうを直感的に認知しやすい。よって、進路変更操作指示画像721,722,723の情報を適切に認識することができる。 Further, by utilizing this cognitive affinity, in this embodiment, a plurality of operation instruction images related to operation instruction contents having the same operation order are arranged side by side. Specifically, the three course change operation instruction images 721, 722, and 723 displayed in the upper display area A all indicate the next course change operation at an intersection or branch point where the course should be changed from the straight direction. Since these information indicate the course change operation instruction information, they are arranged side by side in the upper display area A. According to the concept of distance and the concept of time described above, the three course change operation instruction images 721, 722, and 723 arranged side by side at the same vertical position are information regarding the operation instruction contents at the same time. Easy to recognize intuitively. Therefore, the information in the course change operation instruction images 721, 722, and 723 can be appropriately recognized.

また、本実施形態においては、表示エリア700に表示される虚像Gとして、立体視を用いて表現された立体視画像を用いている。具体的には、表示エリア700の中段表示領域Bに表示される車間距離提示画像712及び走行レーン指示画像711として、遠近法により表現される遠近法画像を用いている。 Furthermore, in this embodiment, a stereoscopic image expressed using stereoscopic vision is used as the virtual image G displayed in the display area 700. Specifically, as the inter-vehicle distance presentation image 712 and driving lane instruction image 711 displayed in the middle display area B of the display area 700, a perspective image expressed by a perspective method is used.

詳しくは、車間距離提示画像712を構成する5本の横線の長さを上側に向かうほど短くなるようにして、車間距離提示画像712を1つの消失点に向かうように透視図法により作図された遠近法画像としている。特に、本実施形態では、その消失点が運転者の注視点近傍に定まるように車間距離提示画像712が表示されることから、運転中の運転者300に車間距離提示画像712の奥行き感を知覚させやすい。また、本実施形態では、更に、横線の太さが上側に向かうほど細くしたり、横線の輝度が上側に向かうほど低くなったりするようにした遠近法画像としている。これによって、運転中の運転者300には、車間距離提示画像712の奥行き感を更に知覚させやすくなる。 Specifically, the length of the five horizontal lines constituting the inter-vehicle distance presentation image 712 becomes shorter toward the top, and the perspective drawing method is used to draw the inter-vehicle distance presentation image 712 toward one vanishing point. It is considered a legal image. In particular, in this embodiment, since the inter-vehicle distance presentation image 712 is displayed such that its vanishing point is determined near the driver's gaze point, the driver 300 who is driving has a sense of depth in the inter-vehicle distance presentation image 712. Easy to do. Furthermore, in this embodiment, the perspective image is such that the thickness of the horizontal line becomes thinner as it goes upward, and the brightness of the horizontal line becomes lower as it goes upward. This makes it easier for the driver 300 while driving to perceive the sense of depth of the inter-vehicle distance presentation image 712.

このような立体視画像を利用して表示エリア700に表示される虚像Gに奥行き感を出すことで、表示エリア700に表示される画像の上下方向位置と前方風景内の物体までの距離との関連性を運転者が知覚しやすくなる。その結果、上述した認知の親和性がより得られやすくなり、表示エリア700の中段表示領域Bに表示される走行レーン指示画像711の操作指示内容の方が、表示エリア700の上段表示領域Aに表示される進路変更操作指示画像721,722,723よりも先に操作すべき内容であることを、運転者は直感的に認識しやすくなる。 By using such a stereoscopic image to create a sense of depth in the virtual image G displayed in the display area 700, the vertical position of the image displayed in the display area 700 and the distance to the object in the front scenery can be adjusted. It becomes easier for the driver to perceive the relevance. As a result, the above-mentioned recognition affinity is more easily obtained, and the operation instruction content of the driving lane instruction image 711 displayed in the middle display area B of the display area 700 is more likely to be displayed in the upper display area A of the display area 700. It becomes easier for the driver to intuitively recognize that this is the content that should be operated before the displayed course change operation instruction images 721, 722, and 723.

また、走行レーン指示画像711についても、車間距離提示画像712と同様、車間距離提示画像712の消失点と同様の地点が消失点となるように透視図法により作図されている。ただし、走行レーン指示画像711は、運転者へ操作指示内容を提供するという側面を有する。そのため、より奥行き感を出すことよりも、走行レーン指示画像711の操作指示内容がより明確に運転者へ提供されることを優先する場合には、例えば、走行レーン指示画像711を構成する3つの矢印画像を、その矢印の先端に向かうにつれて輝度が高くなるようにしてもよい。レーザー走査方式は、他の方式に比して、画像領域ごとの輝度調整が容易であり、そのため、輝度の低い領域と高い領域のコントラストを大きくつけることができる。よって、上述のように矢印の先端の輝度を高めて運転者への情報提供を明確に行う場合に有効となる。この場合、走行レーン指示画像711は上側に向かうほど輝度が低くなってしまうため、上側に向かうほど輝度を低くする方が奥行き感を出しやすいことから、奥行き感を高めることはできないが、矢印先端の輝度を高めることで、矢印の向きの視認性が高まり、走行レーン指示画像711の操作指示内容をより明確に運転者へ提供することが可能となる。なお、この場合であっても、走行レーン指示画像711が透視図法により作図されていることから、奥行き感が大きく損なわれるようなことはない。 Furthermore, like the inter-vehicle distance presentation image 712, the driving lane instruction image 711 is also drawn using perspective drawing so that the vanishing point is the same as the vanishing point of the inter-vehicle distance presentation image 712. However, the driving lane instruction image 711 has the aspect of providing operation instruction content to the driver. Therefore, if priority is given to clearly providing the operation instruction content of the driving lane instruction image 711 to the driver rather than creating a sense of depth, for example, the three composing the driving lane instruction image 711 The brightness of the arrow image may increase toward the tip of the arrow. Compared to other methods, the laser scanning method makes it easier to adjust the brightness for each image area, so it is possible to increase the contrast between low and high brightness areas. Therefore, as described above, this is effective when increasing the brightness at the tip of the arrow to clearly provide information to the driver. In this case, since the brightness of the driving lane instruction image 711 decreases toward the top, it is easier to create a sense of depth by lowering the brightness toward the top, so the sense of depth cannot be enhanced, but the tip of the arrow By increasing the brightness, the visibility of the direction of the arrow increases, and it becomes possible to more clearly provide the operation instruction content of the driving lane instruction image 711 to the driver. Note that even in this case, since the driving lane instruction image 711 is drawn using perspective drawing, the sense of depth will not be significantly impaired.

次に、運動視差を利用して虚像Gまでの距離を知覚させて距離感や奥行き感を出す方法について説明する。
本実施形態では、虚像Gとして、運動視差により表現される運動視差画像を用いている。運動視差とは、運転者300の目の位置(視点位置)が移動することによって生じる視差を意味する。運動視差による距離感、奥行き感は、運転者300の目の位置が移動するときに、前方風景内における近い物体ほど大きく動き、遠い物体ほど動きが少ないように視認される動きのズレから、運転者300が各物体までの距離感、奥行き感を知覚するものである。
Next, a method of creating a sense of distance and depth by making the user perceive the distance to the virtual image G using motion parallax will be described.
In this embodiment, a motion parallax image expressed by motion parallax is used as the virtual image G. Motion parallax refers to parallax caused by movement of the eye position (viewpoint position) of driver 300. The sense of distance and depth due to motion parallax is caused by the difference in movement in which when the position of the driver's 300 eyes moves, the closer objects in the front scenery are perceived as moving more, and the farther objects are visually perceived as moving less. The person 300 perceives the sense of distance and depth to each object.

本実施形態では、図2に示したように、運転者300の目の位置(視点位置)を観測する視点位置検知手段としての運転者カメラ150が自車両301のフロントガラス302のルームミラー付近に設置されている。運転者カメラ150の設置位置は、運転者300の上下左右の動きを精度よく取得するため、運転席に座る運転者300の正中線に近くであるのが好ましい。ただし、運転者300の視界を遮らないように、例えば上方の位置に配置するのが好ましい。 In this embodiment, as shown in FIG. 2, a driver camera 150 as a viewpoint position detection means for observing the eye position (viewpoint position) of the driver 300 is placed near the rearview mirror of the windshield 302 of the own vehicle 301. is set up. The installation position of the driver camera 150 is preferably close to the midline of the driver 300 sitting in the driver's seat in order to accurately capture the vertical and horizontal movements of the driver 300. However, it is preferable to arrange it, for example, in an upper position so as not to obstruct the driver's 300's view.

運転者カメラ150は、運転席に座る運転者300が運転中に頭部を動かすことが想定される範囲を撮像領域として撮像するように設定されている単眼カメラであり、ステレオカメラ部110の各カメラ部110A,110Bと同様、レンズ、画像センサ、センサコントローラ等から構成されている。運転者カメラ150として、ステレオカメラを用い、運転者の目の位置の前後方向位置も把握するようにしてもよい。 The driver camera 150 is a monocular camera that is set to capture an image area in which the driver 300 sitting in the driver's seat is expected to move his or her head while driving. Like the camera sections 110A and 110B, it is composed of a lens, an image sensor, a sensor controller, and the like. As the driver camera 150, a stereo camera may be used to grasp the position of the driver's eyes in the front and rear directions.

運転者カメラ150で撮像された撮像画像の輝度画像データは、画像制御装置250に入力される。画像制御装置250は、CPU251がROM253等に記憶されている情報提供用制御プログラムを実行することにより、運転者カメラ150からの輝度画像データに基づき、運転者300の目の位置を認識する。本実施形態では、簡易的に、運転者カメラ150からの輝度画像データに基づいて運転者300の頭部位置を認識し、その認識結果から運転者300の目の位置を推定する。運転者300の頭部位置の認識方法は、一般的な認識処理方法を広く採用することができる。 The brightness image data of the captured image captured by the driver's camera 150 is input to the image control device 250. The image control device 250 recognizes the position of the eyes of the driver 300 based on the brightness image data from the driver camera 150 when the CPU 251 executes the information provision control program stored in the ROM 253 or the like. In this embodiment, the head position of the driver 300 is simply recognized based on the brightness image data from the driver camera 150, and the positions of the driver's 300 eyes are estimated from the recognition result. As a method for recognizing the head position of the driver 300, a wide variety of general recognition processing methods can be adopted.

図8は、本実施形態における運動視差によって奥行き感を出した虚像Gの画像処理方法を説明するための説明図である。
図8に示すように、運転者300の頭部がDdだけ移動した場合、運転者300から近い距離Laに位置する物体Oaの視認位置はDaだけ移動し、運転者300から遠い距離Lbに位置する物体Obの視認位置はDaよりも少ないDbだけ移動し、運転者300から更に遠い距離Lcに位置する物体Ocの視認位置はDbよりも更に少ないDcだけ移動する。これらの物体Oa,Ob,Oc間における視認位置の移動量Da,Db,Dcの違いにより、運転者300は、物体Oaが距離Laだけ離れた位置に存在し、物体Obが距離Lbだけ離れた位置に存在し、物体Ocが距離Lcだけ離れた位置に存在することを知覚することができる。
FIG. 8 is an explanatory diagram for explaining an image processing method for the virtual image G that produces a sense of depth by using motion parallax in this embodiment.
As shown in FIG. 8, when the head of the driver 300 moves by Dd, the visible position of the object Oa located at a distance La near from the driver 300 moves by Da, and is located at a distance Lb far from the driver 300. The visible position of the object Ob moves by Db, which is less than Da, and the visible position of the object Oc, which is located at a further distance Lc from the driver 300, moves by Dc, which is even less than Db. Due to the difference in the movement amounts Da, Db, and Dc of the visible positions among these objects Oa, Ob, and Oc, the driver 300 can determine that the object Oa is located at a distance La, and the object Ob is located at a distance Lb. It is possible to perceive that the object Oc is present at a distance Lc.

本実施形態における虚像Gは、運転者300から距離5mの位置に表示されるものであり、虚像G上におけるいずれの画像部分も、運転者300から距離5mの位置に表示される。本実施形態では、上述した運動視差を用いることによって、虚像G上における複数の画像部分を互いに異なる距離に表示されているかのように、運転者300へ知覚させるものである。 The virtual image G in this embodiment is displayed at a distance of 5 m from the driver 300, and any image portion on the virtual image G is displayed at a distance of 5 m from the driver 300. In this embodiment, by using the above-mentioned motion parallax, the driver 300 is made to perceive a plurality of image parts on the virtual image G as if they were displayed at different distances from each other.

具体的には、画像制御装置250は、所定の時間間隔で、運転者カメラ150で撮像された撮像画像の輝度画像データに基づいて運転者300の頭部位置を認識する。そして、画像制御装置250は、当該時間間隔の間に運転者300の頭部が移動した運転者頭部移動量Ddを算出する。このとき、距離5mに表示される虚像Gの視認位置は、Daだけ移動することになる。 Specifically, the image control device 250 recognizes the head position of the driver 300 based on the brightness image data of the captured image captured by the driver camera 150 at predetermined time intervals. The image control device 250 then calculates the amount of driver head movement Dd that the driver's 300 head has moved during the time interval. At this time, the visible position of the virtual image G displayed at a distance of 5 m will move by Da.

本実施形態では、下段表示領域Cに表示される画像部分は、表示エリア700内の表示位置が固定されている。そのため、下段表示領域Cに表示される画像部分の視認位置は、虚像Gの移動量と同じ移動量Daだけ移動する。よって、下段表示領域Cに表示される画像部分は、距離La(5m)に表示されているように運転者300に知覚されることになる。 In this embodiment, the display position of the image portion displayed in the lower display area C is fixed within the display area 700. Therefore, the visible position of the image portion displayed in the lower display area C moves by the same amount of movement Da as the amount of movement of the virtual image G. Therefore, the image portion displayed in the lower display area C is perceived by the driver 300 as being displayed at a distance La (5 m).

一方、画像制御装置250は、算出した運転者頭部移動量Ddに応じて、虚像Gの表示エリア700のうちの中段表示領域Bに表示される画像部分については、表示エリア700内を運転者の頭部移動方向とは逆方向へDa-Dbだけ移動させる。これにより、中段表示領域Bに表示される画像部分については、運転者300から見た視認位置が移動量Dbだけ移動するものになる。その結果、中段表示領域Bに表示される画像部分は、距離Lbに表示されているように運転者300に知覚されることになる。 On the other hand, the image control device 250 allows the driver to move within the display area 700 regarding the image portion displayed in the middle display area B of the display area 700 of the virtual image G, according to the calculated driver head movement amount Dd. The head is moved by Da-Db in the opposite direction to the head movement direction. As a result, the visual position of the image portion displayed in the middle display area B as seen from the driver 300 is moved by the amount of movement Db. As a result, the image portion displayed in the middle display area B is perceived by the driver 300 as being displayed at a distance Lb.

同様に、画像制御装置250は、算出した運転者頭部移動量Ddに応じて、虚像Gの表示エリア700のうちの上段表示領域Aに表示される画像部分については、表示エリア700内を運転者の頭部移動方向とは逆方向へDa-Dcだけ移動させる。これにより、上段表示領域Aに表示される画像部分については、運転者300から見た視認位置が移動量Dcだけ移動するものになる。その結果、上段表示領域Aに表示される画像部分は、距離Lcに表示されているように運転者300に知覚されることになる。 Similarly, the image control device 250 controls the driver to drive within the display area 700 regarding the image portion displayed in the upper display area A of the display area 700 of the virtual image G according to the calculated amount of driver head movement Dd. The person's head is moved by Da-Dc in the opposite direction to the direction of movement. As a result, the visual position of the image portion displayed in the upper display area A as seen from the driver 300 is moved by the amount of movement Dc. As a result, the image portion displayed in the upper display area A is perceived by the driver 300 as being displayed at a distance Lc.

以上のようにして、運転者頭部移動量Ddに応じて上段表示領域A及び中段表示領域Bに表示される画像部分の視認位置の移動量Db,Dcを制御しながら虚像Gを投影することにより、運転者300は、下段表示領域Cの画像部分(道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703等)よりも遠い位置に中段表示領域Bの画像部分(走行レーン指示画像711、車間距離提示画像712等)が表示され、中段表示領域Bの画像部分よりも更に遠い位置に上段表示領域Aの画像部分(進路変更操作指示画像721,722,723等)が表示されているように知覚する。このように、同じ距離に表示される虚像G上の画像部分を、異なる距離に表示されているかのように運転者300に知覚させることができるので、虚像Gの奥行き感を出すことができる。 As described above, the virtual image G is projected while controlling the amount of movement Db, Dc of the visual recognition position of the image portion displayed in the upper display area A and the middle display area B according to the amount of movement Dd of the driver's head. Therefore, the driver 300 displays the image portion of the middle display area B (driving lane instructions) at a position farther from the image portion of the lower display area C (road name display image 701, speed limit display image 702, overtaking prohibition display image 703, etc.). Image 711, inter-vehicle distance presentation image 712, etc.) are displayed, and image portions of upper display area A (route change operation instruction images 721, 722, 723, etc.) are displayed in a position further away from the image portion of middle display area B. Perceive it as if it were. In this way, it is possible for the driver 300 to perceive image portions on the virtual image G that are displayed at the same distance as if they were displayed at different distances, thereby giving a sense of depth to the virtual image G.

特に、本実施形態では、中段表示領域Bの画像部分を上下方向へ複数区分し、運転者頭部移動量Ddに応じて区分ごとに移動量を異ならせることにより、中段表示領域B内の上側に位置する画像部分ほど遠くに表示されるように知覚させている。これにより、中段表示領域Bに表示される車間距離提示画像712及び走行レーン指示画像711について、遠近法による表現だけでなく、運動視差も利用する結果、更に奥行き間を出すことができる。 In particular, in this embodiment, the image portion of the middle display area B is divided into a plurality of sections in the vertical direction, and the amount of movement is made different for each section according to the amount of movement Dd of the driver's head. The part of the image that is located closer to the viewer is perceived to be displayed farther away. As a result, not only perspective expression but also motion parallax is used for the inter-vehicle distance presentation image 712 and driving lane instruction image 711 displayed in the middle display area B, so that further depth can be obtained.

図9は、直近の交差点で進路変更する状況の画像例を示す説明図である。
直近の交差点で進路変更する状況になったら、図1に示す画像例から、図9に示すような画像例に切り替わる。すなわち、中段表示領域Bに表示されていた走行レーン指示画像711に代えて、図1に示す画像例で上段表示領域Aに表示されていた進路指定画像721と同様の進路指定画像717を、中段表示領域Bに表示させる。これは、直近よりも後の操作指示内容が、直近の操作指示内容になったためである。これにより、運転者300は、次の交差点や分岐点で中段表示領域Bに表示された進路指定画像721の操作指示内容に従って操作すればよいことを認識することができる。
FIG. 9 is an explanatory diagram showing an example image of a situation where the driver changes course at the nearest intersection.
When a situation arises in which the driver changes course at the nearest intersection, the image example shown in FIG. 1 is switched to the image example shown in FIG. 9. That is, instead of the driving lane instruction image 711 that was displayed in the middle display area B, a route designation image 717 similar to the route designation image 721 that was displayed in the upper display area A in the image example shown in FIG. Display in display area B. This is because the content of the operation instruction after the most recent one has become the content of the most recent operation instruction. Thereby, the driver 300 can recognize that the driver 300 should operate according to the operation instruction content of the route designation image 721 displayed in the middle display area B at the next intersection or branch point.

また、図9に示す画像例では、図1に示す画像例で上段表示領域Aに表示されていた進路指定画像721の位置に、中段表示領域Bに表示される進路指定画像717に運転者300の視線を誘導するための下向きマーク画像725を表示させる。これにより、運転者300に、中段表示領域Bに表示される進路指定画像717を認識させやすくなる。 In the image example shown in FIG. 9, the driver 300 is displayed in the route designation image 717 displayed in the middle display area B at the position of the route designation image 721 that was displayed in the upper display area A in the image example shown in FIG. A downward mark image 725 for guiding the line of sight is displayed. This makes it easier for the driver 300 to recognize the route designation image 717 displayed in the middle display area B.

次に、先行車両350との車間距離が狭まっていることを示す前車接近情報を運転者へ知らせるための車間距離提示画像712や先行車両画像724の表示制御について説明する。
本実施形態においては、前記物体認識装置100や前記センサ装置500等の距離検出手段によって先行車両350との車間距離を認識する。そして、画像制御装置250は、その認識結果データ(前方間隔情報)を受け取り、この認識結果データに基づいて、上段表示領域Bに表示される先行車両画像724や中段表示領域Bに表示される車間距離提示画像712について、表示エリア700内の表示位置、輝度、色彩、画像形状等を変更する画像表示制御を実行する。本実施形態では、車間距離提示画像712や先行車両画像724の変化によって、これを視認する運転者300に対し、先行車両350との車間距離がどの程度狭まっているのかを知らせる。
Next, display control of the following distance presentation image 712 and the preceding vehicle image 724 for informing the driver of the preceding vehicle approaching information indicating that the following vehicle distance to the preceding vehicle 350 is narrowing will be explained.
In this embodiment, the distance between the vehicle and the preceding vehicle 350 is recognized by distance detection means such as the object recognition device 100 and the sensor device 500. Then, the image control device 250 receives the recognition result data (front distance information), and based on this recognition result data, the preceding vehicle image 724 displayed in the upper display area B and the inter-vehicle distance displayed in the middle display area B. For the distance presentation image 712, image display control is performed to change the display position, brightness, color, image shape, etc. within the display area 700. In the present embodiment, changes in the inter-vehicle distance presentation image 712 and the preceding vehicle image 724 inform the driver 300 who visually recognizes the changes to how much the inter-vehicle distance to the preceding vehicle 350 has narrowed.

〔画像例1〕
図10(a)~(e)は、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例(以下、本画像例を「画像例1」という。)を示す説明図である。
なお、本画像例1では、車両ナビゲーション装置400に目的地を設定しておらず、ルートナビゲーション情報に係る操作指示画像が表示されていないが、ルートナビゲーション情報に係る操作指示画像を表示する場合でも、同様である。
[Image example 1]
FIGS. 10(a) to (e) show image examples (hereinafter, this image example will be referred to as "image example 1") in which an image indicating front vehicle approach information changes depending on the distance between the vehicle and the preceding vehicle 350. It is an explanatory diagram.
In this image example 1, no destination is set in the vehicle navigation device 400 and no operation instruction image related to route navigation information is displayed. However, even if an operation instruction image related to route navigation information is displayed. , is similar.

本画像例1において、先行車両350が認識されない場合、画像制御装置250は、図10(a)に示すように、中段表示領域B内に、上側に向かうほど長さが短くかつ輝度が低くなる5本の横線からなる全体的に低輝度の車間距離提示画像712を表示させる。このとき、上段表示領域A内には何も表示されない。 In this image example 1, when the preceding vehicle 350 is not recognized, the image control device 250 displays the image in the middle display area B such that the length becomes shorter and the brightness decreases toward the top, as shown in FIG. 10(a). An overall low-luminance inter-vehicle distance presentation image 712 consisting of five horizontal lines is displayed. At this time, nothing is displayed in the upper display area A.

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲を超えるほど空いている場合には、画像制御装置250は、図10(b)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度を高める表示制御を実施する。更に、本画像例1では、車間距離提示画像712の一番下の横線画像に代えて、線の太さを太くし、かつ、その両端を下方外側に向けて延伸させた自車両バンパー画像712aに形状変更させる表示制御を実施する。この自車両バンパー画像は、自車両301のフロントバンパーを運転者300に想起させるものである。 In addition, when the preceding vehicle 350 is recognized and the distance between the preceding vehicle 350 and the preceding vehicle 350 is so empty that it exceeds a predetermined safe distance range, the image control device 250 displays the middle stage as shown in FIG. 10(b). Display control is performed to increase the brightness of inter-vehicle distance presentation image 712 displayed in display area B. Furthermore, in this image example 1, instead of the horizontal line image at the bottom of the inter-vehicle distance presentation image 712, the own vehicle bumper image 712a is created with thicker lines and both ends thereof extending downward and outward. Perform display control to change the shape. This own vehicle bumper image reminds the driver 300 of the front bumper of the own vehicle 301.

更に、本画像例1では、更に、図10(b)に示すように、上段表示領域A内に車両背面を模した低輝度の先行車両画像724を表示させる。この先行車両画像724は、運転視差によって、上段表示領域A内に表示される他の画像と同じ知覚距離(Lc)に表示されているように運転者300に知覚されるように、表示制御される。 Furthermore, in this image example 1, as shown in FIG. 10(b), a low-luminance preceding vehicle image 724 simulating the back of the vehicle is displayed in the upper display area A. The display of this preceding vehicle image 724 is controlled by driving parallax so that it is perceived by the driver 300 as being displayed at the same perceived distance (Lc) as other images displayed in the upper display area A. Ru.

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲内である場合、画像制御装置250は、図10(c)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度と、上段表示領域A内に表示されている先行車両画像724の輝度とを、図10(b)の場合よりも高める表示制御を実施する。更に、本画像例1では、下から2番目の横線画像を自車両バンパー画像712aに変更する表示制御も実施する。これにより、図10(b)の場合よりも、自車両バンパー画像712aが先行車両画像724に近づいた表現となり、運転者300に対し、自車両301が図10(b)の場合よりも先行車両350に近づいたことを認識させることができる。 Further, when the preceding vehicle 350 is recognized and the distance between the preceding vehicle 350 and the preceding vehicle 350 is within a predetermined safe distance range, the image control device 250 displays the image within the middle display area B as shown in FIG. 10(c). Display control is performed to make the brightness of the displayed inter-vehicle distance presentation image 712 and the brightness of the preceding vehicle image 724 displayed in the upper display area A higher than in the case of FIG. 10(b). Furthermore, in this image example 1, display control is also performed to change the second horizontal line image from the bottom to the own vehicle bumper image 712a. As a result, the own vehicle bumper image 712a becomes closer to the preceding vehicle image 724 than in the case of FIG. It can be made to recognize that it is approaching 350.

更に、本画像例1では、図10(c)に示す先行車両画像724について、運転視差によって、上段表示領域A内に表示される他の画像よりも近い知覚距離Le1(Lb<Le1<Lc)に表示されているように運転者300に知覚されるように、表示制御される。これにより、運転者は、図10(b)の場合よりも先行車両画像724が近づいてきたように知覚するので、運転者300に対し、自車両301が図10(b)の場合よりも先行車両350に近づいたことを更に強く認識させることができる。 Furthermore, in this image example 1, the preceding vehicle image 724 shown in FIG. 10(c) has a perceived distance Le1 (Lb<Le1<Lc) that is shorter than other images displayed in the upper display area A due to driving parallax. The display is controlled so that it is perceived by the driver 300 as being displayed. As a result, the driver perceives that the preceding vehicle image 724 is coming closer than in the case of FIG. The fact that the vehicle 350 is approaching can be more strongly recognized.

また、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲よりも近づいたが、所定の要ブレーキ距離よりは遠い場合、画像制御装置250は、図10(d)に示すように、中段表示領域B内に表示されている車間距離提示画像712の輝度と上段表示領域A内に表示されている先行車両画像724の輝度とを、図10(c)の画像例よりも高める表示制御を実施する。更に、本画像例1では、下から3番目の横線画像を自車両バンパー画像712aに変更する表示制御も実施する。これにより、図10(c)の場合よりも、自車両バンパー画像712aが先行車両画像724に更に近づいた表現となり、運転者300に対し、自車両301が図10(c)の場合よりも先行車両350に更に近づいたことを認識させることができる。 Further, when the preceding vehicle 350 is recognized and the distance between the preceding vehicle 350 and the preceding vehicle 350 is closer than the predetermined safe distance range but is further than the predetermined required braking distance, the image control device 250 performs the following operation as shown in FIG. 10(d). As shown in FIG. 10(c), the brightness of the inter-vehicle distance presentation image 712 displayed in the middle display area B and the brightness of the preceding vehicle image 724 displayed in the upper display area A are compared to the image example of FIG. 10(c). Implement display control that enhances the display. Furthermore, in this image example 1, display control is also performed to change the third horizontal line image from the bottom to the own vehicle bumper image 712a. As a result, the own vehicle bumper image 712a becomes closer to the preceding vehicle image 724 than in the case of FIG. It is possible to recognize that the vehicle 350 is getting closer.

更に、本画像例1では、図10(d)に示す先行車両画像724について、運転視差によって、上段表示領域A内に表示される他の画像よりも更に近い知覚距離Le2(Lb<Le2<Le1)に表示されているように運転者300に知覚されるように、表示制御される。これにより、運転者は、図10(c)の場合よりも先行車両画像724が近づいてきたように知覚するので、運転者300に対し、自車両301が図10(c)の場合よりも先行車両350に更に近づいたことを更に強く認識させることができる。 Furthermore, in this image example 1, regarding the preceding vehicle image 724 shown in FIG. 10(d), due to driving parallax, the perceived distance Le2 (Lb<Le2<Le1 ) The display is controlled so that it is perceived by the driver 300 as shown in FIG. As a result, the driver perceives that the preceding vehicle image 724 is coming closer than in the case of FIG. The fact that the vehicle 350 is getting closer can be more strongly recognized.

また、先行車両350が認識され、その先行車両350との車間距離が所定の要ブレーキ距離範囲内まで狭まった場合、画像制御装置250は、図10(e)に示すように、中段表示領域B内に表示されている車間距離提示画像712を、赤色の略台形状中に「ブレーキ!」の文字画像を描いたブレーキ警告画像714に変更する表示制御を実施する。このとき、上段表示領域A内に表示されている先行車両画像724の輝度を落としたり、画像塗りつぶしを止めたりして、先行車両画像724の視認性を低下させることにより、ブレーキ警告画像714がより目立つようにするのが好ましい。なお、ブレーキ警告画像が目立つように、上段表示領域A内の先行車両画像724を非表示にしてもよい。このとき、レーザー走査方式であれば、非画像部分の光を完全に遮断することができるので、よりブレーキ警告画像を目立たせることができ、警告効果を高めることができる。 Further, when the preceding vehicle 350 is recognized and the distance between the preceding vehicle 350 and the preceding vehicle 350 is narrowed to within a predetermined required braking distance range, the image control device 250 displays the middle display area B as shown in FIG. 10(e). Display control is performed to change the inter-vehicle distance presentation image 712 displayed within the frame to a brake warning image 714 in which a character image of "Brake!" is drawn in a red substantially trapezoidal shape. At this time, by lowering the brightness of the preceding vehicle image 724 displayed in the upper display area A or stopping filling the image, the visibility of the preceding vehicle image 724 is lowered, thereby making the brake warning image 714 more visible. It is preferable to make it visible. Note that the preceding vehicle image 724 in the upper display area A may be hidden so that the brake warning image stands out. At this time, if the laser scanning method is used, it is possible to completely block the light in the non-image area, so the brake warning image can be made more conspicuous, and the warning effect can be enhanced.

なお、上述した所定の安全距離や所定の要ブレーキ距離は、予め決められた固定距離であってもよいが、自車両301の車速等に応じて変動する距離であってもよい。 Note that the above-mentioned predetermined safety distance and predetermined required braking distance may be fixed distances determined in advance, or may be distances that vary depending on the vehicle speed of the host vehicle 301 or the like.

〔画像例2〕
先行車両350との車間距離が狭くなったことを運転者300に気付かせる表現方法としては、上述した画像例1に限らず、例えば、図11(a)及び(b)に示すような画像例(以下、本画像例を「画像例2」という。)が挙げられる。
[Image example 2]
The expression method for making the driver 300 aware that the distance between the preceding vehicle 350 and the preceding vehicle 350 has become narrow is not limited to the image example 1 described above, but also image examples such as those shown in FIGS. 11(a) and 11(b). (Hereinafter, this image example will be referred to as "image example 2.").

本画像例2も、図10(a)~(e)に示した画像例1と同様に、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例である。詳しくは、本画像例2の車間距離提示画像715は、上述した画像例1における車間距離提示画像712の5本の横線に代えて、消失点に向かうように透視図法により作図された台形画像を上下方向に4つに区分したものを用いている。そして、上述した画像例1では、先行車両350との距離が狭まるにつれて自車両バンパー画像712aが先行車両画像724へ近づくように上方へ移動するのと同様、本画像例2では、先行車両350との距離が狭まるにつれて高輝度な台形区分715aが先行車両画像724へ近づくように上方へ移動する。なお、図11(a)の画像は、図10(d)に示す画像に対応しており、先行車両350が認識され、その先行車両350との車間距離が所定の安全距離範囲よりも近づいたが、所定の要ブレーキ距離よりは遠い場合の例である。 Similar to image example 1 shown in FIGS. 10(a) to 10(e), image example 2 is also an image example in which the image indicating the front vehicle approach information changes depending on the inter-vehicle distance from the preceding vehicle 350. Specifically, the inter-vehicle distance presentation image 715 of this image example 2 uses a trapezoidal image drawn by perspective drawing toward the vanishing point instead of the five horizontal lines of the inter-vehicle distance presentation image 712 of the above-mentioned image example 1. It is divided into four sections in the vertical direction. In the image example 1 described above, as the distance from the preceding vehicle 350 decreases, the host vehicle bumper image 712a moves upward to approach the preceding vehicle image 724. As the distance narrows, the high-intensity trapezoid section 715a moves upward so as to approach the preceding vehicle image 724. Note that the image in FIG. 11(a) corresponds to the image shown in FIG. 10(d), in which the preceding vehicle 350 is recognized and the distance between the preceding vehicle 350 and the preceding vehicle 350 is closer than a predetermined safe distance range. This is an example where the distance is farther than the predetermined required braking distance.

ここで、本画像例2では、車両ナビゲーション装置400に目的地が設定され、ルートナビゲーション情報に係る操作指示画像が表示される。そのため、先行車両350が認識されない状況においては、図1に示した例のように、上段表示領域Aの左右方向中央付近(消失点の近く)に進路指定画像721が表示され、その両側に残り距離画像722と交差点等名称画像723とがそれぞれ表示される。 Here, in this image example 2, a destination is set on the vehicle navigation device 400, and an operation instruction image related to route navigation information is displayed. Therefore, in a situation where the preceding vehicle 350 is not recognized, as in the example shown in FIG. A distance image 722 and an intersection name image 723 are displayed.

このような状況から、先行車両350が認識され、上段表示領域A内に先行車両画像724を表示させる場合、上段表示領域Aから進路変更操作指示画像721,722,723をすべて非表示にすることも考えられる。しかしながら、この場合、進路変更操作指示画像721,722,723による操作指示内容(操作順序が後の操作指示内容)が運転者300へ提供されなくなり、運転者300に不安を与えるおそれがある。 In this situation, when the preceding vehicle 350 is recognized and the preceding vehicle image 724 is to be displayed in the upper display area A, all of the course change operation instruction images 721, 722, and 723 should be hidden from the upper display area A. can also be considered. However, in this case, the operation instruction contents (operation instruction contents later in the operation order) by the route change operation instruction images 721, 722, and 723 are not provided to the driver 300, which may cause anxiety to the driver 300.

一方、上段表示領域A内に表示されていた進路変更操作指示画像721,722,723を、上段表示領域Aとは異なる表示領域へ移動させて表示を継続する場合、運転者は、移動後の進路変更操作指示画像721,722,723を探すのに時間を要するなど、進路変更操作指示画像721,722,723による操作指示内容を運転者300へ的確に提供できないおそれがある。 On the other hand, when moving the course change operation instruction images 721, 722, 723 displayed in the upper display area A to a display area different from the upper display area A to continue displaying them, the driver It may take time to search for the route change operation instruction images 721, 722, 723, etc., and there is a possibility that the operation instruction contents by the route change operation instruction images 721, 722, 723 cannot be accurately provided to the driver 300.

本画像例2によれば、進路変更操作指示画像721,722,723が表示されている上段表示領域A内に先行車両画像724を表示させる場合でも、進路変更操作指示画像721,722,723を上段表示領域A内に表示させ続ける。よって、上段表示領域A内に先行車両画像724を表示させる場合でも、進路変更操作指示画像721,722,723による操作指示内容を運転者300へ的確に提供することができる。 According to this image example 2, even when displaying the preceding vehicle image 724 in the upper display area A where the course change operation instruction images 721, 722, 723 are displayed, the course change operation instruction images 721, 722, 723 are displayed. It continues to be displayed in the upper display area A. Therefore, even when displaying the preceding vehicle image 724 in the upper display area A, the operation instruction contents by the course change operation instruction images 721, 722, and 723 can be accurately provided to the driver 300.

なお、進路変更操作指示画像721,722,723が表示されている上段表示領域A内に先行車両画像724を表示させる場合、進路変更操作指示画像721,722,723のすべてを上段表示領域A内に継続表示させる必要はなく、例えば、交差点等名称画像723だけは非表示にするなどしてもよい。 Note that when displaying the preceding vehicle image 724 in the upper display area A where the course change operation instruction images 721, 722, and 723 are displayed, all of the course change operation instruction images 721, 722, and 723 are displayed in the upper display area A. It is not necessary to continuously display the image 723; for example, only the intersection name image 723 may be hidden.

また、本画像例2では、先行車両350との車間距離が所定の要ブレーキ距離範囲内まで近づいた場合、画像制御装置250は、図11(b)に示すように、上段表示領域Aと中段表示領域Bとをまたがったブレーキ警告画像716を表示させる。このブレーキ警告画像716は、上段表示領域A内に表示される先行車両画像724を拡大した赤色の画像と本画像例2の車間距離提示画像715の全台形区分を赤色で表示した画像とを組み合わせたものである。しかも、本画像例2では、ブレーキ警告画像716をより目立たせるため、進路変更操作指示画像721,722,723のすべてを非表示にしている。 In this image example 2, when the inter-vehicle distance with the preceding vehicle 350 approaches within the predetermined braking distance range, the image control device 250 displays the upper display area A and the middle display area as shown in FIG. 11(b). A brake warning image 716 that straddles display area B is displayed. This brake warning image 716 is a combination of a red image obtained by enlarging the preceding vehicle image 724 displayed in the upper display area A and an image in which all trapezoidal sections of the inter-vehicle distance presentation image 715 of image example 2 are displayed in red. It is something that Moreover, in this image example 2, in order to make the brake warning image 716 more noticeable, all of the course change operation instruction images 721, 722, and 723 are hidden.

〔画像例3〕
先行車両350との車間距離が狭くなったことを運転者300に気付かせる表現方法としては、例えば、図12(a)~(b)に示すような画像例(以下、本画像例を「画像例3」という。)が挙げられる。
本画像例3も、上述した画像例1や画像例2と同様に、先行車両350との車間距離に応じて前車接近情報を示す画像が変化する画像例である。詳しくは、本画像例3における前車接近情報を示す画像としては、車両背面を模した先行車両画像724や車間距離提示画像712等に代えて、単純な図形(本画像例3では円形)で構成される単純図形画像713を用いている。そして、本画像例3では、先行車両350との距離が狭まるにつれて、単純図形画像713との知覚距離が狭まるような表示制御を行う。
[Image example 3]
As an expression method to make the driver 300 aware that the distance between the preceding vehicle 350 and the preceding vehicle 350 has become narrow, for example, image examples as shown in FIGS. Example 3).
Similar to image example 1 and image example 2 described above, this image example 3 is also an image example in which an image indicating front vehicle approach information changes depending on the inter-vehicle distance from the preceding vehicle 350. Specifically, the image showing the front vehicle approach information in this image example 3 is a simple figure (a circle in this image example 3) instead of the preceding vehicle image 724 that imitates the rear of the vehicle, the inter-vehicle distance presentation image 712, etc. A simple graphic image 713 composed of the following elements is used. In this image example 3, display control is performed such that as the distance to the preceding vehicle 350 decreases, the perceived distance to the simple graphic image 713 decreases.

具体的には、先行車両350との距離が狭まるにつれて、図12(a)~(c)に示すように、単純図形画像713が拡大するように表示制御したり、単純図形画像713の輝度が高まるように表示制御したりする。特に、本画像例3では、先行車両350との距離が狭まるにつれて、単純図形画像713の運動視差による知覚距離が短くなるように表示制御を実施している。 Specifically, as the distance to the preceding vehicle 350 narrows, the display is controlled so that the simple graphic image 713 is enlarged, or the brightness of the simple graphic image 713 is decreased, as shown in FIGS. 12(a) to (c). The display can be controlled so that it increases. In particular, in this image example 3, display control is performed so that the perceived distance due to motion parallax of the simple graphic image 713 becomes shorter as the distance to the preceding vehicle 350 becomes smaller.

すなわち、単純図形画像713を含む虚像Gは、運転者300から距離5mの位置に表示されるものであるが、先行車両350との距離が離れている図12(a)の場合には、表示領域Aの知覚距離Lcと同じ又はこれに近い知覚距離(例えば10m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した10m程度になるように、表示制御する。 That is, the virtual image G including the simple graphic image 713 is displayed at a distance of 5 m from the driver 300, but in the case of FIG. Display control is performed so that the perceived distance is the same as or close to the perceived distance Lc of area A (for example, 10 m). Specifically, the image control device 250 controls a simple image displayed in the middle display area B of the display area 700 of the virtual image G according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 within the display area 700, the display is controlled so that the perceived distance of the simple graphic image 713 is approximately 10 m as described above.

また、先行車両350との距離が図12(a)の場合よりも近づいた図12(b)の場合、図12(a)の場合の知覚距離よりも近い知覚距離(例えば7m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した7m程度になるように、表示制御する。 In addition, in the case of FIG. 12(b) in which the distance to the preceding vehicle 350 is closer than that in FIG. 12(a), the perceived distance is shorter (for example, 7 m) than the perceived distance in the case of FIG. Perform display control. Specifically, the image control device 250 controls a simple image displayed in the middle display area B of the display area 700 of the virtual image G according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 within the display area 700, the display is controlled so that the perceived distance of the simple graphic image 713 is approximately 7 m as described above.

同様に、先行車両350との距離が図12(b)の場合よりも更に近づいた図12(c)の場合、図12(b)の場合の知覚距離よりも近い知覚距離(例えば4m)となるように表示制御を実施する。具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される単純図形画像713の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が上述した4m程度になるように、表示制御する。なお、この知覚距離(4m)は、虚像Gの距離(5m)よりも近い距離となっているが、これも上述した表示制御により実現可能である。 Similarly, in the case of FIG. 12(c) where the distance to the preceding vehicle 350 is even closer than that of FIG. 12(b), the perceived distance is shorter than the perceived distance in FIG. 12(b) (for example, 4 m). Implement display control so that Specifically, the image control device 250 controls a simple image displayed in the middle display area B of the display area 700 of the virtual image G according to the driver's head movement amount Dd calculated from the captured image data of the driver camera 150. By changing the position of the graphic image 713 within the display area 700, the display is controlled so that the perceived distance of the simple graphic image 713 is approximately 4 m as described above. Note that this perceived distance (4 m) is shorter than the distance of the virtual image G (5 m), but this can also be realized by the display control described above.

〔画像例4〕
次に、直近の交差点で進路変更する状況を示す他の画像例(以下、本画像例を「画像例4」という。)について、説明する。
直近の交差点で進路変更する状況になったら、上述した実施形態では図9に示した画像例を用いて運転者300にどの交差点でどの方向へ進路変更するかの情報を提供しているが、本画像例4では、図13(a)~(c)に示す画像例を用いる。
[Image example 4]
Next, another image example (hereinafter, this image example will be referred to as "image example 4") showing a situation where the driver changes course at the nearest intersection will be described.
When the situation arises to change course at the nearest intersection, in the embodiment described above, the image example shown in FIG. 9 is used to provide the driver 300 with information on which intersection and in which direction to change course. In this image example 4, image examples shown in FIGS. 13(a) to (c) are used.

本画像例4では、フロントガラス302を介して運転者に視認される実際の交差点に重なるように、進路指定画像717が表示エリア700内に表示される。図9に示した画像例では、当該進路変更操作を行う交差点等までの残り距離を示す受動情報としての残り距離情報を、その残り距離を数値画像で示す残り距離画像722で運転者300に提供している。これに対し、本画像例4では、残り距離情報に応じて進路指定画像717の知覚距離を変更することにより、進路指定画像717の知覚距離によって当該進路変更操作を行う交差点等までの残り距離の情報を運転者300に提供する。 In this image example 4, a route designation image 717 is displayed in the display area 700 so as to overlap an actual intersection that is visible to the driver through the windshield 302. In the image example shown in FIG. 9, remaining distance information as passive information indicating the remaining distance to the intersection, etc. where the course change operation is performed is provided to the driver 300 as a remaining distance image 722 indicating the remaining distance as a numerical image. are doing. On the other hand, in this image example 4, by changing the perceived distance of the route designation image 717 according to the remaining distance information, the remaining distance to the intersection, etc. at which the course change operation is performed can be calculated based on the perceived distance of the route designation image 717. Information is provided to the driver 300.

具体的には、画像制御装置250は、運転者カメラ150の撮像画像データから算出した運転者頭部移動量Ddに応じ、虚像Gの表示エリア700のうちの中段表示領域Bに表示される進路指定画像717の表示エリア700内の位置を変化させることにより、単純図形画像713の知覚距離が実際の交差点までの距離と一致するように表示制御する。実際の交差点までの距離は、例えば車両ナビゲーション装置400から取得することができる。 Specifically, the image control device 250 adjusts the course displayed in the middle display area B of the display area 700 of the virtual image G according to the amount of driver head movement Dd calculated from the captured image data of the driver camera 150. By changing the position of the designated image 717 within the display area 700, the display is controlled so that the perceived distance of the simple graphic image 713 matches the actual distance to the intersection. The distance to the actual intersection can be obtained from the vehicle navigation device 400, for example.

なお、必ずしも単純図形画像713の知覚距離と実際の交差点までの距離とを一致させる必要はなく、単純図形画像713の知覚距離を徐々に狭めることにより実際の交差点までの距離が近づいていることを運転者に認識させることができればよい。 Note that it is not always necessary to match the perceived distance of the simple figure image 713 with the distance to the actual intersection; by gradually narrowing the perceived distance of the simple figure image 713, it is possible to detect that the distance to the actual intersection is getting closer. It is sufficient if the driver can be made aware of it.

〔画像例5〕
また、自車両301が走行している道路の交通の禁止、制限、指定に関する情報のうち、特に運転者300に提供することが好まれる情報を、警告画像として、中段表示領域Bに表示するようにしてもよい。例えば、図14に示す画像例(以下、本画像例を「画像例5」という。)のように、自車両301が走行している道路が通学路である場合に、その旨を示す通学路警告画像718を中段表示領域Bに表示させる。具体的には、画像制御装置250は、車両ナビゲーション装置400から出力される各種情報等から、自車両301が走行している道路の固有情報を取得し、取得した道路固有情報が中段表示領域Bに表示させる対象情報である場合には、その道路固有情報に対応する警告画像を中段表示領域Bに表示させる表示制御を行う。
[Image example 5]
Further, among information regarding prohibitions, restrictions, and designations of traffic on the road on which the own vehicle 301 is traveling, information that is particularly preferred to be provided to the driver 300 is displayed as a warning image in the middle display area B. You can also do this. For example, as in the image example shown in FIG. 14 (hereinafter, this image example will be referred to as "image example 5"), when the road on which the host vehicle 301 is traveling is a school road, the school road is shown to that effect. A warning image 718 is displayed in the middle display area B. Specifically, the image control device 250 acquires unique information of the road on which the host vehicle 301 is traveling from various information outputted from the vehicle navigation device 400, and displays the acquired road unique information in the middle display area B. If the road-specific information is the target information to be displayed, display control is performed to display a warning image corresponding to the road-specific information in the middle display area B.

中段表示領域Bは、上述したように、複数の操作指示内容のうち先に操作すべき操作指示内容を示す操作指示画像が表示される領域である。そのため、本画像例5のように、この中段表示領域Bに警告画像を表示させることで、運転者は、自車両301が現在走行している道路が当該警告画像による交通の禁止、制限、指定がなされていることを直感的に認識することができる。 As described above, the middle display area B is an area where an operation instruction image indicating the operation instruction content to be operated first among a plurality of operation instruction contents is displayed. Therefore, by displaying a warning image in the middle display area B as in image example 5, the driver can confirm that the road on which the own vehicle 301 is currently traveling is prohibited, restricted, or designated by the warning image. You can intuitively recognize what is being done.

〔画像例6〕
また、自車両301の進行方向における横断歩道を渡ろうとしている人間を検出した場合、その警告画像を中段表示領域Bに表示するようにしてもよい。人間は車両にとって最も注意すべき対象の一つであり、直近対応すべき存在だからである。例えば、図15に示す画像例(以下、本画像例を「画像例6」という。)のように、人型警告画像719を中段表示領域Bに表示させる。具体的には、画像制御装置250は、前記物体認識装置100や前記センサ装置500によって自車両前方の人間を認識する。そして、画像制御装置250は、その認識結果データを受け取り、この認識結果データに基づいて中段表示領域Bに人型警告画像719を表示させる表示制御を行う。なお、本画像例6では、上述した画像例5における通学路警告画像718も併せて表示されている例となっている。なお、車両以外、例えば船舶に本実施形態の情報提供装置が搭載される場合、人間に代えて自船舶の周辺の他船舶等の表示を行い得る。
[Image example 6]
Furthermore, when a person attempting to cross a crosswalk in the direction of travel of the host vehicle 301 is detected, a warning image thereof may be displayed in the middle display area B. This is because humans are one of the objects that vehicles should pay the most attention to, and they are the ones that should be dealt with immediately. For example, a humanoid warning image 719 is displayed in the middle display area B, as in the image example shown in FIG. 15 (hereinafter, this image example will be referred to as "image example 6"). Specifically, the image control device 250 uses the object recognition device 100 and the sensor device 500 to recognize a person in front of the host vehicle. Then, the image control device 250 receives the recognition result data and performs display control to display the humanoid warning image 719 in the middle display area B based on the recognition result data. Note that this image example 6 is an example in which the school route warning image 718 in image example 5 described above is also displayed. Note that when the information providing device of the present embodiment is installed in a vehicle other than a vehicle, for example, a ship, other ships, etc. around the own ship can be displayed instead of humans.

以上に説明したものは一例であり、次の態様毎に特有の効果を奏する。
(態様A)
自車両301等の移動体の運転者300に提供する運転者提供情報を示す運転者提供情報画像を、フロントガラス302等の光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリア700に表示させるように、該光透過部材へ画像光を投射するHUD本体230等の画像光投射手段を備えた自動車用HUD装置200等の情報提供装置であって、当該移動体の周囲に存在する先行車両350等の検出対象物の移動体進行方向相対距離を検出する物体認識装置100等の距離検出手段と、前記運転者の視点位置を検知する運転者カメラ150等の視点位置検知手段と、前記視点位置検知手段の検知結果に応じて前記検出対象物を示す先行車両画像724等の対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離が前記距離検出手段が検出した該検出対象物の移動体進行方向相対距離に応じて変化するように、前記画像光投射手段を制御する画像制御装置250等の表示制御手段とを有することを特徴とする。
画像光投射手段で投射する画像によって、移動体周囲に存在する物体の自車両に対する相対的な動きの情報(周囲物体情報)を運転者に提供することは、有益である。例えば、移動体周囲の視界不良等により移動体周囲の物体を運転者が直接視認しにくい状況である場合、HUD装置を用いて表示される当該物体に対応する物体表示画像により、このような周囲物体情報を運転者に提供できれば、より安全に運転することが可能である。また、運転者が直接視認しにくい状況である場合に限らず、運転者の注意不足等により見落としがちな物体の動きに関する周囲物体情報を運転者に提供できれば、より安全に運転することが可能である。しかも、このようにして周囲物体情報を運転者に提供しようとするとき、移動体に対する物体の相対的な動きに応じて当該物体表示画像の奥行き位置が変化するように運転者に知覚させることが、周囲物体情報を運転者に認知させやすくする上で有効である。そして、このように運転者に知覚させる方法としては、運動視差を利用するのが有効である。
本態様によれば、移動体周囲に存在する検出対象物の移動体進行方向における当該移動体との相対距離(移動体進行方向相対距離)に応じて、移動体進行方向前方の所定の表示エリアに表示される対象物画像の知覚距離を変化させることができる。本態様では、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
What has been described above is just an example, and each of the following aspects has its own unique effects.
(Aspect A)
A driver-provided information image indicating driver-provided information to be provided to a driver 300 of a mobile object such as the host vehicle 301 is displayed at a predetermined location in front of the moving object in the direction in which the driver views it through a light-transmitting member such as a windshield 302. An information providing device such as an automobile HUD device 200 that is equipped with an image light projection means such as a HUD main body 230 that projects image light onto the light transmitting member so as to display the image light on the display area 700 of the moving object. Distance detection means such as the object recognition device 100 that detects the relative distance in the moving direction of the moving body of objects to be detected such as the preceding vehicle 350 existing in the surroundings, and the viewpoint position of the driver camera 150 that detects the viewpoint position of the driver. By changing the display position of an object image such as the preceding vehicle image 724 showing the detection object according to the detection result of the detection means and the viewpoint position detection means, the driver can detect the object image by motion parallax with respect to the object image. display control means such as an image control device 250 for controlling the image light projection means so that the perceived distance of the detection object changes in accordance with the relative distance in the traveling direction of the moving object detected by the distance detection means. It is characterized by
It is beneficial to provide the driver with information on the relative movement of objects around the moving body with respect to the own vehicle (surrounding object information) using images projected by the image light projection means. For example, if it is difficult for the driver to directly see objects around the moving object due to poor visibility around the moving object, an object display image corresponding to the object displayed using the HUD device may be used to If object information can be provided to the driver, it will be possible to drive more safely. In addition, not only in situations where it is difficult for the driver to see directly, but if the driver can be provided with information on surrounding objects that are often overlooked due to lack of attention, it will be possible to drive more safely. be. Moreover, when attempting to provide surrounding object information to the driver in this way, it is difficult to make the driver perceive that the depth position of the object display image changes according to the relative movement of the object with respect to the moving object. This is effective in making it easier for the driver to recognize surrounding object information. An effective way to make the driver perceive this is to use motion parallax.
According to this aspect, the predetermined display area in front of the moving body is determined according to the relative distance (relative distance in the moving direction of the moving body) of the detection target existing around the moving body to the moving body in the moving direction of the moving body. The perceived distance of the object image displayed can be changed. In this aspect, since the driver is made to perceive the perceived distance of the target object image using motion parallax, it is easy for the driver to recognize the movement information (surrounding object information) in which the detected object approaches or moves away from the moving body. .

(態様B)
前記態様Aにおいて、前記検出対象物は、当該移動体の前方を進行する先行車両350等の他の移動体であることを特徴とする。
これによれば、先行する他の移動体との距離が狭まっているという情報(前車接近情報等)を運転者300に認知させやすくなる。
(Aspect B)
Aspect A is characterized in that the object to be detected is another moving object such as a preceding vehicle 350 traveling in front of the moving object.
According to this, it becomes easier for the driver 300 to recognize information that the distance to another preceding moving object is narrowing (front vehicle approach information, etc.).

(態様C)
自車両301等の移動体の運転者300に提供する運転者提供情報を示す運転者提供情報画像を、フロントガラス302等の光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリア700に表示させるように、該光透過部材へ画像光を投射するHUD本体230等の画像光投射手段を備えた自動車用HUD装置200等の情報提供装置であって、前記所定の表示エリアは、運転者によって能動的に認知される道路固有情報や車速情報等の能動情報を示す道路名表示画像701、制限速度表示画像702、追い越し禁止表示画像703、車速表示画像704等の能動情報画像を継続表示させる下段表示領域C等の能動情報画像表示領域と、運転者によって受動的に認知されるルートナビゲーション情報や前車接近情報等の受動情報を示す走行レーン指示画像711、進路変更操作指示画像721,722,723、車間距離提示画像712、先行車両画像724等の受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる上段表示領域A及び中段表示領域B等の受動情報画像表示領域とを備えており、前記運転者の視点位置を検知する運転者カメラ150等の視点位置検知手段と、前記視点位置検知手段の検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離Lb,Lcが前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離Laよりも遠くなるように、前記画像光投射手段を制御する画像制御装置250等の表示制御手段とを有することを特徴とする。
運転中の運転者は、通常、光透過部材を介して、移動体前方の無限遠点を注視しているか、数十m先の先行する他の移動体を注視している。このような遠方に焦点を合わせている運転中の運転者に対しては、より遠くに表示される画像ほど、注視点に対する焦点距離の差が小さいので、画像を認知しやすい(気付きやすい)。
ここで、運転者によって受動的に認知される受動情報は、一般に、当該情報提供装置によって決められるタイミングで運転者に提供したい情報であり、通常は、当該受動情報が提供されるタイミングと当該受動情報の内容との間に一定の関係性をもつ情報である。そのため、受動情報を示す受動情報画像は、これを表示したらすぐに運転者300に認知されることが重要である。
一方、運転者によって能動的に認知される能動情報は、一般に、運転者の希望するタイミングで運転者へ提供されれば十分な情報であり、当該能動情報が提供されるタイミングと当該能動情報の内容との間の関係性が低い又は無いようなものである。そして、能動情報は、運転者の希望するタイミングで提供される必要があることから、ある程度の長い期間あるいは常時、表示され続ける。
本態様では、運転者は、運動視差により、能動情報画像よりも受動情報画像の方が遠くに表示されているように知覚する。よって、遠方に焦点を合わせている運転中の運転者にとっては、能動情報画像よりも受動情報画像の方が認知しやすい。よって、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
なお、遠方に焦点を合わせている運転中の運転者にとって、受動情報画像よりも近い距離に表示されていると知覚される能動情報画像については認知しにくい。しかしながら、能動情報画像は、運転者300が当該能動情報を取得しようとする意志をもって視認しにいくものであるため、能動情報画像が受動情報画像よりも認知しにくくても、能動情報の提供にあたっては問題にならない。
むしろ、能動情報画像は、上述したようにある程度の長い期間あるいは常時、表示され続けるものであることから、能動情報画像が認知しやすいものであると、運転中の運転者の意識を逸らす原因となり、かえって不利益をもたらすおそれがある。
(Aspect C)
A driver-provided information image indicating driver-provided information to be provided to a driver 300 of a mobile object such as the host vehicle 301 is displayed at a predetermined location in front of the moving object in the direction in which the driver views it through a light-transmitting member such as a windshield 302. An information providing device such as an automobile HUD device 200 comprising an image light projection means such as a HUD main body 230 that projects image light onto the light transmitting member so as to be displayed in a display area 700 of the predetermined display area 700. The area includes active information such as a road name display image 701, a speed limit display image 702, an overtaking prohibition display image 703, and a vehicle speed display image 704, which show active information such as road specific information and vehicle speed information that are actively recognized by the driver. An active information image display area such as a lower display area C that continuously displays an image, a driving lane instruction image 711 that shows passive information such as route navigation information and front vehicle approach information that are passively recognized by the driver, and a course change operation. Passive information such as upper display area A and middle display area B that temporarily display passive information images such as instruction images 721, 722, 723, inter-vehicle distance presentation image 712, and preceding vehicle image 724 at a timing when predetermined information provision conditions are met. and a viewpoint position detection means such as a driver camera 150 for detecting the viewpoint position of the driver, and displaying information in the passive information image display area according to the detection result of the viewpoint position detection means. By changing the display position of the passive information image, the driver's perceived distance Lb, Lc for the passive information image due to motion parallax is changed to the driver's perception for the active information image displayed in the active information image display area. It is characterized by comprising display control means such as an image control device 250 that controls the image light projection means so that the image light projection means is farther than the distance La.
A driver who is driving usually gazes at an infinite point in front of the moving body or at another moving body several tens of meters ahead of the moving body through a light-transmitting member. For a driver who is focusing on such a distant object, the further away the image is displayed, the smaller the difference in focal length with respect to the point of gaze, so the image is easier to recognize (easier to notice).
Here, the passive information that is passively recognized by the driver is generally information that is desired to be provided to the driver at a timing determined by the information providing device, and usually the timing at which the passive information is provided and the This is information that has a certain relationship with the content of the information. Therefore, it is important that the passive information image indicating the passive information is recognized by the driver 300 as soon as it is displayed.
On the other hand, active information that is actively recognized by the driver is generally sufficient information if it is provided to the driver at the timing desired by the driver. There is little or no relationship between the content and the content. Since the active information needs to be provided at the timing desired by the driver, it continues to be displayed for a certain amount of time or all the time.
In this aspect, the driver perceives the passive information image to be displayed farther away than the active information image due to motion parallax. Therefore, for a driver who is focusing on a distant object, a passive information image is easier to recognize than an active information image. Therefore, when the passive information image is displayed, the driver is likely to notice the passive information image even if the active information image is displayed. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and the passive information can be quickly provided to the driver.
Note that for a driver who is focusing on a distant object, it is difficult to recognize an active information image that is perceived to be displayed at a closer distance than a passive information image. However, since the active information image is viewed by the driver 300 with the intention of acquiring the active information, even if the active information image is more difficult to recognize than the passive information image, it is difficult to recognize the active information image when providing the active information. is not a problem.
Rather, as mentioned above, active information images are displayed continuously for a certain amount of time or all the time, so if active information images are easy to recognize, they may distract the driver's attention while driving. , there is a risk that it may actually cause a disadvantage.

(態様D)
前記態様Cにおいて、前記受動情報は、移動体の運転者へそれぞれ異なる操作指示内容を示す複数の操作指示情報を含み、前記表示制御手段は、各操作指示情報にそれぞれ対応する走行レーン指示画像711と進路変更操作指示画像721,722,723等の複数の操作指示画像を、運転者に操作させる操作順序が後になる操作指示内容を示すものほど、前記受動情報画像表示領域内の上側に表示されるように、前記画像光投射手段を制御することを特徴とする。
運転者は、通常、進行する移動体前方に位置する物体は時間の経過により現在位置に向かって近づいてくるという距離の観念と、未来の出来事は時間の経過により現在時刻に向かって近づいてくるという時間の観念とを併せ持っている。そして、進行する移動体の前方に存在する物体は、移動体までの距離が近いほど移動体の位置に到達するまでの時間が早く、移動体までの距離が遠いほど移動体の位置に到達までの時間が遅い。そのため、進行する移動体から遠い位置の物体は遠い未来の出来事との間で認知の親和性が高く、進行する移動体に近い位置の物体はより近い未来の出来事との間で認知の親和性が高い。本態様によれば、この親和性を考慮して、運転者に操作させる操作順序が後になる操作指示内容を示す操作指示画像ほど前記所定の表示エリア内の上側に表示させることから、これらの操作指示画像が示す複数の操作指示内容の操作順序を運転者に直感的に認知させ、その操作順序を運転者が迷ってしまうような事態を回避しやすい。
(Aspect D)
In aspect C, the passive information includes a plurality of pieces of operation instruction information each indicating different operation instruction contents to the driver of the mobile object, and the display control means displays a driving lane instruction image 711 corresponding to each piece of operation instruction information. and route change operation instruction images 721, 722, 723, etc., the more the operation instruction contents are displayed later in the order of operation for the driver, the higher the position is displayed in the passive information image display area. It is characterized in that the image light projection means is controlled so as to
Drivers usually have the idea of distance that objects located in front of a moving vehicle will approach their current position as time passes, and that future events will approach the current time as time passes. It also has the concept of time. For objects in front of a moving object, the closer the distance to the moving object, the faster it will take to reach the moving object's position, and the farther the distance to the moving object, the faster it will take to reach the moving object's position. time is late. Therefore, objects located far from the moving body have a high cognitive affinity with events in the distant future, and objects located close to the moving body have a high cognitive affinity with events in the near future. is high. According to this aspect, in consideration of this affinity, the operation instruction images that indicate the contents of the operation instructions that are to be operated later in the driver's order are displayed higher in the predetermined display area. To allow a driver to intuitively recognize the operation order of a plurality of operation instruction contents indicated by an instruction image, and to easily avoid a situation where the driver is confused about the operation order.

(態様E)
前記態様Dにおいて、前記画像光投射手段は、前記受動情報画像表示領域が、前記光透過部材を介して運転者が視認する移動体進行方向前方の風景の下部に位置するように、該光透過部材へ画像光を投射することを特徴とする。
光透過部材を介して移動体進行方向の前方風景を視認する運転者300は、通常、その前方風景の鉛直方向中央近辺を注視点として注視しながら運転を行うことが多い。本態様では、複数の操作指示画像が表示される所定の表示エリア700が当該前方風景の下部に位置しているので、運転者の注視点よりも鉛直方向下側に複数の操作指示画像が表示されることになる。この位置に表示される複数の操作指示画像が重なる風景部分は、移動体から遠い地点の物体ほど鉛直方向上側で視認され、移動体に近い地点の物体ほど鉛直方向下側で視認される。そのため、当該風景部分中の物体が視認される位置は、移動体の進行により移動体へ近づくにつれて徐々に下側へ変位する。
このような風景部分に複数の操作指示画像を重ねて表示させる場合、本態様のように、運転者に操作させる操作順序が後になる操作指示内容を示す操作指示画像ほど前記所定の表示エリア内の上側に表示させることが、操作順序に関する運転者の迷いを最小限に抑えることができる。これは、上述した認知の親和性を考慮し、進行する移動体から遠い物体が視認される位置に重なるように遠い未来の操作指示内容(操作順序が後になる操作指示内容)を示す操作指示画像を表示させ、進行する移動体に近い物体が視認される位置に重なるように近い未来の操作指示内容(操作順序が先になる操作指示内容)を示す操作指示画像を表示させることができるからである。このように表示させれば、これらの操作指示画像が示す複数の操作指示内容の操作順序を運転者に直感的に認知させることができる。逆に、所定の表示エリア700が当該前方風景の下部に位置している場合に、例えば、複数の操作指示画像の表示位置を前述の位置とは逆位置にしたり、複数の操作指示画像の表示位置を横並びにしたりすると、運転者は、上述した観念が邪魔して、操作順序を直感的に認知することが困難となる。
(Aspect E)
In the aspect D, the image light projection means transmits the light so that the passive information image display area is located at a lower part of the scenery in front of the moving body in the traveling direction that the driver visually recognizes through the light transmitting member. It is characterized by projecting image light onto the member.
The driver 300 who visually recognizes the scenery ahead in the moving direction of the moving object through the light-transmitting member usually drives while gazing near the vertical center of the scenery ahead. In this aspect, since the predetermined display area 700 in which a plurality of operation instruction images are displayed is located at the bottom of the front scenery, the plurality of operation instruction images are displayed vertically below the driver's gaze point. will be done. In the landscape portion where a plurality of operation instruction images displayed at this position overlap, objects farther from the moving body are viewed vertically upward, and objects closer to the moving body are viewed vertically lower. Therefore, the position at which the object in the landscape portion is visually recognized gradually shifts downward as the object approaches the moving object as the moving object advances.
When displaying a plurality of operation instruction images superimposed on such a landscape part, as in this embodiment, the operation instruction images that indicate the content of the operation instructions that are later in the order of operation for the driver are displayed in the predetermined display area. By displaying the information on the upper side, it is possible to minimize the driver's confusion regarding the operation order. In consideration of the above-mentioned cognitive affinity, this is an operation instruction image that shows operation instruction contents in the distant future (operation instruction contents whose operation order will be later) so that it overlaps the position where an object far from the moving object is visible. This is because it is possible to display an operation instruction image indicating the operation instruction content in the near future (operation instruction content whose operation order is first) so as to overlap the position where an object close to the moving object is visible. be. By displaying in this manner, the driver can intuitively recognize the order of operations of the plurality of operation instruction contents indicated by these operation instruction images. Conversely, when the predetermined display area 700 is located at the bottom of the front scenery, for example, the display position of the plurality of operation instruction images may be reversed from the above-mentioned position, or the display of the plurality of operation instruction images may be changed. If the positions are arranged side by side, the driver will be hindered by the above-mentioned concept, and it will be difficult for the driver to intuitively recognize the order of operations.

(態様F)
前記態様D又はEにおいて、前記複数の操作指示画像は、前記移動体の移動ルート上の異なる地点(直近の交差点と、次に直進方向から進路変更すべき交差点や分岐点など)で運転者が操作すべき操作内容を指示する操作指示内容を示すものであることを特徴とする。
これによれば、ルートナビゲーション情報による操作順序の異なる複数の操作指示内容について、その操作順序を運転者が迷ってしまうような事態を回避できる。
(Aspect F)
In the aspect D or E, the plurality of operation instruction images are provided by the driver at different points on the moving route of the mobile object (such as the nearest intersection and the intersection or junction where the next course should be changed from the straight direction). It is characterized in that it indicates the content of an operation instruction that instructs the content of the operation to be performed.
According to this, it is possible to avoid a situation in which the driver is confused about the order of operations for a plurality of operation instruction contents having different orders of operations based on the route navigation information.

(態様G)
前記態様A~Fのいずれかの態様において、前記画像光投射手段は、投射する画像光によって前記操作指示画像を虚像Gとして前記所定の表示エリア内に表示させるものであり、運転者から前記虚像までの距離が5m以上であることを特徴とする。
虚像Gまでの距離が一般的な2m程度である場合、このように近い距離の虚像Gに眼球の焦点を合わせようとすると、通常は眼球の輻輳運動が必要になる。上述したとおり、輻輳運動は、視認対象までの距離感や奥行き感に大きな影響を与える要因であり、虚像Gに焦点を合わせるために眼球が輻輳運動してしまうと、運動視差による距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が薄まってしまう。
本態様によれば、虚像Gまでの距離が5m以上であるため、眼球をほとんど輻輳運動させることなく虚像Gに焦点を合わせることができる。したがって、運動視差を利用して距離感(知覚距離の変化)や奥行き感(知覚距離の違い)を知覚させる効果が眼球の輻輳運動によって薄まってしまうことが抑制される。
(Aspect G)
In any one of the aspects A to F, the image light projection means displays the operation instruction image as a virtual image G in the predetermined display area by projecting image light, and the image light projection means displays the operation instruction image as a virtual image G in the predetermined display area, and It is characterized by a distance of 5 m or more.
When the distance to the virtual image G is generally about 2 m, convergence movement of the eyeballs is usually required to focus the eyeballs on the virtual image G at such a short distance. As mentioned above, convergence movement is a factor that greatly affects the sense of distance and depth to the visual object, and if the eyeballs move convergence to focus on the virtual image G, the sense of distance (perception) due to motion parallax will be affected. The effect of perceiving the sense of depth (change in distance) and sense of depth (difference in perceived distance) is weakened.
According to this aspect, since the distance to the virtual image G is 5 m or more, it is possible to focus on the virtual image G with almost no convergence movement of the eyeballs. Therefore, the effect of using motion parallax to perceive a sense of distance (change in perceived distance) and a sense of depth (difference in perceived distance) is suppressed from being weakened by the convergence movement of the eyeballs.

(態様H)
前記態様A~Gのいずれかの態様において、前記画像光投射手段は、前記操作指示画像の画像情報に応じた画像光を照射する光源ユニット220等の光照射手段から照射した画像光を光走査装置208等の光走査手段により二次元走査して前記光透過部材へ投射することにより、前記所定の表示エリア内に前記運転者提供情報画像を表示させるものであることを特徴とする。
上述したように、液晶ディスプレイ(LCD)や蛍光表示管(VFD)などを利用した方式よりも、大きな虚像Gを高い輝度で表示させるのが容易である。また、本態様によれば、虚像Gの非画像部分については、光照射手段から画像光照射させないことにより、当該非画像部分の光を完全に無くすことが可能である。よって、当該非画像部分を通じた移動体前方風景の視認性が光照射手段から照射される光によって低下する事態を回避でき、前方風景の視認性が高い。
(Aspect H)
In any of the aspects A to G, the image light projection means optically scans image light emitted from a light emitting means such as a light source unit 220 that emit image light according to image information of the operation instruction image. The driver-provided information image is displayed within the predetermined display area by performing two-dimensional scanning using a light scanning means such as the device 208 and projecting the image onto the light-transmitting member.
As described above, it is easier to display a large virtual image G with high brightness than a method using a liquid crystal display (LCD), a fluorescent display tube (VFD), or the like. Further, according to this aspect, by not irradiating the non-image portion of the virtual image G with image light from the light irradiation means, it is possible to completely eliminate light from the non-image portion. Therefore, it is possible to avoid a situation in which the visibility of the scenery in front of the mobile body through the non-image portion is reduced due to the light emitted from the light irradiation means, and the visibility of the scenery in front of the moving object is high.

(態様I)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射することにより、前記運転者提供情報を運転者へ提供する情報提供方法であって、当該移動体の周囲に存在する検出対象物の移動体進行方向相対距離を検出する距離検出工程と、前記運転者の視点位置を検知する視点位置検知工程と、前記視点位置検知工程での検知結果に応じて前記検出対象物を示す対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離を前記距離検出工程で検出した該検出対象物の移動体進行方向相対距離に応じて変化させる表示工程とを有することを特徴とする。
本態様によれば、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
(Aspect I)
The light transmits the light so that a driver-provided information image indicating the driver-provided information to be provided to the driver of the moving object is displayed in a predetermined display area in front of the moving object in the direction in which the driver views it through the light-transmitting member. An information providing method for providing the driver-provided information to a driver by projecting image light onto a transparent member, the method detecting the relative distance in the moving direction of the moving object of a detection target existing around the moving object. A distance detection step, a viewpoint position detection step of detecting the viewpoint position of the driver, and a display position of an object image indicating the detection target object according to the detection results in the viewpoint position detection step, The present invention is characterized by comprising a display step of changing the perceived distance of the driver due to motion parallax regarding the object image in accordance with the relative distance in the traveling direction of the moving body of the detection object detected in the distance detection step.
According to this aspect, the perceived distance of the target object image is made to be perceived by the driver using motion parallax, so the driver recognizes information about the movement of the detected target object toward or away from the moving body (surrounding object information). Easy to do.

(態様J)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射する画像光投射手段と、当該移動体の周囲に存在する検出対象物の移動体進行方向相対距離を検出する距離検出手段、前記運転者の視点位置を検知する視点位置検知手段とを備えた情報提供装置のコンピュータを機能させるための情報提供用制御プログラムであって、前記視点位置検知手段の検知結果に応じて前記検出対象物を示す対象物画像の表示位置を変化させることにより、該対象物画像についての運動視差による運転者の知覚距離が前記距離検出手段が検出した該検出対象物の移動体進行方向相対距離に応じて変化するように、前記画像光投射手段を制御する表示制御手段として、前記コンピュータを機能させることを特徴とする。
本態様によれば、対象物画像の知覚距離を運動視差により運転者に知覚させるので、当該検出対象物が移動体に近づいたり離れたりする動きの情報(周囲物体情報)を、運転者に認知させやすい。
(Aspect J)
The light transmits the light so that a driver-provided information image indicating the driver-provided information to be provided to the driver of the moving object is displayed in a predetermined display area in front of the moving object in the direction in which the driver views it through the light-transmitting member. image light projection means for projecting image light onto a transparent member; distance detection means for detecting a relative distance in the moving direction of the moving object of a detection target existing around the moving object; and a viewpoint position for detecting the viewpoint position of the driver. An information provision control program for operating a computer of an information provision apparatus comprising a detection means, the program changing a display position of an object image indicating the detection object according to a detection result of the viewpoint position detection means. the image light projecting means so that the distance perceived by the driver due to motion parallax regarding the object image changes in accordance with the relative distance in the traveling direction of the moving body of the detection object detected by the distance detection means. The computer is characterized in that it functions as a display control means for controlling.
According to this aspect, the perceived distance of the target object image is made to be perceived by the driver using motion parallax, so the driver recognizes information about the movement of the detected target object toward or away from the moving body (surrounding object information). Easy to do.

(態様K)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射することにより、前記運転者提供情報を運転者へ提供する情報提供方法であって、前記所定の表示エリアは、運転者によって能動的に認知される能動情報を示す能動情報画像を継続表示させる能動情報画像表示領域と、運転者によって受動的に認知される受動情報を示す受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる受動情報画像表示領域とを備えており、前記運転者の視点位置を検知する視点位置検知工程と、前記視点位置検知工程での検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離が前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離よりも遠くなるように、前記画像光投射手段を制御する表示制御工程とを有することを特徴とする。
本態様によれば、遠方に焦点を合わせている運転中の運転者にとって能動情報画像よりも受動情報画像の方が認知しやすくなるので、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
(Aspect K)
The light transmits the light so that a driver-provided information image indicating the driver-provided information to be provided to the driver of the moving object is displayed in a predetermined display area in front of the moving object in the direction in which the driver views it through the light-transmitting member. An information providing method for providing the driver-provided information to a driver by projecting image light onto a transparent member, wherein the predetermined display area is an active area showing active information that is actively recognized by the driver. An active information image display area that continuously displays an information image, and a passive information image display area that temporarily displays a passive information image indicating passive information that is passively recognized by the driver at a timing when a predetermined information provision condition is met. a viewpoint position detection step of detecting the viewpoint position of the driver; and changing the display position of the passive information image displayed in the passive information image display area according to the detection result in the viewpoint position detection step. Accordingly, the image light projecting means may be configured such that the perceived distance of the passive information image by the driver due to motion parallax is farther than the perceived distance of the driver regarding the active information image displayed in the active information image display area. and a display control step for controlling.
According to this aspect, the passive information image is easier to recognize than the active information image for a driver who is focusing on a distant object, so when the passive information image is displayed, the driver can Passive information images are easy to notice even when information images are displayed. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and the passive information can be quickly provided to the driver.

(態様L)
移動体の運転者に提供する運転者提供情報を示す運転者提供情報画像を、光透過部材を介して運転者が視認する移動体進行方向前方の所定の表示エリアに表示させるように、該光透過部材へ画像光を投射する画像光投射手段と、前記運転者の視点位置を検知する視点位置検知手段とを備えた情報提供装置のコンピュータを機能させるための情報提供用制御プログラムであって、前記所定の表示エリアは、運転者によって能動的に認知される能動情報を示す能動情報画像を継続表示させる能動情報画像表示領域と、運転者によって受動的に認知される受動情報を示す受動情報画像を所定の情報提供条件を満たしたタイミングで一時表示させる受動情報画像表示領域とを備えており、前記視点位置検知手段の検知結果に応じて前記受動情報画像表示領域に表示される受動情報画像の表示位置を変化させることにより、運動視差による該受動情報画像についての運転者の知覚距離が前記能動情報画像表示領域に表示される能動情報画像についての運転者の知覚距離よりも遠くなるように、前記画像光投射手段を制御する表示制御手段として、前記コンピュータを機能させることを特徴とする。
本態様によれば、遠方に焦点を合わせている運転中の運転者にとって能動情報画像よりも受動情報画像の方が認知しやすくなるので、運転者は、受動情報画像が表示された時、能動情報画像が表示されていても受動情報画像に気付きやすい。したがって、運転者300は、受動情報画像が表示したらすぐに認知しやすく、受動情報を迅速に運転者に提供することができる。
(Aspect L)
The light transmits the light so that a driver-provided information image indicating the driver-provided information to be provided to the driver of the moving object is displayed in a predetermined display area in front of the moving object in the direction in which the driver views it through the light-transmitting member. An information provision control program for operating a computer of an information provision apparatus comprising an image light projection means for projecting image light onto a transparent member, and a viewpoint position detection means for detecting the viewpoint position of the driver, the program comprising: The predetermined display area includes an active information image display area that continuously displays an active information image showing active information that is actively recognized by the driver, and a passive information image display area that shows passive information that is passively recognized by the driver. a passive information image display area that temporarily displays a passive information image display area at a timing when a predetermined information provision condition is met; By changing the display position, the driver's perceived distance for the passive information image due to motion parallax is farther than the driver's perceived distance for the active information image displayed in the active information image display area, The computer is characterized in that the computer functions as display control means for controlling the image light projection means.
According to this aspect, the passive information image is easier to recognize than the active information image for a driver who is focusing on a distant object, so when the passive information image is displayed, the driver can Passive information images are easy to notice even when information images are displayed. Therefore, the driver 300 can easily recognize the passive information image as soon as it is displayed, and the passive information can be quickly provided to the driver.

なお、上述したプログラムは、CD-ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、上述したプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。上述したプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。 Note that the above-mentioned program can be distributed or obtained in a state recorded on a recording medium such as a CD-ROM. It is also possible to distribute or receive a signal carrying the above-mentioned program and transmitted by a predetermined transmitting device via a transmission medium such as a public telephone line, leased line, or other communication network. Available. At the time of this distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, all the data making up a computer program does not need to exist on the transmission medium at one time. The above-mentioned signal carrying a program is a computer data signal embodied in a predetermined carrier wave containing a computer program. Furthermore, the transmission method for transmitting a computer program from a predetermined transmitting device includes both continuous transmission of data constituting the program and intermittent transmission.

100 物体認識装置
110 ステレオカメラ部
120 情報処理部
150 運転者カメラ
200 自動車用HUD装置
201R,201G,201B レーザー光源
207 光量調整部
208 光走査装置
209 自由曲面ミラー
210 マイクロレンズアレイ
211 投射ミラー
220 光源ユニット
230 HUD本体
250 画像制御装置
300 運転者
301 自車両
302 フロントガラス
350 先行車両
400 車両ナビゲーション装置
500 センサ装置
700 表示エリア
701 道路名表示画像
702 制限速度表示画像
703 追い越し禁止表示画像
704 車速表示画像
711 走行レーン指示画像
712,715 車間距離提示画像
713 単純図形画像
712a 自車両バンパー画像
714,716 ブレーキ警告画像
718 通学路警告画像
719 人型警告画像
717,721 進路指定画像
722 残り距離画像
723 交差点等名称画像
724 先行車両画像
725 下向きマーク画像
A 上段表示領域
B 中段表示領域
C 下段表示領域
G 虚像
100 Object recognition device 110 Stereo camera section 120 Information processing section 150 Driver camera 200 Automobile HUD device 201R, 201G, 201B Laser light source 207 Light amount adjustment section 208 Light scanning device 209 Free-form surface mirror 210 Microlens array 211 Projection mirror 220 Light source unit 230 HUD body 250 Image control device 300 Driver 301 Own vehicle 302 Windshield 350 Leading vehicle 400 Vehicle navigation device 500 Sensor device 700 Display area 701 Road name display image 702 Speed limit display image 703 Overtaking prohibited display image 704 Vehicle speed display image 711 Driving Lane instruction images 712, 715 Inter-vehicle distance presentation image 713 Simple graphic image 712a Own vehicle bumper image 714, 716 Brake warning image 718 School route warning image 719 Humanoid warning image 717, 721 Course designation image 722 Remaining distance image 723 Intersection, etc. name image 724 Leading vehicle image 725 Downward mark image A Upper display area B Middle display area C Lower display area G Virtual image

特許第4686586号公報Patent No. 4686586

Claims (4)

移動体を運転する運転者の動きを検知する検知ステップと、
前記運転者から第1の距離だけ離れていると該運転者に知覚させる第1の画像部分及び前記運転者から前記第1の距離よりも大きい第2の距離だけ離れていると該運転者に知覚させる第2の画像部分を、前記運転者が移動した場合に前記検知ステップにより検知された前記運転者の動きに応じて、それぞれ移動させて表示する表示ステップと、を有し、
前記第1の画像部分及び前記第2の画像部分のうちの少なくとも一方は、人間を示す画像を含むものであり、
前記表示ステップは、前記第1の画像部分を移動させて表示するための第1の移動量よりも、前記第2の画像部分を移動させて表示するための第2の移動量の方が大きくなるように表示することを特徴とする画像表示方法
a detection step for detecting the movement of a driver driving the mobile object;
a first image portion that causes the driver to perceive that it is a first distance away from the driver; and a first image portion that causes the driver to perceive that it is a second distance that is greater than the first distance from the driver; a display step of moving and displaying a second image portion to be perceived in accordance with the movement of the driver detected by the detection step when the driver moves;
At least one of the first image portion and the second image portion includes an image showing a human being,
In the displaying step, a second movement amount for moving and displaying the second image portion is larger than a first movement amount for moving and displaying the first image portion. An image display method characterized by displaying an image so that it appears as follows .
求項1に記載の画像表示方法において、
前記検知ステップは、前記移動体に備え付けられた撮像装置により前記運転者の動きを検出することを特徴とする画像表示方法。
In the image display method according to claim 1 ,
The image display method is characterized in that the detecting step detects the movement of the driver using an imaging device installed in the moving object.
請求項2に記載の画像表示方法において、
前記検知ステップは、前記撮像装置により撮影された運転者の頭部位置から前記運転者の目の位置を推定することを特徴とする画像表示方法。
In the image display method according to claim 2 ,
The image display method is characterized in that the detecting step estimates the position of the driver's eyes from the position of the driver's head photographed by the imaging device.
移動体を運転する運転者の動きを検出する検出部と、
前記運転者から第1の距離だけ離れていると該運転者に知覚させる第1の画像部分及び前記運転者から前記第1の距離よりも大きい第2の距離だけ離れていると該運転者に知覚させる第2の画像部分を、前記運転者が移動した場合に前記検出部により検知された前記運転者の動きに応じて、それぞれ移動させて表示する表示部と、を備え、
前記第1の画像部分及び前記第2の画像部分のうちの少なくとも一方は、人間を示す画像を含むものであり、
前記表示部は、前記第1の画像部分を移動させて表示するための第1の移動量よりも、前記第2の画像部分を移動させて表示するための第2の移動量の方が大きくなるように表示することを特徴とする画像表示装置。
a detection unit that detects the movement of a driver driving a mobile object;
a first image portion that causes the driver to perceive that it is a first distance away from the driver; and a first image portion that causes the driver to perceive that it is a second distance that is greater than the first distance from the driver; a display section that moves and displays a second image portion to be perceived in accordance with the movement of the driver detected by the detection section when the driver moves;
At least one of the first image portion and the second image portion includes an image showing a human being,
The display unit has a second movement amount for moving and displaying the second image portion that is larger than a first movement amount for moving and displaying the first image portion. An image display device characterized by displaying images as follows.
JP2022000080A 2020-06-29 2022-01-04 Image display method and image display device Active JP7385834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022000080A JP7385834B2 (en) 2020-06-29 2022-01-04 Image display method and image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020111138A JP2020175889A (en) 2020-06-29 2020-06-29 Information providing device, information providing method, and control program for providing information
JP2022000080A JP7385834B2 (en) 2020-06-29 2022-01-04 Image display method and image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020111138A Division JP2020175889A (en) 2020-06-29 2020-06-29 Information providing device, information providing method, and control program for providing information

Publications (2)

Publication Number Publication Date
JP2022044623A JP2022044623A (en) 2022-03-17
JP7385834B2 true JP7385834B2 (en) 2023-11-24

Family

ID=72916289

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020111138A Pending JP2020175889A (en) 2020-06-29 2020-06-29 Information providing device, information providing method, and control program for providing information
JP2022000080A Active JP7385834B2 (en) 2020-06-29 2022-01-04 Image display method and image display device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020111138A Pending JP2020175889A (en) 2020-06-29 2020-06-29 Information providing device, information providing method, and control program for providing information

Country Status (1)

Country Link
JP (2) JP2020175889A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072455A (en) 2008-09-19 2010-04-02 Toshiba Corp In-vehicle display and display method
JP2010143520A (en) 2008-12-22 2010-07-01 Toshiba Corp On-board display system and display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3369237B2 (en) * 1993-02-23 2003-01-20 三菱電機株式会社 Driver viewpoint judgment device and inattentive judgment device
JP3452244B2 (en) * 1998-09-17 2003-09-29 日本電信電話株式会社 Three-dimensional display method and apparatus
JP4367212B2 (en) * 2004-04-15 2009-11-18 株式会社デンソー Virtual image display device and program
US8953242B2 (en) * 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
JP6485732B2 (en) * 2014-12-10 2019-03-20 株式会社リコー Information providing apparatus, information providing method, and information providing control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072455A (en) 2008-09-19 2010-04-02 Toshiba Corp In-vehicle display and display method
JP2010143520A (en) 2008-12-22 2010-07-01 Toshiba Corp On-board display system and display method

Also Published As

Publication number Publication date
JP2022044623A (en) 2022-03-17
JP2020175889A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP6485732B2 (en) Information providing apparatus, information providing method, and information providing control program
US10679496B2 (en) Information providing apparatus
EP3093194B1 (en) Information provision device
JP6806097B2 (en) Image display device and image display method
US20180319281A1 (en) Information provision device, information provision method, and recording medium storing information provision program for a vehicle display
US20170336629A1 (en) Information processing system and information display apparatus
JP7300112B2 (en) Control device, image display method and program
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
JP6516151B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP6658859B2 (en) Information provision device
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
JP7385834B2 (en) Image display method and image display device
JP6726412B2 (en) Image display device, moving body, image display method and program
JP7037764B2 (en) Travel route guidance device, mobile body, travel route guidance method and program
JP7054483B2 (en) Information providing device, information providing method and information providing control program
JP2021105989A (en) Onboard display device and program
JP7151397B2 (en) Display device, display method, head-up display and wearable device
JP2021117703A (en) In-vehicle display device and program
JP2021117987A (en) Image display device, image display method, and program
JP2021117938A (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231026

R151 Written notification of patent or utility model registration

Ref document number: 7385834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151