JP7484132B2 - Superimposed image display device and computer program - Google Patents

Superimposed image display device and computer program Download PDF

Info

Publication number
JP7484132B2
JP7484132B2 JP2019200358A JP2019200358A JP7484132B2 JP 7484132 B2 JP7484132 B2 JP 7484132B2 JP 2019200358 A JP2019200358 A JP 2019200358A JP 2019200358 A JP2019200358 A JP 2019200358A JP 7484132 B2 JP7484132 B2 JP 7484132B2
Authority
JP
Japan
Prior art keywords
image
vehicle
guide
guide image
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019200358A
Other languages
Japanese (ja)
Other versions
JP2020085897A (en
Inventor
賢二 渡邊
鋭典 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Publication of JP2020085897A publication Critical patent/JP2020085897A/en
Application granted granted Critical
Publication of JP7484132B2 publication Critical patent/JP7484132B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Navigation (AREA)

Description

本発明は、車両の走行支援を行う重畳画像表示装置及びコンピュータプログラムに関する。 The present invention relates to a superimposed image display device and a computer program that provide vehicle driving support.

従来より、車両の乗員に対して経路案内や障害物の警告等の車両の走行支援を行う為の各種情報を提供する情報提供手段として、様々な手段が用いられている。例えば、車両に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、運転者の周辺環境(風景、実景)に重畳する画像を表示することによって、情報の提供を行う装置がある。例えば、ヘッドアップディスプレイ、ウインドウシールドディスプレイの他、液晶ディスプレイに表示した車両周辺の撮像画像に重畳して画像を表示する方法等が該当する。 Conventionally, various means have been used as information providing means for providing vehicle occupants with various information for driving support such as route guidance and warnings of obstacles. For example, this can be a display on a liquid crystal display installed in the vehicle, or a sound output from a speaker. In recent years, one such information providing means is a device that provides information by displaying an image superimposed on the driver's surroundings (landscape, real scene). For example, this includes head-up displays, windshield displays, and methods of displaying an image superimposed on a captured image of the vehicle's surroundings displayed on a liquid crystal display.

例えば、特開2005-69800号公報には、車両用のヘッドアップディスプレイ装置において、右左折する対象となる交差点の位置に丸印や人のマークの虚像を重畳して視認させることによって、右左折対象となる交差点の位置を車両の乗員に正確に把握させる技術について開示されている。 For example, Japanese Patent Application Laid-Open No. 2005-69800 discloses a technology that allows vehicle occupants to accurately grasp the location of an intersection where a right or left turn is to be made by superimposing a virtual image of a circle or a person on the location of the intersection in a head-up display device for a vehicle and making it visible.

特開2005-69800号公報(図4、図7)JP 2005-69800 A (FIGS. 4 and 7)

ここで、上記特許文献1に記載の技術では、丸印や人のマークの虚像を右左折対象となる案内交差点の位置に重畳して視認されるように表示を行っている。しかしながら、重畳対象となる案内交差点の周辺には、対象物(例えば、人工的な構造物、他車両、歩行者等)が存在する場合も多くあり、その場合において虚像とそれらの対象物が重なって視認される場合もある。例えば図13に示すように車両の進行方向前方にある案内交差点で右折することを示す矢印の虚像101を表示する場合において、右折の対象となる案内交差点周辺に他車両102が存在する場合には、矢印の虚像101と他車両102が重なって視認されることとなる。 Here, in the technology described in Patent Document 1, a virtual image of a circle or a person is displayed so as to be superimposed on the position of the guidance intersection where a right or left turn is to be made. However, there are often objects (e.g., artificial structures, other vehicles, pedestrians, etc.) around the guidance intersection where the image is to be superimposed, and in such cases the virtual image may be superimposed on the object. For example, as shown in FIG. 13, when a virtual image 101 of an arrow indicating a right turn at a guidance intersection ahead of the vehicle in the travel direction is displayed, if another vehicle 102 is present around the guidance intersection where the right turn is to be made, the virtual image 101 of the arrow will be superimposed on the other vehicle 102.

その場合には、矢印の虚像101は他車両102よりも手前側に存在するように視認されるので、矢印の虚像101によって示す案内交差点の退出路103が他車両102よりも奥側にあるにもかかわらず、他車両102よりも手前側で右折するものと誤認識されたり、右折する位置が特定できなくなる等の問題があった。尚、液晶ディスプレイに表示した車両周辺の撮像画像に重畳して矢印の画像を表示する場合も同様の問題がある。 In that case, the virtual image of the arrow 101 is visually perceived as being in front of the other vehicle 102, so even though the exit road 103 of the guidance intersection indicated by the virtual image of the arrow 101 is behind the other vehicle 102, it is mistakenly recognized as a right turn in front of the other vehicle 102, or the position to turn right cannot be identified. The same problem occurs when the image of the arrow is superimposed on a captured image of the vehicle's surroundings displayed on a liquid crystal display.

本発明は前記従来における問題点を解消するためになされたものであり、案内画像を車両前方の風景に重畳して視認させる場合において、案内画像と対象物との位置関係を正確に認識させることが可能となり、案内画像を用いた案内をより適切に行うことを可能にした重畳画像表示装置及びコンピュータプログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned problems in the conventional technology, and aims to provide a superimposed image display device and computer program that enables accurate recognition of the positional relationship between the guide image and the object when the guide image is superimposed on the scenery in front of the vehicle, and enables more appropriate guidance using the guide image.

前記目的を達成するため本発明に係る第1の重畳画像表示装置は、車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す黒色の画像である対象物画像とを一体の画像として車両に設けられた画像表示面に表示し、前記画像表示面に表示された一体の画像である前記案内画像及び前記対象物画像を車両のフロントガラスに反射して車両の乗員に視認させることで、車両前方の風景に前記案内画像の虚像を重畳して視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像の虚像を車両の乗員が視認できない態様で重畳させる画像表示手段と、を有する。
また、本発明に係る第2の重畳画像表示装置は、車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す透過色の画像である対象物画像とを一体の画像として車両に設けられて前記車両前方の風景が表示された画像表示面に表示することで、車両前方の風景に前記案内画像を重畳して車両の乗員に視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像を車両の乗員が視認できない態様で重畳させる画像表示手段と、を有する。
尚、「対象物」とは、車両の周辺に存在する静止物や動体物を含む。静止物としては例えば人工的な構造物(建築物、道路標識、看板等)や自然物(樹木等)があり、動体物としては例えば他車両、人、自転車等がある。
また、「風景」とは、実際に車両から視認される風景(実景)に加えて、風景を撮像した画像、風景を再現した画像等も含む。
In order to achieve the above object, a first superimposed image display device according to the present invention comprises: guide image arranging means for arranging a guide image in a three-dimensional space corresponding to the periphery of a vehicle; virtual body arranging means for arranging a virtual body simulating an object existing in the periphery of the vehicle at a position in the three-dimensional space where the object exists; viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle; shape acquisition means for acquiring shapes of the guide image and the virtual body as viewed from the viewpoint with the guide image and the virtual body arranged in the three-dimensional space; and an image display means for displaying the guide image having the shape acquired by the shape acquisition means and an object image which is a black image showing the shape of the virtual body acquired by the shape acquisition means as a single image on an image display screen provided in the vehicle, and for reflecting the guide image and the object image which are single images displayed on the image display screen onto the windshield of the vehicle so that they are visible to an occupant of the vehicle, thereby superimposing a virtual image of the guide image on the scenery in front of the vehicle and allowing the occupant of the vehicle to view it, and for superimposing a virtual image of the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be viewed by the occupant of the vehicle.
In addition, a second superimposed image display device according to the present invention has a guide image placement means for placing a guide image in a three-dimensional space corresponding to the periphery of the vehicle, a virtual body placement means for placing a virtual body simulating an object present in the periphery of the vehicle at a position in the three-dimensional space where the object is present, a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle, a shape acquisition means for acquiring the shapes of the guide image and the virtual body viewed from the viewpoint with the guide image and the virtual body placed in the three-dimensional space, and an image display means for displaying the guide image having the shape acquired by the shape acquisition means and an object image which is a transparent color image showing the shape of the virtual body acquired by the shape acquisition means as an integrated image on an image display screen provided in the vehicle and displaying a scenery in front of the vehicle, thereby superimposing the guide image on the scenery in front of the vehicle so as to be visible to an occupant of the vehicle, and superimposing the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be seen by the occupant of the vehicle.
The term "target object" includes stationary objects and moving objects around the vehicle. Stationary objects include, for example, artificial structures (buildings, road signs, billboards, etc.) and natural objects (trees, etc.), while moving objects include, for example, other vehicles, people, bicycles, etc.
Further, the "scenery" includes not only the scenery actually viewed from the vehicle (actual scenery), but also an image of the scenery captured, an image of the scenery reproduced, and the like.

また、本発明に係る第1のコンピュータプログラムは、車両の走行支援を行うプログラムである。具体的には、コンピュータを、車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す黒色の画像である対象物画像とを一体の画像として車両に設けられた画像表示面に表示し、前記画像表示面に表示された一体の画像である前記案内画像及び前記対象物画像を車両のフロントガラスに反射して車両の乗員に視認させることで、車両前方の風景に前記案内画像の虚像を重畳して視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像の虚像を車両の乗員が視認できない態様で重畳させる画像表示手段と、して機能させる。
また、本発明に係る第2のコンピュータプログラムは、車両の走行支援を行うプログラムである。具体的には、コンピュータを、車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す透過色の画像である対象物画像とを一体の画像として車両に設けられて前記車両前方の風景が表示された画像表示面に表示することで、車両前方の風景に前記案内画像を重畳して車両の乗員に視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像を車両の乗員が視認できない態様で重畳させる画像表示手段と、して機能させる。
A first computer program according to the present invention is a program for providing vehicle driving support. Specifically, the computer functions as: a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle; a virtual body arrangement means for arranging a virtual body simulating an object present in the periphery of the vehicle at a position in the three-dimensional space where the object exists; a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle; a shape acquisition means for acquiring the shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space ; and an image display means for displaying the guide image having the shape acquired by the shape acquisition means and an object image which is a black image showing the shape of the virtual body acquired by the shape acquisition means as an integrated image on an image display screen provided in the vehicle, and reflecting the guide image and the object image which are integrated images displayed on the image display screen onto the windshield of the vehicle so that the occupants of the vehicle can view them, thereby superimposing a virtual image of the guide image on the scenery ahead of the vehicle and allowing them to be viewed, and superimposing a virtual image of the object image on the position of the object in the scenery ahead of the vehicle in a manner that cannot be viewed by the occupants of the vehicle.
A second computer program according to the present invention is a program for providing vehicle driving support. Specifically, the computer is caused to function as a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle, a virtual body arrangement means for arranging a virtual body simulating an object existing in the periphery of the vehicle at a position in the three-dimensional space where the object exists, a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle, a shape acquisition means for acquiring shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space , and an image display means for displaying the guide image having the shape acquired by the shape acquisition means and an object image which is a transparent color image showing the shape of the virtual body acquired by the shape acquisition means as an integrated image on an image display surface provided in the vehicle and displaying a scene ahead of the vehicle, thereby superimposing the guide image on the scene ahead of the vehicle so as to be viewed by a vehicle occupant, and superimposing the object image on the position of the object in the scene ahead of the vehicle in a manner that the vehicle occupant cannot view it.

前記構成を有する本発明に係る第1及び第2の重畳画像表示装置及びコンピュータプログラムによれば、案内画像を車両前方の風景に重畳して視認させる場合において、案内画像よりも車両側に位置する対象物と重複する範囲については車両の乗員から案内画像を視認させないことができるので、案内画像と対象物との位置関係を正確に示す案内画像を車両の乗員に視認させることが可能となる。その結果、案内画像の虚像を用いた案内をより適切に行うことが可能となる。 According to the first and second superimposed image display devices and computer programs of the present invention having the above configurations, when a guide image is superimposed on the scenery ahead of the vehicle and is visually recognized, the guide image is prevented from being visually recognized by the vehicle occupants in the area where it overlaps with an object located closer to the vehicle than the guide image, so that the vehicle occupants can be made to visually recognize a guide image that accurately shows the positional relationship between the guide image and the object. As a result, guidance using a virtual image of the guide image can be more appropriately performed.

第1実施形態に係る重畳画像表示装置の概略構成図である。1 is a schematic configuration diagram of a superimposed image display device according to a first embodiment. 第1実施形態に係るナビゲーション装置を示したブロック図である。1 is a block diagram showing a navigation device according to a first embodiment. 第1実施形態に係る走行支援処理プログラムのフローチャートである。5 is a flowchart of a driving support processing program according to the first embodiment. 3次元地図情報に基づいて生成される3次元立体地図を示した図である。FIG. 2 is a diagram showing a three-dimensional relief map generated based on three-dimensional map information. 3次元地図情報に配置される案内画像の一例を示した図である。FIG. 11 is a diagram showing an example of a guide image arranged in three-dimensional map information. 3次元地図情報に配置される対象物仮想体の一例を示した図である。FIG. 10 is a diagram showing an example of a target virtual object arranged in three-dimensional map information. 3次元地図情報の車両位置から視認される案内画像の形状と重複対象物仮想体の形状を示した図である。11 is a diagram showing the shape of a guide image visually recognized from a vehicle position in three-dimensional map information and the shape of an overlapping object virtual body. FIG. 案内画像と黒色画像の表示例を示した図である。11A and 11B are diagrams showing examples of displaying a guide image and a black image. 車両の乗員から視認される案内画像の虚像の例を示した図である。11A and 11B are diagrams showing examples of virtual images of a guide image visually recognized by a vehicle occupant. 表示範囲決定処理のサブ処理プログラムのフローチャートである。13 is a flowchart of a sub-processing program of the display range determination process. 第2実施形態に係る重畳画像表示装置において液晶ディスプレイに対して表示される案内画像の一例を示した図である。13 is a diagram showing an example of a guide image displayed on a liquid crystal display in the superimposed image display device according to the second embodiment. FIG. 案内画像と透過画像の表示例を示した図である。11A and 11B are diagrams showing examples of display of a guide image and a transparent image. 従来技術の問題点について説明した図である。FIG. 1 is a diagram illustrating problems with the conventional technology.

以下、本発明に係る重畳画像表示装置を具体化した第1実施形態及び第2実施形態について図面を参照しつつ詳細に説明する。 Hereinafter, a first embodiment and a second embodiment of the superimposed image display device according to the present invention will be described in detail with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係る重畳画像表示装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係る重畳画像表示装置1の概略構成図である。
[First embodiment]
First, a schematic configuration of a superimposed image display device 1 according to the first embodiment will be described with reference to Fig. 1. Fig. 1 is a schematic configuration diagram of the superimposed image display device 1 according to the first embodiment.

図1に示すように重畳画像表示装置1は、車両2に搭載されたナビゲーション装置3と、同じく車両2に搭載されるとともにナビゲーション装置3と接続されたフロントディスプレイ4とを基本的に有する。尚、フロントディスプレイ4は後述のように車両2のフロントガラス5とともにヘッドアップディスプレイとして機能し、車両2の乗員6に対して様々な情報の提供を行う情報提供手段となる。 As shown in FIG. 1, the superimposed image display device 1 basically comprises a navigation device 3 mounted on a vehicle 2, and a front display 4 also mounted on the vehicle 2 and connected to the navigation device 3. The front display 4 functions as a head-up display together with a windshield 5 of the vehicle 2 as described below, and serves as an information providing means for providing various information to an occupant 6 of the vehicle 2.

ここで、ナビゲーション装置3は、目的地までの推奨経路を探索したり、サーバから取得したりメモリに格納された地図データに基づいて車両2の現在位置周辺の地図画像を表示したり、設定された案内経路に沿った走行案内や障害物に対する警告等をフロントディスプレイ4とともに行う機能を有する。尚、上記機能の全てをナビゲーション装置3が備えている必要はなく、少なくとも案内経路に沿った走行案内や障害物に対する警告等を行う機能を有していれば本願発明を構成することが可能である。尚、ナビゲーション装置3の構造の詳細については後述する。 The navigation device 3 has functions to search for a recommended route to the destination, display a map image of the area around the current position of the vehicle 2 based on map data acquired from a server or stored in memory, and provide driving guidance along a set guide route and warnings of obstacles together with the front display 4. Note that the navigation device 3 does not need to have all of the above functions, and the present invention can be constituted as long as it has at least the function of providing driving guidance along a guide route and warnings of obstacles. Note that the structure of the navigation device 3 will be described in detail later.

一方、フロントディスプレイ4は、車両2のダッシュボード7内部に設置され、前面に設けられた画像表示面に対して画像を表示する機能を有する液晶ディスプレイである。バックライトとしては例えばCCFL(冷陰極管)や白色LEDが用いられる。尚、フロントディスプレイ4としては、液晶ディスプレイ以外に、有機ELディスプレイや液晶プロジェクタとスクリーンの組み合わせを用いても良い。 On the other hand, the front display 4 is a liquid crystal display that is installed inside the dashboard 7 of the vehicle 2 and has the function of displaying images on an image display surface provided on the front. For example, a CCFL (cold cathode fluorescent lamp) or a white LED is used as the backlight. Note that, in addition to a liquid crystal display, the front display 4 may also be an organic electroluminescence display or a combination of a liquid crystal projector and a screen.

そして、フロントディスプレイ4は車両2のフロントガラス5とともにヘッドアップディスプレイとして機能し、フロントディスプレイ4から出力される画像を、運転席の前方のフロントガラス5に反射させて車両2の乗員6に視認させるように構成されている。尚、フロントディスプレイ4に表示される画像としては、車両2に関する情報や乗員6の運転の支援の為に用いられる各種情報がある。例えば乗員6に対して警告対象となる対象物(他車両、歩行者、案内標識)に対する警告、ナビゲーション装置3で設定された案内経路や案内経路に基づく案内情報(右左折方向を示す矢印等)、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、現在車速、シフト位置、エネルギ残量、広告画像、施設情報、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面、テレビ番組等がある。 The front display 4 functions as a head-up display together with the windshield 5 of the vehicle 2, and is configured to reflect images output from the front display 4 on the windshield 5 in front of the driver's seat so that the images can be viewed by the occupant 6 of the vehicle 2. The images displayed on the front display 4 include information about the vehicle 2 and various information used to assist the occupant 6 in driving. For example, the images include warnings for objects that should be warned to the occupant 6 (other vehicles, pedestrians, guide signs), guide routes set by the navigation device 3 and guide information based on the guide routes (arrows indicating the direction to turn right or left, etc.), warnings displayed on the road surface (collision warning, speed limit, etc.), lane markings on the lane the vehicle is traveling in, current vehicle speed, shift position, remaining energy, advertising images, facility information, map images, traffic information, news, weather forecasts, time, the screen of a connected smartphone, television programs, etc.

また、フロントガラス5を反射して乗員6がフロントディスプレイ4に表示された映像を視認した場合に、乗員6にはフロントガラス5の位置ではなく、フロントガラス5の先の遠方の位置にフロントディスプレイ4に表示された映像が虚像10として視認されるように構成される。また、虚像10は車両前方の周辺環境(風景、実景)に重畳して表示されることとなり、例えば車両前方に位置する任意の対象物(路面、建築物、警告対象となる物等)に重畳させて表示させることも可能である。 When the occupant 6 sees the image displayed on the front display 4 reflected by the windshield 5, the image displayed on the front display 4 is perceived by the occupant 6 not at the position of the windshield 5, but at a distant position beyond the windshield 5, as a virtual image 10. The virtual image 10 is displayed superimposed on the surrounding environment (landscape, real scene) in front of the vehicle, and can be displayed superimposed on any object (road surface, building, object that is the subject of a warning, etc.) located in front of the vehicle.

ここで、虚像10を生成する位置、より具体的には乗員6から虚像10までの距離(以下、結像距離という)Lについては、フロントディスプレイ4の位置によって決定される。例えば、フロントディスプレイ4において映像の表示された位置からフロントガラス5までの光路に沿った距離(光路長)によって結像距離Lが決定される。例えば結像距離Lが1.5mとなるように光路長が設定されている。 The position where the virtual image 10 is generated, more specifically the distance L from the occupant 6 to the virtual image 10 (hereinafter referred to as the imaging distance), is determined by the position of the front display 4. For example, the imaging distance L is determined by the distance (optical path length) along the optical path from the position where the image is displayed on the front display 4 to the windshield 5. For example, the optical path length is set so that the imaging distance L is 1.5 m.

また、第1実施形態では車両周辺の風景に重畳する画像を表示する手段としてダッシュボード7内部に設置されたフロントディスプレイ4を用いているが、他の手段を用いても良い。例えば、ヘッドアップディスプレイ(HUD)装置を車載器として有しても良いし、フロントガラス5に対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。WSDでは、フロントガラス5をスクリーンとしてプロジェクタから映像を表示しても良いし、フロントガラス5を透過液晶ディスプレイとしても良い。WSDによってフロントガラス5に対して表示された画像は、HUDと同様に車両周辺の風景に重畳する画像となる。 In the first embodiment, the front display 4 installed inside the dashboard 7 is used as a means for displaying an image to be superimposed on the scenery around the vehicle, but other means may be used. For example, a head-up display (HUD) device may be provided as an in-vehicle device, or a windshield display (WSD) that displays an image on the windshield 5 may be used. In the WSD, the windshield 5 may be used as a screen to display an image from a projector, or the windshield 5 may be a translucent liquid crystal display. The image displayed on the windshield 5 by the WSD is an image that is superimposed on the scenery around the vehicle, similar to a HUD.

更に、後述のフロントカメラ11で撮像した車両周辺の風景を車内の液晶ディスプレイに表示し、同一の液晶ディスプレイ内において表示された風景に重畳する画像を表示することも可能である。その場合においても液晶ディスプレイに表示された画像は、HUDと同様に車両周辺の風景に重畳する画像となる。 In addition, it is possible to display the scenery around the vehicle captured by the front camera 11 (described below) on an LCD display inside the vehicle, and to display an image that is superimposed on the scenery displayed on the same LCD display. In this case, the image displayed on the LCD display will be an image that is superimposed on the scenery around the vehicle, just like the HUD.

また、車両のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ11が設置される。フロントカメラ11は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ11により撮像された撮像画像に対して画像処理が行われることによって、フロントガラス越しに乗員6に視認される前方環境(即ち虚像10が重畳される環境)の状況等が検出される。尚、フロントカメラ11の代わりにミリ波レーダ等のセンサを用いても良い。 A front camera 11 is also installed above the vehicle's front bumper or behind the rearview mirror. The front camera 11 is an imaging device having a camera using a solid-state imaging element such as a CCD, and is installed with its optical axis facing forward in the direction of travel of the vehicle. Image processing is then performed on the image captured by the front camera 11 to detect the condition of the forward environment (i.e. the environment on which the virtual image 10 is superimposed) as viewed by the occupant 6 through the windshield. Note that a sensor such as a millimeter wave radar may be used instead of the front camera 11.

また、車両のインストルメントパネルの上面には車内カメラ12が設置される。車内カメラ12は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を運転席に向けて設置される。車内において一般的に乗員の顔が位置すると予想される範囲を検出範囲(車内カメラ12の撮像範囲)として設定し、運転席に座った乗員6の顔を撮像する。そして、車内カメラ12により撮像された撮像画像に対して画像処理が行われることによって、乗員6の左右の目の位置(視線開始点)や視線方向を検出する。 An in-vehicle camera 12 is also installed on the top surface of the vehicle's instrument panel. The in-vehicle camera 12 is an imaging device having a camera using a solid-state imaging element such as a CCD, and is installed with its optical axis direction facing the driver's seat. The range in the vehicle where the face of an occupant is generally expected to be located is set as the detection range (imaging range of the in-vehicle camera 12), and an image of the face of the occupant 6 sitting in the driver's seat is captured. Then, image processing is performed on the captured image captured by the in-vehicle camera 12 to detect the positions of the left and right eyes of the occupant 6 (starting point of gaze) and the gaze direction.

次に、上記重畳画像表示装置1を構成するナビゲーション装置3の概略構成について図2を用いて説明する。図2は第1実施形態に係るナビゲーション装置3を示したブロック図である。 Next, the schematic configuration of the navigation device 3 constituting the superimposed image display device 1 will be described with reference to FIG. 2. FIG. 2 is a block diagram showing the navigation device 3 according to the first embodiment.

図4に示すように第1実施形態に係るナビゲーション装置3は、ナビゲーション装置3が搭載された車両2の現在位置を検出する現在位置検出部13と、各種のデータが記録されたデータ記録部14と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU15と、ユーザからの操作を受け付ける操作部16と、ユーザに対して車両周辺の地図や施設の関する施設情報を表示する液晶ディスプレイ17と、経路案内に関する音声ガイダンスを出力するスピーカ18と、記憶媒体であるDVDを読み取るDVDドライブ19と、VICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール20と、を有する。また、ナビゲーション装置3はCAN等の車載ネットワークを介して、前述したフロントディスプレイ4、フロントカメラ11及び車内カメラ12等が接続されている。 As shown in FIG. 4, the navigation device 3 according to the first embodiment includes a current position detection unit 13 for detecting the current position of the vehicle 2 on which the navigation device 3 is mounted, a data recording unit 14 for recording various data, a navigation ECU 15 for performing various calculation processes based on input information, an operation unit 16 for accepting operations from the user, a liquid crystal display 17 for displaying to the user a map of the area around the vehicle and facility information related to facilities, a speaker 18 for outputting voice guidance related to route guidance, a DVD drive 19 for reading a DVD, which is a storage medium, and a communication module 20 for communicating with an information center such as a VICS (registered trademark: Vehicle Information and Communication System) center. The navigation device 3 is also connected to the front display 4, front camera 11, and in-vehicle camera 12, etc., described above, via an in-vehicle network such as a CAN.

以下に、ナビゲーション装置3が有する各構成要素について順に説明する。
現在位置検出部13は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU15に出力する。そして、ナビゲーションECU15は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置3が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置3が備える構成としても良い。
Each of the components of the navigation device 3 will be described below in order.
The current position detection unit 13 is composed of a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, etc., and is capable of detecting the current vehicle position, direction, vehicle running speed, current time, etc. Here, the vehicle speed sensor 22 in particular is a sensor for detecting the travel distance and vehicle speed of the vehicle, and generates pulses in response to the rotation of the drive wheels of the vehicle and outputs the pulse signal to the navigation ECU 15. The navigation ECU 15 then calculates the rotation speed and travel distance of the drive wheels by counting the generated pulses. It is not necessary for the navigation device 3 to be equipped with all of the above four types of sensors, and the navigation device 3 may be configured to be equipped with only one or a plurality of these types of sensors.

また、データ記録部14は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部14はハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクを有していても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置3が通信により取得する構成としても良い。 The data recording unit 14 also includes a hard disk (not shown) as an external storage device and recording medium, and a recording head (not shown) which is a driver for reading the map information DB 31 and predetermined programs recorded on the hard disk and writing predetermined data to the hard disk. The data recording unit 14 may have a flash memory, a memory card, or an optical disk such as a CD or DVD instead of a hard disk. The map information DB 31 may also be stored on an external server, and the navigation device 3 may acquire it through communication.

ここで、地図情報DB31は、2次元地図情報33と3次元地図情報34とがそれぞれ記憶される。2次元地図情報33は、一般的なナビゲーション装置3において用いられる地図情報であり、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等を含む。 Here, the map information DB 31 stores two-dimensional map information 33 and three-dimensional map information 34. The two-dimensional map information 33 is map information used in general navigation devices 3, and includes, for example, link data related to roads (links), node data related to node points, facility data related to facilities, search data used in route search processing, map display data for displaying the map, intersection data related to each intersection, search data for searching for locations, etc.

一方、3次元地図情報34は、平面だけではなく高さ情報についても有し、3次元で地図を表現する為の地図情報である。特に第1実施形態では3次元で道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等を表現する為の地図情報とする。尚、3次元地図情報34としては上記道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板以外の情報についても含めても良い。例えば、街路樹や路面標示等についても3次元で表現する為の情報を含めても良い。また、3次元地図情報34としては3次元空間上に上記道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の各オブジェクトを配置した地図そのものを記憶しても良いし、3次元で地図を表現する為に必要な情報(道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の3次元の座標データなど)を記憶しても良い。3次元で地図を表現する為に必要な情報が格納されている場合には、ナビゲーション装置3は、必要なタイミングで3次元地図情報34として記憶された情報を用いて、対象エリアを3次元で表現した地図を生成する。 On the other hand, the three-dimensional map information 34 has not only planar information but also height information, and is map information for expressing a map in three dimensions. In particular, in the first embodiment, the map information is for expressing road contours, building shapes, road division lines, traffic lights, road signs, signboards, etc. in three dimensions. The three-dimensional map information 34 may also include information other than the road contours, building shapes, road division lines, traffic lights, road signs, and signboards. For example, it may also include information for expressing road trees and road markings in three dimensions. In addition, the three-dimensional map information 34 may store the map itself in which each object such as the road contours, building shapes, road division lines, traffic lights, road signs, and signboards is arranged in a three-dimensional space, or it may store information necessary for expressing a map in three dimensions (such as three-dimensional coordinate data of road contours, building shapes, road division lines, traffic lights, road signs, signboards, etc.). When the information necessary to represent a map in three dimensions is stored, the navigation device 3 uses the information stored as three-dimensional map information 34 at the required timing to generate a map that represents the target area in three dimensions.

そして、ナビゲーション装置3は、液晶ディスプレイ17における地図画像の表示、案内経路の探索等の一般的な機能については2次元地図情報33を用いて行う。また、後述のように案内画像の表示に係る処理については2次元地図情報33に加えて3次元地図情報34についても用いて行う。 The navigation device 3 uses the two-dimensional map information 33 for general functions such as displaying a map image on the liquid crystal display 17 and searching for a guide route. As described below, the navigation device 3 also uses the three-dimensional map information 34 in addition to the two-dimensional map information 33 for processing related to displaying a guide image.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)15は、ナビゲーション装置3の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図3)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU15は、処理アルゴリズムとしての各種手段を有する。例えば、案内画像配置手段は、車両の周辺に対応した3次元空間内に案内画像を配置する。仮想体配置手段は、車両の周辺に存在する対象物について、3次元空間内において対象物が存在する位置に対象物を模した仮想体を配置する。視点設定手段は、現在の車両の位置に対応する3次元空間内の位置に視点を設定する。形状取得手段は、視点から視認される案内画像と仮想体の形状を夫々取得する。案内画像表示手段は、形状取得手段によって取得された形状の案内画像を、車両前方の風景に重畳して表示する。対象物画像表示手段は、形状取得手段によって取得された仮想体の形状を示す画像である対象物画像を、車両の乗員が視認できない態様で車両前方の風景に重畳して表示する。 On the other hand, the navigation ECU (electronic control unit) 15 is an electronic control unit that controls the entire navigation device 3, and includes a CPU 41 as a calculation device and a control device, a RAM 42 that is used as a working memory when the CPU 41 performs various calculation processes and stores route data when a route is searched, a ROM 43 that stores a driving support processing program (FIG. 3) described later as well as a control program, and a flash memory 44 that stores a program read from the ROM 43. The navigation ECU 15 has various means as processing algorithms. For example, the guide image placement means places a guide image in a three-dimensional space corresponding to the periphery of the vehicle. The virtual body placement means places a virtual body that imitates an object existing around the vehicle at the position where the object exists in the three-dimensional space. The viewpoint setting means sets a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle. The shape acquisition means acquires the shape of the guide image and the virtual body that are visually recognized from the viewpoint. The guidance image display means displays a guidance image of the shape acquired by the shape acquisition means superimposed on the scenery ahead of the vehicle. The object image display means displays an object image, which is an image showing the shape of the virtual object acquired by the shape acquisition means, superimposed on the scenery ahead of the vehicle in a manner that is not visible to the vehicle occupants.

操作部16は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU15は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部16は液晶ディスプレイ17の前面に設けたタッチパネルを有していても良い。また、マイクと音声認識装置を有していても良い。 The operation unit 16 is operated when inputting a departure point as the starting point of the journey and a destination point as the end point of the journey, and has a number of operation switches (not shown) such as various keys and buttons. The navigation ECU 15 controls the execution of various corresponding operations based on switch signals output by pressing each switch. The operation unit 16 may have a touch panel provided on the front of the liquid crystal display 17. It may also have a microphone and a voice recognition device.

また、液晶ディスプレイ17には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、第1実施形態では情報の表示手段としてフロントディスプレイ4を備えているので、上記地図画像等の表示をフロントディスプレイ4で行う構成とすれば液晶ディスプレイ17は省略しても良い。 The LCD display 17 also displays map images including roads, traffic information, operation guidance, operation menus, key guidance, guided route from the departure point to the destination, guidance information along the guided route, news, weather forecasts, time, emails, television programs, etc. In the first embodiment, the front display 4 is provided as a means for displaying information, so the LCD display 17 may be omitted if the map images and the like are displayed on the front display 4.

また、スピーカ18は、ナビゲーションECU15からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。 The speaker 18 also outputs voice guidance to guide the driver along the guide route based on instructions from the navigation ECU 15, as well as traffic information.

また、DVDドライブ19は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ19に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 The DVD drive 19 is a drive capable of reading data recorded on recording media such as DVDs and CDs. Based on the read data, music and video are played, and the map information DB 31 is updated. Instead of the DVD drive 19, a card slot for reading and writing to a memory card may be provided.

また、通信モジュール20は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。 The communication module 20 is a communication device for receiving traffic information, such as congestion information, regulation information, and traffic accident information, transmitted from a traffic information center, such as a VICS center or a probe center, and is, for example, a mobile phone or DCM.

続いて、前記構成を有する重畳画像表示装置1の内、特にナビゲーション装置3において実行する走行支援処理プログラムについて図3に基づき説明する。図3は第1実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、フロントディスプレイ4に表示された画像を車両周辺の周辺環境に重畳して視認させることによって、車両の乗員に対する各種情報の提供を行うプログラムである。尚、以下の図3及び図10にフローチャートで示されるプログラムは、ナビゲーション装置3が備えているRAM42やROM43に記憶されており、CPU41により実行される。 Next, the driving support processing program executed in the navigation device 3, particularly in the superimposed image display device 1 having the above configuration, will be described with reference to FIG. 3. FIG. 3 is a flowchart of the driving support processing program according to the first embodiment. Here, the driving support processing program is executed after the vehicle's ACC power (accessory power supply) is turned on, and is a program that provides various information to the vehicle occupants by superimposing an image displayed on the front display 4 on the surrounding environment around the vehicle and making it visible. The programs shown in the flowcharts in FIG. 3 and FIG. 10 below are stored in the RAM 42 and ROM 43 of the navigation device 3, and are executed by the CPU 41.

以下の説明では特にフロントディスプレイ4を用いて、ナビゲーション装置3で設定された案内経路に沿った車両の進行方向を示す案内矢印の提供を行う例について説明する。但し、上記以外の案内や情報提供を行うことも可能である。例えば、車両2の乗員6への警告対象となる対象物(例えば他車両、歩行者、案内標識)に対する警告、路面に表示する警告(追突注意、制限速度等)、車両が走行する車線の区画線、広告画像、施設情報、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面、テレビ番組の表示等が可能である。 The following description will be directed to an example in which the front display 4 is used to provide a guide arrow that indicates the direction of travel of the vehicle along the guide route set by the navigation device 3. However, it is also possible to provide guidance and information other than the above. For example, it is possible to display warnings to the occupants 6 of the vehicle 2 about objects that are the subject of a warning (e.g., other vehicles, pedestrians, guide signs), warnings displayed on the road surface (collision warning, speed limits, etc.), lane markings on which the vehicle is traveling, advertising images, facility information, map images, traffic information, news, weather forecasts, time, the screen of a connected smartphone, television programs, etc.

先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1においてCPU41は、フロントカメラ11によって車両前方の風景を撮像した撮像画像を取得する。更に、CPU41は、地図情報DB31から車両の現在位置周辺の3次元地図情報34を読み出す。尚、3次元地図情報34には、3次元で地図を表現する為に必要な情報(道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の3次元の座標データなど)が記憶される。 First, in the driving assistance processing program, in step (hereinafter abbreviated as S) 1, the CPU 41 acquires an image of the scenery in front of the vehicle captured by the front camera 11. Furthermore, the CPU 41 reads out three-dimensional map information 34 of the surroundings of the vehicle's current position from the map information DB 31. The three-dimensional map information 34 stores information necessary to express a map in three dimensions (such as three-dimensional coordinate data for road contours, building shapes, road dividing lines, traffic lights, road signs, billboards, etc.).

次に、S2においてCPU41は、前記S1で読み出した3次元地図情報34に基づいて、車両の現在位置周辺を示す3次元立体地図(3次元で建物や道路等を表現した地図)を生成する。具体的には、以下の処理を実行することにより3次元立体地図を生成する。 Next, in S2, the CPU 41 generates a three-dimensional relief map (a map that shows buildings, roads, etc. in three dimensions) showing the area around the current position of the vehicle based on the three-dimensional map information 34 read in S1. Specifically, the three-dimensional relief map is generated by executing the following process.

先ず、CPU41は、3次元地図情報34から3次元空間上に道路、建築物、道路標識、看板等をモデリングしたオブジェクト(形状データ)を取得する。尚、CPU41は、予めモデリングしてDBに格納しておいたオブジェクトの内、該当するオブジェクトを取得する構成としても良いし、S2においてモデリングを実施してオブジェクトを新たに作成する構成としても良い。モデリングを実施する場合には、3次元地図情報34から道路及び道路周辺にある構造物(建築物、道路標識、看板等)の形状や位置を特定する情報を取得し、取得した情報に基づいてモデリング処理を行う。但し、道路、建築物、道路標識、看板の全てをモデリングする必要は無く、例えば道路のみ、或いは道路と建築物のみをモデリングしても良い。 First, the CPU 41 acquires objects (shape data) that model roads, buildings, road signs, signs, etc. in a three-dimensional space from the three-dimensional map information 34. The CPU 41 may be configured to acquire the relevant object from among objects that have been modeled in advance and stored in the DB, or may be configured to perform modeling in S2 and create a new object. When performing modeling, information that specifies the shape and position of the road and structures around the road (buildings, road signs, signs, etc.) is acquired from the three-dimensional map information 34, and modeling processing is performed based on the acquired information. However, it is not necessary to model all roads, buildings, road signs, and signs; for example, only the roads, or only the roads and buildings may be modeled.

ここで、モデリングとは3次元空間上においてモデル(物体)の形状を作成する処理であり、より具体的には各頂点の座標の決定や、境界線、面を表現する方程式のパラメータの決定などを行う。尚、モデリングについては公知の技術であるので詳細は省略する。そして、モデリングされたオブジェクト(形状データ)は、用途に応じて辺のみ表示する「ワイヤーフレームモデル」、面を表示する「サーフィスモデル」等の形で表現される。そして各オブジェクトが形成された3次元空間を3次元立体地図とする。 Here, modeling refers to the process of creating the shape of a model (object) in three-dimensional space, and more specifically, involves determining the coordinates of each vertex, and the parameters of equations that represent boundaries and surfaces. Note that modeling is a well-known technique, so details will be omitted. Depending on the application, the modeled object (shape data) is then expressed in the form of a "wireframe model" that displays only the edges, or a "surface model" that displays the surfaces, etc. The three-dimensional space in which each object is formed is then considered a three-dimensional relief map.

尚、前記S2においてCPU41は3次元地図情報34を用いずに、一般的な2次元地図情報33と車両の現在位置とに基づいて車両の現在位置周辺(特に車両進行方向の前方)に対応した3次元空間を生成し、3次元立体地図としても良い。また、フロントカメラ11で撮像した画像に基づいて3次元空間を生成しても良い。例えばフロントカメラ11で撮像した撮像画像に対して点群マッチングを行うことによって、道路や道路周辺にある構造物を検出し、3次元空間を生成することが可能である。 In addition, in S2, the CPU 41 may generate a three-dimensional space corresponding to the surroundings of the current position of the vehicle (particularly forward in the direction of vehicle travel) based on general two-dimensional map information 33 and the current position of the vehicle, without using the three-dimensional map information 34, to create a three-dimensional solid map. Also, the three-dimensional space may be generated based on an image captured by the front camera 11. For example, by performing point cloud matching on the image captured by the front camera 11, it is possible to detect structures on the road and around the road and generate a three-dimensional space.

また、前記S2でCPU41は、現在位置検出部13で検出されたパラメータに基づいて、生成された3次元立体地図における自車両の現在位置及び方位についても特定する。尚、後述の3次元立体地図と撮像画像との照合の処理を容易化する為に、自車両の現在位置は特に自車両に設置されたフロントカメラ11の設置位置とし、自車両の方位はフロントカメラ11の光軸方向とするのが望ましい。また、3次元空間内の自車両の現在位置や方位は自車両の移動に伴って適宜更新される。 In addition, in S2, the CPU 41 also identifies the current position and orientation of the vehicle on the generated 3D map based on the parameters detected by the current position detection unit 13. In order to facilitate the process of matching the captured image with the 3D map described below, it is preferable that the current position of the vehicle is the installation position of the front camera 11 installed on the vehicle, and the orientation of the vehicle is the optical axis direction of the front camera 11. In addition, the current position and orientation of the vehicle in the 3D space are updated as appropriate as the vehicle moves.

更に、CPU41は、前記S1で取得した車両前方の風景を撮像した撮像画像に対して画像処理を行うことによって、車両前方周辺に存在する静止物や動体物の位置や形状について検出する。尚、静止物としては例えば人工的な構造物(建築物、道路標識、看板等)や自然物(樹木等)が該当し、動体物としては例えば他車両、人、自転車等が該当する。そして、3次元地図情報34に対して含まれない静止物や動体物が検出された場合には、検出された静止物や動体物について、位置や形状を特定する情報を3次元立体地図に含める。尚、S2では検出された静止物や動体物について3次元立体地図上にモデリングする必要は無いが、モデリングまで行っても良い。 The CPU 41 also detects the positions and shapes of stationary and moving objects in the vicinity in front of the vehicle by performing image processing on the captured image of the scenery in front of the vehicle acquired in S1. Stationary objects include, for example, artificial structures (buildings, road signs, billboards, etc.) and natural objects (trees, etc.), while moving objects include, for example, other vehicles, people, bicycles, etc. If a stationary or moving object not included in the three-dimensional map information 34 is detected, information specifying the position and shape of the detected stationary or moving object is included in the three-dimensional map. In S2, it is not necessary to model the detected stationary or moving object on the three-dimensional map, but modeling may be performed.

ここで、図4は前記S2で生成される3次元立体地図51の一例を示した図である。図4に示すように3次元立体地図51には、3次元空間に対して、道路や構造物(建築物、道路標識、看板等)を示す各オブジェクト52が配置される。特に車両の現在位置周辺に位置する道路や構造物を示す各オブジェクト52が配置される。また、3次元立体地図51には自車両の現在位置と方位を示す自車位置マーク53についても配置される。 Here, FIG. 4 is a diagram showing an example of the three-dimensional relief map 51 generated in S2. As shown in FIG. 4, on the three-dimensional relief map 51, objects 52 indicating roads and structures (buildings, road signs, billboards, etc.) are arranged in three-dimensional space. In particular, objects 52 indicating roads and structures located around the current position of the vehicle are arranged. In addition, a vehicle position mark 53 indicating the current position and direction of the vehicle is also arranged on the three-dimensional relief map 51.

続いてS3においてCPU41は、前記S1で取得した撮像画像と前記S2で生成された3次元立体地図とを照合し、両者の間にズレが生じていないかを判定する。具体的にはCPU41は、3次元立体地図に設定されている自車両の現在位置(より具体的にはフロントカメラ11の設置位置であり高さも考慮する)を視点とし、自車両の方位を視線方向に設定し、設定された視点及び視線方向によって3次元立体地図を視認した際の像と、撮像画像とを照合する。尚、3次元立体地図には、歩行者や他車両等の動体物、樹木などの一部の固定物については含まれないので、それらに起因するズレは基本的には無視して判定する。また、ズレが生じていないとは両者が完全に一致する場合のみに限らず、ある程度の許容範囲内のズレが生じている場合においてもズレが生じていないとみなすのが望ましい。 Next, in S3, the CPU 41 compares the captured image acquired in S1 with the 3D map generated in S2 to determine whether there is any misalignment between the two. Specifically, the CPU 41 sets the current position of the vehicle (more specifically, the installation position of the front camera 11, taking into account the height) set on the 3D map as the viewpoint, sets the orientation of the vehicle as the line of sight, and compares the image when viewing the 3D map from the set viewpoint and line of sight with the captured image. Note that the 3D map does not include moving objects such as pedestrians and other vehicles, and some fixed objects such as trees, so the determination is basically made while ignoring any misalignment caused by these. In addition, the absence of misalignment is not limited to the case where the two completely match, but should desirably be considered to be absent even when there is a misalignment within a certain tolerance range.

そして、前記S1で取得した撮像画像と前記S2で生成された3次元立体地図との間にズレが生じていないと判定された場合(S3:YES)には、S5へと移行する。それに対して、前記S1で取得した撮像画像と前記S2で生成された3次元立体地図との間にズレが生じていると判定された場合(S3:NO)には、S4へと移行する。 If it is determined that there is no misalignment between the captured image acquired in S1 and the 3D relief map generated in S2 (S3: YES), the process proceeds to S5. On the other hand, if it is determined that there is a misalignment between the captured image acquired in S1 and the 3D relief map generated in S2 (S3: NO), the process proceeds to S4.

S4においてCPU41は、前記S2で生成された3次元立体地図について、前記S1で取得した撮像画像と間のズレが小さくなるように3次元立体地図内に設定された自車両の現在位置及び方位を補正する。尚、3次元立体地図における自車両の現在位置及び方位は固定してオブジェクト側を補正しても良い。それによって、3次元立体地図内における正確な自車両の現在位置及び方位(より具体的にはフロントカメラ11の設置位置と光軸方向)を特定することが可能となる。その後、S3へと戻る。 In S4, the CPU 41 corrects the current position and orientation of the vehicle set in the 3D map generated in S2 so as to reduce the discrepancy between the captured image acquired in S1. The current position and orientation of the vehicle in the 3D map may be fixed and the object side may be corrected. This makes it possible to identify the accurate current position and orientation of the vehicle (more specifically, the installation position and optical axis direction of the front camera 11) in the 3D map. Then, the process returns to S3.

一方、S5においてCPU41は、ナビゲーション装置3で設定されている案内経路を取得し、前記S2で生成された3次元立体地図に基づいて車両の今後の進行方向を示す案内矢印を、フロントディスプレイ4に表示する対象となる案内画像として生成する。尚、第1実施形態では案内画像は車両の案内経路に沿って道路の路面上(例えば車両の現在位置から100m先までの道路の路面上)に配置される矢印の画像とする。例えば、図5に示すように車両の今後の進行方向が進行方向前方にある案内交差点54で右折する場合には、案内交差点54までは直進し、案内交差点54で右折して退出道路へと進む矢印が案内画像55として生成されることとなる。尚、案内画像の形状は適宜変更可能であり、例えば矢印ではなく案内経路に沿って配置される線分としても良い。 On the other hand, in S5, the CPU 41 acquires the guide route set in the navigation device 3, and generates a guide arrow indicating the future travel direction of the vehicle based on the 3D map generated in S2 as a guide image to be displayed on the front display 4. In the first embodiment, the guide image is an arrow image placed on the road surface along the guide route of the vehicle (for example, on the road surface of the road up to 100 m ahead from the current position of the vehicle). For example, as shown in FIG. 5, if the future travel direction of the vehicle is to turn right at the guide intersection 54 ahead in the travel direction, an arrow indicating that the vehicle will proceed straight to the guide intersection 54, turn right at the guide intersection 54, and proceed to the exit road is generated as the guide image 55. The shape of the guide image can be changed as appropriate, and for example, it may be a line segment placed along the guide route instead of an arrow.

続いて、S6においてCPU41は、S5で生成された案内画像を、前記S2で生成された3次元立体地図に対して配置する。尚、案内画像を配置する位置は、案内画像を重畳して視認させる位置であり、例えば案内経路に沿って車両の現在位置から100m先までの道路(案内交差点がある場合には案内交差点も含む)の路面とする。その結果、図5に示すように3次元立体地図51に案内画像55が配置されることとなる。 Next, in S6, the CPU 41 places the guidance image generated in S5 on the three-dimensional map generated in S2. The position at which the guidance image is placed is a position at which the guidance image is superimposed and visible, for example, on the road surface up to 100 m ahead from the current position of the vehicle along the guidance route (including the guidance intersection, if any). As a result, the guidance image 55 is placed on the three-dimensional map 51 as shown in FIG. 5.

次に、S7においてCPU41は、3次元立体地図に含まれる各オブジェクト(建築物、道路標識、看板、案内画像、歩行者、他車両、案内画像等)の内、案内画像以外のオブジェクトについて、車両周辺に存在する対象物として抽出する。尚、対象物には人工的な構造物(建築物、道路標識、看板等)や自然物(樹木等)等の静止物に加えて、他車両、人、自転車等の動体物も含む。但し、道路(路面)については抽出対象となる対象物から除外する。 Next, in S7, the CPU 41 extracts, from among the objects (buildings, road signs, billboards, guide images, pedestrians, other vehicles, guide images, etc.) included in the 3D map, objects other than the guide images as objects present around the vehicle. Note that objects include stationary objects such as artificial structures (buildings, road signs, billboards, etc.) and natural objects (trees, etc.), as well as moving objects such as other vehicles, people, and bicycles. However, roads (road surfaces) are excluded from the objects to be extracted.

続いて、S8においてCPU41は、前記S7で抽出された対象物のモデル(対象物の仮想体であり、以下、対象物仮想体という)を、前記S2で生成された3次元立体地図に対して該当の対象物が存在する位置に配置する。対象物の位置を特定する情報は対象物が動体物である場合を含めて3次元立体地図に格納されている。尚、3次元立体地図に対して配置される対象物仮想体は実際の対象物の形状を模した形状とする。例えば歩行者であれば人の形状を有する対象物仮想体とし、車両であれば車両の形状を有する対象物仮想体とする。サイズについても実際の対象物のサイズと対応させる。 Next, in S8, the CPU 41 places the model of the object extracted in S7 (a virtual object of the object, hereinafter referred to as the virtual object object) on the 3D map generated in S2 at the position where the object is located. Information specifying the position of the object is stored in the 3D map, including cases where the object is a moving object. The virtual object object placed on the 3D map has a shape that imitates the shape of the actual object. For example, if it is a pedestrian, the virtual object object will have a human shape, and if it is a vehicle, the virtual object object will have a vehicle shape. The size also corresponds to the size of the actual object.

但し、車両に生じる振動等によって乗員から視認できる対象物の位置がブレることを考慮して、対象物仮想体のサイズは実際の対象物のサイズよりもやや大きいサイズ(例えば110%)とするのが望ましい。また、全体的に均等にサイズを広げるのではなく、相対的な移動方向(車両の乗員からみて対象物が移動する方向)に対して大きくサイズを広げるのが望ましい。尚、対象物が不定形である(形状や種類を特定できない)場合には、例外的に対象物仮想体は該対象物の全てを含む最小の直方体とする。 However, taking into consideration that the position of the object visible to the occupants may be distorted due to vibrations occurring in the vehicle, etc., it is desirable to make the size of the virtual object body slightly larger than the actual size of the object (for example, 110%). Also, rather than expanding the size uniformly overall, it is desirable to expand the size significantly in the relative direction of movement (the direction in which the object moves as seen by the vehicle occupants). Note that, as an exception, if the object is shapeless (its shape and type cannot be identified), the virtual object body is made the smallest rectangular parallelepiped that contains the entire object.

次に、S9においてCPU41は、先ず案内画像や対象物仮想体が配置された3次元立体地図を、車両(乗員)の視点から車両の進行方向に視認した画像(以下、視認画像という)を取得する。特に車両の視点は車両の乗員の目の位置とする。尚、乗員の目の位置については車内カメラ12によって検出することが可能である。即ち、取得された視認画像は3次元立体地図に配置された各オブジェクト(案内画像、対象物仮想体等)を車両(乗員)の視点から車両の進行方向に視認した際に視認できる像であり、車両の乗員の視界に相当する。尚、視認画像については車両(乗員)の視点から視認した画像であれば、必ずしも車両の進行方向に視認した画像である必要は無い。但し、少なくとも視認画像に案内画像と案内画像の周辺にある対象物仮想体が含まれる必要はある。 Next, in S9, the CPU 41 first acquires an image (hereinafter referred to as a visual image) of the 3D map on which the guide image and virtual object are arranged, visually recognized in the traveling direction of the vehicle from the viewpoint of the vehicle (passenger). In particular, the viewpoint of the vehicle is the position of the eyes of the vehicle occupant. The position of the eyes of the occupant can be detected by the in-vehicle camera 12. That is, the acquired visual image is an image that can be visually recognized when each object (guide image, virtual object, etc.) arranged on the 3D map is visually recognized in the traveling direction of the vehicle from the viewpoint of the vehicle (passenger), and corresponds to the field of view of the vehicle occupant. The visual image does not necessarily have to be an image visually recognized in the traveling direction of the vehicle as long as it is an image visually recognized from the viewpoint of the vehicle (passenger). However, the visual image must at least include the guide image and the virtual object around the guide image.

その後、S9においてCPU41は、前記S8で3次元立体地図に配置された対象物仮想体の内、視認画像において案内画像と重複する対象物仮想体、即ち案内画像と重複して車両の乗員から視認される対象物に対応する対象物仮想体(以下、重複対象物仮想体という)があるか否かを判定する。そして、重複対象物仮想体があると判定された場合には、重複対象物仮想体を黒色で表示する。尚、案内画像よりも手前側(自車両側)に位置するか奥側に位置するかについては問わず、視認画像において少なくとも一部が案内画像と重複する対象物仮想体は重複対象物仮想体とする。 Then, in S9, the CPU 41 determines whether or not there is an object virtual object that overlaps with the guide image in the visual image among the object virtual objects arranged on the three-dimensional map in S8, i.e., whether or not there is an object virtual object that overlaps with the guide image and corresponds to an object that is visually recognized by the vehicle occupant while overlapping with the guide image (hereinafter, referred to as an overlapping object virtual object). If it is determined that there is an overlapping object virtual object, the overlapping object virtual object is displayed in black. Note that an object virtual object that at least partially overlaps with the guide image in the visual image is regarded as an overlapping object virtual object, regardless of whether it is located in front of the guide image (toward the vehicle) or behind the guide image.

ここで、図6は3次元立体地図51に対して案内画像55及び対象物仮想体56~59を配置した図である。例えば、図6に示すように3次元立体地図51に建物の対象物仮想体56、他車両の対象物仮想体57、自転車の対象物仮想体58、道路標識の対象物仮想体59がそれぞれ配置されている場合には、他車両の対象物仮想体57が案内画像55と重複して視認されることとなる。従って、他車両の対象物仮想体57が重複対象物仮想体に該当し、黒色で表示されることとなる。 Here, FIG. 6 is a diagram in which a guide image 55 and virtual object bodies 56-59 are arranged on a three-dimensional map 51. For example, when a virtual object body 56 of a building, a virtual object body 57 of another vehicle, a virtual object body 58 of a bicycle, and a virtual object body 59 of a road sign are arranged on the three-dimensional map 51 as shown in FIG. 6, the virtual object body 57 of the other vehicle will be visually recognized as overlapping with the guide image 55. Therefore, the virtual object body 57 of the other vehicle corresponds to an overlapping virtual object body, and will be displayed in black.

続いて、S10においてCPU41は、視認画像に含まれる案内画像の形状及び重複対象物仮想体の形状を、フロントディスプレイ4により表示対象とする画像の形状として夫々記憶する。ここで、前記S10で記憶される案内画像の形状は、3次元立体地図に配置された各オブジェクト(案内画像、対象物仮想体等)を車両(乗員)の視点から視認した際に視認できる案内画像の形状である。一方、視認画像に含まれる重複対象物仮想体の形状は、3次元立体地図に配置された各オブジェクト(案内画像、対象物仮想体等)を車両(乗員)の視点から視認した際に視認できる重複対象物仮想体の形状である。従って、例えば前記S10で記憶される案内画像の形状は、図7に示すように案内画像55よりも手前側に位置する重複対象物仮想体57と重なって視認される場合には、重なる部分については除かれた形状となる。一方、前記S10で記憶される重複対象物仮想体の形状は、重複対象物仮想体よりも手前側に位置する案内画像と重なって視認される場合には、重なる部分については除かれた形状となる。 Next, in S10, the CPU 41 stores the shape of the guide image and the shape of the overlapping object virtual body included in the visual image as the shape of the image to be displayed by the front display 4. Here, the shape of the guide image stored in S10 is the shape of the guide image that can be seen when each object (guide image, object virtual body, etc.) arranged on the three-dimensional relief map is seen from the viewpoint of the vehicle (passenger). On the other hand, the shape of the overlapping object virtual body included in the visual image is the shape of the overlapping object virtual body that can be seen when each object (guide image, object virtual body, etc.) arranged on the three-dimensional relief map is seen from the viewpoint of the vehicle (passenger). Therefore, for example, when the shape of the guide image stored in S10 is seen overlapping with the overlapping object virtual body 57 located in front of the guide image 55 as shown in FIG. 7, the overlapping portion is removed. On the other hand, when the shape of the overlapping object virtual body stored in S10 is seen overlapping with the guide image located in front of the overlapping object virtual body, the overlapping portion is removed.

更に、S11においてCPU41は、3次元立体地図において配置された案内画像の位置を取得する。例えば車両の現在位置から100m先までの道路の路面上となる。同じく、CPU41は3次元立体地図において配置された重複対象物仮想体の位置についても取得する。具体的には案内画像と重複して視認される対象物が存在する位置となる。 Furthermore, in S11, the CPU 41 acquires the position of the guide image arranged on the three-dimensional relief map. For example, this is on the road surface up to 100 m ahead from the current position of the vehicle. Similarly, the CPU 41 acquires the position of the overlapping object virtual body arranged on the three-dimensional relief map. Specifically, this is the position where there is an object that is visually recognized as overlapping with the guide image.

その後、S12においてCPU41は、後述の表示範囲決定処理(図10)を行う。表示範囲決定処理では、フロントディスプレイ4において案内画像及び黒色画像を表示する範囲(フロントガラス5に対して案内画像及び黒色画像を投影する範囲、或いはフロントディスプレイ4に対して案内画像及び黒色画像を表示する範囲)を決定する。 Then, in S12, the CPU 41 performs a display range determination process (FIG. 10) described below. In the display range determination process, the range in which the guide image and black image are displayed on the front display 4 (the range in which the guide image and black image are projected onto the windshield 5, or the range in which the guide image and black image are displayed on the front display 4) is determined.

続いて、S13においてCPU41は、フロントディスプレイ4に対して制御信号を送信し、フロントディスプレイ4に対して前記S10で記憶された形状の案内画像を、前記S12で決定された表示範囲に表示する。同じく、CPU41は前記S10で記憶された重複対象物仮想体の形状を有する黒色画像(対象物画像)を、前記S12で決定された表示範囲に表示する。尚、案内画像と黒色画像は基本的に一体の画像として表示する。また、3次元立体地図に対して配置される重複対象物仮想体は必ずしも黒色である必要は無いが、その場合であっても重複対象物仮想体に応じてフロントディスプレイ4に表示する画像は黒色の画像とする。 Next, in S13, the CPU 41 transmits a control signal to the front display 4, and causes the front display 4 to display a guide image of the shape stored in S10 in the display range determined in S12. Similarly, the CPU 41 displays a black image (object image) having the shape of the overlapping object virtual body stored in S10 in the display range determined in S12. The guide image and the black image are basically displayed as a single image. Also, the overlapping object virtual body placed on the 3D stereoscopic map does not necessarily have to be black, but even in this case, the image displayed on the front display 4 in accordance with the overlapping object virtual body is a black image.

ここで、フロントディスプレイ4に表示された画像を車両の乗員が視認する場合において、フロントディスプレイ4に表示された画像が黒色画像である場合には黒色画像の虚像は視認できない(透過状態となる)。従って、黒色画像が対象物と重畳する位置に表示されていたとしても、車両の乗員からは黒色画像の虚像は視認されず(より正確には透過状態で視認される)、対象物のみが視認されることとなる。 Here, when a vehicle occupant views an image displayed on the front display 4, if the image displayed on the front display 4 is a black image, the virtual image of the black image cannot be seen (it is in a transparent state). Therefore, even if the black image is displayed at a position where it overlaps with an object, the virtual image of the black image is not seen by the vehicle occupant (more accurately, it is seen in a transparent state), and only the object is visible.

その結果、図8に示すようにフロントディスプレイ4に表示された案内画像55及び黒色画像66を車両の乗員が視認した場合には、黒色画像66に対応する部分(即ち実景の対象物と重複する部分)については虚像が視認されない(透過状態となる)。また、案内画像55の虚像67については、対象物68に隠れて視認できない部分(図8右図の破線部分)については黒色画像66によって視認できない一方、それ以外の部分(図8右図の実線部分)については視認される。 As a result, when a vehicle occupant views the guide image 55 and black image 66 displayed on the front display 4 as shown in Figure 8, the virtual image is not visible (transparent) for the portion corresponding to the black image 66 (i.e., the portion overlapping with the object in the real scene). Also, for the virtual image 67 of the guide image 55, the portion hidden by the object 68 that cannot be seen (the portion indicated by the dashed line in the right diagram of Figure 8) is not visible due to the black image 66, but the other portion (the portion indicated by the solid line in the right diagram of Figure 8) is visible.

それによって、車両の乗員は案内画像55の虚像67を視認した場合に、虚像67の形状から虚像67と重複して視認される対象物68との間で、前後関係を認識することが可能となる。例えば、図9はフロントディスプレイ4に表示される画像と、車両の乗員からフロントガラス5を介して視認される案内画像55の虚像67の一例である。図9に示す例では、案内画像55の虚像67は対象物(図9に示す例では他車両)68よりも奥側(遠方側)にある案内交差点69に重畳していることが明確となる。従って、案内画像55の虚像67によって示される右左折対象となる案内交差点69の位置や、案内交差点69における退出道路を正確に把握できる。 Therefore, when a vehicle occupant visually recognizes the virtual image 67 of the guidance image 55, the shape of the virtual image 67 enables the occupant of the vehicle to recognize the front-to-back relationship between the virtual image 67 and the object 68 that is visually perceived as overlapping with the virtual image 67. For example, FIG. 9 shows an example of an image displayed on the front display 4 and the virtual image 67 of the guidance image 55 visually perceived by the vehicle occupant through the windshield 5. In the example shown in FIG. 9, it is clear that the virtual image 67 of the guidance image 55 is superimposed on the guidance intersection 69 located further back (farther away) than the object 68 (another vehicle in the example shown in FIG. 9). Therefore, the position of the guidance intersection 69 to be turned right or left, which is indicated by the virtual image 67 of the guidance image 55, and the exit road at the guidance intersection 69 can be accurately grasped.

尚、フロントディスプレイ4に対して案内画像及び黒色画像を描画する場合に、異なるレイヤで描画するようにしても良い。順序として、手前側(自車両側)に位置するものをより上位(上層)のレイヤで描画する。例えば図9に示す例では、重複対象物仮想体よりも奥側(自車両から離れた側)に位置する案内画像55を最も下位のレイヤで描画する。次に重複対象物仮想体に対応する黒色画像66をより上位のレイヤで描画する。その場合には、案内画像55や黒色画像66の全形を描画したとしても、図9に示す案内画像55の虚像67を車両の乗員に視認させることが可能となる。 When drawing the guide image and black image on the front display 4, they may be drawn on different layers. In terms of order, the one located closer to the vehicle is drawn on a higher (upper) layer. For example, in the example shown in FIG. 9, the guide image 55 located further back (farther from the vehicle) than the overlapping object virtual body is drawn on the lowest layer. Next, the black image 66 corresponding to the overlapping object virtual body is drawn on a higher layer. In that case, even if the guide image 55 and black image 66 are drawn in their entirety, it is possible for the vehicle occupants to view the virtual image 67 of the guide image 55 shown in FIG. 9.

次に、前記S12において実行される表示範囲決定処理のサブ処理について図10に基づき説明する。図10は表示範囲決定処理のサブ処理プログラムのフローチャートである。 Next, the sub-processing of the display range determination process executed in S12 will be described with reference to FIG. 10. FIG. 10 is a flowchart of the sub-processing program of the display range determination process.

先ず、S21においてCPU41は、車両の乗員の目の位置を車内カメラ12で撮像した撮像画像に基づいて検出する。尚、検出された目の位置は3次元の位置座標で特定される。 First, in S21, the CPU 41 detects the eye positions of the vehicle occupants based on the captured image captured by the in-vehicle camera 12. The detected eye positions are specified by three-dimensional position coordinates.

次に、S22においてCPU41は、フロントディスプレイ4の表示がONになっているか否かを判定する。尚、フロントディスプレイ4の表示のON又はOFFの切り替えは車両の乗員の操作によって行うことが可能である。また、周辺状況や車両の状態に基づいてON又はOFFを自動で切り替えても良い。 Next, in S22, the CPU 41 determines whether the display on the front display 4 is ON. The display on the front display 4 can be switched ON or OFF by an occupant of the vehicle. It may also be automatically switched ON or OFF based on the surrounding conditions or the state of the vehicle.

そして、フロントディスプレイ4の表示がONになっていると判定された場合(S22:YES)には、S23へと移行する。一方、フロントディスプレイ4の表示がOFFになっていると判定された場合(S22:NO)には、フロントディスプレイ4による案内画像の表示を行うことなく終了する。 If it is determined that the display on the front display 4 is ON (S22: YES), the process proceeds to S23. On the other hand, if it is determined that the display on the front display 4 is OFF (S22: NO), the process ends without displaying a guide image on the front display 4.

S23においてCPU41は、フロントディスプレイ4によって画像を投影する対象となるフロントガラス5の位置座標を取得する。尚、フロントガラス5の位置座標は3次元の位置座標で特定される。 In S23, the CPU 41 acquires the position coordinates of the windshield 5 onto which the image is to be projected by the front display 4. The position coordinates of the windshield 5 are specified as three-dimensional position coordinates.

次に、S24においてCPU41は、前記S11で取得された3次元立体地図において配置された案内画像と重複対象物仮想体の位置を特定する座標を、案内画像と重複対象物仮想体の位置座標として夫々取得する。尚、案内画像と重複対象物仮想体の位置座標は同じく3次元の位置座標で特定される。 Next, in S24, the CPU 41 acquires coordinates that specify the positions of the guide image and the overlapping object virtual object arranged on the three-dimensional map acquired in S11 as the position coordinates of the guide image and the overlapping object virtual object, respectively. Note that the position coordinates of the guide image and the overlapping object virtual object are also specified by three-dimensional position coordinates.

続いて、S25においてCPU41は、前記S21、S23及びS24で取得された各位置座標に基づいて、フロントガラス5における案内画像と黒色画像の投影範囲を決定する。更に、決定された投影範囲からフロントディスプレイ4における案内画像と黒色画像の表示範囲についても決定する。尚、案内画像の表示範囲は、前記S10で記憶される形状を有する案内画像が、車両の乗員から3次元立体地図において配置された案内画像と重畳して視認される範囲となる。また、黒色画像の表示範囲は、前記S10で記憶される重複対象物仮想体の形状を有する黒色画像が、車両の乗員から3次元立体地図において配置された重複対象物仮想体(即ち実景の対象物)と重畳して視認される範囲となる。その後、S13へと移行し、決定された投影範囲や表示範囲に基づいてフロントディスプレイ4を用いた虚像の表示を行う。尚、フロントディスプレイ4の表示がオフになるまで繰り返しS6~S13の処理を行うこととなる。 Next, in S25, the CPU 41 determines the projection range of the guide image and the black image on the windshield 5 based on the position coordinates acquired in S21, S23, and S24. Furthermore, the display range of the guide image and the black image on the front display 4 is also determined from the determined projection range. The display range of the guide image is the range in which the guide image having the shape stored in S10 is superimposed on the guide image arranged on the three-dimensional map by the vehicle occupant. The display range of the black image is the range in which the black image having the shape of the overlapping object virtual object stored in S10 is superimposed on the overlapping object virtual object (i.e. the object in the real scene) arranged on the three-dimensional map by the vehicle occupant. Then, the process proceeds to S13, where the virtual image is displayed using the front display 4 based on the determined projection range and display range. The processes of S6 to S13 are repeated until the display on the front display 4 is turned off.

以上詳細に説明した通り、第1実施形態に係る重畳画像表示装置1及び重畳画像表示装置1で実行されるコンピュータプログラムによれば、案内画像の虚像を車両前方の風景に重畳して視認させる場合に、3次元空間内に案内画像とともに車両の周辺に存在する対象物を模した仮想体を配置し(S8)、3次元空間内における車両の位置から案内画像及び仮想体を視認した場合の案内画像と仮想体の形状を夫々取得し(S10)、取得された形状の案内画像とともに、取得された仮想体の形状を示す黒色画像をフロントディスプレイ4に表示する(S13)ので、案内画像の虚像と対象物との位置関係を正確に示す案内画像の虚像を車両の乗員に視認させることが可能となる。その結果、案内画像の虚像を用いた案内をより適切に行うことが可能となる。 As described above in detail, according to the superimposed image display device 1 and the computer program executed by the superimposed image display device 1 according to the first embodiment, when a virtual image of a guidance image is superimposed on the scenery ahead of the vehicle and viewed, a virtual body that imitates an object present around the vehicle is placed together with the guidance image in three-dimensional space (S8), the shapes of the guidance image and the virtual body when viewed from the position of the vehicle in three-dimensional space are respectively acquired (S10), and a black image showing the shape of the acquired virtual body is displayed on the front display 4 together with the guidance image of the acquired shape (S13), so that it is possible for the vehicle occupants to view a virtual image of the guidance image that accurately shows the positional relationship between the virtual image of the guidance image and the object. As a result, it is possible to provide more appropriate guidance using the virtual image of the guidance image.

[第2実施形態]
次に、第2実施形態に係る重畳画像表示装置について図11及び図12に基づいて説明する。尚、以下の説明において上記図1乃至図10の第1実施形態に係る重畳画像表示装置1の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置1等の構成と同一あるいは相当部分を示すものである。
[Second embodiment]
Next, a superimposed image display device according to a second embodiment will be described with reference to Fig. 11 and Fig. 12. In the following description, the same reference numerals as those in the configuration of the superimposed image display device 1 according to the first embodiment shown in Figs. 1 to 10 indicate the same or corresponding parts as those in the configuration of the superimposed image display device 1 according to the first embodiment.

この第2実施形態に係る重畳画像表示装置の概略構成は、第1実施形態に係る重畳画像表示装置1とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る重畳画像表示装置1とほぼ同じ制御処理である。
ただし、第1実施形態に係る重畳画像表示装置1が、車両周辺の風景に重畳する画像を表示する手段としてフロントディスプレイ4によるヘッドアップディスプレイシステムを用いているのに対して、第2実施形態に係る重畳画像表示装置はナビゲーション装置3の液晶ディスプレイ17に対してフロントカメラ11で撮像した撮像画像を表示し、表示した撮像画像に案内画像を重畳させて表示する点で異なる。尚、撮像画像を表示するディスプレイとしては車両内に配置されたディスプレイであれば、液晶ディスプレイ17以外のディスプレイであっても良い。
The schematic configuration of the superimposed image display device according to the second embodiment is almost the same as that of the superimposed image display device 1 according to the first embodiment. In addition, various control processes are also almost the same as those of the superimposed image display device 1 according to the first embodiment.
However, the superimposed image display device 1 according to the first embodiment uses a head-up display system using the front display 4 as a means for displaying an image to be superimposed on the scenery around the vehicle, whereas the superimposed image display device according to the second embodiment displays an image captured by the front camera 11 on the liquid crystal display 17 of the navigation device 3, and displays a guide image by superimposing it on the displayed image. Note that the display for displaying the captured image may be a display other than the liquid crystal display 17, so long as it is a display arranged inside the vehicle.

図11は第2実施形態に係る重畳画像表示装置において、液晶ディスプレイ17に表示される走行案内画面91の一例を示した図である。図11に示すように液晶ディスプレイ17には、フロントカメラ11により撮像された現時点の車両前方の風景が表示される。そして、車両前方の風景に対して前記S10で記憶された形状の案内画像92を表示する。尚、案内画像92の表示範囲は、車両の乗員の位置から3次元立体地図において配置された案内画像が視認される範囲となる。また、車両前方の風景に対して前記S10で記憶された重複対象物仮想体の形状を有する透過画像(対象物画像)93についても表示する。尚、透過画像93の表示範囲は、車両の乗員の位置から3次元立体地図において配置された重複対象物仮想体が視認される範囲、即ち液晶ディスプレイ17に表示された対象物94と重畳する範囲となる。尚、透過画像93は透過率100%の画像であり、車両の乗員には視認できない画像とする。 Figure 11 is a diagram showing an example of a driving guidance screen 91 displayed on the liquid crystal display 17 in the superimposed image display device according to the second embodiment. As shown in Figure 11, the liquid crystal display 17 displays the current view in front of the vehicle captured by the front camera 11. Then, a guide image 92 having the shape stored in S10 is displayed with respect to the view in front of the vehicle. The display range of the guide image 92 is the range in which the guide image arranged in the three-dimensional map is visible from the position of the vehicle occupant. In addition, a transparent image (object image) 93 having the shape of the overlapping object virtual object stored in S10 with respect to the view in front of the vehicle is also displayed. The display range of the transparent image 93 is the range in which the overlapping object virtual object arranged in the three-dimensional map is visible from the position of the vehicle occupant, that is, the range in which it overlaps with the object 94 displayed on the liquid crystal display 17. The transparent image 93 is an image with a transmittance of 100%, and is an image that cannot be seen by the vehicle occupant.

ここで、液晶ディスプレイ17に表示された画像を車両の乗員が視認する場合において、液晶ディスプレイ17に表示された透過画像93は視認できない(透過状態となる)。従って、透過画像93が対象物94と重畳する位置に表示されていたとしても、車両の乗員からは透過画像93は視認されず(より正確には透過状態で視認される)、対象物94のみが実質的に視認されることとなる。 Here, when the image displayed on the liquid crystal display 17 is viewed by a vehicle occupant, the transparent image 93 displayed on the liquid crystal display 17 cannot be viewed (is in a transparent state). Therefore, even if the transparent image 93 is displayed at a position where it overlaps with the object 94, the transparent image 93 is not viewed by the vehicle occupant (more accurately, it is viewed in a transparent state), and only the object 94 is substantially viewed.

その結果、図12に示すように液晶ディスプレイ17に表示された案内画像92及び透過画像93を車両の乗員が視認した場合には、透過画像93に対応する部分(即ち実景の対象物と重複する部分)については画像が視認されない(透過状態となる)。また、案内画像92については、対象物に隠れて視認できない部分(図12右図の破線部分)については透過画像93によって視認できない(透過される)一方、それ以外の部分(図12右図の実線部分)については視認される。 As a result, when a vehicle occupant views the guide image 92 and the transparent image 93 displayed on the liquid crystal display 17 as shown in Figure 12, the portion of the image that corresponds to the transparent image 93 (i.e., the portion that overlaps with the object in the real scene) is not visible (is in a transparent state). Also, for the guide image 92, the portion that is hidden by the object and cannot be seen (the portion indicated by the dashed line in the right diagram of Figure 12) is not visible (is made transparent) by the transparent image 93, while the other portion (the portion indicated by the solid line in the right diagram of Figure 12) is visible.

それによって、車両の乗員は案内画像92を視認した場合に、案内画像92の形状から案内画像92と重複して視認される対象物94との間で、前後関係を認識することが可能となる。例えば、図11に示す例では、案内画像92は対象物(図11に示す例では他車両)94よりも奥側(遠方側)にある案内交差点95に重畳していることが明確となる。従って、案内画像92によって示される右左折対象となる案内交差点95の位置や、案内交差点95における退出道路を正確に把握できる。 As a result, when a vehicle occupant visually recognizes the guide image 92, the shape of the guide image 92 enables the occupant to recognize the front-to-back relationship between the guide image 92 and the object 94 that is visually overlapping the guide image 92. For example, in the example shown in FIG. 11, it is clear that the guide image 92 is superimposed on a guide intersection 95 that is located behind (farther away from) the object 94 (another vehicle in the example shown in FIG. 11). Therefore, the position of the guide intersection 95 to turn right or left, which is indicated by the guide image 92, and the exit road at the guide intersection 95 can be accurately grasped.

尚、液晶ディスプレイ17に対して案内画像及び透過画像を描画する場合に、異なるレイヤで描画するようにしても良い。順序として、手前側(自車両側)に位置するものをより上位(上層)のレイヤで描画する。例えば図11に示す例では、重複対象物仮想体よりも奥側(自車両から離れた側)に位置する案内画像92を最も下位のレイヤで描画する。次に重複対象物仮想体に対応する透過画像93をより上位のレイヤで描画する。その場合には、案内画像92や透過画像93の全形を描画したとしても、図11に示す案内画像92を車両の乗員に視認させることが可能となる。 When drawing a guide image and a transparent image on the liquid crystal display 17, they may be drawn on different layers. In terms of order, the one located closer to the viewer (closer to the viewer's vehicle) is drawn on a higher (upper) layer. For example, in the example shown in FIG. 11, a guide image 92 located further back (farther from the viewer's vehicle) than the overlapping object virtual body is drawn on the lowest layer. Next, a transparent image 93 corresponding to the overlapping object virtual body is drawn on a higher layer. In that case, even if the guide image 92 and the transparent image 93 are drawn in their entirety, the guide image 92 shown in FIG. 11 can be visually recognized by the vehicle occupants.

尚、第2実施形態に係る重畳画像表示装置では、S12の表示範囲決定処理は不要であり、液晶ディスプレイ17における案内画像の表示範囲は、上述したように車両の乗員の位置から3次元立体地図において配置された案内画像が視認される範囲となる。また、液晶ディスプレイ17における透過画像の表示範囲は、車両の乗員の位置から3次元立体地図において配置された重複対象物仮想体が視認される範囲となる。 In addition, in the superimposed image display device according to the second embodiment, the display range determination process of S12 is not necessary, and the display range of the guide image on the liquid crystal display 17 is the range in which the guide image arranged on the three-dimensional map is visible from the position of the vehicle occupant as described above. Also, the display range of the transparent image on the liquid crystal display 17 is the range in which the overlapping object virtual object arranged on the three-dimensional map is visible from the position of the vehicle occupant.

尚、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、上記第1実施形態では、フロントディスプレイ4によって車両2のフロントガラス5の前方に虚像を生成する構成としているが、フロントガラス5以外のウィンドウの前方に虚像を生成する構成としても良い。また、フロントディスプレイ4により映像を反射させる対象はフロントガラス5自身ではなくフロントガラス5の周辺に設置されたバイザー(コンバイナー)であっても良い。
Incidentally, the present invention is not limited to the above-described embodiment, and it is needless to say that various improvements and modifications are possible without departing from the spirit and scope of the present invention.
For example, in the first embodiment, the front display 4 is configured to generate a virtual image in front of the windshield 5 of the vehicle 2, but the virtual image may be generated in front of a window other than the windshield 5. In addition, the target onto which the image is reflected by the front display 4 may be a visor (combiner) installed around the windshield 5, rather than the windshield 5 itself.

また、第1実施形態では、車両周辺の風景に重畳する画像を表示する手段としてヘッドアップディスプレイシステムを用いているが、フロントガラス5に対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。その場合には、重複対象物仮想体に対応して表示する対象物画像は黒色画像ではなく第2実施形態のように透過画像とするのが望ましい。 In the first embodiment, a head-up display system is used as a means for displaying an image to be superimposed on the scenery around the vehicle, but a windshield display (WSD) that displays an image on the windshield 5 may also be used. In that case, it is preferable that the object image displayed corresponding to the overlapping object virtual body is a transparent image as in the second embodiment, rather than a black image.

また、第1実施形態及び第2実施形態では案内画像はナビゲーション装置3で設定された案内経路に沿った車両の進行方向を示す矢印の画像としているが、他の画像としても良い。例えば、車両の乗員への警告対象となる対象物(例えば他車両、歩行者、案内標識)に対する警告画像、車両が走行する車線の区画線の画像などでも良い。 In the first and second embodiments, the guidance image is an image of an arrow indicating the direction of travel of the vehicle along the guidance route set by the navigation device 3, but other images may be used. For example, a warning image of an object to be warned to the vehicle occupants (e.g., another vehicle, a pedestrian, or a guide sign), an image of the lane markings on which the vehicle is traveling, etc. may be used.

また、第1実施形態及び第2実施形態では案内画像は、車両から視認される風景に含まれる特定の対象物(例えば路面)に重畳した状態を維持することが必要な画像としているが、特定の対象物に重畳した状態を維持することが不要な画像(例えばスマートフォンの画像、地図画像等)としても良い。 In addition, in the first and second embodiments, the guide image is an image that needs to be kept superimposed on a specific object (e.g., the road surface) included in the scenery visible from the vehicle, but it may be an image that does not need to be kept superimposed on a specific object (e.g., an image from a smartphone, a map image, etc.).

また、第1実施形態及び第2実施形態では、車両の周辺に存在する対象物の内、案内画像と重複して車両の乗員から視認される対象物に対応する黒色画像又は透過画像のみをフロントディスプレイ4又は液晶ディスプレイ17に表示しているが、車両の周辺に存在する全ての対象物に対応する黒色画像又は透過画像をフロントディスプレイ4又は液晶ディスプレイ17に表示しても良い。 In addition, in the first and second embodiments, only black images or transparent images corresponding to objects present around the vehicle that overlap with the guide image and are visible to the vehicle occupants are displayed on the front display 4 or liquid crystal display 17, but black images or transparent images corresponding to all objects present around the vehicle may be displayed on the front display 4 or liquid crystal display 17.

また、第1実施形態では、フロントディスプレイ4に表示する対象物画像としては透過率0%の黒色画像を表示することとしているが、半透過(例えば透過率50%)の黒色画像を表示しても良い。更に、その場合には黒色画像によって隠れる位置にある案内画像(図8右図の破線部分)についても同じく半透過で表示する。その結果、対象物によって隠れる位置にある案内画像の虚像についても車両の乗員に視認させることが可能となる。また、特に重要度の高い案内画像(例えば右左折を示す矢印)を表示する場合にのみ、上述した半透過による画像表示を行うようにしても良い。 In the first embodiment, a black image with 0% transmittance is displayed as the object image on the front display 4, but a semi-transparent black image (for example, 50% transmittance) may be displayed. In that case, the guide image (the dotted line part in the right diagram of Figure 8) that is hidden by the black image is also displayed semi-transparently. As a result, it becomes possible for the vehicle occupants to view the virtual image of the guide image that is hidden by the object. Furthermore, the above-mentioned semi-transparent image display may be performed only when a guide image of particular importance (for example, an arrow indicating a right or left turn) is to be displayed.

一方、第2実施形態では、液晶ディスプレイ17に表示する対象物画像としては透過率100%の画像を表示することとしているが、半透過(例えば透過率80%)或いは不透過(透過率0%)の画像を表示しても良い。尚、対象物画像を不透過の画像とすると液晶ディスプレイ17に表示された風景に含まれる対象物が対象物画像に隠れて視認できなくなるが、車両の乗員はフロントガラス越しに対象物を視認できるので大きな問題はない。 On the other hand, in the second embodiment, the object image displayed on the liquid crystal display 17 is an image with a transmittance of 100%, but a semi-transparent (e.g., transmittance of 80%) or opaque (transmittance of 0%) image may be displayed. If the object image is an opaque image, the object included in the scenery displayed on the liquid crystal display 17 will be hidden by the object image and will not be visible, but this is not a major problem because the vehicle occupants can see the object through the windshield.

また、第1実施形態及び第2実施形態では、走行支援処理プログラム(図3)の処理をナビゲーション装置3のナビゲーションECU15が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、フロントディスプレイ4の制御部、車両制御ECU、その他の車載器が実行する構成としても良い。尚、フロントディスプレイ4の制御部が実行する場合には、本発明に係る重畳画像表示装置はフロントディスプレイ4のみで構成することも可能である。 In the first and second embodiments, the navigation ECU 15 of the navigation device 3 executes the driving assistance processing program (FIG. 3), but the execution entity can be changed as appropriate. For example, the execution entity can be a control unit of the front display 4, a vehicle control ECU, or other in-vehicle device. Note that when the execution is performed by a control unit of the front display 4, the superimposed image display device according to the present invention can be configured with only the front display 4.

また、本発明に係る重畳画像表示装置を具体化した実施例について上記に説明したが、重畳画像表示装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。 Although the above describes specific examples of the superimposed image display device according to the present invention, the superimposed image display device can also have the following configuration, which provides the following effects:

例えば、第1の構成は以下のとおりである。
車両(2)の周辺に対応した3次元空間内(51)に案内画像(55、92)を配置する案内画像配置手段(41)と、車両の周辺に存在する対象物(68、94)について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体(57)を配置する仮想体配置手段(41)と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段(41)と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段(41)と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す黒色の画像である対象物画像(66、93)とを一体の画像として車両に設けられた画像表示面に表示し、前記画像表示面に表示された一体の画像である前記案内画像及び前記対象物画像を車両のフロントガラスに反射して車両の乗員に視認させることで、車両前方の風景に前記案内画像の虚像を重畳して視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像の虚像を車両の乗員が視認できない態様で重畳させる画像表示手段(41)と、を有する。
上記構成を有する重畳画像表示装置によれば、案内画像を車両前方の風景に重畳して視認させる場合において、案内画像よりも車両側に位置する対象物と重複する範囲については車両の乗員から案内画像を視認させないことができるので、案内画像と対象物との位置関係を正確に示す案内画像を車両の乗員に視認させることが可能となる。その結果、案内画像の虚像を用いた案内をより適切に行うことが可能となる。
For example, the first configuration is as follows.
A guide image arrangement means (41) for arranging a guide image (55, 92) in a three-dimensional space (51) corresponding to the periphery of a vehicle (2), a virtual body arrangement means (41) for arranging a virtual body (57) simulating an object (68, 94) existing around the vehicle at a position in the three-dimensional space where the object exists, a viewpoint setting means (41) for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle, a shape acquisition means (41) for acquiring the shapes of the guide image and the virtual body as viewed from the viewpoint in a state where the guide image and the virtual body are arranged in the three-dimensional space, and and an image display means (41) for displaying the guide image having the shape acquired by the shape acquisition means and an object image (66, 93), which is a black image showing the shape of the virtual body acquired by the shape acquisition means, as a single image on an image display surface provided in the vehicle, and for reflecting the guide image and the object image, which are single images displayed on the image display surface, onto the windshield of the vehicle so that they can be viewed by an occupant of the vehicle, thereby superimposing a virtual image of the guide image on the scenery in front of the vehicle and allowing the occupant of the vehicle to view it, and for superimposing a virtual image of the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be viewed by the occupant of the vehicle.
According to the superimposed image display device having the above configuration, when the guide image is superimposed on the scenery ahead of the vehicle and is visually recognized, the guide image is prevented from being visually recognized by the vehicle occupants in the area where it overlaps with an object located closer to the vehicle than the guide image, so that the vehicle occupants can visually recognize the guide image that accurately shows the positional relationship between the guide image and the object. As a result, guidance using a virtual image of the guide image can be performed more appropriately.

また、上記構成を有する重畳画像表示装置によれば、案内画像の虚像を車両前方の風景に重畳して視認させる場合において、対象物の実像に対応する範囲に黒色画像を表示することによって、案内画像の虚像と対象物との位置関係を正確に示す案内画像の虚像を車両の乗員に視認させることが可能となる。その結果、案内画像の虚像を用いた案内をより適切に行うことが可能となる。 Furthermore, with the superimposed image display device having the above configuration, when a virtual image of a guidance image is superimposed on the scenery ahead of the vehicle and viewed, a black image is displayed in an area corresponding to the real image of the object, so that the vehicle occupants can view the virtual image of the guidance image that accurately shows the positional relationship between the virtual image of the guidance image and the object. As a result, guidance using the virtual image of the guidance image can be performed more appropriately.

また、第2の構成は以下のとおりである。
車両(2)の周辺に対応した3次元空間内(51)に案内画像(55、92)を配置する案内画像配置手段(41)と、車両の周辺に存在する対象物(68、94)について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体(57)を配置する仮想体配置手段(41)と、現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段(41)と、前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段(41)と、前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す透過色の画像である対象物画像(66、93)とを一体の画像として車両に設けられて前記車両前方の風景が表示された画像表示面に表示することで、車両前方の風景に前記案内画像を重畳して車両の乗員に視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像を車両の乗員が視認できない態様で重畳させる画像表示手段(41)と、を有する。
上記構成を有する重畳画像表示装置によれば、案内画像を車両前方の風景に重畳して視認させる場合において、案内画像の内、車両側にある対象物と重複するに範囲については透過させることによって、案内画像と対象物との位置関係を正確に示す案内画像を車両の乗員に視認させることが可能となる。その結果、案内画像を用いた案内をより適切に行うことが可能となる。
The second configuration is as follows.
A guide image arrangement means (41) for arranging a guide image (55, 92) in a three-dimensional space (51) corresponding to the periphery of a vehicle (2), a virtual body arrangement means (41) for arranging a virtual body (57) simulating an object (68, 94) existing in the periphery of the vehicle at a position in the three-dimensional space where the object exists, a viewpoint setting means (41) for setting a viewpoint at a position in the three-dimensional space corresponding to the current position of the vehicle, and a visual display means (41) for displaying the guide image and the virtual body as viewed from the viewpoint in a state where the guide image and the virtual body are arranged in the three-dimensional space. The vehicle has a shape acquisition means (41) for acquiring a shape , and an image display means (41) for displaying the guide image of the shape acquired by the shape acquisition means and an object image (66, 93), which is a transparent color image showing the shape of the virtual body acquired by the shape acquisition means, as a single image on an image display surface provided in the vehicle and displaying the scenery in front of the vehicle, thereby superimposing the guide image on the scenery in front of the vehicle so that it can be viewed by an occupant of the vehicle, and superimposing the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be viewed by the occupant of the vehicle.
According to the superimposed image display device having the above configuration, when the guide image is superimposed on the scenery ahead of the vehicle and viewed, the guide image that accurately shows the positional relationship between the guide image and the object can be made transparent to the vehicle occupants by making the area of the guide image that overlaps with the object on the vehicle side transparent. As a result, guidance using the guide image can be performed more appropriately.

また、第3の構成は以下のとおりである。
記画像表示手段(41)は、前記案内画像を所定の重畳位置に重畳して視認させる為の前記画像表示面の表示位置に表示する。
上記構成を有する重畳画像表示装置によれば、車両前方の風景において案内画像を重畳させたい位置に案内画像を重畳して視認させることが可能となる。
The third configuration is as follows.
The image display means (41) displays the guide image at a display position on the image display surface for visual recognition by superimposing the guide image at a predetermined superimposition position.
According to the superimposed image display device having the above configuration, it is possible to visually superimpose a guide image at a desired position on the scenery ahead of the vehicle.

また、第4の構成は以下のとおりである。
記画像表示手段(41)は、前記対象物画像(66、93)を前記対象物(68、94)に重畳して視認させる為の前記画像表示面(4)の表示位置に表示する。
上記構成を有する重畳画像表示装置によれば、対象物に関しては対象物画像によって視認性が阻害されることなく、車両の乗員に対象物を視認させることが可能となる。また、案内画像については、対象物に隠れて視認できない部分については対象物画像によって視認できない一方、それ以外の部分については視認させることが可能となる。その結果、案内画像と対象物との位置関係を正確に示す案内画像を車両の乗員に視認させることが可能となる。
The fourth configuration is as follows.
The image display means (41) displays the object image (66, 93) at a display position on the image display surface (4) for visual recognition by superimposing the object image (66, 93) on the object (68, 94).
According to the superimposed image display device having the above configuration, the visibility of the object is not hindered by the object image, and the vehicle occupant can visually recognize the object. In addition, the guide image makes it possible to visually recognize the other parts of the guide image, while the part of the guide image that is hidden by the object cannot be visually recognized by the object image. As a result, the vehicle occupant can visually recognize the guide image that accurately shows the positional relationship between the guide image and the object.

また、第の構成は以下のとおりである。
前記仮想体配置手段(41)は、前記対象物(68)よりも大きいサイズを有する前記仮想体(57)を配置する。
上記構成を有する重畳画像表示装置によれば、車両に生じる振動等によって乗員から視認できる対象物の位置にブレが生じたとしても、案内画像と対象物との位置関係を正確に示す案内画像を車両の乗員に視認させることが可能となる。
The fifth configuration is as follows.
The virtual body placement means (41) places the virtual body (57) having a size larger than the target object (68).
With the superimposed image display device having the above configuration, even if the position of the object visible to the occupants is blurred due to vibrations or the like occurring in the vehicle, it is possible for the occupants of the vehicle to view a guide image that accurately shows the positional relationship between the guide image and the object.

また、第6の構成は以下のとおりである。
記画像表示手段(41)は、車両の周辺に存在する対象物の内、前記案内画像と重複して車両の乗員から視認される前記対象物に対応する前記対象物画像を表示する。
上記構成を有する重畳画像表示装置によれば、案内画像と関連する対象物のみを対象として対象物画像の表示処理を行うので、対象物画像の表示処理に係る処理負担を軽減することが可能となる。
The sixth configuration is as follows.
The image display means (41) displays the object image corresponding to the object that is visible to the vehicle occupant, overlapping with the guide image, among objects present around the vehicle.
According to the superimposed image display device having the above configuration, the display processing of the object image is performed only on the object related to the guide image, so that it is possible to reduce the processing load associated with the display processing of the object image.

1 重畳画像表示装置
2 車両
3 ナビゲーション装置
4 フロントディスプレイ
5 フロントガラス
6 乗員
7 ダッシュボード
17 液晶ディスプレイ
41 CPU
42 RAM
43 ROM
55 案内画像
56~59 対象物仮想体
66 黒色画像
68 対象物
91 走行案内画面
92 案内画像
93 透過画像
94 対象物
REFERENCE SIGNS LIST 1 Superimposed image display device 2 Vehicle 3 Navigation device 4 Front display 5 Windshield 6 Passenger 7 Dashboard 17 Liquid crystal display 41 CPU
42 RAM
43 ROM
55 Guidance image 56-59 Virtual object 66 Black image 68 Object 91 Driving guidance screen 92 Guidance image 93 Transparent image 94 Object

Claims (8)

車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、
車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、
現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、
前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、
前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す黒色の画像である対象物画像とを一体の画像として車両に設けられた画像表示面に表示し、前記画像表示面に表示された一体の画像である前記案内画像及び前記対象物画像を車両のフロントガラスに反射して車両の乗員に視認させることで、車両前方の風景に前記案内画像の虚像を重畳して視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像の虚像を車両の乗員が視認できない態様で重畳させる画像表示手段と、を有する重畳画像表示装置。
a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle;
a virtual body placement means for placing a virtual body simulating an object existing around a vehicle at a position where the object exists within the three-dimensional space;
a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to a current vehicle position;
a shape acquisition means for acquiring shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space ;
and an image display means for displaying the guide image having the shape acquired by the shape acquisition means and an object image which is a black image showing the shape of the virtual body acquired by the shape acquisition means as a single image on an image display screen provided in the vehicle, and for reflecting the guide image and the object image which are single images displayed on the image display screen onto the windshield of the vehicle so that they are visible to occupants of the vehicle, thereby superimposing a virtual image of the guide image on the scenery in front of the vehicle and allowing the occupants of the vehicle to view it, and for superimposing a virtual image of the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be seen by the occupants of the vehicle.
車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、
車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、
現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、
前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、
前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す透過色の画像である対象物画像とを一体の画像として車両に設けられて前記車両前方の風景が表示された画像表示面に表示することで、車両前方の風景に前記案内画像を重畳して車両の乗員に視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像を車両の乗員が視認できない態様で重畳させる画像表示手段と、を有する重畳画像表示装置。
a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle;
a virtual body placement means for placing a virtual body simulating an object existing around a vehicle at a position where the object exists within the three-dimensional space;
a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to a current vehicle position;
a shape acquisition means for acquiring shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space ;
and an image display means for displaying the guide image of the shape acquired by the shape acquisition means and an object image, which is a transparent color image showing the shape of the virtual body acquired by the shape acquisition means, as a single image on an image display screen provided in the vehicle and displaying the scenery in front of the vehicle, thereby superimposing the guide image on the scenery in front of the vehicle so that it can be viewed by occupants of the vehicle, and for superimposing the object image at the position of the object in the scenery in front of the vehicle in a manner that cannot be viewed by the occupants of the vehicle.
記画像表示手段は、前記案内画像を所定の重畳位置に重畳して視認させる為の前記画像表示面の表示位置に表示する請求項1又は請求項2に記載の重畳画像表示装置。 3. The superimposed image display device according to claim 1, wherein the image display means displays the guide image at a display position on the image display surface for allowing the guide image to be visually recognized by being superimposed at a predetermined superimposed position. 記画像表示手段は、前記対象物画像を前記対象物に重畳して視認させる為の前記画像表示面の表示位置に表示する請求項1又は請求項2に記載の重畳画像表示装置。 3. The superimposed image display device according to claim 1, wherein the image display means displays the object image at a display position on the image display surface for visual recognition by superimposing the object image on the object. 前記仮想体配置手段は、前記対象物よりも大きいサイズを有する前記仮想体を配置する請求項1乃至請求項4のいずれかに記載の重畳画像表示装置。 The superimposed image display device according to any one of claims 1 to 4, wherein the virtual body placement means places the virtual body having a size larger than that of the target object. 記画像表示手段は、車両の周辺に存在する対象物の内、前記案内画像と重複して車両の乗員から視認される前記対象物に対応する前記対象物画像を表示する請求項1乃至請求項5のいずれかに記載の重畳画像表示装置。 The superimposed image display device according to any one of claims 1 to 5, wherein the image display means displays the object image corresponding to an object present in the vicinity of the vehicle that is visible to an occupant of the vehicle and overlaps with the guidance image. コンピュータを、
車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、
車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、
現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、
前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、
前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す黒色の画像である対象物画像とを一体の画像として車両に設けられた画像表示面に表示し、前記画像表示面に表示された一体の画像である前記案内画像及び前記対象物画像を車両のフロントガラスに反射して車両の乗員に視認させることで、車両前方の風景に前記案内画像の虚像を重畳して視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像の虚像を車両の乗員が視認できない態様で重畳させる画像表示手段と、
して機能させる為のコンピュータプログラム。
Computer,
a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle;
a virtual body placement means for placing a virtual body simulating an object existing around a vehicle at a position where the object exists within the three-dimensional space;
a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to a current vehicle position;
a shape acquisition means for acquiring shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space ;
an image display means for displaying the guide image of the shape acquired by the shape acquisition means and an object image which is a black image showing the shape of the virtual body acquired by the shape acquisition means as an integrated image on an image display surface provided in the vehicle, and for reflecting the guide image and the object image which are integrated images displayed on the image display surface onto a windshield of the vehicle so that an occupant of the vehicle can view the image by superimposing a virtual image of the guide image on the scenery ahead of the vehicle, and for superimposing a virtual image of the object image on the position of the object in the scenery ahead of the vehicle in a manner that cannot be viewed by the occupant of the vehicle;
A computer program that makes something function.
コンピュータを、
車両の周辺に対応した3次元空間内に案内画像を配置する案内画像配置手段と、
車両の周辺に存在する対象物について、前記3次元空間内において前記対象物が存在する位置に前記対象物を模した仮想体を配置する仮想体配置手段と、
現在の車両の位置に対応する前記3次元空間内の位置に視点を設定する視点設定手段と、
前記3次元空間内に前記案内画像及び前記仮想体を配置した状態で、前記視点から視認される前記案内画像及び前記仮想体の形状を取得する形状取得手段と、
前記形状取得手段によって取得された形状の前記案内画像と前記形状取得手段によって取得された前記仮想体の形状を示す透過色の画像である対象物画像とを一体の画像として車両に設けられて前記車両前方の風景が表示された画像表示面に表示することで、車両前方の風景に前記案内画像を重畳して車両の乗員に視認させるとともに、車両前方の風景の前記対象物の位置に前記対象物画像を車両の乗員が視認できない態様で重畳させる画像表示手段と、して機能させる為のコンピュータプログラム。
Computer,
a guide image arrangement means for arranging a guide image in a three-dimensional space corresponding to the periphery of the vehicle;
a virtual body placement means for placing a virtual body simulating an object existing around a vehicle at a position where the object exists within the three-dimensional space;
a viewpoint setting means for setting a viewpoint at a position in the three-dimensional space corresponding to a current vehicle position;
a shape acquisition means for acquiring shapes of the guide image and the virtual body viewed from the viewpoint in a state in which the guide image and the virtual body are arranged in the three-dimensional space ;
A computer program for functioning as an image display means that displays the guide image of the shape acquired by the shape acquisition means and an object image, which is a transparent color image showing the shape of the virtual body acquired by the shape acquisition means, as a single image on an image display screen provided in a vehicle and displays the scenery in front of the vehicle, thereby superimposing the guide image on the scenery in front of the vehicle so that it can be viewed by occupants of the vehicle, and superimposing the object image on the position of the object in the scenery in front of the vehicle in a manner that cannot be viewed by the occupants of the vehicle.
JP2019200358A 2018-11-15 2019-11-04 Superimposed image display device and computer program Active JP7484132B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018214317 2018-11-15
JP2018214317 2018-11-15

Publications (2)

Publication Number Publication Date
JP2020085897A JP2020085897A (en) 2020-06-04
JP7484132B2 true JP7484132B2 (en) 2024-05-16

Family

ID=70907704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200358A Active JP7484132B2 (en) 2018-11-15 2019-11-04 Superimposed image display device and computer program

Country Status (1)

Country Link
JP (1) JP7484132B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069799A (en) 2003-08-22 2005-03-17 Denso Corp Navigation system for vehicle
JP2007198962A (en) 2006-01-27 2007-08-09 Matsushita Electric Ind Co Ltd Guidance display device for vehicle
DE102014008153A1 (en) 2014-05-30 2014-10-23 Daimler Ag Display device and method for augmented representation of a picture object
JP2018173315A (en) 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Display device
JP2018173399A (en) 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Display device and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069799A (en) 2003-08-22 2005-03-17 Denso Corp Navigation system for vehicle
JP2007198962A (en) 2006-01-27 2007-08-09 Matsushita Electric Ind Co Ltd Guidance display device for vehicle
DE102014008153A1 (en) 2014-05-30 2014-10-23 Daimler Ag Display device and method for augmented representation of a picture object
JP2018173315A (en) 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Display device
JP2018173399A (en) 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Display device and computer program

Also Published As

Publication number Publication date
JP2020085897A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
WO2019097763A1 (en) Superposed-image display device and computer program
JP6700623B2 (en) Driving support device and computer program
JP6946963B2 (en) Superimposed image display device and computer program
WO2019097755A1 (en) Display device and computer program
JP7476568B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
JP5327025B2 (en) Vehicle travel guidance device, vehicle travel guidance method, and computer program
JP7151073B2 (en) Display device and computer program
JP2017094882A (en) Virtual image generation system, virtual image generation method and computer program
JP2019206256A (en) Display control device and display control program
JPWO2020045328A1 (en) Display device
JP2019056884A (en) Superimposed image display device
JP7143728B2 (en) Superimposed image display device and computer program
JP7484132B2 (en) Superimposed image display device and computer program
JP6939147B2 (en) Driving information guidance device and computer program
JP7400356B2 (en) Superimposed image display device and computer program
JP6984341B2 (en) Superimposed image display device and computer program
JP2019082382A (en) Superposition picture display device
JP2024071143A (en) Superposed image display device
JP2024121324A (en) Overlay image display device
JP2021076415A (en) Superimposed image display apparatus and computer program
WO2020084827A1 (en) Superimposed-image display device, and computer program
JP2021081232A (en) Superimposed image display device and computer program
JP2024049817A (en) Superimposed image display device
JP2023008462A (en) Superimposed image display device
JP2024018205A (en) Superimposed image display device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150