JP2018173399A - Display device and computer program - Google Patents

Display device and computer program Download PDF

Info

Publication number
JP2018173399A
JP2018173399A JP2017222167A JP2017222167A JP2018173399A JP 2018173399 A JP2018173399 A JP 2018173399A JP 2017222167 A JP2017222167 A JP 2017222167A JP 2017222167 A JP2017222167 A JP 2017222167A JP 2018173399 A JP2018173399 A JP 2018173399A
Authority
JP
Japan
Prior art keywords
vehicle
image
traveling path
guide image
branch point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017222167A
Other languages
Japanese (ja)
Other versions
JP7151073B2 (en
Inventor
賢二 渡邊
Kenji Watanabe
賢二 渡邊
広之 三宅
Hiroyuki Miyake
広之 三宅
穣作 中西
Josaku Nakanishi
穣作 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to DE112018004583.8T priority Critical patent/DE112018004583T5/en
Priority to PCT/JP2018/024290 priority patent/WO2019097755A1/en
Priority to US16/649,434 priority patent/US11511627B2/en
Publication of JP2018173399A publication Critical patent/JP2018173399A/en
Application granted granted Critical
Publication of JP7151073B2 publication Critical patent/JP7151073B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device and a computer program which can accurately notify the passengers to a vehicle of a route to chose.SOLUTION: A navigation device 3 determines the presence of a road sign 81 around a guide branch point 72 on a guide route, and corrects the part of an arrow 71 for guiding the direction of travel of a travelling path 74 on which a vehicle 2 travels after exiting the guide branch point 72 that overlaps with the road sign 81 as a non-drawn region 93, which is excluded from the drawing target. The navigation device 3 displays the corrected arrow 71.SELECTED DRAWING: Figure 8

Description

本発明は、車両の走行支援を行う表示装置及びコンピュータプログラムに関する。   The present invention relates to a display device and a computer program that support driving of a vehicle.

従来より、車両の乗員に対して経路案内や障害物の警告等の車両の走行支援を行う為の各種情報を提供する情報提供手段として、様々な手段が用いられている。例えば、車両に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、ヘッドアップディスプレイ(以下、HUDという)やウインドウシールドディスプレイ(以下、WSDという)のように運転者の周辺環境(風景)に重畳する画像を表示することによって、情報の提供を行う装置がある。   2. Description of the Related Art Conventionally, various means have been used as information providing means for providing various information for performing vehicle driving support such as route guidance and obstacle warning to a vehicle occupant. For example, display on a liquid crystal display installed in a vehicle, sound output from a speaker, and the like. In recent years, as one of such information providing means, an image superimposed on a driver's surrounding environment (landscape) such as a head-up display (hereinafter referred to as HUD) or a window shield display (hereinafter referred to as WSD) is used. There is a device that provides information by displaying.

例えば、特開2005−69800号公報には、ナビゲーションシステムによって経路を案内する際に、経路の目印となるランドマーク(コンビニなど)を音声案内装置によってアナウンスするとともに、HUDを用いて車両前方の実景の中におけるランドマークの位置に重畳する虚像を表示することについて開示されている。乗員はフロントウィンドウを通して見える虚像の位置に基づいて、右左折の目印となるランドマークの位置(即ち右左折する交差点の位置)を把握することが可能となる。   For example, in Japanese Patent Laid-Open No. 2005-69800, when a route is guided by a navigation system, a landmark (convenience store or the like) that serves as a mark of the route is announced by a voice guidance device, and an actual scene in front of the vehicle using a HUD is disclosed. The display of a virtual image superimposed on the position of a landmark in the image is disclosed. Based on the position of the virtual image that can be seen through the front window, the occupant can grasp the position of the landmark that serves as a mark for turning left and right (that is, the position of the intersection that turns right and left).

特開2005−69800号公報(図4)Japanese Patent Laying-Open No. 2005-69800 (FIG. 4)

ここで、上記特許文献1に記載の技術では、実景内の右左折の目印となるランドマークの位置に重畳して、乗員から視認されるように虚像を表示している。しかしながら、表示される虚像はランドマークの一部に上書きして重畳表示するのみで、ランドマークと虚像の前後関係が不明確であった。   Here, in the technique described in Patent Document 1, a virtual image is displayed so as to be visually recognized by an occupant by being superimposed on the position of a landmark serving as a mark for turning left or right in a real scene. However, the virtual image to be displayed is simply overwritten on a part of the landmark, and the front-rear relationship between the landmark and the virtual image is unclear.

本発明は前記従来における問題点を解消するためになされたものであり、案内画像と実景内の対象物との前後の位置関係を明確とすることによって、進むべき進行路を正確に車両の乗員に通知可能な表示装置及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and by clarifying the front-rear positional relationship between the guide image and the object in the actual scene, the traveling path to be traveled can be accurately determined by the vehicle occupant. It is an object of the present invention to provide a display device and a computer program capable of notifying the user.

前記目的を達成するため本発明に係る第1の表示装置は、案内経路における案内分岐点の周辺に存在する周辺対象物の有無を判定する周辺対象物判定手段と、前記案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像のうち、前記周辺対象物と重なる部分を描画対象から除く非描画領域として補正する補正手段と、補正後の前記案内画像を表示する表示手段と、を有する。   In order to achieve the above object, a first display device according to the present invention has exited the guidance branch point, peripheral object determination means for determining the presence or absence of a peripheral object existing around the guidance branch point in the guide route Of the guide image that guides the traveling direction of the traveling path in which the subsequent vehicle travels, a correction unit that corrects a portion that overlaps the peripheral object as a non-drawing area that is excluded from the drawing target, and the corrected guide image are displayed. Display means.

また、本発明に係る第2の表示装置は、車両に搭載され、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像を、前記車両の乗員の視線前方の周辺環境に重畳して視認させる表示装置であって、前記車両が進行する前記進行路の手前側に存在する周辺対象物と重なる領域を重畳対象から除いた前記案内画像を表示する案内画像表示手段を有する。   The second display device according to the present invention is mounted on a vehicle, and displays a guidance image for guiding a traveling direction of a traveling path along which the vehicle travels after exiting a guidance branch point. A display device for visually recognizing an image superimposed on a surrounding environment, the guide image displaying means for displaying the guide image excluding a region overlapping with a peripheral object existing on the near side of the traveling path on which the vehicle travels. Have

また、本発明に係るコンピュータプログラムは、車両の走行支援を行うプログラムである。具体的には、車両に搭載され、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像を、前記車両の乗員の視線前方の周辺環境に重畳して視認させる表示装置を、前記車両が進行する前記進行路の手前側に存在する周辺対象物と重なる領域を重畳対象から除いた前記案内画像を表示する案内画像表示手段として機能させる。   The computer program according to the present invention is a program for supporting driving of a vehicle. Specifically, a guide image that is mounted on a vehicle and that guides the traveling direction of a traveling path on which the vehicle travels after leaving the guidance branch point is superimposed on the surrounding environment in front of the line of sight of the occupant of the vehicle and visually recognized. The display device is caused to function as a guide image display unit that displays the guide image in which a region overlapping a peripheral object existing on the near side of the traveling path on which the vehicle travels is excluded from a superimposition target.

前記構成を有する本発明に係る第1の表示装置によれば、案内分岐点を退出した後の進行方向を案内する案内画像は、周辺対象物と重なる領域については重畳対象から除かれるので、実景に含まれる周辺対象物(例えば建物、歩行者、車両、街路樹等)の位置と、案内画像の位置との前後関係を車両の乗員は明確に把握することが可能となる。その結果、進むべき進行路を正確に車両の乗員に通知可能となる。   According to the first display device of the present invention having the above-described configuration, the guidance image that guides the traveling direction after leaving the guidance branch point is excluded from the superimposition target in the region that overlaps the peripheral object. The vehicle occupant can clearly grasp the front-rear relationship between the position of the surrounding objects (for example, buildings, pedestrians, vehicles, roadside trees, etc.) included in the vehicle and the position of the guide image. As a result, it is possible to accurately notify the vehicle occupant of the traveling path to be followed.

前記構成を有する本発明に係る第2の表示装置及びコンピュータプログラムによれば、案内分岐点を退出した後の進行方向を案内する案内画像は、車両が進行する進行路の手前側に存在する周辺対象物と重なる領域については重畳対象から除かれるので、実景に含まれる周辺対象物(例えば建物、歩行者、車両、街路樹等)の位置と、案内画像の位置との前後関係を車両の乗員は明確に把握することが可能となる。その結果、進むべき進行路を正確に車両の乗員に通知可能となる。   According to the second display device and the computer program according to the present invention having the above-described configuration, the guide image for guiding the traveling direction after leaving the guidance branch point exists in the vicinity of the traveling path on which the vehicle travels. Since the area overlapping with the object is excluded from the object to be superimposed, the occupant of the vehicle determines the front-rear relationship between the position of the surrounding object (eg, building, pedestrian, vehicle, street tree, etc.) included in the actual scene and the position of the guide image. Can be clearly understood. As a result, it is possible to accurately notify the vehicle occupant of the traveling path to be followed.

第1実施形態に係る重畳画像表示装置の概略構成図である。1 is a schematic configuration diagram of a superimposed image display device according to a first embodiment. 第1実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on 1st Embodiment. 第1実施形態に係る走行支援処理プログラムのフローチャートである。It is a flowchart of the driving assistance processing program which concerns on 1st Embodiment. 前進を案内する矢印を虚像表示した状態を示す図である。It is a figure which shows the state which displayed the virtual image the arrow which guides a forward movement. 左折を案内する矢印を虚像表示した状態を示す図である。It is a figure which shows the state which displayed the virtual image the arrow which guides a left turn. 車両から案内分岐点に設置された道路標識までの距離を示す図である。It is a figure which shows the distance from the vehicle to the road sign installed in the guidance branch point. フロントウィンドウ上の道路標識の位置を示す図である。It is a figure which shows the position of the road sign on a front window. 道路標識と重なる非描画領域を設定した矢印を虚像表示した状態を示す図である。It is a figure which shows the state which displayed the virtual image which displayed the arrow which set the non-drawing area | region which overlaps with a road sign. 道路標識及び建物と重なる非描画領域を設定した矢印を虚像表示した状態を示す図である。It is a figure which shows the state which displayed the virtual image the arrow which set the non-drawing area | region which overlaps with a road sign and a building. 第2実施形態に係る走行支援処理プログラムのフローチャートである。It is a flowchart of the driving assistance processing program which concerns on 2nd Embodiment. 3次元地図情報に基づいて生成される3次元立体地図を示した図である。It is the figure which showed the three-dimensional solid map produced | generated based on three-dimensional map information. 案内画像と動体物を配置した後の3次元立体地図を示した図である。It is the figure which showed the three-dimensional solid map after arrange | positioning a guidance image and a moving body. 自車両が進行路に沿って進行する場合に影響のある動体物を説明した図である。It is a figure explaining the moving body which has influence when the own vehicle advances along a traveling path. 影響動体物と重なる領域に虚像が表示されないように案内画像を補正する例を示した図である。It is the figure which showed the example which correct | amends a guide image so that a virtual image is not displayed on the area | region which overlaps with an influence moving body. 影響動体物と重なる領域に虚像が表示されないように案内画像を補正する例を示した図である。It is the figure which showed the example which correct | amends a guide image so that a virtual image is not displayed on the area | region which overlaps with an influence moving body. 車両の乗員から視認される案内画像の虚像の例を示した図である。It is the figure which showed the example of the virtual image of the guidance image visually recognized from the passenger | crew of a vehicle. 表示範囲決定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a display range determination process. 変形例について説明した図である。It is a figure explaining the modification.

以下、本発明に係る表示装置を重畳画像表示装置1に具体化した第1実施形態及び第2実施形態について図面を参照しつつ詳細に説明する。   Hereinafter, a first embodiment and a second embodiment in which a display device according to the present invention is embodied in a superimposed image display device 1 will be described in detail with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係る重畳画像表示装置1の概略構成について図1を用いて説明する。図1は第1実施形態に係る重畳画像表示装置1の概略構成図である。
[First Embodiment]
First, a schematic configuration of the superimposed image display device 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of a superimposed image display device 1 according to the first embodiment.

図1に示すように重畳画像表示装置1は、車両2に搭載されたナビゲーション装置3と、同じく車両2に搭載されるとともにナビゲーション装置3と接続されたヘッドアップディスプレイ装置(以下、HUDという)4とを基本的に有する。   As shown in FIG. 1, a superimposed image display device 1 includes a navigation device 3 mounted on a vehicle 2 and a head-up display device (hereinafter referred to as HUD) 4 that is also mounted on the vehicle 2 and connected to the navigation device 3. And basically.

ここで、ナビゲーション装置3は、目的地までの推奨経路を探索したり、サーバから取得したりメモリに格納された地図データに基づいて車両2の現在位置周辺の地図画像を表示したり、設定された案内経路に沿った走行案内をHUD4とともに行う機能を有する。尚、上記機能の全てをナビゲーション装置3が備えている必要はなく、少なくとも案内経路に沿った走行案内を行う機能を有していれば本願発明を構成することが可能である。尚、ナビゲーション装置3の構造の詳細については後述する。   Here, the navigation device 3 searches for a recommended route to the destination, displays a map image around the current position of the vehicle 2 based on the map data acquired from the server or stored in the memory, and is set. A function of performing traveling guidance along the guidance route together with the HUD 4 is provided. Note that the navigation device 3 does not have to have all of the above functions, and the present invention can be configured as long as it has at least a function of performing travel guidance along the guide route. Details of the structure of the navigation device 3 will be described later.

一方、HUD4は、車両2のダッシュボード5内部に設置されており、内部には映像が表示される映像表示面である液晶ディスプレイ6を有する。そして、液晶ディスプレイ6に投射された映像を、後述のようにHUD4が備える凹面鏡7等を介し、更に運転席の前方のフロントウィンドウ8に反射させて車両2の乗員9に視認させるように構成されている。尚、液晶ディスプレイ6に表示される映像としては、車両2に関する情報や乗員9の運転の支援の為に用いられる各種情報がある。例えば乗員9に対して警告対象となる対象物(他車両や歩行者)に対する警告、ナビゲーション装置3で設定された案内経路や案内経路に基づく案内情報(右左折方向を示す矢印等)、路面に表示する警告(追突注意、制限速度等)、現在車速、広告画像、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面、テレビ番組等がある。   On the other hand, the HUD 4 is installed inside the dashboard 5 of the vehicle 2 and has a liquid crystal display 6 as a video display surface on which video is displayed. Then, the image projected on the liquid crystal display 6 is reflected on the front window 8 in front of the driver's seat through the concave mirror 7 provided in the HUD 4 as will be described later, so that the passenger 9 of the vehicle 2 can visually recognize the image. ing. The video displayed on the liquid crystal display 6 includes information related to the vehicle 2 and various information used for assisting the driving of the occupant 9. For example, a warning for an object (another vehicle or a pedestrian) that is a warning target for the occupant 9, guidance information set by the navigation device 3, guidance information based on the guidance route (an arrow indicating a right / left turn direction, etc.), There are warnings to be displayed (such as rear-end collision warnings, speed limits, etc.), current vehicle speed, advertising images, information signs, map images, traffic information, news, weather forecasts, times, connected smartphone screens, TV programs, and the like.

また、第1実施形態のHUD4では、フロントウィンドウ8を反射して乗員9が液晶ディスプレイ6に表示された映像を視認した場合に、乗員9にはフロントウィンドウ8の位置ではなく、フロントウィンドウ8の先の遠方の位置に液晶ディスプレイ6に表示された映像が虚像10として視認されるように構成される。また、虚像10は車両前方の風景(実景)に重畳して表示されることとなり、例えば車両前方に位置する任意の対象物(路面、建築物、警告対象となる動体物等)に重畳させて表示させることも可能である。尚、乗員9が視認できる虚像10は液晶ディスプレイ6に表示された映像であるが、凹面鏡7やその他のミラーを介することによって上下方向や左右方向が反転する場合があり、それらの反転を考慮して液晶ディスプレイ6の映像の表示を行う必要がある。また、凹面鏡7を介することによってサイズも変更する。   Moreover, in HUD4 of 1st Embodiment, when the passenger | crew 9 visually recognizes the image displayed on the liquid crystal display 6 by reflecting the front window 8, not the position of the front window 8 but the position of the front window 8 is shown to the passenger | crew 9. The image displayed on the liquid crystal display 6 at the previous distant position is configured to be visually recognized as a virtual image 10. In addition, the virtual image 10 is displayed superimposed on the scenery (real scene) in front of the vehicle. For example, the virtual image 10 is superimposed on an arbitrary object (road surface, building, moving object to be warned, etc.) located in front of the vehicle. It can also be displayed. The virtual image 10 that can be seen by the occupant 9 is an image displayed on the liquid crystal display 6, but the vertical direction and the horizontal direction may be reversed through the concave mirror 7 and other mirrors. Therefore, it is necessary to display an image on the liquid crystal display 6. In addition, the size is changed through the concave mirror 7.

ここで、虚像10を生成する位置、より具体的には乗員9から虚像10までの距離(以下、結像距離という)Lについては、HUD4が備える凹面鏡7の曲率、液晶ディスプレイ6と凹面鏡7との相対位置等によって適宜設定することが可能である。例えば、凹面鏡7の曲率が固定であれば、液晶ディスプレイ6において映像の表示された位置から凹面鏡7までの光路に沿った距離(光路長)によって結像距離Lが決定される。例えば結像距離Lが2.5mとなるように光路長が設定されている。   Here, regarding the position where the virtual image 10 is generated, more specifically, the distance L from the occupant 9 to the virtual image 10 (hereinafter referred to as the imaging distance) L, the curvature of the concave mirror 7 provided in the HUD 4, the liquid crystal display 6 and the concave mirror 7 It is possible to set as appropriate depending on the relative position of the. For example, if the curvature of the concave mirror 7 is fixed, the imaging distance L is determined by the distance (optical path length) along the optical path from the position where the image is displayed on the liquid crystal display 6 to the concave mirror 7. For example, the optical path length is set so that the imaging distance L is 2.5 m.

また、第1実施形態では車両前方の風景に重畳する画像を表示する手段としてHUD4を用いているが、他の手段を用いても良い。例えば、フロントウィンドウ8に対して映像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。WSDでは、フロントウィンドウ8をスクリーンとしてプロジェクタから映像を表示しても良いし、フロントウィンドウ8を透過液晶ディスプレイとしても良い。WSDによってフロントウィンドウ8に対して表示された画像は、HUD4と同様に車両前方の風景に重畳する画像となる。   In the first embodiment, the HUD 4 is used as means for displaying an image to be superimposed on the scenery in front of the vehicle, but other means may be used. For example, a window shield display (WSD) that displays an image on the front window 8 may be used. In WSD, an image may be displayed from a projector using the front window 8 as a screen, or the front window 8 may be a transmissive liquid crystal display. The image displayed on the front window 8 by the WSD is an image to be superimposed on the scenery in front of the vehicle, similar to the HUD 4.

更に、後述のフロントカメラ11で撮像した車両前方の風景を車内の液晶ディスプレイに表示し、同一の液晶ディスプレイ内において表示された風景に重畳する画像を表示することも可能である。その場合においても液晶ディスプレイに表示された画像は、HUD4と同様に車両前方の風景に重畳する画像となる。   Furthermore, it is also possible to display a landscape in front of the vehicle imaged by the front camera 11 described later on a liquid crystal display in the vehicle and display an image superimposed on the landscape displayed in the same liquid crystal display. Even in this case, the image displayed on the liquid crystal display is an image that is superimposed on the scenery in front of the vehicle, similar to HUD4.

また、車両のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ11が設置される。フロントカメラ11は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ11により撮像された撮像画像に対して画像処理が行われることによって、フロントウィンドウ8越しに乗員9に視認される前方環境(即ち虚像10が重畳される環境)の状況等が検出される。尚、フロントカメラ11の代わりにミリ波レーダ等のセンサを用いても良い。   A front camera 11 is installed above the front bumper of the vehicle, behind the rearview mirror, and the like. The front camera 11 is an imaging device having a camera using a solid-state imaging device such as a CCD, for example, and is installed with the optical axis direction facing forward in the traveling direction of the vehicle. Then, by performing image processing on the captured image captured by the front camera 11, the situation of the front environment (that is, the environment in which the virtual image 10 is superimposed) that is visually recognized by the occupant 9 through the front window 8 is detected. Is done. A sensor such as a millimeter wave radar may be used instead of the front camera 11.

また、車両のインストルメントパネルの上面には車内カメラ12が設置される。車内カメラ12は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を運転席に向けて設置される。そして、運転席に座った乗員9の顔を撮像する。そして、車内カメラ12により撮像された撮像画像に対して画像処理が行われることによって、乗員9の目の位置(視線開始点)や視線方向を検出する。   An in-vehicle camera 12 is installed on the upper surface of the instrument panel of the vehicle. The in-vehicle camera 12 is an imaging device having a camera using a solid-state imaging device such as a CCD, for example, and is installed with the optical axis direction facing the driver's seat. Then, the face of the occupant 9 sitting in the driver's seat is imaged. Then, image processing is performed on the captured image captured by the in-vehicle camera 12 to detect the eye position (gaze start point) and the gaze direction of the occupant 9.

次に、上記重畳画像表示装置1を構成するナビゲーション装置3の概略構成について図2を用いて説明する。図2は第1実施形態に係るナビゲーション装置3を示したブロック図である。   Next, a schematic configuration of the navigation device 3 constituting the superimposed image display device 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the navigation device 3 according to the first embodiment.

図2に示すように第1実施形態に係るナビゲーション装置3は、ナビゲーション装置3が搭載された車両2の現在位置を検出する現在位置検出部13と、各種のデータが記録されたデータ記録部14と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU15と、ユーザからの操作を受け付ける操作部16と、ユーザに対して車両周辺の地図や施設の関する施設情報を表示する液晶ディスプレイ17と、経路案内に関する音声ガイダンスを出力するスピーカ18と、記憶媒体であるDVDを読み取るDVDドライブ19と、VICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール20と、を有する。また、ナビゲーション装置3はCAN等の車載ネットワークを介して、前述したHUD4、フロントカメラ11及び車内カメラ12等が接続されている。   As shown in FIG. 2, the navigation device 3 according to the first embodiment includes a current position detection unit 13 that detects the current position of the vehicle 2 on which the navigation device 3 is mounted, and a data recording unit 14 that records various data. A navigation ECU 15 that performs various arithmetic processes based on the input information, an operation unit 16 that receives operations from the user, and a liquid crystal display that displays facility information relating to a map around the vehicle and facilities to the user. 17, a speaker 18 that outputs voice guidance related to route guidance, a DVD drive 19 that reads a DVD as a storage medium, and an information center such as a VICS (registered trademark: Vehicle Information and Communication System) center. And a communication module 20. The navigation device 3 is connected to the HUD 4, the front camera 11, the in-vehicle camera 12, and the like described above via an in-vehicle network such as CAN.

以下に、ナビゲーション装置3が有する各構成要素について順に説明する。
現在位置検出部13は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU15に出力する。そして、ナビゲーションECU15は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置3が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置3が備える構成としても良い。
Below, each component which the navigation apparatus 3 has is demonstrated in order.
The current position detection unit 13 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 15. And navigation ECU15 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. In addition, it is not necessary for the navigation device 3 to include all the four types of sensors, and the navigation device 3 may include only one or a plurality of types of sensors.

また、データ記録部14は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部14はハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクを有していても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置3が通信により取得する構成としても良い。   The data recording unit 14 is also a hard disk (not shown) as an external storage device and a recording medium, and a driver for reading the map information DB 31 and a predetermined program recorded on the hard disk and writing predetermined data on the hard disk And a recording head (not shown). The data recording unit 14 may include a flash memory, a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. The map information DB 31 may be stored in an external server, and the navigation device 3 may be configured to acquire by communication.

ここで、地図情報DB31は、2次元地図情報33と3次元地図情報34とがそれぞれ記憶される。2次元地図情報33は、一般的なナビゲーション装置3において用いられる地図情報であり、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、施設に関する施設データ、経路探索処理に用いられる探索データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等を含む。   Here, the map information DB 31 stores two-dimensional map information 33 and three-dimensional map information 34, respectively. The two-dimensional map information 33 is map information used in a general navigation device 3. For example, link data regarding roads (links), node data regarding node points, facility data regarding facilities, and search data used for route search processing. , Map display data for displaying a map, intersection data for each intersection, search data for searching for a point, and the like.

一方、3次元地図情報34は、平面だけではなく高さ情報についても有し、3次元で地図を表現する為の地図情報である。特に本実施形態では3次元で道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等を表現する為の地図情報とする。尚、3次元地図情報34としては上記道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板以外の情報についても含めても良い。例えば、街路樹や路面標示等についても3次元で表現する為の情報を含めても良い。また、3次元地図情報34としては3次元空間上に上記道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の各オブジェクトを配置した地図そのものを記憶しても良いし、3次元で地図を表現する為に必要な情報(道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の3次元の座標データなど)を記憶しても良い。3次元で地図を表現する為に必要な情報が格納されている場合には、ナビゲーション装置3は、必要なタイミングで3次元地図情報34として記憶された情報を用いて、対象エリアを3次元で表現した地図を生成する。   On the other hand, the 3D map information 34 is not only a plane but also height information, and is map information for expressing a map in 3D. In particular, in this embodiment, the map information is used to express the outline of the road, the shape of the building, the lane markings of the road, traffic lights, road signs, signs, etc. in three dimensions. The three-dimensional map information 34 may include information other than the outline of the road, the shape of the building, the lane marking of the road, the traffic light, the road sign, and the signboard. For example, information for three-dimensional representation of roadside trees and road markings may also be included. Further, as the three-dimensional map information 34, a map itself in which each object such as the outline of the road, the shape of the building, the road line, the traffic light, the road sign, and the signboard is arranged in the three-dimensional space may be stored. And information necessary for expressing the map in three dimensions (three-dimensional coordinate data such as road outlines, building shapes, road lane markings, traffic lights, road signs, signboards, etc.) may be stored. . When the information necessary for representing the map in three dimensions is stored, the navigation device 3 uses the information stored as the three-dimensional map information 34 at the necessary timing to represent the target area in three dimensions. Generate the represented map.

そして、ナビゲーション装置3は、液晶ディスプレイ17における地図画像の表示、案内経路の探索等の一般的な機能については2次元地図情報33を用いて行う。また、後述のように案内画像の表示に係る処理については2次元地図情報33に加えて3次元地図情報34についても用いて行う。   The navigation device 3 uses the two-dimensional map information 33 for general functions such as displaying a map image on the liquid crystal display 17 and searching for a guidance route. Further, as will be described later, the processing related to the display of the guide image is performed using the 3D map information 34 in addition to the 2D map information 33.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)15は、ナビゲーション装置3の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行支援処理プログラム(図3)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU15は、処理アルゴリズムとしての各種手段を有する。例えば、周辺対象物判定手段は、案内経路における案内分岐点の周辺に存在する周辺対象物の有無を判定する。補正手段は、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像のうち、周辺対象物と重なる部分を描画対象から除く非描画領域として補正する。表示手段は、補正後の案内画像を表示する。   On the other hand, the navigation ECU (Electronic Control Unit) 15 is an electronic control unit that controls the entire navigation device 3, and includes a CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which a RAM 42 that stores route data when a route is searched, a control program, and a driving support processing program (FIG. 3) described later are recorded. An internal storage device such as a flash memory 44 for storing the program is provided. The navigation ECU 15 has various means as processing algorithms. For example, the peripheral object determining means determines the presence / absence of a peripheral object existing around the guidance branch point in the guidance route. The correcting means corrects a portion overlapping with a peripheral object as a non-drawing area that excludes a drawing target from the guidance image that guides the traveling direction of the traveling path along which the vehicle travels after leaving the guidance branch point. The display means displays the corrected guide image.

操作部16は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU15は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部16は液晶ディスプレイ17の前面に設けたタッチパネルを有していても良い。また、マイクと音声認識装置を有していても良い。   The operation unit 16 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 15 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 16 may have a touch panel provided on the front surface of the liquid crystal display 17. Moreover, you may have a microphone and a speech recognition apparatus.

また、液晶ディスプレイ17には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、第1実施形態では情報の表示手段としてHUD4を備えているので、上記地図画像等の表示をHUD4で行う構成とすれば液晶ディスプレイ17は省略しても良い。   The liquid crystal display 17 includes a map image including a road, traffic information, operation guidance, an operation menu, key guidance, a guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. In the first embodiment, since the HUD 4 is provided as information display means, the liquid crystal display 17 may be omitted if the map image or the like is displayed on the HUD 4.

また、スピーカ18は、ナビゲーションECU15からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。   Further, the speaker 18 outputs voice guidance for guiding traveling along the guidance route and traffic information guidance based on an instruction from the navigation ECU 15.

また、DVDドライブ19は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ19に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 19 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided in place of the DVD drive 19.

また、通信モジュール20は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 20 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center, For example, a mobile phone or DCM is applicable.

続いて、前記構成を有する重畳画像表示装置1の内、特にナビゲーション装置3において実行する走行支援処理プログラムについて図3に基づき説明する。図3は第1実施形態に係る走行支援処理プログラムのフローチャートである。ここで、走行支援処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、HUD4を用いて車両2の乗員9に案内分岐点における車両の進行方向の案内を行うプログラムである。尚、以下の図3にフローチャートで示されるプログラムは、ナビゲーション装置3が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, a driving support processing program executed in the navigation device 3 in the superimposed image display device 1 having the above configuration will be described with reference to FIG. FIG. 3 is a flowchart of the driving support processing program according to the first embodiment. Here, the driving support processing program is a program that is executed after the ACC power supply (accessory power supply) of the vehicle is turned on and guides the occupant 9 of the vehicle 2 in the direction of travel of the vehicle at the guidance branch point using the HUD 4. . Note that the program shown in the flowchart of FIG. 3 below is stored in the RAM 42 or ROM 43 provided in the navigation device 3 and is executed by the CPU 41.

尚、「案内分岐点」とは、ナビゲーション装置3において設定されている案内経路に沿った車両の走行案内を行う場合において、車両の進行方向を案内する必要がある分岐点であり、例えば十字路、T字路、Y字路などの交差点が該当する。但し、案内分岐点は、2つの道路が交わる交差点に限らず、例えば一つの道路が複数の道路に分岐する分岐部分でも良い。   The “guidance branch point” is a branch point where it is necessary to guide the traveling direction of the vehicle when the vehicle travels along the guidance route set in the navigation device 3. Intersections such as T-junctions and Y-junctions fall under this category. However, the guidance branch point is not limited to an intersection where two roads intersect, and may be a branch part where one road branches into a plurality of roads, for example.

先ず、走行支援処理プログラムでは、ステップ(以下、Sと略記する)1においてCPU41は、車両2の進行方向前方の所定距離(例えば700m)以内に案内分岐点が存在するか否かを判定する。具体的には、CPU41は、ナビゲーション装置3において現在設定されている案内経路と、地図情報DB31に格納された地図情報と、現在位置検出部13に基づいて検出した車両2の現在位置とに基づいて判定する。尚、案内経路は、例えば走行開始時等においてユーザが目的地を設定した場合に、公知のダイクストラ法を用いた経路探索処理により決定される。   First, in the driving support processing program, in step (hereinafter abbreviated as “S”) 1, the CPU 41 determines whether or not a guidance branch point exists within a predetermined distance (for example, 700 m) ahead in the traveling direction of the vehicle 2. Specifically, the CPU 41 is based on the guidance route currently set in the navigation device 3, the map information stored in the map information DB 31, and the current position of the vehicle 2 detected based on the current position detection unit 13. Judgment. The guide route is determined by route search processing using a known Dijkstra method when the user sets a destination at the start of traveling, for example.

また、前記S1において車両2の進行方向前方の所定距離に案内分岐点が存在するか否かを判定する手段は、上記方法に限られない。例えば、CPU41は、フロントカメラ11で撮像された撮像画像と3次元地図情報34とを照合することによって、3次元地図情報34内における車両の現在位置を特定し、進行方向前方に案内分岐点が存在するか否かを判定してもよい。   In addition, the means for determining whether or not a guidance branch point exists at a predetermined distance ahead in the traveling direction of the vehicle 2 in S1 is not limited to the above method. For example, the CPU 41 collates the captured image captured by the front camera 11 with the 3D map information 34 to identify the current position of the vehicle in the 3D map information 34, and the guidance branch point is ahead in the traveling direction. It may be determined whether or not it exists.

そして、車両2の進行方向前方の所定距離に案内分岐点が存在すると判定された場合(S1:YES)には、S2へと移行する。それに対して、車両2の進行方向前方の所定距離に案内分岐点が存在しないと判定された場合(S1:NO)には、案内分岐点が存在すると判定されるまで待機する。この場合、CPU41は、例えば予め設定された時間だけ間を空けてS1の処理を繰り返し実行する。   And when it determines with a guidance branch point existing in the predetermined distance ahead of the advancing direction of the vehicle 2 (S1: YES), it transfers to S2. On the other hand, when it is determined that there is no guidance branch point at a predetermined distance ahead in the traveling direction of the vehicle 2 (S1: NO), the process waits until it is determined that a guidance branch point exists. In this case, the CPU 41 repeatedly executes the process of S1, for example, with a predetermined time interval.

S2においてCPU41は、車両の進行方向前方にある案内分岐点の周辺にある周辺対象物として、特に道路標識が存在するか否かを判定する。前記S2における判定処理は、フロントカメラ11で撮像された撮像画像を画像処理することによって判定しても良いし、車両の現在位置と3次元地図情報34に基づいて判定しても良い。尚、3次元地図情報34には、予め道路標識の設置位置を特定する情報が含まれている。   In S <b> 2, the CPU 41 determines whether there is a road sign in particular as a peripheral object around the guidance branch point in front of the vehicle in the traveling direction. The determination process in S <b> 2 may be determined by performing image processing on a captured image captured by the front camera 11, or may be determined based on the current position of the vehicle and the three-dimensional map information 34. The three-dimensional map information 34 includes information for specifying the installation position of the road sign in advance.

また、上記S2で判定対象となる「周辺対象物」としては、道路標識以外に、案内分岐点に存在するガードレール、カーブミラー、電柱、建物などの人工物や防風林などの人工物を対象としても良い。更に、周辺対象物は、固定されたものに限らず、人などの動く動体物でも良い。以下では、周辺対象物の一例として道路標識を例に挙げて説明する。   In addition to the road signs, the “surrounding objects” to be determined in S2 may include not only road signs but also artificial objects such as guardrails, curve mirrors, utility poles, buildings, and windbreak forests. good. Furthermore, the peripheral object is not limited to a fixed object, and may be a moving object such as a person. Hereinafter, a road sign will be described as an example of a peripheral object.

そして、車両の進行方向前方にある案内分岐点の周辺に道路標識が存在すると判定された場合(S2:YES)には、S5へと移行する。それに対して、車両の進行方向前方にある案内分岐点の周辺に道路標識が存在しないと判定された場合(S2:NO)には、S3へと移行する。   And when it determines with a road sign existing around the guidance branch point ahead of the advancing direction of a vehicle (S2: YES), it transfers to S5. On the other hand, when it is determined that there is no road sign around the guidance branch point ahead of the vehicle in the traveling direction (S2: NO), the process proceeds to S3.

S3においてCPU41は、HUD4の液晶ディスプレイ6に対して表示する画像として、特に案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する矢印の画像を生成する。生成される矢印の画像の形状は、車両の進行方向と案内分岐点の形状によって決定される。尚、液晶ディスプレイ6に表示された画像は、虚像10として車両の乗員からは車両の車両前方の風景に重畳して視認される(図1参照)。   In S3, the CPU 41 generates, as an image to be displayed on the liquid crystal display 6 of the HUD 4, in particular an arrow image that guides the traveling direction of the traveling path on which the vehicle travels after leaving the guidance branch point. The shape of the generated arrow image is determined by the traveling direction of the vehicle and the shape of the guidance branch point. Note that the image displayed on the liquid crystal display 6 is visually recognized as a virtual image 10 by being superimposed on the scenery in front of the vehicle by the vehicle occupant (see FIG. 1).

更に、前記S3においてCPU41は、生成された矢印の画像を補正する。具体的には、進行路に沿って進行方向の先端側に向かって矢印の先端側を延長し、矢印全体の長さをより長くする。   In S3, the CPU 41 corrects the generated arrow image. Specifically, the tip side of the arrow is extended toward the tip side in the traveling direction along the traveling path, and the length of the entire arrow is made longer.

その後、S4においてCPU41は、HUD4に対して制御信号を送信し、HUD4の液晶ディスプレイ6に対して前記S3で生成並びに補正された後の矢印の画像を表示する。その結果、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像として特に矢印の虚像10が、車両の乗員から車両前方の風景に重畳して視認される。   Thereafter, in S4, the CPU 41 transmits a control signal to the HUD 4, and displays the image of the arrow generated and corrected in S3 on the liquid crystal display 6 of the HUD 4. As a result, a virtual image 10 with an arrow as a guide image for guiding the traveling direction of the traveling path along which the vehicle travels after leaving the guidance branch point is visually recognized by the vehicle occupant superimposed on the scenery in front of the vehicle.

ここで、図4は特に案内分岐点を退出した後の車両が進行する進行路の進行方向が直進方向である場合に、車両の乗員から視認される矢印の虚像を示した図である。
図4に示すように、車両のフロントウィンドウ8越しには、走行路73の路面上に重畳して、前方へ進むことを示す矢印71(矢印画像)が虚像として表示されている。また、矢印71の虚像は、十字路である案内分岐点72を通過し、走行路73に沿って進行方向の先に向かって延長されている。矢印71は、例えば、HUD4の表示可能な領域の上側端部まで延長されている。その結果、図4に示す矢印71の虚像を視認した乗員は、案内分岐点72を直進して進むことを容易に把握することが可能となる。
Here, FIG. 4 is a diagram showing a virtual image of an arrow visually recognized by a vehicle occupant when the traveling direction of the traveling path in which the vehicle travels after leaving the guidance branch point is the straight traveling direction.
As shown in FIG. 4, over the front window 8 of the vehicle, an arrow 71 (arrow image) indicating that the vehicle is traveling forward is displayed as a virtual image so as to be superimposed on the road surface of the traveling road 73. Further, the virtual image of the arrow 71 passes through the guide branch point 72 that is a cross road, and extends along the traveling path 73 toward the tip of the traveling direction. The arrow 71 extends, for example, to the upper end of the displayable area of the HUD 4. As a result, the occupant who has visually recognized the virtual image of the arrow 71 shown in FIG. 4 can easily grasp that the vehicle travels straight ahead along the guidance branch point 72.

また、図5は特に案内分岐点を退出した後の車両が進行する進行路の進行方向が左方向(即ち左折)である場合に、車両の乗員から視認される矢印の虚像を示した図である。
図5に示すように、車両のフロントウィンドウ8越しには、走行路73から案内分岐点72を左折した後の進行路74に跨って、路面に対して上方に離間した位置に重畳して、左方へ進むことを示す矢印71(矢印画像)が虚像として表示されている。また、矢印71の虚像は、案内分岐点72を左折した後の進行路74に沿って、進行方向の先に向かって延長されている。矢印71は、例えば、HUD4の表示可能な領域の左側端部まで延長されている。その結果、図5に示す矢印71の虚像を視認した乗員は、案内分岐点72を左折して進行路74へと退出することを容易に把握することが可能となる。
FIG. 5 is a diagram showing a virtual image of an arrow visually recognized by a vehicle occupant when the traveling direction of the traveling path in which the vehicle travels after leaving the guidance junction is the left direction (that is, left turn). is there.
As shown in FIG. 5, over the front window 8 of the vehicle, over the traveling path 74 after turning left from the traveling path 73 to the guide branch point 72, it is superimposed on a position spaced upward from the road surface, An arrow 71 (arrow image) indicating that the vehicle proceeds to the left is displayed as a virtual image. Moreover, the virtual image of the arrow 71 is extended toward the tip of the advancing direction along the advancing path 74 after turning left at the guidance branch point 72. The arrow 71 extends, for example, to the left end of the displayable area of the HUD 4. As a result, the occupant who has visually recognized the virtual image of the arrow 71 shown in FIG. 5 can easily grasp that he / she turns left at the guidance branch point 72 and exits to the traveling path 74.

一方、S5においてCPU41は、案内分岐点72の周辺に設置された道路標識の種類及び大きさ(撮像画像中の大きさではなく実際の大きさ)を取得する。具体的にはCPU41は、フロントカメラ11で撮像した道路標識の画像を画像処理し、形状、図柄などの特徴に基づいて道路標識の種類及び大きさを判定する。道路標識の形状(大きさ)、図柄等は、例えば、日本国内であれば、道路標識、区画線及び道路標示に関する命令(標識令)で規定されている。地図情報DB31には、標識令で規定された道路標識の種類毎に形状や図柄の情報が予め格納されており、CPU41は該当する道路標識のデータを抽出することによって、案内分岐点72の周辺に設置された道路標識の種類及び大きさを取得する。尚、3次元地図情報34を用いて道路標識の種類及び大きさを取得しても良い。3次元地図情報34には、予め道路標識の設置位置に加えて、道路標識の種類や大きさを特定する情報が含まれている。   On the other hand, in S <b> 5, the CPU 41 acquires the type and size of the road sign installed around the guidance branch point 72 (actual size, not the size in the captured image). Specifically, the CPU 41 performs image processing on the road sign image captured by the front camera 11 and determines the type and size of the road sign based on features such as a shape and a design. For example, in Japan, the shape (size), design, etc. of road signs are defined by instructions (signs ordinances) related to road signs, lane markings, and road markings. The map information DB 31 stores in advance information on shapes and symbols for each type of road sign specified by the signing decree, and the CPU 41 extracts the data of the corresponding road sign so that the area around the guidance branch 72 The type and size of road signs installed in Note that the type and size of the road sign may be acquired using the three-dimensional map information 34. The three-dimensional map information 34 includes information for specifying the type and size of the road sign in addition to the installation position of the road sign in advance.

次に、S6においてCPU41は、車両2から案内分岐点の周辺に設置された道路標識までの距離(以下、第一距離という)を算出する。以下に、前記S6の第一距離の算出方法の詳細について説明する。   Next, in S6, the CPU 41 calculates a distance from the vehicle 2 to a road sign installed around the guidance branch point (hereinafter referred to as a first distance). Below, the detail of the calculation method of the 1st distance of said S6 is demonstrated.

ここで、図6は車両2から案内分岐点72の周辺に設置された道路標識81までの第一距離D1を示している。
図6に示すように第1実施形態では、第一距離D1は、特に車両2の乗員9の頭部の位置Xから道路標識81までの距離とする。車内カメラ12は、上記したように車両2のインストルメントパネルや天井に設置され、撮像方向を運転席に向けて設置されており、撮像画像には運転者である乗員9の顔が含まれることとなる。従って、CPU41は、車内カメラ12の撮像画像に基づいて、乗員9の頭の位置Xを検出することが可能である。
Here, FIG. 6 shows the first distance D1 from the vehicle 2 to the road sign 81 installed around the guidance branch point 72.
As shown in FIG. 6, in the first embodiment, the first distance D <b> 1 is particularly a distance from the position X of the head of the occupant 9 of the vehicle 2 to the road sign 81. The in-vehicle camera 12 is installed on the instrument panel or ceiling of the vehicle 2 as described above, and is installed with the imaging direction facing the driver's seat, and the captured image includes the face of the driver 9 who is the driver. It becomes. Therefore, the CPU 41 can detect the position X of the head of the occupant 9 based on the captured image of the in-vehicle camera 12.

また、CPU41は、前記S5で取得した道路標識81の大きさと、フロントカメラ11で撮像した撮像画像中の道路標識81の大きさとを比較して、フロントカメラ11と道路標識81とを結ぶ直線距離を算出する。フロントカメラ11で撮像された道路標識81の大きさは、道路標識81と車両2との間の第一距離D1が長いほど小さくなる。このため、CPU41は、撮像画像中の道路標識81の大きさと、道路標識81の実際の大きさとを比較することで、フロントカメラ11と道路標識81と間の直線距離を算出することが可能である。尚、フロントカメラ11をステレオカメラとすれば、撮像画像から直接、フロントカメラ11と道路標識81と間の直線距離を算出することも可能である。CPU41は、算出した直線距離に、フロントカメラ11と乗員9の頭部の位置Xとの間の距離を加算し、乗員9の頭部の位置Xと道路標識81とを結ぶ直線距離D3を算出する。   Further, the CPU 41 compares the size of the road sign 81 acquired in S5 with the size of the road sign 81 in the captured image captured by the front camera 11, and the linear distance connecting the front camera 11 and the road sign 81. Is calculated. The size of the road sign 81 captured by the front camera 11 becomes smaller as the first distance D1 between the road sign 81 and the vehicle 2 is longer. Therefore, the CPU 41 can calculate the linear distance between the front camera 11 and the road sign 81 by comparing the size of the road sign 81 in the captured image with the actual size of the road sign 81. is there. If the front camera 11 is a stereo camera, the linear distance between the front camera 11 and the road sign 81 can be calculated directly from the captured image. The CPU 41 adds the distance between the front camera 11 and the head position X of the occupant 9 to the calculated linear distance, and calculates a linear distance D3 that connects the head position X of the occupant 9 and the road sign 81. To do.

また、CPU41は、乗員9の頭部の位置Xと道路標識81とを結ぶ直線と、車両2の幅方向とがなす角度θを算出する。具体的には、CPU41は先ずフロントカメラ11で撮像した撮像画像を画像処理することによって、撮像画像内の道路標識81の位置を特定する。その後、特定された道路標識81の位置と、フロントカメラ11と道路標識81と間の直線距離とに基づいて角度θを算出する。そして、CPU41は、直線距離D3と角度θとに基づいて、乗員9の頭部の位置Xから道路標識81までの第一距離D1を算出する。   Further, the CPU 41 calculates an angle θ formed by a straight line connecting the head position X of the occupant 9 and the road sign 81 and the width direction of the vehicle 2. Specifically, the CPU 41 first specifies the position of the road sign 81 in the captured image by performing image processing on the captured image captured by the front camera 11. Thereafter, the angle θ is calculated based on the identified position of the road sign 81 and the linear distance between the front camera 11 and the road sign 81. Then, the CPU 41 calculates a first distance D1 from the position X of the head of the occupant 9 to the road sign 81 based on the linear distance D3 and the angle θ.

尚、前記S6では上記した方法以外で第一距離D1や直線距離D3を算出してもよい。例えば、CPU41は、3次元地図情報34に含まれる道路標識81の位置情報と、現在位置検出部13により検出した車両2の現在位置とに基づいて直線距離D3や第一距離D1を算出してもよい。更に、CPU41は、車内カメラ12の画像処理によって検出した乗員9の視線に基づいて角度θを算出することも可能である。具体的には、先ず車内カメラ12の撮像画像を処理することで、視線開始点(目の位置)及び視線方向を検出する。視線開始点や視線方向の検出方法としては、例えば角膜反射法により計測された瞳孔の中心位置やプルキニエ像を用いて検出する方法がある。それらの方法は既に公知の技術であるので、詳細は省略する。その後、CPU41は、乗員9の視線が案内する進行路74に集中した場合、乗員が道路標識81を注視していると仮定して視線方向に基づいて角度θを算出することが可能である。   In S6, the first distance D1 and the linear distance D3 may be calculated by a method other than the method described above. For example, the CPU 41 calculates the linear distance D3 and the first distance D1 based on the position information of the road sign 81 included in the three-dimensional map information 34 and the current position of the vehicle 2 detected by the current position detection unit 13. Also good. Further, the CPU 41 can also calculate the angle θ based on the line of sight of the occupant 9 detected by the image processing of the in-vehicle camera 12. Specifically, by first processing a captured image of the in-vehicle camera 12, a line-of-sight start point (eye position) and a line-of-sight direction are detected. As a method for detecting the line-of-sight start point and the line-of-sight direction, for example, there is a method of detecting using the center position of the pupil or the Purkinje image measured by the corneal reflection method. Since these methods are already known techniques, details are omitted. Thereafter, when the sight line of the occupant 9 is concentrated on the traveling path 74 that the occupant 9 guides, the CPU 41 can calculate the angle θ based on the sight line direction on the assumption that the occupant is gazing at the road sign 81.

また、前記S6においてCPU41は、案内分岐点72の周囲に複数の道路標識が存在数する場合には、存在する道路標識毎に第一距離D1を算出する。但し、全ての道路標識が対象となるのではなく、案内分岐点72の進行路74側に設置された道路標識のみが対象となる。例えば図6に示す例では、案内分岐点72を左折して進行路74を進むように案内する場合、案内分岐点72の進行路74側に設置された道路標識81、82が、第一距離D1を算出する対象となる。また、走行路73の左側の歩道に設置された道路標識83も対象となる。一方、案内経路から外れる案内分岐点72を右折した進行路75側の道路標識84は、第一距離D1を算出する対象外とする。但し、案内分岐点72の進行路74側に設置された道路標識以外(例えば図6の道路標識84)についても第一距離D1の算出対象としても良い。   In S6, when there are a plurality of road signs around the guidance branch point 72, the CPU 41 calculates the first distance D1 for each existing road sign. However, not all road signs are targeted, but only road signs installed on the traveling path 74 side of the guidance branch point 72 are targeted. For example, in the example shown in FIG. 6, when the guidance branch point 72 is turned left and guided to travel along the traveling path 74, road signs 81 and 82 installed on the traveling path 74 side of the guidance branch point 72 have the first distance. This is a target for calculating D1. Moreover, the road sign 83 installed on the left sidewalk of the travel path 73 is also a target. On the other hand, the road sign 84 on the traveling path 75 side that turns right at the guidance branch point 72 that deviates from the guidance route is excluded from the target for calculating the first distance D1. However, a road sign other than a road sign (for example, a road sign 84 in FIG. 6) installed on the traveling path 74 side of the guidance branch point 72 may be a target for calculation of the first distance D1.

その後、S7においてCPU41は、車両2と、案内分岐点72を退出した後の進行路74の道路端Yとの間の距離である第二距離D2を算出する。尚、道路端Yは、特に進行路74の案内分岐点72側の道路端であって、且つ最も手前側(車両側)の位置とする。 具体的には先ずCPU41は、地図情報に基づいて進行路74の道路端Yの位置を検出する。次にCPU41は、進行路74の道路端Yの位置、車両2の現在位置、乗員9の頭の位置Xに基づいて第二距離D2を算出する。尚、上記した第一距離D1及び第二距離D2は、乗員9の頭の位置Xを基準としたが、これに限らず、車両2のフロントカメラ11、車両先端、車両中心の位置などを基準としても良い。   Thereafter, in S <b> 7, the CPU 41 calculates a second distance D <b> 2 that is a distance between the vehicle 2 and the road end Y of the traveling path 74 after leaving the guidance branch point 72. The road edge Y is the road edge on the guide branch point 72 side of the traveling path 74 and the position closest to the front (vehicle side). Specifically, first, the CPU 41 detects the position of the road edge Y of the traveling path 74 based on the map information. Next, the CPU 41 calculates the second distance D2 based on the position of the road edge Y of the traveling path 74, the current position of the vehicle 2, and the position X of the head of the occupant 9. The first distance D1 and the second distance D2 described above are based on the position X of the head of the occupant 9. However, the present invention is not limited to this, and the front camera 11 of the vehicle 2, the front end of the vehicle, the position of the vehicle center, etc. It is also good.

次に、S8においてCPU41は、S6で算出した第一距離D1と、S7で算出した第二距離D2とに基づいて、案内分岐点72を退出した後の進行路74の手前側に立っている道路標識が存在するか否かを判定する。図6に示すように、進行路74の手前側に立つ道路標識81の第一距離D1は、進行路74の道路端Yの第二距離D2以下となる。一方、進行路74の奥側に立つ道路標識82の第一距離D1は、第二距離D2よりも長くなる。このため、CPU41は、第二距離D2を基準として、道路標識が進行路74の手前側に存在すか否かを判定できる。   Next, in S8, the CPU 41 stands on the front side of the traveling path 74 after leaving the guidance branch point 72 based on the first distance D1 calculated in S6 and the second distance D2 calculated in S7. It is determined whether a road sign exists. As shown in FIG. 6, the first distance D1 of the road sign 81 standing on the near side of the traveling path 74 is equal to or less than the second distance D2 of the road end Y of the traveling path 74. On the other hand, the first distance D1 of the road sign 82 standing on the far side of the traveling path 74 is longer than the second distance D2. Therefore, the CPU 41 can determine whether or not the road sign exists on the near side of the traveling path 74 with the second distance D2 as a reference.

尚、CPU41は、第一距離D1や第二距離D2以外にも、図6に示す乗員9の頭部の位置Xから進行路74の奥側の道路端までの距離D4や、進行路74の道路幅W1などを用いて、道路標識81、82が進行路74の手前側に立っているか、奥側に立っているかを判定してもよい。例えば、CPU41は、第二距離D2に道路幅W1を加えた距離と、道路標識82の第一距離D1とを比較して、進行路74の手前側に存在するか判定することが可能である。CPU41は、道路幅W1を、地図情報に基づいて検出できる。   In addition to the first distance D <b> 1 and the second distance D <b> 2, the CPU 41 determines the distance D <b> 4 from the position X of the head of the occupant 9 shown in FIG. Using the road width W1 or the like, it may be determined whether the road signs 81 and 82 are standing on the front side or the back side of the traveling path 74. For example, the CPU 41 can compare the distance obtained by adding the road width W <b> 1 to the second distance D <b> 2 and the first distance D <b> 1 of the road sign 82 to determine whether the vehicle is present on the front side of the traveling path 74. . The CPU 41 can detect the road width W1 based on the map information.

そして、案内分岐点72を退出した後の進行路74の手前側に立っている道路標識が存在すると判定された場合(S8:YES)には、S9へと移行する。それに対して、案内分岐点72を退出した後の進行路74の手前側に立っている道路標識が存在しないと判定された場合(S8:NO)には、S3へと移行する。その後、前述したように、HUD4の液晶ディスプレイ6に対して表示する画像として、特に案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する矢印の画像を生成し、液晶ディスプレイ6に対して表示する。尚、矢印の先端は、進行路に沿って進行方向の先端側へと延長される。   If it is determined that there is a road sign standing on the front side of the traveling path 74 after exiting the guidance branch point 72 (S8: YES), the process proceeds to S9. On the other hand, when it is determined that there is no road sign standing on the front side of the traveling path 74 after exiting the guidance branch point 72 (S8: NO), the process proceeds to S3. Thereafter, as described above, as an image to be displayed on the liquid crystal display 6 of the HUD 4, an image of an arrow for guiding the traveling direction of the traveling path on which the vehicle travels after leaving the guidance branch point is generated, and the liquid crystal display 6 is displayed. Note that the tip of the arrow extends along the traveling path toward the tip in the traveling direction.

一方で、S9においてCPU41は、案内分岐点72を退出した後の進行路74の手前側に立っている道路標識(例えば、図6に示す例では道路標識81であり、以下、対象道路標識という)を、案内画像として表示される矢印の虚像10と絡めた表示を行う対象の道路標識として決定する。尚、前記S9で決定された対象道路標識が矢印の虚像10の手前側に設置されていることを明確にする為に、以下の処理が実行される。   On the other hand, in S9, the CPU 41 stands for the road sign standing on the front side of the traveling path 74 after exiting the guidance branch point 72 (for example, the road sign 81 in the example shown in FIG. 6, hereinafter referred to as the target road sign). ) As a target road sign to be displayed in association with the virtual image 10 of the arrow displayed as the guide image. In order to clarify that the target road sign determined in S9 is installed on the front side of the virtual image 10 of the arrow, the following processing is executed.

S10においてCPU41は、フロントウィンドウ8上に映る対象道路標識の位置を算出する。より具体的には、CPU41は、乗員9がフロントウィンドウ8越しに対象道路標識を見た場合、乗員9の対象道路標識を見る視線と、フロントウィンドウ8とが重なる位置を算出する。   In S <b> 10, the CPU 41 calculates the position of the target road sign reflected on the front window 8. More specifically, when the occupant 9 sees the target road sign through the front window 8, the CPU 41 calculates a position where the line of sight of the occupant 9 looking at the target road sign and the front window 8 overlap.

図7は、フロントウィンドウ8上の道路標識81の位置91を示している。位置91は、例えば、道路標識81の上下方向の中央を、乗員9が見た場合の位置とする。
先ずCPU41は、上記した角度θ、乗員の頭部の位置X、及び車両情報に基づいて位置91を算出する。ここでいう乗員の頭部の位置Xとは、例えば、車両2の前後方向、左右方向、上下方向における位置(即ち3次元空間における位置)である。また、車両情報とは、例えば、フロントウィンドウ8の大きさ、配置(運転席との距離)、傾斜角度などの情報であり、データ記録部14に予め保存されている。そして、CPU41は、頭部の位置Xにおいて車両の幅方向に対し角度θで水平方向に延びる直線とフロントウィンドウ8とが重なる位置を、フロントウィンドウ8上の道路標識81の位置91として算出する。
FIG. 7 shows the position 91 of the road sign 81 on the front window 8. The position 91 is, for example, a position when the passenger 9 sees the center in the vertical direction of the road sign 81.
First, the CPU 41 calculates a position 91 based on the angle θ, the position X of the occupant's head, and the vehicle information. The position X of the occupant's head here is, for example, a position in the front-rear direction, the left-right direction, and the up-down direction of the vehicle 2 (ie, a position in a three-dimensional space). The vehicle information is information such as the size, arrangement (distance from the driver's seat), inclination angle, and the like of the front window 8, and is stored in the data recording unit 14 in advance. Then, the CPU 41 calculates, as the position 91 of the road sign 81 on the front window 8, the position where the straight line extending in the horizontal direction at an angle θ with respect to the vehicle width direction and the front window 8 overlap at the position X of the head.

続いてS11においてCPU41は、乗員9が対象道路標識を見た際に案内画像である矢印71の虚像と対象道路標識とが重なる領域を算出し、重なる領域を描画対象から除く非描画領域に設定する。具体的に前記S11ではCPU41は以下の処理を実行する。   Subsequently, in S11, when the occupant 9 views the target road sign, the CPU 41 calculates a region where the virtual image of the arrow 71 that is the guide image overlaps with the target road sign, and sets the overlapping region as a non-drawing region that is excluded from the drawing target. To do. Specifically, in S11, the CPU 41 executes the following processing.

先ずCPU41は、乗員の頭部の位置Xと対象道路標識とを結ぶ直線距離D3に基づき、フロントウィンドウ8に映る対象道路標識の大きさを算出する。次にCPU41は、算出した対象道路標識の大きさと、上記したS10で算出された対象道路標識の位置とに基づいて、乗員9から見えるフロントウィンドウ8に映る対象道路標識の位置や大きさを算出する。更にCPU41は、対象道路標識の位置や大きさと、矢印71の表示する位置や大きさに基づいて、乗員9が対象道路標識を見た際に矢印71の虚像と対象道路標識とが重なる領域を算出する。そして、CPU41は、算出された領域を、矢印71を描画しない非描画領域に設定する。その後、CPU41は、後述のように矢印71の画像をHUD4の液晶ディスプレイ6に表示する際に、設定された非描画領域に矢印71の虚像が表示されないように表示制御する。   First, the CPU 41 calculates the size of the target road sign displayed on the front window 8 based on the straight line distance D3 connecting the position X of the passenger's head and the target road sign. Next, the CPU 41 calculates the position and size of the target road sign displayed on the front window 8 viewed from the occupant 9 based on the calculated size of the target road sign and the position of the target road sign calculated in S10 described above. To do. Further, the CPU 41 determines a region where the virtual image of the arrow 71 and the target road sign overlap when the occupant 9 sees the target road sign based on the position and size of the target road sign and the position and size displayed by the arrow 71. calculate. Then, the CPU 41 sets the calculated area as a non-drawing area where the arrow 71 is not drawn. Thereafter, when the CPU 41 displays the image of the arrow 71 on the liquid crystal display 6 of the HUD 4 as described later, the CPU 41 performs display control so that the virtual image of the arrow 71 is not displayed in the set non-drawing area.

続いてS4においてCPU41は、先ずHUD4の液晶ディスプレイ6に対して表示する画像として、特に案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する矢印の画像を生成する。生成される矢印の画像の形状は、車両の進行方向と案内分岐点の形状によって決定される。尚、液晶ディスプレイ6に表示された画像は、虚像10として車両の乗員からは車両の車両前方の風景に重畳して視認される(図1参照)。   Subsequently, in S4, the CPU 41 first generates, as an image to be displayed on the liquid crystal display 6 of the HUD 4, an arrow image that guides the traveling direction of the traveling path on which the vehicle travels after exiting the guidance branch point. The shape of the generated arrow image is determined by the traveling direction of the vehicle and the shape of the guidance branch point. Note that the image displayed on the liquid crystal display 6 is visually recognized as a virtual image 10 by being superimposed on the scenery in front of the vehicle by the vehicle occupant (see FIG. 1).

更に、前記S4においてCPU41は、生成された矢印の画像の内、前記S11において設定された非描画領域に虚像が表示されないように、該当する領域を欠いた矢印の画像とする。その後、CPU41はHUD4に対して制御信号を送信し、HUD4の液晶ディスプレイ6に対して生成並びに補正された後の矢印の画像を表示する。その結果、対象道路標識と重なる部分について描画対象から除かれた矢印の虚像が表示される。   Further, in S4, the CPU 41 sets an arrow image lacking the corresponding area so that a virtual image is not displayed in the non-drawing area set in S11 among the generated arrow images. Thereafter, the CPU 41 transmits a control signal to the HUD 4 and displays an image of the arrow after being generated and corrected on the liquid crystal display 6 of the HUD 4. As a result, the virtual image of the arrow removed from the drawing target for the portion overlapping the target road sign is displayed.

ここで図8は、非描画領域93を設定した、即ち、非描画領域93に基づく補正を行った矢印71の虚像を表示した状態を示している。図8に示すように、矢印71の虚像は、道路標識81のポール81Aと重なる部分を非描画領域93に補正(設定)されている。従って、矢印71の虚像は、非描画領域93において進行路74の手前側に立つ道路標識81のポール81Aの奥側(後側)を通るように表示される。   Here, FIG. 8 shows a state in which the non-drawing area 93 is set, that is, the virtual image of the arrow 71 corrected based on the non-drawing area 93 is displayed. As shown in FIG. 8, the virtual image of the arrow 71 is corrected (set) in a non-drawing area 93 at a portion overlapping the pole 81 </ b> A of the road sign 81. Accordingly, the virtual image of the arrow 71 is displayed so as to pass through the back side (rear side) of the pole 81 </ b> A of the road sign 81 standing on the front side of the traveling path 74 in the non-drawing area 93.

また、進行路74の奥側の道路標識82に対しては非描画領域を設定しないため、矢印71の虚像は、道路標識82の手前側を通るように上に重なって表示される。これにより、乗員9は、道路標識81、82と矢印71の虚像との前後の位置関係を把握でき、進むべき進行路74を正確に認識できる。CPU41は、案内分岐点を通過するまで継続して矢印71の虚像の表示を行う。そして、案内分岐点を通過した後に終了する。その後は次の案内分岐点が近づいた場合にS1以降の処理を再度実行する。   In addition, since a non-drawing area is not set for the road sign 82 on the far side of the traveling path 74, the virtual image of the arrow 71 is displayed so as to overlap with the front side of the road sign 82. Thereby, the passenger | crew 9 can grasp | ascertain the positional relationship before and behind the road signs 81 and 82 and the virtual image of the arrow 71, and can recognize the advancing path 74 which should advance correctly. The CPU 41 continuously displays the virtual image of the arrow 71 until it passes through the guidance branch point. Then, the process ends after passing through the guidance branch point. Thereafter, when the next guidance branch point approaches, the processes after S1 are executed again.

また、上記した図8に示す例では、道路標識81、82を対象として非描画領域を設定しているが、ガードレール、カーブミラー、建物、防風林などの他の周辺対象物についても同様の処理を実行することができる。例えば、図9に示すように、進行路74の手前側に建物85が立っている場合、CPU41は、矢印71の虚像と建物85とが重なる部分を非描画領域94に設定してもよい。図9に示す例では、矢印71は、その先端部分を建物85の奥側に回り込ませたように表示される。これにより、乗員9は、建物85を目印にして建物85の奥側を通る進行路74を把握でき、曲がる道を誤るような事態の発生が抑制される。   In the example shown in FIG. 8 described above, a non-drawing area is set for the road signs 81 and 82, but the same processing is performed for other peripheral objects such as guardrails, curve mirrors, buildings, and windbreaks. Can be executed. For example, as shown in FIG. 9, when a building 85 stands on the near side of the traveling path 74, the CPU 41 may set a portion where the virtual image of the arrow 71 and the building 85 overlap in the non-drawing area 94. In the example shown in FIG. 9, the arrow 71 is displayed as if the tip portion is turned to the back side of the building 85. Thereby, the passenger | crew 9 can grasp | ascertain the advancing path 74 which passes the back | inner side of the building 85 using the building 85 as a mark, and generation | occurrence | production of the situation which makes a wrong way is suppressed.

以上詳細に説明した通り、第1実施形態に係る重畳画像表示装置1及び重畳画像表示装置1で実行されるコンピュータプログラムによれば、案内分岐点72を左折した後の進行方向を案内する矢印71の虚像は、案内分岐点72の周辺に存在する道路標識81と重なる部分を非描画領域93とする補正が行われる。更に補正後の矢印71の虚像は、道路標識81の位置に非描画領域93の位置を合わせて表示される。その結果、道路標識81の一部(ポール81A)は、非描画領域93において、補正後の矢印71の手前側に位置するように視認される。これにより、乗員9は、道路標識81の位置と、補正後の矢印71の虚像の位置との前後関係を認識することができ、進むべき進行路74を正確に把握できる。   As described above in detail, according to the superimposed image display device 1 and the computer program executed by the superimposed image display device 1 according to the first embodiment, the arrow 71 guides the traveling direction after turning left at the guidance branch point 72. The virtual image is corrected so that a portion overlapping the road sign 81 existing around the guidance branch point 72 is a non-drawing region 93. Furthermore, the corrected virtual image of the arrow 71 is displayed by aligning the position of the non-drawing area 93 with the position of the road sign 81. As a result, a part of the road sign 81 (the pole 81 </ b> A) is visually recognized so as to be positioned in front of the corrected arrow 71 in the non-drawing area 93. Thereby, the occupant 9 can recognize the front-rear relationship between the position of the road sign 81 and the position of the virtual image of the arrow 71 after correction, and can accurately grasp the traveling path 74 to be traveled.

〔第2実施形態〕
次に、第2実施形態に係る重畳画像表示装置について図10乃至図16に基づいて説明する。尚、以下の説明において上記図1乃至図9の第1実施形態に係る重畳画像表示装置1の構成と同一符号は、前記第1実施形態に係る重畳画像表示装置1等の構成と同一あるいは相当部分を示すものである。
[Second Embodiment]
Next, a superimposed image display apparatus according to the second embodiment will be described with reference to FIGS. In the following description, the same reference numerals as those of the superimposed image display device 1 according to the first embodiment in FIGS. 1 to 9 are the same as or equivalent to those of the superimposed image display device 1 according to the first embodiment. The part is shown.

この第2実施形態に係る重畳画像表示装置の概略構成は、第1実施形態に係る重畳画像表示装置1とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る重畳画像表示装置1とほぼ同じ制御処理である。
ただし、第1実施形態に係る重畳画像表示装置1が、車両と周辺対象物との位置関係に基づいて非描画領域を算出し、算出した非描画領域から表示する案内画像の形状を決定しているのに対して、第2実施形態に係る重畳画像表示装置は、3次元地図情報34に対して案内画像のモデルを置くことによって表示する案内画像の形状を決定する点で第1実施形態に係る重畳画像表示装置1と異なっている。
The schematic configuration of the superimposed image display apparatus according to the second embodiment is substantially the same as that of the superimposed image display apparatus 1 according to the first embodiment. Various control processes are substantially the same control processes as those of the superimposed image display apparatus 1 according to the first embodiment.
However, the superimposed image display device 1 according to the first embodiment calculates a non-drawing area based on the positional relationship between the vehicle and the peripheral object, and determines the shape of the guide image to be displayed from the calculated non-drawing area. In contrast, the superimposed image display apparatus according to the second embodiment is different from the first embodiment in that the shape of the guide image to be displayed is determined by placing a model of the guide image on the three-dimensional map information 34. This is different from the superimposed image display device 1.

以下に、第2実施形態に係る重畳画像表示装置において実行される走行支援処理プログラムについて図10に基づき説明する。図10は第2実施形態に係る走行支援処理プログラムのフローチャートである。   Hereinafter, a driving support processing program executed in the superimposed image display apparatus according to the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart of the driving support processing program according to the second embodiment.

先ず、S21においてCPU41は、車両2の進行方向前方の所定距離(例えば700m)以内に案内分岐点が存在するか否かを判定する。詳細は前記S1と同様であるので省略する。   First, in S21, the CPU 41 determines whether or not a guidance branch point exists within a predetermined distance (for example, 700 m) ahead of the traveling direction of the vehicle 2. The details are the same as in S1, and will be omitted.

そして、車両2の進行方向前方の所定距離に案内分岐点が存在すると判定された場合(S21:YES)には、S22へと移行する。それに対して、車両2の進行方向前方の所定距離に案内分岐点が存在しないと判定された場合(S21:NO)には、案内分岐点が存在すると判定されるまで待機する。この場合、CPU41は、例えば予め設定された時間だけ間を空けてS21の処理を繰り返し実行する。   And when it determines with a guidance branch point existing in the predetermined distance ahead of the advancing direction of the vehicle 2 (S21: YES), it transfers to S22. On the other hand, when it is determined that there is no guidance branch point at a predetermined distance ahead in the traveling direction of the vehicle 2 (S21: NO), the system waits until it is determined that a guidance branch point exists. In this case, for example, the CPU 41 repeatedly executes the process of S21 with a predetermined time interval.

S22においてCPU41は、フロントカメラ11によって車両前方の風景を撮像した撮像画像を取得する。更に、CPU41は、地図情報DB31から車両の現在位置周辺の3次元地図情報34を読み出す。尚、3次元地図情報34には、3次元で地図を表現する為に必要な情報(道路の輪郭、建築物の形状、道路の区画線、信号機、道路標識、看板等の3次元の座標データなど)が記憶される。   In S <b> 22, the CPU 41 obtains a captured image obtained by capturing a landscape in front of the vehicle with the front camera 11. Further, the CPU 41 reads out the three-dimensional map information 34 around the current position of the vehicle from the map information DB 31. The three-dimensional map information 34 includes information necessary for representing the map in three dimensions (three-dimensional coordinate data such as road contours, building shapes, road markings, traffic lights, road signs, signboards, etc. Etc.) are stored.

次に、S23においてCPU41は、前記S22で読み出した3次元地図情報34に基づいて、案内分岐点付近を示す3次元立体地図(3次元で建物や道路等を表現した地図)を生成する。具体的には、以下の処理を実行することにより3次元立体地図を生成する。   Next, in S23, the CPU 41 generates a three-dimensional three-dimensional map (a map representing buildings, roads, and the like in three dimensions) based on the three-dimensional map information 34 read out in S22. Specifically, a three-dimensional solid map is generated by executing the following processing.

先ず、CPU41は、3次元地図情報34から3次元空間上に道路、建築物、道路標識、看板等をモデリングしたオブジェクト(形状データ)を取得する。尚、CPU41は、予めモデリングしてDBに格納しておいたオブジェクトの内、該当するオブジェクトを取得する構成としても良いし、S23においてモデリングを実施してオブジェクトを新たに作成する構成としても良い。モデリングを実施する場合には、3次元地図情報34から道路や案内分岐点周辺にある構造物(建築物、道路標識、看板等)の形状や位置を特定する情報を取得し、取得した情報に基づいてモデリング処理を行う。   First, the CPU 41 acquires an object (shape data) modeling a road, a building, a road sign, a signboard, and the like in a three-dimensional space from the three-dimensional map information 34. Note that the CPU 41 may be configured to acquire a corresponding object from among objects that have been modeled in advance and stored in the DB, or may be configured to create a new object by performing modeling in S23. When modeling is performed, information for identifying the shape and position of a structure (a building, a road sign, a signboard, etc.) around a road or a guidance branch point is acquired from the three-dimensional map information 34, and the acquired information Based on the modeling process.

ここで、モデリングとは3次元空間上においてモデル(物体)の形状を作成する処理であり、より具体的には各頂点の座標の決定や、境界線、面を表現する方程式のパラメータの決定などを行う。尚、モデリングについては公知の技術であるので詳細は省略する。そして、モデリングされたオブジェクト(形状データ)は、用途に応じて辺のみ表示する「ワイヤーフレームモデル」、面を表示する「サーフィスモデル」等の形で表現される。そして各オブジェクトが形成された3次元空間を3次元立体地図とする。   Here, modeling is a process for creating the shape of a model (object) in a three-dimensional space. More specifically, determination of coordinates of each vertex, determination of parameters of an equation expressing a boundary line and a surface, etc. I do. Since modeling is a known technique, details are omitted. Then, the modeled object (shape data) is expressed in a form such as a “wire frame model” that displays only the sides and a “surface model” that displays a surface according to the application. A three-dimensional space in which each object is formed is defined as a three-dimensional solid map.

また、前記S23でCPU41は、現在位置検出部13で検出されたパラメータに基づいて、生成された3次元立体地図における自車両の現在位置及び方位についても特定する。尚、後述の3次元立体地図と撮像画像との照合の処理を容易化する為に、自車両の現在位置は特に自車両に設置されたフロントカメラ11の設置位置とし、自車両の方位はフロントカメラ11の光軸方向とするのが望ましい。   In S23, the CPU 41 also specifies the current position and direction of the host vehicle in the generated three-dimensional 3D map based on the parameters detected by the current position detection unit 13. In order to facilitate the process of collating a 3D solid map and a captured image, which will be described later, the current position of the host vehicle is the installation position of the front camera 11 installed in the host vehicle, and the direction of the host vehicle is the front position. The direction of the optical axis of the camera 11 is desirable.

ここで、図11は前記S23で生成される3次元立体地図101の一例を示した図である。図11に示すように3次元立体地図101には、3次元空間に対して、道路や構造物(建築物、道路標識、看板等)を示す各オブジェクト102が配置される。特に車両の進行方向前方にある案内分岐点103周辺の道路や構造物を示す各オブジェクト102が配置される。また、3次元立体地図101には自車両の現在位置と方位を示す自車位置マーク104についても配置される。   Here, FIG. 11 is a diagram showing an example of the three-dimensional map 101 generated in S23. As shown in FIG. 11, each object 102 indicating a road or a structure (a building, a road sign, a signboard, etc.) is arranged in the three-dimensional space on the three-dimensional three-dimensional map 101. In particular, each object 102 indicating a road or a structure around the guidance branch point 103 ahead of the traveling direction of the vehicle is arranged. In addition, an own vehicle position mark 104 indicating the current position and direction of the own vehicle is also arranged on the three-dimensional three-dimensional map 101.

続いてS24においてCPU41は、前記S22で取得した撮像画像と前記S23で生成された3次元立体地図とを照合し、両者の間にズレが生じていないかを判定する。具体的にはCPU41は、3次元立体地図に設定されている自車両の現在位置(より具体的にはフロントカメラ11の設置位置であり高さも考慮する)を視点とし、自車両の方位を視線方向に設定し、設定された視点及び視線方向によって3次元立体地図を視認した際の像と、撮像画像とを照合する。尚、3次元立体地図には、歩行者や他車両等の動体物、樹木などの一部の固定物については含まれないので、それらに起因するズレは基本的には無視して判定する。また、ズレが生じていないとは両者が完全に一致する場合のみに限らず、ある程度の許容範囲内のズレが生じている場合においてもズレが生じていないとみなすのが望ましい。   Subsequently, in S24, the CPU 41 collates the captured image acquired in S22 with the three-dimensional solid map generated in S23, and determines whether or not there is a deviation between them. Specifically, the CPU 41 uses the current position of the host vehicle set in the three-dimensional three-dimensional map (more specifically, the installation position of the front camera 11 and also considers the height) as a viewpoint, and the direction of the host vehicle is viewed. The direction is set, and an image when the three-dimensional stereoscopic map is viewed with the set viewpoint and line-of-sight direction is collated with the captured image. The three-dimensional solid map does not include moving objects such as pedestrians and other vehicles, and some fixed objects such as trees. Therefore, the deviation caused by them is basically ignored and determined. Further, the fact that no deviation occurs is not limited to the case where the two are completely coincident with each other, and it is desirable that no deviation occurs even when there is a deviation within a certain allowable range.

そして、前記S22で取得した撮像画像と前記S23で生成された3次元立体地図との間にズレが生じていないと判定された場合(S24:YES)には、S26へと移行する。それに対して、前記S22で取得した撮像画像と前記S23で生成された3次元立体地図との間にズレが生じていると判定された場合(S24:NO)には、S25へと移行する。   If it is determined that there is no deviation between the captured image acquired in S22 and the three-dimensional three-dimensional map generated in S23 (S24: YES), the process proceeds to S26. On the other hand, when it is determined that there is a deviation between the captured image acquired in S22 and the three-dimensional solid map generated in S23 (S24: NO), the process proceeds to S25.

S25においてCPU41は、前記S23で生成された3次元立体地図について、前記S22で取得した撮像画像と間のズレが小さくなるように3次元立体地図内に設定された自車両の現在位置及び方位を補正する。尚、3次元立体地図における自車両の現在位置及び方位は固定してオブジェクト側を補正しても良い。それによって、3次元立体地図内における正確な自車両の現在位置及び方位(より具体的にはフロントカメラ11の設置位置と光軸方向)を特定することが可能となる。その後、S24へと戻る。   In S25, the CPU 41 determines the current position and direction of the host vehicle set in the 3D map so that the gap between the captured image acquired in S22 and the 3D map generated in S23 is small. to correct. Note that the current position and direction of the host vehicle in the three-dimensional three-dimensional map may be fixed and the object side may be corrected. Accordingly, it is possible to specify an accurate current position and direction (more specifically, an installation position and an optical axis direction of the front camera 11) of the own vehicle in the three-dimensional stereoscopic map. Thereafter, the process returns to S24.

一方、S26においてCPU41は、案内分岐点での案内を行う案内画像を、前記S23で生成された3次元立体地図に対して配置する。尚、第2実施形態では案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する矢印の画像を、案内画像とする。そして、案内分岐点を退出した後に車両が進行する進行路(例えば案内分岐点で左折する場合には、案内分岐点の左側に接続される道路)の路面に対して所定距離(例えば1m)上方に離間した位置に鉛直方向に立てた状態で案内画像を配置する。   On the other hand, in S26, the CPU 41 places a guidance image for guidance at the guidance branch point on the three-dimensional stereoscopic map generated in S23. In the second embodiment, an image of an arrow that guides the traveling direction of the traveling path in which the vehicle travels after leaving the guidance branch point is referred to as a guidance image. Then, a predetermined distance (for example, 1 m) above the road surface on which the vehicle travels after leaving the guidance branch point (for example, when turning left at the guidance branch point, the road connected to the left side of the guidance branch point) A guide image is arranged in a state of being vertically arranged at a position separated from each other.

次に、S27においてCPU41は、案内分岐点の周辺に位置する動体物(移動いている物体)を検出する。尚、検出対象となる動体物は例えば歩行者、自転車、車両であり、フロントカメラ11で撮像した撮像画像に対して画像処理を行うことにより検出される。また、CPU41は、撮像画像に基づいて検出された動体物の位置、種類、形状、その後の進行路(進行方向)についても特定する。   Next, in S27, the CPU 41 detects a moving object (moving object) located around the guidance branch point. The moving objects to be detected are, for example, pedestrians, bicycles, and vehicles, and are detected by performing image processing on the captured image captured by the front camera 11. The CPU 41 also specifies the position, type, and shape of the moving object detected based on the captured image and the subsequent traveling path (traveling direction).

続いて、S28においてCPU41は、案内分岐点の周辺で検出された動体物のモデル(仮想体)を、前記S23で生成された3次元立体地図に対して検出された位置に配置する。複数の動体物が検出された場合には、検出された全ての動体物を3次元立体地図に対して配置する。尚、3次元立体地図に対して配置される仮想体は実際の動体物の形状を模した形状とする。例えば歩行者であれば人の形状を有する仮想体として、車両であれば車両の形状を有する仮想体とする。サイズについても実際の動体物のサイズと対応させる。但し、動体物が不定形である(形状や種類を特定できない)場合には、例外的に仮想体は該動体物の全てを含む最小の直方体とする。   Subsequently, in S28, the CPU 41 arranges the moving object model (virtual object) detected around the guidance branch point at the position detected with respect to the three-dimensional solid map generated in S23. When a plurality of moving objects are detected, all the detected moving objects are arranged on the three-dimensional solid map. Note that the virtual body arranged with respect to the three-dimensional solid map has a shape imitating the shape of an actual moving object. For example, if it is a pedestrian, it will be set as the virtual body which has the shape of a person, and if it is a vehicle, it will be set as the virtual body which has the shape of a vehicle. The size is also made to correspond to the size of the actual moving object. However, if the moving object is indefinite (the shape and type cannot be specified), the virtual object is exceptionally the smallest rectangular parallelepiped including all of the moving objects.

ここで、図12は3次元立体地図101に対して案内画像105と動体物の仮想体106、107をそれぞれ配置した図である。尚、図12に示す例では仮想体106は歩行者を示し、仮想体106は自転車を示している。即ち、案内分岐点103の周辺には動体物として歩行者と自転車がそれぞれ存在することを示している。   Here, FIG. 12 is a diagram in which a guide image 105 and virtual bodies 106 and 107 of moving objects are respectively arranged on the three-dimensional three-dimensional map 101. In the example shown in FIG. 12, the virtual body 106 indicates a pedestrian and the virtual body 106 indicates a bicycle. That is, it is shown that a pedestrian and a bicycle exist as moving objects around the guidance branch point 103, respectively.

その後、S29においてCPU41は、3次元立体地図に対して仮想体が配置されている動体物の内、“自車両が進行路に沿って進行する場合に影響のある動体物”があるか否かを判定する。具体的には、車両の進行路と今後の進行路が重複する動体物については、“自車両が進行路に沿って進行する場合に影響のある動体物”であると判定する。   Thereafter, in S29, the CPU 41 determines whether or not there is a “moving object having an influence when the host vehicle travels along the traveling path” among the moving objects in which the virtual object is arranged with respect to the three-dimensional three-dimensional map. Determine. Specifically, a moving object in which the traveling path of the vehicle overlaps with a future traveling path is determined as a “moving object having an influence when the host vehicle travels along the traveling path”.

例えば、図13に示すように仮想体106でモデリングされた歩行者の進行路(進行方向)が、案内分岐点の左側に接続する道路を横断する進行路である場合には、歩行者の今後の進行路と自車両の進行路108とが重複することとなる。従って、仮想体106でモデリングされた歩行者は、“自車両が進行路に沿って進行する場合に影響のある動体物”であると判定される。一方で、仮想体107でモデリングされた自転車の進行路(進行方向)は、案内分岐点の左側に接続する道路を横断せずに案内分岐点103から離れる方向へと移動する進行路であるので、自転車の今後の進行路と自車両の進行路108とは重複しない。従って、仮想体107でモデリングされた自転車は、“自車両が進行路に沿って進行する場合に影響のある動体物”でないと判定される。   For example, as shown in FIG. 13, when the pedestrian travel path (travel direction) modeled by the virtual body 106 is a travel path crossing a road connected to the left side of the guidance branch point, the future of the pedestrian And the traveling path 108 of the host vehicle overlap. Therefore, it is determined that the pedestrian modeled by the virtual body 106 is “a moving object having an influence when the host vehicle travels along the traveling path”. On the other hand, the traveling path (traveling direction) of the bicycle modeled by the virtual body 107 is a traveling path that moves in a direction away from the guide branch point 103 without crossing the road connected to the left side of the guide branch point. The future traveling path of the bicycle and the traveling path 108 of the own vehicle do not overlap. Therefore, it is determined that the bicycle modeled by the virtual body 107 is not a “moving object having an influence when the host vehicle travels along the traveling path”.

そして、3次元立体地図に対して仮想体が配置されている動体物の内、“自車両が進行路に沿って進行する場合に影響のある動体物”があると判定された場合(S29:YES)には、S30へと移行する。一方で、3次元立体地図に対して仮想体が配置されている動体物が、いずれも“自車両が進行路に沿って進行する場合に影響のある動体物”ではないと判定された場合(S29:NO)には、S31へと移行する。   Then, when it is determined that there is a “moving object having an influence when the host vehicle travels along the traveling path” among the moving objects on which the virtual object is arranged with respect to the three-dimensional stereoscopic map (S29: YES), the process proceeds to S30. On the other hand, when it is determined that none of the moving objects on which the virtual body is arranged with respect to the three-dimensional three-dimensional map are “moving objects having an influence when the host vehicle travels along the traveling path” ( In S29: NO), the process proceeds to S31.

S30においてCPU41は、車両が進行路に沿って進行する場合に影響があると判定された動体物(以下、影響動体物という)と重ならない態様で案内画像を表示する為に、3次元立体地図に配置された案内画像の補正を行う。具体的には、先ずCPU41は動体物や案内画像が配置された3次元立体地図を、車両(乗員)の視点から車両の進行方向に視認した画像(以下、視認画像という)を取得する。特に車両の視点は車両の乗員の目の位置とする。尚、乗員の目の位置については車内カメラ12によって検出することが可能であり、前記S24での撮像画像と3次元立体地図の照合の結果、最終的に特定された車両の現在位置及び方位と、車内カメラ12の検出結果を組み合わせることによって、3次元立体地図における乗員の目の位置を特定する。そして、視認画像は、3次元立体地図に配置された各オブジェクト(道路、建築物、道路標識、看板、動体物の仮想体、案内画像等)を車両(乗員)の視点から車両の進行方向に視認した際に視認できる像であり、車両の乗員の視界に相当する。但し、視認画像については車両(乗員)の視点から視認した画像であれば、必ずしも車両の進行方向に視認した画像である必要は無い。但し、少なくとも視認画像に案内画像が含まれる必要はある。そして、上記のように取得された視認画像において図12に示すように影響動体物の仮想体106と案内画像が重複している場合に、以下の(1)、(2)のいずれかの補正を行う。   In S30, the CPU 41 displays a guidance image in a manner that does not overlap with a moving object that is determined to have an influence when the vehicle travels along the traveling path (hereinafter referred to as an influence moving object). The guide image arranged in is corrected. Specifically, the CPU 41 first acquires an image (hereinafter referred to as a visual image) obtained by visually recognizing a three-dimensional three-dimensional map in which moving objects and guide images are arranged from the viewpoint of the vehicle (occupant). In particular, the viewpoint of the vehicle is the eye position of the vehicle occupant. The position of the occupant's eyes can be detected by the in-vehicle camera 12. As a result of the comparison between the captured image and the three-dimensional stereoscopic map in S24, The position of the occupant's eyes in the three-dimensional stereoscopic map is specified by combining the detection results of the in-vehicle camera 12. The visual image shows each object (a road, a building, a road sign, a signboard, a virtual body of a moving object, a guidance image, etc.) arranged on the three-dimensional solid map from the viewpoint of the vehicle (occupant) in the traveling direction of the vehicle. It is an image that can be seen when viewed, and corresponds to the field of view of the vehicle occupant. However, as long as the visually recognized image is an image visually recognized from the viewpoint of the vehicle (occupant), the image is not necessarily visually recognized in the traveling direction of the vehicle. However, at least the guidance image needs to be included in the visually recognized image. Then, when the virtual image 106 of the influence moving object and the guide image overlap as shown in FIG. 12 in the visually recognized image acquired as described above, any one of the following corrections (1) and (2) I do.

(1)影響動体物と重なる領域に虚像が表示されないように、3次元立体地図に配置された案内画像を、影響動体物の仮想体と重なる領域を欠いた案内画像へと補正する。例えば、図15に示すように視認画像において案内画像105と影響動体物の仮想体106とが重なる領域を欠いた矢印とする。但し、特に矢印の先端において影響動体物の仮想体106と重なる場合については、矢印の先端を伸ばす或いは縮めることにより矢印の先端については表示する。
(2)影響動体物と重なる領域に虚像が表示されないように、3次元立体地図に配置された案内画像を、影響動体物の仮想体を迂回する形状の案内画像へと補正する。例えば、図16に示すように視認画像において案内画像105を影響動体物の仮想体106と重ならないように湾曲した矢印とする。
(1) The guide image arranged on the three-dimensional stereoscopic map is corrected to a guide image that lacks the area overlapping the virtual body of the affected moving object so that the virtual image is not displayed in the area overlapping the affected moving object. For example, as shown in FIG. 15, it is assumed that an arrow lacks a region where the guide image 105 and the virtual object 106 of the affected moving object overlap in the visually recognized image. However, particularly in the case where the tip of the arrow overlaps the virtual object 106 of the affected moving object, the tip of the arrow is displayed by extending or contracting the tip of the arrow.
(2) The guide image arranged on the three-dimensional map is corrected to a guide image having a shape that bypasses the virtual body of the affected moving object so that the virtual image is not displayed in the region overlapping with the affected moving object. For example, as shown in FIG. 16, the guide image 105 is a curved arrow so as not to overlap the virtual body 106 of the affected moving object in the visually recognized image.

尚、第2実施形態では特に自車両の進行路の奥側(即ち案内画像105よりも奥側)に位置する影響対象物のみを対象として上記S30の処理を行う。自車両の進行路の手前側(即ち案内画像105よりも手前側)に位置する影響対象物については、S30の補正を行わなかったとしても後述のS31の処理において案内画像の形状を決定する際に、影響対象物と重複する部分は除かれた案内画像となるからである。   Note that, in the second embodiment, the process of S30 is performed only for an affected object located on the far side of the traveling path of the own vehicle (that is, the far side of the guide image 105). When the object to be affected is located on the front side of the traveling path of the host vehicle (that is, on the front side of the guide image 105), even when the correction of S30 is not performed, the shape of the guide image is determined in the process of S31 described later. In addition, this is because the portion overlapping with the influence target object is a guide image that is removed.

次に、S31においてCPU41は、視認画像に含まれる案内画像の形状(前記S30の補正を行った場合には補正後の形状)を、HUD4により表示対象とする案内画像の形状として記憶する。尚、視認画像に含まれる案内画像の形状は、3次元立体地図に配置された各オブジェクト(道路、建築物、道路標識、看板、動体物の仮想体、案内画像等)を車両(乗員)の視点から視認した際に視認できる案内画像の形状である。ここで、前記S31で記憶される案内画像の形状は、進行路の手前側に位置する各オブジェクト(例えば道路標識、建築物、前記S28で配置された動体物の仮想体など)と重なって視認される場合には、重なる部分を除いた形状となる。例えば案内画像の形状が矢印の形状であれば、矢印の内、各オブジェクトと重なって視認される領域について除かれた形状となる。但し、特に矢印の先端においてオブジェクトと重なる場合については、矢印の先端を伸ばす或いは縮めることによって矢印の先端がオブジェクトと重ならないようにし、少なくとも矢印の先端については含む形状とする。一方で、案内画像が進行路の奥側に位置する各オブジェクトと重なって視認される場合には、重なる部分についても含む形状となる。   Next, in S31, the CPU 41 stores the shape of the guide image included in the visually recognized image (the corrected shape when the correction of S30 is performed) as the shape of the guide image to be displayed by the HUD 4. It should be noted that the shape of the guide image included in the visually recognized image is that each object (road, building, road sign, signboard, virtual object of moving object, guide image, etc.) arranged on the three-dimensional solid map is the vehicle (occupant). It is the shape of the guidance image which can be visually recognized when visually recognized from a viewpoint. Here, the shape of the guide image stored in S31 is visually recognized by overlapping with each object (for example, a road sign, a building, or a moving object virtual body arranged in S28) located on the near side of the traveling path. In this case, the shape excluding the overlapping portion is obtained. For example, if the shape of the guide image is the shape of an arrow, the shape of the arrow is removed from the region that overlaps with each object. However, in particular, in the case of overlapping the object at the tip of the arrow, the tip of the arrow is not overlapped with the object by extending or contracting the arrow, and at least the tip of the arrow is included. On the other hand, when the guidance image is visually recognized overlapping with each object located on the far side of the traveling path, the shape includes the overlapping portion.

更に、S32においてCPU41は、3次元立体地図において配置された案内画像の位置を取得する。具体的には案内分岐点を退出した後に車両が進行する進行路の路面に対して所定距離(例えば1m)上方に離間した位置となる。   Furthermore, in S32, the CPU 41 obtains the position of the guide image arranged on the three-dimensional solid map. More specifically, the position is a predetermined distance (for example, 1 m) away from the road surface of the traveling path on which the vehicle travels after leaving the guidance branch point.

その後、S33においてCPU41は、後述の表示範囲決定処理を行う。表示範囲決定処理では、HUD4において案内画像を表示する範囲(フロントウィンドウ8に対して案内画像を投影する範囲、或いはHUD4の液晶ディスプレイ6に対して案内画像を表示する範囲)を決定する。   Thereafter, in S33, the CPU 41 performs a display range determination process described later. In the display range determination process, a range for displaying the guidance image on the HUD 4 (a range for projecting the guidance image on the front window 8 or a range for displaying the guidance image on the liquid crystal display 6 of the HUD 4) is determined.

続いて、S34においてCPU41は、HUD4に対して制御信号を送信し、HUD4の液晶ディスプレイ6に対して前記S21で記憶された形状の案内画像を、前記S33で決定された表示範囲に表示する。その結果、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像として特に矢印の虚像が、車両の乗員から車両前方の風景に重畳して視認される。   Subsequently, in S34, the CPU 41 transmits a control signal to the HUD 4, and displays the guide image having the shape stored in S21 on the liquid crystal display 6 of the HUD 4 in the display range determined in S33. As a result, in particular, a virtual image of an arrow is visually recognized as a guidance image for guiding the traveling direction of the traveling path on which the vehicle travels after leaving the guidance branch point, superimposed on the scenery in front of the vehicle from the vehicle occupant.

ここで、図16は特に案内分岐点を退出した後の車両が進行する進行路の進行方向が左方向(即ち左折)である場合に、車両の乗員から視認される案内画像の虚像を示した図である。
図16に示すように、車両のフロントウィンドウ8越しには、案内分岐点103を左折した後の進行路の路面に対して上方に離間した位置に重畳して、左方へ進むことを示す矢印の案内画像105が虚像として表示されている。また、案内画像105の虚像は、進行路の手前側に位置する周辺対象物である道路標識112と重なる領域については除いて表示される。従って、案内画像105は、道路標識112の奥側(後側)を通るように視認される。一方、進行路の奥側に立つ道路標識113に対しては重なって表示される。従って、案内画像105は、道路標識113の手前側を通るように視認される。その結果、乗員9は、道路標識112、113の位置と、案内画像105の虚像の位置との前後関係を認識することができ、進むべき進行路を正確に把握できる。尚、図16に示す例では特に案内画像105の虚像と重なる周辺対象物が道路標識の場合であるが、建築物や動体物(歩行者や他車両)の場合についても同様にして表示される。
更に、前述したように案内分岐点103の周辺に影響動体物110がある場合については、影響動体物110と重なる領域に虚像が表示されないように、該当する領域を欠いた、或いは影響動体物110を迂回する形状の案内画像105となる。その結果、乗員9は、案内画像105によって影響動体物110の視認性が阻害されることなく、影響動体物110について確実に視認することが可能となる。
Here, FIG. 16 shows a virtual image of the guidance image visually recognized by the vehicle occupant especially when the traveling direction of the traveling path of the vehicle after leaving the guidance branch point is the left direction (that is, left turn). FIG.
As shown in FIG. 16, over the front window 8 of the vehicle, an arrow indicating that the guidance branch point 103 is superimposed on a position spaced upward from the road surface of the traveling path after making a left turn, and moves to the left. The guide image 105 is displayed as a virtual image. Further, the virtual image of the guide image 105 is displayed except for a region overlapping the road sign 112 that is a peripheral object located on the near side of the traveling path. Therefore, the guide image 105 is visually recognized so as to pass through the back side (rear side) of the road sign 112. On the other hand, the road sign 113 standing on the back side of the traveling path is displayed overlapping. Therefore, the guidance image 105 is visually recognized so as to pass through the front side of the road sign 113. As a result, the occupant 9 can recognize the front-rear relationship between the positions of the road signs 112 and 113 and the position of the virtual image of the guide image 105, and can accurately grasp the traveling path to be traveled. In the example shown in FIG. 16, the surrounding object that overlaps the virtual image of the guide image 105 is a road sign, but the same applies to the case of a building or a moving object (pedestrian or other vehicle). .
Further, as described above, in the case where the influence moving object 110 exists around the guidance branch point 103, the corresponding area is missing or the influence moving object 110 is not displayed so that a virtual image is not displayed in the area overlapping the influence moving object 110. The guide image 105 has a shape that circumvents. As a result, the occupant 9 can surely visually recognize the affected moving object 110 without the visibility of the affected moving object 110 being hindered by the guide image 105.

次に、前記S33において実行される表示範囲決定処理のサブ処理について図17に基づき説明する。図17は表示範囲決定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the display range determination process executed in S33 will be described with reference to FIG. FIG. 17 is a flowchart of a sub-processing program for display range determination processing.

先ず、S41においてCPU41は、車両の乗員の目の位置を車内カメラ12で撮像した撮像画像に基づいて検出する。尚、検出された目の位置は3次元の位置座標で特定される。   First, in S <b> 41, the CPU 41 detects the position of the passenger's eyes of the vehicle based on the captured image captured by the in-vehicle camera 12. The detected eye position is specified by three-dimensional position coordinates.

次に、S42においてCPU41は、HUD4の表示がONになっているか否かを判定する。尚、HUD4の表示のON又はOFFの切り替えは車両の乗員の操作によって行うことが可能である。また、周辺状況や車両の状態に基づいてON又はOFFを自動で切り替えても良い。   Next, in S42, the CPU 41 determines whether or not the display of the HUD 4 is ON. It should be noted that the display of HUD 4 can be switched ON or OFF by the operation of the vehicle occupant. Further, ON or OFF may be automatically switched based on the surrounding situation or the state of the vehicle.

そして、HUD4の表示がONになっていると判定された場合(S42:YES)には、S43へと移行する。一方、HUD4の表示がOFFになっていると判定された場合(S42:NO)には、HUD4による案内画像の虚像の表示を行うことなく終了する。   And when it determines with the display of HUD4 being ON (S42: YES), it transfers to S43. On the other hand, when it is determined that the display of the HUD 4 is OFF (S42: NO), the process ends without displaying a virtual image of the guidance image by the HUD 4.

S43においてCPU41は、HUD4によって画像を投影する対象となるフロントウィンドウ8の位置座標を取得する。尚、フロントウィンドウ8の位置座標は3次元の位置座標で特定される。   In S <b> 43, the CPU 41 acquires the position coordinates of the front window 8 that is a target for projecting an image by the HUD 4. The position coordinates of the front window 8 are specified by three-dimensional position coordinates.

次に、S44においてCPU41は、前記S32で取得された3次元立体地図において配置された案内画像の位置を特定する座標を、案内画像の位置座標として取得する。尚、案内画像の位置座標は同じく3次元の位置座標で特定される。   Next, in S <b> 44, the CPU 41 acquires coordinates specifying the position of the guide image arranged in the three-dimensional solid map acquired in S <b> 32 as the position coordinates of the guide image. The position coordinates of the guide image are similarly specified by three-dimensional position coordinates.

続いて、S45においてCPU41は、前記S41、S43及びS44で取得された各位置座標に基づいて、フロントウィンドウ8における案内画像の投影範囲を決定する。更に、決定された投影範囲からHUD4の内部の液晶ディスプレイ6における案内画像の表示範囲についても決定する。その後、S34へと移行し、決定された投影範囲や表示範囲に基づいてHUD4を用いた虚像の表示を行う。尚、HUDの表示がオフになるまで繰り返しS31〜S34の処理を行うこととなる。   Subsequently, in S45, the CPU 41 determines the projection range of the guide image on the front window 8 based on the position coordinates acquired in S41, S43, and S44. Furthermore, the display range of the guide image on the liquid crystal display 6 inside the HUD 4 is also determined from the determined projection range. Thereafter, the process proceeds to S34, and a virtual image is displayed using the HUD 4 based on the determined projection range and display range. Note that the processes of S31 to S34 are repeatedly performed until the display of the HUD is turned off.

以上詳細に説明した通り、第2実施形態に係る重畳画像表示装置及び重畳画像表示装置で実行されるコンピュータプログラムによれば、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像を、車両前方の風景に重畳して視認させる場合に、車両が進行する進行路の手前側に存在する周辺対象物と重なる領域を案内画像から除いて表示する(S31〜S34)ので、実景に含まれる周辺対象物(例えば建物、歩行者、車両、街路樹等)の位置と、案内画像の位置との前後関係を車両の乗員は明確に把握することが可能となる。その結果、進むべき進行路を正確に車両の乗員に通知可能となる。   As described above in detail, according to the superimposed image display device and the computer program executed by the superimposed image display device according to the second embodiment, the traveling direction of the traveling path along which the vehicle travels after leaving the guidance branch point is determined. When the guidance image to be guided is visually recognized superimposed on the scenery in front of the vehicle, an area overlapping with a peripheral object existing on the front side of the traveling path where the vehicle travels is excluded from the guidance image and displayed (S31 to S34). Therefore, it is possible for the vehicle occupant to clearly understand the front-rear relationship between the positions of the peripheral objects (for example, buildings, pedestrians, vehicles, roadside trees, etc.) included in the actual scene and the positions of the guide images. As a result, it is possible to accurately notify the vehicle occupant of the traveling path to be followed.

尚、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、上記第1実施形態及び第2実施形態では、案内分岐点として十字路である案内分岐点72を例に説明したが、これに限らない。例えば、図18に示すように走行路73が2つに分岐する分岐点76でもよい。この場合、矢印71の虚像は、図18に示すように、例えば、分岐点76を退出した後の進行路74に沿って左斜め前方へと延長した虚像となる。また、矢印71は、進行路74の手前側の道路標識81と重なる部分を非描画領域95に設定される。また、矢印71は、進行路74の奥側に存在する道路標識82の手前側に重なって表示される。このような場合にも、上記実施形態と同様に、乗員9に進むべき進行路74を正確に把握させることができる。
また、上記実施形態では特に言及していないが、本願発明は、左側通行だけでなく、右側通行の場合にも同様に適用できる。
In addition, this invention is not limited to the said embodiment, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention.
For example, in the first embodiment and the second embodiment described above, the guide branch point 72 that is a crossroad is described as an example of the guide branch point, but the present invention is not limited to this. For example, as shown in FIG. 18, it may be a branch point 76 where the traveling path 73 branches into two. In this case, as shown in FIG. 18, the virtual image of the arrow 71 is, for example, a virtual image extending obliquely leftward along the traveling path 74 after leaving the branch point 76. In addition, the arrow 71 is set in a non-drawing area 95 at a portion overlapping the road sign 81 on the near side of the traveling path 74. Further, the arrow 71 is displayed so as to overlap the front side of the road sign 82 existing on the far side of the traveling path 74. Even in such a case, the traveling path 74 to be advanced to the occupant 9 can be accurately grasped as in the above embodiment.
Although not particularly mentioned in the above embodiment, the present invention can be applied not only to left-hand traffic but also to right-hand traffic.

また、第1実施形態及び第2実施形態では、HUD4によって車両2のフロントウィンドウ8の前方に虚像を生成する構成としているが、フロントウィンドウ8以外のウィンドウの前方に虚像を生成する構成としても良い。また、HUD4により映像を反射させる対象はフロントウィンドウ8自身ではなくフロントウィンドウ8の周辺に設置されたバイザー(コンバイナー)であっても良い。   In the first and second embodiments, the virtual image is generated in front of the front window 8 of the vehicle 2 by the HUD 4. However, the virtual image may be generated in front of a window other than the front window 8. . In addition, the object to be reflected by the HUD 4 may be a visor (combiner) installed around the front window 8 instead of the front window 8 itself.

また、第1実施形態及び第2実施形態では、周辺環境に重畳する画像を表示する手段としてHUD4を用いているが、フロントウィンドウ8に対して画像を表示するウインドウシールドディスプレイ(WSD)を用いても良い。或いはナビゲーション装置3の液晶ディスプレイ17に表示した実景に、案内画像を重畳させる表示装置でもよい。   In the first and second embodiments, the HUD 4 is used as a means for displaying an image superimposed on the surrounding environment. However, a window shield display (WSD) that displays an image on the front window 8 is used. Also good. Alternatively, a display device that superimposes a guidance image on the actual scene displayed on the liquid crystal display 17 of the navigation device 3 may be used.

また、第1実施形態及び第2実施形態では、走行支援処理プログラム(図3、図10)の処理をナビゲーション装置3のナビゲーションECU15が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、HUD4の制御部、車両制御ECU、その他の車載器が実行する構成としても良い。尚、HUD4の制御部が実行する場合には、本発明に係る表示装置はHUD4のみで構成することも可能である。   Moreover, in 1st Embodiment and 2nd Embodiment, it is set as the structure which navigation ECU15 of the navigation apparatus 3 performs the process of a driving assistance process program (FIG. 3, FIG. 10), However The execution subject can be changed suitably. It is. For example, it is good also as a structure which the control part of HUD4, vehicle control ECU, and another vehicle equipment perform. In addition, when the control part of HUD4 performs, the display apparatus which concerns on this invention can also be comprised only with HUD4.

また、本発明に係る表示装置を具体化した実施例について上記に説明したが、表示装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the embodiment which actualized the display device according to the present invention has been described above, the display device can have the following configuration, and in that case, the following effects can be obtained.

例えば、第1の構成は以下のとおりである。
案内経路における案内分岐点(72)の周辺に存在する周辺対象物(81、82)の有無を判定する周辺対象物判定手段(41)と、前記案内分岐点を退出した後の車両(24)が進行する進行路(74)の進行方向を案内する案内画像(71)のうち、前記周辺対象物と重なる部分を描画対象から除く非描画領域(93、94、95、96)として補正する補正手段(41)と、補正後の前記案内画像を表示する表示手段(41)と、を有する。
上記構成を有する表示装置によれば、案内分岐点を退出した後の進行方向を案内する案内画像は、案内分岐点の周辺に存在する周辺対象物と重なる部分を非描画領域とする補正が行われる。補正後の案内画像は、周辺対象物の位置に非描画領域の位置を合わせて表示される。周辺対象物の一部は、非描画領域において、補正後の案内画像の手前側に(上に)重なるように表示される。これにより、ユーザは、実景の物体(周辺対象物)の位置と、補正後の案内画像の位置との前後関係を認識することができ、進むべき進行路を把握できる。
For example, the first configuration is as follows.
Peripheral object determination means (41) for determining the presence or absence of peripheral objects (81, 82) existing around the guidance branch point (72) in the guide route, and the vehicle (24) after exiting the guidance branch point Of the guide image (71) for guiding the traveling direction of the traveling path (74) along which the object travels is corrected as a non-drawing area (93, 94, 95, 96) excluding a portion overlapping the surrounding object from the drawing target. Means (41) and display means (41) for displaying the corrected guide image.
According to the display device having the above-described configuration, the guidance image that guides the traveling direction after leaving the guidance branch point is corrected so that the portion overlapping the peripheral object existing around the guidance branch point is a non-drawing area. Is called. The corrected guide image is displayed by aligning the position of the non-drawing area with the position of the peripheral object. A part of the peripheral object is displayed so as to overlap (upward) the front side of the corrected guide image in the non-drawing area. As a result, the user can recognize the front-rear relationship between the position of the object in the real scene (the peripheral object) and the position of the corrected guide image, and can grasp the traveling path to be followed.

また、第2の構成は以下のとおりである。
前記周辺対象物判定手段(41)は、前記案内分岐点(72)を曲がった後の前記車両(24)が進行する前記進行路(74)の手前側に存在する前記周辺対象物(81)の有無を判定する。
上記構成を有する表示装置によれば、案内画像は、案内分岐点を曲がった車両が進行する進行路の手前側に存在する周辺対象物と重なる部分が非描画領域となる。これにより、曲がった後の進行路の手前側の周辺対象物を案内画像の手前側に表示することで、曲がる位置や曲がった後の進行路をユーザにより確実に認識させることができる。
The second configuration is as follows.
The peripheral object determining means (41) is a peripheral object (81) existing on the front side of the traveling path (74) along which the vehicle (24) travels after turning the guide branch point (72). The presence or absence of is determined.
According to the display device having the above-described configuration, the guide image has a non-drawing region where a portion that overlaps with a peripheral object existing on the front side of the traveling path along which the vehicle that has turned the guide branch point travels. Thus, by displaying the peripheral object on the near side of the traveling path after the curve on the near side of the guidance image, the user can surely recognize the bending position and the traveling path after the curve.

また、第3の構成は以下のとおりである。
前記表示手段(41)は、前記車両(24)のフロントウィンドウ(25)を通じて見える実景に前記案内画像(71)を重畳させ、前記車両(24)と前記周辺対象物(81、82)とを結ぶ直線(D3)と、前記車両の幅方向とがなす角度(θ)を取得する角度取得手段(41)と、前記角度取得手段により取得された前記角度に基づいて、前記フロントウィンドウにおける前記車両の乗員(26)が前記周辺対象物を視認する位置(91)を取得する位置取得手段(51)と、有し、前記補正手段(41)は、前記位置取得手段により取得された位置に基づいて、前記非描画領域(93、94、95、96)の位置を決定する。
上記構成を有する表示装置によれば、角度取得手段は、車両と周辺対象物とを結ぶ直線と、車両の幅方向とがなす角度を取得する。位置取得手段は、この角度に基づいて、フロントウィンドウにおける乗員が周辺対象物を視認する位置を検出する。補正手段は、位置取得手段によって検出した位置に基づいて非描画領域の位置を決定する。これにより、HUDやウィンドシールドディスプレイ装置などのフロントウィンドウ越しの実景に案内画像を重畳させる表示装置では、非描画領域の位置を周辺対象物の位置により正確に合わせることができる。
The third configuration is as follows.
The display means (41) superimposes the guide image (71) on a real scene seen through the front window (25) of the vehicle (24), and displays the vehicle (24) and the surrounding objects (81, 82). An angle acquisition unit (41) that acquires an angle (θ) formed by a connecting straight line (D3) and the width direction of the vehicle, and the vehicle in the front window based on the angle acquired by the angle acquisition unit A position acquisition means (51) for acquiring a position (91) where the occupant (26) visually recognizes the surrounding object, and the correction means (41) is based on the position acquired by the position acquisition means. Then, the position of the non-drawing area (93, 94, 95, 96) is determined.
According to the display device having the above configuration, the angle acquisition unit acquires an angle formed by a straight line connecting the vehicle and the peripheral object and the vehicle width direction. A position acquisition means detects the position where the passenger | crew in a front window visually recognizes a surrounding target object based on this angle. The correction unit determines the position of the non-drawing area based on the position detected by the position acquisition unit. Thus, in a display device that superimposes a guide image on a real scene through a front window, such as a HUD or a windshield display device, the position of a non-drawing area can be more accurately matched with the position of a peripheral object.

また、第4の構成は以下のとおりである。
前記周辺対象物(81、82)の大きさに基づいて前記車両(24)から前記周辺対象物までの第一距離(D1)を取得する第一距離取得手段(41)と、前記車両(24)から前記進行路(74)の手前側の道路端(74A)までの第二距離(D2)を取得する第二距離取得手段(41)と、を有し、前記周辺対象物判定手段(41)は、前記第一距離が前記第二距離以下であることに基づいて前記周辺対象物の有無を判定する。
例えば、道路標識(周辺対象物)は、法令などによって大きさが規定されている。このため、道路標識の規定の大きさと、撮像された道路標識の大きさとに基づいて、車両から周辺対象物までの第一距離を取得できる。そして、当該表示装置によれば、第一距離と、車両から進行路の手前側までの第二距離とに基づいて、周辺対象物が進行路の手前側に存在するのか、あるいは奥側に存在するのかをより正確に判定できる。
The fourth configuration is as follows.
First distance acquisition means (41) for acquiring a first distance (D1) from the vehicle (24) to the peripheral object based on the size of the peripheral object (81, 82), and the vehicle (24 ) To second distance acquisition means (41) for acquiring a second distance (D2) from the road end (74A) on the near side of the traveling path (74), and the surrounding object determination means (41 ) Determines the presence or absence of the peripheral object based on the fact that the first distance is less than or equal to the second distance.
For example, the size of road signs (surrounding objects) is regulated by laws and regulations. Therefore, the first distance from the vehicle to the surrounding object can be acquired based on the prescribed size of the road sign and the size of the captured road sign. And according to the said display apparatus, based on the 1st distance and the 2nd distance from the vehicle to the near side of a course, a peripheral object exists in the near side of a course, or exists in the back side It is possible to determine more accurately whether or not

また、第5の構成は以下のとおりである。
前記案内画像(71)は、矢印を示す画像であり、前記補正手段(41)は、前記進行路(74)に沿って前記進行方向の先端側に向かって前記案内画像の矢印の先端側を延長する。
上記構成を有する表示装置によれば、案内画像の矢印を、進行路の進行方向の先に向かって延長する。これにより、ユーザは、案内分岐点を直進や左折した後の進行方向をイメージし易くなる。
The fifth configuration is as follows.
The guide image (71) is an image showing an arrow, and the correction means (41) moves the tip side of the arrow of the guide image toward the tip side in the traveling direction along the traveling path (74). Extend.
According to the display device having the above configuration, the arrow of the guide image is extended toward the end of the traveling direction of the traveling path. Thereby, the user can easily imagine the traveling direction after going straight or turning left at the guidance branch point.

また、第6の構成は以下のとおりである。
前記表示手段(41)は、前記進行路(74)の奥側に存在する前記周辺対象物(82)の手前に補正後の前記案内画像(71)を重ねて表示する。
上記構成を有する表示装置によれば、補正後の案内画像は、進行路の奥側の周辺対象物の手前側に重ねて表示される。例えば、進行路の手前にある周辺対象物は、案内画像の手前に表示され、進行路の奥側の周辺対象物は、案内画像の奥側に表示される。このため、ユーザは、周辺対象物と案内画像の前後関係をより正確に把握できる。
The sixth configuration is as follows.
The display means (41) superimposes and displays the corrected guide image (71) in front of the peripheral object (82) existing on the back side of the traveling path (74).
According to the display device having the above configuration, the corrected guide image is displayed so as to be superimposed on the near side of the peripheral object on the far side of the traveling path. For example, a peripheral object in front of the traveling path is displayed in front of the guidance image, and a peripheral object on the far side of the traveling path is displayed in the back of the guidance image. For this reason, the user can grasp | ascertain the front-and-back relationship of a surrounding target object and a guidance image more correctly.

また、第7の構成は以下のとおりである。
前記表示手段(41)は、補正後の前記案内画像(71)を虚像として表示する。
上記構成を有する表示装置によれば、進行方向を案内する虚像を実景に重畳させ、進行路などと合わせて虚像をユーザに視認させることができる。ユーザは、例えば、フロントウィンドウ越しに見える実景に重畳された虚像(案内画像)と周辺対象物との位置関係を確認することで、曲がるべき交差点などをより正確に把握できる。
The seventh configuration is as follows.
The display means (41) displays the corrected guide image (71) as a virtual image.
According to the display device having the above-described configuration, the virtual image that guides the traveling direction can be superimposed on the real scene, and the user can visually recognize the virtual image together with the traveling path. For example, the user can grasp the intersection to be bent more accurately by confirming the positional relationship between the virtual image (guide image) superimposed on the real scene seen through the front window and the peripheral object.

また、第8の構成は以下のとおりである。
車両(2)に搭載され、案内分岐点(103)を退出した後の車両が進行する進行路(108)の進行方向を案内する案内画像(105)を、前記車両前方の風景に重畳して視認させる表示装置(1)であって、前記車両が進行する前記進行路の手前側に存在する周辺対象物(112)と重なる領域を前記案内画像から除いて表示する案内画像表示手段(41)を有する。
上記構成を有する表示装置によれば、案内分岐点を退出した後の進行方向を案内する案内画像は、車両が進行する進行路の手前側に存在する周辺対象物と重なる領域については重畳対象から除かれるので、実景に含まれる周辺対象物(例えば建物、歩行者、車両、街路樹等)の位置と、案内画像の位置との前後関係を車両の乗員は明確に把握することが可能となる。その結果、進むべき進行路を正確に車両の乗員に通知可能となる。
The eighth configuration is as follows.
A guidance image (105) that is mounted on the vehicle (2) and guides the traveling direction of the traveling path (108) on which the vehicle travels after leaving the guidance branch point (103) is superimposed on the scenery in front of the vehicle. A display device (1) for visual recognition, wherein a guide image display means (41) for displaying an area overlapping with a peripheral object (112) existing on the front side of the traveling path on which the vehicle travels is removed from the guide image. Have
According to the display device having the above-described configuration, the guidance image that guides the traveling direction after exiting the guidance branch point is a superimposition target for a region that overlaps a peripheral object existing on the near side of the traveling path on which the vehicle travels. Therefore, the vehicle occupant can clearly grasp the front-rear relationship between the position of the peripheral object (eg, building, pedestrian, vehicle, roadside tree, etc.) included in the actual scene and the position of the guide image. . As a result, it is possible to accurately notify the vehicle occupant of the traveling path to be followed.

また、第9の構成は以下のとおりである。
前記案内画像(105)は、路面に対して上方に離間して視認される位置に表示される。
上記構成を有する表示装置によれば、路面等の風景に対して案内画像が調和することなく、車両の乗員に対して風景から案内画像を識別して、明確に視認させることが可能となる。
The ninth configuration is as follows.
The guide image (105) is displayed at a position where the guide image (105) is viewed away from the road surface.
According to the display device having the above-described configuration, the guide image can be identified from the landscape and clearly visible to the vehicle occupant without the guide image being harmonized with the landscape such as the road surface.

また、第10の構成は以下のとおりである。
前記案内画像(105)は、前記案内分岐点(103)を退出した後の車両が進行する進行路(108)の進行方向を示す矢印の画像であって、前記案内画像表示手段(41)は、前記周辺対象物(112)と重ならない領域に矢印の先端部分を表示する。
上記構成を有する表示装置によれば、案内画像と周辺対象物が重なった場合であっても、少なくとも矢印の先端部分については表示することが可能となるので、乗員は案内画像により示される進行方向について把握することが可能となる。
The tenth configuration is as follows.
The guide image (105) is an arrow image indicating the traveling direction of the traveling path (108) along which the vehicle travels after leaving the guidance branch point (103), and the guide image display means (41) The tip of the arrow is displayed in a region that does not overlap with the peripheral object (112).
According to the display device having the above configuration, even when the guide image and the peripheral object overlap, it is possible to display at least the tip portion of the arrow, so that the occupant can travel in the traveling direction indicated by the guide image. It becomes possible to grasp about.

また、第11の構成は以下のとおりである。
前記車両(2)前方の風景を撮像した撮像画像を取得する撮像画像取得手段(41)と、3次元地図情報(34)を取得する地図情報取得手段(41)と、前記撮像画像と3次元地図情報を照合する照合手段(41)と、前記照合手段の照合結果に基づいて、3次元地図情報内における案内分岐点を退出した後の車両が進行する進行路に前記案内画像(105)を配置する画像配置手段(41)と、3次元地図情報内における車両の位置から前記案内画像を視認した場合の前記案内画像の形状を取得する形状取得手段(41)と、を有し、前記案内画像表示手段は、前記形状取得手段によって取得された形状の前記案内画像を表示する。
上記構成を有する表示装置によれば、車両前方の風景を撮像した撮像画像と3次元地図情報とを用いることによって、車両が進行する進行路の手前側に存在する周辺対象物と重なる領域について重畳対象から除かれた案内画像を容易に生成することが可能となる。
The eleventh configuration is as follows.
Captured image acquisition means (41) for acquiring a captured image obtained by capturing a landscape in front of the vehicle (2), map information acquisition means (41) for acquiring 3D map information (34), the captured image and 3D Based on the collation means (41) for collating the map information and the collation result of the collation means, the guidance image (105) is displayed on the traveling path where the vehicle travels after leaving the guidance branch point in the three-dimensional map information. Image placement means (41) for placement, and shape acquisition means (41) for obtaining the shape of the guide image when the guide image is viewed from the position of the vehicle in the three-dimensional map information. The image display means displays the guide image having the shape acquired by the shape acquisition means.
According to the display device having the above-described configuration, by using the captured image obtained by capturing the scenery in front of the vehicle and the three-dimensional map information, the region overlapping the peripheral object existing on the near side of the traveling path along which the vehicle travels is superimposed. It is possible to easily generate a guide image excluded from the target.

また、第12の構成は以下のとおりである。
前記周辺対象物は、少なくとも一つの建築物、道路標識、動体物である。
上記構成を有する表示装置によれば、案内分岐点を退出した後の進行方向を案内する案内画像は、車両が進行する進行路の手前側に存在する建築物、道路標識、動体物等と重なる領域については重畳対象から除かれるので、実景に含まれる建築物、道路標識、動体物等の位置と、案内画像の位置との前後関係を車両の乗員は明確に把握することが可能となる。その結果、進むべき進行路を正確に車両の乗員に通知可能となる。
The twelfth configuration is as follows.
The surrounding objects are at least one building, a road sign, and a moving object.
According to the display device having the above-described configuration, the guidance image that guides the traveling direction after leaving the guidance branch point overlaps with a building, a road sign, a moving object, or the like existing on the front side of the traveling path on which the vehicle travels. Since the area is excluded from the superimposition target, the vehicle occupant can clearly grasp the front-rear relationship between the position of the building, road sign, moving object, and the like included in the actual scene and the position of the guide image. As a result, it is possible to accurately notify the vehicle occupant of the traveling path to be followed.

1 重畳画像表示装置
2 車両
3 ナビゲーション装置
4 HUD
8 フロントウィンドウ
9 乗員
41 CPU
42 RAM
43 ROM
72、103 案内分岐点
71 矢印
74、108 進行路
81〜84、112,113 道路標識
93 非描画領域
105 案内画像
106、107 動体物の仮想体
DESCRIPTION OF SYMBOLS 1 Superimposed image display apparatus 2 Vehicle 3 Navigation apparatus 4 HUD
8 Front window 9 Crew 41 CPU
42 RAM
43 ROM
72, 103 Guide branch point 71 Arrow 74, 108 Traveling path 81-84, 112, 113 Road sign 93 Non-drawing area 105 Guide image 106, 107 Virtual body of moving object

Claims (13)

案内経路における案内分岐点の周辺に存在する周辺対象物の有無を判定する周辺対象物判定手段と、
前記案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像のうち、前記周辺対象物と重なる部分を描画対象から除く非描画領域として補正する補正手段と、
補正後の前記案内画像を表示する表示手段と、を有する表示装置。
Peripheral object determination means for determining the presence or absence of a peripheral object existing around a guidance branch point in the guide route;
Correction means for correcting a portion overlapping the peripheral object as a non-drawing area to be excluded from a drawing object, among guidance images for guiding a traveling direction of a traveling path on which the vehicle travels after leaving the guidance branch point,
Display means for displaying the corrected guide image.
前記周辺対象物判定手段は、前記案内分岐点を曲がった後の前記車両が進行する前記進行路の手前側に存在する前記周辺対象物の有無を判定する請求項1に記載の表示装置。   The display device according to claim 1, wherein the peripheral object determination unit determines the presence or absence of the peripheral object present on the near side of the traveling path along which the vehicle travels after turning the guide branch point. 前記表示手段は、前記車両のフロントウィンドウを通じて見える風景に前記案内画像を重畳させ、
前記車両と前記周辺対象物とを結ぶ直線と、前記車両の幅方向とがなす角度を取得する角度取得手段と、
前記角度取得手段により取得された前記角度に基づいて、前記フロントウィンドウにおける前記車両の乗員が前記周辺対象物を視認する位置を取得する位置取得手段と、有し、
前記補正手段は、前記位置取得手段により取得された位置に基づいて、前記非描画領域の位置を決定する請求項1又は請求項2に記載の表示装置。
The display means superimposes the guide image on a landscape seen through the front window of the vehicle,
An angle acquisition means for acquiring an angle formed by a straight line connecting the vehicle and the peripheral object and a width direction of the vehicle;
Based on the angle acquired by the angle acquisition means, and a position acquisition means for acquiring a position at which the vehicle occupant in the front window visually recognizes the surrounding object, and
The display device according to claim 1, wherein the correction unit determines a position of the non-drawing region based on the position acquired by the position acquisition unit.
前記周辺対象物の大きさに基づいて前記車両から前記周辺対象物までの第一距離を取得する第一距離取得手段と、
前記車両から前記進行路の手前側の道路端までの第二距離を取得する第二距離取得手段と、を有し、
前記周辺対象物判定手段は、前記第一距離が前記第二距離以下であることに基づいて前記周辺対象物の有無を判定する請求項1乃至請求項3の何れかに記載の表示装置。
First distance acquisition means for acquiring a first distance from the vehicle to the peripheral object based on the size of the peripheral object;
Second distance acquisition means for acquiring a second distance from the vehicle to a road edge on the near side of the traveling path;
The display device according to claim 1, wherein the peripheral object determination unit determines the presence or absence of the peripheral object based on the first distance being equal to or less than the second distance.
前記案内画像は、矢印を示す画像であり、
前記補正手段は、前記進行路に沿って前記進行方向の先端側に向かって前記案内画像の矢印の先端側を延長する請求項1乃至請求項4の何れかに記載の表示装置。
The guide image is an image showing an arrow,
5. The display device according to claim 1, wherein the correction unit extends a leading end side of an arrow of the guide image toward the leading end side in the traveling direction along the traveling path.
前記表示手段は、前記進行路の奥側に存在する前記周辺対象物の手前に補正後の前記案内画像を重ねて表示する請求項1乃至請求項5の何れかに記載の表示装置。   The display device according to claim 1, wherein the display unit displays the corrected guide image superimposed on the front side of the peripheral object existing on the back side of the traveling path. 前記表示手段は、補正後の前記案内画像を虚像として表示する請求項1乃至請求項6の何れかに記載の表示装置。   The display device according to claim 1, wherein the display unit displays the corrected guide image as a virtual image. 車両に搭載され、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像を、前記車両前方の風景に重畳して視認させる表示装置であって、
前記車両が進行する前記進行路の手前側に存在する周辺対象物と重なる領域を前記案内画像から除いて表示する案内画像表示手段を有する表示装置。
A display device that is mounted on a vehicle and displays a guidance image that guides a traveling direction of a traveling path in which the vehicle travels after exiting a guidance branch point, superimposed on the scenery in front of the vehicle,
A display device comprising guide image display means for displaying a region overlapping with a peripheral object existing on the near side of the traveling path on which the vehicle travels is excluded from the guide image.
前記案内画像は、路面に対して上方に離間して視認される位置に表示される請求項8に記載の表示装置。   The display device according to claim 8, wherein the guide image is displayed at a position where the guide image is visually recognized apart from the road surface. 前記案内画像は、前記案内分岐点を退出した後の車両が進行する進行路の進行方向を示す矢印の画像であって、
前記案内画像表示手段は、前記周辺対象物と重ならない領域に矢印の先端部分を表示する請求項8又は請求項9に記載の表示装置。
The guide image is an image of an arrow indicating a traveling direction of a traveling path along which the vehicle travels after leaving the guidance branch point,
The display device according to claim 8 or 9, wherein the guide image display means displays a tip portion of an arrow in a region that does not overlap with the surrounding object.
前記車両前方の風景を撮像した撮像画像を取得する撮像画像取得手段と、
3次元地図情報を取得する地図情報取得手段と、
前記撮像画像と3次元地図情報を照合する照合手段と、
前記照合手段の照合結果に基づいて、3次元地図情報内における案内分岐点を退出した後の車両が進行する進行路に前記案内画像を配置する画像配置手段と、
3次元地図情報内における車両の位置から前記案内画像を視認した場合の前記案内画像の形状を取得する形状取得手段と、を有し、
前記案内画像表示手段は、前記形状取得手段によって取得された形状の前記案内画像を表示する請求項8乃至請求項10のいずれかに記載の表示装置。
Captured image acquisition means for acquiring a captured image obtained by capturing a landscape in front of the vehicle;
Map information acquisition means for acquiring three-dimensional map information;
Collating means for collating the captured image with the three-dimensional map information;
Based on the collation result of the collation means, image arrangement means for arranging the guide image on a traveling path on which the vehicle travels after exiting the guidance branch point in the three-dimensional map information;
Shape acquisition means for acquiring the shape of the guide image when the guide image is viewed from the position of the vehicle in the three-dimensional map information,
The display device according to claim 8, wherein the guide image display unit displays the guide image having a shape acquired by the shape acquisition unit.
前記周辺対象物は、少なくとも一つの建築物、道路標識、動体物である請求項8乃至請求項11のいずれかに記載の表示装置。   The display device according to claim 8, wherein the peripheral object is at least one building, a road sign, or a moving object. 車両に搭載され、案内分岐点を退出した後の車両が進行する進行路の進行方向を案内する案内画像を、前記車両前方の風景に重畳して視認させる表示装置を、
前記車両が進行する前記進行路の手前側に存在する周辺対象物と重なる領域を前記案内画像から除いて表示する案内画像表示手段として機能させる為のコンピュータプログラム。
A display device that is mounted on a vehicle and visually confirms a guidance image that guides a traveling direction of a traveling path in which the vehicle travels after leaving a guidance branch point, superimposed on a landscape in front of the vehicle;
A computer program for functioning as guide image display means for displaying an area overlapping with a peripheral object existing on the near side of the traveling path on which the vehicle travels is removed from the guide image.
JP2017222167A 2017-03-31 2017-11-17 Display device and computer program Active JP7151073B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112018004583.8T DE112018004583T5 (en) 2017-11-17 2018-06-27 Display device and computer program
PCT/JP2018/024290 WO2019097755A1 (en) 2017-11-17 2018-06-27 Display device and computer program
US16/649,434 US11511627B2 (en) 2017-11-17 2018-06-27 Display device and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017070552 2017-03-31
JP2017070552 2017-03-31

Publications (2)

Publication Number Publication Date
JP2018173399A true JP2018173399A (en) 2018-11-08
JP7151073B2 JP7151073B2 (en) 2022-10-12

Family

ID=64108633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222167A Active JP7151073B2 (en) 2017-03-31 2017-11-17 Display device and computer program

Country Status (1)

Country Link
JP (1) JP7151073B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085897A (en) * 2018-11-15 2020-06-04 アイシン・エィ・ダブリュ株式会社 Overlapping image display device and computer program
JP2020176979A (en) * 2019-04-22 2020-10-29 株式会社デンソー Display device for vehicle and display control program
CN112319467A (en) * 2019-07-31 2021-02-05 丰田研究所股份有限公司 Autonomous vehicle user interface with predicted trajectory
JP2021036226A (en) * 2019-08-23 2021-03-04 株式会社デンソー Display control device and display control program
WO2021039198A1 (en) * 2019-08-23 2021-03-04 株式会社デンソー Display control device and display control program
JP2021149752A (en) * 2020-03-23 2021-09-27 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JP2006214999A (en) * 2005-02-07 2006-08-17 Denso Corp Navigation system for vehicle
JP2006284458A (en) * 2005-04-01 2006-10-19 Denso Corp System for displaying drive support information
WO2009084134A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
US20160203629A1 (en) * 2014-03-28 2016-07-14 Panasonic Intellectual Property Management Co., Ltd. Information display apparatus, and method for displaying information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JP2006214999A (en) * 2005-02-07 2006-08-17 Denso Corp Navigation system for vehicle
JP2006284458A (en) * 2005-04-01 2006-10-19 Denso Corp System for displaying drive support information
WO2009084134A1 (en) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation Navigation device
US20160203629A1 (en) * 2014-03-28 2016-07-14 Panasonic Intellectual Property Management Co., Ltd. Information display apparatus, and method for displaying information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085897A (en) * 2018-11-15 2020-06-04 アイシン・エィ・ダブリュ株式会社 Overlapping image display device and computer program
JP7484132B2 (en) 2018-11-15 2024-05-16 株式会社アイシン Superimposed image display device and computer program
JP2020176979A (en) * 2019-04-22 2020-10-29 株式会社デンソー Display device for vehicle and display control program
JP7172830B2 (en) 2019-04-22 2022-11-16 株式会社デンソー VEHICLE DISPLAY DEVICE AND DISPLAY CONTROL PROGRAM
CN112319467A (en) * 2019-07-31 2021-02-05 丰田研究所股份有限公司 Autonomous vehicle user interface with predicted trajectory
CN112319467B (en) * 2019-07-31 2023-04-14 丰田研究所股份有限公司 Autonomous vehicle user interface with predicted trajectory
JP2021036226A (en) * 2019-08-23 2021-03-04 株式会社デンソー Display control device and display control program
WO2021039198A1 (en) * 2019-08-23 2021-03-04 株式会社デンソー Display control device and display control program
JP7215466B2 (en) 2019-08-23 2023-01-31 株式会社デンソー Display control device and display control program
JP2021149752A (en) * 2020-03-23 2021-09-27 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Also Published As

Publication number Publication date
JP7151073B2 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
WO2019097755A1 (en) Display device and computer program
JP6700623B2 (en) Driving support device and computer program
WO2019097763A1 (en) Superposed-image display device and computer program
JP7151073B2 (en) Display device and computer program
EP1961613B1 (en) Driving support method and driving support device
JP6946963B2 (en) Superimposed image display device and computer program
JP5654269B2 (en) Display device for vehicle and display method for vehicle display
JP2018173862A (en) Driving support apparatus and computer program
JP2008236711A (en) Driving support method and driving support device
JP2014120111A (en) Travel support system, travel support method, and computer program
JP2021039085A (en) Superimposed image display device, superimposed image drawing method, and computer program
JP2014120114A (en) Travel support system, travel support method, and computer program
JP2019056884A (en) Superimposed image display device
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP6805974B2 (en) Driving support device and computer program
JP2023012793A (en) Superimposed image display device
JP7143728B2 (en) Superimposed image display device and computer program
JP6597128B2 (en) Vehicle display device
JP6984341B2 (en) Superimposed image display device and computer program
JP7484132B2 (en) Superimposed image display device and computer program
JP2018173315A (en) Display device
JP2019082382A (en) Superposition picture display device
JP2022110828A (en) Superimposed image display device
JP2021081232A (en) Superimposed image display device and computer program
JP2023008462A (en) Superimposed image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7151073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150