JP2020056678A - Device, method, and program for display control - Google Patents

Device, method, and program for display control Download PDF

Info

Publication number
JP2020056678A
JP2020056678A JP2018187396A JP2018187396A JP2020056678A JP 2020056678 A JP2020056678 A JP 2020056678A JP 2018187396 A JP2018187396 A JP 2018187396A JP 2018187396 A JP2018187396 A JP 2018187396A JP 2020056678 A JP2020056678 A JP 2020056678A
Authority
JP
Japan
Prior art keywords
display control
control device
feature
facility
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018187396A
Other languages
Japanese (ja)
Inventor
聡 大橋
Satoshi Ohashi
聡 大橋
貴 菊地
Takashi Kikuchi
貴 菊地
智愛 若狭
Chie Wakasa
智愛 若狭
康平 原田
Kohei Harada
康平 原田
純 住田
Jun Sumida
純 住田
恭子 巽
Kyoko Tatsumi
恭子 巽
裕人 堀内
Yuto Horiuchi
裕人 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2018187396A priority Critical patent/JP2020056678A/en
Publication of JP2020056678A publication Critical patent/JP2020056678A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a display control device capable of displaying an image that allows for checking features and objects on both sides of a road simultaneously even if the features and objects are blocked from view by obstructions.SOLUTION: A display control device is provided, comprising a processing unit 2 configured to acquire establishment image information corresponding to front-view establishment images of establishments located on the sides of a road a vehicle is traveling, and simultaneously displaying the establishment images corresponding to the establishments located on both sides of the road using the acquired establishment image information.SELECTED DRAWING: Figure 2

Description

本願は、表示制御装置、表示制御方法及び表示制御用プログラムの技術分野に属する。より詳細には、画像の表示を制御する表示制御装置及び表示制御方法並びに当該表示制御装置用のプログラムの技術分野に属する。   The present application belongs to the technical field of a display control device, a display control method, and a display control program. More specifically, the present invention belongs to the technical field of a display control device and a display control method for controlling display of an image, and a program for the display control device.

近年、車両にナビゲーション装置が搭載され、地図画像等の表示により当該車両の移動を案内することが広く一般化している。このとき、当該車両の周囲にある施設や自然物等の状況を表示することも行われている。このための従来技術の一例として、下記特許文献1に記載された技術がある。   2. Description of the Related Art In recent years, a navigation device is mounted on a vehicle, and guidance of the movement of the vehicle by displaying a map image or the like has been widely generalized. At this time, the status of facilities, natural objects, and the like around the vehicle is also displayed. As an example of a conventional technique for this purpose, there is a technique described in Patent Document 1 below.

この特許文献1に記載されている技術では、車両の前方、後方及び左側、右側方向を夫々撮影する複数のカメラを含み、互いに隣接するカメラ画像を繋ぎ合わせることで車両の周囲全方位を撮影可能とし、更に車両の俯瞰画像を生成し、複数のカメラで撮影された画像から車両の進行状況に合わせた背景画像を生成し、その背景画像と俯瞰画像とを合成して表示する構成とされている。   The technology described in Patent Literature 1 includes a plurality of cameras for photographing the front, rear, left, and right sides of the vehicle, and can capture images in all directions around the vehicle by joining adjacent camera images. Further, a bird's-eye view image of the vehicle is generated, a background image is generated from images captured by a plurality of cameras according to the progress of the vehicle, and the background image and the bird's-eye view image are combined and displayed. I have.

特開2011−015353号公報JP 2011-015353 A

しかしながら、上記特許文献1に記載されている技術では、車両に備えられたカメラを用いて撮影された画像を用いているため、例えば車両から見て街路樹等の遮蔽物がある場合は、当該遮蔽物により遮られて撮影できない施設や自然物等については画像として表示できないという問題点があった。   However, in the technology described in Patent Document 1, since an image captured using a camera provided in the vehicle is used, when there is a shield such as a street tree viewed from the vehicle, There is a problem that facilities or natural objects that cannot be photographed because of being blocked by a blocking object cannot be displayed as an image.

そこで本願は、上記の問題点に鑑みて為されたもので、その課題の一例は、遮蔽物に遮られて視認できない地物があっても、それらを、道路の両脇について同時に確認することが可能となるように画像の表示させることが可能な表示制御装置及び表示制御方法並びに当該表示制御装置用のプログラムを提供することにある。   Therefore, the present application has been made in view of the above-mentioned problems, and one example of the problem is that even if there is a feature that cannot be visually recognized due to being obstructed by a shielding object, it is necessary to check them simultaneously on both sides of the road. It is an object of the present invention to provide a display control device, a display control method, and a program for the display control device, which can display an image so as to enable the display.

上記の課題を解決するために、請求項1に記載の発明は、移動体が移動する移動路脇に存在する地物を正面視して得られる地物画像に相当する地物画像情報を取得する取得手段と、前記取得した地物画像情報を用いて、各前記地物画像を、前記移動路の両脇に存在する前記地物について同時に表示させる制御手段と、を備える。   In order to solve the above-mentioned problem, the invention according to claim 1 obtains feature image information corresponding to a feature image obtained by front-viewing a feature existing on a side of a moving path on which a moving object moves. And a control unit for simultaneously displaying each of the feature images on the feature on both sides of the moving path using the acquired feature image information.

上記の課題を解決するために、請求項10に記載の発明は、取得手段と、制御手段と、を備える表示制御装置において実行される表示制御方法であって、移動体が移動する移動路脇に存在する地物を正面視して得られる地物画像に相当する地物画像情報を前記取得手段により取得する取得工程と、前記取得した地物画像情報を用いて、各前記地物画像を、前記制御手段により、前記移動路の両脇に存在する前記地物について同時に表示させる制御工程と、を含む。   In order to solve the above-mentioned problem, an invention according to claim 10 is a display control method executed in a display control device including an acquisition unit and a control unit, wherein the display control method includes: An acquisition step of acquiring feature image information corresponding to a feature image obtained by viewing a feature existing in front view by the acquisition unit, and using the acquired feature image information, each of the feature images is obtained. And a control step of simultaneously displaying the features present on both sides of the moving path by the control means.

上記の課題を解決するために、請求項11に記載の発明は、コンピュータを、請求項1から請求項9のいずれか一項に記載の表示制御装置として機能させる。   According to an eleventh aspect of the present invention, in order to solve the above-described problem, a computer is caused to function as the display control device according to any one of the first to ninth aspects.

実施形態に係る表示制御装置の概要構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a display control device according to an embodiment. 実施例に係るナビゲーション装置の概要構成を示すブロック図である。FIG. 1 is a block diagram illustrating a schematic configuration of a navigation device according to an embodiment. 実施例に係る表示制御処理を示すフローチャートであり、(a)は当該表示制御処理の全体を示すフローチャートであり、(b)は当該表示制御処理の細部を示すフローチャートである。It is a flowchart which shows the display control processing which concerns on an Example, (a) is a flowchart which shows the whole said display control processing, (b) is a flowchart which shows the detail of the said display control processing. 実施例に係る倒し施設表示例を示す図であり、(a)は当該倒し施設表示例が対応する地図であり、(b)は当該倒し施設表示例の第1例を示す図であり、(c)は当該倒し施設表示例の第2例を示す図である。It is a figure which shows the defeated facility display example which concerns on an Example, (a) is the map to which the said defeated facility display example respond | corresponds, (b) is a figure which shows the 1st example of the said defeated facility display example, c) is a diagram showing a second example of the defeated facility display example. 実施例に係る見上げ施設表示例を示す図であり、(a)は当該見上げ施設表示例が対応する地図であり、(b)は当該見上げ施設表示例を示す図である。It is a figure which shows the look-up facility display example which concerns on an Example, (a) is the map which the said look-up facility display example respond | corresponds, and (b) is a figure which shows the said look-up facility display example.

次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る表示制御装置の概要構成を示すブロック図である。   Next, an embodiment for carrying out the present application will be described with reference to FIG. FIG. 1 is a block diagram illustrating a schematic configuration of the display control device according to the embodiment.

図1に示すように、実施形態に係る表示制御装置Sは、取得手段2と、制御手段2Aと、を備えて構成されている。   As shown in FIG. 1, the display control device S according to the embodiment includes an acquisition unit 2 and a control unit 2A.

この構成において取得手段2は、移動体が移動する移動路脇に存在する地物を正面視して得られる地物画像に相当する地物画像情報を取得する。   In this configuration, the acquisition unit 2 acquires feature image information corresponding to a feature image obtained by front-viewing a feature existing on the side of the moving path on which the moving object moves.

そして制御手段2Aは、取得手段2により取得した地物画像情報を用いて、各地物画像を、移動路の両脇に存在する地物について同時に表示させる。   Then, the control unit 2A uses the feature image information acquired by the acquisition unit 2 to simultaneously display the feature images for the features present on both sides of the moving path.

以上説明したように、実施形態に係る表示制御装置Sの動作によれば、移動路脇に存在する地物を正面視して得られる地物画像を、移動路の両脇に存在する地物について同時に表示させるので、例えば遮蔽物に遮られて視認できない地物があっても、それらを、移動路の両脇について同時に確認することができる。   As described above, according to the operation of the display control device S according to the embodiment, the feature image obtained by viewing the feature existing on the side of the moving path from the front is displayed on the feature object existing on both sides of the moving path. Are displayed at the same time, so that even if there is a feature that cannot be visually recognized because it is obstructed by a shield, for example, it is possible to confirm them on both sides of the moving path at the same time.

次に、上述した実施形態に対応する具体的な実施例について、図2乃至図5を用いて説明する。なお以下に説明する実施例は、車両に搭載されたナビゲーション装置を用いた周辺施設等の画像の表示制御に本願を適用した場合の実施例である。   Next, a specific example corresponding to the above-described embodiment will be described with reference to FIGS. The embodiment described below is an embodiment in which the present application is applied to display control of an image of a peripheral facility or the like using a navigation device mounted on a vehicle.

また、図2は実施例に係るナビゲーションの概要構成を示すブロック図であり、図3は実施例に係る表示制御処理を示すフローチャートである。更に、図4は実施例に係る倒し施設表示例を示す図であり、図5は実施例に係る見上げ施設表示例を示す図である。このとき図2では、図1に示した実施形態に係る表示制御装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該表示制御装置Sにおける各構成部材と同様の部材番号を用いている。   FIG. 2 is a block diagram illustrating a schematic configuration of the navigation according to the embodiment, and FIG. 3 is a flowchart illustrating a display control process according to the embodiment. FIG. 4 is a diagram illustrating an example of a defeated facility according to the embodiment, and FIG. 5 is a diagram illustrating an example of a look-up facility according to the embodiment. At this time, in FIG. 2, the same component numbers as those in the display control device S are used for the components of the example corresponding to the components in the display control device S according to the embodiment illustrated in FIG. 1. ing.

図2に示すように、実施例に係るナビゲーション装置NVは、屋根部が広い例えばファミリー用の車両に搭載されるナビゲーション装置である。そして当該ナビゲーション装置NVは、インターフェース1と、CPU、RAM(Random Access Memory)及びROM(Read Only Memory)等を含む処理部2と、上記車両の車内天井に例えば案内処理用の画像や後述する実施例に係る倒し施設表示等を投影表示する投影部3と、タッチセンサ又はリモコン等からなる操作部4と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等からなり且つ実施例に係る三次元データ等を記憶する記憶部5と、GPS(Global Positioning System)センサ又は自立センサ等からなるセンサ部6と、により構成されている。このとき、処理部2が実施形態に係る取得手段2の一例及び制御手段2Aの一例並びに本願に係る「移動路情報取得手段」の一例にそれぞれ相当し、処理部2及びセンサ部6が本願に係る「距離情報取得手段」の一例に相当する。   As shown in FIG. 2, the navigation device NV according to the embodiment is a navigation device mounted on a vehicle for a family, for example, having a wide roof. The navigation device NV includes an interface 1, a processing unit 2 including a CPU, a random access memory (RAM), a read only memory (ROM), and the like. A projection unit 3 for projecting and displaying a tilted facility display according to the example, an operation unit 4 including a touch sensor or a remote controller, and a tertiary according to the embodiment including a HDD (Hard Disc Drive) or an SSD (Solid State Drive) or the like. The storage unit 5 stores original data and the like, and a sensor unit 6 including a GPS (Global Positioning System) sensor or an independent sensor. At this time, the processing unit 2 corresponds to an example of the acquisition unit 2 according to the embodiment, an example of the control unit 2A, and an example of the “moving path information acquisition unit” according to the present application, and the processing unit 2 and the sensor unit 6 correspond to the present application. This corresponds to an example of such “distance information acquisition means”.

この構成においてインターフェース1は、処理部2の制御の下、例えばインターネット等の外部ネットワークとの間の無線によるデータの授受を制御する。またセンサ部6は、処理部2の制御の下、上記GPSセンサ等を用いてナビゲーション装置NVの現在位置(換言すれば、当該ナビゲーション装置NVが搭載されている車両の現在位置)を検出し、その現在位置を示す現在位置データを生成して処理部2に出力する。一方操作部4は、ナビゲーション装置NVに実行させるべき操作が当該操作部4において実行されると、当該操作に対応した操作信号を生成して処理部2に出力する。他方記憶部5は、後述する実施例に係る倒し施設表示及び実施例に係る見上げ施設表示に用いられる上記周辺施設等の上記三次元データDを初めとして、ナビゲーション装置NVとしての案内処理を実行するための地図データやナビゲーションプログラム、及び実施例に係る表示制御処理を実行するための表示制御プログラム等を不揮発性に記憶している。このとき上記三次元データDには、例えば、上記周辺施設等の位置を例えば緯度/経度で表す位置データ、当該周辺施設等それぞれの高さを示す高さデータ、当該周辺施設等を上空から見下ろした場合の家形を示す家形データ、及び当該周辺施設等を立体的に(換言すれば三次元的に)投影表示するための三次元テータ等が含まれている。これらに加えて記憶部5は、実施例に係る倒し施設表示と見上げ施設表示とを後述するように切り換える際に参照される上記周辺施設等の実際の高さの閾値を示す高さ閾値データを記憶する。この高さ閾値データは、例えば地図上の領域ごとに予め設定されている高さ閾値データであって、周辺施設等の実際の高さが当該高さの閾値以上であるときは後述する実施例に係る見上げ施設表示が実行され、一方当該周辺施設等の実際の高さが当該高さの閾値未満であるときは後述する実施例に係る倒し施設表示が実行される。   In this configuration, under the control of the processing unit 2, the interface 1 controls wireless data transmission and reception with an external network such as the Internet. The sensor unit 6 detects the current position of the navigation device NV (in other words, the current position of the vehicle equipped with the navigation device NV) using the GPS sensor or the like under the control of the processing unit 2, The current position data indicating the current position is generated and output to the processing unit 2. On the other hand, when an operation to be executed by the navigation device NV is executed on the operation unit 4, the operation unit 4 generates an operation signal corresponding to the operation and outputs the operation signal to the processing unit 2. On the other hand, the storage unit 5 executes the guidance processing as the navigation device NV, starting with the three-dimensional data D of the peripheral facility and the like used for the display of the defeated facility according to the embodiment described below and the look-up facility according to the embodiment. For example, map data, a navigation program, a display control program for executing a display control process according to the embodiment, and the like are stored in a nonvolatile manner. At this time, in the three-dimensional data D, for example, position data indicating the position of the peripheral facility or the like in latitude / longitude, height data indicating the height of the peripheral facility or the like, and the peripheral facility or the like is looked down from above. In this case, house shape data indicating the house shape in the case of the above and three-dimensional data for projecting and displaying the surrounding facilities and the like three-dimensionally (in other words, three-dimensionally) are included. In addition to these, the storage unit 5 stores height threshold data indicating the threshold of the actual height of the peripheral facility or the like referred to when switching between the defeated facility display and the look-up facility display according to the embodiment as described later. Remember. The height threshold data is, for example, height threshold data set in advance for each region on the map, and an example to be described later when the actual height of a peripheral facility or the like is equal to or larger than the threshold of the height. Is displayed, and when the actual height of the peripheral facility or the like is less than the threshold value of the height, a defeated facility display according to the embodiment described later is executed.

なお当該高さ閾値データについては、上記領域によらず一の高さ閾値データが記憶されていてもよい。また、例えば、市街地、住宅地、駅周辺等、場所の属性に応じて高さ閾値データの値が変更されてもよい。更には、例えば、ナビゲーション装置NV(換言すれば、それが搭載されている車両)の現在位置から予め設定された範囲内に存在する周辺施設の数によって、高さ閾値データの値が予め設定されていてもよい。   As the height threshold data, one height threshold data may be stored regardless of the area. Further, for example, the value of the height threshold data may be changed according to the attribute of a place such as an urban area, a residential area, and a station area. Further, for example, the value of the height threshold data is preset according to the number of peripheral facilities existing within a preset range from the current position of the navigation device NV (in other words, the vehicle in which the navigation device NV is mounted). May be.

これらにより処理部2は、上記地図データやナビゲーションプログラムを用いてナビゲーション装置NVとしての案内処理を実行すると共に、上記倒し施設表示及び上記見上げ施設表示を行うための上記表示制御プログラムを用いた実施例に係る表示制御処理を実行する。そして投影部3は、処理部2の制御の下、上記車両の車内天井に、例えば案内処理用の画像と共に、実施例に係る表示制御処理の結果としての画像を投影表示する。   Accordingly, the processing unit 2 executes the guidance processing as the navigation device NV using the map data and the navigation program, and uses the display control program for performing the defeated facility display and the look-up facility display. Is performed. Then, under the control of the processing unit 2, the projection unit 3 projects and displays an image as a result of the display control process according to the embodiment together with, for example, an image for a guidance process on the vehicle interior ceiling.

ここで、上述した実施例に係る「倒し施設表示」とは、ナビゲーション装置NVが搭載されている車両が移動する道路の両脇に存在する施設や自然物(即ち、上記周辺施設等。以下、当該施設や自然物を纏めて「周辺施設等」と称する。)の正面を水平に視て(即ち水平正面視して)得られる画像を、当該道路の両脇に存在する当該周辺施設等について同時に、上記車内天井に投影表示することをいう。この実施例に係る倒し施設表示には二つの態様があるが、それぞれの態様については後ほど詳述する。   Here, the "defeated facility display" according to the above-described embodiment is a facility or a natural object (that is, the above-described peripheral facility or the like, which is present on both sides of a road on which a vehicle equipped with the navigation device NV moves). The facility and natural objects are collectively referred to as “peripheral facilities, etc.”), and the image obtained when the front is viewed horizontally (that is, when viewed horizontally) is simultaneously obtained for the peripheral facilities and the like present on both sides of the road. This means projecting and displaying on the ceiling inside the vehicle. There are two modes of the defeated facility display according to this embodiment, and each mode will be described in detail later.

一方、上述した実施例に係る「見上げ施設表示」とは、ナビゲーション装置NVが搭載されている車両が移動する道路の両脇に存在する周辺施設等を、当該道路上の車両の現在位置から上方に(即ち鉛直方向上向きに)見上げて得られる画像を、当該道路の両脇に存在する当該周辺施設等について同時に、上記車内天井に投影表示することをいう。この実施例に係る見上げ施設表示についても、後ほど詳述する。   On the other hand, the “looking-up facility display” according to the above-described embodiment refers to a facility located on both sides of a road on which a vehicle equipped with the navigation device NV moves, which is located above the current position of the vehicle on the road. (I.e., the image obtained by looking up in the vertical direction) is simultaneously projected and displayed on the ceiling in the vehicle for the surrounding facilities and the like present on both sides of the road. The look-up facility display according to this embodiment will also be described later in detail.

次に、図2を用いて説明した構成を備えるナビゲーション装置NVにおいて主として処理部2を中心として実行される、実施例に係る表示制御処理について、より具体的に図3乃至図5を用いて説明する。   Next, a display control process according to the embodiment, which is mainly performed by the processing unit 2 in the navigation device NV having the configuration described with reference to FIG. 2, will be described more specifically with reference to FIGS. I do.

図3(a)にその全体に対応するフローチャートを示すように、実施例に係る表示制御処理は、例えばナビゲーション装置NVの電源スイッチ(車両のACC(Accessory)スイッチ)がオンとされたタイミングで開始される。そしてナビゲーション装置NVの処理部2は、当該表示制御処理が開始されると、例えば操作部4において、上記車内天井への投影部3による周辺施設等の画像の投影が指示されたか否かを監視する(ステップS1)。ステップS1の監視において、当該車内天井への画像投影が指示されない場合(ステップS1:NO)、処理部2は後述するステップS9に移行する。   As shown in a flowchart corresponding to the whole in FIG. 3A, the display control process according to the embodiment is started, for example, at a timing when a power switch (ACC (Accessory) switch of the vehicle) of the navigation device NV is turned on. Is done. Then, when the display control process is started, the processing unit 2 of the navigation device NV monitors, for example, whether the operation unit 4 instructs the projection unit 3 to project an image of a peripheral facility or the like onto the vehicle interior ceiling. (Step S1). In the monitoring of step S1, when the image projection to the ceiling in the vehicle is not instructed (step S1: NO), the processing unit 2 proceeds to step S9 described below.

一方ステップS1の監視において、車両天井への当該画像投影が指示された場合(ステップS1:YES)、処理部2は、当該車両の現在位置を示す上記現在位置データをセンサ部6から取得する(ステップS2)。その後処理部2は、ステップS2で取得された現在位置データにより示される現在位置の周辺にある周辺施設等の高さを示す高さデータを、記憶部5から取得する(ステップS3)。このとき当該高さデータを取得する周辺施設等は、例えば、車両の現在位置から見た視野の範囲にある周辺施設等についての当該高さデータを取得する。次に処理部2は、ステップS2で取得された現在位置データにより示される現在位置が含まれる領域に対応する上記高さ閾値データを、記憶部5から取得する(ステップS4)。その後処理部2は、ステップS3で高さデータを取得した周辺施設等について、それらを実施例に係る倒し施設表示又は実施例に係る見上げ施設表示として車内天井へ投影するための三次元データDを、記憶部5から取得する(ステップS5)。   On the other hand, in the monitoring of step S1, when the image projection on the vehicle ceiling is instructed (step S1: YES), the processing unit 2 acquires the current position data indicating the current position of the vehicle from the sensor unit 6 ( Step S2). Thereafter, the processing unit 2 acquires, from the storage unit 5, height data indicating the height of a peripheral facility or the like around the current position indicated by the current position data acquired in step S2 (step S3). At this time, the peripheral facility or the like that acquires the height data acquires, for example, the height data of the peripheral facility or the like that is within the field of view viewed from the current position of the vehicle. Next, the processing unit 2 acquires the height threshold data corresponding to the area including the current position indicated by the current position data acquired in Step S2 from the storage unit 5 (Step S4). After that, the processing unit 2 outputs the three-dimensional data D for projecting the peripheral facilities and the like for which the height data has been acquired in step S3 to the ceiling in the vehicle as the defeated facility display according to the embodiment or the look-up facility display according to the embodiment. Is obtained from the storage unit 5 (step S5).

次に処理部2は、ステップS3で取得された周辺施設等の高さの例えば最大値がステップS3で取得した高さ閾値データ以上か否かを判定する(ステップS6)。ステップS6の判定において、ステップS3で取得された周辺施設等の高さの上記最大値がステップS3で取得した高さ閾値データ未満である場合(ステップS6:NO)、処理部2は、記憶部5に記憶されている上記三次元データDを用いて実施例に係る倒し施設表示を実行するように投影部3等を制御し(ステップS7)、その後、後述するステップS9に移行する。このステップS7については、後ほど詳述する。   Next, the processing unit 2 determines whether or not, for example, the maximum value of the height of the peripheral facility or the like acquired in Step S3 is equal to or greater than the height threshold data acquired in Step S3 (Step S6). In the determination in step S6, when the maximum value of the height of the peripheral facility or the like acquired in step S3 is less than the height threshold data acquired in step S3 (step S6: NO), the processing unit 2 stores The projection unit 3 and the like are controlled so as to execute the defeated facility display according to the embodiment using the three-dimensional data D stored in Step 5 (Step S7), and thereafter, the process proceeds to Step S9 described later. Step S7 will be described later in detail.

一方ステップS6の判定において、ステップS3で取得された周辺施設等の高さの上記最大値がステップS3で取得した高さ閾値データ以上である場合(ステップS6:YES)、処理部2は、記憶部5に記憶されている上記三次元データDを用いて実施例に係る見上げ施設表示を実行するように投影部3等を制御する(ステップS8)。このステップS8についても、後ほど詳述する。   On the other hand, in the determination in step S6, when the maximum value of the height of the peripheral facility or the like acquired in step S3 is equal to or greater than the height threshold data acquired in step S3 (step S6: YES), the processing unit 2 stores The projection unit 3 and the like are controlled so as to execute the look-up facility display according to the embodiment using the three-dimensional data D stored in the unit 5 (step S8). This step S8 will also be described later in detail.

なお上記ステップS6の判定において処理部2は、例えばステップS3で取得された周辺施設等の高さの平均値とステップS3で取得した高さ閾値データとを比較して判定してもよい。また処理部2は、当該ステップS6の判定において、上記最大値又は上記平均値と比較する以外に、ステップS3で取得された周辺施設等の高さの最小値と比較してもよい。更に処理部2は、当該ステップS6の判定として、例えば、周辺施設等の半数以上の高さが高さ閾値データより高いか否かに基づいて上記ステップS7と上記ステップS8とを切り換えてもよい。これらの場合、処理部2は、高さ閾値データと比較される高さの平均値等が当該高さ閾値データ以上である場合に実施例に係る見上げ施設表示を行わせ、当該平均値等が当該高さ閾値データ未満である場合に実施例に係る倒し施設表示を行わせるのが好ましい。   In the determination in step S6, the processing unit 2 may compare the average value of the heights of the peripheral facilities and the like acquired in step S3 with the height threshold data acquired in step S3. In addition, in the determination in step S6, the processing unit 2 may compare with the minimum value of the height of the peripheral facility or the like acquired in step S3, in addition to comparing with the maximum value or the average value. Further, the processing unit 2 may switch between step S7 and step S8 based on, for example, whether or not half or more of the peripheral facilities and the like are higher than the height threshold data as the determination in step S6. . In these cases, the processing unit 2 causes the look-up facility display according to the embodiment to be performed when the average value or the like of the heights compared with the height threshold data is equal to or greater than the height threshold data, and the average value or the like is displayed. When the height is less than the height threshold data, it is preferable to display the defeated facility according to the embodiment.

更にまた処理部2は、ステップS6の判定において、ナビゲーション装置NVが搭載されている車両が移動する道路の片側に存在する周辺施設等の高さのみを用いてその判定をしてもよいし、その両側に存在する周辺施設等の高さを用いてその判定をしてもよい。この場合に処理部2は、ステップS6の判定を行うタイミングで、当該道路の片側に存在する周辺施設等の高さのみを用いてその判定をするか、その両側に存在する周辺施設等の高さを用いてその判定をするか、を選択してもよいし、或いは、ステップS3で高さデータを取得する際に、当該道路の片側に存在する周辺施設等の高さデータのみを取得するか、その両側に存在する周辺施設等の高さデータを取得するか、を選択してもよい。   Furthermore, the processing unit 2 may make the determination using only the height of the peripheral facility or the like existing on one side of the road on which the vehicle equipped with the navigation device NV moves in the determination of step S6, The determination may be made using the heights of peripheral facilities and the like present on both sides thereof. In this case, at the timing of performing the determination in step S6, the processing unit 2 performs the determination using only the height of the peripheral facility or the like existing on one side of the road or determines the height of the peripheral facility or the like existing on both sides of the road. May be used to make the determination, or when acquiring the height data in step S3, acquire only the height data of peripheral facilities or the like present on one side of the road. Alternatively, the user may select whether to acquire height data of peripheral facilities or the like existing on both sides thereof.

その後処理部2は、例えばナビゲーション装置NVの電源スイッチがオフとされた等の理由により、実施例に係る表示制御処理を終了するか否かを判定する(ステップS9)。ステップS9の判定において、当該表示制御処理を終了する場合(ステップS9:YES)、処理部2は、当該表示制御処理をそのまま終了する。一方ステップS9の判定において、当該表示制御処理を継続する場合(ステップS9:NO)、処理部2は上記ステップS1に戻って上述してきた一連の処理を繰り返す。   After that, the processing unit 2 determines whether to terminate the display control process according to the embodiment, for example, because the power switch of the navigation device NV is turned off (Step S9). When the display control process is terminated in the determination of step S9 (step S9: YES), the processing unit 2 terminates the display control process as it is. On the other hand, if it is determined in step S9 that the display control process is to be continued (step S9: NO), the processing unit 2 returns to step S1 and repeats the above-described series of processes.

次に、上記ステップS7について、図3(b)及び図4を用いて詳説する。上記ステップS7としての倒し施設表示を行う場合、先ず処理部2は、周辺施設等を水平正面視して得られる画像を投影表示するにあたって、当該周辺施設等の頂部をその投影領域において内側にして表示するか、外側にして表示するかを指示する操作信号を、操作部4を介して取得する(ステップS70)。ここで、当該周辺施設等の頂部とは、当該周辺施設等が例えば住宅である場合はその屋根の最上部であり、当該周辺施設等が例えばビルディングやタワーである場合はそれぞれの最上階又は突端部である。そして、ステップS70で取得した操作信号により周辺施設等の頂部を内側にして表示する旨が指示されている場合(ステップS70:内側)、処理部2は、当該頂部を内側にして周辺施設等の正面に相当する画像を車内天井への投影するように、投影部3を制御する(ステップS72)。その後処理部2は、図3(a)に示すステップS9に移行する。このステップS72の投影による画像の表示を、以下、「内側倒し施設表示」と称する。   Next, step S7 will be described in detail with reference to FIGS. When performing the tilted facility display as step S7, first, the processing unit 2 sets the top of the peripheral facility or the like inside the projection area when projecting and displaying an image obtained by viewing the peripheral facility or the like in a horizontal front view. An operation signal for instructing whether to display or display outside is acquired via the operation unit 4 (step S70). Here, the top of the peripheral facility or the like is the top of the roof when the peripheral facility or the like is, for example, a house, and the top floor or the tip of the roof when the peripheral facility or the like is, for example, a building or a tower. Department. If the operation signal acquired in step S70 indicates that the display is to be performed with the top of the peripheral facility or the like inside (step S70: inside), the processing unit 2 sets the top to the inside and displays the peripheral facility or the like. The projection unit 3 is controlled so that an image corresponding to the front is projected on the ceiling in the vehicle (step S72). After that, the processing unit 2 proceeds to step S9 shown in FIG. The display of the image by the projection in step S72 is hereinafter referred to as "inside-down facility display".

ここで、ステップS72における内側倒し表示についてより具体的に、図4(a)及び図4(b)を用いて説明する。なお、以下に説明する図4(b)及び図4(c)並びに図5(b)においては、図中上方が、ナビゲーション装置NVが搭載されている車両の進行方向(前方)となる。   Here, the inward tilt display in step S72 will be described more specifically with reference to FIGS. 4 (a) and 4 (b). 4B, FIG. 4C, and FIG. 5B, which will be described below, the upper part in the figure is the traveling direction (forward) of the vehicle on which the navigation device NV is mounted.

先ず、図4(a)に地図を例示するように、ナビゲーション装置NVが搭載されている車両の現在位置が現在位置マークPMで示されている位置であり、その周辺に周辺施設等10乃至周辺施設等17が建っているとする(図3(a)ステップS2及びステップS3参照)。そして、図4(a)に例示される現在位置で車内天井へ投影される内側倒し施設表示としては、図4(b)に例示するように、車内天井の投影領域AR内の図4(b)中左右側に、周辺施設等10乃至周辺施設等17の正面にそれぞれ相当する画像10G乃至画像17Gが表示される。これらの画像10G乃至画像17Gにおいては、それぞれの頂部が投影領域ARの内側に向くように表示される。また処理部2は、図4(a)に例示する道路Rの進行方向左側にある周辺施設等10乃至周辺施設等13については、それぞれの正面に対応する画像10G乃至画像13Gを、投影領域ARの左側に、当該車両の移動方向について周辺施設等10乃至周辺施設等13が建っている順に表示する。更に処理部2は、図4(a)に例示する道路Rの進行方向右側にある周辺施設等14乃至周辺施設等17については、それぞれの正面に対応する画像14G乃至画像17Gを、投影領域ARの右側に、当該車両の移動方向について周辺施設等14乃至周辺施設等17が建っている順に表示する。また図4(b)に例示する場合は、投影領域ARの図4(b)中左の縁が上記道路Rの進行方向右側にある地面に相当し、一方投影領域ARの図4(b)中右の縁が上記道路Rの進行方向左側にある地面に相当することになる。図4(b)に例示する態様で画像10G乃至画像17Gを投影領域ARに投影することで、ナビゲーション装置NVが搭載されている車両の進行方向(前方)と、投影される内側倒し施設表示における進行方向とが一致することとなり、結果的に、実際の周辺施設等10等を車両から見た方向と、それらに対応して投影された画像10G等の、それらを見る者の視野内における方向と、が一致し、更に画像10G等の投影領域ARにおける配列もそれらが対応する周辺施設等10等と一致する。即ち、実施例に係る内側倒し施設表示の場合は、上記車両内から周辺施設等10等を見上げた場合と同じような景色として、画像10G等が投影される。   First, as exemplified in a map in FIG. 4A, the current position of the vehicle equipped with the navigation device NV is the position indicated by the current position mark PM, and the surrounding facilities such as peripheral facilities 10 to 10 It is assumed that a facility or the like 17 is built (see steps S2 and S3 in FIG. 3A). Then, as the inward-facing facility display projected on the vehicle interior ceiling at the current position illustrated in FIG. 4A, as illustrated in FIG. 4B, FIG. 4B in the projection area AR of the vehicle interior ceiling is used. 10) Images 10G to 17G corresponding to the fronts of the peripheral facilities 10 to 17 are displayed on the middle left and right sides, respectively. In these images 10G to 17G, the respective tops are displayed so as to face the inside of the projection area AR. The processing unit 2 also displays images 10G to 13G corresponding to the fronts of the peripheral facilities 10 to 13 on the left side in the traveling direction of the road R illustrated in FIG. Are displayed on the left side of the vehicle in the order in which the peripheral facilities 10 to 13 are built in the moving direction of the vehicle. Further, for the peripheral facilities 14 to 17 located on the right side in the traveling direction of the road R illustrated in FIG. 4A, the processing unit 2 outputs images 14G to 17G corresponding to the respective fronts to the projection area AR. On the right side of the figure, the moving directions of the vehicle are displayed in the order in which the peripheral facilities 14 to 17 are built. In the case illustrated in FIG. 4B, the left edge of the projection area AR in FIG. 4B corresponds to the ground on the right side in the traveling direction of the road R, while the projection area AR in FIG. The middle right edge corresponds to the ground on the left side in the traveling direction of the road R. By projecting the images 10G to 17G into the projection area AR in the mode illustrated in FIG. 4B, the traveling direction (forward) of the vehicle on which the navigation device NV is mounted and the projected inside-down facility display are displayed. The traveling direction coincides with the traveling direction, and as a result, the direction in which the actual peripheral facility 10 or the like is viewed from the vehicle and the direction in the field of view of the viewer such as the image 10G or the like projected corresponding thereto. And the arrangement in the projection area AR of the image 10G or the like also matches the corresponding peripheral facility 10 or the like. That is, in the case of the inward-facing facility display according to the embodiment, the image 10G or the like is projected as a scene similar to the case where the surrounding facility or the like 10 is looked up from inside the vehicle.

一方、ステップS70で取得した操作信号により周辺施設等の頂部を外側にして表示する旨が指示されている場合(ステップS70:外側)、処理部2は、当該頂部を外側にして周辺施設等の正面に相当する画像を車内天井への投影する(ステップS71)。その後処理部2は、図3(a)に示すステップS9に移行する。このステップS71の投影による画像の表示を、以下、「外側倒し施設表示」と称する。   On the other hand, when the operation signal acquired in step S70 instructs that the top of the peripheral facility or the like is displayed outside (step S70: outside), the processing unit 2 sets the top to the outside and displays the peripheral facility or the like. An image corresponding to the front is projected on the ceiling in the vehicle (step S71). After that, the processing unit 2 proceeds to step S9 shown in FIG. The display of the image by the projection in step S71 is hereinafter referred to as “outside-leaved facility display”.

ここで、ステップS71における外側倒し表示についてより具体的に、図4(a)及び図4(c)を用いて説明する。上記ステップS72の場合と同様に、ナビゲーション装置NVが搭載されている車両の現在位置が図4(a)に例示する現在位置マークPMで示されている位置であり、その周辺に周辺施設等10乃至周辺施設等17が建っているとする。そして、図4(a)に例示される現在位置で車内天井へ投影される外側倒し施設表示としては、図4(c)に例示するように、車内天井の投影領域AR内の図4(b)中左右外側に各周辺施設等10乃至周辺施設等17の頂部が向くように、それぞれの正面に相当する画像10G乃至画像17Gが表示される。また、この場合の投影領域ARの中央には、図4(a)に例示される道路Rに相当する道路画像RGが表示されると共に、画像10G乃至画像17Gにおいては、それぞれの基部が道路画像RGに沿い、且つそれぞれの頂部が投影領域ARの外側に向くように表示される。また処理部2は、図4(a)に例示する道路Rの進行方向左側にある周辺施設等10乃至周辺施設等13については、それぞれの正面に対応する画像10G乃至画像13Gを、道路画像RGに対して投影領域ARの左側の領域に、当該車両の移動方向について周辺施設等10乃至周辺施設等13が建っている順に表示する。更に処理部2は、図4(a)に例示する道路Rの進行方向右側にある周辺施設等14乃至周辺施設等17については、それぞれの正面に対応する画像14G乃至画像17Gを、道路画像RGに対して投影領域ARの右側の領域に、当該車両の移動方向について周辺施設等14乃至周辺施設等17が建っている順に表示する。図4(c)に例示する態様で画像10G乃至画像17Gを投影領域ARに投影することで、ナビゲーション装置NVが搭載されている車両の進行方向(前方)と、投影される外側倒し施設表示における進行方向とが一致することとなり、結果的に、実際の周辺施設等10等を車両から見た方向と、それらに対応して投影された画像10G等の、それらを見る者の視野内における方向と、が一致し、更に画像10G等の投影領域ARにおける配列もそれらが対応する周辺施設等10等と一致する。   Here, the outward tilt display in step S71 will be described more specifically with reference to FIGS. 4A and 4C. As in the case of step S72, the current position of the vehicle on which the navigation device NV is mounted is the position indicated by the current position mark PM illustrated in FIG. It is also assumed that peripheral facilities 17 are built. 4 (b). As an example of the outward-facing facility display projected on the vehicle interior ceiling at the current position illustrated in FIG. 4 (a), as illustrated in FIG. 10) Images 10G to 17G corresponding to the fronts of the respective peripheral facilities 10 to 17 are displayed such that the tops of the peripheral facilities 10 to 17 are directed to the middle left and right outer sides. In addition, a road image RG corresponding to the road R illustrated in FIG. 4A is displayed at the center of the projection area AR in this case, and the base of each of the images 10G to 17G is a road image. It is displayed along the RG and with each apex pointing outside the projection area AR. Further, the processing unit 2 converts the images 10G to 13G corresponding to the fronts of the peripheral facilities 10 to 13 on the left side in the traveling direction of the road R illustrated in FIG. In the area on the left side of the projection area AR, the moving direction of the vehicle is displayed in the order in which the peripheral facilities 10 to 13 are built. Further, for the peripheral facilities 14 to 17 located on the right side in the traveling direction of the road R illustrated in FIG. 4A, the processing unit 2 converts the images 14G to 17G corresponding to the fronts into road images RG. In the area on the right side of the projection area AR, the moving directions of the vehicle are displayed in the order in which the peripheral facilities 14 to 17 are built. By projecting the images 10G to 17G in the projection area AR in the mode illustrated in FIG. 4C, the traveling direction (forward) of the vehicle on which the navigation device NV is mounted and the projected outside tilted facility display are displayed. The traveling direction coincides with the traveling direction, and as a result, the direction in which the actual peripheral facility 10 or the like is viewed from the vehicle and the direction in the field of view of the viewer such as the image 10G or the like projected corresponding thereto. And the arrangement in the projection area AR of the image 10G or the like also matches the corresponding peripheral facility 10 or the like.

次に、上記ステップS8について、図5を用いて説明する。先ず、図5(a)に地図を例示するように、ナビゲーション装置NVが搭載されている車両の現在位置が現在位置マークPMで示されている位置であり、その周辺に周辺施設等20乃至周辺施設等23が建っているとする(図3(a)ステップS2及びステップS3参照。このうち周辺施設等23はタワー型の施設であるとする。)。そして、図5(a)に例示される現在位置で車内天井へ投影される見上げ施設表示としては、図5(b)に例示するように、車内天井の投影領域ARの中心に向かって立体的に各周辺施設等20乃至周辺施設等23がそびえ立つように、当該周辺施設等20乃至周辺施設等23にそれぞれ相当する画像20G乃至画像23Gが表示される。これらの画像20G乃至画像23Gにおいては、それぞれの頂部が投影領域ARの中心に向かうように立体的に表示される。また処理部2は、図5(a)に例示する道路Rの進行方向右側にある周辺施設等20及び周辺施設等21については、それぞれに対応する画像20G及び画像21Gを、投影領域ARの右側縁からそびえ立つように、当該車両の移動方向について周辺施設等20及び周辺施設等21が建っている順に表示する。更に処理部2は、図5(a)に例示する道路Rの進行方向左側にある周辺施設等22及び周辺施設等23については、それぞれに対応する画像22G及び画像23Gを、投影領域ARの左側縁からそびえ立つように、当該車両の移動方向について周辺施設等22及び周辺施設等23が建っている順に表示する。また図5(b)に例示する場合は、投影領域ARの図5(b)中右の縁が上記道路Rの進行方向左側にある地面の方向に相当し、一方投影領域ARの図5(b)中左の縁が上記道路Rの進行方向右側にある地面の方向に相当することになる。   Next, step S8 will be described with reference to FIG. First, as exemplified in a map in FIG. 5A, the current position of the vehicle equipped with the navigation device NV is the position indicated by the current position mark PM, and the surrounding facilities such as peripheral facilities 20 to 20 It is assumed that a facility 23 is built (see steps S2 and S3 in FIG. 3A. The peripheral facility 23 is a tower type facility). As a look-up facility display projected on the vehicle interior ceiling at the current position illustrated in FIG. 5 (a), as illustrated in FIG. 5 (b), a three-dimensional view toward the center of the projection area AR of the vehicle interior ceiling is obtained. The images 20G to 23G corresponding to the peripheral facilities 20 to 23, respectively, are displayed so that the peripheral facilities 20 to 23 rise. In these images 20G to 23G, the tops are stereoscopically displayed such that the tops are directed toward the center of the projection area AR. Further, the processing unit 2 converts the images 20G and 21G corresponding to the peripheral facilities 20 and the peripheral facilities 21 on the right side in the traveling direction of the road R illustrated in FIG. The moving directions of the vehicle are displayed in the order in which the surrounding facilities 20 and the surrounding facilities 21 are built so as to rise from the edge. Further, the processing unit 2, for the peripheral facilities 22 and the peripheral facilities 23 on the left side in the traveling direction of the road R illustrated in FIG. The moving directions of the vehicle are displayed in the order in which the surrounding facilities 22 and the surrounding facilities 23 are built so as to rise from the edge. 5B, the right edge of the projection area AR in FIG. 5B corresponds to the direction of the ground on the left side in the traveling direction of the road R, while the projection area AR in FIG. b) The middle left edge corresponds to the direction of the ground on the right side in the traveling direction of the road R.

なお、図4(b)及び図4(c)並びに図5(b)に例示する場合に、例えば画像10G乃至画像17G(図4(b)及び図4(c)参照)及び画像20G乃至画像22G(図5(b)参照)のように、対応する周辺施設等10等を簡略化した画像の他に、当該対応する周辺施設等10等を実写した画像を予め記憶部5に記憶しておき、当該実写画像を用いてより現実に近いようにして画像10G乃至画像17G及び画像20G乃至画像22Gを投影表示するように構成してもよい。   4B, 4C and 5B, for example, images 10G to 17G (see FIGS. 4B and 4C) and images 20G to 20G As shown in FIG. 22G (see FIG. 5B), in addition to the simplified image of the corresponding peripheral facility 10 and the like, an image of the corresponding peripheral facility 10 and the like is stored in the storage unit 5 in advance. Alternatively, the image 10G to the image 17G and the image 20G to the image 22G may be projected and displayed so as to be more realistic by using the actual photographed image.

また、実施例に係る見上げ施設表示(図5参照)として、ナビゲーション装置NVが搭載されている車両の内側から見て当該車両の両側の窓の上縁より上の部分(即ち、上記車両内の眼の位置からでは当該車両の天井(屋根)に遮られて実際は見えない部分)に相当する画像20G乃至画像23Gのみを、投影領域ARに投影表示するように構成してもよい。ここで、周辺施設等10等における予め設定された高さよりも高い部分に相当する画像20G乃至画像23Gを投影表示する場合に、例えば、当該予め設定された高さを一定としてもよいし、当該予め設定された高さを変更可能としてもよい。更に、当該予め設定された高さを変更可能とする場合、例えば、使用者が自由に変更可能に構成してもよいし、ナビゲーション装置NVが搭載されている車両の現在位置周辺の属性(例えば、市街地であるか、住宅地であるか等の属性)に応じて変更可能としてもよい。   In addition, as a look-up facility display according to the embodiment (see FIG. 5), a portion above the upper edge of the window on both sides of the vehicle as viewed from the inside of the vehicle on which the navigation device NV is mounted (that is, the inside of the vehicle) From the position of the eyes, only the images 20G to 23G corresponding to the part that is not actually visible when blocked by the ceiling (roof) of the vehicle may be configured to be projected and displayed on the projection area AR. Here, when projecting and displaying the images 20G to 23G corresponding to portions higher than the preset height in the peripheral facility 10 or the like, for example, the preset height may be fixed, The preset height may be changeable. Further, when the preset height can be changed, for example, the user may freely change the height, or an attribute (for example, an attribute around the current position of the vehicle on which the navigation device NV is mounted) (for example, , An attribute such as a city area or a residential area).

以上説明したように、実施例に係る表示制御処理によれば、道路脇に存在する周辺施設等を正面視して得られる画像を、道路の両脇に存在する周辺施設等について同時に投影表示させるので、例えば遮蔽物に遮られて視認できない周辺施設等があっても、それらを、道路の両脇について同時に確認することができる。   As described above, according to the display control processing according to the embodiment, images obtained by front-viewing peripheral facilities and the like existing on the side of the road are simultaneously projected and displayed on the peripheral facilities and the like existing on both sides of the road. Therefore, for example, even if there are peripheral facilities or the like that cannot be visually recognized because they are blocked by a shield, they can be simultaneously checked on both sides of the road.

また、車両の移動によって視認される順番で、各周辺施設等の画像を、道路の両脇に存在する周辺施設等について同時に表示させるので、移動に伴う変化を認識しつつ、周辺施設等を確認することができる。   In addition, since images of each peripheral facility are displayed simultaneously in the order in which they are visually recognized by the movement of the vehicle, the peripheral facilities and the like existing on both sides of the road are displayed, so that the surrounding facilities can be checked while recognizing changes accompanying the movement. can do.

更に、移動体の移動に対応して各周辺施設等の画像10G等を移動させつつ表示させるので、より臨場感を高めて両脇の当該画像10G等を表示させることができる。   Further, since the images 10G and the like of the peripheral facilities and the like are displayed while being moved in accordance with the movement of the moving body, it is possible to display the images 10G and the like on both sides with more realistic feeling.

更にまた、内側倒し施設表示(図4(b)参照)の場合は、各周辺施設等の頂部が投影領域ARにおいてそれぞれ内側となるように各周辺施設等の画像10G等を表示させるので、更に臨場感を高めて当該画像10G等を表示させることができる。   Furthermore, in the case of the inward-facing facility display (see FIG. 4B), the images 10G and the like of the respective peripheral facilities are displayed such that the tops of the respective peripheral facilities and the like are located inside in the projection area AR. The image 10G or the like can be displayed with an increased sense of realism.

一方、外側倒し施設表示(図4(c)参照)の場合は、各周辺施設等の頂部が投影領域ARにおいてそれぞれ外側となるように、各周辺施設等の画像10G等を道路画像RGと共に表示させるので、更に臨場感を高めて当該画像10G等を表示させることができる。   On the other hand, in the case of the outer-facing facility display (see FIG. 4C), the images 10G and the like of the respective peripheral facilities are displayed together with the road image RG such that the tops of the respective peripheral facilities and the like are located outside in the projection area AR. Therefore, it is possible to display the image 10G or the like with further enhanced realism.

また、車内天井に各周辺施設等の画像10G等を表示させるので、車両の移動に伴ってより臨場感を高めて当該画像10G等を表示させることができる。   Further, since the images 10G and the like of the peripheral facilities and the like are displayed on the ceiling in the vehicle, the images 10G and the like can be displayed with an increased sense of reality as the vehicle moves.

なお、上述した実施例では、周辺施設等の高さと高さ閾値データとの関係に基づいて、実施例に係る倒し施設表示と実施例に係る見上げ施設表示とを切り換えたが(図3(a)ステップS6乃至ステップS8参照)、これ以外に、高さ閾値データとの比較ではなく、例えば、「市街地」又は「住宅地」等の場所の属性に基づいて、実施例に係る倒し施設表示と実施例に係る見上げ施設表示との切り換えを行うように構成してもよい。   In the above-described embodiment, the display of the defeated facility according to the embodiment and the look-up facility display according to the embodiment are switched based on the relationship between the height of the surrounding facilities and the height threshold data (FIG. ) Refer to steps S6 to S8). In addition to the above, the defeated facility display according to the embodiment is not compared with the height threshold data but based on the attribute of the place such as "city area" or "residential area". It may be configured to perform switching to the look-up facility display according to the embodiment.

また、上述した実施例では、実施例に係る倒し施設表示において、周辺施設等の頂部を投影領域において内側にして表示するか、外側にして表示するかを切り換える構成とした(図3(b)ステップS70参照)が、これ以外に、ナビゲーション装置NVとして予め設定されたいずれか一方(当該頂部を内側にして表示するか、外側にして表示するかのいずれか一方)の表示態様としてもよい。   Further, in the above-described embodiment, in the inverted facility display according to the embodiment, it is configured to switch whether the top of the peripheral facility or the like is displayed inside or outside the projection area in the projection area (FIG. 3B). Alternatively, step S70) may be a display mode of one of the preset navigation devices NV (either the display with the top inside or the display outside).

更に、上述した実施例において、ナビゲーション装置NVが搭載されている車両が移動すべきルートが予め設定されている場合には、現実に視認し得る周辺施設等ではなく、そのルートに沿って移動したときに視認可能となる周辺施設等を対象として上記倒し施設表示又は見上げ施設表示を行うように構成してもよい。この場合、例えば進行方向前方の交差点を左折する上記ルートが設定されている場合、当該交差点を直進したときに視認される周辺施設等(上記ルートが設定されていない場合はこの周辺施設等に対応する画像が表示されることになる)ではなく、当該交差点を左折したときに左右に視認される周辺施設等を対象として上記倒し施設表示又は見上げ施設表示を行うように構成してもよい。この場合には、上記ルートの情報に基づき、移動予定の道路脇にある各周辺施設等の画像を表示させるので、移動予定の位置にある周辺施設等について事前に認識させることができる。   Further, in the above-described embodiment, when a route to which the vehicle equipped with the navigation device NV is to be moved is set in advance, the vehicle travels along the route instead of the peripheral facilities or the like that can be visually recognized. The above-mentioned defeated facility display or look-up facility display may be performed for a peripheral facility or the like that is sometimes visible. In this case, for example, when the above-mentioned route for turning left at the intersection ahead in the traveling direction is set, the peripheral facility or the like which is visually recognized when the vehicle goes straight through the intersection (if the above-mentioned route is not set, it corresponds to this peripheral facility or the like) Instead of displaying an image of a falling facility or a facility looking up, the surrounding facility or the like that is visually recognized left and right when the intersection is turned left may be displayed. In this case, based on the information on the route, an image of each peripheral facility at the side of the road to be moved is displayed, so that the peripheral facility at the position to be moved can be recognized in advance.

更にまた、実施例に係る倒し施設表示において、ナビゲーション装置NVが搭載されている車両の現在位置の直ぐ脇(即ち、進行方向側方の正面)にある周辺施設等のみを、それを水平正面視して得られる正面画像を用いて投影表示すると共に、その移動方向前後にある他の周辺施設等については、当該正面画像に加えて、当該現在位置から視認できる当該他の周辺施設等の側面の画像を合わせて表示することで、立体的な倒し施設表示を行うように構成することもできる。この場合、当該他の周辺施設等についてはそれを斜めに見た(即ち斜視した)画像となることになる。この場合も実施例に係る三次元データDを用いることで、当該立体的な倒し施設表示が可能となる。この場合には、道路の進行方向側方の正面にある周辺施設等以外の他の周辺施設等については、それを斜めに見た画像を道路の両脇に存在する周辺施設等について同時に表示させるので、より臨場感高く両脇の周辺施設等の画像を表示させることができる。   Furthermore, in the display of the defeated facility according to the embodiment, only the peripheral facilities and the like immediately beside the current position of the vehicle equipped with the navigation device NV (that is, the front side in the traveling direction) are viewed in a horizontal front view. In addition to projecting and displaying using the front image obtained as a result, other peripheral facilities and the like in the front and rear directions of the movement, in addition to the front image, the side of the other peripheral facilities and the like visible from the current position. By displaying the images together, it is also possible to perform a three-dimensional inverted facility display. In this case, the image of the other peripheral facility or the like is obliquely viewed (that is, obliquely viewed). Also in this case, by using the three-dimensional data D according to the embodiment, the three-dimensional inverted facility display can be performed. In this case, for other peripheral facilities etc. other than the peripheral facilities etc. in front of the side in the traveling direction of the road, an image obtained by obliquely viewing the same is displayed simultaneously for the peripheral facilities etc. present on both sides of the road. Therefore, images of the surrounding facilities and the like on both sides can be displayed with a higher sense of reality.

また、実施例に係る倒し施設表示において、ナビゲーション装置NVが搭載されている車両の現在位置の近くにある周辺施設等ほど、相対的に大きな画像により表示してもよい。この場合には、当該車両と各周辺施設等との距離が近い周辺施設等の周辺施設等画像ほど相対的に大きく表示させるので、より臨場感を高めて周辺施設等画像を表示させることができる。   Further, in the display of the defeated facility according to the embodiment, a peripheral facility or the like nearer the current position of the vehicle equipped with the navigation device NV may be displayed as a relatively large image. In this case, the image of the peripheral facility such as the peripheral facility where the distance between the vehicle and each peripheral facility is shorter is displayed relatively larger, so that the image of the peripheral facility and the like can be displayed with a more realistic feeling. .

更に、上記倒し施設表示又は上記見上げ表示に重畳させて、例えば有名な店舗等を示す情報を、ナビゲーション装置NVが搭載されている車両の現在位置からの当該店舗等の方位を示す情報又はマークと共に投影表示するように構成してもよい。   Furthermore, the information indicating a famous store or the like is superimposed on the above-mentioned defeated facility display or the look-up display together with information or a mark indicating the direction of the store or the like from the current position of the vehicle equipped with the navigation device NV. You may comprise so that it may display by projection.

更にまた、上述した実施例では、ナビゲーション装置NVが搭載されている車両の車内天井へ画像を投影して表示する場合に実施形態を適用したが、これ以外に、通常のコンソールパネルに備えられているナビゲーション装置の画面において倒し施設表示又は見上げ施設表示を行う場合に本願を適用することもできる。   Furthermore, in the above-described embodiment, the embodiment is applied to the case where the image is projected and displayed on the ceiling of the vehicle on which the navigation device NV is mounted. In addition, the embodiment is provided on a normal console panel. The present application can also be applied to a case where a defeated facility display or a look-up facility display is performed on a screen of a navigation device.

更に、図3に示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施例に係る処理部2として機能させることも可能である。   Further, a program corresponding to the flowchart shown in FIG. 3 is recorded on a recording medium such as an optical disk or a hard disk, or obtained via a network such as the Internet, and read out to a general-purpose microcomputer or the like. By executing, the microcomputer or the like can also function as the processing unit 2 according to the embodiment.

2 取得手段(処理部)
2A 制御手段
3 投影部
10、11、12、13、14、15、16、17、20、21、22、23 周辺施設
10G、11G、12G、13G、14G、15G、16G、17G、20G、21G、22G、23G 画像
RG 道路画像
D 三次元データ
AR 投影領域
2 Acquisition means (processing unit)
2A Control means 3 Projection unit 10, 11, 12, 13, 14, 15, 16, 17, 20, 21, 22, 23 Peripheral facilities 10G, 11G, 12G, 13G, 14G, 15G, 16G, 17G, 20G, 21G , 22G, 23G image RG road image D 3D data AR projection area

Claims (11)

移動体が移動する移動路脇に存在する地物を正面視して得られる地物画像に相当する地物画像情報を取得する取得手段と、
前記取得した地物画像情報を用いて、各前記地物画像を、前記移動路の両脇に存在する前記地物について同時に表示させる制御手段と、
を備えることを特徴とする表示制御装置。
Acquisition means for acquiring feature image information corresponding to a feature image obtained by viewing a feature existing on the side of a moving path on which a moving object moves,
Using the acquired feature image information, control means for simultaneously displaying each of the feature images for the features present on both sides of the moving path,
A display control device comprising:
請求項1に記載の表示制御装置において、
前記制御手段は、各前記地物画像を、前記移動体の移動によって視認される順番で、前記移動路の両脇に存在する前記地物について同時に表示させることを特徴とする表示制御装置。
The display control device according to claim 1,
The display control device, wherein the control means simultaneously displays the feature images on the features present on both sides of the moving path in an order visually recognized by the movement of the moving body.
請求項1又は請求項2に記載の表示制御装置において、
前記制御手段は、前記移動体の移動に対応して各前記地物画像を移動させつつ表示させることを特徴とする表示制御装置。
The display control device according to claim 1 or 2,
The display control device, wherein the control means displays each of the terrestrial images while moving the terrestrial image in accordance with the movement of the moving body.
請求項1から請求項3のいずれか一項に記載の表示制御装置において、
前記制御手段は、前記移動体の進行方向側方の正面にある前記地物以外の他の前記地物については、当該他の前記地物を当該移動体の現在位置から斜めに見て得られる斜め地物画像を、前記移動路の両脇に存在する前記地物について同時に表示させることを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 3,
The control means may obtain the other feature obliquely from the current position of the movable body, for the other feature other than the feature in front of the moving body in the traveling direction side. A display control device, wherein an oblique feature image is displayed simultaneously for the features present on both sides of the moving path.
請求項1から請求項4のいずれか一項に記載の表示制御装置において、
前記制御手段は、各前記地物の頂部が表示領域においてそれぞれ内側となるように各前記地物画像を表示させることを特徴とする表示制御装置。
In the display control device according to any one of claims 1 to 4,
The display control device, wherein the control means displays each of the feature images such that a top of each of the features is inside a display area.
請求項1から請求項4に記載の表示制御装置において、
前記制御手段は、各前記地物の頂部が表示領域においてそれぞれ外側となるように、各前記地物画像を、前記移動路を示す移動路画像と共に表示させることを特徴とする表示制御装置。
The display control device according to claim 1, wherein:
The display control device, wherein the control means displays each of the feature images together with a moving path image indicating the moving path such that a top of each of the features is located outside in a display area.
請求項1から請求項4のいずれか一項に記載の表示制御装置において、
前記移動体と各前記地物との距離を示す距離情報を取得する距離情報取得手段を更に備え、
前記取得された距離情報に基づき、前記制御手段は、前記距離が近い前記地物の前記地物画像ほど相対的に大きく表示させることを特徴とする表示制御装置。
In the display control device according to any one of claims 1 to 4,
Further comprising distance information obtaining means for obtaining distance information indicating the distance between the moving object and each of the features,
The display control device according to claim 1, wherein, based on the acquired distance information, the control unit causes the feature image of the feature closer to the distance to be displayed relatively larger.
請求項1から請求項7のいずれか一項に記載の表示制御装置において、
前記制御手段は、前記移動体内の天井に各前記地物画像を表示させることを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 7,
The display control device, wherein the control unit displays each of the feature images on a ceiling in the moving body.
請求項1から請求項8のいずれか一項に記載の表示制御装置において、
前記移動体が移動すべき前記移動路を示す移動路情報を取得する移動路情報取得手段を更に備え、
前記制御手段は、前記取得した移動路情報に基づいて、前記移動体が移動予定の前記移動路脇にある各前記地物の各前記地物画像を表示させることを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 8,
Moving path information acquisition means for acquiring movement path information indicating the movement path to which the moving object should move,
The display control device, wherein the control means displays each of the feature images of each of the features on the side of the moving path on which the moving object is to move, based on the acquired moving path information.
取得手段と、制御手段と、を備える表示制御装置において実行される表示制御方法であって、
移動体が移動する移動路脇に存在する地物を正面視して得られる地物画像に相当する地物画像情報を前記取得手段により取得する取得工程と、
前記取得した地物画像情報を用いて、各前記地物画像を、前記制御手段により、前記移動路の両脇に存在する前記地物について同時に表示させる制御工程と、
を含むことを特徴とする表示制御方法。
An acquisition unit and a control unit, a display control method executed in a display control device including:
An acquisition step of acquiring feature image information corresponding to a feature image obtained by viewing a feature existing on a side of a moving path on which a moving object moves by the acquisition unit,
Using the acquired feature image information, a control step of simultaneously displaying each of the feature images by the control means, for the features present on both sides of the moving path,
A display control method comprising:
コンピュータを、請求項1から請求項9のいずれか一項に記載の表示制御装置として機能させることを特徴とする表示制御用プログラム。   A display control program for causing a computer to function as the display control device according to any one of claims 1 to 9.
JP2018187396A 2018-10-02 2018-10-02 Device, method, and program for display control Pending JP2020056678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018187396A JP2020056678A (en) 2018-10-02 2018-10-02 Device, method, and program for display control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018187396A JP2020056678A (en) 2018-10-02 2018-10-02 Device, method, and program for display control

Publications (1)

Publication Number Publication Date
JP2020056678A true JP2020056678A (en) 2020-04-09

Family

ID=70106979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018187396A Pending JP2020056678A (en) 2018-10-02 2018-10-02 Device, method, and program for display control

Country Status (1)

Country Link
JP (1) JP2020056678A (en)

Similar Documents

Publication Publication Date Title
JP4246195B2 (en) Car navigation system
JP5798392B2 (en) Parking assistance device
US20100054580A1 (en) Image generation device, image generation method, and image generation program
JP5715778B2 (en) Image display device for vehicle
US20200282832A1 (en) Display device and computer program
US11525694B2 (en) Superimposed-image display device and computer program
US10930070B2 (en) Periphery monitoring device
US11865448B2 (en) Information processing apparatus and user guide presentation method
JP2015153426A (en) Generating augmented view of location of interest
JP7322713B2 (en) Information processing device, information processing method, and program
JP6720341B2 (en) Virtual reality device and method for adjusting its contents
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
JP5178454B2 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
WO2017029759A1 (en) Display control device, display device, and display control method
JP6110780B2 (en) Additional information display system
JP6968069B2 (en) Display control device and display control method
WO2020017600A1 (en) Display control device, display control method and program
JP2020056678A (en) Device, method, and program for display control
JP7273477B2 (en) Display control device, display control method and display control program
JP2007218655A (en) Navigation device
JP2021103410A (en) Mobile body and imaging system
JP2021101515A (en) Display device, display method, and display program
JPWO2018167815A1 (en) Display control apparatus and display control method
KR101838501B1 (en) HMD device displaying both a virtual contents and a real contents and the method displaying the contents