JP2022176234A - Information display control device, information display control method, and information display control program - Google Patents

Information display control device, information display control method, and information display control program Download PDF

Info

Publication number
JP2022176234A
JP2022176234A JP2022149022A JP2022149022A JP2022176234A JP 2022176234 A JP2022176234 A JP 2022176234A JP 2022149022 A JP2022149022 A JP 2022149022A JP 2022149022 A JP2022149022 A JP 2022149022A JP 2022176234 A JP2022176234 A JP 2022176234A
Authority
JP
Japan
Prior art keywords
image
obstacle
display control
information display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022149022A
Other languages
Japanese (ja)
Inventor
祐一 松本
Yuichi Matsumoto
聡 原
Satoshi Hara
静孝 八木
Shizutaka Yagi
正義 福留
Masayoshi Fukutome
淳 大杉
Atsushi Osugi
歩 川田
Ayumu Kawada
直也 橋津
Naoya Hashitsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022149022A priority Critical patent/JP2022176234A/en
Publication of JP2022176234A publication Critical patent/JP2022176234A/en
Priority to JP2023147457A priority patent/JP2023165757A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display device capable of displaying a driving support image in which a correspondence relation with an actual road is easily understood and visibility is high.
SOLUTION: An information display control device includes: an image acquisition unit for acquiring a first image that is a scenery image around a mobile body photographed by a photographing unit mounted on the mobile body; a detection unit for detecting an obstacle existing in a traveling direction of the mobile body; and a display control unit that executes obstacle transmission processing for transmitting the obstacle detected by the detection unit in the first image and superimposes a driving support image for supporting drive of the mobile body on a second image that is a scenery image subjected to the obstacle transmission processing to cause a display unit mounted on the mobile body to display it.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、情報表示制御装置に関し、特に、移動体の運転者に向けた情報の表示を行う情報表示制御装置に関する。 TECHNICAL FIELD The present invention relates to an information display control device, and more particularly to an information display control device that displays information for a driver of a mobile object.

車両等の移動体に搭載されたナビゲーション装置等の情報表示装置において、車両のドライバの運転を支援するための運転支援画像の表示が行われている。例えば、進むべきルートを案内するための帯状のルート案内画像や、運転に特に注意を要すべき地点を指示する画像が運転支援画像として表示される。その際、情報表示装置は、実際の風景を撮影した撮影画像に重畳する方法や、HUD(ヘッドアップディスプレイ)等により実際の風景に虚像として重畳する方法により、運転支援画像の表示を行う。 2. Description of the Related Art In an information display device such as a navigation device mounted on a mobile object such as a vehicle, a driving support image is displayed to support driving of the vehicle driver. For example, a belt-shaped route guidance image for guiding the route to be taken, and an image for indicating points where special attention should be paid to driving are displayed as the driving support image. At that time, the information display device displays the driving support image by a method of superimposing it on a photographed image of the actual landscape or a method of superimposing it as a virtual image on the actual landscape using a HUD (head-up display) or the like.

例えば、実際の風景を撮影した撮影画像に運転支援画像を重畳して表示する場合、車両の前方に障害物等が存在すると、運転支援画像と障害物とが重なって表示され、運転注意地点の位置やルート案内がわかりづらくなる場合がある。そこで、ルート案内画像と障害物が重なって表示されることを避けるため、撮影画像内の障害物のない上空の位置にルート案内画像を表示する情報表示装置が提案されている(例えば、特許文献1)。 For example, when a driving support image is superimposed on a photographed image of an actual landscape, and an obstacle or the like exists in front of the vehicle, the driving support image and the obstacle are superimposed and displayed, indicating a driving caution point. Location and route guidance may become difficult to understand. Therefore, in order to avoid overlapping display of the route guidance image and the obstacles, an information display device has been proposed that displays the route guidance image at a position in the sky where there are no obstacles in the photographed image (for example, Patent Document 1).

特開2012-233904号公報JP 2012-233904 A

上記したように撮影画像内の上空の位置にルート案内画像等の運転支援画像を表示した場合、運転支援画像と実際の道路との対応関係がわかりにくいということが課題の一例として挙げられる。 As described above, when a driving support image such as a route guidance image is displayed in the sky position in the captured image, one of the problems is that it is difficult to understand the correspondence between the driving support image and the actual road.

本発明は上記した点に鑑みてなされたものであり、実際の道路との対応関係がわかりやすく且つ視認性の高い運転支援画像の表示を行うことが可能な情報表示装置を提供することを目的の一つとしている。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an information display device capable of displaying a highly visible driving support image in an easy-to-understand correspondence relationship with an actual road. is one of

請求項1に記載の発明は、情報表示制御装置であって、移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得部と、前記移動体の進行方向に存在する障害物を検出する検出部と、前記検出部により検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された表示部に表示させる表示制御部と、を有することを特徴とする。 The invention according to claim 1 is an information display control device, comprising: an image acquisition unit for acquiring a first image, which is a landscape image of the surroundings of the moving object, captured by an imaging unit mounted on the moving object; a detection unit that detects an obstacle present in a traveling direction of the moving object; and obstacle transparency processing that allows the obstacle detected by the detection unit to pass through the first image, and the obstacle transparency processing is completed. and a display control unit that superimposes a driving assistance image for assisting driving of the moving object on the second image, which is a landscape image, and displays the image on a display unit mounted on the moving object.

請求項8に記載の発明は、表示部に画像を表示させる情報表示制御装置が実行する情報表示制御方法であって、移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得ステップと、前記移動体の進行方向に存在する障害物を検出する検出ステップと、前記検出ステップにより検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された前記表示部に表示させる表示制御ステップと、を含むことを特徴とする。 According to an eighth aspect of the invention, there is provided an information display control method executed by an information display control device for displaying an image on a display unit, wherein the surrounding scenery of the moving object photographed by the photographing unit mounted on the moving object. an image acquisition step of acquiring a first image that is an image; a detection step of detecting an obstacle present in a traveling direction of the moving object; and allowing the obstacle detected by the detection step to pass through the first image. Obstacle transparency processing is performed, and a driving assistance image for assisting driving of the moving object is superimposed on the second image, which is a landscape image after the obstacle transmission processing, and displayed on the display unit mounted on the moving object. and a display control step for displaying.

請求項9に記載の発明は、情報表示制御プログラムであって、コンピュータに、移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得ステップと、前記移動体の進行方向に存在する障害物を検出する検出ステップと、前記検出ステップにより検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された前記表示部に表示させる表示制御ステップと、を実行させることを特徴とする。 According to a ninth aspect of the invention, there is provided an information display control program, which is an image acquisition program for acquiring, in a computer, a first image, which is a landscape image of the surroundings of the moving object, photographed by a photographing unit mounted on the moving object. a detection step of detecting an obstacle present in the moving direction of the moving body; and an obstacle transmission process of transmitting the obstacle detected by the detection step in the first image, a display control step of superimposing a driving assistance image for assisting driving of the moving object on a second image, which is a landscape image that has undergone transparency processing, and displaying the image on the display unit mounted on the moving object. characterized by

本発明の実施例1の情報表示システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information display system according to Example 1 of the present invention; FIG. 実施例1の情報表示システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information display system of Example 1; FIG. 実施例1の情報表示端末による情報表示処理ルーチンの例を示すフローチャートである。4 is a flow chart showing an example of an information display processing routine by the information display terminal of Example 1; 実施例1の情報表示端末による障害物透過処理ルーチンの例を示すフローチャートである。7 is a flow chart showing an example of an obstacle see-through processing routine by the information display terminal according to the first embodiment; 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. 実施例2の情報表示端末による情報表示の様子を模式的に示す図である。FIG. 11 is a diagram schematically showing how information is displayed by the information display terminal of Example 2; 実施例2の情報表示端末による情報表示処理ルーチンの例を示すフローチャートである。10 is a flow chart showing an example of an information display processing routine by the information display terminal of Example 2;

以下に本発明の好適な実施例を詳細に説明する。なお、以下の説明及び添付図面においては、実質的に同一または等価な部分には同一の参照符号を付している。 Preferred embodiments of the present invention are described in detail below. In the following description and accompanying drawings, substantially the same or equivalent parts are denoted by the same reference numerals.

図1は、実施例1の情報表示システム10の構成を示している。情報表示システム10は、情報表示制御装置としての情報表示端末10A及びサーバ装置10Bを含んでいる。本実施例においては、情報表示端末10Aが、移動体としての車両Mに搭載されている例について説明する。 FIG. 1 shows the configuration of an information display system 10 of Example 1. As shown in FIG. The information display system 10 includes an information display terminal 10A and a server device 10B as information display control devices. In this embodiment, an example in which the information display terminal 10A is mounted on a vehicle M as a moving object will be described.

情報表示端末10Aとサーバ装置10Bとは、ネットワーク(通信路)を介して相互にデータの送受信(通信接続)が可能である。例えば、当該送受信には、TCP/IP等の通信プロトコルが用いられる。また、当該ネットワークは、移動体通信網、Wi-Fi(登録商標)等の無線通信及び有線通信を含むインターネット通信により構築され得る。サーバ装置10Bは、複数の車両Mに搭載された複数の情報表示端末10Aの各々との間で相互にデータの送受信が可能である。 The information display terminal 10A and the server device 10B can mutually transmit and receive data (communication connection) via a network (communication path). For example, a communication protocol such as TCP/IP is used for the transmission and reception. Also, the network can be constructed by Internet communication including wireless communication such as mobile communication network, Wi-Fi (registered trademark), and wired communication. The server device 10B can mutually transmit and receive data to and from each of the plurality of information display terminals 10A mounted on the plurality of vehicles M. FIG.

図2は、情報表示端末10A及びサーバ装置10Bの構成を示している。サーバ装置10Bは、情報表示端末10A以外の複数の情報表示端末(図示せず)と相互にデータの送受信を行う。そのため、情報表示端末10Aには、当該端末を識別するための装置IDが予め割り振られている。 FIG. 2 shows the configuration of the information display terminal 10A and the server device 10B. The server device 10B exchanges data with a plurality of information display terminals (not shown) other than the information display terminal 10A. Therefore, a device ID for identifying the terminal is assigned in advance to the information display terminal 10A.

情報表示端末10Aは、車両Mの周囲の風景画像を取得する画像取得部としてのカメラ11を有する。カメラ11は、例えば車両Mのフロント部分に搭載されており、車両Mが走行する道路を含む前方の風景を撮影して風景画像を取得する。 10 A of information display terminals have the camera 11 as an image acquisition part which acquires the scenery image around the vehicle M. FIG. The camera 11 is mounted, for example, on the front portion of the vehicle M, and captures the scenery in front including the road on which the vehicle M travels to obtain a scenery image.

情報表示端末10Aは、ハードディスク、フラッシュメモリ、SSD(Solid State Drive)、RAM(Random Access Memory)等の記憶装置からなる端末記憶部12を有する。端末記憶部12は、情報表示端末10Aにおいて実行されるプログラム、情報表示端末10Aの動作に必要なデータ、情報表示端末10Aの動作において発生するデータ及び外部から取込まれるデータを適宜記憶する。例えば、端末記憶部12は、車両Mが走行する道路の情報を含む地図情報や、サーバ装置10Bから取得した運転注意地点等の情報を記憶する。また、端末記憶部12は、カメラ11が撮影した風景画像の画像情報を撮影が行われた日時、車両Mの位置及び進行方向等の情報と関連付けて記憶する。また、端末記憶部12は、情報表示端末10Aの装置IDを記憶する。 The information display terminal 10A has a terminal storage unit 12 comprising a storage device such as a hard disk, flash memory, SSD (Solid State Drive), RAM (Random Access Memory). The terminal storage unit 12 appropriately stores programs executed in the information display terminal 10A, data required for the operation of the information display terminal 10A, data generated during the operation of the information display terminal 10A, and data taken in from the outside. For example, the terminal storage unit 12 stores map information including information on roads on which the vehicle M travels, and information such as driving caution points acquired from the server device 10B. In addition, the terminal storage unit 12 stores the image information of the landscape image captured by the camera 11 in association with information such as the date and time when the image was captured and the position and traveling direction of the vehicle M. The terminal storage unit 12 also stores the device ID of the information display terminal 10A.

情報表示端末10Aは、中央演算処理装置(CPU(Central processing Unit))等からなる端末制御部13を有する。端末制御部13は、情報表示端末10Aの動作に必要な制御を行う。例えば、端末制御部13は、車両Mの目的地までの経路探索、サーバ装置10Bへの情報要求、情報表示端末10Aの各部の動作の制御等を行う。 The information display terminal 10A has a terminal control section 13 including a central processing unit (CPU). The terminal control unit 13 performs control necessary for the operation of the information display terminal 10A. For example, the terminal control unit 13 searches for a route to the destination of the vehicle M, requests information from the server device 10B, and controls the operation of each unit of the information display terminal 10A.

画像処理部14は、カメラ11により撮影された風景画像に対して画像処理を行う。例えば、画像処理部14は、風景画像の中から車両Mの前方に位置する障害物(例えば、前方車両等の路面上に存在する物体)を検出し、当該障害物を風景画像中において透過させる障害物透過処理を実行する。また、画像処理部14は、ドライバの運転を支援するための運転支援画像を生成し、当該運転支援画像の風景画像への重畳や風景画像内での視点変換処理等の画像処理を行う。画像処理部14は、サーバ装置10Bから取得した情報や端末記憶部12に記憶された過去の風景画像に基づいて、これらの画像処理を行う。 The image processing unit 14 performs image processing on the landscape image captured by the camera 11 . For example, the image processing unit 14 detects an obstacle located in front of the vehicle M from the scenery image (for example, an object existing on the road surface such as the vehicle in front), and makes the obstacle transparent in the scenery image. Execute obstacle transparency processing. The image processing unit 14 also generates a driving assistance image for assisting the driver's driving, and performs image processing such as superimposition of the driving assistance image on the landscape image and viewpoint conversion processing within the landscape image. The image processing unit 14 performs these image processes based on the information obtained from the server device 10B and the past landscape images stored in the terminal storage unit 12. FIG.

情報表示端末10Aは、車両Mの運転者に対して情報の提示を行う提示部としての表示部15及び音声出力部16を有する。 10 A of information display terminals have the display part 15 and the audio|voice output part 16 as a presentation part which presents information with respect to the driver|operator of the vehicle M. FIG.

表示部15は、液晶ディスプレイや有機ELディスプレイ等の表示装置であり、ドライバによって視認可能に設けられている。表示部15は、端末制御部13の制御に応じて、車両Mの周囲の風景画像及びこれに重畳された運転支援画像を表示する。 The display unit 15 is a display device such as a liquid crystal display or an organic EL display, and is provided so as to be visually recognizable by the driver. The display unit 15 displays a landscape image around the vehicle M and a driving support image superimposed thereon under the control of the terminal control unit 13 .

音声出力部16は、車両Mの目的地までのナビゲーション情報やその他の運転支援情報を音声として出力する音響機器である。例えば、音声出力部16は、経路情報の一部や運転注意地点に関する情報を音声出力する。 The audio output unit 16 is an acoustic device that outputs navigation information to the destination of the vehicle M and other driving support information as audio. For example, the voice output unit 16 voice-outputs part of the route information and information on driving caution points.

情報表示端末10Aは、リモートコントローラ又はタッチパネル等の入力機器からなる操作入力部17を有する。操作入力部17は、搭乗者からの操作入力を受け付ける。例えば、操作入力部17は、経路情報の表示を要求する入力、目的地の入力等の操作入力を受け付ける。 The information display terminal 10A has an operation input section 17 comprising an input device such as a remote controller or touch panel. The operation input unit 17 receives an operation input from the passenger. For example, the operation input unit 17 receives operation inputs such as an input requesting display of route information and an input of a destination.

情報表示端末10Aは、車両Mの位置を検出する装置である位置検出部18を有する。位置検出部18は、例えばGPS(Global Positioning System)受信機等の位置特定装置を含み、車両Mの位置を検出して位置情報を生成する。 10 A of information display terminals have the position detection part 18 which is a device which detects the position of the vehicle M. FIG. The position detection unit 18 includes a position specifying device such as a GPS (Global Positioning System) receiver, detects the position of the vehicle M, and generates position information.

情報表示端末10Aは、端末通信部19を有する。端末通信部19は、例えば端末制御部13の指示に従ってデータの送受信を行うためのNIC(Network Interface Card)等のネットワークアダプタである。送信部としての端末通信部19は、例えば車両Mの位置情報、装置ID、経路情報及びカメラ11が撮影した風景画像の画像情報等を送信する。受信部としての端末通信部19は、例えば事故多発地点等の運転注意地点の情報を含む運転支援情報等を受信する。 The information display terminal 10A has a terminal communication section 19 . The terminal communication unit 19 is a network adapter such as a NIC (Network Interface Card) for transmitting and receiving data according to instructions from the terminal control unit 13, for example. The terminal communication unit 19 as a transmission unit transmits, for example, the position information of the vehicle M, the device ID, the route information, the image information of the landscape image taken by the camera 11, and the like. The terminal communication unit 19 as a receiving unit receives, for example, driving support information including information on driving caution points such as accident-prone points.

続いて、サーバ装置10Bについて説明する。サーバ装置10Bは、サーバ通信部21を有する。サーバ通信部21は、例えばNIC等のネットワークアダプタであり、1又は複数の車両Mとの間でデータの送受信を行う。送信部としてのサーバ通信部21は、例えば運転支援情報を含む配信情報等を情報表示端末10Aに送信する。また、受信部としてのサーバ通信部21は、例えば車両Mの位置情報、装置ID、経路情報及び風景画像の画像情報等を情報表示端末10Aから受信する。 Next, the server device 10B will be described. The server device 10B has a server communication section 21 . The server communication unit 21 is, for example, a network adapter such as a NIC, and transmits and receives data to and from one or more vehicles M. The server communication unit 21 as a transmission unit transmits distribution information including, for example, driving support information to the information display terminal 10A. Also, the server communication unit 21 as a receiving unit receives, for example, the position information of the vehicle M, the device ID, the route information, the image information of the landscape image, and the like from the information display terminal 10A.

サーバ装置10Bは、ハードディスク、フラッシュメモリ、SSD、RAM等の記憶装置からなるサーバ記憶部22を有する。サーバ記憶部22は、サーバ装置10Bにおいて実行されるプログラム、サーバ装置10Bの動作に必要なデータ、サーバ装置10Bの動作において発生するデータ及び外部から取込まれるデータを適宜記憶する。 The server device 10B has a server storage unit 22 comprising storage devices such as hard disks, flash memories, SSDs, and RAMs. The server storage unit 22 appropriately stores programs executed in the server device 10B, data necessary for the operation of the server device 10B, data generated during the operation of the server device 10B, and data taken in from the outside.

サーバ記憶部22は、地図情報DB22Aを有する。地図情報DB22Aには、事故多発地点等の運転注意地点の情報を含む地図情報が格納されている。 The server storage unit 22 has a map information DB 22A. The map information DB 22A stores map information including information on driving caution points such as accident-prone points.

また、サーバ記憶部22は、風景画像DB22Bを格納する。風景画像DB22Bには、サーバ通信部21が複数の車両Mから受信した風景画像の画像情報が、当該車両Mの位置情報、進行方向情報、走行中のレーン(例えば、右折レーン、直進レーン等)の情報及び撮影された日時の情報と関連付けて格納されている。 The server storage unit 22 also stores a landscape image DB 22B. In the landscape image DB 22B, the image information of the landscape images received by the server communication unit 21 from a plurality of vehicles M is stored as the position information of the vehicles M, the traveling direction information, the lane in which the vehicle is traveling (for example, the right turn lane, the straight lane, etc.). and information on the date and time when the image was taken are stored in association with each other.

サーバ装置10Bは、サーバ制御部23を有する。サーバ制御部23は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM等により構成され、コンピュータとして機能する。サーバ制御部23は、サーバ記憶部22に記憶された各種プログラムを読み出して実行することにより各種機能を実現する。サーバ制御部23は、受信画像記憶制御部24を含んでいる。 The server device 10B has a server control section 23 . The server control unit 23 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, etc., and functions as a computer. The server control unit 23 implements various functions by reading and executing various programs stored in the server storage unit 22 . The server control section 23 includes a received image storage control section 24 .

受信画像記憶制御部24は、サーバ通信部21が複数の車両Mから受信した風景画像の画像情報を、当該車両Mの位置情報、進行方向情報、走行中のレーンの情報及び撮影された日時の情報と関連付けてサーバ記憶部22の風景画像DB22Bに記憶させる。その際、受信画像記憶制御部24は、例えば撮影された位置、時間帯、季節、レーン、進行方向毎に風景画像を分類して風景画像DB22Bに記憶させる。なお、受信画像記憶制御部24は、車両Mの位置情報に基づいて当該位置の周辺の気象情報を取得し、風景画像を気象状況毎に分類して風景画像DB22Bに記憶させるようにしても良い。 The received image storage control unit 24 stores the image information of the landscape images received from the plurality of vehicles M by the server communication unit 21 as the position information of the vehicles M, the traveling direction information, the lane information on which the image is being taken, and the date and time when the image was taken. The landscape image DB 22B of the server storage unit 22 is stored in association with the information. At this time, the received image storage control unit 24 classifies the landscape images by, for example, the shooting position, time zone, season, lane, and traveling direction, and stores them in the landscape image DB 22B. Note that the received image storage control unit 24 may acquire weather information around the position based on the position information of the vehicle M, classify the scenery images according to weather conditions, and store them in the scenery image DB 22B. .

また、受信画像記憶制御部24は、風景画像を記憶させる前に画像解析を行い、路面上に前方車両等の障害物が存在する風景画像は除外して風景画像DB22Bに記憶させる。また、受信画像記憶制御部24は、撮影された位置、時刻、季節、気象情報等の条件が類似する風景画像が既に存在した場合には、新たに取得した風景画像を上書きして風景画像DB22Bに記憶させる。 In addition, the received image storage control unit 24 performs image analysis before storing landscape images, and stores the landscape images in the landscape image DB 22B while excluding landscape images in which an obstacle such as a forward vehicle exists on the road surface. In addition, if there is already a landscape image with similar conditions such as photographed position, time, season, weather information, etc., the received image storage control unit 24 overwrites the newly acquired landscape image and stores it in the landscape image DB 22B. be memorized.

また、サーバ制御部23は、送信情報生成部25を含んでいる。送信情報生成部25は、情報表示端末10Aに配信(送信)する配信情報を生成する。例えば、送信情報生成部25は、車両Mの位置情報に基づいて当該位置の周辺の事故多発地点等の運転注意地点の位置情報を取得し、運転注意地点の情報を含む配信情報を生成する。また、送信情報生成部25は、車両Mの位置情報、進行方向情報及びその他の環境情報(例えば、季節、時間帯、気象状況等)を含む画像要求情報の受信に応じて、サーバ記憶部22の風景画像DBに記憶されている風景画像を抽出し、当該風景画像を含む配信情報を生成する。 The server control section 23 also includes a transmission information generation section 25 . The transmission information generation unit 25 generates distribution information to be distributed (transmitted) to the information display terminal 10A. For example, based on the position information of the vehicle M, the transmission information generation unit 25 acquires position information of driving caution points such as accident-prone points around the position, and generates distribution information including the information of the driving caution points. In addition, the transmission information generation unit 25 receives the image request information including the position information of the vehicle M, the traveling direction information, and other environmental information (for example, the season, the time zone, the weather conditions, etc.), the server storage unit 22 scenery image stored in the scenery image DB of , and generates distribution information including the scenery image.

図3を参照しつつ、情報表示端末10Aが実行する情報表示処理ルーチンRT1について説明する。 The information display processing routine RT1 executed by the information display terminal 10A will be described with reference to FIG.

情報表示端末10Aの端末制御部13は、例えば、車両Mのアクセサリー電源(以下、ACC電源と称する)がオンになると、情報表示処理ルーチンRT1を開始する。なお、端末制御部13は、車両Mのエンジンの始動によって情報表示処理ルーチンRT1を開始しても良い。 The terminal control unit 13 of the information display terminal 10A starts an information display processing routine RT1, for example, when the accessory power supply (hereinafter referred to as ACC power supply) of the vehicle M is turned on. Note that the terminal control unit 13 may start the information display processing routine RT1 when the engine of the vehicle M is started.

位置検出部18は、車両Mの現在位置を示す現在位置情報を取得する(ステップS101)。 The position detector 18 acquires current position information indicating the current position of the vehicle M (step S101).

端末制御部13は、端末通信部19を制御して、車両Mの現在位置情報及び車両Mに設定されている進行予定経路の経路情報を含む移動情報をサーバ装置10Bに送信させる(ステップS102)。端末通信部19は、当該移動情報を所定の時間間隔おきにサーバ装置10Bに送信してもよい。 The terminal control unit 13 controls the terminal communication unit 19 to transmit the movement information including the current position information of the vehicle M and the route information of the planned travel route set in the vehicle M to the server device 10B (step S102). . The terminal communication unit 19 may transmit the movement information to the server device 10B at predetermined time intervals.

端末通信部19は、送信した移動情報に基づいてサーバ装置10Bにおいて生成された、車両Mの周辺の運転注意地点の情報やルート案内の情報を含む運転支援情報を受信する(ステップS103)。 The terminal communication unit 19 receives the driving support information including information on driving caution points around the vehicle M and information on route guidance, which is generated in the server device 10B based on the transmitted movement information (step S103).

端末制御部13は、受信した運転支援情報に基づいて、車両Mの進行方向に位置する運転注意地点や交差点等の案内地点を特定し、車両Mの現在位置が当該案内地点から所定距離の範囲内であるか否かを判定する(ステップS104)。 Based on the received driving support information, the terminal control unit 13 identifies guidance points such as driving attention points and intersections located in the traveling direction of the vehicle M, and determines that the current position of the vehicle M is within a predetermined distance from the guidance points. It is determined whether or not it is within (step S104).

車両Mの現在位置が案内地点から所定距離の範囲内ではないと判定すると(ステップS104:No)、端末制御部13は、画像処理部14を制御して、移動体の運転を支援する運転支援画像を風景画像の上空の位置に表示するための上空支援画像を生成させる。画像処理部14は、ステップS103で受信した運転支援情報に基づいて、運転注意地点を示す運転注意地点指示画像及びルート案内画像を含む運転支援画像を上空支援画像として生成する(ステップS105)。 When it is determined that the current position of the vehicle M is not within the range of the predetermined distance from the guidance point (step S104: No), the terminal control unit 13 controls the image processing unit 14 to provide driving assistance for assisting the driving of the moving object. A sky support image is generated for displaying an image at a position in the sky above the landscape image. Based on the driving support information received in step S103, the image processing unit 14 generates a driving support image including a driving caution point indication image indicating a driving caution point and a route guidance image as an aerial support image (step S105).

一方、車両Mの現在位置が案内地点から所定距離の範囲内であると判定すると(ステップS104:Yes)、端末制御部13は、画像処理部14を制御してカメラ11が撮影した風景画像を解析し、車両Mの前方の路面上に前方車両等の障害物があるか否かを判定する(ステップS106)。 On the other hand, when it is determined that the current position of the vehicle M is within the range of the predetermined distance from the guidance point (step S104: Yes), the terminal control section 13 controls the image processing section 14 to display the landscape image captured by the camera 11. Then, it is determined whether or not there is an obstacle such as a forward vehicle on the road surface in front of the vehicle M (step S106).

車両Mの前方に障害物がないと判定すると(ステップS106:No)、端末制御部13は、カメラ11により撮影された風景画像を端末記憶部12に記憶させる(ステップS107)。同時にカメラ11により撮影された風景画像の画像情報を、撮影時の車両Mの位置情報、進行方向情報、及び撮影日時の情報と供にサーバ装置10Bに送信するようにしてもよい。 When it is determined that there is no obstacle in front of the vehicle M (step S106: No), the terminal control section 13 stores the landscape image captured by the camera 11 in the terminal storage section 12 (step S107). At the same time, the image information of the landscape image captured by the camera 11 may be transmitted to the server device 10B together with the position information of the vehicle M at the time of capturing, the traveling direction information, and the information on the date and time of capturing.

車両Mの前方に障害物があると判定すると(ステップS106:Yes)、車両Mの周囲の風景を障害物の一部(例えば、内部)を透過しつつ示す透過画像を生成する障害物透過処理を実行する(ステップS108)。 When it is determined that there is an obstacle in front of the vehicle M (step S106: Yes), obstacle transparency processing for generating a transparent image showing the surrounding scenery of the vehicle M with part of the obstacle (for example, inside) transparent. is executed (step S108).

図4は、情報表示端末10Aが実行する障害物透過処理ルーチンRT2を示すフローチャートである。 FIG. 4 is a flowchart showing an obstacle transparent processing routine RT2 executed by the information display terminal 10A.

端末制御部13は、カメラ11が撮影した風景画像に対応する撮影状況又は撮影環境(例えば、位置、進行方向、時間帯、季節、天候等)で、過去に撮影した障害物を含まない風景画像、または、過去にサーバ装置10Bから受信した障害物を含まない風景画像(以下、代替画像と称する)が端末記憶部12に記憶されているか否かを判定する(ステップS201)。 The terminal control unit 13 captures an obstacle-free landscape image captured in the past in a shooting situation or shooting environment (for example, position, traveling direction, time zone, season, weather, etc.) corresponding to the scenery image shot by the camera 11. Alternatively, it is determined whether or not a landscape image (hereinafter referred to as an alternative image) that does not contain obstacles and has been received from the server device 10B in the past is stored in the terminal storage unit 12 (step S201).

代替画像が端末記憶部12に記憶されていると判定すると(ステップS201:Yes)、端末制御部13は、代替画像を端末記憶部12から読み出して取得する(ステップS202)。 When determining that the substitute image is stored in the terminal storage unit 12 (step S201: Yes), the terminal control unit 13 reads out and acquires the substitute image from the terminal storage unit 12 (step S202).

代替画像が端末記憶部12に記憶されていないと判定すると(ステップS201:No)、端末制御部13は、端末通信部19を制御して、代替画像の送信を要求する画像要求をサーバ装置10Bに送信する(ステップS203)。画像要求は、車両Mの位置情報、進行方向情報、及び季節、気象状況、時間帯等を指定する情報を含む。 If it is determined that the substitute image is not stored in the terminal storage unit 12 (step S201: No), the terminal control unit 13 controls the terminal communication unit 19 to send an image request requesting transmission of the substitute image to the server device 10B. (step S203). The image request includes position information of the vehicle M, traveling direction information, and information designating the season, weather conditions, time zone, and the like.

上記の通り、サーバ装置10Bの風景画像DB22Bには複数の車両Mにおいて撮影された風景画像が記憶されている。サーバ装置10Bは情報表示端末10Aからの画像要求に応じて、風景画像DV22Bに記憶されている複数の風景画像の中から対応する風景画像を代替画像として抽出し、情報表示端末10Aに送信する。端末記憶部12は、代替画像の画像情報をサーバ装置10Bから端末通信部19を介して受信することにより、代替画像を取得する(ステップS204)。 As described above, the landscape image DB 22B of the server device 10B stores landscape images taken in a plurality of vehicles M. FIG. In response to the image request from the information display terminal 10A, the server device 10B extracts the corresponding scenery image from among the plurality of scenery images stored in the scenery image DV22B as a substitute image, and transmits it to the information display terminal 10A. The terminal storage unit 12 acquires the substitute image by receiving the image information of the substitute image from the server device 10B via the terminal communication unit 19 (step S204).

画像処理部14は、カメラ11により撮影された風景画像と代替画像との位置合わせを行う(ステップS205)。例えば、画像処理部14は、両方の画像中に共通して含まれる特徴物(特徴となる部分)を検出し、特徴物の位置の一致度合いが高くなるように位置合わせを行う。 The image processing unit 14 aligns the landscape image captured by the camera 11 with the substitute image (step S205). For example, the image processing unit 14 detects a characteristic object (portion serving as a characteristic) that is commonly included in both images, and aligns the positions so that the degree of coincidence of the positions of the characteristic objects is high.

位置合わせの完了後、画像処理部14は、風景画像に含まれる障害物のエッジを検出する(ステップS206)。 After completing the alignment, the image processing unit 14 detects edges of obstacles included in the landscape image (step S206).

画像処理部14は、検出した障害物のエッジを基準として、代替画像のうち、カメラ11により撮影された風景画像中の障害物に重畳すべき領域(すなわち、代替画像における障害物の位置に対応する領域)をトリミングする(ステップS207)。 Based on the detected edge of the obstacle, the image processing unit 14 selects an area of the alternative image to be superimposed on the obstacle in the landscape image captured by the camera 11 (that is, the position of the obstacle in the alternative image). area) is trimmed (step S207).

画像処理部14は、トリミングした代替画像を風景画像に重畳し、風景画像中の障害物の一部(例えば、内部)が疑似的に透過された透過画像を生成する(ステップS208)。その際、画像処理部14は、例えば車両Mから案内地点までの距離に応じて障害物の透過度合い(例えば、半透明、全透明等)を変化させつつ、透過画像を生成する。 The image processing unit 14 superimposes the trimmed substitute image on the landscape image to generate a transparent image in which a part (for example, the inside) of the obstacle in the landscape image is pseudo-transparent (step S208). At that time, the image processing unit 14 generates a transmission image while changing the degree of transparency of the obstacle (for example, translucent, fully transparent, etc.) according to, for example, the distance from the vehicle M to the guidance point.

再び図3を参照すると、端末制御部13は、画像処理部14を制御して、移動体の運転を支援する運転支援画像を風景画像の路面上に表示するための路面支援画像を生成させる。画像処理部14は、ステップS103で受信した運転支援情報に基づいて、運転注意地点を示す運転注意地点指示画像及びルート案内画像を含む運転支援画像を路面支援画像として生成する(ステップS109)。 Referring to FIG. 3 again, the terminal control unit 13 controls the image processing unit 14 to generate a road surface support image for displaying a driving support image for supporting driving of the moving object on the road surface of the landscape image. Based on the driving assistance information received in step S103, the image processing unit 14 generates a driving assistance image including a driving caution point indication image indicating a driving caution point and a route guidance image as a road surface assistance image (step S109).

端末制御部13は、表示部15を制御して、画像処理部14がステップS105で生成した上空支援画像又はステップS109で生成した路面支援画像を、カメラ11が撮影した風景画像又はステップS108の障害物透過処理で生成した透過画像に重畳して表示させる(ステップS110)。 The terminal control unit 13 controls the display unit 15 to display the air support image generated by the image processing unit 14 in step S105 or the road surface support image generated in step S109 as the landscape image captured by the camera 11 or the obstacle in step S108. It is superimposed and displayed on the transmission image generated by the object transmission processing (step S110).

図5Aは、車両Mが案内地点に接近していない状態(すなわち、車両Mの現在位置が案内地点から所定距離の範囲内ではない場合)において、表示部15に表示される画像の一例を示す図である。事故多発地点等の運転注意地点を示す運転注意地点指示画像DC及びルート案内画像RGが、運転支援画像として風景画像内の上空の位置に表示される。また、車両Mの前方車両FVはそのまま表示される。 FIG. 5A shows an example of an image displayed on the display unit 15 when the vehicle M is not approaching the guidance point (that is, when the current position of the vehicle M is not within a predetermined distance from the guidance point). It is a diagram. A driving caution point instruction image DC indicating driving caution points such as accident-prone points and a route guidance image RG are displayed as driving support images at positions above the scenery image. Also, the forward vehicle FV of the vehicle M is displayed as it is.

図5Bは、車両Mが案内地点に接近した場合において、表示部15に表示される画像の一例を示す図である。車両Mが案内地点に接近すると、風景画像内の上空の位置に表示されていた運転支援画像(上空支援画像)がフェードアウトし、路面上の位置に運転支援画像(路面支援画像)がフェードインして表示される。 FIG. 5B is a diagram showing an example of an image displayed on the display unit 15 when the vehicle M approaches the guidance point. When the vehicle M approaches the guidance point, the driving support image (sky support image) displayed in the sky position in the scenery image fades out, and the driving support image (road surface support image) fades in to the position on the road surface. displayed.

図5Cは、車両Mが案内地点に接近した場合において、表示部15に表示される画像の一例を示す図である。車両Mが案内地点に接近すると、前方車両FVが障害物として検出され、前方車両FVの内部を透過して示す透過画像が表示される。その際、前方車両FVの透過度合いは車両Mと案内地点との間の距離に応じて変化し、車両Mが案内地点に近づくにつれて前方車両FVは徐々に透けるように(例えば、半透明の状態から全透明の状態となるように)表示される。 FIG. 5C is a diagram showing an example of an image displayed on the display unit 15 when the vehicle M approaches the guidance point. When the vehicle M approaches the guide point, the forward vehicle FV is detected as an obstacle, and a transparent image showing the interior of the forward vehicle FV is displayed. At that time, the degree of transparency of the forward vehicle FV changes according to the distance between the vehicle M and the guidance point, and as the vehicle M approaches the guidance point, the forward vehicle FV gradually becomes transparent (for example, in a translucent state). ) is displayed so that it becomes fully transparent.

図5Dは、車両Mがさらに案内地点に接近した場合において、表示部15に表示される画像の一例を示す図である。図5Cに示した状態よりもさらに車両Mが案内地点に接近すると、障害物である前方車両FVの内部は全透明の状態で表示される。その際、前方車両FVの位置を示すため、例えば前方車両FVの輪郭を示す輪郭画像FVCが表示される。 FIG. 5D is a diagram showing an example of an image displayed on the display unit 15 when the vehicle M further approaches the guidance point. When the vehicle M approaches the guidance point even further than the state shown in FIG. 5C, the interior of the forward vehicle FV, which is an obstacle, is displayed in a completely transparent state. At that time, in order to indicate the position of the forward vehicle FV, for example, an outline image FVC showing the outline of the forward vehicle FV is displayed.

図5Eは、車両Mが案内地点に接近した場合における、表示部15に表示される画像の他の一例を示す図である。ここでは、障害物である前方車両FVの内部を透過して輪郭を表示する代わりに、前方車両FVの上側部分を表示しつつ下側部分(路面と重なる部分)を透過する場合を例として示している。このように、透過画像は障害物のうち、運転支援画像が重なる部分を透過する画像であっても良い。 FIG. 5E is a diagram showing another example of the image displayed on the display unit 15 when the vehicle M approaches the guidance point. Here, instead of displaying the outline of the front vehicle FV, which is an obstacle, through the inside, the upper part of the front vehicle FV is displayed while the lower part (the part overlapping the road surface) is shown as an example. ing. In this way, the transmission image may be an image that transmits through the portion of the obstacle on which the driving support image overlaps.

なお、ここまで、情報表示端末10Aが、サーバ装置10Bから受信した運転支援情報に基づいて、運転支援画像を生成する例を説明したが、これに限定されず、情報表示端末10Aが、端末記憶部12に運転注意地点の位置情報を含む地図情報を記憶しており、当該地図情報に基づいて運転注意地点指示画像及びルート案内画像を含む運転支援画像を生成するものであってもよい。 Although the information display terminal 10A generates the driving support image based on the driving support information received from the server device 10B, the information display terminal 10A is not limited to this. The unit 12 may store map information including position information of the driving caution points, and generate a driving support image including the driving caution point indication image and the route guidance image based on the map information.

以上のように、本実施例の情報表示端末10Aは、車両Mが運転注意地点や交差点等の案内地点から離れている場合には、風景画像の上空の位置に運転支援画像を重畳して表示させる。これにより、車両Mを運転するドライバは、障害物の有無等の路面の状況に関わらず運転支援画像を視認することができ、運転注意地点の位置やルート案内の情報を大まかに把握することが可能となる。 As described above, the information display terminal 10A of this embodiment superimposes the driving support image on the landscape image and displays it when the vehicle M is away from the driving attention point or the guidance point such as the intersection. Let As a result, the driver driving the vehicle M can visually recognize the driving support image regardless of the road surface conditions such as the presence or absence of obstacles, and can roughly grasp the position of the driving attention point and the route guidance information. It becomes possible.

また、本実施例の情報表示端末10Aは、車両Mが案内地点に接近した場合には、風景画像の地面近傍(例えば、路面上)の位置に運転支援画像を重畳して表示させる。これにより、車両Mを運転するドライバは、運転注意地点の位置やルート案内を路面と対応付けて具体的に認識することが可能となる。 Further, when the vehicle M approaches the guidance point, the information display terminal 10A of the present embodiment superimposes and displays the driving support image on a position near the ground (for example, on the road surface) of the scenery image. As a result, the driver who drives the vehicle M can specifically recognize the position of the caution point and the route guidance in association with the road surface.

また、本実施例の情報表示端末10Aは、前方車両等の障害物が車両Mの進行方向に存在する場合には、車両Mの案内地点への接近に応じて、障害物の一部(例えば、内部)を透過させて示す透過画像を表示させる。これにより、車両Mを運転するドライバは、障害物に妨げられることなく、運転注意地点の位置やルート案内を認識することが可能となる。 Further, when an obstacle such as a forward vehicle exists in the traveling direction of the vehicle M, the information display terminal 10A of the present embodiment displays a portion of the obstacle (for example, , inside) is displayed. As a result, the driver driving the vehicle M can recognize the position of the driving attention point and the route guidance without being hindered by the obstacles.

図6及び図7を参照しつつ、実施例2の情報表示システムについて説明する。本実施例の情報表示システムは、情報表示端末10Aの表示部15の構成及び動作において、図2に示した実施例1の情報表示システムと異なる。 An information display system according to a second embodiment will be described with reference to FIGS. 6 and 7. FIG. The information display system of this embodiment differs from the information display system of Embodiment 1 shown in FIG. 2 in the configuration and operation of the display unit 15 of the information display terminal 10A.

本実施例の表示部15は、車両Mの前方の実際の風景に重畳して虚像を表示するヘッドアップディスプレイ(HUD:Head-up Display)である。表示部15は、運転注意地点指示画像及びルート案内画像を含む運転支援画像を虚像として表示する。 The display unit 15 of this embodiment is a head-up display (HUD) that displays a virtual image superimposed on the actual scenery in front of the vehicle M. FIG. The display unit 15 displays driving support images including the driving attention point instruction image and the route guidance image as virtual images.

図6に示すように、表示部15は、投影装置31及び反射鏡32を有する。投影装置31は、画像処理部14が生成した運転支援画像を示す画像光を反射鏡32に向けて投射する。反射鏡32で反射された画像光は、車両MのフロントガラスFGで反射してドライバの瞳に入射する。 As shown in FIG. 6, the display unit 15 has a projection device 31 and a reflector 32 . The projection device 31 projects image light representing the driving support image generated by the image processing unit 14 toward the reflecting mirror 32 . The image light reflected by the reflecting mirror 32 is reflected by the windshield FG of the vehicle M and enters the pupil of the driver.

図7を参照しつつ、本実施例の情報表示端末10Aが実行する情報表示処理ルーチンRT3について説明する。情報表示端末10Aの端末制御部13は、車両MのACC電源がオンになると、情報表示処理ルーチンRT3を開始する。 The information display processing routine RT3 executed by the information display terminal 10A of this embodiment will be described with reference to FIG. The terminal control unit 13 of the information display terminal 10A starts the information display processing routine RT3 when the ACC power of the vehicle M is turned on.

位置検出部18は、車両Mの現在位置を示す現在位置情報を取得する(ステップS301)。 The position detector 18 acquires current position information indicating the current position of the vehicle M (step S301).

端末制御部13は、端末通信部19を制御して、車両Mの現在位置情報及び車両Mに設定されている進行予定経路の経路情報を含む移動情報をサーバ装置10Bに送信させる(ステップS302)。端末通信部19は、当該移動情報を所定の時間間隔おきにサーバ装置10Bに送信してもよい。 The terminal control unit 13 controls the terminal communication unit 19 to transmit the movement information including the current position information of the vehicle M and the route information of the planned travel route set in the vehicle M to the server device 10B (step S302). . The terminal communication unit 19 may transmit the movement information to the server device 10B at predetermined time intervals.

端末通信部19は、送信した移動情報に基づいてサーバ装置10Bにおいて生成された、車両Mの周辺の運転注意地点の情報やルート案内の情報を含む運転支援情報を受信する(ステップS303)。 The terminal communication unit 19 receives the driving support information including information on driving caution points around the vehicle M and information on route guidance, which is generated in the server device 10B based on the transmitted movement information (step S303).

端末制御部13は、受信した運転支援情報に基づいて、車両Mの進行方向に位置する運転注意地点や交差点等の案内地点を特定し、車両Mの現在位置が当該案内地点から所定距離の範囲内であるか否かを判定する(ステップS304)。 Based on the received driving support information, the terminal control unit 13 identifies guidance points such as driving attention points and intersections located in the traveling direction of the vehicle M, and determines that the current position of the vehicle M is within a predetermined distance from the guidance points. It is determined whether or not it is within (step S304).

車両Mの現在位置が案内地点から所定距離の範囲内ではないと判定すると(ステップS304:No)、端末制御部13は、画像処理部14を制御して、移動体の運転を支援する運転支援画像を風景画像の上空の位置に表示するための上空支援画像を生成させる。画像処理部14は、ステップS103で受信した運転支援情報に基づいて、運転注意地点を示す運転注意地点指示画像及びルート案内画像を含む運転支援画像を上空支援画像として生成する(ステップS305)。 When it is determined that the current position of the vehicle M is not within the range of the predetermined distance from the guidance point (step S304: No), the terminal control unit 13 controls the image processing unit 14 to provide driving assistance for assisting the driving of the moving object. A sky support image is generated for displaying an image at a position in the sky above the landscape image. Based on the driving support information received in step S103, the image processing unit 14 generates a driving support image including a driving caution point indication image indicating a driving caution point and a route guidance image as an aerial support image (step S305).

表示部15の投影装置31は、上空支援画像に対応する画像光を反射鏡32の上端側に投射する(ステップS306)。反射鏡32の上端側で反射した画像光は、フロントガラスFGの上端部側で反射してドライバの瞳に入射する。図6に示すように、ドライバはフロントガラスFG越しに車両Mの前方の風景の上空付近に重畳された上空支援画像UGを視認する。 The projection device 31 of the display unit 15 projects image light corresponding to the sky support image onto the upper end side of the reflecting mirror 32 (step S306). The image light reflected by the upper end side of the reflecting mirror 32 is reflected by the upper end side of the windshield FG and enters the pupil of the driver. As shown in FIG. 6, the driver visually recognizes the sky support image UG superimposed near the sky above the scenery in front of the vehicle M through the windshield FG.

ステップS304において車両Mの現在位置が案内地点から所定距離の範囲内であると判定すると(ステップS304:Yes)、端末制御部13は、画像処理部14を制御して、移動体の運転を支援する運転支援画像を風景画像の路面上に表示するための路面支援画像を生成させる。画像処理部14は、ステップS103で受信した運転支援情報に基づいて、運転注意地点を示す運転注意地点指示画像及びルート案内画像を含む運転支援画像を路面支援画像として生成する(ステップS307)。 When it is determined in step S304 that the current position of the vehicle M is within the range of the predetermined distance from the guidance point (step S304: Yes), the terminal control unit 13 controls the image processing unit 14 to assist the driving of the mobile object. A road surface support image for displaying the driving support image on the road surface of the scenery image is generated. Based on the driving assistance information received in step S103, the image processing unit 14 generates a driving assistance image including a driving caution point indication image indicating a driving caution point and a route guidance image as a road surface assistance image (step S307).

表示部15の投影装置31は、路面支援画像に対応する画像光を反射鏡32の下端側に投射する(ステップS308)。反射鏡32の下端側で反射した画像光は、フロントガラスFGの下端部側で反射してドライバの瞳に入射する。図6に示すように、ドライバはフロントガラスFG越しに車両Mの前方の風景の地面近傍に重畳された路面支援画像DGを視認する。 The projection device 31 of the display unit 15 projects image light corresponding to the road surface support image onto the lower end side of the reflecting mirror 32 (step S308). The image light reflected by the lower end side of the reflecting mirror 32 is reflected by the lower end side of the windshield FG and enters the pupil of the driver. As shown in FIG. 6, the driver visually recognizes the road support image DG superimposed near the ground in the landscape in front of the vehicle M through the windshield FG.

以上のように、本実施例の情報表示端末10Aは、車両Mが運転注意地点や交差点等の案内地点から離れている場合には、車両Mの前方の風景の上空の位置に運転支援画像の虚像を重畳して表示させる。これにより、車両Mを運転するドライバは、障害物の有無等の路面の状況に関わらず運転支援画像を視認することができ、運転注意地点の位置やルート案内の情報を大まかに把握することが可能となる。 As described above, the information display terminal 10A of the present embodiment displays the driving support image at a position above the scenery in front of the vehicle M when the vehicle M is away from the driving attention point or the guidance point such as the intersection. A virtual image is superimposed and displayed. As a result, the driver driving the vehicle M can visually recognize the driving support image regardless of the road surface conditions such as the presence or absence of obstacles, and can roughly grasp the position of the driving attention point and the route guidance information. It becomes possible.

また、本実施例の情報表示端末10Aは、車両Mが案内地点に接近した場合には、車両Mの前方の風景の地面近傍(例えば、路面上)の位置に運転支援画像の虚像を重畳して表示させる。これにより、車両Mを運転するドライバは、運転注意地点の位置やルート案内を路面と対応付けて具体的に認識することが可能となる。 Further, when the vehicle M approaches the guidance point, the information display terminal 10A of the present embodiment superimposes a virtual image of the driving assistance image on a position near the ground (for example, on the road surface) of the scenery in front of the vehicle M. to display. As a result, the driver who drives the vehicle M can specifically recognize the position of the caution point and the route guidance in association with the road surface.

なお、本発明は上記実施形態に限定されない。例えば、上記実施例では、情報表示端末10Aが、移動体としての車両Mに搭載されている例について説明した。しかし、情報表示端末10Aは車載ナビゲーション装置のような車載装置に限定されず、ナビゲーション機能を実行可能な携帯端末やスマートフォン等であっても良い。 In addition, this invention is not limited to the said embodiment. For example, in the above embodiment, an example in which the information display terminal 10A is mounted on the vehicle M as a moving object has been described. However, the information display terminal 10A is not limited to an in-vehicle device such as an in-vehicle navigation device, and may be a mobile terminal, smart phone, or the like capable of executing a navigation function.

また、上記実施例1では、表示部15が障害物の内部や下側部分を透過して示す透過画像を表示する例について説明した。しかし、透過画像において透過する対象は障害物の内部や下側部分に限られず、障害物の少なくとも一部を透過させるものであれば良い。 Further, in the first embodiment, an example has been described in which the display unit 15 displays a transparent image showing the inside and the lower part of the obstacle through the obstacle. However, the target to be transmitted in the transmission image is not limited to the inside or the lower portion of the obstacle, and any object that allows at least part of the obstacle to be transmitted through may be used.

また、上記実施例1では、透過画像とともに障害物の輪郭を示す画像を表示する例や、障害物の上側部分を残しつつ下側部分を透過させる例について説明した。しかし、これらとは異なり、障害物全体が透過された画像(すなわち、障害物が完全に見えない状態の画像)を透過画像として表示しても良い。この場合、画像処理部14による代替画像のトリミングを経ることなく、代替画像をそのまま透過画像として表示することが可能である。 Further, in the first embodiment, an example of displaying an image showing the outline of an obstacle together with a transparent image, and an example of allowing the lower part of the obstacle to be transparent while leaving the upper part of the obstacle are explained. However, unlike these, an image in which the entire obstacle is transparent (that is, an image in which the obstacle is completely invisible) may be displayed as a transparent image. In this case, it is possible to display the substitute image as it is as a transparent image without trimming the substitute image by the image processing unit 14 .

また、上記実施例では、車両Mから案内地点までの距離が所定距離以上である場合には上空の位置に運転支援画像を表示し、所定距離未満である場合には地面近傍(例えば、路面上)に運転支援画像を表示する場合を例として説明した。しかし、運転支援画像を表示する位置はこれらに限られず、表示部15は、車両Mから案内地点までの距離が所定距離以上である場合には、風景画像中の第1の高さの位置に運転支援画像を表示し、所定距離未満である場合には第1の高さよりも低い第2の高さの位置に運転支援画像を表示するものであれば良い。すなわち、表示部15は、車両Mから案内地点までの距離に応じて運転支援画像の表示位置の高さを変更するものであれば良い。 Further, in the above embodiment, when the distance from the vehicle M to the guidance point is greater than or equal to a predetermined distance, the driving support image is displayed at a position in the sky. ) has been described as an example in which the driving support image is displayed. However, the position where the driving support image is displayed is not limited to these. When the distance from the vehicle M to the guidance point is equal to or greater than a predetermined distance, the display unit 15 displays the image at the first height position in the scenery image. A driving support image is displayed, and if the distance is less than a predetermined distance, the driving support image is displayed at a second height position lower than the first height. That is, the display unit 15 may change the height of the display position of the driving support image according to the distance from the vehicle M to the guidance point.

また、表示部15は、車両Mから案内地点までの距離に応じて運転支援画像の表示位置の高さを変更することに加えて、障害物の有無に応じて運転支援画像の表示位置の高さを変更しても良い。例えば、表示部15は、車両Mの進行方向に前方車両等の障害物が存在し且つ案内地点までの距離が所定距離以上である場合には第1の高さ(例えば、上空)の位置に運転支援画像を表示し、障害物が存在せず且つ案内地点までの距離が所定距離以上である場合には第1の高さよりも低い第2の高さの位置(例えば、路面から数メートルの高さに浮揚した状態)で運転支援画像を表示し、案内地点までの距離が所定距離未満となった場合には障害物の有無にかかわらず第2の高さよりも低い第3の高さ(例えば、路面上)の位置に運転支援画像を表示する構成であっても良い。 In addition to changing the height of the display position of the driving support image according to the distance from the vehicle M to the guidance point, the display unit 15 changes the height of the display position of the driving support image according to the presence or absence of obstacles. can be changed. For example, when there is an obstacle such as a forward vehicle in the traveling direction of the vehicle M and the distance to the guidance point is greater than or equal to a predetermined distance, the display unit 15 is displayed at a first height (for example, in the sky). A driving support image is displayed, and if there are no obstacles and the distance to the guidance point is equal to or greater than a predetermined distance, a position at a second height lower than the first height (for example, several meters from the road surface) is displayed. When the distance to the guidance point is less than a predetermined distance, a third height lower than the second height is displayed regardless of the presence or absence of obstacles. For example, the configuration may be such that the driving support image is displayed at a position (on the road surface).

10 情報表示システム
10A 情報表示端末
10B サーバ装置
11 カメラ
12 端末記憶部
13 端末制御部
14 画像処理部
15 表示部
16 音声出力部
17 操作入力部
18 位置検出部
19 端末通信部
21 サーバ通信部
22 サーバ記憶部
22A 地図情報DB
22B 風景画像DB
23 サーバ制御部
24 受信画像記憶制御部
25 送信情報生成部
31 投影装置
32 反射鏡
10 Information display system 10A Information display terminal 10B Server device 11 Camera 12 Terminal storage unit 13 Terminal control unit 14 Image processing unit 15 Display unit 16 Audio output unit 17 Operation input unit 18 Position detection unit 19 Terminal communication unit 21 Server communication unit 22 Server Storage unit 22A Map information DB
22B Scenery image DB
23 Server control unit 24 Received image storage control unit 25 Transmission information generation unit 31 Projector 32 Reflector

Claims (9)

移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得部と、
前記移動体の進行方向に存在する障害物を検出する検出部と、
前記検出部により検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された表示部に表示させる表示制御部と、
を備えることを特徴とする情報表示制御装置。
an image acquisition unit that acquires a first image, which is a landscape image of the surroundings of the mobile object, captured by an imaging unit mounted on the mobile object;
a detection unit that detects an obstacle present in the moving direction of the moving object;
Driving that assists the driving of the moving body by performing obstacle transparency processing for allowing the obstacles detected by the detection unit to pass through the first image, and displaying a second image that is a landscape image after the obstacle transparency processing. a display control unit that superimposes a support image and displays it on a display unit mounted on the moving object;
An information display control device comprising:
前記表示制御部は、前記検出部により前記障害物が検出されない場合に、前記第1画像に前記運転支援画像を重畳して、前記表示部に表示させることを特徴とする請求項1に記載の情報表示制御装置。 2. The display control unit according to claim 1, wherein, when the obstacle is not detected by the detection unit, the driving support image is superimposed on the first image and displayed on the display unit. Information display controller. 前記表示制御部は、前記運転支援画像を前記風景画像中の上空の位置に表示させる上空運転支援画像を重畳する際には、前記第1画像に前記上空運転支援画像を重畳して、前記表示部に表示させることを特徴とする請求項1に記載の情報表示制御装置。 When superimposing an aerial driving assistance image for displaying the driving assistance image at a location in the sky in the landscape image, the display control unit superimposes the aerial driving assistance image on the first image to display the driving assistance image. 2. The information display control device according to claim 1, wherein the information display is displayed on the unit. 前記表示制御部は、前記運転支援画像を前記風景画像中の地面近傍の位置に表示させる地面運転支援画像を重畳する際には、前記検出部により前記障害物が検出されない場合は、前記第1画像に前記地面運転支援画像を重畳し、前記検出部により前記障害物が検出された場合は、前記第2画像に前記地面運転支援画像を重畳して、前記表示部に表示させることを特徴とする請求項3に記載の情報表示制御装置。 When superimposing the ground driving support image for displaying the driving support image at a position in the vicinity of the ground in the scenery image, the display control unit controls the display control unit to display the driving support image at a position near the ground in the landscape image, if the obstacle is not detected by the detection unit, the first The ground driving support image is superimposed on the image, and when the obstacle is detected by the detection unit, the ground driving support image is superimposed on the second image and displayed on the display unit. The information display control device according to claim 3. 前記表示制御部は、前記第2画像において透過させた前記障害物の輪郭を表示させることを特徴とする請求項1乃至4のいずれか1項に記載の情報表示制御装置。 5. The information display control device according to any one of claims 1 to 4, wherein the display control unit displays a transparent outline of the obstacle in the second image. 前記表示制御部は、前記移動体から所定の案内地点までの距離に応じて、前記第2画像における前記障害物の透過度合いを変化させることを特徴とする請求項1乃至5のいずれか1項に記載の情報表示制御装置。 6. The display control unit changes the degree of transparency of the obstacle in the second image according to the distance from the moving body to a predetermined guide point. The information display control device according to 1. 前記表示制御部は、前記第1画像中の前記障害物の存在する領域に、前記第1画像に対応する地点で撮影された前記障害物を含まない過去の風景画像中の、前記領域に対応する部分を重畳することで、前記障害物透過処理を実行することを特徴とする請求項1乃至6のいずれか1項に記載の情報表示制御装置。 The display control unit corresponds to the area in the first image in which the obstacle exists, in a past landscape image that does not include the obstacle and is photographed at a point corresponding to the first image. 7. The information display control device according to any one of claims 1 to 6, wherein the obstacle transparent processing is performed by superimposing a portion where the obstacle is transparent. 表示部に画像を表示させる情報表示制御装置が実行する情報表示制御方法であって、
移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得ステップと、
前記移動体の進行方向に存在する障害物を検出する検出ステップと、
前記検出ステップにより検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された表示部に表示させる表示制御ステップと、
を含む
ことを特徴とする情報表示制御方法。
An information display control method executed by an information display control device for displaying an image on a display unit,
an image acquisition step of acquiring a first image, which is a landscape image of the surroundings of the mobile object, captured by an imaging unit mounted on the mobile object;
a detection step of detecting an obstacle present in the moving direction of the moving object;
Execution of obstacle transparency processing for allowing the obstacles detected by the detection step to pass through the first image, and assisting the driving of the moving body in a second image that is a landscape image after the obstacle transparency processing. a display control step of superimposing a support image and displaying it on a display unit mounted on the moving object;
An information display control method, comprising:
コンピュータに、
移動体に搭載された撮影部により撮影された前記移動体の周囲の風景画像である第1画像を取得する画像取得ステップと、
前記移動体の進行方向に存在する障害物を検出する検出ステップと、
前記検出ステップにより検出された障害物を前記第1画像中において透過させる障害物透過処理を実行し、前記障害物透過処理済みの風景画像である第2画像に前記移動体の運転を支援する運転支援画像を重畳して、前記移動体に搭載された表示部に表示させる表示制御ステップと、
を実行させる
ことを特徴とする情報表示制御プログラム。
to the computer,
an image acquisition step of acquiring a first image, which is a landscape image of the surroundings of the mobile object, captured by an imaging unit mounted on the mobile object;
a detection step of detecting an obstacle present in the moving direction of the moving object;
Execution of obstacle transparency processing for allowing the obstacles detected by the detection step to pass through the first image, and assisting the driving of the moving body in a second image that is a landscape image after the obstacle transparency processing. a display control step of superimposing a support image and displaying it on a display unit mounted on the moving object;
An information display control program characterized by executing
JP2022149022A 2018-02-07 2022-09-20 Information display control device, information display control method, and information display control program Pending JP2022176234A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022149022A JP2022176234A (en) 2018-02-07 2022-09-20 Information display control device, information display control method, and information display control program
JP2023147457A JP2023165757A (en) 2018-02-07 2023-09-12 Information display control device, information display control method, and information display control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018020246A JP2019139368A (en) 2018-02-07 2018-02-07 Information display control device, information display control method and information display control program
JP2022149022A JP2022176234A (en) 2018-02-07 2022-09-20 Information display control device, information display control method, and information display control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018020246A Division JP2019139368A (en) 2018-02-07 2018-02-07 Information display control device, information display control method and information display control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023147457A Division JP2023165757A (en) 2018-02-07 2023-09-12 Information display control device, information display control method, and information display control program

Publications (1)

Publication Number Publication Date
JP2022176234A true JP2022176234A (en) 2022-11-25

Family

ID=67694004

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018020246A Pending JP2019139368A (en) 2018-02-07 2018-02-07 Information display control device, information display control method and information display control program
JP2022149022A Pending JP2022176234A (en) 2018-02-07 2022-09-20 Information display control device, information display control method, and information display control program
JP2023147457A Pending JP2023165757A (en) 2018-02-07 2023-09-12 Information display control device, information display control method, and information display control program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018020246A Pending JP2019139368A (en) 2018-02-07 2018-02-07 Information display control device, information display control method and information display control program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023147457A Pending JP2023165757A (en) 2018-02-07 2023-09-12 Information display control device, information display control method, and information display control program

Country Status (1)

Country Link
JP (3) JP2019139368A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384014B2 (en) * 2019-12-06 2023-11-21 トヨタ自動車株式会社 display system
CN111397611B (en) * 2020-03-05 2022-07-05 北京百度网讯科技有限公司 Path planning method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284195A (en) * 2005-03-31 2006-10-19 Denso Corp Route guidance system
JP2011089977A (en) * 2009-09-24 2011-05-06 Denso Corp Guidance system for street crossings
JP2015094683A (en) * 2013-11-13 2015-05-18 日産自動車株式会社 Travel guide device for vehicle, and travel guide method for vehicle
WO2017056210A1 (en) * 2015-09-30 2017-04-06 日産自動車株式会社 Vehicular display device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6098442B2 (en) * 2013-08-30 2017-03-22 アイシン・エィ・ダブリュ株式会社 Route guidance display system, method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284195A (en) * 2005-03-31 2006-10-19 Denso Corp Route guidance system
JP2011089977A (en) * 2009-09-24 2011-05-06 Denso Corp Guidance system for street crossings
JP2015094683A (en) * 2013-11-13 2015-05-18 日産自動車株式会社 Travel guide device for vehicle, and travel guide method for vehicle
WO2017056210A1 (en) * 2015-09-30 2017-04-06 日産自動車株式会社 Vehicular display device

Also Published As

Publication number Publication date
JP2019139368A (en) 2019-08-22
JP2023165757A (en) 2023-11-17

Similar Documents

Publication Publication Date Title
JP5921320B2 (en) Display system, portable device, in-vehicle device, and program
EP3496068A1 (en) Travel assistance device and computer program
US8094192B2 (en) Driving support method and driving support apparatus
US11511627B2 (en) Display device and computer program
US20200269759A1 (en) Superimposed-image display device and computer program
JP6459205B2 (en) Vehicle display system
JP2022176234A (en) Information display control device, information display control method, and information display control program
JP2007292713A (en) Navigation device
EP3650285A1 (en) Parking assistance method and parking assistance device
JP6107590B2 (en) Head-up display device
US11525694B2 (en) Superimposed-image display device and computer program
JP2014531024A (en) How to move data from image database map service into assist system
JP2006162442A (en) Navigation system and navigation method
JP2020112542A (en) Display system, display controller, and display control program
JP2010185761A (en) Navigation system, road map display method
JP5955662B2 (en) Augmented reality system
JP2014211431A (en) Navigation device, and display control method
JP2008021234A (en) Driving support image display system and on-vehicle device
WO2019155557A1 (en) Information display control device, information display control method, and information display control program
US20240101138A1 (en) Display system
JPWO2017013792A1 (en) Display control device and navigation device
JP2016139914A (en) Display device, portable terminal and control method
JP2008249475A (en) On-vehicle device and traffic information presentation method
JP5231595B2 (en) Navigation device
KR101744718B1 (en) Display system and control method therof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613