JP2014153095A - Information display device - Google Patents

Information display device Download PDF

Info

Publication number
JP2014153095A
JP2014153095A JP2013020959A JP2013020959A JP2014153095A JP 2014153095 A JP2014153095 A JP 2014153095A JP 2013020959 A JP2013020959 A JP 2013020959A JP 2013020959 A JP2013020959 A JP 2013020959A JP 2014153095 A JP2014153095 A JP 2014153095A
Authority
JP
Japan
Prior art keywords
facility
image
information
facility information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013020959A
Other languages
Japanese (ja)
Inventor
Hidetoshi Sumiya
英俊 角谷
Kiyozumi Fujiwara
清純 藤原
Taro Iwamoto
太郎 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2013020959A priority Critical patent/JP2014153095A/en
Publication of JP2014153095A publication Critical patent/JP2014153095A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display device capable of making a correspondence relation between each facility and information thereon understandable when additionally displaying information on each facility included in an actual image.SOLUTION: A navigation device comprises: a camera 8 which acquires an actual image including a surrounding facility by photographing; a facility extraction section 32 which extracts a facility image included in the actual image; a facility information acquisition section 34 which acquires facility information corresponding to the facility extracted by the facility extraction section 32; and an image composition section 36 which displays the facility image and the facility information, which correspond to each other, by associating with each other on the actual image.

Description

本発明は、カメラを用いて撮像された画像に含まれる施設に対応する情報を表示する情報表示装置に関する。   The present invention relates to an information display device that displays information corresponding to a facility included in an image captured using a camera.

従来から、カメラによる実画像に所定の情報を付加して提供する情報提供装置が知られている(例えば、特許文献1参照。)。この情報提供装置では、実際に撮影された市街地風景に、3次元コンピュータ・グラフィックス技術を利用して、建物に対して広告看板などのサービス情報が貼り付けられたり、あるいは、道路には道案内用の矢印が付加されて、ユーザに提供されている。   2. Description of the Related Art Conventionally, an information providing apparatus that provides predetermined information added to a real image by a camera is known (for example, see Patent Document 1). In this information providing apparatus, service information such as advertising billboards is pasted on a building using 3D computer graphics technology on an actually photographed urban landscape, or a road guide on a road An arrow is added and provided to the user.

特開2003−216982号公報JP 2003-216882 A

ところで、上述した特許文献1の情報提供装置では、実画像に含まれる複数の建物(施設)のそれぞれに重ねてあるいは建物の近傍にサービス情報等が貼り付けられており、建物の数が多くなってそれらが密集した場合に各建物と情報との対応関係がわかりづらくなるという問題があった。例えば、隣接した複数の建物があったときに、付加する情報の位置が、対応する建物からはみ出さないようにできれば対応関係がわかりづらくならないが、実画像内での建物の面積が小さくなれば必ず情報の位置が建物からはみ出すことになる。   By the way, in the information providing apparatus of Patent Document 1 described above, service information or the like is affixed to each of a plurality of buildings (facility) included in an actual image or in the vicinity of the building, and the number of buildings increases. When they are dense, there is a problem that it becomes difficult to understand the correspondence between each building and information. For example, when there are multiple adjacent buildings, it is difficult to understand the correspondence if the position of the information to be added does not protrude from the corresponding building, but if the area of the building in the actual image becomes small The location of information will always protrude from the building.

本発明は、このような点に鑑みて創作されたものであり、その目的は、実画像に含まれる各施設に情報を付加して表示する場合に各施設と情報との対応関係をわかりやすくすることができる情報表示装置を提供することにある。   The present invention was created in view of such points, and its purpose is to make it easy to understand the correspondence between each facility and information when information is added to and displayed on each facility included in the actual image. It is an object of the present invention to provide an information display device that can do this.

上述した課題を解決するために、本発明の情報表示装置は、周囲の施設を含む実画像を撮像によって取得する撮像手段と、実画像に含まれる施設画像を抽出する施設抽出手段と、施設抽出手段によって抽出された施設画像に対応する施設に対応する施設情報を取得する施設情報取得手段と、実画像内において、互いに対応する施設画像と施設情報とを関連づけて描画する画像合成手段とを備えている。実画像に含まれる各施設画像に施設情報を付加して表示する際に、対応する施設画像と施設情報とを関連づけて表示することにより、各施設と施設情報との対応関係をわかりやすくすることができる。   In order to solve the above-described problem, an information display device according to the present invention includes an imaging unit that acquires a real image including surrounding facilities by imaging, a facility extraction unit that extracts a facility image included in the real image, and a facility extraction A facility information acquisition unit that acquires facility information corresponding to the facility corresponding to the facility image extracted by the unit, and an image composition unit that draws the facility image and facility information corresponding to each other in the actual image. ing. When the facility information is added to each facility image included in the actual image and displayed, the corresponding facility image and the facility information are displayed in association with each other so that the correspondence between each facility and the facility information can be easily understood. Can do.

また、上述した施設抽出手段は、施設画像を建物毎に抽出することが望ましい。実画像に含まれる施設画像を建物単位で抽出することにより、施設情報の付加対象となる施設の範囲を把握しやすくすることが可能になる。   Moreover, it is desirable that the facility extraction means described above extracts a facility image for each building. By extracting the facility image included in the actual image in units of buildings, it is possible to easily grasp the range of facilities to which facility information is added.

また、上述した施設抽出手段は、実画像に対して画像認識処理を行って施設画像を抽出することが望ましい。画像認識処理によって建物毎の境界を検出することができ、実画像に含まれる各施設画像の抽出を確実に行うことができる。   In addition, it is desirable that the facility extraction unit described above performs an image recognition process on the actual image to extract the facility image. The boundary of each building can be detected by the image recognition process, and each facility image included in the actual image can be reliably extracted.

また、上述した撮像手段による撮像位置を検出する位置検出手段をさらに備え、施設情報取得手段は、位置検出手段によって検出された撮像位置と、施設抽出手段によって抽出された各施設画像の実画像内での位置とに基づいて各施設の位置を特定し、この特定した位置に対応する施設情報を取得することが望ましい。撮像位置と実画像内における各施設画像の位置とに基づいて各施設を特定することができ、各施設に対応する施設情報を取得することが容易となる。   Further, the apparatus further includes position detection means for detecting an imaging position by the imaging means described above, and the facility information acquisition means includes the imaging position detected by the position detection means and the actual image of each facility image extracted by the facility extraction means. It is desirable to identify the location of each facility based on the location at and to obtain facility information corresponding to this identified location. Each facility can be identified based on the imaging position and the position of each facility image in the actual image, and facility information corresponding to each facility can be easily obtained.

また、上述した施設情報を施設位置とともに格納する施設情報格納手段をさらに備え、施設情報取得手段は、施設情報格納手段に格納された施設情報の中から、特定した施設位置に対応する施設情報を取得することが望ましい。これにより、施設位置に基づいて施設情報を確実に取得することができる。   Further, the information processing apparatus further includes facility information storage means for storing the facility information described above together with the facility position, and the facility information acquisition means stores the facility information corresponding to the identified facility position from the facility information stored in the facility information storage means. It is desirable to obtain. Thereby, facility information can be acquired reliably based on a facility position.

また、上述した画像合成手段は、互いに関連づける施設画像と施設情報との間に施設情報を施設画像から引き出す補助画像を付加することが望ましい。あるいは、上述した画像合成手段は、互いに関連づける施設画像と施設情報に同じ着色を付加することが望ましい。これにより、施設情報が付加された施設画像の把握が容易となり、施設情報と施設画像との対応関係をわかりやすくすることができる。   In addition, it is desirable that the above-described image composition means add an auxiliary image for extracting facility information from the facility image between the facility image and facility information associated with each other. Alternatively, it is desirable that the image composition means described above adds the same coloring to the facility image and facility information associated with each other. As a result, the facility image to which the facility information is added can be easily understood, and the correspondence between the facility information and the facility image can be easily understood.

また、上述した画像合成手段は、施設抽出手段によって抽出された施設画像の最外形部分を強調する枠画像を付加することが望ましい。これにより、施設情報が付加された施設の範囲が視覚的に明らかになり、紐付けられた施設情報に対応する施設画像の範囲をわかりやすくすることができる。   Further, it is desirable that the above-described image composition unit adds a frame image that emphasizes the outermost portion of the facility image extracted by the facility extraction unit. As a result, the range of the facility to which the facility information is added is visually clarified, and the range of the facility image corresponding to the associated facility information can be easily understood.

一実施形態のナビゲーション装置の構成を示す図である。It is a figure which shows the structure of the navigation apparatus of one Embodiment. 実画像に含まれる各施設画像に施設情報を紐付けして表示する動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure which associates and displays facility information on each facility image contained in a real image. 実画像の一例を示す図である。It is a figure which shows an example of a real image. 実画像内で抽出された複数の施設画像を示す図である。It is a figure which shows the some facility image extracted within the real image. 各施設画像毎に着色と施設情報とが付加された実画像を示す図である。It is a figure which shows the actual image to which coloring and facility information were added for every facility image. 選択された施設に詳細施設情報が付加された実画像を示す図である。It is a figure which shows the actual image with which detailed facility information was added to the selected facility. 変形例の構成を示す図である。It is a figure which shows the structure of a modification. 変形例の構成を示す図である。It is a figure which shows the structure of a modification.

以下、本発明の情報表示装置を適用した一実施形態のナビゲーション装置について、図面を参照しながら説明する。   Hereinafter, a navigation device according to an embodiment to which an information display device of the present invention is applied will be described with reference to the drawings.

図1は、一実施形態のナビゲーション装置の構成を示す図である。図1に示すナビゲーション装置は、ナビゲーションコントローラ1、地図データ記憶装置3、操作部4、車両位置検出部5、表示装置6、カメラ8を含んで構成されている。このナビゲーション装置は、車両に搭載されている。   FIG. 1 is a diagram illustrating a configuration of a navigation device according to an embodiment. The navigation device shown in FIG. 1 includes a navigation controller 1, a map data storage device 3, an operation unit 4, a vehicle position detection unit 5, a display device 6, and a camera 8. This navigation device is mounted on a vehicle.

ナビゲーションコントローラ1は、CPU、ROM、RAM等を用いて所定の動作プログラムを実行することにより、自車位置周辺の地図画像表示動作や施設検索動作、経路探索・誘導動作、本発明の情報表示装置としての動作などの各種機能を実現する。ナビゲーションコントローラ1の詳細構成や動作の具体例については後述する。   The navigation controller 1 executes a predetermined operation program using a CPU, a ROM, a RAM, etc., thereby displaying a map image display operation, facility search operation, route search / guidance operation around the vehicle position, and the information display device of the present invention. Various functions such as operation are realized. A detailed configuration and specific examples of the operation of the navigation controller 1 will be described later.

地図データ記憶装置3は、地図表示、施設検索、経路探索などに必要な地図データが格納されている記憶媒体およびその読み取り装置である。この地図データ記憶装置3には、経度および緯度で適当な大きさに区切られた矩形形状の図葉を単位とした地図データが格納されている。各図葉の地図データは、図葉番号を指定することにより特定され、読み出すことが可能となる。地図データ記憶装置3は、ハードディスク装置や半導体メモリによって、あるいは、DVDとその読み取り装置によって実現される。また、地図データ記憶装置3を通信装置に置き換えて、外部の地図配信サーバ(図示せず)から地図データを取得するようにしてもよい。   The map data storage device 3 is a storage medium that stores map data necessary for map display, facility search, route search, and the like and a reading device thereof. The map data storage device 3 stores map data in units of rectangular figure leaves divided into appropriate sizes by longitude and latitude. The map data of each leaf can be specified and read by designating the leaf number. The map data storage device 3 is realized by a hard disk device or a semiconductor memory, or by a DVD and its reading device. Further, the map data storage device 3 may be replaced with a communication device to acquire map data from an external map distribution server (not shown).

操作部4は、利用者の指示(操作)を受け付けるためのものであり、各種の操作ボタンや操作つまみ類を備えている。また、操作部4は、表示装置6の画面に取り付けられたタッチパネルを含んでおり、画面上の一部を直接利用者が指等で指し示すことにより、操作指示を行うことができるようになっている。車両位置検出部5は、例えば、GPS受信機、方位センサ、距離センサなどを備えており、所定のタイミングで車両位置(経度、緯度)の検出を行い、検出結果を出力する。   The operation unit 4 is for receiving user instructions (operations), and includes various operation buttons and operation knobs. In addition, the operation unit 4 includes a touch panel attached to the screen of the display device 6, and the user can directly perform an operation instruction by pointing a part on the screen with a finger or the like. Yes. The vehicle position detection unit 5 includes, for example, a GPS receiver, an orientation sensor, a distance sensor, and the like, detects the vehicle position (longitude, latitude) at a predetermined timing, and outputs a detection result.

表示装置6は、例えばLCD(液晶表示装置)によって構成されており、ナビゲーションコントローラ1から出力される映像信号に基づいて自車位置周辺の地図画像や交差点案内画像、あるいは、カメラ8によって撮像された実画像やこの実画像に施設情報を付加した画像などを表示する。カメラ8は、車両のフロント側の所定位置(例えば中央位置)に取り付けられ、車両前方の所定範囲を所定の解像度で撮像する。なお、このカメラ8は、他の用途のために備わっているもの(例えば、ドライブレコーダ用)を用いるようにしてもよい。あるいは、車載のカメラ8を用いて取得した画像を用いる代わりに、利用者(運転者や同乗者)が車両前方をデジタルカメラで撮影した画像を取り込んで用いるようにしてもよい。   The display device 6 is configured by, for example, an LCD (liquid crystal display device), and is captured by a map image or intersection guidance image around the vehicle position or by the camera 8 based on a video signal output from the navigation controller 1. An actual image or an image obtained by adding facility information to the actual image is displayed. The camera 8 is attached to a predetermined position (for example, a central position) on the front side of the vehicle, and images a predetermined range in front of the vehicle with a predetermined resolution. In addition, you may make it use this camera 8 provided for the other use (for example, for drive recorders). Alternatively, instead of using an image acquired using the in-vehicle camera 8, a user (driver or passenger) may capture and use an image obtained by photographing the front of the vehicle with a digital camera.

次に、ナビゲーションコントローラ1の詳細構成について説明する。図1に示すナビゲーションコントローラ1は、地図バッファ10、地図読出制御部12、地図描画部14、車両位置計算部20、画像格納部30、施設抽出部32、施設情報取得部34、画像合成部36、入力処理部50、表示処理部60を含んで構成されている。   Next, a detailed configuration of the navigation controller 1 will be described. A navigation controller 1 shown in FIG. 1 includes a map buffer 10, a map readout control unit 12, a map drawing unit 14, a vehicle position calculation unit 20, an image storage unit 30, a facility extraction unit 32, a facility information acquisition unit 34, and an image composition unit 36. The input processing unit 50 and the display processing unit 60 are included.

地図バッファ10は、地図データ記憶装置3から読み出された地図データを一時的に格納する。この地図データには、本発明の情報表示装置としての動作に必要な施設情報も含まれる。この施設情報には、各施設の全体情報とともに複数階の建物の場合には各階毎のテナント等の詳細施設情報が施設位置とともに含まれている。地図読出制御部12は、車両位置計算部20により算出される車両位置や利用者が操作部4を操作して指定した位置に応じて、所定範囲の地図データの読み出し要求を地図データ記憶装置3に出力する。地図描画部14は、地図バッファ10に格納された地図データに基づいて、表示装置6に地図画像を表示するために必要な描画処理を行って地図画像描画データを作成する。   The map buffer 10 temporarily stores map data read from the map data storage device 3. This map data includes facility information necessary for operation as the information display device of the present invention. In the facility information, in addition to the overall information of each facility, in the case of a building of a plurality of floors, detailed facility information such as a tenant for each floor is included together with the facility position. The map reading control unit 12 sends a request for reading a predetermined range of map data in accordance with the vehicle position calculated by the vehicle position calculating unit 20 and the position designated by the user by operating the operation unit 4. Output to. Based on the map data stored in the map buffer 10, the map drawing unit 14 performs drawing processing necessary for displaying a map image on the display device 6 to create map image drawing data.

車両位置計算部20は、車両位置検出部5から出力される検出データに基づいて自車位置を計算するとともに、計算した自車位置が地図データの道路上にない場合には、自車位置を修正するマップマッチング処理を行う。   The vehicle position calculation unit 20 calculates the vehicle position based on the detection data output from the vehicle position detection unit 5, and if the calculated vehicle position is not on the road of the map data, the vehicle position is calculated. Perform map matching processing to correct.

画像格納部30は、カメラ8による撮像によって得られた実画像を格納する。施設抽出部32は、画像格納部30に格納された実画像に対して画像認識処理を行って施設画像を抽出する。この抽出処理において、施設画像が建物単位で認識され、隣接する建物であっても互いに異なる建物として区分けされる。   The image storage unit 30 stores an actual image obtained by imaging with the camera 8. The facility extraction unit 32 performs an image recognition process on the real image stored in the image storage unit 30 to extract a facility image. In this extraction process, facility images are recognized in units of buildings, and even adjacent buildings are classified as different buildings.

施設情報取得部34は、施設抽出部32によって抽出された施設画像に対応する施設に対応する施設情報を取得する。地図バッファ10には、各施設の施設情報が施設位置とともに格納されている。施設情報取得部34は、施設抽出部32によって抽出された各施設画像の実画像内での位置を特定するとともに、撮像位置(車両位置計算部20によって計算された車両位置)とこの特定した各施設画像の位置とに基づいて各施設の位置(絶対位置)を特定し、この特定した絶対位置に対応する施設情報を地図バッファ10から読み出す。   The facility information acquisition unit 34 acquires facility information corresponding to the facility corresponding to the facility image extracted by the facility extraction unit 32. The map buffer 10 stores facility information of each facility along with the facility position. The facility information acquisition unit 34 specifies the position of each facility image extracted by the facility extraction unit 32 in the actual image, and also specifies the imaging position (vehicle position calculated by the vehicle position calculation unit 20) and each of the specified locations. The position (absolute position) of each facility is specified based on the position of the facility image, and the facility information corresponding to the specified absolute position is read from the map buffer 10.

画像合成部36は、施設抽出部32によって抽出された各施設画像が互いに識別可能なようにそれぞれの施設画像に着色を付加するとともに、各施設画像の近傍に各施設画像の施設に対応する施設情報を重ねて描画する。また、各施設情報には、それぞれの施設情報がどの施設画像に対応するものであるかを明確にするために、対応する施設画像と同じ色が付されるとともに、対応する施設画像から施設情報を引き出して紐付けするための補助画像が付加される。画像合成部36による表示の具体例については後述する。   The image composition unit 36 adds coloring to each facility image so that the facility images extracted by the facility extracting unit 32 can be distinguished from each other, and the facility corresponding to the facility of each facility image in the vicinity of each facility image. Draw information overlaid. In addition, in order to clarify which facility image corresponds to each facility information, each facility information is given the same color as the corresponding facility image, and the facility information from the corresponding facility image A supplementary image for pulling out and linking is added. A specific example of display by the image composition unit 36 will be described later.

入力処理部50は、操作部4の操作内容(入力内容)を検出し、入力待ち状態になっている構成に向けて入力内容に応じた指示を出力する。表示処理部60は、地図描画部14によって描画処理された地図画像、あるいは、画像合成部36によって施設情報が重ねて描画された実画像を選択的に表示する。なお、選択的に表示する代わりに、1画面内で分割表示するようにしてもよい。   The input processing unit 50 detects the operation content (input content) of the operation unit 4 and outputs an instruction corresponding to the input content toward the configuration waiting for input. The display processing unit 60 selectively displays a map image drawn by the map drawing unit 14 or an actual image drawn by superimposing facility information by the image composition unit 36. Instead of displaying selectively, it may be divided and displayed within one screen.

上述したカメラ8が撮像手段に、施設抽出部32が施設抽出手段に、施設情報取得部34が施設情報取得手段に、画像合成部36が画像合成手段に、車両位置検出部5、車両位置計算部20が位置検出手段に、地図バッファ10が施設情報格納手段にそれぞれ対応する。   The above-described camera 8 is an imaging unit, a facility extraction unit 32 is a facility extraction unit, a facility information acquisition unit 34 is a facility information acquisition unit, an image composition unit 36 is an image composition unit, a vehicle position detection unit 5, a vehicle position calculation. The unit 20 corresponds to the position detection means, and the map buffer 10 corresponds to the facility information storage means.

本実施形態のナビゲーション装置はこのような構成を有しており、次に、カメラ8による撮像によって得られた実画像に施設情報を付加して表示する動作について説明する。   The navigation device of the present embodiment has such a configuration. Next, an operation for adding and displaying facility information to an actual image obtained by imaging by the camera 8 will be described.

図2は、実画像に含まれる各施設画像に施設情報を紐付けして表示する動作手順を示す流れ図である。利用者による操作指示に応じてカメラ8による撮像が行われる(ステップ100)。得られた実画像の画像データは画像格納部30に格納される。また、施設抽出部32は、画像格納部30に格納された画像データに基づいて、実画像に対して画像認識処理を行って実画像に含まれる一あるいは複数の施設画像を建物単位で抽出する(ステップ102)。図3は、実画像の一例を示す図である。また、図4は実画像内で抽出された複数の施設画像を示す図である。図4において、符号A〜Iが付された部分画像が施設画像であり、建物(この例ではビルディング)単位で、実画像内において見えている部分が抽出されている。   FIG. 2 is a flowchart showing an operation procedure for displaying facility information in association with each facility image included in the actual image. Imaging by the camera 8 is performed in response to an operation instruction from the user (step 100). The obtained image data of the real image is stored in the image storage unit 30. Further, the facility extraction unit 32 performs image recognition processing on the actual image based on the image data stored in the image storage unit 30 and extracts one or more facility images included in the actual image in units of buildings. (Step 102). FIG. 3 is a diagram illustrating an example of a real image. FIG. 4 is a diagram showing a plurality of facility images extracted from the actual image. In FIG. 4, partial images to which reference signs A to I are attached are facility images, and a portion that is visible in the actual image is extracted in units of buildings (in this example, buildings).

次に、施設情報取得部34は、施設抽出部32によって抽出された一の施設画像に着目し、この施設画像に対応する施設情報を地図バッファ10から読み出して取得する(ステップ104)。その後、施設情報取得部34は、未処理の施設画像があるか否かを判定し(ステップ106)、ある場合には肯定判断を行ってステップ104に戻り、次の施設画像に着目して施設情報を取得する。また、全ての施設画像(図4に示した例では、A〜Iの符号が付された施設画像)について施設情報の取得が終了すると、ステップ106の判定において否定判断が行われる。   Next, the facility information acquisition unit 34 pays attention to the one facility image extracted by the facility extraction unit 32, and reads and acquires the facility information corresponding to this facility image from the map buffer 10 (step 104). Thereafter, the facility information acquisition unit 34 determines whether there is an unprocessed facility image (step 106). If there is, the facility information acquisition unit 34 makes an affirmative determination and returns to step 104, paying attention to the next facility image. Get information. Further, when the acquisition of the facility information is completed for all the facility images (in the example illustrated in FIG. 4, the facility images to which the signs A to I are added), a negative determination is made in the determination of step 106.

次に、画像合成部36は、実画像に施設画像単位で着色を付すとともに、各施設画像の近傍に、対応する施設情報を紐付けした状態で付加する描画処理を行う(ステップ108)。また、表示処理部60は、画像合成部36によって描画された着色や施設情報が付された状態で描画された実画像を表示装置6に表示する(ステップ110)。   Next, the image composition unit 36 performs a drawing process for coloring the actual image in units of facility images and adding the corresponding facility information in the vicinity of each facility image in a linked state (step 108). Further, the display processing unit 60 displays the actual image drawn with the coloring and facility information drawn by the image composition unit 36 on the display device 6 (step 110).

図5は、各施設画像毎に着色と施設情報とが付加された実画像を示す図である。図5では、着色の様子がわかりづらいが、図4に示した符号A〜Iのそれぞれが付された各施設画像が互いに識別可能な色分けで着色が施されている。また、図5に示す例では、各施設画像から吹き出し(吹き出し全体あるいは吹き出しを施設画像から引き出した紐付け部分が補助画像に対応する)を出してその中に施設情報(施設情報の詳細についてはこの図の中では省略されている)を含ませている。このような施設情報は、「エアタグ」と称される概念も包含するものである。なお、この施設情報が存在しない施設については、施設情報の付加は省略される。また、施設情報は、施設単位で1つあるいは2つ程度の各施設の全体情報とすることが視認性確保の観点からは好ましいが、3つ以上あってもよい。   FIG. 5 is a diagram illustrating an actual image in which coloring and facility information are added for each facility image. In FIG. 5, it is difficult to understand the state of coloring, but the facility images to which the signs A to I shown in FIG. 4 are attached are colored with colors that can be distinguished from each other. In the example shown in FIG. 5, a balloon (the whole balloon or a linked portion where the balloon is drawn from the facility image corresponds to the auxiliary image) is output from each facility image, and facility information (for details of the facility information is included therein). (It is omitted in this figure). Such facility information includes a concept called “air tag”. Note that the addition of facility information is omitted for facilities for which facility information does not exist. Moreover, although it is preferable from the viewpoint of ensuring visibility that the facility information is the entire information of one or two facilities in units of facilities, there may be three or more facilities information.

次に、施設抽出部32は、利用者が操作部4を操作していずれかの施設(施設画像)が選択されたか否かを判定する(ステップ112)。選択されていない場合には否定判断が行われ、ステップ110に戻って表示動作が継続される。また、いずれかの施設が利用者によって選択された場合にはステップ112の判定において肯定判断が行われる。   Next, the facility extraction unit 32 determines whether any facility (facility image) has been selected by the user operating the operation unit 4 (step 112). If it is not selected, a negative determination is made, and the process returns to step 110 to continue the display operation. If any facility is selected by the user, an affirmative determination is made in the determination of step 112.

次に、施設情報取得部34は、選択された施設の詳細施設情報を取得する(ステップ114)。また、画像合成部36は、実画像に施設画像単位で着色を付すとともに(あるいは、ステップ108において付された着色を残した状態で)、選択された施設の施設画像の近傍に、対応する詳細施設情報を紐付けした状態で付加する描画処理を行う(ステップ116)。また、表示処理部60は、画像合成部36によって描画された着色や施設情報が付された状態で描画された実画像を表示装置6に表示する(ステップ118)。   Next, the facility information acquisition unit 34 acquires detailed facility information of the selected facility (step 114). In addition, the image composition unit 36 adds color to the actual image in units of facility images (or leaves the color attached in step 108), and details corresponding to the vicinity of the facility image of the selected facility. A drawing process for adding facility information in a linked state is performed (step 116). Further, the display processing unit 60 displays the actual image drawn with the coloring and facility information drawn by the image composition unit 36 on the display device 6 (step 118).

図6は、選択された施設に詳細施設情報が付加された実画像を示す図である。詳細施設情報は、3つ以上であってもよいが、あまり多い場合には、一度に実画像に重ねて表示する数を制限し、再度施設を指し示す等の操作が行われる毎に表示対象となる詳細施設情報の内容を更新するようにしてもよい。   FIG. 6 is a diagram illustrating a real image in which detailed facility information is added to the selected facility. The number of detailed facility information may be three or more. However, if there are too many pieces of information, the number of detailed facility information that is displayed on the actual image at one time is limited, and each time an operation such as pointing to the facility is performed again, The detailed facility information may be updated.

このように、本実施形態のナビゲーション装置では、実画像に含まれる各施設画像に施設情報を付加して表示する際に、対応する施設画像と施設情報とを関連づけて表示することにより、各施設と施設情報との対応関係をわかりやすくすることができる。また、実画像に含まれる施設画像を建物単位で抽出することにより、施設情報の付加対象となる施設の範囲を把握しやすくすることが可能になる。さらに、実画像に対して画像認識処理を行って施設画像を抽出するにより、建物毎の境界を検出することができ、実画像に含まれる各施設画像の抽出を確実に行うことができる。   As described above, in the navigation device of the present embodiment, when the facility information is added to each facility image included in the actual image and displayed, the corresponding facility image and the facility information are displayed in association with each other. It is possible to make the correspondence between the facility information and the facility information easier to understand. Further, by extracting the facility image included in the actual image in units of buildings, it is possible to easily grasp the range of the facility to which the facility information is added. Furthermore, by performing an image recognition process on the real image and extracting the facility image, the boundary for each building can be detected, and each facility image included in the real image can be reliably extracted.

また、互いに関連づける施設画像と施設情報との間に施設情報を施設画像から引き出す補助画像を付加したり、互いに関連づける施設画像と施設情報に同じ着色を付加することにより、施設情報が付加された施設画像の把握が容易となり、施設情報と施設画像との対応関係をわかりやすくすることができる。   In addition, a facility image to which facility information is added by adding an auxiliary image for extracting facility information from the facility image between facility images and facility information associated with each other or by adding the same coloring to the facility image and facility information associated with each other Images can be easily grasped, and the correspondence between facility information and facility images can be easily understood.

なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、抽出された複数の施設画像のそれぞれに異なる色を付したが、着色する代わりに、各施設画像の最外形部分を強調する枠画像を付加するようにしてもよい。これにより、施設情報が付加された施設の範囲が視覚的に明らかになり、紐付けられた施設情報に対応する施設画像の範囲をわかりやすくすることができる。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the above-described embodiment, a different color is assigned to each of the extracted facility images, but instead of coloring, a frame image that emphasizes the outermost part of each facility image may be added. . As a result, the range of the facility to which the facility information is added is visually clarified, and the range of the facility image corresponding to the associated facility information can be easily understood.

また、上述した実施形態では、ナビゲーション装置に本発明の情報表示装置の構成を組み込んだが、図7に示すように、ナビゲーション装置100とは別に情報表示装置200を構成し、必要な情報を適宜ナビゲーション装置との間で入出力するようにしてもよい。この情報表示装置200には、図1に示した画像格納部30、施設抽出部32、施設情報取得部34、画像合成部36が少なくとも含まれている。   In the embodiment described above, the configuration of the information display device of the present invention is incorporated in the navigation device. However, as shown in FIG. 7, the information display device 200 is configured separately from the navigation device 100, and necessary information is properly navigated. You may make it input / output between apparatuses. The information display device 200 includes at least the image storage unit 30, the facility extraction unit 32, the facility information acquisition unit 34, and the image composition unit 36 shown in FIG.

また、図8に示すように、ナビゲーション装置から施設情報を取得する代わりにネットワーク300を介してサーバ400から施設情報を取得したり、GPS機能付きのカメラ8A(あるいはGPS機能付きのカメラ付き携帯電話等でもよい)から撮像位置付きの実画像を取得するようにしてもよい。あるいは、位置情報付きの実画像をネットワーク300経由で取得するようにしてもよい。特に、サーバ400等から施設情報を取得する場合には、その都度最新の施設情報を取得することができるようになるため、新しい施設情報を優先的に表示させたり、有効期間内のキャンペーン情報などの施設情報を優先的に表示させることもできる。   Also, as shown in FIG. 8, instead of acquiring facility information from the navigation device, the facility information is acquired from the server 400 via the network 300, or the camera 8A with a GPS function (or a mobile phone with a camera with a GPS function). Etc.) may be used to acquire a real image with an imaging position. Alternatively, an actual image with position information may be acquired via the network 300. In particular, when acquiring facility information from the server 400 or the like, since the latest facility information can be acquired each time, new facility information is displayed preferentially, campaign information within the validity period, etc. The facility information can be displayed with priority.

上述したように、本発明によれば、実画像に含まれる各施設画像に施設情報を付加して表示する際に、対応する施設画像と施設情報とを関連づけて表示することにより、各施設と施設情報との対応関係をわかりやすくすることができる。   As described above, according to the present invention, when facility information is added to each facility image included in the actual image and displayed, the corresponding facility image and facility information are displayed in association with each other, The correspondence with facility information can be easily understood.

1 ナビゲーションコントローラ
3 地図データ記憶装置
4 操作部
5 車両位置検出部
6 表示装置
8 カメラ
10 地図バッファ
12 地図読出制御部
14 地図描画部
20 車両位置計算部
30 画像格納部
32 施設抽出部
34 施設情報取得部
36 画像合成部
50 入力処理部
60 表示処理部
DESCRIPTION OF SYMBOLS 1 Navigation controller 3 Map data storage device 4 Operation part 5 Vehicle position detection part 6 Display apparatus 8 Camera 10 Map buffer 12 Map reading control part 14 Map drawing part 20 Vehicle position calculation part 30 Image storage part 32 Facility extraction part 34 Facility information acquisition Unit 36 Image composition unit 50 Input processing unit 60 Display processing unit

Claims (8)

周囲の施設を含む実画像を撮像によって取得する撮像手段と、
前記実画像に含まれる施設画像を抽出する施設抽出手段と、
前記施設抽出手段によって抽出された施設画像に対応する施設に対応する施設情報を取得する施設情報取得手段と、
前記実画像内において互いに対応する前記施設画像と前記施設情報とを関連づけて描画する画像合成手段と、
を備えることを特徴とする情報表示装置。
Imaging means for acquiring a real image including surrounding facilities by imaging;
Facility extraction means for extracting a facility image included in the real image;
Facility information acquisition means for acquiring facility information corresponding to a facility corresponding to the facility image extracted by the facility extraction means;
Image combining means for drawing the facility image and the facility information corresponding to each other in the real image,
An information display device comprising:
請求項1において、
前記施設抽出手段は、前記施設画像を建物毎に抽出することを特徴とする情報表示装置。
In claim 1,
The facility extraction unit extracts the facility image for each building.
請求項2において、
前記施設抽出手段は、実画像に対して画像認識処理を行って前記施設画像を抽出することを特徴とする情報表示装置。
In claim 2,
The facility extraction means extracts the facility image by performing image recognition processing on a real image.
請求項1〜3のいずれかにおいて、
前記撮像手段による撮像位置を検出する位置検出手段をさらに備え、
前記施設情報取得手段は、前記位置検出手段によって検出された撮像位置と、前記施設抽出手段によって抽出された各施設画像の実画像内での位置とに基づいて各施設の位置を特定し、この特定した位置に対応する施設情報を取得することを特徴とする情報表示装置。
In any one of Claims 1-3,
It further comprises position detection means for detecting an imaging position by the imaging means,
The facility information acquisition means specifies the position of each facility based on the imaging position detected by the position detection means and the position in the actual image of each facility image extracted by the facility extraction means. An information display device characterized by acquiring facility information corresponding to a specified position.
請求項4において、
施設情報を施設位置とともに格納する施設情報格納手段をさらに備え、
前記施設情報取得手段は、前記施設情報格納手段に格納された施設情報の中から、特定した施設位置に対応する施設情報を取得することを特徴とする情報表示装置。
In claim 4,
A facility information storage means for storing facility information together with the facility location;
The facility information acquisition unit acquires the facility information corresponding to the specified facility position from the facility information stored in the facility information storage unit.
請求項1〜5のいずれかにおいて、
前記画像合成手段は、互いに関連づける前記施設画像と前記施設情報との間に前記施設情報を前記施設画像から引き出す補助画像を付加することを特徴とする情報表示装置。
In any one of Claims 1-5,
The information display device, wherein the image composition unit adds an auxiliary image for extracting the facility information from the facility image between the facility image and the facility information associated with each other.
請求項1〜6のいずれかにおいて、
前記画像合成手段は、互いに関連づける前記施設画像と前記施設情報に同じ着色を付加することを特徴とする情報表示装置。
In any one of Claims 1-6,
The information display device, wherein the image composition unit adds the same coloring to the facility image and the facility information associated with each other.
請求項1〜7のいずれかにおいて、
前記画像合成手段は、前記施設抽出手段によって抽出された前記施設画像の最外形部分を強調する枠画像を付加することを特徴とする情報表示装置。
In any one of Claims 1-7,
The information display device, wherein the image composition unit adds a frame image that emphasizes the outermost portion of the facility image extracted by the facility extraction unit.
JP2013020959A 2013-02-06 2013-02-06 Information display device Pending JP2014153095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013020959A JP2014153095A (en) 2013-02-06 2013-02-06 Information display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013020959A JP2014153095A (en) 2013-02-06 2013-02-06 Information display device

Publications (1)

Publication Number Publication Date
JP2014153095A true JP2014153095A (en) 2014-08-25

Family

ID=51575113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013020959A Pending JP2014153095A (en) 2013-02-06 2013-02-06 Information display device

Country Status (1)

Country Link
JP (1) JP2014153095A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9683862B2 (en) 2015-08-24 2017-06-20 International Business Machines Corporation Internationalization during navigation
JP2018503173A (en) * 2014-11-28 2018-02-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and apparatus for providing image presentation information
JP2019012152A (en) * 2017-06-29 2019-01-24 パナソニックIpマネジメント株式会社 Display control system, display system, display control method, program, and mobile body
JP2019105581A (en) * 2017-12-14 2019-06-27 クラリオン株式会社 Navigation device
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10103969A (en) * 1996-09-26 1998-04-24 Matsushita Electric Ind Co Ltd Navigator
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JP2002092012A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Particular area information display system
JP2004133094A (en) * 2002-10-09 2004-04-30 Zenrin Co Ltd Generating method of three dimensional electronic map data
JP2004138556A (en) * 2002-10-18 2004-05-13 Kumamoto Technology & Industry Foundation Car-navigation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10103969A (en) * 1996-09-26 1998-04-24 Matsushita Electric Ind Co Ltd Navigator
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JP2002092012A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Particular area information display system
JP2004133094A (en) * 2002-10-09 2004-04-30 Zenrin Co Ltd Generating method of three dimensional electronic map data
JP2004138556A (en) * 2002-10-18 2004-05-13 Kumamoto Technology & Industry Foundation Car-navigation system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018503173A (en) * 2014-11-28 2018-02-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and apparatus for providing image presentation information
US9683862B2 (en) 2015-08-24 2017-06-20 International Business Machines Corporation Internationalization during navigation
US9934219B2 (en) 2015-08-24 2018-04-03 International Business Machines Corporation Internationalization during navigation
JP2019012152A (en) * 2017-06-29 2019-01-24 パナソニックIpマネジメント株式会社 Display control system, display system, display control method, program, and mobile body
JP2019105581A (en) * 2017-12-14 2019-06-27 クラリオン株式会社 Navigation device
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method

Similar Documents

Publication Publication Date Title
US10677596B2 (en) Image processing device, image processing method, and program
EP2728313B1 (en) Method of displaying objects on a navigation map
US20070073475A1 (en) Navigation apparatus and map display device
JP5798392B2 (en) Parking assistance device
CA2964693C (en) Street-level guidance via route path
JP2007263835A (en) Car navigation apparatus
WO2015071923A1 (en) Driving-support-image generation device, driving-support-image display device, driving-support-image display system, and driving-support-image generation program
JP2014153095A (en) Information display device
JP2015503740A (en) Apparatus, method, and computer program for displaying POI
CN102782739A (en) Driver assistance device having a visual representation of detected object
JP2007026201A (en) Image processor, road image drawing method and road image drawing program
US10229543B2 (en) Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
JP2012164157A (en) Image synthesizer
US20120092370A1 (en) Apparatus and method for amalgamating markers and markerless objects
JP2008241507A (en) Navigation device
JP5955662B2 (en) Augmented reality system
JP2008039676A5 (en)
JP6345381B2 (en) Augmented reality system
CN102729824B (en) Image processing determining apparatus
JP2003216927A (en) Image display program
JP5702476B2 (en) Display device, control method, program, storage medium
JP2007264176A (en) On-vehicle stereoscopic display device
JP5209644B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium
JP2008267955A (en) Navigation device, drawer display method, and drawer display program
JP5829154B2 (en) Augmented reality system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161122