JP2014006147A - Augmented reality system - Google Patents

Augmented reality system Download PDF

Info

Publication number
JP2014006147A
JP2014006147A JP2012141745A JP2012141745A JP2014006147A JP 2014006147 A JP2014006147 A JP 2014006147A JP 2012141745 A JP2012141745 A JP 2012141745A JP 2012141745 A JP2012141745 A JP 2012141745A JP 2014006147 A JP2014006147 A JP 2014006147A
Authority
JP
Japan
Prior art keywords
information
facility
display
augmented reality
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012141745A
Other languages
Japanese (ja)
Other versions
JP5955662B2 (en
Inventor
Taku Oikawa
卓 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012141745A priority Critical patent/JP5955662B2/en
Publication of JP2014006147A publication Critical patent/JP2014006147A/en
Application granted granted Critical
Publication of JP5955662B2 publication Critical patent/JP5955662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an augmented reality system that facilitates perception of information on facilities staying for only a short period within a real space range where information can be displayed overlapping each other.SOLUTION: In an augmented reality system, at a geographic point 462 balloon diagrams 421 to 422 representing facility names are shown regarding building B and building D positioned within a field of vision in the form of being blown out of the positions of building B and building D in a landscape of real space (d). If a building A and a building C (c) are not positioned in the geographic point 462 and facility names of which were displayed at a geographic point 461, and display of the facility names was started within T seconds before the time of arrival at the geographic point 462, partial balloon diagrams 423 to 424 representing the facility names of these building A and building C are displayed as if the balloons which are blown out of positions outside the display screen are displayed with only parts within the display screen (d).

Description

本発明は、拡張現実の技術に関するものである。   The present invention relates to augmented reality technology.

拡張現実(AR: Augmented Reality)の技術としては、カメラと表示装置とを備えた携帯電話端末において、表示装置に、カメラが撮影している実空間の風景を表す映像を表示すると共に、周辺の施設の情報を、前記映像上の当該施設に対応する位置に重畳表示する技術が知られている(たとえば、特許文献1)。   Augmented Reality (AR) technology uses a mobile phone terminal equipped with a camera and a display device to display a video representing the scenery of the real space captured by the camera on the display device. A technique is known in which facility information is superimposed and displayed at a position corresponding to the facility on the video (for example, Patent Document 1).

また、拡張現実の技術としては、自動車に搭載したヘッドアップディスプレイを用いて、周辺の施設の情報を、ユーザが見ている実空間の風景上の、当該施設に対応する位置に重畳表示する技術も知られている(たとえば、特許文献2)。   As augmented reality technology, a head-up display mounted on an automobile is used to superimpose and display information on surrounding facilities at a position corresponding to the facility on the scenery of the real space viewed by the user. Is also known (for example, Patent Document 2).

特開2010-239568号公報JP 2010-239568 A 特開2009-020089号公報JP 2009-020089 A

上述した拡張現実の技術によれば、カメラで撮影される実空間範囲や、ヘッドアップディスプレイを用いて情報を重畳表示することができる実空間範囲を情報表示範囲として、当該情報表示範囲に含まれる施設のみの情報が表示されることになる。
このため、カメラや自動車の位置や向きが変化している期間中には、情報表示範囲に含まれる施設が変化するために、短時間しか情報表示範囲内に留まらない施設が発生する。そして、このような施設については、その情報が短時間しか表示されないこととなり、ユーザの情報内容の認識に支障が生じる。
According to the augmented reality technique described above, an information display range includes a real space range photographed by a camera and a real space range in which information can be superimposed and displayed using a head-up display. Information of only the facility will be displayed.
For this reason, during the period in which the position and orientation of the camera and the vehicle are changing, the facilities included in the information display range change, so that a facility that stays within the information display range only for a short time occurs. And about such a facility, the information will be displayed only for a short time, and it will interfere with a user's recognition of the information content.

そこで、本発明は、実空間の風景もしくは当該風景を表す映像上に、当該風景に含まれる施設の情報を当該施設に対応する位置に配置して重畳表示する拡張現実システムにおいて、情報を重畳表示することのできる実空間範囲内に短時間しか留まらない施設についての情報の認識を容易化することを課題とする。   Therefore, the present invention superimposes and displays information in an augmented reality system in which information on a facility included in the landscape is superimposed and displayed at a position corresponding to the facility on a real space landscape or a video representing the landscape. It is an object of the present invention to facilitate the recognition of information about a facility that can only stay for a short time within a real space range.

前記課題達成のために、本発明は、実空間の風景上に映像を重畳表示するヘッドアップディスプレイを備えた拡張現実システムに、施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、前記ヘッドアップディスプレイが映像を風景上に重畳表示可能な実空間の範囲である視界範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、当該拡張現実情報が関係づけられた施設に重なる位置である表示基準位置に関連づけた形態で前記ヘッドアップディスプレイに表示する視界範囲内施設情報表示手段と、前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設について、当該施設に関係づけられた拡張現実情報が表す情報を、前記ヘッドアップディスプレイの表示画面外の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で前記ヘッドアップディスプレイに表示する視界範囲外施設情報表示手段とを備えたものである。   In order to achieve the above object, the present invention provides an augmented reality system including a head-up display that superimposes and displays an image on a landscape in real space, and an extended information representing the information of the related facility related to the facility. Based on the reality information, the augmented reality information represents the information represented by the augmented reality information related to the facility included in the field of view that is the range of the real space in which the head-up display can superimpose and display the image on the landscape. Visibility range facility information display means for displaying on the head-up display in a form associated with a display reference position, which is a position overlapping with the related facilities, and the visibility range facility information display means have received information within the past predetermined period. For facilities that are related to the augmented reality information that has been displayed and that are not included in the field of view, the extended information related to the facility The information represented by the real information is out of the field of view range to be displayed on the head-up display in a form representing the portion inside the display screen of the balloon graphic whose origin is the position outside the display screen of the head-up display. And facility information display means.

また、本発明は、前記課題達成のために、実空間の風景を撮影するカメラと、前記カメラが撮影した画像である撮影画像を表示するディスプレイを備えた拡張現実システムに、施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、前記カメラが撮影する実空間の範囲である視界範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、当該拡張現実情報が関係づけられた施設に対応する撮影画像上の位置である表示基準位置に関連づけた形態で、前記ディスプレイに表示されている前記撮影画像上に重畳して表示する視界範囲内施設情報表示手段と、前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設について、当該施設に関係づけられた拡張現実情報が表す情報を、前記ディスプレイの表示画面外の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で、前記ディスプレイに表示されている前記撮影画像上に重畳して表示する視界範囲外施設情報表示手段とを備えたものである。   In order to achieve the above object, the present invention is related to a facility with an augmented reality system including a camera that captures a landscape in real space and a display that displays a captured image that is captured by the camera. Based on the augmented reality information representing the information of the related facility, the information represented by the augmented reality information related to the facility included in the field of view that is the range of the real space captured by the camera is Visibility range facility information display superimposed on the captured image displayed on the display in a form associated with a display reference position that is a position on the captured image corresponding to the facility with which the real information is related. And a facility information display means within the visibility range that is related to the augmented reality information that has started displaying information within a predetermined period in the past, and is not included in the visibility range. For the facility, the information represented by the augmented reality information related to the facility is represented in a graphic representing a part in the display screen of the balloon graphic whose position is outside the display screen of the display, And an out-of-view-range-facility information display unit that superimposes and displays the captured image displayed on the display.

ここで、このような拡張現実システムは、前記視界範囲外施設情報表示手段において、前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設が前記視界範囲から逸脱していった左右方向を逸脱方向として、当該施設に関係づけられた拡張現実情報が表す情報を、前記表示画面外の当該施設の前記逸脱方向側の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で表示するように構成してもよい。   Here, such an augmented reality system is a facility related to the augmented reality information in which the in-view range facility information display means starts displaying information within the past predetermined period in the out-of-view range facility information display means. And the information represented by the augmented reality information related to the facility, with the left-right direction where the facility not included in the view range has deviated from the view range as the departure direction, is displayed outside the display screen. You may comprise so that it may display in the form represented in the figure showing the part in the said display screen of the balloon figure which makes the position of the said deviation direction side of the said facility the balloon origin.

また、このような拡張現実システムは、前記視界範囲内施設情報表示手段において、前記情報を前記表示基準位置を吹き出し元とする吹き出し図形内に配置した形態で表示するように構成してもよい。
なお、このような拡張現実システムは自動車に搭載されたシステムであって良く、この場合には、前記視界範囲は、前記自動車前方の範囲としてよい。
これらのような拡張現実システムによれば、情報を風景またはその映像上に重畳表示できる実空間の範囲である視界範囲に短時間しか留まらない施設であっても、所定期間は必ず、その情報が表示されることを担保することができる。また、視界範囲外の施設の情報については、表示画面外の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で表示することにより当該情報が視界範囲外の施設についての情報であることを、ユーザが直感的に把握できるようにすることができる。
In addition, such an augmented reality system may be configured to display the information in a form that is arranged in a balloon graphic with the display reference position as a balloon source, in the facility information display means within the visual field range.
Note that such an augmented reality system may be a system mounted on a vehicle, and in this case, the field of view range may be a range in front of the vehicle.
According to these augmented reality systems, even if the facility stays only in the view range, which is the range of the real space where the information can be superimposed and displayed on the landscape or its video, the information is always kept for a predetermined period. It can be guaranteed that it is displayed. In addition, for information on facilities outside the visual field range, the information is displayed outside the visual field range by displaying it in a form representing a part of the balloon graphic with the position outside the display screen as the balloon source. It is possible to make it possible for the user to intuitively understand that the information is about the facility.

以上のように、本発明によれば、実空間の風景もしくは当該風景を表す映像上に、当該風景に含まれる施設の情報を当該施設に対応する位置に配置して重畳表示する拡張現実システムにおいて、情報を重畳表示することのできる実空間範囲内に短時間しか留まらない施設についての情報の認識を容易化することができる。   As described above, according to the present invention, in an augmented reality system that superimposes and displays information on a facility included in the scenery on a position representing the scenery in the real space or on the video representing the scenery. It is possible to facilitate the recognition of information about a facility that only stays within a real space range in which information can be superimposed and displayed.

本発明の実施形態に係る車載システムの構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted system which concerns on embodiment of this invention. 本発明の実施形態に係る車載システムの記憶装置の記憶内容を示す図である。It is a figure which shows the memory content of the memory | storage device of the vehicle-mounted system which concerns on embodiment of this invention. 本発明の実施形態に係るARタグ表示処理を示すフローチャートである。It is a flowchart which shows the AR tag display process which concerns on embodiment of this invention. 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。It is a figure which shows the process example of the AR tag display process which concerns on embodiment of this invention. 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。It is a figure which shows the process example of the AR tag display process which concerns on embodiment of this invention. 本発明の実施形態に係るARタグ表示処理の処理例を示す図である。It is a figure which shows the process example of the AR tag display process which concerns on embodiment of this invention.

以下、本発明の実施形態について説明する。
図1aに本実施形態に係る車載システムの構成を示す。
車載システムは、自動車に搭載されるシステムであり、図示するように、車載システム1は、ヘッドアップディスプレイ(HUD)101、操作部102、自動車の前方の風景を撮影するカメラ103、GPS受信機104、自動車の車速や角速度を計測する車両状態センサ105、制御部106、ナビゲーション部107、AR表示部108、記憶装置109、スマートフォンなどの外部装置を無線または有線で接続するための外部インタフェース110とを備えている。
Hereinafter, embodiments of the present invention will be described.
FIG. 1a shows the configuration of an in-vehicle system according to this embodiment.
The in-vehicle system is a system mounted in an automobile. As shown in the figure, the in-vehicle system 1 includes a head-up display (HUD) 101, an operation unit 102, a camera 103 that captures a landscape in front of the automobile, and a GPS receiver 104. A vehicle state sensor 105 for measuring the vehicle speed and angular velocity of the automobile, a control unit 106, a navigation unit 107, an AR display unit 108, a storage device 109, and an external interface 110 for connecting an external device such as a smartphone wirelessly or by wire. I have.

ただし、車載システム1は、ハードウエア的には、マイクロプロセッサや、メモリや、その他の周辺デバイスを有する一般的な構成を備えたコンピュータを用いて構成してよく、この場合、以上に示した車載システム1の各部、または、その一部は、マイクロプロセッサが予め用意されたプログラムを実行することにより具現化するプロセスとして実現されるものであって良い。また、この場合、このようなプログラムは、記録媒体や適当な通信路を介して、車載システム1に提供されるものであって良い。   However, the in-vehicle system 1 may be configured using a computer having a general configuration including a microprocessor, a memory, and other peripheral devices in hardware. In this case, the in-vehicle system described above is used. Each part of the system 1 or a part of the system 1 may be realized as a process realized by a microprocessor executing a program prepared in advance. In this case, such a program may be provided to the in-vehicle system 1 via a recording medium or an appropriate communication path.

ここで、車載システム1のヘッドアップディスプレイ101は、図1bに示すように、運転者の目前に配置された透明スクリーン1011と、透明スクリーン1011に画像を投影する投影ユニット1012とより構成され、投影ユニット1012より投影した画像が、透明スクリーン1011によって反射されて、透明スクリーン越しに見える自動車前方の実空間の風景に重畳した形態で、運転者に視認されるように構成されている。なお、透明スクリーン1011としてはフロントウインドウシールドに組み込まれたウインドシールドディスプレイを用いるようにすることもできる。   Here, as shown in FIG. 1B, the head-up display 101 of the in-vehicle system 1 includes a transparent screen 1011 disposed in front of the driver and a projection unit 1012 that projects an image on the transparent screen 1011. The image projected from the unit 1012 is reflected by the transparent screen 1011 and is configured to be visually recognized by the driver in a form superimposed on the scenery of the real space in front of the automobile seen through the transparent screen. As the transparent screen 1011, a windshield display incorporated in the front window shield can be used.

次に、車載システム1のカメラ103は、自動車前部に搭載され、自動車前方の風景を撮影するカメラ103である。
また、このような車載システム1には、外部インタフェース110を用いてスマートフォン2などを接続することができる。
次に、車載システム1の記憶装置109の記憶内容について説明する。
図2に示すように、記憶装置109には、地図データ、ARデータベース、表示候補ARデータテーブルが格納される。
ここで、地図データは、道路地図を表すデータであり予め記憶装置109に記憶される。
また、ARデータベースは、施設の情報を表すARデータを蓄積したものであり、各ARデータは、ARデータの識別子であるARデータ識別子、ARデータが情報を表す施設の種別を示す情報種別、ARデータが情報を表す施設の実空間上の位置を表す対象物座標、拡張現実のためにカメラ103が撮影した映像上に表すARタグの内容を表すARタグデータ、ARデータが情報を表す施設についての詳細な情報である詳細情報とを有する。ここで、本実施形態では、一例として、ARタグとしてARデータが情報を表す施設の施設名を用いる場合について示す。ただし、ARタグとしては、施設の種別を示す図形であるアイコン/ランドマークなどを用いるようにすることもできる。
Next, the camera 103 of the in-vehicle system 1 is a camera 103 that is mounted in the front part of the automobile and photographs a landscape in front of the automobile.
Moreover, the smart phone 2 etc. can be connected to such a vehicle-mounted system 1 using the external interface 110. FIG.
Next, the contents stored in the storage device 109 of the in-vehicle system 1 will be described.
As shown in FIG. 2, the storage device 109 stores map data, an AR database, and a display candidate AR data table.
Here, the map data is data representing a road map and is stored in the storage device 109 in advance.
The AR database stores AR data representing facility information. Each AR data includes an AR data identifier that is an identifier of AR data, an information type that indicates the type of facility for which AR data represents information, AR Object coordinates representing the position in the real space of the facility for which the data represents information, AR tag data representing the contents of the AR tag represented on the video taken by the camera 103 for augmented reality, and the facility for which the AR data represents information Detailed information which is detailed information. Here, in the present embodiment, as an example, a case where a facility name of a facility whose information is represented by AR data is used as an AR tag will be described. However, as the AR tag, an icon / landmark that is a graphic indicating the type of facility may be used.

ここで、ARデータベースの各ARデータは、予め記憶装置109に記憶されたものであってもよいが、AR表示部108が、車載システム1に接続されたスマートフォン2を介して、移動体通信網を含むWAN3上のARサーバ4より取得して記憶装置109に格納したものであってもよい。   Here, each AR data of the AR database may be stored in the storage device 109 in advance, but the AR display unit 108 is connected to the mobile communication network via the smartphone 2 connected to the in-vehicle system 1. May be acquired from the AR server 4 on the WAN 3 including and stored in the storage device 109.

次に、表示候補ARデータテーブルは、後述する表示候補ARデータに設定されたARデータを管理するためのテーブルであり、表示候補ARデータ毎に対応して設けたエントリ(図の各行)を有する。そして、各エントリには対応する表示候補ARデータのARデータ識別子、表示開始時刻、対象物位置、逸脱予想方向を登録することができる。   Next, the display candidate AR data table is a table for managing AR data set in display candidate AR data to be described later, and has entries (each row in the figure) provided for each display candidate AR data. . In each entry, the AR data identifier of the corresponding display candidate AR data, the display start time, the object position, and the expected departure direction can be registered.

さて、このような構成において、車載システム1のナビゲーション部107は、記憶装置109に記録されている地図データを用いて、GPS受信機104や車両状態センサ105を利用した、自車の現在位置や自車の現在の前方方向の算出や、ユーザからの目的地の設定の受け付けや、設定された目的地までのルートの探索や、現在位置周辺の地図上に現在位置や現在の前方方向を表すマークや目的地までのルートを表したナビゲーション画像の生成などを行う。   In such a configuration, the navigation unit 107 of the in-vehicle system 1 uses the map data recorded in the storage device 109 and uses the GPS receiver 104 and the vehicle state sensor 105 to detect the current position of the vehicle. Calculates the current forward direction of the vehicle, accepts destination settings from the user, searches for routes to the set destination, and displays the current position and current forward direction on a map around the current position A navigation image representing the mark and the route to the destination is generated.

一方、AR表示部108は、ARタグ表示処理を実行しARタグをヘッドアップディスプレイ101を用いて表示する。
図3に、このARタグ表示処理を示す。
図示するように、この処理では、まず、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向とより、運転者がヘッドアップディスプレイ101の透明スクリーン1011越しに見ることのできる実空間の範囲を視界範囲として算出する(ステップ302)。
On the other hand, the AR display unit 108 executes an AR tag display process and displays the AR tag using the head-up display 101.
FIG. 3 shows this AR tag display processing.
As shown in the figure, in this process, first, the driver can see through the transparent screen 1011 of the head-up display 101 based on the current position calculated by the navigation unit 107 as described above and the current forward direction. The real space range is calculated as the view range (step 302).

そして、算出した視界範囲内に含まれる対象物座標が登録されているARデータを視界範囲内ARデータとして抽出する(ステップ304)。
次に、対応するARデータ識別子が登録されているエントリが表示候補ARデータテーブルに存在するARデータである表示候補ARデータのうち、ステップ304で視界範囲内ARデータとして抽出されておらず、表示候補ARデータテーブルの対応するエントリに登録されている表示開始時刻が過去T秒(たとえば、4秒)以内の表示候補ARデータを視界範囲外ARデータとして抽出する(ステップ306)。ここで、初期状態において表示候補ARデータに設定されているARデータは無い。
Then, AR data in which object coordinates included in the calculated view range are registered is extracted as view range AR data (step 304).
Next, among the display candidate AR data in which the entry in which the corresponding AR data identifier is registered is the AR data existing in the display candidate AR data table, the entry is not extracted as the AR data in the visual field range in step 304 and is displayed. Display candidate AR data whose display start time registered in the corresponding entry of the candidate AR data table is within the past T seconds (for example, 4 seconds) is extracted as out-of-view range AR data (step 306). Here, there is no AR data set as display candidate AR data in the initial state.

次に、視界範囲内ARデータの各々について、当該視界範囲内ARデータのARタグデータの内容を、ナビゲーション部107が上述のように算出している現在位置と現在の前方方向とより算出される、当該ARデータに登録されている対象物座標に、運転者から見て重なる透明スクリーン1011上の位置を表示基準位置として、表示基準位置からの吹き出しの形態で、ヘッドアップディスプレイ101に表示する(ステップ308)。   Next, for each AR data within the viewing range, the content of the AR tag data of the AR data within the viewing range is calculated from the current position and the current forward direction calculated by the navigation unit 107 as described above. The position on the transparent screen 1011 that overlaps the object coordinates registered in the AR data as viewed from the driver is displayed on the head-up display 101 in the form of a balloon from the display reference position as a display reference position ( Step 308).

ここで、ステップ308では、図4aに示すような、おおよそ四角形の本体部401と、クチバシ状に本体部401から突出した三角形状を有するクチバシ部402と、よりなる吹き出し図形400を吹き出しとして用い、図4c411-414、図4d421、422に示すように、ARタグデータの内容を本体部401の内側に表した状態で、クチバシ部402の先端が表示基準位置となるように透明スクリーン1011上に吹き出し図形400の全体を表示する。なお、図4c、dは、視界範囲、すなわち、運転者がヘッドアップディスプレイ101の透明スクリーン1011越しに見ることのできる実空間の範囲の当該運転者が見る風景500と、当該風景500上に重畳表示される透明スクリーン1011の表示内容とを表したものである。   Here, in step 308, as shown in FIG. 4a, a balloon figure 400 including a roughly rectangular main body part 401, a beak part 402 having a triangular shape protruding from the main body part 401 in a beak shape, and a balloon is used as a balloon. As shown in FIGS. 4c411-414 and 4d421, 422, the AR tag data is displayed on the transparent screen 1011 so that the tip of the beak 402 is at the display reference position in a state where the contents of the AR tag data are expressed inside the main body 401. The entire figure 400 is displayed. 4c and 4d are a view 500, that is, a landscape 500 viewed by the driver in a real space range that the driver can see through the transparent screen 1011 of the head-up display 101, and a view 500 superimposed on the landscape 500. The display content of the transparent screen 1011 to be displayed is shown.

図3に戻り、次に、視覚範囲外ARデータの各々について、当該視界範囲外ARデータのARタグデータの内容を、透明スクリーン1011外の、表示候補ARデータテーブルの当該視界範囲外ARデータのエントリに登録されている逸脱予測方向側の位置を吹き出し元として示す吹き出しの形態で、ヘッドアップディスプレイ101に表示する(ステップ310)。   Returning to FIG. 3, next, for each of the AR data outside the visual range, the contents of the AR tag data of the AR data outside the visual range are set to the AR data outside the visual range in the display candidate AR data table outside the transparent screen 1011. The position on the departure prediction direction side registered in the entry is displayed on the head-up display 101 in the form of a balloon indicating the balloon source (step 310).

ここで、ステップ310では、図4bに示すような、図4aに示した吹き出し図形400の、クチバシ部402の先端を欠いた形状を有する部分吹き出し図形450を、吹き出しとして用いる。すなわち、部分吹き出し図形450としては、おおよそ四角形の本体部451と、クチバシ状に本体部451から突出した三角形状の先端部分を欠いた形状を有する欠損クチバシ部452とよりなる部分図形450を用いる。   Here, in step 310, as shown in FIG. 4b, a partial balloon figure 450 having a shape lacking the tip of the beak portion 402 of the balloon figure 400 shown in FIG. 4a is used as a balloon. That is, as the partial balloon graphic 450, a partial graphic 450 including a substantially rectangular main body 451 and a missing beak portion 452 having a shape lacking a triangular tip protruding from the main body 451 in a beak shape is used.

そして、部分吹き出し図形450を、あたかも、透明スクリーン1011外の逸脱予測方向側の位置をクチバシ部452の先端とする吹き出しの、透明スクリーン1011上の部分だけが表示されているかのように透明スクリーン1011上に表示する。なお、部分吹き出し図形450の本体部451の内側にARタグデータの内容を表す。すなわち、逸脱予測方向が左側であれば、図4d423に示すように欠損クチバシ部452の先端が本体部451よりも左側に位置するように作成した部分吹き出し図形450を表示スクリーンの左辺と左揃えして表示スクリーン上に配置し、逸脱予測方向が右側であれば、図4d424に示すように欠損クチバシ部452の先端が本体部451よりも右側に位置するように作成した部分吹き出し図形450を表示スクリーンの右辺の右揃えして表示スクリーン上に配置する。   The partial balloon graphic 450 is displayed on the transparent screen 1011 as if only the part on the transparent screen 1011 of the balloon having the position on the deviation prediction direction side outside the transparent screen 1011 as the tip of the beak portion 452 is displayed. Display above. Note that the content of the AR tag data is represented inside the main body 451 of the partial balloon graphic 450. That is, if the departure prediction direction is the left side, the partial balloon figure 450 created so that the tip of the missing beak part 452 is located on the left side of the main body part 451 as shown in FIG. 4d423 is left-aligned with the left side of the display screen. If the deviation prediction direction is on the right side, a partial balloon graphic 450 created so that the tip of the missing beak part 452 is located on the right side of the main body part 451 as shown in FIG. 4d424 is displayed on the display screen. Align the right side of and place it on the display screen.

さて、図3に戻り、次に、視界範囲内ARデータとなっているARデータのうち、表示候補ARデータとなっていないARデータを、表示候補ARデータに設定し、表示開始時刻と共に表示候補ARデータテーブルに登録する(ステップ312)。
すなわち、ここでは、視界範囲内ARデータとなっているARデータのうち、表示候補ARデータとなっていないARデータの各々に対応するエントリを表示候補ARデータテーブルに作成し、各エントリに対応するARデータのARデータ識別子を登録すると共に、現在時刻を表示開始時刻として登録する。
Now, returning to FIG. 3, next, among the AR data that is the AR data within the visual field range, AR data that is not the display candidate AR data is set as the display candidate AR data, and the display candidate is displayed together with the display start time. Register in the AR data table (step 312).
That is, here, an entry corresponding to each AR data that is not the display candidate AR data among the AR data that is the AR data within the view range is created in the display candidate AR data table and corresponds to each entry. The AR data identifier of the AR data is registered, and the current time is registered as the display start time.

そして、視界範囲内ARデータとなっている表示候補ARデータの、表示候補ARデータテーブルのエントリの対象物位置と、逸脱予測方向を更新する(ステップ314)。
当該更新においては、当該更新前に当該表示候補ARデータテーブルのエントリに登録されていた対象物位置よりも、今回、当該表示候補ARデータについて求めた表示基準位置が、左側にあれば逸脱予測方向を左に更新し、右側にあれば逸脱予測方向を右に更新することにより行う。また、当該更新においては、今回、当該表示候補ARデータについて求めた表示基準位置に、対象物位置を更新する。
Then, the object position and the deviation prediction direction of the entry of the display candidate AR data table of the display candidate AR data that is the AR data within the visual field range are updated (step 314).
In the update, if the display reference position obtained for the display candidate AR data this time is on the left side of the object position registered in the entry of the display candidate AR data table before the update, the deviation prediction direction Is updated to the left, and if it is on the right, the deviation prediction direction is updated to the right. In the update, the object position is updated to the display reference position obtained for the display candidate AR data this time.

ただし、逸脱予測方向の更新は、今回、当該表示候補ARデータについて求めた表示基準位置が透明スクリーン1011の左側半分内の位置であれば左に更新し、右半分内の位置であれば右に更新することにより行うようにしてもよい。なお、左右は、運転者から見たときの左右である。   However, the deviation prediction direction is updated to the left if the display reference position obtained for the display candidate AR data is a position in the left half of the transparent screen 1011 and to the right if the position is in the right half. You may make it carry out by updating. The left and right are the left and right when viewed from the driver.

そして、視界範囲内ARデータ、視界範囲外ARデータの設定をリセットし(ステップ316)、ステップ302からの処理に戻る。
以上、ARタグ表示処理について説明した。
以下、このようなARタグ表示処理の処理例について示す。
いま、図4eに示すように、自動車が地点461から地点462に直進して進んだものとする。
そして、地点461では、視界範囲、すなわち、運転者がヘッドアップディスプレイ101の透明スクリーン1011越しに見ることのできる実空間の範囲内に位置するARデータが設定された施設としてAビル、Bビル、Cビル、Dビルが存在するものとする。
この場合、図4cに示すように、実空間の風景中のAビル、Bビル、Cビル、Dビルの位置から吹き出す吹き出し図形411-414が、実空間の風景上に重畳表示され、各吹き出し図形411-414中に、Aビル、Bビル、Cビル、Dビルの施設名称(ARタグデータの内容)が表示される。ここで、このようなAビル、Cビルの施設名称の表示開始からT秒以内に自動車は地点462に進んだものとする。
Then, the settings of the AR data within the visual field range and the AR data outside the visual field range are reset (step 316), and the processing returns to step 302.
The AR tag display process has been described above.
Hereinafter, a processing example of such AR tag display processing will be described.
Now, as shown in FIG. 4e, it is assumed that the automobile travels straight from point 461 to point 462.
At point 461, the buildings A and B are set as AR data located within the field of view, that is, the real space that the driver can see through the transparent screen 1011 of the head-up display 101. Assume that C Building and D Building exist.
In this case, as shown in FIG. 4c, balloon figures 411-414 blown out from the positions of the A building, the B building, the C building, and the D building in the real space scenery are superimposed and displayed on the real space scenery. Facility names (contents of AR tag data) of A building, B building, C building, and D building are displayed in graphics 411-414. Here, it is assumed that the vehicle has advanced to the point 462 within T seconds from the start of the display of the facility names of the A building and the C building.

また、地点462では、自動車の通過に伴ってAビル、Cビルが視界範囲から逸脱し、視界範囲内に位置するARデータが設定された施設としてBビル、Dビルのみが残ったものとする。
この場合、図4dに示すように、実空間の風景中のBビル、Dビルの位置から吹き出す吹き出し図形421-422が、実空間の風景上に重畳表示され、各吹き出し図形421-422内に、Bビル、Dビルの施設名称(ARタグデータの内容)が表示される。
また、視界範囲から逸脱したAビル、Cビルの施設名称は、過去T秒内に表示を開始したものであるので、部分吹き出し図形423-424が、あたかも、透明スクリーン1011外の位置をクチバシの先端とする吹き出しの、透明スクリーン1011上の部分だけが表示されているかのように表示され、各部分吹き出し図形423-424内にAビル、Cビルの施設名称が表示される。ここで、Aビルは左方向に視界範囲から逸脱しているので、透明スクリーン1011外の逸脱予測方向側の位置をクチバシの先端とする吹き出しの透明スクリーン1011上の部分だけが表示されているかのようにAビルの部分吹き出し図形423は配置され、cビルは右方向に視界範囲から逸脱しているので、透明スクリーン1011外の逸脱予測方向側の位置をクチバシの先端とする吹き出しの透明スクリーン1011上の部分だけが表示されているかのようにCビルの部分吹き出し図形424は配置される。
Further, at point 462, it is assumed that Building A and Building C deviate from the view range as the vehicle passes, and that only Building B and Building D remain as facilities in which AR data located within the view range is set. .
In this case, as shown in FIG. 4d, balloon figures 421-422 that are blown out from the positions of the buildings B and D in the real space scenery are superimposed on the scenery in the real space and are displayed in the balloon figures 421-422. , B building and D building facility names (contents of AR tag data) are displayed.
Also, since the facility names of Building A and Building C that deviated from the field of view started to be displayed within the past T seconds, the partial callout graphic 423-424 is as if the position outside the transparent screen 1011 Only the part on the transparent screen 1011 of the speech balloon at the tip is displayed, and the facility names of Building A and Building C are displayed in each partial speech balloon figure 423-424. Here, since the building A deviates from the view range in the left direction, whether only the portion on the transparent screen 1011 of the balloon with the position on the deviation prediction direction side outside the transparent screen 1011 is displayed is displayed. Thus, the partial balloon figure 423 of the A building is arranged, and the building c deviates from the view range in the right direction. Therefore, the transparent screen 1011 of the balloon having the position of the deviation prediction direction side outside the transparent screen 1011 as the tip of the beak. The partial callout graphic 424 of the C building is arranged as if only the upper part is displayed.

次に、図5aに示すように、自動車が地点501から地点502に右折して進んだものとする。
そして、地点501では、視界範囲内に位置するARデータが設定された施設としてAビル、Cビルが存在するものとする。
この場合、図5bに示すように、実空間の風景中のAビル、Cビルの位置から吹き出す吹き出し図形511-512が、実空間の風景上に重畳表示され、各吹き出し図形511-512中に、Aビル、Cビルの施設名称(ARタグデータの内容)が表示される。ここで、このようなAビル、Cビルの施設名称の表示開始からT秒以内に自動車は地点502に進んだものとする。
Next, as shown in FIG. 5 a, it is assumed that the automobile has made a right turn from point 501 to point 502.
At point 501, it is assumed that there are an A building and a C building as a facility in which AR data located within the view range is set.
In this case, as shown in FIG. 5b, balloon figures 511-512 that are blown out from the positions of the buildings A and C in the real space scenery are superimposed on the scenery in the real space, and are displayed in the balloon figures 511-512. , Facility names of A building and C building (contents of AR tag data) are displayed. Here, it is assumed that the vehicle has advanced to the point 502 within T seconds from the start of the display of the facility names of the A building and the C building.

また、地点502では、自動車の右折による方向転換に伴ってAビル、Cビルが視界範囲から逸脱し、視界範囲内に位置するARデータが設定された施設としてEビル、Fビルが発生しているものとする。
この場合、図5cに示すように、実空間の風景中のEビル、Fビルの位置から吹き出す吹き出し図形513-514が、実空間の風景上に重畳表示され、各吹き出し図形513-514内に、Eビル、Fビルの施設名称(ARタグデータの内容)が表示される。
また、視界範囲から逸脱したAビル、Cビルの施設名称は、過去T秒内に表示を開始しているので、部分吹き出し図形515-516が、あたかも、透明スクリーン1011外の位置をクチバシの先端とする吹き出しの、透明スクリーン1011上の部分だけが表示されているかのように表示され、各部分吹き出し図形515-516内にAビル、Cビルの施設名称が表示される。ここで、Aビル、Cビル共に、自動車の方向転換に伴って左方向に視界範囲から逸脱しているので、透明スクリーン1011外の逸脱予測方向側の位置をクチバシの先端とする吹き出しの透明スクリーン1011上の部分だけが表示されているかのようにAビル、Cビルの部分吹き出し図形515-516は配置される。
In addition, at point 502, the A building and the C building deviate from the view range as the vehicle turns to the right, and the E building and the F building are generated as facilities where AR data located within the view range is set. It shall be.
In this case, as shown in FIG. 5c, the balloon figures 513-514 blown out from the positions of the E building and the F building in the real space scenery are superimposed and displayed on the real space scenery, and in each of the balloon figures 513-514. , E building and F building facility names (contents of AR tag data) are displayed.
In addition, since the facility names of Building A and Building C that deviated from the view range have started to be displayed within the past T seconds, the partial callout graphic 515-516 is positioned as if the position outside the transparent screen 1011 is the tip of the beak. Are displayed as if only the part on the transparent screen 1011 is displayed, and the facility names of the A building and the C building are displayed in each of the partial balloon graphics 515-516. Here, since both Building A and Building C deviate from the field of view in the left direction as the car changes direction, the transparent screen of the blowout with the position on the deviation prediction direction side outside the transparent screen 1011 as the tip of the beak The partial balloon figures 515-516 for the A building and the C building are arranged as if only the part on the 1011 is displayed.

以上、本発明の実施形態について説明した。
ところで、以上の実施形態では、ヘッドアップディスプレイ101を用いて、ARタグデータを実空間の風景上に直接重畳表示する場合について説明したが、本実施形態は、カメラ103で撮影した実空間の風景の映像上に、ARタグデータを畳表示する場合についても同様に適用することができる。
The embodiment of the present invention has been described above.
By the way, in the above embodiment, the case where the AR tag data is directly superimposed and displayed on the real space landscape using the head-up display 101 has been described. However, in the present embodiment, the real space landscape photographed by the camera 103 is described. The present invention can be similarly applied to the case where AR tag data is displayed in a tatami mat on the video.

すなわち、この場合には、ヘッドアップディスプレイ101に代えて液晶表示装置などのディスプレイを設けて、ディスプレイにカメラ103で撮影した映像を表示する。また、上述したARタグ表示処理を、視界範囲をカメラ103で撮影される実空間の範囲とし、表示基準位置を、カメラ103が撮影した映像中において、ARデータに登録されている対象物座標が写りこむ位置として適用する。また、ステップ310では、視界範囲外ARデータのARタグデータの内容を、ディスプレイの表示面外の、表示候補ARデータテーブルの当該視界範囲外ARデータのエントリに登録されている逸脱予測方向側の位置を吹き出し元として示す吹き出しの形態でディスプレイに表示する。   That is, in this case, a display such as a liquid crystal display device is provided instead of the head-up display 101, and an image captured by the camera 103 is displayed on the display. In the AR tag display process described above, the field of view is the range of the real space photographed by the camera 103, and the display reference position is the object coordinate registered in the AR data in the image photographed by the camera 103. It is applied as a reflected position. In step 310, the content of the AR tag data of the AR data outside the visual field range is displayed on the deviation prediction direction side registered in the entry of the AR data outside the visual field range in the display candidate AR data table outside the display surface of the display. The position is displayed on the display in the form of a balloon indicating the position as the balloon source.

このようにすることにより、図6a、bに、図5b、cに示した場合と同様に自動車が進行した場合のディスプレイの表示を示すように、ヘッドアップディスプレイ101を用いた場合と同様の表示を、実空間の風景をカメラ撮影画像600に置き換えた形態で行うことができる。なお、図6aは図5a地点501におけるディスプレイの表示、図6bは図5a地点502における表示である。   By doing in this way, the display similar to the case where the head-up display 101 is used is shown in FIGS. 6a and 6b, which shows the display on the display when the automobile travels as in FIGS. 5b and 5c. Can be performed in a form in which the scenery in the real space is replaced with the camera-captured image 600. 6A is a display on the point 501 in FIG. 5A, and FIG. 6B is a display on the point 502 in FIG. 5A.

また、以上の実施形態は車載システム1への適用を例にとり示したが、本実施形態は、車載システム1以外の、実空間の風景もしくは当該風景表す映像上に、当該風景に含まれる施設の情報を当該施設に対応する位置に配置して重畳表示する任意の拡張現実システムに同様に適用することができる。すなわち、たとえば、カメラ103と表示装置とを備え、表示装置に、カメラ103が撮影している実空間の風景を表す映像を表示すると共に、当該映像上に、周辺の施設の情報を、前記映像内の当該施設に対応する位置に重畳表示するスマートフォン2などの携帯型の装置などに同様に適用することができる。   Moreover, although the above embodiment showed taking the application to the vehicle-mounted system 1 as an example, this embodiment of the facility contained in the said scenery on the scenery of real space other than the vehicle-mounted system 1 or the image | video showing the said scenery is shown. The present invention can be similarly applied to any augmented reality system in which information is arranged and displayed at a position corresponding to the facility. That is, for example, a camera 103 and a display device are provided, and the display device displays a video representing a real space landscape captured by the camera 103, and information on surrounding facilities is displayed on the video. The present invention can be similarly applied to a portable device such as the smartphone 2 that superimposes and displays at a position corresponding to the facility.

なお、以上の実施形態においてAR表示部108は、表示されたAR画像上でARタグのユーザの選択が発生したならば、選択されたARタグのARデータに登録されている詳細情報を表示する処理なども行うようにしてよい。
以上のように、本実施形態によれば、ARタグデータの内容を風景上に重畳表示できる実空間の範囲である視界範囲に短時間しか留まらない施設であっても、所定期間は必ず、ARタグデータの内容は表示されることを担保することができる。また、視界範囲外の施設のARタグデータの内容については、表示画面外の位置を吹き出し元とする吹き出しの当該表示画面内の部分を表す部分吹き出し図形450に表した形態で表示することにより、当該ARタグデータの内容が視界範囲外の施設についての情報であることを、ユーザは直感的に把握できるようになる。また、この場合に、表示画面外の位置を逸脱方向側の位置とすることにより、当該情報が左右のどちら側にあった施設の情報であるかも、ユーザは直感的に把握できるようになる。
In the above embodiment, when the AR tag user is selected on the displayed AR image, the AR display unit 108 displays the detailed information registered in the AR data of the selected AR tag. Processing may also be performed.
As described above, according to the present embodiment, even in a facility where the content of the AR tag data can only be displayed for a short time in the field of view, which is the range of the real space where the content of the AR tag data can be superimposed and displayed on the landscape, It is possible to ensure that the contents of the tag data are displayed. Further, the contents of the AR tag data of the facility outside the visual field range are displayed in a form represented by a partial balloon graphic 450 representing a part in the display screen of the balloon whose position is outside the display screen. The user can intuitively understand that the content of the AR tag data is information about a facility outside the view range. Further, in this case, by setting the position outside the display screen as the position on the departure direction side, the user can intuitively grasp whether the information is the facility information on the left or right side.

1…車載システム、2…スマートフォン、3…WAN、4…ARサーバ、101…ヘッドアップディスプレイ、102…操作部、103…カメラ、104…GPS受信機、105…車両状態センサ、106…制御部、107…ナビゲーション部、108…AR表示部、109…記憶装置、110…外部インタフェース、1011…透明スクリーン、1012…投影ユニット。   DESCRIPTION OF SYMBOLS 1 ... In-vehicle system, 2 ... Smartphone, 3 ... WAN, 4 ... AR server, 101 ... Head up display, 102 ... Operation part, 103 ... Camera, 104 ... GPS receiver, 105 ... Vehicle state sensor, 106 ... Control part, DESCRIPTION OF SYMBOLS 107 ... Navigation part, 108 ... AR display part, 109 ... Memory | storage device, 110 ... External interface, 1011 ... Transparent screen, 1012 ... Projection unit.

Claims (5)

実空間の風景上に映像を重畳表示するヘッドアップディスプレイを備えた拡張現実システムであって、
施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、前記ヘッドアップディスプレイが映像を風景上に重畳表示可能な実空間の範囲である視界範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、当該拡張現実情報が関係づけられた施設に重なる位置である表示基準位置に関連づけた形態で前記ヘッドアップディスプレイに表示する視界範囲内施設情報表示手段と、
前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設について、当該施設に関係づけられた拡張現実情報が表す情報を、前記ヘッドアップディスプレイの表示画面外の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で前記ヘッドアップディスプレイに表示する視界範囲外施設情報表示手段とを有することを特徴とする拡張現実システム。
An augmented reality system equipped with a head-up display that superimposes and displays images on a real space landscape,
Based on the augmented reality information representing the information of the related facility related to the facility, the head-up display is included in the facility included in the field of view that is the range of the real space in which the video can be superimposed and displayed on the landscape. Visibility range facility information display means for displaying information represented by the related augmented reality information on the head-up display in a form associated with a display reference position that is a position overlapping the facility with which the augmented reality information is related; ,
The facility information display means within the view range is related to the augmented reality information that has started displaying information within a predetermined period in the past, and the facility not included in the view range is related to the facility. A field of view that is displayed on the head-up display in a form in which the information represented by the augmented reality information is represented in a figure representing a part in the display screen of a balloon figure whose origin is a position outside the display screen of the head-up display An augmented reality system comprising an out-of-range facility information display means.
実空間の風景を撮影するカメラと、前記カメラが撮影した画像である撮影画像を表示するディスプレイを備えた拡張現実システムであって、
施設に関係づけられた当該関係づけられた施設の情報を表す拡張現実情報に基づいて、前記カメラが撮影する実空間の範囲である視界範囲に含まれる施設に関係づけられた拡張現実情報が表す情報を、当該拡張現実情報が関係づけられた施設に対応する撮影画像上の位置である表示基準位置に関連づけた形態で、前記ディスプレイに表示されている前記撮影画像上に重畳して表示する視界範囲内施設情報表示手段と、
前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設について、当該施設に関係づけられた拡張現実情報が表す情報を、前記ディスプレイの表示画面外の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で、前記ディスプレイに表示されている前記撮影画像上に重畳して表示する視界範囲外施設情報表示手段とを有することを特徴とする拡張現実システム。
An augmented reality system including a camera that captures a landscape in real space and a display that displays a captured image that is an image captured by the camera,
Based on the augmented reality information representing the related facility information associated with the facility, the augmented reality information associated with the facility included in the field of view that is the range of the real space photographed by the camera is represented. A field of view in which information is superimposed on the photographed image displayed on the display in a form associated with a display reference position that is a position on the photographed image corresponding to the facility to which the augmented reality information is related In-range facility information display means,
The facility information display means within the view range is related to the augmented reality information that has started displaying information within a predetermined period in the past, and the facility not included in the view range is related to the facility. The information displayed by the augmented reality information is displayed on the display in a form representing a part of the balloon graphic with a position outside the display screen of the display as a balloon source. An augmented reality system comprising: a facility information display means for viewing out of view range superimposed on an image.
請求項1または2記載の拡張現実システムであって、
前記視界範囲外施設情報表示手段は、前記視界範囲内施設情報表示手段が過去所定期間内に情報の表示を開始した拡張現実情報に関係づけられた施設であって、前記視界範囲内に含まれない施設が前記視界範囲から逸脱していった左右方向を逸脱方向として、当該施設に関係づけられた拡張現実情報が表す情報を、前記表示画面外の当該施設の前記逸脱方向側の位置を吹き出し元とする吹き出し図形の当該表示画面内の部分を表す図形内に表した形態で表示することを特徴とする拡張現実システム。
The augmented reality system according to claim 1 or 2,
The out-of-view range facility information display means is a facility related to the augmented reality information that the in-view range facility information display means has started displaying information within the past predetermined period, and is included in the view range. Information indicating the augmented reality information related to the facility is displayed outside the display screen on the departure direction side of the facility, with the left-right direction from which the facility has deviated from the field of view as the departure direction. An augmented reality system, characterized in that the original balloon graphic is displayed in a form represented in a graphic representing a portion of the display screen.
請求項1、2または3記載の拡張現実システムであって、
前記視界範囲内施設情報表示手段は、前記情報を前記表示基準位置を吹き出し元とする吹き出し図形内に配置した形態で表示することを特徴とする拡張現実システム。
The augmented reality system according to claim 1, 2, or 3,
The field-of-view-range facility information display means displays the information in a form arranged in a balloon graphic with the display reference position as a balloon source.
請求項1、2または3記載の拡張現実システムであって、
当該拡張現実システムは自動車に搭載されたシステムであり、
前記視界範囲は、前記自動車前方の範囲であることを特徴とする拡張現実システム。
The augmented reality system according to claim 1, 2, or 3,
The augmented reality system is a system installed in an automobile,
The augmented reality system, wherein the field-of-view range is a range in front of the automobile.
JP2012141745A 2012-06-25 2012-06-25 Augmented reality system Active JP5955662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012141745A JP5955662B2 (en) 2012-06-25 2012-06-25 Augmented reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012141745A JP5955662B2 (en) 2012-06-25 2012-06-25 Augmented reality system

Publications (2)

Publication Number Publication Date
JP2014006147A true JP2014006147A (en) 2014-01-16
JP5955662B2 JP5955662B2 (en) 2016-07-20

Family

ID=50104001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012141745A Active JP5955662B2 (en) 2012-06-25 2012-06-25 Augmented reality system

Country Status (1)

Country Link
JP (1) JP5955662B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015114807A1 (en) * 2014-01-31 2015-08-06 パイオニア株式会社 Virtual image display, control method, program, and storage medium
JP2017054185A (en) * 2015-09-07 2017-03-16 株式会社東芝 Information processor, information processing method, and information processing program
JP2017156357A (en) * 2017-06-12 2017-09-07 株式会社松本商店 Information providing system and information providing method
CN108898678A (en) * 2018-07-09 2018-11-27 百度在线网络技术(北京)有限公司 Augmented reality method and apparatus
JP2021039104A (en) * 2019-08-30 2021-03-11 有限会社ヴェルク・ジャパン System for self-drive vehicle
US20220297715A1 (en) * 2021-03-18 2022-09-22 Volkswagen Aktiengesellschaft Dynamic AR Notice

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384014B2 (en) * 2019-12-06 2023-11-21 トヨタ自動車株式会社 display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263835A (en) * 2006-03-29 2007-10-11 Denso Corp Car navigation apparatus
US20100286911A1 (en) * 2009-05-11 2010-11-11 Acer Incorporated Electronic device with object guiding function and an object guiding method thereof
WO2011096561A1 (en) * 2010-02-08 2011-08-11 株式会社ニコン Imaging device, information acquisition system, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263835A (en) * 2006-03-29 2007-10-11 Denso Corp Car navigation apparatus
US20100286911A1 (en) * 2009-05-11 2010-11-11 Acer Incorporated Electronic device with object guiding function and an object guiding method thereof
WO2011096561A1 (en) * 2010-02-08 2011-08-11 株式会社ニコン Imaging device, information acquisition system, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015114807A1 (en) * 2014-01-31 2015-08-06 パイオニア株式会社 Virtual image display, control method, program, and storage medium
JP2017054185A (en) * 2015-09-07 2017-03-16 株式会社東芝 Information processor, information processing method, and information processing program
JP2017156357A (en) * 2017-06-12 2017-09-07 株式会社松本商店 Information providing system and information providing method
CN108898678A (en) * 2018-07-09 2018-11-27 百度在线网络技术(北京)有限公司 Augmented reality method and apparatus
JP2021039104A (en) * 2019-08-30 2021-03-11 有限会社ヴェルク・ジャパン System for self-drive vehicle
JP7460145B2 (en) 2019-08-30 2024-04-02 有限会社ヴェルク・ジャパン Autonomous vehicle systems
US20220297715A1 (en) * 2021-03-18 2022-09-22 Volkswagen Aktiengesellschaft Dynamic AR Notice
US11845463B2 (en) * 2021-03-18 2023-12-19 Volkswagen Aktiengesellschaft Dynamic AR notice

Also Published As

Publication number Publication date
JP5955662B2 (en) 2016-07-20

Similar Documents

Publication Publication Date Title
JP5955662B2 (en) Augmented reality system
JP5921320B2 (en) Display system, portable device, in-vehicle device, and program
US10796669B2 (en) Method and apparatus to control an augmented reality head-mounted display
RU2677999C1 (en) Vehicle displaying device
JP2009020089A (en) System, method, and program for navigation
JP2007292713A (en) Navigation device
WO2015071923A1 (en) Driving-support-image generation device, driving-support-image display device, driving-support-image display system, and driving-support-image generation program
JP2009236843A (en) Navigation device, navigation method, and navigation program
JP2009236844A (en) Navigation device, navigation method, and navigation program
JP6345381B2 (en) Augmented reality system
JP2023165757A (en) Information display control device, information display control method, and information display control program
JP2008014754A (en) Navigation apparatus
CN113137970B (en) Small program AR navigation system
JP5883723B2 (en) 3D image display system
JP2014211431A (en) Navigation device, and display control method
TWI426237B (en) Instant image navigation system and method
JP5702476B2 (en) Display device, control method, program, storage medium
CN102288180A (en) Real-time image navigation system and method
JP6424100B2 (en) NAVIGATION SYSTEM, NAVIGATION DEVICE, GLASS TYPE DEVICE, AND METHOD FOR LINKING THE DEVICE
JP5829154B2 (en) Augmented reality system
JP2014163683A (en) Navigation device
WO2022039011A1 (en) Navigation using computer system
JP2018205254A (en) Display device for vehicle
JP2008157680A (en) Navigation apparatus
JP5438172B2 (en) Information display device, information display method, information display program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160615

R150 Certificate of patent or registration of utility model

Ref document number: 5955662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150