JP2009192448A - Information display device and information providing system - Google Patents

Information display device and information providing system Download PDF

Info

Publication number
JP2009192448A
JP2009192448A JP2008035485A JP2008035485A JP2009192448A JP 2009192448 A JP2009192448 A JP 2009192448A JP 2008035485 A JP2008035485 A JP 2008035485A JP 2008035485 A JP2008035485 A JP 2008035485A JP 2009192448 A JP2009192448 A JP 2009192448A
Authority
JP
Japan
Prior art keywords
information
user
unit
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008035485A
Other languages
Japanese (ja)
Inventor
Shohei Kamata
将平 鎌田
Naoto Kano
直人 鹿野
Yuki Sugiyama
勇樹 杉山
Takashi Ashitomi
隆 安次富
Shin Omichi
伸 大道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tama Art, University of
SoftBank Corp
Tama Art University
Original Assignee
Tama Art, University of
SoftBank Mobile Corp
Tama Art University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tama Art, University of, SoftBank Mobile Corp, Tama Art University filed Critical Tama Art, University of
Priority to JP2008035485A priority Critical patent/JP2009192448A/en
Publication of JP2009192448A publication Critical patent/JP2009192448A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information display device capable of displaying information acquired in exchange of a user's own positional information in association with an actual landscape following the field of view from the user's own position. <P>SOLUTION: This information display device which displays the information acquired based on the user's positional information in association with the user's position has a current position detection means for detecting the user's current position, a line-of-sight direction detection means for detecting the user's line of sight, an image pick-up means to pick up the actual landscape following the line of sight detected by the line-of-sight direction detection means, an identification means for identifying an object in the actual landscape picked up by the image pick-up means, and an eyeglass type display means which overlays the acquired information with the actual landscape corresponding to the user's line of sight and displays the information. The information display device displays on the display means the information acquired based on the user's position detected by the current position detection means in association with the object in the actual landscape identified by the identification means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報表示装置及び情報提供システムに関し、より詳細には、自己の位置情報と引き換えに取得した情報を実風景と関連付けて表示することが可能な情報表示装置及び情報提供システムに関する。 The present invention relates to an information display device and an information providing system, and more particularly, to an information display device and an information providing system capable of displaying information acquired in exchange for own position information in association with a real landscape.

従来から、ユーザの自己位置情報と引き換えに、自己位置情報と関連する情報を取得する技術が用いられている。
たとえば、GPS機能を有する携帯電話の場合、ユーザの自己位置情報をGPS機能により検出した後、検出した自己位置情報を基地局に送信し、ネットワークを介して各種サーバから自己位置情報に関連した情報を取得し、基地局から携帯電話に送信し、携帯電話の画面に表示させるようにしている。
この自己位置情報に関連した情報には、たとえば、ユーザの現在位置を含む所定エリア内にある店舗情報、安売り情報、ナビゲーション情報等様々な情報が含まれる。
Conventionally, a technique for acquiring information related to self-location information is used in exchange for the user's self-location information.
For example, in the case of a mobile phone having a GPS function, after the user's self-location information is detected by the GPS function, the detected self-location information is transmitted to the base station, and information related to the self-location information from various servers via the network Is sent from the base station to the mobile phone and displayed on the mobile phone screen.
The information related to the self-location information includes, for example, various information such as store information, bargain information, and navigation information in a predetermined area including the current position of the user.

しかしながら、このような携帯電話の場合、以下のような技術的課題が存する。
すなわち、自己位置情報に関連した情報を取得した際、取得した情報をユーザに表示する仕方に問題が存する。より詳細には、携帯電話の画面上にたとえば、付近の地図を表示し、取得した情報、たとえばナビゲーション情報がこの地図上で自己の現在位置と関連付けて表示されるものの、ユーザの現在位置からの視界に沿う実風景と取得した情報との関連性が不明であり、画面上に表示された、たとえば交差点や信号、特定の施設などの目印を頼りに、ユーザが実際の風景の中でこれらの目印を視認して道順を確認する必要がある。
そのため、たとえば、目的の店舗が実際はすぐ眼の前にありながら、画面上に表示された情報と実際の実風景とがマッチせず、せっかく取得した情報をタイムリーに活用する場面を失することも多い。
特に、携帯電話のような携帯タイプのナビゲーション装置とは異なり、車両搭載タイプのナビゲーション装置の場合、それも特に、二輪車用のナビゲーション装置の場合、走行中に進路から視線を離さずに運転をする必要が高いことから、取得した情報が瞬時に理解可能なように、実際に見ている風景(道路)上にナビゲーション情報が表示されることが強く望まれる。
However, such a mobile phone has the following technical problems.
That is, when information related to the self-location information is acquired, there is a problem in how to display the acquired information to the user. More specifically, for example, a nearby map is displayed on the screen of the mobile phone, and the acquired information, for example, navigation information is displayed in association with the current position of the user on the map, but from the current position of the user. The relevance between the actual landscape along the field of view and the acquired information is unknown, and the user can rely on landmarks such as intersections, traffic lights, and specific facilities displayed on the screen. It is necessary to confirm the route by visually checking the placemark.
Therefore, for example, the target store is actually in front of you, but the information displayed on the screen does not match the actual actual scenery, and you lose the scene of using the acquired information in a timely manner. There are also many.
In particular, unlike a portable type navigation device such as a mobile phone, in the case of a vehicle-mounted type navigation device, particularly in the case of a two-wheeled vehicle navigation device, driving without leaving the line of sight while driving. Since the necessity is high, it is strongly desired that navigation information is displayed on the scenery (road) that is actually viewed so that the acquired information can be understood instantly.

一方、自己位置情報と引き換えに取得する、自己位置情報と関連する情報の種別によっては、その表示の仕方に問題が存する。
たとえば、取得する情報が音楽情報、あるいは静画あるいは動画情報である場合には、
それらの情報にアクセスして必要な情報の取捨選択をする際、音楽情報そのものを聴覚情報として直接取得したり、情報量の大きな画像情報そのものに視覚情報として直接アクセスしたのでは、効率的な情報の取捨選択は困難である。この場合、これらの情報について、情報の取捨選択と情報そのものへのアクセスとを切り離し、情報の取捨選択の便宜に資するために、自己の位置情報と引き換えに取得する情報をいったん別の態様で実風景と関連付けて表示することが望まれる。
On the other hand, depending on the type of information related to the self-location information acquired in exchange for the self-location information, there is a problem in the display method.
For example, if the information to be acquired is music information, still image or video information,
When such information is accessed and necessary information is selected, music information itself is directly acquired as auditory information, or image information with a large amount of information is directly accessed as visual information. Sorting is difficult. In this case, in order to separate the information selection and access to the information itself, and to contribute to the convenience of the information selection, the information obtained in exchange for its own location information is once implemented in another mode. It is desirable to display in association with the landscape.

以上の技術的問題に鑑み、本発明の目的は、ユーザの自己位置情報と引き換えに取得した情報をユーザの自己位置からの視界に沿う実風景と関連付けて表示することが可能な情報表示装置及びかかる情報表示装置を備えた情報提供システムを提供することにある。 In view of the above technical problems, an object of the present invention is to provide an information display device capable of displaying information acquired in exchange for user's own position information in association with a real landscape along the field of view from the user's own position, and An object is to provide an information providing system including such an information display device.

上記目的を達成するために、本発明に係る情報表示装置は、
ユーザの位置情報に基づいて取得される情報をユーザの位置と関連付けて表示する情報表示装置において、
ユーザの現在位置を検出するための現在位置検出手段と、
ユーザの視線方向を検知するための視線方向検知手段と、
この視線方向検知手段により検知した視線に沿った実風景を撮像する撮像手段と、
この撮像手段により撮像された実風景中のオブジェクトを識別するための識別手段と、
取得した情報をユーザの視線に相当する実風景とオーバレイさせて表示する眼鏡タイプの表示手段とを有し、
前記現在位置検出手段により検出されたユーザの位置に基づいて取得された情報を、前記識別手段により識別された実風景中のオブジェクトと関連付けて、前記表示手段に表示する、構成としている。
In order to achieve the above object, an information display device according to the present invention provides:
In an information display device that displays information acquired based on user position information in association with the user position,
Current position detecting means for detecting the current position of the user;
Gaze direction detection means for detecting the user's gaze direction;
Imaging means for imaging a real landscape along the line of sight detected by the line-of-sight direction detection means;
An identification unit for identifying an object in a real landscape imaged by the imaging unit;
Glasses-type display means for displaying the acquired information in an overlay with the actual scenery corresponding to the user's line of sight;
Information acquired based on the position of the user detected by the current position detection unit is displayed on the display unit in association with the object in the actual scene identified by the identification unit.

以上の構成を有する本発明の情報表示装置およびかかる情報表示装置を備えた情報提供システムによれば、位置検出手段によりユーザの位置を検出するとともに、視線検知手段によりユーザの視線を検知し、撮像手段によりこの検知したユーザの視線に沿って実風景を撮像し、識別手段によりこの撮像された実風景中のオブジェクトを識別し、眼鏡タイプの表示手段により、検出されたユーザの位置に基づいて取得された情報をユーザの視線に沿う実風景とオーバレイさせて表示することにより、取得された情報を識別された実風景中のオブジェクトと関連付けて表示することが可能である。
また、前記表示手段は、透明または半透明の有機ELディスプレイであり、前記表示手段を介してユーザが視認可能な実風景に、取得した情報をオーバレイさせて表示させるのがよい。
あるいは、前記撮像手段により撮像した実風景画像を前記表示手段に表示し、この実風景画像に、取得した情報をオーバレイさせて表示させるのでもよい。
さらにまた、ユーザの位置情報に基づいて取得される情報は、音楽情報であり、
実風景中のオブジェクトが音楽情報の情報源である場合に、音楽情報のタイトル情報を前記オブジェクトと関連付けて、前記表示手段に表示する、のがよい。
加えて、前記情報表示装置は、二輪車向けナビゲーション装置の表示ディスプレイであり、この表示ディスプレイは、二輪車運転者が着用するヘルメットのバイザーを構成し、
ユーザの位置情報に基づいて取得される情報は、ナビゲーション地図情報であり、
実風景中のオブジェクトが二輪車走行中の実風景中の道路である場合に、ナビゲーション情報を前記オブジェクトと関連付けて、前記表示手段に図形表示するのがよい。
さらに、ユーザの位置情報に基づいて取得される情報は、前記撮像手段により撮像され、圧縮され、一旦外部記憶装置に記憶された実風景に関連するサムネイル画像情報であり、
前記サムネイル画像情報を実風景と関連付けて、前記表示手段に図形表示するのでもよい。
さらにまた、前記サムネイル画像情報を図形表示するに際し、ユーザの現在位置と撮像位置との距離に応じて、図形の大きさを変化するように、前記サムネイル画像情報を実風景と関連付けるのがよい。

上記目的を達成するために、本発明に係る情報提供システムは、
ユーザが所望する情報を表示する少なくとも1つの情報表示装置と、該情報を取得して前記情報表示装置に提供する情報提供装置と、を有する情報提供システムにおいて、
前記情報表示装置は、
ユーザの現在位置を算出する現在位置算出手段と、
該現在位置算出手段により算出した現在位置情報と、前記情報提供装置の識別情報とを、前記情報提供装置に、通信回線を通じて送信する第1送信手段と、
前記情報提供装置から送信されてきた所望の情報を受信する第1受信手段と、
ユーザの視線方向を検出するための視線方向検出手段と、
該視線方向検出手段により検出した視線に沿った実風景を撮像する撮像手段と、
該撮像手段により撮像された実風景中のオブジェクトを識別するための識別手段と、
該第1受信手段により受信した所望の情報を表示する表示手段とを有し、該表示手段は、取得した情報をユーザの視線に相当する実風景とオーバレイさせて表示する眼鏡タイプであり、
それにより、前記位置検出手段により検出されたユーザあるいは移動体の現在位置に基づいて取得された所望の情報を、前記識別手段により識別された実風景中のオブジェクトと関連付けて、前記表示手段に表示し、
前記情報提供装置は、
所望の情報を取得する情報取得手段と、
該情報取得手段により取得した所望の情報を記憶する情報記憶手段と、
前記第1送信手段から送信された、現在位置情報と、識別情報とを受信する第2受信手段と、
前記第2受信手段により受信した現在位置情報によって特定される位置から所定範囲内にある所望の情報を前記情報記憶手段から検索する情報検索手段と、
前記情報検索手段によって検索した所望の情報を、前記第2受信手段により受信した識別情報によって特定される情報表示装置に対して、通信回線を通じて送信する第2送信手段とを、有する構成としている。
According to the information display device of the present invention having the above-described configuration and the information providing system including the information display device, the position of the user is detected by the position detection unit, and the user's line of sight is detected by the line-of-sight detection unit. The real scene is imaged along the detected user's line of sight by means, the object in the captured real scene is identified by the identification means, and acquired based on the detected user position by the glasses-type display means By displaying the obtained information so as to be overlaid with the actual scenery along the user's line of sight, the acquired information can be displayed in association with the objects in the identified actual scenery.
The display means may be a transparent or translucent organic EL display, and the acquired information may be displayed in an overlaid manner on a real landscape that can be visually recognized by the user via the display means.
Alternatively, the actual landscape image captured by the imaging unit may be displayed on the display unit, and the acquired information may be displayed on the actual landscape image.
Furthermore, the information acquired based on the user's location information is music information,
When an object in a real landscape is an information source of music information, it is preferable that title information of music information is associated with the object and displayed on the display means.
In addition, the information display device is a display display of a navigation device for a motorcycle, the display display constitutes a visor of a helmet worn by a motorcycle driver,
Information acquired based on the user's location information is navigation map information,
When the object in the real scenery is a road in the real scenery while the motorcycle is running, the navigation information may be associated with the object and displayed as a graphic on the display means.
Furthermore, the information acquired based on the user's position information is thumbnail image information related to the actual scenery that has been imaged, compressed, and temporarily stored in the external storage device.
The thumbnail image information may be displayed as a graphic on the display means in association with the actual scenery.
Furthermore, when displaying the thumbnail image information as a graphic, it is preferable to associate the thumbnail image information with the actual scenery so that the size of the graphic changes according to the distance between the current position of the user and the imaging position.

In order to achieve the above object, an information providing system according to the present invention includes:
In an information providing system having at least one information display device that displays information desired by a user, and an information providing device that acquires the information and provides the information to the information display device,
The information display device includes:
Current position calculating means for calculating the current position of the user;
First transmission means for transmitting current position information calculated by the current position calculation means and identification information of the information providing apparatus to the information providing apparatus through a communication line;
First receiving means for receiving desired information transmitted from the information providing apparatus;
Gaze direction detecting means for detecting the gaze direction of the user;
Imaging means for imaging a real landscape along the line of sight detected by the line-of-sight direction detection means;
Identification means for identifying an object in a real landscape imaged by the imaging means;
Display means for displaying desired information received by the first receiving means, and the display means is an eyeglass type that displays the acquired information in an overlay with a real scene corresponding to the user's line of sight,
As a result, desired information acquired based on the current position of the user or the moving object detected by the position detection unit is displayed on the display unit in association with the object in the real scene identified by the identification unit. And
The information providing apparatus includes:
Information acquisition means for acquiring desired information;
Information storage means for storing desired information acquired by the information acquisition means;
Second receiving means for receiving current position information and identification information transmitted from the first transmitting means;
Information search means for searching the information storage means for desired information within a predetermined range from the position specified by the current position information received by the second receiving means;
Second information is transmitted through a communication line to the information display device specified by the identification information received by the second receiving means.

(第1の実施形態)
以下に、本発明の第1の実施形態について、図面を参照しながら詳細に説明する。
図1に示すように、本実施形態の情報提供システム10は、二輪車のドライバーであるユーザが所望するナビゲーション情報を表示する情報表示装置12と、ナビゲーション情報に関連する情報を取得して情報表示装置12に提供する情報提供装置14とを有し、情報表示装置12と情報提供装置14とは、移動体通信等の通信回線16を介して接続されている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
As shown in FIG. 1, an information providing system 10 according to this embodiment includes an information display device 12 that displays navigation information desired by a user who is a motorcycle driver, and an information display device that acquires information related to navigation information. 12 and the information providing device 14 are connected to each other via a communication line 16 such as mobile communication.

情報表示装置12は、移動体の現在地(自車位置)や目的地、あるいは現在地から目的地までの誘導経路をディスプレイ28(図2)に表示して、ユーザに知らせ、また、情報提供装置14に対して、ユーザが所望する情報を提供するように要求するとともに、情報提供装置14から提供された情報をディスプレイ28に表示して、ユーザに知らせる。
情報提供装置14は、インターネット等のネットワークを介して接続された複数種のサーバから各種情報を取得するとともに、情報表示装置12から送られてきたユーザの要求に合致する情報を情報表示装置12に送るようにしている。
The information display device 12 displays on the display 28 (FIG. 2) the current location (own vehicle position) and destination of the moving body, or the guidance route from the current location to the destination to inform the user, and the information providing device 14 The user is requested to provide information desired by the user, and the information provided from the information providing device 14 is displayed on the display 28 to notify the user.
The information providing apparatus 14 acquires various types of information from a plurality of types of servers connected via a network such as the Internet, and sends information that matches the user request sent from the information display apparatus 12 to the information display apparatus 12. I am trying to send it.

図2に示すように、本実施形態の情報表示装置12であるナビゲーション装置は、特に二輪車向けのナビゲーション装置として、二輪車に乗車する際に着用するヘルメット18に設けられ、ユーザがネットワークを介して情報提供装置14であるサーバと接続された装置本体部20と、装置本体部20に接続され、使用の際、ユーザが着用する眼鏡タイプの情報表示部22とを有する。
装置本体部20は、通信機能を備えたパーソナルコンピュータと同等の機能を再現し得るハードウェア構成を備える。ただし、可搬し得る程度の外形筐体であることが好ましい。このほか、本実施形態においては、ヘルメット18に、これらパーソナルコンピュータと同等の機能構成を内蔵する態様でもよい。
眼鏡タイプの情報表示部22は、ヘルメット本体24と、ヘルメット本体24に固定された視線方向検出センサ26と、ヘルメット18のバイザーを構成する透視型表示ディスプレイ28と、ヘルメット本体24に固定された撮像手段30とを有する。
視線方向検出センサ26は、既知の方位センサや地磁気センサが用いられ、ユーザの視線方向を検出して、検出した視線方向にかかる信号を、後に説明する装置本体の演算処理部32へ送信するようにしている。
As shown in FIG. 2, the navigation device which is the information display device 12 of the present embodiment is provided in a helmet 18 worn when riding a two-wheeled vehicle, particularly as a navigation device for two-wheeled vehicles. The apparatus main body 20 is connected to a server which is the providing apparatus 14, and has an eyeglass-type information display unit 22 connected to the apparatus main body 20 and worn by the user when used.
The apparatus main body 20 has a hardware configuration that can reproduce functions equivalent to those of a personal computer having a communication function. However, it is preferable that the outer casing be portable. In addition, in the present embodiment, the helmet 18 may have a functional configuration equivalent to that of the personal computer.
The glasses-type information display unit 22 includes a helmet body 24, a line-of-sight direction detection sensor 26 fixed to the helmet body 24, a perspective display 28 that forms a visor of the helmet 18, and an image pickup fixed to the helmet body 24. Means 30.
The gaze direction detection sensor 26 uses a known azimuth sensor or geomagnetic sensor, detects the gaze direction of the user, and transmits a signal related to the detected gaze direction to the arithmetic processing unit 32 of the apparatus main body described later. I have to.

透視型表示ディスプレイ28は、透明あるいは半透明の有機EL製であり、ユーザがディスプレイ28を通してユーザの視線に沿った実際の風景を視認することが可能であり、後に説明するように、ユーザの自己位置情報と引き換えに情報提供装置14から取得したナビゲーション情報をディスプレイ28上で、実際の風景、特に走行中の道路とオーバレイさせて表示するようにしている。これにより、ユーザは、走行中に、進行方向から目線を離すことなく、安全に且つ瞬時にナビゲーション情報を取得し、理解することが可能である。
透視型表示ディスプレイ28は、特に柔軟かつ薄型のものが好ましく、バイザーの表面に貼り付けるものでもよい。そのようなタイプの有機EL材料としては、たとえば有機薄膜トランジスタを採用したタイプのものとして、プラスチック基板材料として、PES(ポリエーテルスルホン)、一方有機トランジスタ材料として、ペンタセン(C22H14)が挙げられる。有機薄膜トランジスタを採用することにより、有機薄膜トランジスタをプラスチックフィルム上に形成し、その上に有機ELの発光素子を積層させて、その上にプラスチックフィルムを積層させることが可能であり、これにより薄膜トランジスタの絶縁膜として、硬質な無機絶縁材料を撤廃し、有機絶縁材料のみを採用することで、薄く、軽く、曲げられる表示ディスプレイ28を実現することが可能である。
The transparent display 28 is made of transparent or translucent organic EL, and allows the user to visually recognize the actual scenery along the user's line of sight through the display 28. As will be described later, The navigation information acquired from the information providing device 14 in exchange for the position information is displayed on the display 28 so as to be overlaid with the actual scenery, particularly the road on which the vehicle is traveling. Thereby, the user can acquire and understand navigation information safely and instantaneously without taking his eyes off from the traveling direction during traveling.
The perspective display 28 is preferably flexible and thin, and may be attached to the surface of the visor. As such type of organic EL materials, for example, organic thin film transistors are used, PES (polyether sulfone) is used as a plastic substrate material, and pentacene (C 22 H 14 ) is used as an organic transistor material. . By adopting an organic thin film transistor, it is possible to form an organic thin film transistor on a plastic film, stack an organic EL light emitting element thereon, and then stack a plastic film thereon, thereby insulating the thin film transistor. By removing the hard inorganic insulating material as the film and using only the organic insulating material, it is possible to realize a thin, light and bent display display 28.

撮像手段30は、ビデオカメラあるいはスチルカメラ等であり、視線方向検出センサ26によって検出された視線に沿ってユーザが、バイザーを通じて視認する実際の風景を撮像することが可能となる位置に配され、ヘルメット18のフレームに固定される。 The imaging means 30 is a video camera, a still camera, or the like, and is disposed at a position where the user can image an actual landscape visually recognized through the visor along the line of sight detected by the line-of-sight direction detection sensor 26. It is fixed to the frame of the helmet 18.

次に、装置本体部20について説明する。
図2に示すように、装置本体部20は、システムバスを介して互いに接続された、演算処理部32、表示制御部34、外部インタフェイス36、入力部38、記憶部40、通信部42、撮像処理部52およびI/O44から概略構成されている。
演算処理部32は、ナビゲーション装置全体の制御とナビゲーションに必要な情報処理を行うCPUであり、各構成部からの信号を受信して、ユーザの自己位置情報に基づいてナビゲーション情報を透視型表示ディスプレイ28上に実際の実風景とオーバレイさせて表示するために、表示制御部34に制御信号を送信するようにしている。演算処理部32には、記憶部40が接続され、CPUによって実行されるプログラムあるいはデータを格納するROMと、CPUに情報処理にとって必要な記憶部40を構成するRAM等が設けられている。
入力部38は、ユーザからの指示を受付ける操作キー等で構成され、受け付けた指示情報を演算処理部32に転送するようにしている。
表示制御部34は、演算処理部32から送られたデータをディスプレイ28上で表示される画像データに変換処理する。
外部インタフェイス36は、外部システムとのインタフェイスを担い、外部システムとしては、携帯電話、モバイル端末、無線LAN端末等が接続可能である。
通信部42は、本実施形態のナビゲーション装置とともに全体としてナビゲーションシステムを構成するサーバと、不図示の無線通信回線を介して接続され、サーバから受信した情報をI/O44を通じて演算処理部32に送信するようにしている。
I/O44は、周辺機器の入出力データの変換あるいは制御を行い、通信部42と、GPS受信部48と、視線検出処理部50とが接続されている。
GPS受信部48は、いわゆるGPS衛星からの電波信号を受信し、その信号から現在位置を特定する位置情報を演算し、それをI/O44を通じて演算処理部32に送信するようにしている。より詳細には、GPS受信部48は、3つ以上のGPS衛星からの信号を受信して、GPS衛星各々及び移動体(ライダー)間の距離と、この距離の変化率を測定することにより、移動体の現在地、進行方向および進行方角を算出するようにしている。
Next, the apparatus body 20 will be described.
As shown in FIG. 2, the apparatus body 20 includes an arithmetic processing unit 32, a display control unit 34, an external interface 36, an input unit 38, a storage unit 40, a communication unit 42, which are connected to each other via a system bus. The imaging processing unit 52 and the I / O 44 are roughly configured.
The arithmetic processing unit 32 is a CPU that controls the entire navigation device and performs information processing necessary for navigation. The arithmetic processing unit 32 receives signals from each component unit, and displays navigation information based on the user's own position information. A control signal is transmitted to the display control unit 34 so as to overlay the actual actual scenery on the display 28. The arithmetic processing unit 32 is connected to a storage unit 40, and is provided with a ROM for storing a program or data executed by the CPU, a RAM constituting the storage unit 40 necessary for information processing in the CPU, and the like.
The input unit 38 is configured with operation keys and the like for receiving an instruction from the user, and transfers the received instruction information to the arithmetic processing unit 32.
The display control unit 34 converts the data sent from the arithmetic processing unit 32 into image data displayed on the display 28.
The external interface 36 serves as an interface with an external system, and a mobile phone, a mobile terminal, a wireless LAN terminal, or the like can be connected as the external system.
The communication unit 42 is connected to a server constituting the navigation system as a whole together with the navigation apparatus of the present embodiment via a wireless communication line (not shown), and transmits information received from the server to the arithmetic processing unit 32 through the I / O 44. Like to do.
The I / O 44 performs conversion or control of input / output data of peripheral devices, and a communication unit 42, a GPS reception unit 48, and a line-of-sight detection processing unit 50 are connected.
The GPS receiver 48 receives a radio wave signal from a so-called GPS satellite, calculates position information specifying the current position from the signal, and transmits it to the arithmetic processing unit 32 through the I / O 44. More specifically, the GPS receiver 48 receives signals from three or more GPS satellites, and measures the distance between each GPS satellite and the moving body (rider) and the rate of change of this distance, The current location, traveling direction, and traveling direction of the moving object are calculated.

視線検出処理部50は、表示装置の視線方向検出センサ26から送信された検出信号をI/O44を通じて演算処理部32に送信するようにしている。
撮像画像処理部52は、撮像手段30により取り込んだ、ユーザの視認方向にある実風景の画像(撮像オブジェクトともいう)を解析するとともに、情報提供装置14から、ユーザの自己位置情報と引き換えに取得した、現在位置及び方向における3Dグラフィック・ベクターデータ(以下、単に「3Dデータ」ともいう)を取得保持し、後述のマッチング処理のために、これらの情報を、I/O44を通じて演算処理部32に送信するようにしている。
演算処理部32は、前述のように、情報表示装置12の各構成ユニットを統括的に制御するようにしている。より詳細には、演算処理部32は、情報表示装置12が行う処理であるナビゲーション処理と、情報表示処理の2つの処理を行う中心的なユニットである。
図3は、演算処理部32のナビゲーション処理の実行に係る部分の機能構成図である。
図3に示すように、この演算処理部32の機能構成について、現在位置算出部60と、経路計算部62と、経路誘導部64と、マッチング処理部66と、テクスチャ・アイコン情報生成部68と、オブジェクト識別部70と、グラフィック処理部72とから構成されている。
現在位置算出部60は、GPS受信部48より得られた位置データに基づいて、現在位置を算出する。
経路計算部62は、情報提供装置14側の地図記憶部40に記憶された地図データから、指定された2つの地点(現在地と目的地)間を結ぶ経路を検索することにより、この2地点間の誘導経路を決定する。
経路誘導部64は、経路計算部62で求められた誘導経路のリンク情報と、現在位置算出部60で求められる現在位置情報とを比較することにより、たとえば交差点を通過する前に直進すべきか、右左折すべきかを決定し、これに基づき、ディスプレイ28上に進行すべき方向をテクスチャやアイコンの形式で描画することにより、ユーザを案内するようにしている。
テクスチャ・アイコン情報生成部68は、経路誘導部64により決定された誘導データに基づいて、ナビゲーション情報をテクスチャまたはアイコン情報に変換する。
The line-of-sight detection processing unit 50 transmits a detection signal transmitted from the line-of-sight direction detection sensor 26 of the display device to the arithmetic processing unit 32 through the I / O 44.
The captured image processing unit 52 analyzes an image of a real landscape (also referred to as an imaging object) that is captured by the imaging unit 30 in the user's viewing direction, and obtains it from the information providing device 14 in exchange for the user's own position information. The 3D graphic vector data (hereinafter also simply referred to as “3D data”) at the current position and direction is acquired and held, and the information is sent to the arithmetic processing unit 32 through the I / O 44 for the matching process described later. I am trying to send it.
As described above, the arithmetic processing unit 32 controls each component unit of the information display device 12 in an integrated manner. More specifically, the arithmetic processing unit 32 is a central unit that performs two processes of a navigation process that is a process performed by the information display device 12 and an information display process.
FIG. 3 is a functional configuration diagram of a portion related to the execution of the navigation process of the arithmetic processing unit 32.
As shown in FIG. 3, regarding the functional configuration of the arithmetic processing unit 32, the current position calculation unit 60, the route calculation unit 62, the route guidance unit 64, the matching processing unit 66, the texture / icon information generation unit 68, , An object identification unit 70 and a graphic processing unit 72.
The current position calculator 60 calculates the current position based on the position data obtained from the GPS receiver 48.
The route calculation unit 62 searches for a route connecting the two specified points (current location and destination) from the map data stored in the map storage unit 40 on the information providing device 14 side. Determine the guidance route.
Whether the route guidance unit 64 should go straight before passing the intersection, for example, by comparing the link information of the guidance route obtained by the route calculation unit 62 and the current position information obtained by the current position calculation unit 60, It is determined whether to turn left or right, and based on this, the direction to travel on the display 28 is drawn in the form of textures or icons to guide the user.
The texture / icon information generation unit 68 converts the navigation information into texture or icon information based on the guidance data determined by the route guidance unit 64.

マッチング処理部66は、経路誘導部64により決定された地図データ中の誘導データにより導かれる現在位置と、視線方向検出センサ26の検出結果とに基づき、撮像処理部52を参照し、現在位置及び視線方向の画像オブジェクトと、これに対応する3Dデータとのマッチングを行う。
オブジェクト識別部70は、マッチング結果に基づいて、撮像オブジェクト上にオーバレイするテクスチャの位置関係を特定する。たとえばオーバレイする撮像オブジェクトの対象が道路である場合には、マッチング処理部66の処理結果によって、撮像オブジェクトの道路の配置がベクトル値として特定され、このベクトル値と等しいグラフィックレイアウトの位置に、テクスチャの配置関係が決定される。
次いで、この道路位置と対応付けられたグラフィックレイアウト位置情報がグラフィック処理部72へ送られると、グラフィック処理部72ではグラフィックレイアウト位置情報に基づいて、テクスチャ・アイコン情報生成部68で生成されたイメージ情報を再生する。
次いで、表示制御部34では、グラフィック処理部72で再生されるテクスチャ等のイメージ情報を、ユーザが視認するバイザーである表示ディスプレイ28の表示領域に、適当となる表示位置となるような描画データを生成する。ここで、撮像手段30の撮像領域と表示ディスプレイ28の表示領域とは予め対応付けられていることから(図5参照)、撮像処理部52で解析された撮像オブジェクトの道路位置は特定されているので、再生したイメージ情報を表示ディスプレイ28で表示することにより、あたかも、自己位置と引き換えに取得した情報と実風景とが関連付いているかのように、ディスプレイ28に表示することができる。
本実施形態の例では、進行中の道路上に、進行方向を図示するカーペットがあたかも敷設されたような、視覚的効果を得ることができ、ユーザであるライダーは、このカーペットをなぞって走行しているかのような感覚を得ることとなる。
なお、上記実施形態においては、撮像した撮像オブジェクトの位置関係を解析し、その位置に対応するグラフィックのみを生成して、表示する例を示したが、撮像手段30により取得した画像そのものに、テクスチャイメージをオーバレイして、ディスプレイ28に表示することでも、同様な効果を得ることができる。
この場合は、撮像処理部52で解析した撮像オブジェクトをオブジェクト識別部70に送るようにし、このオブエジェクトにおける道路位置をベクトル値として特定した後、道路位置のベクトル値を含む撮像オブジェクトをグラフィック処理部72に引き渡して、このオブジェクトにテクスチャイメージをオーバレイするにようにすればよい。
The matching processing unit 66 refers to the imaging processing unit 52 based on the current position derived from the guidance data in the map data determined by the route guidance unit 64 and the detection result of the line-of-sight direction detection sensor 26. The image object in the line-of-sight direction is matched with the corresponding 3D data.
The object identification unit 70 identifies the positional relationship of the texture that is overlaid on the imaging object based on the matching result. For example, when the object of the imaging object to be overlaid is a road, the road layout of the imaging object is specified as a vector value by the processing result of the matching processing unit 66, and the texture layout is positioned at the position of the graphic layout equal to this vector value. An arrangement relationship is determined.
Next, when the graphic layout position information associated with the road position is sent to the graphic processing unit 72, the graphic processing unit 72 generates image information generated by the texture / icon information generating unit 68 based on the graphic layout position information. Play.
Next, the display control unit 34 displays image data such as textures reproduced by the graphic processing unit 72 on the display area of the display display 28 that is a visor visually recognized by the user, so that the drawing data can be displayed at an appropriate display position. Generate. Here, since the imaging area of the imaging means 30 and the display area of the display 28 are associated in advance (see FIG. 5), the road position of the imaging object analyzed by the imaging processing unit 52 is specified. Therefore, by displaying the reproduced image information on the display 28, it is possible to display it on the display 28 as if the information acquired in exchange for the self position and the actual scenery are associated with each other.
In the example of the present embodiment, it is possible to obtain a visual effect as if a carpet illustrating the traveling direction is laid on a road in progress, and a rider who is a user travels by tracing the carpet. You will get a feeling as if you are.
In the above embodiment, the positional relationship of the captured imaging object is analyzed, and only the graphic corresponding to the position is generated and displayed. However, the image itself acquired by the imaging unit 30 has a texture. A similar effect can be obtained by overlaying the image and displaying it on the display 28.
In this case, the imaging object analyzed by the imaging processing unit 52 is sent to the object identification unit 70, the road position in this object is specified as a vector value, and then the imaging object including the vector value of the road position is displayed in the graphic processing unit. Then, the image is transferred to 72 so that the texture image is overlaid on this object.

次に、情報提供装置14について説明すれば、図4に示すように、情報提供装置14は、地図情報取得部80、地図領域設定部82、データ読み込み処理部84、地図情報記憶部86、提供側通信部88と、及び提供側通信部88の制御を行う制御部90から概略構成され、ネットワークを介して接続された種々のサーバが提供する地図情報を取得する提供情報処理と、情報提供の要求を出した情報表示装置12に、取得した情報を提供する情報提供処理の2つの処理を実行するようにしている。 Next, the information providing apparatus 14 will be described. As shown in FIG. 4, the information providing apparatus 14 includes a map information acquisition unit 80, a map area setting unit 82, a data reading processing unit 84, a map information storage unit 86, and a provision. Providing information processing for obtaining map information provided by various servers connected via a network, and providing information processing, and information providing, which is schematically configured from a side communication unit 88 and a control unit 90 that controls the providing side communication unit 88 Two processes of the information providing process for providing the acquired information to the information display device 12 that issued the request are executed.

地図領域設定部82は、算出された現在位置に基づいて、予め定められたアルゴリズムに従って、検索すべき地図領域を設定する。
データ読み込み処理部84は、設定された地図領域に対応する地図データを情報提供装置14側の地図記憶部40から読み出す。
地図記憶部40は、撮像手段30により撮像した撮像画像中のオブジェクトとマッチング処理を行うとともに、道路位置にレイアウトするテクスチャの位置を特定するための3Dベクターデータを保持しており、演算処理部32の指令に従って、記憶媒体から必要なデータを読み出すようにしている。
特に、この3Dベクターデータは、地球座標の絶対位置に存在する人工物、構造物等の構造を構成する各頂点の、3次元座標の点列データ、および座標点列の接続関係を示すデータを含み、所定の座標基点からのベクトル位置の座標群データによりなる。また、その人工物、構造物等に付与されている属性のほか、道路のリンク、交差点をノードとする道路の構造化データを含むものである。
Based on the calculated current position, the map area setting unit 82 sets a map area to be searched according to a predetermined algorithm.
The data read processing unit 84 reads map data corresponding to the set map area from the map storage unit 40 on the information providing device 14 side.
The map storage unit 40 performs matching processing with the object in the captured image captured by the imaging unit 30 and holds 3D vector data for specifying the position of the texture to be laid out at the road position. The necessary data is read from the storage medium in accordance with the command.
In particular, this 3D vector data includes three-dimensional coordinate point sequence data and data indicating the connection relationship of coordinate point sequences at the vertices that make up structures such as artifacts and structures existing at the absolute position of the earth coordinates. Including coordinate group data of a vector position from a predetermined coordinate base point. Further, in addition to the attributes given to the artifacts, structures, etc., road structured data including road links and intersections as nodes is included.

以上の構成を有する情報表示装置12について、図面を参照しながら、その作用を以下に説明する。
ユーザである二輪車のドライバーが、情報表示装置12がバイザーに設けられたヘルメット18を着用して、二輪車を運転する際、以下のようにして、自己位置情報と引き換えに、ナビゲーション情報を取得し、それをバイザーを通じて視認する実風景と関連付けて表示させる。
まず、GPS受信部48及び視線方向検出センサ26により現在位置、進行方向に関する情報およびユーザの視線方向を検出する。
次いで、検出したユーザの視線方向に沿った実風景をカメラにより撮像する。
次いで、現在位置、進行方向に関する情報は、I/O44を介して、撮像手段30により取り込んだ撮像画像データは、撮像処理部52を介して、それぞれ演算処理部32に送信される。
次いで、現在位置算出部60が、現在位置、進行方向に関する情報に基づいて、現在位置を算出する。ここで、適宜、視線方向検出センサ26が検出する方位情報を参照する構成を採用することで、進行方向の検出の精度を高めることもできる。
次いで、算出した現在位置を情報提供装置14に通信部42を介して送信する。
次いで、情報提供装置14では、通信部42を介して現在位置を受信する。
次いで、受信した現在位置に基づいて、地図領域設定部82は、予め定められたアルゴリズム(例えば、進行(走行)速度に対する移動予測距離を半径とする前方領域と、それより短い距離を半径とする後方領域、さらに、走行中の道路属性(一般道路、有料道路、高速道路等)に応じた側方領域を特定する演算処理)に従って、検索すべき地図領域を設定する。
次いで、設定される地図領域に基づいて、データ読み込み処理部84が、対応する地図データ(3Dデータ)を地図記憶領域から検索し、現在位置に関連付けられた地図情報を読み出す。
次いで、読み出した地図情報を通信部42を介して情報表示装置12に送信する。
The operation of the information display device 12 having the above configuration will be described below with reference to the drawings.
When a driver of a motorcycle who is a user wears a helmet 18 provided with a visor on the information display device 12 and drives the motorcycle, navigation information is acquired in exchange for self-location information as follows, It is displayed in association with the actual scenery viewed through the visor.
First, the GPS receiver 48 and the line-of-sight direction detection sensor 26 detect the current position, information on the traveling direction, and the user's line-of-sight direction.
Next, the detected real landscape along the direction of the user's line of sight is captured by the camera.
Next, information regarding the current position and the traveling direction is transmitted to the arithmetic processing unit 32 via the I / O 44 and the captured image data captured by the imaging unit 30 via the imaging processing unit 52.
Next, the current position calculation unit 60 calculates the current position based on information on the current position and the traveling direction. Here, by appropriately adopting a configuration that refers to the azimuth information detected by the line-of-sight direction detection sensor 26, the accuracy of detection of the traveling direction can be increased.
Next, the calculated current position is transmitted to the information providing apparatus 14 via the communication unit 42.
Next, the information providing apparatus 14 receives the current position via the communication unit 42.
Next, based on the received current position, the map area setting unit 82 uses a predetermined algorithm (for example, a forward area having a predicted movement distance with respect to the traveling (running) speed as a radius, and a shorter distance as a radius. The map area to be searched is set in accordance with the rear area, and further, a calculation process for specifying a side area according to the road attribute (such as a general road, a toll road, and a highway) during traveling.
Next, based on the set map area, the data reading processing unit 84 searches the map storage area for corresponding map data (3D data), and reads the map information associated with the current position.
Next, the read map information is transmitted to the information display device 12 via the communication unit 42.

ここで、ユーザの自己位置情報と引き換えに、情報提供装置14から地図情報を取得して、この地図情報に基づいて、後述するように、ナビゲーション情報をテクスチャないしアイコン表示するディスプレイ28上の表示座標位置と関連付けたうえで、ナビゲーション情報を透視型ディスプレイ28を通じてユーザが視認する実風景中の道路と関連付けて表示させるようにしている。
次いで、情報表示装置12は、通信部42を介して地図情報を受信する。
次いで、経路計算部62が、現在位置、目標位置、および地図情報に基づいて、現在位置から目標位置までの経路を計算する。
次いで、経路誘導部64が、計算された経路に基づいて、ユーザの現在位置との関係で誘導表示すべき経路を特定する。
次いで、テクスチャ・アイコン情報生成部68が、誘導された経路に基づいて、テクスチャまたはアイコン情報(たとえば、道路に沿って表示する矢印やカーペット)を生成する一方、マッチング処理部66が、撮像画像である撮像オブジェクトデータと、これに対応する3Dデータとのマッチングを行なう。
なお、マッチング処理部66は、視線方向検出センサ26の方向検出結果を参照しており、この検出結果に基づく仰角範囲の3Dデータを特定する。すなわち、ユーザであるライダーが、進行方向より視線を側方へそらすなどした場合、当該方向の撮像オブジェクトとマッチング処理するようにしてもよい。
次いで、オブジェクト識別部70が、テクスチャ等のレイアウト位置を特定する。
次いで、グラフィックス処理部72が、生成されたテクスチャアイコン情報をイメージ情報として再生する。
なお、これらの処理において、撮像データにテクスチャアイコン情報をオーバレイする処理を採用してもよい。
次いで、グラフィック処理が行われた再生データが、表示制御部34に送られ、撮像手段30の撮像領域に対応した座標位置に基づいて、透視型ディスプレイ28上でユーザが視認する道路の位置に、テクスチャアイコン情報が表示されるように制御する。
次いで、透視型ディスプレイ28上で、ナビゲーション情報がテクスチャアイコン表示の形式で、道路上に表示される。これにより、二輪車のドライバーは、走行中に進行方向から目を離すことなく、ナビゲーション情報を得ることが可能であり、安全な走行を実現することができる。また、実際の実風景と関連付けてナビゲーション情報を得ることができるので、瞬時にナビゲーション情報を理解することが可能である。
Here, in exchange for the user's own position information, map information is acquired from the information providing device 14 and, based on this map information, as will be described later, the display coordinates on the display 28 for displaying navigation information as textures or icons. After being associated with the position, the navigation information is displayed in association with the road in the actual scenery that the user visually recognizes through the perspective display 28.
Next, the information display device 12 receives the map information via the communication unit 42.
Next, the route calculation unit 62 calculates a route from the current position to the target position based on the current position, the target position, and the map information.
Next, the route guiding unit 64 specifies a route to be guided and displayed in relation to the current position of the user based on the calculated route.
Next, the texture / icon information generation unit 68 generates texture or icon information (for example, an arrow or a carpet to be displayed along the road) based on the guided route, while the matching processing unit 66 is a captured image. Matching between certain imaging object data and the corresponding 3D data is performed.
The matching processing unit 66 refers to the direction detection result of the line-of-sight direction detection sensor 26, and specifies 3D data of the elevation angle range based on this detection result. That is, when a rider who is a user deflects his / her line of sight from the traveling direction, matching processing may be performed with an imaging object in that direction.
Next, the object identification unit 70 specifies a layout position such as a texture.
Next, the graphics processing unit 72 reproduces the generated texture icon information as image information.
In these processes, a process of overlaying the texture icon information on the imaging data may be employed.
Next, the reproduction data subjected to the graphic processing is sent to the display control unit 34, and based on the coordinate position corresponding to the imaging area of the imaging means 30, the position of the road visually recognized by the user on the perspective display 28 is obtained. Control to display texture icon information.
Next, navigation information is displayed on the road in the form of a texture icon display on the perspective display 28. Thereby, the driver of the motorcycle can obtain navigation information without taking his eyes off the traveling direction during traveling, and can realize safe traveling. In addition, since navigation information can be obtained in association with an actual real landscape, navigation information can be understood instantly.

この場合、ナビゲーション情報は、道路に表示される誘導用の矢印に限らず、ユーザの自己位置情報に基づき、ユーザが視認する建物、道路、信号、交差点等のオブジェクトに関連付けられた広義の情報である。たとえば、非常に目立つ建物が行き先に存在する場合に、このような建物を識別の対象としたうえで、この建物を指示する矢印を表示するために、マッチング処理66で特定した建物オブジェクトをオブジェクト識別部70により表示位置の座標関係を特定したうえで、表示制御部34を介して、透明型ディスプレイ28上に実風景中の建物とオーバレイさせて、表示するようにしてもよい。なお、ナビゲーション情報には直接関連しないが、ユーザの嗜好に沿った各種情報(たとえば、現在のユーザの位置に周辺のレストラン、娯楽情報、交通情報)を、所定の位置に達したとき、あるいは所定の時刻となったときに、表示制御部34を介して表示ディスプレイ28上にたとえば、実風景中のレストランとオーバレイさせる形態で表示してもよい。この場合、このような情報は、サーバのデータベースに格納され、ナビゲーション装置からの要求に応じて検索した情報を送信するようにしてもよいが、ナビゲーション情報とは異なり、情報表示装置12のRAM等の記憶部40に格納しておいてもよい。 In this case, the navigation information is not limited to the guidance arrows displayed on the road, but is broad information associated with objects such as buildings, roads, signals, and intersections that the user visually recognizes based on the user's own position information. is there. For example, when there is a very conspicuous building at the destination, the building object identified by the matching process 66 is identified as an object in order to display an arrow indicating the building after identifying such a building. After the coordinate relationship between the display positions is specified by the unit 70, the display control unit 34 may be displayed on the transparent display 28 so as to overlay the building in the actual scenery. Although not directly related to the navigation information, various information in accordance with the user's preference (for example, a nearby restaurant, entertainment information, traffic information at the current user position) when the predetermined position is reached or predetermined May be displayed on the display 28 via the display control unit 34, for example, in the form of overlaying a restaurant in the actual scenery. In this case, such information is stored in the database of the server, and the retrieved information may be transmitted in response to a request from the navigation device. However, unlike the navigation information, the RAM of the information display device 12 or the like You may store in the memory | storage part 40.

以上、本実施形態によれば、二輪車向けのナビゲーション装置として、ドライバーの自己位置情報と引き換えに、たとえば、道路上に誘導を図形表示するための情報を取得することにより、ヘルメット18のバイザーを構成する透視型ディスプレイ28上に、ドライバーがディスプレイ28を介して視認する実風景中の道路と、このような図形表示に関する情報を、あたかもオーバレイさせて表示することが可能となる。したがって、走行中に、進行方向から目線を全く離すことなく、表示されたアイコン情報を瞬時に理解することにより、安全な運転を実現することができる。特に、たとえばオートバイ数台でツーリングを行う際、現在の位置情報と引き換えに、ツーリング相手方のナビゲーション情報(たとえば、現在走行中の道路の先の進路)を互いに取得し合い、それぞれのディスプレイに図形表示することにより、ツーリング目的地までの経路について、携帯電話あるいはマイク等で会話をすることなしに、走行中に確認することも可能となる。この場合には、自分のテクスチャアイコン表示は、たとえば赤色の矢印、ツーリング相手方のそれは青色の矢印等色、あるいはアイコン図形の形を区別することにより、それぞれの進路を瞬時に理解することが可能である。
As described above, according to the present embodiment, the visor of the helmet 18 is configured as a navigation device for two-wheeled vehicles, for example, by acquiring information for graphically displaying guidance on the road in exchange for the driver's own position information. On the perspective display 28, the road in the actual scenery that the driver visually recognizes via the display 28 and the information regarding such graphic display can be displayed as if they are overlaid. Therefore, a safe driving can be realized by instantly understanding the displayed icon information without taking any line of sight from the traveling direction during traveling. In particular, when touring with several motorcycles, for example, in exchange for the current position information, the navigation information of the other party of the touring (for example, the course ahead of the road that is currently running) is mutually acquired, and the graphic display is displayed on each display By doing so, the route to the touring destination can be confirmed while traveling without having a conversation with a mobile phone or a microphone. In this case, it is possible to instantly understand the path of each texture icon display by distinguishing, for example, the red arrow, the color of the tooling opponent, such as the blue arrow, or the shape of the icon figure. is there.

(第2の実施形態)
以下に、本発明の第2の実施形態について、図面を参照しながら詳細に説明する。本実施形態において、第1の実施形態と同様な構成には、同様な参照番号を付することによりその説明は省略し、以下では、本実施形態の特徴部分について詳細に説明する。
本実施形態の特徴は、情報表示装置12として、ユーザの自己位置情報と引き換えに取得する情報が自己位置に関連付けられた音楽情報であり、特に音楽情報を聴覚情報として取得するのではなく、一旦音楽のタイトル情報として、視覚情報の形態で、そのタイトル情報の情報源である実風景中の建物等と関連付けて透視型ディスプレイ28上にオーバレイさせて表示するようにした点にある。これにより、音楽情報の効率的な取捨選択が可能となるとともに、たとえば現在この地域で流行している音楽情報を視覚を通じて瞬時に把握したり、自分の好みの音楽がすぐ近くのコンサートホールで行われることをタイムリーに知り、実際に音楽を聴くことも可能となる。
(Second Embodiment)
Below, the 2nd Embodiment of this invention is described in detail, referring drawings. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. Hereinafter, characteristic portions of the present embodiment will be described in detail.
A feature of the present embodiment is that the information display device 12 is music information in which information acquired in exchange for the user's own position information is associated with the user's own position. In particular, the music information is not acquired as auditory information. The music title information is displayed in the form of visual information in an overlaid form on the perspective display 28 in association with a building or the like in the actual scenery that is the information source of the title information. This makes it possible to select music information efficiently, and for example, to visually grasp music information that is currently popular in this region, or to perform your favorite music in a nearby concert hall. It is also possible to know what is being played in a timely manner and actually listen to music.

本実施形態の情報表示装置12は、第1実施形態のようにヘルメット18のバイザーを構成するものでなく、いわゆる眼鏡タイプであり、たとえばユーザが外出する際に、気軽に着用するのに適したものとしている。なお、第1実施形態と同様に、ユーザ自身が普段使用する眼鏡のレンズ表面に薄型有機ELのディスプレイ28を貼り付けるものでもよい。
一方、本実施形態の情報提供装置14は、第1実施形態とは異なり、ユーザの自己位置情報と引き換えに取得する情報が自己位置に関連付けられた音楽情報であり、このような音楽情報は、その情報が多岐に亘ることから、かかる音楽情報を取得するのに種々のサーバにアクセスする必要がある点において、以下のように異なる。
The information display device 12 of this embodiment does not constitute the visor of the helmet 18 as in the first embodiment, but is a so-called glasses type, and is suitable for casual wear when the user goes out, for example. It is supposed to be. As in the first embodiment, a thin organic EL display 28 may be pasted on the lens surface of the glasses that the user normally uses.
On the other hand, unlike the first embodiment, the information providing apparatus 14 according to the present embodiment is music information in which information acquired in exchange for the user's self-location information is associated with the self-location. Since the information is diverse, it is different as follows in that it is necessary to access various servers to acquire such music information.

情報提供装置14について説明すれば、図6に示すように、情報提供装置14は、音楽情報取得部102、音楽情報記憶部104、提供側通信部106と、制御部108とから概略構成され、ネットワークを介して接続された種々のサーバが提供する音楽情報を取得する提供情報処理と、情報提供の要求を出した情報表示装置12に、取得した情報を提供する情報提供処理の2つの処理を実行するようにしている。
音楽情報取得部102は、インターネット等のネットワークに接続され、このネットワークを介して、同様にネットワークに接続された種々のサーバから送られてくる音楽情報を取得するようにしている。
音楽情報記憶部104は、音楽情報取得部102が取得した種々の音楽情報を記憶する。
提供側通信部106は、移動体通信等の通信回線16を介して、情報表示装置12とデータのやり取りを行う。
制御部108は、情報提供装置14の各構成ユニットを統括的に制御する。より詳細には、上述の提供情報処理および情報提供処理を行う中心的なユニットである。
The information providing device 14 will be described. As shown in FIG. 6, the information providing device 14 is roughly configured by a music information acquisition unit 102, a music information storage unit 104, a providing communication unit 106, and a control unit 108. Two processes are provided: information processing for obtaining music information provided by various servers connected via a network, and information providing processing for providing the acquired information to the information display device 12 that has issued a request for information provision. I am trying to do it.
The music information acquisition unit 102 is connected to a network such as the Internet, and acquires music information sent from various servers similarly connected to the network via this network.
The music information storage unit 104 stores various music information acquired by the music information acquisition unit 102.
The providing communication unit 106 exchanges data with the information display device 12 via the communication line 16 such as mobile communication.
The control unit 108 comprehensively controls each component unit of the information providing apparatus 14. More specifically, it is a central unit that performs the above-described provision information processing and information provision processing.

図7に、制御部108の機能構成を示す。
図7において、制御部108は、個別音楽情報受信部110と、個別音楽情報更新部112と、音楽情報保持部114と、検索対象設定部116と、個別音楽情報要求部118と、ユーザ要求解析部120と、音楽情報検索部122とから概略構成されている。
個別音楽情報受信部110は、音楽情報取得部102が取得した音楽情報の提供元を解析する。音楽情報の提供元としては、たとえばコンサートが行われる場所、CDあるいはDVD販売店、音楽が店内に流れるレストラン等が該当する。
個別音楽情報更新部112は、個別音楽情報受信部110によって解析された情報の提供元に基づいて、音楽情報記憶部104に記憶されている提供元の音楽情報を、個別音楽情報受信部110で提供元が解析された音楽情報に更新し、これにより、音楽情報記憶部104には常に最新な音楽情報を記憶することが可能となり、たとえば、コンサートが行われる場所に出向いたが、実際は行われていなかった等の不具合を事前に回避することができる。
音楽情報保持部114は、各々のサーバが提供する音楽情報のアドレスや、音楽情報へのアクセス方法等に関する情報を保持する。
検索対象設定部116は、ネットワークに接続された種々のサーバから定期的に音楽情報を取得するために、アクセスするサーバのリストを設定する。設定したリストに沿って、音楽情報を取得すべきサーバにアクセスするための情報を音楽情報保持部114から読み出す。ここで、検索対象設定部116は、情報表示装置12から情報の提供の要求があった場合にのみ、この要求に含まれる検索条件に基づいて、アクセスするサーバのリストを設定するようにしてもよい。たとえば、情報表示装置12を装着するユーザの現在地から所定範囲内にある音楽情報にのみアクセスするようにリストを設定してもよい。このようにすることで、音楽情報が必要なときにアクセスするサーバを必要最小限度にすることができるため、ネットワークの負荷を低減することが可能となる。
FIG. 7 shows a functional configuration of the control unit 108.
In FIG. 7, the control unit 108 includes an individual music information receiving unit 110, an individual music information updating unit 112, a music information holding unit 114, a search target setting unit 116, an individual music information requesting unit 118, and a user request analysis. Unit 120 and a music information search unit 122 are schematically configured.
The individual music information receiving unit 110 analyzes the provider of the music information acquired by the music information acquiring unit 102. Examples of the music information provider include places where concerts are held, CD or DVD stores, restaurants where music flows in the stores, and the like.
The individual music information updating unit 112 uses the individual music information receiving unit 110 to store the music information of the providing source stored in the music information storage unit 104 based on the information providing source analyzed by the individual music information receiving unit 110. The provider updates the analyzed music information, so that the latest music information can always be stored in the music information storage unit 104. For example, the music information storage unit 104 goes to a place where a concert is held, but it is actually performed. It is possible to avoid problems such as not having been made in advance.
The music information holding unit 114 holds information on the address of music information provided by each server, the access method to the music information, and the like.
The search target setting unit 116 sets a list of servers to be accessed in order to periodically acquire music information from various servers connected to the network. Information for accessing a server from which music information is to be acquired is read from the music information holding unit 114 in accordance with the set list. Here, only when there is a request for providing information from the information display device 12, the search target setting unit 116 may set a list of servers to be accessed based on the search condition included in this request. Good. For example, the list may be set so that only music information within a predetermined range from the current location of the user wearing the information display device 12 is accessed. By doing so, it is possible to minimize the number of servers that are accessed when music information is required, and thus it is possible to reduce the load on the network.

個別音楽情報要求部118は、検索対象設定部116によって音楽情報保持部114から読み出された音楽情報のアドレスやアクセス方法等に関する情報に基づいて、検索対象設定部116で設定したリストにあるサーバにアクセスして音楽情報の提供を要求するようにしている。
このような本実施形態の情報提供装置14は、たとえばモデム等の通信機能を搭載したパーソナルコンピュータ等のコンピュータシステムを採用することで実現可能である。
The individual music information request unit 118 is a server in the list set by the search target setting unit 116 based on information on the address, access method, etc. of the music information read from the music information holding unit 114 by the search target setting unit 116. To request the provision of music information.
Such an information providing apparatus 14 of the present embodiment can be realized by employing a computer system such as a personal computer equipped with a communication function such as a modem.

次に、情報提供処理について説明する。
ユーザが、眼鏡タイプの情報表示装置12を装着して、外出するとする。
まず、ユーザ要求解析部120は、提供側通信部106を介して情報表示装置12からデータが送信されるのを待つ。
次いで、ユーザがある地域内に立ち入ったとき、この地域と関連する音楽情報を知りたいと望み、第1実施形態の場合と同様に、ユーザの現在位置情報とともに、知りたい音楽情報に関する検索条件を、情報表示装置12より情報提供装置14側へ送信する。
次いで、ユーザ要求解析部120は、送信されてきたデータを解析し、このデータに含まれるユーザの識別情報と、検索条件に関する情報を検出する。
次いで、音楽情報検索部122は、ユーザ要求解析部120で解析された検索条件に従って、音楽情報記憶部104に記憶された音楽情報を検索することにより、この検索条件に合致する音楽情報を検出する。たとえば、ユーザ要求解析部120で解析された検索条件が、ユーザの現在位置である場合、現在位置から所定範囲内にある音楽情報を音楽情報記憶部104から検索する。
なお、音楽情報検索部122は、種々のサーバの属性をあらかじめ階層的に分類しておき、ユーザ要求解析部120で解析された検索条件のサーバの属性に応じて検索範囲を設定し、検索することにより、検索条件に合致する情報を迅速に検出することが可能となる。たとえば、現在地から所定範囲内にある音楽情報について、音楽ジャンル、ボーカルあるいはインストルメンタル、ボーカルなら歌手名、インストルメンタルなら楽器の種類、作曲者、作詞者等の1つあるいは複数を選択して検索条件を設定することが可能である。
検索された音楽情報は、通信部42を通じて、識別された情報表示装置12側に送信され、ユーザの透視型ディスプレイ28上に情報源である実風景中の建物とオーバレイさせて表示される。
その例を図8に示す。図8は、たとえば、ユーザの現在の位置情報と、現在の位置から半径500m以内、ジャンルがジャズである点を検索条件として取得した音楽情報を実風景と関連付けて表示させている画面の例であり、建物Aでは、表示されたタイトルのジャズ音楽が店内で演奏され、建物Bでは、ジャズの名盤が安売りされていることが示されている。
Next, the information providing process will be described.
It is assumed that the user wears the glasses-type information display device 12 and goes out.
First, the user request analysis unit 120 waits for data to be transmitted from the information display device 12 via the providing side communication unit 106.
Next, when the user enters a certain area, he / she wants to know the music information related to this area, and in the same way as in the first embodiment, the search condition regarding the music information to be known is set together with the current position information of the user. Then, the information is transmitted from the information display device 12 to the information providing device 14 side.
Next, the user request analysis unit 120 analyzes the transmitted data and detects user identification information and information related to the search condition included in the data.
Next, the music information search unit 122 searches the music information stored in the music information storage unit 104 in accordance with the search condition analyzed by the user request analysis unit 120, thereby detecting music information that matches the search condition. . For example, if the search condition analyzed by the user request analysis unit 120 is the current position of the user, the music information storage unit 104 is searched for music information within a predetermined range from the current position.
The music information search unit 122 classifies various server attributes hierarchically in advance, sets a search range according to the server attributes of the search conditions analyzed by the user request analysis unit 120, and searches. Thus, it is possible to quickly detect information that matches the search condition. For example, for music information within a predetermined range from the current location, select one or more of music genre, vocal or instrumental, vocal for singer name, instrument type for instrument, composer, songwriter, etc. Can be set.
The searched music information is transmitted to the identified information display device 12 side through the communication unit 42, and is displayed on the user's perspective display 28 so as to be overlaid with the building in the actual scenery as the information source.
An example is shown in FIG. FIG. 8 is an example of a screen that displays, for example, the current position information of the user and the music information acquired as a search condition that is within a radius of 500 m from the current position and the genre is jazz, in association with the actual scenery. In the building A, the jazz music of the displayed title is played in the shop, and in the building B, the jazz masterpiece is sold for sale.

このように、本実施形態によれば、タイムリーに音楽情報にアクセスすることが可能である。ユーザは、たとえばその音楽の演奏を聴くために、その建物に立ち入ることも可能であり、その音楽のCDあるいはDVDを入手することも可能となる。このように、自己位置情報と引き換えにユーザが所望する情報を取得した後は、第1実施形態の場合と同様であり、ユーザの自己位置情報と引き換えに取得した音楽情報を一旦音楽タイトル情報の形態で、ユーザの自己位置からの視界に沿う実風景と関連付けて表示することにより、ユーザの所望する音楽情報にタイムリー且つ効率的にアクセスすることが可能となる。
Thus, according to this embodiment, it is possible to access music information in a timely manner. The user can enter the building, for example, to listen to the music performance, and obtain a CD or DVD of the music. As described above, after acquiring the information desired by the user in exchange for the self-location information, it is the same as in the first embodiment, and the music information acquired in exchange for the user's self-location information is temporarily stored in the music title information. By displaying in association with the actual scenery along the field of view from the user's own position, the music information desired by the user can be accessed in a timely and efficient manner.

(第3の実施形態)
以下に、本発明の第3の実施形態について、図面を参照しながら詳細に説明する。本実施形態の特徴部分は、自己位置情報と引き換えに取得する情報が、情報量が大きな静画あるいは動画の画像情報であり、その場合に、一旦画像情報を圧縮して、いわゆるサムネイル情報として生成し、これらサムネイル化された情報群を、実風景と関連付けて表示することにより、サムネイル情報のレベルで取捨選択を行って、個別画像情報へのアクセスが行われるようにした点にある。
なお、通常の技術常識で用いられる「サムネイル」とは、カメラで撮影した映像群を一覧できるように、個々の画像を縮小した画像を、一のシートなどに行列に配列したものをいうが、本実施形態においては、単に行列に配列した映像群をいうのではなく、後述のように、自己位置情報に関連する撮像情報のすべてについての圧縮又は縮小画像群を示す点で相違する。また、説明の都合上、以下においては、いわゆるサムネイル化した情報群を単にサムネイル情報と呼ぶこととする。
(Third embodiment)
Below, the 3rd Embodiment of this invention is described in detail, referring drawings. The characteristic part of this embodiment is that information acquired in exchange for self-location information is image information of a still image or a moving image with a large amount of information. In this case, the image information is once compressed and generated as so-called thumbnail information. However, by displaying these thumbnailed information groups in association with the actual scenery, the individual image information is accessed by selecting them at the thumbnail information level.
In addition, “thumbnail” used in ordinary technical common sense refers to an image in which individual images are reduced and arranged in a matrix on a single sheet so that a list of video images taken with a camera can be listed. The present embodiment is different from the present embodiment in that it indicates a compressed or reduced image group for all imaging information related to the self-position information, as will be described later, rather than simply referring to a video group arranged in a matrix. For convenience of explanation, hereinafter, a so-called thumbnail information group is simply referred to as thumbnail information.

図9に示すように、本実施形態において、情報表示システム200は、ユーザが覗き込む形態で使用するルーペ型情報表示ディバイス202と、このルーペ型情報表示ディバイス202をユーザの動作(モーション)により制御するモーションコントローラ204とを有する情報表示装置206と、この情報表示装置206とネットワークを介して接続された情報提供装置208とから概略構成され、情報提供装置208からネットワークを通して提供された情報を情報表示装置206に表示する際、情報表示装置206から自己位置情報を情報提供装置208に送信し、それと引き換えに情報提供装置208から情報を取得し、取得した情報を情報表示装置206において、自己位置と関連させて表示するようにしている。
ルーペ型情報表示ディバイス202は、透視型ディスプレイ212がユーザの目線に近い側に位置決めされる内筐体214と、遠い側に位置決めされる外筐体216とに挟まれた形態のハードウェア構成を有する。内筐体214および外筐体216はともに、リング状で中空部には、透明板218が嵌め込まれ、ユーザは内筐体214の透明板218、透視型ディスプレイ212および外筐体216の透明板218を通じて、実風景を視認できるようになっている。リングの大きさは、ユーザが覗き込むような形態でルーペ型情報表示ディバイス202を使用するような大きさであるのが好ましい。外筐体216の外周部には、スチルカメラ等のカメラが設置され、カメラにより撮像した画像情報は、撮像処理部226により処理されるようにしている。透視型ディスプレイ212は、いわゆる透明あるいは半透明の有機EL製であり、フィルム基材のものが特に好ましく、表示制御部222により制御されるようにしている。このような透視型ディスプレイ212を採用することにより、ユーザは、透視型ディスプレイ212を通じて実風景を視認しつつ、ディスプレイ212上に表示される画像を、あたかも実風景とオーバレイしたかのような態様で視認することが可能である。
As shown in FIG. 9, in this embodiment, the information display system 200 controls the loupe type information display device 202 used in a form in which the user looks in, and the loupe type information display device 202 by the user's operation (motion). An information display device 206 having a motion controller 204 for performing the operation, and an information providing device 208 connected to the information display device 206 via a network. The information provided from the information providing device 208 via the network is displayed as information. When the information is displayed on the device 206, the information display device 206 transmits the self-location information to the information providing device 208 and obtains the information from the information providing device 208 in return. They are displayed in relation to each other.
The loupe type information display device 202 has a hardware configuration in which the fluoroscopic display 212 is sandwiched between an inner casing 214 positioned on the side closer to the user's line of sight and an outer casing 216 positioned on the far side. Have. Both the inner casing 214 and the outer casing 216 are ring-shaped, and a transparent plate 218 is fitted in the hollow portion. The user can use the transparent plate 218 of the inner casing 214, the transparent display 212, and the transparent plate of the outer casing 216. Through 218, the actual scenery can be seen. The size of the ring is preferably such that the loupe type information display device 202 is used in such a form that the user looks into it. A camera such as a still camera is installed on the outer periphery of the outer casing 216, and image information captured by the camera is processed by the imaging processing unit 226. The see-through display 212 is made of a so-called transparent or translucent organic EL, and is preferably a film substrate, and is controlled by the display control unit 222. By adopting such a perspective display 212, the user can visually recognize the actual scenery through the perspective display 212 and display the image displayed on the display 212 as if it was overlaid with the actual scenery. It is possible to visually recognize.

ルーペ型情報表示ディバイス202は、さらに、制御部224と、撮像処理部226と、表示制御部222と、モーションコントローラ204との間で通信を行うための通信部228と、端末識別情報保持部230と、地磁気センサ、方位センサ等からなる姿勢検出部232と、位置情報取得部234と、基地局との間で通信を行うための通信部236と、サムネイル情報保持部238と、実画像記録部240と、画像表示指示部242と、計時部244と、圧縮画像特定部246とを有する。
制御部224は、情報表示ディバイスの各構成ユニット部を統括的に制御するようにしている。より詳細には、制御部224は、情報表示ディバイスが行う処理である情報表示処理と、情報提供装置208との間、およびモーションコントローラ204との間における通信処理との2つの処理を行う中心的なユニットである。
撮像処理部226は、カメラで撮像した画像を情報表示装置206で処理できる情報へ変換する。
表示制御部222は、サムネイル情報保持部238に保持されたサムネイル情報や実画像記録部240に保持された実画像情報から表示画像を生成して、透視型ディスプレイ212に表示するように制御する。
端末識別情報保持部230は、ルーペ型情報表示ディバイス202の識別ID情報を記憶保持する。
姿勢検出部232は、磁気センサーないしは方位センサが検出する方位情報を利用して、ルーペ型情報表示ディバイス202の姿勢方向を検出する。
位置情報取得部234は、ユーザの自己位置を取得するものであり、既知のGPS機を用いたり、基地局との通知回線における時間遅延を計測した、いわゆる3点測位や、地理標準器との距離計算により得られる地点観測を用いた構成でもよい。
通信部236は、情報提供装置208と情報の送受信を行う機能を備え、撮像処理部226より得た撮像情報や、情報表示装置206の保持する情報を所定の搬送信号により基地局へ伝達したり、情報提供装置208の保持するサムネイル情報等を、所定の搬送信号により取得する。
サムネイル情報保持部238は、情報提供装置208側で生成され、情報表示装置206側に送信されたサムネイル情報を保持する。この保持は一時的なものでもよいし、永続的なものでもよい。
実画像記録部240は、情報提供装置208側で保持され、情報表示装置206側に送信された実画像を記録する。この保持は一時的なものでもよいし、永続的なものでもよい。
画像表示指示部242は、ユーザの操作に享受され、この操作に基づいて、画像表示指示情報を生成する。
計時部244は、年月日ないし時分秒に関する情報を計時するもので、本実施形態では特に、カメラにより撮像した撮像情報を定義する時刻情報を得るのに用いられる。
圧縮画像特定部246は、サムネイル情報保持部238に保持されたサムネイル情報のうち、ユーザの指示により特定された個々の画像を特定する。
The loupe type information display device 202 further includes a control unit 224, an imaging processing unit 226, a display control unit 222, a communication unit 228 for communicating with the motion controller 204, and a terminal identification information holding unit 230. A posture detection unit 232 including a geomagnetic sensor, a direction sensor, a position information acquisition unit 234, a communication unit 236 for communicating with the base station, a thumbnail information holding unit 238, and an actual image recording unit 240, an image display instruction unit 242, a timer unit 244, and a compressed image specifying unit 246.
The control unit 224 controls each component unit of the information display device in an integrated manner. More specifically, the control unit 224 performs two processes: an information display process which is a process performed by the information display device, and a communication process between the information providing device 208 and the motion controller 204. Unit.
The imaging processing unit 226 converts an image captured by the camera into information that can be processed by the information display device 206.
The display control unit 222 controls to generate a display image from the thumbnail information held in the thumbnail information holding unit 238 and the real image information held in the real image recording unit 240 and to display the display image on the perspective display 212.
The terminal identification information holding unit 230 stores and holds the identification ID information of the loupe type information display device 202.
The posture detection unit 232 detects the posture direction of the loupe type information display device 202 using the direction information detected by the magnetic sensor or the direction sensor.
The position information acquisition unit 234 acquires the user's own position. The position information acquisition unit 234 uses a known GPS device or measures a time delay in a notification line with a base station, so-called three-point positioning, A configuration using point observation obtained by distance calculation may be used.
The communication unit 236 has a function of transmitting and receiving information to and from the information providing device 208, and transmits imaging information obtained from the imaging processing unit 226 and information held by the information display device 206 to a base station by a predetermined carrier signal. The thumbnail information held by the information providing device 208 is acquired by a predetermined transport signal.
The thumbnail information holding unit 238 holds thumbnail information generated on the information providing apparatus 208 side and transmitted to the information display apparatus 206 side. This holding may be temporary or permanent.
The real image recording unit 240 records the real image held on the information providing apparatus 208 side and transmitted to the information display apparatus 206 side. This holding may be temporary or permanent.
The image display instruction unit 242 is enjoyed by a user operation, and generates image display instruction information based on this operation.
The time measuring unit 244 measures information related to the year / month / day or hour / minute / second, and is used in the present embodiment to obtain time information that defines imaging information captured by the camera.
The compressed image specifying unit 246 specifies individual images specified by a user instruction from the thumbnail information held in the thumbnail information holding unit 238.

図10に示すように、一方、モーションコントローラ204は、既知の2軸または3軸の加速度センサを用いており、三次元方向の筐体の変位量を計測し、それに基づいて筐体の変位情報を取得するものであり、制御部300と、加速度センサ部302と、キー操作定義部304と、リファレンス部306と、情報表示装置206との間で通信を行う通信部308とを有する。外形筐体は、ユーザが把持しやすい程度の大きさであり、主たる機能は、制御部300を構成するCPUと、内蔵のソフトウェアプログラムとの協働により動作する。
制御部300は、モーションコントローラ204の各構成ユニット部を統括的に制御するようにしている。より詳細には、制御部300は、情報表示ディバイスに対してモーションコントローラ204のモーションに応じた指示を与える処理を行う中心的なユニットである。加速度センサ部302は、モーションコントローラ204の加速度を検出する。キー操作定義部304は、リファレンス部306と関連して、モーションコントローラ204のモーションと、情報表示装置206の機能動作指示との対応関係を定義する。リファレンス部306には、図10に示すように、モーションコントローラ204のモーションに対応する指示操作がID番号とともに関連付けられている。たとえば、ID番号1は、モーションコントローラ204の横方向のモーションを示し、それにより電源ONの指示操作が行われることを示し、以下モーションに応じて、電源オフ、情報表示ディバイス202の通信部236からの送信、サムネイル情報の呼び出し、個々の画像情報の取捨、個々の画像情報の選択が指示操作されるようにしている。使用の際、ユーザ側から見てモーションコントローラ204を透視型ディスプレイ212上に表示される画像とリンクするよう位置に配し、ディスプレイ212上でモーションコントローラ204のモーションにより特定の画像を移動させるような機能を有するようにしている。
On the other hand, as shown in FIG. 10, the motion controller 204 uses a known two-axis or three-axis acceleration sensor, measures the amount of displacement of the housing in the three-dimensional direction, and based on this, measures displacement information of the housing. And a control unit 300, an acceleration sensor unit 302, a key operation definition unit 304, a reference unit 306, and a communication unit 308 that communicates with the information display device 206. The outer casing is sized to be easily gripped by the user, and the main function operates in cooperation with the CPU constituting the control unit 300 and the built-in software program.
The control unit 300 controls each component unit of the motion controller 204 in an integrated manner. More specifically, the control unit 300 is a central unit that performs a process of giving an instruction according to the motion of the motion controller 204 to the information display device. The acceleration sensor unit 302 detects the acceleration of the motion controller 204. The key operation definition unit 304 defines a correspondence relationship between the motion of the motion controller 204 and the functional operation instruction of the information display device 206 in association with the reference unit 306. As shown in FIG. 10, the reference unit 306 is associated with an instruction operation corresponding to the motion of the motion controller 204 together with an ID number. For example, ID number 1 indicates a motion in the horizontal direction of the motion controller 204, thereby indicating that a power-on instruction operation is performed. Hereinafter, in response to the motion, the power is turned off and the communication unit 236 of the information display device 202 Are sent, thumbnail information is called, individual image information is discarded, and individual image information is selected. In use, the motion controller 204 is positioned so as to be linked to an image displayed on the perspective display 212 when viewed from the user side, and a specific image is moved by the motion of the motion controller 204 on the display 212. It has a function.

情報提供装置208について説明すれば、図9に示すように、情報提供装置208は、制御部400と、ネットワークに接続された通信部402と、サムネイル情報生成部404と、撮像情報記録部406とから概略構成されている。
情報提供装置208は、ネットワークサーバによりなる。この情報提供装置208は、例えばCPU、メモリー(RAM,ROM等)、HD等の外部記憶装置、イーサネット(登録商標)等の外部通信部等を有するコンピュータ装置で構成することができる。情報提供装置208は、例えばハードウェアであるコンピュータに基本ソフトウェア(OS:Operating system)、およびデータベースのサーバ機能や通信機能の所定のアプリケーションプログラムが組み込まれて実行されることにより、情報表示装置206からの要求に応じて所定の情報処理を実行したり、各機能を実現したりすることができる。この情報提供装置208は、1台のコンピュータ装置で構成してもいいし、複数のコンピュータ装置をネットワーク接続して協働して動作するように構成してもよい。
制御部400は、情報提供装置208の各構成ユニット部を統括的に制御するようにしている。より詳細には、制御部400は、情報表示装置206との間で通信を行うことにより、情報表示装置206側で撮像された画像情報を受信して記録するとともに、この画像情報に基づいてサムネイル情報を生成し、情報表示装置206に送信する処理を行う中心的なユニットである。
サムネイル情報生成部404は、撮像画像に基づいてサムネイル情報を生成する。
撮像情報記録部406は、情報表示装置206側で撮像された画像情報を記録する。
図11に示すように、サムネイル情報生成部404は、制御部400と、対象画像特定部408と、画像表示位置定義部410と、乱数生成部412と、サムネイル情報ファイル化部414と、画像圧縮処理部416と、距離演算部418と、マスキング処理部420とから概略構成されている。
制御部400は、サムネイル情報生成部404の各構成ユニット部を統括的に制御するようにしている。
対象画像特定部408は、画像圧縮処理部416により圧縮処理を行う画像を特定する。
画像表示位置定義部410は、画像圧縮処理部416により圧縮処理を行った画像に対して、情報表示装置206の透視型ディスプレイ212上における表示位置の定義を行う。
乱数生成部412は、サムネイル情報を透視型ディスプレイ212上に表示するのに、サムネイル情報の画像情報の位置(高さ)に対して、乱数を生成して対応させる。
サムネイル情報ファイル化部414は、サムネイル化した情報群を一のファイルにファイル化(アーカイブ)する。
画像圧縮処理部416は、撮像した画像について、現在位置から所定半径に含まれるすべての画像を圧縮処理する。
距離演算部418は、撮像情報に関連付けられた撮像位置と現在位置との間の距離を演算する。
マスキング処理部420は、指定した画像に対してマスキングを行う。あるいは、指定した画像と代替するマスキング画像を特定する。
The information providing apparatus 208 will be described with reference to FIG. 9. The information providing apparatus 208 includes a control unit 400, a communication unit 402 connected to a network, a thumbnail information generation unit 404, and an imaging information recording unit 406. It is roughly composed.
The information providing device 208 is a network server. The information providing device 208 can be configured by a computer device having, for example, a CPU, a memory (RAM, ROM, etc.), an external storage device such as an HD, an external communication unit such as Ethernet (registered trademark), and the like. For example, the information providing apparatus 208 includes a basic computer (OS: Operating system) and a predetermined application program for a database server function and a communication function incorporated in a computer that is hardware and executed. In response to the request, it is possible to execute predetermined information processing and realize each function. The information providing device 208 may be configured by a single computer device, or may be configured to operate in cooperation with a plurality of computer devices connected to a network.
The control unit 400 controls each component unit of the information providing apparatus 208 in an integrated manner. More specifically, the control unit 400 communicates with the information display device 206 to receive and record image information captured on the information display device 206 side, and to perform thumbnails based on the image information. It is a central unit that performs processing for generating information and transmitting it to the information display device 206.
The thumbnail information generation unit 404 generates thumbnail information based on the captured image.
The imaging information recording unit 406 records image information captured on the information display device 206 side.
As shown in FIG. 11, the thumbnail information generation unit 404 includes a control unit 400, a target image specifying unit 408, an image display position definition unit 410, a random number generation unit 412, a thumbnail information filing unit 414, and an image compression. The processing unit 416, a distance calculation unit 418, and a masking processing unit 420 are roughly configured.
The control unit 400 controls each component unit of the thumbnail information generation unit 404 in an integrated manner.
The target image specifying unit 408 specifies an image to be compressed by the image compression processing unit 416.
The image display position definition unit 410 defines the display position on the perspective display 212 of the information display device 206 for the image compressed by the image compression processing unit 416.
In order to display the thumbnail information on the perspective display 212, the random number generation unit 412 generates a random number corresponding to the position (height) of the image information of the thumbnail information.
The thumbnail information filing unit 414 files (archives) the thumbnailed information group into one file.
The image compression processing unit 416 compresses all images included in a predetermined radius from the current position for the captured image.
The distance calculation unit 418 calculates the distance between the imaging position associated with the imaging information and the current position.
The masking processing unit 420 performs masking on the designated image. Alternatively, a masking image that substitutes for the designated image is specified.

以上の構成を有する情報表示システム200について、撮像記録する段階と、サムネイルを参照する段階と、個別画像を参照する段階とに分けて、図面を参照しながらその作用を以下に説明する。
具体的には、ユーザがある場所においてその場の風景、人物等を撮像して、それを情報提供装置208側に記録する段階が撮像記録段階に相当し、ユーザが後日その場所に再度出向いて、過去に撮像した情報にアクセスする際、サムネイルを利用して撮像情報を取得する段階がサムネイル参照段階に相当し、ユーザが参照したサムネイル情報に基づいて、個別画像を参照する段階が個別画像参照段階に相当する。
The operation of the information display system 200 having the above-described configuration will be described below with reference to the drawings, divided into a stage of imaging and recording, a stage of referring to thumbnails, and a stage of referring to individual images.
Specifically, the stage where the user captures a scene, a person, etc. at a certain place and records it on the information providing apparatus 208 side corresponds to the imaging recording stage, and the user visits the place again at a later date. When accessing information captured in the past, the step of acquiring the imaging information using the thumbnail corresponds to the thumbnail reference step, and the step of referring to the individual image based on the thumbnail information referred by the user is the individual image reference. Corresponds to the stage.

第1の撮像記録段階において、位置情報取得部234によって現在位置を取得する。次いで、カメラで撮影を行う。この場合、静止画、あるいは動画であってもかまわない。次いで、姿勢検出部232によって、撮像した方向情報を取得する。次いで、撮像処理部226によって、撮像した情報に、ファイル名称(通し番号等)を付与するとともに、(1)撮影日、(2)撮影時刻、(3)撮影方向、(4)撮影位置 に関する情報を付加する。次いで、ユーザがモーションコントローラ204によりモーションを与え、それによるキー操作情報を通信部228が受信する。次いで、通信部228によって、モーションコントローラ204のキー操作情報を取得し、制御部224が、取得した情報が『送信指示』であることを解析する。次いで、ファイル名称及び撮影に関する情報を付加した撮像情報に、端末識別情報保持部230によりID番号をさらに付加して、通信部236を介して情報提供装置208に撮像情報を送信する。次いで、情報提供装置208側において、通信部402が送信された撮像情報を受信し、撮像情報記録部406に受信した撮像情報を記録する。これにより、撮像情報を情報提供装置208側に記録することが可能となる。 In the first imaging / recording stage, the current position is acquired by the position information acquisition unit 234. Next, photographing is performed with a camera. In this case, it may be a still image or a moving image. Next, the orientation detection unit 232 acquires the captured direction information. Next, the imaging processing unit 226 gives a file name (serial number, etc.) to the captured information, and (1) the shooting date, (2) the shooting time, (3) the shooting direction, and (4) the information about the shooting position. Append. Next, the user gives a motion using the motion controller 204, and the key operation information is received by the communication unit 228. Next, the key operation information of the motion controller 204 is acquired by the communication unit 228, and the control unit 224 analyzes that the acquired information is a “transmission instruction”. Next, an ID number is further added by the terminal identification information holding unit 230 to the imaging information to which the information related to the file name and shooting is added, and the imaging information is transmitted to the information providing device 208 via the communication unit 236. Next, on the information providing apparatus 208 side, the communication unit 402 receives the transmitted imaging information, and records the received imaging information in the imaging information recording unit 406. As a result, the imaging information can be recorded on the information providing apparatus 208 side.

図12に、記録された撮像情報の例を示す。画像情報が、端末ID、撮像ID、撮像日、撮影時刻、撮像位置及び撮像方向と関連付けて、記録されている。撮像位置は、経緯度で特定し、撮像方向は、真北を0度として、時計回りの角度で方向を定めている。
次に、第2のサムネイル参照段階において、まず、ユーザがモーションコントローラ204によりモーションを与え、それによるキー操作情報を通信部228が受信する。次いで、制御部224が、受信した情報が『撮像ファイル一覧の呼び出し』であることを解析する。次いで、位置情報取得部234が、現在位置を取得する。次いで、制御部224が、端末識別情報保持部230による端末識別情報と、取得した現在位置情報とを通信部236を介して情報提供装置208に送信する。次いで、情報提供装置208側において、通信部402により受信した情報にしたがって、サムネイル生成部により画像サムネイル情報を生成する。次いで、通信部402が生成された画像サムネイル情報を情報表示装置206に送信する。次いで、情報表示装置206側において、通信部236が、画像サムネイル情報を受信する。次いで、受信した画像サムネイル情報をサムネイル情報保持部238に格納する。次いで、姿勢検出部232が、現在の方向を検出する。次いで、検出した現在の方向に基づいて、表示制御部222が、格納された画像サムネイル情報から表示画像を生成する。次いで、生成された表示画像を透視型ディスプレイ212に画像表示する。
FIG. 12 shows an example of recorded imaging information. Image information is recorded in association with a terminal ID, an imaging ID, an imaging date, an imaging time, an imaging position, and an imaging direction. The imaging position is specified by longitude and latitude, and the imaging direction is determined by a clockwise angle with true north as 0 degree.
Next, in the second thumbnail reference stage, first, the user gives a motion by the motion controller 204, and the key operation information is received by the communication unit 228. Next, the control unit 224 analyzes that the received information is “calling of imaging file list”. Next, the position information acquisition unit 234 acquires the current position. Next, the control unit 224 transmits the terminal identification information by the terminal identification information holding unit 230 and the acquired current position information to the information providing apparatus 208 via the communication unit 236. Next, on the information providing apparatus 208 side, image thumbnail information is generated by the thumbnail generation unit in accordance with the information received by the communication unit 402. Next, the image thumbnail information generated by the communication unit 402 is transmitted to the information display device 206. Next, on the information display device 206 side, the communication unit 236 receives image thumbnail information. Next, the received image thumbnail information is stored in the thumbnail information holding unit 238. Next, the posture detection unit 232 detects the current direction. Next, based on the detected current direction, the display control unit 222 generates a display image from the stored image thumbnail information. Next, the generated display image is displayed on the perspective display 212.

ここで、情報提供装置208側におけるサムネイル情報の生成について、さらに詳細に説明する。まず、通信部402が、端末識別情報と、現在位置情報とを受信した後に、現在位置情報に基づいて、対象画像特定部408が、現在位置から所定範囲(たとえば、半径200m以内)の画像すべてを特定する。図13に、特定された画像のリストを示す。端末IDおよび現在位置情報をそれぞれ、001および特許庁正門前とした場合、画像ID、撮像日、撮像時刻、撮像位置及び撮像方向の各項目が特定され、特に撮像位置については、経緯度等数値化された位置に基づいて特定されている。たとえば、画像ID002と画像ID003とでは、撮像位置が同じ特許庁正門前であるが、撮像方向が前者では270度、後者では180度であることから、撮像されている被撮像物の画像は異なる。次いで、距離演算部418が、現在位置情報と、撮像情報に関連付けられた位置情報とに基づき、距離を演算処理する。より詳細には、現在位置と、図12に示された撮像情報に関連付けられた撮像位置とを用いて、その距離を演算する。次いで、演算した距離に基づいて、対象画像特定部408により特定された対象画像について、画像圧縮処理部416が、所定のピクセルサイズ(原画像の3ないし5%)の画像圧縮処理を行う。次いで、画像圧縮処理部416は、図14に示すように、さらに画像の圧縮を行う。なお、この圧縮処理は、現画像の圧縮と同時に行ってもよいし、あるいは後処理で行ってもよい。 Here, generation of thumbnail information on the information providing apparatus 208 side will be described in more detail. First, after the communication unit 402 receives the terminal identification information and the current position information, the target image specifying unit 408 determines that all images within a predetermined range (for example, within a radius of 200 m) from the current position based on the current position information. Is identified. FIG. 13 shows a list of identified images. When the terminal ID and current position information are 001 and in front of the JPO main gate, each item of image ID, shooting date, shooting time, shooting position, and shooting direction is specified. It is specified based on the converted position. For example, the image ID 002 and the image ID 003 are in front of the front gate of the Patent Office with the same imaging position, but the imaging direction is 270 degrees in the former and 180 degrees in the latter. . Next, the distance calculation unit 418 calculates the distance based on the current position information and the position information associated with the imaging information. More specifically, the distance is calculated using the current position and the imaging position associated with the imaging information shown in FIG. Next, based on the calculated distance, the image compression processing unit 416 performs image compression processing of a predetermined pixel size (3 to 5% of the original image) on the target image specified by the target image specifying unit 408. Next, the image compression processing unit 416 further compresses the image as shown in FIG. This compression process may be performed simultaneously with the compression of the current image, or may be performed by post-processing.

より詳細には、図14は、先に演算した対象画像と現在位置との距離、すなわち現在位置からの半径に応じて、圧縮後のファイルサイズのさらなる圧縮率を定めており、半径が大きくなるほど、圧縮率を上げてより小さくし、透視型ディスプレイ212に表示した際、遠近感を表現できるようにしている。この点、透視型ディスプレイ212に表示されるそれぞれのサムネイル情報が、被撮像物との距離に応じてその表示上の大きさが決められている点において、自己位置情報と引き換えに取得したサムネイル情報が、実風景中の被撮像物と関連付けられてディスプレイ212上に表示されていることになる。なお、図14において、半径が51m以上の場合には、圧縮率1%とする代わりに、・(ドット)等の代替画像を用いるのでもよい。 More specifically, FIG. 14 defines a further compression ratio of the file size after compression in accordance with the distance between the target image calculated previously and the current position, that is, the radius from the current position. When the compression ratio is increased to be smaller and displayed on the perspective display 212, a perspective can be expressed. In this regard, the thumbnail information displayed on the perspective display 212 is obtained in exchange for the self-position information in that the display size is determined according to the distance to the object to be imaged. Is displayed on the display 212 in association with the object to be imaged in the actual landscape. In FIG. 14, when the radius is 51 m or more, an alternative image such as (dot) may be used instead of the compression rate of 1%.

次いで、画像表示位置特定部により、圧縮後の画像に対して、情報表示ディバイス202の透視型ディスプレイ212上での表示位置の定義を行う。表示位置の定義においては、現在の自己位置を基点とし、地球の地表面における相対的な位置関係を、図15で特定される個々の画像の座標位置(x,y)で特定するとともに、個々の画像の空間方向、すなわち鉛直方向を、乱数生成部412により生成された乱数値(z)により定義する。これにより、個々の画像の座標位置(x,y,z)が特定され、現在の自己位置を基点とした相対的な位置関係が把握される。また、空間方向の座標位置を乱数値により得ることとしたので、これら画像を透視型ディスプレイ212上において表示する際は、その位置関係をランダムにすることができ、あたかもサムネイルの個々の画像が、空間を浮遊しているかのような視覚状態を模擬できるようにしている。
次いで、マスキング処理部420が、端末識別情報に基づいて、圧縮後の画像に対して、端末識別情報で特定される以外の画像についてマスキング処理を行い、ないしは代替画像を定義する。これにより、他人の画像情報を取得した場合においても、透視型ディスプレイ212上に、画像の詳細を表示することを回避することが可能となり、プライバシーの保護をすることができる。
次いで、サムネイル情報ファイル化処理部により、以上の処理を終了したサムネイル画像群を1ファイルにまとめる。
次いで、1ファイル化したサムネイル画像群を情報表示装置206に送信する。
ここで、さらに、サムネイル情報を再生して画像表示する点について、さらに詳細に説明する。
まず、1ファイル化したサムネイル画像群を情報表示装置206のサムネイル情報保持部238に格納する。図15に、格納されるサムネイル画像群のリストを示す。図15において、サムネイル名:AAA、端末ID:001、現在位置:特許庁正門のもとで、個々の圧縮画像が端末ID、画像ID、撮像日、撮影時刻、撮像位置、および表示位置と関連付けて表示されている。次いで、画像表示指示部、或いはモーションコントローラ204により取得した『画像表示指示』情報に基づいて、姿勢検出部232が現在の姿勢方向を検出する。次いで、圧縮画像特定部246が、サムネイル情報保持部238より、検出した姿勢方向の圧縮画像を読み出す。次いで、圧縮画像の表示位置に基づいて、圧縮画像特定部246により特定した画像群を表示制御部222によりマッピング処理を行って、透視型ディスプレイ212上に表示する。
ここで、サムネイル保持部238に保持されるサムネイルナム情報は、個々の画像について、撮像された位置情報(x”,y”,z”)を有する。さらに、情報表示装置206は、サムネイル保持部238より表示すべき画像群を特定する際、自己位置(X,Y,Z)と閲覧方位を参照するようにしている。
つまり、自己位置と閲覧方位に基づき、自己の視点からの仰角方向を特定し(X1,Y1,Z1)、この仰角方向の自己位置(視点)を基点とし、透視型ディスプレイ212の表示範囲(―Xa,+ Xa)におけるサムネイル画像のすべてを特定する(特定した画像の座標範囲は、[(X1―Xa≦x”≦X1+Xa), Y1±y”,(乱数値)]である)。
このようにして特定された画像群は、それぞれの座標位置に基づいて、透視型ディスプレイ212の表示領域の座標位置と対応した位置に配される。
なお、自己の視点からの軸方向については、サムネイル情報の大小により、適宜参照を省略することとしてもよい。
以上の処理において、ユーザが向きを変える場合に備えて、姿勢検出部232による計測は時々刻々行なわれており、この姿勢方向が変わるたびに、以上の処理を実行し、その時々の閲覧方位に対するサムネイル画像の特定・表示をする。
Next, the display position of the information display device 202 on the perspective display 212 is defined for the compressed image by the image display position specifying unit. In the definition of the display position, the relative position on the earth's ground surface is specified by the coordinate position (x, y) of each image specified in FIG. The spatial direction of the image, that is, the vertical direction is defined by the random value (z) generated by the random number generation unit 412. Thereby, the coordinate position (x, y, z) of each image is specified, and the relative positional relationship based on the current self position is grasped. In addition, since the coordinate position in the spatial direction is obtained by a random value, when displaying these images on the perspective display 212, the positional relationship can be made random, as if each image of the thumbnail is The visual state as if floating in space can be simulated.
Next, based on the terminal identification information, the masking processing unit 420 performs a masking process on an image other than that specified by the terminal identification information on the compressed image, or defines an alternative image. Accordingly, even when image information of another person is acquired, it is possible to avoid displaying the details of the image on the perspective display 212, and privacy can be protected.
Next, the thumbnail information file processing unit combines the thumbnail images that have undergone the above processing into one file.
Next, the thumbnail image group into one file is transmitted to the information display device 206.
Here, the point that the thumbnail information is reproduced and the image is displayed will be described in more detail.
First, the thumbnail image group into one file is stored in the thumbnail information holding unit 238 of the information display device 206. FIG. 15 shows a list of thumbnail image groups to be stored. In FIG. 15, each compressed image is associated with a terminal ID, an image ID, an imaging date, an imaging time, an imaging position, and a display position under a thumbnail name: AAA, a terminal ID: 001, and a current position: the JPO main gate. Is displayed. Next, based on the “image display instruction” information acquired by the image display instruction unit or the motion controller 204, the posture detection unit 232 detects the current posture direction. Next, the compressed image specifying unit 246 reads out the compressed image in the detected posture direction from the thumbnail information holding unit 238. Next, based on the display position of the compressed image, the image group specified by the compressed image specifying unit 246 is subjected to mapping processing by the display control unit 222 and displayed on the perspective display 212.
Here, the thumbnail name information held in the thumbnail holding unit 238 includes captured position information (x ″, y ″, z ″) for each image. Further, the information display device 206 includes a thumbnail holding unit. When the image group to be displayed is specified from 238, the self position (X, Y, Z) and the viewing direction are referred to.
That is, based on the self position and the viewing direction, the elevation angle direction from the own viewpoint is specified (X1, Y1, Z1), and the display range (− Xa, + Xa) are all identified (the coordinate range of the identified image is [(X1-Xa ≦ x ″ ≦ X1 + Xa), Y1 ± y ″, (random value)]).
The image group specified in this way is arranged at a position corresponding to the coordinate position of the display area of the perspective display 212 based on the respective coordinate positions.
Note that reference to the axial direction from its own viewpoint may be omitted as appropriate depending on the size of the thumbnail information.
In the above processing, in preparation for the case where the user changes the orientation, measurement by the posture detection unit 232 is performed every moment, and each time this posture direction is changed, the above processing is executed and the viewing direction for the occasion is changed. Specify and display thumbnail images.

次に、第3の個別画像参照段階において、まず、ユーザがモーションコントローラ204によりモーションを与え、それによるキー操作情報を通信部228が受信する。次いで、制御部224が、受信した情報が『個別画像参照指示』であることを解析する。次いで、『個別画像参照指示』に基づいて、サムネイル情報保持部238に格納される撮像IDを特定し、特定した撮像IDを通信部236を介して情報提供装置208側に送信する。次いで、情報提供装置208側において、通信部402が撮像IDを受信し、取得した撮像IDに基づいて、撮像情報記録部406を検索し、撮像IDにより特定される実画像(静画、動画を含む)を取得する。次いで、取得した実画像情報を、通信部402を介して、情報表示装置206側に通信する。次いで、情報表示装置206側において、通信部236が実画像情報を受信した後、取得した実画像情報を実画像記録部240に格納する。次いで、格納した実画像情報に基づいて、表示制御部222が描画処理を行い、透視型ディスプレイ212に実画像を表示する。 Next, in the third individual image reference stage, first, the user gives a motion by the motion controller 204, and the key operation information is received by the communication unit 228. Next, the control unit 224 analyzes that the received information is “individual image reference instruction”. Next, based on the “individual image reference instruction”, the imaging ID stored in the thumbnail information holding unit 238 is specified, and the specified imaging ID is transmitted to the information providing apparatus 208 side via the communication unit 236. Next, on the information providing apparatus 208 side, the communication unit 402 receives the imaging ID, searches the imaging information recording unit 406 based on the acquired imaging ID, and displays an actual image (still image or moving image) specified by the imaging ID. Including). Next, the acquired real image information is communicated to the information display device 206 side via the communication unit 402. Next, on the information display device 206 side, after the communication unit 236 receives the real image information, the acquired real image information is stored in the real image recording unit 240. Next, the display control unit 222 performs a drawing process based on the stored real image information, and displays a real image on the perspective display 212.

ここで、個別画像の取捨選択段階について説明すれば、同様に、まず、ユーザがモーションコントローラ204によりモーションを与え、それによるキー操作情報を通信部228が受信する。図16を参照してより詳細に説明する。図16は、透視型ディスプレイ212上に表示されている複数のサムネイル情報を示す。個々のサムネイル情報は、丸みを帯びた閉曲線状であり、閉曲線内に、画像情報の一部(たとえば人の顔)が表示され、ユーザの取捨選択の便宜に資するために、どのような内容の画像情報かが把握できるようにしている。また、個々のサムネイル情報は、大きさ及び高さが異なり、透視型ディスプレイ212上で、複数のサムネイルが浮遊しているような印象を付与している。なお、図面上斜線が付与されているのは、マスキング処理されたサムネイル情報である。図16に示すように、マスキング処理されたサムネイル情報Aを取捨する場合には、透視型ディスプレイ212の背後(外筐体216の外側)にモーションコントローラ204をもっていき、ユーザから見て、ディスプレイ212上でモーションコントローラ204の先端で、サムネイル情報Aを横にはじくモーションを行うことにより、
サムネイル情報Aがディスプレイ212上から消えるように画像処理することができる。一方、図17は、サムネイル情報Bを選択する場合を示す図16と同様な図である。この場合、透視型ディスプレイ212の背後(外筐体216の外側)にモーションコントローラ204をもっていき、ディスプレイ212上でモーションコントローラ204の先端で、サムネイル情報Bを手前にはじくモーションを行うことにより、
サムネイル情報Bだけを選択し、ディスプレイ212上に表示するように画像処理することができる。
Here, the step of selecting individual images will be described. Similarly, first, the user gives a motion by the motion controller 204, and the key operation information by the user is received by the communication unit 228. This will be described in more detail with reference to FIG. FIG. 16 shows a plurality of pieces of thumbnail information displayed on the perspective display 212. Each thumbnail information has a rounded closed curve shape, and a part of the image information (for example, a human face) is displayed in the closed curve. The image information can be grasped. Each thumbnail information is different in size and height, and gives an impression that a plurality of thumbnails are floating on the perspective display 212. It should be noted that the hatched thumbnail information is the masked thumbnail information. As shown in FIG. 16, when discarding the masked thumbnail information A, the motion controller 204 is held behind the perspective display 212 (outside the outer casing 216), and the display 212 is viewed from the user. By performing a motion to flip the thumbnail information A horizontally at the tip of the motion controller 204,
Image processing can be performed so that the thumbnail information A disappears from the display 212. On the other hand, FIG. 17 is a diagram similar to FIG. 16 showing a case where thumbnail information B is selected. In this case, the motion controller 204 is held behind the perspective display 212 (outside the outer housing 216), and the thumbnail information B is moved forward on the display 212 at the tip of the motion controller 204,
Only thumbnail information B can be selected and image processed to be displayed on the display 212.

以上、本実施形態によれば、位置情報と関連した静画あるいは動画の画像情報を取得するのに、一旦サムネイル情報を実際の風景に関連づけて透視型ディスプレイ212上に表示する。その際、表示するサムネイル情報を実際の風景とリンクさせて図形表示するのに、ディスプレイ212上でサムネイル情報ごとに、大小あるいは高さを与えて表示するとともに、ルーペ型の情報表示ディバイス202を用いて覗き込むような使い方を採用することにより、風景中にサムネイル情報が浮遊しているような臨場感を付与することが可能である。また、浮遊するサムネイル情報をモーションコントローラ204の動きにより、あたかもディスプレイ212上に浮遊する風船を指ではじいて情報を取捨選択する嗜好性を付与し、遊び感覚を具備した情報表示ディバイス202を提供することが可能である。 As described above, according to the present embodiment, in order to acquire still or moving image information related to the position information, the thumbnail information is once displayed on the perspective display 212 in association with the actual landscape. At this time, in order to display the thumbnail information to be displayed in a linked form with the actual landscape, each thumbnail information is displayed on the display 212 with a size or a height, and a loupe type information display device 202 is used. It is possible to give a sense of realism that thumbnail information is floating in the landscape by adopting a method of peeking in. Further, the information display device 202 having a sense of play is provided by giving the user a preference to select the information by selecting the floating thumbnail information by moving the balloon floating on the display 212 with a finger by the movement of the motion controller 204. It is possible.

本発明の実施形態について、詳細に説明したが、当業者なら本発明の範囲を逸脱することなく、種々の修正あるいは変更が可能である。たとえば、本実施形態においては、表示ディスプレイ212として、透明または半透明の有機ELディスプレイ212を採用することにより、ディスプレイ212を介してユーザが視認可能な実風景中に、自己の現在位置情報と引き換えに取得した情報をオーバレイさせる形態で表示したが、それに限定されることなく、たとえば、カメラにより撮像した実風景画像をディスプレイ212上に表示し、この実風景画像に取得した情報をオーバレイさせて表示してもよい。 Although the embodiments of the present invention have been described in detail, those skilled in the art can make various modifications or changes without departing from the scope of the present invention. For example, in the present embodiment, a transparent or translucent organic EL display 212 is adopted as the display display 212, so that the actual position viewable by the user via the display 212 is exchanged with the current position information of the user. However, the present invention is not limited to this. For example, an actual landscape image captured by a camera is displayed on the display 212, and the acquired information is overlaid and displayed. May be.

本発明の第1実施形態に係る情報提供システムの概略図である。1 is a schematic diagram of an information providing system according to a first embodiment of the present invention. 本発明の第1実施形態に係る情報表示装置の概略図である。1 is a schematic view of an information display device according to a first embodiment of the present invention. 図2の演算処理部の詳細を示す概略図である。It is the schematic which shows the detail of the arithmetic processing part of FIG. 本発明の第1実施形態に係る情報提供装置の概略図である。It is the schematic of the information provision apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る表示ディスプレイに表示される画像の例である。It is an example of the image displayed on the display which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る情報提供装置を示す概略図である。It is the schematic which shows the information provision apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る情報提供装置の制御部の詳細を示す概略図である。It is the schematic which shows the detail of the control part of the information provision apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る表示ディスプレイに表示される画像の例である。It is an example of the image displayed on the display which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る情報提供システムの概略図である。It is the schematic of the information provision system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係るモーションコントローラの機能図である。It is a functional diagram of the motion controller which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報提供装置のサムネイル生成部の機能図である。It is a functional diagram of the thumbnail production | generation part of the information provision apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態において、記録された撮像情報の例を示す表である。10 is a table showing an example of recorded imaging information in the third embodiment of the present invention. 本発明の第3実施形態において、対象画像特定部が特定した画像のリストを示す。In 3rd Embodiment of this invention, the list | wrist of the image which the target image specific | specification part specified is shown. 本発明の第3実施形態において、現在位置からの半径に応じて変える画像圧縮率のリストを示す。In 3rd Embodiment of this invention, the list | wrist of the image compression rate changed according to the radius from a present position is shown. 本発明の第3実施形態において、サムネイル情報保持部に格納されるサムネイル画像群のリストを示す。In the third embodiment of the present invention, a list of thumbnail images stored in the thumbnail information holding unit is shown. 本発明の第3実施形態に係る表示ディスプレイに表示される画像の例である。It is an example of the image displayed on the display which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る表示ディスプレイに表示される画像の例である。It is an example of the image displayed on the display which concerns on 3rd Embodiment of this invention.

符号の説明Explanation of symbols

情報提供システム10
演算処理部32
入力部38
地磁気センサ51
GPS受信部48
表示側通信部
外部インタフェイス36
撮像処理部226
視線検出部
表示制御部34
現在位置算出部60
経路計算部62
経路誘導部64
マッチング処理部66
グラフィック処理部
オブジェクト識別部70
テクスチャ・アイコン情報生成部68
地図領域設定部82
データ読み込み処理部84
個別音楽情報要求部118
個別音楽情報受信部110
個別音楽情報更新部112
ユーザ要求解析部 120
音楽情報検索部 122
情報表示システム200
ルーペ型情報表示ディバイス 10
モーションコントローラ204
情報表示装置206
情報提供装置208
透視型ディスプレイ212
内筐体 214
外筐体 216
透明板218
制御部224
撮像処理部226
表示制御部224
通信部228
端末識別情報保持部230
姿勢検出部232
位置情報取得部234
通信部236
サムネイル情報保持部238
実画像記録部240
画像表示指示部242
計時部244
圧縮画像特定部246
制御部300
加速度センサ部302
キー操作定義部304
リファレンス部306
通信部308
制御部400
通信部402
サムネイル情報生成部404
撮像情報記録部406
対象画像特定部408
画像表示位置定義部410
乱数生成部412
サムネイル情報ファイル化部414
圧縮画像処理部
距離演算部418
マスキング処理部420
Information providing system 10
Arithmetic processor 32
Input unit 38
Geomagnetic sensor 51
GPS receiver 48
Display side communication unit external interface 36
Imaging processing unit 226
Gaze detection unit display control unit 34
Current position calculation unit 60
Route calculation unit 62
Route guidance unit 64
Matching processing unit 66
Graphic processing unit object identification unit 70
Texture / icon information generator 68
Map area setting unit 82
Data reading processing unit 84
Individual music information request unit 118
Individual music information receiving unit 110
Individual music information update unit 112
User request analysis unit 120
Music information search unit 122
Information display system 200
Loupe type information display device 10
Motion controller 204
Information display device 206
Information providing device 208
Perspective display 212
Inner housing 214
Outer housing 216
Transparent plate 218
Control unit 224
Imaging processing unit 226
Display control unit 224
Communication unit 228
Terminal identification information holding unit 230
Posture detection unit 232
Position information acquisition unit 234
Communication unit 236
Thumbnail information holding unit 238
Real image recording unit 240
Image display instruction unit 242
Timekeeping unit 244
Compressed image specifying unit 246
Control unit 300
Acceleration sensor unit 302
Key operation definition unit 304
Reference unit 306
Communication unit 308
Control unit 400
Communication unit 402
Thumbnail information generation unit 404
Imaging information recording unit 406
Target image specifying unit 408
Image display position definition unit 410
Random number generator 412
Thumbnail information filing unit 414
Compressed image processing unit
Distance calculation unit 418
Masking processing unit 420

Claims (8)

ユーザの位置情報に基づいて取得される情報をユーザの位置と関連付けて表示する情報表示装置において、
ユーザの現在位置を検出するための現在位置検出手段と、
ユーザの視線方向を検知するための視線方向検知手段と、
この視線方向検知手段により検知した視線に沿った実風景を撮像する撮像手段と、
この撮像手段により撮像された実風景中のオブジェクトを識別するための識別手段と、
取得した情報をユーザの視線に相当する実風景とオーバーレイさせて表示する眼鏡タイプの表示手段とを有し、
前記現在位置検出手段により検出されたユーザの位置に基づいて取得された情報を、前記識別手段により識別された実風景中のオブジェクトと関連付けて、前記表示手段に表示する、
ことを特徴とする情報表示装置。
In an information display device that displays information acquired based on user position information in association with the user position,
Current position detecting means for detecting the current position of the user;
Gaze direction detection means for detecting the user's gaze direction;
Imaging means for imaging a real landscape along the line of sight detected by the line-of-sight direction detection means;
An identification unit for identifying an object in a real landscape imaged by the imaging unit;
Glasses-type display means for displaying the acquired information in an overlay with the actual scenery corresponding to the user's line of sight;
Information acquired based on the position of the user detected by the current position detection unit is displayed on the display unit in association with the object in the real scene identified by the identification unit.
An information display device characterized by that.
前記表示手段は、透明または半透明の有機ELディスプレイであり、前記表示手段を介してユーザが視認可能な実風景に、取得した情報をオーバーレイさせて表示させる請求項1に記載の情報表示装置。     The information display device according to claim 1, wherein the display unit is a transparent or translucent organic EL display, and the acquired information is overlaid and displayed on a real landscape that is visible to the user via the display unit. 前記撮像手段により撮像した実風景画像を前記表示手段に表示し、この実風景画像に、取得した情報をオーバーレイさせて表示させる請求項1に記載の情報表示装置。 The information display apparatus according to claim 1, wherein an actual landscape image captured by the imaging unit is displayed on the display unit, and the acquired information is displayed on the actual landscape image in an overlay manner. ユーザの位置情報に基づいて取得される情報は、音楽情報であり、
実風景中のオブジェクトが音楽情報の情報源である場合に、音楽情報のタイトル情報を前記オブジェクトと関連付けて、前記表示手段に表示する、請求項1に記載の情報表示装置。
Information acquired based on the user's location information is music information,
The information display device according to claim 1, wherein when an object in a real scene is an information source of music information, title information of music information is displayed on the display unit in association with the object.
前記情報表示装置は、二輪車向けナビゲーション装置の表示ディスプレイであり、この表示ディスプレイは、二輪車運転者が着用するヘルメットのバイザーを構成し、
ユーザの位置情報に基づいて取得される情報は、ナビゲーション地図情報であり、
実風景中のオブジェクトが二輪車走行中の実風景中の道路である場合に、ナビゲーション情報を前記オブジェクトと関連付けて、前記表示手段に図形表示する、請求項1に記載の情報表示装置。
The information display device is a display display of a navigation device for two-wheeled vehicles, and this display display constitutes a visor of a helmet worn by a motorcycle driver,
Information acquired based on the user's location information is navigation map information,
The information display device according to claim 1, wherein when the object in the real landscape is a road in the real landscape while the motorcycle is running, the navigation information is associated with the object and graphically displayed on the display means.
ユーザの位置情報に基づいて取得される情報は、前記撮像手段により撮像され、圧縮され、一旦外部記憶装置に記憶された実風景に関連するサムネイル画像情報であり、
前記サムネイル画像情報を実風景と関連付けて、前記表示手段に図形表示する、請求項1に記載の情報表示装置。
Information acquired based on the user's position information is thumbnail image information related to the actual scenery that has been imaged, compressed, and temporarily stored in the external storage device.
The information display apparatus according to claim 1, wherein the thumbnail image information is displayed in a graphic form on the display unit in association with a real landscape.
前記サムネイル画像情報を図形表示するに際し、ユーザの現在位置と撮像位置との距離に応じて、図形の大きさを変化するように、前記サムネイル画像情報を実風景と関連付ける、請求項6に記載の情報表示装置。     The thumbnail image information is associated with an actual scene so that the size of the figure changes according to the distance between the current position of the user and the imaging position when displaying the thumbnail image information as a figure. Information display device. ユーザが所望する情報を表示する少なくとも1つの情報表示装置と、該情報を取得して前記情報表示装置に提供する情報提供装置と、を有する情報提供システムにおいて、
前記情報表示装置は、
ユーザの現在位置を算出する現在位置算出手段と、
該現在位置算出手段により算出した現在位置情報と、前記情報提供装置の識別情報とを、前記情報提供装置に、通信回線を通じて送信する第1送信手段と、
前記情報提供装置から送信されてきた所望の情報を受信する第1受信手段と、
ユーザの視線方向を検出するための視線方向検出手段と、
該視線方向検出手段により検出した視線に沿った実風景を撮像する撮像手段と、
該撮像手段により撮像された実風景中のオブジェクトを識別するための識別手段と、
該第1受信手段により受信した所望の情報を表示する表示手段とを有し、該表示手段は、取得した情報をユーザの視線に相当する実風景とオーバーレイさせて表示する眼鏡タイプであり、
それにより、前記位置検出手段により検出されたユーザあるいは移動体の現在位置に基づいて取得された所望の情報を、前記識別手段により識別された実風景中のオブジェクトと関連付けて、前記表示手段に表示し、
前記情報提供装置は、
所望の情報を取得する情報取得手段と、
該情報取得手段により取得した所望の情報を記憶する情報記憶手段と、
前記第1送信手段から送信された、現在位置情報と、識別情報とを受信する第2受信手段と、
前記第2受信手段により受信した現在位置情報によって特定される位置から所定範囲内にある所望の情報を前記情報記憶手段から検索する情報検索手段と、
前記情報検索手段によって検索した所望の情報を、前記第2受信手段により受信した識別情報によって特定される情報表示装置に対して、通信回線を通じて送信する第2送信手段とを、
有することを特徴とする情報提供システム。
In an information providing system having at least one information display device that displays information desired by a user, and an information providing device that acquires the information and provides the information to the information display device,
The information display device includes:
Current position calculating means for calculating the current position of the user;
First transmission means for transmitting current position information calculated by the current position calculation means and identification information of the information providing apparatus to the information providing apparatus through a communication line;
First receiving means for receiving desired information transmitted from the information providing apparatus;
Gaze direction detecting means for detecting the gaze direction of the user;
Imaging means for imaging a real landscape along the line of sight detected by the line-of-sight direction detection means;
Identification means for identifying an object in a real landscape imaged by the imaging means;
Display means for displaying the desired information received by the first receiving means, the display means is a glasses type that displays the acquired information overlaid on the actual scenery corresponding to the user's line of sight,
As a result, desired information acquired based on the current position of the user or the moving object detected by the position detection unit is displayed on the display unit in association with the object in the real scene identified by the identification unit. And
The information providing apparatus includes:
Information acquisition means for acquiring desired information;
Information storage means for storing desired information acquired by the information acquisition means;
Second receiving means for receiving current position information and identification information transmitted from the first transmitting means;
Information search means for searching the information storage means for desired information within a predetermined range from the position specified by the current position information received by the second receiving means;
Second transmission means for transmitting desired information retrieved by the information retrieval means to an information display device specified by the identification information received by the second reception means, via a communication line;
An information providing system characterized by comprising:
JP2008035485A 2008-02-18 2008-02-18 Information display device and information providing system Pending JP2009192448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008035485A JP2009192448A (en) 2008-02-18 2008-02-18 Information display device and information providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008035485A JP2009192448A (en) 2008-02-18 2008-02-18 Information display device and information providing system

Publications (1)

Publication Number Publication Date
JP2009192448A true JP2009192448A (en) 2009-08-27

Family

ID=41074582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008035485A Pending JP2009192448A (en) 2008-02-18 2008-02-18 Information display device and information providing system

Country Status (1)

Country Link
JP (1) JP2009192448A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120029229A (en) * 2010-09-16 2012-03-26 엘지전자 주식회사 Transparent display device and method for providing local information
JP2012112959A (en) * 2010-11-24 2012-06-14 Javad Gnss Inc Satellite signal multipath mitigation in gnss devices
KR20140144510A (en) * 2013-06-11 2014-12-19 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
CN104485008A (en) * 2014-12-04 2015-04-01 上海交通大学 Head-wearing type auxiliary driving system aiming at achromate
JP2015192226A (en) * 2014-03-27 2015-11-02 株式会社ゼンリンデータコム Program, information processing device, and information processing method
KR101737839B1 (en) * 2010-09-16 2017-05-19 엘지전자 주식회사 Transparent display device and method for detecting an object
CN107197153A (en) * 2017-06-19 2017-09-22 上海传英信息技术有限公司 The image pickup method and filming apparatus of a kind of photo
JP2019115072A (en) * 2019-04-01 2019-07-11 株式会社ゼンリンデータコム Program, information processing apparatus, and information processing method
JP2019175258A (en) * 2018-03-29 2019-10-10 本田技研工業株式会社 Output device
KR20200040716A (en) * 2020-04-01 2020-04-20 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20200111144A (en) * 2020-04-01 2020-09-28 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20210125465A (en) * 2020-09-18 2021-10-18 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101663619B1 (en) * 2010-09-16 2016-10-07 엘지전자 주식회사 Transparent display device and method for providing local information
KR20120029229A (en) * 2010-09-16 2012-03-26 엘지전자 주식회사 Transparent display device and method for providing local information
KR101737839B1 (en) * 2010-09-16 2017-05-19 엘지전자 주식회사 Transparent display device and method for detecting an object
JP2012112959A (en) * 2010-11-24 2012-06-14 Javad Gnss Inc Satellite signal multipath mitigation in gnss devices
KR102098277B1 (en) 2013-06-11 2020-04-07 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11194388B2 (en) 2013-06-11 2021-12-07 Samsung Electronics Co., Ltd. Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20140144510A (en) * 2013-06-11 2014-12-19 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11366516B2 (en) 2013-06-11 2022-06-21 Samsung Electronics Co., Ltd. Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP2015192226A (en) * 2014-03-27 2015-11-02 株式会社ゼンリンデータコム Program, information processing device, and information processing method
CN104485008A (en) * 2014-12-04 2015-04-01 上海交通大学 Head-wearing type auxiliary driving system aiming at achromate
CN107197153A (en) * 2017-06-19 2017-09-22 上海传英信息技术有限公司 The image pickup method and filming apparatus of a kind of photo
CN107197153B (en) * 2017-06-19 2024-03-15 上海传英信息技术有限公司 Shooting method and shooting device for photo
JP2019175258A (en) * 2018-03-29 2019-10-10 本田技研工業株式会社 Output device
US10818174B2 (en) 2018-03-29 2020-10-27 Honda Motor Co., Ltd. Output apparatus
JP2019115072A (en) * 2019-04-01 2019-07-11 株式会社ゼンリンデータコム Program, information processing apparatus, and information processing method
KR20200111144A (en) * 2020-04-01 2020-09-28 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102312601B1 (en) 2020-04-01 2021-10-15 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102159767B1 (en) 2020-04-01 2020-09-24 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20200040716A (en) * 2020-04-01 2020-04-20 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20210125465A (en) * 2020-09-18 2021-10-18 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102473669B1 (en) 2020-09-18 2022-12-06 삼성전자주식회사 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Similar Documents

Publication Publication Date Title
JP2009192448A (en) Information display device and information providing system
US10169923B2 (en) Wearable display system that displays a workout guide
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP5582548B2 (en) Display method of virtual information in real environment image
CN102473324B (en) Method for representing virtual information in real environment
US8601380B2 (en) Method and apparatus for displaying interactive preview information in a location-based user interface
JP5383930B2 (en) Method for providing information on object contained in visual field of terminal device, terminal device and computer-readable recording medium
JP6809539B2 (en) Information processing equipment, information processing methods, and programs
TW200837713A (en) Image display system, display device and display method
CN105593641A (en) Method and device for augmented display
JP2010170518A (en) Method for forming image database, navigation method, database system, mobile device for navigation, navigation system, and program for forming the image database
JP2006059136A (en) Viewer apparatus and its program
CN102985901A (en) Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
WO2015019917A1 (en) Method for retrieving local tourism information with reference to position of user
JP5780417B2 (en) In-vehicle system
US20200341273A1 (en) Method, System and Apparatus for Augmented Reality
WO2018220856A1 (en) Street viewer system
JP2005208857A (en) Method for generating image
JP4710217B2 (en) Information presenting apparatus, information presenting method, information presenting system, and computer program
CN113297510B (en) Information display method, device, equipment and storage medium
JP2010039256A (en) Display system, display method, and moving body
CN105917329B (en) Information display device and information display program
JP5951465B2 (en) Program, information terminal, server and method for determining line-of-sight area based on road information
JP5680481B2 (en) In-vehicle system