JP2012118882A - Information processing system, and control method and program thereof - Google Patents

Information processing system, and control method and program thereof Download PDF

Info

Publication number
JP2012118882A
JP2012118882A JP2010269635A JP2010269635A JP2012118882A JP 2012118882 A JP2012118882 A JP 2012118882A JP 2010269635 A JP2010269635 A JP 2010269635A JP 2010269635 A JP2010269635 A JP 2010269635A JP 2012118882 A JP2012118882 A JP 2012118882A
Authority
JP
Japan
Prior art keywords
tag
image data
computer graphics
graphics image
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010269635A
Other languages
Japanese (ja)
Other versions
JP5674441B2 (en
Inventor
Kazuhiro Sasao
和宏 笹尾
Noboru Anbara
昇 庵原
Musashi Ricardo Okamoto
武蔵リカルド 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2010269635A priority Critical patent/JP5674441B2/en
Publication of JP2012118882A publication Critical patent/JP2012118882A/en
Application granted granted Critical
Publication of JP5674441B2 publication Critical patent/JP5674441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To change a way of showing computer graphics image data associated with an object according to whether a spot viewed from the object is within a useful azimuth range or in an azimuth range other than it.SOLUTION: A portable terminal 10 detects its own position and attitude. Based upon detection results thereof, a tag management server 20 analyzes which azimuth range the portable terminal 10 belongs to when viewed from the object in a real space, and changes the computer graphics image data associated with the object that the portable terminal 10 represents.

Description

本発明は、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な技術に関するものである。   The present invention relates to a technology capable of synthesizing and presenting real-space video and computer graphics image data.

従来、「時間」、「距離」、「エアタグの種類」を指定すると、指定した条件に合致するタグのみを表示し、煩雑に表示されていたタグを整理する技術が知られている(例えば、非特許文献1参照)。   Conventionally, when “time”, “distance”, and “type of air tag” are specified, only tags that meet the specified conditions are displayed, and the tags that have been displayed complicatedly are known (for example, Non-patent document 1).

また、タグが集まっているところをユーザが長押しすると、周りのタグが吸い寄せられて、螺旋状に回り出し、奥から手前にタグが順々に回り、ユーザは気になるタグを見つけたらタップして当該タグに係る詳細を参照することができる技術が知られている(例えば、非特許文献2参照)。   In addition, when the user presses and holds the place where the tag is gathered, the surrounding tag is sucked in, spirals out, the tag rotates in order from the back to the front, and the user taps when finding the tag of interest A technique that can refer to details of the tag is known (for example, see Non-Patent Document 2).

ところで、AR(Augmented Reality)は、現実空間に情報を付加させる技術であり、現実空間に関する情報は、方位が非常に大きな意味を持つ。例えば、「日本に初めて訪れた外国人が、雷門を目印に浅草寺を探し、お参りする」といった場合、往路に至っては雷門の位置を知らせる情報(例えば、“雷門”と大きく書かれたタグ)が価値ある情報であるが、復路に至っては既に知っている情報なので、情報の価値は半減する。   By the way, AR (Augmented Reality) is a technique for adding information to the real space, and the information related to the real space has a very significant orientation. For example, in the case of “a foreigner visiting Japan for the first time looking for Sensoji Temple with Kaminarimon as a landmark and visiting,” the information that informs the location of Kaminarimon (for example, a tag that reads “Kaminarimon”) Although it is valuable information, the value of the information is halved because it is already known information when it comes back.

Sekai Camera Support Center、インターネット<http://support.sekaicamera.com/ja/service>Sekai Camera Support Center, Internet <http://support.sekaicamera.com/en/service> ふぉーんなハナシ セカイカメラのセカイを楽しむ小技、インターネット<http://plusd.itmedia.co.jp/mobile/articles/0910/01/news114.html>Fun Hanashi Seika Enjoying the Sekai Camera Sekai, the Internet <http://plusd.itmedia.co.jp/mobile/articles/0910/01/news114.html>

しかしながら、非特許文献1、2に開示された技術は何れの場合も、雷門に向けてスマートフォンを翳せば、一様に“雷門”と大きくタグが表示されてしまう。このように現実空間の映像に付加される情報は、方位によって情報の価値は変わるのに、それが考慮されないまま一様に表示されていた。   However, in any of the techniques disclosed in Non-Patent Documents 1 and 2, if the smartphone is pointed toward Kaminarimon, the tag will be uniformly displayed as “Kaminarimon”. As described above, the information added to the image in the real space is displayed uniformly without taking into consideration the value of the information depending on the direction.

そこで、本発明の目的は、オブジェクトから見て有用な方位範囲の地点であるか、そうでない方位範囲の地点であるかに応じて、当該オブジェクトに関するコンピュータグラフィックス画像データの見せ方を変えることにある。   Accordingly, an object of the present invention is to change the way in which computer graphics image data relating to an object is displayed depending on whether the point is a point of a useful azimuth range as viewed from the object or a point of a azimuth range that is not so. is there.

本発明の情報処理システムは、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムであって、前記拡張現実感提示装置の位置及び姿勢を検知する検知手段と、前記検知手段による検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第1の解析手段と、前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御手段とを有することを特徴とする。
本発明の情報処理システムの制御方法は、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法であって、前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップとを含むことを特徴とする。
本発明のプログラムは、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法をコンピュータに実行させるためのプログラムであって、前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップとをコンピュータに実行させることを特徴とする。
An information processing system according to the present invention is an information processing system including an augmented reality presentation device capable of combining and presenting a video of real space and computer graphics image data, and includes the augmented reality presentation device. Based on the detection means for detecting the position and orientation, and the detection result of the detection means, the azimuth range to which the augmented reality presentation device belongs as viewed from the position of the object in the real space corresponding to the computer graphics image data A first analysis means for analyzing, and a control means for switching the computer graphics image data to be presented in the augmented reality presentation device in accordance with an analysis result by the first analysis means. .
The control method of the information processing system of the present invention is a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting video in real space and computer graphics image data, A detection step for detecting the position and orientation of the augmented reality presentation device, and the augmented reality presentation device as seen from the position of the object in the real space corresponding to the computer graphics image data based on the detection result of the detection step Analysis step of analyzing which azimuth range belongs to, and a control step of switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step .
The program of the present invention is a program for causing a computer to execute a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data. And detecting the position and orientation of the augmented reality presentation device, and based on the detection result of the detecting step, the augmented reality as viewed from the position of the object in the real space corresponding to the computer graphics image data. An analysis step for analyzing which azimuth range the sensation presentation device belongs to, and a control step for switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step are executed by the computer It is characterized by making it.

本実施形態によれば、オブジェクトから見て有用な方位範囲の地点であるか、そうでない方位範囲の地点であるかに応じて、当該オブジェクトに関するコンピュータグラフィックス画像データの見せ方を変えることができる。   According to the present embodiment, it is possible to change the way the computer graphics image data related to the object is displayed depending on whether the point is in a useful azimuth range or not in the azimuth range. .

本発明の第1の実施形態に係るARタグ表示システムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of an AR tag display system according to a first embodiment of the present invention. 本発明の実施形態におけるタグ管理サーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the tag management server in embodiment of this invention. 本発明の実施形態における携帯端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the portable terminal in embodiment of this invention. 本発明の実施形態に係るARタグ表示システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the AR tag display system which concerns on embodiment of this invention. 本実施形態に係るARタグ表示システムの動作を具体的に説明するためのストーリーを示す図である。It is a figure which shows the story for demonstrating concretely the operation | movement of the AR tag display system which concerns on this embodiment. 図4の401、403に示す経路をユーザが携帯端末を翳しながら歩いている場合におけるARタグ表示システムの動作について説明するための図である。It is a figure for demonstrating operation | movement of the AR tag display system in case the user is walking on the route | root shown to 401, 403 of FIG. 携帯端末の画面表示例を示す図である。It is a figure which shows the example of a screen display of a portable terminal. 図4の402、404に示す経路をユーザが携帯端末を翳しながら歩いている場合におけるARタグ表示システムの動作について説明するための図である。It is a figure for demonstrating operation | movement of the AR tag display system in case the user is walking on the path | route shown by 402, 404 of FIG. 携帯端末の画面表示例を示す図である。It is a figure which shows the example of a screen display of a portable terminal. ユーザが携帯端末の画面上に表示されているタグをタップした場合に起動する処理を示すフローチャートである。It is a flowchart which shows the process started when a user taps the tag currently displayed on the screen of a portable terminal. ユーザによって設定された散歩道に基づいて、タグ管理テーブルの評価値を更新する処理を具体的に説明するための図である。It is a figure for demonstrating concretely the process which updates the evaluation value of a tag management table based on the promenade set by the user. 本発明の第3の実施形態に係るARタグ表示システムの構成を概略的に示す図である。It is a figure which shows schematically the structure of the AR tag display system which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係るAR表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the AR display system which concerns on the 3rd Embodiment of this invention. 図10のステップS1004〜S1008を具体的に説明するための図である。It is a figure for demonstrating concretely step S1004-S1008 of FIG. 本発明の第4の実施形態において使用する三次元タグの一例を説明するための図である。It is a figure for demonstrating an example of the three-dimensional tag used in the 4th Embodiment of this invention. 本発明の第4の実施形態に係るARタグ表示システムの構成を概略的に示す図である。It is a figure which shows schematically the structure of the AR tag display system which concerns on the 4th Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図1に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末10と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ20とで構成される。なお、図1においては、説明の簡単のため、携帯端末10、タグ管理サーバ20をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。   First, a first embodiment of the present invention will be described. FIG. 1 is a diagram schematically showing the configuration of an AR tag display system according to the first embodiment of the present invention. As shown in FIG. 1, the AR tag display system according to the present embodiment includes a mobile terminal 10 with a camera function possessed by a user, a tag management server 20 for managing tags displayed in combination with real-world video, Consists of. In FIG. 1, for simplicity of explanation, one mobile terminal 10 and one tag management server 20 are shown, but there may actually be an arbitrary number of each.

携帯端末10は、位置姿勢検知部101、評価受付部102及び提示部103を備える。提示部103は、タグを表すコンピュータグラフィックス画像データを、現実空間の映像と合成して表示する。即ち、携帯端末10は、カメラによって撮影された現実空間の映像を液晶ディスプレイ等に表示し、表示した現実空間の映像にコンピュータグラフィックス画像データを合成表示することにより、拡張された現実感を演出する。以下では、このように拡張された現実感を与えるコンピュータグラフィックス画像データの合成表示を、AR(Augmented Reality)表示と称することがある。   The mobile terminal 10 includes a position / orientation detection unit 101, an evaluation reception unit 102, and a presentation unit 103. The presentation unit 103 combines the computer graphics image data representing the tag with the video in the real space and displays it. That is, the mobile terminal 10 displays an image of a real space photographed by the camera on a liquid crystal display or the like, and produces an expanded sense of reality by combining and displaying computer graphics image data on the displayed real space image. To do. Hereinafter, the combined display of computer graphics image data that gives such an expanded sense of reality may be referred to as AR (Augmented Reality) display.

なお、以下で説明する実施形態においては、AR表示を行うデバイスであるAR表示デバイスの例として携帯端末型のAR表示デバイスを挙げているが、これに限られない。例えば、ユーザの頭部に装着される眼鏡型のHMD(Head Mounted Display)も適用できる。HMDは、現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データを表示することにより、拡張された現実感を演出する。また、HMDには、非透過型、ビデオ透過型、光学透過型等の様々な方式がある。合成表示(AR表示)とは、いずれかの方式によってHMDのレンズに映し出される現実空間の映像に対し、その映像に整合する位置にコンピュータグラフィックス画像データを合成表示することであって、例えば、光学透過型方式であれば、シースルーで見る現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データが合成表示され、ビデオ透過型であれば、ビデオカメラで撮影した現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データが合成表示される。その他、移動車両の運転席の視線方向に設置され、光学的に透過して映し出される現実空間の映像にコンピュータグラフィックス画像データを合成表示するようなヘッドアップディスプレイ型のAR表示デバイスであってもよい。   In the embodiment described below, a mobile terminal type AR display device is cited as an example of an AR display device that is a device that performs AR display, but is not limited thereto. For example, a glasses-type HMD (Head Mounted Display) worn on the user's head can also be applied. The HMD produces an expanded sense of reality by displaying computer graphics image data at a position that matches the video in the real space. In addition, there are various types of HMD such as non-transmission type, video transmission type, and optical transmission type. The composite display (AR display) is to display the computer graphics image data in a position matching the video with respect to the real space video displayed on the lens of the HMD by any method. If the optical transmission type is used, computer graphics image data is synthesized and displayed at a position that matches the real space image seen through, and if it is a video transmission type, the real space image taken by the video camera is displayed. The computer graphics image data is synthesized and displayed at the matching position. In addition, even a head-up display type AR display device that is installed in the line of sight of the driver's seat of a moving vehicle and displays computer graphics image data in combination with a real space image that is optically transmitted and projected. Good.

また、現実空間の映像に整合させてコンピュータグラフィックス画像データを表示させる際に、現実空間の映像中のオブジェクトとコンピュータグラフィックス画像データとの座標合わせが行われる。座標合わせの手法としては、本実施形態においては、位置姿勢検知部101が携帯端末10の位置(緯度、経度)と姿勢(方向、仰角)とを検知し、提示部103が位置及び姿勢に基づいて携帯端末10を所持するユーザが現実空間のどこを見ているかを推定し、推定した位置に整合するようにコンピュータグラフィックス画像データを合成する。   In addition, when computer graphics image data is displayed in alignment with an image in the real space, coordinates between the object in the image in the real space and the computer graphics image data are performed. As a coordinate matching method, in the present embodiment, the position / orientation detection unit 101 detects the position (latitude, longitude) and orientation (direction, elevation angle) of the mobile terminal 10, and the presentation unit 103 is based on the position and orientation. Then, it is estimated where in the real space the user holding the mobile terminal 10 is looking, and computer graphics image data is synthesized so as to match the estimated position.

評価受付部102は、携帯端末10の画面上に表示されるタグがユーザによってタップされると、その回数に応じた評価値の入力を受け付ける。例えば、ユーザによって或るタグが3回タップされると、当該タグに対する+3ポイントの評価値の入力を受け付ける。なお、タップに限定する必要はなく、ユーザの音声をマイクロフォンとAD変換器によりデジタル信号として記録し、スペクトラムアナライザなどを用いて音声解析した結果を、評価値の入力として受け付けても良い。例えば、ユーザが「雷門最高!」としゃべると、音声解析の結果とそれを自然言語処理することで、雷門に関するタグに対する+100ポイントの評価値の入力を受け付ける。その他、ユーザの位置をGPS等で計測して、ユーザが当該タグの傍を通過したか否かを判別し、通過すれば当該タグに対する+10ポイントの評価値の入力を受け付けても良い。その他、タグをユーザが凝視する行為等、タグを意識しているとする動作のパターンに応じた評価値の入力動作が考えられる。   When the tag displayed on the screen of the mobile terminal 10 is tapped by the user, the evaluation receiving unit 102 receives an input of an evaluation value corresponding to the number of times. For example, when a tag is tapped three times by the user, an input of an evaluation value of +3 points for the tag is accepted. Note that the user's voice is not necessarily limited to taps, and a user's voice may be recorded as a digital signal by a microphone and an AD converter, and a voice analysis result using a spectrum analyzer or the like may be accepted as an evaluation value input. For example, when the user speaks of “Kaminarimon best!”, An input of an evaluation value of +100 points for the tag related to Kaminarimon is accepted by processing the result of speech analysis and natural language processing. In addition, the user's position may be measured by GPS or the like to determine whether or not the user has passed by the tag, and if it passes, input of an evaluation value of +10 points for the tag may be accepted. In addition, an operation of inputting an evaluation value according to an operation pattern that the user is conscious of the tag, such as an action of the user staring at the tag, can be considered.

タグ管理サーバ20は、表示タグ解析部201、タグ表示指示部202、タグ管理テーブル203及び表示態様管理テーブル204を備える。表示タグ解析部201は、携帯端末10から位置及び姿勢を受信し、ユーザが現実空間のどのオブジェクトを見ているか解析する。そして、表示タグ解析部201は、そのオブジェクトから見てユーザがどの方位範囲に位置するかを解析し、オブジェクトのタグのタグID及び解析した方位範囲に対応する評価点をタグ管理テーブル203から取得する。表示タグ解析部201は、オブジェクトのタグのタグID、位置及び評価点をタグ表示指示部202に対して出力する。   The tag management server 20 includes a display tag analysis unit 201, a tag display instruction unit 202, a tag management table 203, and a display mode management table 204. The display tag analysis unit 201 receives the position and orientation from the mobile terminal 10 and analyzes which object in the real space the user is looking at. Then, the display tag analysis unit 201 analyzes in which azimuth range the user is located when viewed from the object, and acquires the tag ID of the tag of the object and an evaluation point corresponding to the analyzed azimuth range from the tag management table 203. To do. The display tag analysis unit 201 outputs the tag ID, position, and evaluation score of the object tag to the tag display instruction unit 202.

タグ管理テーブル203には、タグID及び位置毎に、方位範囲、評価点が管理されている。ここでいう位置とは、現実空間におけるオブジェクトの位置であり、当該オブジェクトに対応するタグが合成表示される位置でもある。また、方位範囲とは、オブジェクトの位置を基準として見た方位範囲を意味する。タグ管理サーバ20は、携帯端末10の評価受付部102から評価値を受信すると、タグ管理テーブル203の該当するレコードの評価値を更新する。   The tag management table 203 manages azimuth ranges and evaluation points for each tag ID and position. The position here is the position of the object in the real space, and is also the position where the tag corresponding to the object is displayed in a synthesized manner. The azimuth range means an azimuth range viewed with reference to the position of the object. When the tag management server 20 receives the evaluation value from the evaluation receiving unit 102 of the mobile terminal 10, the tag management server 20 updates the evaluation value of the corresponding record in the tag management table 203.

表示態様管理テーブル204は、評価点に対応する表示態様が管理されている。タグ表示指示部202は、表示タグ解析部201からタグID、位置及び評価点を取得すると、評価点に対応する表示態様を表示態様管理テーブル204から取得する。タグ表示指示部202は、タグIDに対応するコンピュータグラフィックス画像データ、位置及び表示態様を携帯端末10に対して送信する。なお、図1に示す表示態様管理テーブル204では、0から50までの評価点に対しては「小サイズ表示」が対応付けられ、51以上の評価点に対しては「大サイズ表示」が対応付けられている。他の実施形態として、0から50までの評価点に対しては「非表示」、51以上の評価点に対しては「表示」というように表示自体を制御してもよい。その他の表示態様としては、評価点が高い方を、より目立つ色や太い字体で表示する、或いは、重ねて見せる際に評価点が高い方をより前面に表示するなど、評価点に応じて目立つデザインやレイアウトに表示態様を制御してもよい。   The display mode management table 204 manages the display mode corresponding to the evaluation points. When the tag display instruction unit 202 acquires the tag ID, the position, and the evaluation score from the display tag analysis unit 201, the tag display instruction unit 202 acquires the display mode corresponding to the evaluation point from the display mode management table 204. The tag display instruction unit 202 transmits the computer graphics image data, position, and display mode corresponding to the tag ID to the mobile terminal 10. In the display mode management table 204 shown in FIG. 1, “small size display” is associated with evaluation points from 0 to 50, and “large size display” is associated with 51 or more evaluation points. It is attached. As another embodiment, the display itself may be controlled such that “not displayed” is given to evaluation points from 0 to 50, and “displayed” is given to 51 or more evaluation points. As other display modes, the one with a higher evaluation score is displayed in a more prominent color or bold font, or the one with a higher evaluation score is displayed in front in a superimposed manner, depending on the evaluation score. The display mode may be controlled by design or layout.

携帯端末10の提示部103は、コンピュータグラフィックス画像データ、位置及び表示態様を受信すると、コンピュータグラフィックス画像データをその表示態様で現実空間の映像に合成表示する。即ち、「小サイズ表示」の表示態様であれば、提示部103はコンピュータグラフィックス画像データを小サイズで表示し、「大サイズ表示」の表示態様であれば、提示部103はコンピュータグラフィックス画像データを大サイズで表示する。なお、携帯端末10にキャッシュ(高速な記憶装置)機能を備え、上記タグ表示指示部202が携帯端末10に対して送信したコンピュータグラフィックス画像データ等をキャッシュして、処理の高速化を図ってもよい。この場合、提示部103は、キャッシュよりコンピュータグラフィックス画像データ、位置及び表示態様等を受信し、コンピュータグラフィックス画像データをその表示態様で現実空間の映像に合成表示する。   When receiving the computer graphics image data, the position, and the display mode, the presentation unit 103 of the mobile terminal 10 synthesizes and displays the computer graphics image data on the real space video in the display mode. That is, if the display mode is “small size display”, the presentation unit 103 displays the computer graphics image data in a small size. If the display mode is “large size display”, the presentation unit 103 displays the computer graphics image data. Display data in large size. The mobile terminal 10 has a cache (high-speed storage device) function, and the computer graphics image data transmitted from the tag display instruction unit 202 to the mobile terminal 10 is cached to speed up the processing. Also good. In this case, the presentation unit 103 receives the computer graphics image data, the position, the display mode, and the like from the cache, and synthesizes and displays the computer graphics image data on the real space video in the display mode.

図2−1は、本実施形態におけるタグ管理サーバ20のハードウェア構成を示す図である。図2−1において、CPU12101は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM12102或いはHDD12105には、CPU12101の制御プログラムであるオペレーティングシステム(OS)や、後述する各種機能を実現するためのプログラムが記憶されている。RAM12103は、CPU12101の主メモリ、ワークエリア、一時退避領域等として機能する。通信I/Fコントローラ12104は、ネットワークを介して外部機器(例えば、携帯端末10)との通信制御処理を実行する。なお、HDD12105の代替手段として、SDD(Solid State Drive)を用いてもよい。   FIG. 2A is a diagram illustrating a hardware configuration of the tag management server 20 in the present embodiment. In FIG. 2A, the CPU 12101 comprehensively controls each device and controller connected to the system bus. The ROM 12102 or the HDD 12105 stores an operating system (OS) that is a control program for the CPU 12101 and programs for realizing various functions described below. The RAM 12103 functions as a main memory, work area, temporary save area, and the like for the CPU 12101. The communication I / F controller 12104 executes communication control processing with an external device (for example, the mobile terminal 10) via a network. As an alternative to the HDD 12105, SDD (Solid State Drive) may be used.

図2−2は、本実施形態における携帯端末10のハードウェア構成を示す図である。図2−2において、CPU12201は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM12202には、CPU12201の制御プログラムであるOSや、後述する各種機能を実現するためのプログラムが記憶されている。RAM12203は、CPU12201の主メモリ、ワークエリア、一時退避領域等として機能する。通信I/Fコントローラ12204は、ネットワークを介して外部機器(例えば、タグ管理サーバ20)との通信制御処理を実行する。ディスプレイコントローラ12205は、ディスプレイ12206における画像表示を制御する。   FIG. 2-2 is a diagram illustrating a hardware configuration of the mobile terminal 10 in the present embodiment. In FIG. 2B, the CPU 12201 comprehensively controls each device and controller connected to the system bus. The ROM 12202 stores an OS that is a control program for the CPU 12201 and programs for realizing various functions described below. The RAM 12203 functions as a main memory, work area, temporary save area, and the like for the CPU 12201. The communication I / F controller 12204 executes communication control processing with an external device (for example, the tag management server 20) via a network. A display controller 12205 controls image display on the display 12206.

図3は、本実施形態に係るARタグ表示システムの処理の流れを示すフローチャートである。以下、図1及び図3を参照しながら、本実施形態に係るARタグ表示システムの処理について説明する。   FIG. 3 is a flowchart showing a process flow of the AR tag display system according to the present embodiment. Hereinafter, the process of the AR tag display system according to the present embodiment will be described with reference to FIGS. 1 and 3.

携帯端末10の位置姿勢検知部101は、携帯端末10の位置及び姿勢を検知する(ステップS301)。次に、携帯端末10は、位置姿勢検知部101によって検知された位置及び姿勢をタグ管理サーバ20に対して送信する(ステップS302)。   The position / orientation detection unit 101 of the mobile terminal 10 detects the position and orientation of the mobile terminal 10 (step S301). Next, the mobile terminal 10 transmits the position and orientation detected by the position and orientation detection unit 101 to the tag management server 20 (step S302).

タグ管理サーバ20は、携帯端末10から位置及び姿勢を受信する(ステップS303)。次に、タグ管理サーバ20の表示タグ解析部201は、上記位置及び姿勢に基づいて、携帯端末10を所持するユーザがどのオブジェクトを見ているかを解析する。そして、表示タグ解析部201は、オブジェクトから見てユーザがどの方位範囲に位置するかを解析し、オブジェクトのタグのタグID及び当該方位範囲に対応する評価点をタグ管理テーブル203から取得し、タグID、位置及び評価点をタグ表示指示部202に対して出力する(ステップS304)。   The tag management server 20 receives the position and orientation from the mobile terminal 10 (step S303). Next, the display tag analysis unit 201 of the tag management server 20 analyzes which object the user holding the mobile terminal 10 is looking at based on the position and orientation. Then, the display tag analysis unit 201 analyzes in which azimuth range the user is located when viewed from the object, acquires the tag ID of the tag of the object and the evaluation point corresponding to the azimuth range from the tag management table 203, The tag ID, position, and evaluation score are output to the tag display instruction unit 202 (step S304).

次に、タグ表示指示部202は、表示タグ解析部201からタグID、位置及び評価点を取得し、評価点に対応する表示態様を表示態様管理テーブル204から取得する(ステップS305)。タグ表示指示部202は、タグIDに対応するコンピュータグラフィックス画像データ、位置及び表示態様を携帯端末10に対して送信する(ステップS306)。   Next, the tag display instruction unit 202 acquires a tag ID, a position, and an evaluation score from the display tag analysis unit 201, and acquires a display mode corresponding to the evaluation score from the display mode management table 204 (step S305). The tag display instruction unit 202 transmits the computer graphics image data, the position, and the display mode corresponding to the tag ID to the mobile terminal 10 (step S306).

携帯端末10は、タグ管理サーバ20から、コンピュータグラフィックス画像データ、位置及び表示態様を受信する(ステップS307)。次に、携帯端末10の提示部103は、その表示態様でコンピュータグラフィックス画像データを現実空間の映像に合成表示する(ステップS308)。   The mobile terminal 10 receives the computer graphics image data, the position, and the display mode from the tag management server 20 (step S307). Next, the presentation unit 103 of the mobile terminal 10 displays the computer graphics image data in a composite manner on the real space video in the display mode (step S308).

以下、具体的なストーリーを例に挙げて、本実施形態に係るARタグ表示システムの動作を具体的に説明する。ここで例に挙げるストーリーは、「ユーザは、浅草駅から雷門を目印に浅草寺に向かい、浅草寺でお参りをした後、仲見世通りにある「雷おこし本舗」にてお土産を買って、浅草駅に帰る」である。図4は、当該ストーリーにおけるユーザの経路を示す図である。図4の401及び402は、当該ストーリーの往路の一部を示しており、403及び404は、当該ストーリーの復路の一部を示している。図4の401は、浅草駅から雷門の近くの地点Aまでの経路である。図4の402は、雷門をくぐって雷おこし本舗の近くの地点Bまでの経路である。図4の403は、浅草寺から雷おこし本舗の近くの地点Cまでの経路である。図4の404は、雷おこし本舗から雷門の近くの地点Dまでの経路である。   Hereinafter, the operation of the AR tag display system according to the present embodiment will be specifically described by taking a specific story as an example. The story given here is, for example, “Users go to Sensoji Temple from Asakusa Station with Kaminarimon as a landmark, visit them at Sensoji Temple, then buy souvenirs at“ Raikanoshi Honpo ”on Nakamise Street and return to Asakusa Station. Is. FIG. 4 is a diagram illustrating a route of the user in the story. In FIG. 4, 401 and 402 indicate a part of the outward path of the story, and 403 and 404 indicate a part of the return path of the story. 401 in FIG. 4 is a route from Asakusa Station to point A near Kaminarimon. Reference numeral 402 in FIG. 4 denotes a route from the Kaminarimon to point B near the main thunder-raising main office. 403 in FIG. 4 is a route from Sensoji Temple to the point C near the lightning wake main office. 404 of FIG. 4 is a path | route from the lightning origin main office to the point D near Kaminarimon.

先ず、図5−1を参照しながら、図4の401に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図5−1(a)に示すように、ユーザが携帯端末10を翳しながら雷門付近の地点Aまで歩いてくると、表示タグ解析部201は、携帯端末10が地点Aに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、ユーザが携帯端末10の画面上で雷門を閲覧しており、且つ、ユーザが雷門の位置(x1,y1)から見て1°〜90°の方位範囲に位置することを解析し、タグ管理テーブル203から該当するレコードの評価点を取得する。 First, the operation of the AR tag display system when the user is walking along the route indicated by 401 in FIG. 4 while holding the mobile terminal 10 will be described with reference to FIG. As shown in FIG. 5A, when the user walks to the point A near Kaminarimon while holding the mobile terminal 10, the display tag analysis unit 201 receives it when the mobile terminal 10 is located at the point A. The user is viewing the Kaminarimon on the screen of the portable terminal 10 based on the position and orientation of the portable terminal 10 and the user sees 1 ° to 90 ° from the Kaminarimon position (x 1 , y 1 ). And the evaluation score of the corresponding record is acquired from the tag management table 203.

図5−1(b)は、タグ管理テーブル203の関連個所を抜粋した図である。表示タグ解析部201は、携帯端末10から受信した携帯端末10の位置及び姿勢に基づいて、ユーザが携帯端末10の画面上でどのオブジェクトをどの方位範囲から見ているかを解析し、その解析結果に該当するレコードの評価点をタグ管理テーブル203から取得する。ここでは、ユーザが見ているオブジェクトは位置(x1,y1)の雷門であり、且つ、ユーザは当該雷門のタグから見て方位範囲1°〜90°に位置する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード501の評価点+90を取得する。 FIG. 5-1 (b) is a diagram excerpting relevant portions of the tag management table 203. The display tag analysis unit 201 analyzes which object the user views from which azimuth range on the screen of the mobile terminal 10 based on the position and orientation of the mobile terminal 10 received from the mobile terminal 10, and the analysis result The evaluation score of the record corresponding to is acquired from the tag management table 203. Here, the object that the user is looking at is the Kaminarimon gate at the position (x 1 , y 1 ), and the user is located in the azimuth range 1 ° to 90 ° as seen from the tag of the Kaminarimon gate. Accordingly, the display tag analysis unit 201 acquires the evaluation score +90 of the record 501 from the tag management table 203.

表示タグ解析部201は、レコード501から取得した評価点+90、タグID“001”に対応するコンピュータグラフィックス画像データ及び位置(x1,y1)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“001”に対応するコンピュータグラフィックス画像データ、「大サイズ表示」を示す表示態様及び位置(x1,y1)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“001”に対応する雷門のタグのコンピュータグラフィックス画像データを、「大サイズ表示」の表示態様で、現実空間の位置(x1,y1)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草駅から雷門付近の地点Aに到着すると、携帯端末10の画面上において、雷門のタグのコンピュータグラフィックス画像データが大きなサイズで表示されることになる。 The display tag analysis unit 201 outputs the computer graphics image data and the position (x 1 , y 1 ) corresponding to the evaluation point +90 acquired from the record 501 and the tag ID “001” to the tag display instruction unit 202. The tag display instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “001” and the display mode and position (x 1 , y 1 ) indicating “large size display” to the mobile terminal 10. As a result, the presentation unit 103 of the mobile terminal 10 displays the computer graphics image data of the Kaminarimon tag corresponding to the tag ID “001” in the “large size display” display mode (x 1 , y 1 ) Composite display. That is, when the user arrives at the point A near Kaminarimon from Asakusa Station while holding the mobile terminal 10, the computer graphics image data of the Kaminarimon tag is displayed in a large size on the screen of the mobile terminal 10.

図5−2(a)は、ユーザが携帯端末10を翳しながら浅草駅から雷門付近の地点Aに到着した場合における携帯端末10の画面表示例を示す図である。図5−2(a)に示すように、携帯端末10の画面上では、現実空間における雷門の映像521の近傍に、雷門のタグのコンピュータグラフィックス画像データ522が大きなサイズで表示される。   FIG. 5A is a diagram illustrating a screen display example of the mobile terminal 10 when the user arrives at the point A near Kaminarimon from Asakusa Station while holding the mobile terminal 10. As shown in FIG. 5A, on the screen of the mobile terminal 10, computer graphics image data 522 of the Kaminarimon tag is displayed in a large size in the vicinity of the Kaminarimon video 521 in the real space.

次に、同じく図5−1を参照しながら、図4の403に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図5−1(a)に示すように、ユーザが携帯端末10を翳しながら雷おこし本舗から雷門付近の地点Dまで歩いてくると、ユーザは携帯端末10の画面上で位置(x1,y1)の雷門を見ており、且つ、ユーザは雷門の位置(x1,y1)から見て方位181°〜270°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Dに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ解析テーブル203から該当するレコードの評価点を取得する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード502の評価点+20を取得する。 Next, the operation of the AR tag display system when the user is walking along the route indicated by 403 in FIG. 4 while holding the mobile terminal 10 will be described with reference to FIG. As shown in FIG. 5A, when the user walks from the main office to the point D near Kaminarimon while stroking the mobile terminal 10, the user moves the position (x 1 , y 1) on the screen of the mobile terminal 10. ) And the user is located in the azimuth range of 181 ° to 270 ° from the position (x 1 , y 1 ) of the Kaminarimon. The display tag analysis unit 201 analyzes these matters based on the position and orientation of the mobile terminal 10 received when the mobile terminal 10 is located at the point D, and determines the evaluation score of the corresponding record from the tag analysis table 203. get. Accordingly, the display tag analysis unit 201 acquires the evaluation score +20 of the record 502 from the tag management table 203.

表示タグ解析部201は、レコード502から取得した評価点+20、タグID“001”に対応するコンピュータグラフィックス画像データ及び位置(x1,y1)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“001”に対応するコンピュータグラフィックス画像データ、「小サイズ表示」を示す表示態様及び位置(x1,y1)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“001”に対応する雷門のタグのコンピュータグラフィックス画像データを「小サイズ表示」の表示態様で、現実空間の位置(x1,y1)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草寺から雷付近の地点Dに到着すると、携帯端末10の画面上において、雷門のタグのコンピュータグラフィックス画像データが小さなサイズで表示されることになる。 The display tag analysis unit 201 outputs the computer graphics image data and the position (x 1 , y 1 ) corresponding to the evaluation score +20 and the tag ID “001” acquired from the record 502 to the tag display instruction unit 202. The tag display instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “001” and the display mode and position (x 1 , y 1 ) indicating “small size display” to the mobile terminal 10. Thereby, the presentation unit 103 of the mobile terminal 10 displays the computer graphics image data of the Kaminarimon tag corresponding to the tag ID “001” in the display mode of “small size” in the position (x 1 , y 1 of the real space). ). That is, when the user arrives at a point D near thunder from Sensoji while holding the mobile terminal 10, the computer graphics image data of the Kaminarimon tag is displayed in a small size on the screen of the mobile terminal 10.

図5−2(b)は、ユーザが携帯端末10を翳しながら浅草寺から雷門付近の地点Dに到着した場合における携帯端末10の画面表示例を示す図である。図5−2(b)に示すように、携帯端末10の画面上では、現実空間における雷門の映像523の近傍に、雷門のタグのコンピュータグラフィックス画像データ524が小さなサイズで表示される。   FIG. 5B is a diagram illustrating a screen display example of the mobile terminal 10 when the user arrives at the point D near Kaminarimon from Sensoji while holding the mobile terminal 10. As shown in FIG. 5B, on the screen of the mobile terminal 10, computer graphics image data 524 of the Kaminarimon tag is displayed in a small size near the Kaminarimon video 523 in the real space.

次に、図6−1を参照しながら、図4の402に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図6−1(a)に示すように、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bまで歩いてくると、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗の位置(x2,y2)から見て271°〜360°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Bに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ管理テーブル203から該当するレコードの評価点を取得する。 Next, the operation of the AR tag display system when the user is walking on the route indicated by 402 in FIG. 4 while holding the mobile terminal 10 will be described with reference to FIG. As shown in FIG. 6A, when the user walks from Kaminarimon to the point B near the main office while holding the mobile terminal 10, the user moves to a position (x 2 , y 2 on the screen of the mobile terminal 10. ) And the user is located in the azimuth range of 271 ° to 360 ° when viewed from the position (x 2 , y 2 ) of the lightning main office. The display tag analysis unit 201 analyzes these matters based on the position and orientation of the mobile terminal 10 received when the mobile terminal 10 is located at the point B, and determines the evaluation score of the corresponding record from the tag management table 203. get.

図6−1(b)は、タグ管理テーブル203の関連箇所を抜粋した図である。上述したように、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗(位置(x2,y2))から見て271°〜360°の方位範囲に位置する。そのため、表示タグ解析部201は、タグ管理テーブル203からレコード601の評価点+25を取得する。 FIG. 6B is an extracted diagram of relevant portions of the tag management table 203. As described above, the user is looking at the lightning occurrence main office at the position (x 2 , y 2 ) on the screen of the mobile terminal 10, and the user is viewing 271 from the lightning occurrence main office (position (x 2 , y 2 )). Located in the azimuth range of ° to 360 °. Therefore, the display tag analysis unit 201 acquires the evaluation score +25 of the record 601 from the tag management table 203.

表示タグ解析部201は、レコード601から取得した評価点+25、タグID“002”に対応するコンピュータグラフィックス画像データ及び位置(x2,y2)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“002”に対応するコンピュータグラフィックス画像データ、「小サイズ表示」を示す表示態様及び位置(x2,y2)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、雷おこし本舗のタグのコンピュータグラフィックス画像データを、「小サイズ表示」の表示態様で、現実空間の位置(x2,y2)に合成表示する。即ち、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bに到着すると、携帯端末10の画面上において、雷おこし本舗のタグのコンピュータグラフィックス画像データが小さなサイズで表示されることになる。 The display tag analysis unit 201 outputs the computer graphics image data and the position (x 2 , y 2 ) corresponding to the evaluation score +25 acquired from the record 601 and the tag ID “002” to the tag display instruction unit 202. The tag display instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “002” and the display mode and position (x 2 , y 2 ) indicating “small size display” to the mobile terminal 10. As a result, the presentation unit 103 of the mobile terminal 10 synthesizes and displays the computer graphics image data of the tag of the lightning honpo at the position (x 2 , y 2 ) in the real space in the “small size display” display mode. That is, when the user strikes the portable terminal 10 and reaches the point B near the main office from Kaminarimon, the computer graphics image data of the tag of the main terminal is displayed in a small size on the screen of the portable terminal 10. .

図6−2(a)は、ユーザが携帯端末10を翳しながら雷門から雷おこし本舗付近の地点Bに到着した場合における携帯端末10の画面表示例を示す図である。図6−2(a)に示すように、携帯端末10の画面上では、現実空間における雷おこし本舗の映像621の近傍に、雷おこし本舗のタグのコンピュータグラフィックス画像データ622が小さなサイズで表示される。   FIG. 6A is a diagram illustrating a screen display example of the mobile terminal 10 when the user reaches the point B near the main office by thundering from Kaminarimon while holding the mobile terminal 10. As shown in FIG. 6A, on the screen of the mobile terminal 10, computer graphics image data 622 of the tag of the lightning honpo is displayed in a small size in the vicinity of the image 621 of the lightning honpo in real space. .

次に、同じく図6−1を参照しながら、図4の403に示す経路をユーザが携帯端末10を翳しながら歩いている場合におけるARタグ表示システムの動作について説明する。図6−1(a)に示すように、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cまで歩いてくると、ユーザは携帯端末10の画面上で位置(x2,y2)の雷おこし本舗を見ており、且つ、ユーザは雷おこし本舗の位置(x2,y2)から見て181°〜270°の方位範囲に位置する。表示タグ解析部201は、携帯端末10が地点Cに位置するときに受信する携帯端末10の位置及び姿勢に基づいて、これらの事項を解析し、タグ解析テーブル203から該当するレコードの評価点を取得する。従って、表示タグ解析部201は、タグ管理テーブル203からレコード602の評価点+80を取得する。 Next, the operation of the AR tag display system when the user is walking on the route indicated by 403 in FIG. 4 while holding the mobile terminal 10 will be described with reference to FIG. As shown in FIG. 6A, when the user walks from Senso-ji Temple to the point C near the main office while stroking the mobile terminal 10, the user is positioned on the screen of the mobile terminal 10 (x 2 , y 2 ) And the user is located in the azimuth range of 181 ° to 270 ° when viewed from the position (x 2 , y 2 ) of the lightning generation main office. The display tag analysis unit 201 analyzes these items based on the position and orientation of the mobile terminal 10 received when the mobile terminal 10 is located at the point C, and determines the evaluation score of the corresponding record from the tag analysis table 203. get. Therefore, the display tag analysis unit 201 acquires the evaluation score +80 of the record 602 from the tag management table 203.

表示タグ解析部201は、レコード602から参照した評価点+80、タグID“002”に対応するコンピュータグラフィックス画像データ及び位置(x2,y2)をタグ表示指示部202に対して出力する。タグ表示指示部202は、タグID“002”に対応するコンピュータグラフィックス画像データ、「大サイズ表示」を示す表示態様及び位置(x2,y2)を携帯端末10に対して送信する。これにより、携帯端末10の提示部103は、タグID“002”に対応する雷おこし本舗のタグのコンピュータグラフィックス画像データを、「大サイズ表示」の表示態様で、現実空間の位置(x2,y2)に合成表示する。即ち、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cに到着すると、携帯端末10の画面上において、雷おこし本舗のタグのコンピュータグラフィックス画像データが大きなサイズで表示されることになる。 The display tag analysis unit 201 outputs the computer graphics image data and the position (x 2 , y 2 ) corresponding to the evaluation score +80 and the tag ID “002” referenced from the record 602 to the tag display instruction unit 202. The tag display instruction unit 202 transmits the computer graphics image data corresponding to the tag ID “002”, the display mode and the position (x 2 , y 2 ) indicating “large size display” to the mobile terminal 10. Thereby, the presentation unit 103 of the mobile terminal 10 displays the computer graphics image data of the tag of the lightning honpo corresponding to the tag ID “002” in the real space position (x 2 , synthesizing displayed on the y 2). That is, when the user arrives at the point C near the main office from Senso-ji while holding the mobile terminal 10, the computer graphics image data of the tag of the main office is displayed in a large size on the screen of the mobile terminal 10. .

図6−2(b)は、ユーザが携帯端末10を翳しながら浅草寺から雷おこし本舗付近の地点Cに到着した場合における携帯端末10の画面表示例を示す図である。図6−2(b)に示すように、携帯端末10の画面上では、現実空間の雷おこし本舗の映像623の近傍に、雷おこし本舗のタグのコンピュータグラフィックス画像データ624が大きなサイズで表示される。   FIG. 6B is a diagram illustrating a screen display example of the mobile terminal 10 when the user reaches the point C near the main office by thundering from Sensoji while holding the mobile terminal 10. As shown in FIG. 6B, on the screen of the mobile terminal 10, computer graphics image data 624 of the tag of the lightning main office is displayed in a large size in the vicinity of the lightning main office image 623 in the real space. .

図7は、ユーザが携帯端末10の画面上に表示されているタグをタップした場合に起動する、評価点の設定処理を示すフローチャートである。ここで説明するユーザとは、上述した説明におけるユーザとは必ずしも一致しない。即ち、上述した説明におけるユーザは単に携帯端末10に表示されるタグを頼りにしながら街中を歩く観光者であるのに対し、図7の説明で登場するユーザとは、このような観光者に対して、各オブジェクトについてタグを表示するのに有用であると考える方位範囲を推奨する者である。   FIG. 7 is a flowchart illustrating evaluation point setting processing that is started when the user taps a tag displayed on the screen of the mobile terminal 10. The user described here does not necessarily match the user in the above description. That is, the user in the above description is a tourist who walks around the city simply relying on the tag displayed on the mobile terminal 10, whereas the user who appears in the description of FIG. Thus, it is a person who recommends an orientation range that is considered useful for displaying a tag for each object.

以下、図7を用いて、評価点の設定処理について説明する。ユーザは、携帯端末10を翳しながら歩いている際に、画面上に表示されるタグのうち、表示が有用であったと考えるタグをタップする。タグがタップされると、携帯端末10の評価受付部102は、タップされた回数を示す回数情報と、タップされたタグのタグIDと、タップされた時点において位置姿勢検知部101が検知した携帯端末10の位置及び姿勢とをタグ管理サーバ20に対して送信する(ステップS701)。   Hereinafter, the evaluation point setting process will be described with reference to FIG. The user taps a tag that is considered to be useful among tags displayed on the screen while walking while holding the mobile terminal 10. When the tag is tapped, the evaluation receiving unit 102 of the mobile terminal 10 counts the number of times tapped, the tag ID of the tapped tag, and the mobile detected by the position and orientation detection unit 101 at the time of tapping. The position and orientation of the terminal 10 are transmitted to the tag management server 20 (step S701).

タグ管理サーバ20は、携帯端末10から、回数情報とタグIDと携帯端末10の位置及び姿勢とを受信する(ステップS702)。タグ管理サーバ20は、携帯端末10の位置及び姿勢に基づいて、当該タグIDのオブジェクトから見て携帯端末10がどの方位範囲に位置するかを解析し、当該タグID及び解析した方位範囲に該当するレコードの評価点を、回数情報で示される回数分のポイントを加算する(ステップS703)。   The tag management server 20 receives the frequency information, the tag ID, and the position and orientation of the mobile terminal 10 from the mobile terminal 10 (step S702). Based on the position and orientation of the mobile terminal 10, the tag management server 20 analyzes in which azimuth range the mobile terminal 10 is located when viewed from the object of the tag ID, and corresponds to the tag ID and the analyzed azimuth range The points for the number of times indicated by the number of times information are added to the evaluation points of the record to be performed (step S703).

ユーザは、自分にとって有用であると思ったタグに対してはタップ操作を行うことにより、その時点における当該タグに対応するオブジェクトから見た携帯端末10の属する方位範囲の評価点を加算する。図4の例では、401の経路は雷門を初めて通過する経路であるため、地点Aでは雷門のタグは有用なものとして当該タグをタップする。これにより、図5−1(b)の501のレコードに示すように、評価点が高く設定されることになる。また、図4の402の経路は雷おこし本舗の近くを通過するが、雷おこし本舗は浅草寺にお参りした後に立ち寄るオブジェクトであるため、ユーザは地点Bでは雷おこし本舗のタグをタップしない。従って、図6−1(b)の601のレコードに示すように、評価点は低いままとなる。   The user performs a tap operation on a tag that is thought to be useful to the user, and thereby adds the evaluation score of the azimuth range to which the mobile terminal 10 belongs as viewed from the object corresponding to the tag at that time. In the example of FIG. 4, since the route 401 is a route that passes through Kaminarimon for the first time, the tag of Kaminarimon is tapped at point A as being useful. As a result, as shown in the record 501 in FIG. 5B, the evaluation score is set high. Further, although the route 402 in FIG. 4 passes near the lightning generator main office, the user does not tap the lightning generator main office tag at the point B because the lightning generator main office is an object that stops after visiting the Sensoji Temple. Therefore, as shown in the record 601 in FIG. 6B, the evaluation score remains low.

また、図4の402の経路は浅草寺にお参りした後に雷おこし本舗の近くを通過するものであるが、このとき、雷おこし本舗のタグは有用なものとなるので、地点Cでは雷おこし本舗のタグをタップする。これにより、図5−1(b)の502のレコードに示すように、評価点が高く設定されることになる。また、図4の404の経路は雷おこし本舗を通過して雷門に向かう経路であるが、このとき、雷門は2度目の通過であるため、地点Dでは雷門のタグをタップしない。従って、図6−1(b)のレコードに示すように、評価点は低いままとなる。   In addition, the route 402 in FIG. 4 passes near Senso-ji Temple, and passes near the lightning main office. At this time, the tag for lightning main office is useful, so tap the lightning main office tag at point C. To do. Thereby, as shown in the record 502 in FIG. 5B, the evaluation score is set high. Further, the route 404 in FIG. 4 is a route that passes through the thunderhead main office and heads for Kaminarimon. At this time, Kaminarimon is not tapped at point D because Kaminarimon is the second passage. Therefore, as shown in the record in FIG. 6B, the evaluation score remains low.

以上の評価点の設定処理を行うことにより、各オブジェクトから見て有用な方位範囲と考えられる地点では当該オブジェクトのタグを目立つように表示し、そうでないと考えられる方位範囲の地点では当該オブジェクトのタグは目立たないように表示することが可能となる。即ち、本実施形態によれば、オブジェクトから見て有用な方位範囲の地点であるかそうでない方位範囲の地点であるかに応じて、当該オブジェクトのタグの見せ方を変えることができる。   By performing the above evaluation point setting process, the tag of the object is displayed prominently at a point considered to be a useful azimuth range when viewed from each object, and at a point of the azimuth range considered to be not, the object's tag is displayed. Tags can be displayed inconspicuously. That is, according to the present embodiment, it is possible to change the way the tag of the object is displayed depending on whether the point is in a useful azimuth range as viewed from the object or not.

なお、本実施形態では、タップされた回数分、評価値のポイントを加算することについてのみ説明したが、ユーザが所定の操作を行うことにより、評価値のポイントを減算するようにしてもよい。これにより、例えば子供等には案内したくないようなオブジェクトについては、タグの表示を消極的な方向に制御することが可能となる。   In the present embodiment, only the evaluation value points are added for the number of times tapped. However, the evaluation value points may be subtracted by the user performing a predetermined operation. This makes it possible to control the tag display in a negative direction for an object that is not desired to be guided to children, for example.

また、有用なタグをタップするのではなく、ユーザが携帯端末10を操作して、そのタグを含む画像データを撮影し、タグ管理サーバ20に対して送信するようにしてもよい。タグ管理サーバ20は、携帯端末10から送信された画像データを解析することにより、携帯端末10が翳されているオブジェクトと、当該オブジェクトから見てどの方位範囲に携帯端末10が位置するかを判定し、タグ管理テーブル203の該当するレコードの評価値を更新するようにしてもよい。この場合、タグ管理サーバ20は、画像データ解析のために必要な画像マッチング用の画像データを予め準備しており、携帯端末10から受信した画像データと画像マッチング用の画像データとを照合することにより、上述した解析が行われる。   Instead of tapping a useful tag, the user may operate the mobile terminal 10 to capture image data including the tag and transmit it to the tag management server 20. The tag management server 20 analyzes the image data transmitted from the mobile terminal 10 to determine the object on which the mobile terminal 10 is deceived and in which azimuth range the mobile terminal 10 is located when viewed from the object. Then, the evaluation value of the corresponding record in the tag management table 203 may be updated. In this case, the tag management server 20 prepares image data for image matching necessary for image data analysis in advance, and collates the image data received from the mobile terminal 10 with the image data for image matching. Thus, the above-described analysis is performed.

次に、本発明の第2の実施形態について説明する。本実施形態は、ユーザがお気に入りの散歩道を設定し、設定された散歩道に従って評価点を更新するものである。なお、ここでの散歩道の設定では、携帯端末10の画面上に表示される地図情報を、オブジェクト間を結ぶようにユーザが指でなぞることにより(例えば、浅草駅→雷門→浅草寺→雷おこし本舗→浅草寺)、散歩道の経路及び進行方向を設定する。散歩道の設定方法は、その経路及び進行方向が設定できればよいため、上記の方法に限定されない。例えば、携帯端末10を所持するユーザが実際に歩いた経路及び進行方向をGPS(global positioning system)で検知し、その検知結果を散歩道として設定してもよい。また、本実施形態に係るARタグ表示システムの構成は、図1に示した構成と同様であるため、以下の説明においても図1の符号を用いるものとする。   Next, a second embodiment of the present invention will be described. In the present embodiment, a user sets a favorite walking path, and the evaluation score is updated according to the set walking path. In the setting of the walking path here, the user traces the map information displayed on the screen of the mobile terminal 10 with his / her finger so as to connect the objects (for example, Asakusa Station → Kaminarimon → Senso-ji Temple → Raikanashi Honpo → Senso-ji Temple), the path of the promenade and the direction of travel are set. The setting method of the promenade is not limited to the above method because it is only necessary to set the route and the traveling direction. For example, the route and direction of travel of the user who has the mobile terminal 10 may be detected by GPS (global positioning system), and the detection result may be set as a walking path. Further, the configuration of the AR tag display system according to the present embodiment is the same as the configuration shown in FIG. 1, and therefore, the reference numerals in FIG. 1 are used in the following description.

携帯端末10は、設定された散歩道をタグ管理サーバ20に対して送信する。タグ管理サーバ20は、受信した散歩道から、各オブジェクトについてユーザにとって有用であると推定される方位範囲には評価値を加算し、そうではないと推定される方位範囲には評価値を加算しない。   The mobile terminal 10 transmits the set walking path to the tag management server 20. The tag management server 20 adds an evaluation value to the azimuth range estimated to be useful to the user for each object from the received walking path, and does not add an evaluation value to the azimuth range estimated otherwise.

ユーザにとって有用であると推定される方位範囲とは、ユーザの経路が属する方位範囲であって、且つ、その方位範囲がユーザの進行方向とは逆の方位を含む方位範囲である。即ち、ユーザによって有用であると推定される方位範囲とは、ユーザがオブジェクトに対して近付く動きをする方位範囲である。反対に、ユーザにとって有用でないと推定される方位範囲とは、ユーザの経路が属しない方位範囲であるか、或いは、ユーザの経路が属する方位範囲であるが、その方位範囲がユーザの進行方向とは逆の方位を含まない方位範囲である。即ち、ユーザにとって有用でないと推定される方位範囲とは、ユーザがオブジェクトに対して近付く動きをしない方位範囲である。但し、同じオブジェクトを2回目以降に通過する場合には、2回目以降の通過時にはタグの表示価値は低く、2回目以降の通過時に関する有用な方位範囲の推定は行わない。   The azimuth range estimated to be useful to the user is an azimuth range to which the user's route belongs, and the azimuth range includes an azimuth opposite to the traveling direction of the user. That is, the azimuth range estimated to be useful by the user is an azimuth range in which the user moves toward the object. On the other hand, the azimuth range estimated not to be useful to the user is an azimuth range to which the user's route does not belong, or is an azimuth range to which the user's route belongs. Is an azimuth range that does not include the opposite azimuth. That is, the azimuth range estimated to be unusable for the user is an azimuth range in which the user does not move toward the object. However, when the same object passes after the second time, the display value of the tag is low at the second time and after, and a useful azimuth range for the second time and after is not estimated.

図8は、ユーザによって設定された散歩道に基づいて、タグ管理テーブル203の評価値を更新する処理を具体的に説明するための図である。上述した方位範囲の定義によれば、浅草駅から雷門へ向かう際の地点Aは、雷門から見て1°〜90°の方位範囲に位置し、且つ、この方位範囲はユーザの進行方向の逆の方位を含むため、雷門から見て1°〜90°の方位範囲は、ユーザにとって有用な方位範囲となる。   FIG. 8 is a diagram for specifically explaining the process of updating the evaluation value of the tag management table 203 based on the promenade set by the user. According to the definition of the azimuth range described above, the point A when heading from Asakusa Station to Kaminarimon is located in the azimuth range of 1 ° to 90 ° when viewed from Kaminarimon, and this azimuth range is the reverse of the user's traveling direction. Therefore, an azimuth range of 1 ° to 90 ° viewed from Kaminarimon is a useful azimuth range for the user.

また、雷門から浅草寺に向かう際の地点Bは、雷門から見て181°〜270°の方位範囲に位置するが、この方位範囲はユーザの進行方向の逆の方位を含まない。従って、雷門から見て181°〜270°の方位範囲は、ユーザにとって有用な方位範囲ではない。また、地点Bは、雷おこし本舗から見て271°〜360°の方位範囲に位置するが、この方位範囲はユーザの進行方向の逆の方位を含まない。従って、雷おこし本舗から見て271°〜360°の方位範囲も、ユーザにとって有用な方位範囲ではない。   Further, the point B when heading from Kaminarimon to Sensoji Temple is located in the azimuth range of 181 ° to 270 ° as seen from Kaminarimon, but this azimuth range does not include the opposite direction of the user's traveling direction. Therefore, the azimuth range of 181 ° to 270 ° as viewed from Kaminarimon is not a useful azimuth range for the user. Further, the point B is located in the azimuth range of 271 ° to 360 ° as viewed from the lightning occurrence main office, but this azimuth range does not include the opposite direction of the user's traveling direction. Therefore, the azimuth range of 271 ° to 360 ° as viewed from the lightning wake main office is not a useful azimuth range for the user.

浅草寺から雷おこし本舗に向かう際の地点Cは、雷おこし本舗から見て181°〜270°の方位範囲に位置し、且つ、この方位範囲はユーザの進行方向の逆の方位を含むため、雷おこし本舗から見て181°〜270°の方位範囲は、ユーザにとって有用な方位範囲となる。   The point C when heading for the thunderstorm main office from Senso-ji Temple is located in the azimuth range of 181 ° to 270 ° when viewed from the thunderstorm main office, and this azimuth range includes a direction opposite to the direction of travel of the user. The azimuth range of 181 ° to 270 ° as seen is a azimuth range useful for the user.

また、雷おこし本舗から雷門に向かう際の地点Dは、雷門は2回目以降の通過となるため、有用な方位範囲の推定は行われない。従って、図8において、雷門、雷おこし本舗の各オブジェクトについて斜線で示す方位範囲について評価値の加算が行われる。   In addition, since the Kaminarimon is the second or later passage at the point D when heading to Kaminarimon from Kaminashikoshi Honpo, a useful azimuth range is not estimated. Therefore, in FIG. 8, the evaluation values are added for the azimuth ranges indicated by the oblique lines with respect to the objects of Kaminarimon and Thunderstorm Honpo.

以上により、ユーザのお気に入りの散歩道がタグ管理テーブル203における評価値に反映される。これにより、他のユーザが上記散歩道を携帯端末10を翳しながら歩いた場合、浅草駅から雷門に向かう際の地点Aでは雷門のタグが大きく表示される傾向となる。また、浅草寺から雷おこし本舗に向かう際の地点Cでも雷おこし本舗のタグは大きく表示される傾向となる。このように本実施形態によれば、或るユーザが設定したお気に入りの散歩道から有用な方位範囲を自動的に推定し、その推定結果を他のユーザが同じような散歩道を歩いた場合のタグ表示に反映させている。   As described above, the user's favorite walking path is reflected in the evaluation value in the tag management table 203. Thereby, when another user walks while walking the portable terminal 10 on the promenade, the tag of Kaminarimon tends to be displayed at a point A when heading to Kaminarimon from Asakusa Station. In addition, the tag of the thunderstorm main office tends to be displayed greatly at the point C when heading to the thunderstorm main office from Sensoji Temple. As described above, according to the present embodiment, a useful azimuth range is automatically estimated from a favorite walking path set by a certain user, and the estimated result is displayed as a tag when another user walks on a similar walking path. It is reflected in.

次に、本発明の第3の実施形態について説明する。図9は、本発明の第3の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図9に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末110と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ120とで構成される。なお、図9においては、説明の簡単のため、携帯端末110、タグ管理サーバ120をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。また、携帯端末110、タグ管理サーバ120のハードウェア構成は図2−1、図2−2に示した構成と同様である。   Next, a third embodiment of the present invention will be described. FIG. 9 is a diagram schematically showing a configuration of an AR tag display system according to the third embodiment of the present invention. As shown in FIG. 9, the AR tag display system according to the present embodiment includes a mobile terminal 110 with a camera function possessed by a user, a tag management server 120 for managing tags displayed in combination with images in real space, Consists of. In FIG. 9, for simplicity of explanation, one mobile terminal 110 and one tag management server 120 are shown, but there may actually be an arbitrary number of each. The hardware configurations of the mobile terminal 110 and the tag management server 120 are the same as the configurations shown in FIGS.

本実施形態における携帯端末110は、位置姿勢検知部1101及び提示部1103を備える。位置姿勢検知部1101は図1の位置姿勢検知部101と同じ構成であり、提示部1103は図1の提示部103と同じ構成である。   The mobile terminal 110 according to the present embodiment includes a position / orientation detection unit 1101 and a presentation unit 1103. The position / orientation detection unit 1101 has the same configuration as the position / orientation detection unit 101 in FIG. 1, and the presentation unit 1103 has the same configuration as the presentation unit 103 in FIG.

本実施形態におけるタグ管理サーバ120は、表示タグ解析部1201、広告料金算出部1202及びタグ管理テーブル1203を備える。タグ管理テーブル1203には、現実空間における位置、タグID、方位範囲、広告提供主ID、広告料金(円/日)、広告期間が対応付けて管理されている。例えば、現実空間における位置(x3,y3)に関しては、タグID“003”とタグID“004”とが対応付けられている。即ち、位置(x3,y3)にはタグID“003”とタグID“004”との2つのタグが存在することが定義されている。 The tag management server 120 in this embodiment includes a display tag analysis unit 1201, an advertisement fee calculation unit 1202, and a tag management table 1203. In the tag management table 1203, the position in the real space, the tag ID, the azimuth range, the advertisement provider ID, the advertisement fee (yen / day), and the advertisement period are managed in association with each other. For example, for the position (x 3 , y 3 ) in the real space, the tag ID “003” and the tag ID “004” are associated with each other. That is, it is defined that there are two tags of the tag ID “003” and the tag ID “004” at the position (x 3 , y 3 ).

タグID“003”には、方位範囲1°〜180°が対応付けられている。これは、携帯端末110が位置(x3,y3)から見て方位範囲1°〜180°に位置し、且つ、携帯端末110が位置(x3,y3)側に翳されている場合、タグID“003”のタグのコンピュータグラフィックス画像データが携帯端末110上で表示されることを意味する。また、タグID“004”には、方位範囲181°〜360°が対応付けられている。これは、携帯端末110が位置(x3,y3)から見て方位範囲181°〜360°に位置し、且つ、携帯端末110が位置(x3,y3)側に翳されている場合、タグID“004”のタグのコンピュータグラフィックス画像データが携帯端末110上で表示されることを意味する。 The tag ID “003” is associated with an azimuth range of 1 ° to 180 °. This is the case where the mobile terminal 110 is located in the azimuth range of 1 ° to 180 ° when viewed from the position (x 3 , y 3 ), and the mobile terminal 110 is placed on the position (x 3 , y 3 ) side. This means that the computer graphics image data of the tag with the tag ID “003” is displayed on the portable terminal 110. The tag ID “004” is associated with an azimuth range of 181 ° to 360 °. This is when the mobile terminal 110 is located in the azimuth range 181 ° to 360 ° when viewed from the position (x 3 , y 3 ), and the mobile terminal 110 is placed on the position (x 3 , y 3 ) side. This means that the computer graphics image data of the tag with the tag ID “004” is displayed on the portable terminal 110.

例えば、携帯端末110が位置(x3,y3)から見て方位範囲1°〜180°に位置し、携帯端末110が位置(x3,y3)側に翳されているかどうかの判断は、携帯端末110の位置及び姿勢に基づいて行われる。即ち、携帯端末110の位置が位置(x3,y3)から見て方位範囲1°〜180°に属するかどうかが判定され、また、携帯端末110が位置(x3,y3)側に翳されているかどうかは、携帯端末110の位置及び姿勢から携帯端末110のカメラが現実空間の位置(x3,y3)側を向いているかどうかを判定することによって識別される。 For example, whether or not the mobile terminal 110 is located in the azimuth range of 1 ° to 180 ° when viewed from the position (x 3 , y 3 ) and the mobile terminal 110 is placed on the position (x 3 , y 3 ) side is determined. This is performed based on the position and orientation of the mobile terminal 110. That is, it is determined whether the position of the mobile terminal 110 belongs to the azimuth range of 1 ° to 180 ° when viewed from the position (x 3 , y 3 ), and the mobile terminal 110 is moved to the position (x 3 , y 3 ) side. Whether or not the user is deceived is identified by determining whether or not the camera of the mobile terminal 110 faces the position (x 3 , y 3 ) in the real space from the position and orientation of the mobile terminal 110.

表示タグ解析部1201は、携帯端末110の位置及び姿勢を携帯端末110から受信すると、携帯端末110がどの位置から見てどの方位範囲に位置し、携帯端末110が当該位置側に翳されているかを解析し、解析結果に合致するレコードをタグ管理テーブル1203から抽出する。例えば、表示タグ解析部1201は、携帯端末110が位置(x3,y3)から見て1°〜180°の方位範囲に位置し、且つ、携帯端末110が位置(x3,y3)に対して翳されていると解析した場合、タグ管理テーブル1203の最上段のレコードを抽出する。レコードを抽出すると、表示タグ解析部1201は、当該レコードにおけるタグID“003”のタグのコンピュータグラフィックス画像データを携帯端末110に対して送信する。携帯端末110は、タグID“003”のタグのコンピュータグラフィックス画像データを、現実空間の位置(x3,y3)に合成表示する。これにより、ユーザは、携帯端末10の画面上においてタグID“003”のタグを閲覧することができる。 When the display tag analysis unit 1201 receives the position and orientation of the mobile terminal 110 from the mobile terminal 110, the mobile terminal 110 is located in which azimuth range as viewed from which position, and the mobile terminal 110 is placed on the position side. And a record that matches the analysis result is extracted from the tag management table 1203. For example, in the display tag analysis unit 1201, the mobile terminal 110 is located in an azimuth range of 1 ° to 180 ° when viewed from the position (x 3 , y 3 ), and the mobile terminal 110 is located at the position (x 3 , y 3 ). When it is analyzed that the user is deceived, the topmost record in the tag management table 1203 is extracted. When the record is extracted, the display tag analysis unit 1201 transmits the computer graphics image data of the tag with the tag ID “003” in the record to the portable terminal 110. The portable terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “003” at the position (x 3 , y 3 ) in the real space. Thereby, the user can view the tag with the tag ID “003” on the screen of the mobile terminal 10.

また、タグID“003”には、広告提供主ID“aaa”が対応付けられており、タグID“004”には、広告提供主ID“bbb”が対応付けられている。これは、タグID“003”のタグは、広告提供主ID“aaa”の広告提供主による広告であり、タグID“004”のタグは、広告提供主ID“bbb”の広告提供主による広告であることを意味している。即ち、タグID“003”のタグ及びタグID“004”のタグは、携帯端末110の画面上で現実空間に合成表示されることによって、それを参照するユーザに対する広告としての機能を果たす。   The tag ID “003” is associated with the advertisement provider ID “aaa”, and the tag ID “004” is associated with the advertisement provider ID “bbb”. The tag with the tag ID “003” is an advertisement by the advertisement provider with the advertisement provider ID “aaa”, and the tag with the tag ID “004” is an advertisement by the advertisement provider with the advertisement provider ID “bbb”. It means that. That is, the tag with the tag ID “003” and the tag with the tag ID “004” are combined and displayed in the real space on the screen of the mobile terminal 110, thereby serving as an advertisement for the user who refers to the tag.

また、タグID“003”には、広告料金(円/日)“10,000”が対応付けられており、タグID“004”には、広告料金(円/日)“5,000”が対応付けられている。これは、タグID“003”のタグの1日当たりの広告料金が10,000円であり、タグID“004”のタグの1日当たりの広告料金が5,000円であることを意味する。   The tag ID “003” is associated with the advertisement fee (yen / day) “10,000”, and the tag ID “004” is associated with the advertisement fee (yen / day) “5,000”. It is associated. This means that the advertising fee per day for the tag with the tag ID “003” is 10,000 yen, and the advertising fee per day for the tag with the tag ID “004” is 5,000 yen.

また、タグID“003”には、広告期間“H22,8,1〜”が対応付けられており、タグID“004”には、広告期間“H22,8,5〜”が対応付けられている。これは、タグID“003”のタグを広告として掲載(合成表示)している期間が平成20年8月1日から現在に至るまでであることを意味し、タグID“004”のタグを広告として形成(合成表示)している期間が平成20年8月5日から現在に至るまでであることを意味する。   The tag ID “003” is associated with the advertisement period “H22, 8, 1”, and the tag ID “004” is associated with the advertisement period “H22, 8, 5”. Yes. This means that the tag ID “003” tag has been posted as an advertisement (synthesized display) from August 1, 2008 to the present, and the tag with the tag ID “004” It means that the period formed (synthesized and displayed) as an advertisement is from August 5, 2008 to the present.

広告料金算出部1202は、タグ毎或いは広告提供主毎に広告料金を算出する。タグ毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/日)と広告期間とを乗算し、タグIDをキーにして集計する。また、広告提供主毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/日)と広告期間とを乗算し、広告提供主IDをキーにして集計する。   The advertisement fee calculation unit 1202 calculates an advertisement fee for each tag or each advertisement provider. When calculating the advertisement fee for each tag, the advertisement fee calculation unit 1202 multiplies the advertisement fee (yen / day) by the advertisement period for each record in the tag management table 1203, and tabulates using the tag ID as a key. Further, when calculating the advertisement fee for each advertisement provider, the advertisement fee calculation unit 1202 multiplies the advertisement fee (yen / day) by the advertisement period for each record in the tag management table 1203, and sets the advertisement provider ID as a key. And aggregate.

図10は、本発明の第3の実施形態に係るAR表示システムの動作を示すフローチャートである。先ず携帯端末110は、携帯端末110の位置及び姿勢を検知する(ステップS1001)。次に携帯端末110は、検知した位置及び姿勢をタグ管理サーバ120に対して送信する(ステップS1002)。   FIG. 10 is a flowchart showing the operation of the AR display system according to the third embodiment of the present invention. First, the mobile terminal 110 detects the position and orientation of the mobile terminal 110 (step S1001). Next, the mobile terminal 110 transmits the detected position and orientation to the tag management server 120 (step S1002).

タグ管理サーバ120は、携帯端末110から位置及び姿勢を受信する(ステップS1003)。次にタグ管理サーバ120は、携帯端末110の位置及び姿勢に基づいて、携帯端末110がどの位置に対して翳され、また、携帯端末110が当該位置から見てどの方位範囲に位置するかを解析する(ステップS1004)。次にタグ管理サーバ120は、ステップS1004の解析結果に合致するレコードをタグ管理テーブル1203から抽出する(ステップS1005)。次にタグ管理サーバ120は、抽出した各レコードのタグIDのタグのコンピュータグラフィックス画像データ及び位置を携帯端末110に対して送信する(ステップS1006)。   The tag management server 120 receives the position and orientation from the mobile terminal 110 (step S1003). Next, based on the position and orientation of the mobile terminal 110, the tag management server 120 determines which position the mobile terminal 110 is deceived from, and in which azimuth range when the mobile terminal 110 is viewed from the position. Analysis is performed (step S1004). Next, the tag management server 120 extracts a record that matches the analysis result of step S1004 from the tag management table 1203 (step S1005). Next, the tag management server 120 transmits the computer graphics image data and the position of the tag with the tag ID of each extracted record to the portable terminal 110 (step S1006).

携帯端末110は、タグ管理サーバ120からタグのコンピュータグラフィックス画像データ及び位置を受信する(ステップS1007)。次に携帯端末110は、タグのコンピュータグラフィックス画像データを現実空間の当該位置に合成表示する(ステップS1008)。   The mobile terminal 110 receives the computer graphics image data and position of the tag from the tag management server 120 (step S1007). Next, the portable terminal 110 synthesizes and displays the computer graphics image data of the tag at the position in the real space (step S1008).

図11は、図10のステップS1004〜S1008を具体的に説明するための図である。図11において、携帯端末110が地点Gに位置し、位置(x3,y3)に向けて翳されている場合、タグ管理サーバ120の表示タグ解析部1201は、携帯端末110の位置及び姿勢から、携帯端末110が位置(x3,y3)に翳され、且つ、携帯端末110が位置(x3,y3)から見て1°〜180°の方位範囲に位置すると判定する。従って、表示タグ解析部1201は、タグ管理テーブル1203の最上段のレコードを抽出し、タグID“003”のタグのコンピュータグラフィックス画像データ及び位置(x3,y3)を携帯端末110に対して送信する。これにより、携帯端末110は、タグID“003”のタグのコンピュータグラフィックス画像データを現実空間における位置(x3,y3)に合成表示する。 FIG. 11 is a diagram for specifically explaining steps S1004 to S1008 of FIG. In FIG. 11, when the mobile terminal 110 is located at the point G and is turned toward the position (x 3 , y 3 ), the display tag analysis unit 1201 of the tag management server 120 displays the position and orientation of the mobile terminal 110. from the portable terminal 110 is held over the position (x 3, y 3), and determines that the mobile terminal 110 is located in the azimuth range of 1 ° to 180 ° as viewed from the position (x 3, y 3). Accordingly, the display tag analysis unit 1201 extracts the uppermost record of the tag management table 1203 and sends the computer graphics image data and position (x 3 , y 3 ) of the tag with the tag ID “003” to the portable terminal 110. To send. Thereby, the portable terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “003” at the position (x 3 , y 3 ) in the real space.

一方、携帯端末110が地点Hに位置し、位置(x3,y3)に向けて翳されている場合、タグ管理サーバ120の表示タグ解析部1201は、携帯端末110の位置及び姿勢から、携帯端末110が位置(x3,y3)に翳され、且つ、携帯端末110が位置(x3,y3)から見て181°〜360°の方位範囲に位置すると判定する。従って、表示タグ解析部1201は、タグ管理テーブル1203の上から2段目のレコードを抽出し、タグID“004”のタグのコンピュータグラフィックス画像データ及び位置(x3,y3)を携帯端末110に対して送信する。これにより、携帯端末110は、タグID“004”のタグのコンピュータグラフィックス画像データを現実空間における位置(x3,y3)に合成表示する。 On the other hand, when the mobile terminal 110 is located at the point H and is deceived toward the position (x 3 , y 3 ), the display tag analysis unit 1201 of the tag management server 120 uses the position and orientation of the mobile terminal 110 as follows: It is determined that the mobile terminal 110 is placed at the position (x 3 , y 3 ) and the mobile terminal 110 is located in the azimuth range of 181 ° to 360 ° when viewed from the position (x 3 , y 3 ). Therefore, the display tag analysis unit 1201 extracts the second-stage record from the top of the tag management table 1203, and stores the computer graphics image data and position (x 3 , y 3 ) of the tag with the tag ID “004” in the portable terminal. 110 is transmitted. Thereby, the mobile terminal 110 synthesizes and displays the computer graphics image data of the tag with the tag ID “004” at the position (x 3 , y 3 ) in the real space.

このように本実施形態においては、同じ位置に対して携帯端末110が翳されていても、当該位置から見てどの方位範囲から携帯端末110が翳されているかに応じて異なるタグを当該位置に合成表示させている。例えば、タグの位置から見て交通量が多い方位範囲から翳された携帯端末110には広告料金の高いタグを提示し、交通量の少ない方位範囲から翳された携帯端末110には広告料金の低いタグを提示するようにしてもよい。これにより、方位によって生じる広告効果を考慮した広告を提供することができる。   As described above, in the present embodiment, even if the mobile terminal 110 is deceived with respect to the same position, a different tag is assigned to the position depending on from which azimuth range the portable terminal 110 is deceived when viewed from the position. Composite display. For example, a tag with a high advertising fee is presented to the mobile terminal 110 deceived from an azimuth range with a large amount of traffic when viewed from the tag position, and an advertising fee is presented to a portable terminal 110 deceived from an azimuth range with a small traffic. A low tag may be presented. Thereby, it is possible to provide an advertisement in consideration of the advertisement effect caused by the direction.

次に、本発明の第4の実施形態について説明する。図12は、本発明の第4の実施形態において使用する三次元タグの一例を説明するための図である。本実施形態において、図12に示す三次元タグは現実空間における(x5,y5)の位置に合成表示される。図12(a)は、初期状態における三次元タグの状態を側面から示しており、図12(b)は、初期状態における三次元タグの状態を上方から示している。図12に示す例の三次元タグは円柱形状であり、側面に広告aのタグ、広告bのタグ、広告cのタグ、広告dのタグが配置されている。即ち、図12(b)に示すように、三次元タグの位置(x5,y5)から見て1°〜90°には広告aのタグが配置され、(x5,y5)から見て91°〜180°には広告bのタグが配置され、(x5,y5)から見て181°〜270°には広告cのタグが配置され、(x5,y5)から見て271°〜360°には広告dのタグが配置されている。 Next, a fourth embodiment of the present invention will be described. FIG. 12 is a diagram for explaining an example of a three-dimensional tag used in the fourth embodiment of the present invention. In the present embodiment, the three-dimensional tag shown in FIG. 12 is synthesized and displayed at the position (x 5 , y 5 ) in the real space. FIG. 12A shows the state of the three-dimensional tag in the initial state from the side, and FIG. 12B shows the state of the three-dimensional tag in the initial state from above. The three-dimensional tag of the example shown in FIG. 12 has a cylindrical shape, and the tag of the advertisement a, the tag of the advertisement b, the tag of the advertisement c, and the tag of the advertisement d are arranged on the side surface. That is, as shown in FIG. 12B, the tag of the advertisement a is arranged at 1 ° to 90 ° when viewed from the position (x 5 , y 5 ) of the three-dimensional tag, and from (x 5 , y 5 ) found in it 91 ° to 180 ° is arranged tag ad b, from the 181 ° to 270 ° as viewed from the (x 5, y 5) is arranged tag ad c, (x 5, y 5) A tag of the advertisement d is arranged at 271 ° to 360 ° as viewed.

三次元タグは、ユーザの1回のタップ操作毎に、位置(x5,y5)を軸に90°回転する。初期状態においては、広告aのタグが携帯端末110の画面の正面を向いており、ユーザのタップ操作の度に三次元タグが90°ずつ回転し、広告bのタグ→広告cのタグ→広告d→広告aの順で画面の正面を向くようにしている。 The three-dimensional tag rotates 90 ° about the position (x 5 , y 5 ) for each tap operation of the user. In an initial state, the tag of the advertisement a faces the front of the screen of the mobile terminal 110, and the 3D tag rotates by 90 ° every time the user performs a tap operation. The tag of the advertisement b → the tag of the advertisement c → the advertisement The front of the screen is directed in the order of d → advertisement a.

図13は、本発明の第4の実施形態に係るARタグ表示システムの構成を概略的に示す図である。図13に示すように、本実施形態に係るARタグ表示システムは、ユーザが所持するカメラ機能付き携帯端末210と、現実空間の映像に合成表示されるタグを管理するためのタグ管理サーバ220とで構成される。なお、図13においては、説明の簡単のため、携帯端末210、タグ管理サーバ220をそれぞれ一つずつ示しているが、実際にはそれぞれが任意数あって構わない。また、携帯端末210、タグ管理サーバ220のハードウェア構成は図2−1、図2−2に示した構成と同様である。   FIG. 13 is a diagram schematically showing the configuration of an AR tag display system according to the fourth embodiment of the present invention. As shown in FIG. 13, the AR tag display system according to the present embodiment includes a mobile terminal 210 with a camera function possessed by a user, a tag management server 220 for managing tags displayed in combination with real-space video, Consists of. In FIG. 13, for simplicity of explanation, one mobile terminal 210 and one tag management server 220 are shown, but there may actually be an arbitrary number of each. The hardware configurations of the mobile terminal 210 and the tag management server 220 are the same as the configurations shown in FIGS.

本実施形態における携帯端末210は、位置姿勢検知部2101及び提示部2103を備える。位置姿勢検知部2101は図1の位置姿勢検知部101と同じ構成であり、提示部2103は図1の提示部103と同じ構成である。   The mobile terminal 210 in this embodiment includes a position / orientation detection unit 2101 and a presentation unit 2103. The position / orientation detection unit 2101 has the same configuration as the position / orientation detection unit 101 in FIG. 1, and the presentation unit 2103 has the same configuration as the presentation unit 103 in FIG.

本実施形態におけるタグ管理サーバ220は、表示タグ解析部2201、広告料金算出部2202及びタグ管理テーブル2203を備える。タグ管理テーブル2203には、現実空間における位置、タグID、方位範囲、広告提供主ID、広告料金(円/回数)、参照回数が対応付けられて管理されている。現実空間における位置(x5,y5)に関しては、タグID“007”、タグID“008”、タグID“009”、タグID“010”が対応付けられている。即ち、位置(x5,y5)には、タグID“007”のタグ、タグID“008”のタグ、タグID“009”のタグ、タグID“010”のタグの4つのタグが合成表示されることが定義されている。つまり、図12に示すように、位置(x5,y5)において4つのタグ(広告aのタグ、広告bのタグ、広告cのタグ、広告dのタグ)が配置されていることを意味している。 The tag management server 220 in this embodiment includes a display tag analysis unit 2201, an advertisement fee calculation unit 2202, and a tag management table 2203. The tag management table 2203 manages the position in the real space, the tag ID, the azimuth range, the advertisement provider ID, the advertisement fee (yen / number of times), and the number of times of reference. Regarding the position (x 5 , y 5 ) in the real space, tag ID “007”, tag ID “008”, tag ID “009”, and tag ID “010” are associated with each other. That is, at the position (x 5 , y 5 ), four tags of a tag ID “007”, a tag ID “008”, a tag ID “009”, and a tag ID “010” are combined. It is defined to be displayed. That is, as shown in FIG. 12, it means that four tags (a tag for the advertisement a, a tag for the advertisement b, a tag for the advertisement c, and a tag for the advertisement d) are arranged at the position (x 5 , y 5 ). is doing.

タグ管理テーブル2203においては、第3の実施形態と同様に、位置、タグID、方位範囲、広告提供主ID、広告料金(円/回数)が管理されている。これらを管理する意義は第3の実施形態と同様である。また、タグ管理テーブル2203においては参照回数が管理されている。参照回数は、該当するタグが画面の正面を向くように表示され、ユーザによって閲覧できるようにした回数である。即ち、ユーザのタップ操作によって各タグが順次画面の正面を向くように表示される度に、夫々のタグの参照回数が加算されていく。   In the tag management table 2203, as in the third embodiment, the position, tag ID, azimuth range, advertisement provider ID, and advertisement fee (yen / number of times) are managed. The significance of managing these is the same as in the third embodiment. In the tag management table 2203, the number of references is managed. The number of times of reference is the number of times that the corresponding tag is displayed facing the front of the screen and can be viewed by the user. That is, each time the tags are displayed so as to face the front of the screen sequentially by the user's tap operation, the reference count of each tag is added.

広告料金算出部2202は、所定の期間毎、又は管理者の操作に応じて、タグ毎或いは広告提供主毎に広告料金を算出する。タグ毎に広告料金を算出する場合、広告料金算出部2202は、タグ管理テーブル2203のレコード毎に広告料金(円/回数)と参照回数とを乗算し、タグIDをキーにして集計する。また、広告提供主毎に広告料金を算出する場合、広告料金算出部1202は、タグ管理テーブル1203のレコード毎に広告料金(円/回数)と参照回数とを乗算し、広告提供主IDをキーにして集計する。   The advertisement fee calculation unit 2202 calculates an advertisement fee for each tag or each advertisement provider in accordance with a predetermined period or according to an operation of the administrator. When calculating the advertisement fee for each tag, the advertisement fee calculation unit 2202 multiplies the advertisement fee (yen / number of times) by the reference number for each record in the tag management table 2203, and tabulates using the tag ID as a key. Further, when calculating the advertisement fee for each advertisement provider, the advertisement fee calculation unit 1202 multiplies the advertisement fee (yen / count) and the reference count for each record of the tag management table 1203, and sets the advertisement provider ID as a key. And aggregate.

上述した実施形態においては、タグ管理サーバが携帯端末の位置及び姿勢に基づいて合成表示させるタグを解析していたが、この解析処理を携帯端末側に実行させるようにしてもよい。即ち、携帯端末側に、上述した表示タグ解析部、タグ表示指示部、タグ管理テーブル及び表示態様管理テーブルを備え、携帯端末が自らの位置及び姿勢に基づいて、合成表示させるタグやその表示サイズを判断すればよい。さらに、携帯端末の位置及び姿勢だけで合成表示させるタグを判定するのではなく、各オブジェクトから携帯端末までの距離に所定の閾値を設け、携帯端末からその閾値より遠い距離のオブジェクトのタグは表示させないようにしてもよい。携帯端末からあまりにも遠い位置にあるオブジェクトのタグは表示させても意味がないので、この閾値を設けることにより不要なタグを振り分けることができる。   In the embodiment described above, the tag management server analyzes the tag to be synthesized and displayed based on the position and orientation of the mobile terminal. However, the analysis process may be executed on the mobile terminal side. That is, the portable terminal is provided with the above-described display tag analysis unit, tag display instruction unit, tag management table, and display mode management table, and the tag that the portable terminal displays in combination based on its own position and orientation and its display size Can be judged. Furthermore, instead of determining a tag to be synthesized and displayed based only on the position and orientation of the mobile terminal, a predetermined threshold is set for the distance from each object to the mobile terminal, and tags for objects at a distance farther than the threshold from the mobile terminal are displayed. It may not be allowed to. Since it is meaningless to display the tag of an object that is too far away from the mobile terminal, unnecessary tags can be assigned by providing this threshold value.

上述した実施形態においては、説明の分かり易さの便宜上、位置姿勢検知部は方位角を扱っていたが、方位角だけでなく仰角を加えても良い。例えば、地磁気センサーやジャイロセンサーや画像解析等或いはそれら組み合わせによって仰角に関する情報を取得し、位置座標や方位角や仰角によって、タグの表示を制御することができる。これにより、角度によって見え難さが変わる場合を考慮した表示制御が可能になる。   In the embodiment described above, the position / orientation detection unit handles the azimuth for the sake of convenience of explanation. However, not only the azimuth but also an elevation angle may be added. For example, information on the elevation angle can be acquired by a geomagnetic sensor, a gyro sensor, image analysis, or a combination thereof, and the display of the tag can be controlled by the position coordinates, the azimuth angle, and the elevation angle. As a result, it is possible to perform display control in consideration of the case where visibility is changed depending on the angle.

10、110、210:携帯端末、20、120、220:タグ管理サーバ、101、1101、2101:位置姿勢検知部、102:評価受付部、103、1103、2103:提示部、201、1201、2201:表示タグ解析部、202:タグ表示指示部、203、1203、2203:タグ管理テーブル、204:表示態様管理テーブル、1202、2202:広告料金算出部   10, 110, 210: mobile terminal, 20, 120, 220: tag management server, 101, 1101, 2101: position and orientation detection unit, 102: evaluation reception unit, 103, 1103, 2103: presentation unit, 201, 1201, 2011 : Display tag analysis unit, 202: tag display instruction unit, 203, 1203, 2203: tag management table, 204: display mode management table, 1202, 2202: advertisement fee calculation unit

Claims (10)

現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムであって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知手段と、
前記検知手段による検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第1の解析手段と、
前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御手段とを有することを特徴とする情報処理システム。
An information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data,
Detection means for detecting the position and orientation of the augmented reality presentation device;
First analysis means for analyzing which azimuth range the augmented reality presentation device belongs to as viewed from the position of an object in the real space corresponding to the computer graphics image data, based on a detection result by the detection means;
An information processing system comprising: control means for switching the computer graphics image data to be presented in the augmented reality presentation device according to an analysis result by the first analysis means.
前記制御手段は、前記第1の解析手段による解析結果に応じて、前記コンピュータグラフィックス画像データの表示態様を切り替えることを特徴とする請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the control unit switches a display mode of the computer graphics image data according to an analysis result by the first analysis unit. 前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する第1の管理手段と、
前記拡張現実感提示装置において提示される前記コンピュータグラフィックス画像データに対する所定の操作を受け付ける受付手段と、
前記受付手段により前記コンピュータグラフィックス画像データに対する前記所定の操作を受け付けた場合、当該受付時における前記拡張現実感提示装置の位置及び姿勢に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する第2の解析手段と、
前記第2の解析手段による解析結果に応じて、前記第1の管理手段における該当する方位範囲の評価情報を更新する更新手段とを更に有し、
前記制御手段は、前記第1の解析手段による解析結果に対応する前記第1の管理手段における方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする請求項1又は2に記載の情報処理システム。
First management means for managing evaluation information for each azimuth range viewed from the position of an object in real space corresponding to the computer graphics image data;
Accepting means for accepting a predetermined operation on the computer graphics image data presented in the augmented reality presentation device;
When the predetermined operation for the computer graphics image data is received by the reception unit, the real space corresponding to the computer graphics image data is based on the position and orientation of the augmented reality presentation device at the time of the reception. Second analysis means for analyzing which azimuth range the augmented reality presentation device belongs to as viewed from the position of the object;
Update means for updating the evaluation information of the corresponding azimuth range in the first management means according to the analysis result by the second analysis means,
The control means switches the computer graphics image data to be presented in the augmented reality presentation device according to the evaluation information of the azimuth range in the first management means corresponding to the analysis result by the first analysis means. The information processing system according to claim 1 or 2, characterized in that
前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見た方位範囲毎に評価情報を管理する第2の管理手段と、
経路及び進行方向を設定する設定手段と、
前記設定手段により設定された経路及び進行方向に基づいて、前記コンピュータグラフィックス画像データに対応するオブジェクトの現実空間の位置から見て有用な方位範囲を推定する推定手段と、
前記推定手段による推定結果に応じて、前記第2の管理手段における該当する方位範囲の評価情報を更新する更新手段とを更に有し、
前記制御手段は、前記第1の解析手段による解析結果に対応する前記第2の管理手段における方位範囲の評価情報に従って、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替えることを特徴とする請求項1又は2に記載の情報処理システム。
Second management means for managing evaluation information for each azimuth range viewed from the position of an object in the real space corresponding to the computer graphics image data;
Setting means for setting a route and a traveling direction;
Estimating means for estimating a useful azimuth range when viewed from the position of the object corresponding to the computer graphics image data in the real space, based on the path and the traveling direction set by the setting means;
Updating means for updating evaluation information of the corresponding azimuth range in the second management means according to the estimation result by the estimation means;
The control means switches the computer graphics image data to be presented in the augmented reality presentation device according to the evaluation information of the azimuth range in the second management means corresponding to the analysis result by the first analysis means. The information processing system according to claim 1 or 2, characterized in that
前記制御手段は、前記第1の解析手段による解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データの種類を切り替えることを特徴とする請求項1に記載の情報処理システム。   2. The information processing according to claim 1, wherein the control unit switches a type of the computer graphics image data to be presented in the augmented reality presentation device according to an analysis result by the first analysis unit. system. 前記制御手段は、前記拡張現実感提示装置における所定の操作を受け付けることにより、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データの種類を切り替えることを特徴とする請求項1に記載の情報処理システム。   The said control means switches the kind of the said computer graphics image data shown in the said augmented reality presentation apparatus by receiving the predetermined operation in the said augmented reality presentation apparatus. Information processing system. 前記コンピュータグラフィックス画像データの種類毎に、単位期間当たりの料金と提示期間とを管理する第3の管理手段を更に有することを特徴とする請求項5に記載の情報処理システム。   6. The information processing system according to claim 5, further comprising third management means for managing a charge per unit period and a presentation period for each type of the computer graphics image data. 前記コンピュータグラフィックス画像データの種類毎に、単位提示回数当たりの料金と提示回数とを管理する第4の管理手段を更に有することを特徴とする請求項6に記載の情報処理システム。   7. The information processing system according to claim 6, further comprising fourth management means for managing a charge per unit presentation count and a presentation count for each type of the computer graphics image data. 現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法であって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、
前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、
前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップとを含むことを特徴とする情報処理システムの制御方法。
A control method for an information processing system having an augmented reality presentation device capable of combining and presenting a video of real space and computer graphics image data,
A detection step of detecting the position and orientation of the augmented reality presentation device;
Based on the detection result of the detection step, an analysis step for analyzing which azimuth range the augmented reality presentation device belongs to when viewed from the position of the object in the real space corresponding to the computer graphics image data;
And a control step of switching the computer graphics image data to be presented by the augmented reality presentation device in accordance with an analysis result of the analysis step.
現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な拡張現実感提示装置を有する情報処理システムの制御方法をコンピュータに実行させるためのプログラムであって、
前記拡張現実感提示装置の位置及び姿勢を検知する検知ステップと、
前記検知ステップによる検知結果に基づいて、前記コンピュータグラフィックス画像データに対応する現実空間のオブジェクトの位置から見て前記拡張現実感提示装置がどの方位範囲に属するか解析する解析ステップと、
前記解析ステップによる解析結果に応じて、前記拡張現実感提示装置において提示させる前記コンピュータグラフィックス画像データを切り替える制御ステップとをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a control method of an information processing system having an augmented reality presentation device capable of synthesizing and presenting real-space video and computer graphics image data,
A detection step of detecting the position and orientation of the augmented reality presentation device;
Based on the detection result of the detection step, an analysis step for analyzing which azimuth range the augmented reality presentation device belongs to when viewed from the position of the object in the real space corresponding to the computer graphics image data;
A program for causing a computer to execute a control step of switching the computer graphics image data to be presented in the augmented reality presentation device according to the analysis result of the analysis step.
JP2010269635A 2010-12-02 2010-12-02 Information processing system, control method thereof, and program Active JP5674441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010269635A JP5674441B2 (en) 2010-12-02 2010-12-02 Information processing system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010269635A JP5674441B2 (en) 2010-12-02 2010-12-02 Information processing system, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012118882A true JP2012118882A (en) 2012-06-21
JP5674441B2 JP5674441B2 (en) 2015-02-25

Family

ID=46501596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010269635A Active JP5674441B2 (en) 2010-12-02 2010-12-02 Information processing system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5674441B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141196A (en) * 2010-12-28 2012-07-26 Canon Marketing Japan Inc Navigation device, navigation system, control method, navigation method and program
WO2014038055A1 (en) * 2012-09-07 2014-03-13 日立コンシューマエレクトロニクス株式会社 Reception device
JP5580924B1 (en) * 2013-08-30 2014-08-27 ヤフー株式会社 Distribution device, terminal device, distribution method, and distribution program
CN104062759A (en) * 2013-03-22 2014-09-24 精工爱普生株式会社 Information Display System, Information Display Method, And Head Mounted Display Device
WO2015182227A1 (en) * 2014-05-30 2015-12-03 ソニー株式会社 Information processing device and information processing method
JP2019057057A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019067418A (en) * 2014-01-24 2019-04-25 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places
JPWO2020144848A1 (en) * 2019-01-11 2021-02-18 三菱電機株式会社 Authoring device, authoring method, and authoring program
JP2021077384A (en) * 2021-01-06 2021-05-20 株式会社三井住友銀行 Ar platform system, method, and program
JP7476375B2 (en) 2018-12-20 2024-04-30 キヤノン株式会社 Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003071509A1 (en) * 2002-02-25 2003-08-28 Seiko Epson Corporation Advertisement system, advertisement method, and program thereof
JP2004005753A (en) * 2003-09-11 2004-01-08 Nec Corp Three-dimensional graphics display
US20050035980A1 (en) * 2003-08-15 2005-02-17 Lonsing Werner Gerhard Method and apparatus for producing composite images which contain virtual objects
JP2005092164A (en) * 2003-09-12 2005-04-07 Ac & T:Kk Multiple-purpose electronic signboard system and distributing method of electronic signboard
JP2005108108A (en) * 2003-10-01 2005-04-21 Canon Inc Operating device and method for three-dimensional cg and calibration device for position/attitude sensor
JP2006059136A (en) * 2004-08-20 2006-03-02 Seiko Epson Corp Viewer apparatus and its program
WO2010029671A1 (en) * 2008-09-09 2010-03-18 頓智ドット株式会社 System capable of displaying virtual information added to visibility information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003071509A1 (en) * 2002-02-25 2003-08-28 Seiko Epson Corporation Advertisement system, advertisement method, and program thereof
US20050035980A1 (en) * 2003-08-15 2005-02-17 Lonsing Werner Gerhard Method and apparatus for producing composite images which contain virtual objects
JP2004005753A (en) * 2003-09-11 2004-01-08 Nec Corp Three-dimensional graphics display
JP2005092164A (en) * 2003-09-12 2005-04-07 Ac & T:Kk Multiple-purpose electronic signboard system and distributing method of electronic signboard
JP2005108108A (en) * 2003-10-01 2005-04-21 Canon Inc Operating device and method for three-dimensional cg and calibration device for position/attitude sensor
JP2006059136A (en) * 2004-08-20 2006-03-02 Seiko Epson Corp Viewer apparatus and its program
WO2010029671A1 (en) * 2008-09-09 2010-03-18 頓智ドット株式会社 System capable of displaying virtual information added to visibility information

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141196A (en) * 2010-12-28 2012-07-26 Canon Marketing Japan Inc Navigation device, navigation system, control method, navigation method and program
WO2014038055A1 (en) * 2012-09-07 2014-03-13 日立コンシューマエレクトロニクス株式会社 Reception device
JPWO2014038055A1 (en) * 2012-09-07 2016-08-08 日立マクセル株式会社 Receiver
CN104062759A (en) * 2013-03-22 2014-09-24 精工爱普生株式会社 Information Display System, Information Display Method, And Head Mounted Display Device
JP2014186434A (en) * 2013-03-22 2014-10-02 Seiko Epson Corp Information display system using head-mounted display device, information display method using head-mounted display device, and head-mounted display device
US9824496B2 (en) 2013-03-22 2017-11-21 Seiko Epson Corporation Information display system using head mounted display device, information display method using head mounted display device, and head mounted display device
JP5580924B1 (en) * 2013-08-30 2014-08-27 ヤフー株式会社 Distribution device, terminal device, distribution method, and distribution program
JP2015049694A (en) * 2013-08-30 2015-03-16 ヤフー株式会社 Distribution system, terminal device, distribution method, and distribution program
JP2019067418A (en) * 2014-01-24 2019-04-25 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places
US11854130B2 (en) 2014-01-24 2023-12-26 Interdigital Vc Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places
US20170193679A1 (en) * 2014-05-30 2017-07-06 Sony Corporation Information processing apparatus and information processing method
US10636185B2 (en) 2014-05-30 2020-04-28 Sony Corporation Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
WO2015182227A1 (en) * 2014-05-30 2015-12-03 ソニー株式会社 Information processing device and information processing method
JP2019057057A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
US11108990B2 (en) 2017-09-20 2021-08-31 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP7476375B2 (en) 2018-12-20 2024-04-30 キヤノン株式会社 Information processing device, information processing method, and program
JPWO2020144848A1 (en) * 2019-01-11 2021-02-18 三菱電機株式会社 Authoring device, authoring method, and authoring program
JP2021077384A (en) * 2021-01-06 2021-05-20 株式会社三井住友銀行 Ar platform system, method, and program
JP7116200B2 (en) 2021-01-06 2022-08-09 株式会社三井住友銀行 AR platform system, method and program

Also Published As

Publication number Publication date
JP5674441B2 (en) 2015-02-25

Similar Documents

Publication Publication Date Title
JP5674441B2 (en) Information processing system, control method thereof, and program
US11692842B2 (en) Augmented reality maps
US9940692B2 (en) Augmented reality overlays based on an optically zoomed input
US11698268B2 (en) Street-level guidance via route path
KR100985737B1 (en) Method, terminal device and computer-readable recording medium for providing information on an object included in visual field of the terminal device
EP2506222B1 (en) Augmented reality apparatus, method and program
US20090289955A1 (en) Reality overlay device
TWI269024B (en) Navigation system
US9235933B2 (en) Wearable display system that displays previous runners as virtual objects on a current runner&#39;s path
WO2014083759A2 (en) Image processing device, image processing method, program, and terminal device
JP2012068481A (en) Augmented reality expression system and method
US20110288763A1 (en) Method and apparatus for displaying three-dimensional route guidance
JP2012216135A (en) Image generation system, program, and information storage medium
JP6345381B2 (en) Augmented reality system
KR102027565B1 (en) A Method For Providing Augmented Reality Walking Navigation Service Using a 3D Character
JP4710217B2 (en) Information presenting apparatus, information presenting method, information presenting system, and computer program
KR20060117140A (en) Providing star constellation service using mobile terminal
JP5951465B2 (en) Program, information terminal, server and method for determining line-of-sight area based on road information
KR102578119B1 (en) Smart glasses operation method interworking to mobile device
CN111124128A (en) Position prompting method and related product
US10650037B2 (en) Enhancing information in a three-dimensional map
Au et al. Mirrormap: augmenting 2d mobile maps with virtual mirrors
KR20230068121A (en) System for providing travel destination information using mobile
CN115437586A (en) Method, device, equipment and medium for displaying message on electronic map
TW201931064A (en) Virtual reality navigation methods and systems with map index, and related computer program products

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141222

R150 Certificate of patent or registration of utility model

Ref document number: 5674441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250