JP2012198668A - Information processing device, augmented reality provision method and program - Google Patents

Information processing device, augmented reality provision method and program Download PDF

Info

Publication number
JP2012198668A
JP2012198668A JP2011061442A JP2011061442A JP2012198668A JP 2012198668 A JP2012198668 A JP 2012198668A JP 2011061442 A JP2011061442 A JP 2011061442A JP 2011061442 A JP2011061442 A JP 2011061442A JP 2012198668 A JP2012198668 A JP 2012198668A
Authority
JP
Japan
Prior art keywords
display
information
unit
tag
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011061442A
Other languages
Japanese (ja)
Other versions
JP5755915B2 (en
Inventor
Musashi Ricardo Okamoto
武蔵リカルド 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2011061442A priority Critical patent/JP5755915B2/en
Publication of JP2012198668A publication Critical patent/JP2012198668A/en
Application granted granted Critical
Publication of JP5755915B2 publication Critical patent/JP5755915B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To more appropriately display a display object.SOLUTION: An information processing device comprises: a specifying section to specify positional information indicating a position of an information processing device; a storage section to store the positional information indicating the position of a display object in a real space and mode information indicating a display mode of the display object in association with identification information; and a display section to display a display object. The information processing device also has read-out means to read out the positional information and the mode information, from the storage section, associated with the identification information of the display object within a predetermined distance with the positional information specified by the specifying section as a reference; and display control means to display a plurality of the display objects at display positions, on the display section, where respective display objects generated from a plurality of mode information associated with a plurality of identification information read out by the read-out means do not overlap.

Description

本発明は、情報処理装置、拡張現実感提供方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an augmented reality providing method, and a program.

拡張現実ソフトウェアでは、3次元空間の3次元座標に、仮想的なオブジェクト、即ちARオブジェクト(Augmented Reality Object)を配置すると、画面に表示されるARオブジェクト(以下、単に「ARオブジェクト」或いは「表示オブジェクト」とも記載する。)は、ユーザからの相対的な距離に応じて例えば相対的な距離が遠いARオブジェクトが小さく表示される。これにより、遠近感、即ち奥行き感を実現する。また、ユーザは、奥行き感が与えられることで、ARオブジェクトも現実に存在しているかのように感じられるようになる。
ところで、このような拡張現実ソフトウェアによる手法では、ユーザに近いARオブジェクトがユーザから遠いARオブジェクトを隠すことになるため、遠くに配置されたARオブジェクトが見えなくなる、クリック等の操作でARオブジェクトを選択し難くなる等の問題がある。
近時、拡張現実ソフトウェアには、タグ(ARオブジェクト)が重なって表示されている部分が一定の時間にわたりタップ(指をつけたままに)されると、重なっていたタグが螺旋状に順々に手前に表示されるものもある(例えば非特許文献1参照)。これにより、ユーザは、タグが手前に表示されたタイミングで所望のタグを見たり選択したりすることが可能となる。
In the augmented reality software, when a virtual object, that is, an AR object (Augmented Reality Object) is arranged at the three-dimensional coordinates of the three-dimensional space, the AR object (hereinafter simply referred to as “AR object” or “display object”) displayed on the screen. ”), For example, an AR object having a far relative distance is displayed small according to the relative distance from the user. This realizes a sense of perspective, that is, a sense of depth. Also, the user can feel as if the AR object actually exists by giving a sense of depth.
By the way, in such an augmented reality software method, an AR object close to the user hides an AR object far from the user, so that the AR object placed far away becomes invisible, and an AR object is selected by an operation such as clicking. There are problems such as difficulty.
Recently, in the augmented reality software, when the portion where the tag (AR object) is overlapped is tapped (with a finger on) for a certain period of time, the overlapped tag is spirally formed in order. Is displayed in front (see Non-Patent Document 1, for example). As a result, the user can view or select a desired tag at the timing when the tag is displayed in front.

「遠くのエアタグがタップしにくい」、[online]、2009年8月13日、[2011年3月4日検索]、インターネット<URL:http://support.sekaicamera.com/ja/archives/182>“Distant air tags are hard to tap”, [online], August 13, 2009, [Search March 4, 2011], Internet <URL: http://support.sekaicamera.com/en/archives/182 >

しかしながら、非特許文献1の技術では、タグの内容を直ぐに知りたいと思っていても、タグが手前に表示されるのを待つ必要があるので、タグが多く存在するときにはタグの内容の確認に多くの時間がかかるおそれがある。
また、タグが動きつづけているため視認性が悪く、例えば文字情報が記載されたタグである場合、見落としてしまうこともある。
However, in the technique of Non-Patent Document 1, even if the user wants to know the contents of the tag immediately, it is necessary to wait for the tag to be displayed in front. May take a lot of time.
Moreover, since the tag continues to move, the visibility is poor. For example, in the case of a tag on which character information is described, it may be overlooked.

本発明はこのような問題点に鑑みなされたもので、表示オブジェクトをより適切に表示することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to display a display object more appropriately.

そこで、本発明に係る情報処理装置は、当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部とを有する情報処理装置であって、前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、を有することを特徴とする。   Therefore, an information processing apparatus according to the present invention includes a specifying unit that specifies position information indicating a position of the information processing apparatus, position information indicating a position of the display object in the real space, and a display mode of the display object. An information processing apparatus having a storage unit that stores information in association with identification information, and a display unit that displays a display object, and within a certain distance with reference to the positional information specified by the specifying unit It is generated from reading means for reading position information and aspect information associated with identification information of a display object from the storage unit, and a plurality of aspect information associated with a plurality of identification information read by the reading means. Display control means for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects does not overlap. It is characterized in.

また、本発明に係る情報処理装置は、当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部と、撮影を行う撮影部とを有する情報処理装置であって、前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、を有することを特徴とする。   In addition, the information processing apparatus according to the present invention includes a specifying unit that specifies position information indicating a position of the information processing apparatus, position information indicating a position of the display object in the real space, and a display mode of the display object. An information processing apparatus including a storage unit that stores information in association with identification information, a display unit that displays a display object, and a shooting unit that performs shooting, and the position information specified by the specifying unit Reading means for reading position information and mode information associated with identification information of display objects within a certain distance as a reference from the storage unit, and a plurality of pieces associated with a plurality of identification information read by the reading means A plurality of display objects generated from the aspect information are displayed at display positions on the display unit that match the images captured by the imaging unit, and user operations are performed. If it is determined that the display switching instruction has been received, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. And a display control means for displaying a larger image as the distance is longer.

本発明によれば、表示オブジェクトをより適切に表示することができる。   According to the present invention, a display object can be displayed more appropriately.

AR提供システムの構成の一例を示す図である。It is a figure which shows an example of a structure of AR provision system. (A)は、端末装置のハードウェア構成の一例を示す図であり、(B)は、サーバ装置のハードウェア構成の一例を示す図である。(A) is a figure which shows an example of the hardware constitutions of a terminal device, (B) is a figure which shows an example of the hardware constitutions of a server apparatus. タグDBのテーブルの一例を示す図である。It is a figure which shows an example of the table of tag DB. AR提供システムのシーケンスの一例を示す図である。It is a figure which shows an example of the sequence of AR provision system. 端末装置及びサーバ装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a terminal device and a server apparatus. AR提供処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on AR provision processing. 表示制御処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a display control process. (A)は、未整列画面の一例を示す図であり、(B)は、距離整列画面の一例を示す図であり、(C)は、区間整列画面の一例を示す図である。(A) is a figure which shows an example of an unaligned screen, (B) is a figure which shows an example of a distance alignment screen, (C) is a figure which shows an example of a section alignment screen. (A)は、未整列画面の一例を示す図であり、(B)は、種類整列画面の一例を示す図であり、(C)は、登録日時整列画面の一例を示す図である。(A) is a figure which shows an example of an unsorted screen, (B) is a figure which shows an example of a kind sort screen, (C) is a figure which shows an example of a registration date alignment screen. (A)は、未整列画面の一例を示す図であり、(B)は、上空視点画面の一例を示す図であり、(C)は、寸法変更画面の一例を示す図である。(A) is a figure which shows an example of an unaligned screen, (B) is a figure which shows an example of an aerial viewpoint screen, (C) is a figure which shows an example of a dimension change screen.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、本実施形態に係るAR提供システムの構成の一例を示す図である。AR提供システムは、現実空間の対象物に対して関連付けされたARオブジェクト(表示オブジェクトの一例)が重なって画面に表示されているときに、各ARオブジェクトを確認し易いようにARオブジェクトの配置、寸法等を変更する拡張現実提供システムの一例である。
AR提供システムは、端末装置100、及びサーバ装置200を含んで構成される。端末装置100とサーバ装置200とは、通信可能に接続されている。
端末装置100は、情報処理装置(コンピュータ)の一例であり、携帯情報端末、携帯電話、HMD(Head Mounted Display)、デジタルカメラ等である。端末装置100は、端末装置100を介して知覚できる現実空間に整合する位置に、サーバ装置200で生成された画像(コンピュータグラフィックス画像など)を表示することにより、拡張された現実感(AR:Augmented Reality)を提供する。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a configuration of an AR providing system according to the present embodiment. The AR providing system arranges an AR object so that each AR object can be easily confirmed when an AR object (an example of a display object) associated with an object in the real space is displayed on the screen in an overlapping manner. It is an example of an augmented reality providing system that changes dimensions and the like.
The AR providing system includes a terminal device 100 and a server device 200. The terminal device 100 and the server device 200 are communicably connected.
The terminal device 100 is an example of an information processing device (computer), and is a portable information terminal, a mobile phone, an HMD (Head Mounted Display), a digital camera, or the like. The terminal device 100 displays an image (such as a computer graphics image) generated by the server device 200 at a position that matches the real space that can be perceived via the terminal device 100, thereby expanding the sense of reality (AR: Augmented Reality).

本実施形態では、端末装置100は、タッチパネル式の表示パネル10を有する。端末装置100は、端末装置100を介して知覚できる現実空間の対象物に整合する位置に、対象物に関する各種の情報(店名などの情報)を表す画像(ARオブジェクトの一例であるタグ等)を表示パネル10に表示する。
また、端末装置100は、一定の時間にわたり表示パネル10に対してタップ(指がつけたままに)される、端末装置100が振られる、端末装置100が水平方向に傾けられる、表示パネル10に表示されたアイコンが押下される等のユーザ操作(より具体的には表示変更指示)を受け付けると、重なって表示されているタグを重ならないように表示する。
例えば、端末装置100は、端末装置100と焼肉店のタグ(11〜14)との現実空間における各距離を算出し、焼肉店のタグ(11〜14)を距離順に整列して表示パネル10に表示する。この構成によれば、ユーザは、複数の焼肉店のタグ(11〜14)が表示されている中で、現在の位置から最も近い焼肉店が焼肉店Dであることを容易に把握できる。
In the present embodiment, the terminal device 100 includes a touch panel display panel 10. The terminal device 100 displays an image (a tag or the like, which is an example of an AR object) representing various types of information (information such as a store name) related to the object at a position that matches the object in the real space that can be perceived via the terminal device 100. Display on the display panel 10.
Further, the terminal device 100 is tapped (with a finger on) with respect to the display panel 10 for a certain period of time, the terminal device 100 is shaken, the terminal device 100 is tilted in the horizontal direction, When a user operation (more specifically, a display change instruction) such as pressing the displayed icon is accepted, the displayed tags are displayed so as not to overlap.
For example, the terminal device 100 calculates each distance in the real space between the terminal device 100 and the tag (11-14) of the yakiniku restaurant, and arranges the tags (11-14) of the yakiniku restaurant in the order of distance on the display panel 10. indicate. According to this configuration, the user can easily grasp that the nearest yakiniku restaurant from the current position is the yakiniku restaurant D while the tags (11 to 14) of the plurality of yakiniku restaurants are displayed.

サーバ装置200は、情報処理装置(コンピュータ)の一例である。サーバ装置200は、例えばネットワークを介して各種の情報処理装置(端末装置100、外部の情報処理装置等)と通信し、タグに関する各種の情報(後述のタグ情報)をタグDB20に格納して管理する。
また、サーバ装置200は、タグDB20のタグ情報をもとにタグを生成し、生成したタグを含むタグの表示に係る各種の情報(後述の表示情報など)を端末装置100に送信する。
なお、AR提供システムの構成は、上述した構成に限られるものではない。例えば、サーバ装置200がタグDB20を有する構成を採用したが、サーバ装置200とは異なる装置がタグDB20を有する構成を採用してもよいし、端末装置100がサーバ装置200の機能を備えていてもよい。
The server device 200 is an example of an information processing device (computer). The server device 200 communicates with various information processing devices (terminal device 100, external information processing device, etc.) via a network, for example, and stores various information related to tags (tag information described later) in the tag DB 20 for management. To do.
In addition, the server device 200 generates a tag based on the tag information in the tag DB 20, and transmits various information (such as display information described later) related to the display of the tag including the generated tag to the terminal device 100.
The configuration of the AR providing system is not limited to the configuration described above. For example, the server device 200 employs a configuration having the tag DB 20, but a device different from the server device 200 may employ a configuration having the tag DB 20, and the terminal device 100 has the function of the server device 200. Also good.

図2(A)は、端末装置100のハードウェア構成の一例を示す図である。端末装置100は、制御装置105、記憶装置110、通信装置115、表示装置120、方位検出装置125、姿勢検出装置130、及び撮影装置135を有する。
制御装置105は、例えばCPU(Central Processing Unit)であり、必要に応じて、記憶装置110よりプログラムを読み出して、プログラムを実行する。例えば、ARを提供するアプリケーション(ARアプリケーション)に係るプログラムが実行されることで、端末装置100における後述の機能、及び後述のフローチャートに係る処理が実現される。
また、制御装置105は、特定部の一例であり、通信装置115を介して衛星から取得された軌道情報から、いわゆるGPS(Global Positioning System)を利用して、端末装置100の現在の緯度・経度・高度などの位置を示す装置位置情報(位置情報の一例)を特定(測定)する。
FIG. 2A is a diagram illustrating an example of a hardware configuration of the terminal device 100. The terminal device 100 includes a control device 105, a storage device 110, a communication device 115, a display device 120, an orientation detection device 125, an orientation detection device 130, and a photographing device 135.
The control device 105 is a CPU (Central Processing Unit), for example, and reads the program from the storage device 110 and executes the program as necessary. For example, by executing a program related to an application that provides an AR (AR application), a function described later in the terminal device 100 and a process related to a flowchart described below are realized.
In addition, the control device 105 is an example of a specifying unit, and the current latitude / longitude of the terminal device 100 using the so-called GPS (Global Positioning System) from the orbit information acquired from the satellite via the communication device 115. -Specify (measure) device position information (an example of position information) indicating a position such as altitude.

記憶装置110は、ROM(Read Only Memory)、RAM(Random Access Memory)、HD(Hard Disk)等であり、各種の情報を記憶する。より詳細に説明すると、記憶装置110(ROM)は、端末装置100の電源投入時に最初に読み込まれるプログラム等を記憶する。また、記憶装置110(RAM)は、端末装置100のメインメモリとして機能する。また、記憶装置110(HD)は、プログラム以外に制御装置105により算出された数値データ等を記憶する。
なお、端末装置100は、記憶装置110に記憶される各種の情報を、CD−ROM等の記録媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
The storage device 110 is a ROM (Read Only Memory), a RAM (Random Access Memory), an HD (Hard Disk), or the like, and stores various types of information. More specifically, the storage device 110 (ROM) stores a program that is read first when the terminal device 100 is powered on. The storage device 110 (RAM) functions as a main memory of the terminal device 100. The storage device 110 (HD) stores numerical data calculated by the control device 105 in addition to the program.
Note that the terminal device 100 may acquire various types of information stored in the storage device 110 from a recording medium such as a CD-ROM, or may download the information via a network or the like.

通信装置115は、外部装置(サーバ装置200等)と通信を行い、後述の表示情報などを受信する。通信装置115で受信された表示情報などは、記憶装置110に記憶される。
表示装置120は、表示部の一例であり、表示パネル10を有する。表示装置120は、各種の画像を表示パネル10に表示する。なお、本実施形態では、表示装置120として、非透過型の液晶ディスプレイを例に挙げて説明するが、透過型の液晶ディスプレイを採用してもよい。
The communication device 115 communicates with an external device (such as the server device 200) and receives display information described later. Display information received by the communication device 115 is stored in the storage device 110.
The display device 120 is an example of a display unit and includes the display panel 10. The display device 120 displays various images on the display panel 10. In the present embodiment, a non-transmissive liquid crystal display is described as an example of the display device 120, but a transmissive liquid crystal display may be employed.

方位検出装置125は、例えば電子コンパスであり、微弱な地磁気(例えば前後方向の地磁気及び左右方向の地磁気)を検知し、地磁気の強さから北の方向を計算して端末装置100の方位(方位情報)を算出する。
姿勢検出装置130は、例えばジャイロセンサであり、物体の角速度を検知し、角速度を積分などして角度(端末装置100の姿勢(姿勢情報))を算出する。
撮影装置135は、撮影部の一例であり、現実空間の撮影を行う。
なお、端末装置100のハードウェア構成は、これに限られるものではない。例えば、方位検出装置125及び姿勢検出装置130に代えて、方位検出装置125及び姿勢検出装置130の機能を一体とした機能を有する方位姿勢検出装置を採用してもよい。
The direction detection device 125 is, for example, an electronic compass, detects weak geomagnetism (for example, front-rear direction geomagnetism and left-right direction geomagnetism), calculates the north direction from the strength of geomagnetism, and calculates the direction (azimuth direction) of the terminal device 100. Information).
The posture detection device 130 is, for example, a gyro sensor, detects an angular velocity of an object, and calculates an angle (posture (posture information) of the terminal device 100) by integrating the angular velocity.
The imaging device 135 is an example of an imaging unit, and performs imaging of a real space.
Note that the hardware configuration of the terminal device 100 is not limited to this. For example, instead of the azimuth detection device 125 and the posture detection device 130, an azimuth posture detection device having a function in which the functions of the azimuth detection device 125 and the posture detection device 130 are integrated may be employed.

図2(B)は、サーバ装置200のハードウェア構成の一例を示す図である。サーバ装置200は、制御装置205、記憶装置210、通信装置215、表示装置220、及び入力装置225を有する。
制御装置205は、例えばCPU(Central Processing Unit)であり、必要に応じて、記憶装置210よりプログラムを読み出して、プログラムを実行する。プログラムが実行されることで、サーバ装置200における後述の機能、及び後述のフローチャートに係る処理が実現される。
FIG. 2B is a diagram illustrating an example of a hardware configuration of the server device 200. The server device 200 includes a control device 205, a storage device 210, a communication device 215, a display device 220, and an input device 225.
The control device 205 is a CPU (Central Processing Unit), for example, and reads the program from the storage device 210 and executes the program as necessary. By executing the program, a function described later in the server device 200 and a process related to a flowchart described later are realized.

記憶装置210は、記憶部の一例であり、ROM(Read Only Memory)、RAM(Random Access Memory)、HD(Hard Disk)等であり、各種の情報を記憶する。より詳細に説明すると、記憶装置210(ROM)は、サーバ装置200の電源投入時に最初に読み込まれるプログラム等を記憶する。また、記憶装置210(RAM)は、サーバ装置200のメインメモリとして機能する。また、記憶装置210(HD)は、プログラム以外に制御装置205により算出された数値データ等を記憶する。
なお、サーバ装置200は、記憶装置210に記憶される各種の情報を、CD−ROM等の記録媒体から取得してもよいし、ネットワーク等を通じてダウンロードしてもよい。
The storage device 210 is an example of a storage unit, and is a ROM (Read Only Memory), a RAM (Random Access Memory), an HD (Hard Disk), or the like, and stores various types of information. More specifically, the storage device 210 (ROM) stores a program that is read first when the server device 200 is powered on. The storage device 210 (RAM) functions as a main memory of the server device 200. The storage device 210 (HD) stores numerical data calculated by the control device 205 in addition to the program.
The server device 200 may acquire various types of information stored in the storage device 210 from a recording medium such as a CD-ROM, or may download the information via a network or the like.

通信装置215は、外部装置(端末装置100等)と通信を行う。例えば、通信装置215は、端末装置100から後述の装置情報を受信する。また、例えば、通信装置215は、各種の情報処理装置から後述のタグ情報を受信する。通信装置215で受信されたタグ情報は、記憶装置210(タグDB20等)に記憶される。
表示装置220は、ディスプレイ等であり、各種の情報を表示する。
入力装置225は、キーボード、マウス等であり、サーバ装置200に各種の情報を入力する。
The communication device 215 communicates with an external device (such as the terminal device 100). For example, the communication device 215 receives device information described later from the terminal device 100. Further, for example, the communication device 215 receives tag information described later from various information processing devices. The tag information received by the communication device 215 is stored in the storage device 210 (tag DB 20 or the like).
The display device 220 is a display or the like and displays various types of information.
The input device 225 is a keyboard, a mouse, or the like, and inputs various information to the server device 200.

図3は、サーバ装置200が管理するタグ情報を格納するタグDB20のテーブルの一例を示す図である。テーブルには、ID、位置、表示内容、登録日時、クリック数の情報を含んで構成されたタグ情報が記憶される。なお、より広義には、位置、表示内容、登録日時、クリック数の情報がIDに関連付けられて記憶装置210に記憶されている。
タグのIDを示すID情報は、ARオブジェクトを識別可能な識別情報の一例であり、タグ情報を一意に識別可能である。タグの位置を示すタグ位置情報は、ARオブジェクトの位置を示す位置情報の一例であり、現実空間におけるタグの場所、即ちタグが付された地点の緯度、経度、及び高度を示す情報である。
FIG. 3 is a diagram illustrating an example of a table of the tag DB 20 that stores tag information managed by the server device 200. The table stores tag information including information on ID, position, display content, registration date and time, and number of clicks. In a broader sense, information on the position, display contents, registration date and time, and the number of clicks is stored in the storage device 210 in association with the ID.
The ID information indicating the tag ID is an example of identification information that can identify the AR object, and the tag information can be uniquely identified. The tag position information indicating the position of the tag is an example of position information indicating the position of the AR object, and is information indicating the location of the tag in the real space, that is, the latitude, longitude, and altitude of the point to which the tag is attached.

タグの表示内容を示す表示内容情報は、ARオブジェクトの表示態様を示す態様情報の一例であり、各種の情報処理装置を介して入力された情報であり、タグの内容情報とタグの画像情報とタグの形状情報とを含んで構成される。
タグの内容情報は、対象物が店である場合は店名、対象物が美術品である場合は作者名など、タグが付された対象物に関する情報である。画像情報は、対象物が店である場合は店の写真、対象物が美術品である場合は美術品の写真など、タグが付された対象物に関する画像である。
The display content information indicating the display content of the tag is an example of the mode information indicating the display mode of the AR object, and is information input via various information processing devices. The tag content information, the tag image information, Tag shape information.
The content information of the tag is information regarding the target object to which the tag is attached, such as a store name when the target object is a store, and an author name when the target object is a work of art. The image information is an image relating to a tagged object such as a photograph of a store when the object is a store, and a photograph of a work of art when the object is a work of art.

タグの形状情報は、タグの属性(種類)を示す属性情報の一例であり、タグの形状を示す情報である。ここで、タグの形状情報は、ユーザにより指定される構成であってもよいし、管理者により指定される構成であってもよいし、或いはタグの内容情報を解析して自動的に指定される構成であってもよい。
なお、本実施形態では、形状情報に加えて又は代えて、コンビニエンスストア、薬局、ガソリンスタンドなどの対象物の属性、和食、洋食などの対象物におけるサービスの属性など、適宜の属性の情報を一又は複数採用できる。
登録日時を示す登録日時情報は、時間情報の一例であり、対象物に対してタグが付された日時、換言するならばタグ情報がタグDB20に登録された日時を示す情報である。クリック数を示すクリック数情報は、ARオブジェクトがアクセスされた回数を示す回数の情報の一例であり、サーバ装置200でリアルタイムに計数される、各種の情報処理装置においてタグがクリックされた回数の情報である。
The tag shape information is an example of attribute information indicating the tag attribute (type), and is information indicating the tag shape. Here, the shape information of the tag may be a configuration specified by the user, a configuration specified by the administrator, or automatically specified by analyzing the content information of the tag. It may be a configuration.
In the present embodiment, in addition to or instead of the shape information, information on appropriate attributes such as attributes of objects such as convenience stores, pharmacies, gas stations, and service attributes of objects such as Japanese food and Western food are all collected. Alternatively, a plurality can be employed.
The registration date / time information indicating the registration date / time is an example of time information, and is information indicating the date / time when the tag is attached to the object, in other words, the date / time when the tag information is registered in the tag DB 20. The click number information indicating the number of clicks is an example of the number of times information indicating the number of times the AR object has been accessed, and is information on the number of times the tag has been clicked in various information processing devices, which is counted in real time by the server device 200. It is.

図4は、AR提供システムのシーケンスの一例を示す図である。端末装置100は、ARアプリケーションの起動の指示を受け付けると(SQ305)、サーバ装置200に装置情報を送信する(SQ310)。より具体的には、端末装置100は、ARアプリケーションの起動に応答して、撮影装置135の視野の特定に用いられる後述の装置情報をサーバ装置200に送信する。   FIG. 4 is a diagram illustrating an example of a sequence of the AR providing system. Upon receiving an AR application activation instruction (SQ305), the terminal apparatus 100 transmits apparatus information to the server apparatus 200 (SQ310). More specifically, in response to the activation of the AR application, the terminal device 100 transmits later-described device information used for specifying the field of view of the imaging device 135 to the server device 200.

SQ315では、サーバ装置200は、表示情報生成処理を行う。より具体的には、まず、サーバ装置200は、装置情報を受信し、装置情報により特定される撮影装置135の視野に含まれる一定の距離(例えば500m)内に存在するタグのIDを特定し、特定したタグのIDのタグ情報をタグDB20から抽出する。
次に、サーバ装置200は、抽出したタグ情報の内容情報、形状情報などをもとにタグを生成する。続いて、サーバ装置200は、生成したタグ、当該タグのタグ位置情報、登録日時情報などを含む表示情報をタグごとに生成する。
続いて、サーバ装置200は、生成した表示情報を端末装置100に送信する(SQ320)。
In SQ315, the server apparatus 200 performs display information generation processing. More specifically, first, the server apparatus 200 receives the apparatus information, and specifies the ID of a tag that exists within a certain distance (for example, 500 m) included in the field of view of the imaging apparatus 135 specified by the apparatus information. The tag information of the identified tag ID is extracted from the tag DB 20.
Next, the server device 200 generates a tag based on the content information, shape information, and the like of the extracted tag information. Subsequently, the server apparatus 200 generates display information including the generated tag, tag position information of the tag, registration date information, and the like for each tag.
Subsequently, the server device 200 transmits the generated display information to the terminal device 100 (SQ320).

ここで、端末装置100は、表示情報を受信すると、表示情報を記憶装置110に格納する。続いて、端末装置100は、撮影装置135で撮影された映像にタグを重畳して表示する。
また、端末装置100は、端末装置100の状態を監視する(SQ325)。より具体的には、端末装置100は、端末装置100の緯度、経度、高度、方位、及び姿勢の変化を監視する。このとき、端末装置100は、端末装置100の状態の変化を検知すると、装置情報をサーバ装置200に送信する(SQ330)。
なお、サーバ装置200は、装置情報を受信すると、SQ315と同様に、表示情報生成処理を行い(SQ335)、生成した表示情報を端末装置100に送信する(SQ340)。また、端末装置100は、SQ325と同様に、端末装置100の状態を監視する(SQ345)。
Here, when receiving the display information, the terminal device 100 stores the display information in the storage device 110. Subsequently, the terminal device 100 displays the tag superimposed on the video captured by the imaging device 135.
Further, the terminal device 100 monitors the state of the terminal device 100 (SQ325). More specifically, the terminal device 100 monitors changes in latitude, longitude, altitude, direction, and attitude of the terminal device 100. At this time, when detecting a change in the state of the terminal device 100, the terminal device 100 transmits device information to the server device 200 (SQ330).
Upon receiving the device information, the server device 200 performs display information generation processing (SQ335) and transmits the generated display information to the terminal device 100 (SQ340), similarly to SQ315. Further, the terminal device 100 monitors the state of the terminal device 100 in the same manner as in SQ325 (SQ345).

即ち、端末装置100は、ARアプリケーションが動作しているときは、基本的には、SQ310からSQ325までの一連の処理(通常表示処理)を繰り返し行う。
ただし、端末装置100は、表示変更指示を受け付けると(SQ350)、表示変更指示の種類に応じて、表示パネル10に表示されているタグを整列する(SQ355)。なお、SQ350の処理については図7を用いて詳細に説明する。
また、端末装置100は、整列を解除する旨の整列解除指示を受け付けると(SQ360)、通常表示処理が行われることになる。ここで、整列解除指示は、一定の時間にわたり表示パネル10に対してタップされる、端末装置100が振られる、端末装置100が水平方向に傾けられる、表示パネル10に表示されたアイコンが押下される等のユーザ操作をいう。
That is, when the AR application is operating, the terminal device 100 basically repeats a series of processing (normal display processing) from SQ310 to SQ325.
However, when receiving the display change instruction (SQ350), the terminal device 100 arranges the tags displayed on the display panel 10 according to the type of the display change instruction (SQ355). The process of SQ350 will be described in detail with reference to FIG.
In addition, when the terminal device 100 receives an alignment cancellation instruction for canceling alignment (SQ360), normal display processing is performed. Here, the instruction to cancel the alignment is tapped on the display panel 10 for a certain time, the terminal device 100 is shaken, the terminal device 100 is tilted in the horizontal direction, and an icon displayed on the display panel 10 is pressed. User operations such as

図5は、端末装置100及びサーバ装置200の機能構成の一例を示す図である。
端末装置100は、制御部150、読出部155、表示制御部160、及び通信部165を有する。制御部150は、読出部155及び表示制御部160を管理すると共に、端末装置100における制御を司る。読出部155は、記憶装置110から各種の情報を読み出す。表示制御部160は、表示装置120を制御し、表示パネル10にタグ等を表示する。通信部165は、通信装置115を制御し、外部装置との通信を行う。
サーバ装置200は、制御部250及び通信部255を有する。制御部250は、通信部255を管理すると共に、サーバ装置200における制御を司る。通信部255は、通信装置215を制御し、外部装置との通信を行う。
FIG. 5 is a diagram illustrating an example of functional configurations of the terminal device 100 and the server device 200.
The terminal device 100 includes a control unit 150, a reading unit 155, a display control unit 160, and a communication unit 165. The control unit 150 manages the reading unit 155 and the display control unit 160 and controls the terminal device 100. The reading unit 155 reads various information from the storage device 110. The display control unit 160 controls the display device 120 to display tags and the like on the display panel 10. The communication unit 165 controls the communication device 115 and communicates with an external device.
The server device 200 includes a control unit 250 and a communication unit 255. The control unit 250 manages the communication unit 255 and controls the server device 200. The communication unit 255 controls the communication device 215 and performs communication with an external device.

図6は、端末装置100の制御部150が行うAR提供処理に係るフローチャートの一例を示す図である。AR提供処理は、ARアプリケーションの起動の指示が受付けられることを契機に開始される。
まず、制御部150は、ARアプリケーションの終了の指示を受け付けたか否かを判断する(S405)。このとき、制御部150は、受け付けたと判断した場合、AR提供処理を終了する。他方、受け付けていないと判断した場合、制御部150は、S410の処理を行う。
S410では、制御部150は、端末装置100の装置位置情報を算出し、方位検出装置125から方位情報を受け取り、姿勢検出装置130から姿勢情報を受け取る。この際、制御部150は、算出した装置位置情報、並びに受け取った方位情報及び姿勢情報を記憶装置110に格納する。
FIG. 6 is a diagram illustrating an example of a flowchart related to the AR providing process performed by the control unit 150 of the terminal device 100. The AR providing process is started when an instruction to start the AR application is received.
First, the control unit 150 determines whether an instruction to end the AR application has been received (S405). At this time, if the control unit 150 determines that it has been received, it ends the AR providing process. On the other hand, when determining that it has not been received, the control unit 150 performs the process of S410.
In S <b> 410, the control unit 150 calculates device position information of the terminal device 100, receives azimuth information from the azimuth detection device 125, and receives posture information from the posture detection device 130. At this time, the control unit 150 stores the calculated device position information and the received orientation information and posture information in the storage device 110.

続いて、制御部150は、表示パネル10に表示するタグの表示情報をサーバ装置200から取得する(S415)。
より具体的には、まず、制御部150は、端末装置100の内部パラメータ(撮像面の寸法、レンズの焦点距離、レンズの歪みの度合いの情報など)をもとに撮影装置135の視野の範囲を特定する範囲情報(画角など)を算出し、範囲情報、装置位置情報、方位情報、及び姿勢情報を含む装置情報を生成する。次に、制御部150は、通信部165を介して、生成した装置情報をサーバ装置200に送信する。
そして、制御部150は、通信部165を介してサーバ装置200から表示情報を受信し、受信した表示情報を記憶装置110に格納する。
Subsequently, the control unit 150 acquires the display information of the tag displayed on the display panel 10 from the server device 200 (S415).
More specifically, first, the control unit 150 determines the range of the field of view of the imaging device 135 based on internal parameters of the terminal device 100 (such as information on the dimensions of the imaging surface, the focal length of the lens, and the degree of distortion of the lens). Range information (such as an angle of view) is calculated, and device information including range information, device position information, orientation information, and posture information is generated. Next, the control unit 150 transmits the generated device information to the server device 200 via the communication unit 165.
Then, the control unit 150 receives display information from the server device 200 via the communication unit 165 and stores the received display information in the storage device 110.

ここで、サーバ装置200において装置情報が受信されることを契機に行われる表示情報生成処理(SQ315など)の詳細について説明する。
表示情報生成処理では、まず、サーバ装置200の制御部250は、装置情報に含まれる範囲情報、方位情報、及び姿勢情報をもとに撮影装置135の視野を特定する。次に、制御部250は、撮影装置135の視野に含まれる装置位置情報の位置を基準として一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する。次に、制御部250は、特定したタグのIDをもとにタグ情報をタグDB20から抽出する。
次に、制御部250は、抽出したタグ情報の内容情報と形状情報と規定の寸法情報とをもとにタグを生成する。規定の寸法情報は、タグの形状情報に対応して記憶装置210に設けられ、例えば、四角形に対しては縦100ピクセル、横200ピクセルが設けられている。この際、制御部250は、タグ情報に画像情報が設定されている場合、タグに画像情報を含める。そして、制御部250は、生成したタグ、当該タグのタグ位置情報、及び登録日時情報を含む表示情報をタグごとに生成する。この際、制御部250は、形状情報以外の他の属性情報があるときは、他の属性情報を表示情報に含める。
なお、制御部250は、通信部255を介して、生成した表示情報を端末装置100に送信する。
Here, the details of the display information generation process (SQ 315 and the like) performed when the server apparatus 200 receives the apparatus information will be described.
In the display information generation process, first, the control unit 250 of the server device 200 specifies the field of view of the imaging device 135 based on the range information, the azimuth information, and the posture information included in the device information. Next, the control unit 250 specifies IDs of tags that exist within a certain distance with reference to the position of the apparatus position information included in the field of view of the photographing apparatus 135 with reference to the tag position information of the tag DB 20. Next, the control unit 250 extracts tag information from the tag DB 20 based on the identified tag ID.
Next, the control unit 250 generates a tag based on the extracted tag information content information, shape information, and prescribed dimension information. The prescribed dimension information is provided in the storage device 210 corresponding to the tag shape information. For example, 100 pixels in the vertical direction and 200 pixels in the horizontal direction are provided for the quadrangle. At this time, when image information is set in the tag information, the control unit 250 includes the image information in the tag. And the control part 250 produces | generates the display information containing the produced | generated tag, the tag position information of the said tag, and registration date information for every tag. At this time, if there is attribute information other than the shape information, the control unit 250 includes the other attribute information in the display information.
Note that the control unit 250 transmits the generated display information to the terminal device 100 via the communication unit 255.

また、端末装置100の通信部165は、ネットワークを介してサーバ装置200から受信した表示情報を記憶装置110に記憶させる。続いて、端末装置100の制御部150は、読出部155を介して記憶装置110から表示情報を読み出し、表示制御部160を介して、撮影装置135で撮影された映像に整合する表示パネル10における表示位置に表示情報に含まれるタグを表示する(S420)。なお、位置合わせについては従来から用いられている技術を適用することができる。例えば、表示制御部160は、撮影装置135における座標系を表示パネル10における座標系に変換する。これにより、表示制御部160は、撮影装置135の映像、及びタグについて、表示パネル10内での表示位置を特定する。また、表示制御部160は、タグの寸法、明るさ等を表示パネル10に適合するように調整する。
続いて、制御部150は、端末装置100の状態に変化があったか否かを判断する(S425)。より具体的には、制御部150は、記憶装置110に記憶されている、今回の装置位置情報、方位方法、及び姿勢情報と、前回の装置位置情報、方位方法、及び姿勢情報とを比較して、一致するか否かを判断する。なお、完全に一致するか否かを判断する構成を採用してもよいし、規定の桁数までの数値が一致(略一致)するか否かを判断する構成を採用してもよい。
このとき、制御部150は、端末装置100の状態に変化があったと判断した場合、S405の処理を行う。他方、制御部150は、端末装置100の状態に変化がなかったと判断した場合、S430の処理を行う。
In addition, the communication unit 165 of the terminal device 100 causes the storage device 110 to store display information received from the server device 200 via the network. Subsequently, the control unit 150 of the terminal device 100 reads display information from the storage device 110 via the reading unit 155, and in the display panel 10 that matches the video imaged by the imaging device 135 via the display control unit 160. The tag included in the display information is displayed at the display position (S420). In addition, conventionally used techniques can be applied to the alignment. For example, the display control unit 160 converts the coordinate system in the photographing apparatus 135 to the coordinate system in the display panel 10. Thereby, the display control unit 160 specifies the display position in the display panel 10 for the video and the tag of the imaging device 135. In addition, the display control unit 160 adjusts the dimension, brightness, and the like of the tag so as to be compatible with the display panel 10.
Subsequently, the control unit 150 determines whether or not the state of the terminal device 100 has changed (S425). More specifically, the control unit 150 compares the current device position information, azimuth method, and posture information stored in the storage device 110 with the previous device position information, azimuth method, and posture information. To determine whether they match. It should be noted that a configuration for determining whether or not they completely match may be employed, or a configuration for determining whether or not numerical values up to a specified number of digits match (substantially match) may be employed.
At this time, when the control unit 150 determines that the state of the terminal device 100 has changed, the control unit 150 performs the process of S405. On the other hand, when determining that the state of the terminal device 100 has not changed, the control unit 150 performs the process of S430.

S430では、制御部150は、表示変更指示が受け付けられたか否かを判断する。このとき、制御部150は、表示変更指示が受け付けられたと判断した場合、S435の処理を行う。他方、制御部150は、表示変更指示が受け付けられていないと判断した場合、S405の処理を行う。
S435では、制御部150は、読出部155及び表示制御部160を介して、タグ整列設定情報により指定された書式でタグを表示する(表示制御処理)。タグ整列設定情報は、どの様なルールでタグを整列(配置)するかというルールを規定した情報であり、表示変更指示の種類に対応して記憶装置110に記憶されている。なお、表示制御処理については図7を用いて詳細に説明する。
続いて、制御部150は、整列解除指示を受け付けたか否かを判断する(S440)。このとき、制御部150は、整列解除指示を受け付けたと判断した場合、S405の処理を行う。他方、制御部150は、整列解除指示を受け付けていないと判断した場合、S435の処理を行う。
In S430, control unit 150 determines whether a display change instruction has been accepted. At this time, if the control unit 150 determines that a display change instruction has been received, the control unit 150 performs the process of S435. On the other hand, when determining that the display change instruction has not been received, the control unit 150 performs the process of S405.
In S435, the control unit 150 displays the tag in the format specified by the tag alignment setting information via the reading unit 155 and the display control unit 160 (display control process). The tag alignment setting information is information that defines a rule for arranging (arranging) tags according to which rule, and is stored in the storage device 110 corresponding to the type of display change instruction. The display control process will be described in detail with reference to FIG.
Subsequently, the control unit 150 determines whether an alignment release instruction has been received (S440). At this time, if the control unit 150 determines that an alignment release instruction has been received, the control unit 150 performs the process of S405. On the other hand, when the control unit 150 determines that an alignment release instruction has not been received, the control unit 150 performs the process of S435.

図7は、端末装置100の表示制御部160が行う表示制御処理に係るフローチャートの一例を示す図である。
まず、表示制御部160は、表示変更指示が距離整列指示であるか否かを判断する(S505)。より具体的には、表示制御部160は、距離の整列を指示するユーザインタフェース(後述の図8の距離整列アイコン705など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が距離整列指示であると判断した場合、S510の処理を行う。他方、表示制御部160は、表示変更指示が距離整列指示でないと判断した場合、続いてS515の処理を行う。
S510では、表示制御部160は、距離順にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
FIG. 7 is a diagram illustrating an example of a flowchart relating to display control processing performed by the display control unit 160 of the terminal device 100.
First, the display control unit 160 determines whether or not the display change instruction is a distance alignment instruction (S505). More specifically, the display control unit 160 determines whether a user interface (such as a distance alignment icon 705 in FIG. 8 described later) for instructing distance alignment has been operated. At this time, if the display control unit 160 determines that the display change instruction is a distance alignment instruction, the display control unit 160 performs the process of S510. On the other hand, if the display control unit 160 determines that the display change instruction is not a distance alignment instruction, it subsequently performs the process of S515.
In S510, the display control unit 160 arranges the tags in the order of distance and displays them on the display panel 10, and ends the display control process.

より詳細に説明すると、表示制御部160は、まず、距離整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、端末装置100とタグとの距離に応じてタグを整列するためのルールが規定されている。本実施形態では、表示パネル10の下端から上端にかけて距離が短いものから順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではない。例えば、表示パネル10の左端から右端にかけて距離が短いものから順にタグを表示するルールを採用してもよい。
次に、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出する。なお、表示制御部160は、現実空間における距離を算出してもよいし、座標系における距離を算出してもよい。そして、表示制御部160は、上記ルールに従って距離順にタグを整列して表示する。このときの表示パネル10の表示態様の一例を図8(B)に示す。
More specifically, the display control unit 160 first reads tag alignment setting information provided corresponding to the distance alignment instruction from the storage device 110. The tag alignment setting information defines rules for aligning tags according to the distance between the terminal device 100 and the tag. In the present embodiment, rules for displaying tags in order from the shortest distance from the lower end to the upper end of the display panel 10 are defined. However, it is not limited to the above rules. For example, a rule for displaying tags in order from the shortest distance from the left end to the right end of the display panel 10 may be adopted.
Next, the display control unit 160 calculates the distance between the terminal device 100 and the tag from the device position information of the terminal device 100 and the tag position information of the tag. Note that the display control unit 160 may calculate the distance in the real space or the distance in the coordinate system. Then, the display control unit 160 arranges and displays the tags in order of distance according to the above rules. An example of the display mode of the display panel 10 at this time is shown in FIG.

S515では、表示制御部160は、表示変更指示が区間整列指示であるか否かを判断する。より具体的には、表示制御部160は、区間の整列を指示するユーザインタフェース(後述の図8の区間整列アイコン710など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が区間整列指示であると判断した場合、S520の処理を行う。他方、表示制御部160は、表示変更指示が区間整列指示でないと判断した場合、続いてS525の処理を行う。
S520では、表示制御部160は、区間ごとにタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S515, the display control unit 160 determines whether or not the display change instruction is a section alignment instruction. More specifically, the display control unit 160 determines whether or not a user interface (such as a section alignment icon 710 in FIG. 8 described later) for instructing section alignment has been operated. At this time, if the display control unit 160 determines that the display change instruction is a section alignment instruction, it performs the process of S520. On the other hand, if the display control unit 160 determines that the display change instruction is not a section alignment instruction, it subsequently performs the process of S525.
In S520, the display control unit 160 arranges the tags for each section and displays them on the display panel 10, and ends the display control process.

より詳細に説明すると、表示制御部160は、まず、区間整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、予め設けられた区間にタグを分類して整列するルールが規定されている。本実施形態では、表示パネル10の下端から上端にかけて距離が長くなる一定の距離ごと(例えば50m単位)の区間が定められ、区間ごとにタグを分類し、同じ区間に複数のタグが属する場合は横に並べるルールが規定されている。しかしながら、上記ルールに限られるものではなく、区間ごとにタグを整列する他のルールを採用してもよい。
次に、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出する。そして、表示制御部160は、算出した距離から、各タグが属する区間を特定し、区間ごとにタグを整列して表示する。この場合の表示パネル10の表示態様の一例を図8(C)に示す。
More specifically, the display control unit 160 first reads tag alignment setting information provided corresponding to the section alignment instruction from the storage device 110. In the tag alignment setting information, a rule for classifying and aligning tags into predetermined sections is defined. In the present embodiment, when a certain distance (for example, in units of 50 m) where the distance becomes longer from the lower end to the upper end of the display panel 10 is determined, tags are classified for each section, and a plurality of tags belong to the same section There are rules for side by side. However, the rule is not limited to the above rule, and another rule for arranging tags for each section may be adopted.
Next, the display control unit 160 calculates the distance between the terminal device 100 and the tag from the device position information of the terminal device 100 and the tag position information of the tag. Then, the display control unit 160 identifies a section to which each tag belongs from the calculated distance, and displays the tags aligned for each section. An example of the display mode of the display panel 10 in this case is shown in FIG.

S525では、表示制御部160は、表示変更指示が一定時間押下指示であるか否かを判断する。より具体的には、表示制御部160は、表示パネル10における何れかのタグが一定の時間にわたりタップされたか否かを判断する。このとき、表示制御部160は、表示変更指示が一定時間押下指示であると判断した場合、S530の処理を行う。他方、表示制御部160は、表示変更指示が一定時間押下指示でないと判断した場合、続いてS535の処理を行う。
S530では、表示制御部160は、設定情報(デフォルトのタグ整列設定情報)に従ってタグを整列して表示パネル10に表示し、表示制御処理を終了する。
より詳細に説明すると、表示制御部160は、まず、ユーザにより押下された表示パネル10における表示位置を特定する。次に、表示制御部160は、特定した表示位置のタグが含まれるタグ群(表示オブジェクト群)を特定する。例えば、表示制御部160は、特定した表示位置の最も手前のタグを特定し、当該タグに重なって表示されているタグ、更にはそのタグに重なっているタグを特定し、このように連鎖的に特定したタグを整列の対象のタグ(対象タグ)として特定する。そして、表示制御部160は、対象タグのIDを記憶装置110に格納する。
次に、表示制御部160は、設定情報を記憶装置110から読み出す。本実施形態では、設定情報としては、後述の種類整列指示に対応して設けられたタグ整列設定情報が設定されているので、後述のS540の処理と同様の処理が行われる。
In S525, the display control unit 160 determines whether or not the display change instruction is a pressing instruction for a predetermined time. More specifically, the display control unit 160 determines whether any tag on the display panel 10 has been tapped for a certain time. At this time, if the display control unit 160 determines that the display change instruction is a pressing instruction for a predetermined time, the display control unit 160 performs the process of S530. On the other hand, if the display control unit 160 determines that the display change instruction is not a pressing instruction for a certain period of time, it subsequently performs the process of S535.
In S530, the display control unit 160 arranges the tags according to the setting information (default tag arrangement setting information) and displays them on the display panel 10, and ends the display control process.
More specifically, the display control unit 160 first specifies the display position on the display panel 10 pressed by the user. Next, the display control unit 160 specifies a tag group (display object group) including the tag of the specified display position. For example, the display control unit 160 identifies the tag closest to the identified display position, identifies the tag that is displayed overlapping the tag, and further identifies the tag that overlaps the tag. The tag specified in (2) is specified as a tag to be aligned (target tag). Then, the display control unit 160 stores the ID of the target tag in the storage device 110.
Next, the display control unit 160 reads the setting information from the storage device 110. In the present embodiment, as the setting information, tag alignment setting information provided corresponding to a type alignment instruction to be described later is set, and therefore processing similar to the processing in S540 described later is performed.

S535では、表示制御部160は、表示変更指示が種類整列指示であるか否かを判断する。より具体的には、表示制御部160は、種類の整列を指示するユーザインタフェース(後述の図9の種類整列アイコン725など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が種類整列指示であると判断した場合、S540の処理を行う。他方、表示制御部160は、表示変更指示が種類整列指示でないと判断した場合、続いてS545の処理を行う。
S540では、表示制御部160は、種類ごとにタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S535, the display control unit 160 determines whether the display change instruction is a type alignment instruction. More specifically, the display control unit 160 determines whether or not a user interface for instructing type alignment (such as a type alignment icon 725 in FIG. 9 described later) has been operated. At this time, if the display control unit 160 determines that the display change instruction is a type alignment instruction, it performs the process of S540. On the other hand, if the display control unit 160 determines that the display change instruction is not a type alignment instruction, it subsequently performs the process of S545.
In S540, the display control unit 160 arranges the tags for each type and displays them on the display panel 10, and ends the display control process.

より詳細に説明すると、表示制御部160は、まず、種類整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、予め設けられたタグの種類(属性)ごとに対象タグをまとめて整列するルールが規定されている。本実施形態では、種類ごとに対象タグを分類し、対象タグが1つのまとまり(タグ群)であったことを示す情報(色、線など)を用いて対象タグを識別し、種類が同じ対象タグを近接して表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、種類ごとにタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、各対象タグが属する種類を特定し、種類ごとに対象タグを整列して表示する。この場合の表示パネル10の表示態様の一例を図9(B)に示す。
More specifically, the display control unit 160 first reads the tag alignment setting information provided corresponding to the type alignment instruction from the storage device 110. In this tag alignment setting information, a rule for aligning target tags together for each tag type (attribute) provided in advance is defined. In this embodiment, target tags are classified for each type, the target tag is identified using information (color, line, etc.) indicating that the target tag is a single group (tag group), and the target is the same type Rules for displaying tags in close proximity are defined. However, the rules are not limited to the above, and other rules for arranging tags for each type may be adopted.
Then, the display control unit 160 identifies the type to which each target tag belongs according to the above rules, and displays the target tag aligned for each type. An example of the display mode of the display panel 10 in this case is shown in FIG.

S545では、表示制御部160は、表示変更指示が登録日時整列指示であるか否かを判断する。より具体的には、表示制御部160は、登録日時の整列を指示するユーザインタフェース(後述の図9の登録日時整列アイコン715など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示が登録日時整列指示であると判断した場合、S550の処理を行う。他方、表示制御部160は、表示変更指示が登録日時整列指示でないと判断した場合、続いてS555の処理を行う。
S550では、表示制御部160は、登録順にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S545, the display control unit 160 determines whether or not the display change instruction is a registration date and time alignment instruction. More specifically, the display control unit 160 determines whether or not a user interface (such as a registration date and time alignment icon 715 in FIG. 9 described later) for instructing registration date and time has been operated. At this time, if the display control unit 160 determines that the display change instruction is a registration date and time alignment instruction, the display control unit 160 performs the process of S550. On the other hand, if the display control unit 160 determines that the display change instruction is not a registered date / time alignment instruction, it subsequently performs the process of S555.
In S550, the display control unit 160 arranges the tags in the order of registration and displays them on the display panel 10, and ends the display control process.

より詳細に説明すると、表示制御部160は、まず、登録日時整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、タグの登録日時に応じてタグを整列するルールが規定されている。本実施形態では、対象タグがタグ群であったことを示す情報を用いて対象タグを識別し、登録日時が新しいもの(或いは登録日時が古いもの)から順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、登録日時順にタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、登録順にタグを整列して表示する。この場合の表示パネル10の表示態様の一例を図9(C)に示す。
More specifically, the display control unit 160 first reads out the tag alignment setting information provided corresponding to the registration date / time alignment instruction from the storage device 110. The tag alignment setting information defines rules for aligning tags according to tag registration date and time. In this embodiment, a rule for identifying a target tag using information indicating that the target tag is a tag group, and displaying the tag in order from the newest registration date (or the oldest registration date) is defined. Yes. However, the rules are not limited to the above rules, and other rules for arranging tags in the order of registration date and time may be adopted.
Then, the display control unit 160 arranges and displays the tags in the order of registration according to the above rules. An example of the display mode of the display panel 10 in this case is shown in FIG.

S555では、表示制御部160は、表示変更指示がクリック数整列指示であるか否かを判断する。より具体的には、表示制御部160は、クリック数での整列を指示するユーザインタフェース(後述の図9のクリック数整列アイコン720など)が操作されたか否かを判断する。このとき、表示制御部160は、表示変更指示がクリック数整列指示であると判断した場合、S560の処理を行う。他方、表示制御部160は、表示変更指示がクリック数整列指示でないと判断した場合、表示制御処理を終了する。
S560では、表示制御部160は、サーバ装置200からクリック数情報を取得し、クリック数順(回数順)にタグを整列して表示パネル10に表示し、表示制御処理を終了する。
In S555, the display control unit 160 determines whether the display change instruction is a click number alignment instruction. More specifically, the display control unit 160 determines whether or not a user interface (such as a click number alignment icon 720 in FIG. 9 described later) for instructing alignment by the number of clicks has been operated. At this time, if the display control unit 160 determines that the display change instruction is a click number alignment instruction, it performs the process of S560. On the other hand, if the display control unit 160 determines that the display change instruction is not a click number alignment instruction, the display control process ends.
In S560, the display control unit 160 acquires click number information from the server device 200, arranges the tags in the click number order (number order), displays them on the display panel 10, and ends the display control process.

より詳細に説明すると、表示制御部160は、まず、制御部150及び通信部165を介してサーバ装置200にクリック数情報を要求する。
即ち、表示制御部160は、制御部150及び通信部165を介して対象タグのIDを送信する。他方、サーバ装置200の制御部250は、通信部255を介して対象タグのIDを受信すると、IDに対応するクリック数情報をタグDB20から抽出し、通信部255を介して、抽出したクリック数情報を対象タグのIDと共に端末装置100に送信する。
また、端末装置100の表示制御部160は、制御部150及び通信部165を介してクリック数情報を受信すると、クリック数整列指示に対応して設けられたタグ整列設定情報を記憶装置110から読み出す。このタグ整列設定情報には、タグのクリック数に応じてタグを整列するルールが規定されている。本実施形態では、対象タグがタグ群であったことを示す情報を用いて対象タグを識別し、クリック数が多いもの(或いはクリック数が少ないもの)から順にタグを表示するルールが規定されている。しかしながら、上記ルールに限られるものではなく、クリック数順にタグを整列する他のルールを採用してもよい。
そして、表示制御部160は、上記ルールに従って、クリック数順にタグを整列して表示する。
なお、クリック数情報については、本実施形態で説明したように、対象タグが特定されるたびにサーバ装置200に要求してもよいし、S415の処理でクリック数情報が含められた表示情報をサーバ装置200から取得して記憶装置110に記憶しておいてもよい。
More specifically, the display control unit 160 first requests click number information from the server device 200 via the control unit 150 and the communication unit 165.
That is, the display control unit 160 transmits the ID of the target tag via the control unit 150 and the communication unit 165. On the other hand, when receiving the ID of the target tag via the communication unit 255, the control unit 250 of the server apparatus 200 extracts click number information corresponding to the ID from the tag DB 20, and extracts the click number via the communication unit 255. The information is transmitted to the terminal device 100 together with the ID of the target tag.
Further, when the display control unit 160 of the terminal device 100 receives the click number information via the control unit 150 and the communication unit 165, it reads out the tag alignment setting information provided corresponding to the click number alignment instruction from the storage device 110. . In this tag alignment setting information, a rule for aligning tags according to the number of clicks of the tag is defined. In this embodiment, a rule for identifying a target tag using information indicating that the target tag is a tag group and displaying tags in descending order of the number of clicks (or the number of clicks) is defined. Yes. However, the rules are not limited to the above rules, and other rules for arranging tags in the order of the number of clicks may be adopted.
Then, the display control unit 160 arranges and displays the tags in the order of the number of clicks according to the above rules.
As described in the present embodiment, the click number information may be requested to the server device 200 every time the target tag is specified, or the display information including the click number information in the process of S415 may be requested. It may be acquired from the server device 200 and stored in the storage device 110.

図8は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図8(A)に示すように、撮影装置135で撮影された映像の整合した位置にタグが重畳されて表示パネル10に表示される。以下、この状態を「未整列画面」と記載する。そして、未整列画面において、距離整列アイコン705が押下された場合、図8(B)に示す距離整列画面に画面が切り替わる。また、未整列画面において、区間整列アイコン710が押下された場合、図8(C)に示す区間整列画面に画面が切り替わる。
FIG. 8 is a diagram illustrating an example (screen) of a display mode of the display panel 10.
For example, when the AR application is activated by the user, as shown in FIG. 8A, a tag is superimposed on a position where the video imaged by the imaging device 135 is aligned and displayed on the display panel 10. Hereinafter, this state is referred to as an “unaligned screen”. When the distance alignment icon 705 is pressed on the unaligned screen, the screen is switched to the distance alignment screen shown in FIG. Further, when the section alignment icon 710 is pressed on the unaligned screen, the screen is switched to the section alignment screen shown in FIG.

距離整列画面では、未整列画面において重なって表示されていたタグ(605〜630)が距離順に整列されて表示される。このように、タグが距離順に整列されることで、例えば、ユーザは、二番目や三番目に近い対象物或いは逆に最も遠い対象物が何であるかを容易に把握できるようになる。
区間整列画面では、未整列画面において重なって表示されていたタグ(605〜630)が区間ごとに整列されて表示される。このように、タグが区間ごとに整列されることで、例えば、ユーザは、どのくらいの距離に対象物が多く存在するのかを容易に把握できるようになる。
なお、距離整列画面において区間整列アイコン710が押下された場合、区間整列画面に画面が切り替わり、区間整列画面において距離整列アイコン705が押下された場合、距離整列画面に画面が切り替わる。また、距離整列画面又は距離整列画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
On the distance alignment screen, the tags (605 to 630) displayed in an overlapping manner on the unaligned screen are displayed in the order of distance. Thus, by arranging the tags in order of distance, for example, the user can easily grasp what is the second or third closest object or conversely the most distant object.
In the section alignment screen, the tags (605 to 630) that are displayed in an overlapping manner on the unaligned screen are displayed by being aligned for each section. Thus, by arranging the tags for each section, for example, the user can easily grasp how many objects are present at a certain distance.
When the section alignment icon 710 is pressed on the distance alignment screen, the screen is switched to the section alignment screen. When the distance alignment icon 705 is pressed on the section alignment screen, the screen is switched to the distance alignment screen. In addition, when an instruction to cancel alignment is received on the distance alignment screen or the distance alignment screen, the screen is switched to an unaligned screen.

図9は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図9(A)に示す未整列画面が表示パネル10に表示される。そして、未整列画面において、ユーザ805によりタグ(605〜605)のうちの何れかが一定の時間にわたりタップされた場合、図9(B)に示す種類整列画面に画面が切り替わる。また、種類整列画面において、登録日時整列アイコン715が押下された場合、図9(C)に示す登録日時整列画面に画面が切り替わる。
ここで、種類整列画面では、未整列画面において重なって表示されていたタグ群のうちタップされたタグが含まれるタグ群、即ちタグ(605〜615、630〜645)が種類ごとに整列されて表示される。
この例では、タグの属性(種類)が、タグの形状である場合を示したが、例えば、和食、洋食などの対象物のサービスの属性である場合、和食についてのタグ、洋食についてのタグが夫々で近接するように配置されて表示されることになる。なお、表示位置905は、ユーザ805によりタップされた表示位置を示す。また、識別線910は、タップされたタグ群であったタグを識別するものである。
また、登録日時整列画面では、未整列画面において重なって表示されていたタグ(605〜615、630〜645)が登録順に整列されて表示される。
FIG. 9 is a diagram illustrating an example (screen) of a display mode of the display panel 10.
For example, when the AR application is activated by the user, an unaligned screen shown in FIG. 9A is displayed on the display panel 10. When any of the tags (605 to 605) is tapped by the user 805 on the unsorted screen for a certain period of time, the screen is switched to the type-sorted screen shown in FIG. 9B. When the registration date / time alignment icon 715 is pressed on the type alignment screen, the screen is switched to the registration date / time alignment screen shown in FIG.
Here, in the type arrangement screen, the tag groups including the tapped tags among the tag groups that are displayed in an overlapped manner on the unsorted screen, that is, tags (605 to 615, 630 to 645) are arranged for each type. Is displayed.
In this example, the case where the attribute (type) of the tag is the shape of the tag is shown. However, for example, when the attribute is the service attribute of the target object such as Japanese food, Western food, the tag for Japanese food, They are arranged and displayed so as to be close to each other. Note that the display position 905 indicates the display position tapped by the user 805. The identification line 910 identifies a tag that was a tapped tag group.
In addition, on the registration date and time alignment screen, the tags (605 to 615 and 630 to 645) that are displayed in an overlapping manner on the unaligned screen are displayed in order of registration.

なお、未整列画面において、距離整列アイコン705が押下された場合、距離整列画面に画面が切り替わり、区間整列アイコン710が押下された場合、区間整列画面に画面が切り替わる。
また、種類整列画面(或いは登録日時整列画面)においてクリック数整列アイコン720が押下された場合、クリック数整列画面(図示せず。)に画面が切り替わり、登録日時整列画面において種類整列アイコン725が押下された場合、種類整列画面に画面が切り替わる。また、種類整列画面、登録日時整列画面、又はクリック数整列画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
図9に示す画面は、上述した構成に限られるものではない。例えば、種類整列画面、登録日時整列画面、及びクリック数整列画面では、タップされたタグ群とは異なる他のタグ群(タグD620、タグE625、タグJ650)をタップされたタグ群と同様に整列してもよい。また、種類整列画面、登録日時整列画面、及びクリック数整列画面では、タップされたタグ群のタグ以外のタグ(他のタグ群など)を非表示としてもよい。
When the distance alignment icon 705 is pressed on the unaligned screen, the screen is switched to the distance alignment screen, and when the section alignment icon 710 is pressed, the screen is switched to the section alignment screen.
When the click number alignment icon 720 is pressed on the type alignment screen (or registration date alignment screen), the screen switches to the click number alignment screen (not shown), and the type alignment icon 725 is pressed on the registration date alignment screen. If this happens, the screen will switch to the sort type screen. In addition, when a sort release instruction is accepted on the type sort screen, the registration date sort screen, or the click count sort screen, the screen is switched to the unsort screen.
The screen shown in FIG. 9 is not limited to the configuration described above. For example, in the type alignment screen, the registration date alignment screen, and the click number alignment screen, other tag groups (tag D620, tag E625, tag J650) different from the tapped tag group are aligned in the same manner as the tapped tag group. May be. In addition, on the type alignment screen, the registration date alignment screen, and the click number alignment screen, tags other than the tags of the tapped tag group (other tag groups, etc.) may be hidden.

上述した構成によれば、拡張現実技術で本来行うべき重畳表示をユーザの指示に基づいて一旦解除して互いのタグが重ならないように再配置して表示されることで、各タグのクリックがより容易になる。また、各タグの内容を一斉に把握できるので、各タグの内容を比較することがより容易になる。また、表示変更指示に応じたタグの整列が行われるので、タグの関連性の把握がより容易になる。
なお、上述した各表示態様の選択順序はあくまでも一例であり、その順序や表示の種類は上述したものに限るものではない。また、各表示態様を選択する構成も上述したものに限られるものではなく、アイコンを押下するか、或いは一定の時間にわたりタグをタップするかという方法についても設計に応じて変更してよい。
According to the configuration described above, the superimposed display that should be originally performed in augmented reality technology is temporarily released based on the user's instruction and rearranged and displayed so that the tags do not overlap each other. It becomes easier. Moreover, since the contents of each tag can be grasped all at once, it becomes easier to compare the contents of each tag. In addition, since the tags are arranged according to the display change instruction, it is easier to grasp the relationship between the tags.
Note that the selection order of the display modes described above is merely an example, and the order and display type are not limited to those described above. Further, the configuration for selecting each display mode is not limited to that described above, and a method of pressing an icon or tapping a tag for a certain time may be changed according to the design.

<第2の実施形態>
本実施形態では、重なって表示されているタグを選択、把握する他の拡張現実感提供方法について説明する。なお、本実施形態では、第1の実施形態と同一の構成には同一の符号を用いて説明を適宜省略する。
図10は、表示パネル10の表示態様の一例(画面)を示す図である。
例えば、ユーザによりARアプリケーションが起動されると、図10(A)に示す未整列画面が表示パネル10に表示される。そして、未整列画面において、上空視点アイコン735が押下された場合、図10(B)に示す上空視点画面に画面が切り替わる。また、未整列画面において、寸法変更アイコン740が押下された場合、図10(C)に示す寸法変更画面に画面が切り替わる。
上空視点画面では、未整列画面において重なって表示されていたタグ(605〜630)が上空から見下ろしたときの内容として表示される。例えば、表示制御処理では、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから表示パネル10におけるタグの新たな表示位置を算出し、タグの形状を上空から視認したとき用の態様に変更し、表示パネル10に表示する。この構成によれば、例えば、タグの位置の把握がより容易になる。
<Second Embodiment>
In the present embodiment, another augmented reality providing method for selecting and grasping the tags displayed in an overlapping manner will be described. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate.
FIG. 10 is a diagram illustrating an example (screen) of a display mode of the display panel 10.
For example, when the AR application is activated by the user, an unaligned screen shown in FIG. 10A is displayed on the display panel 10. When the sky viewpoint icon 735 is pressed on the unaligned screen, the screen is switched to the sky viewpoint screen shown in FIG. When the dimension change icon 740 is pressed on the unaligned screen, the screen is switched to the dimension change screen shown in FIG.
In the sky viewpoint screen, the tags (605 to 630) that are displayed overlapping on the unaligned screen are displayed as contents when looking down from the sky. For example, in the display control process, the display control unit 160 calculates a new display position of the tag on the display panel 10 from the device position information of the terminal device 100 and the tag position information of the tag, and visually recognizes the shape of the tag from the sky. The mode is changed to the time mode and displayed on the display panel 10. According to this configuration, for example, it becomes easier to grasp the position of the tag.

寸法変更画面では、未整列画面において重なって表示されていたタグ(605〜630)の寸法が距離に応じて変更されて表示される。
例えば、表示制御処理では、表示制御部160は、各タグの左上の頂点を基準として、距離が長いほどタグの寸法が大きくなるようにタグの寸法を距離に応じて拡大(或いは縮小)する。より具体的には、表示制御部160は、端末装置100の装置位置情報とタグのタグ位置情報とから端末装置100とタグとの距離を算出し、距離に応じて拡大倍率(或いは縮小倍率)が規定された情報を記憶装置110から読み出し、読み出した情報に従ってタグの寸法を拡大(或いは縮小)する。つまり、通常の遠近法とは逆に、遠いオブジェクトをより大きく表示することにより、手前のオブジェクトに隠れてしまうことを避けるように表示する。
On the dimension change screen, the dimensions of the tags (605 to 630) displayed overlapping on the unaligned screen are changed and displayed according to the distance.
For example, in the display control process, the display control unit 160 enlarges (or reduces) the tag size according to the distance so that the tag size increases as the distance increases, with the upper left vertex of each tag as a reference. More specifically, the display control unit 160 calculates the distance between the terminal device 100 and the tag from the device position information of the terminal device 100 and the tag position information of the tag, and enlargement magnification (or reduction magnification) according to the distance. Is read from the storage device 110, and the dimensions of the tag are enlarged (or reduced) according to the read information. In other words, contrary to the normal perspective, the distant object is displayed in a larger size so as to avoid being hidden behind the object in front.

なお、本実施形態は、この構成に限られるものではない。例えば、表示制御部160が各タグの中心を基準としてタグの寸法を距離に応じて拡大(或いは縮小)する構成としてもよい。また、例えば、表示制御部160が、タグの寸法を距離に応じて拡大(或いは縮小)したときのタグの配置を頂点ごとに算出し、最もタグの内容が表示される配置の頂点を選定し、選定した頂点を基準としてタグの寸法を距離に応じて拡大(或いは縮小)する構成を採用してもよい。
更に、各タグに表示される文字列情報、イメージ情報などを、各タグの中心付近ではなく、他のタグに隠れない位置を算出して表示する構成としてもよい。
また、上空視点画面又は寸法変更画面において、整列解除指示が受け付けられると、未整列画面に画面が切り替わる。
Note that the present embodiment is not limited to this configuration. For example, the display control unit 160 may be configured to enlarge (or reduce) the tag dimensions according to the distance with reference to the center of each tag. Further, for example, the display control unit 160 calculates the tag arrangement for each vertex when the dimension of the tag is enlarged (or reduced) according to the distance, and selects the vertex of the arrangement where the tag contents are displayed most. A configuration may be employed in which the tag dimensions are enlarged (or reduced) in accordance with the distance with the selected vertex as a reference.
Furthermore, it is good also as a structure which calculates and displays the character string information, image information, etc. which are displayed on each tag not the vicinity of the center of each tag but the position hidden in another tag.
In addition, when an alignment release instruction is received on the sky viewpoint screen or the dimension change screen, the screen is switched to the unaligned screen.

上述した構成によれば、各タグのクリックがより容易になる。また、各タグの内容を一斉に把握できるので、各タグの内容を比較することがより容易になる。
なお、上述した実施形態では、ユーザが表示パネル10に対してタップ等の指示を行うことで整列画面に移行する構成を採用したが、本実施形態は、これに限られるものではない。例えば、姿勢検出装置130で検出された端末装置100の姿勢情報に基づいて、表示パネル10が略水平方向に倒されたことを契機にタグの形状を上空から視認したとき用の態様に変更する構成としてもよい。これにより、ユーザは、端末装置100の姿勢を操るだけで重なって見づらかった各タグの内容を比較することがより容易になる。
According to the above-described configuration, it is easier to click each tag. Moreover, since the contents of each tag can be grasped all at once, it becomes easier to compare the contents of each tag.
In the above-described embodiment, the configuration is adopted in which the user shifts to the alignment screen when the user instructs the display panel 10 to tap or the like. However, the present embodiment is not limited to this. For example, based on the posture information of the terminal device 100 detected by the posture detection device 130, the tag shape is changed to a mode for viewing when the display panel 10 is tilted in a substantially horizontal direction. It is good also as a structure. Accordingly, it becomes easier for the user to compare the contents of the tags that are difficult to see by overlapping only by manipulating the attitude of the terminal device 100.

<その他の実施形態>
第1の実施形態、及び第2の実施形態では、撮影装置135の視野に含まれる一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する構成を示したが、この構成に限られるものではない。
例えば、端末装置100が装置位置情報を含む装置情報をサーバ装置200に送信し、サーバ装置200が端末装置100から一定の距離内に存在するタグのIDをタグDB20のタグ位置情報を参照して特定する構成を採用してもよい。この場合、端末装置100は、受信する表示情報に含まれるタグの中から撮影装置135の視野に含まれるタグ(ID)を特定し、特定したタグを表示パネル10に表示する。
また、第1の実施形態、及び第2の実施形態では、タグが、サーバ装置200で生成される構成を示したが、この構成に限られるものではない。例えば、タグが、端末装置100で生成される構成を採用してもよい。この場合、サーバ装置200は、タグに代えて表示内容情報を表示情報に含めて端末装置100に送信する。
<Other embodiments>
In the first embodiment and the second embodiment, the configuration in which the ID of a tag existing within a certain distance included in the field of view of the imaging device 135 is specified with reference to the tag position information of the tag DB 20 is shown. The configuration is not limited to this.
For example, the terminal device 100 transmits device information including the device position information to the server device 200, and the server device 200 refers to the tag position information in the tag DB 20 for the ID of a tag that exists within a certain distance from the terminal device 100. A specific configuration may be adopted. In this case, the terminal device 100 specifies a tag (ID) included in the field of view of the imaging device 135 from the tags included in the received display information, and displays the specified tag on the display panel 10.
In the first embodiment and the second embodiment, the configuration in which the tag is generated by the server device 200 has been described. However, the configuration is not limited to this configuration. For example, a configuration in which the tag is generated by the terminal device 100 may be adopted. In this case, the server apparatus 200 includes the display content information instead of the tag and transmits the display information to the terminal apparatus 100.

また、第1の実施形態、及び第2の実施形態では、タグDB20に、タグの生成に用いられる表示内容情報、形状情報などが格納される構成を示したが、この構成に限られるものではない。例えば、サーバ装置200は、タグDB20へのタグ情報の登録の際に、表示内容情報、形状情報などをもとにタグを生成してタグDB20に格納してもよい。
また、端末装置100とサーバ装置200とが行う処理の分担は、上述した構成に限られるものではない。例えば、端末装置100がサーバ装置200の一部又は全部の処理を実行してもよいし、サーバ装置200が端末装置100の一部の処理を実行してもよい。
また、本実施形態では、第1の実施形態の構成、及び第2の実施形態の構成を適宜変更したり適宜組み合わせたりした構成を採用してもよい。
In the first embodiment and the second embodiment, the configuration in which display content information and shape information used for tag generation are stored in the tag DB 20 is shown. However, the present invention is not limited to this configuration. Absent. For example, the server device 200 may generate a tag based on display content information, shape information, and the like and store the tag information in the tag DB 20 when registering the tag information in the tag DB 20.
Further, the sharing of processing performed by the terminal device 100 and the server device 200 is not limited to the configuration described above. For example, the terminal device 100 may execute part or all of the processing of the server device 200, or the server device 200 may execute part of the processing of the terminal device 100.
In the present embodiment, a configuration in which the configuration of the first embodiment and the configuration of the second embodiment are appropriately changed or appropriately combined may be employed.

なお、表示パネル10の表示態様が上述した第1の実施形態、及び第2の実施形態で示した何れかの表示態様となるようにユーザが初期値を設定しておき、表示パネル10へのタップ操作や端末装置100の姿勢に応じて初期値で設定された表示態様に直接移行するようにしてもよい。
また、表示パネルとして透過型液晶ディスプレイを利用した携帯型端末、HMD等を使用する場合、必ずしも撮影装置135は必要ではなく、各ディスプレイの画角を初期値として設定しておき、表示されるARオブジェクトを特定してもよい。この場合、表示態様の選択については、画面への操作だけではなく、携帯型端末やHMDに備えられた物理的なスイッチ類で行ってもよく、或いは上述したような姿勢情報によって行ってもよい。
Note that the user sets initial values so that the display mode of the display panel 10 is any one of the display modes described in the first embodiment and the second embodiment described above, and You may make it transfer directly to the display mode set by the initial value according to tap operation and the attitude | position of the terminal device 100. FIG.
Further, when a portable terminal using a transmissive liquid crystal display, an HMD, or the like is used as a display panel, the photographing device 135 is not necessarily required, and an AR displayed by setting the angle of view of each display as an initial value. An object may be specified. In this case, selection of the display mode may be performed not only by operation on the screen but also by physical switches provided in the portable terminal or the HMD, or may be performed by the attitude information as described above. .

上述した各実施形態の構成によれば、表示オブジェクトをより適切に表示することができる。   According to the structure of each embodiment mentioned above, a display object can be displayed more appropriately.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 端末装置
200 サーバ装置
100 terminal device 200 server device

Claims (13)

当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部とを有する情報処理装置であって、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、
を有することを特徴とする情報処理装置。
A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An information processing apparatus having a display unit and a display unit on which a display object is displayed,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of pieces of identification information read by the reading unit does not overlap. Means,
An information processing apparatus comprising:
撮影を行う撮影部を更に有し、
前記表示制御手段は、前記撮影部で撮影された映像に整合する前記表示部における表示位置に前記複数の表示オブジェクトを表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、前記複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示することを特徴とする請求項1に記載の情報処理装置。
It further has a photographing unit for photographing,
When the display control means displays the plurality of display objects at the display position in the display unit that matches the video imaged by the imaging unit, and determines that the display switching instruction has been received through a user operation, The information processing apparatus according to claim 1, wherein the plurality of display objects are displayed at display positions on the display unit where the plurality of display objects do not overlap each other.
前記表示制御手段は、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトを更に距離順に整列して表示することを特徴とする請求項1又は2に記載の情報処理装置。   The display control means calculates each distance from position information of the information processing apparatus and a plurality of position information of the plurality of display objects, and further displays the plurality of display objects arranged in order of distance. The information processing apparatus according to claim 1 or 2. 前記表示制御手段は、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトを更に前記一定の距離の複数の区間うちの何れかの区間に分類して表示することを特徴とする請求項1又は2に記載の情報処理装置。   The display control means calculates respective distances from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and further adds the plurality of display objects to a plurality of sections of the certain distance. The information processing apparatus according to claim 1, wherein the information processing apparatus is classified into any section and displayed. 前記記憶部に記憶される識別情報には、表示オブジェクトの属性を示す属性情報が更に関連付けられ、
前記読出手段は、前記複数の表示オブジェクトの前記複数の識別情報の各々に関連付けられた属性情報を更に読み出し、
前記表示制御手段は、前記読出手段で読み出された属性情報に従って前記複数の表示オブジェクトを更に属性ごとに分類して表示することを特徴とする請求項1又は2に記載の情報処理装置。
The identification information stored in the storage unit is further associated with attribute information indicating the attribute of the display object,
The reading means further reads attribute information associated with each of the plurality of identification information of the plurality of display objects,
The information processing apparatus according to claim 1, wherein the display control unit further classifies and displays the plurality of display objects for each attribute according to the attribute information read by the reading unit.
前記記憶部に記憶される識別情報には、前記識別情報に関連付けられた位置情報及び態様情報が登録されたときの時間を示す時間情報が更に関連付けられ、
前記読出手段は、前記複数の表示オブジェクトの前記複数の識別情報の各々に関連付けられた時間情報を更に読み出し、
前記表示制御手段は、前記読出手段で読み出された時間情報に従って前記複数の表示オブジェクトを更に登録順に整列して表示することを特徴とする請求項1又は2に記載の情報処理装置。
The identification information stored in the storage unit is further associated with time information indicating a time when position information and aspect information associated with the identification information are registered,
The reading means further reads time information associated with each of the plurality of identification information of the plurality of display objects,
3. The information processing apparatus according to claim 1, wherein the display control unit further displays the plurality of display objects in an order of registration according to the time information read by the reading unit.
表示オブジェクトがアクセスされた回数を計数し、前記回数の情報を管理するサーバ装置と通信可能に接続され、
前記表示制御手段は、前記複数の表示オブジェクトに対応する回数の情報を前記サーバ装置から取得し、前記取得した回数の情報に従って前記複数の表示オブジェクトを更にアクセスされた回数順に整列して表示することを特徴とする請求項1又は2に記載の情報処理装置。
The number of times the display object is accessed is counted, and is connected to be able to communicate with a server device that manages the information on the number of times.
The display control means acquires information on the number of times corresponding to the plurality of display objects from the server device, and displays the plurality of display objects in order of the number of times accessed in accordance with the information on the acquired number of times. The information processing apparatus according to claim 1 or 2.
前記表示制御手段は、ユーザ操作を介して前記複数の表示オブジェクトのうちの一の表示オブジェクトの指定を受け付け、前記指定された表示オブジェクトが含まれる表示オブジェクト群を前記複数の表示オブジェクトのうちから特定し、前記特定された表示オブジェクト群の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記表示オブジェクト群の表示オブジェクトを表示することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。   The display control unit receives designation of one display object among the plurality of display objects through a user operation, and specifies a display object group including the designated display object from the plurality of display objects. The display object of the display object group is displayed at a display position in the display unit where the display objects of the specified display object group do not overlap each other. The information processing apparatus described. 当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部と、撮影を行う撮影部とを有する情報処理装置であって、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、
を有することを特徴とする情報処理装置。
A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with identification information An information processing apparatus having a display unit, a display unit for displaying a display object, and a shooting unit for shooting,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read by the reading unit at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. Display control means for displaying the larger as the calculated distance is longer,
An information processing apparatus comprising:
当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部とを有する情報処理装置における拡張現実感提供方法であって、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出工程と、
前記読出工程で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御工程と、
を有することを特徴とする拡張現実感提供方法。
A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An augmented reality providing method in an information processing apparatus having a display unit and a display unit on which a display object is displayed,
A reading step of reading position information and mode information associated with identification information of a display object within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of identification information read in the reading step does not overlap. Process,
An augmented reality providing method characterized by comprising:
当該情報処理装置の位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部と、撮影を行う撮影部とを有する情報処理装置における拡張現実感提供方法であって、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出工程と、
前記読出工程で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該情報処理装置の位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御工程と、
を有することを特徴とする拡張現実感提供方法。
A storage for storing position information indicating the position of the information processing apparatus, position information indicating the position of the display object in the real space, and mode information indicating the display mode of the display object in association with the identification information An augmented reality providing method in an information processing apparatus having a display unit, a display unit that displays a display object, and a shooting unit that performs shooting,
A reading step of reading position information and mode information associated with identification information of a display object within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read in the reading step at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, the distances are calculated from the position information of the information processing apparatus and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. A display control step of displaying the larger as the calculated distance is longer,
An augmented reality providing method characterized by comprising:
当該コンピュータの位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部とを有するコンピュータを、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトの各々が重ならない前記表示部における表示位置に前記複数の表示オブジェクトを表示する表示制御手段と、
して機能させるプログラム。
A specifying unit for specifying position information indicating the position of the computer, a storage unit for storing position information indicating the position of the display object in the real space and mode information indicating the display mode of the display object in association with identification information; A computer having a display unit on which display objects are displayed,
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Display control for displaying the plurality of display objects at a display position in the display unit in which each of the plurality of display objects generated from the plurality of pieces of aspect information associated with the plurality of pieces of identification information read by the reading unit does not overlap. Means,
Program to make it work.
当該コンピュータの位置を示す位置情報を特定する特定部と、表示オブジェクトの現実空間での位置を示す位置情報と前記表示オブジェクトの表示態様を示す態様情報とを識別情報に関連付けて記憶する記憶部と、表示オブジェクトの表示が行われる表示部と、撮影を行う撮影部とを有するコンピュータを、
前記特定部で特定された位置情報を基準として一定の距離内にある表示オブジェクトの識別情報に関連付けられた位置情報と態様情報とを前記記憶部から読み出す読出手段と、
前記読出手段で読み出された複数の識別情報に関連付けられた複数の態様情報から生成される複数の表示オブジェクトを前記撮影部で撮影された映像に整合する前記表示部における表示位置に表示し、ユーザ操作を介して表示の切り替えの指示を受け付けたと判断すると、当該コンピュータの位置情報と前記複数の表示オブジェクトの複数の位置情報とから夫々の距離を算出し、前記複数の表示オブジェクトの寸法を前記算出した距離が長いほど大きくして表示する表示制御手段と、
して機能させるプログラム。
A specifying unit for specifying position information indicating the position of the computer, a storage unit for storing position information indicating the position of the display object in the real space and mode information indicating the display mode of the display object in association with identification information; A computer having a display unit for displaying a display object and a photographing unit for photographing;
Reading means for reading position information and mode information associated with identification information of display objects within a certain distance from the position information specified by the specifying unit from the storage unit;
Displaying a plurality of display objects generated from a plurality of pieces of aspect information associated with a plurality of pieces of identification information read by the reading unit at a display position in the display unit that matches a video imaged by the imaging unit; If it is determined that a display switching instruction has been received through a user operation, each distance is calculated from the position information of the computer and the plurality of position information of the plurality of display objects, and the dimensions of the plurality of display objects are calculated. Display control means for displaying a larger distance as the calculated distance is longer;
Program to make it work.
JP2011061442A 2011-03-18 2011-03-18 Information processing apparatus, augmented reality providing method, and program Active JP5755915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061442A JP5755915B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, augmented reality providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011061442A JP5755915B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, augmented reality providing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015103484A Division JP5965515B2 (en) 2015-05-21 2015-05-21 Information processing apparatus, augmented reality providing method, and program

Publications (2)

Publication Number Publication Date
JP2012198668A true JP2012198668A (en) 2012-10-18
JP5755915B2 JP5755915B2 (en) 2015-07-29

Family

ID=47180839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061442A Active JP5755915B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, augmented reality providing method, and program

Country Status (1)

Country Link
JP (1) JP5755915B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469464A (en) * 2013-09-25 2015-03-25 精工爱普生株式会社 Image display device, method of controlling image display device, computer program, and image display system
JP2015090524A (en) * 2013-11-05 2015-05-11 ソニー株式会社 Information processor, information processing method, and program
CN104808956A (en) * 2014-01-23 2015-07-29 富士通株式会社 System and method for controlling a display
JP2015227919A (en) * 2014-05-30 2015-12-17 セイコーエプソン株式会社 Image display device, control method of the same, computer program and image display system
WO2016031358A1 (en) * 2014-08-27 2016-03-03 ソニー株式会社 Display control device, display control method, and program
US10235776B2 (en) 2015-09-07 2019-03-19 Kabushiki Kaisha Toshiba Information processing device, information processing method, and information processing program
WO2019130708A1 (en) * 2017-12-25 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
US10445911B2 (en) 2016-05-25 2019-10-15 Fujitsu Limited Display control method and display control device
JPWO2021256242A1 (en) * 2020-06-15 2021-12-23
JP2023065528A (en) * 2019-03-18 2023-05-12 マクセル株式会社 Head-mounted information processing apparatus and head-mounted display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method
JP2012027606A (en) * 2010-07-21 2012-02-09 Brilliantservice Co Ltd Air tag display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method
JP2012027606A (en) * 2010-07-21 2012-02-09 Brilliantservice Co Ltd Air tag display system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
柴田 史久 FUMIHISA SHIBATA: "拡張現実感(AR) Augmented Reality", 情報処理, vol. 第51巻 第4号, JPN6014039475, 15 April 2010 (2010-04-15), JP, pages 385 - 391, ISSN: 0002901022 *
近藤 純司 JUNNJI KONNDOU: "カメラの向こうに拡がるセカイ セカイカメラで目指すもの", 月刊アスキードットテクノロジーズ ASCII.TECHNOLOGIES, vol. 第14巻 第11号, JPN6015015139, 1 November 2009 (2009-11-01), JP, pages 90 - 95, ISSN: 0003054998 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
CN104469464A (en) * 2013-09-25 2015-03-25 精工爱普生株式会社 Image display device, method of controlling image display device, computer program, and image display system
CN104469464B (en) * 2013-09-25 2020-03-06 精工爱普生株式会社 Image display device, method for controlling image display device, computer program, and image display system
JP2015090524A (en) * 2013-11-05 2015-05-11 ソニー株式会社 Information processor, information processing method, and program
US9836115B2 (en) 2013-11-05 2017-12-05 Sony Corporation Information processing device, information processing method, and program
CN104808956A (en) * 2014-01-23 2015-07-29 富士通株式会社 System and method for controlling a display
JP2015227919A (en) * 2014-05-30 2015-12-17 セイコーエプソン株式会社 Image display device, control method of the same, computer program and image display system
US10796669B2 (en) 2014-08-27 2020-10-06 Sony Corporation Method and apparatus to control an augmented reality head-mounted display
JPWO2016031358A1 (en) * 2014-08-27 2017-06-08 ソニー株式会社 Display control apparatus, display control method, and program
WO2016031358A1 (en) * 2014-08-27 2016-03-03 ソニー株式会社 Display control device, display control method, and program
US10235776B2 (en) 2015-09-07 2019-03-19 Kabushiki Kaisha Toshiba Information processing device, information processing method, and information processing program
US10445911B2 (en) 2016-05-25 2019-10-15 Fujitsu Limited Display control method and display control device
WO2019130708A1 (en) * 2017-12-25 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
JP2023065528A (en) * 2019-03-18 2023-05-12 マクセル株式会社 Head-mounted information processing apparatus and head-mounted display system
US11972037B2 (en) 2019-03-18 2024-04-30 Maxell, Ltd. Head mounted information processing apparatus and head mounted display system
JPWO2021256242A1 (en) * 2020-06-15 2021-12-23
WO2021256242A1 (en) * 2020-06-15 2021-12-23 Necソリューションイノベータ株式会社 Guide device, guide system, guide method, program, and storage medium
JP7355467B2 (en) 2020-06-15 2023-10-03 Necソリューションイノベータ株式会社 Guide device, guide system, guide method, program, and recording medium

Also Published As

Publication number Publication date
JP5755915B2 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
JP5755915B2 (en) Information processing apparatus, augmented reality providing method, and program
US9916673B2 (en) Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
US9582166B2 (en) Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
EP3050030B1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US8897498B2 (en) Mobile imaging device as navigator
CA2799443C (en) Method and apparatus for presenting location-based content
CN104731337B (en) Method for representing virtual information in true environment
KR101295712B1 (en) Apparatus and Method for Providing Augmented Reality User Interface
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
CN109584374A (en) The method, apparatus and computer readable storage medium of interactive navigation auxiliary are provided for using removable leader label
JP7032451B2 (en) Dynamically changing the visual properties of indicators on digital maps
JP2013077328A (en) Information processing system, information processing method and program
US9928305B2 (en) Method and apparatus of physically moving a portable unit to view composite webpages of different websites
US20130120450A1 (en) Method and apparatus for providing augmented reality tour platform service inside building by using wireless communication device
JP5952667B2 (en) Message management apparatus, message management method, and program
JP6093841B2 (en) System, information processing method and program
JP2012088801A (en) Electronic book device and electronic book program
JP4710217B2 (en) Information presenting apparatus, information presenting method, information presenting system, and computer program
JP5705793B2 (en) Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
JP5965515B2 (en) Information processing apparatus, augmented reality providing method, and program
JP7065455B2 (en) Spot information display system
JP4812609B2 (en) Navigation system and navigation device
KR20200083747A (en) method of processing VR video
JP2011095081A (en) Guidance system, guidance method, route search device, and terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150528

R150 Certificate of patent or registration of utility model

Ref document number: 5755915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250