JP6548241B1 - Augmented reality program and information processing apparatus - Google Patents

Augmented reality program and information processing apparatus Download PDF

Info

Publication number
JP6548241B1
JP6548241B1 JP2018133771A JP2018133771A JP6548241B1 JP 6548241 B1 JP6548241 B1 JP 6548241B1 JP 2018133771 A JP2018133771 A JP 2018133771A JP 2018133771 A JP2018133771 A JP 2018133771A JP 6548241 B1 JP6548241 B1 JP 6548241B1
Authority
JP
Japan
Prior art keywords
terminal
augmented reality
server
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018133771A
Other languages
Japanese (ja)
Other versions
JP2020013231A (en
Inventor
英信 森
英信 森
亮 川野辺
亮 川野辺
Original Assignee
株式会社アンジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アンジー filed Critical 株式会社アンジー
Priority to JP2018133771A priority Critical patent/JP6548241B1/en
Application granted granted Critical
Publication of JP6548241B1 publication Critical patent/JP6548241B1/en
Publication of JP2020013231A publication Critical patent/JP2020013231A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供する。【解決手段】拡張現実プログラムは、端末20の制御部26に、カメラ21により撮影される画像に基づく拡張現実空間をディスプレイ22に表示するステップと、拡張現実空間内に配置される仮想オブジェクトを特定する情報と仮想オブジェクトの位置及び向きを特定する情報とを含むオブジェクト情報を含むオブジェクトデータを生成するステップと、オブジェクトデータをサーバ50に送信するステップと、特定のオブジェクトデータをサーバ50に要求するステップと、要求した特定のオブジェクトデータをサーバ50から受信するステップと、受信した特定のオブジェクトデータに含まれるオブジェクト情報により特定される仮想オブジェクトを拡張現実空間30内に配置するステップとを実行させる。【選択図】図1An augmented reality program that allows a virtual object placed in an augmented reality space to be easily shared among a plurality of terminals. An augmented reality program displays on a display 22 an augmented reality space based on an image photographed by a camera 21 on a control unit 26 of a terminal 20, and specifies a virtual object placed in the augmented reality space. Generating object data including object information including information to be performed and information specifying the position and orientation of the virtual object, transmitting object data to the server 50, and requesting the server 50 for specific object data And a step of receiving the requested specific object data from the server 50 and a step of arranging the virtual object specified by the object information included in the received specific object data in the augmented reality space 30. [Selection] Figure 1

Description

本発明は、拡張現実プログラム及び情報処理装置に係り、特に現実空間に仮想オブジェクトが配置された拡張現実空間を複数の端末間で共有する拡張現実プログラムに関するものである。   The present invention relates to an augmented reality program and an information processing apparatus, and more particularly to an augmented reality program in which an augmented reality space in which virtual objects are arranged in a real space is shared among a plurality of terminals.

近年、人間が知覚している現実世界にコンピュータにより情報を付加する技術、すなわち拡張現実(Augmented Reality(AR))技術の開発が進んでいる。このような拡張現実技術の1つとして、カメラで撮影した現実空間の画像に仮想オブジェクトを付加して表示するものが知られている。また、このような現実空間に付加した仮想オブジェクトを複数の端末間で共有する技術も開発されている(例えば、特許文献1参照)。しかしながら、この特許文献1に記載されている技術では、仮想オブジェクトを共有するグループごとに設定が必要であり、仮想オブジェクトの共有が容易ではない。   BACKGROUND In recent years, development of technology for adding information by computer to the real world perceived by humans, that is, augmented reality (AR) technology is in progress. As one of such augmented reality techniques, one that adds a virtual object to an image of a physical space taken by a camera and displays it is known. In addition, a technology for sharing a virtual object added to such a real space between a plurality of terminals has also been developed (see, for example, Patent Document 1). However, in the technology described in Patent Document 1, setting is required for each group sharing virtual objects, and sharing of virtual objects is not easy.

米国特許出願公開第2011/0216002号明細書U.S. Patent Application Publication No. 2011/216002

本発明は、このような従来技術の問題点に鑑みてなされたもので、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供することを第1の目的とする。   The present invention has been made in view of such problems in the prior art, and it is an object of the present invention to provide an augmented reality program that allows a plurality of terminals to easily share a virtual object placed in the augmented reality space. The first purpose.

また、本発明は、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置を提供することを第2の目的とする。   Another object of the present invention is to provide an information processing apparatus capable of easily sharing a virtual object arranged in an augmented reality space among a plurality of terminals.

本発明の第1の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムが提供される。この拡張現実プログラムは、カメラと表示部と通信部とを含む端末のプロセッサに、上記カメラにより撮影される画像に基づく拡張現実空間を上記表示部に表示するステップと、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置される上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、上記通信部を介して上記生成されたオブジェクトデータをネットワークに接続されたサーバに送信するステップと、上記サーバに送信した上記オブジェクトデータを一意に識別する識別子を上記サーバから受信するステップと、上記サーバを特定するアドレスと上記識別子とを含むURLを生成するステップと、上記生成されたURLを他の端末に送信するステップと、他の端末から送信された上記URLを受信するステップと、上記URLに含まれる上記識別子を上記URLにより特定される上記サーバに送信するステップと、上記識別子により識別されるオブジェクトデータを上記サーバから受信するステップと、上記受信した上記オブジェクトデータに含まれる上記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで上記拡張現実空間内に配置するステップとを実行させる。 According to a first aspect of the present invention, there is provided an augmented reality program that enables virtual terminals placed in the augmented reality space to be easily shared among a plurality of terminals. The augmented reality program comprises the steps of: displaying, on the display unit, an augmented reality space based on an image captured by the camera on a processor of a terminal including a camera, a display unit, and a communication unit; Generating object data including one or more pieces of object information including information specifying the virtual object to be played and information specifying the position and orientation of the virtual object disposed in the augmented reality space; Transmitting the generated object data to a server connected to the network via a communication unit; receiving from the server an identifier uniquely identifying the object data transmitted to the server; and Generating a URL including an address to be identified and the identifier; Transmitting the created URL to another terminal, receiving the URL transmitted from the other terminal, and transmitting the identifier included in the URL to the server specified by the URL. , receiving object data identified by the identifier from the server, the virtual object identified by the one or more object information included in Kio object data on which the received, identified by the object information Placing in the augmented reality space in position and orientation.

このような拡張現実プログラムによれば、複数の端末間でサーバを介してオブジェクトデータを送受信することが可能となり、拡張現実空間に配置された仮想オブジェクトを複数の端末間で簡単に共有することが可能となる。   According to such an augmented reality program, object data can be transmitted and received between a plurality of terminals via a server, and virtual objects arranged in the augmented reality space can be easily shared among a plurality of terminals. It becomes possible.

また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。Also, the object data may include a plurality of object information.

上記拡張現実プログラムによれば、端末の位置情報とオブジェクトデータとを関連付けているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。 According to the above-described augmented reality program, since the location information of the terminal is associated with the object data, it is possible to easily share the same virtual object among a plurality of terminals in the same physical space.

本発明の第の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置が提供される。この情報処理装置は、ネットワークを介して複数の端末と通信可能な通信部と、拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、上記複数の端末の間で上記仮想オブジェクトを共有可能にする制御部とを備えている。上記制御部は、上記通信部を介して上記複数の端末のうち第1の端末から受信したオブジェクトデータであって、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置された上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータと、上記第1の端末の位置情報とを一意な識別子に関連付けて上記記憶部に格納し、上記通信部を介して上記複数の端末のうち第2の端末から受信したURLから上記一意な識別子を取得し、上記一意な識別子に対して関連付けられた上記オブジェクトデータを上記記憶部から抽出し、上記通信部を介して上記抽出された上記オブジェクトデータを上記第2の端末に送信するように構成される。 According to a second aspect of the present invention, there is provided an information processing apparatus capable of easily sharing a virtual object arranged in an augmented reality space among a plurality of terminals. The information processing apparatus includes a communication unit capable of communicating with a plurality of terminals via a network, a storage unit storing information on a virtual object arranged in the augmented reality space, and the virtual object among the plurality of terminals. And a control unit that makes it possible to share the The control unit is object data received from a first terminal among the plurality of terminals via the communication unit, and information for specifying a virtual object arranged in the augmented reality space; Object data including one or more object information including information specifying the position and orientation of the virtual object arranged in the space, and the position information of the first terminal are associated with a unique identifier and the storage The unique identifier is acquired from the URL received from the second terminal among the plurality of terminals via the communication unit, and the object data associated with the unique identifier is stored. The object data extracted from the unit and transmitted via the communication unit to the second terminal.

このような情報処理装置によれば、第1の端末から第2の端末にオブジェクトデータを送信することができるので、拡張現実空間に配置された仮想オブジェクトを第1の端末と第2の端末との間で簡単に共有することが可能となる。   According to such an information processing apparatus, it is possible to transmit object data from the first terminal to the second terminal, so that the virtual object arranged in the augmented reality space is divided into the first terminal and the second terminal. It is possible to share easily.

また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。Also, the object data may include a plurality of object information.

上記情報処理装置によれば、端末の位置情報とオブジェクトデータとを関連付けて記憶部に格納しているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。 According to the above information processing apparatus, since the position information of the terminal and the object data are associated with each other and stored in the storage unit, it is possible to easily share the same virtual object among a plurality of terminals in the same physical space. It becomes.

本発明によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有することができる。   According to the present invention, virtual objects arranged in the augmented reality space can be easily shared among a plurality of terminals.

図1は、本発明の第1の実施形態における情報処理システムを模式的に示す概念図である。FIG. 1 is a conceptual view schematically showing an information processing system in the first embodiment of the present invention. 図2は、図1の端末内で行われる処理を示すフローチャートである。FIG. 2 is a flowchart showing processing performed in the terminal of FIG. 図3Aは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3A is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Bは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3B is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Cは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3C is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Dは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3D is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Eは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3E is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Fは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3F is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Gは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3G is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Hは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3H is a diagram showing an example of a screen of a display of the terminal of FIG. 図3Iは、図1の端末のディスプレイの画面の一例を示す図である。FIG. 3I is a diagram showing an example of a screen of a display of the terminal of FIG. 図4は、図1の端末内で生成されるオブジェクトデータのデータ構造を示す概念図である。FIG. 4 is a conceptual diagram showing a data structure of object data generated in the terminal of FIG. 図5は、図1の端末とサーバとの間で行われる処理を示す概念図である。FIG. 5 is a conceptual diagram showing processing performed between the terminal of FIG. 1 and a server. 図6は、図1のサーバ内の記憶部に格納されるデータベースのデータ構造を示す概念図である。FIG. 6 is a conceptual diagram showing the data structure of a database stored in the storage unit in the server of FIG. 図7は、図1の他の端末とサーバとの間で行われる処理を示す概念図である。FIG. 7 is a conceptual view showing processing performed between the other terminal of FIG. 1 and the server. 図8は、本発明の第2の実施形態における情報処理システムを模式的に示す概念図である。FIG. 8 is a conceptual view schematically showing an information processing system in the second embodiment of the present invention. 図9は、図8の端末のディスプレイの画面の一例を示す図である。FIG. 9 is a diagram showing an example of a screen of a display of the terminal of FIG. 図10は、図8の端末とサーバとの間で行われる処理を示す概念図である。FIG. 10 is a conceptual diagram showing processing performed between the terminal of FIG. 8 and the server. 図11は、図8のサーバ内の記憶部に格納されるデータベースのデータ構造を示す概念図である。FIG. 11 is a conceptual diagram showing a data structure of a database stored in the storage unit in the server of FIG. 図12は、図8の端末とサーバとの間で行われる処理を示す概念図である。FIG. 12 is a conceptual diagram showing processing performed between the terminal of FIG. 8 and the server.

以下、本発明に係る拡張現実プログラム及び情報処理装置の実施形態について図1から図12を参照して詳細に説明する。なお、図1から図12において、同一又は相当する構成要素には、同一の符号を付して重複した説明を省略する。また、図1から図12においては、各構成要素の縮尺や寸法が誇張されて示されている場合や一部の構成要素が省略されている場合がある。   Hereinafter, embodiments of an augmented reality program and an information processing apparatus according to the present invention will be described in detail with reference to FIGS. 1 to 12. Note that, in FIG. 1 to FIG. 12, the same or corresponding components are given the same reference numerals, and duplicate explanations are omitted. In addition, in FIGS. 1 to 12, the scale and dimensions of each component may be exaggerated and shown, or some components may be omitted.

図1は、本発明の第1の実施形態における情報処理システムを模式的に示す概念図である。この情報処理システムは、インターネットなどのネットワーク10に接続される複数の端末20(又は20’)と情報処理装置としてのサーバ50とにより構成されている。それぞれの端末20においては、後述するように現実空間に仮想オブジェクトを配置した拡張現実空間を生成することができ、サーバ50を介してこれらの仮想オブジェクトを複数の端末20間で共有できるようになっている。なお、以下では、端末20の構成についてのみ説明するが、端末20’も端末20と同様の構成及び機能を有するものである。   FIG. 1 is a conceptual view schematically showing an information processing system in the first embodiment of the present invention. This information processing system is composed of a plurality of terminals 20 (or 20 ') connected to a network 10 such as the Internet and a server 50 as an information processing apparatus. Each terminal 20 can generate an augmented reality space in which virtual objects are arranged in the real space as described later, and these virtual objects can be shared among a plurality of terminals 20 via the server 50. ing. Although only the configuration of the terminal 20 will be described below, the terminal 20 ′ also has the same configuration and function as the terminal 20.

図1に示すように、それぞれの端末20は、例えばスマートフォンやタブレットコンピュータなどにより構成され、現実世界を撮像するカメラ21と、表示部としてのディスプレイ22と、ユーザからの入力を受ける入力部としてのタッチパネル23と、ROMやRAM、フラッシュメモリなどを含む記憶部24と、ネットワーク10に接続してデータ通信を行うための通信部25と、各構成要素の動作を制御する制御部26とを備えている。記憶部24には、OS(Operating System)や端末20を制御するためのプログラム、本発明に係る拡張現実空間を実現するための拡張現実プログラム(以下、「ARプログラム」という)、その他各種データなどが格納されている。制御部26は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部14に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。   As shown in FIG. 1, each of the terminals 20 is constituted by, for example, a smartphone or a tablet computer, and as a camera 21 for imaging the real world, a display 22 as a display unit, and an input unit for receiving input from a user. A touch panel 23, a storage unit 24 including a ROM, a RAM, a flash memory, etc., a communication unit 25 for performing data communication by connecting to the network 10, and a control unit 26 for controlling the operation of each component There is. The storage unit 24 includes an OS (Operating System), a program for controlling the terminal 20, an augmented reality program (hereinafter referred to as "AR program") for realizing the augmented reality space according to the present invention, and various other data. Is stored. The control unit 26 includes a processor (CPU), a ROM, a RAM, and the like, and realizes various functions by loading a program stored in the storage unit 14 into the RAM and executing the program by the processor.

また、サーバ50は、ROMやRAM、フラッシュメモリなどを含む記憶部51と、ネットワーク10に接続してデータ通信を行うための通信部52と、各構成要素の動作を制御する制御部53とを備えている。記憶部51には、OSやサーバ50を制御するためのプログラム、後述するデータベース54、端末20からアップロードされる静止画や動画、その他各種データなどが格納されている。制御部53は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部51に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。   The server 50 further includes a storage unit 51 including a ROM, a RAM, a flash memory, etc., a communication unit 52 for performing data communication by connecting to the network 10, and a control unit 53 for controlling the operation of each component. Have. The storage unit 51 stores an OS, a program for controlling the server 50, a database 54 described later, still images and videos uploaded from the terminal 20, and various other data. The control unit 53 includes a processor (CPU), a ROM, a RAM, and the like, and realizes various functions by loading a program stored in the storage unit 51 into the RAM and executing the program by the processor.

図2は、端末20内で行われる処理を示すフローチャートである。上記のような構成の情報処理システムにおいて、制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し(ステップS1)、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する(ステップS2)。この段階では、後述する仮想オブジェクトがまだ拡張現実空間内に配置されていないので、カメラ21で撮影される現実空間の画像がそのまま拡張現実空間としてディスプレイ22に表示されることとなる。   FIG. 2 is a flowchart showing processing performed in the terminal 20. In the information processing system configured as described above, when the AR program is executed by the control unit 26, the control unit 26 activates the camera 21 (step S1), and based on the image of the physical space photographed by the camera 21. The augmented reality space is displayed on the display 22 (step S2). At this stage, virtual objects to be described later have not been arranged in the augmented reality space yet, so an image of the reality space captured by the camera 21 is displayed as it is on the display 22 as the augmented reality space.

このとき、図3Aに示すように、ディスプレイ22には、拡張現実空間30に加えて、仮想オブジェクトを生成するためのボタン31,32及び撮影を開始するためのボタン41も表示される。ボタン31は、スタンプ画像からなる仮想オブジェクトを生成するためのボタンであり、ボタン32は、文字列からなる仮想オブジェクトを生成するためのボタンである。   At this time, as shown in FIG. 3A, in addition to the augmented reality space 30, the buttons 31 and 32 for generating a virtual object and the button 41 for starting imaging are also displayed on the display 22. The button 31 is a button for generating a virtual object composed of a stamp image, and the button 32 is a button for generating a virtual object composed of a character string.

次に、制御部26は、タッチパネル23を介して、仮想オブジェクトを生成するボタン31,32が押されたか否かを判断し(ステップS3)、いずれかのボタン31,32が押されたと判断した場合には、押されたボタン31,32に応じた仮想オブジェクトを生成する(ステップS4)。すなわち、ボタン31が押された場合にはスタンプ画像からなる仮想オブジェクトを生成し、ボタン32が押された場合には文字列からなる仮想オブジェクトを生成する。   Next, the control unit 26 determines whether or not the buttons 31 and 32 for generating virtual objects are pressed through the touch panel 23 (step S3), and it is determined that one of the buttons 31 and 32 is pressed. In the case, a virtual object is generated in accordance with the pressed button 31, 32 (step S4). That is, when the button 31 is pressed, a virtual object consisting of a stamp image is generated, and when the button 32 is pressed, a virtual object consisting of a character string is generated.

そして、制御部26は、生成した仮想オブジェクトをその時点の端末20の位置と向きを基準として拡張現実空間30内に配置し(ステップS5)、この生成した仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータを生成し、このオブジェクトデータを記憶部24に保存する(ステップS6)。   Then, the control unit 26 arranges the generated virtual object in the augmented reality space 30 based on the position and orientation of the terminal 20 at that time (step S5), and generates object data including object information on the generated virtual object. The object data is generated and stored in the storage unit 24 (step S6).

図4は、このオブジェクトデータのデータ構造を示す概念図である。図4に示すように、オブジェクトデータは、1つ以上のオブジェクト情報を含んでいる。1つのオブジェクト情報は、1つの仮想オブジェクトに対応しており、1つのオブジェクトデータ内で一意に定まる識別子としてのオブジェクト番号と、拡張現実空間内で配置された仮想オブジェクトの位置及び向きを特定する状態特定データと、仮想オブジェクトの内容を特定するモデルデータとを含んでいる。オブジェクト番号としては、例えば、仮想オブジェクトの作成順に連続番号を付したものを用いることができる。また、状態特定データとしては、例えばアップル社のARKitにおいて用いられる4次元行列データを用いることができる。モデルデータは、作成する仮想オブジェクトの種類に応じた情報を含んでいる。   FIG. 4 is a conceptual diagram showing the data structure of this object data. As shown in FIG. 4, object data contains one or more object information. One piece of object information corresponds to one virtual object, and is a state for specifying an object number as an identifier uniquely determined in one object data, and a position and an orientation of a virtual object arranged in the augmented reality space Specific data and model data for specifying the content of the virtual object are included. As the object numbers, for example, those to which serial numbers are attached in the order of creation of virtual objects can be used. Further, as the state identification data, for example, four-dimensional matrix data used in AR Kit of Apple Inc. can be used. Model data includes information according to the type of virtual object to be created.

その後、制御部26は、拡張現実空間内に配置された仮想オブジェクトを現実空間の画像とともにディスプレイ22に表示する(ステップS2)。これにより、ディスプレイ22には、仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。   Thereafter, the control unit 26 displays the virtual object arranged in the augmented reality space on the display 22 together with the image of the real space (step S2). Thereby, the display 22 is displayed as if the virtual object is actually arranged in the real space.

一方、ステップS3において、制御部26が、いずれのボタン31,32も押されていないと判断した場合には、撮影を開始するボタン41が押されたか否かを判断する(ステップS7)。制御部26が、ボタン41が押されたと判断すると、後述するように、拡張現実空間30を撮影して(ステップS8)、その撮影データと上述したオブジェクトデータとをサーバに送信する(ステップS9)。制御部26が、ボタン41が押されていないと判断した場合には、ステップS2に戻る。   On the other hand, when the control unit 26 determines in step S3 that neither of the buttons 31 and 32 is pressed, it determines whether the button 41 for starting imaging is pressed (step S7). When the control unit 26 determines that the button 41 is pressed, as described later, the control unit 26 captures an image of the augmented reality space 30 (step S8), and transmits the captured data and the object data described above to the server (step S9). . If the control unit 26 determines that the button 41 is not pressed, the process returns to step S2.

ここで、仮想オブジェクトの生成をより詳細に説明すると、ステップS3において、制御部26が、3つのボタン31,32のうち、スタンプ画像からなる仮想オブジェクトを作成するボタン31が押されたと判断すると、制御部26は、記憶部24に保存されたスタンプ画像を読み込み、図3Bに示すように、これらのスタンプ画像61の一覧をディスプレイ22に表示する。また、制御部26は、キャンセルボタン62と決定ボタン63もディスプレイ22に表示する。ユーザが、タッチパネル23を介してこの一覧の中から所望のスタンプ画像61を選択し、決定ボタン63を押すと、選択されたスタンプ画像61からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。   Here, to describe generation of a virtual object in more detail, in step S3, when the control unit 26 determines that the button 31 for creating a virtual object made of a stamp image is pressed among the three buttons 31 and 32, The control unit 26 reads the stamp images stored in the storage unit 24 and displays a list of these stamp images 61 on the display 22 as shown in FIG. 3B. The control unit 26 also displays a cancel button 62 and an enter button 63 on the display 22. When the user selects a desired stamp image 61 from the list via the touch panel 23 and presses the determination button 63, a virtual object consisting of the selected stamp image 61 is created (step S4). Are arranged in the augmented reality space 30 with reference to the position and orientation of the terminal 20 at that time (step S5). When the cancel button 62 is pressed, the generation of the virtual object is canceled, and the process returns to step S2.

このとき、すでに1つ以上の仮想オブジェクトが生成されオブジェクトデータが記憶部24に保存されている場合には、選択されたスタンプ画像からなる仮想オブジェクトに関するオブジェクト情報がオブジェクトデータに追加されるが、この例では、まだオブジェクトデータが生成されていないので、選択されたスタンプ画像61からなる仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータが新たに作成され、記憶部24に保存される(ステップS6)。   At this time, when one or more virtual objects are already generated and the object data is stored in the storage unit 24, object information on the virtual object consisting of the selected stamp image is added to the object data. In the example, no object data is generated yet, so object data including object information on a virtual object consisting of the selected stamp image 61 is newly created and stored in the storage unit 24 (step S6).

例えば、図3Bに示す画面において、ユーザが星印のスタンプ画像61Aを選択すると、図3Cに示すように、その時点の端末20の位置と向きを基準として星印のスタンプ画像61Aからなる仮想オブジェクト71が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「0」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト71の位置と向きを表す4次元行列データ、モデルデータとして端末20内に保存されているスタンプ画像のファイル名(例えば「star.png」)を含むオブジェクト情報を含むオブジェクトデータが生成され、記憶部24に保存される。このオブジェクトデータは、例えばJSON(JavaScript Object Notation)形式で記述される。   For example, when the user selects the star stamp image 61A on the screen shown in FIG. 3B, as shown in FIG. 3C, a virtual object consisting of the star stamp image 61A based on the position and orientation of the terminal 20 at that time. 71 are arranged in the augmented reality space 30. At this time, for example, “0” as an object number, four-dimensional matrix data representing the position and orientation of the virtual object 71 based on the position and orientation of the terminal 20 at this time as state identification data, and within the terminal 20 as model data Object data including object information including the file name (for example, “star. Png”) of the stored stamp image is generated and stored in the storage unit 24. This object data is described in, for example, a JSON (JavaScript Object Notation) format.

ディスプレイ22には、星印のスタンプ画像61Aからなる仮想オブジェクト71が配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71の向きや位置、大きさが変化し、図3Dに示すように、仮想オブジェクト71があたかも現実空間内に実際に配置されているかのように表示される。   The display 22 displays the augmented reality space 30 in which the virtual object 71 consisting of the star stamp image 61A is arranged, and when the position or the orientation of the terminal 20 is changed, the orientation, the position, or the size of the virtual object 71 As shown in FIG. 3D, the virtual object 71 is displayed as if it were actually placed in the real space.

ステップS3において、制御部26が、3つのボタン31,32のうち、文字列からなる仮想オブジェクトを作成するボタン32が押されたと判断すると、制御部26は、図3Eに示すように、文字列を入力する入力ボックス64と、文字色を選択するカラーピッカー65と、キャンセルボタン62と、決定ボタン63とをディスプレイ22に表示する。ユーザが、タッチパネル23を介して入力ボックス64を選択すると、文字入力モードとなり入力ボックス64に文字列を入力することができる。また、ユーザが、タッチパネル23を介してカラーピッカー65の中の所望の色を選択すると、入力ボックス64の文字列の色が選択された色に変化する。ユーザが、入力ボックス64を選択して、所望の文字列を入力し、決定ボタン63を押すと、入力した文字列からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。   If the control unit 26 determines in step S3 that the button 32 for creating a virtual object composed of a character string is pressed among the three buttons 31 and 32, the control unit 26 determines that the character string is displayed as shown in FIG. 3E. The display 22 displays an input box 64 for inputting a color picker 65, a color picker 65 for selecting a character color, a cancel button 62, and an enter button 63. When the user selects the input box 64 via the touch panel 23, the character input mode is set, and a character string can be input to the input box 64. When the user selects a desired color in the color picker 65 through the touch panel 23, the color of the character string in the input box 64 changes to the selected color. When the user selects the input box 64, inputs a desired character string, and presses the determination button 63, a virtual object consisting of the input character string is created (step S4), and this virtual object is the terminal at that time It is arranged in the augmented reality space 30 based on the position and orientation of 20 (step S5). When the cancel button 62 is pressed, the generation of the virtual object is canceled, and the process returns to step S2.

このとき、すでにオブジェクトデータが記憶部24に保存されているので、入力した文字列からなる仮想オブジェクトに関するオブジェクト情報が生成され、オブジェクトデータに追加される(ステップS6)。例えば、ユーザが入力ボックス64に「Patent」という文字列を入力して決定ボタン63を押すと、図3Fに示すように、その時点の端末20の位置と向きを基準として「Patent」という文字列からなる仮想オブジェクト72が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「1」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト72の位置と向きを表す4次元行列データ、モデルデータとして入力した文字列「Patent」と選択した色の情報とを含むオブジェクト情報が生成され、このオブジェクト情報が記憶部24に保存されているオブジェクトデータに追加される。なお、図3Eに示す画面に文字列のフォントやサイズを変更できるインタフェイスを追加し、オブジェクト情報中のモデルデータとして文字列のフォントやサイズを特定する情報を含めてもよい。   At this time, since the object data is already stored in the storage unit 24, object information on a virtual object consisting of the input character string is generated and added to the object data (step S6). For example, when the user inputs a character string "patent" in the input box 64 and presses the determination button 63, as shown in FIG. 3F, the character string "patent" with reference to the position and orientation of the terminal 20 at that time. Are arranged in the augmented reality space 30. At this time, for example, “1” as an object number, four-dimensional matrix data representing the position and orientation of the virtual object 72 based on the position and orientation of the terminal 20 at this time as state identification data, and a character string input as model data Object information including “patent” and information of the selected color is generated, and this object information is added to the object data stored in the storage unit 24. Note that an interface capable of changing the font and size of the character string may be added to the screen shown in FIG. 3E, and information specifying the font and size of the character string may be included as model data in the object information.

ディスプレイ22には、星印のスタンプ画像からなる仮想オブジェクト71と文字列「Patent」からなる仮想オブジェクト72とが配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71,72の向きや位置、大きさが変化し、図3Gに示すように、仮想オブジェクト71,72があたかも現実空間内に実際に配置されているかのように表示される。   The display 22 displays an augmented reality space 30 in which a virtual object 71 consisting of a stamp image of asterisks and a virtual object 72 consisting of a character string "Patent" are arranged. When the position or orientation of the terminal 20 is changed, Along with this, the direction, position, and size of the virtual objects 71 and 72 change, and as shown in FIG. 3G, the virtual objects 71 and 72 are displayed as if they are actually arranged in the real space.

このようにして、ユーザは、拡張現実空間内に1以上の仮想オブジェクトを任意の位置及び向きで配置することができる。すべての仮想オブジェクトを配置した後に、撮影開始ボタン41(図3A等参照)を押すと、制御部26は、ディスプレイ22に表示されている拡張現実空間30の撮影を行い、その撮影データを記憶部24に保存する(ステップS8)。この撮影データは、カメラ21により撮影される現実空間の画像データに、上述のようにして作成された仮想オブジェクトが付加されたデータである。この撮影データは、静止画データであってもよいし、動画データであってもよい。   In this way, the user can place one or more virtual objects in any position and orientation within the augmented reality space. After all virtual objects are placed, when the shooting start button 41 (see FIG. 3A etc.) is pressed, the control unit 26 shoots the augmented reality space 30 displayed on the display 22, and stores the shooting data 24 (step S8). The shooting data is data in which the virtual object created as described above is added to the image data of the real space shot by the camera 21. The shooting data may be still image data or moving image data.

拡張現実空間の撮影が完了すると、制御部26は、図3Hに示すように、アップロードボタン66をディスプレイ22に表示する。ユーザが、タッチパネル23を介してアップロードボタン66を押すと、制御部26は、通信部25を介してネットワーク10に接続されたサーバ50にアクセスし、上述のようにして生成されたオブジェクトデータと撮影データとをサーバ50に送信する(ステップS9)。このとき、端末20を操作しているユーザの情報(例えば「AAA」とする)もオブジェクトデータとともにサーバ50に送信される。   When imaging of the augmented reality space is completed, the control unit 26 displays an upload button 66 on the display 22, as shown in FIG. 3H. When the user presses the upload button 66 via the touch panel 23, the control unit 26 accesses the server 50 connected to the network 10 via the communication unit 25 and captures the object data generated as described above The data is sent to the server 50 (step S9). At this time, information (for example, “AAA”) of the user operating the terminal 20 is also transmitted to the server 50 together with the object data.

図5は、このときに端末20とサーバ50との間で行われる処理を示す概念図である。図5に示すように、まず、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS11)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS12)。また、端末20の制御部26は、オブジェクトデータとユーザ情報とをサーバ50に送信する(ステップS13)。サーバ50の通信部52が、端末20からオブジェクトデータ及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース54に保存する(ステップS14)。   FIG. 5 is a conceptual diagram showing processing performed between the terminal 20 and the server 50 at this time. As shown in FIG. 5, first, the control unit 26 of the terminal 20 transmits the imaging data to the server 50 via the communication unit 25 (step S11). When the communication unit 52 of the server 50 receives the imaging data from the terminal 20, the control unit 53 stores the received imaging data in the storage unit 51 (step S12). Further, the control unit 26 of the terminal 20 transmits the object data and the user information to the server 50 (step S13). When the communication unit 52 of the server 50 receives object data and user information from the terminal 20, the control unit 53 stores the received information in the database 54 stored in the storage unit 51 (step S14).

図6は、サーバ50内の記憶部51に格納されるデータベース54のデータ構造を示す概念図である。図6に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83とからなるレコードを含んでいる。ステップS14において、サーバ50の通信部52が端末20からオブジェクトデータとユーザ情報とを受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えば仮想オブジェクト71のオブジェクト情報と仮想オブジェクト72のオブジェクト情報とを含むオブジェクトデータをJSON形式で記述したデータ(JSONデータ3))とユーザ情報82(例えば「AAA」)を上記生成した識別子81に関連付けてデータベース54に保存する。   FIG. 6 is a conceptual diagram showing the data structure of the database 54 stored in the storage unit 51 in the server 50. As shown in FIG. As shown in FIG. 6, the database 54 includes a record including an identifier 81 for uniquely identifying the received object data, user information 82 for identifying the transmitting user, and object data 83. In step S14, when the communication unit 52 of the server 50 receives object data and user information from the terminal 20, the control unit 53 generates an identifier 81 (for example, "3") that uniquely identifies the received object data. Received object data 83 (for example, data (JSON data 3) describing object data including object information of virtual object 71 and object information of virtual object 72 in JSON format) and user information 82 (for example, “AAA”) It is stored in the database 54 in association with the generated identifier 81.

次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS15)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、図3Iに示すように、シェアボタン(共有ボタン)67をディスプレイ22に表示する(ステップS16)。ユーザが、タッチパネル23を介してシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS17)。例えば、端末20の制御部26は、ARプログラムを起動するためのプロトコルと、サーバ50を特定するアドレスと、識別子81(例えば「3」)とを含むURL(Uniform Resource Locator)を生成し、これをメールやSNSなどを介して他の端末20’に送信して識別子81を他の端末20’と共有するようにしてもよい。また、このURLをさらに短縮化して他の端末20’に送信するようにしてもよい。   Next, the control unit 53 of the server 50 transmits the generated identifier 81 (for example, “3”) to the terminal 20 via the communication unit 52 (step S15). When the communication unit 25 of the terminal 20 receives the identifier 81 from the server 50, the control unit 26 determines that the transmission of the imaging data and the object data to the server 50 is completed, and as shown in FIG. The button 67 is displayed on the display 22 (step S16). When the user presses the share button 67 via the touch panel 23, the control unit 26 operates to share the identifier 81 transmitted from the server 50 with the other terminal 20 '(step S17). For example, the control unit 26 of the terminal 20 generates a URL (Uniform Resource Locator) including a protocol for activating an AR program, an address specifying the server 50, and an identifier 81 (for example, "3"). May be transmitted to another terminal 20 'via e-mail, SNS, etc., and the identifier 81 may be shared with the other terminal 20'. Further, the URL may be further shortened and transmitted to another terminal 20 '.

図7は、識別子81を受信した他の端末20’とサーバ50との間で行われる処理を示す概念図である。端末20’が上述したように端末20からメールやSNSなどを介して識別子81を含むURLを受信すると(ステップS21)、端末20’の制御部26は、受信したURLに記述されたプロトコルに従い、上述したARプログラムを起動する(ステップS22)。そして、端末20’の制御部26は、受信したURLにより特定されるサーバ50に通信部25を介してアクセスし、URLに記述された識別子81(例えば「3」)をサーバ50に送信する(ステップS23)。サーバ50の通信部52が、端末20’から識別子81を受信すると、制御部53は、この受信した識別子81(例えば「3」)をキーとして記憶部51に格納されているデータベース54から対応するレコードを検索する(ステップS24)。これにより、図6に示す例では、識別子81が「3」、ユーザ情報82が「AAA」、オブジェクトデータ83が「JSONデータ3」であるレコードが抽出される。   FIG. 7 is a conceptual diagram showing processing performed between the other terminal 20 ′ receiving the identifier 81 and the server 50. When the terminal 20 'receives the URL including the identifier 81 from the terminal 20 via the mail or SNS as described above (step S21), the control unit 26 of the terminal 20' follows the protocol described in the received URL, The above-described AR program is activated (step S22). Then, the control unit 26 of the terminal 20 ′ accesses the server 50 specified by the received URL via the communication unit 25 and transmits the identifier 81 (for example, “3”) described in the URL to the server 50 (see FIG. Step S23). When the communication unit 52 of the server 50 receives the identifier 81 from the terminal 20 ′, the control unit 53 responds from the database 54 stored in the storage unit 51 using the received identifier 81 (for example, “3”) as a key. A record is searched (step S24). Thereby, in the example shown in FIG. 6, the record whose identifier 81 is “3”, the user information 82 is “AAA”, and the object data 83 is “JSON data 3” is extracted.

次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20’に送信する(ステップS25)。端末20’の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクト(この例では仮想オブジェクト71及び仮想オブジェクト72)を生成し、この仮想オブジェクト71,72を該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS26)。そして、制御部26は、仮想オブジェクト71,72が配置された拡張現実空間30をディスプレイ22に表示する(ステップS27)。これにより、ディスプレイ22には、図3Gに示すように、ユーザ「AAA」により生成された仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。   Next, the control unit 53 of the server 50 transmits the object data 83 in the extracted record to the terminal 20 'via the communication unit 25 (step S25). When the communication unit 25 of the terminal 20 ′ receives the object data 83 from the server 50, the control unit 26 generates a virtual object (the virtual object 71 and the virtual object 72 in this example) from the object information included in the received object data 83 Then, the virtual objects 71 and 72 are placed in the augmented reality space 30 at the position and orientation specified by the object information (step S26). Then, the control unit 26 displays the augmented reality space 30 in which the virtual objects 71 and 72 are arranged on the display 22 (step S27). As a result, as shown in FIG. 3G, the display 22 is displayed as if the virtual object generated by the user "AAA" is actually arranged in the real space.

このように、本実施形態によれば、端末20において拡張現実空間に配置した仮想オブジェクト71,72を端末20と同一の位置及び向きで他の端末20’の拡張現実空間にも再現することが可能となる。   As described above, according to the present embodiment, the virtual objects 71 and 72 arranged in the augmented reality space in the terminal 20 can be reproduced in the augmented reality space of the other terminal 20 ′ at the same position and orientation as the terminal 20. It becomes possible.

図8は、本発明の第2の実施形態における情報処理システムを模式的に示す概念図である。図8に示すように、本実施形態における端末20(又は20’)は、端末20の位置情報を取得する位置情報取得部としてGPS(Global Positioning System)127を有している。   FIG. 8 is a conceptual view schematically showing an information processing system in the second embodiment of the present invention. As shown in FIG. 8, the terminal 20 (or 20 ′) in the present embodiment has a GPS (Global Positioning System) 127 as a position information acquisition unit that acquires position information of the terminal 20.

上述した第1の実施形態と同様に、端末20の制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する。このとき、図9に示すように、ディスプレイ22には、拡張現実空間30と、スタンプ画像からなる仮想オブジェクトを生成するためのボタン31と、文字列からなる仮想オブジェクトを生成するためのボタン32と、すでに作成された1以上の仮想オブジェクトを再現するためのボタン131と、撮影を開始するためのボタン41とが表示される。ボタン31,32,41が押された場合の処理は上述した第1の実施形態と同様であるので、ここでは説明を省略する。   As in the first embodiment described above, when the AR program is executed by the control unit 26 of the terminal 20, the control unit 26 activates the camera 21 and based on the image of the physical space photographed by the camera 21. The augmented reality space is displayed on the display 22. At this time, as shown in FIG. 9, the display 22 includes an augmented reality space 30, a button 31 for generating a virtual object consisting of a stamp image, and a button 32 for generating a virtual object consisting of a character string. A button 131 for reproducing one or more virtual objects already created and a button 41 for starting shooting are displayed. The processing in the case where the button 31, 32, 41 is pressed is the same as that of the first embodiment described above, and thus the description thereof is omitted here.

本実施形態においては、ユーザが撮影開始ボタン41を押して拡張現実空間の撮影を行った後、アップロードボタン66(図3H参照)を押すと、図10に示されるような処理がなされる。すなわち、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS31)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS32)。   In the present embodiment, after the user presses the shooting start button 41 to shoot the augmented reality space, when the upload button 66 (see FIG. 3H) is pressed, the process shown in FIG. 10 is performed. That is, the control unit 26 of the terminal 20 transmits the imaging data to the server 50 via the communication unit 25 (step S31). When the communication unit 52 of the server 50 receives the imaging data from the terminal 20, the control unit 53 stores the received imaging data in the storage unit 51 (step S32).

そして、端末20の制御部26は、GPS127により端末20の位置情報(例えば経度と緯度)を取得し(ステップS33)、この位置情報をオブジェクトデータ及びユーザ情報とともにサーバ50に送信する(ステップS34)。サーバ50の通信部52が、端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース154に保存する(ステップS35)。   Then, the control unit 26 of the terminal 20 acquires position information (for example, longitude and latitude) of the terminal 20 by the GPS 127 (step S33), and transmits the position information to the server 50 together with object data and user information (step S34). . When the communication unit 52 of the server 50 receives the position information, the object data, and the user information from the terminal 20, the control unit 53 stores the received information in the database 154 stored in the storage unit 51 (step S35).

図11は、サーバ50内の記憶部51に格納されるデータベース154のデータ構造を示す概念図である。図11に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83と、オブジェクトデータが生成された端末20の位置情報184からなるレコードを含んでいる。ステップS35において、サーバ50の通信部52が端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えばJSONデータ3)とユーザ情報82(例えば「AAA」)と位置情報(例えば「X3,Y3」)とを上記生成した識別子81に関連付けてデータベース154に保存する。 FIG. 11 is a conceptual diagram showing the data structure of the database 154 stored in the storage unit 51 in the server 50. As shown in FIG. As shown in FIG. 11, this database 54 includes an identifier 81 for uniquely identifying the received object data, user information 82 for identifying the user who sent the data, object data 83, and the terminal 20 for which the object data has been generated. A record including position information 184 is included. In step S35, when the communication unit 52 of the server 50 receives the position information, the object data, and the user information from the terminal 20, the control unit 53 determines an identifier 81 (for example, "3") that uniquely identifies the received object data. The generated object data 83 (for example, JSON data 3), the user information 82 (for example, “AAA”), and the position information (for example, “X 3 , Y 3 ”) are associated with the generated identifier 81 and save.

次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS36)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、シェアボタン67(図3I参照)をディスプレイ22に表示する(ステップS37)。ユーザがシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS38)。   Next, the control unit 53 of the server 50 transmits the generated identifier 81 (for example, “3”) to the terminal 20 via the communication unit 52 (step S36). When the communication unit 25 of the terminal 20 receives the identifier 81 from the server 50, the control unit 26 determines that the transmission of the imaging data and the object data to the server 50 is completed, and the share button 67 (see FIG. 3I) is displayed on the display 22. (Step S37). When the user presses the share button 67, the control unit 26 operates to share the identifier 81 transmitted from the server 50 with the other terminal 20 '(step S38).

次に、図9に示すボタン131が押された場合の処理について説明する。このボタン131は、すでに作成された1以上の仮想オブジェクトを再現するためのボタンである。図12は、ボタン131が押された場合に端末20とサーバ50との間で行われる処理を示す概念図である。   Next, processing when the button 131 shown in FIG. 9 is pressed will be described. This button 131 is a button for reproducing one or more virtual objects already created. FIG. 12 is a conceptual diagram showing processing performed between the terminal 20 and the server 50 when the button 131 is pressed.

図12に示すように、端末20の制御部26が、ボタン131が押されたと判断すると、GPS127により端末20の位置情報(例えば「X2,Y2」)を取得し(ステップS41)、この位置情報をサーバ50に送信する(ステップS42)。サーバ50の通信部52が、端末20から位置情報を受信すると、制御部53は、この受信した位置情報(例えば「X2,Y2」)をキーとして記憶部51に格納されているデータベース154から対応するレコードを検索する(ステップS43)。これにより、図11に示す例では、識別子81が「2」、ユーザ情報82が「BBB」、オブジェクトデータ83が「JSONデータ2」、位置情報が「X2,Y2」であるレコードと、識別子81が「4」、ユーザ情報82が「CCC」、オブジェクトデータ83が「JSONデータ4」、位置情報が「X2,Y2」であるレコードとが抽出される。 As illustrated in FIG. 12, when the control unit 26 of the terminal 20 determines that the button 131 is pressed, the position information (for example, “X 2 , Y 2 ”) of the terminal 20 is acquired by the GPS 127 (step S41). The position information is transmitted to the server 50 (step S42). When the communication unit 52 of the server 50 receives the position information from the terminal 20, the control unit 53 uses the received position information (for example, “X 2 , Y 2 ”) as a key to store the database 154 stored in the storage unit 51. The corresponding record is retrieved from (step S43). Thereby, in the example shown in FIG. 11, a record in which the identifier 81 is “2”, the user information 82 is “BBB”, the object data 83 is “JSON data 2”, and the position information is “X 2 , Y 2 ” A record in which the identifier 81 is “4”, the user information 82 is “CCC”, the object data 83 is “JSON data 4”, and the position information is “X 2 , Y 2 ” is extracted.

次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20に送信する(ステップS44)。端末20の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83の一覧をディスプレイ22に表示する(ステップS45)。この一覧の表示は、例えば、それぞれのオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成して、仮想オブジェクトのサムネイルとして表示することができる。   Next, the control unit 53 of the server 50 transmits the object data 83 in the extracted record to the terminal 20 via the communication unit 25 (step S44). When the communication unit 25 of the terminal 20 receives the object data 83 from the server 50, the control unit 26 displays a list of the received object data 83 on the display 22 (step S45). For the display of the list, for example, a virtual object can be generated from object information included in each object data 83 and displayed as a thumbnail of the virtual object.

そして、ユーザがタッチパネル23を介していずれかのオブジェクトデータ83を選択すると、制御部26は、選択されたオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成し、この仮想オブジェクトを該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS46)。そして、制御部26は、仮想オブジェクトが配置された拡張現実空間30をディスプレイ22に表示する(ステップS47)。例えば、ユーザが識別子81が「2」で特定されるオブジェクトデータ83を選択した場合には、この端末20と同一の場所でユーザ「BBB」によって生成された仮想オブジェクトが現実空間内に実際に配置されているかのようにディスプレイ22に表示される。   Then, when the user selects any of the object data 83 via the touch panel 23, the control unit 26 generates a virtual object from the object information included in the selected object data 83, and this virtual object is used as the object information. It arrange | positions in the augmented reality space 30 by the identified position and direction (step S46). Then, the control unit 26 displays the augmented reality space 30 in which the virtual object is arranged on the display 22 (step S47). For example, when the user selects the object data 83 identified by the identifier 81 “2”, the virtual object generated by the user “BBB” is actually placed in the real space in the same place as the terminal 20 It is displayed on the display 22 as if it were done.

このように、本実施形態によれば、端末20の位置情報をオブジェクトデータ83に関連付けてデータベース154に格納しているため、同一の現実空間において複数の端末20間で同一の仮想オブジェクトを簡単に共有することが可能となる。   As described above, according to the present embodiment, since the position information of the terminal 20 is associated with the object data 83 and stored in the database 154, the same virtual object can be easily obtained between the plurality of terminals 20 in the same physical space. It becomes possible to share.

ここで、上述のようにオブジェクトデータ83の一覧を端末20のディスプレイ22に表示する際の表示順位を表す情報をデータベース154に含め、この表示順位の順番でオブジェクトデータ83の一覧を端末20のディスプレイ22に表示するようにしてもよい。この場合において、表示順位をユーザ間の入札により定めるようにしてもよい。また、オブジェクトデータ83の有効期限を表す情報をデータベース154に含め、有効期限を過ぎていないオブジェクトデータ83のみを端末20のディスプレイ22に表示するようにしてもよい。この場合において、オブジェクトデータ83を作成したユーザ又は他のユーザが、対価の支払によりこのオブジェクトデータ83の有効期限を延長できるようにしてもよい。   Here, the database 154 includes information representing the display order when displaying the list of object data 83 on the display 22 of the terminal 20 as described above, and the list of object data 83 is displayed in the display order of the display 20. It may be displayed at 22. In this case, the display order may be determined by bidding between users. Alternatively, information representing the expiration date of the object data 83 may be included in the database 154, and only the object data 83 that has not passed the expiration date may be displayed on the display 22 of the terminal 20. In this case, the user who created the object data 83 or another user may be able to extend the expiration date of the object data 83 by payment of compensation.

上述した実施形態では、仮想オブジェクトとして端末20内の記憶部24に保存されているスタンプ画像を用いた例を説明したが、仮想オブジェクトとして端末20内の記憶部24に保存されている写真やURLにより特定されるネットワーク上の画像を用いることもできる。また、ユーザがタッチパネル23上になぞった線を仮想オブジェクトとして用いることもできる。   In the embodiment described above, an example using the stamp image stored in the storage unit 24 in the terminal 20 as a virtual object has been described, but a photo or URL stored in the storage unit 24 in the terminal 20 as a virtual object It is also possible to use an image on the network identified by. Also, a line drawn on the touch panel 23 by the user can be used as a virtual object.

上述したARプログラムは、データ配信用のサーバの記憶装置に保存され、インターネットなどのネットワーク10を介して端末20に配信されてもよい。また、CD,DVD,BD(Blu-Ray Disk)などの光学ディスク、USBメモリ及びメモリカードなどの記憶媒体にARプログラムを記憶させた状態で、その記憶媒体が販売又は配布されてもよい。   The AR program described above may be stored in a storage device of a server for data distribution, and may be distributed to the terminal 20 via the network 10 such as the Internet. Furthermore, the storage medium may be sold or distributed in a state where the AR program is stored in a storage medium such as an optical disc such as a CD, a DVD, and a BD (Blu-Ray Disk), a USB memory, and a memory card.

また、上述したネットワーク10はインターネットを例として挙げたが、ネットワーク10は、有線LAN(Local Area Network)や無線LAN、その他のネットワークであってもよい。   Further, although the above-described network 10 is exemplified by the Internet, the network 10 may be a wired LAN (Local Area Network), a wireless LAN, or another network.

これまで本発明の好ましい実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。   Although the preferred embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to the above-described embodiments and may be implemented in various different forms within the scope of the technical idea thereof.

10 ネットワーク
14 記憶部
20,20' 端末
21 カメラ
22 ディスプレイ
23 タッチパネル
24 記憶部
25 通信部
26 制御部
30 拡張現実空間
50 サーバ
51 記憶部
52 通信部
53 制御部
54 データベース
61 スタンプ画像
71 仮想オブジェクト
72 仮想オブジェクト
127 GPS
154 データベース
REFERENCE SIGNS LIST 10 network 14 storage unit 20, 20 'terminal 21 camera 22 display 23 touch panel 24 storage unit 25 communication unit 26 control unit 30 augmented reality space 50 server 51 storage unit 52 communication unit 53 control unit 54 database 61 stamp image 71 virtual object 72 virtual Object 127 GPS
154 databases

Claims (2)

カメラと表示部と通信部とを含む端末のプロセッサに、
前記カメラにより撮影される画像に基づく拡張現実空間を前記表示部に表示するステップと、
前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置される前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、
前記端末の位置情報を取得するステップと、
前記通信部を介して前記生成されたオブジェクトデータと前記端末の位置情報とをネットワークに接続されたサーバに送信するステップと、
前記サーバに送信した前記オブジェクトデータを一意に識別する識別子を前記サーバから受信するステップと、
前記サーバを特定するアドレスと前記識別子とを含むURLを生成するステップと、
前記生成されたURLを他の端末に送信するステップと、
他の端末から送信された前記URLを受信するステップと、
前記URLに含まれる前記識別子を前記URLにより特定される前記サーバに送信するステップと、
前記識別子により識別されるオブジェクトデータを前記サーバから受信するステップと、
前記受信した前記オブジェクトデータに含まれる前記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで前記拡張現実空間内に配置するステップと
を実行させるための拡張現実プログラム。
To the processor of the terminal including the camera, the display unit and the communication unit,
Displaying on the display unit an augmented reality space based on an image captured by the camera;
Object data including one or more object information including information specifying a virtual object arranged in the augmented reality space and information specifying a position and an orientation of the virtual object arranged in the augmented reality space Generating the
Acquiring location information of the terminal;
Transmitting the generated object data and position information of the terminal to a server connected to a network via the communication unit;
Receiving from the server an identifier that uniquely identifies the object data sent to the server;
Generating a URL including an address identifying the server and the identifier;
Sending the generated URL to another terminal;
Receiving the URL sent from another terminal;
Sending the identifier contained in the URL to the server identified by the URL;
Receiving from the server object data identified by the identifier;
Placing a virtual object specified by the one or more pieces of object information contained in the received object data in the augmented reality space at a position and an orientation specified by the object information Reality program.
前記オブジェクトデータは、複数のオブジェクト情報を含む、請求項1に記載の拡張現実プログラム。   The augmented reality program according to claim 1, wherein the object data includes a plurality of object information.
JP2018133771A 2018-07-14 2018-07-14 Augmented reality program and information processing apparatus Active JP6548241B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018133771A JP6548241B1 (en) 2018-07-14 2018-07-14 Augmented reality program and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133771A JP6548241B1 (en) 2018-07-14 2018-07-14 Augmented reality program and information processing apparatus

Publications (2)

Publication Number Publication Date
JP6548241B1 true JP6548241B1 (en) 2019-07-24
JP2020013231A JP2020013231A (en) 2020-01-23

Family

ID=67390287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133771A Active JP6548241B1 (en) 2018-07-14 2018-07-14 Augmented reality program and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6548241B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179435A (en) * 2019-12-24 2020-05-19 Oppo广东移动通信有限公司 Augmented reality processing method, device and system, storage medium and electronic equipment
WO2023160072A1 (en) * 2022-02-23 2023-08-31 华为技术有限公司 Human-computer interaction method and apparatus in augmented reality (ar) scene, and electronic device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7086242B1 (en) 2021-02-18 2022-06-17 Kddi株式会社 Information processing equipment, information processing methods, and programs
JP7082698B1 (en) 2021-02-18 2022-06-08 Kddi株式会社 Information processing equipment, information processing methods, and programs
JP6951810B1 (en) * 2021-03-31 2021-10-20 Links株式会社 Augmented reality system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616622B2 (en) * 2009-12-18 2014-10-29 アプリックスIpホールディングス株式会社 Augmented reality providing method and augmented reality providing system
JP5651372B2 (en) * 2010-05-18 2015-01-14 株式会社Nttドコモ Post information control apparatus, post information control system, and post information control method
JP5942456B2 (en) * 2012-02-10 2016-06-29 ソニー株式会社 Image processing apparatus, image processing method, and program
TWI617930B (en) * 2016-09-23 2018-03-11 李雨暹 Method and system for sorting a search result with space objects, and a computer-readable storage device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179435A (en) * 2019-12-24 2020-05-19 Oppo广东移动通信有限公司 Augmented reality processing method, device and system, storage medium and electronic equipment
CN111179435B (en) * 2019-12-24 2024-02-06 Oppo广东移动通信有限公司 Augmented reality processing method, device, system, storage medium and electronic equipment
WO2023160072A1 (en) * 2022-02-23 2023-08-31 华为技术有限公司 Human-computer interaction method and apparatus in augmented reality (ar) scene, and electronic device

Also Published As

Publication number Publication date
JP2020013231A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6548241B1 (en) Augmented reality program and information processing apparatus
US8356033B2 (en) Album system, photographing device, and server
JP2014112302A (en) Prescribed area management system, communication method, and program
US20130135640A1 (en) Function executing device and server
JP2014131215A (en) Image management system, image management method, and program
MXPA05009939A (en) Apparatus and method for manipulating images.
US10984568B2 (en) Methods, devices, and computer-readable media for sharing image effects
KR20110099473A (en) Method and apparatus for sharing contents
US10142512B2 (en) Server device, image printing device, and moving-image data delivery system
US20090212923A1 (en) Information processing apparatus, method, and program
JP2022531339A (en) Resource configuration method, resource configuration device, computer equipment, and computer program
WO2014050956A1 (en) Photography device, photography system, photography method, and photography control program
JP2020170526A (en) Image management system and image management method
CN110515908B (en) Photo live broadcasting system and method thereof
JP2017012559A (en) Video game processing program, video game processing system, and user terminal
JP2005196615A (en) Information processing system and information processing method
JP2014030104A (en) Receiving device, image sharing system, receiving method, and program
JP6256430B2 (en) Content providing server, content providing method, and computer program
KR20140061340A (en) Apparatus and method of managing game screenshot based on exif meta-data
JP2012089928A (en) Image processing device and image processing method
JP6666557B2 (en) IMAGE MANAGEMENT SYSTEM, INFORMATION PROCESSING DEVICE USED FOR IMAGE MANAGEMENT SYSTEM, INFORMATION PRESENTATION METHOD BY INFORMATION PROCESSING DEVICE, AND PROGRAM
US20180246980A1 (en) Uniform Resource Locator Link Generator
JP2016149022A (en) Sales support program and sales support device
JP2015111468A (en) Distribution system for content, distribution program, and distribution method
JP2016062168A (en) Ar apparatus, image sharing system, image sharing method, and computer program

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6548241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250