JP6548241B1 - Augmented reality program and information processing apparatus - Google Patents
Augmented reality program and information processing apparatus Download PDFInfo
- Publication number
- JP6548241B1 JP6548241B1 JP2018133771A JP2018133771A JP6548241B1 JP 6548241 B1 JP6548241 B1 JP 6548241B1 JP 2018133771 A JP2018133771 A JP 2018133771A JP 2018133771 A JP2018133771 A JP 2018133771A JP 6548241 B1 JP6548241 B1 JP 6548241B1
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- augmented reality
- server
- information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供する。【解決手段】拡張現実プログラムは、端末20の制御部26に、カメラ21により撮影される画像に基づく拡張現実空間をディスプレイ22に表示するステップと、拡張現実空間内に配置される仮想オブジェクトを特定する情報と仮想オブジェクトの位置及び向きを特定する情報とを含むオブジェクト情報を含むオブジェクトデータを生成するステップと、オブジェクトデータをサーバ50に送信するステップと、特定のオブジェクトデータをサーバ50に要求するステップと、要求した特定のオブジェクトデータをサーバ50から受信するステップと、受信した特定のオブジェクトデータに含まれるオブジェクト情報により特定される仮想オブジェクトを拡張現実空間30内に配置するステップとを実行させる。【選択図】図1An augmented reality program that allows a virtual object placed in an augmented reality space to be easily shared among a plurality of terminals. An augmented reality program displays on a display 22 an augmented reality space based on an image photographed by a camera 21 on a control unit 26 of a terminal 20, and specifies a virtual object placed in the augmented reality space. Generating object data including object information including information to be performed and information specifying the position and orientation of the virtual object, transmitting object data to the server 50, and requesting the server 50 for specific object data And a step of receiving the requested specific object data from the server 50 and a step of arranging the virtual object specified by the object information included in the received specific object data in the augmented reality space 30. [Selection] Figure 1
Description
本発明は、拡張現実プログラム及び情報処理装置に係り、特に現実空間に仮想オブジェクトが配置された拡張現実空間を複数の端末間で共有する拡張現実プログラムに関するものである。 The present invention relates to an augmented reality program and an information processing apparatus, and more particularly to an augmented reality program in which an augmented reality space in which virtual objects are arranged in a real space is shared among a plurality of terminals.
近年、人間が知覚している現実世界にコンピュータにより情報を付加する技術、すなわち拡張現実(Augmented Reality(AR))技術の開発が進んでいる。このような拡張現実技術の1つとして、カメラで撮影した現実空間の画像に仮想オブジェクトを付加して表示するものが知られている。また、このような現実空間に付加した仮想オブジェクトを複数の端末間で共有する技術も開発されている(例えば、特許文献1参照)。しかしながら、この特許文献1に記載されている技術では、仮想オブジェクトを共有するグループごとに設定が必要であり、仮想オブジェクトの共有が容易ではない。
BACKGROUND In recent years, development of technology for adding information by computer to the real world perceived by humans, that is, augmented reality (AR) technology is in progress. As one of such augmented reality techniques, one that adds a virtual object to an image of a physical space taken by a camera and displays it is known. In addition, a technology for sharing a virtual object added to such a real space between a plurality of terminals has also been developed (see, for example, Patent Document 1). However, in the technology described in
本発明は、このような従来技術の問題点に鑑みてなされたもので、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供することを第1の目的とする。 The present invention has been made in view of such problems in the prior art, and it is an object of the present invention to provide an augmented reality program that allows a plurality of terminals to easily share a virtual object placed in the augmented reality space. The first purpose.
また、本発明は、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置を提供することを第2の目的とする。 Another object of the present invention is to provide an information processing apparatus capable of easily sharing a virtual object arranged in an augmented reality space among a plurality of terminals.
本発明の第1の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムが提供される。この拡張現実プログラムは、カメラと表示部と通信部とを含む端末のプロセッサに、上記カメラにより撮影される画像に基づく拡張現実空間を上記表示部に表示するステップと、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置される上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、上記通信部を介して上記生成されたオブジェクトデータをネットワークに接続されたサーバに送信するステップと、上記サーバに送信した上記オブジェクトデータを一意に識別する識別子を上記サーバから受信するステップと、上記サーバを特定するアドレスと上記識別子とを含むURLを生成するステップと、上記生成されたURLを他の端末に送信するステップと、他の端末から送信された上記URLを受信するステップと、上記URLに含まれる上記識別子を上記URLにより特定される上記サーバに送信するステップと、上記識別子により識別されるオブジェクトデータを上記サーバから受信するステップと、上記受信した上記オブジェクトデータに含まれる上記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで上記拡張現実空間内に配置するステップとを実行させる。 According to a first aspect of the present invention, there is provided an augmented reality program that enables virtual terminals placed in the augmented reality space to be easily shared among a plurality of terminals. The augmented reality program comprises the steps of: displaying, on the display unit, an augmented reality space based on an image captured by the camera on a processor of a terminal including a camera, a display unit, and a communication unit; Generating object data including one or more pieces of object information including information specifying the virtual object to be played and information specifying the position and orientation of the virtual object disposed in the augmented reality space; Transmitting the generated object data to a server connected to the network via a communication unit; receiving from the server an identifier uniquely identifying the object data transmitted to the server; and Generating a URL including an address to be identified and the identifier; Transmitting the created URL to another terminal, receiving the URL transmitted from the other terminal, and transmitting the identifier included in the URL to the server specified by the URL. , receiving object data identified by the identifier from the server, the virtual object identified by the one or more object information included in Kio object data on which the received, identified by the object information Placing in the augmented reality space in position and orientation.
このような拡張現実プログラムによれば、複数の端末間でサーバを介してオブジェクトデータを送受信することが可能となり、拡張現実空間に配置された仮想オブジェクトを複数の端末間で簡単に共有することが可能となる。 According to such an augmented reality program, object data can be transmitted and received between a plurality of terminals via a server, and virtual objects arranged in the augmented reality space can be easily shared among a plurality of terminals. It becomes possible.
また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。Also, the object data may include a plurality of object information.
上記拡張現実プログラムによれば、端末の位置情報とオブジェクトデータとを関連付けているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。 According to the above-described augmented reality program, since the location information of the terminal is associated with the object data, it is possible to easily share the same virtual object among a plurality of terminals in the same physical space.
本発明の第2の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置が提供される。この情報処理装置は、ネットワークを介して複数の端末と通信可能な通信部と、拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、上記複数の端末の間で上記仮想オブジェクトを共有可能にする制御部とを備えている。上記制御部は、上記通信部を介して上記複数の端末のうち第1の端末から受信したオブジェクトデータであって、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置された上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータと、上記第1の端末の位置情報とを一意な識別子に関連付けて上記記憶部に格納し、上記通信部を介して上記複数の端末のうち第2の端末から受信したURLから上記一意な識別子を取得し、上記一意な識別子に対して関連付けられた上記オブジェクトデータを上記記憶部から抽出し、上記通信部を介して上記抽出された上記オブジェクトデータを上記第2の端末に送信するように構成される。 According to a second aspect of the present invention, there is provided an information processing apparatus capable of easily sharing a virtual object arranged in an augmented reality space among a plurality of terminals. The information processing apparatus includes a communication unit capable of communicating with a plurality of terminals via a network, a storage unit storing information on a virtual object arranged in the augmented reality space, and the virtual object among the plurality of terminals. And a control unit that makes it possible to share the The control unit is object data received from a first terminal among the plurality of terminals via the communication unit, and information for specifying a virtual object arranged in the augmented reality space; Object data including one or more object information including information specifying the position and orientation of the virtual object arranged in the space, and the position information of the first terminal are associated with a unique identifier and the storage The unique identifier is acquired from the URL received from the second terminal among the plurality of terminals via the communication unit, and the object data associated with the unique identifier is stored. The object data extracted from the unit and transmitted via the communication unit to the second terminal.
このような情報処理装置によれば、第1の端末から第2の端末にオブジェクトデータを送信することができるので、拡張現実空間に配置された仮想オブジェクトを第1の端末と第2の端末との間で簡単に共有することが可能となる。 According to such an information processing apparatus, it is possible to transmit object data from the first terminal to the second terminal, so that the virtual object arranged in the augmented reality space is divided into the first terminal and the second terminal. It is possible to share easily.
また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。Also, the object data may include a plurality of object information.
上記情報処理装置によれば、端末の位置情報とオブジェクトデータとを関連付けて記憶部に格納しているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。 According to the above information processing apparatus, since the position information of the terminal and the object data are associated with each other and stored in the storage unit, it is possible to easily share the same virtual object among a plurality of terminals in the same physical space. It becomes.
本発明によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有することができる。 According to the present invention, virtual objects arranged in the augmented reality space can be easily shared among a plurality of terminals.
以下、本発明に係る拡張現実プログラム及び情報処理装置の実施形態について図1から図12を参照して詳細に説明する。なお、図1から図12において、同一又は相当する構成要素には、同一の符号を付して重複した説明を省略する。また、図1から図12においては、各構成要素の縮尺や寸法が誇張されて示されている場合や一部の構成要素が省略されている場合がある。 Hereinafter, embodiments of an augmented reality program and an information processing apparatus according to the present invention will be described in detail with reference to FIGS. 1 to 12. Note that, in FIG. 1 to FIG. 12, the same or corresponding components are given the same reference numerals, and duplicate explanations are omitted. In addition, in FIGS. 1 to 12, the scale and dimensions of each component may be exaggerated and shown, or some components may be omitted.
図1は、本発明の第1の実施形態における情報処理システムを模式的に示す概念図である。この情報処理システムは、インターネットなどのネットワーク10に接続される複数の端末20(又は20’)と情報処理装置としてのサーバ50とにより構成されている。それぞれの端末20においては、後述するように現実空間に仮想オブジェクトを配置した拡張現実空間を生成することができ、サーバ50を介してこれらの仮想オブジェクトを複数の端末20間で共有できるようになっている。なお、以下では、端末20の構成についてのみ説明するが、端末20’も端末20と同様の構成及び機能を有するものである。
FIG. 1 is a conceptual view schematically showing an information processing system in the first embodiment of the present invention. This information processing system is composed of a plurality of terminals 20 (or 20 ') connected to a
図1に示すように、それぞれの端末20は、例えばスマートフォンやタブレットコンピュータなどにより構成され、現実世界を撮像するカメラ21と、表示部としてのディスプレイ22と、ユーザからの入力を受ける入力部としてのタッチパネル23と、ROMやRAM、フラッシュメモリなどを含む記憶部24と、ネットワーク10に接続してデータ通信を行うための通信部25と、各構成要素の動作を制御する制御部26とを備えている。記憶部24には、OS(Operating System)や端末20を制御するためのプログラム、本発明に係る拡張現実空間を実現するための拡張現実プログラム(以下、「ARプログラム」という)、その他各種データなどが格納されている。制御部26は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部14に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。
As shown in FIG. 1, each of the
また、サーバ50は、ROMやRAM、フラッシュメモリなどを含む記憶部51と、ネットワーク10に接続してデータ通信を行うための通信部52と、各構成要素の動作を制御する制御部53とを備えている。記憶部51には、OSやサーバ50を制御するためのプログラム、後述するデータベース54、端末20からアップロードされる静止画や動画、その他各種データなどが格納されている。制御部53は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部51に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。
The
図2は、端末20内で行われる処理を示すフローチャートである。上記のような構成の情報処理システムにおいて、制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し(ステップS1)、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する(ステップS2)。この段階では、後述する仮想オブジェクトがまだ拡張現実空間内に配置されていないので、カメラ21で撮影される現実空間の画像がそのまま拡張現実空間としてディスプレイ22に表示されることとなる。
FIG. 2 is a flowchart showing processing performed in the terminal 20. In the information processing system configured as described above, when the AR program is executed by the
このとき、図3Aに示すように、ディスプレイ22には、拡張現実空間30に加えて、仮想オブジェクトを生成するためのボタン31,32及び撮影を開始するためのボタン41も表示される。ボタン31は、スタンプ画像からなる仮想オブジェクトを生成するためのボタンであり、ボタン32は、文字列からなる仮想オブジェクトを生成するためのボタンである。
At this time, as shown in FIG. 3A, in addition to the
次に、制御部26は、タッチパネル23を介して、仮想オブジェクトを生成するボタン31,32が押されたか否かを判断し(ステップS3)、いずれかのボタン31,32が押されたと判断した場合には、押されたボタン31,32に応じた仮想オブジェクトを生成する(ステップS4)。すなわち、ボタン31が押された場合にはスタンプ画像からなる仮想オブジェクトを生成し、ボタン32が押された場合には文字列からなる仮想オブジェクトを生成する。
Next, the
そして、制御部26は、生成した仮想オブジェクトをその時点の端末20の位置と向きを基準として拡張現実空間30内に配置し(ステップS5)、この生成した仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータを生成し、このオブジェクトデータを記憶部24に保存する(ステップS6)。
Then, the
図4は、このオブジェクトデータのデータ構造を示す概念図である。図4に示すように、オブジェクトデータは、1つ以上のオブジェクト情報を含んでいる。1つのオブジェクト情報は、1つの仮想オブジェクトに対応しており、1つのオブジェクトデータ内で一意に定まる識別子としてのオブジェクト番号と、拡張現実空間内で配置された仮想オブジェクトの位置及び向きを特定する状態特定データと、仮想オブジェクトの内容を特定するモデルデータとを含んでいる。オブジェクト番号としては、例えば、仮想オブジェクトの作成順に連続番号を付したものを用いることができる。また、状態特定データとしては、例えばアップル社のARKitにおいて用いられる4次元行列データを用いることができる。モデルデータは、作成する仮想オブジェクトの種類に応じた情報を含んでいる。 FIG. 4 is a conceptual diagram showing the data structure of this object data. As shown in FIG. 4, object data contains one or more object information. One piece of object information corresponds to one virtual object, and is a state for specifying an object number as an identifier uniquely determined in one object data, and a position and an orientation of a virtual object arranged in the augmented reality space Specific data and model data for specifying the content of the virtual object are included. As the object numbers, for example, those to which serial numbers are attached in the order of creation of virtual objects can be used. Further, as the state identification data, for example, four-dimensional matrix data used in AR Kit of Apple Inc. can be used. Model data includes information according to the type of virtual object to be created.
その後、制御部26は、拡張現実空間内に配置された仮想オブジェクトを現実空間の画像とともにディスプレイ22に表示する(ステップS2)。これにより、ディスプレイ22には、仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。
Thereafter, the
一方、ステップS3において、制御部26が、いずれのボタン31,32も押されていないと判断した場合には、撮影を開始するボタン41が押されたか否かを判断する(ステップS7)。制御部26が、ボタン41が押されたと判断すると、後述するように、拡張現実空間30を撮影して(ステップS8)、その撮影データと上述したオブジェクトデータとをサーバに送信する(ステップS9)。制御部26が、ボタン41が押されていないと判断した場合には、ステップS2に戻る。
On the other hand, when the
ここで、仮想オブジェクトの生成をより詳細に説明すると、ステップS3において、制御部26が、3つのボタン31,32のうち、スタンプ画像からなる仮想オブジェクトを作成するボタン31が押されたと判断すると、制御部26は、記憶部24に保存されたスタンプ画像を読み込み、図3Bに示すように、これらのスタンプ画像61の一覧をディスプレイ22に表示する。また、制御部26は、キャンセルボタン62と決定ボタン63もディスプレイ22に表示する。ユーザが、タッチパネル23を介してこの一覧の中から所望のスタンプ画像61を選択し、決定ボタン63を押すと、選択されたスタンプ画像61からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。
Here, to describe generation of a virtual object in more detail, in step S3, when the
このとき、すでに1つ以上の仮想オブジェクトが生成されオブジェクトデータが記憶部24に保存されている場合には、選択されたスタンプ画像からなる仮想オブジェクトに関するオブジェクト情報がオブジェクトデータに追加されるが、この例では、まだオブジェクトデータが生成されていないので、選択されたスタンプ画像61からなる仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータが新たに作成され、記憶部24に保存される(ステップS6)。
At this time, when one or more virtual objects are already generated and the object data is stored in the
例えば、図3Bに示す画面において、ユーザが星印のスタンプ画像61Aを選択すると、図3Cに示すように、その時点の端末20の位置と向きを基準として星印のスタンプ画像61Aからなる仮想オブジェクト71が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「0」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト71の位置と向きを表す4次元行列データ、モデルデータとして端末20内に保存されているスタンプ画像のファイル名(例えば「star.png」)を含むオブジェクト情報を含むオブジェクトデータが生成され、記憶部24に保存される。このオブジェクトデータは、例えばJSON(JavaScript Object Notation)形式で記述される。
For example, when the user selects the
ディスプレイ22には、星印のスタンプ画像61Aからなる仮想オブジェクト71が配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71の向きや位置、大きさが変化し、図3Dに示すように、仮想オブジェクト71があたかも現実空間内に実際に配置されているかのように表示される。
The
ステップS3において、制御部26が、3つのボタン31,32のうち、文字列からなる仮想オブジェクトを作成するボタン32が押されたと判断すると、制御部26は、図3Eに示すように、文字列を入力する入力ボックス64と、文字色を選択するカラーピッカー65と、キャンセルボタン62と、決定ボタン63とをディスプレイ22に表示する。ユーザが、タッチパネル23を介して入力ボックス64を選択すると、文字入力モードとなり入力ボックス64に文字列を入力することができる。また、ユーザが、タッチパネル23を介してカラーピッカー65の中の所望の色を選択すると、入力ボックス64の文字列の色が選択された色に変化する。ユーザが、入力ボックス64を選択して、所望の文字列を入力し、決定ボタン63を押すと、入力した文字列からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。
If the
このとき、すでにオブジェクトデータが記憶部24に保存されているので、入力した文字列からなる仮想オブジェクトに関するオブジェクト情報が生成され、オブジェクトデータに追加される(ステップS6)。例えば、ユーザが入力ボックス64に「Patent」という文字列を入力して決定ボタン63を押すと、図3Fに示すように、その時点の端末20の位置と向きを基準として「Patent」という文字列からなる仮想オブジェクト72が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「1」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト72の位置と向きを表す4次元行列データ、モデルデータとして入力した文字列「Patent」と選択した色の情報とを含むオブジェクト情報が生成され、このオブジェクト情報が記憶部24に保存されているオブジェクトデータに追加される。なお、図3Eに示す画面に文字列のフォントやサイズを変更できるインタフェイスを追加し、オブジェクト情報中のモデルデータとして文字列のフォントやサイズを特定する情報を含めてもよい。
At this time, since the object data is already stored in the
ディスプレイ22には、星印のスタンプ画像からなる仮想オブジェクト71と文字列「Patent」からなる仮想オブジェクト72とが配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71,72の向きや位置、大きさが変化し、図3Gに示すように、仮想オブジェクト71,72があたかも現実空間内に実際に配置されているかのように表示される。
The
このようにして、ユーザは、拡張現実空間内に1以上の仮想オブジェクトを任意の位置及び向きで配置することができる。すべての仮想オブジェクトを配置した後に、撮影開始ボタン41(図3A等参照)を押すと、制御部26は、ディスプレイ22に表示されている拡張現実空間30の撮影を行い、その撮影データを記憶部24に保存する(ステップS8)。この撮影データは、カメラ21により撮影される現実空間の画像データに、上述のようにして作成された仮想オブジェクトが付加されたデータである。この撮影データは、静止画データであってもよいし、動画データであってもよい。
In this way, the user can place one or more virtual objects in any position and orientation within the augmented reality space. After all virtual objects are placed, when the shooting start button 41 (see FIG. 3A etc.) is pressed, the
拡張現実空間の撮影が完了すると、制御部26は、図3Hに示すように、アップロードボタン66をディスプレイ22に表示する。ユーザが、タッチパネル23を介してアップロードボタン66を押すと、制御部26は、通信部25を介してネットワーク10に接続されたサーバ50にアクセスし、上述のようにして生成されたオブジェクトデータと撮影データとをサーバ50に送信する(ステップS9)。このとき、端末20を操作しているユーザの情報(例えば「AAA」とする)もオブジェクトデータとともにサーバ50に送信される。
When imaging of the augmented reality space is completed, the
図5は、このときに端末20とサーバ50との間で行われる処理を示す概念図である。図5に示すように、まず、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS11)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS12)。また、端末20の制御部26は、オブジェクトデータとユーザ情報とをサーバ50に送信する(ステップS13)。サーバ50の通信部52が、端末20からオブジェクトデータ及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース54に保存する(ステップS14)。
FIG. 5 is a conceptual diagram showing processing performed between the terminal 20 and the
図6は、サーバ50内の記憶部51に格納されるデータベース54のデータ構造を示す概念図である。図6に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83とからなるレコードを含んでいる。ステップS14において、サーバ50の通信部52が端末20からオブジェクトデータとユーザ情報とを受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えば仮想オブジェクト71のオブジェクト情報と仮想オブジェクト72のオブジェクト情報とを含むオブジェクトデータをJSON形式で記述したデータ(JSONデータ3))とユーザ情報82(例えば「AAA」)を上記生成した識別子81に関連付けてデータベース54に保存する。
FIG. 6 is a conceptual diagram showing the data structure of the
次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS15)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、図3Iに示すように、シェアボタン(共有ボタン)67をディスプレイ22に表示する(ステップS16)。ユーザが、タッチパネル23を介してシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS17)。例えば、端末20の制御部26は、ARプログラムを起動するためのプロトコルと、サーバ50を特定するアドレスと、識別子81(例えば「3」)とを含むURL(Uniform Resource Locator)を生成し、これをメールやSNSなどを介して他の端末20’に送信して識別子81を他の端末20’と共有するようにしてもよい。また、このURLをさらに短縮化して他の端末20’に送信するようにしてもよい。
Next, the
図7は、識別子81を受信した他の端末20’とサーバ50との間で行われる処理を示す概念図である。端末20’が上述したように端末20からメールやSNSなどを介して識別子81を含むURLを受信すると(ステップS21)、端末20’の制御部26は、受信したURLに記述されたプロトコルに従い、上述したARプログラムを起動する(ステップS22)。そして、端末20’の制御部26は、受信したURLにより特定されるサーバ50に通信部25を介してアクセスし、URLに記述された識別子81(例えば「3」)をサーバ50に送信する(ステップS23)。サーバ50の通信部52が、端末20’から識別子81を受信すると、制御部53は、この受信した識別子81(例えば「3」)をキーとして記憶部51に格納されているデータベース54から対応するレコードを検索する(ステップS24)。これにより、図6に示す例では、識別子81が「3」、ユーザ情報82が「AAA」、オブジェクトデータ83が「JSONデータ3」であるレコードが抽出される。
FIG. 7 is a conceptual diagram showing processing performed between the other terminal 20 ′ receiving the
次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20’に送信する(ステップS25)。端末20’の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクト(この例では仮想オブジェクト71及び仮想オブジェクト72)を生成し、この仮想オブジェクト71,72を該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS26)。そして、制御部26は、仮想オブジェクト71,72が配置された拡張現実空間30をディスプレイ22に表示する(ステップS27)。これにより、ディスプレイ22には、図3Gに示すように、ユーザ「AAA」により生成された仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。
Next, the
このように、本実施形態によれば、端末20において拡張現実空間に配置した仮想オブジェクト71,72を端末20と同一の位置及び向きで他の端末20’の拡張現実空間にも再現することが可能となる。
As described above, according to the present embodiment, the
図8は、本発明の第2の実施形態における情報処理システムを模式的に示す概念図である。図8に示すように、本実施形態における端末20(又は20’)は、端末20の位置情報を取得する位置情報取得部としてGPS(Global Positioning System)127を有している。 FIG. 8 is a conceptual view schematically showing an information processing system in the second embodiment of the present invention. As shown in FIG. 8, the terminal 20 (or 20 ′) in the present embodiment has a GPS (Global Positioning System) 127 as a position information acquisition unit that acquires position information of the terminal 20.
上述した第1の実施形態と同様に、端末20の制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する。このとき、図9に示すように、ディスプレイ22には、拡張現実空間30と、スタンプ画像からなる仮想オブジェクトを生成するためのボタン31と、文字列からなる仮想オブジェクトを生成するためのボタン32と、すでに作成された1以上の仮想オブジェクトを再現するためのボタン131と、撮影を開始するためのボタン41とが表示される。ボタン31,32,41が押された場合の処理は上述した第1の実施形態と同様であるので、ここでは説明を省略する。
As in the first embodiment described above, when the AR program is executed by the
本実施形態においては、ユーザが撮影開始ボタン41を押して拡張現実空間の撮影を行った後、アップロードボタン66(図3H参照)を押すと、図10に示されるような処理がなされる。すなわち、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS31)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS32)。
In the present embodiment, after the user presses the
そして、端末20の制御部26は、GPS127により端末20の位置情報(例えば経度と緯度)を取得し(ステップS33)、この位置情報をオブジェクトデータ及びユーザ情報とともにサーバ50に送信する(ステップS34)。サーバ50の通信部52が、端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース154に保存する(ステップS35)。
Then, the
図11は、サーバ50内の記憶部51に格納されるデータベース154のデータ構造を示す概念図である。図11に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83と、オブジェクトデータが生成された端末20の位置情報184からなるレコードを含んでいる。ステップS35において、サーバ50の通信部52が端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えばJSONデータ3)とユーザ情報82(例えば「AAA」)と位置情報(例えば「X3,Y3」)とを上記生成した識別子81に関連付けてデータベース154に保存する。
FIG. 11 is a conceptual diagram showing the data structure of the
次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS36)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、シェアボタン67(図3I参照)をディスプレイ22に表示する(ステップS37)。ユーザがシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS38)。
Next, the
次に、図9に示すボタン131が押された場合の処理について説明する。このボタン131は、すでに作成された1以上の仮想オブジェクトを再現するためのボタンである。図12は、ボタン131が押された場合に端末20とサーバ50との間で行われる処理を示す概念図である。
Next, processing when the
図12に示すように、端末20の制御部26が、ボタン131が押されたと判断すると、GPS127により端末20の位置情報(例えば「X2,Y2」)を取得し(ステップS41)、この位置情報をサーバ50に送信する(ステップS42)。サーバ50の通信部52が、端末20から位置情報を受信すると、制御部53は、この受信した位置情報(例えば「X2,Y2」)をキーとして記憶部51に格納されているデータベース154から対応するレコードを検索する(ステップS43)。これにより、図11に示す例では、識別子81が「2」、ユーザ情報82が「BBB」、オブジェクトデータ83が「JSONデータ2」、位置情報が「X2,Y2」であるレコードと、識別子81が「4」、ユーザ情報82が「CCC」、オブジェクトデータ83が「JSONデータ4」、位置情報が「X2,Y2」であるレコードとが抽出される。
As illustrated in FIG. 12, when the
次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20に送信する(ステップS44)。端末20の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83の一覧をディスプレイ22に表示する(ステップS45)。この一覧の表示は、例えば、それぞれのオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成して、仮想オブジェクトのサムネイルとして表示することができる。
Next, the
そして、ユーザがタッチパネル23を介していずれかのオブジェクトデータ83を選択すると、制御部26は、選択されたオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成し、この仮想オブジェクトを該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS46)。そして、制御部26は、仮想オブジェクトが配置された拡張現実空間30をディスプレイ22に表示する(ステップS47)。例えば、ユーザが識別子81が「2」で特定されるオブジェクトデータ83を選択した場合には、この端末20と同一の場所でユーザ「BBB」によって生成された仮想オブジェクトが現実空間内に実際に配置されているかのようにディスプレイ22に表示される。
Then, when the user selects any of the
このように、本実施形態によれば、端末20の位置情報をオブジェクトデータ83に関連付けてデータベース154に格納しているため、同一の現実空間において複数の端末20間で同一の仮想オブジェクトを簡単に共有することが可能となる。
As described above, according to the present embodiment, since the position information of the terminal 20 is associated with the
ここで、上述のようにオブジェクトデータ83の一覧を端末20のディスプレイ22に表示する際の表示順位を表す情報をデータベース154に含め、この表示順位の順番でオブジェクトデータ83の一覧を端末20のディスプレイ22に表示するようにしてもよい。この場合において、表示順位をユーザ間の入札により定めるようにしてもよい。また、オブジェクトデータ83の有効期限を表す情報をデータベース154に含め、有効期限を過ぎていないオブジェクトデータ83のみを端末20のディスプレイ22に表示するようにしてもよい。この場合において、オブジェクトデータ83を作成したユーザ又は他のユーザが、対価の支払によりこのオブジェクトデータ83の有効期限を延長できるようにしてもよい。
Here, the
上述した実施形態では、仮想オブジェクトとして端末20内の記憶部24に保存されているスタンプ画像を用いた例を説明したが、仮想オブジェクトとして端末20内の記憶部24に保存されている写真やURLにより特定されるネットワーク上の画像を用いることもできる。また、ユーザがタッチパネル23上になぞった線を仮想オブジェクトとして用いることもできる。
In the embodiment described above, an example using the stamp image stored in the
上述したARプログラムは、データ配信用のサーバの記憶装置に保存され、インターネットなどのネットワーク10を介して端末20に配信されてもよい。また、CD,DVD,BD(Blu-Ray Disk)などの光学ディスク、USBメモリ及びメモリカードなどの記憶媒体にARプログラムを記憶させた状態で、その記憶媒体が販売又は配布されてもよい。
The AR program described above may be stored in a storage device of a server for data distribution, and may be distributed to the terminal 20 via the
また、上述したネットワーク10はインターネットを例として挙げたが、ネットワーク10は、有線LAN(Local Area Network)や無線LAN、その他のネットワークであってもよい。
Further, although the above-described
これまで本発明の好ましい実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although the preferred embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to the above-described embodiments and may be implemented in various different forms within the scope of the technical idea thereof.
10 ネットワーク
14 記憶部
20,20' 端末
21 カメラ
22 ディスプレイ
23 タッチパネル
24 記憶部
25 通信部
26 制御部
30 拡張現実空間
50 サーバ
51 記憶部
52 通信部
53 制御部
54 データベース
61 スタンプ画像
71 仮想オブジェクト
72 仮想オブジェクト
127 GPS
154 データベース
REFERENCE SIGNS
154 databases
Claims (2)
前記カメラにより撮影される画像に基づく拡張現実空間を前記表示部に表示するステップと、
前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置される前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、
前記端末の位置情報を取得するステップと、
前記通信部を介して前記生成されたオブジェクトデータと前記端末の位置情報とをネットワークに接続されたサーバに送信するステップと、
前記サーバに送信した前記オブジェクトデータを一意に識別する識別子を前記サーバから受信するステップと、
前記サーバを特定するアドレスと前記識別子とを含むURLを生成するステップと、
前記生成されたURLを他の端末に送信するステップと、
他の端末から送信された前記URLを受信するステップと、
前記URLに含まれる前記識別子を前記URLにより特定される前記サーバに送信するステップと、
前記識別子により識別されるオブジェクトデータを前記サーバから受信するステップと、
前記受信した前記オブジェクトデータに含まれる前記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで前記拡張現実空間内に配置するステップと
を実行させるための拡張現実プログラム。 To the processor of the terminal including the camera, the display unit and the communication unit,
Displaying on the display unit an augmented reality space based on an image captured by the camera;
Object data including one or more object information including information specifying a virtual object arranged in the augmented reality space and information specifying a position and an orientation of the virtual object arranged in the augmented reality space Generating the
Acquiring location information of the terminal;
Transmitting the generated object data and position information of the terminal to a server connected to a network via the communication unit;
Receiving from the server an identifier that uniquely identifies the object data sent to the server;
Generating a URL including an address identifying the server and the identifier;
Sending the generated URL to another terminal;
Receiving the URL sent from another terminal;
Sending the identifier contained in the URL to the server identified by the URL;
Receiving from the server object data identified by the identifier;
Placing a virtual object specified by the one or more pieces of object information contained in the received object data in the augmented reality space at a position and an orientation specified by the object information Reality program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133771A JP6548241B1 (en) | 2018-07-14 | 2018-07-14 | Augmented reality program and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018133771A JP6548241B1 (en) | 2018-07-14 | 2018-07-14 | Augmented reality program and information processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6548241B1 true JP6548241B1 (en) | 2019-07-24 |
JP2020013231A JP2020013231A (en) | 2020-01-23 |
Family
ID=67390287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018133771A Active JP6548241B1 (en) | 2018-07-14 | 2018-07-14 | Augmented reality program and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6548241B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179435A (en) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | Augmented reality processing method, device and system, storage medium and electronic equipment |
WO2023160072A1 (en) * | 2022-02-23 | 2023-08-31 | 华为技术有限公司 | Human-computer interaction method and apparatus in augmented reality (ar) scene, and electronic device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7086242B1 (en) | 2021-02-18 | 2022-06-17 | Kddi株式会社 | Information processing equipment, information processing methods, and programs |
JP7082698B1 (en) | 2021-02-18 | 2022-06-08 | Kddi株式会社 | Information processing equipment, information processing methods, and programs |
JP6951810B1 (en) * | 2021-03-31 | 2021-10-20 | Links株式会社 | Augmented reality system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5616622B2 (en) * | 2009-12-18 | 2014-10-29 | アプリックスIpホールディングス株式会社 | Augmented reality providing method and augmented reality providing system |
JP5651372B2 (en) * | 2010-05-18 | 2015-01-14 | 株式会社Nttドコモ | Post information control apparatus, post information control system, and post information control method |
JP5942456B2 (en) * | 2012-02-10 | 2016-06-29 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
TWI617930B (en) * | 2016-09-23 | 2018-03-11 | 李雨暹 | Method and system for sorting a search result with space objects, and a computer-readable storage device |
-
2018
- 2018-07-14 JP JP2018133771A patent/JP6548241B1/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179435A (en) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | Augmented reality processing method, device and system, storage medium and electronic equipment |
CN111179435B (en) * | 2019-12-24 | 2024-02-06 | Oppo广东移动通信有限公司 | Augmented reality processing method, device, system, storage medium and electronic equipment |
WO2023160072A1 (en) * | 2022-02-23 | 2023-08-31 | 华为技术有限公司 | Human-computer interaction method and apparatus in augmented reality (ar) scene, and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP2020013231A (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6548241B1 (en) | Augmented reality program and information processing apparatus | |
US8356033B2 (en) | Album system, photographing device, and server | |
JP2014112302A (en) | Prescribed area management system, communication method, and program | |
US20130135640A1 (en) | Function executing device and server | |
JP2014131215A (en) | Image management system, image management method, and program | |
MXPA05009939A (en) | Apparatus and method for manipulating images. | |
US10984568B2 (en) | Methods, devices, and computer-readable media for sharing image effects | |
KR20110099473A (en) | Method and apparatus for sharing contents | |
US10142512B2 (en) | Server device, image printing device, and moving-image data delivery system | |
US20090212923A1 (en) | Information processing apparatus, method, and program | |
JP2022531339A (en) | Resource configuration method, resource configuration device, computer equipment, and computer program | |
WO2014050956A1 (en) | Photography device, photography system, photography method, and photography control program | |
JP2020170526A (en) | Image management system and image management method | |
CN110515908B (en) | Photo live broadcasting system and method thereof | |
JP2017012559A (en) | Video game processing program, video game processing system, and user terminal | |
JP2005196615A (en) | Information processing system and information processing method | |
JP2014030104A (en) | Receiving device, image sharing system, receiving method, and program | |
JP6256430B2 (en) | Content providing server, content providing method, and computer program | |
KR20140061340A (en) | Apparatus and method of managing game screenshot based on exif meta-data | |
JP2012089928A (en) | Image processing device and image processing method | |
JP6666557B2 (en) | IMAGE MANAGEMENT SYSTEM, INFORMATION PROCESSING DEVICE USED FOR IMAGE MANAGEMENT SYSTEM, INFORMATION PRESENTATION METHOD BY INFORMATION PROCESSING DEVICE, AND PROGRAM | |
US20180246980A1 (en) | Uniform Resource Locator Link Generator | |
JP2016149022A (en) | Sales support program and sales support device | |
JP2015111468A (en) | Distribution system for content, distribution program, and distribution method | |
JP2016062168A (en) | Ar apparatus, image sharing system, image sharing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180823 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |