JP2020013231A - 拡張現実プログラム及び情報処理装置 - Google Patents

拡張現実プログラム及び情報処理装置 Download PDF

Info

Publication number
JP2020013231A
JP2020013231A JP2018133771A JP2018133771A JP2020013231A JP 2020013231 A JP2020013231 A JP 2020013231A JP 2018133771 A JP2018133771 A JP 2018133771A JP 2018133771 A JP2018133771 A JP 2018133771A JP 2020013231 A JP2020013231 A JP 2020013231A
Authority
JP
Japan
Prior art keywords
terminal
augmented reality
information
object data
communication unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018133771A
Other languages
English (en)
Other versions
JP6548241B1 (ja
Inventor
英信 森
Hidenobu Mori
英信 森
亮 川野辺
Ryo Kawanobe
亮 川野辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Andg Co Ltd
Original Assignee
Andg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Andg Co Ltd filed Critical Andg Co Ltd
Priority to JP2018133771A priority Critical patent/JP6548241B1/ja
Application granted granted Critical
Publication of JP6548241B1 publication Critical patent/JP6548241B1/ja
Publication of JP2020013231A publication Critical patent/JP2020013231A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供する。【解決手段】拡張現実プログラムは、端末20の制御部26に、カメラ21により撮影される画像に基づく拡張現実空間をディスプレイ22に表示するステップと、拡張現実空間内に配置される仮想オブジェクトを特定する情報と仮想オブジェクトの位置及び向きを特定する情報とを含むオブジェクト情報を含むオブジェクトデータを生成するステップと、オブジェクトデータをサーバ50に送信するステップと、特定のオブジェクトデータをサーバ50に要求するステップと、要求した特定のオブジェクトデータをサーバ50から受信するステップと、受信した特定のオブジェクトデータに含まれるオブジェクト情報により特定される仮想オブジェクトを拡張現実空間30内に配置するステップとを実行させる。【選択図】図1

Description

本発明は、拡張現実プログラム及び情報処理装置に係り、特に現実空間に仮想オブジェクトが配置された拡張現実空間を複数の端末間で共有する拡張現実プログラムに関するものである。
近年、人間が知覚している現実世界にコンピュータにより情報を付加する技術、すなわち拡張現実(Augmented Reality(AR))技術の開発が進んでいる。このような拡張現実技術の1つとして、カメラで撮影した現実空間の画像に仮想オブジェクトを付加して表示するものが知られている。また、このような現実空間に付加した仮想オブジェクトを複数の端末間で共有する技術も開発されている(例えば、特許文献1参照)。しかしながら、この特許文献1に記載されている技術では、仮想オブジェクトを共有するグループごとに設定が必要であり、仮想オブジェクトの共有が容易ではない。
米国特許出願公開第2011/0216002号明細書
本発明は、このような従来技術の問題点に鑑みてなされたもので、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムを提供することを第1の目的とする。
また、本発明は、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置を提供することを第2の目的とする。
本発明の第1の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムが提供される。この拡張現実プログラムは、カメラと表示部と通信部とを含む端末のプロセッサに、上記カメラにより撮影される画像に基づく拡張現実空間を上記表示部に表示するステップと、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置される上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、上記通信部を介して上記生成されたオブジェクトデータをネットワークに接続されたサーバに送信するステップと、上記通信部を介して特定のオブジェクトデータを上記サーバに要求するステップと、上記要求した特定のオブジェクトデータを上記サーバから受信するステップと、上記受信した上記特定のオブジェクトデータに含まれる上記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで上記拡張現実空間内に配置するステップとを実行させる。
このような拡張現実プログラムによれば、複数の端末間でサーバを介してオブジェクトデータを送受信することが可能となり、拡張現実空間に配置された仮想オブジェクトを複数の端末間で簡単に共有することが可能となる。
本発明の第2の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムが提供される。この拡張現実プログラムは、カメラと表示部と通信部とを含む端末のプロセッサに、上記カメラにより撮影される画像に基づく拡張現実空間を上記表示部に表示するステップと、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置される上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、上記端末の位置情報を取得するステップと、上記通信部を介して上記生成されたオブジェクトデータと上記端末の位置情報とをネットワークに接続されたサーバに送信するステップと、上記通信部を介して上記端末の位置情報に関連付けられたオブジェクトデータを上記サーバに要求するステップと、上記要求したオブジェクトデータの一覧を上記サーバから受信するステップと、上記受信したオブジェクトデータの一覧を上記表示部に表示するステップとを実行させる。
このような拡張現実プログラムによれば、端末の位置情報とオブジェクトデータとを関連付けているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。
本発明の第3の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置が提供される。この情報処理装置は、ネットワークを介して複数の端末と通信可能な通信部と、拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、上記複数の端末の間で上記仮想オブジェクトを共有可能にする制御部とを備えている。上記制御部は、上記通信部を介して上記複数の端末のうち第1の端末から受信したオブジェクトデータであって、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置された上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを一意な識別子に関連付けて上記記憶部に格納し、上記通信部を介して上記複数の端末のうち第2の端末から受信した上記一意な識別子に対して関連付けられた上記オブジェクトデータを上記記憶部から抽出し、上記通信部を介して上記抽出された上記オブジェクトデータを上記第2の端末に送信するように構成される。
このような情報処理装置によれば、第1の端末から第2の端末にオブジェクトデータを送信することができるので、拡張現実空間に配置された仮想オブジェクトを第1の端末と第2の端末との間で簡単に共有することが可能となる。
本発明の第4の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置が提供される。この情報処理装置は、ネットワークを介して複数の端末と通信可能な通信部と、拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、上記複数の端末の間で上記仮想オブジェクトを共有可能にする制御部とを備えている。上記制御部は、上記通信部を介して上記複数の端末のうち第1の端末から受信したオブジェクトデータであって、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置された上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報とを含むオブジェクトデータと、上記第1の端末の位置情報とを一意な識別子に関連付けて上記記憶部に格納し、上記通信部を介して上記複数の端末のうち第2の端末から受信した上記第2の端末の位置情報に対して関連付けられた上記オブジェクトデータを上記記憶部から抽出し、上記通信部を介して上記抽出された上記オブジェクトデータの一覧を上記第2の端末に送信するように構成される。
このような情報処理装置によれば、端末の位置情報とオブジェクトデータとを関連付けて記憶部に格納しているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。
本発明によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有することができる。
図1は、本発明の第1の実施形態における情報処理システムを模式的に示す概念図である。 図2は、図1の端末内で行われる処理を示すフローチャートである。 図3Aは、図1の端末のディスプレイの画面の一例を示す図である。 図3Bは、図1の端末のディスプレイの画面の一例を示す図である。 図3Cは、図1の端末のディスプレイの画面の一例を示す図である。 図3Dは、図1の端末のディスプレイの画面の一例を示す図である。 図3Eは、図1の端末のディスプレイの画面の一例を示す図である。 図3Fは、図1の端末のディスプレイの画面の一例を示す図である。 図3Gは、図1の端末のディスプレイの画面の一例を示す図である。 図3Hは、図1の端末のディスプレイの画面の一例を示す図である。 図3Iは、図1の端末のディスプレイの画面の一例を示す図である。 図4は、図1の端末内で生成されるオブジェクトデータのデータ構造を示す概念図である。 図5は、図1の端末とサーバとの間で行われる処理を示す概念図である。 図6は、図1のサーバ内の記憶部に格納されるデータベースのデータ構造を示す概念図である。 図7は、図1の他の端末とサーバとの間で行われる処理を示す概念図である。 図8は、本発明の第2の実施形態における情報処理システムを模式的に示す概念図である。 図9は、図8の端末のディスプレイの画面の一例を示す図である。 図10は、図8の端末とサーバとの間で行われる処理を示す概念図である。 図11は、図8のサーバ内の記憶部に格納されるデータベースのデータ構造を示す概念図である。 図12は、図8の端末とサーバとの間で行われる処理を示す概念図である。
以下、本発明に係る拡張現実プログラム及び情報処理装置の実施形態について図1から図12を参照して詳細に説明する。なお、図1から図12において、同一又は相当する構成要素には、同一の符号を付して重複した説明を省略する。また、図1から図12においては、各構成要素の縮尺や寸法が誇張されて示されている場合や一部の構成要素が省略されている場合がある。
図1は、本発明の第1の実施形態における情報処理システムを模式的に示す概念図である。この情報処理システムは、インターネットなどのネットワーク10に接続される複数の端末20(又は20’)と情報処理装置としてのサーバ50とにより構成されている。それぞれの端末20においては、後述するように現実空間に仮想オブジェクトを配置した拡張現実空間を生成することができ、サーバ50を介してこれらの仮想オブジェクトを複数の端末20間で共有できるようになっている。なお、以下では、端末20の構成についてのみ説明するが、端末20’も端末20と同様の構成及び機能を有するものである。
図1に示すように、それぞれの端末20は、例えばスマートフォンやタブレットコンピュータなどにより構成され、現実世界を撮像するカメラ21と、表示部としてのディスプレイ22と、ユーザからの入力を受ける入力部としてのタッチパネル23と、ROMやRAM、フラッシュメモリなどを含む記憶部24と、ネットワーク10に接続してデータ通信を行うための通信部25と、各構成要素の動作を制御する制御部26とを備えている。記憶部24には、OS(Operating System)や端末20を制御するためのプログラム、本発明に係る拡張現実空間を実現するための拡張現実プログラム(以下、「ARプログラム」という)、その他各種データなどが格納されている。制御部26は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部14に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。
また、サーバ50は、ROMやRAM、フラッシュメモリなどを含む記憶部51と、ネットワーク10に接続してデータ通信を行うための通信部52と、各構成要素の動作を制御する制御部53とを備えている。記憶部51には、OSやサーバ50を制御するためのプログラム、後述するデータベース54、端末20からアップロードされる静止画や動画、その他各種データなどが格納されている。制御部53は、プロセッサ(CPU)、ROM、RAMなどを備えており、記憶部51に格納されたプログラムをRAMにロードしてこれをプロセッサにより実行することにより様々な機能を実現している。
図2は、端末20内で行われる処理を示すフローチャートである。上記のような構成の情報処理システムにおいて、制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し(ステップS1)、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する(ステップS2)。この段階では、後述する仮想オブジェクトがまだ拡張現実空間内に配置されていないので、カメラ21で撮影される現実空間の画像がそのまま拡張現実空間としてディスプレイ22に表示されることとなる。
このとき、図3Aに示すように、ディスプレイ22には、拡張現実空間30に加えて、仮想オブジェクトを生成するためのボタン31,32及び撮影を開始するためのボタン41も表示される。ボタン31は、スタンプ画像からなる仮想オブジェクトを生成するためのボタンであり、ボタン32は、文字列からなる仮想オブジェクトを生成するためのボタンである。
次に、制御部26は、タッチパネル23を介して、仮想オブジェクトを生成するボタン31,32が押されたか否かを判断し(ステップS3)、いずれかのボタン31,32が押されたと判断した場合には、押されたボタン31,32に応じた仮想オブジェクトを生成する(ステップS4)。すなわち、ボタン31が押された場合にはスタンプ画像からなる仮想オブジェクトを生成し、ボタン32が押された場合には文字列からなる仮想オブジェクトを生成する。
そして、制御部26は、生成した仮想オブジェクトをその時点の端末20の位置と向きを基準として拡張現実空間30内に配置し(ステップS5)、この生成した仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータを生成し、このオブジェクトデータを記憶部24に保存する(ステップS6)。
図4は、このオブジェクトデータのデータ構造を示す概念図である。図4に示すように、オブジェクトデータは、1つ以上のオブジェクト情報を含んでいる。1つのオブジェクト情報は、1つの仮想オブジェクトに対応しており、1つのオブジェクトデータ内で一意に定まる識別子としてのオブジェクト番号と、拡張現実空間内で配置された仮想オブジェクトの位置及び向きを特定する状態特定データと、仮想オブジェクトの内容を特定するモデルデータとを含んでいる。オブジェクト番号としては、例えば、仮想オブジェクトの作成順に連続番号を付したものを用いることができる。また、状態特定データとしては、例えばアップル社のARKitにおいて用いられる4次元行列データを用いることができる。モデルデータは、作成する仮想オブジェクトの種類に応じた情報を含んでいる。
その後、制御部26は、拡張現実空間内に配置された仮想オブジェクトを現実空間の画像とともにディスプレイ22に表示する(ステップS2)。これにより、ディスプレイ22には、仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。
一方、ステップS3において、制御部26が、いずれのボタン31,32も押されていないと判断した場合には、撮影を開始するボタン41が押されたか否かを判断する(ステップS7)。制御部26が、ボタン41が押されたと判断すると、後述するように、拡張現実空間30を撮影して(ステップS8)、その撮影データと上述したオブジェクトデータとをサーバに送信する(ステップS9)。制御部26が、ボタン41が押されていないと判断した場合には、ステップS2に戻る。
ここで、仮想オブジェクトの生成をより詳細に説明すると、ステップS3において、制御部26が、3つのボタン31,32のうち、スタンプ画像からなる仮想オブジェクトを作成するボタン31が押されたと判断すると、制御部26は、記憶部24に保存されたスタンプ画像を読み込み、図3Bに示すように、これらのスタンプ画像61の一覧をディスプレイ22に表示する。また、制御部26は、キャンセルボタン62と決定ボタン63もディスプレイ22に表示する。ユーザが、タッチパネル23を介してこの一覧の中から所望のスタンプ画像61を選択し、決定ボタン63を押すと、選択されたスタンプ画像61からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。
このとき、すでに1つ以上の仮想オブジェクトが生成されオブジェクトデータが記憶部24に保存されている場合には、選択されたスタンプ画像からなる仮想オブジェクトに関するオブジェクト情報がオブジェクトデータに追加されるが、この例では、まだオブジェクトデータが生成されていないので、選択されたスタンプ画像61からなる仮想オブジェクトに関するオブジェクト情報を含むオブジェクトデータが新たに作成され、記憶部24に保存される(ステップS6)。
例えば、図3Bに示す画面において、ユーザが星印のスタンプ画像61Aを選択すると、図3Cに示すように、その時点の端末20の位置と向きを基準として星印のスタンプ画像61Aからなる仮想オブジェクト71が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「0」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト71の位置と向きを表す4次元行列データ、モデルデータとして端末20内に保存されているスタンプ画像のファイル名(例えば「star.png」)を含むオブジェクト情報を含むオブジェクトデータが生成され、記憶部24に保存される。このオブジェクトデータは、例えばJSON(JavaScript Object Notation)形式で記述される。
ディスプレイ22には、星印のスタンプ画像61Aからなる仮想オブジェクト71が配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71の向きや位置、大きさが変化し、図3Dに示すように、仮想オブジェクト71があたかも現実空間内に実際に配置されているかのように表示される。
ステップS3において、制御部26が、3つのボタン31,32のうち、文字列からなる仮想オブジェクトを作成するボタン32が押されたと判断すると、制御部26は、図3Eに示すように、文字列を入力する入力ボックス64と、文字色を選択するカラーピッカー65と、キャンセルボタン62と、決定ボタン63とをディスプレイ22に表示する。ユーザが、タッチパネル23を介して入力ボックス64を選択すると、文字入力モードとなり入力ボックス64に文字列を入力することができる。また、ユーザが、タッチパネル23を介してカラーピッカー65の中の所望の色を選択すると、入力ボックス64の文字列の色が選択された色に変化する。ユーザが、入力ボックス64を選択して、所望の文字列を入力し、決定ボタン63を押すと、入力した文字列からなる仮想オブジェクトが作成され(ステップS4)、この仮想オブジェクトがその時点の端末20の位置と向きを基準として拡張現実空間30内に配置される(ステップS5)。なお、キャンセルボタン62が押されると、仮想オブジェクトの生成がキャンセルされ、ステップS2に戻ることとなる。
このとき、すでにオブジェクトデータが記憶部24に保存されているので、入力した文字列からなる仮想オブジェクトに関するオブジェクト情報が生成され、オブジェクトデータに追加される(ステップS6)。例えば、ユーザが入力ボックス64に「Patent」という文字列を入力して決定ボタン63を押すと、図3Fに示すように、その時点の端末20の位置と向きを基準として「Patent」という文字列からなる仮想オブジェクト72が拡張現実空間30内に配置される。このとき、例えば、オブジェクト番号として「1」、状態特定データとしてこの時点の端末20の位置と向きを基準とした仮想オブジェクト72の位置と向きを表す4次元行列データ、モデルデータとして入力した文字列「Patent」と選択した色の情報とを含むオブジェクト情報が生成され、このオブジェクト情報が記憶部24に保存されているオブジェクトデータに追加される。なお、図3Eに示す画面に文字列のフォントやサイズを変更できるインタフェイスを追加し、オブジェクト情報中のモデルデータとして文字列のフォントやサイズを特定する情報を含めてもよい。
ディスプレイ22には、星印のスタンプ画像からなる仮想オブジェクト71と文字列「Patent」からなる仮想オブジェクト72とが配置された拡張現実空間30が表示され、端末20の位置や向きを変えると、それに伴って仮想オブジェクト71,72の向きや位置、大きさが変化し、図3Gに示すように、仮想オブジェクト71,72があたかも現実空間内に実際に配置されているかのように表示される。
このようにして、ユーザは、拡張現実空間内に1以上の仮想オブジェクトを任意の位置及び向きで配置することができる。すべての仮想オブジェクトを配置した後に、撮影開始ボタン41(図3A等参照)を押すと、制御部26は、ディスプレイ22に表示されている拡張現実空間30の撮影を行い、その撮影データを記憶部24に保存する(ステップS8)。この撮影データは、カメラ21により撮影される現実空間の画像データに、上述のようにして作成された仮想オブジェクトが付加されたデータである。この撮影データは、静止画データであってもよいし、動画データであってもよい。
拡張現実空間の撮影が完了すると、制御部26は、図3Hに示すように、アップロードボタン66をディスプレイ22に表示する。ユーザが、タッチパネル23を介してアップロードボタン66を押すと、制御部26は、通信部25を介してネットワーク10に接続されたサーバ50にアクセスし、上述のようにして生成されたオブジェクトデータと撮影データとをサーバ50に送信する(ステップS9)。このとき、端末20を操作しているユーザの情報(例えば「AAA」とする)もオブジェクトデータとともにサーバ50に送信される。
図5は、このときに端末20とサーバ50との間で行われる処理を示す概念図である。図5に示すように、まず、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS11)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS12)。また、端末20の制御部26は、オブジェクトデータとユーザ情報とをサーバ50に送信する(ステップS13)。サーバ50の通信部52が、端末20からオブジェクトデータ及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース54に保存する(ステップS14)。
図6は、サーバ50内の記憶部51に格納されるデータベース54のデータ構造を示す概念図である。図6に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83とからなるレコードを含んでいる。ステップS14において、サーバ50の通信部52が端末20からオブジェクトデータとユーザ情報とを受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えば仮想オブジェクト71のオブジェクト情報と仮想オブジェクト72のオブジェクト情報とを含むオブジェクトデータをJSON形式で記述したデータ(JSONデータ3))とユーザ情報82(例えば「AAA」)を上記生成した識別子81に関連付けてデータベース54に保存する。
次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS15)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、図3Iに示すように、シェアボタン(共有ボタン)67をディスプレイ22に表示する(ステップS16)。ユーザが、タッチパネル23を介してシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS17)。例えば、端末20の制御部26は、ARプログラムを起動するためのプロトコルと、サーバ50を特定するアドレスと、識別子81(例えば「3」)とを含むURL(Uniform Resource Locator)を生成し、これをメールやSNSなどを介して他の端末20’に送信して識別子81を他の端末20’と共有するようにしてもよい。また、このURLをさらに短縮化して他の端末20’に送信するようにしてもよい。
図7は、識別子81を受信した他の端末20’とサーバ50との間で行われる処理を示す概念図である。端末20’が上述したように端末20からメールやSNSなどを介して識別子81を含むURLを受信すると(ステップS21)、端末20’の制御部26は、受信したURLに記述されたプロトコルに従い、上述したARプログラムを起動する(ステップS22)。そして、端末20’の制御部26は、受信したURLにより特定されるサーバ50に通信部25を介してアクセスし、URLに記述された識別子81(例えば「3」)をサーバ50に送信する(ステップS23)。サーバ50の通信部52が、端末20’から識別子81を受信すると、制御部53は、この受信した識別子81(例えば「3」)をキーとして記憶部51に格納されているデータベース54から対応するレコードを検索する(ステップS24)。これにより、図6に示す例では、識別子81が「3」、ユーザ情報82が「AAA」、オブジェクトデータ83が「JSONデータ3」であるレコードが抽出される。
次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20’に送信する(ステップS25)。端末20’の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクト(この例では仮想オブジェクト71及び仮想オブジェクト72)を生成し、この仮想オブジェクト71,72を該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS26)。そして、制御部26は、仮想オブジェクト71,72が配置された拡張現実空間30をディスプレイ22に表示する(ステップS27)。これにより、ディスプレイ22には、図3Gに示すように、ユーザ「AAA」により生成された仮想オブジェクトが現実空間内に実際に配置されているかのように表示される。
このように、本実施形態によれば、端末20において拡張現実空間に配置した仮想オブジェクト71,72を端末20と同一の位置及び向きで他の端末20’の拡張現実空間にも再現することが可能となる。
図8は、本発明の第2の実施形態における情報処理システムを模式的に示す概念図である。図8に示すように、本実施形態における端末20(又は20’)は、端末20の位置情報を取得する位置情報取得部としてGPS(Global Positioning System)127を有している。
上述した第1の実施形態と同様に、端末20の制御部26によりARプログラムが実行されると、制御部26は、カメラ21を起動し、カメラ21で撮影される現実空間の画像に基づいて拡張現実空間をディスプレイ22に表示する。このとき、図9に示すように、ディスプレイ22には、拡張現実空間30と、スタンプ画像からなる仮想オブジェクトを生成するためのボタン31と、文字列からなる仮想オブジェクトを生成するためのボタン32と、すでに作成された1以上の仮想オブジェクトを再現するためのボタン131と、撮影を開始するためのボタン41とが表示される。ボタン31,32,41が押された場合の処理は上述した第1の実施形態と同様であるので、ここでは説明を省略する。
本実施形態においては、ユーザが撮影開始ボタン41を押して拡張現実空間の撮影を行った後、アップロードボタン66(図3H参照)を押すと、図10に示されるような処理がなされる。すなわち、端末20の制御部26は、通信部25を介して撮影データをサーバ50に送信する(ステップS31)。サーバ50の通信部52が、端末20から撮影データを受信すると、制御部53は、この受信した撮影データを記憶部51に保存する(ステップS32)。
そして、端末20の制御部26は、GPS127により端末20の位置情報(例えば経度と緯度)を取得し(ステップS33)、この位置情報をオブジェクトデータ及びユーザ情報とともにサーバ50に送信する(ステップS34)。サーバ50の通信部52が、端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、これらの受信した情報を記憶部51に格納されているデータベース154に保存する(ステップS35)。
図11は、サーバ50内の記憶部51に格納されるデータベース154のデータ構造を示す概念図である。図11に示すように、このデータベース54は、受信したオブジェクトデータを一意に識別する識別子81と、送信したユーザを特定するユーザ情報82と、オブジェクトデータ83と、オブジェクトデータが生成された端末20の位置情報184からなるレコードを含んでいる。ステップS35において、サーバ50の通信部52が端末20から位置情報、オブジェクトデータ、及びユーザ情報を受信すると、制御部53は、受信したオブジェクトデータを一意に識別する識別子81(例えば「3」)を生成し、受信したオブジェクトデータ83(例えばJSONデータ3)とユーザ情報82(例えば「AAA」)と位置情報(例えば「X3,Y3」)とを上記生成した識別子81に関連付けてデータベース154に保存する。
次に、サーバ50の制御部53は、生成した識別子81(例えば「3」)を通信部52を介して端末20に送信する(ステップS36)。端末20の通信部25がサーバ50から識別子81を受信すると、制御部26は、撮影データ及びオブジェクトデータのサーバ50への送信が完了したと判断し、シェアボタン67(図3I参照)をディスプレイ22に表示する(ステップS37)。ユーザがシェアボタン67を押すと、制御部26は、サーバ50から送信された識別子81を他の端末20’と共有するように動作する(ステップS38)。
次に、図9に示すボタン131が押された場合の処理について説明する。このボタン131は、すでに作成された1以上の仮想オブジェクトを再現するためのボタンである。図12は、ボタン131が押された場合に端末20とサーバ50との間で行われる処理を示す概念図である。
図12に示すように、端末20の制御部26が、ボタン131が押されたと判断すると、GPS127により端末20の位置情報(例えば「X2,Y2」)を取得し(ステップS41)、この位置情報をサーバ50に送信する(ステップS42)。サーバ50の通信部52が、端末20から位置情報を受信すると、制御部53は、この受信した位置情報(例えば「X2,Y2」)をキーとして記憶部51に格納されているデータベース154から対応するレコードを検索する(ステップS43)。これにより、図11に示す例では、識別子81が「2」、ユーザ情報82が「BBB」、オブジェクトデータ83が「JSONデータ2」、位置情報が「X2,Y2」であるレコードと、識別子81が「4」、ユーザ情報82が「CCC」、オブジェクトデータ83が「JSONデータ4」、位置情報が「X2,Y2」であるレコードとが抽出される。
次に、サーバ50の制御部53は、抽出したレコード中のオブジェクトデータ83を通信部25を介して端末20に送信する(ステップS44)。端末20の通信部25がサーバ50からオブジェクトデータ83を受信すると、制御部26が、受信したオブジェクトデータ83の一覧をディスプレイ22に表示する(ステップS45)。この一覧の表示は、例えば、それぞれのオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成して、仮想オブジェクトのサムネイルとして表示することができる。
そして、ユーザがタッチパネル23を介していずれかのオブジェクトデータ83を選択すると、制御部26は、選択されたオブジェクトデータ83に含まれるオブジェクト情報から仮想オブジェクトを生成し、この仮想オブジェクトを該オブジェクト情報により特定される位置及び向きで拡張現実空間30内に配置する(ステップS46)。そして、制御部26は、仮想オブジェクトが配置された拡張現実空間30をディスプレイ22に表示する(ステップS47)。例えば、ユーザが識別子81が「2」で特定されるオブジェクトデータ83を選択した場合には、この端末20と同一の場所でユーザ「BBB」によって生成された仮想オブジェクトが現実空間内に実際に配置されているかのようにディスプレイ22に表示される。
このように、本実施形態によれば、端末20の位置情報をオブジェクトデータ83に関連付けてデータベース154に格納しているため、同一の現実空間において複数の端末20間で同一の仮想オブジェクトを簡単に共有することが可能となる。
ここで、上述のようにオブジェクトデータ83の一覧を端末20のディスプレイ22に表示する際の表示順位を表す情報をデータベース154に含め、この表示順位の順番でオブジェクトデータ83の一覧を端末20のディスプレイ22に表示するようにしてもよい。この場合において、表示順位をユーザ間の入札により定めるようにしてもよい。また、オブジェクトデータ83の有効期限を表す情報をデータベース154に含め、有効期限を過ぎていないオブジェクトデータ83のみを端末20のディスプレイ22に表示するようにしてもよい。この場合において、オブジェクトデータ83を作成したユーザ又は他のユーザが、対価の支払によりこのオブジェクトデータ83の有効期限を延長できるようにしてもよい。
上述した実施形態では、仮想オブジェクトとして端末20内の記憶部24に保存されているスタンプ画像を用いた例を説明したが、仮想オブジェクトとして端末20内の記憶部24に保存されている写真やURLにより特定されるネットワーク上の画像を用いることもできる。また、ユーザがタッチパネル23上になぞった線を仮想オブジェクトとして用いることもできる。
上述したARプログラムは、データ配信用のサーバの記憶装置に保存され、インターネットなどのネットワーク10を介して端末20に配信されてもよい。また、CD,DVD,BD(Blu-Ray Disk)などの光学ディスク、USBメモリ及びメモリカードなどの記憶媒体にARプログラムを記憶させた状態で、その記憶媒体が販売又は配布されてもよい。
また、上述したネットワーク10はインターネットを例として挙げたが、ネットワーク10は、有線LAN(Local Area Network)や無線LAN、その他のネットワークであってもよい。
これまで本発明の好ましい実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。
10 ネットワーク
14 記憶部
20,20' 端末
21 カメラ
22 ディスプレイ
23 タッチパネル
24 記憶部
25 通信部
26 制御部
30 拡張現実空間
50 サーバ
51 記憶部
52 通信部
53 制御部
54 データベース
61 スタンプ画像
71 仮想オブジェクト
72 仮想オブジェクト
127 GPS
154 データベース
本発明の第1の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有できるようにする拡張現実プログラムが提供される。この拡張現実プログラムは、カメラと表示部と通信部とを含む端末のプロセッサに、上記カメラにより撮影される画像に基づく拡張現実空間を上記表示部に表示するステップと、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置される上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、上記通信部を介して上記生成されたオブジェクトデータをネットワークに接続されたサーバに送信するステップと、上記サーバに送信した上記オブジェクトデータを一意に識別する識別子を上記サーバから受信するステップと、上記サーバを特定するアドレスと上記識別子とを含むURLを生成するステップと、上記生成されたURLを他の端末に送信するステップと、他の端末から送信された上記URLを受信するステップと、上記URLに含まれる上記識別子を上記URLにより特定される上記サーバに送信するステップと、上記識別子により識別されるオブジェクトデータを上記サーバから受信するステップと、上記受信した上記オブジェクトデータに含まれる上記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで上記拡張現実空間内に配置するステップとを実行させる。
また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。
上記拡張現実プログラムによれば、端末の位置情報とオブジェクトデータとを関連付けているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。
本発明の第の態様によれば、拡張現実空間に配置される仮想オブジェクトを複数の端末間で簡単に共有可能とする情報処理装置が提供される。この情報処理装置は、ネットワークを介して複数の端末と通信可能な通信部と、拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、上記複数の端末の間で上記仮想オブジェクトを共有可能にする制御部とを備えている。上記制御部は、上記通信部を介して上記複数の端末のうち第1の端末から受信したオブジェクトデータであって、上記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、上記拡張現実空間内に配置された上記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータと、上記第1の端末の位置情報とを一意な識別子に関連付けて上記記憶部に格納し、上記通信部を介して上記複数の端末のうち第2の端末から受信したURLから上記一意な識別子を取得し、上記一意な識別子に対して関連付けられた上記オブジェクトデータを上記記憶部から抽出し、上記通信部を介して上記抽出された上記オブジェクトデータを上記第2の端末に送信するように構成される。
また、上記オブジェクトデータは、複数のオブジェクト情報を含んでいてもよい。
上記情報処理装置によれば、端末の位置情報とオブジェクトデータとを関連付けて記憶部に格納しているので、同一の現実空間において複数の端末間で同一の仮想オブジェクトを簡単に共有することが可能となる。

Claims (4)

  1. カメラと表示部と通信部とを含む端末のプロセッサに、
    前記カメラにより撮影される画像に基づく拡張現実空間を前記表示部に表示するステップと、
    前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置される前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、
    前記通信部を介して前記生成されたオブジェクトデータをネットワークに接続されたサーバに送信するステップと、
    前記通信部を介して特定のオブジェクトデータを前記サーバに要求するステップと、
    前記要求した特定のオブジェクトデータを前記サーバから受信するステップと、
    前記受信した前記特定のオブジェクトデータに含まれる前記1以上のオブジェクト情報により特定される仮想オブジェクトを、該オブジェクト情報により特定される位置及び向きで前記拡張現実空間内に配置するステップと
    を実行させるための拡張現実プログラム。
  2. カメラと表示部と通信部とを含む端末のプロセッサに、
    前記カメラにより撮影される画像に基づく拡張現実空間を前記表示部に表示するステップと、
    前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置される前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを生成するステップと、
    前記端末の位置情報を取得するステップと、
    前記通信部を介して前記生成されたオブジェクトデータと前記端末の位置情報とをネットワークに接続されたサーバに送信するステップと、
    前記通信部を介して前記端末の位置情報に関連付けられたオブジェクトデータを前記サーバに要求するステップと、
    前記要求したオブジェクトデータの一覧を前記サーバから受信するステップと、
    前記受信したオブジェクトデータの一覧を前記表示部に表示するステップと
    を実行させるための拡張現実プログラム。
  3. ネットワークを介して複数の端末と通信可能な通信部と、
    拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、
    前記複数の端末の間で前記仮想オブジェクトを共有可能にする制御部と
    を備え、
    前記制御部は、
    前記通信部を介して前記複数の端末のうち第1の端末から受信したオブジェクトデータであって、前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置された前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報を含むオブジェクトデータを一意な識別子に関連付けて前記記憶部に格納し、
    前記通信部を介して前記複数の端末のうち第2の端末から受信した前記一意な識別子に対して関連付けられた前記オブジェクトデータを前記記憶部から抽出し、前記通信部を介して前記抽出された前記オブジェクトデータを前記第2の端末に送信する
    ように構成される、
    情報処理装置。
  4. ネットワークを介して複数の端末と通信可能な通信部と、
    拡張現実空間内に配置される仮想オブジェクトに関する情報を格納する記憶部と、
    前記複数の端末の間で前記仮想オブジェクトを共有可能にする制御部と
    を備え、
    前記制御部は、
    前記通信部を介して前記複数の端末のうち第1の端末から受信したオブジェクトデータであって、前記拡張現実空間内に配置される仮想オブジェクトを特定する情報と、前記拡張現実空間内に配置された前記仮想オブジェクトの位置及び向きを特定する情報とを含む1つ以上のオブジェクト情報とを含むオブジェクトデータと、前記第1の端末の位置情報とを一意な識別子に関連付けて前記記憶部に格納し、
    前記通信部を介して前記複数の端末のうち第2の端末から受信した前記第2の端末の位置情報に対して関連付けられた前記オブジェクトデータを前記記憶部から抽出し、前記通信部を介して前記抽出された前記オブジェクトデータの一覧を前記第2の端末に送信する
    ように構成される、
    情報処理装置。
JP2018133771A 2018-07-14 2018-07-14 拡張現実プログラム及び情報処理装置 Active JP6548241B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018133771A JP6548241B1 (ja) 2018-07-14 2018-07-14 拡張現実プログラム及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133771A JP6548241B1 (ja) 2018-07-14 2018-07-14 拡張現実プログラム及び情報処理装置

Publications (2)

Publication Number Publication Date
JP6548241B1 JP6548241B1 (ja) 2019-07-24
JP2020013231A true JP2020013231A (ja) 2020-01-23

Family

ID=67390287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133771A Active JP6548241B1 (ja) 2018-07-14 2018-07-14 拡張現実プログラム及び情報処理装置

Country Status (1)

Country Link
JP (1) JP6548241B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6951810B1 (ja) * 2021-03-31 2021-10-20 Links株式会社 拡張現実システム
JP7082698B1 (ja) 2021-02-18 2022-06-08 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP7086242B1 (ja) 2021-02-18 2022-06-17 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179435B (zh) * 2019-12-24 2024-02-06 Oppo广东移动通信有限公司 增强现实处理方法及装置、系统、存储介质和电子设备
CN114489337A (zh) * 2022-01-24 2022-05-13 深圳市慧鲤科技有限公司 一种ar互动方法、装置、设备及存储介质
CN116679824A (zh) * 2022-02-23 2023-09-01 华为技术有限公司 增强现实ar场景中的人机交互方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム
JP2011242989A (ja) * 2010-05-18 2011-12-01 Ntt Docomo Inc 投稿情報制御装置、投稿情報制御システム及び投稿情報制御方法
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2018049623A (ja) * 2016-09-23 2018-03-29 雨暹 李 空間オブジェクト検索並べ替え方法及びクラウドシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム
JP2011242989A (ja) * 2010-05-18 2011-12-01 Ntt Docomo Inc 投稿情報制御装置、投稿情報制御システム及び投稿情報制御方法
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2018049623A (ja) * 2016-09-23 2018-03-29 雨暹 李 空間オブジェクト検索並べ替え方法及びクラウドシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7082698B1 (ja) 2021-02-18 2022-06-08 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP7086242B1 (ja) 2021-02-18 2022-06-17 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022126546A (ja) * 2021-02-18 2022-08-30 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022126547A (ja) * 2021-02-18 2022-08-30 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
JP6951810B1 (ja) * 2021-03-31 2021-10-20 Links株式会社 拡張現実システム
JP2022157203A (ja) * 2021-03-31 2022-10-14 Links株式会社 拡張現実システム

Also Published As

Publication number Publication date
JP6548241B1 (ja) 2019-07-24

Similar Documents

Publication Publication Date Title
JP6548241B1 (ja) 拡張現実プログラム及び情報処理装置
JP6075066B2 (ja) 画像管理システム、画像管理方法、及びプログラム
US9342762B2 (en) Function executing device and server
JP2014112302A (ja) 所定領域管理システム、通信方法、及びプログラム
US8356033B2 (en) Album system, photographing device, and server
KR101673188B1 (ko) 컨텐츠 공유 장치 및 방법
JP5920057B2 (ja) 送信装置、画像共有システム、送信方法、及びプログラム
JP7420126B2 (ja) システム、管理システム、画像管理方法、及びプログラム
JP6709993B2 (ja) メイクパーツ生成装置およびメイクパーツ生成方法
JP2009176032A (ja) 情報処理装置および方法、並びにプログラム
JP6011117B2 (ja) 受信装置、画像共有システム、受信方法、及びプログラム
JP2012129820A (ja) 画像制御装置及び画像制御方法、プログラム並びに記憶媒体
JP6304300B2 (ja) 送信装置、通信方法、プログラムおよび受信装置
TWI531914B (zh) 擴增實境專案管理系統與方法
JP2014120878A (ja) 所定領域管理システム、所定領域管理方法、及びプログラム
JP6256430B2 (ja) コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
JP5942637B2 (ja) 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム
US20180246980A1 (en) Uniform Resource Locator Link Generator
JP2016062168A (ja) Ar装置、画像共有システム、画像共有方法、およびコンピュータプログラム
JP2016149022A (ja) 販売支援プログラム及び販売支援装置
JP6331777B2 (ja) 拡張現実情報提供システム、拡張現実情報提供方法、及び、拡張現実情報提供プログラム
JP5932355B2 (ja) コンテンツ管理装置、制御方法、及びプログラム
JP6508288B2 (ja) システム、画像共有システム、通信方法、及びプログラム
JP7047558B2 (ja) 情報処理装置、情報処理プログラム、閲覧装置、閲覧プログラム、及び情報処理システム
JP6233451B2 (ja) 画像共有システム、通信方法及びプログラム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6548241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250