JP2012212225A - 情報処理装置、方法およびプログラム - Google Patents
情報処理装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2012212225A JP2012212225A JP2011076369A JP2011076369A JP2012212225A JP 2012212225 A JP2012212225 A JP 2012212225A JP 2011076369 A JP2011076369 A JP 2011076369A JP 2011076369 A JP2011076369 A JP 2011076369A JP 2012212225 A JP2012212225 A JP 2012212225A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- information
- tag
- user
- destination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】位置情報に従って現実空間に付加されるように表示対象を表示するための技術の応用性を高めることを課題とする。
【解決手段】タグ位置情報をもって現実空間に対して位置決めされ、タグ位置情報に従って現実空間に付加されるように表示されるタグの情報を保持するタグ情報データベース38に接続された情報処理装置2において、タグの移動先位置を示す移動先位置情報を取得する移動先位置情報取得部35と、移動先位置情報をもってタグ情報データベース38に保持されるタグ位置情報を更新する位置情報更新部36と、を備え、移動先位置情報取得部35は、複数の移動先位置情報を順次取得する場合に、複数の移動先位置情報が経路を描くように、移動先位置情報を取得することとした。
【選択図】図2
【解決手段】タグ位置情報をもって現実空間に対して位置決めされ、タグ位置情報に従って現実空間に付加されるように表示されるタグの情報を保持するタグ情報データベース38に接続された情報処理装置2において、タグの移動先位置を示す移動先位置情報を取得する移動先位置情報取得部35と、移動先位置情報をもってタグ情報データベース38に保持されるタグ位置情報を更新する位置情報更新部36と、を備え、移動先位置情報取得部35は、複数の移動先位置情報を順次取得する場合に、複数の移動先位置情報が経路を描くように、移動先位置情報を取得することとした。
【選択図】図2
Description
本発明は、位置情報に従って現実空間に付加されるように表示対象を表示するための情報処理装置、方法およびプログラムに関する。
従来、マップされる物理的空間を含む会場と、会場内で発生する現実の事象を制御するように設定された会場管理システムと、少なくとも1人の乗客をマップされる物理的空間の中を既知の経路に沿って運ぶことを目的とし、会場管理システムの制御の下、マップされる物理的空間内を移動するように設定されたトランスポータと、会場管理システムと通信し、会場内で発生する仮想の事象と現実の事象とを含むマップされる物理的空間の仮想表現を有する仮想会場を生成するように設定された仮想会場ジェネレータを含む拡張現実感体験サーバとを含み、この拡張現実感体験サーバが、トランスポータの少なくとも1人の乗客に、会場内で発生する現実の事象と、仮想会場ジェネレータによって生成される仮想の事象との選択的組み合わせを含む、感覚の増強感を提供するように設定された、拡張現実感体験システムがある(特許文献1を参照)。
従来、撮像された画像に、情報表示用の対象(オブジェクト。以下、「タグ」とも称する)の画像を合成して表示する等の方法で、あたかも現実空間(現実世界、現実環境)に情報が付加されたかのようにユーザに認識させる、所謂AR(Augmented Reality、拡張現実)と称される技術がある。撮像された画像にタグを合成するAR技術では、例えば、現実空間との対応関係を有する(例えば、座標系が対応する)仮想空間をコンピュータ内に構築し、仮想空間内に配置された情報表示画像を現実のカメラの位置や向き等に基づいて描画し、描画された画像をカメラによって撮像された現実空間の画像に合成することにより、現実空間に情報が付加された画像を作成し、出力する。
AR技術において、現実空間の画像に重ねてタグを表示する際のタグの表示位置や姿勢等を決定するための基準としては、現実空間に配置されたマーカーや、現実空間におけるタグの位置を示す位置情報、等がある。また、タグを表示する位置を示すための情報として、GPS(Global Positioning System)や基地局情報、無線アクセスポイント情報等を用いて取得された位置情報を用いるAR技術も利用されている。
しかし、上記説明したように、従来のAR技術は、AR用のマーカーや位置情報を用いて現実空間において位置が固定されたタグを表示することによって、現実空間を拡張するものである。このため、AR技術の応用シーンは限定的であり、マーカー上にキャラクター等の表示対象を表示させて楽しむ、位置情報に従って表示対象を表示させることで位置が固定された情報を提供する、等の応用例が主であった。
本発明は、上記した問題に鑑み、位置情報に従って現実空間に付加されるように表示対象を表示するための技術の応用性を高めることを課題とする。
本発明では、上記課題を解決するために、以下の手段を採用した。即ち、本発明は、位置情報をもって現実空間に対して位置決めされ、該位置情報に従って現実空間に付加されるように表示される表示対象の情報を保持する表示対象情報データベースに接続され、前記表示対象の移動先位置を示す移動先位置情報を取得する移動先位置情報取得手段と、前記移動先位置情報をもって前記表示対象情報データベースに保持される前記位置情報を更新する位置情報更新手段と、を備え、前記移動先位置情報取得手段は、複数の前記移動先位置情報を順次取得する場合に、該複数の移動先位置情報が経路を描くように、前記移動先位置情報を取得する、情報処理装置である。
ここで、位置情報とは、現実空間における位置を示す情報である。位置情報は、例えば、GPS、基地局情報、無線アクセスポイント情報等を用いて取得することが出来る。また、表示対象とは、現実空間に付加されるように表示される対象(オブジェクト)であり、AR技術における所謂ARタグが含まれる。
本発明によれば、表示対象の移動先位置を示す移動先位置情報を取得し、取得された移動先位置情報をもって表示対象の位置情報を更新する情報処理装置において、順次取得される複数の移動先位置情報が経路を描く。このようにすることで、表示対象を表示する場合に、この表示対象があたかも現実空間を移動しているかのように表示することを可能とした。
また、前記情報処理装置は、前記表示対象が表示されるユーザ端末の現在位置を取得する現在位置取得手段を更に備え、前記移動先位置情報取得手段は、前記現在位置と、前記表示対象の位置情報との関係に従って、前記移動先位置情報を取得してもよい。
このようにすることで、ユーザ端末を保持するユーザと表示対象との位置関係に従って、表示対象を移動させることが出来る。
また、前記情報処理装置は、前記現在位置と、表示対象の位置情報との関係に従って、前記表示対象の移動モードを取得する移動モード取得手段を更に備え、前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との関係が、前記移動モードに応じた所定の関係となるように該移動先位置情報を取得してもよい。
移動モードに応じて表示対象の移動の態様を異なるものとすることで、位置情報に従って現実空間に付加されるように表示対象を表示するための技術の応用性を、更に高めることが出来る。
また、前記移動モードに応じた所定の関係には、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより短くなること、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより長くなること、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれること、の少なくとも何れかが含まれてもよい。
また、前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより短くなるように該移動先位置情報を取得してもよい。
このようにすることで、ユーザ端末を保持しているユーザを追いかけるように、表示対象を移動させることが出来る。
また、前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより長くなるように該移動先位置情報を取得してもよい。
このようにすることで、ユーザ端末を保持しているユーザから逃げるように、表示対象を移動させることが出来る。
また、前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれるように該移動先位置情報を取得してもよい。
このようにすることで、ユーザ端末を保持しているユーザに付いていくように、またはユーザ端末を保持しているユーザを先導するように、表示対象を移動させることが出来る。
また、前記移動先位置情報取得手段は、予め設定された経路に従って、前記移動先位置情報を取得してもよい。
予め設定された経路に従って移動先位置情報を取得することで、予め記録された移動記録の再生や、予め設定された経路の案内等を行うことが可能となる。
また、前記情報処理装置は、前記表示対象が表示されるユーザ端末の現在位置を取得する現在位置取得手段を更に備え、前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれるように該移動先位置情報を取得してもよい。
また、前記情報処理装置は、指定されたユーザの移動経路を示す移動経路情報を保持する移動経路情報データベースに更に接続され、前記移動先位置情報取得手段は、前記記録された移動経路情報に従って、前記移動先位置情報を取得してもよい。
また、本発明は、コンピュータによって実行される方法、またはコンピュータに実行させるプログラムとしても把握することが可能である。また、本発明は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものでもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
本発明によれば、位置情報に従って現実空間に付加されるように表示対象を表示するための技術の応用性を高めることが可能となる。
以下、本発明の実施の形態について、図面に基づいて説明する。以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明を実施するにあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
<システムの構成>
図1は、本実施形態におけるアプリケーションサーバが適用されたシステムの構成を示す図である。本実施形態におけるアプリケーションサーバ(以降、アプリサーバと表記する)2は、各ユーザが利用する携帯端末(以降、ユーザ端末と表記する)9A、9Bと、インターネット、移動体通信ネットワークのようなネットワーク1を介してそれぞれ接続される。アプリサーバ2は、各ユーザ端末9に対して、AR技術を用いたサービス(以下、「ARサービス」とも称する)を提供する。なお、各ユーザ端末9A、9Bは、移動端末であるため、無線通信によりネットワーク1に接続されればよく、本発明は、アプリサーバ2と各ユーザ端末9A、9Bとの通信接続手法を限定するものではない。なお、以下、ユーザ端末9A、9Bを区別しない場合には、総称して「ユーザ端末9」と記載する。
図1は、本実施形態におけるアプリケーションサーバが適用されたシステムの構成を示す図である。本実施形態におけるアプリケーションサーバ(以降、アプリサーバと表記する)2は、各ユーザが利用する携帯端末(以降、ユーザ端末と表記する)9A、9Bと、インターネット、移動体通信ネットワークのようなネットワーク1を介してそれぞれ接続される。アプリサーバ2は、各ユーザ端末9に対して、AR技術を用いたサービス(以下、「ARサービス」とも称する)を提供する。なお、各ユーザ端末9A、9Bは、移動端末であるため、無線通信によりネットワーク1に接続されればよく、本発明は、アプリサーバ2と各ユーザ端末9A、9Bとの通信接続手法を限定するものではない。なお、以下、ユーザ端末9A、9Bを区別しない場合には、総称して「ユーザ端末9」と記載する。
以下、アプリサーバ2およびユーザ端末9の各構成についてそれぞれ説明する。
ユーザ端末9は、携帯電話、ネットワークPC(Personal Computer)等のような携帯情報端末である。ユーザ端末9は、制御部、メモリ、無線通信部、撮像部、表示部、操作部等を有する。ユーザ端末9は、メモリに格納されるプログラム(ダウンロードされたプログラムも含む)が制御部で実行されることにより、各処理部と連携しながら、無線通信機能、ユーザ位置情報取得機能、カメラ機能、アプリサーバ2との間のインタフェース機能、ユーザインタフェース機能等を実現する。本発明は、上記各機能を実現する一般的な手段を有していればよく、各手段を限定するものではないため、上記各機能について簡単に説明する。
無線通信機能は、無線処理部、ベースバンド処理部などを含む無線通信部により実現され、最寄りの基地局を介してユーザ端末9をネットワーク1と無線接続させる。この機能により、ユーザ端末9は、アプリサーバ2と各種データをやりとりする。
ユーザ位置情報取得機能は、ユーザ端末9の現在位置の情報(例えば、緯度情報および
経度情報等を含む情報である。以下、「ユーザ位置情報」と称する。)を取得する機能である。ユーザ位置情報取得機能は、GPS(Global Positioning System)衛星からの電波をユーザ端末9に搭載されるGPSアンテナで受信することによりユーザ端末9の現在位置を取得してもよいし、最寄りの基地局からの信号に応じて当該現在位置を取得してもよい。また、ユーザ位置情報取得機能は、高度計等を用いることによりユーザ端末9の高さ情報を取得するようにしてもよいし、電子コンパス機能を用いることによりユーザ端末9が向いている方位情報を取得するようにしてもよい。このユーザ位置情報取得機能により取得されたユーザ位置情報は、任意のタイミングにより無線通信機能を介してアプリサーバ2へ随時送られる。
経度情報等を含む情報である。以下、「ユーザ位置情報」と称する。)を取得する機能である。ユーザ位置情報取得機能は、GPS(Global Positioning System)衛星からの電波をユーザ端末9に搭載されるGPSアンテナで受信することによりユーザ端末9の現在位置を取得してもよいし、最寄りの基地局からの信号に応じて当該現在位置を取得してもよい。また、ユーザ位置情報取得機能は、高度計等を用いることによりユーザ端末9の高さ情報を取得するようにしてもよいし、電子コンパス機能を用いることによりユーザ端末9が向いている方位情報を取得するようにしてもよい。このユーザ位置情報取得機能により取得されたユーザ位置情報は、任意のタイミングにより無線通信機能を介してアプリサーバ2へ随時送られる。
カメラ機能は、ユーザ端末9に搭載される撮像部(撮像素子等)により撮像された映像(画像)を取得する。その画像は、リアルタイムの現実空間が撮像されたものである。表示部は、液晶パネル等のような電子データ表示媒体である。ユーザインタフェース機能は、ユーザ端末9に搭載される、操作ボタンのような操作部からの入力を受け付ける。
アプリサーバ2との間のインタフェース機能は、無線通信機能により受信されたアプリサーバ2からのタグ情報に基づいてタグの画像を描画し、上記カメラ機能で取得された現実空間の画像と重畳させて表示部に表示させる。このような表示処理は、ARを用いたアプリケーションにより実行される一般的な処理であればよいため、ここでは詳細説明を省略する。また、このインタフェース機能は、ユーザインタフェース機能により取得されたユーザ操作内容に応じて、各種データをアプリサーバ2へ送信する。アプリサーバ2とユーザ端末9との間のインタフェースとしてはWEBシステムを利用する場合には、このインタフェース機能は例えばWEBブラウザ等により実現される。
図2は、本実施形態におけるアプリサーバ2の構成を示す概略図である。アプリサーバ2は、ハードウェア構成として、図2に示されるように、バス22で接続される、制御部25、記憶部23、通信部21等を有する。記憶部23は、例えばハードディスクであり、制御部25で実行される処理で利用される各種情報を記憶する。制御部25は、CPU(Central Processing Unit)等の1または複数のプロセッサ、このプロセッサの処理に利用される周辺回路(ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェース回路等)を有する。通信部21は、ネットワーク1に接続され、IP(Internet Protocol)パケット等の送受信を行う。アプリサーバ2は、PC等のような汎用コンピュータで構築されてもよいし、専用コンピュータで構築されるようにしてもよい。本発明は、アプリサーバ2のハードウェア構成を限定するものではない。
アプリサーバ2は、記憶部23に記憶されるアプリケーションプログラムが制御部25により実行されることにより、図2に示す各処理部を実現する。このような処理部として、アプリサーバ2は、現在位置取得部31、端末インタフェース部(以降、端末IF部と表記する)32、関係情報算出部33、移動モード取得部34、移動先位置情報取得部35、位置情報更新部36、等を有する。これら処理部により参照されるデータベースとして、記憶部23には、ユーザ情報テーブル37、タグ情報テーブル(表示対象情報データベース)38等が格納される。以下、これらアプリサーバ2の各処理部についてそれぞれ説明する。
現在位置取得部31は、各ユーザ端末9から送られる、ユーザ端末9の現在位置を示すユーザ位置情報、およびユーザIDを受信し、この受信されたユーザ位置情報をユーザ情報テーブル37のそのユーザIDで特定されるレコードに格納する。ここで、ユーザIDとは、ユーザ端末9を操作するユーザを特定するための識別子であってもよいし、ユーザ端末9を特定するための識別子であってもよい。また、ユーザIDが、ユーザを特定する
ための識別子である場合、同一のユーザが、異なるユーザ端末9において共通の識別子を使用可能であることが好ましい。また、ユーザIDが、ユーザ端末9を特定するための識別子である場合、同一のユーザによって異なるユーザ端末9が使用される際に、ユーザ端末9毎に異なる識別子が互いに関連付けられることが好ましい。
ための識別子である場合、同一のユーザが、異なるユーザ端末9において共通の識別子を使用可能であることが好ましい。また、ユーザIDが、ユーザ端末9を特定するための識別子である場合、同一のユーザによって異なるユーザ端末9が使用される際に、ユーザ端末9毎に異なる識別子が互いに関連付けられることが好ましい。
図3は、本実施形態に係るユーザ情報テーブル37の例を示す図である。ユーザ情報テーブル37は、各ユーザ端末9について、ユーザID、ユーザ位置情報、選択中タグID、選択中タグとそのユーザ端末9との距離(図3に示す距離フィールド)をそれぞれ格納する。
現在位置取得部31は、受信されたユーザ位置情報をユーザ情報テーブル37のユーザ位置情報フィールドに格納する。ユーザ位置情報に高さ情報や方位情報が含まれている場合には、このユーザ情報テーブル37にそれらを格納するフィールドが付加されればよい。
選択中タグIDフィールドには、そのユーザ端末9に関連付けられているARタグ(表示対象)を特定するためのIDが格納される。ここでARタグとは、ユーザ端末9の表示部において現実空間の画像と共に描画されているアプリサーバ2により生成された電子情報であり、例えばARサービス内の登場物である。以降、このARタグを単にタグとも表記する。距離フィールドには、選択中タグとそのユーザ端末9との距離が格納される。
端末IF部32は、アプリサーバ2にアクセスする各ユーザ端末9とのインタフェースとして機能する。例えば、このインタフェースとしてWEBシステムが利用される場合には、端末IF部32はWEBサーバとして機能する。端末IF部32は、アクセスしてきたユーザ端末9に対して認証処理等を実行し、正当性が認められたユーザ端末9に対してARサービスを提供する。
端末IF部32は、ユーザ端末9に対してARサービスのための画面データを提供する。この画面データには、例えば、ARサービスの名称、ユーザの名称、得点などの情報が含まれる。また、端末IF部32は、上述したタグを管理する。本実施形態ではARサービスが対象となっているため、端末IF部32は、当該タグとして、ARサービス内の登場物を管理する。
端末IF部32は、任意のタイミングで、ARサービス内の登場物として、或るタグを生成する。具体的には、端末IF部32は、このタグを特定するためのタグIDを新たに生成し、そのタグの名称を決め、現実空間におけるそのタグの位置を決める。このタグ位置情報としては、現実空間の緯度、経度、高さの各情報が利用される。
図4は、本実施形態に係るタグ情報テーブル38の例を示す図である。タグ情報テーブル38は、タグ位置情報をもって現実空間に対して位置決めされ、タグ位置情報に従って現実空間に付加されるように表示されるタグの情報を保持する。タグ情報テーブル38には、各タグに関し、タグID、タグ名、タグ位置情報、高さ、がそれぞれ格納される。端末IF部32は、上述のように決められたタグに関する情報をこのタグ情報テーブル38に格納する。
端末IF部32は、ユーザ情報テーブル37に格納される各ユーザ端末9のユーザ位置情報とタグ情報テーブル38に格納される各タグのタグ位置情報とに応じて、ユーザ端末9の現在位置から所定範囲内の位置に存在するものとして決められているタグを特定し、このタグに関するデータをそのユーザ端末9へ送信する。タグに関するデータとしては、タグの画像データ、タグID、タグ名、タグ位置情報、等が含まれる。なお、タグの画像
データは、2次元の画像データであってもよいし、3次元のオブジェクトを描画するためのデータであってもよい。3次元のデータを用いた場合、タグに対してユーザ端末9を向ける方向によって、タグを異なる角度から表示させることが出来る。このようなタグに関するデータを受信したユーザ端末9では、カメラ機能により取得された現実空間の画像上の、このタグ位置情報に応じた位置にそのタグの画像が表示される。
データは、2次元の画像データであってもよいし、3次元のオブジェクトを描画するためのデータであってもよい。3次元のデータを用いた場合、タグに対してユーザ端末9を向ける方向によって、タグを異なる角度から表示させることが出来る。このようなタグに関するデータを受信したユーザ端末9では、カメラ機能により取得された現実空間の画像上の、このタグ位置情報に応じた位置にそのタグの画像が表示される。
端末IF部32は、各ユーザ端末9におけるユーザ操作に応じて各ユーザ端末9から送られる各種データを受け付ける。
移動モード取得部34は、現在位置と、タグの位置情報との関係に従って、タグの移動モードを取得する。移動モードは、タグ位置情報を更新することでタグを移動させる際の移動の方式を示すものであり、本実施形態では、後述する条件リストを参照することで取得される。但し、移動モードの取得方法は、本実施形態に示す例に限定されない。
関係情報算出部33は、端末IF部32からユーザIDおよびタグIDを受けると、そのタグIDで示されるタグの位置を取得し、ユーザIDで示されるユーザ端末9とそのタグとの距離を算出する。具体的には、関係情報算出部33は、ユーザ情報テーブル37から、端末IF部32から送られたユーザIDが設定されているレコードを抽出し、このレコードの選択中タグIDフィールドに、端末IF部32から送られたタグIDを格納する。加えて、関係情報算出部33は、その抽出されたレコードにおけるユーザ位置情報フィールドに格納されるユーザ位置情報(緯度情報および経度情報)を取得する。
関係情報算出部33は、タグ情報テーブル38から、端末IF部32から送られたタグIDが設定されているレコードを抽出し、このレコードのタグ位置情報フィールドに格納される緯度情報、経度情報および高さ情報を取得する。関係情報算出部33は、タグ情報テーブル38から取得されたタグ位置情報および高さ情報と、ユーザ情報テーブル37から送られたユーザ位置情報と、に基づいて、選択中のタグとユーザ端末9との距離を算出する。このとき、ユーザ端末9の高さは例えばゼロに設定される。関係情報算出部33は、このようにして得られた距離を、ユーザ情報テーブル37におけるそのユーザIDで特定されるレコードの距離フィールドに格納する。
移動先位置情報取得部35は、タグの移動先位置を示す移動先位置情報を、順次取得される複数の移動先位置情報が経路を描くように、取得する。また、移動先位置情報取得部35は、取得される移動先位置情報が示す移動先位置と、ユーザ位置情報が示すユーザの現在位置との関係が、移動モードに応じた所定の関係となるように、移動先位置情報を取得する。
移動モードに応じた所定の関係には、移動先位置と現在位置との距離が、タグ位置情報が示す位置と現在位置との距離に比べてより短くなること、移動先位置と現在位置との距離が、タグ位置情報が示す位置と現在位置との距離に比べてより長くなること、移動先位置と現在位置との距離が所定の範囲内に保たれること、等がある。また、移動先位置情報取得部35は、予め設定された経路に従って、移動先位置情報を取得することも出来る。
位置情報更新部36は、移動先位置情報をもってタグ情報テーブル38に保持されるタグ位置情報を更新する。
<アプリサーバによって提供されるサービス>
以下、本実施形態に係るアプリサーバ2によって提供されるサービスの、具体的な処理の内容について説明する。本実施形態に係るアプリサーバ2は、タグが移動するAR技術を用いて、例えば、ゲームサービス、広告サービス、旅行ナビゲーションサービス、移動
経路再生サービス、等のサービスを提供することが出来る。但し、本実施形態に係るアプリサーバ2によって提供可能なサービスは、本実施形態において例示する具体的なサービスに限定されない。アプリサーバ2は、タグが移動するAR技術を用いた、様々なサービスを提供することが可能である。
以下、本実施形態に係るアプリサーバ2によって提供されるサービスの、具体的な処理の内容について説明する。本実施形態に係るアプリサーバ2は、タグが移動するAR技術を用いて、例えば、ゲームサービス、広告サービス、旅行ナビゲーションサービス、移動
経路再生サービス、等のサービスを提供することが出来る。但し、本実施形態に係るアプリサーバ2によって提供可能なサービスは、本実施形態において例示する具体的なサービスに限定されない。アプリサーバ2は、タグが移動するAR技術を用いた、様々なサービスを提供することが可能である。
なお、本実施形態に係るフローチャート等に示された処理の具体的な内容および処理順序は、本発明を実施するための一例である。具体的な処理内容および処理順序は、本発明の実施の形態に応じて適宜選択されてよい。
[ゲームサービス]
以下、本実施形態に係るアプリサーバ2によって、ゲームサービスが提供される場合の処理について説明する。
以下、本実施形態に係るアプリサーバ2によって、ゲームサービスが提供される場合の処理について説明する。
(サービスの概要)
本実施形態に係るゲームサービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、ゲームにおけるキャラクターやアイテム、情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係るゲームサービスによれば、ゲームにおけるキャラクターやアイテム等があたかも現実空間に存在するかのようにユーザに認識させるゲームを提供することが出来る。
本実施形態に係るゲームサービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、ゲームにおけるキャラクターやアイテム、情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係るゲームサービスによれば、ゲームにおけるキャラクターやアイテム等があたかも現実空間に存在するかのようにユーザに認識させるゲームを提供することが出来る。
より具体的には、本実施形態に係るゲームサービスは、現実空間における位置を示すタグ位置情報を用いて配置され、撮像画像内の対応位置に合成されるゲーム内のキャラクターであるモンスターのタグ(以下、「モンスタータグ」と称する)を、ユーザがユーザ端末9を用いて現実空間を撮像することで探し出し、発見されたモンスターを狩るゲームを提供するサービスである。
図5Aおよび図5Bは、本実施形態に係るゲームサービスにおいて、タグ位置情報を有するモンスタータグが、ユーザによって発見されてから街中を移動する様子を示す図である。図5Aに示された例において、モンスタータグは、タグ位置情報が示す位置の近傍(例えば、該位置を中心とする所定範囲内)にユーザ端末9Aが入ると、ユーザAに関連付けられ、ユーザAを追いかけるように移動する。そして、モンスタータグは、ユーザAの攻撃操作に基づいてゲーム内で攻撃(モンスタータグに関連付けられた体力値を減少させる処理)された結果、一定以上のダメージを受ける(体力値の減少幅が一定以上となる)と、移動を停止する。以下、ユーザAのユーザ端末9をユーザ端末9A、ユーザBのユーザ端末9をユーザ端末9Bと称する。
その後、図5Bに示された例において、モンスタータグは、ユーザB(ユーザAとは異なるユーザ)によって発見されると、ユーザBに関連付けられ、ユーザBを追いかけるように移動する。最後に、ゲーム内におけるユーザBの攻撃によって、モンスタータグに関連付けられた体力値がゼロになると、モンスタータグは削除され、ユーザBには、ゲーム内のポイント(経験値等)が加算される。本実施形態に係るゲームは、このようにして、タグ位置情報を用いて配置されたモンスタータグを、ユーザ端末9を用いて探し出し、狩ることでポイントを貯めていくゲームである。
図6は、本実施形態に係るゲームサービス全体の流れを示すフローチャートである。以下の具体例では、アプリサーバ2がユーザの利用する携帯端末にゲームサービスを提供する場合を例に挙げるが、本発明は本アプリサーバ2が提供する対象をゲームに限定するものではない。提供される対象は、現実空間に電子情報を付加提示するサービスであれば、ゲーム性がなくともよい。
初めに、モンスタータグの生成および初期設定が行われる。アプリサーバ2は、モンスタータグを生成し、タグ情報テーブル38に追加する。この際、アプリサーバ2は、生成されたモンスタータグの位置を示すタグ位置情報をタグ情報テーブル38に記録することで、モンスタータグを、現実空間の位置に関連付ける(ステップS101)。そして、アプリサーバ2は、モンスタータグを、モンスタータグの移動モードを決定するための条件リスト(詳細は後述する)に関連付け、また、ゲーム内におけるユーザのアクションに対応するモンスタータグの反応(アクションに対応する処理)の内容を設定する(ステップS102)。
次に、モンスタータグがユーザによって発見され、発見したユーザに対してゲームサービスが提供される。ユーザ端末9には、予めサービス提供者によって配布されたゲームサービス用アプリケーションがインストールされている。ユーザは、ゲームサービス用アプリケーションを起動させ、ユーザ端末9を用いて街中を撮像し、撮像された画像にモンスタータグの画像を合成することで、モンスタータグをユーザ端末9のディスプレイに表示する(ステップS103)。
具体的には、ユーザ端末9は、GPS等を用いて現在のユーザ位置情報を取得し、得られたユーザ位置情報をアプリサーバ2に送信する。アプリサーバ2は、ユーザ端末9からユーザ位置情報を受信すると、受信されたユーザ位置情報をもとに、ユーザの近辺に配置されたモンスタータグを抽出し、抽出されたモンスタータグの情報(位置情報、タグ表示用の画像情報、体力値等を含むゲーム用のパラメータ)を、ユーザ端末9に対して送信する。また、ユーザ端末9は、ユーザ位置情報の取得に併せて、内蔵コンパス等を用いて現在の撮像方向を取得する。モンスタータグの情報を受信したユーザ端末9は、モンスタータグの情報、取得したユーザ位置情報、撮像方向に基づいて、撮像画像にモンスタータグを合成する際の位置、サイズ、姿勢を算出してモンスタータグの画像を描画し、撮像画像に合成する。撮像画像に対するタグ画像の合成は、一般的なAR技術を用いて行うことが可能であるため、詳細な説明については省略する。
なお、ここでユーザ位置情報を取得するための手段は、GPSに限定されない。例えば、基地局情報、無線アクセスポイント情報等を用いる方法によっても、ユーザ位置情報を取得することが可能である。また、撮像方向の取得には、内蔵コンパスによる検出以外の方法が用いられてもよい。例えば、ユーザ端末9は、ジャイロセンサや加速度センサから取得された測定結果に基づく計算によって、ユーザ位置情報または撮像方向を取得してもよい。
図7は、本実施形態に係るゲームサービスにおいて、ユーザ端末9に出力される画面イメージおよびその遷移の例を示す図である。ユーザ端末9のディスプレイには、撮像画像にタグが合成された画像(以下、「AR画像」とも称する)が出力される。ユーザは、このようなAR画像を視認することで、あたかも現実空間にモンスターが存在しているかのような印象を持つ。
ユーザ端末9からユーザ位置情報を受信したアプリサーバ2は、ユーザ端末9からユーザ位置情報および撮像方向を受信すると(ステップS104)、受信されたユーザ位置情報および撮像方向に応じて、モンスタータグによるユーザに対するアクションを決定し、ユーザ端末9に対して送信する(ステップS105)。そして、ユーザ端末9は、アプリサーバ2から送信されたアクションを実行することで、ゲームを進行させる(ステップS106)。
また、ユーザ端末9は、ユーザ操作によって選択されたアクションに従って、モンスタ
ータグへのアクションを実行する(ステップS106)。ここで、ユーザがモンスタータグに対して可能なアクションとは、「戦う」、「防御」、「仲間を探す」、「逃げる」、「アイテム」等である。ユーザが選択可能なアクションは、ユーザ端末9のディスプレイに、合成画像と併せて出力される(図7を参照)。アクションの実行結果は、ユーザ端末9からアプリサーバ2に対して送信され、アプリサーバ2は、ユーザから送信されたアクションの実行結果に応じて、モンスタータグに関連する情報(例えば、体力値等)を更新する(図示は省略する)。なお、本実施形態に係るゲームでは、モンスタータグは移動するため、「逃げる」を選択した場合、ユーザに対して近付くように移動するモンスタータグから逃げるために、ユーザ端末9を携帯するユーザも、モンスタータグから遠ざかるように移動する(現実空間において実際に逃げる)必要がある。
ータグへのアクションを実行する(ステップS106)。ここで、ユーザがモンスタータグに対して可能なアクションとは、「戦う」、「防御」、「仲間を探す」、「逃げる」、「アイテム」等である。ユーザが選択可能なアクションは、ユーザ端末9のディスプレイに、合成画像と併せて出力される(図7を参照)。アクションの実行結果は、ユーザ端末9からアプリサーバ2に対して送信され、アプリサーバ2は、ユーザから送信されたアクションの実行結果に応じて、モンスタータグに関連する情報(例えば、体力値等)を更新する(図示は省略する)。なお、本実施形態に係るゲームでは、モンスタータグは移動するため、「逃げる」を選択した場合、ユーザに対して近付くように移動するモンスタータグから逃げるために、ユーザ端末9を携帯するユーザも、モンスタータグから遠ざかるように移動する(現実空間において実際に逃げる)必要がある。
ここで、ユーザ端末9は、「他のユーザを巻き込んだアクション」を行った場合、このようなアクションの内容を、アプリサーバ2に対して送信する(ステップS107)。ここでいう「他のユーザを巻き込んだアクション」とは、例えば、複数のユーザで同時にモンスタータグに攻撃をする等の、ゲームにおける協力プレイ等である。ユーザは、「仲間を探す」アクションを選択し、未だモンスタータグを発見していない他のユーザにモンスタータグの存在を通知することによって、協力プレイを行う他のユーザを探すことが可能である(図6を参照)。アプリサーバ2は、ユーザAが指定したユーザ、またはアプリサーバ2においてマッチングしたユーザ(本実施形態では、ユーザB)のユーザ端末9Bに対して、ユーザAのユーザ端末9から送信されたアクションの内容を送信する(ステップS108)。また、ユーザAの「仲間を探す」アクションによってモンスタータグの存在が通知されたユーザ端末Bは、ユーザBに対して、モンスタータグへのナビゲーション(方向および距離等)を表示する。なお、協力プレイのためのマッチングは、ユーザ同士のユーザ位置情報等に基づいて行うことができる。
ユーザ端末9Bは、アプリサーバ2を介して、ユーザAから送られたアクションの内容を受信する(ステップS109)。ユーザ端末9Bは、アクションの内容を受信すると、受信されたアクションの内容に応じた出力を行い、ユーザBに対して、ユーザAのアクションに協力してモンスタータグへの攻撃を行うか否かを問合せる(ステップS110)。ユーザ端末9Bのディスプレイには、ユーザAのアクションに協力してモンスタータグへの攻撃を行うか否かを選択するためのアクション「協力」および「無視」が、選択肢として表示される(図7を参照)。問合せの結果、ユーザBが、ユーザAのアクションに協力しないこと(即ち、「無視」)を選択した場合、ユーザ端末9Bは、ユーザ端末9Aとのセッションを切断する(ステップS113)。これに対して、ユーザBが、ユーザAのアクションに協力してモンスタータグへの攻撃を行うこと(即ち、「協力」)を選択した場合、ユーザ端末9Bは、アプリサーバ2に対して、ユーザAのアクションに協力してモンスタータグへの攻撃を行うことを通知する。
ユーザ端末9Bからの協力通知を受けたアプリサーバ2は、ユーザBがユーザAのアクションに協力していることに応じた独自処理を実行する(ステップS111)。ここでいう独自処理とは、協力プレイや、コマンドの変更等である。協力プレイとは、例えば、ユーザBがアクション「協力」を選択した結果実行される、ユーザBによるモンスタータグへの攻撃等である。また、コマンドの変更とは、ユーザ端末Bに表示されていた「戦う」コマンドが、ユーザAに協力してモンスタータグへの攻撃を行うことを示す「協力」コマンドに変更されること等である。但し、「協力」コマンドの選択の結果実行される処理は、実際にはユーザBによるモンスタータグへの攻撃処理であるため、ユーザBにとっては、「戦う」コマンドと同様の意味を有する。即ち、「協力」コマンドは、他のユーザからの招待を受けて、当該他のユーザに先に関連付けられたモンスタータグに対して攻撃するために、「戦う」コマンドの表示が変化したものである。アプリサーバ2は、ユーザBがゲームに参加することをユーザ端末9Aに通知し、これに伴って、協力プレイにおいて実
行可能となるコマンド(ゲームにおける選択肢)を、ユーザ端末9Aに送信する(ステップS112)。
行可能となるコマンド(ゲームにおける選択肢)を、ユーザ端末9Aに送信する(ステップS112)。
協力プレイが成立した場合、以降、ユーザ端末9Aまたはユーザ端末9Bにおいて選択されたアクションの内容は、何れもアプリサーバ2に対して送信される(ステップS114およびステップS115)。アプリサーバ2は、ユーザ端末9Aから送信されたアクションの内容、およびユーザ端末9Bから送信されたアクションの内容を受信すると、受信されたアクションの内容に応じた処理を実行し(ステップS116)、実行結果を、ユーザ端末9Aおよびユーザ端末9Bの両方に送信する(ステップS117)。即ち、協力プレイ中、ユーザ端末9Aにおいて選択されたアクションの内容とその実行結果、およびユーザ端末9Bにおいて選択されたアクションの内容とその実行結果は、ユーザ端末9Aおよびユーザ端末9Bの間で、アプリサーバ2を介して共有される。その後、ユーザAおよびユーザBは、ゲームが終了するか、またはセッション切断のアクションが選択されるまで、アプリサーバ2を介して、協力プレイのアクションを繰り返す(ステップS118)。なお、ゲームは、モンスタータグに関連付けられた体力値がゼロになった等の理由で、モンスタータグが削除された場合等に終了する。
(処理の流れ)
図8は、本実施形態に係るゲームサービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図6を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
図8は、本実施形態に係るゲームサービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図6を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
ステップS201では、タグが生成される。端末IF部32は、タグ移動処理において移動の対象となるタグを生成する。端末IF部32は、タグを生成し、タグ情報テーブル38に追加する。この際、端末IF部32は、生成されたタグの位置を示すタグ位置情報をタグ情報テーブル38に記録することで、タグを、現実空間の位置に関連付ける。そして、端末IF部32は、タグを条件リストに関連付ける。即ち、ステップS201の処理は、ゲームサービス全体におけるステップS101およびステップS102の処理に相当する。その後、処理はステップS202へ進む。なお、タグ情報テーブル38によって管理されるタグがゲームサービスに係るタグである場合には、タグ情報テーブル38には、各タグに関し、更に体力値、およびユーザアクションに対する防御値が格納される。体力値フィールドの値は、ユーザアクションが適用されることにより変更される。
ステップS202では、ユーザとタグとが関連付けられる。現在位置取得部31は、ステップS201において生成されたタグを、当該タグのタグ位置情報が示す位置の近傍に居るユーザに関連付ける。具体的には、現在位置取得部31は、ユーザ端末9から受信されたユーザ端末9の位置情報(ユーザ位置情報)を参照し、タグ位置情報が示す位置が、このユーザ位置情報が示す位置から所定の距離の範囲内にあるタグを、タグ情報テーブル38から抽出する。そして、現在位置取得部31は、当該ユーザのユーザ情報の選択中タグIDフィールドに当該タグのタグIDを格納することで、ユーザ位置情報に係るユーザと、抽出されたタグと、を関連付ける。即ち、ステップS202の処理は、ゲームサービス全体におけるステップS104においてユーザ端末9から位置情報を受信した後にアプリサーバ2によって実行される処理に相当する。その後、処理はステップS203へ進む。
ステップS203では、タグの移動モードが取得される。移動モード取得部34は、ステップS201において予めタグに関連付けられた条件リストを参照し、条件リストから、現在のタグの状態またはその他の状態に合致する条件を特定する。
図9は、本実施形態において用いられる条件リストの構成を示す図である。例えば、本
実施形態に係るゲームサービスでは、条件リストは、ARタグに関連付けられる。そして、条件リストには、条件と、条件に対応するタグの移動モードとが含まれる。図9に示す例によれば、条件「タグに関連付けられた体力値が所定の閾値未満である」に対応する移動モードは「移動しない」であり、条件「タグに関連付けられた体力値が所定の閾値以上である」に対応する移動モードは「ユーザに近付く(ユーザを追う)」であり、条件「ユーザの攻撃によって受けたダメージ(体力値の減り幅)が所定の閾値以上である」に対応する移動モードは「ユーザから離れる(ユーザから逃げる)」である。
実施形態に係るゲームサービスでは、条件リストは、ARタグに関連付けられる。そして、条件リストには、条件と、条件に対応するタグの移動モードとが含まれる。図9に示す例によれば、条件「タグに関連付けられた体力値が所定の閾値未満である」に対応する移動モードは「移動しない」であり、条件「タグに関連付けられた体力値が所定の閾値以上である」に対応する移動モードは「ユーザに近付く(ユーザを追う)」であり、条件「ユーザの攻撃によって受けたダメージ(体力値の減り幅)が所定の閾値以上である」に対応する移動モードは「ユーザから離れる(ユーザから逃げる)」である。
なお、図9に示した例では、条件として、現在のタグの状態(タグ情報の内容)が参照されるが、条件には、その他の状態が参照されてもよい。例えば、タグの位置情報が示す位置におけるユーザ情報や現在の天気等が条件として参照されてもよい。このようにすることで、実施の形態毎に様々な条件に応じて、タグの移動モードを変化させることが出来る。また、本実施形態において示される条件および移動モードは一例であり、条件および移動モードには、本実施形態において例示されたもの以外のものが設定されてもよい。
移動モード取得部34は、条件リストから、現在のタグの状態等に合致する条件を特定すると、対応する移動モードを取得する。その後、処理はステップS204へ進む。
ステップS204では、移動モードおよび位置関係に従って、タグの移動先の位置情報が算出される。ここで、位置関係とは、タグとユーザとの位置関係である。タグとユーザとの位置関係は、タグ情報テーブル38から取得されるタグの現在の位置情報と、ユーザ端末9から受信されるユーザ位置情報と、を用いて、関係情報算出部33によって算出される。本フローチャートでは、位置関係としてタグとユーザとの間の距離が算出され、この距離を参照してタグの移動先位置情報が算出される。但し、ここで算出される位置関係は、タグとユーザとの間の距離に限定されない。位置関係として算出される情報は、例えば、ユーザ端末9から見た場合のタグの方位、ユーザの進行方向に対するタグの位置、タグの移動方向に対するユーザの位置、等であってもよい。
移動先位置情報取得部35は、ステップS203において取得された移動モード、および関係情報算出部33によって算出されたタグとユーザとの位置関係に従って、タグの移動先位置情報を算出する。例えば、移動モードが「ユーザに近付く(ユーザを追う)」であった場合、移動先位置情報取得部35は、タグとユーザとの間の距離が現在よりも短くなるような、タグの移動先位置情報を算出する。一方、移動モードが「ユーザから離れる(ユーザから逃げる)」であった場合、移動先位置情報取得部35は、タグとユーザとの間の距離が現在よりも長くなるような、タグの移動先位置情報を算出する。但し、移動モードが「移動しない」であった場合、移動先位置情報取得部35は、タグの移動先位置情報を算出しない。
また、移動先位置情報取得部35は、移動先位置情報を算出する場合に、更に地図情報を参照し、移動先を算出してもよい。即ち、移動先位置情報取得部35は、地図情報を参照することで、タグの移動先から建物を除外したり、タグの移動先を道路上に限定したりすることが出来る。また、移動先位置情報取得部35は、地図情報に含まれる道路幅情報を参照し、所定の幅以上の道路にのみタグが移動するようにしてもよい。このようにすることで、サービス内の設定上道路幅を超えるサイズを有するARタグが、当該サイズでは入れない道路に移動してしまうことを防止することが出来る。その後、処理はステップS205へ進む。
ステップS205では、タグの位置情報が更新される。位置情報更新部36は、ステップS204において算出されたタグの移動先位置情報を用いて、タグ情報テーブル38に保持されている、該当タグの位置情報を更新する。このようにしてタグ位置情報が更新さ
れることによって、このタグ位置情報を随時受信してタグを表示するユーザ端末9は、タグが現実空間を移動しているかのように見えるAR画像を合成し、ディスプレイに表示することが出来る。但し、移動モードが「移動しない」であった場合、位置情報更新部36は、タグ位置情報を更新しない。その後、処理はステップS206へ進む。
れることによって、このタグ位置情報を随時受信してタグを表示するユーザ端末9は、タグが現実空間を移動しているかのように見えるAR画像を合成し、ディスプレイに表示することが出来る。但し、移動モードが「移動しない」であった場合、位置情報更新部36は、タグ位置情報を更新しない。その後、処理はステップS206へ進む。
ステップS206では、タグが削除されたか否かが判定される。制御部は、ステップS201において生成されたタグが削除されたか否かを判定する。本実施形態に係る処理では、タグはゲームのキャラクターであるため、タグの移動処理とは関係なく、ゲーム処理の進行状況に応じて削除される。例えば、タグは、ゲーム処理の進行中、タグに関連付けられた体力値がゼロになった場合に削除される。タグが削除されたと判定された場合、本フローチャートに示された処理は終了する。これに対して、タグが削除されていないと判定された場合、処理はステップS203へ進む。即ち、本フローチャートに示された処理においては、タグが削除されるまでステップS203からステップS206に示された処理が繰り返されることで、タグ位置情報が継続的に更新される。なお、タグの削除は、タグ情報テーブル38から消去することによって行われてもよいし、タグ情報内に設けられた削除を示すフラグ(図示は省略する)を用いて行われてもよい。
[広告サービス]
以下、本実施形態に係るアプリサーバ2によって、広告サービスが提供される場合の処理について説明する。
以下、本実施形態に係るアプリサーバ2によって、広告サービスが提供される場合の処理について説明する。
(サービスの概要)
本実施形態に係る広告サービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、広告に係るキャラクターや情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る広告サービスによれば、広告に係るキャラクターや情報等と、現実空間における店舗、商品およびサービス等と、を強く結びつけてユーザに認識させることが出来る。
本実施形態に係る広告サービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、広告に係るキャラクターや情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る広告サービスによれば、広告に係るキャラクターや情報等と、現実空間における店舗、商品およびサービス等と、を強く結びつけてユーザに認識させることが出来る。
図10は、本実施形態に係る広告サービス全体の流れを示すフローチャートである。広告サービスにおいて、ユーザ端末9は、ユーザが所定の場所(駅やランドマーク等)に到着したと判断すると、ARタグを表示する。ユーザが所定の場所に到着したと判断するための方法としては、(1)カメラ機能によって所定の標識(マーカー)が検知されたこと、(2)ユーザ位置情報に基づいて、ユーザが所定の場所に到着したと判断されたこと、(3)外部端末からの信号を受信したこと、等が採用され得る。アプリサーバ2は、上記(1)から(3)の何れの方法が採用されているかを判定する(ステップS301)。
(1)カメラ機能によって所定の標識が検知されたことによってユーザが所定の場所に到着したと判断され、ARタグ表示の契機とされる場合(ステップS302)、アプリサーバ2は、ユーザ端末9において所定の標識を検知させるための情報(例えば、所定の標識の画像情報)を、予めユーザ端末9に対して送信しておく(ステップS303)。そして、ユーザ端末9は、予めインストールされているARサービス用アプリケーションを立ち上げ、画像認識技術を用いて撮像画像から所定の標識を検知し、ARタグ表示の契機とすることが出来る。
(2)ユーザ位置情報に基づいて、ユーザが所定の場所に到着したと判断され、ARタグ表示の契機とされる場合(ステップS304)、アプリサーバ2は、ARタグが表示される場所のタグ位置情報を、予めユーザ端末9に対して送信しておく(ステップS305)。そして、ユーザ端末9は、バックグラウンドで起動しているオートGPS機能によって取得されたユーザ位置情報と、アプリサーバ2から受信したARタグが表示される場所
のタグ位置情報と、を随時比較し、ユーザ位置情報が示す位置が、ARタグが表示される場所のタグ位置情報が示す位置を基準とする所定の範囲内であるか否かを判定することによって、所定の位置の近辺に到着したことを検知し、ARタグ表示の契機とすることが出来る。
のタグ位置情報と、を随時比較し、ユーザ位置情報が示す位置が、ARタグが表示される場所のタグ位置情報が示す位置を基準とする所定の範囲内であるか否かを判定することによって、所定の位置の近辺に到着したことを検知し、ARタグ表示の契機とすることが出来る。
(3)外部端末からの信号を受信したことによって、ユーザが所定の場所に到着したと判断され、ARタグ表示の契機とされる場合(ステップS306)、アプリサーバ2は、ARアプリと連動する特定の外部端末の識別子(例えば、改札機番号)等を、予めユーザ端末9に対して送信しておく(ステップS307)。そして、ユーザ端末9は、ICカードによる通信機能を有効にしておくことで、駅の改札機等の外部端末からの信号を自動的に受信し、特定の識別子を受信すると、ARアプリを起動し、ARタグ表示の契機とすることが出来る。
次に、アプリサーバ2は、広告主がターゲットユーザ(広告を配信したいユーザ。)を決めているか否かを判定する(ステップS308)。ターゲットユーザが決められていない場合、ユーザ端末9は、所定のキャラクターのARタグを表示する(ステップS309)。このARタグは、近傍に居る他のユーザの数に拘らず、1つのみ生成される(ステップS310)。このため、複数のユーザ端末9は、共通のARタグを夫々個別に描画し、夫々のディスプレイに表示する。即ち、互いに近傍に居る複数のユーザは、夫々のユーザ端末9を介して、1つのARタグを見ることとなる。
ターゲットユーザが決められている場合、アプリサーバ2またはユーザ端末9は、ARアプリを起動しているユーザがターゲットユーザであるか否かを判定する(ステップS311)。ユーザがターゲットユーザであるか否かは、個々のユーザ毎に決定され、ユーザID等を用いて管理されてもよいし、性別、年収、年齢等のユーザ属性に基づいて決定されてもよい。そして、ユーザがターゲットユーザであると判定された場合、ターゲットユーザのユーザ端末9は、所定のキャラクターのARタグを表示する(ステップS312)。一方、ユーザがターゲットユーザではないと判定された場合、ターゲットユーザでないユーザのユーザ端末9は、ARタグを表示しない(ステップS313)。
また、ARタグは、ターゲットユーザに対してのみ表示される場合にも、近傍に居る他のユーザの数に拘らず、1つのみ生成される(ステップS314およびステップS315)。このため、複数のユーザ端末9は、共通のARタグを夫々個別に描画し、夫々のディスプレイに表示する。即ち、互いに近傍に居る複数のターゲットユーザは、夫々のユーザ端末9を介して、1つのARタグを見ることとなる。
ユーザ端末9AがARタグを発見すると、ユーザ端末9Aは、アプリサーバ2へARタグをユーザAが初めに発見したことを通知する。そして、ユーザAの端末にはARタグによってキャラクターが映し出される。また、ここで表示されるARタグは、アプリサーバ2によってタグ位置情報が更新されることで、ユーザを店舗に誘導するように移動する(ステップS316)。この際、ARタグの移動は、店舗までの経路上を、ユーザを先導するように移動する。
ここで、ユーザ端末9Bがすでに動いているARタグを発見すると、ユーザ端末9Bは、アプリサーバ2に対して、ユーザAが動かしたARタグをユーザBも発見したことを通知する。また、アプリサーバ2は、ユーザ端末9Bにも、動いているARタグ(ユーザ端末9Aにおいて表示されているARタグと同一のタグ)を表示させる。このため、ユーザ端末9Bを携帯するユーザBは、ユーザ端末9Aを携帯するユーザAと一緒になって、移動するARタグを追いかけることとなる(ステップS310、ステップS314およびステップS315)。なお、動くARタグを追いかけたいユーザに対しては、メールや待ち
受けアプリの通信機能等を介して、動くARタグの場所を通知することとしてもよい。また、SNS(Social Networking Service)の所謂check
in機能のような、Webサーバ上に現在位置情報をアップロードする機能を用いて、動くARタグの現在位置をユーザに知らせることとしてもよい。
受けアプリの通信機能等を介して、動くARタグの場所を通知することとしてもよい。また、SNS(Social Networking Service)の所謂check
in機能のような、Webサーバ上に現在位置情報をアップロードする機能を用いて、動くARタグの現在位置をユーザに知らせることとしてもよい。
移動するARタグに導かれて店舗に到着したユーザには、広告主がキャンペーン等を設定していた場合、割引やプレゼント等のインセンティブが与えられる(ステップS317およびステップS318)。ここで、ARタグを初めに発見し、所定数以上のユーザを引き連れてきたユーザには、他のユーザとは異なるインセンティブが与えられてもよい。一方、広告主がキャンペーン等を設定していない場合、インセンティブは与えられない(ステップS319)。その後、ARタグは削除され、再び初期位置にARタグが生成される(ステップS301)。
このような広告サービスを用いることで、企業は、企業キャラクター等を用いた広告を展開することが出来る。このようなサービスによれば、移動するARタグとユーザIDが結び付けられるため、実際にどのようなユーザが店舗に来店したかを把握し、どのような広告を出せばユーザが来店するかを分析するための情報を得ることが出来る。このため、企業は、このような広告サービスをマーケティングに活用することも可能である。
また、ターゲティングによってARタグを特定のユーザにのみ見せる(例えば女性向けアパレルはF1層しか見せない、等)ことも可能である。更に、ARタグ表示用のアプリケーションを起動したまま電子マネー等で会計をしたユーザに対して、ポイントやチケット等の特典を与えることも可能である。
(処理の流れ)
図11は、本実施形態に係る広告サービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図10を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
図11は、本実施形態に係る広告サービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図10を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
ステップS401およびステップS402では、タグが生成され、ユーザとタグとが関連付けられる。ステップS401およびステップS402に係る処理の内容は、図8を用いて説明したステップS201およびステップS202の処理の内容と概略同様であるため、説明を省略する。その後、処理はステップS403へ進む。
ステップS403では、目的地までの経路情報および位置関係に従って、タグの移動先の位置情報が算出される。ここで、位置関係とは、タグとユーザとの位置関係である。位置関係の算出方法については、図8を用いて説明したステップS204の処理の場合と概略同様であるため、説明を省略する。
移動先位置情報取得部35は、目的地(例えば、広告されている店舗)までの経路情報、および関係情報算出部33によって算出されたタグとユーザとの位置関係に従って、タグの移動先位置情報を算出する。より具体的には、移動先位置情報取得部35は、経路情報に沿って移動するように、タグの移動先位置情報を算出する。即ち、本フローチャートで算出される移動先位置情報は、経路情報が示すルート上の位置を示す位置情報となる。なお、経路情報は、移動する経路を特定可能なものであればよく、例えば、カーナビゲーションシステム等で用いられる経路情報と同様のものを用いることが出来る。より具体的には、経路情報は、通過するポイント(交差点等)の位置情報の集合であってもよいし、通行する道を識別可能な情報の集合であってもよい。
また、この際移動先位置情報取得部35は、タグとユーザとの位置関係に基づいて、タ
グとユーザとの間の距離が所定の範囲内(例えば、1.0メートル以上1.5メートル以下)に保たれるような移動先位置情報を算出する。更に、移動先位置情報取得部35は、ユーザと所定の距離を保ちながら、経路上ユーザより先の位置にいるような移動先位置情報を算出することで、あたかもタグがユーザを先導するようにタグを移動させることができる。これに対して、移動先位置情報取得部35は、ユーザと所定の距離を保ちながら、経路上ユーザより後の位置にいるような移動先位置情報を算出することで、あたかもタグがユーザの後をついてくるようにタグを移動させることができる。その後、処理はステップS404へ進む。
グとユーザとの間の距離が所定の範囲内(例えば、1.0メートル以上1.5メートル以下)に保たれるような移動先位置情報を算出する。更に、移動先位置情報取得部35は、ユーザと所定の距離を保ちながら、経路上ユーザより先の位置にいるような移動先位置情報を算出することで、あたかもタグがユーザを先導するようにタグを移動させることができる。これに対して、移動先位置情報取得部35は、ユーザと所定の距離を保ちながら、経路上ユーザより後の位置にいるような移動先位置情報を算出することで、あたかもタグがユーザの後をついてくるようにタグを移動させることができる。その後、処理はステップS404へ進む。
ステップS404では、タグの位置情報が更新される。位置情報更新部36は、ステップS403において算出されたタグの移動先位置情報を用いて、タグ情報テーブル38に保持されている、該当タグの位置情報を更新する。その後、処理はステップS405へ進む。
ステップS405では、目的地に到着したか否かが判定される。制御部は、タグ位置情報が示す位置または現在のユーザ位置情報が、経路情報に設定されている目的地の近傍であるか否か(例えば、目的地を中心とする所定の範囲内であるか否か)を判定することで、ユーザが目的地に到着したか否かを判定する。ユーザが目的地に到着していないと判定された場合、処理はステップS403へ進む。即ち、本フローチャートに示された処理では、ユーザが目的地に到着するまで、ステップS403からステップS405に示された処理が繰り返される。一方、ユーザが目的地に到着したと判定された場合、処理はステップS406へ進む。
ステップS406では、タグが削除される。端末IF部32は、ユーザが目的地に到着したと判定された場合、タグ情報テーブル38から、目的地への到着に係るタグ情報を削除する。その後、本フローチャートに示された処理は終了する。
[旅行ナビゲーションサービス]
以下、本実施形態に係るアプリサーバ2によって、旅行ナビゲーションサービスが提供される場合の処理について説明する。
以下、本実施形態に係るアプリサーバ2によって、旅行ナビゲーションサービスが提供される場合の処理について説明する。
(サービスの概要)
本実施形態に係る旅行ナビゲーションサービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、旅行のナビゲーターとしてのキャラクターや情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る旅行ナビゲーションサービスによれば、ユーザに対して、あたかも現実空間にナビゲーターが存在するかのようなナビゲーションを行うことが出来、また、表示させるタグを実在または架空のキャラクターのタグとすることで、当該キャラクターと旅行をしているかのようにユーザに認識させることが出来る。
本実施形態に係る旅行ナビゲーションサービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、旅行のナビゲーターとしてのキャラクターや情報等を示すタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る旅行ナビゲーションサービスによれば、ユーザに対して、あたかも現実空間にナビゲーターが存在するかのようなナビゲーションを行うことが出来、また、表示させるタグを実在または架空のキャラクターのタグとすることで、当該キャラクターと旅行をしているかのようにユーザに認識させることが出来る。
図12は、本実施形態に係る旅行ナビゲーションサービス全体の流れを示すフローチャートである。ユーザは、予め旅行ナビゲーションサービスが提供される旅行パックを購入し、ナビゲーターとして表示されるキャラクターを予め設定する。また、アプリサーバ2は、旅行パックにおいてユーザ毎に予め設定された、ユーザが移動する経路情報を含む旅程情報において、ナビゲーションのための案内アクションを実行する位置およびタイミングを予め保持している。
図13は、本実施形態に係る旅程情報を示す図である。旅程情報には、旅程に含まれる複数の目的地ごとに、経路情報、目的地への到着予定日時、ナビゲーションのための案内
アクションを実行する位置およびタイミング、が含まれる。
アクションを実行する位置およびタイミング、が含まれる。
旅行ナビゲーションサービスにおいて、ユーザ端末9は、ユーザが所定の日時に所定の場所(駅やランドマーク等)に到着したと判断すると、ARタグを表示する。ユーザが所定の場所に到着したと判断するための方法としては、図10を用いて説明した広告サービスと同様、(1)カメラ機能によって所定の標識が検知されたこと、(2)ユーザ位置情報に基づいて、ユーザが所定の場所に到着したと判断されたこと、(3)外部端末からの信号を受信したこと、等が採用され得る。アプリサーバ2は、上記(1)から(3)の何れの方法が採用されているかを判定し、ユーザ端末9は、採用された何れかの方法に従って、ユーザが所定の場所に到着したことを判断する(ステップS501からステップS507)。
アプリサーバ2は、所定の日時になってもユーザ端末9が所定の場所に到着したことを示すユーザ位置情報を送信してこない場合、電話回線等を介してユーザへ連絡、確認をする。その際の確認音声は機械的なナビゲーターでもよいし、ユーザによって設定されたキャラクターの声であってもよい。
ここで、アプリサーバ2は、ユーザが旅行パックの申込時または設定時に、特徴のあるキャラクターをナビゲータとして設定しているか否かを判定する(ステップS508)。ユーザによって設定されているキャラクターが特徴のあるキャラクターではない場合、ユーザ端末9は、予め設定された、標準的なキャラクターのARタグを表示する(ステップS509)。なお、このARタグは、近傍に居る他のユーザのユーザ端末9には表示されない。
一方、ユーザによって設定されているキャラクターが特徴のあるキャラクターであった場合、ユーザ端末9は、予め設定された、特徴的なキャラクターのARタグを表示し、当該キャラクターに、場所や日時に応じたアクションを行わせる(ステップS510およびステップS511)。ここで、特徴のあるキャラクターとは、設定された旅程情報に忠実にナビゲーションを行う標準的なキャラクターに比べて、より性格づけされたキャラクターである。特徴のあるキャラクターは、標準的なキャラクターとは異なり、その外観や動き、音声等が、実在の有名人や有名な非実在キャラクターに模されている、ユーザに対するナビゲーションの方法が個性的である、または、ユーザに対する寄り道の提案等のアクションを行う、等の特徴を有する。また、旅行中、ユーザAがアプリを通して他のユーザの動くARタグが見られるよう設定をしている場合、ユーザAの近傍に居合わせた他のユーザBは、ユーザ端末9Bを介して、ユーザAのキャラクターを見ることができる。また、ユーザAのキャラクターがユーザBに対して一緒に行動することを提案するアクションを行う等して、ユーザAの旅程情報とユーザBの旅程情報とをマージして旅程を変更することも可能である(ステップS512およびステップS513)。また、このようなアクションは、ユーザA、Bに設定されているキャラクター同士が仲のよい設定になっている場合にのみ実行されるようにしてもよい。
ARタグがユーザ端末9に表示されると、以降、アプリサーバ2は、ARタグのタグ位置情報を更新することでARタグを移動させる。このようにすることで、ユーザは、目的地まで、ARタグによって誘導される(ステップS514)。ここで、ARタグは、予め設定された旅程情報に含まれる経路情報に沿って、ユーザを先導するように(ユーザと所定の距離を保ちながら、経路上ユーザより先の位置にいるように)移動してもよいし、ユーザの後をついていくように(ユーザと所定の距離を保ちながら、経路上ユーザより後の位置にいるように)移動してもよい。ユーザの後をついていくように移動する場合にも、ユーザ端末9は、ユーザが予定されている経路や旅程を外れていないかを定期的に判定し、予定されている経路や旅程から外れた場合には、ARタグを介して、(1)「ユーザに
対して経路/旅程を外れた旨の通知アクション」や、(2)「予定されていた経路/旅程に戻るための情報の提供アクション」、(3)「経路/旅程を変更するか否かの確認アクション」、(4)「経路/旅程を変更するアクション」等を行ってもよい。なお、電車の切符の手配、次に乗るバス、目的地などは全てアプリサーバ2が行っており、ユーザに余計な手間はかからない。
対して経路/旅程を外れた旨の通知アクション」や、(2)「予定されていた経路/旅程に戻るための情報の提供アクション」、(3)「経路/旅程を変更するか否かの確認アクション」、(4)「経路/旅程を変更するアクション」等を行ってもよい。なお、電車の切符の手配、次に乗るバス、目的地などは全てアプリサーバ2が行っており、ユーザに余計な手間はかからない。
例えば、ユーザが間違えたルートをたどった場合、ユーザ端末9は、キャラクターのARタグを介して(1)「ユーザに対して経路/旅程を外れた旨の通知アクション」および(2)「予定されていた経路/旅程に戻るための情報の提供アクション」を実行し、ユーザに対して、ルートを間違えていることを伝え、ルートに戻るためのナビゲーションを行う。もしルートを間違えてもいいような旅行の場合は、ユーザ端末9は、キャラクターのARタグを介して(3)「経路/旅程を変更するか否かの確認アクション」および(4)「経路/旅程を変更するアクション」を実行し、キャラクターに合わせた店や場所を、ユーザが間違えて歩いている場所からナビゲートしていく。ユーザがルートを間違えた場合で予約が必要な施設(宿泊地やレストランなど)に予定日時までに間に合わないと分かったときはアプリサーバ2から予約している施設に連絡し、キャンセル料がかかるなどあればキャラクターを通じて連絡する。また、ユーザ端末9またはアプリサーバ2は、初めに旅行を購入した金額内で家まで帰れるように、新たに発生する料金や払い戻し金額等(キャンセル料や新たなルート運賃、レストラン予約、宿泊施設の変更等に伴う料金)を計算し、ユーザをナビゲートすることとしてもよい。
また、ユーザ端末9またはアプリサーバ2は、ユーザとキャラクターとの間の距離を測定する。この測定は、ユーザとキャラクターの移動スピードが違う場合に行うこととしてもよい。キャラクターは、測定された距離に応じて異なるアクションを行う(ステップS515)。また、ユーザ端末9またはアプリサーバ2は、ユーザ位置情報が経路情報によって示される経路においてキャラクターよりも先の位置を示し、且つ測定されたユーザ−キャラクター間の距離が所定の閾値以上である場合(即ち、ユーザが先行し過ぎている場合)、旅程が前倒しになる可能性があるため、周りの景色に関する情報をキャラクターに解説させるアクションを実行する等して、予定された旅程に近づくように調整する(ステップS516)。
また、ユーザ端末9またはアプリサーバ2は、予め設定された旅程情報通りにユーザが旅行をしているか否かを判断する(ステップS517)。そして、予め設定された旅程よりも早く旅程が進んでいると判断された場合、ユーザ端末9またはアプリサーバ2は、周りの景色に関する情報をキャラクターに解説させるアクションを実行する等して、予定された旅程に近づくように調整する(ステップS516)。
これに対して、例えば、ユーザの寄り道や交通機関の遅れ等が原因で、予め設定された旅程よりも遅く旅程が進んでいると判断された場合、ユーザ端末9またはアプリサーバ2は、予約している店舗や施設に連絡し、予約内容を変更する(ステップS518)。
予め設定された旅程情報通りに旅程が進んでいると判断された場合、ユーザ端末9またはアプリサーバ2は、目的地までユーザについていくように、キャラクターを移動させる。ユーザ端末9またはアプリサーバ2は、旅行終了時に途中寄り道した場所があれば、その寄り道によって発生した費用を、キャラクターを介してユーザに伝えて旅行終了する(ステップS519)。そして、旅行が終了した際に料金がオーバーしていた場合には、差分がユーザーに課金される。また、旅行が終了した場合、アプリは自動削除される。
(処理の流れ)
旅行ナビゲーションサービスにおけるタグ移動処理の詳細については、図11を用いて
説明した広告サービスにおけるタグ移動処理と概略同様である。このため、旅行ナビゲーションサービスにおけるタグ移動処理の詳細については、説明を省略する。
旅行ナビゲーションサービスにおけるタグ移動処理の詳細については、図11を用いて
説明した広告サービスにおけるタグ移動処理と概略同様である。このため、旅行ナビゲーションサービスにおけるタグ移動処理の詳細については、説明を省略する。
[移動経路再生サービス]
以下、本実施形態に係るアプリサーバ2によって、移動経路再生サービスが提供される場合の処理について説明する。
以下、本実施形態に係るアプリサーバ2によって、移動経路再生サービスが提供される場合の処理について説明する。
(サービスの概要)
本実施形態に係る移動経路再生サービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、他のユーザまたは自身の過去の移動経路を再生するようにタグ位置情報が更新されるタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る移動経路再生サービスによれば、ユーザに対して、他のユーザまたは自身の過去の移動経路に従って移動するタグを、現実空間に重ねて参照させることが出来、他のユーザまたは自身の過去の行動を、あたかも現実空間において再生されているかのように認識させることが出来る。
本実施形態に係る移動経路再生サービスは、ユーザがユーザ端末9を用いて撮像している現実空間の撮像画像に、他のユーザまたは自身の過去の移動経路を再生するようにタグ位置情報が更新されるタグの画像を合成してユーザ端末9のディスプレイに表示する。タグは、タグ位置情報を用いて現実空間における位置が特定されており、撮像画像内の対応位置に合成される。このため、本実施形態に係る移動経路再生サービスによれば、ユーザに対して、他のユーザまたは自身の過去の移動経路に従って移動するタグを、現実空間に重ねて参照させることが出来、他のユーザまたは自身の過去の行動を、あたかも現実空間において再生されているかのように認識させることが出来る。
図14は、本実施形態に係る移動経路再生サービス全体の流れを示すフローチャートである。移動経路再生サービスは、他のユーザまたは自身の過去の移動経路を、タグが移動するAR技術を用いて再生するサービスである。このため、移動経路再生サービスを利用するにあたっては、事前に、再生対象となるユーザの移動経路が記録されている必要がある。再生対象ユーザのユーザ端末9は、GPS等を用いて定期的に再生対象ユーザの位置情報を取得し、位置情報が取得された日時と共に位置情報をアプリサーバ2にアップロードする。このアップロードは、ユーザ端末9において常時起動しているオートGPS機能等によって自動的に行われることが好ましい。たとえば、再生対象ユーザの保護者または管理者(子供の親や高齢者の子息など)は、子供や高齢者等の再生対象ユーザが携帯するユーザ端末9において、オートGPSアプリを起動させる。オートGPSアプリは、GPS+DGPS(Differential GPS)などを用いて、常に測位を行い、測位の結果得られた位置情報を、位置情報が得られた日時とともにアプリサーバ2にアップロードする。アプリサーバ2は、アップロードされた日時情報および位置情報を、移動経路情報として、再生対象ユーザに関連付けて蓄積する。
ユーザ端末9およびアプリサーバ2は、予め設定された間隔(例えば、1分おき)で、再生対象ユーザの位置情報の取得(アップロードおよび蓄積)を行う。但し、位置情報の取得の間隔には、再生対象ユーザに応じて異なる間隔が設定されてもよい。例えば、再生対象ユーザの年齢に応じて、位置情報の取得間隔を設定することとしてもよい。より具体的には、移動の早い子供の場合には標準的な間隔より短い間隔(例えば、10秒)を設定し、移動の遅い高齢者の場合には標準的な間隔より長い間隔(例えば、3分)を設定することとしてもよい。取得間隔の具体的な値は、サービスの統計値に基づいて自動的に設定することも出来る。また、位置情報の取得間隔は、ユーザの任意に設定可能としてもよい。
移動経路情報データベース39は、指定されたユーザの移動経路を示す移動経路情報を保持する。図15は、本実施形態に係る、再生対象ユーザの移動経路情報を示す図である。移動経路情報には、ユーザ端末9によって取得された位置情報、およびユーザ端末9において位置情報が取得された日時を示す日時情報、が順次蓄積される。
移動経路再生サービスでは、初めに、再生対象ユーザの位置が、予め設定された行動範囲から外れたか否かが判定される。アプリサーバ2は、オートGPS機能によってアップロードされた位置情報と、予め登録されている再生対象ユーザの行動範囲(以下、「設定
行動範囲」と称する)とを照合することで、再生対象ユーザが、設定行動範囲から外れたこと(以下、「脱ルート」とも称する)を検知する(ステップS601)。脱ルートが検知されない場合には、移動経路情報の蓄積が継続される(ステップS602)。なお、設定行動範囲は、予め設定された、再生対象ユーザの一日の予定ルートによって指定されてもよいし、地域名や地域コード等を用いて指定されてもよいし、中心地点および半径等を用いて指定されてもよい。
行動範囲」と称する)とを照合することで、再生対象ユーザが、設定行動範囲から外れたこと(以下、「脱ルート」とも称する)を検知する(ステップS601)。脱ルートが検知されない場合には、移動経路情報の蓄積が継続される(ステップS602)。なお、設定行動範囲は、予め設定された、再生対象ユーザの一日の予定ルートによって指定されてもよいし、地域名や地域コード等を用いて指定されてもよいし、中心地点および半径等を用いて指定されてもよい。
脱ルートが検知された場合にも、移動経路情報の蓄積は継続されるが、アプリサーバ2は、移動経路情報の蓄積に加えて、再生対象ユーザの保護者または管理者として登録されているユーザのユーザ端末9に対して、脱ルートを通知する(ステップS603)。なお、脱ルートが検知され、且つ再生対象ユーザの移動速度が早くなった場合、ユーザ端末9およびアプリサーバ2は、再生対象ユーザが連れ去られた可能性が高いとみなし、予め設定された間隔よりも更に短い間隔(例えば、1秒おき)に位置情報の取得を行うこととしてもよい。
また、再生対象ユーザのユーザ端末9からの位置情報のアップデートが、GPSが機能しない位置に移動した、または通信用の電波が届かない位置に移動した、等の理由で中断したが、その後位置情報のアップデートが再開された場合、アプリサーバ2は、位置情報の取得が中断していた間の再生対象ユーザの移動経路を推測し、推定移動経路情報として保持してもよい。この推定経路情報は、後述する移動経路の再生において、移動経路の一部として扱われる。
保護者または管理者であるユーザは、再生対象ユーザの過去の移動経路を再生する権限を有しており、通常、再生対象ユーザの移動経路は、再生権限を有しているユーザのユーザ端末9のみで表示される。但し、再生権限を有するユーザは、他のユーザに対して再生権限を与えることも可能である(ステップS604)。保護者または管理者のユーザ端末9から、アプリサーバ2に対して、再生権限を与えるゲストユーザが通知されると、アプリサーバ2は、該ゲストユーザのユーザ端末9に対して、移動経路再生アプリをダウンロードするためのURL(Uniform Resource Locator)および保護者または管理者のユーザ端末9から送信されたメッセージを送信する(ステップS605)。即ち、本実施形態に係る移動経路再生サービスによれば、保護者または管理者であるユーザが、他のユーザに対して再生権限を与え、再生権限を与えられたゲストユーザのユーザ端末9においてもARタグを表示させることで、複数のユーザが同時に再生対象ユーザを探すことが出来る。
ゲストユーザは、通知されたURLから、ユーザ端末9に移動経路再生アプリをダウンロードする。なお、移動経路再生アプリをダウンロードしないユーザに対しては、移動経路再生アプリに代えて地図アプリをダウンロードさせ、当該地図アプリによって表示される地図上で、蓄積された移動経路を再生することとしてもよい(ステップS608)。
そして、ユーザ端末9において移動経路再生アプリが起動されると(ステップS606)、ユーザ端末9は、蓄積された、再生対象ユーザの移動経路情報に従って、再生対象ユーザが脱ルートした地点の周辺まで、ユーザをナビゲートする(ステップS607)。このナビゲートは、移動するARタグの表示によって行われてもよいし、地図上のルート表示等、その他の方法によって行われてもよい。
ユーザ端末9およびアプリサーバ2は、ユーザが脱ルート地点の周辺に到着したことを検知する(ステップS609)。移動経路再生サービスにおいて、ユーザ端末9は、ユーザが脱ルート地点の周辺に到着したと判断すると、ARタグを表示する。ユーザが脱ルート地点の周辺に到着したと判断するための方法としては、図10を用いて説明した広告サ
ービスと同様、(1)カメラ機能によって所定の標識が検知されたこと、(2)ユーザ位置情報に基づいて、ユーザが脱ルート地点の周辺に到着したと判断されたこと、(3)外部端末からの信号を受信したこと、等が採用され得る。アプリサーバ2は、上記(1)から(3)の何れの方法が採用されているかを判定し、ユーザ端末9は、採用された何れかの方法に従って、ユーザが所定の場所に到着したことを判断する(ステップS610からステップS616)。
ービスと同様、(1)カメラ機能によって所定の標識が検知されたこと、(2)ユーザ位置情報に基づいて、ユーザが脱ルート地点の周辺に到着したと判断されたこと、(3)外部端末からの信号を受信したこと、等が採用され得る。アプリサーバ2は、上記(1)から(3)の何れの方法が採用されているかを判定し、ユーザ端末9は、採用された何れかの方法に従って、ユーザが所定の場所に到着したことを判断する(ステップS610からステップS616)。
ユーザが脱ルート地点の周辺に到着すると、ユーザ端末9は、再生対象ユーザの過去の移動経路を再生するためのARタグを、ユーザ端末9による撮像画像に合成して表示する。アプリサーバ2は、蓄積された、再生対象ユーザの移動経路情報に従って、再生対象ユーザの過去の移動経路を再生するためのARタグのタグ位置情報の更新を開始する。このようにすることで、再生対象ユーザの過去の移動経路が再生される(ステップS617)。保護者、管理者またはゲストユーザは、ユーザ端末9のディスプレイに表示される、撮像画像に合成されたタグを追うように移動することで、再生対象ユーザの過去の移動経路を辿ることが出来る。また、ユーザ端末9は、ARタグの表示を行う際に、表示中のARタグの位置情報が取得された時点の日時情報をアプリサーバ2から取得し、ARタグと併せて表示することとしてもよい。
また、ユーザ端末9は、早送り再生、スロー再生、巻き戻し再生、再生開始ポイント指定、等の指示をアプリサーバ2に対して行うことが可能である。アプリサーバ2は、ARタグの位置情報の更新間隔を、実際に位置情報が取得された際の間隔よりも早めるかまたは遅くすることで、早送り再生およびスロー再生を提供することが出来る。また、アプリサーバ2は、ARタグの位置情報の更新順序を、実際に位置情報が取得された際の順序に対して逆順とすることで、巻き戻し再生を提供することが出来る。更に、アプリサーバ2は、ユーザ端末9から指示された再生開始ポイント(日時指定または位置指定による)から、ARタグのタグ位置情報の更新を開始することで、再生開始ポイントを指定した移動経路再生サービスを提供することが出来る。
再生対象ユーザの探索が終了すると、ユーザ端末9は、移動経路の再生を終了する旨をアプリサーバ2に指示する。アプリサーバ2は、タグ位置情報の更新処理(ARタグを移動させる処理)を終了し、ARタグを削除する。また、アプリサーバ2は、何れかのユーザ端末9から通知された再生終了指示を、同時にARタグを表示している他のユーザ端末9に通知する(ステップS618)。
(処理の流れ)
図16は、本実施形態に係る移動経路再生サービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図10を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
図16は、本実施形態に係る移動経路再生サービスにおけるタグ移動処理の流れを示すフローチャートである。本実施形態に係るタグ移動処理は、図10を用いて説明したサービスの開始に伴ってタグの生成が指示されたことを契機として開始される。
ステップS701およびステップS702では、タグが生成され、ユーザとタグとが関連付けられる。ステップS701およびステップS702に係る処理の内容は、図8を用いて説明したステップS201およびステップS202の処理の内容と概略同様であるため、説明を省略する。その後、処理はステップS703へ進む。
ステップS703では、再生対象ユーザの移動経路情報に従って、タグの移動先の位置情報が算出される。移動先位置情報取得部35は、再生対象ユーザの移動経路情報に沿って移動するように、タグの移動先位置情報を算出する。即ち、本フローチャートで算出される移動先位置情報は、再生対象ユーザの移動経路情報が示すルート上の位置を示す位置情報となる。また、移動経路情報には、所定の間隔(例えば、1分)で取得された位置情報のみが蓄積されているため、アプリサーバ2は、その間の経路を補完し、ARタグがス
ムーズに移動するようにみえる間隔(例えば、100ミリ秒)で、タグ位置情報を更新してもよい。但し、この補完はユーザ端末9において行われてもよい。その後、処理はステップS704へ進む。
ムーズに移動するようにみえる間隔(例えば、100ミリ秒)で、タグ位置情報を更新してもよい。但し、この補完はユーザ端末9において行われてもよい。その後、処理はステップS704へ進む。
ステップS704では、タグの位置情報が更新される。位置情報更新部36は、ステップS703において算出されたタグの移動先位置情報を用いて、タグ情報テーブル38に保持されている、該当タグの位置情報を更新する。その後、処理はステップS705へ進む。
ステップS705では、移動経路の再生が終了したか否かが判定される。制御部は、移動経路の再生を終了する旨の指示をユーザ端末9から受信したことや、再生位置が移動経路情報データベース39に蓄積されている移動経路情報の最後まで到達した等の理由で、再生対象ユーザに係る移動経路の再生が終了したか否かを判定する。移動経路の再生が終了していないと判定された場合、処理はステップS703へ進む。即ち、本フローチャートに示された処理では、移動経路の再生が終了するまで、ステップS703からステップS705に示された処理が繰り返される。一方、移動経路の再生が終了したと判定された場合、処理はステップS706へ進む。
ステップS706では、タグが削除される。端末IF部32は、移動経路の再生が終了したと判定された場合、タグ情報テーブル38から、再生対象ユーザに係るタグ情報を削除する。その後、本フローチャートに示された処理は終了する。
2 アプリサーバ
9 ユーザ端末
31 現在位置取得部
32 端末インタフェース部
33 関係情報算出部
34 移動モード取得部
35 移動先位置情報取得部
36 位置情報更新部
9 ユーザ端末
31 現在位置取得部
32 端末インタフェース部
33 関係情報算出部
34 移動モード取得部
35 移動先位置情報取得部
36 位置情報更新部
Claims (12)
- 位置情報をもって現実空間に対して位置決めされ、該位置情報に従って現実空間に付加されるように表示される表示対象の情報を保持する表示対象情報データベースに接続され、
前記表示対象の移動先位置を示す移動先位置情報を取得する移動先位置情報取得手段と、
前記移動先位置情報をもって前記表示対象情報データベースに保持される前記位置情報を更新する位置情報更新手段と、を備え、
前記移動先位置情報取得手段は、複数の前記移動先位置情報を順次取得する場合に、該複数の移動先位置情報が経路を描くように、前記移動先位置情報を取得する、
情報処理装置。 - 前記表示対象が表示されるユーザ端末の現在位置を取得する現在位置取得手段を更に備え、
前記移動先位置情報取得手段は、前記現在位置と、前記表示対象の位置情報との関係に従って、前記移動先位置情報を取得する、
請求項1に記載の情報処理装置。 - 前記現在位置と、表示対象の位置情報との関係に従って、前記表示対象の移動モードを取得する移動モード取得手段を更に備え、
前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との関係が、前記移動モードに応じた所定の関係となるように該移動先位置情報を取得する、
請求項2に記載の情報処理装置。 - 前記移動モードに応じた所定の関係には、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより短くなること、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより長くなること、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれること、の少なくとも何れかが含まれる、
請求項3に記載の情報処理装置。 - 前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより短くなるように該移動先位置情報を取得する、
請求項2に記載の情報処理装置。 - 前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が、前記位置情報が示す位置と前記現在位置との距離に比べてより長くなるように該移動先位置情報を取得する、
請求項2に記載の情報処理装置。 - 前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれるように該移動先位置情報を取得する、
請求項2に記載の情報処理装置。 - 前記表示対象が表示されるユーザ端末の現在位置を取得する現在位置取得手段を更に備え、
前記移動先位置情報取得手段は、予め設定された経路に従って、前記移動先位置情報を取得する、
請求項1に記載の情報処理装置。 - 前記移動先位置情報取得手段は、前記移動先位置と前記現在位置との距離が所定の範囲内に保たれるように該移動先位置情報を取得する、
請求項8に記載の情報処理装置。 - 指定されたユーザの移動経路を示す移動経路情報を保持する移動経路情報データベースに更に接続され、
前記移動先位置情報取得手段は、前記記録された移動経路情報に従って、前記移動先位置情報を取得する、
請求項8または9に記載の情報処理装置。 - 位置情報をもって現実空間に対して位置決めされ、該位置情報に従って現実空間に付加されるように表示される表示対象の情報を保持する表示対象情報データベースに接続されたコンピュータが、
前記表示対象の移動先位置を示す移動先位置情報を取得する移動先位置情報取得ステップと、
前記移動先位置情報をもって前記表示対象情報データベースに保持される前記位置情報を更新する位置情報更新ステップと、を実行し、
前記移動先位置情報取得ステップでは、複数の前記移動先位置情報が順次取得される場合に、該複数の移動先位置情報が経路を描くように、前記移動先位置情報を取得する、
情報処理方法。 - 位置情報をもって現実空間に対して位置決めされ、該位置情報に従って現実空間に付加されるように表示される表示対象の情報を保持する表示対象情報データベースに接続されたコンピュータに、
前記表示対象の移動先位置を示す移動先位置情報を取得する移動先位置情報取得ステップと、
前記移動先位置情報をもって前記表示対象情報データベースに保持される前記位置情報を更新する位置情報更新ステップと、を実行させ、
前記移動先位置情報取得ステップでは、複数の前記移動先位置情報が順次取得される場合に、該複数の移動先位置情報が経路を描くように、前記移動先位置情報を取得する、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011076369A JP2012212225A (ja) | 2011-03-30 | 2011-03-30 | 情報処理装置、方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011076369A JP2012212225A (ja) | 2011-03-30 | 2011-03-30 | 情報処理装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012212225A true JP2012212225A (ja) | 2012-11-01 |
Family
ID=47266139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011076369A Withdrawn JP2012212225A (ja) | 2011-03-30 | 2011-03-30 | 情報処理装置、方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012212225A (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013192761A (ja) * | 2012-03-21 | 2013-09-30 | Konami Digital Entertainment Co Ltd | ゲーム制御装置、ゲーム制御方法、プログラム、ゲームシステム |
JP2013192961A (ja) * | 2013-05-01 | 2013-09-30 | Konami Digital Entertainment Co Ltd | ゲーム制御装置、ゲーム制御方法、プログラム、ゲームシステム |
JP2014182630A (ja) * | 2013-03-19 | 2014-09-29 | Pfu Ltd | 情報処理装置、情報処理システム、及びプログラム |
JP2014217566A (ja) * | 2013-05-08 | 2014-11-20 | 株式会社テクノクラフト | 宝探しゲーム配信システム |
JP2015019892A (ja) * | 2013-07-21 | 2015-02-02 | 水谷多恵子 | お守りシステム |
JP2016047085A (ja) * | 2014-08-27 | 2016-04-07 | 株式会社テクノクラフト | キャラクター連携アプリケーション装置 |
WO2016063554A1 (ja) * | 2014-10-20 | 2016-04-28 | 良幸 香取 | 拡張現実システム |
JP2016539668A (ja) * | 2013-09-30 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 拡張現実装置、方法およびプログラム |
JP2017159099A (ja) * | 2017-05-18 | 2017-09-14 | 株式会社バンダイナムコエンターテインメント | サーバシステム |
JP2018057461A (ja) * | 2016-09-30 | 2018-04-12 | 株式会社バンダイナムコエンターテインメント | ゲームシステム及びプログラム |
JP2018057456A (ja) * | 2016-09-30 | 2018-04-12 | 株式会社バンダイナムコエンターテインメント | 処理システム及びプログラム |
JP2019185791A (ja) * | 2019-05-09 | 2019-10-24 | Kddi株式会社 | 端末装置、端末装置の制御方法、コンピュータプログラム |
JP2020510923A (ja) * | 2017-02-28 | 2020-04-09 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法 |
JP2020533699A (ja) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
WO2021095371A1 (ja) * | 2019-11-11 | 2021-05-20 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム及びプログラム |
JP2021145916A (ja) * | 2020-03-19 | 2021-09-27 | 株式会社カプコン | ゲームプログラム、ゲームシステム、及びサーバ装置 |
JP2022505002A (ja) * | 2019-10-15 | 2022-01-14 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム |
JP2022159440A (ja) * | 2022-03-01 | 2022-10-17 | 株式会社ミクシィ | 情報処理装置及びプログラム |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
JP2022179480A (ja) * | 2016-09-22 | 2022-12-02 | ナビティア・エルエルシー | 拡張現実アーキテクチャにおける改善されたデータ統合のためのシステムおよび方法 |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
-
2011
- 2011-03-30 JP JP2011076369A patent/JP2012212225A/ja not_active Withdrawn
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013192761A (ja) * | 2012-03-21 | 2013-09-30 | Konami Digital Entertainment Co Ltd | ゲーム制御装置、ゲーム制御方法、プログラム、ゲームシステム |
US9510129B2 (en) | 2013-03-19 | 2016-11-29 | Pfu Limited | Character hitchhike information processing device, character hitchhike information processing system, and computer readable medium |
JP2014182630A (ja) * | 2013-03-19 | 2014-09-29 | Pfu Ltd | 情報処理装置、情報処理システム、及びプログラム |
JP2013192961A (ja) * | 2013-05-01 | 2013-09-30 | Konami Digital Entertainment Co Ltd | ゲーム制御装置、ゲーム制御方法、プログラム、ゲームシステム |
JP2014217566A (ja) * | 2013-05-08 | 2014-11-20 | 株式会社テクノクラフト | 宝探しゲーム配信システム |
JP2015019892A (ja) * | 2013-07-21 | 2015-02-02 | 水谷多恵子 | お守りシステム |
JP2016539668A (ja) * | 2013-09-30 | 2016-12-22 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 拡張現実装置、方法およびプログラム |
US10217284B2 (en) | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
JP2016047085A (ja) * | 2014-08-27 | 2016-04-07 | 株式会社テクノクラフト | キャラクター連携アプリケーション装置 |
JP2016081502A (ja) * | 2014-10-20 | 2016-05-16 | 良幸 香取 | 拡張現実システム |
WO2016063554A1 (ja) * | 2014-10-20 | 2016-04-28 | 良幸 香取 | 拡張現実システム |
JP7475401B2 (ja) | 2016-09-22 | 2024-04-26 | ナビティア・エルエルシー | 拡張現実アーキテクチャにおける改善されたデータ統合のためのシステムおよび方法 |
JP2022179480A (ja) * | 2016-09-22 | 2022-12-02 | ナビティア・エルエルシー | 拡張現実アーキテクチャにおける改善されたデータ統合のためのシステムおよび方法 |
JP2018057461A (ja) * | 2016-09-30 | 2018-04-12 | 株式会社バンダイナムコエンターテインメント | ゲームシステム及びプログラム |
JP2018057456A (ja) * | 2016-09-30 | 2018-04-12 | 株式会社バンダイナムコエンターテインメント | 処理システム及びプログラム |
JP7155135B2 (ja) | 2017-02-28 | 2022-10-18 | シグニファイ ホールディング ビー ヴィ | 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法 |
JP2020510923A (ja) * | 2017-02-28 | 2020-04-09 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法 |
JP2017159099A (ja) * | 2017-05-18 | 2017-09-14 | 株式会社バンダイナムコエンターテインメント | サーバシステム |
JP7001818B2 (ja) | 2017-09-11 | 2022-01-20 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
JP7286750B2 (ja) | 2017-09-11 | 2023-06-05 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
JP2020533699A (ja) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
JP2022050473A (ja) * | 2017-09-11 | 2022-03-30 | ナイキ イノベイト シーブイ | ターゲット検索のための、およびジオキャッシングを使用するための装置、システム、および方法 |
US11410191B2 (en) | 2017-09-11 | 2022-08-09 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
US11978076B2 (en) | 2017-09-11 | 2024-05-07 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
JP2019185791A (ja) * | 2019-05-09 | 2019-10-24 | Kddi株式会社 | 端末装置、端末装置の制御方法、コンピュータプログラム |
JP2022505002A (ja) * | 2019-10-15 | 2022-01-14 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 拡張現実データの表示方法、装置、機器、記憶媒体及びプログラム |
WO2021095371A1 (ja) * | 2019-11-11 | 2021-05-20 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム及びプログラム |
JP2021145916A (ja) * | 2020-03-19 | 2021-09-27 | 株式会社カプコン | ゲームプログラム、ゲームシステム、及びサーバ装置 |
JP7273319B2 (ja) | 2020-03-19 | 2023-05-15 | 株式会社カプコン | ゲームプログラム、ゲームシステム、及びサーバ装置 |
JP7348566B2 (ja) | 2022-03-01 | 2023-09-21 | 株式会社Mixi | 情報処理装置及びプログラム |
JP2022159440A (ja) * | 2022-03-01 | 2022-10-17 | 株式会社ミクシィ | 情報処理装置及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012212225A (ja) | 情報処理装置、方法およびプログラム | |
US11836194B2 (en) | Mobile information device, image pickup device, and information acquisition system | |
US10646783B1 (en) | Linking real world activities with a parallel reality game | |
CN102804905B (zh) | 图像数据和地理要素数据的显示 | |
US20210252384A1 (en) | Linking real world activities with a parallel reality game | |
CN101809980B (zh) | 内容发布系统和方法 | |
US20180341985A1 (en) | Provision and management of advertising via mobile entity | |
CN107024221B (zh) | 导航路线制定方法及装置 | |
CN104463761A (zh) | 一种机场移动自助服务方法和系统 | |
KR20110020175A (ko) | 이동 경로의 생성, 관리 및 공유 방법과 그 장치 | |
JP6142504B2 (ja) | アバター旅行管理装置、アバター旅行管理方法、及びプログラム | |
US11044393B1 (en) | System for curation and display of location-dependent augmented reality content in an augmented estate system | |
KR20220036365A (ko) | 대중교통 및 공유 모빌리티를 이용한 탄소 배출 저감 안내 방법 | |
JP2017228115A (ja) | 情報を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および情報を提供するための装置 | |
CN111104612B (zh) | 一种通过目标追踪实现的智慧景区推荐系统和方法 | |
KR20180087946A (ko) | 증강현실을 이용한 매장 이벤트 관리 시스템 및 방법 | |
TWI799337B (zh) | 用於提供用於在一平行實境體驗中顯示之一虛擬元素之方法及電腦可讀儲存媒體 | |
KR101788797B1 (ko) | 경로별로 이벤트 달성에 따른 아이템을 사용자클라이언트로 제공하는 네비게이션 시스템 | |
JP2008058267A (ja) | 情報提供システム、及び情報提供方法 | |
KR101135938B1 (ko) | 휴대폰을 이용한 거리 측정 및 지역 정보 제공 시스템 | |
WO2014174648A1 (ja) | 情報記録システム、情報取得装置、情報処理方法および情報処理プログラム | |
KR20160015421A (ko) | 위치정보기반의 여행정보 공유/추천 서비스 시스템 및 이를 이용한 여행정보 공유/추천 서비스 방법 | |
JP7484676B2 (ja) | 情報提供システム | |
KR102187433B1 (ko) | 픽업 솔루션 제공방법 및 시스템 | |
JP2018044949A (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |