JP6286123B2 - 情報処理装置、コンテンツ提供方法及びコンピュータプログラム - Google Patents

情報処理装置、コンテンツ提供方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6286123B2
JP6286123B2 JP2012285514A JP2012285514A JP6286123B2 JP 6286123 B2 JP6286123 B2 JP 6286123B2 JP 2012285514 A JP2012285514 A JP 2012285514A JP 2012285514 A JP2012285514 A JP 2012285514A JP 6286123 B2 JP6286123 B2 JP 6286123B2
Authority
JP
Japan
Prior art keywords
content
information
trigger
mobile terminal
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012285514A
Other languages
English (en)
Other versions
JP2014127148A (ja
JP2014127148A5 (ja
Inventor
伊藤 彰彦
彰彦 伊藤
哲央 丸山
哲央 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saturn Licensing LLC
Original Assignee
Saturn Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saturn Licensing LLC filed Critical Saturn Licensing LLC
Priority to JP2012285514A priority Critical patent/JP6286123B2/ja
Priority to US14/104,220 priority patent/US9418293B2/en
Priority to CN201310711161.7A priority patent/CN103902641B/zh
Publication of JP2014127148A publication Critical patent/JP2014127148A/ja
Publication of JP2014127148A5 publication Critical patent/JP2014127148A5/ja
Application granted granted Critical
Publication of JP6286123B2 publication Critical patent/JP6286123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、コンテンツ提供方法及びコンピュータプログラムに関する。
近年、画像認識技術が高度化し、カメラからの入力画像に映る物体の位置や姿勢を画像特徴量のマッチングによって認識することが可能となっている。このような物体認識の応用例の1つは、拡張現実(AR:Augmented Reality)アプリケーションである(例えば特許文献1等参照)。ARアプリケーションでは、実世界に存在する建物、道路又はその他の物体を映した画像内で、様々な情報(例えば、広告情報、ナビゲーション情報又はゲームのための情報など)が物体に重畳して表示され得る。
特開2012−155655号公報
ユーザがARアプリケーションを利用するには、実世界に存在する建物、道路又はその他の物体をカメラで映すという行動が必要になる。しかしカメラで映すという行動はユーザにとって負担であり、またARアプリケーションの利用により表示される情報が常に同じものであれば、ユーザはARアプリケーションを使うことを面倒に感じてしまい、ARアプリケーションを利用しなくなってしまう。
そこで本開示は、ユーザにARアプリケーションの利用を促進させることが可能な、新規かつ改良された情報処理装置、コンテンツ提供方法及びコンピュータプログラムを提供する。
本開示によれば、撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識部と、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、を備える、情報処理装置が提供される。
また本開示によれば、撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識ステップと、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、を備える、コンテンツ提供方法が提供される。
また本開示によれば、コンピュータに、撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識ステップと、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、ユーザにARアプリケーションの利用を促進させることが可能な、新規かつ改良された情報処理装置、コンテンツ提供方法及びコンピュータプログラムを提供することが出来る。
本開示の一実施形態に係るARアプリケーションが用いられたシステムの概要を示す説明図である。 本開示の一実施形態に係るサーバ装置100の機能構成例を示す説明図である。 本開示の一実施形態に係る携帯端末200の機能構成例を示す説明図である。 本開示の一実施形態に係るサーバ装置100及び携帯端末200の動作例を示す説明図である。 ARコンテンツ情報管理データベース106で管理されるデータの例を示す説明図である。 トリガ情報に関連付けられる、ユニット化された情報の例を示す説明図である。 複数のトリガ情報をユニット化して管理する場合の例を示す説明図である。 表示部212に表示される画面の例を示す説明図である。 表示部212に表示される画面の例を示す説明図である。 複数のトリガ間で連動性を持たせた場合の例を示す説明図である。 複数のトリガ間で連動性を持たせた場合の例を示す説明図である。 複数のトリガ間で連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 複数のトリガ間で連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 複数のトリガ間で連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 同一のトリガで連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 異なる種類のトリガで連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。 異なる種類のトリガで連動性を持たせた場合の例を示す説明図である。 サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.本開示の一実施形態>
[システムの概要]
[サーバ装置の機能構成例]
[携帯端末の機能構成例]
[サーバ装置及び携帯端末の動作例]
[携帯端末の表示画面例]
<2.まとめ>
<1.本開示の一実施形態>
[システムの概要]
まず、図面を参照しながら本開示の一実施形態に係るARアプリケーションが用いられたシステムの概要を説明する。図1は、本開示の一実施形態に係るARアプリケーションが用いられたシステムの概要を示す説明図である。以下、図1を用いて本開示の一実施形態に係るARアプリケーションが用いられたシステムの概要について説明する。
図1には、スマートフォン(多機能携帯電話)、PC(Personal Computer)、ゲーム端末又は携帯型音楽プレーヤ、ウェアラブルディスプレイ等からなる携帯端末200でARアプリケーションが実行される様子を模式的に示した図面が示されている。図1では、ARアプリケーションが実行されている携帯端末200が、ARコンテンツARを表示させるためのトリガTGをカメラ等の撮像装置で撮像している状態が示されている。図1に示した例では、ARコンテンツを表示させるためのトリガTGは、壁に貼られているポスターである。
携帯端末200が撮像した画像は、例えば図1には図示されていないサーバ装置に送られ、サーバ装置で画像解析される。サーバ装置での画像解析によってトリガTGが認識されると、トリガTGに対応するARコンテンツARがサーバ装置から携帯端末200に提供される。
このように、通常のARアプリケーションは、実世界に存在する物体が撮像されることにより、その物体に対応する様々なARコンテンツを、撮像画像中の物体に重畳して表示するものである。しかし、単に撮像された物体に対応するARコンテンツを表示させるだけでは、ユーザはどのようなARコンテンツが表示されるのかが容易に想像できてしまう。どのようなARコンテンツが表示されるのかが容易に想像できてしまうことは、ユーザによるARアプリケーションの利用頻度の低下に繋がってしまう。
そこで本開示の一実施形態では、撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び撮像されるトリガ情報に対応した、ARコンテンツ情報が含まれるコンテンツを携帯端末200に提供する技術を開示して説明する。
以上、図1を用いて本開示の一実施形態に係るARアプリケーションが用いられたシステムの概要について説明した。次に、本開示の一実施形態に係るサーバ装置の機能構成例について説明する。
[サーバ装置の機能構成例]
図2は、本開示の一実施形態に係るサーバ装置100の機能構成例を示す説明図である。以下、図2を用いて本開示の一実施形態に係るサーバ装置100の機能構成例について説明する。
図2に示したように、本開示の一実施形態に係るサーバ装置100は、トリガ認識部102と、ARコンテンツ表示制御部104と、ARコンテンツ情報管理データベース(DB)106と、データ制御部108と、ECG表示制御部110と、ECGコンテンツ情報管理データベース112と、関連付けエンジン部114と、ログ管理データベース116と、ポイント管理データベース118と、を含んで構成される。
なお、ECGとはElectronic Content Guideの略である。本実施形態では、ECGは、あるコンテンツに関連するコンテンツのことを言い、特に、携帯端末200で撮像された画像に含まれるトリガ情報に関連するコンテンツのことを言う。
トリガ認識部102は、携帯端末200で撮像された画像に、ARコンテンツを表示させるためのトリガ情報が存在しているかどうか認識する。トリガ認識部102は、例えば予め設定されたトリガ情報と一致するものが携帯端末200で撮像された画像に含まれているかどうかで、トリガ情報の存在を認識する。トリガ認識部102は、様々な画像認識技術の中から適切なものを用いて、携帯端末200で撮像された画像にトリガ情報が存在しているかどうかを認識し得る。
ARコンテンツ表示制御部104は、トリガ認識部102が認識したトリガ情報に対応するARコンテンツを、ARコンテンツ情報管理データベース106から取得する。ARコンテンツ表示制御部104は、ARコンテンツ情報管理データベース106から取得したARコンテンツを携帯端末200に提供する。またARコンテンツ表示制御部104は、トリガ認識部102が認識したトリガ情報に対応するトリガIDを携帯端末200に提供する。
ここでARコンテンツ表示制御部104は、携帯端末200の位置情報、時間情報その他の条件情報を用いて、ARコンテンツ情報管理データベース106から取得するARコンテンツを決定する。またARコンテンツ表示制御部104は、トリガ認識部102が認識したトリガ情報に対応するARコンテンツを取得する際に、過去のコンテンツの取得状況に応じて、ARコンテンツ情報管理データベース106から取得するARコンテンツを決定する。ARコンテンツ表示制御部104がどのようなARコンテンツを取得するかについては、後に詳述する。
またARコンテンツ表示制御部104は、携帯端末200を使用するユーザの属性(例えば、年齢や年代、性別、住所等)の情報を用いて、ARコンテンツ情報管理データベース106から取得するARコンテンツを決定し得る。ARコンテンツ表示制御部104は、携帯端末200を使用するユーザの属性を用いてARコンテンツ情報管理データベース106から取得するARコンテンツを決定することで、携帯端末200のユーザの属性に適合するARコンテンツを携帯端末200に提供することが出来る。
ARコンテンツ情報管理データベース106は、携帯端末200で撮像された画像に重畳されるARコンテンツに関する情報が管理されているデータベースである。
データ制御部108は、後述するECG表示制御部110が、ECGコンテンツ情報管理データベース112から取得するECGコンテンツに対するデータ制御を実行する。データ制御部108は、ログ管理データベース116で管理されるログを参照し、ECGコンテンツに対するデータ制御を実行する。データ制御部108が実行するデータ制御は、例えばECGコンテンツ情報管理データベース112から取得されたECGコンテンツに対するフィルタリングや、ARアプリケーションに連動するSNSサービスその他のサービスとの連携処理であってもよい。
ECG表示制御部110は、トリガ認識部102が認識したトリガ情報に対応するECGコンテンツをECGコンテンツ情報管理データベース112から取得し、携帯端末200に提供する。ECG表示制御部110は、ECGコンテンツ情報管理データベース112からECGコンテンツを取得する際に、ARコンテンツ表示制御部104が携帯端末200に提供したトリガIDを用いる。またECG表示制御部110は、ECGコンテンツ情報管理データベース112からECGコンテンツを取得する際に、携帯端末200の位置情報、日時情報その他の環境情報を用いてもよい。ECG表示制御部110は、例えば、HTMLの生成や、APIによるデータの提供等によって、携帯端末200へのECGコンテンツの提供を行う。
ECG表示制御部110は、携帯端末200を使用するユーザの属性(例えば、年齢や年代、性別、住所等)の情報を用いて、ECGコンテンツ情報管理データベース112から取得するECGコンテンツを決定し得る。ECG表示制御部110は、携帯端末200を使用するユーザの属性を用いてECGコンテンツ情報管理データベース112から取得するECGコンテンツを決定することで、携帯端末200のユーザの属性に適合するECGコンテンツを携帯端末200に提供することが出来る。
ECGコンテンツ情報管理データベース112は、ECGコンテンツを管理するデータベースである。トリガ認識部102が認識したトリガ情報に対応するECGコンテンツが、ECGコンテンツ情報管理データベース112からECG表示制御部110によって読み出され、携帯端末200に提供される。
関連付けエンジン部114は、ECGコンテンツ情報管理データベース112に格納されているECGコンテンツを関連付けて、ECGコンテンツをユニット化する。ユニット化されたECGコンテンツについては後に詳述する。ECG表示制御部110は、ECGコンテンツ情報管理データベース112に格納されている、ユニット化されたECGコンテンツを取得し、携帯端末200に提供してもよい。
ログ管理データベース116は、ECG表示制御部110が携帯端末200に提供したECGコンテンツの内容や、携帯端末200で選択されたECGコンテンツの内容のログを管理するデータベースである。ポイント管理データベース118は、ARアプリケーションで使用されるポイントに関するデータを管理するデータベースである。
図2に示したARコンテンツ表示制御部104及びECG表示制御部110は、本開示のコンテンツ取得部の一例として機能し得る。すなわち、ARコンテンツ表示制御部104及びECG表示制御部110は、携帯端末200で撮像された撮像画像が、携帯端末200で撮像された時点の状況又は過去のコンテンツの取得状況、及びトリガ認識部102が認識したトリガ情報に対応した、ARコンテンツが含まれるコンテンツを取得するよう動作し得る。
本開示の一実施形態に係るサーバ装置100は、図2に示したような構成を有することで、撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び撮像されるトリガ情報に対応した、ARコンテンツ情報が含まれるコンテンツを携帯端末200に提供することが出来る。
以上、図2を用いて本開示の一実施形態に係るサーバ装置100の機能構成例について説明した。次に、本開示の一実施形態に係る携帯端末200の機能構成例について説明する。
[携帯端末の機能構成例]
図3は、本開示の一実施形態に係る携帯端末200の機能構成例を示す説明図である。以下、図3を用いて本開示の一実施形態に係る携帯端末200の機能構成例について説明する。
図3に示したように、本開示の一実施形態に係る携帯端末200は、撮像部202と、データ通信部204と、位置情報取得部206と、表示制御部208と、操作部210と、表示部212と、を含んで構成される。
撮像部202は、レンズや、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)その他の撮像素子を有するカメラモジュールである。撮像部202は、実空間を撮像することにより一連の入力画像を生成する。撮像部202により生成される入力画像は、ARアプリケーションの提供のために利用されることに加えて、ユーザ位置の推定及び入力画像に映る物体の位置の推定などの目的で利用され得る。撮像部202は、携帯端末200とは別体に構成され、ARアプリケーションの提供の際に携帯端末200と接続されるようにしてもよい。
データ通信部204は、携帯端末200が他の装置(例えばサーバ装置100)と通信するための通信インタフェースである。データ通信部204は、撮像部202で撮像された画像をサーバ装置100に送信する。そしてデータ通信部204は、サーバ装置100から送信されるARコンテンツやECGコンテンツを受信し、表示制御部208に提供する。
位置情報取得部206は、携帯端末200の位置を測定するモジュールである。位置情報取得部06は、例えば、GPS(Global Positioning System)信号を受信して携帯端末200の緯度、経度及び高度を測定するGPSモジュールであってよい。位置情報取得部206は、GPSモジュールの替わりに、無線アクセスポイントから受信される無線信号の強度に基づいて携帯端末200の位置を測定する測位モジュールであってもよい。位置情報取得部206が測位した携帯端末200の位置の情報は、データ通信部204によってサーバ装置100へ送信され得る。
表示制御部208は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などで構成され、表示部212への情報の表示を制御する。
操作部210は、携帯端末200のユーザが携帯端末200を操作し又は携帯端末200へ情報を入力するために使用される。操作部210は、例えば、キーパッド、ボタン、スイッチ又はタッチパネルなどを含み得る。
表示部212は、ARアプリケーションにより生成され実空間に重畳される仮想オブジェクトを表示する画面を有する表示モジュールである。表示部212の画面は、シースルー型であってもよく、非シースルー型であってもよい。また、表示部212は、携帯端末200とは別体に構成され、ARアプリケーションの提供の際に携帯端末200と接続されるようにしてもよい。
以上、図3を用いて携帯端末200の機能構成例について説明した。次に、本開示の一実施形態に係るサーバ装置100及び携帯端末200の動作例について説明する。
[サーバ装置及び携帯端末の動作例]
図4は、本開示の一実施形態に係るサーバ装置100及び携帯端末200の動作例を示す説明図である。図4に示した流れ図は、携帯端末200で実空間の画像を撮像し、サーバ装置100で、その画像に重畳させるARコンテンツ、及びトリガ情報に関連するECGコンテンツを取得して携帯端末200に提供する際の動作例である。以下、図4を用いて本開示の一実施形態に係るサーバ装置100及び携帯端末200の動作例について説明する。
まず携帯端末200は、ARコンテンツ及びECGコンテンツをサーバ装置100から得るために、ユーザの操作に応じてARコンテンツの表示の契機となるトリガ(マーカー)を撮像する(ステップS101)。携帯端末200でのトリガ(マーカー)の撮像は撮像部202によって行われる。このARコンテンツの表示の契機となるトリガ(マーカー)としては、例えばポスター、カタログ、パンフレット、雑誌記事、新聞記事、チラシ、カードゲームのカード、商品ラベル等であってもよい。
上記ステップS101で、ARコンテンツの表示の契機となるトリガ(マーカー)を撮像すると、続いて携帯端末200は、上記ステップS101で撮像した画像をサーバ装置100に送信する(ステップS102)。携帯端末200は、このステップS102の画像の送信時に、携帯端末200の位置情報、時間情報その他の条件情報をサーバ装置100に併せて送信しても良い。
上記ステップS102で、携帯端末200が撮像した画像がサーバ装置100に送信されると、続いてサーバ装置100は、携帯端末200から渡された画像から、画像に含まれるトリガを認識する(ステップS103)。このステップS103のトリガの認識は、トリガ認識部102が実行する。なお以下については、携帯端末200から渡された画像にトリガが含まれていることを前提に説明する。
上記ステップS103で、携帯端末200から渡された画像からトリガを認識してトリガ情報を得ると、続いてサーバ装置100は、上記ステップS103で得たトリガ情報に、連動トリガが存在するかどうか判定する(ステップS104)。ステップS103で得たトリガ情報に連動トリガが存在するかどうかの判定は、例えば、ARコンテンツ表示制御部104がARコンテンツ情報管理データベース106を参照することで行われても良い。
図5は、ARコンテンツ情報管理データベース106で管理されるデータの例を示す説明図である。例えば携帯端末200でトリガAが撮像されたことをトリガ認識部102が認識すると、ARコンテンツ表示制御部104は、そのトリガAに対応するデータをARコンテンツ情報管理データベース106から取得する。
図5には、ARコンテンツ情報管理データベース106で管理されるデータとして、トリガID、トリガのタイプ、トリガのカテゴリ、トリガのタイトル、トリガのジャンル、トリガの地域、トリガの期間が示されている。これらのデータは、後述のECGコンテンツの取得及びフィルタリングの際に用いられる。
図5に示したように、ARコンテンツ情報管理データベース106で管理されるデータには、地域や期間の情報が含まれていても良い。地域や期間の情報が管理されることで、例えば、トリガが特定の地域において、及び/または特定の期間内に携帯端末200で撮像された場合にのみ、サーバ装置100は、ARコンテンツを携帯端末200に提供するように制御し得る。
図6は、トリガ情報に関連付けられる、ユニット化された情報の例を示す説明図である。例えば図6のように、トリガ情報Aにはユニット化されたAR情報とECG情報とが関連付けられているとする。トリガ情報Aに関連付けられているユニット化されたAR情報には、図6のように3つのAR情報が含まれ得る。トリガの認識時の条件により、図6に示した3つのAR情報の中からいずれかのAR情報が選択され得る。
またトリガ情報Aに関連付けられているユニット化されたECG情報には、図6のように3つのコンテンツ情報と、1つのトリガ情報とが含まれ得る。トリガの認識時の条件により、図6に示した3つのコンテンツ情報の中から少なくともいずれかのコンテンツ情報が選択され得る。そして図6に示したように、コンテンツ情報はさらに別のコンテンツ情報やトリガ情報と関連付けられ得る。このような関連付けは、例えば図2に示した関連付けエンジン部114によって行われ得る。
また、図6に示したように、他のトリガ情報も関連するコンテンツ情報として扱われ得る。すなわち、トリガがいずれもポスターである場合、あるポスターから別のポスターを紹介するようなECGの提供が可能になる。
サーバ装置100は、あるトリガに関連する複数のトリガをユニット化して管理しても良い。図7は、複数のトリガをユニット化して管理する場合の例を示す説明図である。図7には、トリガAに関連するトリガとしてトリガB、C、Dの情報がユニット化して管理され、トリガBに関連するトリガとしてトリガE、F、Gの情報がユニット化して管理されている様子が図示されている。このような関連付けは、例えば図2に示した関連付けエンジン部114によって行われ得る。
上記ステップS104の判定の結果、上記ステップS103で得たトリガ情報に、連動トリガが存在すると判定すると、続いてサーバ装置100は、携帯端末200でARアプリケーションを使用しているユーザには連動トリガの利用履歴が存在するかどうかを判定する(ステップS105)。連動トリガの利用履歴が存在するかどうかの判定は、例えば、ARコンテンツ表示制御部104がログ管理データベース116を参照することで行われても良い。
上記ステップS105の判定の結果、携帯端末200でARアプリケーションを使用しているユーザには連動トリガの利用履歴が存在していると判定すると、続いてサーバ装置100は、上記ステップS103で認識したトリガ及び連動トリガの利用履歴に対応するARコンテンツ、ECGコンテンツ及びポイント情報を携帯端末200に渡す(ステップS106)。サーバ装置100は、ARコンテンツの取得はARコンテンツ表示制御部104で、ECGコンテンツ及びポイント情報の取得はECG表示制御部110で、それぞれ実行するよう動作する。
一方、上記ステップS104の判定の結果、上記ステップS103で得たトリガ情報に、連動トリガが存在しないと判定すると、または、上記ステップS105の判定の結果、携帯端末200でARアプリケーションを使用しているユーザには連動トリガの利用履歴が存在しないと判定すると、続いてサーバ装置100は、上記ステップS103で認識したトリガに対応するARコンテンツ、ECGコンテンツ及びポイント情報を携帯端末200に渡す(ステップS107)。
サーバ装置100は、携帯端末200に提供するECGコンテンツを取得する際に、ARコンテンツ情報管理データベース106から取得したデータ、ユーザの過去のトリガの撮像履歴、ECGコンテンツの利用履歴を用いて、ECGコンテンツのフィルタリングを行い得る。
上記ステップS106またはステップS107でサーバ装置100が携帯端末200にARコンテンツ、ECGコンテンツ及びポイント情報を渡すと、携帯端末200は、サーバ装置100から渡されたARコンテンツ、ECGコンテンツ及びポイント情報を表示部212に表示する(ステップS108)。携帯端末200のユーザは、携帯端末200が表示部212に表示したARコンテンツ、ECGコンテンツ及びポイント情報を閲覧し、表示されたECGコンテンツを利用することができる。
図8は、本開示の一実施形態に係る携帯端末200の表示部212に表示される画面の例を示す説明図である。図8には、ARコンテンツを表示するためのトリガであるトリガTR1と、トリガTR1の撮像によって表示されるARコンテンツAR1と、トリガTR1の撮像によって表示されるユニット化されたECGコンテンツECG1と、が表示部212に表示されている状態が図示されている。図8に示した例では、トリガTR1はポスターであり、ARコンテンツAR1は人物である。ARコンテンツとして表示される物には、例えばキャラクタ、人物、物体、動画像、静止画像、テキスト、等が含まれ得る。
また図8には、ECGコンテンツECG1として4つのコンテンツ情報が表示されている例が示されている。各コンテンツ情報は、そのコンテンツの情報のジャンルを示すアイコン221と、そのコンテンツのサムネイル画像222と、で構成される。コンテンツの情報のジャンルには、例えばグルメ、レジャー、自然、特産物、人物、ショッピング、等が含まれ得る。
携帯端末200は、ECGコンテンツECG1として表示しているコンテンツ情報をユーザに選択させることで、そのコンテンツ情報に対応するコンテンツを表示部212に表示させることができる。
携帯端末200がトリガTR1を撮像した時の条件が特定の条件に合致した場合に携帯端末200に表示されるECGコンテンツの例を示す。図9は、本開示の一実施形態に係る携帯端末200の表示部212に表示される画面の例を示す説明図である。図9には、ARコンテンツを表示するためのトリガであるトリガTR1と、トリガTR1の撮像によって表示されるARコンテンツAR1と、トリガTR1の撮像によって表示されるユニット化されたECGコンテンツECG1と、が表示部212に表示されている状態が図示されている。
そして図9には、ECGコンテンツECG1として4つのコンテンツ情報が表示されている例が示されている。また図9には特定の時間帯に携帯端末200がトリガTR1を撮像したことにより、サムネイルに重畳されて表示される情報223a及び特定の場所で携帯端末200がトリガTR1を撮像したことによりサムネイルに重畳されて表示される情報223bが示されている。
このようにサーバ装置100は、携帯端末200でのトリガTR1の撮像時の条件が特定の条件を満たした場合にのみ提供可能なECGコンテンツを、携帯端末200に提供することができる。
携帯端末200は、ARコンテンツ、ECGコンテンツ及びポイント情報を表示部212に表示すると、続いてARコンテンツ及びECGコンテンツの閲覧・利用ログをサーバ装置100に渡す(ステップS109)。サーバ装置100は、携帯端末200から渡されたARコンテンツ及びECGコンテンツの閲覧・利用ログ、及び、ARアプリケーションの使用により発生したポイント情報を記録する(ステップS110)。閲覧・利用ログについてはログ管理データベース116で管理され、ポイント情報についてはポイント管理データベース118で管理される。
本開示の一実施形態に係るサーバ装置100及び携帯端末200は、図4に示したような動作を実行することで、撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況及び撮像されるトリガ情報に対応したARコンテンツ情報が含まれるコンテンツの、サーバ装置100から携帯端末200への提供が可能になる。
携帯端末200でARコンテンツを表示させるためのトリガには、他のトリガとの連動性を持たせることが可能になる。複数のトリガ間で連動性を持たせることで、サーバ装置100は、携帯端末200による同じトリガの撮像であっても、過去の撮像履歴に基づいて、携帯端末200へ提供するARコンテンツを変化させることができる。
図10は、複数のトリガ間で連動性を持たせた場合の例を示す説明図である。図10には、トリガとして5つのポスターが図示されている。ポスターA、B、Cは連動があり、ポスターC、Eは連動があり、ポスターDはどのポスターとも連動していないことを、予めARコンテンツ情報管理データベース106に登録しておく。
ポスターA、B、Cが連動している場合に、順不同に3つのポスターが撮像された時に連動条件を満たすとARコンテンツ情報管理データベース106に登録されていてもよく、特定の順序で撮像された場合に限って連動条件を満たすとARコンテンツ情報管理データベース106に登録されていてもよい。またサーバ装置100は、携帯端末200によるトリガの撮像が連動条件を満たした場合の特典として、ARコンテンツの追加、特別なECGコンテンツの提供、ボーナスポイントの提供等を行い得る。
ボーナスポイントの提供の例として、例えばポスターA、B、Cが連動している場合で説明する。サーバ装置100は、1枚撮像する度に10ポイントを携帯端末200に提供する場合に、2枚目の撮像時にボーナスポイントとして通常の10ポイントに加えて30ポイントのボーナスポイントを携帯端末200に提供し得る。またサーバ装置100は、3枚目の撮像時にボーナスポイントとして通常の10ポイントに加えて50ポイントのボーナスポイントを、携帯端末200に提供し得る。
ボーナスポイントの提供の例として、例えばポスターA、B、Cが連動している場合で説明する。ポスターAが掲示される場所とポスターBが掲示される場所との間の距離に応じて、サーバ装置100は、ボーナスポイントを携帯端末200に提供し得る。
図10では、複数のトリガ間で連動性を持たせた場合の例として複数のポスターを示したが、位置的な連動性の他に時間的な連動性を持たせても良い。例えば、トリガとして雑誌に掲載される広告が用いられる場合を例示する。最初の広告は10月号に掲載され、次の広告は11月号に掲載される場合に、サーバ装置100は、この2つの広告を順に撮像した場合に、携帯端末200に特典を提供し得る。この場合に、携帯端末200が、10月号に掲載される広告を11月号の発売日までに撮像してARコンテンツを取得した場合に限り、サーバ装置100は、携帯端末200での11月号に掲載される広告の撮像時に携帯端末200に特典を提供し得る。このように複数のトリガ間で時間的な連動性を持たせることで、携帯端末200のユーザに対して雑誌を継続して購入させて、その雑誌に掲載された広告を撮像するというモチベーションの向上効果が期待できる。
複数のトリガ間で連動性を持たせた場合の別の例を示す。図11は、複数のトリガ間で連動性を持たせた場合の例を示す説明図である。図11には、トリガとしてポスターA、Bが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供し、ポスターBを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタBを提供する。
携帯端末200のユーザが、それぞれ単独でポスターA、Bの撮像によってARサービスを利用した場合は、サーバ装置100は携帯端末200にARコンテンツとしてそれぞれキャラクタA、Bのみを提供する。しかし、携帯端末200がポスターAを撮像し、サーバ装置100が携帯端末200にARコンテンツとしてキャラクタAを提供した後に、携帯端末200がポスターBを撮像すると、サーバ装置100は、携帯端末200にARコンテンツとしてキャラクタBに加えてキャラクタAも提供する。つまり、携帯端末200のユーザは、ポスターAの撮像によってサーバ装置100から提供されたキャラクタAを、ポスターBの撮像時に連れて行けることが可能になる。
なお、ポスターA、Bの撮像順は順不同であってもよく、特定の順序に限定されても良い。例えば、ポスターAを撮像した後にポスターBを撮像した場合に限って、サーバ装置100は、ポスターBの撮像時にARコンテンツとしてキャラクタA及びキャラクタBを携帯端末200に提供しても良い。そして、ポスターBを撮像した後にポスターAを撮像した場合では、サーバ装置100は、ポスターAの撮像時にキャラクタAのみを携帯端末200に提供しても良い。
図12は、複数のトリガ間で連動性を持たせた場合の例を示す説明図である。図12には、トリガとしてポスターA、Bが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200に通常ポイントとして1ポイントを提供し、ポスターBを撮像すると、サーバ装置100は携帯端末200に通常ポイントとして1ポイントを提供する。
携帯端末200のユーザが、それぞれ単独でポスターA、Bの撮像によってARサービスを利用した場合は、サーバ装置100は携帯端末200に通常ポイントのみを提供する。しかし、携帯端末200がポスターAを撮像して、サーバ装置100が通常ポイントを提供した後に、携帯端末200がポスターBを撮像すると、サーバ装置100は、携帯端末200に通常ポイントに加えてボーナスポイントを提供する。図12に示した例では、携帯端末200がポスターAを撮像した後にポスターBを撮像すると、サーバ装置100は、通常ポイントの1ポイントに加えてボーナスポイントとして5ポイントを提供する。
なお、ポスターA、Bの撮像順は順不同であってもよく、特定の順序に限定されても良い。例えば、ポスターAを撮像した後にポスターBを撮像した場合に限って、サーバ装置100は、ポスターBの撮像時にボーナスポイントとして5ポイントに提供しても良い。そして、ポスターBを撮像した後にポスターAを撮像した場合では、サーバ装置100は、ポスターAの撮像時に通常ポイントのみを携帯端末200に提供しても良い。
図13及び図14は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。図13及び図14は、ポスターAであるトリガTR1を初めて携帯端末200が撮像した場合に携帯端末200に表示される画面を、時系列で表した図が示されている。
まず携帯端末200は、サーバ装置100からコンテンツを得るために、撮像部202でトリガTR1を撮像する。図13には、撮像部202で撮像された画像がリアルタイムで表示部212に表示されている様子が示されている。撮像部202で撮像された画像はサーバ装置100に送られ、サーバ装置100でトリガの認識が行われる。サーバ装置100は、携帯端末200がトリガTR1を撮像したことを認識すると、トリガTR1に対応するARコンテンツ及びECGコンテンツ、並びに携帯端末200のユーザのポイント情報を、携帯端末200に提供する。
図14には、トリガTR1に対応したARコンテンツAR1が表示部212に表示され、さらにトリガTR1に対応したECGコンテンツECG1と、携帯端末200のユーザのポイント情報224が表示部212に表示された状態が示されている。なお、図14ではARコンテンツAR1の表示の後にECGコンテンツECG1及びポイント情報224が表示されている様子が図示されているが、本開示は係る例に限定されない。ARコンテンツAR1と、ECGコンテンツECG1及びポイント情報224とは、同時に表示部212に表示されてもよく、またECGコンテンツECG1及びポイント情報224の表示部212への表示後に、ARコンテンツAR1が表示部212に表示されても良い。
図15及び図16は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。図15及び図16は、ポスターBであるトリガTR2を初めて携帯端末200が撮像した場合に携帯端末200に表示される画面を、時系列で表した図が示されている。なお、図15及び図16に示すのは、ポスターBと連動しているポスターAが未だ携帯端末200で撮像されていない場合の例である。
ポスターBであるトリガTR2を初めて携帯端末200が撮像した場合は、上述のポスターAであるトリガTR1を初めて携帯端末200が撮像した場合と同様の処理が行われる。すなわち、図15に示したように、サーバ装置100からコンテンツを得るために携帯端末200がトリガTR2を撮像すると、サーバ装置100は、携帯端末200がトリガTR2を撮像したことを認識し、トリガTR2に対応するARコンテンツ及びECGコンテンツ、並びに携帯端末200のユーザのポイント情報を、携帯端末200に提供する。
そして図16に示したように、トリガTR2に対応したARコンテンツAR2が表示部212に表示され、さらにトリガTR2に対応したECGコンテンツECG2と、携帯端末200のユーザのポイント情報224が表示部212に表示される。
図17は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。図17に示したのは、ポスターAとポスターBとが連動しており、携帯端末200がポスターAを撮像してコンテンツの提供を受けた後に、携帯端末200がポスターBを撮像した場合の例である。
図17に示したように、ポスターAとポスターBとが連動している場合は、ポスターAを撮像してコンテンツの提供を受けた履歴がある携帯端末200がポスターBを撮像すると、サーバ装置100は、ポスターAの撮像時に携帯端末200に提供したARコンテンツAR1と、トリガTR2に対応するARコンテンツAR2とを、携帯端末200に提供する。また図17に示したように、ポスターAとポスターBとが連動している場合は、ポスターAを撮像してコンテンツの提供を受けた履歴がある携帯端末200がポスターBを撮像すると、サーバ装置100は、特別なECGコンテンツECG2及びボーナスポイントを携帯端末200に提供する。
このようにトリガに連動性を持たせることで、サーバ装置100は、携帯端末200でのトリガの撮像に応じて携帯端末200に提供するコンテンツに変化を持たせることができる。サーバ装置100から提供されるコンテンツに変化があることで、携帯端末200のユーザに対し、トリガの撮像によってどのようなコンテンツが提供されるのかが楽しみになるので、トリガを撮像するモチベーションを上昇させることができるという効果が大いに期待できる。
図18は、複数のトリガ間で連動性を持たせた場合の例を示す説明図である。図18には、トリガとしてポスターA、B、Cが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供し、ポスターBを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタBを提供し、ポスターCを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタCを提供する。またサーバ装置100は、キャラクタA、キャラクタB及びキャラクタCは全員同じ県の出身であるとして登録しておく。
携帯端末200が、ポスターAを撮像してサーバ装置100からコンテンツの提供を受けた後にポスターBを撮像すると、サーバ装置100は、ARコンテンツとしてキャラクタA及びキャラクタBを携帯端末200に提供する。そして、ARコンテンツとしてキャラクタA及びキャラクタBの提供を受けた履歴がある状態で、携帯端末200がポスターCを撮像すると、サーバ装置100は、ARコンテンツとしてキャラクタA、キャラクタB及びキャラクタCを携帯端末200に提供する。
そしてサーバ装置100は、ARコンテンツとしてキャラクタA、キャラクタB及びキャラクタCを携帯端末200に提供する際に、キャラクタA、キャラクタB及びキャラクタCは全員同じ県の出身であるので、その県に関する特別なコンテンツや、ボーナスポイントを携帯端末200に提供し得る。
図19及び図20は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。図19及び図20は、ポスターCであるトリガTR3を初めて携帯端末200が撮像した場合に携帯端末200に表示される画面を、時系列で表した図が示されている。なお以下の説明では、図19及び図20のように携帯端末200がポスターCであるトリガTR3を撮像する前に、図18に示したように携帯端末200がポスターA及びポスターBを撮像し、サーバ装置100からコンテンツの提供を受けているものとする。
携帯端末200は、サーバ装置100からコンテンツを得るために、撮像部202でトリガTR3を撮像する。図19には、撮像部202で撮像された画像がリアルタイムで表示部212に表示されている様子が示されている。撮像部202で撮像された画像はサーバ装置100に送られ、サーバ装置100でトリガの認識が行われる。サーバ装置100は、携帯端末200がトリガTR3を撮像したことを認識すると、トリガTR3に対応するARコンテンツ及びECGコンテンツ、並びに携帯端末200のユーザのポイント情報を、携帯端末200に提供する。
またサーバ装置100は、トリガTR3に対応するこれらコンテンツ等の提供に加え、携帯端末200へのコンテンツの提供履歴から、ARコンテンツとしてキャラクタA及びキャラクタBを提供する。図20には、ARコンテンツとしてキャラクタAに対応するARコンテンツAR1、キャラクタBに対応するARコンテンツAR2及びキャラクタCに対応するARコンテンツAR3が表示部212に表示されている状態が図示されている。
またキャラクタA、キャラクタB及びキャラクタCは全員同じ県の出身であるので、サーバ装置100は、その県に関する特別なコンテンツや、ボーナスポイントを携帯端末200に提供する。図20には、キャラクタA、キャラクタB及びキャラクタCの出身県に関するECGコンテンツECG3、及びキャラクタA、キャラクタB及びキャラクタCを集めたことによるボーナスポイントが付与されたことがポイント情報224として表示部212に表示されている状態が図示されている。
また図20には、同じ県出身のキャラクタを3人集めたことにより、サーバ装置100からボーナスポイントが提供されたことを示すボーナスポイント情報225が表示部212に表示されている状態が図示されている。
このように、トリガにキャラクタの特徴という連動性を持たせることで、サーバ装置100は、携帯端末200でのトリガの撮像に応じて携帯端末200に提供するコンテンツに変化を持たせることができる。特に、図19及び図20に示したように、特定の条件を満たすARコンテンツの取得によって特典を提供することで、サーバ装置100は携帯端末200のユーザに対し、トリガを撮像するモチベーションを上昇させることができるという効果が大いに期待できる。
キャラクタの特徴によるトリガの連動については様々なパターンが考えられる。例えば、ARコンテンツとしてそれぞれ異なるキャラクタに対応する10枚のポスターの内、携帯端末200が特定の5枚を撮像すると、サーバ装置100は携帯端末200に特典を提供するように動作し得る。サーバ装置100は、携帯端末200が10枚全てのポスターを撮像しなければ特典を提供しないように動作することもできるが、ユーザに全てのポスターを撮像させるというのは、ユーザにトリガを撮像するモチベーションを低下させることにも繋がりかねない。従ってサーバ装置100は、携帯端末200が10枚全てのポスターを撮像しなくとも、携帯端末200の特典を提供するよう動作し得る。キャラクタの特徴によるトリガの連動については、他にも、同一グループに所属する人物、同じ作品に登場するキャラクタ、同じ動物をモチーフとしたキャラクタ、同じ年齢の人物、などの様々なパターンが提供され得る。
図21は、複数のトリガ間で連動性を持たせた場合の例を示す説明図である。図21には、トリガとしてポスターA、Bが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供し、ポスターBを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタBを提供する。
また図21には、携帯端末200がポスターAを撮像すると、サーバ装置100は、ポスターAとは別のトリガであるポスターBの情報をECGコンテンツとして提供する様子が図示されている。このようにサーバ装置100は、携帯端末200によるトリガの撮像に応じて提供するコンテンツに、別のトリガに関する情報を含めて提供することが出来る。なおサーバ装置100は、位置情報取得部206が取得した情報を用いて、携帯端末200によるトリガの撮像位置を得ることが出来る。
また図21には、ポスターAを撮像してポスターBの情報を取得した携帯端末200が、ポスターBを撮像すると、サーバ装置100がボーナスポイントを加算する様子が図示されている。ここでのボーナスポイントは、例えばポスターAの掲示場所とポスターBの掲示場所との間の距離に応じたものであり得る。つまりサーバ装置100は、ポスターAの掲示場所とポスターBの掲示場所との間の距離が長ければ長いほど多くのボーナスポイントを携帯端末200に提供し得る。
ポスターAを撮像してポスターBの情報を取得した携帯端末200がポスターBを撮像すると、サーバ装置100は、その携帯端末200を使用するユーザの情報を、ポスターBに対応するトリガや、ARシステムと連携する他のサービスに記録してもよい。そしてサーバ装置100は、同じようにポスターAを撮像してからポスターBを撮像したユーザの情報を携帯端末200に提供し得る。
図22は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。携帯端末200がトリガTR1を撮像すると、サーバ装置100は、トリガTR1に対応するARコンテンツAR1と、トリガTR1に対応するECGコンテンツECG1を携帯端末200に提供する。図22に示した例では、サーバ装置100は、トリガTR1に対応するECGコンテンツECG1として、トリガTR1とは別のトリガであるポスターBの情報(掲示場所や掲示期間等)を提供する。
携帯端末200のユーザが、操作部210を操作して表示部212に表示されたポスターBの情報を選択すると、図22に示したように、携帯端末200はポスターBに関する詳細情報226を表示部212に表示する。携帯端末200のユーザは、表示部212に表示されたポスターBに関する詳細情報226を閲覧することで、携帯端末200を持ってポスターBの掲示場所に移動することが出来る。
そして携帯端末200のユーザがポスターBの掲示場所まで移動し、携帯端末200でポスターBを撮像する。するとサーバ装置100は、ポスターBに対応するARコンテンツに加えてポスターAに対応するARコンテンツを携帯端末200に提供する。またサーバ装置100は、携帯端末200がポスターA及びポスターBを撮像したことに伴って、特別なコンテンツを含んだECGコンテンツを提供する。またサーバ装置100は、携帯端末200がポスターA及びポスターBを撮像したことに伴って、ボーナスポイントを付与する。
図22に示したように、携帯端末200の表示部212には、特別なコンテンツを含んだECGコンテンツECG2と、ボーナスポイントが付与されたポイント情報224と、サーバ装置100からボーナスポイントが提供されたことを示すボーナスポイント情報225とが表示される。また図22に示したように、携帯端末200の表示部212には、同じようにポスターAを撮像してからポスターBを撮像したユーザの情報を示すユーザ情報227が表示される。
このように、トリガに連動性を持たせることで、サーバ装置100は、携帯端末200でのトリガの撮像に応じて携帯端末200に提供するコンテンツに変化を持たせることができる。特に、図22に示したように、場所の移動を伴ったARコンテンツの取得によって特典を提供することで、サーバ装置100は携帯端末200のユーザに対し、トリガを撮像するモチベーションを上昇させることができるという効果が大いに期待できる。
ここまでは、異なるトリガに連動性を持たせた場合を例示したが、同一のトリガに連動性を持たせるようにしても良い。例えば、同じポスターであっても、撮像場所や撮像時間、また撮像回数に応じて、サーバ装置100は携帯端末200に対して異なるコンテンツを提供するよう動作し得る。
図23は、同一のトリガで連動性を持たせた場合の例を示す説明図である。図23には、トリガとしてポスターAが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供するとする。
そして図23には、ポスターAが異なる場所で掲示されており、異なる場所で掲示されているポスターAを携帯端末200が撮像する度に、サーバ装置100は携帯端末200に特典を追加して提供する様子が図示されている。このように、同じトリガであっても、撮像場所や撮像回数に応じて携帯端末200に特典を追加して提供することで、サーバ装置100は携帯端末200のユーザに対し、トリガを撮像するモチベーションを上昇させることができるという効果が大いに期待できる。
図24は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。携帯端末200がポスターAであるトリガTR1を撮像すると、サーバ装置100は、トリガTR1に対応するARコンテンツAR1と、トリガTR1に対応するECGコンテンツECG1を携帯端末200に提供する。
携帯端末200のユーザは、異なる場所で再びポスターAを発見したので、携帯端末200を用いてポスターAであるトリガTR1を撮像する。サーバ装置100は、携帯端末200による2度目のトリガTR1の撮像であることをログ管理データベース116から取得し、携帯端末200に特典を追加してコンテンツを提供する。図2には、特典としてアイテムIT1が付加されたARコンテンツAR1が、サーバ装置100から携帯端末200に提供された状態が示されている。また図2には、特典として、特別な情報やボーナスポイントが、サーバ装置100から携帯端末200に提供された状態が示されている。
携帯端末200のユーザは、異なる場所で三度ポスターAを発見したので、携帯端末200を用いてポスターAであるトリガTR1を撮像する。サーバ装置100は、携帯端末200による3度目のトリガTR1の撮像であることをログ管理データベース116から取得し、携帯端末200に特典を追加してコンテンツを提供する。図2には、特典としてアイテムIT1及びアイテムIT2が付加されたARコンテンツAR1が、サーバ装置100から携帯端末200に提供された状態が示されている。また図2には、特典として、さらに特別な情報やボーナスポイントが、サーバ装置100から携帯端末200に提供された状態が示されている。
このように、同一のトリガを複数回利用することで、携帯端末200は、リッチ化されたARコンテンツの取得、ボーナスポイントの獲得、特別なECGコンテンツの取得が可能になる。なお、同一のトリガを利用する場合に、サーバ装置100はトリガの利用判定に条件を付加してもよい。例えばサーバ装置100は、トリガの撮像によるコンテンツの提供は、場所を問わず1日1回までに制限してもよく、同一場所でのトリガの撮像は最初の1回のみをカウントするようにしてもよい。
図22に示したのは、他のトリガの情報として別のポスターの情報をサーバ装置100が提供した場合の例であるが、本開示は係る例に限定されない。例えばサーバ装置100は、他のトリガの情報として、携帯端末200が撮像したものとは異なる種類のトリガを提供しても良い。より具体的には、例えば、携帯端末200がポスターを撮像すると、サーバ装置100は、他のトリガの情報として、そのポスターに関係する商品の情報をECGコンテンツとして携帯端末200に提供しても良い。
図25は、異なる種類のトリガで連動性を持たせた場合の例を示す説明図である。図25には、トリガとしてポスターAが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供するとする。また携帯端末200がポスターAを撮像すると、サーバ装置100は、ポスターAに関係する商品Xの情報を携帯端末200に提供する。サーバ装置100は、商品Xの情報を携帯端末200に提供する際に、その商品Xが購入できる店の情報や、その商品Xは安く購入できるクーポンを、併せて携帯端末200に提供してもよい。
ポスターAと商品Xとの関係性は様々なパターンが考えられ得る。例えば、ポスターAは商品Xが販売されている地域やお店のものであってもよく、ポスターAは商品Xそのものの広告であってもよい。またサーバ装置100は、特定のエリア内でポスターAを撮像した場合に限って、商品Xの情報を携帯端末200に提供してもよい。
そして携帯端末200のユーザが実際に商品Xを購入して、商品Xを携帯端末200で撮像すると、サーバ装置100は、携帯端末200にARコンテンツとして商品Xに関係するキャラクタXを提供する。またサーバ装置100は、ポスターA及び商品Xの撮像に伴って、特別なECGコンテンツやボーナスポイントを携帯端末200に提供してもよい。
このように、他のトリガの情報として、ポスターに関係する商品の情報をECGコンテンツとして携帯端末200に提供することで、サーバ装置100は携帯端末200のユーザに対し、商品の購入及び商品の撮像のモチベーションを向上させる効果が大いに期待できる。
図26は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。携帯端末200がポスターAであるトリガTR1を撮像すると、サーバ装置100は、トリガTR1に対応するARコンテンツAR1と、トリガTR1に対応するECGコンテンツECG1を携帯端末200に提供する。またサーバ装置100は、ECGコンテンツECG1に、ポスターAに関係する商品Xの情報を含めて携帯端末200に提供する。
携帯端末200のユーザが、操作部210を操作して表示部212に表示された商品Xの情報を選択すると、図26に示したように、携帯端末200は商品Xに関する詳細情報226を表示部212に表示する。携帯端末200のユーザは、表示部212に表示された商品Xに関する詳細情報226を閲覧することで、携帯端末200を持って商品Xが購入できる場所に移動することが出来る。
図26には、商品Xに関する詳細情報226として、商品Xを購入して商品Xのラベルを撮像すると特別な動画を見ることが出来る旨と、商品Xを特定の店舗で購入すると20%安く購入できる旨が記されていることが図示されている。
そして携帯端末200のユーザが商品Xを購入して、携帯端末200で商品XのラベルであるトリガTR4を撮像すると、サーバ装置100は、商品Xに対応するARコンテンツAR4を携帯端末200に提供する。またサーバ装置100は、トリガTR1とトリガTR4とが撮像されたことに伴い、特別なコンテンツが含まれたECGコンテンツECG4を携帯端末200に提供する。またサーバ装置100は、トリガTR1とトリガTR4とが撮像されたことに伴いボーナスポイントを携帯端末200に付与する。表示部212には、ボーナスポイントが付加されたことを示すポイント情報224が表示されている。
図25及び図26に示した例は、携帯端末200がポスターAを撮像してから商品Xを撮像するパターンであるが、携帯端末200が商品Xを撮像してからポスターAを撮像した場合にも、サーバ装置100は同様に携帯端末200に特典を付与してコンテンツを提供しても良い。
このようにサーバ装置100は、ポスターと商品とに連動性を持たせることが出来るが、本開示は係る例に限定されない。例えば、携帯端末200がポスターを撮像すると、サーバ装置100は、他のトリガの情報として、そのポスターに関係するゲームカードの情報をECGコンテンツとして携帯端末200に提供しても良い。
図27は、異なる種類のトリガで連動性を持たせた場合の例を示す説明図である。図27には、トリガとしてポスターAが図示されている。携帯端末200がポスターAを撮像すると、サーバ装置100は携帯端末200にARコンテンツとしてキャラクタAを提供するとする。また携帯端末200がポスターAを撮像すると、サーバ装置100は、ポスターAに関係するゲームカードZの情報をECGコンテンツとして携帯端末200に提供する。携帯端末200がゲームカードZを撮像すると、ゲームカードZの撮像画像がトリガ情報としてサーバ装置100で用いられ得る。
携帯端末200は、ポスターAを撮像し、ゲームカードZの情報をサーバ装置100から取得することで、そのゲームカードZを携帯端末200で撮像した際に、アイテムが装備されていたり、姿が変化していたりする等によってゲームカードZのキャラクタを強化させることが出来る。なおサーバ装置100は、特定のエリア内でポスターAを撮像した場合に限って、ゲームカードZの情報を携帯端末200に提供してもよい。
図28は、サーバ装置100による携帯端末200へのコンテンツ提供例を示す説明図である。携帯端末200がポスターAであるトリガTR1を撮像すると、サーバ装置100は、トリガTR1に対応するARコンテンツAR1と、トリガTR1に対応するECGコンテンツECG1を携帯端末200に提供する。図28には、ARコンテンツAR1として、ゲームカードのキャラクタが装備できる剣が示されている。またサーバ装置100は、ECGコンテンツECG1に、ポスターAに関係するゲームカードZの情報を含めて携帯端末200に提供する。
携帯端末200のユーザが、操作部210を操作して表示部212に表示されたゲームカードZの情報を選択すると、図28に示したように、携帯端末200はゲームカードZに関する詳細情報226を表示部212に表示する。
図28には、ゲームカードZに関する詳細情報226として、ゲームカードZのキャラクタにポスターAの撮像によってサーバ装置100から取得した剣(ARコンテンツAR1)を装備させると、ゲームカードZのキャラクタが強くなる旨が記されていることが図示されている。
そして携帯端末200のユーザがゲームカードZを入手し、携帯端末200でゲームカードZであるトリガTR5を撮像すると、サーバ装置100は、ゲームカードZに対応するARコンテンツAR5を携帯端末200に提供する。この際、サーバ装置100は、トリガTR1とトリガTR5とが撮像されたことに伴い、剣(ARコンテンツAR1)が装備されたARコンテンツAR5を携帯端末200に提供する。
またサーバ装置100は、トリガTR1とトリガTR5とが撮像されたことに伴い、特別なコンテンツが含まれたECGコンテンツECG5を携帯端末200に提供する。図28には、特別なコンテンツとして限定武器の情報が提供されたことが示されている。またサーバ装置100は、トリガTR1とトリガTR5とが撮像されたことに伴いボーナスポイントを携帯端末200に付与する。表示部212には、ボーナスポイントが付加されたことを示すポイント情報224が表示されている。
このように、他のトリガの情報として、ポスターに関係するゲームカードの情報をECGコンテンツとして携帯端末200に提供することで、サーバ装置100は携帯端末200のユーザに対し、ゲームカードの購入及びゲームカードの撮像のモチベーションを向上させる効果が大いに期待できる。
上述したように同一の又は異なるトリガに連動性を持たせた場合に、サーバ装置100は、最初のトリガの撮像から所定の時間内に次のトリガを撮像しないと、連動による効果が発揮されないようにしても良い。この所定の時間は、相対的な時間であってもよく、絶対体な時間であっても良い。最初のトリガの撮像から所定の時間が経過してから次のトリガの撮像が行われた場合は、サーバ装置100は、そのトリガの撮像は連動による効果が発揮されずに、そのトリガが単体で撮像されたのと同じ効果を提供しても良い。
また、上述したように同一の又は異なるトリガに連動性を持たせた場合に、サーバ装置100は、携帯端末200でのトリガの撮像順によって異なる効果を携帯端末200に提供しても良い。例えば、あるユーザがポスターA→ポスターB→ポスターCの順に撮像し、別のユーザがポスターE→ポスターD→ポスターCの順に撮像した場合に、サーバ装置100は、撮像順によってそれぞれ異なるARコンテンツが表示されるように動作し得る。
ここまでの説明で参照した図面に示されている画面は一例に過ぎないことは言うまでもないことであり、本開示においては、アプリケーションで用意される画面は、ここまでの説明で参照した図面に示されているものに限定されるものではない。アプリケーションで用意される画面は、本開示の技術的思想を逸脱しない範囲において変更されることが許容されることは言うまでも無く、また本開示の技術的思想を逸脱しない範囲であれば、そのように変更されたものも本開示の技術的範囲に属するものと了解される。
上記実施形態では、サーバ装置100と携帯端末200との間のデータのやり取りによって、ARコンテンツ及びECGコンテンツの取得が制御されていたが、本開示は係る例に限定されない。例えば、上述の説明におけるサーバ装置100の構成が携帯端末200に備えられていても良い。
上記実施形態では、サーバ装置100から携帯端末200へARコンテンツ及びECGコンテンツを提供する際に、サーバ装置100は、携帯端末200で撮像されたトリガに基づいて、提供するコンテンツを決定していたが、本開示は係る例に限定されない。例えば、サーバ装置100は、携帯端末200で撮像されたトリガに基づいて携帯端末200に提供するARコンテンツを決定し、さらに、決定したARコンテンツの内容に基づいて携帯端末200に提供するECGコンテンツを決定しても良い。
<2.まとめ>
以上説明したように本開示の一実施形態によれば、携帯端末200において撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び携帯端末200で撮像されるトリガ情報に対応した、ARコンテンツ情報が含まれるコンテンツを携帯端末200に提供することが出来るサーバ装置100が提供される。
本開示の一実施形態に係るサーバ装置100は、携帯端末200からトリガ情報を取得すると、そのトリガ情報に対応したARコンテンツを携帯端末200に提供する。このARコンテンツの提供の際に、過去に関連するARコンテンツを提供したかどうか、また過去にどのようなECGコンテンツが携帯端末200で選択されていたかに応じ、サーバ装置100は、提供するARコンテンツを変化させる。
本開示の一実施形態に係るサーバ装置100は、このようにコンテンツの提供を制御することで、携帯端末200で同じトリガ(マーカー)が撮像されても、過去のコンテンツの選択状況や提供状況に応じて異なるARコンテンツが提供できる。過去のコンテンツの選択状況や提供状況に応じて異なるARコンテンツが提供されることで、携帯端末200のユーザは、ARアプリケーションの利用を促進するという効果が大いに期待できる。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば上記実施形態では、同一の携帯端末200により複数のトリガを撮像することで連動トリガの利用が成立する例を説明したが、本開示は係る例に限定されない。例えば、同一ユーザが異なる携帯端末を使用する場合であっても、サーバ装置100は、ARアプリケーションの利用時にユーザIDを入力させるなどして同一のユーザであることを把握することが出来る。そして同一のユーザであることを把握した場合は、サーバ装置100は、異なる携帯端末を使用して複数のトリガが撮像された場合でも、連動トリガの利用が成立するよう動作し得る。
なお、本技術は以下のような構成も取ることができる。
(1)
撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識部と、
前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、
を備える、情報処理装置。
(2)
前記コンテンツ取得部は、前記過去のコンテンツの取得状況として前記所定のトリガ情報の撮像に基づいて取得されたコンテンツの履歴を用いてコンテンツを取得する、前記(1)に記載の情報処理装置。
(3)
前記コンテンツ取得部は、前記所定のトリガ情報の撮像に基づくコンテンツに関連するコンテンツが既に取得されているか否かに応じて、取得するコンテンツを変化させる、(2)に記載の情報処理装置。
(4)
前記コンテンツ取得部は、過去に同一のトリガ情報が撮像されていたか否かに応じて、取得するコンテンツを変化させる、前記(2)または(3)に記載の情報処理装置。
(5)
前記コンテンツ取得部は、同一のトリガ情報の過去の撮像回数に応じて、取得するコンテンツを変化させる、前記(2)〜(4)のいずれかに記載の情報処理装置。
(6)
前記コンテンツ取得部は、前記撮像画像が撮像された時点の状況として前記撮像画像が撮像された環境に関する情報を用いてコンテンツを取得する、前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記コンテンツ取得部は、前記撮像画像が撮像された環境に関する情報として前記撮像画像が撮像された日時の情報を用いてコンテンツを取得する、前記(6)に記載の情報処理装置。
(8)
前記コンテンツ取得部は、前記撮像画像が撮像された環境に関する情報として前記撮像画像が撮像された場所の情報を用いてコンテンツを取得する、前記(6)または(7)に記載の情報処理装置。
(9)
前記コンテンツ取得部は、前記撮像画像が撮像された時点の状況として前記撮像画像を取得したユーザの属性を用いてコンテンツを取得する、前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識ステップと、
前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、
を備える、コンテンツ提供方法。
(11)
コンピュータに、
撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識ステップと、
前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、
を実行させる、コンピュータプログラム。
100 サーバ装置
102 トリガ認識部
104 ARコンテンツ表示制御部
106 ARコンテンツ情報管理データベース
108 データ制御部
110 ECG表示制御部
112 ECGコンテンツ情報管理データベース
114 関連付けエンジン部
116 ログ管理データベース
118 ポイント管理データベース
200 携帯端末
202 撮像部
204 データ通信部
206 位置情報取得部
208 表示制御部
210 操作部
212 表示部

Claims (11)

  1. 撮像画像を取得し、該撮像画像に含まれている拡張現実コンテンツを表示するための所定のトリガ情報を認識するトリガ認識部と、
    前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、
    を備え、
    前記コンテンツ取得部は、前記トリガ情報に関連する少なくとも1つの他のトリガ情報が前記所定のトリガ情報に存在する場合、前記トリガ情報に対応する前記拡張現実情報と前記少なくとも1つの他のトリガ情報とを含む前記コンテンツを取得する、情報処理装置。
  2. 前記コンテンツ取得部は、前記過去のコンテンツの取得状況として前記所定のトリガ情報の撮像に基づいて取得されたコンテンツの履歴を用いてコンテンツを取得する、請求項1に記載の情報処理装置。
  3. 前記コンテンツ取得部は、前記所定のトリガ情報の撮像に基づくコンテンツに関連するコンテンツが既に取得されているか否かに応じて、取得するコンテンツを変化させる、請求項2に記載の情報処理装置。
  4. 前記コンテンツ取得部は、過去に同一のトリガ情報が撮像されていたか否かに応じて、取得するコンテンツを変化させる、請求項2または3に記載の情報処理装置。
  5. 前記コンテンツ取得部は、同一のトリガ情報の過去の撮像回数に応じて、取得するコンテンツを変化させる、請求項2〜4のいずれかに記載の情報処理装置。
  6. 前記コンテンツ取得部は、前記撮像画像が撮像された時点の状況として前記撮像画像が撮像された環境に関する情報を用いてコンテンツを取得する、請求項1〜5のいずれかに記載の情報処理装置。
  7. 前記コンテンツ取得部は、前記撮像画像が撮像された環境に関する情報として前記撮像画像が撮像された日時の情報を用いてコンテンツを取得する、請求項6に記載の情報処理装置。
  8. 前記コンテンツ取得部は、前記撮像画像が撮像された環境に関する情報として前記撮像画像が撮像された場所の情報を用いてコンテンツを取得する、請求項6または7に記載の情報処理装置。
  9. 前記コンテンツ取得部は、前記撮像画像が撮像された時点の状況として前記撮像画像を取得したユーザの属性を用いてコンテンツを取得する、請求項1〜8のいずれかに記載の情報処理装置。
  10. 撮像画像を取得し、該撮像画像に含まれている拡張現実コンテンツを表示するための所定のトリガ情報を認識するトリガ認識ステップと、
    前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識ステップで認識された前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、
    を備え、
    前記コンテンツ取得ステップでは、前記トリガ情報に関連する少なくとも1つの他のトリガ情報が前記所定のトリガ情報に存在する場合、前記トリガ情報に対応する前記拡張現実情報と前記少なくとも1つの他のトリガ情報とを含む前記コンテンツが取得される、プロセッサによるコンテンツ提供方法。
  11. コンピュータに、
    撮像画像を取得し、該撮像画像に含まれている拡張現実コンテンツを表示するための所定のトリガ情報を認識するトリガ認識ステップと、
    前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識ステップで認識された前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得ステップと、
    を実行させ、
    前記コンテンツ取得ステップでは、前記トリガ情報に関連する少なくとも1つの他のトリガ情報が前記所定のトリガ情報に存在する場合、前記トリガ情報に対応する前記拡張現実情報と前記少なくとも1つの他のトリガ情報とを含む前記コンテンツが取得される、コンピュータプログラム。
JP2012285514A 2012-12-27 2012-12-27 情報処理装置、コンテンツ提供方法及びコンピュータプログラム Active JP6286123B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012285514A JP6286123B2 (ja) 2012-12-27 2012-12-27 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
US14/104,220 US9418293B2 (en) 2012-12-27 2013-12-12 Information processing apparatus, content providing method, and computer program
CN201310711161.7A CN103902641B (zh) 2012-12-27 2013-12-20 信息处理设备,内容提供方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012285514A JP6286123B2 (ja) 2012-12-27 2012-12-27 情報処理装置、コンテンツ提供方法及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2014127148A JP2014127148A (ja) 2014-07-07
JP2014127148A5 JP2014127148A5 (ja) 2016-02-12
JP6286123B2 true JP6286123B2 (ja) 2018-02-28

Family

ID=50993967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012285514A Active JP6286123B2 (ja) 2012-12-27 2012-12-27 情報処理装置、コンテンツ提供方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US9418293B2 (ja)
JP (1) JP6286123B2 (ja)
CN (1) CN103902641B (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140067869A1 (en) * 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US10289204B2 (en) * 2012-11-15 2019-05-14 Quantum Interface, Llc Apparatuses for controlling electrical devices and software programs and methods for making and using same
JP2015090553A (ja) * 2013-11-05 2015-05-11 株式会社ソニー・コンピュータエンタテインメント 端末装置、付加情報管理装置、および付加情報管理方法
JP6422259B2 (ja) * 2014-08-05 2018-11-14 株式会社ステラリンク 情報提供システム
WO2016093106A1 (ja) * 2014-12-11 2016-06-16 恵比寿十四株式会社 情報提示装置、情報提示システム、情報提示方法および情報提示プログラム
JP6731605B2 (ja) * 2014-12-11 2020-07-29 株式会社リリピア 情報提示装置、情報提示システム、情報提示方法および情報提示プログラム
JP6622990B2 (ja) * 2015-06-29 2019-12-18 オリンパス株式会社 情報弁別装置、情報弁別方法及び情報弁別プログラム
JP6256430B2 (ja) * 2015-08-17 2018-01-10 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
US20170116664A1 (en) * 2015-10-27 2017-04-27 Sk Planet Co., Ltd. Method and apparatus for constructing information about location of displayed commodity
CN105577820A (zh) * 2016-01-27 2016-05-11 姚茜晨 基于云端匹配通过手机app进行商品即拍即售的方法
JP6900633B2 (ja) * 2016-04-13 2021-07-07 凸版印刷株式会社 携帯通信端末、携帯通信端末を制御するためのプログラム、情報処理方法、および、コンピュータに情報処理方法を実現させるためのプログラム
CN108697934A (zh) 2016-04-29 2018-10-23 奥瑞斯玛有限公司 与目标图像有关的引导信息
TWI615776B (zh) * 2016-12-23 2018-02-21 李雨暹 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
CN107123013B (zh) 2017-03-01 2020-09-01 阿里巴巴集团控股有限公司 基于增强现实的线下交互方法及装置
JP6395012B1 (ja) * 2017-03-17 2018-09-26 ラスパンダス株式会社 コンピュータプログラム
CN107230237A (zh) * 2017-06-19 2017-10-03 歌尔科技有限公司 信息处理方法及装置
US10949667B2 (en) * 2017-09-14 2021-03-16 Ebay Inc. Camera platform and object inventory control
CN108108023B (zh) * 2018-01-02 2021-02-19 联想(北京)有限公司 一种显示方法和显示系统
US10558878B2 (en) 2018-01-19 2020-02-11 Timothy R. Fitzpatrick System and method for organizing edible or drinkable materials
CN108932632A (zh) * 2018-06-01 2018-12-04 北京市商汤科技开发有限公司 广告互动方法及装置、电子设备和存储介质
JP7110738B2 (ja) * 2018-06-05 2022-08-02 大日本印刷株式会社 情報処理装置、プログラム及び情報処理システム
US10916220B2 (en) 2018-08-07 2021-02-09 Apple Inc. Detection and display of mixed 2D/3D content
KR20200017325A (ko) * 2018-08-08 2020-02-18 주식회사 소울핑거 증강현실 컨텐츠 제공 시스템 및 방법
JP6889304B1 (ja) * 2020-03-31 2021-06-18 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
JP7364757B1 (ja) 2022-09-02 2023-10-18 株式会社電通 情報処理システム、情報処理方法、プログラム、記憶媒体及び情報処理装置
JP2024049672A (ja) * 2022-09-29 2024-04-10 富士フイルム株式会社 システム、端末、サーバ、画像表示方法、及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678425B1 (en) * 1999-12-06 2004-01-13 Xerox Corporation Method and apparatus for decoding angular orientation of lattice codes
US6935562B2 (en) * 1999-12-06 2005-08-30 Xerox Corporation Operations on images having glyph carpets
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP5032798B2 (ja) * 2006-03-24 2012-09-26 富士フイルム株式会社 情報提供装置、情報提供システムおよび情報提供方法
JP5063023B2 (ja) * 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
US8726195B2 (en) * 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
US8023725B2 (en) * 2007-04-12 2011-09-20 Samsung Electronics Co., Ltd. Identification of a graphical symbol by identifying its constituent contiguous pixel groups as characters
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
US20100309226A1 (en) * 2007-05-08 2010-12-09 Eidgenossische Technische Hochschule Zurich Method and system for image-based information retrieval
US20090286570A1 (en) * 2008-05-15 2009-11-19 Sony Ericsson Mobile Communications Ab Portable communication device and method of processing embedded visual cues
JP2010039095A (ja) * 2008-08-04 2010-02-18 Seiko Epson Corp 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム
US8831279B2 (en) * 2011-03-04 2014-09-09 Digimarc Corporation Smartphone-based methods and systems
US20110153341A1 (en) * 2009-12-17 2011-06-23 General Electric Company Methods and systems for use of augmented reality to improve patient registration in medical practices
KR101002030B1 (ko) * 2010-04-30 2010-12-16 (주)올라웍스 단말 장치로 입력되는 입력 영상 및 상기 입력 영상에 관련된 정보를 이용하여 증강 현실을 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US20110287811A1 (en) * 2010-05-21 2011-11-24 Nokia Corporation Method and apparatus for an augmented reality x-ray
KR101338818B1 (ko) * 2010-11-29 2013-12-06 주식회사 팬택 이동 단말기 및 이를 이용한 정보 표시 방법
JP2012155655A (ja) 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP5765019B2 (ja) * 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2012215989A (ja) * 2011-03-31 2012-11-08 Toppan Printing Co Ltd 拡張現実表示方法
JP2013105345A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報登録装置、情報登録方法、情報登録システム、情報提示装置、情報提示方法、情報提示システムおよびプログラム

Also Published As

Publication number Publication date
US9418293B2 (en) 2016-08-16
JP2014127148A (ja) 2014-07-07
CN103902641A (zh) 2014-07-02
CN103902641B (zh) 2019-03-22
US20140185871A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6286123B2 (ja) 情報処理装置、コンテンツ提供方法及びコンピュータプログラム
CN105283896B (zh) 营销系统以及营销方法
JP6070705B2 (ja) 情報処理装置、そのデータ処理方法、およびプログラム
CN203224887U (zh) 显示控制设备
TWI624796B (zh) Method for accessing network information through graphic coding, client device and server
CN108388637A (zh) 一种用于提供增强现实服务的方法、装置以及相关设备
US20150067041A1 (en) Information services for real world augmentation
JP2012190094A (ja) サーバ装置、情報処理方法及びプログラム
JP6120467B1 (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
US20150088637A1 (en) Information processing system, information processing method, and non-transitory computer readable storage medium
CN104025615A (zh) 交互式视频流
WO2014017393A1 (ja) 情報処理装置、そのデータ処理方法、およびプログラム
JP2018128955A (ja) スクリーンショット画像解析装置、スクリーンショット画像解析方法、およびプログラム
JP2007200099A (ja) アイテム選択支援装置、方法およびプログラム
JP2012027746A (ja) コンテンツシステム、サーバ装置及びサーバ装置の動作方法
KR101096365B1 (ko) 로고를 이용한 모바일 서비스 방법 및 이를 수행하는 이동 통신 단말기
JP2013250743A (ja) コーディネート提案装置、コーディネート提案システム、コーディネート提案方法、プログラム、記録媒体
KR20170091803A (ko) 가상 피팅 장치 및 그 동작 방법
JP7281012B1 (ja) プログラム、情報処理方法及び情報処理システム
JP2017228278A (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
JP2012048648A (ja) 情報サービスシステムおよび情報サービス方法
JP6580762B1 (ja) 仮想カプセルトイゲームシステム及び仮想カプセルトイゲーム方法
JP6422259B2 (ja) 情報提供システム
KR101523349B1 (ko) 피사체의 시각적 정보 기반 소셜 네트워크 서비스 시스템
US20160225001A1 (en) Information processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151214

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R150 Certificate of patent or registration of utility model

Ref document number: 6286123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350