JP2016212621A - コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法 - Google Patents

コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法 Download PDF

Info

Publication number
JP2016212621A
JP2016212621A JP2015095614A JP2015095614A JP2016212621A JP 2016212621 A JP2016212621 A JP 2016212621A JP 2015095614 A JP2015095614 A JP 2015095614A JP 2015095614 A JP2015095614 A JP 2015095614A JP 2016212621 A JP2016212621 A JP 2016212621A
Authority
JP
Japan
Prior art keywords
content
unit
information
image
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015095614A
Other languages
English (en)
Other versions
JP6582526B2 (ja
Inventor
正行 中里
Masayuki Nakazato
正行 中里
平 張
Ping Jang
平 張
友治 佐藤
Tomoji Sato
友治 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2015095614A priority Critical patent/JP6582526B2/ja
Priority to PCT/JP2016/062523 priority patent/WO2016181780A1/ja
Priority to TW105113907A priority patent/TW201706963A/zh
Publication of JP2016212621A publication Critical patent/JP2016212621A/ja
Application granted granted Critical
Publication of JP6582526B2 publication Critical patent/JP6582526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザが選択したオブジェクトの画像を合成した三次元画像のコンテンツを提供する。【解決手段】三次元画像コンテンツを視聴するためのHMD2の表示装置として用いられる端末装置3は、媒体5から取得したオブジェクトIDと、オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とをコンテンツ提供装置1に送信する。コンテンツ提供装置1は、背景の三次元画像コンテンツに、受信したオブジェクトIDに対応したオブジェクトの三次元画像コンテンツを、受信した配置位置情報から得られた三次元上の位置に配置するように合成する。コンテンツ提供装置1は、合成により生成された配信用の三次元画像コンテンツを、端末装置3に送信する。端末装置3は、コンテンツ提供装置1から受信した三次元画像コンテンツを表示させる。【選択図】図1

Description

本発明は、コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法に関する。
右目用画像と左目用画像の視差を利用してコンテンツを3D(三次元)に見せる技術は公知の技術として広く知られている。また、(ゲーム)カードや雑誌に付された二次元バーコードをスマートフォンなどの端末で読み込み、二次元バーコードに紐付けられたコンテンツをダウンロードして視聴する技術がある(例えば、特許文献1参照)。
特開2011−22798号公報
消費者が家具の購入を検討する場合、自宅の間取りと家具の調和が購入を決定する重要な因子となる。また、消費者は、ダイニングテーブルとチェア、ソファとコーヒーテーブルなど、複数種類の家具をセットで購入するか否かを検討することも少なくない。そこで、消費者が、自宅の間取りと購入を検討している家具とを組み合わせて3D画像で見ることができれば、家具を購入するか否かの決断に非常に役立つと考えられる。家具の販売業者がそのような3D画像を消費者に提供できれば、購入予定の消費者に家具選びを楽しんでもらいながらも、家具設置後の明確なイメージを確認して購入を検討してもらうことができ、購買促進に繋げることができる。
また、複数のキャラクターが登場する3D画像のカードゲームに、ユーザが選択したキャラクターを登場させることができれば、ユーザにより魅力的なコンテンツを提供することができる。
本発明は、このような事情を考慮してなされたもので、ユーザが選択したオブジェクトの画像を合成した三次元画像のコンテンツを提供することができるコンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法を提供する。
上記目的を達成するために、本発明は、端末装置と、三次元画像コンテンツを前記端末装置に提供するコンテンツ提供装置とを有するコンテンツ提供システムであって、前記端末装置は、オブジェクトを特定するオブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを前記コンテンツ提供装置に送信する送信部と、送信した前記オブジェクト識別情報及び前記配置位置情報に対応して前記コンテンツ提供装置から受信した三次元画像コンテンツを表示させる表示制御部と、を備え、前記コンテンツ提供装置は、前記オブジェクト識別情報と、前記オブジェクト識別情報により特定される前記オブジェクトの三次元画像コンテンツであるオブジェクトコンテンツとを対応付けて記憶する記憶部と、前記オブジェクト識別情報及び前記配置位置情報を前記端末装置から受信するオブジェクト情報受信部と、背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報に対応した前記オブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成部と、前記合成部により生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信部と、を備える、ことを特徴とするコンテンツ提供システムである。
また、上記目的を達成するために、本発明は、オブジェクト識別情報と、前記オブジェクト識別情報により特定されるオブジェクトの三次元画像コンテンツであるオブジェクトコンテンツとを対応付けて記憶する記憶部と、前記オブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを端末装置から受信するオブジェクト情報受信部と、背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報に対応した前記オブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成部と、前記合成部により生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信部と、を備えることを特徴とするコンテンツ提供装置である。
また、本発明は、上述したコンテンツ提供装置であって、前記端末装置から前記オブジェクトの配置位置または向きの補正を指示する補正指示を受信する補正指示受信部をさらに備え、前記合成部は、配信用の前記三次元画像コンテンツにおいて前記オブジェクトコンテンツが配置された位置または向きを、受信した前記補正指示に応じて補正する、ことを特徴とする。
また、本発明は、上述したコンテンツ提供装置であって、前記記憶部は、前記オブジェクト識別情報に対応付けて、前記オブジェクトの属性を示す属性情報をさらに記憶し、前記合成部は、前記配置位置情報から得られた三次元上の位置を、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて補正し、前記背景コンテンツに、前記オブジェクトコンテンツを、補正した位置に配置するように合成した配信用の前記三次元画像コンテンツを生成する、ことを特徴とする。
また、本発明は、上述したコンテンツ提供装置であって、前記合成部は、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて、配信用の前記三次元画像コンテンツに配置された前記オブジェクトコンテンツの向きを補正する、ことを特徴とする。
また、本発明は、上述したコンテンツ提供装置であって、前記合成部は、配信用の前記三次元画像コンテンツの表示に関する属性を、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて補正する、ことを特徴とする。
また、本発明は、上述したコンテンツ提供装置であって、前記端末装置からユーザの向き、あるいは、ユーザの向き及び位置を示す視聴方向情報を受信する視聴方向情報受信部をさらに備え、前記コンテンツ送信部は、配信用の前記三次元画像コンテンツから、前記視聴方向情報が示す前記ユーザの向き、あるいは、前記ユーザの向き及び位置に応じた領域の三次元画像コンテンツを抽出して前記端末装置に送信する、ことを特徴とする。
また、本発明は、上述したコンテンツ提供装置であって、前記合成部は、所定のオブジェクト識別情報の組み合わせを受信した場合、配信用の前記三次元画像コンテンツに、前記組み合わせに応じた加工を行う、ことを特徴とする。
また、上記目的を達成するために、本発明は、コンテンツ提供装置が実行するコンテンツ提供方法であって、オブジェクト情報受信部が、オブジェクトを特定するオブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを端末装置から受信するオブジェクト情報受信ステップと、合成部が、背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報により特定される前記オブジェクトの三次元画像コンテンツであるオブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成ステップと、コンテンツ送信部が、前記合成ステップにより生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信ステップと、を有することを特徴とするコンテンツ提供方法である。
本発明によれば、ユーザが選択したオブジェクトの画像を合成した三次元画像のコンテンツを提供することができる。
本発明の一実施形態によるコンテンツ提供システムの構成図である。 同実施形態によるコンテンツ提供装置の機能ブロック図である。 同実施形態によるHMD(ヘッドマウントディスプレイ)の外観図である。 同実施形態による端末装置の機能ブロック図である。 同実施形態によるオブジェクトコンテンツ管理情報を示す図である。 同実施形態による端末装置におけるコンテンツ要求処理のフロー図である。 同実施形態によるコンテンツ提供装置におけるコンテンツ提供処理のフロー図である。 同実施形態によるHMDをユーザが使用する状況を示す図である。 同実施形態によるオブジェクトコンテンツ管理情報の設定例を示す図である。 同実施形態による配信用三次元画像コンテンツの生成例を示す図である。 同実施形態による配信用三次元画像コンテンツの例を示す図である。 同実施形態によるオブジェクトコンテンツ管理情報の設定例を示す図である。 同実施形態による端末装置が表示する三次元画像コンテンツの例を示す図である。
以下、図面を参照しながら本発明の実施形態を詳細に説明する。
図1は、本発明の一実施形態によるコンテンツ提供システムの構成図である。同図に示すように、コンテンツ提供システムは、コンテンツ提供装置1と、ヘッドマウントディスプレイ(以下、「HMD」と記載する。)2と、媒体5とを備えて構成される。同図では、HMD2、及び、媒体5をそれぞれ1つのみ示しているが、現実には複数が存在する。また、コンテンツ提供装置1が複数台備えられてもよい。
コンテンツ提供装置1は、三次元画像コンテンツを配信する。三次元画像コンテンツは、動画や静止画などの画像を三次元に見せるコンテンツデータである。本実施形態の三次元画像コンテンツは、表示画面の右半分に右目用画像を、左半分に左目用画像を表示させる。
HMD2は、三次元画像コンテンツを視聴するために用いられる立体視用器具の一例である。ヘッドマウントディスプレイ2は、端末装置3を表示装置として利用する。なお、立体視用器具は、HMD2のほか、端末装置3に表示される三次元画像コンテンツを視聴するために用いられる眼鏡であってもよい。
端末装置3は、例えば、スマートフォン、タブレット端末などの通信機能を有するコンピュータ端末であり、コンテンツ提供装置1から配信された三次元画像コンテンツをディスプレイに表示する。コンテンツ提供装置1と端末装置3とは、インターネットなどのネットワーク9を介して接続される。
媒体5からは、背景コンテンツに画像を重畳(合成)するオブジェクトを特定するための情報であるオブジェクトID(オブジェクト識別情報)を取得可能である。背景コンテンツとは、背景となる動画または静画の三次元画像コンテンツである。例えば、背景は部屋であり、オブジェクトは部屋に設置する椅子、テーブル、照明、カーテン、絵画などである。また、背景はゲームや物語が展開する場所であり、オブジェクトはゲームや物語に登場するキャラクターである。オブジェクトは、実際に物として画像を表示する対象だけではなく、画像の表示に関する属性を変化させる要因となるものであってもよい。例えば、太陽のオブジェクトは、画像の明るさを明るく変化させる。
媒体5は、例えば、オブジェクトIDを表す文字列や画像(例えば、二次元バーコードなど)が印刷されたカード、タグ、シール、マーカーなどである。媒体5として、カード等を用いる場合、その媒体5からどのオブジェクトのオブジェクトIDが得られるかをユーザが認識しやすいように、オブジェクトの写真や絵、オブジェクト名、オブジェクトの説明等が印刷または書かれたものを使用することが好ましい。また、媒体5であるカードやタグ、シール、マーカーを、その媒体5から得られるオブジェクトIDにより特定されるオブジェクト(例えば、家具など)の実物に貼付してもよい。また、媒体5は、オブジェクトIDを記憶したRFID(Radio Frequency Identification)であってもよい。オブジェクトIDを記憶したRFIDは、例えば、カードや実物のオブジェクトに貼付される。
図2は、コンテンツ提供装置1の構成を示す機能ブロック図であり、本実施形態と関係する機能ブロックのみを抽出して示してある。コンテンツ提供装置1は、1台または複数台のコンピュータサーバにより実現され、記憶部11と、通信部12と、処理部13とを備えて構成される。
記憶部11は、背景コンテンツや、オブジェクトコンテンツ管理情報などの各種情報を記憶する。オブジェクトコンテンツ管理情報は、オブジェクトIDと、オブジェクトコンテンツと、オブジェクトの属性情報を対応付けたデータである。オブジェクトコンテンツは、オブジェクトの動画または静画の三次元画像コンテンツである。属性情報は、オブジェクトの配置位置に関する属性や、画像の表示に関する属性にどのような影響を与える(加工を行う)かの属性を示す。
通信部12は、ネットワーク9を介して他の装置とデータを送受信する。
処理部13は、視聴方向情報受信部131と、オブジェクト情報受信部132と、合成部133と、コンテンツ送信部134と、補正指示受信部135と、削除指示受信部136とを備えて構成される。
視聴方向情報受信部131は、ユーザの視聴方向、すなわち、ユーザが向いている方向を示す視聴方向情報を端末装置3から受信する。視聴方向情報は、ユーザの現在位置の情報を含み得る。現在位置は、地理的な絶対位置でもよく、背景コンテンツの画像における所定位置を基準とした相対位置でもよい。
オブジェクト情報受信部132は、オブジェクトIDと、オブジェクトの画像を配置する三次元上の位置を取得可能な情報を示す配置位置情報とを端末装置3から受信する。配置位置情報には、地理的な絶対位置を設定してもよく、背景コンテンツの画像における所定位置を基準とした相対位置や方向を設定してもよい。
合成部133は、背景コンテンツに、受信したオブジェクトIDに対応したオブジェクトコンテンツを、受信した配置位置情報から取得した三次元上の位置に配置するように合成し、配信用の三次元画像コンテンツである配信用三次元画像コンテンツを生成する。なお、合成部133は、配置位置情報が地理的な絶対位置を示す場合、その絶対位置を、背景コンテンツの画像における位置に変換する。
コンテンツ送信部134は、合成部133により生成された配信用三次元画像コンテンツから、視聴方向情報に基づいて抽出した三次元画像コンテンツを端末装置3に送信する。
補正指示受信部135は、配信用三次元画像コンテンツに重畳されているオブジェクトコンテンツの配置位置または向きの補正を指示する補正指示を受信する。合成部133は、配信用三次元画像コンテンツにおいてオブジェクトコンテンツが配置された位置または向きを、位置情報補正指示に従って補正する。
削除指示受信部136は、配信用三次元画像コンテンツに重畳されているオブジェクトコンテンツの削除を指示する削除指示を受信する。合成部133は、削除指示により削除が指示されたオブジェクトコンテンツを、配信用三次元画像コンテンツから削除する。
図3は、HMD2の外観図である。同図は、端末装置3としてスマートフォンを利用する場合のHMD2の例を示している。
HMD2が備える右目用レンズ21は、端末装置3がディスプレイの右側に表示する右目用画像を見るためのレンズであり、HMD2が備える左目用レンズ22は、端末装置3がディスプレイの左側に表示する左目用画像を見るためのレンズである。HMD2には、右目用レンズ21を通して左目用画像が見えないように、また、左目用レンズ22を通して右目用画像が見えないように仕切り23が取り付けられる。ユーザは、端末装置3の画面が表示する右目用画像と左目用画像の区切り付近に、仕切り23のレンズとは反対側の縁が重なるように、端末装置3をセットする。ユーザは、右目用レンズ21及び左目用レンズ22を通して、端末装置3が表示する三次元画像コンテンツを視聴する。
図4は、端末装置3の構成を示す機能ブロック図であり、本実施形態と関係する機能ブロックのみを抽出して示してある。端末装置3は、例えば、スマートフォンであるが、タブレット端末、携帯電話端末、可搬のパーソナルコンピュータなどであってもよい。端末装置3は、入力部31と、処理部32と、検出部33と、撮像部34と、通信部35と、表示部36とを備えて構成される。なお、媒体5がRFIDである場合、端末装置3はタグリーダを備える。
入力部31は、ユーザの操作による情報の入力を受ける。処理部32は、視聴方向情報取得部321と、オブジェクト識別取得部322と、配置位置情報取得部323と、送信部324と、コンテンツ受信部325と、表示制御部326とを備えて構成される。視聴方向情報取得部321は、視聴方向情報を取得する。オブジェクト識別取得部322は、媒体5に記録されているオブジェクトIDを取得する。配置位置情報取得部323は、オブジェクトの画像を配置する三次元上の位置を表す配置位置情報を取得する。送信部324は、視聴方向情報、オブジェクトID、配置位置情報などの各種情報をコンテンツ提供装置1に送信する。また、送信部324は、入力部31により入力されたユーザ操作に基づいて、補正指示や削除指示をコンテンツ提供装置1に送信する。コンテンツ受信部325は、コンテンツ提供装置1から三次元画像コンテンツを受信する。表示制御部326は、三次元画像コンテンツなどの各種データを表示部36に表示させる。検出部33は、向きを検出するセンサである。また、検出部33は、現在位置の情報を得るGPS(Global Positioning System)を含んで構成されてもよい。撮像部34は、カメラである。通信部35は、ネットワーク9を介して情報を送受信する。表示部36は、ディスプレイであり、データを表示する。端末装置3がスマートフォンである場合、表示部36はタッチパネルであり、入力部31はタッチパネルに配されたセンサである。
図5は、オブジェクトコンテンツ管理情報のデータ構成例を示す図である。同図に示すオブジェクトコンテンツ管理情報は、オブジェクトIDと、オブジェクト名と、オブジェクトコンテンツと、属性情報とを対応付けた情報である。1つのオブジェクトIDに対応してオブジェクトコンテンツと属性情報のいずれかのみが設定されてもよい。属性情報は、配置位置属性と画像加工属性の情報を含む。配置位置属性は、オブジェクトを配置する位置に関する属性を示す。画像加工属性は、画像の表示に関する属性にどのような影響を与える(加工を行う)かの属性を示す。属性情報に、配置位置属性と画像加工属性の一方のみが設定されてもよい。
続いて、コンテンツ提供システムの動作について説明する。
図6は、端末装置3におけるコンテンツ要求処理のフロー図である。
ユーザが端末装置3の入力部31によりコンテンツ要求を入力すると、視聴方向情報取得部321は、視聴方向情報を取得する(ステップS105)。例えば、視聴方向情報取得部321は、検出部33から方向や現在位置の情報を取得し、視聴方向情報とする。なお、視聴方向情報取得部321は、検出部33を構成するGPSから現在位置の情報を取得する代わりに、現在ユーザが居る建物の壁や床、ユーザが居る場所に設置してある看板や像などに備えられた通信装置から近距離通信により位置の情報を受信して現在位置の情報としてもよい。近距離通信には、WiFi(登録商標)、bluetooth(登録商標)、可視光通信、赤外線通信、NFC(Near field communication)などを用いることができる。あるいは、現在ユーザが居る建物の壁や床、ユーザが居る場所に設置してある看板や像などに貼られたポスターやマーカーに描かれた位置の情報を示す文字や画像(二次元バーコードなど)を撮像部34により撮像してもよい。視聴方向情報取得部321は、撮像された画像のデータから位置の情報を取得し、現在位置の情報とする。送信部324は、視聴方向情報取得部321が取得した視聴方向情報をコンテンツ提供装置1に送信する(ステップS110)。
コンテンツ受信部325は、コンテンツ提供装置1から三次元画像コンテンツを受信する(ステップS115)。表示制御部326は、受信した三次元画像コンテンツを表示部36に表示させる(ステップS120)。
処理部32は、オブジェクトIDの取得指示が入力されないと判断した場合(ステップS125:NO)、後述するステップS145の処理を行う。
一方、処理部32が入力部31によりオブジェクトIDの取得指示が入力されたと判断した場合(ステップS125:YES)、オブジェクト識別取得部322は、媒体5に記録されているオブジェクトIDを取得する(ステップS130)。例えば、撮像部34により、媒体5に印刷されているオブジェクトIDを表す文字や画像を撮像する。オブジェクト識別取得部322は、撮像された画像のデータからオブジェクトIDを取得する。あるいは、媒体5がRFIDである場合、オブジェクト識別取得部322は、タグリーダが媒体5から読み出したオブジェクトIDを取得する。またあるいは、媒体5が通信機器である場合、オブジェクト識別取得部322は、近距離通信により媒体5から送信されるオブジェクトIDを受信する。
続いて、配置位置情報取得部323は、配置位置情報を取得する(ステップS135)。例えば、配置位置情報取得部323は、検出部33を構成するGPSから現在位置の情報を取得し、配置位置情報とする。あるいは、配置位置情報取得部323は、検出部33から取得したユーザの向きの情報を配置位置情報としてもよい。配置位置情報がユーザの向きを示す場合、背景コンテンツ(または配信用三次元画像コンテンツ)の画像における三次元上の所定位置からユーザの向きに所定距離だけ進んだ位置が配置位置となる。またあるいは、配置位置情報取得部323は、現在ユーザが居る建物の壁や床、ユーザが居る場所に設置してある看板や像などに備えられた通信装置から近距離通信により位置の情報を受信して配置位置情報としてもよい。あるいは、現在ユーザが居る建物の壁や床、ユーザが居る場所に設置してある看板や像などに貼られたポスターやマーカーに描かれた位置の情報を示す文字や画像を撮像部34により撮像してもよい。視聴方向情報取得部321は、撮像された画像のデータから位置の情報を取得して配置位置情報とする。送信部324は、オブジェクト識別取得部322が取得したオブジェクトID及び配置位置情報取得部323が取得した配置位置情報をコンテンツ提供装置1に送信する(ステップS140)。端末装置3の処理部32は、ステップS115からの処理を繰り返す。
ステップS125において処理部32がNOと判断した後、送信部324は、オブジェクトの位置または向きの補正指示が入力されたか否かを判断する(ステップS145)。送信部324は、オブジェクトの補正指示が入力されていないと判断した場合(ステップS145:NO)、後述するステップS155の処理を行う。
一方、送信部324は、補正指示が入力されたと判断した場合(ステップS145:YES)、入力された補正指示をコンテンツ提供装置1に送信する(ステップS150)。
例えば、オブジェクトの画像の位置を移動させたい場合、ユーザは、タッチパネルに表示されているオブジェクトの画像に指でタッチし、移動させたい方向に動かす(ドラッグ操作)。送信部324は、タッチされた画面上の位置に画像が表示されていたオブジェクトのオブジェクトIDと、移動方向と移動量を設定した補正指示をコンテンツ提供装置1に送信する。移動量は、指をタッチパネルにタッチしたまま動かした距離に応じた情報である。あるいは、ユーザは、HMD2を持ったまま、頭を移動させたい方向に振る。検出部33が備えるセンサは、頭が振られた方向を検出し、送信部324は、その検出された方向を移動方向として設定した補正指示をコンテンツ提供装置1に送信する。このとき、送信部324は、頭が振られた速さや、頭が振られた距離に応じた移動量を補正指示に設定してもよい。またあるいは、端末装置3に、視線を検出するセンサを備えておき、ユーザが視線を動かした方向を検出する。送信部324は、ユーザの視線が当たっていた位置に画像が表示されていたオブジェクトのオブジェクトIDと、検出された方向を移動方向として設定した補正指示をコンテンツ提供装置1に送信する。このとき、送信部324は、視線が動いた距離に応じた移動量を補正指示に設定してもよい。
また、オブジェクトの画像の向きを回転させたい場合、ユーザは、タッチパネルに表示されているオブジェクトの画像をタップするなどの操作を行う。送信部324は、タップされた画面上の位置に画像が表示されていたオブジェクトのオブジェクトIDと、回転を設定した補正指示をコンテンツ提供装置1に送信する。
端末装置3の処理部32は、ステップS115からの処理を繰り返す。
送信部324は、ステップS145においてNOと判断した後、オブジェクトの削除指示が入力されたか否かを判断する(ステップS155)。
送信部324は、オブジェクトの削除指示が入力されたと判断した場合(ステップS155:YES)、入力された削除指示をコンテンツ提供装置1に送信する(ステップS160)。例えば、ユーザは、タッチパネルに表示されている削除対象のオブジェクトの画像に指でタッチして画面外の方向にフリック操作をしたり、削除対象のオブジェクトの画像をダブルタップしたりする。送信部324は、このような削除操作が行われたオブジェクトのオブジェクトIDを設定した削除指示をコンテンツ提供装置1に送信する。
端末装置3の処理部32は、ステップS115からの処理を繰り返す。
一方、送信部324において、オブジェクトの削除指示が入力されていないと判断した場合(ステップS155:NO)、処理部32は、入力部31により処理終了が入力されたか否かを判断する(ステップS165)。処理部32は、処理終了が入力されていないと判断した場合(ステップS165:NO)、ステップS105からの処理を繰り返す。
そして、処理部32は、ステップS165において処理終了が入力されたと判断した場合(ステップS165:YES)、処理を終了する。
図7は、コンテンツ提供装置1におけるコンテンツ提供処理のフロー図である。
コンテンツ提供装置1の合成部133は、視聴方向情報受信部131が端末装置3から視聴方向情報を受信したか否かを判断する(ステップS205)。合成部133は、視聴方向情報受信部131が視聴方向情報を受信していないと判断した場合(ステップS205:NO)、後述するステップS220の処理を行う。
合成部133は、視聴方向情報受信部131が視聴方向情報を受信したと判断した場合(ステップS205:YES)、配信用三次元画像コンテンツを生成済みであるか否かを判断する(ステップS210)。合成部133は、配信用三次元画像コンテンツを生成済みであると判断した場合(ステップS210:YES)、後述するステップS220の処理を行う。
合成部133は、配信用三次元画像コンテンツをまだ生成していないと判断した場合(ステップS210:NO)、記憶部11から背景コンテンツを読み出し、配信用三次元画像コンテンツとする(ステップS215)。なお、端末装置3から背景コンテンツを特定する情報をさらに受信してもよい。合成部133は、受信した情報により特定される背景コンテンツを記憶部11から読み出し、配信用三次元画像コンテンツとする。
合成部133は、ステップS205でNOと判断した後、ステップS210でYESと判断した後、あるいは、ステップS215の処理の後、オブジェクト情報受信部132がオブジェクトID及び配置位置情報を受信したか否かを判断する(ステップS220)。合成部133は、オブジェクト情報受信部132がオブジェクトID及び配置位置情報を受信していないと判断した場合(ステップS220:NO)、後述するステップS245の処理を行う。
一方、合成部133は、オブジェクト情報受信部132がオブジェクトID及び配置位置情報を受信したと判断した場合(ステップS220:YES)、ステップS225の処理を行う。すなわち、合成部133は、受信したオブジェクトIDに対応したオブジェクトコンテンツ及び属性情報を記憶部11に記憶されるオブジェクトコンテンツ管理情報から読み出す(ステップS225)。合成部133は、受信した配置位置情報から配信用三次元画像コンテンツにおける三次元上の配置位置を得る。合成部133は、配置位置情報が地理的な絶対位置を示す場合は、背景画像における位置に変換する。合成部133は、現在の配信用三次元画像コンテンツに、読み出したオブジェクトコンテンツを、配信用三次元画像コンテンツにおける配置位置に配置するように重畳(合成)して、更新後の配信用三次元画像コンテンツを生成する(ステップS230)。配信用三次元画像コンテンツに重畳されるオブジェクトコンテンツには、そのオブジェクトコンテンツのオブジェクトIDが付加される。
さらに、合成部133は、読み出した属性情報が示す配置位置属性に従って、ステップS230において配置したオブジェクトコンテンツの三次元上の配置位置を補正する(ステップS235)。なお、合成部133は、合成前に、受信した配置位置情報が示す配置位置を配置位置属性に従って補正してもよい。この場合、合成部133は、現在の配信用三次元画像コンテンツに、オブジェクトコンテンツを、配信用三次元画像コンテンツにおける補正後の配置位置に配置するように重畳(合成)して、更新後の配信用三次元画像コンテンツを生成する。また、合成部133は、さらに、配置位置属性に従って、オブジェクトコンテンツの向きを補正してもよい。合成部133は、生成した配信用三次元画像コンテンツの表示に関する属性に、読み出した属性情報が示す画像加工属性に応じた加工を行う(ステップS240)。
なお、ステップS225において、オブジェクトコンテンツが読み出されなかった場合は、合成部133は、ステップS230及びステップS235の処理を行わない。また、合成部133は、属性情報に配置位置属性が設定されていない場合、ステップS235の処理を行わず、属性情報に画像加工属性が設定されていない場合、ステップS240の処理を行わない。
合成部133は、ステップS220においてNOと判断した後、または、ステップS240の処理の後、補正指示受信部135が端末装置3から補正指示を受信したか否かを判断する(ステップS245)。合成部133は、補正指示受信部135が補正指示を受信していないと判断した場合(ステップS245:NO)、後述するステップS255の処理を行う。
合成部133は、補正指示受信部135が補正指示を受信したと判断した場合(ステップS245:YES)、補正指示に従って、配信用三次元画像コンテンツにおけるオブジェクトコンテンツの配置位置または向きを補正する(ステップS250)。
具体的には、合成部133は、配信用三次元画像コンテンツにおけるオブジェクトコンテンツの現在の配置位置を、補正指示が示す移動方向及び移動量に応じて補正する。補正指示にオブジェクトIDが設定されている場合、合成部133は、そのオブジェクトIDにより特定されるオブジェクトコンテンツのみ配置位置を移動する。また、補正指示に移動量が設定されていない場合、合成部133は、固定の移動量だけ配置位置を移動させる。
また、補正指示にオブジェクトID及び回転が設定されている場合、合成部133は、配信用三次元画像コンテンツに重畳されているオブジェクトコンテンツのうち、補正指示に設定されているオブジェクトIDにより特定されるオブジェクトコンテンツの向きを所定方向に所定角度だけ回転させる。
合成部133は、ステップS245においてNOと判断した後、または、ステップS250の処理の後、削除指示受信部136が端末装置3から削除指示を受信したか否かを判断する(ステップS255)。合成部133は、削除指示受信部136が削除指示を受信していないと判断した場合(ステップS255:NO)、後述するステップS265の処理を行う。一方、合成部133は、削除指示受信部136が削除指示を受信したと判断した場合(ステップS255:YES)、ステップS260の処理を行う。つまり、合成部133は、配信用三次元画像コンテンツに重畳されているオブジェクトコンテンツから、削除指示に設定されているオブジェクトIDにより特定されるオブジェクトコンテンツを削除する(ステップS260)。
合成部133がステップS255においてNOと判断した場合、または、ステップS260の処理を行った後、コンテンツ送信部134は、ステップS265の処理を行う。すなわち、コンテンツ送信部134は、配信用三次元画像コンテンツから、端末装置3から受信した視聴方向情報が示すユーザの方向や位置に応じた領域(部分)の三次元画像コンテンツを抽出する(ステップS265)。視聴方向情報にユーザの位置が設定されていない場合、背景コンテンツの中心の位置など、予め決められた位置が使用される。コンテンツ送信部134は、配信用三次元画像コンテンツから抽出した三次元画像コンテンツを端末装置3に送信する(ステップS270)。
なお、端末装置3の撮像部34は、動画像データを継続して撮像し、オブジェクト識別取得部322は、ユーザが入力部31によりオブジェクトIDの取得指示を入力しなくとも、撮像部34が継続して撮像している動画像データからオブジェクトIDを表す文字や画像を検出し、検出した情報からオブジェクトIDを取得してもよい。オブジェクトIDが取得された場合、ユーザが入力部31により指示を入力しなくとも、配置位置情報取得部323は配置位置情報を取得し、送信部324はオブジェクト識別取得部322が取得したオブジェクトID及び配置位置情報取得部323が取得した配置位置情報をコンテンツ提供装置1に送信する。
上記のように、端末装置3は、撮像部34が継続して撮像を行っている間は、ユーザによる指示が入力されなくとも、動画像データからオブジェクトIDを検出し、検出したオブジェクトIDと、オブジェクトIDを検出した時の配置位置情報とをコンテンツ提供装置1に送信する処理を繰り返す。これにより、ユーザは、都度操作を行わなくとも、端末装置3の撮像部34に媒体5をかざしたり、撮像部34を媒体5に向けたりするたけで、次々とオブジェクトが追加された三次元画像コンテンツを視聴することができる。
続いて、コンテンツ提供システムの具体的な使用例を説明する。
1つ目の使用例として、ユーザが、部屋に家具を配置したイメージを3次元画像により視聴する場合を説明する。
図8は、HMD2をユーザが使用する状況を示す図である。ユーザは、家具を配置する部屋と同じ間取りの部屋Rにいる。部屋Rの床や壁には、位置情報を印刷したマーカーMが床や壁に貼ってある。
図9は、オブジェクトコンテンツ管理情報の設定例を示す図である。同図に示すようにオブジェクトコンテンツ管理情報には、椅子、カーテン、時計、…等の家具やインテリア、部屋の状況に影響を及ぼす太陽などのオブジェクトについての情報が設定される。床の上に設置するオブジェクトについては、配置位置属性を「床」とし、窓に設置するオブジェクトについては、配置位置属性を「窓」とし、壁に設置するオブジェクトについては、配置位置属性を「壁」とし、天井にぶら下げられるオブジェクトについては、配置位置属性を「天井」とする。また、画像の明るさに影響を及ぼす照明や太陽などのオブジェクトの画像加工属性には、どのように画像を加工するかが設定される。
なお、配置位置属性によりオブジェクトの向きの属性が得られるようにしてもよい。例えば、配置位置属性「床」の場合、部屋と向きが同じなるようにオブジェクトコンテンツが配置され、配置位置属性「窓」の場合、窓と並行になるようにオブジェクトコンテンツが配置され、配置位置属性「壁」の場合、壁と並行になるようにオブジェクトコンテンツを配置される。なお、配置位置属性に、オブジェクトの向きを明示的に設定してもよい。
図10は、配信用三次元画像コンテンツの生成例を示す図である。
まず、HMD2の表示装置として使用されている端末装置3の視聴方向情報取得部321は、検出部33が取得したユーザの向きと現在位置の情報を視聴方向情報としてコンテンツ提供装置1に送信する(ステップS105、ステップS110)。コンテンツ提供装置1の視聴方向情報受信部131が端末装置3から視聴方向情報を受信すると(ステップS205:YES)、合成部133は、視聴方向情報が示す現在位置に対応した部屋Rの背景コンテンツB1を記憶部11から読み出す。合成部133は、背景コンテンツB1を、図10(a)に示すように配信用三次元画像コンテンツG11とする(ステップS210:NO、ステップS215)。背景コンテンツB1は、部屋Rを事前に撮影して生成した三次元画像コンテンツである。この背景コンテンツB1からは、位置と向きを指定することにより、指定された位置から指定された向きで見たときの三次元画像コンテンツを取得可能である。コンテンツ送信部134は、配信用三次元画像コンテンツG11から、受信した視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。端末装置3の表示制御部326は、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する(ステップS115〜ステップS120)。これにより、ユーザは、現在の位置から部屋Rを見たときの三次元画像コンテンツを視聴することができる。
ユーザが部屋Rの中を移動すると、端末装置3の視聴方向情報取得部321は、検出部33が新たに取得したユーザの向きと現在位置の情報を視聴方向情報としてコンテンツ提供装置1に送信する(ステップS105、ステップS110)。コンテンツ提供装置1の視聴方向情報受信部131は端末装置3から新たな視聴方向情報を受信する(ステップS205)。コンテンツ送信部134は、既に生成されている配信用三次元画像コンテンツG11から、新たに受信した視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。端末装置3の表示制御部326は、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する(ステップS115〜ステップS120)。これにより、ユーザは、移動した位置から部屋Rを見たときの三次元画像コンテンツを視聴することができる。
ユーザは、部屋Rにおいて家具を設置したい場所に移動すると、設置したい家具の写真とオブジェクトIDとが印刷されたカード(媒体5)を選び、撮像指示を端末装置3の入力部31により入力する(ステップS125:YES)。オブジェクト識別取得部322は、撮像部34が撮像した画像のデータからオブジェクトIDを取得する(ステップS130)。さらに、ユーザは、端末装置3の撮像部34により、家具を設置したい場所のマーカーMを撮像する。配置位置情報取得部323は、撮像部34が撮像した画像のデータから位置情報を取得し、配置位置情報とする(ステップS135)。送信部324は、取得したオブジェクトID及び配置位置情報をコンテンツ提供装置1に送信する(ステップS140)。
コンテンツ提供装置1のオブジェクト情報受信部132がオブジェクトID及び配置位置情報を受信すると(ステップS220:YES)、合成部133は、オブジェクトIDに対応したオブジェクトコンテンツ及び属性情報を読み出す(ステップS225)。ここでは、受信したオブジェクトIDが「00001」であり、図9に示すオブジェクトコンテンツ管理情報からオブジェクト名「椅子」のオブジェクトコンテンツC11と配置位置属性「床」を示す属性情報が読み出されたとする。合成部133は、現在の配信用三次元画像コンテンツG11に、オブジェクトコンテンツC11を重畳(合成)して、図10(b)に示す配信用三次元画像コンテンツG12を生成する(ステップS230)。オブジェクトコンテンツC11は、配信用三次元画像コンテンツG11の画像に、配置位置情報が示す三次元上の配置位置に配置されるようにして重畳される。
合成部133は、生成された配信用三次元画像コンテンツG12におけるオブジェクトコンテンツC11の配置位置を、属性情報に設定されている配置位置属性「床」と一致するように補正する。例えば、オブジェクトコンテンツC11を配置する方向は合っているが、下端が配信用三次元画像コンテンツG12の床の高さより上になるように配置される場合がある。そこで、合成部133は、配信用三次元画像コンテンツG12におけるオブジェクトコンテンツC11の配置位置を、オブジェクトコンテンツC11の下端が床の高さと一致するように補正する(ステップS235)。さらに、合成部133は、図10(c)に示すように、配信用三次元画像コンテンツG12に重畳されている背景コンテンツB1(または配信用三次元画像コンテンツG12)における部屋の向きと、オブジェクトコンテンツC11の向きを合わせるように、オブジェクトコンテンツC11を回転させてもよい。合成部133は、ステップS230において、例えば、カーペットなど配置位置属性が「床」であるオブジェクトコンテンツを重畳した場合も、同様に向きを含めて配置位置を補正する。また、例えば、合成部133は、時計など配置位置属性が「壁」であるオブジェクトコンテンツを重畳した場合は、オブジェクトコンテンツの配置位置を配信用三次元画像コンテンツにおける壁の位置に補正し、壁と並行になるように向きを回転させる。なお、合成部133は、オブジェクトコンテンツC11の配置位置補正後の配信用三次元画像コンテンツを生成してもよく、オブジェクトコンテンツC11を最初の配置位置から補正後の配置位置に移動する動画の配信用三次元画像コンテンツを生成してもよい。コンテンツ送信部134は、オブジェクトコンテンツC11の配置位置を補正した配信用三次元画像コンテンツG12から、最新の視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。
ユーザは、椅子の位置を動かしたい場合、端末装置3に表示されている椅子の画像を、指でタッチしたまま、移動させたい方向に動かす(ステップS145:YES)。端末装置3の送信部324は、椅子のオブジェクトIDと、移動方向及び移動量を設定した補正指示をコンテンツ提供装置1に送信する(ステップS150)。
コンテンツ提供装置1の合成部133は、補正指示受信部135が受信した補正指示からオブジェクトID、移動方向及び移動量を取得する。合成部133は、配信用三次元画像コンテンツG12における椅子のオブジェクトコンテンツC11の配置位置を、補正指示に従って補正する(ステップS245:YES、ステップS250)。コンテンツ送信部134は、オブジェクトコンテンツC11の配置位置を補正した配信用三次元画像コンテンツG12から、最新の視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。これにより、ユーザは、部屋Rに設置した椅子の位置を移動させたときの三次元画像コンテンツを視聴することができる。このようにして位置を補正することができるので、部屋Rに狭い間隔でマーカーMを設置する必要がない。
ユーザは、部屋Rにおいて違う家具を設置したい場所に移動する。移動する間も、端末装置3は、移動により新たに取得したユーザの向きと現在位置の情報をコンテンツ提供装置1に送信する。コンテンツ提供装置1は、配信用三次元画像コンテンツG12から、新たに受信した視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出して、端末装置3に送信する。端末装置3の表示制御部326は、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する。これにより、ユーザは、移動した位置から椅子が設置された部屋Rを見たときの三次元画像コンテンツを視聴することができる。
ユーザは、端末装置3により、設置したい新たな家具のカードを撮像し、オブジェクトIDを取得する(ステップS125:YES、ステップS130)。さらに、ユーザは、端末装置3により新たな家具を設置したい場所のマーカーMを撮像し、配置位置情報を得る(ステップS135)。送信部324は、取得したオブジェクトID及び配置位置情報をコンテンツ提供装置1に送信する(ステップS140)。
コンテンツ提供装置1は、端末装置3から受信したオブジェクトIDに対応したオブジェクトコンテンツ及び属性情報を読み出す(ステップS220:YES、ステップS225)。ここでは、受信したオブジェクトIDが「00004」であり、図9に示すオブジェクトコンテンツ管理情報からオブジェクト名「照明1」のオブジェクトコンテンツC14と配置位置属性「天井」及び画像加工属性「1段階明るく」を示す属性情報が読み出されたとする。合成部133は、配信用三次元画像コンテンツG12に、オブジェクトコンテンツC14を重畳(合成)して配信用三次元画像コンテンツを生成する(ステップS230)。オブジェクトコンテンツC14は、配信用三次元画像コンテンツG12の画像に、配置位置情報が示す三次元上の配置位置に配置されるようにして重畳される。ここで生成された配信用三次元画像コンテンツは、背景コンテンツB1と、オブジェクトコンテンツC11と、オブジェクトコンテンツC14とを重畳した三次元画像コンテンツである。
合成部133は、生成された配信用三次元画像コンテンツにおけるオブジェクトコンテンツC14の配置位置を、属性情報に設定されている配置位置属性「天井」と一致するように補正する。例えば、オブジェクトコンテンツC14の上端が配信用三次元画像コンテンツにおける天井より下や上の高さに配置される場合がある。そこで、合成部133は、オブジェクトコンテンツC14の配置位置を、オブジェクトコンテンツC14の上端が天井の高さと一致するように補正する(ステップS235)。さらに、合成部133は、配信用三次元画像コンテンツに重畳されている背景コンテンツB1(または配信用三次元画像コンテンツ)における部屋の向きと、オブジェクトコンテンツC14の向きを合わせるように、オブジェクトコンテンツC14を回転させてもよい。合成部133は、オブジェクトコンテンツC14の位置を補正した配信用三次元画像コンテンツに対し、画像加工属性が示すように「1段階明るく」する加工を行う(ステップS240)。コンテンツ送信部134は、加工された配信用三次元画像コンテンツから、最新の視聴方向情報が示すユーザの位置や向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。
上記を繰り返すことにより、ユーザは、部屋Rに、家具を設置したときのイメージを三次元画像により視聴することができる。
なお、端末装置3は、例えば、展示場などに展示している実物の家具に貼付されている媒体5からオブジェクトIDを予め読み取って、記憶しておいてもよい。この場合、オブジェクトIDに家具の名称などを表すオブジェクト名を付加しておくことが望ましい。ユーザは、端末装置3が表示部36に表示するオブジェクト名の中から、部屋Rに設置する家具のオブジェクト名を入力部31により選択する。端末装置3の送信部324は、選択されたオブジェクト名に対応したオブジェクトIDをステップS140において送信する。
図11は、複数の家具のオブジェクトを設置したときの配信用三次元画像コンテンツの例を示す図である。同図では、部屋Rの三次元画像コンテンツである背景コンテンツB1に、オブジェクトコンテンツC21〜C28を重畳した配信用三次元画像コンテンツが生成されている。同図に示すユーザは、配信用三次元画像コンテンツにおけるユーザの仮想的な位置を示す。ユーザは、この配信用三次元画像コンテンツから抽出された三次元画像コンテンツをHMD2により視聴することによって、実際にオブジェクトコンテンツC21〜C28の家具を設置した部屋Rにいるような没入感を体験することができる。
次に2つ目の使用例として、ユーザが、3次元画像のゲーム画面に、ユーザが選択したキャラクターを登場させる場合を説明する。
図12は、オブジェクトコンテンツ管理情報の設定例を示す図である。同図に示すようにオブジェクトコンテンツ管理情報には、ゲーム画面に登場可能なキャラクターや、画面の表示に影響を及ぼすオブジェクトについての情報が設定される。地面を移動したり、地面に置かれたりするオブジェクトついては、配置位置属性を「地面」とし、空を移動したり、空に浮かぶオブジェクトについては、配置位置属性を「空」とする。なお、配置位置属性が空である場合は、地面からの高さを設定してもよい。また、画像の明るさに影響を及ぼす太陽や積乱雲などのすオブジェクトの画像加工属性には、どのように画像の表示に関する属性を加工するかが設定される。
図13は、端末装置3が表示する三次元画像コンテンツの例を示す図である。
最初に、HMD2の表示装置として使用されている端末装置3の視聴方向情報取得部321は、検出部33が取得したユーザの向きの情報を視聴方向情報としてコンテンツ提供装置1に送信する(ステップS105、ステップS110)。コンテンツ提供装置1の視聴方向情報受信部131が端末装置3から視聴方向情報を受信すると(ステップS205:YES)、合成部133は、背景コンテンツB2を記憶部11から読み出す。合成部133は、背景コンテンツB2を、配信用三次元画像コンテンツG31とする(ステップS210:NO、ステップS215)。コンテンツ送信部134は、配信用三次元画像コンテンツG31から、受信した視聴方向情報が示すユーザの向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。なお、ユーザの位置は、背景コンテンツ(または配信用三次元画像コンテンツ)における空間の中心位置など、固定位置とする。端末装置3の表示制御部326は、図13(a)に示すように、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する(ステップS115〜ステップS120)。
ユーザは、端末装置3の撮像部34により、蛙(子)のカード(媒体5)を撮像し、撮像した画像のデータからオブジェクトID「10001」を取得する(ステップS125:YES、ステップS130)。端末装置3の配置位置情報取得部323は、検出部33が取得したユーザの向きの情報を、配置位置情報とする(ステップS135)。送信部324は、取得したオブジェクトID及び配置位置情報をコンテンツ提供装置1に送信する(ステップS140)。
コンテンツ提供装置1の合成部133は、受信したオブジェクトID「10001」に対応したオブジェクトコンテンツC31と属性情報を読み出す(ステップS220:YES、ステップS225)。合成部133は、受信した配置位置情報からユーザの向きの情報を取得し、背景コンテンツ(または配信用三次元画像コンテンツ)の中心位置などの三次元上の所定位置から、取得した情報が示す向きに所定の距離進んだ位置を配置位置として取得する。合成部133は、現在の配信用三次元画像コンテンツG31に、オブジェクトコンテンツC31を重畳(合成)して、更新後の配信用三次元画像コンテンツを生成する(ステップS230)。オブジェクトコンテンツC31は、配信用三次元画像コンテンツG31の画像に、取得した三次元上の配置位置に配置されるようにして重畳される。
合成部133は、更新後の配信用三次元画像コンテンツにおけるオブジェクトコンテンツC31の配置位置を属性情報に設定されている配置位置「地面」と一致するように補正する。つまり、合成部133は、配信用三次元画像コンテンツにおけるオブジェクトコンテンツC31の配置位置を、オブジェクトコンテンツC31の下端が地面の高さと一致するように補正する(ステップS235)。コンテンツ送信部134は、新たに生成した配信用三次元画像コンテンツから、最新の視聴方向情報が示すユーザの向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。
さらにユーザは、端末装置3の撮像部34により、雲Aのカード(媒体5)を撮像し、撮像した画像のデータからオブジェクトID「10008」を取得する(ステップS125:YES、ステップS130)。端末装置3の送信部324は、取得したオブジェクトIDと、ユーザの向きを示す配置位置情報をコンテンツ提供装置1に送信する(ステップS135〜ステップS140)。
コンテンツ提供装置1の合成部133は、受信したオブジェクトID「10008」に対応したオブジェクトコンテンツC38と属性情報を読み出す(ステップS220:YES、ステップS225)。合成部133は、配信用三次元画像コンテンツの中心位置など三次元上の所定位置から、受信した配置位置情報が示す向きに、所定の距離進んだ位置を配置位置として取得する。合成部133は、現在の配信用三次元画像コンテンツに、オブジェクトコンテンツC38を重畳(合成)して、配信用三次元画像コンテンツG32を生成する(ステップS230)。オブジェクトコンテンツC38は、現在の配信用三次元画像コンテンツの画像に、取得した三次元上の配置位置に配置されるようにして重畳される。
合成部133は、配信用三次元画像コンテンツG32におけるオブジェクトコンテンツC38の配置位置を、属性情報に設定されている配置位置「空(地面からの高さW)」と一致するように補正する(ステップS235)。コンテンツ送信部134は、配信用三次元画像コンテンツG32から、最新の視聴方向情報が示すユーザの向きに応じた領域の三次元画像コンテンツを抽出し(ステップS265)、端末装置3に送信する(ステップS270)。端末装置3の表示制御部326は、図13(b)に示すように、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する(ステップS115〜ステップS120)。
同様にして、端末装置3が蛙(ママ)、鳩、雲Bのカードを読み込むことにより、コンテンツ提供装置1は背景コンテンツB2、オブジェクトコンテンツC31、C32、C34、C38、C39を重畳した配信用三次元画像コンテンツG33を生成する。コンテンツ提供装置1は、配信用三次元画像コンテンツG33から、ユーザの向きに対応した範囲を抽出した三次元画像コンテンツを端末装置3に送信する。端末装置3の表示制御部326は、図13(c)に示す三次元画像コンテンツを表示部36に表示する(ステップS115〜ステップS120)。
ユーザが、HMD2により配信用三次元画像コンテンツを視聴しながら、頭を横に回転させると、端末装置3は、新たに取得したユーザの向きの情報をコンテンツ提供装置1に送信する。コンテンツ提供装置1は、配信用三次元画像コンテンツG33から、新たに受信したユーザの向きに応じた領域の三次元画像コンテンツを抽出して、端末装置3に送信する。端末装置3の表示制御部326は、コンテンツ受信部325がコンテンツ提供装置1から受信した三次元画像コンテンツを表示部36に表示する。これにより、ユーザは、異なる方向を見たときの三次元画像コンテンツを視聴することができる。
なお、コンテンツ提供装置1の合成部133は、所定のイベントを検出した場合に、そのイベントに応じて、配信用三次元画像コンテンツにそのイベントに応じた加工を行ってもよい。
イベントは、例えば、所定のオブジェクトIDの組み合わせを受信した場合や、所定のオブジェクトコンテンツが所定の配置で配置された場合などがある。イベントは、オブジェクトIDの受信順や、背景コンテンツの種類をさらに加味しもよい。
また、イベントに応じた加工には、配信用三次元画像コンテンツに新たなオブジェクトコンテンツを重畳する、配信用三次元画像コンテンツに重畳されているオブジェクトコンテンツを他のオブジェクトコンテンツに置き換える、背景コンテンツを他の背景コンテンツに変更する、配信用三次元画像コンテンツの表示に関する属性(明るさや色調など)を変更する、などがある。
例えば、コンテンツ提供装置1の合成部133は、「蛙(ママ)」のオブジェクトコンテンツと、「蛙(パパ)」のオブジェクトコンテンツとが所定の距離内に配置されたことをイベントとして検出する。合成部133は、配信用三次元画像コンテンツに、「ハートマーク」のオブジェクトコンテンツを、「蛙(ママ)」のオブジェクトコンテンツと「蛙(パパ)」のオブジェクトコンテンツとの間に配置するよう追加して重畳する。
また、例えば、コンテンツ提供装置1の合成部133は、先に端末装置3から「双葉」のオブジェクトIDを受信し、その後に「雨」のオブジェクトIDを受信したことをイベントとして検出する。合成部133は、配信用三次元画像コンテンツに重畳されている双葉のオブジェクトコンテンツを、双葉から成長して花が咲く動画のオブジェクトコンテンツに置き換える。
また、例えば、コンテンツ提供装置1の合成部133は、「桃太郎」、「犬」、「キジ」、「猿」のオブジェクトIDを受信したことをイベントとして検出する。合成部133は、配信用三次元画像コンテンツに重畳されている背景コンテンツを、鬼が島へ向かうストーリーの背景コンテンツに変更する。
また、例えば、コンテンツ提供装置1の合成部133は、部屋の背景コンテンツの使用と、カーテンのオブジェクトID及び月のオブジェクトIDの受信とをイベントとして検出する。合成部133は、配信用三次元画像コンテンツの明るさを暗くするよう加工する。
上述した実施形態によれば、ユーザは、自分が選択したオブジェクトの画像が合成された三次元画像のコンテンツを、没入感の高いHMDにより視聴することができる。
なお、上述のコンテンツ提供装置1及び端末装置3は、内部にコンピュータシステムを有している。そして、コンテンツ提供装置1及び端末装置3の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1 コンテンツ提供装置
2 HMD(ヘッドマウントディスプレイ)
3 端末装置
5 媒体
9 ネットワーク
11 記憶部
12 通信部
13 処理部
131 視聴方向情報受信部
132 オブジェクト情報受信部
133 合成部
134 コンテンツ送信部
135 補正指示受信部
136 削除指示受信部
31 入力部
32 処理部
33 検出部
34 撮像部
35 通信部
36 表示部
321 視聴方向情報取得部
322 オブジェクト識別取得部
323 配置位置情報取得部
324 送信部
325 コンテンツ受信部
326 表示制御部

Claims (9)

  1. 端末装置と、三次元画像コンテンツを前記端末装置に提供するコンテンツ提供装置とを有するコンテンツ提供システムであって、
    前記端末装置は、
    オブジェクトを特定するオブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを前記コンテンツ提供装置に送信する送信部と、
    送信した前記オブジェクト識別情報及び前記配置位置情報に対応して前記コンテンツ提供装置から受信した三次元画像コンテンツを表示させる表示制御部と、
    を備え、
    前記コンテンツ提供装置は、
    前記オブジェクト識別情報と、前記オブジェクト識別情報により特定される前記オブジェクトの三次元画像コンテンツであるオブジェクトコンテンツとを対応付けて記憶する記憶部と、
    前記オブジェクト識別情報及び前記配置位置情報を前記端末装置から受信するオブジェクト情報受信部と、
    背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報に対応した前記オブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成部と、
    前記合成部により生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信部と、
    を備える、
    ことを特徴とするコンテンツ提供システム。
  2. オブジェクト識別情報と、前記オブジェクト識別情報により特定されるオブジェクトの三次元画像コンテンツであるオブジェクトコンテンツとを対応付けて記憶する記憶部と、
    前記オブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを端末装置から受信するオブジェクト情報受信部と、
    背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報に対応した前記オブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成部と、
    前記合成部により生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信部と、
    を備えることを特徴とするコンテンツ提供装置。
  3. 前記端末装置から前記オブジェクトの配置位置または向きの補正を指示する補正指示を受信する補正指示受信部をさらに備え、
    前記合成部は、配信用の前記三次元画像コンテンツにおいて前記オブジェクトコンテンツが配置された位置または向きを、受信した前記補正指示に応じて補正する、
    ことを特徴とする請求項2に記載のコンテンツ提供装置。
  4. 前記記憶部は、前記オブジェクト識別情報に対応付けて、前記オブジェクトの属性を示す属性情報をさらに記憶し、
    前記合成部は、前記配置位置情報から得られた三次元上の位置を、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて補正し、前記背景コンテンツに、前記オブジェクトコンテンツを、補正した位置に配置するように合成した配信用の前記三次元画像コンテンツを生成する、
    ことを特徴とする請求項2または請求項3に記載のコンテンツ提供装置。
  5. 前記合成部は、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて、配信用の前記三次元画像コンテンツに配置された前記オブジェクトコンテンツの向きを補正する、
    ことを特徴とする請求項4に記載のコンテンツ提供装置。
  6. 前記合成部は、配信用の前記三次元画像コンテンツの表示に関する属性を、受信した前記オブジェクト識別情報に対応した前記属性情報に応じて補正する、
    ことを特徴とする請求項4または請求項5に記載のコンテンツ提供装置。
  7. 前記端末装置からユーザの向き、あるいは、ユーザの向き及び位置を示す視聴方向情報を受信する視聴方向情報受信部をさらに備え、
    前記コンテンツ送信部は、配信用の前記三次元画像コンテンツから、前記視聴方向情報が示す前記ユーザの向き、あるいは、前記ユーザの向き及び位置に応じた領域の三次元画像コンテンツを抽出して前記端末装置に送信する、
    ことを特徴とする請求項2から請求項6のいずれか1項に記載のコンテンツ提供装置。
  8. 前記合成部は、所定のオブジェクト識別情報の組み合わせを受信した場合、配信用の前記三次元画像コンテンツに、前記組み合わせに応じた加工を行う、
    ことを特徴とする請求項2から請求項7のずれか1項に記載のコンテンツ提供装置。
  9. コンテンツ提供装置が実行するコンテンツ提供方法であって、
    オブジェクト情報受信部が、オブジェクトを特定するオブジェクト識別情報と、前記オブジェクトの画像を配置する三次元上の位置を取得可能な配置位置情報とを端末装置から受信するオブジェクト情報受信ステップと、
    合成部が、背景の三次元画像コンテンツである背景コンテンツに、受信した前記オブジェクト識別情報により特定される前記オブジェクトの三次元画像コンテンツであるオブジェクトコンテンツを、受信した前記配置位置情報から得られた三次元上の位置に配置するように合成した配信用の三次元画像コンテンツを生成する合成ステップと、
    コンテンツ送信部が、前記合成ステップにより生成された配信用の前記三次元画像コンテンツを前記端末装置に送信するコンテンツ送信ステップと、
    を有することを特徴とするコンテンツ提供方法。
JP2015095614A 2015-05-08 2015-05-08 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法 Active JP6582526B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015095614A JP6582526B2 (ja) 2015-05-08 2015-05-08 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法
PCT/JP2016/062523 WO2016181780A1 (ja) 2015-05-08 2016-04-20 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法
TW105113907A TW201706963A (zh) 2015-05-08 2016-05-05 內容提供系統、內容提供裝置及內容提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015095614A JP6582526B2 (ja) 2015-05-08 2015-05-08 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法

Publications (2)

Publication Number Publication Date
JP2016212621A true JP2016212621A (ja) 2016-12-15
JP6582526B2 JP6582526B2 (ja) 2019-10-02

Family

ID=57249032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015095614A Active JP6582526B2 (ja) 2015-05-08 2015-05-08 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法

Country Status (3)

Country Link
JP (1) JP6582526B2 (ja)
TW (1) TW201706963A (ja)
WO (1) WO2016181780A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019194745A (ja) * 2018-04-30 2019-11-07 日本絨氈株式会社 仮想現実システムを用いたインテリア提案システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341642A (ja) * 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法、画像合成表示プログラム、並びにこの画像合成表示プログラムを記録した記録媒体
JP2010218107A (ja) * 2009-03-16 2010-09-30 Toppan Printing Co Ltd パノラマvrファイル提供装置、プログラム、方法及び、システム
JP2014109802A (ja) * 2012-11-30 2014-06-12 Casio Comput Co Ltd 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341642A (ja) * 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法、画像合成表示プログラム、並びにこの画像合成表示プログラムを記録した記録媒体
JP2010218107A (ja) * 2009-03-16 2010-09-30 Toppan Printing Co Ltd パノラマvrファイル提供装置、プログラム、方法及び、システム
JP2014109802A (ja) * 2012-11-30 2014-06-12 Casio Comput Co Ltd 画像処理装置、画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019194745A (ja) * 2018-04-30 2019-11-07 日本絨氈株式会社 仮想現実システムを用いたインテリア提案システム
JP7093996B2 (ja) 2018-04-30 2022-07-01 日本絨氈株式会社 仮想現実システムを用いたインテリア提案システム

Also Published As

Publication number Publication date
WO2016181780A1 (ja) 2016-11-17
JP6582526B2 (ja) 2019-10-02
TW201706963A (zh) 2017-02-16

Similar Documents

Publication Publication Date Title
US10579134B2 (en) Improving advertisement relevance
CN109661686B (zh) 对象显示系统、用户终端装置、对象显示方法及程序
US10026229B1 (en) Auxiliary device as augmented reality platform
CN104081317B (zh) 信息处理设备和信息处理方法
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN114236837A (zh) 用于显示交互式增强现实展示的系统、方法和介质
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的系统和方法
CN103620600A (zh) 用于实现虚拟标记的方法及设备
CN109298777B (zh) 虚拟现实体验控制系统
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP6917340B2 (ja) データ処理プログラム、データ処理方法、および、データ処理装置
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP6147966B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN106464773A (zh) 增强现实的装置及方法
JP2014217566A (ja) 宝探しゲーム配信システム
US20160371885A1 (en) Sharing of markup to image data
CN107851069B (zh) 图像管理系统、图像管理方法及程序
KR101977314B1 (ko) 증강현실 포토존 제공 시스템
JP6665402B2 (ja) コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム
WO2016181783A1 (ja) コンテンツ配信システム、コンテンツ配信装置及びコンテンツ配信方法
JP6582526B2 (ja) コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法
KR102154204B1 (ko) 전자장치 및 전자장치의 광고데이터 제공방법
KR102005251B1 (ko) 가상 현실에 기반하여 매물 영상을 제공하기 위한 서버, 제공자 단말 및 방법
US20200273484A1 (en) Birdwatching System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6582526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250