JP2022043909A - コンテンツ提示装置、及びプログラム - Google Patents

コンテンツ提示装置、及びプログラム Download PDF

Info

Publication number
JP2022043909A
JP2022043909A JP2020149411A JP2020149411A JP2022043909A JP 2022043909 A JP2022043909 A JP 2022043909A JP 2020149411 A JP2020149411 A JP 2020149411A JP 2020149411 A JP2020149411 A JP 2020149411A JP 2022043909 A JP2022043909 A JP 2022043909A
Authority
JP
Japan
Prior art keywords
subject
image
content
dimensional space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020149411A
Other languages
English (en)
Inventor
数馬 吉野
Kazuma Yoshino
裕之 川喜田
Hiroyuki Kawakita
拓也 半田
Takuya Handa
健介 久富
Kensuke Hisatomi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020149411A priority Critical patent/JP2022043909A/ja
Publication of JP2022043909A publication Critical patent/JP2022043909A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】異なる空間にいる人とコンテンツを同じ空間を共有しながら体験している感覚を提供できるコンテンツ提示装置を提供する。【解決手段】コンテンツ提示装置は、基準位置設定部と、周辺映像取得部と、第1被写体映像抽出部と、背景映像取得部と、第2被写体映像を他のコンテンツ提示装置から取得する第2被写体映像取得部と、コンテンツ取得部と、第1被写体映像の位置を第1被写体基準位置情報に基づいて設定する第1被写体位置設定部と、第2被写体映像の位置を第2被写体基準位置情報に基づいて設定する第2被写体位置設定部と、コンテンツ位置設定部と、提示映像を出力する提示部とを備え、コンテンツが表示される位置と第1被写体基準位置情報が示す位置と第2被写体基準位置情報が示す位置との間の相対的な位置関係、第1被写体基準位置情報、及び第2被写体基準位置情報がそれぞれ他のコンテンツ提示装置との間で共有されている。【選択図】図1

Description

特許法第30条第2項適用申請有り (1) 公開者名 日本放送協会 ウェブサイトの掲載日 令和2年7月27日 掲載アドレス https://www.nhk.or.jp/info/pr/marukaji/assets/pdf/450.pdf https://www.nhk.or.jp/strl/news/2020/7.html (2) 発行者名 日本放送協会 刊行物名 技研だより 2020年8月号 掲載年月日 令和2年8月6日 掲載アドレス https://www.nhk.or.jp/strl/ https://www.nhk.or.jp/strl/publica/giken_dayori/185/1.html https://www.nhk.or.jp/strl/publica/giken_dayori/185/pdf/dayori185.pdf (3) 発行者名 株式会社電波新聞社 刊行物名 電波新聞 令和2年8月3日付 第3面 発行年月日 令和2年8月3日 (4) 発行者名 株式会社電波新聞社 刊行物名 電波新聞 令和2年9月2日付 第1面 発行年月日 令和2年9月2日
本発明は、コンテンツ提示装置、及びプログラムに関する。
拡張現実(AR:Augmented Reality)コンテンツ及び仮想現実(VR:Virtual Reality)コンテンツの体験において、他の人と一緒に体験している感覚を提供するシステムが求められている。
例えば、非特許文献1では、ゲーム、映画、会議などのVR共有体験の有効性を検証するため、3次元映像をリアルタイムで撮影、伝送することにより、自分の隣に別空間の人物を再現し、一方、別空間の人物の隣には自分を再現するシステムを構築している。
また、非特許文献2では、別空間の人物と自然なコミュニケーションを可能とするARシステムとして、別空間の人物を3次元撮影し、自分が体験しているAR空間に、その別空間の人物をリアルタイムに再現するシステムが提案されている。また、非特許文献2では、デバイスを変えて当該システムをVRに活用することについても言及している。
さらに、物理的に離れている人に加えて同じ空間にいる人とも一緒に、相手の存在を感じながらリアルタイムにコンテンツ体験を共有可能なAR/VRシステムを提供することが求められている。
異なる空間にいる人とコンテンツを同じ空間を共有できるためには、コンテンツ(ARコンテンツ、VRコンテンツ、またはARコンテンツとVRコンテンツとが混合したコンテンツであるAR/VR混合コンテンツ)の位置も含めて互いの位置関係を矛盾なく共有する必要がある。
本発明は上記の点に鑑みてなされたものであり、異なる空間にいる人とコンテンツを同じ空間を共有しながら体験している感覚を提供できるコンテンツ提示装置、及びプログラムを提供する。
[1]上記の課題を解決するため、本発明の一態様によるコンテンツ提示装置は、第1被写体が撮影された画像を含む映像である第1被写体映像について基準となる位置及び向きを示す情報である第1被写体基準位置情報と、第2被写体が撮影された画像を含む映像である第2被写体映像について基準となる位置及び向きを示す情報である第2被写体基準位置情報をとを3次元空間内に設定する基準位置設定部と、前記第1被写体を含む自装置の周辺の映像である周辺映像を取得する周辺映像取得部と、前記周辺映像から前記第1被写体映像を抽出する第1被写体映像抽出部と、背景として用いられる映像である背景映像を取得する背景映像取得部と、前記第2被写体映像を他のコンテンツ提示装置から取得する第2被写体映像取得部と、コンテンツを取得するコンテンツ取得部と、前記第1被写体映像の前記3次元空間内の位置及び向きを前記第1被写体基準位置情報に基づいて設定する第1被写体位置設定部と、前記第2被写体映像の前記3次元空間内の位置及び向きを前記第2被写体基準位置情報に基づいて設定する第2被写体位置設定部と、前記第1被写体基準位置情報が示す位置と、前記第2被写体基準位置情報が示す位置との間の所定の相対的位置関係に基づいて前記コンテンツが表示される前記3次元空間内の位置を設定するコンテンツ位置設定部と、前記3次元空間内の位置及び向きが設定された前記第1被写体映像と、前記3次元空間内の位置及び向きが設定された前記第2被写体映像と、前記3次元空間内の位置が設定された前記コンテンツとが、前記背景映像を背景として前記3次元空間内に表示された映像である提示映像を出力する提示部と、を備え、前記コンテンツが表示される前記3次元空間内の位置と前記第1被写体基準位置情報が示す位置と前記第2被写体基準位置情報が示す位置との間の相対的な位置関係、前記第1被写体基準位置情報、及び前記第2被写体基準位置情報がそれぞれ前記他のコンテンツ提示装置との間で共有されている。
[2]また、本発明の一態様は、上記のコンテンツ提示装置において、前記提示部は、前記コンテンツに含まれる音声を、前記コンテンツが表示される前記3次元空間内の位置に基づいて定位させて出力する、ものである。
[3]また、本発明の一態様は、上記のコンテンツ提示装置において、前記提示部は、前記第2被写体映像に含まれる音声を、前記第2被写体映像の前記3次元空間内の位置に基づいて定位させて出力する、ものである。
[4]また、本発明の一態様は、上記のコンテンツ提示装置において、前記第1被写体映像の前記3次元空間内の位置と、前記第2被写体映像の前記3次元空間内の位置とに基づいて、前記提示映像において前記第1被写体映像と前記第2被写体映像とのいずれが手前側にあるかを判定するオクルージョン再現部をさらに備え、前記提示部は、前記オクルージョン再現部の判定結果に基づいて前記提示映像を出力する、ものである。
[5]また、本発明の一態様は、上記のコンテンツ提示装置において、前記第2被写体位置設定部は、前記第2被写体基準位置情報に基づいて前記第2被写体映像に含まれる前記第2被写体の足の位置を前記3次元空間の底面の位置に一致させて、前記第2被写体映像の前記3次元空間内の位置を設定する、ものである。
[6]また、本発明の一態様は、上記のコンテンツ提示装置において、前記提示部は、前記第2被写体映像を所定未満の透過度において表示する、ものである。
[7]また、本発明の一態様は、上記のコンテンツ提示装置において、前記提示部は、ビデオシースルー方式を用いて前記提示映像を生成する、ものである。
[8]また、本発明の一態様は、第1被写体が撮影された画像を含む映像である第1被写体映像について基準となる位置及び向きを示す情報である第1被写体基準位置情報と、第2被写体が撮影された画像を含む映像である第2被写体映像について基準となる位置及び向きを示す情報である第2被写体基準位置情報とを3次元空間内に設定する基準位置設定過程と、前記第1被写体を含む自装置の周辺の映像である周辺映像を取得する周辺映像取得過程と、前記周辺映像から前記第1被写体映像を抽出する第1被写体映像抽出過程と、背景として用いられる映像である背景映像を取得する背景映像取得過程と、前記第2被写体映像を他のコンテンツ提示装置から取得する第2被写体映像取得過程と、コンテンツを取得するコンテンツ取得過程と、前記第1被写体映像の前記3次元空間内の位置及び向きを前記第1被写体基準位置情報に基づいて設定する第1被写体位置設定過程と、前記第2被写体映像の前記3次元空間内の位置及び向きを前記第2被写体基準位置情報に基づいて設定する第2被写体位置設定過程と、前記第1被写体基準位置情報が示す位置と、前記第2被写体基準位置情報が示す位置との間の所定の相対的位置関係に基づいて前記コンテンツが表示される前記3次元空間内の位置を設定するコンテンツ位置設定過程と、前記3次元空間内の位置及び向きが設定された前記第1被写体映像と、前記3次元空間内の位置及び向きが設定された前記第2被写体映像と、前記3次元空間内の位置が設定された前記コンテンツとが、前記背景映像を背景として前記3次元空間内に表示された映像である提示映像を出力する提示過程と、の処理をコンピューターに実行させるプログラムであって、前記コンテンツが表示される前記3次元空間内の位置と前記第1被写体基準位置情報が示す位置と前記第2被写体基準位置情報が示す位置との間の相対的な位置関係、前記第1被写体基準位置情報、及び前記第2被写体基準位置情報がそれぞれ前記他のコンピューターとの間で共有されているプログラムである。
本発明によれば、異なる空間にいる人とコンテンツを同じ空間を共有しながら体験している感覚を提供できる。
本発明の実施形態に係るコンテンツ提示システムの構成一例を示す図である。 実施形態に係るコンテンツ提示装置の構成の一例を示す図である。 実施形態に係る撮影部の構成の一例を示す図である。 実施形態に係る表示部の構成の一例を示す図である。 実施形態に係る撮影処理の一例を示す図である。 実施形態に係る表示処理の一例を示す図である。 実施形態に係る位置設定処理の一例を示す図である。 実施形態に係る被写体の位置を設定するためにヘッドマウントディスプレイに表示される映像の一例を示す図である。 実施形態に係るコンテンツ、第1被写体映像、及び第2被写体映像の相対的な位置関係の一例を示す図である。 実施形態に係るARまたはVRオブジェクトの描画の一例を示す図である。 実施形態に係る第1被写体映像と第2被写体映像についてのオクルージョンの再現の一例を示す図である。 実施形態に係る第2被写体映像とコンテンツについてのオクルージョンの再現の一例を示す図である。 実施形態に係るARとVRとを組み合わせたコンテンツの一例を示す図である。 実施形態に係るARとVRとを組み合わせたコンテンツの一例を示す図である。 実施形態に係るARとVRとを組み合わせたコンテンツの一例を示す図である。
(実施形態)
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係るコンテンツ提示システムSの構成一例を示す図である。コンテンツ提示システムSは、複数のコンテンツ提示装置1(コンテンツ提示装置1-1、1-2)と、サーバー装置2と、複数のヘッドマウントディスプレイH1(ヘッドマウントディスプレイH1-1、H1-2)と、複数のステレオカメラSC1(ステレオカメラSC1-1、SC1-2)複数のRGBDカメラCM1(RGBDカメラCM1-1、CM1-2)とを備える。ユーザーは、RGBDカメラCM1によって撮影されるため、本実施形態ではユーザーのことを被写体という。
コンテンツ提示システムSでは、複数の被写体は互いに離れた異なる空間に存在する。図1に示す例では、第1被写体P1、第2被写体P2はそれぞれ、第1の空間R1、第2の空間R2にそれぞれ存在している。第1の空間R1と、第2の空間R2とは互いに離れた場所に存在している。第1の空間R1と第2の空間R2とが離れている距離はいずれでもよい。第1の空間R1と第2の空間R2との間は建物の壁などで仕切られていてもよいし、仕切られていなくてもよい。第1の空間R1と第2の空間R2とは、同じ部屋のなかの異なる場所であってもよい。第1の空間R1は、例えば、第1被写体P1の自宅の部屋であり、第2の空間R2は、例えば、第1被写体P1の自宅から離れた場所にある第2被写体P2の自宅の部屋である。
複数のコンテンツ提示装置1は、相互に通信しながら連携動作する。図1では、コンテンツ提示装置1-1、コンテンツ提示装置1-2それぞれは、第1の空間R1、第2の空間R2にそれぞれ設置されて同時に稼働する。各々のコンテンツ提示装置1は、1人の被写体によって使用される。図1では、コンテンツ提示装置1-1、コンテンツ提示装置1-2それぞれは、第1被写体P1、第2被写体P2によってそれぞれ使用される。複数のコンテンツ提示装置1は、ネットワークNW、及びサーバー装置2を介して相互に情報を交換する。コンテンツ提示装置1、及びサーバー装置2はそれぞれ、無線通信または有線通信によってネットワークNWに接続する。
コンテンツ提示装置1は、一例として、パーソナルコンピュータ(PC:Personal Computer)である。コンテンツ提示装置1は、スマートフォンなどの携帯端末装置であってもよい。コンテンツ提示装置1は、ヘッドマウントディスプレイH1と一体となって備えられてもよい。例えば、コンテンツ提示装置1は、小型の端末装置としてヘッドマウントディスプレイH1に内蔵されてもよいし、コンテンツ提示装置1の機能がプログラムとして実現されて、ヘッドマウントディスプレイH1に内蔵された演算装置によって当該プログラムが実行されてもよい。
以下では第1被写体P1の側の構成について説明するが、第2被写体P2の側の構成は、第1被写体P1の側の構成と同様である。
第1被写体P1は、ヘッドマウントディスプレイH1-1を装着している。ヘッドマウントディスプレイH1-1は、ディスプレイ装置、マイク、スピーカ、及びHMD位置測定部を備える。HMD位置測定部は、ヘッドマウントディスプレイH1-1の位置及び姿勢を測定する。
ステレオカメラSC1-1は、一例としてヘッドマウントディスプレイH1と一体となって備えられる。ステレオカメラSC1-1は、第1被写体P1から見た第1の空間R1の風景、及び第1被写体P1の体の一部を撮影する。第1被写体P1の体の一部とは、例えば、第1被写体P1から見た自身の手、腕などである。ヘッドマウントディスプレイH1-1は、ステレオカメラSC1-1によって撮影された映像を、自装置に備えられたディスプレイ装置に再生させる。
第1被写体P1は、第1の空間R1の第1被写体P1の背後の風景とともにRGBDカメラCM1-1によって撮影される。第1被写体映像PV1は、第1被写体P1が撮影された画像を含む映像である。第1被写体映像PV1には、第1被写体P1が撮影された画像とともに、ヘッドマウントディスプレイH1-1に備えられるマイクによって収音された第1被写体P1の音声が含まる。
RGBDカメラCM1-1によって撮影された映像は、コンテンツ提示装置1-1を介してコンテンツ提示装置1-2に送信される。一方、第2被写体P2の側においてRGBDカメラCM1-2によって撮影された映像は、コンテンツ提示装置1-2を介してコンテンツ提示装置1-1によって受信される。ヘッドマウントディスプレイH1-1は、提示映像V1-1を自装置に備えられるディスプレイ装置に提示させる。提示映像V1-1には、背景映像BG1-1を背景として、第1被写体P1の体の一部の映像とともに、RGBDカメラCM1-2によって撮影された映像に含まれる第2被写体映像PV2、及びコンテンツC1が含まれる。ここで背景映像BG1は、ヘッドマウントディスプレイH1が再生する映像において背景として用いられる映像である。本実施形態では、ヘッドマウントディスプレイH1-1が再生する映像において背景として用いられる背景映像BG1-1は、一例として、ステレオカメラSC1-1によって撮影された第1の空間R1の風景の映像である。第2被写体映像PV2は、第2被写体P2が撮影された画像を含む映像である。第2被写体映像PV2には、第2被写体P2の音声が含まれる。
コンテンツC1は、ヘッドマウントディスプレイH1が再生する映像において拡張現実(AR:Augmented Reality)として表示される。コンテンツC1は、例えば、テレビ放送、ARを用いた3次元映像などである。
同様にして、第2被写体P2の側では、ヘッドマウントディスプレイH1-2は、提示映像V1-2を自装置に備えられるディスプレイ装置に提示させる。提示映像V1-2には、背景映像BG1-2を背景として、第2被写体P2の体の一部の映像とともに、RGBDカメラCM1-1によって撮影された映像に含まれる第1被写体映像PV1、及びコンテンツC1が含まれる。コンテンツC1は、第1被写体P1の側において提示される提示映像V1-1と、第2被写体P2の側において提示される提示映像V1-2とにおいて共通である。
上述したように、背景映像BG1には、被写体が存在している空間の風景が用いられる。第1被写体P1と第2被写体P2とは、互いに離れた異なる空間にそれぞれ存在しているため、第1被写体P1の側において用いられる背景映像BG1-1と、第2被写体P2の側において用いられる背景映像BG1-2とは、互いに異なる。
なお、背景映像BG1として、第1被写体P1の側と、第2被写体P2の側とにおいて共通の映像が用いられてもよい。例えば、背景映像BG1として、第1の空間R1、または第2の空間R2以外の第3の空間の風景の映像が用いられてもよい。第3の空間とは、例えば、バーチャル空間である。このバーチャル空間には、例えば、各種の施設(例えば、放送スタジオ、会議室、映画館、水族館、美術館、コンサート会場、娯楽施設など)、屋外(海岸、山中、公園、観光名所など)などが含まれる。バーチャル空間は、リアルタイムストリーミングによる現在の風景の映像であってもよいし、過去に撮影された風景の映像であってもよい。バーチャル空間は、コンピュータグラフィックスによって作成された実際に存在しない場所であってもよい。
コンテンツ提示システムSでは、互いに離れた異なる空間に存在する複数の被写体に、互いに同じ空間に存在するように感じさせながら共通のコンテンツが提示される。
[コンテンツ提示装置の構成]
ここで図2から図4を参照し、コンテンツ提示装置1の構成について説明する。
図2は、本実施形態に係るコンテンツ提示装置1の構成の一例を示す図である。コンテンツ提示装置1は、撮影部11と、表示部12とを備える。撮影部11は、第1被写体映像PV1を第2被写体P2の側のコンテンツ提示装置1に送信する。表示部12は、提示映像をヘッドマウントディスプレイH1に備えられるディスプレイ装置に表示させる。
コンテンツ提示装置1が備える上記の各機能部の少なくとも一部の機能は、電子回路を用いて実現され得る。また、それらの各機能部の一部または全部が、コンピューターと、プログラムとを用いて実現されてもよい。各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、電子回路上において所定の状態を維持するフリップフロップや、プログラムを用いる場合のプログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。
[撮影部の構成]
図3は、本実施形態に係る撮影部11の構成の一例を示す図である。
RGBD撮影部31は、自装置(RGBDカメラCM1-1)の周辺の映像であるRGBD映像を撮影する。RGBD映像には、第1の空間R1に存在する第1被写体P1と、第1被写体P1の背後の風景とが含まれる。RGBD撮影部31は、図1に示したRGBDカメラCM1-1に対応する。
第1被写体位置測定部32は、ヘッドマウントディスプレイH1-1の位置及び姿勢を測定する。第1被写体位置測定部32は、例えば、ヘッドマウントディスプレイH1-1に内蔵されるHMD位置測定部である。ここで、位置は、3次元空間における位置座標で表される情報である。また、姿勢は、ヘッドマウントディスプレイH1-1の向きを、例えば3次元の角度の情報で表した情報である。HMD位置測定部は、例えば、ジャイロセンサーやカメラを内蔵することにより、位置および姿勢を取得するようにしてもよい。また、ヘッドマウントディスプレイH1-1と一体となって備えられるステレオカメラSC1-1が撮影した画像からも自己位置推定ができるため、HMD位置測定部は、ステレオカメラSC1-1が取得した映像から、位置および姿勢を算出してもよい。また、HMD位置測定部は、外部からのビーコン信号を受信することによって、あるいは実空間内の場所を特定するためにクロックと同期して外部から発せられる赤外線等の信号を受信することによって、位置や姿勢を取得するようにしてもよい。また、HMD位置測定部は、外部(例えば、コンテンツの視聴空間である部屋内)に設けられた複数のカメラ(例えば、RGBDカメラCM1-1)がヘッドマウントディスプレイH1-1を撮影して、求められた位置および姿勢の情報を受信するようにしてもよい。
第1被写体位置測定部32は、測定したヘッドマウントディスプレイH1-1の位置及び姿勢を示す情報を、HMD位置情報としてコンテンツ提示装置1に出力する。
第1被写体音声取得部33は、第1の空間R1に存在する第1被写体P1の音声を取得する。第1被写体音声取得部33は、ヘッドマウントディスプレイH1-1に内蔵されるマイクである。第1被写体音声取得部33は、取得した第1被写体P1の音声を示す情報を、第1被写体音声情報としてコンテンツ提示装置1に出力する。
撮影部11は、第1被写体映像切り出し部111と、第1被写体映像供給部112とを備える。
第1被写体映像切り出し部111は、RGBD撮影部31によって撮影されたRGBD映像から第1被写体映像PV1を切り出す。第1被写体映像切り出し部111は、一例として、RGBD映像に含まれる距離の情報に基づいて距離情報(デプスマップ)を生成し、生成した距離情報に基づいて、予め設定された距離(深さ)に基づいてRGBD映像から第1被写体映像PV1を切り出す。ここで距離情報は、RGBDカメラCM1-1からみた距離(深さ)がRGBD映像の画素毎に示された情報である。RGBD撮影部31によって撮影されたRGBD映像において、第1被写体P1に対応する部分のRGBDカメラCM1-1からみた距離(深さ)は、第1被写体P1以外の背景の部分のRGBDカメラCM1-1からみた距離(深さ)に比べて近いため、第1被写体映像切り出し部111は、距離情報に基づいてRGBD映像から第1被写体映像PV1を切り出すことができる。予め設定された距離(深さ)は、第1被写体P1とRGBDカメラCM1-1との距離に応じて予め設定される。なお、第1被写体P1とRGBDカメラCM1-1との間には他の物体が配置されていないことが好ましい。
なお、第1被写体映像切り出し部111がRGBD映像から第1被写体映像PV1を切り出す方法は、距離情報に基づく方法に限られない。第1被写体映像切り出し部111は、機械学習に基いてRGBD映像から第1被写体映像PV1を切り出してもよい。この場合、第1被写体映像切り出し部111は、例えば、機械学習により、映像における第1被写体P1の特徴を予め学習済みである。第1被写体映像切り出し部111は、学習済みのモデルを参照することにより、RGBD映像内において第1被写体P1が映っている箇所(画像内の領域の座標等の情報)を特定することによって第1被写体映像PV1を切り出す。また別の一例として、第1被写体映像切り出し部111は、テンプレートを用いたパターンマッチングに基づいてRGBD映像内において第1被写体P1が映っている箇所を特定してもよい。
第1被写体映像供給部112は、第1被写体映像切り出し部111によって切り出された第1被写体映像PV1、第1被写体位置測定部32から出力されるHMD位置情報、第1被写体音声取得部33から出力される第1被写体音声情報を、他のコンテンツ提示装置1(コンテンツ提示装置1-2)に供給する。なお、第1被写体音声情報は、第1被写体映像PV1に含めて供給される。
[表示部の構成]
図4は、本実施形態に係る表示部12の構成の一例を示す図である。表示部12は、外部情報取得部13と、制御コマンド取得部14と、コンテンツ取得部15と、処理部16と、データ共有部17と、第2被写体情報取得部18と、記憶部19とを備える。
外部情報取得部13は、周辺映像取得部131と、距離情報取得部132と、第1被写体位置・姿勢取得部133とを備える。周辺映像取得部131は、ステレオカメラSC1-1が撮影した周辺映像E1を取得する。周辺映像E1は、第1被写体P1を含む自装置(コンテンツ提示装置1-1)の周辺の映像である。周辺映像E1には、第1被写体P1の音声が含まれる。
距離情報取得部132は、周辺映像取得部131が取得する周辺映像E1に対応する距離情報(デプスマップ)を取得する。ここで距離情報取得部132は、ステレオカメラSC1-1が撮影した周辺映像E1に基づいてステレオマッチングを用いて距離情報(デプスマップ)を取得(生成)する。なお、コンテンツ提示装置1とは別の装置によってステレオカメラSC1-1が撮影した周辺映像E1から距離情報が算出されて、距離情報取得部132は、別の装置によって算出された距離情報を取得してもよい。なお、距離画像を取得することそのものは、既存技術を利用して実現可能である。
第1被写体位置・姿勢取得部133は、ヘッドマウントディスプレイH1-1から第1被写体位置姿勢情報を取得する。第1被写体位置姿勢情報は、第1被写体P1の位置及び姿勢を示す情報である。第1被写体位置・姿勢取得部133は、ヘッドマウントディスプレイH1-1からヘッドマウントディスプレイH1-1の位置及び姿勢を示す情報を、第1被写体位置姿勢情報として取得する。
制御コマンド取得部14は、操作部(不図示)から制御コマンドを取得する。制御コマンドは、コンテンツについての操作を示す。操作部は、第1被写体P1からの操作を受け付ける。操作部は、例えば、リモートコントローラー(リモコン)、キーボード、コントローラーなどを含んで構成される。コンテンツについての操作に応じて、コンテンツの内部状態が更新される。コンテンツの内部状態には、選択されたコンテンツ(番組など)を示す情報、再生または停止の区別、音量、コンテンツが表示される位置及び向き、コンテンツが表示される領域の大きさなどが含まれる。コンテンツを選択するとは、番組(またはチャンネル)などを選択することである。コンテンツが表示される位置は、第1被写体P1からみて左右方向あるいは奥行方向の位置によって指定される。
コンテンツ取得部15は、コンテンツC1を記憶部19から取得する。なお、本実施形態では、コンテンツC1が記憶部19に予め記憶されている場合の一例について説明するが、これに限られない。コンテンツ取得部15は、コンテンツ提示装置1以外からコンテンツを取得してもよい。例えば、コンテンツ取得部15は、DVDやブルーレイディスクやハードディスク装置などといった記録媒体から、コンテンツを取得してもよい。あるいは、コンテンツ取得部15は、通信や放送等の信号で配信されるコンテンツを取得してもよい。
処理部16は、外部情報取得部13、制御コマンド取得部14、コンテンツ取得部15、データ共有部17、第2被写体情報取得部18からの情報を処理し、ディスプレイ装置4に表示させる提示映像V1を計算し、出力する。処理部16の構成の詳細は後述する。
データ共有部17は、コンテンツ提示装置1(コンテンツ提示装置1-1)が他のコンテンツ提示装置1(コンテンツ提示装置1-2)との間で制御コマンドを共有するための処理を行う。データ共有部17は、制御コマンド取得部14が取得した制御コマンドを、他のコンテンツ提示装置1に送信する。データ共有部17は、他のコンテンツ提示装置1から制御コマンドを受信する。コンテンツについての操作は、上述したように第1被写体P1からの操作によって行われる場合と、第2被写体P2からの操作が他のコンテンツ提示装置1(コンテンツ提示装置1-2)から受信されて行われる場合とがある。
第2被写体情報取得部18は、第2被写体映像取得部181と、第2被写体位置・姿勢取得部182とを備える。第2被写体映像取得部181は、第2被写体映像PV2を他のコンテンツ提示装置1(コンテンツ提示装置1-2)から取得する。第2被写体映像PV2には、第2被写体P2の音声が含まれる。第2被写体映像取得部181が他のコンテンツ提示装置1-2から取得する第2被写体映像PV2は、他のコンテンツ提示装置1-2の側に備えられるRGBD撮影部(図3に示したRGBD撮影部31に対応)によって撮影されたRGBD画像から切り出された第2被写体映像PV2と、他のコンテンツ提示装置1-2の側に備えられる第2被写体音声取得部(図3に示した第1被写体音声取得部33に対応)によって取得された第2被写体P2の音声である。第2被写体位置・姿勢取得部182は、第2被写体P2の他のコンテンツ提示装置1(コンテンツ提示装置1-2)から第2被写体位置姿勢情報を取得する。第2被写体位置姿勢情報は、第2被写体P2の位置及び姿勢を示す情報である。
記憶部19は、各種の情報を記憶する。各種の情報には、コンテンツC1、共有基準情報192が含まれる。共有基準情報192は、第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1が提示映像V1において表示される位置、及び向きの基準を示す情報である。共有基準情報192には、後述する第1被写体基準位置情報M1、及び第2被写体基準位置情報M2が含まれる。また、共有基準情報192には、コンテンツC1が表示される3次元空間T1内の位置と第1被写体基準位置情報M1が示す位置と第2被写体基準位置情報M2が示す位置との間の相対的な位置関係が含まれる。共有基準情報192は、コンテンツ提示装置1(コンテンツ提示装置1-1)と他のコンテンツ提示装置1(コンテンツ提示装置1-2)との間で共有されている。第1被写体基準位置情報M1が示す位置、及び第2被写体基準位置情報M2が示す位置については後述する。記憶部19は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。
なお、本実施形態では、共有基準情報192が記憶部19に予め記憶されている場合の一例について説明するが、これに限られない。コンテンツ提示装置1は、共有基準情報192をコンテンツ提示装置1以外の外部の装置(例えば、サーバー装置2)から取得してもよい。
処理部16は、位置設定部161と、第1被写体映像抽出部166と、背景映像取得部167と、マスク生成部168と、オクルージョン再現部169と、提示部1610とを備える。
位置設定部161は、第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1が提示映像V1において表示される位置、及び向きを設定する。位置設定部161は、基準位置設定部162と、第1被写体位置設定部163と、第2被写体位置設定部164と、コンテンツ位置設定部165とを備える。
基準位置設定部162は、第1被写体基準位置情報M1、及び第2被写体基準位置情報M2を3次元空間T1内に設定する。3次元空間T1は、提示映像V1を生成するために各要素(第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1)の位置、向きを計算するための3次元空間である。第1被写体基準位置情報M1は、第1被写体映像PV1について基準となる位置及び向きを示す情報である。第2被写体基準位置情報M2は、第2被写体映像PV2について基準となる位置及び向きを示す情報である。第1被写体基準位置情報M1、及び第2被写体基準位置情報M2はそれぞれ、一例として、3次元空間T1内に配置された3つの点(マーカーともいう)である。第1被写体基準位置情報M1、及び第2被写体基準位置情報M2それぞれは、3つのマーカーによって3次元空間T1における位置と向きとを示す。ここで向きには、垂直方向についての向きと、この垂直方向に垂直な方向である回転方向についての向きとの2つの向きが含まれる。第1被写体基準位置情報M1が示す向きに垂直方向についての向きと、この垂直方向に垂直な方向である回転方向についての向きとが含まれることによって、第1被写体P1は、自身が装着しているヘッドマウントディスプレイH1-1の向きが、3次元空間T1に対して傾いていないかを確認できる。ヘッドマウントディスプレイH1-1の向きが、3次元空間T1に対して傾いているとは、例えば、ヘッドマウントディスプレイH1-1を装着している第1被写体P1が第1の空間R1の床に対して直立している場合に、この床が3次元空間T1における水平面に対して傾いていることである。ヘッドマウントディスプレイH1-1の向きが、3次元空間T1に対して傾いている場合には、第1被写体P1は自身の姿勢を調整してヘッドマウントディスプレイH1-1の向きを調整する。
基準位置設定部162は、第2被写体基準位置情報M2を、第2被写体基準位置情報M2が示す位置と第1被写体基準位置情報M1が示す位置との間の所定の相対的位置関係に基づいて3次元空間T1内に設定する。第1被写体基準位置情報M1が示す位置とは、例えば、第1被写体基準位置情報M1が示す3つの点のうちの1つの点の位置である。同様に、第2被写体基準位置情報M2が示す位置とは、例えば、第2被写体基準位置情報M2が示す3つの点のうちの1つの点の位置である。所定の相対的位置関係は、共有基準情報192に含まれる。この所定の相対的位置関係は、3次元空間T1内に設定された原点及び座標系に基づく関係である。3次元空間T1内に原点及び座標系が設定されて第1被写体基準位置情報M1が示す位置が設定されると、それら第1被写体基準位置情報M1が示す位置に対して第2被写体基準位置情報M2が示す位置が決められる。第2被写体基準位置情報M2が示す位置は、例えば、第1被写体基準位置情報M1が示す位置と、RGBDカメラCM1が設置される位置との間に含まれる位置である。
なお、本実施形態では、第1被写体基準位置情報M1、及び第2被写体基準位置情報M2は、それぞれ3つのマーカーである場合の一例について説明するが、これに限られない。第1被写体基準位置情報M1、及び第2被写体基準位置情報M2は、3次元空間T1における位置と、垂直方向についての向きと、回転方向についての向きとを示しさえすれば他の情報であってもよい。例えば、第1被写体基準位置情報M1、及び第2被写体基準位置情報M2は、それぞれ3次元の局所座標系であってもよい。局所座標系は、3次元空間T1に設定される座標系とは別に、3次元空間T1の点ごとに設定される。
他の例として、第1被写体基準位置情報M1、及び第2被写体基準位置情報M2は、それぞれ4つ以上のマーカーであってもよい。
第1被写体位置設定部163は、第1被写体映像PV1の3次元空間T1内の位置及び向きを第1被写体基準位置情報M1に基づいて設定する。
第2被写体位置設定部164は、第2被写体映像PV2の3次元空間T1内の位置及び向きを第2被写体基準位置情報M2に基づいて設定する。
コンテンツ位置設定部165は、第1被写体基準位置情報M1が示す位置と、第2被写体基準位置情報M2が示す位置との間の所定の相対的位置関係に基づいてコンテンツC1が表示される3次元空間T1内の位置を設定する。この所定の相対的位置関係は、共有基準情報192に含まれる。この所定の相対的位置関係は、例えば、第1被写体基準位置情報M1が示す位置と、第2被写体基準位置情報M2が示す位置と、コンテンツC1の位置とが所定の長さの3辺をもつ三角形を形成するような相対的位置関係である。
第1被写体映像抽出部166は、周辺映像E1から所定の被写体(人等)の映像を抽出する。また、所定の被写体の映像には、第1被写体映像PV1とともに、同一の空間(第1の空間R1)内で同一のバーチャルリアリティコンテンツを一緒に体験している他者の体の映像が含まれる。第1被写体映像抽出部166は、周辺映像取得部131が取得した周辺映像E1内の、第1被写体P1を認識する処理を行う。第1被写体映像抽出部166は、周辺映像E1から距離情報(デプスマップ)を生成し、生成した距離情報と、予め設定された深さに基づいて周辺映像E1内において所定の被写体が映っている箇所(画像内の領域の座標等の情報)を特定する。第1被写体映像抽出部166は、認識処理の結果として、周辺映像E1内の領域の位置情報を、マスク生成部168に供給する。
上述したように、所定の被写体の映像には、第1被写体映像PV1が含まれる。したがって、第1被写体映像抽出部166は、周辺映像E1から第1被写体映像PV1を抽出する。
なお、第1被写体映像抽出部166は、機械学習に基づいて第1被写体P1を認識してもよい。その場合、第1被写体映像抽出部166は、機械学習により、映像における所定被写体の特徴を予め学習済みである。第1被写体映像抽出部166は、学習済みのモデルを参照することにより、周辺映像E1内において所定の被写体が映っている箇所(画像内の領域の座標等の情報)を特定し、その情報を出力する。
また、第1被写体映像抽出部166は、抽出する被写体の種類に応じて抽出のためのアルゴリズムを選択してもよい。例えば、第1被写体映像抽出部166は、同一の空間(第1の空間R1)内で同一のバーチャルリアリティコンテンツを一緒に体験している他者が遠方に存在する場合に当該他者の映像の抽出に機械学習を用い、当該他者以外の被写体の映像の抽出に距離情報を用いてもよい。
背景映像取得部167は、背景映像BG1を取得する。背景映像取得部167は、周辺映像取得部131が取得した周辺映像E1から、提示領域の映像(画像)を切り出す。背景映像取得部167は、切り出した提示領域の映像を背景映像BG1として取得する。提示領域の映像は、周辺映像E1全体の一部のみ(例えば、中心付近の部分)であってもよい。これにより、周辺映像取得部131が取得する周辺映像E1の視野角と、ディスプレイ装置4に表示する提示映像V1の視野角とを、合わせることができる。背景映像取得部167は、切り出した映像(画像)を、提示部1610に供給する。なお、背景映像取得部167の処理は、中心射影の処理を含んでよい。
マスク生成部168は、マスク情報を生成する。マスク生成部168は、距離情報に基づくマスク情報と、認識結果に基づくマスク情報とを生成する。距離情報に基づくマスク情報は、距離情報取得部132から供給される距離情報に基づいて提示映像を提示すべき領域であるか否かを表す。また、認識結果に基づくマスク情報は、第1被写体映像抽出部166が認識した被写体(第1被写体P1の体、または第1の空間R1に存在し第1被写体P1とコンテンツを共有する被写体)が存在する領域であるか否かを表す。本実施形態では、マスク情報は、第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1を表示すべき領域であるか、周辺映像E1を表示すべき領域であるかを表す情報である。
上記のように、マスク生成部168は、距離情報に基づくマスクと、認識結果に基づくマスクとを生成する。これにより、提示部1610は、次のような提示を行えるようになる。例えば、自分自身(つまり、第1被写体P1)の体や、同一の空間(第1の空間R1)内で同一のバーチャルリアリティコンテンツを一緒に体験している他者の体、及び他の空間(第2の空間R2)内で同一のバーチャルリアリティコンテンツを一緒に体験している他者(第2被写体P2の)体を、バーチャルリアリティ映像の中に提示することができる。第1被写体映像切り出し部111によって認識される所定の被写体(人等)に関しては、自装置からの距離に関わらず、周辺映像E1の表示が行われるようにすることができる。特定の被写体(人等)以外に関しては、距離情報に基づく提示が行われる。つまり、自装置から比較的近い範囲の物は、周辺映像E1に含まれる形で、バーチャルリアリティ空間の中に提示される。また、自装置から比較的遠い範囲に存在する物は、周辺映像E1に含まれる形では提示されない。そのように自装置から比較的遠い範囲に存在する物が存在する領域では、最背面に全天球映像Z1が提示される。
ここで、「比較的近い範囲」とは、例えば、人がその場から動くことなく(例えば、着座のまま)手を伸ばして触れられる範囲である。例えば、1メートル以内程度の範囲である。逆に「比較的遠い範囲」とは、例えば、2メートル以上程度の範囲である。その中間の距離の範囲(1メートル以上且つ2メートル以下)では、近距離用の周辺映像E1と、遠距離用の全天球映像Z1とを混合した映像が提示されてもよい。
3次元空間T1は、近距離領域TN1と、遠距離領域TF1とからなる。近距離領域TN1は、上記した「比較的近い範囲」である。遠距離領域TF1は、上記した「比較的遠い範囲」である。
オクルージョン再現部169は、オクルージョンについての処理を行う。オクルージョンとは、手前に存在する物体を奥に存在する物体を隠すようにして描画することである。オクルージョン再現部169は、第1被写体映像PV1の3次元空間T1内の位置と、第2被写体映像PV2の3次元空間T1内の位置とに基づいて、提示映像V1において第1被写体映像PV1と第2被写体映像PV2とのいずれが手前側にあるかを判定する。オクルージョン再現部169は、判定結果を提示部1610に供給する。
提示部1610は、提示映像V1を生成する。提示映像V1は、3次元空間T1内の位置及び向きが設定された第1被写体映像PV1と、3次元空間T1内の位置及び向きが設定された第2被写体映像PV2と、3次元空間T1内の位置が設定されたコンテンツC1とが、周辺映像E1を背景として3次元空間T1内に表示された映像である。提示部1610は、マスク生成部168によって生成されたマスク情報と、オクルージョン再現部169による判定結果とに基づいて、提示映像V1内において、第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1相互間の位置関係を反映して提示映像V1を生成する。なお、提示映像V1を生成する処理をレンダリングともいう。提示部1610は、生成した提示映像V1をディスプレイ装置4に出力する。
提示部1610は、提示映像V1をディスプレイ装置4に出力する処理において、第2被写体映像PV2に含まれる音声を、第2被写体映像PV2の3次元空間T1内の位置に基づいて定位させて出力する。また、提示部1610は、提示映像V1をディスプレイ装置4に出力する処理において、コンテンツC1に含まれる音声を、コンテンツC1が表示される3次元空間T1内の位置に基づいて定位させて出力する。なお、提示部1610は、コンテンツC1に含まれる音声を、コンテンツC1が表示される3次元空間T1内の位置以外から出力してもよい。
ディスプレイ装置4は、提示部1610が出力する提示映像V1を表示する。ディスプレイ装置4は、ヘッドマウントディスプレイH1に内蔵される。ディスプレイ装置4は、画面上の領域ごとに、提示部1610から出力される提示映像V1を表示する。なお、ディスプレイ装置4は、例えば立体視のためのステレオ表示を行うものであってもよい。
[撮影処理]
ここで本実施形態に係る撮影処理について説明する。撮影処理とは、RGBDカメラCM1によって被写体が撮像され、撮影部11によって被写体の映像が他のコンテンツ提示装置1に送信される処理である。図5は、本実施形態に係る撮影処理の一例を示す図である。図5に示す撮影処理は、コンテンツ提示装置1が提示する提示映像V1の1フレーム分についての処理に対応する。なお、図5に示す撮影処理は、第1被写体映像PV1の側を例に取って説明するが、第2被写体映像PV2の側の撮影処理についても同様である。
ステップS10:第1被写体映像切り出し部111は、RGBD撮影部31によって撮影されたRGBD映像を取得する。RGBD映像は、RGBD撮影部31(RGBDカメラCM1-1)によって撮影され、RGBDカメラCM1-1の周辺の映像であって、第1被写体P1を含む。
ステップS20:第1被写体映像切り出し部111は、RGBD撮影部31によって撮影されたRGBD映像から第1被写体映像PV1を切り出す。ここで第1被写体映像切り出し部111は、予め設定された深さに基づいてRGBD映像から第1被写体映像PV1を切り出す。なお、第1被写体映像切り出し部111は、機械学習に基いてRGBD映像から第1被写体映像PV1を切り出してもよい。第1被写体映像切り出し部111は、切り出した第1被写体映像PV1を第1被写体映像供給部112に供給する。
ステップS30:第1被写体映像供給部112は、第1被写体映像切り出し部111から供給される第1被写体映像PV1を他のコンテンツ提示装置1-2に送信する。
ステップS40:第1被写体映像供給部112は、第1被写体位置測定部32からHMD位置情報を取得する。HMD位置情報は、上述したように第1被写体位置測定部32(ヘッドマウントディスプレイH1-1に内蔵されるジャイロセンサー)によって測定されたヘッドマウントディスプレイH1-1の位置及び姿勢を示す。
ステップS50:第1被写体映像供給部112は、第1被写体音声取得部33から第1被写体音声情報を取得する。第1被写体音声情報は、上述したように第1被写体音声取得部33(ヘッドマウントディスプレイH1-1に内蔵されるマイク)によって取得された第1被写体P1の音声を示す。
ステップS60:第1被写体映像供給部112は、取得したHMD位置情報、及び第1被写体音声情報を他のコンテンツ提示装置1-2に送信する。
ステップS70:撮影部11は、撮影処理の終了条件が満たされたか否かを判定する。撮影処理の終了条件とは、例えば、撮影処理を終了する操作を撮影部11が受け付けること、あるいはヘッドマウントディスプレイH1-1の電源がオフになることである。撮影部11は、撮影処理の終了条件が満たされと判定した場合(ステップS70;YES)、撮影処理を終了する。一方、撮影部11は、撮影処理の終了条件が満たされていないと判定した場合(ステップS70;NO)、ステップS10の処理を再度実行する。
以上で、撮影部11は、撮影処理を終了する。
なお、撮影処理において、ステップS10からステップS20までの第1被写体映像PV1が切り出されるまでの処理と、ステップS40のHMD位置情報を取得する処理と、ステップS50の第1被写体音声情報を取得する処理とは、並列して実行されてもよい。また、ステップS30の第1被写体映像PV1を送信する処理と、ステップS60のHMD位置情報、及び第1被写体音声情報を送信する処理とは、並列してあるいは一度に実行されてもよい。第1被写体音声情報は、他のコンテンツ提示装置1-2に送信される前に、第1被写体映像PV1に含まれて送信されてもよい。
[表示処理]
次に本実施形態に係る表示処理について説明する。表示処理とは、ヘッドマウントディスプレイH1に内蔵されるディスプレイ装置4に提示映像V1を表示させる処理である。図6は、本実施形態に係る表示処理の一例を示す図である。図6に示す表示処理は、コンテンツ提示装置1が提示する提示映像V1の1フレーム分についての処理に対応する。なお、図6に示す表示処理は、第1被写体映像PV1の側を例に取って説明するが、第2被写体映像PV2の側の撮影処理についても同様である。
ステップS110:提示部1610は、基準位置設定部162によって3次元空間T1内に設定された第1被写体基準位置情報M1、及び第2被写体基準位置情報M2をディスプレイ装置4に表示させる。
ステップS120:周辺映像取得部131は、ステレオカメラSC1-1が撮影した周辺映像E1を取得する。ステレオカメラSC1-1が撮影した周辺映像E1は、左側のカメラによって撮像された映像と、右側のカメラによって撮像された映像との組である。
ステップS130:提示部1610は、背景映像取得部167によって切り出された提示領域の映像をディスプレイ装置4に表示させる。ここで第1被写体映像PV1は、第1被写体映像抽出部166によって周辺映像E1から抽出されてディスプレイ装置4に表示される。
ステップS140:第1被写体位置設定部163は、第1被写体映像PV1の3次元空間T1内の位置及び向きを第1被写体基準位置情報M1に基づいて設定する。ここで第1被写体位置設定部163は、レンダリングによって生成される提示映像V1において視点となる位置及び向きを調整することによって3次元空間T1における第1被写体映像PV1の位置を調整する。第1被写体映像PV1の位置が第1被写体基準位置情報M1に基づいて設定(調整)される前では、提示映像V1において視点となる位置及び向きは、ヘッドマウントディスプレイH1-1の仕様に基づいて設定されている初期の表示における所定の位置及び向きに設定されて提示映像V1が表示される。そのため、3次元空間T1内において第1被写体映像PV1の位置及び向きは、第1被写体基準位置情報M1が示す位置及び向きからは一般にはずれている。第1被写体位置設定部163は、提示映像V1において視点となる位置及び向きを第1被写体基準位置情報M1が示す位置及び向きに一致させる。これによって、第1被写体位置設定部163は、3次元空間T1内において、第1被写体映像PV1の位置及び向きを第1被写体基準位置情報M1が示す位置及び向きに一致させる。
ステップS150:提示部1610は、第2被写体映像取得部181によって取得された第2被写体映像PV2をディスプレイ装置4に表示させる。ここで提示部1610は、第2被写体映像PV2を所定未満の透過度において表示する。ここで所定未満の透過度とは、第1被写体P1にとって第2被写体映像PV2が透けていないと感じられる程度の透過度である。なお、提示部1610は、第2被写体映像PV2を所定以上の透過度において表示してもよい。
提示部1610は、第2被写体映像PV2を実写映像として表示する。実写映像として表示するとは、RGBDカメラCM1-2によって第2被写体P2が撮影された映像を、画素値をそのまま用いて質感を損なうことなく表示することである。
提示部1610は、オクルージョン再現部169によって判定された第2被写体映像PV2と、提示領域に含まれる他の物体に対応する映像とのいずれが手前にあるかの判定結果に基づいて第2被写体映像PV2を表示させる。提示領域に含まれる他の物体には、第1被写体映像PV1、周辺映像E1に撮影された風景が含まれる。
ステップS160:第2被写体位置設定部164は、第2被写体映像PV2の3次元空間T1内の位置及び向きを第2被写体基準位置情報M2に基づいて設定する。ここで第2被写体P2を撮影するステレオカメラSC1-2は、自装置の位置から撮影される風景をみた場合の映像を、自装置の高さ方向及び左右方向の位置を撮影された映像の中心にしてそのままRGBD映像として出力する。そのため、第2被写体位置設定部164は、3次元空間T1内において第2被写体映像PV2を投影する仮想的なカメラ(プロジェクタ)の位置及び向きを調整することによって、3次元空間T1内における第2被写体映像PV2の位置及び向きを調整する。以下の説明では、3次元空間T1内において第2被写体映像PV2を投影する仮想的なカメラを仮想カメラVC1-1という。第2被写体映像PV2の位置が第2被写体基準位置情報M2に基づいて設定(調整)される前では、仮想カメラVC1-1の位置及び向きは、ヘッドマウントディスプレイH1-1の仕様に基づいて設定されている初期の表示における所定の位置及び向きに設定されている。そのため、3次元空間T1内において第2被写体映像PV2の位置及び向きは、第2被写体基準位置情報M2が示す位置及び向きからは一般にはずれている。第2被写体位置設定部164は、3次元空間T1内において仮想カメラVC1-1の位置及び向きを調整することによって、3次元空間T1内において、第2被写体映像PV2の位置及び向きを第2被写体基準位置情報M2が示す位置及び向きに一致させる。
上述したように、ステップS140及びステップS160において、3次元空間T1内の第1被写体映像PV1、及び第2被写体映像PV2それぞれの位置及び向きが、第1被写体基準位置情報M1及び第2被写体基準位置情報M2に基づいてそれぞれ設定される。3次元空間T1内の第1被写体映像PV1、及び第2被写体映像PV2それぞれの位置及び向きが一度設定されると、以降のフレームにおいて、3次元空間T1内の第1被写体映像PV1、及び第2被写体映像PV2それぞれの位置及び向きの変化は、第1被写体基準位置情報M1及び第2被写体基準位置情報M2に基づいてそれぞれ設定された位置及び向きからの相対的な変化となる。コンテンツ提示システムSでは、第1被写体基準位置情報M1、第2被写体基準位置情報M2、及び第1被写体基準位置情報M1が示す位置と第2被写体基準位置情報M2が示す位置との間の相対的な位置関係は、複数のコンテンツ提示装置1相互間において共有されている。したがって、以降のフレームにおける第1被写体基準位置情報M1及び第2被写体基準位置情報M2に基づいてそれぞれ設定された位置及び向きからの相対的な変化は、複数のコンテンツ提示装置1相互間において共有される。
ステップS170:提示部1610は、ディスプレイ装置4に表示されている第1被写体基準位置情報M1、及び第2被写体基準位置情報M2を非表示にする。
ステップS180:提示部1610は、他のコンテンツ提示装置1-2から受信したHMD位置情報に基づいて、第2被写体映像PV2に含まれる音声を第2被写体映像PV2の3次元空間T1内の位置に基づいて定位させて出力(再生)する。他のコンテンツ提示装置1-2から受信したHMD位置情報は、第2被写体P2に装着されているヘッドマウントディスプレイH1-2の位置を示す。第2被写体映像PV2に含まれる音声は、第2被写体映像PV2に第2被写体音声情報として含まれている。なお、提示部1610は、第2被写体映像PV2に含まれる音声を第2被写体映像PV2の3次元空間T1内の位置以外の位置から出力してもよい。
ステップS190:提示部1610は、操作部(不図示)に制御コマンドが入力されたか否かを判定する。操作部とは、第1被写体映像PV1側の操作部と、第2被写体映像PV2側の操作部の両方である。第1被写体映像PV1側の操作部に入力される制御コマンドは、制御コマンド取得部14から取得される。第2被写体映像PV2側の操作部に入力される制御コマンドは、他のコンテンツ提示装置1-2からデータ共有部17によって取得される。制御コマンド取得部14は、制御コマンドが入力されたと判定した場合(ステップS190;YES)、ステップS200の処理を実行する。一方、制御コマンド取得部14は、制御コマンドが入力さていないと判定した場合(ステップS190;NO)、ステップS220の処理を実行する。
ステップS200:データ共有部17は、制御コマンド取得部14が取得した制御コマンドを他のコンテンツ提示装置1-2に送信する。
ステップS210:制御コマンド取得部14は、取得した制御コマンドに応じてコンテンツC1の内部状態を更新する。
ステップS220:マスク生成部168は、同一空間共有用マスク情報を生成する。同一空間共有用マスク情報は、第1の空間R1内に存在する被写体(第1被写体P1の体、または第1の空間R1に存在し第1被写体P1とコンテンツを共有する被写体)が存在する領域であるか否かを示す。
ステップS230:マスク生成部168は、ステップ220において生成した同一空間共有用マスク情報に、第2被写体映像PV2が存在する領域であるか否かを示す情報を追加する。
ステップS240:マスク生成部168は、コンテンツの内部状態に応じてコンテンツC1が存在する領域であるか否かを示す情報を同一空間共有用マスク情報に追加する。
ステップS250:提示部1610は、同一空間共有用マスク情報に基づいて、コンテンツC1を提示映像V1に追加する。ここで提示部1610は、コンテンツC1に含まれる映像、及び音声を提示映像V1に追加する。
ステップS260:提示部1610は、生成した提示映像V1をディスプレイ装置4に出力し、表示させる。ここで提示部1610は、ビデオシースルー方式を用いて提示映像V1を生成する。ディスプレイ装置4は、ビデオシースルー方式を用いて提示映像V1を表示する。なお、ディスプレイ装置4は、光学シースルー方式を用いて提示映像V1を表示してもよい。
ステップS270:処理部16は、表示処理の終了条件が満たされたか否かを判定する。表示処理の終了条件とは、例えば、ヘッドマウントディスプレイH1-1の電源がオフになることである。処理部16は、表示処理の終了条件が満たされたと判定した場合(ステップS270;YES)、表示処理を終了する。一方、処理部16は、表示処理の終了条件が満たされていないと判定した場合(ステップS270;NO)、ステップS120に戻って以降の処理を再度実行する。ここで、2回目以降の表示処理においては、ステップS110、ステップS140、ステップS160、及びステップS170の各処理は省略される。
以上で、表示部12は表示処理を終了する。
なお、図6に示した表示処理においては、第2被写体映像PV2の表示位置が設定された後に、コンテンツC1の表示位置が設定される場合の一例について説明したが、これに限られない。コンテンツC1の表示位置が設定された後に、第2被写体映像PV2の表示位置が設定されてもよい。
[位置設定]
ここで図7、図8を参照し、位置設定部161が第1被写体映像PV1、第2被写体映像PV2、及びコンテンツC1の3次元空間T1内のそれぞれの位置を設定する処理について説明する。図7は、本実施形態に係る位置設定処理の一例を示す図である。図7(A)は、第1被写体P1の側の3次元空間T1-1における位置関係を示す。図7(B)は、第2被写体P2の側の3次元空間T1-2における位置関係を示す。3次元空間T1-1、及び3次元空間T1-2には、原点O1が予め設定されている。なお、図7(A)では第1被写体P1の体の全体が示されているが、ヘッドマウントディスプレイH1-1に表示される提示映像V1では、第1被写体P1の体は、ステレオカメラSC1-1によって撮影された部分のみがビデオシースルーに基づいて表示される。同様に、図7(B)では第2被写体P2の体の全体が示されているが、ヘッドマウントディスプレイH1-2に表示される提示映像V1では、第2被写体P2の体は、ステレオカメラSC1-2によって撮影された部分のみがビデオシースルーに基づいて表示される。
第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13の組は、第1被写体基準位置情報M1の一例である。第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13は、原点O1に対する所定の相対位置に設定される。第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13それぞれの原点O1からの距離、及び原点O1からみた方向は予め決定されている。換言すれば、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13のそれぞれの位置を、3次元空間T1-1に予め設定された3次元座標系によって表した場合の各座標の値は予め決定されている。
第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23の組は、第2被写体基準位置情報M2の一例である。第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23は、原点O1に対する所定の相対位置に設定される。第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23それぞれの原点O1からの距離、及び原点O1からみた方向は予め決定されている。換言すれば、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23のそれぞれの位置を、3次元空間T1-1に予め設定された3次元座標系によって表した場合の各座標の値は予め決定されている。
上述したように、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13は原点O1に対する所定の相対位置に設定されるため、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23は、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13に対する所定の相対位置に設定される。
第1被写体映像PV1は、例えば、第1被写体映像PV1の頭部、腰、第1被写体P1の正面の方向の所定の位置がそれぞれ、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13にそれぞれ一致するように表示される。ただし、ヘッドマウントディスプレイH1-1に表示される提示映像V1では、第1被写体P1の体のうちステレオカメラSC1-1によって撮影された部分のみがビデオシースルーに基づいて第1被写体映像PV1として表示される。
第2被写体映像PV2は、上述したように3次元空間T1-1において仮想カメラVC1-1によって投影されて表示される。第2被写体映像PV2は、例えば、第2被写体映像PV2の頭部、腰、第2被写体P2の正面の方向の所定の位置がそれぞれ、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23にそれぞれ一致するように表示される。第2被写体映像PV2に第2被写体音声情報として含まれる音声は、第2被写体音声位置PP2に定位されて出力される。第2被写体音声位置PP2は、第2被写体映像PV2の頭部の位置(第2被写体第1マーカーM21の位置)に基づいて設定される。第2被写体音声位置PP2は、例えば、第2被写体映像PV2の頭部の位置に設定される。あるいは第2被写体音声位置PP2は、第2被写体映像PV2の頭部の位置から高さ方向に所定の距離だけ離れた位置に設定されてもよい。第2被写体音声位置PP2は、第2被写体映像PV2の頭部の位置に基づいて設定された後、この頭部の位置の移動に連動して移動する。
図7(B)に示す3次元空間T1-2においても、第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23は、図7(A)に示す3次元空間T1-1と設定された位置と同じ位置に設定される。第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23それぞれの原点O1からの距離、及び原点O1からみた方向は、3次元空間T1-1と、3次元空間T1-2との間で同じである。換言すれば、第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23それぞれの座標の値は、3次元空間T1-1と、3次元空間T1-2との間で同じである。第1被写体音声位置PP1は、例えば、第1被写体映像PV1の頭部の位置に設定される。あるいは第1被写体音声位置PP1は、第1被写体映像PV1の頭部の位置から高さ方向に所定の距離だけ離れた位置に設定されてもよい。第1被写体音声位置PP1は、第1被写体映像PV1の頭部の位置に基づいて設定された後、この頭部の位置の移動に連動して移動する。
第1被写体映像PV1は、3次元空間T1-2において仮想カメラVC1-2によって投影されて表示される。図7に示す例では、第1被写体映像PV1の頭部、腰、第1被写体P1の正面の方向の所定の位置がそれぞれ、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13にそれぞれ一致されるように表示され、第2被写体映像PV2の頭部、腰、第2被写体P2の正面の方向の所定の位置がそれぞれ、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23にそれぞれ一致するように表示される場合の一例について説明したが、これに限られない。第1被写体映像PV1に含まれる部分のうち、第1被写体基準位置情報M1が示す位置に応じた所定の3つの部分が第1被写体基準位置情報M1が示す3つの位置にそれぞれ一致されるように表示されてもよい。例えば、第1被写体第1マーカーM11、第1被写体第2マーカーM12、及び第1被写体第3マーカーM13それぞれの位置に応じて、第1被写体映像PV1の肩、腕、足の位置が、第1被写体映像PV1の第1被写体基準位置情報M1が示す位置への位置合わせに用いられてもよい。また、第1被写体基準位置情報M1が示す位置に応じて、第1被写体P1の周囲の所定の方向(正面の方向以外に、背面の方向、左右の方向など)の所定の位置が第1被写体映像PV1の第1被写体基準位置情報M1が示す位置への位置合わせに用いられてもよい。
第2被写体映像PV2の第2被写体基準位置情報M2が示す位置への位置合わせについても同様に、第2被写体映像PV2に含まれる部分のうち第2被写体基準位置情報M2が示す位置に応じた所定の3つの部分が第2被写体基準位置情報M2が示す位置に一致されるように表示されてもよい。
ここで、第1被写体映像PV1及び第2被写体映像PV2の位置の設定をヘッドマウントディスプレイH1-1に表示される映像を用いて説明する。図8は、本実施形態に係る被写体の位置を設定するためにヘッドマウントディスプレイH1-1に表示される映像の一例を示す図である。図8に示す例では、第1被写体P1は第1の空間R1においてヘッドマウントディスプレイH1-1を頭部に装着した状態で椅子OB1に座っている。第2被写体P2は、第2の空間R2において椅子に座っている。図8に示す例では、第2被写体映像PV2には、第2被写体P2の映像とともに第2被写体P2が座っている椅子OB2の映像が含まれる。
図8(A)は、第2被写体映像PV2の位置が、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23に対してずれている状態を示す。図8(A)では、第2被写体映像PV2における第2被写体P2の腰の位置(つまり、椅子OB2の座面の位置)と、第2被写体第2マーカーM22の位置とがずれている。一方、第1被写体P1が座っている椅子OB1の座面の位置と、第1被写体第2マーカーM12の位置とは一致しており、第1被写体映像PV1の位置は、第1被写体P1の位置が、第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13に対してずれていない。
第2被写体映像PV2の位置の調整は、上下方向、前後方向、左右方向について行われる。第2被写体映像PV2に含まれる第2被写体P2の足の位置は、3次元空間T1の底面の位置に一致するように上下方向の調整が行われる。つまり、第2被写体位置設定部164は、第2被写体基準位置情報M2に基づいて第2被写体映像PV2に含まれる第2被写体P2の足の位置を3次元空間T1の底面の位置に一致させて、第2被写体映像PV2の3次元空間T1内の位置を設定する。なお、第2被写体位置設定部164は、第2被写体P2の足の位置を3次元空間T1の底面の位置以外の位置に一致させて第2被写体映像PV2の3次元空間T1内の位置を設定してもよい。
第2被写体映像PV2の位置が、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23に対して調整されると、図8(C)に示す状態が得られる。図8(C)では、第2被写体映像PV2における第2被写体P2の腰の位置(つまり、椅子OB2の座面の位置)と、第2被写体第2マーカーM22の位置とが一致している。
一方、図8(B)では、第1被写体P1の位置が、第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13に対してずれている状態を示す。図8(B)では、第1被写体P1が座っている椅子OB1の座面の位置と、第1被写体第2マーカーM12の位置とがずれている。一方、第2被写体映像PV2における第2被写体P2の腰の位置(つまり、椅子OB2の座面の位置)と、第2被写体第2マーカーM22の位置とは一致しており、第2被写体映像PV2の位置が、第2被写体第1マーカーM21、第2被写体第2マーカーM22、及び第2被写体第3マーカーM23に対してずれていない。
第1被写体映像PV1の位置の調整は、前後方向、左右方向について行われる。ヘッドマウントディスプレイH1-1に表示される映像において、3次元空間T1の底面はヘッドマウントディスプレイH1-1の上下方向の位置に基づいて予め調整される。ヘッドマウントディスプレイH1-1の上下方向の位置と、正面の方向とがそれぞれ、3次元空間T1の底面の位置と、水平方向の位置とにそれぞれ一致するように予め調整されている場合には、第1被写体映像PV1の上下方向の位置の調整は行われない。ヘッドマウントディスプレイH1-1の上下方向の位置と、正面の方向とがそれぞれ、3次元空間T1の底面の位置と、水平方向の位置とにそれぞれ一致するように予め調整されていない場合には、第1被写体映像PV1の上下方向の位置の調整が行われる。
第1被写体映像PV1の位置が、第1被写体第1マーカーM11、第1被写体第2マーカーM12、第1被写体第3マーカーM13に対して調整されると、図8(C)に示す状態が得られる。図8(C)では、第1被写体P1が座っている椅子OB1の座面の位置と、第1被写体第2マーカーM12の位置とが一致している。
なお、第1被写体映像PV1、あるいは第2被写体映像PV2の位置の調整が完了すると、各マーカーは非表示の状態にされる。
ここで第2被写体映像PV2は、第2被写体P2がRGBDカメラCM1-2に一方向から撮影されて得られる映像である。第2被写体映像PV2における第2被写体P2の上下方向の位置は、撮影部11によって調整される。これは、RGBDカメラCM1-2の上下方向の位置(高さ)が第2被写体P2の目線と同程度の上下方向の位置(高さ)にあることが好ましいためである。
第2被写体映像PV2における第2被写体P2の上下方向に垂直な方向の位置、及び当該方向についての向き(回転の向き)は、RGBDカメラCM1-2の位置によって調整されてもよいし、表示部12によって調整されてもよいし、RGBDカメラCM1-2の位置による調整と表示部12による調整とが組み合わされて調整されてもよい。本実施形態では、第2被写体映像PV2における第2被写体P2の上下方向に垂直な方向についての向きが適当でない場合には、一例として、第2被写体P2を撮影するRGBDカメラCM1-2の上下方向に垂直な方向の位置、及び当該方向についての向き(回転の向き)が調整される。第2被写体映像PV2における第2被写体P2の上下方向に垂直な方向の位置、及び当該方向についての向き(回転の向き)は、RGBDカメラCM1-2の位置によって調整される場合には、RGBDカメラCM1-2の撮影範囲における第2被写体映像PV2の位置あるいは向きを一定にできる。
なお、上述したようにRGBDカメラCM1-2の向きが調整される代わりに、表示部12によって第2被写体映像PV2における第2被写体P2の上下方向に垂直な方向の位置、及び当該方向についての向き(回転の向き)が変更されてもよい。その場合、表示部12に備えられる第2被写体位置設定部164は、画像処理に基づいて第2被写体映像PV2の上下方向に垂直な方向の位置、及び当該方向についての向き(回転の向き)を変更する。第2被写体位置設定部164は、予め取得された第2被写体P2についての複数の方向から撮影した場合の複数の画像から、適当な画像が選択してもよい。または、第2被写体位置設定部164は、機械学習などを用いた画像処理に基づいて第2被写体P2を他の方向から撮影した場合の画像を生成することによって第2被写体映像PV2における第2被写体P2の向きを変更してもよい。
図7に戻って位置設定の説明を続ける。
コンテンツC1が表示される3次元空間T1内の位置は、原点O1に対する所定の相対位置に設定される。第1被写体基準位置情報M1が示す位置、及び第2被写体基準位置情報M2が示す位置は、原点O1に対する所定の相対位置に設定されているため、コンテンツC1が表示される位置は、第1被写体基準位置情報M1が示す位置、及び第2被写体基準位置情報M2が示す位置に対する所定の相対位置に設定されている。
コンテンツC1に含まれる音声は、コンテンツ音声位置PC1に定位されて再生される。コンテンツ音声位置PC1は、コンテンツC1が表示される位置に基づいて設定される。コンテンツ音声位置PC1は、例えば、コンテンツC1が表示される位置に設定される。なおコンテンツ音声位置PC1は、コンテンツC1が表示される位置から高さ方向に所定の距離だけ離れた位置に設定されてもよい。コンテンツ音声位置PC1は、コンテンツC1が表示される位置に基づいて設定された後、コンテンツC1が表示される位置の移動に連動して移動する。
ここで図9を参照し、コンテンツC1が表示される位置と、第1被写体映像PV1が表示される位置と、第2被写体映像PV2が表示される位置との関係について説明する。図9は、本実施形態に係るコンテンツC1、第1被写体映像PV1、及び第2被写体映像PV2間の相対的な位置関係の一例を示す図である。
図9(A)は、第1被写体P1の側の3次元空間T1-1における位置関係を示す。図9(A)において、位置A1-1、A2-1、A3-1はそれぞれ、第1被写体P1の位置、第2被写体映像PV2が表示される位置、コンテンツC1が表示される位置を示す。位置A2-1は、位置A1-1と、RGBDカメラCM1-1が設置される位置との間の位置に設定される。または、RGBDカメラCM1-1が、位置A1-1から位置A2-1への方向に所定の距離だけ離れた位置に設置されてもよい。また、位置A3-1は、位置A1-1、A2-1、A3-1が所定の長さの3辺をもつ三角形の頂点に対応するように設定される。
図9(B)は、第2被写体P2の側の3次元空間T1-2における位置関係を示す。図9(B)において、位置A1-2、A2-2、A3-2はそれぞれ、第1被写体映像PV1、第2被写体P2の位置、コンテンツC1が表示される位置を示す。位置A1-2は、位置A2-2と、RGBDカメラCM1-2が設置される位置との間の位置に設定される。または、RGBDカメラCM1-2が、位置A2-2から位置A1-2への方向に所定の距離だけ離れた位置に設置されてもよい。また、位置A3-2は、位置A1-2、A2-2、A3-2が所定の長さの3辺をもつ三角形の頂点に対応するように設定される。
ここで、3次元空間T1-1において位置A3-1は、位置A1-1、A2-1、A3-1によって形成される所定の長さの3辺をもつ三角形と、3次元空間T1-2において位置A1-2、A2-2、A3-2によって形成される所定の長さの3辺をもつ三角形とは合同である。つまり、コンテンツ提示装置1においては、コンテンツC1が表示される3次元空間T1内の位置と第1被写体基準位置情報M1が示す位置と第2被写体基準位置情報M2が示す位置との間の相対的な位置関係は、他のコンテンツ提示装置1との間で共有されている。
[ARまたはVRオブジェクトの描画]
提示映像V1におけるARまたはVRオブジェクトの描画の規則について説明する。図10は、本実施形態に係るARまたはVRオブジェクトの描画の一例を示す図である。上述したように、3次元空間T1は、第1被写体P1からの距離に応じて互いに区別される近距離領域TN1と、遠距離領域TF1とからなる。
提示映像V1は、背景映像BG1と、物体映像B1とからなる。背景映像BG1は、周辺映像E1と、全天球映像Z1とからなる。周辺映像E1は、近距離領域TN1における背景の映像として用いられる。周辺映像E1には、第1被写体P1が存在する周辺の例えば、床あるいは地面の映像とともに、第1被写体P1が存在する第1の空間R1に存在する様々な物体の映像が含まれる。図10では、周辺映像E1に含まれる物体の映像として、住宅の柱の映像である映像E10が示されている。全天球映像Z1は、VRオブジェクトであり、遠距離領域TF1における背景の映像として用いられる。
物体映像B1に含まれる映像には、第1被写体映像PV1、第2被写体映像PV2、コンテンツC1、第3被写体映像PV3がある。第3被写体映像PV3は、第1の空間R1に存在する人物のうち遠距離領域TF1に存在する人物の映像である。第2被写体映像PV2、コンテンツC1は、ARオブジェクトである。
本実施形態では、近距離領域TN1には、ステレオカメラSC1によって撮影された第1被写体P1の第1の空間R1の風景の映像が表示される。遠距離領域TF1には、VRの映像である全天球映像Z1が最背面の背景として表示されてよい。なお、遠距離領域TF1には、全天球映像Z1が表示されなくてもよい。
ここで以下の説明においては、背景映像BG1と物体映像B1とのうち全天球映像Z1以外の映像を、Aグループオブジェクトといい、全天球映像Z1をBグループオブジェクトという。
提示映像V1において、Aグループオブジェクトはグループオブジェクトよりも手前に表示される。Aグループオブジェクト同士は、第1被写体P1からの距離に基づいてオクルージョンが再現されて表示される。Aグループオブジェクトは、近距離領域TN1、遠距離領域TF1、近距離領域TN1と遠距離領域TF1との境界上のいずれに表示されてもよい。ここで第1の空間R1に存在する様々な物体の映像、及び第3被写体映像PV3は、3次元空間T1において存在する位置が決まっているため、それらの位置に応じて表示される。
[オクルージョンの再現]
次に図11及び図12を参照し、オクルージョンの再現について説明する。図11は、本実施形態に係る第1被写体映像PV1と第2被写体映像PV2についてのオクルージョンの再現の一例を示す図である。図11(A)では、第1被写体映像PV1として第1被写体P1の手の映像示されている。この第1被写体P1の手の位置が第2被写体映像PV2の位置よりも手前にある場合、提示映像V1において当該手が第2被写体映像PV2と重なる部分は第2被写体映像PV2よりも手前に表示される。つまり、この場合、第1被写体映像PV1は、当該手が見える態様で表示される。
一方、図11(B)では、第1被写体P1の手の位置は第2被写体映像PV2の位置よりも奥側ある。この場合、提示映像V1において当該手が第2被写体映像PV2と重なる部分は第2被写体映像PV2に隠されて表示される。つまり、この場合、第1被写体映像PV1は、当該手の一部分が見えない態様で表示される。
図12は、本実施形態に係る第2被写体映像PV2とコンテンツについてのオクルージョンの再現の一例を示す図である。図12では、コンテンツとしてコンテンツC3(エクセサイズをしているトレーナーのARオブジェクト)が表示されている。第2被写体映像PV2は、コンテンツC3よりも手前にあるため、コンテンツC3は、コンテンツC3の一部(脚の部分)が、第2被写体映像PV2に含まれる椅子に隠れる態様で表示されている。
[コンテンツの例]
次に図13から図15を参照し、コンテンツ提示装置1によって提示されるARとVRとを組み合わせた様々なコンテンツの例について説明する。図13では、コンテンツとしてコンテンツC13が表示されている。コンテンツC13は、テレビ画面のARオブジェクトである。図13では、テレビ画面が空中に表示されている。図14では、コンテンツとしてコンテンツC14が表示されている。コンテンツC14は、エクセサイズをしているトレーナーのARオブジェクトである。コンテンツC14は、トレーナーの3次元映像である。
図13及び図14では、Bグループオブジェクトである全天球映像Z1は表示されておらず、遠距離領域TF1には、周辺映像E1が背景として表示されている。図13及び図14では、Aグループオブジェクトである第1被写体映像PV1と、第2被写体映像PV2と、コンテンツとは、3次元空間T1における位置に応じてオクルージョンを再現して表示されている。
図15では、全天球映像Z15が遠距離領域TF1に背景として表示されている。全天球映像Z15は、水族館の風景である。Aグループオブジェクトである第1被写体映像PV1と、第2被写体映像PV2とは、Bグループオブジェクトである全天球映像Z15よりも手前に表示されている。Aグループオブジェクトである第1被写体映像PV1と、第2被写体映像PV2は、3次元空間T1における位置に応じてオクルージョンを再現して表示されている。
以上に説明したように、本実施形態に係るコンテンツ提示装置1は、基準位置設定部162と、周辺映像取得部131と、第1被写体映像抽出部166と、背景映像取得部167と、第2被写体映像取得部181と、コンテンツ取得部15と、第1被写体位置設定部163と、第2被写体位置設定部164と、コンテンツ位置設定部165と、提示部1610と、を備える。基準位置設定部162は、第1被写体P1が撮影された画像を含む映像である第1被写体映像PV1について基準となる位置及び向きを示す情報である第1被写体基準位置情報M1と、第2被写体P2が撮影された画像を含む映像である第2被写体映像PV2について基準となる位置及び向きを示す情報である第2被写体基準位置情報M2とを3次元空間T1内に設定する。周辺映像取得部131は、第1被写体P1を含む自装置の周辺の映像である周辺映像E1を取得する。第1被写体映像抽出部166は、周辺映像E1から第1被写体映像PV1を抽出する。背景映像取得部167は、背景として用いられる映像である背景映像BG1を取得する。第2被写体映像取得部181は、第2被写体映像PV2を他のコンテンツ提示装置1-2から取得する。コンテンツ取得部15は、コンテンツC1を取得する。第1被写体位置設定部163は、第1被写体映像PV1の3次元空間T1内の位置及び向きを第1被写体基準位置情報M1に基づいて設定する。第2被写体位置設定部164は、第2被写体映像PV2の3次元空間T1内の位置及び向きを第2被写体基準位置情報M2に基づいて設定する。コンテンツ位置設定部165は、第1被写体基準位置情報M1が示す位置と、第2被写体基準位置情報M2が示す位置との間の所定の相対的位置関係に基づいてコンテンツC1が表示される3次元空間T1内の位置を設定する。提示部1610は、3次元空間T1内の位置及び向きが設定された第1被写体映像PV1と、3次元空間T1内の位置及び向きが設定された第2被写体映像PV2と、3次元空間T1内の位置が設定されたコンテンツC1とが、背景映像BG1を背景として3次元空間T1内に表示された映像である提示映像V1を出力する。コンテンツ提示装置1では、コンテンツC1が表示される3次元空間T1内の位置と第1被写体基準位置情報M1が示す位置と第2被写体基準位置情報M2が示す位置との間の相対的な位置関係、第1被写体基準位置情報M1、及び第2被写体基準位置情報M2がそれぞれ他のコンテンツ提示装置1-2との間で共有されている。
この構成により、本実施形態に係るコンテンツ提示装置1では、異なる空間にいる人同士がコンテンツの位置を含めた互いの位置関係を矛盾なく共有できるため、異なる空間にいる人とコンテンツ(ARコンテンツ、VRコンテンツ、またはARコンテンツとVRコンテンツとが混合したコンテンツであるAR/VR混合コンテンツ)を同じ空間を共有しながら体験している感覚を提供できる。
将来の放送コンテンツについては、ARとVRとをシームレスに切り替えながら表示することが想定される。これを可能とし、なおかつ、実空間とバーチャルオブジェクトを同程度の品質で合成して表示できるシステムが必要とされる。そしてそのようなシステム内で、それぞれのユーザーがいずれの位置を基準点として空間を展開し、異なる空間をどのようにして矛盾なく共有するかを具体的に設計することが求められる。
コンテンツ提示装置1では、自分と遠方の人物とコンテンツの相対位置関係が矛盾することなく、同一エリアにいる人物だけでなく、物理的に同じ場所に存在しない人とも一緒に、言語外コミュニケーションも行いながら、AR/VR混合コンテンツを視聴体験することができる。AR/VR混合コンテンツは、将来の放送コンテンツとして想定されている。コンテンツ提示装置1では、ローカルエリア及びネットワークを介して家族や友人の様子を見ながら、一緒にARコンテンツ、VRコンテンツ、またはAR/VR混合コンテンツを十分な視野角をもって視聴可能であり、実空間とバーチャル空間を同程度の品質で混合してシミュレーションできる環境を提供できる。
また、本実施形態に係るコンテンツ提示装置1では、提示部1610は、コンテンツC1に含まれる音声を、コンテンツC1が表示される3次元空間T1内の位置に基づいて定位させて出力する。
この構成により、本実施形態に係るコンテンツ提示装置1では、コンテンツC1に含まれる音声がコンテンツC1が表示される3次元空間T1内の位置から聞こえてくるため、コンテンツC1を視聴する際の臨場感を増すことができる。
また、本実施形態に係るコンテンツ提示装置1では、提示部1610は、第2被写体映像PV2に含まれる音声を、第2被写体映像PV2の3次元空間T1内の位置に基づいて定位させて出力する。
この構成により、本実施形態に係るコンテンツ提示装置1では、第2被写体P2の音声が第2被写体映像PV2の3次元空間T1内の位置から聞こえてくるため、異なる空間に存在する人が隣で音声を発しているかのように感じることができる。
また、本実施形態に係るコンテンツ提示装置1では、オクルージョン再現部169をさらに備える。オクルージョン再現部169は、第1被写体映像PV1の3次元空間T1内の位置と、第2被写体映像PV2の3次元空間T1内の位置とに基づいて、提示映像V1において第1被写体映像PV1と第2被写体映像PV2とのいずれが手前側にあるかを判定する。提示部1610は、オクルージョン再現部169の判定結果に基づいて提示映像V1を出力する。
この構成により、本実施形態に係るコンテンツ提示装置1では、異なる空間にいる人同士が互いの前後の位置関係を矛盾なく共有できるため、前後の位置関係に矛盾がある場合に比べてより自然に異なる空間に存在する人が隣に存在するかのように感じることができる。
また、本実施形態に係るコンテンツ提示装置1では、第2被写体位置設定部164は、第2被写体基準位置情報M2に基づいて第2被写体映像PV2に含まれる第2被写体P2の足の位置を3次元空間T1の底面の位置に一致させて、第2被写体映像PV2の3次元空間T1内の位置を設定する。
この構成により、本実施形態に係るコンテンツ提示装置1では、異なる空間にいる人同士が互いの高さ(上下)方向の位置関係を矛盾なく共有できるため、高さ(上下)方向の位置関係に矛盾がある場合に比べてより自然に異なる空間に存在する人が隣に存在するかのように感じることができる。
また、本実施形態に係るコンテンツ提示装置1では、提示部1610は、第2被写体映像PV2を所定未満の透過度において表示する。
この構成により、本実施形態に係るコンテンツ提示装置1では、異なる空間にいる人同士が互いの外観を、透明な映像として表示される場合に比べて実際の外観に近づけて見ることできるため、異なる空間に存在する人の外観を実際の外観に近づけて当該人が隣に存在するかのように感じることができる。
また、本実施形態に係るコンテンツ提示装置1では、提示部1610は、ビデオシースルー方式を用いて提示映像V1を生成する。
この構成により、本実施形態に係るコンテンツ提示装置1では、提示映像V1において自分の体が自然な態様で表示されるため、異なる空間にいる人と同じ空間を共有しながら体験する感覚をより自然なものにできる。自然な態様とは、距離感、質感、応答性(ディレイ)などが実際のものに近いことである。
なお、データ共有部17は、同期部の機能を有していてもよい。同期部は、提示部1610が出力する提示映像V1においてコンテンツC1、または全天球映像Z1の時間方向の再生位置を、他のコンテンツ提示装置1-2との間で同期させる。コンテンツ提示装置1-1と、他のコンテンツ提示装置1-2とは、通信により、随時情報を交換できる。
なお、本実施形態では、第1被写体映像切り出し部111が撮影部11に備えられる場合の一例について説明したが、これに限られない。第1被写体映像切り出し部111は、表示部12に備えられてもよい。その場合、第1被写体映像切り出し部111は、第2被写体映像切り出し部として表示部12に備えられる。ここで第1被写体映像切り出し部111は、第2被写体映像切り出し部として表示部12に備えられる場合について説明する。撮影部11に備えられる被写体映像供給部は、RGBD撮影部31によって撮影された第2被写体P2が撮影されたRGBD映像を他のコンテンツ提示装置1に供給する。第2被写体映像取得部181は、他のコンテンツ提示装置1から供給されるRGBD映像を取得する。表示部12に備えられる第2被写体映像切り出し部は、第2被写体映像取得部181が取得したRGBD映像から第2被写体映像PV2を切り出す。
なお、本実施形態では、一例として2台のコンテンツ提示装置1が同時に稼働している状況を示しているが、連携動作するコンテンツ提示装置1の数は、任意である。連携動作するコンテンツ提示装置1の数に応じて、複数人の被写体は、コンテンツの位置を含めた互いの位置関係を矛盾なく共有しながら共通のコンテンツを視聴できる。
なお、上述した各実施形態におけるコンテンツ提示装置が有する機能の少なくとも一部をコンピューターで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM、DVD-ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
本発明は、例えば、映像コンテンツを提示するための装置や、映像コンテンツを提示するサービス等に利用することができる。但し、本発明の利用範囲はここに例示したものには限られない。
1、1-1、1-2…コンテンツ提示装置、162…基準位置設定部、131…周辺映像取得部、166…第1被写体映像抽出部、167…背景映像取得部、181…第2被写体映像取得部、15…コンテンツ取得部、163…第1被写体位置設定部、164…第2被写体位置設定部、165…コンテンツ位置設定部、1610…提示部、P1…第1被写体、P2…第2被写体、PV1…第1被写体映像、PV2…第2被写体映像、C1…コンテンツ、M1…第1被写体基準位置情報、M2…第2被写体基準位置情報、T1…3次元空間、E1…周辺映像、BG1…背景映像

Claims (8)

  1. 第1被写体が撮影された画像を含む映像である第1被写体映像について基準となる位置及び向きを示す情報である第1被写体基準位置情報と、第2被写体が撮影された画像を含む映像である第2被写体映像について基準となる位置及び向きを示す情報である第2被写体基準位置情報とを3次元空間内に設定する基準位置設定部と、
    前記第1被写体を含む自装置の周辺の映像である周辺映像を取得する周辺映像取得部と、
    前記周辺映像から前記第1被写体映像を抽出する第1被写体映像抽出部と、
    背景として用いられる映像である背景映像を取得する背景映像取得部と、
    前記第2被写体映像を他のコンテンツ提示装置から取得する第2被写体映像取得部と、
    コンテンツを取得するコンテンツ取得部と、
    前記第1被写体映像の前記3次元空間内の位置及び向きを前記第1被写体基準位置情報に基づいて設定する第1被写体位置設定部と、
    前記第2被写体映像の前記3次元空間内の位置及び向きを前記第2被写体基準位置情報に基づいて設定する第2被写体位置設定部と、
    前記第1被写体基準位置情報が示す位置と、前記第2被写体基準位置情報が示す位置との間の所定の相対的位置関係に基づいて前記コンテンツが表示される前記3次元空間内の位置を設定するコンテンツ位置設定部と、
    前記3次元空間内の位置及び向きが設定された前記第1被写体映像と、前記3次元空間内の位置及び向きが設定された前記第2被写体映像と、前記3次元空間内の位置が設定された前記コンテンツとが、前記背景映像を背景として前記3次元空間内に表示された映像である提示映像を出力する提示部と、
    を備え、
    前記コンテンツが表示される前記3次元空間内の位置と前記第1被写体基準位置情報が示す位置と前記第2被写体基準位置情報が示す位置との間の相対的な位置関係、前記第1被写体基準位置情報、及び前記第2被写体基準位置情報がそれぞれ前記他のコンテンツ提示装置との間で共有されている
    コンテンツ提示装置。
  2. 前記提示部は、前記コンテンツに含まれる音声を、前記コンテンツが表示される前記3次元空間内の位置に基づいて定位させて出力する
    請求項1に記載のコンテンツ提示装置。
  3. 前記提示部は、前記第2被写体映像に含まれる音声を、前記第2被写体映像の前記3次元空間内の位置に基づいて定位させて出力する
    請求項1または請求項2に記載のコンテンツ提示装置。
  4. 前記第1被写体映像の前記3次元空間内の位置と、前記第2被写体映像の前記3次元空間内の位置とに基づいて、前記提示映像において前記第1被写体映像と前記第2被写体映像とのいずれが手前側にあるかを判定するオクルージョン再現部をさらに備え、
    前記提示部は、前記オクルージョン再現部の判定結果に基づいて前記提示映像を出力する
    請求項1から請求項3のいずれか一項に記載のコンテンツ提示装置。
  5. 前記第2被写体位置設定部は、前記第2被写体基準位置情報に基づいて前記第2被写体映像に含まれる前記第2被写体の足の位置を前記3次元空間の底面の位置に一致させて、前記第2被写体映像の前記3次元空間内の位置を設定する
    請求項1から請求項4のいずれか一項に記載のコンテンツ提示装置。
  6. 前記提示部は、前記第2被写体映像を所定未満の透過度において表示する
    請求項1から請求項5のいずれか一項に記載のコンテンツ提示装置。
  7. 前記提示部は、ビデオシースルー方式を用いて前記提示映像を生成する
    請求項1から請求項6のいずれか一項に記載のコンテンツ提示装置。
  8. 第1被写体が撮影された画像を含む映像である第1被写体映像について基準となる位置及び向きを示す情報である第1被写体基準位置情報と、第2被写体が撮影された画像を含む映像である第2被写体映像について基準となる位置及び向きを示す情報である第2被写体基準位置情報とを3次元空間内に設定する基準位置設定過程と、
    前記第1被写体を含む自装置の周辺の映像である周辺映像を取得する周辺映像取得過程と、
    前記周辺映像から前記第1被写体映像を抽出する第1被写体映像抽出過程と、
    背景として用いられる映像である背景映像を取得する背景映像取得過程と、
    前記第2被写体映像を他のコンテンツ提示装置から取得する第2被写体映像取得過程と、
    コンテンツを取得するコンテンツ取得過程と、
    前記第1被写体映像の前記3次元空間内の位置及び向きを前記第1被写体基準位置情報に基づいて設定する第1被写体位置設定過程と、
    前記第2被写体映像の前記3次元空間内の位置及び向きを前記第2被写体基準位置情報に基づいて設定する第2被写体位置設定過程と、
    前記第1被写体基準位置情報が示す位置と、前記第2被写体基準位置情報が示す位置との間の所定の相対的位置関係に基づいて前記コンテンツが表示される前記3次元空間内の位置を設定するコンテンツ位置設定過程と、
    前記3次元空間内の位置及び向きが設定された前記第1被写体映像と、前記3次元空間内の位置及び向きが設定された前記第2被写体映像と、前記3次元空間内の位置が設定された前記コンテンツとが、前記背景映像を背景として前記3次元空間内に表示された映像である提示映像を出力する提示過程と、
    の処理をコンピューターに実行させるプログラムであって、
    前記コンテンツが表示される前記3次元空間内の位置と前記第1被写体基準位置情報が示す位置と前記第2被写体基準位置情報が示す位置との間の相対的な位置関係、前記第1被写体基準位置情報、及び前記第2被写体基準位置情報がそれぞれ前記他のコンピューターとの間で共有されている
    プログラム。
JP2020149411A 2020-09-04 2020-09-04 コンテンツ提示装置、及びプログラム Pending JP2022043909A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020149411A JP2022043909A (ja) 2020-09-04 2020-09-04 コンテンツ提示装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020149411A JP2022043909A (ja) 2020-09-04 2020-09-04 コンテンツ提示装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022043909A true JP2022043909A (ja) 2022-03-16

Family

ID=80668733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020149411A Pending JP2022043909A (ja) 2020-09-04 2020-09-04 コンテンツ提示装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2022043909A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7189407B1 (ja) 2022-05-30 2022-12-14 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7189407B1 (ja) 2022-05-30 2022-12-14 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP2023175093A (ja) * 2022-05-30 2023-12-12 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US11363349B2 (en) Geometry matching in virtual reality and augmented reality
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
US10924817B2 (en) Cinematic mastering for virtual reality and augmented reality
US10277813B1 (en) Remote immersive user experience from panoramic video
KR102108596B1 (ko) 제어된 3차원 통신 엔드포인트
JP2020536603A (ja) 現実世界空間の仮想現実提示
US20130113701A1 (en) Image generation device
CN114365197A (zh) 在具有多个物理参与者的环境中放置虚拟内容
CN106909335A (zh) 模拟声音源的方法
CN110178158B (zh) 信息处理装置、信息处理方法和记录介质
WO2021246183A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2022043909A (ja) コンテンツ提示装置、及びプログラム
CN117806457A (zh) 多用户通信会话中的演示
JP2011109371A (ja) 3次元画像にコメントテキストを重畳して表示するサーバ、端末、プログラム及び方法
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
WO2021200494A1 (ja) 仮想空間における視点変更方法
JP7403256B2 (ja) 映像提示装置およびプログラム
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
US20240153226A1 (en) Information processing apparatus, information processing method, and program
WO2023026519A1 (ja) 情報処理装置、情報処理端末、情報処理方法、および記憶媒体
WO2024034396A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
WO2023049870A1 (en) Selfie volumetric video
JP2022173870A (ja) 鑑賞システム、鑑賞装置及びプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804