JP6773126B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6773126B2 JP6773126B2 JP2018551042A JP2018551042A JP6773126B2 JP 6773126 B2 JP6773126 B2 JP 6773126B2 JP 2018551042 A JP2018551042 A JP 2018551042A JP 2018551042 A JP2018551042 A JP 2018551042A JP 6773126 B2 JP6773126 B2 JP 6773126B2
- Authority
- JP
- Japan
- Prior art keywords
- space
- real
- unit
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Description
1.第1の実施形態
2.第2の実施形態
3.第3の実施形態
4.第4の実施形態
5.第5の実施形態
6.第6の実施形態
7.第7の実施形態
8.ハードウェア構成
9.変形例
<1−1.情報処理システムの構成>
{1−1−1.概要}
まず、第1の実施形態について説明する。図1は、第1の実施形態による情報処理システムの構成例を示した説明図である。図1に示すように、第1の実施形態による情報処理システムは、サーバ10‐1、複数のクライアント20、および、通信網26を含む。また、各クライアント20は、入力部22および出力部24を有する。
入力部22は、入力部22が配置されている実空間をセンシングする。例えば、入力部22は、当該実空間をセンシングすることにより、当該実空間内の各オブジェクト(物体)の3Dデータなどをセンシング結果として取得する。そして、入力部22は、取得したセンシング結果をサーバ10‐1へ送信する。なお、センシング結果は、センシングされるデータ、または、センシングによって得られる信号を含み得る。
センサ部220は、センサ部220が配置されている実空間内の3Dデータなどの各種の情報をセンシングする。例えば、センサ部220は、複数のデプスカメラ、および、複数のRGBカメラを有し得る。そして、当該複数のデプスカメラの各々が、当該デプスカメラの前方に位置するオブジェクトまでの距離情報を検出することにより、センサ部220は、該当の実空間の略全体の3Dデータを取得し得る。また、当該複数のRGBカメラの各々は、撮像することにより2D画像を取得し得る。ここで、3Dデータの形式は、例えばポイントクラウド(点群)や3Dメッシュ(ポリゴン)など、任意の形式であり得る。なお、センサ部220が有する複数のカメラ間は相互に接続され、フレーム同期が行われ得る。
例えば、センサ部220は、フレーム単位で、まず、ポイントクラウドデータを生成し、そして、生成したポイントクラウドデータに基づいて、オブジェクトの分離処理(セグメンテーション処理)を行う。そして、センサ部220は、分離された各オブジェクトに関して、センサ部220が配置されている実空間2において当該オブジェクトが占める領域の情報を特定する。さらに、センサ部220は、当該各オブジェクトに対してオブジェクトIDを付与する。ここで、オブジェクトIDは、各オブジェクトを一意に識別するためのIDである。
また、センサ部220は、分離された各オブジェクトに関してモデリング処理を行い、3Dメッシュを生成することが可能である。
また、センサ部220は、一フレームごとにセンシング結果を出力する。例えば、センサ部220は、一フレームごとに、撮影した2D画像、取得した各オブジェクトの3Dデータ、および2D画像相関情報を含むFrameデータを出力する。なお、当該Frameデータは、集音された音声データをさらに含んでもよい。
制御情報受信部222は、サーバ10‐1から第1の制御情報を受信する。また、制御情報受信部222は、受信した第1の制御情報を認識部224およびストリーム生成部226へ伝達する。ここで、第1の制御情報は、例えば、後述する認識部224による認識処理に関する指示の情報や、後述するストリーム生成部226によるストリームの生成に関する指示の情報を含み得る。
‐認識
認識部224は、センサ部220から伝達されるFrameデータに基づいて、各種の認識処理を行う。例えば、認識部224は、当該Frameデータに含まれる3Dデータに基づいて認識処理を行ってもよいし、または、当該Frameデータに含まれる2D画像に基づいて認識処理を行ってもよい。
また、認識部224は、認識処理の結果を、伝達されたFrameデータに付加し、そして、付加後のFrameデータをストリーム生成部226へ伝達する。例えば、認識部224は、まず、例えば人と判定されたオブジェクトに対する認識処理の結果に基づいてメタ情報、ボーン認識情報、および、手指認識情報を生成する。そして、認識部224は、これらの情報を、伝達されたFrameデータに付加する。
ストリーム生成部226は、認識部224から伝達されるFrameデータに基づいて、ストリームを生成する。そして、ストリーム生成部226は、生成したストリームを送信部228へ伝達する。例えば、ストリーム生成部226は、まず、認識部224から伝達される各種の情報を多重化することにより一つのストリームを生成し、そして、当該一つのストリームを送信部228へ伝達してもよい。または、ストリーム生成部226は、認識部224から伝達される各種の情報からそれぞれ別々のストリームを生成し、そして、生成した各ストリームを送信部228へ伝達してもよい。
送信部228は、ストリーム生成部226から伝達されたストリームをサーバ10‐1へ送信する。
サーバ10‐1は、本開示における情報処理装置の一例である。サーバ10‐1は、ユーザ4aが位置する実空間2aのセンシング結果と、ユーザ4bが位置する実空間2bのセンシング結果とに基づいて、ユーザ4aおよびユーザ4bの間のコミュニケーションのための(仮想の)共有空間を生成し得る。ここで、実空間2aは、本開示における第1の実空間の一例であり、また、実空間2bは、本開示における第2の実空間の一例である。例えば、サーバ10‐1は、複数の実空間2の各々の入力部22から受信されるストリーム(つまり、当該実空間2のセンシング結果)に基づいて当該共有空間を生成し得る。一例として、サーバ10‐1は、各実空間2内の入力部22から受信されるストリームを合成することにより共有空間を生成する。
クライアント接続部120は、共有空間管理部100‐1から伝達される情報を接続先のクライアント20へ送信する。また、クライアント接続部120は、接続先のクライアント20から受信される情報を共有空間管理部100‐1へ伝達する。
受信部126は、接続先の入力部22からストリームを受信する。そして、受信部126は、受信したストリームをストリーム分離部124へ伝達する。
ストリーム分離部124は、受信部126から伝達されたストリームに対して例えば逆多重化などを行うことにより、一フレームごとに3Dデータとメタ情報とに分離する。そして、ストリーム分離部124は、分離後の3Dデータとメタ情報とを、後述する共有空間生成部102へ伝達する。
制御情報送信部122は、共有空間生成部102の指示に基づいて、接続先のクライアント20(入力部22)へ第1の制御情報を送信する。例えば、制御情報送信部122は、共有空間生成部102により決定される、望ましい3Dデータまたはメタ情報に関する情報を第1の制御情報として生成し、そして、当該第1の制御情報を入力部22へ送信する。これにより、ネットワーク帯域の利用を節約したり、また、クライアント20側での認識処理を軽減させることが可能となる。
制御情報受信部128は、接続先の出力部24から第2の制御情報を受信する。また、制御情報受信部128は、受信した第2の制御情報を共有空間生成部102およびストリーム生成部130へ伝達する。ここで、第2の制御情報は、例えば、後述する(出力部24の)表示部246の位置や姿勢などの検出結果などの情報を含み得る。
ストリーム生成部130は、共有空間生成部102により生成される共有空間Frameデータに基づいて、接続先のクライアント20用のストリームを生成する。ここで、共有空間Frameデータは、共有空間に関する自由視点のコンテンツの、一フレーム分のデータであり得る。例えば、共有空間Frameデータは、共有空間内の各オブジェクトの3Dデータおよびメタ情報などを含む。
送信部132は、ストリーム生成部130から伝達されたストリームを、接続先のクライアント20の出力部24へ送信する。
共有空間管理部100‐1は、後述するCPU(Central Processing Unit)900やRAM(Random Access Memory)904などを用いて、サーバ10‐1の動作を統括的に制御する。また、共有空間管理部100‐1は、各クライアント接続部120から伝達される、各実空間2内のクライアント20から受信されたFrameデータおよび第2の制御情報に基づいて、自由視点のコンテンツ(共有空間Frameデータ)を生成する。また、共有空間管理部100‐1は、生成した自由視点のコンテンツを各クライアント接続部120へ伝達する。
認識部104は、共有空間生成部102により生成される共有空間Frameデータに基づいて、例えば顔認識、手指認識、または、ボーン認識などの各種の認識処理を行う。詳細については後述するが、例えば、認識部104は、まず、共有空間Frameデータを共有空間FrameデータDB156からフレーム順に取得する。そして、認識部104は、取得した共有空間Frameデータに基づいて各種の認識処理を行い、そして、認識した結果をイベント認識部106へ伝達する。
イベント認識部106は、認識部104から伝達される時系列の情報に基づいて、イベント情報を生成する。例えば、生成された共有空間にユーザが参加しており、かつ、当該共有空間上に配置されている机に対してユーザが指差したことが認識された場合には、イベント認識部106は、当該机を指差したことをイベント情報として生成する。また、あるユーザが位置する実空間内の机の上のラップトップ型PC(Personal Computer)を当該ユーザが持ち上げたことが認識された場合には、イベント認識部106は、当該ラップトップ型PCを持ち上げたことをイベント情報として生成する。
制御部108は、イベント認識部106から伝達されるイベント情報に基づいて、第3の制御情報を生成する。そして、制御部108は、生成した第3の制御情報を共有空間生成部102へ伝達する。ここで、第3の制御情報は、共有空間生成部102による共有空間の生成時に利用される情報であり得る。
共有空間生成部102は、複数のクライアント20の各々から受信されたストリームから得られるFrameデータおよびメタ情報に基づいて、共有空間Frameデータを生成する。また、図8に示すように、共有空間生成部102は、同期部150、共有空間合成部152、配信部154、および、共有空間FrameデータDB156を有する。
同期部150は、複数のクライアント20の各々から受信されたFrameデータおよび第2の制御情報に関して、タイミングが同じである情報ごと(例えば、一フレームごと)に纏めて共有空間合成部152へ順次伝達する。
共有空間合成部152は、同期部150から伝達される各実空間のFrameデータに基づいて、共有空間Frameデータを生成する。また、共有空間合成部152は、生成した共有空間Frameデータを共有空間FrameデータDB156へ格納する。
ここで、所定の開始条件は、共有空間が生成されていない(以下、空間共有が開始されていないと称する場合がある)状況において、あるユーザ4aが、(空間共有を開始するために)空間共有を希望する相手のユーザ4bを選択する操作を行ったことが検出されることを含み得る。なお、相手のユーザの選択方法としては、例えば、ユーザ4aが閲覧する表示部246に表示されるユーザリストの中から、例えば所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより相手のユーザ4bを選択することであってもよい。または、ユーザ4aが相手のユーザ名を直接発話することにより相手のユーザ4bが選択されてもよい。
また、所定の開始条件は、空間共有がなされていない状況において、あるユーザ4aが、(空間共有を開始するために)共有空間の基となる実空間を選択する操作を行ったことが検出されることを含み得る。なお、実空間の選択方法としては、例えば、ユーザ4aが閲覧する表示部246に表示される空間リストの中から、例えば所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより、空間共有を希望する実空間をユーザ4aが選択することであってもよい。または、ユーザ4aが、所望の実空間の名前を直接発話することにより、当該実空間が選択されてもよい。
配信部154は、共有空間合成部152により生成された共有空間Frameデータに基づいて、実空間ごとに、当該実空間内の出力部24へ送信されるFrameデータを生成する。そして、配信部154は、生成した各Frameデータを、当該Frameデータの送信先の実空間に対応するクライアント接続部120へそれぞれ伝達する。
出力部24は、サーバ10‐1から受信されるストリーム(例えば自由視点のコンテンツ)を出力する。これにより、該当の実空間内のユーザは、出力されたコンテンツを視聴することにより、あたかも、生成された共有空間の内部に位置するような体験をすることができる。
受信部240は、サーバ10‐1からストリームを受信する。また、受信部240は、受信したストリームをストリーム分離部242へ伝達する。
ストリーム分離部242は、受信部240から伝達されたストリームに対して例えば逆多重化などを行うことにより、当該ストリームを分離する。また、ストリーム分離部242は、分離したデータを合成部244へ伝達する。または、ストリーム分離部242は、分離したデータを表示部246へ伝達してもよい。
合成部244は、ストリーム分離部242から伝達されるデータと、認識部250から伝達される認識結果(例えば、表示部246の位置や姿勢などの認識結果など)とに基づいて、3D映像(例えばVR(Virtual Reality)映像やAR映像など)を生成(レンダリング)する。また、合成部244は、生成した映像を表示部246へ伝達する。
表示部246は、合成部244により生成された映像、または、ストリーム分離部242から伝達される映像データを表示する。
センサ部248は、例えばRGBカメラ、GPS(Global Positioning System)受信機、加速度センサ、ジャイロスコープ、および、地磁気センサなどの各種のセンサを含み得る。例えば、センサ部248は、表示部246の位置および姿勢などに関する情報を検出する。また、センサ部248は、検出した情報を認識部250へ伝達する。
認識部250は、センサ部248から伝達される情報に基づいて、表示部246の位置および姿勢などの認識処理を行う。また、認識部250は、さらに、ユーザの視点位置の認識を行ってもよい。
制御情報送信部252は、認識部250から伝達される認識結果(表示部246の位置および姿勢の認識結果など)を第2の制御情報としてサーバ10‐1へ送信する。
通信網26は、通信網26に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網26は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網26は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
(1−1−6−1.変形例1)
なお、第1の実施形態による情報処理システムの構成は、上述した例に限定されない。例えば、上記の説明では、入力部22および出力部24が実空間ごとにそれぞれ一つずつ配置される例を説明したが、かかる例に限定されず、入力部22および出力部24は、当該情報処理システムにおいてそれぞれ一以上配置されればよい。また、入力部22のみ、または、出力部24のみが配置される実空間が存在してもよい。
また、サーバ10‐1は、クラウド上のサーバとして構成されてもよいし、または、関連するクライアント20上に構成されてもよい。
また、クライアント20は、単一のデバイスとして構成されてもよいし、または、複数のデバイスにより構成されてもよい。
また、上記の説明では、(入力部22の)認識部224、(出力部24の)認識部250、および、(サーバ10の)認識部104が設けられる例について説明したが、かかる例に限定されず、認識部224、認識部250、および、認識部104のうちいずれか一個または二個は設けられなくてもよい。そして、この場合、他の認識部が、設置されない認識部に対応する処理をさらに行うように構成されてもよい。
また、上記の説明では、入力部22のストリーム生成部226、および、サーバ10‐1のストリーム生成部130が多重化処理を行う例について説明したが、かかる例に限定されず、ストリーム生成部226およびストリーム生成部130は、多重化処理を行わなくてもよい。つまり、多重化処理がされずに、サーバ10‐1とクライアント20との間でデータが送信されてもよい。
以上、第1の実施形態による情報処理システムの構成について説明した。ところで、複数の実空間の入力部22から送信された3Dデータを合成する際に、仮に無条件に3Dデータを合成すると、異なる実空間内のオブジェクト同士が重なり得る。例えば、図9に示したように、実空間A内のオブジェクト42aと実空間B内のオブジェクト42dとが、共有空間40内で同じ位置に配置されることにより重なってしまう。その結果、表示される映像がユーザに不自然に知覚され得る。
第1の実施形態によるサーバ10‐1の構成の特徴は、特に共有空間合成部152の構成に関する。以下では、図10を参照して、共有空間合成部152の構成についてさらに詳細に説明する。図10に示すように、共有空間合成部152は、優先度算出部400、および、決定部402を含む。
(1−2−1−1.全体的な優先度)
優先度算出部400は、各実空間から受信されるFrameデータに基づいて、各実空間内の各オブジェクトの優先度を算出する。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの属性に関する優先度に応じた値を当該オブジェクトの優先度として算出する。また、優先度算出部400は、さらに、他のオブジェクトとの関係性に関する当該オブジェクトの優先度に応じた値を、当該オブジェクトの優先度として算出する。また、優先度算出部400は、さらに、共有空間上でのコンテキストに関する当該オブジェクトの優先度に応じた値を、当該オブジェクトの優先度として算出する。
以下では、当該3種類の優先度の各々の具体的な算出方法について説明を行う。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの属性に関する指標に基づいて当該オブジェクトの優先度Aを算出する。
ここで、「オブジェクトの属性に関する指標」は、オブジェクトのサイズを含み得る。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトのサイズ(体積など)に基づいて、当該オブジェクトの優先度Aを算出する。一例として、優先度算出部400は、オブジェクトのサイズが大きいほど優先度が高くなるように、当該オブジェクトの優先度Aを算出する。この算出例によれば、サイズが大きいオブジェクトほど優先して共有空間上に配置される。従って、サイズの小さいオブジェクトが共有空間上に多数配置されることに伴う(コンテンツの表示時における)視認性の低下を防止することができる。
また、「オブジェクトの属性に関する指標」は、オブジェクトの種類を含み得る。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの種類の認識結果に基づいて当該オブジェクトの優先度Aを算出する。例えば、オブジェクトの種類ごとに優先度が予めテーブルに登録され得る。そして、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの種類の認識結果と、当該テーブルの登録内容とに基づいて当該オブジェクトの優先度Aを算出する。なお、オブジェクトの種類の認識は、3Dデータに基づいて行われてもよいし、または、2D画像に基づいて行われ、かつ、対応する3Dデータに認識結果がマッピングされてもよい。
また、「オブジェクトの属性に関する指標」は、オブジェクトが位置する実空間(元空間)を含み得る。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトが位置する実空間に基づいて当該オブジェクトの優先度Aを算出する。例えば、空間ごとに優先度が予めテーブルに登録され得る。そして、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトが位置する実空間と、当該テーブルの登録内容とに基づいて当該オブジェクトの優先度Aを算出する。
また、「オブジェクトの属性に関する指標」は、オブジェクトが人である場合に当該人の識別情報を含み得る。例えば、各実空間内の各オブジェクトに関して、当該オブジェクトが人である場合には、優先度算出部400は、当該人物(オブジェクト)に基づいて、当該オブジェクトの優先度Aを算出する。例えば、人物ごとに優先度が予めテーブルに登録され得る。そして、オブジェクトが人である場合には、優先度算出部400は、当該人物と、当該テーブルの登録内容とに基づいて当該オブジェクトの優先度Aを算出する。なお、オブジェクトが人でない場合には、優先度算出部400は、当該オブジェクトの優先度Aを「0」と算出してもよい。
または、優先度算出部400は、オブジェクトごとに、複数の「オブジェクトの属性に関する指標」の各々の優先度を算出することにより、当該オブジェクトの優先度Aを算出してもよい。例えば、優先度算出部400は、オブジェクトごとに、まず、当該オブジェクトに関して、当該複数の「オブジェクトの属性に関する指標」の各々の優先度を算出する。そして、優先度算出部400は、オブジェクトごとに、当該オブジェクトに関して算出された当該複数の指標の各々の優先度と、当該複数の指標の各々に関する所定の重みとに基づいて重み付け和を算出し、そして、算出した値を、当該オブジェクトの優先度Aとしてもよい。
また、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの近隣に位置する他のオブジェクトと当該オブジェクトとの関係性に関する指標に基づいて、当該オブジェクトの優先度Bを算出することが可能である。
ここで、「他のオブジェクトとの関係性に関する指標」は、元空間における人との接触の有無を含み得る。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトが位置する元空間内で当該オブジェクトが人と接触しているか否かに基づいて、当該オブジェクトの優先度Bを算出する。ここで、当該オブジェクトが人と接触している場合の例としては、人が当該オブジェクトを持っている場合や、人が当該オブジェクトの上に座っている場合などが挙げられる。
また、「他のオブジェクトとの関係性に関する指標」は、元空間における人との距離を含み得る。例えば、優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトが位置する元空間における当該オブジェクトと人との距離に基づいて、当該オブジェクトの優先度Bを算出する。一例として、優先度算出部400は、各実空間内の各オブジェクトに関して、元空間内で当該オブジェクトの最も近くに位置する人と当該オブジェクトとの間の距離と、当該人の識別情報とに基づいて当該オブジェクトの優先度Bを算出する。
または、優先度算出部400は、オブジェクトごとに、複数の「他のオブジェクトとの関係性に関する指標」の各々の優先度を算出することにより、当該オブジェクトの優先度Bを算出してもよい。例えば、優先度算出部400は、オブジェクトごとに、まず、当該複数の「他のオブジェクトとの関係性に関する指標」の各々に関して、当該オブジェクトの優先度を算出する。そして、優先度算出部400は、オブジェクトごとに、当該複数の指標の各々の優先度と、当該複数の指標の各々に関する所定の重みとに基づいて重み付け和を算出し、そして、算出した値を、当該オブジェクトの優先度Bとしてもよい。
ところで、元空間が異なるユーザ間で今まさに話題になっているオブジェクトが仮に突然表示されなくなると、ユーザに不自然に知覚され得るので、望ましくない。また、共有空間において、他のオブジェクトと依存関係にあるオブジェクトが仮に突然表示されなくなると、やはりユーザに不自然に知覚され得る。ここで、当該依存関係の例としては、共有空間において元空間が異なるオブジェクトが対象のオブジェクトの上に配置されている場合(例えば共有空間において実空間2aのコンピュータが実空間2bの机の上に配置されている場合など)が挙げられる。
ここで、当該コンテキスト情報は、共有空間上での複数のユーザ間の会話時の話題を示す情報を含み、そして、「共有空間上でのコンテキストに関する指標」は、共有空間上での複数のユーザ間の会話時の話題を含み得る。この場合、優先度算出部400は、各実空間内の各オブジェクトに関して、共有空間上での複数のユーザ間の会話時の話題に基づいて、当該オブジェクトの優先度Cを算出する。一例として、各実空間内の各オブジェクトに関して、当該会話時に発せられた少なくともいずれかの単語が当該オブジェクトを示す場合には、優先度算出部400は、当該オブジェクトの優先度Cを、「0」よりも大きい所定の値として算出する。なお、ユーザ間の会話時に発せられたいずれの単語も当該オブジェクトを示さない場合には、優先度算出部400は、当該オブジェクトの優先度Cを「0」と算出してもよい。また、ユーザ間の会話時に発せられた単語は、例えば、入力部22(センサ部220)により集音された音声の認識の結果に基づいて特定され得る。
また、当該コンテキスト情報は、共有空間上でのユーザのポインティングの検出の有無を示す情報を含み、そして、「共有空間上でのコンテキストに関する指標」は、共有空間上でのユーザのポインティングの検出の有無を含み得る。この場合、優先度算出部400は、各実空間内の各オブジェクトに関して、共有空間上で当該オブジェクトがユーザによりポインティングされているか否かに基づいて、当該オブジェクトの優先度Cを算出する。例えば、当該オブジェクトがユーザによりポインティングされている場合には、優先度算出部400は、当該オブジェクトの優先度Cを、「0」よりも大きい所定の値として算出する。なお、当該オブジェクトがユーザによりポインティングされていない場合には、優先度算出部400は、当該オブジェクトの優先度Cを「0」と算出してもよい。また、当該オブジェクトがユーザによりポインティングされているか否かに関しては、ユーザのジェスチャーの認識結果や、ユーザの手指の認識結果などに基づいて特定され得る。
また、当該コンテキスト情報は、共有空間上でのオブジェクト間の依存関係を示す情報を含み、そして、「共有空間上でのコンテキストに関する指標」は、共有空間上でのオブジェクト間の依存関係を含み得る。この場合、優先度算出部400は、各実空間内の各オブジェクトに関して、共有空間上でのオブジェクト間の依存関係に基づいて、当該オブジェクトの優先度Cを算出する。一例として、各実空間内の各オブジェクトに関して、当該オブジェクトが共有空間上で他のオブジェクトと依存関係にある場合には、優先度算出部400は、当該オブジェクトの優先度Cを、「0」よりも大きい所定の値として算出する。なお、当該オブジェクトが共有空間上で他のオブジェクトと依存関係にない場合には、優先度算出部400は、当該オブジェクトの優先度Cを「0」と算出してもよい。
また、当該コンテキスト情報は、ユーザの表情(怒っている、笑っているなど)、時間帯(昼、夜など)、および、曜日(平日、休日など)などを示す情報を含み、そして、「共有空間上でのコンテキストに関する指標」は、ユーザの表情、時間帯、および、曜日などを含み得る。
または、優先度算出部400は、オブジェクトごとに、複数の「共有空間上でのコンテキストに関する指標」の各々の優先度を算出することにより、当該オブジェクトの優先度Cを算出してもよい。例えば、優先度算出部400は、オブジェクトごとに、まず、複数の「共有空間上でのコンテキストに関する指標」の各々に関して、当該オブジェクトの優先度を算出する。そして、優先度算出部400は、オブジェクトごとに、当該複数の指標の各々の優先度と、当該複数の指標の各々に関する所定の重みとに基づいて重み付け和を算出し、そして、算出した値を、当該オブジェクトの優先度Cとしてもよい。
決定部402は、優先度算出部400により算出された各オブジェクトの優先度に基づいて、共有空間内に配置される共有オブジェクト(以下、「表示対象のオブジェクト」とも称する)を決定する。例えば、各オブジェクトに関して、当該オブジェクトよりも優先度が高い他のオブジェクトと共有空間上の配置位置が重ならない場合にのみ、決定部402は、当該オブジェクトを表示対象のオブジェクトとして決定する。なお、第1の実施形態では、基本的に、各オブジェクトに関して、当該オブジェクトの元空間上の位置に対応する共有空間上の位置に、当該オブジェクトは配置され得る。
以上説明したように、第1の実施形態によれば、サーバ10‐1は、各実空間内の各オブジェクトに関して優先度を算出し、そして、算出した優先度に基づいて表示対象のオブジェクトを決定する。これにより、各実空間内の各オブジェクトを一意に順位付けを行うことができる。そして、サーバ10‐1は、例えば優先度の高い順に各オブジェクトを共有空間上に配置することができる。従って、共有空間において複数のオブジェクトが重なって配置されることを防止することができるので、オブジェクトが重なって表示されることを防止することができる。
{1−4−1.概要}
上記の説明では、優先度算出部400が、フレーム単位で、各オブジェクトの優先度を算出する例について説明した。ところで、オブジェクト自体は同じであっても、当該オブジェクトに対する認識結果はフレームごとに異なり得る。特に、顔認識では、人の顔の向きが変わると認識結果が大きく変わり得る。このため、同じオブジェクトであっても、算出される優先度はフレームごとに異なり得る。その結果、連続するフレーム間で、表示対象として選択されるオブジェクトが頻繁に変化し得るので、ちらつきが生じ得る。
応用例1による決定部402は、連続するフレームにおける、各実空間内の各オブジェクトのトラッキングの結果に基づいて、表示対象のオブジェクトを決定する。例えば、決定部402は、以下のように、先行するフレームにおいて表示対象であったオブジェクトを、表示対象ではなかったオブジェクトよりも優先して、対象のフレームにおける表示対象のオブジェクトを決定する。
以上説明したように、応用例1によるサーバ10‐1は、先行するフレームにおいて表示対象であったオブジェクトを、表示対象ではなかったオブジェクトよりも優先して、対象のフレームにおける表示対象のオブジェクトを決定する。このため、連続するフレームにおいて、表示対象として決定されるオブジェクトの変動を抑制することができる。そして、視認性の低下を防止することができる。
なお、応用例1は、上述した例に限定されず、複数の変形例が適用可能である。例えば、各オブジェクトに関して、当該オブジェクトの認識結果の精度が低い場合には、サーバ10‐1は、先行するフレームにおける当該オブジェクトの認識結果を、対象のフレームにおける当該オブジェクトの認識結果として代用してもよい。
この変形例1による入力部22の認識部224、および/または、サーバ10‐1の認識部104は、各オブジェクトに関して認識を行った際に、認識結果の信頼度が所定の閾値よりも低い場合には当該認識結果をメタ情報に付与(格納)しない。
変形例1による共有空間合成部152は、各実空間内の各オブジェクトに関して、一以上の認識結果がメタ情報内に格納されていない場合には、先行するフレームのメタ情報内の当該オブジェクトの該当の認識結果を、対象のフレームにおける当該オブジェクトの該当の認識結果として利用する。例えば、この場合、決定部402は、まず、先行するフレームのメタ情報内に当該オブジェクトの認識結果が付与されているか否かを確認する。そして、認識結果が付与されている場合には、決定部402は、当該認識結果を、対象のフレームにおける当該オブジェクトの認識結果として使用する。
また、上記の説明では、決定部402が、連続するフレーム間の各オブジェクトのトラッキングの結果に基づいて、表示対象のオブジェクトを決定する例について説明したが、かかる例に限定されない。別の変形例として、サーバ10‐1は、各実空間内の各オブジェクトに関して、当該オブジェクトの表示状況に関する優先度(以下、優先度Dと称する場合がある)をさらに計算し、そして、優先度Dに基づいて、対象のフレームにおける表示対象のオブジェクトを決定してもよい。
この変形例2による優先度算出部400は、各実空間内の各オブジェクトに関して、当該オブジェクトの優先度Dをさらに計算する。例えば、各実空間内の各オブジェクトに関して、直前の表示フレームにおいて当該オブジェクトが表示されている場合には、優先度算出部400は、当該オブジェクトの優先度Dを、「0」よりも大きい所定の値として算出する。また、直前の表示フレームにおいて当該オブジェクトが表示されていない場合には、優先度算出部400は、当該オブジェクトの優先度Dを「0」と算出する。
ところで、通常、実空間では物体が突然消滅することは考え難い。そこで、別の変形例として、先行するフレームにおいて存在していた単一のオブジェクトが対象のフレームにおいて消滅し、かつ、当該オブジェクトと同じ位置に複数のオブジェクトが位置している場合には、サーバ10‐1(共有空間合成部152)は、先行するフレーム内のオブジェクトが当該複数のオブジェクトに分割したとみなすことが可能である。例えば、共有空間合成部152は、対象のフレームにおいて同一の場所に位置する複数のオブジェクト全てを、先行するフレーム内の、対応する一つのオブジェクトと同一とみなしてもよい。
また、上記の説明では、決定部402が表示対象のオブジェクトをフレームごとに決定する例について説明したが、かかる例に限定されない。別の変形例として、サーバ10‐1(共有空間合成部152)は、所定の条件が満たされる場合にのみ表示対象のオブジェクトの決定処理(表示判定処理)を行うことも可能である。
以上、応用例1について説明した。ところで、オブジェクトが突然新たに表示されたり、または突然表示されなくなると、ユーザは違和感を抱き得る。次に、応用例2について説明する。
例えば、オブジェクト(ユーザ4を含む)が新たに表示される場合には、共有空間合成部152は、当該新たなオブジェクトが表示されることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。一例として、共有空間合成部152は、当該新たなオブジェクトの表示が開始されることを示す、所定の時間(例えば1分など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
また、当該共有空間内の一以上のオブジェクト(ユーザ4を含む)が当該共有空間から削除されることが決定された場合(例えば共有空間に参加中のユーザが共有空間から退出する際など)には、共有空間合成部152は、該当のオブジェクトが削除されることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。例えば、共有空間合成部152は、該当のオブジェクトの表示が終了されることを示す、所定の時間(例えば1分など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
以上、応用例2について説明した。ところで、実空間2aに位置するユーザ4aと実空間2bに位置するユーザ4bとが共有空間内でコミュニケーションをしている際に、別の実空間2cに位置するユーザ4cが当該共有空間内に参加することを希望する場面も想定される。このような場面では、3つの実空間(実空間2a、実空間2b、および、実空間2c)の3Dデータが合成されることにより、共有空間が再生成されることが望まれる。一方で、例えばすでに参加している二人のユーザの元空間内の多数のオブジェクトが表示されなくなるなど、今までの共有空間が突然大きく変化することは望ましくない。
<2−1.概要>
以上、第1の実施形態について説明した。ところで、参加するユーザごとに、利用する表示デバイス(例えば表示部246など)が異なることも想定される。例えば、実空間2a内に位置するユーザ4aは遮蔽型のウェアラブルデバイス(以下、VRデバイスと称する場合がある)を利用しており、かつ、実空間2b内に位置するユーザ4bは、ARデバイスを利用することが想定される。この場合、(ユーザ4aが位置する)実空間2a内の任意のオブジェクトをユーザ4aに見せないようにVRデバイスの表示を制御することが可能であるのに対して、(ユーザ4bが位置する)実空間2b内のオブジェクトをユーザ4bに見せないようにARデバイスの表示を制御することは大変難しい。そこで、実空間2b内のオブジェクトを実空間2a内のオブジェクトよりも優先して表示する方が、ユーザ4aおよびユーザ4bの双方にとって満足感が向上し得る。
まず、第2の実施形態によるサーバ10‐2の構成について説明する。なお、以下では、第1の実施形態と異なる内容についてのみ説明を行う。
図21は、第2の実施形態による共有空間管理部100‐2の構成例を示した機能ブロック図である。図21に示すように、共有空間管理部100‐2は、図8に示した共有空間管理部100‐1と比較して、ベース空間レイアウト生成部158、および、共有空間管理用DB110をさらに含む。
(2−2−2−1.ベース空間の決定)
‐決定例1
ベース空間レイアウト生成部158は、所定の条件に基づいて、ベース空間を(自動的に)決定する。例えば、空間共有の開始時において、共有空間への参加を希望している各ユーザが利用する表示デバイスに応じてベース空間を決定する。一例として、(共有空間への参加を希望している)全てのユーザがVRデバイスを装着している場合には、ベース空間レイアウト生成部158は、当該全てのユーザのうちのいずれかの元空間、または、任意の仮想空間をベース空間として決定する。また、一人のユーザ4aだけがARデバイスを装着しており、かつ、残りの全てのユーザ4bがVRデバイスを装着している場合には、ベース空間レイアウト生成部158は、当該ユーザ4aの元空間をベース空間として決定する。また、互いに異なる実空間2に位置する複数のユーザがARデバイスを装着している場合には、ベース空間レイアウト生成部158は、当該複数のユーザのうちのいずれかの元空間をベース空間として決定する。これらの決定例によれば、少なくともいずれかのユーザがARデバイスを利用している場合には、該当のユーザの元空間がベース空間として決定される。
または、ベース空間レイアウト生成部158は、レイアウトポリシー情報DB162に格納されているベース空間選択ポリシー1620に基づいてベース空間を決定することが可能である。ここで、ベース空間選択ポリシー1620には、ベース空間を選択するための基準(を示すデータ)が予め格納される。例えば、ベース空間選択ポリシー1620には、複数の評価指標が登録されており、かつ、評価指標ごとに、当該評価指標と当該評価指標の係数とが関連付けられている。ここで、評価指標の種類は、例えば、(対象の実空間内の)空き領域の底面積の合計、および、(対象の実空間内の)最大の、連続する空き領域の底面積などである。
なお、変形例として、ベース空間レイアウト生成部158は、共有空間への参加対象の各ユーザの行動認識の結果に応じて、ベース空間を決定することも可能である。例えば、共有空間への参加対象の複数のユーザのうち、所定の行動(掃除や料理など)をしているユーザがいる場合には、ベース空間レイアウト生成部158は、当該ユーザが位置する実空間をベース空間として決定してもよい。これにより、当該ユーザに対して自由視点のコンテンツが提示される場合に、当該ユーザが不便になったり、また、当該ユーザの危険性が高まることを防止することができる。
また、ベース空間レイアウト生成部158は、決定したベース空間に基づいて、ベース空間のレイアウト情報を生成する。そして、ベース空間レイアウト生成部158は、生成したレイアウト情報をベース空間レイアウト情報160に格納する。
ベース空間レイアウト情報160は、ベース空間レイアウト生成部158により生成されたレイアウト情報を格納する。図23は、ベース空間レイアウト情報160の構成例を示した説明図である。図23に示すように、ベース空間レイアウト情報160では、静的オブジェクト1600、空き領域情報1602、および、メタ情報1604が格納される。ここで、静的オブジェクト1600には、ベース空間内に事前に位置するオブジェクトの情報が格納される。例えば、静的オブジェクト1600には、オブジェクトごとに、オブジェクトID、当該オブジェクトの点の情報(座標や色情報など)、および、当該オブジェクトの面の情報が格納される。また、空き領域情報1602には、ベース空間における空き領域の情報が格納される。また、メタ情報1604には、静的オブジェクト1600に格納されている全てのオブジェクトに関するメタ情報が格納される。なお、メタ情報1604の具体的な内容は、図5に示したメタ情報306と概略同様であり得る。
レイアウトポリシー情報DB162は、共有空間上にオブジェクトをレイアウトするためのポリシー(基準)を格納するデータベースである。図24は、レイアウトポリシー情報DB162の構成例を示した説明図である。図24に示したように、レイアウトポリシー情報DB162は、ベース空間選択ポリシー1620、ベース空間オブジェクト選択ポリシー1622、オブジェクト優先ポリシー1624、オブジェクトレイアウト評価ポリシー1626、および、レイアウト終了判定ポリシー1628を含む。
第2の実施形態による制御部108は、第3の制御情報を生成した際に、当該第3の制御情報に基づいて、後述するオブジェクト管理情報DB164内の共有オブジェクト関連情報182の登録内容を更新する。例えば、元空間内でユーザがラップトップ型PCを持ち上げたイベントがイベント認識部106から伝達された場合には、制御部108は、当該ラップトップ型PCの優先度がより高く算出されるように指示するための第3の制御情報を生成し、かつ、当該第3の制御情報に基づいて共有オブジェクト関連情報182の内容を更新する。これにより、優先度算出部400は、次の優先度の算出時において、当該第3の制御情報に基づいて、当該ラップトップ型PCに関する優先度Bをより高く算出し得る。従って、認識されたイベントに対応するオブジェクトを優先して表示させることが可能となる。
オブジェクト管理情報DB164は、共有空間内に配置される共有オブジェクトに関する情報を格納するデータベースである。図25は、オブジェクト管理情報DB164の構成例を示した説明図である。図25に示すように、オブジェクト管理情報DB164は、共有オブジェクトテーブル180、および、共有オブジェクト関連情報182を含む。
共有オブジェクトテーブル180は、共有空間内に配置される各オブジェクトに関する情報を格納するテーブルである。図26は、共有オブジェクトテーブル180の構成例を示した説明図である。図26に示したように、共有オブジェクトテーブル180では、オブジェクトID1800、元空間1802、メタ情報1804、および、共有空間情報1806が関連付けられている。ここで、共有空間情報1806は、優先度1808、表示判定結果1810、および、領域情報1812などを含む。優先度1808には、該当のオブジェクトに関して算出された優先度が記録される。また、表示判定結果1810には、該当のオブジェクトが表示対象と判定されたか否かが記録される。また、領域情報1812には、共有空間において該当のオブジェクトが配置される領域(空間)の情報が記録される。
共有オブジェクト関連情報182は、共有空間内に配置される共有オブジェクトごとの、他のオブジェクトとの関係性を示す情報を格納する。
(2−2−7−1.共有空間の生成)
第2の実施形態による共有空間合成部152は、同期部150から伝達される複数の実空間のFrameデータと、共有空間管理用DB110の登録内容とに基づいて、共有空間Frameデータ(自由視点のコンテンツ)を生成する。例えば、共有空間合成部152は、まず、ベース空間のレイアウト情報をベース空間レイアウト情報160から抽出する。続いて、共有空間合成部152は、レイアウトポリシー情報DB162の登録内容に基づいて、ベース空間以外の実空間(元空間)内の複数のオブジェクトの中から表示対象のオブジェクトを決定し、そして、当該表示対象のオブジェクトをベース空間上に配置することにより、共有空間を生成する。そして、共有空間合成部152は、当該共有空間に基づいて共有空間Frameデータを生成する。
‐空間共有の開始時
また、共有空間合成部152は、共有空間に参加する一以上のユーザ4のうち、決定されたベース空間以外の実空間内に位置するユーザ4bに対して当該ベース空間中のオブジェクトのアクセス権限を付与することが可能である。例えば、共有空間合成部152は、当該ベース空間中の機器のアクセス権をユーザ4bに対して(無条件で)付与する。ここで、機器は、ホームネットワーク機器やIoT(Internet Of Things)機器などを含み得る。例えば、機器は、AV(Audio−Visual)機器、照明機器、または、エア・コンディショナーなどを含む。
また、共有空間に未参加のユーザ4aが当該共有空間に参加するための操作が検出された場合には、共有空間合成部152は、当該ベース空間中のオブジェクトのアクセス権限を当該ユーザ4aに付与したり、また、上述した再生用情報を当該ユーザ4aに提供することが可能である。
{2−3−1.処理の全体的な流れ}
以上、第2の実施形態の構成について説明した。次に、第2の実施形態による処理の流れについて、図30〜図36を参照して説明する。図30は、第2の実施形態による処理の全体的な流れを示したフローチャートである。図30に示したように、まず、サーバ10‐2は、共有空間に参加する各ユーザの元空間の各々の入力部22からFrameデータを受信する(S2001)。続いて、ベース空間レイアウト情報160が作成済みである場合には(S2003:Yes)、共有空間管理部100‐2は、後述するS2007の処理を行う。
次に、図31を参照して、S2005における「ベース空間レイアウト生成処理」の内容について詳細に説明する。図31に示したように、まず、ベース空間レイアウト生成部158は、処理対象の元空間の番号を示す変数Iに「1」を設定する(S2101)。そして、ベース空間レイアウト生成部158は、元空間の総数をNに設定する(S2103)。
次に、図32を参照して、S2007における「オブジェクトトラッキング補償処理」の内容を詳細に説明する。図32に示したように、まず、同期部150は、各元空間の入力部22から受信されたFrameデータを共有空間合成部152へ伝達する(S2201)。
次に、図33を参照して、S2009における「オブジェクト優先度計算処理」の内容を詳細に説明する。図33に示したように、まず、共有空間合成部152は、処理対象のオブジェクトの番号を示す変数Iに「1」を設定する(S2301)。そして、共有空間合成部152は、各元空間の入力部22から受信されたFrameデータに含まれるオブジェクトの総数をNに設定する(S2303)。
次に、図34〜図36を参照して、S2011における「オブジェクトレイアウト処理」の内容を詳細に説明する。図34に示したように、まず、共有空間合成部152は、空の共有空間Frameデータを生成する(S2401)。
以上説明したように、第2の実施形態によれば、サーバ10‐2は、レイアウトポリシー情報DB162に基づいてベース空間を決定し、そして、ベース空間内に位置するオブジェクトを優先しつつ、ベース空間内のオブジェクトと他の元空間内のオブジェクトとを共有空間上に配置する。例えば、空間2a内のユーザ4aがARデバイスを装着しており、かつ、空間2b内のユーザ4bがVRデバイスを装着している場合には、サーバ10‐2は、空間2aをベース空間として決定し、そして、空間2a内のオブジェクトを(空間2b内のオブジェクトよりも)優先して共有空間上に配置する。これにより、ユーザ4aおよびユーザ4bの双方にとって満足感が高い共有空間を生成することができる。
{2−5−1.ARデバイス使用時のオブジェクトの表示制御}
以上、第2の実施形態について説明した。次に、第2の実施形態の応用例1について説明する。この応用例1によれば、表示部246がARデバイスである場合には、ARデバイスにより適した映像が表示部246に表示されるように制御することが可能である。
また、表示部246がARデバイスである場合には、サーバ10(制御情報送信部122など)、または、当該表示部246を含んでいる出力部24は、当該自由視点のコンテンツを上書き表現または遮蔽表現を用いて表示部246に表示させることが可能である。ここで、上書き表現は、原則として当該自由視点のコンテンツのみが視認されるように表示部246に表示させる表示方法である。つまり、上書き表現が用いられる場合には、ユーザが位置する実空間内の実オブジェクトが表示対象として選択されていない限り、当該実オブジェクトは、原則として当該ユーザに視認されない。また、遮蔽表現は、実空間内のユーザの位置、当該実空間内の実オブジェクトの位置、および、当該自由視点のコンテンツ内の仮想オブジェクトの位置の関係性に基づいて、当該自由視点のコンテンツ内の一部の仮想オブジェクトが当該実空間内の実オブジェクトにより遮蔽されるように当該自由視点のコンテンツを表示部246に表示させる表示方法である。
ここで、図37〜図38Bを参照して、「上書き表現」および「遮蔽表現」の内容についてより詳細に説明する。図37は、実空間2内のユーザ4と、実空間2内の複数の実オブジェクト330と、(ユーザ4が視聴している)自由視点のコンテンツ内の複数の仮想オブジェクト340との位置関係の例を示した説明図である。例えば、図37に示した状況において、自由視点のコンテンツが上書き表現を用いて表示される場合には、ユーザ4は、図38Aに示したような景観を表示部246を介して視認する。ここで、破線で示したように、実空間2内の実オブジェクト330aおよび実オブジェクト330bは、あたかも自由視点のコンテンツにより上書きされるような映像が表示部246に表示され得る。このため、実オブジェクト330aおよび実オブジェクト330bはユーザ4に視認されない。従って、ユーザ4は、あたかも共有空間内に位置しているかのような感覚を強く抱き得る。
一方、例えば、図37に示した状況において、自由視点のコンテンツが遮蔽表現を用いて表示される場合には、ユーザ4は、図38Bに示したような景観を表示部246を介して視認する。図38Bに示したように、図37に示した複数の実オブジェクト330および複数の仮想オブジェクト340のうち、例えばユーザ4の視点位置および視線方向の検出結果に基づいて、より手前側に位置するオブジェクトが、表示部246を介してユーザ4に視認され得る。これにより、例えば、ユーザ4は、自由視点のコンテンツを視聴しながら、周囲の実オブジェクトを確認することができる。このため、ユーザ4が周囲の実オブジェクトに誤って衝突する危険性が減少する。
または、サーバ10(制御情報送信部122など)、または、当該表示部246を含んでいる出力部24は、上書き表現と遮蔽表現とを併用して、当該自由視点のコンテンツを表示部246に表示させることも可能である。
なお、変形例として、表示部246がARデバイスである場合には、当該表示部246を含んでいる出力部24は、出力部24が位置する実空間(ここでは、実空間2aと称する)におけるセンサ部220によるセンシング結果に基づいて特定された実空間2aの輝度に基づいて、受信されたストリーム(つまり、自由視点のコンテンツ)内の各オブジェクトの表示輝度を調整することも可能である。例えば、特定された実空間2aの輝度が高いほど、出力部24は、受信された自由視点のコンテンツ内の各オブジェクトの表示輝度をより高くする。これにより、実空間2a内の実オブジェクトと、自由視点のコンテンツ内の各オブジェクトとの視認性を概ね一致させて表示させることができる。
次に、第2の実施形態の応用例2について説明する。この応用例2によれば、サーバ10‐2は、例えばユーザごとに予め設定されている情報に基づいてベース空間を決定することができる。
設定情報DB112は、例えばユーザによる自由視点のコンテンツの利用開始時や利用終了時における、当該自由視点のコンテンツに対応する共有空間の生成や変更に関する設定情報を格納するデータベースである。図43は、設定情報DB112の構成例を示した図である。図43に示したように、設定情報DB112は、例えば、ベース空間選択設定テーブル114、および、参加時ベース空間切り替え設定テーブル116を含む。なお、各テーブルの具体的な内容については後述する。
(2−6−2−1.ベース空間の決定例:空間共有の開始時)
応用例2による共有空間合成部152は、例えば空間共有の開始時において、設定情報DB112の登録内容に基づいてベース空間を決定する。
例えば、あるユーザ4aが相手のユーザ4bを選択し、かつ、空間共有を開始するための操作を行ったことが検出された際には、共有空間合成部152は、設定情報DB112内のベース空間選択設定テーブル114の登録内容に基づいてベース空間を決定する。
または、あるユーザ4が実空間を選択し、かつ、空間共有を開始するための操作を行ったことが検出された際にも、共有空間合成部152は、設定情報DB112内のベース空間選択設定テーブル114の登録内容に基づいてベース空間を決定することが可能である。
ベース空間選択設定テーブル114は、ベース空間の選択に関する設定情報が格納されるテーブルである。例えば、ベース空間選択設定テーブル114では、ユーザIDと設定値とが関連付けられていてもよいし、または、実空間と設定値とが関連付けられていてもよい。なお、後者の場合、実空間内に位置するユーザが誰であっても、また、当該実空間内にユーザがいない場合であっても、ベース空間の選択に関して同じ設定値が適用される。または、ベース空間選択設定テーブル114では、ユーザID、実空間、および、設定値が関連付けられていてもよい。
なお、変形例として、実空間2a内に位置するユーザ4aが、他の実空間2b内に位置するユーザ4bに対して招待メッセージを発行し、そして、共有空間合成部152は、当該招待メッセージに対するユーザ4bの回答に基づいて、ベース空間を決定することも可能である。
なお、サーバ10は、複数の実空間の各々に関して共有空間への参加状況を管理し得る。例えば、サーバ10は、実空間ごとに、当該実空間内のユーザのベース空間への集合状態を管理する。図45は、実空間ごとの、当該実空間内のユーザの、ベース空間への集合状態を管理するためのテーブル360の構成例を示した説明図である。図45に示したように、テーブル360では、実空間370と、集合エリア372とが関連付けられ得る。また、集合エリア372は、状態374、および、エリア376を含む。ここで、状態374には、該当の実空間内のユーザがベース空間に集合している状態であるか否か(「集合あり」もしくは「集合なし」)が記録され得る。また、エリア376には、該当の実空間が「集合あり」である場合には「集合している空間」の識別情報(つまり、ベース空間の(元空間の)識別情報)が記録され得る。なお、該当の実空間が「集合なし」である場合には、エリア376には、ブランク(空白)が設定され得る。
また、応用例2による共有空間合成部152は、生成済みの共有空間に対する新たなユーザの参加時において、設定情報DB112の登録内容に基づいてベース空間を決定することも可能である。例えば、自由視点のコンテンツの生成後で、かつ、当該自由視点のコンテンツに対応する共有空間へ新たなユーザ4aが参加するための操作が検出された場合には、共有空間合成部152は、当該共有空間に対応するベース空間を変更するか否かを所定の条件に基づいて決定する。
以下、共有空間合成部152による、ベース空間の変更の決定例についてより詳細に説明する。例えば、共有空間合成部152は、ベース空間選択設定テーブル114において当該新たなユーザ4aに関連付けられている設定値に基づいて、現在のベース空間を変更するか否かを決定する。例えば、ベース空間選択設定テーブル114において当該新たなユーザ4aに関連付けられている設定値が「他のユーザの実空間をベース空間として利用する」または「どちらでもよい」である場合には、共有空間合成部152は、現在のベース空間を変更しないことを決定する。または、ベース空間選択設定テーブル114において当該新たなユーザ4aに関連付けて、希望のベース空間の候補が登録されている場合で、かつ、当該希望のベース空間の候補の中に、当該共有空間に対応するベース空間が存在する場合には、共有空間合成部152は、現在のベース空間を変更しないことを決定する。つまり、現在のベース空間が優先される。これにより、ベース空間が頻繁に切り替わることが回避されるので、共有空間に参加中のユーザの活動に影響が生じることを抑制することができる。なお、この際、当該共有空間への当該新たなユーザ4aの参加は許可され得る。
また、共有空間合成部152は、参加時ベース空間切り替え設定テーブル116において、当該共有空間に参加中の全てのユーザ4bの各々に関連付けられている設定値に基づいて、現在のベース空間を変更するか否かを決定することも可能である。ここで、参加時ベース空間切り替え設定テーブル116は、別のユーザが共有空間に新たに参加しようとする際の、ベース空間の切り替えを許可するか否かに関する設定情報が格納されるテーブルである。例えば、参加時ベース空間切り替え設定テーブル116では、ユーザIDと設定値とが関連付けられていてもよいし、実空間と設定値とが関連付けられていてもよいし、または、ユーザID、実空間、および、設定値が関連付けられていてもよい。ここで、当該設定値には、例えば「ベース空間の切り替えを許可する」、および、「ベース空間の切り替えを許可しない」などが登録され得る。
なお、変形例として、当該共有空間に参加中の少なくとも一人のユーザ4aが、共有空間に未参加のユーザ4bに対して共有空間への参加を促す招待メッセージを発行し、そして、当該招待メッセージに対する、当該未参加のユーザ4bが承諾する旨を回答した場合には、サーバ10は、当該未参加のユーザ4bが当該共有空間に参加することを可能としてもよい。なお、この場合、共有空間合成部152は、現在のベース空間を変更しないことを決定する。
また、ベース空間を切り替えることが決定された場合には、共有空間合成部152は、当該ベース空間が切り替えられることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。例えば、共有空間合成部152は、当該ベース空間が切り替わることを示す、所定の時間(例えば10秒など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
‐未参加中のユーザの表示
なお、変形例として、共有空間合成部152は、例えば所定の条件が満たされる場合には、共有空間に参加していない実空間内のユーザ4を示す情報(例えば、当該実空間内のユーザ4の映像や名前など)を、自由視点のコンテンツに含めるように当該自由視点のコンテンツを加工してもよい。
以上、応用例2による構成について説明した。次に、応用例2による処理の流れについて、「2−6−3−1.空間共有の開始時の処理の流れ」および「2−6−3−2.共有空間への追加参加時の処理の流れ」において説明する。
‐(a)空間共有の開始時の設定情報を用いた例
まず、「空間共有の開始時の処理の流れ」について、2種類の例(「(a)空間共有の開始時の設定情報を用いた例」および「(b)招待用UIを用いた例」)を説明する。
次に、「(b)招待用UIを用いた例」に関する処理の流れについて、図50を参照して説明する。なお、ここでは、実空間2a内に位置するユーザ4aが、例えば実空間2b内に位置するユーザ4bに対して、空間共有を一緒に行うための招待用メッセージを発行する例について説明する。
次に、図51を参照して、「共有空間への追加参加時の処理の流れ」について説明する。なお、ここでは、実空間2c内に位置しており、かつ、共有空間に未参加であるユーザ4cが、共有空間への参加を希望する場面における処理の流れの一例について説明する。
<3−1.概要>
以上、第2の実施形態について説明した。ところで、上述した各実施形態のように、各実空間とサーバ10との間で、当該実空間の略全体の3Dデータが送受信される場合には、ネットワーク帯域を大量に使用し得る。また、別の課題として、例えば表示対象外と判定されたオブジェクトなど、認識処理が不要な場合には認識処理を省略することが望ましい。
{3−2−1.サーバ10‐3}
(3−2−1−1.オブジェクト管理情報DB164)
まず、第3の実施形態によるサーバ10‐3の構成について説明する。第3の実施形態によるオブジェクト管理情報DB164では、後述するように、各実空間の入力部22(送信部228)から受信される、各オブジェクトの送信に必要な帯域の情報がさらに格納される。
第3の実施形態による共有空間管理部100‐3は、(第2の実施形態による共有空間管理部100‐2と比較して)さらに、各オブジェクトの送信に必要な帯域の情報に基づいて、各オブジェクトを表示対象のオブジェクトに設定するか否かを判定する。そして、共有空間管理部100‐3は、表示対象と判定した各オブジェクトのオブジェクトIDのリストを制御情報送信部122へ伝達する。
第3の実施形態によるストリーム生成部130は、表示対象外と判定されたオブジェクトを共有空間Frameデータから削除することによりストリームを生成する。そして、ストリーム生成部130は、生成したストリームを送信部132に伝達する。
ここで、図52を参照して、第3の実施形態によるストリーム生成部130による処理の流れの一例について説明する。図52に示したように、ストリーム生成部130は、まず、処理対象の元空間の番号を示す変数Iに「1」を設定する(S3001)。そして、ストリーム生成部130は、元空間の総数をNに設定する(S3003)。
第3の実施形態による制御情報送信部122は、共有空間管理部100‐3から伝達される、表示対象のオブジェクトのオブジェクトIDのリストを第1の制御情報として、各実空間の出力部24へ送信する。例えば、表示対象と判定されていたオブジェクトが表示対象外と新たに判定された際には、制御情報送信部122は、当該オブジェクトが表示対象外と新たに判定されたことを示す第1の制御情報を、当該オブジェクトの元空間内の出力部24へ送信する。これにより、後述するように、該当の元空間の入力部22は、以後、当該オブジェクトの3Dデータをサーバ10‐3へ送信せず、かつ、当該オブジェクトの認識処理を停止し得る。
ここで、図53を参照して、第3の実施形態による制御情報送信部122による処理の流れの一例について説明する。図53に示したように、制御情報送信部122は、まず、処理対象の元空間の番号を示す変数Iに「1」を設定する(S3101)。そして、制御情報送信部122は、元空間の総数をNに設定する(S3103)。
(3−2−2−1.センサ部220)
次に、第3の実施形態による入力部22の構成について説明する。第3の実施形態によるセンサ部220は、セグメンテーションされた各オブジェクトに関して、当該オブジェクトの送信に必要な帯域の情報を取得(または算出)し、そして、取得した情報をメタ情報内に記録する。これにより、各オブジェクトの送信に必要な帯域の情報が(Frameデータなどとともに)サーバ10‐3へ送信されることになる。
第3の実施形態によるストリーム生成部226は、サーバ10‐3から受信される第1の制御情報に基づいて、表示対象外のオブジェクトを含まないようにストリームを生成する。これにより、表示対象外のオブジェクトの3Dデータはサーバ10‐3へ送信されないことになる。
ここで、図54を参照して、第3の実施形態によるストリーム生成部226による処理の流れの一例について説明する。図54に示したように、ストリーム生成部226は、まず、センサ部220によりセンシング(取得)され、かつ、認識部224により認識処理が行われたFrameデータを認識部224から取得する(S3201)。
第3の実施形態による認識部224は、サーバ10‐3から受信される第1の制御情報が示す表示対象のオブジェクトのIDのリストに基づいて、表示対象のオブジェクトに関してのみ認識処理を行うことが可能である。
ここで、図55を参照して、第3の実施形態による認識部224による処理の流れの一例について説明する。図55に示したように、認識部224は、まず、センサ部220によりセンシング(取得)されたFrameデータをセンサ部220から取得する(S3301)。
以上説明したように、第3の実施形態によれば、サーバ10‐3は、表示対象外のオブジェクトに関しては、クライアント20とサーバ10‐3との間でデータを送信しないように制御し、また、クライアント20に認識処理を行わせないように制御する。これにより、通信帯域、通信量、および、計算負荷を削減することができる。
ところで、ネットワーク帯域が変動すると、今まで送信可能であったオブジェクトのデータが送信不能となり得る。その結果、表示遅延やフレームレートの低下が発生し得る。次に、第3の実施形態の応用例について説明する。後述するように、本応用例によれば、ネットワーク帯域の範囲内で、サーバ10‐3とクライアント20との間でデータを送信するように制御することが可能である。
本応用例による入力部22の認識部224は、オブジェクトごとに、当該オブジェクトの送信に必要なデータ量を、メタ情報内にさらに記録する。
以上説明したように、本応用例によれば、ネットワーク帯域の範囲内で、サーバ10‐3とクライアント20との間でデータを送信するように制御する。このため、ネットワーク帯域が変動した場合であっても、表示遅延やフレームレートの低下の発生を防止することができる。
以上、第3の実施形態について説明した。上述したように、各実施形態によるサーバ10は、複数の実空間内のオブジェクトを共有空間上に配置する。ところで、特別の考慮がないと、ユーザにとって望ましくない位置関係で各オブジェクトが共有空間上に配置され得る。例えば、異なる実空間に位置する二人のユーザが向き合わないように共有空間上に配置され得る。また、当該二人のユーザが向き合うように配置された場合でも、当該二人のユーザの間に別のオブジェクトが配置され得る。その結果、当該二人のユーザが会話をする際に支障が生じ得る。
まず、第4の実施形態によるベース空間に対するオブジェクトのレイアウトの概要について説明する。第4の実施形態では、(例えば第2の実施形態と比べて)ベース空間内により多くの種類のオブジェクトを配置可能とする。例えば、ベース空間内に自由視点動画オブジェクトが(ベース空間オブジェクトとして)配置可能である。ここで、自由視点動画オブジェクトは、例えば、自由視点のライブ映像コンテンツであってもよい。また、自由視点動画オブジェクトは、背景として表示されてもよい。
図56は、第4の実施形態によるベース空間レイアウト情報160の構成例を示した説明図である。図56に示したように、第4の実施形態によるベース空間レイアウト情報160は、(図23に示した)第2の実施形態によるベース空間レイアウト情報160と比較して、2D動画オブジェクト情報1606、および、自由視点動画オブジェクト情報1608をさらに含む。ここで、2D動画オブジェクト情報1606には、該当のベース空間内に配置される全ての2D動画オブジェクトに関する情報が記録される。例えば、2D動画オブジェクト情報1606には、2D動画オブジェクトごとに、当該2D動画オブジェクトが配置される共有オブジェクトの情報(オブジェクトID、オブジェクトを構成する点および面の座標など)、当該2D動画オブジェクトが描画される面の座標、および、当該2D動画オブジェクトが格納されているサーバ(図示省略)のURLなどが記録される。また、自由視点動画オブジェクト情報1608には、該当のベース空間内に配置される自由視点動画オブジェクトに関する情報が記録される。例えば、自由視点動画オブジェクト情報1608には、該当の自由視点動画オブジェクトが配置されるベース空間上の領域、および、該当の自由視点動画オブジェクトが格納されているサーバ(図示省略)のURLなどが記録される。
次に、第4の実施形態による情報処理システムの構成例について、図58〜図60を参照して説明する。図58に示すように、第4の実施形態による情報処理システムは、図1に示した第1の実施形態と比較して、自由視点動画コンテンツサーバ50、自由視点ライブコンテンツサーバ52、および、ベース空間レイアウトサーバ54をさらに含む。
自由視点動画コンテンツサーバ50は、自由視点動画コンテンツを例えばサーバ10‐4などへ配信する装置である。ここで、図59を参照して、自由視点動画コンテンツサーバ50の構成例について説明する。図59に示すように、自由視点動画コンテンツサーバ50は、制御情報受信部500、ストリーム生成部502、送信部504、および、自由視点動画コンテンツDB506を有する。
制御情報受信部500は、サーバ10‐4から第4の制御情報を受信する。そして、制御情報受信部500は、受信した第4の制御情報をストリーム生成部502へ伝達する。
ストリーム生成部502は、自由視点動画コンテンツDB506に格納されているコンテンツと、制御情報受信部500から伝達される第4の制御情報とに基づいて、自動視点動画オブジェクト(ストリーム)を生成する。例えば、ストリーム生成部502は、第4の制御情報が指定する種類のコンテンツを自由視点動画コンテンツDB506から抽出することにより、自動視点動画オブジェクトを生成する。
自由視点動画コンテンツDB506は、複数の自由視点動画コンテンツを格納するデータベースである。例えば、自由視点動画コンテンツDB506では、例えばコンサート会場、イベント会場、スポーツ会場、または、街などの実空間のセンシングに基づいて生成された自由視点動画や、ユーザの移動時の撮影に基づいて生成された自由視点動画などが格納され得る。
送信部504は、ストリーム生成部502により生成された自動視点動画オブジェクトをサーバ10‐4(クライアント接続部120)へ送信する。
自由視点ライブコンテンツサーバ52は、自由視点のライブコンテンツを例えばサーバ10‐4などへ配信する装置である。ここで、自由視点のライブコンテンツは、例えばコンサート会場、イベント会場、スポーツ会場、街、図書館、スポーツクラブ、または、飲食店などの各種の場所における、後述するセンサ部520によるセンシングに基づいて生成される自由視点コンテンツである。または、或る人の移動中の撮影に基づいてリアルタイムに生成される自由視点コンテンツであってもよい。
センサ部520は、センサ部520が配置されている実空間内の3Dデータなどの各種のデータを受信または読出し処理などを行うことにより検出する。例えば、センサ部520は、複数のデプスカメラ、および、複数のRGBカメラを有し得る。そして、当該複数のデプスカメラは、センサ部520が配置されている実空間内の3Dデータを取得する。また、センサ部520は、取得したデータを認識部524へ伝達する。なお、センサ部520の機能は、(入力部22の)センサ部220と概略同様であり得る。
制御情報受信部522は、サーバ10‐4から第4の制御情報を受信する。そして、制御情報受信部500は、受信した第4の制御情報を認識部524およびストリーム生成部526へ伝達する。
認識部524は、センサ部520から伝達されるデータと、制御情報受信部522から伝達される第4の制御情報とに基づいて、例えばオブジェクトの種別の認識などの各種の認識処理を行う。また、認識部524は、センサ部520から伝達されたデータと、認識処理の結果とをストリーム生成部526へ伝達する。なお、認識部524の機能は、(入力部22の)認識部224と概略同様であり得る。
ストリーム生成部526は、認識部524から伝達される情報と、制御情報受信部522から伝達される第4の制御情報とに基づいて、自動視点動画オブジェクト(ストリーム)を生成する。また、ストリーム生成部526は、生成した自動視点動画オブジェクトを送信部528へ伝達する。なお、ストリーム生成部526の機能は、(入力部22の)ストリーム生成部226と概略同様であり得る。
送信部528は、ストリーム生成部526から伝達された自動視点動画オブジェクトをサーバ10‐4(クライアント接続部120)へ送信する。
ベース空間レイアウトサーバ54は、ベース空間レイアウト情報DB542を管理する装置である。ここで、図60を参照して、ベース空間レイアウトサーバ54の構成例について説明する。図60に示すように、ベース空間レイアウトサーバ54は、ベース空間レイアウト情報DB管理部540、および、ベース空間レイアウト情報DB542を有する。
ベース空間レイアウト情報DB542は、予め登録されている複数のレイアウトの情報を格納するデータベースである。例えば、ベース空間レイアウト情報DB542は、レイアウトの識別情報(名称など)と、レイアウトとを関連付けて格納する。
ベース空間レイアウト情報DB管理部540は、ベース空間レイアウト情報DB542に対して、データの抽出、登録、更新などの各種の処理を行う。例えば、レイアウトの取得要求がサーバ10‐4から受信された場合には、ベース空間レイアウト情報DB管理部540は、まず、当該取得要求が示す種類のレイアウトをベース空間レイアウト情報DB542から抽出する。そして、ベース空間レイアウト情報DB管理部540は、抽出したレイアウトをサーバ10‐4へ送信する。
以上、第4の実施形態による情報処理システムの構成について説明した。次に、第4の実施形態によるサーバ10‐4の構成について詳細に説明する。図61は、第4の実施形態による共有空間管理部100‐4の構成例を示した機能ブロック図である。図61に示すように、共有空間管理部100‐4は、(第2の実施形態による共有空間管理部100‐2と比較して)ベース空間レイアウト情報管理部166をさらに有する。
第4の実施形態による制御部108は、イベント認識部106による認識結果に基づいて、ベース空間のレイアウトを切り替えるための制御情報を生成する。例えば、共有空間において参加ユーザが例えばジェスチャー、発話(音声コマンドなど)、または所定のUIに対する操作などによりレイアウトの変更を指示したことが認識された場合には、制御部108は、ベース空間のレイアウトを、指示された種類のレイアウトに切り替えるための第3の制御情報を生成する。そして、制御部108は、生成した制御情報をベース空間レイアウト情報管理部166へ伝達する。
ベース空間レイアウト情報管理部166は、制御部108から伝達される第3の制御情報に基づいて、候補となるベース空間レイアウト情報をベース空間レイアウトサーバ54から取得する。
(4−3−3−1.オブジェクトの配置)
第4の実施形態による共有空間合成部152は、レイアウト情報をベース空間レイアウト情報160から取得し、そして、取得したレイアウト情報に基づいて共有空間を生成する。例えば、取得したベース空間レイアウト情報内に3D自由視点動画オブジェクトまたは2D動画オブジェクトが格納されている場合には、共有空間合成部152は、当該オブジェクトを(他のオブジェクトよりも)優先して表示対象のオブジェクトとして決定する。
なお、共有空間合成部152は、ベース空間レイアウト情報管理部166によるベース空間レイアウト情報の取得に基づいて、共有空間におけるベース空間を切り替えることが可能である。例えば、ベース空間レイアウト情報が取得された際に、共有空間合成部152は、共有空間におけるベース空間のレイアウトを、取得されたベース空間レイアウト情報が示すレイアウトに自動的に切り替える。
以上説明したように、第4の実施形態によれば、サーバ10‐4は、予め登録されている複数のベース空間レイアウトの中からユーザにより選択されたベース空間レイアウトに対して、表示対象のオブジェクトを配置することにより、共有空間を生成する。これにより、ユーザにとって望ましいように各オブジェクトを共有空間上にレイアウトすることができる。
なお、上記の説明では、予め登録されている複数のレイアウト情報のうちのいずれかをユーザが選択する例について説明したが、かかる例に限定されない。例えば、予め登録されている複数のレイアウト情報の各々には、配置可能オブジェクト条件(例えば人を3名まで配置可能など)が付与され得る。そして、サーバ10‐4は、各レイアウト情報に付与されている配置可能オブジェクト条件と、元空間に関する情報(例えば(共有空間に参加する各ユーザが位置する)元空間の数、元空間内のオブジェクト、または、ユーザの数など)とに基づいて、最適なレイアウトを自動的に選択することも可能である。
以上、第4の実施形態について説明した。上述したように、第4の実施形態では、ベース空間のレイアウト情報が予め登録されていることを想定する。
第5の実施形態によるサーバ10‐5に含まれる構成要素は、(例えば図61に示した)第4の実施形態と同様である。以下では、第4の実施形態とは異なる内容についてのみ説明を行う。
第5の実施形態によるベース空間レイアウト情報管理部166は、ベース空間レイアウトエディタの起動中におけるユーザの指示(例えばジェスチャーや発話(音声コマンドなど)など)の認識結果に基づいて、ベース空間のレイアウト情報を生成または修正する。また、ベース空間レイアウト情報管理部166は、生成または更新されたレイアウト情報をベース空間レイアウトサーバ54へ送信することが可能である。
ベース空間レイアウトエディタは、ベース空間のレイアウト情報を編集するためのモードである。例えば、ベース空間レイアウトエディタでは、ベース空間レイアウト情報160に格納されているオブジェクトのみが共有空間上に表示され、そして、ユーザは、表示されたオブジェクトを見ながらベース空間のレイアウト情報を編集することができる。
ここで、図62および図63を参照して、ベース空間レイアウトエディタの使用例について説明する。まず、例えば共有空間上で、ベース空間レイアウトエディタの起動のための音声コマンドをユーザ4が発したことが認識されると、サーバ10‐5はベース空間レイアウトエディタを起動する。そして、図62のAに示したように、ベース空間レイアウト情報160に格納されているオブジェクトのみを含む共有空間内にユーザ4が位置する映像が、(ユーザ4が閲覧する)表示部246に表示される。
以上説明したように、第5の実施形態によれば、サーバ10‐5は、ユーザの指示に基づいてベース空間レイアウトエディタを起動し、そして、ベース空間レイアウトエディタの起動中におけるユーザの指示に基づいて、ベース空間のレイアウト情報を編集する。これにより、ユーザは、ベース空間のレイアウト情報を希望通りに編集することができる。
以上、第5の実施形態について説明した。ところで、空間共有中において、ユーザ4aが位置する元空間2a内の特定のオブジェクト(または人物)を(別の元空間2b内の)他のユーザ4bに見せたくない場合も想定される。このような場合、元空間2a内のオブジェクトの共有の可否をユーザ4aが指定可能であることが望ましい。
{6−1−1.入力部22}
まず、第6の実施形態による構成について説明する。図64は、第6の実施形態による入力部22の構成例を示した機能ブロック図である。図64に示すように、第6の実施形態による入力部22は、(図2に示した)第1の実施形態と比較して、表示可否設定情報DB230をさらに含む。
表示可否設定情報DB230は、入力部22が位置する実空間内の各オブジェクトに関する表示の可否の設定情報を格納するデータベースである。表示可否設定情報DB230では、例えばサーバ10‐6から受信される第1の制御情報に基づいて、各オブジェクトの表示の可否が設定および変更される。例えば、サーバ10‐6は、後述する表示可否設定エディタの起動中におけるユーザの指示(ジェスチャーや音声コマンドなど)の認識結果に基づいて各オブジェクトの表示の可否を決定し、そして、決定した情報を第1の制御情報として入力部22へ送信する。これにより、入力部22は、受信した第1の制御情報に基づいて、表示可否設定情報DB230の登録内容を変更し得る。
ここで、上述した表示可否設定エディタの内容についてより詳細に説明する。表示可否設定エディタは、ユーザが位置する実空間内の各オブジェクトの表示の可否を設定するためのモードである。例えば、表示可否設定エディタでは、ユーザが位置する実空間内の各オブジェクトが、例えば当該実空間に対応する仮想空間(例えば共有空間など)上に表示され得る。そして、ユーザは、表示されたオブジェクトの映像を見ながら、各オブジェクトの表示の可否を設定することができる。なお、表示部246に表示されている各オブジェクトの位置に、当該オブジェクトに設定されている表示可否を示すマークが表示されてもよい。または、表示不可に設定されたオブジェクトは非表示にされてもよい。
ここで、図65を参照して、表示可否設定エディタの使用例について説明する。まず、例えば共有空間上で、表示可否設定エディタの起動のための音声コマンドをユーザ4が発したことが認識されると、サーバ10‐6は表示可否設定エディタを起動する。そして、図65のAに示したように、ユーザ4が位置する実空間内のオブジェクトが共有空間上に配置された映像が、(ユーザ4が閲覧する)表示部246に表示される。
なお、変形例として、各オブジェクトの表示の可否は、相手のユーザごとに設定可能であってもよい。例えば、あるオブジェクトに関して、家族には表示可に設定し、かつ、友人には表示不可に設定することが可能であってもよい。
第6の実施形態による認識部224は、表示可否設定情報DB230の登録内容に基づいて、各オブジェクトに関して認識処理を実行する。例えば、認識部224は、表示可否設定情報DB230において表示可に設定されているオブジェクトに関してのみ、当該オブジェクトの認識処理を行う。これにより、処理の負荷を削減することができる。
第6の実施形態によるストリーム生成部226は、さらに、表示可否設定情報DB230の登録内容に基づいてストリームを生成する。例えば、ストリーム生成部226は、表示可否設定情報DB230において表示不可に設定されている全てのオブジェクトの3Dデータを生成対象のストリームから除外することにより、ストリームを生成する。これにより、表示不可に設定されている全てのオブジェクトの3Dデータは、サーバ10‐6へ送信されないことになる。従って、通信量を削減することができる。
以上説明したように、第6の実施形態によれば、ユーザが位置する元空間内の各オブジェクトに関して、(共有空間に対応する)自由視点のコンテンツにおける表示の可否をユーザは設定することができる。これにより、空間共有を可能としつつ、ユーザの元空間2a内の特定のオブジェクト(人物を含む)が、別の元空間2b内の他のユーザに見られないように制限することができる。
{6−3−1.変形例1}
なお、変形例として、サーバ10‐6は、ある実空間がベース空間として設定されているか否かによって、当該実空間に関して設定されている、オブジェクトの表示制限の設定を動的に変更してもよい。例えば、ある実空間がベース空間として設定されている場合には、サーバ10‐6は、当該実空間に関して設定されている、オブジェクトの表示制限の設定を動的に緩めてもよい。
また、別の変形例として、共有空間に参加中の各実空間内のユーザは、当該共有空間に参加中の他の実空間において表示制限されているオブジェクトに関する表示の許可を、当該他の実空間内のユーザに対して(例えばUIなどを用いて)要求可能であってもよい。そして、当該表示要求に対して承諾することが(例えば、出力部24により表示されるUIなどを介して)、当該表示要求の送信先の実空間2b内のユーザにより回答された場合には、サーバ10‐6は、実空間2b内のオブジェクトの表示制限の設定を当該表示要求に応じて緩和したり、解除してもよい。
以上、第6の実施形態について説明した。ところで、複数の実空間を合成することにより共有空間を生成する場面では、当該複数の実空間同士の望ましい位置関係は、当該複数の実空間の各々に位置するユーザ同士の状況によって変化し得る。例えば、二つの実空間内のユーザが共有空間上でそれぞれ椅子に座りながら向かい合って話をするような状況では、当該二つの実空間内のユーザ同士の目線の高さが合っていることが望ましい。また、テーブル上に置かれたノートを別の実空間のユーザと一緒に見るような状況では、二つの実空間のテーブルの高さが合っていることが望ましい。
まず、第7の実施形態によるサーバ10‐7の構成について説明する。なお、サーバ10‐7に含まれる構成要素は、(図21に示した)第2の実施形態と同様である。以下では、第2の実施形態とは異なる機能を有する構成要素についてのみ説明を行う。
(7−1−1−1.空間の合成)
第7の実施形態では、複数の種類のオブジェクト間の一般的な類似度(または関連度)が予めテーブルに登録され得る。そして、共有空間合成部152は、別々の実空間に位置するオブジェクト同士の類似度と、各実空間におけるオブジェクトとユーザとの位置関係とに基づいて、当該複数の実空間の合成方法を決定する。
また、共有空間合成部152は、複数の実空間を合成する際の位置関係を、入力部22の認識部224、または、サーバ10‐7の認識部104の認識結果に基づいて決定することが可能である。ここで、当該認識結果の例としては、オブジェクトの種類(例えば床、机、椅子、ギター、ピアノなど)の認識結果や、人に関する認識結果(例えば関節情報、顔位置、ジェスチャーなど)などが挙げられる。または、ジャイロデータと組み合わせることでの、水平面や垂直面などの幾何情報が当該認識結果として利用されてもよい。
以下、複数の実空間を合成する際の位置関係の決定方法の例について具体的に説明する。例えば、共有空間合成部152は、複数の実空間を合成する際の位置関係を、当該複数の実空間のうちのいずれかにおけるオブジェクトの認識結果に基づいて決定することが可能である。例えば、実空間2a内のユーザ4aがソファに座っており、かつ、実空間2aと空間2bとを合成する際には、共有空間合成部152は、実空間2b内のリビングの空き領域内に、実空間2a内のソファおよびユーザ4aを(一緒に)配置することを決定する。また、実空間2aと実空間2bとを合成する際には、共有空間合成部152は、床が一致するように実空間2aと実空間2bとを合成することを決定してもよい。
または、共有空間合成部152は、複数の実空間を合成する際の位置関係を、当該複数の実空間内に位置する人に関する認識結果に基づいて決定することも可能である。例えば、共有空間合成部152は、実空間2a内のユーザの目線の先に、実空間2b内のユーザが位置するような位置関係で、当該二つの実空間を合成することを決定する。または、共有空間合成部152は、実空間2a内のユーザと、実空間2b内のユーザとが顔が向かい合うような位置関係で、当該二つの実空間を合成することを決定する。
または、共有空間合成部152は、複数の実空間を合成する際の位置関係を、当該複数の実空間のうちのいずれかに位置する一人のユーザのジェスチャーの認識結果に基づいて決定することも可能である。例えば、実空間2a内のユーザが(実空間2a内の)床を指差したことが認識された場合には、共有空間合成部152は、指差し先の床の位置に、空間2b内のユーザ(または他のオブジェクト)が位置するような位置関係で、実空間2aおよび実空間2bを合成することを決定する。
または、複数の実空間内のユーザが所定のジェスチャーを同時に行っていることが認識された場合には、共有空間合成部152は、認識されたジェスチャーに基づいて当該複数の実空間を合成することを決定することも可能である。例えば、実空間2a内のユーザおよび実空間2b内のユーザが握手のジェスチャーを同時に行っていることが認識された場合には、共有空間合成部152は、当該二人のユーザがそれぞれ差し出した手が重なるように、実空間2aおよび実空間2bを合成することを決定する。また、実空間2a内のユーザおよび実空間2b内のユーザがハイタッチのジェスチャーを同時に行っていることが認識された場合には、共有空間合成部152は、当該二人のユーザがそれぞれ挙げた手(手の平など)が重なるように、実空間2aおよび実空間2bを合成することを決定する。また、実空間2a内のユーザおよび実空間2b内のユーザがじゃんけんのジェスチャーを同時に行っていることが認識された場合には、共有空間合成部152は、当該二人のユーザがそれぞれ差し出した手の間に一定の空隙が位置するような位置関係で、実空間2aおよび実空間2bを合成することを決定する。
または、共有空間合成部152は、上述したオブジェクトの認識結果、人の認識結果、および、ジェスチャーの認識結果のうちのいずれか2以上の組み合わせに基づいて、複数の実空間を合成することを決定してもよい。例えば、実空間2a内のユーザおよび実空間2b内のユーザがそれぞれの実空間内の机を同時に叩いたことが認識された場合には、共有空間合成部152は、それぞれの実空間内の机の高さが一致するような位置関係で、実空間2aおよび実空間2bを合成することを決定する。
‐行動認識
また、複数の実空間が合成された後(共有空間が生成された後)に、共有空間合成部152は、当該位置関係を所定の条件に基づいて変更することも可能である。例えば、実空間2a内のユーザ(生徒)と実空間2b内のユーザ(教師)との間で折り紙のレクチャを行う場合には、共有空間合成部152は、初期状態では、生徒の手元から例えば前方30cmの位置に教師の手が配置されるような位置関係で、実空間2aおよび実空間2bを合成してもよい。また、レクチャの開始後に、生徒が折り紙を持って移動することが認識された場合には、共有空間合成部152は、共有空間上での教師の手の位置が折り紙に追従して移動するように、二つの実空間の位置関係を逐次変更してもよい(共有空間を逐次再生成してもよい)。
また、複数の実空間が合成された後に、共有空間合成部152は、所定のマーカ(位置合わせ用の物体など)の位置の変化に基づいて、当該位置関係を変更することが可能である。例えば、特定の椅子が所定のマーカとして予め登録されている場合には、共有空間合成部152は、いずれかの元空間における当該椅子の位置の変化に応じて、共有空間上での各実空間の位置関係を逐次変更してもよい。この変更例によれば、ユーザは所定のマーカを移動させることにより、別の実空間との位置関係を直感的に変更することができる。さらに、ユーザは実際にオブジェクトに触れるので、例えば仮想空間での操作と比較して、操作感(触覚など)を得ることができる。
また、共有空間合成部152は、複数の実空間のうちの少なくともいずれかに位置するユーザのジェスチャーの認識結果に基づいて、表示対象のオブジェクトの選択と、当該オブジェクトの表示位置の決定とを同時に行うことも可能である。例えば、実空間2a内のユーザが椅子に座っており、かつ、別の実空間2b内のユーザが床を指差したことが認識された場合には、共有空間合成部152は、実空間2a内のユーザが座っている椅子および当該ユーザを共有空間上に(一緒に)配置することを決定する。また、実空間2a内のユーザが椅子を指差したことが認識された場合には、共有空間合成部152は、実空間2b内のユーザだけを(椅子に座っているポーズのまま)共有空間上に配置することを決定する。
または、複数の実空間を合成する際の位置関係の、複数の合わせ方がそれぞれ、予めモードとして登録され得る。そして、当該モードは、ユーザが手動(例えばジェスチャーや音声コマンドなど)で切り替え可能であり得る。
以上、第7の実施形態の構成について説明した。次に、第7の実施形態による処理の流れについて、図70を参照して説明する。図70は、第7の実施形態による、各実空間のローカル座標系から共有空間座標系への変換行列を算出する処理の流れを示したフローチャートである。以下では、実空間Aに関して、実空間Aのローカル座標系から共有空間座標系への変換行列を算出する例について説明する。なお、本処理の流れは、任意の実空間に関して同様に適用され得る。
以上説明したように、第7の実施形態によれば、サーバ10‐7は、複数の実空間の各々に位置する、類似していると認識されるオブジェクトを基準オブジェクトとしてそれぞれ決定し、そして、当該基準オブジェクトに関連付けられている基準点または基準面に基づいて、当該複数の実空間に関するセンシングデータを合成することにより、共有空間を生成する。これにより、各ユーザの状況に適した位置関係で当該二つの実空間を合成することができる。
次に、各実施形態に共通するサーバ10のハードウェア構成について、図71を参照して説明する。図71に示すように、サーバ10は、CPU900、ROM(Read Only Memory)902、RAM904、バス906、インターフェース908、ストレージ装置910、および通信装置912を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した各実施形態では、サーバ10は、(フレームごとに)共有空間を一つだけ生成する例を中心に説明したが、かかる例に限定されず、サーバ10(共有空間合成部152)は、フレームごとに、異なる共有空間を複数生成してもよい。例えば、共有空間合成部152は、実空間2a内の入力部22aから受信されたストリームと実空間2b内の入力部22bから受信されたストリームとに基づいて共有空間Aを生成し、かつ、実空間2c内の入力部22cから受信されたストリームと実空間2d内の入力部22dから受信されたストリームとに基づいて共有空間Bを生成してもよい。
また、別の変形例として、非表示とするオブジェクトの種類がユーザごとに予め設定されているフィルタが用意され得る。この場合、サーバ10は、共有空間に参加中のユーザごとに、生成された共有空間Frameデータに対して、当該ユーザに関連付けられているフィルタを適用してもよい。この変形例によれば、ユーザごとに閲覧可能なオブジェクトを異ならせることができる。
また、上述した各実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいて決定する決定部、
を備える、情報処理装置。
(2)
前記決定部は、前記共有オブジェクトとして、前記第1の実オブジェクトに対応する第1の仮想オブジェクト、および、前記第2の実オブジェクトに対応する第2の仮想オブジェクトの少なくとも一方を前記所定の基準に基づいて選択する、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記第1の実オブジェクトの優先度、および、前記第2の実オブジェクトの優先度を所定の指標に基づいて算出する優先度算出部をさらに備え、
前記所定の基準は、前記優先度算出部により算出された前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を含む、前記(2)に記載の情報処理装置。
(4)
前記優先度算出部は、前記第1の実オブジェクトの属性情報および前記第2の実オブジェクトの属性情報に基づいて、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を算出する、前記(3)に記載の情報処理装置。
(5)
前記第1の実オブジェクトの属性情報は、前記第1の実オブジェクトのサイズ、前記第1の実オブジェクトの種類、または、前記第1の実空間の識別情報を含み、
前記第2の実オブジェクトの属性情報は、前記第2の実オブジェクトのサイズ、前記第2の実オブジェクトの種類、または、前記第2の実空間の識別情報を含む、前記(4)に記載の情報処理装置。
(6)
前記優先度算出部は、前記第1の実空間における前記第1の実オブジェクトと前記第1のユーザの位置関係に基づいて、前記第1の実オブジェクトの優先度を算出するとともに、前記第2の実空間における前記第2の実オブジェクトと前記第2のユーザの位置関係に基づいて、前記第2の実オブジェクトの優先度を算出する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記優先度算出部は、表示部により表示される前記仮想空間の直前の表示フレームにおいて前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトが前記仮想空間内に配置されていたか否かに基づいて、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を算出する、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記優先度算出部は、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を、前記仮想空間におけるコンテキスト情報に基づいて算出する、前記(3)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記優先度算出部は、前記第1の実オブジェクトおよび前記第2の実オブジェクトのうち、前記コンテキスト情報に関連する実オブジェクトの優先度をより高く算出する、前記(8)に記載の情報処理装置。
(10)
前記第1の実空間のセンシング結果に基づいて取得される第1の三次元情報と、前記第2の実空間のセンシング結果に基づいて取得される第2の三次元情報とを合成することにより前記仮想空間を生成する空間生成部をさらに備える、前記(2)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記空間生成部は、前記仮想空間内に配置されることが前記決定部により決定された全ての共有オブジェクトをレイアウト情報に基づいて前記仮想空間内に配置する、前記(10)に記載の情報処理装置。
(12)
前記第1の実空間または前記第2の実空間のいずれかがベース空間として決定され、
前記情報処理装置は、前記ベース空間の三次元情報に基づいて前記レイアウト情報を生成するレイアウト情報生成部をさらに備える、前記(11)に記載の情報処理装置。
(13)
前記レイアウト情報は、予め登録されている複数のレイアウト情報の中から、前記第1のユーザまたは前記第2のユーザにより選択された情報である、前記(11)に記載の情報処理装置。
(14)
前記レイアウト情報を編集するための前記第1のユーザまたは前記第2のユーザによる指示の認識結果に基づいて前記レイアウト情報は編集される、前記(11)に記載の情報処理装置。
(15)
前記所定の基準は、前記第1の仮想オブジェクトの表示可否に関する設定情報、および、前記第2の仮想オブジェクトの表示可否に関する設定情報を含む、前記(2)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記所定の基準は、前記第1の実オブジェクトに関するデータ量と、前記第2の実オブジェクトに関するデータ量と、前記第1の実空間と前記情報処理装置との間のネットワーク帯域と、前記第2の実空間と前記情報処理装置との間のネットワーク帯域との関係性を含む、前記(2)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記第2の実オブジェクトは、前記第1の実オブジェクトに対して所定の類似度を有し、
前記決定部は、前記第1の実オブジェクト、および、前記第2の実オブジェクトをそれぞれ基準オブジェクトとして決定し、
前記情報処理装置は、前記第1の実空間のセンシング結果に基づいて取得される第1の三次元情報と、前記第2の実空間のセンシング結果に基づいて取得される第2の三次元情報とを、前記基準オブジェクトに応じた基準点または基準面に基づいて合成することにより前記仮想空間を生成する空間生成部をさらに備える、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記決定部は、複数の前記第1の実オブジェクトと前記第1のユーザとの位置関係、複数の前記第2の実オブジェクトと前記第2のユーザとの位置関係、および、前記複数の第1の実オブジェクトに対する前記複数の第2の実オブジェクトの各々の類似度に基づいて、前記複数の第1の実オブジェクトの中から少なくとも1つを前記基準オブジェクトとして特定し、かつ、前記複数の第2の実オブジェクトの中から少なくとも1つを前記基準オブジェクトとして特定する、前記(17)に記載の情報処理装置。
(19)
第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいてプロセッサが決定すること、
を含む、情報処理方法。
(20)
コンピュータを、
第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいて決定する決定部、
として機能させるための、プログラム。
20 クライアント
22 入力部
24 出力部
26 通信網
50 自由視点動画コンテンツサーバ
52 自由視点ライブコンテンツサーバ
54 ベース空間レイアウトサーバ
100‐1、100‐2、100‐4 共有空間管理部
102 共有空間生成部
104、224、250、524 認識部
106 イベント認識部
108 制御部
120 クライアント接続部
122、252 制御情報送信部
124、242 ストリーム分離部
126、240 受信部
128、222、500、522 制御情報受信部
130、226、502、526 ストリーム生成部
132、228、504、528 送信部
150 同期部
152 共有空間合成部
154 配信部
156 共有空間FrameデータDB
158 ベース空間レイアウト生成部
166 ベース空間レイアウト情報管理部
220、248、520 センサ部
244 合成部
246 表示部
400 優先度算出部
402 決定部
540 ベース空間レイアウト情報DB管理部
Claims (20)
- 第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいて決定する決定部、
を備える、情報処理装置。 - 前記決定部は、前記共有オブジェクトとして、前記第1の実オブジェクトに対応する第1の仮想オブジェクト、および、前記第2の実オブジェクトに対応する第2の仮想オブジェクトの少なくとも一方を前記所定の基準に基づいて選択する、請求項1に記載の情報処理装置。
- 前記情報処理装置は、前記第1の実オブジェクトの優先度、および、前記第2の実オブジェクトの優先度を所定の指標に基づいて算出する優先度算出部をさらに備え、
前記所定の基準は、前記優先度算出部により算出された前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を含む、請求項2に記載の情報処理装置。 - 前記優先度算出部は、前記第1の実オブジェクトの属性情報および前記第2の実オブジェクトの属性情報に基づいて、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を算出する、請求項3に記載の情報処理装置。
- 前記第1の実オブジェクトの属性情報は、前記第1の実オブジェクトのサイズ、前記第1の実オブジェクトの種類、または、前記第1の実空間の識別情報を含み、
前記第2の実オブジェクトの属性情報は、前記第2の実オブジェクトのサイズ、前記第2の実オブジェクトの種類、または、前記第2の実空間の識別情報を含む、請求項4に記載の情報処理装置。 - 前記優先度算出部は、前記第1の実空間における前記第1の実オブジェクトと前記第1のユーザの位置関係に基づいて、前記第1の実オブジェクトの優先度を算出するとともに、前記第2の実空間における前記第2の実オブジェクトと前記第2のユーザの位置関係に基づいて、前記第2の実オブジェクトの優先度を算出する、請求項3に記載の情報処理装置。
- 前記優先度算出部は、表示部により表示される前記仮想空間の直前の表示フレームにおいて前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトが前記仮想空間内に配置されていたか否かに基づいて、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を算出する、請求項3に記載の情報処理装置。
- 前記優先度算出部は、前記第1の実オブジェクトの優先度および前記第2の実オブジェクトの優先度を、前記仮想空間におけるコンテキスト情報に基づいて算出する、請求項3に記載の情報処理装置。
- 前記優先度算出部は、前記第1の実オブジェクトおよび前記第2の実オブジェクトのうち、前記コンテキスト情報に関連する実オブジェクトの優先度をより高く算出する、請求項8に記載の情報処理装置。
- 前記第1の実空間のセンシング結果に基づいて取得される第1の三次元情報と、前記第2の実空間のセンシング結果に基づいて取得される第2の三次元情報とを合成することにより前記仮想空間を生成する空間生成部をさらに備える、請求項2に記載の情報処理装置。
- 前記空間生成部は、前記仮想空間内に配置されることが前記決定部により決定された全ての共有オブジェクトをレイアウト情報に基づいて前記仮想空間内に配置する、請求項10に記載の情報処理装置。
- 前記第1の実空間または前記第2の実空間のいずれかがベース空間として決定され、
前記情報処理装置は、前記ベース空間の三次元情報に基づいて前記レイアウト情報を生成するレイアウト情報生成部をさらに備える、請求項11に記載の情報処理装置。 - 前記レイアウト情報は、予め登録されている複数のレイアウト情報の中から、前記第1のユーザまたは前記第2のユーザにより選択された情報である、請求項11に記載の情報処理装置。
- 前記レイアウト情報を編集するための前記第1のユーザまたは前記第2のユーザによる指示の認識結果に基づいて前記レイアウト情報は編集される、請求項11に記載の情報処理装置。
- 前記所定の基準は、前記第1の仮想オブジェクトの表示可否に関する設定情報、および、前記第2の仮想オブジェクトの表示可否に関する設定情報を含む、請求項2に記載の情報処理装置。
- 前記所定の基準は、前記第1の実オブジェクトに関するデータ量と、前記第2の実オブジェクトに関するデータ量と、前記第1の実空間と前記情報処理装置との間のネットワーク帯域と、前記第2の実空間と前記情報処理装置との間のネットワーク帯域との関係性を含む、請求項2に記載の情報処理装置。
- 前記第2の実オブジェクトは、前記第1の実オブジェクトに対して所定の類似度を有し、
前記決定部は、前記第1の実オブジェクト、および、前記第2の実オブジェクトをそれぞれ基準オブジェクトとして決定し、
前記情報処理装置は、前記第1の実空間のセンシング結果に基づいて取得される第1の三次元情報と、前記第2の実空間のセンシング結果に基づいて取得される第2の三次元情報とを、前記基準オブジェクトに応じた基準点または基準面に基づいて合成することにより前記仮想空間を生成する空間生成部をさらに備える、請求項1に記載の情報処理装置。 - 前記決定部は、複数の前記第1の実オブジェクトと前記第1のユーザとの位置関係、複数の前記第2の実オブジェクトと前記第2のユーザとの位置関係、および、前記複数の第1の実オブジェクトに対する前記複数の第2の実オブジェクトの各々の類似度に基づいて、前記複数の第1の実オブジェクトの中から少なくとも1つを前記基準オブジェクトとして特定し、かつ、前記複数の第2の実オブジェクトの中から少なくとも1つを前記基準オブジェクトとして特定する、請求項17に記載の情報処理装置。
- 第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいてプロセッサが決定すること、
を含む、情報処理方法。 - コンピュータを、
第1のユーザに関連し少なくとも1つの第1の実オブジェクトを含む第1の実空間のセンシング結果と、第2のユーザに関連し少なくとも1つの第2の実オブジェクトを含む第2の実空間のセンシング結果とに基づいて前記第1のユーザと前記第2のユーザの間のコミュニケーションのために生成される仮想空間内に配置される共有オブジェクトを、所定の基準に基づいて決定する決定部、
として機能させるための、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016226211 | 2016-11-21 | ||
JP2016226211 | 2016-11-21 | ||
PCT/JP2017/031043 WO2018092384A1 (ja) | 2016-11-21 | 2017-08-30 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018092384A1 JPWO2018092384A1 (ja) | 2019-10-10 |
JP6773126B2 true JP6773126B2 (ja) | 2020-10-21 |
Family
ID=62146324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018551042A Active JP6773126B2 (ja) | 2016-11-21 | 2017-08-30 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11043033B2 (ja) |
EP (1) | EP3543961A4 (ja) |
JP (1) | JP6773126B2 (ja) |
KR (1) | KR102355175B1 (ja) |
CN (1) | CN109952599A (ja) |
WO (1) | WO2018092384A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417810B2 (en) * | 2017-05-31 | 2019-09-17 | Verizon Patent And Licensing Inc. | Methods and systems for rendering virtual reality content based on two-dimensional (“2D”) captured imagery of a three-dimensional (“3D”) scene |
KR102130892B1 (ko) * | 2017-12-26 | 2020-07-07 | (주)스코넥엔터테인먼트 | 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법 |
JP6658799B2 (ja) * | 2018-06-08 | 2020-03-04 | 株式会社セガゲームス | 端末装置及びプログラム |
US10921878B2 (en) * | 2018-12-27 | 2021-02-16 | Facebook, Inc. | Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration |
KR102303401B1 (ko) * | 2019-02-08 | 2021-09-24 | 한양대학교 에리카산학협력단 | 하이브리드 홈 음성인식 시스템 및 그 제공 방법 |
WO2020202747A1 (ja) | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
US11470017B2 (en) * | 2019-07-30 | 2022-10-11 | At&T Intellectual Property I, L.P. | Immersive reality component management via a reduced competition core network component |
WO2021024479A1 (ja) * | 2019-08-08 | 2021-02-11 | Graffity株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11537351B2 (en) * | 2019-08-12 | 2022-12-27 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
KR20190104282A (ko) * | 2019-08-20 | 2019-09-09 | 엘지전자 주식회사 | 영상 기반으로 정보를 제공하는 방법 및 이를 위한 이동 단말 |
US11361473B1 (en) * | 2019-09-25 | 2022-06-14 | Apple Inc. | Including a physical object based on context |
US11151795B2 (en) * | 2019-12-10 | 2021-10-19 | Wormhole Labs, Inc. | Systems and methods of creating virtual pop-up spaces |
US11095855B2 (en) | 2020-01-16 | 2021-08-17 | Microsoft Technology Licensing, Llc | Remote collaborations with volumetric space indications |
US11206294B2 (en) * | 2020-03-31 | 2021-12-21 | Konica Minolta Business Solutions U.S.A., Inc. | Method for separating local and remote content in a camera-projector based collaborative system |
US20210350604A1 (en) * | 2020-05-06 | 2021-11-11 | Magic Leap, Inc. | Audiovisual presence transitions in a collaborative reality environment |
CN111651051B (zh) * | 2020-06-10 | 2023-08-22 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
JP2022003498A (ja) * | 2020-06-23 | 2022-01-11 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、方法、プログラム及び情報処理システム |
SE2030252A1 (en) * | 2020-08-13 | 2022-02-14 | Nagoon AB | Method performed by a computer system for creation of augmented reality experiences and connection of these to the real world |
US20220070239A1 (en) * | 2020-08-28 | 2022-03-03 | Tmrw Foundation Ip S. À R.L. | System and method to provision cloud computing-based virtual computing resources within a virtual environment |
CN112203142A (zh) * | 2020-12-03 | 2021-01-08 | 浙江岩华文化科技有限公司 | 视频的处理方法、装置、电子装置和存储介质 |
WO2022244157A1 (ja) * | 2021-05-19 | 2022-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理プログラム、及び情報処理システム |
US11733772B2 (en) * | 2021-10-14 | 2023-08-22 | Surefire, Llc | Viewing a virtual world through a virtual window |
JP7158781B1 (ja) | 2021-11-29 | 2022-10-24 | クラスター株式会社 | 端末装置、サーバ、仮想現実空間提供システム、プログラムおよび仮想現実空間提供方法 |
WO2023189580A1 (ja) * | 2022-03-31 | 2023-10-05 | ソニーグループ株式会社 | 画像処理装置及び画像処理システム |
JP7299371B1 (ja) | 2022-03-31 | 2023-06-27 | Kddi株式会社 | 情報処理装置及び情報処理方法 |
KR102608117B1 (ko) * | 2022-06-16 | 2023-11-30 | 주식회사 엘지유플러스 | 이미지 보정 방법 및 이미지 보정 시스템 |
EP4354262A1 (en) * | 2022-10-11 | 2024-04-17 | Meta Platforms Technologies, LLC | Pre-scanning and indexing nearby objects during load |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2180891C (en) * | 1995-07-12 | 2010-01-12 | Junichi Rekimoto | Notification of updates in a three-dimensional virtual reality space sharing system |
JP2002305758A (ja) * | 2001-04-04 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | 臨場感通信装置及び臨場感通信システム |
JP2003223653A (ja) * | 2002-01-29 | 2003-08-08 | Nippon Telegr & Teleph Corp <Ntt> | ユーザ位置情報伝達方法およびユーザ位置情報伝達装置 |
JP2005004487A (ja) | 2003-06-12 | 2005-01-06 | Sony Corp | 捕捉パス上で撮影されたサラウンド画像を処理する装置及び方法 |
JP2005182331A (ja) * | 2003-12-18 | 2005-07-07 | Sony Corp | 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体 |
EP1686554A3 (en) | 2005-01-31 | 2008-06-18 | Canon Kabushiki Kaisha | Virtual space generating system, image processing apparatus and information processing method |
JP4553362B2 (ja) | 2005-01-31 | 2010-09-29 | キヤノン株式会社 | システム、画像処理装置、情報処理方法 |
US20060224964A1 (en) * | 2005-03-30 | 2006-10-05 | Microsoft Corporation | Method, apparatus, and system of displaying personal digital media according to display characteristics |
JP4738870B2 (ja) | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
US7840568B2 (en) * | 2006-05-16 | 2010-11-23 | Sony Corporation | Sorting media objects by similarity |
US9329469B2 (en) * | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
JP6102215B2 (ja) * | 2011-12-21 | 2017-03-29 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
KR101953306B1 (ko) * | 2012-02-08 | 2019-03-04 | 삼성전자주식회사 | 사용자 인터랙션에 기초하여 3d 영상을 생성하기 위한 방법 및 장치 |
JP2014149712A (ja) * | 2013-02-01 | 2014-08-21 | Sony Corp | 情報処理装置、端末装置、情報処理方法及びプログラム |
US9325943B2 (en) * | 2013-02-20 | 2016-04-26 | Microsoft Technology Licensing, Llc | Providing a tele-immersive experience using a mirror metaphor |
JP2014203175A (ja) * | 2013-04-02 | 2014-10-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム。 |
US9529917B2 (en) * | 2013-05-21 | 2016-12-27 | Saleforce.com, inc. | System and method for generating information feed based on contextual data |
US10104415B2 (en) * | 2015-01-21 | 2018-10-16 | Microsoft Technology Licensing, Llc | Shared scene mesh data synchronisation |
-
2017
- 2017-08-30 WO PCT/JP2017/031043 patent/WO2018092384A1/ja active Application Filing
- 2017-08-30 US US16/340,768 patent/US11043033B2/en active Active
- 2017-08-30 CN CN201780070563.XA patent/CN109952599A/zh active Pending
- 2017-08-30 JP JP2018551042A patent/JP6773126B2/ja active Active
- 2017-08-30 EP EP17872464.7A patent/EP3543961A4/en not_active Withdrawn
- 2017-08-30 KR KR1020197013051A patent/KR102355175B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR102355175B1 (ko) | 2022-01-26 |
JPWO2018092384A1 (ja) | 2019-10-10 |
US20200051336A1 (en) | 2020-02-13 |
EP3543961A1 (en) | 2019-09-25 |
KR20190088466A (ko) | 2019-07-26 |
CN109952599A (zh) | 2019-06-28 |
WO2018092384A1 (ja) | 2018-05-24 |
US11043033B2 (en) | 2021-06-22 |
EP3543961A4 (en) | 2020-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6773126B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11915670B2 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
US11809213B2 (en) | Controlling duty cycle in wearable extended reality appliances | |
US20240061497A1 (en) | Method and Device for Surfacing Physical Environment Interactions During Simulated Reality Sessions | |
CN108293073B (zh) | 沉浸式临场感 | |
WO2018092535A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2020255767A1 (ja) | 情報処理システム、情報処理方法、及び記録媒体 | |
Rostami et al. | The Normal Natural Troubles of Virtual Reality in Mixed-Reality Performances | |
KR102659585B1 (ko) | 실내 공간 내 맞춤형 난간 벽 추천 방법 | |
WO2022209297A1 (ja) | 情報処理装置、情報処理方法および記録媒体 | |
KR102659579B1 (ko) | 진동 알림을 활용한 평면도 편집 서비스 제공 방법 | |
Hölling et al. | Audio-Visual Interactive Art: Investigating the effect of gaze-controlled audio on visual attention and short term memory | |
KR101802700B1 (ko) | 실감 미디어 저작 방법 및 장치 | |
KR101542402B1 (ko) | 사용자 성향별 실감영상 재생 시스템 | |
JP2023181567A (ja) | 情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200914 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6773126 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |