JP2021002402A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2021002402A
JP2021002402A JP2020169054A JP2020169054A JP2021002402A JP 2021002402 A JP2021002402 A JP 2021002402A JP 2020169054 A JP2020169054 A JP 2020169054A JP 2020169054 A JP2020169054 A JP 2020169054A JP 2021002402 A JP2021002402 A JP 2021002402A
Authority
JP
Japan
Prior art keywords
unit
volume element
virtual space
user
unit volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020169054A
Other languages
English (en)
Other versions
JP7044846B2 (ja
Inventor
順 広井
Jun Hiroi
順 広井
攻 太田
Osamu Ota
攻 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2020169054A priority Critical patent/JP7044846B2/ja
Publication of JP2021002402A publication Critical patent/JP2021002402A/ja
Application granted granted Critical
Publication of JP7044846B2 publication Critical patent/JP7044846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】単位体積要素の大きさを物体の見え方に応じて適した大きさにすることのできる情報処理装置を提供する。【解決手段】物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得し、当該体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置し、単位体積要素が配置された仮想空間の様子を示す空間画像を描画する情報処理装置であって、空間画像内において物体が占める占有領域を特定し、当該占有領域内に配置される単位体積要素の大きさを段階的に変化させる情報処理装置である。【選択図】図1

Description

本発明は、単位体積要素が配置された仮想空間の様子を描画する情報処理装置、情報処理方法、及びプログラムに関する。
近年、拡張現実や仮想現実といった技術が研究されている。このような技術の一例として、カメラで撮影した画像などの現実空間から得られる情報に基づいて仮想空間を構築して、ユーザーにその仮想空間内にいるかのような体験をさせるものがある。このような技術によれば、ユーザーは仮想空間内で現実世界では体験できないような体験をすることができる。
上記例などにおいては、ボクセルやポイントクラウドなどと呼ばれる単位体積要素を仮想空間に積み重ねることによって、各種の物体を表現することがある。単位体積要素を用いることで、物体の全体的な色や形状などの情報を準備せずとも、様々な物体を仮想空間内に再現することができる。
上述した技術では、単位体積要素の大きさを小さくすればするほど、目的の物体を細部まで正確に再現することができる。しかしながら、単位体積要素の大きさを小さくすると、同じ体積の物体を再現するために必要な単位体積要素の数が増えるので、処理対象となるデータ量や演算負荷の増大を招くことになる。また、最適な単位体積要素の大きさ、及び数は、再現対象となる物体の見え方などによって異なるため、単位体積要素の大きさによっては、再現対象の物体に隙間が生じてしまったり、輪郭がでこぼこして見えたりすることがある。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、単位体積要素の大きさを再現対象となる物体の見え方に応じて適した大きさにすることのできる情報処理装置、情報処理方法、及びプログラムを提供することにある。
本発明に係る情報処理装置は、物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得する体積要素データ取得部と、前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置する体積要素配置部と、前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画する空間画像描画部と、を含み、前記体積要素配置部は、前記空間画像内における前記単位体積要素の配置態様に基づいて、前記単位体積要素の大きさを変化させることを特徴とする。
本発明に係る情報処理方法は、物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得する体積要素データ取得ステップと、前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置する体積要素配置ステップと、前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画する空間画像描画ステップと、を含み、前記体積要素配置ステップでは、前記空間画像内における前記単位体積要素の配置態様に基づいて、前記単位体積要素の大きさを変化させることを特徴とする。
本発明に係るプログラムは、物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得する体積要素データ取得部、前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置する体積要素配置部、及び、前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画する空間画像描画部、としてコンピュータを機能させ、前記体積要素配置部は、前記空間画像内における前記単位体積要素の配置態様に基づいて、前記単位体積要素の大きさを変化させるプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施形態に係る情報処理装置を含む情報処理システムの全体概要図である。 情報処理システムを利用するユーザーの様子を示す図である。 仮想空間の様子の一例を示す図である。 本発明の実施の形態に係る情報処理装置の機能を示す機能ブロック図である。 本発明の実施の形態に係る情報処理装置が実行する処理の流れの一例を示すフロー図である。 占有領域の一例を示す図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置を含む情報処理システム1の全体概要図である。また、図2は、本情報処理システム1を利用するユーザーの様子の一例を示す図である。情報処理システム1は、複数のユーザーが参加する仮想空間を構築するために用いられる。この情報処理システム1によれば、複数のユーザーが、仮想空間内で一緒にゲームをプレイしたり相互にコミュニケーションを取ったりすることができる。
情報処理システム1は、図1に示すように、複数の情報取得装置10と、複数の画像出力装置20と、サーバ装置30と、を含んで構成されている。これらの装置のうち、画像出力装置20が、本発明の実施の形態に係る情報処理装置として機能する。以下では具体例として、情報処理システム1には、情報取得装置10、及び画像出力装置20がそれぞれ2台ずつ含まれるものとする。より具体的に、情報処理システム1は、第1ユーザーが使用する情報取得装置10a、及び画像出力装置20aを含む。また、第2ユーザーが使用する情報取得装置10b、及び画像出力装置20bを含む。
各情報取得装置10は、パーソナルコンピュータや家庭用ゲーム機などの情報処理装置であって、距離画像センサー11、及び部位認識センサー12と接続されている。
距離画像センサー11は、情報取得装置10のユーザーを含む現実空間の様子を観測して、距離画像(デプスマップ)の生成に必要な情報を取得する。例えば距離画像センサー11は、左右に並んだ複数のカメラによって構成されるステレオカメラであってよい。情報取得装置10は、これら複数のカメラによる撮影画像を取得して、その撮影画像に基づいて距離画像を生成する。具体的に情報取得装置10は、複数のカメラの視差を利用することで、距離画像センサー11の撮影位置(観測点)から撮影画像内に写っている被写体までの距離を算出することができる。なお、距離画像センサー11は、ステレオカメラに限らず、例えばTOF方式など、その他の方式で被写体までの距離を計測可能なセンサーであってもよい。
距離画像は、視野範囲内に含まれる単位領域のそれぞれについて、当該単位領域内に写っている被写体までの距離を示す情報を含んだ画像である。図2に示すように、本実施形態では、距離画像センサー11は人物(ユーザー)に向けて設置されている。そのため情報取得装置10は、距離画像センサー11の検出結果を用いて、ユーザーの身体のうち、距離画像に写っている複数の単位部分のそれぞれについて、その実空間内における位置座標を算出できる。
ここで単位部分とは、実空間を予め定められた大きさの格子状に区切って得られる個々の空間領域に含まれるユーザーの身体の一部分を指す。情報取得装置10は、距離画像に含まれる被写体までの距離の情報に基づいて、ユーザーの身体を構成する単位部分の実空間内における位置を特定する。また、その単位部分の色を、距離画像に対応する撮影画像の画素値から特定する。これにより情報取得装置10は、ユーザーの身体を構成する単位部分の位置、及び色を示すデータを得ることができる。以下、このユーザーの身体を構成する単位部分を特定するデータのことを、単位部分データという。後述するように、複数の単位部分のそれぞれに対応する単位体積要素を仮想空間内に配置することで、ユーザーを実空間と同じ姿勢や外観で仮想空間内に再現することができる。なお、単位部分の大きさを小さくすればするほど、ユーザーを仮想空間に再現する際の解像度を向上させ、より現実の人物に近づけることができる。
部位認識センサー12は、距離画像センサー11と同様にユーザーを観測して、そのユーザーの身体部位の位置を特定するために必要な情報を取得する。具体的に、部位認識センサー12は、公知のボーントラッキング技術に利用されるカメラなどであってよい。また、部位認識センサー12は、ユーザーが身体に装着している部材や、後述する表示装置24の位置をトラッキングするセンサーなどを含んでもよい。
部位認識センサー12の検出結果を解析することによって、情報取得装置10は、ユーザーの身体を構成する各部位の位置に関するデータを取得する。以下、このユーザーの身体を構成する部位の位置に関するデータのことを、身体部位データという。例えば身体部位データは、ユーザーの姿勢を骨格モデル(ボーンモデル)によって表現する際の、各ボーンの位置、及び向きを特定するデータであってよい。また、身体部位データは、ユーザーの頭部、手など、ユーザーの身体の一部分のみの位置や向きを特定するデータであってもよい。
情報取得装置10は、所定時間おきに、距離画像センサー11、及び部位認識センサー12の検出結果に基づいて単位部分データ、及び身体部位データを算出し、これらのデータをサーバ装置30に送信する。なお、これらのデータ内で単位部分や身体部位の位置を特定するために用いられる座標系は、互いに一致している必要がある。そのため、情報取得装置10は、距離画像センサー11、及び部位認識センサー12それぞれの観測点の実空間内における位置を示す情報を、予め取得しているものとする。このような観測点の位置情報を用いて座標変換を行うことにより、情報取得装置10は、ユーザーの単位部分及び身体部位それぞれの位置を、互いに一致する座標系を用いて表現する単位部分データ、及び身体部位データを算出できる。
なお、以上の説明では、一つの情報取得装置10に対して、一つの距離画像センサー11と一つの部位認識センサー12が接続されているものとしている。しかしながらこれに限らず、情報取得装置10には、それぞれのセンサーが複数個接続されることとしてもよい。例えば2個以上の距離画像センサー11がユーザーを囲むように配置されていれば、それらのセンサーから得られる情報を統合することで、情報取得装置10は、ユーザーの身体表面のより広い範囲について、単位部分データを取得することができる。また、複数の部位認識センサー12の検出結果を組み合わせることで、より精度のよい身体部位データを取得することができる。また、距離画像センサー11と部位認識センサー12とは、一つのデバイスによって実現されてもよい。この場合情報取得装置10は、この一つのデバイスによる検出結果を解析することによって、単位部分データ、及び身体部位データのそれぞれを生成する。
各画像出力装置20は、パーソナルコンピュータや家庭用ゲーム機などの情報処理装置であって、図1に示されるように、制御部21と、記憶部22と、インタフェース部23と、を含んで構成されている。また、画像出力装置20は、表示装置24と接続されている。
制御部21は少なくとも一つのプロセッサーを含んで構成され、記憶部22に記憶されているプログラムを実行して各種の情報処理を実行する。本実施形態において制御部21が実行する処理の具体例については、後述する。記憶部22は、RAM等のメモリデバイスを少なくとも一つ含み、制御部21が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。インタフェース部23は、画像出力装置20が表示装置24に対して映像信号を供給するためのインタフェースである。
表示装置24は、画像出力装置20から供給される映像信号に応じて映像を表示する。本実施形態において表示装置24は、ヘッドマウントディスプレイ等、ユーザーが頭部に装着して使用する頭部装着型の表示装置であるものとする。表示装置24はユーザーの左右それぞれの目の前に、互いに異なる左目用画像、右目用画像を閲覧させるものとする。これにより表示装置24は、視差を利用した立体映像を表示することができる。
サーバ装置30は、複数の情報取得装置10のそれぞれから受信したデータに基づいて、仮想空間内にユーザーを表す単位体積要素や、その他のオブジェクト等を配置する。また、物理演算等の演算処理により、仮想空間内に配置されたオブジェクトの挙動を計算する。そして、その結果として得られる仮想空間内に配置されるオブジェクトの位置や形状などの情報を、複数の画像出力装置20のそれぞれに対して送信する。
より具体的に、サーバ装置30は、情報取得装置10aから受信した単位部分データに基づいて、当該単位部分データに含まれる複数の単位部分のそれぞれに対応する単位体積要素の、仮想空間における配置位置を決定する。ここで単位体積要素は、仮想空間内に配置されるオブジェクトの一種であって、互いに同じ大きさを有している。単位体積要素の形状は、立方体など、予め定められた形状であってよい。また、各単位体積要素の色は、単位部分の色に応じて決定される。以下では、この単位体積要素をボクセルと表記する。
各ボクセルの配置位置は、対応する単位部分の実空間内における位置と、ユーザーの基準位置と、に応じて決定される。ここでユーザーの基準位置は、ユーザーを配置する基準となる位置であって、予め定められた仮想空間内の位置であってよい。このようにして配置されたボクセルによって、実空間に存在する第1ユーザーの姿勢や外観が、そのまま仮想空間内に再現される。以下では、仮想空間内において第1ユーザーを再現するボクセル群を特定するデータを、第1ボクセルデータという。この第1ボクセルデータは、ボクセルのそれぞれについて、その仮想空間内における位置、及び色を示すデータである。また、以下では、第1ボクセルデータに含まれるボクセルの集合によって構成される第1ユーザーを表すオブジェクトを、第1ユーザーオブジェクトU1と表記する。
なお、サーバ装置30は、各ボクセルの仮想空間内における配置位置を決定する際に、身体部位データを参照してもよい。身体部位データに含まれるボーンモデルのデータを参照することで、床に接していると想定されるユーザーの足先の位置が特定できる。この位置を前述したユーザーの基準位置に合わせることで、仮想空間におけるボクセルの配置位置の地面からの高さを、実空間における対応する単位部分の床からの高さと一致させることができる。なお、ここではユーザーの基準位置は仮想空間内の地面上に設定されているものとしている。
第1ユーザーについての処理と同様にして、サーバ装置30は、情報取得装置10bから受信した単位部分データに基づいて、当該単位部分データに含まれる複数の単位部分のそれぞれに対応するボクセルの、仮想空間における配置位置を決定する。これらのボクセルによって、第2ユーザーの姿勢や外観が仮想空間内に再現される。以下では、仮想空間内において第2ユーザーを再現するボクセル群を特定するデータを、第2ボクセルデータという。また、以下では、第2ボクセルデータに含まれるボクセルの集合によって構成される第2ユーザーを表すオブジェクトを、第2ユーザーオブジェクトU2と表記する。
また、サーバ装置30は、ユーザーによる操作の対象となるオブジェクトを仮想空間内に配置し、その挙動を演算する。具体例として、ここでは2人のユーザーがボールを打ち合うゲームを行うこととする。サーバ装置30は、2人のユーザーが対面するように各ユーザーの仮想空間内における基準位置を決定し、この基準位置に基づいて前述したように各ユーザーの身体を構成するボクセル群の配置位置を決定する。また、サーバ装置30は、2人のユーザーによる操作の対象となるボールオブジェクトBを仮想空間内に配置する。
さらにサーバ装置30は、物理演算によって、仮想空間内におけるボールの挙動を演算する。また、各情報取得装置10から受信した身体部位データを用いて、各ユーザーの身体とボールとの間の当たり判定を行う。具体的に、サーバ装置30は、ユーザーの身体が存在する仮想空間内の位置と、ボールオブジェクトBの位置が重なる場合に、ボールがユーザーに当たったと判定し、ボールがユーザーによって反射した際の挙動を演算する。このようにして算出された仮想空間内におけるボールの動きは、後述するように各画像出力装置20によって表示装置24に表示される。各ユーザーは、この表示内容を閲覧しながら自分の身体を動かすことによって、飛んできたボールを手で打ち返したりすることができる。図3は、この例における仮想空間内に配置されたボールオブジェクトBや各ユーザーを表すユーザーオブジェクトの様子を示している。なお、この図の例では、各ユーザーの前面だけでなく背面側についても距離画像が撮影され、これに応じて各ユーザーの背面を表すボクセルが配置されていることとしている。
サーバ装置30は、以上説明した処理によって決定された各ユーザーのボクセルデータやその他のオブジェクトの位置や形状を示すオブジェクトデータを、所定時間おきに各画像出力装置20に対して送信する。なお、サーバ装置30は、画像出力装置20との間の通信量を抑えるために、各ユーザーのボクセルデータに含まれるボクセルの数を減らしたり、ボクセルデータの送信頻度を減らしたりしてもよい。具体的に、例えばサーバ装置30は、重要度の低い身体部位を構成するボクセルについて、単位体積あたりの数が少なくなるように一部のボクセルを間引くこととする。あるいは、サーバ装置30は、重要度の低い身体部位を構成するボクセルについて、送信間隔をその他の部位を構成するボクセルよりも下げることとする。ここで、重要度の低い身体部位は、処理内容に応じて決定されてよい。例えば各ユーザーが身体を動かして仮想空間内でスポーツなどを行う場合、手や足など動きの大きな部位が重要となり、顔や胴体は相対的に重要度が低くなる。一方、ユーザー同士がコミュニケーションを行うアプリケーションなどでは、頭部を重要度の高い部位とし、それ以外の部位を重要度の低い部位としてもよい。
以下、本実施形態において各画像出力装置20が実現する機能について、図4に基づいて説明する。図4に示されるように、画像出力装置20は、機能的に、オブジェクトデータ取得部41と、身体部位データ取得部42と、仮想空間構築部43と、空間画像描画部44と、を含んで構成されている。これらの機能は、制御部21が記憶部22に格納されているプログラムを実行することにより、実現される。このプログラムは、インターネット等の通信ネットワークを介して画像出力装置20に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。なお、以下では具体例として、第1ユーザーが使用する画像出力装置20aが実現する機能について説明するが、画像出力装置20bについても、対象とするユーザーが相違するものの、同様の機能を実現することとする。
オブジェクトデータ取得部41は、仮想空間内に配置されるべき各オブジェクトの位置や形状を示すデータを、サーバ装置30から受信することによって取得する。オブジェクトデータ取得部41が取得するデータには、各ユーザーのボクセルデータ、及びボールオブジェクトBのオブジェクトデータが含まれる。これらのオブジェクトデータは、各オブジェクトの形状、仮想空間内における位置、表面の色などの情報を含んでいる。なお、ボクセルデータに関しては、それぞれのボクセルがどのユーザーを表現するものかを示す情報を含んでおらずともよい。つまり、第1ボクセルデータと第2ボクセルデータは、互いに区別できない態様で、まとめて仮想空間内に配置されるボクセルの内容を示すボクセルデータとしてサーバ装置30から各画像出力装置20に送信されてよい。
また、オブジェクトデータ取得部41は、仮想空間の背景を表す背景画像をサーバ装置30から取得してもよい。この場合の背景画像は、例えば正距円筒図法などのフォーマットによって広範囲の景色を表すパノラマ画像であってよい。
身体部位データ取得部42は、サーバ装置30から送信される各ユーザーの身体部位データを取得する。具体的に、身体部位データ取得部42は、第1ユーザーの身体部位データ、及び第2ユーザーの身体部位データのそれぞれをサーバ装置30から受信する。
仮想空間構築部43は、ユーザーに提示する仮想空間の内容を構築する。具体的に仮想空間構築部43は、オブジェクトデータ取得部41が取得したオブジェクトデータに含まれる各オブジェクトを仮想空間内の指定された位置に配置することによって、仮想空間を構築する。
ここで、仮想空間構築部43が配置するオブジェクトの中には、第1ボクセルデータ、及び第2ボクセルデータのそれぞれに含まれるボクセルが含まれる。前述の通り、これらのボクセルの仮想空間内における位置は、対応するユーザーの身体の単位部分の実空間内における位置に基づいて、サーバ装置30によって決定されている。そのため、仮想空間内に配置されたボクセルの集合によって、各ユーザーの現実の姿勢や外観が再現される。また、仮想空間構築部43は、仮想空間におけるユーザーオブジェクトの周囲に背景画像をテクスチャーとして貼り付けたオブジェクトを配置してもよい。これにより、背景画像に含まれる景色が後述の空間画像内に含まれるようになる。
さらに仮想空間構築部43は、配置するボクセルの大きさを、所与の条件に応じて変化させることとする。これは、後述する空間画像描画部44が空間画像を描画する際に、ボクセルによって再現されるユーザーオブジェクトの見え方によって、最適なボクセルの大きさが変わるためである。具体的に、相手ユーザーが仮想空間内において近くにいるときと遠くにいるときでは、その見かけの大きさが変化する。そのため、ボクセルの大きさが一定だと、ボクセルが大きすぎて相手ユーザーの身体の輪郭がでこぼこして見えたり、逆に小さすぎて隙間があるように見えたりすることがあり得る。また、前述したように相手ユーザーの身体の特定の部位を構成するボクセルの数が間引かれている場合にも、そのままでは、ボクセルの密度が低くなり、ユーザーの身体に隙間があるように見えてしまうことがある。ボクセルの大きさを適切に調整することで、このような不自然な見え方を避けることができる。ボクセルの大きさを変化させる処理の具体例については、後述する。
空間画像描画部44は、仮想空間構築部43によって構築された仮想空間の様子を表す空間画像を描画する。具体的に、空間画像描画部44は、画像提示の対象となるユーザー(ここでは第1ユーザー)の目の位置に対応する仮想空間内の位置に視点を設定し、その視点から仮想空間内を見た様子を描画する。空間画像描画部44によって描画された空間画像は、第1ユーザーが装着する表示装置24に表示される。これにより第1ユーザーは、自分自身の身体を表す第1ユーザーオブジェクトU1、第2ユーザーの身体を表す第2ユーザーオブジェクトU2、及びボールオブジェクトBが配置された仮想空間内の様子を閲覧できる。
以上説明した情報取得装置10、サーバ装置30、及び画像出力装置20それぞれの処理は、所定時間おきに繰り返し実行される。この場合の所定時間は、例えば表示装置24が表示する映像のフレームレートに対応する時間であってよい。これにより、各ユーザーは、仮想空間内において自分や相手ユーザーの動きをリアルタイムで反映して更新されるユーザーオブジェクトの様子を閲覧することができる。
以下、仮想空間構築部43が配置するボクセルの大きさを変化させる処理の具体例について、説明する。仮想空間構築部43は、最初にボクセルを配置する際には、予め定められた標準の大きさで各ボクセルを配置する。そして、空間画像描画部44が、ボクセルが配置された仮想空間の様子を描画する。このとき仮想空間構築部43は、描画される空間画像内におけるボクセルの配置態様に関する情報を取得する。そして、次にボクセルを配置する際には、取得した情報に基づいてボクセルの大きさを変化させる。
この処理の流れについて、図5のフロー図を用いて説明する。まずオブジェクトデータ取得部41が、サーバ装置30からオブジェクトデータを取得する(ステップS1)。さらに、身体部位データ取得部42が、サーバ装置30から身体部位データを取得する(ステップS2)。
その後、仮想空間構築部43は、ステップS1で受信したオブジェクトデータに基づいて、仮想空間内に各種のオブジェクトを配置する(ステップS3)。このとき配置されるオブジェクトには、第1ユーザー及び第2ユーザーのそれぞれを表すボクセルが含まれる。ここでは、各ボクセルは予め定められた標準の大きさとする。なお、前述したように一部のボクセルの送信頻度が下げられている場合、仮想空間構築部43は、以前に受信されたボクセルの情報を用いてボクセルを配置してもよい。また、サーバ装置30から全てのボクセルのデータを受信している場合であっても、仮想空間構築部43は、重要度の低い身体部位については、ボクセルを間引くこととし、一部のボクセルのみを仮想空間への配置対象としてもよい。
その後、空間画像描画部44は、ステップS3で各種のオブジェクトが配置された仮想空間内の様子を表す空間画像を描画し、表示装置24に表示させる(ステップS4)。
そして、仮想空間構築部43が、空間画像内においてユーザーオブジェクトが占める領域(以下、占有領域Aという)を画定する(ステップS5)。具体的に、仮想空間構築部43は、ステップS2で取得した身体部位データによって定められるユーザーの位置、及び大きさに基づいて、空間画像内でユーザーオブジェクトが占める領域を画定してもよい。あるいは、実際に配置されている各ボクセルの空間画像内における位置に基づいて、それらのボクセルを包含する領域を占有領域Aとして画定してもよい。図6は、空間画像内における占有領域Aの具体例を示している。
さらに仮想空間構築部43は、ステップS5で画定された占有領域A内に含まれるボクセルの配置態様に関する情報を取得する(ステップS6)。具体的に、例えば仮想空間構築部43は、占有領域A内におけるボクセルの密度(すなわち、単位面積あたりのボクセルの数)を算出する。そして、仮想空間構築部43は、取得した情報に基づいて、ボクセルの大きさを変更する(ステップS7)。具体的に、占有領域A内のボクセルの密度が大きい場合には、ボクセルの大きさを小さくする。逆に密度が小さい場合には、ボクセルの大きさを大きくする。これにより、空間画像内におけるユーザーオブジェクトの大きさに合わせて、ボクセルの大きさを適切に調整することができる。
その後、ステップS1に戻って、次の空間画像の描画が行われる。次にステップS3が実行される際には、前回のステップS7で変更された大きさでボクセルが配置される。
なお、仮想空間構築部43は、ステップS7でボクセルの大きさを変更する際には、現在のボクセル密度に合わせてボクセルの大きさを大きな変化量で一度に変更するのではなく、段階的に少しずつ変更することとしてもよい。これにより、ユーザーオブジェクトの見た目が急激に変化しないようにすることができる。
また、仮想空間構築部43は、ステップS6においてボクセル密度ではなく、占有領域A内においてボクセルが配置されていない隙間領域の有無、及び/又はその大きさを特定してもよい。占有領域Aの大きさに対してボクセルが小さすぎる場合、占有領域A内に隙間が生じて、本来見えないはずのユーザーオブジェクトの向こう側が見えてしまう可能性がある。このような隙間が生じないように、仮想空間構築部43は、ステップS6で隙間領域が存在すると判定された場合には、ステップS7でボクセルの大きさを大きくする。また、存在する隙間領域の大きさに応じて、ボクセルの大きさを大きくしてもよい。これにより、次に空間画像が描画される際には、占有領域A内にボクセルの隙間が生じにくくなる。
仮想空間構築部43は、占有領域A内のボクセルの配置態様を特定するために、空間画像の描画時に深度情報を格納するZバッファを利用してもよい。Zバッファへの深度情報格納時にボクセルの描画箇所を特定することで、占有領域A内でボクセルが描画されない隙間領域を容易に特定することができる。
なお、仮想空間構築部43は、ステップS5において、仮想空間内にボクセルが配置されるユーザー毎に、空間画像内でそのユーザーオブジェクトが占める占有領域Aを画定してもよい。例えば画像出力装置20aの仮想空間構築部43においては、空間画像を閲覧する第1ユーザー本人を表すユーザーオブジェクトU1と、第2ユーザーを表すユーザーオブジェクトU2とでは、視点位置からの距離が大きく異なり、そのため見え方も異なっている。そこで仮想空間構築部43は、それぞれのユーザー毎に占有領域Aを画定し、画定された占有領域Aごとに、その内部に含まれるボクセルの配置態様に関する情報を取得する。そして、ユーザー毎に、次に配置する際のボクセルの大きさを変更する。こうすれば、近くに見える自分自身の身体を表すボクセルと、相対的に離れた位置に見える相手ユーザーの身体を表すボクセルを、それぞれ適した大きさに調整することができる。
さらに仮想空間構築部43は、各ユーザーの身体を構成する部位毎に、その部位を表すボクセルの大きさを変化させてもよい。この場合、仮想空間構築部43は、身体部位データを参照して、頭部、胴体、手足などの身体部位ごとにその部位が空間画像内で占める占有領域Aを画定する。そして、各部位の占有領域Aごとに、その内部に含まれるボクセルの配置態様に応じて、ボクセルの大きさを変化させる。これにより、頭部や胴体などの部位毎にボクセルを適した大きさにすることができる。
以上説明したように、本実施形態に係る画像出力装置20によれば、空間画像内におけるボクセルの配置態様に応じてボクセルの大きさを変更することで、ボクセルの大きさを適切に調整することができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば以上の説明では具体例として2人のユーザーをボクセルで仮想空間内に再現することとしたが、1人、又は3人以上のユーザーを対象としてもよい。また、複数のユーザーを表すボクセルを同時期に仮想空間内に配置する場合、それぞれのユーザーが使用する情報取得装置10、及び画像出力装置20がネットワークを介してサーバ装置30と接続されていれば、各ユーザーは互いに物理的に離れた位置に存在してもよい。また、人物に限らず、実空間内に存在する各種の物体を、ボクセルによる再現対象としてもよい。さらに、以上の説明では実空間を距離画像センサー11で観測して得られる情報に基づいて、リアルタイムにボクセルデータを生成することとした。しかしながらこれに限らず、ボクセルデータは再現対象となる物体の形状や色に基づいて予め用意されてもよい。
また、仮想空間内に再現する対象となるユーザー以外のユーザーが、仮想空間の様子を視聴できるようにしてもよい。この場合、サーバ装置30は、各画像出力装置20に送信するデータとは別に、仮想空間内を所定の視点から見た様子を示す空間画像を描画し、ストリーミング映像として配信する。この映像を閲覧することで、仮想空間内に再現されない他のユーザーも、仮想空間内の様子を閲覧できる。
また、仮想空間内には、ユーザーを再現するユーザーオブジェクトや、ユーザーオブジェクトによる操作の対象となるオブジェクト以外にも、背景を構成するオブジェクトなど、各種のオブジェクトが配置されてよい。また、実空間の様子を撮影して得られる撮影画像を、仮想空間内のオブジェクト(スクリーン等)に貼り付けてもよい。こうすれば、表示装置24を用いて仮想空間内の様子を閲覧中の各ユーザーは、同時に現実世界の様子を閲覧することができる。
また、以上の説明において画像出力装置20が実行することとした処理の少なくとも一部は、サーバ装置30など他の装置によって実現されてもよい。具体例として、サーバ装置30が各ユーザーの身体部位データ、及び単位部分データに基づいて仮想空間を構築し、その内部の様子を描画する空間画像を生成してもよい。この場合サーバ装置30は、空間画像を配信する対象となるユーザー毎に、個別にボクセルの配置を制御し、個別に空間画像を描画することとする。すなわち、第1ユーザー向けには、第1ユーザーの頭部領域にボクセルを配置しない仮想空間を構築し、その内部の様子を表す空間画像を描画する。また、第2ユーザー向けの空間画像を生成する際には、第2ユーザーの頭部領域にボクセルを配置しない仮想空間を構築する。そして、それぞれの空間画像を、対応する画像出力装置20に対して配信する。
また、以上の説明では情報取得装置10と画像出力装置20とは互いに独立した装置であることとしたが、一つの情報処理装置が情報取得装置10と画像出力装置20双方の機能を実現することとしてもよい。
1 情報処理システム、10 情報取得装置、11 距離画像センサー、12 部位認識センサー、20 画像出力装置、21 表示装置、22 制御部、22 記憶部、23 インタフェース部、30 サーバ装置、41 オブジェクトデータ取得部、42 身体部位データ取得部、43 仮想空間構築部、44 空間画像描画部。

Claims (6)

  1. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得する体積要素データ取得部と、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置する体積要素配置部と、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画する空間画像描画部と、
    を含み、
    前記体積要素配置部は、前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素の大きさを段階的に変化させる
    ことを特徴とする情報処理装置。
  2. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得する体積要素データ取得部と、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置する体積要素配置部と、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画する空間画像描画部と、
    を含み、
    前記体積要素配置部は、前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素のうち、Zバッファを用いて特定される単位体積要素の大きさを変化させる
    ことを特徴とする情報処理装置。
  3. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得するステップと、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置するステップと、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画するステップと、
    前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素の大きさを段階的に変化させるステップと、
    を含むことを特徴とする情報処理方法。
  4. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得するステップと、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置するステップと、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画するステップと、
    前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素のうち、Zバッファを用いて特定される単位体積要素の大きさを変化させるステップと、
    を含むことを特徴とする情報処理方法。
  5. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得するステップと、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置するステップと、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画するステップと、
    前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素の大きさを段階的に変化させるステップと、
    をコンピュータに実行させるためのプログラム。
  6. 物体を構成する複数の単位部分のそれぞれについて、当該単位部分に対応する単位体積要素を配置すべき仮想空間内の位置を示す体積要素データを取得するステップと、
    前記体積要素データに基づいて、仮想空間に複数の前記単位体積要素を配置するステップと、
    前記単位体積要素が配置された仮想空間の様子を示す空間画像を描画するステップと、
    前記空間画像内において前記物体が占める占有領域を特定し、当該占有領域内に配置される前記単位体積要素のうち、Zバッファを用いて特定される単位体積要素の大きさを変化させるステップと、
    をコンピュータに実行させるためのプログラム。
JP2020169054A 2020-10-06 2020-10-06 情報処理装置 Active JP7044846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020169054A JP7044846B2 (ja) 2020-10-06 2020-10-06 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020169054A JP7044846B2 (ja) 2020-10-06 2020-10-06 情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019506843A Division JP6775669B2 (ja) 2017-03-23 2017-03-23 情報処理装置

Publications (2)

Publication Number Publication Date
JP2021002402A true JP2021002402A (ja) 2021-01-07
JP7044846B2 JP7044846B2 (ja) 2022-03-30

Family

ID=73994091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020169054A Active JP7044846B2 (ja) 2020-10-06 2020-10-06 情報処理装置

Country Status (1)

Country Link
JP (1) JP7044846B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004510515A (ja) * 2000-10-03 2004-04-08 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 器官のような物体の3次元仮想検査を行うシステムおよび方法
JP2010165344A (ja) * 2008-12-20 2010-07-29 Univ Of Tokyo ボリュームデータの実時間レンダリング方法及び装置
JP2011070387A (ja) * 2009-09-25 2011-04-07 Mitsubishi Electric Corp 3次元形状表示装置およびプログラム
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004510515A (ja) * 2000-10-03 2004-04-08 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 器官のような物体の3次元仮想検査を行うシステムおよび方法
JP2010165344A (ja) * 2008-12-20 2010-07-29 Univ Of Tokyo ボリュームデータの実時間レンダリング方法及び装置
JP2011070387A (ja) * 2009-09-25 2011-04-07 Mitsubishi Electric Corp 3次元形状表示装置およびプログラム
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7044846B2 (ja) 2022-03-30

Similar Documents

Publication Publication Date Title
JP6632443B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
CN106170083B (zh) 用于头戴式显示器设备的图像处理
CN107315470B (zh) 图形处理方法、处理器和虚拟现实系统
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
CN109840947A (zh) 增强现实场景的实现方法、装置、设备及存储介质
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
JP7119425B2 (ja) 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
CN111862348B (zh) 视频显示方法、视频生成方法、装置、设备及存储介质
JP6775669B2 (ja) 情報処理装置
US9773350B1 (en) Systems and methods for greater than 360 degree capture for virtual reality
KR102148103B1 (ko) 스테레오 카메라를 장착한 드론을 이용한 혼합현실 환경 생성 방법 및 장치
WO2017062730A1 (en) Presentation of a virtual reality scene from a series of images
JP6695997B2 (ja) 情報処理装置
JP7044846B2 (ja) 情報処理装置
JP2017151917A (ja) プログラム及びアイウエア
WO2018173206A1 (ja) 情報処理装置
JP2020071718A (ja) 情報処理装置、情報処理方法及びプログラム
KR20210090180A (ko) 화상 처리 디바이스, 화상 처리 방법, 프로그램, 및 표시 디바이스
US20240078767A1 (en) Information processing apparatus and information processing method
JP6739539B2 (ja) 情報処理装置
US20200336717A1 (en) Information processing device and image generation method
CN116612234A (zh) 基于增强或虚拟现实应用程序内立体视觉的高效动态遮挡
WO2012169220A1 (ja) 立体画像表示装置および立体画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220317

R150 Certificate of patent or registration of utility model

Ref document number: 7044846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150