JP7006056B2 - 仮想空間提示装置、仮想空間提示方法、及びプログラム - Google Patents
仮想空間提示装置、仮想空間提示方法、及びプログラム Download PDFInfo
- Publication number
- JP7006056B2 JP7006056B2 JP2017174286A JP2017174286A JP7006056B2 JP 7006056 B2 JP7006056 B2 JP 7006056B2 JP 2017174286 A JP2017174286 A JP 2017174286A JP 2017174286 A JP2017174286 A JP 2017174286A JP 7006056 B2 JP7006056 B2 JP 7006056B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- image
- virtual
- space image
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
Description
さらに、このような完成イメージを確認するウォークスルーにおいては、住宅の購入を検討している顧客などの観察者が、住宅の周囲に植える樹木の数や、住宅の内装として配置する家具のデザインを変更して、完成イメージを確認したいという要望がある。
このような場合、仮想空間を自由に歩き回る観察者の視点位置における視線の方向に追従してその位置および方向からみた仮想物体の画像を表示するとともに、観察者の希望に応じて仮想空間に配置する仮想物体をリアルタイムに変更させる必要がある。このような処理では、事前に予測して画像を生成しても、その後に仮想空間に配置する仮想物体が変更されてしまった場合には、事前に生成した画像を用いることができない。また、観察者が仮想空間に立ち止まって周囲を見渡そうとする場合には、視線方向が何処に向くかを予想することができず、事前に画像を生成しておくことが困難となってしまう。予め次に表示させる画像を生成することができない場合、コンピュータの処理負荷やネットワークにおけるデータ伝送負荷を増大させてしてしまう。
(2)上述した課題を解決するために、本発明の仮想空間提示装置は、ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体を示す仮想空間画像を生成する生成部と、停止時仮想空間画像に描画される仮想空間の領域を、少なくとも移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する描画領域分割部とを備え、前記生成部は、前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である前記移動時仮想空間画像を生成し、前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である前記停止時仮想空間画像を生成し、前記描画領域分割部により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する。
(12)本発明の一態様としては、ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成部と、描画領域分割部とにおいて、前記生成部が、前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、前記生成部が、前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である前記停止時仮想空間画像を生成する工程と、前記描画領域分割部が、停止時仮想空間画像に描画される仮想空間の領域を、少なくとも前記移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する工程と、前記生成部が、前記描画領域分割部により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する工程と、を有することを特徴とする仮想空間提示方法である。
(14)本発明の一態様としては、コンピュータに、ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成工程において、前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成する工程と、描画領域分割工程により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する工程と、前記描画領域分割工程において、前記停止時仮想空間画像に描画される仮想空間の領域を、少なくとも前記移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する工程とを実行させるためのプログラムである。
まず、第1の実施形態について説明する。
図1は、第1の実施形態の仮想空間提示装置1の構成を示す構成図である。図1において、仮想空間提示装置1は、操作部10、描画部20、および表示部30の各々を備えている。
操作部10は、ユーザにより入力された仮想空間VSを指定するための命令等を示す情報(以下、操作情報)を描画部20に出力する。操作情報には、ユーザが鑑賞することを所望する仮想空間VSにおける視点位置、視線方向、および視野角を示す情報が含まれる。
ここで、仮想空間VSには、複数の仮想物体VO(図2参照)、および仮想物体VOを照射する複数の光源L(図2参照)が配置され、仮想空間情報には仮想空間VSに配置されうる、仮想物体VOの形状や素材(色、テクスチャ画像)等の情報、仮想空間VSに配置された仮想物体VOの位置や向き、および、光源Lの位置、方向、色、強度に関する情報が含まれる。ユーザが操作部10を操作した情報に基づいて、仮想空間VSの中における視点位置、視線方向、視野角の情報が描画部20により取得される。描画部20は、取得した観察者の視点位置、視線方向、視野角に対応させて、仮想空間VSを2次元の仮想空間画像DSとして生成する。
描画部20は、生成した仮想空間画像を表示部30に出力する。描画部20が、仮想空間情報から生成する仮想空間画像の種類、および仮想空間画像を生成する処理については後述する。
図2は第1の実施形態の仮想空間提示装置1が生成する画像の一例を示す第1図である。
図3は、第1の実施形態の仮想空間提示装置1が生成する画像と視点との関係を説明する図である。すなわち、図3は、図2に示す画像が表示される場合の、視点位置、視線方向、視野角、および仮想空間VSにおける仮想物体VOの位置関係を示す。
図2の例では、仮想空間画像DS-1の左側に仮想物体VO‐1の画像があり、仮想空間画像DS-1の右側に仮想物体VO‐2の画像が配置されている。これは、仮想空間VSの中において仮想物体VO‐1が右側に見え、かつ仮想物体VO‐2が左側に見える位置に鑑賞者の視点位置があることを示す。
すでに説明した通り、描画部20は、視点位置Pが移動している状態においては、視点位置Pの位置に応じた移動時仮想空間画像を生成する。
一方、描画部20は、視点位置Pが変更されない場合、仮想空間VSが変更されないかぎり、新たに仮想空間画像を生成しない。ここで、視点位置Pが変更されない場合とは、ユーザが仮想空間VSにおいて停止した状態であることを意味する。
視野角より広い範囲で示す停止時仮想空間画像とは、例えば、視点位置Pを中心とした複数の視線の方向それぞれにみえる仮想空間VSをそれぞれ示す仮想空間画像である。描画部20は、停止時仮想空間画像として、例えば、視点位置Pを中心とした視点位置Pの周囲の上下左右前後を囲む全天球画像を生成する。
図4(A)に示すように、描画部20は、視点位置Pを囲む正六面体各面に対応する仮想空間画像として、画面奥のZX平面には、視点位置PからY軸の負の方向に見える光景を示す仮想空間画像DS-1を生成する。また、描画部20は、画面右のYZ平面には、視点位置PからX軸の正の方向に見える光景を示す仮想空間画像DS-2を生成する。また、描画部20は、画面手前のZX平面には、視点位置PからY軸の正の方向に見える光景を示す仮想空間画像DS-3を生成する。また、描画部20は、画面左のYZ平面には、視点位置PからX軸の負の方向に見える光景を示す仮想空間画像DS-4を生成する。また、描画部20は、画面上のXY平面には、視点位置PからZ軸の正の方向に見える光景を示す仮想空間画像DS-5を生成する。また、描画部20は、画面下のXY平面には、視点位置PからZ軸の負の方向に見える光景を示す仮想空間画像DS-6を生成する。
このようにして、描画部20は、視点位置Pが移動している状態から停止した状態に変化した場合、視点位置Pを中心とした仮想空間VSにおける仮想物体VOを視野角より広い範囲で示す停止時仮想空間画像を生成する。
図5に示すように、描画部20は、操作情報受信部21と、画像生成部22と、描画情報記憶部23と、描画結果送信部24と、を備える。
操作情報受信部21は、操作部10から描画部20に入力された、視点位置P、視線の方向、視野角、および仮想空間VSにおける仮想物体VOや光源Lの位置、色等に関する情報を取得する。操作情報受信部21は、操作部10から取得した情報を画像生成部22に出力する。
画像生成部22は、生成した仮想空間画像を描画結果送信部24に出力する。画像生成部22は、例えば、CPU(Central Processing Unit)、またはGPU(Graphics Processing Unit)のうちいずれか一方、またはその両方である。
図6に示すように、表示部30は、描画結果受信部31と、表示制御部32と、表示画像情報記憶部33と、ディスプレイ34と、を備える。
描画結果受信部31は、描画部20から表示部30に入力された、描画部20が生成した仮想空間画像、視線の方向、および視野角に関する情報を取得する。描画結果受信部31は、描画部20から取得した情報を表示制御部32に出力する。
表示制御部32は、描画結果受信部31から受信した仮想空間画像が移動時仮想空間画像である場合、描画結果受信部31から受信した仮想空間画像をそのまま、ディスプレイ34に出力する。
表示制御部32は、描画結果受信部31から受信した仮想空間画像が停止時仮想空間画像である場合、まず、描画結果受信部31から受信した仮想空間画像を、表示画像情報記憶部33に記憶させる。そして表示制御部32は、表示画像情報記憶部33に記憶させた停止時仮想空間画像の一部を、視線の方向、および視野角に基づいて抽出する。具体的には、表示制御部32は、表示画像情報記憶部33に記憶させた停止時仮想空間画像から、描画結果受信部31から受信した視線の方向からみえる視野角の範囲に対応する仮想空間画像を抽出する。表示制御部32は、抽出した停止時仮想空間画像の一部に相当する仮想空間画像を、ディスプレイ34に出力する。
表示制御部32は、描画結果受信部31から仮想空間画像を受信しない場合(例えば画像を更新しない旨を示す情報を受信した場合)、表示画像情報記憶部33に記憶させた停止時仮想空間画像を加工する。表示制御部32は、描画結果受信部31から視線の方向、および視野角に関する情報に基づいて、表示画像情報記憶部33に記憶させた停止時仮想空間画像を加工する。表示制御部32は、表示画像情報記憶部33に記憶させた停止時仮想空間画像から、描画結果受信部31から受信した視線の方向からみえる視野角の範囲に対応する仮想空間画像を抽出する。表示制御部32は、抽出した停止時仮想空間画像の一部に相当する仮想空間画像を、ディスプレイ34に出力する。
ディスプレイ34は、表示制御部32からの仮想空間画像を表示する。
図7は、第1実施形態の描画部20が行う処理の流れを示すフローチャートである。
本フローチャートを説明する前提として、描画部20は定期的(例えば、フレーム毎)に本フローチャートに示す処理を行うものとする。
描画部20は、操作情報に、仮想空間VSが変更された旨の情報が含まれているか否かを判定する(ステップS502)。
描画部20は、操作情報に、仮想空間VSの変更を示す情報が含まれている場合(ステップS502、YES)、描画情報記憶部23を更新する(ステップS505)。例えば、描画部20は、仮想空間VSにおいて、テーブルをソファに変更する操作がユーザにより行われた場合、仮想物体VO-1に代えて、仮想物体VO-3へ仮想空間情報が変更される。
描画部20は、ステップS503において視点位置Pが移動していると判定した場合(ステップS503、YES)、ステップS511に示す処理を行い、移動時仮想空間画像を生成して、生成した仮想空間画像の情報を表示部30に送信する。
描画部20は、停止時仮想空間画像を生成済みであると判定する場合(ステップS504、YES)、仮想空間画像を更新しない旨を示す情報(図7において、描画非更新情報、と記載)を表示部30に送信する(ステップS531)。
図8は、第1実施形態の表示部30が行う処理の流れを示すフローチャートである。
本フローチャートを説明する前提として、表示部30は定期的(例えば、フレーム毎)に本フローチャートに示す処理を行うものとする。
表示部30は、描画部20からの仮想空間画像が、移動時仮想空間画像であるか否かを判定する(ステップS802)。表示部30は、描画部20からの仮想空間画像が、移動時仮想空間画像である場合(ステップS802、YES)、描画部20から取得した仮想空間画像をそのまま、表示する(ステップS811)。
次に、第2の実施形態について説明する。以下に述べる第2の実施形態の説明において、第1の実施形態と同じ構成には同じ符号を付し、その説明を省略する。第2の実施形態においては、描画情報記憶部23は、仮想空間VSにおける仮想物体VOを、その用途に応じて分類することで、仮想空間画像の生成にかかる処理負荷をさらに抑制する。
図9は、第2の実施形態において描画部20が画像を生成する処理を説明するための図である。図9(A)~(C)は、それぞれ、描画部20が仮想空間画像を生成する際に用いられる仮想物体の例を示す。図9(D)~(H)は、それぞれ、描画部20が生成する仮想空間画像の例を示す。
つまり、静的オブジェクトは、ユーザからの入力操作により仮想空間VSにおける位置の変更や、仮想空間VSに配置するか否か等を設定することができない仮想物体である。静的オブジェクトは、例えば、部屋の形状、窓や階段の形状や設置位置など、ユーザが変更できない構造物に対応する仮想物体である。
また、動的オブジェクトは、ユーザからの入力操作により仮想空間VSにおける位置の変更や、仮想空間VSに配置する、または配置しない等の設定をすることができる仮想物体である。動的オブジェクトは、例えば、テーブルやソファの形状や、配置する位置などを、ユーザの好みに応じて変更することができる構造物に対応する仮想物体である。
図9(A)の例に示すように、仮想物体VO-1、および柱の3次元形状を示す仮想物体VO‐7が、それぞれ静的オブジェクトとして分類された例を示す。これらの静的オブジェクトに分類される仮想物体は、ユーザの操作により、変更することができない。
また、図9(B)、(C)の例に示すように、仮想物体VO-2、仮想物体VO-3が、動的オブジェクトにとして分類された例を示す。これらの動的オブジェクトに分類される仮想物体は、ユーザの操作により、変更することができる。
また、描画部20は、停止時仮想空間画像を生成する際に、仮想空間VSにおける静的オブジェクトからなる静的オブジェクト停止時仮想空間画像、および仮想空間VSにおける動的オブジェクトからなる動的オブジェクト停止時仮想空間画像をそれぞれ生成する。そして、描画部20は、生成した静的オブジェクト停止時仮想空間画像と、動的オブジェクト停止時仮想空間画像とを合成することにより、停止時仮想空間画像を生成する。
また、図9(E)の例に示すように、描画部20は、仮想物体VO-2が描画された動的オブジェクト停止時仮想空間画像DS-8を生成する。
そして、図9(G)の例に示すように、描画部20は、静的オブジェクト停止時仮想空間画像DS-7と動的オブジェクト停止時仮想空間画像DS-8とを合成することにより、停止時仮想空間画像DS-10を生成する。
そして、図9(H)の例に示すように、描画部20は、すでに生成した静的オブジェクト停止時仮想空間画像DS-7と、生成した動的オブジェクト停止時仮想空間画像DS-9とを合成することにより、停止時仮想空間画像DS-11を生成する。
次に、第3の実施形態について説明する。以下に述べる第3の実施形態の説明において、第1の実施形態と同じ構成には同じ符号を付し、その説明を省略する。
第3の実施形態では、二以上の画像を結合させることにより停止時仮想空間画像が生成される点において、第1の実施形態と相違する。
図10は、第3の実施形態の描画部20Aの構成例を示すブロック図である。図10に示すように、第3の実施形態において、描画部20Aは、画像生成部22Aと、描画領域分割部25と、画像情報記憶部26とを備える。
画像情報記憶部26は、画像生成部22Aの指示に基づいて、画像生成部22Aが生成した移動時仮想空間画像を記憶する。
まず、第3実施形態の描画部20Aが、仮想空間の変化に応じて移動時仮想空間画像、又は停止時仮想空間画像を生成するまでの処理の流れについて、図11を用いて説明する。図11は、第1の実施形態における図7に示す動作に相当する動作の流れを示すフローチャートである。図11は、図7のフローチャートにおけるステップS506に相当する処理がない点において図7のフローチャートと異なる。以下の説明では、図7のフローチャートと同じ処理を行うステップには同じ符号を付し、その説明を省略する。
描画部20Aの画像生成部22Aは、ステップS505に示す処理により描画情報記憶部23を更新すると、視点位置Pが、移動しているか否かに関わらず、移動時仮想空間画像を生成する(ステップS511A)。ステップS511Aにおいて、視点位置Pが移動していない場合にも移動時仮想空間画像を生成するのは、視点位置Pが移動していない場合に生成する停止時仮想空間画像の一部に移動時仮想空間画像を使用するためである。
描画部20Aの画像生成部22Aは、視点位置Pから視線方向へ視野角の範囲で描画された仮想空間画像である移動時仮想空間画像を生成する(ステップS211)。次に、画像生成部22Aは、生成した移動時仮想空間画像を画像情報記憶部26に記憶させる(ステップS212)。次に、画像生成部22Aは、生成した移動時仮想空間画像を表示部30に送信する(ステップS213)。
描画部20Aの画像生成部22Aは、まず、描画領域の分割情報が記憶されているか否かを判定する(ステップS311)。画像生成部22Aは、描画領域の分割情報が記憶されている場合、描画領域の分割情報に示される描画領域のうち、画像を生成していない未描画領域があるか否かを判定する(ステップS312)。画像生成部22Aは、画像情報記憶部26を参照し、画像情報記憶部26に記憶されている画像の描画領域と描画領域の分割情報とに基づいて、未描画領域があるか否かを判定する。画像生成部22Aは、未描画領域がないと判定した場合、画像を更新しない旨を示す情報(画像の非更新情報)を生成する(ステップS313)。そして、画像生成部22Aは、生成した情報を表示部30に送信して、処理を終了する。
図14は、停止時仮想空間画像の一例として全天球画像を立方体の六面として展開図で示した図である。図14は、視線方向に対し正面側となる画像DS-21、右手側となる画像DS-22、背面側となる画像DS-23、左手側となる画像DS-24、上側となる画像DS-25、及び下側となる画像DS-26をそれぞれ示す。
図15は、図14に示す展開図を立体的に示した図である。図15で、左側の図は視線方向に対して正面側となる画像DS-21、右手側となる画像DS-22、及び下側となる画像DS-26を、右側の図は視線方向に対して背面側となる画像DS-23、左手側となる画像DS-24、及び上側となる画像DS-25をそれぞれ立体的に示している。
視点位置Pが移動しているか否かは、ユーザからの操作情報に含まれていてもよい。例えば、ユーザが停止したい場合には、停止する旨を示す情報を、操作部10を介して、描画部20に入力させるようにしてもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
Claims (14)
- ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体を示す仮想空間画像を生成する生成部と、
前記生成部により生成された画像の画像情報を記憶する画像情報記憶部と
を備え、
前記生成部は、
前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成し、
生成した前記移動時仮想空間画像を前記画像情報記憶部に記憶させ、
前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成し、
前記停止時仮想空間画像に描画される仮想空間の領域のうち、前記移動時仮想空間画像に描画された領域とは異なる領域の画像を生成し、
生成した前記移動時仮想空間画像に描画された領域とは異なる領域の画像を、前記画像情報記憶部に記憶させた前記移動時仮想空間画像と結合させることにより前記停止時仮想空間画像を生成する、
ことを特徴とする仮想空間提示装置。 - ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体を示す仮想空間画像を生成する生成部と、
停止時仮想空間画像に描画される仮想空間の領域を、少なくとも移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する描画領域分割部と
を備え、
前記生成部は、
前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である前記移動時仮想空間画像を生成し、
前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である前記停止時仮想空間画像を生成し、
前記描画領域分割部により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する、
ことを特徴とする仮想空間提示装置。 - 前記視点位置が停止している場合、前記停止時仮想空間画像に基づいて、前記停止時仮想空間画像のうち前記視線方向と前記視野角に対応する部分の仮想空間画像を出力する画像出力部と
を更に備える
ことを特徴とする請求項1または請求項2に記載の仮想空間提示装置。 - 前記仮想空間に関する情報を記憶する記憶部を更に備え、
前記生成部は、
ユーザからの操作入力により前記仮想空間が変更された場合、
前記視点位置が移動している場合、前記仮想空間に関する情報に基づいて、当該変更に対応する前記移動時仮想空間画像を生成し、
前記視点位置が停止している場合、前記仮想空間に関する情報に基づいて、当該変更に対応する前記停止時仮想空間画像を生成する
ことを特徴とする請求項3に記載の仮想空間提示装置。 - 前記仮想空間は、前記仮想空間において固定される静的オブジェクトと、前記仮想空間において変更可能な動的オブジェクトとを含み、
前記静的オブジェクトに関する情報と前記動的オブジェクトに関する情報とを記憶する記憶部を更に備え、
前記生成部は、
前記停止時仮想空間画像を生成する場合、前記静的オブジェクトを視野角より広い範囲で示す仮想空間画像である静的オブジェクト停止時仮想空間画像を生成するとともに、前記動的オブジェクトを示す仮想空間画像である動的オブジェクト停止時仮想空間画像を生成し、生成した前記静的オブジェクト停止時仮想空間画像と前記動的オブジェクト停止時仮想空間画像とを合成することにより前記停止時仮想空間画像を生成し、
ユーザからの操作入力により前記仮想空間における前記動的オブジェクトが変更された場合、前記動的オブジェクトに関する情報に基づいて、当該変更に対応する前記動的オブジェクト停止時仮想空間画像を生成し、生成した前記動的オブジェクト停止時仮想空間画像と前記静的オブジェクト停止時仮想空間画像とを合成することにより前記停止時仮想空間画像を生成する、
ことを特徴とする請求項3に記載の仮想空間提示装置。 - 前記仮想空間の変更は、前記仮想空間における光源の位置の変更、前記光源の色彩の変更、前記光源の追加、前記光源の削除、前記仮想物体の位置の変更、前記仮想物体の全部又は一部の色彩の変更、前記仮想空間に配置していた前記仮想物体が前記仮想物体とは異なる他の前記仮想物体に置き換え、前記仮想物体とは異なる前記仮想物体の追加、又は前記仮想物体の削除による変更のうち少なくともいずれか一つである、
ことを特徴とする請求項4に記載の仮想空間提示装置。 - 前記仮想空間の変更は、前記仮想空間における前記仮想物体の位置の変更、前記仮想物体の全部又は一部の色彩の変更、前記仮想空間に配置していた前記仮想物体が前記仮想物体とは異なる他の前記仮想物体に置き換え、前記仮想物体とは異なる前記仮想物体の追加、又は前記仮想物体の削除による変更のうち少なくともいずれか一つである、
ことを特徴とする請求項5に記載の仮想空間提示装置。 - 前記生成部は、前記移動時仮想空間画像と前記停止時仮想空間画像とを異なる解像度で生成する、
ことを特徴とする請求項1から請求項7のいずれか一項に記載の仮想空間提示装置。 - 前記生成部は、前記停止時仮想空間画像として全天球画像を生成する
ことを特徴とする請求項1から請求項8のいずれか一項に記載の仮想空間提示装置。 - 前記生成部を有する生成装置と、
前記画像出力部を有する画像出力装置と、
前記記憶部を有する記憶装置と、
を備え、
前記生成装置、前記画像出力装置、及び前記記憶装置のうち少なくとも一つは、ネットワークを介して、他と通信可能に接続される
ことを特徴とする請求項4から請求項7のいずれか一項に記載の仮想空間提示装置。 - ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成部において、
前記生成部が、前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、
前記生成部が、生成した前記移動時仮想空間画像を、生成された画像の画像情報を記憶する画像情報記憶部に記憶させる工程と、
前記生成部が、前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成する工程と、
前記停止時仮想空間画像に描画される仮想空間の領域のうち、前記移動時仮想空間画像に描画された領域とは異なる領域の画像を生成する工程と、
前記生成部が、生成した前記移動時仮想空間画像に描画された領域とは異なる領域の画像を、前記画像情報記憶部に記憶させた前記移動時仮想空間画像と結合させることにより前記停止時仮想空間画像を生成する工程と、
を有する
ことを特徴とする仮想空間提示方法。 - ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成部と、描画領域分割部とにおいて、
前記生成部が、前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、
前記生成部が、前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成する工程と、
前記描画領域分割部が、停止時仮想空間画像に描画される仮想空間の領域を、少なくとも前記移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する工程と、
前記生成部が、前記描画領域分割部により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する工程と、
を有する
ことを特徴とする仮想空間提示方法。 - コンピュータに、
ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成工程において、
前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、
生成した前記移動時仮想空間画像を、生成された画像の画像情報を記憶する画像情報記憶部に記憶させる工程と、
前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成する工程と、
前記停止時仮想空間画像に描画される仮想空間の領域のうち、前記移動時仮想空間画像に描画された領域とは異なる領域の画像を生成する工程と、
生成した前記移動時仮想空間画像に描画された領域とは異なる領域の画像を、前記画像情報記憶部に記憶させた前記移動時仮想空間画像と結合させることにより前記停止時仮想空間画像を生成する工程と、
を実行させるためのプログラム。 - コンピュータに、
ユーザの視点位置及び視線方向に応じて、仮想空間における仮想物体の仮想空間画像を生成する生成工程において、
前記視点位置が移動している場合、前記視点位置から前記視線方向にある前記仮想空間における仮想物体を視野角の範囲で示す仮想空間画像である移動時仮想空間画像を生成する工程と、
前記視点位置が移動している状態から停止した状態に変化した場合、前記視点位置を中心とした前記仮想空間における仮想物体を視野角より広い範囲で示す仮想空間画像である停止時仮想空間画像を生成する工程と、
描画領域分割工程により分割された各々の領域の画像を生成し、生成した各々の画像を結合させることにより前記停止時仮想空間画像を生成する工程と、
前記描画領域分割工程において、
前記停止時仮想空間画像に描画される仮想空間の領域を、少なくとも前記移動時仮想空間画像に描画される領域と、それ以外の領域との二以上の領域に分割する工程と
を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017110886 | 2017-06-05 | ||
JP2017110886 | 2017-06-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206331A JP2018206331A (ja) | 2018-12-27 |
JP7006056B2 true JP7006056B2 (ja) | 2022-01-24 |
Family
ID=64957280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017174286A Active JP7006056B2 (ja) | 2017-06-05 | 2017-09-11 | 仮想空間提示装置、仮想空間提示方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7006056B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7465737B2 (ja) * | 2019-11-28 | 2024-04-11 | 株式会社ドワンゴ | 授業システム、視聴端末、情報処理方法及びプログラム |
JP6739611B1 (ja) * | 2019-11-28 | 2020-08-12 | 株式会社ドワンゴ | 授業システム、視聴端末、情報処理方法及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001285074A (ja) | 2000-03-31 | 2001-10-12 | Toshiba Corp | 画像合成方法および画像合成プログラムを記録した媒体 |
JP2003208633A (ja) | 2002-01-10 | 2003-07-25 | Mitsubishi Electric Corp | サーバ及びクライアント及び伝送システム及び伝送方法 |
JP2016062486A (ja) | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3339980B2 (ja) * | 1994-02-18 | 2002-10-28 | 松下電器産業株式会社 | 画像合成装置 |
-
2017
- 2017-09-11 JP JP2017174286A patent/JP7006056B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001285074A (ja) | 2000-03-31 | 2001-10-12 | Toshiba Corp | 画像合成方法および画像合成プログラムを記録した媒体 |
JP2003208633A (ja) | 2002-01-10 | 2003-07-25 | Mitsubishi Electric Corp | サーバ及びクライアント及び伝送システム及び伝送方法 |
JP2016062486A (ja) | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2018206331A (ja) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238644B2 (en) | Image processing method and apparatus, storage medium, and computer device | |
US11386623B2 (en) | Methods, systems, and computer program product for managing and displaying webpages in a virtual three-dimensional space with a mixed reality system | |
US20230087230A1 (en) | Virtual reality system and method | |
US9898844B2 (en) | Augmented reality content adapted to changes in real world space geometry | |
US10049493B1 (en) | System and methods for providing interaction with elements in a virtual architectural visualization | |
CN105981076B (zh) | 合成增强现实环境的构造 | |
EP2887322B1 (en) | Mixed reality holographic object development | |
JPWO2019123729A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN107168534B (zh) | 一种基于cave系统的渲染优化方法及投影方法 | |
JP2013506226A (ja) | 仮想環境との相互作用のためのシステム及び方法 | |
CN115335894A (zh) | 用于虚拟和增强现实的系统和方法 | |
JP2018526716A (ja) | 媒介現実 | |
CN109741431B (zh) | 一种二三维一体化电子地图框架 | |
JP7006056B2 (ja) | 仮想空間提示装置、仮想空間提示方法、及びプログラム | |
US11562538B2 (en) | Method and system for providing a user interface for a 3D environment | |
JP2020509505A (ja) | 拡張現実を提供するための方法、装置及びコンピュータプログラム | |
US20220293067A1 (en) | Information processing apparatus, information processing method, and program | |
JP2023171298A (ja) | 拡張現実及び複合現実のための空間とコンテンツの適合 | |
US20190378335A1 (en) | Viewer position coordination in simulated reality | |
US12002165B1 (en) | Light probe placement for displaying objects in 3D environments on electronic devices | |
JP6859763B2 (ja) | プログラム、情報処理装置 | |
JP7040080B2 (ja) | 仮想空間画像提示システム、仮想空間画像提示方法及びプログラム | |
KR20200031255A (ko) | 인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법 | |
GB2605302A (en) | Virtual reality system and method | |
GB2605298A (en) | Virtual reality system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7006056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |