JP2002032788A - 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 - Google Patents
仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体Info
- Publication number
- JP2002032788A JP2002032788A JP2000215010A JP2000215010A JP2002032788A JP 2002032788 A JP2002032788 A JP 2002032788A JP 2000215010 A JP2000215010 A JP 2000215010A JP 2000215010 A JP2000215010 A JP 2000215010A JP 2002032788 A JP2002032788 A JP 2002032788A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- data
- person
- user
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】 現実感の高い仮想世界を体験者に提供する。
【解決手段】 位置計測手段101は体験者の動作デー
タを計測する。視点検出手段102は動作データに基づ
いて体験者の目の位置を検出する。表示サイズ調整手段
105は仮想人物の身体サイズと体験者の身体サイズを
合わせる。人物データ生成手段106は仮想人物の立体
映像データを生成する。仮想空間データ生成手段107
は仮想空間の立体映像データを生成する。映像表示手段
108は、体験者の身体に仮想人物の立体映像を重畳表
示すると同時に仮想空間の立体映像を表示し、視点検出
手段102によって検出された体験者の目の位置に応じ
て仮想空間の表示を変化させる。
タを計測する。視点検出手段102は動作データに基づ
いて体験者の目の位置を検出する。表示サイズ調整手段
105は仮想人物の身体サイズと体験者の身体サイズを
合わせる。人物データ生成手段106は仮想人物の立体
映像データを生成する。仮想空間データ生成手段107
は仮想空間の立体映像データを生成する。映像表示手段
108は、体験者の身体に仮想人物の立体映像を重畳表
示すると同時に仮想空間の立体映像を表示し、視点検出
手段102によって検出された体験者の目の位置に応じ
て仮想空間の表示を変化させる。
Description
【0001】
【発明の属する技術分野】本発明は、立体視を用いた没
入型仮想環境により体験者に仮想世界を提供する仮想現
実提供方法、仮想現実提供装置及び仮想現実提供プログ
ラムを記録した記録媒体に関するものである。
入型仮想環境により体験者に仮想世界を提供する仮想現
実提供方法、仮想現実提供装置及び仮想現実提供プログ
ラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】従来より、コンピュータグラフィクスで
作成した仮想人物(以下、アバタと呼ぶ)を画面表示し
て、架空の世界を現実のように知覚させる技術が提案さ
れている。例えば、ジュネーブ大学MIRA Lab.
の「Cyber Dance」もその例の一つである。
作成した仮想人物(以下、アバタと呼ぶ)を画面表示し
て、架空の世界を現実のように知覚させる技術が提案さ
れている。例えば、ジュネーブ大学MIRA Lab.
の「Cyber Dance」もその例の一つである。
【0003】
【発明が解決しようとする課題】しかしながら、従来の
手法はアバタを二次元の画面に表示するものばかりで、
ユーザはあくまでそのアバタを平面的なものとして認識
せざるを得ない。そのため、ユーザは、アバタのいる世
界に入り込んでいるかのような高い現実感を得ることが
できないという問題点があった。本発明は、上述の問題
点を解決すべくなされたものであり、その目的は、空間
を意識させることの可能な立体映像を用いて、現実感の
高い仮想世界を体験者に提供することにある。
手法はアバタを二次元の画面に表示するものばかりで、
ユーザはあくまでそのアバタを平面的なものとして認識
せざるを得ない。そのため、ユーザは、アバタのいる世
界に入り込んでいるかのような高い現実感を得ることが
できないという問題点があった。本発明は、上述の問題
点を解決すべくなされたものであり、その目的は、空間
を意識させることの可能な立体映像を用いて、現実感の
高い仮想世界を体験者に提供することにある。
【0004】
【課題を解決するための手段】本発明の仮想現実提供方
法は、立体視を用いて構築される仮想空間において体験
者の分身となる仮想人物の身体サイズが体験者の身体サ
イズと一致するように、予め記憶手段に格納されている
前記仮想人物の動作データを変更する表示サイズ調整処
理(ステップS2)と、体験者の動作データとして体験
者の各身体部位の3次元位置を計測する動作データ計測
処理(ステップS3)と、この動作データ計測処理によ
って計測された動作データに基づいて体験者の目の3次
元位置を検出する視点検出処理(ステップS4)と、前
記表示サイズ調整処理によって変更された後の前記仮想
人物の動作データを前記仮想人物を立体表示するために
必要な人物モデルのデータに適用して前記仮想人物の立
体映像データを生成する人物データ生成処理(ステップ
S5)と、前記仮想空間を立体表示するために必要な空
間モデルのデータから前記仮想空間の立体映像データを
生成する仮想空間データ生成処理(ステップS6)と、
前記仮想人物の立体映像データを基に体験者の身体に前
記仮想人物の立体映像を重畳表示すると同時に、前記仮
想空間の立体映像データを基に仮想空間の立体映像を表
示し、前記視点検出処理によって検出された体験者の目
の位置に応じて前記仮想空間の表示を変化させる映像表
示処理(ステップS7)とを有するものである。このよ
うに、仮想世界の提供サービスの開始時に、仮想人物の
身体サイズと体験者の身体サイズを合わせる表示サイズ
調整処理を行った後、仮想人物の動作データを人物モデ
ルのデータに適用して仮想人物の立体映像データを生成
すると共に、空間モデルのデータから仮想空間の立体映
像データを生成し、体験者の身体に仮想人物の立体映像
を重畳表示すると同時に、仮想空間の立体映像を表示す
るので、体験者は自己の身体サイズに調整された仮想人
物に重なろうとして手足を動かすことにより、仮想人物
の身振りをトレースすることができる。
法は、立体視を用いて構築される仮想空間において体験
者の分身となる仮想人物の身体サイズが体験者の身体サ
イズと一致するように、予め記憶手段に格納されている
前記仮想人物の動作データを変更する表示サイズ調整処
理(ステップS2)と、体験者の動作データとして体験
者の各身体部位の3次元位置を計測する動作データ計測
処理(ステップS3)と、この動作データ計測処理によ
って計測された動作データに基づいて体験者の目の3次
元位置を検出する視点検出処理(ステップS4)と、前
記表示サイズ調整処理によって変更された後の前記仮想
人物の動作データを前記仮想人物を立体表示するために
必要な人物モデルのデータに適用して前記仮想人物の立
体映像データを生成する人物データ生成処理(ステップ
S5)と、前記仮想空間を立体表示するために必要な空
間モデルのデータから前記仮想空間の立体映像データを
生成する仮想空間データ生成処理(ステップS6)と、
前記仮想人物の立体映像データを基に体験者の身体に前
記仮想人物の立体映像を重畳表示すると同時に、前記仮
想空間の立体映像データを基に仮想空間の立体映像を表
示し、前記視点検出処理によって検出された体験者の目
の位置に応じて前記仮想空間の表示を変化させる映像表
示処理(ステップS7)とを有するものである。このよ
うに、仮想世界の提供サービスの開始時に、仮想人物の
身体サイズと体験者の身体サイズを合わせる表示サイズ
調整処理を行った後、仮想人物の動作データを人物モデ
ルのデータに適用して仮想人物の立体映像データを生成
すると共に、空間モデルのデータから仮想空間の立体映
像データを生成し、体験者の身体に仮想人物の立体映像
を重畳表示すると同時に、仮想空間の立体映像を表示す
るので、体験者は自己の身体サイズに調整された仮想人
物に重なろうとして手足を動かすことにより、仮想人物
の身振りをトレースすることができる。
【0005】また、本発明の仮想現実提供装置は、体験
者の動作データとして体験者の各身体部位の3次元位置
を計測する位置計測手段(101)と、この位置計測手
段によって計測された動作データに基づいて体験者の目
の3次元位置を検出する視点検出手段(102)と、立
体視を用いて構築される仮想空間において体験者の分身
となる仮想人物の動作データを予め記憶している第1の
記憶手段(103)と、前記仮想人物を立体表示するた
めに必要な人物モデルのデータ及び前記仮想空間を立体
表示するために必要な空間モデルのデータを予め記憶し
ている第2の記憶手段(104)と、前記仮想人物の身
体サイズが体験者の身体サイズと一致するように、前記
第1の記憶手段に記憶された前記仮想人物の動作データ
を変更する表示サイズ調整手段(105)と、この表示
サイズ調整手段によって変更された後の前記仮想人物の
動作データを前記人物モデルのデータに適用して前記仮
想人物の立体映像データを生成する人物データ生成手段
(106)と、前記空間モデルのデータに基づいて前記
仮想空間の立体映像データを生成する仮想空間データ生
成手段(107)と、前記仮想人物の立体映像データを
基に体験者の身体に前記仮想人物の立体映像を重畳表示
すると同時に、前記仮想空間の立体映像データを基に仮
想空間の立体映像を表示し、前記視点検出手段によって
検出された体験者の目の位置に応じて前記仮想空間の表
示を変化させる映像表示手段(108)とを有するもの
である。
者の動作データとして体験者の各身体部位の3次元位置
を計測する位置計測手段(101)と、この位置計測手
段によって計測された動作データに基づいて体験者の目
の3次元位置を検出する視点検出手段(102)と、立
体視を用いて構築される仮想空間において体験者の分身
となる仮想人物の動作データを予め記憶している第1の
記憶手段(103)と、前記仮想人物を立体表示するた
めに必要な人物モデルのデータ及び前記仮想空間を立体
表示するために必要な空間モデルのデータを予め記憶し
ている第2の記憶手段(104)と、前記仮想人物の身
体サイズが体験者の身体サイズと一致するように、前記
第1の記憶手段に記憶された前記仮想人物の動作データ
を変更する表示サイズ調整手段(105)と、この表示
サイズ調整手段によって変更された後の前記仮想人物の
動作データを前記人物モデルのデータに適用して前記仮
想人物の立体映像データを生成する人物データ生成手段
(106)と、前記空間モデルのデータに基づいて前記
仮想空間の立体映像データを生成する仮想空間データ生
成手段(107)と、前記仮想人物の立体映像データを
基に体験者の身体に前記仮想人物の立体映像を重畳表示
すると同時に、前記仮想空間の立体映像データを基に仮
想空間の立体映像を表示し、前記視点検出手段によって
検出された体験者の目の位置に応じて前記仮想空間の表
示を変化させる映像表示手段(108)とを有するもの
である。
【0006】また、本発明の仮想現実提供プログラムを
記録した記録媒体は、表示サイズ調整処理と、動作デー
タ計測処理と、視点検出処理と、人物データ生成処理
と、仮想空間データ生成処理と、映像表示処理とをコン
ピュータに実行させるものである。
記録した記録媒体は、表示サイズ調整処理と、動作デー
タ計測処理と、視点検出処理と、人物データ生成処理
と、仮想空間データ生成処理と、映像表示処理とをコン
ピュータに実行させるものである。
【0007】
【発明の実施の形態】[実施の形態の1]本発明では、
空間を意識させることの可能な立体映像を用いて、例え
ば演劇の舞台セットに相当する背景を立体的な仮想空間
として、演劇の主人公を立体アバタとして、それぞれ表
示する。主人公のアバタはあらかじめデータベースに記
憶されている動作データによって再生表示されるので、
体験者はこのアバタの身体に自分の身体を重ねるように
して、実際に手足を動かしながらアバタの動きをトレー
スすれば、主人公の身振りを体験することができる。
空間を意識させることの可能な立体映像を用いて、例え
ば演劇の舞台セットに相当する背景を立体的な仮想空間
として、演劇の主人公を立体アバタとして、それぞれ表
示する。主人公のアバタはあらかじめデータベースに記
憶されている動作データによって再生表示されるので、
体験者はこのアバタの身体に自分の身体を重ねるように
して、実際に手足を動かしながらアバタの動きをトレー
スすれば、主人公の身振りを体験することができる。
【0008】以下、図面を参照して本発明の実施の形態
を説明する。図1は本発明の第1の実施の形態となる仮
想現実提供装置の構成を示すブロック図である。図1に
おいて、101は、モーションキャプチャ(Motion Cap
ture)等からなる位置計測手段であり、仮想現実提供装
置の体験者の動作データを計測する。モーションキャプ
チャは、人体に取り付けた複数のマーカによって3次元
空間での人体の動き(各関節の動き)を連続的に測定し
て、各関節点の3次元座標値をディジタルデータとして
時系列的に取り込むための装置である。
を説明する。図1は本発明の第1の実施の形態となる仮
想現実提供装置の構成を示すブロック図である。図1に
おいて、101は、モーションキャプチャ(Motion Cap
ture)等からなる位置計測手段であり、仮想現実提供装
置の体験者の動作データを計測する。モーションキャプ
チャは、人体に取り付けた複数のマーカによって3次元
空間での人体の動き(各関節の動き)を連続的に測定し
て、各関節点の3次元座標値をディジタルデータとして
時系列的に取り込むための装置である。
【0009】このようなモーションキャプチャを使用す
ることにより、首、肩、肘、腰、膝といった人体の各関
節点の3次元座標値を動作データとして取り込むことが
できる。なお、モーションキャプチャは、磁気式、超音
波式、光学式のいずれでもよい。視点検出手段102
は、位置計測手段101によって計測された動作データ
に基づいて体験者の目の3次元位置を検出する。
ることにより、首、肩、肘、腰、膝といった人体の各関
節点の3次元座標値を動作データとして取り込むことが
できる。なお、モーションキャプチャは、磁気式、超音
波式、光学式のいずれでもよい。視点検出手段102
は、位置計測手段101によって計測された動作データ
に基づいて体験者の目の3次元位置を検出する。
【0010】第1の記憶手段である主人公動きデータベ
ース103は、仮想現実提供装置が提供する仮想空間内
で体験者の分身となる仮想人物(以下、主人公アバタと
呼ぶ)の動作データ(主人公アバタの動きを表す各関節
点の3次元座標値)を予め記憶している。主人公アバタ
の動作データは、予めモーションキャプチャを用いて時
系列的に取り込んだ他者の動作データでもよいし、例え
ば「bva形式」、「bvh形式」などの既に普及して
いるフォーマットのモーションデータでもよい。
ース103は、仮想現実提供装置が提供する仮想空間内
で体験者の分身となる仮想人物(以下、主人公アバタと
呼ぶ)の動作データ(主人公アバタの動きを表す各関節
点の3次元座標値)を予め記憶している。主人公アバタ
の動作データは、予めモーションキャプチャを用いて時
系列的に取り込んだ他者の動作データでもよいし、例え
ば「bva形式」、「bvh形式」などの既に普及して
いるフォーマットのモーションデータでもよい。
【0011】第2の記憶手段である仮想オブジェクトデ
ータベース104は、3次元コンピュータグラフィック
スとして主人公アバタを立体表示するために必要な人物
モデルのデータ、及び仮想空間の背景と仮想空間内に存
在する物体である仮想オブジェクトと仮想空間内に存在
する主人公アバタ以外のアバタとから構築される仮想空
間を立体表示するために必要な空間モデルのデータを予
め記憶している。これらモデルのデータとしては、ポリ
ゴンデータやテクスチャマッピングに必要なテクスチャ
データがある。また、仮想オブジェクトデータベース1
04は、主人公アバタの無動作静止状態の各関節点座標
値を予め記憶している。
ータベース104は、3次元コンピュータグラフィック
スとして主人公アバタを立体表示するために必要な人物
モデルのデータ、及び仮想空間の背景と仮想空間内に存
在する物体である仮想オブジェクトと仮想空間内に存在
する主人公アバタ以外のアバタとから構築される仮想空
間を立体表示するために必要な空間モデルのデータを予
め記憶している。これらモデルのデータとしては、ポリ
ゴンデータやテクスチャマッピングに必要なテクスチャ
データがある。また、仮想オブジェクトデータベース1
04は、主人公アバタの無動作静止状態の各関節点座標
値を予め記憶している。
【0012】表示サイズ調整手段105は、キャリブレ
ーション時に位置計測手段101によって計測された体
験者の無動作静止状態の関節点座標値と、仮想オブジェ
クトデータベース104に予め記憶されている主人公ア
バタの無動作静止状態の関節点座標値について、これら
両者を比較し、体験者と主人公アバタの各身体部位の長
さの比を計算し、計算した比に基づいて主人公アバタの
各身体部位の長さが体験者の対応身体部位の長さと一致
するように、主人公動きデータベース103に記憶され
た主人公アバタの動作データの各座標値を変更する。
ーション時に位置計測手段101によって計測された体
験者の無動作静止状態の関節点座標値と、仮想オブジェ
クトデータベース104に予め記憶されている主人公ア
バタの無動作静止状態の関節点座標値について、これら
両者を比較し、体験者と主人公アバタの各身体部位の長
さの比を計算し、計算した比に基づいて主人公アバタの
各身体部位の長さが体験者の対応身体部位の長さと一致
するように、主人公動きデータベース103に記憶され
た主人公アバタの動作データの各座標値を変更する。
【0013】人物データ生成手段106は、位置計測手
段101によって計測された体験者の動作データ及び主
人公動きデータベース103に記憶された主人公アバタ
の動作データの各々から、主人公アバタを体験者の身体
に重畳するにあたって予め決められた基準関節点の座標
値を抽出し、これらを比較する。そして、両基準関節点
座標値が同じ値となるように、主人公アバタの動作デー
タの全ての座標値を一律に加減した後、この動作データ
を仮想オブジェクトデータベース104に記憶された人
物モデルのデータに適用して、体験者の身体に重畳表示
すべき主人公アバタの立体映像データを生成する。
段101によって計測された体験者の動作データ及び主
人公動きデータベース103に記憶された主人公アバタ
の動作データの各々から、主人公アバタを体験者の身体
に重畳するにあたって予め決められた基準関節点の座標
値を抽出し、これらを比較する。そして、両基準関節点
座標値が同じ値となるように、主人公アバタの動作デー
タの全ての座標値を一律に加減した後、この動作データ
を仮想オブジェクトデータベース104に記憶された人
物モデルのデータに適用して、体験者の身体に重畳表示
すべき主人公アバタの立体映像データを生成する。
【0014】仮想空間データ生成手段107は、仮想オ
ブジェクトデータベース104に記憶されている空間モ
デルのデータから仮想空間の立体映像データを生成す
る。映像表示手段108は、人物データ生成手段106
によって生成された主人公アバタの立体映像データを基
に体験者の身体に主人公アバタの立体映像を重畳表示す
ると同時に、仮想空間データ生成手段107によって生
成された仮想空間の立体映像データを基に仮想空間を表
示する。
ブジェクトデータベース104に記憶されている空間モ
デルのデータから仮想空間の立体映像データを生成す
る。映像表示手段108は、人物データ生成手段106
によって生成された主人公アバタの立体映像データを基
に体験者の身体に主人公アバタの立体映像を重畳表示す
ると同時に、仮想空間データ生成手段107によって生
成された仮想空間の立体映像データを基に仮想空間を表
示する。
【0015】映像表示手段108は、立体視(Stereo G
raphics )を用いた没入型仮想環境を提供する装置であ
り、例えば前方のスクリーンの他に上下左右にもスクリ
ーンを配置して、体験者を映像で囲むような構造になっ
ている立体視装置と、この立体視装置に立体映像データ
を与える制御手段とからなる。体験者は、立体視用眼鏡
109を装着するため、あたかもその世界の中に入り込
んでいるかのような高い現実感を得ることができる。
raphics )を用いた没入型仮想環境を提供する装置であ
り、例えば前方のスクリーンの他に上下左右にもスクリ
ーンを配置して、体験者を映像で囲むような構造になっ
ている立体視装置と、この立体視装置に立体映像データ
を与える制御手段とからなる。体験者は、立体視用眼鏡
109を装着するため、あたかもその世界の中に入り込
んでいるかのような高い現実感を得ることができる。
【0016】また、映像表示手段108は、視点検出手
段102によって検出された体験者の目の位置に応じて
仮想空間の立体映像を変化させる。なお、人物データ生
成手段106、仮想空間データ生成手段107、映像表
示手段108については、例えば「増田千尋著、”3次
元ディスプレイ”、第3章〜第6章、産業図書」に記載
されている。
段102によって検出された体験者の目の位置に応じて
仮想空間の立体映像を変化させる。なお、人物データ生
成手段106、仮想空間データ生成手段107、映像表
示手段108については、例えば「増田千尋著、”3次
元ディスプレイ”、第3章〜第6章、産業図書」に記載
されている。
【0017】以下、本実施の形態の仮想現実提供装置の
動作を説明する。図2は図1の仮想現実提供装置の動作
を示すフローチャート図である。まず、キャリブレーシ
ョンを行うため、仮想現実提供装置の体験者は、無動作
静止状態の姿勢をとる。位置計測手段101は、無動作
静止状態の体験者のデータとして各関節点の三次元座標
値を取り込む(図2ステップS1)。なお、モーション
キャプチャの各マーカは肩、肘といった人体の関節点に
は必ず装着されるものとする。
動作を説明する。図2は図1の仮想現実提供装置の動作
を示すフローチャート図である。まず、キャリブレーシ
ョンを行うため、仮想現実提供装置の体験者は、無動作
静止状態の姿勢をとる。位置計測手段101は、無動作
静止状態の体験者のデータとして各関節点の三次元座標
値を取り込む(図2ステップS1)。なお、モーション
キャプチャの各マーカは肩、肘といった人体の関節点に
は必ず装着されるものとする。
【0018】また、キャリブレーションに必要な主人公
アバタの無動作静止状態の各関節点座標値は、仮想オブ
ジェクトデータベース104に予め記憶されている。次
に、表示サイズ調整手段105は、体験者の身体サイズ
と主人公アバタの身体サイズを合わせる表示サイズ調整
処理を行う(ステップS2)。
アバタの無動作静止状態の各関節点座標値は、仮想オブ
ジェクトデータベース104に予め記憶されている。次
に、表示サイズ調整手段105は、体験者の身体サイズ
と主人公アバタの身体サイズを合わせる表示サイズ調整
処理を行う(ステップS2)。
【0019】すなわち、表示サイズ調整手段105は、
位置計測手段101によって計測された体験者の無動作
静止状態の各関節点座標値と、仮想オブジェクトデータ
ベース104に予め記憶されている主人公アバタの無動
作静止状態の各関節点座標値とから、両者の各身体部位
の長さの比(体験者の身体部位の長さ/他者の身体部位
の長さ)を計算し、この比(以下、拡大縮小率と呼ぶ)
を記憶する。
位置計測手段101によって計測された体験者の無動作
静止状態の各関節点座標値と、仮想オブジェクトデータ
ベース104に予め記憶されている主人公アバタの無動
作静止状態の各関節点座標値とから、両者の各身体部位
の長さの比(体験者の身体部位の長さ/他者の身体部位
の長さ)を計算し、この比(以下、拡大縮小率と呼ぶ)
を記憶する。
【0020】例えば、右上腕の長さを求める場合は、右
肩に装着されたマーカの座標値と右肘に装着されたマー
カの座標値からユークリッド距離を計算する等の方法に
より、右肩関節点と右肘関節点との距離を求める。表示
サイズ調整手段105は、このような長さの計算を体験
者と主人公アバタのそれぞれについて身体部位ごとに行
い、拡大縮小率を身体部位ごとに計算する。
肩に装着されたマーカの座標値と右肘に装着されたマー
カの座標値からユークリッド距離を計算する等の方法に
より、右肩関節点と右肘関節点との距離を求める。表示
サイズ調整手段105は、このような長さの計算を体験
者と主人公アバタのそれぞれについて身体部位ごとに行
い、拡大縮小率を身体部位ごとに計算する。
【0021】そして、表示サイズ調整手段105は、計
算した拡大縮小率に基づいて、主人公アバタの各身体部
位の長さが体験者の対応身体部位の長さと一致するよう
に、主人公動きデータベース103に記憶された主人公
アバタの動作データ中の各関節点座標値を変更する。す
なわち、表示サイズ調整手段105は、拡大縮小率を参
照しながら、主人公アバタの各身体部位の長さが拡大ま
たは縮小されるように動作データ中の関節点座標値を変
更する。
算した拡大縮小率に基づいて、主人公アバタの各身体部
位の長さが体験者の対応身体部位の長さと一致するよう
に、主人公動きデータベース103に記憶された主人公
アバタの動作データ中の各関節点座標値を変更する。す
なわち、表示サイズ調整手段105は、拡大縮小率を参
照しながら、主人公アバタの各身体部位の長さが拡大ま
たは縮小されるように動作データ中の関節点座標値を変
更する。
【0022】例えば、体験者の右上腕の長さが12.
0、主人公アバタの右上腕の長さが10.0であるとす
れば、右上腕についての拡大縮小率は、12.0/1
0.0=1.20となる。この場合、体験者の方が主人
公アバタよりも右上腕が1.20倍長いので、表示サイ
ズ調整手段105は、主人公動きデータベース103に
記憶された主人公アバタの動作データ中の右肩と右肘の
関節点座標値を変更して、主人公アバタの右上腕の長さ
を1.20倍に拡大する。以上の処理により、体験者と
同サイズの主人公アバタを表示することが可能になる。
これで、表示サイズ調整処理が終了する。
0、主人公アバタの右上腕の長さが10.0であるとす
れば、右上腕についての拡大縮小率は、12.0/1
0.0=1.20となる。この場合、体験者の方が主人
公アバタよりも右上腕が1.20倍長いので、表示サイ
ズ調整手段105は、主人公動きデータベース103に
記憶された主人公アバタの動作データ中の右肩と右肘の
関節点座標値を変更して、主人公アバタの右上腕の長さ
を1.20倍に拡大する。以上の処理により、体験者と
同サイズの主人公アバタを表示することが可能になる。
これで、表示サイズ調整処理が終了する。
【0023】次に、通常動作時、位置計測手段101
は、体験者に取り付けられたモーションキャプチャか
ら、体験者の動作データとして各関節点の三次元座標値
を取り込む(ステップS3)。視点検出手段102は、
位置計測手段101によって計測された動作データに基
づいて体験者の目の3次元位置を検出する(ステップS
4)。
は、体験者に取り付けられたモーションキャプチャか
ら、体験者の動作データとして各関節点の三次元座標値
を取り込む(ステップS3)。視点検出手段102は、
位置計測手段101によって計測された動作データに基
づいて体験者の目の3次元位置を検出する(ステップS
4)。
【0024】体験者の目の位置を検出する方法として
は、例えば体験者の頭部に装着されたマーカにより体験
者の頭部の3次元位置を計測して、この位置から体験者
の目の位置を推定する方法がある。体験者の頭部につい
てマーカの装着位置と目の位置との関係を予め求めてお
くことにより、体験者の目の位置を推定することができ
る。
は、例えば体験者の頭部に装着されたマーカにより体験
者の頭部の3次元位置を計測して、この位置から体験者
の目の位置を推定する方法がある。体験者の頭部につい
てマーカの装着位置と目の位置との関係を予め求めてお
くことにより、体験者の目の位置を推定することができ
る。
【0025】また、モーションキャプチャのマーカを使
う代わりに、立体視用眼鏡109の位置センサ(不図
示)を頭部用の位置計測手段101として用いて、体験
者の頭部の3次元位置を計測してもよい。この場合に
も、位置センサの装着位置と目の位置との関係を予め求
めておくことにより、体験者の目の位置を推定すること
ができる。
う代わりに、立体視用眼鏡109の位置センサ(不図
示)を頭部用の位置計測手段101として用いて、体験
者の頭部の3次元位置を計測してもよい。この場合に
も、位置センサの装着位置と目の位置との関係を予め求
めておくことにより、体験者の目の位置を推定すること
ができる。
【0026】次いで、人物データ生成手段106は、人
物データ生成処理を行う(ステップS5)。まず、人物
データ生成手段106は、主人公動きデータベース10
3を参照して主人公アバタの動作データを読み込むと共
に、仮想オブジェクトデータベース104を参照して人
物モデルのデータを読み込む。
物データ生成処理を行う(ステップS5)。まず、人物
データ生成手段106は、主人公動きデータベース10
3を参照して主人公アバタの動作データを読み込むと共
に、仮想オブジェクトデータベース104を参照して人
物モデルのデータを読み込む。
【0027】続いて、人物データ生成手段106は、位
置計測手段101によって計測された体験者の動作デー
タと主人公動きデータベース103より読み込んだ主人
公アバタの動作データとから、予め決められた基準関節
点(例えば腰の関節点)の座標値を各々抽出し、両基準
関節点座標値が同じ値となるように主人公アバタの動作
データの全ての座標値を一律に加減する。この処理は、
3次元空間上においては主人公アバタの基準関節点座標
が体験者の基準関節点座標と一致するように、主人公ア
バタの全関節点座標を平行移動させることを意味する。
これにより、主人公アバタの映像を体験者の身体に重畳
表示することが可能となる。
置計測手段101によって計測された体験者の動作デー
タと主人公動きデータベース103より読み込んだ主人
公アバタの動作データとから、予め決められた基準関節
点(例えば腰の関節点)の座標値を各々抽出し、両基準
関節点座標値が同じ値となるように主人公アバタの動作
データの全ての座標値を一律に加減する。この処理は、
3次元空間上においては主人公アバタの基準関節点座標
が体験者の基準関節点座標と一致するように、主人公ア
バタの全関節点座標を平行移動させることを意味する。
これにより、主人公アバタの映像を体験者の身体に重畳
表示することが可能となる。
【0028】そして、人物データ生成手段106は、主
人公アバタの動作データを仮想オブジェクトデータベー
ス104から読み込んだ人物モデルのデータに適用し
て、主人公アバタの立体映像データを生成する。これ
で、人物データ生成処理が終了する。
人公アバタの動作データを仮想オブジェクトデータベー
ス104から読み込んだ人物モデルのデータに適用し
て、主人公アバタの立体映像データを生成する。これ
で、人物データ生成処理が終了する。
【0029】次に、仮想空間データ生成手段107は、
仮想空間データ生成処理を行う(ステップS6)。すな
わち、仮想空間データ生成手段107は、仮想オブジェ
クトデータベース104を参照して空間モデルのデータ
を読み込み、この空間モデルのデータから仮想空間の立
体映像データを生成する。
仮想空間データ生成処理を行う(ステップS6)。すな
わち、仮想空間データ生成手段107は、仮想オブジェ
クトデータベース104を参照して空間モデルのデータ
を読み込み、この空間モデルのデータから仮想空間の立
体映像データを生成する。
【0030】なお、人物データ生成手段106及び仮想
空間データ生成手段107は、立体映像データを生成す
る際、立体視用に両眼の視差を考慮し、右目用、左目用
の映像データをそれぞれ生成する。映像表示手段108
は、人物データ生成手段106によって生成された主人
公アバタの立体映像データを基に体験者の身体に主人公
アバタの立体映像を重畳表示すると同時に、仮想空間デ
ータ生成手段107によって生成された仮想空間の立体
映像データを基に仮想空間を表示する(ステップS
7)。
空間データ生成手段107は、立体映像データを生成す
る際、立体視用に両眼の視差を考慮し、右目用、左目用
の映像データをそれぞれ生成する。映像表示手段108
は、人物データ生成手段106によって生成された主人
公アバタの立体映像データを基に体験者の身体に主人公
アバタの立体映像を重畳表示すると同時に、仮想空間デ
ータ生成手段107によって生成された仮想空間の立体
映像データを基に仮想空間を表示する(ステップS
7)。
【0031】以上のようなステップS3〜S7の動作を
一定時間ごとに繰り返すことにより、主人公アバタの動
きが体験者の体に合わせて重畳表示される。主人公アバ
タの立体映像が重畳表示されている様子を第三者から見
たイメージを図3に示す。体験者は、立体視用眼鏡10
9を装着することにより、この重畳映像を立体的な映像
として見ることができる。したがって、主人公アバタが
演劇の主人公であれば、体験者は主人公の身振りも含め
て主人公の気分を体験することができ、主人公アバタが
舞踏やスポーツのインストラクターであるとすれば、体
験者は舞踏やスポーツの習熟を効果的に行うことができ
る。なお、図3では映像表示手段108のスクリーンを
透視して内部の体験者を記している。
一定時間ごとに繰り返すことにより、主人公アバタの動
きが体験者の体に合わせて重畳表示される。主人公アバ
タの立体映像が重畳表示されている様子を第三者から見
たイメージを図3に示す。体験者は、立体視用眼鏡10
9を装着することにより、この重畳映像を立体的な映像
として見ることができる。したがって、主人公アバタが
演劇の主人公であれば、体験者は主人公の身振りも含め
て主人公の気分を体験することができ、主人公アバタが
舞踏やスポーツのインストラクターであるとすれば、体
験者は舞踏やスポーツの習熟を効果的に行うことができ
る。なお、図3では映像表示手段108のスクリーンを
透視して内部の体験者を記している。
【0032】また、映像表示手段108は、視点検出手
段102によって検出された体験者の目の位置に応じて
前記仮想空間の表示を変化させる。例えば、映像表示手
段108は、体験者の目の位置が30cm前方に動いた
場合には、前方の仮想空間に30cm近づいた現実感が
得られるように仮想空間の立体映像データを変化させて
表示する。こうして、体験者の動きに応じて仮想空間の
表示が変化するので、体験者に高い現実感を与えること
ができる。なお、本実施の形態では、ステップS3〜S
7の処理を順次行っているが、ステップS3,S4の処
理とステップS5の処理とステップS6の処理とを平行
して行ってもよい。
段102によって検出された体験者の目の位置に応じて
前記仮想空間の表示を変化させる。例えば、映像表示手
段108は、体験者の目の位置が30cm前方に動いた
場合には、前方の仮想空間に30cm近づいた現実感が
得られるように仮想空間の立体映像データを変化させて
表示する。こうして、体験者の動きに応じて仮想空間の
表示が変化するので、体験者に高い現実感を与えること
ができる。なお、本実施の形態では、ステップS3〜S
7の処理を順次行っているが、ステップS3,S4の処
理とステップS5の処理とステップS6の処理とを平行
して行ってもよい。
【0033】[実施の形態の2]図4は本発明の第2の
実施の形態となる仮想現実提供装置の構成を示すブロッ
ク図である。位置計測手段101、映像表示手段108
の立体視装置及び立体視用眼鏡109を除く、実施の形
態の1の仮想現実提供装置の構成はコンピュータ200
で実現することができる。このコンピュータ200は、
CPU201、ROM(Read Only Memory)202、R
AM(Random Access Memory )203、フロッピィディ
スク装置等の補助記憶装置204、ハードディスク装置
等の大容量の補助記憶装置205、映像表示手段108
とのインタフェースとなるインタフェース装置206、
位置計測手段101とのインタフェースとなるインタフ
ェース装置207といった構成を有している。
実施の形態となる仮想現実提供装置の構成を示すブロッ
ク図である。位置計測手段101、映像表示手段108
の立体視装置及び立体視用眼鏡109を除く、実施の形
態の1の仮想現実提供装置の構成はコンピュータ200
で実現することができる。このコンピュータ200は、
CPU201、ROM(Read Only Memory)202、R
AM(Random Access Memory )203、フロッピィディ
スク装置等の補助記憶装置204、ハードディスク装置
等の大容量の補助記憶装置205、映像表示手段108
とのインタフェースとなるインタフェース装置206、
位置計測手段101とのインタフェースとなるインタフ
ェース装置207といった構成を有している。
【0034】図4の装置において、本発明の仮想現実提
供方法を実現させるためのプログラムは、フロッピィデ
ィスク、CD−ROM、メモリカード等の記録媒体に記
録された状態で提供される。この記録媒体をコンピュー
タ200の補助記憶装置204に挿入すると、媒体に記
録されたプログラムが読み取られる。そして、CPU2
01は、読み込んだプログラムをRAM203あるいは
補助記憶装置205に書き込み、このプログラムに従っ
て実施の形態の1で説明したような処理を実行する。こ
うして、実施の形態の1と同様の処理を実現することが
できる。
供方法を実現させるためのプログラムは、フロッピィデ
ィスク、CD−ROM、メモリカード等の記録媒体に記
録された状態で提供される。この記録媒体をコンピュー
タ200の補助記憶装置204に挿入すると、媒体に記
録されたプログラムが読み取られる。そして、CPU2
01は、読み込んだプログラムをRAM203あるいは
補助記憶装置205に書き込み、このプログラムに従っ
て実施の形態の1で説明したような処理を実行する。こ
うして、実施の形態の1と同様の処理を実現することが
できる。
【0035】
【発明の効果】本発明によれば、仮想世界の提供サービ
スの開始時に、仮想人物の身体サイズと体験者の身体サ
イズを一致させる表示サイズ調整処理を行った後、仮想
人物の動作データを人物モデルのデータに適用して仮想
人物の立体映像データを生成すると共に、空間モデルの
データから仮想空間の立体映像データを生成し、体験者
の身体に仮想人物の立体映像を重畳表示すると同時に、
仮想空間の立体映像を表示する。その結果、体験者は、
等身大で立体感があり、かつ自己の身体サイズにあわせ
て身体に重畳表示された仮想人物を見ることができるの
で、自己の動作と仮想人物の動作との差分(ずれ)を検
知、修正しながら、仮想人物の身振りを体験することが
でき、現実感の高い仮想世界を体験することができる。
また、視点検出処理によって検出された体験者の目の位
置に応じて仮想空間の表示を変化させるので、体験者に
高い現実感を与えることができる。
スの開始時に、仮想人物の身体サイズと体験者の身体サ
イズを一致させる表示サイズ調整処理を行った後、仮想
人物の動作データを人物モデルのデータに適用して仮想
人物の立体映像データを生成すると共に、空間モデルの
データから仮想空間の立体映像データを生成し、体験者
の身体に仮想人物の立体映像を重畳表示すると同時に、
仮想空間の立体映像を表示する。その結果、体験者は、
等身大で立体感があり、かつ自己の身体サイズにあわせ
て身体に重畳表示された仮想人物を見ることができるの
で、自己の動作と仮想人物の動作との差分(ずれ)を検
知、修正しながら、仮想人物の身振りを体験することが
でき、現実感の高い仮想世界を体験することができる。
また、視点検出処理によって検出された体験者の目の位
置に応じて仮想空間の表示を変化させるので、体験者に
高い現実感を与えることができる。
【図1】 本発明の第1の実施の形態となる仮想現実提
供装置の構成を示すブロック図である。
供装置の構成を示すブロック図である。
【図2】 図1の仮想現実提供装置の動作を説明するた
めのフローチャート図である。
めのフローチャート図である。
【図3】 映像重畳の様子を示すイメージ図である。
【図4】 本発明の第2の実施の形態となる仮想現実提
供装置の構成を示すブロック図である。
供装置の構成を示すブロック図である。
101…位置計測手段、102…視点検出手段、103
…主人公動きデータベース、104…仮想オブジェクト
データベース、105…表示サイズ調整手段、106…
人物データ生成手段、107…仮想空間データ生成手
段、108…映像表示手段、109…立体視用眼鏡。
…主人公動きデータベース、104…仮想オブジェクト
データベース、105…表示サイズ調整手段、106…
人物データ生成手段、107…仮想空間データ生成手
段、108…映像表示手段、109…立体視用眼鏡。
Claims (3)
- 【請求項1】 立体視を用いた没入型仮想環境により体
験者に仮想世界を提供する仮想現実提供方法であって、 立体視を用いて構築される仮想空間において体験者の分
身となる仮想人物の身体サイズが体験者の身体サイズと
一致するように、予め記憶手段に格納されている前記仮
想人物の動作データを変更する表示サイズ調整処理と、 体験者の動作データとして体験者の各身体部位の3次元
位置を計測する動作データ計測処理と、 この動作データ計測処理によって計測された動作データ
に基づいて体験者の目の3次元位置を検出する視点検出
処理と、 前記表示サイズ調整処理によって変更された後の前記仮
想人物の動作データを前記仮想人物を立体表示するため
に必要な人物モデルのデータに適用して前記仮想人物の
立体映像データを生成する人物データ生成処理と、 前記仮想空間を立体表示するために必要な空間モデルの
データから前記仮想空間の立体映像データを生成する仮
想空間データ生成処理と、 前記仮想人物の立体映像データを基に体験者の身体に前
記仮想人物の立体映像を重畳表示すると同時に、前記仮
想空間の立体映像データを基に仮想空間の立体映像を表
示し、前記視点検出処理によって検出された体験者の目
の位置に応じて前記仮想空間の表示を変化させる映像表
示処理とを有することを特徴とする仮想現実提供方法。 - 【請求項2】 立体視を用いた没入型仮想環境により体
験者に仮想世界を提供する仮想現実提供装置であって、 体験者の動作データとして体験者の各身体部位の3次元
位置を計測する位置計測手段と、 この位置計測手段によって計測された動作データに基づ
いて体験者の目の3次元位置を検出する視点検出手段
と、 立体視を用いて構築される仮想空間において体験者の分
身となる仮想人物の動作データを予め記憶している第1
の記憶手段と、 前記仮想人物を立体表示するために必要な人物モデルの
データ及び前記仮想空間を立体表示するために必要な空
間モデルのデータを予め記憶している第2の記憶手段
と、 前記仮想人物の身体サイズが体験者の身体サイズと一致
するように、前記第1の記憶手段に記憶された前記仮想
人物の動作データを変更する表示サイズ調整手段と、 この表示サイズ調整手段によって変更された後の前記仮
想人物の動作データを前記人物モデルのデータに適用し
て前記仮想人物の立体映像データを生成する人物データ
生成手段と、 前記空間モデルのデータに基づいて前記仮想空間の立体
映像データを生成する仮想空間データ生成手段と、 前記仮想人物の立体映像データを基に体験者の身体に前
記仮想人物の立体映像を重畳表示すると同時に、前記仮
想空間の立体映像データを基に仮想空間の立体映像を表
示し、前記視点検出手段によって検出された体験者の目
の位置に応じて前記仮想空間の表示を変化させる映像表
示手段とを有することを特徴とする仮想現実提供装置。 - 【請求項3】 立体視を用いた没入型仮想環境により体
験者に仮想世界を提供する仮想現実提供プログラムを記
録した記録媒体であって、 立体視を用いて構築される仮想空間において体験者の分
身となる仮想人物の身体サイズが体験者の身体サイズと
一致するように、予め記憶手段に格納されている前記仮
想人物の動作データを変更する表示サイズ調整処理と、 体験者の動作データとして体験者の各身体部位の3次元
位置を計測する動作データ計測処理と、 この動作データ計測処理によって計測された動作データ
に基づいて体験者の目の3次元位置を検出する視点検出
処理と、 前記表示サイズ調整処理によって変更された後の前記仮
想人物の動作データを前記仮想人物を立体表示するため
に必要な人物モデルのデータに適用して前記仮想人物の
立体映像データを生成する人物データ生成処理と、 前記仮想空間を立体表示するために必要な空間モデルの
データから前記仮想空間の立体映像データを生成する仮
想空間データ生成処理と、 前記仮想人物の立体映像データを基に体験者の身体に前
記仮想人物の立体映像を重畳表示すると同時に、前記仮
想空間の立体映像データを基に仮想空間の立体映像を表
示し、前記視点検出処理によって検出された体験者の目
の位置に応じて前記仮想空間の表示を変化させる映像表
示処理とをコンピュータに実行させるための仮想現実提
供プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000215010A JP2002032788A (ja) | 2000-07-14 | 2000-07-14 | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000215010A JP2002032788A (ja) | 2000-07-14 | 2000-07-14 | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002032788A true JP2002032788A (ja) | 2002-01-31 |
Family
ID=18710501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000215010A Pending JP2002032788A (ja) | 2000-07-14 | 2000-07-14 | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002032788A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2005337983A (ja) * | 2004-05-28 | 2005-12-08 | Spice:Kk | モーションキャプチャー方法及びシステム |
WO2006006642A1 (ja) * | 2004-07-13 | 2006-01-19 | Yugenkaisha Azu Geijyutu Kagaku Kenkyusho | 映像演出システム及び映像演出方法 |
JP2012038334A (ja) * | 2004-07-30 | 2012-02-23 | Extreme Reality Ltd Israel | 3d空間次元に基づく画像処理のための装置およびシステム |
JP2014072880A (ja) * | 2012-10-02 | 2014-04-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2014510336A (ja) * | 2011-02-11 | 2014-04-24 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
JP2014086775A (ja) * | 2012-10-19 | 2014-05-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
KR101751176B1 (ko) | 2016-03-09 | 2017-06-27 | 이화여자대학교 산학협력단 | 가상 우주 체험을 제공하는 장치 및 방법 |
KR101745498B1 (ko) | 2015-05-28 | 2017-07-11 | (주)지엘어소시에이츠 | 인터랙티브 콘텐츠 제공시스템 및 방법 |
JP2020140727A (ja) * | 2016-10-28 | 2020-09-03 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、制御方法、プログラム、及び記憶媒体 |
JPWO2020262391A1 (ja) * | 2019-06-28 | 2020-12-30 |
-
2000
- 2000-07-14 JP JP2000215010A patent/JP2002032788A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2005337983A (ja) * | 2004-05-28 | 2005-12-08 | Spice:Kk | モーションキャプチャー方法及びシステム |
WO2006006642A1 (ja) * | 2004-07-13 | 2006-01-19 | Yugenkaisha Azu Geijyutu Kagaku Kenkyusho | 映像演出システム及び映像演出方法 |
JP2012038334A (ja) * | 2004-07-30 | 2012-02-23 | Extreme Reality Ltd Israel | 3d空間次元に基づく画像処理のための装置およびシステム |
JP2014510336A (ja) * | 2011-02-11 | 2014-04-24 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
JP2014072880A (ja) * | 2012-10-02 | 2014-04-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2014086775A (ja) * | 2012-10-19 | 2014-05-12 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
KR101745498B1 (ko) | 2015-05-28 | 2017-07-11 | (주)지엘어소시에이츠 | 인터랙티브 콘텐츠 제공시스템 및 방법 |
KR101751176B1 (ko) | 2016-03-09 | 2017-06-27 | 이화여자대학교 산학협력단 | 가상 우주 체험을 제공하는 장치 및 방법 |
JP2020140727A (ja) * | 2016-10-28 | 2020-09-03 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、制御方法、プログラム、及び記憶媒体 |
US11281292B2 (en) | 2016-10-28 | 2022-03-22 | Sony Interactive Entertainment Inc. | Information processing apparatus, control method, program, and storage media |
JP7057389B2 (ja) | 2016-10-28 | 2022-04-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、制御方法、プログラム、及び記憶媒体 |
JPWO2020262391A1 (ja) * | 2019-06-28 | 2020-12-30 | ||
WO2020262391A1 (ja) * | 2019-06-28 | 2020-12-30 | 富士フイルム株式会社 | 表示制御装置、表示制御方法、及びプログラム |
JP7163498B2 (ja) | 2019-06-28 | 2022-10-31 | 富士フイルム株式会社 | 表示制御装置、表示制御方法、及びプログラム |
US11909945B2 (en) | 2019-06-28 | 2024-02-20 | Fujifilm Corporation | Display control device, display control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106843456B (zh) | 一种基于姿态追踪的显示方法、装置和虚拟现实设备 | |
US20210065432A1 (en) | Method and system for generating an image of a subject in a scene | |
CN106066701B (zh) | 一种ar和vr数据处理设备与方法 | |
US7907167B2 (en) | Three dimensional horizontal perspective workstation | |
JP5791433B2 (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
CN101779460B (zh) | 电子镜装置 | |
US8860847B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image | |
US8648924B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus | |
JP2012058968A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
KR20140108128A (ko) | 증강 현실 제공 장치 및 방법 | |
JP2008210276A (ja) | 三次元モデル情報の生成方法及び装置 | |
JP2006079174A (ja) | 仮想現実感提示装置および情報処理方法 | |
JP2002032788A (ja) | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 | |
KR102009400B1 (ko) | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 | |
JP2019053603A (ja) | 表示制御プログラム、装置、及び方法 | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
JP6775669B2 (ja) | 情報処理装置 | |
JP2020071718A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2003284095A (ja) | 立体画像処理方法および装置 | |
CN109829960A (zh) | 一种vr动漫系统交互方法 | |
JP2023059137A (ja) | 画像合成装置、画像合成方法、及びプログラム | |
JP2000112334A (ja) | 運転操作訓練装置 | |
KR100380994B1 (ko) | 응시지점을 따라가는 입체 영상 표시 장치 및 그 방법 | |
JP2000353252A (ja) | 映像重畳方法、映像重畳装置及び映像重畳プログラムを記録した記録媒体 | |
JP5066047B2 (ja) | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050510 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050616 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050906 |