JPH11195131A - 仮想現実方法及び装置並びに記憶媒体 - Google Patents

仮想現実方法及び装置並びに記憶媒体

Info

Publication number
JPH11195131A
JPH11195131A JP36673897A JP36673897A JPH11195131A JP H11195131 A JPH11195131 A JP H11195131A JP 36673897 A JP36673897 A JP 36673897A JP 36673897 A JP36673897 A JP 36673897A JP H11195131 A JPH11195131 A JP H11195131A
Authority
JP
Japan
Prior art keywords
virtual
user
dimensional
virtual reality
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP36673897A
Other languages
English (en)
Inventor
Hirokazu Akisada
浩和 秋定
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP36673897A priority Critical patent/JPH11195131A/ja
Publication of JPH11195131A publication Critical patent/JPH11195131A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 従来に比べて制御の自由度を飛躍的に拡大で
きる仮想現実方法及び装置を提供する。 【解決手段】 位置方向検出装置110からのユーザの
両眼の視線情報に基づいて演算装置105により計算し
た3次元仮想空間におけるユーザの空間的注目点に基づ
いて制御装置101により仮想現実シミュレーションを
行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ユーザの両眼の視
線位置情報から計算した3次元仮想空間におけるユーザ
の仮想注目点に基づいて仮想現実シミュレーションを行
う仮想現実方法及び装置並びにこれら仮想現実方法及び
装置に使用する記憶媒体に関する。
【0002】
【従来の技術】従来より、バーチャルリアリティー(仮
想現実:電子計算機によって作り出された情報を人間の
感覚器官に提示することによって、実在しない世界や遠
隔にある空間での行動を可能にして疑似体験を行う技
術)による仮想現実のシミュレーションを実現するに
は、次のような方法がとられる場合があった。
【0003】例えば、仮想現実状態を体験する体験者の
頭部に取り付けた3次元位置方向検出装置からのデータ
を基に、予め入力したモデル(物体の3次元形状デー
タ)の空間的・幾何学的位置を考慮した映像をコンピュ
ータに計算させ、この映像を体験者が被ったヘッドマウ
ントディスプレイ(HMD)に表示することで、体験者
は仮想現実の世界を疑似的に体験(仮想現実シミュレー
ション)することができる。
【0004】このようなバーチャルリアリティーを実現
するシステムにおいて、体験者が見る映像は、一般的
に、次に説明する3次元コンピュータグラフイックスに
よって形成される。
【0005】<3次元コンピュータグラフイックスの説
明>まず、従来の画像表示装置における3次元コンピュ
ータグラフイックス(以下、3次元CGと記述する)の
形成方法について説明する。
【0006】3次元物体を表現した画像を形成する3次
元CGにおいては、通常画像を得るためには、大きく分
けて「モデリング」と「レンダリング」という2つの作
業が必要となる。
【0007】◇「モデリング」 モデリングは、画像の中で表現したい対象物の形、色、
表面の性質等のデータをコンピュータの中に作成する作
業である。例えば、人間の画像を作るのであれば、その
表面の形がどうなっているのか、顔のどの部分がどのよ
うな色をしているのか、光の反射率はどうか、といった
データを作成し、後のレンダリングで使えるような形式
でコンピュータ内に格納する。この様なデータの集まり
を物体のモデルという。
【0008】例えば、図13に示すような立方体の形状
モデリングを行う場合、まず、図13のように立方体の
ある1つの頂点を原点としたモデリング座標系を考え
る。そして、この座標系における立方体の8個の頂点の
座標データ及び面ループデータを、例えば図14
(a),(b)に示すように決定する。この様にして得
られた1組の座標データと面ループデータが対象物のモ
デリングデータ(またはモデルデータ)となる。
【0009】◇「レンダリング」 レンダリングは、モデルが出来上がった後で、その物体
をある位置から見たときにどの様に見えるかを考え、そ
の見え方に従った画像を作成する作業である。従って、
レンダリングを行うには、モデルの他に、見る位置(視
点)や照明に関する条件を考える必要がある。レンダリ
ング作業を細分化すると、「投影変換」、「隠面消
去」、「シェーディング」及び「リアルさを出すための
工夫」の4つの作業となる。
【0010】まず、「投影変換」は、モデルを表わして
いる種々の座標値に対して、視点の位置から見たとき
に、画面上のどの位置に見えるかを計算して、画面上の
座標に変換することである。図15は、投影変換のため
の4つの座標系を示した図である。まず、モデリング座
標系において定義された物体の形状データは、ワールド
座標系(物体の形を表わすときにモデル内の座標に用い
る座標系)におけるデータに変換される。そして、対象
となる物体を見ることができるように、選定したカメラ
をいろいろな方向に向けることで、ビューイング変換
(視野変換)を行う。この際、ワールド座標系で表わさ
れた物体のデータが視点座標系のデータに変換されるこ
とになる。また、この変換のためにワールド座標系の中
にスクリーン(視野窓)を指定し、このスクリーンが物
体の最終的な投影面となる。そして、このスクリーンを
定義するための座標系がUVN座標系(スクリーン座標
系)と呼ばれる。但し、視点前方の全ての物を描くと、
不必要な計算時間をとる場合があるので、作画領域を決
めることも必要である(この作画領域はビューイングボ
リューム「視野空間」と呼ばれ、また、この作業はクリ
ッピングと呼ばれる。また、ビューイングボリュームの
境界の中でカメラから最も近い面をリニアクリッピング
面、最も遠い面をファークリッピング面という)。そし
て、このスクリーンをいろいろな方向に動かすことで視
野変換を行う。そして、視野変換が決定した後、空間に
存在する物体の3次元形状の各点に対して、視点と投影
面の交点を求める操作を行うことで、図16に示すよう
にスクリーン上に投影図を得る(但し、この場合は視点
と投影面との間の距離が有限である透視投影を示してい
る)。従って、投影変換が行われると前述の視点座標系
で表わされたデータは、UVN座標系におけるデータに
変換されたことになる。
【0011】次に、「隠面消去」によって、モデルの中
で現在の視点の位置から考えて、どの部分が見えて、ど
の部分が見えないかを判断する。隠面消去の代表的な手
法としては、Zバッファ法やスキャンライン法といった
アルゴリズムが挙げられる。そして、隠面消去が済ん
で、物体のどの部分が見えるかが確定したら、次に照明
を考えて各部分がどの様な色で、どの様な明るさに見え
るかを判断し、その色を画面、即ち、ピクセルに塗る
「シェーディング」の処理を行う。
【0012】そして、通常レンダリングの最後に実行さ
れるのが、「リアルさを出すための工夫」である。これ
は、「投影変換」、「隠面消去」、「シェーディング」
を行って画像を形成しても、得られる絵は実在の物体と
はほど遠い面白みのないものとなってしまうためであ
る。その理由としては、このような手法が、物体の表面
は理想的な平面或いは数式で表わせる完全に滑らかな曲
面であったり、表面の色が面ごとに一定であるといった
仮定に基づいているためである。こうした状況を避け、
得られる画像をより現実に近いものとするために行われ
る代表的手法の1つにテクスチャーマッピングがある。
このテクスチャーマッピングは、予め用意した2次元パ
ターンを3次元空間内の物体モデルの表面に貼り付ける
(数学的にいえば、写像する)手法で、単調な表面で構
成された物体を複雑な表面を持つ物体に疑似的に見せか
けることを目的としている。これにより、例えば単純な
直方体のモデルを金属や石材のように見せることが可能
となる。
【0013】上述した「投影変換」、「隠面消去」、
「シェーディング」及び「リアルさを出すための工夫」
が終了し、UVN座標系によって示された図形は、最終
的なデバイス座標系に変換されて画像表示装置に表示さ
れると、1回のレンダリング処理が完了する。図17
に、図16のスクリーンに投影された物体がデバイス座
標系に変換されて表示装置に表示された画像を示す(但
し、物体の背景は黒色で塗りつぶされている)。ここ
で、デバイス座標系とは、画像の中でピクセルやドット
の位置を表わすときに用いる座標系のことで、表示画像
における座標系と同一であるものとする(図17におけ
るaとbは、表示画像の横と縦の画素数を示す)。
【0014】◇「コンピュータグラフィックスアニメー
ションの作成方法」 上述したような方法により得られる絵(CG画像)に動
きを付けてコンピュータグラフィックスアニメーション
(以下、CGアニメーションと記述する)を作成する場
合、大別して2つの方法がある。
【0015】まず、第1の手法としては、3次元空間に
置き、照明条件、視点条件(視点の位置・方向・画角)
及び物体のモデルの形状や色等を少しずつ変化させ、そ
の都度レンダリングを行うことで、一連のアニメーショ
ン用の画像群を得た後(または、1つの画像をレンダリ
ングするごとに)、それらをビデオレコーダ等の録画装
置を用いて1コマ1コマ録画(コマ録画)し、全ての録
画が終わった後で再生装置で再生する方法である。この
方法においては、画像のレンダリングの際にかかる時間
は許容される範囲で長くしてよいので(1つの画像のレ
ンダリングに要する時間と作成するアニメーションの全
体の時間に依存する)、画面上に複雑な形状の物体を多
数配置したり、レイトレーシング(光線追跡法)に代表
されるような長い計算時間を必要とするレンダリング手
法を用いて高品質な画像を作成することも可能である。
例えば、現在のテレビコマーシャルやSF映画等で用い
られているCG映像は、ほとんどこの方法によって作成
されたものである。
【0016】次に、第2の手法としては、前述の照明条
件、視点条件及び物体モデルの形状や色を変更しながら
のレンダリング及びそのレンダリング処理によって得ら
れた画像の表示という2つの処理を高速に繰り返すこと
で、CGアニメーションを実行する手法である。この手
法は、一般的にリアルタイムCGレンダリングと呼ばれ
るもので、ユーザからの指示を直接レンダリングに反映
させることで、CGアニメーションの動きをリアルタイ
ムにコントロールするインタラクティブ(対話的)処理
が可能なことが最大の特徴である。その反面、実現に関
しては実行するコンピュータのパフォーマンスにかなり
依存し、画面上に表示できる物体のデータ量に制限があ
ったり、レンダリング手法として単純で高速なものに限
定されてしまうといった制約があるため、前者と比較し
て形成される画像は一般的に低品質なものとなる。な
お、この手法は、各種バーチャルリアリティー(仮想現
実)システムをはじめ、科学技術シミュレーション、航
空機操縦練習用のフライトシミュレータやゲームセンタ
ー用のレーシングゲーム・ファイティングゲーム等に用
いられているものである。
【0017】<3次元CGによる立体視>次に、3次元
CGを用いた立体視の実現方法について説明する。
【0018】まず、一般的な立体視の性質について説明
する。
【0019】人間の両眼の瞳孔は平均して63.5mm
離れているため、人間が物を見るときには、左右の目の
網膜には互いに僅かに異なった角度から見た画像が映っ
ている。人間が物を見たときの立体感は、このような左
右の違いを心理的に判断した結果生まれるものと考えら
れる。従って、人間の目の間隔だけ離れた位置から撮影
した2枚の写真画像は、それぞれのシーンに相当するも
のであると考えられる。この2枚の画像を左側で撮影し
たものは左目で、右側で撮影したものは右目で、それぞ
れ独立に観察すれば、直接被写体を見たときと同様な立
体感が再現される。この性質を利用したものが古くから
行われている立体写真であり、立体視の基本原理であ
る。
【0020】このような立体視の性質を3次元CGに応
用する場合は次のような方法で行う。一般的に3次元C
Gを用いた立体視では、同一の3次元仮想空間に人間の
左右の目に対応する2つの視点(カメラ)を考え、両視
点に以下のような条件を与える。
【0021】(条件1)両視点の視角、ビューイングボ
リューム等の視点条件(上記3次元CGの説明の項参
照)は同一。 (条件2)両視点の視点座標系の原点同士に適当な距離
を与える。 (条件3)両視点の視点座標系のx軸同士が重なる。 (条件4)両視点の視点座標系のz軸同士とy軸同士が
平行且つ同方向となる。 (条件5)視点移動は、以上の条件を保った状態で行
う。
【0022】このように設定した2つの視点から見た仮
想空間での情景を、ヘッドマウントディスプレイ(HM
D)の左目と右目のそれぞれに表示することにより、3
次元CGによる立体視が実現できる。、上述したような
3次元CGによる立体視によって、後述するバーチャル
リアリティーは、モノラル映像(同一のCG画像左右の
目に提示)の場合と比較してより臨場感のあるものとな
る(反面、リアルタイムで左目用と右目用の2つのCG
画像を生成する必要があるため、モノラル映像の場合と
比べて計算機の負荷は大幅に増大する)。
【0023】<バーチャルリアリティー技術の説明>次
に、バーチャルリアリティー技術について説明する。
【0024】上述した3次元CGの応用のさいたるもの
で、最近注目されている技術としてバーチャルリアリテ
ィー(仮想現実感)がある。これは計算機によって作り
出された情報を人間の感覚器官に提示することによっ
て、実在しない世界や遠隔にある空間での行動を可能に
して疑似体験を行えるようにした技術である。コンピュ
ータとの究極のヒューマンインターフェースともいわれ
て脚光を浴びている。応用範囲も広く、高度の臨場感を
持ったロボット遠隔操作、仮想モデルを用いたCAD
(コンピュータ援用設計)での設計、臨場感ある通信会
議、現実の操作感に近いフライトシミュレータ・ドライ
ビングシミュレータ、微細な手術道具による遠隔操作、
建築・インテリア等におけるウォークスルー等が挙げら
れている。
【0025】バーチャルリアリティーを実現するには、
(1)人間の操作情報をリアルタイムに入力する装置、
(2)臨場感ある感覚情報を人間に提示する装置、
(3)それらを関連付けて仮想世界を記述するシミュレ
ーションシステムの3つが必要であるとされている。前
記(1)の代表的な製品としては、指の曲げを測定する
ために手袋の指に沿って光ファイバーが取り付けられた
VPL社のデータグローブ、(2)の代表的な製品とし
ては、左右の目に2枚のカラー液晶で独立した映像を映
して立体視させて視覚情報を提示するヘッドマウントデ
ィスプレイ(HMD)等が実用化されている。
【0026】<視線検出装置説明>次に、視線検出装置
について説明する。
【0027】先に本出願人は、パソコン(パーソナルコ
ンピュータ)/テレビのディスプレイ画面、ビデオカメ
ラ/スチルカメラのファインダー画面等を使用者が観察
する際、画面のどこを見ているかを検出する、いわゆる
視線入力装置を既に提案している。その原理を以下に説
明する。
【0028】図18は、視線検出方法の原理を示す平面
図、図19は、視線検出方法の原理を示す側面図であ
る。両図において、906a,906bは観察者に対し
て不感の赤外光を放射する発光ダイオード(IRED)
等の光源で、各光源906a,906bは、結像レンズ
911の光軸に対してx方向(水平方向)に略対称に
(図18参照)、また、y方向(垂直方向)にはやや下
側に(図19参照)配置され、観察者の眼球908を発
散照明している。観察者の眼球908で反射した照明光
の一部は、結像レンズ911によってイメージセンサー
912に結像する。
【0029】図20は、イメージセンサー912に投影
される眼球像の概略図、図21は、イメージセンサー9
12の出力強度図である。
【0030】以下、図18〜図21を用いて視線の検出
方法について説明する。
【0031】まず、水平面で考えると、図18において
一方の光源906bより放射されたは、観察者の眼球9
08の角膜910(図18及び図19参照)を照明す
る。このとき角膜910の表面で反射した赤外光により
形成される角膜反射像(虚像)d(図18及び図19参
照)は、結像レンズ911によって集光され、イメージ
センサー912上の位置d′(図18参照)に結像す
る。同様に、他方の光源906aより放射された赤外光
は、観察者の眼球908の角膜910(図18及び図1
9参照)を照明する。このとき角膜910の表面で反射
した赤外光により形成される角膜反射像(虚像)e(図
18及び図19参照)は、結像レンズ911によって集
光され、イメージセンサー912上の位置e′(図18
参照)に結像する。また、虹彩904の端部a,b(図
18〜図20参照)からの光束は、結像レンズ911を
介してイメージセンサー912上の位置a′,b′(図
18及び図19参照)に該端部a,bの像を結像する。
結像レンズ911の光軸に対する眼球908の光軸の回
転角θが小さい場合、虹彩904の端部a,bのx座標
をxa,xbとすると、xa,xbはイメージセンサー
912上で多数点求めることができる(図20中、×
印)。そこで、まず、円の最小自乗法にて瞳孔中心xc
を算出する。一方、角膜910の曲率中心oのx座標を
xoとすると、眼球908の光軸に対する回転角θx
は、 oc×sinθx=xc−xo … (1) となる。
【0032】また、角膜反射像dとeの中点kに所定の
補正値δxを考慮して求めると、 xk=(xd+xe)/2 xo=(xd+xe)/2+δx … (2) となる。
【0033】ここで、δxは装置の設置方法/眼球距離
等から幾何学的に求められる数値であり、その算出方法
は省略する。
【0034】よって、上記(1)式を(2)式に代入し
てθxを求めると、 θx=arcsin[[xc{(xd+xe/2+δx}]/oc]…(3) となる。
【0035】更に、イメージセンサー912上に投影さ
れた各々の特徴点の座標を、′(ダッシュ)を付けて下
記(4)式に書き換えると、 θx=arcsin[[xc′{(xd′+xe′/2+δx′}]/oc/β]…(4) となる。ここで、βは結像レンズ911に対する眼球9
08の距離szeにより決まる倍率で、実際は角膜反射
像d,eの間隔|xd′−xe′|の関数として求めら
れる。
【0036】垂直面で考えると、図19に示すような構
成となる。ここで、2個の光源906a,906bによ
り生じる角膜反射像d,eは同位置に発生し、これをi
とする。眼球908の垂直方向の回転角θyの算出方法
は上述した水平面の場合とほぼ同一であるが、(2)式
のみ異なり、角膜曲率中心oのy座標をyoとすると、 yo=yi+δy … (5) となる。
【0037】ここで、δyは装置の設置方法/眼球距離
等から幾何学的に求められる数値であり、その算出方法
は省略する。
【0038】よって、眼球908の垂直方向の回転角θ
yは、 θy=arcsin[[yc′−(yi′+δy′)]/oc/β]…(6) となる。
【0039】更に、ファインダー等の画面上の位置座標
(xn,yn)は、ファインダー光学系で決まる定数m
を用いると、水平面上、垂直面上それぞれ、 xn=m×arcsin[[xc′−{(xd′+xe′)/2+δx′}]/oc/β]…(7 ) yn=m×arcsin[[yc′−(yi′+δy′)]/oc/β]…(8) となる。
【0040】図21で明らかなように、瞳孔エッジの検
出は、イメージセンサー912の出力波形の立ち下がり
部(xb′)及び(xa′)を利用する。また、角膜反射像
d,eの座標は鋭い立ち上がり部(xe′)及び(xd′)
を利用する。
【0041】<視線検出機能を持つパーソナルコンピュ
ータシステムの>次に、視線検出機能を持つパーソナル
コンピュータ(以下、パソコンと記述する)システムの
一例を説明する。
【0042】図22は、視線検出機能を持つパソコンシ
ステムの一例を示す概略構成図である。同図に示すパソ
コンシステムは、パソコンの本体部であるパソコンユニ
ット1008、操作者がパソコンの画面を観察するため
のヘッドマウントディスプレイ1006、操作者または
操作者以外の人がパソコンの画面を観察するための外部
モニター1009により構成されている。ここで、ヘッ
ドマウントディスプレイ1006は、ゴーグル、メガネ
フレーム等の部材により操作者の目に近い位置に固定さ
れている。
【0043】ヘッドマウントディスプレイ1006は、
LCD(液晶表示器)等を有する表示素子1002と、
拡大観察系を実現するための特殊プリズム1003、撮
影者の目1005の視線を検出する視線検出回路106
4と、パソコン画面を表示素子1002に表示する表示
回路1007と、撮影者の目1005に赤外光を照射す
る赤外発光ダイオード1060,1061と、赤外光を
結像する結像レンズ1062a,1062bと、これら
結像レンズ1062a,1062bにより結像された赤
外光を電気信号に変換する光電変換素子(イメージセン
サー)1063と、この光電変換素子1063上の撮影
者の目1005の像を基に撮影者の表示素子1002上
の注視点を求める注視点検出回路1064とを具備して
いる。
【0044】次に、ヘッドマウントディスプレイ100
6における観察系の光学作用について説明する。表示素
子1002からの光は、第3の光学作用面cで屈折透過
し、第1の光学作用面aで全反射し、第2の光学作用面
bの反射層で反射し、再び第1の光学作用面aで屈折透
過し、観察者の視度に適合した拡がり角(収束角、平
行)の光束となり、観察者の目1005側に射出する。
ここで、観察者の目1005と表示素子1002の中心
を結ぶ線を基本光軸として示している。観察者の視度に
対する調整は、表示素子1002をプリズム1003の
光軸に沿って平行移動することにより可能となる。ここ
で、プリズム1003は、像性能と歪みを補正し、テレ
セントリックな系とするために、3つの光学作用面をそ
れぞれ回転対称軸を有しない3次元曲面で構成するのが
望ましく、ここでは、基本光軸を含み、紙面に平行な平
面にのみ対称な曲面構造をなしている。
【0045】更に、ヘッドマウントディスプレイ100
6における視線検出系の光学作用について説明する。裸
眼用赤外発光ダイオード1060(奥行き方向に2
個)、眼鏡用赤外発光ダイオード1061(奥行き方向
に2個)から発した光は、第2の光学作用面bに設けら
れた開口部1012,1013,1014,1015を
通して、視線検出系の光軸とは異なる方向から観察者の
目1005を照明する。その照明光は、観察者の角膜9
10、瞳孔で反射散乱され、角膜910で反射した光は
角膜反射像d,eを形成し、瞳孔で散乱した光は瞳孔像
を形成する。これらの光は、第2の光学作用面bに設け
られた開口部1010を通して、結像レンズ1062
a,1062bによりイメージセンサー1063上に結
像される。イメージセンサー1063から得られる観察
者の目1005の画像は、前述した視線検出原理によっ
て構成された注視点検出回路1064によって注視点デ
ータを出力することができる。
【0046】ここで、結像レンズ系は2枚の結像レンズ
1062a,1062bにより構成されている。特に、
結像レンズ1062bは楔形状をしたレンズで、これに
より結像レンズ系を少ないレンズで構成することがで
き、小型化に適している。この結像レンズ1062bの
斜めの面に曲率をつけることで、第2の光学作用面bで
発生する偏心収差を有効に補正することができる。更
に、前記結像レンズ系には少なくとも非球面を1面設け
ると、軸外の結像性能を補正する上で有効である。前記
結像レンズ系の絞りは、第2の光学作用面bに設けた開
口部に近い方が、開口部1010を小さくすることがで
き、観察系に対する中抜けを防ぐのに有効であり、でき
れば開口部と絞りが一致しているのが望ましい。開口部
は、2mmより小さく設定した方が、観察者の目100
5の瞳孔より小さくなり、更に観察系に対する中抜けを
防ぐのに有効である。観察者の目1005を照明する光
は、視感度の低い光が良いので赤外光を使用している。
このとき、前記結像レンズ系に可視光をカットする部材
のレンズを少なくとも1個設けると、視線の検出精度を
向上することができる。
【0047】図23は、プリズム1003を側面から見
た図である。ここで、第2の光学作用面bは、反射用の
ミラーコーティングが施されているが、結像レンズ10
62a,1062b及び赤外発光ダイオード1060,
1061用の開口部、即ち、ミラーコーティング未処理
部(1010は結像用、1012,1013は裸眼用赤
外発光ダイオード用、1014,1015は眼鏡用赤外
発光ダイオード用)が設けられている。なお、前述した
ように、これら開口部1010,1012〜1015は
ファインダー観察系に影響のない程度に小さなものであ
り、2mm以下ぐらいが望ましい。
【0048】このようにミラーコーティング部に開口部
1010,1012〜1015を設け、照明光源である
赤外発光ダイオード1060,1061をプリズム10
03を挟んで観察者の目1005と反対側に配置したた
め、プリズム1003の屈折力を強くし高視野化した場
合でも、観察者の目1005の高さに近い位置から適切
に照明することができる。
【0049】ここで、赤外発光ダイオード1060,1
061は、異なる配置で裸眼用と眼鏡用とを使い分けて
いる。2個の裸眼用赤外発光ダイオード1060は、光
軸からやや離れた下部から同一高さで、光軸対称に狭い
幅で左右1個ずつ、眼鏡用赤外発光ダイオード1061
は、光軸からかなり離れた下部から同一高さで、光軸対
称に広い幅で左右1個ずつ配置されている。その理由は
3つであり、1つ目の理由は、眼球距離によってより良
い照明条件を得るためで、できるだけ目の検出エリアを
均等に照明するような位置になっている。2つ目の理由
は、角膜反射像d,eが瞼でケラレないような高さにす
る必要があるため、裸眼用赤外発光ダイオード1060
は、眼鏡用赤外発光ダイオード1061に比べて高い位
置にある。3つ目の理由は、赤外光が眼鏡に反射してで
きるゴーストが、検出に影響の少ない周辺部に現れるよ
うにするため、眼鏡用赤外発光ダイオード1061は、
裸眼用赤外発光ダイオード1060より左右方向及び下
方向に離れた位置にある。なお、眼球と眼鏡の判別は、
角膜反射像d,eの間隔|xd′−xe′|から、眼球
とプリズム1003との間の距離算出することにより行
う。
【0050】視線検出回路1064は、イメージセンサ
ー1063上の撮影者の目1005の像を基に、前述し
た原理に従い撮影者の表示素子1002の画面上の注視
点を求めるものである。
【0051】<パソコンユニットの説明>次に、パソコ
ンユニットについて説明する。
【0052】図22において、1008はパソコンユニ
ットである。ここで、1814はCPU(中央演算処理
装置)で、プログラムやデータの演算を行う。1813
は各デバイスを結ぶシステムバス、1818はROM
(リードオンリーメモリ)1816やRAM(ランタム
アクセスメモリ)1817の制御を行うメモリコントロ
ーラ、1812はビデオRAM1811に書き込まれた
内容がディスプレイに表示されるように制御するビデオ
グラフィックコントローラである。1815はポインテ
イングデバイス或いはキーボードを制御するアクセサリ
ーデバイスコントローラであり、本例においては、ヘッ
ドマウントディスプレイ1006の視線検出回路106
4に接続される。1819は周辺装置制御用のI/Oチ
ャネルであり、本例においては、ヘッドマウントディス
プレイ1006の表示回路1007に接続される。
【0053】以上のような構成において、ヘッドマウン
トディスプレイ1006の視線検出回路1064により
検出された操作者の視線位置情報をパコンユニット10
08のポインティングデバイスとして適用することがで
き、画面のスクロールやメニュー選択に応用することが
できる。また、同時に外部モニター1009にパソコン
画面を表示することができるため、操作者以外の人がパ
ソコン画面を見ることができる。また、片目用のヘッド
マウントディスプレイを用いれば、操作者自身も外部モ
ニター1009を見ることができる。
【0054】
【発明が解決しようとする課題】しかしながら、上述し
た従来例にあっては、3次元仮想空間におけるユーザの
注目点が明確に特定できないことに起因する制限があっ
た。
【0055】例えば、従来の3次元CGにおいては、C
RT(陰極線管)のような表示装置上に表示した3次元
仮想空間の情景を示す画像の上に、ユーザがコントロー
ル可能なポインタを表示し、そのポインタが示す位置
(2次元座標)に重なった仮想空間内の物体の中心位置
(或いは物体の面の位置)をユーザの仮想注目点(3次
元座標)と仮定する場合が多かった。
【0056】しかし、この場合、仮想空間におけるユー
ザの空間的注目点は、必ず空間に設定された物体に依存
していた(即ち、物体の無い場所では空間的注目点を特
定できない)。この結果、例えば、ユーザが自由に空間
的注目点を変えることで視点速度をコントロールするよ
うな仮想現実シミュレーション、或いはユーザが任意の
空間的位置に物体を連続的に配置していくような空間的
描画を実現する仮想現実シミュレーションのようなユー
ザの制御の自由度が高い処理は不可能であるという問題
点があった。
【0057】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、従来に比べて制御の自由度が飛躍
的に拡大した仮想現実シミュレーションを実現すること
ができる仮想現実方法及び装置を提供しようとするもの
である。
【0058】また、本発明の第2の目的とするところ
は、上述したような仮想現実装置を円滑に制御すること
ができる記憶媒体を提供しようとするものである。
【0059】
【課題を解決するための手段】上記第1の目的を達成す
るために本発明の請求項1記載の仮想現実方法は、ユー
ザの両眼の視線位置を検出する視線位置検出工程と、3
次元仮想空間に前記両眼に対応する2つの独立した視点
(カメラ)を設定する視点設定工程と、前記両眼の視線
位置に基づいて前記3次元仮想空間におけるユーザの仮
想注目点を計算する仮想注目点計算工程と、前記2つの
視点からモデルを空間的・幾何学的配置を考慮して見た
ときの2つの独立した情景(2次元画像)を形成する画
像形成工程と、形成した各画像を映像信号に変換する映
像信号変換工程と、変換後の各映像を表示する映像表示
工程とを具備したことを特徴とする。
【0060】また、上記第1の目的を達成するために本
発明の請求項2記載の仮想現実方法は、請求項1記載の
仮想現実方法において、前記仮想注目点計算工程からの
仮想注目点に基づいて前記2つの視点の移動速度を設定
する移動速度設定工程を具備したことを特徴とする。
【0061】また、上記第1の目的を達成するために本
発明の請求項3記載の仮想現実方法は、請求項1記載の
仮想現実方法において、前記仮想注目点計算工程からの
仮想注目点に基づいて前記3次元仮想空間において前記
モデルを配置するモデル配置工程を具備したことを特徴
とする。
【0062】また、上記第1の目的を達成するために本
発明の請求項4記載の仮想現実装置は、ユーザの両眼の
視線位置を検出する視線位置検出手段と、3次元仮想空
間に前記両眼に対応する2つの独立した視点(カメラ)
を設定する視点設定手段と、前記両眼の視線位置に基づ
いて前記3次元仮想空間におけるユーザの仮想注目点を
計算する仮想注目点計算手段と、前記2つの視点からモ
デルを空間的・幾何学的配置を考慮して見たときの2つ
の独立した情景(2次元画像)を形成する画像形成手段
と、形成した各画像を映像信号に変換する映像信号変換
手段と、変換後の各映像を表示する映像表示手段とを具
備したことを特徴とする。
【0063】また、上記第1の目的を達成するために本
発明の請求項5記載の仮想現実装置は、請求項4記載の
仮想現実装置において、前記仮想注目点計算手段からの
仮想注目点に基づいて前記2つの視点の移動速度を設定
する移動速度設定手段を具備したことを特徴とする。
【0064】また、上記第1の目的を達成するために本
発明の請求項6記載の仮想現実装置は、請求項4記載の
仮想現実装置において、前記仮想注目点計算手段からの
仮想注目点に基づいて前記3次元仮想空間において前記
モデルを配置するモデル配置手段を具備したことを特徴
とする。
【0065】また、上記第2の目的を達成するために本
発明の請求項7記載の記憶媒体は、ユーザの両眼の視線
位置情報から計算した3次元仮想空間におけるユーザの
仮想注目点に基づいて仮想現実シミュレーションを行う
仮想現実装置を制御するプログラムを格納する記憶媒体
であって、ユーザの両眼の視線位置を検出する視線位置
検出モジュールと、3次元仮想空間に前記両眼に対応す
る2つの独立した視点(カメラ)を設定する視点設定モ
ジュールと、前記両眼の視線位置に基づいて前記3次元
仮想空間におけるユーザの仮想注目点を計算する仮想注
目点計算モジュールと、前記2つの視点からモデルを空
間的・幾何学的配置を考慮して見たときの2つの独立し
た情景(2次元画像)を形成する画像形成モジュール
と、形成した各画像を映像信号に変換する映像信号変換
モジュールと、変換後の各映像を表示する映像表示モジ
ュールとを有するプログラムを格納したことを特徴とす
る。
【0066】また、上記第2の目的を達成するために本
発明の請求項8記載の記憶媒体は、請求項7記載の記憶
媒体において、前記プログラムは、仮想注目点計算モジ
ュールからの仮想注目点に基づいて前記2つの視点の移
動速度を設定する移動速度設定モジュールを有すること
を特徴とする。
【0067】また、上記第2の目的を達成するために本
発明の請求項9記載の記憶媒体は、請求項7記載の記憶
媒体において、前記プログラムは、前記仮想注目点計算
モジュールからの仮想注目点に基づいて前記3次元仮想
空間において前記モデルを配置するモデル配置モジュー
ルを有することを特徴とする。
【0068】
【発明の実施の形態】以下、本発明の各実施の形態を図
1〜図12に基づき説明する。
【0069】(第1の実施の形態)まず、本発明の第1
の実施の形態を図1〜図9に基づき説明する。図1は、
本発明の第1の実施の形態に係る仮想現実装置の概念を
示す図であり、同図において、3は視線入力スカウタ
(ヘッドマウントディスプレイの一種)で、眼鏡のよう
な形状をなしている。本装置による仮想現実状態の体験
者1が、この視線入力スカウタ3を眼鏡と同様に装着す
ることによって、該視線入力スカウタ3内の左右のモニ
タ3a,3a′を見ることで立体映像を観察することが
でき、また、付属のイヤホーンによりステレオ音声を聞
くことができる。また、この装置に組み込まれた2つの
視線検出装置(視線入力センサ)3b,3b′は、体験
者1の左右の眼球の視線位置を検出し、その検出データ
をコンピュータ5に送信する。
【0070】2は磁気による3Dセンサー(位置方向検
出装置)で、トランスミッタ2a(体験者1の周辺に固
定される)及びレシーバ2b(体験者1の頭部に取り付
けられている)が接続されている。この3Dセンサー2
は、トランスミッタ2aが発生した磁界中におけるレシ
ーバ2bの誘起電流の大きさを処理することで、体験者
(頭部)1の空間的位置(x,y,z)と方向(ピッ
チ:Pitch、ヨー:Yaw、ロール:Roll)とを検出し、そ
の検出データをコンピュータ5に送信する。
【0071】コンピュータ5は、視線入力スカウタ3か
ら収集した体験者1の左右の眼球の視線位置データ及び
3Dセンサー2から収集した体験者1の3次元位置と方
向のデータを用い、予め入力されたモデル(物体)を3
次元仮想空間で2つの視点(カメラ)から見た際の情景
を示す2つの映像(2次元画像)を計算する。この2つ
の映像は、2台のスキャンコンバータ4,4′を介して
2つの映像信号に変換され、それぞれが視線入力スカウ
タ3内のモニタ3a,3a′へ送信される。この結果、
体験者1は目の前のこの3次元仮想空間の映像6を観察
することにより、仮想空間の疑似体験をする。
【0072】図2は、本実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。同図におい
て、101は制御装置で、本装置の構成要素全体の制御
を司るものである。102はデータ入力装置で、例えば
キーボード等からなり、物体のモデリングデータ、シミ
ュレーションデータ、視点条件等の初期値の入力を行う
ものである。103はコマンド入力装置で、例えばマウ
ス等からなり、シミュレーションの開始・終了、視点速
度の調節/非調節の切り替え等を指示するものである。
104はファイル装置で、不揮発性メモリ等からなり、
モデルデータ等を格納する。105は演算装置で、各種
変数の更新及びモデルを用いた3次元画像の生成等を行
うものである。106はデータ表示装置で、CRT(陰
極線管)モニタ等からなり、ユーザへの指示情報や、入
力したデータ等を表示するものである。107はメモリ
装置で、本装置の起動中に物体のモデリングデータ及び
視点条件等の各種データを格納するものである。10
8,108′はビデオメモリ装置で、レンダリング後の
2つの画像のピクセル値を格納するものである。10
9,109′は映像変換装置で、ビデオメモリ装置10
8,108′内の各画像データを映像信号として出力す
るものである。110は位置方向検出装置で、例えば磁
気センサー等からなり、仮想現実シミュレーションの体
験者の実空間における位置(x,y,z)及び方向(ピ
ッチ:Pitch、ヨー:Yaw、ロール:Roll)を検出・出力
するものである。この位置方向検出装置110には、ト
ランスミッタ部111(体験者の周辺に固定)及びレシ
ーバ部112(体験者の頭部に固定)が接続される。1
13は視線入力スカウタで、仮想現実シミュレーション
の体験者が装着するものであり、2つの視線検出部11
3a,113a′(体験者の視線データの検出)と2つ
の映像表示部113b,113b′(映像変換装置10
9,109′からの映像信号を表示)とで構成されてい
る。
【0073】次に、本実施の形態に係る仮想現実装置に
おける仮想注目点(3次元仮想空間におけるユーザの注
目点)の計算方法について、図3〜図7を用いて説明す
る。
【0074】図3は、左右の映像フレーム内の視線検出
位置の一例を示す図であり、左目の視線位置をSl’
(Sl’、t’)、また、右目の視線位置をSr’(S
r’、t’)とする。但し、各座標とも、各映像フレー
ムの中心点Ol、またはOrを原点としたときの座標で
ある。また、人間の両目は、それぞれ異なった高さのも
のを見ることができないという性質により、本実施の形
態ではy座標は等しいと仮定した。また、図3は視線検
出位置のx座標がSl’>0且つSr’<0の場合の例
であり、後述する図4及び図5はこれに基づいたものと
なっている。
【0075】図4は、3次元仮想空間における2つの視
点、2つの投影面及び仮想注目点との関係を示した図で
ある。この図における2つの投影面(本実施の形態にお
いては、説明の簡素化のため各視点のニアクリッピング
面を投影面としているが、本発明はこれに限られるもの
ではない)と図3に示した2つの映像フレームとを対応
させることにより、左右の視線検出位置(図3参照)に
対応する図5に示す左右の投影面上での点を、それぞれ
P1(p1、q)、P2(p2、q)とする(但し、各
投影面の中心点を原点とする。また、視線検出位置に対
応しているため、y座標は等しくしてある)。2つの視
点の向き及びルックアップベクトル(視点のy軸方向の
ベクトル)が平行であることから、仮想空間において、
視点1Bと対応点P1を通る直線及び視点2Cと対応点
P2の通る直線は互いに交わることとなり、この交点を
ユーザの仮想注目点Q’(ρr’、σ’、τ’)(ワー
ルド座標系)と仮定する。
【0076】そして、この仮想注目点Q’を2つの視点
における視点座標系で示した座標をそれぞれQl(ρl、
σ、τ)とQr(ρr、σ、τ)とし(但し、両座標とも
y座標とz座標は等しいので同じ変数とした)、以下で
は、まず、この2つの座標を求める。
【0077】図6及び図7は、視点座標系におけるそれ
ぞれxz平面及びyz平面から仮想注目点を示した図
で、以下の計算で用いられる。
【0078】まず、図6に基づいては、Ql(ρl、σ、
τ)とQr(ρr、σ、τ)の内のx座標であるρlとρr
及びz座標であるτを求める。図6において、AD//
BC//EF且つAB//DCであるので、下記式1〜
式3が成立する。
【0079】 ρl−xr=d …(1) ρl/(h+1)=p1/1 …(2) ρr/(h+1)=p2/1 …(3) これら式1〜式3を下記式4〜式6の連立方程式とし
て、h、ql、qrがそれぞれ求められる。
【0080】 h=1(d/(p1−p2)−1) …(4) ρl=p1d/(p1−p2) …(5) ρr=p2d/(p1−p2) …(6) 従って、τは下記式7により求められる。
【0081】 τ=h+1=1d/(p1−p2) …(7) 一方、図7に基づいては、Ql(ρl、σ、τ)とQr
(ρr、σ、τ)のy座標であるσを求める。図7にお
いて、下記式8が成立する。
【0082】 |σ|:(h+1)=|q|:1 …(8) 従って、上記式8と前記式6とにより下記式9が成立す
る。
【0083】 σ=qd/(p1−p2) …(9) 前記式5〜式7及び式9により、視点1の視点座標系に
おける仮想注目点Ql及び視点2の視点座標系における
仮想注目点Qrは、下記式10及び式11により求めら
れる。
【0084】 Ql(p1d/(p1−p2)qd/(p1−p2)1d/(p1−p2))…(10 ) Qr(p2d/(p1−p2)qd/(p1−p2)1d/(p1−p2))…(11 ) 但し、p1とp2は下記式12及び式13を満足する値で
ある。
【0085】 sl:s=p1:a → p1=asl’/s …(12) sr:s=p2:a → p2=asr’/s …(13) そして、更に求めたQl(またはQr)からワールド座標
系への座標変換を行うことにより、仮想注目点のワール
ド座標系での仮想注目点Q’(ρ’、σ’、τ’)が求
められる(本実施の形態では、説明の簡素化のために視
点座標系からワールド座標系への変換に関する説明は省
略する。)。
【0086】なお、以上の記述は、左右の映像フレーム
における視線検出位置がsl’<0且つsr’<0の場合
及びsl’>0且つsr’>0の場合も同様に説明可能で
ある(図は省略する)。
【0087】上述した仮想空間における仮想注目点の計
算は、以下のVR(バーチャルリアリティー)シミュレ
ーション処理の中で用いられる。
【0088】次に、本実施の形態に係る仮想現実装置の
VRシミュレーション処理動作について、図8に基づき
説明する。図8は、本実施の形態に係る仮想現実装置の
VRシミュレーション処理動作を示すフローチャートで
ある。
【0089】仮想現実装置のオペレータがコマンド入力
装置103であるマウスを用い、プログラム開始の指示
を与えると、VRシミュレーション処理動作が開始す
る。
【0090】まず、ステップS801で制御装置101
は、予め作成されたファイル装置104に格納されてい
る2個のモデル(モデル1、モデル2)ファイルからモ
デルデータをメモリ装置107にロードする。なお、こ
れらのモデルデータは、いずれも従来の技術で説明した
座標値と面ループデータで記述されていて(また、ファ
イルの最後に仮想空間におけるモデルの初期位置も追加
されている)、以下のようなものであるとする。
【0091】▽モデル1 「座標値データ」 81:(-0.5,0.5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5) 5:(-0.5,-0.5,0.5)、6:(0.5,-0.5,-0.5)、7:(0.5,-0.5,-
0.5)、8:(-0.5,-0.5,-0.5) ※左端の数字「8」は、モデル1の図形が1:()〜8:()の
8個の3次元空間における座標によって定義されている
ことを示しており、()内が3次元(x,y,z)座標値
である。
【0092】「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(42
673)、 (0.0,1.0,-2.0) → 初期値※左端の数字「6」は、モ
デル1の図形が()で示す6個の面で構成されていること
を示し、()内の数値は上記の3次元空間における座標の
番号を示している。例えば、(41234)は、上記の座標4:
(-0.5,0.5,-0.5)、1:(-0.5,0.5,0.5)、2:(0.5,0.5,0.
5)、3:(0.5,0.5,-0.5)、4:(-0.5,0.5,-0.5)を結んで形
成される閉曲面を意味している。
【0093】ここで閉曲面には表、裏があるため、例え
ば座標4,1,2,3,4を順次左回りに結んで閉曲面を形成し
たとき、手前側を表面とする。
【0094】また、2行目の(0.0,1.0,-2.0)は、モデル
1を形成する初期値座標である。
【0095】▽モデル2 4 1:(-5.0,0.0,0.0)、2:(5.0,0.0,0.0)、3:(5.0,0.0,-10.
0)、4:(-5.0,0.0,-10.0)、 1 (42341) (0.0,0.0,-5.0) → 初期値 なお、本実施の形態では、説明の簡素化のためにモデル
の色や表面のテクスチャーは考慮にいれないものとす
る。
【0096】次に、ステップS802で位置方向検出装
置110の初期化を行う。即ち、VRシステムのオペレ
ータは、視線入力スカウタ113と位置方向検出装置1
10とを装着した体験者1を適当な位置で直立して真正
面を見ている状態で静止させる。そして、この状態でオ
ペレータがコマンド入力装置103であるマウスにより
指示を与えると、位置方向検出装置110はこの状態の
位置と方向とを、原点(0.0,0.0,0.0)及び原回転角
(0.0,0.0,0.0:即ち、回転がない状態)として初期化
する。
【0097】次に、ステップS803で制御装置101
の命令により演算装置105は、3次元仮想空間に設定
する2つの視点(カメラ)の位置Cl(al,bl,cl)とC
r(ar,br,cr)を、それぞれ、例えば、(-0.05,1.0,0.
0)、(0.05,1.0,0.0)で、また、視点方向vl=(xxl、y
yl、zzl)、vr=(xxr、yyr、zzr)を、それぞ
れ、例えば、(0.0,0.0,-1.0)、(0.0,0.0,-1.0)で初期化
する。また、2つの視点の縦横の視角(λl、μl)及び
(λr、μr)の組を両視点共に、(0.8,0.6)で初期化
した後、VRシミュレーションループが開始する。
【0098】次に、ステップS804で制御装置101
の命令によりコマンド入力装置103であるマウスは、
ユーザからCGシミュレーション処理終了の指示がある
か否かを判断し、指示がある場合はVRシミュレーショ
ンを終了し、指示がない場合はステップS805へ進
む。
【0099】ステップS805では、制御装置101の
命令により位置方向検出装置110は、体験者1の頭部
の位置(x,y,z)及び回転角(ピッチ:Pitch、ヨ
ー:Yaw、ロール:Roll)を検出し、その検出データを
メモリ装置107へ格納する。
【0100】次に、ステップS806で制御装置101
の命令により視線入力スカウタ113内の第1の視線検
出部113aは、体験者1の視線位置データSl’(s
l’、tl’)、Sr’(sr’、tr’)(図3参照)を
検出し、その検出データをメモリ装置107へ格納す
る。
【0101】次に、ステップS807で制御装置101
の命令により演算装置105は、前記ステップS806
において求めた体験者1の両目の視線検出位置Sl’、
Sr’及び現時点の2つの視点の位置及び方向を用い、
前述の方法に基づいて、視点1(または視点2)の視点
座標系における仮想注目点Ql(ρl、σ、τ)とQr
(ρr、σ、τ)を求める。
【0102】次に、ステップS808で視点移動方向単
位ベクトルの計算を行う。即ち、制御装置101の命令
により演算装置105は、まず、メモリ装置107内の
体験者1の回転角(Pitch、Yaw、Roll)=(β、α、
γ)を用いて、下記式14により視点移動方向単位ベク
トルv0=(p0,q0,r0)(ワールド座標系)に変換す
る。
【0103】 v0=Az・Ax・Ay・v …(14) 但し、vはz軸負方向の単位ベクトル(0.0,-1.0)、ま
たはAx、Ay、Azは、それぞれx時、y軸、z軸の周
りの回転を示す行列(3×3)で、 1 0 0 cosβ 0 sinβ cosγ -sinγ 0 0 cosα -sinα 0 1 0 sinγ cosγ 0 0 sinα cosα -sinβ 0 cosβ 0 0 1 であるとする。
【0104】次に、ステップS809で視点移動速度の
計算を行う。即ち、制御装置101の命令により演算装
置105は、前記ステップS807において得られた視
点座標系における仮想注目点Ql(ρl、σ、τ)(また
はQr(ρr、σ、τ))のz座標τ(奥行き情報)に基
づき、下記式15により視点移動速度を計算する。
【0105】 d=f・τ …(15) 但し、ここでfは視点移動速度dを計算するための適切
な定数である。
【0106】次に、ステップS810で仮想空間内の2
つの視点(カメラ)の移動処理を行う。即ち、制御装置
101の命令により演算装置105は、前記ステップS
808において得られた視点移動方向単位ベクトルv0
及び前記ステップS809において得られた視点移動速
度dに基づいて、左右の視点位置と方向を更新する。即
ち、左右の視点位置Cl(al,bl,cl)、Cr(ar,br,c
r)及び視点方向vl=(xxl、yyl、zzl)、vr=(xx
r、yyr、zzr)の各値を下記式16〜式27により更
新する。
【0107】 al←al+d・p0 … (16) bl←bl+d・q0 … (17) cl←cl+d・r0 … (18) ar←ar+d・p0 … (19) br←br+d・q0 … (20) cr←cr+d・r0 … (21) xxl←x0 …(22) yyl←y0 …(23) zzl←z0 …(24) xxr←x0 …(25) yyr←y0 …(26) zzr←z0 …(27) 次に、ステップS811で最終的な画像のレンダリング
処理を行う。即ち、制御装置101の命令により演算装
置105は、仮想空間における2つの視点(カメラ)か
ら見たモデル1とモデル2の情景を示す画像を前述の方
法により計算し、ビデオメモリ装置108,108’に
設定する。
【0108】次に、ステップS812で体験者1への映
像の表示を行う。即ち、制御装置101の命令によりビ
デオメモリ装置108,108’内の画像を映像変換装
置109,109’を介して、視線入力スカウタ113
内の映像表示部113b,113b’へ送信する。この
結果、視線入力スカウタ113を装着した体験者1は、
図9(a)、(b)に示すような立方体形状の物体が1
個配置されている情景(モデル1とモデル2)の立体画
像を見ることになる。
【0109】前記ステップS812の処理を終了後は、
前記ステップS804へ戻る。
【0110】上述したフローの実行により、3次元仮想
空間における2つの視点と仮想注目点までの距離(奥行
き情報)に応じて視点移動速度が変化する(遠くを注目
しているときは視点移動速度が増大し、近くを注目して
いるときには視点移動速度が減少する)ような立体視に
よる仮想現実シミュレーションを実現できる。
【0111】以上詳述したように、本実施の形態に係る
仮想現実装置によれば、ユーザの両眼の視線情報に基づ
いて計算した3次元仮想空間における空間的注目点に基
づいて仮想現実シミュレーションを行うようにしたの
で、ユーザが意識的に空間的注目点を変えることで視点
移動速度をコントロールするようなシミュレーション或
いはユーザが任意の空間的位置に物体を連続的に配置し
ていくような空間的描画を実現するシミュレーション
等、従来に比べて制御の自由度が飛躍的に拡大した仮想
現実シミュレーションを実現できるという効果を奏す
る。
【0112】(第2の実施の形態)次に、本発明の第2
の実施の形態として、3次元仮想空間におけるユーザの
仮想注目点に基づいて仮想空間内に物体を配置する3次
元描画システムの適用例について図10及び図11を用
いて説明する。
【0113】なお、本実施の形態に係る仮想現実装置の
基本的な構成は、上述した第1の実施の形態における図
1及び図2と同一であるから、これら図1及び図2を流
用して説明する。
【0114】図10は本発明の第2の実施の形態に係る
仮想現実装置のVRシミュレーション処理動作を示すフ
ローチャートである。
【0115】仮想現実装置のオペレータがコマンド入力
装置103であるマウスを用い、プログラム開始の指示
を与えると、VRシミュレーション処理動作が開始す
る。
【0116】まず、ステップS1001で制御装置10
1は、予め作成されたファイル装置104に格納されて
いる2個のモデル(モデル1、モデル2)ファイルから
モデルデータをメモリ装置107にロードする。なお、
これらのモデルデータは、いずれも従来の技術で説明し
た座標値と面ループデータで記述されていて(また、フ
ァイルの最後に仮想空間におけるモデルの初期位置も追
加されている)、以下のようなものであるとする。
【0117】▽モデル1 「座標値データ」 81:(-0.5,0.5,0.5)、 2:(0.5,0.5,0.5)、 3:(0.5,0.5,-0.
5)、4:(-0.5,0.5,-0.5)、 5:(-0.5,-0.5,0.5)、6:(0.5,-0.5,0.5)、7:(0.5,-0.5,-0.
5)、8:(-0.5,-0.5,-0.5) ※左端の数字「8」は、モデル1の図形が1:()〜8:()の
8個の3次元空間における座標によって定義されている
ことを示しており、()内が3次元(x,y,z)座標値
である。
【0118】「面ループデータ」 6 (41234)、(45876)、(41562)、(44378)、(41485)、(42
673)、 (0.0,1.0,-2.0) → 初期値 ※左端の数字「6」は、モデル1の図形が()で示す6個
の面で構成されていることを示し、()内の数値は上記の
3次元空間における座標の番号を示している。例えば、
(41234)は、上記の座標4:(-0.5,0.5,-0.5)、1:(-0.5,0.
5,0.5)、2:(0.5,0.5,0.5)、3:(0.5,0.5,-0.5)、4:(-0.
5,0.5,-0.5)を結んで形成される閉曲面を意味してい
る。
【0119】ここで閉曲面には表、裏があるため、例え
ば座標4,1,2,3,4を順次左回りに結んで閉曲面を形成し
たとき、手前側を表面とする。
【0120】また、2行目の(0.0,1.0,-2.0)は、モデル
1を形成する初期値座標である。
【0121】▽モデル2 4 1:(-5.0,0.0,0.0)、2:(5.0,0.0,0.0)、3:(5.0,0.0,-10.
0)、4:(-5.0,0.0,-10.0)、 1 (42341) (0.0,0.0,-5.0) → 初期値 なお、本実施の形態では、説明の簡素化のためにモデル
の色や表面のテクスチャーは考慮にいれないものとす
る。
【0122】次に、ステップS1002で位置方向検出
装置110の初期化を行う。即ち、VRシステムのオペ
レータは、視線入力スカウタ113と位置方向検出装置
110とを装着した体験者1を適当な位置で直立して真
正面を見ている状態で静止させる。そして、この状態で
オペレータがコマンド入力装置103であるマウスによ
り指示を与えると、位置方向検出装置110はこの状態
の位置と方向とを、原点(0.0,0.0,0.0)及び原回転角
(0.0,0.0,0.0:即ち、回転がない状態)として初期化
する。
【0123】次に、ステップS1003で制御装置10
1の命令により演算装置105は、3次元仮想空間に設
定する2つの視点(カメラ)の位置Cl(al,bl,cl)と
Cr(ar,br,cr)を、それぞれ、例えば、(-0.05,1.0,
0.0)、(0.05,1.0,0.0)で(この場合、視点間の距離が
0.1となる)、また、視点方向vl=(xxl、yyl、
zzl)、vr=(xxr、yyr、zzr)を、それぞれ、例
えば、(0.0,0.0,-1.0)、(0.0,0.0,-1.0)で初期化する。
また、2つの視点の縦横の視角(λl、μl)及び(λ
r、μr)の組を両視点共に、(0.8,0.6)で初期化す
る。
【0124】次に、ステップS1004で物体の配置位
置の座標を格納する配列M(i)(i=1,…,n)
(nは十分大きい値であるとする)を作成し、全ての要
素を、例えば(0.0,0.0,0.0)で初期化する。
【0125】次に、ステップS1005で物体の配置数
を格納する変数kを0で初期化した後、VRシミュレー
ションループが開始する。
【0126】次に、ステップS1006で制御装置10
1の命令によりコマンド入力装置103であるマウス
は、ユーザからCGシミュレーション処理終了の指示が
あるか否かを判断し、指示がある場合はVRシミュレー
ションを終了し、指示がない場合はステップS1007
へ進む。
【0127】ステップS1007では、制御装置101
の命令により位置方向検出装置110は、体験者1の頭
部の位置(x,y,z)及び回転角(ピッチ:Pitch、
ヨー:Yaw、ロール:Roll)を検出し、その検出データ
をメモリ装置107へ格納する。
【0128】次に、ステップS1008で制御装置10
1の命令により視線入力スカウタ113内の第1の視線
検出部113aは、体験者1の視線位置データSl’
(sl’、tl’)、Sr’(sr’、tr’)(図3参
照)を検出し、その検出データをメモリ装置107へ格
納する。
【0129】次に、ステップS1009で物体の配置数
を格納する変数kを1だけインクリメントする。
【0130】次に、ステップS1010で制御装置10
1の命令により演算装置105は、前記ステップS10
08において求めた両目の視線位置データSl’、Sr’
及び現時点の2つの視点の位置・方向を用い、前述の方
法に基づいて、ワールド座標系におけるユーザの仮想注
目点を求め、配列Mのk番目の要素としてメモリ装置1
07に格納する。
【0131】次に、ステップS1011で視点移動方向
単位ベクトルの計算を行う。即ち、制御装置101の命
令により演算装置105は、まず、メモリ装置107内
の体験者1の回転角(Pitch、Yaw、Roll)=(β、α、
γ)を用いて、下記式28により視点移動方向単位ベク
トルv0=(p0,q0,r0)(ワールド座標系)に変換す
る。
【0132】 v0=Az・Ax・Ay・v …(28) 但し、vはz軸負方向の単位ベクトル(0.0,-1.0)、ま
たはAx、Ay、Azは、それぞれx時、y軸、z軸の周
りの回転を示す行列(3×3)で、 1 0 0 cosβ 0 sinβ cosγ -sinγ 0 0 cosα -sinα 0 1 0 sinγ cosγ 0 0 sinα cosα -sinβ 0 cosβ 0 0 1 であるとする。
【0133】次に、ステップS1012で視点移動速度
の計算を行う。即ち、制御装置101の命令により演算
装置105は、前記ステップS1010において得られ
た視点座標系における仮想注目点Ql(ρl、σ、τ)
(またはQr(ρr、σ、τ))のz座標τ(奥行き情
報)に基づき、下記式29により視点移動速度を計算す
る。
【0134】 d=f・τ …(29) 但し、ここでfは視点移動速度dを計算するための適切
な定数である。
【0135】次に、ステップS1013で仮想空間内の
2つの視点(カメラ)の移動処理を行う。即ち、制御装
置101の命令により演算装置105は、前記ステップ
S1011において得られた視点移動方向単位ベクトル
v0及び前記ステップS1012において得られた視点
移動速度dに基づいて、左右の視点位置と方向を更新す
る。即ち、左右の視点位置Cl(al,bl,cl)、Cr(ar,
br,cr)及び視点方向vl=(xxl、yyl、zzl)、vr
=(xxr、yyr、zzr)の各値を下記式30〜式41に
より更新する。
【0136】 al←al+d・p0 … (30) bl←bl+d・q0 … (31) cl←cl+d・r0 … (32) ar←ar+d・p0 … (33) br←br+d・q0 … (34) cr←cr+d・r0 … (35) xxl←x0 …(36) yyl←y0 …(37) zzl←z0 …(38) xxr←x0 …(39) yyr←y0 …(40) zzr←z0 …(41) 次に、ステップS1014で最終的な画像のレンダリン
グ処理を行う。即ち、制御装置101の命令により演算
装置105は、仮想空間における2つの視点(カメラ)
から見たモデル2(位置の初期値を利用)及び配列M
(i)(i=1,…,k)が示す位置に置かれたk個分
のモデル1(位置の初期値は無視)の情景を示す2つの
画像を前述の方法により計算し、ビデオメモリ装置10
8,108’に設定する。
【0137】次に、ステップS1015で体験者1への
映像の表示を行う。即ち、制御装置101の命令により
ビデオメモリ装置108,108’内の画像を映像変換
装置109,109’を介して、視線入力スカウタ11
3内の映像表示部113b,113b’へ送信する。こ
の結果、視線入力スカウタ113を装着した体験者1
は、図11(a)、(b)に示すような立方体形状の物
体が複数個配置されている情景(モデル1とモデル2)
の立体画像を見ることになる。
【0138】前記ステップS1015の処理を終了後
は、前記ステップS1006へ戻る。
【0139】以上のフローの実行により、体験者1が3
次元空間を移動しながら、この空間における体験者1の
仮想注目点に連続的に物体を配置していくような立体視
による3次元描画システムを実現することができる。
【0140】以上詳述したように本実施の形態に係る仮
想現実装置によれば、両眼の視線情報に基づいて計算し
た3次元仮想空間におけるユーザの空間的注目点に基づ
いて仮想現実シミュレーションを行うようにしたので、
ユーザが意識的に空間的注目点を変えることで視点移動
速度をコントロールするようなシミュレーション或いは
ユーザが任意の空間的位置に物体を連続的に配置してい
くような空間的描画を実現するシミュレーション等、従
来に比べて制御の自由度が飛躍的に拡大した仮想現実シ
ミュレーションを実現することができるという効果を奏
する。
【0141】(第3の実施の形態)次に、本発明の記憶
媒体について図12に基づき説明する。
【0142】仮想現実状態を実現する仮想現実装置を制
御するプログラムを格納する記憶媒体には、少なくとも
図12に示すように、「視線位置検出モジュール」、
「視点設定モジュール」、「仮想注目点計算モジュー
ル」、「画像形成モジュール」、「映像信号変換モジュ
ール」、「映像表示モジュール」、「移動速度設定モジ
ュール」、「モデル配置モジュール」の各モジュールを
有するプログラムを格納すればよい。
【0143】ここで、「視線位置検出モジュール」は、
ユーザの両眼の視線位置を検出するプログラムモジュー
ルである。また、「視点設定モジュール」は、3次元仮
想空間に前記両眼に対応する2つの独立した視点(カメ
ラ)を設定するプログラムモジュールである。また、
「仮想注目点計算モジュール」は、前記両眼の視線位置
に基づいて前記3次元仮想空間におけるユーザの仮想注
目点を計算するプログラムモジュールである。また、
「画像形成モジュール」は、前記2つの視点からモデル
を空間的・幾何学的配置を考慮して見たときの2つの独
立した情景(2次元画像)を形成するプログラムモジュ
ールである。また、「映像信号変換モジュール」は、形
成した各画像を映像信号に変換するプログラムモジュー
ルである。また、「映像表示モジュール」は、変換後の
各映像を表示するプログラムモジュールである。また、
「移動速度設定モジュール」は、前記「仮想注目点計算
モジュール」からの仮想注目点に基づいて前記2つの視
点の移動速度を設定するプログラムモジュールである。
また、「モデル配置モジュール」は、前記「仮想注目点
計算モジュール」からの仮想注目点に基づいて前記3次
元仮想空間において前記モデルを配置するプログラムモ
ジュールである。
【0144】
【発明の効果】以上詳述したように本発明の仮想現実方
法及び装置によれば、両眼の視線情報に基づいて計算し
た3次元仮想空間におけるユーザの空間的注目点に基づ
いて仮想現実シミュレーションを行うようにしたので、
ユーザが意識的に空間的注目点を変えることで視点移動
速度をコントロールするようなシミュレーション或いは
ユーザが任意の空間的位置に物体を連続的に配置してい
くような空間的描画を実現するシミュレーション等、従
来に比べて制御の自由度が飛躍的に拡大した仮想現実シ
ミュレーションを実現することができる効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る仮想現実装置
の概念を示す図である。
【図2】本発明の第1の実施の形態に係る仮想現実装置
のシステム構成を示すブロック図である。
【図3】本発明の第1の実施の形態に係る仮想現実装置
における左右の映像フレームにおける視線検出位置の一
例を示す図である。
【図4】本発明の第1の実施の形態に係る仮想現実装置
における3次元仮想空間における視点、投影面、仮想注
目点の各関係を示す図である。
【図5】本発明の第1の実施の形態に係る仮想現実装置
における左右の映像フレームにおける視線検出位置の一
例を示す図である。
【図6】本発明の第1の実施の形態に係る仮想現実装置
における視点座標系でのXZ平面から見た仮想注目点の
一例を示す図である。
【図7】本発明の第1の実施の形態に係る仮想現実装置
における視点座標系でのYZ平面から見た仮想注目点の
一例を示す図である。
【図8】本発明の第1の実施の形態に係る仮想現実装置
におけるVRシミュレーション動作の流れを示すフロー
チャートである。
【図9】本発明の第1の実施の形態に係る仮想現実装置
における左右の映像フレーム上の表示画像の一例を示す
図である。
【図10】本発明の第2の実施の形態に係る仮想現実装
置におけるVRシミュレーション動作の流れを示すフロ
ーチャートである。
【図11】本発明の第2の実施の形態に係る仮想現実装
置における左右の映像フレーム上の表示画像の一例を示
す図である。
【図12】本発明の記憶媒体に格納されるプログラムの
各プログラムモジュールを示す図である。
【図13】一般的なモデリング座標系における3次元物
体を示す図である。
【図14】一般的なモデルデータの一例を示す図であ
る。
【図15】一般的な投影変換のための4つの座標を示す
図である。
【図16】一般的な投影変換を示す図である。
【図17】一般的なスクリーンから投影された表示画像
の一例を示す図である。
【図18】一般的な視線検出方法の原理を示す平面図で
ある。
【図19】一般的な視線検出方法の原理を示す側面図で
ある。
【図20】一般的な仮想現実装置のイメージセンサに投
影される眼球像の概略図である。
【図21】一般的な仮想現実装置のイメージセンサの出
力強度図である。
【図22】一般的な視線検出機能を持つパソコンシステ
ムの一例を示す概略構成図である。
【図23】一般的なVRシステムの問題点を説明するた
めの図である。
【符号の説明】
1 体験者 2 3Dセンサ 2a トランスミッタ 2b レシーバ 3 視線入力スカウタ(HMD) 3a モニタ 3a’ モニタ 3b 視線検出装置 3b’ 視線検出装置 4 スキャンコンバータ 5 コンピュータ 6 体験者が見る3次元仮想空間 101 制御装置 102 データ入力装置 103 コマンド入力装置 104 ファイル装置 105 演算装置 106 データ表示装置 107 メモリ装置 108 ビデオメモリ装置 108’ ビデオメモリ装置 109 映像変換装置 109’ 映像変換装置 110 位置方向検出装置 111 トランスミッタ部 112 レシーバ部 113 視線入力スカウタ 113a 視線検出部 113a’視線検出部 113b 映像表示部 113b’映像表示部

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 ユーザの両眼の視線位置を検出する視線
    位置検出工程と、3次元仮想空間に前記両眼に対応する
    2つの独立した視点(カメラ)を設定する視点設定工程
    と、前記両眼の視線位置に基づいて前記3次元仮想空間
    におけるユーザの仮想注目点を計算する仮想注目点計算
    工程と、前記2つの視点からモデルを空間的・幾何学的
    配置を考慮して見たときの2つの独立した情景(2次元
    画像)を形成する画像形成工程と、形成した各画像を映
    像信号に変換する映像信号変換工程と、変換後の各映像
    を表示する映像表示工程とを具備したことを特徴とする
    仮想現実方法。
  2. 【請求項2】 前記仮想注目点計算工程からの仮想注目
    点に基づいて前記2つの視点の移動速度を設定する移動
    速度設定工程を具備したことを特徴とする請求項1記載
    の仮想現実方法。
  3. 【請求項3】 前記仮想注目点計算工程からの仮想注目
    点に基づいて前記3次元仮想空間において前記モデルを
    配置するモデル配置工程を具備したことを特徴とする請
    求項1記載の仮想現実方法。
  4. 【請求項4】 ユーザの両眼の視線位置を検出する視線
    位置検出手段と、3次元仮想空間に前記両眼に対応する
    2つの独立した視点(カメラ)を設定する視点設定手段
    と、前記両眼の視線位置に基づいて前記3次元仮想空間
    におけるユーザの仮想注目点を計算する仮想注目点計算
    手段と、前記2つの視点からモデルを空間的・幾何学的
    配置を考慮して見たときの2つの独立した情景(2次元
    画像)を形成する画像形成手段と、形成した各画像を映
    像信号に変換する映像信号変換手段と、変換後の各映像
    を表示する映像表示手段とを具備したことを特徴とする
    仮想現実装置。
  5. 【請求項5】 前記仮想注目点計算手段からの仮想注目
    点に基づいて前記2つの視点の移動速度を設定する移動
    速度設定手段を具備したことを特徴とする請求項4記載
    の仮想現実装置。
  6. 【請求項6】 前記仮想注目点計算手段からの仮想注目
    点に基づいて前記3次元仮想空間において前記モデルを
    配置するモデル配置手段を具備したことを特徴とする請
    求項4記載の仮想現実装置。
  7. 【請求項7】 ユーザの両眼の視線位置情報から計算し
    た3次元仮想空間におけるユーザの仮想注目点に基づい
    て仮想現実シミュレーションを行う仮想現実装置を制御
    するプログラムを格納する記憶媒体であって、ユーザの
    両眼の視線位置を検出する視線位置検出モジュールと、
    3次元仮想空間に前記両眼に対応する2つの独立した視
    点(カメラ)を設定する視点設定モジュールと、前記両
    眼の視線位置に基づいて前記3次元仮想空間におけるユ
    ーザの仮想注目点を計算する仮想注目点計算モジュール
    と、前記2つの視点からモデルを空間的・幾何学的配置
    を考慮して見たときの2つの独立した情景(2次元画
    像)を形成する画像形成モジュールと、形成した各画像
    を映像信号に変換する映像信号変換モジュールと、変換
    後の各映像を表示する映像表示モジュールとを有するプ
    ログラムを格納したことを特徴とする記憶媒体。
  8. 【請求項8】 前記プログラムは、仮想注目点計算モジ
    ュールからの仮想注目点に基づいて前記2つの視点の移
    動速度を設定する移動速度設定モジュールを有すること
    を特徴とする請求項7記載の記憶媒体。
  9. 【請求項9】 前記プログラムは、前記仮想注目点計算
    モジュールからの仮想注目点に基づいて前記3次元仮想
    空間において前記モデルを配置するモデル配置モジュー
    ルを有することを特徴とする請求項7記載の記憶媒体。
JP36673897A 1997-12-26 1997-12-26 仮想現実方法及び装置並びに記憶媒体 Pending JPH11195131A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36673897A JPH11195131A (ja) 1997-12-26 1997-12-26 仮想現実方法及び装置並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36673897A JPH11195131A (ja) 1997-12-26 1997-12-26 仮想現実方法及び装置並びに記憶媒体

Publications (1)

Publication Number Publication Date
JPH11195131A true JPH11195131A (ja) 1999-07-21

Family

ID=18487544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36673897A Pending JPH11195131A (ja) 1997-12-26 1997-12-26 仮想現実方法及び装置並びに記憶媒体

Country Status (1)

Country Link
JP (1) JPH11195131A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076182A (ja) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc ユーザインタフェース方法、ユーザインタフェース装置、空間描画装置、ワークステーション装置およびプログラム記憶媒体
JP2007501421A (ja) * 2003-08-01 2007-01-25 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド カラーコンタクトレンズのデザイン方法
JP2008500624A (ja) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
JP2011165068A (ja) * 2010-02-12 2011-08-25 Nec System Technologies Ltd 画像生成装置、画像表示システム、画像生成方法、及びプログラム
JP5167545B2 (ja) * 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
KR20140053765A (ko) * 2012-10-26 2014-05-08 더 보잉 컴파니 가상 현실 디스플레이 시스템
WO2016199736A1 (ja) * 2015-06-12 2016-12-15 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2018186169A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 映像生成装置、映像生成方法および映像生成プログラム
CN110045896A (zh) * 2018-01-05 2019-07-23 佳能株式会社 电子设备及其控制方法和计算机可读介质
JP2019531822A (ja) * 2017-01-18 2019-11-07 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの方位確定方法、装置及び記憶媒体
JP2020042780A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076182A (ja) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc ユーザインタフェース方法、ユーザインタフェース装置、空間描画装置、ワークステーション装置およびプログラム記憶媒体
JP2007501421A (ja) * 2003-08-01 2007-01-25 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド カラーコンタクトレンズのデザイン方法
JP4694483B2 (ja) * 2003-08-01 2011-06-08 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド カラーコンタクトレンズのデザイン方法
JP2008500624A (ja) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
JP5167545B2 (ja) * 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
JP2011165068A (ja) * 2010-02-12 2011-08-25 Nec System Technologies Ltd 画像生成装置、画像表示システム、画像生成方法、及びプログラム
KR20140053765A (ko) * 2012-10-26 2014-05-08 더 보잉 컴파니 가상 현실 디스플레이 시스템
JP2014086091A (ja) * 2012-10-26 2014-05-12 Boeing Co 仮想現実ディスプレイシステム
WO2016199736A1 (ja) * 2015-06-12 2016-12-15 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP2017004356A (ja) * 2015-06-12 2017-01-05 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP2019531822A (ja) * 2017-01-18 2019-11-07 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 仮想キャラクタの方位確定方法、装置及び記憶媒体
US10825261B2 (en) 2017-01-18 2020-11-03 Tencent Technology (Shenzhen) Company Limited Method and device for determining and adjusting spatial attribute of virtual character in virtual reality applications
WO2018186169A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 映像生成装置、映像生成方法および映像生成プログラム
CN110045896A (zh) * 2018-01-05 2019-07-23 佳能株式会社 电子设备及其控制方法和计算机可读介质
JP2020042780A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 運転支援方法、設備、無人運転設備及び読み取り可能な記憶媒体

Similar Documents

Publication Publication Date Title
JPH10334275A (ja) 仮想現実方法及び装置並びに記憶媒体
US10403043B2 (en) System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data
CN109791442B (zh) 表面建模系统和方法
EP3000020B1 (en) Hologram anchoring and dynamic positioning
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP3802630B2 (ja) 立体画像生成装置および立体画像生成方法
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
CN114766038A (zh) 共享空间中的个体视图
US20160210780A1 (en) Applying real world scale to virtual content
Holloway et al. Virtual environments: A survey of the technology
US11645823B2 (en) Neutral avatars
CN107810634A (zh) 用于立体增强现实的显示器
JP2023100820A (ja) 空間コンピューティングのための写実的キャラクタ構成
US20230126026A1 (en) Determining angular acceleration
US11961194B2 (en) Non-uniform stereo rendering
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
JP2023536064A (ja) 交互サンプリングを使用した眼追跡
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
JP7241702B2 (ja) 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
Mennes et al. Design of fault-tolerant genetic algorithm for application placement in heterogeneous cloud environments Master Thesis
Bergmans An optical tracking system for the integration of input devices into head-mounted virtual reality environments using commodity hardware