JPH06337756A - 3次元位置指定方法および仮想空間立体視装置 - Google Patents

3次元位置指定方法および仮想空間立体視装置

Info

Publication number
JPH06337756A
JPH06337756A JP12671593A JP12671593A JPH06337756A JP H06337756 A JPH06337756 A JP H06337756A JP 12671593 A JP12671593 A JP 12671593A JP 12671593 A JP12671593 A JP 12671593A JP H06337756 A JPH06337756 A JP H06337756A
Authority
JP
Japan
Prior art keywords
observer
virtual space
intersection
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12671593A
Other languages
English (en)
Inventor
Atsushi Kobayashi
淳 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP12671593A priority Critical patent/JPH06337756A/ja
Publication of JPH06337756A publication Critical patent/JPH06337756A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【目的】 仮想空間内の位置を指定する場合において操
作性の高い3次元位置指定方法を提供する。 【構成】 右眼用、左眼用の画像表示手段にコンピュー
タグラフィックスを用いて仮想空間内に対象物の画像を
表示し、観察者の位置および向きに応じて前記対象物の
画像を変化させて対象物を立体視させる場合において、
対象物を見ている観察者の左右眼の瞳孔位置を検出し、
瞳孔位置に基づいて左右眼の視線ベクトルをそれぞれ算
出し、両視線ベクトルの実質的な交点を求めることによ
り、仮想空間内の観察者の視点位置を指定する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、3次元位置指定方法
および仮想空間立体視装置に関し、さらに詳細にいえば
コンピュータグラフィックスを用いて表示された仮想空
間内の位置を指定する3次元位置指定方法、およびヘッ
ド・マウンテッド・ディスプレイのような仮想空間立体
視装置に関する。
【0002】
【従来の技術】近年、コンピュータグラフィックス技術
の進歩により、観察者にコンピュータグラフィックスに
よる画像を与え、あたかも観察者自身が仮想的な映像内
に存在するような錯覚を与える仮想現実という技術が提
案され、普及に向けて盛んに研究開発が行なわれてい
る。仮想現実では観察者がヘッド・マウンテッド・ディ
スプレイ(以下、HMDと称する)と呼ばれる装置を頭
に装着し、観察者の動作、例えば、頭を動かす、手、足
など体を移動させる動作に対応してHMD内にあるディ
スプレイに写し出される映像を変化させることにより、
観察者に仮想的な空間を実感させるようにしたものが多
い。
【0003】仮想空間立体視装置は新しく家を建てると
きの間取りの感じを体験したり、自動車などの乗り物に
おける運転シュミレータ、あるいは遊戯装置などに応用
が期待されている。このような仮想空間立体視装置にお
いては、観察者の動きに対応し実感を伴った映像を写し
出すことが重要であるから、観察者の体の動きに対応す
る座標と、ディスプレイに写し出される仮想空間内の座
標との対応を正確かつ操作性良く実現することが重要に
なる。従来、両座標の対応を取る方法として下記の方法
が採用されている。 (1)データグローブを観察者の手に付け、データグロ
ーブの形状をディスプレイ内に表示し、観察者の手の位
置をディスプレイ内のデータグローブで確認しながら、
ディスプレイ内で所望の点に触るようにすることで位置
を指定する。あるいは、観察者の手の位置を3次元カー
ソル、3次元マウスによってディスプレイ内に表示し、
3次元カーソル、3次元マウスを所望の点に移動するよ
うに手を移動させることにより仮想空間内の位置を指定
する。 (2)ディスプレイ中にカーソルを表示し、そのカーソ
ルの位置をジョイスティックなどにより操作して、所望
の点にまでカーソルを持って行くことにより仮想空間内
の位置を指定する。
【0004】
【発明が解決しようとする課題】しかしながら、上記
(1)の方法は観察者が手を振り回して位置を特定しな
ければならず操作性が悪いという問題がある。また、上
記(2)の方法でも観察者の眼はディスプレイに写し出
された立体画像を見ており、手元のジョイスティックを
見られないので、手探りで操作しなければならず操作性
が悪いという問題がある。
【0005】また、仮想空間立体視装置では仮想空間の
環境をモデリングする必要があり、精密なコンピュータ
グラフィックスの表現を行なうほど描画ポリゴン数が増
える。ポリゴン数が増えると、描画に時間がかかるため
に観察者の動きに対する応答が遅れ、ぎこちなくなり仮
想現実の使用感が低下する。したがって、表現の粗さと
応答のぎこちなさを考慮して、両者の我慢のできる範囲
において装置の条件を設定しているのが現状である。よ
って、壁面、天井、床面などは描画速度を向上させるた
めにべた塗りの平面として描画されることが多い。この
ため、例えば、壁面の1点を見つめて立体視することが
難しいので正確な遠近感がつかみにくく、廊下の広さや
天井の高さ、対象物の大きさ等の実感がつかみにくいと
いう問題がある。
【0006】この問題を解決する方法として、壁面や天
井などにテクスチュアマッピング等によって不均一な模
様を付けることにより遠近感を得られやすくすることが
考えられるが、描画時間の増大をまねくので前記応答性
の点において好ましい方法ではない。
【0007】
【発明の目的】この発明は仮想空間において3次元位置
を指定する場合において操作性が悪いという問題点に鑑
みてなされたものであり、操作性の高い3次元位置指定
方法および仮想空間立体視装置を提供することを目的と
している。この発明は仮想空間内の対象物において立体
視が行ないにくいという問題点に鑑みてなされたもので
あり、容易に視点を合わせることができるようにして立
体視が行ないやすい仮想空間立体視装置を提供すること
を目的としている。
【0008】
【課題を解決するための手段】上記の目的を達成するた
めの請求項1の3次元位置指定方法は、右眼用、左眼用
の画像表示手段の仮想空間内に、観察者の位置および向
きに応じて対象物の画像を変化させて立体視させる場合
において、対象物を見ている観察者の左右眼の視線方向
を検出し、検出した両視線方向の交点を求め、求めた交
点を仮想空間内の観察者の指定位置とする。
【0009】上記の目的を達成するための請求項2の仮
想空間立体視装置は、右眼用、左眼用の画像表示手段
と、観察者の位置および向きを検出する位置向き検出手
段と、仮想空間の対象物の情報を保持する対象物情報保
持手段と、観察者の位置および向きに応じて対象物の画
像を変化させて立体視させる立体視手段とを備えた仮想
空間立体視装置において、対象物を見ている観察者の左
右眼の視線方向を検出する視線方向検出手段と、検出し
た両視線方向の交点を算出して、その交点を仮想空間内
の観察者の指定位置として確定する指定位置確定手段と
を有している。
【0010】上記の目的を達成するための請求項3の仮
想空間立体視装置は、右眼用、左眼用の画像表示手段
と、観察者の位置および向きを検出する位置向き検出手
段と、仮想空間の対象物の情報を保持する対象物情報保
持手段と、観察者の位置および向きに対応して前記対象
物の画像を立体的に変化させる立体視手段とを備えた仮
想空間立体視装置において、観察者の方向ベクトルを算
出する方向ベクトル算出手段と、算出した方向ベクトル
と仮想空間内の対象物表面との交点を算出する交点算出
手段と、算出した交点位置にカーソルを描画するカーソ
ル描画手段とを有している。
【0011】
【作用】請求項1の3次元位置指定方法であれば、対象
物を見ている観察者の左右眼の視線方向を検出し、検出
した両視線方向の交点を求め、求めた交点を仮想空間内
の観察者の指定位置とするのであるから、観察者は仮想
空間内の対象物を見るだけで視点位置を指定できること
になる。したがって、従来のような特別な3次元位置指
定動作から解放され、仮想空間内の認識に集中できるの
であるから極めて操作性がよくなる。
【0012】請求項2の仮想空間立体視装置であれば、
視線方向検出手段が対象物を見ている観察者の左右眼の
視線方向を検出し、指定位置確定手段が検出した両視線
方向の交点を算出して、その交点を仮想空間内の観察者
の指定位置として確定する。これら一連の処理の中で観
察者の行なう動作は仮想空間内の対象物を目で追うこと
だけである。したがって、従来のような特別な視点位置
指定動作が不要になって視点位置指定動作から解放さ
れ、仮想空間内の認識作業に集中できるのであるから、
極めて操作性の高い仮想空間立体視装置を提供できるこ
とになる。
【0013】請求項3の仮想空間立体視装置であれば、
方向ベクトル算出手段が観察者の方向ベクトルを算出
し、交点算出手段が観察者の方向ベクトルと仮想空間内
の対象物表面との交点を算出し、カーソル描画手段が算
出した交点位置にカーソルを描画する。したがって、観
察者の向いた方向の視野内にある対象物の表面にカーソ
ルが表示されることになるのであるから、観察者はカー
ソルを基準として対象物の表面に視点を合わせることが
でき、立体視が行ないやすくなる。また、観察者の方向
ベクトルは位置向き検出手段に基づくデータにより容易
に算出することができるとともに、対象物の表面にカー
ソルを表示することも簡単な計算で行なえるのであるか
ら、描画速度の低下をもたらすこともなく、極めて安価
かつ効率的に実現できるという利点もある。
【0014】
【実施例】以下、実施例を示す添付図面によって詳細に
説明する。図1はこの発明の3次元位置指定方法の一実
施例を示すフローチャートである。この3次元位置指定
方法においては、ステップSP1において視線検出装置
を内蔵したHMDを頭に装着することにより、視線検出
装置と左右眼球の位置関係を固定化し、ステップSP2
において右眼用液晶表示部および左眼用液晶表示部に表
示される仮想空間内の基準点に輝点を表示し、ステップ
SP3において輝点を左右眼で見つめている状態で視線
検出装置から赤外線を左右眼球に照射して左右の瞳孔像
を光検出器上に結像して瞳孔の位置を求め、ステップS
P4において光検出器上の左右瞳孔の位置に基づいて個
人差のある視線ベクトルの校正処理を行ない、ステップ
SP5において仮想空間において対象物を表示し、ステ
ップSP6において対象物を見つめている状態の光検出
器上の左右瞳孔の位置を検出し、ステップSP7におい
て左右瞳孔の位置に基づいて対象物を見ている時の視線
ベクトルを左右眼についてそれぞれ算出し、ステップS
P8において両視線ベクトルが近似的に交わる点の座標
を算出することにより、仮想空間中での座標を指定して
一連の処理を終了する。
【0015】なお、ステップSP3およびステップSP
6において眼球の像から瞳孔の位置を求める場合は、瞳
孔と虹彩とでは反射率が異なるので閾値を両者を区別で
きる値に設定することで瞳孔の位置を検出することがで
きる。また、ステップSP1からステップSP4に示す
視線ベクトルの個人差を補正する校正処理としては、例
えば、下記の方法が採用できる。
【0016】1つの方法としては、正面、無限遠方(視
線ベクトル(0,0,1))に輝点を表示し、この時の
瞳孔の結像位置を原点とするxy座標系を設定する方法
がある。その他の方法としては視野の右上隅(視線ベク
トル(a,b,1))に輝点を表示し、この時の瞳孔の
結像位置の座標が(a,b)となるように座標系の尺度
を決定する方法がある。これらの校正により両眼の間
隔、眼の大きさなどの個人差を考慮した視線ベクトルの
校正処理が行なわれる。なお、この座標系上で(x,
y)の座標に瞳孔がある場合の視線ベクトルは(x,
y,1)で示される。
【0017】さらにこの3次元位置指定方法について図
2および図3を参照しつつ説明する。図2は観察者が右
眼1で右眼用液晶表示部11を見ているとともに、左眼
2で左眼用液晶表示部12を見ている状態を概略的に示
した図である。この実施例における3次元位置指定方法
においては、左右の液晶表示部11,12の像を見てい
る視線ベクトル13,14を左右の眼についてそれぞれ
独立して求める。視線ベクトル13,14は見つめてい
る対象物15の上で交差している(図2において破線で
示す)ので、この交差する点P1の座標を算出すること
で、仮想空間中の座標を指定することができる。
【0018】図3(A)は仮想空間内において単眼で対
象物を認識している状態を示した図である。図3(A)
に示すように単眼での視線追跡によって視点位置を特定
する方法は、遠くの対象物21,22と近くの対象物2
3が視野内で近接している場合などにおいては視線追跡
のわずかな誤差により、指定しようとする位置が大きく
ずれてしまう危険性を有している。なお、図3(A)に
おいて円24は単眼の視線を示している。これに対し、
図3(B)に示すようにこの実施例の方法では、両眼の
視線ベクトル13,14の交点を指定位置と特定するの
で、両視線ベクトル13,14にわずかな誤差があって
も交点位置は本来指定しようとする遠くの対象物22か
ら大きく離れない位置となる。このようにこの実施例の
方法では3次元的に座標を指定するので、従来、カメラ
において採用されてきた単眼の視線追跡によって視点を
特定する方法に比べ、大幅に精度が向上する利点があ
る。
【0019】したがって、奥行き、広さを観察者の動き
に応じて変化させ、観察者に実感を伴った空間感覚を与
えることに意味がある仮想空間画像においては、観察者
の眼の動きにしたがって自動的に正確な位置指定ができ
るこの実施例の方法は極めて効果的なものとなる。ま
た、この方法によれば観察者は対象物の像を眼で追うだ
けで位置を指定できるので、従来のようにデータグロー
ブ、ジョイスティック等を使用する方法に比べて著しく
操作性が向上する。
【0020】
【実施例2】図4はこの発明の3次元位置指定方法の第
2実施例を示すフローチャートである。この実施例は図
1に示すフローチャートのステップSP8における視線
ベクトルが近似的に交わる点の座標を算出する場合の一
実施形態を示すものである。
【0021】この実施例では観察者が仮想空間において
空中の1点を見つめるとは稀であることに着目し、所定
条件のときは右眼の視線ベクトルと左眼の視線ベクトル
との交点位置を仮想空間内の対象物表面上の点位置に移
動させるようにしたことを特徴としている。すなわち、
ステップSP81aにおいて両視線ベクトルの交点を算
出し、ステップSP81bにおいて交点から最も近い対
象物表面が所定誤差以内であるかを判別し、所定誤差以
内であると判別された場合はステップSP81cにおい
てその最も近い対象物表面の点に交点を移動してその点
に位置を指定して処理を終了する。一方、ステップSP
81bにおいて所定誤差以内でないと判別された場合は
ステップSP81dにおいて最初の交点位置を指定して
処理を終了する。
【0022】図5はこの実施例の3次元位置指定方法の
概略を説明するための図であり、両視線ベクトル13,
14の交点P1の位置が算出された場合に、誤差範囲
(例えば、半径rの球)内に対象物15の表面がある場
合には交点P1に最も近い対象物15の表面上の点P2
に移動させて、その点P2を指定点とするものである。
この実施例のようにして交点を最近接の対象物表面の点
の座標に丸め込むことにより、交点の測定誤差等を吸収
できるとともに、細かい位置合わせが不要になり、操作
が簡単になる利点がある。なお、この実施例においては
操作の多様性を確保するために、交点を最近接の対象物
表面の点の座標に丸め込む処理をHMD使用時に行なう
か否かを観察者の希望によって選択できるように構成す
ることが望ましい。
【0023】
【実施例3】図6はこの発明の3次元位置指定方法の第
3実施例を示すフローチャートである。人間の視線は常
に静的に1点を凝視しているものではなく対象物の近傍
を動き回るものなので、追従性が高く高精度な視線位置
指定方法を採用すると、観察者に静的に1点を凝視する
努力を求めることになるので使いずらく、また、疲れ易
いものとなる。そこで、両視線ベクトルの交点位置を指
定点とする場合において、適当な追従性と精度を満足し
てやる必要がある。
【0024】そのような3次元位置指定方法のフローチ
ャートの一例を説明する。即ち、図1に示すフローチャ
ートにおいてステップSP8の処理に代えて図6に示す
処理を実行する。ステップSP82aにおいてある時点
における両視線ベクトルの交点(第1交点)を求め、ス
テップSP82bにおいて前記ある時点から所定時間経
過後の両視線ベクトルの交点(第2交点)を算出し、ス
テップSP82cにおいて第1交点と第2交点の距離が
所定範囲内(例えば、半径R内の球の範囲内)において
存在しているか否かを判別し、所定範囲内に存在してい
ると判別された場合はステップSP82dにおいて前記
ある時点の第1交点の座標を保持して位置の指定を行な
う。一方、ステップSP82cにおいて所定範囲内でな
いと判別された場合はステップSP82eにおいて所定
時間経過後の第2交点の位置を指定して処理を終了す
る。
【0025】図7はこの実施例を説明するための図であ
る。対象物15の表面上の交点P1から所定範囲R内の
わずかな変動であれば、その交点P1の位置を保持す
る。そして対象物15の交点P1から対象物25の表面
上の所定点Q1に視点を移動した場合のように、明らか
な視線ベクトルの変化が行なわれた場合にのみ、新たな
位置の指定を行なうようにするのである。
【0026】この実施例によれば、所定時間前の交点位
置において前記所定範囲内の移動であれば交点は変動し
ないので、所定範囲Rを人間の視点の微小な変動量に対
応した値に設定することにより、観察者にとって疲れに
くい3次元位置指定方法を提供できる。なお、この実施
例において前記所定時間は使用するHMDに要求される
追従性などによって決定される。
【0027】なお、交点の微小な動きを抑制する前記所
定範囲の幅を観察者の選択によって可変にすることで、
鋭敏な追従性と精密に位置を指定したい場合などにおけ
る要望を満足することができる。また、精密に位置を指
定したい場合において交点位置の補助的な微調整機能を
持たせるように構成することが望ましい。
【0028】
【実施例4】この発明の3次元位置指定方法の第4実施
例について説明する。この実施例は視線追跡による位置
指定を常時行なうものではなく、観察者の選択により所
定のスイッチ手段を動作させることによって指定された
特定期間だけ視線追跡による位置指定を行なうようにし
た点を特徴している。即ち、図1に示すフローチャート
においてステップSP1の前に観察者が両視線ベクトル
による交点の位置指定を行うと選択したか否かを判別
し、両視線ベクトルによる交点の位置指定を行うと選択
した場合にのみステップSP1以降の一連の処理を行な
い、観察者が両視線ベクトルによる交点の位置指定を行
なわないと選択した場合は、一連の交点による位置指定
を行なわない状態で仮想空間内の対象物を表示するので
ある。
【0029】この実施例によれば、観察者が視線ベクト
ルによる位置指定を行なうと選択したときだけ上記処理
を行なうので、指定点を固定して視線を動かす状態を作
り出すことも可能となる。そして視線ベクトルによる位
置指定を解除したときに、必要に応じて所定の位置指定
手段により指定位置の微調整を行なうことができる。
【0030】
【実施例5】図8はこの発明の仮想空間立体視装置の一
実施例として、HMDの構成を示すブロック図であり、
このHMDは大別すると眼鏡のように頭に装着する装着
部30と、装着部30内の液晶表示部31,32に表示
する画像を生成する画像生成部50とから構成されてい
る。
【0031】装着部30は右眼用と左眼用のそれぞれの
液晶表示部31,32と、液晶表示部31,32の像を
見易くするための光学レンズ33,34と、装着部30
の位置および向きを検出する位置向き検出部35とを有
している。なおこれらの要素は従来のHMDにも採用さ
れている。この実施例の装着部30には上記構成要素の
他に右視線追跡部37と左視線追跡部38が新たに付け
加えられている。
【0032】右視線追跡部37と左視線追跡部38はそ
れぞれ眼球に違和感を与えなない程度の赤外線を照射す
る赤外線光源39,40と、眼球からの赤外線の反射光
を光検出器設置側に反射するハーフミラー41,42
と、眼球の像を光検出器上に結像する集光レンズ43,
44と、眼球の像を検出する光検出器45,46とを有
している。なお、光検出器45,46は少なくとも眼球
の上下左右の2次元の動きを検出できるものが採用され
る。
【0033】画像生成部50は位置向き検出部35の情
報と光検出器45,46の瞳孔位置とに基づいて左右の
視線ベクトルを算出する視線ベクトル算出部51,52
と、左右の視線ベクトル算出部51,52からの両視線
ベクトルに基づいて交点座標を検出する交点算出部53
と、交点算出部53と位置向き検出部35の情報に基づ
いて右眼用、左眼用の透視変換用の座標情報を与える座
標管理部54と、仮想空間において表示する対象物の大
きさ、色、形状などを保持する対象物情報保持部55
と、対象物情報と座標管理部54からの座標情報に基づ
いてそれぞれ右眼用、左眼用の透視変換を行なう透視変
換部56,57と、透視変換部56,57のデータに基
づいて液晶表示部31,32に画像の描画を行なう画像
描画部5859とを有している。
【0034】上記構成のHMDの作用について説明す
る。まず、観察者は上記3次元指定装置の装着部30を
頭に付けて、両眼と装着部30との相対位置を固定す
る。そして第1実施例で説明したような方法で観察者の
眼の位置および瞳孔の位置に対応して座標系の校正処理
を行なう。この校正処理により装着部30を付けた人の
目の位置、瞳孔の位置の違いなどを補正して、仮想空間
における対象物を見たときに瞳孔の位置により視線ベク
トルの算出を行なえるようにする。
【0035】そして校正処理が終了したら、図示しない
HMDの操作パネルから観察者の視線ベクトルに基づい
て位置を指定するという選択信号を入力して、仮想空間
内の対象物を実感的に見ることを行なう。具体的に図8
を用いて説明すると、まず装着部30の位置向き検出部
35において装着部30の位置および向きが検出され、
基準となる座標が特定される。また、右視線追跡部37
と左視線追跡部38はそれぞれ左右の瞳孔の位置を光検
出器45,46により検出して、右視線ベクトル算出部
51と左視線ベクトル算出部52において基準となる座
標における右視線ベクトルと左視線ベクトルを算出す
る。次いで、交点算出部53において観察者の視点位置
を求め、その視点位置と位置向き検出部35の基準座標
に基づいて座標管理部54が、算出された視点位置に対
応して透視変換する情報をそれぞれ右透視変換部56、
左透視変換部57に与える。右透視変換部56、左透視
変換部57はそれぞれ、仮想空間内の対象物情報と座標
管理部54からの情報に基づいて透視変換を行ない、左
右画像描画部58,59が観察者の視点位置に対応した
画像をそれぞれ右液晶表示部31、左液晶表示部32に
表示する。
【0036】この実施例によれば、観察者は対象物の像
を眼で追うだけで順次その視線方向の画像が表示される
ので、従来のジョイスティックなどを使用して位置を指
定する場合に比べて、著しく観察者の負担を軽減してH
MDの操作性を向上することができる。また、観察者は
視点位置の指定作業から実質的に開放されるので、仮想
空間内の対象物の認識に集中することができ、仮想空間
の実感を高めることができる。
【0037】
【実施例6】図9はこの発明の仮想空間立体視装置の他
の実施例としてのMHDの構成を示すブロック図であ
る。このMHDは大別すると眼鏡のように装着する装着
部70と、装着部70内の液晶表示部31,32に表示
する画像を生成する画像生成部80とから構成されてい
る。
【0038】装着部70には右眼用と左眼用のそれぞれ
の液晶表示部31,32と、液晶表示部31,32の光
を効率良く見るための光学レンズ33,34と、装着部
30の位置および向きを検出する位置向き検出部35と
を有している。なおこれらの要素は従来のMHDにも採
用されている。画像生成部80は位置向き検出部35の
情報に基づいて右眼用、左眼用の透視変換用の座標情報
を与える座標管理部81と、位置向き検出部35の情報
に基づいて装着部70の基準座標における方向ベクトル
を算出する方向ベクトル算出部82と、仮想空間におい
て表示する対象物の大きさ、色、形状などを保持する対
象物情報保持部83と、方向ベクトル算出部82によっ
て算出された方向ベクトルと対象物の表面との交点を算
出する交点算出部84と、対象物情報と座標管理部から
の座標情報に基づいてそれぞれ右眼用、左眼用の透視変
換を行なう右透視変換部85,左透視変換部86と、透
視変換部85,86のデータに基づいて液晶表示部3
1,32に画像の描画を行なうとともに、交点算出部8
4の交点座標にカーソルを描画する右画像描画部87,
左画像描画部88とを有している。
【0039】上記構成のHMDの作用について図9から
図11を参照しつつ説明する。前記したようにMHDに
おいては壁面、天井、床面などはベタ塗りの平面として
処理されるので、例えば、壁面上の1点を見つめて立体
視することが難しく、正確な遠近感がつかみにくい。そ
こで装着部70に設けられた位置向き検出部35の基準
座標を用いて、図10に示すような観察者の視野の方向
ベクトルSを方向ベクトル算出部82において算出す
る。そして、方向ベクトルSと仮想空間内の対象物との
交点を交点算出部84において算出し、その座標位置に
右画像描画部87、左画像描画部88によって補助カー
ソルを表示する。
【0040】補助カーソルは左右液晶表示部31,32
に仮想空間内の対象物とともに描画されるので、観察者
には対象物表面上にカーソルが現われたように見える。
観察者が横方向に頭を動かせば、その動きに応じて図1
1に示すように補助カーソル90は対象物表面上を破線
のように移動する。この感覚はちょうど装着部70にレ
ーザ光源を取り付け、その光が当たっているような感じ
である。観察者はこの補助カーソル90の出現によって
例えば壁面上の1点に容易に視点を合わせることができ
るので、遠近感がつかみやすくなる。
【0041】この実施例によれば、たとえ、ベタ塗りの
壁面等であっても容易に視点を合わせることができると
ともに、方向ベクトルSの算出は位置向き検出部35の
情報から簡単に行なえ、かつ交点計算および補助カーソ
ル90の描画は壁面をテクスチャ・マッピングを施すよ
りもはるかに処理が早く行なえるのであるから、追従性
低下などの性能低下を最小限に押さえつつ、上記遠近感
が得にくいという問題を解決することができる。
【0042】また、ポリゴン数を増やすことあるいはテ
クスチャ・マッピングを施すことにより遠近感を得られ
易くする方法がいずれも画像描画部87,88の描画速
度の向上を要求するのに対し、この実施例の方法は交点
計算という画像描画とは独立した処理により補助カーソ
ル90を表示するので、例えば、必要に応じて交点算出
用の計算処理を独立させることなどによって描画速度を
低下させることなく、実現することが可能である。
【0043】なお、この発明は上記実施例に限定される
ものではなく、この発明の要旨を変更しない範囲内にお
いて種々の設計変更を施すことが可能である。例えば、
前記実施例では瞳孔位置検出手段を赤外線を眼に照射し
て瞳孔の位置を光検出器によって検出することで構成し
たが、その他にも各種の方法を採用することができる。
【0044】また、瞳孔位置検出の精度が良くないなど
の理由により、算出される左右視線ベクトルの交点が厳
密に1点に定まらない場合においても、視線ベクトルの
束を想定し、束同士の交点位置を算出することにより、
必ず近似的な交点を求めるようにすることができる。つ
まり、両視線ベクトルにある程度の幅を持たせてその交
点位置を算出するのである。
【0045】
【発明の効果】以上のように、請求項1の発明は、従来
のような特別な3次元位置指定動作が不要になって視点
位置指定作業から解放され、仮想空間内の認識作業に集
中できるのであるから、操作性が極めて良くなるという
特有の効果を奏する。請求項2の発明も、従来のような
特別な3次元位置指定動作が不要になって視点位置指定
動作から解放され、仮想空間内の認識作業に集中できる
のであるから、極めて操作性の高い仮想空間立体視装置
を提供できるという特有の効果を奏する。
【0046】請求項3の発明は、観察者の向いた方向の
視野内にある対象物の表面にカーソルが表示されること
になるのであるから、観察者簡単に対象物の表面に視点
を合わせることができ、立体視が行ないやすくなるとい
う特有の効果を奏する。
【図面の簡単な説明】
【図1】この発明の3次元位置指定方法の第1実施例を
示すフローチャートである。
【図2】この発明の3次元位置指定方法の第1実施例を
説明するための図である。
【図3】(A)は単眼の位置指定方法の問題点を説明す
るための図、(B)は両眼の視線ベクトルの交点を求め
る場合の利点を説明するための図である。
【図4】この発明の3次元位置指定方法の第2実施例を
示すフローチャートである。
【図5】この発明の3次元位置指定方法の第2実施例を
説明するための図である。
【図6】この発明の3次元位置指定方法の第3実施例を
示すフローチャートである。
【図7】この発明の3次元位置指定方法の第3実施例を
説明するための図である。
【図8】この発明の仮想空間立体視装置の一実施例を示
すブロック図である。
【図9】この発明の仮想空間立体視装置の他の実施例を
示すブロック図である。
【図10】この発明の仮想空間立体視装置を説明するた
めの図である。
【図11】この発明の仮想空間立体視装置の動作を説明
するための図である。
【符号の説明】
31 右眼用液晶表示部 32 左眼用液晶表示部 35 位置向き検出部 37 右視線追跡部 38 左視線追跡部 51 右視線ベクトル算出部 52 左視線ベクトル算出部 53 交点算出部 54 座標管理部 55 対象物情報保持部 56 右透視変換部 57 左透視変換部 58 右画像描画部 59 左画像描画部 81 座標管理部 82 方向ベクトル算出部 83 対象物情報保持部 84 交点算出部 85 右透視変換部 86 左透視変換部 87 右画像描画部 88 左画像描画部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 右眼用、左眼用の画像表示手段の仮想空
    間内に、観察者の位置および向きに応じて対象物の画像
    を変化させて立体視させる場合において、対象物を見て
    いる観察者の左右眼の視線方向を検出し、検出した両視
    線方向の交点を求め、求めた交点を仮想空間内の観察者
    の指定位置とする3次元位置指定方法。
  2. 【請求項2】 右眼用、左眼用の画像表示手段(31)
    (32)と、観察者の位置および向きを検出する位置向
    き検出手段(35)と、仮想空間の対象物の情報を保持
    する対象物情報保持手段(55)と、観察者の位置およ
    び向きに応じて対象物の画像を変化させて立体視させる
    立体視手段(54)(56)(57)とを備えた仮想空
    間立体視装置において、対象物を見ている観察者の左右
    眼の視線方向を検出する視線方向検出手段(37)(3
    8)(51)(52)と、検出した両視線方向の交点を
    算出して、その交点を仮想空間内の観察者の指定位置と
    して確定する指定位置確定手段(53)(54)とを有
    していることを特徴とする仮想空間立体視装置。
  3. 【請求項3】 右眼用、左眼用の画像表示手段(31)
    (32)と、観察者の位置および向きを検出する位置向
    き検出手段(35)と、仮想空間の対象物の情報を保持
    する対象物情報保持手段(83)と、観察者の位置およ
    び向きに対応して前記対象物の画像を立体的に変化させ
    る立体視手段(81)(85)(86)とを備えた仮想
    空間立体視装置において、観察者の方向ベクトルを算出
    する方向ベクトル算出手段(82)と、算出した方向ベ
    クトルと仮想空間内の対象物表面との交点を算出する交
    点算出手段(84)と、算出した交点位置にカーソルを
    描画するカーソル描画手段(81)(85)(86)
    (87)(88)とを有していることを特徴とする仮想
    空間立体視装置。
JP12671593A 1993-05-28 1993-05-28 3次元位置指定方法および仮想空間立体視装置 Pending JPH06337756A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12671593A JPH06337756A (ja) 1993-05-28 1993-05-28 3次元位置指定方法および仮想空間立体視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12671593A JPH06337756A (ja) 1993-05-28 1993-05-28 3次元位置指定方法および仮想空間立体視装置

Publications (1)

Publication Number Publication Date
JPH06337756A true JPH06337756A (ja) 1994-12-06

Family

ID=14942078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12671593A Pending JPH06337756A (ja) 1993-05-28 1993-05-28 3次元位置指定方法および仮想空間立体視装置

Country Status (1)

Country Link
JP (1) JPH06337756A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
WO2016021034A1 (ja) * 2014-08-07 2016-02-11 株式会社Fove 3次元上の注視点の位置特定アルゴリズム
WO2016199736A1 (ja) * 2015-06-12 2016-12-15 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2017090203A1 (ja) * 2015-11-27 2017-06-01 フォーブ インコーポレーテッド 視線検出システム、注視点特定方法及び注視点特定プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2012048568A (ja) * 2010-08-27 2012-03-08 Canon Inc 情報処理装置及び方法
US9261953B2 (en) 2010-08-27 2016-02-16 Canon Kabushiki Kaisha Information processing apparatus for displaying virtual object and method thereof
WO2016021034A1 (ja) * 2014-08-07 2016-02-11 株式会社Fove 3次元上の注視点の位置特定アルゴリズム
JPWO2016021034A1 (ja) * 2014-08-07 2017-05-25 フォーブ インコーポレーテッド 3次元上の注視点の位置特定アルゴリズム
CN106796443A (zh) * 2014-08-07 2017-05-31 Fove股份有限公司 三维上的凝视点的位置确定方法
US20180133593A1 (en) * 2014-08-07 2018-05-17 Fove, Inc. Algorithm for identifying three-dimensional point-of-gaze
WO2016199736A1 (ja) * 2015-06-12 2016-12-15 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP2017004356A (ja) * 2015-06-12 2017-01-05 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2017090203A1 (ja) * 2015-11-27 2017-06-01 フォーブ インコーポレーテッド 視線検出システム、注視点特定方法及び注視点特定プログラム
US9880384B2 (en) 2015-11-27 2018-01-30 Fove, Inc. Gaze detection system, gaze point detection method, and gaze point detection program

Similar Documents

Publication Publication Date Title
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
JP3575622B2 (ja) 正確な立体三次元画像を発生する装置および方法
RU2664397C2 (ru) Система отображения виртуальной реальности
EP3525033B1 (en) Device, method, and system of providing extended display with head mounted display
US5446834A (en) Method and apparatus for high resolution virtual reality systems using head tracked display
US4984179A (en) Method and apparatus for the perception of computer-generated imagery
US20150264339A1 (en) Stereoscopic display
JPH10334275A (ja) 仮想現実方法及び装置並びに記憶媒体
US20140218281A1 (en) Systems and methods for eye gaze determination
US11170521B1 (en) Position estimation based on eye gaze
EP3248081A1 (en) Applying real world scale to virtual content
US20200201038A1 (en) System with multiple displays and methods of use
JP4413203B2 (ja) 画像呈示装置
US11935180B2 (en) Dual IMU SLAM
US11561613B2 (en) Determining angular acceleration
JP5632245B2 (ja) 眼鏡の視野画像表示装置
JPH09138637A (ja) 模擬視界装置
US11868527B2 (en) Eye tracking using alternate sampling
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
CN109634427B (zh) 基于头部追踪的ar眼镜控制系统及控制方法
JPH09102052A (ja) 立体画像表示装置
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法