JP2003067784A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JP2003067784A
JP2003067784A JP2002222026A JP2002222026A JP2003067784A JP 2003067784 A JP2003067784 A JP 2003067784A JP 2002222026 A JP2002222026 A JP 2002222026A JP 2002222026 A JP2002222026 A JP 2002222026A JP 2003067784 A JP2003067784 A JP 2003067784A
Authority
JP
Japan
Prior art keywords
image
stereoscopic
data
eye
frame buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002222026A
Other languages
English (en)
Inventor
Shinji Uchiyama
晋二 内山
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002222026A priority Critical patent/JP2003067784A/ja
Publication of JP2003067784A publication Critical patent/JP2003067784A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 立体視パラメータが定義されていないVRMLデ
ータに対して立体視パラメータを自動的に付与すること
のできる立体画像処理装置を提案するものである。 【解決手段】 VRMLデータを入力して記憶し、入力され
たVRMLデータに基づいて立体視に必要な立体視パラメー
タ(基線長、輻輳角の初期値)を決定する立体画像処理
装置。基線長の初期値はVRMLデータの空間の範囲の最大
の大きさに、輻輳角の初期値は0に設定される。これら
の初期値はユーザ・インタフェース103により任意に
変更される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えばVRML(Virt
ual Reality Modeling Language)等の三次元の仮想空
間を扱う言語により記述された空間データを立体視表示
する情報処理装置に関する。
【0002】
【従来の技術】近年の計算機の能力向上と共に、3次元
コンピュータグラフィクス(CG)が急速に一般化しつつ
ある。それと相まって、インターネット上のWWWの急速
な普及と共に、3次元空間をWWW上で取り扱う言語として
VRML(Virtual Reality Modeling Language)が標準化
され、広く使われてきている。
【0003】現時点で公表されている最新版のVRML2.0
は、エレクトリック・コマース用の仮想モール構築、ま
た、イントラネットでのCAD等の3次元データの管理等で
用いられている。一方、本発明の出願人は、観察者が直
接奥行きを知覚できる立体表示装置(以下、「立体表示
装置」と略す)として、リアクロスレンチ方式の3Dディ
スプレイを開発しているが、出願人以外にも多くの立体
表示装置が提案されている。
【0004】
【発明が解決しようとする課題】このVRML2.0で記述さ
れた3次元空間を表示するためには、VRMLビューワ装置
が必要となる。一般に普及しているVRMLビューワ装置
は、記述している空間は3次元であるものの、最終的な
表示は通常のモニタを用いた2次元表示(以下、「二次
元表示装置」と略す)に留まっている。
【0005】この理由は、従来のVRMLビューワ装置が、
立体視用画像を効率よく生成することができず、そのた
めに、リアルタイムの立体画像の再現に向かないこと、
立体視を実現するための一部パラメータがVRML2.0でサ
ポートされていないために、事実上、立体視を実現する
ことができなかったからである。また、立体視をディス
プレイに実現するためには、上記本出願人の提案による
リアクロスレンチ方式の3Dディスプレイでは、1つのフ
レームバッファに左目用画像と右目用画像とを1ストラ
イプずつ交互に書き込む必要があった。
【0006】従来は、第18図の制御手順に示すよう
に、ステップS50で右目から3次元空間を眺めたとき
の画像を生成し、右目の視点位置と視点方向とを基にし
て、 3次元空間データの描画処理を行う。これにより、
フレームバッファAに描画結果の右目用画像が蓄えられ
る。ステップS52では、左目から3次元空間を眺めた
ときの画像を生成し、左目の視点位置と視点方向を基に
して、3次元空間データの描画処理を行う。フレームバ
ッファBに描画結果の左目用画像が蓄えられる。
【0007】ステップS54では、フレームバッファC
を用意し、フレームバッファAの必要部分のデータを読
み出してフレームバッファCに書き込む。同様にフレー
ムバッファBの必要部分を読み出して、フレームバッフ
ァCに書き込む。ステップS56では、フレームバッフ
ァBの必要部分を読み出して、フレームバッファAに書
き込む。
【0008】第19図の制御手順は、他の従来例に係る
バッファの書込制御手順順を示す。このように、第18
図の手法も第19図の手法も、2つ以上のフレームバッ
ファを必要とし、コスト的に有利でない。また、一旦書
き込んだフレームバッファから、データを読み出し、ま
た書き込みといったデータ転送は、一般に処理時間のか
かる処理であり、処理速度を低下させる要因である。
【0009】本発明の目的は、1つのフレームバッファ
で済み、且つそのフレームバッファからのデータの読み
出しを必要としないバッファ制御装置及び制御方法を提
案することである。
【0010】
【課題を解決するための手段】すなわち、本発明による
情報処理装置は、上記目的を達成するため、三次元空間
データに応じた立体表示を行う情報処理装置であって、
立体視パラメータを用いて三次元空間データから右目
用、左目用画像を生成する生成手段と、マスク情報を保
持する保持手段と、右目用画像と左目用画像をマスク情
報を用いてフレームバッファ上で合成し、立体表示のた
めの画像を生成する合成手段とを有し、生成手段によっ
て生成された右目用画像と左目用画像の一方をフレーム
バッファ上に描画し、他方の画像をフレームバッファ上
にマスク情報を参照しながら描画更新することを特徴と
する。
【0011】
【発明の実施の形態】以下、本発明を、VRML2.0によっ
て記述された三次元空間データをWWWブラウザによって
取り込み立体表示させる立体表示装置(以下、「VRMLビ
ューワ装置」と呼ぶ)に適用した実施形態を説明する。
この立体表示装置は、ユーザに立体感を与えるために、
ディスプレイとして、本出願人が開発したリアクロスレ
ンチ方式の3Dディスプレイを用いている。しかしなが
ら、本発明は、VRML2.0の仮想空間データのみに、或い
は、WWWブラウザによって取り込んだ仮想空間データの
みに、或いは、リアクロスレンチ方式の3Dディスプレイ
のみに適用可能なものではないことは後述の説明から明
らかになるであろう。
【0012】〈システム構成〉第1図は、本方式を採用
した複数のVRMLビューワ装置がWWWネットワークに接続
されている様子を説明する。本実施形態のVRMLビューワ
装置の特徴は、以下の通りである。 i: 遠隔地のWWWサイトにあるサーバ(1-1,1-2,1-
3,1-4,1-5)から端末システム2にVRMLデータをダ
ウンロード或いは転送した際に、基線長及び輻輳角を付
与する機能を有する。 ii: 基線長及び輻輳角を付与されたVRMLデータを、基
線長及び輻輳角について、本ビューワ装置のユーザに変
更可能ならしめる。 iii: ステンシルバッファを有効に用いて高速に立体画
像を描画することができる。
【0013】第2図は、本ビューワ装置1000のハー
ドウエア構成を示す。このビューワ装置1000は、通
常のワークステーションのように、ディスプレイ10
と、ディスプレイ10に表示するデータを一時的に格納
するフレームバッファ11と、マスク情報を格納するス
テンシルバッファ12と、CPU13と、キーボード1
4と、マウス15と、記憶装置16とを有する。
【0014】ディスプレイ10は、立体視が可能となる
ように、本出願人により提案されているリアクロスレン
チ方式眼鏡無し3Dディスプレイを用いている。リアクロ
スレンチ方式の裸眼立体ディスプレイ10は、第3図に
示すようにTFTの液晶(LC)パネル20とバックライト
・パネル24との間に2枚のレンチキュラーレンズ(H
レンチキュラー21、Vレンチキュラー22)と市松状
マスクパネル23を配置した構成を特徴としている。V
レンチキュラー22は、バックライト24からの照明光
の指向性を走査線毎に変えて左眼右眼に分離する役割を
もつ。Hレンチキュラー21は、市松状マスク23の1
つの水平ラインの開口からの光を、LCパネル20の一走
査線上に集光させ、クロストークの発生を防ぐと同時
に、開口部からの光を観察者の方へ発散する光束とする
ことで垂直方向の立体視域を拡大している。
【0015】第4図は、第3図のLCパネル20の一部領
域Aを拡大表示したものである。このディスプレイ10
では、第4図に示すように、立体視用の左右ステレオ画
像対を横ストライプ状に交互に並べて合成した画像をLC
パネル20に表示する。そのため、縦ストライプ画像を
入力とする通常のレンチキュラ方式と比較して、液晶の
縦ストライプに対応した色分離が発生しない、液晶シャ
ッター眼鏡などで標準に使われる時分割フイールド順次
方式の水平ストライプ合成画像と互換性がある等の特長
を持つ。
【0016】〈立体視のための描画〉VRMLなどの、3次
元幾何データを用いて構成される仮想空間を左右の目の
位置に相当する二つの視点から見た画像を描画すること
は、第5図に示すように、2つの視点を仮想カメラに見
立てて一般のCGの技法を用いることで容易に実現でき
る。この場合、ユーザの左目と右目の視点位置(L,
R)、視点方向(ベクトルe)、基線長b、輻輳角θに
関するデータが必要となる。
【0017】視点位置(L,R)、視点方向(視線ベク
トルe)、基線長b、輻輳角θが与えられているとす
る。ユーザの利き目を基線位置とする表記法を採用し、
そのユーザの利き目が右目である場合における、視点位
置(L,R)、視点方向(ベクトルe)、基線長b、輻
輳角θの関係を図示すると、第6図のようになる。即
ち、カメラ座標系を(x,y,z)で表わし、座標軸x
を左目から右目方向に、z軸を奥行き方向に、座標軸y
を視点方向eに一致させれば、 右目の視点位置R(xR,yR,zR)=(0,0,0) 左目の視点位置L(xL,yL,zL)=(xR−b,
R,zR) となる。また、右目の視点方向ベクトルeRを(l,
m,n)で表せば、左目の視点方向ベクトルeLも同じ
く(l,m,n)となる。第6図の表記に従えば、輻輳
角を表すベクトルは、左目の視線ベクトルeLから角度
θだけ回転したベクトルとして表すことができる。
【0018】第7図は、左右の目の中心に基線の中心を
定めた場合の、基線長bと輻輳角θの表記法を説明す
る。この場合は、座標原点は左右の目の中央に、x軸は
左目から右目の方向に、y軸が垂直方向に、奥行き方向
にz軸が取られる。すると、右目は原点からb/2だけ
右に、左目は原点からb/2だけ左によった位置にあ
る。すると、輻輳角をθとすると、右視線は、視線ベク
トルeRから反時計廻りにθ/2だけ回転した方向に、
左視線は視線ベクトルeLから時計廻りにθ/2だけ回
転した方向に一致する。
【0019】視点位置(L,R)、視点方向(視線ベク
トルe)、基線長b、輻輳角θが与えられている場合
に、第5図に示したような2つの仮想カメラによる左目
用画像と右目用画像とを生成するためには、第8図に示
すように、目(右目あるいは左目)の位置に置かれた仮
想カメラの二次元撮像面(x,y)への射影Mを求め
る。仮想カメラの位置を(XC,YC,ZC)とすると、
射影Mは、視点位置(XC,YC,ZC)、視線方向e、
視野角によって決まるマトリクスで表され周知であり、
一般的には透視変換の手法が用いられる。
【0020】VRMLデータ等の三次元空間データは、形状
を記述するデータ(点群に関する三次元位置データと各
点間のパッチリンク)を含む。三次元空間でのある点P
の位置がP(X,Y,Z)で表させられている場合に
は、その点P(X,Y,Z)の、仮想カメラの撮像面へ
の射影は、一般に、次の同次座標変換、
【0021】
【数1】
【0022】で表される。Mは4×4の行列である。こ
こで、(xM,yM)は撮像面での二次元座標であり、Z
Mは、透視変換後の奥行きに相当するもので、奥行きの
前後判定に利用できる。(1)式による演算を全ての点
群に施せば、右目用或いは左目用の画像が得られ、一方
の画像(例えば右目用画像)が得られれば、他方の画像
(左目用の画像)についても、マトリクスをその他方の
目用のマトリクスに変更して、例えば、(XC,YC,Z
C)=(XR,YR,ZR)、視線方向eRとして、(1)
式と同じように演算を行う。
【0023】以上が、立体視のための右目用画像と左目
用画像の生成の手法である。この手法自体は公知であ
る。また、マトリクス演算を利用しない方法も考えられ
るが、本発明の立体画像表示装置では、描画方法自体に
は限定がない。 〈VRMLデータ〉VRMLデータのうち、空間を記述している
部分は、他の三次元空間データと同じように、 ・形状を記述するデータ(点群に関する三次元位置デー
タと各点間のパッチリンク)と、 ・表面の特性(色及びテクスチャ)を記述するデータ
と、 ・光源位置を記述するデータと、 からなる。VRMLデータは、この他にも、初期値や、数個
のセットの視点位置・方向、動的に動いている物体の動
作方法、音の生成方法の記述(ある物体にさわると音が
するなど)、手続きの実行できるスクリプト言語の記述
などが可能である。これらのうち、視点位置、方向以外
は、今回の発明とは直接関係しないので、ここでは詳細
な説明は省略する。
【0024】しかし、VRMLデータでは、ユーザの「視点
位置」、「視線方向」を記述することが可能であって
も、「基線長」と「輻輳角」についてのデータは与えら
れていない。ただし、ユーザは仮想空間内を自由に視点
移動できるため、ある時点での「視点位置」と「視点方
向」は、実際に仮想空間を描画する時の問題であるか
ら、任意性が高過ぎ、VRMLデータの生成時点から与えら
れている必要はない。この任意性は、VRMLデータを二次
元表示する場合でも立体表示する場合でも異なるところ
はなく、従って、ユーザの「視点位置」と「視点方向」
はVRMLデータに必須のものではない。
【0025】VRMLデータの描画において、ユーザの「基
線長」と「輻輳角」についても任意性はある。VRMLデー
タは、空間の大きさを人の大きさを基準として表現する
必要がなく、作成者の意図によって自由に作成されたも
のであるから、仮想空間の体験者の実際の「基線長」と
「輻輳角」について規定することに意味がない。例え
ば、仮想空間で分子構造モデルを描画する場合におい
て、分子の大きさと基線長とはあまりにも異なりすぎ、
それ故、「基線長」を前もって定義することは実質的に
無意味であるからである。
【0026】発明者は、ユーザの「基線長」と「輻輳
角」の任意性が、「視点位置」と「視点方向」ほど高く
はないことを見いだした。即ち、ユーザの「視点位置」
と「視点方向」は、二次元画像への表示を行う場合や、
立体視用の画像を描画する場合に必須であるが、「基線
長」と「輻輳角」は、二次元画像を一枚だけ生成する場
合には不要である。しかしながら、ユーザに立体視を提
供するためには、「基線長」と「輻輳角」が必要とな
る。例えば、マクロの世界からミクロの世界にズーミン
グする場合に、例えば、広い部屋の中から小さな穴を見
ながら、その小さな穴の中に入っていくような描画を行
う場合に、二次元画像を描画する場合には「基線長」と
「輻輳角」は問題とならず、単に移動速度だけが問題と
なる。
【0027】一方、第9図に示すように、三次元の立体
表示をしながら、小さな穴40が設けられた部屋50の
中で、その「穴」から離れたところから、その穴に近づ
いて入っていく場合を想定すると、視点位置が穴40か
らかなり離間している場合には、右目用画像と左目用画
像との間で相違は少なく、問題はない。しかし、穴40
に近づいた場合には、第10図に示すように、基線長
(人間の左右の目の間の距離は6.5cmである)がその穴
の直径(第10図の例では5cm)よりも大きいとし、ユ
ーザが穴の中を覗くことを意図しているような場合に
は、立体視描画は意味が無くなる。なぜなら、第10図
の例では、左目は穴40の中を見ることはできないから
である。二次元画像の描画にはそのような問題は発生し
ない。第10図の例のような場合には、ユーザに基線長
を短くすることを可能ならしめ、恰も穴内部に入り込ん
で(即ち、ユーザ自身がミクロ化したように)穴内部を
見渡すような立体画像を描画することに意味がある。
【0028】〈基線長と輻輳角の自動付与〉本実施形態
のビューワ装置は、VRMLデータが、基線長と輻輳角が与
えられていないことに鑑みて、外部から取り込んだVRML
データに、ユーザの手を介さずに、自動的に基線長と輻
輳角を与えるものである。第11図は、第2図のビュー
ワ装置が、WWWサイトからWWWブラウザを介してVRMLデー
タを取得し、そのVRMLデータに、基線長と輻輳角を付与
し、任意の視点位置における左目用画像104と右目用
画像105とを生成し、生成した両画像を立体ディスプ
レイ10に表示する際のデータの流れを説明する。
【0029】即ち、第11図に於いて、ビューワアプリ
ケーションプログラム100は、オペレーティングシス
テム(OS)102の下に稼働するWWWブラウザ101
のヘルパープログラムである。本実施形態のビューワ装
置1000は、第2図に示すように、ビューワアプリケ
ーションプログラム100の処理手順(第12図)と仮
想空間データ(三次元空間データ)と処理内容(空間操
作データと立体視パラメータ)を記憶する記憶装置16
を有する。ここで、第2図の仮想空間データ(即ち三次
元空間データ)は、第11図のVRMLデータ112であ
る。また、第2図の空間操作データとは、立体視表示を
実際に行う際に必要となる、例えば、前進(或いは後
退)距離、視野角等を表すために、所定のユーザインタ
フェースにより入力されたデータであり、第11図では
110として示される。また、第2図の立体視パラメー
タは、ビューワアプリケーションプログラム100が生
成した基線長と輻輳角等の立体視パラメータであり、第
11図では111として表される。
【0030】第11図で、ユーザがWWWブラウザ101
を起動して、WWWブラウザ101がWWWサイト200から
VRMLデータを得る。このような画像データには、所定の
ファイル拡張子が付加されている。一方、ビューワアプ
リケーションプログラム100は、WWWブラウザプログ
ラム101のヘルパープログラムとして前もって登録さ
れている。即ち、ビューワ・アプリケーションプログラ
ム100は、WWWブラウザ101から渡された所定のフ
ァイル拡張子を付加されたデータに対して、基線長の初
期値b0と、輻輳角の初期値θ0とを付与し、更に、基線
長b、輻輳角θ等を含む空間操作データを変更するユー
ザインタフェース環境を提供する。
【0031】以下では、第11図と第12図とを参照し
ながら説明する。第12図は、ビューワ・アプリケーシ
ョンプログラム10の制御手順である。WWWブラウザ1
01が、WWWサイト200から受信したデータに上記フ
ァイル拡張子を認識すると、WWWブラウザ101は、立
体視パラメータの付与が必要と判断して、そのVRMLデー
タをビューワ・アプリケーションプログラム100に渡
す。ビューワ・アプリケーションプログラム100は、
ステップS2で、そのVRMLデータを受け取る。
【0032】ステップS4では、受け取ったVRMLデータ
から立体視パラメータ(基線長bと輻輳角θ)の初期値
(b0とθ0)を決定する。この決定の手法は後述する。
決定された初期値は立体視パラメータ記憶領域111に
記憶される。ステップS6では、決定された基線長と輻
輳角の初期値(b0,θ0)に従って上記(1)式を用い
て、右目用画像105と左目用画像104とを生成し
て、WWWブラウザ101に渡す。WWWブラウザ101或い
はオペレーティングシステム102は、これらの画像を
合成してディスプレイ10に表示する(ステップS
8)。この合成の手法はステンシルバッファ12を用い
たもので、本ビューワ装置1000の1つの特徴点でも
あり、後に詳細に説明することとする。
【0033】ユーザは表示画面を見て、自身の希望に合
わせて、基線長を変更し、或いは、視野角を変更し、或
いは輻輳角を変更し、或いは前進もしくは後退さらには
回転等のウォークスルー操作を行うかも知れない。基線
長を変更し、或いは、視野角を変更し、或いは輻輳角を
変更する操作は、本実施形態では、立体視パラメータの
変更操作と呼ぶ。一方、前進もしくは後退さらには回転
等のウォークスルー操作は空間操作或いはインタラクシ
ョン操作と呼ぶ。
【0034】ステップS10で入力されたデータが終了
操作であると判断(ステップS12)されれば、本ビュ
ーワ・アプリケーションプログラム100は終了する。
一方、ウォークスルー、仮想空間中の物体の移動などの
インタラクション操作であると判断されれば、ステップ
S22に進み、そのインタラクション操作に対応した処
理が行われる。
【0035】また、入力された操作が、立体視パラメー
タの操作であるならば、ステップS20で、操作に係る
立体視パラメータを変更する、即ち、記憶部111内の
内容を変更する。
【0036】〈基線長の初期値〉ステップS4において
行われる処理のうち、基線長の初期値b0は以下のよう
にして決定される。即ち、ビューワ・アプリケーション
プログラム100は、基線長の初期値b0を対象となる
空間のデータのみから推定する。尚、立体視パラメータ
の与えられていない空間データのみから、立体視パラメ
ータを求めるという処理自体は従来では行われていなか
ったものである。まず、空間全体の大きさを推定し、こ
の大きさと適当な定数kとの積をとることによって、基
線長初期値b0とする。このような決定の意味は、「空
間全体の大きさに対して、0より大きいある一定倍の大
きさが人間の大きさであるとする」ということである
(標準的な人の基線長は65mmである)。
【0037】具体的には、VRMLデータの点群を(Xi
i,Zi)とする。この(Xi,Yi,Zi)の中で、
i,Yi,Ziの各々について最大値(Xmax,Ymax
max)と最小値(Xmin,Ymin,Zmin)とを求める。
これらの最大値(Xmax,Yma x,Zmax)と最小値(X
min,Ymin,Zmin)は、第13図のような1つの立体
を与える。この立体は、VRMLデータが表す対象空間の範
囲を規定する。この立体のX方向、Y方向、Z方向の夫
々の大きさSは、 Sx=Xmax−Xminy=Ymax−Ymin …(2) Sz=Zmax−Zmin で与えられ、従って、基線長初期値b0は上記SX
Y,SZの最大値、即ち、 b0=k・max(SX,SY,SZ) …(3) で与えられる。ここで、kは所定の定数である。
【0038】この方法を用いると、対象空間がどのよう
な大きさのものを表現しているかに関らず、VRMLデータ
が表す対象空間は常にある一定の大きさのものとしてユ
ーザに知覚されるようになる。空間の全体の大きさは人
間の大きさの基準となるわけではないので、上述のよう
にして得られた基線長により本来望ましい立体感が得ら
れるとは限らない。例えば、本来的には第14図のよう
な人間に対する大きさを有する対象物(例えば、ピラミ
ッド)をユーザに表示するのに、上述の方法は、人をあ
る値で固定した場合、第15図の大きさの物体としてユ
ーザに提示することとなり、必ずしもユーザの希望と合
致していないかも知れない。しかしながら、上述の方法
により得られた基線長は、対象空間を全体的に把握でき
る視野を与える。反対に、基線長の初期値b0を人間の
目の大きさに設定することも本発明では可能であるが、
好ましくない場合が多く発生する。
【0039】上記式(3)で、定数値kは任意に設定で
きるので、式(3)に基づく実施形態の手法は、基線長
の初期値b0を人間の目の大きさに設定することも許容
する。
【0040】〈輻輳角の初期値の決定〉ステップS4に
おいて行われる処理のうち、輻輳角の初期値θ0は以下
のようにして決定される。輻輳角θは、本来近くのもの
を観察する場合に、両眼が両方とも内側に向くことによ
って生じる。空間の奥行きが限定されていて、奥行き方
向の範囲が狭い空間の場合には輻輳角を設けることがで
きる。しかし、無限遠まで観察できることを前提とする
と、輻輳角を0として、平行視を初期状態とすることが
妥当である。従って、本実施形態では、輻輳角の初期値
を、 θ0=0 とする。輻輳角の初期値を0とすることによって、常
に、本来望ましい立体感が得られているとは限らない。
しかし、少なくとも立体感を把握できる立体視パラメー
タとすることが可能となる。
【0041】〈ユーザ・インタフェース〉立体視パラメ
ータの初期値は前述したように、あらゆる場合にも最適
値を与えるとは限らない。また、初期値が最適であった
としても、例えば、ウォークスルーすることによって、
そのパラメータを変更する方が好ましい場合が発生す
る。例えば、街の仮想空間の中で、あるビルに向かって
進み、さらにそのビルのあるドアのドアノブの鍵穴へと
近寄っていく(さらに鍵穴に入っていく)操作をしたす
ると、ある時点から左右画像を融像することができなく
なる(左右画像のずれ量が大きくなる)ため、立体感が
失われる。そのため、観察者の操作に応じて、動的に立
体視パラメータが変更できる必要がある。上述の例の場
合でいうと、基線長を小さく(鍵穴に入れるように人間
の大きさを小さく)する必要があるのである。
【0042】更に、立体視パラメータに限らず、仮想空
間内をユーザが移動することによるインタラクション処
理も必要となる。本ビューワ・アプリケーションプログ
ラム100は、パラメータの変更及びインタラクション
の入力のためのユーザ・インタフェースも提供する。第
16図は、ディスプレイ10の画面に表示されたユーザ
・インタフェース(GUI)を表す。
【0043】同図において、200と201は基線長b
を変更するためのユーザ・インタフェース(VIEW OFFSE
T)であり、どちらもスライドバーのコントロールであ
る。スライドバー200は基線長を大きく変更すると
き、スライドバー201は小さく変更するときに使用す
る。基線長初期値b0が第14図のような仮想空間が得
られるようにしていた場合に、スライドバー200によ
り基線長を大きくすることによって第15図のような表
示が得られる。
【0044】第16図に於いて、スライドバー202は
前進方向の移動速度(FWD SPEED)を変更するときに用い
る。スライドバー203は後退方向の移動速度(BWD SPE
ED)を変更するときに用いる。また、スライドバー20
4は輻輳角(View Cingestion)を変更するときに用い
る。更にスライドバー205は視野角(Field of View)
を変更するときに用いる。
【0045】第16図に示されたユーザ・インタフェー
スはユーザがマウス15を用いて操作する。マウスの移
動量が操作量となる。尚、ユーザ・インタフェースの具
体的なツールはスライドバーに限定されない。連続的に
変更できるツール、例えば、ジョグダイヤルであっても
よい。
【0046】〈画像の合成〉第12図のステップS6に
おいて行われる左右画像の合成について説明する。立体
視を得るために、ディスプレイ10に表示される右目用
画像と左目用画像とをフレームバッファに格納する必要
がある。このフレームバッファには、本実施形態に用い
られている立体ディスプレイ10がリアクロスレンチ方
式眼鏡無し3Dディスプレイであるので、第4図に示すよ
うに、立体視用の左右ステレオ画像対が横ストライプ状
に交互に並べて表示される。このために、1つのフレー
ムバッファに、第17図に示すように、左目用画像の1
ストライプと右目用画像の1ストライプとを交互に格納
する必要がある。
【0047】従来では、第18図,第19図に関連して
説明したように、複数枚のフレームバッファを必要とし
コスト的に不利であったことと、フレームバッファから
のデータ読出が処理効率を低下させていた。本実施形態
のバッファ制御は、一枚のフレームバッファで済み、ま
たフレームバッファからのデータ読出が不要な制御を提
案するものである。このために、本実施形態のビューワ
装置1000は、フレームバッファ11とステンシルバ
ッファ12とを具備する。
【0048】ステンシルバッファ12は、通常の画像処
理装置にはオプションとして装着されているバッファメ
モリである。本実施形態では、ステンシルバッファ12
は、第20図に示すように、深さ方向で1ビット、縦横
で、ディスプレイ10の画素数と同じビット数を有する
メモリで、交互に、0000000000…1111111111…のデータ
が前もって記憶されている。本実施形態では、ステンシ
ルバッファ12はマスクとして用いる。即ち、“1”は
マスクとして機能させ、“0”はマスクとして機能させ
ないものとする。
【0049】第21図はフレームバッファへのデータ書
込手順を示すフローチャートである。ステップS70で
は、右目から3次元空間を眺めたときの画像を生成す
る。そして、右目の視点位置と方向を基にして、3次元
空間データの描画処理を行う。これにより、フレームバ
ッファ11に描画結果の右目用画像が蓄えられる。即
ち、この時点では、フレームバッファ11の全アドレス
には右目用画像のデータが書き込まれていることにな
る。
【0050】ステップS72では、第20図のようなマ
スクパターンを用意し、ステンシルバッファ12にその
マスクパターンを書き込む。ステップS74では、左目
用画像を生成し、その画像を、ステンシルバッファ12
のマスク(値は“1”)を考慮して、フレームバッファ
11に書き込む。ステップS74の処理により、フレー
ムバッファ11においては、ステンシルバッファ12の
“0”が書き込まれていた位置の右目用画像はそのまま
保存され、ステンシルバッファ12の“1”が書き込ま
れていた位置に対応するフレームバッファ11の画素位
置には左目用画像が書き込まれることになる。この操作
により、第17図のようなストライプが得られる。
【0051】フレームバッファからのデータの読み出
し、フレームバッファへの書き込みといったデータ転送
は、一般に処理時間のかかる処理であり、処理速度を低
下させる要因であるが、第21図の提案手法は、フレー
ムバッファの読み出しを行わず、描画更新をマスクする
ことで同じフレームバッファに上書きすることのみによ
って左右画像の合成を行っており、処理速度の低下が押
さえられる。また、フレームパッファは、通常の3次元
空間からの画像の生成処理と同じ1枚しか必要としない
ので、コスト的に有利である。
【0052】〈実施形態の効果〉以上説明した立体画像
表示装置によれば、 i) 例えば、基線長、輻輳角等は、立体視に不可欠であ
るにもかかわらず、三次元空間データには通常用意され
ていないが、本実施形態のビューワ・アプリケーション
プログラムによれば、外部(特にインターネット等を介
して)からその三次元空間データを取得したときに、ユ
ーザの手間をかけずに生成付加してくれる。この立体視
パラメータの自動付加は、WWWブラウザのヘルパーアプ
リケーションプログラムとして付加したときに特に有効
である。この場合、ビューワ・アプリケーションプログ
ラムは、データのファイル拡張子により、パラメータの
付加が必要な画像データであるか否かの判断を行うこと
ができるので、付加の自動化が実現し、併せて、その判
断の確実性が増す。 ii) また、一旦設定された立体視パラメータはユーザの
目的に合わせて、自由に変更できるようなユーザインタ
フェース(GUI)が用意されているので、アプリケーショ
ンの目的に即した違和感のない立体視が実現される。
【0053】ユーザ・インタフェースは、グラフィック
ユーザ・インタフェース(GUI)であるので、操作性は高
い。 iii) 実施形態のバッファ制御によれば、立体画像の描
画のために、ステンシルバッファという低コストのバッ
ファを用いるだけで、フレームバッファを1つに減らす
ことができる。また、フレームバッファからのデータ読
出を除去できるので、効率的なバッファへの展開が可能
になった。
【0054】〈変形例〉本発明のビューワ・アプリケー
ションプログラムはブラウザのヘルパーアプリケーショ
ンとしてのみ機能するものではない。立体表示を目的と
するものであれば、スタンドアロンのプログラムとして
も機能し得る。立体視パラメータの初期値は上述の手法
以外によっても決定可能である。このパラメータの初期
値が、ユーザに違和感を与えるか否かは、アプリケーシ
ョンによる。従って、ビューワ・アプリケーションプロ
グラムにアプリケーション毎に、初期値決定のための定
数kの値を前もっていろいろ用意しておき、アプリケー
ションプログラム毎に、異なる定数値を用いるようにす
る。
【0055】本発明のユーザインタフェースは、ディス
プレイに表示することに限られない。ユーザが、パラメ
ータなどを連続的に或いは離散的に変更できるユーザ・
インタフェースであれば種類を問わない。フレームバッ
ファの内容をマスクするときに用いるマスク情報は、ス
テンシルバッファに限られない。第20図のようなデー
タが格納されているのであれば、例えば、ROMを用い
てもよい。
【0056】マスク情報の“0”と“1”のマスク機能
は逆であってもよい。立体ディスプレイ10のLCD2
0における画像フォーマットの配置順に対応させる。第
21図の制御手順で、左目用画像を先に書き込んでもよ
い。マスク情報の“0”と“1”のマスク機能を逆転さ
せるか否かは、立体ディスプレイ10のLCD20の配
置に対応させればよいこととなる。
【0057】
【発明の効果】以上説明したように、本発明によれば、
1つのフレームバッファだけで、効率的な立体視表示の
ためのバッファ制御を達成できた。
【図面の簡単な説明】
【図1】実施形態に係るビューワ装置がWWWネットワー
クに接続された形態を説明する図。
【図2】実施形態に係るビューワ装置1000の構成を
示す図。
【図3】ビューワ装置100に用いられているリアクロ
スレンチ方式眼鏡なし3Dディスプレイ10の構成を説明
する図。
【図4】ディスプレイ10のLCD部分を拡大した図。
【図5】立体視を得るための左目用画像と右目用画像の
生成原理を説明する図。
【図6】輻輳角と基線長の関係を説明する図。
【図7】輻輳角と基線長の関係を他の記法によって説明
する図。
【図8】任意の三次元位置を仮想カメラの撮像面に投影
する原理を説明する図。
【図9】基線長を適切に設定することの必要性を説明す
る図。
【図10】基線長を適切に設定することの必要性を説明
する図。
【図11】ビューワ装置1000における機能構成を説
明するブロック図。
【図12】ビューワ・アプリケーションプログラムの制
御手順を示すフローチャート。
【図13】基線長の初期値を決定する原理を説明する
図。
【図14】基線長の値が小さく設定されたときの仮想空
間の表示例を示す図。
【図15】基線長の値が大きく設定されたときの仮想空
間の表示例を示す図。
【図16】実施形態の表示装置に表示されるグラフィッ
クユーザ・インタフェースを説明する図。
【図17】実施形態のビューワ装置のフレームバッファ
において格納されるデータ順序を説明する図。
【図18】従来のフレームバッファの1手法に係る制御
手順を説明するフローチャート。
【図19】従来のフレームバッファの他の手法に係る制
御手順を説明するフローチャート。
【図20】ステンシルバッファ12に記憶されるマスク
情報の例を説明する図。
【図21】実施形態に係るフレームバッファ制御の制御
手順を説明するフローチャート。
【図22】実施形態に係るフレームバッファ制御の制御
手順を説明する図。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA04 BA08 BA09 BA18 CA07 CA08 DA04 EA19 EA24 EA27 EA28 FA02 FA05 5B080 BA05 CA01 FA01 FA02 FA08 GA02 GA22 GA25

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 三次元空間データに応じた立体表示を行
    う情報処理装置であって、 立体視パラメータを用いて三次元空間データから右目
    用、左目用画像を生成する生成手段と、 マスク情報を保持する保持手段と、 前記右目用画像と前記左目用画像を前記マスク情報を用
    いてフレームバッファ上で合成し、立体表示のための画
    像を生成する合成手段とを有し、 前記生成手段によって生成された右目用画像と左目用画
    像の一方を前記フレームバッファ上に描画し、他方の画
    像を前記フレームバッファ上にマスク情報を参照しなが
    ら描画更新することを特徴とする情報処理装置。
  2. 【請求項2】 前記保持手段はステンシルバッファであ
    ることを特徴とする請求項1記載の情報処理装置。
  3. 【請求項3】 さらに、インタラクション操作に関する
    ユーザの指示および立体視パラメータ操作に関するユー
    ザの指示を入力する入力部を有し、 前記生成手段は、 前記インタラクション操作に応じたインタラクション処
    理を行い、前記立体視パラメータ操作に応じて動的に変
    更された立体視パラメータを用いて前記三次元空間デー
    タから前記右目用、左目用画像を生成することを特徴と
    する請求項1記載の情報処理装置。
JP2002222026A 2002-07-30 2002-07-30 情報処理装置 Withdrawn JP2003067784A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002222026A JP2003067784A (ja) 2002-07-30 2002-07-30 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002222026A JP2003067784A (ja) 2002-07-30 2002-07-30 情報処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP18513598A Division JP3420504B2 (ja) 1998-06-30 1998-06-30 情報処理方法

Publications (1)

Publication Number Publication Date
JP2003067784A true JP2003067784A (ja) 2003-03-07

Family

ID=19196104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002222026A Withdrawn JP2003067784A (ja) 2002-07-30 2002-07-30 情報処理装置

Country Status (1)

Country Link
JP (1) JP2003067784A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059842A1 (es) * 2003-12-19 2005-06-30 Tdvision Corporation S.A. De C.V. Sistema de videojuegos 3d
JP2008514277A (ja) * 2004-09-28 2008-05-08 イマージョン コーポレーション 超音波リアルタイムシミュレーション装置及び方法
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
JP2011211685A (ja) * 2010-01-14 2011-10-20 Nintendo Co Ltd 携帯型情報処理装置、携帯型ゲーム装置
JP2012139318A (ja) * 2010-03-12 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2012142804A (ja) * 2010-12-29 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP2012141753A (ja) * 2010-12-28 2012-07-26 Nintendo Co Ltd 画像処理装置、画像処理プログラム、画像処理方法および画像処理システム
US8428326B2 (en) 2008-10-23 2013-04-23 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
US8442806B2 (en) 2010-03-03 2013-05-14 Immersion Medical, Inc. Systems and methods for simulations utilizing a virtual coupling
US8952956B2 (en) 2010-12-16 2015-02-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9171484B2 (en) 2008-03-06 2015-10-27 Immersion Corporation Determining location and orientation of an object positioned on a surface
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
JP2021086494A (ja) * 2019-11-29 2021-06-03 株式会社リコー 画像処理装置、画像処理方法、プログラム

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4841250B2 (ja) * 2003-12-19 2011-12-21 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
US8206218B2 (en) 2003-12-19 2012-06-26 Tdvision Corporation S.A. De C.V. 3D videogame system
US7666096B2 (en) 2003-12-19 2010-02-23 Tdvision Corporation S.A. De C.V. Method for generating the left and right perspectives in a 3D videogame
WO2005059842A1 (es) * 2003-12-19 2005-06-30 Tdvision Corporation S.A. De C.V. Sistema de videojuegos 3d
JP2007528518A (ja) * 2003-12-19 2007-10-11 ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. 3dビデオゲーム・システム
KR101101570B1 (ko) 2003-12-19 2012-01-02 티디비전 코포레이션 에스.에이. 데 씨.브이. 3차원 비디오게임 시스템
JP2008514277A (ja) * 2004-09-28 2008-05-08 イマージョン コーポレーション 超音波リアルタイムシミュレーション装置及び方法
US7835892B2 (en) 2004-09-28 2010-11-16 Immersion Medical, Inc. Ultrasound simulation apparatus and method
JP2011172999A (ja) * 2004-09-28 2011-09-08 Immersion Corp 超音波リアルタイムシミュレーション装置及び方法
US8244506B2 (en) 2004-09-28 2012-08-14 Immersion Medical Inc. Ultrasound simulation apparatus and method
US9171484B2 (en) 2008-03-06 2015-10-27 Immersion Corporation Determining location and orientation of an object positioned on a surface
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
US8428326B2 (en) 2008-10-23 2013-04-23 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
JP2011070432A (ja) * 2009-09-25 2011-04-07 Bunkyo Daigaku Gakuen 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
JP4482657B1 (ja) * 2009-09-25 2010-06-16 学校法人 文教大学学園 3次元コンテンツを立体コンテンツに自動変換するステレオビューア
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8894486B2 (en) 2010-01-14 2014-11-25 Nintendo Co., Ltd. Handheld information processing apparatus and handheld game apparatus
JP2011211685A (ja) * 2010-01-14 2011-10-20 Nintendo Co Ltd 携帯型情報処理装置、携帯型ゲーム装置
US8442806B2 (en) 2010-03-03 2013-05-14 Immersion Medical, Inc. Systems and methods for simulations utilizing a virtual coupling
JP2012139318A (ja) * 2010-03-12 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US10506218B2 (en) 2010-03-12 2019-12-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US10764565B2 (en) 2010-03-12 2020-09-01 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US8952956B2 (en) 2010-12-16 2015-02-10 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
EP2466440A3 (en) * 2010-12-16 2015-02-18 Nintendo Co., Ltd. Display control program, display control apparatus, display control system, and display control method
JP2012141753A (ja) * 2010-12-28 2012-07-26 Nintendo Co Ltd 画像処理装置、画像処理プログラム、画像処理方法および画像処理システム
JP2012142804A (ja) * 2010-12-29 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP2021086494A (ja) * 2019-11-29 2021-06-03 株式会社リコー 画像処理装置、画像処理方法、プログラム
JP7434846B2 (ja) 2019-11-29 2024-02-21 株式会社リコー 画像処理装置、画像処理方法、プログラム

Similar Documents

Publication Publication Date Title
JP3420504B2 (ja) 情報処理方法
JP3619063B2 (ja) 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP4214976B2 (ja) 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
KR100894874B1 (ko) 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법
CN113099204B (zh) 一种基于vr头戴显示设备的远程实景增强现实方法
JP2005353047A (ja) 立体画像処理方法および立体画像処理装置
JP2005295004A (ja) 立体画像処理方法および立体画像処理装置
TW201031177A (en) Generation of occlusion data for image properties
WO2004107764A1 (ja) 画像表示装置及びプログラム
JP2008083786A (ja) 画像生成装置および画像生成方法
CA2550512A1 (en) 3d videogame system
WO2009140908A1 (zh) 光标处理方法、装置及系统
JP2003067784A (ja) 情報処理装置
US10493360B2 (en) Image display device and image display system
WO2010085549A1 (en) System and method for three-dimensional visualization of geographical data
TW202240530A (zh) 用於新穎視圖合成之神經混合
JP2004234455A (ja) 情報処理方法および画像再生装置
JP2005070963A (ja) 画像表示装置、画素データ取得方法、およびその方法を実行させるためのプログラム
JP2003209769A (ja) 画像生成装置および方法
JP2001067473A (ja) 画像生成方法及びその装置
KR100381817B1 (ko) 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP2006254240A (ja) 立体画像表示装置、その方法及びプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906