JP2004030408A - 三次元画像表示装置及び表示方法 - Google Patents
三次元画像表示装置及び表示方法 Download PDFInfo
- Publication number
- JP2004030408A JP2004030408A JP2002188117A JP2002188117A JP2004030408A JP 2004030408 A JP2004030408 A JP 2004030408A JP 2002188117 A JP2002188117 A JP 2002188117A JP 2002188117 A JP2002188117 A JP 2002188117A JP 2004030408 A JP2004030408 A JP 2004030408A
- Authority
- JP
- Japan
- Prior art keywords
- user
- viewpoint position
- projection
- dimensional image
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】三次元画像の表示における視点位置の操作と、仮想物体そのものに対する操作を同時にかつ容易に行なうことを可能にする。
【解決手段】ユーザの位置を撮影するための複数のカメラ2a、2bと、複数のカメラからの画像に基づいて実空間におけるユーザの位置を決定するユーザ位置決定手段4と、実空間における決定されたユーザの位置に基づいて、仮想空間におけるオブジェクトを投影するための投影視点位置を決定するオブジェクト投影視点位置決定手段6と、決定された投影視点位置、オブジェクトを定義するオブジェクト定義情報、およびオブジェクトを投影するための投影情報に基づいて、オブジェクトの三次元形状を投影画面に投影変換する三次元画像投影変換手段12と、投影変換された画像を提示する三次元画像提示手段14と、を備えている。
【選択図】 図1
【解決手段】ユーザの位置を撮影するための複数のカメラ2a、2bと、複数のカメラからの画像に基づいて実空間におけるユーザの位置を決定するユーザ位置決定手段4と、実空間における決定されたユーザの位置に基づいて、仮想空間におけるオブジェクトを投影するための投影視点位置を決定するオブジェクト投影視点位置決定手段6と、決定された投影視点位置、オブジェクトを定義するオブジェクト定義情報、およびオブジェクトを投影するための投影情報に基づいて、オブジェクトの三次元形状を投影画面に投影変換する三次元画像投影変換手段12と、投影変換された画像を提示する三次元画像提示手段14と、を備えている。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は物体の三次元画像を表示する三次元画像表示装置及び表示方法に関する。
【0002】
【従来の技術】
三次元コンピュータグラフィクスにおいては、ユーザは仮想空間中に可視領域(仮想空間内部に配置される描画の対象とする部分空間)を設定し、その中に配置される仮想的な物体(オブジェクト)を対象に三次元画像を描画する。三次元画像の描画は、仮想空間内に視点と投影面を与えて可視領域内部のオブジェクトを、その投影面に対して投影変換することにより行う。投影変換としては、例えば視点を中心として投影する透視投影変換が知られている。
【0003】
ユーザが所望する三次元画像を得るには、オブジェクトおよび可視領域を移動あるいは変化させる方式と、視点そのものの位置を変更する方式がある。これらの方式は相対的な関係にあるため、通常は視点を移動し必要に応じて可視領域の設定を変更する方式が用いられる。従来の技術では、視点の移動にはキーボードからの入力やマウス、トラックボールなどのポインティングデバイスが利用されることが多い。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の三次元画像表示装置では、仮想空間上に配置されているオブジェクトあるいは視点の操作を直接的に操作することができず、その操作方法がユーザにとって直感的ではない。
【0005】
三次元空間上に配置されたオブジェクトの持つ自由度は、各座標軸方向に関する位置の自由度と、各座標軸を中心とする回転の自由度の合計6自由度を持つ。しかしながら、このような三次元画像表示装置で視点の設定などに通常利用されるマウスやトラックボールは基本的には縦横の2自由度しか持たない。そこで、従来の三次元画像表示装置では、ボタンの押下と併用したり、メニューにより状態を選択するといった手法によって操作のモードを切り替えて、三次元空間内部の視点の設定操作を実現している。
【0006】
また仮想空間に配置されたオブジェクトを任意の視点から観測するだけでなく、三次元画像表示を行なう場合にはその表示したオブジェクトに何らかの操作を加えたい場合が多い。例えば仮想空間上に複数のオブジェクトが配置された状況においては、オブジェクトの位置を移動させつつ各オブジェクトの位置関係を様々な視点から確認したいという要望が生じる。また場合によってはオブジェクトに対して変形操作を行ない、その結果をやはり様々な視点から確認するという作業も発生しうる。
【0007】
従来の三次元画像表示装置における操作では、オブジェクトに対する操作と視点の移動操作の切り替えはモードの切り替えに対応するため、オブジェクトそのものに対する位置の移動や変形の操作と、視点移動の操作とを同時に実現することは困難である。あるいは高度なポインティングデバイスを利用した自由度の高い操作装置を導入することで同時操作を実現することは不可能ではないが、操作が煩雑になり、やはり直感的な操作は難しい。
【0008】
本発明は、上記事情を考慮してなされたものであって、仮想空間中に配置されたオブジェクトの三次元表示表示に関して、視点移動の操作と、オブジェクトの操作とを同時にかつ容易に行なうことのできる三次元画像表示装置及び表示方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明の一態様による三次元画像表示装置は、仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示装置であって、ユーザの位置を撮影するための複数のカメラと、前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するユーザ位置決定手段と、前記ユーザ位置決定手段によって決定された実空間におけるユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するオブジェクト投影視点位置決定手段と、前記オブジェクト投影視点位置決定手段によって決定された前記投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換する三次元画像投影変換手段と、前記三次元画像投影変換手段によって投影変換された画像を提示する三次元画像提示手段と、を備えたことを特徴とする。
【0010】
なお、前記オブジェクト投影視点位置決定手段は、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定するように構成しても良い。
【0011】
なお、前記オブジェクト投影視点位置決定手段は、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としても良い。
【0012】
なお、前記ユーザ位置決定手段は、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定しても良い。
【0013】
なお、前記ユーザ位置決定手段は、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出する肌色画素検出部と、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素検出部によって検出された肌色画素から前記ユーザの顔領域を検出する顔領域検出部と、前記顔領域検出部によって検出された顔領域から実空間における前記ユーザの視点位置を演算する視点位置演算部とを備えるように構成しても良い。
【0014】
なお、前記顔領域検出部は、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、前記視点位置演算部は、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算するように構成しても良い。
【0015】
また、本発明の一態様による三次元画像表示方法は、仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示方法であって、複数のカメラを用いてユーザの位置を撮影するステップと、前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するステップと、前記実空間における前記決定されたユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するステップと、前記決定された投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換するステップと、前記投影変換された画像を提示するステップと、を備えたことを特徴とする。
【0016】
なお、前記投影視点位置を決定するステップは、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定しても良い。
【0017】
なお、前記投影視点位置を決定するステップは、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としても良い。
【0018】
なお、前記ユーザの位置を決定するステップは、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定しても良い。
【0019】
なお、前記ユーザの位置を決定するステップは、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出するステップと、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素を検出するステップによって検出された肌色画素から前記ユーザの顔領域を検出するステップと、前記検出された顔領域から実空間における前記ユーザの視点位置を演算するステップとを備えるように構成しても良い。
【0020】
なお、前記顔領域を検出するステップは、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、前記ユーザの視点位置を演算するステップは、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算しても良い。
【0021】
【発明の実施の形態】
以下に、本発明の実施の形態を、図面を参照して説明する。
【0022】
本発明の一実施形態による三次元画像表示装置の構成を図1に示し、この実施形態の三次元画像表示装置の外観を図2に示す。この実施形態の三次元画像表示装置は、少なくとも2台のカメラ2a、2bと、ユーザ視点位置決定手段4と、オブジェクト投影視点位置決定手段6と、オブジェクト定義ユニット8と、投影情報定義ユニット10と、三次元画像投影変換手段12と、三次元画像提示手段14とを備えている。この実施形態の三次元画像表示装置は、図2に示すように、ユーザ100の正面に置かれた、例えば液晶ディスプレイからなる三次元画像提示手段14の上部にユーザ100の画像を撮影する複数(図2では2台)のカメラ2a、2bが設けられている。カメラ2a、2bの向きは、ユーザ100がディスプレイ14に対して正対したとき、カメラ2a、2bの画角の中心にユーザ100の顔が配置されるように設定される。この位置関係で配置されたときには、ユーザ100は、視線上に配置されると仮定する仮想的なオブジェクトをあたかも実際に存在するように観測することができる。三次元画像を投影する際の視点の位置は、ユーザ100の顔の実際の位置から決定される。ユーザ100の顔の実空間上における位置は、複数のカメラ2a、2bからの画像に基づいて測定される。
【0023】
次に、本実施形態の構成と作用を説明する。
【0024】
ユーザ100の顔の画像が複数のカメラ2a、2bによって得られ、これらのカメラ2a、2bからのそれぞれの画像に基づいて、ユーザ100の視点位置がユーザ視点位置決定手段4によって決定される。このユーザ視点位置決定手段4は、図3に示すように、肌色画素検出部41a、41bと、顔領域検出部43a、43bと、視点位置演算部45とを備えている。
【0025】
カメラ2a、2bからの画像が肌色画素検出部41a、41bにそれぞれ入力されると、各肌色画素検出部41i(i=a、b)においては、入力された画像を構成する画素のR(赤)値、G(緑)値、B(青)値を以下の式を用いてa値、b値に変換する。
【0026】
r=R/(R+G+B+1)
g=G/(R+G+B+1)
a=(r+g)/2.0
b=√3g/2.0
a値、b値への変換は、RGB空間上におけるベクトル(1,1,1)に直交する平面上の正三角形内への投影に相当するため、輝度の影響を受けにくいという特長を有する。
【0027】
肌色を表現する画素が持つa値、b値は、基準となる肌色を示す点(平均値)a0、b0を中心として正規分布するものと仮定し、a値、b値が予め定められた標準偏差内に収まる画素を肌色画素として抽出する。なお、肌色の基準点とする平均値a0、b0および標準偏差については実験により適切な値を求め、パラメータとして与えている。
【0028】
各肌色画素検出部41i(i=a,b)によって検出された各画素に関する肌色画素か否かの検出結果は、カメラ2iからの画像とともに顔領域検出部43iに入力される。各顔領域検出部43i(i=a,b)は、肌色画素が構成する連結領域を求め、その面積が最大となるものを、ユーザの顔領域と判定する機能を有する。具体的には以下の手続きを経て顔領域の判定を行なう。
【0029】
まずカメラ2i(i=a,b)からの画像を格子状に区切る。3×3個の画素からなる小格子に区切った場合の処理の概要を図4に示す。図4(a)において、破線で囲まれた最小の正方形が画素21を示し、斜線で覆われた画素21aが肌色画素と判定された画素を示す。小格子g1,・・・,g16は、3×3個の画素から構成されている。
【0030】
続いて、各小格子gi(i=1,・・・,16)毎に肌色画素と判定された画素の数を記録する。肌色画素の数を格子ごとに積算している状況を図4(a)に示す。例えば、図4(a)において、肌色画素21aは、小格子g1には0個、小格子g2には5個、小格子g3には4個、小格子g4には0個、小格子g5には3個、小格子g6には9個、小格子g7には4個、小格子g8には0個、小格子g9には1個、小格子g10には6個、小格子g11には2個、小格子g12〜g16には0個が含まれている。
【0031】
次に、各小格子を単位として周囲の小格子に記録された肌色画素数の総数を計算する。図4(b)は、小格子g22を中心としてやはり3×3個の小格子g11、g12、・・・、g33からなる大格子Gにおける肌色画素数の総数を求める状況を示す。この総数に関して、あらかじめ定義しておく第1のしきい値と比較し、この第1のしきい値を越える場合に大格子Gの中心の小格子g22を、有効な肌色画素を含む小格子として、その後の処理の対象とする。総数が第1のしきい値を越えない大格子Gの中心の小格子g22に含まれる肌色画素はノイズ成分とみなし、その後の計算の対象としない。
【0032】
次に、有効な肌色画素を含む小格子の連結領域を探索し、各連結領域のラベリングを行なう。ここで連結領域とは、構成要素となる小格子の任意の2点が連続曲線で結ばれることを意味する。図4(c)は、2個の連結領域R1、R2がラベリングされた例を示す。連結領域R1は、有効な肌色画素を含む3個の小格子から構成され、連結領域R2は、有効な肌色画素を含む17個の小格子から構成されている。なお、図4(c)において、斜線で覆われていない小格子25は有効な肌色画素を含む小格子でないことを表している。
【0033】
続いて、予め定義する領域面積最小値を表す第2のしきい値と、各連結領域の面積(含まれる小格子の数)を比較し、第2のしきい値を下回る面積の連結領域は、やはりノイズとみなして削除する。このようにして求めたいくつかの連結領域のうち、最大の面積を持つ連結領域を顔領域の候補であると判定する。
【0034】
図2に示すように、カメラ2a、2bとユーザ100の位置関係から、カメラ2a、2bで撮影される画面において最大の面積を持つ肌色の領域はユーザ100の顔の肌色部分であるという仮定は妥当である。
【0035】
以上の手順で求めた顔領域に隣接するかまたは顔領域に囲まれた小格子のうち、周囲の少なくとも三方向の延長線上にそれぞれ顔領域に含まれる肌色画素があるものは、顔領域に含まれるものとする。図4(c)の連結領域R2に隣接する小格子25が上記処理により新たに顔領域に含まれる小格子に該当する。例えば顔画像に含まれる眼や唇を表す領域は、上記の肌色判定では顔画像を構成する小格子として判定し得ない。しかしこれらの部位は必ず周囲の肌色画素に少なくとも三方向が囲まれているため、少なくとも三方向の延長線上にそれぞれ顔領域に含まれる肌色画素が存在する部分を顔領域に新たに含めることにより、顔全てを構成する画素の集合を求めることができる。
【0036】
以上の手順により各カメラ2i(i=a,b)からの入力画像に基づき顔領域を顔領域検出部43iによって検出する。さらに検出した顔領域を構成する画素の重心を、視点位置演算部45によって求め、これをユーザ100の視点とする。この段階では、各カメラ2i(i=a,b)に投影されたユーザ100の視点位置が求められている。
【0037】
予めカメラ2a、2bの実空間上での位置およびカメラに投影されるカメラ画像の実空間上での位置関係などは、キャリブレーションにより定めておく。カメラのキャリブレーションは、Tsaiが「A Versatile Camera Calibration Technique for high−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TY Cameras and Lenses」(IEEE Journal of Robotics and Automation,Vol.RA−3,No.4,pp.323−344,1987)で示しているアルゴリズムによる。本実施形態の三次元画像表示装置では使用前に予めカメラキャリブレーションを行っておくものとする。
【0038】
各カメラ2i(i=a,b)の位置がキャリブレーションにより定められているので、顔領域検出部43iの出カとして得られた投影面上の視点位置とカメラ2iの位置を結ぶ視線ベクトル上にユーザ100の視点位置の三次元位置が存在する。2組以上の複数のカメラを用いれば、それらの視線ベクトルの交点を求めることにより実際の三次元空間におけるユーザ100の視点位置が定まる。図5は2組のカメラ2a、2bを用いた場合の視点位置の推定の例を示すものである。カメラ2aが捉えた画像では、ユーザ100の視点位置27aが求められており、また同様にカメラ2bが捉えた画像にはユーザの視点位置27bが存在する。位置2aと位置27aを結ぶ視線ベクトル28および位置2bと位置27bを結ぶ視線ベクトル29の交点Pが推定される三次元空間中のユーザ100の視点位置となる。このユーザの視点位置は、視点位置演算部45によって演算される。
【0039】
ユーザ視点位置決定手段4は、カメラ2a、2bからの画像に基づいて、上記のアルゴリズムでユーザの視点位置を決定する機能を有する。ただし、カメラが3台以上ある場合は、以下の手順でより精度の高いユーザ視点位置の決定を行なう。
【0040】
まず、各カメラとこのカメラの画像に基づいて決定されるユーザ視点位置とを結ぶ視線ベクトルの全てについて、その視線ベクトルの情報の確度を示す数値として信頼度Rを設定する。信頼度Rには、その視線ベクトルに対応するカメラが捉えた画像のユーザの顔領域のうち肌色画素と認識した画素数の総数を用いる。また信頼度の最小値を定めておき、この最小値を上まわる信頼度を持つ視線ベクトルのみの組合せで顔の三次元推定位置を求める。
【0041】
3組以上の視線ベクトルが存在するとき、そのうち任意の2組を選んで視線ベクトルの交点を求めることは可能である。しかし顔領域の検出は各カメラの画像単位毎に行なわれ、各カメラが撮影した画像における顔領域も各画像によって異なるため、それぞれの交点が一致することはない。そこで、図6に示すように、信頼度Rの最も高い視線ベクトルを主視線ベクトルT1とし、主視線ベクトルT1上の点で他の視線ベクトルT2、T3、T4ヘの距離の和が最小となる位置を求め、この位置を、推定すべきユーザ視点位置の三次元位置とする。
【0042】
再び図1に戻り、このようにしてユーザ視点位置決定手段4によって決定されたユーザ視点位置(三次元位置)はオブジェクト投影視点位置決定手段6に入力される。オブジェクト投影視点位置決定手段6は、実空間におけるユーザ100の視点位置(三次元位置)から、オブジェクトを表現する仮想空間における視点位置を決定する機能を有する。実空間におけるユーザの視点位置と仮想空間における視点位置との対応は、例えば次の二種類の方法によって決定される。
【0043】
まず、第1の方法は、実空間における三次元座標と仮想空間における三次元座標を同次変換で対応させる方法である。この同次変換は、4次元のアフィン変換マトリックスによって表される。
【0044】
この同次変換を用いた方法を採用した場合、ユーザの視点位置を移動させるとその移動量に応じて仮想空間中の視点位置が移動するため、オブジェクトの観測時における三次元画像の変化に対して自然な印象を与えることが可能である。例えば正面からオブジェクトを観測している場合、ユーザの顔の位置を左側に移動すると左の側面が表示され、逆に右から覗き込むとオブジェクトの右側面を観測することができる。また顔を近づけるとオブジェクトは大きく表示され、後ろに後退すると小さくオブジェクトの全体像を表示する。
【0045】
ところがユーザの視点の実空間上での移動を仮想空間における座標に同次変換で対応させただけでは不都合が生じる場合がある。例えばユーザの前方、かつカメラが構成する平面の近くに仮想的なオブジェクトを配置した場合、ユーザは顔をどう動かしてもオブジェクトの背面を見ることができない。
【0046】
そこで第2の方法として、第1の方法に加えて、実空間上での視点の移動に関して、左右・上下方向に関する視点の移動量(Δy、Δz)を、オブジェクトに対する角度の変化量として次のように変換する。
【0047】
θ=Cy×Δy
φ=Cz×Δz
上式において、Cy及びCzはユーザの視点移動に対する感度を設定する係数であり、ユーザの使用感に基づいて定める定数である。なお、θとφはそれぞれ図7における角度∠ROQ及び∠POQに対応する。図7は視点移動量の変換方式を示す概念図である。図7では、視点がRからP′へ移動するときの視線方向の変化の例を示している。また、場合によってはそれぞれ変化量に制限を課す必要がある。これは、例えば上下方向の変化に制限を持たせないと、オブジェクトの天地が逆さまになり、かえって不自然な操作との印象を与える恐れがあるためである。
【0048】
再び図1に戻り、オブジェクト定義ユニット8は、仮想空間上のオブジェクトを定義するオブジェクト情報を設定する機能を有する。オブジェクト情報は、形状データを含む。オブジェクトの形状データは、複数の多角形から構成されるポリゴンとして格納される。またオブジェクト情報は、オブジェクトの形状を定義する形状データだけでなく、質感データ及ぴ描画方法を指定するデータも含む。この質感データとは、オブジェクトの表面の質感を表現するデータである。オブジェクトを構成する各面が持つ光の取り扱いに関するデータであり、環境色、拡散色、鏡面色、反射率などの値で質感データは構成される。これらのオブジェクト情報は、予めメモリに記憶され、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に設定される。
【0049】
また、投影情報定義ユニット10は、図8に示すように、仮想空間上における視点80とニアクリップ面82との距離L1、視点80とファークリップ面84との距離L2、オブジェクト90が配置されるニアクリップ面82とファークリップ面84との間の可視領域となる錐台86、および錐台の定義する角度α、β等のパラメータ(投影情報)を設定する。これらのパラメータ(投影情報)は、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に設定される。
【0050】
図1に示す三次元画像投影変換手段12は、オブジェクト投影視点位置決定手段6によって決定されたオブジェクト投影視点位置情報及びオブジェクト定義ユニット8によって定義されたオブジェクト情報並びに投影情報定義ユニット10によって定義された投影情報に基づいて、仮想空間中に配置されたオブジェクトを視点位置から観測した結果としての投影画像に変換する機能を有する。また、三次元画像投影変換手段12は、光源データや環境データも保持し、リアリティの高い三次元画像を作成することができる。光源データは仮想空間中に配置する光源の位置、方向、拡散率、光源色などを定義するデータである。また環境データはオブジェクトを取り巻く仮想空間中の環境的な条件の情報を表す。これらのデータは、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に入力される。
【0051】
三次元画像提示手段14は、三次元画像投影変換手段12で作成された投影画像を画面上に表示し、ユーザに提示する機能を有する。通常は、一般的なコンピュ一タ用のカラーディスプレイ装置に画像データを表示する形式で投影画像の提示を行なう。なおオブジェクト定義ユニット8、三次元画像投影変換手段12および三次元画像提示手段14に関しては既に公知の処理系が存在し、例えばOpenGL(登録商標)などのグラフィクスライブラリを利用することができる。
【0052】
本実施形態においては、そのような三次元画像の生成処理に関して視点の移動をユーザの顔認識を利用して行ない、またその対応方法に関して実空間上における変化量を仮想空間では極座標形式における角度の変化量に対応させている。これにより、CGによる三次元画像の表示に関しマウスなどのポインティングデバイスを利用してユーザが明示的に視点の操作を行なわずとも、ユーザは観測する位置を移動するだけで視点を移動させることができ三次元面像の直感的な観測を行なうことができる。
【0053】
また、本実施形態においては、仮想物体そのものに対する操作は、図2に示すキーボード30またはマウス32等のポインティングデバイスを操作することにより、行うことができる。そして、この仮想物体そのものに対する操作は、上述の三次元画像の表示における視点位置の操作と分離することができるため視点の移動と物体の操作を同時に行なうことが可能となる。したがって仮想空間に配置された三次元物体を容易に操作することができる。
【0054】
このように、カメラで捉えたユーザの顔画像に基づいたユーザの顔位置の認識から視点変化による三次元画像の生成を行ない画面上への提示までの処理を実時間で逐次的に実施することにより、あたかもその場で仮想的なオブジェクトを眺めているような感触をユーザに体験させることが可能となる。
【0055】
なお、本実施形態おいては、ユーザの視点位置の決定に肌色画素を用いて行ったが、ユーザの目の形を記憶してこの目の形に基づいて行うテンプレートマッチング法を用いても良い。
【0056】
【発明の効果】
以上述べたように、本発明によれば、三次元画像の表示における視点位置の操作と、仮想物体そのものに対する操作を分離することが可能となり、視点の移動と物体の操作を同時にかつ容易に行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態による三次元画像表示装置の構成を示すブロック図。
【図2】図1に示す実施形態による三次元画像表示装置の外観を示す斜視図。
【図3】本発明に係るユーザ視点位置決定手段の一具体例の構成を示すブロック図。
【図4】顔領域の判定方法を説明する概念図。
【図5】ユーザ視点位置の三次元位置を推定する方法を示す概念図。
【図6】3組以上の視線ベクトルからユーザ視点位置の三次元位置を推定する方式を示す概念図。
【図7】視点移動量の、極座標における変化量への変換を示す概念図。
【図8】本発明に係る視体積を説明する概念図。
【符号の説明】
2a カメラ
2b カメラ
4 ユーザ視点位置決定手段
6 オブジェクト視点位置決定手段
8 オブジェクト定義ユニット
10 投影情報定義ユニット
12 三次元画像投影変換手段
14 三次元画像提示手段
30 キーボード
32 マウス
41a 肌色画素検出部
41b 肌色画素検出部
43a 顔領域検出部
43b 顔領域検出部
45 視点位置演算部
【発明の属する技術分野】
本発明は物体の三次元画像を表示する三次元画像表示装置及び表示方法に関する。
【0002】
【従来の技術】
三次元コンピュータグラフィクスにおいては、ユーザは仮想空間中に可視領域(仮想空間内部に配置される描画の対象とする部分空間)を設定し、その中に配置される仮想的な物体(オブジェクト)を対象に三次元画像を描画する。三次元画像の描画は、仮想空間内に視点と投影面を与えて可視領域内部のオブジェクトを、その投影面に対して投影変換することにより行う。投影変換としては、例えば視点を中心として投影する透視投影変換が知られている。
【0003】
ユーザが所望する三次元画像を得るには、オブジェクトおよび可視領域を移動あるいは変化させる方式と、視点そのものの位置を変更する方式がある。これらの方式は相対的な関係にあるため、通常は視点を移動し必要に応じて可視領域の設定を変更する方式が用いられる。従来の技術では、視点の移動にはキーボードからの入力やマウス、トラックボールなどのポインティングデバイスが利用されることが多い。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の三次元画像表示装置では、仮想空間上に配置されているオブジェクトあるいは視点の操作を直接的に操作することができず、その操作方法がユーザにとって直感的ではない。
【0005】
三次元空間上に配置されたオブジェクトの持つ自由度は、各座標軸方向に関する位置の自由度と、各座標軸を中心とする回転の自由度の合計6自由度を持つ。しかしながら、このような三次元画像表示装置で視点の設定などに通常利用されるマウスやトラックボールは基本的には縦横の2自由度しか持たない。そこで、従来の三次元画像表示装置では、ボタンの押下と併用したり、メニューにより状態を選択するといった手法によって操作のモードを切り替えて、三次元空間内部の視点の設定操作を実現している。
【0006】
また仮想空間に配置されたオブジェクトを任意の視点から観測するだけでなく、三次元画像表示を行なう場合にはその表示したオブジェクトに何らかの操作を加えたい場合が多い。例えば仮想空間上に複数のオブジェクトが配置された状況においては、オブジェクトの位置を移動させつつ各オブジェクトの位置関係を様々な視点から確認したいという要望が生じる。また場合によってはオブジェクトに対して変形操作を行ない、その結果をやはり様々な視点から確認するという作業も発生しうる。
【0007】
従来の三次元画像表示装置における操作では、オブジェクトに対する操作と視点の移動操作の切り替えはモードの切り替えに対応するため、オブジェクトそのものに対する位置の移動や変形の操作と、視点移動の操作とを同時に実現することは困難である。あるいは高度なポインティングデバイスを利用した自由度の高い操作装置を導入することで同時操作を実現することは不可能ではないが、操作が煩雑になり、やはり直感的な操作は難しい。
【0008】
本発明は、上記事情を考慮してなされたものであって、仮想空間中に配置されたオブジェクトの三次元表示表示に関して、視点移動の操作と、オブジェクトの操作とを同時にかつ容易に行なうことのできる三次元画像表示装置及び表示方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明の一態様による三次元画像表示装置は、仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示装置であって、ユーザの位置を撮影するための複数のカメラと、前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するユーザ位置決定手段と、前記ユーザ位置決定手段によって決定された実空間におけるユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するオブジェクト投影視点位置決定手段と、前記オブジェクト投影視点位置決定手段によって決定された前記投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換する三次元画像投影変換手段と、前記三次元画像投影変換手段によって投影変換された画像を提示する三次元画像提示手段と、を備えたことを特徴とする。
【0010】
なお、前記オブジェクト投影視点位置決定手段は、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定するように構成しても良い。
【0011】
なお、前記オブジェクト投影視点位置決定手段は、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としても良い。
【0012】
なお、前記ユーザ位置決定手段は、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定しても良い。
【0013】
なお、前記ユーザ位置決定手段は、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出する肌色画素検出部と、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素検出部によって検出された肌色画素から前記ユーザの顔領域を検出する顔領域検出部と、前記顔領域検出部によって検出された顔領域から実空間における前記ユーザの視点位置を演算する視点位置演算部とを備えるように構成しても良い。
【0014】
なお、前記顔領域検出部は、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、前記視点位置演算部は、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算するように構成しても良い。
【0015】
また、本発明の一態様による三次元画像表示方法は、仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示方法であって、複数のカメラを用いてユーザの位置を撮影するステップと、前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するステップと、前記実空間における前記決定されたユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するステップと、前記決定された投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換するステップと、前記投影変換された画像を提示するステップと、を備えたことを特徴とする。
【0016】
なお、前記投影視点位置を決定するステップは、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定しても良い。
【0017】
なお、前記投影視点位置を決定するステップは、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としても良い。
【0018】
なお、前記ユーザの位置を決定するステップは、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定しても良い。
【0019】
なお、前記ユーザの位置を決定するステップは、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出するステップと、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素を検出するステップによって検出された肌色画素から前記ユーザの顔領域を検出するステップと、前記検出された顔領域から実空間における前記ユーザの視点位置を演算するステップとを備えるように構成しても良い。
【0020】
なお、前記顔領域を検出するステップは、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、前記ユーザの視点位置を演算するステップは、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算しても良い。
【0021】
【発明の実施の形態】
以下に、本発明の実施の形態を、図面を参照して説明する。
【0022】
本発明の一実施形態による三次元画像表示装置の構成を図1に示し、この実施形態の三次元画像表示装置の外観を図2に示す。この実施形態の三次元画像表示装置は、少なくとも2台のカメラ2a、2bと、ユーザ視点位置決定手段4と、オブジェクト投影視点位置決定手段6と、オブジェクト定義ユニット8と、投影情報定義ユニット10と、三次元画像投影変換手段12と、三次元画像提示手段14とを備えている。この実施形態の三次元画像表示装置は、図2に示すように、ユーザ100の正面に置かれた、例えば液晶ディスプレイからなる三次元画像提示手段14の上部にユーザ100の画像を撮影する複数(図2では2台)のカメラ2a、2bが設けられている。カメラ2a、2bの向きは、ユーザ100がディスプレイ14に対して正対したとき、カメラ2a、2bの画角の中心にユーザ100の顔が配置されるように設定される。この位置関係で配置されたときには、ユーザ100は、視線上に配置されると仮定する仮想的なオブジェクトをあたかも実際に存在するように観測することができる。三次元画像を投影する際の視点の位置は、ユーザ100の顔の実際の位置から決定される。ユーザ100の顔の実空間上における位置は、複数のカメラ2a、2bからの画像に基づいて測定される。
【0023】
次に、本実施形態の構成と作用を説明する。
【0024】
ユーザ100の顔の画像が複数のカメラ2a、2bによって得られ、これらのカメラ2a、2bからのそれぞれの画像に基づいて、ユーザ100の視点位置がユーザ視点位置決定手段4によって決定される。このユーザ視点位置決定手段4は、図3に示すように、肌色画素検出部41a、41bと、顔領域検出部43a、43bと、視点位置演算部45とを備えている。
【0025】
カメラ2a、2bからの画像が肌色画素検出部41a、41bにそれぞれ入力されると、各肌色画素検出部41i(i=a、b)においては、入力された画像を構成する画素のR(赤)値、G(緑)値、B(青)値を以下の式を用いてa値、b値に変換する。
【0026】
r=R/(R+G+B+1)
g=G/(R+G+B+1)
a=(r+g)/2.0
b=√3g/2.0
a値、b値への変換は、RGB空間上におけるベクトル(1,1,1)に直交する平面上の正三角形内への投影に相当するため、輝度の影響を受けにくいという特長を有する。
【0027】
肌色を表現する画素が持つa値、b値は、基準となる肌色を示す点(平均値)a0、b0を中心として正規分布するものと仮定し、a値、b値が予め定められた標準偏差内に収まる画素を肌色画素として抽出する。なお、肌色の基準点とする平均値a0、b0および標準偏差については実験により適切な値を求め、パラメータとして与えている。
【0028】
各肌色画素検出部41i(i=a,b)によって検出された各画素に関する肌色画素か否かの検出結果は、カメラ2iからの画像とともに顔領域検出部43iに入力される。各顔領域検出部43i(i=a,b)は、肌色画素が構成する連結領域を求め、その面積が最大となるものを、ユーザの顔領域と判定する機能を有する。具体的には以下の手続きを経て顔領域の判定を行なう。
【0029】
まずカメラ2i(i=a,b)からの画像を格子状に区切る。3×3個の画素からなる小格子に区切った場合の処理の概要を図4に示す。図4(a)において、破線で囲まれた最小の正方形が画素21を示し、斜線で覆われた画素21aが肌色画素と判定された画素を示す。小格子g1,・・・,g16は、3×3個の画素から構成されている。
【0030】
続いて、各小格子gi(i=1,・・・,16)毎に肌色画素と判定された画素の数を記録する。肌色画素の数を格子ごとに積算している状況を図4(a)に示す。例えば、図4(a)において、肌色画素21aは、小格子g1には0個、小格子g2には5個、小格子g3には4個、小格子g4には0個、小格子g5には3個、小格子g6には9個、小格子g7には4個、小格子g8には0個、小格子g9には1個、小格子g10には6個、小格子g11には2個、小格子g12〜g16には0個が含まれている。
【0031】
次に、各小格子を単位として周囲の小格子に記録された肌色画素数の総数を計算する。図4(b)は、小格子g22を中心としてやはり3×3個の小格子g11、g12、・・・、g33からなる大格子Gにおける肌色画素数の総数を求める状況を示す。この総数に関して、あらかじめ定義しておく第1のしきい値と比較し、この第1のしきい値を越える場合に大格子Gの中心の小格子g22を、有効な肌色画素を含む小格子として、その後の処理の対象とする。総数が第1のしきい値を越えない大格子Gの中心の小格子g22に含まれる肌色画素はノイズ成分とみなし、その後の計算の対象としない。
【0032】
次に、有効な肌色画素を含む小格子の連結領域を探索し、各連結領域のラベリングを行なう。ここで連結領域とは、構成要素となる小格子の任意の2点が連続曲線で結ばれることを意味する。図4(c)は、2個の連結領域R1、R2がラベリングされた例を示す。連結領域R1は、有効な肌色画素を含む3個の小格子から構成され、連結領域R2は、有効な肌色画素を含む17個の小格子から構成されている。なお、図4(c)において、斜線で覆われていない小格子25は有効な肌色画素を含む小格子でないことを表している。
【0033】
続いて、予め定義する領域面積最小値を表す第2のしきい値と、各連結領域の面積(含まれる小格子の数)を比較し、第2のしきい値を下回る面積の連結領域は、やはりノイズとみなして削除する。このようにして求めたいくつかの連結領域のうち、最大の面積を持つ連結領域を顔領域の候補であると判定する。
【0034】
図2に示すように、カメラ2a、2bとユーザ100の位置関係から、カメラ2a、2bで撮影される画面において最大の面積を持つ肌色の領域はユーザ100の顔の肌色部分であるという仮定は妥当である。
【0035】
以上の手順で求めた顔領域に隣接するかまたは顔領域に囲まれた小格子のうち、周囲の少なくとも三方向の延長線上にそれぞれ顔領域に含まれる肌色画素があるものは、顔領域に含まれるものとする。図4(c)の連結領域R2に隣接する小格子25が上記処理により新たに顔領域に含まれる小格子に該当する。例えば顔画像に含まれる眼や唇を表す領域は、上記の肌色判定では顔画像を構成する小格子として判定し得ない。しかしこれらの部位は必ず周囲の肌色画素に少なくとも三方向が囲まれているため、少なくとも三方向の延長線上にそれぞれ顔領域に含まれる肌色画素が存在する部分を顔領域に新たに含めることにより、顔全てを構成する画素の集合を求めることができる。
【0036】
以上の手順により各カメラ2i(i=a,b)からの入力画像に基づき顔領域を顔領域検出部43iによって検出する。さらに検出した顔領域を構成する画素の重心を、視点位置演算部45によって求め、これをユーザ100の視点とする。この段階では、各カメラ2i(i=a,b)に投影されたユーザ100の視点位置が求められている。
【0037】
予めカメラ2a、2bの実空間上での位置およびカメラに投影されるカメラ画像の実空間上での位置関係などは、キャリブレーションにより定めておく。カメラのキャリブレーションは、Tsaiが「A Versatile Camera Calibration Technique for high−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TY Cameras and Lenses」(IEEE Journal of Robotics and Automation,Vol.RA−3,No.4,pp.323−344,1987)で示しているアルゴリズムによる。本実施形態の三次元画像表示装置では使用前に予めカメラキャリブレーションを行っておくものとする。
【0038】
各カメラ2i(i=a,b)の位置がキャリブレーションにより定められているので、顔領域検出部43iの出カとして得られた投影面上の視点位置とカメラ2iの位置を結ぶ視線ベクトル上にユーザ100の視点位置の三次元位置が存在する。2組以上の複数のカメラを用いれば、それらの視線ベクトルの交点を求めることにより実際の三次元空間におけるユーザ100の視点位置が定まる。図5は2組のカメラ2a、2bを用いた場合の視点位置の推定の例を示すものである。カメラ2aが捉えた画像では、ユーザ100の視点位置27aが求められており、また同様にカメラ2bが捉えた画像にはユーザの視点位置27bが存在する。位置2aと位置27aを結ぶ視線ベクトル28および位置2bと位置27bを結ぶ視線ベクトル29の交点Pが推定される三次元空間中のユーザ100の視点位置となる。このユーザの視点位置は、視点位置演算部45によって演算される。
【0039】
ユーザ視点位置決定手段4は、カメラ2a、2bからの画像に基づいて、上記のアルゴリズムでユーザの視点位置を決定する機能を有する。ただし、カメラが3台以上ある場合は、以下の手順でより精度の高いユーザ視点位置の決定を行なう。
【0040】
まず、各カメラとこのカメラの画像に基づいて決定されるユーザ視点位置とを結ぶ視線ベクトルの全てについて、その視線ベクトルの情報の確度を示す数値として信頼度Rを設定する。信頼度Rには、その視線ベクトルに対応するカメラが捉えた画像のユーザの顔領域のうち肌色画素と認識した画素数の総数を用いる。また信頼度の最小値を定めておき、この最小値を上まわる信頼度を持つ視線ベクトルのみの組合せで顔の三次元推定位置を求める。
【0041】
3組以上の視線ベクトルが存在するとき、そのうち任意の2組を選んで視線ベクトルの交点を求めることは可能である。しかし顔領域の検出は各カメラの画像単位毎に行なわれ、各カメラが撮影した画像における顔領域も各画像によって異なるため、それぞれの交点が一致することはない。そこで、図6に示すように、信頼度Rの最も高い視線ベクトルを主視線ベクトルT1とし、主視線ベクトルT1上の点で他の視線ベクトルT2、T3、T4ヘの距離の和が最小となる位置を求め、この位置を、推定すべきユーザ視点位置の三次元位置とする。
【0042】
再び図1に戻り、このようにしてユーザ視点位置決定手段4によって決定されたユーザ視点位置(三次元位置)はオブジェクト投影視点位置決定手段6に入力される。オブジェクト投影視点位置決定手段6は、実空間におけるユーザ100の視点位置(三次元位置)から、オブジェクトを表現する仮想空間における視点位置を決定する機能を有する。実空間におけるユーザの視点位置と仮想空間における視点位置との対応は、例えば次の二種類の方法によって決定される。
【0043】
まず、第1の方法は、実空間における三次元座標と仮想空間における三次元座標を同次変換で対応させる方法である。この同次変換は、4次元のアフィン変換マトリックスによって表される。
【0044】
この同次変換を用いた方法を採用した場合、ユーザの視点位置を移動させるとその移動量に応じて仮想空間中の視点位置が移動するため、オブジェクトの観測時における三次元画像の変化に対して自然な印象を与えることが可能である。例えば正面からオブジェクトを観測している場合、ユーザの顔の位置を左側に移動すると左の側面が表示され、逆に右から覗き込むとオブジェクトの右側面を観測することができる。また顔を近づけるとオブジェクトは大きく表示され、後ろに後退すると小さくオブジェクトの全体像を表示する。
【0045】
ところがユーザの視点の実空間上での移動を仮想空間における座標に同次変換で対応させただけでは不都合が生じる場合がある。例えばユーザの前方、かつカメラが構成する平面の近くに仮想的なオブジェクトを配置した場合、ユーザは顔をどう動かしてもオブジェクトの背面を見ることができない。
【0046】
そこで第2の方法として、第1の方法に加えて、実空間上での視点の移動に関して、左右・上下方向に関する視点の移動量(Δy、Δz)を、オブジェクトに対する角度の変化量として次のように変換する。
【0047】
θ=Cy×Δy
φ=Cz×Δz
上式において、Cy及びCzはユーザの視点移動に対する感度を設定する係数であり、ユーザの使用感に基づいて定める定数である。なお、θとφはそれぞれ図7における角度∠ROQ及び∠POQに対応する。図7は視点移動量の変換方式を示す概念図である。図7では、視点がRからP′へ移動するときの視線方向の変化の例を示している。また、場合によってはそれぞれ変化量に制限を課す必要がある。これは、例えば上下方向の変化に制限を持たせないと、オブジェクトの天地が逆さまになり、かえって不自然な操作との印象を与える恐れがあるためである。
【0048】
再び図1に戻り、オブジェクト定義ユニット8は、仮想空間上のオブジェクトを定義するオブジェクト情報を設定する機能を有する。オブジェクト情報は、形状データを含む。オブジェクトの形状データは、複数の多角形から構成されるポリゴンとして格納される。またオブジェクト情報は、オブジェクトの形状を定義する形状データだけでなく、質感データ及ぴ描画方法を指定するデータも含む。この質感データとは、オブジェクトの表面の質感を表現するデータである。オブジェクトを構成する各面が持つ光の取り扱いに関するデータであり、環境色、拡散色、鏡面色、反射率などの値で質感データは構成される。これらのオブジェクト情報は、予めメモリに記憶され、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に設定される。
【0049】
また、投影情報定義ユニット10は、図8に示すように、仮想空間上における視点80とニアクリップ面82との距離L1、視点80とファークリップ面84との距離L2、オブジェクト90が配置されるニアクリップ面82とファークリップ面84との間の可視領域となる錐台86、および錐台の定義する角度α、β等のパラメータ(投影情報)を設定する。これらのパラメータ(投影情報)は、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に設定される。
【0050】
図1に示す三次元画像投影変換手段12は、オブジェクト投影視点位置決定手段6によって決定されたオブジェクト投影視点位置情報及びオブジェクト定義ユニット8によって定義されたオブジェクト情報並びに投影情報定義ユニット10によって定義された投影情報に基づいて、仮想空間中に配置されたオブジェクトを視点位置から観測した結果としての投影画像に変換する機能を有する。また、三次元画像投影変換手段12は、光源データや環境データも保持し、リアリティの高い三次元画像を作成することができる。光源データは仮想空間中に配置する光源の位置、方向、拡散率、光源色などを定義するデータである。また環境データはオブジェクトを取り巻く仮想空間中の環境的な条件の情報を表す。これらのデータは、図2に示すキーボード30またはマウス32等のポインティングデバイスを用いて選択的に入力される。
【0051】
三次元画像提示手段14は、三次元画像投影変換手段12で作成された投影画像を画面上に表示し、ユーザに提示する機能を有する。通常は、一般的なコンピュ一タ用のカラーディスプレイ装置に画像データを表示する形式で投影画像の提示を行なう。なおオブジェクト定義ユニット8、三次元画像投影変換手段12および三次元画像提示手段14に関しては既に公知の処理系が存在し、例えばOpenGL(登録商標)などのグラフィクスライブラリを利用することができる。
【0052】
本実施形態においては、そのような三次元画像の生成処理に関して視点の移動をユーザの顔認識を利用して行ない、またその対応方法に関して実空間上における変化量を仮想空間では極座標形式における角度の変化量に対応させている。これにより、CGによる三次元画像の表示に関しマウスなどのポインティングデバイスを利用してユーザが明示的に視点の操作を行なわずとも、ユーザは観測する位置を移動するだけで視点を移動させることができ三次元面像の直感的な観測を行なうことができる。
【0053】
また、本実施形態においては、仮想物体そのものに対する操作は、図2に示すキーボード30またはマウス32等のポインティングデバイスを操作することにより、行うことができる。そして、この仮想物体そのものに対する操作は、上述の三次元画像の表示における視点位置の操作と分離することができるため視点の移動と物体の操作を同時に行なうことが可能となる。したがって仮想空間に配置された三次元物体を容易に操作することができる。
【0054】
このように、カメラで捉えたユーザの顔画像に基づいたユーザの顔位置の認識から視点変化による三次元画像の生成を行ない画面上への提示までの処理を実時間で逐次的に実施することにより、あたかもその場で仮想的なオブジェクトを眺めているような感触をユーザに体験させることが可能となる。
【0055】
なお、本実施形態おいては、ユーザの視点位置の決定に肌色画素を用いて行ったが、ユーザの目の形を記憶してこの目の形に基づいて行うテンプレートマッチング法を用いても良い。
【0056】
【発明の効果】
以上述べたように、本発明によれば、三次元画像の表示における視点位置の操作と、仮想物体そのものに対する操作を分離することが可能となり、視点の移動と物体の操作を同時にかつ容易に行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態による三次元画像表示装置の構成を示すブロック図。
【図2】図1に示す実施形態による三次元画像表示装置の外観を示す斜視図。
【図3】本発明に係るユーザ視点位置決定手段の一具体例の構成を示すブロック図。
【図4】顔領域の判定方法を説明する概念図。
【図5】ユーザ視点位置の三次元位置を推定する方法を示す概念図。
【図6】3組以上の視線ベクトルからユーザ視点位置の三次元位置を推定する方式を示す概念図。
【図7】視点移動量の、極座標における変化量への変換を示す概念図。
【図8】本発明に係る視体積を説明する概念図。
【符号の説明】
2a カメラ
2b カメラ
4 ユーザ視点位置決定手段
6 オブジェクト視点位置決定手段
8 オブジェクト定義ユニット
10 投影情報定義ユニット
12 三次元画像投影変換手段
14 三次元画像提示手段
30 キーボード
32 マウス
41a 肌色画素検出部
41b 肌色画素検出部
43a 顔領域検出部
43b 顔領域検出部
45 視点位置演算部
Claims (12)
- 仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示装置において、
ユーザの位置を撮影するための複数のカメラと、
前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するユーザ位置決定手段と、
前記ユーザ位置決定手段によって決定された実空間におけるユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するオブジェクト投影視点位置決定手段と、
前記オブジェクト投影視点位置決定手段によって決定された前記投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換する三次元画像投影変換手段と、
前記三次元画像投影変換手段によって投影変換された画像を提示する三次元画像提示手段と、
を備えたことを特徴とする三次元画像表示装置。 - 前記オブジェクト投影視点位置決定手段は、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定することを特徴とする請求項1記載の三次元画像表示装置。
- 前記オブジェクト投影視点位置決定手段は、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としたことを特徴とする請求項1または2記載の三次元画像表示装置。
- 前記ユーザ位置決定手段は、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定することを特徴する請求項1乃至3のいずれかに記載の三次元画像表示装置。
- 前記ユーザ位置決定手段は、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出する肌色画素検出部と、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素検出部によって検出された肌色画素から前記ユーザの顔領域を検出する顔領域検出部と、前記顔領域検出部によって検出された顔領域から実空間における前記ユーザの視点位置を演算する視点位置演算部とを備えたことを特徴とする請求項4記載の三次元画像表示装置。
- 前記顔領域検出部は、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、
前記視点位置演算部は、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算することを特徴とする請求項5記載の三次元画像表示装置。 - 仮想空間中に可視領域を設定し、この可視領域中に配置されるオブジェクトを対象に三次元画像を描画し、表示する三次元画像表示方法において、
複数のカメラを用いてユーザの位置を撮影するステップと、
前記複数のカメラからの画像に基づいて実空間における前記ユーザの位置を決定するステップと、
前記実空間における前記決定されたユーザの位置に基づいて、前記仮想空間における前記オブジェクトを投影するための投影視点位置を決定するステップと、前記決定された投影視点位置、前記オブジェクトを定義するオブジェクト定義情報、および前記オブジェクトを投影するための投影情報に基づいて、前記オブジェクトの三次元形状を投影画面に投影変換するステップと、
前記投影変換された画像を提示するステップと、
を備えたことを特徴とする三次元画像表示方法。 - 前記投影視点位置を決定するステップは、前記実空間における前記視点位置を同次変換することによって前記仮想空間における前記投影視点位置を決定することを特徴とする請求項7記載の三次元画像表示方法。
- 前記投影視点位置を決定するステップは、前記仮想空間における前記投影視点位置の変化量を、前記実空間における前記視点位置の変化量に比例した角度量としたことを特徴とする請求項7または8記載の三次元画像表示方法。
- 前記ユーザの位置を決定するステップは、前記複数のカメラからの画像に基づいて実空間における前記ユーザの視点位置を決定することを特徴する請求項7乃至9のいずれかに記載の三次元画像表示方法。
- 前記ユーザの位置を決定するステップは、前記複数のカメラからのそれぞれの画像に対して肌色画素を検出するステップと、前記複数のカメラからのそれぞれの画像に対して、前記肌色画素を検出するステップによって検出された肌色画素から前記ユーザの顔領域を検出するステップと、前記検出された顔領域から実空間における前記ユーザの視点位置を演算するステップとを備えたことを特徴とする請求項10記載の三次元画像表示方法。
- 前記顔領域を検出するステップは、前記肌色画素の連結領域を求め、これらの連結領域のうち面積が最大な連結領域と、この最大な連結領域に隣接するかまたは囲まれる画素であって、周囲の少なくとも三方向の延長線上に上記最大な連結領域の肌色画素が存在する画素との合併集合を顔領域とし、
前記ユーザの視点位置を演算するステップは、各カメラからの画像に対して前記顔領域の重心を求め、前記カメラから対応する前記顔領域の重心とを結ぶ視線ベクトルを求め、これらの視線ベクトルに基づいて前記ユーザの視点位置を演算することを特徴とする請求項11記載の三次元画像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188117A JP2004030408A (ja) | 2002-06-27 | 2002-06-27 | 三次元画像表示装置及び表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002188117A JP2004030408A (ja) | 2002-06-27 | 2002-06-27 | 三次元画像表示装置及び表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004030408A true JP2004030408A (ja) | 2004-01-29 |
Family
ID=31182961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002188117A Pending JP2004030408A (ja) | 2002-06-27 | 2002-06-27 | 三次元画像表示装置及び表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004030408A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005267258A (ja) * | 2004-03-18 | 2005-09-29 | Nara Institute Of Science & Technology | 顔情報計測システム |
JP2009143722A (ja) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | 人物追跡装置、人物追跡方法及び人物追跡プログラム |
JP2012252468A (ja) * | 2011-06-01 | 2012-12-20 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
TWI382397B (zh) * | 2006-08-21 | 2013-01-11 | Sony Corp | Display control devices and methods, and program products |
US9205327B2 (en) | 2011-03-08 | 2015-12-08 | Nintento Co., Ltd. | Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method |
US9375640B2 (en) | 2011-03-08 | 2016-06-28 | Nintendo Co., Ltd. | Information processing system, computer-readable storage medium, and information processing method |
US9539511B2 (en) | 2011-03-08 | 2017-01-10 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device |
US9561443B2 (en) | 2011-03-08 | 2017-02-07 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method |
US9643085B2 (en) | 2011-03-08 | 2017-05-09 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data |
JP2017087610A (ja) * | 2015-11-12 | 2017-05-25 | コニカミノルタ株式会社 | 画像処理装置 |
US9925464B2 (en) | 2011-03-08 | 2018-03-27 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device |
-
2002
- 2002-06-27 JP JP2002188117A patent/JP2004030408A/ja active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4565445B2 (ja) * | 2004-03-18 | 2010-10-20 | 国立大学法人 奈良先端科学技術大学院大学 | 顔情報計測システム |
JP2005267258A (ja) * | 2004-03-18 | 2005-09-29 | Nara Institute Of Science & Technology | 顔情報計測システム |
TWI382397B (zh) * | 2006-08-21 | 2013-01-11 | Sony Corp | Display control devices and methods, and program products |
JP2009143722A (ja) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | 人物追跡装置、人物追跡方法及び人物追跡プログラム |
US9375640B2 (en) | 2011-03-08 | 2016-06-28 | Nintendo Co., Ltd. | Information processing system, computer-readable storage medium, and information processing method |
US9561443B2 (en) | 2011-03-08 | 2017-02-07 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method |
US9345962B2 (en) | 2011-03-08 | 2016-05-24 | Nintendo Co., Ltd. | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US9370712B2 (en) | 2011-03-08 | 2016-06-21 | Nintendo Co., Ltd. | Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data |
US9925464B2 (en) | 2011-03-08 | 2018-03-27 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device |
US9492743B2 (en) | 2011-03-08 | 2016-11-15 | Nintendo Co., Ltd. | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US9492742B2 (en) | 2011-03-08 | 2016-11-15 | Nintendo Co., Ltd. | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US9522323B2 (en) | 2011-03-08 | 2016-12-20 | Nintendo Co., Ltd. | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US9526981B2 (en) | 2011-03-08 | 2016-12-27 | Nintendo Co., Ltd. | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US9539511B2 (en) | 2011-03-08 | 2017-01-10 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device |
US9205327B2 (en) | 2011-03-08 | 2015-12-08 | Nintento Co., Ltd. | Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method |
US9643085B2 (en) | 2011-03-08 | 2017-05-09 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data |
JP2012252468A (ja) * | 2011-06-01 | 2012-12-20 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP2017087610A (ja) * | 2015-11-12 | 2017-05-25 | コニカミノルタ株式会社 | 画像処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7522186B2 (en) | Method and apparatus for providing immersive surveillance | |
US7755608B2 (en) | Systems and methods of interfacing with a machine | |
US10600169B2 (en) | Image processing system and image processing method | |
CN104380338B (zh) | 信息处理器以及信息处理方法 | |
JP5093053B2 (ja) | 電子カメラ | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
US20170214899A1 (en) | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images | |
JP7277085B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6310149B2 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7182976B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7164968B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP2008275341A (ja) | 情報処理装置、情報処理方法 | |
US11967094B2 (en) | Detecting device, information processing device, detecting method, and information processing program | |
JP2021520577A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
US20190266798A1 (en) | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system | |
EP3435670A1 (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
Böhm | Multi-image fusion for occlusion-free façade texturing | |
CN114241168A (zh) | 显示方法、显示设备及计算机可读存储介质 | |
JP2004030408A (ja) | 三次元画像表示装置及び表示方法 | |
US11043019B2 (en) | Method of displaying a wide-format augmented reality object | |
US20190066366A1 (en) | Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting | |
JP7341736B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2006318015A (ja) | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム | |
JP7006810B2 (ja) | 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 |